چه کسی می تواند در مورد آینده تکنولوژی dystopian ما حرفی بزند؟


چهارشنبه گذشته ، تیمیت گبرو ، همکار تحقیقاتی و از رهبران تیم هوش مصنوعی اخلاقی در گوگل ، گفت که او به دلیل یک مقاله تحقیقاتی که نویسنده مشترک آن بود از شرکت حذف شد و برای بررسی ارسال شد. طبق گزارش گبرو ، مدیر از او خواسته است نام خود را از روزنامه منصرف یا حذف کند ، این امر نگرانی های اخلاقی در مورد مدل های زبان AI از نوع مورد استفاده در موتور جستجوی گسترده گوگل را ایجاد می کند. گبرو ، یکی از برجسته ترین اخلاقگرایان دره سیلیکون و از معدود زنان سیاه پوست گوگل در مقام رهبری ، در پاسخ به درخواست شفافیت در مورد بازبینی ، پیشنهاد کرد در صورت درک کامل شرکت ، نام وی را از روزنامه حذف کند. فرآیند و تهیه نقشه راه برای محققان جهت بررسی های بعدی. اگر آنها با این شرایط موافقت نکنند ، وی گفت که بعداً شرکت را ترک خواهد کرد. گوگل این را به عنوان دعوت دید. آنها به سرعت آنچه را که استعفا می نامیدند ، پذیرفتند.

شما می توانید نام گبرو را از گروه سركوب جاده ، Black in AI یا كاغذ انفجاری كه با Joy Buolamvini از آزمایشگاه رسانه ای MIT تألیف شده است ، تشخیص دهید و ثابت كنید كه برنامه شناسایی چهره آمازون ، Rekogmination ، بسیار مغرضانه است. به افراد سفید پوست و سبک تر. این مطالعه نشان داد که Rekogmination قادر به حساب مردان با پوست روشن تر است ، اما در مورد زنان ، به ویژه زنان رنگارنگ ، میزان شکست قابل توجهی دارد: 19٪ موارد زنان را به عنوان مردان طبقه بندی نادرست می کنند. زنان پوست تیره و دارای رنگ پوست تیره در 31 درصد موارد طبقه بندی نامناسبی داشتند. فقط می توان هرج و مرجی را که می تواند بر مردم خلسه ایجاد کند تصور کنید.

آمازون سعی کرد این مطالعه را رد کند ، و آن را “گمراه کننده” خواند ، اما مقاله اشتعال مجدد ، پس از انتشار گسترده در مطبوعات ملی ، بذر ترس موجه در جامعه را کاشت: آمازون فناوری خود را در زمانی که تاریخ شکست .

آخرین مقاله گبرو نیز با همین نگرانی روبرو شده است: ، توسط مهندسان مورد توجه قرار نگرفته و یا خطاب نکرده اند. ایده هوش مصنوعی که برخلاف علایق ما عمل کند یکی از کابوس های داستان های علمی علمی است که طی دهه ها انجام می شود. حالا این فقط یک واقعیت زندگی است.

در هفته به عقب و جلو ، گوگل گزارش وقایع Gebru را به چالش کشیده است ، در حالی که 1604 کارمند Google و 2،658 هوادار خارجی از طرف او برای محکوم کردن آنچه “سانسور تحقیق بی سابقه” خوانده اند – بسیاری از بینندگان این رسوایی ، از جمله من ، از ترس اینکه انگیزه Google برای سود و منافع گونه های انسانی مغایرت داشته باشد ، احساسات خود را در مورد AI تغییر داده ام. اینکه گوگل همچنین داور آنچه می تواند توسط کارشناسان کارکنان خود در مورد فناوری مورد استفاده برای ثروتمند شدن به صورت عمومی منتشر یا گفته شود ، این ترس را ترکیب می کند. (چهارشنبه ،مدیر عامل سوندار پیچایتحقیقات داخلی در مورد آزادی Gebru را اعلام کرد.گوگل پاسخی نداد جمهوری جدیددرخواست نظر.) 

در قلب رسوایی گبرو یک داستان قدیمی در مورد نحوه مجازات سوus استفاده کنندگان توسط کارگردانان سودجو قرار دارد که به طور غریزی می دانند چگونه مارکرها را بر خلاف نژاد یا جنسیت برای پیروزی در این بازی مسلح کنند. اما مقیاسی که Google کار می کند اطمینان می دهد که تعصبات آن ، که در همه مشاغل نابرابر ذاتی است و باید به طور فعال اصلاح شوند ، در آینده گسترش می یابد تا شرایط وجود انسان را منعکس کند. کار گبرو تا به امروز نشان داده است که ، شاید ناگزیر ، یادگیری ماشینی تعصبات و سو mis تفاهماتی را که مردم از قبل مستعد آن هستند جذب می کند – به ویژه کسانی که در میان اعضای کلاس سیلیکون ولی در حال گسترش هستند و می توانند آرا را انتخاب کنند (به معنای واقعی کلمه و به صورت مجازی) و به طور نامتناسبی مردانه هستند. این فناوری ها به سرعت در حال پیشرفت هستند که ، همانطور که قسمت های بیشتری از زندگی ما را لمس می کنند ، فرصت های واقعی و خطر واقعی را به همراه می آورند. پیش نویس سند گبرو احتیاط را می طلبد – که همچنین تهدیدی برای کارفرمای خود است.


کلید گزارش گبرو و دیگران در کلمات “مدل های زبان” نهفته است. به نظر می رسد به اندازه کافی بی گناه ، این فناوری است که به AI اجازه می دهد تا بیان انسان را تقلید کند. به یاد می آورید که وقتی جمعاً فهمیدیم شما می توانید از روی متن قابل پیش بینی بازی بسازید؟ شما می دانید که چگونه کار می کند: یک جمله را با تلفن هوشمند در تلفن هوشمند خود شروع کنید ، سپس اجازه دهید تکمیل خودکار بقیه موارد را پر کند. نتیجه خواندن سرگرم کننده است زیرا همیشه کمی تحریف شده است ، اما بسیار نزدیک به سبک نوشتاری واقعی شما است. این یک نگرش شیطانی و در عین حال شوم است ، که شبیه لذت تحسین خودتان در آینه یک خانه سرگرم کننده است.

فناوری پشت متن پیش بینی شده به یک مدل آماری متکی است که نشان می دهد احتمال پیگیری یک کلمه از کلمه ای که با پیشرفت هایی در پردازش زبان طبیعی یا NLP ایجاد شده و به تلفن شما امکان می دهد عادت های نوشتاری شما را بیاموزد ، ایجاد شده است. “طبیعی” در این اصطلاح به چیزهای مرموزی که از دهان انسان بیرون می آید اشاره دارد که اساتید زبان شناسی حتی به طور کامل درک نمی کنند. بخش “پردازش زبان” به کار انجام شده توسط رایانه ها برای خواندن ، رمزگشایی و ایجاد ابزارهای مفید از داده های آن گفته می شود. از این نظر ، هوش مصنوعی می تواند زبان طبیعی را “درک” کند ، اما به روش ابتدایی تقلید و تقلید – از این رو طوطی های عنوان مقاله. گوگل به طور فزاینده ای برای ارتباطات ، بهبود موتور جستجوی خود و از همه مهمتر درآمد ، به NLP اعتماد می کند.

یک سند در حال گردش بصورت آنلاین وجود دارد که گفته می شود گزارشی از Gebru و همکاران آن است ، اما بررسی فناوری MIT پیش نویس رسمی را در نظر گرفت. طبق مقاله اخیر خود ، Stochastic Parrots ، وی در مورد خطرات مدلهای اصلی زبان که در سه سال گذشته در مرکز موفقیت NLP بوده است صحبت می کند. این مقاله با گسترش داده های درون بازی به نسبت عظیم و نامفهوم ، ادعا می کند که طبق گزارش MIT ، مدل های جدید زبان به هوش مصنوعی اجازه داده است “صداهای” کاملاً دقیق انسانی ایجاد کند – آنقدر خوب که آینه خانه سرگرم کننده را صاف کند و شما را گول بزند. کاملتر

عواقب این فناوری بسیار زیاد است. به گفته این روزنامه ، پردازش چنین حجم عظیمی از داده ها برای محیط زیست خطری ایجاد می کند زیرا در آن از برق زیادی استفاده می شود. همچنین به این معنی است که تنظیم و مدیریت آن چنان گران است که مزیت شرکت های ثروتمند را از قبل افزایش می دهد. گبرو و همكارانش در پیش نویس سند خود نوشتند ، طبق MIT: “وقت آن است كه محققان بهره وری انرژی و هزینه ها را برای كاهش تأثیر منفی بر محیط و دسترسی ناعادلانه به منابع اولویت بندی كنند.”

محققان می گویند خطرات تعصب در برنامه زیاد است. این مدل های عظیم هر داده ای را که می توانند از طریق اینترنت پیدا کنند جمع آوری می کنند – چه چیزی می تواند زبان نژادپرستانه ، جنسیتی یا بدخواهانه را به روش دیگری متوقف کند؟ علاوه بر این ، گبرو معتقد است ، این مدل ها قادر به درک تفاوت های ظریف یا تغییرات اخیر در معنای کلماتی مانند ، مثلاً زندگی سیاه نیستند. آنها همچنین فقط برای زبانهایی که قبلاً در اینترنت بیش از حد نمایان شده اند ، مانند انگلیسی ، باعث افزایش نابرابری های موجود بین زبانها و همگن سازی بیشتر اینترنت می شوند.

از بیش از 7000 زبان که در حال حاضر روی زمین زندگی می کنند ، سیری از 21 زبان پشتیبانی می کند. Google Home از 13 پشتیبانی می کند. و الکسا از هشت پشتیبانی می کند. نتیجه این محدودیت ، خالد چاكری از انجمن منابع زبان اروپا ، در یك پست وبلاگ درباره تنوع زبانی در هوش مصنوعی به كارن آینسلی گفت ، “زبانهایی با چندین میلیون سخنران كه به این فن آوری ها دسترسی ندارند.” بنابراین ، گوگل و شرکای آن اساساً تعداد زیادی از کاربران بالقوه در سراسر جهان را به دلیل نمایندگی بیش از حد برخی از زبانها در اینترنت ، که حدود 50٪ آنها به انگلیسی هستند ، حذف می کنند.

در هنگام کار با چنین حجم عظیمی از داده ها ، حتی نظارت بر سوگیری در هنگام کار در هوش مصنوعی دشوار می شود. “در بخشی از پیش نویس سندی که منتشر شده است ، می خوانید:” بنابراین ، روشی که به مجموعه داده های بسیار بزرگ برای مستند سازی متکی باشد ، اساساً خطرناک است. ” از MIT “تا زمانی که اسناد گزارش بالقوه را امکان پذیر می کند ، … داده های آموزشی بدون سند بدون استفاده از آن همچنان آسیب می رسانند.” چگونه Google می تواند چیزی را که حتی نمی تواند ببیند اصلاح کند؟


در زیر س compالات قانع کننده ای که این مقاله مطرح کرده است ، یک پارادوکس جذاب نهفته است: هوش مصنوعی نمی تواند بر تعصبات غلبه کند به این دلیل ساده که از زبان انسانی درک نمی کند. همانطور که قبلاً ذکر شد ، حتی نوآم چامسکی نیز به طور کامل نمی فهمد که چرا یا چگونه زبان در مغز انسان جوان ایجاد می شود – ما فقط می دانیم که او آن را درک می کند. بنابراین ، همه این مدل ها می توانند اطلاعات فروخته شده را تقلید ، دستکاری و بازیابی کنند تا مثلاً Google Adwords را بهتر کار کند.

زبان یک رمز و راز است و کارشناسان زبان اجتماعی جامعه چندین دهه است که رابطه آن را با قدرت و نابرابری بررسی می کنند – حداقل از زمانی که ویلیام لابو مطالعه خود را در سال 1966 در مورد فروشگاه های بزرگ در نیویورک منتشر کرد ، اولین اثبات این که تلفظ با طبقه بندی اقتصادی اقتصادی ارتباط دارد. . کتاب درسی کلاسیک Norman Fairclough زبان و قدرت به دانشجویان زبان در سراسر جهان اختصاص داده می شود و به آنها می آموزد که هیچ ارتباط ساده ای بین “زبان” و جامعه وجود ندارد – آنها نهادهای مستقلی نیستند. در حقیقت ، هیچ “پیوند بیرونی” بین “زبان و جامعه” وجود ندارد ، بلکه یک پیوند داخلی و دیالکتیکی است که به عنوان یک ماشین برای ایجاد ارتباطات عمل می کند ، همانطور که ما آن را از ترکیبات گفتگو ، بیان خود ، مشاهده ، شناسایی و … می شناسیم. زبان روشی است که ما برای پردازش دنیا و دریچه ورود به ذهن غیر قابل شناخت دیگران می پردازیم. اختلاط با این دیالکتیک اوج استکبار تکنولوژیک است. برای جزئیات بیشتر به کارهای آرتور کی کلارک مراجعه کنید.


سال گذشته ، گروهی از محققان مقاله ای را منتشر كردند و خاطرنشان كردند كه دوره های دانشكده یادگیری ماشینی به ندرت دانشجویان آنها را مجبور به خواندن كتابهایی مانند كتاب Fairclough می كند: هر چند “اخلاق بخشی از منظر كلی آموزش در [computing] برنامه ها اغلب بخشی از ML فنی پایه نیست [machine learning] آنها یادداشت می کنند. این بدان معنا نیست که مشاهدات Fairclough بی ربط هستند.

اتفاقی که برای تیمیت گبرو افتاد یک رسوایی سه گانه است که شامل کارهای غیراخلاقی کار است ، اتفاقی نیست ، بلکه ناشی از رویه های شرکت ها در سیلیکون ولی ، پخش سیستماتیک کارگران سیاه پوست از یک بخش مشهور غیر حساس و سود مدار و سو mis تفاهم عمده از ماهیت زبان. هر یک از این عوامل هر روز به نفع یک شرکت خصوصی درآمدزایی می شود. مانند آیفوما اوزوما بپوش در توییتر ، “فداکاری مالی ، شغلی ، جسمی و روحی” صحبت کردن علیه کارفرمای کسی – حتی یا به ویژه هنگامی که صریحاً شما را برای انجام این کار استخدام کرده اند – “بسیار زیاد” است.

نابرابری ذاتی شکل این رسوایی برای رقابت سرمایه داری جهانی است. همانطور که کیتی اونیل ، کارشناس ریاضیات در یک انتشار کاملاً قابل پیش بینی در سال 2013 گفته است ، هیچ راه حل اخلاقی در بازار وجود ندارد: “مردم باید به نوعی و بدون قوانین و مقررات و بدون هر نوع اهرم نمایندگی کنند ، این اتفاق نخواهد افتاد. اتفاق افتاده “مشاهدات اونیل بر اساس تشابه بین مقررات زدایی مالی در دهه 1970 و عدم تنظیم مقررات فناوری امروز است ؛ هرکسی که شک کند بازار آزاد بهترین نتیجه را برای هر شهروند تضمین نمی کند ، باید از احساسات خود در مورد خانواده ای که پس از سقوط سال 2008 بی خانمان مانده اند یا فردی که به دلیل سرطان ورشکسته شده است ، بپرسد.

تنها چراغ انتهای این تونل سقوط روابط عمومی است که گوگل تولید کرده است. پشتیبانی قابل مشاهده در هشتگ # IStandWithGebru این موضوع را برای همکاران و همسالان روشن می کند. در حالت ایده آل ، این – همراه با سوابق کاری فوری Gebru در مورد این مسائل – کافی است. این به ندرت اتفاق می افتد.




منبع: some-news.ir

دیدگاهتان را بنویسید

Comment
Name*
Mail*
Website*