مدیر اجرایی گوگل در حال بررسی کنار کشیدن بحث برانگیز اخلاق در هوش مصنوعی است



مدیر عامل شرکت گوگل و آلفابت ، سوندار پیچای ، روز چهارشنبه با ارسال یادداشت داخلی قول داد که تحقیقات در مورد اختلافات اخیر در مورد عزیمت یکی از بهترین اخلاق هوش مصنوعی این شرکت ، تیمیت گبرو را ادامه دهد.

در اوایل ماه دسامبر ، Gebru – که قبلاً با محققان MIT Media Lab در زمینه تعصب در نرم افزار تشخیص چهره همکاری کرده بود – در توییت خود نوشت که او اخراج شده توسط گوگل. این شرکت می گوید استعفای وی را پس از اینکه شرایط کار طولانی مدت را برای آنها فراهم کرد ، پذیرفت.

پیچای در یادداشتی نوشت: “من واكنش واضح و واضح در مورد عزیمت دکتر گبرو را شنیدم: این باعث ایجاد تردیدهایی شد و برخی از جامعه ما را به سال بردن از جایگاه خود در Google سوق داد.” آکسیوس. “من می خواهم بگویم که چقدر از این بابت متاسفم و مسئولیت کار برای بازگرداندن اعتماد شما را می پذیرم.

وی افزود: “ما باید مسئولیت این واقعیت را بپذیریم كه یك رهبر زن مشهور سیاه پوست با استعداد زیاد Google را ناخوشایند ترك كرد”. “این از دست دادن تأثیر امواج برخی از جوامع کم نماینده ما را داشت که خود و برخی از تجربیات خود را در دکتر گبرو منعکس می کردند. این نیز به شدت احساس شد زیرا دکتر گبرو متخصص یک حوزه مهم اخلاقی است. هوش مصنوعی که باید به پیشرفت آن ادامه دهیم – پیشرفتی که به توانایی ما در پرسیدن س questionsالات چالش برانگیز بستگی دارد. “

گوگل و Gebru به درخواست های مربوط به نظر پاسخ ندادند.

چرا مهم است

تولیدات گبرو بر مشارکت وی در مقاله ای تأکید دارد که به طور مشترک تألیف کرده است که مدل های هوش مصنوعی در مقیاس بزرگ می توانند تعصبات را بازتولید و تشدید کنند. وی همچنین با اشاره به اینکه محاسبات بزرگ الگوریتمی می تواند مقادیر زیادی برق را در کنار سایر خطرات مصرف کند ، نگرانی های زیست محیطی را برجسته کرد.

بررسی فناوری MIT ، که نسخه ای از مقاله را بدست آورد ، خاطرنشان کرد که شش عضو وی “وسعت گسترده” بورس تحصیلی را جلب کرده اند. خطرات اصلی مدلهای اصلی زبان که در مقاله ذکر شده شامل هزینه های زیست محیطی و مالی است. کیت های یادگیری بزرگ و بالقوه مغرضانه. هزینه فرصت برای تحقیق ؛ و توهمات معنی.

طبق گزارشی توسط کابلگبرو گفت که یک مدیر ارشد از او خواسته است نام خود را از روزنامه خارج کند. Google AI توسط جف دین هدایت می شود ، در ایمیل از Google Research ، او به صورت آنلاین منتشر کرد و گفت که روزنامه “شرایط ما برای انتشار را برآورده نمی کند.”

همکاران سابق Gebru می گویند سیاست Google در بازبینی نشریات “ناهموار و تبعیض آمیز” است. سایر کارمندان سابق Google نیز روند را به چالش می کشند ، همانطور که شرکت توضیح داده است. بیش از 2000 عضو تیم Google طوماری را امضا کرده و خواستار شفافیت پیرامون پاسخ گوگل به تحقیقات گبرو شده اند.

پیچای گفت که مدیریت گوگل شرایط خروج گبرو را بررسی خواهد کرد ، از جمله اجرای بالقوه استراتژی های کاهش تنش و فرآیندهای جدید.

انتشار Gebru برخی از رهبران برجسته فناوری را به وحشت انداخت و هفته گذشته الن کی پائو مدیر عامل سابق Reddit این ایده را “مضحک” خواند.

پائو گفت: “این یکی از موارد بسیاری است که فکر می کنم هیچ امیدی به صنعت فناوری نیست.” توییت.

گرایش بزرگتر

اخلاق در هوش مصنوعی در سالهای اخیر به طور فزاینده ای مورد توجه قرار گرفته است ، به ویژه هنگامی که صحبت از مراقبت های بهداشتی می شود.

سال گذشته ، کارشناسان فناوری بهداشت در HIMSS19 ضمن تأکید بر آزمایش دقیق و نظارت بر ابزارها ، به فرصت های بزرگی که AI ارائه می دهد اشاره کردند.

پیتر لی ، معاون شرکت مایکروسافت گفت: “حتی نقص کوچک در نمونه های آموزشی می تواند باعث شکست های غیرقابل پیش بینی شود.”

و در اجلاس HIMSS Machine Learning و AI for Healthcare Digital اجلاس هفته گذشته ، کارشناسان گفتند که هوش مصنوعی و ML می توانند “نیروی شر” باشند ، اگرچه می توانند تفاوت ها را روشن کنند.

“ما می توانیم از داده ها برای اقدامات و مقاصد بعدی که منجر به عدالت می شود استفاده کنیم ، و من فکر می کنم وقتی امیدواریم که چگونه می توانیم داده ها را تجزیه و تحلیل کنیم ، تشخیص دهیم که ممکن است تعصب وجود داشته باشد و چرا می توان گفت که” خوب. ، چگونه این داده ها می توانند اطلاعات جدیدی در مورد اختلافات در سیستم بهداشتی ، که ممکن است از آنها کاملاً آگاه نباشیم ، نشان دهند؟ “کادیا فریمان ، استادیار اخلاق و مهندسی در مدرسه صنعتی نیویورک گفت.

همه گیری این واقعیت را برجسته کرد که تعصب الگوریتمی می تواند تفاوت در سلامت COVID-19 را برای افراد رنگین پوست ، به لطف مدل های داده “توسعه نیافته” ، تشدید کند.

سازمان غذا و داروی ایالات متحده نیاز به رفع این سوگیری را در ابزارهای یادگیری ماشین و اطمینان از تنوع بهتر در داده های مورد استفاده برای آموزش الگوریتم ها ، تشخیص داده است.

در حال ضبط

پیچای در یادداشت نوشت: “یکی از بهترین جنبه های فرهنگ مهندسی گوگل ، اشتیاق صادقانه ما برای درک این مسئله است که در چه مواردی اشتباه پیش می رود و چگونه می توانیم پیشرفت کنیم.” “حوادث هفته گذشته یادآوری دردناک اما مهمی از پیشرفتی است که هنوز باید داشته باشیم.”

کت جرشیچ سردبیر ارشد اخبار سلامت IT است.
توییتر: kjercich
ایمیل: [email protected]
Health IT News نشریه ای از رسانه HIMSS است.




منبع: gharb-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>