متخصصان هوش مصنوعی و یادگیری ماشین می گویند ، داده ها می توانند “نیروی شر” باشند



بیماری همه گیر COVID-19 نابرابری های موجود در سیستم مراقبت های بهداشتی را برجسته و تشدید می کند ، از جمله عواقب اعتیاد به گروه های نژادپرست یا حاشیه نشین.

برخی از راه های بروز تعصب نژادی در سیستم مراقبت های بهداشتی آشکارتر است ، مانند وحشت سیاه پوستان در بخش اورژانس رد می شود.

به گفته متخصصان در اجلاس HIMSS Machine Learning و AI for Healthcare Digital اجلاس دیگر این افراد کمتر دیده می شوند ، اما هنوز هم می توانند بسیار مضر باشند.

HIMSS20 دیجیتال

در صورت تقاضا ، کسب اعتبار ، یافتن محصولات و راه حل ها را بیاموزید. شروع کنید >>

کادیا فریمان ، استادیار اخلاق و مهندسی در انستیتوی علوم فنی در نیویورک ، روز سه شنبه به یک میزگرد گفت: “روشهای دیگری وجود دارد که این تعصب از نظر ساختاری خود را نشان می دهد که به طور بالقوه واضح نیستند.” “این از طریق علوم کامپیوتر و داده ها انجام می شود.”

فریمان گفت ، به عنوان مثال ، COVID-19 بیماری است که به سیستم تنفسی حمله می کند ، به این معنی که پزشکان به دستگاههایی که ظرفیت ریه و سایر داده های مربوط به بیمار را اندازه گیری می کنند ، اعتماد می کنند. اما این دستگاهها ممکن است در تفسیرهایشان تنظیمات “مبتنی بر نژاد” داشته باشند که تشخیص آنها دشوار است.

و البته الگوریتم های مغرضانه از داده های مغرضانه ناشی می شوند. زیاد اوبرمایر ، دانشیار دانشکده بهداشت عمومی برکلی ، خاطرنشان کرد که بعید است افرادی که دسترسی کمتری به آزمایش COVID-19 دارند ، در آمار بیماری ظاهر شوند – و بیمارستان های این مناطق می توانند تعداد بیشتری دریافت کنند منابع کوچک

وی گفت: “این اختلاف” هوش مصنوعی نیست ؛ بلکه سیاست است.

وی ادامه داد: “اما این واقعیت را تأکید می کند که اطلاعات بسیاری که ما از این الگوریتم های هوش مصنوعی می آموزیم ، از بسیاری جهات باعث می شود که این الگوریتم ها تعصبات را بازتولید کنند.”

وی گفت ، برای رسیدگی به سوگیری ، بررسی انتقادی داده های مورد استفاده بسیار حیاتی است.

اوبرمایر توضیح داد: “تفاوت بین متغیر 1 و متغیر 2 می تواند تفاوت زیادی بین الگوریتم مغرضانه – یک سیاست مغرضانه – و دیگری که اساساً منصفانه تر است ، ایجاد کند.”

الگوریتم بایاس نه تنها برای بیماران مضر است. همچنین برای تجارت مضر است. اوبرمایر با بیان اینکه الگوریتمی که فاقد داده های کلیدی برای برخی از گروه ها باشد در بالای دامنه خود عمل نمی کند ، خاطرنشان کرد: کاهش سوگیری می تواند الگوریتم را به طور کلی کارآمدتر کند.

با این حال ، فریمان اشاره کرد که گاهی اوقات یک الگوریتم می تواند کار خود را انجام دهد ، اما هنوز هم تأثیر منفی بر گروه های نژادپرست دارد. وی می گوید ، فناوری تشخیصی که برای برخی از جمعیت ها در دسترس نیست ، از نظر صحت خوب عمل می کند ، اما از نظر سلامت کلی جمعیت خوب نیست.

به گفته کارشناسان ، خوشبینی دلیل دارد. یعنی از AI و ML می توان برای تنظیم مجدد سوگیری استفاده کرد ، نه فقط برای گسترش آن.

فریمان گفت: “دانش در مورد خطرات الگوریتم ها ، داده های مغرضانه در حال افزایش است.” “ما می توانیم از داده ها برای اقدامات و اهداف بعدی که منجر به عدالت می شود استفاده کنیم ، و من فکر می کنم وقتی امیدواریم که چگونه می توانیم داده ها را تجزیه و تحلیل کنیم ، شناسایی کنیم که ممکن است تعصب وجود داشته باشد و چرا می توان گفت ،” خوب. ، چگونه این داده ها می توانند اطلاعات جدیدی در مورد اختلافات در سیستم مراقبت های بهداشتی را نشان دهند که ممکن است از آن آگاهی کامل نداشته باشیم؟

ابرمایر گفت: “داده ها می توانند نیرویی برای شر باشند و اختلافات را افزایش دهند ، اما داده ها همچنین می توانند تفاوت ها را روشن کنند و به ما نشان دهند که کجا وجود دارند تا بتوانیم آنها را اصلاح کنیم.”

کت جرشیچ سردبیر ارشد اخبار سلامت IT است.
توییتر: kjercich
ایمیل: [email protected]
Health IT News نشریه ای از رسانه HIMSS است.




منبع: gharb-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>