“هوش مصنوعی دقیق می تواند به مبارزه با سوگیری سلامتی کمک کند”



محققان برجسته در جلسه “هوش مصنوعی و پیامدهای برابری سلامت: آیا هوش مصنوعی عدالت را بهبود می بخشد یا اختلافات را افزایش می دهد” بحث کردند که الگوریتم های هوش مصنوعی برای مقابله با سوگیری سلامت باید کدام الزامات را داشته باشند؟ در تاریخ 1 دسامبر.

سخنرانان عبارت بودند از: زیاد اوبرمایر ، دانشیار سیاست و مدیریت بهداشت در دانشکده بهداشت در برکلی ، کالیفرنیا. Luke Oakden-Raynor ، مدیر تحقیقات پزشکی تصویربرداری در بیمارستان سلطنتی آدلاید ، استرالیا ؛ کنستانس لمان ، استاد رادیولوژی در دانشکده پزشکی هاروارد ، مدیر تصویربرداری از پستان و مدیر مشترک مرکز ارزیابی جامع پستان آون در بیمارستان ماساچوست ؛ و رجینا بارزیلائی ، استاد گروه مهندسی برق و علوم کامپیوتر و عضو آزمایشگاه علوم رایانه و هوش مصنوعی در انستیتوی فناوری ماساچوست.

این بحث توسط جودی واویرا گیچویا ، استادیار گروه رادیولوژی در دانشکده پزشکی دانشگاه اموری ، آتلانتا ، انجام شد.

چرا مهم است

هوش مصنوعی (AI) می تواند ناخواسته نابرابری های موجود در مراقبت های بهداشتی مدرن را تشدید کند و درک این سوگیری ها می تواند به غلبه بر آنها کمک کند.

همانطور که پروفسور سام شاه ، بنیانگذار و مدیر دانشکده بهداشت آینده در لندن ، در یادداشت اصلی در جریان رویداد دیجیتال اروپا توضیح داد ، عوامل تعیین کننده اجتماعی تا حدودی منجر به نتایج ضعیف بهداشتی می شوند ، و افزایش آگاهی از نابرابری ها در دسترسی به مراقبت های بهداشتی بسیار مهم است. HIMSS & Health 2.0.

استفاده از تجربیات بیمار ، انجام تجزیه و تحلیل خطای تحقیق و ایجاد الگوریتم های هوشمند و محکم تر ، می تواند در بسیاری از تنظیمات بالینی مانند مدیریت درد و دسترسی به غربالگری ماموگرافی ، به کاهش تعصب کمک کند.

در حال ضبط

جودی واویرا گیچویا ، دانشکده پزشکی دانشگاه اموری ، گفت: “داده هایی که ما استفاده می کنیم در یک سیستم اجتماعی جمع آوری می شود که قبلاً دارای تعصبات فرهنگی و نهادی است. (…) اگر فقط از این داده ها استفاده کنیم بدون درک نابرابری ها ، الگوریتم های موجود در آنها سرانجام به اختلافات موجود ما افزایش خواهند یافت ، اگر افزایش نیابند. “

زیاد اوبرمایر ، دانشکده بهداشت عمومی برکلی ، در مورد پدیده درد در درد صحبت می کند ، که در آن درد بیماران سفید پوست تحت درمان یا بررسی قرار می گیرد تا زمانی که علتی پیدا شود ، در حالی که در سایر نژادها می توان آن را نادیده گرفت یا نادیده گرفت.

“محروم ترین بیماران ، نه سفیدپوستان ، بیماران کم درآمد و کم تحصیلات (…) درد شدید را خیلی بیشتر گزارش می کنند. توضیح واضح این است که ممکن است شیوع بیشتری در شرایط دردناک داشته باشند ، اما این یک داستان کامل به نظر نمی رسد ، “او گفت.

اوبرمایر توضیح داد که گوش دادن به بیمار ، نه فقط رادیولوژیست ، می تواند به ایجاد راه حل هایی برای پیش بینی درد کمک کند. وی به یک مجموعه داده تحت حمایت NIH اشاره کرد که به او کمک کرد نوع جدیدی از الگوریتم را آزمایش کند که بیش از دو برابر تعداد بیماران سیاه پوست با درد شدید زانو را که قبلاً واجد شرایط جراحی بودند ، دو برابر کرد.

لوک اوکدن-راینور ، از بیمارستان رویال آدلاید ، پیشنهاد کرد که به جای اینکه فقط به مدل هوش مصنوعی نگاه کنید و آن را ببینید ، یک تجزیه و تحلیل خطای مطالعه برای بررسی هر مورد از خطا و پیدا کردن موضوعات مشترک انجام دهید. او مغرض است

“به مواردی که درست پیش رفته و موارد اشتباهی است نگاه کنید. همه مواردی که هوش مصنوعی درست شده است دارای موارد مشترک هستند ، همچنین مواردی که اشتباه بوده است ، سپس می توانید بفهمید که سیستم مورد نظر چیست. مغرضانه ، “او گفت.

کنستانس لمان ، از دانشکده پزشکی هاروارد ، گفت: “حدود دو میلیون زن مبتلا به BC تشخیص داده می شوند و بیش از 600،000 در سال جاری در ایالات متحده می میرند. اما در اثرات پیش از میلاد بر زنان رنگارنگ در مقایسه با زنان قفقازی اختلاف قابل توجهی وجود دارد. “

در اتحادیه اروپا ، از هر هشت زن ، یک نفر قبل از 85 سالگی به سرطان پستان مبتلا می شود و به گفته اروپا دونا ، یک ائتلاف پان اروپایی از گروه های مرتبط با زنان ، که به تبادل آنها کمک می کند ، به طور متوسط ​​20٪ سرطان های پستان در زنان زیر 50 سال رخ می دهد. اطلاعات در مورد سرطان پستان

لمان الگوریتمی را که با رجینا بارزیلای ایجاد کرده است برای کمک به شناسایی خطر ابتلا به سرطان پستان در زنان فقط بر اساس ماموگرافی آنها ارائه داده است. این راه حل از یک DL و یک رمزگذار تصویر استفاده می کند که چهار منظره ماموگرافی دیجیتال استاندارد آنالوگ را بدون نیاز به دسترسی به سابقه خانوادگی ، بیوپسی های قبلی یا سابقه تولید مثل ، می خواند.

وی گفت: “این مدل فقط برای تصویر بهتر از سایر مدل ها عمل می کند و شرایط بازی را یکسان حفظ می کند.”

رجینا بارزیلایی ، از انستیتوی مهندسی و علوم پزشکی در انستیتوی فناوری ماساچوست ، نحوه ایجاد هوش مصنوعی پایدار در حمایت از عدالت سلامت را توضیح داد. وی گفت: “یک مدل مبتنی بر تصویر که برای جمعیت های متنوعی آموزش دیده است ، می تواند به طور کاملاً دقیق خطر برای جمعیت های مختلف را پیش بینی کند.”

جامعه هوش مصنوعی سخت در حال کار بر روی ابزارهایی است که می توانند پایدار در برابر تعصب کار کنند ، اطمینان حاصل می کند که مدل ها برای سالم بودن در صورت وجود تعصب آموزش داده شده اند ، که می تواند ناشی از تغییر ناخوشایند بین دستگاه های مورد استفاده برای ضبط تصاویر باشد.

“افرادی که در نهایت مسئولیت تصمیم گیری بالینی را دارند باید بدانند که دستگاه چه کاری انجام می دهد ، و در مورد همه تعصبات احتمالی که دستگاه می تواند معرفی کند فکر کنند. مدل هایی که بتوانند استدلال آنها را برای مردم قابل فهم کنند می توانند کمک کنند. “


منبع: gharb-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>