متخصص هوش مصنوعی سرنر در مورد “باورهای غلط” مهم درباره این فناوری بحث می کند



دکتر تانوج گوپتا ، معاون رئیس Cerner Intelligence ، متخصص هوش مصنوعی در مراقبت های بهداشتی و یادگیری ماشین است. بخشی از کارهای وی ، از دیدگاه تخصصی وی ، توضیح می دهد که وی چه عقاید غلطی در مورد هوش مصنوعی ، به ویژه باورهای غلط در مراقبت های بهداشتی می داند.

در این مصاحبه با اخبار فناوری اطلاعات در مراقبت های بهداشتیگوپتا درباره آنچه که او تصورات غلط رایج در مورد تعصب جنسیتی و نژادی در الگوریتم ها ، AI جایگزین پزشکان و تنظیم AI در مراقبت های بهداشتی است ، بحث می کند.

سوال: به طور کلی ، فکر می کنید چرا در مراقبت های بهداشتی سو healthتفاهم وجود دارد و چرا آنها همچنان وجود دارند؟

آ. در طول سال گذشته ، من بیش از 100 سخنرانی در مورد AI و ML ارائه داده ام. شکی نیست که این فناوری ها موضوعات داغی در مراقبت های بهداشتی هستند که امیدهای زیادی برای پیشرفت صنعت ما دارند.

اگرچه آنها توانایی تبدیل مراقبت ، کیفیت و نتایج بیمار را دارند ، اما نگرانی در مورد تأثیر منفی این فناوری بر تعامل انسان و همچنین باری که می توانند بر دوش پزشکان و سیستم های بهداشتی بگذارند وجود دارد.

سوال: آیا باید نگران تعصب جنسیتی و نژادی در الگوریتم های ML باشیم؟

آ. به طور سنتی ، ارائه دهندگان مراقبت های بهداشتی ، وضعیت تصمیم گیری منحصر به فرد بیمار را همراه با منابع اطلاعاتی مانند آموزش بالینی و تجربه و همچنین مطالعات پزشکی منتشر شده ، در نظر می گیرند.

با ML اکنون می توانیم م moreثرتر عمل کنیم و توانایی خود را در تحقیق درباره مقدار زیادی داده ، سیگنال مشکلات احتمالی و پیشنهاد مراحل بعدی برای درمان بهبود دهیم. اگرچه این فناوری امیدوار کننده است اما خطرات زیادی وجود دارد. اگرچه هوش مصنوعی و ML فقط ابزاری هستند ، اما از ابتدا تا انتها نقاط ورودی بسیاری دارند که در برابر سوگیری آسیب پذیر هستند.

در حالی که ML در حال یادگیری و سازگاری است ، در برابر داده ها و الگوهای بالقوه مغرضانه آسیب پذیر است. پیش داوری های موجود – به ویژه اگر ناشناخته باشند – و داده هایی که نابرابری ها را در جامعه یا تاریخ منعکس می کنند ، می توانند منجر به سوگیری در داده های مورد استفاده برای آموزش الگوریتم یا مدل ML برای پیش بینی نتایج شوند. در صورت عدم شناسایی و کاهش ، تصمیم گیری بالینی مبتنی بر سوگیری ممکن است بر مراقبت و نتایج بیمار تأثیر منفی بگذارد. وقتی تعصب به الگوریتمی وارد شود ، گروههای خاصی ممکن است غیرارادی هدف قرار بگیرند.

تعصب جنسیتی و نژادی در سیستم های شناسایی چهره تجاری شناسایی شده است ، که شناخته شده است در شناسایی سیاه پوستان و آسیایی ها 10 تا 100 برابر بیشتر از قفقازی ها و دشواری بیشتر در شناسایی زنان بیش از مردان است. تعصب همچنین در پردازش زبان طبیعی مشاهده می شود ، که یک موضوع ، نظر و احساس را مشخص می کند.

اگر سیستم هایی که ابزارهای AI و ML ما در آنها توسعه یافته یا پیاده سازی شده اند مغرضانه باشند ، نتایج بهداشتی که تولید می کنند ممکن است مغرضانه باشد ، که ممکن است تفاوت های سلامتی را حفظ کند. اگرچه شکستن سوگیری سیستمیک می تواند یک چالش باشد ، اما مهم این است که ما تمام تلاش خود را برای شناسایی و اصلاح آن در همه نمودهای آن انجام دهیم. این تنها راه بهینه سازی AI و ML در مراقبت های بهداشتی و اطمینان از بالاترین کیفیت تجربیات بیمار است.

سوال: آیا هوش مصنوعی می تواند جای پزشکان بالینی را بگیرد؟

آ. جواب کوتاه، نه است. AI و ML جایگزین قضاوت پزشک متخصص نمی شوند. ارائه دهندگان همیشه باید در فرآیند تصمیم گیری نقش داشته باشند زیرا ما آنها را درمورد مراقبت و نتایج بیمار مسئول می دانیم.

ما در حال حاضر چندین محافظ موفق در زمینه های دیگر بهداشت و درمان داریم که احتمالاً برای AI و ML توسعه خواهیم داد. به عنوان مثال ، یک موازی دستورات کلامی هستند. اگر پزشک دستور شفاهی یک دارو را به پرستار بدهد ، پرستار قبل از وارد کردن آن در جدول ، آن را تکرار می کند و پزشک باید آن را بنویسد. اگر این دارو در نهایت به بیمار آسیب برساند ، پزشک نمی تواند مقصر پرستار باشد.

علاوه بر این ، هرگونه سفارش پایدار برای پروتکل هایی که بیمارستان می خواهد معرفی کند ، باید توسط کمیته ای از پزشکان تأیید شود ، سپس برای اطمینان از ایمن و موثر بودن پروتکل ها ، یک دوره بررسی منظم دارند. بنابراین ، اگر پرستار یک دستور پروتکل را اجرا کند و مشکلی در امنیت بیمار باشد ، آن پرستار مسئول و پاسخگو است ، نه پرستار.

همین مورد با الگوریتم های AI و ML وجود خواهد داشت. هیچ الگوریتمی وجود نخواهد داشت که بتواند خودسرانه بر روی دستگاه یا دستگاهی کار کند و بیمار را بدون نظارت پزشکی معالجه کند.

اگر دسته ای از الگوریتم ها را به کارت سلامت الکترونیکی بیندازیم که می گوید: “بیمار را از این طریق معالجه کنید” یا “بیمار را از این طریق تشخیص دهید” ، مجبوریم که پزشک را حفظ کنیم – و احتمالاً سازنده الگوریتم است ، اگر توسط این قانون تنظیم شود سازمان غذا و داروی ایالات متحده – مسئول نتایج. نمی توانم شرایطی را تصور کنم که تغییر کند.

پزشکان می توانند از AI و ML برای بهبود مراقبت ها استفاده کنند و استفاده می کنند – و شاید مراقبت های بهداشتی را حتی از امروز بیشتر کنند. AI و ML همچنین می توانند پزشکان را قادر به بهبود کیفیت زمان صرف شده با بیماران کنند.

پس از همه ، من فکر می کنم ما به عنوان یک صنعت بهداشت و درمان باید از هوش مصنوعی استفاده کنیم و فناوری ML جایگزین ما نخواهد شد. این به سادگی تبدیل به مجموعه ای جدید و م effectiveثر از ابزاری می شود که در بیماران ما استفاده می شود. و استفاده مسئولانه از این فناوری به معنای همیشه آگاهی از خطرات احتمالی ایمنی بیمار است.

س: درباره تنظیم AI در مراقبت های بهداشتی چه چیزی باید بدانیم؟

آ. هوش مصنوعی برخی از نگرانی های مهم در مورد مالکیت داده ها ، امنیت و امنیت را ارائه می دهد. بدون داشتن استاندارد در مورد چگونگی مقابله با این مشکلات ، احتمالاً هم به سیستم بهداشتی و هم به بیمار بیمار آسیب می رساند.

به همین دلایل ، باید پیش بینی مفاد مهم شود. صنعت داروسازی ، صنعت درمان بالینی و تجهیزات پزشکی سابقه ای در مورد چگونگی محافظت از حقوق داده ها ، حریم خصوصی و امنیت و پرورش نوآوری در سیستم مراقبت های بهداشتی با استفاده از هوش مصنوعی ایجاد می کنند.

بیایید با حقوق داده شروع کنیم. هنگامی که افراد از کیت آزمایش DNA خانگی استفاده می کنند ، احتمالاً به طور گسترده توافق کردند که از داده های شما برای اهداف تحقیقاتی استفاده کنند ، همانطور که وزارت بهداشت و خدمات انسانی ایالات متحده در سند راهنمای 2017 تعریف کرده است.

اگرچه این راهنما قوانینی را برای دادن رضایت تعیین می کند ، اما روند برداشتن رضایت را نیز تعیین می کند. پردازش رضایت در یک سیستم مراقبت های بهداشتی با استفاده از هوش مصنوعی می تواند یک چالش باشد ، اما بررسی این موضوع برای محافظت از حقوق و تحریک نوآوری سابقه ای دارد.

با توجه به نگرانی های ایمنی بیمار ، سازمان غذا و دارو دو سند برای حل این مشکل منتشر کرده است: پیش نویس کتابچه راهنمای نرم افزار برای پشتیبانی از تصمیمات بالینی و پیش نویس راهنمای نرم افزار به عنوان یک وسیله پزشکی. راهنمای اول چارچوبی را برای تعیین اینکه آیا الگوریتم ML یک وسیله پزشکی است فراهم می کند.

هنگامی که تشخیص دادید که الگوریتم ML شما در واقع یک دستگاه است ، راهنمای دوم “روش های خوب یادگیری ماشین” را ارائه می دهد. چنین مقررات FDA در مورد تشخیص و درمان ما را از آسیب در امان نگه داشته است بدون اینکه مانع ابتکار عمل شوید. ما باید انتظار همان نتیجه را برای AI و ML در مراقبت های بهداشتی داشته باشیم.

در آخر ، بیایید امنیت و حریم خصوصی داده ها را بررسی کنیم. این صنعت می خواهد ضمن حفظ ارزش بیشتر در بهداشت و درمان ، از حریم خصوصی داده ها محافظت کند. به عنوان مثال ، HHS مدت زیادی است که به قانون قابلیت حمل و پاسخگویی بیمه درمانی ، که در سال 1996 امضا شد ، اعتماد کرده است.

در حالی که HIPAA برای محافظت از اطلاعات بهداشتی محافظت شده طراحی شده است ، نوآوری های رو به رشد مراقبت های بهداشتی – به ویژه از نظر حریم خصوصی – منجر به قانون اخیراً پیشنهاد شده HHS برای جلوگیری از مسدود کردن اطلاعات و ارتقا نوآوری در مراقبت های بهداشتی شده است.

می توان نتیجه گرفت که AI و ML در مراقبت های بهداشتی تنظیم می شوند. اما این بدان معنا نیست که این ابزارها مفید نخواهند بود. در واقع ، ما باید رشد مداوم در برنامه های مراقبت های بهداشتی AI را به عنوان برنامه های بیشتر و مزایای سطح فناوری ، انتظار داشته باشیم.

توییتر: SiwickiHealthIT
به نویسنده ایمیل بزنید: [email protected]
Health IT News نشریه ای از رسانه HIMSS است.




منبع: gharb-khabar.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>