[ad_1]

سازمان غذا و داروی آمریکا این هفته اولین برنامه عملیاتی خود را در مورد چگونگی تحریک توسعه و نظارت بر هوش مصنوعی ایمن ، بیمار محور و نرم افزار مبتنی بر ماشین به عنوان یک دستگاه پزشکی منتشر کرد.

چرا مهم است
نرم افزار مبتنی بر هوش مصنوعی / ML به عنوان یک برنامه عملیاتی برای یک دستگاه پزشکی ، پروژه ای از مرکز تعالی سلامت دیجیتال در مرکز دستگاه ها و سلامت رادیولوژی FDA است که در سپتامبر گذشته راه اندازی شد.

این برنامه عملیاتی پنج مرحله بعدی را که FDA قصد دارد در ادامه تحول SaMD مبتنی بر AI / ML بطور خلاصه بیان کند:

  • ادامه توسعه چارچوب نظارتی پیشنهادی خود برای پیش نویس رهنمودهای یک برنامه تغییر از پیش تعریف شده برای آموزش نرم افزار
  • پشتیبانی از “روشهای خوب یادگیری ماشین” برای ارزیابی الگوریتم های ML.
  • فعال کردن یک رویکرد بیمار محور شفاف تر
  • توسعه روش های جدید برای ارزیابی و بهبود الگوریتم های یادگیری ماشین ؛ و
  • ایجاد برنامه های آزمایشی جدید برای نظارت بر عملکرد واقعی

در مورد یک رویه نظارتی متناسب تر ، FDA می گوید چارچوب پیشنهادی مبتنی بر AI / ML SaMD را به روز می کند ، “از جمله با صدور پیش نویس راهنمای برنامه کنترل تغییر از پیش تعریف شده”. مقامات گفتند که این دستورالعمل ها عناصر مورد نیاز برای حمایت از ایمنی و کارایی الگوریتم های SaMD را پوشش می دهد و خاطرنشان کردند که “هدف انتشار این پیش نویس دستورالعمل در سال 2021 است.”

در مورد مفهوم FDA در مورد روشهای خوب یادگیری ماشین یا GMLP ، این برنامه قصد دارد تا روی “بهترین روشهای AI / ML (به عنوان مثال مدیریت داده ها ، استخراج ، آموزش ، تفسیرپذیری ، ارزیابی و مستند سازی)” تمرکز کند. که مشابه شیوه های خوب مهندسی نرم افزار یا شیوه های سیستم کیفیت هستند. توسعه و اتخاذ این شیوه ها نه تنها برای هدایت صنعت و توسعه محصول ، بلکه همچنین برای تسهیل نظارت بر این محصولات پیچیده ، از طریق پایبندی سازنده به بهترین روش ها و / یا استانداردهای کاملاً اثبات شده ، مهم است. “

FDA می گوید گام بعدی برای دستیابی به رویکردی شفاف و بیمارمحور ، “برگزاری کارگاه عمومی در مورد چگونگی حفظ برچسب گذاری دستگاه برای شفافیت مصرف کنندگان و اعتماد به دستگاه های مبتنی بر AI / ML است. آژانس تشخیص می دهد که دستگاه های AI / ML ملاحظات منحصر به فردی دارند که نیاز به یک رویکرد فعال ، بیمارمحور در توسعه و استفاده از آنها دارد که مواردی از جمله قابلیت استفاده ، انصاف ، اعتماد و پاسخگویی را در نظر می گیرد. “آژانس خاطرنشان می کند که” ارتقا transp شفافیت یکی از جنبه های اصلی این رویکرد است. بیمارمحور ، و ما معتقدیم که این امر خصوصاً برای دستگاههای پزشکی مبتنی بر AI / ML بسیار مهم است که می توانند با گذشت زمان یاد بگیرند و تغییر کنند و می توانند شامل الگوریتم هایی باشند که درجه کدری را نشان می دهند. “

“این برنامه عملیاتی … رویکرد جامع مبتنی بر نظارت جامع چرخه محصول را برای به حداکثر رساندن پتانسیل عظیم این فناوری ها برای بهبود مراقبت از بیمار در حالی که عملکرد نرم افزاری ایمن و م thatثر ارائه می دهد ، مشخص می کند. کیفیت مراقبت از بیماران را بهبود می بخشد. “

Bakul Patel ، مرکز FDA و تجهیزات رادیولوژی

FDA به سمت روش های جدید برای مقابله با سوگیری الگوریتمی می گوید: “از تلاش های علوم نظارتی برای توسعه روش ارزیابی و بهبود الگوریتم های یادگیری ماشین ، از جمله شناسایی و از بین بردن تعصب ، و ارزیابی و ارتقا انعطاف پذیری پشتیبانی خواهد کرد.” و تعمیم پذیری موضوعی نیست که منحصراً مربوط به دستگاه های مبتنی بر AI / ML باشد. با توجه به تیرگی بسیاری از الگوریتم های AI / ML و نقش بزرگی که انتظار داریم این دستگاه ها در مراقبت های بهداشتی ایفا کنند ، توجه به آن بسیار مهم است این مشکلات برای محصولات مبتنی بر AI / ML است. “

و از نظر بهره وری در دنیای واقعی یا RWP ، آژانس می گوید که “جمع آوری داده ها در مورد اثربخشی استفاده واقعی SaMD می تواند به تولیدکنندگان این امکان را بدهد تا نحوه استفاده از محصولات خود را درک کنند ، فرصت های بهبود را شناسایی کرده و به نگرانی ها واکنش پیشگیرانه نشان دهند. برای ایمنی یا قابلیت استفاده جمع آوری و نظارت بر داده ها در دنیای واقعی سازوکار مهمی است که تولیدکنندگان می توانند برای کاهش ریسک مرتبط با تغییرات SaMD مبتنی بر AI / ML برای پشتیبانی از مشخصات سود و ریسک در ارزیابی عملکرد خاص بازار استفاده کنند. “

برنامه عملیاتی کامل را اینجا بخوانید. FDA می گوید که بازخورد بیشتری می خواهد و به کار با انواع ذینفعان ادامه خواهد داد و برای ایجاد یک رویکرد هماهنگ تر با یکدیگر در سراسر آژانس همکاری می کنند.

گرایش بزرگتر
نرم افزار مبتنی بر AI / ML به عنوان یک برنامه عملیاتی برای یک دستگاه پزشکی ، پاسخی به بازخورد ذینفعان است که از مقاله بحث آوریل 2019 ، چارچوب نظارتی پیشنهادی برای تغییر در نرم افزار هوش مصنوعی / یادگیری ماشین به عنوان یک وسیله پزشکی دریافت شده است. دستگاه

باکول پاتل ، مدیر مرکز تعالی سلامت دیجیتال CDRH گفت: “این برنامه عملیاتی مراحل بعدی FDA را در جهت نظارت بیشتر SaMD مبتنی بر AI / ML تشریح می کند.”

وی گفت كه هدف وی توصیف “یك رویكرد جامع مبتنی بر نظارت جامع بر چرخه عمر محصول برای به حداكثر رساندن پتانسیل عظیمی است كه این فن آوری ها برای بهبود مراقبت از بیمار و در عین حال ارائه كاربرد نرم افزار ایمن و م ،ثر دارند. که کیفیت مراقبت از بیماران را بهبود می بخشد.

وی افزود: “برای به روز بودن و رسیدگی به ایمنی بیمار و بهبود دسترسی به این فناوری های امیدوار کننده ، انتظار داریم که این برنامه عملیاتی به مرور تکامل یابد.”

پاتل در اکتبر گذشته در کمیته مشورتی درگیر شدن با بیمار در مرکز تعالی گفت که هوش مصنوعی در مرحله مهمی قرار دارد که در آن “نرم افزار می تواند داده ها را از منابع بسیار بسیار زیادی گرفته و این اهداف را تولید کند. تشخیص ، درمان

وی گفت: “با شروع ورود به دنیای یادگیری ماشین و استفاده از داده ها برای برنامه نویسی نرم افزار و فناوری نرم افزار ، این پدیده را مشاهده می کنیم و هموار بودن و در دسترس بودن داده ها به یک محرک بزرگ تبدیل می شود.” “و این با فرصت ها همراه است – و این با چالش هایی همراه است.”

و همانطور که نشان دادیم ، مهم است که بیمارستانها و سیستمهای بهداشتی ، در صورت امکان ، با تأمین کنندگان و تولیدکنندگان برای اطمینان از الگوریتم های یادگیری ماشین ایمن و کارآمد ، همکاری نزدیک داشته باشند.

در حال ضبط
بردلی مریل تامپسون از اپستین بکر و گرین – جایی که او در زمینه تجهیزات پزشکی ، مسائل نظارتی FDA و موارد دیگر مشاوره می دهد – نظرات خود را در مورد برنامه اقدام برای انتشار خواهر HITN ، MobiHealthNews ارائه داد. وی می گوید گزارش جدید “خبر خوب و خبر بد” است.

خبر خوب؟ وی گفت: “بسیاری از افراد در صنعت از رویكرد كلی حمایت می كنند – با یك استثنا من آن را توصیف خواهم كرد.”

خبر بد؟ تامپسون گفت: “به نظر می رسد به جای پیشرفت ، گزارشی باشد.” “نکته ناامیدکننده این است که مقاله مفهومی در آوریل 2019 منتشر شد و در اینجا دو سال است و در بیشتر موارد ، در مورد عناصر مهم به عنوان رهنمودهای برنامه کنترل تغییر از پیش تعریف شده ، آنها فقط در مورد این راهنما صحبت می کنند در آینده ، با توجه به انتشار آن در سال 2021. “

تامپسون خاطرنشان می کند که FDA حتی “سال مالی 2021” را مشخص نمی کند – که به گفته او انتظار ممکن است به پایان سال تقویم نزدیکتر باشد. “ما واقعاً امیدوار به اقدام سریع تر بودیم ، زیرا معتقدیم که این دستورالعمل ها برای توسعه بیشتر هوش مصنوعی در مراقبت های بهداشتی بسیار مهم هستند.”

در مورد واکنش صنعت؟ وی گفت ، بسیاری از ذینفعان از چهار مرحله اول مشخص شده در برنامه اقدام حمایت می كنند.

“تهیه یک سند راهنما برای اجرای برنامه کنترل تغییر از پیش تعریف شده بسیار مهم است ، اگرچه من می دانم که بسیاری از توسعه دهندگان هوش مصنوعی در حال تلاش هستند تا به صورت موردی و غیر رسمی با FDA برای تهیه چنین برنامه هایی همکاری کنند.” او توضیح داد.

تامپسون گفت: “GMLP نیز یک گام بسیار مثبت است و من از این واقعیت که آنها می خواهند با اجماع با بسیاری از نهادهای تنظیم کننده استاندارد کار کنند ، قدردانی می کنم.” “شفافیت از نظر شفافیت لازم نیز بسیار مهم است. سمینار گام بعدی بسیار سازنده ای خواهد بود ، همانطور که آژانس پیشنهاد کرده است. شفافیت از نظر فنی یک موضوع پیچیده است ، اما با توجه به مخاطبان احتمالی برای اطلاعات یک ایده عملی چالش برانگیز است.”

به همین ترتیب ، “ابتکار تحقیقات نظارتی بسیار مهم است ، زیرا ما به ابزارهای بهتر و تخصصی تر برای شناسایی سوگیری و اثربخشی در هوش مصنوعی مورد استفاده در مراقبت های بهداشتی نیاز داریم. ما همچنین باید بتوانیم استانداردهای مناسب را شناسایی کنیم ، از جمله اینکه چگونه مغرضانه بودن قابل قبول است. همیشه برخی سوگیری ها وجود خواهد داشت.

تامپسون اظهار داشت: بزرگترین اختلاف نظر در مورد توسعه دهندگان و تولید کنندگان دستگاه در مورد بحث درباره نتایج واقعی است.

وی گفت: “از یک سو ، من فکر می کنم بسیاری از صنایع از این ایده که شرکت ها نیاز به توسعه سیستم هایی برای نظارت بر عملکرد الگوریتم های خود در بازار دارند ، پشتیبانی می کنند.” “تغییر در بهره وری ، به دلیل ماهیت هوش مصنوعی ، و شرکت ها نیاز به ایجاد سیستم های قوی برای نظارت بر این تغییرات و اطمینان از ایمن و موثر ماندن محصولات خود دارند.

وی افزود: “نقطه شروع این است كه ما احساس می كنیم FDA می خواهد در میانه این ماجرا قرار گیرد و به روزرسانی مكرر اطلاعات را دریافت كند تا آژانس بتواند این اجرا را در زمان واقعی نظارت كند.”

تامپسون گفت ، برای بیشتر این صنعت ، این “كاملاً غیرقابل قبول است”. “و دلیل FDA به داوطلب شدن این است که آنها صلاحیت قانونی لازم را ندارند.” بنابراین او انتظار دارد “اختلاف نظر قابل توجهی با FDA در مورد اینکه چه داده هایی باید در چه شرایطی به اشتراک گذاشته شود و چه زمانی در مرحله پس از فروش محصولات مبتنی بر هوش مصنوعی است”.

سردبیر MobiHealthNews ، دیو موویو در این داستان سهیم بوده است.

توییتر: MikeMiliardHITN
برای نویسنده ایمیل ارسال کنید: mike.miliard@himssmedia.com

Health IT News نشریه HIMSS است.



[ad_2]

منبع: gharb-khabar.ir