هوش مصنوعی و سرطان از امید به تشخیص دقیق تا خطر تبعیض نظام مند
ما دیجیتال: پیشرفت های سریع در کاربردهای پزشکی هوش مصنوعی، این امید را تقویت کرده است که فرآیند تشخیص سرطان دقیق تر، سریع تر و همگن تر شود. همین توانایی، می تواند به یک مسیر انحرافی تبدیل گردد.
به گزارش ما دیجیتال به نقل از مهر؛ پیشرفت های سریع در کاربردهای پزشکی هوش مصنوعی، این امید را تقویت کرده است که فرآیند تشخیص سرطان دقیق تر، سریع تر و همگن تر شود. ایده اصلی اینست که مدلهای یادگیری عمیق با مشاهده الگوهای میکروسکوپی در تصاویر پاتولوژی، بتوانند طبقه بندی های پیچیده را انجام دهند و در کنار متخصصان، خطای انسانی را کاهش دهند. با این وجود، پژوهش های علمی نشان می دهند که همین قابلیت فوق العاده در استخراج سیگنال های پنهان، می تواند به یک مسیر انحرافی تبدیل گردد. مسیری که در آن مدل، داده های جمعیت شناختی مانند سن، جنسیت و نژاد را از خود تصویر استخراج می کند و سپس همان متغیرها را به شکل ناخواسته به ستون فقرات تحلیل بافت تبدیل میکند. نتیجه، شکاف در عملکرد و بازتولید تبعیض در یکی از حساس ترین نقاط زنجیره درمان است.
یافته اصلی مطالعات و چرایی غیرمنتظره بودن آن ها
مطالعه تازه ای که در نشریه «Cell Reports Medicine» پخش شده، چهار سامانه پیشرو تشخیص مبتنی بر هوش مصنوعی در تشخیص پزشکی را از نظر تفاوت عملکرد در گروههای جمعیتی بررسی می کند. محققان دانشگاه هاروارد نزدیک به ۲۹ هزار تصویر پزشکی در ارتباط با سرطان از حدود ۱۴ هزار و ۴۰۰ بیمار را تحلیل کرده اند و گزارش می دهند که مدلهای یادگیری عمیق در ۲۹.۳ درصد از وظایف تشخیصی خود، سوگیری معنادار نشان داده اند. این رقم از نظر سیاستگذاری سلامت دیجیتال، صرفا یک خطای آماری نیست و به این معنا است که در تقریبا یک سوم موقعیت های ارزیابی، احتمال دارد عملکرد مدل به شکلی با خاصیت های جمعیتی گره بخورد که برای بخشی از بیماران، کیفیت تشخیص یا طبقه بندی سلولی کم شود. وجه شوک آور یافته ها در اینست که مدلها ظاهراً توانسته اند نشانه های در رابطه با نژاد را از تصاویر در ارتباط با بافت شناسی استخراج کنند. در روایت پژوهش، خواندن متغیرهای جمعیت شناختی از روی تصاویر پزشکی، برای پاتولوژیست انسانی در حد یک مأموریت ناممکن تلقی می شود؛ اما مدلهای یادگیری عمیق، به سبب توانایی در تشخیص سیگنال های زیستی خیلی ریز و غیرشهودی، از مسیری به این اطلاعات می رسند. همین قابلیت که در نگاه نخست مزیت فنی به نظر می آید، در عمل می تواند به یک صدمه راهبردی در عدالت تشخیصی تبدیل گردد.
مکانیسم سوگیری چطور شکل می گیرد
محققان توضیح می دهند که خطاهای ناشی از سوگیری زمانی پدید می آید که مدل، به جای تمرکز صرف بر خاصیت های بافتی در رابطه با نوع سرطان، به الگوهایی متکی شود که با گروههای جمعیتی همبستگی دارند. به زبان دقیق تر، مدل ابتدا به شکل ضمنی یا صریح، سن یا جنسیت یا نژاد را حدس می زند و سپس آن متغیر را به یک میانبر برای تصمیم گیری تبدیل میکند. این میانبر می تواند از جنس تفاوت در توزیع سلولی، نسبت عناصر حمایتی یا الگوهای غیرمستقیم دیگری باشد که در داده های آموزشی وجود داشته است. بطور مثال، گزارش اشاره می کند که مدلها توانسته اند نمونه های متعلق به بیماران سیاهپوست را تشخیص دهند، چونکه در این تصاویر شمار بیشتری از سلول های غیرطبیعی و نئوپلاستیک و شمار کمتری از عناصر حمایتی نسبت به تصاویر بیماران سفیدپوست مشاهده شده است. در چنین شرایطی، مساله اصلی این نیست که تفاوت زیستی میان دو گروه وجود دارد یا ندارد. مساله اصلی اینست که مدل، از تفاوت هایی که ممکنست محصول عوامل مختلفی مانند تفاوت دسترسی به مراقبت، زمان مراجعه، کیفیت نمونه برداری یا حتی الگوهای جمعیتی در مراکز درمانی باشد، یک شاخص هویتی می سازد و سپس آن شاخص هویتی را وارد تصمیم تشخیصی می کند.
چرا شکاف داده به تبعیض عملکردی تبدیل می شود؟
در ادامه، گزارش علمی مذکور یک چرخه کلاسیک را ترسیم می کند. بر همین اساس، اگر داده های آموزشی به طور عمده از گروه غالب، مثلا بیماران سفیدپوست، تامین شده باشد، مدل برای گروههای دارای نمایندگی کمتر، حتی در صورت وجود داده کلی از سرطان، با مشکل مواجه می شود. مثال مشخص اینکه مدلها در تمایز زیررده های سرطان ریه در بیماران سیاهپوست گرفتار افت عملکرد بوده اند. همین طور نکته مهم دیگر اینست که این افت لزوماً به سبب کمبود داده در رابطه با سرطان ریه نیست، بلکه از کمبود داده سرطان ریه از همان گروه جمعیتی مربوط می شود. درنتیجه، مدل در لحظه تصمیم، به جای اتکا به شواهد کافی از وضعیت بیمار، به الگوهای غالب در داده های غالب پناه می برد و این امر، همان بازتولید ساختاری تبعیض است. از نظر حکمرانی داده، این وضعیت یک اخطار روشن برای سیاست گذاران دارد. کیفیت و عدالت در عملکرد یک سامانه پزشکی مبتنی بر هوش مصنوعی، صرفا با افزایش حجم داده تضمین نمی گردد. نمایندگی داده و توزیع متوازن آن در زیرگروه های جمعیتی و بالینی، یک شرط لازم است. اگر این شرط رعایت نشود، مدل حتی با دقت کلی بالا، در سطح زیرگروه ها خطاهای نظام مند تولید می کند و این خطاها می توانند به دستاوردهای درمانی متفاوت برای گروههای مختلف منجر شوند.
توهم عینیت در تصویربرداری پزشکی و چالش واقعی
یکی از گزاره های کلیدی متخصصان و محققان اینست که انتظار می رود ارزیابی صدمه شناسی عینی باشد و برای تشخیص از روی تصویر، دانستن متغیرهای جمعیت شناختی لزوم ندارد؛ اما یافته های مطالعه نشان داده است که عینیت در سطح انسان، تضمین عینیت در سطح مدل نیست. مدل بدنبال بیشینه سازی عملکرد در قالب داده آموزشی است و اگر در داده آموزشی، میانبرهای جمعیتی وجود داشته باشد، مدل آنها را کشف می کند و به کار می گیرد. بنابراین، حتی اگر پزشک انسانی به شکل هنجاری تلاش کند متغیرهای هویتی را کنار بگذارد، مدل می تواند همان متغیرها را از درون تصویر پزشکی استخراج کند و به شکل پنهان وارد فرآیند تصمیم گیری نماید. این وضعیت، یک تغییر پارادایمی در تصور ما از ریسک های هوش مصنوعی پزشکی به وجود می آورد. مساله تنها سوگیری ناشی از ورودی صریح اطلاعات جمعیت شناختی نیست. بلکه تصویر بالینی ممکنست حامل شاخصهای غیرمستقیم باشد و مدل می تواند آنها را به متغیرهای حساس تبدیل کند.
راه حل پیشنهادی و معنای آن برای سیاست گذاران
محققان در کنار نقد، یک مسیر اصلاحی برای پدیده سوگیری نژادی هوش مصنوعی معرفی کرده اند. آنها یک چارچوب آموزشی جدید با نام «FAIR Path» توسعه داده اند و ادعا می کنند که با اعمال این چارچوب قبل از تحلیل، ۸۸.۵ درصد از نابرابری های عملکردی مهار شده است. با این وجود، باقی ماندن ۱۱.۵ درصد از شکاف عملکردی، نشان داده است که مساله به صورت کامل حل نشده و همچنان ظرفیت خطای نامتوازن دراین خصوص وجود دارد. در سطح سیاست گذاری، اهمیت اصلی این بخش آن است که کنترل سوگیری صرفا یک سفارش اخلاقی نیست و باید به یک الزام فنی و مقرراتی تبدیل گردد. اگر چارچوب هایی مانند «FAIR Path» اختیاری و داوطلبانه باقی بمانند، بازار و فشار زمان ارائه محصول می تواند موجب شود برخی سامانه ها بدون ارزیابی کافی عدالت و ایمنی توزیعی وارد گردش کار بالینی شوند. در چنین وضعیتی، نقش تنظیم گر حوزه پزشکی، نهادهای ارزیاب فناوری سلامت و کمیته های اخلاق پژوهش، از حالت سفارش ای خارج می شود و به یک مسئولیت حکمرانی بدل می گردد.
جمع بندی
سرانجام، می توان نتیجه گرفت که هرچه مدلهای پزشکی قدرتمندتر می شوند، توانایی آنها برای استخراج سیگنال های پنهان نیز بیشتر می شود و همین توانایی می تواند ابعاد جدیدی از سوگیری را برجسته سازد؛ بنابراین، تمرکز صرف بر دقت کلی مدل، معیار کافی برای پذیرش نیست. ارزیابی باید به شکل نظام مند در سطح زیرگروه های جمعیتی صورت گیرد و سازوکارهای کاهش سوگیری باید بخشی از استاندارد توسعه و استقرار باشند. اگر هوش مصنوعی مقرر است بعنوان زیرساخت تشخیص و درمان آینده پذیرفته شود، باید هم زمان سه لایه کیفیت داده و نمایندگی عادلانه، سازوکارهای فنی کنترل سوگیری در مرحله آموزش و اعتبارسنجی و الزامات نظارتی و پاسخ گویی مانع ورود محصولات پرریسک به چرخه استفاده، به شکل همگن تقویت شود. کارشناسان اعتقاد دارند در غیر این صورت، ابزارهایی که با وعده افزایش عدالت و دقت وارد پزشکی شده اند، می توانند بشکل نامحسوس، نابرابری های موجود را تثبیت و حتی تشدید کنند.
به طور خلاصه پیشرفت های سریع در کاربردهای پزشکی هوش مصنوعی، این امید را تقویت کرده است که فرایند تشخیص سرطان دقیق تر، سریع تر و همگن تر شود. نتیجه، شکاف در عملکرد و بازتولید تبعیض در یکی از حساس ترین نقاط زنجیره درمان است. به طور مثال، گزارش اشاره می کند که مدلها توانسته اند نمونه های متعلق به بیماران سیاه پوست را تشخیص دهند، چراکه در این تصاویر شمار بیشتری از سلول های غیرطبیعی و نئوپلاستیک و شمار کمتری از عناصر حمایتی نسبت به تصاویر بیماران سفیدپوست مشاهده شده است.
منبع: ما دیجیتال
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب