arrow-right-square Created with Sketch Beta.
کد خبر: ۴۵۶۸۸۲
تاریخ انتشار: ۱۵ : ۱۸ - ۱۲ بهمن ۱۳۹۷

هوش مصنوعی می تواند کارکردی تخریبی در پزشکی داشته باشد / از تعصبات نژادی تا تشخیص های سوء گیرانه

نیویورک تایمز نوشت: هوش مصنوعی با ارزیابی  رفتار پزشکان در شرایط مختلف بالینی شروع به ارزیابی (و گاهی اوقات ارزیابی بیش از حد) بیماری ها می کند و بنابراین اکنون شاهد این هستیم که هوش مصنوعی حتی می تواند سرطان ها را تشخیص دهد یا تشخیص هایی در حوزه هایی مثل مغز، چشم، قلب و ... انجام دهد. هوش مصنوعی حتی می تواند با ردیابی پرونده پزشکی بیماران پیشبینی کند آنها دچار چه بیماری هایی خواهند شد. در کنار همه این وظایف، هوش مصنوعی می تواند محاسباتی وقت گیر مثل محاسبه ضربان قلب و مواردی مشابه را انجام دهد.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

نیویورک تایمز نوشت: هوش مصنوعی با ارزیابی  رفتار پزشکان در شرایط مختلف بالینی شروع به ارزیابی (و گاهی اوقات ارزیابی بیش از حد) بیماری ها می کند و بنابراین اکنون شاهد این هستیم که هوش مصنوعی حتی می تواند سرطان ها را تشخیص دهد یا تشخیص هایی در حوزه هایی مثل مغز، چشم، قلب و ... انجام دهد. هوش مصنوعی حتی می تواند با ردیابی پرونده پزشکی بیماران پیشبینی کند آنها دچار چه بیماری هایی خواهند شد. در کنار همه این وظایف، هوش مصنوعی می تواند محاسباتی وقت گیر مثل محاسبه ضربان قلب و مواردی مشابه را انجام دهد.

به گزارش سرویس آی تی و فناوری انتخاب، نگاهی به قابلیتهای متعدد هوش مصوعی در عرصه پزشکی تا حدی قانع کننده است که باعث می شود از خودمان بپرسیم سااس چرا باید به عنوان یک دانشجوی پزشکی تحصیل کنیم و دوره های سخت این رشته را بگذرانیم؟

سوالات زیادی در مورد اینکه آیا هوش مصنوعی  واقعا مثل یک پزشک کار می کند یا خیر وجود دارد. برای مثال هنوز هم ابهاماتی وجود دارد که آیا هوش مصنوعی واقعا می تواند تا حدی دقیق باشد که برای مثال زمان مرگ یک بیمار مبتلا به سرطان حاد را تعیین کند؟ اما این سوالات اغلب روی مسائل فنی مرتبط با هوش مصنوعی متمرکز است نه اصول اخلاقی. این که هوش مصنوعی اخلاقیات را در عرصه پزشکی مورد توجه قرار نمی دهد تا حدی مهم شده که برخی این موضوع را از 3 منظر و دلیل اصلی مورد بررسی قرار داده اند:

اولین مسئله آموزش است. درواقع هوش مصنوعی باید برای تشخیص بیماری به واسطه مجموعه داده های بزرگ یاد بگیرد و اگر این داده ها شامل اطلاعات کافی بیماران مبتلا به یک اختلال خاص نباشد، تشخیص های پزشکی هوش مصنوعی قابل اطمینان نخواهد بود. یک مطالعه اخیر نشان داد که برخی از برنامه های تشخیص چهره به ندرت می توانند در حوزهن افراد رنگین پوست و زنان تشخیص های درست پوستی بدهند و فرض کنید قرار باشد از داده های مبتنی بر هوش مصنوعی برای تشخیص سرطان پوست استفاده کنیم.

علم پزشکی برای سال هایی طولانی تلاش کرده است تا زنان و اقلیت ها را به اندازه کافی در پژوهش های خود وارد کند. اما همچنان بسیاری از مطالعات ژنتیکی از فقدان بیماران سیاه پوست رنج می برند، که منجر به نتیجه گیری اشتباه می شود. زنان اغلب علائم مختلفی در هنگام حمله قلبی دارند و باعث تاخیر در درمان می شوند. شاید رایج ترین ریسکهای قلب و عروق که با استفاده از داده های بیشتر بیماران سفیدپوست تولید شده باشد، ممکن است برای اقلیت ها کمتر دقیق باشد.

 

دلیل دوم این است که برخی مبناهای داده از ابتدا بر اساس طبقه اجتماعی و وضعیت معیشت بیماران تعیین می ود. برای مثال به طور رایج، بیماران فقیر و آواره ای که دچار بیماری هایی مثل سرطان می شوند کمتر خدمات پزشکی دریافت می کنند و در نتیجه در هنگام طبقه بندی اطلاعات این نوع بیماران، هوش مصنوعی دچار تعارض شده و تصور می ند اساسا وضعیت سلامت و بهبودی این بیماران کم ارزش تر است. بر این اساس اگر، برای مثال، بیماران فقیر پس از پیوند عضو یا پس از دریافت شیمی درمانی برای سرطان در مرحله پایانی، بدتر می شوند، الگوریتم های یادگیری ماشینی ممکن است نتیجه گیری کند که این بیماران  نیازی به دریافت درمان های مکمل ندارند و روند درمان آنان را بیرحمانه متوقف کند.

هوش مصنوعی می تواند کارکردی تخریبی در پزشکی داشته باشد / از تعصبات نژادی تا تشخیص های سوء گیرانه

در نهایت و به عنوان مورد سوم؛  حتی اگر هوش مصنوعی کاملا بدون سوء گیری اقدام به ارزیبی شریط کند، گاهی تشخیص های هوش مصنوعی می تواند روند متاقشات در تصمیم های پزشکی را سخت تر کند. برای مثال شرایطی را در نظر بگیرید که در آن، پزشکان تصمیم می گیرند که آیا بیمار باید بعد از عمل جراحی زانو به خانه برود یا به یک مرکز توانبخشی فرستاه شود. طبیعی است که دریافت مددکاری با هزینه های بالاتری همراه است و اگر الگوریتم بر اساس محل اقامت بیمار که در یک محله کم درآمد زندگی می کند طراحی شده باشد، ممکن است بیماران  فقیر را به جای دریافت فیزیوتراپی به خانه بفرسد. این موضوع نه تنها برای بیمار عواقب دارد، بلکه می تواند بین گروه های درمانی اختلاف ایجاد کرده و نتایج درمان را تضعیف کند.

در حال حاضر، تا حدودی، تمام این مشکلات در حوزه پزشکی وجود دارد. مراقبت های بهداشتی آمریكا همیشه از نابرابری های درآمدی و نژادی كه ریشه در انواع مختلف تعصب دارند رنج می برد. خطر هوش مصنوعی در حوزه پزشکی این است که چنین تعصباتی به شکل اتوماتیک و نامرئی در آمده اند. درواقع هوش مصنوعی بی شباهت به یک جعبه سیاه نیست که مشخص نیست بر اساس چه مدارک و شواهدی یک تصمیم مشخص را اتخاذ کرده است.

 

مسئله وقتی مهم تر می شود که بدانیم بسیاری از پزشکان به داده های دیجیتال وابسته هستند و حتی دانشجویان پزشکی در تمامی مراحل آموزش و یادگیری خود نیم نگاهی به اطلاعات آنلاین دارد. با همه این مخاطرات نمی توانیم منکر این موضوع شویم که هوش مصنوعی پتانسیل بالایی برای توسعه پزشکی دارد. اما تحقق این وعده نیاز به آگاهی از پتانسیل تعصب و حفاظت از آن دارد. این به معنی نظارت منظم بر خروجی الگوریتم ها و پیامدهای آن است.

بر این اساس وظیفه همه افراد فعال در این حوزه حفاظت از مسیری است که هوش مصنوعی طی می کند. چرا که هرگونه خطا در این مسیر می تواند عواقبی سخت برای آینده هوش مصنوعی در حوزه پزشکی داشته باشد.

نظرات بینندگان