اصول اخلاقی مورد اجماع سازمان جهانی بهداشت (WHO) یک راهنمای بنیادین برای اخلاق و حکمرانی هوش مصنوعی (AI)، بویژه برای مدلهای زبانی بزرگ چند وجهی (LMMs)در حوزه سلامت هستند. این راهنما در سال 2025 منتشر و با مشورت ۲۰ کارشناس برجسته در زمینه هوش مصنوعی تهیه شده است؛ کارشناسانی که هم به پتانسیل و هم به خطرات هوش مصنوعی در مراقبتهای بهداشتی آگاه بودند. در این چارچوب، شش اصل اخلاقی کلیدی، توسعه و استقرار هوش مصنوعی در حوزه سلامت را توسط تمامی ذینفعان، از جمله دولتها، نهادهای دولتی، محققان، شرکتها و افراد، هدایت میکنند.
۱. حفاظت از استقلال
این اصل ایجاب میکند که انسانها باید کنترل سیستمهای مراقبتهای بهداشتی و تصمیمگیریهای پزشکی را حفظ کنند. هوش مصنوعی باید به عنوان یک ابزار کمکی عمل کند، نه یک مرجع نهایی. علاوه بر این، حریم خصوصی و محرمانگی دادهها باید از طریق رضایت آگاهانه و چارچوبهای قانونی مناسب محافظت شوند. این بدان معناست که بیماران باید دقیقاً بدانند چگونه دادههای آنها جمعآوری، استفاده و ذخیره میشوند. هرگونه نقض این الزامات، مانند استفاده از دادهها بدون کسب رضایت صریح و آگاهانه، نقض مستقیم این اصل محسوب میشود.
۲. ترویج رفاه و ایمنی انسان و منافع عمومی
این اصل بر این تأکید دارد که هدف نهایی استفاده از هوش مصنوعی باید بهبود سلامت و رفاه عمومی باشد. طراحان هوش مصنوعی باید الزامات قانونی مربوط به ایمنی، دقت و کارایی را در کاربردهای مشخص خود رعایت کنند. این اصل زمانی نقض میشود که دادههای آموزشی کیفیت لازم را نداشته یا دچار سوگیری باشند؛ چرا که این امر میتواند منجر به تشخیصهای نادرست یا توصیههای مضر شود. به عنوان مثال، اگر یک مدل بر اساس دادههای غیرواقعی یا ناقص آموزش دیده باشد، ممکن است نتایج آن برای گروههای جمعیتی خاصی خطرناک باشد.
۳. تضمین شفافیت، «توضیحپذیری» و قابل فهم بودن
فناوریهای هوش مصنوعی باید برای همه قابل فهم باشند، از توسعهدهندگان و متخصصان پزشکی گرفته تا بیماران و تنظیمکنندهها. این اصل به «توضیحپذیری» مدلهای هوش مصنوعی اشاره دارد، به این معنی که باید بتوانیم منطق پشت تصمیمات هوش مصنوعی را درک کنیم. اطلاعات کافی باید پیش از طراحی یا استقرار یک مدل منتشر و مستندسازی شود تا امکان بحث عمومی معنادار فراهم شود. عدم شفافیت توسعهدهندگان در مورد دادههای مورد استفاده برای آموزش مدلها، با این اصل مغایرت دارد و میتواند مانع از اعتمادسازی شود.
۴. تقویت مسئولیتپذیری و پاسخگویی
این اصل تضمین میکند که هوش مصنوعی تحت شرایط مناسب و توسط افراد آموزشدیده استفاده شود. مسئولیت نهایی نتایج هوش مصنوعی بر عهده انسانهاست. باید نقاط نظارت انسانی در هر دو مرحله قبل و بعد از الگوریتم تعریف شوند تا از خطاهای احتمالی جلوگیری شود. همچنین، مکانیزمهای مناسبی برای جبران خسارت برای افرادی که تحت تأثیر تصمیمات مبتنی بر هوش مصنوعی قرار میگیرند، باید در دسترس باشد. این اصل بر این نکته تأکید دارد که هوش مصنوعی نباید بهانهای برای فرار از مسئولیت باشد.
۵. تضمین شمولیت و برابری
این اصل تضمین میکند که توسعه و استقرار هوش مصنوعی برای همه جوامع و جمعیتها عادلانه باشد. استفاده از هوش مصنوعی نباید نابرابریهای موجود در دسترسی به مراقبتهای بهداشتی را تشدید کند. این اصل زمانی نقض میشود که دادههای مورد استفاده برای آموزش مدلها دارای سوگیری باشند و به طور ناخواسته گروههای اقلیت یا جوامع محروم را نادیده بگیرند یا نتایج نادرستی برای آنها ارائه دهند. فناوریهای هوش مصنوعی باید با هدف کاهش نابرابریها و ارائه خدمات بهداشتی عادلانه برای همه طراحی شوند.
۶. ترویج هوش مصنوعی پاسخگو و پایدار
فناوریهای هوش مصنوعی باید با هدف گستردهترِ ترویج پایداری در سیستمهای سلامت، محیط زیست و محیطهای کاری همراستا باشند. این اصل نه تنها به پایداری فنی سیستمها اشاره دارد، بلکه شامل پایداری در زمینه منابع انرژی و تأثیرات زیستمحیطی هوش مصنوعی نیز میشود. یک مدل هوش مصنوعی که برای آموزش به مقادیر عظیمی انرژی نیاز دارد، ممکن است با این اصل در تضاد باشد. هدف نهایی، ایجاد سیستمهایی است که هم از نظر اخلاقی و هم از نظر زیستمحیطی پایدار باشند.
نقش اصول سازمان جهانی بهداشت در حکمرانی هوش مصنوعی
این شش اصل، شالوده اصلی راهنمای سازمان جهانی بهداشت برای LMMها و چارچوب کلی حکمرانی هوش مصنوعی در حوزه سلامت هستند. حکمرانی به معنای نهادینه کردن اصول اخلاقی و تعهدات حقوق بشری از طریق قوانین و توافقات بینالمللی است. پیشنهاد میشود که این اصول در کانون هر نوع حکمرانی هوش مصنوعی قرار گیرند.
انطباق قانونی: نقض قوانین موجود، مانند مقررات حفاظت از دادهها، مستقیماً با اصول راهنمای WHO (به ویژه اصول حفاظت از استقلال و شفافیت) در تضاد است. این نشان میدهد که اخلاق و قانون در این حوزه کاملاً به هم مرتبط هستند.
کاربرد در طول زنجیره ارزش: اصول اخلاقی باید اقدامات و تصمیمات ذینفعان را در هر سه مرحله از چرخه عمر هوش مصنوعی هدایت کنند:
- طراحی و توسعه: در این مرحله، توسعهدهندگان باید مطمئن شوند که کیفیت و نوع دادههای مورد استفاده برای آموزش LMMها با اصول اخلاقی و الزامات قانونی مطابقت دارد.
- ارائه: نحوه ارائه مدل به بازار باید شفاف و مسئولانه باشد.
- استقرار: استفاده از مدل در محیطهای بالینی باید با نظارت و پاسخگویی کامل صورت گیرد.
در نهایت، اصول مورد اجماع سازمان جهانی بهداشت نه تنها یک بیانیه اخلاقی بلکه یک چارچوب عملی برای ارزیابی و تنظیم مقررات LMMها در حوزه سلامت هستند. هدف این چارچوب، تضمین این است که فناوریهای هوش مصنوعی به نفع عموم مردم و با حفظ حقوق انسانی استفاده شوند. این اصول به ما کمک میکنند تا مسیری روشن برای آیندهای داشته باشیم که در آن هوش مصنوعی در خدمت انسان و سلامت اوست.
دیدگاهتان را بنویسید