هوش مصنوعی، رگولاتوری و سیاست‌گذاری

اصول اخلاقی سازمان جهانی بهداشت برای هوش مصنوعی در سلامت

اصول اخلاقی مورد اجماع سازمان جهانی بهداشت (WHO) یک راهنمای بنیادین برای اخلاق و حکمرانی هوش مصنوعی (AI)، بویژه برای مدل‌های زبانی بزرگ چند وجهی (LMMs)در حوزه سلامت هستند. این راهنما در سال 2025 منتشر و با مشورت ۲۰ کارشناس برجسته در زمینه هوش مصنوعی تهیه شده است؛ کارشناسانی که هم به پتانسیل و هم به خطرات هوش مصنوعی در مراقبت‌های بهداشتی آگاه بودند. در این چارچوب، شش اصل اخلاقی کلیدی، توسعه و استقرار هوش مصنوعی در حوزه سلامت را توسط تمامی ذینفعان، از جمله دولت‌ها، نهادهای دولتی، محققان، شرکت‌ها و افراد، هدایت می‌کنند.


۱. حفاظت از استقلال

این اصل ایجاب می‌کند که انسان‌ها باید کنترل سیستم‌های مراقبت‌های بهداشتی و تصمیم‌گیری‌های پزشکی را حفظ کنند. هوش مصنوعی باید به عنوان یک ابزار کمکی عمل کند، نه یک مرجع نهایی. علاوه بر این، حریم خصوصی و محرمانگی داده‌ها باید از طریق رضایت آگاهانه و چارچوب‌های قانونی مناسب محافظت شوند. این بدان معناست که بیماران باید دقیقاً بدانند چگونه داده‌های آن‌ها جمع‌آوری، استفاده و ذخیره می‌شوند. هرگونه نقض این الزامات، مانند استفاده از داده‌ها بدون کسب رضایت صریح و آگاهانه، نقض مستقیم این اصل محسوب می‌شود.


۲. ترویج رفاه و ایمنی انسان و منافع عمومی

این اصل بر این تأکید دارد که هدف نهایی استفاده از هوش مصنوعی باید بهبود سلامت و رفاه عمومی باشد. طراحان هوش مصنوعی باید الزامات قانونی مربوط به ایمنی، دقت و کارایی را در کاربردهای مشخص خود رعایت کنند. این اصل زمانی نقض می‌شود که داده‌های آموزشی کیفیت لازم را نداشته یا دچار سوگیری باشند؛ چرا که این امر می‌تواند منجر به تشخیص‌های نادرست یا توصیه‌های مضر شود. به عنوان مثال، اگر یک مدل بر اساس داده‌های غیرواقعی یا ناقص آموزش دیده باشد، ممکن است نتایج آن برای گروه‌های جمعیتی خاصی خطرناک باشد.


۳. تضمین شفافیت، «توضیح‌پذیری» و قابل فهم بودن

فناوری‌های هوش مصنوعی باید برای همه قابل فهم باشند، از توسعه‌دهندگان و متخصصان پزشکی گرفته تا بیماران و تنظیم‌کننده‌ها. این اصل به «توضیح‌پذیری» مدل‌های هوش مصنوعی اشاره دارد، به این معنی که باید بتوانیم منطق پشت تصمیمات هوش مصنوعی را درک کنیم. اطلاعات کافی باید پیش از طراحی یا استقرار یک مدل منتشر و مستندسازی شود تا امکان بحث عمومی معنادار فراهم شود. عدم شفافیت توسعه‌دهندگان در مورد داده‌های مورد استفاده برای آموزش مدل‌ها، با این اصل مغایرت دارد و می‌تواند مانع از اعتمادسازی شود.


۴. تقویت مسئولیت‌پذیری و پاسخگویی

این اصل تضمین می‌کند که هوش مصنوعی تحت شرایط مناسب و توسط افراد آموزش‌دیده استفاده شود. مسئولیت نهایی نتایج هوش مصنوعی بر عهده انسان‌هاست. باید نقاط نظارت انسانی در هر دو مرحله قبل و بعد از الگوریتم تعریف شوند تا از خطاهای احتمالی جلوگیری شود. همچنین، مکانیزم‌های مناسبی برای جبران خسارت برای افرادی که تحت تأثیر تصمیمات مبتنی بر هوش مصنوعی قرار می‌گیرند، باید در دسترس باشد. این اصل بر این نکته تأکید دارد که هوش مصنوعی نباید بهانه‌ای برای فرار از مسئولیت باشد.


۵. تضمین شمولیت و برابری

این اصل تضمین می‌کند که توسعه و استقرار هوش مصنوعی برای همه جوامع و جمعیت‌ها عادلانه باشد. استفاده از هوش مصنوعی نباید نابرابری‌های موجود در دسترسی به مراقبت‌های بهداشتی را تشدید کند. این اصل زمانی نقض می‌شود که داده‌های مورد استفاده برای آموزش مدل‌ها دارای سوگیری باشند و به طور ناخواسته گروه‌های اقلیت یا جوامع محروم را نادیده بگیرند یا نتایج نادرستی برای آن‌ها ارائه دهند. فناوری‌های هوش مصنوعی باید با هدف کاهش نابرابری‌ها و ارائه خدمات بهداشتی عادلانه برای همه طراحی شوند.


۶. ترویج هوش مصنوعی پاسخگو و پایدار

فناوری‌های هوش مصنوعی باید با هدف گسترده‌ترِ ترویج پایداری در سیستم‌های سلامت، محیط زیست و محیط‌های کاری هم‌راستا باشند. این اصل نه تنها به پایداری فنی سیستم‌ها اشاره دارد، بلکه شامل پایداری در زمینه منابع انرژی و تأثیرات زیست‌محیطی هوش مصنوعی نیز می‌شود. یک مدل هوش مصنوعی که برای آموزش به مقادیر عظیمی انرژی نیاز دارد، ممکن است با این اصل در تضاد باشد. هدف نهایی، ایجاد سیستم‌هایی است که هم از نظر اخلاقی و هم از نظر زیست‌محیطی پایدار باشند.


نقش اصول سازمان جهانی بهداشت در حکمرانی هوش مصنوعی

این شش اصل، شالوده اصلی راهنمای سازمان جهانی بهداشت برای LMMها و چارچوب کلی حکمرانی هوش مصنوعی در حوزه سلامت هستند. حکمرانی به معنای نهادینه کردن اصول اخلاقی و تعهدات حقوق بشری از طریق قوانین و توافقات بین‌المللی است. پیشنهاد می‌شود که این اصول در کانون هر نوع حکمرانی هوش مصنوعی قرار گیرند.

انطباق قانونی: نقض قوانین موجود، مانند مقررات حفاظت از داده‌ها، مستقیماً با اصول راهنمای WHO (به ویژه اصول حفاظت از استقلال و شفافیت) در تضاد است. این نشان می‌دهد که اخلاق و قانون در این حوزه کاملاً به هم مرتبط هستند.

کاربرد در طول زنجیره ارزش: اصول اخلاقی باید اقدامات و تصمیمات ذینفعان را در هر سه مرحله از چرخه عمر هوش مصنوعی هدایت کنند:

  • طراحی و توسعه: در این مرحله، توسعه‌دهندگان باید مطمئن شوند که کیفیت و نوع داده‌های مورد استفاده برای آموزش LMMها با اصول اخلاقی و الزامات قانونی مطابقت دارد.
  • ارائه: نحوه ارائه مدل به بازار باید شفاف و مسئولانه باشد.
  • استقرار: استفاده از مدل در محیط‌های بالینی باید با نظارت و پاسخگویی کامل صورت گیرد.

در نهایت، اصول مورد اجماع سازمان جهانی بهداشت نه تنها یک بیانیه اخلاقی بلکه یک چارچوب عملی برای ارزیابی و تنظیم مقررات LMMها در حوزه سلامت هستند. هدف این چارچوب، تضمین این است که فناوری‌های هوش مصنوعی به نفع عموم مردم و با حفظ حقوق انسانی استفاده شوند. این اصول به ما کمک می‌کنند تا مسیری روشن برای آینده‌ای داشته باشیم که در آن هوش مصنوعی در خدمت انسان و سلامت اوست.

اطلاعات کتاب‌شناختی

عنوان: اصول اخلاقی سازمان جهانی بهداشت برای هوش مصنوعی در سلامت

نویسنده: Nader Jahanmehr

تاریخ انتشار: اکتبر 1, 2025

آدرس: https://academy.zeevest.com/2025/10/01/%d8%a7%d8%b5%d9%88%d9%84-%d8%a7%d8%ae%d9%84%d8%a7%d9%82%db%8c-%d8%b3%d8%a7%d8%b2%d9%85%d8%a7%d9%86-%d8%ac%d9%87%d8%a7%d9%86%db%8c-%d8%a8%d9%87%d8%af%d8%a7%d8%b4%d8%aa-%d8%a8%d8%b1%d8%a7%db%8c-%d9%87/

دسته‌بندی: هوش مصنوعی، رگولاتوری و سیاست‌گذاری

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *