نوشتار، رگولاتوری و سیاست‌گذاری، هوش مصنوعی

زنجیره ارزش هوش مصنوعی: چارچوبی برای اخلاق و حکمرانی در سلامت

زنجیره ارزش هوش مصنوعی یک چارچوب حیاتی برای درک مسئولیت‌ها و اِعمال حاکمیت اخلاقی بر مدل‌های بزرگ زبانی (LMMs) در حوزه سلامت است. این زنجیره به ما کمک می‌کند تا نقش هر بازیگر و تأثیر تصمیمات او را در کل فرایند، از طراحی اولیه تا استفاده نهایی، درک کنیم.

۱. تعریف و ساختار زنجیره ارزش هوش مصنوعی

زنجیره ارزش هوش مصنوعی، فرایندی است که مجموعه‌ای از تصمیمات مرتبط با برنامه‌نویسی و توسعه محصول را توسط یک یا چند بازیگر در بر می‌گیرد. تصمیماتی که در هر مرحله از این زنجیره گرفته می‌شوند، پیامدهای مستقیم و غیرمستقیمی بر بازیگران مراحل بعدی، یعنی کسانی که در استقرار و استفاده از LMMs نقش دارند، خواهند داشت.

حکمرانی ابزاری است که از طریق قوانین، هنجارها و توافق‌نامه‌ها، اصول اخلاقی (مانند شش اصل مورد اجماع سازمان جهانی بهداشت) و تعهدات حقوق بشری را در این فرایند تثبیت می‌کند. چارچوب حکمرانی سازمان جهانی بهداشت بر سه مرحله کلیدی در زنجیره ارزش LMMها متمرکز است:

مرحله در زنجیره ارزشبازیگر اصلیتعریف و فعالیت اصلی
۱. طراحی و توسعهتوسعه‌دهندگان ساخت مدل‌های بنیادی با اهداف عمومی یا مدل‌های تخصصی برای حوزه پزشکی. این کار نیازمند زیرساخت‌های عظیم هوش مصنوعی شامل داده، قدرت محاسباتی و تخصص فنی است.
۲. ارائهارائه‌دهندگان استفاده از یک مدل بنیادیِ از پیش ساخته‌شده برای یک کاربرد خاص. این مرحله شامل تنظیم دقیق (fine-tuning) مدل، ادغام آن در نرم‌افزارهای بزرگ‌تر یا استفاده از افزونه‌ها (plug-ins) می‌شود.
۳. استقراراستقراردهندگان مشتریانی (مانند بیمارستان‌ها یا کلینیک‌ها) که محصول مبتنی بر LMM را تهیه کرده و آن را مستقیماً برای بیماران، کادر درمان یا در فرایندهای کاری خود به کار می‌گیرند.

گاهی ممکن است این زنجیره به صورت یکپارچه عمودی باشد؛ یعنی یک شرکت یا نهاد (مانند یک نظام سلامت ملی) تمام مراحل را، از جمع‌آوری داده و آموزش مدل گرفته تا ارائه مستقیم آن به کاربران نهایی، به تنهایی انجام دهد.


۲. اخلاق و حکمرانی در طول زنجیره ارزش

یک حکمرانی کارآمد باید تضمین کند که اصول اخلاقی و تعهدات حقوق بشری در هر یک از این مراحل رعایت می‌شوند. در هر مرحله باید به سه پرسش اساسی پاسخ داد: چه ریسک‌هایی باید مدیریت شوند؟، کدام بازیگر برای مدیریت این ریسک‌ها در بهترین موقعیت قرار دارد؟ و نقش دولت چیست؟

الف) مرحله طراحی و توسعه (مسئولیت اصلی: توسعه‌دهندگان)

  • مسئولیت‌ها: مسئولیت اصلی مدیریت ریسک‌ها در این گام با توسعه‌دهندگان است. زیرا تصمیمات کلیدی در طراحی و توسعه مدل، تنها توسط آن‌ها گرفته می‌شود و از کنترل ارائه‌دهندگان و استقراردهندگان خارج است. شانه خالی کردن توسعه‌دهندگان از این مسئولیت، شرکت‌های بزرگ و دارای منابع را از پاسخگویی در قبال نقص‌های طراحی معاف می‌کند.
  • ریسک‌های حیاتی: ریسک‌هایی که در این مرحله باید مدیریت شوند عبارتند از: سوگیری ، نقض حریم خصوصی در داده‌های آموزشی، نگرانی‌های مربوط به حقوق نیروی کار، ردپای کربن و آب، انتشار اطلاعات نادرست، ایمنی و امنیت سایبری، تضعیف اقتدار معرفتی انسان و خطر کنترل انحصاری بر LMMها.
  • نقش دولت‌ها: دولت‌ها باید با وضع قوانین و استانداردها، اقدامات مشخصی را الزامی یا ممنوع کنند. برخی از این اقدامات عبارت‌اند از:
    • اجرای قوانین حفاظت از داده‌ها تا اطمینان حاصل شود که داده‌های آموزشی به صورت قانونی و با رضایت آگاهانه افراد پردازش می‌شوند.
    • تعیین الزامات طراحی مانند قابلیت پیش‌بینی، تفسیرپذیری، ایمنی و امنیت سایبری.
    • الزام به ممیزی در مراحل اولیه توسعه مدل‌های بنیادی.
    • سرمایه‌گذاری در زیرساخت‌های عمومی (مانند قدرت محاسباتی و مجموعه‌داده‌های عمومی) برای تشویق توسعه مدل‌هایی در راستای منافع عمومی و جلوگیری از انحصار.

ب) مرحله ارائه (مسئولیت مشترک و نظارت دولت)

  • مسئولیت‌ها: در این مرحله، دولت‌ها مسئول تعریف الزامات و تعهدات برای توسعه‌دهندگان و ارائه‌دهندگان هستند. بار مسئولیت نباید صرفاً بر دوش ارائه‌دهندگان یا کاربران نهایی باشد، زیرا آن‌ها کنترلی بر ریسک‌های ایجادشده در مرحله توسعه ندارند.
  • نقش دولت‌ها (ارزیابی و تأیید): وظیفه دولت‌ها در این مرحله، وضع مقرراتی برای موارد زیر است:
    • تعیین یک نهاد نظارتی (مانند سازمان غذا و دارو) برای ارزیابی و تأیید LMMها و برنامه‌های کاربردی حوزه سلامت.
    • الزام به شفافیت در مورد جنبه‌های فنی هوش مصنوعی، مانند کد منبع، داده‌های ورودی و نتایج آزمایش‌های داخلی که برای ارزیابی ایمنی ضروری است.
    • الزام به ارزیابی تأثیرات در حوزه‌های اخلاق، حقوق بشر، ایمنی و حفاظت از داده‌ها که باید توسط یک شخص ثالث مستقل حسابرسی و منتشر شود.
    • نظارت بر داده‌های ورودی تا اطمینان حاصل شود که قوانین حفاظت از داده‌ها در مورد اطلاعاتی که کاربران (مانند پزشکان) وارد LMM می‌کنند نیز اعمال می‌شود.
    • اِعمال مقررات تجهیزات پزشکی؛ اگر یک LMM به عنوان دستگاه یا ابزار پزشکی طبقه‌بندی شود، ارائه‌دهنده یا توسعه‌دهنده باید مسئولیت اثبات عملکرد صحیح آن را بر عهده بگیرد.

ج) مرحله استقرار (مسئولیت استقراردهندگان و نظارت مداوم)

  • ریسک‌ها: حتی پس از تأیید یک مدل، ریسک‌ها همچنان پابرجا هستند. LMMها ممکن است به صورت غیرقابل‌پیش‌بینی عمل کنند یا توسط کاربران به شیوه‌ای نادرست به کار گرفته شوند.
  • مسئولیت استقراردهندگان: نهادهایی که از این فناوری استفاده می‌کنند باید:
    • با استفاده از اطلاعات ارائه‌شده، از به‌کارگیری LMM در محیط‌های نامناسب (مثلاً به دلیل سوگیری یا خطای شناخته‌شده) خودداری کنند.
    • ریسک‌های شناخته‌شده و آسیب‌های احتمالی را با هشدارهای واضح و قابل فهم به کاربران اطلاع دهند.
    • دسترسی و مقرون‌به‌صرفه بودن را بهبود بخشند (برای مثال، اطمینان حاصل کنند که مدل به زبان‌های مختلف در دسترس است).
    • آموزش کافی را برای کادر درمان در مورد نحوه تصمیم‌گیری LMMها، راه‌های اجتناب از سوگیری خودکارسازی (اعتماد بیش از حد به هوش مصنوعی) و ریسک‌های امنیت سایبری فراهم کنند.
  • نقش دولت‌ها: دولت‌ها باید بر نظارت مستمر و اقدامات آموزشی تأکید کنند:
    • الزام به ممیزی پس از عرضه توسط شخص ثالث مستقل، به‌ویژه هنگام استقرار در مقیاس بزرگ.
    • پاسخگو کردن توسعه‌دهندگان یا ارائه‌دهندگان در قبال محتوای نادرست، کاذب یا سمی که برای اصلاح آن اقدامی نکرده‌اند.
    • تسهیل مشارکت عمومی از طریق گردهم آوردن متخصصان سلامت و بیماران در قالب “کارگروه های نظارت انسانی” برای اطمینان از استفاده صحیح از فناوری.

۳. مسئولیت حقوقی 

با افزایش استفاده از LMMها، وقوع آسیب و خطا اجتناب‌ناپذیر است. به همین دلیل، باید قوانین مشخصی برای مسئولیت حقوقی و جبران خسارت وضع شود. تعیین اینکه مسئولیت در کجای زنجیره ارزش قرار دارد، یکی از چالش‌های اساسی برای قانون‌گذاران است.

  • کاهش بار اثبات: دولت‌ها می‌توانند با ایجاد “فرض علیت”، فرایند اثبات را برای قربانیان ساده‌تر کنند. به این معنی که فرض اولیه بر وجود رابطه علت و معلولی بین استفاده از هوش مصنوعی و آسیب وارده باشد، مگر آنکه خلاف آن ثابت شود.
  • مسئولیت مطلق: دولت‌ها می‌توانند برای LMMهای حوزه سلامت، استاندارد مسئولیت مطلق را در نظر بگیرند. بر این اساس، در صورت وقوع هرگونه آسیب، فارغ از وجود یا عدم وجود تقصیر، مسئولیت جبران خسارت وجود دارد. اگرچه این رویکرد جبران خسارت را تضمین می‌کند، اما ممکن است انگیزه برای استقرار LMMهای پیچیده را کاهش دهد.
  • صندوق‌های جبران خسارت: ایجاد صندوق‌های جبران خسارت بدون نیاز به اثبات تقصیر  می‌تواند راه‌حلی عملی برای پرداخت غرامت به افرادی باشد که در اثر استفاده از هوش مصنوعی آسیب دیده‌اند، به‌ویژه در شرایطی که تعیین مقصر دشوار است.

پاورقی:

1- Vertically Integrated

2- Presumption of Causality

3- Strict Liability

4- no-fault compensation funds

اطلاعات کتاب‌شناختی

عنوان: زنجیره ارزش هوش مصنوعی: چارچوبی برای اخلاق و حکمرانی در سلامت

نویسنده: Nader Jahanmehr

تاریخ انتشار: اکتبر 1, 2025

آدرس: https://academy.zeevest.com/2025/10/01/%d8%b2%d9%86%d8%ac%db%8c%d8%b1%d9%87-%d8%a7%d8%b1%d8%b2%d8%b4-%d9%87%d9%88%d8%b4-%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c-%da%86%d8%a7%d8%b1%da%86%d9%88%d8%a8%db%8c-%d8%a8%d8%b1%d8%a7%db%8c-%d8%a7%d8%ae/

دسته‌بندی: نوشتار، رگولاتوری و سیاست‌گذاری، هوش مصنوعی

مقالات مرتبط

Hello world!

Welcome to WordPress. This is your first post. Edit or delete it,…

آگوست 27, 2025

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *