زنجیره ارزش هوش مصنوعی یک چارچوب حیاتی برای درک مسئولیتها و اِعمال حاکمیت اخلاقی بر مدلهای بزرگ زبانی (LMMs) در حوزه سلامت است. این زنجیره به ما کمک میکند تا نقش هر بازیگر و تأثیر تصمیمات او را در کل فرایند، از طراحی اولیه تا استفاده نهایی، درک کنیم.
۱. تعریف و ساختار زنجیره ارزش هوش مصنوعی
زنجیره ارزش هوش مصنوعی، فرایندی است که مجموعهای از تصمیمات مرتبط با برنامهنویسی و توسعه محصول را توسط یک یا چند بازیگر در بر میگیرد. تصمیماتی که در هر مرحله از این زنجیره گرفته میشوند، پیامدهای مستقیم و غیرمستقیمی بر بازیگران مراحل بعدی، یعنی کسانی که در استقرار و استفاده از LMMs نقش دارند، خواهند داشت.
حکمرانی ابزاری است که از طریق قوانین، هنجارها و توافقنامهها، اصول اخلاقی (مانند شش اصل مورد اجماع سازمان جهانی بهداشت) و تعهدات حقوق بشری را در این فرایند تثبیت میکند. چارچوب حکمرانی سازمان جهانی بهداشت بر سه مرحله کلیدی در زنجیره ارزش LMMها متمرکز است:
| مرحله در زنجیره ارزش | بازیگر اصلی | تعریف و فعالیت اصلی |
| ۱. طراحی و توسعه | توسعهدهندگان | ساخت مدلهای بنیادی با اهداف عمومی یا مدلهای تخصصی برای حوزه پزشکی. این کار نیازمند زیرساختهای عظیم هوش مصنوعی شامل داده، قدرت محاسباتی و تخصص فنی است. |
| ۲. ارائه | ارائهدهندگان | استفاده از یک مدل بنیادیِ از پیش ساختهشده برای یک کاربرد خاص. این مرحله شامل تنظیم دقیق (fine-tuning) مدل، ادغام آن در نرمافزارهای بزرگتر یا استفاده از افزونهها (plug-ins) میشود. |
| ۳. استقرار | استقراردهندگان | مشتریانی (مانند بیمارستانها یا کلینیکها) که محصول مبتنی بر LMM را تهیه کرده و آن را مستقیماً برای بیماران، کادر درمان یا در فرایندهای کاری خود به کار میگیرند. |
گاهی ممکن است این زنجیره به صورت یکپارچه عمودی باشد؛ یعنی یک شرکت یا نهاد (مانند یک نظام سلامت ملی) تمام مراحل را، از جمعآوری داده و آموزش مدل گرفته تا ارائه مستقیم آن به کاربران نهایی، به تنهایی انجام دهد.
۲. اخلاق و حکمرانی در طول زنجیره ارزش
یک حکمرانی کارآمد باید تضمین کند که اصول اخلاقی و تعهدات حقوق بشری در هر یک از این مراحل رعایت میشوند. در هر مرحله باید به سه پرسش اساسی پاسخ داد: چه ریسکهایی باید مدیریت شوند؟، کدام بازیگر برای مدیریت این ریسکها در بهترین موقعیت قرار دارد؟ و نقش دولت چیست؟
الف) مرحله طراحی و توسعه (مسئولیت اصلی: توسعهدهندگان)
- مسئولیتها: مسئولیت اصلی مدیریت ریسکها در این گام با توسعهدهندگان است. زیرا تصمیمات کلیدی در طراحی و توسعه مدل، تنها توسط آنها گرفته میشود و از کنترل ارائهدهندگان و استقراردهندگان خارج است. شانه خالی کردن توسعهدهندگان از این مسئولیت، شرکتهای بزرگ و دارای منابع را از پاسخگویی در قبال نقصهای طراحی معاف میکند.
- ریسکهای حیاتی: ریسکهایی که در این مرحله باید مدیریت شوند عبارتند از: سوگیری ، نقض حریم خصوصی در دادههای آموزشی، نگرانیهای مربوط به حقوق نیروی کار، ردپای کربن و آب، انتشار اطلاعات نادرست، ایمنی و امنیت سایبری، تضعیف اقتدار معرفتی انسان و خطر کنترل انحصاری بر LMMها.
- نقش دولتها: دولتها باید با وضع قوانین و استانداردها، اقدامات مشخصی را الزامی یا ممنوع کنند. برخی از این اقدامات عبارتاند از:
- اجرای قوانین حفاظت از دادهها تا اطمینان حاصل شود که دادههای آموزشی به صورت قانونی و با رضایت آگاهانه افراد پردازش میشوند.
- تعیین الزامات طراحی مانند قابلیت پیشبینی، تفسیرپذیری، ایمنی و امنیت سایبری.
- الزام به ممیزی در مراحل اولیه توسعه مدلهای بنیادی.
- سرمایهگذاری در زیرساختهای عمومی (مانند قدرت محاسباتی و مجموعهدادههای عمومی) برای تشویق توسعه مدلهایی در راستای منافع عمومی و جلوگیری از انحصار.
ب) مرحله ارائه (مسئولیت مشترک و نظارت دولت)
- مسئولیتها: در این مرحله، دولتها مسئول تعریف الزامات و تعهدات برای توسعهدهندگان و ارائهدهندگان هستند. بار مسئولیت نباید صرفاً بر دوش ارائهدهندگان یا کاربران نهایی باشد، زیرا آنها کنترلی بر ریسکهای ایجادشده در مرحله توسعه ندارند.
- نقش دولتها (ارزیابی و تأیید): وظیفه دولتها در این مرحله، وضع مقرراتی برای موارد زیر است:
- تعیین یک نهاد نظارتی (مانند سازمان غذا و دارو) برای ارزیابی و تأیید LMMها و برنامههای کاربردی حوزه سلامت.
- الزام به شفافیت در مورد جنبههای فنی هوش مصنوعی، مانند کد منبع، دادههای ورودی و نتایج آزمایشهای داخلی که برای ارزیابی ایمنی ضروری است.
- الزام به ارزیابی تأثیرات در حوزههای اخلاق، حقوق بشر، ایمنی و حفاظت از دادهها که باید توسط یک شخص ثالث مستقل حسابرسی و منتشر شود.
- نظارت بر دادههای ورودی تا اطمینان حاصل شود که قوانین حفاظت از دادهها در مورد اطلاعاتی که کاربران (مانند پزشکان) وارد LMM میکنند نیز اعمال میشود.
- اِعمال مقررات تجهیزات پزشکی؛ اگر یک LMM به عنوان دستگاه یا ابزار پزشکی طبقهبندی شود، ارائهدهنده یا توسعهدهنده باید مسئولیت اثبات عملکرد صحیح آن را بر عهده بگیرد.
ج) مرحله استقرار (مسئولیت استقراردهندگان و نظارت مداوم)
- ریسکها: حتی پس از تأیید یک مدل، ریسکها همچنان پابرجا هستند. LMMها ممکن است به صورت غیرقابلپیشبینی عمل کنند یا توسط کاربران به شیوهای نادرست به کار گرفته شوند.
- مسئولیت استقراردهندگان: نهادهایی که از این فناوری استفاده میکنند باید:
- با استفاده از اطلاعات ارائهشده، از بهکارگیری LMM در محیطهای نامناسب (مثلاً به دلیل سوگیری یا خطای شناختهشده) خودداری کنند.
- ریسکهای شناختهشده و آسیبهای احتمالی را با هشدارهای واضح و قابل فهم به کاربران اطلاع دهند.
- دسترسی و مقرونبهصرفه بودن را بهبود بخشند (برای مثال، اطمینان حاصل کنند که مدل به زبانهای مختلف در دسترس است).
- آموزش کافی را برای کادر درمان در مورد نحوه تصمیمگیری LMMها، راههای اجتناب از سوگیری خودکارسازی (اعتماد بیش از حد به هوش مصنوعی) و ریسکهای امنیت سایبری فراهم کنند.
- نقش دولتها: دولتها باید بر نظارت مستمر و اقدامات آموزشی تأکید کنند:
- الزام به ممیزی پس از عرضه توسط شخص ثالث مستقل، بهویژه هنگام استقرار در مقیاس بزرگ.
- پاسخگو کردن توسعهدهندگان یا ارائهدهندگان در قبال محتوای نادرست، کاذب یا سمی که برای اصلاح آن اقدامی نکردهاند.
- تسهیل مشارکت عمومی از طریق گردهم آوردن متخصصان سلامت و بیماران در قالب “کارگروه های نظارت انسانی” برای اطمینان از استفاده صحیح از فناوری.
۳. مسئولیت حقوقی
با افزایش استفاده از LMMها، وقوع آسیب و خطا اجتنابناپذیر است. به همین دلیل، باید قوانین مشخصی برای مسئولیت حقوقی و جبران خسارت وضع شود. تعیین اینکه مسئولیت در کجای زنجیره ارزش قرار دارد، یکی از چالشهای اساسی برای قانونگذاران است.
- کاهش بار اثبات: دولتها میتوانند با ایجاد “فرض علیت”، فرایند اثبات را برای قربانیان سادهتر کنند. به این معنی که فرض اولیه بر وجود رابطه علت و معلولی بین استفاده از هوش مصنوعی و آسیب وارده باشد، مگر آنکه خلاف آن ثابت شود.
- مسئولیت مطلق: دولتها میتوانند برای LMMهای حوزه سلامت، استاندارد مسئولیت مطلق را در نظر بگیرند. بر این اساس، در صورت وقوع هرگونه آسیب، فارغ از وجود یا عدم وجود تقصیر، مسئولیت جبران خسارت وجود دارد. اگرچه این رویکرد جبران خسارت را تضمین میکند، اما ممکن است انگیزه برای استقرار LMMهای پیچیده را کاهش دهد.
- صندوقهای جبران خسارت: ایجاد صندوقهای جبران خسارت بدون نیاز به اثبات تقصیر میتواند راهحلی عملی برای پرداخت غرامت به افرادی باشد که در اثر استفاده از هوش مصنوعی آسیب دیدهاند، بهویژه در شرایطی که تعیین مقصر دشوار است.
پاورقی:
1- Vertically Integrated
2- Presumption of Causality
3- Strict Liability
4- no-fault compensation funds
دیدگاهتان را بنویسید