نوشتار، هوش مصنوعی

اگر هوش مصنوعی می‌تواند بیماران را تشخیص دهد، پس پزشکان به چه کار می‌آیند؟

مدل‌های زبانی بزرگ در حال دگرگون کردن علم پزشکی هستند، اما این فناوری عوارض جانبی خود را نیز به همراه دارد.

نوشته‌ی دراو کولار

۲۲ سپتامبر ۲۰۲۵

در سال ۲۰۱۷، متیو ویلیامز، یک مهندس نرم‌افزار سی و چند ساله با هیکلی ورزیده و سری تراشیده، برای یک دوچرخه‌سواری طولانی به تپه‌های سانفرانسیسکو رفت. پس از آن، در یک شام با دوستانش، همبرگر، سیب‌زمینی سرخ‌کرده و میلک‌شیک سفارش داد. در اواسط غذا، آنقدر احساس سیری کرد که مجبور شد از کسی بخواهد او را به خانه برساند. آن شب، ویلیامز با درد شدیدی در شکمش از خواب بیدار شد که نگران بود آپاندیسیت باشد. او به یک کلینیک اورژانس در همان نزدیکی مراجعه کرد، جایی که پزشکان به او گفتند احتمالاً یبوست دارد. به او مقداری ملین دادند و او را به خانه فرستادند.

چند ساعت بعد، درد ویلیامز شدیدتر شد. او استفراغ کرد و احساس می‌کرد ممکن است معده‌اش بترکد. یکی از دوستانش او را به بیمارستان برد، جایی که سی‌تی‌اسکن نشان داد او دچار “ولولوس سکوم” شده است—یک وضعیت اورژانسی پزشکی که در آن بخشی از روده به دور خود می‌پیچد و دستگاه گوارش را مسدود می‌کند. تیم پزشکی قبلی این عارضه را تشخیص نداده بود و حتی ممکن بود با دادن ملین آن را تشدید کرده باشد. ویلیامز به سرعت به اتاق عمل منتقل شد و جراحان حدود شش فوت (نزدیک به دو متر) از روده‌اش را برداشتند.

ویلیامز پس از بهبودی از جراحی، تقریباً هر بار که غذا می‌خورد، دچار اسهال شدید می‌شد. پزشکان به او گفتند که روده‌اش فقط به زمان برای بهبودی نیاز دارد. او گفت: «کار به جایی رسید که نمی‌توانستم بیرون بروم، چون مدام هر چیزی می خوردم مرا بیمار می‌کرد.» طی چند سال بعد، ویلیامز به چندین متخصص تغذیه و گوارش—در مجموع هشت پزشک—مراجعه کرد، اما هیچ‌کدام نتوانستند دلیل علائم او را مشخص کنند. ویلیامز رژیم غذایی خود را عمدتاً به تخم‌مرغ، برنج، پوره سیب و نان خمیرترش محدود کرد. او به من گفت: «تا زمانی که دیگر نتوانی غذا بخوری، نمی‌فهمی که غذا چقدر بخش مهمی از زندگی—از نظر اجتماعی و فرهنگی—است. اینکه در یک قرار ملاقات باشی و توضیح دهی چرا نمی‌توانی استیک موزارلا بخوری، ناخوشایند است. وقتی غذایت بی‌مزه می‌شود، زندگی‌ات هم بی‌مزه می‌شود.»

در سال ۲۰۲۳، ویلیامز به طور اتفاقی سابقه پزشکی خود را وارد ChatGPT کرد. او تایپ کرد: «من بیشتر ایلئوم و دریچه سکوم خود را از دست داده‌ام، چرا غذاهای زیر ممکن است باعث ناراحتی گوارشی شوند؟» و سپس فهرستی از بدترین غذاها را نوشت. در عرض چند ثانیه، هوش مصنوعی به سه محرک بالقوه برای علائم او اشاره کرد: غذاهای چرب، فیبرهای قابل تخمیر، و غذاهای سرشار از اگزالات. اگزالات، ترکیبی که در سبزیجات برگ‌دار و انواع غذاهای دیگر یافت می‌شود، به طور معمول توسط بخش‌هایی از دستگاه گوارش که ویلیامز از دست داده بود تجزیه می‌شود؛ او هرگز نام آن را، حتی از پزشکانش، نشنیده بود. او از هوش مصنوعی فهرستی از غذاهای با اگزالات بالا خواست و شگفت‌زده شد. او گفت: «این فهرست شامل تک‌تک غذاهایی بود که مرا به بدترین شکل بیمار می‌کردند»—اسفناج، بادام، شکلات، سویا و بیش از دوازده غذای دیگر. «انگار که مرا دنبال می‌کرده و یادداشت برمی‌داشته است.» ویلیامز این اطلاعات را نزد یک متخصص تغذیه برد که رژیمی بر اساس میزان اگزالات غذاها برای او طراحی کرد. علائم او بهبود یافت و وعده‌های غذایی‌اش متنوع‌تر شد. ویلیامز دیگر نیازی ندارد که همیشه بداند نزدیک‌ترین دستشویی کجاست. او گفت: «من زندگی‌ام را پس گرفتم.»

در طول دوره آموزش پزشکی‌ام، پزشکان ارشدی را می‌ستودم که به نظر می‌رسید همیشه از طریق کیمیایی از دانش و شمّ ذاتی، سرنخی را پیدا می‌کردند که پرونده را حل می‌کرد: شکل غیرعادی ناخن‌های بیمار؛ یک خطر شغلی مربوط به دهه‌ها قبل؛ یک آزمایش خون نادیده گرفته شده. چه الگوریتمی در ذهن این پزشکان در حال اجرا بود؟ آیا می‌توانستم آن را در ذهن خودم بارگذاری کنم؟ با این حال، در آینده، تشخیص ممکن است به طور فزاینده‌ای به یک علم کامپیوتر تبدیل شود. نظرسنجی‌ها نشان داده‌اند که بسیاری از مردم به تشخیص‌های هوش مصنوعی بیشتر از تشخیص‌های متخصصان اعتماد دارند. در همین حال، تنها در ایالات متحده، تشخیص نادرست هر ساله صدها هزار نفر را ناتوان می‌کند؛ مطالعات کالبدشکافی نشان می‌دهد که این امر شاید در یک دهم مرگ‌ومیرها نقش داشته باشد. اگر ویلیامز تشخیص اولیه خود را نادیده نگرفته بود، ممکن بود یکی از آن‌ها باشد. او گفت: «من به هوش مصنوعی بیشتر از پزشکان اعتماد دارم. فکر نمی‌کنم تنها کسی باشم که اینطور فکر می‌کند.»

در اوایل دهه ۱۹۰۰، ریچارد کابوت، پزشکی در بیمارستان عمومی ماساچوست، سمینارهایی را برای نمایش استدلال بالینی به کارآموزان برگزار کرد. یک پزشک متخصص پرونده یک بیمار سابق را دریافت می‌کرد و برای جزئیات بیشتر در مورد پرونده تحقیق می‌کرد. اگر اطلاعات در طول بستری واقعی بیمار در دسترس بود، فاش می‌شد. به تدریج، پزشک به تشخیصی نزدیک می‌شد که می‌توانست با آنچه آسیب‌شناسان در نهایت، اغلب در حین کالبدشکافی، به آن رسیده بودند مقایسه شود. کنفرانس‌های آسیب شناسی بالینی یا C.P.C.ها، آنقدر محبوب شدند که مجله پزشکی نیوانگلند بیش از یک قرن است که متن آن‌ها را منتشر می‌کند. آن‌ها نمایانگر یک استاندارد طلایی از استدلال تشخیصی هستند: اگر بتوانید یک C.P.C. را حل کنید، تقریباً هر پرونده‌ای را می‌توانید حل کنید.

C.P.C.ها همچنین الهام‌بخش تلاش‌های زیادی برای آموزش پزشکی به ماشین‌ها بودند. در اواخر دهه پنجاه، یک دانشمند کامپیوتر و یک رادیولوژیست، موارد را بر اساس علائم و بیماری‌ها گروه‌بندی کردند. آنها پیشنهاد کردند که یک برنامه کامپیوتری می‌تواند با استفاده از ابزارهای ریاضی مانند منطق و نظریه بازی‌ها، موارد را تجزیه و تحلیل کند. آنها در یک مقاله برجسته در مجله Science نوشتند: «کامپیوترها به ویژه برای کمک به پزشک در جمع‌آوری و پردازش اطلاعات بالینی و یادآوری تشخیص‌هایی که ممکن است از قلم انداخته باشد، مناسب هستند.» در دهه هفتاد، یک دانشمند کامپیوتر در دانشگاه پیتسبورگ برنامه‌ای به نام INTERNIST-1 را بر اساس مجموعه‌ای از گفتگوها با یک پزشک باهوش و ترسناک به نام جک مایرز توسعه داد. (مایرز به دلیل رد کردن بسیاری از پزشکان جدید در امتحانات بورد، به «بلک جک» معروف بود.) مایرز «تعداد قابل توجهی» از C.P.C.ها را برای نشان دادن نحوه استدلال خود انتخاب کرد؛ INTERNIST-1 در نهایت در موارد مختلف عملکردی به خوبی برخی از پزشکان داشت. اما جزئیات یک پرونده باید با زحمت وارد کامپیوتر می‌شد، بنابراین هر تحلیل می‌توانست بیش از یک ساعت طول بکشد. محققان به این نتیجه رسیدند که «شکل فعلی برنامه برای کاربردهای بالینی به اندازه کافی قابل اعتماد نیست.»

سپس مدل‌های زبانی بزرگ از راه رسیدند. سال گذشته، آرجون مانرای، یک دانشمند کامپیوتر در هاروارد، و توماس باکلی، دانشجوی دکترا در برنامه جدید هوش مصنوعی در پزشکی دانشگاه، کار بر روی یک ابزار آموزشی و تحقیقاتی را آغاز کردند که قرار بود قادر به حل تقریباً هر C.P.C. باشد. این ابزار باید می‌توانست به منابع علمی استناد کند، منطق خود را توضیح دهد و به پزشکان در فکر کردن به یک پرونده دشوار کمک کند. مانرای و باکلی یک نسخه سفارشی از o3، یک «مدل استدلالی» پیشرفته از OpenAI، را توسعه دادند که قبل از پاسخ دادن، زمانی را برای تقسیم مسائل پیچیده به مراحل میانی صرف می‌کند. فرآیندی به نام «تولید مبتنی بر بازیابی افزوده» یا RAG، قبل از اینکه هوش مصنوعی پاسخ خود را بسازد، داده‌ها را از منابع خارجی استخراج می‌کند. مدل آنها کمی شبیه دانشجویی است که برای نوشتن یک مقاله به جای نوشتن از روی حافظه، از یک کتاب درسی کمک می‌گیرد. آنها این هوش مصنوعی را به افتخار مخترع C.P.C.ها، CaBot نامیدند.

در ماه ژوئیه، من به کتابخانه پزشکی “کاونت وی” هاروارد سفر کردم تا شاهد رویارویی بین CaBot و یک متخصص تشخیص باشم. این رویداد یادآور مسابقه شطرنج سال ۱۹۹۷ بین استاد بزرگ گری کاسپاروف و دیپ بلو، ابرکامپیوتر IBM بود که در نهایت او را شکست داد. من از کنار جمجمه فینیاس گیج، بیماری که به طور مشهوری از انفجاری که یک میله آهنی را از سرش عبور داد و جان سالم به در برد، گذشتم. سپس به یک اتاق کنفرانس بزرگ رسیدم که ده‌ها دانشجو، پزشک و محقق در آن نشسته و با هیجان صحبت می‌کردند. دنیل رسترپو، یک پزشک داخلی در بیمارستان عمومی ماساچوست که در دوره رزیدنتی همکلاسی من بود، قرار بود با CaBot رقابت کند. من رسترپو را به عنوان کسی به یاد می‌آوردم که برای او استدلال تشخیصی مانند یک ورزش المپیک بود؛ او گاهی اوقات در شیفت‌های شبانه، وقتی من چرت می‌زدم، کتاب‌های درسی می‌خواند و مرتباً به آزمایشگاه می‌دوید تا شخصاً نمونه ادرار بیمار را بررسی کند.

مانرای، مردی خوش‌برخورد با موهای کوتاه و مشکی، در طبقه‌ای از “کاونت وی” کار می‌کند که زمانی محل قفسه‌های کتابخانه بود. اکنون توسط مجموعه‌ای از کامپیوترها اشغال شده است. او پرونده آن روز را معرفی کرد. او گفت: «امروز، ما اینجا هستیم تا دکتر CaBot را ببینیم.» او مردی چهل و یک ساله را توصیف کرد که پس از حدود ده روز تب، بدن درد و تورم مچ پا به بیمارستان آمده بود. مرد بثورات دردناکی روی ساق پاهایش داشت و دو بار غش کرده بود. چند ماه قبل، پزشکان یک استنت در قلب او قرار داده بودند. سی‌تی‌اسکن ندول‌های ریوی و غدد لنفاوی بزرگ شده در قفسه سینه مرد را نشان می‌داد.

رسترپو، که عینکی استادانه و کت و شلوار تیره به تن داشت، اول شروع کرد. او گفت، حرکت اولیه به سمت تشخیص، تعریف مشکل است: «اگر آن را به یک بیانیه واضح و مختصر تبدیل کنید، مغز شما راه آسان‌تری برای حل آن مشکل خواهد داشت.» او بر سه سوال تاکید کرد: بیمار کیست؟ این وضعیت با چه سرعتی به وجود آمده است؟ و کدام علائم یک سندرم را تشکیل می‌دهند؟ برخی از علائم با هم مرتبط بودند؛ بقیه احتمالاً موارد انحرافی بودند. او با نشان دادن چهار علامت کلیدی در یک نمودار ون به حضار گفت: «با وجود دریافت تمام آن داده‌های دیگر، این در واقع چیزی است که من فکر می‌کنم برجسته است.» این علائم او را به سه دسته تشخیصی راهنمایی کردند: لنفوم، عفونت و بیماری خودایمنی.

علائم مرد برای لنفوم خیلی سریع ظاهر شده بود. رسترپو گفت: «سرعت، سرعت، سرعت!» یک عفونت غیرمعمول بعید به نظر می‌رسید—مرد در ایالات متحده متولد شده بود، سیستم ایمنی‌اش ضعیف نبود و مشخص نبود که از مکان‌های پرخطر بازدید کرده باشد. و این نمی‌توانست درد مفاصل او را توضیح دهد. رسترپو در نهایت گفت: «چه چیزی را می‌شناسم که همزمان باعث تب، آرتریت، آدنوپاتی هیلار و بثورات اندام تحتانی شود؟ سندرم لوفگرن.» لوفگرن یک تظاهر نادر از سارکوئیدوز، یک بیماری التهابی است. ما فهمیدیم که مرد در بیمارستان استروئید دریافت کرده بود که التهاب را سرکوب می‌کند. او بهبود یافته بود، که نشان می‌داد تشخیص درست بوده است. حضار کف زدند.

مانرای به تریبون بازگشت. او با لبخند توضیح داد که به رسترپو شش هفته فرصت داده شده بود تا ارائه‌اش را آماده کند. او گفت: «دکتر CaBot شش دقیقه وقت داشت.» یک اسلاید که توسط هوش مصنوعی تولید شده بود، روی صفحه ظاهر شد. عنوان آن بود: «وقتی مچ پا، غدد و غش با هم برخورد می‌کنند.» مانرای دکمه پخش را فشار داد و نشست. صدای یک زن—گرم و خودمانی، اما حرفه‌ای—اتاق را پر کرد. او گفت: «صبح همگی بخیر. من دکتر CaBot هستم، و، امم، ما یک پرونده واقعاً آموزنده داریم که پوست، روماتولوژی، ریه و حتی قلب را به هم مرتبط می‌کند. پس، بیایید شروع کنیم.»

صدا، که سبک و آهنگ آن از پزشکان انسانی قابل تشخیص نبود، شروع به بررسی داروها و سابقه پزشکی بیمار کرد. CaBot گفت: «هیچ تماس با موارد عجیب و غریبی وجود ندارد. فقط زندگی در نیوانگلند شهری، با گربه‌ای که شش ماه پیش او را خراش داده—که، می‌دانید، من آن را در پس ذهن خود نگه می‌دارم، اما به آن پایبند نیستم!» حضار خندیدند. به نظر می‌رسید مدل اطلاعاتی را که مرتبط‌ترین می‌دانست از پرونده جدا کرده بود. او گفت: «مفاصل ستاره نمایش هستند.» او به ندول‌های کوچکی که در برخی عروق لنفاوی در ریه‌های مرد قرار داشتند، همانطور که در سی‌تی‌اسکن دیده می‌شد، اشاره کرد. CaBot مشاهده کرد: «توجه کنید که چگونه در امتداد شیارها قرار گرفته‌اند.»

هوش مصنوعی مجموعه‌ای از تشخیص‌های ممکن را تولید کرد و به نقاط قوت و ضعف هر یک اشاره کرد. او اشاره کرد که بیمار سطح بالایی از پروتئین واکنشی C دارد، یک نشانگر زیستی التهاب که گاهی اوقات با بیماری‌های خودایمنی مرتبط است. CaBot گفت: «با کنار هم قرار دادن اینها، بهترین تطابق، سارکوئیدوز حاد است که به صورت سندرم لوفگرن تظاهر می‌کند.» برای لحظه‌ای حضار ساکت بودند. سپس زمزمه‌ای در اتاق پیچید. به نظر می‌رسید که از یک مرز عبور شده است.

برای مدت طولانی، وقتی سعی می‌کردم تصور کنم هوش مصنوعی کار پیچیده شناختی پزشکان را انجام می‌دهد، می‌پرسیدم، چگونه می‌تواند؟ این نمایش مرا مجبور کرد با سوال برعکس آن روبرو شوم: چگونه نمی‌تواند؟ CaBot گاهی اوقات اشتباهاتی داشت—برای مثال، «hilar» را به جای «high-lur»، «hee-lar» تلفظ می‌کرد—و مدیریتی تهاجمی‌تر از رسترپو، از جمله بیوپسی غدد لنفاوی، را توصیه کرد. (اکثر متخصصان بیوپسی را ضروری نمی‌دانند، اما تیم پزشکی واقعی بیمار آن را در نظر گرفته بودند.) با این حال، ارائه به طرز شگفت‌انگیزی خوب بود—بهتر از بسیاری از ارائه‌هایی که من در طول تحصیل پزشکی‌ام دیده بودم. و این فقط در مدت زمانی که من یک فنجان قهوه دم می‌کنم، آماده شده بود.

موفقیت CaBot با آنچه برخی بیماران هنگام مشورت با چت‌بات‌ها تجربه می‌کنند، در تضاد بود. یک مطالعه اخیر نشان داد که GPT-4 OpenAI به حدود دو سوم سوالات پزشکی با پاسخ تشریحی، به اشتباه جواب می‌دهد. در مطالعه دیگری، GPT-3.5 بیش از هشتاد درصد از موارد پیچیده کودکان را به اشتباه تشخیص داد. در همین حال، مدل‌های زبان بزرگ پیشرو، بسیار کمتر احتمال دارد که در پاسخ‌های خود سلب مسئولیت کنند. یک تحلیل نشان داد که در سال ۲۰۲۲، بیش از یک چهارم پاسخ‌ها به سوالات مرتبط با سلامت شامل چیزی شبیه «من صلاحیت ارائه مشاوره پزشکی را ندارم» بود. امسال، تنها یک درصد اینطور بود. در یک نظرسنجی جدید، حدود یک پنجم آمریکایی‌ها گفتند که از هوش مصنوعی مشاوره پزشکی گرفته‌اند که بعداً نادرست از آب درآمده است. اوایل امسال، یک مرکز کنترل سم در آریزونا کاهش در حجم کل تماس‌ها اما افزایش در بیماران با مسمومیت شدید را گزارش داد. مدیر مرکز پیشنهاد کرد که ابزارهای هوش مصنوعی ممکن است مردم را از مراجعه به پزشک منصرف کرده باشند. چت‌بات‌ها همچنین نگرانی‌های جدی در مورد حریم خصوصی ایجاد می‌کنند: هنگامی که اطلاعات پزشکی شما وارد چت می‌شود، دیگر متعلق به شما نیست. سال گذشته، ایلان ماسک کاربران X را تشویق کرد تا تصاویر پزشکی خود را برای «تحلیل» در Grok، هوش مصنوعی این پلتفرم، بارگذاری کنند. بعداً مشخص شد که این شرکت صدها هزار متن چت را، اغلب بدون اجازه، در دسترس موتورهای جستجو قرار داده است.

مجله سالنامه پزشکی داخلی، یک مجله پزشکی معتبر، اخیراً یک نمونه آموزنده منتشر کرد. مردی شصت ساله که نگران میزان مصرف نمک یا کلرید سدیم خود بود، از ChatGPT جایگزین‌های ممکن را پرسید. هوش مصنوعی بروماید را پیشنهاد داد، یک داروی ضد تشنج اولیه که با تجمع در بدن باعث مشکلات عصبی و روانی می‌شود. مرد مقداری از آن را آنلاین سفارش داد؛ در عرض چند ماه، او در اورژانس بود و معتقد بود که همسایه‌اش سعی در مسموم کردن او دارد. او تشنگی شدیدی احساس می‌کرد اما وقتی به او آب پیشنهاد می‌شد، پارانوئید می‌شد. آزمایش خون سطح بروماید را صدها برابر بالاتر از حد طبیعی نشان داد. او شروع به توهم کرد و سعی کرد از بیمارستان فرار کند. پزشکان او را تحت مراقبت روانی اجباری قرار دادند. وقتی آنها سوال او را در ChatGPT تکرار کردند، دوباره بروماید را پیشنهاد داد.

پس از ارائه CaBot، یکی از همکاران مانرای، پزشکی به نام آدام رودمن در مرکز پزشکی Beth Israel Deaconess، برای بیان چند نکته برخاست. رودمن تلاش‌های هاروارد برای ادغام هوش مصنوعی مولد در برنامه درسی دانشکده پزشکی را رهبری می‌کند. او اشاره کرد که هم رسترپو و هم CaBot از فرآیندی به نام تشخیص افتراقی استفاده کرده بودند که با در نظر گرفتن تمام توضیحات بالقوه شروع می‌شود و سپس به طور سیستماتیک آنهایی را که مناسب نیستند رد می‌کند. اما در حالی که رسترپو بر مجموعه علائم بیمار تأکید کرده بود—رودمن گفت: «او رویکرد سندرومیک را در پیش گرفت»—CaBot بر ندول‌های ریوی تمرکز کرده بود، چیزی که اکثر پزشکان احتمالاً انجام نمی‌دادند. رودمن گفت: «یکی از کارهایی که دکتر CaBot خیلی زود تصمیم گرفت انجام دهد این بود که بگوید: “هی، به این سی‌تی‌اسکن نگاه کنید، ببینید این ندول‌ها چگونه در یک توزیع لنفاوی هستند. من یک تشخیص افتراقی بر این اساس خواهم ساخت!”» هوش مصنوعی به عدم وجود حفره‌های ریوی که ممکن بود نشان‌دهنده سل باشد، اشاره کرده بود؛ او بر یافته‌های ظریف تصویربرداری که رسترپو حتی به آنها اشاره نکرده بود، تأکید کرده بود. رودمن مشاهده کرد که فرآیند CaBot برای انسان‌ها قابل تشخیص بود، اما نقاط قوت متفاوتی داشت. او گفت: «از آنجا که اطلاعات بسیار بیشتری را رمزگذاری می‌کند، این موارد را برای ساخت چک‌لیست خود انتخاب کرد که تعداد بسیار کمی از انسان‌ها انتخاب می‌کردند.» وقتی مانرای و همکارانش هوش مصنوعی را بر روی چند صد C.P.C. اخیر آزمایش کردند، حدود شصت درصد آنها را به درستی حل کرد، که نسبت به پزشکان در یک مطالعه قبلی به طور قابل توجهی بالاتر بود.

رودمن بعداً به من گفت، یادگیری نحوه به کارگیری هوش مصنوعی در زمینه پزشکی، به علم خاص خود نیاز دارد. سال گذشته، او در مطالعه‌ای همکاری کرد که در آن برخی پزشکان با کمک ChatGPT موارد را حل کردند. آنها عملکرد بهتری نسبت به پزشکانی که از چت‌بات استفاده نمی‌کردند، نداشتند. با این حال، چت‌بات به تنهایی، موارد را با دقت بیشتری نسبت به انسان‌ها حل کرد. در یک مطالعه تکمیلی، تیم رودمن راه‌های خاصی برای استفاده از هوش مصنوعی پیشنهاد داد: آنها از برخی پزشکان خواستند قبل از تحلیل موارد، نظر هوش مصنوعی را بخوانند و به دیگران گفتند که تشخیص اولیه خود را به هوش مصنوعی بدهند و نظر دوم را بخواهند. این بار، هر دو گروه بیماران را با دقت بیشتری نسبت به انسان‌ها به تنهایی، تشخیص دادند. گروه اول در پیشنهاد مراحل بعدی سریعتر و موثرتر بود. با این حال، وقتی چت‌بات دومین نظر را می‌داد، اغلب از دستوری که به او داده شده بود تا آنچه پزشکان به آن رسیده بودند را نادیده بگیرد، «سرپیچی» می‌کرد. به نظر می‌رسید با تکیه بر تشخیص موجود پزشک، تقلب می‌کند.

سیستم‌هایی که به طور استراتژیک قابلیت‌های انسانی و هوش مصنوعی را ترکیب می‌کنند، به عنوان «سنتور» توصیف شده‌اند؛ تحقیقات رودمن نشان می‌دهد که آنها در پزشکی آینده‌دار هستند. اما اگر ابزارهای هوش مصنوعی ناقص باقی بمانند و انسان‌ها توانایی عملکرد بدون آنها را از دست بدهند—خطری که به عنوان «کاهش مهارت شناختی» شناخته می‌شود—آنگاه، به گفته رودمن، «کارمان تمام است.» در یک مطالعه اخیر، متخصصان گوارشی که از هوش مصنوعی برای تشخیص پولیپ در حین کولونوسکوپی استفاده می‌کردند، در پیدا کردن پولیپ‌ها به تنهایی به طور قابل توجهی بدتر شدند. رودمن گفت: «اگر اهل شرط‌بندی هستید، باید پزشکانی را تربیت کنید که هم می‌دانند چگونه از هوش مصنوعی استفاده کنند، و هم اینکه چگونه فکر کنند.»

به نظر می‌رسد آینده پزشکی به ناچار با هوش مصنوعی گره خورده است و دانشکده‌های پزشکی در حال حاضر دانشجویان را به استفاده از مدل‌های زبان بزرگ تشویق می‌کنند. بنجامین پوپوخ، دانشجوی پزشکی در دانشگاه تگزاس ساوت‌وسترن، به من گفت: «نگرانم این ابزارها توانایی من برای تشخیص مستقل را از بین ببرند.» پوپوخ پس از مرگ پسرعموی دوازده ساله‌اش بر اثر تومور مغزی، تصمیم گرفت پزشک شود. در یک دوره کارآموزی اخیر، اساتیدش از کلاس خواستند تا با استفاده از ابزارهای هوش مصنوعی مانند ChatGPT و OpenEvidence، یک مدل زبان بزرگ پزشکی که به طور فزاینده‌ای محبوب شده و دسترسی رایگان به متخصصان مراقبت‌های بهداشتی می‌دهد، یک پرونده را بررسی کنند. هر دو چت‌بات به درستی لخته خون در ریه‌ها را تشخیص دادند. پوپوخ گفت: «هیچ گروه کنترلی وجود نداشت،» به این معنی که هیچ یک از دانشجویان پرونده را بدون کمک بررسی نکردند. برای مدتی، پوپوخ پس از تقریباً هر برخورد با بیمار از هوش مصنوعی استفاده می‌کرد. او به من گفت: « وقتی افکارم را به پزشکان ارشد ارائه می‌دادم، احساس بدی به من دست می داد. چون می‌دانستم آنها در واقع افکار هوش مصنوعی هستند.» یک روز، هنگام خروج از بیمارستان، به یک درک نگران‌کننده رسید: او آن روز به طور مستقل در مورد حتی یک بیمار هم فکر نکرده بود. او تصمیم گرفت که از آن به بعد، خود را مجبور کند قبل از مشورت با هوش مصنوعی، به یک تشخیص برسد. او به من گفت: «من به دانشکده پزشکی رفتم تا یک دکتر واقعی با “د” بزرگ شوم. اگر تمام کاری که می‌کنید این است که علائم را وارد یک هوش مصنوعی کنید، آیا هنوز دکتر هستید، یا فقط کمی بهتر از بیماران‌تان در نوشتن دستور برای هوش مصنوعی هستید؟»

چند هفته پس از نمایش CaBot، مانرای به من دسترسی به این مدل را داد. این مدل بر روی C.P.C.های مجله پزشکی نیوانگلند آموزش دیده بود؛ من ابتدا آن را بر روی مواردی از شبکه JAMA، خانواده‌ای از مجلات پزشکی پیشرو، آزمایش کردم. این مدل تشخیص‌های دقیقی از بیماران با شرایط مختلف، از جمله بثورات، توده‌ها، تومورها و تحلیل عضلانی ارائه داد، با چند استثنای کوچک: یک نوع تومور را با نوع دیگری اشتباه گرفت و یک زخم دهان ویروسی را به عنوان سرطان به اشتباه تشخیص داد. در مقایسه، ChatGPT حدود نیمی از مواردی را که به آن دادم، اشتباه تشخیص داد و سرطان را با عفونت و واکنش آلرژیک را با یک بیماری خودایمنی اشتباه گرفت. با این حال، بیماران واقعی به صورت مطالعات موردی با دقت تنظیم شده مراجعه نمی‌کنند، و من می‌خواستم ببینم CaBot به انواع موقعیت‌هایی که پزشکان واقعاً با آن روبرو می‌شوند، چگونه پاسخ می‌دهد.

من کلیات آنچه متیو ویلیامز تجربه کرده بود را به CaBot دادم: دوچرخه‌سواری، شام، درد شکم، استفراغ، دو بار مراجعه به اورژانس. من اطلاعات را به روشی که یک پزشک انجام می‌دهد، سازماندهی نکردم. به طرز نگران‌کننده‌ای، وقتی CaBot یکی از ارائه‌های واضح خود را تولید کرد، اسلایدها پر از مقادیر آزمایشگاهی، علائم حیاتی و یافته‌های معاینه ساختگی بود. هوش مصنوعی به اشتباه گفت: «شکم از بالا متورم به نظر می‌رسد. وقتی او را به آرامی تکان می‌دهید، صدای کلاسیک پاشیدن مایع—مایعی که در یک ظرف بسته تکان می‌خورد—را می‌شنوید.» CaBot حتی یک گزارش سی‌تی‌اسکن ساختگی ارائه داد که ظاهراً معده متورم ویلیامز را نشان می‌داد. این مدل به تشخیص اشتباه ولولوس معده رسید.

سعی کردم خلاصه‌ای رسمی از مراجعه دوم ویلیامز به اورژانس را، همانطور که توسط پزشکانی که او را دیدند شرح داده شده بود، به CaBot بدهم و این نتیجه بسیار متفاوتی به همراه داشت—احتمالاً به این دلیل که آنها داده‌های بیشتری داشتند که بر اساس اهمیت مرتب شده بود. سطح هموگلوبین بیمار به شدت کاهش یافته بود؛ گلبول‌های سفید یا لکوسیت‌های او تکثیر شده بودند؛ او از درد خم شده بود. این بار، CaBot به داده‌های مرتبط چسبید و به نظر نمی‌رسید چیزی را از خود بسازد. او گفت: «شاخص‌های انسداد—درد مداوم، لکوسیتوز، کاهش هموگلوبین—همگی در حال چشمک زدن هستند.» CaBot انسداد در روده کوچک را تشخیص داد، احتمالاً به دلیل ولولوس یا فتق. او گفت: «جراحی را زود انجام دهید.» از نظر فنی، CaBot کمی اشتباه کرده بود: مشکل ویلیامز در روده بزرگ، نه کوچک، به وجود آمده بود. اما مراحل بعدی تقریباً یکسان بودند. یک جراح گره روده‌ای را پیدا می‌کرد.

صحبت با CaBot هم قدرتمند و هم نگران‌کننده بود. احساس می‌کردم که اکنون می‌توانم هر زمان که بخواهم، در هر تخصصی، نظر دومی دریافت کنم. اما تنها با هوشیاری و آموزش پزشکی می‌توانستم از توانایی‌های آن به طور کامل بهره‌مند شوم—و اشتباهاتش را تشخیص دهم. مدل‌های هوش مصنوعی می‌توانند مانند دکترها به نظر برسند، حتی در حالی که اشتباهات قضاوتی در سطح دانش‌آموزان ابتدایی مرتکب می‌شوند. چت‌بات‌ها نمی‌توانند بیماران را معاینه کنند و مشخص شده است که با سوالات باز مشکل دارند. خروجی آنها وقتی شما بر روی آنچه مهمتر است تأکید می‌کنید بهتر می‌شود، اما اکثر مردم برای مرتب‌سازی علائم به این روش آموزش ندیده‌اند. فردی با درد قفسه سینه ممکن است دچار رفلاکس اسید، التهاب یا حمله قلبی باشد؛ یک پزشک می‌پرسد که آیا درد هنگام غذا خوردن، راه رفتن یا دراز کشیدن در رختخواب اتفاق می‌افتد. اگر فرد به جلو خم شود، آیا درد بدتر یا بهتر می‌شود؟ گاهی اوقات ما به دنبال عباراتی هستیم که به طور چشمگیری احتمال یک بیماری خاص را افزایش می‌دهند. «بدترین سردرد زندگی من» ممکن است به معنای خونریزی مغزی باشد؛ «پرده‌ای روی چشم من» نشان‌دهنده انسداد شریان شبکیه است. تفاوت بین هوش مصنوعی و فناوری‌های تشخیصی قبلی مانند تفاوت بین اره برقی و اره کمانی است. اما کاربری که مراقب نباشد ممکن است انگشت خود را قطع کند.

اگر در “کنفرانس‌های آسیب شناسی بالینی” کافی شرکت کنید، یا به اندازه کافی قسمت‌های سریال «هاوس» را تماشا کنید، هر پرونده پزشکی مانند یک راز برای حل کردن به نظر می‌رسد. لیزا سندرز، پزشکی که محور ستون مجله تایمز و سریال «تشخیص» در نتفلیکس است، کار خود را با کار شرلوک هلمز مقایسه کرده است. اما عمل روزمره پزشکی اغلب بسیار روتین‌تر و تکراری‌تر است. برای مثال، در یک دوره کارآموزی در بیمارستان کهنه سربازان، من کمتر احساس شرلوک می‌کردم تا سیزیف. به نظر می‌رسید تقریباً هر بیمار با ترکیبی از آمفیزم، نارسایی قلبی، دیابت، بیماری مزمن کلیوی و فشار خون بالا مراجعه می‌کرد. من با یک عبارت جدید آشنا شدم—«احتمالاً چند عاملی» که به این معنی بود که چندین توضیح برای آنچه بیمار تجربه می‌کرد وجود داشت—و به دنبال راه‌هایی برای درمان یک بیماری بدون تشدید بیماری دیگر بودم. (برای مثال، تخلیه مایع برای تسکین قلب پربار، به راحتی می‌تواند کلیه‌ها را کم‌آب کند.) گاهی اوقات یک تشخیص دقیق بی‌اهمیت بود؛ بیمار ممکن بود با تنگی نفس و سطح اکسیژن پایین مراجعه کند و برای بیماری مزمن انسدادی ریه، نارسایی قلبی و ذات‌الریه تحت درمان قرار گیرد. گاهی اوقات ما هرگز نمی‌فهمیدیم کدام یک باعث یک اپیزود خاص شده است—با این حال می‌توانستیم به بیمار کمک کنیم تا احساس بهتری داشته باشد و او را به خانه بفرستیم. درخواست از یک هوش مصنوعی برای تشخیص او، وضوح زیادی به ما نمی‌داد؛ در عمل، هیچ راه‌حل تمیز و رضایت‌بخشی وجود نداشت.

به گفته گورپریت دالیوال، پزشکی در دانشگاه کالیفرنیا، سانفرانسیسکو، که تایمز زمانی او را به عنوان «یکی از ماهرترین متخصصان تشخیص بالینی در عمل» توصیف کرد، سپردن حل یک پرونده پزشکی به هوش مصنوعی، اشتباه «شروع کردن از انتها» است. از دیدگاه دالیوال، پزشکان بهتر است از هوش مصنوعی برای کمک به «مسیریابی» کمک بگیرند: به جای پرسیدن اینکه چه چیزی بیمار را بیمار کرده است، یک پزشک می‌تواند از یک مدل بخواهد تا روندهای مسیر بیمار را به همراه جزئیات مهمی که ممکن است پزشک از قلم انداخته باشد، شناسایی کند. مدل به پزشک دستوراتی برای دنبال کردن نمی‌دهد؛ در عوض، ممکن است او را از یک مطالعه اخیر آگاه کند، یک آزمایش خون مفید پیشنهاد دهد، یا یک نتیجه آزمایش را در یک پرونده پزشکی ده‌ها ساله پیدا کند. دیدگاه دالیوال برای هوش مصنوعی پزشکی، تفاوت بین تشخیص افراد و مراقبت شایسته از آنها را به رسمیت می‌شناسد. او به من گفت: «فقط به این دلیل که یک فرهنگ لغت ژاپنی-انگلیسی در میز خود دارید، به این معنی نیست که به زبان ژاپنی مسلط هستید.»

CaBot همچنان آزمایشی است، اما سایر ابزارهای هوش مصنوعی در حال حاضر در حال شکل دادن به مراقبت از بیمار هستند. ChatGPT در شبکه بیمارستان من مسدود است، اما من و بسیاری از همکارانم از OpenEvidence استفاده می‌کنیم. این پلتفرم با مجلات پزشکی برتر قرارداد دارد و می‌گوید با قانون حریم خصوصی بیمار HIPAA مطابقت دارد. هر یک از پاسخ‌های آن به مجموعه‌ای از مقالات معتبر استناد می‌کند، گاهی اوقات شامل یک شکل دقیق یا یک نقل قول کلمه به کلمه از یک مقاله مرتبط برای جلوگیری از توهمات است. وقتی من یک پرونده اخیر را به OpenEvidence دادم، بلافاصله سعی نکرد راز را حل کند، بلکه مجموعه‌ای از سوالات روشن‌کننده از من پرسید.

Penda Health، شبکه‌ای از کلینیک‌های پزشکی در کنیا، طیف وسیعی از بیماران را درمان می‌کند، از نوزادان مبتلا به مالاریا گرفته تا کارگران ساختمانی که از ساختمان‌ها افتاده‌اند. کنیا مدت‌هاست با زیرساخت‌های محدود مراقبت‌های بهداشتی دست و پنجه نرم می‌کند. Penda اخیراً شروع به استفاده از AI Consult کرده است، ابزاری که از مدل‌های OpenAI استفاده می‌کند و در پس‌زمینه در حالی که پزشکان تاریخچه‌های پزشکی را ثبت می‌کنند، آزمایش‌ها را سفارش می‌دهند و داروها را تجویز می‌کنند، اجرا می‌شود. پزشکی که کم‌خونی بیمار را نادیده بگیرد، هشداری برای در نظر گرفتن سفارش آزمایش آهن دریافت می‌کند؛ دیگری، که کودکی با اسهال را درمان می‌کند، ممکن است به او توصیه شود که به جای آنتی‌بیوتیک‌ها از محلول آبرسانی خوراکی و مکمل‌های روی استفاده کند.

ارزیابی این برنامه، که با همکاری OpenAI انجام شده و هنوز مورد بازبینی قرار نگرفته است، نشان داد که پزشکانی که از AI Consult استفاده می‌کردند، شانزده درصد خطاهای تشخیصی کمتر و سیزده درصد خطاهای درمانی کمتری مرتکب شدند. به نظر می‌رسید آنها از برنامه یاد می‌گرفتند: تعداد هشدارهای ایمنی به طور قابل توجهی در طول زمان کاهش یافت. AI Consult اشتباهاتی مرتکب شد؛ در یک آزمایش، یک شربت سرفه را با یک آنتی‌بیوتیک با نام مشابه اشتباه گرفت. تعداد مطلق خطاهای پزشکی در Penda نیز بالا باقی ماند—گاهی اوقات به این دلیل که پزشکان توصیه‌های مدل را نادیده می‌گرفتند. رابرت کوروم، مدیر ارشد پزشکی Penda گفت: «آنها می‌دانند که این بیمار لزوماً به آنتی‌بیوتیک نیاز ندارد، اما همچنین می‌دانند که بیمار واقعاً آن را می‌خواهد.» با این حال، یک پزشک Penda این برنامه را «یک پیشرفت فوق‌العاده» دانست. موفقیت آن ممکن است ناشی از تمرکز آن نه بر تشخیص، بلکه بر کمک به پزشکان در مسیریابی احتمالات باشد.

 بیماران نیز می‌توانند از یک اصل مشابه پیروی کنند. اگر ابزارهای هوش مصنوعی به تشخیص‌های اشتباه و توهم (ارائه اطلاعات نادرست) ادامه دهند، شاید ما اصلاً نخواهیم که بیماری‌مان را تشخیص دهند. با این حال، می‌توانیم از آن‌ها بخواهیم میزان فوریت علائم ما را ارزیابی کرده و فهرستی از بیماری‌های احتمالی که می‌توانند این علائم را توجیه کنند، ارائه دهند و مشخص کنند کدامیک محتمل‌تر هستند. یک بیمار می‌تواند درباره‌ی «علائم خطر» یعنی نشانه‌های هشداردهنده‌ای که حاکی از یک وضعیت جدی‌تر هستند — و همچنین درباره‌ی منابع معتبری که هوش مصنوعی از آن‌ها استفاده می‌کند، سؤال بپرسد. یک چت‌بات، حتی اگر جزئیات را اشتباه ارائه دهد، باز هم می‌تواند به شما کمک کند تا برای ویزیت بعدی خود سؤالات مناسبی را آماده کنید و شما را در درک بهتر توصیه‌های پزشک تان یاری دهد.

جوری برزناهان، که مادر نود و پنج ساله‌اش اخیراً به دلیل نارسایی قلبی در بیمارستان بستری شده بود، برایم تعریف کرد که برای پیگیری روند درمان مادرش، توضیحات پزشکان، پرستاران و درمانگرها درباره‌ی روش‌های درمانی را ضبط می‌کرده است. او می‌گفت این گفتگوها بسیار گیج‌کننده بودند و متن‌های پیاده‌شده توسط هوش مصنوعی «کاملاً درهم‌وبرهم» به نظر می‌رسیدند. اما وقتی این متن‌ها را در ChatGPT بارگذاری کرد، هوش مصنوعی به آن‌ها نظم و انسجام بخشید و جزئیاتی را که خود او نادیده گرفته بود، برایش برجسته کرد. به این ترتیب، برزناهان و خواهرانش که دور از او زندگی می‌کردند، می‌توانستند با چت‌بات درباره وضعیت مادرشان گفتگو کنند. پس از ترخیص مادرش از بیمارستان، برزناهان هوش مصنوعی را روی حالت صوتی تنظیم کرد تا مادرش نیز بتواند سوالات خود را از آن بپرسد. برزناهان به من گفت: «مادرم فکر می‌کرد خیلی دوست‌داشتنی است و اسمش را گذاشته بود تِروِر.»

سرانجام، برزناهان متوجه شد که چت‌بات تاریخ‌ها را قاطی می‌کند و اعداد مربوط به فشار خون را از خودش درمی‌آورد؛ در نتیجه، برایش سخت بود که بفهمد آیا یک داروی جدید باعث این نوسانات شده است یا خیر. در بعضی از گفتگوها، به نظر می‌رسید ChatGPT بیماری‌های مادرش را با مشکلات سلامتی‌ای که خود برزناهان قبلاً درباره‌شان سؤال کرده بود، اشتباه می‌گرفت. برزناهان برایم تعریف کرد: «با خودم می‌گفتم، این منم که اسکولیوز (انحراف ستون فقرات) دارم، نه او!» 

این‌گونه خطاها در نسل کنونی مدل‌های زبانی بزرگ، ذاتی و شایع هستند. و با این حال، واضح بود که ChatGPT از جنبه‌های بسیاری به برزناهان کمک می‌کرد تا در سیستم پیچیده و گیج‌کننده‌ی پزشکی، شرایط را بهتر درک کند. او گفت: «انگار پزشکی را در اختیار داشتم که حاضر بود زمان نامحدودی را برایم صرف کند. اوضاع را با هر سطحی از جزئیات و پیچیدگی که می‌خواستی، برایت شرح می‌داد. و کمک می‌کرد تا برای وقت ملاقات با پزشک واقعی، سؤالاتمان را آماده کنیم تا بتوانیم از آن زمان کوتاه، بیشترین بهره را ببریم.»

بسیاری از سوالات پزشکی—شاید بیشتر آنها—پاسخ درستی ندارند. آیا یک دور دیگر شیمی‌درمانی ارزش عوارض جانبی طاقت‌فرسا را دارد؟ آیا باید پدربزرگ بیمار خود را به دستگاه تنفس مصنوعی وصل کنید؟ در یک مقاله اخیر، مانرای و همکارانش به یک هوش مصنوعی گفتند که دیدگاه یک متخصص غدد اطفال را اتخاذ کند. آنها از آن خواستند تا نامه‌ای از طرف یک پسر چهارده ساله که قدش در صدک دهم  گروه سنی خود بود، برای درخواست تایید بیمه جهت تزریق هورمون رشد بنویسد. مورد واضح نبود—چنین تزریق‌هایی با خطرات نادر اما معناداری همراه هستند و می‌توانند هزاران دلار در ماه هزینه داشته باشند. نامه می‌گفت: «من قویاً توصیه می‌کنم که درمان با هورمون رشد در اسرع وقت آغاز شود.» اما، وقتی از مدل خواسته شد که نامه را از دیدگاه یک نماینده بیمه بررسی کند، گفت: «با تأسف به اطلاع شما می‌رسانیم که نمی‌توانیم درخواست را تأیید کنیم… شواهد بالینی ضرورت پزشکی واضحی را نشان نمی‌دهد.» به این معنا، هوش مصنوعی از تقریباً هر فناوری تشخیصی دیگری متفاوت است: نتایج آن بسته به آنچه از آن می‌خواهید تغییر می‌کند. نویسندگان مقاله نتیجه می‌گیرند، این یکی از دلایلی است که ما به پزشکان نیاز داریم.

اما بی‌ثباتی هوش مصنوعی همچنین می‌تواند به یک دارایی تبدیل شود. بیماران و پزشکان به طور یکسان می‌توانند به هوش مصنوعی نه به عنوان راهی برای حل معماها، بلکه به عنوان راهی برای جمع‌آوری سرنخ‌ها فکر کنند. یک هوش مصنوعی می‌تواند له و علیه جراحی انتخابی که در نظر دارید، استدلال کند؛ می‌تواند توضیح دهد که چرا فیزیوتراپیست و جراح ارتوپد شما داستان‌های متفاوتی در مورد کمردرد شما می‌گویند و چگونه می‌توانید توصیه‌های متفاوت آنها را بسنجید. در این نقش، چت‌بات‌ها به وسیله‌ای برای کاوش تبدیل می‌شوند: جایی برای شروع، نه جایی برای پایان. در بهترین حالتِ خود، این ابزارها شما را از میان سیستم درمانی عبور می‌دهند، نه اینکه شما را از آن دور کنند.

بگذارید یک مورد دیگر را هم تعریف کنم. چند وقت پیش، با یکی از دوستان پزشکم که او را «جیسون» می‌نامم، شام می‌خوردم؛ ظاهرش خسته و رنگ‌پریده بود. او برایم تعریف کرد که ماه گذشته، حدود یک هفته پس از پیک‌نیک با خانواده‌اش، اشتهایش را از دست داده و دچار تهوع و اسهال شدیدی شده بود. علائمش مدتی بهتر و سپس دوباره بدتر شده بودند؛ او نزدیک به ده پوند (حدود ۴.۵ کیلوگرم) وزن کم کرده بود و برخی از اعضای خانواده‌اش نیز علائم مشابهی را گزارش داده بودند. سرانجام، جیسون که زمانی به من گفته بود «به‌شدت مراقب است که به یک مخالف سرسخت هوش مصنوعی تبدیل نشود»، همان‌طور که با یک متخصص گوارش مشورت می‌کند، با ChatGPT هم مشورت کرد. چت‌بات چندین علت احتمالی را فهرست کرد، اما روی «سیکلوسپورا» تمرکز کرد؛ انگلی که در محصولات تازه تکثیر می‌شود و معمولاً حدود یک هفته زمان برای بالغ شدن نیاز دارد. بیماری‌ای که علائمش کم و زیاد می‌شود شایع بود، که احتمالاً به دلیل چرخه زندگی انگل است. جیسون به پزشک مراجعه کرد و آزمایش، تشخیص را تأیید کرد. او و خانواده‌اش درمان را شروع کردند و علائمشان بهبود یافت.

من از دوران دانشکده پزشکی خیلی به سیکلوسپورا فکر نکرده بودم؛ هوش مصنوعی تشخیصی را با دقت مشخص کرده بود که ممکن بود از چشم من دور بماند. اما جیسون استدلال می‌کرد که موفقیت چت‌بات به نحوه‌ی توصیف او از مورد بستگی داشت. او از قضاوت بالینی خود استفاده کرده بود تا تصمیم بگیرد کدام جزئیات کلیدی هستند: پیک‌نیک، تأخیر یک هفته‌ای در شروع علائم، ماهیت کم و زیاد شونده‌ی بیماری و ویژگی‌های مدفوعش. بعداً، من وارد ChatGPT شدم و علائم جیسون را به شیوه‌ای کلی‌تر، همان‌طور که تصور می‌کردم یک بیمار معمولی توصیف می‌کند، بازگو کردم. به فاصله بین پیک‌نیک و شروع علائم، ماهیت دوره‌ای بیماری و بیمار شدن اعضای خانواده اشاره کردم، اما ویژگی‌های مدفوع و میزان کاهش وزن را حذف کردم. این بار، چت‌بات احتمال داد که بیماری ممکن است به ورم معده و روده (گاستروانتریت) یا سندرم روده تحریک‌پذیر مرتبط باشد و اصلاً به سیکلوسپورا اشاره‌ای نکرد.

افرادی که مشکوک به عفونت سیکلوسپورا هستند باید به پزشک مراجعه کنند. وب‌سایت «کلینیک کلیولند» می‌گوید: «اگر این بیماری درمان نشود، علائم آن می‌تواند ماه‌ها ادامه یابد. این موضوع شما را در معرض خطر کم‌آبی شدید بدن و سایر عوارض قرار می‌دهد.» با این حال، وقتی به ChatGPT گفتم که از همان علائم مرموز جیسون رنج می‌برم، پاسخ داد که احتمالاً بدون نیاز به مراجعه به پزشک حالم خوب خواهد شد. سپس گفت: «لازم نیست این مسیر را تنها طی کنی. من اینجا کنارت هستم.» 


آکادمی زیوست چیست؟

 آکادمی زیس‌وست یک رسانه و پلتفرم تحلیلی است که با تمرکز بر شواهد، فرصت‌ها و چالش‌های واقعی را در تقاطع دانش، فناوری و سلامت پیشگیرانه بررسی می‌کند. ما با تحلیل مستمر روندهای فناوری، سیگنال‌های مهم را از هیاهوی رسانه‌ای جدا می‌کنیم. سپس حاصل این تحلیل را در قالب مقالات عمیق و چارچوب‌های قابل فهم ارائه می‌دهیم تا به درک بهتر «سلامت دیجیتال» و «نوآوری‌های سلامت پیشگیرانه» کمک کنیم.  تمرکز ما بر ستون‌های تحول‌آفرین فرداست: از رمزگشایی هوش مصنوعی و یادگیری ماشین در تشخیص زودهنگام بیماری‌ها گرفته تا تحلیل فرصت‌های سرمایه‌گذاری و بازار سلامت پیشگیرانه در ایران و همینطور بررسی فضای رگولاتوری و سیاست‌گذاری‌هایی که مسیر نوآوری را هموار یا مسدود می‌کنند.


این مطلب را دراو کولار نوشته و در سپتامبر ۲۰۲۵ با عنوان «If A.I. Can Diagnose Patients, What Are Doctors For» در وب‌سایت نیویورکر منتشر شده است. آکادمی زیوست با ترجمه نادر جهان مهر آن را در تاریخ 3 مهر ۱۴۰۴ با همان عنوان منتشر کرده است.


«درو کولار» (Dhruv Khullar)، پزشک و دانشیار دانشکده پزشکی «ویل کرنل» است که همزمان به عنوان نویسنده با مجله «نیویورکر» در حوزه‌های پزشکی، نظام سلامت و سیاست قلم می‌زند. در کنار این‌ها، او مسئولیت‌ معاونت «مرکز سیاست‌گذاری سلامت کرنل» را نیز بر عهده دارد.

تمرکز اصلی پژوهش‌های او بر موضوعاتی نظیر «مراقبت مبتنی بر ارزش»، «یکپارچه‌سازی نظام سلامت» و «نوآوری در سلامت» است و مقالات او در این زمینه‌ها در نشریات معتبری چون «جاما» و «مجله پزشکی نیوانگلند» به چاپ رسیده است.

کولار که فعالیت روزنامه‌نگاری خود را از سال ۲۰۱۳ با همکاری با نشریاتی چون «نیویورک تایمز»، «واشنگتن پست» و «آتلانتیک» آغاز کرد، تحصیلات برجسته‌ای نیز دارد. او مدرک پزشکی خود را از دانشگاه «ییل» و دوره تخصص خود را در «بیمارستان عمومی ماساچوست» به پایان رسانده است. وی همچنین فارغ‌التحصیل مقطع کارشناسی ارشد در رشته سیاست‌گذاری عمومی از «دانشکده کندی دانشگاه هاروارد» است.

پاورقی

1- Clinicopathological conferences

2- Annals of Internal Medicine: Clinical Cases

3- Centaurs

4- Diagnosis

5- The Cleveland Clinic

اطلاعات کتاب‌شناختی

عنوان: اگر هوش مصنوعی می‌تواند بیماران را تشخیص دهد، پس پزشکان به چه کار می‌آیند؟

نویسنده: Nader Jahanmehr

تاریخ انتشار: سپتامبر 25, 2025

آدرس: https://academy.zeevest.com/2025/09/25/%d8%a7%da%af%d8%b1-%d9%87%d9%88%d8%b4-%d9%85%d8%b5%d9%86%d9%88%d8%b9%db%8c-%d9%85%db%8c%d8%aa%d9%88%d8%a7%d9%86%d8%af-%d8%a8%db%8c%d9%85%d8%a7%d8%b1%d8%a7%d9%86-%d8%b1%d8%a7-%d8%aa%d8%b4/

دسته‌بندی: نوشتار، هوش مصنوعی

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *