چقدر می‌توانیم تصمیمات پزشکی و مالی را به هوش مصنوعی بسپاریم؟

اعتماد به هوش مصنوعی

در چند سال اخیر، هوش مصنوعی (AI) از آزمایشگاه‌های سیلیکون‌ولی خارج شده و به تار و پود زندگی روزمره ما نفوذ کرده است. ما امروز از مدل‌های زبانی بزرگ (LLMs) برنامه غذایی می‌گیریم، از الگوریتم‌های بینایی ماشین برای تحلیل عکس‌های رادیولوژی استفاده می‌کنیم و ربات‌های هوشمند را مسئول مدیریت سرمایه خود در بورس می‌کنیم. اعتماد به هوش مصنوعی

هیجان عمومی نسبت به این تکنولوژی قابل درک است. AI خستگی‌ناپذیر است، هزاران برابر سریع‌تر از انسان محاسبه می‌کند و به اقیانوسی از داده‌ها دسترسی دارد. اما در دل این آسایش، یک سوال ترسناک و حیاتی نهفته است: آیا این سیستم‌های هوشمند واقعاً «درک» می‌کنند یا فقط با اعتمادبه‌نفس بالا وانمود می‌کنند؟

زمانی که پای تصمیمات سرنوشت‌ساز وسط می‌آید؛ مثل تشخیص یک تومور سرطانی، تایید وام بانکی یا سرمایه‌گذاری تمام پس‌انداز زندگی، مرز بین «کمک گرفتن» و «واگذاری مسئولیت» باریک می‌شود. گزارش‌های جدید (از جمله شاخص هوش مصنوعی استنفورد ۲۰۲۴) نشان می‌دهد که اگرچه دقت AI در حال افزایش است، اما ما انسان‌ها در حال دچار شدن به یک خطای شناختی خطرناک هستیم: اعتماد کورکورانه و پیش‌فرض به درستیِ الگوریتم.

در این مقاله، نه تنها به بررسی دقت واقعی طیف وسیعی از مدل‌های هوش مصنوعی می‌پردازیم، بلکه ریشه‌های روانشناختی این اعتماد بیش‌ازحد را کالبدشکافی می‌کنیم. چرا ما حرف یک جعبه سیاه دیجیتال را راحت‌تر از یک متخصص انسانی قبول می‌کنیم؟


بخش اول: سوگیری اتوماسیون (Automation Bias)؛ چرا مغز ما تسلیم ماشین می‌شود؟

قبل از اینکه متهم را (تکنولوژی) محاکمه کنیم، باید نگاهی به خودمان بیندازیم. چرا ما تا این حد مشتاقانه سکان زندگی‌مان را به الگوریتم‌ها می‌دهیم؟ روانشناسان علوم شناختی به این پدیده «سوگیری اتوماسیون» می‌گویند.

توهمِ عینیت و بی‌طرفی اعتماد به هوش مصنوعی

مغز انسان، انسان‌های دیگر را موجوداتی جایز‌الخطا، احساسی، خسته‌شونده و دارای تعصب می‌بیند. ما می‌دانیم که پزشک ممکن است شب قبل بد خوابیده باشد یا مشاور مالی ممکن است تحت تأثیر هیجانات بازار باشد.
در مقابل، ما ماشین را به عنوان موجودی «ریاضی‌وار»، «سرد» و «مطلقاً منطقی» تصور می‌کنیم. ما فکر می‌کنیم: «اعداد که دروغ نمی‌گویند!»
تحقیقات جنیفر لوگ از دانشگاه هاروارد نشان داد که مردم قضاوت یک الگوریتم را به قضاوت خودشان یا حتی متخصصان ترجیح می‌دهند، حتی در مواردی که الگوریتم به وضوح اشتباه می‌کند. ما به طور ناخودآگاه گارد انتقادی خود را در برابر صفحه نمایش پایین می‌آوریم.

راحت‌طلبی شناختی و “اوراکل” دیجیتال

مشورت با یک پزشک واقعی یا تحلیلگر مالی، زمان‌بر، هزینه‌بر و گاهی استرس‌زا است. هوش مصنوعی (چه یک چت‌بات باشد چه یک نرم‌افزار تحلیلگر) پاسخی فوری، رایگان، قطعی و بدون قضاوت به ما می‌دهد. مغز ما که عاشق سهولت شناختی است، پاسخ سریع و اشتباه را به پاسخ کند و دقیق ترجیح می‌دهد. این تنبلی ذهنی، بستر اصلی خطاهای فکری ماست.


بخش دوم: هوش مصنوعی در پزشکی؛ فرشته نجات یا قاتل خاموش؟

پزشکی یکی از پرامیدترین حوزه‌های کاربرد AI است. از سیستم‌های تشخیص سرطان پوست تا الگوریتم‌های پیش‌بینی سکته قلبی. اما دقت ریاضی، همیشه به معنای درستی پزشکی نیست.

مشکل «بافت» (Context) و نویز

دکتر اریک توپول در کتاب «پزشکی عمیق» توضیح می‌دهد که هوش مصنوعی در تشخیص الگو (Pattern Recognition) عالی است، اما در درک بافت (Context) ضعف بنیادی دارد. اعتماد به هوش مصنوعی
یک پزشک وقتی بیمار را می‌بیند، مجموعه‌ای از علائم فیزیکی، تاریخچه روانی، شرایط خانوادگی و حتی لحن صحبت بیمار را ترکیب می‌کند. هوش مصنوعی فقط داده‌های ایزوله‌ای را می‌بیند که به او داده شده است.

  • مثال واقعی: تحقیقات نشان داده‌اند که برخی سیستم‌های هوشمند تشخیص بیماری پوستی، در مواجهه با پوست‌های تیره‌تر یا تصاویر با نور نامناسب، خطای فاحشی دارند (سوگیری الگوریتمی). یا مدلی که ذات‌الریه را تشخیص می‌داد، چون یاد گرفته بود بیمارانی که از یک بیمارستان خاص می‌آیند، ریسک بالاتری دارند (همبستگی غلط)، نه به خاطر علائم واقعی بیماری!

پدیده توهم (Hallucination) در مشاوره سلامت

فرقی نمی‌کند از کدام مدل زبانی (LLM) برای مشاوره پزشکی استفاده کنید؛ همه آن‌ها مستعد پدیده «توهم» هستند. یعنی ممکن است با اعتماد به نفس کامل، علائمی را به یک بیماری بی‌ربط نسبت دهند یا دارویی را پیشنهاد کنند که وجود خارجی ندارد. AI معنای بیولوژیک «مرگ» یا «درد» را نمی‌فهمد؛ او فقط کلمات را بر اساس احتمال آماری کنار هم می‌چیند. اعتماد به احتمالات آماری برای جان انسان، قمار بزرگی است.


بخش سوم: هوش مصنوعی در بازارهای مالی؛ سرابِ سود

حوزه مالی دومین میدانی است که ما دوست داریم مسئولیت آن را به ماشین بسپاریم. از ربات‌های معامله‌گر فرکانس بالا (HFT) تا دستیاران هوشمند مدیریت پورتفو.

پیش‌بینی بر اساس آینه عقب

الگوریتم‌های مالی عمدتاً بر اساس داده‌های تاریخی (Historical Data) آموزش دیده‌اند. پیش‌فرض آن‌ها این است که آینده، تکرار الگوهای گذشته است. اما بازارهای مالی تحت تأثیر رویدادهای «قوی سیاه» (Black Swan) هستند؛ اتفاقاتی نادر و غیرقابل پیش‌بینی مثل جنگ‌های ناگهانی یا پاندمی‌ها.
هوش مصنوعی نمی‌تواند «ترس بازار» یا «تنش ژئوپلیتیک» را به درستی درک کند. وقتی رژیم بازار تغییر می‌کند (مثلاً از رونق به رکود تورمی)، الگوریتم‌هایی که در شرایط قبلی عالی بودند، می‌توانند به سرعت سرمایه را نابود کنند زیرا انعطاف‌پذیری و شهود انسانی را ندارند. اعتماد به هوش مصنوعی

خطر گله‌وار (Herding Behavior)

وقتی میلیون‌ها نفر تصمیمات سرمایه‌گذاری خود را به مدل‌های هوش مصنوعی مشابه بسپارند، همه با هم سیگنال خرید یا فروش دریافت می‌کنند. این همگرایی می‌تواند باعث نوسانات شدید و سقوط‌های ناگهانی بازار (Flash Crashes) شود. در اینجا، هوش مصنوعی نه تنها ریسک فردی، بلکه ریسک سیستماتیک کل اقتصاد را بالا می‌برد.


بخش چهارم: راهکار چیست؟ استراتژی «همکاری»، نه «جایگزینی»

آیا باید هوش مصنوعی را دور بیندازیم؟ ابداً. راه حل در درک درست از جایگاه این ابزار است. ما باید از پارادایم «انسان در حلقه» (Human-in-the-loop) استفاده کنیم.

هوش مصنوعی به عنوان دستیار (Copilot)، نه خلبان

  • در پزشکی: AI باید تصاویر را اسکن کند و ناهنجاری‌های ریز را که چشم انسان نمی‌بیند، پرچم‌گذاری (Flag) کند. اما تشخیص نهایی، ترکیب داده‌ها و طرح درمان باید توسط پزشک انجام شود. پزشک با کمک AI، تبدیل به یک «ابر پزشک» می‌شود.

  • در امور مالی: AI می‌تواند حجم عظیمی از داده‌ها را تحلیل کند و فرصت‌ها را فیلتر نماید، اما تصمیم نهایی برای ورود و خروج سرمایه و مدیریت ریسک باید با نظارت انسان و درک شرایط کلان اقتصادی انجام شود.

پرورش تفکر انتقادی و شکاکیت سالم

ما باید یاد بگیریم که خروجی هر مدل هوش مصنوعی، «وحی منزل» نیست، بلکه یک «پیشنهاد احتمالی» است. همیشه باید از خود بپرسیم: «اگر این ماشین اشتباه کرده باشد چه؟» و «آیا منبع معتبر دیگری برای تایید این حرف دارم؟».
شک کردن به خروجی هوش مصنوعی، نشانه تکنولوژی‌ستیزی نیست؛ نشانه سواد دیجیتال و هوشمندی است.


نتیجه‌گیری: فرمان را رها نکنید 

هوش مصنوعی قدرتمندترین ابزاری است که بشر تا کنون ساخته است، اما هنوز «هوش» به معنای جامع انسانی آن (شامل درک عمیق، همدلی، اخلاق و قضاوت در شرایط مبهم) را ندارد.
ما در لبه تیغ حرکت می‌کنیم. اگر با چشمان باز و به عنوان یک «ابزار کمکی» از آن استفاده کنیم، سرعت و دقت ما را چند برابر می‌کند. اما اگر به دلیل تنبلی ذهنی یا سوگیری اتوماسیون، تصمیمات حیاتی سلامت و ثروت خود را چشم‌بسته به آن بسپاریم، قمار خطرناکی کرده‌ایم.

به یاد داشته باشید: مسئولیت نهایی زندگی شما، چه در تخت بیمارستان و چه در حساب بانکی، همیشه با شماست، نه الگوریتمی که آن را در سروری دوردست برنامه‌ریزی کرده‌اند.

هوش مصنوعی چه مشاغلی را از بین می‌برد


منابع 

  1. Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association.

    • مشاهده مقاله در Oxford Academic

    • (تحقیقی جامع که نشان می‌دهد چگونه متخصصان به دلیل اعتماد بیش از حد به سیستم‌های کامپیوتری، دچار خطاهای فاحش می‌شوند).

  2. Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes.

    • مشاهده مقاله در ScienceDirect

    • (پژوهشی از هاروارد که ثابت می‌کند مردم عادی قضاوت الگوریتم‌ها را حتی از قضاوت خودشان معتبرتر می‌دانند).

  3. Topol, E. J. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books.

    • مشاهده کتاب در Amazon

    • (کتابی مرجع که مرز دقیق بین توانایی‌ها و محدودیت‌های خطرناک AI در پزشکی را ترسیم می‌کند).

  4. AI Index Steering Committee. (2024). Artificial Intelligence Index Report 2024. Stanford Institute for Human-Centered AI.

وحید زارعی

پروفایل لینکدین درباره دیگرگونه

 

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

با ما در تماس باشید

منتظر نظرات و پیام های شما هستیم

ما در مجموعه دیگرگونه آماده ایم تا به سوالات، نظرات و درخواست های شما پاسخ دهیم، بهترین روش ارتباطی با ما از طریق تکمیل فرم تماس و یا ارسال ایمیل می باشد پاسخ شما حداکثر پس از دو روز کاری ارسال خواهد شد. همچنین می توانید از طریق پیام رسان واتس اپ با ما در تماس باشید.

    پیام رسان واتساپ

    09031324777

    ایمیل پشتیبانی

    info@digargooneh.com

    آدرس دفتر

    شهرک صنعتی سفیدرود

    خانهمحصولاتمعرفی کتابمقالات