در چند سال اخیر، هوش مصنوعی (AI) از آزمایشگاههای سیلیکونولی خارج شده و به تار و پود زندگی روزمره ما نفوذ کرده است. ما امروز از مدلهای زبانی بزرگ (LLMs) برنامه غذایی میگیریم، از الگوریتمهای بینایی ماشین برای تحلیل عکسهای رادیولوژی استفاده میکنیم و رباتهای هوشمند را مسئول مدیریت سرمایه خود در بورس میکنیم. اعتماد به هوش مصنوعی
هیجان عمومی نسبت به این تکنولوژی قابل درک است. AI خستگیناپذیر است، هزاران برابر سریعتر از انسان محاسبه میکند و به اقیانوسی از دادهها دسترسی دارد. اما در دل این آسایش، یک سوال ترسناک و حیاتی نهفته است: آیا این سیستمهای هوشمند واقعاً «درک» میکنند یا فقط با اعتمادبهنفس بالا وانمود میکنند؟
زمانی که پای تصمیمات سرنوشتساز وسط میآید؛ مثل تشخیص یک تومور سرطانی، تایید وام بانکی یا سرمایهگذاری تمام پسانداز زندگی، مرز بین «کمک گرفتن» و «واگذاری مسئولیت» باریک میشود. گزارشهای جدید (از جمله شاخص هوش مصنوعی استنفورد ۲۰۲۴) نشان میدهد که اگرچه دقت AI در حال افزایش است، اما ما انسانها در حال دچار شدن به یک خطای شناختی خطرناک هستیم: اعتماد کورکورانه و پیشفرض به درستیِ الگوریتم.
در این مقاله، نه تنها به بررسی دقت واقعی طیف وسیعی از مدلهای هوش مصنوعی میپردازیم، بلکه ریشههای روانشناختی این اعتماد بیشازحد را کالبدشکافی میکنیم. چرا ما حرف یک جعبه سیاه دیجیتال را راحتتر از یک متخصص انسانی قبول میکنیم؟
بخش اول: سوگیری اتوماسیون (Automation Bias)؛ چرا مغز ما تسلیم ماشین میشود؟
قبل از اینکه متهم را (تکنولوژی) محاکمه کنیم، باید نگاهی به خودمان بیندازیم. چرا ما تا این حد مشتاقانه سکان زندگیمان را به الگوریتمها میدهیم؟ روانشناسان علوم شناختی به این پدیده «سوگیری اتوماسیون» میگویند.
توهمِ عینیت و بیطرفی اعتماد به هوش مصنوعی
مغز انسان، انسانهای دیگر را موجوداتی جایزالخطا، احساسی، خستهشونده و دارای تعصب میبیند. ما میدانیم که پزشک ممکن است شب قبل بد خوابیده باشد یا مشاور مالی ممکن است تحت تأثیر هیجانات بازار باشد.
در مقابل، ما ماشین را به عنوان موجودی «ریاضیوار»، «سرد» و «مطلقاً منطقی» تصور میکنیم. ما فکر میکنیم: «اعداد که دروغ نمیگویند!»
تحقیقات جنیفر لوگ از دانشگاه هاروارد نشان داد که مردم قضاوت یک الگوریتم را به قضاوت خودشان یا حتی متخصصان ترجیح میدهند، حتی در مواردی که الگوریتم به وضوح اشتباه میکند. ما به طور ناخودآگاه گارد انتقادی خود را در برابر صفحه نمایش پایین میآوریم.
راحتطلبی شناختی و “اوراکل” دیجیتال
مشورت با یک پزشک واقعی یا تحلیلگر مالی، زمانبر، هزینهبر و گاهی استرسزا است. هوش مصنوعی (چه یک چتبات باشد چه یک نرمافزار تحلیلگر) پاسخی فوری، رایگان، قطعی و بدون قضاوت به ما میدهد. مغز ما که عاشق سهولت شناختی است، پاسخ سریع و اشتباه را به پاسخ کند و دقیق ترجیح میدهد. این تنبلی ذهنی، بستر اصلی خطاهای فکری ماست.
بخش دوم: هوش مصنوعی در پزشکی؛ فرشته نجات یا قاتل خاموش؟
پزشکی یکی از پرامیدترین حوزههای کاربرد AI است. از سیستمهای تشخیص سرطان پوست تا الگوریتمهای پیشبینی سکته قلبی. اما دقت ریاضی، همیشه به معنای درستی پزشکی نیست.
مشکل «بافت» (Context) و نویز
دکتر اریک توپول در کتاب «پزشکی عمیق» توضیح میدهد که هوش مصنوعی در تشخیص الگو (Pattern Recognition) عالی است، اما در درک بافت (Context) ضعف بنیادی دارد. اعتماد به هوش مصنوعی
یک پزشک وقتی بیمار را میبیند، مجموعهای از علائم فیزیکی، تاریخچه روانی، شرایط خانوادگی و حتی لحن صحبت بیمار را ترکیب میکند. هوش مصنوعی فقط دادههای ایزولهای را میبیند که به او داده شده است.
-
مثال واقعی: تحقیقات نشان دادهاند که برخی سیستمهای هوشمند تشخیص بیماری پوستی، در مواجهه با پوستهای تیرهتر یا تصاویر با نور نامناسب، خطای فاحشی دارند (سوگیری الگوریتمی). یا مدلی که ذاتالریه را تشخیص میداد، چون یاد گرفته بود بیمارانی که از یک بیمارستان خاص میآیند، ریسک بالاتری دارند (همبستگی غلط)، نه به خاطر علائم واقعی بیماری!
پدیده توهم (Hallucination) در مشاوره سلامت
فرقی نمیکند از کدام مدل زبانی (LLM) برای مشاوره پزشکی استفاده کنید؛ همه آنها مستعد پدیده «توهم» هستند. یعنی ممکن است با اعتماد به نفس کامل، علائمی را به یک بیماری بیربط نسبت دهند یا دارویی را پیشنهاد کنند که وجود خارجی ندارد. AI معنای بیولوژیک «مرگ» یا «درد» را نمیفهمد؛ او فقط کلمات را بر اساس احتمال آماری کنار هم میچیند. اعتماد به احتمالات آماری برای جان انسان، قمار بزرگی است.
بخش سوم: هوش مصنوعی در بازارهای مالی؛ سرابِ سود
حوزه مالی دومین میدانی است که ما دوست داریم مسئولیت آن را به ماشین بسپاریم. از رباتهای معاملهگر فرکانس بالا (HFT) تا دستیاران هوشمند مدیریت پورتفو.
پیشبینی بر اساس آینه عقب
الگوریتمهای مالی عمدتاً بر اساس دادههای تاریخی (Historical Data) آموزش دیدهاند. پیشفرض آنها این است که آینده، تکرار الگوهای گذشته است. اما بازارهای مالی تحت تأثیر رویدادهای «قوی سیاه» (Black Swan) هستند؛ اتفاقاتی نادر و غیرقابل پیشبینی مثل جنگهای ناگهانی یا پاندمیها.
هوش مصنوعی نمیتواند «ترس بازار» یا «تنش ژئوپلیتیک» را به درستی درک کند. وقتی رژیم بازار تغییر میکند (مثلاً از رونق به رکود تورمی)، الگوریتمهایی که در شرایط قبلی عالی بودند، میتوانند به سرعت سرمایه را نابود کنند زیرا انعطافپذیری و شهود انسانی را ندارند. اعتماد به هوش مصنوعی
خطر گلهوار (Herding Behavior)
وقتی میلیونها نفر تصمیمات سرمایهگذاری خود را به مدلهای هوش مصنوعی مشابه بسپارند، همه با هم سیگنال خرید یا فروش دریافت میکنند. این همگرایی میتواند باعث نوسانات شدید و سقوطهای ناگهانی بازار (Flash Crashes) شود. در اینجا، هوش مصنوعی نه تنها ریسک فردی، بلکه ریسک سیستماتیک کل اقتصاد را بالا میبرد.
بخش چهارم: راهکار چیست؟ استراتژی «همکاری»، نه «جایگزینی»
آیا باید هوش مصنوعی را دور بیندازیم؟ ابداً. راه حل در درک درست از جایگاه این ابزار است. ما باید از پارادایم «انسان در حلقه» (Human-in-the-loop) استفاده کنیم.
هوش مصنوعی به عنوان دستیار (Copilot)، نه خلبان
-
در پزشکی: AI باید تصاویر را اسکن کند و ناهنجاریهای ریز را که چشم انسان نمیبیند، پرچمگذاری (Flag) کند. اما تشخیص نهایی، ترکیب دادهها و طرح درمان باید توسط پزشک انجام شود. پزشک با کمک AI، تبدیل به یک «ابر پزشک» میشود.
-
در امور مالی: AI میتواند حجم عظیمی از دادهها را تحلیل کند و فرصتها را فیلتر نماید، اما تصمیم نهایی برای ورود و خروج سرمایه و مدیریت ریسک باید با نظارت انسان و درک شرایط کلان اقتصادی انجام شود.
پرورش تفکر انتقادی و شکاکیت سالم
ما باید یاد بگیریم که خروجی هر مدل هوش مصنوعی، «وحی منزل» نیست، بلکه یک «پیشنهاد احتمالی» است. همیشه باید از خود بپرسیم: «اگر این ماشین اشتباه کرده باشد چه؟» و «آیا منبع معتبر دیگری برای تایید این حرف دارم؟».
شک کردن به خروجی هوش مصنوعی، نشانه تکنولوژیستیزی نیست؛ نشانه سواد دیجیتال و هوشمندی است.
نتیجهگیری: فرمان را رها نکنید
هوش مصنوعی قدرتمندترین ابزاری است که بشر تا کنون ساخته است، اما هنوز «هوش» به معنای جامع انسانی آن (شامل درک عمیق، همدلی، اخلاق و قضاوت در شرایط مبهم) را ندارد.
ما در لبه تیغ حرکت میکنیم. اگر با چشمان باز و به عنوان یک «ابزار کمکی» از آن استفاده کنیم، سرعت و دقت ما را چند برابر میکند. اما اگر به دلیل تنبلی ذهنی یا سوگیری اتوماسیون، تصمیمات حیاتی سلامت و ثروت خود را چشمبسته به آن بسپاریم، قمار خطرناکی کردهایم.
به یاد داشته باشید: مسئولیت نهایی زندگی شما، چه در تخت بیمارستان و چه در حساب بانکی، همیشه با شماست، نه الگوریتمی که آن را در سروری دوردست برنامهریزی کردهاند.
هوش مصنوعی چه مشاغلی را از بین میبرد
منابع
-
Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: a systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association.
-
(تحقیقی جامع که نشان میدهد چگونه متخصصان به دلیل اعتماد بیش از حد به سیستمهای کامپیوتری، دچار خطاهای فاحش میشوند).
-
Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes.
-
(پژوهشی از هاروارد که ثابت میکند مردم عادی قضاوت الگوریتمها را حتی از قضاوت خودشان معتبرتر میدانند).
-
Topol, E. J. (2019). Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. Basic Books.
-
(کتابی مرجع که مرز دقیق بین تواناییها و محدودیتهای خطرناک AI در پزشکی را ترسیم میکند).
-
AI Index Steering Committee. (2024). Artificial Intelligence Index Report 2024. Stanford Institute for Human-Centered AI.
-
(معتبرترین گزارش سالانه در مورد وضعیت پیشرفت و خطرات هوش مصنوعی در جهان).
وحید زارعی
پروفایل لینکدین درباره دیگرگونه
بدون دیدگاه