سوگیری تایید در شبکه‌های اجتماعی: چگونه الگوریتم‌ها نگرش ما را شکل می‌دهند؟

سوگیری تایید و شبکه های اجتماعی

سوگیری تایید یکی از رایج‌ترین خطاهای شناختی است که افراد را وادار می‌کند اطلاعات را به‌گونه‌ای پردازش کنند که باورهای پیشین‌شان تقویت شود. این سوگیری باعث می‌شود افراد به‌دنبال داده‌هایی باشند که با دیدگاه‌شان همخوانی دارد و از اطلاعاتِ مخالف چشم‌پوشی کنند. در شبکه‌های اجتماعی، این پدیده با کمک الگوریتم‌های هوشمند تشدید می‌شود و می‌تواند نگرش‌های فردی و جمعی را به‌سوی افراط سوق دهد. شواهد نشان می‌دهد کاربران معمولاً محتوای همسو با دیدگاه‌های خود را بیشتر لایک، به اشتراک یا با آن تعامل می‌کنند؛ همین رفتارها الگوریتم‌ها را تشویق می‌کند تا همان نوع محتوا را بیشتر نمایش دهند.

تعریف سوگیری تایید و نقش آن در شبکه‌های اجتماعی

در پلتفرم‌هایی همچون فیسبوک، ایکس (توییتر سابق) و اینستاگرام، الگوریتم‌ها بر پایهٔ تاریخچهٔ تعاملات کاربر، محتوای پیشنهادی را شخصی‌سازی می‌کنند. این شخصی‌سازی که عمدتاً مبتنی بر تعاملات قبلی است، می‌تواند «اتاق‌های پژواک» (echo chambers) ایجاد کند؛ مکان‌هایی که کاربر عمدتاً تنها صداهای مشابه خود را می‌شنود. برای مثال، اگر کاربری به محتوای سیاسی خاصی علاقه نشان دهد، الگوریتم‌ها محتوای همسو را اولویت می‌دهند و محتوای مخالف را کمتر نمایش می‌دهند. این روند نه‌تنها سوگیری تایید را تقویت می‌کند، بلکه می‌تواند به قطبی‌سازی اجتماعی بیانجامد؛ یعنی گروه‌های مختلف جامعه دیدگاه‌های‌شان را بیش از پیش متمایز و دور از هم ببینند.

تحقیقات گسترده نشان می‌دهد سوگیری تایید در شبکه‌های اجتماعی صرفاً یک مشکل فردی نیست؛ این مسأله با ساختار و طراحی پلتفرم‌ها گره خورده است. در نمونه‌هایی که طیف وسیعی از محتوا در موضوعات جنجالی تحلیل شده است، آشکار شده کاربران تمایل دارند اطلاعات را از منابع همسو دریافت کنند و الگوریتم‌ها این گرایش را تشدید می‌کنند. نتیجهٔ این فرایند کاهش مواجهه با دیدگاه‌های متنوع و گرایش به‌سوی افراط است.

سوگیری تایید

نقش الگوریتم‌ها در تقویت سوگیری تایید

الگوریتم‌ها به‌منظور افزایش زمان حضور کاربر در پلتفرم طراحی می‌شوند؛ بنابراین محتوایی را اولویت می‌دهند که تعامل بیشتری ایجاد کند. سوگیریِ تایید باعث می‌شود کاربران با محتوای همسو بیشتر تعامل نمایند و این تعامل، الگوریتم را آموزش می‌دهد تا آن محتوا را گسترده‌تر نشان دهد. این چرخهٔ بازخوردی (feedback loop) موجب تثبیت نگرش‌ها می‌شود.

در عمل، زمانی که الگوریتم‌ها مواجهه با سیگنال‌های مخالف را محدود می‌کنند، یادگیریِ بلندمدت دربارهٔ واقعیت‌های تازه یا دیدگاه‌های متفاوت دشوار می‌گردد؛ کاربران اعتماد بیشتری به باورهای قبلی خود پیدا می‌کنند و کمتر مستعد اندیشیدن نقادانه می‌شوند. این شرایط، بستر پذیرش و نشر اطلاعات نادرست را فراهم می‌آورد.

تقلید، تأیید اجتماعی و تأثیر افراد مشهور

یکی از مکانیزم‌های قدرتمند در شبکه‌های اجتماعی «تأیید اجتماعی» (social proof) است: تمایل افراد به دنبال کردن رفتار دیگران به‌عنوان راهنما برای رفتار خود. وقتی یک مطلب توسط بسیاری لایک، اشتراک یا نظر دریافت کند، احتمال اینکه دیگران آن را درست یا معتبر فرض کنند افزایش می‌یابد. این پدیدهِ روان‌شناختی با سازوکارِ الگوریتمی ترکیب می‌شود و محتوای پربازدید را بیش از پیش دیده‌پذیر می‌کند.

تأثیر افراد مشهور یا افراد با نفوذ (influencers) دوچندان است. چند نکتهٔ کلیدی علمی دربارهٔ این موضوع:

  • اثر هاله‌ای و اعتبار انتقالی: وقتی یک فرد مشهور محتوایی را لایک، بازنشر یا تأیید می‌کند، بخشی از اعتبار او (halo effect) به آن محتوا منتقل می‌شود. این اعتبارِ منتقل‌شده باعث می‌شود مخاطبان احتمال بیشتری قائل به پذیرش یا اشتراک‌گذاری محتوا باشند، حتی اگر محتوای اصلی از یک منبع حرفه‌ایِ کم‌نام یا ناشناس آمده باشد.

  • تأیید اجتماعی مشبک: عمل تأیید توسط افراد مشهور نه‌فقط به‌صورت مستقیم، بلکه از طریق شبکهٔ اجتماعی گسترده‌شان موجب ایجاد موجی از بازنشر می‌شود؛ الگوریتم‌ها این تعامل را به‌عنوان سیگنالِ ارزشِ محتوایی تفسیر می‌کنند و انتشار آن را شتاب می‌دهند.

  • تفاوتِ توجه: محتوایی که ابتدا توسط یک فرد حرفه‌ایِ کم‌شهرت ارائه شود معمولاً تعامل اولیهٔ کمتری می‌گیرد. اما اگر همان محتوا توسط یک چهرهٔ شناخته‌شده لایک یا بازنشر شود، الگوریتم و کاربران، آن را معتبرتر و دیدنی‌تر می‌پندارند؛ نتیجتاً دامنهٔ انتشار و اثرگذاریِ آن افزایش می‌یابد.

  • تأیید ضمنی (implicit endorsement): گاهی صرفِ هم‌نماییِ یک محتوای علمی یا پیامِ تخصصی با یک چهرهٔ مشهور (بدون بررسی دقیق) به‌عنوان تأیید ضمنی برداشت می‌شود؛ این موضوع می‌تواند باعث پخشِ سریع‌ترِ اطلاعات ناصحیح یا ناقص نیز شود.

این مکانیزم‌ها توضیح می‌دهند چرا محتواهایی که از لحاظ علمی قوی‌اند اما از منابع کم‌شهرت می‌آیند، معمولاً کمتر دیده می‌شوند؛ اما همان محتوا زمانی که توسط یک شخصیت مشهور یا حساب پربازدید به اشتراک گذاشته شود، به‌سرعت پراکنده و پذیرفته می‌شود. این امر نه‌فقط نابرابریِ توجه را نشان می‌دهد، بلکه ریسک‌های نظام‌مند تولید و انتشار اطلاعات اشتباه یا کم‌دقت را افزایش می‌دهد.

مثال کاری: محتوای تخصصیِ ناشناس در مقابل نسخهٔ منتشرشده توسط چهرهٔ مشهور

فرض کنید پژوهشی کوتاه دربارهٔ اثربخشی یک روش جدید ارتقای سلامت روان توسط یک پژوهشگر مستقل منتشر می‌شود و در جامعهٔ علمی کوچک بازخورد مثبتی می‌گیرد، اما تعامل عمومی کم است. اگر این پژوهش توسط یک شخصیت شناخته‌شده در شبکهٔ اجتماعی بازنشر شود، میزان تعامل و پذیرش عمومی آن به‌طور چشمگیری افزایش خواهد یافت—فارغ از اینکه آیا مخاطبان تخصص لازم برای ارزیابی را دارند یا نه. الگوریتم‌ها این تعامل را به‌عنوان سیگنالِ ارزش می‌خوانند و آن را به طیف وسیع‌تری از کاربران پیشنهاد می‌کنند.

مدل‌های نظری سوگیری تایید در شبکه‌های اجتماعی

مدل‌های نظری نشان می‌دهند که سوگیریِ تایید می‌تواند حتی در شرایطی منجر به دو قطبِ نظرِ کاملاً متفاوت شود که سیگنال‌ها نسبتاً شفاف‌اند. یعنی افراد حتی در مقابل محتوای مشابه نظرات و برداشت های کاملا مخالف دارند. در این مدل‌ها، افراد بر اساس سیگنال‌های عمومی و تعامل با همسایگان شبکه‌ای نظرات خود را به‌روز می‌کنند؛ اما سوگیریِ تایید، تفسیر سیگنال‌ها را جهت‌دار می‌سازد. نتایج این مدل‌ها غالباً نشان می‌دهد که یادگیریِ بی‌طرفانه ناممکن است و نظرات، همواره بخشی از سوگیری را حمل خواهند کرد. اندازهٔ این سوگیری بستگی به سطح ابهام سیگنال‌ها و شدتِ سوگیریِ درونی افراد دارد. الگوریتم‌ها با محدود کردن مواجهه با سیگنال‌های مخالف، این فرایند را شدت می‌بخشند و در نتیجه نگرش‌ها شکل می‌گیرند.

شبکه‌ها با ساختارهای مختلف اثرهای متفاوتی تولید می‌کنند: شبکه‌های بسته‌تر (با اتصالات داخلی قوی) بیشتر به تولید و تثبیت سوگیری تمایل دارند، در حالی که شبکه‌های بازتر ممکن است متنوع‌سازی دیدگاه‌ها را افزایش دهند. الگوریتم‌ها اغلب ساختارهایی را ترجیح می‌دهند که تعامل را (حتی اگر تعارض‌آمیز باشد) افزایش دهد؛ از این رو تمایل به حفظ یا تشدید شبکه‌های بسته وجود دارد.

تأثیر بر نگرش‌های فردی و پذیرش اطلاعات

قرار گرفتن مکرر در معرض محتوای همسو موجب تقویت اعتماد به باورهای پیشین می‌شود و تمایل به چالش‌پذیری آنها را کاهش می‌دهد. این وضعیت موجب می‌شود افراد اخبار جعلی همسو با دیدگاه‌شان را آسان‌تر بپذیرند. از منظر جامعه‌شناختی و روان‌شناختی، عواملی نظیر سطح تحصیلات، فشارِ هم‌گروهی (peer conformity)، و مهارتِ کنترلِ نفس در پذیرش یا مقاومت در برابر سوگیری تأثیرگذارند. الگوریتم‌ها با ارائه محتوای شخصی‌سازی‌شده، کاربران را در چرخه‌ای از تأیید قرار می‌دهند که نگرش‌ها را تثبیت می‌کند.

نمونه‌های واقعی و درس‌هایی از دوران کووید-۱۹

در دوران کووید-۱۹، سوگیریِ تایید به‌صورت برجسته‌ای مشاهده شد: اطلاعات اولیه که غالباً ناپایدار یا ناقص بودند، با سرعت منتشر شدند و الگوریتم‌ها به‌دلیل تعامل بالا، این محتواها را برجسته کردند. گروه‌هایی که نسبت به واکسن یا دستورالعمل‌های بهداشتی شک داشتند، بیشتر با محتوای همسو روبه‌رو شدند و بدین‌ ترتیب نگرش‌های‌شان تقویت شد. تجربهٔ کووید-۱۹ نشان داد که ترکیبِ اضطرار اطلاعاتی، ترس عمومی و الگوریتم‌های تقویت‌کننده می‌تواند انتشار و تثبیت اطلاعات نادرست را تسهیل کند. 

تأثیر سوگیری تایید بر تصمیم‌گیری‌های سیاسی و اجتماعی

در عرصهٔ سیاسی، سوگیریِ تایید می‌تواند نتایج انتخابات و فرآیندهای رأی‌گیری را تحت تأثیر قرار دهد. الگوریتم‌ها با اولویت‌دهی به محتوای جذاب یا احساسی، کاربران را به سوی دیدگاه‌های افراطی سوق می‌دهند. ربات‌ها و حساب‌های خودکار نیز می‌توانند این فرایند را تسریع کنند؛ آنها با تولید محتوای همسو با سوگیری‌های کاربران و انتشار هدفمند، الگوریتم‌ها را برای تقویت آن محتوا تغذیه می‌کنند. پیامدِ این تعامل کاهش گفتگوی سازنده و افزایش قطبی‌سازی عمومی است.

تأثیر بر سلامت روانی کاربران

قرار گرفتن مداوم در معرض محتوای همسو، به‌ویژه محتوای احساسی یا منفی، می‌تواند احساس اضطراب، افسردگی و دیدِ بدبینانه نسبت به جهان را افزایش دهد. سوگیریِ تایید می‌تواند تجربیات منفی را برجسته‌تر کند و الگوریتم‌ها با نمایش محتوای پرهیجان یا احساسی، این اثرها را تشدید کنند. آموزش سواد رسانه‌ای و تمرین‌های خودمراقبتی مفیدند، اما بدون تغییرات ساختاری در الگوریتم‌ها، تأثیرِ این مداخلات محدود خواهد ماند.

راهکارهای مقابله با سوگیری تایید در شبکه‌های اجتماعی

برای مقابله با این پدیده، راهکارها باید در چند سطح اجرا شوند:

  • سطح فردی:

    • محدود کردن زمان استفاده و تخصیص زمان برای کندخوانی و ارزیابی انتقادی منابع؛

    • فعالانه جستجو کردن منابع مخالف و متنوع؛

    • تقویت سواد رسانه‌ای و مهارت‌های ارزیابی شواهد.

  • سطح پلتفرم (سیستمی):

    • ارائهٔ گزینه‌هایی برای غیرشخصی‌سازی (de-personalization) محتوای پیشنهادی؛

    • افشای معیارهای ساده‌شدهٔ اولویت‌دهیِ محتوا به‌منظور افزایش شفافیت؛

    • طراحی الگوریتم‌هایی که تنوع دیدگاه و کیفیتِ اطلاعات را نیز به‌عنوان معیار در نظر بگیرند، نه صرفاً تعامل کوتاه‌مدت.

  • سطح نهادی و آموزشی:

    • آموزش سواد رسانه‌ای از سطوح پایه در مدارس؛

    • مداخلات نرم‌افزاری که نمایشِ ادلهٔ مخالف یا تحلیلِ متقابل را تشویق کنند؛

    • مقرراتی که شرکت‌ها را ملزم به گزارش تأثیرِ الگوریتم‌شان بر تنوع اطلاعات نماید.

تحقیقات نشان می‌دهد نمایشِ استدلال‌های مخالف و ایجاد فرمت‌هایی که کاربران را به بررسی شواهد و منابع تشویق می‌کنند، می‌تواند تا حدی سوگیری را کاهش دهد. با این حال چالش اصلی این است که بسیاری از الگوریتم‌ها برای افزایش سود طراحی شده‌اند؛ تا زمانی که انگیزه‌های اقتصادی تغییر نکند، اصلاحات فنی به‌تنهایی ممکن است ناکافی باشد.

سوگیری تایید به نفع خود

نتیجه‌گیری: نیاز به آگاهی و اقدام جمعی

سوگیری تایید در شبکه‌های اجتماعی یک چرخهٔ بسته ایجاد می‌کند که الگوریتم‌ها آن را تقویت و حفظ می‌کنند. این چرخه نگرش‌ها را شکل می‌دهد، گفت‌وگوی سازنده را تضعیف می‌کند و می‌تواند اعتماد عمومی را فرسایش دهد. برای کاهش این اثرها نیاز به آگاهی فردی، تغییرات طراحی در پلتفرم‌ها، و سیاست‌گذاری نهادی است. افزون بر این، شناخت نقشِ تقلید اجتماعی و اثر افراد مشهور در انتشار محتوا، می‌تواند به طراحی مداخلاتی کمک کند که توجهِ مخاطبان را به کیفیت و منبع محتوا معطوف سازد — نه صرفاً به تعداد لایک یا بازنشر.

منابع

  1. Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences, 118(9), e2023301118. لینک به منبع
  2. Modgil, S., Singh, R. K., Gupta, S., & Dennehy, D. (2021). A confirmation bias view on social media induced polarisation during Covid-19. Information Systems Frontiers. لینک به منبع
  3. Mosleh, M., Martel, C., Eckles, D., & Rand, D. G. (2023). Confirmation bias in social networks. Mathematical Social Sciences, 123, 59-76. لینک به منبع

وحید زارعی

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

با ما در تماس باشید

منتظر نظرات و پیام های شما هستیم

ما در مجموعه دیگرگونه آماده ایم تا به سوالات، نظرات و درخواست های شما پاسخ دهیم، بهترین روش ارتباطی با ما از طریق تکمیل فرم تماس و یا ارسال ایمیل می باشد پاسخ شما حداکثر پس از دو روز کاری ارسال خواهد شد. همچنین می توانید از طریق پیام رسان واتس اپ با ما در تماس باشید.

    پیام رسان واتساپ

    09031324777

    ایمیل پشتیبانی

    info@digargooneh.com

    آدرس دفتر

    شهرک صنعتی سفیدرود

    خانهمحصولاتمعرفی کتابمقالات