زبان سرخی که سبزی امنیت را به‌باد می‌دهد!

مطالعات رفتاری در‌‌مورد‌اینکه «ارتباطات دیجیتال» چگونه رفتار را شکل می‌دهد، به دهه 80 برمی‌گردد. فضاهای آنلاین می‌توانند ما را آزاد کنند تا رفتارهایی را انجام دهیم که معمولاً به‌صورت آفلاین، نورِ روز را نمی‌بینند! روانشناسان به «گمنامی»، «فردیت‌زدایی»، «حذف فاصله فیزیکی» و «احتمال اندکِ دستگیری و مجازات‌شدن توسط پلیس» اشاره می‌کنند تا توضیح دهند: چرا ما گاهی هنگام برقراری ارتباط آنلاین، کمتر جلوی خودمان را می‌گیریم تا هرچیزی را به‌زبان نیاوریم! وقتی با جهان‌بینی‌هایی روبه‌رو می‌شویم که با آن موافق نیستیم؛ و این عدم‌بازداری می‌تواند منجر به «سخنان نفرت‌برانگیز» شود. تحقیقات جدیدتر نشان داده است که وفور «سخنان مشوق نفرت» در فضای آنلاین ممکن است با الگوریتم‌هایی مرتبط باشد که پالایه آنلاین را تقویت ‌کند. منابع اطلاعاتی حزبی در شبکه‌های آنلاینِ کاربران رسانه‌های اجتماعیِ همفکر، تقویت می‌شوند؛ و درادامه، جریانی دراین‌فضاها پررنگ یا کم‌رنگ می‌شود. به‌عبارتی، مدیران شبکه‌ها هرجا خواستند، مطالبی را سانسور می‌کنند و هرجا خواستند به آن‌ها پروبال می‌دهند تا بیشتر هم دیده شوند. این حباب‌های فیلتر، شتاب‌دهنده‌های انعطاف‌پذیرِ تعصب هستند و دیدگاه‌های افراطی را در هر‌دو‌طرفِ طیف، بازتولید و تقویت می‌کنند. «آزمایشگاه ارزیابی و ادراک اجتماعی دانشگاه نیویورک» با‌نگاهی‌به بیش از نیم‌میلیون توییت که مسائل مربوط به کنترل اسلحه، اقلیت‌ها و تغییرات اقلیم را پوشش می‌دهد، دریافت: پست‌های نفرت‌انگیز مرتبط با این مسائل، بازتوییت را در حباب‌های فیلتر تغییر می‌دهد. با‌توجه‌به‌اینکه طراحیِ الگوریتمِ این‌شبکه‌ها نسبت به اشتراک‌گذاریِ «نظراتی خاص» متعصبانه بوده است، قرار‌گرفتن مخاطبان در‌معرض «محتوای چالش‌برانگیز» توسط این‌سازوکار به‌حداقل می‌رسد؛ بنابراین، در مقاطعی که چنین مسائلی مطرح می‌شوند؛ مثلاً در جریان پرونده‌های قضائی، آرای سیاسی یا تیراندازی در مدارس، کاربرانی که آن‌ها را باید «رانندگان حباب‌های فیلتر» نامید، فضا را به‌سمتی که باید، هدایت می‌کنند. آن‌ها کنترل بازنشر و چگونگیِ چرخش اطلاعات دراین‌پلتفرم‌ها را به‌دست می‌گیرند و این‌گونه، قطبی‌‌سازی می‌کنند؛ که عمدتاً با «نفرت‌پراکنی کلامی» انجام می‌شود. جای تعجب نیست که الگوریتم‌ شبکه‌های اجتماعی، سوگیری‌های مشابهی را نشان می‌دهند. در سال‌های 2016 و 2017، نهاد غیرانتفاعی روزنامه‌نگاری ProPublica دریافت؛ سرویس تبلیغات الگوریتمیِ ‌«فیس‌بوک»، هدف‌گیری متعصبانه را تسهیل می‌کند. این سیستم به تبلیغ‌کنندگان این امکان را می‌داد که محصولات و رویدادهای خود را برای کسانی‌که به «یهودی‌ستیزی» ابراز علاقه می‌کردند، هدف قرار دهند؛ و هشتگِ مثلاً «چگونه یهودیان را بسوزانیم»، «چرا یهودیان جهان را ویران می‌کنند» یا ... داغ می‌شد! در‌این‌مثال، الگوریتمِ یادشده، اطلاعاتی را از حباب‌های فیلتر راست افراطی و هم‌نظرانشان آن‌ها را «علاقه‌مندیِ» خود می‌خواندند، استخراج کرد. البته مدیران «فیس‌بوک» پس از اطلاع‌رسانی، سرویس تبلیغاتی خود را تغییر داد و ادعا کرد؛ تقصیری نداشته است؛ زیرا این الگوریتم‌ها هستند که آن‌ها را در‌دسترس قرار می‌دهند؛ نه کارکنان! علی‌رغم تغییرات، تبلیغ‌کنندگان همچنان مجاز بودند برای مدتی، از نمایش آگهی‌های مَسکن به آمریکایی‌های آفریقایی‌تبار، آمریکایی‌های لاتین و آسیایی‌آمریکایی‌ها جلوگیری کنند.

ارسال دیدگاه شما

هفته‌نامه در یک نگاه
ویژه نامه
بالای صفحه