زبان سرخی که سبزی امنیت را بهباد میدهد!
مطالعات رفتاری درمورداینکه «ارتباطات دیجیتال» چگونه رفتار را شکل میدهد، به دهه 80 برمیگردد. فضاهای آنلاین میتوانند ما را آزاد کنند تا رفتارهایی را انجام دهیم که معمولاً بهصورت آفلاین، نورِ روز را نمیبینند! روانشناسان به «گمنامی»، «فردیتزدایی»، «حذف فاصله فیزیکی» و «احتمال اندکِ دستگیری و مجازاتشدن توسط پلیس» اشاره میکنند تا توضیح دهند: چرا ما گاهی هنگام برقراری ارتباط آنلاین، کمتر جلوی خودمان را میگیریم تا هرچیزی را بهزبان نیاوریم! وقتی با جهانبینیهایی روبهرو میشویم که با آن موافق نیستیم؛ و این عدمبازداری میتواند منجر به «سخنان نفرتبرانگیز» شود. تحقیقات جدیدتر نشان داده است که وفور «سخنان مشوق نفرت» در فضای آنلاین ممکن است با الگوریتمهایی مرتبط باشد که پالایه آنلاین را تقویت کند. منابع اطلاعاتی حزبی در شبکههای آنلاینِ کاربران رسانههای اجتماعیِ همفکر، تقویت میشوند؛ و درادامه، جریانی دراینفضاها پررنگ یا کمرنگ میشود. بهعبارتی، مدیران شبکهها هرجا خواستند، مطالبی را سانسور میکنند و هرجا خواستند به آنها پروبال میدهند تا بیشتر هم دیده شوند. این حبابهای فیلتر، شتابدهندههای انعطافپذیرِ تعصب هستند و دیدگاههای افراطی را در هردوطرفِ طیف، بازتولید و تقویت میکنند. «آزمایشگاه ارزیابی و ادراک اجتماعی دانشگاه نیویورک» بانگاهیبه بیش از نیممیلیون توییت که مسائل مربوط به کنترل اسلحه، اقلیتها و تغییرات اقلیم را پوشش میدهد، دریافت: پستهای نفرتانگیز مرتبط با این مسائل، بازتوییت را در حبابهای فیلتر تغییر میدهد. باتوجهبهاینکه طراحیِ الگوریتمِ اینشبکهها نسبت به اشتراکگذاریِ «نظراتی خاص» متعصبانه بوده است، قرارگرفتن مخاطبان درمعرض «محتوای چالشبرانگیز» توسط اینسازوکار بهحداقل میرسد؛ بنابراین، در مقاطعی که چنین مسائلی مطرح میشوند؛ مثلاً در جریان پروندههای قضائی، آرای سیاسی یا تیراندازی در مدارس، کاربرانی که آنها را باید «رانندگان حبابهای فیلتر» نامید، فضا را بهسمتی که باید، هدایت میکنند. آنها کنترل بازنشر و چگونگیِ چرخش اطلاعات دراینپلتفرمها را بهدست میگیرند و اینگونه، قطبیسازی میکنند؛ که عمدتاً با «نفرتپراکنی کلامی» انجام میشود. جای تعجب نیست که الگوریتم شبکههای اجتماعی، سوگیریهای مشابهی را نشان میدهند. در سالهای 2016 و 2017، نهاد غیرانتفاعی روزنامهنگاری ProPublica دریافت؛ سرویس تبلیغات الگوریتمیِ «فیسبوک»، هدفگیری متعصبانه را تسهیل میکند. این سیستم به تبلیغکنندگان این امکان را میداد که محصولات و رویدادهای خود را برای کسانیکه به «یهودیستیزی» ابراز علاقه میکردند، هدف قرار دهند؛ و هشتگِ مثلاً «چگونه یهودیان را بسوزانیم»، «چرا یهودیان جهان را ویران میکنند» یا ... داغ میشد! دراینمثال، الگوریتمِ یادشده، اطلاعاتی را از حبابهای فیلتر راست افراطی و همنظرانشان آنها را «علاقهمندیِ» خود میخواندند، استخراج کرد. البته مدیران «فیسبوک» پس از اطلاعرسانی، سرویس تبلیغاتی خود را تغییر داد و ادعا کرد؛ تقصیری نداشته است؛ زیرا این الگوریتمها هستند که آنها را دردسترس قرار میدهند؛ نه کارکنان! علیرغم تغییرات، تبلیغکنندگان همچنان مجاز بودند برای مدتی، از نمایش آگهیهای مَسکن به آمریکاییهای آفریقاییتبار، آمریکاییهای لاتین و آسیاییآمریکاییها جلوگیری کنند.