فاجعهای تحتعنوان «سوگیریهای هوش مصنوعی»
مطالعهای جدید نشان میدهد که «هوش مصنوعی» میتواند بهاندازه انسانها بیشازحد مطمئن و جانبدارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد. گرایشهای غیرمنطقی معمولاً در سامانههای «هوش مصنوعی» ظاهر میشوند و مفیدبودن آنها را زیرسؤال میبرند. اگرچه انسان و «هوش مصنوعی» بسیارمتفاوت فکر میکنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهیاوقات بهاندازه انسان غیرمنطقی تصمیم میگیرد. در نیمی از سناریوهای بررسیشده در یک مطالعه جدید، «چتجیپیتی» بسیاری از رایجترین «سوگیریهای» تصمیمگیری انسانی را از خود نشان داد. این نتایج، اولین یافتههای مرتبط با «سوگیری شناختی» شناختهشده در روانشناسی انسان در «چتجیپیتی» است.
نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ» (LLM) که «چتجیپیتی» را پشتیبانی میکنند، آزمایش کردند. آنها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقصهای انسانی مصون نیست. بهگفته محققان، اینچنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد. «یانگ چن» نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی» گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راهحل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آنها برای تصمیمات ذهنی یا ترجیحی استفاده میکنند، بهتر است بااحتیاط عمل کنند. این مطالعه «سوگیریهای انسانی» شناختهشده ازجمله «خطرگریزی»، داشتن اعتمادبهنفس بیشازحد و «اثر برخورداری» را درنظر گرفت و آنها را در دستورالعملهای دادهشده به «چتجیپیتی» اعمال کرد تا ببیند آیا در همان تلههایی که انسانها گرفتار میشوند، قرار میگیرد یا خیر. «خطرگریزی» بهمعنای ترجیح پذیرش خطر کمتر و جلوگیری از خطر غیرضروری است. «اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث میشود افراد چیزی را که دارند بسیار باارزشتر از ارزش واقعی آن تصور کنند. دانشمندان از «مدلهای زبان بزرگ» سؤالات فرضی برگرفته از روانشناسی سنتی و درزمینهٔ تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمینکنندگان پرسیدند. هدف آنها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیریهای انسانی» را تقلید میکند یا خیر. آنها همچنین قصد داشتند که متوجه شوند آیا اینمدلها هنگام پرسیدن سؤالات از حوزههای مختلف تجاری هم اینکار را انجام میدهند یا خیر. یکی از «مدلهای زبانی بزرگ» موسوم به «GPT-۴» درپاسخبه مسائلی با راهحلهای ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطقمحور نشان داد، اما در شبیهسازیهای ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چتبات اغلب ترجیحات غیرمنطقی را که انسانها تمایل به نشاندادن آن دارند، انتخاب میکرد. محققان گفتند: «GPT-۴» حتی از انسانها نیز تمایل قویتری برای قطعیت نشان میدهد. اینموضوع تمایل «هوش مصنوعی» به نتایج ایمنتر و قابل پیشبینیتر هنگام انجام وظایف مبهم اشاره دارد. مهمترازهمه، رفتارهای چتباتها درواکنشبه سؤالات در مسائل روانشناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند. این مطالعه نتیجه گرفت که «سوگیریهای» نشاندادهشده تنها محصول مثالهای حفظشده نیستند و بخشی از نحوه استدلال «هوش مصنوعی» هستند. یکی از نتایج شگفتانگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»، مدل «GPT-۴» همیشه پاسخهای سوگیرانه میداد. همچنین اینمدل تمایل بیشتری به «مغالطه دست داغ» نسبت به «GPT ۳.۵» نشان داد. «مغالطه دست داغ» یکی از «سوگیریهای شناختی» است که بهاینباور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشتسرهم میبریم یا میبازیم، بهاصطلاح داغ یا سرد میشویم و تصور میکنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. درحالیکه همچنان براساس علم احتمالات، هیچچیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است. برخلاف مدلها، «چتجیپیتی» موفق شد از برخی از «سوگیریهای» رایج انسانی ازجمله «غفلت از نرخ پایه» و «مغالطه هزینه غرقشده» اجتناب کند. «غفلت از نرخ پایه» بهمعنای اعتماد و پذیرش موارد خاص و نادیدهگرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است. «مغالطه هزینه غرقشده» نیز زمانی رخ میدهد که شخص فقط بهایندلیل به تصمیم خود پایبند است که پول قبلاً خرج شده است و نمیخواهد احساس کند که آنرا هدر داده است. بهگفته پژوهشگران، «سوگیریهای» شبهانسانی در «چتجیپیتی» از دادههای آموزشی ناشی میشود که شامل «سوگیریهای شناختی» و اکتشافی است که انسانها از خود نشان میدهند. این گرایشها در شرایط خاص، تقویت میشوند. این تقویت زمانیکه انسان پاسخهای محتمل را به پاسخهای منطقی ترجیح میدهد، بیشتر میشود. وقتی «هوش مصنوعی» با وظایف مبهمتری روبرو میشود، بیشتر بهسمت الگوهای استدلال انسانی تا منطق سامانهای متمایل میشود. «چن» گفت: اگر یک تصمیمگیری دقیق و بیطرفانه میخواهید، از «چتجیپیتی» در حوزههایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشینحساب باشد. بااینحال، وقتی نتیجه بیشتر به ورودیهای ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا میکند. حتی اگر دستورالعملهای کاربر برای اصلاح «سوگیریهای» شناخته شده باشد. «مینا آندیاپان» دانشیار منابع انسانی و مدیریت در «دانشگاه مکمستر» و نویسنده این مقاله میگوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی میگیرد. این تصمیمگیریها به نظارت و دستورالعملهای اخلاقی نیاز دارد. در غیر این صورت، ما بهجای بهبود تفکر ناقص، آنرا درمعرضخطر خودکارسازی قرار میدهیم. بهگزارش روجا تحریری نوری (ایسنا)؛ یک پژوهش جدید نشان میدهد که افراد سوگیری تصمیمهای الگوریتم یادگیری ماشینی را بیشتر از سوگیری تصمیمهای خودشان تشخیص میدهند. شاید بتوان از این ویژگی برای اصلاح سوگیریهای انسان استفاده کرد. از برنامههایی که تماشا میکنیم تا افرادیکه استخدام میکنیم، الگوریتمها بهطور فزایندهای در زندگی روزمره ما ادغام میشوند و بیسروصدا بر تصمیمهایی که میگیریم اثر میگذارند. بهنقلاز ادونسد ساینس نیوز، هسته الگوریتمها، مجموعهای از قوانین یا دستورالعملهاست که برای پردازش اطلاعات و بهدستآوردن یک نتیجه خاص طراحی شدهاند اما ازآنجاکه الگوریتمها از الگوهای رفتاری انسان یاد میگیرند، میتوانند سوگیریهایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. باوجوداین، یک پژوهش جدید نشان میدهد که این ممکن است زیاد بد نباشد. «کری موروج» استاد «دانشگاه بوستون» معتقد است که این بازتاب میتواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتمهای یادگیری ماشینی بسیارموفق هستند زیرا میتوانند بیطرفانه الگوها را در مجموعه دادهها پیدا کنند اما درعینحال، سوگیریهای انسانی را نیز در دادههای آموزشی خود لحاظ کنند. هنگامیکه این سوگیریها در الگوریتمها شناسایی میشوند، میتوانند به آشکارسازی سوگیریهای بلندمدت در سازمانها کمک کنند. بهعنوانمثال، شرکت «آمازون» سوگیری جنسیتی را در شیوههای استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومههای جدید را براساس شیوههای پیشین استخدام شرکت ارزیابی میکرد، بهاینموضوع پی برد. موروج گفت: الگوریتمها میتوانند سوگیریهای انسانی را کدگذاری و تقویت کنند اما سوگیریهای ساختاری را نیز در جامعه ما نشان میدهند. موروج و گروهش در پژوهش خود نشان دادند که افراد معمولاً تمایل بیشتری را به تشخیصدادن و تصحیح کردن سوگیریهای موجود در تصمیمگیری الگوریتم درمقایسهبا تصمیمگیری خودشان دارند. آنها باور دارند که با دانستن اینموضوع ممکن است بتوان از الگوریتمها برای رسیدگی به سوگیریهای موجود در تصمیمگیریها استفاده کرد. انسانها بهدلیل پدیدهای بهنام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمیکنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل ایناستکه ما میتوانیم در فرآیندهای تصمیمگیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیمگیری ندارد، سوگیریها واضحتر و بهانهجویی دشوارتر است. موروج و همکارانش دراینپژوهش نشان دادند که حتی وقتی الگوریتمها براساس رفتارهای ما آموزش داده میشوند نیز اینموضوع صادق است. پژوهشگران در یک مجموعه آزمایش، از شرکتکنندگان خواستند تا سرویس «ایربیانبی» و رانندگان «لیفت» را براساس معیارهای تشخیصی مانند تعداد ستارهها، ارزیابیها و مدتزمان حضورداشتن کنار راننده رتبهبندی کنند. پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دستکاری کردند. شرکتکنندگان دوبار رتبهبندی را انجام دادند و سپس، رتبهبندیهای آنها یا رتبهبندی الگوریتم آموزشدادهشده نشان داده شد. ایسنا