فاجعه‌ای تحت‌عنوان «سوگیری‌های هوش مصنوعی»

مطالعه‌ای جدید نشان می‌دهد که «هوش مصنوعی» می‌تواند به‌اندازه انسان‌ها بیش‌ازحد مطمئن و جانب‌دارانه تصمیم بگیرد و تعصب و سوگیری داشته باشد. گرایش‌های غیرمنطقی معمولاً در سامانه‌های «هوش مصنوعی» ظاهر می‌شوند و مفیدبودن آن‌ها را زیرسؤال می‌برند. اگرچه انسان و «هوش مصنوعی» بسیارمتفاوت فکر می‌کنند، تحقیقات جدید نشان داده است که «هوش مصنوعی» گاهی‌اوقات به‌اندازه انسان غیرمنطقی تصمیم می‌گیرد. در نیمی از سناریوهای بررسی‌شده در یک مطالعه جدید، «چت‌جی‌پی‌تی» بسیاری از رایج‌ترین «سوگیری‌های» تصمیم‌گیری انسانی را از خود نشان داد. این نتایج، اولین یافته‌های مرتبط با «سوگیری شناختی» شناخته‌شده در روانشناسی انسان در «چت‌جی‌پی‌تی» است.

نویسندگان این مقاله، از پنج موسسه دانشگاهی در سراسر کانادا و استرالیا، روی دو «مدل زبان بزرگ» (LLM) که «چت‌جی‌پی‌تی» را پشتیبانی می‌کنند، آزمایش کردند. آن‌ها کشف کردند که «هوش مصنوعی» برخلاف سازگاری زیاد در استدلال خود در برابر نقص‌های انسانی مصون نیست. به‌گفته محققان، این‌چنین سازگاری، هم اثرات مثبت و هم اثرات منفی دارد. «یانگ چن» نویسنده ارشد این مطالعه و استادیار مدیریت عملیات در «دانشکده بازرگانی ایوی» گفت: مدیران در استفاده از این ابزارها برای حل مشکلاتی با راه‌حل واضح و فرمولی مشخص، بیشترین منفعت را خواهند داشت، اما اگر کاربران از آن‌ها برای تصمیمات ذهنی یا ترجیحی استفاده می‌کنند، بهتر است بااحتیاط عمل کنند. این مطالعه «سوگیری‌های انسانی» شناخته‌شده ازجمله «خطرگریزی»، داشتن اعتمادبه‌نفس بیش‌ازحد و «اثر برخورداری» را درنظر گرفت و آن‌ها را در دستورالعمل‌های داده‌شده به «چت‌جی‌پی‌تی» اعمال کرد تا ببیند آیا در همان تله‌هایی که انسان‌ها گرفتار می‌شوند، قرار می‌گیرد یا خیر. «خطرگریزی» به‌معنای ترجیح پذیرش خطر کم‌تر و جلوگیری از خطر غیرضروری است. «اثر برخورداری» نیز نوعی سوگیری عاطفی است که باعث می‌شود افراد چیزی را که دارند بسیار باارزش‌تر از ارزش واقعی آن تصور کنند. دانشمندان از «مدل‌های زبان بزرگ» سؤالات فرضی برگرفته از روانشناسی سنتی و درزمینهٔ تجارت در دنیای واقعی مانند مدیریت موجودی یا مذاکرات تأمین‌کنندگان پرسیدند. هدف آن‌ها این بود متوجه شوند که آیا «هوش مصنوعی» «سوگیری‌های انسانی» را تقلید می‌کند یا خیر. آن‌ها همچنین قصد داشتند که متوجه شوند آیا این‌مدل‌ها هنگام پرسیدن سؤالات از حوزه‌های مختلف تجاری هم این‌کار را انجام می‌دهند یا خیر. یکی از «مدل‌های زبانی بزرگ» موسوم به «GPT-۴» درپاسخ‌به مسائلی با راه‌حل‌های ریاضی واضح، عملکرد بهتری نسبت به مدل دیگر با نام «GPT-۳.۵» داشت و اشتباهات کمتری در سناریوهای احتمال و منطق‌محور نشان داد، اما در شبیه‌سازی‌های ذهنی مانند انتخاب یک گزینه پرخطر برای دستیابی به سود، این چت‌بات اغلب ترجیحات غیرمنطقی را که انسان‌ها تمایل به نشان‌دادن آن دارند، انتخاب می‌کرد. محققان گفتند: «GPT-۴» حتی از انسان‌ها نیز تمایل قوی‌تری برای قطعیت نشان می‌دهد. این‌موضوع تمایل «هوش مصنوعی» به نتایج ایمن‌تر و قابل پیش‌بینی‌تر هنگام انجام وظایف مبهم اشاره دارد. مهم‌ترازهمه، رفتارهای چت‌بات‌ها درواکنش‌به سؤالات در مسائل روان‌شناختی انتزاعی و فرآیندهای تجاری عملیاتی، عمدتاً پایدار باقی ماند. این مطالعه نتیجه گرفت که «سوگیری‌های» نشان‌داده‌شده تنها محصول مثال‌های حفظ‌شده نیستند و بخشی از نحوه استدلال «هوش مصنوعی» هستند. یکی از نتایج شگفت‌انگیز این مطالعه، تقویت خطاهای انسانی توسط «GPT-۴» است. دانشمندان گفتند: در «سوگیری تأییدی»، مدل «GPT-۴» همیشه پاسخ‌های سوگیرانه می‌داد. همچنین این‌مدل تمایل بیشتری به «مغالطه دست داغ» نسبت به «GPT ۳.۵» نشان داد. «مغالطه دست داغ» یکی از «سوگیری‌های شناختی» است که به‌این‌باور غیرمنطقی اشاره دارد که وقتی ما در یک بازی وابسته به شانس، چند دست پشت‌سرهم می‌بریم یا می‌بازیم، به‌اصطلاح داغ یا سرد می‌شویم و تصور می‌کنیم که این برد یا باخت پیاپی قرار است همچنان ادامه پیدا کند. درحالی‌که همچنان براساس علم احتمالات، هیچ‌چیزی تغییر نکرده و شانس برد ما درست مانند دفعات قبل است. برخلاف مدل‌ها، «چت‌جی‌پی‌تی» موفق شد از برخی از «سوگیری‌های» رایج انسانی ازجمله «غفلت از نرخ پایه» و «مغالطه هزینه غرق‌شده» اجتناب کند. «غفلت از نرخ پایه» به‌معنای اعتماد و پذیرش موارد خاص و نادیده‌گرفتن آمار و اطلاعات موجود در هنگام استدلال کردن است. «مغالطه هزینه غرق‌شده» نیز زمانی رخ می‌دهد که شخص فقط به‌این‌دلیل به تصمیم خود پایبند است که پول قبلاً خرج شده است و نمی‌خواهد احساس کند که آن‌را هدر داده است. به‌گفته پژوهشگران، «سوگیری‌های» شبه‌انسانی در «چت‌جی‌پی‌تی» از داده‌های آموزشی ناشی می‌شود که شامل «سوگیری‌های شناختی» و اکتشافی است که انسان‌ها از خود نشان می‌دهند. این گرایش‌ها در شرایط خاص، تقویت می‌شوند. این تقویت زمانی‌که انسان پاسخ‌های محتمل را به پاسخ‌های منطقی ترجیح می‌دهد، بیشتر می‌شود. وقتی «هوش مصنوعی» با وظایف مبهم‌تری روبرو می‌شود، بیشتر به‌سمت الگوهای استدلال انسانی تا منطق سامانه‌ای متمایل می‌شود. «چن» گفت: اگر یک تصمیم‌گیری دقیق و بی‌طرفانه می‌خواهید، از «چت‌جی‌پی‌تی» در حوزه‌هایی استفاده کنید که میزان اعتماد لازم در حد اعتماد به یک ماشین‌حساب باشد. بااین‌حال، وقتی نتیجه بیشتر به ورودی‌های ذهنی یا استراتژیکی وابسته است، نظارت انسانی اهمیت بیشتری پیدا می‌کند. حتی اگر دستورالعمل‌های کاربر برای اصلاح «سوگیری‌های» شناخته شده باشد. «مینا آندیاپان» دانشیار منابع انسانی و مدیریت در «دانشگاه مک‌مستر» و نویسنده این مقاله می‌گوید: با «هوش مصنوعی» باید مانند کارمندی رفتار شود که تصمیمات مهمی می‌گیرد. این تصمیم‌گیری‌ها به نظارت و دستورالعمل‌های اخلاقی نیاز دارد. در غیر این صورت، ما به‌جای بهبود تفکر ناقص، آن‌را درمعرض‌خطر خودکارسازی قرار می‌دهیم. به‌گزارش روجا تحریری نوری (ایسنا)؛ یک پژوهش جدید نشان می‌دهد که افراد سوگیری تصمیم‌های الگوریتم یادگیری ماشینی را بیشتر از سوگیری تصمیم‌های خودشان تشخیص می‌دهند. شاید بتوان از این ویژگی برای اصلاح سوگیری‌های انسان استفاده کرد. از برنامه‌هایی که تماشا می‌کنیم تا افرادی‌که استخدام می‌کنیم، الگوریتم‌ها به‌طور فزاینده‌ای در زندگی روزمره ما ادغام می‌شوند و بی‌سروصدا بر تصمیم‌هایی که می‌گیریم اثر می‌گذارند. به‌نقل‌از ادونسد ساینس نیوز، هسته الگوریتم‌ها، مجموعه‌ای از قوانین یا دستورالعمل‌هاست که برای پردازش اطلاعات و به‌دست‌آوردن یک نتیجه خاص طراحی شده‌اند اما ازآنجاکه الگوریتم‌ها از الگوهای رفتاری انسان یاد می‌گیرند، می‌توانند سوگیری‌هایی را که درون ما وجود دارند، منعکس یا حتی تقویت کنند. باوجوداین، یک پژوهش جدید نشان می‌دهد که این ممکن است زیاد بد نباشد. «کری موروج» استاد «دانشگاه بوستون» معتقد است که این بازتاب می‌تواند نقاط کور سوگیری ما را روشن کند و در اصلاح رفتار نقش داشته باشد. الگوریتم‌های یادگیری ماشینی بسیارموفق هستند زیرا می‌توانند بی‌طرفانه الگوها را در مجموعه داده‌ها پیدا کنند اما درعین‌حال، سوگیری‌های انسانی را نیز در داده‌های آموزشی خود لحاظ کنند. هنگامی‌که این سوگیری‌ها در الگوریتم‌ها شناسایی می‌شوند، می‌توانند به آشکارسازی سوگیری‌های بلندمدت در سازمان‌ها کمک کنند. به‌عنوان‌مثال، شرکت «آمازون» سوگیری جنسیتی را در شیوه‌های استخدام خود بررسی نکرده بود اما با آزمایش یک الگوریتم که رزومه‌های جدید را براساس شیوه‌های پیشین استخدام شرکت ارزیابی می‌کرد، به‌این‌موضوع پی برد. موروج گفت: الگوریتم‌ها می‌توانند سوگیری‌های انسانی را کدگذاری و تقویت کنند اما سوگیری‌های ساختاری را نیز در جامعه ما نشان می‌دهند. موروج و گروهش در پژوهش خود نشان‌ دادند که افراد معمولاً تمایل بیشتری را به تشخیص‌دادن و تصحیح کردن سوگیری‌های موجود در تصمیم‌گیری الگوریتم درمقایسه‌با تصمیم‌گیری خودشان دارند. آن‌ها باور دارند که با دانستن این‌موضوع ممکن است بتوان از الگوریتم‌ها برای رسیدگی به سوگیری‌های موجود در تصمیم‌گیری‌ها استفاده کرد. انسان‌ها به‌دلیل پدیده‌ای به‌نام «نقطه کور سوگیری»، برای دیدن سوگیری خود تلاش زیادی نمی‌کنند و بیشتر متوجه سوگیری افراد دیگر هستند. دلیل این‌است‌که ما می‌توانیم در فرآیندهای تصمیم‌گیری خود، سوگیری را توجیه کنیم یا برای آن بهانه بیاوریم. برای ناظری که هیچ اطلاعاتی درباره فرآیند فکری یا چگونگی تصمیم‌گیری ندارد، سوگیری‌ها واضح‌تر و بهانه‌جویی دشوارتر است. موروج و همکارانش دراین‌پژوهش نشان ‌دادند که حتی وقتی الگوریتم‌ها براساس رفتارهای ما آموزش داده می‌شوند نیز این‌موضوع صادق است. پژوهشگران در یک مجموعه آزمایش، از شرکت‌کنندگان خواستند تا سرویس «ایربی‌ان‌بی» و رانندگان «لیفت» را براساس معیارهای تشخیصی مانند تعداد ستاره‌ها، ارزیابی‌ها و مدت‌زمان حضورداشتن کنار راننده رتبه‌بندی کنند. پژوهشگران معیارهای غیرتشخیصی مانند تصویر یا نام را که هیچ ارتباطی با کار ندارند، دست‌کاری کردند. شرکت‌کنندگان دوبار رتبه‌بندی را انجام دادند و سپس، رتبه‌بندی‌های آن‌ها یا رتبه‌بندی الگوریتم آموزش‌داده‌شده نشان داده شد. ایسنا

ارسال دیدگاه شما

هفته‌نامه در یک نگاه
ویژه نامه
بالای صفحه