ربات‌های قاتل در عصر جنگ هوشمند

شاید در آینده، ربات‌های قاتلی که در فیلم‌ها می‌بینیم بتوانند با پیشرفت سریع در هوش مصنوعی تبدیل به واقعیت شوند. محققان معتقدند؛ با‌توجه‌به سرمایه‌گذاری‌ هنگفت دولتی و بخش خصوصی در امر تولید ربات‌های هوشمند جنگی، باید وجه منفی عملکرد این تجهیزات کشنده را نیز در‌نظر گرفت.

یک رویداد تازه در آمریکا باردیگر نگرانی‌ها درباره‌ دقت دستگاه‌های نظارتی مبتنی‌بر هوش مصنوعی در مدارس را افزایش داد. تاکی آلن؛ دانش‌آموز دبیرستانی، پس از تمرین فوتبال بیرون مدرسه نشسته و مشغول خوردن چیپس بود که ۲۰‌دقیقه‌بعد هشت خودروی پلیس مقابل او توقف کردند. او درگفت‌وگوبا یک شبکه‌ی تلویزیونی گفت: «اول نمی‌دانستم چه خبر است. پلیس‌ها با اسلحه به سمتم آمدند و گفتند روی زمین دراز بکش. فقط ایستاده بودم و چیپس می‌خوردم!» پلیس از آلن خواست زانو بزند؛ او را بازداشت و بازرسی کرد. آلن افزود: «مرا مجبور کردند زانو بزنم، دست‌هایم را پشت‌سر بگذارم و دستبند زدند. بعد فهمیدند هیچ‌چیزی همراهم نیست و فقط همان بسته چیپس کنارم روی زمین افتاده است». به‌گفته‌ این دانش‌آموز؛ پس‌از‌آنکه مأموران تصویر هشداردهنده‌ای را که سیستم هوش مصنوعی ثبت کرده بود نشان، متوجه شد که الگوریتم انگشت او را به‌اشتباه به‌عنوان اسلحه تشخیص داده است. او گفت: «در تصویر فقط بسته‌ چیپس را در دست داشتم و یکی از انگشت‌هایم بیرون بود. آن‌ها گفتند سیستم فکر کرده آن اسلحه است!» هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیم‌سازی نظامی تبدیل شده است؛ اما پرسش بنیادینی این‌است‌که وقتی ماشین‌ها در میدان نبرد تصمیم می‌گیرند، چه‌کسی پاسخ‌گو خواهد بود؟ در دهه اخیر، ورود هوش مصنوعی به عرصه نظامی یکی از جنجالی‌ترین و درعین‌حال تحول‌آفرین‌ترین رویدادهای فناورانه قرن بیست‌ویکم بوده است. این فناوری که زمانی صرفاً در تحلیل داده‌ها و پیش‌بینی الگوهای رفتاری کاربرد داشت، اکنون در قلب سامانه‌های دفاعی، اطلاعاتی و تهاجمی قدرت‌های بزرگ جهان جای گرفته است. از سامانه‌های شناسایی تهدید و تحلیل میدان نبرد گرفته تا کنترل پهپادها و موشک‌های هدایت‌شونده، هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیم‌سازی نظامی تبدیل شده است؛ اما پرسش بنیادینی همچنان دراین‌میان مطرح است: وقتی ماشین‌ها در میدان نبرد تصمیم می‌گیرند، چه‌کسی پاسخ‌گو خواهد بود؟ آیا مرز میان اراده انسانی و منطق الگوریتمی از میان رفته است؟ پنی وونگ وزیر امور خارجه استرالیا در سخنرانی اخیر خود در شورای امنیت سازمان ملل، هشدار داد که استفاده از هوش مصنوعی در تسلیحات هسته‌ای و سامانه‌های بدون سرنشین، نه‌تنها نظم امنیت جهانی بلکه اساس بقای بشریت را تهدید می‌کند. وونگ یادآور شد که تا امروز مهار جنگ هسته‌ای به‌واسطه قضاوت انسانی و وجدان اخلاقی رهبران ممکن شده است، اما هوش مصنوعی فاقد هرگونه احساس، قضاوت و مسئولیت است. به‌گفته او، این فناوری‌ها می‌توانند بدون هشدار و بدون درک پیامد اقدامات، موجب تشدید غیرقابل‌پیش‌بینی درگیری‌ها شوند. این نگرانی جهانی در قالب مفهومی موسوم به «شکاف مسئولیت» (Accountability Gap) بازتاب یافته؛ پدیده‌ای که اکنون در محافل حقوقی، نظامی و اخلاقی به یکی از بحث‌برانگیزترین موضوعات عصر حاضر تبدیل شده است. هوش مصنوعی پدیده‌ای جدید نیست؛ قدمت این اصطلاح به دهه ۱۹۵۰ بازمی‌گردد، اما تحولات اخیر در یادگیری ماشین و شبکه‌های عصبی عملاً مرز میان تصمیم‌سازی انسانی و ماشینی را کمرنگ کرده‌اند. امروز هوش مصنوعی از شبیه‌سازی‌های آموزشی و بازی‌های جنگی گرفته تا سامانه‌های تصمیم‌یار در هدف‌گیری، هوش مصنوعی در ساختار عملیاتی نیروهای نظامی نفوذ کرده است. نمونه بحث‌برانگیز اخیر، سامانه Lavender متعلق به رژیم اشغالگر قدس محسوب می‌شود که ارتش رژیم صهیونیستی از آن در نسل‌کشی شهروندان فلسطینی ساکن نوار غزه استفاده کرده است. براساس گزارش‌های منتشرشده، این سامانه، مبتنی‌بر تحلیل داده‌های کلان، فهرستی از اهداف بالقوه تولید می‌کرد که سپس در عملیات هوایی مورداستفاده قرار می‌گرفت. به‌عقیده کارشناسان، این‌قبیل کاربردهای هوش مصنوعی، در مرز میان فناوری و اخلاق حرکت می‌کنند، زیرا تصمیم درباره مرگ و زندگی را از انسان به الگوریتم می‌سپارند. ازسوی‌دیگر، بسیاری از متخصصان براین‌باورندکه نباید تمام کاربردهای نظامی هوش مصنوعی را همسنگ دانست. بخش بزرگی از این فناوری‌ها صرفاً برای آموزش، شبیه‌سازی، تحلیل اطلاعات و پشتیبانی لجستیکی استفاده می‌شوند؛ بنابراین، نقطه بحران دقیقاً در بخشی که هوش مصنوعی در فرآیند تصمیم‌گیری مرگبار دخالت مستقیم پیدا می‌کند. بحث «شکاف مسئولیت» زمانی مطرح می‌شود که یک سامانه هوشمند در جنگ مرتکب اشتباه شود؛ درچنین‌شرایطی باید به این پرسش بنیادین پاسخ داد که چه‌کسی باید مسئول اقدامات نظامی صورت گرفته باشد؟ رسانه‌ها این‌مسئله را با واژه‌هایی همچون «ربات‌های قاتل» دامن زده‌اند، اما از دیدگاه تحلیلی، چنین گفتمانی بیشتر به اسطوره‌سازی شباهت دارد تا واقعیت فنی. حقیقت این‌است‌که هیچ سامانه خودکاری تاکنون موضوع مسئولیت حقوقی نبوده است. مسئولیت همواره متوجه طراحان، مجریان و فرماندهان است و شامل ابزارها نمی‌شود. همان‌گونه که در پرونده رسوایی تخصیص اعتبار وام Robodebt در کشور استرالیا، نه سیستم محاسبه‌گر بدهی، بلکه دولت مسئول شناخته شد، در حوزه نظامی نیز پرسش از مسئولیت باید متوجه تصمیم‌گیرندگان انسانی باشد. این‌امر به‌دلیل آن‌است‌که هوش مصنوعی خارج از سلسله‌مراتب فرماندهی نظامی وجود ندارد. هر سیستم هوشمند، از طراحی تا استقرار، در چارچوب تصمیم‌های انسانی ساخته و به‌کار گرفته می‌شود؛ بنابراین، انتساب «مسئولیت» به خود سیستم، یک خطای مفهومی است و مسئله واقعی، شفافیت در زنجیره تصمیم‌سازی و تنظیم‌گری انسان‌ها به‌شمار می‌رود. هر سیستم پیچیده‌ای، ازجمله سامانه‌های هوش مصنوعی نظامی، در چرخه‌ای متشکل از مراحل طراحی، توسعه، استقرار، بهره‌برداری و بازنشستگی عمل می‌کند. درهریک‌از این‌مراحل، انسان‌ها تصمیم‌هایی می‌گیرند که بر قابلیت‌ها و محدودیت‌های سیستم تأثیر می‌گذارد. از مهندسان الگوریتم تا مقامات نظامی، هر حلقه از این زنجیره حامل بخشی از مسئولیت اخلاقی و عملیاتی است. درواقع، خطاهای سیستم‌های هوشمند، بازتابی از تصمیم‌های انسانی در طراحی و آموزش آن‌هاست. اگر سامانه‌ای در جنگ اهداف غیرنظامی را اشتباه شناسایی می‌کند، مسئولیت به داده‌های آموزشی، معیارهای هدف‌گیری و سیاست‌های اجرایی بازمی‌گردد و هوش مصنوعی به‌عنوان موجودی مستقل دراین‌فرایند مسئول نیست؛ بنابراین، مقررات‌گذاری در حوزه تسلیحات مبتنی‌بر هوش مصنوعی دراصل باید بر انسان‌های فعال در زنجیره به‌کارگیری ابزار، شامل طراحان، تولیدکنندگان، ناظران، فرماندهان و کاربران نهایی متمرکز باشد. تدوین چارچوب‌های نظارتی بدون درک این چرخه، دربهترین‌حالت ناکارآمد و دربدترین‌حالت خطرناک است. ادعای «تغییر ماهیت جنگ» توسط هوش مصنوعی تاحدودی اغراق‌آمیز است. جنگ درطول‌تاریخ، میدان اراده‌ها و قضاوت‌های انسانی بوده است؛ تصمیماتی که نه‌تنها براساس داده و منطق، بلکه برمبنای ترس، امید، ایدئولوژی و قدرت اتخاذ می‌شوند. فناوری‌های نوین صرفاً ابزارهایی هستند که این تصمیمات را سریع‌تر، دقیق‌تر و گاه بی‌رحمانه‌تر می‌سازند و به‌هیچ‌وجه جایگزینی برای انسان نیستند. اگرچه هوش مصنوعی می‌تواند سرعت، دقت و حجم تحلیل‌های اطلاعاتی را چندبرابر کند، اما هنوز در چارچوب اراده انسانی و منطق سیاست‌گذاری نظامی عمل می‌کند. دراین‌میان، مسئله بنیادین نه حذف انسان از چرخه تصمیم‌گیری، بلکه «انتقال بار مسئولیت» از سطح عملیاتی به لایه‌های پیشینی‌تر یعنی طراحی، آموزش و تصمیم‌سازی الگوریتمی است. در جنگ‌های داده‌محور، اشتباهات اخلاقی و حقوقی غالباً پیش از شلیک اولین گلوله و هنگام انتخاب الگوریتم‌های تشخیص هدف، تعریف آستانه‌های تصمیم، تنظیم داده‌های آموزشی و تعیین قواعد درگیری شکل می‌گیرند. دراین‌ساختار جدید، فرمانده می‌تواند درظاهر از صحنه تصمیم‌گیری کنار بایستد، درحالی‌که خطا درون کدها و مدل‌ها نهادینه شده است. ازاین‌منظر، هوش مصنوعی نه ماهیت جنگ را به‌طور ماهوی دگرگون می‌کند و نه از الزام‌های اخلاقی می‌گریزد؛ بلکه لایه‌های مسئولیت را بازتوزیع می‌کند و میان خطوط کد، تصمیمات طراحی و فرمان‌های اجرایی پنهان می‌سازد. بدین‌ترتیب، خطر اصلی نه در هوشمندی ماشین، بلکه در بی‌توجهی انسان به عمق اثرات تصمیمات فناورانه نهفته است. هوش مصنوعی، علی‌رغم تمام پیچیدگی‌های فنی، فلسفی و اخلاقی، نه موجودی خودمختار است و نه بی‌وجدان؛ بلکه آینه‌ای از انتخاب‌ها، سوگیری‌ها و ارزش‌های انسانی است که در طراحی، آموزش و استفاده از آن نقش دارند. مهر

ارسال دیدگاه شما

هفته‌نامه در یک نگاه
ویژه نامه
بالای صفحه