رباتهای قاتل در عصر جنگ هوشمند
شاید در آینده، رباتهای قاتلی که در فیلمها میبینیم بتوانند با پیشرفت سریع در هوش مصنوعی تبدیل به واقعیت شوند. محققان معتقدند؛ باتوجهبه سرمایهگذاری هنگفت دولتی و بخش خصوصی در امر تولید رباتهای هوشمند جنگی، باید وجه منفی عملکرد این تجهیزات کشنده را نیز درنظر گرفت.
یک رویداد تازه در آمریکا باردیگر نگرانیها درباره دقت دستگاههای نظارتی مبتنیبر هوش مصنوعی در مدارس را افزایش داد. تاکی آلن؛ دانشآموز دبیرستانی، پس از تمرین فوتبال بیرون مدرسه نشسته و مشغول خوردن چیپس بود که ۲۰دقیقهبعد هشت خودروی پلیس مقابل او توقف کردند. او درگفتوگوبا یک شبکهی تلویزیونی گفت: «اول نمیدانستم چه خبر است. پلیسها با اسلحه به سمتم آمدند و گفتند روی زمین دراز بکش. فقط ایستاده بودم و چیپس میخوردم!» پلیس از آلن خواست زانو بزند؛ او را بازداشت و بازرسی کرد. آلن افزود: «مرا مجبور کردند زانو بزنم، دستهایم را پشتسر بگذارم و دستبند زدند. بعد فهمیدند هیچچیزی همراهم نیست و فقط همان بسته چیپس کنارم روی زمین افتاده است». بهگفته این دانشآموز؛ پسازآنکه مأموران تصویر هشداردهندهای را که سیستم هوش مصنوعی ثبت کرده بود نشان، متوجه شد که الگوریتم انگشت او را بهاشتباه بهعنوان اسلحه تشخیص داده است. او گفت: «در تصویر فقط بسته چیپس را در دست داشتم و یکی از انگشتهایم بیرون بود. آنها گفتند سیستم فکر کرده آن اسلحه است!» هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیمسازی نظامی تبدیل شده است؛ اما پرسش بنیادینی ایناستکه وقتی ماشینها در میدان نبرد تصمیم میگیرند، چهکسی پاسخگو خواهد بود؟ در دهه اخیر، ورود هوش مصنوعی به عرصه نظامی یکی از جنجالیترین و درعینحال تحولآفرینترین رویدادهای فناورانه قرن بیستویکم بوده است. این فناوری که زمانی صرفاً در تحلیل دادهها و پیشبینی الگوهای رفتاری کاربرد داشت، اکنون در قلب سامانههای دفاعی، اطلاعاتی و تهاجمی قدرتهای بزرگ جهان جای گرفته است. از سامانههای شناسایی تهدید و تحلیل میدان نبرد گرفته تا کنترل پهپادها و موشکهای هدایتشونده، هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیمسازی نظامی تبدیل شده است؛ اما پرسش بنیادینی همچنان دراینمیان مطرح است: وقتی ماشینها در میدان نبرد تصمیم میگیرند، چهکسی پاسخگو خواهد بود؟ آیا مرز میان اراده انسانی و منطق الگوریتمی از میان رفته است؟ پنی وونگ وزیر امور خارجه استرالیا در سخنرانی اخیر خود در شورای امنیت سازمان ملل، هشدار داد که استفاده از هوش مصنوعی در تسلیحات هستهای و سامانههای بدون سرنشین، نهتنها نظم امنیت جهانی بلکه اساس بقای بشریت را تهدید میکند. وونگ یادآور شد که تا امروز مهار جنگ هستهای بهواسطه قضاوت انسانی و وجدان اخلاقی رهبران ممکن شده است، اما هوش مصنوعی فاقد هرگونه احساس، قضاوت و مسئولیت است. بهگفته او، این فناوریها میتوانند بدون هشدار و بدون درک پیامد اقدامات، موجب تشدید غیرقابلپیشبینی درگیریها شوند. این نگرانی جهانی در قالب مفهومی موسوم به «شکاف مسئولیت» (Accountability Gap) بازتاب یافته؛ پدیدهای که اکنون در محافل حقوقی، نظامی و اخلاقی به یکی از بحثبرانگیزترین موضوعات عصر حاضر تبدیل شده است. هوش مصنوعی پدیدهای جدید نیست؛ قدمت این اصطلاح به دهه ۱۹۵۰ بازمیگردد، اما تحولات اخیر در یادگیری ماشین و شبکههای عصبی عملاً مرز میان تصمیمسازی انسانی و ماشینی را کمرنگ کردهاند. امروز هوش مصنوعی از شبیهسازیهای آموزشی و بازیهای جنگی گرفته تا سامانههای تصمیمیار در هدفگیری، هوش مصنوعی در ساختار عملیاتی نیروهای نظامی نفوذ کرده است. نمونه بحثبرانگیز اخیر، سامانه Lavender متعلق به رژیم اشغالگر قدس محسوب میشود که ارتش رژیم صهیونیستی از آن در نسلکشی شهروندان فلسطینی ساکن نوار غزه استفاده کرده است. براساس گزارشهای منتشرشده، این سامانه، مبتنیبر تحلیل دادههای کلان، فهرستی از اهداف بالقوه تولید میکرد که سپس در عملیات هوایی مورداستفاده قرار میگرفت. بهعقیده کارشناسان، اینقبیل کاربردهای هوش مصنوعی، در مرز میان فناوری و اخلاق حرکت میکنند، زیرا تصمیم درباره مرگ و زندگی را از انسان به الگوریتم میسپارند. ازسویدیگر، بسیاری از متخصصان براینباورندکه نباید تمام کاربردهای نظامی هوش مصنوعی را همسنگ دانست. بخش بزرگی از این فناوریها صرفاً برای آموزش، شبیهسازی، تحلیل اطلاعات و پشتیبانی لجستیکی استفاده میشوند؛ بنابراین، نقطه بحران دقیقاً در بخشی که هوش مصنوعی در فرآیند تصمیمگیری مرگبار دخالت مستقیم پیدا میکند. بحث «شکاف مسئولیت» زمانی مطرح میشود که یک سامانه هوشمند در جنگ مرتکب اشتباه شود؛ درچنینشرایطی باید به این پرسش بنیادین پاسخ داد که چهکسی باید مسئول اقدامات نظامی صورت گرفته باشد؟ رسانهها اینمسئله را با واژههایی همچون «رباتهای قاتل» دامن زدهاند، اما از دیدگاه تحلیلی، چنین گفتمانی بیشتر به اسطورهسازی شباهت دارد تا واقعیت فنی. حقیقت ایناستکه هیچ سامانه خودکاری تاکنون موضوع مسئولیت حقوقی نبوده است. مسئولیت همواره متوجه طراحان، مجریان و فرماندهان است و شامل ابزارها نمیشود. همانگونه که در پرونده رسوایی تخصیص اعتبار وام Robodebt در کشور استرالیا، نه سیستم محاسبهگر بدهی، بلکه دولت مسئول شناخته شد، در حوزه نظامی نیز پرسش از مسئولیت باید متوجه تصمیمگیرندگان انسانی باشد. اینامر بهدلیل آناستکه هوش مصنوعی خارج از سلسلهمراتب فرماندهی نظامی وجود ندارد. هر سیستم هوشمند، از طراحی تا استقرار، در چارچوب تصمیمهای انسانی ساخته و بهکار گرفته میشود؛ بنابراین، انتساب «مسئولیت» به خود سیستم، یک خطای مفهومی است و مسئله واقعی، شفافیت در زنجیره تصمیمسازی و تنظیمگری انسانها بهشمار میرود. هر سیستم پیچیدهای، ازجمله سامانههای هوش مصنوعی نظامی، در چرخهای متشکل از مراحل طراحی، توسعه، استقرار، بهرهبرداری و بازنشستگی عمل میکند. درهریکاز اینمراحل، انسانها تصمیمهایی میگیرند که بر قابلیتها و محدودیتهای سیستم تأثیر میگذارد. از مهندسان الگوریتم تا مقامات نظامی، هر حلقه از این زنجیره حامل بخشی از مسئولیت اخلاقی و عملیاتی است. درواقع، خطاهای سیستمهای هوشمند، بازتابی از تصمیمهای انسانی در طراحی و آموزش آنهاست. اگر سامانهای در جنگ اهداف غیرنظامی را اشتباه شناسایی میکند، مسئولیت به دادههای آموزشی، معیارهای هدفگیری و سیاستهای اجرایی بازمیگردد و هوش مصنوعی بهعنوان موجودی مستقل دراینفرایند مسئول نیست؛ بنابراین، مقرراتگذاری در حوزه تسلیحات مبتنیبر هوش مصنوعی دراصل باید بر انسانهای فعال در زنجیره بهکارگیری ابزار، شامل طراحان، تولیدکنندگان، ناظران، فرماندهان و کاربران نهایی متمرکز باشد. تدوین چارچوبهای نظارتی بدون درک این چرخه، دربهترینحالت ناکارآمد و دربدترینحالت خطرناک است. ادعای «تغییر ماهیت جنگ» توسط هوش مصنوعی تاحدودی اغراقآمیز است. جنگ درطولتاریخ، میدان ارادهها و قضاوتهای انسانی بوده است؛ تصمیماتی که نهتنها براساس داده و منطق، بلکه برمبنای ترس، امید، ایدئولوژی و قدرت اتخاذ میشوند. فناوریهای نوین صرفاً ابزارهایی هستند که این تصمیمات را سریعتر، دقیقتر و گاه بیرحمانهتر میسازند و بههیچوجه جایگزینی برای انسان نیستند. اگرچه هوش مصنوعی میتواند سرعت، دقت و حجم تحلیلهای اطلاعاتی را چندبرابر کند، اما هنوز در چارچوب اراده انسانی و منطق سیاستگذاری نظامی عمل میکند. دراینمیان، مسئله بنیادین نه حذف انسان از چرخه تصمیمگیری، بلکه «انتقال بار مسئولیت» از سطح عملیاتی به لایههای پیشینیتر یعنی طراحی، آموزش و تصمیمسازی الگوریتمی است. در جنگهای دادهمحور، اشتباهات اخلاقی و حقوقی غالباً پیش از شلیک اولین گلوله و هنگام انتخاب الگوریتمهای تشخیص هدف، تعریف آستانههای تصمیم، تنظیم دادههای آموزشی و تعیین قواعد درگیری شکل میگیرند. دراینساختار جدید، فرمانده میتواند درظاهر از صحنه تصمیمگیری کنار بایستد، درحالیکه خطا درون کدها و مدلها نهادینه شده است. ازاینمنظر، هوش مصنوعی نه ماهیت جنگ را بهطور ماهوی دگرگون میکند و نه از الزامهای اخلاقی میگریزد؛ بلکه لایههای مسئولیت را بازتوزیع میکند و میان خطوط کد، تصمیمات طراحی و فرمانهای اجرایی پنهان میسازد. بدینترتیب، خطر اصلی نه در هوشمندی ماشین، بلکه در بیتوجهی انسان به عمق اثرات تصمیمات فناورانه نهفته است. هوش مصنوعی، علیرغم تمام پیچیدگیهای فنی، فلسفی و اخلاقی، نه موجودی خودمختار است و نه بیوجدان؛ بلکه آینهای از انتخابها، سوگیریها و ارزشهای انسانی است که در طراحی، آموزش و استفاده از آن نقش دارند. مهر