حواشی طبیعی یک هوش مصنوعی!
پژوهشگاه علوموفناوری اطلاعات ایران اعلام کرد که شاخص جهانی آمادگی دولتها درزمینه هوش مصنوعی سال ۲۰۲۴ منتشر شد که ایران به سه پله ارتقا درمقایسهبا سال ۲۰۲۳ در جایگاه ۹۱ جهان (با امتیاز کل 88.43) قرار دارد. برپایه گزارش «شاخص جهانی آمادگی دولت درزمینه هوش مصنوعی» در سال ۲۰۲۴ که با مدیریت مؤسسه «آکسفورد اینسایتس» تهیه و نگاشته شده؛ ایران در جایگاه ۹۱ جهان است. دراینگزارش، ۱۸۸ کشور ارزیابی و در سیاهه پایانی رتبهبندی شدهاند. ایران در گزارش سال ۲۰۲۳ این شاخص، در رتبه ۹۴ جهان میان ۱۹۳ کشور جای گرفته بود. ظرفیت تحولآفرین هوش مصنوعی انکارناپذیر است و دولتها در سراسر جهان تاثیر آنرا بهرسمیت شناختهاند. دولتها نهتنها درتلاش برای تسهیل نوآوریهای مرتبط با هوش مصنوعی و ایجاد چارچوبهای نظارتی هستند؛ بلکه میکوشند این فناوری را در خدمات عمومی نیز بهکار گیرند. بااینحال، یافتن راههایی برای اطمینان از پذیرش مؤثر هوش مصنوعی بهنفع عموم مردم همچنان یک چالش است. «شاخص جهانی آمادگی دولت درزمینه هوش مصنوعی» بهدنبال پاسخ به همینمسئله است. پرسش اصلی که این شاخص به آن پاسخ میدهد ایناستکه دولتها تاچهاندازه برای پیادهسازی هوش مصنوعی در ارائه خدمات عمومی به شهروندان خود آمادگی دارند؟ «شاخص جهانی آمادگی دولت درزمینه هوش مصنوعی» آمیزهای از ۳۹ سنجه است که در ۱۰ شاخص و سه بُعد دستهبندی شدند. رتبه ایران در بُعد «دولت» ۱۴۶، در بُعد «فناوری» ۶۴؛ و در بُعد «داده و زیرساخت» ۷۰ جهان است.
زشت و زیبای هوش مصنوعی
برخی از کارشناسان، فناوری هوش مصنوعی را پایان زندگی نسل فعلی میدانند. بهگزارش باشگاه خبرنگاران جوان؛ اکثر مردم جهان خواسته یا ناخواسته از محصولات مبتنیبر هوش مصنوعی در زندگی روزمره خود استفاده میکنند. میتوان به دستگاهها و خدماتی مثل سیری برای بررسی آبوهوا یا دستیار صوتی الکسا برای انجام کارهای شخصی اشاره کرد. شخصیتهایی مانند استیون هاوکینگ و ایلان ماسک نیز با آگاهی از مزیتهای این فناوری گاهی درباره تهدیدهای ناشیازآن صحبت میکنند. ماسک در گفتوگوی دوسالپیش خود با نیویورکتایمز، هوش مصنوعی را باهوشتر از هوش انسانی دانست. بهگفته مدیرعامل تسلا این فناوری تا سال ۲۰۲۵ از نسل بشر پیشی میگیرد. علیرغم پیشبینی او، برخی کارشناسان با نظر او مخالف بوده و هشدارهایی درباره خطرات هوش مصنوعی دادهاند. اتومبیلهای کاملاً الکتریکی و مبتنیبر هوش مصنوعی طبق برنامهریزی ازپیشتعیینشده کار میکنند. پس از تولید ماشینهای خودران و گسترش نسبی آنها در کشورها و کمرنگشدن نقش رانندهها در هدایت خودروها، ترس تسلط هوش مصنوعی بر انسان به ذهن برخی از تحلیلگران رسید. البته برای رسیدن بهاینهدف، هوش مصنوعی علاوهبر نیازداشتن به هوشی شبیه انسان، باید آینده را پیشبینی و برای آن برنامهریزی هم کند. تاکنون اینامر میسر نبوده است و با وجود همه دستاوردها هوش مصنوعی قادر به انجام هیچکدام از اینها نیست. بهگفته متیو اوبراین مهندس رباتیک مؤسسه فناوری جورجیا هدف نهایی هوش مصنوعی عمومی مشخص نیست. او با اعلام پیدانشدن روش ایجاد هوشی قابلانطباق عمومی، از کار روی ASI (ابرهوش مصنوعی) خبر داد. بهگفته جورج مونتانز دانشمند داده مایکروسافت، توسعه یادگیری ماشینی و دستگاههای هوش مصنوعی و توانایی حل مشکلات و خدماترسانی برخلاف برنامهریزیشان با امکانات فعلی فعلاً دورازدسترس است. البته هوش مصنوعی درحالحاضر به درک خود و وضعیتمان کمک میکند. بهگفته آنتونیو چلا استاد رباتیک دانشگاه پالرمو، محققان با وجود هوش مصنوعی و رباتیک موفق به شبیهسازی تئوریهای آگاهی، احساسات، هوش و اخلاق در رباتها شدهاند. مدیر علوم یادگیری دانشگاه کالیفرنیای جنوبی به برخی از خطرات؛ ازجمله بهینهسازی بیشازحد، سلاح سازی و فروپاشی زیستمحیطی اشاره کرده. بهگفته بن نای؛ شاید هوش مصنوعی برای بیثباتسازی کشورها طراحی شده و انتشار تصادفی آن یکی از سناریوهای پروژه منهتن باشد. او دراینرابطه به حملات مبتنیبر ویروس بازیگران تحتحمایت دولتها و فعالیت هکرهای ناشناس اشاره کرد. طبق گزارشها، امسال هزینه جهانی هوش مصنوعی به ۴۳۴میلیارددلار میرسد. با رشد ۱۹.۶درصدی درآمد امسال بازار هوش مصنوعی شامل نرمافزار، سختافزار و خدمات ۴۳۲.۸میلیارددلار است. براساس آمار شرکت بینالمللی داده (IDC) ارزش این بازار سال بعد از ۵۰۰میلیارددلار عبور میکند. متخصصان هوش مصنوعی بر حل مشکلات کسبوکار ازجمله تقویت قدرت نیروی انسانی، بهبود فرآیندها، توسعه فرآیند برنامهریزی و پیشبینی و افزایش قدرت تصمیمگیری متمرکز شدهاند. بهگفته ریتو جیوتی معاون گروه هوش مصنوعی جهانی و تحقیقات اتوماسیون در IDC؛ پیشرفت در فناوری زبان، صدا و بینایی و راهحلهای هوش مصنوعی چندوجهی، انقلابی در کارایی انسان ایجاد کرده است. با بالاتر رفتن کارایی نرمافزارهای مبتنیبر هوش مصنوعی بسیاری از هزینههای انجام فرآیندها کاهش مییابد. اینروند تا سال ۲۰۲۳ ادامه خواهد داشت. نیمه اول پارسال ۴۷درصد از سرمایهگذاریها به برنامههای کاربردی هوش مصنوعی و حدود ۳۵درصد سهم بازار به نرمافزار زیرساخت سیستم هوش مصنوعی اختصاص داشت. اسفندماه پارسال همایش «الزامات توسعه مدل زبانی بزرگ فارسی» با شعار «هوش مصنوعی، مولد قدرت حکومتها» توسط ستاد توسعه فناوریهای هوش مصنوعی و رباتیک معاونت علمی در محل پژوهشگاه ارتباطات و فناوری اطلاعات برگزار شد و بهروز مینایی؛ دبیر وقت ستاد توسعه فناوریهای هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانشبنیان ریاستجمهوری درآنزمان به سیر تطور فناوری هوش مصنوعی تابهامروز پرداخت و گفت: «در دهههای ۱۹۷۰ تا ۱۹۸۰ سیستمهای خبره (Expert systems)، فناوری غالب در دنیای هوش مصنوعی بود که بهعنوان یک پایگاه دانشی عمل میکرد و برآمده از تلاشهای محققان بود که اساساً کاری به حوزه تولید نداشت و بیشتر در پی تشخیص بود». بهگفته او؛ در ۱۹۹۰ گام مهمی در حوزه AI برداشته شد و «دادهکاوی» به میدان آمد. درایننسل از فناوریهای هوش مصنوعی، دیگر نیازی نبود دادهها از یک متخصص گرفته شود و افراد تنها از رهگذر دادهها میتوانستند به یک الگو برسند. مینایی، تفاوت «سیستمهای خبره» با سیستمهای «دادهکاوی» را در میزان دقت آنها خواند و توضیح داد: «سیستمهای خبره از دقت بالاتری درمقایسهبا سیستمهای دادهکاوی برخوردارند؛ درمقابل، دادهکاویها، توان کار روی دادههای سنگین را دارا هستند». او به «سیستمهای یادگیری عمیق» اشاره کرد و گفت: «ایننوع سیستمها در شناخت تصاویر بهاندازه انسان توانایی دارند و میتوانند لایههای مختلف از شبکههای عصبی را ایجاد کنند». بهگفته او؛ در فاصله ۲۰۱۲ تا ۲۰۱۸ «سیستم مدلهای زبانی» طراحی شد که این سیستمها میتوانند رابطه یک کلمه را در بستر اطرافش ببینند و بردارها را با هم نسبتسنجی کنند و این نسبتسنجیها میتواند درک مطلب را دراینسیستمها عمیقتر کند. مینایی، مزیت نسل جدید سیستمهای هوش مصنوعی را درمقایسهبا گذشته، محدودنبودن توان آنها به یک دامنه خاص و افزایش توان افقی آنها دانست که در مدارهای معنایی و درک مطلب از اهمیت بالایی برخوردار است. او بابیاناینکه LLMها سوگیری خاصی را ازنظر فرهنگی و ارزشی ایجاد میکنند، تصریح کرد: «یکنوع پلورالیسم عقیدتی و اجتماعی بر دنیای استفاده از LLMها حاکم است و طبق نوع پرسشی که در آنها طرح شود، پاسخهایی متفاوت ارائه میکنند؛ ازاینرو، مهمترین سوگیری استفاده از LLMها، سوگیری داده است و دراینفضا، حکمرانی داده، یک ضرورت است و هر کشوری، داده بیشتری داشته باشد، از قدرت بیشتری برخوردار است و بههمیندلیل ما باید LLM بومی خودمان را داشته باشیم». اردیبهشتماه امسال مصطفی رفعت در روزنامه سایه نوشت: مانند هر پیشرفت فناورانه، ابزارهای «هوش مصنوعی مولد» مانند باتهای مکالمه «چتجیپیتی» و «کلود»، ابزار تولیدکننده تصویر «میدجرنی» و ... نیز در کنار همه جنبههای خدماتیشان، بهمیزان فزایندهای برای کلاهبرداری و سوءاستفاده نیز استفاده میشود. در موج جدید تولید و نشر محتواهای مخرب، «دیپفیک» بهویژه قابلتوجه است؛ محصولات سمعی و بصری که بهشکل «مصنوعی» تولید شدهاند و تاکنون شامل کلاهبرداری از رأیدهندگان ازطریق جعل هویت سیاستمداران یا ایجاد تصاویر مستهجن غیرمتعارف از افراد مشهور است. همانطورکه نظرسنجی اخیر «مایکروسافت» نشان داده، تقلبها، کلاهبرداریها و سوءاستفادهها چیزیستکه کاربران آنلاین در سراسر جهان بیشتر نگران آن هستند. 71درصد از پاسخدهندگان در 17 کشوری که توسط «مایکروسافت» طیِ جولای و اوت 2023 موردبررسی قرار گرفتند، «بسیار» یا «تاحدودی» نگران کلاهبرداریهای بهکمک هوش مصنوعی بودند. اگرچه آنها توضیح بیشتری از نوع کلاهبرداری نداند؛ اما بهاحتمالزیاد «جعل هویت شخصی در انظار عمومی از یک مقام دولتی یا یکی از آشنایان» را مدنظر داشتند. در رتبه دوم و سوم نگرانیها، «دیپفیک» و «سوءاستفاده جنسی آنلاین» با 69درصد قرار دارد. مزخرفاتی که در قالب مستندات با پشتوانه علمی، پژوهشی و تحقیقاتی در قالبِ «حقایق» بهخورد جامعه داده میشود (تولیدی توسط چتباتها) در رتبه چهارم قرار دارند؛ و نگرانیهای مربوط به «حفظ حریم خصوصی دادهها» (62درصد) نیز در جایگاه بعدیست. «سوگیریها» در نتایج حاصل از تجزیهوتحلیلی که بهواسطه هوش مصنوعی انجام شده با 60درصد دراینفهرست جزو رتبههای بالاست. کلاً 87درصدِ پاسخدهندگان، حداقل «تاحدودی» نگران خلق یک سناریوی مشکلساز متأثر از «هوش مصنوعی» و تبعات این فناوری بودند. روجا تحریری نوری نیز در ایسنا در مطلبی باعنوان نیمه تاریک «هوش مصنوعی مولد!» نوشت: همه درباره مشکل توهم ChatGPT شنیدهایم. مدلهای زبانی بزرگ برای ارائه پاسخهای احتمالی طراحی شدهاند که از دادههای آموزشی میگیرند و میتوانند کمی بیشازاندازه نسبت به ارائه پاسخ مشتاق باشند. این مشخص شده که مدلهای زبانی بزرگ بهجای گفتن «نمیدانم»، پاسخهایی را درست میکنند و مشکلات بسیاری؛ از آسیبزنی به یک برند گرفته تا نقض مقررات بهوجود میآورند. ایجاد حفاظهای اخلاقی و موضوعی برای مدلهای مولد هوش مصنوعی میتواند به حل این مشکل کمک کند. شاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمیست؛ اما گسترش سریع «هوش مصنوعی مولد» این نگرانی را بیشازحد تصور تشدید کرده. اکنون، بهجای نگرانی درمورد یک سوگیری کوچک، مدیران شرکتها باید نگران باشند سوگیری هوش مصنوعی بتواند فرهنگ شرکت آنها را بهطورکامل تحتسلطه خود درآورد. آیا سهولت استفاده از برنامههایی مانند ChatGPT یعنی با توجهکردن به یک دیدگاه، تعدد صداهای ما خفه میشود؟ منتقدان ادعا کردهاند این نرمافزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم میبخشد و ذاتاً ازنظر نژادی مغرضانه عمل میکند. برای اطمینانیافتن از اینکه «هوش مصنوعی مولد» نمیتواند دیدگاههای سمی را در سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با اینموضوع باشد و تلاش کند ارزشهای شرکتی و انسانی را به هوش مصنوعی القا کند. باتوجهبهاینکه ایجاد محتوای جدید با «هوش مصنوعی مولد» بسیارآسان شده، غرق در اطلاعات شدهایم. ایمیلها، کتابهای الکترونیکی، صفحات وب، پستهای منتشرشده در رسانههای اجتماعی و سایر آثار تولیدشده، سیل اطلاعات را سرازیر میکنند. حجم درخواستهای شغلی نیز افزایش یافته که بهدلیل توانایی در تولید سریع رزومههای سفارشیسازیشده و نامههای پوششی با هوش مصنوعیست. مدیریت اینحجم از اطلاعات جدید، کار دشواریست. چگونه میتوان از کوه اطلاعات ایجادشده در سازمان استفاده کرد؟ چطور میتوان همه اطلاعات را ذخیره کرد؟ چطوری باید با تحلیل دادهها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولیدشده، شایستگی اطلاعات و اشخاص چگونه ارزیابی میشود؟ «هوش مصنوعی مولد»، قابلیت انجامدادن حملات سایبری جدید را بهشدت افزایش داده. از این فناوری میتوان برای تحلیل رمز جهت افزایش آسیبپذیری و نوشتن بدافزار استفاده کرد. همچنین، میتوان از «هوش مصنوعی مولد» برای تولید فیلمهای جعلی و صداهای شبیهسازیشده بهمنظور کلاهبرداری و آدمربایی مجازی استفاده کرد. «هوش مصنوعی مولد» میتواند ایمیلهای قانعکنندهای درحمایتاز حملات فیشینگ و ... بنویسد. رمزهایی که با کمک هوش مصنوعی نوشته میشوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان درمعرض هکشدن باشند. بهترین راه مقابله با آتش، خود آتش است. هوش مصنوعی میتواند برای تحلیلکردن رمز در جستجوی آسیبپذیریها و انجام آزمایشهای نفوذ مداوم و بهبود مدلهای دفاعی استفاده شود. نباید آسیبپذیری شمارهیک امنیت سایبری را در شرکت فراموش کرد: انسانها! شکایتهای هنرمندان، نویسندگان، آژانسهای عکس و ... نشان میدهد: دادهها و سبکهای اختصاصی اینافراد بدون اجازه آنها برای آموزشدادن نرمافزار «هوش مصنوعی مولد» استفاده شده. شرکتهایی که از نرمافزار «هوش مصنوعی مولد» استفاده میکنند، نگران هستند که در اینمعضل گرفتار شوند. اگر «هوش مصنوعی مولد» تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیتش با چهکسیست؟ اطلاعاتی که بااستفادهاز آن ایجاد میشوند، متعلق به چهکسیاند؛ اشخاص، شرکتهای نرمافزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟