تیتر خبرهای این صفحه

حواشی طبیعی یک هوش مصنوعی!

پژوهشگاه علوم‌و‌فناوری اطلاعات ایران اعلام کرد که شاخص جهانی آمادگی دولت‌ها در‌زمینه هوش مصنوعی سال ۲۰۲۴ منتشر شد که ایران به سه پله ارتقا در‌مقایسه‌با سال ۲۰۲۳ در جایگاه ۹۱ جهان (با امتیاز کل 88.43) قرار دارد. بر‌پایه گزارش «شاخص جهانی آمادگی دولت در‌زمینه هوش مصنوعی» در سال ۲۰۲۴ که با مدیریت مؤسسه «آکسفورد اینسایتس» تهیه و نگاشته شده؛ ایران در جایگاه ۹۱ جهان است. در‌این‌گزارش، ۱۸۸ کشور ارزیابی و در سیاهه پایانی رتبه‌بندی شده‌اند. ایران در گزارش سال ۲۰۲۳ این شاخص، در رتبه ۹۴ جهان میان ۱۹۳ کشور جای گرفته بود. ظرفیت تحول‌آفرین هوش مصنوعی انکارناپذیر است و دولت‌ها در سراسر جهان تاثیر آن‌را به‌رسمیت شناخته‌اند. دولت‌ها نه‌تنها در‌تلاش برای تسهیل نوآوری‌های مرتبط با هوش مصنوعی و ایجاد چارچوب‌های نظارتی هستند؛ بلکه می‌کوشند این فناوری را در خدمات عمومی نیز به‌کار گیرند. با‌این‌حال، یافتن راه‌هایی برای اطمینان از پذیرش مؤثر هوش مصنوعی به‌نفع عموم مردم همچنان یک چالش است. «شاخص جهانی آمادگی دولت در‌زمینه هوش مصنوعی» به‌دنبال پاسخ به همین‌مسئله است. پرسش اصلی که این شاخص به آن پاسخ می‌دهد این‌است‌که دولت‌ها تا‌چه‌اندازه برای پیاده‌سازی هوش مصنوعی در ارائه خدمات عمومی به شهروندان خود آمادگی دارند؟ «شاخص جهانی آمادگی دولت در‌زمینه هوش مصنوعی» آمیزه‌ای از ۳۹ سنجه است که در ۱۰ شاخص و سه بُعد دسته‌بندی شدند. رتبه ایران در بُعد «دولت» ۱۴۶، در بُعد «فناوری» ۶۴؛ و در بُعد «داده و زیرساخت» ۷۰ جهان است.

زشت‌ و زیبای هوش مصنوعی
برخی از کارشناسان، فناوری هوش مصنوعی را پایان زندگی نسل فعلی می‌دانند. به‌گزارش باشگاه خبرنگاران جوان؛ اکثر مردم جهان خواسته یا ناخواسته از محصولات مبتنی‌بر هوش مصنوعی در زندگی روزمره خود استفاده می‌کنند. می‌توان به دستگاه‌ها و خدماتی مثل سیری برای بررسی آب‌وهوا یا دستیار صوتی الکسا برای انجام کارهای شخصی اشاره کرد. شخصیت‌هایی مانند استیون هاوکینگ و ایلان ماسک نیز با آگاهی از مزیت‌های این فناوری گاهی درباره تهدیدهای ناشی‌ازآن صحبت می‌کنند. ماسک در گفت‌وگوی دوسال‌پیش خود با نیویورک‌تایمز، هوش مصنوعی را باهوش‌تر از هوش انسانی دانست. به‌گفته مدیرعامل تسلا این فناوری تا سال ۲۰۲۵ از نسل بشر پیشی می‌گیرد. علی‌رغم پیش‌بینی او، برخی کارشناسان با نظر او مخالف بوده و هشدارهایی درباره خطرات هوش مصنوعی داده‌اند. اتومبیل‌های کاملاً الکتریکی و مبتنی‌بر هوش مصنوعی طبق برنامه‌ریزی ازپیش‌تعیین‌شده کار می‌کنند. پس ‌از تولید ماشین‌های خودران و گسترش نسبی آن‌ها در کشورها و کم‌رنگ‌شدن نقش راننده‌ها در هدایت خودروها، ترس تسلط هوش مصنوعی بر انسان به ذهن برخی از تحلیلگران رسید. البته برای رسیدن به‌این‌هدف، هوش مصنوعی علاوه‌بر نیازداشتن به هوشی شبیه انسان، باید آینده را پیش‌بینی و برای آن برنامه‌ریزی هم کند. تاکنون این‌امر میسر نبوده است و با وجود همه دستاوردها هوش مصنوعی قادر به انجام هیچ‌کدام از این‌ها نیست. به‌گفته متیو اوبراین مهندس رباتیک مؤسسه فناوری جورجیا هدف نهایی هوش مصنوعی عمومی مشخص نیست. او با اعلام پیدا‌نشدن روش ایجاد هوشی قابل‌انطباق عمومی، از کار روی ASI (ابرهوش مصنوعی) خبر داد. به‌گفته جورج مونتانز دانشمند داده مایکروسافت، توسعه یادگیری ماشینی و دستگاه‌های هوش مصنوعی و توانایی حل مشکلات و خدمات‌رسانی برخلاف برنامه‌ریزی‌شان با امکانات فعلی فعلاً دورازدسترس است. البته هوش مصنوعی درحال‌حاضر به درک خود و وضعیتمان کمک می‌کند. به‌گفته آنتونیو چلا استاد رباتیک دانشگاه پالرمو، محققان با وجود هوش مصنوعی و رباتیک موفق به شبیه‌سازی تئوری‌های آگاهی، احساسات، هوش و اخلاق در ربات‌ها شده‌اند. مدیر علوم یادگیری دانشگاه کالیفرنیای جنوبی به برخی از خطرات؛ ازجمله بهینه‌سازی بیش‌ازحد، سلاح سازی و فروپاشی زیست‌محیطی اشاره کرده. به‌گفته بن نای؛ شاید هوش مصنوعی برای بی‌ثبات‌سازی کشورها طراحی شده و انتشار تصادفی آن یکی از سناریوهای پروژه منهتن باشد. او دراین‌رابطه به حملات مبتنی‌بر ویروس بازیگران تحت‌حمایت دولت‌ها و فعالیت هکرهای ناشناس اشاره کرد. طبق گزارش‌ها، امسال هزینه جهانی هوش مصنوعی به ۴۳۴‌میلیارددلار می‌رسد. با رشد ۱۹.۶‌درصدی درآمد امسال بازار هوش مصنوعی شامل نرم‌افزار، سخت‌افزار و خدمات ۴۳۲.۸‌میلیارددلار است. براساس آمار شرکت بین‌المللی داده (IDC) ارزش این بازار سال بعد از ۵۰۰‌میلیارددلار عبور می‌کند. متخصصان هوش مصنوعی بر حل مشکلات کسب‌وکار ازجمله تقویت قدرت نیروی انسانی، بهبود فرآیندها، توسعه فرآیند برنامه‌ریزی و پیش‌بینی و افزایش قدرت تصمیم‌گیری متمرکز شده‌اند. به‌گفته ریتو جیوتی معاون گروه هوش مصنوعی جهانی و تحقیقات اتوماسیون در IDC؛ پیشرفت در فناوری‌ زبان، صدا و بینایی و راه‌حل‌های هوش مصنوعی چندوجهی، انقلابی در کارایی انسان ایجاد کرده است. با بالاتر رفتن کارایی نرم‌افزارهای مبتنی‌بر هوش مصنوعی بسیاری از هزینه‌های انجام فرآیندها کاهش می‌یابد. این‌روند تا سال ۲۰۲۳ ادامه خواهد داشت. نیمه اول پارسال ۴۷‌درصد از سرمایه‌گذاری‌ها به برنامه‌های کاربردی هوش مصنوعی و حدود ۳۵‌درصد سهم بازار به نرم‌افزار زیرساخت سیستم هوش مصنوعی اختصاص داشت. اسفندماه پارسال همایش «الزامات توسعه مدل زبانی بزرگ فارسی» با شعار «هوش مصنوعی، مولد قدرت حکومت‌ها» توسط ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک معاونت علمی در محل پژوهشگاه ارتباطات و فناوری اطلاعات برگزار شد و بهروز مینایی؛ دبیر وقت ستاد توسعه فناوری‌های هوش مصنوعی و رباتیک معاونت علمی، فناوری و اقتصاد دانش‌بنیان ریاست‌جمهوری درآن‌زمان به سیر تطور فناوری هوش مصنوعی تابه‌امروز پرداخت و گفت: «در دهه‌های ۱۹۷۰ تا ۱۹۸۰ سیستم‌های خبره (Expert systems)، فناوری غالب در دنیای هوش مصنوعی بود که به‌عنوان یک پایگاه دانشی عمل می‌کرد و برآمده از تلاش‌های محققان بود که اساساً کاری به حوزه تولید نداشت و بیشتر در پی تشخیص بود». به‌گفته او؛ در ۱۹۹۰ گام مهمی در حوزه AI برداشته شد و «داده‌کاوی» به میدان آمد. در‌این‌نسل از فناوری‌های هوش مصنوعی، دیگر نیازی نبود داده‌ها از یک متخصص گرفته شود و افراد تنها از رهگذر داده‌ها می‌توانستند به یک الگو برسند. مینایی، تفاوت «سیستم‌های خبره» با سیستم‌های «داده‌کاوی» را در میزان دقت آن‌ها خواند و توضیح داد: «سیستم‌های خبره از دقت بالاتری درمقایسه‌با سیستم‌های داده‌کاوی برخوردارند؛ درمقابل، داده‌کاوی‌ها، توان کار روی ‌داده‌های سنگین را دارا هستند». او به «سیستم‌های یادگیری عمیق» اشاره کرد و گفت: «این‌نوع سیستم‌ها در شناخت تصاویر به‌اندازه انسان توانایی دارند و می‌توانند لایه‌های مختلف از شبکه‌های عصبی را ایجاد کنند». به‌گفته او؛ در فاصله ۲۰۱۲ تا ۲۰۱۸ «سیستم مدل‌های زبانی» طراحی شد که این سیستم‌ها می‌توانند رابطه یک کلمه را در بستر اطرافش ببینند و بردارها را با هم نسبت‌سنجی کنند و این‌ نسبت‌سنجی‌ها می‌تواند درک مطلب را در‌این‌سیستم‌ها عمیق‌تر کند. مینایی، مزیت نسل جدید سیستم‌های هوش مصنوعی را درمقایسه‌با گذشته، محدود‌نبودن توان آن‌ها به یک دامنه خاص و افزایش توان افقی آن‌ها دانست که در مدارهای معنایی و درک مطلب از اهمیت بالایی برخوردار است. او بابیان‌اینکه LLMها سوگیری خاصی را ازنظر فرهنگی و ارزشی ایجاد می‌کنند، تصریح کرد: «یک‌نوع پلورالیسم عقیدتی و اجتماعی بر دنیای استفاده از LLMها حاکم است و طبق نوع پرسشی که در آن‌ها طرح شود، پاسخ‌هایی متفاوت ارائه می‌کنند؛ ازاین‌رو، مهم‌ترین سوگیری استفاده از LLMها، سوگیری داده است و دراین‌فضا، حکمرانی داده، یک ضرورت است و هر کشوری، داده بیشتری داشته باشد، از قدرت بیشتری برخوردار است و به‌همین‌دلیل ما باید LLM بومی خودمان را داشته باشیم». اردیبهشت‌ماه امسال مصطفی رفعت در روزنامه سایه نوشت: مانند هر پیشرفت فناورانه، ابزارهای «هوش مصنوعی مولد» مانند بات‌های مکالمه «چت‌جی‌پی‌تی» و «کلود»، ابزار تولیدکننده تصویر «میدجرنی» و ... نیز در کنار همه جنبه‌های خدماتی‌شان، به‌‌میزان فزاینده‌ای برای کلاه‌برداری و سوءاستفاده نیز استفاده می‌شود. در موج جدید تولید و نشر محتواهای مخرب، «دیپ‌فیک» به‌ویژه قابل‌توجه است؛ محصولات سمعی و بصری که به‌‌شکل «مصنوعی» تولید شده‌اند و تاکنون شامل کلاه‌برداری از رأی‌دهندگان ازطریق جعل هویت سیاستمداران یا ایجاد تصاویر مستهجن غیرمتعارف از افراد مشهور است. همان‌طورکه نظرسنجی اخیر «مایکروسافت» نشان داده، تقلب‌ها، کلاه‌برداری‌ها و سوءاستفاده‌ها چیزی‌ست‌که کاربران آنلاین در سراسر جهان بیشتر نگران آن هستند. 71‌درصد از پاسخ‌دهندگان در 17 کشوری که توسط «مایکروسافت» طیِ جولای و اوت 2023 موردبررسی قرار گرفتند، «بسیار» یا «تاحدودی» نگران کلاه‌برداری‌های به‌کمک هوش مصنوعی بودند. اگرچه آن‌ها توضیح بیشتری از ‌نوع کلاه‌برداری نداند؛ اما به‌احتمال‌زیاد «جعل هویت شخصی در انظار عمومی از یک مقام دولتی یا یکی از آشنایان» را مدنظر داشتند. در رتبه دوم و سوم نگرانی‌ها، «دیپ‌فیک» و «سوءاستفاده جنسی آنلاین» با 69‌درصد قرار دارد. مزخرفاتی که در قالب مستندات با پشتوانه‌ علمی، پژوهشی و تحقیقاتی در قالبِ «حقایق» به‌خورد جامعه داده می‌شود (تولیدی توسط چت‌بات‌ها) در رتبه چهارم قرار دارند؛ و نگرانی‌های مربوط به «حفظ حریم خصوصی داده‌ها» (62درصد) نیز در جایگاه بعدی‌ست. «سوگیری‌ها» در نتایج حاصل از تجزیه‌وتحلیلی که به‌واسطه هوش مصنوعی انجام شده با 60درصد دراین‌فهرست جزو رتبه‌های بالاست. کلاً 87‌درصدِ پاسخ‌دهندگان، حداقل «تاحدودی» نگران خلق یک سناریوی مشکل‌ساز متأثر از «هوش مصنوعی» و تبعات این فناوری بودند. روجا تحریری نوری نیز در ایسنا در مطلبی باعنوان نیمه تاریک «هوش مصنوعی مولد!» نوشت: همه درباره مشکل توهم ChatGPT شنیده‌ایم. مدل‌های زبانی بزرگ برای ارائه پاسخ‌های احتمالی طراحی شده‌اند که از داده‌های آموزشی می‌گیرند و می‌توانند کمی بیش‌ازاندازه نسبت به ارائه پاسخ مشتاق باشند. این‌ مشخص شده که مدل‌های زبانی بزرگ به‌جای گفتن «نمی‌دانم»، پاسخ‌هایی را درست می‌کنند و مشکلات بسیاری؛ از آسیب‌زنی به یک برند گرفته تا نقض مقررات به‌وجود می‌آورند. ایجاد حفاظ‌های اخلاقی و موضوعی برای مدل‌های مولد هوش مصنوعی می‌تواند به حل‌ این مشکل کمک کند. شاید مشکل سوگیری هوش مصنوعی، یک خبر قدیمی‌ست؛ اما گسترش سریع «هوش مصنوعی مولد» این نگرانی را بیش‌ازحد تصور تشدید کرده. اکنون، به‌جای نگرانی درمورد یک سوگیری کوچک، مدیران شرکت‌ها باید نگران باشند سوگیری هوش مصنوعی بتواند فرهنگ شرکت آن‌ها را به‌طورکامل تحت‌سلطه خود درآورد. آیا سهولت استفاده‌ از برنامه‌هایی مانند ChatGPT یعنی با توجه‌کردن به یک دیدگاه، تعدد صداهای ما خفه می‌شود؟ منتقدان ادعا کرده‌اند این نرم‌افزار یک سوگیری آشکار دارد که تعصبات جنسیتی را تداوم می‌بخشد و ذاتاً ازنظر نژادی مغرضانه عمل می‌کند. برای اطمینان‌یافتن از اینکه «هوش مصنوعی مولد» نمی‌تواند دیدگاه‌های سمی را در سازمان یا شرکت تداوم ببخشد، گروه مهندسی شرکت باید در تماس نزدیک با این‌موضوع باشد و تلاش کند ارزش‌های شرکتی و انسانی را به هوش مصنوعی القا کند. باتوجه‌به‌اینکه ایجاد محتوای جدید با «هوش مصنوعی مولد» بسیارآسان شده، غرق در اطلاعات شده‌ایم. ایمیل‌ها، کتاب‌های الکترونیکی، صفحات وب، پست‌های منتشرشده در رسانه‌های اجتماعی و سایر آثار تولیدشده، سیل اطلاعات را سرازیر می‌کنند. حجم درخواست‌های شغلی نیز افزایش یافته که به‌دلیل توانایی در تولید سریع رزومه‌های سفارشی‌سازی‌شده و نامه‌های پوششی با هوش مصنوعی‌ست. مدیریت این‌حجم از اطلاعات جدید، کار دشواری‌ست. چگونه می‌توان از کوه اطلاعات ایجادشده در سازمان استفاده کرد؟ چطور می‌توان همه اطلاعات را ذخیره کرد؟ چطوری باید با تحلیل داده‌ها همگام شد؟ وقتی همه محتوا با هوش مصنوعی تولیدشده، شایستگی اطلاعات و اشخاص چگونه ارزیابی می‌شود؟ «هوش مصنوعی مولد»، قابلیت انجام‌دادن حملات سایبری جدید را به‌شدت افزایش داده. از این فناوری می‌توان برای تحلیل رمز جهت افزایش آسیب‌پذیری و نوشتن بدافزار استفاده کرد. همچنین، می‌توان از «هوش مصنوعی مولد» برای تولید فیلم‌های جعلی و صداهای شبیه‌سازی‌شده به‌منظور کلاه‌برداری و آدم‌ربایی مجازی استفاده کرد. «هوش مصنوعی مولد» می‌تواند ایمیل‌های قانع‌کننده‌ای در‌حمایت‌از حملات فیشینگ و ... بنویسد. رمزهایی که با کمک هوش مصنوعی نوشته می‌شوند، ممکن است بیشتر از رمزهای تولیدشده توسط انسان درمعرض هک‌شدن باشند. بهترین راه مقابله با آتش، خود آتش است. هوش مصنوعی می‌تواند برای تحلیل‌کردن رمز در جستجوی آسیب‌پذیری‌ها و انجام آزمایش‌های نفوذ مداوم و بهبود مدل‌های دفاعی استفاده شود. نباید آسیب‌پذیری شماره‌یک امنیت سایبری را در شرکت فراموش کرد: انسان‌ها! شکایت‌های هنرمندان، نویسندگان، آژانس‌های عکس و ... نشان می‌دهد: داده‌ها و سبک‌های اختصاصی این‌افراد بدون اجازه آن‌ها برای آموزش‌دادن نرم‌افزار «هوش مصنوعی مولد» استفاده شده. شرکت‌هایی که از نرم‌افزار «هوش مصنوعی مولد» استفاده می‌کنند، نگران هستند که در این‌معضل گرفتار شوند. اگر «هوش مصنوعی مولد» تصاویری را از یک کمپین تبلیغاتی تولید کند که ناخواسته به حریم کار شخص دیگری وارد شود، مسئولیتش با چه‌کسی‌ست؟ اطلاعاتی که بااستفاده‌از آن ایجاد می‌شوند، متعلق به چه‌کسی‌اند؛ اشخاص، شرکت‌های نرم‌افزاری مولد هوش مصنوعی یا خود هوش مصنوعی؟ 

 

ارسال دیدگاه شما

هفته‌نامه در یک نگاه
ویژه نامه
بالای صفحه