ﺳﻪشنبه, 13 آذر 1403 2024,December

پیشرفت‌های ترسناک «هوش مصنوعی» که ممکن است در سال ۲۰۲۴ اتفاق بیافتند

11 دی 1402
پیشرفت‌های ترسناک «هوش مصنوعی» که ممکن است در سال ۲۰۲۴ اتفاق بیافتند

اگرچه سال ۲۰۲۳ برای هوش مصنوعی، سال سرنوشت‌سازی بود، اما این فقط آغاز کار بود، چون قرار است سال ۲۰۲۴ با مجموعه‌ای از پیشرفت‌های غیرمنتظره آغاز شود که احتمالاً شامل هوش عمومی مصنوعی و حتی دیپ‌فیک‌های واقعی‌تر می‌شود.

به گزارش بانک اول هوش مصنوعی یا AI دهه‌هاست وجود دارد، اما امسال برای این فن‌آوری شبح‌وار، با معرفیChatGPT که هوش مصنوعی را برای همه قابل‌دسترس و کاربردی کرد، تازه شروع کار بود. با این حال، هوش مصنوعی یک تاریخچه پرماجرا دارد و پیش از فناوری امروزی، سابقه‌ای از آزمایشات ناموفق داشته است. 

در بیشتر موارد، به نظر می‌رسد نوآوری‌های هوش مصنوعی مواردی مانند تشخیص پزشکی و اکتشافات علمی را بهبود بخشیده است. برای مثال، یک مدل هوش مصنوعی می‌تواند با تجزیه و تحلیل اسکن اشعه X تشخیص دهد شما در معرض خطر بالای ابتلا به سرطان ریه هستید یا خیر. در جریان کووید-۱۹، دانشمندان الگوریتمی ساختند که می‌توانست با گوش دادن به تفاوت‌های ظریف در صدای سرفه‌های افراد، ویروس را تشخیص دهد. هوش مصنوعی برای طراحی آزمایشات فیزیک کوانتومی فراتر از آنچه انسان‌ها تصور کرده‌اند هم استفاده شده است. 

اما همه نوآوری‌های هوش مصنوعی بی‌خطر نیستند. از سلاح‌های کشنده گرفته تا هوش مصنوعی که آینده اخلاقی بشریت را تهدید می‌کند. در این مطلب، شما را با برخی از ترسناک‌ترین پیشرفت‌های هوش مصنوعی که احتمالاً در سال ۲۰۲۴ اتفاق می‌افتد، آشنا می‌کنیم. 

کیو اِستار (Q*) عصر هوش عمومی مصنوعی (AGI) 

ما دقیقاً نمیدانیم چرا سام آلتمن، مدیر عامل OpenAI اواخر سال ۲۰۲۳ برکنار شد و دوباره به سمت خود بازگردانده شد. اما در بحبوحه هرج و مرج شرکتی در OpenAI، شایعاتی در مورد فناوری پیشرفته‌ای به گوش رسید که می‌تواند آینده بشریت را تهدید کند. رویترز گزارش داد سیستم OpenAI به نام Q* (Q-star) که «کیو اِستار» خوانده می‌شود، ممکن است تحقق بالقوه پیشگامانه هوش عمومی مصنوعی (AGI) را تجسم بخشد. اطلاعات کمی در مورد این سیستم مرموز وجود دارد، اما اگر گزارشات درست باشد، این سیستم می‌تواند قابلیت‌های هوش مصنوعی را چندین درجه افزایش دهد. 

AGI یک نقطه اوج فرضی است که به «Singularity» نیز شناخته می‌شود که در آن، هوش مصنوعی از انسان هوشمندتر می‌شود. نسل‌های فعلیِ هوش مصنوعی هنوز در زمینه‌هایی که انسان‌ها در آن برتری دارند، مانند استدلال مبتنی بر زمینه و خلاقیت اصیل، عقب مانده‌اند. بیشتر محتوای تولیدشده توسط هوش مصنوعی، اگر نگوییم همه‌ی آن، فقط رجعت به گذشته است. 

اما دانشمندان می‌گویند AGI به طور بالقوه می‌تواند کارهای خاصی را بهتر از بسیاری از افراد انجام دهد. همچنین می‌توان از آن برای ایجاد عوامل بیماری‌زا، شروع حملات سایبری گسترده یا سازمان‌دهی دستکاری افکار عمومی استفاده کرد. 

ایده AGI مدتهاست به داستانهای علمی تخیلی محدود شده و بسیاری از دانشمندان معتقدند که ما هرگز به این نقطه نخواهیم رسید. رسیدن به این نقطه اوج برای OpenAI، بدون‌شک تعجب‌آور است، اما فراتر از محدوده احتمالات نیست. برای مثال، می‌دانیم سَم آلتمَن در فوریه ۲۰۲۳ در حال ایجاد زمینه برای AGI بود و رویکرد OpenAI به AGI را در یک پست وبلاگی طرح‌ریزی کرده بود. همچنین می‌دانیم کارشناسان شروع به پیش‌بینی یک پیشرفت قریب‌الوقوع کرده‌اند، از جمله جِنسِن هوآنگ، مدیرعامل Nvidia که ماه نوامبر گفت AGI در پنج سال آینده در دسترس خواهد بود. آیا سال ۲۰۲۴ می‌تواند سال شروع AGI باشد؟ فقط زمان مشخص می‌کند! 

دیپ‌فیک‌های فراواقع‌گرایانه

یکی از مهم‌ترین تهدیدهای سایبری، دیپ‌فیک است، تصاویر یا ویدیوهای کاملاً ساختگی از افراد که ممکن است آن‌ها را نادرست معرفی کند، آن‌ها را متهم کند یا به آن‌ها ظلم کند. فناوری دیپ‌فیک هوش مصنوعی هنوز به اندازه کافی خوب نیست که یک تهدید مهم محسوب شود، اما این ضعف ممکن است در شرف تغییر باشد. 

اکنون هوش مصنوعی می‌تواند دیپ‌فیک‌های زنده ایجاد کند، به بیان دیگر محتواهای ویدیویی زنده و اکنون در تولید چهره‌های انسانی آنقدر خوب شده که مردم دیگر نمی‌توانند تفاوت واقعی یا جعلی را تشخیص دهند. 

این امر عملاً تشخیص واقعیت از خیال را با چشم غیرمسلح برای مردم غیرممکن می‌کند. اگرچه ابزارها می‌توانند به افراد کمک کنند دیپ‌فیک‌ها را شناسایی کنند، اما این ابزارها هنوز در دسترس عموم نیستند.

همزمان با بالغ شدن هوش مصنوعی مولد، یک احتمال ترسناک این است که مردم از دیپ‌فیک برای تغییر نتایج انتخابات استفاده کنند. برای مثال، فاینَنشیال تایمز گزارش داد بنگلادش خود را برای انتخاباتی در ژانویه آماده می‌کند که توسط دیپ‌فیک مختل خواهد شد. از آنجا که ایالات متحده نیز برای انتخابات ریاست جمهوری در نوامبر ۲۰۲۴ آماده می‌شود، این احتمال وجود دارد که هوش مصنوعی و دیپ‌فیک بتوانند نتیجه انتخابات را تغییر دهند. برای مثال، UC Berkeley استفاده از هوش مصنوعی را در مبارزات انتخاباتی زیر نظر دارد و NBC News هم گزارش داده است که بسیاری از ایالت‌ها فاقد قوانین یا ابزار لازم برای رسیدگی به هرگونه هجوم اطلاعات نادرست تولیدشده توسط هوش مصنوعی هستند. 

روبات‌های قاتل با هوش مصنوعی

دولت‌های سراسر جهان به طور فزاینده‌ای هوش مصنوعی را وارد ابزارهای جنگی کرده‌اند. دولت ایالات متحده روز ۲۲ نوامبر اعلام کرد ۴۷ ایالت بیانیه‌ای را در مورد استفاده مسئولانه از هوش مصنوعی در ارتش تایید کرده‌اند که نخستین بار در ماه فوریه در لاهه ارائه شد. چرا صدور چنین اعلامیه‌ای لازم بود؟ چون استفاده «غیرمسئولانه» یک چشم‌انداز واقعی و وحشتناک است. برای مثال، ما پهپادهای هوش مصنوعی را دیده‌ایم که گفته می‌شود سربازان را در لیبی تعقیب می‌کنند بدون اینکه نیروی انسانی در کار باشد. 

هوش مصنوعی می‌تواند الگوها را تشخیص دهد، خودآموزی کند، پیش‌بینی کند یا توصیه‌هایی در زمینه‌های نظامی کند و مسابقه تسلیحاتی هوش مصنوعی در حال حاضر در جریان است. سال ۲۰۲۴، این احتمال وجود دارد که ما نه تنها شاهد استفاده از هوش مصنوعی در سیستم‌های تسلیحاتی، بلکه در سیستم‌های تدارکات لشکرکشی و پشتیبانی تصمیم، همینطور تحقیق و توسعه هم باشیم. برای نمونه، سال ۲۰۲۲، هوش مصنوعی ۴۰۰۰۰ سلاح شیمیایی جدید و فرضی تولید کرد. شاخه‌های مختلف ارتش آمریکا پهپادهایی سفارش داده‌اند که می‌توانند تشخیص هدف و ردیابی نبرد را بهتر از انسان انجام دهند. رژیم صهیونیستی نیز از هوش مصنوعی برای شناسایی سریع اهداف حداقل ۵۰ برابر سریعتر از انسان در آخرین جنگ با حماس استفاده کرده است. 

اما یکی از ترسناک‌ترین حوزه‌های پیشرفت هوش مصنوعی، سیستم‌های تسلیحاتی مرگبار (LAWS) یا روبات‌های قاتل است. چندین دانشمند و فن‌شناس برجسته نسبت به روبات‌های قاتل هشدار داده‌اند، از جمله استیون هاوکینگ در سال ۲۰۱۵ و ایلان ماسک در سال ۲۰۱۷، اما این فناوری هنوز در مقیاس انبوه محقق نشده است. 

با این حال، برخی از پیشرفت‌های نگران‌کننده نشان می‌دهد که امسال ممکن است سال شروع به کار روبات‌های قاتل باشد. برای مثال استرالیا سیستم Ghost Shark را توسعه داده است: یک سیستم زیردریایی خودمختار که قرار است در مقیاس لازم تولید شود. میزان سرمایه‌گذاری کشورهای سراسر جهان روی هوش مصنوعی، خود یک شاخص است، چین هزینه‌های هوش مصنوعی را از مجموع ۱۱.۶ میلیون دلار در سال ۲۰۱۰ به ۱۴۱ میلیون دلار تا سال ۲۰۱۹ افزایش داده است. دلیلش این است که چین گرفتار رقابت با ایالات متحده برای استقرار LAWS شده است. در مجموع، این پیشرفت‌ها نشان‌دهنده‌ی این است که ما در حال ورود به طلوع جدیدی از جنگاوری هوش مصنوعی هستیم.

اخبار مرتبط
تاکنون، چرخه هیجان هوش مصنوعی (AI hype cycle) بر این نظریه استوار بوده که با استفاده از داده‌ها و محاسبات بیشتر برای آموزش مدل‌های جدید هوش مصنوعی، می‌توان به نتایج به‌مراتب بهتری دست یافت، اما گوگل و سایر غول‌های فناوری اکنون با مشکل بازده کاهشی در آموزش مدل‌های جدید خود مواجه شده‌اند. فرضیه موانع مختلف بر سر راه پیشرفت هوش مصنوعی که ازاین‌پس به‌عنوان فرضیه «دیوار» از آن یاد می‌کنیم، این احتمال را که آن نسل بعدی مدل‌های اصلی هوش مصنوعی به‌طور قابل‌توجهی باهوش‌تر از مدل‌های موجود خواهند بود، به
آساف راپاپورت(Assaf Rappaport)، مدیر اجرایی Wiz، یک شرکت پیشرو در امنیت سایبری، در یک کنفرانس فناوری در اکتبر به حضار گفت که شخصی با استفاده از یکی از صحبت‌های اخیرش شبیه‌سازی صوتی انجام داده است. سپس از آن برای ارسال یک پیام صوتی جعل عمیق به ده‌ها کارمند استفاده کرده تا سرقت اطلاعات انجام دهد. کلاهبرداران ناموفق بودند، اما این حادثه، یک زنگ خطر بود.
با توجه به خطرات مرتبط با توسعه سیستم‌های هوش مصنوعی فوق‌هوشمند، که به طور بالقوه می‌توانند به روش‌های غیرقابل پیش‌بینی عمل کنند و به انسان آسیب برسانند، یامپولسکی و سایر محققان هوش مصنوعی برای توقف توسعه هوش مصنوعی بحث کرده‌اند که تنها با مقررات قوی‌تر می‌توان به آن دست یافت.

دیدگاه خود را با ما در میان بگذارید

captcha


امتیاز:

دسته بندی مقالات
آخرین مقالات
تگ ها