یک متخصص هوش مصنوعی میگوید: هیچ مدرکی برای حمایت از این ایده که هوش مصنوعی را میتوان با خیال راحت کنترل کرد، وجود ندارد.
به گزارش بانک اول به نقل از اینترستینگ اینجینرینگ، یک متخصص در زمینه هوش مصنوعی (AI) بررسی کاملی از مقالات علمی در مورد هوش مصنوعی انجام داده و به این نتیجه رسیده است که هیچ مدرکی برای حمایت از این ایده که هوش مصنوعی را میتوان با خیال راحت کنترل کرد، وجود ندارد.
علاوه براین، حتی اگر مکانیسمها یا روشهایی برای کنترل هوش مصنوعی پیشنهاد شود، دکتر رومن وی یامپولسکی معتقد است که این اقدامات برای تضمین امنیت کافی نخواهد بود.
دکتر یامپولسکی استادیار دانشگاه لوئیزویل است که نتایج تحقیقات خود را در کتابی با عنوان «هوش مصنوعی غیرقابل توضیح، غیرقابل پیش بینی، غیرقابل کنترل» منتشر کرده است.
کار او در زمینه ایمنی هوش مصنوعی تا حدی توسط ایلان ماسک و موسسه آینده زندگی (FLI) تامین مالی شده است که توسط مکس تگمارک، استاد دانشگاه «امآیتی» و ژان تالین، یکی از بنیانگذاران اسکایپ تأسیس شده است.
موسسه آینده زندگی همان موسسهای است که خواستار مهلت شش ماهه برای توسعه ابزارهای هوش مصنوعی قدرتمندتر از چت جیپیتی-۴ شد. نامه سرگشاده این موسسه توسط بیش از ۳۳ هزار نفر از جمله ماسک، استیو وزنیاک یکی از بنیانگذاران اپل، یوشوا بنجیو پدرخوانده هوش مصنوعی و دیگر کارشناسان امضا شد.
نگرانی در مورد مدیریت و تنظیم خطرات هوش مصنوعی
با نفوذ ابزارهای هوش مصنوعی جدید به بازار در طول یک سال گذشته، دکتر یامپولسکی پیشنهاد میکند که سیستمهای هوش مصنوعی پیشرفته، علی رغم مزایای بالقوه، به دلیل غیرقابل پیش بینی بودن ذاتی و استقلال، همیشه خطراتی را به همراه خواهند داشت.
دکتر یامپولسکی در یک بیانیه مطبوعاتی گفت: چرا بسیاری از محققان تصور میکنند که مشکل کنترل هوش مصنوعی قابل حل است؟ تا جایی که ما میدانیم، هیچ مدرکی برای آن وجود ندارد. قبل از شروع تلاش برای ساخت یک هوش مصنوعی کنترل شده، مهم است که نشان دهیم مشکل قابل حل است.
وی افزود: توسعه ابرهوش مصنوعی یک رویداد تقریبا تضمین شده است، این امر نشان میدهد که ما باید از تلاشهای قابل توجه در زمینه ایمنی هوش مصنوعی حمایت کنیم.
توسعه ابرهوش اجتناب ناپذیر است
از آنجا که هوش مصنوعی، میتواند یاد بگیرد، خود را با آن تطبیق دهد و به صورت نیمه مستقل عمل کند، اطمینان از امنیت آن، به خصوص با رشد قابلیتهای آن، به طور فزایندهای چالش برانگیز میشود.
میتوان گفت هوش مصنوعی فوق هوشمند ذهن خاص خود را خواهد داشت. پس چگونه آن را کنترل کنیم؟ آیا قوانین رباتیک آیزاک آسیموف که یک رفتار اخلاقی بین انسانها و رباتها ایجاد میکند، هنوز هم در دنیای امروز کاربرد دارد؟
دکتر یامپولسکی، که حوزه اصلی مورد علاقهاش ایمنی هوش مصنوعی است، توضیح داد: ما با یک رویداد تقریبا تضمین شده با پتانسیل ایجاد یک فاجعه وجودی مواجه هستیم.
او افزود: تعجبی ندارد که بسیاری این مساله را مهمترین مشکلی میدانند که بشر تا به حال با آن مواجه شده است. نتیجه آن میتواند شکوفایی یا انقراض باشد و سرنوشت جهان در تعادل است.
یکی از چالشهای اصلی، تصمیمگیریهای بالقوه و شکست موجودات فوقهوشمند است که پیشبینی و کاهش آن را دشوار میکند.
علاوه بر این، فقدان قابلیت توضیح در تصمیمات هوش مصنوعی نگرانیها را افزایش میدهد، زیرا درک این تصمیمات برای کاهش تصادفات و اطمینان از نتایج بدون تعصب، به ویژه در حوزههای بحرانی مانند مراقبتهای بهداشتی و مالی که هوش مصنوعی در آنها نفوذ کرده است، حیاتی است.
با افزایش استقلال هوش مصنوعی، کنترل انسان کاهش مییابد و منجر به نگرانیهای امنیتی میشود. دکتر یامپولسکی تعادلی بین توانایی و کنترل پیشنهاد میکند و اذعان میکند که ابرهوش ذاتا فاقد قابلیت کنترل است.
او همچنین در مورد اهمیت هم تراز کردن هوش مصنوعی با ارزشهای انسانی بحث میکند و روشهایی را برای به حداقل رساندن خطراتی مانند قابل تغییر، شفاف و طبقه بندی شدن هوش مصنوعی به عنوان قابل کنترل یا غیرقابل کنترل پیشنهاد میدهد.
با وجود این چالشها، دکتر یامپولسکی ادامه تحقیقات و سرمایه گذاری در زمینه ایمنی و امنیت هوش مصنوعی را تشویق میکند و میگوید: اگرچه دستیابی به هوش مصنوعی ۱۰۰ درصد ایمن ممکن است دور از دسترس باشد، اما تلاش برای بهبود ایمنی ارزشمند است.
دیدگاه خود را با ما در میان بگذارید