پنجشنبه, 1 آذر 1403 2024,November

هوش مصنوعی قابل کنترل وجود ندارد!

24 بهمن 1402
هوش مصنوعی قابل کنترل وجود ندارد!

یک متخصص هوش مصنوعی می‌گوید: هیچ مدرکی برای حمایت از این ایده که هوش مصنوعی را می‌توان با خیال راحت کنترل کرد، وجود ندارد.

به گزارش بانک اول به نقل از اینترستینگ اینجینرینگ، یک متخصص در زمینه هوش مصنوعی (AI) بررسی کاملی از مقالات علمی در مورد هوش مصنوعی انجام داده و به این نتیجه رسیده است که هیچ مدرکی برای حمایت از این ایده که هوش مصنوعی را می‌توان با خیال راحت کنترل کرد، وجود ندارد.

علاوه براین، حتی اگر مکانیسم‌ها یا روش‌هایی برای کنترل هوش مصنوعی پیشنهاد شود، دکتر رومن وی یامپولسکی معتقد است که این اقدامات برای تضمین امنیت کافی نخواهد بود.

دکتر یامپولسکی استادیار دانشگاه لوئیزویل است که نتایج تحقیقات خود را در کتابی با عنوان «هوش مصنوعی غیرقابل توضیح، غیرقابل پیش بینی، غیرقابل کنترل» منتشر کرده است.

کار او در زمینه ایمنی هوش مصنوعی تا حدی توسط ایلان ماسک و موسسه آینده زندگی (FLI) تامین مالی شده است که توسط مکس تگمارک، استاد دانشگاه «ام‌آی‌تی» و ژان تالین، یکی از بنیانگذاران اسکایپ تأسیس شده است.

موسسه آینده زندگی همان موسسه‌ای است که خواستار مهلت شش ماهه برای توسعه ابزار‌های هوش مصنوعی قدرتمندتر از چت جی‌پی‌تی-۴ شد. نامه سرگشاده این موسسه توسط بیش از ۳۳ هزار نفر از جمله ماسک، استیو وزنیاک یکی از بنیانگذاران اپل، یوشوا بنجیو پدرخوانده هوش مصنوعی و دیگر کارشناسان امضا شد.

نگرانی در مورد مدیریت و تنظیم خطرات هوش مصنوعی

با نفوذ ابزار‌های هوش مصنوعی جدید به بازار در طول یک سال گذشته، دکتر یامپولسکی پیشنهاد می‌کند که سیستم‌های هوش مصنوعی پیشرفته، علی رغم مزایای بالقوه، به دلیل غیرقابل پیش بینی بودن ذاتی و استقلال، همیشه خطراتی را به همراه خواهند داشت.

دکتر یامپولسکی در یک بیانیه مطبوعاتی گفت: چرا بسیاری از محققان تصور می‌کنند که مشکل کنترل هوش مصنوعی قابل حل است؟ تا جایی که ما می‌دانیم، هیچ مدرکی برای آن وجود ندارد. قبل از شروع تلاش برای ساخت یک هوش مصنوعی کنترل شده، مهم است که نشان دهیم مشکل قابل حل است.

وی افزود: توسعه ابرهوش مصنوعی یک رویداد تقریبا تضمین شده است، این امر نشان می‌دهد که ما باید از تلاش‌های قابل توجه در زمینه ایمنی هوش مصنوعی حمایت کنیم.

توسعه ابرهوش اجتناب ناپذیر است

از آنجا که هوش مصنوعی، می‌تواند یاد بگیرد، خود را با آن تطبیق دهد و به صورت نیمه مستقل عمل کند، اطمینان از امنیت آن، به خصوص با رشد قابلیت‌های آن، به طور فزاینده‌ای چالش برانگیز می‌شود.

می‌توان گفت هوش مصنوعی فوق هوشمند ذهن خاص خود را خواهد داشت. پس چگونه آن را کنترل کنیم؟ آیا قوانین رباتیک آیزاک آسیموف که یک رفتار اخلاقی بین انسان‌ها و ربات‌ها ایجاد می‌کند، هنوز هم در دنیای امروز کاربرد دارد؟

دکتر یامپولسکی، که حوزه اصلی مورد علاقه‌اش ایمنی هوش مصنوعی است، توضیح داد: ما با یک رویداد تقریبا تضمین شده با پتانسیل ایجاد یک فاجعه وجودی مواجه هستیم.

او افزود: تعجبی ندارد که بسیاری این مساله را مهم‌ترین مشکلی می‌دانند که بشر تا به حال با آن مواجه شده است. نتیجه آن می‌تواند شکوفایی یا انقراض باشد و سرنوشت جهان در تعادل است.

یکی از چالش‌های اصلی، تصمیم‌گیری‌های بالقوه و شکست موجودات فوق‌هوشمند است که پیش‌بینی و کاهش آن را دشوار می‌کند.

علاوه بر این، فقدان قابلیت توضیح در تصمیمات هوش مصنوعی نگرانی‌ها را افزایش می‌دهد، زیرا درک این تصمیمات برای کاهش تصادفات و اطمینان از نتایج بدون تعصب، به ویژه در حوزه‌های بحرانی مانند مراقبت‌های بهداشتی و مالی که هوش مصنوعی در آن‌ها نفوذ کرده است، حیاتی است.

با افزایش استقلال هوش مصنوعی، کنترل انسان کاهش می‌یابد و منجر به نگرانی‌های امنیتی می‌شود. دکتر یامپولسکی تعادلی بین توانایی و کنترل پیشنهاد می‌کند و اذعان می‌کند که ابرهوش ذاتا فاقد قابلیت کنترل است.

او همچنین در مورد اهمیت هم تراز کردن هوش مصنوعی با ارزش‌های انسانی بحث می‌کند و روش‌هایی را برای به حداقل رساندن خطراتی مانند قابل تغییر، شفاف و طبقه بندی شدن هوش مصنوعی به عنوان قابل کنترل یا غیرقابل کنترل پیشنهاد می‌دهد.

با وجود این چالش‌ها، دکتر یامپولسکی ادامه تحقیقات و سرمایه گذاری در زمینه ایمنی و امنیت هوش مصنوعی را تشویق می‌کند و می‌گوید: اگرچه دستیابی به هوش مصنوعی ۱۰۰ درصد ایمن ممکن است دور از دسترس باشد، اما تلاش برای بهبود ایمنی ارزشمند است.

اخبار مرتبط
با توجه به خطرات مرتبط با توسعه سیستم‌های هوش مصنوعی فوق‌هوشمند، که به طور بالقوه می‌توانند به روش‌های غیرقابل پیش‌بینی عمل کنند و به انسان آسیب برسانند، یامپولسکی و سایر محققان هوش مصنوعی برای توقف توسعه هوش مصنوعی بحث کرده‌اند که تنها با مقررات قوی‌تر می‌توان به آن دست یافت.
استفاده از هوش مصنوعی در زندگی روزمره می‌تواند مزایای زیادی داشته باشد، ازجمله افزایش کارایی و صرفه‌جویی در زمان؛ اما باید به این نکته توجه کرد که داده‌هایی که به این سرویس‌ها ارائه می‌دهیم ممکن است حریم خصوصی ما را تحت تأثیر قرار دهد.
کارشناسان شرکت آمریکایی پژوهش و مشاوره «گارتنر»(Gartner) یک فهرست را از ۱۰ روند برتر فناوری راهبردی در سال ۲۰۲۵ منتشر کرده‌اند که به شدت تحت تأثیر هوش مصنوعی است. به نقل از تک نیوز ورد، «جین آلوارز»(Gene Alvarez) تحلیل‌گر گارتنر گفت: روندهای برتر فناوری راهبردی سال پیش رو شامل الزامات و خطرات هوش مصنوعی، مرزهای جدید محاسبات و همکاری انسان و ماشین است. بررسی این روندها به رهبران حوزه فناوری اطلاعات کمک خواهند کرد تا آینده سازمان خود را با نوآوری مسئولانه و اخلاقی شکل دهند.

دیدگاه خود را با ما در میان بگذارید

captcha


امتیاز:

دسته بندی مقالات
آخرین مقالات
تگ ها