پنجشنبه, 1 آذر 1403 2024,November

احتمال انقراض بشر به دست هوش مصنوعی!

17 دی 1402
احتمال انقراض بشر به دست هوش مصنوعی!

یک نظرسنجی جدید نشان می‌دهد که هوش مصنوعی می‌تواند انسان‌ها را به سوی انقراض سوق دهد.

به گزارش بانک اول به نقل از دیلی‌میل، بسیاری از کارشناسان فناوری هشدار داده‌اند که هوش مصنوعی در مسیر تخریب و نابودی قرار دارد، اما یک بررسی جدید از محققان برتر احتمال انقراض انسان را مشخص کرده است.

گروهی از دانشمندان بین‌المللی از ۲۷۷۸ متخصص هوش مصنوعی در مورد آینده این سیستم‌ها سوال کردند و پنج درصد گزارش کردند که این فناوری منجر به فروپاشی خواهد شد.

اما از هر ۱۰ محقق یک نفر به موضوع ترسناک‌تری اشاره کرد و آن وجود ۲۵ درصد شانس نابودی بشر توسط هوش مصنوعی بود.

کارشناسان سه دلیل احتمالی را در این مورد ذکر کردند. هوش مصنوعی به گروه‌های تهدیدکننده اجازه می‌دهد ابزارهای قدرتمندی مانند ویروس‌های مهندسی شده بسازند، حاکمان مستبد از هوش مصنوعی برای کنترل جمعیت خود استفاده می‌کنند و سیستم‌های هوش مصنوعی نابرابری اقتصادی را بدتر می‌کند.

کنترل و تنظیم هوش مصنوعی تنها راه حل برای محافظت از انسان است و اگر هوش مصنوعی تنظیم نشود، محققان تخمین می‌زنند که ۱۰ درصد احتمال دارد که ماشین‌ها تا سال ۲۰۲۷ در همه وظایف از انسان‌ها بهتر عمل کنند و این احتمال تا سال ۲۰۴۷ به ۵۰ درصد افزایش خواهد یافت.

در این نظرسنجی از کارشناسان درباره چهار شغل خاص که کاملا خودکار می‌شوند، سؤال شد و پاسخ دریافت کردند که احتمال ۵۰ درصد وجود دارد که هوش مصنوعی تا سال ۲۱۱۶ به طور کامل همه چیز را تصاحب کند.

کاتیا گریس(Katja Grace)، یکی از نویسندگان این مطالعه، به نیوساینتیست گفته است: این یک نشانه مهم است که اکثر محققان هوش مصنوعی غیرممکن نمی‌دانند که هوش مصنوعی پیشرفته بشریت را نابود کند.

تقریبا ۵۸ درصد از محققان نسبت به تصاحب هوش مصنوعی خوشبین‌تر بودند و گفتند تنها پنج درصد احتمال دارد که باعث انقراض انسان شود.

سازمان ملل متحد پیش از این هشدارهایی را در مورد استفاده گروه‌های تروریستی از هوش مصنوعی برای اهداف مخرب به اشتراک گذاشته است.

اثبات شده که در دنیای جرایم سایبری، هوش مصنوعی ابزار قدرتمندی است که می‌توان از آن برای پیشبرد یا تسهیل تروریسم و افراط‌گرایی خشونت‌آمیز منجر به تروریسم استفاده کرد.

مدیر سازمان ملل متحد در گزارشی از سازمان ملل گفت: اتومبیل‌های خودران، افزایش حملات سایبری به زیرساخت‌های حیاتی، یا امکان گسترش سخنان نفرت‌انگیز و تحریک به خشونت به روشی سریع‌تر و کارآمدتر از مواردی هستند که توسط هوش مصنوعی می‌توان انجام داد. این در حالی است که در سال ۲۰۲۳ ۳۷ درصد از کارگران با هوش مصنوعی جایگزین شدند.

صدها کارشناس، از جمله سم آلتمن، مدیر اجرایی شرکت اُپن ای‌آی(OpenAI) و دمیس حسابیس، مدیر اجرایی دیپ‌مایند گوگل(Google DeepMind)، در ماه مه سال گذشته بیانیه‌ای در یک جمله صادر کردند و خواستار کنترل و وضع مقررات بیشتر برای هوش مصنوعی شدند.

در این بیانیه آمده است: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد.

حتی «پدرخوانده هوش مصنوعی»، جفری هینتون، گفت که از ایجاد هوش مصنوعی پشیمان است اگرچه به نیویورک تایمز گفت: من خودم را با این بهانه دلداری می‌دهم که اگر من این کار را نمی‌کردم، شخص دیگری این کار را می‌کرد.

هنوز ابهامات قابل توجهی در مورد تأثیرات بلندمدت هوش مصنوعی وجود دارد و این مطالعه اذعان دارد که پیش‌بینی حتی برای متخصصان نیز سخت است.

اخبار مرتبط
با توجه به خطرات مرتبط با توسعه سیستم‌های هوش مصنوعی فوق‌هوشمند، که به طور بالقوه می‌توانند به روش‌های غیرقابل پیش‌بینی عمل کنند و به انسان آسیب برسانند، یامپولسکی و سایر محققان هوش مصنوعی برای توقف توسعه هوش مصنوعی بحث کرده‌اند که تنها با مقررات قوی‌تر می‌توان به آن دست یافت.
استفاده از هوش مصنوعی در زندگی روزمره می‌تواند مزایای زیادی داشته باشد، ازجمله افزایش کارایی و صرفه‌جویی در زمان؛ اما باید به این نکته توجه کرد که داده‌هایی که به این سرویس‌ها ارائه می‌دهیم ممکن است حریم خصوصی ما را تحت تأثیر قرار دهد.
کارشناسان شرکت آمریکایی پژوهش و مشاوره «گارتنر»(Gartner) یک فهرست را از ۱۰ روند برتر فناوری راهبردی در سال ۲۰۲۵ منتشر کرده‌اند که به شدت تحت تأثیر هوش مصنوعی است. به نقل از تک نیوز ورد، «جین آلوارز»(Gene Alvarez) تحلیل‌گر گارتنر گفت: روندهای برتر فناوری راهبردی سال پیش رو شامل الزامات و خطرات هوش مصنوعی، مرزهای جدید محاسبات و همکاری انسان و ماشین است. بررسی این روندها به رهبران حوزه فناوری اطلاعات کمک خواهند کرد تا آینده سازمان خود را با نوآوری مسئولانه و اخلاقی شکل دهند.

دیدگاه خود را با ما در میان بگذارید

captcha


امتیاز:

دسته بندی مقالات
آخرین مقالات
تگ ها