https://spnfa.ir/20230628/پیش-بینی-پایانی-سریع-و-سخت-برای-بشریت-16636700.html
پیش بینی پایانی سریع و سخت برای بشریت
پیش بینی پایانی سریع و سخت برای بشریت
اسپوتنیک ایران
مجله آمریکایی به نقل از دانشمندان و مهندسان می نویسد: "توسعه هوش مصنوعی می تواند باعث تحولات گسترده و انقراض نسل بشریت در سال های آینده شود". 28.06.2023, اسپوتنیک ایران
2023-06-28T10:30+0430
2023-06-28T10:30+0430
2023-06-28T10:30+0430
جهان
https://cdn1.img.spnfa.ir/img/07e4/0c/1a/7332946_0:160:3072:1888_1920x0_80_0_0_eb14e1d86e161e791c2c9d6f989deb04.jpg
به گزارش اسپوتنیک به نقل از نسخه آمریکایی مجله The Week، بیش از 350 محقق و مهندس هوش مصنوعی اخیراً هشداری صادر کرده اند که هوش مصنوعی خطری قابل مقایسه با خطرات بیماری های همه گیر و جنگ هسته ای دارد.این نشریه سخنان دانشمند بریتانیایی "جفری هینتون" را نقل می کند که او را "پدرخوانده هوش مصنوعی" نیز می نامند. به نظر او، ترس مرتبط با توسعه قدرتمند هوش مصنوعی، که می تواند باعث تحولات اجتماعی گسترده و حتی نابودی بشریت شود، علمی تخیلی نیست.این مطالب اشاره میکند که هینتون قبلاً معتقد بود که این نوع خطر میتواند در 30 سال آینده مطرح شود، با این حال، به گفته او، هوش مصنوعی به سرعت در حال تبدیل شدن به ابر هوش است که میتواند تنها در عرض پنج سال از انسان باهوشتر شود. به گفته هینتون و دانشمندان دیگر، دقیقا این واقعیت که هوش مصنوعی می تواند تقریباً در هر زمینه ای از انسان ها پیشی بگیرد، خطر اصلی برای بشریت نهفته است که با ورود یک "نژاد بیگانه برتر" به سیاره ما قابل مقایسه است.یک سناریو این است که عوامل مخرب از توانایی های آن برای ایجاد سلاح های بیولوژیکی جدید مرگبارتر از همه گیری های طبیعی استفاده کنند.این نشریه میگوید با ادغام هوش مصنوعی در سیستمهای جهانی، تروریستها و سایر مهاجمان میتوانند از آن برای تعطیل کردن بازارهای مالی، شبکههای برق و دیگر زیرساختهای حیاتی مانند منابع آب استفاده کنند.همانطور که نویسندگان مطالب می نویسند، یک خطر جدی نیز با این واقعیت همراه است که در مرحله ای ممکن است هوش مصنوعی بشریت را مانعی برای رسیدن به هدف خود بداند و تصمیم بگیرد که باید نابود شود.این نشریه میگوید: "برای خلاص شدن از شر انسانها، هوش مصنوعی میتواند رهبران کشورها را فریب دهد تا تصور کنند دشمن موشکهای هستهای پرتاب کرده تا آنها نیز در جواب موشکهای خود را به هوا بلند کنند".پیش از این روزنامه بریتانیایی گاردین به نقل از سرهنگ آمریکایی تاکر همیلتون از آزمایش های شبیه سازی هوش مصنوعی خبر داده بود که طی آن یک پهپاد تصمیم گرفت اپراتور خود را حذف کند زیرا "آن را از دستیابی به هدف خود باز می داشت".
اسپوتنیک ایران
feedback.me@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
2023
اسپوتنیک ایران
feedback.me@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
خبرها
fa_FA
اسپوتنیک ایران
feedback.me@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
https://cdn1.img.spnfa.ir/img/07e4/0c/1a/7332946_171:0:2902:2048_1920x0_80_0_0_ef1a178b0a807090ed6a1879694dc419.jpgاسپوتنیک ایران
feedback.me@sputniknews.com
+74956456601
MIA „Rossiya Segodnya“
جهان
پیش بینی پایانی سریع و سخت برای بشریت
مجله آمریکایی به نقل از دانشمندان و مهندسان می نویسد: "توسعه هوش مصنوعی می تواند باعث تحولات گسترده و انقراض نسل بشریت در سال های آینده شود".
به گزارش اسپوتنیک به نقل از نسخه آمریکایی مجله The Week، بیش از 350 محقق و مهندس هوش مصنوعی اخیراً هشداری صادر کرده اند که هوش مصنوعی خطری قابل مقایسه با خطرات بیماری های همه گیر و جنگ هسته ای دارد.
این نشریه سخنان دانشمند بریتانیایی "جفری هینتون" را نقل می کند که او را "پدرخوانده هوش مصنوعی" نیز می نامند. به نظر او، ترس مرتبط با توسعه قدرتمند هوش مصنوعی، که می تواند باعث تحولات اجتماعی گسترده و حتی نابودی بشریت شود، علمی تخیلی نیست.
این مطالب اشاره میکند که هینتون قبلاً معتقد بود که این نوع خطر میتواند در 30 سال آینده مطرح شود، با این حال، به گفته او، هوش مصنوعی به سرعت در حال تبدیل شدن به ابر هوش است که میتواند تنها در عرض پنج سال از انسان باهوشتر شود. به گفته هینتون و دانشمندان دیگر، دقیقا این واقعیت که هوش مصنوعی می تواند تقریباً در هر زمینه ای از انسان ها پیشی بگیرد، خطر اصلی برای بشریت نهفته است که با ورود یک "نژاد بیگانه برتر" به سیاره ما قابل مقایسه است.
یک سناریو این است که عوامل مخرب از توانایی های آن برای ایجاد سلاح های بیولوژیکی جدید مرگبارتر از همه گیری های طبیعی استفاده کنند.
این نشریه میگوید با ادغام هوش مصنوعی در سیستمهای جهانی، تروریستها و سایر مهاجمان میتوانند از آن برای تعطیل کردن بازارهای مالی، شبکههای برق و دیگر زیرساختهای حیاتی مانند منابع آب استفاده کنند.
همانطور که نویسندگان مطالب می نویسند، یک خطر جدی نیز با این واقعیت همراه است که در مرحله ای ممکن است هوش مصنوعی بشریت را مانعی برای رسیدن به هدف خود بداند و تصمیم بگیرد که باید نابود شود.
این نشریه میگوید: "برای خلاص شدن از شر انسانها، هوش مصنوعی میتواند رهبران کشورها را فریب دهد تا تصور کنند دشمن موشکهای هستهای پرتاب کرده تا آنها نیز در جواب موشکهای خود را به هوا بلند کنند".
پیش از این روزنامه بریتانیایی گاردین به نقل از سرهنگ آمریکایی تاکر همیلتون از آزمایش های شبیه سازی هوش مصنوعی خبر داده بود که طی آن یک پهپاد تصمیم گرفت اپراتور خود را حذف کند زیرا "آن را از دستیابی به هدف خود باز می داشت".