به گزارش اسپوتنیک به نقل از «برکینگ دفنس»، روبرت یورک معاون سابق وزیر دفاع آمریکا معتقد است که کاربرد سیستم نظامی هوش مصنوعی و شرکت آن هنگام تصمیمگیری در باره وارد آوردن ضربه هستهای یک خطر بسیار جدی محسوب می شود.
روبرت یورک در ادامه گفت:«سیستم هوش مصنوعی نباید در کنترل سلاح هستهای مورد استفاده قرار بگیرد، زیرا هوش مصنوعی بر اساس پارامترها و شاخص های معینی کار میکند. در بعضی موارد هوش مصنوعی ممکن است عوامل بی خطر را به عنوان وضعیت تهدید آمیز ارزیابی کند که خطرناک است.
به عنوان مثال سیستم روسی «پریمر» میتواند زمین لرزه را با انفجار هستهای اشتباه بگیرد و اطلاعات را به ستاد فرماندهی ارسال و اگر پاسخی دریافت نکند می تواند فرمان پرتاب موشک بالستیکی بینقارهای را صادر کند.
تصور کنید سیستم هوش مصنوعی در مرکز فرماندهی نیروهای چین اطلاعات فوری را بررسی و اعلام کند که آمریکا برای ضربهزدن به چین آماده میشود و توصیه کند برای ضربه پیشگیرانه آماده شوند!»
بهرحال وی متذکر شد که هوش مصنوعی بدون شک می تواند برای نظامیان مفید باشد اما استفاده از آن باید محدود باشد و نباید به عرصه تسلیحات هستهای گسترش یابد زیرا ممکن است به «سناریوی فاجعهبار» فراروید.