Использование искусственного интеллекта военными при принятии решения о нанесении ядерного удара представляет серьезную опасность. Об этом предупредил бывший заместитель министра обороны США Роберт Уорк в статье для Breaking Defense.
По мнению бывшего сотрудника Пентагона, при привлечении искусственного интеллекта к принятию решений существует вероятность, что имеющиеся риски будут оценены им неверно. В этом случае ядерное оружие могут применить в ситуации, когда реальной угрозы не будет существовать.
"Представьте, что в системе управления ядерным оружием есть прогностическая система ИИ, которая запускается по определенным параметрам. Это гораздо, гораздо, гораздо более тревожная перспектива, чем все опасности, что вы можете представить в связи с применением индивидуального оружия", - написал Уорк.
В качестве примера бывший заместитель шефа Пентагона привел российскую систему "Периметр", которая якобы может принять сейсмическую активность за ядерные взрывы.
Тем не менее эксперт признал, что искусственный интеллект может принести пользу военным, но посоветовал применять его ограниченно и не распространять на ядерное вооружение, поскольку это может привести к "катастрофическому сценарию".
20 августа стало известно, что США впервые после выхода из Договора о ликвидации ракет средней и меньшей дальности (ДРСМД) провели испытания крылатой ракеты наземного базирования.