В США рассказали, из-за чего может начаться ядерная война
2 сентября 2019
02.09.2019 - 6:28
Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара.
Об этом пишет издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка.
По его словам, системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, поскольку они запускаются по определенным параметрам и показателям.
В некоторых ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, и это является «тревожной перспективой».
В частности, приводится в пример российская система «Периметр», которая может принять сейсмическую активность за ядерные взрывы, после чего направит запрос в штаб войск, и если вдруг не получит ответа, может отдать команду на запуск межконтинентальных баллистических ракет.
Кроме того, Уорк добавил, что военное применение искусственного интеллекта может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. В частности, такой сферой может быть его использование при анализе разведывательных данных, а также в системах раннего предупреждения.
«Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар», — сказал Уорк.
Тем не менее, он отмечает, что искусственный интеллект несомненно может принести пользу для военных, однако его применение должно быть ограничено, и не должно распространяться на ядерное вооружение, поскольку это может привести к «катастрофическому сценарию».
Читайте также: Бои на границе Израиля и Ливана: атакованы базы, сожжена бронетехника (ФОТО, ВИДЕО)
Серьезная опасность использования военными систем искусственного интеллекта заключается в его участии при принятии решения о нанесении ядерного удара.
Об этом пишет издание Breaking Defense со ссылкой на бывшего заместители министра обороны США Роберта Уорка.
По его словам, системы искусственного интеллекта не должны участвовать в контроле ядерного вооружения, поскольку они запускаются по определенным параметрам и показателям.
В некоторых ситуациях искусственный интеллект может расценить неопасные факторы как представляющие угрозу, и это является «тревожной перспективой».
В частности, приводится в пример российская система «Периметр», которая может принять сейсмическую активность за ядерные взрывы, после чего направит запрос в штаб войск, и если вдруг не получит ответа, может отдать команду на запуск межконтинентальных баллистических ракет.
Кроме того, Уорк добавил, что военное применение искусственного интеллекта может привести к плачевным последствиям и без его прямого участия в управлении ядерным оружием. В частности, такой сферой может быть его использование при анализе разведывательных данных, а также в системах раннего предупреждения.
«Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар», — сказал Уорк.
Тем не менее, он отмечает, что искусственный интеллект несомненно может принести пользу для военных, однако его применение должно быть ограничено, и не должно распространяться на ядерное вооружение, поскольку это может привести к «катастрофическому сценарию».
Читайте также: Бои на границе Израиля и Ливана: атакованы базы, сожжена бронетехника (ФОТО, ВИДЕО)
Источник - Русская весна