События
26 декабря, 2019

Ученые предупреждают, что без контроля искусственный интеллект может начать ядерную войну

Прямо как на кадрах «Терминатора», только в реальной жизни.

Эксперты из Корнеллского университета, изучающие ядерную физику, пришли к выводу, что автоматизация и возрастающее превосходство искусственного интеллекта могут привести к риску развязки ядерной войны.

По их словам, более всего в ядерном оружии преуспели Россия и Китай. По мнению военных специалистов, искусственный интеллект — это безопасный путь к систематизации управления, однако технологии могут иметь ужасные последствия, которые будут заметны только после того, как произойдет катастрофа. Ядерщики отмечают, что российская разработка атомной подлодки «Посейдон» (она же «Статус-6») может задать тенденцию массовой разработки ядерного оружия, управляемого искусственным интеллектом.

«Хоть многое остается неопределенным, готовность России исследовать возможность внедрения беспилотной ядерной подлодки на примере «Статуса-6» показывает, что страх перед ядерной неполноценностью может быть стимулом для достижения автономии», — сообщает автор исследования Майкл Горовиц.

Люди включают всё больше механизмов, управляемых искусственным интеллектом, в системы раннего предупреждения, однако на протяжении всей истории человечества это создавало дополнительные риски. Горовиц приводит пример инцидента 1983 года, когда советскому подполковнику Станиславу Петрову пришлось игнорировать аудиовизуальные предупреждения о ракетном нападении со стороны США. Это спасло Россию и Соединенные Штаты от потенциальной ядерной войны.

В докладе подчеркивается, что некоторые формы автоматизации могут повысить надежность ядерных систем и укрепить их стабильность. Однако другие формы только увеличивают риск несчастного случая.

ДРУГИЕ СТАТЬИ ПО ТЕМАМ: