События

Исскуственный
интеллект против человечества

  • 3422
  • 0
  • Теодор Седин
brodude.ru_28.07.2015_AETFxkcIyoQsd

Ведущие исследователи искусственного интеллекта предупредили, что "гонка ИИ-вооружений" может иметь катастрофические последствия для человечества, и призывают ООН рассмотреть запрет на "наступательное автономное оружие". Волонтерская организация Future of Life Institute опубликовала открытое письмо, в котором призывает отказаться от "гонки ИИ-вооружений" (AI Arms Race). Письмо, направленное, в частности, против военных, участвующих в гонке вооружений искусственного интеллекта, было представлено в понедельник во время Международной конференции по искусственному интеллекту в Буэнос-Айресе, Аргентина. Под письмом подписались такие яркие и приметные личности, как Стив Возняк, Илон Маск и Стивен Хокинг.

Исследователи отмечают, что гонка вооружений неизбежна, и автономное оружие будет автоматом Калашникова будущего. В отличие от ядерного оружия, оно не требует дорогостоящих или труднодоступных материалов, так что станет вездесущим и дешевым для массового производства. Как скоро это оружие появится на черном рынке – лишь вопрос времени. В письме говорится, что автономное оружие идеально подходит для "заказных убийств, дестабилизации жизни наций, подчинения населения и выборочного истребления отдельных этнических групп".

Конечно, у этого оружия есть и явные преимущества, о которых учёные тоже высказались, в частности, это сохранение человеческих жизней. Но опасности ИИ-вооружение несёт всё же больше, и в итоге всё это обернётся новым витком гонки вооружений, так что лучше плюнуть на технологии и сохранить мир, пока ещё возможно. "Точно так же, как большинство химиков и биологов не заинтересованы в создании химического и биологического оружия, большинство ученых, работающих над ИИ, не заинтересованы в создании ИИ-вооружения", – утверждают авторы письма.

"Искусственный интеллект может стать полезным человечеству во множестве аспектов. Но запускать гонку ИИ-вооружений – плохая идея, которая должна быть предотвращена за счет запрета развития автономного вооружения", – резюмируют ученые.

Наверное, ещё никогда между IT-богами и учёными не было такого единения. Очень хорошо, что у них хватило смелости и ума наступить на горло, по сути, своим перспективам. Потенциал у "роботов-убийц" огромен, и в том, что за разработкой этого интеллекта обратились бы, например, к господину Маску, сомнений практически нет. А ведь на этом деле можно заработать огромные деньги. И славу, но, скорее всего, дурную. Так что очень радостно, что в наше корыстное время есть такие люди. Если уж учёные говорят, что надо остановиться, значит дела совсем плохи. Им верить нужно, это вам не Малышева. Только не факт, что политики это предложение поддержат.