Сегодня невозможно зайти в интернет и не наткнуться на что-то созданное искусственным интеллектом. Творчество генеративного ИИ принимает самые разные формы. Это картинки, текст, аудио- и видеоматериалы. Иногда даже твой собеседник может оказаться совсем не живым человеком, а всего лишь ботом. Эти «ребята» уже давно выбрались за пределы чатов от службы поддержки разных компаний. В большинстве случаев контент, созданный с помощью ChatGPT, Dall-E или Sora, носит развлекательный характер. Однако все чаще нейросети становятся послушными инструментами или невольными помощниками мошенников.
Возникает вполне своевременный вопрос: как же нам, обычным людям, отличать реальность от шуток или злонамеренных фейков, созданных ИИ? На данный момент это возможно, если обращать внимание на мелочи и детали.
Что такое ИИ
Говоря об ИИ, люди могут иметь в виду несколько различные понятия. Начиная со второй половины XX века, термином «искусственный интеллект» обозначали гипотетический компьютер, способный мыслить самостоятельно, точно как человек. Эта концепция популяризировалась писателями и режиссерами. Роботы, космические корабли или компьютеры, способные мыслить как живые существа, появлялись во многих знаковых произведениях: в «Чужом», «Звездных войнах», «Бегущем по лезвию». В такой форме ИИ остается областью научной фантастики.
Существующий сегодня искусственный интеллект не может мыслить, поэтому его называют слабым, узким или генеративным ИИ. Все вычислительные мощности отдельной сети направлены на понимание и выполнение только одной конкретной задачи. Более того, для достижения лучшего результата требуется обучать ИИ, снабжать его максимально доступным объемом информации. ChatGPT сможет написать дипломную работу по истории, но только после того, как «прочитает» уже имеющиеся данные — учебники, докторские работы, расшифровки лекций, при этом ИИ не сможет ничего осмыслить, додумать, задать новые вопросы или прийти к собственному выводу. Это будет рерайт — переписывание исходного материала, часто дословно. Отсюда возникают скандалы, обвинения в плагиате.
Примерно так же происходит в других областях искусства и культуры. ИИ будет готов нарисовать кота в стиле Ван Гога после того, как просмотрит все картины Ван Гога, при этом желательно на них должен быть кот. Кроме того, придется загружать данные о котах отдельно. Чем больше исходных материалов, тем точнее получится подражание. «Узкий» ИИ имеет всего одно, но очень важное преимущество перед человеком. Он учится (пополняет базу данных) несоизмеримо быстрее. У него никогда не болит голова, отсутствуют другие интересы, не возникает переутомление или депрессия.
3 важных навыка для человека, который будет жить в мире, управляемом ИИ
Как распознать контент, созданный ИИ
Ещё недавно это не вызывало никаких сложностей. 5–6 лет назад ИИ оставался чем-то фантастическим, областью теоретических разработок. В 2022–2023 годах нейросети стали широко доступны, но качество их творений сразу бросалось в глаза. Несоответствующее количество пальцев, неправильные пропорции, неестественное положение тел или объектов. В 2024-м многие проблемы исправлены. Невозможно отрицать быстрое развитие генеративного ИИ — в ближайшем будущем он достигнет совершенства, ограниченного лишь мастерством оператора. Мы находимся в точке, где творчество искусственного интеллекта уже достаточно высоко, но пока еще отличимо от произведений человека. Рассмотрим примеры из основных областей применения ИИ.
Письмо ИИ
Человек, привыкший много читать, вероятно, быстро почувствует неладное. Однако среднестатистический пользователь интернета не таков. К тому же не исключена вероятность, что у автора просто дурной стиль. Между тем уже существуют сайты, целиком наполненные статьями, которые написал ИИ.
ИИ достаточно хорошо справляется с короткими сообщениями, где констатируется факт или поднимается вопрос, но если переходит в творческую область, то начинаются очевидные провалы. Это выражается в избыточном повторении ключевых слов или целых фраз. Как правило, текст представляет собой «ведро воды», содержащей очень поверхностную общую информацию без углубления в детали. Отсутствуют уникальные аналогии, как и, собственно, авторский стиль. Можно сказать, что текст получается бездушным.
Также текст часто отличается неоправданной сложностью. Это выражается не избытком редких терминов, а самим построением предложений, которые трудно читать из-за громоздкости или нарушений логики языка. Дело в том, что «автор» полностью безразличен к оценке от аудитории или кого бы то ни было еще. Очевидно, что у него нет никаких корректоров и редакторов, иначе сама работа ИИ потеряет смысл. Есть главное — план, количество символов на статью.
Технологическая сингулярность и глобальная слежка: чего боятся люди
Боты в социальных сетях
Во всех популярных соцсетях используются боты, управляемые алгоритмами ИИ. Как правило, это пустые или закрытые аккаунты, созданные недавно. Они появляются в комментариях буквально сразу после публикации того или иного материала. Мгновенная реакция обусловлена заранее указанным списком групп или тем, которые беспрерывно мониторятся.
В переписке с реальным пользователем некоторое время бот может успешно мимикрировать под человека. В конце концов, чего только в головах у людей не набито, всякое бывает. Однако, если присмотреться внимательнее, все сразу встает на свои места. Часто бот не отвечает на прямые вопросы, давая случайный ответ, подобранный в алгоритмах. Профиль, управляемый ИИ, не станет поддерживать беседу на другую тему. Вместо этого повторит тезис или лозунг. Бот станет бросаться на «неправильные» комментарии людей, раз за разом возражая одними и теми же словами. Кроме того, боты освоили тактику удаления целых веток. Если комментарий содержит стоп-слова, откуда-то появляются абсолютно пустые аккаунты, отправляющие в ответ ссылки на запрещенные сайты. В итоге живые модераторы или настроенные алгоритмы (бан-боты) сносят всю переписку, не вникая в суть.
Заметив подозрительную активность от пустого аккаунта, попробуй ответить ему случайным набором символов. Обычный человек, скорее всего, проигнорирует такое или спросит, что это значит. Бот, не задумываясь, выдаст свою «базу», на которую запрограммирован.
Первый робот на земле: 10 ранних разработок XX века
Дипфейки
Картинки с шестипалыми людьми — безобидное баловство, к тому же иногда получается даже атмосферно. Совсем другое дело — дипфейки (злонамеренное искажение изображений с целью выставить человека или событие в ином свете). Подавляющее большинство дипфейков изображают знаменитостей и носят порнографический характер. Вроде бы это тоже скорее шутка, но грань становится слишком тонкой. Если подойти к процессу более изобретательно и выбрать подходящее время, одна фальшивая фотография сможет обрушить рейтинг политика. Потом фейк обязательно будет распознан, но не станет ли слишком поздно? Удар по имиджу уже нанесен, а также наступили последствия.
Технология Deepfake применяется и для подмены голоса. Этим инструментом пользуются мошенники. В начале 2024 года финансист из Гонконга перевел 25 миллионов долларов на неизвестный счет, полагая, что общается со своим руководством. Для убедительности живое изображение настоящего руководителя, естественно сгенерированное ИИ, транслировалось в мессенджере по видеосвязи.
Фальшивое фото обычно выглядит неестественно качественно. Глянец сглаживает все шероховатости, но одновременно и выдает природу происхождения. ИИ не довел до совершенства мелкие детали вроде человеческой кожи, поэтому сглаживает или размывает часть изображения. Также стоит обращать внимание на задний фон, где можно заметить несовпадение теней или неправильные формы объектов.
9 реальных роботов, которые пугают своей технологичностью
Видео ИИ
Программы вроде Sora умеют создавать видео на основе текстового описания. Качество результата зависит от того, насколько точные, подробные и понятные были даны вводные. Иногда получается достаточно убедительно, но все же в этой области ИИ еще довольно слаб. Мы видели фрагменты знаменитых фильмов, где генеративный интеллект заменил актеров или вовсе снял трейлер к несуществующей картине. Дело в том, что на видео, в отличие от статичной картинки, происходит слишком много всего, в том числе незаметные для ИИ, но бросающиеся в глаза живому зрителю мелочи.
Фон скачет, предметы меняют форму и размер, появляются артефакты. Во время речи движение губ не соответствует произнесенным словам, так же как и при плохом дубляже. Несмотря на это, расслабляться не стоит — всего через 2–3 года ситуация изменится. Дольше всего ИИ будет учиться работать с тенями, которые появляются на лице от носа, губ, волос или головного убора. Другая особенность видео, «снятого» ИИ, заключается в медлительности происходящего. Это не замедленная съемка, но кажется, будто персонажи безучастно смотрят в камеру, — все объекты едва движутся. Наконец, изображения самих людей. Если молодые, то почти всегда подтянутые и красивые, то есть идеальные. У пожилых людей, наоборот, характерные черты излишне преувеличены.
Подводя итог, можно резюмировать следующее: на данный момент для распознания ИИ достаточно уделить чуть больше внимания деталям и мелочам. Использовать творческий подход при оценке контента. В большинстве случаев подделка будет распознана довольно быстро. Однако результаты, которых добился ИИ всего за пару лет, поражают. В будущем нам понадобится специальное ПО, которое поможет определять, обладал ли автор душой.
Независимость Марса и права роботов: большие вопросы отдаленного будущего