Слушай подкасты нашей студии
Слушать

6 действительно пугающих технологий

Чуть ли не каждый день появляются новые изобретения. То, что вчера было передовой технологией, сегодня уже обыденность, а завтра уже устаревшая вещь, от которой хочется избавиться. Но не всегда прогресс идёт в правильном (по крайней мере, с моральной точки зрения) направлении, и иногда новые технологии и вовсе пугают своими перспективами. Сегодня мы расскажем о нескольких технологиях, которые, возможно, даже очень полезны в наше время, но в перспективе вызывают не совсем приятные эмоции.

1. Система «социального кредита»

Если ты смотрел «Чёрное зеркало», а точнее серию про то, как людей оценивали по репутации в социальной сети, или сериал «Орвилл», где в первом сезоне раскрывалась аналогичная тема, то мог думать, насколько же это глупо и что это никак не приживётся в реальности. Но Китай, как одна из самых закрытых стран мира, внедряет эту систему уже сейчас. Пока что в качестве эксперимента. И если он увенчается успехом, то правительство КНР запустит систему «социального кредита» по всей стране.

Для этого используются возможности искусственного интеллекта в областях bigdata и распознавания лиц. Суть в том, что у людей есть определённое количество кредитов, которые можно потерять по многим причинам (например, критикуя действия Коммунистической партии Китая или за выгул собаки без поводка).

Если количество этих кредитов упадёт ниже определённого уровня, то человеку запретят работать в госучреждениях, руководить некоторыми компаниями, откажут в соцобеспечении, будут проводить тщательный досмотр на таможне, не продадут авиа- и железнодорожные билеты, откажут в люксовых гостиницах и ресторанах, а также запретят отдавать детей на обучение в частные школы.

По сути, человек становится изгоем общества. Казалось бы, баллы снимают за вполне логичные вещи, вроде выброшенной на улице бумажки или за оскорбления, но как мы уже упомянули выше — нельзя критиковать действия правительства или делать что угодно, что Китай посчитает неприемлемым. Более того, видео с твоим «правонарушением», зафиксированным на камеру, могут показать в кинотеатрах перед началом фильма, и о твоём, возможно, случайном несерьёзном проступке узнает вся страна.

Это может привести к тотальному контролю и созданию «правильного» общества, по полной программе отвечающего интересам правящего класса.

2. «Умные колонки»

Google, Amazon и «Яндекс» активно продвигают свои «умные» колонки на основе голосовых помощников. Они позиционируют эти продукты как универсальный «умный дом», который может регулировать освещение, управлять техникой, относящейся к интернету вещей, и предлагать другой функционал, направленный на повышение комфорта. И вроде бы это полезная вещь, которая сделает твой дом удобнее, но не всё так однозначно.

Крупные корпорации уже не раз ловили на сборе конфиденциальных данных, причём не только статистики использования определённых приложений, но даже на получении скриншотов экрана или снимков с веб-камеры. И это не какие-то домыслы конспирологов, а реальные факты. Так, например, один из производителей «умных» колонок и по совместительству поисковик давал задание на своей доске фриланс-заказов разгребать голосовые запросы людей, чтобы определить среди них наиболее подходящие для заданных значений. То есть всё, что ты сказал в голосовом поиске, остаётся на серверах компаний.

А теперь представь, что ты добровольно устанавливаешь у себя, по сути, жучок, который будет заливать всю информацию о твоих разговорах на серверы компании или сливать конфиденциальные данные спецслужбам. Кроме того, такую технику, как и любое устройство, можно взломать, а значит, хакеры могут получить доступ к ней и украсть данные, которыми можно шантажировать людей. Эта технология оставляет двоякое ощущение: с одной стороны, упрощение жизни, с другой — заложенные в неё возможности тотального контроля, как в романе «1984».

То же самое, кстати, касается и «умных» радионянь, которые использует всё большее число семей. Они позволяют видеть ребёнка, слышать его и разговаривать с ним из любой точки планеты. Но что, если хакер получит доступ к этому устройству? Помимо «безобидного» наблюдения, он может дать ребёнку команды, и тот их выполнит, так как посчитает, что с ним говорит его родитель (здесь преступнику поможет технология изменения голоса). И это может быть команда как открыть входную дверь, так и пойти в определённое место.

3. Deepfakes

Тренд, который только набирает обороты. Deepfakes — это технология, которая использует искусственный интеллект и глубокое обучение для плавной замены лиц в видео. Да, с помощью этой технологии можно повеселиться, приделав, к примеру, лицо своего друга к туловищу собаки. Или реализовать свои сексуальные фантазии, заменив лицо порноактрисы на изображение однокурсницы или известной личности.

Но есть и куда более опасные действия. Дело в том, что всё чаще в качестве шутки или по более серьёзным причинам Deepfakes используется в политической сфере.

Очернить политика или, наоборот, выставить его в нужном свете, нагнать страх на толпу, показав, как Дональд Трамп говорит, что хочет уничтожить твою страну ядерными ударами, — это только часть того, что можно сделать с помощью Deepfakes.

И если первые фейки были видны невооружённым взглядом, то современные видеоредакторы, которые может освоить практически любой человек после нескольких минут изучения, показывают поразительно качественные результаты. Дальнейшее развитие Deepfakes, по мнению некоторых экспертов, может привести к потере веры людей в средства массовой информации и полной дезориентации в информационном пространстве, когда за один день может быть опубликовано несколько заявлений и их опровержений. Эпоха фейк-ньюс только начинается и набирает обороты.

Совмести возможности наложения лица в Deepfakes с технологией изменения голоса, и получишь идеальные фейки, которые могут использоваться для любых целей — от розыгрышей друзей до создания хаоса во всём мире.

4. Автопилот в машинах

Tesla и другие компании активно развивают внедрение искусственного интеллекта в автомобили. Бортовой компьютер уже может управлять машиной без участия человека, основываясь на данных радиолокации, телеметрии и на других параметрах. Множественные испытания подтверждают рост «интеллекта» таких бортовых систем, и за несколько лет активных тестов разработчики сделали большой шаг в сторону полной автоматизации.

Но что будет в том случае, когда компьютер попадёт в ситуацию, где от его выбора будет зависеть жизнь человека? Какое решение он примет, когда единственным доступным вариантом будет опасный съезд в сторону обрыва или столкновение с пешеходом? Кого будет ставить в приоритет автомобиль — водителя или пешехода? Эти вопросы волнуют многих людей. И может случиться так, что в целях спасения водителя бортовой компьютер посчитает приоритетной безопасность находящихся в машине, а не жизнь пешеходов снаружи и заблокирует ручное управление.

Ученые предупреждают, что без контроля искусственный интеллект может начать ядерную войну

5. Интерфейс «мозг — компьютер»

Если вероятность взлома «умной» колонки или автомобиля не кажется тебе чем-то страшным, то что ты скажешь о том, что можно будет взломать человека? Да, выражение «лайфхак» приобретёт своё настоящее значение. По мере внедрения имплантируемых компьютерных интерфейсов в массовое производство они будут всё чаще применяться в хирургии. Такие импланты уже сейчас используются в экспериментальной медицине для восстановления сенсорной и моторной функции у людей с тяжёлыми нарушениями, вызванными инсультом или другими неврологическими расстройствами.

В дальнейшем эта технология может использоваться для расширения возможностей мозга, о чём, кстати, неоднократно упоминал Илон Маск и другие известные футурологи. Таким образом учёные планируют соединить органику и железо, используя одновременно возможности человеческого мозга и искусственного интеллекта.

И тут есть два достаточно жутких момента. Первый — вероятность взлома и частичного или даже полного контроля тела, если интерфейс «мозг — компьютер» может руководить областями мозга, отвечающими за моторику. То есть можно убить с помощью «взломанного» человека, а после стереть все логи и выставить тем самым невольного убийцу главным подозреваемым. Второе — захват контроля искусственным интеллектом. Если в первом случае хакеры используют «взломанного» человека какое-то время, то во втором это приводит к полному порабощению сознания.

6. Сложные роботы

Помнишь, как все смеялись над неуклюжими первыми роботами Boston Dynamics, которые выглядели достаточно забавно и безобидно? За несколько лет эта компания сделала большой шаг в сторону развития робототехники, и теперь их изобретения всё больше напоминают отчасти терминаторов из культовой франшизы, отчасти «собак» из «Чёрного зеркала», которые мастерски убивали людей любыми подручными средствами.

К слову, последние модели роботов Boston Dynamics уже могут открывать двери и не просто входить в помещение, а применять тактические навыки для избегания нападения или столкновения с препятствием. Объедини их в одну сеть с децентрализованным искусственным интеллектом, оставь так на несколько дней — и наслаждайся Третьей мировой войной в стиле «Терминатора-2».

Но даже если дело не дойдёт до уничтожения человечества роботами, дальнейшее развитие робототехники приведёт к серьёзным социальным проблемам. Пример одной из них — убийство роботом человека. Кто несёт за это ответственность? Программист, который не предусмотрел брешь в классических трёх законах робототехники, производитель или сам робот?

Футурологи предупредили, что скоро роботы уничтожат средний класс

Читать также:

Задай вопрос редакции,

возможно, мы ответим на него в наших следующих статьях.

Комментарии

(0)