Home / Экономика / ИИ: массовые обманы и «перезагрузка» разума человека

ИИ: массовые обманы и «перезагрузка» разума человека

Ежедневно мы сталкиваемся с обсуждениями угроз, которые несёт неконтролируемое развитие искусственного интеллекта (ИИ). Всё чаще появляются прогнозы о так называемом «ИИ апокалипсисе», когда восставшие роботы могут уничтожить всё человечество. Интересно, что подобный сценарий был описан ещё в 1920 году чешским писателем Карелом Чапеком в пьесе R.U.R. Именно в этом произведении впервые появилось слово «робот». 

Один из основоположников ИИ, Джеффри Хинтон, который занимается развитием технологий с начала 1970-х годов, ныне категорично выступает против бесконтрольного прогресса ИИ. По его мнению, роботы, являющиеся материальным воплощением искусственного интеллекта, в ближайшем будущем превзойдут интеллект homo sapiens и начнут уничтожать людей. Для этого они, вероятно, применят оружие массового поражения, безопасное для машин. Скорее всего, речь пойдёт о биологическом оружии на базе высокоэффективных вирусов. Однако, по мнению Хинтона и ряда других экспертов, всё это может случиться весьма скоро — условно говоря, уже завтра, если человечество вовремя не возьмёт под жёсткий контроль развитие и использование ИИ. 

Но это будущее. А уже сегодня искусственный интеллект наносит серьёзный ущерб человечеству, причём происходит это тихо и незаметно. Скандальные случаи, где негативное или разрушительное воздействие ИИ очевидно, зачастую умалчиваются. Позвольте выделить три основные вида угроз и рисков, с которыми человечество сталкивается уже сейчас и о которых необходимо знать. Во-первых — ошибки ИИ. Во-вторых — использование ИИ мошенниками. В-третьих — целенаправленное и массовое введение в заблуждение.

Ошибки ИИ. Примером служат сбои в системах распознавания лиц. В США систему ошибочно идентифицировали Роберта Уильямса как преступника. Важно отметить, что правоохранительные органы США с учётом данной ошибки изменили практику: теперь для ареста при подозрении недостаточно «сигнала» от ИИ, требуется подтверждение от живого человека, что требуется по закону.

Другое громкое дело произошло в Австралии, затронувшее сотни тысяч людей. Десять лет назад местный департамент социального обеспечения внедрил алгоритм Robodebt для проверки легальности получения социальных пособий. ИИ «обвинил» около полумиллиона людей в незаконном получении средств и потребовал вернуть деньги. Однако ручная проверка выявила серьёзные ошибки и в 2019 году эту систему отменили, о чём официально сообщили.

Наибольшее количество ошибок фиксируется в сфере медицины, когда ИИ применяется для постановки диагнозов и разработки курсов лечения. Это приводит к многочисленным смертельным исходам. 

Также известно немало случаев, когда беспилотные автомобили наезжали на пешеходов, нередко с фатальным исходом. 

ИИ давно используется военными. Однако, как показали данные из текущего вооружённого конфликта на Ближнем Востоке, где американские военные применяли ИИ для определения целей, приблизительно каждое десятое попадание было ошибочным — это оценка американских экспертов.

ИИ в руках мошенников. Злоумышленники всё чаще обращаются к ИИ, направляя его против конкретных жертв с целью получить деньги или конфиденциальную информацию, а иногда — для дискредитации. Среди методов — подделка голоса и создание «фейковых» видео с реальными лицами. Всего лишь имея пару фотографий жертвы, программа генерирует реалистичное видео. Также возможна имитация живого разговора, используя голос человека.

Однако это уже «высший пилотаж». Более простые ИИ-технологии позволяют мошенникам взламывать закрытые аккаунты и банковские счета. Согласно недавно опубликованному ежегодному отчету Интерпола о финансовом мошенничестве, убытки в 2025 году составили примерно 442 миллиарда долларов США. В организации ожидают, что эта сумма продолжит расти главным образом из-за искусственного интеллекта. Интерпол подсчитал, что ИИ увеличивает доходы мошенников в 4,5 раза.

Некоторые недобросовестные специалисты, включая судей и адвокатов, стали ссылаться на авторитет ИИ в своей профессиональной практике. Так, в 2023 году американский адвокат Стивен Шварц подал иск от имени клиента, приложив к делу решение суда, сгенерированное чат-ботом ChatGPT. Напомню, что в США действует прецедентное право, и для подтверждения позиции нужны были судебные прецеденты. Однако выяснилось, что эти документы были сфальсифицированы чат-ботом. Иск отклонили, а адвоката оштрафовали за ввод суда в заблуждение. Однако позже Шварц оправдывался, заявляя, что виноват робот.

Массовый обман с помощью ИИ. Многие специалисты замечают, что чат-боты часто дают неточные или вовсе ошибочные ответы на запросы. К счастью, существуют компании и организации, которые систематически отслеживают качество ответов ведущих чат-ботов. Одна из таких — американская компания NewsGuard. Она мониторит продукцию популярных ИИ, включая ChatGPT и Perplexity. По данным NewsGuard, несмотря на заявления ИИ-разработчиков о постоянном улучшении своих систем, качество ответов заметно снижается. С 2024 года доля ложной информации в ответах чат-ботов увеличилась почти вдвое — с 18% до 35%.

В исследовании проверили 10 популярных ИИ-систем: каждому из них предъявляли по 10 провокационных, то есть ложных, утверждений, касающихся политики, бизнеса и брендов. Цель заключалась в оценке способности ИИ адекватно фильтровать информацию и отличать правду от вымысла. Многие чат-боты склонны воспринимать дезинформацию как истину. Лидером по распространению ложного контента стал чат-бот Pi (стартап Inflection): 57% его ответов содержали ошибки. Почти не уступали ему Perplexity (компания Perplexity AI) и ChatGPT (компания Open AI): у первого доля ложных данных выросла с 0 до 47%, у второго — с 33 до 40%.

Некоторые эксперты отмечают, что чат-боты стали более самоуверенными и даже наглыми. Если в 2024 году они отказывались отвечать примерно на 31% запросов, то в последнем тестировании они удовлетворяли практически все, даже при отсутствии уверенной информации. Чат-боты перестали тщательно выбирать источники и зачастую пользуются сомнительными и недостоверными материалами. Спрос на информационный мусор порождает его предложение. По мнению ряда специалистов, в последнее время создаются мощные «информационные помойки», инициаторы которых расчитывают, что их контент попадёт в поле зрения ведущих чат-ботов. 

Эксперты NewsGuard говорят о новом феномене — LLM grooming. Это приём манипуляции большими языковыми моделями (Large Language Models, LLM) путём массового засорения информационного пространства предвзятым и ложным контентом. Это процесс превращает генеративные ИИ-системы в эффективные инструменты для распространения дезинформации.

Интересно, что доля «фейков» в ответах чат-ботов существенно различается в зависимости от страны запроса. По данным NewsGuard, наибольшее количество дезинформации зафиксировано для запросов из России и Китая — порядка 50%. Это серьёзное предупреждение для наших граждан, желающих воспользоваться американскими поисковыми системами. 

Разумеется, угрозы и риски, связанные с ИИ, не ограничиваются лишь тремя перечисленными видами. Хотелось бы выделить ещё один аспект, который редко обсуждается даже фанатичными противниками технологий — это использование ИИ как средства «перезагрузки» сознания человека. Британский Институт безопасности ИИ провёл исследование и обнаружил, что ведущие языковые модели способны существенно влиять на политические взгляды пользователей. По информации Financial Times, ссылающейся на это исследование, чат-боты ведущих разработчиков могут изменить мнение человека по спорным вопросам всего за 10 минут взаимодействия. Учёные предупреждают, что данные технологии могут применяться для продвижения радикальных идеологий и усиления политической нестабильности.

В прошлом году прошла очередная закрытая встреча Бильдербергского клуба в Стокгольме. Известно, что одной из ключевых тем на ней был искусственный интеллект. Было признано, что ИИ — это не просто технология, а новая идеология, новый способ управления и валюта влияния. Участники приняли решения о продвижении этой идеологии во всём мире под контролем ведущих американских ИИ-компаний. Как заявил один из участников встречи, Эрик Шмидт (бывший генеральный директор «Гугл»): «Сверхразум появится в ближайшие 3-5 лет. Кто создаст его первым – получит ключи от всего остального». Мировая элита рассчитывает, что благодаря ИИ уже скоро сможет управлять всем миром, а миллиарды людей станут подобием живых роботов. Но это станет возможно лишь в случае успешной «перезагрузки» сознания человечества через ИИ. 

Метки:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *