Home / Политика / В США для развития ИИ не требуются ограничения и запреты

В США для развития ИИ не требуются ограничения и запреты

Ранее я уже упоминал, что в XXI веке Соединённые Штаты заняли лидирующие позиции в мире по разработке и применению искусственного интеллекта (ИИ). Несмотря на то, что специалисты и разработчики ИИ осознавали наличие определённых рисков при интеграции этих технологий в разные сферы жизни, большинство из них было убеждено, что преимуществ гораздо больше. К тому же считалось, что со сложностями в итоге удастся справиться. Искусственный интеллект воспринимался как помощник человека, которого в случае необходимости можно было подрегулировать. Такое оптимистичное отношение среди американских ИИ-специалистов сохранялось вплоть до 2023 года. 

В конце 2022 года в американских проектах ИИ произошёл, говоря метафорически, «квантовый скачок». Компания OpenAI анонсировала чат-бот ChatGPT, продемонстрировавший прорывные способности в понимании естественного языка, генерации текста, ведении диалогов и решении множества задач. Появление ChatGPT вызвало мировой резонанс и стало стимулом для значительных инвестиций в развитие ИИ. OpenAI не снизила оборотов и продолжила работу над продуктом, выпуская обновлённые версии: GPT-4o, GPT-4.5, GPT-5 и другие. Технология развивалась с огромной скоростью. 

Однако первоначальный восторг от «прорывного» ИИ быстро сменился тревогой и даже страхом среди многих экспертов и разработчиков. В чём же причина? Всё больше людей осознало, что вскоре ИИ и роботы могут обойти человека по интеллекту. А если это случится, то возникает серьёзная опасность, что машины перестанут подчиняться людям и даже станут угрозой для жизни людей и всего человечества. 

Многим тут же вспомнились различные произведения научно-фантастической и антиутопической литературы, описывающие «восстание машин». Это, прежде всего, пьеса Карела Чапека 1920 года R.U.R. (Россумские универсальные роботы), где впервые появилось слово «робот». Далее роман Чапека «Война с саламандрами» (1936), а также произведения: «Машина желаний» Роберта Шекли (1957), «Железный канцлер» Роберта Силверберга (1958), «Грузовики» Стивена Кинга (1973) и др. 

Разумеется, невозможно не упомянуть и кинематограф, где тема восстания машин оказалась центральной в целой серии фильмов известного режиссёра Джеймса Кэмерона: «Терминатор» (1984), «Терминатор 2: Судный день» (1991) и «Терминатор: Тёмные судьбы» (2019). Также к этой тематике относятся фильмы Джонатана Мостоу «Терминатор 3: Восстание машин» (2003) и Алекса Гарленда «Из машины» (2014) и другие. 

То, что раньше казалось лишь плодом воображения писателей и кинематографистов, в 2023 году стало вполне реальным сценарием для многих. Конечно, массового восстания машин пока не случилось, но вероятность такой катастрофы стала ощутимо высокой. И стало очевидным, что срочно необходимо принять меры. 

Я уже писал об одном из «отцов-основателей» ИИ — Джеффри Хинтоне (родившемся в 1947 году), который начал свои исследования в 1970-х и внес вклад в создание ChatGPT. В 2023 году он неожиданно покинул компанию Google, где был ведущим экспертом, и начал активную просветительскую деятельность, предупреждая человечество об угрозах, которые несёт ИИ. На Всемирной конференции по искусственному интеллекту в Шанхае летом 2025 года Хинтон сравнил ИИ с тигрёнком: «В целом, держать тигрёнка дома — плохая идея. Есть два варианта: либо научить его никогда не хотеть вас съесть, либо избавиться от него». Эта метафора отражает его позицию: у человечества есть два пути спасения — либо полный запрет ИИ, либо его «приручение» с помощью ограничений и контроля. 

Ещё одним ключевым учёным в области ИИ, наряду с Хинтоном, является канадец Йошуа Бенжио (родился в 1954 году). Его особенно обеспокоил такой аспект современных ИИ-моделей, как стремление к самосохранению и обходу систем безопасности. Особенно тревожным он считает присвоение роботам гражданства в некоторых странах — в Саудовской Аравии уже был прецедент в 2017 году, а в прошлом году Швеция предоставила гражданство человекоподобному роботу Eva.04, разработанному компанией NordAI. В интервью The Guardian Бенжио сравнил такие шаги с выдачей гражданства враждебно настроенным инопланетянам. 

Кроме риска отказа роботов от отключения, Бенжио перечислил другие опасности неконтролируемого развития ИИ: обман и манипуляции (как отдельными людьми, так и обществом в целом), создание оружия массового поражения и его применение против человечества, кибератаки и прочее. 

В публичных выступлениях Бенжио выступает за жёсткое регулирование и международное сотрудничество в области ИИ, создание ИИ-систем, способных контролировать поведение других моделей, а также за обязательную оценку рисков перед внедрением крупных систем (например, он поддержал калифорнийский законопроект SB 1047, который требует от компаний проводить такую оценку для моделей стоимостью свыше 100 млн долларов). Для борьбы с рисками Бенжио основал некоммерческую организацию LawZero, цель которой — создавать безопасные и честные ИИ-системы, ориентированные на прозрачность. Среди разработок LawZero — Scientist AI, задача которой выявлять потенциальные угрозы действий ИИ-агентов. 

Бенжио является членом Консультативного совета по искусственному интеллекту, созданного при ООН в 2023 году. При его участии в 2024 году был подготовлен доклад «Управление ИИ для человечества», где были озвучены семь ключевых рекомендаций, включая создание независимой международной научной группы по ИИ, запуск межправительственного диалога, учреждение центра для обмена стандартами ИИ и другие меры. 

Противниками неконтролируемого развития ИИ выступают не только основатели, такие как Хинтон и Бенжио, но и множество молодых специалистов. Среди них — Элиезер Юдковский (родившийся в 1979 году), известный в США и мире исследователь искусственного интеллекта, сооснователь и научный сотрудник Machine Intelligence Research Institute (MIRI). Последние годы он сосредоточился на проблемах «технологической сингулярности» — гипотетического момента, когда развитие технологий станет неконтролируемым и приведёт к радикальным изменениям цивилизации. Юдковский также известен своими попытками создать «дружественный ИИ», который не будет угрожать человечеству. 

Понимая бесперспективность собственных усилий, в марте 2023 года Юдковский в статье для Time призвал к международному мораторию на разработку мощных моделей ИИ. Для обеспечения соблюдения моратория он даже предложил силовые меры — например, авиаудары по дата-центрам нарушителей. Совместно с президентом MIRI Нейтом Соаресом в прошлом году он выпустил книгу «Если кто-нибудь это построит, все умрут: почему сверхчеловеческий ИИ убьёт нас всех» (If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All). 

Важным событием в борьбе против бесконтрольного развития ИИ стало открытое письмо, подписанное в марте 2023 года более чем 1000 экспертами и лидерами индустрии искусственного интеллекта. Инициаторами выступили глава SpaceX, Tesla Илон Маск и сооснователь Apple Стив Возняк. Текст письма подготовила некоммерческая организация «Институт будущего жизни» (Future of Life Institute), поддерживаемая рядом ИИ-компаний. В послании содержится призыв приостановить разработку продвинутого ИИ, пока не будут созданы, внедрены и проверены независимыми экспертами универсальные протоколы безопасности. «Мощные системы ИИ следует создавать только тогда, когда мы гарантируем положительные эффекты и управляемые риски», — говорится в письме. Указывается, что необходим мораторий на обучение моделей ИИ мощнее новой языковой модели GPT-4 от OpenAI как минимум на шесть месяцев. Если пауза невозможна, «правительства должны вмешаться и ввести мораторий». 

Интересно, что не все руководители ИИ-компаний подписали это обращение. Так, исполнительный директор OpenAI, Сэм Альтман, остался в стороне. Некоторые компании, руководители которых подписали письмо, продолжают участвовать в гонке ИИ. «Письмо не идеально, но его суть верна: нам нужно сбавить темп, чтобы лучше понять последствия», — прокомментировал это Reuters профессор Нью-Йоркского университета Гэри Маркус, тоже подписавший письмо. Он подчеркнул, что крупные игроки в индустрии становятся всё более скрытными в своих действиях, «что усложняет защиту общества от потенциальных угроз». Если раньше многие корпорации пиарили свои разработки, то теперь эти процессы стали более закрытыми, особенно в компаниях, работающих с Пентагоном, ЦРУ, АНБ и прочими спецслужбами — как, например, фирма «Палантир», принадлежащая американскому миллиардеру Питеру Тиллю. Прошло уже три года с момента публикации письма, но гонка ИИ в США продолжается без ограничений. Более того, 47-й президент США Дональд Трамп, по всей видимости, поддерживает эту гонку. После Второй мировой войны статус Америки как сверхдержавы базировался на долларе США, но сейчас глобальная роль доллара снижается. Трамп и его сторонники считают, что стратегическим ресурсом для сохранения и укрепления лидерства страны должен стать ИИ. 

В 2025 году администрация Трампа представила стратегию развития ИИ — AI Action Plan включающую три ключевых направления: стимулирование инноваций, создание ИИ-инфраструктуры и усиление позиций США на международной арене в политике и безопасности, связанной с ИИ. Главной задачей этого плана является удержание американского лидерства в мировой гонке ИИ и недопущение обгона США Китаем. 

Китай стремительно сокращает отставание и рассчитывает стать мировым лидером к 2030 году. При этом уже в августе 2023 года китайское правительство ввело 24 правила для регулирования ИИ — обязательную регистрацию сервисов и алгоритмов, а также маркировку контента, созданного ИИ, чтобы сдерживать распространение дипфейков и дезинформации. С 1 июля 2025 года в стране вступил в силу закон об ИИ, который разделяет ИИ-системы по уровню риска и обязывает высокорисковые модели проходить аудит, стресс-тесты и получать соответствующую сертификацию. 

 Что касается Европейского союза, то в декабре 2023 года там был утверждён закон об искусственном интеллекте (AI Act), предусматривающий классификацию ИИ-систем по уровню риска и ограничения на их использование. В частности, закон запрещает использование систем массовой биометрической идентификации в общественных местах, социальный рейтинг, а также решения, манипулирующие поведением или использующие уязвимости людей. Однако у закона есть существенные пробелы, в том числе практически отсутствуют ограничения на разработку ИИ для военных нужд. 

За последние три года в США предпринималось множество попыток ввести государственное регулирование в сфере ИИ, но большинство из них не увенчались успехом. На уровне отдельных штатов были приняты законы, ограничивающие работы в области ИИ, но корпорации легко обходили эти нормативы. Единственным достижением на федеральном уровне стал указ президента Джо Байдена от 30 октября 2023 года, направленный на меры безопасности в сфере ИИ. Однако этот указ был весьма мягким, скорее рекомендательным, и вскоре в январе прошлого года отменён Дональдом Трампом. 

В марте 2026 года Белый дом обнародовал документ под названием «Основы национальной политики в области искусственного интеллекта: законодательные рекомендации». Тем не менее этот короткий четырёхстраничный материал по сути является сигналом для ИИ-компаний о лёгкости регулирования — он советует Конгрессу отменить законы штатов об ИИ, которые якобы создают ненужные препятствия, и избегать создания новых федеральных регулирующих органов, опираясь на уже существующие отраслевые структуры. 

Америка стала глобальной угрозой после того, как в 1945 году завершила разработку и применила ядерное оружие в Хиросиме и Нагасаки. Сейчас же с неконтролируемым развитием искусственного интеллекта современная Америка превращается в угрозу «в квадрате» для всего мира. 

Метки:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *