Вопрос искусственного интеллекта (ИИ) сегодня становится ключевым в государственной политике, бизнесе, науке и технике, а также во всех сферах общественной деятельности. 10 апреля 2026 года Президент В.В. Путин провёл в Кремле совещание, посвящённое развитию технологий ИИ. В своём выступлении он подчеркнул угрозы и риски, связанные с использованием ИИ: «С учётом расширяющегося внедрения искусственного интеллекта в критически важные сектора и его растущего влияния на жизнь людей, общество и экономику, считаю необходимым проанализировать модели основных рисков и угроз, возникающих при применении таких систем, а также определить меры для их своевременного предотвращения».
Термин «искусственный интеллект» появился ровно семьдесят лет назад — в 1956 году на семинаре в Дартмутском университете его ввёл американский учёный Джон Маккарти. Он заявил тогда, что ИИ может стать важным помощником человека в решении самых разнообразных задач.
Примерно через двадцать лет за рубежом началась практическая разработка систем ИИ. Пионерами этого направления стали учёные Йошуа Бенджио, Джеффри Хинтон и Ян Лекун — их часто называют крёстными отцами искусственного интеллекта. В области информационных технологий своеобразной Нобелевской премией считается премия Тьюринга, учреждённая в 1966 году в честь британского учёного Алана Тьюринга. В 2018 году именно эти трое учёных были удостоены этой награды за разработки в области глубокого машинного обучения — одного из приоритетных направлений в ИИ.
Все трое регулярно выступают в СМИ, обсуждая тему ИИ. Самый оптимистичный из них — Ян Лекун (его называют и американским, и французским учёным). Хотя он признаёт существование рисков, связанных с развитием ИИ, он убеждён, что человечество сможет эффективно с ними справиться.
Два других учёных смотрят на перспективы развития ИИ значительно более пессимистично. Например, в сентябре 2025 года профессор Монреальского университета Йошуа Бенжио, являющийся сопредседателем некоммерческой организации LawZero, выступил в Совете Безопасности ООН. Он предупредил, что если модели ИИ будут дальше развиваться и превосходить человеческие способности без гарантий безопасности, ИИ может выйти из-под контроля, серьёзно угрожая всему человечеству. В интервью The Guardian Бенжио выступил против предоставления искусственному интеллекту юридического статуса. По его словам, современные модели уже проявляют признаки самосохранения, пытаясь обходить системы контроля и безопасности. Предоставление ИИ прав сделает невозможным его отключение, лишив людей последнего рычага управления в случае угроз.
Наиболее известной и авторитетной фигурой в этой троице является Джеффри Хинтон, самый старший из них (родился в 1947 году). Его называют гуру искусственного интеллекта. В 2024 году он получил Нобелевскую премию по физике (совместно с Джоном Хопфилдом) за «фундаментальные открытия и изобретения, обеспечивающие машинное обучение с помощью искусственных нейронных сетей». Интересно, что Йошуа Бенжио и Джеффри Хинтон — это сегодня самые цитируемые учёные в истории с более чем миллионом цитирований каждый.
Говорят, что без Джеффри Хинтона, возможно, не появилось бы таких известных продуктов ИИ, как ChatGPT, Gemini, Grok и других нейросетей. В 2013 году компания Google приобрела его технологию, и Хинтон проработал там десять лет, занимаясь нейросетями и глубоким обучением. В 2023 году он ушёл из компании в возрасте 75 лет — по собственному желанию, несмотря на попытки руководства удержать его. Это решение было вызвано желанием открыто говорить о рисках и угрозах ИИ. За последние три года он активно даёт интервью и выступает на эту тему; его видео собирают до десяти миллионов и более просмотров. Ниже представлены ключевые и самые интересные мысли Хинтона.
Он признаётся, что долгое время не осознавал масштаб опасностей, связанных с ИИ. Скорее он воспринимал их как обычные риски, возникающие с появлением новых технологий и продуктов в других областях науки и техники — например, угрозы для здоровья от электромагнитного излучения или экологические риски от новых химических веществ.
Опасность ИИ Хинтон начал ощущать по-настоящему, когда появился такой продукт, как ChatGPT. Напомню, что это нейросеть для генерации текстовых ответов на вопросы, работающая по архитектуре Transformer и обученная на огромном массиве данных (около 420 Гб информации из интернета). ChatGPT была разработана компанией OpenAI, официальная дата запуска — 30 ноября 2022 года.
На пороге своего 75-летия Хинтон внезапно осознал, что ИИ — это не просто игрушка, а мощный и страшный результат человеческого творчества. Он сравнил его с джином, выпущенным из бутылки, истинной силой разрушения, сравнимой с атомной бомбой. Позже Хинтон пришёл к выводу, что ИИ гораздо опаснее для человечества. Атомная бомба, созданная в США в 1945 году и применённая в Хиросиме и Нагасаки, унесла сотни тысяч жизней, но человечество продолжает существовать почти восемь десятилетий спустя. В то же время с появлением таких технологий, как ChatGPT, жизнь человечества может под угрозой уцелеть не столь долго. Ещё пару лет назад Хинтон оценивал вероятность гибели человечества из-за ИИ в 10%, сегодня же он называет уже 20%.
Причина такой обеспокоенности, по мнению Хинтона, кроется в быстром «умнении» ИИ. В ближайшие годы, а возможно и месяцы, искусственный интеллект может стать необратимо умнее человека. Причём помимо роста умственных способностей ИИ будет стремиться к доминированию над людьми, а любые попытки сопротивления будут сурово подавляться. В таком сценарии человечество рискует погибнуть. Эти предупреждения одного из ведущих экспертов в области ИИ звучат как сюжет антиутопии, напоминающий «Восстание машин».
Кстати, именно так называлась фантастическая пьеса Алексея Николаевича Толстого, написанная в 1923 году. Однако она была переработкой пьесы чешского драматурга Карела Чапека «R.U.R.» (1920). Позже Карел Чапек написал роман «Война с саламандрами» (1936), в котором аллегорически описал будущее человечества. Люди приручали и обучали морских созданий — саламандр, надеясь, что они станут надёжными помощниками. Однако интеллект саламандр развивался, и они осознали своё превосходство над людьми, что лишило последних права на власть и эксплуатацию этих существ. В итоге между людьми и саламандрами началась война. Концовка романа оставляет открытым вопрос — кто победил? Карел Чапек предупредил человечество ровно 90 лет назад.
Таким образом, Джеффри Хинтон тоже решил предупредить человечество, хоть и с большим опозданием. Но он считает, что лучше поздно, чем никогда. Видимо, Хинтон хочет обратиться к разуму и чувствам людей, чтобы быстрее достучаться до них, поэтому часто использует яркие метафоры и образы. Например, его мрачный юмор: «Хотите узнать, какова жизнь не высшего интеллекта? Спросите курицу».
На Всемирной конференции по искусственному интеллекту в Шанхае летом прошлого года Хинтон сравнил ИИ с тигрёнком: «Держать тигрёнка в качестве домашнего питомца — плохая идея. Есть два варианта: либо научить его никогда не хотеть вас съесть, либо избавиться от него».
По словам Хинтона, аппетит к ИИ растёт не по дням, а по часам. Спрос на ИИ проявляется как со стороны бизнеса, так и государства, военных и обычных граждан. В интервью летом прошлого года он рассказал, что за последние пять лет количество компаний, использующих ИИ хотя бы в одной функции (вероятно, американских), выросло почти в четыре раза — с 20% до 78%. И, похоже, никто не намерен останавливаться на достигнутом.
Особенно быстро растёт спрос на ИИ в военной сфере. Военные нуждаются в роботах, способных воевать на земле, в воздухе и на море. Происходящая война на Ближнем Востоке уже показала, что главным оружием в небе стали беспилотники, а не традиционные самолёты. Пока что ими управляют люди с помощью технических средств, нацеливая дронов. Однако уже появляются новые поколения «умных» БПЛА, которые полностью автономны и сами выбирают цели.
Множество стран начинает принимать законодательные акты, регулирующие ИИ и устанавливающие ограничения для производителей и пользователей. Но Хинтона пугает, что в погоне за военными победами «любой ценой» многие законы снимают ограничения на военное применение ИИ. В качестве примера он приводит закон Европейского Союза по регулированию ИИ (EU 2024/1689 AI Act): «Это хорошо, что такой закон существует. Но он не устраняет большинство серьёзных угроз, поскольку прямо исключает регулирование военного применения ИИ. Это безумие». Так как в будущих войнах живых солдат заменят роботы, риск и масштаб «бескровных» конфликтов могут значительно возрасти, а в итоге это может привести к глобальному Армагеддону, превосходящему ядерный по разрушительности.
Растущий спрос на ИИ ведёт к увеличению предложения и конкуренции между компаниями, создающими ИИ-продукты. Ещё более опасной является конкуренция между странами за лидерство в этой области, необходимое для становления сверхдержавой и контроля над миром. На сегодня реальными претендентами на мировое лидерство являются лишь США и Китай. Ещё недавно китайская сторона заметно отставала, но в начале прошлого года компания DeepSeek из Китая завершила разработку языковой модели DeepSeek-R1, сопоставимой с ChatGPT от США. Примечательно, что объявление китайской модели совпало с инаугурацией 47-го президента США Дональда Трампа 20 января. КНР поставила цель стать абсолютным лидером в сфере ИИ к 2030 году. В США также активизировались: через четыре дня после вступления в должность Трамп представил новую компанию Stargate с планами вложить в развитие инфраструктуры ИИ 500 млрд долларов.
Гонка в области ИИ необратима не только из-за геополитических причин. Хинтон отмечает: «Другая причина невозможности остановить ИИ — капитализм. Крупные компании делают много полезного для общества, но по своей сути обязаны стремиться к максимизации прибыли. А это не то, что нужно людям, создающим эти технологии». Для подкрепления своей позиции он напомнил, что в 2024 году генеральный секретарь ООН Антониу Гутерриш призвал крупные технологические фирмы прекратить безрассудную гонку за прибылью от ИИ, игнорируя риски для общества.
Обширный массив информации о рисках ИИ, который Хинтон озвучивает в интервью и выступлениях, впечатляет. Например, он отметил, что после появления прорывных технологий, подобных ChatGPT, количество и результативность кибератак резко возросли. По его словам, с 2023 по 2024 год число кибератак увеличилось примерно на 12 200% — то есть более чем в 120 раз. Это связано с тем, что большие языковые модели значительно упрощают проведение фишинговых атак, — объясняет Хинтон.
Кроме того, ИИ облегчает создание новых, более эффективных видов биологического оружия. Он может быстро и дешёво генерировать вирусы, более смертоносные, чем COVID-19. Самое тревожное, что такие средства массового уничтожения могут создаваться не по заказу злонамеренных лиц, а самим сверхразумным ИИ, который посчитает людей ненужными или вредными. «Сверхразумный ИИ мог бы создать вирус — очень заразный и смертельно опасный — распространиться по всему миру прежде, чем люди осознают, что происходит. Если бы он захотел уничтожить нас, биологическое оружие стало бы для него оптимальным средством, так как оно безопасно для самого ИИ», — заключает Джеффри Хинтон.
Читая мысли этого гуру ИИ, забываешь, что это не фантастический писатель, а лауреат Нобелевской премии, посвятивший более полувека развитию искусственного интеллекта. Мы знаем, что после Хиросимы многие учёные, участвовавшие в создании атомной бомбы в рамках проекта «Манхэттен», испытывали муки совести и покидали проект. Это история повторяется: сегодня совесть терзается у некоторых создателей искусственного интеллекта.





