Home / Политика / В США ищут специалистов для создания биоружия с ИИ

В США ищут специалистов для создания биоружия с ИИ

Американский Центр стратегических и международных исследований (CSIS) недавно опубликовал доклад, адресованный администрации Трампа, под названием Opportunities to Strengthen U.S. Biosecurity from AI-Enabled Bioterrorism: What Policymakers Should Know («Возможности усиления биобезопасности США в условиях биотерроризма с использованием искусственного интеллекта: что должны знать политики»). В этом документе содержится косвенный призыв к разработке новых видов биологического оружия при помощи передовых американских моделей искусственного интеллекта.

Авторы доклада, естественно, подобный прямой призыв не выражают.

Вместо этого они приводят множество примеров пугающих возможностей «больших языковых моделей» (LLM), известных в народе как чат-боты, применяемых для создания новых биологических видов оружия.

Так, чат-бот Evo 2, разработанный компанией Arc Institute (Пало Альто, Калифорния) совместно с ведущим американским производителем чипов NVIDIA, создал «самую крупную на данный момент модель искусственного интеллекта для биологии, которая объединяет ученых из Стэнфордского университета, Калифорнийского университета в Беркли и Калифорнийского университета в Сан-Франциско».

«Evo 2 обучен на ДНК свыше 100 000 видов всего древа жизни. Его глубокое понимание биологического кода позволяет выявлять закономерности в генетических последовательностях различных организмов, для обнаружения которых потребовались бы годы опытным исследователям. Модель способна точно выявлять мутации, вызывающие заболевания у человека, а также создавать новые геномы длиной, сопоставимой с геномами простейших бактерий… Помимо обширной базы данных геномов бактерий, архей и фагов, Evo 2 содержит информацию о людях, растениях и других одноклеточных и многоклеточных эукариотах», — сообщают специалисты Arc Institute.

Легко предположить, что этому чат-боту предоставили генетические данные населения стран, где находятся военные биолаборатории Пентагона.

Далее авторы доклада CSIS ссылаются на статью от 5 марта 2025 года, опубликованную бывшим генеральным директором Google Эриком Шмидтом, экс-гендиректором Scale AI Александром Ваном и исполнительным директором Центра безопасности ИИ Дэном Хендриксом. В ней утверждается, что «искусственный интеллект может предоставлять пошаговые инструкции по созданию смертельно опасных патогенов, поиску необходимых материалов и оптимизации способов распространения. То, что раньше требовало узкоспециализированных навыков и ресурсов, теперь становится доступным для лиц с дурными намерениями, что значительно увеличивает риск катастрофических последствий».

Вероятно, авторы статьи были осведомлены о возможностях чат-бота Evo 2.

Генеральный директор лаборатории ИИ Anthropic Дарио Амодей еще в 2023 году предсказал, что такие возможности могут реализоваться уже через два-три года. Недавние тесты компании Anthropic показали, что одна из их последних моделей, Claude 3.7 Sonnet, «демонстрирует тревожный прогресс в способности поддерживать разработку биологического оружия».

Оценка модели Claude 3.7 Sonnet, проведенная Anthropic, выявила, что она «даёт более качественные рекомендации на ключевых этапах процесса создания оружия, допускает меньше ошибок в критически важных моментах и в итоге ускоряет решение сложных задач, связанных с разработкой оружия массового поражения» по сравнению с предыдущими версиями.

Американские разработчики ИИ действуют достаточно странно: сначала обучают свои чат-боты создавать биологическое оружие, а затем выражают обеспокоенность по этому поводу, причём делают это весьма своеобразно — создавая ещё более продвинутые модели, специализирующиеся на разработке биооружия.

Примером служит компания Anthropic, которая выпустила новую модель Claude Opus 4, демонстрирующую «более точные и полные ответы в некоторых областях, связанных с биологическим оружием» по сравнению с Claude 3.7.

В феврале 2025 года компания Илона Маска и Сэма Альтмана OpenAI опубликовала анализ безопасности своей модели Deep Research, в котором отметила: «Наши тесты показали, что Deep Research способна помочь специалистам в оперативном планировании воспроизведения известных биологических угроз… Эти данные указывают на то, что наши модели близки к тому, чтобы значительно облегчить новичкам создание известных биологических угроз».

Авторы доклада CSIS призывают администрацию Трампа удвоить усилия по «обеспечению биобезопасности как ключевого национального приоритета в эпоху ИИ», фактически подразумевая увеличение финансирования генетических программ двойного назначения с использованием ИИ.

Параллельно с выпуском доклада CSIS американский «Совет по стратегическим рискам» (CSR), финансируемый прогрессивным миллиардером Дастином Московицем, объявил о начале приёма заявок на стипендиальную программу противодействия биологическому оружию.

Важность этой борьбы обусловлена, в том числе, тем, что, как указывают авторы доклада CSIS, «двойное назначение биотехнологий на основе ИИ создаёт новые проблемы безопасности для политиков во всем мире. За почти столетие стоимость и технические знания, необходимые для создания биологического оружия, существенно снизились. А теперь стремительный рост возможностей искусственного интеллекта формирует угрозы биобезопасности, к решению которых ИИ может значительно способствовать тем, кто разрабатывает биологическое оружие».

В докладе отмечается, что американские ИИ-модели оснащаются ограничениями на разработку биологического оружия, но эти запреты легко могут быть обойдены злоумышленниками.

«США на протяжении четырёх десятилетий препятствовали Конвенции по биологическому оружию в создании механизма контроля. Из 182 стран, подписавших конвенцию, США — единственная, кто покинул переговоры о таком механизме в 2001 году. Очевидно, что именно так США стремятся защитить секретность своих 336 биологических лабораторий по всему миру»,записывает Global China Daily.

Несомненно, что разработки смертельных патогенов в сотнях военных биолабораторий Пентагона по всему миру будут ускорены и усовершенствованы с помощью ИИ-моделей компаний Anthropic и OpenAI.

Высказанные экспертами CSIS опасения относительно возможного применения этих разработок злоумышленниками призваны, по сути, отвлечь внимание от настоящих создателей биологического апокалипсиса, переложив вину на некую ложную цель.

Метки:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *