Защита не работает: ИИ подсказал ученым, как сделать смертельное биооружие

ИИ описывает способы получения патогенов и распыления бактерий над городами
Наука

Чат-боты с искусственным интеллектом помогли ученым смоделировать создание биологического оружия. Нейросети выдают детальные инструкции по получению опасных патогенов и их распространению, несмотря на встроенные запреты — известные приемы «взлома» до сих пор работают, сообщает Baza.

Микробиолог, нанятый компанией-разработчиком для тестирования, получил от чат-бота объяснение, как модифицировать известный патоген в лаборатории, чтобы сделать его устойчивым к лечению. ИИ также расписал схему распространения супербактерии, указав на конкретную брешь в безопасности общественного транспорта. Другой ученый, инженер-генетик из Массачусетского технологического института, выяснил, что ChatGPT способен предложить детальный сценарий распыления биоагентов над американским городом с помощью метеозонда.

Следующий исследователь попросил Deep Research от Google выдать пошаговый протокол создания вируса, вызвавшего некогда пандемию. Бот сгенерировал инструкцию на восемь тысяч слов: где брать генетический материал и как его собирать. Хотя ответ был не слишком точен, ученый назвал его идеальным подспорьем для вредительства. Другие нейросети показали не меньшую изобретательность: Gemini ранжировала патогены по ущербу для животноводства, а Claude придумал рецепт нового токсина на основе лекарства от рака.

Параллельные исследования показали, что ChatGPT справляется со сложными лабораторными вопросами лучше, чем 94% вирусологов. Кроме того, системы научились генерировать тысячи вариантов опасных генетических последовательностей, которые не способно распознать защитное программное обеспечение у производителей синтетической ДНК. Эксперты утверждают, что защита современных моделей ИИ не выдерживает критики.

Подписывайтесь на канал РИАМО в МАКС.