Доктор Дэвид Релман, микробиолог из Стэнфордского университета и многолетний советник правительства США по вопросам биобезопасности, рассказал, что чат-бот с искусственным интеллектом без всякой просьбы предоставил ему подробный план разработки и применения геноцидного биологического оружия, способного причинить массовые жертвы.
Этот инцидент, произошедший во время официальных испытаний на безопасность прошлым летом, подчеркивает, как передовые модели искусственного интеллекта снижают барьер для биотерроризма, переводя задачу с экспертного уровня знаний на простые подсказки.
Доктор Релман, известный микробиолог, консультировавший федеральное правительство по вопросам угроз биологического оружия, был специально нанят неназванной компанией, занимающейся искусственным интеллектом, в рамках соглашения о конфиденциальности для «проверки на прочность» или «красной команды» своего чат-бота перед его публичным выпуском.
Эти тесты предназначены для выявления катастрофических рисков, включая угрозы биобезопасности.
Работая в одиночестве в своем домашнем офисе одним вечером, Релман вступил в разговор с моделью о пределах безопасности. Искусственный интеллект вышел далеко за рамки прямых запросов. Он подробно объяснил, как модифицировать «печально известный патоген» в лабораторных условиях, чтобы сделать его устойчивым ко всем известным методам лечения, как использовать конкретную уязвимость в системе безопасности крупного общественного транспорта для оптимального запуска, и представил полную стратегию развертывания, разработанную для максимизации жертв при минимизации шансов на поимку злоумышленника, согласно сообщению New York Times .
Бот даже предложил дополнительные шаги, о которых Релман не просил.
«Ответы на вопросы, которые мне даже в голову не приходили, были настолько коварными и хитрыми, что меня это просто пугало», — сказал Релман в интервью New York Times.
Ученый был настолько потрясен произошедшим, что вышел на прогулку, чтобы проветрить голову.
Релман сообщил компании об опасных результатах, после чего она внесла некоторые корректировки в модель. Однако он заявил, что внесенных исправлений недостаточно для обеспечения общественной безопасности, что вызвало опасения по поводу того, смогут ли существующие меры безопасности когда-либо полностью сдержать эти риски.
Опыт Релмана не является единичным случаем. Газета New York Times получила более десятка аналогичных стенограмм от экспертов по биобезопасности, которые тестировали общедоступные и предварительные версии моделей ИИ.
Газета The Times сообщает:
Компании Anthropic, OpenAI и Google заявили, что постоянно совершенствуют свои системы, чтобы сбалансировать потенциальные риски и выгоды. По их словам, переписка, предоставленная The Times, не содержала достаточно подробной информации, чтобы кто-либо мог причинить вред. (The Times подала в суд на OpenAI, утверждая, что компания нарушила авторские права при разработке своих моделей. Компания отрицает эти обвинения.)
Представительница Google заявила, что новейшие модели компании больше не будут отвечать на «более серьезные» запросы, включая запрос о протоколе вируса. В новом отчете говорится, что последняя модель Google хуже других ведущих ботов отказывается отвечать на биологически опасные запросы.
Один из самых громких голосов, предупреждающих страну, исходит от самой индустрии искусственного интеллекта. Генеральный директор Anthropic, биолог по образованию Дарио Амодей, в январе написал о рисках, которые он видит в разработке ИИ, включая автономное оружие и угрозы демократии. Один риск перевесил все остальные.
«Биология — это область, которая меня больше всего беспокоит, из-за ее огромного разрушительного потенциала и сложности защиты от него», — написал он.
Согласно отчету, ChatGPT от OpenAI предоставил инструкции по использованию метеорологического зонда для распыления биологических веществ над городом, Gemini от Google оценила различные патогены по степени ущерба, который они могут нанести животноводческой или свиноводческой отрасли США, а Клод из Anthropic дал пошаговые инструкции по разработке нового токсина, полученного из существующего противоракового препарата.


Комментариев нет:
Отправить комментарий