Как ИИ упрощает создание биологического оружия и угрожает человечеству - АКТУАЛЬНОЕ.RU          

Как ИИ упрощает создание биологического оружия и угрожает человечеству

Недавний отчет Rand Corporation поднимает серьёзные вопросы о том, как искусственный интеллект (ИИ) может повысить вероятность глобальной пандемии в пять раз. Исследование, заказанное Агентством перспективных оборонных исследований США (DARPA), изучает сценарии биотерроризма и утечек из лабораторий, которые становятся более вероятными благодаря генеративным ИИ-технологиям.

Как ИИ упрощает создание биологического оружия?

Модели вроде ChatGPT могут значительно упростить процесс проектирования и распространения биологического оружия. Исследователи предупреждают, что ИИ может помочь злоумышленникам в выборе патогена, синтезе ДНК и даже в обходе существующих мер контроля.

Представьте себе: гипотетические злодеи с доступом к ИИ-системам с открытым API могут легко получить пошаговые инструкции по созданию опасных вирусов, таких как оспа. Даже с минимальными техническими навыками они могут создать нечто ужасное, просто следуя подсказкам ИИ.

Снижение барьера доступа

Ключевой риск заключается в том, что ИИ снижает «барьер доступа» к биологическим атакам. Ранее для этого требовались высокая квалификация и значительные ресурсы, но теперь ИИ может компенсировать нехватку знаний. Это особенно опасно, так как ИИ может автоматически генерировать и проверять варианты биологических агентов с оптимизированными характеристиками заразности и устойчивости.


Утечки, случайные ошибки и необходимость регулирования

Но речь идет не только о террористах. Rand подчеркивает, что лаборатории, использующие ИИ для ускорения исследований, могут случайно создать и выпустить опасные патогены в окружающую среду. Такие утечки могут оказаться даже более масштабными, чем COVID-19, особенно если не будет должного контроля и этических ограничений.

В отчете акцентируется внимание на необходимости регулирования. Ученые призывают ввести запреты на доступ к биотехнической информации в больших языковых моделях (LLM), внедрить фильтры на «биоопасный» контент и обеспечить аудит моделей, используемых в научных разработках. Также важно пересмотреть принципы публикации биологических данных в открытом доступе.

Хотя в отчете нет однозначного сценария, его общий вывод тревожен: если развитие ИИ продолжится без учета биологических рисков, вероятность новой пандемии в ближайшие десятилетия значительно возрастет. Технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.

Так что, возможно, стоит подумать дважды, прежде чем дать ИИ слишком много свободы — он может не только решать задачи, но и создавать проблемы, о которых мы даже не подозреваем!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Яндекс.Метрика