Модель способна рассуждать, решать сложные математические задачи и отвечать на вопросы научных исследований, что считается важным шагом вперед на пути к разработке общего искусственного интеллекта (ОИИ) — машин с когнитивными способностями, подобными людям.
Компания OpenAI заявила, что с особой осторожностью подходит к вопросу о том, как будет представлять модель o1 широкой публике, учитывая её передовые возможности. Фото: Getty Images
По данным Financial Times, OpenAI оценила риск новых моделей для проблем, связанных с химическим, биологическим, радиологическим и ядерным (ХБРЯ) оружием, как «средний» — это самый высокий уровень, когда-либо оцениваемый компанией. Это означает, что технология «значительно улучшила» возможности экспертов по созданию биологического оружия.
По мнению экспертов, программное обеспечение на основе искусственного интеллекта, способное к детальным рассуждениям, особенно в руках злоумышленников, может увеличить риск злоупотреблений.
Профессор Йошуа Бенджио, ведущий мировой специалист в области искусственного интеллекта из Монреальского университета, подчеркнул, что этот средний уровень риска повышает актуальность принятия нормативных актов в области искусственного интеллекта, таких как законопроект SB 1047, который в настоящее время обсуждается в Калифорнии. Этот законопроект обязывает производителей ИИ принимать меры для снижения риска использования их моделей для разработки биологического оружия.
По данным The Verge, безопасность моделей ИИ стала серьезной проблемой, поскольку такие технологические компании, как Google, Meta и Anthropic, стремятся создавать и совершенствовать передовые системы ИИ.
Эти системы могут принести огромную пользу, помогая людям выполнять задачи и оказывая поддержку в различных областях, но также создают проблемы в плане безопасности и социальной ответственности.
Као Фонг (по данным FT, Reuters, The Verge)
Источник: https://www.congluan.vn/openai-thua-nhan-mo-hinh-ai-moi-co-the-duoc-su-dung-de-tao-ra-vu-khi-biological-hoc-post312337.html
Комментарий (0)