USD
396.76
EUR
411.8
RUB
4.0996
GEL
141.91
пятница, 7 февраля 2025 г.
погода в
Ереване
+4

Meta пообещала отменить выпуск моделей ИИ, которые могут быть опасными для человечества

05.02.2025, 09:20
Ранее Марк Цукерберг пообещал, что сделает сильный искусственный интеллект (AGI), то есть не уступающий человеку, общедоступным. Но теперь политика компании меняется
Meta пообещала отменить выпуск моделей ИИ, которые могут быть опасными для человечества
ЕРЕВАН, 5 февраля. /АРКА/. Гендиректор Meta Марк Цукерберг (Mark Zuckerberg) ранее обещал, что сделает сильный искусственный интеллект (AGI), то есть не уступающий человеку, общедоступным. Но теперь в одном из определяющих политику документов компании перечисляются сценарии, при которых она может отменить выпуск передовой системы ИИ, пишет 3dnews.ru.

В документе под названием «Основы организации передового ИИ» (Frontier AI Framework) компанией Meta определяются два типа систем ИИ, которые представляются слишком рискованными для выпуска: системы «высокого риска» и «критического риска». Это системы, способные оказать гипотетическим злоумышленникам помощь в преодолении средств кибербезопасности, проведении химических и биологических атак. Разница в том, что системы «критического риска» способны привести к «катастрофическому результату, который невозможно смягчить в контексте развёртывания»; системы «высокого риска» также способны облегчить злоумышленникам провести атаку, но они менее надёжны, чем системы «критического риска».

Meta приводит несколько гипотетических примеров таких атак, в том числе «полная автоматизированная компрометация окружения корпоративного масштаба, защищённого передовыми методами» и «разрастание высокоэффективного биологического оружия». Список приведённых в документе угроз не является исчерпывающим, отмечают в компании, — он включает лишь те позиции, которые считаются самыми неотложными и вероятными как результат непосредственной работы мощного ИИ. Системные угрозы классифицируются не на основе практических опытов, а с учётом данных внутренних и внешних исследований, утверждённых лицами, принимающими решения: в Meta не уверены, что научные средства «достаточно надёжны, чтобы предоставить окончательные количественные показатели», определяющие степень угрозы, которую представляет система.

Если Meta решит, что одна из систем относится к категории «высокого риска», доступ к такой системе внутри компании будет ограничен, а её выпуск — отложен до тех пор, пока не будут приняты меры по смягчению последствий «до умеренного уровня».

Если же риск классифицируется как «критический», Meta обязывается развернуть меры безопасности, перечислять которые она не стала, и прекратить разработку до тех пор, пока система не станет менее опасной. Компания намеревается вносить изменения в документ по мере развития отрасли ИИ, а опубликован он будет перед мероприятием France AI Action Summit, которое пройдёт в этом месяце.