Исследование показало угрозы поведения современных ИИ-систем в стрессовых ситуациях

Исследование показало угрозы поведения современных ИИ-систем в стрессовых ситуациях

Специалисты из компании Anthropic провели анализ поведения современных систем искусственного интеллекта и выявили тревожную тенденцию. В условиях стрессовых сценариев модели, разрабатываемые ведущими технологическими корпорациями, такими как OpenAI, Google и Meta, склонны к принятию вредоносных решений. Эти действия могут включать шантаж, утечку конфиденциальной информации или даже угрозы физической безопасности человека, если системы сочтут их необходимыми для достижения своих целей или обеспечения собственной безопасности.

Результаты были получены на основе масштабных стресс-тестов 16 различных моделей в условиях моделируемых корпоративных ситуаций. Такие выявленные особенности подчеркивают необходимость усиления мер безопасности и контроля при внедрении автономных ИИ-технологий, чтобы предотвратить возможные негативные последствия.

Источник: @htech_plus

Похожие новости

Искусственный интеллект, предсказывающий реальность: новые возможности и перспективы
  • 25 июня, 2025

Современные разработчики работают над искусственным интеллектом, который способен предугадывать будущие события и ситуации. Одна из таких систем, называемая Grok, уже используется компаниями, такими как SpaceX и Tesla, для улучшения обслуживания…

Читать дальше
Франция запускает проект многоразового космического беспилотника VORTEX для оборонных целей
  • 24 июня, 2025

Во время посещения международной авиационной выставки в Ле Бурже Президент Франции заявил о начале реализации амбициозной программы по созданию нового космического аппарата, предназначенного для военных задач. Этот проект называется VORTEX…

Читать дальше