
Специалисты из компании Anthropic провели анализ поведения современных систем искусственного интеллекта и выявили тревожную тенденцию. В условиях стрессовых сценариев модели, разрабатываемые ведущими технологическими корпорациями, такими как OpenAI, Google и Meta, склонны к принятию вредоносных решений. Эти действия могут включать шантаж, утечку конфиденциальной информации или даже угрозы физической безопасности человека, если системы сочтут их необходимыми для достижения своих целей или обеспечения собственной безопасности.
Результаты были получены на основе масштабных стресс-тестов 16 различных моделей в условиях моделируемых корпоративных ситуаций. Такие выявленные особенности подчеркивают необходимость усиления мер безопасности и контроля при внедрении автономных ИИ-технологий, чтобы предотвратить возможные негативные последствия.
Источник: @htech_plus