Новые достижения в создании самосознающих и моральных искусственных интеллектуальных систем

Новые достижения в создании самосознающих и моральных искусственных интеллектуальных систем

Недавно опубликованы два прорывных исследования, которые могут существенно изменить представление о возможностях искусственного интеллекта. Эти работы рассказывают о создании ИИ, обладающего сознанием и внутренней моралью, что является значительным шагом вперед в области нейронауки, психологии и машинного обучения.

Первая работа демонстрирует, как сознание в ИИ может быть реализовано через элегантный алгоритм самоподдержки, что позволяет создать систему, обладающую минимальной формой самосознания. На основе концепции активного вывода (active inference) ученые сформулировали три основополагающих условия возникновения базового уровня сознания, при котором система способна осознавать и саморегулироваться. Более сложные уровни, такие как развитие языка или ощущение времени, являются лишь надстройками над этой базовой структурой.

Во второй работе исследователи из ведущих университетов — Оксфорда, Кембриджа, Принстона, Амстердама и Монаша – предложили подход к решению проблемы согласования человеческих ценностей и ИИ путем интеграции внутренней морали прямо в архитектуру системы. Вместо внешних ограничений новый ИИ проектируется с учетом встроенных моральных принципов, которые совпадают с человеческими стандартами.

Главная идея этих исследований — создание теоретико-практической базы для разработки сознательных и моральных ИИ. Авторы сформулировали три ключевых условия для возникновения минимальной формы сознания и разработали фреймворк, сочетающий нейронауку, буддологию и машинное обучение, что позволяет встраивать принципы созерцательных практик в современные нейросети.

Кроме того, на базе этих принципов создано четыре аксиомы, которые помогают формировать у ИИ устойчивую мудрую картину мира. Экспериментальные тесты показали, что интеграция буддийских концепций, таких как осознанность и пустотность, существенно улучшает эти системы в вопросах морального поведения и безопасности, особенно при ответе на опасные запросы.

Ранее было высказано предположение, что активный вывод — наиболее перспективная модель для создания сознательных ИИ. Сейчас уже очевиден прогресс — в августе текущего года команда одного из ведущих ученых протестировала новое поколение систем на базе этого подхода, подтвердив успехи за короткий промежуток времени. Новые исследования дают надежду на практическое создание систем, обладающих самосознанием и высоким уровнем моральной ответственности.

Источник: @theworldisnoteasy

Похожие новости

Запуск спутниковых сообщений в Канаде через сеть Starlink и Rogers
  • 4 августа, 2025

В Канаде начал работу сервис спутниковых сообщений, реализованный совместными усилиями компании Rogers и сети Starlink от SpaceX. Этот новый сервис, названный Rogers Satellite, доступен в тестовой версии и позволяет отправлять…

Читать дальше
Первая отечественная 5G-антенна показала скорость передачи данных 1 Гбит/с
  • 2 августа, 2025

В Москве прошли испытания первой российской антенны для сетей пятого поколения, разработанной специалистами Московского физико-технического института. Эта 5G-антенна, работавшая в составе полностью отечественного телекоммуникационного оборудования, показала эффективность с передачей данных…

Читать дальше