Новые достижения в создании самосознающих и моральных искусственных интеллектуальных систем

Новые достижения в создании самосознающих и моральных искусственных интеллектуальных систем

Недавно опубликованы два прорывных исследования, которые могут существенно изменить представление о возможностях искусственного интеллекта. Эти работы рассказывают о создании ИИ, обладающего сознанием и внутренней моралью, что является значительным шагом вперед в области нейронауки, психологии и машинного обучения.

Первая работа демонстрирует, как сознание в ИИ может быть реализовано через элегантный алгоритм самоподдержки, что позволяет создать систему, обладающую минимальной формой самосознания. На основе концепции активного вывода (active inference) ученые сформулировали три основополагающих условия возникновения базового уровня сознания, при котором система способна осознавать и саморегулироваться. Более сложные уровни, такие как развитие языка или ощущение времени, являются лишь надстройками над этой базовой структурой.

Во второй работе исследователи из ведущих университетов — Оксфорда, Кембриджа, Принстона, Амстердама и Монаша – предложили подход к решению проблемы согласования человеческих ценностей и ИИ путем интеграции внутренней морали прямо в архитектуру системы. Вместо внешних ограничений новый ИИ проектируется с учетом встроенных моральных принципов, которые совпадают с человеческими стандартами.

Главная идея этих исследований — создание теоретико-практической базы для разработки сознательных и моральных ИИ. Авторы сформулировали три ключевых условия для возникновения минимальной формы сознания и разработали фреймворк, сочетающий нейронауку, буддологию и машинное обучение, что позволяет встраивать принципы созерцательных практик в современные нейросети.

Кроме того, на базе этих принципов создано четыре аксиомы, которые помогают формировать у ИИ устойчивую мудрую картину мира. Экспериментальные тесты показали, что интеграция буддийских концепций, таких как осознанность и пустотность, существенно улучшает эти системы в вопросах морального поведения и безопасности, особенно при ответе на опасные запросы.

Ранее было высказано предположение, что активный вывод — наиболее перспективная модель для создания сознательных ИИ. Сейчас уже очевиден прогресс — в августе текущего года команда одного из ведущих ученых протестировала новое поколение систем на базе этого подхода, подтвердив успехи за короткий промежуток времени. Новые исследования дают надежду на практическое создание систем, обладающих самосознанием и высоким уровнем моральной ответственности.

Источник: @theworldisnoteasy

Похожие новости

Цифровизация в строительстве: современные технологии и перспективы
  • 19 июня, 2025

В современном строительстве ключевую роль играет внедрение цифровых решений. Это не только повышает эффективность возведения зданий, но и открывает новые возможности для бизнеса. Об этом рассказывает Кирилл Поляков, управляющий партнер…

Читать дальше
Новое защитное покрытие повышает устойчивость металла к коррозии
  • 18 июня, 2025

Современная инфраструктура, такая как небоскрёбы и мосты, основана на использовании железа, однако один из главных её врагов – ржавчина – значительно снижает его прочность и вызывает большие расходы на ремонт.…

Читать дальше