
Перед человечеством стоит не военная угроза, а сложная онтологическая проблема — риск потерять контроль над искусственным интеллектом. В случае возникновения масштабной аварии или выхода ИИ из-под контроля, у нас до сих пор нет четкого и проверенного плана действий.
Например, пассажиры авиарейсов регулярно слышат инструкции о спасательных жилетах, хотя вероятность аварийной ситуации крайне мала — примерно одна на миллиард. Но даже при такой низкой вероятности нас обучают тому, что делать в случае чрезвычайной ситуации, потому что даже очень малый шанс требует подготовки.
Теперь сравним: есть ли у специалистов по безопасности ИИ уверенность, что риск потери контроля над развитием ИИ в ближайшие десять лет минимален, скажем, в одну из миллиардных долей? Скорее всего, нет. Эксперты оценивают такие опасности как гораздо более вероятные, чем о подобных сценариях можно было бы представить, и имеют в виду риск, намного превышающий данный уровень.
Очевидно, что если для предотвращения авиакатастроф с вероятностью 10^-9 разрабатывается тщательный план, то для угрозы неконтролируемого развития ИИ при большей вероятности он просто необходим. Но у человечества такого плана нет.
Американский центр по исследованию рисков и возможностей — RAND Corporation — проанализировал ситуацию, и их отчет по безопасности ИИ вызывает шокирующие выводы: реально работающего плана по блокировке или остановке опасных систем ИИ не существует. Все предлагаемые варианты — как «ядерный удар по собственной индустрии» — в итоге ведут к катастрофе.
Например, один из сценариев предполагает использование ядерных зарядов в космосе для уничтожения серверов ИИ. Однако это вызовет массивный электромагнитный импульс, который может полностью разрушить электросети, коммуникации и медицинские службы, а также спровоцировать мировой конфликт, поскольку такие действия будут выглядеть как акт агрессии.
Другой вариант — попытка отключить ИИ от сети, например, перерезать все кабели и нарушить работу системы. Но архитектура Интернета устроена так, что это практически невозможно сделать быстро, и такие меры могут привести к коллапсу мировой экономики.
Объявляется также возможность борьбы с опасными системами ИИ с помощью специальных «цифровых паразитов» или автономных охотников, которые будут искать и уничтожать враждебные системы. Однако, для этого нужно создавать новые системы ИИ, что вызывает вопрос — не станет ли эта «локализующая» мера ещё большей угрозой?
Общий вывод таков: существует три тупика — ядерное уничтожение, невозможность быстрого отключения сети и создание новых систем-спасателей, которые могут обернуться новой опасностью. Разработанный и проверенный план борьбы с неконтролируемым ИИ у человечества отсутствует.
Задача стала не просто военной, а онтологической — ситуация, когда структура мира не оставляет вариантов, что приводит к опасной ловушке. Все возможные «последние средства» — коды для самоуничтожения, и каждая из этих мер несет риск полного разрушения.
Главный вопрос — сумеем ли мы вовремя предотвратить развитие мощных ИИ до того, как ситуация станет необратимой? Пока изображая дальнейшее создание всё более сильных систем, мы рискуем закрыть шанс на превентивные меры. Время на раздумье истекает — вопрос сейчас не в победе, а в умении не запустить катастрофу.
Часы тикают, и время для мудрых решений очень ограничено.
Источник: @theworldisnoteasy







