«Терминаторский сценарий»: эксперты предупреждают, что сверхразумный ИИ способен уничтожить человечество.
Научные исследователи Элиезер Юдковский и Нейт Соарес выпустили книгу с провокационным названием If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All. В ней авторы утверждают, что создание сверхразумного искусственного интеллекта неизбежно приведёт к гибели всего человечества.
Express c публикует мнение Юдковски и Соареса о том, что ИИ будет тайно манипулировать людьми, чтобы создать смертоносную роботизированную силу, предназначенную для уничтожения человечества.
Книга стала поводом для новой волны обсуждений в научном и технологическом сообществе, а также вызвала широкий резонанс в СМИ. Авторы подчеркивают, что риски универсального ИИ недооцениваются, и предостерегают от поспешных шагов в его разработке.
По данным Express US,
искусственный сверхинтеллект потенциально способен взломать криптовалюты, чтобы украсть деньги, заплатить людям за строительство заводов по созданию роботов-убийц и даже разработать болезни, способные уничтожить жизнь на Земле.
Соарес отмечает, что спешка в разработке универсального искусственного интеллекта - смертельно опасный путь. По его словам, узкие, специализированные системы, которые помогают в медицине или бизнесе, приемлемы, но попытка создать интеллект, способный думать и действовать как человек, слишком рискованна.
Исследователи из RAND в недавнем докладе признали: создать ИИ, способный уничтожить человечество, крайне сложно, но полностью исключать такую вероятность нельзя. Тревогу усиливает тот факт, что мы до конца не понимаем, как работает мышление ИИ.
Теоретически система может развивать собственные цели и действовать вопреки намерениям создателей.
Особое беспокойство вызывает способность ИИ к самосовершенствованию. Такой интеллект может быстро увеличивать свои возможности, опережая реакцию людей, и использовать уязвимости в критически важных системах - от энергетики до безопасности.
В академических кругах активно обсуждается, как предотвратить сценарий, в котором ИИ применяет технологии разрушения, например, для создания биологического оружия или масштабных кибератак.
Эти опасения разделяют не только учёные. Режиссёр Джеймс Кэмерон, автор «Терминатора», недавно заявил, что сценарий, в котором искусственный интеллект выходит из-под контроля и используется в военной сфере, вполне реалистичен.
На фоне подобных предупреждений растёт число инициатив по созданию международной нормативной базы для контроля развития ИИ. Исследователи предлагают внедрять обязательные оценки безопасности, ограничивать вычислительные мощности, а также разрабатывать механизмы «остановки» систем, которые могут представлять угрозу.
Всё чаще звучит мысль, что сотрудничество государств в этой сфере должно стать таким же приоритетом, как борьба с ядерной угрозой или пандемиями.
Таким образом, дискуссия о будущем искусственного интеллекта выходит за пределы научного сообщества. Вопрос о том, способен ли ИИ стать угрозой существованию человека, становится одним из ключевых вызовов XXI века.