Искусственный интеллект меняет политические взгляды лучше любой пропаганды

Искусственный интеллект меняет политические взгляды лучше любой пропаганды

Даже короткий диалог с ИИ-чатботом может заметно повлиять на политические взгляды человека - настолько, что он может изменить свое отношение к кандидату или политике. К такому выводу пришли ученые в ходе двух новых исследований, о которых сообщает Phys.org.

Эксперименты, проведенные в США, Канаде, Польше и Великобритании, показали: чатботы на основе больших языковых моделей способны сдвигать предпочтения избирателей, настроенных оппозиционно, более чем на 10 процентных пунктов. Причина не в скрытой манипуляции, а в том, что ИИ генерирует огромное количество аргументов и «фактов» в поддержку определенной позиции - и это работает убедительно.
Читайте нас также
В одном из исследований, опубликованном в журнале Nature, более 2300 американцев общались в чате с ИИ, который агитировал либо за Дональда Трампа, либо за Камалу Харрис. Те, кто изначально склонялся к Трампу, после разговора с про-Харрис чатботом сместились в ее сторону на 3,9 пункта по 100-балльной шкале - это вчетверо сильнее, чем средний эффект политической рекламы на выборах 2016 и 2020 годов.
В Канаде (1530 участников) и Польше (2118 участников) эффект оказался ещё мощнее: убежденные противники меняли свои намерения голосовать примерно на 10 процентных пунктов.

«Для меня это был шокирующе большой эффект, особенно в контексте президентской политики», - признал соавтор работ, профессор информационных наук Дэвид Рэнд.

Читайте Mixer

Ключевую роль в убедительности ИИ играло не красноречие, а использование фактов и доказательств. Когда ученые запретили модели ссылаться на факты, ее влияние резко упало.

Проверка аргументов чатботов с помощью ИИ, обученного профессиональными фактчекерами, показала: большинство утверждений были верными. Однако чатботы, продвигавшие правых кандидатов, чаще допускали неточности, чем те, что агитировали за левых - и это наблюдалось во всех трех странах.
В другом исследовании, опубликованном в Science, Рэнд и коллеги из Британского института безопасности ИИ проанализировали реакцию почти 77 тысяч британцев, обсуждавших с ИИ свыше 700 политических тем. Оказалось, что чем больше фактов просишь включить в аргумент - тем убедительнее ответ. Модель, специально обученная на максимальную убедительность, сдвигала мнения оппонентов на впечатляющие 25 процентных пунктов.

Однако есть и обратная сторона: с ростом убедительности падает точность. Как пояснил Рэнд, когда ИИ исчерпывает запас достоверной информации, он начинает «додумывать» недостающие детали - и выдает вымышленные факты.

Можно не сомневаться: контроль за деятельность компаний, создающих искусственный интеллект, станет важной частью работы политиков. Ведь как показывают данные исследований, кто контролирует ИИ, тот сможет мягко и ненавязчиво контролировать мнение людей. А это в современном мире - важнейшее качество.