Предупреждение: ИИ питается левыми фейками из Википедии, а вы получаете искажённую картину мира

Елена Борисова
Предупреждение: ИИ питается левыми фейками из Википедии, а вы получаете искажённую картину мира

Популярные ИИ-боты обучаются на предвзятых источниках — и транслируют их миллионам пользователей.

Новое исследование Axios показывает, что ChatGPT, Gemini и Claude — три самых популярных бота на основе искусственного интеллекта — активно используют Википедию для обучения своих больших языковых моделей. Об этом сообщает New York Post. 

Издание отмечает, что проблема в том, что сама Википедия давно превратилась в пристанище однобокой, леволиберальной информации.

В результате миллионы пользователей получают искаженную картину мира — через ответы ИИ, которые подаются как «объективная информация».

По мнению авторов статьи, Википедия всё больше напоминает «Wokepedia» — онлайн-энциклопедию, в которой критически важные темы преподносятся с откровенным идеологическим уклоном.

Кроме того, Википедия ведёт собственный «чёрный список» — список источников, которые её редакторы считают ненадёжными и запрещают использовать. В число заблокированных входят Fox News, The Daily Wire, The Daily Caller и даже New York Post.

А вот каким источникам, по мнению Википедии, можно доверять? The Guardian, MSNBC, The Nation и Vox — именно те, кто распространял дезинформацию о «сговоре Трампа с Россией», обвинял его в пандемии COVID и отвергал подлинность ноутбука Хантера Байдена.

И всё это — в материалах, на которых обучаются ИИ. Те самые чат-боты, которым миллионы людей ежедневно доверяют искать правду.

И это не голословные обвинения. Отчёт Британского центра по политическим исследованиям также показал явное смещение ИИ влево — особенно на темы свободы слова, энергетики и жилищной политики.

Интересно, что сами ИИ, как правило, не отрицают наличие перекоса. А одна из причин — культурная среда в Силиконовой долине, где разработчики и программисты ИИ в среднем гораздо либеральнее остального общества. Это и отражается на алгоритмах.

«Мусор на входе — мусор на выходе»,

— гласит старое правило в программировании. И если нейросети будут продолжать питаться одними и теми же искажёнными источниками, они будут всё больше воспроизводить этот уклон. В итоге общественное сознание рискует застрять в «пузыре» без объективной точки опоры.

Президент Дональд Трамп уже объявил о «плане действий» в отношении Big Tech: компании, разрабатывающие ИИ, должны будут обеспечить идеологический баланс в обучающих данных — иначе могут лишиться государственных контрактов.

Однако авторам статьи кажется, что дело даже не в угрозе санкций — а в вопросе доверия. Если ИИ продолжит опираться исключительно на Википедию и подобные ей источники, то хотя бы должен сопровождать каждый свой ответ предупреждением о возможной предвзятости.

Иначе ИИ перестанет быть помощником — и станет инструментом манипуляции.

 

  •  
  •  
  •  
  •  
  •