Елена Борисова

Предупреждение: ИИ питается левыми фейками из Википедии, а вы получаете искажённую картину мира

Предупреждение: ИИ питается левыми фейками из Википедии, а вы получаете искажённую картину мира

Популярные ИИ-боты обучаются на предвзятых источниках - и транслируют их миллионам пользователей.

Новое исследование Axios показывает, что ChatGPT, Gemini и Claude - три самых популярных бота на основе искусственного интеллекта - активно используют Википедию для обучения своих больших языковых моделей. Об этом сообщает New York Post. 

Издание отмечает, что проблема в том, что сама Википедия давно превратилась в пристанище однобокой, леволиберальной информации.

В результате миллионы пользователей получают искаженную картину мира - через ответы ИИ, которые подаются как «объективная информация».

По мнению авторов статьи, Википедия всё больше напоминает «Wokepedia» - онлайн-энциклопедию, в которой критически важные темы преподносятся с откровенным идеологическим уклоном.

Кроме того, Википедия ведёт собственный «чёрный список» - список источников, которые её редакторы считают ненадёжными и запрещают использовать. В число заблокированных входят Fox News, The Daily Wire, The Daily Caller и даже New York Post.

А вот каким источникам, по мнению Википедии, можно доверять? The Guardian, MSNBC, The Nation и Vox - именно те, кто распространял дезинформацию о «сговоре Трампа с Россией», обвинял его в пандемии COVID и отвергал подлинность ноутбука Хантера Байдена.

И всё это - в материалах, на которых обучаются ИИ. Те самые чат-боты, которым миллионы людей ежедневно доверяют искать правду.

И это не голословные обвинения. Отчёт Британского центра по политическим исследованиям также показал явное смещение ИИ влево - особенно на темы свободы слова, энергетики и жилищной политики.

Интересно, что сами ИИ, как правило, не отрицают наличие перекоса. А одна из причин - культурная среда в Силиконовой долине, где разработчики и программисты ИИ в среднем гораздо либеральнее остального общества. Это и отражается на алгоритмах.

«Мусор на входе - мусор на выходе»,

- гласит старое правило в программировании. И если нейросети будут продолжать питаться одними и теми же искажёнными источниками, они будут всё больше воспроизводить этот уклон. В итоге общественное сознание рискует застрять в «пузыре» без объективной точки опоры.

Президент Дональд Трамп уже объявил о «плане действий» в отношении Big Tech: компании, разрабатывающие ИИ, должны будут обеспечить идеологический баланс в обучающих данных - иначе могут лишиться государственных контрактов.

Однако авторам статьи кажется, что дело даже не в угрозе санкций - а в вопросе доверия. Если ИИ продолжит опираться исключительно на Википедию и подобные ей источники, то хотя бы должен сопровождать каждый свой ответ предупреждением о возможной предвзятости.

Иначе ИИ перестанет быть помощником - и станет инструментом манипуляции.