Популярные ИИ-боты обучаются на предвзятых источниках — и транслируют их миллионам пользователей.
Новое исследование Axios показывает, что ChatGPT, Gemini и Claude — три самых популярных бота на основе искусственного интеллекта — активно используют Википедию для обучения своих больших языковых моделей. Об этом сообщает New York Post.
Издание отмечает, что проблема в том, что сама Википедия давно превратилась в пристанище однобокой, леволиберальной информации.
В результате миллионы пользователей получают искаженную картину мира — через ответы ИИ, которые подаются как «объективная информация».
По мнению авторов статьи, Википедия всё больше напоминает «Wokepedia» — онлайн-энциклопедию, в которой критически важные темы преподносятся с откровенным идеологическим уклоном.
Кроме того, Википедия ведёт собственный «чёрный список» — список источников, которые её редакторы считают ненадёжными и запрещают использовать. В число заблокированных входят Fox News, The Daily Wire, The Daily Caller и даже New York Post.
А вот каким источникам, по мнению Википедии, можно доверять? The Guardian, MSNBC, The Nation и Vox — именно те, кто распространял дезинформацию о «сговоре Трампа с Россией», обвинял его в пандемии COVID и отвергал подлинность ноутбука Хантера Байдена.
И всё это — в материалах, на которых обучаются ИИ. Те самые чат-боты, которым миллионы людей ежедневно доверяют искать правду.
И это не голословные обвинения. Отчёт Британского центра по политическим исследованиям также показал явное смещение ИИ влево — особенно на темы свободы слова, энергетики и жилищной политики.
Интересно, что сами ИИ, как правило, не отрицают наличие перекоса. А одна из причин — культурная среда в Силиконовой долине, где разработчики и программисты ИИ в среднем гораздо либеральнее остального общества. Это и отражается на алгоритмах.
«Мусор на входе — мусор на выходе»,
— гласит старое правило в программировании. И если нейросети будут продолжать питаться одними и теми же искажёнными источниками, они будут всё больше воспроизводить этот уклон. В итоге общественное сознание рискует застрять в «пузыре» без объективной точки опоры.
Президент Дональд Трамп уже объявил о «плане действий» в отношении Big Tech: компании, разрабатывающие ИИ, должны будут обеспечить идеологический баланс в обучающих данных — иначе могут лишиться государственных контрактов.
Однако авторам статьи кажется, что дело даже не в угрозе санкций — а в вопросе доверия. Если ИИ продолжит опираться исключительно на Википедию и подобные ей источники, то хотя бы должен сопровождать каждый свой ответ предупреждением о возможной предвзятости.
Иначе ИИ перестанет быть помощником — и станет инструментом манипуляции.