Планирование отпуска через ChatGPT или другие нейросети оборачивается риском оказаться в глухой чаще или на безлюдной горе. Туристы все чаще попадают в переделки из-за ложных подсказок искусственного интеллекта, который подсовывает небылицы вместо реальных маршрутов.
BBC, опираясь на отчеты экспертов, приводит примеры, как модели вроде ChatGPT, Microsoft Copilot и Google Gemini выдумывают достопримечательности, путают расписания и рисуют маршруты, которые на деле невыполнимы.
В Перу два туриста рванули в поход к вымышленному «Священному каньону Умантай» в Андах. Их планы развеял местный гид Мигель Анхель Гонгора Меза, случайно подслушавший разговор.
«Такого рода дезинформация в Перу просто опасна. Высота, климатические изменения и доступность троп должны быть спланированы.
Когда вы используете программу, которая комбинирует картинки и названия для создания фантазии, вы можете оказаться на высоте 4000 метров без кислорода и связи», - сообщил он.
Такие истории повторяются. В Японии пара, доверившаяся ChatGPT для трека на гору Мисен, просидела на вершине до ночи: ИИ ошибся с временем работы канатки, и спуститься не вышло.
А приложение Layla однажды выдало британскому туристу маршрут марафона по северной Италии, который был чистой фантазией, плюс уверяло, что Эйфелева башня стоит в Пекине.
Корень беды - в сути больших языковых моделей, объясняет профессор машинного обучения из Университета Карнеги-Меллона Райид Гани. Эти системы не копаются в фактах, а прогоняют через себя тонны данных, чтобы слепить правдоподобный текст из вероятных слов.
«Иногда это приводит к созданию так называемых «галлюцинаций» - информации, которая звучит правдоподобно, но не соответствует действительности», - пояснил специалист.
По его словам, ИИ выдает правду и вымысел с одинаковой уверенностью, и пользователю приходится самому копать, чтобы не нарваться.
Опрос 2024 года показал: треть путешественников, опиравшихся на ИИ, нарвались на фейки. А по данным Global Rescue, четверть туристов уже пробует нейросети для поездок, и среди международных это до 30 процентов.
Но есть и худшее: мошенники накачивают ботов и дипфейки, чтобы клепать фальшивые сайты и apps для выуживания данных карт. Замдиректора по безопасности Global Rescue Хардинг Буш бьет тревогу по этому поводу.
Эксперты считают галлюцинации неотъемлемой болячкой LLM. Совет прост: перепроверяйте каждый совет от ИИ, особенно про дикие места. Только вот, как подмечает Гани, такая осторожность может уравнять ИИ-планирование с рутинным гуглингом - по времени и нервам.