Мужчина отравился, следуя совету ChatGPT. Смертельная ошибка ИИ

Елена Борисова
Мужчина отравился, следуя совету ChatGPT.  Смертельная ошибка ИИ

60-летний американец оказался в больнице с галлюцинациями и паранойей после замены соли на токсичный химический препарат по рекомендациям искусственного интеллекта.

Daily Mail рассказывает историю 60-летнего американца, попавшего в больницу на три недели с галлюцинациями, паранойей и сильной тревожностью после того, как заменил обычную поваренную соль на химическое вещество, обычно используемое для очистки бассейнов, следуя советам искусственного интеллекта ChatGPT.

Врачи сообщили, что у пациента развился бромизм - редкое токсическое состояние, практически исчезнувшее с XX века. Мужчина использовал вместо хлорида натрия натрий бромид, который ранее применялся в седативных препаратах, а сейчас встречается в средствах для бассейнов. Симптомы бромизма включают психоз, бред, кожные высыпания и тошноту.

Случай привлек внимание медиков тем, что мужчина не имел истории психических заболеваний и при этом стал убежден, что сосед пытается его отравить.

После проверки ChatGPT врачи обнаружили, что бот по-прежнему рекомендует натрий бромид в качестве альтернативы соли без указания опасности для здоровья.

Публикация в журнале Annals of Internal Medicine подчеркивает, что использование AI для медицинских и диетических советов может привести к серьезным последствиям для здоровья. Ранее искусственный интеллект уже давал опасные рекомендации, в том числе сатирического характера. Этот случай служит предупреждением о рисках слепого доверия цифровым советчикам в вопросах здоровья.

  •  
  •  
  •  
  •  
  •