Новое исследование показало, что использование ChatGPT может ухудшать память и снижать умственные способности.
Исследование, проведённое учёными из Массачусетского технологического института (MIT), выявило тревожную тенденцию: студенты, использующие искусственный интеллект, в частности языковую модель ChatGPT, демонстрируют снижение активности мозга, ухудшение памяти и слабое вовлечение в учебный процесс.
Daily Mail сообщает, что в рамках работы «Ваш мозг и ChatGPT» исследователи из MIT Media Lab отслеживали электрическую активность мозга у 54 студентов на протяжении нескольких сессий по написанию эссе.
Участников разделили на три группы: первая использовала ChatGPT, вторая — поисковик Google, а третья справлялась с заданиями самостоятельно, без какой-либо внешней помощи.
Результаты оказались неоднозначными: хотя студенты, прибегнувшие к помощи ChatGPT, изначально демонстрировали «впечатляющие» результаты, в долгосрочной перспективе их показатели оказались значительно ниже. «На всех уровнях — нейронном, языковом, оценочном — эта группа уступала участникам, работавшим без поддержки», — отмечается в отчёте.
Кроме того, студенты, использовавшие ИИ, с трудом вспоминали написанные ими эссе и испытывали меньше чувства причастности к своей работе. Учёные заключили: использование
ChatGPT снижает умственную активность — мозг просто работает меньше.
Группа, не получавшая внешней помощи, показала лучшие результаты по уровню мозговой активности и креативности идей. Участники, использовавшие только Google, демонстрировали «умеренное вовлечение» и промежуточные показатели.
Даже при переходе к самостоятельной работе студенты из группы ChatGPT продолжали демонстрировать пониженную активность мозга, в отличие от остальных.
Исследование также выявило, что пользователи ИИ отвечают на вопросы с меньшими усилиями, но это ведёт к отказу от критического мышления и анализа выданной модели информации.
Учёные предупреждают:
удобство ИИ сопровождается «когнитивной ценой» — снижением способности мыслить критически и формировать оригинальные идеи.
Более того, они подчеркивают опасность эффекта «информационного пузыря», когда контент, предлагаемый ИИ, формируется алгоритмами, исходя из интересов разработчиков и владельцев технологии, а не с целью развития мышления пользователя.