Валерия Леонова

5 вещей, о которых нельзя рассказывать чат-боту

5 вещей, о которых нельзя рассказывать чат-боту

Если вам кажется, что ChatGPT отвечает «как друг» и очень «доброжелателен»,  не обманывайтесь - информация, которую вы вводите, может быть использована не так, как вы ожидаете.

Чат-боты с искусственным интеллектом (ИИ) вроде ChatGPT стали неотъемлемой частью нашей жизни: люди используют его для поиска ответов, составления текстов, анализа данных, однако важно помнить, что это не безопасное хранилище ваших личных данных, пишет SlashGear, медиаплатформа, специализирующаяся на новостях и аналитике, связанных с технологиями.

Ежедневно ChatGPT отвечает примерно на  2,5 млрд запросов, и всегда есть реальные риски неконтролируемого использования данных, которую вы вводите.

Читайте нас также

Вот пять вещей, которые нельзя рассказывать ChatGPT или любому другому чат-боту.

Персональная информация

Многие пользователи вводят свое реальное имя, адреса, номера документов и контактные данные для, например, составления резюме. Это может привести к серьезным последствиям в случае «утечки» или доступа злоумышленников к базе данных.

Даже если кажется, что бот отвечает «как друг», такая информация может быть обработана системой и использоваться иначе, чем вы ожидаете.

Финансовые детали

ChatGPT можно попросить стать финансовым консультантом и помочь составить ежемесячную стратегию, но никогда не вводите конкретные данные о счетах, кредитных картах, инвестициях или налогах - невозможно узнать их дальнейшую судьбу. Ввод финансовых сведений может создать серьезные риски: от мошеннических схем до фишинговых атак и заражения устройств программами-вымогателями.

Медицинские данные

Читайте Mixer

Опросы показывают, что примерно один из шести человек обращается к ChatGPT как минимум раз в месяц с запросами о лечении. Эксперты призывают делать это с крайней осторожностью и пониманием, что это не заменяет консультацию специалиста. После предоставления ИИ данных о вашем здоровье, невозможно узнать их дальнейшую судьбу.

Материалы, связанные с работой

Документы, отчеты и стратегии компании - все это также не стоит вводить в общение с чат-ботом. Искусственный интеллект может выглядеть удобным инструментом для редактирования текстов или краткого резюме, но это также  ведет к рискам.

Любые незаконные запросы

Этого нужно избегать не только по соображениям безопасности, но и по юридическим причинам. Вопросы о том, как совершать преступления, мошенническую деятельность или манипулировать, могут привести к блокировке сервисов. Кроме того платформы обязаны соблюдать законы и могут раскрывать данные по запросам правоохранительных органов.

Глава OpenAI Сэм Альтман предупреждает, что переписки с ChatGPT не защищены законом, и в случае судебного разбирательства разработчики обязаны предоставить переписку пользователя по решению суда.

Поэтому «дружба дружбой», но личные данные лучше держите при себе.