Если вам кажется, что ChatGPT отвечает «как друг» и очень «доброжелателен», не обманывайтесь - информация, которую вы вводите, может быть использована не так, как вы ожидаете.
Ежедневно ChatGPT отвечает примерно на 2,5 млрд запросов, и всегда есть реальные риски неконтролируемого использования данных, которую вы вводите.
Читайте нас также
Вот пять вещей, которые нельзя рассказывать ChatGPT или любому другому чат-боту.
Персональная информация
Многие пользователи вводят свое реальное имя, адреса, номера документов и контактные данные для, например, составления резюме. Это может привести к серьезным последствиям в случае «утечки» или доступа злоумышленников к базе данных.
Даже если кажется, что бот отвечает «как друг», такая информация может быть обработана системой и использоваться иначе, чем вы ожидаете.
Финансовые детали
ChatGPT можно попросить стать финансовым консультантом и помочь составить ежемесячную стратегию, но никогда не вводите конкретные данные о счетах, кредитных картах, инвестициях или налогах - невозможно узнать их дальнейшую судьбу. Ввод финансовых сведений может создать серьезные риски: от мошеннических схем до фишинговых атак и заражения устройств программами-вымогателями.
Медицинские данные

Опросы показывают, что примерно один из шести человек обращается к ChatGPT как минимум раз в месяц с запросами о лечении. Эксперты призывают делать это с крайней осторожностью и пониманием, что это не заменяет консультацию специалиста. После предоставления ИИ данных о вашем здоровье, невозможно узнать их дальнейшую судьбу.
Материалы, связанные с работой
Документы, отчеты и стратегии компании - все это также не стоит вводить в общение с чат-ботом. Искусственный интеллект может выглядеть удобным инструментом для редактирования текстов или краткого резюме, но это также ведет к рискам.
Любые незаконные запросы
Этого нужно избегать не только по соображениям безопасности, но и по юридическим причинам. Вопросы о том, как совершать преступления, мошенническую деятельность или манипулировать, могут привести к блокировке сервисов. Кроме того платформы обязаны соблюдать законы и могут раскрывать данные по запросам правоохранительных органов.
Глава OpenAI Сэм Альтман предупреждает, что переписки с ChatGPT не защищены законом, и в случае судебного разбирательства разработчики обязаны предоставить переписку пользователя по решению суда.
Поэтому «дружба дружбой», но личные данные лучше держите при себе.








































































