► Читайте страницу «Минфина» в фейсбуке: главные финансовые новости

Работа с ChatGPT

Преподаватель рассказал, что несколько лет активно использовал ChatGPT в профессиональной деятельности — для подготовки лекций, создания экзаменов, анализа ответов студентов, редактирования научных публикаций, написания грантовых заявок и даже как интерактивный инструмент в учебном процессе. Он был платным подписчиком ChatGPT Plus и воспринимал сервис как стабильное рабочее пространство, сохраняющее контекст и предыдущие наработки.

По словам профессора, он осознавал риск фактических ошибок, характерных для больших языковых моделей, однако полагался на другое — непрерывность доступа к материалам и сохранение истории работы. Поэтому внезапная потеря данных стала для него неожиданностью.

После исчезновения чатов преподаватель попытался восстановить доступ, используя различные устройства, браузеры и настройки, но безрезультатно. Обращение в службу поддержки OpenAI также не дало результата: сначала отвечал автоматизированный агент, а затем сотрудник компании подтвердил, что данные были удалены окончательно и не подлежат восстановлению.

Речь шла не об отдельных заметках, а о структурированных папках с проектами — интеллектуальном «каркасе» двухлетней работы, который использовался в исследованиях и преподавании.

Ситуация получила публичную огласку после того, как ее описание было опубликовано в журнале Nature. В комментарии OpenAI подтвердила изложенную версию событий и заявила, что удаление данных соответствует принципу «конфиденциальность по проекту».

В компании объяснили, что после окончательного удаления чаты не могут быть восстановлены — ни через пользовательский интерфейс, ни через API или службу поддержки. Это, по словам OpenAI, отвечает лучшим практикам защиты персональных данных и действующим правовым требованиям.

Компания также посоветовала пользователям самостоятельно создавать резервные копии материалов, если они используют ChatGPT в профессиональных целях.

Автор истории отмечает, что его случай выявляет системную проблему: генеративные ИИ-инструменты активно внедряются в науку и образование, однако не отвечают академическим стандартам надежности и подотчетности. По его мнению, если годы работы могут быть потеряны «в один клик» без уведомления, такие сервисы нельзя считать полностью безопасными для профессионального использования.