Как мы отвечаем на требования The New York Times по поводу данных для защиты конфиденциальности пользователей

Изображение юриста, держащего в одной руке ноутбук с открытым экраном, а в другой папку с документами. Это символизирует юридическую борьбу OpenAI за защиту данных пользователей в контексте требования The New York Times.

Каждый день миллионы пользователей доверяют свои данные ИИ-платформам. Конфиденциальность и доверие лежат в основе современных AI-сервисов, особенно таких популярных, как ChatGPT. Однако недавно разгорелся серьезный конфликт между одним из крупнейших новостных изданий и ведущей AI-компанией, который поставил под вопрос базовые принципы защиты данных пользователей.

Новые вызовы для приватности пользовательских данных

Крупное американское издание подало иск против разработчика популярного чат-бота, требуя неограниченно долгого хранения всех пользовательских данных. Это требование напрямую противоречит стандартным обязательствам компании перед пользователями, которые предусматривают удаление запросов и переписок через 30 дней после их удаления самими пользователями.

Технологическая компания заняла четкую позицию, назвав этот иск необоснованным, а требования – чрезмерными. Руководство компании подчеркнуло, что подобные действия подрывают устоявшиеся нормы конфиденциальности и ослабляют механизмы защиты личных данных.

Кого затрагивает это решение?

Судебное решение затрагивает:

  • Пользователей бесплатной версии AI-чата
  • Подписчиков платных тарифов Plus, Pro и Team
  • Разработчиков, использующих API без соглашения о нулевом хранении данных

При этом корпоративные клиенты Enterprise и образовательные учреждения, использующие Edu версию, не попадают под действие этого решения. Также не затрагиваются пользователи API с соглашением о нулевом хранении данных (Zero Data Retention).

Борьба за защиту пользовательских данных

С самого начала разбирательства AI-компания выступала против запроса истцов на сохранение “всех выходных данных”, аргументируя, что это требование слишком широкое и противоречит обязательствам по конфиденциальности. Компания подала ходатайство с просьбой пересмотреть постановление о сохранении, подчеркнув, что неопределенно долгое хранение пользовательских данных нарушает отраслевые нормы и собственную политику компании.

Если вы интересуетесь, как создаются и функционируют современные AI агенты, важно понимать, что проблема хранения и использования данных является центральной в этой области. Баланс между эффективностью и приватностью – ключевой вопрос при разработке автономных AI-систем.

Что происходит с данными, которые вы удаляете?

В нормальных условиях, когда пользователь удаляет свои диалоги в чат-боте или полностью удаляет аккаунт, информация мгновенно исчезает из учетной записи и в течение 30 дней полностью удаляется из систем компании. Однако новое судебное требование потенциально нарушает эту практику, требуя сохранения даже тех данных, которые обычно подлежали бы автоматическому удалению.

Хранение и доступ к данным в условиях судебного решения

Контент, на который распространяется судебное решение, хранится отдельно в защищенной системе под правовым запретом. Это означает, что доступ к нему или его использование невозможны для целей, не связанных с выполнением юридических обязательств.

Только небольшая проверенная команда юристов и специалистов по безопасности имеет право доступа к этим данным в случае необходимости соблюдения правовых обязательств. При этом компания подчеркивает, что данные не передаются автоматически истцам или кому-либо еще – они блокируются отдельным правовым запретом.

Какие меры принимает компания для защиты пользователей?

На текущий момент компания активно оспаривает решение суда. В случае успеха она планирует возобновить стандартную практику хранения данных. Компания обязуется соблюдать полную прозрачность и информировать пользователей о значимых обновлениях, включая любые изменения в судебном решении или его влиянии на пользовательские данные.

Важно отметить, что данное судебное решение не меняет политику обучения моделей:

  • Корпоративные данные по-прежнему не используются для обучения моделей по умолчанию
  • Обычные пользователи сохраняют контроль над тем, используются ли их диалоги для улучшения системы

Стандартная политика хранения данных

Несмотря на текущий юридический спор, важно помнить о стандартной политике хранения данных, которой придерживается компания:

Для бесплатных и индивидуальных платных пользователей: при удалении диалога (или аккаунта) информация немедленно удаляется из учетной записи и назначается для окончательного удаления из систем в течение 30 дней.

Для корпоративных клиентов Enterprise и образовательных учреждений: администраторы рабочего пространства контролируют срок хранения данных. Удаленные или несохраненные диалоги исчезают из систем в течение 30 дней.

API-пользователи: бизнес-клиенты, использующие API, контролируют срок хранения контента в зависимости от используемых конечных точек и их конфигураций. Через 30 дней данные входов и выходов удаляются из логов.

Обеспечение баланса между инновациями и приватностью

Этот случай наглядно демонстрирует, насколько сложно соблюсти баланс между технологическими инновациями и защитой пользовательских данных. С одной стороны, компании, разрабатывающие AI, нуждаются в данных для улучшения своих систем. С другой — пользователи имеют право на конфиденциальность и контроль над своей информацией.

Современные разработчики AI агентов постоянно ищут этот баланс, создавая системы, которые могут быть одновременно эффективными и уважающими приватность пользователей. Это особенно актуально в эпоху растущей обеспокоенности по поводу использования данных и увеличения регуляторных требований.

В конечном итоге, исход этого судебного разбирательства может создать прецедент, который повлияет на будущее хранения и использования данных в AI-индустрии. Пока судебный процесс продолжается, пользователям рекомендуется внимательно следить за обновлениями и осознанно подходить к использованию AI-сервисов, понимая потенциальные риски и ограничения в отношении конфиденциальности своих данных.