OpenAI оспаривает решение суда передать газете New York Times 20 миллионов частных разговоров ChatGPT
Для многих пользователей разговоры с ChatGPT — это исключительно личное пространство, такое же, как переписка по электронной почте или заметки на телефоне. Там мы доверяем ИИ наши профессиональные вопросы, личные проблемы, а иногда и самые интимные дилеммы. Однако теперь OpenAI сталкивается с беспрецедентным решением федерального суда, которое может изменить правила игры для всей индустрии искусственного интеллекта. Судья обязал компанию передать New York Times более 20 миллионов полных разговоров с пользователями.
The New York Times требует, чтобы мы проверили 20 миллионов ваших частных разговоров ChatGPT, чтобы найти примеры того, как вы используете ChatGPT для обхода их платного доступа, сообщила OpenAI.
Польский BLIK присоединяется к европейским мобильным платежным системам. Совместимость с MB WAY, Bizum и Vipps на этапе тестирования
Дело началось достаточно невинно. В декабре 2023 года газета New York Times подала в суд на OpenAI и Microsoft, обвинив их в незаконном использовании миллионов статей газеты для обучения моделей GPT без согласия или компенсации. Это один из многих исков об авторских правах, которые ИИ-компании ведут с издателями и создателями контента. Первоначально NYT запросила доступ к журналам, связанным только с их содержанием. Но во время суда аппетит газеты возрос, поскольку журналисты потребовали все 120 миллионов разговоров. OpenAI предложила компромисс, то есть 20 миллионов случайно выбранных чатов с декабря 2022 года по ноябрь 2024 года. Однако судья Она Ванг обнаружила, что OpenAI должен передавать всю выборку без дополнительной фильтрации по релевантности. OpenAI реагирует немедленно и резко. В письме в суд от 12 ноября компания утверждает, что данное решение создает опасный прецедент. Это полноценные разговоры, множественный обмен вопросами и ответами, потенциально до 80 миллионов пар быстрых ответов. Это нечто совершенно иное, чем индивидуальное взаимодействие. Компания подчеркивает, что «Суды не разрешают истцам, подающим в суд на Google, осуществлять поиск в частных электронных письмах десятков миллионов пользователей Gmail, независимо от точности. Как и обнаружение доказательств использования инструментов генеративного искусственного интеллекта».. OpenAI опирается на простое правило, согласно которому в процессе можно запрашивать только документы, которые действительно имеют отношение к делу.
Обязательное страхование гражданской ответственности дронов с 13 ноября 2025 года, но страховщик может не платить. Условия и ограничения
Компания также указывает на неправильную интерпретацию прецедента. Судья Ван сослался на дело Concord Music Group против Anthropic, в котором было предписано выпустить 5 миллионов пластинок. Но OpenAI объясняет, что Anthropic добровольно предложил передать данные, не вызывая вопросов конфиденциальности, и речь шла об отдельных парах быстрого ответа, а не целых разговорах. New York Times, с другой стороны, требует в 16 раз больше материала, хотя и признает, что более 99,99 процентов этих разговоров не касаются их содержания. Что наиболее важно для пользователей, хотя OpenAI обеспечивает анонимность данных (удаляя имена, пароли, идентифицирующие данные), он также признает, что этот процесс не удаляет частную, но неидентифицирующую информацию. Пример? Репортер Washington Post использует ChatGPT для подготовки статьи. В таком разговоре его имя не упоминается, но содержание остается весьма конфиденциальным. Таким образом, New York Times может получить представление о бизнес-проектах, юридических стратегиях, медицинских консультациях и личных дилеммах миллионов людей по всему миру.
Европейская комиссия хочет добиться запрета Huawei и ZTE во всех странах ЕС. Никакого волюнтаризма
Сама NYT отреагировала холодно. Представитель газеты заявил, что «Дело о привлечении к ответственности компаний, которые украли миллионы произведений, защищенных авторским правом. Никакая конфиденциальность пользователей ChatGPT не подвергается риску. Суд распорядился провести выборку чатов, анонимизированных самой OpenAI, под юридической защитой».. Газета добавляет, что сама OpenAI оставляет за собой в своих регламентах право обучать модели в пользовательских чатах и передавать их в судебные разбирательства. Этот вопрос становится еще более важным в контексте недавних утечек. В августе 2025 года тысячи частных разговоров ChatGPT появились в результатах поиска Google, а затем в Google Search Console, инструменте для разработчиков. Согласно отчету Стэнфордского индекса искусственного интеллекта за 2025 год, количество инцидентов, связанных с конфиденциальностью ИИ, увеличилось на 56,4%. всего за один год, достигнув 233 случаев в 2024 году. Это показывает, насколько хрупкой является защита данных в экосистеме искусственного интеллекта. OpenAI обещает ускорить работу над расширенной безопасностью, включая сквозное шифрование сообщений с помощью ChatGPT, при котором даже сама компания не будет иметь доступа к содержимому разговоров. Будет ли этого достаточно, чтобы восстановить доверие 800 миллионов пользователей ежемесячно? Время покажет. Одно можно сказать наверняка. Решение по этому делу может определить будущее конфиденциальности в эпоху искусственного интеллекта на десятилетия вперед.
Источник: OpenAI, The New York Times, Стэнфордский университет.