В 2026 году ключевые судебные процессы по авторскому праву и ИИ вступают в решающую фазу. Два самых громких дела — The New York Times и OpenAI и Getty Images v. Stability AI (поданы в 2023 в США и Великобритании) — приближаются к моментам, когда суды могут вынести определения по центральному вопросу: является ли использование защищенных авторским правом материалов (статей, фотографий) для обучения генеративных моделей fair use (добросовестным использованием) по американскому праву или же это прямое нарушение.
OpenAI находится в стадии интенсивного сбора доказательств. В январе 2026 судья Sidney Stein подтвердил приказ о передаче OpenAI 20 миллионов деидентифицированных логов ChatGPT — это огромный объем данных, который NYT хочет проанализировать на предмет «регургитации» (дословного или почти дословного воспроизведения статей NYT моделью). Это может подорвать аргумент OpenAI о том, что обучение — чисто трансформативно и не конкурирует с оригиналами. OpenAI ссылается на прецеденты 2025 года (Bartz v. Anthropic и Kadrey v. Meta), где суды признали обучение LLM «высоко трансформативным» и fair use, но подчеркивает, что «регургитация» — это баг, а не цель. Мотивы отклонения частично отклонены, но core-вопрос fair use еще не решен. Ожидается, что полноценное рассмотрение по существу (включая возможный summary judgment или trial) может прийти в 2026–2027 годах, а апелляции растянутся до конца десятилетия.
Getty v. Stability AI в ноябре 2025 получило знаковое решение в Высоком суде Англии и Уэльса: судья Joanna Smith в значительной степени отклонила претензии по copyright infringement при обучении Stable Diffusion (модель не признана нарушающей, вторичное нарушение отвергнуто для данного типа моделей). Однако Getty выиграло по trademark: Stability AI ответственна за то, что модель иногда воспроизводит водяные знаки Getty в сгенерированных изображениях. Getty заявило, что использует выводы по фактам в параллельном американском процессе (Northern District of California). Это решение усиливает позиции AI-компаний в Европе, но в США fair use по изображениям все еще открыт (с отсылками к аналогичным делам Andersen v. Stability AI и др.).
В 2025 вышли первые решения по fair use при обучении (Anthropic и Meta — в пользу компаний, но узкие и с оговорками о рынке и пиратстве). В 2026 ожидается больше motion to dismiss, summary judgment и, возможно, первые апелляционные решения. Это определит, придется ли индустрии ИИ массово лицензировать данные (как уже делают некоторые компании) или fair use останется щитом. Ставки огромны — миллиарды долларов потенциальных выплат и будущее инноваций vs. защита контент-креаторов.