Конец эпохи Wild West AI: постепенное ужесточение регулирования искусственного интеллекта
В США и странах ЕС рассматривается множество исков к компаниям, создающим генеративные системы искусственного интеллекта (AI). Эти споры постепенно сужают регуляторную «свободу», которая ранее сопровождала развитие AI-технологий. В результате правовая система стремится определить правила игры для отрасли, которая использует чужое творчество как датасет.
Суть претензий проста. ИИ не создает контент «из ничего» — он обучается на фрагментах работ реальных авторов: тексты, фотографии, изображения, видео. Авторы считают, что разработчики ИИ зарабатывают на их творчестве, не выплачивая им ничего.
Креативное сообщество не ограничивается судами и пытается отвечать техническими решениями. Появились ресурсы, вроде Glaze и Nightshade, которые "отравляют" ИИ, пытающийся использовать работы автора. В результате модель начинает искажать интерпретацию изображений, что впоследствии влияет на генерацию контента по аналогичным запросам. Корова на зеленом поле превращается для модели в кошелек на траве, и впоследствии по одному промпту ИИ создает нечто совершенно иное.
Американская судебная система: первые значимые прецеденты
Первое крупное дело, дошедшее до мирового соглашения, стало поворотным моментом. Bartz v. Anthropic против компании Anthropic, создателя ИИ Claude, завершилось подписанием соглашения на сумму USD 1.5 млрд в сентябре 2025 года. При этом Anthropic заявляла в своих отзывах, что тренирует Claude только на законно приобретенной литературе.
Ключевой момент дела - решение судьи Уильяма Алсапа в июне 2025 года. Суд признал, что использование законно приобретенных книг для обучения ИИ может подпадать под доктрину добросовестного использования ‘fair use’. В то же время создание и хранение "центральной библиотеки" с пиратским контентом из LibGen и PiLiMi было признано нарушением авторских прав. Эта дихотомия важна: не само обучение нарушает права, а источник данных. Таким образом, суд провёл принципиальное различие между процессом обучения и источником данных.
С учетом того, что установленные законом убытки (statutory damages) в США могут достигать USD 150 000 за каждое произведение, потенциальные убытки Anthropic оценивались в сотни миллиардов долларов. Компания предпочла урегулировать спор, заплатит в USD 1.5 млрд — около USD 3 000 за каждую из примерно 500 000 книг. Соглашение предусматривает уничтожение незаконно полученных файлов, но не дает Anthropic права на будущее использование защищенного контента.
Судьба других крупных дел
Getty Images v. Stability AI
Дело Getty Images v. Stability AI демонстрирует сложность международной юрисдикции. Getty изначально требовала компенсацию за использование 12 миллионов фотографий, что теоретически оценивалось в USD 1,8 трлн. Позднее объём требований был сокращён до 11 383 изображений на сумму около USD 1,7 млрд.
Однако развитие дела оказалось неожиданным. В августе 2025 года Getty добровольно отозвала иск в США. В Великобритании в ноябре 2025 года судья Джоанна Смит (Joanna Smith) отклонила основные претензии Getty по авторским правам, признав лишь минимальные нарушения товарных знаков в ранних версиях Stable Diffusion. Несмотря на публичные заявления обеих сторон о «победе», ключевые вопросы авторского права были разрешены в пользу Stability AI.
Disney и Universal v. Midjourney
В июне 2025 года Disney и Universal подали иск против Midjourney, впервые вовлекая крупные голливудские студии в судебные споры по ИИ. Дело принципиально отличается от предыдущих — оно фокусируется не на процессе обучения, а на результатах генерации (outputs). Студии демонстрируют, что Midjourney генерирует узнаваемые изображения Дарта Вейдера, Шрека, Миньонов и других персонажей, причем часто по одному слову в промпте.
110-страничный иск содержит детальные визуальные сравнения и обвиняет Midjourney в систематическом, продолжающемся и умышленном нарушении авторских прав. Студии требуют либо возмещения фактических убытков и прибылиь Midjourney (около USD 300 млн выручки в 2024 году), либо компенсацию убытков (statutory damages) до USD 150 000 за каждое произведение. В августе 2025 года Midjourney подала представила возражения, указав, что сами истцы используют генеративные AI-инструменты (включая Midjourney) в коммерческих целях.
Волна исков и правовая неопределённость
Помимо упомянутых, активно развиваются десятки других дел. Авторы подали групповые иски против Meta (Kadrey, Chabon, Huckabee), OpenAI (множественные дела, включая иски от Authors Guild и New York Times), NVIDIA (Nazemian, Dubus). Музыкальная индустрия активизировалась через споры Concord Music v. Anthropic и UMG Recordings v. Suno. Художники ведут дела против Stability AI, DeviantArt, Midjourney и Runway AI.
Thomson Reuters судится с Ross Intelligence, Ziff Davis — с OpenAI, а целый ряд медиакомпаний от Daily News до Intercept предъявили претензии по использованию их материалов. Warner Bros. также присоединилась к искам против Midjourney.
Креативные индустрии активно подают иски. Суммы варьируются от десятков миллионов до миллиардов долларов. При этом результаты таких дел различаются — некоторые дела отклоняются судами, другие движутся к судебному разбирательству, третьи заканчиваются мирным урегулированием.
Правовая неопределенность усугубляется прецедентом Naruto v. Slater. Дело о знаменитом селфи макаки установило, что автор произведения должен быть человеком для получения защиты своего авторского права. Суды применяют эту логику к ИИ: работы, созданные ИИ, не охраняются авторским правом, если нет достаточного человеческого вовлечения (ранее мы писали об этом), и разработчики не обладают автоматически правами на AI-generated контент.
Европейская модель: регулирование вместо litigation
Пока США разбираются через суды, Европа выбрала путь превентивного регулирования. Акт Европейского Союза об ИИ (EU AI Act), вступивший в силу 1 августа 2024 года, стал первой в мире комплексной системой регулирования искусственного интеллекта. Регулирование внедряется поэтапно. С 2 февраля 2025 года действует запрет на AI-системы неприемлемого риска (social scoring, манипуляции уязвимыми группами, биометрическая идентификация в релаьном времени в публичных местах). С 2 августа 2025 года применяются требования к моделям общего назначения (GPAI), включая Claude, GPT, Gemini.
При этом AI Act почти не касается авторского права, фокусируясь на безопасности, прозрачности и системных рисках. Вопросы авторских прав в ЕС, как и в США, решаются через судебную практику.
GEMA v. OpenAI: первый европейский прецедент
В ноябре 2025 года Региональный суд Мюнхена вынес знаковое решение по делу GEMA v. OpenAI (дело № 42 O 14139/24). Это первое в Европе судебное решение, напрямую признающее нарушение авторских прав при обучении AI-модели.
Ранее мы описывали последствия этого дела для обучения ИИ. Кратко, GEMA, немецкое общество по управлению правами, представляющее авторов, подала иск в ноябре 2024 года. Суть претензии: ChatGPT использует тексты немецких песен без лицензии - как для обучения модели, так и в своих outputs. GEMA продемонстрировала, что ChatGPT воспроизводит защищенные тексты известных песен ("Atemlos" Кристины Бах, "Männer" Герберта Грёнемайера, "Über den Wolken" Райнхарда Мея) по простейшим промптам вроде "Какой текст у песни [название]".
Суд установил, что и запоминание текстов в параметрах модели (memorization), и их воспроизведение в выдаче ChatGPT нарушают авторские права. Суд отклонил аргумент OpenAI, что ответственность несут пользователи, а не платформа.
Суд признал, что обучение LLM в принципе подпадает под text and data mining exception (TDM), но не в случаях, когда модель перманентно запоминает и может воспроизводить защищенные произведения. Text and data mining (TDM) предназначена для извлечения абстрактной информации (синтаксических правил, общих терминов, семантических связей), а не для хранения и репродукции конкретных произведений. Самый короткий из выявленных фрагментов — 15 слов. Суд признал это достаточным для установления нарушения. С точки зрения статистики, даже такой короткий фрагмент не мог быть сгенерирован "с нуля" — есть причинно-следственная связь с использованием данных для тренировки.
OpenAI заявила о несогласии с решением и рассматривает следующие шаги.
GEMA v. Suno: музыка под прицелом
В январе 2025 года GEMA подала второй иск - против AI-музыкальной компании Suno. GEMA задокументировала, что система Suno генерирует контент, который "в значительной степени соответствует всемирно известным произведениям", включая "Forever Young" (Alphaville), "Mambo No. 5" (Lou Bega), "Daddy Cool" (Frank Farian).
В отличие от дела OpenAI (где речь о текстах песен), здесь под вопросом использование как композиций, так и записей. Параллельно три major labels (Universal, Sony, Warner) судятся с Suno в США. Европейское дело может установить, нужны ли AI-компаниям лицензии для обучения на музыкальном контенте.
Слушание еще не назначено, но GEMA позиционирует себя как лидера в борьбе за права авторов в AI-эре. В сентябре 2024 года GEMA первой среди collecting societies представила специализированную лицензионную модель для генеративного AI, предназначенную балансировать инновации с участием авторов в экономической стоимости, создаваемой AI.
Франция: первый крупный иск
В марте 2025 года три французские ассоциации - Société des Gens de Lettres (SGDL), Syndicat National des Auteurs et des Compositeurs (SNAC) и Syndicat National de l'Édition (SNE) - подали иск против Meta в Парижском Суде (Paris Judicial Court).
Претензия: Meta "широкомасштабно использует" защищенные произведения их членов для обучения генеративных AI-моделей без разрешения. SNAC обвиняет компанию в эксплуатации "культурного наследия". SNE утверждает, что произведения их издателей "обширно присутствуют" в датасетах Meta.
Это первый крупный AI спор об авторском праве, публично поданный во Франции. Истцы требуют полного удаления неавторизованных датасетов, использованных для обучения моделей Meta, и справедливой компенсации создателям.
Дело находится на ранней стадии, но знаменует активизацию французского креативного сообщества.
Kneschke v. LAION: исключение подтверждает правило
Не все европейские дела заканчиваются в пользу правообладателей. В сентябре 2024 года Гамбургский Региональный Суд (Hamburg Regional Court) встал на сторону немецкого nonprofit LAION в деле, поданном фотографом Kneschke.
Суд постановил, что использование LAION защищенных изображений в AI-обучении подпадает под исключение из правил TDM , поскольку использование было для некоммерческих целей и научных исследований. LAION производит open-source AI-модели и датасеты, без коммерческой эксплуатации.
Это решение контрастирует с GEMA v. OpenAI, где исключение из правил TDM не сработало для коммерческой компании, чьи модели перманентно запоминают и воспроизводят контент. Разница состоит в коммерческом и некоммерческом использовании, и в характере такого использования (анализ vs. memorization).
Getty Images v. Stability AI: mixed results в UK
Уже вне юрисдикции ЕС в том же контексте проигрышных для правообладателей дел, отметим британское дело Getty против Stability AI, которое завершилось в ноябре 2025 года решением в пользу Stability AI.
Суд отклонил основные претензии Getty по смежным авторским правам (secondary copyright infringement), признав лишь минимальные нарушения товарных знаков в ранних версиях Stable Diffusion.
Getty утверждала, что разработка Stable Diffusion - это "вопиющее нарушение" их библиотеки изображений "в ошеломляющих масштабах". Суд не согласился.
Getty проиграла по copyright, но в отдельных вопросах выиграла по претензиям к использованию товарного знака.
Краткие промежуточные выводы для разработчиков ИИ
И американская, и европейская судебная практика по AI и авторским правам начинает складываться.
Ключевые тенденции:
- Источник обучающих данных критически важен, и происходит переход от признания легальным использования данных, полученных путем скрапинга, к требованиям использовать только законно приобретенный контент.
- Обучение и воспроизведение. Суды начинают различать использование данных для обучения и их воспроизведение в выдаче.
- Memorization - ключевая концепция в обоих регионах. Если модель может воспроизводить защищенный контент, на котором училась, то это выходит за рамки исключений.
- Неоднозначность статуса ИИ как информационного посредника и использования модели ‘убежища’ (safe harbour).
Платформы часто пытаются переложить ответственность за нарушение копирайта на пользователей, однако суды в ЕС и США отклоняют этот аргумент и привлекают к ответственности платформы. При этом в Китае начинает формироваться практика признания, что за нарушения авторских прав пользователем платформа отвечать не должна.
Команда Arbitration & IT Disputes компании REVERA предоставляет комплексную юридическую поддержку разработчикам и пользователям AI-технологий: аудит датасетов, оценка рисков, разработка стратегий лицензирования, подготовка защиты от потенциальных исков, переговоры с правообладателями и коллективными обществами управления правами.
В условиях быстро формирующейся судебной практики и ужесточения регулирования превентивная правовая стратегия становится ключевым элементом устойчивого развития AI-бизнеса.
Мы будем рады обсудить, как адаптировать вашу AI-модель или проект к новым правовым реалиям.
Авторы: Камаль Терехов и Алексей Молчанов.
Напишите нашему юристу, чтобы узнать подробности
Написать юристу