Авторские права на созданное искусственным интеллектом изображение или визуальный образ: современные вызовы и правовые решения

Обновлено 12.03.2026
Дело Инмар: рекламное агентство против «промптера» — авторские права на ИИ-контент в реальном споре
Авторские права на созданное искусственным интеллектом изображение или визуальный образ — эта актуальная тема стала предметом интересного дела, в котором в декабре 2025 года участвовала юридическая фирма Инмар. Фирма представляла интересы ответчика — рекламного агентства, которое создало и распространило видеоролик в социальных сетях, построенный вокруг визуального образа, полностью повторяющего популярное вирусное изображение, изначально созданное средствами генеративного искусственного интеллекта и активно распространявшееся в сети.
Истец заявлял, что он обладает авторскими правами на оригинальный визуальный образ, требовал прекратить распространение спорного ролика, грозил судебным иском и значительными издержками. Сторона истца утверждала, что ролик ответчика нарушает его исключительные права, поскольку видеоряд был построен на визуальных элементах, которые по сути совпадали с тем, что он считал своим произведением. Это привело к острым дебатам о том, как именно соотносятся авторство искусственного интеллекта, права создателя промпта и классические нормы авторского права.
Хотя спор не дошёл до суда и был урегулирован в досудебном порядке, команда Инмар была полностью уверена в правовой позиции ответчика, настаивая на том, что в рассматриваемой ситуации правовая охрана ИИ-результата объективно не возникла, и что требования истца были юридически необоснованными. Не зря в зарубежной юридической практике создатель образа именуется не автором, а «промптером» или «инженером промптов».
Анализируя этот кейс, важно понять правовые основания такой позиции и вывести ключевые принципы, применимые в будущей практике.
Актуальность проблемы: кому принадлежат права на сгенерированные объекты?
В последние годы вопрос о том, кому принадлежат права на ИИ-контент — сгенерированные изображения и визуальные образы — и могут ли такие права существовать вообще с учётом природы генеративных систем — стал одним из центральных в международной дискуссии об интеллектуальной собственности. С одной стороны, генеративные модели способны создавать высококачественные визуальные произведения, которые многие воспринимают как творческие достижения. С другой — правовая система большинства стран не содержит прямых механизмов определения правового статуса таких результатов, поскольку традиционное авторское право ориентировано исключительно на результаты человеческого творчества.
Проблема усугубляется тем, что генеративные модели обучаются на огромных массивах данных, включающих изображения, тексты и мультимедиа, изначально защищённые авторским правом. Это порождает спорные вопросы о том, как соотносятся нейросеть и авторское право, кто несёт ответственность за результат генерации и соответствует ли текущий режим принципу справедливого баланса между интересами авторов и технологических инноваций.
Если рассматривать ситуацию глубже, становится очевидно, что в ряде случаев использование ИИ нарушает авторские права не в результате умысла пользователя, а потому что система обучения моделей фактически включала защищённые материалы без явного разрешения правообладателей. Это вызывает новый виток дискуссий о необходимости пересмотра правового режима интеллектуальной собственности применительно к эпохе автоматической генерации контента.
Кроме того, большинство пользователей не задаются вопросом о правовом статусе создаваемых ими образов: без сомнений используют изображения, уже защищённые авторским правом, обучают других пользователей создавать промпты для визуального контента, рекомендуя просто загружать в модель охраняемые произведения. Такая практика несёт в себе существенные правовые риски, которые нередко обнаруживаются лишь в момент получения претензии.
Основные мировые подходы: практика США и ЕС
Соединённые Штаты Америки: требование человеческого авторства — финальная точка
В США авторские права на созданный искусственным интеллектом объект по общему правилу не признаются. Данная юрисдикция применяет один из наиболее жёстких среди развитых правопорядков подходов к этому вопросу. Согласно традиционным положениям американского авторского права, закреплённым в Title 17 U.S. Code § 102(a), объектом охраны может быть произведение, являющееся результатом оригинального творческого труда человека. Такой подход отрицает авторство искусственного интеллекта: формально автором может быть только человек, а не алгоритм.
Ключевым прецедентом, определившим эту позицию и оказавшим влияние не только на американскую, но и на европейскую правовую доктрину, стало дело Thaler v. Perlmutter.
Компьютерный учёный Стивен Талер использовал генеративную систему под названием DABUS (Device for the Autonomous Bootstrapping of Unified Sentience), которая самостоятельно создала художественное изображение под названием «A Recent Entrance to Paradise». В 2018 году Талер подал в Бюро по авторскому праву США (U.S. Copyright Office) заявку на регистрацию, указав в графе «автор» саму ИИ-систему, а в графе «правообладатель» — себя.
Бюро отказало в регистрации, руководствуясь принципом, согласно которому только человек может быть автором охраняемого произведения. Соответственно в рассматриваемом кейсе авторские права на созданное искусственным интеллектом изображение отсутствуют. Ведомство сослалось на Compendium of U.S. Copyright Office Practices, где прямо указано, что регистрация может быть отклонена, если работа «создана машиной без участия человека».
Талер оспорил это решение в окружном суде, а затем в Апелляционном суде округа Колумбия (D.C. Circuit). В марте 2025 года апелляционный суд подтвердил отказ: закон США требует наличия человека-автора, и поскольку изображение было создано DABUS автономно, без значимого творческого участия человека, оно не может быть защищено авторским правом. Суд отметил, что обычное и историческое толкование Закона об авторском праве 1976 г. подразумевает, что авторство присуще человеку, а не машине.
2 марта 2026 года Верховный суд США отказал в certiorari по делу Thaler v. Perlmutter (No. 25-449), оставив в силе решение апелляционной инстанции. Важно понимать юридическое значение этого шага: отказ в certiorari не является решением Верховного суда по существу дела и формально не создаёт прецедент SCOTUS. Тем не менее он означает, что Талер исчерпал все инстанции, а позиция Бюро по авторскому праву и апелляционного суда округа Колумбия остаётся действующим правом. Администрация Трампа, к слову, также рекомендовала Верховному суду не принимать дело к рассмотрению. Сам истец охарактеризовал исход как «философский рубеж, обнажающий трудности адаптации системы интеллектуальной собственности к реалиям машинного творчества».
Практика Бюро регистрации авторских прав США последовательно подтверждает: заявки на регистрацию прав на работы, созданные исключительно искусственным интеллектом, отклоняются. Январский доклад Бюро 2025 года прямо указал, что промпты «по существу функционируют как инструкции, передающие неохраняемые идеи», и что доступные технологии не обеспечивают достаточного контроля и предсказуемости результата для признания авторства промптера.
Таким образом, в США ИИ-изображения, созданные без значимого творческого участия человека, не получают автоматической охраны. Их использование не создаёт прямых правовых обязанностей для пользователей — если только они не нарушают права третьих лиц через заимствование защищённых элементов из обучающих данных или иных источников. При этом открытым остаётся вопрос о том, какой именно объём человеческого вклада считается «достаточным» — ни Бюро, ни суды не дали чёткого ответа. Этот вопрос может стать предметом будущего прецедента.
Европейский Союз: смешанные подходы и регуляторные инициативы
В Европейском союзе правовой статус изображений, полученных с помощью ИИ, остаётся предметом активного обсуждения, однако подход здесь несколько менее однозначен, чем в США. В ЕС авторское право регулируется Директивой 2001/29/EC и нормами цифрового рынка, такими как Directive 2019/790 on Copyright in the Digital Single Market. Эти акты, не предоставляя правовой охраны результатам ИИ как таковым, определяют рамки, в которых обсуждается допустимость использования данных и исключения для анализа текстов и данных (text and data mining), включая машинное обучение.
EU AI Act, вступивший в поэтапную силу с 2024 года, не создаёт прямых норм об авторстве ИИ-произведений, однако устанавливает принципы ответственного применения ИИ, включая обязательства по прозрачности в отношении обучающих данных и требование маркировки синтетического контента.
Европейская судебная практика пока не выработала чёткой линии по вопросам интеллектуальной собственности применительно к генерации ИИ-изображений. Тем не менее концептуально в ЕС признаётся необходимость балансирования между стимулированием инноваций и защитой интересов авторов, чьи произведения могут использоваться или имитироваться генеративными моделями. Аналитики подчёркивают, что подход ЕС в области искусственного интеллекта и авторского права развивается в направлении гибких правил, учитывающих творческий вклад человека и минимизирующих риски нарушения прав третьих лиц.
Казахстан: первый специальный закон на постсоветском пространстве
Показательным ориентиром для стран СНГ стал Казахстан, принявший 17 ноября 2025 года Закон Республики Казахстан «Об искусственном интеллекте» (№ 230-VIII ЗРК), вступивший в силу 18 января 2026 года. Казахстан стал второй юрисдикцией в мире после ЕС, принявшей специальный закон об ИИ, и первой на постсоветском пространстве, прямо урегулировавшей вопросы авторского права на результаты работы генеративных систем.
Закон закрепляет следующие важные принципы в сфере охраны результатов ИИ-деятельности. Во-первых, произведения, созданные с применением ИИ, охраняются авторским правом только при наличии творческого вклада человека — тем самым казахстанский законодатель воспроизводит концепцию, уже утвердившуюся в американской и европейской практике, но делает это на уровне специального закона, а не судебного прецедента.
Во-вторых, текстовые запросы (промпты), являющиеся результатом творческой деятельности, признаются объектами авторского права — это принципиально новое для постсоветского пространства законодательное решение, означающее, что не всякий промпт охраняем, но тот, в котором воплощён творческий вклад его создателя, получает правовую защиту.
В-третьих, использование произведений для обучения ИИ допускается, если правообладатель не установил прямой запрет в машиночитаемой форме (механизм opt-out) — подход, отличающийся от европейского и закрепляющий презумпцию допустимости использования при молчании правообладателя.
Казахстанский опыт заслуживает особого внимания в российском контексте: при сохранении юрисдикционных различий он демонстрирует возможную модель специального регулирования, опирающуюся на принцип человеческого авторства, и может служить сравнительным материалом для формирования отечественных подходов.
Авторские права на созданное искусственным интеллектом изображение — российские нормы и практика
В России правовой режим интеллектуальной собственности по общему правилу предусматривает, что автором произведения является физическое лицо — тот, кто создал произведение творческим трудом. Это прямо закреплено в части IV Гражданского кодекса РФ, в частности в ст. 1228, где автор определяется как гражданин, создавший произведение. На основании этой нормы формируется позиция о том, что правовая охрана ИИ-изображения не возникает при отсутствии творческого вклада человека.
Судебная практика в России по вопросам использования искусственного интеллекта пока немногочисленна, а авторские права на созданное искусственным интеллектом изображение в чистом виде предметом судебного рассмотрения не становились.
Лишь в деле А40-200471/2023 (Девятый ААС, 08.04.2024) суд указал, что технология Deep-fake — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их самостоятельного создания. Соответственно, факт технического монтажа посредством технологии deepfake сам по себе не свидетельствует о том, что видеоролик доступен для свободного использования без согласия правообладателя, и не опровергает авторства лиц, обеспечивших написание сценария, видеосъёмку и аудиосопровождение.
Суды косвенно затрагивали вопросы применения ИИ в деле А60-8560/2025 (компенсация за использование фото была снижена, поскольку ссылки на ИИ не доказали отсутствия нарушения) и в деле 13АП-37912/23 (Тринадцатый ААС, 06.02.2024), где суд подтвердил права истца на изображение, невзирая на аргументы об ИИ-генерации. Оба дела показывают устойчивую логику: суды фокусируются на доказательствах человеческого вклада, а ссылки на ИИ не являются автоматическим основанием ни для признания произведения свободным, ни для отказа в защите.
Принципиальное значение для понимания российского подхода к ИИ как правовому явлению имеет также постановление Двенадцатого арбитражного апелляционного суда от 9 декабря 2025 года по делу А12-8377/2025. Дело по своему предмету относится к налоговым спорам, однако суд счёл необходимым — в качестве obiter dictum — сформулировать позицию общего характера.
Суд прямо указал, что ИИ не является субъектом — это инструмент, который не может вытеснить человека и должен использоваться под контролем ответственного лица. Это суждение, высказанное за пределами собственно авторско-правового контекста, в концентрированном виде отражает формирующуюся в российской судебной практике общую концепцию: ИИ — инструмент под контролем ответственного человека, но не самостоятельный субъект, и никакая степень автоматизации не снимает с человека юридической ответственности за результат.
Российское законодательство не содержит специальных норм об охране результатов ИИ-деятельности, и суды применяют традиционные положения Гражданского кодекса РФ. В отсутствие прямого регулирования основная логика судебных решений — оценка факта творческого участия человека и наличия признаков оригинальности, которые могли бы свидетельствовать о существовании объекта интеллектуальной собственности.
Когда ИИ нарушает авторские права: проблема обучающих данных
Отдельную существенную проблему, неотделимую от вопроса о том, кому принадлежат права на сгенерированные изображения, представляет использование охраняемых произведений при обучении генеративных моделей. Когда ИИ обучается на больших наборах данных, включающих защищённые изображения, возникает риск того, что итоговый контент будет воспроизводить элементы, близкие или тождественные исходным работам. В таких случаях использование ИИ нарушает авторские права не вследствие умысла, а в силу того, что алгоритм встроил охраняемые признаки в процессы генерации.
Этот вопрос получает всё большее внимание со стороны юридической науки и практики. Владельцы прав на оригинальные изображения вправе утверждать, что их использование при обучении без разрешения нарушает исключительные права, а итоговые изображения — даже формально новые — фактически опираются на охраняемые элементы.
Показательный пример — промпты с упоминанием защищённых персонажей: сказочных героев, персонажей мультфильмов, иных объектов интеллектуальной собственности. Такие ситуации подтверждают, что правовая охрана ИИ-изображения в принципе не может возникнуть, если при его генерации незаконно использовался охраняемый объект.
Первым прецедентным ответом американской судебной системы на вопрос о правомерности использования охраняемых материалов при обучении ИИ стало решение по делу Bartz et al. v. Anthropic PBC (N.D. Cal., 23 июня 2025 года). Группа авторов предъявила иск, утверждая, что компания использовала миллионы оцифрованных охраняемых книг для обучения языковых моделей, в том числе скачав свыше семи миллионов экземпляров с пиратских ресурсов. Старший судья Уильям Алсап вынес решение в пользу ответчика в части правомерно приобретённых произведений, квалифицировав их использование для обучения модели как «исключительно трансформативное» в рамках доктрины fair use (доктрины “свободного использования” в американском праве).
Вместе с тем суд отказал в применении fair use к пиратским копиям, признав их хранение нарушением вне зависимости от конечной цели использования. До начала судебного разбирательства по этому вопросу, в сентябре 2025 года, стороны заключили мировое соглашение на сумму не менее 1,5 млрд долларов — крупнейшее публично известное урегулирование авторско-правового спора, связанного с ИИ.
Дело Bartz v. Anthropic установило два практически значимых ориентира: обучение на правомерно полученных данных может быть fair use при отсутствии воспроизводящих оригинал выходных данных, пиратство в качестве источника данных является безусловным нарушением. Для правообладателей это означает необходимость документировать рыночный ущерб, для разработчиков ИИ — критическую важность чистоты источников данных и законности их получения.
Корпоративные политики платформ как временный регулятор лицензирования ИИ-контента
Пока законодательство большинства стран по общему правилу не предоставляет правовой охраны ИИ-результатам, крупные разработчики языковых и визуальных моделей установили собственные корпоративные политики в области генерации контента — фактически выполняя регуляторную функцию в отсутствие специальных норм.
Зарубежные платформы: минимизация рисков как движущий мотив
OpenAI в правилах допустимого использования (Usage Policies) ограничивает создание материалов, которые могут воспроизводить конкретные защищённые произведения или нарушать права третьих лиц. Эти ограничения не признают автоматически правовую охрану за ИИ-изображением и обусловлены прежде всего политикой минимизации юридических рисков.
В частности, политика предусматривает запрет на создание материалов, воспроизводящих конкретные существующие произведения; генерацию контента, существенно схожего с узнаваемыми охраняемыми объектами; создание изображений, способных нарушать права третьих лиц на визуальные образы. Именно отсюда возникает ограничение на точную репликацию вирусного изображения, даже если оно само создано ИИ.
Аналогичную позицию занимает Anthropic — разработчик ИИ-ассистента Claude. Политика допустимого использования Anthropic (Acceptable Use Policy) прямо запрещает плагиат и представление ИИ-ассистированных материалов без надлежащего раскрытия, а для так называемых «высокорисковых» применений (правовые, финансовые, кадровые решения) требует обязательного участия квалифицированного специалиста-человека в проверке выходных данных до их использования. Существенно, что Anthropic ввела требование раскрытия самого факта участия ИИ в создании контента, который может повлиять на права и интересы конкретных лиц.
Корпоративные политики крупных зарубежных платформ действуют как временные регуляторы в отсутствие законодательных норм, отражая понимание того, что автоматическая генерация контента несёт в себе риски нарушения чужих прав. Однако судебная практика 2025 года недвусмысленно показала: корпоративные политики не заменяют правовую ответственность и не являются щитом от претензий правообладателей. Реальной защитой служат только законность источников данных, прозрачность обучения и документирование человеческого вклада в итоговый результат.
Российские платформы: GigaChat и Yandex GPT
Анализ пользовательских документов двух крупнейших российских генеративных платформ — GigaChat (Сбер) и Yandex GPT — показывает, что оба сервиса воспроизводят базовую глобальную модель: ответственность за правовые последствия использования сгенерированного контента возлагается на пользователя. Вместе с тем в деталях подходы различаются, а в сравнении с ведущими зарубежными платформами оба обнаруживают характерные системные пробелы.
GigaChat в пункте 5.5 своего Пользовательского соглашения прямо признаёт, что сгенерированный контент может не являться объектом авторского права ввиду отсутствия творческого вклада человека. Это наиболее откровенная формулировка среди российских платформ: сервис фиксирует правовую неопределённость и перекладывает риск на пользователя, не претендуя на какой-либо правовой статус результата.
Yandex GPT такой нормы не содержит. Документ обходит вопрос о правовом статусе контента стороной, предупреждая лишь о возможном совпадении с произведениями, права на которые принадлежат третьим лицам (п. 2.1.8 Условий использования), и возлагая «все риски» использования на пользователя (п. 2.1.9). При этом Яндекс использует понятие «интеллектуальные права», которое по смыслу статьи 1226 ГК РФ охватывает в том числе исключительные имущественные права, — что формально точнее, чем отсылка GigaChat к «личным неимущественным правам».
В части использования данных пользователя обе платформы предоставляют себе весьма широкие права. Яндекс в пункте 3.2 получает возможность использовать запросы и контент «для любых целей и любыми способами», включая совершенствование алгоритмов, без ограничения по сроку и территории. GigaChat формулирует аналогичный открытый перечень через конструкцию «включая, но не ограничиваясь».
Ни одна из платформ не разграничивает использование входных данных для обслуживания запроса и их использование для обучения модели, тогда как ведущие зарубежные платформы на корпоративных и API-тарифах по умолчанию ограничивают применение пользовательских данных в целях дообучения. Оговорки о возможных изъятиях в условиях отдельных сервисов перекладывают бремя поиска таких ограничений на самого пользователя.
Наиболее существенным системным расхождением с мировой практикой остаётся полное молчание обеих российских платформ об обучающих данных. Ни GigaChat, ни Yandex GPT не раскрывают состав обучающих корпусов, правовые основания их формирования или механизмы, позволяющие правообладателям исключить свои произведения из процесса обучения.
После урегулирования дела Bartz v. Anthropic в сентябре 2025 года именно прозрачность источников данных и наличие механизмов opt-out превратились в де-факто стандарт ответственного поведения разработчика. OpenAI и Google после волны исков ввели хотя бы декларативные обязательства в этой части. Российские платформы пока этого не сделали — что означает сохранение правовой уязвимости именно в той точке, которая в ближайшие годы с наибольшей вероятностью станет предметом системных претензий правообладателей как в российской юрисдикции, так и при трансграничном использовании сервисов.
Полагаем, что описанные коллизии будут устранены после принятия соответствующего российского закона об искусственном интеллекте, который позволит установить единые требования к прозрачности обучающих данных и чётко разграничить права и обязанности разработчиков, пользователей и правообладателей.
Искусственный интеллект и авторское право — направления развития
Дискуссия о том, должна ли возникать правовая охрана результатов ИИ-деятельности, постепенно смещается от вопроса «кому принадлежат права на сгенерированные ИИ объекты» к более сложной задаче — как выстроить систему, которая одновременно поддерживает инновации и защищает интересы правообладателей и общества. Очевидно, что механическое распространение классической модели авторского права на все результаты генерации ИИ может привести к избыточному регулированию и фактически затормозить развитие цифрового творчества. Вместо этого всё чаще предлагается комплексный, многоуровневый подход.
Прозрачность обучающих данных как базовый принцип
Одним из ключевых направлений становится требование прозрачности в отношении обучающих данных. Если генеративные модели используют охраняемые материалы, разработчики ИИ должны раскрывать общие категории источников данных и внедрять механизмы получения согласия или выплаты вознаграждения правообладателям. Такой подход смещает фокус регулирования с контроля за результатами на контроль за исходными условиями генерации.
Вместо того чтобы автоматически ограничивать использование ИИ-изображений, логичнее урегулировать сам процесс обучения. Это снижает риск того, что при создании модели будут использованы охраняемые объекты без соответствующих правовых оснований. Перспективным направлением считаются открытые базы данных с системой добровольного подключения авторов (opt-in), где создатели сами решают, могут ли их произведения использоваться для машинного обучения. Казахстанский закон, напротив, избрал модель opt-out — что представляет собой самостоятельный подход с иным распределением бремени.
Маркировка и прослеживаемость AI-контента
Второй важный принцип — обязательная маркировка синтетического контента и развитие механизмов его прослеживаемости. Это направление закреплено в нормах EU AI Act, предусматривающих идентификацию AI-генерированного контента. В развитие этого подхода обсуждается внедрение цифровых водяных знаков, метаданных и технических маркеров, позволяющих установить происхождение изображения, использованную модель и характер взаимодействия человека и алгоритма.
Такая система не ограничивает творчество и не препятствует свободному использованию ИИ-изображений, но предотвращает введение в заблуждение: пользователь понимает, что перед ним — результат работы алгоритма, а не исключительно человека-автора.
Публичный статус AI-результатов с особыми правилами для коммерческого использования
В экспертной среде всё чаще высказывается позиция о том, что по умолчанию правовая охрана результатов ИИ-деятельности не должна возникать автоматически и такие результаты могут рассматриваться как находящиеся в публичном достоянии. Применительно к коммерческому использованию целесообразно учитывать происхождение визуального материала: если ИИ-изображение явно воспроизводит элементы охраняемых произведений или стилистику конкретного автора, может потребоваться лицензирование или иные договорные механизмы.
Для некоммерческого использования — в образовательных, исследовательских или бытовых целях — избыточное регулирование нецелесообразно. Дифференцированный подход позволяет сохранить свободу творчества и одновременно стимулировать сочетание ИИ с человеческим вкладом: итоговый результат получает правовую охрану благодаря значимому участию человека в его создании.
Фокус на предотвращении реального вреда, а не на формальном сходстве
Современное регулирование всё чаще предлагает сместить акцент с формального запрета на сходство изображений к предотвращению реального вреда. Речь идёт о противодействии deepfake-технологиям, манипуляции изображениями реальных людей, распространению дезинформации и иным социально опасным практикам.
Такой подход позволяет решать действительно значимые риски, не превращая каждое использование ИИ-генерации в потенциальное нарушение. Корпоративные политики крупных платформ, включая ограничения на создание изображений, схожих с узнаваемыми охраняемыми объектами, могут рассматриваться как добровольные меры снижения рисков. В будущем возможно формирование более формализованных механизмов внешнего аудита таких систем и коллективных переговоров между представителями креативных индустрий и технологическими компаниями.
Необходимость международной гармонизации
Поскольку цифровые технологии функционируют вне национальных границ, эффективное регулирование невозможно без международной координации. Различия между подходами США — где акцент делается на доктрине fair use — и ЕС, где приоритет отдаётся прозрачности алгоритмов и защите данных, — могут приводить к фрагментации правоприменения. Казахстанский закон об ИИ и опыт иных юрисдикций обогащают эту дискуссию, предлагая иные модели разграничения охраняемых и неохраняемых ИИ-результатов.
В этой связи обсуждается роль международных организаций, в первую очередь ВОИС (WIPO), в формировании единых стандартов регулирования вопросов искусственного интеллекта и авторского права. Унификация подходов позволила бы снизить правовую неопределённость и обеспечить предсказуемость последствий использования ИИ в глобальной среде.
Таким образом, перспективная модель регулирования предполагает не расширение классического авторского права на все результаты ИИ-генерации, а формирование справедливой системы ответственности за использование исходных данных, прозрачность создания контента и предотвращение социально значимых рисков. Такой баланс позволяет сохранить инновационный потенциал технологий и одновременно поддержать доверие со стороны креативных индустрий и общества в целом.
Что дальше: правовое сопровождение ИИ-проектов как необходимость
На сегодняшний день результаты генерации ИИ, в том числе изображения, созданные нейросетями, не являются объектами авторского права в классическом понимании законодательства большинства стран — авторство и творческий вклад традиционно связываются с человеком. Это подтверждено судебной практикой в США, включая финальный отказ Верховного суда в рассмотрении дела Thaler v. Perlmutter в марте 2026 года, концептуальными подходами в ЕС и применением норм в России. Таким образом, правовая охрана ИИ-изображения не возникает у того, кто лишь сформулировал инструкцию для создания определённого образа.
Однако очевидно, что существующая правовая база не полностью отвечает вызовам современной цифровой эпохи. Появление генеративных систем и масштабное распространение автоматического создания контента требуют развития законодательства таким образом, чтобы не препятствовать развитию инноваций и одновременно защищать права тех, кто вносит творческий вклад — будь то разработчик, пользователь, формирующий промпт, или автор исходных данных.
Правовые вопросы в этой сфере возникают на разных этапах реализации ИИ-проекта: при выборе модели и анализе условий её использования, при разработке контентной стратегии с применением генеративных инструментов, при получении претензий от правообладателей, при структурировании прав на результаты работы команды.
Это — область, в которой российская юридическая практика только начинает формировать надёжные ориентиры, а международный опыт, рассмотренный в настоящей статье, становится необходимым инструментом аргументации. ЮФ Инмар сопровождает клиентов на всех этих этапах, опираясь на актуальную судебную практику юрисдикций, в которых вопросы правовой защиты интеллектуальной собственности уже прошли проверку в реальных спорах.
Эксперт по теме
Старший партнер