Авторские права на созданное искусственным интеллектом изображение или визуальный образ: современные вызовы и правовые решения

Дело Инмар: рекламное агентство против «промптера»
Авторские права на созданное искусственным интеллектом изображение или визуальный образ — эта актуальная в последнее время тема стала предметом интересного дела, в котором в декабре 2025 года участвовала ЮФ Инмар. Фирма представляла интересы ответчика — рекламного агентства, которое создало и распространило видеоролик в социальных сетях, построенный вокруг визуального образа, полностью повторяющего популярное вирусное изображение, изначально созданное средствами генеративного искусственного интеллекта и активно распространявшееся в сети.
Истец заявлял, что он обладает авторскими правами на оригинальный визуальный образ, требовал прекратить распространение спорного ролика, грозил судебным иском и значительными издержками. Сторона истца утверждала, что ролик ответчика нарушает его исключительные права, поскольку видеоряд был построен на визуальных элементах, которые по сути совпадали с тем, что он считал своим произведением. Это привело к острым дебатам о том, как именно соотносятся авторство искусственного интеллекта, права создателя промпта и классические нормы авторского права.
Хотя спор не дошёл до суда и был урегулирован в досудебном порядке, ЮФ Инмар была полностью уверена в правовой позиции ответчика, настаивая на том, что в рассматриваемой ситуации авторские права на созданное искусственным интеллектом изображение объективно не возникли, и что требования истца были юридически необоснованными. Не зря в зарубежной юридической практике часто создатель образа именуется не автор, а «промптер» или «инженер «промптов».
Анализируя этот кейс важно понять правовые основания такой позиции и вывести ключевые принципы, которые можно использовать в будущей практике.
Актуальность проблемы: кому принадлежат права на сгенерированные объекты?
В последние годы вопрос, кому принадлежат авторские права на созданное искусственным интеллектом изображение или визуальный образ, и могут ли существовать вообще такие права, учитывая особенности функционирования искусственного интеллекта стал особенно актуальным. С одной стороны, генеративные модели способны создавать высококачественные визуальные произведения, которые многие воспринимают как творческие достижения. С другой — правовая система большинства стран не содержит прямых механизмов определения правового статуса результатов, полученных с помощью искусственного интеллекта, поскольку традиционное авторское право ориентировано исключительно на результаты человеческого творчества.
Проблема усугубляется ещё и тем, что генеративные модели обучаются на огромных массивах данных, включающих изображения, тексты и мультимедиа, которые изначально защищены авторским правом. Это порождает спорные вопросы о том, как соотносится искусственный интеллект и авторское право, и соответствует ли текущий режим нормам справедливого баланса интересов авторов и технологических инноваций.
Если же рассматривать ситуацию глубже, становится очевидно, что в ряде случаев ии нарушает авторские права не в результате прямого злого умысла пользователя, а потому, что система обучения моделей фактически включала защищённые материалы без явного разрешения правообладателей. Это, в свою очередь, вызывает новый виток дискуссий о необходимости пересмотра правового режима интеллектуальной собственности применительно к эпохе цифровых технологий и автоматической генерации контента.
Кроме того, в большинстве случаев и пользователи не вовсе не задаются вопросом, кому принадлежат права на сгенерированные изображения, без сомнений используют для своих образов или роликов изображения, уже защищенные авторским правом, обучают других пользователей создавать промпты для красивых картинок, рекомендуя просто загружать в ии модель картинку с изображением, пользующимся правовой защитой.
Основные мировые подходы: практика США и ЕС
Соединённые Штаты Америки: исключительность авторства человека
В США авторские права на созданный искусственным интеллектом объект по общему правилу не признаются и данная юрисдикция применяет один из самых жёстких среди развитых юрисдикций подход в этом вопросе. Согласно традиционным положениям американского авторского права, закреплённым в Title 17 U.S. Code § 102(a), объектом авторского права может быть произведение, являющееся результатом оригинального творческого труда человека. Такой подход отрицает авторство искусственного интеллекта и говорит, что формально автором может быть только человек, а не компьютерная программа.
Прецедентный спор о правовом статусе произведений, созданных искусственным интеллектом, и о том, может ли такой результат быть объектом авторского права, который оказал влияние не только на американскую, но и на европейскую правовую доктрину — дело Thaler v. Perlmutter
В этом деле компьютерный учёный Стивен Талер использовал генеративную систему под названием Creativity Machine, которая самостоятельно создала художественное изображение под названием “A Recent Entrance to Paradise.» В 2019 году Талер подал в Бюро по авторскому праву США (U.S. Copyright Office) заявку на регистрацию авторских прав на это изображение, указав в графе «автор» саму ИИ-систему, а в графе «правообладатель» — себя.
Бюро отказало в регистрации, руководствуясь своей практикой, согласно которой только человек может быть автором произведения, защищаемого авторским правом. Соответственно в рассматриваемом кейсе авторские права на созданное искусственным интеллектом изображение отсутствуют. Ведомство сослалось на процедурный нормативный акт (Compendium of U.S. Copyright Office Practices), в котором прямо указано, что регистрация может быть отклонена, если работа «создана машиной без участия человека».
Талер оспорил это решение сначала в окружном суде, а затем — в Апелляционном суде Округа Колумбия (D.C. Circuit). 18 марта 2025 года суд подтвердил отказ: по мнению суда, законы США требуют, чтобы объект авторского права имел человеческого автора, и поскольку изображение было создано автономно ИИ без значимого творческого участия человека, оно не могло быть защищено авторским правом. Суд отметил, что хотя законодательство не определяет термин «автор» прямо как физическое лицо, обычное и историческое толкование Закона об авторском праве 1976 г. подразумевает, что авторство присуще человеку, а не машине.
Это решение стало одним из ключевых прецедентов, закрепляющих понимание, что работы, созданные исключительно ИИ, не могут быть объектами авторского права в США без участия человека, внесшего творческий вклад.
Практика Бюро регистрации авторских прав США (U.S. Copyright Office) последовательно подтверждает, что заявки на регистрацию авторских прав на работы, созданные исключительно искусственным интеллектом, отклоняются с указанием на то, что авторские права на созданное искусственным интеллектом изображение без участия человека не подлежат регистрации и защите в рамках действующего закона.
Такой подход отражает консервативное понимание авторства: право признаёт творческий вклад исключительно физического лица, а не алгоритма. Это означает, что в США изображения, созданные исключительно нейросетями, не получают автоматической охраны, и их использование не создаёт прямых правовых обязанностей для пользователей, если только они не нарушают права третьих лиц через заимствование защищённых элементов из обучающих данных или внешних источников.
Европейский Союз: смешанные подходы и регуляторные инициативы
В Европейском союзе правовой статус изображений, полученных с помощью ИИ, также остаётся предметом активного обсуждения, но подход здесь несколько менее однозначен, чем в США. В ЕС авторское право регулируется Директивой 2001/29/EC и последующими нормами цифрового рынка, такими как Directive 2019/790 on Copyright in the Digital Single Market. Эти акты, хотя и не подразумевают авторские права на созданное искусственным интеллектом изображение, обеспечивают рамки, в которых обсуждается свободное использование данных и исключения для целей анализа, включая машинное обучение.
ЕС также продвигает проект AI Act, направленный на регулирование использования искусственного интеллекта в разных секторах экономики и общества. Этот акт не создаёт прямых норм об авторстве произведений ИИ, но устанавливает принципы ответственного применения ИИ, включая обязательства по обеспечению прозрачности использования исходных данных.
Европейская судебная практика пока также не выработала чёткой линии по вопросам интеллектуальной собственности, непосредственно связанным с генерацией ИИ-изображений. Тем не менее, концептуально в ЕС признаётся необходимость балансирования между стимулированием инноваций и защитой интересов авторов, чьи произведения могут использоваться или имитироваться генеративными моделями. Аналитики подчёркивают, что подход ЕС в области искусственного интеллекта и авторского права развивается в сторону создания гибких правил, которые позволили бы учитывать вклад человека в создание материала и минимизировать риски нарушения прав третьих лиц.
Авторские права на созданное искусственным интеллектом изображение — российские нормы и практика
В России правовой режим интеллектуальной собственности по общему правилу предусматривает, что автором произведения является физическое лицо — тот, кто создал произведение творческим трудом. Это прямо закреплено в части IV Гражданского кодекса РФ, в частности в ст. 1228, где автор определяется как гражданин, создавший произведение. На основании этой нормы формируется позиция о том, что авторские права на созданное искусственным интеллектом изображение не возникают, если отсутствует творческий вклад человека.
В настоящее время судебная практика в России по вопросам использования искусственного интеллекта очень небольшая, авторские права на созданное искусственным интеллектом изображение и тем более на визуальный образ вообще в чистом виде не становились предметом рассмотрения.
Лишь в деле А40-200471/2023 (Девятый ААС, 08.04.2024) суд указал, что технология Deep-fake — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания. Соответственно, тот факт, что дизайнер осуществил технический монтаж исходных материалов видеоролика посредством технологии deep-fake сам по себе не свидетельствует о том, что видеоролик доступен для свободного использования (без согласия правообладателя), или о том, что группа лиц, обеспечившая написание сценария видеоролика, видеосъемку, его аудиосопровождение, не внесли личный творческий вклад в создание видеоролика и не признаются его авторами.
Суды косвенно затрагивали вопросы использования искусственного интеллекта в деле в А60-8560/2025 (компенсация за использование фото была снижена, поскольку ссылки на ИИ не доказали отсутствие нарушения), в деле 13АП-37912/23 (Тринадцатый ААС, 06.02.2024) суд подтвердил права истца на изображение, несмотря на аргументы об ИИ-генерации. Эти дела показывают, что суды фокусируются на доказательствах человеческого вклада, и ИИ нарушает авторские права, если использует охраняемые объекты без разрешения.
Важным аспектом является то, что российское законодательство не содержит специальных норм об авторских правах на работы ИИ, и суды применяют традиционные положения Гражданского кодекса РФ. В отсутствие прямого регулирования основная логика судебных решений заключается в оценке факта творческого участия человека и установлении присутствия элементов оригинальности, которые могли бы свидетельствовать о наличии объекта интеллектуальной собственности.
Проблема использования обучающих данных: когда ИИ нарушает авторские права
Отдельно стоит отметить ещё одну существенную правовую проблему, связанную с вопросом кому принадлежат права на сгенерированные изображения — это использование защищённых авторским правом материалов при обучении генеративных моделей. Когда ИИ обучается на больших наборах данных, включающих изображения, защищённые авторским правом, возникает риск, что итоговые сгенерированные изображения будут содержать элементы, близкие или тождественные исходным работам. В таких случаях может возникнуть ситуация, когда ИИ нарушает авторские права не из-за своего “намерения”, а в силу того, что алгоритм встроил защищённые признаки в процессы генерации.
Этот вопрос получает всё большее внимание со стороны юридической науки и практики. Например, владельцы прав на оригинальные изображения могут утверждать, что использование их работ при обучении моделей без разрешения представляет собой нарушение их прав, и что итоговые изображения, даже если они формально являются новым визуальным продуктом, фактически опираются на защищённые элементы.
Яркий пример — случаи, когда в промптах для генерации используются защищённые изображения сказочных персонажей, героев мультфильмов или других интеллектуальных продуктов. Такие ситуации подчёркивают, что авторские права на созданное искусственным интеллектом изображение или визуальный образ не могут существовать в принципе, если при генерации изображения было незаконное использование охраняемого объекта. Если алгоритм «видел” защищённый материал и воспроизводит его элементы, возникает правовой риск — и это одна из причин, почему многие юристы считают необходимым специально регулировать механизмы доступа к обучающим данным и обязанности по компенсации правообладателям.
Важно отметить, что такие вопросы актуальны не только в контексте академических дебатов. В коммерческой практике уже возникают споры, связанные с претензиями правообладателей к разработчикам и пользователям генеративных систем, что усиливает потребность в чётких правилах относительно обучения, генерации и использования результатов, полученных с помощью ИИ.
Корпоративные политики LLM как временное решение
Пока законодательство большинства стран по общему правилу отрицает авторские права на созданное искусственным интеллектом изображение или визуальный образ, крупные разработчики языковых и визуальных моделей установили собственные корпоративные политики в области генерации контента.
Например, OpenAI (ChatGPT) — в своих правилах использования модели ограничивает создание материалов, которые могут сильно напоминать конкретные защищённые произведения или нарушать права третьих лиц. Эти ограничения не признают автоматически авторские права на созданное искусственным интеллектом изображение или визуальный образ, и не обусловлены требованиями законодательства, они определяются политикой минимизации юридических рисков для компании и её пользователей.
OpenAI Usage Policies (Правила допустимого использования) содержит следующие ограничения в отношении:
-
создания материалов, воспроизводящих конкретные существующие произведения
-
генерации контента, который является существенно схожим с узнаваемыми произведениями
-
создания изображений, которые могут нарушать права третьих лиц на визуальные образы
Именно отсюда возникает запрет на помощь в точной репликации вирусного изображения или клипа, даже если оно создано ИИ.
Другие большие модели ИИ также внедряют фильтры и принципы ответственного использования, которые препятствуют генерации контента, способного нарушать права третьих лиц. Эти корпоративные политики действуют как временные регуляторы, пока законодательные органы не сформируют чётких норм. Они отражают понимание того, что автоматическая генерация контента несёт в себе риски нарушения прав — и что такие риски должны быть ограничены средствами платформ и сервисов.
Искусственный интеллект и авторское право — направления развития
Дискуссия о том, должны ли признаваться авторские права на созданное искусственным интеллектом изображение или визуальный образ, постепенно смещается от вопроса «кому принадлежат права на сгенерированные ии объекты» к более сложной задаче — как выстроить систему, которая одновременно поддерживает инновации и защищает интересы правообладателей и общества. Очевидно, что чрезмерное расширение классической модели авторского права на все результаты генерации ИИ может привести к избыточному регулированию и фактически затормозить развитие цифрового творчества. Вместо этого всё чаще предлагается комплексный, многоуровневый подход.
Прозрачность обучающих данных как базовый принцип
Одним из ключевых направлений становится требование прозрачности в отношении обучающих данных. Если генеративные модели используют материалы, подпадающие под охрану авторского права, разработчики ИИ должны раскрывать общие категории источников данных и внедрять механизмы получения согласия или выплаты вознаграждения правообладателям. Такой подход смещает фокус регулирования с контроля за результатами на контроль за исходными условиями генерации.
Иными словами, вместо того чтобы автоматически ограничивать использование выходных изображений, логичнее урегулировать процесс обучения. Это позволяет снизить риск того, что ии нарушает авторские права на этапе формирования модели, а не постфактум — при использовании уже созданного изображения. Перспективным направлением считаются открытые базы данных с системой добровольного подключения авторов (opt-in), где креаторы сами решают, могут ли их произведения использоваться для машинного обучения.
Маркировка и прослеживаемость AI-контента
Второй важный принцип — обязательная маркировка контента, созданного при помощи ИИ, и развитие механизмов его прослеживаемости. В этом направлении движется европейское регулирование, включая нормы EU AI Act, предусматривающие требования по идентификации AI-генерированного контента.
Такая система не ограничивает творчество и не препятствует свободному использованию изображений, но предотвращает введение в заблуждение. Пользователь должен понимать, что перед ним — результат работы алгоритма, а не исключительно человеческого автора. В перспективе это может включать внедрение цифровых водяных знаков, метаданных или технических маркеров, позволяющих установить происхождение изображения, использованную модель и характер взаимодействия человека и алгоритма. Это особенно важно в контексте обсуждения, где разделяется авторство искусственного интеллекта и вклад человека.
Публичный статус AI-результатов с особыми правилами для коммерческого использования
В экспертной среде всё чаще высказывается позиция о том, что по умолчанию авторские права на созданное искусственным интеллектом изображение не должны возникать автоматически, и такие результаты могут рассматриваться как находящиеся в публичном доступе. Однако при коммерческом использовании целесообразно учитывать происхождение визуального материала.
Если изображение явно воспроизводит элементы защищённых произведений или стилистику конкретного автора, может потребоваться лицензирование или иные договорные механизмы. При этом для некоммерческого использования — в образовательных, исследовательских или бытовых целях — чрезмерное регулирование нецелесообразно. Такой дифференцированный подход позволяет сохранить свободу творчества и одновременно стимулировать комбинирование ИИ с человеческим вкладом, формируя модели совместного творчества, где итоговый результат получает правовую охрану благодаря значимому участию человека.
Фокус на предотвращении вреда, а не на формальном копировании
Современное регулирование всё чаще предлагает сместить акцент с формального запрета на сходство изображений к предотвращению реального вреда. Речь идёт о борьбе с deepfake-технологиями, манипуляцией изображениями реальных людей, распространением дезинформации и иными социально опасными практиками.
Такой подход позволяет решать действительно значимые риски, не превращая каждое использование ИИ-генерации в потенциальное нарушение. Корпоративные политики крупных платформ, включая ограничения на создание изображений, схожих с узнаваемыми произведениями, могут рассматриваться как добровольные меры снижения рисков. Однако в будущем возможно формирование более формализованных механизмов внешнего аудита таких систем и коллективных переговоров между представителями креативных индустрий и технологическими компаниями.
Необходимость международной гармонизации
Поскольку цифровые технологии функционируют вне национальных границ, эффективное регулирование невозможно без международной координации. Различия между подходами США, где акцент делается на доктрине fair use, и ЕС, где приоритет отдаётся защите данных и прозрачности алгоритмов, могут приводить к фрагментации правоприменения.
В этой связи обсуждается роль международных организаций, таких как ВОИС (WIPO), в формировании единых стандартов регулирования вопросов искусственный интеллект и авторское право. Унификация подходов позволила бы снизить неопределённость и обеспечить предсказуемость правовых последствий использования ИИ в глобальной среде.
Таким образом, перспективная модель регулирования предполагает не расширение классического авторского права на все результаты ИИ-генерации, а формирование справедливой системы ответственности за использование исходных данных, прозрачность создания контента и предотвращение социально значимых рисков. Такой баланс позволяет сохранить инновационный потенциал технологий и одновременно поддержать доверие со стороны креативных индустрий и общества в целом.
Авторские права на созданное искусственным интеллектом произведение или визуальный образ — что дальше?
На сегодняшний день результаты генерации ИИ, в том числе изображения, созданные нейросетями, не являются объектами авторского права в классическом понимании законодательства большинства стран, поскольку авторство и творческий вклад традиционно связываются с человеком. Это отражает текущее состояние правового режима и подтверждается судебной практикой в США, подходами в ЕС и применением норм в России. Таким образом, в настоящее время авторские права на созданное искусственным интеллектом изображение или визуальный образ отсутствуют у того, кто создал инструкцию для создания определенного образа.
Однако очевидно, что существующая правовая база не полностью отвечает вызовам современной цифровой эпохи. Появление генеративных систем и масштабное распространение автоматического творчества требуют развития законодательства таким образом, чтобы:
- не препятствовать развитию инноваций, и
- защищать права тех, кто вносит творческий вклад — будь то программист, пользователь, формирующий промпт, или автор исходных данных.
Только сбалансированное регулирование обеспечит справедливое взаимодействие между технологиями и классической системой авторского права, а также позволит разграничить сценарии, когда права на сгенерированное изображение действительно имеют правовую ценность, пользуются правовой защитой, и когда они остаются вне сферы охраны.