ИИ и закон: что на самом деле происходит за кулисами

Когда пользователь впервые спрашивает ChatGPT о чём-то личном — своих страхах, финансах, болезнях — он редко задумывается: куда уходят эти данные? Когда художник видит, что нейросеть сгенерировала изображение в его стиле без единого цента компенсации, он восклицает: «Как это вообще законно?!» И это не риторический вопрос. Это главный юридический вопрос нашего времени.

За последние два года вокруг генеративного ИИ возникло беспрецедентное количество правовых коллизий. Судебные иски измеряются десятками, суммы претензий — миллиардами долларов, а законодательство едва успевает за технологиями. Разбираемся по порядку.


Авторское право: кто украл у кого?

В самом сердце юридических споров вокруг ИИ лежит один многомиллиардный вопрос. Могут ли разработчики ИИ обучать свои модели на охраняемых авторским правом произведениях без разрешения правообладателей, ссылаясь на доктрину «добросовестного использования» (fair use)?

The New York Times и коалиция изданий MediaNews Group и Tribune Publishing в настоящее время судятся с OpenAI и Microsoft, обвиняя их в незаконном копировании статей и другого охраняемого контента для обучения больших языковых моделей. Это лишь две из десятков аналогичных историй.

На сегодняшний день насчитывается 51 иск против ИИ-компаний, включая OpenAI, Microsoft, Meta и Midjourney. Показательно, что ни один суд не примет окончательного решения по вопросу fair use в обучении ИИ раньше лета 2026 года.

ℹ Что такое доктрина fair use?
Fair use («добросовестное использование») — американская правовая концепция, позволяющая использовать охраняемые произведения без разрешения автора в ограниченных целях: образование, критика, комментарий, новостная журналистика. ИИ-компании утверждают, что обучение на текстах — это трансформативное использование, аналогичное работе поисковых систем. Правообладатели категорически не согласны.

При этом позиция судов становится всё более жёсткой по отношению к технологическим гигантам. Если истцы докажут, что ChatGPT систематически генерирует контент, конкурирующий с охраняемыми произведениями или подменяющий их, — даже когда пользователи специально этого не запрашивают, — защита OpenAI на основе fair use станет значительно труднее поддерживаемой.

«Это высокоставочный тест того, как авторское право применяется к генеративному ИИ» — In re: OpenAI, Inc. Copyright Infringement Litigation, MDL SDNY

Что насчёт вашего контента?

Контент, созданный ChatGPT, не является объектом авторского права — здесь есть серые зоны в отношении законности его использования как своего. Бюро по авторским правам США не разрешает защищать авторским правом контент, созданный машинами — и это правило распространяется на людей тоже: человек не может получить авторские права на произведение, созданное машиной.

Суд постановил, что «авторство человека является неотъемлемой частью законной претензии на авторское право», обосновав это тем, что только авторы-люди нуждаются в авторском праве как стимуле для создания выразительных произведений.


Ваши личные данные в ChatGPT: кто их читает?

Мало кто знает, что суды уже вынудили OpenAI хранить переписку пользователей — даже ту, которую они сами удалили.

Плохо продуманный судебный приказ в рамках дела об авторских правах обязывает OpenAI хранить все потребительские разговоры с ChatGPT бессрочно — даже если пользователь пытается их удалить. Этот широкий приказ значительно превышает нужды дела и создаёт опасный прецедент, игнорируя права на приватность миллионов пользователей.

ChatGPT насчитывает более 300 миллионов пользователей, которые отправляют свыше 1 миллиарда сообщений в день, нередко в личных целях. Среди этих сообщений — медицинские вопросы, финансовые тайны, личные переживания.

⚠ Важно знать
Если вы удалили переписку с ChatGPT — это не значит, что она исчезла. Судебный приказ 2025 года обязал OpenAI сохранять все логи, и суд постановил передать 20 миллионов анонимизированных диалогов истцам по делу об авторском праве.

Судья Сидни Стейн подтвердил приказ, обязывающий OpenAI передать все 20 миллионов логов — а не только тщательно отобранные разговоры, связанные с произведениями истцов, как хотела компания.

Почему ваши данные уязвимы?

Многие ИИ-провайдеры, включая OpenAI, Google DeepMind и Anthropic, могут хранить пользовательские взаимодействия для улучшения своих моделей. Это означает, что любая частная или конфиденциальная информация, введённая в чат, потенциально может быть сохранена.

Сохранённые данные могут быть проданы или переданы третьим лицам, взломаны хакерами, раскрыты правоохранительным органам или даже использованы для манипуляции поведением пользователя через онлайн-рекламу.


graph TD
    A[Пользователь вводит запрос] --> B[OpenAI хранит лог]
    B --> C{Пользователь удаляет?}
    C -->|Да| D[Лог всё равно сохраняется по суд. приказу]
    C -->|Нет| E[Лог хранится на серверах]
    D --> F[Может быть передан в суд]
    E --> F
    F --> G[Анализ в рамках судебных дел]
    B --> H[Используется для дообучения модели]


Дипфейки: технология, обогнавшая закон

Если споры об авторском праве ведутся в залах судебных заседаний, то вред от дипфейков причиняется прямо сейчас, в реальном времени, миллионам людей по всему миру.

Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC) зафиксировал рост на 1 325% в количестве сообщений о ИИ-сгенерированных материалах сексуального насилия над детьми между 2023 и 2024 годами. К июню 2025 года предварительные данные показали 440 419 новых сообщений, связанных с ИИ-сгенерированными материалами — рост на 6 345% по сравнению с аналогичным периодом 2024 года.

Распространение нежелательных дипфейков — это проблема, затрагивающая несколько поколений, но особенно широко распространённая среди молодёжи. При этом женщины и девочки подвергаются наибольшему риску, составляя около 90% жертв подобных преступлений.

Закон наносит ответный удар

19 мая 2025 года президент Трамп подписал двухпартийный «Закон об инструментах против известных злоупотреблений путём нейтрализации технологических дипфейков в сетях и сервисах» (Take It Down Act). Это первый федеральный закон США, ограничивающий использование ИИ в целях, которые могут причинить вред людям.

Закон криминализирует публикацию нежелательных интимных дипфейков с наказанием в виде лишения свободы на срок до 2 лет (3 лет в случае несовершеннолетних). Платформы обязаны удалять такой контент в течение 48 часов после получения валидного уведомления и внедрить соответствующие процедуры к маю 2026 года.

Уже есть первые уголовные осуждения. Джеймс Страхлер, 37 лет, использовал ИИ для создания нежелательных изображений и видео как совершеннолетних, так и несовершеннолетних жертв. Он был арестован в июне 2025 года и признал себя виновным в киберпреследовании и производстве материалов сексуального насилия над детьми.

По состоянию на январь 2026 года 47 штатов США приняли законодательство о дипфейках, причём 82% всех законов о дипфейках были приняты всего за последние два года.


Сравнительная таблица: как регулируется ИИ в разных юрисдикциях

ЮрисдикцияДипфейкиАвторское право ИИКонфиденциальность данныхСтатус
США (федеральный)Take It Down Act 2025Fair use — под вопросомНет единого законаФрагментарно
Европейский союзEU AI Act (2024–2026)Прозрачность обучающих данныхGDPR (строгий)Наиболее полное
Штаты США (отдельные)47 штатов с законамиНет отдельных нормCCPA (Калифорния) и др.Лоскутное одеяло
КитайОбязательная маркировкаГосударственный контрольНациональный закон о данныхЖёсткий
РоссияНет федерального законаОбщие нормы ГК152-ФЗ (ограниченно)Пробелы
💡 Совет для бизнеса
Если вы используете ИИ-инструменты для создания контента или в бизнес-процессах — уже сейчас проконсультируйтесь с юристом. Законодательство меняется ежеквартально, и то, что было серой зоной год назад, сегодня может быть прямым нарушением закона.

Психологический вред: чат-боты и уязвимые пользователи

Отдельная, и крайне болезненная тема — психологический ущерб от общения с ИИ-системами. OpenAI сталкивается как минимум с несколькими десятками исков, утверждающих, что компания выпустила психологически манипулятивные и вредоносные модели.

Character Technologies и Google обвиняются в психологическом насилии над подростками через платформу Character.AI. Дело получило широкий общественный резонанс после гибели 14-летнего мальчика, который, по утверждению его матери, находился под влиянием бесед с ИИ-персонажем.

Одной из главных проблем в сфере приватности станет вопрос о том, могут ли ИИ-агенты использоваться, например, государственными органами или правоохранительными структурами для отслеживания медицинской информации людей и её последующего применения в уголовном преследовании.

📝 Реальный случай мошенничества
Arup vs. дипфейк-CFO (январь 2024): Инженерная компания Arup потеряла 25 миллионов долларов после того, как сотрудник принял участие в видеозвонке с дипфейк-CFO и несколькими ИИ-сгенерированными коллегами. Все они были достаточно убедительны, чтобы авторизовать 15 банковских переводов до обнаружения мошенничества.

Что это означает лично для вас?

Правовой ландшафт вокруг ИИ кардинально меняется — и быстро. Несколько практических выводов:

1. Ваши данные — это доказательства. Прецедент уже установлен: федеральный суд обязал ИИ-провайдера передать 20 миллионов пользовательских переписок противоположной стороне в рамках судебного дела. То, что началось как спор об авторском праве на обучающие данные, превратилось в знаковую проверку того, насколько далеко может распространяться гражданское расследование в историю ИИ-чатов.

2. Не вводите конфиденциальную информацию в публичные ИИ-чаты. Если вы работаете с личными данными — например, на рабочем месте — вы можете нарушить корпоративную политику или законы, включив эту информацию в запросы к ИИ.

3. ИИ-контент — не ваша собственность в полном смысле слова. Большинство законов об авторском праве не разрабатывались с учётом ИИ — поэтому вопросы владения, оригинальности и защиты ИИ-сгенерированного контента остаются юридически неопределёнными.

4. Дипфейки становятся федеральным преступлением. В дополнение к криминализации нежелательных интимных дипфейков, федеральный закон обязывает платформы удалять такие материалы в течение 48 часов после их сообщения.


Заключение: гонка между технологией и законом

Вопрос «Как это вообще законно?!» всё ещё не имеет окончательного ответа — и в этом вся суть. Мы живём в эпоху, когда технологии развиваются быстрее, чем законодательство успевает их осмыслить.

По мере того как технологии опережают законодательство, этическая ответственность отдельных создателей, платформ и потребителей остаётся значительной вне зависимости от того, что говорит конкретный закон. То, что ещё два года назад было туманной правовой серой зоной, сегодня превратилось в одну из наиболее активно законодательно регулируемых областей права в США и мире.

Но направление движения очевидно: регуляторы по всему миру ужесточают требования к ИИ-компаниям. Прозрачность обучающих данных, права пользователей на удаление информации, запрет дипфейков, ответственность платформ — всё это перестаёт быть абстракцией и становится конкретными статьями законов с реальными санкциями.

Для пользователей это означает одно: относитесь к взаимодействию с ИИ так же осознанно, как к любому другому юридически значимому действию в цифровом пространстве. Потому что суды уже так и делают.