
ИИ и закон: что на самом деле происходит за кулисами
Копирайт, приватность, дипфейки — почему миллиарды пользователей ИИ оказались в правовом вакууме и что с этим делают законодатели.
ИИ и закон: что на самом деле происходит за кулисами
Когда пользователь впервые спрашивает ChatGPT о чём-то личном — своих страхах, финансах, болезнях — он редко задумывается: куда уходят эти данные? Когда художник видит, что нейросеть сгенерировала изображение в его стиле без единого цента компенсации, он восклицает: «Как это вообще законно?!» И это не риторический вопрос. Это главный юридический вопрос нашего времени.
За последние два года вокруг генеративного ИИ возникло беспрецедентное количество правовых коллизий. Судебные иски измеряются десятками, суммы претензий — миллиардами долларов, а законодательство едва успевает за технологиями. Разбираемся по порядку.
Авторское право: кто украл у кого?
В самом сердце юридических споров вокруг ИИ лежит один многомиллиардный вопрос. Могут ли разработчики ИИ обучать свои модели на охраняемых авторским правом произведениях без разрешения правообладателей, ссылаясь на доктрину «добросовестного использования» (fair use)?
The New York Times и коалиция изданий MediaNews Group и Tribune Publishing в настоящее время судятся с OpenAI и Microsoft, обвиняя их в незаконном копировании статей и другого охраняемого контента для обучения больших языковых моделей. Это лишь две из десятков аналогичных историй.
На сегодняшний день насчитывается 51 иск против ИИ-компаний, включая OpenAI, Microsoft, Meta и Midjourney. Показательно, что ни один суд не примет окончательного решения по вопросу fair use в обучении ИИ раньше лета 2026 года.
При этом позиция судов становится всё более жёсткой по отношению к технологическим гигантам. Если истцы докажут, что ChatGPT систематически генерирует контент, конкурирующий с охраняемыми произведениями или подменяющий их, — даже когда пользователи специально этого не запрашивают, — защита OpenAI на основе fair use станет значительно труднее поддерживаемой.
«Это высокоставочный тест того, как авторское право применяется к генеративному ИИ» — In re: OpenAI, Inc. Copyright Infringement Litigation, MDL SDNY
Что насчёт вашего контента?
Контент, созданный ChatGPT, не является объектом авторского права — здесь есть серые зоны в отношении законности его использования как своего. Бюро по авторским правам США не разрешает защищать авторским правом контент, созданный машинами — и это правило распространяется на людей тоже: человек не может получить авторские права на произведение, созданное машиной.
Суд постановил, что «авторство человека является неотъемлемой частью законной претензии на авторское право», обосновав это тем, что только авторы-люди нуждаются в авторском праве как стимуле для создания выразительных произведений.
Ваши личные данные в ChatGPT: кто их читает?
Мало кто знает, что суды уже вынудили OpenAI хранить переписку пользователей — даже ту, которую они сами удалили.
Плохо продуманный судебный приказ в рамках дела об авторских правах обязывает OpenAI хранить все потребительские разговоры с ChatGPT бессрочно — даже если пользователь пытается их удалить. Этот широкий приказ значительно превышает нужды дела и создаёт опасный прецедент, игнорируя права на приватность миллионов пользователей.
ChatGPT насчитывает более 300 миллионов пользователей, которые отправляют свыше 1 миллиарда сообщений в день, нередко в личных целях. Среди этих сообщений — медицинские вопросы, финансовые тайны, личные переживания.
Судья Сидни Стейн подтвердил приказ, обязывающий OpenAI передать все 20 миллионов логов — а не только тщательно отобранные разговоры, связанные с произведениями истцов, как хотела компания.
Почему ваши данные уязвимы?
Многие ИИ-провайдеры, включая OpenAI, Google DeepMind и Anthropic, могут хранить пользовательские взаимодействия для улучшения своих моделей. Это означает, что любая частная или конфиденциальная информация, введённая в чат, потенциально может быть сохранена.
Сохранённые данные могут быть проданы или переданы третьим лицам, взломаны хакерами, раскрыты правоохранительным органам или даже использованы для манипуляции поведением пользователя через онлайн-рекламу.
graph TD
A[Пользователь вводит запрос] --> B[OpenAI хранит лог]
B --> C{Пользователь удаляет?}
C -->|Да| D[Лог всё равно сохраняется по суд. приказу]
C -->|Нет| E[Лог хранится на серверах]
D --> F[Может быть передан в суд]
E --> F
F --> G[Анализ в рамках судебных дел]
B --> H[Используется для дообучения модели]
Дипфейки: технология, обогнавшая закон
Если споры об авторском праве ведутся в залах судебных заседаний, то вред от дипфейков причиняется прямо сейчас, в реальном времени, миллионам людей по всему миру.
Национальный центр по делам пропавших и эксплуатируемых детей (NCMEC) зафиксировал рост на 1 325% в количестве сообщений о ИИ-сгенерированных материалах сексуального насилия над детьми между 2023 и 2024 годами. К июню 2025 года предварительные данные показали 440 419 новых сообщений, связанных с ИИ-сгенерированными материалами — рост на 6 345% по сравнению с аналогичным периодом 2024 года.
Распространение нежелательных дипфейков — это проблема, затрагивающая несколько поколений, но особенно широко распространённая среди молодёжи. При этом женщины и девочки подвергаются наибольшему риску, составляя около 90% жертв подобных преступлений.
Закон наносит ответный удар
19 мая 2025 года президент Трамп подписал двухпартийный «Закон об инструментах против известных злоупотреблений путём нейтрализации технологических дипфейков в сетях и сервисах» (Take It Down Act). Это первый федеральный закон США, ограничивающий использование ИИ в целях, которые могут причинить вред людям.
Закон криминализирует публикацию нежелательных интимных дипфейков с наказанием в виде лишения свободы на срок до 2 лет (3 лет в случае несовершеннолетних). Платформы обязаны удалять такой контент в течение 48 часов после получения валидного уведомления и внедрить соответствующие процедуры к маю 2026 года.
Уже есть первые уголовные осуждения. Джеймс Страхлер, 37 лет, использовал ИИ для создания нежелательных изображений и видео как совершеннолетних, так и несовершеннолетних жертв. Он был арестован в июне 2025 года и признал себя виновным в киберпреследовании и производстве материалов сексуального насилия над детьми.
По состоянию на январь 2026 года 47 штатов США приняли законодательство о дипфейках, причём 82% всех законов о дипфейках были приняты всего за последние два года.
Сравнительная таблица: как регулируется ИИ в разных юрисдикциях
| Юрисдикция | Дипфейки | Авторское право ИИ | Конфиденциальность данных | Статус |
|---|---|---|---|---|
| США (федеральный) | Take It Down Act 2025 | Fair use — под вопросом | Нет единого закона | Фрагментарно |
| Европейский союз | EU AI Act (2024–2026) | Прозрачность обучающих данных | GDPR (строгий) | Наиболее полное |
| Штаты США (отдельные) | 47 штатов с законами | Нет отдельных норм | CCPA (Калифорния) и др. | Лоскутное одеяло |
| Китай | Обязательная маркировка | Государственный контроль | Национальный закон о данных | Жёсткий |
| Россия | Нет федерального закона | Общие нормы ГК | 152-ФЗ (ограниченно) | Пробелы |
Психологический вред: чат-боты и уязвимые пользователи
Отдельная, и крайне болезненная тема — психологический ущерб от общения с ИИ-системами. OpenAI сталкивается как минимум с несколькими десятками исков, утверждающих, что компания выпустила психологически манипулятивные и вредоносные модели.
Character Technologies и Google обвиняются в психологическом насилии над подростками через платформу Character.AI. Дело получило широкий общественный резонанс после гибели 14-летнего мальчика, который, по утверждению его матери, находился под влиянием бесед с ИИ-персонажем.
Одной из главных проблем в сфере приватности станет вопрос о том, могут ли ИИ-агенты использоваться, например, государственными органами или правоохранительными структурами для отслеживания медицинской информации людей и её последующего применения в уголовном преследовании.
Что это означает лично для вас?
Правовой ландшафт вокруг ИИ кардинально меняется — и быстро. Несколько практических выводов:
1. Ваши данные — это доказательства. Прецедент уже установлен: федеральный суд обязал ИИ-провайдера передать 20 миллионов пользовательских переписок противоположной стороне в рамках судебного дела. То, что началось как спор об авторском праве на обучающие данные, превратилось в знаковую проверку того, насколько далеко может распространяться гражданское расследование в историю ИИ-чатов.
2. Не вводите конфиденциальную информацию в публичные ИИ-чаты. Если вы работаете с личными данными — например, на рабочем месте — вы можете нарушить корпоративную политику или законы, включив эту информацию в запросы к ИИ.
3. ИИ-контент — не ваша собственность в полном смысле слова. Большинство законов об авторском праве не разрабатывались с учётом ИИ — поэтому вопросы владения, оригинальности и защиты ИИ-сгенерированного контента остаются юридически неопределёнными.
4. Дипфейки становятся федеральным преступлением. В дополнение к криминализации нежелательных интимных дипфейков, федеральный закон обязывает платформы удалять такие материалы в течение 48 часов после их сообщения.
Заключение: гонка между технологией и законом
Вопрос «Как это вообще законно?!» всё ещё не имеет окончательного ответа — и в этом вся суть. Мы живём в эпоху, когда технологии развиваются быстрее, чем законодательство успевает их осмыслить.
По мере того как технологии опережают законодательство, этическая ответственность отдельных создателей, платформ и потребителей остаётся значительной вне зависимости от того, что говорит конкретный закон. То, что ещё два года назад было туманной правовой серой зоной, сегодня превратилось в одну из наиболее активно законодательно регулируемых областей права в США и мире.
Но направление движения очевидно: регуляторы по всему миру ужесточают требования к ИИ-компаниям. Прозрачность обучающих данных, права пользователей на удаление информации, запрет дипфейков, ответственность платформ — всё это перестаёт быть абстракцией и становится конкретными статьями законов с реальными санкциями.
Для пользователей это означает одно: относитесь к взаимодействию с ИИ так же осознанно, как к любому другому юридически значимому действию в цифровом пространстве. Потому что суды уже так и делают.
Источники
- OpenAI Loses Privacy Gambit: 20 Million ChatGPT Logs Headed to Copyright Plaintiffs
- EFF: Copyright Cases Should Not Threaten Chatbot Users' Privacy
- The Legal Landscape of Deepfakes: Federal, State and Global Regulations 2025
- NBC News: First person convicted under federal law criminalizing intimate deepfakes
- Status of all 51 copyright lawsuits vs. AI (Oct 2025)