Эксперты предупреждают о растущей агрессии в отношении ИИ-индустрии и её лидеров. По мнению аналитиков, открытые заявления о грядущем массовом замещении рабочих мест искусственным интеллектом могут спровоцировать волну насилия против технологических компаний и их руководителей.

Исторические параллели с луддитами

Автор материала Альберто Ромеро проводит аналогию между современной ситуацией и движением луддитов начала XIX века. Тогда рабочие текстильных фабрик уничтожали станки, угрожавшие их средствам к существованию.

⚠ Историческая параллель
В 1812 году владелец фабрики Уильям Хорсфолл был убит луддитом Джорджем Меллором после того, как публично заявил о готовности “плавать в крови луддитов по седло”.

Ключевое отличие современной ситуации — физическая недоступность “врага”. Если ткацкие станки можно было сломать молотком, то дата-центры защищены высокими заборами, охраной и биометрическими замками.


graph TD
    A[Угроза рабочим местам] --> B{Доступность цели}
    B --> C[Физические станки 1812]
    B --> D[Защищённые дата-центры 2024]
    C --> E[Прямое разрушение оборудования]
    D --> F[Атаки на людей]
    F --> G[Руководители компаний]
    F --> H[Чиновники-сторонники]

Современные инциденты

Автор приводит гипотетические сценарии будущих инцидентов, стилизованные под реальные события:

Тип инцидентаОписаниеПотенциальные мишени
Атаки на домаПоджоги, стрельбаРуководители ИИ-компаний
Угрозы офисамБлокировки, терактыШтаб-квартиры OpenAI, Google
Давление на чиновниковЗапугиваниеСторонники ИИ-проектов

Особую тревогу вызывает то, что по мере недоступности технологической инфраструктуры агрессия может перенаправиться на людей — руководителей компаний, инвесторов, политиков.

Психология протеста

ℹ Ключевая проблема
Лидеры ИИ-индустрии сами создают психологические предпосылки для агрессии, постоянно говоря о грядущем замещении рабочих мест без предложения конкретных решений переходного периода.

Ромеро отмечает парадокс: когда Сэм Альтман или Дарио Амодеи заявляют о потенциальной потере рабочих мест, обычная реакция людей — не “позвольте заплатить $20 в месяц за адаптацию”, а “вы сами это делаете с нами”.

“Самая серьёзная ошибка ИИ-индустрии заключается в создании технологии массового замещения белых воротничков без обеспечения безопасного перехода, а затем в постоянных публичных обсуждениях этого факта”

Критический сценарий

Эксперт выделяет условия, при которых изолированные инциденты могут перерасти в массовое насилие:

⚠ Условия эскалации
Если люди почувствуют, что у них нет места в будущем — не могут покупать товары, их навыки устаревают, шансы на заработок замещаются ИИ-агентами — тогда им нечего терять.

В такой ситуации выбор может свестись к формуле “умереть или убить”, что кардинально меняет динамику социальных протестов.

Рекомендации для индустрии

Аналитик призывает лидеров ИИ-компаний к большей осторожности в публичных заявлениях:

  • Меньше самосознания, больше самоанализа
  • Понимание того, как их слова воспринимаются обществом
  • Разработка конкретных программ социальной адаптации
  • Избегание провокационных заявлений о замещении рабочих мест
💡 Для ИИ-индустрии
Необходимо сосредоточиться не только на технических возможностях ИИ, но и на социальных последствиях его внедрения, предлагая конкретные решения для переходного периода.

Материал подчёркивает важность социально ответственного подхода к развитию ИИ-технологий и необходимость учёта человеческого фактора при планировании технологических революций.