<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Этика-Ai on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D1%8D%D1%82%D0%B8%D0%BA%D0%B0-ai/</link><description>Recent content in Этика-Ai on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Wed, 25 Mar 2026 12:00:00 +0300</lastBuildDate><atom:link href="/tags/%D1%8D%D1%82%D0%B8%D0%BA%D0%B0-ai/index.xml" rel="self" type="application/rss+xml"/><item><title>Этика AI: зачем компании нанимают специалистов по AI-безопасности</title><link>/articles/etika-ai-specialisty-po-bezopasnosti/</link><pubDate>Wed, 25 Mar 2026 12:00:00 +0300</pubDate><guid>/articles/etika-ai-specialisty-po-bezopasnosti/</guid><description>&lt;p&gt;В 2024 году канадская авиакомпания Air Canada проиграла судебный процесс из-за своего чат-бота. Бот пообещал пассажиру несуществующую скидку на похоронный перелёт — и трибунал постановил: компания несёт ответственность за то, что говорит её ИИ. Год спустя американский адвокат получил штраф за то, что подал в суд юридическую аргументацию с выдуманными прецедентами — ChatGPT их «придумал», а юрист не проверил.&lt;/p&gt;
&lt;p&gt;Это не баги. Это системные риски. И именно они объясняют, почему в 2025–2026 годах слова «AI Safety Specialist» и «Chief AI Ethics Officer» из фантастики превратились в самые быстрорастущие позиции на рынке труда.&lt;/p&gt;</description></item></channel></rss>