<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Responsible AI on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/responsible-ai/</link><description>Recent content in Responsible AI on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Sun, 12 Apr 2026 17:00:00 +0300</lastBuildDate><atom:link href="/tags/responsible-ai/index.xml" rel="self" type="application/rss+xml"/><item><title>Доверие к ИИ в 2026: эпоха агентных систем</title><link>/articles/doverie-k-ii-2026-epoha-agentnyh-sistem/</link><pubDate>Sun, 12 Apr 2026 17:00:00 +0300</pubDate><guid>/articles/doverie-k-ii-2026-epoha-agentnyh-sistem/</guid><description>&lt;p&gt;Два года назад компании боялись, что ИИ скажет что-то не то. Сегодня они боятся, что ИИ сделает что-то не то — и никто не заметит.&lt;/p&gt;
&lt;p&gt;Это не игра слов. Это принципиальный сдвиг, который зафиксировал McKinsey в своём свежем отчёте &lt;strong&gt;State of AI Trust in 2026: Shifting to the Agentic Era&lt;/strong&gt;. Исследование охватило около 500 организаций по всему миру (опрос проводился в декабре 2025 — январе 2026 года) и показало: индустрия стоит на пороге новой парадигмы — агентного ИИ, где модели не просто отвечают на вопросы, а автономно выполняют задачи, управляют инструментами и принимают решения.&lt;/p&gt;</description></item><item><title>Этика AI: зачем компании нанимают специалистов по AI-безопасности</title><link>/articles/etika-ai-specialisty-po-bezopasnosti/</link><pubDate>Wed, 25 Mar 2026 12:00:00 +0300</pubDate><guid>/articles/etika-ai-specialisty-po-bezopasnosti/</guid><description>&lt;p&gt;В 2024 году канадская авиакомпания Air Canada проиграла судебный процесс из-за своего чат-бота. Бот пообещал пассажиру несуществующую скидку на похоронный перелёт — и трибунал постановил: компания несёт ответственность за то, что говорит её ИИ. Год спустя американский адвокат получил штраф за то, что подал в суд юридическую аргументацию с выдуманными прецедентами — ChatGPT их «придумал», а юрист не проверил.&lt;/p&gt;
&lt;p&gt;Это не баги. Это системные риски. И именно они объясняют, почему в 2025–2026 годах слова «AI Safety Specialist» и «Chief AI Ethics Officer» из фантастики превратились в самые быстрорастущие позиции на рынке труда.&lt;/p&gt;</description></item></channel></rss>