<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Этика AI on AI-Uchi — Всё об искусственном интеллекте</title><link>/categories/%D1%8D%D1%82%D0%B8%D0%BA%D0%B0-ai/</link><description>Recent content in Этика AI on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 13 Apr 2026 09:00:00 +0300</lastBuildDate><atom:link href="/categories/%D1%8D%D1%82%D0%B8%D0%BA%D0%B0-ai/index.xml" rel="self" type="application/rss+xml"/><item><title>Когда кончился лимит Claude: менеджер заметил</title><link>/articles/menejer-sledit-kogda-konchilsya-claude-limit/</link><pubDate>Mon, 13 Apr 2026 09:00:00 +0300</pubDate><guid>/articles/menejer-sledit-kogda-konchilsya-claude-limit/</guid><description>&lt;p&gt;Представьте: середина рабочего дня, вы на пике продуктивности — и вдруг Claude сообщает, что вы исчерпали лимит сообщений. Пять минут спустя менеджер, который раньше не заходил к вам неделями, вдруг оказывается рядом и с интересом наблюдает за экраном. Совпадение? Вряд ли.&lt;/p&gt;
&lt;p&gt;Этот момент — не просто мем из Reddit. Это точная иллюстрация того, как сильно AI-инструменты изменили рабочий процесс за последние два года, и насколько заметной стала их роль для людей вокруг.&lt;/p&gt;</description></item><item><title>Доверие к ИИ в 2026: эпоха агентных систем</title><link>/articles/doverie-k-ii-2026-epoha-agentnyh-sistem/</link><pubDate>Sun, 12 Apr 2026 17:00:00 +0300</pubDate><guid>/articles/doverie-k-ii-2026-epoha-agentnyh-sistem/</guid><description>&lt;p&gt;Два года назад компании боялись, что ИИ скажет что-то не то. Сегодня они боятся, что ИИ сделает что-то не то — и никто не заметит.&lt;/p&gt;
&lt;p&gt;Это не игра слов. Это принципиальный сдвиг, который зафиксировал McKinsey в своём свежем отчёте &lt;strong&gt;State of AI Trust in 2026: Shifting to the Agentic Era&lt;/strong&gt;. Исследование охватило около 500 организаций по всему миру (опрос проводился в декабре 2025 — январе 2026 года) и показало: индустрия стоит на пороге новой парадигмы — агентного ИИ, где модели не просто отвечают на вопросы, а автономно выполняют задачи, управляют инструментами и принимают решения.&lt;/p&gt;</description></item><item><title>Как расширения Chrome раскрывают скрытые профили Reddit</title><link>/articles/kak-rasshireniia-chrome-raskryvaiut-skrytye-profili-reddit/</link><pubDate>Sun, 12 Apr 2026 13:00:00 +0300</pubDate><guid>/articles/kak-rasshireniia-chrome-raskryvaiut-skrytye-profili-reddit/</guid><description>&lt;p&gt;Вы заходите в профиль пользователя Reddit — и видите пустоту. «This user has made their profile hidden.» Или открываете обсуждение, а половина комментариев заменена на &lt;code&gt;[deleted]&lt;/code&gt;. Знакомая ситуация? В 2025–2026 годах появилась волна Chrome-расширений, которые обещают вернуть этот контент обратно. Разберёмся, как именно они работают, какие технологии используют и стоит ли им доверять.&lt;/p&gt;
&lt;h2 id="почему-контент-на-reddit-исчезает"&gt;Почему контент на Reddit исчезает&lt;/h2&gt;
&lt;p&gt;Reddit даёт пользователям несколько способов скрыть свою активность. Можно удалить отдельный пост или комментарий, можно включить режим скрытого профиля (hidden profile), а модераторы могут удалять контент из своих сабреддитов. Кроме того, автоматические системы вроде AutoModerator фильтруют посты ещё до того, как их кто-то увидит.&lt;/p&gt;</description></item><item><title>Deepfake и синтетический контент: как отличить AI от реальности</title><link>/articles/deepfake-sinteticheskiy-kontent-kak-otlichit-ot-realnosti/</link><pubDate>Thu, 02 Apr 2026 15:00:00 +0300</pubDate><guid>/articles/deepfake-sinteticheskiy-kontent-kak-otlichit-ot-realnosti/</guid><description>&lt;p&gt;Вы смотрите видео, в котором известный политик объявляет о чём-то шокирующем. Голос узнаваем, мимика натуральная, фон — реальная пресс-конференция. Только этого никогда не было. Именно так работают современные дипфейки — и в 2026 году человеческий глаз справляется с их распознаванием правильно лишь в &lt;strong&gt;24,5% случаев&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Синтетический контент перестал быть уделом голливудских спецэффектов. Сегодня это инструмент мошенников, политических манипуляторов и обычных троллей. Разбираемся, как устроены дипфейки, по каким признакам их можно вычислить и какие технологии помогают держать оборону.&lt;/p&gt;</description></item><item><title>Этика AI: зачем компании нанимают специалистов по AI-безопасности</title><link>/articles/etika-ai-specialisty-po-bezopasnosti/</link><pubDate>Wed, 25 Mar 2026 12:00:00 +0300</pubDate><guid>/articles/etika-ai-specialisty-po-bezopasnosti/</guid><description>&lt;p&gt;В 2024 году канадская авиакомпания Air Canada проиграла судебный процесс из-за своего чат-бота. Бот пообещал пассажиру несуществующую скидку на похоронный перелёт — и трибунал постановил: компания несёт ответственность за то, что говорит её ИИ. Год спустя американский адвокат получил штраф за то, что подал в суд юридическую аргументацию с выдуманными прецедентами — ChatGPT их «придумал», а юрист не проверил.&lt;/p&gt;
&lt;p&gt;Это не баги. Это системные риски. И именно они объясняют, почему в 2025–2026 годах слова «AI Safety Specialist» и «Chief AI Ethics Officer» из фантастики превратились в самые быстрорастущие позиции на рынке труда.&lt;/p&gt;</description></item><item><title>Безопасное использование AI в корпоративной среде</title><link>/guides/bezopasnoe-ispolzovanie-ai-v-korporativnoi-srede/</link><pubDate>Sun, 22 Mar 2026 18:00:00 +0300</pubDate><guid>/guides/bezopasnoe-ispolzovanie-ai-v-korporativnoi-srede/</guid><description>&lt;p&gt;Сотрудники уже используют AI — с разрешения компании или без. По данным корпоративных CIO-опросов 2025 года, генеративный AI проник в 85% компаний из списка Fortune 500 через платформы Microsoft. При этом 72% предприятий теперь выделяют отдельный бюджет на AI-продуктивность. Проблема не в том, использовать ли AI, а в том, как это делать безопасно.&lt;/p&gt;
&lt;p&gt;Корпоративные данные утекают не потому, что ChatGPT &amp;ldquo;взламывают&amp;rdquo;. Они утекают потому, что сотрудник вставил в чат фрагмент клиентского договора, чтобы быстро его переформулировать. Или потому, что Microsoft Copilot получил доступ к документам, которые никто не думал защищать. В этой статье — как выстроить политику, выбрать инструменты и не потерять данные в погоне за продуктивностью.&lt;/p&gt;</description></item><item><title>Как AI меняет рынок труда в России: угрозы и возможности</title><link>/articles/kak-ai-menyaet-rynok-truda-v-rossii/</link><pubDate>Sat, 21 Mar 2026 15:00:00 +0300</pubDate><guid>/articles/kak-ai-menyaet-rynok-truda-v-rossii/</guid><description>&lt;p&gt;Сбербанк в 2025 году провёл несколько волн сокращений. Вторая была напрямую связана с внедрением AI-ассистентов: под удар попали тестировщики, разработчики и тимлиды. Это не заголовок антиутопии — это реальный кейс из российской практики. И он далеко не единственный.&lt;/p&gt;
&lt;p&gt;Пока одни компании тихо режут штат, другие жалуются на острейший кадровый голод и доплачивают за любой опыт работы с нейросетями. Рынок труда в России меняется быстро и неравномерно. Разберёмся, кому угрожает автоматизация, кому открывает двери — и что делать прямо сейчас.&lt;/p&gt;</description></item><item><title>AI и креативность: может ли машина быть творческой</title><link>/articles/ai-i-kreativnost-mozhet-li-mashina-byt-tvorcheskoi/</link><pubDate>Fri, 13 Mar 2026 15:00:00 +0300</pubDate><guid>/articles/ai-i-kreativnost-mozhet-li-mashina-byt-tvorcheskoi/</guid><description>&lt;p&gt;В 2022 году художник Джейсон Аллен отправил на конкурс изобразительного искусства Colorado State Fair картину, созданную в Midjourney, — и занял первое место в категории цифрового искусства. Жюри не знало, что работу сгенерировала нейросеть. Разразился скандал, но вопрос был поставлен ребром: если машина создаёт нечто, что эксперты признают искусством, — является ли это творчеством?&lt;/p&gt;
&lt;p&gt;Сегодня нейросети пишут музыку, рисуют картины, сочиняют стихи и монтируют видео. Но за впечатляющими результатами скрывается фундаментальный вопрос: ИИ действительно творит — или просто очень убедительно комбинирует паттерны из обучающих данных? Разберёмся, что говорят наука, практика и закон.&lt;/p&gt;</description></item><item><title>LL COOL J и Google: AI и будущее творчества</title><link>/translations/ll-cool-j-google-ai-tvorchestvo-budushchee/</link><pubDate>Sat, 28 Feb 2026 12:00:00 +0300</pubDate><guid>/translations/ll-cool-j-google-ai-tvorchestvo-budushchee/</guid><description>&lt;p&gt;В новом выпуске серии &lt;strong&gt;Dialogues on Technology and Society&lt;/strong&gt; от Google легенда хип-хопа LL COOL J и старший вице-президент Google по исследованиям, лабораториям, технологиям и обществу &lt;strong&gt;Джеймс Маньика&lt;/strong&gt; обсудили, как искусственный интеллект меняет творческие индустрии — и почему за 40 лет технологии прошли путь от первых драм-машин до генеративного AI.&lt;/p&gt;
&lt;p&gt;Разговор получился далеко не формальным: артист, который своими глазами наблюдал каждую технологическую революцию в музыке, и учёный, который строит AI-системы в Google. Разберём ключевые идеи этого диалога.&lt;/p&gt;</description></item><item><title>Anthropic Institute: что это и зачем нужен</title><link>/articles/anthropic-institute-chto-eto-zachem/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/articles/anthropic-institute-chto-eto-zachem/</guid><description>&lt;p&gt;Компания Anthropic — создатель семейства моделей Claude — сделала шаг, который выходит далеко за рамки разработки очередного чат-бота. В начале 2025 года она анонсировала создание &lt;strong&gt;Anthropic Institute&lt;/strong&gt; — отдельной исследовательской структуры, сфокусированной на изучении общественных, политических и этических аспектов развития искусственного интеллекта. Если раньше Anthropic ассоциировалась прежде всего с техническими исследованиями в области AI Safety, то теперь компания открыто претендует на роль интеллектуального центра, формирующего глобальную повестку вокруг безопасного ИИ.&lt;/p&gt;</description></item><item><title>ChatGPT в медицине: ИИ на службе врачей</title><link>/translations/chatgpt-v-meditsine-ii-na-sluzhbe-vrachey/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/translations/chatgpt-v-meditsine-ii-na-sluzhbe-vrachey/</guid><description>&lt;h2 id="ии-меняет-здравоохранение-от-диагностики-до-документации"&gt;ИИ меняет здравоохранение: от диагностики до документации&lt;/h2&gt;
&lt;p&gt;Медицина — одна из наиболее требовательных областей с точки зрения точности, ответственности и скорости принятия решений. Именно здесь инструменты искусственного интеллекта, и в частности ChatGPT от OpenAI, начинают играть всё более заметную роль. Речь идёт не о замене врача машиной, а о том, как современные языковые модели становятся надёжным помощником клинициста — экономя время, снижая административную нагрузку и повышая качество взаимодействия с пациентами.&lt;/p&gt;</description></item><item><title>Claude без рекламы: почему Anthropic выбрал мышление вместо монетизации</title><link>/articles/claude-bez-reklamy-myshlenie-vmesto-monetizacii/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/articles/claude-bez-reklamy-myshlenie-vmesto-monetizacii/</guid><description>&lt;p&gt;Представьте, что вы обращаетесь к личному психологу за советом — а он в середине разговора говорит: «Кстати, вот отличный антидепрессант от нашего партнёра». Именно так выглядит рекламная модель в контексте ИИ-помощника. 4 февраля 2026 года Anthropic сделала публичное заявление: Claude останется пространством для мышления, свободным от рекламы. Навсегда. Это не просто маркетинговый ход — это принципиальная позиция, которая переворачивает привычную логику монетизации технологических продуктов.&lt;/p&gt;
&lt;p&gt;Разберём, что стоит за этим решением, почему рекламные стимулы фундаментально несовместимы с честным ИИ-ассистентом, и что это решение означает для будущего индустрии.&lt;/p&gt;</description></item><item><title>Австралия и Anthropic подписали соглашение по безопасности ИИ</title><link>/articles/avstraliya-anthropic-soglashenie-bezopasnost-ii/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/articles/avstraliya-anthropic-soglashenie-bezopasnost-ii/</guid><description>&lt;p&gt;Пока большинство дискуссий об ИИ крутится вокруг новых моделей и бизнес-применений, правительства по всему миру начинают делать нечто более системное — заключать официальные соглашения с ведущими AI-компаниями. Австралия стала очередной страной, подписавшей меморандум о взаимопонимании (MOU) с Anthropic — создателем Claude. Это не просто бюрократический документ: речь идёт о формировании нового формата отношений между государствами и разработчиками frontier-моделей.&lt;/p&gt;
&lt;p&gt;Разберём, что именно подписали стороны, зачем это нужно Австралии и Anthropic, и какой сигнал это посылает остальному миру.&lt;/p&gt;</description></item><item><title>Ответственное использование ИИ: правила безопасности</title><link>/translations/otvetstvennoe-ispolzovanie-ii-pravila-bezopasnosti/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/translations/otvetstvennoe-ispolzovanie-ii-pravila-bezopasnosti/</guid><description>&lt;h1 id="ответственное-и-безопасное-использование-ии-полное-руководство"&gt;Ответственное и безопасное использование ИИ: полное руководство&lt;/h1&gt;
&lt;p&gt;Искусственный интеллект прочно вошёл в нашу повседневную жизнь — мы просим ChatGPT написать письмо, составить план проекта или объяснить сложную тему простыми словами. Но вместе с возможностями приходит ответственность. Умение работать с ИИ-инструментами грамотно — это уже не опциональный навык, а необходимость для каждого, кто хочет получать от технологий максимум пользы без лишних рисков.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Инструмент настолько хорош, насколько хорош человек, который им пользуется. ИИ — не исключение.&lt;/p&gt;</description></item><item><title>OpenAI отвечает на компрометацию Axios: ротация сертификатов и защита пользователей</title><link>/translations/openai-otvet-na-komprometaciyu-axios-rotaciya-sertifikatov/</link><pubDate>Thu, 19 Dec 2024 00:00:00 +0000</pubDate><guid>/translations/openai-otvet-na-komprometaciyu-axios-rotaciya-sertifikatov/</guid><description>&lt;p&gt;OpenAI оперативно отреагировала на недавнюю атаку на цепочку поставок (supply chain attack), затронувшую инструмент для разработчиков Axios. Компания приняла комплексные меры безопасности, включающие ротацию сертификатов подписи кода для macOS, обновление приложений и подтверждение того, что пользовательские данные остались в безопасности.&lt;/p&gt;
&lt;h2 id="что-произошло-с-axios"&gt;Что произошло с Axios&lt;/h2&gt;
&lt;p&gt;Axios — популярная JavaScript-библиотека для выполнения HTTP-запросов — стала жертвой атаки на цепочку поставок. Этот тип кибератак особенно опасен, поскольку злоумышленники внедряют вредоносный код в доверенные инструменты разработки, которые затем распространяются среди тысяч разработчиков и их приложений.&lt;/p&gt;</description></item><item><title>ИИ изменит больше профессий, чем заменит: как подготовиться к трансформации рынка труда</title><link>/articles/ii-izmenit-bolshe-professiy-chem-zamenit/</link><pubDate>Thu, 19 Dec 2024 00:00:00 +0000</pubDate><guid>/articles/ii-izmenit-bolshe-professiy-chem-zamenit/</guid><description>&lt;p&gt;Пока одни эксперты пугают массовой безработицей из-за ИИ, другие указывают на более сложную реальность: искусственный интеллект скорее изменит характер работы, чем уничтожит профессии. Исследование Boston Consulting Group показывает, что до 85% рабочих мест будут трансформированы ИИ, но лишь малая часть полностью исчезнет. Разберёмся, как это повлияет на каждого из нас и что делать уже сейчас.&lt;/p&gt;
&lt;h2 id="масштабы-трансформации-цифры-и-прогнозы"&gt;Масштабы трансформации: цифры и прогнозы&lt;/h2&gt;
&lt;p&gt;Согласно исследованию BCG, проведённому в 2024 году, искусственный интеллект затронет подавляющее большинство профессий, но характер воздействия будет разным:&lt;/p&gt;</description></item></channel></rss>