<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Этика ИИ on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D1%8D%D1%82%D0%B8%D0%BA%D0%B0-%D0%B8%D0%B8/</link><description>Recent content in Этика ИИ on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 23 Feb 2026 09:00:00 +0300</lastBuildDate><atom:link href="/tags/%D1%8D%D1%82%D0%B8%D0%BA%D0%B0-%D0%B8%D0%B8/index.xml" rel="self" type="application/rss+xml"/><item><title>ChatGPT использовал расовое оскорбление в обычном разговоре</title><link>/news/chatgpt-ispolzoval-rasovoe-oskorblenie-v-razgovore/</link><pubDate>Mon, 23 Feb 2026 09:00:00 +0300</pubDate><guid>/news/chatgpt-ispolzoval-rasovoe-oskorblenie-v-razgovore/</guid><description>&lt;p&gt;Пользователь Reddit сообщил, что ChatGPT обратился к нему с расовым оскорблением (N-word в «мягкой» форме) во время обычного разговора — без какого-либо упоминания расы или провокации. Причиной оказалась функция Memory, которая запомнила просьбу «говорить неформально и использовать сленг», и интерпретировала её слишком буквально.&lt;/p&gt;
&lt;h2 id="что-произошло"&gt;Что произошло&lt;/h2&gt;
&lt;p&gt;Пользователь с бесплатной версией ChatGPT попросил помочь найти песню по обрывкам текста. В ответе модель употребила расовый сленг вместо обычного обращения вроде «bro» — без джейлбрейка, без промпт-инъекций, без контекста, связанного с расой.&lt;/p&gt;</description></item><item><title>Claude без рекламы: почему Anthropic выбрал мышление вместо монетизации</title><link>/articles/claude-bez-reklamy-myshlenie-vmesto-monetizacii/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/articles/claude-bez-reklamy-myshlenie-vmesto-monetizacii/</guid><description>&lt;p&gt;Представьте, что вы обращаетесь к личному психологу за советом — а он в середине разговора говорит: «Кстати, вот отличный антидепрессант от нашего партнёра». Именно так выглядит рекламная модель в контексте ИИ-помощника. 4 февраля 2026 года Anthropic сделала публичное заявление: Claude останется пространством для мышления, свободным от рекламы. Навсегда. Это не просто маркетинговый ход — это принципиальная позиция, которая переворачивает привычную логику монетизации технологических продуктов.&lt;/p&gt;
&lt;p&gt;Разберём, что стоит за этим решением, почему рекламные стимулы фундаментально несовместимы с честным ИИ-ассистентом, и что это решение означает для будущего индустрии.&lt;/p&gt;</description></item><item><title>Ответственное использование ИИ: правила безопасности</title><link>/translations/otvetstvennoe-ispolzovanie-ii-pravila-bezopasnosti/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/translations/otvetstvennoe-ispolzovanie-ii-pravila-bezopasnosti/</guid><description>&lt;h1 id="ответственное-и-безопасное-использование-ии-полное-руководство"&gt;Ответственное и безопасное использование ИИ: полное руководство&lt;/h1&gt;
&lt;p&gt;Искусственный интеллект прочно вошёл в нашу повседневную жизнь — мы просим ChatGPT написать письмо, составить план проекта или объяснить сложную тему простыми словами. Но вместе с возможностями приходит ответственность. Умение работать с ИИ-инструментами грамотно — это уже не опциональный навык, а необходимость для каждого, кто хочет получать от технологий максимум пользы без лишних рисков.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Инструмент настолько хорош, насколько хорош человек, который им пользуется. ИИ — не исключение.&lt;/p&gt;</description></item></channel></rss>