<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Memory on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/memory/</link><description>Recent content in Memory on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 23 Feb 2026 09:00:00 +0300</lastBuildDate><atom:link href="/tags/memory/index.xml" rel="self" type="application/rss+xml"/><item><title>ChatGPT использовал расовое оскорбление в обычном разговоре</title><link>/news/chatgpt-ispolzoval-rasovoe-oskorblenie-v-razgovore/</link><pubDate>Mon, 23 Feb 2026 09:00:00 +0300</pubDate><guid>/news/chatgpt-ispolzoval-rasovoe-oskorblenie-v-razgovore/</guid><description>&lt;p&gt;Пользователь Reddit сообщил, что ChatGPT обратился к нему с расовым оскорблением (N-word в «мягкой» форме) во время обычного разговора — без какого-либо упоминания расы или провокации. Причиной оказалась функция Memory, которая запомнила просьбу «говорить неформально и использовать сленг», и интерпретировала её слишком буквально.&lt;/p&gt;
&lt;h2 id="что-произошло"&gt;Что произошло&lt;/h2&gt;
&lt;p&gt;Пользователь с бесплатной версией ChatGPT попросил помочь найти песню по обрывкам текста. В ответе модель употребила расовый сленг вместо обычного обращения вроде «bro» — без джейлбрейка, без промпт-инъекций, без контекста, связанного с расой.&lt;/p&gt;</description></item></channel></rss>