<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>ИИ on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/%D0%B8%D0%B8/</link><description>Recent content in ИИ on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 13 Apr 2026 09:00:00 +0300</lastBuildDate><atom:link href="/tags/%D0%B8%D0%B8/index.xml" rel="self" type="application/rss+xml"/><item><title>Anthropic Claude Mythos: маркетинг вместо прорыва?</title><link>/news/anthropic-claude-mythos-marketing-vmesto-proryva/</link><pubDate>Mon, 13 Apr 2026 09:00:00 +0300</pubDate><guid>/news/anthropic-claude-mythos-marketing-vmesto-proryva/</guid><description>&lt;p&gt;Anthropic заявила, что её новая модель Claude Mythos Preview нашла &amp;ldquo;тысячи серьёзных уязвимостей&amp;rdquo; во всех основных операционных системах и браузерах. Однако критики утверждают, что громкие заявления компании основаны на маркетинге, а не на научных данных.&lt;/p&gt;



&lt;div class="callout callout-warning"&gt;
 &lt;div class="callout-title"&gt;&amp;#9888; Спорные цифры&lt;/div&gt;
 &lt;div class="callout-content"&gt;Заявления о тысячах уязвимостей основаны всего на 198 ручных проверках экспертов-подрядчиков, что ставит под сомнение масштаб находок.&lt;/div&gt;
&lt;/div&gt;

&lt;h2 id="что-не-так-с-заявлениями-anthropic"&gt;Что не так с заявлениями Anthropic&lt;/h2&gt;
&lt;p&gt;Anthropic экстраполировала цифру &amp;ldquo;тысячи уязвимостей&amp;rdquo; на основе того, что в 90% из 198 вручную проверенных отчётов её эксперты-подрядчики согласились с оценкой серьёзности Claude. При тестировании более 7000 стеков open-source ПО модель нашла только 10 серьёзных уязвимостей и около 600 потенциальных эксплойтов.&lt;/p&gt;</description></item><item><title>OpenAI не удаляла Study Mode из ChatGPT — разбираем слухи</title><link>/news/openai-study-mode-slukhi-hackernews/</link><pubDate>Sun, 12 Apr 2026 17:28:21 +0300</pubDate><guid>/news/openai-study-mode-slukhi-hackernews/</guid><description>&lt;p&gt;Пользователи Hacker News сообщили об исчезновении Study Mode (режим обучения) из ChatGPT, однако официальные источники OpenAI указывают, что функция остается доступной. Возможно, речь идет о временной технической проблеме или локальном баге, а не о полном удалении режима.&lt;/p&gt;
&lt;h2 id="что-произошло-на-hacker-news"&gt;Что произошло на Hacker News&lt;/h2&gt;
&lt;p&gt;На платформе Hacker News появилось сообщение пользователя smokel с заголовком &amp;ldquo;OpenAI silently removed Study Mode from ChatGPT&amp;rdquo; (OpenAI тайно удалила Study Mode из ChatGPT). Автор выразил надежду на скорое возвращение функции, отметив, что она ему нравилась.&lt;/p&gt;</description></item><item><title>Исследователь взломал водяной знак SynthID от Google</title><link>/news/google-synthid-watermark-bypass-vulnerability/</link><pubDate>Sun, 12 Apr 2026 16:59:31 +0300</pubDate><guid>/news/google-synthid-watermark-bypass-vulnerability/</guid><description>&lt;p&gt;Разработчик под ником aloshdenny опубликовал проект по реверс-инжинирингу технологии SynthID — системы водяных знаков Google, которая встраивает невидимые метки во все изображения, созданные Gemini. Созданный инструмент способен обнаруживать водяные знаки с точностью 90% и удалять их, сохраняя качество изображения.&lt;/p&gt;
&lt;h2 id="как-работает-взлом-synthid"&gt;Как работает взлом SynthID&lt;/h2&gt;
&lt;p&gt;Исследователь обнаружил, что водяные знаки SynthID имеют зависимость от разрешения изображения и используют фиксированную структуру частотных носителей. Используя только спектральный анализ сигнала без доступа к проприетарному кодеру/декодеру Google, команда смогла:&lt;/p&gt;</description></item></channel></rss>