<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Gemini on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/gemini/</link><description>Recent content in Gemini on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 13 Apr 2026 13:00:00 +0300</lastBuildDate><atom:link href="/tags/gemini/index.xml" rel="self" type="application/rss+xml"/><item><title>Как AI понимает визуальный поиск: технология Google</title><link>/translations/kak-ai-ponimaet-vizualnyi-poisk-google/</link><pubDate>Mon, 13 Apr 2026 13:00:00 +0300</pubDate><guid>/translations/kak-ai-ponimaet-vizualnyi-poisk-google/</guid><description>&lt;p&gt;Вы наверняка с этим сталкивались: видите в ленте фотографию идеально обставленной комнаты или стильный уличный образ — и хотите узнать, где купить &lt;strong&gt;каждый&lt;/strong&gt; элемент. До недавнего времени визуальный поиск работал по принципу «один запрос — один предмет». Но в начале 2026 года Google кардинально изменила подход: обновлённые Circle to Search и Google Lens научились распознавать и искать &lt;strong&gt;несколько объектов на одном изображении одновременно&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Чтобы разобраться, как именно это работает, поговорим о технологиях, стоящих за этим прорывом. В основе — интервью с Дунией Беррада (Dounia Berrada), старшим директором по разработке Google Search, которая отвечает за мультимодальный поиск и Google Lens.&lt;/p&gt;</description></item><item><title>ChatGPT зависает при длинных чатах: в чём причина</title><link>/news/chatgpt-zavisaet-dlinnye-chaty-prichina/</link><pubDate>Mon, 13 Apr 2026 09:04:45 +0300</pubDate><guid>/news/chatgpt-zavisaet-dlinnye-chaty-prichina/</guid><description>&lt;p&gt;Пользователь Reddit самостоятельно выяснил, почему ChatGPT намертво зависает в длинных сессиях, тогда как Claude и Gemini продолжают работать стабильно. Причина — принципиально разный подход к отрисовке сообщений в браузере. Найденное решение позволило запустить чат из 1865 сообщений без единого сбоя.&lt;/p&gt;
&lt;h2 id="суть-проблемы"&gt;Суть проблемы&lt;/h2&gt;
&lt;p&gt;Главная причина замедления — в том, как интерфейс ChatGPT работает с длинными диалогами: &lt;strong&gt;каждое сообщение остаётся активным на странице&lt;/strong&gt;, и браузер вынужден держать в памяти весь тред, даже если на экране видны лишь последние строки.&lt;/p&gt;</description></item><item><title>Контекстное окно (Context Window)</title><link>/glossary/context-window/</link><pubDate>Mon, 13 Apr 2026 09:00:00 +0300</pubDate><guid>/glossary/context-window/</guid><description>&lt;h1 id="контекстное-окно-context-window"&gt;Контекстное окно (Context Window)&lt;/h1&gt;
&lt;h2 id="определение-простыми-словами"&gt;Определение простыми словами&lt;/h2&gt;
&lt;blockquote&gt;
&lt;p&gt;Контекстное окно — это «рабочая память» языковой модели: всё, что она может «видеть» и учитывать в один момент времени. Чем больше окно — тем больше текста модель держит в голове одновременно.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Представьте, что вы разговариваете с очень умным консультантом, но у него есть одно ограничение: он помнит только последние N страниц вашего разговора. Всё, что было до — для него как будто не существует. Именно так работает контекстное окно.&lt;/p&gt;</description></item><item><title>Исследователь взломал водяной знак SynthID от Google</title><link>/news/google-synthid-watermark-bypass-vulnerability/</link><pubDate>Sun, 12 Apr 2026 16:59:31 +0300</pubDate><guid>/news/google-synthid-watermark-bypass-vulnerability/</guid><description>&lt;p&gt;Разработчик под ником aloshdenny опубликовал проект по реверс-инжинирингу технологии SynthID — системы водяных знаков Google, которая встраивает невидимые метки во все изображения, созданные Gemini. Созданный инструмент способен обнаруживать водяные знаки с точностью 90% и удалять их, сохраняя качество изображения.&lt;/p&gt;
&lt;h2 id="как-работает-взлом-synthid"&gt;Как работает взлом SynthID&lt;/h2&gt;
&lt;p&gt;Исследователь обнаружил, что водяные знаки SynthID имеют зависимость от разрешения изображения и используют фиксированную структуру частотных носителей. Используя только спектральный анализ сигнала без доступа к проприетарному кодеру/декодеру Google, команда смогла:&lt;/p&gt;</description></item><item><title>Как автоматизировать конвейер ChatGPT → Gemini для генерации изображений</title><link>/news/avtomatizatsiya-chatgpt-gemini-generatsiya-izobrazheniy-n8n/</link><pubDate>Sat, 11 Apr 2026 09:24:02 +0300</pubDate><guid>/news/avtomatizatsiya-chatgpt-gemini-generatsiya-izobrazheniy-n8n/</guid><description>&lt;p&gt;В сообществе r/n8n на Reddit набирает обсуждение практическая проблема: пользователь выстроил трёхшаговый конвейер генерации изображений с ChatGPT и Gemini, но не может его масштабировать — всё делается вручную, по одному запросу. Ситуация отражает типичный bottleneck в AI-воркфлоу: автоматизировать каждый шаг по отдельности легко, но состыковать их в пакетный пайплайн — уже задача.&lt;/p&gt;
&lt;h2 id="как-устроен-проблемный-воркфлоу"&gt;Как устроен проблемный воркфлоу&lt;/h2&gt;
&lt;p&gt;Автор описывает трёхэтапный процесс:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Шаг 1&lt;/strong&gt; — ChatGPT генерирует детальные промпты для изображений&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Шаг 2&lt;/strong&gt; — Gemini Nano Banana Pro (gemini-3-pro-image-preview) создаёт изображения по этим промптам&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Шаг 3&lt;/strong&gt; — ручная доработка в Photoshop: выравнивание стиля, исправление артефактов, финальный контроль качества&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Шаги 1 и 2 выполняются последовательно вручную, по одному. Третий шаг намеренно оставлен ручным — контроль качества здесь критичен.&lt;/p&gt;</description></item><item><title>Как использовать AI для анализа данных</title><link>/guides/kak-ispolzovat-ai-dlia-analiza-dannykh/</link><pubDate>Sat, 04 Apr 2026 15:00:00 +0300</pubDate><guid>/guides/kak-ispolzovat-ai-dlia-analiza-dannykh/</guid><description>&lt;p&gt;Ещё два года назад анализ данных означал недели работы: выгрузка в Excel, ручная очистка, формулы, сводные таблицы, графики. Сегодня вы загружаете CSV в чат, задаёте вопрос на обычном русском языке — и через секунды получаете готовый отчёт с визуализациями. AI-инструменты не заменили аналитиков, но радикально изменили скорость и доступность анализа данных. В этом руководстве — конкретные инструменты, пошаговые примеры и подводные камни, о которых молчат маркетинговые лендинги.&lt;/p&gt;
&lt;h2 id="что-ai-реально-умеет-делать-с-данными"&gt;Что AI реально умеет делать с данными&lt;/h2&gt;
&lt;p&gt;AI-ассистенты для анализа данных работают по одному принципу: вы описываете задачу естественным языком, модель генерирует и выполняет код (Python, R или SQL), возвращает результат в виде таблиц, графиков или текстовых выводов. Ключевое — вам не нужно уметь программировать.&lt;/p&gt;</description></item><item><title>Как начать работать с AI: руководство для новичков</title><link>/guides/kak-nachat-rabotat-s-ai-rukovodstvo-dlia-novichkov/</link><pubDate>Wed, 01 Apr 2026 12:00:00 +0300</pubDate><guid>/guides/kak-nachat-rabotat-s-ai-rukovodstvo-dlia-novichkov/</guid><description>&lt;p&gt;Вы слышите про AI каждый день. Коллеги пишут тексты за минуты, студенты готовят курсовые с помощью нейросетей, а маркетологи генерируют десятки идей для рекламных кампаний одним запросом. И кажется, что поезд уже ушёл — все разобрались, а вы нет.&lt;/p&gt;
&lt;p&gt;На самом деле — нет. Для начала работы с AI не нужно техническое образование, опыт программирования или месяцы подготовки. Нужно 10 минут и понимание нескольких базовых принципов. Эта статья — именно такое руководство: от регистрации до первых реальных результатов, без воды и завышенных ожиданий.&lt;/p&gt;</description></item><item><title>Контекстное окно LLM: почему размер имеет значение</title><link>/articles/kontekstnoe-okno-llm-pochemu-razmer-imeet-znachenie/</link><pubDate>Mon, 23 Mar 2026 18:00:00 +0300</pubDate><guid>/articles/kontekstnoe-okno-llm-pochemu-razmer-imeet-znachenie/</guid><description>&lt;p&gt;Представьте, что вы работаете с коллегой, у которого отличная голова, но короткая память. Вы объясняете задачу, он кивает — и через пять минут переспрашивает детали, которые вы только что озвучили. Именно так работают языковые модели без достаточно большого контекстного окна.&lt;/p&gt;
&lt;p&gt;Контекстное окно — один из ключевых параметров любой LLM. От него зависит, сможет ли модель удержать весь ваш документ в голове, не «забыть» начало разговора и выдать связный ответ. В 2026 году конкуренция вокруг этого параметра вышла на новый уровень: модели наперебой анонсируют миллионы токенов. Но что за этим стоит на практике — разберём в этой статье.&lt;/p&gt;</description></item><item><title>Контекстное окно 1 миллион токенов: что меняется на практике</title><link>/articles/kontekstnoe-okno-million-tokenov-chto-menyaetsya/</link><pubDate>Wed, 18 Mar 2026 09:00:00 +0300</pubDate><guid>/articles/kontekstnoe-okno-million-tokenov-chto-menyaetsya/</guid><description>&lt;p&gt;Год назад контекстное окно в 128 тысяч токенов казалось колоссальным. Сегодня это уже базовый минимум: Gemini 3 Pro работает с миллионом токенов по умолчанию, Claude Sonnet 4.6 и Opus 4.6 получили миллионный контекст в марте 2026-го, GPT-5.4 от OpenAI вышел с окном в 1 050 000 токенов. Гонка за длину контекста превратилась в маркетинговое соревнование.&lt;/p&gt;
&lt;p&gt;Но что за этими цифрами стоит на практике? Миллион токенов — это реально полезно или красивая цифра в пресс-релизе? Давайте разберёмся без рекламы.&lt;/p&gt;</description></item><item><title>Gemini 3.1 Flash Live — голосовой AI стал естественнее</title><link>/translations/gemini-3-1-flash-live-golosovoi-ai-google/</link><pubDate>Mon, 16 Mar 2026 18:00:00 +0300</pubDate><guid>/translations/gemini-3-1-flash-live-golosovoi-ai-google/</guid><description>&lt;p&gt;26 марта 2026 года Google представила &lt;strong&gt;Gemini 3.1 Flash Live&lt;/strong&gt; — самую качественную на сегодняшний день аудиомодель компании, созданную для естественного и надёжного диалога в реальном времени. Модель стала быстрее, точнее понимает интонации и может выполнять сложные многошаговые задачи по голосовой команде. По сути, это следующий шаг к тому, чтобы разговор с AI перестал отличаться от разговора с живым собеседником.&lt;/p&gt;
&lt;h2 id="зачем-нужна-новая-аудиомодель"&gt;Зачем нужна новая аудиомодель&lt;/h2&gt;
&lt;p&gt;Голосовые интерфейсы долгое время оставались слабым звеном AI-ассистентов. Классическая схема «речь → текст → обработка → текст → речь» добавляла задержку и теряла интонационные нюансы. Gemini 3.1 Flash Live работает иначе: модель нативно обрабатывает аудио, минуя промежуточное преобразование в текст. Это даёт два ключевых преимущества — &lt;strong&gt;низкую задержку&lt;/strong&gt; и &lt;strong&gt;понимание тона&lt;/strong&gt;.&lt;/p&gt;</description></item><item><title>Reasoning-модели в 2026: чем o3, Gemini и Claude Opus отличаются</title><link>/articles/reasoning-modeli-2026-o3-gemini-claude-opus-vs-llm/</link><pubDate>Mon, 16 Mar 2026 18:00:00 +0300</pubDate><guid>/articles/reasoning-modeli-2026-o3-gemini-claude-opus-vs-llm/</guid><description>&lt;p&gt;Ещё три года назад казалось, что главный прорыв в AI — это просто «больше параметров». GPT-4, Claude 2, Gemini Pro — они становились умнее с каждой версией, но принципиально работали одинаково: получил токен, выдал следующий, быстро и без раздумий.&lt;/p&gt;
&lt;p&gt;Потом появились o1, DeepSeek R1, и стало ясно: что-то изменилось фундаментально. В 2026 году семейство reasoning-моделей — OpenAI o3, Gemini 3.1 Pro, Claude Opus 4.6 — это уже не просто «умные чат-боты». Это модели, которые &lt;em&gt;думают перед ответом&lt;/em&gt;, и разница ощущается даже на практических задачах.&lt;/p&gt;</description></item><item><title>Google Personal Intelligence: ИИ, который знает вас лично</title><link>/translations/google-personal-intelligence-ii-kotoryi-znaet-vas/</link><pubDate>Tue, 10 Mar 2026 12:00:00 +0300</pubDate><guid>/translations/google-personal-intelligence-ii-kotoryi-znaet-vas/</guid><description>&lt;p&gt;Представьте, что вы спрашиваете поисковик: «Какие кроссовки я покупал в прошлый раз?» — и получаете точный ответ, потому что ИИ уже видел ваше письмо с подтверждением заказа. Именно так работает &lt;strong&gt;Personal Intelligence&lt;/strong&gt; — новая функция Google, которая связывает ваши приложения в единую интеллектуальную систему. В марте 2026 года Google значительно расширила доступ к этой технологии, сделав её бесплатной для пользователей в США.&lt;/p&gt;
&lt;h2 id="что-такое-personal-intelligence"&gt;Что такое Personal Intelligence&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Personal Intelligence&lt;/strong&gt; (персональный интеллект) — это функция Google, которая позволяет ИИ-ассистентам компании подключаться к вашим приложениям Google — Gmail, Google Photos, Google Maps, YouTube и другим — чтобы давать ответы, релевантные именно вам.&lt;/p&gt;</description></item><item><title>Три модели в одном проекте: как вайб-коудеры работают с AI</title><link>/news/tri-modeli-v-odnom-proekte-vaib-kouding/</link><pubDate>Tue, 03 Mar 2026 15:00:00 +0300</pubDate><guid>/news/tri-modeli-v-odnom-proekte-vaib-kouding/</guid><description>&lt;p&gt;Пока одни спорят, какая AI-модель лучше, опытные вайб-коудеры давно перестали выбирать — они используют Claude, ChatGPT и Gemini одновременно, переключаясь между ними в зависимости от задачи. Обсуждение на Reddit в очередной раз обнажило эту тенденцию, и она явно набирает обороты.&lt;/p&gt;
&lt;h2 id="что-такое-вайб-коудинг-и-зачем-несколько-моделей"&gt;Что такое вайб-коудинг и зачем несколько моделей&lt;/h2&gt;
&lt;p&gt;Вайб-коудинг (vibe coding) — подход к разработке, при котором программист описывает задачу на естественном языке, а AI генерирует код. Термин ввёл в оборот Андрей Карпатий в феврале 2025 года. Разработчик при этом смещается от написания кода к роли постановщика задач и рецензента.&lt;/p&gt;</description></item><item><title>Lyria 3 Pro: Google выпустил ИИ для создания музыки</title><link>/translations/lyria-3-pro-google-ai-generatsiia-muzyki/</link><pubDate>Wed, 25 Feb 2026 18:00:00 +0300</pubDate><guid>/translations/lyria-3-pro-google-ai-generatsiia-muzyki/</guid><description>&lt;p&gt;В феврале 2026 года Google представил &lt;a href="https://deepmind.google/models/lyria/"&gt;Lyria 3&lt;/a&gt; — модель для генерации музыки, способную создавать 30-секундные треки по текстовому описанию. Спустя всего месяц, 25 марта 2026 года, компания выпустила &lt;strong&gt;Lyria 3 Pro&lt;/strong&gt; — продвинутую версию, которая генерирует полноценные композиции длиной до 3 минут и понимает структуру музыкального произведения. Новая модель уже доступна в нескольких продуктах Google: от Gemini до корпоративной платформы Vertex AI.&lt;/p&gt;
&lt;h2 id="что-умеет-lyria-3-pro"&gt;Что умеет Lyria 3 Pro&lt;/h2&gt;
&lt;p&gt;Главное отличие от предшественника — Lyria 3 Pro &lt;strong&gt;понимает композицию трека&lt;/strong&gt;. Если базовая Lyria 3 создавала короткие фрагменты длительностью до 30 секунд, то Pro-версия работает с полноценной музыкальной формой: вступление (intro), куплеты (verses), припевы (choruses) и переходы (bridges).&lt;/p&gt;</description></item><item><title>Google Search Live теперь доступен по всему миру</title><link>/translations/google-search-live-globalnyi-zapusk/</link><pubDate>Tue, 24 Feb 2026 12:00:00 +0300</pubDate><guid>/translations/google-search-live-globalnyi-zapusk/</guid><description>&lt;p&gt;Google продолжает менять правила игры в поиске. 26 марта 2026 года компания объявила о глобальном расширении функции &lt;strong&gt;Search Live&lt;/strong&gt; — интерактивного голосового и визуального поиска в режиме реального времени. Теперь эта возможность доступна в более чем &lt;strong&gt;200 странах и территориях&lt;/strong&gt;, везде, где работает AI Mode (режим искусственного интеллекта в Google Поиске).&lt;/p&gt;
&lt;p&gt;За этим расширением стоит новая языковая модель &lt;strong&gt;Gemini 3.1 Flash Live&lt;/strong&gt; — самая продвинутая аудио- и голосовая модель Google на сегодняшний день.&lt;/p&gt;</description></item><item><title>AI в Excel и Google Sheets: готовые решения 2026</title><link>/guides/ai-v-excel-i-google-sheets-gotovye-resheniya/</link><pubDate>Sun, 22 Feb 2026 09:00:00 +0300</pubDate><guid>/guides/ai-v-excel-i-google-sheets-gotovye-resheniya/</guid><description>&lt;p&gt;Большинство людей открывают таблицу, смотрят на 10 000 строк данных и думают: «Сейчас придётся потратить три часа». В 2026 году это уже не так. AI умеет писать формулы по описанию на русском, строить сводные таблицы за секунды и объяснять аномалии в данных прямо в интерфейсе Excel или Google Sheets. Разбираем, что конкретно работает, сколько стоит и как начать прямо сегодня.&lt;/p&gt;
&lt;h2 id="что-умеет-ai-в-таблицах-общая-картина"&gt;Что умеет AI в таблицах: общая картина&lt;/h2&gt;
&lt;p&gt;Сначала — без маркетинга. Вот задачи, которые AI в таблицах решает уже сейчас надёжно:&lt;/p&gt;</description></item><item><title>Мультимодальные модели: как AI научился видеть и слышать</title><link>/articles/multimodalnye-modeli-kak-ai-nauchilsia-videt-i-slyshat/</link><pubDate>Thu, 19 Feb 2026 15:00:00 +0300</pubDate><guid>/articles/multimodalnye-modeli-kak-ai-nauchilsia-videt-i-slyshat/</guid><description>&lt;p&gt;Ещё пару лет назад языковые модели работали исключительно с текстом. Вы могли спросить ChatGPT о чём угодно — но показать ему фотографию или проиграть аудиозапись было невозможно. Сегодня ведущие модели одновременно анализируют текст, изображения, аудио и видео, а некоторые — генерируют контент сразу в нескольких модальностях. Это не эволюция — это смена парадигмы.&lt;/p&gt;
&lt;p&gt;В этой статье разберём, как устроены мультимодальные модели изнутри, сравним ключевых игроков рынка и покажем, где эти технологии уже приносят реальную пользу.&lt;/p&gt;</description></item><item><title>NotebookLM в 2026: лучший AI-инструмент для документов?</title><link>/tools/notebooklm-2026-obzor-instrument-dlya-dokumentov/</link><pubDate>Wed, 11 Feb 2026 12:00:00 +0300</pubDate><guid>/tools/notebooklm-2026-obzor-instrument-dlya-dokumentov/</guid><description>&lt;h2 id="что-такое-notebooklm-и-для-кого-он-создан"&gt;Что такое NotebookLM и для кого он создан&lt;/h2&gt;
&lt;p&gt;NotebookLM — это AI-ассистент от Google, заточенный на одну задачу: работать &lt;strong&gt;только с теми материалами, которые вы сами загрузили&lt;/strong&gt;. Никакого случайного веб-поиска, никаких галлюцинаций из интернета — только ваши PDF, Google Docs, EPUB, слайды, веб-страницы и YouTube-видео.&lt;/p&gt;
&lt;p&gt;В 2026 году инструмент существенно вырос: к классическим резюме и аудио-подкастам добавились кинематографические видео, кастомизируемые инфографики, флэшкарты с сохранением прогресса и интеграция с Gemini App.&lt;/p&gt;</description></item></channel></rss>