<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Google on AI-Uchi — Всё об искусственном интеллекте</title><link>/tags/google/</link><description>Recent content in Google on AI-Uchi — Всё об искусственном интеллекте</description><generator>Hugo</generator><language>ru</language><lastBuildDate>Mon, 13 Apr 2026 09:00:00 +0300</lastBuildDate><atom:link href="/tags/google/index.xml" rel="self" type="application/rss+xml"/><item><title>SpeciesNet: как ИИ от Google помогает защищать дикую природу</title><link>/translations/speciesnet-ii-google-zashchita-dikoi-prirody/</link><pubDate>Mon, 13 Apr 2026 09:00:00 +0300</pubDate><guid>/translations/speciesnet-ii-google-zashchita-dikoi-prirody/</guid><description>&lt;p&gt;От пумы, крадущейся на рассвете через колумбийский лес, до казуара, шагающего по австралийскому бушу, — фотоловушки дают нам беспрецедентный взгляд на жизнь животных без присутствия человека. Но для биологов и экологов превратить миллионы таких снимков в полезные данные — задача, на которую раньше уходили годы. Сегодня с этим справляется искусственный интеллект.&lt;/p&gt;
&lt;h2 id="что-такое-speciesnet"&gt;Что такое SpeciesNet&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;SpeciesNet&lt;/strong&gt; — это открытая AI-модель от Google, обученная автоматически распознавать почти &lt;strong&gt;2 500 категорий&lt;/strong&gt; млекопитающих, птиц и рептилий на снимках с камер-ловушек (camera traps). Модель работает в рамках платформы &lt;a href="https://www.wildlifeinsights.org/"&gt;Wildlife Insights&lt;/a&gt; с 2019 года, а в марте 2025-го Google выпустила её в открытый доступ на GitHub под лицензией Apache 2.0.&lt;/p&gt;</description></item><item><title>Исследователь взломал водяной знак SynthID от Google</title><link>/news/google-synthid-watermark-bypass-vulnerability/</link><pubDate>Sun, 12 Apr 2026 16:59:31 +0300</pubDate><guid>/news/google-synthid-watermark-bypass-vulnerability/</guid><description>&lt;p&gt;Разработчик под ником aloshdenny опубликовал проект по реверс-инжинирингу технологии SynthID — системы водяных знаков Google, которая встраивает невидимые метки во все изображения, созданные Gemini. Созданный инструмент способен обнаруживать водяные знаки с точностью 90% и удалять их, сохраняя качество изображения.&lt;/p&gt;
&lt;h2 id="как-работает-взлом-synthid"&gt;Как работает взлом SynthID&lt;/h2&gt;
&lt;p&gt;Исследователь обнаружил, что водяные знаки SynthID имеют зависимость от разрешения изображения и используют фиксированную структуру частотных носителей. Используя только спектральный анализ сигнала без доступа к проприетарному кодеру/декодеру Google, команда смогла:&lt;/p&gt;</description></item><item><title>Gemini 3.1 Flash Live — голосовой AI стал естественнее</title><link>/translations/gemini-3-1-flash-live-golosovoi-ai-google/</link><pubDate>Mon, 16 Mar 2026 18:00:00 +0300</pubDate><guid>/translations/gemini-3-1-flash-live-golosovoi-ai-google/</guid><description>&lt;p&gt;26 марта 2026 года Google представила &lt;strong&gt;Gemini 3.1 Flash Live&lt;/strong&gt; — самую качественную на сегодняшний день аудиомодель компании, созданную для естественного и надёжного диалога в реальном времени. Модель стала быстрее, точнее понимает интонации и может выполнять сложные многошаговые задачи по голосовой команде. По сути, это следующий шаг к тому, чтобы разговор с AI перестал отличаться от разговора с живым собеседником.&lt;/p&gt;
&lt;h2 id="зачем-нужна-новая-аудиомодель"&gt;Зачем нужна новая аудиомодель&lt;/h2&gt;
&lt;p&gt;Голосовые интерфейсы долгое время оставались слабым звеном AI-ассистентов. Классическая схема «речь → текст → обработка → текст → речь» добавляла задержку и теряла интонационные нюансы. Gemini 3.1 Flash Live работает иначе: модель нативно обрабатывает аудио, минуя промежуточное преобразование в текст. Это даёт два ключевых преимущества — &lt;strong&gt;низкую задержку&lt;/strong&gt; и &lt;strong&gt;понимание тона&lt;/strong&gt;.&lt;/p&gt;</description></item><item><title>Google Personal Intelligence: ИИ, который знает вас лично</title><link>/translations/google-personal-intelligence-ii-kotoryi-znaet-vas/</link><pubDate>Tue, 10 Mar 2026 12:00:00 +0300</pubDate><guid>/translations/google-personal-intelligence-ii-kotoryi-znaet-vas/</guid><description>&lt;p&gt;Представьте, что вы спрашиваете поисковик: «Какие кроссовки я покупал в прошлый раз?» — и получаете точный ответ, потому что ИИ уже видел ваше письмо с подтверждением заказа. Именно так работает &lt;strong&gt;Personal Intelligence&lt;/strong&gt; — новая функция Google, которая связывает ваши приложения в единую интеллектуальную систему. В марте 2026 года Google значительно расширила доступ к этой технологии, сделав её бесплатной для пользователей в США.&lt;/p&gt;
&lt;h2 id="что-такое-personal-intelligence"&gt;Что такое Personal Intelligence&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;Personal Intelligence&lt;/strong&gt; (персональный интеллект) — это функция Google, которая позволяет ИИ-ассистентам компании подключаться к вашим приложениям Google — Gmail, Google Photos, Google Maps, YouTube и другим — чтобы давать ответы, релевантные именно вам.&lt;/p&gt;</description></item><item><title>LL COOL J и Google: AI и будущее творчества</title><link>/translations/ll-cool-j-google-ai-tvorchestvo-budushchee/</link><pubDate>Sat, 28 Feb 2026 12:00:00 +0300</pubDate><guid>/translations/ll-cool-j-google-ai-tvorchestvo-budushchee/</guid><description>&lt;p&gt;В новом выпуске серии &lt;strong&gt;Dialogues on Technology and Society&lt;/strong&gt; от Google легенда хип-хопа LL COOL J и старший вице-президент Google по исследованиям, лабораториям, технологиям и обществу &lt;strong&gt;Джеймс Маньика&lt;/strong&gt; обсудили, как искусственный интеллект меняет творческие индустрии — и почему за 40 лет технологии прошли путь от первых драм-машин до генеративного AI.&lt;/p&gt;
&lt;p&gt;Разговор получился далеко не формальным: артист, который своими глазами наблюдал каждую технологическую революцию в музыке, и учёный, который строит AI-системы в Google. Разберём ключевые идеи этого диалога.&lt;/p&gt;</description></item><item><title>NotebookLM в 2026: лучший AI-инструмент для документов?</title><link>/tools/notebooklm-2026-obzor-instrument-dlya-dokumentov/</link><pubDate>Wed, 11 Feb 2026 12:00:00 +0300</pubDate><guid>/tools/notebooklm-2026-obzor-instrument-dlya-dokumentov/</guid><description>&lt;h2 id="что-такое-notebooklm-и-для-кого-он-создан"&gt;Что такое NotebookLM и для кого он создан&lt;/h2&gt;
&lt;p&gt;NotebookLM — это AI-ассистент от Google, заточенный на одну задачу: работать &lt;strong&gt;только с теми материалами, которые вы сами загрузили&lt;/strong&gt;. Никакого случайного веб-поиска, никаких галлюцинаций из интернета — только ваши PDF, Google Docs, EPUB, слайды, веб-страницы и YouTube-видео.&lt;/p&gt;
&lt;p&gt;В 2026 году инструмент существенно вырос: к классическим резюме и аудио-подкастам добавились кинематографические видео, кастомизируемые инфографики, флэшкарты с сохранением прогресса и интеграция с Gemini App.&lt;/p&gt;</description></item><item><title>Anthropic, Google и Broadcom: гигаватты ИИ-вычислений</title><link>/articles/anthropic-google-broadcom-gigawatty-vychisleniy/</link><pubDate>Thu, 30 Jan 2025 00:00:00 +0000</pubDate><guid>/articles/anthropic-google-broadcom-gigawatty-vychisleniy/</guid><description>&lt;p&gt;Гонка за вычислительными мощностями в сфере искусственного интеллекта вступила в новую фазу. Пока весь мир обсуждает модели и бенчмарки, Anthropic тихо делает ход, который может переопределить расстановку сил в ИИ-индустрии на годы вперёд: компания объявила о расширении стратегического партнёрства сразу с двумя технологическими гигантами — Google и Broadcom — для получения доступа к вычислительным мощностям в несколько гигаватт. Это не просто новость о железе. Это заявка на то, чтобы стать одним из ключевых игроков в эпоху, когда масштаб вычислений напрямую определяет качество ИИ-систем.&lt;/p&gt;</description></item></channel></rss>