HTML Diff
0 added 0 removed
Original 2026-01-01
Modified 2026-02-21
1 <p>Корпорация Google<a>представила</a>новую языковую модель Gemini 2.0, функциональность которой стала более универсальной. Модель может генерировать текст, звук и изображения, а также содержит новые мультимодальные возможности, которые, по мнению компании, закладывают фундамент для нового этапа в развитии ИИ. На её основе будут работать ИИ-агенты, способные буквально заменить пользователя при выполнении тех или иных операций. Кроме того, Gemini 2.0 стала более производительной и энергоэффективной.</p>
1 <p>Корпорация Google<a>представила</a>новую языковую модель Gemini 2.0, функциональность которой стала более универсальной. Модель может генерировать текст, звук и изображения, а также содержит новые мультимодальные возможности, которые, по мнению компании, закладывают фундамент для нового этапа в развитии ИИ. На её основе будут работать ИИ-агенты, способные буквально заменить пользователя при выполнении тех или иных операций. Кроме того, Gemini 2.0 стала более производительной и энергоэффективной.</p>
2 <p>Google выпустил Gemini 2.0 спустя примерно 10 месяцев после выпуска версии 1.5. Она всё ещё находится на стадии, которую в Google называют "экспериментальным предварительным просмотром". Сейчас выпущена только одна версия модели - меньшая по размеру и более дешёвая 2.0 Flash. Однако глава Google DeepMind Демис Хассабис очень высоко оценивает новую модель и называет её всеобъемлющей. По его словам, она работает в два раза быстрее 1.5 Pro.</p>
2 <p>Google выпустил Gemini 2.0 спустя примерно 10 месяцев после выпуска версии 1.5. Она всё ещё находится на стадии, которую в Google называют "экспериментальным предварительным просмотром". Сейчас выпущена только одна версия модели - меньшая по размеру и более дешёвая 2.0 Flash. Однако глава Google DeepMind Демис Хассабис очень высоко оценивает новую модель и называет её всеобъемлющей. По его словам, она работает в два раза быстрее 1.5 Pro.</p>
3 <p>"По сути, [новая модель] ничем не уступает текущей модели Pro. Таким образом, можно считать, что она на целый уровень лучше при той же экономичности, производительности и быстродействии. Мы действительно ей довольны".</p>
3 <p>"По сути, [новая модель] ничем не уступает текущей модели Pro. Таким образом, можно считать, что она на целый уровень лучше при той же экономичности, производительности и быстродействии. Мы действительно ей довольны".</p>
4 <p><strong>Демис Хассабис</strong>, генеральный директор Google DeepMind</p>
4 <p><strong>Демис Хассабис</strong>, генеральный директор Google DeepMind</p>
5 <p>Особое внимание разработчики Gemini 2.0 уделили развитию агентского ИИ (Agentic AI). Это роботы с искусственным интеллектом, которые могут действовать и выполнять задачи от имени пользователя. Один из таких роботов Google представил весной этого года. Речь идёт о Project Astra - визуальной системе, которая может идентифицировать объекты, помогать пользователю ориентироваться в мире и сообщать, где он мог оставить ту или иную вещь. По словам Хассабиса, Gemini 2.0 позволяет ощутимо улучшить Astra.</p>
5 <p>Особое внимание разработчики Gemini 2.0 уделили развитию агентского ИИ (Agentic AI). Это роботы с искусственным интеллектом, которые могут действовать и выполнять задачи от имени пользователя. Один из таких роботов Google представил весной этого года. Речь идёт о Project Astra - визуальной системе, которая может идентифицировать объекты, помогать пользователю ориентироваться в мире и сообщать, где он мог оставить ту или иную вещь. По словам Хассабиса, Gemini 2.0 позволяет ощутимо улучшить Astra.</p>
6 <p>Google также запускает Project Mariner, новое экспериментальное расширение для Chrome, которое может использовать браузер вместо пользователя в буквальном смысле. Кроме того, компания выпустила ИИ-агента Jules, который помогает разработчикам находить и исправлять неверный код. А ещё Google представил игрового агента на базе Gemini 2.0, который может смотреть на экран пользователя и помогать ему лучше играть в видеоигры.</p>
6 <p>Google также запускает Project Mariner, новое экспериментальное расширение для Chrome, которое может использовать браузер вместо пользователя в буквальном смысле. Кроме того, компания выпустила ИИ-агента Jules, который помогает разработчикам находить и исправлять неверный код. А ещё Google представил игрового агента на базе Gemini 2.0, который может смотреть на экран пользователя и помогать ему лучше играть в видеоигры.</p>
7 <p>"Мы считаем 2025 год настоящим началом эры ИИ-агентов, и Gemini 2.0 - её основа".</p>
7 <p>"Мы считаем 2025 год настоящим началом эры ИИ-агентов, и Gemini 2.0 - её основа".</p>
8 <p><strong>Демис Хассабис</strong>, генеральный директор Google DeepMind</p>
8 <p><strong>Демис Хассабис</strong>, генеральный директор Google DeepMind</p>
9 <p>Хассабис также отмечает возросшую производительность и энергоэффективность новой модели. Несмотря на непрекращающиеся разговоры о замедлении темпов совершенствования ИИ-моделей в рамках всей отрасли, глава Google DeepMind заявляет, что компания по-прежнему добивается успехов в разработке новых нейросетей.</p>
9 <p>Хассабис также отмечает возросшую производительность и энергоэффективность новой модели. Несмотря на непрекращающиеся разговоры о замедлении темпов совершенствования ИИ-моделей в рамках всей отрасли, глава Google DeepMind заявляет, что компания по-прежнему добивается успехов в разработке новых нейросетей.</p>
10 <p>В Google планируют использовать модель Gemini 2.0 абсолютно везде. Кроме того, с выходом новой версии ИИ-обзоры в поиске Google, которые, по словам компании, охватывают 1 миллиард человек, теперь станут более детальными и сложными.</p>
10 <p>В Google планируют использовать модель Gemini 2.0 абсолютно везде. Кроме того, с выходом новой версии ИИ-обзоры в поиске Google, которые, по словам компании, охватывают 1 миллиард человек, теперь станут более детальными и сложными.</p>
11 <p>В целом компания ставит целью внедрить как можно больше функций в единую модель, а не запускать множество отдельных разрозненных продуктов. Мультимодальность, различные виды выходных данных, функции - Google хочет включить всё это в основополагающую модель Gemini.</p>
11 <p>В целом компания ставит целью внедрить как можно больше функций в единую модель, а не запускать множество отдельных разрозненных продуктов. Мультимодальность, различные виды выходных данных, функции - Google хочет включить всё это в основополагающую модель Gemini.</p>
12 <p>По словам Хассабиса, с развитием направления ИИ возникают как новые, так и старые проблемы. Старые касаются производительности, результативности и энергозатрат. Новые сопряжены с рисками для безопасности, которые могут нести в себе новые ИИ-агенты Google. Стоит отметить, что компания уже принимает меры предосторожности в отношении Mariner и Astra, но Хассабис говорит, что необходимо провести дополнительные исследования.</p>
12 <p>По словам Хассабиса, с развитием направления ИИ возникают как новые, так и старые проблемы. Старые касаются производительности, результативности и энергозатрат. Новые сопряжены с рисками для безопасности, которые могут нести в себе новые ИИ-агенты Google. Стоит отметить, что компания уже принимает меры предосторожности в отношении Mariner и Astra, но Хассабис говорит, что необходимо провести дополнительные исследования.</p>
13 <p>Сейчас Gemini 2.0 можно опробовать в одноимённом веб-приложении. Кроме того, она появится на платформах для разработчиков AI Studio и Vertex AI, а также будет доступна через API. Однако стоит помнить, что нейросеть находится на стадии тестирования. При этом она пока не может генерировать аудио и изображения. Выпуск финальной версии запланирован на начало 2025 года.</p>
13 <p>Сейчас Gemini 2.0 можно опробовать в одноимённом веб-приложении. Кроме того, она появится на платформах для разработчиков AI Studio и Vertex AI, а также будет доступна через API. Однако стоит помнить, что нейросеть находится на стадии тестирования. При этом она пока не может генерировать аудио и изображения. Выпуск финальной версии запланирован на начало 2025 года.</p>