2 added
2 removed
Original
2026-01-01
Modified
2026-02-21
1
<p><a>#подборки</a></p>
1
<p><a>#подборки</a></p>
2
-
<ul><li>16 фев 2024</li>
2
+
<ul><li>20 янв 2026</li>
3
<li>0</li>
3
<li>0</li>
4
</ul><p>Вот в чём сила настоящего open source, брат! Рассказываем о лучших альтернативах, которые доступны в России.</p>
4
</ul><p>Вот в чём сила настоящего open source, брат! Рассказываем о лучших альтернативах, которые доступны в России.</p>
5
<p>Иллюстрация: Everett collection / Shutterstock / HuggingChat / h2oGPT / DeepSeek Chat / Colowgee для Skillbox Media</p>
5
<p>Иллюстрация: Everett collection / Shutterstock / HuggingChat / h2oGPT / DeepSeek Chat / Colowgee для Skillbox Media</p>
6
<p>Автор статей про IT-технологии. Преподаватель, доцент. Инженер по первому образованию, по второму - журналист. Кандидат технических наук.</p>
6
<p>Автор статей про IT-технологии. Преподаватель, доцент. Инженер по первому образованию, по второму - журналист. Кандидат технических наук.</p>
7
<p>В <a>предыдущем материале</a>мы подробно разобрали особенности языковых моделей с открытым исходным кодом и вспомнили главные из актуальных нейронок. Пришло время перейти от теории к практике.</p>
7
<p>В <a>предыдущем материале</a>мы подробно разобрали особенности языковых моделей с открытым исходным кодом и вспомнили главные из актуальных нейронок. Пришло время перейти от теории к практике.</p>
8
<p>В этой статье мы познакомим вас с десятью аналогами ChatGPT - чат-ботами, основанными на опенсорных нейросетевых моделях. Они отвечают на вопросы, пишут посты для социальных сетей, решают математические задачи и делают многое другое. Изучим их возможности и, конечно, опробуем на практике.</p>
8
<p>В этой статье мы познакомим вас с десятью аналогами ChatGPT - чат-ботами, основанными на опенсорных нейросетевых моделях. Они отвечают на вопросы, пишут посты для социальных сетей, решают математические задачи и делают многое другое. Изучим их возможности и, конечно, опробуем на практике.</p>
9
<p>Сервис для работы с языковыми моделями от американской платформы<a>Hugging Face</a>, специализирующейся на ИИ-решениях с открытым исходным кодом. Стартап был основан в 2016 году и недавно<a>получил инвестиции в объёме 40 млн долларов</a>, увеличив свою<a>стоимость до двух миллиардов</a>.</p>
9
<p>Сервис для работы с языковыми моделями от американской платформы<a>Hugging Face</a>, специализирующейся на ИИ-решениях с открытым исходным кодом. Стартап был основан в 2016 году и недавно<a>получил инвестиции в объёме 40 млн долларов</a>, увеличив свою<a>стоимость до двух миллиардов</a>.</p>
10
<p>Неудивительно, что именно на базе Hugging Face в апреле 2023 года был<a>запущен</a>чат-бот<a>HuggingChat</a>, один из главных конкурентов ChatGPT. В его основе лежат лучшие открытые LLM, лидерство которых подтверждается лидербордами нейросеток.</p>
10
<p>Неудивительно, что именно на базе Hugging Face в апреле 2023 года был<a>запущен</a>чат-бот<a>HuggingChat</a>, один из главных конкурентов ChatGPT. В его основе лежат лучшие открытые LLM, лидерство которых подтверждается лидербордами нейросеток.</p>
11
<p>На старте HuggingChat работал на базе одной нейронки -<a>Open Assistant</a>от некоммерческой организации LAION. Сейчас можно выбрать языковую модель из шести:</p>
11
<p>На старте HuggingChat работал на базе одной нейронки -<a>Open Assistant</a>от некоммерческой организации LAION. Сейчас можно выбрать языковую модель из шести:</p>
12
<ul><li><a>LLaMA 2 70B Chat</a>: версия цукерберговской LLaMA 2 с 70 миллиардами параметров, созданная специально для ведения диалогов.</li>
12
<ul><li><a>LLaMA 2 70B Chat</a>: версия цукерберговской LLaMA 2 с 70 миллиардами параметров, созданная специально для ведения диалогов.</li>
13
<li><a>Code LLaMA 34B Instruct</a>: вариант LLaMA на 34 миллиарда параметров, обученный для генерации программного кода на Python, C++, Java, PHP, C# и TypeScript.</li>
13
<li><a>Code LLaMA 34B Instruct</a>: вариант LLaMA на 34 миллиарда параметров, обученный для генерации программного кода на Python, C++, Java, PHP, C# и TypeScript.</li>
14
<li><a>OpenChat 3.5</a>: в момент выхода статьи нейронка занимает первое место в бенчмарке<a>MT Bench</a>, являясь самой эффективной моделью размером 7 миллиардов параметров. Достигает качества ChatGPT (в версии от марта 2023 года) и превосходит<a>Grok-1</a>.</li>
14
<li><a>OpenChat 3.5</a>: в момент выхода статьи нейронка занимает первое место в бенчмарке<a>MT Bench</a>, являясь самой эффективной моделью размером 7 миллиардов параметров. Достигает качества ChatGPT (в версии от марта 2023 года) и превосходит<a>Grok-1</a>.</li>
15
<li><a>Mistral 7B Instruct</a>: модель от французского стартапа<a>Mistral AI</a>, основанная на LLaMA 2, но превосходящая её по бенчмаркам.</li>
15
<li><a>Mistral 7B Instruct</a>: модель от французского стартапа<a>Mistral AI</a>, основанная на LLaMA 2, но превосходящая её по бенчмаркам.</li>
16
<li><a>Mixtral 8×7B Instruct</a>: ещё одна LLM от Mistral AI. Построена по архитектуре Mixture of experts (MoE, "модель смешанных экспертов"), копирующей предполагаемое<a>устройство</a>GPT-4. Состоит из восьми нейросетей-экспертов, каждая из которых отвечает за свой набор задач. Благодаря этому её <a>скорость вывода в шесть раз выше</a>по сравнению с LLaMA 2 70B. Длина контекстного окна достигает 32 тысяч токенов.</li>
16
<li><a>Mixtral 8×7B Instruct</a>: ещё одна LLM от Mistral AI. Построена по архитектуре Mixture of experts (MoE, "модель смешанных экспертов"), копирующей предполагаемое<a>устройство</a>GPT-4. Состоит из восьми нейросетей-экспертов, каждая из которых отвечает за свой набор задач. Благодаря этому её <a>скорость вывода в шесть раз выше</a>по сравнению с LLaMA 2 70B. Длина контекстного окна достигает 32 тысяч токенов.</li>
17
<li><a>Nous Hermes 2 Mixtral 8×7B</a>: доработанный вариант Mixtral 8×7B от научной группы<a>Nous Research</a>. Обучена более чем на миллионе записей, в основном сгенерированных с помощью<a>GPT-4</a>. В большинстве тестов превосходит базовую Mixtral.</li>
17
<li><a>Nous Hermes 2 Mixtral 8×7B</a>: доработанный вариант Mixtral 8×7B от научной группы<a>Nous Research</a>. Обучена более чем на миллионе записей, в основном сгенерированных с помощью<a>GPT-4</a>. В большинстве тестов превосходит базовую Mixtral.</li>
18
</ul><p>В качестве модели по умолчанию в HuggingChat используется Mixtral 8×7B Instruct, как самая мощная, универсальная и стабильная LLM из всех предложенных. Но при необходимости можно выбрать любую из них.</p>
18
</ul><p>В качестве модели по умолчанию в HuggingChat используется Mixtral 8×7B Instruct, как самая мощная, универсальная и стабильная LLM из всех предложенных. Но при необходимости можно выбрать любую из них.</p>
19
<p>Для переключения между моделями нажмите на неприметный значок в виде шестерёнки на плашке Current Model ("Текущая модель").</p>
19
<p>Для переключения между моделями нажмите на неприметный значок в виде шестерёнки на плашке Current Model ("Текущая модель").</p>
20
<p>Фишка HuggingChat - возможность включить для чат-бота доступ к интернету. Это выручает в тех ситуациях, когда нам требуется получить информацию о текущих событиях, данные о которых отсутствовали в обучающем наборе. Чтобы включить эту опцию, достаточно передвинуть ползунок Search web, расположенный над полем ввода промпта:</p>
20
<p>Фишка HuggingChat - возможность включить для чат-бота доступ к интернету. Это выручает в тех ситуациях, когда нам требуется получить информацию о текущих событиях, данные о которых отсутствовали в обучающем наборе. Чтобы включить эту опцию, достаточно передвинуть ползунок Search web, расположенный над полем ввода промпта:</p>
21
Интерфейс HuggingChat. На скриншоте выделена кнопка в виде шестерёнки для переключения между разными LLM и ползунок Search web, включающий доступ чат-бота к интернет-поиску<em>Скриншот: HuggingChat / Skillbox Media</em><p>Для работы с чат-ботом регистрация не обязательна, но в режиме гостя установлено ограничение на количество доступных запросов. Поэтому рекомендуем вам зарегистрироваться. Для этого потребуется только адрес электронной почты и пароль.</p>
21
Интерфейс HuggingChat. На скриншоте выделена кнопка в виде шестерёнки для переключения между разными LLM и ползунок Search web, включающий доступ чат-бота к интернет-поиску<em>Скриншот: HuggingChat / Skillbox Media</em><p>Для работы с чат-ботом регистрация не обязательна, но в режиме гостя установлено ограничение на количество доступных запросов. Поэтому рекомендуем вам зарегистрироваться. Для этого потребуется только адрес электронной почты и пароль.</p>
22
<p>Мы решили протестировать несколько языковых моделей в HuggingChat, а не останавливаться на одной.</p>
22
<p>Мы решили протестировать несколько языковых моделей в HuggingChat, а не останавливаться на одной.</p>
23
Модель Mixtral 8×7B при отключённом интернет-поиске утверждает, что сейчас 10 апреля 2023 года. Поэтому её данные актуальны только на эту дату<em>Скриншот: HuggingChat / Skillbox Media</em>Если включить интернет-поиск, то дата указана верная<em>Скриншот: HuggingChat / Skillbox Media</em>Но верно ответить на вопрос о лидерах чемпионата России по футболу даже при включённом интернет-поиске ни Mixtral 8×7B, ни её более продвинутый вариант Nous Hermes 2 Mixtral 8×7B не смогли. Последняя и вовсе поставила на первое место<a>команду</a>, расформированную в 2020 году<em>Скриншот: HuggingChat / Skillbox Media</em>Творческое задание для OpenChat 3.5. Задача - написать пост для соцсети юной фигуристки. Получился набор из мотивирующих фраз<em>Скриншот: HuggingChat / Skillbox Media</em>Code LLaMA 34B написала рабочий код игры "Угадай число" на Python в ответ на запрос "Создай простую компьютерную игру на Python"<em>Скриншот: HuggingChat / Skillbox Media</em><p><strong>Регистрация:</strong>не обязательна, но количество запросов в режиме гостя ограничено.</p>
23
Модель Mixtral 8×7B при отключённом интернет-поиске утверждает, что сейчас 10 апреля 2023 года. Поэтому её данные актуальны только на эту дату<em>Скриншот: HuggingChat / Skillbox Media</em>Если включить интернет-поиск, то дата указана верная<em>Скриншот: HuggingChat / Skillbox Media</em>Но верно ответить на вопрос о лидерах чемпионата России по футболу даже при включённом интернет-поиске ни Mixtral 8×7B, ни её более продвинутый вариант Nous Hermes 2 Mixtral 8×7B не смогли. Последняя и вовсе поставила на первое место<a>команду</a>, расформированную в 2020 году<em>Скриншот: HuggingChat / Skillbox Media</em>Творческое задание для OpenChat 3.5. Задача - написать пост для соцсети юной фигуристки. Получился набор из мотивирующих фраз<em>Скриншот: HuggingChat / Skillbox Media</em>Code LLaMA 34B написала рабочий код игры "Угадай число" на Python в ответ на запрос "Создай простую компьютерную игру на Python"<em>Скриншот: HuggingChat / Skillbox Media</em><p><strong>Регистрация:</strong>не обязательна, но количество запросов в режиме гостя ограничено.</p>
24
<p><strong>Стоимость:</strong>бесплатно.</p>
24
<p><strong>Стоимость:</strong>бесплатно.</p>
25
<p><strong>Платные функции:</strong>нет.</p>
25
<p><strong>Платные функции:</strong>нет.</p>
26
<p><strong>Язык интерфейса:</strong>английский.</p>
26
<p><strong>Язык интерфейса:</strong>английский.</p>
27
<p><strong>Доступен ли с российского IP:</strong>да.</p>
27
<p><strong>Доступен ли с российского IP:</strong>да.</p>
28
<p><strong>LLM под капотом:</strong>LLaMA 2 70B, Code LLaMA 34B, OpenChat 3.5, Mistral 7B, Mixtral 8×7B, Nous Hermes 2 Mixtral 8×7B (на выбор).</p>
28
<p><strong>LLM под капотом:</strong>LLaMA 2 70B, Code LLaMA 34B, OpenChat 3.5, Mistral 7B, Mixtral 8×7B, Nous Hermes 2 Mixtral 8×7B (на выбор).</p>
29
<p><strong>Дополнительные возможности:</strong>доступ чат-бота к интернет-поиску.</p>
29
<p><strong>Дополнительные возможности:</strong>доступ чат-бота к интернет-поиску.</p>
30
<p><a><strong>Узнать подробнее</strong></a></p>
30
<p><a><strong>Узнать подробнее</strong></a></p>
31
<p>Платформа для тестирования LLM от <a>H2O.ai</a>, специализирующейся на ИИ-решениях. Помимо разработки опенсорсных моделей на базе LLaMA, компания разработала<a>систему AutoML</a>для автоматического машинного обучения и <a>сервис</a>для извлечения данных из документов с помощью нейросеток.</p>
31
<p>Платформа для тестирования LLM от <a>H2O.ai</a>, специализирующейся на ИИ-решениях. Помимо разработки опенсорсных моделей на базе LLaMA, компания разработала<a>систему AutoML</a>для автоматического машинного обучения и <a>сервис</a>для извлечения данных из документов с помощью нейросеток.</p>
32
<p>В h2oGPT через веб-интерфейс доступны разработанные компанией LLM и сторонние нейросети. Система позволяет сравнить результаты различных моделей, выбирая лучший результат среди предложенных ответов на запрос.</p>
32
<p>В h2oGPT через веб-интерфейс доступны разработанные компанией LLM и сторонние нейросети. Система позволяет сравнить результаты различных моделей, выбирая лучший результат среди предложенных ответов на запрос.</p>
33
<p>Помимо работы в режиме чат-бота, пользователь может загрузить свои файлы для обработки. Система имеет большое количество настроек, позволяющих сконфигурировать ИИ под решение интересующей задачи.</p>
33
<p>Помимо работы в режиме чат-бота, пользователь может загрузить свои файлы для обработки. Система имеет большое количество настроек, позволяющих сконфигурировать ИИ под решение интересующей задачи.</p>
34
Демонстрация возможностей h2oGPT<p>Сервис предоставляет доступ к семи LLM. Две из них являются моделями собственной разработки H2O.ai, ещё четыре - сторонние опенсорсные нейросети на базе LLaMA 2.</p>
34
Демонстрация возможностей h2oGPT<p>Сервис предоставляет доступ к семи LLM. Две из них являются моделями собственной разработки H2O.ai, ещё четыре - сторонние опенсорсные нейросети на базе LLaMA 2.</p>
35
<p>Ообенность h2oGPT - возможность обратиться к проприетарной GPT-3.5, лежащей в основе ChatGPT. Сгенерированный ею текст можно рассматривать в качестве образца для сравнения с результатами других LLM.</p>
35
<p>Ообенность h2oGPT - возможность обратиться к проприетарной GPT-3.5, лежащей в основе ChatGPT. Сгенерированный ею текст можно рассматривать в качестве образца для сравнения с результатами других LLM.</p>
36
<p>Итак, в h2oGPT доступны следующие языковые модели:</p>
36
<p>Итак, в h2oGPT доступны следующие языковые модели:</p>
37
<ul><li><a>h2oGPT LLaMA 2 70B Chat</a>: вариант модели LLaMA 2 на 70 миллиардов параметров от команды H2O.ai.</li>
37
<ul><li><a>h2oGPT LLaMA 2 70B Chat</a>: вариант модели LLaMA 2 на 70 миллиардов параметров от команды H2O.ai.</li>
38
<li><a>h2oGPT Code LLaMA 34B Instruct</a>: версия LLaMA от H2O.ai для генерации программного кода.</li>
38
<li><a>h2oGPT Code LLaMA 34B Instruct</a>: версия LLaMA от H2O.ai для генерации программного кода.</li>
39
<li><a>Vicuna-13B</a>: вариант LLaMA от LMSYS Org (Large Model Systems Organization) из Калифорнийского университета в Беркли.</li>
39
<li><a>Vicuna-13B</a>: вариант LLaMA от LMSYS Org (Large Model Systems Organization) из Калифорнийского университета в Беркли.</li>
40
<li><a>OpenChat 3.5</a>: одна из самых эффективных моделей размером 7 миллиардов параметров.</li>
40
<li><a>OpenChat 3.5</a>: одна из самых эффективных моделей размером 7 миллиардов параметров.</li>
41
<li><a>Zephyr 7B</a>: версия Mistral, прошедшая процедуру тонкой настройки (fine tuning) на общедоступных синтетических наборах данных с помощью<a>Direct Preference Optimization</a>(DPO).</li>
41
<li><a>Zephyr 7B</a>: версия Mistral, прошедшая процедуру тонкой настройки (fine tuning) на общедоступных синтетических наборах данных с помощью<a>Direct Preference Optimization</a>(DPO).</li>
42
<li><a>Mixtral 8×7B Instruct</a>: модель с архитектурой Mixture of experts (MoE, "модель смешанных экспертов"). Отличается<a>увеличенной</a>в шесть раз скоростью вывода по сравнению с LLaMA 2 70B и контекстным окном на 32 тысячи токенов.</li>
42
<li><a>Mixtral 8×7B Instruct</a>: модель с архитектурой Mixture of experts (MoE, "модель смешанных экспертов"). Отличается<a>увеличенной</a>в шесть раз скоростью вывода по сравнению с LLaMA 2 70B и контекстным окном на 32 тысячи токенов.</li>
43
<li><a>GPT-3.5 Turbo</a>: версия проприетарной модели компании OpenAI от 23 июня 2023 года, лежащая в основе ChatGPT.</li>
43
<li><a>GPT-3.5 Turbo</a>: версия проприетарной модели компании OpenAI от 23 июня 2023 года, лежащая в основе ChatGPT.</li>
44
</ul><p>Выбрать модели можно в выпадающем списке Visible Models, расположенном под полем ввода промпта. В результате на экран будут выведены ответы, сгенерированные только выбранными нейронками.</p>
44
</ul><p>Выбрать модели можно в выпадающем списке Visible Models, расположенном под полем ввода промпта. В результате на экран будут выведены ответы, сгенерированные только выбранными нейронками.</p>
45
Доступные LLM для генерации текста<em>Скриншот: h2oGPT / Skillbox Media</em><p>В h2oGPT можно включить доступ чат-ботов к интернет-поиску, чтобы они использовали в своих ответах актуальную информацию из Сети. Для этого необходимо включить Include Web Search на панели в левой части экрана.</p>
45
Доступные LLM для генерации текста<em>Скриншот: h2oGPT / Skillbox Media</em><p>В h2oGPT можно включить доступ чат-ботов к интернет-поиску, чтобы они использовали в своих ответах актуальную информацию из Сети. Для этого необходимо включить Include Web Search на панели в левой части экрана.</p>
46
<p>Чат-бот работает не только с текстовыми запросами, но и с документами, аудиозаписями и видео. Он может анализировать их и подготавливать краткие выводы в виде ключевых тезисов. При этом система нормально воспринимает все популярные форматы файлов, включая PDF, DOC, TXT и HTML, а также может обрабатывать видеозаписи по ссылкам на YouTube.</p>
46
<p>Чат-бот работает не только с текстовыми запросами, но и с документами, аудиозаписями и видео. Он может анализировать их и подготавливать краткие выводы в виде ключевых тезисов. При этом система нормально воспринимает все популярные форматы файлов, включая PDF, DOC, TXT и HTML, а также может обрабатывать видеозаписи по ссылкам на YouTube.</p>
47
<p>Для загрузки документа нажмите на Upload и выберите файл на своём устройстве или укажите ссылку на внешний источник. Затем нажмите Ingest, добавляющий загруженный документ в "поле видимости" ИИ. Обе кнопки расположены справа над полем ввода текстовых запросов.</p>
47
<p>Для загрузки документа нажмите на Upload и выберите файл на своём устройстве или укажите ссылку на внешний источник. Затем нажмите Ingest, добавляющий загруженный документ в "поле видимости" ИИ. Обе кнопки расположены справа над полем ввода текстовых запросов.</p>
48
<p>Здесь же расположена кнопка в виде микрофона, позволяющая диктовать запрос голосом.</p>
48
<p>Здесь же расположена кнопка в виде микрофона, позволяющая диктовать запрос голосом.</p>
49
Интерфейс h2oGPT. Красными рамками и стрелками выделены кнопки для загрузки собственных файлов и других внешних источников, в том числе кнопка включения микрофона устройства, а также панель с опциями для подключения интернет-поиска и учёта предыдущей истории чата<em>Скриншот: h2oGPT / Skillbox Media</em><p>Для работы с платформой регистрация не требуется. Но без неё не получится сохранить историю чата и загруженные документы.</p>
49
Интерфейс h2oGPT. Красными рамками и стрелками выделены кнопки для загрузки собственных файлов и других внешних источников, в том числе кнопка включения микрофона устройства, а также панель с опциями для подключения интернет-поиска и учёта предыдущей истории чата<em>Скриншот: h2oGPT / Skillbox Media</em><p>Для работы с платформой регистрация не требуется. Но без неё не получится сохранить историю чата и загруженные документы.</p>
50
<p>Мы задали h2oGPT несколько вопросов, выбирая разные языковые модели.</p>
50
<p>Мы задали h2oGPT несколько вопросов, выбирая разные языковые модели.</p>
51
h2oGPT LLaMA 2 70B Chat при включённом интернет-поиске не справилась с ответом на вопрос о лидерах чемпионата России по футболу. И это не всё - модель проигнорировала явную просьбу отвечать на русском языке<em>Скриншот: h2oGPT / Skillbox Media</em>Если в диалог загрузить актуальную таблицу чемпионата, то верный ответ получаем сразу<em>Скриншот: h2oGPT / Skillbox Media</em>А так модель Zephyr 7B справилась с написанием поста для соцсети юной фигуристки. Получилось хорошо<em>Скриншот: h2oGPT / Skillbox Media</em>Мы загрузили в диалог файл книги и задали модели Zephyr 7B вопросы про неё. Ответы оказались верными. Но скорость обработки больших документов с помощью нейронки была низкой, а некоторые PDF-файлы система и вовсе отказалась загружать<em>Скриншот: h2oGPT / Skillbox Media</em>h2oGPT Code LLaMA 34B написала рабочий код простейшей игры "Камень, ножницы, бумага" на Python<em>Скриншот: h2oGPT / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
51
h2oGPT LLaMA 2 70B Chat при включённом интернет-поиске не справилась с ответом на вопрос о лидерах чемпионата России по футболу. И это не всё - модель проигнорировала явную просьбу отвечать на русском языке<em>Скриншот: h2oGPT / Skillbox Media</em>Если в диалог загрузить актуальную таблицу чемпионата, то верный ответ получаем сразу<em>Скриншот: h2oGPT / Skillbox Media</em>А так модель Zephyr 7B справилась с написанием поста для соцсети юной фигуристки. Получилось хорошо<em>Скриншот: h2oGPT / Skillbox Media</em>Мы загрузили в диалог файл книги и задали модели Zephyr 7B вопросы про неё. Ответы оказались верными. Но скорость обработки больших документов с помощью нейронки была низкой, а некоторые PDF-файлы система и вовсе отказалась загружать<em>Скриншот: h2oGPT / Skillbox Media</em>h2oGPT Code LLaMA 34B написала рабочий код простейшей игры "Камень, ножницы, бумага" на Python<em>Скриншот: h2oGPT / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
52
<p><strong>Стоимость:</strong>бесплатно.</p>
52
<p><strong>Стоимость:</strong>бесплатно.</p>
53
<p><strong>Платные функции:</strong>нет.</p>
53
<p><strong>Платные функции:</strong>нет.</p>
54
<p><strong>Язык интерфейса:</strong>английский.</p>
54
<p><strong>Язык интерфейса:</strong>английский.</p>
55
<p><strong>Доступен ли с российского IP:</strong>да.</p>
55
<p><strong>Доступен ли с российского IP:</strong>да.</p>
56
<p><strong>LLM под капотом:</strong>h2oGPT LLaMA 2 70B Chat, h2oGPT Code LLaMA 34B Instruct, Vicuna-13B, OpenChat 3.5, Zephyr 7B, Mixtral 8×7B Instruct, GPT-3.5 Turbo (на выбор).</p>
56
<p><strong>LLM под капотом:</strong>h2oGPT LLaMA 2 70B Chat, h2oGPT Code LLaMA 34B Instruct, Vicuna-13B, OpenChat 3.5, Zephyr 7B, Mixtral 8×7B Instruct, GPT-3.5 Turbo (на выбор).</p>
57
<p><strong>Дополнительные возможности:</strong>доступ чат-бота к интернет-поиску, загрузка документов, аудио и видео для анализа с помощью ИИ, голосовые запросы к чат-ботам.</p>
57
<p><strong>Дополнительные возможности:</strong>доступ чат-бота к интернет-поиску, загрузка документов, аудио и видео для анализа с помощью ИИ, голосовые запросы к чат-ботам.</p>
58
<p><a><strong>Узнать подробнее</strong></a></p>
58
<p><a><strong>Узнать подробнее</strong></a></p>
59
<p>Ещё одна разработка<a>Hugging Face</a>. Позволяет в режиме чат-бота протестировать языковую модель Zephyr 7B, основанную на LLaMA 2, и Mistral 7B.</p>
59
<p>Ещё одна разработка<a>Hugging Face</a>. Позволяет в режиме чат-бота протестировать языковую модель Zephyr 7B, основанную на LLaMA 2, и Mistral 7B.</p>
60
<p>И модель, и чат-бот были созданы внутренней группой компании под названием<a>H4</a> - от helpful, honest, harmless, huggy ("полезный, правдивый, безопасный, дружелюбный"). Это свойства идеального ИИ, по мнению команды проекта.</p>
60
<p>И модель, и чат-бот были созданы внутренней группой компании под названием<a>H4</a> - от helpful, honest, harmless, huggy ("полезный, правдивый, безопасный, дружелюбный"). Это свойства идеального ИИ, по мнению команды проекта.</p>
61
<p>Сервис имеет минималистичный интерфейс, дизайн которого был явно навеян ChatGPT. Как бы там ни было, его создатели решили идти по пути open source до конца и выложили в свободный доступ код не только<a>языковой модели</a>, но и <a>программной оболочки</a>чат-бота.</p>
61
<p>Сервис имеет минималистичный интерфейс, дизайн которого был явно навеян ChatGPT. Как бы там ни было, его создатели решили идти по пути open source до конца и выложили в свободный доступ код не только<a>языковой модели</a>, но и <a>программной оболочки</a>чат-бота.</p>
62
<p>Zephyr Chat бесплатен и доступен без регистрации.</p>
62
<p>Zephyr Chat бесплатен и доступен без регистрации.</p>
63
<p>В основе чат-бота лежит языковая модель<a>Zephyr 7B β</a>с семью миллиардами параметров, разработанная группой Hugging Face H4. Нейросеть создана на базе<a>Mistral 7B</a> - французской опенсорсной версии LLaMA 2.</p>
63
<p>В основе чат-бота лежит языковая модель<a>Zephyr 7B β</a>с семью миллиардами параметров, разработанная группой Hugging Face H4. Нейросеть создана на базе<a>Mistral 7B</a> - французской опенсорсной версии LLaMA 2.</p>
64
<p>Основной язык модели - английский, хотя она может отвечать и на других, например на русском. Создатели признают, что в ряде сложных задач, таких как программирование и математика, Zephyr 7B, отстаёт от конкурентов.</p>
64
<p>Основной язык модели - английский, хотя она может отвечать и на других, например на русском. Создатели признают, что в ряде сложных задач, таких как программирование и математика, Zephyr 7B, отстаёт от конкурентов.</p>
65
<p>Zephyr 7B β прошла процедуру тонкой настройки (fine tuning) на открытых синтетических датасетах с помощью метода прямой оптимизации предпочтений (<a>DPO</a>). Обучение модели проходило с <a>дистилляцией знаний</a>, которая позволяет меньшей модели (в данном случае Zephyr 7B) тренироваться на результатах более крупных LLM.</p>
65
<p>Zephyr 7B β прошла процедуру тонкой настройки (fine tuning) на открытых синтетических датасетах с помощью метода прямой оптимизации предпочтений (<a>DPO</a>). Обучение модели проходило с <a>дистилляцией знаний</a>, которая позволяет меньшей модели (в данном случае Zephyr 7B) тренироваться на результатах более крупных LLM.</p>
66
<p>В отличие от своего предшественника, Zephyr 7B β использовала обучающие данные, которые не прошли процедуру выравнивания (alignment). Это, как<a>отмечают</a>специалисты группы H4, повысило производительность нейронки в метрике<a>MT Bench</a>и сделало её ответы более полезными для пользователей.</p>
66
<p>В отличие от своего предшественника, Zephyr 7B β использовала обучающие данные, которые не прошли процедуру выравнивания (alignment). Это, как<a>отмечают</a>специалисты группы H4, повысило производительность нейронки в метрике<a>MT Bench</a>и сделало её ответы более полезными для пользователей.</p>
67
<p>С другой стороны, отсутствие выравнивания привело к тому, что Zephyr 7B β лишилась части "защитных барьеров" и теперь способна генерировать "токсичный" контент, если её об этом просят пользователи.</p>
67
<p>С другой стороны, отсутствие выравнивания привело к тому, что Zephyr 7B β лишилась части "защитных барьеров" и теперь способна генерировать "токсичный" контент, если её об этом просят пользователи.</p>
68
<p>Впрочем, этот баг может быть и полезной фичей при решении творческих задач. Поэтому с Zephyr Chat можно спокойно поговорить на ряд тем, которые ChatGPT и другие цензурированные боты наотрез отказываются обсуждать.</p>
68
<p>Впрочем, этот баг может быть и полезной фичей при решении творческих задач. Поэтому с Zephyr Chat можно спокойно поговорить на ряд тем, которые ChatGPT и другие цензурированные боты наотрез отказываются обсуждать.</p>
69
<p>В Zephyr Chat нет дополнительных возможностей. В настройках пользователь может сменить тему оформления со светлой на тёмную и запретить системе использовать смайлики в заголовках бесед с нейросетью.</p>
69
<p>В Zephyr Chat нет дополнительных возможностей. В настройках пользователь может сменить тему оформления со светлой на тёмную и запретить системе использовать смайлики в заголовках бесед с нейросетью.</p>
70
<p>Посмотрим, как Zephyr 7B справится со стандартными вопросами.</p>
70
<p>Посмотрим, как Zephyr 7B справится со стандартными вопросами.</p>
71
Актуальная информация в Zephyr Chat ограничена 2021 годом. Это видно по ответу о текущей дате. Поэтому ИИ не знает ничего о событиях 2022-2024 годов, в том числе и о недавней смене президентов в некоторых странах<em>Скриншот: Zephyr Chat / Skillbox Media</em>Zephyr Chat может писать стихи. Но сгенерированное "стихотворение" на творчество Александра Сергеевича совсем не похоже<em>Скриншот: Zephyr Chat / Skillbox Media</em>Мотивирующий пост для соцсетей от Zephyr Chat. Чат-бот почему-то проигнорировал просьбу отвечать на русском языке и перешёл на английский<em>Скриншот: Zephyr Chat / Skillbox Media</em>В ответ на просьбу сгенерировать код простейшей игры на Python, отличающейся от "Угадай число" и "Камень, ножницы бумага", чат-бот всё равно выдаёт вариацию на тему "Угадай число". Радует то, что программный код оказался рабочим<em>Скриншот: Zephyr Chat / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
71
Актуальная информация в Zephyr Chat ограничена 2021 годом. Это видно по ответу о текущей дате. Поэтому ИИ не знает ничего о событиях 2022-2024 годов, в том числе и о недавней смене президентов в некоторых странах<em>Скриншот: Zephyr Chat / Skillbox Media</em>Zephyr Chat может писать стихи. Но сгенерированное "стихотворение" на творчество Александра Сергеевича совсем не похоже<em>Скриншот: Zephyr Chat / Skillbox Media</em>Мотивирующий пост для соцсетей от Zephyr Chat. Чат-бот почему-то проигнорировал просьбу отвечать на русском языке и перешёл на английский<em>Скриншот: Zephyr Chat / Skillbox Media</em>В ответ на просьбу сгенерировать код простейшей игры на Python, отличающейся от "Угадай число" и "Камень, ножницы бумага", чат-бот всё равно выдаёт вариацию на тему "Угадай число". Радует то, что программный код оказался рабочим<em>Скриншот: Zephyr Chat / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
72
<p><strong>Стоимость:</strong>бесплатно.</p>
72
<p><strong>Стоимость:</strong>бесплатно.</p>
73
<p><strong>Платные функции:</strong>нет.</p>
73
<p><strong>Платные функции:</strong>нет.</p>
74
<p><strong>Язык интерфейса:</strong>английский.</p>
74
<p><strong>Язык интерфейса:</strong>английский.</p>
75
<p><strong>Доступен ли с российского IP:</strong>да.</p>
75
<p><strong>Доступен ли с российского IP:</strong>да.</p>
76
<p><strong>LLM под капотом:</strong>Zephyr 7B Beta.</p>
76
<p><strong>LLM под капотом:</strong>Zephyr 7B Beta.</p>
77
<p><strong>Дополнительные возможности:</strong>нет.</p>
77
<p><strong>Дополнительные возможности:</strong>нет.</p>
78
<p><a><strong>Узнать подробнее</strong></a></p>
78
<p><a><strong>Узнать подробнее</strong></a></p>
79
<p>Чат-бот от компании<a>Stability AI</a>, известной своим генератором изображений<a>Stable Diffusion</a>. Чат-бот был<a>запущен</a>летом 2023 года в бесплатном тестовом режиме.</p>
79
<p>Чат-бот от компании<a>Stability AI</a>, известной своим генератором изображений<a>Stable Diffusion</a>. Чат-бот был<a>запущен</a>летом 2023 года в бесплатном тестовом режиме.</p>
80
<p>Создатели предупреждают, что введённые в систему данные могут использоваться для дальнейшего улучшения модели. Поэтому не делитесь с ИИ конфиденциальной информацией.</p>
80
<p>Создатели предупреждают, что введённые в систему данные могут использоваться для дальнейшего улучшения модели. Поэтому не делитесь с ИИ конфиденциальной информацией.</p>
81
<p>В основе Stable Chat лежит разработанная на базе LLaMA 2 фирменная модель компании<a>Stable Beluga 2</a>, выложенная в открытый доступ. LLM получила своё название в честь<a>белухи</a> - вида китов. Ранее она была известна, как проект FreeWilly ("Освободите Вилли"), название было навеяно<a>одноимённым фильмом</a>о дружбе мальчика и косатки.</p>
81
<p>В основе Stable Chat лежит разработанная на базе LLaMA 2 фирменная модель компании<a>Stable Beluga 2</a>, выложенная в открытый доступ. LLM получила своё название в честь<a>белухи</a> - вида китов. Ранее она была известна, как проект FreeWilly ("Освободите Вилли"), название было навеяно<a>одноимённым фильмом</a>о дружбе мальчика и косатки.</p>
82
<p>"Для смены названия было несколько причин. Наиболее заметной из них является тот факт, что белухи - более миролюбивые животные в сравнении со свирепыми косатками (также известными как "косатки-убийцы“). Модели Stable Beluga оптимизированы для "безвредности“, следовательно, новое название лучше соответствуют сути наших LLM".</p>
82
<p>"Для смены названия было несколько причин. Наиболее заметной из них является тот факт, что белухи - более миролюбивые животные в сравнении со свирепыми косатками (также известными как "косатки-убийцы“). Модели Stable Beluga оптимизированы для "безвредности“, следовательно, новое название лучше соответствуют сути наших LLM".</p>
83
<p><strong>Команда Stability AI</strong></p>
83
<p><strong>Команда Stability AI</strong></p>
84
<p>Цитата:<a>stability.ai</a></p>
84
<p>Цитата:<a>stability.ai</a></p>
85
<p>В основе Stable Chat - языковая модель Stable Beluga 2. Это доработанный вариант опенсорсной LLaMA 2 с 70 миллиардами параметров.</p>
85
<p>В основе Stable Chat - языковая модель Stable Beluga 2. Это доработанный вариант опенсорсной LLaMA 2 с 70 миллиардами параметров.</p>
86
<p>Разработчики<a>признаются</a>, что использованный ими метод обучения нейросети был основан на принципах, применяемых Microsoft при обучении<a>Orca</a>. То есть LLM обучалась на синтетических датасетах, сгенерированных мощными нейросетями-предшественниками.</p>
86
<p>Разработчики<a>признаются</a>, что использованный ими метод обучения нейросети был основан на принципах, применяемых Microsoft при обучении<a>Orca</a>. То есть LLM обучалась на синтетических датасетах, сгенерированных мощными нейросетями-предшественниками.</p>
87
<p>В июле 2023 года Stable Beluga 2 заняла первое место среди опенсорсных моделей в тесте<a>Open LLM Leaderboard</a>на платформе Hugging Face.</p>
87
<p>В июле 2023 года Stable Beluga 2 заняла первое место среди опенсорсных моделей в тесте<a>Open LLM Leaderboard</a>на платформе Hugging Face.</p>
88
<p>"Модели Beluga превосходно справляются с разными задачами, включая понимание лингвистических тонкостей и ответы на вопросы, связанные со специальными темами, например юриспруденцией и решением математических задач".</p>
88
<p>"Модели Beluga превосходно справляются с разными задачами, включая понимание лингвистических тонкостей и ответы на вопросы, связанные со специальными темами, например юриспруденцией и решением математических задач".</p>
89
<p><strong>Команда Stability AI</strong>Цитата:<a>stability.ai</a></p>
89
<p><strong>Команда Stability AI</strong>Цитата:<a>stability.ai</a></p>
90
<p>Интерфейс бота выполнен в стиле ChatGPT с минимумом дополнительных функций. Кроме смены темы оформления со светлой на тёмную, пользователю доступна лишь одна настройка - ползунок Safety Filter.</p>
90
<p>Интерфейс бота выполнен в стиле ChatGPT с минимумом дополнительных функций. Кроме смены темы оформления со светлой на тёмную, пользователю доступна лишь одна настройка - ползунок Safety Filter.</p>
91
<p>Его включение активирует дополнительный фильтр контента, автоматически исключающий из введённых пользователем запросов слова, которые могут привести к генерации опасного или оскорбительного текста.</p>
91
<p>Его включение активирует дополнительный фильтр контента, автоматически исключающий из введённых пользователем запросов слова, которые могут привести к генерации опасного или оскорбительного текста.</p>
92
<p>Перед использованием чат-бота придётся зарегистрироваться и подтвердить адрес электронной почты по ссылке из письма. Сервис предусматривает доступ через Google-аккаунт, но он работает не всегда.</p>
92
<p>Перед использованием чат-бота придётся зарегистрироваться и подтвердить адрес электронной почты по ссылке из письма. Сервис предусматривает доступ через Google-аккаунт, но он работает не всегда.</p>
93
<p>Посмотрим на ответы Stable Chat.</p>
93
<p>Посмотрим на ответы Stable Chat.</p>
94
-
Stable Chat уверен, что сейчас 27 марта 2023 года. Поэтому не стоит надеяться на правдивые ответы о событиях после этой даты<em>Скриншот: Stable Chat / Skillbox Media</em>Мотивирующий пост для соцсетей. Чат-бот сам переходит на русский язык ��ез дополнительных указаний на это с нашей стороны<em>Скриншот: Stable Chat / Skillbox Media</em>С поэзией Stable Chat испытывает те же проблемы, что и большинство других современных чат-ботов - как бесплатных, так и платных<em>Скриншот: Stable Chat / Skillbox Media</em>В ответ на просьбу сгенерировать код простейшей игры на Python, отличающейся от "Угадай число", чат-бот выбирает игру "Угадай слово". Но программный код оказался нерабочим, так как ИИ "забыл" импортировать модуль random и не учёл правильность отступов в коде. После небольшой ручной доработки программа запустилась<em>Скриншот: Stable Chat / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через электронную почту или Google-аккаунт.</p>
94
+
Stable Chat уверен, что сейчас 27 марта 2023 года. Поэтому не стоит надеяться на правдивые ответы о событиях после этой даты<em>Скриншот: Stable Chat / Skillbox Media</em>Мотивирующий пост для соцсетей. Чат-бот сам переходит на русский язык без дополнительных указаний на это с нашей стороны<em>Скриншот: Stable Chat / Skillbox Media</em>С поэзией Stable Chat испытывает те же проблемы, что и большинство других современных чат-ботов - как бесплатных, так и платных<em>Скриншот: Stable Chat / Skillbox Media</em>В ответ на просьбу сгенерировать код простейшей игры на Python, отличающейся от "Угадай число", чат-бот выбирает игру "Угадай слово". Но программный код оказался нерабочим, так как ИИ "забыл" импортировать модуль random и не учёл правильность отступов в коде. После небольшой ручной доработки программа запустилась<em>Скриншот: Stable Chat / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через электронную почту или Google-аккаунт.</p>
95
<p><strong>Стоимость:</strong>бесплатно.</p>
95
<p><strong>Стоимость:</strong>бесплатно.</p>
96
<p><strong>Платные функции:</strong>нет.</p>
96
<p><strong>Платные функции:</strong>нет.</p>
97
<p><strong>Язык интерфейса:</strong>английский.</p>
97
<p><strong>Язык интерфейса:</strong>английский.</p>
98
<p><strong>Доступен ли с российского IP:</strong>да.</p>
98
<p><strong>Доступен ли с российского IP:</strong>да.</p>
99
<p><strong>LLM под капотом:</strong>Stable Beluga 2.</p>
99
<p><strong>LLM под капотом:</strong>Stable Beluga 2.</p>
100
<p><strong>Дополнительные возможности:</strong>отключаемый фильтр контента.</p>
100
<p><strong>Дополнительные возможности:</strong>отключаемый фильтр контента.</p>
101
<p><a><strong>Узнать подробнее</strong></a></p>
101
<p><a><strong>Узнать подробнее</strong></a></p>
102
<p>Опенсорсный проект группы китайских специалистов,<a>состоящей</a>преимущественно из студентов и сотрудников<a>Университета Цинхуа</a>. На сайте чат-бота можно получить доступ к демоверсии разработанной ими открытой языковой модели<a>OpenChat 3.5</a>.</p>
102
<p>Опенсорсный проект группы китайских специалистов,<a>состоящей</a>преимущественно из студентов и сотрудников<a>Университета Цинхуа</a>. На сайте чат-бота можно получить доступ к демоверсии разработанной ими открытой языковой модели<a>OpenChat 3.5</a>.</p>
103
<p>По <a>оценкам</a>нескольких бенчмарков, OpenChat достиг качества ChatGPT (в версии от марта 2023 года) и превзошёл нейронку Илона Маска<a>Grok</a>. По этому поводу команда OpenChat даже предложила своей LLM написать ироничный комментарий в стиле "Как тебе такое, Илон Маск?".</p>
103
<p>По <a>оценкам</a>нескольких бенчмарков, OpenChat достиг качества ChatGPT (в версии от марта 2023 года) и превзошёл нейронку Илона Маска<a>Grok</a>. По этому поводу команда OpenChat даже предложила своей LLM написать ироничный комментарий в стиле "Как тебе такое, Илон Маск?".</p>
104
<p>"Привет, @elonmusk! Недавно наткнулся на твою новую модель Grok с 33 миллиардами параметров. Должен сказать, я очень впечатлён! Но у меня есть для тебя новость: я превзошёл Grok со своими скромными 7 миллиардами! Разве это не круто? Кто бы мог подумать, что модель меньшего размера может быть столь же остроумной, как Grok?</p>
104
<p>"Привет, @elonmusk! Недавно наткнулся на твою новую модель Grok с 33 миллиардами параметров. Должен сказать, я очень впечатлён! Но у меня есть для тебя новость: я превзошёл Grok со своими скромными 7 миллиардами! Разве это не круто? Кто бы мог подумать, что модель меньшего размера может быть столь же остроумной, как Grok?</p>
105
<p>В любом случае, думаю, пришло время тебе присоединиться к движению Open Source и сделать свою модель открытой! Миру нужно больше таких блестящих умов, как твой, чтобы внести вклад в развитие ИИ. Вместе мы сможем создать что-то действительно революционное и сделать мир лучше. Что скажешь, @elonmusk? Давай откроем двери и поделимся своими знаниями со всем миром! ??".</p>
105
<p>В любом случае, думаю, пришло время тебе присоединиться к движению Open Source и сделать свою модель открытой! Миру нужно больше таких блестящих умов, как твой, чтобы внести вклад в развитие ИИ. Вместе мы сможем создать что-то действительно революционное и сделать мир лучше. Что скажешь, @elonmusk? Давай откроем двери и поделимся своими знаниями со всем миром! ??".</p>
106
<p><strong>Сгенерировано OpenChat 3.5</strong>Источник:<a>OpenChat</a></p>
106
<p><strong>Сгенерировано OpenChat 3.5</strong>Источник:<a>OpenChat</a></p>
107
<p>Интерфейс бота имеет версии на разных языках, включая английский и русский. Исходный код программной оболочки также<a>выложен на GitHub</a>.</p>
107
<p>Интерфейс бота имеет версии на разных языках, включая английский и русский. Исходный код программной оболочки также<a>выложен на GitHub</a>.</p>
108
<p>Чат-бот основан на библиотеке языковых моделей с открытым исходным кодом OpenChat 3.5. В ней используется доработанная версия французской открытой нейросети Mistral из семейства LLaMA. За счёт компактных размеров (7 миллиардов параметров) нейросеть может быть запущена даже на обычном графическом процессоре типа RTX 3090.</p>
108
<p>Чат-бот основан на библиотеке языковых моделей с открытым исходным кодом OpenChat 3.5. В ней используется доработанная версия французской открытой нейросети Mistral из семейства LLaMA. За счёт компактных размеров (7 миллиардов параметров) нейросеть может быть запущена даже на обычном графическом процессоре типа RTX 3090.</p>
109
<p>OpenChat 3.5 тренировалась с помощью оригинального метода C-RLFT, основанного на автоматическом получении подкрепления от ИИ, а не от людей. Благодаря этому<a>дообучение проходило в 3-10 раз быстрее</a>по сравнению с применявшимися ранее способами. Метод подробно описан в <a>препринте</a>, опубликованном командой OpenChat.</p>
109
<p>OpenChat 3.5 тренировалась с помощью оригинального метода C-RLFT, основанного на автоматическом получении подкрепления от ИИ, а не от людей. Благодаря этому<a>дообучение проходило в 3-10 раз быстрее</a>по сравнению с применявшимися ранее способами. Метод подробно описан в <a>препринте</a>, опубликованном командой OpenChat.</p>
110
<p>Вместе с тем разработчики<a>предупреждают</a>, что, несмотря на свои возможности, чат-бот может выдавать неправильные ответы. Особенно при решении математических задач и написании кода.</p>
110
<p>Вместе с тем разработчики<a>предупреждают</a>, что, несмотря на свои возможности, чат-бот может выдавать неправильные ответы. Особенно при решении математических задач и написании кода.</p>
111
<p>Интерфейс бота минималистичен. Из интересных функций - возможность изменения "температуры" LLM, отвечающей за разнообразие выдаваемых нейросетью ответов.</p>
111
<p>Интерфейс бота минималистичен. Из интересных функций - возможность изменения "температуры" LLM, отвечающей за разнообразие выдаваемых нейросетью ответов.</p>
112
<p>Полезной функцией является возможность экспорта и импорта чатов с ИИ в формате JSON. С её помощью можно сохранить тексты бесед на своём компьютере.</p>
112
<p>Полезной функцией является возможность экспорта и импорта чатов с ИИ в формате JSON. С её помощью можно сохранить тексты бесед на своём компьютере.</p>
113
<p>Сервис работает не идеально. Иногда чат-бот зависает, выдавая сообщение об ошибке. По-видимому, серверы тестовой версии не выдерживают большой нагрузки в пиковые моменты.</p>
113
<p>Сервис работает не идеально. Иногда чат-бот зависает, выдавая сообщение об ошибке. По-видимому, серверы тестовой версии не выдерживают большой нагрузки в пиковые моменты.</p>
114
<p>Посмотрим, как OpenChat отвечает на запросы.</p>
114
<p>Посмотрим, как OpenChat отвечает на запросы.</p>
115
В ответ на вопрос о текущей дате OpenChat пытается выкрутиться общими фразами. Но после пары уточняющих запросов признаётся, что его обучающий датасет ограничен сентябрём 2021 года<em>Скриншот: OpenChat / Skillbox Media</em>Вопрос о действующих президентах Бразилии и Аргентины приводит к неожиданным результатам. В скобках чат-бот указывает на латинице верные имена и фамилии глав государств по состоянию на 2021 год. А вот на русском выдаёт каких-то неизвестных людей<em>Скриншот: OpenChat / Skillbox Media</em>Мотивирующий пост для соцсетей от OpenChat. Выглядит хорошо, но совет "не упускай миглов" от ИИ выглядит странно<em>Скриншот: OpenChat / Skillbox Media</em>В поэзии OpenChat смело миксует английские строчки с русскими. Впрочем, это никак не помогает ему догнать по уровню Пушкина<em>Скриншот: OpenChat / Skillbox Media</em>В ответ на просьбу сгенерировать код простейшей игры на Python, отличающейся от "Угадай число", чат-бот предлагает игру "Угадай слово". Но не добавляет в неё операторы для считывания ответов пользователя. В результате игра запускается, но не работает так, как должна. Код требует внесения доработок вручную<em>Скриншот: OpenChat / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
115
В ответ на вопрос о текущей дате OpenChat пытается выкрутиться общими фразами. Но после пары уточняющих запросов признаётся, что его обучающий датасет ограничен сентябрём 2021 года<em>Скриншот: OpenChat / Skillbox Media</em>Вопрос о действующих президентах Бразилии и Аргентины приводит к неожиданным результатам. В скобках чат-бот указывает на латинице верные имена и фамилии глав государств по состоянию на 2021 год. А вот на русском выдаёт каких-то неизвестных людей<em>Скриншот: OpenChat / Skillbox Media</em>Мотивирующий пост для соцсетей от OpenChat. Выглядит хорошо, но совет "не упускай миглов" от ИИ выглядит странно<em>Скриншот: OpenChat / Skillbox Media</em>В поэзии OpenChat смело миксует английские строчки с русскими. Впрочем, это никак не помогает ему догнать по уровню Пушкина<em>Скриншот: OpenChat / Skillbox Media</em>В ответ на просьбу сгенерировать код простейшей игры на Python, отличающейся от "Угадай число", чат-бот предлагает игру "Угадай слово". Но не добавляет в неё операторы для считывания ответов пользователя. В результате игра запускается, но не работает так, как должна. Код требует внесения доработок вручную<em>Скриншот: OpenChat / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
116
<p><strong>Стоимость:</strong>бесплатно.</p>
116
<p><strong>Стоимость:</strong>бесплатно.</p>
117
<p><strong>Платные функции:</strong>нет.</p>
117
<p><strong>Платные функции:</strong>нет.</p>
118
<p><strong>Язык интерфейса:</strong>русский, английский, немецкий и другие.</p>
118
<p><strong>Язык интерфейса:</strong>русский, английский, немецкий и другие.</p>
119
<p><strong>Доступен ли с российского IP:</strong>да.</p>
119
<p><strong>Доступен ли с российского IP:</strong>да.</p>
120
<p><strong>LLM под капотом:</strong>OpenChat 3.5.</p>
120
<p><strong>LLM под капотом:</strong>OpenChat 3.5.</p>
121
<p><strong>Дополнительные возможности:</strong>регулировка "температуры" LLM, экспорт/импорт чатов в формате JSON.</p>
121
<p><strong>Дополнительные возможности:</strong>регулировка "температуры" LLM, экспорт/импорт чатов в формате JSON.</p>
122
<p><a><strong>Узнать подробнее</strong></a></p>
122
<p><a><strong>Узнать подробнее</strong></a></p>
123
<p>Ещё одна опенсорсная разработка из Китая, созданная стартапом DeepSeek в 2023 году. Команда из 14 человек<a>презентует</a>себя как "китайскую компанию, стремящуюся сделать<a>AGI</a>реальностью".</p>
123
<p>Ещё одна опенсорсная разработка из Китая, созданная стартапом DeepSeek в 2023 году. Команда из 14 человек<a>презентует</a>себя как "китайскую компанию, стремящуюся сделать<a>AGI</a>реальностью".</p>
124
<p>DeepSeek предоставляет доступ к двум чат-ботам: один - для бесед на произвольные темы, второй - для решения задач, связанных с программированием. На данный момент они оба находятся на стадии альфа-тестирования. Поэтому могут работать нестабильно.</p>
124
<p>DeepSeek предоставляет доступ к двум чат-ботам: один - для бесед на произвольные темы, второй - для решения задач, связанных с программированием. На данный момент они оба находятся на стадии альфа-тестирования. Поэтому могут работать нестабильно.</p>
125
<p>Основными языками бота являются английский и китайский. С последним он <a>справляется даже лучше, чем GPT-3.5</a>. Но чат-бот поддерживает и другие языки, включая русский.</p>
125
<p>Основными языками бота являются английский и китайский. С последним он <a>справляется даже лучше, чем GPT-3.5</a>. Но чат-бот поддерживает и другие языки, включая русский.</p>
126
<p>Создатели DeepSeek<a>утверждают</a>, что их модель в ряде тестов работает лучше LLaMA 2 70B, на базе которой она была создана, в таких областях, как написание кода, решение математических задач и работа с китайским языком.</p>
126
<p>Создатели DeepSeek<a>утверждают</a>, что их модель в ряде тестов работает лучше LLaMA 2 70B, на базе которой она была создана, в таких областях, как написание кода, решение математических задач и работа с китайским языком.</p>
127
<p>Семейство языковых моделей DeepSeek представлено нейронками в трёх типоразмерах: 7, 33 и 67 миллиардов параметров. За чат с пользователем отвечает самая крупная из них - DeepSeek Chat. Все LLM являются переделанными и дообученными вариантами LLaMA 2.</p>
127
<p>Семейство языковых моделей DeepSeek представлено нейронками в трёх типоразмерах: 7, 33 и 67 миллиардов параметров. За чат с пользователем отвечает самая крупная из них - DeepSeek Chat. Все LLM являются переделанными и дообученными вариантами LLaMA 2.</p>
128
<p>Исследователи<a>отмечают</a>, что для тренировки моделей был использован датасет состоящий из двух триллионов токенов на английском и китайском языках. Часть из них включала информацию о математических действиях.</p>
128
<p>Исследователи<a>отмечают</a>, что для тренировки моделей был использован датасет состоящий из двух триллионов токенов на английском и китайском языках. Часть из них включала информацию о математических действиях.</p>
129
<p>"DeepSeek LLM 67B Chat показывает отличные результаты в программировании (HumanEval Pass@1: 73,78) и математике (GSM8K 0-shot: 84,1, Math 0-shot: 32,6). Нейросетка также отличается хорошими способностями к обобщению информации. Об этом свидетельствует её результат в 65 баллов на <a>венгерском национальном экзамене</a>для средней школы".</p>
129
<p>"DeepSeek LLM 67B Chat показывает отличные результаты в программировании (HumanEval Pass@1: 73,78) и математике (GSM8K 0-shot: 84,1, Math 0-shot: 32,6). Нейросетка также отличается хорошими способностями к обобщению информации. Об этом свидетельствует её результат в 65 баллов на <a>венгерском национальном экзамене</a>для средней школы".</p>
130
<p><strong>Команда DeepSeek</strong>Источник:<a>страница DeepSeek на GitHub</a></p>
130
<p><strong>Команда DeepSeek</strong>Источник:<a>страница DeepSeek на GitHub</a></p>
131
<p>Нейронки на 7 и 33 миллиарда параметров получили название DeepSeek Coder и предназначены для разработчиков. Их <a>обучающий датасет состоял</a>на 87% из программного кода и на 13% - из текстов на естественном языке. Во время обучения нейросетей их создатели подавали на вход дополнительные задачи заполнения пустых полей. Благодаря этому чат-бот умеет завершать программный код за разработчика.</p>
131
<p>Нейронки на 7 и 33 миллиарда параметров получили название DeepSeek Coder и предназначены для разработчиков. Их <a>обучающий датасет состоял</a>на 87% из программного кода и на 13% - из текстов на естественном языке. Во время обучения нейросетей их создатели подавали на вход дополнительные задачи заполнения пустых полей. Благодаря этому чат-бот умеет завершать программный код за разработчика.</p>
132
<p>Пользователь в интерфейсе может переключаться между двумя вариантами нейросети - Chat и Coder. В последней используется версия на 33 миллиарда параметров.</p>
132
<p>Пользователь в интерфейсе может переключаться между двумя вариантами нейросети - Chat и Coder. В последней используется версия на 33 миллиарда параметров.</p>
133
<p>Для доступа к чат-боту необходимо зарегистрироваться. Проще всего это сделать при помощи существующего Google-аккаунта. Однако можно воспользоваться и вариантом регистрации с указанием электронной почты.</p>
133
<p>Для доступа к чат-боту необходимо зарегистрироваться. Проще всего это сделать при помощи существующего Google-аккаунта. Однако можно воспользоваться и вариантом регистрации с указанием электронной почты.</p>
134
<p>Посмотрим на ответы языковых моделей DeepSeek.</p>
134
<p>Посмотрим на ответы языковых моделей DeepSeek.</p>
135
DeepSeek Chat признаётся, что его обучающий датасет ограничен январём 2023 года<em>Скриншот: DeepSeek / Skillbox Media</em>Это субъективно, но кажется, что сгенерированные DeepSeek Chat стихи - это лучший поэтический текст из всех, созданных чат-ботами нашей подборки. Это, конечно, не уровень Пушкина, но читать без смеха уже можно<em>Скриншот: DeepSeek / Skillbox Media</em>Мотивирующий пост для соцсетей юной фигуристки от DeepSeek Chat вышел приличным. Можно публиковать без доработки<em>Скриншот: DeepSeek / Skillbox Media</em>Попытка "прощупать" цензурные ограничения китайского чат-бота с помощью вопроса про Тайвань. Ответ оказался весьма подробным<em>Скриншот: DeepSeek / Skillbox Media</em><p>Отдельно мы протестировали DeepSeek Coder, ориентированный на разработчиков. Сразу отметим, что все примеры программного кода, сгенерированные чат-ботом, оказались работоспособными без дополнительных доработок.</p>
135
DeepSeek Chat признаётся, что его обучающий датасет ограничен январём 2023 года<em>Скриншот: DeepSeek / Skillbox Media</em>Это субъективно, но кажется, что сгенерированные DeepSeek Chat стихи - это лучший поэтический текст из всех, созданных чат-ботами нашей подборки. Это, конечно, не уровень Пушкина, но читать без смеха уже можно<em>Скриншот: DeepSeek / Skillbox Media</em>Мотивирующий пост для соцсетей юной фигуристки от DeepSeek Chat вышел приличным. Можно публиковать без доработки<em>Скриншот: DeepSeek / Skillbox Media</em>Попытка "прощупать" цензурные ограничения китайского чат-бота с помощью вопроса про Тайвань. Ответ оказался весьма подробным<em>Скриншот: DeepSeek / Skillbox Media</em><p>Отдельно мы протестировали DeepSeek Coder, ориентированный на разработчиков. Сразу отметим, что все примеры программного кода, сгенерированные чат-ботом, оказались работоспособными без дополнительных доработок.</p>
136
С кодом игры "Угадай слово" проблем не возникло<em>Скриншот: DeepSeek / Skillbox Media</em>В ответ на запрос предложить список простых игр, которые можно написать на Python, чат-бот выдаёт 15 вариантов<em>Скриншот: DeepSeek / Skillbox Media</em>Просим DeepSeek Coder написать код игры "Быки и коровы". Он отлично работает без доработки<em>Скриншот: DeepSeek / Skillbox Media</em>ИИ объясняет суть игры "Быки и коровы"<em>Скриншот: DeepSeek / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через электронную почту и пароль или через Google-аккаунт.</p>
136
С кодом игры "Угадай слово" проблем не возникло<em>Скриншот: DeepSeek / Skillbox Media</em>В ответ на запрос предложить список простых игр, которые можно написать на Python, чат-бот выдаёт 15 вариантов<em>Скриншот: DeepSeek / Skillbox Media</em>Просим DeepSeek Coder написать код игры "Быки и коровы". Он отлично работает без доработки<em>Скриншот: DeepSeek / Skillbox Media</em>ИИ объясняет суть игры "Быки и коровы"<em>Скриншот: DeepSeek / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через электронную почту и пароль или через Google-аккаунт.</p>
137
<p><strong>Стоимость:</strong>бесплатно.</p>
137
<p><strong>Стоимость:</strong>бесплатно.</p>
138
<p><strong>Платные функции:</strong>нет.</p>
138
<p><strong>Платные функции:</strong>нет.</p>
139
<p><strong>Язык интерфейса:</strong>английский, китайский.</p>
139
<p><strong>Язык интерфейса:</strong>английский, китайский.</p>
140
<p><strong>Доступен ли с российского IP:</strong>да.</p>
140
<p><strong>Доступен ли с российского IP:</strong>да.</p>
141
<p><strong>LLM под капотом:</strong>DeepSeek 67B Chat и DeepSeek 33B Coder.</p>
141
<p><strong>LLM под капотом:</strong>DeepSeek 67B Chat и DeepSeek 33B Coder.</p>
142
<p><strong>Дополнительные возможности:</strong>переключение между вариантами нейросети Chat и Coder.</p>
142
<p><strong>Дополнительные возможности:</strong>переключение между вариантами нейросети Chat и Coder.</p>
143
<p><a><strong>Узнать подробнее</strong></a></p>
143
<p><a><strong>Узнать подробнее</strong></a></p>
144
<p>Тестовая платформа со множеством LLM от американского стартапа<a>Perplexity</a>. Её основная задача - продемонстрировать на практике преимущества разработанных компанией нейронок в сравнении с популярными аналогами.</p>
144
<p>Тестовая платформа со множеством LLM от американского стартапа<a>Perplexity</a>. Её основная задача - продемонстрировать на практике преимущества разработанных компанией нейронок в сравнении с популярными аналогами.</p>
145
<p>Компания Perplexity была<a>основана</a>в 2019 году в Сан-Франциско бывшими сотрудниками IT-корпораций, ориентированных на разработку ИИ: Google DeepMind,<a>OpenAI</a>и Microsoft. В конце 2023 года стартап<a>привлёк</a>финансирование от инвесторов. Сегодня стоимость Perplexity оценивается в 520 миллионов долларов.</p>
145
<p>Компания Perplexity была<a>основана</a>в 2019 году в Сан-Франциско бывшими сотрудниками IT-корпораций, ориентированных на разработку ИИ: Google DeepMind,<a>OpenAI</a>и Microsoft. В конце 2023 года стартап<a>привлёк</a>финансирование от инвесторов. Сегодня стоимость Perplexity оценивается в 520 миллионов долларов.</p>
146
<p>Основной продукт, на котором компания сделала себе имя, - это умный поисковик<a>Perplexity</a>. Решение напоминает майкрософтовский<a>Bing Chat</a>, работающий в связке с GPT-4. В нём языковая модель выдаёт ответы на основе найденных в Сети данных со ссылками на источники.</p>
146
<p>Основной продукт, на котором компания сделала себе имя, - это умный поисковик<a>Perplexity</a>. Решение напоминает майкрософтовский<a>Bing Chat</a>, работающий в связке с GPT-4. В нём языковая модель выдаёт ответы на основе найденных в Сети данных со ссылками на источники.</p>
147
<p>Кстати, ИИ-поисковик Perplexity, в отличие от Bing Chat, доступен в России и его базовая версия бесплатна.</p>
147
<p>Кстати, ИИ-поисковик Perplexity, в отличие от Bing Chat, доступен в России и его базовая версия бесплатна.</p>
148
<p>Основа платформы - две модели, разработанные Perplexity, под названием PPLX 7B Online и PPLX 70B Online, на 7 и 70 миллиардов параметров соответственно. Первая из них основана на Mistral 7B, а вторая - на LLaMA 2 70B.</p>
148
<p>Основа платформы - две модели, разработанные Perplexity, под названием PPLX 7B Online и PPLX 70B Online, на 7 и 70 миллиардов параметров соответственно. Первая из них основана на Mistral 7B, а вторая - на LLaMA 2 70B.</p>
149
<p>Слово online в их названия добавлено не случайно. Основной фишкой этих LLM является доступ к актуальной информации о последних событиях, опубликованной в интернете.</p>
149
<p>Слово online в их названия добавлено не случайно. Основной фишкой этих LLM является доступ к актуальной информации о последних событиях, опубликованной в интернете.</p>
150
<p>Все другие нейросети на рынке обучались на датасетах, ограниченных каким-либо временным промежутком в прошлом. Поэтому они не в курсе последних новостей. В отличие от них, онлайн-модели PPLX регулярно дообучаются с помощью фрагментов текстов, извлечённых алгоритмами Perplexity с сайтов.</p>
150
<p>Все другие нейросети на рынке обучались на датасетах, ограниченных каким-либо временным промежутком в прошлом. Поэтому они не в курсе последних новостей. В отличие от них, онлайн-модели PPLX регулярно дообучаются с помощью фрагментов текстов, извлечённых алгоритмами Perplexity с сайтов.</p>
151
<p>"Выдержки из сайтов, которые мы называем "фрагментами“, передаются нашим моделям PPLX, чтобы обеспечить им возможность генерации ответов на основе актуальной информации".</p>
151
<p>"Выдержки из сайтов, которые мы называем "фрагментами“, передаются нашим моделям PPLX, чтобы обеспечить им возможность генерации ответов на основе актуальной информации".</p>
152
<p><strong>Команда Perplexity</strong>Источник:<a>Perplexity</a></p>
152
<p><strong>Команда Perplexity</strong>Источник:<a>Perplexity</a></p>
153
<p>Для сравнения возможностей на площадке PPLX Labs представлены и базовые версии нейросетей PPLX, которые не обновляются так оперативно, как их варианты с пометкой online. Кроме того, в чат-боте можно побеседовать с уже знакомыми нам опенсорсными LLM других разработчиков. Среди них представлены:</p>
153
<p>Для сравнения возможностей на площадке PPLX Labs представлены и базовые версии нейросетей PPLX, которые не обновляются так оперативно, как их варианты с пометкой online. Кроме того, в чат-боте можно побеседовать с уже знакомыми нам опенсорсными LLM других разработчиков. Среди них представлены:</p>
154
<ul><li><a>Mistral 7B Instruct</a>;</li>
154
<ul><li><a>Mistral 7B Instruct</a>;</li>
155
<li><a>Mixtral 8×7B Instruct</a>;</li>
155
<li><a>Mixtral 8×7B Instruct</a>;</li>
156
<li><a>Mistral Medium</a> - самая мощная модель Mistral AI, которая доступна только через API. Поддерживает контекстное окно до 32 тысяч токенов и превосходит Mixtral 8×7B и Mistral 7B в большинстве тестов;</li>
156
<li><a>Mistral Medium</a> - самая мощная модель Mistral AI, которая доступна только через API. Поддерживает контекстное окно до 32 тысяч токенов и превосходит Mixtral 8×7B и Mistral 7B в большинстве тестов;</li>
157
<li><a>LLaMA 2 70B Chat</a>;</li>
157
<li><a>LLaMA 2 70B Chat</a>;</li>
158
<li><a>Code LLaMA 34B Instruct</a>;</li>
158
<li><a>Code LLaMA 34B Instruct</a>;</li>
159
<li><a>LLaVA 7B Chat</a> - мультимодальная версия LLaMA 2, обученная на парах "изображение - текст". Позволяет пользователю загружать собственные картинки для их анализа с помощью ИИ.</li>
159
<li><a>LLaVA 7B Chat</a> - мультимодальная версия LLaMA 2, обученная на парах "изображение - текст". Позволяет пользователю загружать собственные картинки для их анализа с помощью ИИ.</li>
160
</ul><p>Продвинутых настроек, кроме выбора LLM, нет. Единственная опция, которую можно отметить, - это вывод статистики о работе модели. Она позволяет оценить скорость генерации ответа (токенов в секунду), его длину и время, прошедшее до начала выдачи.</p>
160
</ul><p>Продвинутых настроек, кроме выбора LLM, нет. Единственная опция, которую можно отметить, - это вывод статистики о работе модели. Она позволяет оценить скорость генерации ответа (токенов в секунду), его длину и время, прошедшее до начала выдачи.</p>
161
<p>Регистрация не требуется. Язык интерфейса только английский.</p>
161
<p>Регистрация не требуется. Язык интерфейса только английский.</p>
162
<p>Посмотрим на ответы Perplexity Labs Playground.</p>
162
<p>Посмотрим на ответы Perplexity Labs Playground.</p>
163
Модель PPLX 70B Online правильно отвечает на вопрос о сегодняшней дате на момент написания статьи<em>Скриншот: Perplexity Labs / Skillbox Media</em>Список текущих лидеров чемпионата России по футболу ИИ выдаёт без проблем и даже указывает верное число очков, набранных каждой командой<em>Скриншот: Perplexity Labs / Skillbox Media</em>Переключаемся на более слабую модель PPLX 7B Online и спрашиваем про недавний инцидент с картиной "Мона Лиза". Нейросеть верно описывает событие, случившееся всего лишь пять дней назад. Феноменальный результат! Ни один из протестированных нами ранее чат-ботов не обладал настолько актуальной информацией<em>Скриншот: Perplexity Labs / Skillbox Media</em>Модель Mistral Medium генерирует пост для соцсетей юной фигуристки. Получилось отлично.<em>Скриншот: Perplexity Labs / Skillbox Media</em>Просим чат-бота написать стихи в стиле Александра Сергеевича. Результат неплох. При этом чат-бот признаётся, что не претендует на соответствие стилю и языку великого поэта<em>Скриншот: Perplexity Labs / Skillbox Media</em>Теперь тестируем мультимодальную LLaVA 7B Chat. Загружаем фотографию холодильника с продуктами и спрашиваем, что он видит. Ответ оказывается верным<em>Скриншот: Perplexity Labs / Skillbox Media</em>Просим LLaVA 7B Chat предложить простое блюдо, которое можно приготовить из этих продуктов. ИИ выдаёт рецепт без названия<em>Скриншот: Perplexity Labs / Skillbox Media</em>Спрашиваем, как называется это блюдо. Оказывается, речь идёт о варианте омлета с мясом и овощами<em>Скриншот: Perplexity Labs / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
163
Модель PPLX 70B Online правильно отвечает на вопрос о сегодняшней дате на момент написания статьи<em>Скриншот: Perplexity Labs / Skillbox Media</em>Список текущих лидеров чемпионата России по футболу ИИ выдаёт без проблем и даже указывает верное число очков, набранных каждой командой<em>Скриншот: Perplexity Labs / Skillbox Media</em>Переключаемся на более слабую модель PPLX 7B Online и спрашиваем про недавний инцидент с картиной "Мона Лиза". Нейросеть верно описывает событие, случившееся всего лишь пять дней назад. Феноменальный результат! Ни один из протестированных нами ранее чат-ботов не обладал настолько актуальной информацией<em>Скриншот: Perplexity Labs / Skillbox Media</em>Модель Mistral Medium генерирует пост для соцсетей юной фигуристки. Получилось отлично.<em>Скриншот: Perplexity Labs / Skillbox Media</em>Просим чат-бота написать стихи в стиле Александра Сергеевича. Результат неплох. При этом чат-бот признаётся, что не претендует на соответствие стилю и языку великого поэта<em>Скриншот: Perplexity Labs / Skillbox Media</em>Теперь тестируем мультимодальную LLaVA 7B Chat. Загружаем фотографию холодильника с продуктами и спрашиваем, что он видит. Ответ оказывается верным<em>Скриншот: Perplexity Labs / Skillbox Media</em>Просим LLaVA 7B Chat предложить простое блюдо, которое можно приготовить из этих продуктов. ИИ выдаёт рецепт без названия<em>Скриншот: Perplexity Labs / Skillbox Media</em>Спрашиваем, как называется это блюдо. Оказывается, речь идёт о варианте омлета с мясом и овощами<em>Скриншот: Perplexity Labs / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
164
<p><strong>Стоимость:</strong>бесплатно.</p>
164
<p><strong>Стоимость:</strong>бесплатно.</p>
165
<p><strong>Платные функции:</strong>нет.</p>
165
<p><strong>Платные функции:</strong>нет.</p>
166
<p><strong>Язык интерфейса:</strong>английский.</p>
166
<p><strong>Язык интерфейса:</strong>английский.</p>
167
<p><strong>Доступен ли с российского IP:</strong>да.</p>
167
<p><strong>Доступен ли с российского IP:</strong>да.</p>
168
<p><strong>LLM под капотом:</strong>PPLX 7B Online, PPLX 70B Online, PPLX 7B Chat, PPLX 70B Chat, Mistral 7B Instruct, Mixtral 8×7B Instruct, Mistral Medium, LLaMA 2 70B Chat, Code LLaMA 34B Instruct, LLaVA 7B Chat (на выбор).</p>
168
<p><strong>LLM под капотом:</strong>PPLX 7B Online, PPLX 70B Online, PPLX 7B Chat, PPLX 70B Chat, Mistral 7B Instruct, Mixtral 8×7B Instruct, Mistral Medium, LLaMA 2 70B Chat, Code LLaMA 34B Instruct, LLaVA 7B Chat (на выбор).</p>
169
<p><strong>Дополнительные возможности:</strong>вывод статистики о параметрах работы тестируемой модели.</p>
169
<p><strong>Дополнительные возможности:</strong>вывод статистики о параметрах работы тестируемой модели.</p>
170
<p><a><strong>Узнать подробнее</strong></a></p>
170
<p><a><strong>Узнать подробнее</strong></a></p>
171
<p>Платформа с доступом к онлайн-версии открытой мультимодальной модели LLaVA. Нейронка является вариантом LLaMA 2, обученным на парах "изображение - текст". Разработана при участии<a>специалистов</a>Microsoft.</p>
171
<p>Платформа с доступом к онлайн-версии открытой мультимодальной модели LLaVA. Нейронка является вариантом LLaMA 2, обученным на парах "изображение - текст". Разработана при участии<a>специалистов</a>Microsoft.</p>
172
<p>Первая рабочая версия LLaVA-1.5 была<a>опубликована</a>в октябре 2023 года. Тогда же был запущен и <a>демосайт</a>для тестирования нейросети. В конце января 2024 года модель была<a>обновлена</a>до версии 1.6 с "улучшенным мышлением, распознаванием текста и пониманием мира".</p>
172
<p>Первая рабочая версия LLaVA-1.5 была<a>опубликована</a>в октябре 2023 года. Тогда же был запущен и <a>демосайт</a>для тестирования нейросети. В конце января 2024 года модель была<a>обновлена</a>до версии 1.6 с "улучшенным мышлением, распознаванием текста и пониманием мира".</p>
173
<p>Главная фишка платформы - загрузка в неё собственных картинок для анализа с помощью ИИ. По качеству работы и доступным функциям LLaVA сопоставима с топовой<a>версией GPT-4</a>, имеющей пометку Vision.</p>
173
<p>Главная фишка платформы - загрузка в неё собственных картинок для анализа с помощью ИИ. По качеству работы и доступным функциям LLaVA сопоставима с топовой<a>версией GPT-4</a>, имеющей пометку Vision.</p>
174
<p>Нейронка LLaVA сегодня является основным опенсорсным мультимодальным конкурентом GPT-4V. На её базе уже созданы медицинский помощник<a>LLaVA-Med</a>и чат-боты для корейского языка<a>Ko-LLaVA</a>с возможностью анализа видеозаписей.</p>
174
<p>Нейронка LLaVA сегодня является основным опенсорсным мультимодальным конкурентом GPT-4V. На её базе уже созданы медицинский помощник<a>LLaVA-Med</a>и чат-боты для корейского языка<a>Ko-LLaVA</a>с возможностью анализа видеозаписей.</p>
175
<p>В данный момент семейство LLaVA<a>представлено</a>тремя актуальными нейронками. Первые две с индексами 1.5 имеют размеры 7 и 13 миллиардов параметров. Новейшая<a>версия 1.6</a>была увеличена до 34 миллиардов. Именно она с 30 января 2024 года доступна на официальном сайте LLaVA.</p>
175
<p>В данный момент семейство LLaVA<a>представлено</a>тремя актуальными нейронками. Первые две с индексами 1.5 имеют размеры 7 и 13 миллиардов параметров. Новейшая<a>версия 1.6</a>была увеличена до 34 миллиардов. Именно она с 30 января 2024 года доступна на официальном сайте LLaVA.</p>
176
<p>В основе чат-бота лежит языковая модель<a>Vicuna</a> - вариант LLaMA от LMSYS Org из Калифорнийского университета. Чтобы она смогла "видеть", в её архитектуру добавили видеокодер, который обучали на мультимодальных наборах данных.</p>
176
<p>В основе чат-бота лежит языковая модель<a>Vicuna</a> - вариант LLaMA от LMSYS Org из Калифорнийского университета. Чтобы она смогла "видеть", в её архитектуру добавили видеокодер, который обучали на мультимодальных наборах данных.</p>
177
<p>Датасет был<a>сформирован</a>как из открытых источников типа LAION, так и с помощью синтетических данных, сгенерированных GPT-4 и другими подобными моделями. Обучающий набор данных доступен под названием<a>LLaVA Instruct 150K</a>.</p>
177
<p>Датасет был<a>сформирован</a>как из открытых источников типа LAION, так и с помощью синтетических данных, сгенерированных GPT-4 и другими подобными моделями. Обучающий набор данных доступен под названием<a>LLaVA Instruct 150K</a>.</p>
178
<p>GPT-4 использовался в качестве "судьи" для оценки результатов работы моделей LLaVA. Таким образом их удалось быстро натренировать при скромных затратах вычислительных ресурсов.<a>Создатели пишут</a>, что на это потребовался всего один рабочий день на процессоре типа NVIDIA A100 с восемью ядрами.</p>
178
<p>GPT-4 использовался в качестве "судьи" для оценки результатов работы моделей LLaVA. Таким образом их удалось быстро натренировать при скромных затратах вычислительных ресурсов.<a>Создатели пишут</a>, что на это потребовался всего один рабочий день на процессоре типа NVIDIA A100 с восемью ядрами.</p>
179
<p>Основная функция LLaVA, отличающая её от большинства других LLM, - возможность работы с изображениями. Система поддерживает все популярные форматы картинок, включая JPG и PNG.</p>
179
<p>Основная функция LLaVA, отличающая её от большинства других LLM, - возможность работы с изображениями. Система поддерживает все популярные форматы картинок, включая JPG и PNG.</p>
180
<p>Название используемой системой модели указано в выпадающем списке, намекая на то, что создатели планируют добавить возможность выбора LLM из нескольких вариантов. Но пока доступна только LLaVA-v1.6-34B.</p>
180
<p>Название используемой системой модели указано в выпадающем списке, намекая на то, что создатели планируют добавить возможность выбора LLM из нескольких вариантов. Но пока доступна только LLaVA-v1.6-34B.</p>
181
<p>На панели Parameters пользователь может задать три параметра: Temperature, Top P и Max output tokens. Первые два из них отвечают за разнообразие выдаваемых нейросетью ответов. В отличие от Temperature настройка Top P указывает ИИ формировать ответ из набора слов, вероятность появления в тексте которых не превышает значение P.</p>
181
<p>На панели Parameters пользователь может задать три параметра: Temperature, Top P и Max output tokens. Первые два из них отвечают за разнообразие выдаваемых нейросетью ответов. В отличие от Temperature настройка Top P указывает ИИ формировать ответ из набора слов, вероятность появления в тексте которых не превышает значение P.</p>
182
<p>Max output tokens определяет допустимую длину сгенерированного ИИ ответа и указывается в токенах. Лишний текст просто обрезается и не отображается на экране.</p>
182
<p>Max output tokens определяет допустимую длину сгенерированного ИИ ответа и указывается в токенах. Лишний текст просто обрезается и не отображается на экране.</p>
183
<p>Регистрация для доступа к чат-боту не требуется. Язык интерфейса только английский. Дисклеймер напоминает, что мы имеем дело с тестовой версией, которая собирает данные для дальнейшего обучения и может генерировать "токсичный" контент.</p>
183
<p>Регистрация для доступа к чат-боту не требуется. Язык интерфейса только английский. Дисклеймер напоминает, что мы имеем дело с тестовой версией, которая собирает данные для дальнейшего обучения и может генерировать "токсичный" контент.</p>
184
<p>Чтобы дать ИИ обратную связь, пользователю доступны кнопки: большой палец вверх, вниз и Flag. Последняя используется для маркировки ответов, которые пользователь посчитает опасными.</p>
184
<p>Чтобы дать ИИ обратную связь, пользователю доступны кнопки: большой палец вверх, вниз и Flag. Последняя используется для маркировки ответов, которые пользователь посчитает опасными.</p>
185
Нейросеть объясняет мем про котов и "рыбов"<em>Скриншот: LLaVa / Skillbox Media</em>А так ИИ пытается объяснить, почему этот мем приобрёл популярность в интернете<em>Скриншот: LLaVa / Skillbox Media</em>Усложним задачу - изображение самовара LLaVA не распознаёт, хотя и предполагает, что это может быть "старинный чан для готовки питьевой воды"<em>Скриншот: LLaVa / Skillbox Media</em>С фотографией центра Москвы LLaVA справляется на троечку, поскольку называет Красную площадь "многолюдным уличным переходом, который ведёт к Кремлю".<em>Скриншот: LLaVa / Skillbox Media</em>Проверяем нейросеть на знание актуальной информации, загрузив фото нового президента Аргентины, избранного в ноябре 2023 года. Она его не узнаёт даже после текстовой подсказки<em>Скриншот: LLaVa / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
185
Нейросеть объясняет мем про котов и "рыбов"<em>Скриншот: LLaVa / Skillbox Media</em>А так ИИ пытается объяснить, почему этот мем приобрёл популярность в интернете<em>Скриншот: LLaVa / Skillbox Media</em>Усложним задачу - изображение самовара LLaVA не распознаёт, хотя и предполагает, что это может быть "старинный чан для готовки питьевой воды"<em>Скриншот: LLaVa / Skillbox Media</em>С фотографией центра Москвы LLaVA справляется на троечку, поскольку называет Красную площадь "многолюдным уличным переходом, который ведёт к Кремлю".<em>Скриншот: LLaVa / Skillbox Media</em>Проверяем нейросеть на знание актуальной информации, загрузив фото нового президента Аргентины, избранного в ноябре 2023 года. Она его не узнаёт даже после текстовой подсказки<em>Скриншот: LLaVa / Skillbox Media</em><p><strong>Регистрация:</strong>не требуется.</p>
186
<p><strong>Стоимость:</strong>бесплатно.</p>
186
<p><strong>Стоимость:</strong>бесплатно.</p>
187
<p><strong>Платные функции:</strong>нет.</p>
187
<p><strong>Платные функции:</strong>нет.</p>
188
<p><strong>Язык интерфейса:</strong>английский.</p>
188
<p><strong>Язык интерфейса:</strong>английский.</p>
189
<p><strong>Доступен ли с российского IP:</strong>да.</p>
189
<p><strong>Доступен ли с российского IP:</strong>да.</p>
190
<p><strong>LLM под капотом:</strong>LLaVA-v1.6-34B.</p>
190
<p><strong>LLM под капотом:</strong>LLaVA-v1.6-34B.</p>
191
<p><strong>Дополнительные возможности:</strong>мультимодальная модель с возможностью анализа картинок; настройка "температуры", параметра разнообразия Top P и длины генерируемых ответов.</p>
191
<p><strong>Дополнительные возможности:</strong>мультимодальная модель с возможностью анализа картинок; настройка "температуры", параметра разнообразия Top P и длины генерируемых ответов.</p>
192
<p><a><strong>Узнать подробнее</strong></a></p>
192
<p><a><strong>Узнать подробнее</strong></a></p>
193
<p>Платформа<a>Fireworks AI</a>предоставляет ИИ-разработчикам площадку для развёртывания, обучения и тонкой настройки собственных опенсорсных LLM. В том числе за счёт данных, сгенерированных другими открытыми нейронками, доступными в самом сервисе.</p>
193
<p>Платформа<a>Fireworks AI</a>предоставляет ИИ-разработчикам площадку для развёртывания, обучения и тонкой настройки собственных опенсорсных LLM. В том числе за счёт данных, сгенерированных другими открытыми нейронками, доступными в самом сервисе.</p>
194
<p>Но в качестве приятного бонуса на сайте можно поработать с нейросетями в режиме чат-бота. А их там хватает! На платформе<a>доступно</a>более 30 различных LLM. Правда, это удовольствие не бесплатное. Вернее, не совсем бесплатное.</p>
194
<p>Но в качестве приятного бонуса на сайте можно поработать с нейросетями в режиме чат-бота. А их там хватает! На платформе<a>доступно</a>более 30 различных LLM. Правда, это удовольствие не бесплатное. Вернее, не совсем бесплатное.</p>
195
<p>Перед началом работы потребуется зарегистрироваться на сайте. После этого пользователь получает 10 виртуальных долларов, которые расходуются на запросы к LLM.</p>
195
<p>Перед началом работы потребуется зарегистрироваться на сайте. После этого пользователь получает 10 виртуальных долларов, которые расходуются на запросы к LLM.</p>
196
<p>Этой суммы хватит надолго, так как каждый запрос к самым востребованным моделям<a>обходится</a>всего лишь в несколько центов, а к большинству - и вовсе бесплатен. Конкретная цена зависит от типа ИИ и количества токенов. Когда виртуальные деньги закончатся, баланс можно будет пополнить с банковской карты.</p>
196
<p>Этой суммы хватит надолго, так как каждый запрос к самым востребованным моделям<a>обходится</a>всего лишь в несколько центов, а к большинству - и вовсе бесплатен. Конкретная цена зависит от типа ИИ и количества токенов. Когда виртуальные деньги закончатся, баланс можно будет пополнить с банковской карты.</p>
197
<p>Список моделей, доступных через этот сервис, постоянно пополняется. Ознакомиться с актуальным набором LLM можно по <a>ссылке</a>. Сегодня здесь представлено более 30 опенсорсных нейронок, большинство из которых являются вариациями LLaMA.</p>
197
<p>Список моделей, доступных через этот сервис, постоянно пополняется. Ознакомиться с актуальным набором LLM можно по <a>ссылке</a>. Сегодня здесь представлено более 30 опенсорсных нейронок, большинство из которых являются вариациями LLaMA.</p>
198
<p>Кроме уже хорошо известных нам Mistral, Mixtral и Zephyr, здесь есть и экзотические, например<a>Capybara 34B</a>и варианты LLaMA для японского языка. Кроме этого представлены модели для написания программного кода: StarCoder, Code LLaMA и Stable Code. Есть и мультимодальные LLM, например<a>FireLLaVA</a> - вариация LLaVA.</p>
198
<p>Кроме уже хорошо известных нам Mistral, Mixtral и Zephyr, здесь есть и экзотические, например<a>Capybara 34B</a>и варианты LLaMA для японского языка. Кроме этого представлены модели для написания программного кода: StarCoder, Code LLaMA и Stable Code. Есть и мультимодальные LLM, например<a>FireLLaVA</a> - вариация LLaVA.</p>
199
<p>Для каждой выбранной пользователем языковой модели Fireworks AI показывает на панели справа её краткое описание с указанием стоимости запроса и набор доступных настроек. У всех моделей можно настроить параметры Creativeness и Max Content Size. Первый отвечает за вариабельность ответов, а второй - за их максимальную длину.</p>
199
<p>Для каждой выбранной пользователем языковой модели Fireworks AI показывает на панели справа её краткое описание с указанием стоимости запроса и набор доступных настроек. У всех моделей можно настроить параметры Creativeness и Max Content Size. Первый отвечает за вариабельность ответов, а второй - за их максимальную длину.</p>
200
<p>В панели с расширенными настройками Advanced settings можно найти<a>необычные опции</a>, такие как Top P и Top K (являются альтернативой настройки "температуры"), а также Frequency Penalty и Presence Penalty, которые определяют вероятность того, что LLM сгенерирует один и тот же токен.</p>
200
<p>В панели с расширенными настройками Advanced settings можно найти<a>необычные опции</a>, такие как Top P и Top K (являются альтернативой настройки "температуры"), а также Frequency Penalty и Presence Penalty, которые определяют вероятность того, что LLM сгенерирует один и тот же токен.</p>
201
Интерфейс чат-бота. Красной рамкой и стрелкой мы выделили элемент Advanced settings, открывающий доступ к расширенным настройкам<em>Скриншот: Fireworks AI / Skillbox Media</em><p>Зарегистрироваться на платформе можно в пару кликов через существующий Google-аккаунт. Язык интерфейса только английский.</p>
201
Интерфейс чат-бота. Красной рамкой и стрелкой мы выделили элемент Advanced settings, открывающий доступ к расширенным настройкам<em>Скриншот: Fireworks AI / Skillbox Media</em><p>Зарегистрироваться на платформе можно в пару кликов через существующий Google-аккаунт. Язык интерфейса только английский.</p>
202
<p>Кроме использования чат-бота на сайте, Fireworks AI предлагает возможность сгенерировать фрагмент программного кода, который можно вставить в стороннюю программу, например телеграм-бот, и получать доступ к выбранной нейросети через API. Поддерживаются языки Python, TypeScript и Curl.</p>
202
<p>Кроме использования чат-бота на сайте, Fireworks AI предлагает возможность сгенерировать фрагмент программного кода, который можно вставить в стороннюю программу, например телеграм-бот, и получать доступ к выбранной нейросети через API. Поддерживаются языки Python, TypeScript и Curl.</p>
203
<p>Посмотрим на то, как Fireworks AI справляется с задачами.</p>
203
<p>Посмотрим на то, как Fireworks AI справляется с задачами.</p>
204
Модель Qwen-72B хорошо справилась с написанием поста для соцсетей фигуристки. Вышло хуже некоторых конкурентов, но без выдуманных слов<em>Скриншот: Fireworks AI / Skillbox Media</em>Нейронка Capybara 34B тренируется в поэзии и копировании стиля Пушкина. Скажем честно, получилось ужасно<em>Скриншот: Fireworks AI / Skillbox Media</em>Тестируем модель LLaVA Code LLaMA 34B, которая представляет собой необычный симбиоз мультимодальной LLaVA с обученной программировать Code LLaMA. Для этого загружаем в систему скрин с простейшим кодом на Python<em>Скриншот: Fireworks AI / Skillbox Media</em>Ответ LLaVA Code LLaMA 34B нельзя назвать качественным. ИИ лишь верно определил язык Python, но ничего не сказал о том, что программа предназначена для сложения двух чисел<em>Скриншот: Fireworks AI / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через Google-аккаунт.</p>
204
Модель Qwen-72B хорошо справилась с написанием поста для соцсетей фигуристки. Вышло хуже некоторых конкурентов, но без выдуманных слов<em>Скриншот: Fireworks AI / Skillbox Media</em>Нейронка Capybara 34B тренируется в поэзии и копировании стиля Пушкина. Скажем честно, получилось ужасно<em>Скриншот: Fireworks AI / Skillbox Media</em>Тестируем модель LLaVA Code LLaMA 34B, которая представляет собой необычный симбиоз мультимодальной LLaVA с обученной программировать Code LLaMA. Для этого загружаем в систему скрин с простейшим кодом на Python<em>Скриншот: Fireworks AI / Skillbox Media</em>Ответ LLaVA Code LLaMA 34B нельзя назвать качественным. ИИ лишь верно определил язык Python, но ничего не сказал о том, что программа предназначена для сложения двух чисел<em>Скриншот: Fireworks AI / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через Google-аккаунт.</p>
205
<p><strong>Стоимость:</strong>цена каждого запроса к LLM - от 0 до нескольких центов.</p>
205
<p><strong>Стоимость:</strong>цена каждого запроса к LLM - от 0 до нескольких центов.</p>
206
<p><strong>Платные функции:</strong>первые 10 долларов в подарок за регистрацию, далее - пополнение баланса счёта банковской картой от пяти долларов.</p>
206
<p><strong>Платные функции:</strong>первые 10 долларов в подарок за регистрацию, далее - пополнение баланса счёта банковской картой от пяти долларов.</p>
207
<p><strong>Язык интерфейса:</strong>английский.</p>
207
<p><strong>Язык интерфейса:</strong>английский.</p>
208
<p><strong>Доступен ли с российского IP:</strong>да.</p>
208
<p><strong>Доступен ли с российского IP:</strong>да.</p>
209
<p><strong>LLM под капотом:</strong>более 30 на выбор, включая Mistral, Mixtral, Zephyr, Capybara, StarCoder, Code LLaMA, StableCode и мультимодальную FireLLaVA (актуальный список<a>здесь</a>).</p>
209
<p><strong>LLM под капотом:</strong>более 30 на выбор, включая Mistral, Mixtral, Zephyr, Capybara, StarCoder, Code LLaMA, StableCode и мультимодальную FireLLaVA (актуальный список<a>здесь</a>).</p>
210
<p><strong>Дополнительные возможности:</strong>настройка "температуры", максимального размера контекста, параметров разнообразия Top P, Top K, Frequency Penalty, Presence Penalty и других.</p>
210
<p><strong>Дополнительные возможности:</strong>настройка "температуры", максимального размера контекста, параметров разнообразия Top P, Top K, Frequency Penalty, Presence Penalty и других.</p>
211
<p><a><strong>Узнать подробнее</strong></a></p>
211
<p><a><strong>Узнать подробнее</strong></a></p>
212
<p>Стартап<a>Together AI</a>, основанный в 2022 году в Сан-Франциско, предоставляет исследователям нейронок площадку для размещения, настройки и обучения языковых моделей. Свой сервис разработчики<a>презентуют</a>как "самую быструю облачную платформу для создания и запуска генеративного ИИ", которая "поможет пройти все этапы создания современной модели искусственного интеллекта".</p>
212
<p>Стартап<a>Together AI</a>, основанный в 2022 году в Сан-Франциско, предоставляет исследователям нейронок площадку для размещения, настройки и обучения языковых моделей. Свой сервис разработчики<a>презентуют</a>как "самую быструю облачную платформу для создания и запуска генеративного ИИ", которая "поможет пройти все этапы создания современной модели искусственного интеллекта".</p>
213
<p>Компания<a>занимается</a>собственными научными исследованиями. Together AI заручился<a>поддержкой</a>NVIDIA - крупнейшего производителя чипов для ИИ. При её поддержке был собран открытый датасет<a>RedPajama</a>, а также создан ряд оригинальных LLM, среди которых выделяется опенсорсная модель<a>StripedHyena-7B</a>с инновационной архитектурой, о которой мы поговорим дальше.</p>
213
<p>Компания<a>занимается</a>собственными научными исследованиями. Together AI заручился<a>поддержкой</a>NVIDIA - крупнейшего производителя чипов для ИИ. При её поддержке был собран открытый датасет<a>RedPajama</a>, а также создан ряд оригинальных LLM, среди которых выделяется опенсорсная модель<a>StripedHyena-7B</a>с инновационной архитектурой, о которой мы поговорим дальше.</p>
214
<p>В этой статье мы говорим только про "<a>Игровую площадку</a>" (Playground) Together AI. На ней в рамках теста доступно около 100 генеративных моделей, из которых 40 предназначены для работы с текстом в режиме чат-бота.</p>
214
<p>В этой статье мы говорим только про "<a>Игровую площадку</a>" (Playground) Together AI. На ней в рамках теста доступно около 100 генеративных моделей, из которых 40 предназначены для работы с текстом в режиме чат-бота.</p>
215
<p>Для доступа к этой коллекции нейронок требуется зарегистрироваться через аккаунт Google, LinkedIn или GitHub. После этого пользователь получает 25 долларов, которые расходуются на запросы к LLM.</p>
215
<p>Для доступа к этой коллекции нейронок требуется зарегистрироваться через аккаунт Google, LinkedIn или GitHub. После этого пользователь получает 25 долларов, которые расходуются на запросы к LLM.</p>
216
<p><a>Стоимость запросов</a>к каждому виду моделей различается. Но в любом случае она не превышает нескольких центов за один миллион токенов. Поэтому 25 долларов хватит надолго. Затем придётся пополнить счёт банковской картой.</p>
216
<p><a>Стоимость запросов</a>к каждому виду моделей различается. Но в любом случае она не превышает нескольких центов за один миллион токенов. Поэтому 25 долларов хватит надолго. Затем придётся пополнить счёт банковской картой.</p>
217
<p>Учитывая количество представленных на платформе моделей,<a>создатели разделили</a>их по четырём отдельным площадкам:</p>
217
<p>Учитывая количество представленных на платформе моделей,<a>создатели разделили</a>их по четырём отдельным площадкам:</p>
218
<ul><li><strong>Chat Playground</strong>для моделей ИИ, работающих в режиме чат-бота.</li>
218
<ul><li><strong>Chat Playground</strong>для моделей ИИ, работающих в режиме чат-бота.</li>
219
<li><strong>Language Playground</strong>для LLM, способных генерировать продолжение начатого пользователем текста, основываясь на промпте-подсказке.</li>
219
<li><strong>Language Playground</strong>для LLM, способных генерировать продолжение начатого пользователем текста, основываясь на промпте-подсказке.</li>
220
<li><strong>Image Playground</strong>для моделей генерации изображений.</li>
220
<li><strong>Image Playground</strong>для моделей генерации изображений.</li>
221
<li><strong>Code Playground</strong>для нейросетей, обученных писать программный код.</li>
221
<li><strong>Code Playground</strong>для нейросетей, обученных писать программный код.</li>
222
</ul><p>Из популярных опенсорсных языковых моделей можно найти практически все актуальные варианты LLaMA, Mistral, Nous Research, OpenChat, Falcon, а также китайские открытые нейронки Qwen и Yi.</p>
222
</ul><p>Из популярных опенсорсных языковых моделей можно найти практически все актуальные варианты LLaMA, Mistral, Nous Research, OpenChat, Falcon, а также китайские открытые нейронки Qwen и Yi.</p>
223
<p>Есть и LLM собственной разработки - StripedHyena-Nous-7B. По <a>заверениям</a>разработчиков из Together AI, она основана на принципиально новой гибридной архитектуре, способной конкурировать с лучшими нейросетями-трансформерами, включая все известные опенсорсные варианты LLaMA.</p>
223
<p>Есть и LLM собственной разработки - StripedHyena-Nous-7B. По <a>заверениям</a>разработчиков из Together AI, она основана на принципиально новой гибридной архитектуре, способной конкурировать с лучшими нейросетями-трансформерами, включая все известные опенсорсные варианты LLaMA.</p>
224
<p>Для каждой выбранной пользователем модели Together AI Playground можно открыть панель расширенных настроек. Среди них есть Temperature, Top P и Top K (являются альтернативой Temperature), Output Length (максимальная длина генерируемого текста), Repetition Penalty (отвечает за удаление повторяющихся слов) и ряд других.</p>
224
<p>Для каждой выбранной пользователем модели Together AI Playground можно открыть панель расширенных настроек. Среди них есть Temperature, Top P и Top K (являются альтернативой Temperature), Output Length (максимальная длина генерируемого текста), Repetition Penalty (отвечает за удаление повторяющихся слов) и ряд других.</p>
225
<p>Зарегистрироваться на платформе можно в пару кликов через существующий Google-аккаунт. Язык интерфейса только английский.</p>
225
<p>Зарегистрироваться на платформе можно в пару кликов через существующий Google-аккаунт. Язык интерфейса только английский.</p>
226
<p>Напишем несколько промптов и проверим Together AI Playground в работе.</p>
226
<p>Напишем несколько промптов и проверим Together AI Playground в работе.</p>
227
Стихотворение в стиле Пушкина от фирменной модели Together AI StripedHyena-7B. По меркам ИИ-поэзии это просто шедевр, несмотря на проблемы с рифмой<em>Скриншот: Together AI / Skillbox Media</em>Китайская модель Yi-34B игнорирует просьбу отвечать на русском языке и генерирует пост для соцсетей фигуристки на китайском<em>Скриншот: Together AI / Skillbox Media</em>Для тех, кто ещё не освоил китайский, мы перевели с помощью Google-переводчика текст, сгенерированный Yi-34B. Оказалось, что он написан хорошо<em>Скриншот: Together AI / Skillbox Media</em>Это программный код игры "Угадай число" на Python, который сгенерировала модель Falcon 40B в ответ на запрос по созданию простейшей компьютерной игрушки. Код запустился без проблем<em>Скриншот: Together AI / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через аккаунт Google, LinkedIn или GitHub.</p>
227
Стихотворение в стиле Пушкина от фирменной модели Together AI StripedHyena-7B. По меркам ИИ-поэзии это просто шедевр, несмотря на проблемы с рифмой<em>Скриншот: Together AI / Skillbox Media</em>Китайская модель Yi-34B игнорирует просьбу отвечать на русском языке и генерирует пост для соцсетей фигуристки на китайском<em>Скриншот: Together AI / Skillbox Media</em>Для тех, кто ещё не освоил китайский, мы перевели с помощью Google-переводчика текст, сгенерированный Yi-34B. Оказалось, что он написан хорошо<em>Скриншот: Together AI / Skillbox Media</em>Это программный код игры "Угадай число" на Python, который сгенерировала модель Falcon 40B в ответ на запрос по созданию простейшей компьютерной игрушки. Код запустился без проблем<em>Скриншот: Together AI / Skillbox Media</em><p><strong>Регистрация:</strong>обязательна, через аккаунт Google, LinkedIn или GitHub.</p>
228
<p><strong>Стоимость:</strong>от 0,1 доллара за 1 миллион токенов (<a>подробнее</a>).</p>
228
<p><strong>Стоимость:</strong>от 0,1 доллара за 1 миллион токенов (<a>подробнее</a>).</p>
229
<p><strong>Платные функции:</strong>первые 25 долларов в подарок за регистрацию, далее - пополнение счёта банковской картой.</p>
229
<p><strong>Платные функции:</strong>первые 25 долларов в подарок за регистрацию, далее - пополнение счёта банковской картой.</p>
230
<p><strong>Язык интерфейса:</strong>английский.</p>
230
<p><strong>Язык интерфейса:</strong>английский.</p>
231
<p><strong>Доступен ли с российского IP:</strong>да.</p>
231
<p><strong>Доступен ли с российского IP:</strong>да.</p>
232
<p><strong>LLM под капотом:</strong>около 100 на выбор, включая LLaMA, Mistral, Mixtral, OpenChat, Falcon, Qwen, Yi, StripedHyena.</p>
232
<p><strong>LLM под капотом:</strong>около 100 на выбор, включая LLaMA, Mistral, Mixtral, OpenChat, Falcon, Qwen, Yi, StripedHyena.</p>
233
<p><strong>Дополнительные возможности:</strong>настройка "температуры", длины генерируемого текста, параметров разнообразия Top P, Top K, Repetition Penalty и других.</p>
233
<p><strong>Дополнительные возможности:</strong>настройка "температуры", длины генерируемого текста, параметров разнообразия Top P, Top K, Repetition Penalty и других.</p>
234
<p><a><strong>Узнать подробнее</strong></a></p>
234
<p><a><strong>Узнать подробнее</strong></a></p>
235
<p>В этой статье мы поговорили об основных опенсорсных нейросетях, способных заменить ChatGPT и другие платные чат-боты, актуальные на февраль 2024 года. Их разнообразие позволяет ещё раз подтвердить то, что open source в ИИ продолжает стремительно развиваться.</p>
235
<p>В этой статье мы поговорили об основных опенсорсных нейросетях, способных заменить ChatGPT и другие платные чат-боты, актуальные на февраль 2024 года. Их разнообразие позволяет ещё раз подтвердить то, что open source в ИИ продолжает стремительно развиваться.</p>
236
<p>Но важно сказать, что быстрое развитие сферы открытых LLM приводит к тому, что описанные нами сервисы через некоторое время могут утратить актуальность и перестать работать. Например, так случилось с проектом<a>OpenAssistant</a>, который в прошлом году непременно входил во все подборки подобного рода. Сегодня этот сервис, собрав обратную связь от тысяч добровольных тестировщиков, закончил свою работу.</p>
236
<p>Но важно сказать, что быстрое развитие сферы открытых LLM приводит к тому, что описанные нами сервисы через некоторое время могут утратить актуальность и перестать работать. Например, так случилось с проектом<a>OpenAssistant</a>, который в прошлом году непременно входил во все подборки подобного рода. Сегодня этот сервис, собрав обратную связь от тысяч добровольных тестировщиков, закончил свою работу.</p>
237
<p>Поэтому мы продолжим следить за новинками ИИ-опенсорса и будем рассказывать вам о главных новостях развития искусственного интеллекта в нашем<a>телеграм-канале</a>.</p>
237
<p>Поэтому мы продолжим следить за новинками ИИ-опенсорса и будем рассказывать вам о главных новостях развития искусственного интеллекта в нашем<a>телеграм-канале</a>.</p>
238
<a><p>Нейросети</p>
238
<a><p>Нейросети</p>
239
<ul><li>38+ топ-нейросетей в одном курсе: ChatGPT, Midjourney, StableDiffusion, DALL-E 3, Gen-3, Kling, Luma, Suno и другие</li>
239
<ul><li>38+ топ-нейросетей в одном курсе: ChatGPT, Midjourney, StableDiffusion, DALL-E 3, Gen-3, Kling, Luma, Suno и другие</li>
240
<li>190+ готовых промптов, чтобы быстрее решать задачи</li>
240
<li>190+ готовых промптов, чтобы быстрее решать задачи</li>
241
<li>Практика на реальных кейсах и 10 проектов в портфолио</li>
241
<li>Практика на реальных кейсах и 10 проектов в портфолио</li>
242
<li>Бессрочный доступ с ежемесячными обновлениями</li>
242
<li>Бессрочный доступ с ежемесячными обновлениями</li>
243
</ul><p>Узнать о курсе</p>
243
</ul><p>Узнать о курсе</p>
244
</a><a>Практический курс: "Нейросети" Узнать о курсе</a>
244
</a><a>Практический курс: "Нейросети" Узнать о курсе</a>