0 added
0 removed
Original
2026-01-01
Modified
2026-02-21
1
<p><a>#статьи</a></p>
1
<p><a>#статьи</a></p>
2
<ul><li>17 окт 2025</li>
2
<ul><li>17 окт 2025</li>
3
<li>0</li>
3
<li>0</li>
4
</ul><p>Личный ChatGPT без подписок, кода и возни с терминалом.</p>
4
</ul><p>Личный ChatGPT без подписок, кода и возни с терминалом.</p>
5
<p>Иллюстрация: Оля Ежак для Skillbox Media</p>
5
<p>Иллюстрация: Оля Ежак для Skillbox Media</p>
6
<p>Автор статей о программировании, технологиях и гаджетах. Пишет код на JavaScript и Python. Любит веб-технологии, модные приложения и магию Apple.</p>
6
<p>Автор статей о программировании, технологиях и гаджетах. Пишет код на JavaScript и Python. Любит веб-технологии, модные приложения и магию Apple.</p>
7
<p>LM Studio - кросс-платформенное приложение для запуска языковых моделей прямо на компьютере. Внешне оно похоже на ChatGPT: тот же чат, где вы можете общаться с ИИ и загружать файлы для анализа. Разница лишь в том, что в LM Studio запросы обрабатываются локально и Сэм Альтман никогда не узнает, над чем вы работаете.</p>
7
<p>LM Studio - кросс-платформенное приложение для запуска языковых моделей прямо на компьютере. Внешне оно похоже на ChatGPT: тот же чат, где вы можете общаться с ИИ и загружать файлы для анализа. Разница лишь в том, что в LM Studio запросы обрабатываются локально и Сэм Альтман никогда не узнает, над чем вы работаете.</p>
8
<p>В этой статье мы установим LM Studio и расскажем, где скачивать и как запускать локальные нейросети. А ещё мы протестируем одну модель в разных сценариях и посмотрим несколько альтернативных сервисов.</p>
8
<p>В этой статье мы установим LM Studio и расскажем, где скачивать и как запускать локальные нейросети. А ещё мы протестируем одну модель в разных сценариях и посмотрим несколько альтернативных сервисов.</p>
9
<p><strong>Содержание</strong></p>
9
<p><strong>Содержание</strong></p>
10
<ul><li><a>Разбираем особенности локальных моделей</a></li>
10
<ul><li><a>Разбираем особенности локальных моделей</a></li>
11
<li><a>Устанавливаем LM Studio и проверяем систему</a></li>
11
<li><a>Устанавливаем LM Studio и проверяем систему</a></li>
12
<li><a>Подключаем первую нейросеть</a></li>
12
<li><a>Подключаем первую нейросеть</a></li>
13
<li><a>Ищем лучшие языковые модели для LM Studio</a></li>
13
<li><a>Ищем лучшие языковые модели для LM Studio</a></li>
14
<li><a>Проверяем LM Studio в повседневных задачах</a></li>
14
<li><a>Проверяем LM Studio в повседневных задачах</a></li>
15
<li><a>Смотрим на альтернативы LM Studio</a></li>
15
<li><a>Смотрим на альтернативы LM Studio</a></li>
16
</ul><p>Главное преимущество локальных языковых моделей связано с приватностью. Все данные остаются на вашем устройстве и никуда не передаются. Это важно при работе с конфиденциальной информацией - например, при анализе финансовых отчётов компании, обработке карт пациентов или подготовке юридических документов, подпадающих под NDA.</p>
16
</ul><p>Главное преимущество локальных языковых моделей связано с приватностью. Все данные остаются на вашем устройстве и никуда не передаются. Это важно при работе с конфиденциальной информацией - например, при анализе финансовых отчётов компании, обработке карт пациентов или подготовке юридических документов, подпадающих под NDA.</p>
17
<p>Среди других преимуществ можно выделить следующие:</p>
17
<p>Среди других преимуществ можно выделить следующие:</p>
18
<ul><li><strong>Настройка под задачи.</strong>Можно адаптировать локальную модель под конкретные нужды: подключить базу знаний, загрузить корпоративные документы или обучить её специализированной терминологии. Так вы получите ассистента, который лучше понимает контекст вашей работы и даёт более точные ответы.</li>
18
<ul><li><strong>Настройка под задачи.</strong>Можно адаптировать локальную модель под конкретные нужды: подключить базу знаний, загрузить корпоративные документы или обучить её специализированной терминологии. Так вы получите ассистента, который лучше понимает контекст вашей работы и даёт более точные ответы.</li>
19
<li><strong>Свобода общения.</strong>У всех облачных нейросетей есть темы, которые нельзя обсуждать. Например, DeepSeek аккуратно обходит вопросы о Тайване и событиях на площади Тяньаньмэнь в 1989 году, а ChatGPT часто отказывается давать медицинские, психологические и финансовые советы. В большинстве локальных моделей такие ограничения можно легко отключить.</li>
19
<li><strong>Свобода общения.</strong>У всех облачных нейросетей есть темы, которые нельзя обсуждать. Например, DeepSeek аккуратно обходит вопросы о Тайване и событиях на площади Тяньаньмэнь в 1989 году, а ChatGPT часто отказывается давать медицинские, психологические и финансовые советы. В большинстве локальных моделей такие ограничения можно легко отключить.</li>
20
<li><strong>Работа без интернета.</strong>Локальные нейросети выручают в удалённых местах или при нестабильном соединении - в самолёте, на даче без Wi-Fi или в зонах с плохим покрытием.</li>
20
<li><strong>Работа без интернета.</strong>Локальные нейросети выручают в удалённых местах или при нестабильном соединении - в самолёте, на даче без Wi-Fi или в зонах с плохим покрытием.</li>
21
<li><strong>Экономия средств.</strong>Локальные модели не требуют платной подписки и позволяют обрабатывать неограниченное количество запросов. При этом всё работает без очередей, которые возникают в бесплатных версиях облачных сервисов.</li>
21
<li><strong>Экономия средств.</strong>Локальные модели не требуют платной подписки и позволяют обрабатывать неограниченное количество запросов. При этом всё работает без очередей, которые возникают в бесплатных версиях облачных сервисов.</li>
22
</ul><p>Из основных недостатков мы бы выделили сильную зависимость от ресурсов компьютера. Например, для работы с моделями на 70 миллиардов параметров вам нужно не менее 64 ГБ оперативной памяти и видеокарта с большим объёмом VRAM. Даже 32 ГБ ОЗУ может быть недостаточно для локального запуска нейросетей уровня ChatGPT - такие модели будут тормозить или вообще не запустятся.</p>
22
</ul><p>Из основных недостатков мы бы выделили сильную зависимость от ресурсов компьютера. Например, для работы с моделями на 70 миллиардов параметров вам нужно не менее 64 ГБ оперативной памяти и видеокарта с большим объёмом VRAM. Даже 32 ГБ ОЗУ может быть недостаточно для локального запуска нейросетей уровня ChatGPT - такие модели будут тормозить или вообще не запустятся.</p>
23
<p>Кроме того, локальные нейросети не подключены к интернету. Поэтому они не могут искать актуальную информацию и без обновлений будут выдумывать данные или ссылаться на устаревшие.</p>
23
<p>Кроме того, локальные нейросети не подключены к интернету. Поэтому они не могут искать актуальную информацию и без обновлений будут выдумывать данные или ссылаться на устаревшие.</p>
24
<p>Перейдите на сайт<a>lmstudio.ai</a>и нажмите на кнопку<strong>Download</strong>. Мы установим LM Studio на MacBook Pro с чипом M1 Pro и 16 ГБ ОЗУ.</p>
24
<p>Перейдите на сайт<a>lmstudio.ai</a>и нажмите на кнопку<strong>Download</strong>. Мы установим LM Studio на MacBook Pro с чипом M1 Pro и 16 ГБ ОЗУ.</p>
25
<p>Если на главной странице сайта ваша операционная система не определилась автоматически, то перейдите в раздел Download. В нём выберите ОС, укажите архитектуру процессора и скачайте программу.</p>
25
<p>Если на главной странице сайта ваша операционная система не определилась автоматически, то перейдите в раздел Download. В нём выберите ОС, укажите архитектуру процессора и скачайте программу.</p>
26
<em>Скриншот:<a>LM Studio</a>/ Skillbox Media</em><p>После запустите скачанный файл и установите его как обычную программу. Например, на macOS нужно перенести иконку LM Studio в папку Applications, а на Windows - пройти шаги, которые предложит мастер установки.</p>
26
<em>Скриншот:<a>LM Studio</a>/ Skillbox Media</em><p>После запустите скачанный файл и установите его как обычную программу. Например, на macOS нужно перенести иконку LM Studio в папку Applications, а на Windows - пройти шаги, которые предложит мастер установки.</p>
27
<p>Если всё получилось, то после запуска вы увидите главный экран приложения - он напоминает интерфейсы ChatGPT, DeepSeek, Grok и других сервисов. В центре появится маленький фиолетовый робот с надписью LM STUDIO, а ниже - пустое окно с полем Send a message to the model…. Именно сюда вы будете вводить свои запросы к модели.</p>
27
<p>Если всё получилось, то после запуска вы увидите главный экран приложения - он напоминает интерфейсы ChatGPT, DeepSeek, Grok и других сервисов. В центре появится маленький фиолетовый робот с надписью LM STUDIO, а ниже - пустое окно с полем Send a message to the model…. Именно сюда вы будете вводить свои запросы к модели.</p>
28
<em>Скриншот:<a>LM Studio</a>/ Skillbox Media</em><p>Однако, если LM Studio не запускается, скорее всего, ваше устройство не соответствует рекомендованным<a>системным требованиям</a>:</p>
28
<em>Скриншот:<a>LM Studio</a>/ Skillbox Media</em><p>Однако, если LM Studio не запускается, скорее всего, ваше устройство не соответствует рекомендованным<a>системным требованиям</a>:</p>
29
<strong></strong><strong>macOS</strong><strong>Windows</strong><strong>Linux</strong><strong>Процессор</strong>Чипы Apple Silicon (M1-M4) Любой современный процессор - Intel, AMD или ARM (например, Snapdragon X Elite) 64-битный Intel, AMD или ARM<strong>Система</strong>macOS 13.4 и новее, для MLX - с версии 14.0 Windows 10 / 11 Ubuntu 20.04 и новее<strong>Оперативная память</strong>От 16 ГБ, на 8 ГБ пойдут только лёгкие модели От 16 ГБ От 16 ГБ<strong>Видеокарта</strong>Используется общая память чипа Желательна видеокарта с 4 ГБ VRAM Зависит от конфигурации<strong>Особенности</strong>Не поддерживаются старые Mac с Intel Без видеокарты всё работает медленно Запускается в формате AppImage, без установки в систему<p>Пара слов о системных требованиях. Недавно мы <a>готовили статью о локальных нейросетях</a>и попробовали установить LM Studio на MacBook с чипом Intel и на Linux Mint. На MacBook программа работала, хотя официально не поддерживается. А вот на Linux она без проблем установилась, но так и не запустилась. С чем это связано - непонятно.</p>
29
<strong></strong><strong>macOS</strong><strong>Windows</strong><strong>Linux</strong><strong>Процессор</strong>Чипы Apple Silicon (M1-M4) Любой современный процессор - Intel, AMD или ARM (например, Snapdragon X Elite) 64-битный Intel, AMD или ARM<strong>Система</strong>macOS 13.4 и новее, для MLX - с версии 14.0 Windows 10 / 11 Ubuntu 20.04 и новее<strong>Оперативная память</strong>От 16 ГБ, на 8 ГБ пойдут только лёгкие модели От 16 ГБ От 16 ГБ<strong>Видеокарта</strong>Используется общая память чипа Желательна видеокарта с 4 ГБ VRAM Зависит от конфигурации<strong>Особенности</strong>Не поддерживаются старые Mac с Intel Без видеокарты всё работает медленно Запускается в формате AppImage, без установки в систему<p>Пара слов о системных требованиях. Недавно мы <a>готовили статью о локальных нейросетях</a>и попробовали установить LM Studio на MacBook с чипом Intel и на Linux Mint. На MacBook программа работала, хотя официально не поддерживается. А вот на Linux она без проблем установилась, но так и не запустилась. С чем это связано - непонятно.</p>
30
<p>Из коробки LM Studio - это просто оболочка без встроенных нейросетей. Поэтому если сразу после установки вы введёте запрос в чат, то ничего не произойдёт. Чтобы начать работу, на левой панели нажмите на значок поиска - вы попадёте в раздел<strong>Discover</strong>. В нём вы можете просмотреть список моделей с открытым исходным кодом и загрузить подходящую. Проще говоря, это маркетплейс нейросетей.</p>
30
<p>Из коробки LM Studio - это просто оболочка без встроенных нейросетей. Поэтому если сразу после установки вы введёте запрос в чат, то ничего не произойдёт. Чтобы начать работу, на левой панели нажмите на значок поиска - вы попадёте в раздел<strong>Discover</strong>. В нём вы можете просмотреть список моделей с открытым исходным кодом и загрузить подходящую. Проще говоря, это маркетплейс нейросетей.</p>
31
Раздел Discover в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>Для примера установим<a>Qwen3 4B Thinking 2507</a> - компактную рассуждающую языковую модель от команды Qwen. Она поддерживает расширенный контекст до 256 000 токенов и подходит для многих повседневных задач: генерации и редактирования текста, написания кода, объяснения решений и ответов на вопросы. Для запуска нам понадобится 4 ГБ оперативной памяти и 3 ГБ места на диске.</p>
31
Раздел Discover в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>Для примера установим<a>Qwen3 4B Thinking 2507</a> - компактную рассуждающую языковую модель от команды Qwen. Она поддерживает расширенный контекст до 256 000 токенов и подходит для многих повседневных задач: генерации и редактирования текста, написания кода, объяснения решений и ответов на вопросы. Для запуска нам понадобится 4 ГБ оперативной памяти и 3 ГБ места на диске.</p>
32
<p>Введите в поиске Qwen3-4b-thinking-2507. Если у вас macOS, то в списке версий выберите формат MLX, для других ОС - GGUF. Затем нажмите<strong>Download</strong>, дождитесь загрузки и кликните на <strong>Use in New Chat</strong>.</p>
32
<p>Введите в поиске Qwen3-4b-thinking-2507. Если у вас macOS, то в списке версий выберите формат MLX, для других ОС - GGUF. Затем нажмите<strong>Download</strong>, дождитесь загрузки и кликните на <strong>Use in New Chat</strong>.</p>
33
Устанавливаем локальную нейросеть для macOS в формате MLX<em>Скриншот: LM Studio / Skillbox Media</em><p>После этого откроется окно чата, где вы сможете ввести запрос для нейросети. Мы установили рассуждающую модель, поэтому перед генерацией ответа она некоторое время будет анализировать ваш запрос и подбирать оптимальный вариант. Также в чате будет отображаться цепочка рассуждений, и по ней вы сможете понять, почему нейросеть выбрала такое решение или где могла ошибиться.</p>
33
Устанавливаем локальную нейросеть для macOS в формате MLX<em>Скриншот: LM Studio / Skillbox Media</em><p>После этого откроется окно чата, где вы сможете ввести запрос для нейросети. Мы установили рассуждающую модель, поэтому перед генерацией ответа она некоторое время будет анализировать ваш запрос и подбирать оптимальный вариант. Также в чате будет отображаться цепочка рассуждений, и по ней вы сможете понять, почему нейросеть выбрала такое решение или где могла ошибиться.</p>
34
<p>Имейте в виду, что скорость ответов зависит от производительности компьютера. Например, на Windows, помимо достаточного объёма оперативной памяти, вам желательно использовать производительную видеокарту - LM Studio выгрузит в неё часть слоёв модели, чтобы ускорить генерацию. Если видеокарты нет или у неё недостаточно памяти, то вся нагрузка ляжет на процессор, и это замедлит процесс.</p>
34
<p>Имейте в виду, что скорость ответов зависит от производительности компьютера. Например, на Windows, помимо достаточного объёма оперативной памяти, вам желательно использовать производительную видеокарту - LM Studio выгрузит в неё часть слоёв модели, чтобы ускорить генерацию. Если видеокарты нет или у неё недостаточно памяти, то вся нагрузка ляжет на процессор, и это замедлит процесс.</p>
35
Пример ответа локальной модели Qwen3 4B Thinking 2507 в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>Помимо поиска, на левой боковой панели находятся значки папки и терминала. Значок с папкой открывает раздел My Models - здесь отображаются все языковые модели, которые сохранены на компьютере. Если вы выберете любую из них, то увидите имя разработчика, количество параметров, тип квантизации и размер файла. А если модель больше не нужна, то отсюда её можно удалить.</p>
35
Пример ответа локальной модели Qwen3 4B Thinking 2507 в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>Помимо поиска, на левой боковой панели находятся значки папки и терминала. Значок с папкой открывает раздел My Models - здесь отображаются все языковые модели, которые сохранены на компьютере. Если вы выберете любую из них, то увидите имя разработчика, количество параметров, тип квантизации и размер файла. А если модель больше не нужна, то отсюда её можно удалить.</p>
36
Раздел My Model в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>Значок с терминалом открывает раздел Developer. В нём вы можете просмотреть параметры запущенной модели, изучить логи и запустить сервер для подключения нейросети к другим приложениям. Также в этом разделе доступны настройки моделей: вы можете задать системный промпт, управлять инференсом и менять длину контекста.</p>
36
Раздел My Model в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>Значок с терминалом открывает раздел Developer. В нём вы можете просмотреть параметры запущенной модели, изучить логи и запустить сервер для подключения нейросети к другим приложениям. Также в этом разделе доступны настройки моделей: вы можете задать системный промпт, управлять инференсом и менять длину контекста.</p>
37
Раздел Developer в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>В LM Studio вы можете запускать десятки языковых моделей, и ниже мы добавим несколько популярных вариантов для разных сценариев:</p>
37
Раздел Developer в LM Studio<em>Скриншот: LM Studio / Skillbox Media</em><p>В LM Studio вы можете запускать десятки языковых моделей, и ниже мы добавим несколько популярных вариантов для разных сценариев:</p>
38
<ul><li><a>gpt-oss-20b</a> - открытая модель от OpenAI с 20 миллиардами параметров. Будет работать на обычных ПК с 16 ГБ оперативной памяти и подойдёт тем, кто привык к стилю ответов ChatGPT.</li>
38
<ul><li><a>gpt-oss-20b</a> - открытая модель от OpenAI с 20 миллиардами параметров. Будет работать на обычных ПК с 16 ГБ оперативной памяти и подойдёт тем, кто привык к стилю ответов ChatGPT.</li>
39
<li><a>gpt-oss-120b</a> - более мощная версия со 120 миллиардами параметров, которая справляется со сложными задачами, рассуждениями и анализом больших объёмов информации. Для полноценного запуска нужна видеокарта с 80 ГБ VRAM.</li>
39
<li><a>gpt-oss-120b</a> - более мощная версия со 120 миллиардами параметров, которая справляется со сложными задачами, рассуждениями и анализом больших объёмов информации. Для полноценного запуска нужна видеокарта с 80 ГБ VRAM.</li>
40
<li><a>qwen2.5-coder-14b</a> - модель для генерации кода и подготовки технической документации. Запускается на видеокартах с 8-12 ГБ видеопамяти и на компьютерах с 16 ГБ оперативной памяти.</li>
40
<li><a>qwen2.5-coder-14b</a> - модель для генерации кода и подготовки технической документации. Запускается на видеокартах с 8-12 ГБ видеопамяти и на компьютерах с 16 ГБ оперативной памяти.</li>
41
<li><a>gemma-3-12b</a> - умеет генерировать текст и код, распознавать изображения и отвечать на вопросы. Для версии с 12 миллиардами параметров потребуется около 32 ГБ оперативной памяти. Есть и другие варианты: gemma-3-1b (4 ГБ), gemma-3-4b (8 ГБ) и gemma-3-27b (64 ГБ). Если вы будете использовать сжатые версии, то последнюю модель можно запустить на 16 ГБ ОЗУ.</li>
41
<li><a>gemma-3-12b</a> - умеет генерировать текст и код, распознавать изображения и отвечать на вопросы. Для версии с 12 миллиардами параметров потребуется около 32 ГБ оперативной памяти. Есть и другие варианты: gemma-3-1b (4 ГБ), gemma-3-4b (8 ГБ) и gemma-3-27b (64 ГБ). Если вы будете использовать сжатые версии, то последнюю модель можно запустить на 16 ГБ ОЗУ.</li>
42
<li><a>phi-4-mini-reasoning</a> - это компактная рассуждающая модель от Microsoft с 3,8 миллиарда параметров и расширенным контекстным окном. Она хорошо справляется с логическими рассуждениями и задачами, где нужно что-то спланировать. Для запуска вам потребуется не менее 16 ГБ оперативной памяти.</li>
42
<li><a>phi-4-mini-reasoning</a> - это компактная рассуждающая модель от Microsoft с 3,8 миллиарда параметров и расширенным контекстным окном. Она хорошо справляется с логическими рассуждениями и задачами, где нужно что-то спланировать. Для запуска вам потребуется не менее 16 ГБ оперативной памяти.</li>
43
</ul><p>Локальные модели удобнее всего искать не через поиск в LM Studio, а на портале<a>Hugging Face</a> - это своеобразный нейросетевой GitHub, где собраны тысячи моделей с открытым исходным кодом. В каждом репозитории есть сама нейросеть, описание её возможностей, инструкции по запуску, дообучению и настройке под разные задачи.</p>
43
</ul><p>Локальные модели удобнее всего искать не через поиск в LM Studio, а на портале<a>Hugging Face</a> - это своеобразный нейросетевой GitHub, где собраны тысячи моделей с открытым исходным кодом. В каждом репозитории есть сама нейросеть, описание её возможностей, инструкции по запуску, дообучению и настройке под разные задачи.</p>
44
<p>На сайте добавлены фильтры, через которые удобно искать модели. В них вы можете выбрать число параметров, задачи, поддерживаемые языки, адаптацию под конкретные приложения для запуска и оптимизацию под требования провайдеров. А дальше вы просто заходите в LM Studio и через поиск находите подходящую нейросеть.</p>
44
<p>На сайте добавлены фильтры, через которые удобно искать модели. В них вы можете выбрать число параметров, задачи, поддерживаемые языки, адаптацию под конкретные приложения для запуска и оптимизацию под требования провайдеров. А дальше вы просто заходите в LM Studio и через поиск находите подходящую нейросеть.</p>
45
Окно фильтра и список моделей на Hugging Face<em>Скриншот:<a>Hugging Face</a>/ Skillbox Media</em><p>Качество ответов локальных моделей сильно зависит от количества параметров нейросети - чем их больше, тем точнее и лучше сгенерированный результат. В примерах ниже мы протестируем установленную нейросеть Qwen 3 с 4 миллиардами параметров. Посмотрим, что выйдет и как она справится с программированием, поиском фактов, созданием текста и решением математических задач.</p>
45
Окно фильтра и список моделей на Hugging Face<em>Скриншот:<a>Hugging Face</a>/ Skillbox Media</em><p>Качество ответов локальных моделей сильно зависит от количества параметров нейросети - чем их больше, тем точнее и лучше сгенерированный результат. В примерах ниже мы протестируем установленную нейросеть Qwen 3 с 4 миллиардами параметров. Посмотрим, что выйдет и как она справится с программированием, поиском фактов, созданием текста и решением математических задач.</p>
46
<p>Сначала мы попросили нейросеть создать скрипт на Python, который выводит на экран английский алфавит в формате Aa, Bb, Cc, Dd и так далее. Получился вполне рабочий код, который справляется с задачей:</p>
46
<p>Сначала мы попросили нейросеть создать скрипт на Python, который выводит на экран английский алфавит в формате Aa, Bb, Cc, Dd и так далее. Получился вполне рабочий код, который справляется с задачей:</p>
47
<em>Скриншот: LM Studio / Skillbox Media</em><p>Мы усложнили задачу и попросили Qwen исправить ошибку в коде. Нейросеть проанализировала проблему, предложила исправленный вариант и объяснила, почему функция не работала. Вот наш промпт:</p>
47
<em>Скриншот: LM Studio / Skillbox Media</em><p>Мы усложнили задачу и попросили Qwen исправить ошибку в коде. Нейросеть проанализировала проблему, предложила исправленный вариант и объяснила, почему функция не работала. Вот наш промпт:</p>
48
<p>Функция должна возвращать новый список с добавленным элементом. Почему же при нескольких вызовах элементы накапливаются? Найди и исправь ошибку.</p>
48
<p>Функция должна возвращать новый список с добавленным элементом. Почему же при нескольких вызовах элементы накапливаются? Найди и исправь ошибку.</p>
49
def append_item(item, items=[]): items.append(item) return items print(append_item("a")) # ожидаешь: ["a"] print(append_item("b")) # ожидаешь: ["b"], а что получится? print(append_item("c")) # ожидаешь: ["c"], а что получится?<p>Ниже публикуем ответ локалочки:</p>
49
def append_item(item, items=[]): items.append(item) return items print(append_item("a")) # ожидаешь: ["a"] print(append_item("b")) # ожидаешь: ["b"], а что получится? print(append_item("c")) # ожидаешь: ["c"], а что получится?<p>Ниже публикуем ответ локалочки:</p>
50
<p>Исходная ошибка в том, что список items=[] используется как ссылка по умолчанию. Это означает, что при каждом вызове функции происходит изменение одного и того же списка, а не создания нового. В результате при последующих вызовах элементы накапливаются.</p>
50
<p>Исходная ошибка в том, что список items=[] используется как ссылка по умолчанию. Это означает, что при каждом вызове функции происходит изменение одного и того же списка, а не создания нового. В результате при последующих вызовах элементы накапливаются.</p>
51
<p><strong>Исправленный код:</strong></p>
51
<p><strong>Исправленный код:</strong></p>
52
def append_item(item, items=None): if items is None: items = [] items.append(item) return items<p><strong>Объяснение:</strong></p>
52
def append_item(item, items=None): if items is None: items = [] items.append(item) return items<p><strong>Объяснение:</strong></p>
53
<ul><li>При первом вызове append_item ("a") создаётся новый пустой список [], затем добавляется "a", возвращается ["a"].</li>
53
<ul><li>При первом вызове append_item ("a") создаётся новый пустой список [], затем добавляется "a", возвращается ["a"].</li>
54
<li>При втором вызове append_item ("b") параметр items по умолчанию None проверяется, и создаётся новый пустой список [], затем добавляется "b", возвращается ["b"].</li>
54
<li>При втором вызове append_item ("b") параметр items по умолчанию None проверяется, и создаётся новый пустой список [], затем добавляется "b", возвращается ["b"].</li>
55
<li>При третьем вызове append_item ("c") аналогично создаётся новый список [] и добавляется "c".</li>
55
<li>При третьем вызове append_item ("c") аналогично создаётся новый список [] и добавляется "c".</li>
56
</ul><p>Таким образом, функция теперь возвращает новый список с каждым вызовом, а не накапливает элементы.</p>
56
</ul><p>Таким образом, функция теперь возвращает новый список с каждым вызовом, а не накапливает элементы.</p>
57
<p><strong>Пример работы:</strong></p>
57
<p><strong>Пример работы:</strong></p>
58
print(append_item("a")) # ["a"] print(append_item("b")) # ["b"] print(append_item("c")) # ["c"]<p>У нашей Qwen 3 нет доступа к веб-поиску, поэтому она способна выдумывать события и искажать информацию. Мы спросили, в каких цветах Apple выпустила iPhone 17 Pro Max. В ответ нейросеть заявила, что это будущая модель, поэтому данных о дизайне у неё пока нет.</p>
58
print(append_item("a")) # ["a"] print(append_item("b")) # ["b"] print(append_item("c")) # ["c"]<p>У нашей Qwen 3 нет доступа к веб-поиску, поэтому она способна выдумывать события и искажать информацию. Мы спросили, в каких цветах Apple выпустила iPhone 17 Pro Max. В ответ нейросеть заявила, что это будущая модель, поэтому данных о дизайне у неё пока нет.</p>
59
<em>Скриншот: LM Studio / Skillbox Media</em><p>ChatGPT без проблем отвечает на этот вопрос и приводит в качестве источника официальный сайт Apple. Не спорим - веб-поиск важен.</p>
59
<em>Скриншот: LM Studio / Skillbox Media</em><p>ChatGPT без проблем отвечает на этот вопрос и приводит в качестве источника официальный сайт Apple. Не спорим - веб-поиск важен.</p>
60
<em>Скриншот: LM Studio / Skillbox Media</em><p>Для теста мы попросили Qwen 3 сгенерировать поздравление с днём рождения для вымышленного друга Артёма. Чтобы усложнить задачу, мы указали, что в тексте должны быть креативные упоминания "Формулы-1" и программирования - увлечений именинника. Текст вы видите ниже, а нам остаётся лишь вручить его какому-нибудь Артёму:</p>
60
<em>Скриншот: LM Studio / Skillbox Media</em><p>Для теста мы попросили Qwen 3 сгенерировать поздравление с днём рождения для вымышленного друга Артёма. Чтобы усложнить задачу, мы указали, что в тексте должны быть креативные упоминания "Формулы-1" и программирования - увлечений именинника. Текст вы видите ниже, а нам остаётся лишь вручить его какому-нибудь Артёму:</p>
61
<em>Скриншот: LM Studio / Skillbox Media</em><p>Возьмём сложное выражение и попросим нейросеть его упростить:</p>
61
<em>Скриншот: LM Studio / Skillbox Media</em><p>Возьмём сложное выражение и попросим нейросеть его упростить:</p>
62
<p>К сожалению, Qwen 3 не умеет распознавать изображения. Поэтому мы конвертировали запись в LaTeX-формат и отправили её в таком виде: \sqrt{(2\sqrt{11}-3\sqrt{5})^{2}}+\frac{2}{4\sqrt{5}+9}+\sqrt{44}-18.</p>
62
<p>К сожалению, Qwen 3 не умеет распознавать изображения. Поэтому мы конвертировали запись в LaTeX-формат и отправили её в таком виде: \sqrt{(2\sqrt{11}-3\sqrt{5})^{2}}+\frac{2}{4\sqrt{5}+9}+\sqrt{44}-18.</p>
63
<p>Языковая модель обработала запрос за 36 секунд, подробно расписала решение и получила правильный ответ. Посмотрите результат:</p>
63
<p>Языковая модель обработала запрос за 36 секунд, подробно расписала решение и получила правильный ответ. Посмотрите результат:</p>
64
<em>Скриншот: LM Studio / Skillbox Media</em><p>В этом разделе мы хотели сделать краткий обзор нескольких бесплатных кросс-платформенных приложений, которые по функциям похожи на LM Studio. По описанию нам подошли<a>Ollama</a>,<a>GPT4All</a>и <a>Jan</a>.</p>
64
<em>Скриншот: LM Studio / Skillbox Media</em><p>В этом разделе мы хотели сделать краткий обзор нескольких бесплатных кросс-платформенных приложений, которые по функциям похожи на LM Studio. По описанию нам подошли<a>Ollama</a>,<a>GPT4All</a>и <a>Jan</a>.</p>
65
<p>Мы установили эти программы и планировали загрузить в каждую из них модель Qwen3 4B Thinking 2507. Затем мы задали бы всем один вопрос: "Расскажи, чем ты лучше LM Studio?" - и показали результаты.</p>
65
<p>Мы установили эти программы и планировали загрузить в каждую из них модель Qwen3 4B Thinking 2507. Затем мы задали бы всем один вопрос: "Расскажи, чем ты лучше LM Studio?" - и показали результаты.</p>
66
<p>Однако ничего не вышло. Мы без проблем установили Qwen 3 в GPT4All и Jan, но обе программы выдавали ошибку при попытке получить ответ. В каталоге Ollama нужной модели не оказалось, поэтому мы скачали базовую gemma3:4b, которая зависла при первом запуске.</p>
66
<p>Однако ничего не вышло. Мы без проблем установили Qwen 3 в GPT4All и Jan, но обе программы выдавали ошибку при попытке получить ответ. В каталоге Ollama нужной модели не оказалось, поэтому мы скачали базовую gemma3:4b, которая зависла при первом запуске.</p>
67
<p>Никаких выводов из этого мы не делаем. Возможно, стоит глубже разобраться в настройках каждого сервиса, перезапустить их или попробовать другие модели. Если у вас будет желание - обязательно поэкспериментируйте. Но, если хочется начать без лишних сложностей, - в конце 2025 года мы можем порекомендовать только LM Studio.</p>
67
<p>Никаких выводов из этого мы не делаем. Возможно, стоит глубже разобраться в настройках каждого сервиса, перезапустить их или попробовать другие модели. Если у вас будет желание - обязательно поэкспериментируйте. Но, если хочется начать без лишних сложностей, - в конце 2025 года мы можем порекомендовать только LM Studio.</p>
68
Слева - Jan, справа вверху - GPT4All, справа внизу - Ollama. По идее, ими пользоваться так же просто, как и LM Studio. Но, видимо, не сегодня<em>Скриншот: Jan / GPT4All / Ollama / Skillbox Media</em><a><p>Нейросети</p>
68
Слева - Jan, справа вверху - GPT4All, справа внизу - Ollama. По идее, ими пользоваться так же просто, как и LM Studio. Но, видимо, не сегодня<em>Скриншот: Jan / GPT4All / Ollama / Skillbox Media</em><a><p>Нейросети</p>
69
<ul><li>38+ топ-нейросетей в одном курсе: ChatGPT, Midjourney, StableDiffusion, DALL-E 3, Gen-3, Kling, Luma, Suno и другие</li>
69
<ul><li>38+ топ-нейросетей в одном курсе: ChatGPT, Midjourney, StableDiffusion, DALL-E 3, Gen-3, Kling, Luma, Suno и другие</li>
70
<li>190+ готовых промптов, чтобы быстрее решать задачи</li>
70
<li>190+ готовых промптов, чтобы быстрее решать задачи</li>
71
<li>Практика на реальных кейсах и 10 проектов в портфолио</li>
71
<li>Практика на реальных кейсах и 10 проектов в портфолио</li>
72
<li>Бессрочный доступ с ежемесячными обновлениями</li>
72
<li>Бессрочный доступ с ежемесячными обновлениями</li>
73
</ul><p>Узнать о курсе</p>
73
</ul><p>Узнать о курсе</p>
74
</a><a>Практический курс: "Нейросети" Узнать о курсе</a>
74
</a><a>Практический курс: "Нейросети" Узнать о курсе</a>