0 added
0 removed
Original
2026-01-01
Modified
2026-02-21
1
<p>Фанат Free Software Foundation, использует Linux и недолюбливает Windows. Пишет истории про кодинг и программы на Python. Влюблён в Lisp, но пока что не умеет на нём программировать.</p>
1
<p>Фанат Free Software Foundation, использует Linux и недолюбливает Windows. Пишет истории про кодинг и программы на Python. Влюблён в Lisp, но пока что не умеет на нём программировать.</p>
2
<p>Код<a>выложили</a>на GitHub под собственной NVIDIA Source Code License, которая ограничивает коммерческое применение технологии.</p>
2
<p>Код<a>выложили</a>на GitHub под собственной NVIDIA Source Code License, которая ограничивает коммерческое применение технологии.</p>
3
<p>Помимо исходников в GitHub проекта<a>доступны</a>уже готовые модели, которые тренировались на <a>Flickr-Faces-HQ</a>(FFHQ) - коллекции из 70 тысяч PNG-изображений лиц в разрешении 1024×1024, а также на коллекции лиц животных<a>AFHQv2</a>и портретах классической живописи<a>Metfaces</a>.</p>
3
<p>Помимо исходников в GitHub проекта<a>доступны</a>уже готовые модели, которые тренировались на <a>Flickr-Faces-HQ</a>(FFHQ) - коллекции из 70 тысяч PNG-изображений лиц в разрешении 1024×1024, а также на коллекции лиц животных<a>AFHQv2</a>и портретах классической живописи<a>Metfaces</a>.</p>
4
<p>Хотя изначально система рассчитана на генерацию лиц, её можно дообучить и синтезировать любые объекты - например, пейзажи или машины. Правда, чтобы поиграться с StyleGAN3, понадобится неслабое железо: карта NVIDIA (лучше GPU Tesla V100 или A100), минимум 12 ГБ ОЗУ, установленные PyTorch 1.9 и инструментарий CUDA 11.1+.</p>
4
<p>Хотя изначально система рассчитана на генерацию лиц, её можно дообучить и синтезировать любые объекты - например, пейзажи или машины. Правда, чтобы поиграться с StyleGAN3, понадобится неслабое железо: карта NVIDIA (лучше GPU Tesla V100 или A100), минимум 12 ГБ ОЗУ, установленные PyTorch 1.9 и инструментарий CUDA 11.1+.</p>
5
<p>StyleGAN3 - система машинного обучения на основе GAN (генеративно-состязательной нейронной сети). Она умеет генерировать реалистичные изображения лиц людей. Она написана на Python с использованием фреймворка PyTorch, накладывающего ограничение на использование в коммерческих целях.</p>
5
<p>StyleGAN3 - система машинного обучения на основе GAN (генеративно-состязательной нейронной сети). Она умеет генерировать реалистичные изображения лиц людей. Она написана на Python с использованием фреймворка PyTorch, накладывающего ограничение на использование в коммерческих целях.</p>
6
<p>Вот что думают об этом посетители<a>Reddit</a>и <a>HackerNews</a>:</p>
6
<p>Вот что думают об этом посетители<a>Reddit</a>и <a>HackerNews</a>:</p>
7
<p><strong>avivo:</strong>Мне понравился раздел "Определение искусственных изображений": "Хотя новые подходы к генерации позволяют создавать новые возможности синтеза мультимедиа, они также могут стать новой проблемой для алгоритмов судебной экспертизы искусственного интеллекта для обнаружения и атрибуции синтетических носителей".</p>
7
<p><strong>avivo:</strong>Мне понравился раздел "Определение искусственных изображений": "Хотя новые подходы к генерации позволяют создавать новые возможности синтеза мультимедиа, они также могут стать новой проблемой для алгоритмов судебной экспертизы искусственного интеллекта для обнаружения и атрибуции синтетических носителей".</p>
8
<p><strong>captainmuon:</strong>Я думаю, что "фотографическое доказательство" - это пережиток XX века (да и оно никогда не было идеальным - те, у кого есть ресурсы, всегда могли манипулировать фотографиями).</p>
8
<p><strong>captainmuon:</strong>Я думаю, что "фотографическое доказательство" - это пережиток XX века (да и оно никогда не было идеальным - те, у кого есть ресурсы, всегда могли манипулировать фотографиями).</p>
9
<p>В качестве мысленного эксперимента было бы интересно представить, что происходит, когда мы научимся синтезировать любой образ, который только можно представить! Вначале это вызовет множество проблем (например, с оскорблениями и фейковыми новостями), но я верю, что общество быстро адаптируется к новой реальности. Я думаю, гораздо более серьёзная проблема - это то, что интернет знает о нас слишком много (повсеместная слежка и риск стать преследуемым за свои глупые поступки из прошлого). Так что было бы отлично, если перестали доверять любым изображениям.</p>
9
<p>В качестве мысленного эксперимента было бы интересно представить, что происходит, когда мы научимся синтезировать любой образ, который только можно представить! Вначале это вызовет множество проблем (например, с оскорблениями и фейковыми новостями), но я верю, что общество быстро адаптируется к новой реальности. Я думаю, гораздо более серьёзная проблема - это то, что интернет знает о нас слишком много (повсеместная слежка и риск стать преследуемым за свои глупые поступки из прошлого). Так что было бы отлично, если перестали доверять любым изображениям.</p>
10
Фото:<a>HackerNews</a><p><strong>monkeyofscience:</strong>NVIDIA делала StyleGAN2 на TensorFlow, но 3 - на PyTorch? Кто-нибудь знает, почему?</p>
10
Фото:<a>HackerNews</a><p><strong>monkeyofscience:</strong>NVIDIA делала StyleGAN2 на TensorFlow, но 3 - на PyTorch? Кто-нибудь знает, почему?</p>
11
<p><strong>programmerChilli:</strong>NVIDIA (как и многие другие участники экосистемы исследователей) перешла с tensorflow на pytorch.</p>
11
<p><strong>programmerChilli:</strong>NVIDIA (как и многие другие участники экосистемы исследователей) перешла с tensorflow на pytorch.</p>
12
<p><strong>zimonitrome:</strong>Ждём StyleGAN4 в Jax?</p>
12
<p><strong>zimonitrome:</strong>Ждём StyleGAN4 в Jax?</p>
13
<p><strong>programmerChilli:</strong>Ха-ха, вполне возможно - только если Jax станет таким же популярным, как PyTorch в сфере исследований. Но думаю, до этого<a>ещё далеко</a>. Ну и есть ещё одна проблема - это сама NVIDIA… Нет ни малейшего шанса, что они собираются тренировать свои нейросети на TPU.</p>
13
<p><strong>programmerChilli:</strong>Ха-ха, вполне возможно - только если Jax станет таким же популярным, как PyTorch в сфере исследований. Но думаю, до этого<a>ещё далеко</a>. Ну и есть ещё одна проблема - это сама NVIDIA… Нет ни малейшего шанса, что они собираются тренировать свои нейросети на TPU.</p>
14
Фото:<a>Reddit</a><p><strong>CyberDainz:</strong>"Весь этот проект затратил эквивалент 92 лет работы графического процессора и 225 МВт/ч электроэнергии на внутреннем кластере NVIDIA V100". Чёрт возьми!</p>
14
Фото:<a>Reddit</a><p><strong>CyberDainz:</strong>"Весь этот проект затратил эквивалент 92 лет работы графического процессора и 225 МВт/ч электроэнергии на внутреннем кластере NVIDIA V100". Чёрт возьми!</p>
15
<p><strong>dangnabbitdamnit:</strong>"225 МВт/ч электроэнергии". Да это ж 15 минут работы целого ядерного реактора. И правда, "чёрт возьми".</p>
15
<p><strong>dangnabbitdamnit:</strong>"225 МВт/ч электроэнергии". Да это ж 15 минут работы целого ядерного реактора. И правда, "чёрт возьми".</p>
16
<p><strong>Mefaso:</strong>Это примерно 225 американских домохозяйств в год (они потребляют около 10 МВт/ч в год).</p>
16
<p><strong>Mefaso:</strong>Это примерно 225 американских домохозяйств в год (они потребляют около 10 МВт/ч в год).</p>
17
<a><b>Бесплатный курс по Python ➞</b>Мини-курс для новичков и для опытных кодеров. 4 крутых проекта в портфолио, живое общение со спикером. Кликните и узнайте, чему можно научиться на курсе. Смотреть программу</a>
17
<a><b>Бесплатный курс по Python ➞</b>Мини-курс для новичков и для опытных кодеров. 4 крутых проекта в портфолио, живое общение со спикером. Кликните и узнайте, чему можно научиться на курсе. Смотреть программу</a>