AI лицевая анимация — LiveLink синхронизация NVIDIA Audio2Face и Unreal Engine Metahuman.
https://youtu.be/tgq9m1HgASE
https://youtu.be/tgq9m1HgASE
YouTube
AI лицевая анимация — LiveLink синхронизация NVIDIA Audio2Face и Unreal Engine Metahuman
В этому уроке я расскажу как сделать синхронизации в реальному времени с помощью Omniverse Audio2Face и UE5 Metahuman.
Расширенный урок на Boosty стал неактуален, вышло очень много разнообразных, более новых инструментов.
00:00 - Интро
00:09 - Описание…
Расширенный урок на Boosty стал неактуален, вышло очень много разнообразных, более новых инструментов.
00:00 - Интро
00:09 - Описание…
ChatGPT и Nvidia Omniverse — видео и пост на Medium (ссылка в первом комментарии) о том, как инструменты генеративного ИИ, включая ChatGPT, можно использовать для создания 3D-контента, чтобы сократить количество ручных задач и помочь авторам сосредоточиться на приятных аспектах своей работы.
https://www.youtube.com/watch?v=mFazJsjUUSo
https://www.youtube.com/watch?v=mFazJsjUUSo
YouTube
Using ChatGPT and GPT-4 to Generate 3D Content in Omniverse
See how APIs for GPT-4 and NVIDIA DeepSearch were combined to rapidly generate 3D objects with simple, text-based prompts in this experimental project from the Omniverse team.
To experiment with the AI Room Generator Extension Sample in Omniverse, access…
To experiment with the AI Room Generator Extension Sample in Omniverse, access…
This media is not supported in your browser
VIEW IN TELEGRAM
Resolume 7.15 — превью обновления, в котором наконец-то добавят возможность сворачивать слои!
TDDiffusion API & Seed travel — обновление компонента для генерации изображений в Stable Diffusion (A1111) и TouchDesigner. В версии 2.0.4 добавлена поддержка скрипта Seed travel.
Seed travel позволяет создавать анимации с интерполяцией между сидами. В комментариях пример видео и интерфейса.
https://github.com/olegchomp/TDDiffusionAPI/releases/
Seed travel позволяет создавать анимации с интерполяцией между сидами. В комментариях пример видео и интерфейса.
https://github.com/olegchomp/TDDiffusionAPI/releases/
TDDiffusion API & Upscale — обновление компонента для генерации изображений в Stable Diffusion (A1111) и TouchDesigner. В версии 2.0.6 добавлено:
- Upscale. AI увеличение размеров изображения.
- Random seed. Генерация случайного сида при каждой генерации картинки.
- Controlnet detect. Возможность использовать модули без генерации самого изображения. Например сгенерировать карту глубины из любого TOP.
https://github.com/olegchomp/TDDiffusionAPI/releases/tag/v.2.0.6
- Upscale. AI увеличение размеров изображения.
- Random seed. Генерация случайного сида при каждой генерации картинки.
- Controlnet detect. Возможность использовать модули без генерации самого изображения. Например сгенерировать карту глубины из любого TOP.
https://github.com/olegchomp/TDDiffusionAPI/releases/tag/v.2.0.6
GitHub
Release TDDiffusionAPI-v.2.0.6 · olegchomp/TDDiffusionAPI
fixed not finding output path
fixed lexica not searching for images
updated seed travel to latest version
added random seed toggle
added controlnet separate detect image function
added Upscale func...
fixed lexica not searching for images
updated seed travel to latest version
added random seed toggle
added controlnet separate detect image function
added Upscale func...
VJ SCHOOL
TDDiffusion API & Upscale — обновление компонента для генерации изображений в Stable Diffusion (A1111) и TouchDesigner. В версии 2.0.6 добавлено: - Upscale. AI увеличение размеров изображения. - Random seed. Генерация случайного сида при каждой генерации картинки.…
Paisley Skies — видео сгенерированное художником NEWP Visuals с помощью TDDiffusion API в TouchDesigner. Автор немного рассказал про пайплайн в дискорде, он использует несколько слоев и смешивает их через feedback.
Если честно не ожидал, что можно прийти к такой интерполяции в TD с помощью feedback. Визуально очень напоминает Deforum конечно.
https://www.youtube.com/watch?v=8M9TxIEws3o
Если честно не ожидал, что можно прийти к такой интерполяции в TD с помощью feedback. Визуально очень напоминает Deforum конечно.
https://www.youtube.com/watch?v=8M9TxIEws3o
YouTube
Paisley Skies
A trip through the multiverse.
One of many videos of this new technique I'm developing around Stable Diffusion using a feedback loop in Touch Designer around the TDDiffusionAPI leveraging Automatic1111 API.
Prompt: a realistic painting of a planet with…
One of many videos of this new technique I'm developing around Stable Diffusion using a feedback loop in Touch Designer around the TDDiffusionAPI leveraging Automatic1111 API.
Prompt: a realistic painting of a planet with…
Media is too big
VIEW IN TELEGRAM
Track-Anything — инструмент для трекинга и сегментации объектов в видео. Для создания маски используется AI модель Segment Anything (SAM). Также на Github есть пример с Inpaint моделью, для удаления объектов с видео.
https://github.com/gaomingqi/Track-Anything
https://github.com/gaomingqi/Track-Anything
Resolume 7.15 — обновление в котором добавлено сворачивание слоев и групп, новые эффекты Dilate, Sharpen, Kuwahara, а также встроенный блокнот.
https://m.youtube.com/watch?v=X0_3zd-MKPQ
https://m.youtube.com/watch?v=X0_3zd-MKPQ
YouTube
Resolume 7.15 Release Video
Fold them layers baby!
Resolume: https://resolume.com/
Footage Used
Modul02 https://resolume.com/footage/modul02
Pyrite https://resolume.com/footage/pyrite
Wing Commander https://resolume.com/footage/wingcommander
IsoBlocks https://resolume.com/footage/isoblocks…
Resolume: https://resolume.com/
Footage Used
Modul02 https://resolume.com/footage/modul02
Pyrite https://resolume.com/footage/pyrite
Wing Commander https://resolume.com/footage/wingcommander
IsoBlocks https://resolume.com/footage/isoblocks…
This media is not supported in your browser
VIEW IN TELEGRAM
Stable Diffusion & AITemplate — фреймворк ускоряющий генерацию в два раза. При использовании PyTorch моделей с параметрами 512x512, 20 steps, 15 cfg, 0.6 denoising strength скорость обычно около 1.5-3 секунд на генерацию, а с AITemplate в среднем 0.7-0.9 секунд. И это очень круто, не риал-тайм конечно, но все равно :)
Осталось разобраться с ControlNet и попробовать улучшить качество, в примере SD 1.5 от Runway ML.
Осталось разобраться с ControlNet и попробовать улучшить качество, в примере SD 1.5 от Runway ML.
VJ SCHOOL
Stable Diffusion & AITemplate — фреймворк ускоряющий генерацию в два раза. При использовании PyTorch моделей с параметрами 512x512, 20 steps, 15 cfg, 0.6 denoising strength скорость обычно около 1.5-3 секунд на генерацию, а с AITemplate в среднем 0.7-0.9 секунд.…
Media is too big
VIEW IN TELEGRAM
А вот и Delibarate модель, с небольшим feedback в TouchDesigner
This media is not supported in your browser
VIEW IN TELEGRAM
iKeleton OSC — iOS приложение для захвата движения и отправки значений по OSC. Можно скачать бесплатно до пятого мая.
https://derivative.ca/community-post/asset/download-ikeleton-osc-free-until-may-5/67733
https://derivative.ca/community-post/asset/download-ikeleton-osc-free-until-may-5/67733
VJ SCHOOL
А вот и Delibarate модель, с небольшим feedback в TouchDesigner
Media is too big
VIEW IN TELEGRAM
Еще немного ускорения до 0.5 и добавил управление денойзом. Старался двигаться медленее, чтобы сохранить цельность картинки.
This media is not supported in your browser
VIEW IN TELEGRAM
TouchDesigner & RIFE — интерполяция между кадрами с помощью машинного обучения. В двух словах с помощью RIFE можно превратить 30 в 60, 120 и более FPS. Единственное что непонятно, RIFE это Real-Time Intermediate Flow Estimation for Video Frame Interpolation, но где здесь real-time я не очень понял. В примере 15 промежуточных изображений занимает около 2-3 секунд. Но в любом случае, теперь надо прикрутить к Stable Diffusion и посмотреть что получится.
VJ SCHOOL
TouchDesigner & RIFE — интерполяция между кадрами с помощью машинного обучения. В двух словах с помощью RIFE можно превратить 30 в 60, 120 и более FPS. Единственное что непонятно, RIFE это Real-Time Intermediate Flow Estimation for Video Frame Interpolation…
Небольшой апдейт, на 30 кадров 512х512 получается меньше секунды 🤷🏻♂️
This media is not supported in your browser
VIEW IN TELEGRAM
EDGE — Editable Dance Generation From Music. На вход модели подается аудио-фрагмент, на выходе получает анимированный fbx скелет, такой вот фристайл от ИИ. В описании написано что не должно быть летающих ног, но как-то в результате это не работает.
Скидывайте в комментарии название треков/песен, посмотрим, какие танцы получатся )
Скидывайте в комментарии название треков/песен, посмотрим, какие танцы получатся )
Media is too big
VIEW IN TELEGRAM
Вот вам EDGE (генерация танца из музыки) и Stable Diffusion (стилизация видео) на мотив Король и Шут. Возможно это опенинг для анимэ или тик-ток для панк-рок vtuber'a, кажется что-то в этом есть.
Очень интересно довести это до какой-то законченной картинки, но на сегодня ваш компьютер можно выключать. )
Очень интересно довести это до какой-то законченной картинки, но на сегодня ваш компьютер можно выключать. )
HokuyoUtil — компонент Touchdesigner для работы с лидарами Hokuyo. Главные особенности это удобный интерфейс, трекинг, настройка перспективы, объединение нескольких сенсоров и отправка данных по OSC
https://youtu.be/Xxw_gUPUcy8
https://youtu.be/Xxw_gUPUcy8
YouTube
How to use HokuyoUtil
HokuyoUtil is a tool for a more convenient use of Hokuyo's scanning rangefinder sensors, which are widely used for interactive projection.
https://github.com/STARRYWORKS-inc/HokuyoUtil
https://github.com/STARRYWORKS-inc/HokuyoUtil
Redshift & Unreal Engine — обновление плагина Cineware by Maxon, в котором добавили поддержку материалов из Redshift.
https://www.unrealengine.com/marketplace/en-US/product/cineware-by-maxon
https://www.unrealengine.com/marketplace/en-US/product/cineware-by-maxon
Fab.com
Cineware by Maxon
Please note that Cineware by Maxon only works with Unreal Engine 5.2 and beyond and requires Cinema 4D 2024 and beyond. The Cineware by Maxon plugin allows you to import Cinema 4D files quickly and easily into Unreal Engine by translating .c4d files via Datasmith…
ControlNet v1.1: A complete guide — гайд по всем препоцессорам и моделям для CN в Stable Diffusion .
В двух словах, ControlNet позволяет задать на вход сети-копии скетч, контур картинки, карту глубины, позу и так далее. На выходе получается картинка, сгенерированная в соответствии с заданными параметрами.
https://stable-diffusion-art.com/controlnet/
В двух словах, ControlNet позволяет задать на вход сети-копии скетч, контур картинки, карту глубины, позу и так далее. На выходе получается картинка, сгенерированная в соответствии с заданными параметрами.
https://stable-diffusion-art.com/controlnet/
Stable Diffusion Art
ControlNet: A Complete Guide - Stable Diffusion Art
ControlNet is a neural network that controls image generation in Stable Diffusion by adding extra conditions. Details can be found in the article Adding
AWS выпустила Deadline 10.3 — бесплатную систему управления рендерфермой. Обновление включает поддержку Movie Render Queue в Unreal Engine 5.
https://aws.amazon.com/about-aws/whats-new/2023/08/aws-thinkbox-deadline-10-3/
https://aws.amazon.com/about-aws/whats-new/2023/08/aws-thinkbox-deadline-10-3/