Modérateurs: Le CA de l’Association HCFR, Modération Forum Home-Cinéma • Utilisateurs parcourant ce forum: Xanto77 et 24 invités

Les Processeurs Vidéo (Scaler, Désentrelaceur, Enhancer) et tous les appareils traitant l'image (y compris les ampli HC)

Radiance pro vs Madvr Envy

Message » 11 Sep 2025 10:50

jacko a écrit:Concernant l'IA ... terme globalement galvaudé un peu partout (c'est la hype du moment ...)

Il faudrait savoir ce qu'entend madVR Labs par IA ?
Ayant vu le MotionIA plusieurs fois ... ben bof, ce n'est pas plus infaillible que le reste.
Mais je reconnais la complexité de la chose. Il faudrait une base de donnée qui indique au processing quoi faire en fonction du film lorsque le réal crée volontairement des effets motion particuliers.

Si Davrous passe par là, vu que l'IA concerne son métier, il pourrait nous en dire davantage sur ce qu'il faut prendre en compte et ce qui est valable ou pas.


Je découvre que l'on parle de moi 2 ans après ;)

De ce que j'ai compris, MadVR utilise le terme IA (très galvaudé) pour utiliser à la fois l'upscaling (comme dans les jeux vidéo avec le DLSS) et pour rendre plus fluide l'image (à nouveau inspiré du jeu vidéo avec le frame generation).

L'IA c'est un terme fourre-tout, bien pratique pour le marketing ;) Cela permet d'attirer plein de clients avec de la magie. Et encore, on trouve pire avec le terme "quantique". Je travaille essentiellement sur les GenAI à base de transformers (OpenAI, Claude, Copilot, etc.) mais je connais bien aussi les autres que l'on retrouve depuis un moment dans nos TVs récentes.

Dans ce cas précis, ils utilisent du Deep Learning pour avoir un modèle capable d'inventer des pixels de manière la plus "naturelle" (la blague ;)) possible. Cela se fait en entrainant un modèle de la manière (simplifiée) suivante : tu génère une frame en 4K, la même frame en 1080p et tu entraines le modèle pour qu'il essaie de reproduire la frame 4K à partir de la frame 1080p. On ajoute également des méta données présentes dans les moteurs de jeux vidéo pour tenter d'aider "l'IA" à être la plus pertinente possible.

Cela fonctionne ultra bien en jeux-video. C'est très difficile par exemple de faire la différence entre un rendu interne 1440p upscalé par l'IA en 4K et le rendu 4K natif. Pour la compensation de mouvement, cela fonctionne également très bien. Mais en jeux-vidéo, on peut utiliser les vecteurs de mouvements car nous avons accès à la matrice de calcul pour les vertex & co. Ces vecteurs permettent de guider l'IA pour générer les frames intermédiaires de manière parfaitement intégrée comme si l'on avait vraiment généré ces frames. C'est assez impressionnant. Par contre, cela ajoute du délai, donc de l'input lag.

nVidia a recemment mis à jour son DLSS en v4 pour justement s'appuyer sur les transformers pour l'upscaling et cela a permis d'améliorer sensiblement la qualité de l'image.

Dans le cas de l'application d'une technologie similaire dans la vidéo, générer les frames intermédiaires nécessite sûrement d'abord de détecter (par "IA") les vecteurs de mouvements pour ensuite alimenter un autre modèle d'IA pour générer les frames. J'ai du mal à croire qu'un petit dev tout seul, aussi bon soit-il, arrive à faire un truc nickel avec en plus tout le reste à gérer. Ensuite, il est peut-être possible de s'appuyer sur des librairies / SDK de nVidia pour faire une partie du travail. J'avoue avoir regardé essentiellement la partie dédiée aux JV mais il faudrait que j'essaie de jouer avec les SDK pour voir si l'on peut faire un truc assez rapidement sur la vidéo.

Rien n'empêche un jour d'avoir un dev qui fasse un plug-in utilisant une lib de nVidia pour avoir un upscaling et compensation de mouvement par "IA" sur un PCHC custom. On peut aussi envisager de faire un modèle custom ou "fine tuned" mais cela demande :

- une vraie expertise en IA. Je ne sais pas si le dev de MadVR en dispose. En général, on peut rarement être au four et au moulin.
- beaucoup, beaucoup, d'argent car le processus de collecte de données, de classification puis l'entrainement sur des gros GPU coute une fortune. Donc la plupart de nos clients par exemple préférent utiliser des modèles tout fait sur étagère.

Bref, vous voyez la très forte dépendance vis-à-vis de nVidia (comme l'ensemble de l'industrie d'ailleurs...).

La configuration dans mon profil


JVC NZ900 - StormAudio ISP16 MK2 - Earthquake Cinenova Grande 7 & 7300 - Melodia 9.4.4 - Zidoo Z9X 8K
Avatar de l’utilisateur
Davrous
Administrateur Suppléant de l'Association & Superviseur Forum Home Cinema
Administrateur Suppléant de l'Association  & Superviseur Forum  Home Cinema
 
Messages: 4275
Inscription Forum: 13 Juin 2002 13:42
  • online

Message » 11 Sep 2025 13:33

Merci pour la réponse, ça valait le coup d’attendre

La configuration dans mon profil


Sony VPH-1271 -> Sony VPH-1292 -> Sony VPL-VW100 (Ruby) -> JVC HD350 -> plus rien pendant 5 ans -> JVC X30 -> Sony VPL-VW590ES -> JVC NZ700 + MadVR (RTX 5080)
Avatar de l’utilisateur
BangoO
Membre HCFR Contributeur
Membre HCFR Contributeur
 
Messages: 10745
Inscription Forum: 30 Juin 2001 2:00
  • offline

Message » 11 Sep 2025 13:51

Une réponse très éclairée :bravo:

La configuration dans mon profil


Tout peut se mesurer et se calibrer du moment qu'on dispose des bons outils.

Vous appréciez HCFR ? Adhérez à l'Association HCFR pour financer son hébergement.
Avatar de l’utilisateur
jacko
Membre d'Honneur - Contributeur & Consultant CA
Membre d'Honneur - Contributeur & Consultant CA
 
Messages: 53649
Inscription Forum: 12 Juin 2002 12:45
Localisation: Antibes
  • online

Message » 11 Sep 2025 22:41

Exemple d'upscaling + frame generation par IA à partir d'une source historique basse qualité (film 16mm en 12 fps) qui avait marquée la communauté spatiale il y a 5 ans :
https://www.youtube.com/watch?v=t9veiWVJevA

Original footage : https://www.youtube.com/watch?v=Vy0ueCGaC0s

Le type maitrise bien son process. Cette séquence historique a été restaurée plusieurs fois par divers acteurs dont la Nasa qui a fait une version HD. J'ai l'impression qu'elle sert un peu de benchmark. Si vous voulez en savoir un peu plus sur cette mission :
https://www.youtube.com/watch?v=PMvqwmt-Ug4
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10680
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 11 Sep 2025 22:56

Version Nasa en 720p (mise en ligne il y a 14 ans...). On voit que c'est accéléré x2 : le 12 fps d'origine est simplement rendu en 24 fps d'après les stats de la vidéo YT, donc il n'y a pas de frame generation :
https://www.youtube.com/watch?v=7o3Oi9JWsyM
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10680
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline


Retourner vers Processeurs Vidéo

 
  • Articles en relation
    Dernier message