Modérateurs: Modération Forum Home-Cinéma, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 2 invités

Tout sur le HC et son futur

A quand le cinema fluide?

Message » 02 Mai 2012 11:05

Le film se retrouvera quand même à l'étroit, sauf à dégrader fortement l'image.
Bobor
 
Messages: 1266
Inscription Forum: 01 Avr 2002 2:00
Localisation: Le sud!
  • offline

Message » 02 Mai 2012 12:03

Oui, sauf si :
-la compression H264 s'améliore nettement
-le H264 cède sa place au H265 ;
http://fr.wikipedia.org/wiki/H.265/HEVC
-on passe à 3 ou 4 couches au lieu de 2 (ça existe déjà) ;
http://en.wikipedia.org/wiki/Blu-ray_Disc#BDXL
arnuche
 
Messages: 25028
Inscription Forum: 09 Déc 2004 12:10
Localisation: Bruxelles
  • online

Message » 02 Mai 2012 12:13

:thks:
Bobor
 
Messages: 1266
Inscription Forum: 01 Avr 2002 2:00
Localisation: Le sud!
  • offline

Message » 02 Mai 2012 14:47

et puis plus on augmente le framerate moins y a besoin de data par frame a qualité equivalente
le Bluray est deja capable de faire de la 3D donc y aurait pas de difficulté a faire du 48fps en 2D et puis le BD-RE existe deja en 100Go , suffirait d'en faire de meme des BD-ROM mais je pense que le mieux c'est d'attendre et de passer directement a la vitesse superieur avec support du 4k, de la 3D, du 48/60fps donc plutot un support de minimum 200Go ou plus
upsilandre
 
Messages: 2419
Inscription Forum: 04 Juin 2007 16:29
  • offline

Message » 02 Mai 2012 16:46

upsilandre a écrit:...le mieux c'est d'attendre et de passer directement a la vitesse superieur avec support du 4k, de la 3D, du 48/60fps donc plutot un support de minimum 200Go ou plus


+1 :wink:
Même si les nouveaux algorithmes de compression il vaut mieux directement viser plus au cas où. D'ailleurs il me semble que Pioneer avait mis au point un prototype de blu-ray avec 16 couches.

La configuration dans mon profil


Sony VPL-VW890ES / B&W 804S-HTM3S-805S / Velodyne DD15 / Trinnov Altitude 16 + Amplitude 16
Pioneer UDP-LX800 / PS5 / PS3 / Xbox Series X / Xbox 360 / Switch / Belkin PF50
Si le silence est d'or, la musique est de métal !
Night Stranger
Membre HCFR
Membre HCFR
 
Messages: 2489
Inscription Forum: 30 Oct 2007 20:13
Localisation: Bas-Rhin
  • offline

Message » 02 Mai 2012 17:15

Avec des tailles pareilles, plus besoin de mettre des protections anti-copie :lol: Un 3To ne pourrait stocker moins de 15 films :zen:
Bobor
 
Messages: 1266
Inscription Forum: 01 Avr 2002 2:00
Localisation: Le sud!
  • offline

Message » 02 Mai 2012 21:03

Il y a quand même un point positif : les diffuseurs actuels prennent déjà le 60p ! Donc pas besoin de changer.
Et puis il est toujours possible de réduire la fréquence, et si les platines n'intégreront pas cette fonctionnalité, elle est très simple à faire sur PCHC. Le blur introduit en postprod est bien moins compliqué à faire en logiciel que l'interpolation temporelle.
ReplayMan
 
Messages: 1484
Inscription Forum: 01 Oct 2003 17:30
Localisation: Montréal / Québec
  • offline

Message » 02 Mai 2012 22:39

Night Stranger a écrit:
upsilandre a écrit:...le mieux c'est d'attendre et de passer directement a la vitesse superieur avec support du 4k, de la 3D, du 48/60fps donc plutot un support de minimum 200Go ou plus


+1 :wink:
Même si les nouveaux algorithmes de compression il vaut mieux directement viser plus au cas où. D'ailleurs il me semble que Pioneer avait mis au point un prototype de blu-ray avec 16 couches.



10,16, 20 couches ils ont deja tout testé y a longtemps dès les premieres années mais c'est toujours pour des BD-RE ou BD-R. ils y arrivent asser bien mais multiplier les couches pour du BD-ROM ca rend la production trop compliqué donc ca ne les interresse pas (dailleurs ca n'a pas augmenté entre le DVD et le BD, c'est le seul element qui n'a pas evolué)
dans le cas des disc ROM c'est augmenter la densité qui interresse. je pense qu'il ne feront jamais de disc ROM a plus de 3 ou 4 couches, c'est vraiment la densité qu'il faudra a nouveau faire evoluer une derniere fois. les BD-RE XL sont deja passé a 33Go par couche, aparement ca pose pas vraiment de probleme mais faudrait monter au moins a 50Go, ca doit etre possible en affinant encore un peu le laser et en augmentant un peu l'ouverture optique (mais dans les 2 cas y a plus beaucoup de marge de manoeuvre) mais alors ca sera plus du bluray

espérer de gros investissement pour faire emerger un support completement nouveau est un peu delicat car cette fois c'est pas les besoins d'un support ROM qui justiferont cela a une epoque ou le support ROM est amené a disparaitre face au dematerialisé et ou le prochain support ROM s'adressera seulement a une niche commercial de puriste a l'image du SACD donc une nouvelle technologie ne poura pas emerger cette fois de ce besoin la mais d'ailleurs et sans cela difficile d'imaginer remplacer le disc optique
y a pas mal d'année le disc holographique etait vraiment tres prometeur comme remplacant du disc optique notement dans le secteur pro, le stockage optique en 3D parait tres interressant puis c'est un peu retombé comme un soufflet. je crois qu'il y a aussi des solutions plus classic qui consiste a stocker plusieurs bits dans un seul pit d'un simple disc optique selon leur forme et orientation et permet de booster pas mal la densité, ca marquerait donc quand meme une certaine rupture avec le CD/DVD/BD tout en restant du disc optique asser classic
upsilandre
 
Messages: 2419
Inscription Forum: 04 Juin 2007 16:29
  • offline

Message » 04 Mai 2012 21:21

Pour la modulation de la profondeur des cuvettes, il y avait Calimetrics:
http://en.wikipedia.org/wiki/Calimetrics

Ils arrivaient à 8 niveaux sur les CDs ce qui aurait du permettre de multiplier capacité et débit par 3.

L'article indique qu'ils ont tenté la même chose pour le DVD. On voit que l'augmentation de capacité n'était plus que de 2.

Pas certain que ça marcherait encore sur le blu-ray, car le systeme fait quand même un pas vers l'analogique, peut être moins évident à maitriser à mesure que la taille des cuvettes diminue.
gammaburst
 
Messages: 579
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 05 Mai 2012 2:50

Je viens de faire un petit test d'encodage, pour voir l'augmentation de débit provoquée par l'accroissement de la cadence d'image.

Je suis parti d'une sequence de 20 s capturée en 1920x1080p/50 (ouverte sous Avisynth via Directshowsource)
Je l'ai passée en 1920x1080p/300 avec un algorithme de compensation de mouvement (MvFlowfps), comme je ne dispose pas de séquence native à 300 i/s
Je l'ai aussi passée en 1920x1080p/300 par répétition des images.

La sequence choisie est à mouvement modéré car sinon la compensation de mouvement déraille.

J'ai comprimé cela en mp4 via Megui/x264 avec les mêmes réglages pour les 3 sources (profil DXVA-HQ, const quality 22.0)

Résultats:
50p 16.6 Mio
300p (compensation de mouvement) 59.3 Mio
300p (repetition) 66.0 Mio

J'ai rejoué les séquences à 300 à plus faible vitesse, pour etre sûr qu'elles correspondent bien à ce que j'avais voulu encoder.

On constate bien que l'augmentation de volume/débit est plus faible que la simple proportionalité des cadences : on a augmenté le nombre d'images par seconde d'un facteur 6, alors que le fichier final est seulement 3.6 fois plus gros. Malgré tout, l'augmentation reste non négligeable. Le choix de la valeur 300 est dans l'idée d'un futur standard compatible aussi bien avec les archives en 50 que 60 Hz, et capable d'offrir une bonne restitution des mouvements rapides.

Mais le dernier résultat est contre intuitif : je m'attendais à ce qu'il soit plus proche du cas 50p d'origine: les images répétées auraient du être perçues comme identiques, et la différence codée à très bas débit.
Je n'ai pas de bonne explication à ce comportement. Est-ce que le fait de partir d'une source ayant déjà subi une compression pourrait avoir une influence (origine camescope h.264 à 28.8 Mbps)? Y-a-t-il un problème du fait que j'ai utilisé un niveau 4.1 (mais il n'existe pas de niveau officiel pour le 300 i/s)?
gammaburst
 
Messages: 579
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 05 Mai 2012 7:58

Intéressant, je suis étonné aussi de ce résultat.
Est-ce que le fait de partir d'une source ayant déjà subi une compression pourrait avoir une influence

Je suis quasiment sûr que non, ton encodeur reçoit une image décompressée par avisynth, il n'est pas censé savoir qu'elle était compressée ni comment elle l'était.

Je ne connaissais pas MvFlowfps, est-ce que ça marche aussi pour passer de 25p à 30p (ou inversement), ou ça ne marche qu'avec les multiples de la fréquence d'origine ?

La sequence choisie est à mouvement modéré car sinon la compensation de mouvement déraille.

Tu peux préciser ?
arnuche
 
Messages: 25028
Inscription Forum: 09 Déc 2004 12:10
Localisation: Bruxelles
  • online

Message » 05 Mai 2012 12:28

Je me dis que du fait que l'image presentée par avisynth est recréée à partir d'une description compressée ,elle se prête peut être anormalement bien à une recompression, mais ce qui pouvait être gagné par élimination dans l'image d'origine a déjà été lissé en quelque sorte (mais c'est une idée assez floue).

MvFlowFps n'est pas lié à des multiples, je l'ai utilisé pour passer de 18 i/s à 25 i/s, et aussi de 16 i/s à 25. Je ne crois pas avoir jamais eu besoin de descendre en fréquence, mais ça doit marcher aussi.

Ce freeware n'est quand même pas aussi performant que les logiciels et matériels de grand prix type Snell & Wilcox "Alchemist" : il s'effondre pour des mouvements trop rapides et de trop grande amplitude (l'objet en mouvement se désagrège en lambeaux) . Je traite la plupart du temps des films de famille qui ne sont pas des films d'action, donc en général ça passe. Pour les courts passages à problème, je reprend à la main en remplaçant par des méthodes de conversion plus primitives (convertfps). C'est un peu lourd mais j'ai toujours trouvé que le résultat en valait la peine. Dans la séquence que j'ai utilisée, on ne voit que des personnes qui marchent nonchalament, pas de coureurs, ni de grands mouvement de bras rapides, etc.

Possible que la version mvFlowFps2 soit un peu meilleure. J'ai aussi entendu parler d'interframe, un script basé en partie sur mvflow/Mvtools, mais je ne l'ai pas encore essayé.
gammaburst
 
Messages: 579
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 05 Mai 2012 18:49

Ok merci :)
arnuche
 
Messages: 25028
Inscription Forum: 09 Déc 2004 12:10
Localisation: Bruxelles
  • online

Message » 06 Mai 2012 0:03

les algos de compensation de mouvement sont basés sur l'analyse des motion vector :oldy:
du coup normal que ça se compresse très bien.
Ygg
 
Messages: 1977
Inscription Forum: 28 Mar 2006 21:47
Localisation: Dreiländereck baby !
  • offline

Message » 06 Mai 2012 11:44

Tu peux préciser pour que je saisisse bien ? :wink:
arnuche
 
Messages: 25028
Inscription Forum: 09 Déc 2004 12:10
Localisation: Bruxelles
  • online


Retourner vers Discussions Générales

 
  • Articles en relation
    Dernier message