Modérateurs: Modération Forum Home-Cinéma, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 21 invités

Bien comprendre l'Ultra HD, la 4K, et les normes THX, Dolby, DTS, Auro 3D

4K vs 2K => Discussion autour du gain de l'Ultra-HD en HC

Message » 06 Oct 2013 16:21

Le HFR sera sans doute indispensable, mais pour l'instant on ne parle que de 48is ou 60is...mais ce ne sera peut être pas suffisant. Il aurait peu être fallu monter à 100 voire 120is :oldy:
Grumpt
 
Messages: 1397
Inscription Forum: 04 Déc 2007 16:04
  • offline

Message » 06 Oct 2013 20:15

Must@ng a écrit:
pnauts a écrit:
Emmanuel Piat a écrit:Bon malgré la fatigue, ne j'ai pas pu résister...

Voici 3 images issues d'un BRD top qualité (Arabia 3D) qui affichées sur la moitié de la base écran de votre projo 2K représentera le nec plus ultra que pourrait atteindre la 4K (et qu'elle n'atteindra jamais AMHA pour des raisons de débit, on en sera même assez loin...). Les fichiers sont en .png lossless (donc plutot gros).

simu image 4K (aucun post-traitement)
simu image 2K downscalée et post-traitée

simu image 4K (aucun post-traitement)
simu image 2K downscalée et post-traitée

simu image 4K (aucun post-traitement)
simu image 2K downscalée et post-traitée

Le 1er truc que j'ai constaté, c'est que l'algo de downscale que j'utilise fait perdre de la luminosité sur les détails fins. Il va falloir que j'essaye d'améliorer ce point. Du coup, ce genre de test est aussi très bien pour la mise au point des algos :)

Bonnes comparaisons...


sur le premier lien (le seul que j'ai regardé) l'avantage va clairement à la 4K.



Salut Pnauts,

Je suis plus modéré que toi :wink: . Alors certes, il y a un gain. La meilleure image est celle en 4K. MAIS, en comparant bien les deux, et sans pinailler sur des détails du fin fond du 8ème plan, juste en restant les yeux fixés au centre de l'image (condition de visionnage d'un film généralement), et en switchant entre les 2, la différence n'est pas écrasante :hein: .

C'est plus fin sur le 4K, mais de beaucoup ? AMHA, pas franchement. De plus, Emmanuel précise que son algo de downscale fait perdre de la luminosité sur les détails fins. S'il améliore encore ce point, il réduit encore l'écart, qui est selon moi faible.

En tout cas, bien plus faible que de passer du DVD au Blu-Ray :roll: .

En tout cas pour moi, ça ne justifie pas les roros à débourser pour un diffuseur 4K. Pour une source, éventuellement, et dans quelques années, et encore :-? ...

Recompare les 3 screens en switchant, et en restant sur la globalité des images, et dis-moi si l'avantage du 4K est si "écrasant" que ça.

Comme dirait Jean-Claude Duce : "Attendez, c'est mes yeux ou quoi ?!"

@+

P.S : je précise que j'ai comparé sur un Moniteur, pas encore sur mon projo :oops: ...


Bonsoir ,personnellement ,la différence est flagrante pour moi sur ces images aussi bien sur ipad retina (à 30 cm)que sur lcd full-hd 55" à 3 m (pas essayé encore sur projo).En switchant rapidement ou en regardant plus doucement ,j'ai l'impression de passer du flou au net ! :o
Serait-ce dû au fait que nous n'avons pas tous la même vue ?
wopr
 
Messages: 5804
Inscription Forum: 08 Avr 2004 19:51
  • online

Message » 06 Oct 2013 20:58

Sur ton lcd full HD 55", il faut s'imaginer que l'image est sensée s'afficher sur une diago de 27.5 pouces si le LCD était 4K puisque cette image est 1/4 d'une image 4K. Il est possible que 3m de recul soit trop faible pour donner cette illusion. Depuis ta position de visionnage normal, ferme un oeil, tend les bras pour encadrer l'image, rapproche tes bras pour diviser par 2 leur écartement, puis recule sans bouger les bras pour qu'ils encadrent à nouveau toute l'image. Là tu seras à la bonne distance pour juger. Tu verras qu'il faut un sacré recul...

Le plus simple et de loin est de tester sur un projo en projetant sur la moitié de la base écran.

Sur ce type d'image fixe, la différence entre 2K et 4K doit normalement bcp dépendre du contenu fréquentiel de l'image 4K.
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10347
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 08 Oct 2013 23:26

Emmanuel précise que son algo de downscale fait perdre de la luminosité sur les détails fins. S'il améliore encore ce point, il réduit encore l'écart, qui est selon moi faible.


La recette pour améliorer les choses est tjrs la même : booster un peu le LSF (ou éventuellement combiner avec un autre sharpen du type finesharp à faible dose) et mettre un unsharp mask derrière qui remonte le luma des détails et renforce l'effet 3D. A doser selon le diffuseur. Ca marche plutôt pas mal : l'écart avec les images 4K très résolues est bien plus réduit que sur mes snapshots. Le 4K reste évidemment devant sur les images fixes ayant une bonne réso fréquentielle.
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10347
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 09 Oct 2013 6:52

Ajouter comme sharpen swscaler (avec uniqt le luma sharpen et pas le chroma) pourrait également se révéler intéressant car il amplifie bcp plus le luma des petits détails que le unsharp mask. Une autre solution identique en terme d'action serait de mettre du luma sharpen pdt le resize de ffdshow (1er downscale asymétrique) car il est identique en terme d'action au swscaler. A tester également en conservant le unsharp mask en bout de chaîne pour combiner les 2 actions.
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10347
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 11 Oct 2013 13:17

je decouvre ce thread agréablement pointu, et pour revenir au posts du début, quelques questions:
- pour moi la procédure de downsampling inclut obligatoirement un filtrage passe bas à la fréquence de coupure correspondant à la resolution cible (2K ici) non ?

- dans les pratiques de suréchantillonage, le principe est justement de pouvoir faire un filtrage numérique quasiment parfait, donc sans endommager les fréquences max du 2K, le filtre analogique imparfait tapant dans les frequences max du 4k qui elles seront supprimées

- le but du downsampling pourrait être de simplement d'obtenir du 2K optimisé, qui tire le maximum du format, grace au suréchantillonage apporté par le 4K. Auquel cas il n'y a pas lieu de recourir à l'artifice du sharpen qui risque de rajouter des fréquences qui sortent du cadre 2K, non ?

Je pense que le 4K c'est aussi la possibilité d'avoir seulement la capture en 4K, la transmission en 2K et l'affichage en 4K, ce qui permet de suréchantilloner aux deux bouts (je ne dis pas que ça se cumule, mais c'est necessaire pour que le benefice du surechantillonage soit completement atteint), tout cela pour avoir du 2K "maximal", qu'on n'a finalement guère eu l'occasion de contempler jusqu'à present. La différence du vrai 4K par rapport à cela étant sans doute encore plus subtile.

Mais bon c'est peut être déjà cela qui a été fait dans les tests proposés, il faudra que je relise ce sujet plus en détail.
gammaburst
 
Messages: 578
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 13 Oct 2013 17:33

- pour moi la procédure de downsampling inclut obligatoirement un filtrage passe bas à la fréquence de coupure correspondant à la resolution cible (2K ici) non ?


Effectivement, les algos de downsampling 4K -> 2K incluent de facto un filtrage passe bas + ou - efficace pour rejeter les fréquences supérieures au 2K. Par contre la pente du filtre, sa fréquence de coupure, le ripple du filtre dans le domaine spatial et fréquentiel sont variables selon les algos (lanczos, bilinear, bicubic, etc.). Certains coupent par exemple très tôt (bien avant 2K) pour que le repliement des fréquences au delà de 2K soit pouillemesque et donc indécelable (cas du softcubic par exemple), ce qui évite les pb d'aliasing et de moiré.

- dans les pratiques de suréchantillonage, le principe est justement de pouvoir faire un filtrage numérique quasiment parfait, donc sans endommager les fréquences max du 2K, le filtre analogique imparfait tapant dans les frequences max du 4k qui elles seront supprimées


Le suréchantillonnage a effectivement un intérêt mais c'est surtout qd il faut ajouter une étape de conversion numérique-analogique (comme en audio). En vidéoproj numérique, cette étape n'est pas présente car on affiche directement les pixels qui conservent donc leur nature numérique (pas le lissage spatial analogique). Dans ce cas, on sait faire des filtres numériques très performants sans avoir besoin de suréchantillonner. Par contre tout se paye, plus le filtre est performant, par exemple en terme de pente de coupure, et plus son noyau (nombre de taps) est grand....

- le but du downsampling pourrait être de simplement d'obtenir du 2K optimisé, qui tire le maximum du format, [...]


oui. C'est pourquoi normalement les sources 4K visualisée sur des diffuseurs 2K performants produiront une image qui sera déjà de très grande qualité si le downscaling est bien fait.

[...] qui tire le maximum du format, grace au suréchantillonage apporté par le 4K. Auquel cas il n'y a pas lieu de recourir à l'artifice du sharpen qui risque de rajouter des fréquences qui sortent du cadre 2K, non ?


pour qu'il y ait un bénéfice par rapport à du 2K dont la richesse fréquentielle est hélas souvent bien en deça de 2K, il faut que le 4K soit de la vraie 4K (ie avec des fréquences qui vont au delà de 2K) et pas une image issue d'un suréchantillonnage (=upsampling) qui ne crée pas d'information.

Le sharpen permet d'agir sur une plage de fréquence assez large et pas simplement sur les hautes fréquences. voir le forum de cine&son ou j'explique la diférence entre sharpen et résolution. Le but du sharpen est d'augmenter l'acutance de l'image, ce qui donne l'illusion qu'elle est plus piquée. S'il agit sur les fréq supérieures à 2K en plus des fréquences inférieures à 2K, ce n'est pas grave car ces fréquences seront filtrées lors du downsampling.

Je pense que le 4K c'est aussi la possibilité d'avoir seulement la capture en 4K, la transmission en 2K et l'affichage en 4K


Si la transmission est en 2K, on perd les fréquences spatiales supérieures à 2K et on ne pourra jamais les recréer à moins de s'appeler madame Irma. Le suréchantillonnage ne recréera pas les fréquences qui ont été perdues car cela voudrait dire qu'il serait capable de récréer une information perdue. C'est impossible.
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10347
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 23 Oct 2013 1:03

Emmanuel Piat a écrit:Le suréchantillonnage a effectivement un intérêt mais c'est surtout qd il faut ajouter une étape de conversion numérique-analogique (comme en audio). En vidéoproj numérique, cette étape n'est pas présente car on affiche directement les pixels qui conservent donc leur nature numérique (pas le lissage spatial analogique). Dans ce cas, on sait faire des filtres numériques très performants sans avoir besoin de suréchantillonner.


Si cette étape n'est pas présente dans le projecteur, elle l'est au moins dans le tout dernier maillon de la chaine, c'est à dire l'oeil. Dans ce cas c'est lui qui joue le rôle à la fois de convertisseur numérique analogique et de filtre passe-bas analogique, il me semble donc que l'interêt du surechantillonage, si on considère la chaine globale, reste entier. Et je vois un autre filtre passe bas analogique dans la chaine, c'est l'objectif du projecteur, du fait de son pouvoir séparateur limité (ou peut etre vaut-il mieux considérer sa MTF). Cet element ne serait pas présent sur un ecran plat mais ça semble être plutôt un mal : il faut que l'objectif ait une MTF suffisament basse, en association avec celle de l'oeil pour qu'au total on soit sûr de ne pas laisser passer de frequences spatiales supérieures à ce que les caractéristiques de l'echantillonage permettent de traiter, le surechantillonage permettant alors d'assouplir cette contrainte.

Emmanuel Piat a écrit:Le sharpen permet d'agir sur une plage de fréquence assez large et pas simplement sur les hautes fréquences. voir le forum de cine&son ou j'explique la différence entre sharpen et résolution. Le but du sharpen est d'augmenter l'acutance de l'image, ce qui donne l'illusion qu'elle est plus piquée. S'il agit sur les fréq supérieures à 2K en plus des fréquences inférieures à 2K, ce n'est pas grave car ces fréquences seront filtrées lors du downsampling.


Tu aurais eventuellement des liens html directs sur tes documents explicatifs ? Mais à vue de nez si le sharpen agit en redressant les fronts de montée, il introduit automatiquement des fréquences plus élevées (harmoniques de rang plus élevées) . Soit on les laisse en place et on risque de créer du repliement de spectre, soit on les filtre mais du coup on annule l'effet du sharpen en reduisant à nouveau la raideur des fronts .Mais tu as peut être déjà expliqué tout cela il faut que je relise tes documents.

Je pense que le 4K c'est aussi la possibilité d'avoir seulement la capture en 4K, la transmission en 2K et l'affichage en 4K


Emmanuel Piat a écrit:Si la transmission est en 2K, on perd les fréquences spatiales supérieures à 2K et on ne pourra jamais les recréer à moins de s'appeler madame Irma. Le suréchantillonnage ne recréera pas les fréquences qui ont été perdues car cela voudrait dire qu'il serait capable de récréer une information perdue. C'est impossible.


Bien d'accord avec cela, le but de cette configuration est de produire du 2K au maximum de qualité dont ce format est théoriquement capable. Ca ne prétend pas fournir du 4K. Mails il faut tout de même du matériel 4K aux deux bouts pour y arriver. Ainsi la qualité réellement obtenue sera toujours en retard d'une génération par rapport au matériel. Pour avoir du vrai 4K au maximum de ses posssibilités, il faudra du matériel 8K.
Dernière édition par gammaburst le 24 Oct 2013 0:02, édité 1 fois.
gammaburst
 
Messages: 578
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 23 Oct 2013 8:22

Pardon, je vois que deux notions ont été mélangées:
- la luminosité des pixels : pour les LCD, la conversion est faite dans le projecteur, pour les DLP on reste en quelque sorte numérique jusqu'au bout et c'est l'oeil qui fait la conversion numérique analogique

- la disposition spatiale des pixels : une fois que cette conversion a été faite d'une manière ou d'une autre, on n'est plus dans le domaine numérique, mais on est encore dans le domaine echantilloné, du moins dans les affichages matriciels. L'image est echantillonée selon les deux axes de la matrice d'affichage. Comme l'exige la théorie de l'échantillonage, pour repasser dans le domaine non echantilloné, il faut obligatoirement un filtre passe bas analogique. A la projection cela va être l'objectif suivi de l'oeil et de sa distance à l'image projetée. A la capture (caméra) cela ne peut être que l'objectif eventuellement associé à un filtre de brouillage. Le filtrage passe bas associé à ces dispositits optiques est notoirement mauvais (pente de coupure tres "molle"). Par conséquent j'ai l'impression que le surechantillonage (spatial) couplé à un filtrage numérique reste tout indiqué pour se rapprocher des performances théoriques.

Apres il y a aussi la question de l'echantillonage selon l'axe des temps, mais là difficile d'être conforme à la théorie, il faudrait un filtre qui limite la fréquence des mouvements dans l'image avant capture des images successives.
gammaburst
 
Messages: 578
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 28 Oct 2013 18:02

Tu aurais eventuellement des liens html directs sur tes documents explicatifs ?


il faut aller sur le forum cine&son, dans la section "Projecteurs digitaux". Je ne peux pas mettre de lien ici désolé, ces liens sont refusés.

Si vous ne savez pas ce qu'est l'acutance, voir mon dossier sur cine&son :
post : Discussions techniques généralistes projection - p14 à 16
(pas possible de mettre un lien ici pour le pointer directement, désolé).
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10347
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 28 Oct 2013 18:22

Comme l'exige la théorie de l'échantillonage, pour repasser dans le domaine non echantilloné, il faut obligatoirement un filtre passe bas analogique. A la projection cela va être l'objectif suivi de l'oeil et de sa distance à l'image projetée.


Je suis d'accord à un petit bémol très (qui est discutable) : on peut penser que le combo moteur optique (panneaux et éléments optiques internes) / objectif s'il est performant doit maintenir l'aspect numérique des pixels.

C'est en général le cas en monoDLP avec un bon objectif, c'est aussi le cas en tri-DLP sur les gammes pro grâce aux possibilités d'alignement physique des pixels (+ du centre optique du projo). C'est bcp moins le cas en LCoS consumer ou un lissage est présent sur les bordures des pixels. La cause de cela est plutôt ds le moteur optique que dans l'objectif. Un objectif moyen de gamme va surtout réduire le CR ds les hautes fréq. spatiales à cause de la diffraction mais est en général capable de maintenir la forme des pixels (avec éventuellement des aberration chromatique sur les bords).

Ensuite comme on ne veut pas voir les pixels en condition de projection, c'est le recul couplé au pouvoir de résolution de l'oeil qui fait le passage en "analogique".

Néanmoins comme je le disais, c'est discutable... Si par exemple, on préfère visionner de près (c'est mon cas), une techno qui lisse l'image peut être préférable car on verra moins vite apparaître les pixels en se rapprochant...

En pratique, seule compte l'adéquation de la techno avec les conditions de visionnage...
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10347
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 29 Oct 2013 14:24

Je suppose que tu parles de conserver l'aspect echantilloné spatial des pixels (pour ce qui est de l'axe "luminositté", un DLP sort effectivement du numérique puisque c'est à l'oeil de faire la conversion).
Autrement dit, pour toi, le projecteur doit permettre de visualiser le damier à l'écran, si on s'approche.

Là j'avoue que je ne sais pas quelle considération théorique ou pratique se cache derrière cela. Pour moi, les pixels n'existaient pas à l'entrée de la lentille de la caméra et donc ils doivent redisparaitre à la sortie de la lentille du projecteur (même si l'oeil peut aider à finir le boulot). Faute de quoi la chaine n'a pas retransmis fidèlement l'information de départ.

Sinon cela veut dire qu'on laisse passer des fréquences plus élevées que celles contenues dans le signal de départ, ce qui crée du repliement de spectre. Ca peut donner l'impression d'une image plus piquée mais en toute rigueur c'est une dégradation du signal d'entrée.

Idéalement, les pixels ne devraient pas être carrés et étendus en surface, ils devraient être des point mathématiques lumineux, de même que les échantillons d'un signal sonore devraient être instantanés.
On est obligé de leur donner de la surface pour capter et restituer suffisament de lumière en pratique. Ceci peut être modélisé par un filtre supplémentaire appliqué par rapport à la théorie de base (il me semble me rappeler que c'est à nouveau une courbe en sinx/x). J'aurais donc tendance à penser qu'un objectif qui montre le damier est tros bon, justement, il ne joue pas assez bien son rôle de passe bas. Ou y -a-t-il une raison pour reserver ce rôle à l'oeil et ne faire le filtrage final qu'àprès l'objectif ?

Sinon pour préciser les termes que j'utilise, dans une chaine de transmission numérique, il y a filtre passe bas analogique, echantillonage, et quantification, et c'est seulement après la troisième étape que l'on est en numérique. Le signal echantilloné est encore dans le domaine analogique. De même à la restitution avec la conversion numérique/analogique qui fait passer dans le domaine analogique echantilloné, puis le filtre passe bas qui ramene dans le domaine analogique naturel, on n'est vraiment en numérique qu'avant la première étape. Donc je considère en tous trois domaines, qui pourraient être par exemples nommés : "analogique naturel", "echantilloné" et "numérique".

Les pxels peuvent être representés sur un graphique à trois axes, deux representant les dimensions x et y de la matrice et le z étant la luminosité du pixel. Selon l'axe z de luminosité,un peu indépendant des deux autres, la nature numérique ou non du pixel va essentiellement dépendre de la techno (DLP ou LCD). Dans le plan xy ,on peut considérer pour simplifier que les pixels sont déjà analogiques, mais par contre encore echantillonés spatialement au niveau de la matrice, avant de passer par l'objectif du projecteur.

Sinon, compris pour le pb de lien html, j'irai donc voir sur le forum approprié.
gammaburst
 
Messages: 578
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 30 Oct 2013 11:09

Je suppose que tu parles de conserver l'aspect echantilloné spatial des pixels (pour ce qui est de l'axe "luminositté", un DLP sort effectivement du numérique puisque c'est à l'oeil de faire la conversion).


oui. en DLP on peut faire une analogie en disant que le cycle on/off des µmiroirs ressemble à la modulation d'un rapport cyclique en PWM. Donc le rendu de la luminosité en DLP correspond à un signal numérique dont on modifie le rapport cyclique. C'est bien connu que si on ajoute un moyenneur ou un filtre passe-bas derrière (oeil) on obtient l'équivalent d'un convertisseur numérique-analogique.

Autrement dit, pour toi, le projecteur doit permettre de visualiser le damier à l'écran, si on s'approche.


oui. C'est ainsi qu'est sensé fonctionner un diffuseur *numérique* (a contrario d'un diffuseur analogique). La théorie de l'échantillonnage / reconstruction d'un signal analogique que tu décris est tout à fait exacte pour un diffuseur analogique. Cette théorie permet de reconstruire le signal analogique de départ limité dans une bande fréquentielle donnée. C'est donc une réalité "tronquée" en quelque sorte. De cette troncation résulte une résolution analogique limitée (Shannon) ds le signal reconstruit.

Faute de quoi la chaine n'a pas retransmis fidèlement l'information de départ.


Comme dit plus haut, il est impossible de retranscrire fidèlement l'info de départ. Il y a tjrs de la perte et de la disto quelle que soit la techno employée. Ce qu'il faut, c'est que cette perte soit le moins décelable possible.

En diffusion numérique, l'étage passe bas final n'est pas compris dans le diffuseur (pour moi, l'objectif ajoute simplement de la distorsion sur le signal numérique). Il en résulte que la distorsion haute fréquence monte en flèche dans un diffuseur numérique par rapport à un diffuseur analogique qui comprendrait un étage passe bas. Mais si le diffuseur numérique est correctement mis en oeuvre (bonne distance de visionnage), cette disto se traduit par un renforcement de la sensation de piqué (notion d'acutance d'un diffuseur numérique). Donc ce qui est à la base un défaut en terme de théorie du signal peut se traduire à l'arrivée par un avantage en terme de ressenti visuel. Voir sur cine&son pour une analyse un peu plus détaillée...
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10347
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 30 Oct 2013 14:20

Tu as raison, quand je parlais de fidélité à l'original, je voulais dire, à la portion de l'original à laquelle on a decidé de se limiter par conception de la chaine de transmission.
Effectivement une chaine de transmission numérique doit s'imposer une frequence maximale qu'elle sera capable de transmettre.
Sachant que nos sens ont egalement une limite, à partir du moment ou les specifications de la dite chaine permettent d'atteindre ces limites, ce n'est pas un problème.

Apres, selon chacun, il pourra y avoir une préférence pour une image aussi fidèle que possible ou plutôt une image plus belle, même si c'est au prix d'une legère entorse à la fidélité.
Je pencherais sans doute aussi pour le deuxième cas à titre personnel.

Mais j'ai l'impression que dans ton analyse tu accordes une importance trop grande à la différence entre diffuseur numérique et analogique, car cette différence ne joue que sur la façon dont la luminosité des pixels est reproduite. Alors que pour la façon dont les pixels répartis sur une matrice x,y echantillonée sont fusionnés en une image continue, il n'y a pas de différence de principe entre DLP et LCD. A moins que par diffuseur analogique tu veuilles dire technologie de type CRT ? En ce cas il y a effectivement une différence, mais seulement dans le sens horizontal. Dans le sens vertical, la bonne vieille vidéo analogique était déjà echantillonée (découpage en lignes), et donc soumise aux prédictions de la théorie.

La théorie s'applique dans tous les cas, simplement pour certaine configurations il faut tenir compte du fait que l'oeil lui-même fait partie de la chaine. Mais on peut parfois assouplir certaines de ses exigences avec des pénalités acceptables, auxquelles le spectateur finit par s'adapter. Les techniques vidéos analogiques se sont construites sans faire appel à cette théorie, et on continue à la transgresser sur l'axe temporel dans le matériel moderne.
gammaburst
 
Messages: 578
Inscription Forum: 08 Avr 2003 13:20
  • offline

Message » 30 Oct 2013 15:00

gammaburst a écrit:....

Mais j'ai l'impression que dans ton analyse tu accordes une importance trop grande à la différence entre diffuseur numérique et analogique, car cette différence ne joue que sur la façon dont la luminosité des pixels est reproduite. Alors que pour la façon dont les pixels répartis sur une matrice x,y echantillonée sont fusionnés en une image continue, il n'y a pas de différence de principe entre DLP et LCD. A moins que par diffuseur analogique tu veuilles dire technologie de type CRT ? En ce cas il y a effectivement une différence, mais seulement dans le sens horizontal. Dans le sens vertical, la bonne vieille vidéo analogique était déjà echantillonée (découpage en lignes), et donc soumise aux prédictions de la théorie.
...



Bonjour juste une précision, ce que dit Emmanuel c'est que la différence entre un diffuseur numérique et analogique ne se situe pas qu'au niveau de la luminosité produite par les pixels. Il y a aussi l'acutance qui est importante (bord des pixels). Elle est dégradée par la technologie employé des matrice et/ou par l'optique. On peut faire l'analogie entre l'acutance basse et un filtre passe bas. Remarque qui confirme qu'il y aura toujours des pertes dans la reproduction d'une image projetée.

Pour vos échanges je vous rejoins sur leur ensemble.

Cordialement
contemplationaveugle
Pro-Divers
Pro-Divers
 
Messages: 1483
Inscription Forum: 19 Mar 2008 13:26
Localisation: France (66)
  • offline


Retourner vers Normes

 
  • Articles en relation
    Dernier message