upsilandre a écrit:les algo de prediction de mouvement et les refresh rate elevé sur les ecrans c'est avant tout pour reduire les problemes de motion resolution causé par un phenomene trop mal connu mais omnipresent qu'est le "hold effect".
Je ne connaissais pas le phénomène sous ce nom là, mais d'accord avec ton explication du "hold effect". Pour moi, il produit des erreurs de mouvement (avec eventuellement des retours en arrière) que les anglo-saxons décrivent sous le nom de "judder", tout comme pour le 3:2 pulldown, et je vois quand même bien cet effet comme une forme de saccade, en tous cas une perte de fluidité .Par ailleurs, on peut penser que l'erreur sera plus evidente si l'objet se déplace vite, il n'y a donc pas de limite absolue, que ce soit le 60 fps ou autre, il existera toujours une vitesse de déplacement de l'objet telle qu'une cadence d'image donnée soit insuffisante en théorie.
D'autre part à mon sens il y a un autre effet indépendant, source de saccades : le "strobe". Si un objet se déplace suffisament rapidement pour que l'oeil ne puisse pas le suivre, dans la réalité il va laisser une trainée continue sur la rétine.
En vidéo, si on a une vitesse d'obturation rapide, et que l'objet a une vitesse élevée, il produira un succession d'images nettes completement séparées les unes des autres qui tomberont a des emplacements différents de la rétine, ce qui est différent d'une trainée continue et donne un effet de saccade par dédoublement, en quelque sorte, empêchant l'oeil de fusionner correctement le mouvement. Cet effet est amplifié par les grand écrans sur lesquels le déplacement des objets est plus important entre deux images, et là aussi il y aura toujours une vitesse telle qu'une cadence donnée soit insuffisante pour empêcher la séparation des images.Un des remèdes est de réduire la vitesse d'obturation pour créer du flou de mouvement, qui va permettre aux images de se recoller entre elles, mais au dépend de la netteté. L'autre méthode est de génerer par compensation de mouvement des images intermédiaires qui vont venir boucher les trous de la trajectoire. on n'est plus alors obligé de flouter.
upsilandre a écrit: arrivée a 60fps on comprend bien que le probleme c'est pas la fluidité, quand on va au dela c'est pas vraiment par soucis de fluidité
Dans la pratique Il doit effectivement y avoir une limite à la cadence d'image nécessaire pour une fluidité parfaite, dans la mesure ou l'oeil ne cherchera plus à suivre les objets au delà d'une certaine vitesse. Il faut une cadence qui permette à l'oeil de voir net l'objet le plus rapîde qu'il acceptera de suivre, et au delà on peut se contenter de flouter puisque dans la réalité il donnerait effectivement un effet de traine sur la rétine. Les essais de Dougals Trumbull sur les hautes cadences indiquaient que la sensation de réalisme atteignait un plateau vers 72 fps si je me souviens bien (plus sûr du chiffre). mais en toute rigueur, la taille d'écran visée doit jouer aussi.
upsilandre a écrit: la parade contre le hold effect c'est de reduire au maximum le temps d'affichage de l'image (reduire le duty cycle des pixels) et de miser sur la persistence retinienne de l'image (flasher l'image) et ainsi l'image persistante sur la retine va bien suivre le mouvement des yeux (forcement) contrairement a celle affiché sur l'ecran et donc pas de hold effect pendant ce moment la.
A noter que ce hold effect est utilisé délibérement en audio : on maintient la valeur d'un echantillon pendant toute la durée d'une période d'échantillonage. C'est parfaitement acceptable car l'effet sur le signal est completement predictible et correspond à l'application d'un filtre qui est une portion de sin( x) /x que l'on peut précompenser par calcul dans le domaine numérique, avant la reconversion en analogique. Mais j'avoue que j'ai du mal à penser la théorie de l'échantillonage dans les trois dimensions de l'image vidéo (hauteur, largeur et temps) et maintenant 4 avec la 3D, et je ne sais pas bien quel serait l'équivalent en vidéo. En l'absence d'une telle alternative, c'est effectivement ta méthode qui s'applique. Pour poursuivre le parallèle avec l'audio, si on s'interesse à l'axe du temps, on voit que la compensation de mouvement est l'équivalent du suréchantillonage utilisé à la conversion numérique/analogique en audio.
j'ouvre une parenthèse pour indiquer que l'explication du cinéma par la "persistance rétinienne" que l'on voit partout au point de l'accepter sans trop s'y arreter est quelque peu contestée. On parle également d'un "effet Phi" par lequel le cerveau accepte de considérer une suite d'images fixes comme faisant partie d'un mouvement. Ma théorie personelle est qu'on n'a pas besoin de faire appel à une quelconque particularité physiologique, si ce n'est une certaine lenteur de réaction qui fait office de filtre passe bas temporel final. Le fonctionnement du cinéma s'explique alors simplement comme un système echantilloné, à une fréquence de 24 hz, donc susceptible de reproduire des mouvements jusqu'à 12 hz. L'oeil voit de ce fait des images en mouvement continu, simplement parce que la suite d'image fixe est absolument identique physiquement à un tel mouvement continu, dans les limites d'une fréquence de 12 Hz, de par la théorie. Le cinéma ne la respecte pas rigoureusement (pas de filtre passe bas temporel au début de la chaine, à la prise de vue, pour éliminer les frequences au dela de 12 Hz) ce qui introduit des effets d'aliasing/repliement du spectre->roues qui tournent à l'envers,...upsilandre a écrit: et de miser sur la persistence retinienne de l'image
upsilandre a écrit: et plus ont reduit le duty cycle plus faut compenser en augmentant l'intensité des pixels pour compenser la luminosité mais y a des limites.
pour eviter les scintillements du a un duty cycle court faut du 120hz (et donc faut deja de la prediction de mouvement car les source vont pas audela de 60fps) ensuite le 240hz par exemple va permetre de reduire encore le duty time par raport au 120hz sans pour autant avoir besoin d'augmenter l'intensité des pixels (par exemple l'oled on peut certainement utiliser des duty cycle tres court, aussi court que necessaire, mais si on veut pas apliquer des voltages trop elevé sur les pixels oled et donc reduire encore plus leur durée de vie deja problematique alors vaut mieux multiplier les frames, le 240hz avec prediction de mouvement aura toujours du sens meme sur oled)
Tres interessant, je n'avais pas réalisé que le rapport cyclique est indépendant de la fréquence des pixels, et qu'on peut donc augmenter cette dernière sans avoir à pousser la luminosité.
Effectivement si un pixel est stable pendant 1/100 s, et que je l'éclaire pendant un 1/200 s (rapport cyclique 1/2), si je divise en deux pixels successifs de 1/200 s eclairés chacun pendant 1/400s, le rapport temps d'allumage / durée totale du pixel reste le même, on est toujours allumé la moitié du temps, mais la durée de "hold" de chaque image est divisée par deux.
A noter qu'à luminosité égale, l'intensité moyenne passant dans les led reste identique quand le rapport cyclique diminue, on fait passer deux fois plus de courant instantané, mais pendant une durée deux fois moindre. Il est possible de depasser le courant maximal en instantané avec les LEDs classiques, si la moyenne reste en dessous de la limite. Quant à la tension, elle est imposée par la led dans son état passant, on ne lui demande pas de bloquer la tension d'alimentation en inverse, je pense..Pour les OLEDs, à voir...