exact fafa.dudu, ma simplification au niveau de l'upscaling n'est pas juste en effet. Merci pour les compléments d'informations pertinentes que tu as apporté.
En fait,
- si on branche source analogique sur tv standard, pas de pb
- si on branche source numérique sur tv numérique, pas de pb (mis à part l'upscaling)
- si on branche source analogique sur tv numérique, c'est le cas le plus défavorable parce que plus on modifie le signal plus on a des risques de pertes
On retrouve ce principe de base sur tout système, plus on a d'étapes de transformation, plus on cumule de rendements (jours inférieurs à 100%), donc plus on dégrade le résultat...
Ensuite il faut bien sûr choisir des composants de qualité cohérente, c'est un peut comme dans la hifi: source signla, cables et restitution du signal.
Pour mon expérience perso, en branchant une source analogique sur mon écran, j'ai toujours eu plus de "parasites", ou en tout cas une image moins bonne, qu'en utilisant une source numérique.
Ex : la tnt issue de mon mac G4 est beaucoup plus propre sur écran plat que la tv analogique. La différence était nettement moins visible entre le même mac ma tv classique : conversion analogique / numérique + résolution + upscaling vraisemblablement.
|
62 messages • Accèder Ă une page • 1, 2, 3, 4, 5
|
ModĂ©rateurs: ModĂ©ration Forum Univers TV, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: bonjp et 209 invitĂ©s
maqma marque allemande 1700 euros ..42¨1080P dcdi F/HDMI
- adalgrim
- Messages: 4
- Inscription Forum: 19 Juin 2007 16:29
adalgrim a écrit:exact fafa.dudu, ma simplification au niveau de l'upscaling n'est pas juste en effet. Merci pour les compléments d'informations pertinentes que tu as apporté.
Je n'en attendais pas tant.
En fait,
- si on branche source analogique sur tv standard, pas de pb
- si on branche source numérique sur tv numérique, pas de pb (mis à part l'upscaling)
- si on branche source analogique sur tv numérique, c'est le cas le plus défavorable parce que plus on modifie le signal plus on a des risques de pertes
On retrouve ce principe de base sur tout système, plus on a d'étapes de transformation, plus on cumule de rendements (jours inférieurs à 100%), donc plus on dégrade le résultat...
Effectivement.
Cela dit, les TV CRT ne sont pas forcemment analogiques. A partir du moment où elles ne sont pas 50hz, elles intégrent nécessairement des chassis numériques (parfois complexes) et doivent donc numériser la source (sauf si elle accepte le numérique à la base).
Le numérique, sur les CRT, existe donc depuis très longtemps, depuis la première TV 100hz en fait, qui doit dater de 1991 ou quelque chose comme ça.
Ensuite il faut bien sûr choisir des composants de qualité cohérente, c'est un peut comme dans la hifi: source signla, cables et restitution du signal.
Pour mon expérience perso, en branchant une source analogique sur mon écran, j'ai toujours eu plus de "parasites", ou en tout cas une image moins bonne, qu'en utilisant une source numérique.
Ex : la tnt issue de mon mac G4 est beaucoup plus propre sur écran plat que la tv analogique. La différence était nettement moins visible entre le même mac ma tv classique : conversion analogique / numérique + résolution + upscaling vraisemblablement.
La configuration dans mon profil
Full HD, 3D, 4K, HDR... : OK --- Fluidité : pas OK ! C'est pour quand à la fin ???
-
Fafa - Administrateur Suppléant de l'Association - Secrétaire Adjoint & Superviseur Forum Univers TV
- Messages: 80081
- Inscription Forum: 14 AoĂ» 2003 9:50
- Localisation: 77 et Ă” Touuuulouuuse
|
62 messages
• Page 5 sur 5 • 1, 2, 3, 4, 5
|