Pardon, je voulais dire "si on veut tester la
musicalité" (et pas un paramètre technique comme la bande passante ou la dynamique).
En effet, si j'écris "tester l'illusion", je pars du principe que le résultat du test est déjà connu avant de l'avoir effectué, ce qui n'est pas une bonne démarche.
haskil a écrit:Une chose : rien n'est loupé à la lecture d'un CD : quand c'est loupé, ça fait clic clic clic clic et la lecture s'arrête...
Pas toujours. Le "cric-cric-cric" caractéristique des CD en fin de vie devient audible quand il y a une centaine d'erreurs non corrigées par seconde (une centaine d'échantillons erronés). Avec moins d'une dizaine d'erreurs par seconde, on ne remarque rien de spécial, sauf peut-être sur des signaux-tests. Et moins d'une erreur par seconde, c'est inaudible. Rappelons que ces erreurs sont masquées par interpolation linéaire.
haskil a écrit:Dans les amplis de ma jeunesse on entendait souvent de la diaphonie entre les entrées... et c'était facile à vérifier : tu mettais le tuner en marche, par exemple, et tu basculais sur les autres entrées successivement... et tu entendais alors un petit gazouillis en t'approchant des enceintes.
Entre canaux droit et gauche : idem...
Oui, tout-à-fait d'accord.
Mais la diaphonie gauche - droite depuis le point d'écoute avec des enceintes, ce n'est pas possible. Le résidu de l'autre enceinte est trop faible pour être distingué pendant que l'enceinte opposée joue à pleine puissance.
phil974 a écrit:De plus en plus surréaliste ce post. Juste une question, quel est l'intérêt de tester deux enceintes HdG sur 2 amplis ; l'un valant 15, 20 ou 30 fois plus cher que l'autre? Je vois assez mal à quoi cela peut servir...
C'est parce qu'il existe un débat sur la question. Certains disent que même un ampli bas de gamme a un son parfait. En faisant le test en ABX, on montre que si différence il y a, ce n'est pas dans la tête de celui qui écoute, contrairement à ce qu'ils prétendent.
Si le test est en double aveugle, à niveaux égalisés et randomisé, ils ne pourront rien répondre à cela.
Je dis bien SI on souhaite travailler sur la question.
On pourrait penser qu'il serait plus utile de comparer ainsi deux câbles de modulation, par exemple, car il y aurait un vrai débat. Mais les tests ABX sur les câbles n'ont rien donné, et au fur et à mesure des ABX, on s'aperçoit que la plus petite différence audible en double aveugle semble plutôt se situer dans la zone des amplis les plus pourris que parmi les câbles audio.
j_yves a écrit:Le percheron a écrit:et bien le signal d'origine est modifié, après conversion il sera différend du signal enregistré par le microphone au studio. A voir dans une étude que je vais vous retrouver un CD c'est 200 erreurs /s en lecture.
Dans la chaine de repro on passe d'un signal analogique (microphone) à un numérique puis à un analogique (haut parleur). la perfection de la chaine numérique n'efface pas les sources de pertes de signal en le microphone et le HP.
de quel signal parles tu?
si il s'agit du signal numérique le code reed solomon permet de corriger les erreurs C1 et de reconstituer le signal d'origine à l'identique
(tout un systeme RAID permet de reconstituer les données d'un disque dur HS sur un disque vierge à partir des données des autres disques)
si les CD est plus gravement endommagé il y aura des erreurs C2 et la le signal est interpolé donc effectivement modifié
Mais un cd en bon état ne présente pas d'erreurs C2
Pour être plus précis, il y a les erreurs C1 (dans le premier bloc de détection). On peut les corriger en utilisant des informations redondantes s'il n'y en a pas plus de 2 par bloc. Puis, si des erreurs C1 ne peuvent pas être corrigées, elles arrivent au niveau 2 et deviennent des erreurs C2.
A ce niveau il y a encore des informations redondantes et on peut calculer la valeur d'origine pour la restaurer.
S'il y a plus de 2 erreurs C2 dans un bloc (un bloc fait 24 mots de 8 bits, soit 6 échantillons stéréo 16 bits), on ne peut pas retrouver la valeur exacte, et cela devient une erreur CU. On interpole alors le signal pour masquer l'erreur.
Notez que les logiciels comme EAC sont partis sur une confusion et appellent, à tort, "erreur C2" une erreur CU.
Le chiffre de 200 vient d'une estimation qui dit que au delà de 220 erreurs C1 par seconde, les erreurs CU risquent d'apparaître (on appelle ce taux le BLER, ou BLoc Error Rate, en admettant qu'il y a une seule erreur par bloc).
Le Red Book, qui est la norme officielle, exige qu'il n'y ait pas plus d'une erreur C2 par bloc, si je me rappelle bien. Cela garantit qu'il n'y ait pas d'erreur CU du tout.
Dans la pratique, le BLER est de l'ordre de 10 erreurs C1 par seconde, mais c'est variable. Avec certains graveurs de CD, on pouvait parfois avoir un BLER proche de 0. Avec les CD pressés du commerce, cela varie, disons, entre 0 et 50. Quand cela dépasse la centaine, il y a un problème. C'est le genre de CD qui sera lu sans erreur sur trois platines, et pas du tout reconnu sur une quatrième.
Il y a 7350 blocs par seconde. Avec 10 erreurs C1 par seconde, la probabilité pour que 3 erreurs C1 se trouvent dans le même bloc est très faible. Sans compter que de nombreux chipsets recalculent les données originales avec jusqu'à 4 erreurs C1 par bloc (mais avec plus de risque de laisser passer une erreur non détectée, donc non corrigée au niveau C2 et non interpolée à la fin, qu'un chipset se limitant à 2 erreurs C1 par bloc).