ajds a écrit:De nos jours, la plupart des CD sont mastérisés à partir de bandes 96 Khz ou plus et/ou sont issus d'un echantillonnage delta-sigma à fréquences très elevée. La conversion au format CD lui-même étant ensuite réalisée dans le domaine numérique.
Le signal analogique est donc de base sur-echantillonné lors de son acquisition initiale.
Cela ne resout il pas le problème de la stationnarité?
Ben, pas vraiment, car c'est "intrinsèque" au codage pcm. Enfin, le sur-échantillonnage lors du mastering permet éventuellement d'ajouter artificiellement un gain dans les hautes fréquences pour compenser l'effet "sinus cardinal". Il me semble d'ailleurs que la norme CD permet cela et prévoit un bit dans les trames SPDIF pour le signaler (afin que le dac en tienne compte).
Par contre, cette correction ne pourra correspondre qu'à la valuer "moyenne" de l'erreur d'amplitude (qui dépend de la phase comme je l'explique plus bas).
A mon avis, c'est surtout le sur-échantillonnage dans le dac qui permet de corriger : si tu mets les "points intermédiaires" de façon intelligente, tu pourras reconstruire un signal assez conforme à l'original...
Mais cela fait grimper en flèche le prix des dac, et le fait de devoir sur-échantillonné montre bien que le "condition de Shannon" ne suffit pas !
Je ne connais pas l'effet "sinus-cardinal"
Cela traduit le fait que le gain de la fonction de transfert d'un "bloqueur d'ordre 0" est de la forme sinus(PI x f/Fe)/(Pi x f/Fe).
Un exemple simple : reprenons le sinus à Fe/4. Sa formulation général aux instants d'échantillonnage est sinus(n x PI/2 +phi) avec n le numéro de l'échantillon et phi la phase initial du signal analogique (à priori elle est quelconque), en supposant l'amlitude égale à 1 volt.
Si phi=0, alors coup de bol, cela donne les échantillons suivant : 0, 1,0, -1, 0, -1, 0 etc. Donc 1 signal en "créneaux" d'amplitude 1.
Si phi=45deg (PI/4), alors les valeurs sont 0.7, 0.7, -0.7, -0.7, 0.7, 0.7, -0.7, -0.7, etc, soit un signal carré d'amplitude 0.7V (en fait racine(2)/2 soit 0.707).
On a donc une erreur sur l'amplitude apparente après numérisation de 0% à 30% environ selon la phase, et en moyenne l'erreur est de l'ordre de 10% (la valeur du sinus cardinal à cette fréquence).
Si tu envois ces données "brutalement" à un dac, tu obtiendras des signaux d'amplitudes différentes du signal initial !!!! l'amplitude du signal en sorite est dépendante de la phase en entrée !
Un dessin serait sans doute plus parlant, désolé...
Si le signal sinus est non-synchronisé avec l'horloge d'échantillonnage, tu auras en pratique un "glissement de phase", et du coup le sinus en sortie paraitra modulé en amplitude (de 30%!) à une fréquence correspondant au "battement" entre le signal et l'horloge numérique.
Tu auras sans doute remarqué que je parle d'amplitude "apparente" pour le signal numérique, car avec un sinus stationnaire à Fe/4, les hypothèses de Shannon et autres sont vérifiées : quand f<Fe/2, Shannon dit qu'il n'y a pas de perte d'information, il a juste oublié de préciser que le signal numérisé n'a pas forcément la même allure que le signal analogique.
Donc, même si le signal semble "bizarre" (amplitude et forme dépendant de la phase avant numérisation et ne ressemblant pas trop au signal original), il contient toutes les informations dont on a besoin pour reconstruire le signal original. D'ailleurs, en faisant une FFT, on devrait trouver la même chose dans les 2 cas que je présente.
Pour retrouver l'infos avant de l'envoyer au dac, il faut chercher quelle combinaison de sinus de fréquence <Fe/2 passe par tous les points. Fourier permet de dire que cette combinaison est unique si le signal est purement périodique (=stationnaire). Cela correspond dans notre cas à un sinus d'amplitude 1V, et heureusement...
Mais la "reconstruction" en question n'est pas hyper-simple et dépend beaucoup du signal concerné : dans le cas où phi=45deg dans mon exemple, il faut (entre autres) rajouter une "bosse" de 0.3V entre 2 points d'échantillonnage. On voit donc clairement qu'il faut forcément qu'il se passe "des choses" entre 2 points d'échantillonnage (car un dac maintient la sortie constante entre 2 échantillons)...
C'est là que les algo de sur-échantillonnage avec des calcul DSP évolués entrent en scène, comme on en trouve dans certaines platines CD récentes (ou dac externes) : le but est bien de reconstruire le signal entre les différents échantillons.
cet effet est il propre aux ADC PCM ou commun à tous les ADC y compris les Delta-Sigma ?
En fait, comme tu peux le voir, je ne fais aucune hypothèse sur le can utilisé, car c'est "intrinsèque" au codage pcm...
Pour résumer, je peux présenter les choses un peu différement : le codage numérique pcm ne fournit la tension de sortie que à intervalle régulier, et c'est au dac de "deviner" ce qu'il faut mettre entre 2 échantillons. Et un dac ordinaire se contente bètement de conserver la sortie constante jusqu'à l'échantillon suivant, ce qui donne des "marches d'escalier".
Si on veut éviter cela, il faut rajouter des traitements pour "joindre les points" de façon plus réaliste... Ce qui impose sur-échantillonnage dans le dac et traitement du signal.
J'espère que cela éclaire un peu ?
jb (qui a ENCORE fait un roman...

)