Modérateurs: Modération Forum Haute-Fidélité, Le CA de l’Association HCFR • Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 50 invités

Les Lecteurs CD & SACD

SACD un avenir ou non??

Message » 23 Juin 2006 19:21

Cette discussion sur le nombre de bits et la fréquence d'échantillonage est assez amusante si on la rapporche d'une discussion analogue en matière video :

Sur la page 374 (chapitre 23) du bouquin qui a été cité plus haut, il est écrit qu'une image de 500x500 pixels est de bonne qualité et qu'une image de 1000x1000 est excellente.

En-dessous, il est écrit que ce n'est pas la peine d'avoir plus de 8 bits par pixels (je pense qu'il a voulu écrire texel, à moins que ce ne soit des écrans noir et blanc), car l'oeil humain ne perçoit pas mieux.

Le bouquin a visiblement été écrit il y a quelques années, ce qui nous permet de nous faire réfléchir sur la notion de qualité perçue.

Mon opinion est que la qualité attendue par le consommateur augmente (ou diminue) avec la qualité (ou la non qualité) de ce qui lui est basiquement offert. Aujourd'hui où l'on parle de TVHD, il est clair que les 1000x1000 ne correspondent pas à des images de qualité. Par ailleurs, dans le monde expert/professionnel de la photo numérique, il est clair que le codage des couleurs sur 3x8bits n'est pas totalement satisfaisant et que l'on peut avoir mieux avec plus de bits d'ailleurs, l'affichage de windows propose 32 bits...).
Abraham.ctl
 
Messages: 2016
Inscription Forum: 09 Mar 2003 2:13
Localisation: Paris
  • offline

Message » 23 Juin 2006 22:43

Abraham.ctl a écrit:Cette discussion sur le nombre de bits et la fréquence d'échantillonage est assez amusante si on la rapporche d'une discussion analogue en matière video :

Sur la page 374 (chapitre 23) du bouquin qui a été cité plus haut, il est écrit qu'une image de 500x500 pixels est de bonne qualité et qu'une image de 1000x1000 est excellente.

En-dessous, il est écrit que ce n'est pas la peine d'avoir plus de 8 bits par pixels (je pense qu'il a voulu écrire texel, à moins que ce ne soit des écrans noir et blanc), car l'oeil humain ne perçoit pas mieux.

Le bouquin a visiblement été écrit il y a quelques années, ce qui nous permet de nous faire réfléchir sur la notion de qualité perçue.

Mon opinion est que la qualité attendue par le consommateur augmente (ou diminue) avec la qualité (ou la non qualité) de ce qui lui est basiquement offert. Aujourd'hui où l'on parle de TVHD, il est clair que les 1000x1000 ne correspondent pas à des images de qualité. Par ailleurs, dans le monde expert/professionnel de la photo numérique, il est clair que le codage des couleurs sur 3x8bits n'est pas totalement satisfaisant et que l'on peut avoir mieux avec plus de bits d'ailleurs, l'affichage de windows propose 32 bits...).


Juste une précision : Le 32 bits de windows est en fait un 3*8 bits. Le futur de windows sera en 40 bits par exemple (3 fois 10 bits). Les prochaines générations de cartes graphiques devraient gérer ce genre de choses, l'apparition de windows vista accélerera tout ça. J'ai aussi cru lire que la norme HDMI allait passer en 1.3 pour justement supporter une profondeur de couleur de 10 bits. Rappel pour les moins matheux ou geek d'entre nous et qui ont eu le courage de lire jusqu'ici : avec 8 bits ont a 256 nuances de gris, avec 10 bits 1024 ! C'est donc une grosse différence !
Avatar de l’utilisateur
ccc
Pro-Fabricant.
Pro-Fabricant.
 
Messages: 3249
Inscription Forum: 05 Mar 2003 22:16
Localisation: 77
  • offline

Message » 24 Juin 2006 3:45

GBo a écrit:comme je le disais ici (en m'étant un peu enervé sorry), l'oreille n'est pas linéaire au sens que je précise, et une étude a priori sérieuse fait état d'une résolution temporelle de 40 Khz:
http://www.homecinema-fr.com/forum/view ... #168696432


Une personne ayant lu cette étude a indiqué sur hydrogenaudio que l'article ne mentionnait aucune précaution prise pour séparer les fréquences inaudibles des fréquences audibles (super-tweeters bi-amplifiés en actif). Sans cela, les fréquences supérieures à 20 kHz peuvent provoquer des distorsions audibles (par exemple celles que l'on entend quand on branche un HP de TP de physique de lycée sur un GBF). Cela rend caduques l'ensemble des conclusions de l'étude :(

Abraham.ctl a écrit:En-dessous, il est écrit que ce n'est pas la peine d'avoir plus de 8 bits par pixels (je pense qu'il a voulu écrire texel, à moins que ce ne soit des écrans noir et blanc), car l'oeil humain ne perçoit pas mieux.


L'oeil humain perçoit mieux. On distingue les transitions sur une rampe de 255 valeurs de gris sur écran cathodique comme sur tirage argentique (à la lumière du jour).
Sur LCD, plasma, DLP, ou jet d'encre, c'est plus ambigu, car un traitement numérique précède l'affichage.
Exemple d'image de 8 bits avec transitions visibles : http://www.brucelindbloom.com/index.htm ... mages.html
Fichier DeltaE_8bit_gamma2.2.tif
Les deux carreaux gris foncés en bas à droite de la plaque comportent des transitions élémentaites visibles.
Pio2001
Contributeur HCFR 2019
 
Messages: 9236
Inscription Forum: 07 Oct 2003 12:50
Localisation: Neuville-sur-Saône
  • offline

Message » 24 Juin 2006 8:13

Pio2001 a écrit:
GBo a écrit:comme je le disais ici (en m'étant un peu enervé sorry), l'oreille n'est pas linéaire au sens que je précise, et une étude a priori sérieuse fait état d'une résolution temporelle de 40 Khz:
http://www.homecinema-fr.com/forum/view ... #168696432

Une personne ayant lu cette étude a indiqué sur hydrogenaudio que l'article ne mentionnait aucune précaution prise pour séparer les fréquences inaudibles des fréquences audibles (super-tweeters bi-amplifiés en actif). Sans cela, les fréquences supérieures à 20 kHz peuvent provoquer des distorsions audibles (par exemple celles que l'on entend quand on branche un HP de TP de physique de lycée sur un GBF). Cela rend caduques l'ensemble des conclusions de l'étude :(
[...]


Salut pio,
J'aimerais mieux comprendre tes réserves dans le cas de ce test bien précis, je n'ai lu que le résumé certes mais il est particulièrement fourni, voici ce j'en comprends pour ma part:

Le but du test de Yamamoto et cie (publié à l'AES sous le titre "Does High Sampling Frequency Improve Perceptual Time-Axis Resolution of Digital Audio Signal?") était d'estimer les performances de différentation de longueur sur l'axe des temps pour des types de signaux bien particuliers:
Différence entre
- un train d'impulsions d'une durée de 125 ms (limitons nous à cette durée pour la discussion), appelé "signal de référence", et
- des trains d'impulsions de longueurs légèrement différentes, soit 125 ms +/- X ms (X dans la limite des +/- 20% à chaque fois), appelés "signaux de test"
Ces trains sont générés en 16 bits / 96 Khz (info donnée par defsac sur hydrogen audio).

Le test consistait à présenter aux cobayes (humains!) alternativement le signal de réference et les signaux de tests, et de leur demander si oui ou non une différence était perçue. S'ensuit une étude statistique des réponses.

Cela a été fait sur un système audio donné contenant un maillon de filtrage numérique (FIR) en aval de la source 16/96, programmé de deux façons différentes:
- FIR filtrant tout ce qui dépasse 40 KHz
- FIR filtrant tout ce qui dépasse 20 KHz

D'après les auteurs de l'article, pour les cobayes testés, les performances de différentiation entre signal de référence et signaux de tests s'avèrent meilleures quand le FIR est à 40 KHz. Intéressant...

=> Pio, supposons pour le moment que la conclusion se limite à ce que je viens d'enoncer, sans extrapoler à la musique: qu'est-ce qui l'invaliderait selon toi?

merci,
GBo
GBo
 
Messages: 3377
Inscription Forum: 03 Avr 2002 2:00
Localisation: RP 78
  • offline

Message » 24 Juin 2006 13:01

Il n'y a rien d'invalide dans ce résumé.
Les deux points délicats sont le système de reproduction sonore et l'analyse statistique. Pour les vérifier, il faut l'article en entier.

Le premier point est que les fréquences ultrasonores peuvent provoquer de l'intermodulation dans la bande audible, et ce d'autant plus que l'amplificateur est médiocre (d'après Griesinger). Expérience : on prend le petit HP style radio-réveil des kits d'éléctronique amusante, on le branche aux bornes d'un générateur basse fréquence, on se met à 10 kHz, et on switche entre sinus, triangle, et carré. Ce faisant, on introduit plus ou moins d'ultrasons. La différence est fragrante. Même expérience en 96 kHz dans SoundForge sur une chaine hifi : aucune différence audible entre le triangle, le sinus et le carré. On a ici un exemple où ne pas filtrer à 20 kHz introduit des distorsions indésirables, ce qui rend le signal filtré à 20 kHz différent (et meilleur) que celui filtré plus haut.
Or, je n'ai plus le lien sur hydrogenaudio, je ne sais plus qui c'est, mais la personne qui a lu l'article a dit qu'aucune précaution contre cela n'y est mentionnée. Dans les tests d'Oohashi et de la NHK, le système de bi-amplification active est détaillé. C'est un système complexe à mettre en oeuvre, et il est improbable qu'il ait été employé sans que l'article le mentionne.

Les résultats peuvent donc s'expliquer par un taux de distorsion plus important dans la bande audible lorsqu'on filtre à 40 kHz.

Le deuxième point consisterait à vérifier que l'estimation de la pertinence du résultat est correcte. Il ne s'agit pas de faire un score plus élevé à l'ABX dans un cas que dans l'autre. Cela ne prouverait rien. Ce serait le hasard. Mais n'ayant pas d'infos à ce sujet, je pars du principe qu'ils ont travaillé correctement.
Pio2001
Contributeur HCFR 2019
 
Messages: 9236
Inscription Forum: 07 Oct 2003 12:50
Localisation: Neuville-sur-Saône
  • offline

Message » 24 Juin 2006 13:19

Coté analyse statistique il faut tout vérifier en effet, et pour être franc, je n'aime pas constater que ce genre d'expérience n'ait fait l'objet que d'une seule publication...(à ma connaissance du moins).

Coté distorsion, je comprends ce que tu dis et je connais le phénomène dont tu parles, mais intituitivement je n'ai pas l'impression que cela puisse expliquer les résultats de Yamamoto, à supposer qu'ils soient statistiquement valides, et reproductibles.

Les résultats peuvent donc s'expliquer par un taux de distorsion plus important dans la bande audible lorsqu'on filtre à 40 kHz.

Quel que soit le système audio utilisé, même pourrave, comment la distorsion pourrait-elle expliquer que l'on puisse faire la différence entre, par exemple:
- un burst de 125ms filtré à 40 Khz, et
- un burst de 125ms+10ms filtré à 40 Khz

et qu'on n'y arrive plus entre:
- un burst de 125ms filtré à 20 Khz, et
- un burst de 125ms+10ms filtré à 20 Khz

Tu conviendras que ce n'est pas du tout comparable au cas de discrimination entre carré et triangle dont les ultra-sons pissent en effet très différemment dans la bande audio < 20 KHz (si distorsion il y a, bien sûr).
Dans le test de yamamoto, quelles seraient les raisons qui feraient que le burst de 125ms filtré à 40 KHz pisse plus (ou moins) que le burst de 125ms+10ms filtré à 40 Khz? il s'agit à chaque fois du même type du burst (train d'impulsions), dont seule la durée varie!
GBo
 
Messages: 3377
Inscription Forum: 03 Avr 2002 2:00
Localisation: RP 78
  • offline

Message » 24 Juin 2006 14:05

GBo a écrit:Quel que soit le système audio utilisé, même pourrave, comment la distorsion pourrait-elle expliquer que l'on puisse faire la différence entre, par exemple:
- un burst de 125ms filtré à 40 Khz, et
- un burst de 125ms+10ms filtré à 40 Khz

et qu'on n'y arrive plus entre:
- un burst de 125ms filtré à 20 Khz, et
- un burst de 125ms+10ms filtré à 20 Khz


Je n'en sais rien, il y a trop peu d'infos. Je n'ai que le résumé posté sur le site de l'AES (preprint 4562). Apparament, il s'agit plutôt de comparer des pulses large bande à des pulses perturbés filtrés à 40 kHz, et des pulses large bande à des pulses perturbés filtrés à 20 kHz.

Je ne sais pas comment les pulses large bande sont générés. Tout est possible, est-ce que le générateur de pulses large bande a une meilleure impédance de sortie que le DAC 96 kHz, celui-ci produisant une distorsion maximale au filtrage 40 kHz, ce qui rend ces signaux différents des deux autres ? Est-ce que l'utilisation de FIR, qui provoque du pré-echo à 40 kHz, ne génère pas justement une distorsion pré-pulse, que l'oreille perçoit, alors qu'elle est incapable, par effet de masque, de percevoir une distorsion post-pulse, qui se produira avec un générateur analogique de pulses large bande ?...

GBo a écrit:Tu conviendras que ce n'est pas du tout comparable au cas de discrimination entre carré et triangle dont les ultra-sons pissent en effet très différemment dans la bande audio < 20 KHz (si distorsion il y a, bien sûr).


Le niveau des ultrasons est semblable en tout cas. Après tout, un signal carré a certains points communs avec un train de pulses.
Pio2001
Contributeur HCFR 2019
 
Messages: 9236
Inscription Forum: 07 Oct 2003 12:50
Localisation: Neuville-sur-Saône
  • offline

Message » 24 Juin 2006 14:47

Voici un extrait du résumé, la ponctuation n'est pas terrible d'ailleurs:

(...)As the reference signals, pulse trains having designated intervals 1, 0.5, 0.25, and 0.125 s were used. On the other hand, pulse train having slightly different intervals from the reference signals (maximum+20% to -20% were used as the test signals. Reference signals and test signals were presented alternately to the subjects. The subjects were asked whether the test signal is equal to the reference signal or not by hearing. The subjects were 11 males, age 22 to 24, having normal hearing. Purpose of this experiment is to confirm the following hypothesis. Since the waveform of a pulse signal reproduced by the 40-kHz bandwidth system is more similar to the original signal than by the 20-kHz bandwidth system. We can assume that the subjects would be able to identify the interval of the test signal more easily and more correctly using the 40-kHz system thab using the 20-kHz system(...)

Apparament, il s'agit plutôt de comparer des pulses large bande à des pulses perturbés filtrés à 40 kHz, et des pulses large bande à des pulses perturbés filtrés à 20 kHz.


Tu as peut-être bien raison, on peut l'interpreter comme ça! si c'est ce que tu dis qui a été fait, alors ce que j'ai relaté de l'expérience serait faux, et je me rangerais du coup à ton avis sur la nullité du test de Yamamoto. Je ne suis même plus sûr d'avoir correctement interprété la nature de la perturbation d'ailleurs.

=> Il faudrait alors que je tente le test que j'ai décrit, car dans mon cas il n'y a pas le pb de distorsion justement (car meme distorsion à chaque comparaison)!
GBo
 
Messages: 3377
Inscription Forum: 03 Avr 2002 2:00
Localisation: RP 78
  • offline

Message » 24 Juin 2006 21:45

Bon je sors de mes lectures
GBo a écrit: Tu y es presque pourtant il me semble!

En tout cas j'y reviens. :mdr: Emmanuel m'a un peu forcé à refaire un point mais ça n'est pas plus mal.
Je vais remettre un peu à ma sauce ce que tu viens de dire encore une fois mais c'est juste histoire de voir si je suis en phase.

Le truc que je n'avais pas percuté c'est que la somme des sinc est l'équivalent d'un filtre "vertical", sans pente. Les sinc c'est la façon de procéder "mathématiquement", l'algo qui sert pour la convolution mais fonctionnellement c'est juste ça, un filtre pour éliminer les fréquences trop hautes par rapport à la fréquence d'échantillonnage.
Un point intéressant comme tu l’as déjà expliqué c'est qu'en posant ce filtre on retrouve la position du signal initial pour tout nouveau point temporel que l'on voudra considérer.

Les zéros posés dans le flux numérique, élément qui m'a laissé perplexe dans la remarque d'Emmanuel, le sont avant (ou en entrée de) la convolution, "pour créer une donnée de calcul" en quelque sorte, après filtrage (calcul des sinc) on n’a pas 0 mais bien le résultat du calcul c'est à dire la valeur du signal aux n nouvelles mesures (calculées) que l'on vient de créer en plus d'une mesure (réelle) déjà existante.
En fin de traitement numérique quand on passe à la phase d'élaboration du signal on travaille bien avec une suite de nxFs valeurs renseignées.

Les points qui suivent sont des choses qui m’échappent ou sur lesquelles j’ai un doute
GBo a écrit: Il ne s'agit pas tant de simuler des mesures réelles qui auraient été faites à NxFs (c'est ambigü de dire ça) que de faire un pas vers la reconstruction parfaite de ce qui est enregistré sur le CD: cette opération du suréchantillonage/filtrage ne rajoute pas d'information par rapport l'information contenue par le sampling à Fs (c'est sur ce point que certaines pub dérapent).

Ce que tu veux dire par là c'est juste que ce qui est vraiment important ça n’est pas le sur échantillonnage mais plutôt le filtrage « quasi parfait » ? Ou c'est vraiment par rapport à la notion de simulation ?
Parce qu’on passe bien par le calcul de nouvelles valeurs (j'emploie simulation dans le sens ou ça n'est pas une mesure observée mais calculée). Il n'y a bien sur pas apport de nouvelles informations puisque on s'est contenté d'exploiter celles qu'on avait pour y arriver.
Mais le résultat au bout du compte est bien d'avoir une nouvelle série de valeurs n fois plus importante sans que l'on ait procédé à de nouvelles mesures, il y a donc bien simulation de ces mesures, je ne vois pas bien ou c'est ambigu ?

GBo a écrit:Si on regarde les choses dans le domaine fréquentiel, cela revient juste à séparer la bande de base (0 à Fs/2) de ses "images" qui polluent au-dessus, voir les schémas du haut dans ma page de cours, au milieu et à droite.

Oui, et la conséquence d'enlever toutes les "images" c'est de rester avec la plage considérée « exactement » renseignée et de pouvoir ainsi donner une valeur aux n nouvelles données.

angus2 a écrit:Si je vous suis bien il y a en fait deux méthodes pour générer le signal à partir des valeurs numériques :

Emmanuel --> signal de droite à partir des valeurs + filtre "anti bloqueur" (en fréquences)

Gbo --> somme des fonction sinc de chacune des valeurs.

Ici je reviens sur cette séparation qui me semble maintenant fausse en fin de compte.
Il y a plutôt deux choses différentes.
La présentation d’Emmanuel est la façon dont le flux numérique est transformé en signal analogique.
Ce dont tu parles c’est de travail en amont pour « améliorer » le flux numérique, il est filtré et de nouveaux points sont rajoutés mais ce flux modifié est traité ensuite de la même façon que le précédent par la méthode décrite par Emmanuel ?

L’intérêt du travail en amont effectué serait double :
- le filtrage a déjà eu lieu et le filtre qui sera utilisé dans la partie « Emmanuel » n’est plus aussi crucial du coup
- en augmentant l’échantillonnage on diminue aussi la hauteur des marches du signal de droite soit là aussi pour réduire la nécessaire qualité du filtre « anti bloqueur » soit simplement pour mieux lisser ?

Le sur échantillonnage est il indispensable dans cette méthode de filtrage numérique ou on le fait parce qu’il ne coûte pas grand-chose à mettre en place (les algo de calcul existant déjà de toute façon pour filtrer) ?

Une question, en pratique, dans les lecteurs récents dont tu parlais, le sur échantillonnage est de quel ordre (valeur de n) ?
angus2
 
Messages: 5904
Inscription Forum: 09 Déc 2003 14:18
Localisation: Paris
  • offline

Message » 24 Juin 2006 22:32

Je souhaiterais juste relever quelques extraits qui méritent commentaires, et sur le reste tu as tout juste à mon sens. :wink:
Parce qu’on passe bien par le calcul de nouvelles valeurs (j'emploie simulation dans le sens ou ça n'est pas une mesure observée mais calculée). Il n'y a bien sur pas apport de nouvelles informations puisque on s'est contenté d'exploiter celles qu'on avait pour y arriver.
Mais le résultat au bout du compte est bien d'avoir une nouvelle série de valeurs n fois plus importante sans que l'on ait procédé à de nouvelles mesures, il y a donc bien simulation de ces mesures, je ne vois pas bien ou c'est ambigu ?

Ce qui était ambigü c'était de dire que sans précisions que:
- partir d'un flux à Fs et surechantilloner (ajout zéro+filtre) à NxFs, est une simulation de:
- echantilloner à NxFs
Ce n'est (à la rigueur) le cas que si lors de l'échantillonage à NxFs, on a appliqué au signal un passe-bas à Fs/2 (c'est surement ce que tu avais en tête, mais ce n'était pas dit, j'ai préféré reformuler), sinon on aura forcément davantage d'information (des infos au dessus de Fs/2). Le suréchantillonage ne vise pas à "récréer" de telles infos. J'ai lu des trucs trés discutables là dessus dans les fora, certains ont même developpé une sorte d'aversion intellectuelle à l'égard de l'oversampling, croyant qu'on cherchait par là à recréer de l'information artificiellement (le mot est laché :D ), alors que c'est une approche finalement très puriste si on connait un tant soit peu la théorie (de Whittaker-Shannon).
Ce dont tu parles c’est de travail en amont pour « améliorer » le flux numérique, il est filtré et de nouveaux points sont rajoutés mais ce flux modifié est traité ensuite de la même façon que le précédent par la méthode décrite par Emmanuel ?

Pas tout à fait, la déformation en sinc fréquentiel due au DAC n'est pas aux mêmes fréquences (mettre NxFs en lieu et place de Fs), et c'est bien entendu une aubaine pour son moindre impact sur la bande de base.
L’intérêt du travail en amont effectué serait double :
- le filtrage a déjà eu lieu et le filtre qui sera utilisé dans la partie « Emmanuel » n’est plus aussi crucial du coup
- en augmentant l’échantillonnage on diminue aussi la hauteur des marches du signal de droite soit là aussi pour réduire la nécessaire qualité du filtre « anti bloqueur » soit simplement pour mieux lisser ?

C'est partiellement oui: il faut toujours faire un filtrage analogique malgré tout pour bien faire et je dirais que le suréchantillonage/filtrage sert à réduire fortement les contraintes sur ce filtre analogique, il devient plus simple, moins cher et moins impactant sur le signal (ce n'est pas une question de qualité mais de ce qu'il a faire, voir le schéma plus bas qui est très clair).
Le sur échantillonnage est il indispensable dans cette méthode de filtrage numérique ou on le fait parce qu’il ne coûte pas grand-chose à mettre en place (les algo de calcul existant déjà de toute façon pour filtrer) ?

Filtrage numérique et oversampling sont indissociables: le filtrage numérique ne peut avoir lieu QUE parce qu'il y a élévation de cadence, et c'est justement POUR pouvoir faire du filtrage d'images dans le domaine du numérique que l'on élève la cadence (et ça nous arrange aussi sur la taille des "marches" juste en sortie du circuit de conversion et avant filtrage final).

Voici sur ce dessin le résultat de ce filtrage numérique, avec N=2 au milieu (B), et N=4 en bas (C): le filtrage analogique qui finit le boulot de reconstruction peut être d'autant moins pentu ("more gentle") que N est grand:
Image
(A) corerspond au cas sans oversampling, tout doit être filtré en aval du DAC avec une pente très raide (dur en analogique) si on veut éviter les images.

Noter que le dessin est simplifié, le filtrage en sinc freq du au DAC n'est pas représenté (tout se passe comme s'ils avaient considéré que le DAC était en "pulse", et non en "hold").
Pour un DAC classique (en hold donc), le schéma (A) (N=1, pas d'oversampling) doit être remplacé par celui ci-dessous, où l'on voit que les portions bleues sont naturellement éliminées (il restera à réduire à néant les portions blanches au dessus de Fs/2, c'est le rôle du filtre analogique):
Image
NB: source du dessin: http://www.maxim-ic.com/appnotes.cfm/ap ... umber/3172
On y apprend d'ailleurs comment comment compenser en analogique le rabotage de la bande de base du à la réponse en sinc freq


Une question, en pratique, dans les lecteurs récents dont tu parlais, le sur échantillonnage est de quel ordre (valeur de n) ?

Le mien est de 1997, avec N=8. C'est du 24/8x44.1 qui attaque un DAC 20/8x44.1.
Pendant les années qui ont précédé, la règle était plutot N=4 dans ce genre de techno (sauf qu'en parallèle il y a eu la période du 1-bit/MASH/bitstream...).
Plus récemment c'est de l'upsampling (N non entier) en 24/96 ou 24/192 qui est apparu pour des raisons de convergence avec le monde de l'audio de la video, mais ce n'est pas fondamentalement différent de l'oversampling; le marketing l'a mis beaucoup plus en avant par contre (il n'y a même pas marqué "20/352.8" sur la façade de mon lecteur de 1997 alors que c'était plutot remarquable pour l'époque).

Sur ce, il y a l'hommage à Ligeti qui commence sur Arte. :wink:

cdlt,
GBo
GBo
 
Messages: 3377
Inscription Forum: 03 Avr 2002 2:00
Localisation: RP 78
  • offline

Message » 26 Juin 2006 11:19

flaude a écrit:C'est domage que le SACD n'est pas pris car la qualité est là. Je ne comprends pas toujours les "majors" qui pour lutter contre le piratage auraient du pousser la qualité sonore avec le SACD.

Probable aussi que finalement peu de personne n'ait une vraie chaine de qualité pour en profiter. Le probleme se pose pour moi de connaitre le successeur du CD en terme de qualité. Parce que si on s'oriente vers des formats téléchargeables de la qualité du MP3 c'est la cata!



Je pense aussi que la communication est mal faite, probablement volontairement.
Vous savez et je sais que l'on peut profiter du SACD avec un lecteur DVP5500 et un ampli HC pour un coût assez modeste, mais qui d'autre le sait ?

Lorsque le SACD a été lancé la FNAC a fait des démonstrations avec des "chaines" tout en un et 5 enceintes à peu près fixées sur un cerceau à 2m50 du sol....et l'auditeur au milieu. De qui se moque t'on ?
Nous sommes une minorité à apprécier le SACD en stéréo ou multicanal, mais nous sommes finalement nombreux à aller sur internet pour passer commande. Je suis sûr que beaucoup de ceux qui aiment la musique pourraient être convaincus.
Un site comme celui ci doit nous permettre de mieux nous faire entendre, nous les consommateurs, clients des discaires et des sites spécialisés dans la vente des SACD.
JACBRU
 
Messages: 3156
Inscription Forum: 04 Mai 2006 11:52
Localisation: 01300 BELLEY
  • offline

Message » 26 Juin 2006 17:12

J'ai trouvé un papier qui fait un point intéressant sur l'échantillonnage :

Sampling—50 Years After Shannon

http://bigwww.epfl.ch/publications/unser0001.html

(rubrique download à gauche)
Il faut déjà un niveau correct en math pour le lire mais ce genre de papier est intéressant.
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10491
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 26 Juin 2006 17:37

A propos du bouquin www.dspguide.com et de la remarque que j'avais faite en disant qu'il était bien trop léger par rapport aux syncs. Je confirme bien que ça n'est pas le cas en fin de compte.

Comme Emmanuel et Gbo l'ont confirmé le chapitre trois ne l'abordait que comme "outil" pour revenir à "l'impulse train".

Les explications de Gbo (domaine temporel et filtrage ) se retrouvent en fait dans les chapitres sur la transformée de Fourier et sur les filtres numériques qui viennent plus tard.


Deux questions, j'ai essayé de trouver une définition des transitoires dont il a été question.

VI. Transitoires :
Ce terme indique des pics de niveau sonore de très courte durée, souvent présents comme vous vous en doutez chez les percussions. On en parle souvent car les transitoires sont assez problématiques. Par exemple un Vu-mètre n'aura pas un temps d'intégration suffisant pour les percevoir. Donc même si ce dernier module normalement, les transitoires pourront être présentes et créer de la saturation. Certains microphones auront du mal à les reproduire cela à cause du temps d'intégration de la membrane.


Est ce de cela dont vous parliez ? C'est ces pics qui donnent des courbes de type ci aprés ?
Image
Vous pouvez expliquer un peu le problème (ou un lien) par rapport au filtrage ?



Sur l'apparition de "pré out", je suppose que ça se produit parce qu'on travaille sur une "fenêtre de calcul" limitée et pas infinie, ça fausse le calcul pour les premiers samples ?
Ou c'est encore autre chose ?
angus2
 
Messages: 5904
Inscription Forum: 09 Déc 2003 14:18
Localisation: Paris
  • offline

Message » 26 Juin 2006 17:41

Emmanuel Piat a écrit:Sampling—50 Years After Shannon
Imprimé (c'est facile)
Reste à lire (Ça l'est moins, espérons que "correct" ne veuillent pas dire ce que je crains :( ).
:mdr:
angus2
 
Messages: 5904
Inscription Forum: 09 Déc 2003 14:18
Localisation: Paris
  • offline

Message » 26 Juin 2006 17:54

Voici un petit site en français très bien fait sur l'oversampling qui est (cette fois-ci :wink: ) vraiment accessible à tous ceux qui ont suivi ce post :

http://benjamin.silvestre.club.fr/cd723 ... urech.html
Emmanuel Piat
Contributeur HCFR 2016
 
Messages: 10491
Inscription Forum: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline


Retourner vers Lecteurs CD & SACD

 
  • Articles en relation
    Dernier message