Modérateurs: Staff Univers Casques, Staff Haute-Fidélité, Staff Juridique • Utilisateurs parcourant ce forum: Aucun utilisateur enregistré et 16 invités

Discussions sur le matériel Haute-Fidélité

Audio du futur? nouvelles techniques de spatialisation

Message » 08 Avr 2006 0:06

Et bien c'est dommage.
Du coup c'etait un standard mort-né ?
J'aime bien le principe pourtant, qui me semble plein de bon sens
Walt Distrait
 
Messages: 825
Inscription: 09 Oct 2005 2:53
  • offline

Annonce

Message par Google » 08 Avr 2006 0:06

Publicite

 
Encart supprimé pour les membres HCFR

Message » 08 Avr 2006 7:19

La pentaphonie n'était pas destinée à faire de la production. Elle est née au moment du pro-logic, juste avant l'apparition du Dolby AC-3. Le but était de démontrer l'efficacité d'un système à cinq enceintes identiques (ou compatibles), placées de façon intelligente. Elle est censée employer n'importe quel disque à cinq canaux (ou presque).

Le positionnement d'enceintes à l'arrière ne convenant pas, la Pentaphonie ramenait les extérieures à 180°, réalisant un compromis satisfaisant.

Cette disposition fonctionne de façon convaincante à la fois sur des enregistrements spécifiques et sur les films. On peut même adopter des enceintes commutables (direct ou dipôle) et passer de la pentaphonie au THX pour les amateurs du genre, par simple commutation. C'était donc bien plus intéressant qu'ITU 5.1 et réglait en grande partie les inconvénients du sweet spot. Je n'ai pas mis ce format de côté car il représente une solution assez universelle que j'aimais bien et qui ne remet pas en cause le DSR (car Penta et DSRsont de la même famille), surtout quand la pièce ne s'oppose pas à sa mise en oeuvre. Je fais souvent des enregistrements en pentaphonie et en DSR en même temps.

Le problème de la Pentaphonie est qu'il faut des salles assez larges sinon les latérales ne sont pas assez écartées.
Philippe Muller
Professionnel
Professionnel
 
Messages: 4404
Inscription: 14 Déc 2003 22:20

Message » 08 Avr 2006 10:22

>Donc le débat reste ouvert pour savoir pourquoi cela marche aussi bien. J'ai l'impression qu'on sait bcp mieux comment marche la stéréo du point de vue de la perception psychoacoustique qu'on en sait sur l'holophonie (mais je peux me tromper ).

J'ai trouvé qq pistes intéressantes ds un papier (Nov. 2000) de Griesinger sur les raisons qui font qu'une prise de son via 3 micros omni très espacés fonctionne très bien (et bcp mieux que si les micros sont rapprochés). En fait cela semble dépendre de l'espacement des micros par rapport au "Hall radius" (cf. def dans le papier) :

http://world.std.com/~griesngr/threedpm.pdf

Les arguments déployés sur les figures 7 et 8 sont particulièrement convainquants (ie on a une bonne évolution des rappports delta_T et delta_I quelle que soit la postion de l'auditeur) en dépit de leur simplicité.

Par contre, Griesinger évoque des problèmes de cohérence spatiale de l'image (notamment en terme de distance perçue) sur les extrémités de la scène. C'est peut être une des raisons de la supériorité du DSR à 5 canaux "frontaux" par rapport à uniqt 3 canaux...

Il y a bcp de choses ds ce papier. On n'est pas forcé d'être d'accord avec tout :wink: mais la présentation de la manière dont le cerveau reconstruit les distances frontales et la sensation d'enveloppement à partir des réflexions primaires et des écarts temporels est un grand classique de la psychoacoustique qu'il est tjrs intéressant d'appréhender.

On trouvera une présentation bcp plus complète et récente (2005) ici :
http://world.std.com/~griesngr/Physics_and_psycho2.ppt

Si vous n'avez pas powerpoint, la visionneuse Microsoft gratuite est dispo là :
http://www.microsoft.com/downloads/deta ... laylang=fr

Enfin, voici l'url du site de Griesinger avec la plupart de ses publis (pour la petite info, c'est un consultant scientifique de longue date chez lexicon qui est à l'origine du Logic machin chose qui équipe leurs décodeurs) : http://world.std.com/~griesngr/

@+
Emmanuel
Emmanuel Piat
Contributeur HCFR 2016
Contributeur HCFR 2016
 
Messages: 10078
Inscription: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 08 Avr 2006 11:19

Pour ceux que ça intéresse, je rappelle que le CD PAV n°2 est particulièrement adapté à l'évaluation de certains formats multicanaux.

Ce disque est passé totalement inaperçu à sa sortie. Malgré tout, PAV n'a pas hésité à le publier, ce qui est tout à leur honneur.

On peut comparer la stéréo, le DSR 5.0, la Pentaphonie et l'ITU.

Les distances sont précisées dans la revue, ce qui permet de placer les enceintes de manière rigoureuse pour chaque format. Comme cela, pas d'excuses, on sait de quoi on parle.

Plusieurs extraits sont enregistrés dans chacun des formats. Il ne s'agit pas d'adaptations ou de downmix mais à chaque fois, d'enregistrements spécifiques pour le format considéré.

Le CD est en dts 16/44.1.

Utilisé comme il se doit, il permet de mieux comprendre certaines choses.

Voici la liste des cinq extraits:

1) tracteur agricole se déplaçant (driver: Mr le Maire de Passavant himself)
2) percussions: un inédit de Xavier Martin avec, comme d'habitude des phénomènes acoustiques vraiment intéressants; notamment des résonances de cymbales particulièrement riches.
3) flamenco (guitare+chant+danseuse)
4) cornemuse se déplaçant et faisant le tour complet. C'est un cas peu fréquent mais il fallait bien satisfaire les amateurs de 360°.
5) Cyrano: tirade du nez. Le comédien se déplace sur la largeur de la scène. Dans cet exemple, ITU est particulièrement odieux dès qu'on sort du cadre G/D.

Je remercie les artistes qui ont du se farcir plusieurs fois la même chose car nous avons réenregistré pour chaque dispostion après déplacement des micros. Les déplacements des artistes ne sont donc pas identiques et la voix du chanteur de flamenco moins fraîche à la fin qu'au début. C'est également ça la confrérie de Passavant: des tas de gens motivés par une expérience humaine avant tout car tout ceci s'est fait dans la bonne humeur.
Philippe Muller
Professionnel
Professionnel
 
Messages: 4404
Inscription: 14 Déc 2003 22:20

Message » 08 Avr 2006 14:57

Je crois que dans le domaine de la captation/reproduction du champ acoustique il ne faut pas négliger l'approche de trinnov audio http://www.trinnov.com/research-fr.php, qui finalement tente de faire la même chose que le WFS mais avec une méthode différente.

Si on s'écarte (un peu) du sujet il y a la thèse de Jerôme Daniel http://gyronymo.free.fr/ et le mémoire de Daniel Courvillehttp://www.er.uqam.ca/nobel/k24305/memoire.html (plus pro ambisonic).
Il y a dans ce documents des explications sur les différences interaurales de temps et d'intensité, qui par extension permet de comprendre pourquoi il y a de l'aliasing sur les systèmes type WFS à cause de l'ecartement entre les hauts parleurs (si j'ai moi même bien compris :lol: )
Avatar de l’utilisateur
ccc
Pro-Fabricant.
Pro-Fabricant.
 
Messages: 3032
Inscription: 05 Mar 2003 22:16
Localisation: Paris

Message » 11 Avr 2006 11:47

La lecture du pdf "Présentation du concept de Haute résolution Spatiale" sur le site de trinnov donne qd même l'impression en 1ère instance qu'on est vraiment là dans une extension de l'ambisonic et de ses harmoniques sphériques (cf. thèse de Jerôme Daniel) pour laquelle on sait parfaitement optimiser le signal à restituer pour n'importe qu'elle configuration d'enceinte : voir par exemple la thèse (très intéressante) de Bruce Wiggins à la fin de cette page : http://sparg.derby.ac.uk/SPARG/Staff_BW.asp

Les bidouilles sur les diagrammes de directivité des micros afin d'obtenir un diagramme global cohérent pour une écoute 5.0 me font bcp penser à l'esprit du virtualMike de Farina (plugin Aurora) ou encore au visual virtual microphone : http://mcgriffy.com/audio/ambisonic/vvmic/

Sinon leur site commercial est correct d'un point de vue scientifique. C'est plutôt rare. Ce qui me gêne néanmoins, c'est qu'il y a qd même une confusion un peu entretenue entre outil d'analyse (spectre de fourier bessel) et outil de synthèse (ces derniers sont plutôt passés sous silence alors que ce sont eux qui permettent de reconstruire un champ spatial potable via une optimisation qui dépend de la position des enceintes). De plus, qd ils disent qu'ils "déterminent les signaux qui alimentent les haut-parleurs pour une reproduction optimale du champ acoustique 3D sur la configuration réelle des haut-parleurs", il faudrait par honnêteté préciser que l'optimalité atteinte dépend de la config des HP! Il ne faudrait surtout pas croire qu'avec des HP mis n'importe comment, on sera aussi optimal qu'avec des HP bien positionnés. Il n'y a pas de miracle en ce bas monde.

A titre personnel, concernant la correction FIR, je suis plutôt réceptif au discours consistant à dire qu'il ne faut éradiquer que les 1ères réflexions (et pas la réverb qui suit), ce qui fait utiliser des filtres FIR avec peu de taps. Néanmoins, à mon humble avis, c'est encore "trop en faire" car ça ne marche que sur un sweetspot très restreint comme le montre leur petite vidéo très bien fichue (et on a tjrs le risque que le remède soit pire que le mal).

Dans un esprit complémentaire, on pourra également se référer au site commercial de CATT et sa suite FIReverb :
http://www.catt.se/
http://www.catt.se/the_suite.htm

@+
Emmanuel
Emmanuel Piat
Contributeur HCFR 2016
Contributeur HCFR 2016
 
Messages: 10078
Inscription: 10 Oct 2000 2:00
Localisation: Besançon, FRANCE
  • offline

Message » 11 Avr 2006 16:10

En qualifiant le système penta ou DSR de "stéréophonique", j'extrapolais en fait le terme utilisé par William Snow en 1953 dans son article "Basic Principles of Stereophonic Sound", qui rappelait la génèse du système à 3 canaux suivant, inventé 20 ans plus tôt:
Image
dans laquelle la position des micros et enceintes est bien quasiment identique également, à N=3.
Etait-ce déjà un système holophonique?


Tel que représenté sur le schéma, c'est tout à fait conforme à la définition que je connais de l'holophonie. La conception de stéréophonie a évolué au cours des décennies, et il est bon à chaque fois de rappeler celle à laquelle on se réfère. Tu as bien fait de préciser tes sources ;-)

Tant que l'on est dans l'histoire, je suis très intéressé de ton analyse du système dit du "rideau acoustique" que ces pionniers fertiles ont également imaginés:
Puisque aucun système actuellement à l'étude dans les labos, malgré les moyens, ne ressemble exactement à ça, j'imagine qu'il y a des défauts sur le plan de la théorie (qui n'était pas très profonde à l'époque), quels sont t'ils?


Que dire si ce n'est que nous ne verrons pas encore ça demain dans nos salon je pense. Par analyse dans ta question, je suppose que tu me demandes quelles sont les limites d'un tel dispositif. Au niveau de la prise de son, le rideau acoustique ne fait aucune distinction entre ce qui se passe devant la scène et derrière la scène : il y a donc encore une fois du repliement. Au moment de la reproduction, ce qui a été enregistré sera réémis aussi bien à l'avant qu'à l'arrière, venant encore augmenter l'erreur d'un tel dispositif si l'objectif est de reproduire à l'identique le champ sonore initial. Toutefois, je tiens à modérer ces propos, dans le sens où le champ sonore reproduit sera loin d'être inaudible quand même :). Il s'agit de petits défauts.

Le dernier défaut qui apparaît dépend de l'espacement entre les microphones au moment de l'enregistrement et des enceintes au moment de la reproduction. A hautes fréquences, des sources provenant de direction différentes (et autrement que symétriquement par rapport au rideau) provoquent la même réponse sur le rideau : il y a donc encore une fois du repliement à la prise de son. De même au moment de la reproduction, chacune de ces directions qui induisaient du repliement sont synthétisées au moment de la reproduction. Ainsi, supposons que des sources très éloignées (ondes planes) provoquent la même réponse sur le réseau lorsqu'elles sont espacées angulairement de 10° (valeur arbitraire). Supposons qu'il n'y en ait qu'une au moment de l'enregistrement. Au moment de la reproduction, l'auditeur aura l'impression d'entendre des sources réparties tous les 10°. Ce phénomène apparaît au-dessus d'une certaine fréquence communément dénommée comme fréquence d'aliasing en WFS. Il devient de plus en plus important à mesure que la fréquence croît. C'est d'ailleurs la limitation principale des dispositifs basés sur la WFS. Ils ne reconstruisent le champ initial fidèlement qu'en dessous de cette fréquence d'aliasing. Un autre traitement est appliqué pour les hautes fréquences.
Mathieu Guillaume
 
Messages: 11
Inscription: 04 Avr 2006 23:55
Localisation: Lille

Message » 11 Avr 2006 16:21

Emmanuel Piat a écrit:Est-ce une des raisons :

- pour laquelle le DSR de Philippe fonctionne si bien ? (pour une scène sonore située devant les micros comme tu le rappelles)
- qui fait qu'on "entend pas" de sources arrières avec le DSR (bien que les voies "arrières" aient une importance fondamentale pour la restitution : sans elles, tout l'édifice s'écroule)


Le fait de conserver les microphones devant est bénéfique oui, et c'est pour cela que ça marche bien. En revanche, on entend bien des sources arrières (les spectateurs à la fin par exemple), mais l'auditeur a l'impression de les entendre devant au moment de la reproduction. Si ce n'est que pour les applaudissements, ce n'est pas dramatique. Le message musical le plus important est situé à l'avant comme le précise Philippe.

Emmanuel Piat a écrit:Par ailleurs, les micros étant des omni, ils captent le champ sonore sur 360°, donc forcément tout le champ réverbéré émis par l'acoustique du studio (qui a une légère réverb très naturelle) est faisant une espèce d'intégration spatiale sur 360°. Ce champ réverbéré (qui est vraisemblablement plutôt décorrélé pour chaque micro vu l'écartement important des micros) va être a son tour émis par les 5 enceintes. Que se passe t'il dans ce cas ? Est-ce que cette configuration participe à la sensation d'écoute naturelle du DSR ?


Je veux bien admettre que la réverbération tardive satisfait l'hypothèse d'être diffuse, et peut être considérée comme décorrélée sur chaque microphone. Chaque enceinte peut alors participer à la sensation naturelle d'écoute. En revanche, les signaux correspondant au front direct et aux réflexions précoces ne sont pas décorrélés, et ce sont eux qui sont responsables des différences de perception entre le champ initial et le champ reproduit. Ce sont eux qui renseignent sur la localisation.

Mathieu
Mathieu Guillaume
 
Messages: 11
Inscription: 04 Avr 2006 23:55
Localisation: Lille

Message » 11 Avr 2006 16:51

Emmanuel Piat a écrit:Ce problème d'aliasing est (sur le papier) un sacré problème. Je n'ai aucune idée des artefacts sonores qu'il engendre selon la disposition des sources (filtrage en peigne engendrant une modification des timbres ?...) mais je trouve cette question très intéressante. A partir de qd est-ce préjudiciable à l'écoute, comment peut on le minimiser par une disposition judicieuse des micros (ou un traitement du signal lors de la prise de son) ? Est-ce "camouflable" via la psychoacoustique ? etc. Mathieu aura peut être des choses à dire sur la question (il va me maudire :lol: ).


L'image liée au filtrage en peigne peut convenir, surtout dans le cas d'une antenne linéaire de microphones espacés de manière uniforme. Pour des antennes en arcs de cercle, comme dans le cas du DSR, les effets de l'aliasing sont moins brutaux que celui du filtrage en peugne je pense.

Pour la question de la disposition des microphones au moment de l'enregistrement, il y a deux philosophies :
- la prise de sons périphérique
- la prise de sons coincidente.

Le premier type est utilisé dans les dispositifs holophoniques dont nous avons eu beaucoup d'exemples au cours de ce thread. L'objectif visé est alors souvent la reproduction du champ sur une zone étendue de l'espace.

Le deuxième type de prise de son est celui initilement utilisé dans les premiers dispositifs ambisonics par Gerzon aux environs des années 80. L'objectif est alors de filtrer le champ reçu en un point selon sa direction d'incidence. Cela est fait en utilisant des microphones omnidirectionnels et plusieurs microphones bidirectionnels au premier ordre pour les systèmes ambisonics. Un exmple de microphone couramment utilisé est le microphone soundfield http://en.wikipedia.org/wiki/Soundfield_microphone. L'objectif visé par ce type de prise de sons est alors souvent la reproduction en un point particulier de l'espace (le sweet spot). Ces systèmes basés sur la décomposition en harmoniques sphériques se sont perfectionnés au cours des dernières années, notamment par le High-Order Ambisonics, qui essaie d'augmenter l'ordre d'approximation du champ sonore. Cela a concrètement l'effet d'élargir la zone du sweet spot. D'ailleurs pour capturer les ordres supérieurs de la représentation au moment de la prise de sons, on utilise généralement des antennes de microphones sphériques, donc plutôt une prise de sons périphériques.

Les deux modèles se rejoignent quand le nombre de microphones augmente. Mais initialement, la première vise un point de vue global, alors que la deuxième vise un point de vue global. Les prises de sons coincidentes se prêtent mieux à un post-processing visant à filtrer le champ selon sa direction d'incidence.
Mathieu Guillaume
 
Messages: 11
Inscription: 04 Avr 2006 23:55
Localisation: Lille

Message » 11 Avr 2006 17:26

Emmanuel Piat a écrit:En revanche, ce qui m'intrigue bcp ds le post de Mathieu, c'est la fin :

En revanche, ce n'est plus le cas aux hautes fréquences où la longueur d'onde est de l'ordre du centimètre ou de la dizaine de centimètres : les enceintes sont alors perçues comme distinctes. Pour caricaturer, l'effet ressenti est qu'on arrive à localiser clairement une contrebasse de manière unique, alors que nous ressentons autant de violons et de flûtes qu'il n'y a d'enceintes au moment de la reproduction. Ces remarques ne s'appliquent qu'à l'holophonie, et non la stéréophonie.


Ce point va clairement à l'encontre de l'expérience Passavant sur le DSR : si les aigus étaient "massacrés" spatialement en holophonie sur son setup (DSR), Philippe s'en serait immédiatement rendu compte. Donc, il y a là un petit mystère (une variable cachée :wink: ).


Tout dépend du sens que l'on attache à "massacrer". Etant donné qu'aucun traitement n'est appliqué sur les prises de son issues d'un enregistrement DSR (philosophie de la Hi-Fi), si les microphones sont de bonne qualité, la "signature temporelle" des sources est correctement enregistrée. Ce qui a une chance d'être "massacré", ce n'est donc pas le contenu temporel, c'est le réalisme spatial. C'était le sens de mon intervention initiale : les instruments dans le registre grave auront plus de chance d'être mieux localisés que ceux se situant dans le registre aigu. Mais dans le cas d'une simple prise de son stéréophonique par couple d'un quatuor, tu es capable de situer, certes de manière assez floue, la position de chacun des instrumentistes. Le réalisme spatial pourrait être amélioré, mais le contenu temporel est de bonne qualité.

Mathieu
Mathieu Guillaume
 
Messages: 11
Inscription: 04 Avr 2006 23:55
Localisation: Lille

Message » 11 Avr 2006 17:37

La localisation spatiale de la démo penta de cabasse était pourtant pas mal du tout, même pour les instruments aigus si je me souviens bien. Pouquoi les différences d'intensité et de temps d'arrivée des sources vus des micros et retranscris de manière homothétique sur les enceintes n'expliqueraient t'ils pas ces bonnes perfs pour les aigus, un peu à l'instar de la stéréo (mais avec des micros plus écartés certes, et considérés 2 par 2)?

Merci Mathieu d'avoir prolonger ta participation! Tu n'écris pas souvent mais comme il faut relire plusieurs fois, on en profite longtemps... :D

cdlt,
GBo
Dernière édition par GBo le 11 Avr 2006 17:44, édité 2 fois.
GBo
 
Messages: 3377
Inscription: 03 Avr 2002 2:00
Localisation: RP 78
  • offline

Message » 11 Avr 2006 17:42

Emmanuel Piat a écrit:La lecture du pdf "Présentation du concept de Haute résolution Spatiale" sur le site de trinnov donne qd même l'impression en 1ère instance qu'on est vraiment là dans une extension de l'ambisonic et de ses harmoniques sphériques (cf. thèse de Jerôme Daniel) pour laquelle on sait parfaitement optimiser le signal à restituer pour n'importe qu'elle configuration d'enceinte : voir par exemple la thèse (très intéressante) de Bruce Wiggins à la fin de cette page : http://sparg.derby.ac.uk/SPARG/Staff_BW.asp


L'apport de Trinnov audio par rapport aux dispositifs ambisoniques est d'avoir utilisé des géométries d'antenne qui ne soient pas uniquement sphériques, mais quelconques (non uniquement surfaciques par exemple mais volumiques), ce qui permet d'obtenir des bonnes performances pour l'analyse de champs sonores sur une large bande de fréquences contrairement aux antennes sphériques qui sont dédiées à une bande de fréquence.

Emmanuel Piat a écrit:Sinon leur site commercial est correct d'un point de vue scientifique. C'est plutôt rare. Ce qui me gêne néanmoins, c'est qu'il y a qd même une confusion un peu entretenue entre outil d'analyse (spectre de fourier bessel) et outil de synthèse (ces derniers sont plutôt passés sous silence alors que ce sont eux qui permettent de reconstruire un champ spatial potable via une optimisation qui dépend de la position des enceintes). De plus, qd ils disent qu'ils "déterminent les signaux qui alimentent les haut-parleurs pour une reproduction optimale du champ acoustique 3D sur la configuration réelle des haut-parleurs", il faudrait par honnêteté préciser que l'optimalité atteinte dépend de la config des HP! Il ne faudrait surtout pas croire qu'avec des HP mis n'importe comment, on sera aussi optimal qu'avec des HP bien positionnés. Il n'y a pas de miracle en ce bas monde.


Il me semble qu'ils ont publié leur méthode de reproduction à l'AES. Grosso modo, il s'agit d'une reproduction optimale au sens des moindres carrés de la décomposition du champ sonore en harmoniques sphériques. On optimise alors les taps des FIR utilisés en amont de chaque enceinte de sorte à "sculpter" le champ sonore reconstruit de sorte à ce qu'il approche au mieux un champ de référence.

Emmanuel Piat a écrit:A titre personnel, concernant la correction FIR, je suis plutôt réceptif au discours consistant à dire qu'il ne faut éradiquer que les 1ères réflexions (et pas la réverb qui suit), ce qui fait utiliser des filtres FIR avec peu de taps. Néanmoins, à mon humble avis, c'est encore "trop en faire" car ça ne marche que sur un sweetspot très restreint comme le montre leur petite vidéo très bien fichue (et on a tjrs le risque que le remède soit pire que le mal).


La correction de l'effet de salle dans laquelle est située le dispositif de reproduction est un vaste débat, loin d'être encore résolu. Je partage ton avis sur le fait que parfois le remède est souvent pire que le mal initial. Car pour vouloir corriger l'acoustique de la salle hôte, il faut savoir clairement identifier les moindres détails de celle-ci, ce qui implique d'avoir une bonne antenne de microphones... Comme les performances de celles-ci ne sont pas encore suffisantes, on a le risque de faire pire que mieux en essayant de corriger les défauts identifiés.
Mathieu Guillaume
 
Messages: 11
Inscription: 04 Avr 2006 23:55
Localisation: Lille

Message » 11 Avr 2006 17:45

si c'est possible d'avoir une explication de l'aliasing ?
vous en parlez tous comme d'une chose évidente, pourtant autant la définition en video est claire autant en audio j'ai du mal :o

Qu'est ce que c'est ?
y compris en "pseudo-mathématique" ?
quels effets ?
Quels causes ?
Quels solutions ?

Merci à tous :)
WhyHey
 
Messages: 13833
Inscription: 29 Avr 2002 12:31
Localisation: WhyCity
  • offline

Message » 11 Avr 2006 17:47

GBo a écrit:La localisation spatiale de la démo penta de cabasse était pourtant pas mal du tout sur le plan de localisation spatiale, même pour les instruments aigus si je me souviens bien. Pouquoi les différences d'intensité et de temps d'arrivée des sources vus des micros n'expliqueraient t'ils pas ces bonnes perfs, à l'instar de la stéréo (mais avec des micros plus écartés certes, et considérés 2 par 2)?

Merci Mathieu de prolonger ta participation. Tu n'écris pas souvent mais comme il faut relire plusieurs fois, on en profite longtemps... :D


Mes propos concernent la reconstruction physique du champ sonore. Concernant les aspects psychoacoustiques, je ne suis malheureusement pas spécialiste. Il y a de fortes chances que si la localisation spatiale était bonne, c'était à cause d'un bon rendu des indices de localisation tels que les différences de temps d'arrivée et de niveau. En revanche, je suppose que cette bonne impression spatiale ne fonctionnait qu'au niveau du sweet spot et disparaissait dès que l'on s'en écartait. Tu peux nous en dire un peu plus, étant donné que tu as écouté un tel dispositif ?
Mathieu Guillaume
 
Messages: 11
Inscription: 04 Avr 2006 23:55
Localisation: Lille

Message » 11 Avr 2006 17:49

Oui j'étais très bien placé, mais dans des fauteuils de salle, il ne m'a donc pas été possible (où je n'ai pas la présence d'esprit, j'étais jeune et malléable :D ) de me déplacer pour voir la taille du sweet spot.

Whyhey, je vois cet aliasing un peu comme celui qui apparait lorsqu'on échantillone un signal dans le temps sans respecter Shanon. Sauf que là c'est dans l'espace et non le temps. C'est un peu l'idée non, Mathieu? :oops:
GBo
 
Messages: 3377
Inscription: 03 Avr 2002 2:00
Localisation: RP 78
  • offline



Retourner vers Discussions Générales

 
  • Articles en relation
    Dernier message