Modérateurs: Modération Forum Bla bla, Le Bureau de l’Association HCFR • Utilisateurs parcourant ce forum: martinst4, Mr Eric, poilau, Sietch31, TELLOUCK, wopr et 121 invités

Espace de discussion général et aussi sur le home-cinéma (avec respect de la netiquette, de la politesse et hors sujets sensibles). Les threads uniquement destiner à "faire du post" de type "Fil rouge" ne sont plus autorisés.

Le coin des sciences avec Robert64

Message » 03 Juin 2020 22:46

Fafa a écrit:Et encore: ton schéma n'est pas du tout à l'échelle si on tient compte des véritables longueurs d'ondes, dont certaines font plusieurs milliers de Km.
Donc, les quelques centaines de nm de la lumière visible sont totalement ridicules.
Les TLF font 100.000km de longueur d'onde! :o

Un tableau récap se trouve sur la page wiki :
https://fr.wikipedia.org/wiki/Spectre_% ... C3%A9tique

:o aussi ^^
ngc1976
 
Messages: 3463
Inscription Forum: 28 Mar 2007 4:06
  • offline

Message » 13 Juin 2020 10:21

Réseaux de neurones et apprentissage profond : les concepts

Par Jean-Paul Krivine

IA_1.jpg


(Ce texte est tiré d’un article paru dans le n° 332 de la revue de l’AFIS)

L'intelligence artificielle (IA) est une discipline qui a fréquemment recours à des termes évocateurs et anthropomorphiques pour les concepts qu'elle manipule, mais son objet reste difficile à définir simplement. Sa dénomination elle-même, en utilisant le mot « intelligence », a focalisé une partie des controverses sur la comparaison avec les capacités humaines et, au-delà, sur la place même de l'Homme face à la machine. Pourtant, une bonne partie des questions soulevées (responsabilité juridique, explication des comportements, éthique dans les utilisations) se posent déjà à propos de nombreux systèmes informatiques fondés sur des algorithmes qui, pourtant, ne comportent aucun composant relevant des techniques de l’IA (en témoignent les controverses suscitées par le logiciel ParcoursSup pour décider de l'affectation des nouveaux bacheliers, celles liées à l'usage de machines de vote électroniques [1] ou encore, les controverses lors d'accidents d'avion pour déterminer la part de responsabilité de l'Homme et des automatismes).

Les techniques d'apprentissages à la base du renouveau actuel de la discipline ne sont pas en reste, avec en particulier le terme de « réseaux de neurones » renvoyant directement à l'image du cerveau humain. Pourtant, les neurones artificiels dont il est question n'ont qu'une analogie bien lointaine avec les cellules du cerveau humain (même si ces dernières ont servi d'inspiration aux modèles mathématiques utilisés). Et l'organisation même de notre cerveau est d'une complexité bien supérieure à celle des réseaux de neurones modélisés dans les ordinateurs ; il est donc sans valeur de comparer les deux à l'aune du nombre de « neurones ».

Les réseaux de neurones artificiels
Le composant de base des réseaux de neurones utilisés en IA peut être schématisé comme une entité disposant de plusieurs entrées pouvant prendre des valeurs discrètes (par exemple binaires : 0 ou 1) et d'une sortie, elle aussi discrète. Une fonction mathématique va déterminer la sortie en fonction des valeurs d'entrée. Le poids synaptique » (encore un terme anthropomorphique) associé à chacune des entrées permet d'en pondérer l'importance. Ces entrées pondérées sont ensuite additionnées pour déterminer la valeur de sortie.

Un réseau de neurones artificiel est une association d'un certain nombre de ces « neurones formels ». Le réseau est généralement organisé en couches successives où les sorties d'une couche constituent les entrées d'une autre. Les entrées du premier niveau modélisent le problème que l'on veut résoudre (par exemple, en associant chaque pixel d'une image dont on veut reconnaitre le contenu à une entrée) et les sorties du dernier niveau représentent la réponse attendue (par exemple 1 pour dire que le système a reconnu un chat et 0 pour dire qu'il n'en a pas reconnu). Entre les deux, les valeurs calculées sont transmises d'une couche à la suivante.

Les couches intermédiaires construisent ainsi 'une fonction mathématique qui doit représenter le système de reconnaissance. La fonction mathématique implémentée par ces couches successives doit résoudre le problème posé (par exemple, reconnaître la présence d'un chat sur une photo codée par ses pixels). Toute la difficulté consiste à trouver les bons paramètres (poids synaptique et autres paramètres) de chacun des neurones afin d'obtenir les sorties désirées avec un minimum d'erreurs. C'est ce qu'on appelle la phase d'apprentissage. Un opérateur humain voulant régler manuellement chacun de ces paramètres (il y en a plusieurs milliers) n'aurait aucune chance de réussir cette tâche, car nulle part dans le système n'est codé explicitement ce qui caractérise un chat (moustaches, oreilles pointues, etc.). Il est donc impossible de raisonner directement sur les paramètres du réseau (ni, d'ailleurs, a posteriori, d'utiliser ces éléments pour expliquer la décision). Ce sont des algorithmes d'optimisation fondés sur des mathématiques sophistiquées qui permettent de faire varier progressivement les paramètres du réseau afin d'approcher le plus possible du résultat voulu (par exemple, la méthode dite d'apprentissage supervisée consiste à observer les erreurs de diagnostics sur des jeux d'essais labellisés, c'est-à-dire des images où l'on aura préalablement indiqué celles comportant un chat et celles n'en comportant aucun, et à remonter cette information dans le réglage du réseau).

« Deep learning » et « big data »
Cette approche est appelée « connexionniste » car elle est fondée sur le paramétrage d'un réseau connecté. Elle date de la fin des années 1950 dans son principe [2] mais a connu une véritable envolée dans les années 2000 grâce notamment aux capacités de calcul atteintes par les ordinateurs et à la mise à disposition d'un très grand volume de données (big data). Les réseaux de neurones ont alors pu embarquer des couches intermédiaires (« couches cachées ») en très grand nombre (jusqu'à une vingtaine, d'où le terme de deep learning, ou apprentissage profond). En lien avec la mise au point d'algorithmes d'apprentissage plus performants, des résultats vraiment impressionnants ont été obtenus dans de nombreux domaines.

Ainsi, par exemple, la reconnaissance d'images par apprentissage profond permet non seulement de reconnaître (avec cependant des erreurs) des visages au sein d'une foule en mouvement [3], mais aussi d'identifier des objets présents ou de lire des émotions sur les visages (peur, joie, mépris, tristesse, dégoût, surprise...) [4]. Des systèmes savent lire sur les lèvres d'une personne de façon bien plus efficace que le font les êtres humains [5]. D'autres se révèlent meilleurs que les êtres humains pour l'interprétation de clichés d'imagerie médicale [6]. Des systèmes sont capables de coloriser des images en noir en blanc avec des couleurs extrêmement réalistes [7], de composer de la musique en s'inspirant d'un style donné [8], de peindre des tableaux à partir d'un simple croquis [9] ... La traduction automatique (par exemple, celle mise en oeuvre sur la plupart des moteurs de recherche) s'appuie sur ces techniques d'apprentissage profond. Des intelligences artificielles arrivent à rédiger des articles de journaux sur la base de dépêches d'agence [10]. Dans les entreprises, partout où de grandes quantité de données sont disponibles, des applications voient le jour dans le domaine de la conception ou du diagnostic, par exemple. Sans oublier, bien entendu, les intelligences artificielles qui battent les champions du monde de certains jeux réputés complexes (jeu de go, jeu d'échecs).

Les risques d'un apprentissage biaisé
Pour autant, le « deep learning » reste tributaire de son apprentissage, et donc des données sur lesquelles il a pu s'entraîner. Celles-ci peuvent être partielles, biaisées, voir mal étiquetées, avec des conséquences parfois très préjudiciables.
En 2015, la société Amazon a dû écarter son « robot recruteur » qui favorisait systématiquement les candidatures masculines pour les postes techniques. Ce biais était dû au fait que l'intelligence artificielle avait été entraînée sur la base de données de profils des personnes déjà en place à des postes similaires au sein de l'entreprise, en grande majorité des hommes. Après avoir essayé de corriger ce problème, Amazon a finalement abandonné le projet, faute de pouvoir s'assurer que la sélection des candidats ne comporterait pas d'autres biais [11].

En 2016, c'est Microsoft qui a dû arrêter son expérience d'un robot conversationnel. Tay, de son nom; se présentait comme une adolescente fan de musique et de Pokémon et adoptant la manière de parler de cet âge-là. Elle était supposée apprendre et enrichir ses interactions au travers d'échanges avec des internautes. Elle était en particulier capable de dialoguer via son compte Twitter. Mais après seulement quelques heures, Tay commença à twitter de nombreux messages injurieux ou offensants, obligeant rapidement Microsoft à interrompre son expérience. L'analyse a posteriori a montré qu'un groupe d'utilisateurs du réseau social avait appelé à inonder le compte de Tay de messages à caractère raciste, antisémite ou misogyne. Tay n'a finalement fait que s'adapter à sa « base d'apprentissage » et a reproduit le comportement qu'elle observait [12].

Les IA derrière les logiciels de reconnaissance faciale sont aussi sur la sellette. Ces systèmes sont très performants et s'avèrent capables de reconnaître sur des vidéos, quasiment en temps réel, les visages des personnes composant une foule ou d'un groupe de personnes. En 2019, la Chine a rendu obligatoire la reconnaissance faciale pour tout achat d'une carte SIM (l'obtention d'une ligne téléphonique nécessite le passage devant une caméra qui enregistre les données qui seront utilisées par la reconnaissance faciale). Aux États-Unis, en 2016, la moitié des adultes seraient déjà enregistrés dans des bases de données dédiées [13]. Pourtant, la reconnaissance faciale est loin d'être complètement au point. Les erreurs d'identification sont encore nombreuses. En particulier, aux États-Unis, comme l'apprentissage s'est fait principalement sur des personnes de couleur blanche, les erreurs sont bien plus fréquentes quand il s'agit de reconnaître des individus afro-américains ou d'origine asiatique, avec les risques associés quand on utilise ces programmes pour identifier dans une foule des délinquants présumés, par exemple en analysant les vidéos des personnes débarquant d'un avion dans un aéroport [14].
Ces remarques n'enlèvent rien à la puissance sans cesse croissante des algorithmes d'apprentissage, mais elles illustrent quelques limites actuelles, dont certaines sont dues à des problèmes scientifiques de fond qui sont loin d'être résolus. En particulier, ces algorithmes sont très dépendants de la qualité des données utilisées lors de la phase d'apprentissage ainsi que de la qualité de l'étiquetage associé. //

Références
[1] Enguehard C, « Le vote électronique est-il transparent, sûr, fiable ? », SPS.n° 320, avril 2017. Sur afis.org
[2] Rosenblatt F, "The perceptron: a probabilistic model for information storage and organization in the brain", Psychological Review, 1958, 65:386-408.
[3] Biget S, « Reconnaissance faciale : 1 seconde pour repérer un visage parmi 36 millions », Futura Science, 11 mai 2012.
[4] Noroozi F et al., "Survey on Emotional Body Gesture Recognition", IEEE Transactions on Affective Computing, 16 octobre 2018.
[5] Zaffagni M, « L'IA de Google DeepMind lit sur les lèvres mieux qu'un humain », Futura Science, 25 novembre 2016.
[6] Haenssle HA et al., "Reader study level-1 and level-IIGroups, Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists", Mn Oncol, 2018, 29:1836-42.
[7] Auclert F, « Cette app met en couleurs vos vieilles photos en noir et blanc », Futura Science, 9 avril 2019.
[8] Zema A, « Une intelligence artificielle compose une oeuvre musicale à partir d'une partition inachevée de Dvoràk », Le Figaro Tech & Web, 18 juin 2019.
[9] Boudet A, « Vincent, l'IA qui transforme les croquis en oeuvres de Van Gogh ou de Picasso », Numerama, 10 octobre 2017.
[10] Lesage N, « Robot journaliste : en un an, une IA créée par le Washington Post a publié 850 articles », Numerama, 15 septembre 2017.
[11] "Amazon ditched Al recruiting tool that favored men for technical jobs", The Guardian, 11 octobre 2018.
[12] "In 2016, Microsoft's Racist Chatbot Revealed the Dangers of Online Conversation", IEEE Spectrum, 25 novembre 2019.
[13] "Half of US adults are recorded in police facial recognition*, databases, study says", The Guardian, 18 octobre 2016.
[14] "Many Facial-Recognition Systems Are Biased, Says U.S. Study", The New York Times, 19 décembre 2019.

A+
Robert64
Contributeur HCFR
 
Messages: 5320
Inscription Forum: 12 Sep 2006 15:40
Localisation: Sud Ouest
  • offline

Message » 13 Juin 2020 11:19

:bravo:

La configuration dans mon profil


Ne confondez pas ma personnalité et mon attitude. Ma personnalité est qui je suis, et mon attitude dépend de qui vous êtes.
Avatar de l’utilisateur
griosu
Membre HCFR
Membre HCFR
 
Messages: 1693
Inscription Forum: 17 Oct 2007 1:04
Localisation: Belgikistan central communément appelé béwé
  • offline

Message » 14 Juin 2020 10:19

Une curiosité: la loi de Benford

La loi de Benford, initialement appelée loi des nombres anormaux par Benford, fait référence à une fréquence de distribution statistique observée empiriquement sur de nombreuses sources de données dans la vraie vie et aussi en mathématiques.

Quand on étudie un ensemble de données numériques, on pourrait s'attendre à voir les chiffres de 1 à 9 apparaître à peu près aussi fréquemment comme premier chiffre d'un nombre, soit avec une fréquence de 11,1 %=1/9 pour chacun.
Or, contrairement à cette intuition (biais d'équiprobabilité), pour près du tiers des observations, le 1er chiffre significatif le plus fréquent est 1. Le chiffre 2 est ensuite lui-même plus fréquent que le 3… et la probabilité d'avoir un 9 comme premier chiffre significatif n'est que de 4,6 % .
C'est une loi observée aussi bien dans les mathématiques sociales, c'est-à-dire les sciences humaines et sociales, que dans des tables de valeurs numériques comme celles qu'on rencontre en physique, en BTP, en économie (taux de change), ou même dans les numéros de rue de son carnet d'adresses.

Énoncé de la loi
Une série de nombres réels en écriture décimale suit la loi de Benford si la fréquence d'apparition du premier chiffre significatif c vaut approximativement
Fc = log(1+1/c) pour tout c entre 1 et 9
On vérifie que la somme des ces fréquences vaut log(10)=1
(D'après Wiki)
Cette loi a été utilisée par l'administration fiscale américaine pour détecter les déclarations frauduleuses.
Etonnant, non ?
A+
Robert64
Contributeur HCFR
 
Messages: 5320
Inscription Forum: 12 Sep 2006 15:40
Localisation: Sud Ouest
  • offline

Message » 20 Juin 2020 11:10

Robert64 a écrit:Le neutrino sur la balance

On ignore combien pèse exactement un neutrino. L'expérience Katrin qui vient de débuter a déjà livré ses premières estimations de la masse de cette particule.

C'est la particule de matière la plus légère du modèle standard - la théorie du monde microscopique - mais le neutrino joue un rôle considérable pour com-prendre la formation des galaxies ou pour cerner les processus radioactifs comme la fusion au coeur du Soleil. Pourtant, sa masse reste encore inconnue. L'expérience Karlsruhe Tritium Neutrino (Katrin), à Karlsruhe, en Allemagne, vient de diviser par deux la valeur maximale possible pour cette particule poids plume : 1 électronvolt (eV). Cela signifie que l'électron, qui arrive juste après le neutrino à la pesée des parti-cules, affiche, au minimum, une masse 500 000 fois plus élevée sur la balance! Ce résultat a été présenté à la conférence Topics in Astrop article and Under-ground Physics (TAUP) au Japon mi-septembre 2019 (1). Cette masse est si faible que les physiciens ont longtemps envisagé que le neutrino ne pèse rien du tout, comme le photon. « Le modèle standard a d'ailleurs été construit avec une masse nulle pour le neutrino, explique Thierry Lasserre, phy-sicieriau CEA. Mais l'observation des oscillations des neutrinos à la fin des années 1990 a changé la donne. » H existe en effet plusieurs « saveurs » de neutrinos: électronique, muonique et tauique. Au cours de leur trajet, les neutrinos changent de saveurs: on dit qu'ils oscillent. Ce phénomène, expliqué par la physique quantique, requiert que les neutrinos soient massifs. «Les expériences d'oscillations imposent que cette masse soit supérieure à 0,01 eV mais ne fixent pas de limite », poursuit Thierry Lasserre, qui a coordonné l'analyse des données de Katrin. Les observations cosmologiques - la répartition des galaxies dans l'Univers par exemple - contraignent la masse possible des neutrinos. Mais ces contraintes dépendent d'autres paramètres, comme la matière noire ou l'énergie noire, pour lesquelles des inconnues subsistent.
Le rôle de Katrin consiste donc à réaliser une mesure la plus directe possible, en laboratoire. Mettre des neutrinos sur une balance n'a rien d'évident, car ils traversent la matière quasiment sans interagir. L'expérience utilise une astuce bien connue des physiciens des particules: la désintégration bêta du tritium, qui produit un atome d'hélium, un électron et un antineutrino électronique. Ce dernier possède la même masse qu'un neutrino. L'énergie de la désintégration est connue, et se répartit aléatoirement entre les particules produites. Moins d'une fois sur un milliard de désintégrations, un électron rafle la quasi-totalité de l'énergie, ne laissant que la por-tion congrue à l'antineutrino, c'est-à-dire l'éner-gie due à sa masse. Katrin se concentre sur la mesure de ces électrons les plus énergétiques, pour en déduire, en négatif, la masse des neutrinos. Si celle-ci dépasse 0,3 eV, Katrin pourra la déterminer.
C'est un défi expérimental. L'instrument s'étend sur plus de 70 mètres de long et le principal filtre à électron mesure 20 mètres sur 10. Ses 200 tonnes lui ont interdit d'emprunter les 400 kilomètres de route depuis son lieu de construction, en Bavière, jusqu'au lieu de l'expérience: il a donc dû faire un détour de 9 000 kilomètres en bateau, via le Danube, la mer Noire, le détroit de Gibraltar, la Manche et le Rhin !1:épopée de Katrin continue, et l'étau va se resserrer encore autour de la masse du neutrino dans les cinq ans à venir.
(1) M. Aker et al., arXiv :1909.06048, 2019.
A+

:thks: Comment peut-on être sûr que neutrino et antineutrino ont la même masse?

Et sinon les conneries que je t'ai répondues plus haut ça t'inspire pas? :ane:
ngc1976
 
Messages: 3463
Inscription Forum: 28 Mar 2007 4:06
  • offline

Message » 20 Juin 2020 11:22

ngc1976 a écrit:....
Comment peut-on être sûr que neutrino et antineutrino ont la même masse?

Les seules choses dont on soit sûr:
1) Le neutrino et son anti ont une masse, ce qui au passage n'est pas prévu par le modèle standard.
2) Cette masse est inférieure à 1 eV
Et c'est tout!
Pour le reste, il faut que les techniques de mesure progressent encore.
Et sinon les conneries que je t'ai répondues plus haut ça t'inspire pas? :ane:

J'ai relu la publication initiale. Pour moi, le texte est clair et sans ambiguïté.
A+
Robert64
Contributeur HCFR
 
Messages: 5320
Inscription Forum: 12 Sep 2006 15:40
Localisation: Sud Ouest
  • offline

Message » 20 Juin 2020 14:50

Robert64 a écrit:Les seules choses dont on soit sûr:
1) Le neutrinos et son anti ont une masse, ce qui au passage n'est pas prévu par le modèle standard.

Ça commence bien en effet...

Robert64 a écrit:2) Cette masse est inférieure à 1 eV
Et c'est tout!
Pour le reste, il faut que les techniques de mesure progressent encore.

Si déjà ils parviennent à mesurer la masse de l'antineutrino ce serait énorme, mais pour le neutrino ça resterait donc à prouver (à partir d'une théorie qui ne leur prévoit pas de masse...).

Robert64 a écrit:J'ai relu la publication initiale. Pour moi, le texte est clair et sans ambiguïté.
A+
:hein:
(c'est les cachets comme pour le Linky? :lol: )

Scuse mais je parlais de mon message du 02 Juin à 23:12 :wink:
ngc1976
 
Messages: 3463
Inscription Forum: 28 Mar 2007 4:06
  • offline

Message » 20 Juin 2020 16:59

ngc1976 a écrit:...
.... mais pour le neutrino ça resterait donc à prouver (à partir d'une théorie qui ne leur prévoit pas de masse...).
....

Certes,le modèle standard ne prévoyait pas de masse pour le neutrino, mais le fait que cette masse existe a été prouvé.
(ce qui a valu le Nobel au coupable)
J'en avais même parlé ici, il y a quelques années.
Donc, incomplétude du modèle standard au moins sur ce point.
A+
Robert64
Contributeur HCFR
 
Messages: 5320
Inscription Forum: 12 Sep 2006 15:40
Localisation: Sud Ouest
  • offline

Message » 20 Juin 2020 19:24

Si je chipote c'est parce qu'on dirait que "masse neutrino = masse antineutrino" n'est qu'un raccourci reposant sur des suppositions ou des principes non vérifiés...
ngc1976
 
Messages: 3463
Inscription Forum: 28 Mar 2007 4:06
  • offline

Message » 20 Juin 2020 19:38

ngc1976 a écrit:Si je chipote c'est parce qu'on dirait que "masse neutrino = masse antineutrino" n'est qu'un raccourci reposant sur des suppositions ou des principes non vérifiés...

Non! Dans les très nombreuses expériences de collisions réalisées, dans tous les accélérateurs du monde, pour toutes les autres particules que l'on sait "peser", on observe l'égalité de masse entre particule en anti particule. C'est ce que prévoit la théorie et c'est ce que l'on mesure. Le jour où l'on saura"peser" le neutrino, on saura aussi "peser" son anti et on aura la réponse. Et tu pourras cesser de te tourmenter.
J'ajoute que dans ce domaine, les physiciens sont des gens sérieux qui ne se contentent pas de suppositions ou des principes non vérifiés.
A+
Robert64
Contributeur HCFR
 
Messages: 5320
Inscription Forum: 12 Sep 2006 15:40
Localisation: Sud Ouest
  • offline

Message » 20 Juin 2020 22:48

Robert64 a écrit:
ngc1976 a écrit:Si je chipote c'est parce qu'on dirait que "masse neutrino = masse antineutrino" n'est qu'un raccourci reposant sur des suppositions ou des principes non vérifiés...

Non! Dans les très nombreuses expériences de collisions réalisées, dans tous les accélérateurs du monde, pour toutes les autres particules que l'on sait "peser", on observe l'égalité de masse entre particule en anti particule. C'est ce que prévoit la théorie et c'est ce que l'on mesure. Le jour où l'on saura"peser" le neutrino, on saura aussi "peser" son anti et on aura la réponse. Et tu pourras cesser de te tourmenter.

Oui mais la théorie ne leur prévoyait pas de masse, c'est peut-être parce qu'il a y comme un cas particulier à son sujet...? (J'en sais rien, simple supposition (et je serais heureux que les deux pèsent bien la même masse))

Robert64 a écrit:J'ajoute que dans ce domaine, les physiciens sont des gens sérieux qui ne se contentent pas de suppositions ou des principes non vérifiés.
A+

Principe copernicien? :siffle:
ngc1976
 
Messages: 3463
Inscription Forum: 28 Mar 2007 4:06
  • offline

Message » 21 Juin 2020 12:32

ngc1976 a écrit:....
Scuse mais je parlais de mon message du 02 Juin à 23:12 :wink:

Si tu veux vraiment un avis: je pense que ça ne sert à rien de faire des hypothèses invérifiables (non falsifiables), donc je m'en dispense.
Je sais que ça fait tourner pas mal de forums, mais ce n'est pas mon truc.
A+
Robert64
Contributeur HCFR
 
Messages: 5320
Inscription Forum: 12 Sep 2006 15:40
Localisation: Sud Ouest
  • offline

Message » 21 Juin 2020 14:49

Robert64 a écrit:
ngc1976 a écrit:....
Scuse mais je parlais de mon message du 02 Juin à 23:12 :wink:

Si tu veux vraiment un avis: je pense que ça ne sert à rien de faire des hypothèses invérifiables (non falsifiables), donc je m'en dispense.
Je sais que ça fait tourner pas mal de forums, mais ce n'est pas mon truc.
A+

Bon ben au moins je sais pourquoi tu ne répondais pas... Ok, je m'abstiendrai.
ngc1976
 
Messages: 3463
Inscription Forum: 28 Mar 2007 4:06
  • offline

Message » 22 Juin 2020 9:57

Robert64 a écrit:Une curiosité: la loi de Benford

La loi de Benford, initialement appelée loi des nombres anormaux par Benford, fait référence à une fréquence de distribution statistique observée empiriquement sur de nombreuses sources de données dans la vraie vie et aussi en mathématiques.

Quand on étudie un ensemble de données numériques, on pourrait s'attendre à voir les chiffres de 1 à 9 apparaître à peu près aussi fréquemment comme premier chiffre d'un nombre, soit avec une fréquence de 11,1 %=1/9 pour chacun.
Or, contrairement à cette intuition (biais d'équiprobabilité), pour près du tiers des observations, le 1er chiffre significatif le plus fréquent est 1. Le chiffre 2 est ensuite lui-même plus fréquent que le 3… et la probabilité d'avoir un 9 comme premier chiffre significatif n'est que de 4,6 % .
C'est une loi observée aussi bien dans les mathématiques sociales, c'est-à-dire les sciences humaines et sociales, que dans des tables de valeurs numériques comme celles qu'on rencontre en physique, en BTP, en économie (taux de change), ou même dans les numéros de rue de son carnet d'adresses.

Énoncé de la loi
Une série de nombres réels en écriture décimale suit la loi de Benford si la fréquence d'apparition du premier chiffre significatif c vaut approximativement
Fc = log(1+1/c) pour tout c entre 1 et 9
On vérifie que la somme des ces fréquences vaut log(10)=1
(D'après Wiki)
Cette loi a été utilisée par l'administration fiscale américaine pour détecter les déclarations frauduleuses.
Etonnant, non ?
A+


"Quand on étudie un ensemble de données numériques, on pourrait s'attendre à voir les chiffres de 1 à 9 apparaître à peu près aussi fréquemment comme premier chiffre d'un nombre, soit avec une fréquence de 11,1 %=1/9 pour chacun. "
Quand j'observe l'univers qui m'entoure qui est en croissance, j'aurais intuitivement tendance à penser qu'il y a plus de 1 que de 9 car 1 est avant 9.
Mathématiquement, il est logique dans un compte quelconque d'avoir plus de 1 :
Pour les numéros des rues, il y a plus de 1 que d'autres chiffres car s'il y a un 2, il y a toujours un 1, puis la base décimale va augmenter cette caractéristique à chaque dizaine, centaine, etc...
Bon je ne suis pas mathématicien, mais je suppose que l’énoncé de la loi sort d'une intuition du genre.
robob
 
Messages: 5925
Inscription Forum: 21 Mar 2007 19:23
Localisation: 95 (coté campagne)
  • offline

Message » 27 Juin 2020 10:02

Et pendant ce temps, ITER poursuit son petit bonhomme de chemin:
https://www.tpbm-presse.com/iter-le-com ... -3602.html
A+
Robert64
Contributeur HCFR
 
Messages: 5320
Inscription Forum: 12 Sep 2006 15:40
Localisation: Sud Ouest
  • offline


Retourner vers Bla bla et Home-Cinema

 
  • Articles en relation
    Dernier message