dimanche 15 septembre 2013

Claude Shannon

source : http://www.industrie-techno.com/la-conversion-de-signal-analogique-numerique-gagne-en-vitesse.11855
Claude Shannon (1916 - 2001) est un ingénieur électricien et mathématicien américain à qui l'on doit... notre façon actuelle de communiquer : téléphone, mail, informatique, ...
Avec son article A Mathematical Theory of Communications publié en 1948, il fonde la théorie de l'information, dont l'objet est d'étudier les moyens de transmettre l'information le plus rapidement possible (par le biais d'un signal électrique par exemple) et avec le maximum de sécurité :



Cette théorie cherche à minimiser la probabilité d'erreur dans la reconnaissance du message et, pour ce faire, élabore une notion fondamentale : la mesure de l'information, au sens mathématique du terme.
D'après Wikipédia :
"La notion d'information d'après Shannon est nécessairement associée à la notion de « redondance » et à celle de « bruit ». Par exemple, en linguistique l'information n'est ni dans le mot, ni dans la syllabe, ni dans la lettre. Il y a des lettres voire des syllabes qui sont inutiles à la transmission de l'information que contient le mot : il y a dans une phrase, des mots inutiles à la transmission de l'information. La théorie de Shannon appelle redondance tout ce qui dans le message apparaît comme en surplus. Aussi est-il économique de ne pas transmettre la redondance."
"L'information chemine à travers un canal matériel/énergétique : fil téléphonique, onde radio, etc. Or, dans son cheminement, l'information rencontre du bruit. Le bruit est constitué par les perturbations aléatoires de toutes sortes qui surgissent dans le canal de transmission et tendent à brouiller le message. Le problème de la dégradation de l'information par le bruit est donc un problème inhérent à sa communication. Ici, l'idée de redondance présente une face nouvelle ; alors qu'elle apparaît comme un surplus inutile sous l'angle économique, elle devient, sous l'angle de la fiabilité de la transmission un fortifiant contre le bruit, un préventif contre les risques d'ambiguïté et d'erreur à la réception."
"Parmi les branches importantes de la théorie de l'information de Shannon, on peut citer :
Dans un sens plus général, une théorie de l'information est une théorie visant à quantifier et qualifier la notion de contenu en information présent dans un ensemble de données. " 





Aucun commentaire:

Enregistrer un commentaire