Databac

codage.

Publié le 07/12/2021

Extrait du document

Ci-dessous un extrait traitant le sujet : codage.. Ce document contient 771 mots. Pour le télécharger en entier, envoyez-nous un de vos documents grâce à notre système d’échange gratuit de ressources numériques ou achetez-le pour la modique somme d’un euro symbolique. Cette aide totalement rédigée en format pdf sera utile aux lycéens ou étudiants ayant un devoir à réaliser ou une leçon à approfondir en : Encyclopédie
codage. n.m., opération qui consiste à représenter les éléments d'un message par les
signaux d'un code. Elle permet à deux dispositifs de traitement de l'information d'échanger
des messages. Un message est une représentation interne à l'un des dispositifs. Un signal est
une modification de l'environnement qui peut être produite par l'un des deux dispositifs et
détectée par l'autre. Un code élémentaire, comme le morse, consiste en une simple liste de
couples message-signal. L'ensemble des éléments du message est dit l'ensemble codé, et
l'ensemble des signaux, le jeu de codes. On peut emprunter à Claude Shannon (créateur de la
Théorie de l'information, 1948) la représentation qu'il a donnée de la communication de
messages codés (voir schéma page suivante).
Ce diagramme illustre la façon dont un message provenant d'une source d'information
peut être reproduit à une destination donnée grâce à un processus de communication. Il
s'applique particulièrement à des domaines comme les télécommunications (pour lesquelles il
a été conçu) ou l'informatique, puisque la circulation d'information à l'intérieur des ordinateurs
ou entre ordinateurs lui obéit.
Il est beaucoup plus hasardeux d'utiliser ce modèle du code dans le domaine de la
communication verbale entre les êtres humains, bien que la tradition en remonte à Aristote,
qui soutenait que « les sons de la parole sont des symboles des affections de l'âme « ( De
l'interprétation) et à Arnaud et Lancelot ( Grammaire de Port-Royal). La théorie sémiotique,
selon laquelle les langues humaines seraient des codes qui associeraient des pensées à des
sons, est aujourd'hui contestée par certains spécialistes de psychologie cognitive. La
communication entre humains fait appel à beaucoup d'éléments qui ne peuvent pas entrer
dans le cadre de la théorie de l'information, comme les éléments du contexte, et notamment
le fait que l'homme ait un corps.
Cependant, pris dans une acception plus large, le terme « codage « peut également
désigner en sciences humaines une méthode permettant de traiter rigoureusement tous les
messages (il s'agit alors de les décomposer en un certain nombre de variables qui feront
l'objet d'un traitement informatique). Ainsi, des interactions de face-à-face et énoncés
verbaux, où l'on souhaite repérer les récurrences d'attitudes ou de comportements, peuvent
être approchés et traités à partir des déplacements dans un espace restreint, des façons
d'engager une conversation ou encore des phases de la discussion.

Le codage binaire.
Les principes des ordinateurs modernes reposent sur l'algèbre de George Boole (18151864) et sur le codage binaire inventé par Francis Bacon (1561-1626). En effet, si l'on
code les nombres en numération binaire, ils peuvent être représentés par des chaînes de
contacts ouverts ou fermés, et l'on peut utiliser les opérations de l'algèbre de Boole (ET,
OU, NON) pour modéliser les opérations arithmétiques élémentaires. Les circuits
permettant de réaliser ces opérations sont simples à concevoir, par exemple avec des
transistors. Les informations non numériques seront représentées grâce à l'assignation à
chaque caractère de l'alphabet d'une valeur numérique (selon le code Ascii, par exemple),
ce qui permettra le codage de textes. La simplicité des circuits logiques propres à traiter les
informations codées en binaire a permis l'essor de l'informatique.
Complétez votre recherche en consultant :
Les corrélats
informatique - Histoire de l'informatique - La logique formelle - L'origine de la

logique
ordinateur - La technique des ordinateurs - Le squelette logique

Codage et transmission de données.
Une fois admis les principes du codage, il reste à résoudre le problème matériel de la
circulation de signaux électriques dans les circuits internes des ordinateurs ou sur les lignes
de communication entre eux. Un signal binaire peut être représenté par un courant donné
si sa valeur est 1, et par une absence de courant si elle est 0. Mais la propagation de tels
signaux le long d'un circuit sera accompagnée d'une atténuation qui rendra difficile de
décoder les transitions entre les 0 et les 1. La solution de ce problème réside dans la
théorie des transformations de Fourier, qui postule que toute fonction périodique peut être
décomposée en une somme de sinus et de cosinus, et qu'à partir de cette série (les
harmoniques) on peut reconstruire la fonction initiale (le signal). Harry Nyquist, en 1924, et
Claude Shannon, en 1948, ont déterminé le débit maximal d'un canal transportant des
signaux compte tenu de sa largeur de bande (les fréquences admises) et de la fréquence
d'échantillonnage nécessaire au décodage sans erreur.
Complétez votre recherche en consultant :
Les corrélats
ASCII (American Standard Code for Information Interchange)
binaire (numération)
Boole George
code - 2.LINGUISTIQUE
cryptage
Fourier (baron Joseph)
informatique - Histoire de l'informatique - La logique formelle - L'origine de la logique
message
Morse Samuel Finley Breese
ordinateur - La technique des ordinateurs - Le squelette logique
sémiotique
signe - 2.LINGUISTIQUE, SÉMIOTIQUE
Les médias
Morse - le code
Les livres
codage, page 1156, volume 3

↓↓↓ APERÇU DU DOCUMENT ↓↓↓