Codage numérique du texte
Charset et Encoding
En télécommunications et en informatique, un jeu de caractères codés (charset encoding en anglais) est un code qui associe un jeu de caractères d’un alphabet avec une représentation numérique pour chaque caractère de ce jeu.
Le jeu de caractère est nommé charset (character set) et le code qui relie le chaque caractère à un nombre est nommé encoding.
Par exemple, le code Morse (qui associe l’alphabet latin à une série de pressions longues et de pressions courtes sur le manipulateur morse du télégraphe) est un des premier jeux de caractères codés.
Le code ASCII ([askiː]) s’est imposé au début de l’ère informatique pour coder 128 lettres, chiffres et autres symboles.
Activité 1 – Taille d’un texte
- Quelle est la taille (en octets) de la phrase :
Enfin ! Je viens de comprendre ce qui s’est produit.
(attention, il faut compter les espaces, et signes de ponctuation…) ?- Vérifier en tapant cette phrase avec un éditeur de texte quelconque (bloc-notes de Windows, …). Il suffit d’écrire le texte, puis de l’enregistrer en tant que « texte brut » (le plus souvent avec une extension .txt) et ensuite de vérifier la taille en octets du fichier obtenu (ce qui peut se faire en cliquant d’abord avec le bouton droit sur l’icône du fichier puis sur « Propriétés »).
- Écrire la même chose dans un logiciel de traitement de texte (comme LibreOffice Writer ou Microsoft Word). Expliquer pourquoi la taille du fichier n’est pas la même.
Activité 2 – Utilisation de la table ASCII
- À l’aide de la table ASCII, coder en binaire la phrase suivante :
L’an qui vient !
.- Voici maintenant une exclamation codée en binaire :
01000010 01110010 01100001 01110110 01101111 00100001
. Retrouver cette exclamation !- Peut-on coder en binaire la phrase
Un âne est-il passé par là ?
à l’aide de la table ASCII ? (Justifier la réponse)
Quand la table ASCII ne suffit plus
Pour coder un texte dans un alphabet plus complexe et pour échanger des informations sur l’Internet, il faut impérativement disposer d’un charset plus complet.
Par exemple, en français les caractères é, è, ç, à, ù, ô, æ, œ, sont fréquemment utilisés alors qu’ils ne figurent pas dans la table ASCII.
Il va donc falloir étendre la table ASCII pour pouvoir coder les nouveaux caractères. Les mémoires devenant plus fiables et, de nouvelles méthodes plus sûres que le contrôle de parité ayant été inventées, le 8ième bit a pu être utilisé pour coder plus de caractères.
Micro-activité
Combien le fait d’avoir 8 bits amène-t-il de nouvelles possibilités ?
On élimine ainsi l’inconvénient très gênant de ne coder que les lettres non accentuées, ce qui peut suffire en anglais, mais pas dans les autres langues (comme le français et l’espagnol par exemple). On a pu aussi rajouter des caractères typographiques utiles comme des tirets de diverses tailles et sortes.
De la difficulté de convenir d’une norme
Le fait d’utiliser un bit supplémentaire a bien entendu ouvert des possibilités mais malheureusement tous les caractères ne pouvaient être pris en charge. La norme ISO 8859–1 appelée aussi Latin-1 ou Europe occidentale est la première partie d’une norme plus complète appelée ISO 8859 (qui comprend 16 parties) et qui permet de coder tous les caractères des langues européennes. Cette norme ISO 8859–1 permet de coder 191 caractères de l’alphabet latin qui avaient à l’époque été jugés essentiels dans l’écriture, mais omet quelques caractères fort utiles (ainsi, la ligature oe n’y figure pas). Dans les pays occidentaux, cette norme est utilisée par de nombreux systèmes d’exploitation, dont Linux et Windows. Elle a donné lieu à quelques extensions et adaptations, dont Windows-1252 (appelée ANSI) et ISO 8859-15 (qui prend en compte le symbole € créé après la norme ISO 8859-1). C’est source de grande confusion pour les développeurs de programmes informatiques car un même caractère peut être codé différemment suivant la norme utilisée.
Voici deux tableaux présentant côte à côte ces deux encodages :
À première vue, on a les mêmes caractères aux mêmes places; un regard plus attentif montre l’affectation de caractères supplémentaires sur des zones inutilisées dans ISO 8859-15. Un examen encore plus attentif montre enfin que les deux tables sont tout à fait incompatibles.
Activité – Utilisation d’un logiciel
Voici le code binaire d’un texte :
01000010 01110010 01100001 01110110 01101111 00101100 00100000 01110100 01110101 00100000 01100001 01110011 00100000 01110000 01110010 01100101 01110011 01110001 01110101 01100101 00100000 01110100 01101111 01110101 01110100 00100000 01110100 01110010 01101111 01110101 01110110 11101001 00101110 00101110 00101110
- À l’aide du convertisseur en ligne, retrouver le texte contenu dans le code.
- Ce logiciel est-il compatible avec la norme ISO 8859-1, ISO 8859-15 ou Windows 1252 ? (justifier la réponse)
- Trouver une astuce pour savoir laquelle des trois est utilisée !
Quand le net s’affole…
Nous avons tous un jour reçu un courriel bizarre ou lu une page web telle que celle-ci :
Prenons l’exemple typique de la lumière émise par un phare maritime : elle est d’abord indivisible, son coût de production étant alors indépendant du nombre d’utilisateurs ; elle possède une propriété de non-rivalité (elle ne se détruit pas dans l’usage et peut donc être adoptée par un nombre illimité d’utilisateurs) ; elle est également non excluable car il est impossible d’exclure de l’usage un utilisateur, même si ce dernier ne contribue pas à son financement.
Bien que ceci soit de moins en moins fréquent (nous comprendrons bientôt pourquoi), on trouve parfois des phrases dans lesquelles certains caractères sont remplacés par d’autres (connu sous le nom de mojibake) qui n’ont rien à voir et qui empêchent la lecture et la compréhension du texte. Il s’agit ici d’un problème d’encodage et de décodage. La personne qui écrit le texte utilise une norme différente de celle utilisée par celui qui le lit ! Lorsque c’est un courriel on a la plupart du temps affaire à un spam venant de l’étranger, ce n’est pas sans raison…
Et l’Unicode vint…
La globalisation des échanges culturels et économiques a mis l’accent sur le fait que les langues européennes coexistent avec de nombreuses autres langues aux alphabets spécifiques voire sans alphabet. La généralisation de l’utilisation d’Internet dans le monde a ainsi nécessité une prise en compte d’un nombre beaucoup plus important de caractères (à titre d’exemple, le mandarin possède plus de 5000 caractères !). Une autre motivation pour cette évolution résidait dans les possibles confusions dues au trop faible nombre de caractères pris en compte ; ainsi, les symboles monétaires des différents pays n’étaient pas tous représentés dans le système ISO 8859-1, de sorte que les ordres de paiement internationaux transmis par courrier électronique risquaient d’être mal compris. La norme Unicode a donc été créée pour permettre le codage de textes écrits quel que soit le système d’écriture utilisé. On attribue à chaque caractère un nom, une position normative et un bref descriptif qui seront les mêmes quelle que soit la plate-forme informatique ou le logiciel utilisés. Un consortium composé d’informaticiens, de chercheurs, de linguistes et de personnalités représentant les États ainsi que les entreprises s’occupe donc d’unifier toutes les pratiques en un seul et même système : l’Unicode.
L’Unicode est une table de correspondance Caractère-Code (Charset), et l’UTF-8 est l’encodage correspondant (Encoding) le plus répandu. Maintenant, par défaut, les navigateurs Internet utilisent le codage UTF-8 et les concepteurs de sites pensent de plus en plus à créer leurs pages web en prenant en compte cette même norme ; c’est pourquoi il y a de moins en moins de problèmes de compatibilité.
Activité – Codage et Internet
Ouvrir un navigateur Internet (Firefox, …). Dans la barre d’outils du premier on peut voir à « Affichage », « Encodage des caractères » que c’est l’UTF-8 qui est sélectionné par défaut. Changeons cela et sélectionnons Europe Centrale (Windows). Les petits caractères désagréables apparaissent. Que s’est-il passé ? En allant dans « Outils », « Informations sur la page », on voit que cette page est encodée en UTF-8. Lorsque le lecteur est lui aussi en UTF-8 tout va bien. Dès qu’on change le paramètre du lecteur (ici, le navigateur), des incompatibilités apparaissent.
En utilisant le navigateur web, et en allant dans « Affichage », « Source », on obtient ceci :<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <head> <title>Phare</title> <meta http-equiv="Content-Type" content="text/html; charset=utf-8"> </head> <body> Prenons l’exemple typique de la lumière émise par un phare maritime : elle est d’abord indivisible, son coût de production étant alors indépendant du nombre d'utilisateurs ; elle possède une propriété de non-rivalité (elle ne se détruit pas dans l'usage et peut donc être adoptée par un nombre illimité d'utilisateurs) ; elle est également non excluable car il est impossible d’exclure de l’usage un utilisateur, même si ce dernier ne contribue pas à son financement. </body>On peut lire l’entête de la page html visitée. Où se situe l’information relative à l’encodage ?
On peut aussi dans « Affichage », « Codage », sélectionner Grec (ISO) et se rendre compte en lisant le texte, que le « à » a été remplacé par un « L » à l’envers dit Gamma.
Une autre petite expérience
Sous Windows aller dans « Démarrer », « Exécuter », taper « charmap ». Cocher « Affichage avancé », sélectionner « Windows : Occidental » (c’est à peu de choses près l’ISO 8859-1) dans « Jeu de caractères » regarder le nombre de caractères proposés, puis sélectionner « Unicode ». Il y a maintenant un très grand nombre de caractères disponibles, de nombreuses langues sont représentées, ainsi qu’une quantité d’autres symboles ! Sauriez-vous repérer quels symboles vous connaissez (typographiques, techniques, décoratifs) ?
Sous Linux on pourra utiliser « gucharmap », et pour OSX (Apple) il faut chercher la « palette de caractères ».
Quelques précisions sur l’UTF-8
Des règles, encore des règles
L’encodage UTF-8 utilise 1, 2, 3 ou 4 octets en respectant certaines règles :
- Un texte en ASCII de base (appelé aussi US-ASCII) est codé de manière identique en UTF-8. On utilise un octet commençant par un bit 0 à gauche (bit de poids fort).
- Les octets ne sont pas remplis entièrement. Les bits de poids fort du premier octet forment une suite de 1 indiquant le nombre d’octets utilisés pour coder le caractère. Les octets suivants commencent tous par le bloc binaire 10.
- Dans la norme ISO 8859-1 le « é » est codé 1110 1001 , en UTF-8 on le code sur deux octets en respectant les précisions apportées dans le tableau ci-dessus. Les bits imposés sont en gras, le code du « é » est écrit en commençant par la droite et l’octet de gauche est rempli par des zéros (en italique). Voilà ce que l’on obtient : 11000011 10101001 . On pourra remarquer que le codage ISO s’inscrit bien dans le codage UTF-8.
Activité – Coder en UTF-8
Le symbole € correspond à la valeur décimale 8364.
- Convertir cette valeur en binaire.
- Combien d’octets doit-on utiliser en UTF-8 pour coder ce nombre convenablement (les moitiés d’octet sont interdites) ?
- Donner le codage UTF-8 correspondant.
Quelques remarques
- Ce codage permet de coder tous les caractères de la norme Unicode.
- Les caractères Unicode sont la plupart du temps représentés en hexadécimal.
Par exemple : 1110 1001 qui est le code binaire du « é » en ISO 8859-1 devient E9h (l’indice signifie que l’on est en base 16) ce que l’on peut retrouver dans le tableau donné plus haut. Il faut noter que la notation en binaire est très peu utilisée sauf par les électroniciens et par ceux qui travaillent en langage machine. - Le système de codage UTF-8 permet d’encoder un même caractère de plusieurs manières. Ceci peut poser un problème de sécurité car un programme détectant certaines chaînes de caractères (pour contrer des injections dans les bases de données par exemple), s’il est mal écrit, pourrait alors accepter des séquences nuisibles. En 2001 un virus a ainsi attaqué des serveurs http du web.
Par exemple, le symbole € pourrait être codé sur 4 octets (forme super longue) de la manière suivante :
11110000 10000010 10000010 10101100. Si elle n’est pas rejetée ou remise sous forme standard ce codage ouvrira une brèche potentielle de sécurité par laquelle on pourra faire passer un virus.
Question-défi : quel est le nombre maximal de caractères que l’on peut encoder grâce à l’UTF-8 lorsqu’on utilise les quatre octets ?
Dépôt de fichier réponse
source : http://eduscol.education.fr/cid60671/ressources-isn.html