Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

UTF-8

Un article de Wikipédia, l'encyclopédie libre.

UTF-8 (abréviation de l'anglaisUniversal Character Set Transformation Format[1] -8bits) est uncodage de caractèresinformatiques conçu pour coder l’ensemble des caractères du « répertoire universel de caractères codés », initialement développé par l’ISO dans la norme internationaleISO/CEI 10646, aujourd’hui totalement compatible avec le standardUnicode, en restant compatible avec la normeASCII limitée à l'anglais de base, mais très largement répandue depuis des décennies.

L'UTF-8 est utilisé par 82,2 % dessites web en[2], 87,6 % en 2016[3], 90,5 % en 2017[4], 93,1 % en[5] et près de 95,2 % en. Par sa nature, UTF-8 est d'un usage de plus en plus courant surInternet, et dans les systèmes devant échanger de l'information. Il s'agit également du codage le plus utilisé dans les systèmesGNU/Linux et compatibles pour gérer le plus simplement possible des textes et leurs traductions dans tous les systèmes d'écritures et tous les alphabets du monde.

Liens avec la norme internationale ISO/CEI 10646 et les standards Unicode et d'Internet

[modifier |modifier le code]
Schéma détaillé de l'encodage UTF-8. Inclut la numérotation des bits et la position exacte de chaque bit. Ce système ne contient pas d'étiquettes localisées (appropriées à un usage international).

UTF-8 est un « format de transformation » issu à l'origine des travaux pour la normeISO/CEI 10646, c'est-à-dire que UTF-8 définit un codage pour toutpoint de codescalaire (caractère abstrait ou « non-caractère ») du répertoire du jeu universel de caractères codés (Universal Character Set, ouUCS). Ce répertoire est aujourd'hui commun à la normeISO/CEI 10646 (depuis sa révision 1.) et au standardUnicode (depuis sa version 1.1).

UTF-8 est officiellement défini dans la normeISO/CEI 10646 depuis son adoption dans un amendement publié en 1996. Il fut aussi décrit dans le standardUnicode et fait partie de ce standard depuis la version 3.0 publiée en 2000. En 1996 fut publiée laRFC 2044[6] (« UTF-8, a transformation format of ISO 10646 ») dans le but de fournir une spécification accessible d'UTF-8 et d'entamer sa standardisation au sein de l'Internet Engineering Task Force (IETF). Cette RFC fut révisée en 1998 (RFC 2279[7]) puis finalement en 2003 (RFC 3629[8]), cette dernière version faisant d'UTF-8 un desstandards de l'internet (STD 63).

Description technique

[modifier |modifier le code]

Techniquement, il s'agit decoder les caractèresUnicode sous forme de séquences de un à quatrecodets d'unoctet chacun. La norme Unicode définit entre autres un ensemble (ou répertoire) de caractères. Chaque caractère est repéré dans cet ensemble par un index entier aussi appelé « point de code ». Par exemple le caractère « € » (euro) est le 8365e caractère du répertoire Unicode, son index, ou point de code, est donc 8364 (0x20AC), car on commence à compter à partir de 0.

Le répertoire Unicode peut contenir plus d'un million de caractères, ce qui est bien trop grand pour être codé par un seuloctet (limité à des valeurs entre 0 et 255). La norme Unicode définit donc des méthodes standardisées pour coder et stocker cet index sous forme de séquence d'octets : UTF-8 est l'une d'entre elles, avecUTF-16,UTF-32 et leurs différentes variantes.

La principale caractéristique d'UTF-8 est qu'elle est rétro-compatible avec le standard ASCII, c'est-à-dire que tout caractère ASCII se code en UTF-8 sous forme d'un unique octet, identique au code ASCII. Par exemple « A » (A majuscule) a pour code ASCII 65 (0x41) et se code en UTF-8 par l'octet 65. Chaque caractère dont le point de code est supérieur à 127 (0x7F) (caractère non ASCII) se code sur 2 à4 octets. Le caractère « € » (euro) se code par exemple sur3 octets : 226, 130, et 172 (0xE2, 0x82 et 0xAC).

Description

[modifier |modifier le code]

Le numéro (valeur scalaire) de chaque point de code dans le jeu universel de caractères (UCS) est donné par lanormeISO/CEI 10646 qui assigne un point de code à chaque caractère valide, puis permet leur codage en leur attribuant une valeur scalaire identique au point de code ; cette norme est reprise dans lestandardUnicode (qui utilise depuis la version 1.1 le même répertoire).

Tous les « points de code » (code points en anglais) de U+0000 à U+D7FF et de U+E000 à U+10FFFF sont représentables en UTF-8 — même ceux qui sont attribués à des « non-caractères » (non-character) et tous ceux qui ne sont pas encore attribués — et uniquement ceux-là. Les seuls points de code valides dans l'espace de l'UCS, et qui ne doivent pas être représentés dans UTF-8, sont ceux qui sont attribués aux « demi-codets » (surrogates en anglais), car ils ne sont pas représentables de façon bijective dans le codageUTF-16 et ne sont pas non plus par eux-mêmes des caractères : contrairement aux autres points de code, les demi-codets n'ont doncpas de « valeur scalaire » (scalar value en anglais) définie.

Les points de code ayant une valeur scalaire de 0 à 127 (points de codes U+0000 à U+007F, attribués aux caractères du jeu codé sur 7 bits dans l'ASCII) sont codés sur un seuloctet dont lebit de poids fort est nul.

Les autres points de code (attribués ou non à des caractères) ayant une valeur scalaire supérieure à 127 (sauf ceux auxquels sont attribués des « demi-codets » qui ne sont pas eux-mêmes des caractères) sont codés sur plusieurs octets ayant chacun leurbit de poids fort non nul : les bits de poids fort du premier octet de la séquence codée forment une suite de 1 de longueur égale au nombre total d'octets (au moins 2) utilisés pour la séquence entière suivie d'un 0 et les octets suivants nécessaires ont leurs deux bits de poids fort positionnés à 10.

Définition du nombre d'octets utilisés dans le codage (attention ce tableau de principe contient des séquences non valides)
Caractères codésReprésentation binaire UTF-8Premier octet valide (hexadécimal)Signification
U+0000 à U+007F0ƀƀƀ·ƀƀƀƀ00 à 7F1 octet, codant jusqu’à 7 bits
U+0080 à U+07FF110ƀ·ƀƀƀƀ 10ƀƀ·ƀƀƀƀC2 à DF2 octets, codant jusqu’à 11 bits
U+0800 à U+FFFF111ƀƀƀƀ 10ƀƀ·ƀƀƀƀ 10ƀƀ·ƀƀƀƀE0 à EF3 octets, codant jusqu’à 16 bits
U+10000 à U+10FFFF1111·00ƀƀ 10ƀƀ·ƀƀƀƀ 10ƀƀ·ƀƀƀƀ 10ƀƀ·ƀƀƀƀF0 à F34 octets, codant jusqu’à 21 bits
1111·0100 1000·ƀƀƀƀ 10ƀƀ·ƀƀƀƀ 10ƀƀ·ƀƀƀƀF4

Ce principe pourrait être étendu jusqu’à huit octets pour un seul point de code (pour représenter des points de code comprenant jusqu’à 42 bits), mais la version normalisée actuelle d'UTF-8 pose la limite à quatre[9].

Le codage interdit la représentation des points de code réservés auxdemi-codets (qui n'ont pas de valeur scalaire définie, afin de préserver la compatibilité avecUTF-16 qui ne permet pas non plus de les représenter). Il autorise cependant la représentation des points de code assignés à desnon-caractères (alors même que leur présence est interdite dans un texte conforme).

Exemples

[modifier |modifier le code]
Exemples de codage UTF-8
TypeCaractèrePoint de code
(hexadécimal)
Valeur scalaireCodage UTF-8
décimalbinairebinairehexadécimal
Contrôle
(C0)
[NUL]U+0000000000000000
[US]U+001F311·1111000111111F
Texte
(US-ASCII)
[SP]U+00203210·00000010000020
0U+00304811·00000011000030
9U+00395711·10010011100139
?U+003F6311·1111001111113F
@U+004064100·00000100000040
AU+004165100·00010100000141
ZU+005A90101·1010010110105A
aU+006197110·00010110000161
zU+007A122111·1010011110107A
~U+007E126111·1110011111107E
Contrôle
(C0 et C1)
[DEL]U+007F127111·1111011111117F
[PAD]U+00801281000·00001100001010000000C2 80
[APC]U+009F1591001·11111100001010011111C2 9F
Texte
(PMB)
[NBSP]U+00A01601010·00001100001010100000C2 A0
¿U+00BF1911011·11111100001010111111C2 BF
ÀU+00C01921100·00001100001110000000C3 80
éU+00E92331110·10011100001110101001C3 A9
߿U+07FF2047111 1111·11111101111110111111DF BF
U+080020481000 0000·0000111000001010000010000000E0 A0 80
U+20AC8 36410·0000 1010·1100111000101000001010101100E2 82 AC
U+D7FF55 2951101·0111 1111·1111111011011001111110111111ED 9F BF
Demi-codetU+D800(néant)(codage interdit)
U+DFFF
Usage privé
(PMB)
[]U+E00057 3441110·0000 0000·0000111011101000000010000000EE 80 80
[]U+F8FF63 7431111·1000 1111·1111111011111010001110111111EF A3 BF
Texte
(PMB)
U+F90063 7441111·1001 0000·0000111011111010010010000000EF A4 80
U+FDCF64 9751111·1101 1100·1111111011111011011110001111EF B7 8F
Non-caractèresU+FDD064 9761111·1101 1101·0000111011111011011110010000EF B7 90
U+FDEF65 0071111·1101 1110·1111111011111011011110101111EF B7 AF
Texte
(PMB)
U+FDF065 0081111·1101 1111·0000111011111011011110110000EF B7 B0
U+FFFD65 5331111·1111 1111·1101111011111011111110111101EF BF BD
Non-caractèresU+FFFE65 5341111·1111 1111·1110111011111011111110111110EF BF BE
U+FFFF65 5351111·1111 1111·1111111011111011111110111111EF BF BF
 
Texte
(PMC)
𐀀U+1000065 5361 0000·0000 0000·000011110000100100001000000010000000F0 90 80 80
𝄞U+1D11E119 0701 1101·0001 0001·111011110000100111011000010010011110F0 9D 84 9E
🿽U+1FFFD131 0691 1111·1111 1111·110111110000100111111011111110111101F0 9F BF BD
Non-caractèresU+1FFFE131 0701 1111·1111 1111·111011110000100111111011111110111110F0 9F BF BE
U+1FFFF131 0711 1111·1111 1111·111111110000100111111011111110111111F0 9F BF BF
 
Texte
(PSC)
𠀀U+20000131 07210 0000·0000 0000·000011110000101000001000000010000000F0 A0 80 80
𯿽U+2FFFD196 60510 1111·1111 1111·110111110000101011111011111110111101F0 AF BF BD
Non-caractèresU+2FFFE196 60610 1111·1111 1111·111011110000101011111011111110111110F0 AF BF BE
U+2FFFF196 60710 1111·1111 1111·111111110000101011111011111110111111F0 AF BF BF
Texte
(TIP)
𰀀U+30000196 60811 0000·0000 0000·000011110000101100001000000010000000F0 B0 80 80
𿿽U+3FFFD262 14111 1111·1111 1111·110111110000101111111011111110111101F0 BF BF BD
Non-caractèresU+3FFFE262 14211 1111·1111 1111·111011110000101111111011111110111110F0 BF BF BE
U+3FFFF262 14311 1111·1111 1111·111111110000101111111011111110111111F0 BF BF BF
 
...autres plans réservés...
 
Spécial
(PCS)
󠀀U+E0000917 5041110 0000·0000 0000·000011110011101000001000000010000000F3 A0 80 80
󯿽U+EFFFD983 0371110 1111·1111 1111·110111110011101011111011111110111101F3 AF BF BD
Non-caractèresU+EFFFE983 0381110 1111·1111 1111·111011110011101011111011111110111110F3 AF BF BE
U+EFFFF983 0391110 1111·1111 1111·111111110011101011111011111110111111F3 AF BF BF
 
Usage privé
(PUP-A)
[󰀀]U+F0000983 0401111 0000·0000 0000·000011110011101100001000000010000000F3 B0 80 80
[󿿽]U+FFFFD1 048 5731111 1111·1111 1111·110111110011101111111011111110111101F3 BF BF BD
Non-caractèresU+FFFFE1 048 5741111 1111·1111 1111·111011110011101111111011111110111110F3 BF BF BE
U+FFFFF1 048 5751111 1111·1111 1111·111111110011101111111011111110111111F3 BF BF BF
 
Usage privé
(PUP-B)
[􀀀]U+1000001 048 5761·0000 0000·0000 0000·000011110100100000001000000010000000F4 80 80 80
[􏿽]U+10FFFD1 114 1091·0000 1111·1111 1111·110111110100100011111011111110111101F4 8F BF BD
Non-caractèresU+10FFFE1 114 1101·0000 1111·1111 1111·111011110100100011111011111110111110F4 8F BF BE
U+10FFFF1 114 1111·0000 1111·1111 1111·111111110100100011111011111110111111F4 8F BF BF

Caractéristiques

[modifier |modifier le code]

Dans toutechaîne de caractères codée en UTF-8, on remarque que :

  • tout octet de bit de poids fort nul désigne un unique « point de code » affecté à un caractère du répertoire de l'US-ASCII et codé sur ce seul octet, d'une valeur scalaire identique à celle du codet utilisé dans le codage US-ASCII ;
  • tout octet de bits de poids fort valant 11 est le premier octet d'une séquence unique représentant un « point de code » (affecté à un caractère ou un non-caractère) et codé sur plusieurs octets ;
  • tout octet de bits de poids fort valant 10 est un des octets suivants d'une séquence unique représentant un « point de code » (affecté à un caractère ou un non-caractère) et codé sur plusieurs octets ;
  • aucun octet ne peut prendre une valeur hexadécimale entre C0 et C1, ni entre F5 et FF (le plus haut point de code valide et affecté à un caractère représentable est U+10FFFD ; c’est un caractère à usage privé alloué dans le17e plan valide).

Le plus grand point de code valide affectable à un caractère validenon privé est U+EFFFD dans le15e plan (il n’est pas encore affecté mais pourrait le devenir à l’avenir), mais le codage UTF-8 peut être utilisé aussi, de façon conforme aux normes, pour représenter n’importe quel caractère valide à usage privé (dans une des trois plages U+E000 à U+F8FF, U+F0000 à U+FFFFD, et U+100000 à U+10FFFD).

L’acceptation ou non desnon-caractères ou descaractères d’usage privé est laissée aux applications ou protocoles de transport de texte. Cependant lesnon-caractères ne sont normalement pas acceptés dans des textes interopérables et strictement conformes au standardUnicode où à la normeISO/CEI 10646.

Certaines applications imposent des restrictions supplémentaires sur les points de code utilisables (par exemple, les standardsHTML etXML interdisent, dans tout document conforme à ces spécifications, la présence de la plupart des caractères de contrôle entre U+0000 et U+001F et entre U+0080 et U+009F, en dehors du contrôle de la tabulation U+0009 considéré comme un caractère blanc, et interdisent aussi lesnon-caractères).

Tout point de code est toujours représenté par exactement la même séquence binaire, quelle que soit sa position relative dans le texte, et ces séquences sont autosynchronisées sur la position indivise des codets significatifs (ici les octets : on peut toujours savoir si un octet débute ou non une séquence binaire effective) ; ce codage autorise donc les algorithmes rapides de recherche de texte, tels que l'algorithme de Boyer-Moore.

Ce n'est pas toujours le cas des codages contextuels (qui utilisent généralement lacompression de données, par exempleSCSU défini dans la note technique standard UTS#6 optionnelle complétant le standard Unicode) et qui peuvent nécessiter de lire le texte complètement depuis le début, ni des codages basés sur plus d'une seule variable d'état (ou qui incorporent des codes supplémentaires de redondance) ; au mieux certains de ces codages peuvent demander d'utiliser des algorithmes complexes de resynchronisation, basés souvent sur desheuristiques qui peuvent échouer ou conduire à de fausses interprétations si on ne lit pas le texte depuis le début (par exempleBOCU-1).

Principe et unicité du codage

[modifier |modifier le code]

Dans le tableau ci-dessus, on voit que le caractère « € » se trouve au point de code U+20AC, soit en décimal 8364, ou en binaire : 100000 10101100.

Ce dernier nombre comportelog28364=14{\displaystyle \lceil \log _{2}8364\rceil =14} chiffres binaires significatifs, donc14 bits au moins sont nécessaires pour coder le caractère « € ». La norme présentée ci-dessus impose en réalité trois octets pour représenter ces caractères.

Avec quatre octets à disposition, il serait possible de placer selon cette norme jusqu’à21 bits, donc en particulier de représenter le caractère « € » par00000 00100000 10101100, en lui ajoutant en tête7 zéros non significatifs. Toutefois, la norme impose qu’un programme décodant l’UTF-8 ne doit pas accepter de chaînes d’octets inutilement longues comme dans cet exemple, ce pour des raisons de sécurité (éviter l’exploitation de tests de sous-chaînes trop tolérants)[10]. Ainsi « € » se codera en binaire : 11100010 10000010 10101100, mais le codage 11110000 10000010 10000010 10101100, déduit de la représentation de « € » sur21 bits, bien qu’univoque, ne doit pas être utilisé.

Une telle forme plus longue que nécessaire s’appelle en anglaisoverlong. De telles formes (initialement autorisées dans des spécifications anciennes avant qu’elles soient normalisées successivement par la RFC initiale publiée par le ConsortiumX/Open, puis parallèlement par la norme ISO 10646 et le standard Unicode) sont désormais interdites et doivent être traitées comme non valides.

Types d'octets, séquences valides et décodage

[modifier |modifier le code]

Le codage est prédictif et permet toujours de retrouver la position du premier octet d'une séquence représentant un point de code, à partir de la valeur d'un octet quelconque et de la lecture d'un nombre limité d'octets voisins, dans les deux directions de lecture (ce sera toujours l’octet lui-même, ou le premier éligible dans un des 1 à3 octets voisins).

  • Tout octet de continuation dans une séquence UTF-8 valide ne peut prendre que les valeurs hexadécimales 80 à BF :
    • il ne peut exister qu'à la suite d'un octet de début de séquence (représentant un point de code), qui sera le dernier codé dans un des 1 à3 octets précédents et qui n'est pas non plus un octet de continuation ;
    • le point de code suivant, s’il y en a un, ne peut commencer au maximum que dans les 1 à3 octets suivants.
  • Le premier octet d'une séquence UTF-8 valide ne peut prendre que les valeurs hexadécimales 00 à 7F ou C2 à F4 :
    • le premier octet hexadécimal 00 à 7F d'une séquence n'est suivi d'aucun octet de continuation ;
    • le premier octet hexadécimal C2 à DF d'une séquence est toujours suivi d'un seul octet de continuation (chacun de valeur hexadécimale entre 80 et BF) ;
    • le premier octet hexadécimal E0 à EF d'une séquence est toujours suivi de deux octets de continuation (chacun de valeur hexadécimale entre 80 et BF) ;
      • cependant, si le premier octet d'une séquence prend la valeur hexadécimale E0, le premier octet de continuation est restreint à une valeur hexadécimale entre A0 et BF ;
      • cependant, si le premier octet d'une séquence prend la valeur hexadécimale ED, le premier octet de continuation est restreint à une valeur hexadécimale entre 80 et 9F ;
    • le premier octet hexadécimal F0 à F4 d'une séquence est toujours suivi de trois octets de continuation (chacun de valeur hexadécimale entre 80 et BF) ;
      • cependant, si le premier octet d'une séquence prend la valeur hexadécimale F0, le premier octet de continuation est restreint à une valeur hexadécimale entre 90 et BF ;
      • cependant, si le premier octet d'une séquence prend la valeur hexadécimale F4, le premier octet de continuation est restreint à une valeur hexadécimale entre 80 et 8F.

Séquences interdites

[modifier |modifier le code]
  • Les points de code sont toujours représentés par la séquence d’octets la plus courte possible :
    • par conséquent, aucune séquence d’octets ne contient des octets initiaux de valeur hexadécimale C0 ou C1 dans un texte valide codé en UTF-8 ;
    • de même, aucune séquence commençant par l'octet initial E0 ne peut avoir un premier octet de continuation de valeur hexadécimale 80 à 9F.
  • Les points de code allant de U+D800 à U+DFFF sont interdits (leur valeur scalaire est réservée pour la représentationUTF-16 des points de code supplémentaires avec des paires dedemi-codets) :
    • par conséquent, le premier octet de continuation d’une séquence qui commence par l’octet hexadécimal ED ne peut prendre aucune des valeurs hexadécimales A0 à BF ;
    • ces séquences interdites en UTF-8 sont en revanche autorisées dans la transformationCESU-8 (non recommandée, qui ne doit en aucun cas être confondue avec UTF-8, car CESU-8 utilise ces séquences pour coder les caractères des plans supplémentaires en2 séquences de3 octets chacune, au lieu d'une seule séquence de4 octets en UTF-8).
  • De même que tout codage pouvant donner un point de code de valeur supérieure à U+10FFFF est interdit :
    • par conséquent, le premier octet de continuation d’une séquence qui commence par l'octet hexadécimal F4 ne peut prendre aucune des valeurs hexadécimales 90 à BF ;
    • et aucune séquence d’octets ne contient des octets initiaux de valeur hexadécimale F5 à FF.

De telles séquences sont dites mal formées (ill-formed). (Voir la référence ci-dessus, notamment la seconde table dans la clause de conformitéD36 du standard ou l'articleUnicode).

En revanche, les points de code réservés (pas encore alloués à des caractères) sont autorisés (même si l'interprétation des caractères peut rester ambigüe) : il appartient aux applications de décider si ces caractères sont acceptables ou non, sachant que les mêmes applications continueront probablement à être utilisées alors que ces positions auront été assignées dans les normes Unicode et ISO 10646 à de nouveaux caractères parfaitement valides.

De même les autres points de code assignés de façon permanente aux autres « non-caractères » sont interdits dans les textes conformes à la normeISO/CEI 10646 ou au standardUnicode : par exemple U+xFFFE à U+xFFFF (où x indique un numéro de plan hexadécimal de 0 à 10). Mais ils restent encodables et décodables en tant que tels en UTF-8 (les « non-caractères » sont à disposition des applications qui peuvent en faire un usage au sein d'API internes, par exemple comme codes intermédiaires nécessaires à la mise en œuvre interne de certains traitements, par exemple comme codes intermédiaires de pseudo-décomposition des variantes de certains caractères durant la génération de clés de collation pour le tri).

La restriction de l'espace de représentation aux seuls points de code inférieurs ou égaux à U+10FFFF (non compris les points de codes assignés aux « demi-codets ») n’a pas toujours été appliquée :

  • Cela n'a pas toujours été le cas dans la norme ISO/CEI 10646, qui prévoyait à l'origine de pouvoir coder un très grand nombre de plans possibles (l'UCS-4 permettait un codage jusqu’à31 bits), alors que Consortium Unicode (depuis la fusion du répertoire commun dans sa version 1.1) n'utilisait encore que le plan multilingue de base et n'avait pas encore envisagé de couvrir autant d'écritures qu'aujourd'hui ;
  • L'introduction par Unicode du codage UTF-16 dans une annexe standard (quand il a admis que plus de 65536 caractères seraient rapidement nécessaires) a demandé l'allocation préalable par l'ISO/CEI 10646 d'un bloc de points de codes pour des « demi-codets » qui étaient considérés au début par l'ISO/CEI 10646 comme des caractères spéciaux (une concession faite à Unicode alors que l'UCS-4 avait été créé comme un espace de codage linéaire où tous les points de code avaient une valeur scalaire), alors qu'Unicode n'utilisait encore que le sous-espace UCS-2 et pas l'espace UCS-4 complet ;
    • Pour éviter des problèmes d'interopérabilité avec les autres applications (non Unicode) basées sur UCS-2, une première révision de l'UTF-8 a été publiée par l'ISO en 1998, mentionnant que ces demi-codets n'avaient donc pas de valeur scalaire définie et qu'aucun point de code assignés aux « demi-codets » dans les deux blocs successifs alloués ne devait pas être codés en UTF-8 ;
  • Mais selon l'accord final intervenu entre le comité technique du Consortium Unicode et celui chargé de la norme ISO/CEI 10646, toute utilisation de plus de17 plans a été proscrite, afin d'assurer l'interopérabilité totale avec le codageUTF-16 défini par Unicode, un codage déjà massivement déployé dans les systèmes d'exploitation (par exempleMicrosoft Windows), ou sous-systèmes (par exempleOpenType), ou encore dans de nombreux langages de programmation qui en dépendent pour leur interopérabilité (dont certains issus de normes nationales ou internationales, tels que les langages C et C++ qui ont eu des difficultés à supporter le répertoire universel) ;
    • En effet, après une vingtaine d'années d'efforts pour la définition de l'UCS pour toutes les écritures du monde, des règles plus strictes ont été établies pour limiter les caractères codables selon un modèle assurant une compatibilité ascendante mais aussi de meilleures pratiques de codage. Pratiquement toutes les écritures modernes du monde ont été codées, et on dispose d'estimations fiables de l'ordre de grandeur sur la quantité de caractères nécessaires pour le support des autres écritures, ainsi que sur les besoins de codage pour de nouveaux caractères ;
    • La croissance initiale très forte des allocations dans l'UCS (ou des caractères restant encore à coder) s'est fortement ralentie, et seulement6 des 17 plans sont utilisés fin 2011 (mais deux seulement ont un taux de remplissage significatif : le plan multilingue de base, pratiquement plein, et le plan idéographique supplémentaire ; c'est sur le plan multilingue complémentaire que se concentrent la majorité des autres écritures anciennes restant à coder, ou des nouveaux ensembles de symboles et caractères de notation technique) ;
    • Le rythme de croissance des allocations dans l'UCS pour la norme ISO/CEI 10646 ne permet pas d'envisager sa saturation avant un terme dépassant de très loin le cycle de vie des normes internationales (et encore plus celui des standards industriels comme Unicode). À ce terme trop lointain, il est tout à fait possible que UTF-16 soit devenu obsolète depuis fort longtemps, ou qu'une nouvelle norme de codification ait vu le jour et ait été massivement déployée (et que les outils de conversion automatique auront aussi été normalisés et déployés). Rien ne justifie encore de maintenir une extension possible non nécessaire au besoin immédiat d'interopérabilité des normes et standards actuels ou des futures normes envisagées ;
    • Un ou deux autres plans seulement sont envisagés pour les écritures sinographiques, anciennes écritures cunéiformes ou hiéroglyphiques, et éventuellement un autre plan pour des collections de symboles et pictogrammes nécessaires à l'interopérabilité de certaines applications modernes (par exemple lesemojis des messageries et services interactifs est-asiatiques, ou des symboles nécessaires à des normes internationales de signalisation ou de sécurité) ;
    • Les « groupes » supplémentaires d'usage privé à la fin de l'UCS-4, ainsi que les « plans » supplémentaires d'usage privé dans l'UCS-4 à la fin du groupe 0, qui avaient été envisagés par l'ISO depuis le début de ses travaux de normalisation, ont été abandonnés pour ne garder, parmi les17 premiers plans du premier groupe, que les deux derniers plans à cet usage privé (en plus du bloc d'usage privé U+E000 à U+F8FF déjà alloué dans le plan multilingue de base), ce qui s'avère suffisant pour toutes les applications ;
    • Cela a fait l‘objet de la révision en 2003 de la RFC publiée par le comité technique de l'ISO définissant le codage UTF-8 pour la norme ISO/CEI 10646, et simultanément d'une mise à jour de l'annexe standard au standard Unicode (une annexe standard qui a, depuis, été intégrée au standard lui-même)  ;
    • Depuis ces mises à jour de 2003, le codage UCS-4 défini par la norme ISO/CEI 10646 est devenu en pratique équivalent àUTF-32 (défini dans la norme Unicode qui adjoint des propriétés supplémentaires mais sans différence de codage). Et la dernière RFC publiée par l'ISO et approuvée par l'IETF en 2003 fait d'ailleurs maintenant une référence normative à la définition de l'UTF-8 publiée conjointement avec (ou dans) le standard Unicode.

Avantages

[modifier |modifier le code]

Universalité

[modifier |modifier le code]
Ce codage permet de représenter les milliers de caractères du répertoire universel, commun à la normeISO/CEI 10646 et au standardUnicode (du moins depuis sa version 1.1.1).

Compatibilité avec US-ASCII

[modifier |modifier le code]

Un texte en US-ASCII est codé identiquement en UTF-8 (lorsque leBOM n'est pas utilisé).

Interopérabilité

[modifier |modifier le code]

Du fait qu'un caractère est découpé en une suite d'octets (et non enmots de plusieurs octets), il n'y a pas de problème deboutisme (endianness en anglais).

  • Ce problème apparaît avec les codagesUTF-16 etUTF-32 par exemple, si on ne les utilise pas avec un marqueur d'ordonnancement (appeléBOM pourByte Order Mark) codé en début de fichier à l'aide du caractère U+FEFF, qui était auparavant destiné à un autre usage (ZWNBSP pourzero-width non-breaking space, une fonction d'agglutination de mots à afficher sans espace séparatrice ni césure que remplit aujourd'hui le caractère WJ pourword-joiner). En revanche, les codages dérivés UTF-16BE, UTF-16LE, UTF-32BE et UTF-32LE sont conçus avec un ordonnancement précis ne nécessitant l'emploi d'aucun BOM ;
  • Pour différentes raisons de compatibilité (notamment via des processus detranscodage), il est cependant resté admis qu'unBOM (U+FEFF), non absolument nécessaire, puisse encore être codé en tête d'un fichier UTF-8 (leur interprétation reste celle du caractère ZWNBSP, même si de nombreux protocoles ont choisi d'ignorer et filtrer silencieusement ce caractère puisqu'il ne sert plus qu'à cet usage et que son ancienne fonction, quand elle reste nécessaire à l'interprétation du texte lui-même, est désormais transférée sur un autre caractère codé exprès).

Efficacité

[modifier |modifier le code]

Pour la plupart des langues à écriture latine, les fichiers de données numériques ou les codes sources de programmes, ou de nombreux protocoles textuels de communication (commeFTP, HTTP ouMIME), qui utilisent abondamment (voire parfois exclusivement dans certaines parties) les caractères US-ASCII, UTF-8 nécessite moins d'octets que l'UTF-16 ou l'UTF-32.

Réutilisabilité

[modifier |modifier le code]

De nombreuses techniques deprogrammation informatique valables avec les caractères uniformément codés sur un octet le restent avec UTF-8, notamment :

  • la manière de repérer la fin d'unechaîne de caractèresC, car tout octet binaire 00000000 trouvé dans une chaîne de caractères codés en UTF-8 est toujours lecaractère nul (en revanche il est alors impossible de représenter le caractère NUL lui-même comme membre de la chaîne de caractères, à moins que l'information de longueur effective du texte codé soit stockée ou transportée en dehors de celui-ci, auquel cas cet octet sera interprété comme tel au sein même des chaînes codées en UTF-8) ;
  • la manière de trouver une sous-chaîne est identique.

Fiabilité

[modifier |modifier le code]

Il s'agit d'un codage auto-synchronisant (en lisant un seul octet on sait si c'est le premier d'un caractère ou non).

  • Il est possible, depuis n'importe quelle position dans un texte codé, de remonter au premier octet de la séquence en lisant une toute petite quantité d'octets antérieurs, soit au maximum3 octets, ou de trouver facilement le début de la séquence suivante, là encore en ne sautant qu'au maximum3 octets) ;
  • une séquence décrivant un caractère n'apparaît jamais dans une séquence plus longue décrivant un autre caractère (comme c'est le cas deShift-JIS) ;
  • il n'existe pas de code « d'échappement » changeant l'interprétation (comme caractères) de la suite d'une séquence d'octets.

Inconvénients

[modifier |modifier le code]

Taille variable

[modifier |modifier le code]

Les points de code sont représentés en UTF-8 par des séquences d'octets de taille variable (de même qu'en UTF-16), ce qui rend certaines opérations sur les chaînes de points de code plus compliquées : le calcul du nombre de points de code ; le positionnement à une distance donnée (exprimée en nombre de points de code) dans unfichier texte et en règle générale toute opération nécessitant l'accès au point de code de positionN dans une chaîne.

Une taille variable des caractères d'une chaine empêche l'exploitation d'algorithmes efficaces en matière de comparaisons de chaines, telles que l'algorithme deKnuth-Morris-Pratt et pénalise donc fortement les traitements de données en masse comme dans l'exploitation des bases de données. Ce problème est toutefois davantage lié aux aspects denormalisation que de codage.

Efficacité

[modifier |modifier le code]

Pour les langues utilisant beaucoup de caractères extérieurs àUS-ASCII, UTF-8 occupe sensiblement plus d'espace. Par exemple, les idéogrammes courants employés dans les textes de langues asiatiques comme lechinois ou lejaponais (kanji, par exemple) utilisent3 octets en UTF-8 contre2 octets en UTF-16.

De manière générale, les écritures employant beaucoup de points de code de valeur égale ou supérieure à U+0800 occupent plus de mémoire que s'ils étaient codés avec UTF-16 (UTF-32 sera plus efficace uniquement pour les textes utilisant majoritairement des écritures anciennes ou rares codées hors du plan multilingue de base, c'est-à-dire à partir de U+10000, mais il peut aussi s'avérer utile localement dans certains traitements pour simplifier les algorithmes, car les caractères y ont toujours une taille fixe, la conversion des données d'entrée ou de sortie depuis ou vers UTF-8 ou UTF-16 étant triviale).

Séquences non valides

[modifier |modifier le code]

Par son système de codage, il était éventuellement possible de représenter un code de différentes manières en UTF-8, ce qui pouvait poser un problème de sécurité : un programme mal écrit peut accepter un certain nombre de représentations UTF-8, normalement non valides selon laRFC 3629[8] et dans les spécifications (maintenant équivalentes entre elles) publiées par l'ISO 10646 et Unicode ; mais ce n'était pas le cas selon la spécification originale, qui permettait de les convertir comme un seul et même caractère.

Ainsi, unlogiciel détectant certaines chaînes de caractères (pour prévenir lesinjections SQL, par exemple) pouvait échouer dans sa tâche (ce n'est plus le cas si la conformité du codage avec la définition stricte et normalisée d'UTF-8 est vérifiée avant toute chose).

Prenons un exemple tiré d'un cas réel de virus attaquant desserveurs HTTP duWeb en2001 ((en)Crypto-Gram: July 15, 2000Microsoft IIS and PWS Extended Unicode Directory Traversal VulnerabilityMicrosoft IIS 4.0/5.0 Web Directory Traversal Vulnerability). Une séquence à détecter pourrait être « /../ » représentée en ASCII (a fortiori en UTF-8) par les octets « 2F 2E 2E 2F » en notationhexadécimale. Cependant, une manière malformée de coder cette chaîne en UTF-8 serait « 2F C0 AE 2E 2F », appelée aussi en anglaisoverlong form (forme superlongue). Si le logiciel n'est pas soigneusement écrit pour rejeter cette chaîne, en la mettant par exemple sous formecanonique, une brèche potentielle de sécurité est ouverte. Cette attaque est appeléedirectory traversal.

Les logiciels acceptant du texte codé en UTF-8 ont été blindés pour rejeter systématiquement ces formes longues car non conformes à la norme : soit le texte entier est rejeté ; mais parfois les séquences non valides sont remplacées par un caractère de substitution (généralement U+FFFD si l'application accepte et traite ce caractère normalement ; parfois un point d'interrogation ou lecaractère de contrôle de substitutionSUB U+001A de l'ASCII, qui peuvent poser d'autres problèmes de compatibilité) ; moins souvent, ces séquences interdites sont éliminées silencieusement (ce qui est très peu recommandé).

Caractère nul

[modifier |modifier le code]

UTF-8 ne peut représenter le caractère de contrôle nul (U+0000) qu'avec un seul octet nul, ce qui pose des problèmes de compatibilité avec le traitement de chaînes qui ne codifient pas séparément leur longueur effective car cet octet nul ne représente alors aucun caractère mais la fin de chaîne (cas très courant en langage C ou C++ et dans les API des systèmes d'exploitation). Si un caractère nul doit être stocké dans un texte sur de tels systèmes, il sera nécessaire de recourir à un système d'échappement, spécifique de ce langage ou système avant de coder en UTF-8 le texte ainsi transformé. En pratique, aucun texte valide ne devrait contenir ce caractère. Une autre solution est d'utiliser une des séquences interdites dans le codage UTF-8 standard afin de coder le caractère par cette séquence ; mais le texte ainsi codé ne sera pas conforme au codage UTF-8 standard, même si le codage ainsi modifié reste un format de transformation universelle conforme (qui ne doit cependant pas être désigné comme « UTF-8 »). Voir la section ci-dessous relative aux variantes non standards basées sur UTF-8.

Représentation dans les SGBD

[modifier |modifier le code]

L'utilisation d'UTF-8, comme de tout codage à pas variable, dans une base de données pose de multiples problèmes de performances.

Les opérations de comparaisons (=, >, <, BETWEEN, LIKE...), de tri (ORDER BY), de regroupement (GROUP BY), comme les opérations de dédoublonnement (DISTINCT) reposant sur la sémantique des informations, sont impossibles à gérer directement en UTF-8.

En effet, pour des chaînes de caractères comportant le même nombre de lettres (par exemple CHAR(8)), le nombre d'octets pouvant être différent (du fait notamment des caractères diacritiques : accents, ligatures...), les algorithmes utilisés doivent, pour la plupart, effectuer un alignement avant de pouvoir opérer, ce qui induit un surcoût de traitement non négligeable.

Par exemple le SGBD MySQL/MariaDB a choisi de représenter les caractères des chaînes présentées comme UTF-8 en utilisant systématiquement 3 octets par caractère. Les conséquences sont les suivantes : triplement du volume des données et division par trois de la longueur potentielle des clefs d'index par rapport au codage ASCII, et allongement des temps d'exécution pour les comparaisons, les tris, les regroupements ou le dédoublonnement. La chaîne est restituée en final sous la forme UTF-8 après un nettoyage des octets inutiles.

D'autres SGBD commeMicrosoft SQL Server ont choisi de compresser le support de l'UTF-8 en intercalant les caractères supplémentaires dans un codage à 2 octets, basé sur l'UNICODE en profitant des emplacements laissés vides par la spécification. L'effort supplémentaire pour la traduction en UTF-8 ne se situe qu'au recodage des caractères codés sur 2 octets et à l'expansion de ceux codés sur 3.

Histoire

[modifier |modifier le code]

UTF-8 a été inventé parKenneth Thompson lors d'un dîner avecRob Pike aux alentours de[11]. Appelé alorsFSS-UTF, il a été immédiatement utilisé dans lesystème d'exploitationPlan 9 sur lequel ils travaillaient. Une contrainte à résoudre était de coder les caractères nul et '/' comme en ASCII et qu'aucun octet codant un autre caractère n'ait le même code. Ainsi les systèmes d'exploitationUNIX pouvaient continuer à rechercher ces deux caractères dans une chaîne sans adaptation logicielle.

FSS-UTF a fait l'objet d'un standard préliminaire X/Open de 1993[12] qui fut proposé à l'ISO. Cette dernière l'adopta dans le cadre de la normeISO/CEI 10646 sous le nom d'abord d'UTF-2, puis finalement UTF-8.

Évolution des usages

[modifier |modifier le code]
Graphe indiquant l'utilisation d'UTF-8 (bleu clair) dépassant les principaux autres codages de caractères de texte sur le Web. Vers 2010 la prévalence d'UTF-8 était de l'ordre de 50%. Cette prévalence est estimée à partir du texte et non pas à partir de l'étiquette contenue dans l'en-tête[13] et le jeu de caractère le plus simple était sélectionné[14]. De ce fait, du texte ASCII mais avec un en-têteUTF-8 ouISO-8859-1 est identifié comme étant de l'ASCII. En Août 2016, l'utilisation déclarée de l'UTF-8 était de 87,4%[3].
De 2010 à 2018

Le graphique qui aurait dû être présenté ici ne peut pas être affiché car il utilise l'ancienne extension Graph, désactivée pour des questions de sécurité. Des indications pour créer un nouveau graphique avec la nouvelle extension Chart sont disponiblesici.

Graphe indiquant l'utilisation d'UTF-8 (bleu clair) dépassant les principaux autres codages de caractères de texte sur le Web. Vers 2010 la prévalence d'UTF-8 était de l'ordre de 50%, mais en 2016, elle était plutôt de 90%.
Statistiques reflétant les technologies utilisées sur les sites web déterminées à partir de techniques de reconnaissances de différents motifs, y compris éléments HTML, tags HTML spécifiques (comme le tag « generator meta », le code JavaScript, le code CSS, la structure des URL du site, les liens hors site, les entêtes HTTP par exemple les cookies, les réponses HTTP à certaines requêtes comme la compression.

Statistiques basée sur un échantillon des10 premiers millions de sites web selon Alexa[15].Le total n'arrive pas à 100% car certains serveurs utilisent plusieurs technologies.

Source w3techs[16]

Restrictions successives

[modifier |modifier le code]

Le codage original FSS-UTF était destiné à remplacer le codage multi-octets UTF-1 initialement proposé par l'ISO 10646. Ce codage initialement permissif, permettait plusieurs représentations binaires pour le même caractère (cela a été interdit dans la version normalisée dans la RFC publiée par le Consortium X/Open, et approuvé par Kenneth Thompson).

De plus il pouvait (dans une version préliminaire non retenue) coder tous les caractères dont la valeur de point de code comprenait jusqu'à32 bits en définissant un huitième type d'octet (dans des séquences comprenant jusqu'à6 octets), au lieu des7 types d'octets finalement retenus pour ne coder (dans des séquences comprenant aussi jusqu'à6 octets) que les points de code jusqu'à31 bits dans la version initiale d'UTF-8 (publiée par le Consortium X/Open sous le nom FSS-UTF, puis proposé par le comité technique d'ISO 10646 comme la proposition « UTF-2 » alors encore en concurrence avec la proposition « UTF-1 », jusqu'à ce que la proposition UTF-2 soit retenue et adopte le nom UTF-8 déjà retenu et utilisé dans X/Open et Plan 9).

Ce codage UTF-8 a été restreint encore lorsque Unicode et ISO 10646 sont convenus de n'allouer des caractères que dans les17 premiers plans afin de maintenir indéfiniment la compatibilité avec UTF-16 (sans devoir le modifier), en restreignant les séquences jusqu'à4 octets seulement et en n'utilisant que les5 premiers des7 types d'octets (ce qui a nécessité de définir comme non valides de nouvelles valeurs d'octet et certaines séquences d'octets pourtant valides individuellement).

Prise en charge

[modifier |modifier le code]

L'IETF exige maintenant qu'UTF-8 soit pris en charge par défaut (et non pas simplement supporté en tant qu'extension) par tous les nouveauxprotocoles de communication d'Internet (publiés dans sesRFC numérotées) qui échangent du texte (les plus anciens protocoles n'ont toutefois pas été modifiés pour rendre ce support obligatoire, mais seulement étendus si possible, pour le supporter de façon optionnelle, si cela produit des incompatibilités ou introduit de nouveaux risques de sécurité : c'est le cas de protocoles Internet très utilisés commeDNS,HTTP,FTP,Telnet et deHTML dans ses versions initiales alors pas encore standardisés par le W3C et l'ISO).

Il est devenu incontournable, notamment dans les principaux logiciels de communication du web et aujourd'hui les systèmes d'exploitation :

  • Navigateurs web : la prise en charge d'UTF-8 commença à être répandue à partir de1998.
  • Fichiers et noms de fichiers : de plus en plus courant sur lessystèmes de fichiers GNU/Linux et Unix, mais pas très bien supporté sous les anciennes versions de Windows (antérieures à Windows 2000 et Windows XP, lesquels peuvent maintenant les prendre en charge sans difficulté puisque le support d'UTF-8 est maintenant totalement intégré au système, en plus d'UTF-16 présent depuis les premières versions de Windows NT et de l'API système Win32).
    Noter que le système de fichiers FAT historique de MS-DOS et Windows a été étendu depuis Window NT 4 et Windows XP pour prendre en charge UTF-16 (pour une meilleure compatibilité avecNTFS) et non UTF-8 (mais cette transformation est équivalente et transparente aux applications) avec quelques restrictions sur les caractères autorisés ou considérés comme équivalents (de telles exceptions ou restrictions existent aussi sur tous les systèmes de fichiers pour GNU/Linux, Unix, Mac OS X et d'autres systèmes, y compris les systèmes de fichiers distribués sur Internet comme HTTP/WebDAV).
  • Client de messagerie : tous les logiciels de messagerie utilisés aujourd'hui supportent UTF-8.

Extensions ou variantes non standards

[modifier |modifier le code]

Toutefois, des variantes d'UTF-8 (basées sur les possibilités de codage de la version initiale non restreinte) ont continué à être utilisées (notamment dans l'implémentation de la sérialisation des chaînes Java) pour permettre de coder sous forme d'un échappement multioctets certains caractères ASCII réservés normalement codés sur un seul octet (par exemple le caractère nul).

De plus, certains systèmes utilisent des chaînes de caractères non restreints : par exemple, Java (et d'autres langages y compris des bibliothèques de manipulation de chaînes en C,PHP, Perl, etc.) représentent les caractères avec des unités de codage sur16 bits (ce qui permet de stocker les chaînes en utilisant le codage UTF-16, mais sans les contraintes de validité imposées par UTF-16 concernant les valeurs interdites et l'appariement dans l'ordre des « demi-codets » ousurrogates) ; dans ce cas, les unités de codage sont traitées comme des valeurs binaires et il est nécessaire de les sérialiser de façon individuelle (indépendamment de leur interprétation possible comme caractères ou comme demi-points de code). Dans ce cas, chaque unité de codage16 bits qui représente un « caractère » (non-contraint) est sérialisé sous forme de séquences comprenant jusqu'à3 octets chacune, et certains octets interdits par l'implémentation (par exemple les caractères nuls ou la barre de fraction « / » dans un système de fichiers ou d'autres caractères codés sur un octet dans d'autres protocoles) sont codés sous forme de séquences d'échappement à deux octets dont aucun n'est nul, en utilisant simplement le principe de codage de la première spécification de FSS-UTF (avant celle qui a été retenue par le Consortium X/Open dans sa RFC initiale où ces échappements étaient spécifiquement interdits et le sont restés).

Avant l'adoption de la proposition UTF-2 retenue pour UTF-8, il a également existé une variante UTF-1, où les codages multiples étaient impossibles, mais cela nécessitait un codage/décodage plus difficile, devant prendre en compte la position de chaque octet et utilisant un certain nombre de valeurs « magiques ».

Ces extensions ou variantes ne doivent pas être appelées « UTF-8 ».

Extension obsolète d'UTF-8 définie initialement dans une RFC

[modifier |modifier le code]

Avant l'accord survenu entre l'ISO/IEC et Unicode, il a existé une définition (aujourd'hui obsolète) permettant de coder (selon le même principe) des points de code comptant jusqu'à 31 bits significatifs (jusqu'à U-7FFFFFFFFFFFF) en utilisant des séquences comptant jusqu'à 6 octets. Cette définition reposait sur une ancienne RFC publiée par l'IETF, aujourd'hui obsolète (incompatible et non conforme aux versions actuelles des standards Unicode et ISO/IEC 10646).

L'accord entre les deux organismes de normalisation a interdit toute utilisation valide des points de code supérieurs à U+10FFFF (soit 17 plans de points de code) pour les échanges entre systèmes compatibles. Par conséquent, les octets préfixes de l'UTF-8 ne peuvent plus être supérieurs à 0xF4 en hexadécimal. L'octet préfixe 0xF4 ne peut être utilisé que pour coder (sur 4 octets) les points de code du17e et dernier plan valide (U+100000 à U+10FFFF), ce qui impose désormais une restriction sur la valeur du2e octet, mais permet une interopérabilité avec les standards de codage UTF-16. L'accord s'applique également à la définition actuelle de l'UTF-32, lui aussi modifié pour interdire l'utilisation de plus de 17 plans de points de code.

Cependant il peut exister des systèmes utilisant une telle extension de l'UTF-8 (ou de l'UTF-32) de façon interne et privée, mais qui n'est pas destinée aux échanges de textes standards entre systèmes interopérables. Ce type de codage est plutôt destiné à une utilisation intermédiaire nécessaire aux traitements internes dans certaines bibliothèques de code ou des formats de fichiers ou sérialisation spécifiques souhaitant encapsuler de façon universelle autre chose que du texte (par exemple des objets binaires, du code exécutable, des images, des marques spéciales, des métadonnées, des jeux de caractères privés ou non encore normalisés et faisant l'objet de tests ou d'évaluation au sein d'un groupe limité d'utilisateurs utilisant un accord privé spécifique entre eux, etc.).

Variante standardisée

[modifier |modifier le code]

Une de ces variantes non standards a fait cependant l'objet d'une standardisation ultérieure (en tant qu'alternative àUTF-16 et utilisant des paires de « demi-codets » codés chacun sur 3 octets ; soit6 octets en tout au lieu de4 avec UTF-8) : voirCESU-8.

Avec l'UTF-8 normalisé actuel (et aussi le codage UTF-32 normalisé actuel), le codage des « demi-codets » isolés est désormais interdit, comme il l'est aussi avec le codage CESU-8 (où les demi-codets doivent former des paires valides, avec un demi-codet fort codé sur 3 octets obligatoirement suivi d'un demi-codet faible codé sur 3 octets, pour coder les points de code standards des 16 plans supplémentaires hors du plan multilingue de base).

Le codage CESU-8 standard est donc totalement interopérable avec les codages UTF-8 (même s'il doit obligatoirement être explicitement identifié de façon différente), UTF-16 et UTF-32 des normes et standards actuels de l'ISO/IEC 10646 et d'Unicode.

Cependant des variantes privées autorisent le codage de demi-codets isolés au sein de bibliothèques spécifiques qui ne tiennent pas compte de la restriction sur leur utilisation en paires conformes au standard CESU-8. De telles extensions d'usage local (ou faisant l'objet d'un accord privé) ne doivent pas être identifiées comme CESU-8 dans les échanges interopérables de textes standards.

Exemple de variante utilisée en Java

[modifier |modifier le code]

Par exemple, les API d'intégration des machines virtuellesJava (pour JNI,Java Native Interface ou pour la sérialisation des classes précompilées), qui permettent d'échanger les chaînes Java non contraintes sous forme de séquences d'octets (afin de les manipuler, utiliser ou produire par du code natif, ou pour le stockage sous forme de fichier natif codés en suites d'octets), sont suffixées par « UTFChars » ou « UTF », mais ce codage propre à Java n'est pas UTF-8 (La documentation de Sun la désigne commemodified UTF, mais certains documents plus anciens relatifs à JNI désignent encore ce codage incorrectement sous le nomUTF-8[17], ce qui a produit des anomalies de comportement de certaines bibliothèques natives JNI, notamment avec les API systèmes d'anciennes plateformes natives qui ne supportent pas nativement les codages de caractères sur plus de8 bits), car :

  • le caractère nul, présent en tant que tel dans une chaîne Java, est codé sous forme des deux octets non nuls 0xC0 suivi de 0x80 (séquence non valide en UTF-8 standard), et non un seul octet nul (utilisé pour indiquer la fin de chaîne) ;
  • les demi-codets (en anglaissurrogates, assignés entre U+D000 à U+D7FF) peuvent être codés librement, dans un ordre quelconque, de même que les points de code interdits normalement pour le codage de caractère (par exemple U+FFFF ou U+FFFE) : aucun test de validité n'est demandé ;
  • les séquences d'octets plus longues (sur4 octets pour représenter les caractères hors du plan multilingue de base) normalisées et valides dans UTF-8 ne sont pas reconnues par la machine virtuelle dans ses API basées surmodified UTF (ce qui déclenche des exceptions lors de la conversion demandée par le code natif de la chaîne8 bits vers une chaîne Java gérée par la machine virtuelle) : il faut alors recoder les caractères hors du plan de base (et codés sur4 octets en UTF-8) sous la forme de deux séquences de3 octets enmodified UTF, une pour chaquesurrogate (comme dans le codageCESU-8) et la conformité des chaînes Java avec Unicode doit être vérifiée et les exceptions gérées ;
  • les chaînes Java (de la classe système String) et le type numéral char sont utilisés aussi pour le stockage (sous forme compacte, non modifiable et partageable) de données binaires quelconques (pas seulement du texte), et peuvent aussi être manipulées dans d'autres codages que l'UTF-16 (la seule contrainte étant que les unités de codage individuelles ne doivent pas dépasser16 bits et doivent être de valeur positive, le bit de poids fort n'étant pas évalué comme un bit de signe).

En conséquence :

  • les applications écrites en pur Java (sans code natif) et qui nécessitent la mise en œuvre de contraintes de codage pour être conformes à Unicode pour le textedoivent le demander explicitement et utiliser un des filtres de codage fournis (pour UTF-8, comme aussi pour UTF-16), ou construire et utiliser des classes basées sur la classe String et le type numéral char ;
  • un texte UTF-8 valide (et manipulé en code natif dans des chaînes sans caractères nuls) nécessite un prétraitement avant de pouvoir être transmis à lamachine virtuelle Java via JNI ; notamment, toute séquence codée sur4 octets (pour un caractère hors du plan de base) doit être transcodée en deux séquences de3 octets avec l'interface JNI à codage des chaînes sur 8 bits, ou en deux demi-codets simplement en recodant le texte en UTF-16 standard (avec l'interface JNI à codage des chaines sur 16-bits, utilisant une longueur de chaîne codée dans un champ séparé et admettant donc le codet nul à 16 bits au sein de ce texte) ;
  • les chaînes obtenues depuis une machine virtuelle Java via les interfaces ditesUTF de JNI (où le texte est codé en chaînes d'octets terminées par un octet nul) nécessitent un prétraitement de contrôle de validité ou de filtrage dans le code natif, avant de pouvoir être utilisées comme du texte UTF-8 valide (il faut détecter les occurrences du caractère nul codé en deux octets et, si ce caractère est acceptable par le code natif, le transcoder en un seul octet ; il faut vérifier dans le code natif l'appariement correct desdemi-codets, codés chacun sur3 octets, et les filtrer si ces séquences ne sont pas refusées comme non valides, puis transcoder toute paire valide dedemi-codets en une seule séquence de4 octets seulement et non deux séquences de3 octets).

Ces traitements peuvent être inefficaces pour l'interfaçage de grosses quantités de texte car ils demandent l'allocation de tampons mémoire supplémentaires pour s'interfacer ensuite dans le code natif avec des interfaces système ou réseau qui n'acceptent que l'UTF-8 standard.

Cependant JNI fournit aussi une API binaire plus efficace permettant d'utiliser UTF-16 directement, capable de s'interfacer directement avec les protocoles réseau et les interfaces système (par exemple les API Windows) qui supportent l'UTF-16, sans nécessiter aucune allocation mémoire supplémentaire pour le transcodage (seule la vérification de conformité peut être nécessaire, principalement pour vérifier dans le texte codé l'appariement correct des demi-codets ousurrogate, que Java (comme aussi d'autres langages de programmation) permet de manipuler sans restriction de validité dans ses propres chaînes de caractères non destinées au stockage des seuls textes conformes à l'UCS). Cette API binaire est supportée sur tous les systèmes où Java a été porté, même ceux dont le système d'exploitation n'offre pas d'API de texte Unicode (la prise en charge pouvant se faire dans l'application native hôte ou en utilisant les bibliothèques standard fournies avec la machine virtuelle Java ou d'autres bibliothèques natives indépendantes.

Notes et références

[modifier |modifier le code]
  1. https://www.unicode.org/L2/Historical/wg20-n193-fss-utf.pdf.
  2. « Usage of character encodings for websites », surW3Techs (consulté le).
  3. a etb« Usage of character encodings for websites », surW3Techs (consulté le 13 septembre 2016).
  4. (en) « Usage Statistics of Character Encodings for Websites, December 2017 », surw3techs.com(consulté le)
  5. « Usage Survey of Character Encodings broken down by Ranking », surw3techs.com(consulté le).
  6. (en)Request for commentsno 2044
  7. (en)Request for commentsno 2279
  8. a etb(en)Request for commentsno 3629
  9. Cependant surcette page retraçant l’histoire du codage UTF-8 avant 1996, il est dit : « UTF-8 encoded characters may theoretically be up to six bytes long », faisant par là référence à l’ensemble des valeurs possibles (plus de deux milliards, codées sur 31 bits au maximum) dans son édition initiale (aujourd’hui obsolète) de la norme ISO/CEI 10646, cf. sectionRestrictions successives.
  10. (en)UTF-8 and Unicode FAQ :« pour des raisons de sécurité, un programme qui décode des caractères au format UTF-8 ne doit pas accepter les séquences UTF-8 qui sont plus longues que nécessaire pour coder ces caractères. Il risquerait d’abuser d’un test de sous-chaîne, qui n’inspecterait que les codages standards les plus courts. ».
  11. Histoire de la création d’UTF-8 - parRob Pike.
  12. File System Safe UCS Transformation Format (FSS-UTF).
  13. (en)MarkDavis, « Unicode nearing 50% of the web »,Official Google Blog,Google,(consulté le).
  14. (en) Erikvan der Poel, « utf-8 Growth On The Web (response) », surW3C Blog, W3C,(consulté le).
  15. w3techs.com/faq.
  16. (en) « Historical yearly trends in the usage statistics of character encodings for… », surw3techs.com(consulté le).
  17. http://java.sun.com/docs/books/jni/html/types.html#58973.

Voir aussi

[modifier |modifier le code]

Articles connexes

[modifier |modifier le code]
Blocs de caractères Unicode contenant des non-caractères[ modifier ]
 

Liens externes

[modifier |modifier le code]

Sur les autres projets Wikimedia :

v ·m
Jeux de caractères de baseLogo d'Unicode
Codification de fichiers et protocoles
Adaptations de référence
Équivalences standards
  • NFC (forme précomposée, recommandée)
  • NFD (forme décomposée)
  • NFKC (forme précomposée de compatibilité)
  • NFKD (forme décomposée de compatibilité)
Propriétés et algorithmes
Transformations
Standards et normes liés
  • BCP 47 (étiquettes IETF d’identification de langues)
  • ISO 639 (codes pour la représentation des noms de langues ou groupes de langues)
  • ISO 15924 (codes pour la représentation des noms d’écritures)
  • ISO 3166-1 (codes pour la représentation des noms de pays ou régions du monde)
  • ISO 4217 (codes pour la représentation des noms de devises monétaires)
Mises en œuvre et applications
v ·m
Jeux de caractères codés
Multi-octets
Unicode
Asiatiques
Ancienne encodeuse de texte sur ruban perforé
8 bits
ISO/CEI 8859
  • -1 (Latin-1)
  • -2 (Latin-2)
  • -3 (Latin-3)
  • -4 (Latin-4)
  • -5 (Cyrillique)
  • -6 (Arabe)
  • -7 (Grec)
  • -8 (Hébreu)
  • -9 (Latin-5)
  • -10 (Latin-6)
  • -11 (Thaï)
  • -12 (Devanagari)
  • -13 (Latin-7)
  • -14 (Latin-8)
  • -15 (Latin-9)
  • -16 (Latin-10)
Pages de code Windows
Pages de code Mac OSMacRoman
Pages de code DOS
Pages de code diverses
Non basés sur ISO/IEC 646
7 bits
Moins de 7 bits
  1. (en)Request for commentsno 3629
  2. (en)Request for commentsno 2279
  3. (en)Request for commentsno 2044
  4. (en)Request for commentsno 2277
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=UTF-8&oldid=230905928 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2026 Movatter.jp