INFORMATIQUE > CONCEPTS ET TERMES SCIENTIFIQUES (INFORMATIQUE)
(on dit aussi, moins bien, lexing, segmentation ou tokenization) Transformation d'une chaîne de caractères en une liste de symboles (appelés tokens en anglais) en vue de la phase suivante du traitement qui est l'analyse syntaxique.
Plus précisément, dans le cas d'un programme informatique, l'analyse lexicale permet d'éliminer les éléments non signifiants pour la suite (espaces et commentaires), de reconnaître les mots clés du langage utilisé et de distinguer les identificateurs des chaines de caractères littérales et des nombres littéraux.