Tokenisation et plongement

Item

Title
Tokenisation et plongement
Description
Description technique des étapes : tokenisation des documents, plongement des tokens dans un espace vectoriel (512 à plusieurs milliers de dimensions), couches d'encodage/décodage et mécanismes type transformers. Hypothèse de la sémantique distributionnelle (Harris) pour rapprocher contextes et proximité géométrique. Exemple algébrique (King−Man+Woman≈Queen) et conséquences pour traduction et manipulation interlinguistique.
Outil
GPT-4o
startTime
869
endTime
1413
Identifier
urn:uuid:72e7d1fd-4515-4110-817e-9f9687e3e950

Linked resources

Items with "Micro résumé chronologique généré par IA: Tokenisation et plongement"
Title Class
Énonciation et modélisation dans l'IA générative, l'approche 3D (dire, dit, désigné) Conference

Annotations

There are no annotations for this resource.