Tokenisation et plongement
Item
- Title
- Tokenisation et plongement
- Description
- Description technique des étapes : tokenisation des documents, plongement des tokens dans un espace vectoriel (512 à plusieurs milliers de dimensions), couches d'encodage/décodage et mécanismes type transformers. Hypothèse de la sémantique distributionnelle (Harris) pour rapprocher contextes et proximité géométrique. Exemple algébrique (King−Man+Woman≈Queen) et conséquences pour traduction et manipulation interlinguistique.
- Outil
-
GPT-4o
- startTime
- 869
- endTime
- 1413
- Identifier
- urn:uuid:72e7d1fd-4515-4110-817e-9f9687e3e950
Linked resources
| Title | Class |
|---|---|
| Énonciation et modélisation dans l'IA générative, l'approche 3D (dire, dit, désigné) | Conference |
Annotations
There are no annotations for this resource.