GPT-NeoX
Item
- Nom de l'outil/software
- GPT-NeoX
- Ce que fait l’outil
- Framework open source d'entraînement de grands modèles de langage autorégressifs sur GPU, développé par EleutherAI et basé sur les bibliothèques Megatron et DeepSpeed. Le modèle phare, GPT-NeoX-20B, compte 20 milliards de paramètres, a été entraîné sur The Pile et constitue l'un des plus grands modèles open source au monde au moment de sa sortie.
- Type: Logiciel web, App mobile, Librairie Python, etc.
- Grand modèle de langage (LLM) et Framework d'entraînement
- Fonction de l'outil
- Entraînement de grands modèles de langage et génération de texte en langue naturelle
- Date de création
- 2022-02-10
- Langage de programmation
-
Python
- Linux, Mac, Windows
- Linux
- Formats de fichiers générés ou supportés
- .pt (PyTorch) et .bin (HuggingFace)
- Licence: GPL, MIT, CC BY
- Apache 2.0
- Lien vers le dépôt Git
- https://github.com/EleutherAI/gpt-neox
- Site web officiel
- https://www.eleuther.ai
- Item sets
- EdiSem (Travaux étudiants)
- Media
EleutherAI Logo
Linked resources
| Title | Class |
|---|---|
(Berlin, Miami) |
Annotations
There are no annotations for this resource.

