GPT-NeoX

Item

Nom de l'outil/software
GPT-NeoX
Ce que fait l’outil
Framework open source d'entraînement de grands modèles de langage autorégressifs sur GPU, développé par EleutherAI et basé sur les bibliothèques Megatron et DeepSpeed. Le modèle phare, GPT-NeoX-20B, compte 20 milliards de paramètres, a été entraîné sur The Pile et constitue l'un des plus grands modèles open source au monde au moment de sa sortie.
Type: Logiciel web, App mobile, Librairie Python, etc.
Grand modèle de langage (LLM) et Framework d'entraînement
Fonction de l'outil
Entraînement de grands modèles de langage et génération de texte en langue naturelle
Date de création
2022-02-10
Langage de programmation
Python
Linux, Mac, Windows
Linux
Formats de fichiers générés ou supportés
.pt (PyTorch) et .bin (HuggingFace)
Licence: GPL, MIT, CC BY
Apache 2.0
Lien vers le dépôt Git
https://github.com/EleutherAI/gpt-neox
Site web officiel
https://www.eleuther.ai

Linked resources

Items with "Auteur de la référence bibliograpique: GPT-NeoX"
Title Class
(Berlin, Miami)

Annotations

There are no annotations for this resource.