megatron-deepspeed
Описание
Ongoing research training transformer language models at scale, including: BERT & GPT-2
Языки
- Python75,9%
- Shell20,4%
- C++3,2%
- Cuda0,3%
- C0,1%
- Остальные0,1%
2 года назад
README.md
Ongoing research training transformer language models at scale, including: BERT & GPT-2
Все инструменты для разработки на одной платформе
Для полного доступа зарегистрируйтесь или авторизуйтесь на GitVerse