megatron-deepspeed

0

Описание

Ongoing research training transformer language models at scale, including: BERT & GPT-2

Языки

  • Python75,9%
  • Shell20,4%
  • C++3,2%
  • Cuda0,3%
  • C0,1%
  • Остальные0,1%
Сообщить о нарушении
3 года назад
3 года назад
2 года назад
3 года назад
README.md

Для полного доступа зарегистрируйтесь или авторизуйтесь на GitVerse

Войти