Язык: Все
Топик: moe
  • rnekrasov/

    mixtralkit

    A toolkit for inference and evaluation of 'mixtral-8x7b-32kseqlen' from Mistral AI

    • Python
    0
    1

    Обновлено 7 месяцев назад

  • rnekrasov/

    moe-llava

    Mixture-of-Experts for Large Vision-Language Models

    • Python
    0
    0

    Обновлено 7 месяцев назад

  • rnekrasov/

    ModuleFormer

    ModuleFormer is a MoE-based architecture that includes two different types of experts: stick-breaking attention heads and feedforward experts. We released a collection of ModuleFormer-based Language Models (MoLM) ranging in scale from 4 billion to 8 billion parameters.

    • Python
    0
    0

    Обновлено 7 месяцев назад

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.