Сортировать по
Язык: Все
Топик: rocm
A high-throughput and memory-efficient inference and serving engine for LLMs
- Python
00Обновлено 8 месяцев назад
A high-throughput and memory-efficient inference and serving engine for LLMs
Обновлено 8 месяцев назад
Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.
Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.
Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.