llama

Форк
0

README.md

Migration notice for binary filenames

[!IMPORTANT] [2024 Jun 12] Binaries have been renamed w/ a llama- prefix. main is now llama-cli, server is llama-server, etc (https://github.com/ggerganov/llama.cpp/pull/7809)

This migration was important, but it is a breaking change that may not always be immediately obvious to users.

Please update all scripts and workflows to use the new binary names.

Old FilenameNew Filename
mainllama-cli
serverllama-server
llama-benchllama-bench
embeddingllama-embedding
quantizellama-quantize
tokenizellama-tokenize
export-lorallama-export-lora
libllava.alibllava.a
baby-llamallama-baby-llama
batchedllama-batched
batched-benchllama-batched-bench
benchmark-matmultllama-benchmark-matmult
convert-llama2c-to-ggmlllama-convert-llama2c-to-ggml
eval-callbackllama-eval-callback
gbnf-validatorllama-gbnf-validator
ggufllama-gguf
gguf-splitllama-gguf-split
gritlmllama-gritlm
imatrixllama-imatrix
infillllama-infill
llava-clillama-llava-cli
lookaheadllama-lookahead
lookupllama-lookup
lookup-createllama-lookup-create
lookup-mergellama-lookup-merge
lookup-statsllama-lookup-stats
parallelllama-parallel
passkeyllama-passkey
perplexityllama-perplexity
q8dotllama-q8dot
quantize-statsllama-quantize-stats
retrievalllama-retrieval
save-load-statellama-save-load-state
simplellama-simple
speculativellama-speculative
vdotllama-vdot
tests/test-c.otests/test-c.o

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.