llama

Форк
0
/
test-model-load-cancel.cpp 
27 строк · 763.0 Байт
1
#include "llama.h"
2
#include "get-model.h"
3

4
#include <cstdlib>
5

6
int main(int argc, char *argv[] ) {
7
    auto * model_path = get_model_or_exit(argc, argv);
8
    auto * file = fopen(model_path, "r");
9
    if (file == nullptr) {
10
        fprintf(stderr, "no model at '%s' found\n", model_path);
11
        return EXIT_FAILURE;
12
    }
13

14
    fprintf(stderr, "using '%s'\n", model_path);
15
    fclose(file);
16

17
    llama_backend_init();
18
    auto params = llama_model_params{};
19
    params.use_mmap = false;
20
    params.progress_callback = [](float progress, void * ctx){
21
        (void) ctx;
22
        return progress > 0.50;
23
    };
24
    auto * model = llama_load_model_from_file(model_path, params);
25
    llama_backend_free();
26
    return model == nullptr ? EXIT_SUCCESS : EXIT_FAILURE;
27
}
28

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.