mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2024-12-25 13:58:46 +01:00
llama : extend API to get max devices at runtime (#2253)
This commit is contained in:
parent
45a1b07e9b
commit
294f424554
@ -875,6 +875,10 @@ struct llama_model_quantize_params llama_model_quantize_default_params() {
|
|||||||
return result;
|
return result;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
int llama_max_devices() {
|
||||||
|
return LLAMA_MAX_DEVICES;
|
||||||
|
}
|
||||||
|
|
||||||
bool llama_mmap_supported() {
|
bool llama_mmap_supported() {
|
||||||
return llama_mmap::SUPPORTED;
|
return llama_mmap::SUPPORTED;
|
||||||
}
|
}
|
||||||
|
2
llama.h
2
llama.h
@ -153,6 +153,8 @@ extern "C" {
|
|||||||
int32_t n_eval;
|
int32_t n_eval;
|
||||||
};
|
};
|
||||||
|
|
||||||
|
LLAMA_API int llama_max_devices();
|
||||||
|
|
||||||
LLAMA_API struct llama_context_params llama_context_default_params();
|
LLAMA_API struct llama_context_params llama_context_default_params();
|
||||||
LLAMA_API struct llama_model_quantize_params llama_model_quantize_default_params();
|
LLAMA_API struct llama_model_quantize_params llama_model_quantize_default_params();
|
||||||
|
|
||||||
|
Loading…
Reference in New Issue
Block a user