diff --git a/src/llama-vocab.cpp b/src/llama-vocab.cpp index 06ef13fff..4969d2628 100644 --- a/src/llama-vocab.cpp +++ b/src/llama-vocab.cpp @@ -1357,7 +1357,7 @@ void llama_vocab::impl::load(llama_model_loader & ml, const LLM_KV & kv) { // read vocab size from metadata uint32_t n_tokens = 0; if (ml.get_key(LLM_KV_VOCAB_SIZE, n_tokens, false)) { - LLAMA_LOG_WARN("%s: adding %d dummy tokens\n", __func__, n_tokens); + LLAMA_LOG_WARN("%s: adding %u dummy tokens\n", __func__, n_tokens); id_to_token.resize(n_tokens); }