mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2025-01-01 00:39:00 +01:00
llama : simplify returns if/else branches
This commit is contained in:
parent
4ad0676927
commit
e9463792d3
12
llama.cpp
12
llama.cpp
@ -7380,7 +7380,6 @@ int llama_eval(
|
||||
llama_kv_cache_tokens_rm(ctx->kv_self, n_past, -1);
|
||||
|
||||
const int ret = llama_decode_internal(*ctx, llama_batch_get_one(tokens, n_tokens, n_past, 0), n_threads);
|
||||
if (ret != 0) {
|
||||
if (ret < 0) {
|
||||
LLAMA_LOG_ERROR("%s: failed to decode, ret = %d\n", __func__, ret);
|
||||
}
|
||||
@ -7388,9 +7387,6 @@ int llama_eval(
|
||||
return ret;
|
||||
}
|
||||
|
||||
return ret;
|
||||
}
|
||||
|
||||
int llama_eval_embd(
|
||||
struct llama_context * ctx,
|
||||
float * embd,
|
||||
@ -7402,7 +7398,6 @@ int llama_eval_embd(
|
||||
llama_batch batch = { n_tokens, nullptr, embd, nullptr, nullptr, nullptr, n_past, 1, 0, };
|
||||
|
||||
const int ret = llama_decode_internal(*ctx, batch, n_threads);
|
||||
if (ret != 0) {
|
||||
if (ret < 0) {
|
||||
LLAMA_LOG_ERROR("%s: failed to decode, ret = %d\n", __func__, ret);
|
||||
}
|
||||
@ -7410,9 +7405,6 @@ int llama_eval_embd(
|
||||
return ret;
|
||||
}
|
||||
|
||||
return ret;
|
||||
}
|
||||
|
||||
struct llama_batch llama_batch_get_one(
|
||||
llama_token * tokens,
|
||||
int32_t n_tokens,
|
||||
@ -7460,7 +7452,6 @@ int llama_decode(
|
||||
struct llama_batch batch,
|
||||
int n_threads) {
|
||||
const int ret = llama_decode_internal(*ctx, batch, n_threads);
|
||||
if (ret != 0) {
|
||||
if (ret < 0) {
|
||||
LLAMA_LOG_ERROR("%s: failed to decode, ret = %d\n", __func__, ret);
|
||||
}
|
||||
@ -7468,9 +7459,6 @@ int llama_decode(
|
||||
return ret;
|
||||
}
|
||||
|
||||
return ret;
|
||||
}
|
||||
|
||||
float * llama_get_logits(struct llama_context * ctx) {
|
||||
return ctx->logits.data();
|
||||
}
|
||||
|
Loading…
Reference in New Issue
Block a user