mirror of
https://github.com/ggerganov/llama.cpp.git
synced 2024-12-27 22:59:24 +01:00
27 lines
795 B
C
27 lines
795 B
C
|
#pragma once
|
||
|
|
||
|
#define LLAMA_API_INTERNAL
|
||
|
#include "llama.h"
|
||
|
|
||
|
#ifdef __GNUC__
|
||
|
#ifdef __MINGW32__
|
||
|
#define LLAMA_ATTRIBUTE_FORMAT(...) __attribute__((format(gnu_printf, __VA_ARGS__)))
|
||
|
#else
|
||
|
#define LLAMA_ATTRIBUTE_FORMAT(...) __attribute__((format(printf, __VA_ARGS__)))
|
||
|
#endif
|
||
|
#else
|
||
|
#define LLAMA_ATTRIBUTE_FORMAT(...)
|
||
|
#endif
|
||
|
|
||
|
//
|
||
|
// logging
|
||
|
//
|
||
|
|
||
|
LLAMA_ATTRIBUTE_FORMAT(2, 3)
|
||
|
void llama_log_internal (ggml_log_level level, const char * format, ...);
|
||
|
void llama_log_callback_default(ggml_log_level level, const char * text, void * user_data);
|
||
|
|
||
|
#define LLAMA_LOG_INFO(...) llama_log_internal(GGML_LOG_LEVEL_INFO , __VA_ARGS__)
|
||
|
#define LLAMA_LOG_WARN(...) llama_log_internal(GGML_LOG_LEVEL_WARN , __VA_ARGS__)
|
||
|
#define LLAMA_LOG_ERROR(...) llama_log_internal(GGML_LOG_LEVEL_ERROR, __VA_ARGS__)
|