From 37d3f6a260f5938706d5c6509e579bb5a5c2d6db Mon Sep 17 00:00:00 2001 From: slaren Date: Fri, 21 Jul 2023 02:33:06 +0200 Subject: [PATCH] remove unused code --- llama-util.h | 66 ---------------------------------------------------- 1 file changed, 66 deletions(-) diff --git a/llama-util.h b/llama-util.h index 007bc3fe0..2d501dfcd 100644 --- a/llama-util.h +++ b/llama-util.h @@ -441,28 +441,13 @@ struct llama_buffer { llama_buffer() = default; void resize(size_t len) { -#ifdef GGML_USE_METAL - free(addr); - int result = posix_memalign((void **) &addr, getpagesize(), len); - if (result == 0) { - memset(addr, 0, len); - } - else { - addr = NULL; - } -#else delete[] addr; addr = new uint8_t[len]; -#endif size = len; } ~llama_buffer() { -#ifdef GGML_USE_METAL - free(addr); -#else delete[] addr; -#endif addr = NULL; } @@ -473,55 +458,4 @@ struct llama_buffer { llama_buffer& operator=(llama_buffer&&) = delete; }; -#if defined(GGML_USE_CUDA) -#include "ggml-cuda.h" -struct llama_host_buffer { - uint8_t * addr = NULL; - bool is_cuda; - size_t size = 0; - - llama_host_buffer() = default; - - void resize(size_t size) { - free(); - - addr = (uint8_t *) ggml_cuda_host_malloc(size); - if (addr) { - is_cuda = true; - } - else { - // fall back to pageable memory - addr = new uint8_t[size]; - is_cuda = false; - } - this->size = size; - } - - void free() { - if (addr) { - if (is_cuda) { - ggml_cuda_host_free(addr); - } - else { - delete[] addr; - } - } - addr = NULL; - } - - ~llama_host_buffer() { - free(); - } - - // disable copy and move - llama_host_buffer(const llama_host_buffer&) = delete; - llama_host_buffer(llama_host_buffer&&) = delete; - llama_host_buffer& operator=(const llama_host_buffer&) = delete; - llama_host_buffer& operator=(llama_host_buffer&&) = delete; -}; -#else -typedef llama_buffer llama_host_buffer; -#endif -typedef llama_buffer llama_ctx_buffer; - #endif