mirror of
https://github.com/oobabooga/text-generation-webui.git
synced 2024-11-22 08:07:56 +01:00
Add alpha_value/compress_pos_emb to ExLlama-v2
This commit is contained in:
parent
90fca6a77d
commit
18e6b275f3
@ -28,6 +28,9 @@ class Exllamav2Model:
|
||||
config.prepare()
|
||||
|
||||
config.max_seq_len = shared.args.max_seq_len
|
||||
config.rope_scale = shared.args.compress_pos_emb
|
||||
config.rope_alpha = shared.args.alpha_value
|
||||
|
||||
model = ExLlamaV2(config)
|
||||
|
||||
split = None
|
||||
|
@ -114,6 +114,9 @@ class Exllamav2HF(PreTrainedModel):
|
||||
config = ExLlamaV2Config()
|
||||
config.model_dir = pretrained_model_name_or_path
|
||||
config.prepare()
|
||||
|
||||
config.max_seq_len = shared.args.max_seq_len
|
||||
config.rope_scale = shared.args.compress_pos_emb
|
||||
config.rope_alpha = shared.args.alpha_value
|
||||
|
||||
return Exllamav2HF(config)
|
||||
|
@ -45,11 +45,15 @@ loaders_and_params = OrderedDict({
|
||||
'ExLlamav2': [
|
||||
'gpu_split',
|
||||
'max_seq_len',
|
||||
'alpha_value',
|
||||
'compress_pos_emb',
|
||||
],
|
||||
'ExLlamav2_HF': [
|
||||
'gpu_split',
|
||||
'max_seq_len',
|
||||
'cfg_cache',
|
||||
'alpha_value',
|
||||
'compress_pos_emb',
|
||||
],
|
||||
'AutoGPTQ': [
|
||||
'triton',
|
||||
|
Loading…
Reference in New Issue
Block a user