mirror of
https://github.com/oobabooga/text-generation-webui.git
synced 2024-11-22 08:07:56 +01:00
Add alpha_value/compress_pos_emb to ExLlama-v2
This commit is contained in:
parent
90fca6a77d
commit
18e6b275f3
@ -28,6 +28,9 @@ class Exllamav2Model:
|
|||||||
config.prepare()
|
config.prepare()
|
||||||
|
|
||||||
config.max_seq_len = shared.args.max_seq_len
|
config.max_seq_len = shared.args.max_seq_len
|
||||||
|
config.rope_scale = shared.args.compress_pos_emb
|
||||||
|
config.rope_alpha = shared.args.alpha_value
|
||||||
|
|
||||||
model = ExLlamaV2(config)
|
model = ExLlamaV2(config)
|
||||||
|
|
||||||
split = None
|
split = None
|
||||||
|
@ -114,6 +114,9 @@ class Exllamav2HF(PreTrainedModel):
|
|||||||
config = ExLlamaV2Config()
|
config = ExLlamaV2Config()
|
||||||
config.model_dir = pretrained_model_name_or_path
|
config.model_dir = pretrained_model_name_or_path
|
||||||
config.prepare()
|
config.prepare()
|
||||||
|
|
||||||
config.max_seq_len = shared.args.max_seq_len
|
config.max_seq_len = shared.args.max_seq_len
|
||||||
|
config.rope_scale = shared.args.compress_pos_emb
|
||||||
|
config.rope_alpha = shared.args.alpha_value
|
||||||
|
|
||||||
return Exllamav2HF(config)
|
return Exllamav2HF(config)
|
||||||
|
@ -45,11 +45,15 @@ loaders_and_params = OrderedDict({
|
|||||||
'ExLlamav2': [
|
'ExLlamav2': [
|
||||||
'gpu_split',
|
'gpu_split',
|
||||||
'max_seq_len',
|
'max_seq_len',
|
||||||
|
'alpha_value',
|
||||||
|
'compress_pos_emb',
|
||||||
],
|
],
|
||||||
'ExLlamav2_HF': [
|
'ExLlamav2_HF': [
|
||||||
'gpu_split',
|
'gpu_split',
|
||||||
'max_seq_len',
|
'max_seq_len',
|
||||||
'cfg_cache',
|
'cfg_cache',
|
||||||
|
'alpha_value',
|
||||||
|
'compress_pos_emb',
|
||||||
],
|
],
|
||||||
'AutoGPTQ': [
|
'AutoGPTQ': [
|
||||||
'triton',
|
'triton',
|
||||||
|
Loading…
Reference in New Issue
Block a user