mirror of
https://github.com/oobabooga/text-generation-webui.git
synced 2024-11-22 16:17:57 +01:00
Remove redundancy from modules/loaders.py
This commit is contained in:
parent
6efbe3009f
commit
c727a70572
@ -168,8 +168,9 @@ loaders_and_params = OrderedDict({
|
|||||||
]
|
]
|
||||||
})
|
})
|
||||||
|
|
||||||
loaders_samplers = {
|
|
||||||
'Transformers': {
|
def transformers_samplers():
|
||||||
|
return {
|
||||||
'temperature',
|
'temperature',
|
||||||
'temperature_last',
|
'temperature_last',
|
||||||
'top_p',
|
'top_p',
|
||||||
@ -205,7 +206,16 @@ loaders_samplers = {
|
|||||||
'add_bos_token',
|
'add_bos_token',
|
||||||
'skip_special_tokens',
|
'skip_special_tokens',
|
||||||
'auto_max_new_tokens',
|
'auto_max_new_tokens',
|
||||||
},
|
}
|
||||||
|
|
||||||
|
|
||||||
|
loaders_samplers = {
|
||||||
|
'Transformers': transformers_samplers(),
|
||||||
|
'AutoGPTQ': transformers_samplers(),
|
||||||
|
'GPTQ-for-LLaMa': transformers_samplers(),
|
||||||
|
'AutoAWQ': transformers_samplers(),
|
||||||
|
'QuIP#': transformers_samplers(),
|
||||||
|
'HQQ': transformers_samplers(),
|
||||||
'ExLlama_HF': {
|
'ExLlama_HF': {
|
||||||
'temperature',
|
'temperature',
|
||||||
'temperature_last',
|
'temperature_last',
|
||||||
@ -306,80 +316,6 @@ loaders_samplers = {
|
|||||||
'skip_special_tokens',
|
'skip_special_tokens',
|
||||||
'auto_max_new_tokens',
|
'auto_max_new_tokens',
|
||||||
},
|
},
|
||||||
'AutoGPTQ': {
|
|
||||||
'temperature',
|
|
||||||
'temperature_last',
|
|
||||||
'top_p',
|
|
||||||
'min_p',
|
|
||||||
'top_k',
|
|
||||||
'typical_p',
|
|
||||||
'epsilon_cutoff',
|
|
||||||
'eta_cutoff',
|
|
||||||
'tfs',
|
|
||||||
'top_a',
|
|
||||||
'repetition_penalty',
|
|
||||||
'presence_penalty',
|
|
||||||
'frequency_penalty',
|
|
||||||
'repetition_penalty_range',
|
|
||||||
'encoder_repetition_penalty',
|
|
||||||
'no_repeat_ngram_size',
|
|
||||||
'min_length',
|
|
||||||
'seed',
|
|
||||||
'do_sample',
|
|
||||||
'penalty_alpha',
|
|
||||||
'num_beams',
|
|
||||||
'length_penalty',
|
|
||||||
'early_stopping',
|
|
||||||
'mirostat_mode',
|
|
||||||
'mirostat_tau',
|
|
||||||
'mirostat_eta',
|
|
||||||
'grammar_file_row',
|
|
||||||
'grammar_string',
|
|
||||||
'guidance_scale',
|
|
||||||
'negative_prompt',
|
|
||||||
'ban_eos_token',
|
|
||||||
'custom_token_bans',
|
|
||||||
'add_bos_token',
|
|
||||||
'skip_special_tokens',
|
|
||||||
'auto_max_new_tokens',
|
|
||||||
},
|
|
||||||
'GPTQ-for-LLaMa': {
|
|
||||||
'temperature',
|
|
||||||
'temperature_last',
|
|
||||||
'top_p',
|
|
||||||
'min_p',
|
|
||||||
'top_k',
|
|
||||||
'typical_p',
|
|
||||||
'epsilon_cutoff',
|
|
||||||
'eta_cutoff',
|
|
||||||
'tfs',
|
|
||||||
'top_a',
|
|
||||||
'repetition_penalty',
|
|
||||||
'presence_penalty',
|
|
||||||
'frequency_penalty',
|
|
||||||
'repetition_penalty_range',
|
|
||||||
'encoder_repetition_penalty',
|
|
||||||
'no_repeat_ngram_size',
|
|
||||||
'min_length',
|
|
||||||
'seed',
|
|
||||||
'do_sample',
|
|
||||||
'penalty_alpha',
|
|
||||||
'num_beams',
|
|
||||||
'length_penalty',
|
|
||||||
'early_stopping',
|
|
||||||
'mirostat_mode',
|
|
||||||
'mirostat_tau',
|
|
||||||
'mirostat_eta',
|
|
||||||
'grammar_file_row',
|
|
||||||
'grammar_string',
|
|
||||||
'guidance_scale',
|
|
||||||
'negative_prompt',
|
|
||||||
'ban_eos_token',
|
|
||||||
'custom_token_bans',
|
|
||||||
'add_bos_token',
|
|
||||||
'skip_special_tokens',
|
|
||||||
'auto_max_new_tokens',
|
|
||||||
},
|
|
||||||
'llama.cpp': {
|
'llama.cpp': {
|
||||||
'temperature',
|
'temperature',
|
||||||
'top_p',
|
'top_p',
|
||||||
@ -439,117 +375,6 @@ loaders_samplers = {
|
|||||||
'repetition_penalty',
|
'repetition_penalty',
|
||||||
'repetition_penalty_range',
|
'repetition_penalty_range',
|
||||||
},
|
},
|
||||||
'AutoAWQ': {
|
|
||||||
'temperature',
|
|
||||||
'temperature_last',
|
|
||||||
'top_p',
|
|
||||||
'min_p',
|
|
||||||
'top_k',
|
|
||||||
'typical_p',
|
|
||||||
'epsilon_cutoff',
|
|
||||||
'eta_cutoff',
|
|
||||||
'tfs',
|
|
||||||
'top_a',
|
|
||||||
'repetition_penalty',
|
|
||||||
'presence_penalty',
|
|
||||||
'frequency_penalty',
|
|
||||||
'repetition_penalty_range',
|
|
||||||
'encoder_repetition_penalty',
|
|
||||||
'no_repeat_ngram_size',
|
|
||||||
'min_length',
|
|
||||||
'seed',
|
|
||||||
'do_sample',
|
|
||||||
'penalty_alpha',
|
|
||||||
'num_beams',
|
|
||||||
'length_penalty',
|
|
||||||
'early_stopping',
|
|
||||||
'mirostat_mode',
|
|
||||||
'mirostat_tau',
|
|
||||||
'mirostat_eta',
|
|
||||||
'grammar_file_row',
|
|
||||||
'grammar_string',
|
|
||||||
'guidance_scale',
|
|
||||||
'negative_prompt',
|
|
||||||
'ban_eos_token',
|
|
||||||
'custom_token_bans',
|
|
||||||
'add_bos_token',
|
|
||||||
'skip_special_tokens',
|
|
||||||
'auto_max_new_tokens',
|
|
||||||
},
|
|
||||||
'QuIP#': {
|
|
||||||
'temperature',
|
|
||||||
'temperature_last',
|
|
||||||
'top_p',
|
|
||||||
'min_p',
|
|
||||||
'top_k',
|
|
||||||
'typical_p',
|
|
||||||
'epsilon_cutoff',
|
|
||||||
'eta_cutoff',
|
|
||||||
'tfs',
|
|
||||||
'top_a',
|
|
||||||
'repetition_penalty',
|
|
||||||
'presence_penalty',
|
|
||||||
'frequency_penalty',
|
|
||||||
'repetition_penalty_range',
|
|
||||||
'encoder_repetition_penalty',
|
|
||||||
'no_repeat_ngram_size',
|
|
||||||
'min_length',
|
|
||||||
'seed',
|
|
||||||
'do_sample',
|
|
||||||
'penalty_alpha',
|
|
||||||
'num_beams',
|
|
||||||
'length_penalty',
|
|
||||||
'early_stopping',
|
|
||||||
'mirostat_mode',
|
|
||||||
'mirostat_tau',
|
|
||||||
'mirostat_eta',
|
|
||||||
'grammar_file_row',
|
|
||||||
'grammar_string',
|
|
||||||
'guidance_scale',
|
|
||||||
'negative_prompt',
|
|
||||||
'ban_eos_token',
|
|
||||||
'custom_token_bans',
|
|
||||||
'add_bos_token',
|
|
||||||
'skip_special_tokens',
|
|
||||||
'auto_max_new_tokens',
|
|
||||||
},
|
|
||||||
'HQQ': {
|
|
||||||
'temperature',
|
|
||||||
'temperature_last',
|
|
||||||
'top_p',
|
|
||||||
'min_p',
|
|
||||||
'top_k',
|
|
||||||
'typical_p',
|
|
||||||
'epsilon_cutoff',
|
|
||||||
'eta_cutoff',
|
|
||||||
'tfs',
|
|
||||||
'top_a',
|
|
||||||
'repetition_penalty',
|
|
||||||
'presence_penalty',
|
|
||||||
'frequency_penalty',
|
|
||||||
'repetition_penalty_range',
|
|
||||||
'encoder_repetition_penalty',
|
|
||||||
'no_repeat_ngram_size',
|
|
||||||
'min_length',
|
|
||||||
'seed',
|
|
||||||
'do_sample',
|
|
||||||
'penalty_alpha',
|
|
||||||
'num_beams',
|
|
||||||
'length_penalty',
|
|
||||||
'early_stopping',
|
|
||||||
'mirostat_mode',
|
|
||||||
'mirostat_tau',
|
|
||||||
'mirostat_eta',
|
|
||||||
'grammar_file_row',
|
|
||||||
'grammar_string',
|
|
||||||
'guidance_scale',
|
|
||||||
'negative_prompt',
|
|
||||||
'ban_eos_token',
|
|
||||||
'custom_token_bans',
|
|
||||||
'add_bos_token',
|
|
||||||
'skip_special_tokens',
|
|
||||||
'auto_max_new_tokens',
|
|
||||||
},
|
|
||||||
}
|
}
|
||||||
|
|
||||||
loaders_model_types = {
|
loaders_model_types = {
|
||||||
|
Loading…
Reference in New Issue
Block a user