p
from peft import PromptEncoderConfig, get_peft_model
peft_config = PromptEncoderConfig(task_type="CAUSAL_LM", num_virtual_tokens=20, encoder_hidden_size=128)
model = get_peft_model(model, peft_config)
model.print_trainable_parameters()
prefix
from peft import PrefixTuningConfig, get_peft_model
peft_config = PrefixTuningConfig(task_type="CAUSAL_LM", num_virtual_tokens=20)
model = get_peft_model(model, peft_config)
prompt
from peft import PromptTuningConfig, PromptTuningInit, get_peft_model
prompt_tuning_init_text = "Classify if the tweet is a complaint or no complaint.\n"
peft_config = PromptTuningConfig(
task_type="CAUSAL_LM",
prompt_tuning_init=PromptTuningInit.TEXT,
num_virtual_tokens=len(tokenizer(prompt_tuning_init_text)["input_ids"]),
prompt_tuning_init_text=prompt_tuning_init_text,
tokenizer_name_or_path="bigscience/bloomz-560m",
)
model = get_peft_model(model, peft_config)
这样的只是文本的分类,不需要输出的结果;
task_type
-
SEQ_CLS (Sequence Classification): 将整个文本序列分配到一个类别中。例如,将一篇文章分类为“体育”、“科技”或“娱乐”。
-
SEQ_2_SEQ_LM (Sequence-to-Sequence Language Modeling): 将一个序列转换为另一个序列。常用于机器翻译、文本生成和摘要等任务。
-
CAUSAL_LM (Causal Language Modeling): 用于生成文本的语言模型,每个词的生成只依赖于之前的词。例如,用于生成连贯的段落或对话。
-
TOKEN_CLS (Token Classification): 将文本中的每个单词或标记分配到一个类别中。例如,命名实体识别(NER),将“纽约”标记为“地点”。
-
QUESTION_ANS (Question Answering): 从给定的上下文中回答问题。通常包括阅读理解任务,系统需要从一段文本中找出答案。
-
FEATURE_EXTRACTION: 提取文本的特征或嵌入,这些特征可以用于其他下游任务。通常得到的特征是模型的隐藏状态,可以用作其他任务的输入。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 全程不用写代码,我用AI程序员写了一个飞机大战
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!