利用大模型设计测试用例
安装python 依赖
pip install torch transformers accelerate sentencepiece
python代码,设计一个测试用例
from transformers import AutoTokenizer, AutoModelForCausalLM import os import torch # 导入 torch 库 # 设置 HTTP 和 HTTPS 代理(如果需要) os.environ['http_proxy'] = 'http://127.0.0.1:7890' os.environ['https_proxy'] = 'http://127.0.0.1:7890' # 禁用 symlink 警告 os.environ['HF_HUB_DISABLE_SYMLINKS_WARNING'] = '1' # 加载 DistilGPT 模型和 tokenizer google/gemma-2b distilgpt2 tokenizer = AutoTokenizer.from_pretrained("google/gemma-2b") model = AutoModelForCausalLM.from_pretrained("google/gemma-2b") # 设置 pad_token_id(DistilGPT 默认没有设置 pad_token) tokenizer.pad_token_id = tokenizer.eos_token_id # 将 pad_token_id 设置为 eos_token_id # 示例输入文本 input_text = "Once upon a time" input_text = "怎么搭建Redis?" input_text = "请设计一个登录测试用例?" # 编码输入文本 input_ids = tokenizer.encode(input_text, return_tensors='pt') # 创建 attention mask,1 表示实际的 token,0 表示 padding attention_mask = (input_ids != tokenizer.pad_token_id).long() # 使用 long() # 生成文本 output = model.generate(input_ids, max_length=500, num_return_sequences=1, attention_mask=attention_mask, pad_token_id=tokenizer.eos_token_id) # 解码输出 generated_text = tokenizer.decode(output[0], skip_special_tokens=True) print(generated_text)
输出:
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 地球OL攻略 —— 某应届生求职总结
· 提示词工程——AI应用必不可少的技术
· Open-Sora 2.0 重磅开源!
· 周边上新:园子的第一款马克杯温暖上架
2023-10-10 定时备份mysql脚本