Fork me on GitHub

pediatrics_llm_qa:儿科问诊小模型

项目简介

本项目开源了基于儿科医疗指令微调的问诊模型:pediatrics_llm_qa(GitHub - jiangnanboy/pediatrics_llm_qa),目前模型的主要功能如下:

智能问诊:问诊后给出诊断结果和建议。

更新

  • [2024/09/11] 开源了基于Qwen2-1.5B-instruct lora指令微调的儿科问诊模型
  • [2024/09/12] 实现GPU流式推理
  • [2024/09/13] 对模型进行格式转换,使其适用于CPU流式推理
  • [2024/09/14] 加入gradio web流式推理
  • [2024/09/15] 开源了基于Qwen2-0.5B-instruct lora指令微调的儿科问诊模型

开源模型

模型 基座 HuggingFace
pediatrics_llm_qa_1.5B Qwen2-1.5B-instruct pediatrics_llm_qa_1.5B
pediatrics_llm_qa_0.5B Qwen2-0.5B-instruct pediatrics_llm_qa_0.5B

⚡快速开始

  1. 配置环境(测试环境如下,具体版本可以根据实际需求配置)
  • openvino
  • openvino-tokenizers
  • optimum-intel>=1.17.0
  • transformers>=4.40.0,<4.42.0
  • huggingface-hub>=0.21.3
  • torch>=2.1
  • gradio>=4.20.0
  • peft
  • pandas

2.训练及合并

1.训练代码见train_sft/train.py,儿科问答训练语料见data_process/all_data.rar

2.此模型是经微调后的lora模型,根据下载的Lora权重与相应的Qwen2模型进行merge合并。merge合并代码见:
train_sft/merge_lora_weights.py

3.下载模型参数并运行(要求单卡GPU或者CPU)

GPU环境请运行gpu_infer下面的流式推理:
     1.gpu_stream_infer.py
     2.web形式的运行gpu_web_demo.py

CPU环境请运行cpu_infer下面的流式推理:(对merge后的模型转换为支持CPU运行格式,转换见cpu_infer/convert.py,转换命令为【python convert.py --model_id /output_qwen_merged --precision fp16 --output /output_qwen_merged-ov】)
     1.cpu_stream_infer.py
     2.web形式的运行cpu_web_demo.py

web样例

免责声明

预训练模型是基于大量语料库和算法模型进行训练的,并且在训练过程中可能存在偏差、错误和不完整的信息。因此,本项目提供的预训练模型仅供参考和研究使用,并不能保证其准确性和可靠性。使用预训练模型产生的结果可能存在误差和偏差,不能用于实际应用或决策。本项目不对使用预训练模型所产生的结果承担任何责任,也不对因使用预训练模型所产生的任何损失承担责任。使用者在使用预训练模型时应自行承担风险并进行自我验证。

posted @ 2024-09-12 21:42  石头木  阅读(12)  评论(0编辑  收藏  举报