Fork me on GitHub

llm_security(大模型内容安全)

项目地址:

利用分类法和敏感词检测法对生成式大模型的输入和输出内容进行安全检测,尽早识别风险内容。


使用【ServiceApplication.java】

相关模型下载:

使用者可自行训练bert类相关模型,用本项目加载即可。

本项目采用java, springboot实现。

  • 敏感词(sensitive word detection)
  • 政治类(politics detection)
  • 暴恐类(violence detection)
  • 色情类(porn detection)
  • 辱骂歧视类(insult detection)
posted @ 2024-09-10 20:50  石头木  阅读(7)  评论(0编辑  收藏  举报