数据集-鉴黄

前方高能预警,非战斗人士请火速撤离……

数据集1:https://github.com/EBazarov/nsfw_data_source_urls/tree/master/raw_data

在 raw_data 文件夹里,可以找到不同的 .txt 格式的文档,每个文档都含有一组 URL,以下是关于该数据集的一些统计信息:

159个 不同的类别
158.9331 万个 URL
下载并清洗后大约有 500GB,或者说有 130 万张 NSFW 图像

数据集2https://github.com/alex000kim/nsfw_data_scraper

主要五大类

 


比较成熟的模型:

项目1:

 

项目地址:https://github.com/infinitered/nsfwjs

网页测试地址:https://nsfwjs.com/

该模型主要包括五大标签:

绘画(Drawing):无害的艺术,或艺术绘画。

变态(Hentai):色情艺术,不适合大多数工作环境下观看。

中立(Neutral):一般,无害的内容。

色情(Porn):不雅的内容和行为,通常涉及生殖器。

性感(Sexy):不合时宜的挑衅内容。

项目2:

 


项目地址 :https://github.com/devzwy/open_nsfw_android

该项目支持色情图片离线识别(离线鉴黄),基于TensorFlow实现。识别只需200ms,可断网测试,成功率99%,调用只要一行代码,从雅虎的开源项目open_nsfw移植,tflite(6M)为训练好的模型(已量化),该模型文件可用于iOS、java、C++等平台,Python使用生成的tfLite文件检测图片的速度远远快于实用原模型。

项目3:

 


项目地址:https://github.com/yahoo/open_nsfw

项目更多介绍:https://yahooeng.tumblr.com/post/151148689421/open-sourcing-a-deep-learning-solution-for

该项目是由雅虎开源,自动识别图像(包括令人讨厌的图像和成人图像)不适合(SFW)/不适合工作(NSFW)。雅虎建议大家在使用时选择自己的阈值,因为应用场景和对 NSFW 标准的理解可能会有差异,所以开发人员最好根据自己应用对 NSFW 的定义来设定评估值。

关于更多视频/图片鉴黄有哪些算法和开源库参考:
1.视频/图片鉴黄开源库
2.图像鉴黄算法综述

 
posted @ 2022-06-16 12:53  海_纳百川  阅读(442)  评论(1编辑  收藏  举报
本站总访问量