python基于万象优图识别图片中的中文
2017-10-19 10:06 yongchin 阅读(5738) 评论(5) 编辑 收藏 举报最近一直在研究光学字符识别,即OCR。最开始在谷爹那里了解到了开源的Tesseract,可以拿来识别简单的英文和数字。但是识别中文的准确率并不高。
然后从Tesseract到Tesseract.js,经过多次尝试研究,最后发现腾讯爹的万象优图识别率是最高的。趁现在是公测免费期,赶紧尝试了一把。
下面来说一说我是怎么用python实现中文识别的。
首先百度万象优图登录吧,腾讯的。。。你们懂得。。。。进去后,创建一个bucket,然后可以选择上传图片
这些准备工作做好以后,就开始写代码吧
首先如果是识别身份证,名片,标签等图片的话,强烈建议直接使用万象优图提供python sdk,详情请见https://cloud.tencent.com/document/product/460/7991
我们这里,是做图片通用印刷体识别,所以就只有被迫用万象优图提供的API:(原本我是更喜欢用SDK的,因为简单,但是目前SDK不支持)
万象优图OCR接口采用http协议,支持指定图片URL和 上传本地图片文件两种方式。
根据用户提供的图片,返回识别出的字段信息。
接口:http://recognition.image.myqcloud.com/ocr/general
这里有三点需要注意:
(1) 每个请求的包体大小限制为6MB。
(2) 所有接口都为POST方法。
(3) 不支持 .gif这类的多帧动图。
然后我用可以使用requests模块来发http请求。
这里最麻烦的就是要定制请求头,不然腾讯云是解析不到的,笔者才疏学浅在这里研究了一下午才正确定制出了请求头。。。。
先来看看请求头的规则:
参数名 | 值 | 描述 |
---|---|---|
Host | recognition.image.myqcloud.com | 服务器域名 |
Content-Length | 包体总长度 | 整个请求包体内容的总长度,单位:字节(Byte) |
Content-Type | Application/json或者Multipart/form-data | 根据不同接口选择 |
Authorization | 鉴权签名 | 用于鉴权的签名,使用多次有效签名。详情 |
这里的难点就是这个鉴权签名,直接点击表格里面的详情去看吧,我这里不做复制粘贴。
关于请求参数:
使用image则使用 multipart/form-data格式
不使用image则使用 application/json格式
参数名 | 是否必须 | 类型 | 参数说明 |
---|---|---|---|
appid | 必须 | string | 项目ID |
bucket | 必须 | string | 空间名称 |
image | 可选 | binary | 图片内容 |
url | 可选 | string | 图片的url,image和url只提供一个即可,如果都提供,只使用url |
好了,现在开始正式开始吧
先写一下请求头涉及到的变量
然后依次把他们拼接起来
我这里采用的是单次
然后再根据要求进行 HMAC-SHA1加密
这里强调一下,官方的说法是
根据我的研究,转换出来的不是二进制,然后我还特意去转成了二进制。。。。。。发现其实根本不用,转出来的在pycharm里面是个乱码,可以直接用的
最后,加密的数据和之前的拼接数据再拼在一起做base64转码
这样签名就完成了,后面的基本不难,主要就是签名这里有坑,下面直接上代码:
# coding=utf-8 # /usr/bin/python # coding=utf-8 # create by 15025463191 2017/10/11 import requests import hmac import hashlib import base64 import time import random import re appid = "1254602529" bucket = "imgregnise" secret_id = "AKIDZx72kFVBPRF4324234234o8C1auynPezyl" #我更改了,不要复制我的 secret_key = "h9NUN1RbZIm11mJbUt2v32432Zx" #我更改了,不要复制我的 expired = time.time() + 2592000 onceExpired = 0 current = time.time() rdm = ''.join(random.choice("0123456789") for i in range(10)) userid = "0" fileid = "tencentyunSignTest" info = "a=" + appid + "&b=" + bucket + "&k=" + secret_id + "&e=" + str(expired) + "&t=" + str(current) + "&r=" + str( rdm) + "&u=0&f=" signindex = hmac.new(secret_key, info, hashlib.sha1).digest() # HMAC-SHA1加密 sign = base64.b64encode(signindex + info) # base64转码 url = "http://recognition.image.myqcloud.com/ocr/general" headers = {'Host': 'recognition.image.myqcloud.com', "Content-Length": "187", "Content-Type": "application/json", "Authorization": sign } payload = { "appid": appid, "bucket": bucket, "url": "http://imgregnise-1254602529.picsh.myqcloud.com/123456.png" } r = requests.post(url, json=payload, headers=headers) responseinfo = r.content r_index = r'itemstring":"(.*?)"' # 做一个正则匹配 result = re.findall(r_index, responseinfo) for i in result: print i
我这里用图片试验了一次,准备率还是很高的,就是中间少了一个“餐。”
但是这样的识别率已经是很高了
最后预祝各种识别成功!