07 2020 档案
摘要:tensorflow中文笔记 另一本学习笔记 https://github.com/dragen1860/Deep-Learning-with-TensorFlow-book 中文tensorflow 书籍文件
阅读全文
摘要:MATLAB数据类型 MATLAB提供15种基本数据类型,分别是8种整型数据、单精度浮点型、双精度浮点型、逻辑型、字符串型、单元数组、结构体类型和函数句柄。每种数据类型存储矩阵或数组形式的数据。矩阵或数组的最小值是0到0,并且是可以到任何大小的矩阵或数组。 下表显示了MATLAB中最常用的数据类型:
阅读全文
摘要:MATLAB命令 本节的内容将提供常用的一些MATLAB命令。 在之前的篇章中我们已经知道了MATLAB数值计算和数据可视化是一个交互式程序,在它的命令窗口中您可以在MATLAB提示符“>>”下键入命令。 MATLAB管理会话的命令 MATLAB提供管理会话的各种命令。如下表所示: 命目的/作用cl
阅读全文
摘要:MATLAB变量 每个MATLAB变量可以是数组或者矩阵。* 用一个简单的方法指定变量。例如: x = 3 % defining x and initializing it with a value MATLAB执行上述语句,并返回以下结果: x = 3 上述的例子创建了一个1-1的矩阵名为x和的值
阅读全文
摘要:matlab运算符 运算符 运算符目的+加;加法运算符-减;减法运算符*标量和矩阵乘法运算符.*数组乘法运算符^标量和矩阵求幂运算符.^数组求幂运算符\矩阵左除/矩阵右除.\阵列左除./阵列右除:向量生成;子阵提取( )下标运算;参数定义[ ]矩阵生成.点乘运算,常与其他运算符联合使用…续行标志;行
阅读全文
摘要:MATLAB介绍 认识MATLAB MATLAB(矩阵实验室)是由美国MathWorks公司开发的第四代高层次的编程语言和交互式环境数值计算,可视化和编程; MATLAB允许矩阵操作、绘制函数和数据、算法实现、创建用户界面; MATLAB能和在其他语言,包括C、C++、Java和Fortran语言编
阅读全文
摘要:import requests from fake_useragent import UserAgent from time import sleep from random import randint from pyquery import PyQuery def get_html(url):
阅读全文
摘要:import requests from fake_useragent import UserAgent from time import sleep from random import randint import re def get_html(url): headers={ 'User-Ag
阅读全文
摘要:import requests from fake_useragent import UserAgent from time import sleep from random import randint from bs4 import BeautifulSoup def get_html(url)
阅读全文
摘要:import requests from fake_useragent import UserAgent from lxml import etree from time import sleep from random import randint def get_html(url): heade
阅读全文
摘要:from selenium import webdriver d=webdriver.Edge() d.get('https://www.baidu.com/')
阅读全文
摘要:import requests from lxml import etree from fake_useragent import UserAgent url = 'https://tech.163.com/20/0716/07/FHL0LPK300097U7T.html' headers={ 'U
阅读全文
摘要:#include <reg52.h> typedef unsigned char u8; typedef unsigned int u16; sbit key=P2^2; sbit led=P3^2; void delay(u16 i) { while(i--); } void keypr() {
阅读全文
摘要:1. Scrapy 框架介绍 Scrapy是Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy = Scrach+Python Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试、信息处理和历史档案等大量应用范围内抽取结构化
阅读全文
摘要:1. Tesseract介绍 tesseract 是一个google支持的开源ocr项目 其项目地址:https://github.com/tesseract-ocr/tesseract 目前最新的源码可以在这里下载 2. Tesseract安装包下载 Tesseract的release版本下载地址
阅读全文
摘要:Selenium 处理滚动条 selenium并不是万能的,有时候页面上操作无法实现的,这时候就需要借助JS来完成了 当页面上的元素超过一屏后,想操作屏幕下方的元素,是不能直接定位到,会报元素不可见的。这时候需要借助滚动条来拖动屏幕,使被操作的元素显示在当前的屏幕上。滚动条是无法直接用定位工具来定位
阅读全文
摘要:1. Selenium Selenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。 Selenium 可以根
阅读全文
摘要:from threading import Thread from queue import Queue from fake_useragent import UserAgent import requests from lxml import etree # 爬虫类 class CrawlInfo
阅读全文
摘要:from jsonpath import jsonpath import requests url='' headers={ 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGec
阅读全文
摘要:from pyquery import PyQuery as pq import requests url='https://ip.jiangxianli.com/?page=1' headers={ 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;
阅读全文
摘要:from lxml import etree import requests url = 'https://www.qidian.com/all' headers={ 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit
阅读全文
摘要:import re str = 'I Study python3.7 everyday' print('--'*50) m1 = re.match(r'.',str) print(m1.group()) #m2=re.search(r'S\w+',str) #print(m2.group()) m3
阅读全文
摘要:from bs4 import BeautifulSoup str = ''' <title>尚学堂</title> <div class='info' float='left'>Welcome to SXT</div> <div class='info' float='right'> <span>
阅读全文
摘要:#include <reg52.h> typedef unsigned char u8; typedef unsigned int u16; sbit LSA=P2^2; sbit LSB=P2^3; sbit LSC=P2^4; unsigned char smgduan [16]={0x3f,0
阅读全文
摘要:#include <reg52.h> typedef unsigned char u8; typedef unsigned int u16; unsigned char smg [11]={0xc0,0xf9,0xa4,0xb0,0x99,0x92,0x82,0xf8,0x80,0x90,0x88}
阅读全文
摘要:1. 引入 我们之前写的爬虫都是单个线程的?这怎么够?一旦一个地方卡到不动了,那不就永远等待下去了?为此我们可以使用多线程或者多进程来处理。 不建议你用这个,不过还是介绍下了,如果想看可以看看下面,不想浪费时间直接看 2. 如何使用 爬虫使用多线程来处理网络请求,使用线程来处理URL队列中的url,
阅读全文
摘要:1. pyquery 1.1 介绍 如果你对CSS选择器与Jquery有有所了解,那么还有个解析库可以适合你–Jquery 官网https://pythonhosted.org/pyquery/ 1.2 安装 pip install pyquery 1.3 使用方式 1.3.1 初始化方式 字符串
阅读全文
摘要:1. JSON与JsonPATH JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。适用于进行数据交互的场景,比如网站前台与后台之间的数据交互。 JSON和XML的比较可谓不相上下。 Pyt
阅读全文
摘要:1. 介绍 之前 BeautifulSoup 的用法,这个已经是非常强大的库了,不过还有一些比较流行的解析库,例如 lxml,使用的是 Xpath 语法,同样是效率比较高的解析方法。如果大家对 BeautifulSoup 使用不太习惯的话,可以尝试下 Xpath 官网 http://lxml.de/
阅读全文
摘要:1. Beautiful Soup的简介 Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。 Beautiful Soup自动将输入文档
阅读全文
摘要:import requests import re url='https://www.qiushibaike.com/text/' header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50
阅读全文
摘要:1. 提取数据 在前面我们已经搞定了怎样获取页面的内容,不过还差一步,这么多杂乱的代码夹杂文字我们怎样把它提取出来整理呢?下面就开始介绍一个十分强大的工具,正则表达式! 正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字
阅读全文
摘要:import requests session=requests.Session() header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Versio
阅读全文
摘要:import requests header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50' } url =
阅读全文
摘要:import requests header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50' } url =
阅读全文
摘要:import requests header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50' } login
阅读全文
摘要:import requests header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50' } url =
阅读全文
摘要:1. 介绍 对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助。入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取。那么这一节来简单介绍一下 requests 库的基本用法 2. 安装 利用 pip 安装 pip install requests 3. 基本请求 req = requ
阅读全文
摘要:1. Cookie 为什么要使用Cookie呢? Cookie,指某些网站为了辨别用户身份、进行session跟踪而储存在用户本地终端上的数据(通常经过加密) 比如说有些网站需要登录后才能访问某个页面,在登录之前,你想抓取某个页面内容是不允许的。那么我们可以利用Urllib库保存我们登录的Cooki
阅读全文
摘要:1. 伪装自己 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作 1.1 设置请求头 其中User-Agent代表用的哪个请求的浏览器 代码如下: from urllib.request import urlopen from urll
阅读全文
摘要:1. 小试牛刀 怎样扒网页呢? 其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS、CSS,如果把网页比作一个人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存
阅读全文
摘要:1. 常用的工具 pythonpycharm浏览器 chrome火狐 fiddler 2 fiddler的使用 2.1 界面含义 请求 (Request) 部分详解 名称含义Headers显示客户端发送到服务器的 HTTP 请求的,header 显示为一个分级视图,包含了 Web 客户端信息、Coo
阅读全文
摘要:1. 什么是爬虫? 网络爬虫也叫网络蜘蛛,如果把互联网比喻成一个蜘蛛网,那么蜘蛛就是在网上爬来爬去的蜘蛛,爬虫程序通过请求url地址,根据响应的内容进行解析采集数据, 比如:如果响应内容是html,分析dom结构,进行dom解析、或者正则匹配,如果响应内容是xml/json数据,就可以转数据对象,然
阅读全文
摘要:#include <reg52.h> sbit beep = P1^5; unsigned char timer0H, timer0L, time; //单片机晶振采用11.0592MHz // 频率-半周期数据表 高八位 本软件共保存了四个八度的28个频率数据 code unsigned char
阅读全文
摘要:#include <reg52.h> #include <intrins.h> typedef unsigned char u8; typedef unsigned int u16; u16 i; sbit beep=P1^5; void delay(u16 i) { while(i--); } v
阅读全文
摘要:from urllib.request import urlopen from urllib.request import Request url = "https://user.youku.com/page/usc/index/?spm=a2hcb.12675304.uerCenter.5!6~5
阅读全文
摘要:from urllib.request import urlopen from urllib.request import Request,build_opener,HTTPHandler,ProxyHandler from urllib.parse import urlencode import
阅读全文
摘要:''' ssl证书,https ''' from urllib.request import urlopen from urllib.request import Request from urllib.parse import urlencode import ssl url = 'https:/
阅读全文
摘要:from urllib.request import urlopen from urllib.request import Request from urllib.parse import urlencode b_url='https://movie.douba.com/j/chart/top_li
阅读全文
摘要:‘’‘ from urllib.request import urlopen from urllib.request import Request from urllib.parse import urlencode url='https://cnpassport.youku.com/newlogi
阅读全文
摘要:讲解链接 R语言分类树,决策树 library(readxl) data <- read_excel(path = 'D:\\sj1.xlsx') library(rpart) dtree<-rpart(事故责任~.,data=data,method="class", parms=list(spli
阅读全文
摘要:#include <reg52.h> sbit led=P2^0; void main() { while(1) { led=0; } }
阅读全文
摘要:#include <reg52.h> typedef unsigned char u8; typedef unsigned int u16; sbit leda=P2^0; sbit ledb=P2^1; sbit ledc=P2^2; sbit ledd=P2^3; sbit lede=P2^4;
阅读全文
摘要:''' 第一天 import requests from urllib.request import urlopen url = 'http://quote.eastmoney.com/us/BIDU.html?from=BaiduAladdin' response = urlopen(url) i
阅读全文