2019年12月12日

摘要: 在执行双层循环的时候,内循环if判断中增加 goto breakHere 就能跳出所有循环,并且在循环外定义一个标签 breakHere:fmt.Println("done") func main() { for x := 0; x < 10; x++ { for y := 0; y < 10; y 阅读全文

posted @ 2019-12-12 16:43 大白不白 阅读(83) 评论(0) 推荐(0) 编辑


2019年12月9日

摘要: // 定义数组: var a [3]int var a [3]int = [3]int{1,2,3} var a = [...]int{1,2,3} var a = []int{1,2,3} a := []int{1,2,3} // 声明二维数组 var a [3][2]int a = [3][2] 阅读全文

posted @ 2019-12-09 17:41 大白不白 阅读(206) 评论(0) 推荐(0) 编辑


2019年12月4日

摘要: fmt方法总结: s := "hello,world!" fmt.Println(s) fmt.Printf("%T\n", s) // 查看变量的类型 fmt.Printf("%v\n", s) // 查看变量的值 fmt.Printf("%#v\n", s) // 变量的值加引号 fmt.Pri 阅读全文

posted @ 2019-12-04 15:39 大白不白 阅读(86) 评论(0) 推荐(0) 编辑


2019年12月3日

摘要: 一、变量 go声明变量一般形式使用var关键字: var name type 声明变量将变量的类型放在变量的名称之后: var a,b *int go的基本类型: bool,string,int,int8...uint...byte//uint8别名,rune//int32别名代表一个Unicode 阅读全文

posted @ 2019-12-03 17:40 大白不白 阅读(233) 评论(0) 推荐(0) 编辑


2019年12月2日

摘要: 1.接收字典: var data map[string]interface{} if r.Method == "POST" { fmt.Println("method:", r.Method) res := r.ParseForm() # 从body里面读出内容,golang的字典格式为map(字典 阅读全文

posted @ 2019-12-02 16:20 大白不白 阅读(3388) 评论(0) 推荐(0) 编辑


2019年10月18日

摘要: 阿里云的镜像加速器:https://cr.console.aliyun.com/#/accelerator 镜像是一种轻量级、可执行的独立软件包。 UnionFS(联合文件系统):分层、轻量级的文件系统 docker commit 提交容器副本使之成为一个新的镜像 -m 提交的描述信息 -a 作者 阅读全文

posted @ 2019-10-18 14:55 大白不白 阅读(117) 评论(0) 推荐(0) 编辑


2019年10月17日

摘要: docker:build ==> ship ==>run ==> any app ==> any where 镜像:就是一个只读的模板,镜像可以用来创建容器,一个镜像可以创建很多个容器 容器:独立运行的一个或一组应用,容器是用镜像创建的运行实例 它可以被启动,开始,停止,删除,每个容器都是互相隔离的 阅读全文

posted @ 2019-10-17 14:16 大白不白 阅读(129) 评论(0) 推荐(1) 编辑


2019年10月15日

摘要: http: 1 GET 请求指定的页面信息,并返回实体主体2 HEAD 类似于get请求,只不过返回的响应中没有具体的内容,用于获取报头3 POST 向指定资源提交数据进行处理请求(例如提交表单或者上传文件)。数据被包含在请求体中。POST请求可能会导致新的资源的建立或已有的资源的修改4 PUT 从 阅读全文

posted @ 2019-10-15 11:10 大白不白 阅读(140) 评论(0) 推荐(0) 编辑


2019年10月14日

摘要: crawley startproject crawley_spider cd crawley_spider pypiScraper类内部定义的scrape方法。它使用Xpath来获取解析的html,然后将提取的数据存储在Packages表中。 运行爬虫:crawley run 阅读全文

posted @ 2019-10-14 16:03 大白不白 阅读(2571) 评论(0) 推荐(0) 编辑

摘要: 1.主要用到的函数及调用的顺序为: __init__():初始化爬虫名字,和start_urls列表 start_requests()调用make_requests_from_url():生成request对象交给scrapy下载并返回response parse():解析response,并返回I 阅读全文

posted @ 2019-10-14 13:43 大白不白 阅读(173) 评论(0) 推荐(0) 编辑


Copyright © 2024 大白不白
Powered by .NET 9.0 on Kubernetes