05 2019 档案
摘要:queryset中支持链式操作 book=Book.objects.all().order_by('-nid').first() 只要返回的是queryset对象就可以调用其他的方法,直到返回的是对象本身 模糊查询常用的操作 大于、大于等于: __gt 大于> __gte 大于等于>= Studen
阅读全文
摘要:官方文档(queryset): https://docs.djangoproject.com/zh-hans/2.0/ref/models/querysets/ 字段属性和选项 3.1 模型类属性命名限制 1)不能是python的保留关键字。 2)不允许使用连续的下划线,这是由django的查询方式
阅读全文
摘要:1. 模板变量 变量名必须由字母、数字、下划线(不能以下划线开头)和点组成,语法如下: 模板变量可以使python的内建类型,也可以是对象。 2. 模板语句 1)for循环: 2)if条件: 比较运算符如下: 布尔运算符如下: 注意:运算符左右两侧必须有空格。 with 使用一个简单地名字缓存一个复
阅读全文
摘要:Django2.0版本 这是一个示例URLconf: from django.urls import path from . import views urlpatterns = [ path('articles/2003/', views.special_case_2003), path('art
阅读全文
摘要:二、request对象常用属性: form 表单默认提交(或者method指定为get) 在浏览器中输入地址直接请求 网页中的超链接(a标签) 已登录:AbstractUser对象; 未登录:AnonymousUser对象;判断是否已经登录: request.user.is_authenticate
阅读全文
摘要:创建一个django project (我的版本是1.11.11) django-admin startproject mysite 当前目录下会生成mysite的工程,目录结构如下: manage.py Django项目里面的工具,通过它可以调用django shell和数据库等。 setting
阅读全文
摘要:BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__))) 当前项目的根目录,Django会依此来定位工程内的相关文件,我们也可以使用该参数来构造文件路径。 # 关闭调试模式 DEBUG = True # 设置允许通过
阅读全文
摘要:def hanoi(n, a, b, c): if n > 0: hanoi(n - 1, a, c, b) print('%s->%s' % (a, c)) hanoi(n - 1, b, a, c) hanoi(2, "A", "B", "C")
阅读全文
摘要:常用的SQLAlchemy查询过滤器 常用的SQLAlchemy查询执行器
阅读全文
摘要:json 序列与反序列化 js中处理json
阅读全文
摘要:@passport_blu.route('/image_code') def get_image_code(): """ 生成图片验证码并返回 1. 取到参数 2. 判断参数是否有值 3. 生成图片验证码 4. 保存图片验证码文字内容到redis 5. 返回验证码图片 :return: """ # 1. 取到参数 ...
阅读全文
摘要:function generateUUID() { var d = new Date().getTime(); if(window.performance && typeof window.performance.now "function"){ d += performance.now(); //
阅读全文
摘要:import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from redis import Redis from incrementPro.items import IncrementproItem class MovieSpider(C...
阅读全文
摘要:pip install scrapy-redisscrapy genspider -t crawl xxx www.xxx.com class ChoutiSpider(RedisCrawlSpider): name = 'chouti' # allowed_domains = ['www.chouti.com'] # start_urls = ['http://www.ch...
阅读全文
摘要:1.创建scrapy工程:scrapy startproject projectName 2.创建爬虫文件:scrapy genspider -t crawl spiderName www.xxx.com # -*- coding: utf-8 -*- import scrapy from scra
阅读全文
摘要:class MovieSpider(scrapy.Spider): name = 'movie' allowed_domains = ['www.id97.com'] start_urls = ['http://www.id97.com/'] def parse(self, response): div_list = response.xpath...
阅读全文
摘要:增加并发: 默认scrapy开启的并发线程为32个,可以适当进行增加。在settings配置文件中修改CONCURRENT_REQUESTS = 100值为100,并发设置成了为100。 降低日志级别: 在运行scrapy时,会有大量日志信息的输出,为了减少CPU的使用率。可以设置log输出信息为INFO或者ERROR即可。在配置文件中编写:LOG_LEVEL = ‘INFO’...
阅读全文
摘要:#创建项目 scrapy startproject demo #开一个爬虫项目 cd demo scrapy genspider first www.baidu.com #setting 中设置 ROBOTSTXT_OBEY = False USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/...
阅读全文
摘要:#人人网的模拟登录 import requests import urllib from lxml import etree #获取session对象 session = requests.Session() #将验证码图片进行下载 headers = { 'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit...
阅读全文
摘要:需要下载webdriver 对应自己的谷歌浏览器版本下载 http://chromedriver.storage.googleapis.com/index.html
阅读全文
摘要:import requestsfrom lxml import etree url='https://bj.58.com/shunyi/ershoufang/?PGTID=0d30000c-0047-6aa6-0218-69d1ed59a77b&ClickID=3'headers = {'User-
阅读全文
摘要:#爬取百度翻译结果 import requestsurl = 'https://fanyi.baidu.com/sug' wd = input('enter a word:') data = { 'kw':wd } response = requests.post(url=url,data=data) print(response.json()) #response.text : 字符串 #...
阅读全文
摘要:anaconda jupyter notebook
阅读全文