11 2019 档案

摘要:上一个章节中我们主要是介绍了pandas两种数据类型的具体属性,这个章节主要介绍操作Series和DataFrame中的数据的基本手段。 一、基本功能 1、重新索引 pandas对象的一个重要方法是reindex,其作用是创建一个新对象,它的数据符合新的索引: import pandas as pd 阅读全文
posted @ 2019-11-29 17:03 小卫哥 阅读(1020) 评论(0) 推荐(0) 编辑
摘要:在Excel工作表中,有多种Shape类型的时候,可以通过shape.Type属性值返回一个代表形状类型的MsoShapeType数值。通过该数值可知该图形的类型! 列表如下: 名称 值 说明 msoAutoShape 1 自选图形 msoCallout 2 标注 msoChart 3 图 msoC 阅读全文
posted @ 2019-11-29 15:10 小卫哥 阅读(2772) 评论(0) 推荐(0) 编辑
摘要:如下是为了学习数据分析和机器学习所看的书籍: 数据库书籍: 1、《SQL基础教程(第二版)》 2、《SQL进阶教程》 python书籍: 1、《Python学习手册》 2、《Python for Data Analysis》 内容 计划完成时间 完成时间 第六章 2019/12/8 2019/12/ 阅读全文
posted @ 2019-11-27 18:50 小卫哥 阅读(283) 评论(0) 推荐(0) 编辑
摘要:利用Python进行数据分析-Pandas: 在Pandas库中最重要的两个数据类型,分别是Series和DataFrame。如下的内容主要围绕这两个方面展开叙述! 在进行数据分析时,我们知道有两个基础的第三方库在数据处理时显得尤为重要,即分别为NumPy库和Pandas库,前面的章节我们对于Num 阅读全文
posted @ 2019-11-26 22:43 小卫哥 阅读(597) 评论(0) 推荐(0) 编辑
摘要:本章节主要介绍NumPy中的三个主要的函数,分别是随机函数、统计函数和梯度函数,以及一个较经典的用数组来表示图像的栗子!,希望大家能有新的收货,共同进步! 一、np.random的随机函数(1) rand(d0,d1...,dn) 根据d0-dn创建随机数数组,浮点数,[0,1)均匀分布; rand 阅读全文
posted @ 2019-11-21 17:53 小卫哥 阅读(1105) 评论(0) 推荐(0) 编辑
摘要:本章主要介绍的是数据的CSV文件存取和多维数据的存取。 一、数据的CSV文件存取 1、CSV的写文件: np.savetxt(frame, array, fmt='%.18e', delimiter=None) frame:文件、字符串或产生器,可以是.gz或.bz的压缩文件; array:存入文件 阅读全文
posted @ 2019-11-21 14:26 小卫哥 阅读(3828) 评论(0) 推荐(0) 编辑
摘要:本章主要介绍的是ndarray数组的操作和运算! 一、 ndarray数组的操作: 操作是指对数组的索引和切片。索引是指获取数组中特定位置元素的过程;切片是指获取数组中元素子集的过程。 1、一维数组的索引和切片与python的列表类似: 索引: import numpy as np a = np.a 阅读全文
posted @ 2019-11-20 21:05 小卫哥 阅读(432) 评论(0) 推荐(0) 编辑
摘要:在学习数据分析时,NumPy作为最基础的数据分析库,我们能够熟练的掌握它是学习数据分析的必要条件。接下来就让我们学习该库吧。 学习NumPy库的环境: python:3.6.6 编辑器:pycharm NumPy安装:在cmd命令下,直接使用pip语句,pip install NumPy即可! Nu 阅读全文
posted @ 2019-11-18 14:08 小卫哥 阅读(576) 评论(0) 推荐(0) 编辑
摘要:本文主要是介绍从前程无忧上爬取岗位为数据分析的职位,主要是五个字段,职位名称、公司名称、工作地点、薪资和发布时间。同时把爬取下来的数据保存到mysql数据库中。 1 import requests 2 import pymysql 3 import re 4 5 6 # 连接数据库并创建数据表 7 阅读全文
posted @ 2019-11-11 20:55 小卫哥 阅读(872) 评论(0) 推荐(0) 编辑
摘要:本章的内容主要是为讲解在正则表达式中常用的.*?和re.S! 在正则表达式中有贪婪匹配和最小匹配:如下为贪婪匹配(.*) 1 import re 2 match = re.search(r'PY.*', 'PYANBNCNDN') 3 print(match.group(0)) 如上的代码显示的结果 阅读全文
posted @ 2019-11-11 16:25 小卫哥 阅读(1061) 评论(0) 推荐(0) 编辑
摘要:本篇爬虫主要是为了从最好大学网站上爬取2019年各个大学的排名,以及把数据存储到mysql的过程: 1 import requests 2 from bs4 import BeautifulSoup 3 import bs4 4 import pymysql 5 6 # 连接数据库并且创建数据表 7 阅读全文
posted @ 2019-11-05 20:57 小卫哥 阅读(215) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示