上一页 1 ··· 16 17 18 19 20 21 22 23 24 ··· 28 下一页
摘要: 第六章 字符串操作 1.字符串处理 (1)字符串字 面量 python中输入字符串:以单引号开始和结束 (2)双引号:字符串可以用双引号开始和结束,就像单引号一样,使用双引号的好处就是在字符串中可以使用单引号。但是如果字符串中既需要使用单引号又要用到双引号,那就要用到转义字符了 单引号转义字符:\' 阅读全文
posted @ 2018-10-14 08:26 stone1234567890 阅读(181) 评论(0) 推荐(0) 编辑
摘要: 每日一博 《python编程快速上手》第 第三章:函数 1. 第一行是一个def语句,定义了一个名为hello()的函数。def之后的代码块是函数体,这段代码在调用的时候才会执行,而不是在第一次定义的时候执行。函数之后的语句行就是进行函数的调用。在代码中,函数调用就是函数名跟上括号名,也许在括号名之 阅读全文
posted @ 2018-10-12 19:12 stone1234567890 阅读(545) 评论(0) 推荐(0) 编辑
摘要: 这段时间学习遇到了一些问题,所以决定还是看一下书,第一本书《Python编程快速上手 让繁琐工作自动化》 第一章:Python基础 1.数学操作符,优先级从高到底 **(指数) >%(取模/取余数) >//(取整/商数取整) >/(除法) >*(乘法) >-(减法) >+(加法) 2.整形、浮点型和 阅读全文
posted @ 2018-10-11 17:40 stone1234567890 阅读(446) 评论(0) 推荐(0) 编辑
摘要: 数据分析工具pandas一、什么是Pandas 1.Pandas是一个强大的分析结构化数据的工具集 2.基础是Numpy,提供了高性能的矩阵运算 3.应用,数据挖掘,数据分析。如学生成绩分析、股票数据分析等 4.提供数据清洗等功能二、pamdas的数据结构 [第一种数据结构]1.Series 类似于 阅读全文
posted @ 2018-10-11 14:20 stone1234567890 阅读(548) 评论(0) 推荐(0) 编辑
摘要: 环境部署 一、安装Anaconda 1.Anaconda是python的一个科学计算发行版,内置了数百个python经常会使用的库,也包括了机器学习或者数据挖掘的库,如Scikit-learn,Numpy,Scipy和pandas等,其中有一些可能有一些TensorFlow依赖库 2.Anacond 阅读全文
posted @ 2018-10-09 14:06 stone1234567890 阅读(565) 评论(0) 推荐(0) 编辑
摘要: 学习目录 1.常用格式的本地数据读写 2.SQL常用语法讲解 3.Python的数据库基本操作 4.数据库多表连接的用法详解 5.实战案例:欧洲职业足球数据库分析一、常用的数据分析文件格式:txt,csv,json,xml,xsl,xslx,HDF。其他可以转换成以上格式的数据文件:如GIS的.db 阅读全文
posted @ 2018-10-05 18:43 stone1234567890 阅读(136) 评论(0) 推荐(0) 编辑
摘要: 一、NumPy 1.NumPy:Numberical Python 2.高性能科学计算和数据分析的基础包 3.ndarray,多维数组(矩阵),具有矢量运算的能力,快速、节省空间 (1)ndarray,N维数组对象(矩阵) (2)所有元素必须是相同类型 (3)ndim属性,维度个数 (4)shape 阅读全文
posted @ 2018-10-02 21:59 stone1234567890 阅读(694) 评论(0) 推荐(0) 编辑
摘要: python基础回顾 1.Ipython魔术命令 %timeit //多次执行一条语句,并返回平均时间,%%time->多条语句,用于测试一条语句用了多少时间 %time //返回执行一条语句的时间 %rest //删除当前空间的全部变量 %run*.py //在IPython中执行python脚本 阅读全文
posted @ 2018-09-30 15:03 stone1234567890 阅读(354) 评论(0) 推荐(0) 编辑
摘要: 学习spark,RDD是一个逃不过去的话题,那么接下来我们看看RDD 1.什么是RDD? RDD叫做弹性分布式数据集,是Spark中最基本的数据抽象,代表一个不可变、可分区、里面元素可以并行计算的集合。RDD具有数据流模型的特点:自动容错、位置感知性调度和可伸缩性。RDD允许用户在执行多个查询时显式 阅读全文
posted @ 2018-09-30 07:29 stone1234567890 阅读(508) 评论(0) 推荐(0) 编辑
摘要: 使用spark实现work count (1)用sc.textFile(" ") 来实现文件的加载 (2)元素拿来之后对集合中的每个元素进行切割,按照空格进行切割 def map[U](f:String=>U)(implict evidence$3:scala.reflect.ClassTag[u] 阅读全文
posted @ 2018-09-29 18:51 stone1234567890 阅读(238) 评论(0) 推荐(0) 编辑
上一页 1 ··· 16 17 18 19 20 21 22 23 24 ··· 28 下一页