徐-清风
进步在于--总结
摘要: 前言 通常来说,在传统零售行业中80%的收益来自于20%的客户,因此对客户的价值进行分类显得尤其重要,而在本文我们基于批发经销商客户的真实消费数据,建立K-means聚类模型来对客户价值进行细分。 目录 1. 数据来源及背景 2. 明确分析目的 3. 数据探索分析 4. 数据预处理 5. 构建模型 阅读全文
posted @ 2019-01-07 14:19 徐-清风 阅读(3125) 评论(0) 推荐(0) 编辑
摘要: 前言 员工离职,似乎已经成为每一家企业都要面对的问题,特别是优秀人才离职的问题会让领导特别头疼。今天我们就通过kaggle上某一家企业员工离职的真实数据来对离职率进行分析建模,并对预测结果显示要离职的员工提出挽留建议。 目录 1. 数据来源及背景 2. 明确分析目的 3. 数据探索分析 4. 数据预 阅读全文
posted @ 2019-01-02 12:55 徐-清风 阅读(16620) 评论(2) 推荐(5) 编辑
摘要: 前言 现如今,共享单车在生活中可谓处处可见,那么它的租赁需求是多少呢?今天我们就基于美国华盛顿共享单车的租赁数据,对租赁需求进行预测。 目录 1. 数据来源及背景 2. 数据探索分析 3. 数据预处理 4. 可视化分析 5. 回归分析 正文 1. 数据来源及背景 数据来源: https://www. 阅读全文
posted @ 2018-12-25 10:12 徐-清风 阅读(10495) 评论(1) 推荐(1) 编辑
摘要: 前言 本次项目是就某联合循环发电厂的数据,运用线性回归模型进行预测电能输出,若文中出现错误的地方,还望指正,谢谢! 目录 1. 数据来源及背景 2. 数据探索分析 3. 相关分析 4. 回归分析 5. 多重共线性 6. 模型应用 正文 1. 数据来源及背景 数据来源: http://archive. 阅读全文
posted @ 2018-12-15 18:05 徐-清风 阅读(4320) 评论(1) 推荐(0) 编辑
摘要: 前言 生活中,大多数人会将看电视或看电影作为一种休闲娱乐方式,而在观看的途中或结束后也会产生相应的评论,这一系列的评论往往代表了评论者当时的情感倾向,下面我们就优酷电视剧《回到明朝当王爷之杨凌传》的评论进行情感分析。 目录 1. 明确分析目的和思路 2. 收集数据 3. 数据预处理 4 构建模型 5 阅读全文
posted @ 2018-11-16 13:43 徐-清风 阅读(6796) 评论(2) 推荐(1) 编辑
摘要: 本次实战是利用爬虫爬取链家的新房(声明: 内容仅用于学习交流, 请勿用作商业用途) 环境 win8, python 3.7, pycharm 正文 1. 目标网站分析 通过分析, 找出相关url, 确定请求方式, 是否存在js加密等. 2. 新建scrapy项目 1. 在cmd命令行窗口中输入以下命 阅读全文
posted @ 2018-11-09 17:58 徐-清风 阅读(1137) 评论(0) 推荐(0) 编辑
摘要: 本次主要围绕数据分析岗位的招聘情况, 进行一个简单的数据分析 环境 win8, python3.7, pycharm, jupyter notebook 正文 1. 明确分析目的 了解数据分析岗位的最新招聘情况, 包括地区分布, 学历要求, 经验要求, 薪资水平等. 2. 数据收集 这里借助爬虫, 阅读全文
posted @ 2018-11-02 13:37 徐-清风 阅读(12542) 评论(7) 推荐(9) 编辑
摘要: 本次主要围绕Iris数据集进行一个简单的数据分析, 另外在数据的可视化部分进行了重点介绍. 环境 win8, python3.7, jupyter notebook 目录 1. 项目背景 2. 数据概览 3. 特征工程 4. 构建模型 正文 1. 项目背景 鸢尾属(拉丁学名:Iris L.), 单子 阅读全文
posted @ 2018-10-26 18:25 徐-清风 阅读(30843) 评论(1) 推荐(3) 编辑
摘要: 本次项目主要围绕Kaggle上的比赛题目: "给出泰坦尼克号上的乘客的信息, 预测乘客是否幸存" 进行数据分析 环境 win8, python3.7, jupyter notebook 目录 1. 项目背景 2. 数据概览 3. 特征分析 4. 特征工程 5. 构建模型 正文 1. 项目背景 泰坦尼 阅读全文
posted @ 2018-10-24 17:37 徐-清风 阅读(8147) 评论(3) 推荐(5) 编辑
摘要: 本文主要是利用scrapy框架爬取果壳问答中热门问答, 精彩问答的相关信息 环境 win8, python3.7, pycharm 正文 1. 创建scrapy项目文件 在cmd命令行中任意目录下执行以下代码, 即可在该目录下创建GuoKeWenDa项目文件 scrapy startproject 阅读全文
posted @ 2018-10-15 19:32 徐-清风 阅读(517) 评论(0) 推荐(0) 编辑