上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 49 下一页
摘要: 1 import threading 2 import socket 3 4 def recv_msg(udp_socket): 5 recv_data = udp_socket.recvfrom(1024) 6 print(recv_data) 7 8 def send_msg(udp_socke 阅读全文
posted @ 2020-03-26 16:48 kog_maw 阅读(330) 评论(0) 推荐(0) 编辑
摘要: tcp严格区分客户端和服务器,udp则没有,tcp需要通过三次握手四次挥手来保证数据传输的安全性,而udp没有 1 import socket 2 3 def main(): 4 '''客户端''' 5 # 1、创建套接字 6 tcp_client_socket = socket.socket(so 阅读全文
posted @ 2020-03-26 16:47 kog_maw 阅读(117) 评论(0) 推荐(0) 编辑
摘要: 1 import socket 2 3 def send_msg(udp_socket): 4 """发送消息""" 5 # 获取要发送的内容 6 dest_ip = input('请输入对方的IP:') 7 dest_port = int(input('请输入对方的端口号:')) 8 send_d 阅读全文
posted @ 2020-03-26 16:43 kog_maw 阅读(127) 评论(0) 推荐(0) 编辑
摘要: # 集成学习方法:集成学习是通过建立几个模型组合来解决单一预测问题,它的工作原理是生成对个分类器/模型,各自独立地学习和做出预测,最后结合成预测单预测,因此优于任何一个单分类做出的预测 # 随机森林就是包含多个决策树的分类器,并且输出的类别是由个别树输出的类别的众数而定 import pandas 阅读全文
posted @ 2020-03-26 16:40 kog_maw 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 决策树重要概念: 信息熵:信息越纯信息熵越小,信息越杂信息熵越大,决策树生成的原则就是不断减小信息熵的过程,而分支依据就是哪个变量提供信息增益(信息增益比,基尼系数)越大,就选择哪个变量作为分类依据 衡量信息熵变化大小的指标:信息增益,信息增益比,基尼系数(sklearn默认),三者的基本原则都是计 阅读全文
posted @ 2020-03-26 16:35 kog_maw 阅读(256) 评论(0) 推荐(0) 编辑
摘要: # 交叉验证:将拿到的训练数据,分为训练集和验证集,以下图为例:将数据分成四份,其中一份作为验证集,然后经过5次测试,每次更换不同的验证集,即得到5组模型的结果,取平均值作为最终结果,又称4折交叉验证,一般经验都是做10折交叉验证 模型调优最主要的是在业务方向进行,大概占到80%的贡献度,而参数调优 阅读全文
posted @ 2020-03-26 14:15 kog_maw 阅读(268) 评论(0) 推荐(0) 编辑
摘要: 二分类模型评估,多分类转换成二分类# 最常用的是准确率,即预测结果正确的百分比# 混淆矩阵:在分类任务下,预测结果与正确标记之间存在四种不同的组合,构成混淆矩阵(适用于多分类),真正例TP,伪正例FP,伪反例FN,真反例TN# 混淆矩阵中的召回率:真实为正例的样本中预测结果为正例的比例(查的全,对正 阅读全文
posted @ 2020-03-26 14:13 kog_maw 阅读(167) 评论(0) 推荐(0) 编辑
摘要: https://baike.baidu.com/item/%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF/4925905 from sklearn.datasets import load_iris, fetch_20newsgroups from skl 阅读全文
posted @ 2020-03-26 00:24 kog_maw 阅读(202) 评论(0) 推荐(0) 编辑
摘要: """ K-近邻算法(KNN):如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别) K取值问题:取小容易受异常值影响,取太大预测准确率不好 性能问题:时间复杂度很高,计算量太大,适用小数据场景,于几千~几万样本 """ from skl 阅读全文
posted @ 2020-03-25 23:52 kog_maw 阅读(169) 评论(0) 推荐(0) 编辑
摘要: """ 机器学习算法分类: 监督学习(有目标值) 分类(目标值是离散型数据):K-近邻算法、贝叶斯分类、决策树与随机森林、逻辑回归、神经网络 回归(目标值是连续型数据):线性回归、岭回归 无监督学习(无目标值):聚类 K-means 机器学习一般会把数据集划分为训练集(3/4)和测试集(1/4),可 阅读全文
posted @ 2020-03-25 23:50 kog_maw 阅读(271) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 49 下一页