03 2020 档案

摘要:1. 请阐述监督学习,半监督学习,无监督学习和弱监督学习区别 监督学习: 给定数据,预测标签。通过已有的一部分输入数据与输出数据之间的对应关系,生成一个函数,将输入映射到合适的输出,例如分类。 半监督学习: 但是使用的数据,一部分是标记过的,而大部分是没有标记的。综合利用有类标的和没有类标的数据,来 阅读全文
posted @ 2020-03-31 15:58 lzping 阅读(798) 评论(0) 推荐(0)
摘要:转自 一、函数sort() sort() :仅对list对象进行排序,会改变list自身的顺序,没有返回值,即原地排序; list.sort(key=None, reverse=False) key :设置排序方法,或指定list中用于排序的元素; reverse :升降序排列,默认为升序排列; 一 阅读全文
posted @ 2020-03-30 20:46 lzping 阅读(271) 评论(0) 推荐(0)
摘要:1. 正则化定义 修改学习算法,使其降低泛化误差(generalization error)而非训练误差。最新定义:旨在更好实现模型泛化的补充技术,即在测试集上得到更好的表现。(Kukacka et al,2017) 2. 正则化用途 正则化是为了防止过拟合, 进而增强模型的泛化能力。 3. 正则化 阅读全文
posted @ 2020-03-23 20:12 lzping 阅读(997) 评论(0) 推荐(0)
摘要:规范化、归一化、标准化、中心化 规范化指的是对数据进行规范处理,包含归一化、标准化和中心化。归一化包括最大最小归一化、均值归一化。 维基百科中对规范化的方法有定义,详细可见 1. 最大最小归一化 (min max normalization, rescaling) 经过此方法放缩后,数据范围会被限制 阅读全文
posted @ 2020-03-22 17:35 lzping 阅读(1505) 评论(0) 推荐(0)
摘要:转自: 对于训练集,验证集,测试集的概念,很多人都搞不清楚。网上的文章也是鱼龙混杂,因此,现在来把这方面的知识梳理一遍。让我们先来看一下模型验证(评估)的几种方式。 在机器学习中,当我们把模型训练出来以后,该怎么对模型进行验证呢?(也就是说怎样知道训练出来的模型好不好?)有以下几种验证方式: 第一种 阅读全文
posted @ 2020-03-10 12:29 lzping 阅读(1083) 评论(0) 推荐(0)
摘要:list 1. 创建 2. 访问 3. 添加 4. 删除 5. 遍历 6. 切片 7. 排序 tuple 1. 创建 2. 访问、遍历 同list, 但元组数据不可修改,故无添加、修改和删除操作 dictionary 1. 创建 2. 访问 3. 添加、修改 4. 删除 5. 获取键值对集合 set 阅读全文
posted @ 2020-03-08 12:14 lzping 阅读(380) 评论(0) 推荐(0)
摘要:效果如下: 1. 下载并安装VcXsrv 链接如下: 下载完安装一路next即可,或者自行选择安装路径 2. 安装桌面环境 安装xfce4 terminal 指定DISPLAY,并写入.bashrc,这样下次打开就不用重新指定 执行.bashrc 3. 启动 (1) 安装完VcXsrv会在桌面生成X 阅读全文
posted @ 2020-03-03 12:24 lzping 阅读(2605) 评论(0) 推荐(0)
摘要:开启WSL可选特性 下载安装ubuntu 打开Microsoft Store,搜索Linux,选择任意版本,这里我选择的是ubuntu,然后安装即可 打开 打开有两种方式: 1. 点击开始菜单里的linux图标可打开linux命令行 2. win+r输入bash也可以打开 阅读全文
posted @ 2020-03-03 12:03 lzping 阅读(385) 评论(0) 推荐(0)
摘要:`sudo apt get install E: Sub process /usr/bin/dpkg returned an error code (1)` 1. 进入目录 2. 将info文件夹更名 3. 新建一个新的info文件夹 4. 更新 5. 修复 6. 执行完上一步操作后会在新的info 阅读全文
posted @ 2020-03-03 11:24 lzping 阅读(245) 评论(0) 推荐(0)
摘要:1. 打开配置文件 2. 替换官方源为阿里云源 `:%s/archive.ubuntu/mirrors.aliyun/g` 3. 更新源 `sudo apt upgrade` 阅读全文
posted @ 2020-03-02 23:57 lzping 阅读(1225) 评论(0) 推荐(0)