02 2023 档案

摘要:MNIST数据集合 MNIST数据集共有训练数据60 000项,测试数据10 000项,每一项都是由images和label组成。图像大小都是28 x 28。 数据预处理 导入需要的模块 import numpy as np import pandas as pd from keras.utils 阅读全文
posted @ 2023-02-27 20:56 Laplace蒜子 阅读(112) 评论(0) 推荐(0) 编辑
摘要:Tensorflow基本信息 Tensorflow所需处理器 CPU,GPU,TPU(Google为AI研发的专用芯片) 平台 Windows,Linux,Android,iOS,Raspberry Pi,云端执行 Tensorflowflow还支持分布式执行 前端程序语言 Python,C++ T 阅读全文
posted @ 2023-02-27 18:53 Laplace蒜子 阅读(21) 评论(0) 推荐(0) 编辑
摘要:标签作用 @Component:将类注册到Bean @ConfigurationProperties( prefix = "" ):用yml中的配置自动注入类 @Value(""):自动注入时的值或属性 @Autowired:启动自动注入 @PropertySource(value = "class 阅读全文
posted @ 2023-02-27 16:06 Laplace蒜子 阅读(15) 评论(0) 推荐(0) 编辑
摘要:The process of argument(论据的过程) Making a claim.(申明观点) Pointing out the opposing idea.(指出相反观点) Supporting the claim with evidence.(找到支撑观点的证据) showing th 阅读全文
posted @ 2023-02-25 20:53 Laplace蒜子 阅读(89) 评论(0) 推荐(0) 编辑
摘要:数学基础 线性代数部分 标量,有大小无方向....略 向量,有大小有方向...略 张量 标量是0阶张量,矢量是一阶张量,矩阵是二阶张量。三维以及以上数组称为张量 线性相关组 如果存在不全为0的数α1,α2,...,αt,使得: α1a1+α2a2+...+αtat=0,其中0为m维全零向量,那么向量 阅读全文
posted @ 2023-02-24 20:10 Laplace蒜子 阅读(33) 评论(0) 推荐(0) 编辑
摘要:神经网络基本概念 神经元基本结构 σ为激活函数,w为权重,x为输入,b为偏置项。 前馈全连接神经网络 ai(l)表示第l层第i个神经元的输出,向量a(l)表示第l层所有神经元的输出; wi,j(l)表示第l-1层第j个神经元到第l层第i个神经元之间连接权重。向量W(l)表示第l-1层神经元到第l层神 阅读全文
posted @ 2023-02-23 21:39 Laplace蒜子 阅读(98) 评论(0) 推荐(0) 编辑
摘要:理解云计算 云计算的定义 云计算是分布式计算的一种特殊形式,引入效用模型来远程供给可扩展和可测量的资源。 云计算相关技术 集群化:一组互联的IT资源,以整体形式工作。 网格计算:将计算资源组织成一个或者多个逻辑池,逻辑池统一协调成一个高性能分布式网络。 虚拟化:创建IT资源虚拟实例的技术平台。 基本 阅读全文
posted @ 2023-02-23 12:06 Laplace蒜子 阅读(85) 评论(0) 推荐(0) 编辑
摘要:数据挖掘定义 值对数据进行收集,清洗,加工和分析并从中获取有用知识的过程。 数据挖掘过程 数据采集 使用像传感器网络这样的专门硬件,手工录入的用户调查,或者如同Web爬虫工具来收集文档。 特征提取和数据清洗 上阶段获得的数据不适合直接进行处理,要转化为对数据挖掘算法较为合适的格式。 分析处理和算法 阅读全文
posted @ 2023-02-22 20:22 Laplace蒜子 阅读(44) 评论(0) 推荐(0) 编辑
摘要:通用计算机系统的层次结构 一共四层,被三个界面连接起来,分别为API,ISA,工艺模型。 应用程序编程接口API层 操作系统的指令系统,介于应用程序和操作系统之间。API 是建生态的起点。 指令系统ISA层 介于操作系统和硬件系统之间。指令系统ISA是实现软件兼容的关键。 工艺模型 是芯片生产厂家提 阅读全文
posted @ 2023-02-22 18:19 Laplace蒜子 阅读(56) 评论(0) 推荐(0) 编辑
摘要:马尔科夫模型 二阶马尔科夫模型案例 初始概率分布 状态转移概率分布 状态集合 状态集合S={sunny,cloudy,rainy}。 观测序列 观测状态序列可以是X=x1,...,xt,...,xT,其中xt∈S。 观测序列就是一个系列的状态。马尔科夫模型在计算状态序列的概率时,考虑了转移概率,也就 阅读全文
posted @ 2023-02-20 17:50 Laplace蒜子 阅读(305) 评论(0) 推荐(0) 编辑
摘要:1 自然语言的特点 线性:⾃然语⾔呈现为⼀种线性的符号序列。 层次性:⾃然语⾔内部存在层次结构。 歧义性:同⼀个⾃然语⾔句⼦存在多种不同的理解。 演化性:⾃然语⾔随着时代不断演化。 2 自然语言的典型任务 2.1 中文分词 输入:⼀段不带空格的汉语⽂本。 输出:以空格隔开词语的汉语⽂本。 高效的中文 阅读全文
posted @ 2023-02-20 14:15 Laplace蒜子 阅读(34) 评论(0) 推荐(0) 编辑
摘要:1 线性回归简介 1.1 回归与分类的区别 若预测的值是离散值,如年龄,此类任务位“分类”。 若预测的值是连续值,如房价,此类任务为“回归”。 1.2 回归的目标 学习一个从输入X到输出Y的映射f,并根据该模型,对新的测试数据x进行预测,简单来说,就是找到一个输入与输出之间的映射,用于与新的输入。 阅读全文
posted @ 2023-02-18 22:18 Laplace蒜子 阅读(347) 评论(0) 推荐(0) 编辑
摘要:1 相关概念 1.1 半监督学习的定义 同时利用有标注数据和无标注数据学习 1.2 半监督分类/回归 给定标注数据和无标注数据,学习得到一个分类器f,要求该分类器f比只用标注数据学习得到的学习器更优。 1.3 半监督聚类/降维 给定标注数据,但是另外对数据做一些限制 聚类:两个点必须在一个簇,或两个 阅读全文
posted @ 2023-02-17 17:39 Laplace蒜子 阅读(608) 评论(0) 推荐(0) 编辑
摘要:集成学习 产生原因 已经开发了很多机器学习算法,单个模型的性能已经调到了最优,很难在改进。 基本框架 将多个弱学习器进行融合,通过样本加权,学习器加权,获得比单一学习器性能更加优越的强学习器。 Bagging(Bootstrap aggregating) Bootstrap采样 给定包含N个样本的数 阅读全文
posted @ 2023-02-08 21:09 Laplace蒜子 阅读(42) 评论(0) 推荐(0) 编辑
摘要:聚类的定义 聚类是一种非监督学习任务,其目的是发现数据中隐含的结构。 相似度度量 样本之间的相似性对聚类的结果很关键,在聚类的时候,是根据相似度来聚类的。 定义距离参数 非负性:两个样本之间的距离只能大于等于0; 可辨识性:样本只与自己的距离为0,与其他样本不会重叠; 对称性:样本a到样本b的距离等 阅读全文
posted @ 2023-02-06 11:05 Laplace蒜子 阅读(516) 评论(0) 推荐(0) 编辑
摘要:降维的定义 降维是将高维数据变成低维表示,同时数据中蕴含的信息尽量保持不变。(高维 —> 低维) 降维是一种非监督学习任务。因为降维过程中不用样本的标签。(非监督) 降维的必要性 有时候虽然原始输入是高维数据,但这些输入特征之间有冗余。其本质维度可能很低。 降维方式 PCA降维 基本思路 对原数据样 阅读全文
posted @ 2023-02-02 22:23 Laplace蒜子 阅读(251) 评论(0) 推荐(0) 编辑
摘要:计算与传输重叠 工作模式 CPU与GPU之间交互有两个引擎: 内存复制引擎:负责CPU和GPU之间的数据传输。 核函数执行引擎:负责CPU向GPU部署核函数任务。 这两个引擎是相互独立的,可以并发执行。 查看是否支持 cudaGetDeviceProperties()函数,通过deviceOverl 阅读全文
posted @ 2023-02-01 21:43 Laplace蒜子 阅读(363) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示