摘要: 优化算法 Batch梯度下降法每次对整个训练集进行计算,这在数据集很大时计算效率低下,因为每次更新权重前必须先处理整个训练集。 可以将训练集划分为多个小子集,称为mini-batch。每次只使用一个mini-batch来计算梯度并更新参数。取出 \(x^{(1)}\) 到 \(x^{(1000)}\ 阅读全文
posted @ 2024-11-21 15:35 钰见梵星 阅读(0) 评论(0) 推荐(0) 编辑
摘要: 深度学习的实践层面 设计机器学习应用 在训练神经网络时,超参数选择是一个高度迭代的过程。我们通常从一个初步的模型框架开始,进行编码、运行和测试,通过不断调整优化模型。 数据集一般划分为三部分:训练集、验证集和测试集。常见的比例是60%用于训练,20%用于验证,20%用于测试。然而,当数据量非常大时, 阅读全文
posted @ 2024-11-19 23:26 钰见梵星 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 深度神经网络 这是一个深度神经网络 用 \(L=4\) 表示神经网络层数,用 \(n^{[l]}\) 表示第 \(l\) 层神经元数量,有 \(n^{[1]}=n^{[2]}=5\), \(n^{[3]}=3\), \(n^{[4]}=n^{[L]}=1\), \(n^{[0]}=n_x=3\)。 阅读全文
posted @ 2024-11-14 16:21 钰见梵星 阅读(2) 评论(0) 推荐(0) 编辑
摘要: 浅层神经网络 浅层神经网络通常指包含一个隐藏层的神经网络。这个网络由输入层、隐藏层和输出层构成: 输入层:输入层负责接收网络的输入特征,通常表示为列向量 \(x^T = [x_1, x_2, x_3]\),每个输入特征 \(x_i\) 代表样本的一个属性。输入特征的激活值 \(a^{[0]}\) 就 阅读全文
posted @ 2024-11-12 20:26 钰见梵星 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 神经网络基础知识 二分类任务(Binary Classification) 在二分类问题中,目标是将输入(如图片、文本或其他数据)分为两类之一,通常使用标签0和1来表示不同的类别。以图像识别为例,假设我们需要判断一张图片中是否包含猫。我们可以将包含猫的图片标记为标签1,不包含猫的图片标记为标签0。模 阅读全文
posted @ 2024-11-08 18:08 钰见梵星 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 深度学习引言 假定想要根据房屋面积拟合一个预测房价的函数,我们令房屋面积作为神经网络的输入\(x\),通过一个神经元进行预测,最终输出价格\(y\)。这就是最简单的单神经网络(感知机),神经元对输入进行加权求和,加上偏置,然后通过一个激活函数得到输出。 \[y=f(wx+b) \]为了捕捉更复杂的非 阅读全文
posted @ 2024-11-06 14:23 钰见梵星 阅读(52) 评论(0) 推荐(0) 编辑
摘要: Shell 是一种用户与操作系统内核进行交互的界面。它是命令行解释器,用户通过输入命令,Shell 解释并执行这些命令,从而操作系统中的各种功能得以实现。 脚本需要以#!/bin/bash开头,并赋予执行权限 脚本的执行方式: 赋予脚本执行权限chmod u+x hello.sh,然后通过相对路径. 阅读全文
posted @ 2024-05-17 14:53 钰见梵星 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 判断矩阵是否满足条件 给定二维矩阵,判断所有格子是否满足如下条件: 如果它下面的格子存在,那么它需要等于它下面的格子 如果它右边的格子存在,那么它需要不等于它右边的格子 遍历二维矩阵,简单模拟即可。 class Solution { public: bool satisfiesConditions( 阅读全文
posted @ 2024-05-13 10:38 钰见梵星 阅读(10) 评论(0) 推荐(0) 编辑
摘要: numpy其他函数 import numpy as np # 数组拼接 t1 = np.arange(12).reshape((2, 6)) t2 = np.arange(12, 24).reshape((2, 6)) print(t1) print(t2) print("*"*50) print( 阅读全文
posted @ 2024-03-05 16:55 钰见梵星 阅读(6) 评论(0) 推荐(0) 编辑
摘要: numpyNaN nan(NAN,Nan):not a number表示不是一个数字 什么时候numpy中会出现nan: 当我们读取本地的文件为float的时候,如果有缺失,就会出现nan 当做了一个不合适的计算的时候(比如无穷大(inf)减去无穷大) inf(-inf,inf):infinity, 阅读全文
posted @ 2024-03-05 16:55 钰见梵星 阅读(14) 评论(0) 推荐(0) 编辑