会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
等风南吹
Powered by
博客园
博客园
|
首页
|
新随笔
|
联系
|
订阅
|
管理
上一页
1
2
3
4
下一页
2021年4月2日
实现Trie(前缀树)(多叉树)
摘要: 题目描述 Trie(发音类似 "try")或者说 前缀树 是一种树形数据结构,用于高效地存储和检索字符串数据集中的键。这一数据结构有相当多的应用情景,例如自动补完和拼写检查。 请你实现 Trie 类: Trie() 初始化前缀树对象。 void insert(String word) 向前缀树中插入
阅读全文
posted @ 2021-04-02 10:40 等风南吹
阅读(121)
评论(0)
推荐(0)
编辑
零钱兑换(动态规划)
摘要: 题目描述 给定不同面额的硬币 coins 和一个总金额 amount。编写一个函数来计算可以凑成总金额所需的最少的硬币个数。如果没有任何一种硬币组合能组成总金额,返回 -1。 你可以认为每种硬币的数量是无限的。 示例 1: 输入:coins = [1, 2, 5], amount = 11输出:3
阅读全文
posted @ 2021-04-02 09:58 等风南吹
阅读(208)
评论(0)
推荐(0)
编辑
字母异位词分组(Hash表映射)
摘要: 题目描述 给定一个字符串数组,将字母异位词组合在一起。字母异位词指字母相同,但排列不同的字符串。 示例: 输入: ["eat", "tea", "tan", "ate", "nat", "bat"]输出:[ ["ate","eat","tea"], ["nat","tan"], ["bat"]] 思
阅读全文
posted @ 2021-04-02 00:14 等风南吹
阅读(95)
评论(0)
推荐(0)
编辑
2021年3月14日
卷积神经网络
摘要: 整体结构 CNN 中新增了Convolution 层和Pooling 层。CNN 的层的连接顺序是“Convolution - ReLU -(Pooling)”(Pooling 层有时会被省略)。靠近输出的层中使用了之前的“Affi ne - ReLU”组合。此外,最后的输出层中使用了之前的“Aff
阅读全文
posted @ 2021-03-14 23:33 等风南吹
阅读(69)
评论(0)
推荐(0)
编辑
2020年8月18日
SVD奇异值分解
摘要: 奇异值分解在数据降维中有着诸多应用,在机器学习中也是满地可见。它跟特征值分解一样,都是提取矩阵最重要的特征。 1)特征值 向量v是矩阵A的特征向量,则可以表示成:Av = λv λ为特征向量v对应的特征值,一个矩阵的特征向量是一组正交向量。特征值分解是将一个矩阵分解成 A = Q∑Q-1 Q是矩阵A
阅读全文
posted @ 2020-08-18 00:55 等风南吹
阅读(139)
评论(0)
推荐(0)
编辑
2020年6月17日
Attention Scaling for Crowd Counting
摘要: 2020 CVPR ,这里只对Attention Scaling for Crowd Counting做简要叙述,因英语水平有限,部分叙述有误的地方,请多多指点。需要的话请看原文:https://github.com/gjy3035/Awesome-Crowd-Counting 摘要 人群计数的主要
阅读全文
posted @ 2020-06-17 22:07 等风南吹
阅读(1383)
评论(0)
推荐(0)
编辑
2019年8月21日
plt画图
摘要: import numpy as np import PIL.Image as Image from matplotlib import pyplot as plt from matplotlib import cm as CM ax = plt.subplot(121) k = np.random.randn(256,256) plt.imshow(k,cmap=CM.jet) plt.axi...
阅读全文
posted @ 2019-08-21 17:05 等风南吹
阅读(309)
评论(0)
推荐(0)
编辑
2019年6月26日
机器学习相关技巧
摘要: 参数的更新 神经网络的学习的目的是找到使损失函数的值尽可能小的参数。这是寻 找最优参数的问题,解决这个问题的过程称为最优化(optimization)。 SGD 这里把需要更新的权重参数记为W,把损失函数关于W的梯度记为 。 η表示学习率,实际上会取0.01或0.001这些事先决定好的值。式子中的表
阅读全文
posted @ 2019-06-26 22:43 等风南吹
阅读(245)
评论(0)
推荐(0)
编辑
2019年6月24日
数值微分
摘要: 像这样的由全部变量的偏导数汇总而成的向量称为梯度(gradient),梯度可以像下面这样来实现,这里使用的是用数值微分求梯度的方法。 梯度法 虽然梯度的方向并不一定指向最小值,但沿着它的方向能够最大限度地减小函数的值。因此,在寻找函数的最小值(或者尽可能小的值)的位置的任务中,要以梯度的信息为线索,
阅读全文
posted @ 2019-06-24 23:19 等风南吹
阅读(572)
评论(0)
推荐(0)
编辑
基于误差反向传播法的神经网络学习的全貌图
摘要: 前提 神经网络中有合适的权重和偏置,调整权重和偏置以便拟合训练数据的过程称为学习。神经网络的学习分为下面4 个步骤。 步骤1(mini-batch) 从训练数据中随机选择一部分数据。步骤2(计算梯度) 计算损失函数关于各个权重参数的梯度。步骤3(更新参数) 将权重参数沿梯度方向进行微小的更新。步骤4
阅读全文
posted @ 2019-06-24 20:25 等风南吹
阅读(305)
评论(0)
推荐(0)
编辑
上一页
1
2
3
4
下一页