摘要: Exercise 1:Linear Regression 实现一个线性回归 重要公式 1.h(θ)函数 2.J(θ)函数 思考一下,在matlab里面怎么表达?如下: 原理如下:(如果你懂了这道作业题,上面的也就懂了) 下面通过图形方式感受一下代价函数 : 3.θ迭代过程(梯度下降) First w 阅读全文
posted @ 2017-08-25 14:18 隅子酱 阅读(1167) 评论(0) 推荐(0) 编辑
摘要: 一、首先看看自己的系统,Ubuntu16.04,cpu,没有Nvidia,没有opencv 二、安装依赖包 安装protobuf,leveldb,snappy,OpenCV,hdf5, protobuf compiler andboost: 安装gflags,glogs ,lmdb andatlas 阅读全文
posted @ 2017-08-03 12:45 隅子酱 阅读(610) 评论(0) 推荐(0) 编辑
摘要: 一.修改源代码 cfg/coco.data 原因:在coco.c中定义的标签,人为第一个,所以改为1. examples/detector.c 二.重新编译和测试 1.重新编译 2.测试 三.结果 阅读全文
posted @ 2017-08-03 10:42 隅子酱 阅读(4920) 评论(3) 推荐(0) 编辑
摘要: 官网:https://pjreddie.com/darknet/yolo/ 以下全部在服务器上完成,服务器上是有opencv等。 1.安装Darknet 2.下载预先训练的权重文件(258 MB)。或者只是运行这个: 3.运行检测器 你会看到一些这样的输出: Darknet打印出它检测到的对象,它的 阅读全文
posted @ 2017-07-15 16:40 隅子酱 阅读(2834) 评论(0) 推荐(0) 编辑
摘要: 不建议用Ctex套装,不好用。 用MixTex+TexStudio! XeTeX处理中文非常方便,不需要任何设置,就能够使用系统中安装的TrueType和OpenType字体。 MikTeX2.7中已经集成了XeTeX 0.999.7,所以安装了MikTeX2.7之后,就已经有了XeTeX了。只需要 阅读全文
posted @ 2017-05-30 13:38 隅子酱 阅读(23417) 评论(0) 推荐(0) 编辑
摘要: 简单的说,组合电路,没有时钟;时序电路,有时钟。 ↓ 也就是说,组合逻辑电路没有记忆功能,而时序电路具有记忆功能。 ↓ 在VHDL语言中,不完整条件语句对他们二者的影响分别是什么?组合逻辑中可能生成锁存器,因为不完整语句的没写的一部分视为保持原值,需要锁存器来保存,锁存器的出发边沿就是写了的那部分的 阅读全文
posted @ 2017-04-18 19:50 隅子酱 阅读(2850) 评论(0) 推荐(0) 编辑
摘要: 1.Unsigned adders 这个比较简单,只需在A、B前面扩展一位0防止溢出,溢出的数填到第n位cout,n-1到0位就是sum。 , 2.Signed adders 一开始也搞不懂下图中为什么要扩展符号位,两个符号位了怎么加? 往下看↓ 2.1 Analysis 在真正开始使用Verilo 阅读全文
posted @ 2017-04-10 17:33 隅子酱 阅读(9109) 评论(0) 推荐(0) 编辑
摘要: 1. 感知机学习模型 感知机是一个二分类的线性分类问题,求解是使误分类点到超平面距离总和的损失函数最小化问题。采用的是随机梯度下降法,首先任意选取一个超平面w0和b0,然后用梯度下降法不断地极小化目标损失函数,极小化过程中不是一次使所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降。假 阅读全文
posted @ 2017-04-07 21:38 隅子酱 阅读(911) 评论(0) 推荐(0) 编辑
摘要: 绘制直方图 1.出错代码(没有意识到图片是彩色的要转换为灰度二维) 2.正确代码 或者直接imhist(image)图就出来了。 直方图均衡 使用matlab工具箱histeq,g=histeq(f,nlev),nlev为灰度级数。 均衡实质是归一化直方图累加求和,还可以用 阅读全文
posted @ 2017-03-18 16:13 隅子酱 阅读(792) 评论(0) 推荐(0) 编辑
摘要: imadjust函数是MATLAB的一个工具箱函数,一般的语法调用格式为: g=imadjust(f,[low_in high_in],[low_out high_out],gamma) 把图像f 灰度变换到新图像g的过程中,f 中灰度值低于low_in的像素点在g中灰度值被赋值为low_out,同 阅读全文
posted @ 2017-03-18 15:16 隅子酱 阅读(1086) 评论(0) 推荐(0) 编辑