Toriyung

导航

2022年8月9日 #

C++新知识点:类和对象

摘要: 学过python,基本差不多的东西 C++中,访问权限分为三类: public: 类内外 protected: 类内(继承可以访问) private: 类内(继承也不可以访问) 定义实例: 注意结尾有" ;" class My: { public: int age; }; 和struct的关系: 基 阅读全文

posted @ 2022-08-09 22:54 Toriyung 阅读(19) 评论(0) 推荐(0) 编辑

C++新知识点:函数重载

摘要: 个人理解: 对于同个函数名,定义不同输入,可以作为不同函数功能使用 如: void func1(int a,int b) { //function1 } void func1(float a, float b) { //function2 } 两个同名函数,但是形参不同,功能也不同,当调用时直接调用 阅读全文

posted @ 2022-08-09 15:37 Toriyung 阅读(4) 评论(0) 推荐(0) 编辑

2022年8月5日 #

py文件在pycharm可运行但直接点击py文件运行则闪退的问题解决

摘要: 情况: 使用pycharm编写py文件,调试中运行没有问题 在文件夹下,直接点击py文件使用python.exe运行闪退/一闪而过,使用cmd运行后报错“ModuleNotFoundError: No module named 'xxx” 分析: pycharm中编写程序时我是在虚拟环境下编写的,包 阅读全文

posted @ 2022-08-05 16:08 Toriyung 阅读(2002) 评论(0) 推荐(0) 编辑

2022年8月4日 #

C++新知识点:内存四区

摘要: 代码区: 存放代码,具有共享性(多次使用的代码只存放一个地方反复使用);只读性(不可修改) 全局区: 存放全局变量,静态变量,字符串常量,const全局常量 栈区: 编译器自动分配释放,存放局部变量和函数形参等,当函数1中调用函数2时,将函数1中函数2后一句代码的地址保存到LR并加入栈区,当函数2结 阅读全文

posted @ 2022-08-04 16:48 Toriyung 阅读(26) 评论(0) 推荐(0) 编辑

C++新知识点:结构体

摘要: 由于之前学过python,结构体可以用类来类比着学习 定义 struct MY //Struct是关键字,MY是自己定义的结构体名 { string name; int age; float score; }my1; //my1可以在定义的时候顺便创建变量 创建结构体(三种方式) 1. 在定义中顺便 阅读全文

posted @ 2022-08-04 16:16 Toriyung 阅读(40) 评论(0) 推荐(0) 编辑

2022年7月31日 #

C++新知识点:跳转语句goto

摘要: int a = 0; goto FLAG; //FLAG可以是任意名称 a = 1; FLAG: cout << a << endl; 以上代码的结果就是输出a=0 goto语句将跳转到goto后面的标志位,标志位下写入执行程序。 看着跟汇编有点像 阅读全文

posted @ 2022-07-31 16:09 Toriyung 阅读(86) 评论(0) 推荐(0) 编辑

神经网络:学习率衰减

摘要: 比较简单的道理: 当刚开始进行训练/进行梯度下降时,距离0梯度还有很长一段过程,所以此时可以大胆地提高训练步长,即保持高学习率 而当梯度下降到一定程度,差不多在0梯度或目标梯度附近变动时,此时若保持高学习率,会造成无法收敛(如图蓝色曲线),所以需要降低学习率,以小步长进行梯度下降 常见的学习率衰减方 阅读全文

posted @ 2022-07-31 16:00 Toriyung 阅读(101) 评论(0) 推荐(0) 编辑

神经网络优化:Adam(Adaptive Moment Estimation)

摘要: Adam算法其实就是结合了动量梯度下降法和RMSprop算法,是最广为使用的算法,在大多数情况下都有效果。 动量梯度算法和RMSprop算法的复习: 动量:https://www.cnblogs.com/toriyung/p/16467289.html RMS:https://www.cnblogs 阅读全文

posted @ 2022-07-31 15:42 Toriyung 阅读(334) 评论(0) 推荐(0) 编辑

神经网络优化:RMSprop(均方根传播梯度下降法)

摘要: 最终目的仍是减少振荡方向(b)的更新幅度,提高前进方向(ω)的更新幅度 引入Sdω和Sdb,如公式表达,由于dω<db,求其均方根作为分母,实现ω的更新幅度大,而b的更新幅度小 注意 1. 使用中为了避免出现√Sdω=0导致除数为0的情况出现,应令√(Sdω+ε) (吴恩达视频中建议ε=1e-8) 阅读全文

posted @ 2022-07-31 15:22 Toriyung 阅读(683) 评论(0) 推荐(0) 编辑

神经网络优化-动量梯度下降法(牛顿法)

摘要: 背景 对于标准梯度下降过程,wt的更新是wt=wt-1+△w,而wt=wt-1-△w仅仅是对于当前点wt的△w,没有对于历史数据的考量(通俗点说叫经验教训) 结果就是下降(优化)过程前进方向速度缓慢,同时产生振荡(如图红线) 据此引入冲量v,令vt=vt-1-△w,由迭代思想知冲量v代表着从初始到当 阅读全文

posted @ 2022-07-31 14:20 Toriyung 阅读(568) 评论(0) 推荐(0) 编辑