上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 30 下一页
摘要: 微软工程院找硕士概率更大 阅读全文
posted @ 2020-04-18 00:02 黑暗尽头的超音速炬火 阅读(138) 评论(0) 推荐(0) 编辑
摘要: 人是一根有思想,有梦想的苇草 希望不要断了,每天总结错题以及知识点,第二天早上复习 现在已经到了刷题的关键阶段,尽量把前100刷精,刷透,用电子版写只是怕丢和好排版,希望大部分知识点还是能默写和自己话说。 昨天发现对知识点的把握不够精准,实在不行可能得背概念了 1.C++中vector和set的转化 阅读全文
posted @ 2020-04-06 16:57 黑暗尽头的超音速炬火 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 1.jupyter&conda combine space enviorment target: when we new a notebook we can use the conda enviorment we have been create; main part just follow net 阅读全文
posted @ 2020-04-01 15:10 黑暗尽头的超音速炬火 阅读(116) 评论(0) 推荐(0) 编辑
摘要: 1.写的很好的关于如何找超参数网址 https://www.jiqizhixin.com/articles/101401 阅读全文
posted @ 2020-03-31 22:00 黑暗尽头的超音速炬火 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 老夫竟然用C++写机器学习了。有趣 转载下这个大佬总结的流程,感觉说的很好 https://github.com/myazi/myDL 阅读全文
posted @ 2020-03-26 19:12 黑暗尽头的超音速炬火 阅读(121) 评论(0) 推荐(0) 编辑
摘要: BONUS: vector pop_back()删除最后一个元素但是不要加参数 collections容器类型,在python中对队列,map,deque等进行实现 https://docs.python.org/zh-cn/3/library/collections.html MS的面经竟然还有智 阅读全文
posted @ 2020-03-25 06:21 黑暗尽头的超音速炬火 阅读(147) 评论(0) 推荐(0) 编辑
摘要: 1.why we clear gradient in optimizer && step's meaningimport torch.optim as optim # 创建optimizer,需要传入参数和learning rate optimizer = optim.SGD(net.paramet 阅读全文
posted @ 2020-03-24 10:08 黑暗尽头的超音速炬火 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 1.最小二乘==使得平方差最小的方法 2.pytorch训练和测试,即train test用的是同一个网络,不同在于train,会加损失计算,梯度回传。test时候则不需要。 两者都是通过网络计算结果,但是后续的处理是不一样的,在代码上体现的不同是 train: net——》output——》los 阅读全文
posted @ 2020-03-14 17:33 黑暗尽头的超音速炬火 阅读(597) 评论(0) 推荐(0) 编辑
摘要: // /** // * Definition for a binary tree node. // * struct TreeNode { // * int val; // * TreeNode *left; // * TreeNode *right; // * TreeNode(int x) : 阅读全文
posted @ 2020-03-11 07:38 黑暗尽头的超音速炬火 阅读(110) 评论(0) 推荐(0) 编辑
摘要: 真正胸怀天下的人,不会计较一城一池的得失,会抓重点,洞察人心,勤学敏思,心强体健,海纳百川,正所谓,国士无双 1.define头文件打标记用法 #include<bits/stdc++.h> #define de(x) cout<<#x<<"="<<x<<endl using namespace s 阅读全文
posted @ 2020-03-09 22:32 黑暗尽头的超音速炬火 阅读(169) 评论(0) 推荐(0) 编辑
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 30 下一页