2016年终碎碎念

  恍惚之间,2016已经过去了。回想起来,2016过得很漫长又很短暂。不开心的日子很多,煎熬很漫长。想到自己的收获时,又觉得时间过得那么快,虚度了光阴。无论如何,还是好好总结一波,争取2017有所进步。

## 1月与2月

  1月份基本在期盼着回家中虚度,几乎啥也没干,2月份在家没有网,也没带书回去,每天好吃懒做。总而言之就是荒废了两个月。

## 3月

  3月参加了百度的ife前端技术学院,在微博上跟几个不认识的人一起组了队。第一阶段主要是html和css,跟着任务算是对html5、语义化还有基本的css有了了解。也知道了什么圣杯、双飞燕布局,负边距和浮动的清除,flexbox、bfc之类的,可惜由于电脑太卡,人也很懒,看到有psd切图就没有坚持下去。第二阶段是一些js的小实践,像排序的可视化之类的。虽然对各种排序挺熟悉的,但是要每一步都可视化还是很有挑战。此外,由于队友之前缺少编程经验,ife课程也比较紧,所以这一块没有跟上,交流也少了,自己也没坚持。另一方面,我也觉得前端需要设计感,而我又很欠缺。除了一堆广告的页面之外,我基本分辨不出哪个页面或者app的ui设计很好。所以就没有继续。

## 4月

4月不记得干嘛了,可能是在给实验室写报告吧。。反正那个报告写得我很怀疑人生,几乎每一句都是从网上的论文找的然后花式改编,糅合在一起。4月就算荒废了吧。

## 5月和6月

  这两月在coursera上跟了吴恩达的机器学习课程(不太记得几月份开始的了,花了一周左右的时间吧。。我这记性不会老年痴呆吧)。总的来说基本原理讲得很清楚,听起来也挺享受的,编程作业也不难,基本框架都有,有些周基本是两三行代码就搞定。但是对矩阵和matlab不是很熟,基本的matlab语句都是直接搜索然后改的。对我来说,比较模糊的地方是一些模型的选择,整个流水线工程的改进之类的,当时主要精力集中在具体的模型了,有点naive了。

  此外就是毕设了。毕设基本就是扯淡,随便用了几个小单片机,然后用matlab照着别人论文做了数值仿真。倒霉的是开题、中期答辩和最后查重都被抽中了(每项只有10%的抽查啊,这命中率你相信是随机的?)由于内容很虚,我又脸皮薄,不会表达,所以很紧张。不过最后挺顺利的,貌似还是优秀论文。。

  娱乐方面,快毕业了6月份经常跟着同学一起撸串,一起去了北戴河。和实验室的师兄师姐去了西安和成都。还挺丰富的。毕业的时候还是挺感慨的,自由的大学四年就这么过去了,还是有着不少遗憾吧。。有个小插曲是,由于比较郁闷,还有自己作死,寝室聚餐时一次干了一大杯白酒,然后就所有记忆断片了,完全不省人事,疯狂吐槽,说了一堆心里话(好羞耻啊啊啊啊啊啊啊,不忍回想)。

## 7月

7月学校在老板的主张下搞了个什么研究生暑期学校,被强留下来上课顺便搬砖干活。跟着同学选了个台湾的老师的凸优化。由于时间比较紧,只有7、8天左右的早上上课,而我早上永远没睡醒,再加上矩阵论的完全忘了。。。所以后面也没怎么听。不过考试前自习了一下,看了一点stanford的公开课,再加上毕设也用到了一点凸优化的东西,感觉凸优化还是挺有用的。

## 8月

8月回家了,基本回家就不怎么动弹,也不干家务,算是荒废了吧。

## 9月

  9月看了一点java并发、jmm之类的书和论文,看得比较粗糙,什么happens before、顺序一致性现在也快忘了。然后8月份跟了coursera上传说中的UW神课programming language。然而由于家里没网错过了partA。于是在9月底一直在补视频。

## 10月

  10月把programming language的3个部分一起刷完了,总的来说非常赞,感觉可能是自己2016最大的收获了。课程从很函数式的静态语言SML入手,到动态的racket,再到纯oop的动态语言Ruby。主要介绍了词法作用域和闭包等一系列概念,介绍了pattern match、currier、stream、generic、subtyping等相关的idioms,也介绍了oop相关的继承、this指针,动态分配、double dispatch等概念。比较了静态语言和动态语言的优缺点,对type system进行了简单的分析,对比了fp和oop在分解问题上截然不同的两种思路。由于之前自己自学过一点haskell,所以学起来还好,编程作业难度也适中,其中有一周作业是用Racket实现了一门支持闭包的小语言,非常赞,对闭包也有了更深了解。

## 11、12月

  11和12月主要跟着选的课配合《统计学习方法》学了机器学习相关的知识。其中一门是跟着PRML的思路,另一门是跟stanford的cs229的思路。对PRML的主要印象就是各种各样的从最大似然概率改进为贝叶斯,贯穿了整本课程。stanford的课比起coursera来说难了不少,更加理论,后半学期老师还让他的研究生上去讲神经网络的具体应用(CNN、RNN、LSTM、Dropout、BatchNormalization和GAN等)。可惜的是两门课都没怎么认真听,现在感觉还挺遗憾的。

  (差coursera、听讲座)

## 展望

  综上,2016虽然零零碎碎学了一些知识,但效率实在不高,浪费了好多时间。拖延症也很严重(比如年终总结拖到现在,coursera上的算法课第三次了还没学完),每次都是过去了才后悔(每次快结课才觉得卧槽这门课这么有意思,早知道好好听了)。希望2017能够:

  1. 治好拖延症(只要解决了这条我就很满意了。。)
  2. 注意身体,正常饮食,少熬夜(主要还是拖延症)
  3. 好好学习,多对机器学习进行实践,都恶习深度学习,看一下NLP方面的。
  4. 好好做算法题。
  5. 学好数据库和操作系统。

近期具体一点的有(一月份和寒假做完):

  1. coursera算法课上完
  2. MIT的线性代数看完并总结,做一下课后题。
  3. 做完《挑战程序设计竞赛》或刷完leetocde简单难度。
  4. 把主要的机器学习算法手动实现一遍,抓点数据应用。
  5. 看一下stanford cs231n 或cs224d。
  6. 实验室项目抓紧做一下,快年终总结了。
posted @ 2017-01-03 00:06  hxidkd  阅读(158)  评论(0编辑  收藏  举报