摘要:
1.直接删除 适合缺失值数量较小,并且是随机出现的,删除它们对整体数据影响不大的情况 2.使用一个全局常量填充 譬如将缺失值用“Unknown”等填充,但是效果不一定好,因为算法可能会把它识别为一个新的类别,一般很少用 3.使用均值或中位数代替 优点:不会减少样本信息,处理简单。缺点:当缺失数据不是 阅读全文
摘要:
1. 在大陆的科研环境中,需要你有高质量文章,也需要你有水文,正常的科研流程是一大步+一小步,即一大步,一篇高质量,很solid的文章,+一两篇小改进的水文章。一年之间,应该是1+1/ 1+2的模式。 2. 时间安排,论文框架一周; 实验一周;修改论文两周; 3. 科研进程是一个高斯曲线,有慢热期和 阅读全文
摘要:
1. know your data. 知道里面有哪些pattern,正常的pattern是什么,不正常的pattern是什么,点异常的情况是什么,模式异常的情况是什么。 异常: 已知 可以通过预处理处理掉的 不能通过预处理处理掉的,如何在loss部分进行处理。 未知 motif: 小的、细微的频繁出 阅读全文
摘要:
像AAAI,IJCAI这种水会,投论文更多的像是掷筛子,随机性很大,你投不中不能说明你不好,你投中了也不能说明你强。 从审稿人角度考虑,如果这篇文章他看得懂,那他很可能会拒掉;如果他看不懂,那么他觉得这篇文章可能有价值,得琢磨一下。 纯方法类的文章研究和提升起来是很难的,很少有人做这个,所以作为普通 阅读全文
摘要:
1. 了解有几种attention mechanism Seq2Seq, from a sequence input to a sequence output. Align & Translate, A potential problem of the vanilla Seq2Seq archite 阅读全文
摘要:
2思考问题,写introduction的时候,是用领域问题描述,还是通用方法,如果数据特殊就说领域问题,但你需要指出这类领域数据的特点和scientific challenge.,比如能源的异常检测和其他的有啥区别,为什么传统方法不行。 通用方法创新要难一些。 introduction两方面,mot 阅读全文
摘要:
References: https://www.zhihu.com/question/20525198 阅读全文
摘要:
The return of Pytorch.nn.LSTM is: output, (h_n, c_n) Outputs: output, (h_n, c_n) output (seq_len, batch, hidden_size * num_directions): tensor contain 阅读全文
摘要:
Humans can recognize new object classes from very few instances. However, most machine learning techniques require thousands of examples to achieve si 阅读全文
摘要:
Purpose: understand how visual data "travels" on Twitter. Contribution: they propose a neural network architecture identify whether a post includes a 阅读全文