摘要: 天下武功唯快不破,解读BERT推理模型关于快的秘密。 阅读全文
posted @ 2020-06-27 09:20 A君来了 阅读(1876) 评论(0) 推荐(0) 编辑
摘要: Tensor 自从张量(Tensor)计算这个概念出现后,神经网络的算法就可以看作是一系列的张量计算。所谓的张量,它原本是个数学概念,表示各种向量或者数值之间的关系。PyTorch的张量(torch.Tensor)表示的是N维矩阵与一维数组的关系。 torch.Tensor的使用方法和numpy很相 阅读全文
posted @ 2020-06-22 22:23 A君来了 阅读(8575) 评论(0) 推荐(0) 编辑
摘要: Transformer Transformer是NLP的颠覆者,它创造性地用非序列模型来处理序列化的数据,而且还获得了大成功。更重要的是,NLP真的可以“深度”学习了,各种基于transformer的模型层出不穷,如BERT、GPT-2、T-NLG,而且模型参数量呈指数级增长。 Transforme 阅读全文
posted @ 2020-06-16 21:33 A君来了 阅读(343) 评论(0) 推荐(0) 编辑