摘要:
写在前面:此篇纯属自我记录,参考意义不大。 数据类型 数值型 标量Scalar:1.0,2.3等,shape为0->[] a = 1.2 向量Vector:[1.0],[2.3,5.4]等,shape为1->[n] a = tf.constant([2.3,5.4]) 矩阵Matrix:[[1.0, 阅读全文
摘要:
写在前面:机器学习主要分为监督学习、无监督学习和强化学习。本节内容主要针对监督学习下的线性回归进行简要说明及实现。机器学习开篇模型就是线性回归,简言之就是用一条直线较为准确的描述数据之间的关系,当出现新的数据的时候的时候,给出一个简单的预测值。 一、回归问题 回归问题是监督学习的一个重要问题,回归用 阅读全文
摘要:
写在前面:在初学nlp时的第一个任务——NER,尝试了几种方法,cnn+crf、lstm+crf、bert+lstm+crf,毫无疑问,最后结果时Bert下效果最好。 1、关于NER: NER即命名实体识别是信息提取的一个子任务,但究其本质就是序列标注任务。 eg: sentence:壹 叁 去 参 阅读全文
摘要:
jieba中文分词¶ 中文与拉丁语言不同,不是以空格分开每个有意义的词,在我们处理自然语言处理的时候,大部分情况下,词汇是对句子和文章的理解基础。因此需要一个工具去把完整的中文分解成词。 jieba是一个分词起家的中文工具。 基本分词函数与用法¶ 安装:pip install jieba(全自动安装 阅读全文
摘要:
Python 正则表达式¶ In [1]: import re pattern = re.compile(r'hello.*\!') print(pattern) match = pattern.match('hello,World! how are you?') if match: print(m 阅读全文
摘要:
#SVM的使用 (结合具体代码说明,代码参考邹博老师的代码) 1、使用numpy中的loadtxt读入数据文件 data:鸢尾花数据 5.1,3.5,1.4,0.2,Iris-setosa 4.9,3.0,1.4,0.2,Iris-setosa 4.7,3.2,1.3,0.2,Iris-setosa 阅读全文
摘要:
内部结构 1.tensor分为头信息区(Tensor)和存储区(Storage); 信息区:tensor的形状(size)、步长(stride)、数据类型(type),信息区占用内存较少 存储区:数据保存为连续数组,主要内存占用在存储区 2.每一个tensor有着一个对应的storage,stora 阅读全文
摘要:
Tensor类型 1.Tensor有不同的数据类型,每种类型又有CPU和GPU两种版本; 2.默认的tensor类型是FloatTensor,t.set_default_tensor_type可以修改默认的tensor类型; 3.特别的HalfTensor是专门为GPU显存不足设计的,同样的元素个数 阅读全文
摘要:
#Tensor索引操作 ''''' Tensor支持与numpy.ndarray类似的索引操作,语法上也类似 如无特殊说明,索引出来的结果与原tensor共享内存,即修改一个,另一个会跟着修改 ''' import torch as t a = t.randn(3,4) '''''tensor([[ 阅读全文