摘要: 1.用 Embedding 编码的方式实现4pre1 这次将词汇量扩充到 26 个(即字母从 a 到 z)。如图 1.2.22 所示,首先建立一个映射表,把字母用数字表示为 0 到 25;然后建立两个空列表,一个用于存放训练用的输入特征 x_train,另一个用于存放训练用的标签 y_train;接 阅读全文
posted @ 2020-08-26 23:09 GumpYan 阅读(270) 评论(0) 推荐(0) 编辑
摘要: 1.tf.where() import tensorflow as tf a = tf.constant([1,2,3,1,1]) b = tf.constant([0,1,3,4,5]) c = tf.where(tf.greater(a,b), a, b) # 若a>b,返回a对应位置的元素,否 阅读全文
posted @ 2020-08-26 20:22 GumpYan 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 1.Embedding -- 一种编码方法 为什么使用Embedding? 独热码:独热码的位宽要与词汇量一致,如果词汇量增大时,非常浪费资源。数据量大、 过于稀疏,映射之间是独立的,没有表现出关联性 。 Embedding:是一种单词编码方法,用低维向量实现了编码。 这种编码通过神经网络训练优化, 阅读全文
posted @ 2020-08-26 17:12 GumpYan 阅读(289) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf import os from sklearn import datasets import numpy as np # 加载数据集 """ 其中测试集的输入特征 x_test 和标签 y_test 可以像 x_train 和 y_train 一样直接从 阅读全文
posted @ 2020-08-26 11:44 GumpYan 阅读(464) 评论(0) 推荐(0) 编辑
摘要: 1.tf.keras 搭建神经网络六部法第一步: import 相关模块,如 import tensorflow as tf。第二步: 指定输入网络的训练集和测试集,如指定训练集的输入 x_train 和标签y_train,测试集的输入 x_test 和标签 y_test。第三步: 逐层搭建网络结构 阅读全文
posted @ 2020-08-26 10:54 GumpYan 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 4pre1 #! /usr/bin/env python # -*- coding:utf-8 -*- # __author__ = "y00475869" import numpy as np import tensorflow as tf from tensorflow.keras.layers 阅读全文
posted @ 2020-08-26 07:51 GumpYan 阅读(188) 评论(0) 推荐(0) 编辑