示例解释:
1 2 3 | model = Sequential() model.add(Embedding( 1000 , 64 , input_length = 10 )) #输入中的数值最大值是1000,输出的第三维度是64,输入的长度是10. |
keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_regularizer=None, activity_regularizer=None, embeddings_constraint=None, mask_zero=False, input_length=None)
示例代码:
from keras.models import Sequential from keras.layers import Embedding model = Sequential() model.add(Embedding(1000, 64, input_length=10)) #Embedding(vocab_size,output_dim,max_length) # 模型将输入一个大小为 (batch, input_length) 的整数矩阵。 # 输入中最大的整数(即词索引)不应该大于 999 (词汇表大小) # 现在 model.output_shape == (None, 10, 64),其中 None 是 batch 的维度。 input_array = np.random.randint(1000, size=(32, 10)) # 1000表示最大数值 model.compile('rmsprop', 'mse') output_array = model.predict(input_array) assert output_array.shape == (32, 10, 64)
#输入尺寸input_array.shape (32, 10) #尺寸为 (batch_size, sequence_length) 的 2D 张量。 #输出尺寸 output_array.shape (32, 10, 64) #尺寸为 (batch_size, sequence_length, output_dim) 的 3D 张量。
参考文献:
1. https://machinelearningmastery.com/use-word-embedding-layers-deep-learning-keras/
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步