为了账号安全,请及时绑定邮箱和手机立即绑定

在 Keras 中嵌入预训练模型的问题

在 Keras 中嵌入预训练模型的问题

qq_花开花谢_0 2022-09-13 17:38:59
我有一个预先训练过的快速文本模型,我想把它嵌入到Keras中。model = Sequential() model.add(Embedding(MAX_NB_WORDS,                      EMBEDDING_DIM,                      input_length=X.shape[1],                     input_length=4,                     weights=[embedding_matrix],                     trainable=False))但它没有奏效。我发现很多人在将预先训练的模型嵌入Keras时都有同样的问题,而且他们都没有解决方案。它似乎已被弃用。weightsembeddings_initializer有没有其他方法可以解决这个问题?提前致谢
查看完整描述

1 回答

?
SMILET

TA贡献1796条经验 获得超4个赞

权重参数在 Keras 的嵌入层中已弃用。

新版本的嵌入层将如下所示 -

embedding_layer = Embedding(num_words,
                            EMBEDDING_DIM,
                            embeddings_initializer=Constant(embedding_matrix),
                            input_length=MAX_SEQUENCE_LENGTH,
                            trainable=False)

您可以在此处找到最新版本的嵌入层详细信息 - Keras 嵌入层

您可以在此处找到预训练词嵌入的示例 - 预训练词嵌入


查看完整回答
反对 回复 2022-09-13
  • 1 回答
  • 0 关注
  • 69 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号