为了账号安全,请及时绑定邮箱和手机立即绑定

用于序列数据的 LSTM 自动编码器

用于序列数据的 LSTM 自动编码器

小唯快跑啊 2023-02-15 16:41:22
我对 LSTM 领域完全陌生。是否有任何提示可以优化我的自动编码器以重建 len = 300 序列的任务瓶颈层应该有 10-15 个神经元model = Sequential()model.add(LSTM(128, activation='relu', input_shape=(timesteps,1), return_sequences=True))model.add(LSTM(64, activation='relu', return_sequences=False))model.add(RepeatVector(timesteps))model.add(LSTM(64, activation='relu', return_sequences=True))model.add(LSTM(128, activation='relu', return_sequences=True))model.add(TimeDistributed(Dense(1)))model.compile(optimizer='adam', loss='mae')代码复制自:https ://towardsdatascience.com/step-by-step-understanding-lstm-autoencoder-layers-ffab055b6352目前结果只是 nan 的序列:[nan, nan, nan ... nan, nan]序列看起来类似于下图:
查看完整描述

1 回答

?
一只甜甜圈

TA贡献1836条经验 获得超5个赞

我相信您在这里使用的激活函数即“relu”可能会破坏梯度。尝试使用适合您数据的其他激活函数,例如“tanh”。



查看完整回答
反对 回复 2023-02-15
  • 1 回答
  • 0 关注
  • 140 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号