您好,登录后才能下订单哦!
小编给大家分享一下如何使用tf.nn.dynamic_rnn展开时间维度,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!
对于单个的 RNNCell , 使用色的 call 函数进行运算时 ,只是在序列时间上前进了一步 。
如使用 x1、 ho 得到此h2, 通过 x2 、 h2 得到 h3 等 。
tf.nn.dynamic_rnn的作用:
如果序列长度为n,要调用n次call函数,比较麻烦。对此,TensorFlow提供了一个tf.nn.dynamic_mn函数,使用该函数相当于调用了n次call函数。通过{ho, x1 , x2,…, xn} 直接得到{h2 , h3,…, hn} 。
具体来说,设输入数据的格式为(batch_size, time_steps, input size),
其中batch_size表示batch的大小,即包含几个序列。
time_steps表示序列长度,
input_size表示输入数据单个序列单个时间维度上固有的长度。
此时,得到的outputs是time_steps步里所有的输出。它的形状为(batch_size, time_steps, cell.output size)。state 是最后一步的隐状态,形状为(batch_size, cell . state_size) 。
至此,在对每一步的输出进行变换,可以得到损失并进行训练模型了。
以上是“如何使用tf.nn.dynamic_rnn展开时间维度”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。