Tensorflow:基于LSTM轻松生成各种古诗
2018-01-06 00:00
204 查看
向AI转型的程序员都关注了这个号???
大数据挖掘DT数据分析 公众号: datadw本文代码在公众号 datadw 里 回复 古诗 即可获取。
RNN不像传统的神经网络-它们的输出输出是固定的,而RNN允许我们输入输出向量序列。RNN是为了对序列数据进行建模而产生的。样本序列性:样本间存在顺序关系,每个样本和它之前的样本存在关联。比如说,在文本中,一个词和它前面的词是有关联的;在气象数据中,一天的气温和前几天的气温是有关联的。例如本帖要使用RNN生成古诗,你给它输入一堆古诗词,它会学着生成和前面相关联的字词。如果你给它输入一堆姓名,它会学着生成姓名;给它输入一堆古典乐/歌词,它会学着生成古典乐/歌词,甚至可以给它输入源代码。关于RNN:TensorFlow练习3: RNN, Recurrent Neural Networks
http://karpathy.github.io/2015/05/21/rnn-effectiveness/
本帖代码移植自char-rnn,https://github.com/karpathy/char-rnn它是基于Torch的洋文模型,稍加修改即可应用于中文。char-rnn使用文本文件做为输入、训练RNN模型,然后使用它生成和训练数据类似的文本。使用的数据集:全唐诗(43030首):本文代码在公众号 datadw 里 回复 古诗 即可获取。
模型生成
首先我们要训练好模型。这里采用的是2层的LSTM框架,每层有128个隐藏层节点,batch_size设为64。训练数据来源于全唐诗(可在上面百度云资源分享当中找到)。特别注意到的一点是这里每训练完一次就对训练数据做shuffle。源代码如下:
使用该代码会将训练好的模型参数保存在 “model” 文件夹下。经过100个epoch之后,平均loss会降到2.6左右。训练好的模型在公众号 datadw 里 回复 古诗 即可获取。
生成古诗
使用训练好的模型可以轻松生成各种古诗。下面就是几个例子:
生成藏头诗
上代码:最后从函数接口可以看到,除了可以自己定义诗的头外,还可以定义是五言绝句还是七言绝句。
来看几个五言绝句的例子:
再来看几个七言绝句的例子:
那么是不是可以用它来写情诗呢?
当然可以啦!
via http://blog.csdn.net/u014232627/article/details/71189078
人工智能大数据与深度学习搜索添加微信公众号:weic2c
长按图片,识别二维码,点关注
大数据挖掘DT数据分析搜索添加微信公众号:datadw教你机器学习,教你数据挖掘
长按图片,识别二维码,点关注
相关文章推荐
- 个基于TensorFlow的简单故事生成案例:带你了解LSTM
- 一个基于TensorFlow的简单故事生成案例:带你了解LSTM
- Tensorflow:基于LSTM生成藏头诗
- TensorFlow练手项目二:基于循环神经网络(RNN)的古诗生成器
- tensorflow实现基于LSTM的文本分类方法
- TensorFlow文本摘要生成 - 基于注意力的序列到序列模型
- TensorFlow-10-基于 LSTM 建立一个语言模型
- 基于Tensorflow和DCGAN生成动漫头像实践(一)
- 现代英特尔® 架构上的 TensorFlow* 优化——正如去年参加Intel AI会议一样,Intel自己提供了对接自己AI CPU优化版本的Tensorflow,下载链接见后,同时可以基于谷歌官方的tf版本直接编译生成安装包
- TensorFlow练习7: 基于RNN生成古诗词
- 基于Char-RNN Language Model进行文本生成(Tensorflow生成唐诗)
- Tensorflow实战学习(三十五)【实现基于LSTM语言模型】
- 如何用 TensorFlow 实现基于 LSTM 的文本分类
- TensorFlow实现经典深度学习网络(6):TensorFlow实现基于LSTM的语言模型
- 基于 LSTM 的 Character-Level 文本生成模型
- 【TensorFlow】LSTM(基于PTB的自然语言建模)
- TensorFlow文本摘要生成 - 基于注意力的序列到序列模型
- tensorflow38《TensorFlow实战》笔记-07-02 TensorFlow实现基于LSTM的语言模型 code
- 第十二课 tensorflow 使用RNN实现古诗自动生成
- Tensorflow实现基于Bidirectional LSTM Classifier