基于 Tensorflow eager 的文本生成,注意力,图像注释的完整代码
雷锋网按:本文为 AI 研习社编译的技术博客,原标题 Complete code examples for Machine Translation with Attention, Image Captioning, Text Generation, and DCGAN implemented with tf.keras and eager execution,作者为 Yash Katariyae(开发者项目工程师实习生)。
翻译 | 老赵 审核 | 凡江
我总是发现生成和序列模型令人着迷:他们提出的问题与我们刚开始学习机器学习时常遇到的问题不同。当我第一次开始学习ML时,我学了分类和回归(和大多数人一样)。这些帮助我们提出并回答以下问题:
-
这是猫还是狗的照片? (分类)
-
明天会下雨的几率是多少? (回归)
掌握分类和回归是非常有用的技能,并且这些领域的应用对现实问题几乎没有限制。但是,我们可能会问其他不同类型的问题。
-
我们能生成一首诗吗? (文字生成)
-
我们可以生成一张猫的照片吗? (GANs)
-
我们可以将句子从一种语言翻译成另一种语言吗? (NMT)
-
我们可以描述图像内容吗? (图像注释)
在暑期实习期间,我使用TensorFlow的两个最新API开发了这些示例:tf.keras,以及eager function,我在下面分享了它们。我希望你发现它们有用,有趣。
-
eager function是一个逐步运行的界面,其中操作在从Python调用时即刻执行。这使得TensorFlow上手容易,并且可以是研究和开发更加直观。
-
tf.keras是一个定义模型的高级API,就像积木建造的乐高一样。我使用模型子类化实现了这些示例,它允许通过子类化tf.keras.Model并定义自己的前向传递来制作完全可自定义的模型。 当启用eager function时,模型子类化特别有用,因为可以强制写入前向传递。
如果你对这些APIs不了解,你可以通过探索tensorflow.org/tutorials( http://tensorflow.org/tutorials )上的序列来了解更多信息,其中包含最近更新的示例。
以下每个示例都是端到端的,并遵循类似的模式:
-
自动下载训练数据集。
-
预处理训练数据,并创建tf.data数据集以在输入管道中使用。
-
使用tf.keras模型子类API定义模型。
-
使用eager function训练模型。
-
演示如何使用训练模型。
示例 1:文本生成
我们的第一个例子( https://colab.research.google.com/github/tensorflow/tensorflow/blob/master/tensorflow/contrib/eager/python/examples/generative_examples/text_generation.ipynb )是文本生成,我们使用RNN生成与莎士比亚类似的文本。您可以使用上面的链接在Colaboratory上运行它(或者您也可以从GitHub下载它作为Jupyter笔记本)。代码在笔记本中详细解释。
基于莎士比亚的大量作品,这个例子学会了生成听起来和风格相似的文字:
在训练莎士比亚写作集合的30个时期的后,笔记本生成了示例文本。
虽然大多数句子没有意义(当然,这个简单的模型还没有学会语言的意义),令人印象深刻的是大多数单词是有效的,并且它生成出的戏剧的结构看起来类似于来自原文的那些。 (这是一个基于角色的模型,在训练的短时间内 - 它已经成功地从头开始学习这两件事)。如果您愿意,可以通过更改单行代码来更改数据集。
了解更多关于RNN的最好方法是Andrej Karpathy的文章,即The Unreasonable Effectiveness of Recurrent Neural Networks。如果您想了解更多关于使用Keras或tf.keras实现RNN的信息,我们推荐由Francois Chollet提供的笔记。
示例 2:DCGAN
在这个例子( https://colab.research.google.com/github/tensorflow/tensorflow/blob/master/tensorflow/contrib/eager/python/examples/generative_examples/dcgan.ipynb )中,我们使用DCGAN生成手写数字。生成式对抗网络(GAN)由生成器和鉴别器组成。生成器的工作是创建令人信服的图像以欺骗鉴别器。鉴别器的工作是在真实图像和伪图像(由生成器创建)之间进行分类。下面看到的输出是在使用 Unsupervised Representing Learning with Deep Convolutional Generative Adversarial Networks。
这篇文章所述的体系结构和超参数训练150个历元的生成器和鉴别器之后生成的。
示例 3:注意力的神经机器翻译
这个例子( https://colab.sandbox.google.com/github/tensorflow/tensorflow/blob/master/tensorflow/contrib/eager/python/examples/nmt_with_attention/nmt_with_attention.ipynb )训练模型将西班牙语句子翻译成英语句子。训练模型后,您将能够输入西班牙语句子,例如“¿todavia estan en casa?”,并返回英文翻译:“你还在家吗?”
您在下面看到的图像是注意力图。它显示了输入句子的哪些部分在翻译时具有模型的注意力。例如,当模型翻译“cold”这个词时,它看着“mucho”,“frio”,“aqui”。我们使用tf.keras和eager function从头开始实现Neural Machine Translation by Jointly Learning to Align and Translate这篇文章中的例子,详细解释在笔记中。您还可以将此实现用作完成自己的自定义模型的基础。
示例 4:注意图像标题
原文链接: https://medium.com/tensorflow/complete-code-examples-for-machine-translation-with-attention-image-captioning-text-generation-51663d07a63d
......
想要继续阅读,请移步至我们的AI研习社社区:
https://club.leiphone.com/page/TextTranslation/755
更多精彩内容尽在 AI 研习社。
不同领域包括计算机视觉,语音语义,区块链,自动驾驶,数据挖掘,智能控制,编程语言等每日更新。
雷锋网雷锋网 (公众号:雷锋网) (公众号:雷锋网
。