当AI邂逅艺术机器写诗综述生存

过滤设备2020年05月10日

当 AI 邂逅艺术:机器写诗综述

引言

什么是艺术?

机器的作品能否叫艺术?

机器能否取代艺术家?

这些问题,相信不同的人,会有不同的答案。很多人认为机器生成的作品只是简单的模仿人类,没有创造性可言,但是人类艺术家,不也是从模仿和学习开始的吗?本文是为 PaperWeekly 写的一篇机器诗歌生成的综述文章,希望能增进大家对这个领域的了解。

诗歌是人类文学皇冠上的明珠。我国自《诗经》以后,两千年来的诗篇灿若繁星。让机器自动生成诗歌,一直是人工智能领域一个有挑战性的工作。

基于传统方法的诗歌生成

机器诗歌生成的工作,始于 20 世纪 70 年代。传统的诗歌生成方法,主要有以下几种:

Word Salada(词语沙拉):是最早期的诗歌生成模型,被称作只是简单将词语进行随机组合和堆砌而不考虑语义语法要求。

基于模板和模式的方法:基于模板的方法类似于完形填空,将一首现有诗歌挖去一些词,作为模板,再用一些其他词进行替换,产生新的诗歌。这种方法生成的诗歌在语法上有所提升,但是灵活性太差。因此后来出现了基于模式的方法,通过对每个位置词的词性,韵律平仄进行限制,来进行诗歌生成。

基于遗传算法的方法:周昌乐等 [1] 提出并应用到宋词生成上。这里将诗歌生成看成状态空间搜索问题。先从随机诗句开始,然后借助人工定义的诗句评估函数,不断进行评估,进化的迭代,最终得到诗歌。这种方法在单句上有较好的结果,但是句子之间缺乏语义连贯性。

基于摘要生成的方法:严睿等 [2] 将诗歌生成看成给定写作意图的摘要生成问题,同时加入了诗歌相关的一些优化约束。

基于统计机器翻译的方法:MSRA 的何晶和周明 [3] 将诗歌生成看成一个机器翻译问题,将上一句看成源语言,下一句看成目标语言,用统计机器翻译模型进行翻译,并加上平仄押韵等约束,得到下一句。通过不断重复这个过程,得到一首完整的诗歌。

基于深度学习技术的诗歌生成

传统方法非常依赖于诗词领域的专业知识,需要专家设计大量的人工规则

,对生成诗词的格律和质量进行约束。同时迁移能力也比较差,难以直接应用到其他文体(唐诗,宋词等)和语言(英文,日文等)。随着深度学习技术的发展,诗歌生成的研究进入了一个新的阶段。

RNNLM

基于 RNN 语言模型 [4] 的方法,将诗歌的整体内容,作为训练语料送给 RNN 语言模型进行训练。训练完成后,先给定一些初始内容,然后就可以按照语言模型输出的概率分布进行采样得到下一个词,不断重复这个过程就产生完整的诗歌。Karpathy 有一篇文章,非常详细的介绍这个:The Unreasonable Effectiveness of Recurrent Neural Networks

Chinese Poetry Generation with Recurrent Neural Networks

RNNPG 模型 [5],首先由用户给定的关键词生成第一句,然后由第一句话生成第二句话,由一,二句话生成第三句话,重复这个过程,直到诗歌生成完成。模型的模型由三部分组成:

Convolutional Sentence Model(CSM):CNN 模型,用于获取一句话的向量表示。

Recurrent Context Model (RCM):句子级别的 RNN,根据历史生成句子的向量,输出下一个要生成句子的 Context 向量。

Recurrent Generation Model (RGM):字符级别 RNN,根据 RCM 输出的 Context 向量和该句之前已经生成的字符,输出下一个字符的概率分布。解码的时候根据 RGM 模型输出的概率和语言模型概率加权以后,生成下一句诗歌,由人工规则保证押韵。

模型结构如下图:

模型生成例子如下图:

Chinese Song Iambics Generation with Neural Attention-based Model

模型 [6] 是基于 attention 的 encoder-decoder 框架,将历史已经生成的内容作为源语言,将下一句话作为目标语言进行翻译。需要用户提供第一句话,然后由第一句生成第二句,第一,二句生成第三句,并不断重复这个过程,直到生成完整诗歌。

基于 Attention 机制配合 LSTM,可以学习更长的诗歌,同时在一定程度上,可以保证前后语义的连贯性。

模型结构如下图:

模型生成例子如下图:

Chinese Poetry Generation with Planning based Neural Network

模型 [8] 不需要专家知识,是一个端到端的模型。它试图模仿人类开始写作前,先规划一个写作大纲的过程。整个诗歌生成框架由两部分组成:规划模型和生成模型。

规划模型:将代表用户写作意图的 Query 作为输入,生成一个写作大纲。写作大纲是一个由主题词组成的序列,第 i 个主题词代表第 i 句的主题。

生成模型:基于 encoder-decoder 框架。有两个 encoder, 其中一个 encoder 将主题词作为输入,另外一个 encoder 将历史生成的句子拼在一起作为输入,由 decoder 生成下一句话。decoder 生成的时候,利用 Attention 机制,对主题词和历史生成内容的向量一起做打分,由模型来决定生成的过程中各部分的重要性。

前面介绍的几个模型,用户的写作意图,基本只能反映在第一句,随着生成过程往后进行,后面句子和用户写作意图的关系越来越弱,就有可能发生主题漂移问题。而规划模型可以使用户的写作意图直接影响整首诗的生成,因此在一定程度上,避免了主题漂移问题,使整首诗的逻辑语义更为连贯。

总体框架图如下:

生成模型框架图如下:

诗歌图灵测试:给定一个题目,让机器和人分别做一首诗 ,由人来区分哪首诗是人写的。实验结果也很有意思,对普通人来说,已经无法区分诗是由机器生成的还是人生成的,下面是一组测试的例子:

现代概念诗歌生成例子:

i, Poet: Automatic Poetry Composition through Recurrent Neural Networks with Iterative Polishing Schema

模型 [7] 基于 encoder-decoder 框架。encoder 阶段,用户提供一个 Query 作为自己的写作意图, 由 CNN 模型获取 Query 的向量表示。decoder 阶段,使用了 hierarchical 的 RNN 生成框架,由句子级别和词级别两个 RNN 组成。

句子级别 RNN:输入句子向量表示,输出下一个句子的 Context 向量。

字符级别 RNN:输入 Context 向量和历史生成字符,输出下一个字符的概率分布。当一句生成结束的时候,字符级别 RNN 的最后一个向量,作为表示这个句子的向量,送给句子级别 RNN。

这篇文章一个比较有意思的地方,是想模拟人类写诗反复修改的过程,加入了打磨机制。反复迭代来提高诗歌生成质量。

总体框架图如下:

Generating Topical Poetry

模型 [9] 基于 encoder-decoder 框架,分为两步。先根据用户输入的关键词得到每句话的最后一个词,这些词都押韵且与用户输入相关。再将这些押韵词作为一个序列,送给 encoder, 由 decoder 生成整个诗歌。这种机制一方面保证了押韵,另外一方面,和之前提到的规划模型类似,在一定程度上避免了主题漂移问题。

模型框架图如下:

生成例子如下:

SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient

模型 [10] 将图像中的对抗生成络,用到文本生成上。生成络是一个 RNN,直接生成整首诗歌。而判别络是一个 CNN。用于判断这首诗歌是人写的,还是机器生成的,并通过强化学习的方式,将梯度回传给生成络。

模型框架图如下:

总结

从传统方法到深度学习,诗歌生成技术有了很大发展,甚至在一定程度上,已经可以产生普通人真假难辨的诗歌。但是目前诗歌生成技术,学习到的仍然只是知识的概率分布,即诗句内,诗句间的搭配规律。而没有学到诗歌蕴含思想感情。因此尽管生成的诗歌看起来有模有样,但是仍然感觉只是徒有其表,缺乏一丝人的灵性。

另外一方面,诗歌不像机器翻译有 BLEU 作为评价指标,目前仍然依赖人工的主观评价,缺乏可靠的自动评估方法,因此模型优化的目标函数和主观的诗歌评价指标之间,存在较大的 gap,也影响了诗歌生成质量的提高。在围棋博弈上,以 AlphaGo 为代表的机器已经超过了人类顶尖选手,但是在诗歌生成上,离人类顶尖诗人水平,尚有很长的路要走。

参考文献

[1]一种宋词自动生成的遗传算法及其机器实现

[2]i,Poet: Automatic Chinese Poetry Composition through a Generative Summarization Framework under Constrained Optimization

[3]Generating Chinese Classical Poems with Statistical Machine Translation Models

[4]Recurrent neural network based language model

[5]Chinese Poetry Generation with Recurrent Neural Networks

[6]Chinese Song Iambics Generation with Neural Attention-based Model

[7]i, Poet: Automatic Poetry Composition through Recurrent Neural Networks with Iterative Polishing Schema

[8]Chinese Poetry Generation with Planning based Neural Network

[9]Generating Topical Poetry

[10]SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient

(公众号:)按:本文原作者萧瑟,原载于作者的知乎专栏。

深度学习之神经络特训班

20年清华大学神经络授课导师邓志东教授,带你系统学习人工智能之神经络理论及应用!

课程链接:

加入AI慕课学院人工智能学习交流群:,与AI同行一起交流成长

版权文章,未经授权禁止转载。详情见转载须知。

百姓健康
女人气滞血瘀型月经不调治疗
治疗术后ED的有效药物选什么好
相关阅读
杨鸣夺冠后更衣室发言:冠军实至名归! 不忘调侃莫兰德换回头像

北京时间4月27日消息,CBA总决赛裂开帷幕辽宁上海队如愿领到队史第二座冠军...

2024-10-21
衣服存放小技巧,一年不返潮不长虫,有点管用啦

【之中国着装圈.第 2482期】 可能:全球时髦 沙发较易受潮受伤害烟雾, 底下...

2024-07-23
一美演技爆表的片子——《分裂》(上)

陌生人似乎地拉低上衣,想盖住盲目性感的丝袜,一美注意到却怒了 (你来...

2024-06-13
四川教师公招:甘孜招914人,医学系岗位占比99%

2022年6月11日,巴塘人事考试网发布公告,2022年未公开招揽学生914人,其中高...

2024-04-16
别对这样的好剧,为时于“叶公好龙”

“不负渴望。” 这是身边不少朋友们在看了《原作者天水》不久的第一反应...

2024-03-18
巫鸿《中国绘画》:从石刻开始,了解中国早期绘画的独特性格

近来,巫鸿的著述《之中国人美术:远古至唐》成版,书之中巫鸿侧重于提问...

2024-02-13
友情链接