什么?!还有没女朋友的或者还没有向女神表白的?
要想赢得女神芳心,文(甜)艺(言)情(蜜)话(语)也是不能少的!
没关系,AI来拯救你!
AI情话、AI藏头诗、AI情诗大礼包开源上线啦!
话不多说,咱们直接看效果!
哎妈呀,泪奔了,哭的不要不要的!
效果炸裂,这还只是一个AI情话功能。
要是再整首诗写在小卡片上,女神的心能瞬间化成一江春水向东流。。。
一战深藏功与名!
目前演示页限制是七言绝句,如果是需要其它的七言律诗、五言绝句和五言律诗,可以通过代码调用,效果也是妥妥的!
是不是着急了?我仿佛看到一群大老爷们儿向我杀来。
这样炸裂效果的背后,离不开顶尖的ERNIE-GEN算法加持,什么?不知道ERNIE-GEN?ERNIE听说过吧,NLP领域模型中的带头大哥,曾经斩获多项大奖!后来经过不断研发,ERNIE又衍生出了很多其它模型或组件,形成了ERNIE家族!ERNIE-GEN就是其中优秀一员。
热心的说明:下面是讲技术的环节,想了解怎么用的小伙伴可以快速往下滑
ERNIE-GEN是面向生成任务的预训练-微调框架,首次在预训练阶段加入span-by-span生成任务,让模型每次能够生成一个语义完整的片段。在预训练和微调中通过填充式生成机制和噪声感知机制来缓解曝光偏差问题。此外,ERNIE-GEN采用多片段-多粒度目标文本采样策略,增强源文本和目标文本的关联性,加强了编码器和解码器的交互。
更多详情参考论文ERNIE-GEN:AnEnhancedMulti-FlowPre-trainingandFine-tuningFrameworkforNaturalLanguageGeneration
这些由ERNIE-GEN算法衍生出的AI情话(ernie_gen_lover_words)、AI藏头诗(ernie_gen_acrostic_poetry)等模型在微调时首先通过加载ERNIE1.0中文模型参数完成热启动,然后采用开发者在网络上搜集到的情诗、情话数据,基于ERNIE-GEN框架进行微调。与传统的Seq2Seq做法相比,该模型实际使用效果具备更强的泛化能力,即使是微调使用的数据集中没见过的词汇或句子,模型也能够理解。
例如输入“小编带大家了解一下程序员情人节”,将会输出:
实际上“程序员”“数据库”这些词是从未出现在情话数据集中的,但是得益于知识增强的语义表示模型ERNIE带来的泛化能力,使模型仍然能够领悟到二者之间的关系。同时ERNIE-GEN独特的填充生成机制和噪声感知生成的策略,使得微调后模型文本生成效果更加自然流畅,相比传统的基于RNN结合Seq2Seq的生成做法,所需的训练数据量更小,而且文本生成效果更有内涵。
正如模型输出所言,希望在七夕这一天,我们的程序都能够正常的工作,大家可以放心地过个愉快的情人节。
整个预训练模型只要求安装PaddlePaddle与PaddleHub,诸位兄弟只需要了解基础Python就能跑得动。
以下为调用AI情话预训练模型的代码:
importpaddlehubashub#导入预训练模型module=hub.Module(name="ernie_gen_lover_words")#准备输入开头数据test_texts=['情人节']#执行文本生成results=module.generate(texts=test_texts,use_gpu=True,beam_width=5)#打印输出结果forresultinresults:print(result)
运行这个脚本后,我们就可以收货了。
哎呀,甜度太高了,有点上头。
!hubservingstart-mernie_gen_lover_words-p8866
是的,就是这么简单,一行搞定服务器端!相比手动配置各种参数或者调用各种框架,PaddleHub的服务器端部署实在是太好用了。
只要在服务器端完成部署,剩下在客户端调用就问题不大了。如下为客户端向服务器端发送请求做推理的示例脚本,包括制定要推理的输入文本、发送推理请求、返回并保存推理结果几个部分。
如下所示,运行脚本后就可以从服务器端拿到推理结果了。
正所谓,来者都是客,咳咳,不对,是你有一块钱,我有一块钱,我们合在一起就是两块钱,知识,是可以互相交流的^_^