正文
每个人问同一个问题的表述都可能是不同的,自动问答系统应该如何更好的理解用户的问题呢?当我们用一种描述方式来提问时,可能不会被 get 到,但也许换一种方式来表达就会好一些,这就是所谓的“ask the right questions”。本文提出了一种增强学习方案,通过重新表述用户的问题来让 QA 系统更好的理解问题,从而给出更加准确的答案,在 SearchQA 数据集上取得了比较明显的效果。本文工作来自 Google。
论文链接:
https://arxiv.org/abs/1705.07830
推荐人:
大俊,PaperWeekly 首席客服
➌
#CNN & RNN#
pix2code: Generating Code from a Graphical User Interface Screenshot
本文基于深度学习实现了由 GUI 图片自动行成 iOS、Android、Web 布局代码,达到了 77% 的准确度,并开放了训练数据集。pix2code 从两个角度出发,a:理解图像以及推断其中实体各个属性的 CV 问题;b:理解语言并生成合理语法语义文本的语言建模问题。
主要要点:
-
Vision Model:使用 VGGNet 对图片进行编码
-
Language Model:使用 DSL 对图片进行描述,并使用 LSTM 提取语言结构关系
-
结合 Vision Mode 和 Language Model:使 LSTM 把输入的 DSL 代码进行编码成 q,并与图片编码 p 连接成 r,把 r 传入解码器(stacked 双层 LSTM 网络)
-
Training:使用滑动窗口(window=48 empirical),multiclass log loss
-
Sampling:使用
符号做为开始和结束标志,一次生成一个符号,生成符号用作下一个符号生成的输入,直到遇到
亮点推荐:由 GUI 图片自动生成布局代码
演示地址:
https://github.com/tonybeltramelli/pix2code