正文
在这几轮对话中,Bob和Alice看起来像是两个刚开始学说话的小结巴,不断重复不符合语法逻辑的同样的单词。据外媒报道,现在Facebook 的研究院已经停止了这一项目的研究,原因是“担心可能会对这些AI失去控制”。
这已经不是第一次发现人工智能使用偏离训练语言的新表述了。人工智能可以创造自己的语言?这个说法既耸人听闻又让人毛骨悚然。
产生原因:机器人追求高效回报的新选择
“这简直是为了PR(公关)而PR!”国内人工智能初创企业Rokid Alab 专门研究智能对话方向的陈见耸博士对“发展出人类无法理解的语言”的说法嗤之以鼻。
“就样例来看,智能对话机器人使用的还是英文单词,只不过语法出现了错误。”在陈见耸看来,
与其说是机器创造出了新的语言,不如说是机器因为没有训练好而出现了Bug。
陈见耸解释说,使用增强学习的人工智能遵循的是“回报”(reward)原则,智能体生成的这段话是否是朝着有益的方向发展,需要根据研究人员设定的回报函数来确定。“跟AlphaGo直接通过输赢就能确定回报不同,人类的自然语言很难评判是好还是坏。”
因为判定标准难以确定,人工智能生成的对话就很容易变成上述的“胡言乱语”。
清华大学电子工程系的孙甲松副教授认为,
这并不算是一种新的语言,而更像是对原本语言的改造。
“人类使用的自然语言对于机器来说并不是最简洁的,机器完全可以将人类的语言进行简化。虽然简化之后的语言人类无法理解,但对于机器来说确实更加高效。”孙甲松认为,虽然Facebook的智能对话机器人看似创造出了一种从未出现过的新语言,但其实只是对自然语言的“缩写”。
孙甲松的观点与Facebook相关研究人员不谋而合。在这一场景中,继续使用英语并没能给计算机带来相应的回馈,所以智能体决定"learned to hold fluent conversations",使用更加高效的方法进行沟通。
虽然这些词语组合第一眼看上去没什么实际意义,但是它们揭示了两个机器人是如何工作的,每一个词汇他们需要进行多少次处理。
“我们可以把他们对单词的重复看作是在表示强调。”
孙甲松说。
比如:“I can can I I everything else.”Bob的这句对话中,重复使用i的次数,被研究者认为是向Alice传递更多的信息。如果用这种方法来进行阐述,那么这句话就有点像人们所说的“I’ll have three and you have everything else”。