专栏名称: 雷峰网
中国智能硬件第一媒体
目录
相关文章推荐
新浪科技  ·  【#央行公布最新官方储备资产数据# ... ·  2 天前  
人工智能与投资  ·  美股昨晚见证了历史 ·  2 天前  
人工智能与投资  ·  美股昨晚见证了历史 ·  2 天前  
51好读  ›  专栏  ›  雷峰网

“黑化”聊天机器人 Tay 重生!微软是如何教它重新做“人”的?

雷峰网  · 公众号  · 科技媒体  · 2016-12-06 18:06

正文

请到「今天看啥」查看全文



我们正想方设法应对这些挑战。


我们开发 Tay 是作为一个学习模型的原型产品。


我们也并没有说自己想要推出某个完美无缺的东西,它不像 Windows 10 的发布,它属于那种研究项目,而不是用来赚钱的产品。


尽管有那种种争议,但这个项目确实帮到了我们,也起到了很好的号召作用,让我们更好地为自己所谈论的设计原则打好基础,负起更大的算法责任,思考质量保证意味着什么。以及思考你是基于公开语料库发布产品,还是先发布到一个不同的语料库中并进行观察。


这些都是我们正在学习和改进的技术。



如何打造透明的、道德的、负责任的 AI?


纳德拉: 我做的第一件事情,就是在微软内部提出原则,让开发者重视这些问题:


我们打造的机器智能是在帮助人类吗?是在增强人类吗?


我看到微软开发的任何一款人工智能产品时,首先会问:


它增强了什么?做了哪些赋权?用了哪些我们可以在算法上负起责任的训练方法?


这些都要求都可以具体落实。不过,我并不想简单地把这些要求当成业绩指标类。落实这些要求,在于我们的开发人员、设计师以及产品选择对这些问题的敏感性。


一家公司想要提供优秀的用户体验,都要提到设计原则,那么对于优秀的人工智能,它的设计原则是什么呢?


这个问题,我一直在思考。



训练深度神经网络时,负起“算法责任”意味着什么?


纳德拉: 以图像识别为例。


如果我们的图像识别 API 本身就存在一些偏见,这有可能是因为缺乏数据,或者是特征选择出了问题,又或者是我们构建的卷积神经网络偏离了设计。我完全认为,我们必须负起责任,就像我们为那些软件漏洞担负责任一样。


人工智能运作的参数最终还是由人类工程师定义的。


并不是说我们想要所有事情时时刻刻都做到完美,但如果有人发现某个地方存在错误,那么我们就会对它进行重新训练。



是否认为存在一种让所有业务都拥有聊天机器人的设计?


纳德拉: 我想我们会找到答案的。


我认为有些特定的业务和特定的业务流程,如买保险是非常适合聊天机器人的,这可以通过设计实现。


事实上,监管的要求是当你购买保险时,使用聊天机器人的效果往往要比自己通过移动应用或网站摸索好得多。



如何才能让聊天机器人说的话听上去更智能?







请到「今天看啥」查看全文