正文
情境依赖问题需要人性智慧
从一个很具体的决策情境说起。
2016年,北京大学的心理学副教授徐凯文博士的一篇名为《时代空心病与焦虑经济学》的演讲引发热议。演讲开头讲述了他对有自杀倾向的年轻人实施的一次远程心理干预。那位年轻人在微信里给他留言:“我现在手里有一瓶神奇的药水,不知道滋味如何。”他立刻从这句话中读出了危险,并最终通过自己的专业技能救回了一条生命。
对于这个决策情境,不妨想象:一个人工智能的心理医生若是收到上述信息,是否能够分辨并作出恰当的分析和决策?
即使没有受过徐博士那样的专业训练,很多人在同样情境下,依然可以从这句信息中读出“暗示”,普通人的人际交流能力就能作到这一点。更重要的是,这句话若是换了几个字词——如“我现在手里是新药水,不知道味道会不会难喝?”——即使在情境大致相同(心理疾患向医生提问)的情况下,尽管表面意思大致相同,但内涵却千差万别,此时危险警报没必要响起。
在日常交际和工作场合中,大多数人根据这类“微小信息差别”作出不同决策都游刃有余。
人类在工作场合需要处理大量这类决策,并且整体表现良好。但目前的交互型人工智能还难以胜任这类工作,即使它具备了从经验中自主学习的能力,人类也不会给它在真实情景中学习的机会,而模拟案例的学习也会因为难以达到决策精度的要求而就此作罢。
当然,在类似决策情境下,一旦上述特征发生变化,人工智能就有可能提供帮助,例如当输入信息很大并且错误容忍度较高时。有媒体曾报道,Facebook就通过人工智能在海量帖子中标记出有自杀倾向的帖子和用户,再转交由专业组织进行专业判断和干预。从海量信息中甄选并初步诊断出疾患,即使调用这个星球上全部的心理医生投入这项工作,也难以达到人工智能的效率和准确率,而且人工智能还能够根据反馈信息越作越好。
上述例子可以看出,在目前可预测的技术发展水平上,人类智能和人工智能各擅胜场。如果能具体识别哪些决策中,人工智能更强,而哪些决策中人类智能更强,商业人士就能够更好地利用人工智能优化决策。