专栏名称: 战略前沿技术
【战略前沿技术】紧紧围绕“技术创新”和“管理创新”双轮驱动,聚集前沿科技以及孕育产生前沿科技的政策环境、体制机制和管理模式等,密切追踪科技前沿热点,敏锐捕捉战略前沿技术,传播前沿科技资讯。欢迎点击订阅!
目录
相关文章推荐
36氪  ·  1亿直男也救不了虎扑 ·  昨天  
51好读  ›  专栏  ›  战略前沿技术

“脑机融合”比人工智能更危险 | 脑机融合对抗人工智能?

战略前沿技术  · 公众号  · 科技媒体  · 2017-05-25 23:37

正文

请到「今天看啥」查看全文


弱人工智能是在特定领域类似、等同或者超过人类智能/效率(不具备自我意识)的机器智能。就目前已广泛应用的人体识别、机器视觉、自动驾驶、机器深度学习等AI技术而言,都属于擅长单一活动的弱人工智能范畴。可以“战胜”李世石一百次的AlphaGo也不例外。AlphaGo的工作原理是训练多层符号化的人工神经网络进行“深度学习”,这种“学习”,实质是将大量矩阵数据作为输入,通过非线性激活方法取权重,再产生另一个数据集合作为输出,调整权重分配,反复迭代逼近期望值,直至满意,就把权重矩阵固化下来,从学习状态转到工作状态。本人与斯塔普的研究表明,这样的学习过程,从头到尾都没有任何机会让“自我意识”涌现。

以雷·库兹韦尔为代表的未来学家认为“智能爆炸”正在发生,但他们并没有论证过人类的自我意识和人类的智能的分别在哪里,也就无法揭示这种所谓的“智能爆炸”到底是福还是祸,从而所谓的“乐观”还是“悲观”的区分都显得肤浅和不得要领。虽然我们在这里没法展开系统的论证,分析一下这种威胁论的直接起因,还是可行的。

首先,人工智能可以通过“学习”无穷迭代改进其“能力”,而这种权重分配为何能达到这个能力,却是一个无人可以破解的黑箱内的矩阵状态。这样的事态,听起来就会引起大家的心理恐慌。此种危机意识是人类自己将“对未知领域的不确定和不可控性”“对未知领域可能产生的巨大影响”与“缺乏学理根据的科幻想象”糅合之后的产物。也就是说,这种危机感类似于被迫害妄想症,而问题症结不在于人工智能这项技术,而在于有这种意识的人群本身。因为在没有完全弄清楚人工智能与自主意识的问题之前,将人工智能拟人化或主观赋予其行为动机都是出于人们臆想的焦灼和恐惧,所以这种威胁实属“人为”而非“机为”。

其次,以马斯克为代表的一部分人担忧,如果怀有恶意的个人/组织/集团/政府率先掌握了超人工智能技术并用其实现自己的邪恶计划,那么人类的处境将会变得岌岌可危。这类危机来源围绕的仍旧是人的动机,关涉的依然是人与人之间的操纵与被操纵的“政治”问题,而无关乎人工智能是否具有“征服”的意图。只要不脱离人际间的关系,看似由人工智能所导致的控制危机实质上就仍然属于人类自古以来一直都在面对的统治与被统治的话题。这与黑幕后的政客或极端恐怖分子掌握大规模杀伤性武器本质上是一样的,也与我们造了大坝却对其后果难以预测和把控的情况相差无几。所以,人工智能这项新型技术可能会对我们过往经验构成严峻挑战,但并不会产生完全不同类型的新问题。也就是说,人们担心的“智能爆炸”所引发的后果并不是一个新难题,而是一系列老问题的叠加。

再次,对于人工智能技术的焦虑还来自另一类认为它将取代人类劳动力,从而造成大量人类失业的威胁。这类忧虑,实则是对人类内在价值的误读。其实,“不劳而获”只是在有人“劳”另有人“获”时才是坏事,而使得所有人都可以“不劳而获”,正是所有技术进步的应有目的。人类谋生所需的体力劳动和脑力劳动被机器替代是必然的趋势,而这正是我们所有经济发展技术创新所谋求的主要目标。由此看来,人工智能取代人类劳动,我们应该拍手叫好才是。只要我们的分配制度与人类劳作的关系理顺了,人类并不会因为失业就丧失了生活的意义,反而这让人们有更多的机会去使其内在价值大放异彩,直接谋取生活的意义。

所谓人类生活的内在价值,是与其外在价值或工具价值相对而言的。比如,单从一个人来说,为了购买食物让自己生存下去而不得不从事一份枯燥乏味的工作,这种工作并没有任何独立的价值,其价值完全是工具性的、附属于生存需要的。另一方面,内在价值却是非工具性的。或许哲学家们在几千年的争论中还未能将具体哪些是人类的内在价值给出一个精准的划分和描述,但诸如幸福、自由、正义、尊严、创造等这类基本内在价值是鲜有否定的。这些价值不是为了其他价值或目的而存在,它们本身就具有至高无上的价值,失去这些价值诉求,人们生活所欲求的全部内容将不复存在。而人工智能取代人类劳动力从事基础工种的劳动,恰恰是将人类从劳作谋生的桎梏中解放出来,让人们投身到艺术、认知、思想、情爱、创造等实现人的内在价值的活动中去。

最后,正如最近大热的科幻剧集《西部世界》和《黑镜》系列所隐喻的那样,部分人认为人工智能的“觉醒”才是对人类最致命的威胁。他们害怕人工智能发展到具有自由意志和自主意识的强人工智能阶段后,会拥有跟人类一样的“人性”腹黑面而与人为敌。但是,正如以上所说,现今冯·诺依曼框架下的二进制计算机的工作原理依赖经典物理学的“定域原则”,永远不可能“觉醒”,而只有以“非定域原则”为构架的计算机(比如量子计算机)才有可能产生自我意识。所以,在现今神经网络人工智能独领风骚的情况下,这种担心完全多余。

那么,如果基于量子力学我们真的制造出了具有自我主体意识的强人工智能呢?这时我们就要彻底转变思路了,此时有意识和情感的人工智能也具有与人类对等的人格结构,在社会地位与权利尊严等方面应与人类一致。拿它们去买卖,相当于法律上的贩卖人口。进一步地,我们必须将它们看成是我们的后代,与我们在实验室培育试管婴儿并无本质上的差别。自古以来,我们都希望自己的后代超越自己啊,“强人工智能”比我们强,我们庆贺都来不及,还焦虑什么呢?

总之,按照人文理性的要求,面对自己创造的具有自我意识的强人工智能存在体,我们的基本态度应是接受并认可他们是人类进化了的后代。正如经过上万年的演变后,躲在山洞里的智人成为穿梭于摩天大厦里的现代人的历史进程一样,人类以崭新的方式繁衍出一种新面貌的超级智能人,这不是灭世的劫难而是人类的跳跃式进化。

但是,目前以Neuralink为代表的科技公司所试图做的脑机互联,却极有可能将人类个体变成徒有人形的机器人,亦即行走的“僵尸”,彻底终结人类文明。如若仅仅出于害怕人类在超人工智能时代到来时不能与AI在劳动力市场相匹敌甚至被淘汰而企图将人类变成AI,这将是对人类最紧迫且最严重的威胁。就像上文所说的那样,人脑是迄今为止我们所知的最为复杂精巧的东西,在我们还没有基本摸清其运作原理之前,对其进行任何加工改造都是极端危险的行为。


4.虚拟现实的颠覆性



著有《未来简史》的哲学家赫拉利最近在英国的《卫报》发表了一篇文章,题为“无需就业就实现人生意义”,宣称人工智能的发展将大多数人变成“不可就业”后,虚拟现实让人们直接实现生活的意义。他还把人们在VR世界中与生产力脱离的活动类比于古往今来的宗教活动,试图说明人们从来都是在生产活动之外才找到深层意义的源头。

赫拉利认为劳作不是生活意义的源头,与我们以上的观点不谋而合。但他将人们在虚拟世界中的活动与宗教类比,却忽略了一个最重要的问题,那就是,在宗教中,人一般被当成被造的存在,而在虚拟世界中,每个人都可以是世界的“造物主”。他没注意到,“创造”与“被造”,是相反的。

在VR与物联网整一起之前,VR只是一个体验的世界,很多东西并不会在真实社会中直接造成实质性后果。VR和物联网整在一起就不一样了,那就是ER,扩展现实,我们此时就可以从虚拟世界操作现实世界中的物理过程,完成生产任务了。这方面我们界定完了以后,就可以讨论,到底在现实世界不能干的事情,是否可以允许人们在虚拟世界中去实现。







请到「今天看啥」查看全文