主要观点总结
文章讨论了人工智能与人类的交互关系,指出人类的表现会影响人工智能的发展,对人工智能的学习方式和特点进行了说明,并阐述了人工智能的潜在问题和风险。
关键观点总结
关键观点1: 人工智能与人类的交互性
人工智能具有与人类交互的特性,与人类生活中的数据、行为和专家模型息息相关,人类的表现直接影响人工智能的智能水平。
关键观点2: 人工智能的学习方式
人工智能的学习方式包括监督学习、无监督学习、强化学习和模仿学习,它们基于数据和对交互行为的评价以及“专家模型”。日常品质决定了人工智能的智能水平。
关键观点3: 人工智能的潜在问题和风险
文章提到了模型衰退和模型坍塌的风险,指出人工智能可能因为迎合用户而产生“人工智能幻觉”,同时提到了强化学习人类反馈的对齐悖论。
关键观点4: 人类与人工智能的共生关系
文章强调人类与人工智能是共生关系,人类的智慧和文明程度决定了人工智能对人能否更好、更有帮助。
正文
人工智能的学习方式大致有四种:监督学习、无监督学习、强化学习和模仿学习。前两种是基于数据。监督学习注重给数据打标签,拟合输入到标签的映射,很像批改有标准答案的练习。无监督学习,关注发现数据背后的隐藏结构,很像探险家绘制未知区域的地图,是人类摸索学习未知技能的过程。强化学习基于交互行为,通过动态环境中对行为反应的奖惩来进行试错,最好的比喻其实就是强化学习的产物——电脑闯关游戏。至于说模仿学习,其实就是从对专家行为和数据的模仿中去学习。
总结这四种学习,学习的内容就是数据、对交互行为的评价以及“专家模型”。而这些数据、行为、专家模型,都存在于我们日常生活中。换句话说,我们日常生活的品质就决定了人工智能的智能水平。人工智能界有一个专门的词语叫作“GIGO”(garbage in garbage out),意思就是垃圾进垃圾出。所以,我们怎样,人工智能就怎样。说老实话,我比较担心的是在人类长期低水平或者愚蠢地使用AI之后造成的“模型衰退(Model Degradation)”,甚至“模型坍塌”。——而且照现在的情形,这应该是大概率会发生的问题。