正文
的困扰,许多垃圾信息挤掉了相关的搜索结果,只为了在搜索引擎中能够排名靠前。
此前,谷歌已经开始将来自 TikTok 等社交媒体平台的更多内容直接整合到搜索结果中。在百度,人们也可以搜到来自小红书的内容。随着Google Bard
(后更名为 Gemini)
和文心一言的发布,如今在搜索某些内容时,用户可能会收到一个由人工智能编写的清晰、自然的语言答案。
但问题随之而来。自那以后,谷歌的人工智能产生了一系列不实和错误信息——比如建议在披萨饼食谱中加入胶水,或是食用石头来补充营养。尽管大家都清楚人工智能不可避免地会出错,但当这些错误与人们长期信赖的搜索引擎相结合展示时,其带来的影响要远超过与聊天机器人对话时发现它在“不知所云” 所带来的负面感受。许多专家担心,世界上最重要的知识引擎突然充斥着不可靠甚至危险的谎言会带来难以逆转的危机。
乐观主义者表示,人工智能提供的答案虽然不完美,但人们可以比以往任何时候都更高效地访问他们需要的信息。他们认为,错误信息只是一个短期问题,随着时间的推移,它将变得越来越准确。
为了解决这一问题,许多 AI搜索开始在回答中加入信源索引,以此保证答案可追溯、可考证、可信赖。信源的引入部分解决了大模型的幻觉问题与可解释性薄弱的问题,提升了人们使用 AI的信心。此外,如此“学院派”的功能也特别适合那些把搜索引擎当生产力工具的用户。
昆仑万维董事长兼 CEO 方汉认为,中国的移动互联网时代群雄割据,大量娱乐向的轻度内 容存放在各个巨头的平台上,但一些严肃内容的公开程度反而更高。昆仑万维天工 AI 搜索的目标群体,就是那些将搜索当作生产力工具的群体,包括传媒、科研和投研等领域的人士。传统的搜索巨头赖以生存的基于广告的商业模式难以支持 AI 搜索的颠覆式创新,而大模型搜索在提升人们生产力上的创新,有望带来新的收费模式。
事实上,互联网现在面临的难题可能与 AI 搜索的准确性无关。令人担心的是,如果人们只看搜索引擎为其总结的内容,那些依靠流量来支持其业务的网站的收入将会锐减,最终将专业的内容生产者们踢出市场。长期来看,没有人再愿意生产 AI 需要的高质量内容,过去三十年来科技巨头、内容生产者和广告主之间的平衡正在被打破。
AI的“黑盒”
当然,谷歌作为这场大模型竞赛的失意者,其对 AI 发展的贡献也不可磨灭,几十年如一日的大量投入,发明了 Transformer 这一具有跨时代意义的基础架构,其对 OpenAI GPT 的苦苦追赶犹如 20 世纪 60 年代美苏之间的登月竞赛,最终逼出了世界上首个千亿参数大语言模型。
那么,大语言模型是我们通往 AGI
(通用人工智能)
的正确道路吗?至少目前专家们对此还没有达成共识。尽管大模型展现了惊人的能力,但它也有一些明显的问题。
首先是不可解释性,大模型生成内容是依靠对上千亿个神经元连接参数的计算,因此难以解释其决策过程和生成结果的具体原因。这种不可解释性导致的黑盒决策模式会造成很多应用上的问题,特别是在一些敏感领域,模型的不可解释性与监管要求相冲突。
人工智能和大数据专家窦德景博士认为,与传统的深度学习模型相比,其实大语言模型的可解释性已经有所提升了。原因是我们可以用提示工程对其进行模型事后解释,从而探索大模型行为的边界。这样可以从完全不可见的黑盒模式,向介于白盒和黑盒之间的状态转变,这种模式又被称为“玻璃盒子”。