专栏名称: 腾讯研究院
【腾讯研究院 ★ Tencent Research Institute】 网聚智慧,连接世界!网罗互联网前沿理念、传递互联网发展声音、汇集互联网研究成果、推动互联网法治进程。
目录
相关文章推荐
51好读  ›  专栏  ›  腾讯研究院

从AI原生看AI转型:企业和个人的必选项|AI转型访谈录

腾讯研究院  · 公众号  · 科技媒体  · 2025-04-23 17:30

主要观点总结

本期嘉宾沈旸先生分享了关于AI转型、AI Native的理解和实践经验。沈旸曾任神州数码集团副总裁,负责数字化转型、云基地建设等工作。他探讨了AI Native企业的定义,提到人均效益是衡量AI原生企业的关键指标,并认为AI Native未来会实现通用人工智能(AGI)。沈旸分享了AI Agent在多个场景中的应用,如预订会议室、风控模型等,展示了AI在提升效率和创新能力方面的潜力。同时,他也指出,未来的软件开发模式可能会发生变化,更多依赖AI进行原型搭建和测试,而开发人员的工作可能会更加专业化和高效。最后,沈旸强调,个人和公司都需要适应AI转型,考虑未来的商业模式和合作方式。

关键观点总结

关键观点1: AI Native企业的定义和衡量标准

沈旸认为人均效益是衡量AI原生企业的关键指标,未来AI Native企业可能会实现通用人工智能(AGI)。

关键观点2: AI Agent的应用场景

沈旸分享了AI Agent在多个场景中的应用,如预订会议室、风控模型等,展示了AI在提升效率和创新能力方面的潜力。

关键观点3: 未来软件开发模式的变化

沈旸认为未来的软件开发模式可能会发生变化,更多依赖AI进行原型搭建和测试,而开发人员的工作可能会更加专业化和高效。

关键观点4: 个人和公司的适应策略

沈旸强调,个人和公司都需要适应AI转型,考虑未来的商业模式和合作方式,以迎接AI时代的挑战和机遇。


正文

请到「今天看啥」查看全文


袁晓辉:
现在这种匹配成本确实很高。
沈旸:
非常高。要找到完全匹配的人、组织和团队,搜索成本极高。
袁晓辉:
所以未来AI Native的组织,就像刚才我们讨论个人时提到的,在资源充裕的情况下,让每个人做更擅长的事情。 在组织中,就是让每个人在擅长的岗位各司其职。那么这种匹配是如何实现的呢?AI在其中会发挥什么作用?大家不愿意干的这些活都已经cover掉了。但人与岗位的匹配是怎么实现的呢?
沈旸:
人员与岗位的匹配,目前存在一些问题。过去进行数字化时,很多信息没有被记录下来。比如你与岗位是否匹配,以往可能一年有个OKR、KPI,年底写一段话,或者用二三十页PPT呈现一年的工作,又或者在OKR系统里用几百字记录。但这些并不能代表全部工作,日常的决策、交流、开会等信息很多都没有被有效记录。即使这些信息被记录下来,在ChatGPT出现之前,也难以利用。比如会议纪要,记录了之后有人看吗?从大量会议纪要中搜索信息也很困难。开了一年500个会,每个会的决策、思考等信息,如果都要详细记录,对人的搜索能力要求极高。 在传统领域,人对信息的吸收存在明显瓶颈。
袁晓辉:
人的信息处理带宽很低。
沈旸:
不仅带宽低,人还容易情绪化。比如你会更愿意和喜欢的人交流,PPT会用自己习惯的格式。甚至PPT中某个颜色让你感到惊喜,可能都会影响你当天的工作状态。这些都会影响人正常吸收信息的能力。我认为AI的优势在于,它最擅长的是翻译,比如英文翻中文、中文翻英文。其实可以把每个人的语言和思维体系看作一种语言,你的思考体系和理解方式是一种语言,我的是另一种语言。这是我们过去多年成长经历形成的。 很多时候我跟你说一句话,我以为你能理解,因为我有自己的上下文背景,但由于你我的成长背景不同,你可能理解不了。目前AI未来有望很好地解决人与人之间的“翻译”问题。
但是我们缺的是什么呢? 缺的是对个人和组织模型的描述。目前像ChatGPT、DeepSeek等大模型,更多是具有普世价值的模型,回答问题中规中矩。它整合了几千人、几万人甚至上亿人的知识和价值观。比如对大模型进行价值观测评,它的回答永远比较中性,不会极端。但人因基因和成长经历不同,每个人的模型都不一样。
袁晓辉:
对。我前几天看到有创业者在做“Second Me”,就是把一个模型训练成第二个自己,用个人历史数据信息进行训练,让它了解你是什么样的人。我们有同事之前在AI工具里设定一个系统提示词,让AI用她的方式来思考。那未来是不是每个人都会有一个类似自己的大模型,同时它也是自己的AI Agent?
沈旸:
你的AI助手,会的,但需要给AI很多训练机会。我们自己思考时,很多数据不会外露。比如互联网公司会收集一些数据,但这个数据很片面。比如说你在网上买一个东西,你为什么买这个东西?其实背后可能也有很多的思考。比如说当时可能是因为价格,这个东西打折了,你才愿意去买这个东西。但是很多时候你表露出来的,我并不是因为小气,并不是说省钱,而是因为这东西好看。你说出来的东西跟自己想的其实并不是百分之百完全一样。
袁晓辉:
那你怎么将大脑中的想法数字化呢?
沈旸:
要将大脑中的想法数字化,目前还很难做到,未来可能要依靠脑机接口。 我大学本科毕业设计做的就是脑机接口相关内容。 我认为未来的前沿领域之一就是脑机接口,通过它可以记录大脑的潜意识,并与动作挂钩,让AI大模型不断模拟你的决策。 其实决策最重要的就是你脑子中怎么想。说人是受到社会约束的一个动物也好,或者是一个个体也好,你可以胡思乱想。但是你在这个社会里面,你最后做出来的行为,你不能伤人,你不能伤害大家利益,对吧?你一定要做出一个比较利益最大化的一个决策。大家脑子里可能都会异想天开,胡思乱想各方面的东西。但是一旦到做出动作的时候,做出决策的时候,他一定是个比较理性的一个决策。
袁晓辉:
没错,如果模型能够模拟这个过程并预测你接下来的行为,且准确率不断提升,那确实就像你的分身。
沈旸:
这件事未来比较容易去做的,因为现在很多技术都在降低成本。比如拍短视频就是一个例子。以前我举过一个例子,如果把人一生中每天的行为都用视频记录下来,即使大脑意识不完全披露,AI也能较好地理解你、模仿你。因为至少输入和输出都被记录下来了,AI可以把你当作一个黑盒子,不断模拟你的行为,当模拟准确率达到99%或更高时,对性格等方面的描述就会非常精准。这其实是AI未来很容易做到的一点。
袁晓辉:
那您觉得在大语言模型这条路线上可以训练出我们自己的模型吗?
沈旸:
我觉得还不一定。 人的大脑与ChatGPT模型不同,现在DeepSeek等模型有一些新的概念。ChatGPT模型更像是概率模型,是单向的,没有形成回路,而人做决策需要反馈。 人的大脑还有一个厉害的地方,就是有仿真环境。比如在做一件事之前,你可以脑补场景,像在电视上看过旅游的场景,你就能想象自己去旅游的情况。做梦也是一种脑补过程,梦境中的场景非常真实。
但目前的大语言模型缺乏对人或环境的真实描述。 目前大模型我给他举个例子,更像一个缸中之脑,在营养液里面泡着一个大脑,它只会输出一些文字。我们为什么有时候会觉得这个AI不靠谱?因为没有反馈。
最近Manus等取得很大进展,就是因为通过大模型调用各种API、RPA等工具。他让这些事情得到一个反馈,我能迅速看到这个实际反馈到底是正确的还是不正确的。
袁晓辉:
前两天LeCunn一直在讲世界模型,也是类似的道理。 现在的AI缺乏对物理规则的理解,而人出生就有对环境的感知和对物理规则的基本理解。所以他们尝试用联合嵌入预测架构等模型进行预测,并与真实情况对比,初步让大模型掌握对世界的预测能力。 这可能也是接下来的一些方向。 机器人也是,如果机器人有了AI大脑,再加上身体,就能与环境互动交流,获得直接反馈,发展会更快。
沈旸:
现在大模型融合视觉、听觉等原生模型后,能够形成自闭环模式。但要形成类似人类大脑的仿真环境,还需要进一步探索。 现在至少在数字世界里面是比较容易的。比如做一道题目或设计一个游戏,在数字世界里更容易完成闭环。所以我们可以看到,过去的AI未来可能会与操作系统、虚拟机、容器、云架构更好地整合,这反而会促进云计算的发展。

组织推进AI转型的关键步骤,第一步让团队对AI产生好奇

晓辉:
刚才我们讨论了AI Native相关的个人和组织的未来构想。我们也很关心当下如何向未来迈进。很多企业想知道如何进行AI Native转型,如何在企业中应用AI。我知道您的公司在信息化方面深耕多年,有很多有意思的应用案例,近期在AI Agent方面也有探索。能不能分享几个您觉得比较有意思的应用?
沈旸:
好的。 我认为首先要让所有团队对AI产生好奇。 大家看到AI后,要思考它能做什么,公司内部可以组织研讨会分享相关内容。作为科技团队,要为员工提供方便使用的工具。比如OpenAI刚推出时,API连接不方便,那你可以迅速搭建中间API为大家提供服务。DeepSeek也是如此,一开始大家使用时可能会遇到服务器忙等问题,从而失去兴趣,所以要提供稳定、随手可用的入口,这很重要。
然后在内部寻找探索和实践的细分场景。 比如说一开始可能就非常简单,就是拿AI去写写PPT,写写文档,把这些工作给做完。但这个工作对任何一个公司,都是普适性的,对吧?那这个时候大家可能会对AI有一些了解,比如说以前大语言模型,大家可能会觉得他对文字的润色的这些工作做的特别好,但是你可能要加很多的Prompt,加自己习惯的Prompt。有点像秘诀一样,像法术一样。它是一个普适的场景,他可能跟公司场景并不是特别挂钩。通过这些简单应用,大家可以了解AI,比如知道大语言模型在文字润色方面表现出色,但需要写合适的Prompt,并且要了解不同模型对Prompt的效果预期,清楚AI能做什么、不能做什么。
沈旸:
比如说2023年时,我们判断AI无法替代ERP等流程系统,因为当时的AI是概率模型,输出不可控,无法做到百分之百精准,至少当时在这个大屏上我们也看到这样的一个体系。那很多时候我们就会把现实中哪些环节是不需要百分之百精准的。把可以把这些场景搬过来。
袁晓辉:
对。所以会大家发现AI客服,包括头脑风暴,或者前期的这些材料。

AI转型也许可以从一些非核心业务切入

沈旸:
对,就是一开始替代各种文科生的,这些赋能文科类工作的场景应用较多。当时对一些创意设计类工作,AI也有应用,因为这类工作没有绝对正确答案。
袁晓辉:
对,不需要精准。
沈旸:
就像语文和数学,很少有人语文一直考满分,因为没有绝对正确答案,而数学能力强的人可以一直考满分,因为有精准答案。
所以在23年的时候,我们判断大量文科的场景,怎么去把它做赋能。到了24年的时候,随着AI Agent的一些落地,包括各种样的开源的框架。 你可以用一些单元模型去跟一些AI型的工作流各方面去做对话。发现它其实是可以把原来的一些流程做一个非常小的闭环。 比如说以前跟你们分享过那个订婚式的场景,你去定一个会议室,其实他是需要去不同的系统里面把这个打通,那有时候他也要理解你的这个意图,如果定明天他们下午几点钟的一个会议室,其实里面都是文字。
过去在系统里预订会议室,通常是点击选择楼层的会议室。但实际情况往往更复杂,涉及多个方面。比如有人希望预订能看海、靠窗的会议室,每个人可能都有类似的个性化诉求。然而,过去的会议室系统无法满足这些需求,也不可能实现这样的功能。
袁晓辉:
一般会议室会配有图片,我们可以通过图片查看会议室能容纳的人数、是否靠窗等信息。
沈旸:
但这样的搜索匹配过程比较耗费精力,即便记住这些信息也并非易事。如今,AI能够自动进行匹配,还能为每个会议室添加标签。甚至可以分析行政平面图,确定哪些会议室靠窗、看海或朝南,然后将其添加到用户的收藏夹中,用户无需再刻意记忆。之后,AI通过简单的API就能与会议系统打通。
这个过程看似简单,实际落地却困难重重。我们在2023年底就做出了这个场景,但当时准确率并不高,这难免让人感到失望。毕竟大模型连上万字的文章都能修改得像模像样,却在时间、地点、人物这些简单信息的识别上出错。例如,对于“下个月的第一个星期一的某一天”这样的时间描述,它总是判断错误。直到2024年10月左右,大模型才在某个环节实现了100%的准确率。
袁晓 辉:
准确率达到100%,是因为大模型的推理能力提升了吗?
沈旸:
我推测有两个原因。 一是大模型可能调用了工具进行检验。比如让大模型计算数学题,它碰到数学问题就调用计算器,计算器得出的结果肯定是准确的,最后将结果返回。只要能精准地将用户意图拆解并调用合适的工具,准确率就能大幅提升。 就像预订下个月的会议室,调用日历工具就能准确确定日期。 二是大模型内置的一些模型可能进行了大量的优化训练和对齐。
这里我解释一下 无损压缩和有损压缩的概念,这也是我们判断大模型应用的重要标准。大模型本质上是对世界知识的一种有损压缩。 以一个几千亿参数的大模型为例,训练时会使用全世界的各种知识,像《红楼梦》《西游记》、国外书籍、法律法规等,可能用到几十T的数据,但训练出来的大模型体积却远小于这些数据,可能压缩了几十倍甚至400倍。所以,大模型无法还原所有信息,比如询问《红楼梦》某一页的某个字,它大概率是记不住的,这和人看书的情况类似,人也很难一字不漏地背下整本书,这种就叫有损压缩。
有损压缩后,想要还原信息是很困难的,必然会出现错误。假设用一个包含1亿条时间、地点、人物信息的测试集对大模型进行压缩,最后可能压缩成100万条。此时,如果让大模型还原其中一个从未见过的场景,它就可能理解错误,出现准确率下降的情况。
还有一种是无损压缩。就像我们学习数学,背诵九九乘法表,背完后所有数学运算都能做,数学定理和公式经过压缩就剩下那么几条,通过这些条件进行反推,虽然推理过程比较费脑子,但能得出正确结果,这就是无损压缩。如今,像DeepSeek、Cody等模型增加了深度推理能力,能够从一些小的原理或公理出发,举一反三推出更多内容。这对大模型的压缩能力和技术提出了更高要求,不再是单纯依靠海量数据训练,让模型变得更大去记住所有东西。所以,期待大模型记住所有信息是不现实的。






请到「今天看啥」查看全文