专栏名称: 智东西
智东西-聚焦智能变革,服务产业升级!作为智能行业新锐媒体,智东西专注五大领域:VR/AR;AI/机器人/无人机;智能汽车/智能出行;智能家居/物联网;智能穿戴/智能医疗,通过内容、活动、报告以及社群等方式助力“智能+”时代的创业和产业升级。
目录
51好读  ›  专栏  ›  智东西

扎克伯格深度专访:怼苹果,夸DeepSeek,聊AI开源痛点

智东西  · 公众号  · 科技媒体  · 2025-05-07 23:15

主要观点总结

扎克伯格在深度专访中谈到了Meta在AI领域的布局,以开源大语言模型Llama为核心,并透露了Meta AI的多个应用以及未来与AR/VR技术的结合。扎克伯格强调了效率优先的AI哲学,并探讨了AI在社交、广告、内容生成等方面的应用。他还提到了Meta在AI领域的开源策略,以及AI在元宇宙和社交互动中的潜力。此外,扎克伯格还讨论了Meta在VR/AR领域的布局,并提到了Orion AR眼镜的进展。最后,他表达了对Meta名称的满意,并展望了AI和全息世界的未来。

关键观点总结

关键观点1: Meta在AI领域的布局

扎克伯格强调了Meta在AI领域的布局,以开源大语言模型Llama为核心,并实现了生成文本、数学推理、代码生成等能力的跃升。

关键观点2: Meta AI的应用与未来

扎克伯格透露了Meta AI的多个应用,包括自然语言交互、多模态内容生成和个性化推荐系统,并探讨了AI在社交陪伴和信息流内容中的新应用。

关键观点3: 开源策略与AI哲学

扎克伯格讨论了Meta在AI领域的开源策略,强调了效率优先的AI哲学,并认为开源生态能打破限制,推动技术发展。

关键观点4: 元宇宙与社交互动

扎克伯格探讨了AI在元宇宙和社交互动中的潜力,并提到了AR/VR技术在连接人与AI中的作用。

关键观点5: VR/AR布局与Orion AR眼镜

扎克伯格提到了Meta在VR/AR领域的布局,并透露了Orion AR眼镜的进展,以及其对AR眼镜市场的期待。

关键观点6: Meta名称与未来展望

扎克伯格表达了对Meta名称的满意,并展望了AI和全息世界的未来,强调了眼镜在实现这些目标中的关键作用。


正文

请到「今天看啥」查看全文


主持人:你这里说的是芯片公司Groq,而不是AI模型Grok,对吧?
扎克伯格: 是的,Grok也很有意思,那是xAI公司创始人兼CEO埃隆・马斯克(Elon Musk)的项目,但我现在说的是芯片公司Groq。
如今,他们的业务是制造芯片,构建一个垂直整合的服务体系,提供超低延迟的API,真的很酷。我觉得有这样能够使用开源模型的公司存在于一个生态系统中是很棒的。

02 .
AI领域的资源分配,优先支持核心业务,
API业务处于次要位置


主持人:也许我应该在你几分钟前提问的时候就给出主题句,Llama API的目标是为行业提供一个参考实现。我们并不是想围绕这个API建立一个庞大的业务,我们基本上就是想做一个非常简单、基础的API,让人们知道这就是我们想要构建的模型,而且它是可行的。你可以直接把你之前调用OpenAI API或者其他API的部分,替换成调用我们这个API的网址,它就能正常工作。而且我们不会大幅加价,基本上就是按照我们的资金成本来提供这个API。如果不加价太多的话,这听起来可能会发展成一项相当大的业务呢。
扎克伯格: 但对我们来说,它不会带来很高的利润。
主持人:是的,我知道。你说“就这么个小业务,我们不会收很多钱”,但我不确定这两者是否一致。 如果你收费不高的话,为什么大家不都用你们的API,而要去用其他云服务提供商的呢?
扎克伯格: 理论上来说, 其他把托管模型作为核心业务的公司,应该能提供更有趣、更有价值的服务 。比如我们刚才提到的Groq公司,他们通过定制芯片来做特定延迟优化的推理计算,就是很有特色的例子。
主持人:没错。但比如很多人在亚马逊云服务上使用Llama模型
扎克伯格: 对的。亚马逊云服务的优势很明显。如果你是他们的客户,他们本身就有一整套广泛的服务,能满足你不同场景的需求。
主持人:所以如果有人刚开发一款应用,还没有锁定任何云服务,Llama API会是最简单、最便宜的解决方案吗?
扎克伯格: 没错。当你刚开始想用Llama 4模型,想找一个能稳定运行的靠谱入门选择时,直接用我们的API就行,它肯定能正常工作。等你后续需要扩大使用规模时,可能会根据自己的需求调整,比如选择自己搭建服务器运行模型,或者用其他更适合的工具。
但关键是,整个开源技术圈需要有一个像我们这样简单好用的“标准版本”,让大家能轻松起步,这对推动技术发展很重要。
主持人:如果某个用户通过你们的API把业务做得很大,你们会不会对他们说“你现在规模太大了,得换个地方,不能继续用我们的服务了?”
扎克伯格: 目前还不确定,我们还没深入想过这个问题。
主持人 待定?
扎克伯格: 对,确实还没仔细规划过。其实我们内部也在想,为什么我们之前没把API作为一项业务来做。
主持人:这正是我接下来的问题,为什么Meta整体上没有发展云业务,特别是考虑到你们需要从Llama的训练成本中获取回报,毕竟花了这么多钱训练模型,需要通过更多方式盈利。
扎克伯格: 对,这里有个很有意思的业务逻辑。对我们来说, 把新增的GPU资源分配到内容推荐或广告优化上,总能获得更高的边际收益 我一直为Meta没有提供API服务而辩护,我觉得这是有其合理性的。
主持人:我完全认同,之前就是这个观点。
扎克伯格: 没错。所以现在我们认为, Llama的成长本身有价值,而提供参考实现的API能推动它的成长。 我们觉得这个东西有存在的必要,但从经济角度看,我不认为它会成为核心业务。
如果未来它真的消耗大量算力资源,而且能盈利,那当然好,我们可以同时做好推荐系统和API业务。
主持人:现在确实存在机会成本的问题。
扎克伯格: 说实话,我们根本没法完全算准到底需要多少算力资源,其实我们内部一直在纠结是把更多算力留给Meta公司旗下的Instagram Reels团队优化视频推荐,还是分给其他团队搞新项目。
目前来看,API业务在我们的优先事项里排得比较靠后,因为像内容推荐这种核心业务更需要算力资源。不过,我们有超大规模的数据中心,算力资源很充足。所以拿出一小部分来做这个“标准版本”的API,让大家能轻松上手用开源AI,其实是件划算的事。这就是我们的整体考虑。如果真有用户规模做得非常大,我们可能会再协商具体方案。
主持人:如果有第三方开发者靠你们的API把业务做得特别大,作为平台方的你们是否要求其进行业务调整呢?
扎克伯格: 到时候再看。
主持人:船到桥头自然直?
扎克伯格: 一般来说,在这个行业里,用户能做大做强是好事。
主持人:当然,这算是个幸福的烦恼。不过回到成本问题,你刚才提到的担忧,也是我关心的,就是模型推理的成本。这些算力资源你可以留给自己用,也可以给外部用户,确实需要权衡。 还有个疑问,你们花了几十亿训练模型,怎么才能让这些钱花得更值、回报更高呢?很多投资者觉得你们做API业务能赚钱,估计也是冲着这个来的。另外听说好多公司用Llama模型尝到了甜头,他们是不是该多分担点训练成本呢?你们有没有打算找他们合作,会有公司愿意一起掏钱吗?
扎克伯格: 我们和一些公司聊过,但目前还没谈成。随着训练成本持续上升,未来可能会有变化,但现在实际情况是,市场上反而有很多公司开始自己研发模型。
原本我以为一些公司会加入Llama的开源生态,通过标准化来降低成本,结果他们反而纷纷开始自行研发模型。所以未来如何还不好说。但我猜测,未来几年内,模型训练可能需要千兆瓦级的算力集群,行业应该会出现整合。
主持人:总会有公司选择退出吧。
扎克伯格: 不一定 你看,我们做财务规划时,是假设自己承担全部训练成本的。如果未来能和其他公司分摊,那是额外的好处,但我们并不依赖这一点。
我觉得这对我们来说反而是个优势。如果你需要,我可以详细解释一下背后的商业逻辑。

03 .
布局四大业务方向,广告优化、用户参与度提升、商业消息服务、AI原生业务


主持人:我确实想聊聊你们的整体开源策略。一方面,作为行业的观察者,我非常感谢你们的开源举措,你们通过技术开放策略,系统性消除了阻碍AI大规模应用的非理性障碍,加速了实用化进程。另一方面,包括Meta在内的大公司,一直是开源领域的主要贡献者。你曾把Llama比作“开放计算项目”(Open Compute Project),在那个项目中,全球数据中心采用你们的标准,硬件制造商按标准生产,最终都为你们的盈利助力。而你们并不是数据中心提供商,这些都是额外的收益。所以对于Llama,我的问题是开源带来的经济回报是什么?尤其是当你们考虑“或许我们确实需要对模型进行自有适配”时,这仅仅是品牌建设吗?还是说研究人员喜欢开源模式?特别是经济层面的回报。
扎克伯格: 开源其实是构建模型之后的决策,对吧?我们不是为了开源而开发Llama,而是因为我们相信,要构建自己想要的服务就必须先拥有这样的模型。
主持人 我接下来的问题是你是打算始终站在技术前沿吗?还是可能落后一段时间?
扎克伯格: 从长远来看,我们必须保持技术领先。我们注意到行业里有几个新变化,现在各个公司开始各有专长,有的专注于某个领域,有的主攻特定方向,而我们的业务场景和需求跟别人不太一样。以我们的业务规模来说,开发真正符合自己需求的模型是很自然的事。






请到「今天看啥」查看全文