正文
9年后,爱因斯坦级别的
AI
要来了?
OpenAI的Dan Roberts说,或许:
9年后,模型就能独立发现
广义相对论
级别的成果。
9年后。爱因斯坦级别的AI。这太夸张了。
凭什么这么说?
这要从ChatGPT发布的几个模型说起。从4o模型,到o1,再到o3。他们的推理能力,表现得越来越好。o3,能在1分钟的时间内,完成Dan Roberts要花3小时才能计算出来的物理问题。
为什么会这样?
Dan Roberts认为,答案可能是:
强化学习。
如果说预训练,是让AI模型通过“提前预习”,学到了海量知识,那么强化学习,就是让AI在不断的实践、试错和获得反馈中,自己摸索出解决问题的方法。4o模型,几乎全部是预训练计算。o1里,有了那么一些强化学习计算。o3里,强化计算的占比进一步增加了。
所以未来,
Open AI,打算继续加码强化学习。
他们相信,强化学习,是让AI从“博学的学生”,进化为能够独立思考、主动探索的“研究员”的关键路径。
以前,大家觉得强化学习,只是预训练这个大蛋糕上的一颗小樱桃,但OpenAI,打算用“巨大的强化学习樱桃”,压垮整个蛋糕。
所以,如果把AI的思考能力,按照7个月翻一番的速度来计算的话,想让模型能力到达爱因斯坦的级别,所花费的时间,差不多需要:
9年
。
不过,
有聪明的大脑还不够,还得有能干活儿的手脚才行。
于是,Nvidia的研究主管Jim Fan,提出了:
物理图灵测试。
通过“物理图灵测试”那天,似乎不远了
什么是“物理图灵测试”?
举个例子。
你刚和狐朋狗友,在家里聚完。好好的客厅,乱得像“战场”一样。
眼看老婆要发火,你赶忙对AI机器人说,收拾干净,顺便准备一顿烛光晚餐,让我领导开心开心。
很快,机器人三下五除二,家里窗明几净,桌上牛排红酒,浪漫得不行。最关键的是,你完全看不出来这活儿,是人干的还是机器干的。
如果真能这样,那恭喜,这个机器人就通过了“物理图灵测试”。
听起来不错,对吧?
但是,要让机器人在现实世界里学会各种技能,就得有大量数据来训练。
可是,让机器人在现实中一点点试错,收集数据,成本太高,效率太低。你要雇佣大量人员,操控机器人,在各种环境里完成任务。
Jim Fan把这种宝贵的真实数据,比作“人类燃料”。实在太金贵了,烧不起。
那怎么办?答案是:
模拟。
用AI技术,在电脑里,搭建出超级逼真的虚拟世界。一个人类实操的数据,可以叠加100种环境,100种条件,获得1万条数据。
由此,机器人就可以在虚拟世界里,进行亿万次的低成本、高效率、零风险的交互,从而收集数据。机器人的“智商”,得以飞速提升。
具身智能的时代,可能真的离我们不远了。
也许未来某天,当机器人通过“物理图灵测试”的时候,那天也将被认为,是一个普普通通的周二。
AI发展,不仅改变上层应用,也在重塑底层的基础设施。
比如:
数据中心。
AI,正在重塑数据中心产业
Crusoe公司的CEO,Chase Lochmiller提到,
AI,正在重塑数据中心产业。
为什么这么说?
现在,假设你是一个数据中心的负责人。你要考虑什么?
首先,一切都要为AI模型的性能服务。
AI模型的训练和推理,要调用十万,甚至上百万个GPU集群。所以,不能简单地把服务器堆在一起,要统一规划调度,确保网络、存储、计算单元之间的数据流转。
甚至,整个数据中心本身,都可以被看作是一台为AI计算打造的超级计算机。
不过,要驱动这么一台“超级计算机”,“动力”从哪里来,成了关键。
要运行十万、百万规模的GPU集群,所需要的电力特别惊人。根据中国能源报报道,一个典型AI数据中心消耗的电力,相当于10万户家庭的用电量。所以,那些风电、水电便宜,比如大草原、大沙漠、大河旁边的选址,就会更受青睐。
当然,强大的“动力”,也带来了惊人的热量。
一个AI服务器机架的功率,可能是以前普通服务器机架的十倍、百倍。再靠传统的空调制冷,可就完全不够用。你可能需要把整个服务器,都泡在冷却液里,才能达到效果。
所以,你看。
由AI驱动的基础设施变革,正在为能源、建筑、制冷、网络、芯片制造等多个传统行业,带来全新的挑战,和前所未有的机遇。
好吧。不过看来看去,这都是“大生意”,或者需要之前就在这些行业里,有所积累。
那么,没有积累,想要快速入局的普通创业者,又该怎么办?