主要观点总结
OpenAI推出了名为OpenAI o1的新人工智能模型,具备“推理”能力,尤其擅长处理数学、代码、物理、化学等问题。该模型分为o1-preview和o1-mini两个版本,仅支持文本形式。全球多位AI领域的关注者对其进行了评价,意见大致分为两派。一派以OpenAI的高管和研究员为代表,认为新模型开启了AI技术的新范式,使大模型走向更复杂的推理时代;另一派则持较为保守的观点,认为新模型的能力尚未得到充分测试,距离AGI还很遥远。OpenAI o1模型的推出标志着AI技术的重要进展,但在处理非标准化问题上仍需提高。
关键观点总结
关键观点1: OpenAI推出名为OpenAI o1的新人工智能模型,具有推理能力,擅长处理多领域问题。
新模型推出了o1-preview和o1-mini两个版本,仅支持文本形式。全球AI领域的关注者对其评价不一,存在分歧。
关键观点2: OpenAI o1模型的评价存在两种主要观点。
一派以OpenAI的高管和研究员为代表,认为新模型开启了AI技术的新范式;另一派则认为新模型的能力尚未得到充分测试,距离实现AGI还有很长的路要走。
关键观点3: OpenAI o1模型在处理非标准化问题上仍有待提高。
该模型擅长处理标准化程度高的理科问题,但在解决没有标准答案的非标准化问题上仍需进一步提高。
正文
虽然OpenAI o1在AIME和GPQA的测试中显得很强大,但不一定能直接转化为用户可以感受到的效果。即使对科学工作者来说,找出GPT-4不如OpenAI o1的提示并不容易,但一旦找到,你会觉得非常惊奇。我们都需要找到更具挑战性的提示。
人工智能用人类语言模拟思维链在很多方面表现出色。这个模型能像人类一样处理问题,比如将复杂的步骤拆解成简单的步骤、识别并纠正错误,以及尝试不同的方法。
这个领域已经被完全重新定义了。
OpenAI研究员马克斯·施瓦泽(Max Schwarzer)
:
我一直认为,你不需要一个GPT-6级的基础模型来实现人类水平的推理能力,强化学习才是通往AGI的关键。今天,我们有了证明——OpenAI o1。
作为OpenAI创始成员之一,前特斯拉AI高级总监安德烈·卡帕西(Andrej Karpathy)的评论画风格外不同,他吐槽了模型的“懒惰”问题:
OpenAI o1-mini一直拒绝为我解决黎曼假设(Riemann Hypothesis),模型的“懒惰”仍然是一个主要问题。
英伟达高级研究科学家Jim Fan和
卡内基梅隆大学计算机科学博士生詹姆斯·坎贝尔(James Campbell)
虽然不是OpenAI工作人员,
也给了好评。
英伟达高级研究科学家Jim Fan:
这可能是自2022年原始Chinchilla缩放定律以来,大语言模型研究中最重要的进展。关键在于两个曲线的协同作用,而不是单一曲线。人们通过延伸训练缩放定律来预测大语言模型能力将陷入停滞,却未曾预见到推理缩放才是真正打破收益递减的关键。
我在2月份曾提到,任何自我提升的大语言模型算法都没能在三轮
之后取得显著进展。没有人能在大语言模型领域重现AlphaGo的成功,在这个领域,更多的计算能力将可达到超越人类的水平。不过,现在我们翻开了新的一页。
博士生坎贝尔 VS 奥特曼:
卡内基梅隆大学计算机科学博士生詹姆斯·坎贝尔(James Campbell)发帖,展示了OpenAI o1预览版在美国数学邀请赛(AIME)上的表现,显示其解答了83%的问题。相较之下,GPT - 4o仅解答出13%的问题。坎贝尔写道:“一切都结束了!” 对此,OpenAI首席执行官山姆·奥特曼(Sam Altman)回复称:“我们还会回来的!”
“中差评”阵营:买家需谨慎,
它并没有那么聪明
HuggingFace首席执行官兼联合创始人克莱门特·德兰吉(Clement Delangue):
再一次,人工智能系统并不是在“思考”,而是在“处理”和“运行预测”——就像谷歌或电脑一样。这种技术往往给人一种错误的印象,让你觉得这些系统像人类一样智能,但这只是廉价的宣传和营销策略,让你觉得它们比实际情况更聪明。