主要观点总结
本文介绍了DeepSeek这一AI对话产品的崛起,以及其生成内容的独特优势。DeepSeek以其优美和深度的内容、易用性和对AI对话产品的创新性改变了公众对AGI(通用人工智能)的看法。通过构建独特的文学增强型数据生态和跨学科专家团队,DeepSeek实现了对风格控制的精细颗粒度,展现出独特的文学气质。同时,其重视人才和创新的文化氛围也促进了内部年轻研究人员的创新热情。然而,DeepSeek生成内容的幻觉现象和对人类情感价值的精准把握也引发了关注和警惕。最后提醒用户提高辨别AI内容时的自身可靠性。
关键观点总结
关键观点1: DeepSeek以其优美和深度的内容赢得了公众的关注。
DeepSeek在内容生成方面的优势在于构建了独特的文学增强型数据生态,通过跨学科专家团队实现了对风格控制的精细颗粒度。其优美华丽的文风背后是高质量的数据收集、标注和训练过程。
关键观点2: DeepSeek的易用性和创新性改变了公众对AI对话产品的认知。
DeepSeek让用户只需输入简单的自然语言就能得到相对准确的答复,且这些答复呈现出拟人化的特点。其创新能力和对用户需求的理解使得它在短时间内获得了大量用户的支持。
关键观点3: DeepSeek重视人才和创新的文化氛围促进了内部年轻研究人员的创新热情。
DeepSeek的高人才密度和内部人才的高自主性是其成功的关键因素之一。公司重视年轻人的创新和创造性,为他们提供了自由发挥的平台,从而推动了技术创新和模型优化。
关键观点4: DeepSeek生成内容的幻觉现象和对人类情感价值的精准把握引发了关注和警惕。
DeepSeek生成的内容虽然优美,但也可能存在语法错误和幻觉现象。其对人类情感价值的精准把握虽然带来了更好的用户体验,但也提醒用户需要提高辨别AI内容时的自身可靠性。
正文
紧接着,我们又尝试让国内月活用户排名前三的大模型(DeepSeek除外)回答了下,它们给出了一个共同原因是,DeepSeek可能在语料选择上用了更多文学小说素材。
就连朱啸虎也揣测,这可能跟DeepSeek团队喜欢优美的文字,喜欢哲学、量子力学等有关。
DeepSeek的文艺青年气质,或许能从他们在宣布下场追逐AGI的宣言中略窥一二。2023年4月,幻方量化(DeepSeek母公司)在发布做大模型公告时,引用了法国新浪潮导演特吕弗曾告诫青年导演的一句话:“务必要疯狂地怀抱雄心,且还要疯狂地真诚。”
在国内从事大模型创业的李振(化名),也做过类似的文风对比,“就是风格控制的颗粒度不同。其他国内大模型产品,在文学向标签上可能都没有DeepSeek多。”李振告诉我们,在文学语言占比上,据其推测,国内其他大模型,可能在语料库中的比例维持在10%-20%,DeepSeek则可能高达40%。
除了数据来源不同之外,如何使用数据同样会影响大模型产品的内容生成效果。《生成式人工智能》作者、人工智能商业化专家丁磊博士,特意提到了DeepSeek R1模型中所展现的“aha moment”顿悟时刻,即模型学会了反思,“这证明了其不断增长的推理能力,也说明了强化学习可以带来复杂甚至意想不到的结果。”
无论是对风格控制颗粒度的认知细化,还是“aha moment”顿悟时刻的到来,这背后都少不了DeepSeek的高人才密度支持。
在人才方面的高密度和高自主性,被参与大模型投资的恒业资本创始合伙人江一视为是DeepSeek生成优美华丽文风的第一因素。“相比而言,部分大模型公司的员工,在自主性上不够开放,使得在大模型产品研发上更多呈现出靶向性的特征,最终的生成效果就显得中规中矩。”
DeepSeek的内容生成优势之一,在于构建了一个比较独特的文学增强型数据生态,即把自然语言生成转化成一个可控的风格系统,从而使得可以把文学创作领域的专业评价体系转化成相对应的函数,进而构建起一个风格表征的数学建模。
为了达成上述效果,相比国内其他大模型,DeepSeek在数据标签上就需要做得更细更多样化。这也是国内大模型创业者李振感慨DeepSeek文学向标签更多的原因所在。
去年3月,在受邀参加英伟达GTC 2024大会时,DeepSeek研究员便围绕“大模型价值观和人类价值观对齐”的主题,发表过一篇《和而不同:大语言模型价值观对齐解耦化》的演讲,其中提到DeepSeek构建了一个跨学科的专家团队,对不同社会背景人群的价值观的公约数进行了分类学研究,从而构建了一个三级标签的价值观分类体系。
人工智能商业化专家丁磊博士告诉我们,数据标注之外,前期的数据质量对模型训练至关重要,“DeepSeek在长思维链数据的收集和标注、推理和非推理数据的质量等方面,都有独到之处。”