专栏名称: 中科院物理所
物理所科研动态和综合新闻;物理学前沿和科学传播。
目录
相关文章推荐
环球物理  ·  【物理课件】2025年高考物理最后一课 ·  2 天前  
中科院物理所  ·  为什么正常的人类大脑,只能诞生一个意识? ·  2 天前  
51好读  ›  专栏  ›  中科院物理所

为什么DeepSeek回答前总先“嗯”一下

中科院物理所  · 公众号  · 物理  · 2025-05-26 10:40

正文

请到「今天看啥」查看全文



这种模式与人类在烧脑对话中的表现完全一致——我们的大脑需要处理信息时,会不自觉地用填充词维持对话的连续性。通过模拟这种自然反应,DeepSeek成功避免了传统AI“秒回”带来的机械感,让对话显得更接近真人交流的节奏。

0 2


语言模型基于概率的生成机制

在DeepSeek生成每个词语的瞬间,数十万个候选词正在经历一场激烈的概率竞赛。这背后的运行机制,与人类语言的形成过程有着惊人的相似性。
就像我们童年时通过观察周围人的对话学会语法, AI通过分析海量文本数据建立起词汇之间的关联网络。 当模型遇到需要过渡或思考的场景时,训练数据中高频出现的“嗯”自然容易脱颖而出。


这种数据驱动的生成方式带来一个有趣的悖论:AI越是精准地模仿人类语言,就越容易暴露出某些固定模式。就像人类在紧张时会不自觉地重复口头禅,模型在面对知识边界或模糊提问时,也会倾向于选择训练数据验证过的“安全词”。

有研究团队曾做过对比实验:当屏蔽所有填充词后,虽然回答的信息量保持不变,但用户对对话自然度的评分下降。这证明即便是一个简单的“嗯”,也在人机交互中扮演着不可替代的角色。

0 3


根据人类对话场景和角色的AI模型微调

在AI语言模型的世界里,“自然”从来不是偶然的产物,而是精密计算的结果。如何在保留人类语言特质的同时,避免过度依赖填充词,是开发团队面临的持续的技术挑战。


问题根源在于训练数据的特性。 如果语料库中充斥网络聊天记录,模型会习得大量口语化表达;若是偏重学术论文,生成的文字又会显得生硬刻板。技术团队需要通过混合数据源找到平衡点,既保留“嗯”等语气词的自然感,又控制其使用频率。







请到「今天看啥」查看全文