专栏名称: 交互设计学堂
系统学习交互知识,就找老D。干货分享、在线培训、行知书院三大版块帮你提升自己。 最新资讯-全是干货还有老D点评,每天推送; 交互培训-在线课程帮助小伙伴进入交互行业,只要3个月; 行知书院-老D帮小伙伴们解读经典设计书籍,都是“硬”知识。
目录
相关文章推荐
庞门正道  ·  纹身师:我也很难啊…… ·  10 小时前  
一个坏土豆  ·  10 年了!终于等到一款「全能型」充电宝 ·  昨天  
龙爪槐守望者  ·  信你是秦始皇 ·  昨天  
字体设计  ·  1968-1972年封面设计艺术 ·  2 天前  
51好读  ›  专栏  ›  交互设计学堂

GPT协助海外用户舆情分析实例

交互设计学堂  · 公众号  · 设计  · 2025-01-27 22:57

正文

请到「今天看啥」查看全文



*GPT现有的模型


图示为GPT现有的3个模型:4o,o1和o1-mini。就这次分析的经验来说,4o宛若一个智障,不但要多次返工还会瞎编,所以在不建议作为主力分析模型使用。o1和o1-mini的文字归纳和推理能力尚可,因此可以在进行评论主题分类的时候使用。


这两者中,o1和o1-mini推理能力有所差别 - 就如名字所指示的那样,o1-mini在长文本推理和归纳方面是o1的阉割版,并且文本处理条数也受限,因此,如果需要处理长评或者复杂文本,o1是首选,其次o1-mini。除非在实在没有办法的情况下,不要用4o,如果不得已要用,请务必校准其输出结果。


但是考虑到大模型的资源受限(笔者的GPT账号是个人会员版),其中o1以及o1-mini都是有限次数使用,因此,需要将4o,o1-mini和o1搭配着使用,其中o1在核心推理步骤才使用,其余时间都是使用4o和o1-mini。至于什么是核心推理步骤,下面会详细说明。当然,如果后续人使用的是富裕的pro版,那就无脑o1,因为推理性能最好。


源数据到手,就是387条乱序评论。这时候需要进行主题的初步框定。笔者尝试过将387条评论一次性输入进GPT(o1模型)中进行分析,但是得到的结果是:文本量过大,无法处理。因此,只能采取分批次处理策略,一次性输入20-30条,然后对这些评论进行主题分析,归纳出对应主题;然后再次输入下20-30条,填充进现有主题,或者增添新主题,直到所有评论按批次处理完毕。


在前期主题提取的过程中使用的模式是o1 - 因为需要从无到有的创造主题,因此对于模型的推理能力要求更高;但是,当笔者发现主题饱和出现之后,果断将模型切换为o1-mini - 因为这种情况下对于文字推理的能力要求出现降低,只需要在现有的主题框架下填充评论即可。


但是,由于o1-mini本身的推理能力限制,在该模型进行推理完输出评论后,务必人工校准一下,因为mini偶尔会出现主题归纳不规范的情况。这时候,需要手动校准 - 错误概率不是很多,可能每40-50条评论,或者模棱两可的评论会出现这样的情况。


在主题提取的过程中,笔者从领导那里获取了一个框架:需要区分正/负面评论。那在该大框架下,笔者又手动调校了一个二级框架,设定为:


正面评论(P)

主题一

主题二

主题...

负面评论(N)

主题一

主题二

主题...


在完成这一步之后,接下来是训练人工智能。首先,就像笔者刚才所说的那样,非关键步骤不要使用o1,因此,在这步,先使用4o - 开启GPT一个新主题,第一个prompt,开始介绍背景:"我现在需要给Coohom这一设计工具进行用户评论的定性分析。接下来,我会给你输入一个框架,你理解一下输出给我你的理解。如果和我要求的一致,我会给你输入新的指令。”


这时候,GPT应该给你一个继续指令的回复。下一步,就是将框架输入给它,然后看它的理解。我输入给它框架后,它的答复如下:








请到「今天看啥」查看全文


推荐文章
庞门正道  ·  纹身师:我也很难啊……
10 小时前
龙爪槐守望者  ·  信你是秦始皇
昨天
字体设计  ·  1968-1972年封面设计艺术
2 天前
医学界  ·  2016中国医疗界十大人物 | 回顾
8 年前
互联网观察  ·  1月5日互联网深度观察
8 年前
食尚知味  ·  宋-小-宝 倒 下 了,震 惊 全 國!
8 年前
ZOL中关村在线  ·  据说用过这些手机功能的人都已经结婚了
8 年前