正文
*GPT现有的模型
图示为GPT现有的3个模型:4o,o1和o1-mini。就这次分析的经验来说,4o宛若一个智障,不但要多次返工还会瞎编,所以在不建议作为主力分析模型使用。o1和o1-mini的文字归纳和推理能力尚可,因此可以在进行评论主题分类的时候使用。
这两者中,o1和o1-mini推理能力有所差别 - 就如名字所指示的那样,o1-mini在长文本推理和归纳方面是o1的阉割版,并且文本处理条数也受限,因此,如果需要处理长评或者复杂文本,o1是首选,其次o1-mini。除非在实在没有办法的情况下,不要用4o,如果不得已要用,请务必校准其输出结果。
但是考虑到大模型的资源受限(笔者的GPT账号是个人会员版),其中o1以及o1-mini都是有限次数使用,因此,需要将4o,o1-mini和o1搭配着使用,其中o1在核心推理步骤才使用,其余时间都是使用4o和o1-mini。至于什么是核心推理步骤,下面会详细说明。当然,如果后续人使用的是富裕的pro版,那就无脑o1,因为推理性能最好。
源数据到手,就是387条乱序评论。这时候需要进行主题的初步框定。笔者尝试过将387条评论一次性输入进GPT(o1模型)中进行分析,但是得到的结果是:文本量过大,无法处理。因此,只能采取分批次处理策略,一次性输入20-30条,然后对这些评论进行主题分析,归纳出对应主题;然后再次输入下20-30条,填充进现有主题,或者增添新主题,直到所有评论按批次处理完毕。
在前期主题提取的过程中使用的模式是o1 - 因为需要从无到有的创造主题,因此对于模型的推理能力要求更高;但是,当笔者发现主题饱和出现之后,果断将模型切换为o1-mini - 因为这种情况下对于文字推理的能力要求出现降低,只需要在现有的主题框架下填充评论即可。
但是,由于o1-mini本身的推理能力限制,在该模型进行推理完输出评论后,务必人工校准一下,因为mini偶尔会出现主题归纳不规范的情况。这时候,需要手动校准 - 错误概率不是很多,可能每40-50条评论,或者模棱两可的评论会出现这样的情况。
在主题提取的过程中,笔者从领导那里获取了一个框架:需要区分正/负面评论。那在该大框架下,笔者又手动调校了一个二级框架,设定为:
正面评论(P)
主题一
主题二
主题...
负面评论(N)
主题一
主题二
主题...
在完成这一步之后,接下来是训练人工智能。首先,就像笔者刚才所说的那样,非关键步骤不要使用o1,因此,在这步,先使用4o - 开启GPT一个新主题,第一个prompt,开始介绍背景:"我现在需要给Coohom这一设计工具进行用户评论的定性分析。接下来,我会给你输入一个框架,你理解一下输出给我你的理解。如果和我要求的一致,我会给你输入新的指令。”
这时候,GPT应该给你一个继续指令的回复。下一步,就是将框架输入给它,然后看它的理解。我输入给它框架后,它的答复如下: