正文
2025年AI作品:
我的第二个感受是,现在中文也能直接生成在图上了。
我以前经常建议大家在做海报的时候,用AI先画一个背景氛围图。但如果你想在图上加个标题或者口号,还得跑去美图秀秀或者Photoshop手动加文字。而这次4o直接就能在图上生成中文了。虽然偶尔会出点乱码,但大部分时候,文字都能准确地呈现出来。
当我看到它能写中文的那一刻,我脑子里第一反应是:“要是我说一句话,它就能换个更好看的字体,那该多好。”你看,人类就是这么不知足。
第三个感受是,现在可以直接把一张照片改成宫崎骏那种动漫风,或者换成别的风格。
这两天你刷朋友圈,估计已经看到不少类似的动漫图了,那大概率就是用4o新模型做出来的。我也没忍住,拿了我和罗胖、脱不花的合影试了一下,效果挺有意思。
第四个感受是,它现在可以一句话改图。
这个功能真的是让我眼前一亮。因为GPT-4o的理解能力确实强,只要你把需求说清楚,它就能听懂、然后立刻开工。
我试了几个特别日常的场景,效果都很不错。比如,我扔一张图片进去,说“把衣服颜色改成蓝色”,它立马就换了;再比如,我扔两张图进去,说“合并一下”,它就直接给我融合成一张新图;还有一次,我拍了张办公桌的照片,让它把桌上的两个手办抠出来,它转头就给我做了一张带透明背景的图,只有那两个手办。
这就意味着,以后像做广告海报这种事儿,只要你说得明白,AI听得懂,那就能直接干,效率高得惊人。
当然,AI也不是每次都能成功。
比如有一次,我让它把三个人的合影,全都换成阿根廷队服,它直接告诉我——这活儿有点难。
我就追问它为啥搞不定,它说这张图里三个人都穿着白衬衫,背景也是灰白的,要换得准确,有点费劲。然后它还特别认真地给我提了两个方案:一个是把三个人分别抠出来,单独换衣服,再合成回去;另一个是它先给我换一个人的衣服,发我看看效果,如果OK,它再继续换其他两个。
说实话,看到它这套回复的时候,我真替不少不是特别出挑的设计师捏了把汗。我们先不说技术水平、工作速度,光是它这沟通能力,就已经把很多人类设计师比下去了。
这次4o在生图上的进步,其实不全是AI自己变强了,更关键的,是背后有人类反馈强化学习在助力。
OpenAI专门找了上百人的训练师团队,一起盯着AI生成的图,一个个去标注里面的错别字、失真的细节,或者那些畸形的手脚。然后再通过强化学习,不断地训练它,慢慢让AI学会怎么更精准地听懂人话、照着做事。
03
这会带来什么变化?
说完带给我的四大感受,我来说一下接下来可能产生的变化。
第一个变化,是过去两年特别火的SD图像工作流,热度可能要慢慢降下来了。
以前像影楼、学校这种机构要用,成本高、上手难,门槛不低。但现在4o这个版本一出来,一些追求简单效果的AI智能体工作流,一下子就显得没那么必要了。