ChatGPT还在靠DALL·E,谷歌Gemini直接实现原生生图!

你见过可以边聊天边画图的 AI 模型吗?

大概率没有。

回想一下,DeepSeek,不论是 V3 还是 R1,都只能聊天,不能画图。

OpenAI 的 GPT-4.5GPT-4oo1 和 o3-mini,同样是清一色的文本模型,最多支持图片输入,而无法直接输出图片。

你可能有疑问,ChatGPT 不是能画图吗?其实不然,ChatGPT 的画图功能是基于“文生图”模型 Dall·e 3 的,而不是 GPT-4o

比如我们查看一下 GPT-4o 官方说明卡片,上面清楚地标明 GPT-4o 仅支持文本输出。



在此前,AI 模型一直是“聊天不画图,画图不聊天”。这其实是由文本大模型和绘图大模型的底层架构的差异造成的。

而如今,原生绘图的“天”被谷歌率先捅破了。

3月13日,谷歌 AI Studio 产品负责人 Logan Kilpatrick 发文称:Gemini 2.0 Flash 已支持生成原生图像!

听起来稀松平常的功能,不就是画图吗,还至于这样“昭告天下”?

还真至于。要知道,Gemini 2.0 Flash 之前只是一个文本模型,也就是用来聊天的;现在加入了生图功能,不需要切换模型就能边聊边画图了!

并且,“原生图像”这个功能是 OpenAI 很早之前就给 GPT-4o 画的一个大饼,没想到被谷歌先给实现了!

来看效果。基于聊天画图,而不必精心构想很复杂的“文生图”提示词。更重要的是,一致性超级好!

Logan 表示,这种模型“原生”的生图功能之所以如此强,是因为 Gemini 模型本身拥有丰富的世界知识(即 海量的训练数据),这是传统的 AI 生图模型所不具备的。

比如定向修改图片里特定物体的颜色,就像下面这样,把马变成黑白色,地上的花换成黄色。



要想体验 Gemini 2.0 Flash 的原生画图功能,很简单。

可以直接在谷歌 AI Studio 里选择 Gemini 2.0 Flash-Exp 实验模型,注意,认准是实验模型,不是正式版的 Gemini 2.0 Flash。使用完全免费。

同时,也已支持 API 调用。



打开谷歌 AI Studio,选择 Gemini 2.0 Flash-Exp,让我们一起来实际体验一下这个原生画图功能的效果。

实测中、英文提示词都支持。

先来让 Gemini 2.0 Flash-Exp 解析一首古诗,并画出配图。

月落乌啼霜满天,江枫渔火对愁眠。

姑苏城外寒山寺,夜半钟声到客船。

逐句讲解并配图

就这么一句简单的提示词,输出了整首诗的详解以及每一句的配图,语文老师狂喜。

测试下来,Gemini 2.0 Flash-Exp 非常擅长边讲故事边画图,基本上是可以复刻 Logan 展示的 GIF 动画效果的。

就行下面这样。

动画风格的也可以。

再来试试定向修图。

先让它画一只猫。

然后我们再让它定向修改图片背景。

这不妥妥的就是 AI 抠图/P图!只能说太强了。

最后放上修改前和修改后的对比图。


结语

提示词简单,边描述边配图,风格极其一致,还能定向修图,谷歌 Gemini 2.0 Flash-Exp 正走在“逆天”的路上。



我是木易,一个专注AI领域的技术产品经理,国内Top2本科+美国Top10 CS硕士。

相信AI是普通人的“外挂”,致力于分享AI全维度知识。这里有最新的AI科普、工具测评、效率秘籍与行业洞察。

欢迎关注“AI信息Gap”,用AI为你的未来加速。



(文:AI信息Gap)

欢迎分享

发表评论