闹了个大笑话,谷歌紧急暂停

非凡油依 2024-03-01 21:11:52

作者:豆腐乳

编辑:养乐多

自一年多前发布ChatGPT以来,OpenAI一直在引领这一轮生成式AI热潮。

在生成式AI领域,OpenAI可以说是遥遥领先,其他大厂就急了。眼瞅着OpenAI的母公司微软股价狂飙突进,超过苹果,远远甩开谷歌,其他科技公司一咬牙一跺脚,跟,可不能在生成式AI领域毫无建树。

于是各路大厂就使出浑身解数,咱也来攒个大模型,于是叫啥名字的大模型都出来了,跟不跟得上ChatGPT不好说,还是得抢英伟达设计的高性能芯片,硬生生把英伟达抢到了美股市值第三。

你说这些大厂攒出来的大模型啥质量呢?咱就说谷歌,也是能和微软、Facebook竞争的一方豪强,就搞出了一个大模型Gemini。

去年底,就有国内科技媒体称,使用Gemini进行中文对话,它会直接表示自己是百度语言大模型。于是有记者测试了一下,Gemini承认有训练语料来自百度,还详述了从百度内部获得数据的方式。

这可了不得,简直像自家孩子认了隔壁老王当爹,这一问题暴露没多久,谷歌就修改了这一Bug。

最近OpenAI推出的文本转视频(Text-to-Video)模型Sora,更是能根据用户输入的文本指令,创建出具有高度真实感和细节丰富的视频内容,时长可达一分钟。

眼看OpenAI的生成式AI连生成视频都能做到了,那谷歌的生成式AI生成些图片总不是问题吧?走Gemini,给大家整个活。

于是Gemini真整了个大活。

比如最近有网友发现,Gemini经常更容易生成亚裔、非裔或是女性人像,导致生成很多不符合历史真实的人像。

比如生成1943年德军士兵的图片,Gemini生成的图片里居然有非洲裔男性和亚裔女性士兵,好家伙,元首当年这么多元化了吗?

你要是拿多元化去逗Gemini,它还真硬上钩,让它生成多元化的19世纪美国参议院,它就真能生成亚裔男性、非裔女性、印第安人参议员——问题是19世纪哪来这么多族裔的参议员啊。

更地狱笑话的一幕出现了,你要是让它生成17世纪英国国王吃西瓜的图片,它还真给你生成四张非洲裔英国国王吃西瓜的图片——黑人吃西瓜,到这里就不避讳了。

好家伙,这Gemini能处,有地狱笑话真给你讲。

至于为什么Gemini生成这些明显错误的图片,大概是因为谷歌过于注重“多元化”,以至于人像上更多出现非洲裔、亚裔和女性形象吧。

在被网友群嘲后,2月23日,谷歌公告,暂停Gemini的人物图像生成功能。谷歌称,正在积极解决Gemini的图像生成功能的问题,将尽快重新发布增强版本,以解决历史图像描述中的不准确之处。

从这次闹出的笑话看,Gemini距离ChatGPT可能还有不小的差距,甚至于国内某些大模型都不至于犯如此离谱的错误。

比如我请求某几款国内大模型“为我画一幅17世纪英国国王吃西瓜的图片”,得出结果如下。

生成图片的生成式AI都在图片水印上,大家可以比对,哪些AI生成的图片比Gemini靠谱,哪些比Gemini还离谱。

相信网友们不停挑错,网上吃瓜,这些大模型才有进步的动力。

不然大厂们的大模型连OpenAI的车尾灯都要看不到了。

参考资料:

谷歌Gemini自曝用百度文心一言训练 https://mp.weixin.qq.com/s/cCFPWOmZF1mWluxJD4wCFg

GPT革命|谷歌Gemini暂停人像生成功能 把美开国元勋生成非裔女性_财新网_财新网 https://www.caixin.com/2024-02-23/102168016.html

文章用图:网络

本回完

0 阅读:0

非凡油依

简介:感谢大家的关注