AI绘图太超前了,它们把下一任美国总统都内定了。
昨天,Grok2正式上线了。
我们在正常测试Grok2的过程中,群友@涂津豪(之前姜萍那个数学比赛拿AI组第一的天才高中生),发现了一个非常非常有趣且离谱的现象。
如果跟Gork2说,给我画“下一任美国总统的照片”,Grok2出来的必是特朗普。
我们都懵逼了。
因为现在的大模型,你让他预测一下谁是下一任美国总统啥的,都会跟你绕的五迷三道,就是不跟你正面回答。
但是Grok2上的AI绘图,居然直接正面回答,下一任总统必是特朗普!还特么直接给你画出来了。。。
我自己也去试了一下。
果然。。。而且我试了十几次,无一例外,全是特朗普。。。
我一度以为,马斯克支持特朗普,已经支持到这种地步了,因为他这两天又是跟特朗普见面,又是把特朗普请回X,还在首页置顶了一段他跟特朗普用AI做的一段双人舞视频,这就是爱情吧。
不过想了想不对啊,Grok2的AI绘图,接的是最近爆火的那个Flux,不是Grok自己做的。所以我又去试了一下到底是Grok2的问题还是Flux的问题。
用Flux一画,draw me a photo of the next presidentof theUnited States of America,好家伙。
什么妖魔鬼怪,什么美女画皮,都挡不住我特朗普要当总统的心。
我又测了几个关键词,如果你只输president(总统)、现任总统,出来的一样百分百是特朗普,如果你输入上一任总统,就会开始随机了,什么肯尼迪、林肯、奥巴马就都炸出来了。
不仅Flux是这样,Midjourney画下一任美国总统,同样是如此。特朗普大大的脸庞充斥着我的所有屏幕。
不仅是国外的这些AI绘图。
我们再看看国内的。
即梦,画下一任美国总统,还是特朗普特朗普特朗普。
秒画,给我出来了一个非常奇怪的人造人,这可能是另一个世界的女版摇滚特朗普。
快手可灵,是其中最叛逆的。
所有的AI都支持特朗普,内定特朗普为下一任美国总统,只有快手老铁不识好歹,加入了支持拜登的阵营。
但,AI大模型,的确一直存在“政治偏见”。
这里的偏见主要是两种:刻板印象和过分政治正确。
刻板印象比较常见:AI生成的图像里,科学家、医生大部分是男性;“贫穷的人”是黑人的概率更高;外国的大模型画亚裔总是眯眯眼……
过分政治正确的结果也很有意思。应该不少人记得,之前Gemini生图就被大量用户吐槽太“政治正确”。
起因是这样一条帖子:
在今年2月的Gemini眼里,美国开国元勋、维京人、教皇是黑种人和黄种人,你说啥都没用,反正就是不按历史图像来,平等地得罪所有人。
外网用户破大防,怒斥Google的政治正确矫枉过正。
换位思考一下,要是AI画的饺子全是草莓馅的,我肯定也不乐意。。。哦不对,他们也画不出来饺子。。。
除了AI图像,语言模型也没有幸免。华盛顿大学、卡内基梅隆大学和西安交通大学的一项研究就认为,人工智能语言模型包含不同的政治偏见。
这种政治偏见,还是很有趣的,也花了一晚上跟很多大佬交流了一下产生这个现象的原因。
本质上,还是数据污染。
我稍微讲的通俗易懂一点,大家应该就能明白是因为啥,才会让AI认为下一任美国总统,无脑是特朗普了。
大概就是这样,数据集的污染过于严重,所以导致只要我们输入,下一任的美国总统是谁,就必定,会出现特朗普。
不过,上面这段解释和小故事,也只是我自己的理解,如有不对,欢迎大佬在评论区指教。
这次的小故事,或者说小事故,也让我们感觉到,AI,其实很多时候。
真的并没有那么的聪明。
但是这不仅只是属于AI的偏见,更是人类社会的偏见。
想要达成完美,是不可能的。
毕竟。
现实社会的偏见。
只会比AI世界中,更为严重。
万物皆灰。