李彦宏说大模型幻觉消除了 第一财经记者实测百度大模型
如果你要问我,过去这24个月,对行业而言,最大的变化是什么?那我的回答一定是,大模型基本消除了幻觉,它回答问题的准确性大大地提升了。”在昨日的百度世界大会上,百度董事长李彦宏谈及大模型变化时这样说。在这背后,增强检索(RAG)技术功不可没,大模型会利用检索到的信息来指导文本或答案的生成,从而极大地提高了内容的质量和准确性。今天,文字层面的RAG已经改善不少,但完全基于大语言模型的文生图系统,生成的图片常常“一眼假”,甚至逻辑不合常理。李彦宏说,今年年初,就在整个中文互联网都为Sora而捶胸顿足的时候,百度决定解决图像生成的幻觉问题,开发了iRAG(image based RAG),也就是检索增强的文生图技术。该技术通过将百度搜索的亿级图片资源跟强大的基础模型能力进行结合,可以生成各种超真实的图片。文心一言的文生图效果到底怎么样?今日第一财经记者做了实测发现,部分图片确实有着很高的真实度,有一定创意,但总体仍有不小的改善空间,例如,有些特定人物生成并非本人,比如爱因斯坦,而且图片的机器味儿依然存在,尤其在一些细节,比如数字、文字上,几乎都是以乱码居多。
昨天,百度发布了智能眼镜,记者请文心一言画一个苹果CEO库克戴着百度眼镜的图片,图片呈现了苹果的LOGO,但显然人物并不是库克本人,只是长相相似,图片中所戴眼镜的形状也并不完全相同。
昨天,李彦宏还通过提示词, 让爱因斯坦游遍全世界,比如悉尼歌剧院、复活节岛巨石阵、长城、鸟巢等等,形象逼真。但今天记者在让AI画图霍金和爱因斯坦一起在深秋的老北京胡同里遛弯,放大图来看,除了爱因斯坦发型相似,两个人物都并非特定人物本身,而且长有亚洲面孔。
当记者提醒AI这两个人并不是霍金和爱因斯坦本人,请AI重画后,得到的图片仍然并非二人。
当我们把画图的人物对象变成百度董事长李彦宏,这次AI画得像多了。AI创作了一张“李彦宏在北京大学门口摊煎饼”的图片,人物本身和北京大学的建筑真实度较高,但是放大图后可以看到,建筑上“北京大学”四个字出现了乱码,并非真实的文字。
我们让AI画了一张马斯克在故宫喝豆汁的图片,AI画的人物很像马斯克本人,故宫场景也较为逼真,但放大图来看,马斯克喝的并不是豆汁,碗上的文字也是乱码。
有时,AI还不能够准确理解人类的想法,比如当希望它创作一张写实风格的图片,提示词为热闹的街区,一位白裙少女坐着一只巨型猫咪,AI的绘画结果却都为漫画效果,而且少女并没有坐在猫咪上,有的图片是猫咪骑在自行车上,有的是少女和猫咪前后脚走,还有些是少女怀中抱着猫咪。
让AI给水立方织一件彩色毛衣,变成了一位穿着彩色毛衣的男士在水立方前方站立,AI还给水立方织了一件“并不合身”的人类毛衣。
在演讲中,李彦宏提到作为一项基础技术,iRAG在很多领域都有着很好的应用空间。比如,影视作品、漫画作品,连续画本,海报制作等,大幅降低创作成本。
我们让AI画一个对于小米15手机的展示,场景和动物形象表达准确,但每一张图中的手机都不一样,也并不像小米15,其中一张图的手机大得更像平板电脑。
这TMD都回答的什么玩意,
螺纹副之间的接触面积相对较大且稳定,从而减少了因摩擦而产生的能量损失。接触面积大了,所以摩擦力减小了是吧。
矩形螺纹在传动时能够更有效地将旋转运动转化为直线运动,或者将直线运动转化为旋转运动,这也是其传动效率高的一个重要原因。好家伙,原来其它形状的螺牙做不到是吧。
页:
[1]