GPT-4已经发布一个多月了,但识图功能还是体验不了。来自阿卜杜拉国王科技大学的研究者推出了类似产品——MiniGPT-4,大家可以上手体验了。
对人类来说,理解一张图的信息,不过是一件微不足道的小事,人类几乎不用思考,就能随口说出图片的含义。就像下图,手机插入的充电器多少有点不合适。人类一眼就能看出问题所在,但对AI来说,难度还是非常大的。
GPT-4的出现,开始让这些问题变得简单,它能很快的指出图中问题所在:VGA线充iPhone。
其实GPT-4的魅力远不及此,更炸场的是利用手绘草图直接生成网站,在草稿纸上画一个潦草的示意图,拍张照片,然后发给GPT-4,让它按照示意图写网站代码,嗖嗖的,GPT-4就把网页代码写出来了。
但遗憾的是,GPT-4这一功能目前仍未向公众开放,想要上手体验也无从谈起。不过,已经有人等不及了,来自阿卜杜拉国王科技大学(KAUST)的团队上手开发了一个GPT-4的类似产品——MiniGPT-4。团队研究人员包括朱德尧、陈军、沈晓倩、李祥、MohamedH.Elhoseiny,他们均来自KAUST的Vision-CAIR课题组。
MiniGPT-4展示了许多类似于GPT-4的能力,例如生成详细的图像描述并从手写草稿创建网站。此外,作者还观察到MiniGPT-4的其他新兴能力,包括根据给定的图像创作故事和诗歌,提供解决图像中显示的问题的解决方案,根据食品照片教用户如何烹饪等。
MiniGPT-4看图说话不在话下
MiniGPT-4效果到底如何呢?我们先从几个示例来说明。此外,为了更好的体验MiniGPT-4,建议使用英文输入进行测试。
首先考察一下MiniGPT-4对图片的描述能力。对于左边的图,MiniGPT-4给出的回答大致为「图片描述的是生长在冰冻湖上的一株仙人掌。仙人掌周围有巨大的冰晶,远处还有白雪皑皑的山峰……」假如你接着询问这种景象能够发生在现实世界中吗?MiniGPT-4给出的回答是这张图像在现实世界并不常见,并给出了原因。
接着,在来看看MiniGPT-4图片问答能力。问:「这棵植物出现了什么问题?我该怎么办?」MiniGPT-4不但指出了问题所在,表示带有棕色斑点的树叶可能由真菌感染引起,并给出了治疗步骤:
几个示例看下来,MiniGPT-4看图聊天的功能已经非常强大了。不仅如此,MiniGPT-4还能从草图创建网站。例如让MiniGPT-4按照左边的草稿图绘制出网页,收到指令后,MiniGPT-4给出对应的HTML代码,按照要求给出了相应网站:
MiniGPT-4还能对着一张图片生成菜谱,变身厨房小能手:
解释广为流传的梗图:
根据图片写诗:
此外,值得一提的是,MiniGPT-4Demo已经开放,在线可玩,大家可以亲自体验一番(建议使用英文测试):
下面还有更多网友的测试体验:
方法简介
作者认为GPT-4拥有先进的大型语言模型(LLM)是其具有先进的多模态生成能力的主要原因。为了研究这一现象,作者提出了MiniGPT-4,它使用一个投影层将一个冻结的视觉编码器和一个冻结的LLM(Vicuna)对齐。
MiniGPT-4由一个预训练的ViT和Q-Former视觉编码器、一个单独的线性投影层和一个先进的Vicuna大型语言模型组成。MiniGPT-4只需要训练线性层,用来将视觉特征与Vicuna对齐。
MiniGPT-4进行了两个阶段的训练。第一个传统的预训练阶段使用大约5百万对齐的图像文本对,在4个A100GPU上使用10小时进行训练。第一阶段后,Vicuna能够理解图像。但是Vicuna文字生成能力受到了很大的影响。
为了解决这个问题并提高可用性,研究者提出了一种新颖的方式,通过模型本身和ChatGPT一起创建高质量的图像文本对。基于此,该研究创建了一个小而高质量的数据集(总共3500对)。
第二个微调阶段使用对话模板在此数据集上进行训练,以显著提高其生成可靠性和整体可用性。这个阶段具有高效的计算能力,只需要一张A100GPU大约7分钟即可完成。
此外,项目中还使用了开源代码库包括BLIP2、Lavis和Vicuna。
THEEND
投稿或寻求报道:content@jiqizhixin.com
原标题:《3天近一万Star,无差体验GPT-4识图能力,MiniGPT-4看图聊天、还能草图建网站》