新闻中心

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

2024-05-27
浏览次数:
返回列表

当前,多模态大模型 (mllm)在多项视觉任务上展现出了强大的认知理解能力。

然而大部分多模态大模型局限于单向的图像理解,难以将理解的内容映射回图像上。

比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。

定位能力的缺失直接限制了多模态大模型在图像编辑,自动驾驶,机器人控制等下游领域的应用。

针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式Groma——

通过区域性图像编码来提升多模态大模型的感知定位能力。

在融入定位后,Groma可以将文本内容和图片区域直接关联起来,从而显著提升对话的交互性和指向性。这种方式不会改变原有的意思,只是微调了表达方式。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体
港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

核心思路

如何赋予多模态大模型定位物体的能力,即将文字内容和图像区域关联起来,做到“言之有物”,是当前一大研究热点。 多模态大模型的目标是在给定一张图像和相应的文字描述时,能够找到图像中与描述相对应的区域。此任务被称为图像和文本对齐(image-text alignment)问题。 为了解决这个问题,

常见的做法是微调大语言模型使其直接输出物体坐标。然而这种方法却有着诸多限制:

1、在文本上预训练的大语言模型本身不具备空间理解能力,仅依靠少量数据微调很难精准定位物体。

2、定位任务对输入图像的分辨率有较高要求,但提高分辨率会显著增加多模态大模型的计算量。

3、大语言模型的输出形式不适合处理精细的定位任务,比如分割。

基于这些考虑,Groma提出将定位转移到多模态大模型的vision tokenizer中,由vision tokenizer发现并定位潜在的物体,再交给大语言模型识别。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

同时,这样的设计也充分利用了vision tokenizer本身的空间理解能力,而无需外接专家模型(比如SAM)来辅助定位,从而避免了外接模型的冗余。

具体而言,Groma在全局图像编码的基础上,引入了区域编码来实现定位功能——如下图所示,Groma先利用Region Proposer定位潜在的物体,再通过Region Encoder将定位到的区域逐一编码成region token。

而大语言模型则可以根据region token的语意判断其对应的区域,并通过在输出中插入region token来达成类似超链接的效果,实现visually grounded conversation。

易标AI 易标AI

告别低效手工,迎接AI标书新时代!3分钟智能生成,行业唯一具备查重功能,自动避雷废标项

易标AI 135 查看详情 易标AI

同样地,用户指定的区域也可以通过Region Encoder编码成相应的region token,并插入到用户指令中,从而让多模态模型能关注到指定的区域并产生指向性的回答。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

为了提升定位的鲁棒性和准确性,Groma采用了超过8M的数据(包括SA1B)来预训练Region Proposer。因此其产生的proposal不仅包括常见的物体,也涵盖了物体的组成部分以及更广阔的背景等要素。

此外,得益于分离式的设计,Groma可以采用高分辨率特征图用于Region Proposer/Encoder的输入,并采用低分辨率的特征图用于大模型输入,从而在降低计算量的同时又不损失定位性能。

实验结果

Groma在传统的Grounding Benchmarks上表现出了超越MiniGPT-v2和Qwen-VL的性能。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

同时,Groma在多模态大模型通用的VQA Benchmark (LLaVA-COCO)验证了其对话和推理能力。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

在可视化的对比中,Groma也表现出了更高的recall和更少的幻觉。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

此外,Groma还支持融合对话能力和定位能力的referential dialogue以及grounded chat。

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

得益于大语言模型强大的认知推理能力,多模态大模型在视觉理解任务上表现突出。

然而一些传统的视觉任务,如检测分割、深度估计等,更多依赖视觉感知能力,这恰恰是大语言模型所缺乏的。

Groma在这个问题上提供了一种新的解决思路,即把感知和认知解耦开来,由vision tokenizer负责感知,大语言模型负责认知。

这种先感知后认知的形式除了更符合人类的视觉过程,也避免了重新训练大语言模型的计算开销。

5月15日,字节跳动刚刚公布了自研的豆包大模型,提供多模态能力,下游支持豆包APP、扣子、即梦等50+业务,并通过火山引擎开放给企业客户,助力企业提升效率、加速智能化创新。目前,豆包APP已成为中国市场用户量最大的AIGC应用。字节跳动正持续加大对顶尖人才和前沿技术的投入力度,参与行业顶尖的技术挑战和攻坚。

项目网站:
https://www.php.cn/link/24e23677d6722931c4fe84d781e8e32b
论文链接:
https://www.php.cn/link/52c8b8d56837155b4870fc2658b676f0
开源代码:
https://www.php.cn/link/f7bbcc6ef14fd79655f09efb14b99316

以上就是港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体的详细内容,更多请关注其它相关文章!


# 图像  # 编码  # git  # 模型  # seo推广有前景么嘛  # 新乡网站推广效果好  # 墨镜的营销推广方案怎么写  # 站长seo优化工具  # 家政行业微信推广营销  # 乌兰察布营销推广服务  # 天津实用网站建设推广  # 黑龙江360推广营销  # 榆林网站关键词排名价格  # 河北网站建设代办  # 是在  # 这一  # 参数设置  # 结构化  # 外接  # 开源  # 出了  # 港大  # 图中  # 多模  # follow  # qwen  # 豆包大模型 


相关栏目: 【 行业资讯67740 】 【 技术百科0 】 【 网络运营39195


相关推荐: 如何打开win10命令  虚拟机如何用命令清除垃圾  硬件如何执行命令  路由器power灯一直亮是什么意思  typescript怎么设置滚动条  夸克还原排版是什么意思  如何由js快速切换typescript  夸克是什么空间单位  vue中datediff函数怎么用  苹果16充电方式有哪些  为什么用typescript  wps中datediff函数怎么用 WPS中DATEDIFF函数的语法和用法分享  mac 如何启动命令行模式  春运高速高铁抢票攻略  如何将系统移到固态硬盘  一年多少周  db2命令中如何去到指定的副本  5r是多少钱  春运抢票可以抢几张  索尼type-c接口是什么  反向春运抢票方式  如何用ftp连接命令行  typescript怎么添加css样式  12306放票时间规律(2025)  旧固态硬盘如何卖出  春运抢票最新技巧与方法  春运抢票软件哪个好  春运抢票哪个平台好一点  如何去掉拍电脑的纹路详细教程  手机拍电脑屏幕有条纹怎么解决  光刻机是干什么用的  typescript中如何引入本地js  苹果16更新了哪些软件  j*a怎么创建json数组  固态硬盘如何拆除  市盈率和市净率是什么意思  一分钟等于多少秒  什么是泛域名解析  为什么要出折叠屏手机  固态硬盘如何消除缓存  typescript什么意思  如何以管理员身份打开命令提示符  如何安装台式机固态硬盘  如何激活固态硬盘  问一下市盈率是什么意思  阿里云盘共享账户怎么用  市盈率中1stdv是什么意思  直接gmV是什么意思?直接GMV:定义和概念  油烟机上的power是什么意思  华为5g手机怎么选择 

搜索