视频定位的目标是找到与输入文本 Query 相关的视频中的一个空间-时间部分。本文通过引入一个开放词汇空间-时间视频定位任务,解决当前视频定位方法中的一个关键限制。与普遍的闭集方法不同,作者的模型利用基础空间定位模型的预训练表示,可以有效地弥合自然语言和多样化视觉内容之间的语义鸿沟,在闭集和开放词汇设置中都取得了强大的性能。作者的贡献包括一个新颖的空间-时间视频定位模型,在多个数据集的闭集评估中超越了最先进的结果,并展示了在开放词汇场景中的优越性能。
值得注意的是,该模型在VidSTG(陈述性和疑问性)和HC-STVG(V1和V2)数据集上的闭集设置中,超过了最先进方法的4.26 mvIoU和1.83%的准确性,展示了其在处理多样化的语言和视觉概念以提高视频理解方面的有效性。
代码:https://github.com/TalalWasim/Video-GroundingDINO
1 Introduction
空间-时间视频定位在将视觉内容与自然语言描述联系起来,从而在视觉数据中促进语义解释方面至关重要。目前视频定位的常见方法,如TubeDETR,STCAT,和STVGFormer,主要关注监督的闭集设置,其中模型在具有预定义词汇和精心标注的数据集上进行训练。尽管这些当前最先进的方法在VidSTG和HC-STVG等数据集上的闭集设置上表现出色,但它们在训练数据分布之外的泛化能力有限,这是一个重大的挑战。现有视频数据集的相对较小规模和有限样本多样性使模型难以有效地适应未见过的场景。
受限于监督闭集方法在词汇方面的固有局限性,本文研究了开放词汇空间-时间视频定位。与传统方法不同,这种范式解决了自然语言和视觉概念在野外无限多样性的挑战。目标是基于基础类别进行训练,并通过开放词汇性质的 Backbone 模型进行泛化,以应对未见物体/动作。本文探索了开放词汇视频定位所固有的挑战和机遇,为更强大和灵活的视频理解奠定了基础。
然而,训练一个有效的开放词汇视频定位模型需要一个足够大的数据集,其中包含丰富的自然语言表达和相应的空间-时间定位。这样一个广泛的数据集可以让模型学习通用的视觉和文本表示,并处理超出分布的样本。但是,视频定位数据集在规模上相当有限,例如,VidSTG只有5.4k个训练视频,80.6k个不同的句子。相比之下,图像定位模型GLIP使用了约2.65亿图像-文本对进行训练。
因此,研究探索了以下基本问题:如何在不要求大规模视频标注的情况下,使空间-时间视频定位模型在闭集和开放词汇场景中实现稳健的性能,并有效地泛化到训练数据集之外?
为了回答这个问题,作者从专注于空间定位的基础模型的成就中得到启示。这些模型在广泛的电影-文本数据集上进行训练,从而有效地泛化到给定目标分布的样本。作者打算利用这种预训练表示来增强作者的视频定位模型。作者提出的解决方案是一个采用DETR类似架构的空间-时间视频定位模型,通过时间聚合模块进行增强。
空间模块使用基础图像模型的预训练表示进行初始化。同时,图像和文本特征提取器保持冻结,而视频特定的空间-时间适应性通过可学习适配块进行建模。这种方法旨在保留基础模型的细微表示,从而增强作者的模型有效地泛化到新样本的能力。
作者的闭集和开放词汇结果的总结如图1所示,其中提出的方法在两种设置中都明显优于其他方法。作者的主要贡献如下:
请将前面这段文本出公式以外的所有内容翻译为中文,尽量不要删减内容,公式就原始输出公式,同时标题保持原有的形式不要改变,以及一些专有词汇也不进行翻译,诸如,Transformer、CNN等。
首次,在零样本的方式下,在HCV-STVG V1和YouCook-Interactions基准测试上评估了空间-时间视频定位模型在开放词汇设置中的性能。作者分别以4.26 m_vIoU和1.83%的准确率超过了最先进的方法TubeDETR和STCAT。
通过结合空间定位模型的优势和互补的视频特定 Adapter ,在四个基准测试(VidSTG(陈述性),VidSTG(疑问性),HC-STVG V1 和HC-STVG V2)上的闭集设置中始终优于以前的最先进方法。
2 Related Work
空间定位基础模型:最近的文章介绍了许多空间定位模型。GLIP [10] 通过一个语言图像预训练模型将目标检测和短语定位统一起来,利用大量的图像-文本对获得语义丰富的表示。Grounding DINO 结合了语言和基于 Transformer 的检测器,实现了一个开放集检测器,在COCO和ODinW等基准测试上表现出色。
Kosmos-1 和 Kosmos-2 贡献了多模态大型语言模型(MLLMs),具有零样本和少样本学习、语言理解和多模态任务等能力。Kosmos-2 特别地将定位集成到下游应用程序中,引入了 GrIT,这是一个大规模的带有定位的图像-文本对数据集。Shikra 通过处理输入和输出的空间坐标,解决了MLLMs的参考能力,展示了在各种视觉语言任务上的 promising 性能。Ferret 在LLM范式中统一了指代和定位,在经典的指代和定位任务上获得了优越的性能,在基于区域的视觉语言对话和图像描述方面表现出色。
最近,GLaMM 允许与LLM进行像素级定位的对话,展示了对多个标注和引用分割任务的 generalizability。然而,空间方法不能用于视频中的定位物体,这是一个由本文解决的问题。
空间-时间视频定位:几种方法针对未剪辑视频中的物体定位问题,基于 Query 句子进行处理。STVGBert 提出了一个阶段性的视觉-语言 Transformer ,同时进行空间和时间定位。TubeDETR 引入了一个基于 Transformer 的架构,以高效地建模时间、空间和多模态交互。增强的 2D-TAN 采用两阶段方法,通过一个具有时间上下文感知双向 LSTM 聚合模块增强 2D-TAN。
OMRN 解决了空间-时间视频定位中未对齐数据和多形式句子的挑战,提出了一种基于目标的多个分支关系网络,以实现有效的关系发现。MMN 引入了一个互匹配网络作为指标学习框架,实现时间定位,并取得了具有竞争力的性能。STCAT 是一个端到端的单阶段框架,解决特征对齐和预测不一致问题。
最后,STVGFormer 提出了一种有效的框架,包括静态和动态分支,用于跨模态理解。虽然上述方法在视频定位方面取得了进步,但由于受限制的视频数据集,它们的泛化到非分布和开放词汇样本的能力有限。为解决此问题,作者利用在大量图像文本数据集上训练的闭集视频定位基础模型的泛化表示,可以在闭集和开放词汇评估中取得良好的效果。
3 Methodology
正如上述讨论中所述,当前最先进的空间-时间视频定位方法主要在有监督的设置下在 VidSTG 和 HC-STVG 数据集上进行评估。然而,这些方法缺乏在非分布样本上进行良好表现所需的跨模态空间-时间理解。因此,这项工作的目标是实现改进的开放词汇性能,同时保持强大的闭集视频定位性能。
从最近的视觉-文本数据空间定位基础模型中获得灵感。这些模型在大量视觉-文本数据上进行训练,因此,对未见样本的泛化能力很强。作者打算利用这种基础模型的强大泛化能力来实现强大的开放集空间-时间视频定位性能。提出的空间-时间视频定位方法采用类似于 DETR 的设计,具有时间聚合和适应模块来学习视频特定的表示。
Problem Definition
Spatio-Temporal Video Grounding
在这里解释视频定位模型在图2中的设计。如前所述,作者的目标是设计一个能够在闭集和开放词汇设置中表现良好的空间-时间视频定位模型。强大的开放词汇性能需要学习丰富的视觉/文本表示,这反过来又需要大量的训练数据。不幸的是,空间-时间视频定位数据集的规模相当有限,导致当前视频定位方法在将数据泛化到非分布样本方面表现不佳,因为它们缺乏所需的强视觉/文本表示。
为了解决这个问题,作者的方法受到最近的空间定位方法的启发,这些方法通过在大量图像文本语料库上进行训练,具有强大的开放词汇性能。作者可以利用这些模型的泛化表示来丰富从有限数量训练样本获得的视频定位方法较弱的表示。作者的方法旨在利用空间定位方法的强大预训练表示来实现强大的闭集监督和开放词汇视频定位性能。作者的空间-时间视频定位方法基于最先进的基于DETR的目标检测框架DINO 以及从Grounded Language-Image Pre-training (GLIP) 和Grounding DINO 借用的图像-文本对齐和定位概念。
从 Backbone 视觉和文本编码器 和 中提取初始特征。然后,模拟帧间和帧内特征,并在跨模态时空编码器(Sec. 3.2.1)中学习跨模态视觉/文本关系。通过跨模态时空编码器,得到丰富的跨模态特征,用于初始化每个帧的 Query 。这些 Query 随后通过在空间/时间维度上聚合信息并注入来自丰富的视觉/文本上下文的交叉注意力进行解码,预测每个帧的边界框和时间定位开始/结束帧。
给定视频 和文本提示 作为描述,从视觉编码器 和文本编码器 分别获得每帧特征 和文本特征 。视觉编码器基于 Swin Transformer,文本编码器定义为 BERT 模型。与其他基于 DETR 的检测器一样,图像特征是从多个尺度的视觉编码器块中提取的。然后,这些特征被传递到跨模态时空编码器。
3.2.1 Cross-Modality Spatio-Temporal Encoder
因此,作者进一步通过跨模态时空编码器编码初始特征,以模拟跨帧的时间信息并学习跨模态特征。
3.2.2 Language-Guided Query Selection
3.2.3 Cross-Modality Spatio-Temporal Decoder
3.2.4 Prediction Heads
Loss Function
4 Results
Experimental Setup and Protocols
4.1.1 Implementation Details
正如在方法(第3节)中所讨论的,从 Grounding DINO 空间定位模型中初始化作者的模型中的空间模块,并保持视觉和文本编码器冻结。空间和时间预测的预测头都设置为 3 层多层感知机(MLP)。在训练和推理期间,采样 128 帧,将其缩小到较短边分辨率为 448。将 M 和 N 都设置为 6,并使用批量大小为 8 和学习率 1e^-4 进行训练,如果有 10^-4 的权重衰减。对于 VidSTG,设置 epoch 为 10,对于 HC-STVG V1/V2,设置 epoch 为 90。
4.1.2 Evaluation Settings
作者在作者的视频定位模型中评估了两种设置,即开放词汇和闭集监督。
在开放词汇评估中,在 VidSTG 数据集上训练作者的模型,然后将其评估在两个不同的数据集上,分别是 HC-STVG V1 和 YouCook-Interactions,以了解模型对新分布的泛化能力。选择这两个数据集的原因是,前者与训练数据集 VidSTG 中的视角和物体相似,因此提供了相对较小的分布移动。相比之下,后者提供了重大的分布移动,包括视角和标注物体的变化。
在闭集监督评估中,在训练集上训练模型,并评估每个数据集的相应验证/测试集。这种评估方法针对的是在空间-时间视频定位中广泛使用的三个主要数据集,即 VidSTG,HC-STVG V1 和 HC-STVG V2。
4.1.3 Datasets
评估作者的方法,并将其与最先进的 state-of-the-art 进行比较,在两个设置中进行:开放词汇和闭集监督,横跨总共四个定位数据集,即:VidSTG,HCSTVG V1,HCSTVG V2 和 YouCook-Interactions。
VidSTG: VidSTG 数据集是从 VidOR 数据集中派生而来的,包含目标关系标注。它包括 99,943 个视频-文本对,包括 44,808 个陈述性句子 Query 和 55,135 个疑问性句子 Query 。训练、验证和测试集分别包含 80,684 个句子和 5,436 个视频。VidSTG 的文本 Query 仅限于描述 VidOR 中预定义的目标/关系类别。
HC-STVG V1/V2: HC-STVG 数据集来源于电影场景,每个视频片段大约20秒。由于视频片段中有多个人参与相似的动作,这些数据集在空间-时间定位方面具有挑战性。HC-STVG V1 包括 4,500 个训练和 1,160 个测试的视频-文本对。HC-STVG V2 扩展了 HC-STVG V1,增加了训练、验证和测试的样本数量,分别为 10,131、2,000 和 4,413。由于 HC-STVG V2 的测试集标注不可公开,因此结果报告在验证集上。
YouCook-Interactions: YouCook-Interactions 数据集是针对烹饪指示的 YouCook2 数据集的扩展。这个扩展包括6000个精心选择的帧,通常涵盖对应句子级标注中的手和工具的边界框。评估围绕使用这个数据集来检查模型的空间定位能力。
Experimental Results and Analysis
4.2.1 Open-Vocabulary Evaluation
对于开放词汇评估,在 VidSTG 上进行训练,并呈现了 HC-STVG V1 和 YouCook-Interactions 的结果。结果汇总在表 1 中。
HC-STVG V1 结果: 报告了在 m_vIoU,vIoU@0.3 和 vIoU@0.5 上的开放词汇评估,以及相对于封闭集监督评估的准确性减少。在 TubeDETR 和 STCAT 上实现了最先进的性能。
归因于作者设计的强大性能,该设计利用了一个空间定位基础模型的强大预训练通用特征。
YouCook-Interactions 结果: 进一步在 YouCook-Interactions 数据集上评估作者的方法,报告了空间定位的 pointing game 准确性。作者的方法在 STCAT 上取得了近 2% 的准确性提升,与 TubeDETR 相比超过了 6% 的提升。这进一步展示了作者在开放词汇设置下的强大泛化能力。
4.2.2 Closed-Set Supervised Evaluation
作者在三个数据集上进行了封闭集评估,分别是 VidSTG,HC-STVG V1 和 HC-STVG V2。
VidSTG 结果: 在 VidSTG 测试集的封闭集设置中报告了 m_tlOU,m_vlOU,vIoU@0.3 和 vIoU@0.5 的结果,如表 2 所示。结果表明,作者的方法在比较 Two-Stage 和 One-Stage 方法方面,在时间定位方面达到了最先进的性能。
特别是,在陈述性和疑问性句子的时间定位方面,比之前的最佳方法 OMRN(_One-Stage_)和 STVGFormer(_Two-Stage_)实现了超过 1 个单位的性能提升。
同样,对于 m_vlOU,vIoU@0.3 和 vIoU@0.5,作者在状态最先进的 STVGFormer 和 STCAT 方法上实现了超过 1 个单位的性能提升。请注意,作者的方法使用了冻结的视觉和文本编码器。相比之下,上述提到的所有最先进的状态最先进方法都训练了整个编码器。
HC-STVG V1 结果: 在 HC-STVG V1 数据集上报告了 m_vlOU,vIoU@0.3 和 vIoU@0.5 的结果,如表 3 所示。在 m_vlOU 和 vIoU@0.5 上实现了近 1.5 个单位的性能提升,并在 vIoU@0.3 上实现了 1 个单位的性能提升,超过了之前最佳方法 STVGFormer。这表明作者的方法在具有挑战性的这个数据集上表现一致。
HC-STVG V2 结果: 在 HC-STVG V2 数据集上报告了 m_vlOU,vIoU@0.3 和 vIoU@0.5 的结果,如表 4 所示。性能提升也体现在 HC-STVG V2 上,与 STVGFormer 和 TubeDETR 相比,在 HC-STVG V2 上也保持了一致的性能提升。
Ablative Analysis
作者对模型的各种设计选择进行了消融分析。特别地,首先评估了一个简单的 Baseline ,其中没有添加额外的时空聚合模块,并且在编码器和解码器中冻结了所有预训练的空间模块。这个 Baseline 在时空定位方面相对较弱。接下来在解码器中添加了时空模块,然后又添加到编码器中。作者发现这显著提高了时空定位,同时也提高了空间定位。最后,在解码器和编码器中微调了预训练的空间模块,这提供了在空间定位上的强烈改进,同时时空定位也保持了一致的改进。
Limitation
虽然作者的视频定位模型在闭集和开放词汇场景中表现出色,但它利用了像 Grounding DINO [12] 这样的图像文本预训练模型。为了在开放词汇设置中增强理解,像 CLIP 这样的更大且更多样化的视频语言预训练数据集的扩展可以帮助进一步提高性能。
构建一个包含多种自然语言表达和空间-时间定位的全面视频语言预训练数据集至关重要,因为像 VidSTG 和 HC-STVG 这样的数据集存在当前的约束。未来的努力可以探索创建一个大规模的视频语言定位数据集,使模型能够学习通用的视觉和文本表示,从而提高对非分布样本的适应性。
5 Conclusion
本文提出了一个开放词汇空间-时间视频定位任务,通过利用预训练的空间定位模型来解决当前方法学的限制。所提出的模型在闭集和开放词汇场景中表现出色,在像 VidSTG 和 HC-STVG 这样的数据集上超过了最先进的结果。
通过可学习的 Adapter 模块进行视频特定适应,它有效地弥合了自然语言 Query 和视觉内容之间的语义鸿沟。这项研究有助于理解开放词汇挑战,并为多样化的视频解释技术奠定了基础。
参考
[1]. Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Grounding
作者:AI视界引擎
文章来源:AI视界引擎
推荐阅读
- 地平线提出全新BEV方法WidthFormer | 全新3D位置编码+信息补偿模块,部署很友好!
- Improved TokenPose | 让TokenPose享受稀疏的快,又拥有高精度
- FRCNN来袭 | Faster RCNN与FCN永不遗忘,联邦学习+边缘数据既保护隐私也提升性能
- 实战 | YOLOv8实现CBC细胞计数
更多嵌入式AI干货请关注嵌入式AI专栏。欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。