谷歌发布 Mirasol:30 亿参数,将多模态理解扩展到长视频
AI 模型目前很难处理不同的数据流,如果要让 AI 理解视频,需要整合视频、音频和文本等不同模态的信息,这大大增加了难度。
谷歌和谷歌 Deepmind 的研究人员提出了新的方法,将多模态理解扩展到长视频领域。
借助 Mirasol AI 模型,该团队试图解决两个关键挑战:
-
需要以高频采样同步视频和音频,但要异步处理标题和视频描述。
-
视频和音频会生成大量数据,这会让模型的容量紧张。
谷歌在 Mirasol 中使用合路器(combiners)和自回归转换器(autoregressive transformer)模型。
该模型组件会处理时间同步的视频和音频信号,然后再将视频拆分为单独的片段。
转换器处理每个片段,并学习每个片段之间的联系,然后使用另一个转换器处理上下文文本,这两个组件交换有关其各自输入的信息。
名为 Combiner 的新颖转换模块从每个片段中提取通用表示,并通过降维来压缩数据。每个段包含 4 到 64 帧,该模型当前共有 30 亿个参数,可以处理 128 到 512 帧的视频。
在测试中,Mirasol3B 在视频问题分析方面达到了新的基准,体积明显更小,并且可以处理更长的视频。使用包含内存的组合器变体,该团队可以将所需的计算能力进一步降低 18%。
IT之家在此附上 Mirasol 的官方新闻稿,感兴趣的用户可以深入阅读。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。