浙大等研究提出C-MCR:连接多模态对比表征无需配对数据|NeurIPS 2023

浙大等研究提出C-MCR:连接多模态对比表征无需配对数据|NeurIPS 2023的封面图

本文介绍了浙江大学等机构研究人员提出的一种名为C-MCR的新型多模态对比表征学习方法,旨在解决多模态学习中依赖配对数据的问题。该方法称为连接多模态对比表示(C-MCR),能够在缺乏配对数据的情况下,高效地训练多模态对比表征。通过将不同模态的输入编码到一个共享的语义空间中,C-MCR连接了不同对比表征,实现了模态间的对齐关系学习。该方法的提出受到了视觉-语言领域CLIP模型成功的启发,展现了在多模态学习中的潜力和应用前景。详情请查看原文链接。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...