本文是关于马毅团队最新研究的动态报道。研究指出,微调多模态大语言模型(MLLM)可能导致灾难性遗忘问题,这已成为当前热门话题之一,即使像GPT-4这样的模型也难以避免。最近,来自UC伯克利、NYU等机构的研究人员发现,微调后的多模态大模型可能会遭受灾难性遗忘。他们在论文中探讨了这一问题,并表示这是关于MLLM灾难性遗忘的首个研究。想了解更多详情,请点击原文链接:马毅团队新作!微调多模态大模型会「灾难性遗忘」,让性能大减。如果有任何疑问,欢迎联系文章作者,作者微信号为AI_era。