浙大校友开源多模态大模型LLaVA-1.5,130亿参数,用8个A100一天训练完成挑战GPT-4V

浙大校友开源多模态大模型LLaVA-1.5,130亿参数,用8个A100一天训练完成挑战GPT-4V

最新动态:AIGC

刚刚发布:挑战GPT-4V!浙江大学校友发布开源多模态大型模型 LLaVA-1.5,拥有130亿参数,仅用8个A100在一天内完成训练

关键词:数据,模型,指令,视觉格式

文章来源:新智元

字数:8754字

摘要:新智元报道编辑:Aeneas。LLaVA-1.5正面挑战GPT-4V的霸主地位!在11个基准测试中均达到了最新技术水平,而且130亿参数的模型只需8个A100就能在一天内完成训练。今年9月底,OpenAI宣布了ChatGPT的多模态能力。多模态GPT-4V的出色表现让人惊叹:这难道就是GPT-4.5?不久之后,GPT-4V的竞争对手——LLaVA-1.5,便已横空出世!今年4月…

原文链接:点击查看原文:挑战GPT-4V!浙大校友发布开源多模态大型模型 LLaVA-1.5,130亿参数8个A100一天训练完

联系方式

文章来源:新智元

作者微信:AI_era

作者简介:智能+中国主平台,致力于推动中国迈向智能时代。专注前沿领域如人工智能、机器人等发展,关注人机融合,以及人工智能和机器人对社会和文明的影响,引领中国智能新时代的潮流。

© 版权声明

相关AI热点

暂无评论

none
暂无评论...