73
AI资讯

​Cohere发布全新多模态AI模型Aya Vision,提供32B和8B两个版本

收录于合集

人工智能初创公司 Cohere 的非营利研究实验室本周发布了一款多模态 “开放” AI 模型 ——Aya Vision。该实验室声称,该模型在行业内处于领先地位。



Aya Vision 能够执行多项任务,包括撰写图片说明、回答与照片相关的问题、翻译文本以及生成23种主要语言的摘要。Cohere 表示,他们通过 WhatsApp 免费提供 Aya Vision,希望能让世界各地的研究人员更方便地获取技术突破。



Cohere 在其博客中指出,尽管人工智能已经取得了显著进展,但在不同语言之间的模型表现仍存在很大差距,尤其是在涉及文本和图像的多模态任务中。“Aya Vision 的目标就是帮助缩小这一差距。”


Aya Vision 有两个版本:Aya Vision32B 和 Aya Vision8B。更为先进的 Aya Vision32B 被称为 “新边界”,在某些视觉理解基准测试中表现超越了体量为其两倍的模型,包括 Meta 的 Llama-3.290B Vision。同时,Aya Vision8B 在某些评估中表现也优于一些体量为其十倍的模型。



这两个模型在 AI 开发平台 Hugging Face 上以 Creative Commons4.0许可证的形式提供,用户需遵循 Cohere 的可接受使用附录,且不可用于商业应用。


Cohere 表示,Aya Vision 的训练采用了一种 “多样化的” 英语数据集,实验室将这些数据集翻译后,使用合成标注进行训练。合成标注是指由 AI 生成的标注,有助于模型在训练过程中理解和解释数据。尽管合成数据存在潜在缺点,但像 OpenAI 等竞争对手也在越来越多地使用合成数据来训练模型。


Cohere 指出,使用合成标注训练 Aya Vision 使得他们能够减少资源的使用,同时仍能取得竞争力的表现。“这展示了我们对效率的重视,利用更少的计算资源实现更多成果。”


为了进一步支持研究界,Cohere 还发布了一套新的基准评估工具 ——AyaVisionBench,旨在考察模型在视觉与语言结合任务中的能力,如识别两张图像的差异和将屏幕截图转换为代码。


当前,人工智能行业正面临所谓的 “评估危机”,这主要源于流行基准的广泛使用,这些基准的总分与大多数 AI 用户关心的任务的能力相关性较差。Cohere 声称,AyaVisionBench 为评估模型的跨语言和多模态理解提供了一个 “广泛且具有挑战性” 的框架。


划重点:  


🌟 Aya Vision 模型被 Cohere 称为行业最佳,能够执行多种语言和视觉任务。  


💡 Aya Vision 有两个版本,分别为32B 和8B,表现超越体量更大的竞争模型。  


🔍 Cohere 还发布了新的基准评估工具 AyaVisionBench,旨在改善 AI 模型评估问题。  

78552
收录于合集
文章来源于网络,如有侵权请联系本站删除
二手好课
更多>>
年卡|ai决胜未来。课程培训
ai课
¥3000
年卡|【超值】大厂AI技能专家课程出售!
ai课
¥3199
年卡|人工智能课程
人工智能课
¥3280
年卡|【专注AI陪跑-1v1教学-包offer项目】1V1手把手带做项目,跟进面试简历修改,薛老板课程教学,拿offer概率提升至90%。面试通过率大大提升。
ai课
¥3299
年卡|火花思维AI课L1-L3三级别联报
ai课
¥3350
年卡| 通过对比市面上的AI产品课程,以下是我选择两光年AI产品经理课程的原因
AI产品经理课
¥3500
次卡|[hot]两光年AI产品课程辅导 [火]AI产品经理特训班(148课时)
ai产品课
¥3580
年卡|AI算法编程超简单,3天快速入门!
AI算法编程课
¥3594
年卡|#工信部AIGC大模型认证-高级课程
AIGC大模型课
¥3600
年卡|尚学堂百战程序员人工智能视频课程
人工智能课
¥3980