Meta推出首个能够处理图像的人工智能开源模型
2024-09-26 06:02:13爱云资讯阅读量:51,301
(爱云资讯消息)在发布上一个大型AI模型仅两个月后,Meta又推出了一项重大更新:其首个能够处理图像和文本的开源模型。
新推出的模型Llama 3.2可以让开发者创建更为先进的AI应用,比如提供实时视频理解的增强现实应用程序;基于内容对图像进行分类的视觉搜索引擎;以及能够总结长篇文本的文档分析工具。
Meta表示,开发者将能够轻松地将新模型投入使用。Meta的生成式AI副总裁阿迈德·阿尔达勒(Ahmad Al-Dahle)在接受外媒采访时表示,开发者只需添加多模态功能,就能展示Llama图像并让其进行交流。
其他AI开发者,包括OpenAI和谷歌,去年已经推出了多模态模型,因此Meta在这里处于追赶地位。随着Meta继续在其Ray-Ban Meta眼镜等硬件上构建AI能力,视觉支持也将发挥关键作用。
Llama 3.2版本包含两个视觉模型(参数量为110亿和900亿)和两个轻量级纯文本模型(参数量为10亿和30亿)。较小的模型是为高通、联发科和其他Arm硬件设计的,Meta显然希望它们能在移动设备上得到应用。
不过,稍微老一点的Llama 3.1版本仍有一席之地:这款模型于今年7月发布,其中包含一个拥有4050亿参数的版本,理论上在生成文本方面将具有更强的能力。
相关文章
- 昇思多维混合分布式并行技术,助力伙伴快速复现Llama 3.1-405B大模型
- 源2.0-M32大模型发布量化版 运行显存仅需23GB 性能可媲美LLaMA3
- 国产大模型超越Llama3!岩芯数智RockAI重新定义端侧智能
- GPT革命|Meta模型Llama 3.1亮相,微美全息构建多模态AI生态
- 神州问学上架Llama 3.1开源大模型,构建多元大模型生态体系
- Meta发布迄今为止最大最出色的开源人工智能模型Llama 3.1
- 实践分享:青云科技KubeSphere 上部署 AI 大模型管理工具 Ollama
- 浪潮信息AI服务器率先支持L40S,首发LLaMA训练优异性能
- 大模型技术实践(三)|10分钟用LangChain和Llama 2打造心灵疗愈机器人
- 快速玩转 Llama2!阿里云机器学习 PAI 推出最佳实践
- UCloud优刻得上线可商用LLaMA2镜像,助力AGI应用发展