全面开放模型权重与代码,支持商业应用与定制化开发,加速全球开发者协作创新
原生支持8种语言理解与生成,可扩展至30+语种,助力全球化场景智能对话
128K超长上下文窗口处理能力,数学推理与代码生成达到顶尖闭源模型水平
覆盖8B至405B参数规模,适配从移动端到云端的全场景计算需求
集成微调工具链与多模态接口,提供从模型训练到生产部署的完整解决方案
支持文本生成、代码编写、图像解析等跨领域任务,赋能千行百业智能化转型
2023年2月
Meta正式推出LLaMA(Large Language Model Meta AI)初代模型,开启开源大语言模型的新纪元。该系列包含7B、13B、33B和65B参数版本,凭借小规模参数实现超越GPT-3的性能表现,首次在单块V100 GPU上运行大模型成为可能。LLaMA以透明、可复现的训练数据与高效推理能力,迅速成为学术研究与工业实践的热门选择。
2023年3月
LLaMA模型权重意外泄露后,全球开发者掀起创新浪潮。斯坦福团队推出指令微调模型Alpaca,仅需300美元成本即可训练;Georgi Gerganov实现LLaMA在MacBook CPU上的4比特量化运行。开源社区通过低秩微调、多模态适配等技术,推动模型在代码生成、对话交互等场景快速落地。
2023年7月
Meta发布LLaMA 2,参数规模扩展至700亿,训练数据量翻倍至2万亿token。新增的指令对齐与强化学习技术(RLHF)显著提升模型对话能力,首次支持商业用途。LLaMA 2-Chat版本在安全性与实用性上树立标杆,累计下载量突破5000万次,成为开发者构建生成式AI应用的首选工具。
2024年4月
LLaMA 3震撼发布,参数规模跨越至4050亿,训练效率提升三倍。该版本基于15万亿token的公开数据预训练,支持8K长上下文理解,并在多模态任务中逼近GPT-4水平。Meta同步推出适配AWS等云平台的部署方案,加速企业级AI解决方案落地。
2024年7月
LLaMA 3.1携405B参数模型登场,在13项基准测试中11项超越GPT-4o。新版本扩展128K上下文窗口,优化多语言支持与安全协议,并通过16000块H100 GPU集群实现高效训练。Meta宣布与25家云服务商合作提供API接口,使开发者能以GPT-4半价成本调用顶级模型能力。
2024年11月
LLaMA 3.1完成技术生态扩展,成为首个支持知识蒸馏与合成数据生成的开源模型。其创新的动态内存编码技术赋能视频分析与实时交互场景,而128K长上下文窗口助力金融、医疗等专业领域突破。Meta宣布LLaMA系列总下载量突破3亿次,标志着开源AI正式迈入工业化应用时代。