共计 6882 个字符,预计需要花费 18 分钟才能阅读完成。
AI 主流大模型介绍和 API 价格对比
主流的大模型系列
###1. OpenAI: GPT-4,GPT-4 Turbo,GPT-4o
OpenAI 的介绍:
- 全称 :Open Artificial Intelligence,简称 OpenAI。
- 性质 :起初为非营利性组织,后转变为由营利性公司 OpenAI LP 及非营利性母公司 OpenAI Inc 组成的机构。
- 成立时间 :2015 年。
- 成立地点 :美国旧金山。
- 创始人 :包括萨姆·奥尔特曼(Sam Altman)、埃隆·马斯克(Elon Musk)等在内的多位人工智能领域的知名人士。
GPT-4
GPT- 4 是 OpenAI 开发的一种生成式预训练转换器模型,全称为“Generative Pre-trained Transformer 4”。
GPT- 4 可以用于各种任务,如文本生成、翻译、对话等,具有极强的智能化和自适应性。
GPT-4 Turbo
GPT-4 Turbo 是 GPT- 4 的一个优化版本,专注于速度和成本效益。它在 2024 年 4 月的 OpenAI 开发者大会上被正式推出。
特点:
- 更快的响应速度:经过优化,能够更快地生成响应。
- 更低的运行成本:使用成本相对较低,适合需要高效处理大量请求且对成本敏感的应用场景。
- 更长的上下文长度:GPT-4 Turbo 具有 128k 上下文长度,相比 GPT- 4 的 8k 上下文长度有了显著提升。
- 全新的模型控制技术:使开发者可以更精细地调整模型输出,提升用户体验。
- 更新的知识库:GPT-4 Turbo 的现实世界知识截止时间比 GPT- 4 更新。
GPT-4o(或 GPT-4 Omni)
GPT-4o 是 OpenAI 发布的 GPT- 4 的升级版模型,其中“O”是 Omni 的缩写,意为“全能”。
它是一种多模态模型,能够处理并生成多种形式的输入和输出,包括文本、音频和图像。
2. Anthropic 的 Claude 系列
Anthropic PBC 是一家美国的人工智能(AI)初创企业和公益公司,由 OpenAI 的前成员创立,其中包括 OpenAI 前研究副总裁达里奥·阿莫迪(Dario Amodei)、GPT- 3 论文第一作者 Tom Brown 等。该公司专注于开发通用 AI 系统和语言模型,并秉持负责任的 AI 使用理念。其投资者包括谷歌、Salesforce、亚马逊、高通等科技巨头,估值超过 150 亿美元。
- Claude 是 Anthropic 公司开发的 AI 聊天机器人,与 ChatGPT 类似,采用消息传递界面,用户可以在其中提交问题或请求,并获得非常详细和相关的回复。Claude 具有 520 亿个参数,能够处理各种复杂的语言任务。
- Claude 3 系列
Claude 3 系列是 Anthropic 公司推出的最新一代 AI 模型,包括 Haiku、Sonnet 和 Opus 三个型号。这三个型号在性能上依次提升,允许用户为其特定应用选择智能、速度和成本的最佳平衡。
- Haiku:被称为“中杯”型号,是市场上同类智能模型中速度最快且最具成本效益的。它可以在极短的时间内阅读大量信息,包括图表和图形的数据密集的研究论文。Haiku 即将推出,尚未广泛应用。
- Sonnet:被称为“大杯”型号,其速度比 Claude 2 和 Claude 2.1 快 2 倍,且智能水平更高。Sonnet 擅长执行需要快速响应的任务,如知识检索或销售自动化等。目前,Sonnet 已在 claude.ai 以及全球 159 个国家和地区的 Claude API 上使用。
- Opus:被称为“超大杯”型号,是 Claude 3 系列中最智能的模型。在人工智能系统的大多数常见评估基准上都优于同行,包括本科水平专家知识(MMLU)、研究生水平专家推理(GPQA)、基础数学(GSM8K)等。Opus 在复杂任务上表现出接近人类水平的理解力和流畅性,并且具有强大的视觉能力,能够处理各种视觉格式,包括照片、图表、图形和技术图表等。Opus 也已在 claude.ai 以及全球 159 个国家和地区的 Claude API 上使用。
Google 的 Gemini 系列
Gemini 是由 Google AI 开发的多模态大模型,代表了 Google 在人工智能领域的最先进技术。该系列包括多个型号,针对不同的应用场景和需求进行优化。
-
Gemini Ultra(双子星至尊版)
- 功能最强大,适用于高度复杂任务的超大型模型。
-
Gemini Pro(双子星专业版)
- 适用于处理各种类型任务的最佳模型。在 87% 的文本、代码、图像、音频和视频基准测试中超越了 Gemini 1.0 Pro。其最大上下文窗口为 100 万个 token(后升级支持至 200 万 token),能够处理大量信息,提高输出的相关性和一致性。
-
Gemini Flash(双子星闪速版)
- 轻量级模型,兼具速度、效率、高性价比和强大的多模态推理能力。适用于需要快速处理海量数据的各种场景。采用了先进的模型压缩技术,体积小,运行速度快,且成本低廉。
-
Gemini Nano(双子星迷你版)
- 最高效的模型,适用于设备端任务
Meta 公司的 LLaMA 系列
Meta 公司(Meta Platforms, Inc.),原名 Facebook,是一家美国互联网科技公司,由马克·扎克伯格创立于 2004 年 2 月 4 日。公司主要经营社交网络、虚拟现实、元宇宙等产品,旗下主要包括 Facebook、Instagram、WhatsApp 和 Messenger 四款社交通讯应用,日活用户达到 32.4 亿(2024 年第一季度)。2021 年,公司改名为 Meta,标志着其从社交媒体巨头向人工智能领域的转型。
Meta 在大模型领域取得了显著的进展,其开源大模型 Llama 系列在业界产生了广泛影响。以下是 Meta 大模型发展的几个关键节点:
-
Llama 系列开源 :
- 2023 年 2 月,Meta 开源了大语言模型 Llama。
- 2023 年 7 月,开源了 Llama 2,并允许免费商用。
- 2023 年 8 月,推出了开源代码模型 Code Llama。
- 2024 年 4 月,推出了开源大模型 Llama 3,提供了 8B 和 70B 参数两个版本,同时包含基础模型和指令微调模型,可支持广泛的应用。
-
Llama 3 的性能 :
- Llama 3 在超过 15T 的 token 上进行了预训练,训练数据集是 Llama 2 的七倍,包含的代码数量也是 Llama 2 的四倍。
- Llama 3 在广泛的行业基准测试中达到了 SOTA(行业最高水准)。在大模型评测社区 LMSYS 最新大模型排行榜单中,Llama 3 70B 位列第五,仅次于 GPT- 4 的 3 个版本和 Claude 3 Opus 等闭源大模型,成为最强的开源大模型。
Mistral 大模型 系列
Mistral 是一家由 Meta Platforms 和 Google DeepMind 前员工于 2023 年 4 月创立的法国人工智能公司。公司致力于通过突破性的创新打造开放、高效、有用且值得信赖的人工智能模型,使命是让前沿人工智能无处不在,为所有建设者提供量身定制的人工智能。
* 准测试中,Mistral-7B 表现出色,优于 Llama 2 13B,在许多基准测试中甚至优于 Llama 1 34B。* 它接近 CodeLlama 7B 的代码性能,同时保持良好的英语任务表现。
-
Mixtral
- Mixtral 是一种具有开放权重的高质量稀疏专家混合模型(SMoE)。
- Mixtral 在大多数基准测试中都优于 Llama 2 70B,推理速度提高了 6 倍。它是最强大的开放权重模型之一,具有宽松的许可证,也是成本 / 性能权衡方面的最佳模型。
- Mixtral 可以优雅地处理 32k 令牌的上下文,支持多种语言,包括英语、法语、意大利语、德语和西班牙语。在代码生成方面表现出强大的性能。
-
Pixtral 12B
- Pixtral 12B 是 Mistral 发布的多模态大模型,同时具备语言和视觉处理能力。
- 它建立在文本模型 Nemo 12B 基础上,包含一个专门的视觉编码器,原生支持任意数量和尺寸的图像。
- Pixtral 12B 大约有 40 层神经网络、14336 个隐藏维度大小和 32 个注意力头,以及一个专用的视觉编码器,支持高分辨率图像(1024×1024)处理。
- 在多模态知识和推理、QA 等方面都表现出色。
-
Mistral Lite
- Mistral Lite 是一款经过优化的语言模型,在处理长文本上下文时表现出色,且在资源受限的环境中也能保持高效性能。
- Mistral Lite 能够有效地处理长度达到 32K tokens 的上下文,通过调整模型参数和优化上下文处理机制,在长文本上下文中的表现显著优于其他模型。
深度求索公司的 DeepSeek
杭州深度求索人工智能基础技术研究有限公司 (简称“深度求索”或“DeepSeek”),成立于 2023 年,是一家专注于实现 AGI 的中国公司。
DeepSeek 大模型主要版本的介绍:
DeepSeek- V1
- 发布时间 :2024 年 1 月。
- 核心技术 :数据端包括去重、过滤、混合 3 个步骤,旨在构建一个多样性强、纯净的高质量预训练数据;模型端沿用 LLaMA 的主体 Transformer 结构,包括 RMSNorm 的 Pre-normalization、SwiGLU 激活函数、Rotary Embeddings 位置编码等;优化端使用 multi-step learning rate 代替 LLaMA 中的 cosine learning rate schedule;对齐阶段使用 SFT 进行人类风格对齐。
- 参数规模 :未具体提及,但提供了 7B 和 67B 两种尺寸的模型。
- 应用场景 :作为 DeepSeek 系列的首个版本,为后续的模型发展奠定了基础。
DeepSeek-V2
- 发布时间 :2024 年 5 月。
- 核心技术 :引入了 MLA(Multi-head Latent Attention)架构和自研的 Sparse 结构 DeepSeekMoE,旨在提升模型的推理效率和参数空间。
- 参数规模 :拥有 2360 亿参数,其中每个 token 有 210 亿个活跃参数。
- 应用场景 :能处理自然语言处理中的多种任务,尤其在中文综合能力等方面表现出色,性能达 GPT- 4 级别。
- 训练方式 :基于高效且轻量级的框架 HAI-LLM 进行训练,采用 16-way zero-bubble pipeline 并行、8-way 专家并行和 ZeRO- 1 数据并行。
DeepSeek-V3
- 发布时间 :2024 年 12 月 26 日。
- 核心技术 :采用基于 Mixture-of-Experts(MoE)架构,通过动态激活相关“专家”来降低计算成本并保持高性能。引入了多头潜在注意力(MLA)架构、无辅助损失的负载均衡策略以及多 token 预测(MTP)目标,提升了模型的推理效率和训练成本效益。
- 参数规模 :拥有 6710 亿参数,其中激活参数为 370 亿。
- 应用场景 :在聊天和编码场景、多语言自动翻译、图像生成和 AI 绘画等多模态场景中表现出色。尤其在数学、代码和中文任务上,V3 表现尤为突出,成为当前最强的开源模型。
- 训练成本 :整个训练过程仅耗费了 278.8 万 H800 GPU 小时,总成本约为 557.6 万美元,远低于其他前沿大模型。
- API 服务 :调整了 API 服务价格,优惠期内(即日起至 2025 年 2 月 8 日)API 价格为每百万输入 tokens 0.1 元(缓存命中)/ 1 元(缓存未命中),每百万输出 tokens 2 元。优惠期结束后,价格将恢复至每百万输入 tokens 0.5 元(缓存命中)/ 2 元(缓存未命中),每百万输出 tokens 8 元。
DeepSeek-R1 与 DeepSeek-R1-Zero
- 发布时间 :DeepSeek-R1 及 DeepSeek-R1-Zero 均在 2025 年 1 月 20 日左右发布并开源。
- 核心技术 :两者可能都在 Transformer 架构基础上针对推理做了优化,通过强化学习训练实现大量反思和验证。DeepSeek-R1-Zero 几乎不依赖任何人类数据,完全依靠机器生成数据来进行强化学习训练。
- 参数规模 :两者参数均为 660B。
- 应用场景 :在数学、代码以及各种复杂逻辑推理任务上应用出色,主要用于科学研究、复杂问题求解和逻辑分析。DeepSeek-R1-Zero 可能在一些无人工标注数据相关场景更具优势。
DeepSeek-VL
- 发布时间 :DeepSeek-VL2 系列于 2024 年 12 月发布。
- 核心技术 :整体上是 decoder-only 的 LLaVA 风格架构,包括视觉编码器、视觉语言适配器、专家混合语言模型三个核心模块。
- 参数规模 :DeepSeek-VL2 系列有 DeepSeek-VL2-Tiny、DeepSeek-VL2-Small 和 DeepSeek-VL2,分别具有 10 亿、28 亿和 45 亿个激活参数。
- 应用场景 :用于 VQA、OCR、文档 / 表格 / 图表理解和视觉定位等多模态理解任务
阿里的同义千问模型
Qwen2.5:这是通义千问系列中的一个重要版本。Qwen2.5 全系列总计上架了 100 多个模型,涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型。其中,Qwen2.5-72B 在多个核心任务的测评上,以不到 1 / 5 的参数超越了拥有 4050 亿巨量参数的 Llama3.1-405B,性能强劲。
各模型 API 输入输出与价格比较
Provider | Model | Max Input (Tokens) | Max Output (Tokens) | Input Price (per mill tokens) | Output Price (per mill tokens) |
---|---|---|---|---|---|
OpenAI | GPT-4 | 8,192 | 8,192 | \undefined | |
OpenAI | GPT-4 Turbo | 128,000 | 4,096 | \undefined | |
OpenAI | GPT-3.5 Turbo | 4,096 | 4,096 | \undefined.50 | |
OpenAI | GPT-4o | 128,000 | 4,096 | \undefined | |
Anthropic | Claude 2 | 100,000 | 4,000 | \undefined | |
Anthropic | Claude 3 Opus | 200,000 | 4,000 | \undefined | |
Anthropic | Claude 3 Sonnet | 200,000 | 4,000 | \undefined | |
Anthropic | Claude 3 Haiku | 200,000 | 4,000 | \undefined.25 | |
Gemini Pro | 32,768 | 2,048 | \undefined.50 | ||
Gemini Ultra | 32,768 | 2,048 | \undefined | ||
Meta | LLaMA 2 (7B) | 4,096 | 4,096 | Open Source | Open Source |
Meta | LLaMA 2 (13B) | 4,096 | 4,096 | Open Source | Open Source |
Meta | LLaMA 2 (70B) | 4,096 | 4,096 | Open Source | Open Source |
Mistral | Mistral 7B | 8,192 | 8,192 | Open Source | Open Source |
Mistral | Mixtral 8x7B | 32,000 | 32,000 | Open Source | Open Source |
深度求索 | DeepSeek-V3 | 128,000 | 4,096 | \undefined.28 | |
阿里 | 通义千问 – Turbo | 1,000,000 | 0.0003¥ | 0.0006¥ |
说明:
- Max Input:模型支持的最大输入 token 数量。
- Max Output:模型支持的最大输出 token 数量。
- Input Price:每百万输入 token 的价格(单位:美元)。
- Output Price:每百万输出 token 的价格(单位:美元)。
- Open Source:开源模型,无直接定价。
备注:
- 价格和 token 限制可能因供应商更新而变化,建议参考官方文档获取最新信息。
- 部分模型(如 LLaMA 2、Mistral)是开源的,价格不适用,但可能需要自行部署和计算资源成本。
性价比分析
- DeepSeek-V3: 无论是输入还是输出价格,DeepSeek-V3 都是最便宜的模型,性价比极高。
- Claude 3 Haiku: 输入和输出价格都非常低,性价比仅次于 DeepSeek-V3。
- GPT-3.5 Turbo: 输入和输出价格较低,适合预算有限的项目。
- Gemini Pro: 价格与 GPT-3.5 Turbo 相当,性价比不错。
- Claude 3 Sonnet: 输入价格较低,但输出价格较高,适合输入密集型任务。
- GPT-4o: 输入价格较低,输出价格中等,适合需要较高性能的任务。
- GPT-4 Turbo: 输入价格中等,输出价格较高,适合需要高性能的任务。
- Claude 2: 输入和输出价格较高,性价比一般。
- Claude 3 Opus: 输入和输出价格最高,适合需要顶级性能的任务。
- Gemini Ultra: 输入和输出价格较高,性价比一般。
- GPT-4: 输入和输出价格最高,适合需要顶级性能的任务。
总结
- 最佳性价比 : DeepSeek-V3
- 次佳性价比 : Claude 3 Haiku
- 预算有限 : GPT-3.5 Turbo 和 Gemini Pro
- 高性能需求 : GPT-4o 和 GPT-4 Turbo
- 顶级性能 : Claude 3 Opus 和 GPT-4
开源模型(如 LLaMA 2 和 Mistral)在价格上具有绝对优势,但需要自行部署和维护,适合有技术能力的团队。