AI主流大模型介绍和API价格对比

65次阅读
没有评论

共计 6882 个字符,预计需要花费 18 分钟才能阅读完成。

AI 主流大模型介绍和 API 价格对比

主流的大模型系列

###1. OpenAI: GPT-4,GPT-4 Turbo,GPT-4o

OpenAI 的介绍:

  • 全称 ​:Open Artificial Intelligence,简称 OpenAI。
  • 性质 ​:起初为非营利性组织,后转变为由营利性公司 OpenAI LP 及非营利性母公司 OpenAI Inc 组成的机构。
  • 成立时间 ​:2015 年。
  • 成立地点 ​:美国旧金山。
  • 创始人 ​:包括萨姆·奥尔特曼(Sam Altman)、埃隆·马斯克(Elon Musk)等在内的多位人工智能领域的知名人士。
GPT-4

GPT- 4 是 OpenAI 开发的一种生成式预训练转换器模型,全称为“Generative Pre-trained Transformer 4”。
GPT- 4 可以用于各种任务,如文本生成、翻译、对话等,具有极强的智能化和自适应性。

GPT-4 Turbo

GPT-4 Turbo 是 GPT- 4 的一个优化版本,专注于速度和成本效益。它在 2024 年 4 月的 OpenAI 开发者大会上被正式推出。
特点:

  • 更快的响应速度:经过优化,能够更快地生成响应。
  • 更低的运行成本:使用成本相对较低,适合需要高效处理大量请求且对成本敏感的应用场景。
  • 更长的上下文长度:GPT-4 Turbo 具有 128k 上下文长度,相比 GPT- 4 的 8k 上下文长度有了显著提升。
  • 全新的模型控制技术:使开发者可以更精细地调整模型输出,提升用户体验。
  • 更新的知识库:GPT-4 Turbo 的现实世界知识截止时间比 GPT- 4 更新。
GPT-4o(或 GPT-4 Omni)

GPT-4o 是 OpenAI 发布的 GPT- 4 的升级版模型,其中“O”是 Omni 的缩写,意为“全能”。
它是一种多模态模型,能够处理并生成多种形式的输入和输出,包括文本、音频和图像。

2. Anthropic 的 Claude 系列

Anthropic PBC 是一家美国的人工智能(AI)初创企业和公益公司,由 OpenAI 的前成员创立,其中包括 OpenAI 前研究副总裁达里奥·阿莫迪(Dario Amodei)、GPT- 3 论文第一作者 Tom Brown 等。该公司专注于开发通用 AI 系统和语言模型,并秉持负责任的 AI 使用理念。其投资者包括谷歌、Salesforce、亚马逊、高通等科技巨头,估值超过 150 亿美元。

  1. Claude 是 Anthropic 公司开发的 AI 聊天机器人,与 ChatGPT 类似,采用消息传递界面,用户可以在其中提交问题或请求,并获得非常详细和相关的回复。Claude 具有 520 亿个参数,能够处理各种复杂的语言任务。
  2. Claude 3 系列
    Claude 3 系列是 Anthropic 公司推出的最新一代 AI 模型,包括 Haiku、Sonnet 和 Opus 三个型号。这三个型号在性能上依次提升,允许用户为其特定应用选择智能、速度和成本的最佳平衡。
  • Haiku​:被称为“中杯”型号,是市场上同类智能模型中速度最快且最具成本效益的。它可以在极短的时间内阅读大量信息,包括图表和图形的数据密集的研究论文。Haiku 即将推出,尚未广泛应用。
  • Sonnet​:被称为“大杯”型号,其速度比 Claude 2 和 Claude 2.1 快 2 倍,且智能水平更高。Sonnet 擅长执行需要快速响应的任务,如知识检索或销售自动化等。目前,Sonnet 已在 claude.ai 以及全球 159 个国家和地区的 Claude API 上使用。
  • Opus​:被称为“超大杯”型号,是 Claude 3 系列中最智能的模型。在人工智能系统的大多数常见评估基准上都优于同行,包括本科水平专家知识(MMLU)、研究生水平专家推理(GPQA)、基础数学(GSM8K)等。Opus 在复杂任务上表现出接近人类水平的理解力和流畅性,并且具有强大的视觉能力,能够处理各种视觉格式,包括照片、图表、图形和技术图表等。Opus 也已在 claude.ai 以及全球 159 个国家和地区的 Claude API 上使用。
Google 的 Gemini 系列

Gemini 是由 Google AI 开发的多模态大模型,代表了 Google 在人工智能领域的最先进技术。该系列包括多个型号,针对不同的应用场景和需求进行优化。

  1. Gemini Ultra(双子星至尊版)

    • 功能最强大,适用于高度复杂任务的超大型模型。
  2. Gemini Pro(双子星专业版)

    • 适用于处理各种类型任务的最佳模型。在 87% 的文本、代码、图像、音频和视频基准测试中超越了 Gemini 1.0 Pro。其最大上下文窗口为 100 万个 token(后升级支持至 200 万 token),能够处理大量信息,提高输出的相关性和一致性。
  3. Gemini Flash(双子星闪速版)

    • 轻量级模型,兼具速度、效率、高性价比和强大的多模态推理能力。适用于需要快速处理海量数据的各种场景。采用了先进的模型压缩技术,体积小,运行速度快,且成本低廉。
  4. Gemini Nano(双子星迷你版)

    • 最高效的模型,适用于设备端任务
Meta 公司的 LLaMA 系列

Meta 公司(Meta Platforms, Inc.),原名 Facebook,是一家美国互联网科技公司,由马克·扎克伯格创立于 2004 年 2 月 4 日。公司主要经营社交网络、虚拟现实、元宇宙等产品,旗下主要包括 Facebook、Instagram、WhatsApp 和 Messenger 四款社交通讯应用,日活用户达到 32.4 亿(2024 年第一季度)。2021 年,公司改名为 Meta,标志着其从社交媒体巨头向人工智能领域的转型。

Meta 在大模型领域取得了显著的进展,其开源大模型 Llama 系列在业界产生了广泛影响。以下是 Meta 大模型发展的几个关键节点:

  1. Llama 系列开源 ​:

    • 2023 年 2 月,Meta 开源了大语言模型 Llama。
    • 2023 年 7 月,开源了 Llama 2,并允许免费商用。
    • 2023 年 8 月,推出了开源代码模型 Code Llama。
    • 2024 年 4 月,推出了开源大模型 Llama 3,提供了 8B 和 70B 参数两个版本,同时包含基础模型和指令微调模型,可支持广泛的应用。
  2. Llama 3 的性能 ​:

    • Llama 3 在超过 15T 的 token 上进行了预训练,训练数据集是 Llama 2 的七倍,包含的代码数量也是 Llama 2 的四倍。
    • Llama 3 在广泛的行业基准测试中达到了 SOTA(行业最高水准)。在大模型评测社区 LMSYS 最新大模型排行榜单中,Llama 3 70B 位列第五,仅次于 GPT- 4 的 3 个版本和 Claude 3 Opus 等闭源大模型,成为最强的开源大模型。
Mistral 大模型 系列

Mistral 是一家由 Meta Platforms 和 Google DeepMind 前员工于 2023 年 4 月创立的法国人工智能公司。公司致力于通过突破性的创新打造开放、高效、有用且值得信赖的人工智能模型,使命是让前沿人工智能无处不在,为所有建设者提供量身定制的人工智能。

* 准测试中,Mistral-7B 表现出色,优于 Llama 2 13B,在许多基准测试中甚至优于 Llama 1 34B。* 它接近 CodeLlama 7B 的代码性能,同时保持良好的英语任务表现。
  1. Mixtral

    • Mixtral 是一种具有开放权重的高质量稀疏专家混合模型(SMoE)。
    • Mixtral 在大多数基准测试中都优于 Llama 2 70B,推理速度提高了 6 倍。它是最强大的开放权重模型之一,具有宽松的许可证,也是成本 / 性能权衡方面的最佳模型。
    • Mixtral 可以优雅地处理 32k 令牌的上下文,支持多种语言,包括英语、法语、意大利语、德语和西班牙语。在代码生成方面表现出强大的性能。
  2. Pixtral 12B

    • Pixtral 12B 是 Mistral 发布的多模态大模型,同时具备语言和视觉处理能力。
    • 它建立在文本模型 Nemo 12B 基础上,包含一个专门的视觉编码器,原生支持任意数量和尺寸的图像。
    • Pixtral 12B 大约有 40 层神经网络、14336 个隐藏维度大小和 32 个注意力头,以及一个专用的视觉编码器,支持高分辨率图像(1024×1024)处理。
    • 在多模态知识和推理、QA 等方面都表现出色。
  3. Mistral Lite

    • Mistral Lite 是一款经过优化的语言模型,在处理长文本上下文时表现出色,且在资源受限的环境中也能保持高效性能。
    • Mistral Lite 能够有效地处理长度达到 32K tokens 的上下文,通过调整模型参数和优化上下文处理机制,在长文本上下文中的表现显著优于其他模型。
深度求索公司的 DeepSeek

杭州深度求索人工智能基础技术研究有限公司 (简称“深度求索”或“DeepSeek”),成立于 2023 年,是一家专注于实现 AGI 的中国公司。
DeepSeek 大模型主要版本的介绍:

DeepSeek- V1
  • 发布时间 ​:2024 年 1 月。
  • 核心技术 ​:数据端包括去重、过滤、混合 3 个步骤,旨在构建一个多样性强、纯净的高质量预训练数据;模型端沿用 LLaMA 的主体 Transformer 结构,包括 RMSNorm 的 Pre-normalization、SwiGLU 激活函数、Rotary Embeddings 位置编码等;优化端使用 multi-step learning rate 代替 LLaMA 中的 cosine learning rate schedule;对齐阶段使用 SFT 进行人类风格对齐。
  • 参数规模 ​:未具体提及,但提供了 7B 和 67B 两种尺寸的模型。
  • 应用场景 ​:作为 DeepSeek 系列的首个版本,为后续的模型发展奠定了基础。
DeepSeek-V2
  • 发布时间 ​:2024 年 5 月。
  • 核心技术 ​:引入了 MLA(Multi-head Latent Attention)架构和自研的 Sparse 结构 DeepSeekMoE,旨在提升模型的推理效率和参数空间。
  • 参数规模 ​:拥有 2360 亿参数,其中每个 token 有 210 亿个活跃参数。
  • 应用场景 ​:能处理自然语言处理中的多种任务,尤其在中文综合能力等方面表现出色,性能达 GPT- 4 级别。
  • 训练方式 ​:基于高效且轻量级的框架 HAI-LLM 进行训练,采用 16-way zero-bubble pipeline 并行、8-way 专家并行和 ZeRO- 1 数据并行。
DeepSeek-V3
  • 发布时间 ​:2024 年 12 月 26 日。
  • 核心技术 ​:采用基于 Mixture-of-Experts(MoE)架构,通过动态激活相关“专家”来降低计算成本并保持高性能。引入了多头潜在注意力(MLA)架构、无辅助损失的负载均衡策略以及多 token 预测(MTP)目标,提升了模型的推理效率和训练成本效益。
  • 参数规模 ​:拥有 6710 亿参数,其中激活参数为 370 亿。
  • 应用场景 ​:在聊天和编码场景、多语言自动翻译、图像生成和 AI 绘画等多模态场景中表现出色。尤其在数学、代码和中文任务上,V3 表现尤为突出,成为当前最强的开源模型。
  • 训练成本 ​:整个训练过程仅耗费了 278.8 万 H800 GPU 小时,总成本约为 557.6 万美元,远低于其他前沿大模型。
  • API 服务 ​:调整了 API 服务价格,优惠期内(即日起至 2025 年 2 月 8 日)API 价格为每百万输入 tokens 0.1 元(缓存命中)/ 1 元(缓存未命中),每百万输出 tokens 2 元。优惠期结束后,价格将恢复至每百万输入 tokens 0.5 元(缓存命中)/ 2 元(缓存未命中),每百万输出 tokens 8 元。

DeepSeek-R1 与 DeepSeek-R1-Zero
  • 发布时间 ​:DeepSeek-R1 及 DeepSeek-R1-Zero 均在 2025 年 1 月 20 日左右发布并开源。
  • 核心技术 ​:两者可能都在 Transformer 架构基础上针对推理做了优化,通过强化学习训练实现大量反思和验证。DeepSeek-R1-Zero 几乎不依赖任何人类数据,完全依靠机器生成数据来进行强化学习训练。
  • 参数规模 ​:两者参数均为 660B。
  • 应用场景 ​:在数学、代码以及各种复杂逻辑推理任务上应用出色,主要用于科学研究、复杂问题求解和逻辑分析。DeepSeek-R1-Zero 可能在一些无人工标注数据相关场景更具优势。
DeepSeek-VL
  • 发布时间 ​:DeepSeek-VL2 系列于 2024 年 12 月发布。
  • 核心技术 ​:整体上是 decoder-only 的 LLaVA 风格架构,包括视觉编码器、视觉语言适配器、专家混合语言模型三个核心模块。
  • 参数规模 ​:DeepSeek-VL2 系列有 DeepSeek-VL2-Tiny、DeepSeek-VL2-Small 和 DeepSeek-VL2,分别具有 10 亿、28 亿和 45 亿个激活参数。
  • 应用场景 ​:用于 VQA、OCR、文档 / 表格 / 图表理解和视觉定位等多模态理解任务
阿里的同义千问模型

Qwen2.5​:这是通义千问系列中的一个重要版本。Qwen2.5 全系列总计上架了 100 多个模型,涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型。其中,Qwen2.5-72B 在多个核心任务的测评上,以不到 1 / 5 的参数超越了拥有 4050 亿巨量参数的 Llama3.1-405B,性能强劲。

各模型 API 输入输出与价格比较

Provider Model Max Input (Tokens) Max Output (Tokens) Input Price (per mill tokens) Output Price (per mill tokens)
OpenAI GPT-4 8,192 8,192 \undefined
OpenAI GPT-4 Turbo 128,000 4,096 \undefined
OpenAI GPT-3.5 Turbo 4,096 4,096 \undefined.50
OpenAI GPT-4o 128,000 4,096 \undefined
Anthropic Claude 2 100,000 4,000 \undefined
Anthropic Claude 3 Opus 200,000 4,000 \undefined
Anthropic Claude 3 Sonnet 200,000 4,000 \undefined
Anthropic Claude 3 Haiku 200,000 4,000 \undefined.25
Google Gemini Pro 32,768 2,048 \undefined.50
Google Gemini Ultra 32,768 2,048 \undefined
Meta LLaMA 2 (7B) 4,096 4,096 Open Source Open Source
Meta LLaMA 2 (13B) 4,096 4,096 Open Source Open Source
Meta LLaMA 2 (70B) 4,096 4,096 Open Source Open Source
Mistral Mistral 7B 8,192 8,192 Open Source Open Source
Mistral Mixtral 8x7B 32,000 32,000 Open Source Open Source
深度求索 DeepSeek-V3 128,000 4,096 \undefined.28
阿里 通义千问 – Turbo 1,000,000 0.0003¥ 0.0006¥

说明:
  1. Max Input​:模型支持的最大输入 token 数量。
  2. Max Output​:模型支持的最大输出 token 数量。
  3. Input Price​:每百万输入 token 的价格(单位:美元)。
  4. Output Price​:每百万输出 token 的价格(单位:美元)。
  5. Open Source​:开源模型,无直接定价。

备注:
  • 价格和 token 限制可能因供应商更新而变化,建议参考官方文档获取最新信息。
  • 部分模型(如 LLaMA 2、Mistral)是开源的,价格不适用,但可能需要自行部署和计算资源成本。
性价比分析
  1. DeepSeek-V3​: 无论是输入还是输出价格,DeepSeek-V3 都是最便宜的模型,性价比极高。
  2. Claude 3 Haiku​: 输入和输出价格都非常低,性价比仅次于 DeepSeek-V3。
  3. GPT-3.5 Turbo​: 输入和输出价格较低,适合预算有限的项目。
  4. Gemini Pro​: 价格与 GPT-3.5 Turbo 相当,性价比不错。
  5. Claude 3 Sonnet​: 输入价格较低,但输出价格较高,适合输入密集型任务。
  6. GPT-4o​: 输入价格较低,输出价格中等,适合需要较高性能的任务。
  7. GPT-4 Turbo​: 输入价格中等,输出价格较高,适合需要高性能的任务。
  8. Claude 2​: 输入和输出价格较高,性价比一般。
  9. Claude 3 Opus​: 输入和输出价格最高,适合需要顶级性能的任务。
  10. Gemini Ultra​: 输入和输出价格较高,性价比一般。
  11. GPT-4​: 输入和输出价格最高,适合需要顶级性能的任务。
总结
  • 最佳性价比 ​: DeepSeek-V3
  • 次佳性价比 ​: Claude 3 Haiku
  • 预算有限 ​: GPT-3.5 Turbo 和 Gemini Pro
  • 高性能需求 ​: GPT-4o 和 GPT-4 Turbo
  • 顶级性能 ​: Claude 3 Opus 和 GPT-4

开源模型(如 LLaMA 2 和 Mistral)在价格上具有绝对优势,但需要自行部署和维护,适合有技术能力的团队。

正文完
 0
root
版权声明:本站原创文章,由 root 于2025-02-17发表,共计6882字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
评论(没有评论)
验证码