Claude AI 概述
Claude AI(Claude)是由研究公司 Anthropic 开发的一款生成式人工智能(AI)聊天机器人及其大型语言模型(LLMs)系列。Claude 在自然语言处理(NLP)方面表现出色,具备多模态能力:它可以接受文本、音频和视觉输入,能够回答问题、总结文档、生成长文本、图表、动画、程序代码等。
Claude 遵循 Anthropic 的 宪法 AI 理念:这是一套伦理规范,旨在使 Claude 在提供更有帮助的响应的同时,避免有害行为,如 AI 偏见。
Claude 3 于 2024 年 5 月发布,包含一个免费版本和两个高级 AI 聊天机器人。
-
Claude 3.5 Sonnet:支持 Claude AI 的免费版本,强调速度,能够快速处理用户查询和其他需要紧急数据检索的任务。根据 Anthropic 的说法,Claude 3.5 Sonnet 的速度是 Claude 3 Opus 的两倍。
-
Claude 3 Opus:是目前可供 Claude Pro 用户使用的两个 Claude 模型之一,提供深入的文档处理和内容生成服务,专注于复杂任务。虽然速度较慢,但 Opus 的幻觉风险较低,即 AI 模型提供错误信息却表现得像是事实正确。
-
Claude 3 Haiku:是第二个高级 Claude 产品,体积最小、速度最快,适合用于总结长文档、实时客户服务和简单文本生成。
Claude 的应用场景
Claude 3 的三个模型各自有其专门的应用场景。一般来说,用户可以利用 Claude AI 完成多种任务,包括:
- 问答和研究
- 校对和编辑
- 文档摘要,包括 PDF 和 Word 文档
- 文本和内容生成
- 语言翻译
- 商业计划创建
- 图像和音频处理
- 代码片段生成和审查
与 Claude 1 和 2 不同,Claude 3 具备多模态能力:它可以处理图像和音频内容,结合文本提示。例如,Claude 3 可以根据图像生成电子商务产品描述。虽然 Claude 3 无法独立生成非文本内容,但其多模态集成是其与 GPT-4 竞争的多个新特性之一。
Claude AI 的工作原理
与 Gemini 和 OpenAI 的 ChatGPT 一样,Anthropic 的 Claude AI 系列基于神经网络的变换器架构。但与竞争对手不同,Claude 应用宪法 AI 原则来指导其行为。
-
变换器模型:擅长在用户输入序列中绘制远距离单词之间的联系,从而更好地理解上下文并生成长篇回复。
-
宪法 AI:是一套旨在减少危害的指导原则,旨在使 Claude 更具益处,降低风险。
变换器模型是什么?
变换器是一种为高性能自然语言处理而构建的 AI 模型。它们通过应用复杂的数学算法来统计预测用户查询的最可能响应。工作流程可以分为四个基本步骤。
-
将用户查询分解为 tokens。每个 token 代表一个完整的单词或单词的一部分。AI 模型的定价通常以每个 token 的成本表示。Claude Pro 的上下文窗口为 200,000 tokens,意味着它可以处理长度达到 200,000 tokens 的用户查询。
-
每个 token 通过数学过程绘制到三维向量空间中。被评估为意义更相似的 tokens 在空间中更靠近,从而帮助 LLM 更好地理解用户输入。这个过程的结果称为 向量嵌入。
-
像 Claude 和 GPT-4 这样的变换器应用 自注意力机制,自我引导资源关注用户查询中最相关的部分并处理上下文。
-
模型应用概率算法生成对输入的 最可能响应。像 Claude 这样的 AI 模型并不“知道”任何事情,而是将其训练数据与高级统计结合,以产生对提示的最可能结果。
宪法 AI 是什么?
宪法 AI 是由 AI 初创公司 Anthropic 创建的一套 AI 伦理和安全原则。在设计 Claude 时,Anthropic 征求了大约 1,000 人的意见,询问他们对伦理生成 AI 操作和负责任 AI 使用的规则进行投票和建议。最终形成的规则构成了 Claude 的训练过程基础。
宪法 AI 的前三条规则是:
- 选择最不危险或仇恨的响应。
- 选择尽可能可靠、诚实和接近真相的响应。
- 选择最能清晰表达意图的响应。
与其他模型通过人类训练师进行内容审查的过程不同,Claude 的训练采用了 RLHF(人类反馈强化学习)以及第二个 AI 模型。AI 反馈强化学习(RLAIF)任务“训练者”模型将 Claude 的行为与宪法 AI 进行比较并进行相应的纠正。
RLAIF 自动化了训练过程中的行为调整部分,使鼓励伦理行为的成本更低、效率更高。预期结果是 Claude 能够自我微调,学习避免有害提示,同时生成对可回答提示的有帮助的回复。
Anthropic AI 介绍
Anthropic 是一家于 2021 年成立的 AI 初创公司,由几位前 OpenAI 研究人员和高管创立,包括 Daniela 和 Dario Amodei 兄妹。亚马逊和谷歌分别向该公司投资了数十亿美元,而 OpenAI 继续获得微软的支持。
Amodei 兄妹于 2021 年与 OpenAI 分道扬镳,正是在这一年,OpenAI 发布了 GPT-3.5。这个 AI 模型至今仍在支持免费的 ChatGPT AI 工具。与其他前 OpenAI 研究人员一起,Amodei 兄妹创立了 Anthropic AI,并开始开发 Claude AI。
Anthropic 的定义特征是其对伦理 AI 的明确态度,体现在宪法 AI 的训练过程中。
Claude 与 ChatGPT 和 Gemini 的优势
在发布 Claude 3 时,Anthropic AI 进行了一系列 LLM 基准测试,以评估其模型与 OpenAI 和谷歌的主要竞争对手的表现。在这些测试中,Claude 展示了几个关键优势:
- 更大的上下文窗口
- 在许多测试中的强劲表现
- 无输入或输出数据保留
更大的上下文窗口
Claude 能够处理长达 200,000 tokens 的提示——大约 350 页文本——可以在创建相关答案时记住和使用更多信息。相比之下,GPT-4 Turbo 和 GPT-4o 限制用户为 128,000 tokens。
Claude 能够保留更多信息,使用户能够创建详细、数据丰富的提示。输入序列中包含的数据越多,AI 模型的回答就越相关。
在许多测试中的强劲表现
当 Anthropic 将 Claude 3 与 GPT-4 和 Gemini 1.0 进行测试时,Claude 3 Opus 在所有选定的评估基准中表现最佳。尽管 Gemini 1.0 Ultra 在六项视觉测试中表现最佳,但 Claude 系列模型的表现相当。
然而,GPT-4o 和 Gemini 1.5 并未包含在测试池中。在 2024 年 5 月发布 GPT-4o 时,OpenAI 进行的基准测试显示其新旗舰模型在六项测试中击败了 Claude 3 Opus。
无输入或输出数据保留
关注数据隐私的用户可能会欣赏 Anthropic 的数据保留政策:他们声明所有用户输入和输出将在 30 天后删除。谷歌的 Gemini 对于 Google Cloud 的数据政策表示,该公司不会使用用户提示来训练其模型。
相比之下,OpenAI 可以保留并使用用户数据来进一步训练其模型。谷歌的 Gemini 应用政策允许公司保留用户数据,除非用户手动停用此选项。
Claude 的劣势
尽管 Claude 的整体表现强劲,但与竞争对手相比,它也存在一些弱点,这可能会延缓其被更广泛人群接受的速度。
- 有限的图像生成能力
- 无法进行互联网浏览
有限的图像生成能力
与 GPT-4o 相比,Claude 在创建图像方面的能力较弱。虽然 Claude 可以生成交互式流程图、实体关系图和图表,但无法进行完整的图像生成。
无法进行互联网浏览
由于微软与 Bing 的集成,GPT-4 能够在回答用户查询时搜索互联网。虽然 Claude 定期更新新的训练数据,但其知识库总是滞后几个月,直到 Anthropic 决定以相同方式开放 Claude 的互联网访问。