Windsurf Cascade 如何为你赋能,满足真实需求?

从今天开始,把 AI 当成你的合作伙伴,一起创造吧!

Windsurf

新工具

Windsurf 发布已经有一段时间了。前几天的黑五优惠让我在知识星球里提到过。

黑五优惠

不过,官方宣布延长试用期至 12 月 11 号,似乎是因为用户反馈太多。

试用期延长

相比原本的两个月,这个免费试用时间其实是大幅缩短的。我们现在还不确定 pro 账号在 11 日之后是否还能继续使用。

许多用户开始尝试 Windsurf,大家都很兴奋。在知识星球上,有朋友用它开发了 Todoist 和 Obsidian 的链接插件。

插件开发

还有的朋友更进一步,开发了一个智能 PDF 翻译应用。

智能 PDF 翻译

看到别人玩得那么开心,估计你也想试试。但是很多人还没能掌握 Windsurf,尤其是它独特的 Windsurf Cascade 的功能。

如果你查看各种介绍,会了解到一些定义。

例如,“Cascade 是一个强大的推理引擎,能够进行深度的多步骤思考,具备编辑和解释代码的能力”,再比如“Cascade 具备实时感知开发者行为的能力,能够基于持续的工作内容执行、调整和继续编辑任务”。

但这究竟是什么意思呢?

今天,我们用一个实际的例子来说明 Windsurf Cascade 的能力,帮助你快速开发原型系统,满足实际需求。

实际例子

这个例子从网上一个现成的 API 开始,根据我们的需求进行调整,生成一个自己的软件包,并让全世界都可以下载安装。同时,我们还要在本地创建一个 Web 界面,方便用户使用。

听起来是不是很难?

其实一点都不难。

首先,我们先来看一下这个 API。

API 示例

这个 API 来自于 Jina AI,作用是帮助你对长文本进行分片。

你可能还记得,我在之前的 Python AI 工作流框架中提到过一个重要功能——长文本分片。因为大语言模型有上下文限制,超出这个窗口就无法处理。在 Openrouter 的模型列表左侧,你可以清楚看到 Context Length 这一项,从 4K 到 1M,跨度很大。

上下文长度

即使你的模型可以支持很长的上下文窗口,如果不限制分片长度,模型输出时可能会自作主张,帮你“精简”输出长度。这对于长文写作和翻译来说是个大问题,因为很多细节会被忽略。

我之前在 Python 框架中使用的是 Langchain 的 RecursiveCharacterTextSplitter 作为基础来操作。

Langchain 示例

当然,你看到的这个解释,也是 Windsurf 分析代码库后自动生成的。

Windsurf 分析

不过,我对 Langchain 的分片方式并不满意。边缘处出现的重叠总会带来意想不到的问题,例如标题或标题后的一句话可能会出现两遍。如果不人工检查,很容易让这些错误出现在最终结果中。

那么,咱们把重叠设置为 0,不就好了?

每当你看到一个问题明晃晃摆在那里,应该多思考一步——这是不是人家的“解决方案”呢?

如果你设置重叠为 0,有时当标点符号缺失时,一句话可能被从中间截断,导致问题更加严重。

既然原先的拆分方式有问题,当我看到 Jina AI 的这个 segmenter API 时,我还是很愿意试试的。

我在官网上试了中英文长文的分片效果,结果都不错。

分片效果

中文用的还是古文。

古文示例

不过,看到这里你应该也能发现——这个工具分段虽然好,但是不是过于稀疏了?

原本,我们希望每一段不超过一定的 token 数量(例如这里设定的是 1000),结果分拆的结果居然是一行一段,一句一段。很多段的字符数是个位数。

这就有点“过犹不及”了——一篇文章拆成 3-4 部分交给工作流,和拆成 30-40 部分,运行效率显然差得多。毕竟每一次调用模型,都会因为提示词和上下文增加额外开销。这不仅处理速度变慢,也会造成更长的账单。我受得了,我的钱包受不了啊。

怎么办呢?我于是决定,Windsurf Cascade,你上吧。

👉 野卡 | 一分钟注册,轻松订阅海外线上服务

(0)
上一篇 2025年5月24日
下一篇 2025年5月24日

相关推荐