DPS 周刊 204 - Deep Search & Agent Mode
最近用过的工具中最令我感到惊艳的是 chatGPT 里的 deep research。其他几家也推出了类似的功能,但是都不如 ChatGPT 中 GPT5 thinking 下的 deep research。
- Gemini 2.5 的 deep research 尽管可以洋洋洒洒写很详尽的报告,但是感觉信息密度不够高,有不少废话;
- Claude Sonnet 4 的 deep research 感觉差点意思,不如 ChatGPT 和 Gemini 那么详尽;
- Perplexity 是最简略的,即使切换到上面几家的模型,出来的效果也不行,不知道是出去成本考虑,还是请求的模型效果不如自家的模型。
- GPT5 thinking 刚好取得了平衡,足够详尽,又没什么废话,信息密度刚刚好。
当然 deep research 生成的报告还需要仔细阅读,找出真正有效的信息。有时候我会把找出来的信息点再丢回给 chatGPT 的 agent mode,让它用最新的信息来验证。
所以 chatGPT 的 agent mode 和 Perplexity 的 Comet 浏览器也让我眼前一亮,两者非常相似:给定指令之后,他们能够模拟人来操作浏览器找寻资料,然后再把整理好的数据呈现出来。
举个例子,我们要去一家银行搜索信用卡资料的时候,本来需要一页页地找,甚至还要打开各种写在 PDF 里的条款来仔细研究。现在只要把这家银行的网站丢给这些 agent,然后让他们梳理,他们就会模拟人的检索,仔细查找这家银行所有的信用卡资料,几分钟之后就把对比提供给我。
当然还有更加有意思的用法,比如我在查询某一个 API,就问 agent 有没有对应的 SDK(开发包)。它自己跑去 github 上检索了一遍,然后告诉我有一个基于 Typescript 的 SDK。但我对 Typescript 一无所知,就问 agent 有没有可能参照这个 SDK 改写一个 Python 的 SDK。它又跑去阅读了代码和文档,然后告诉我当然可以。前后不过几分钟时间,要是换我自己研究的话,没半天都搞不定。
这就让我想起了一句话,我们现在用的模型一定是未来最差的模型。想必这句话套用在工具上也适用。
我们已经开通了微信支付和支付宝支付,如果你想及时读到 DPS 的全文,不妨直接付费订阅:
关于支付的详情介绍,可以访问这一页面。
Recap
Andrew Qu 说 MCP 协议和 AI 模型的关系就像厨师和厨房:
- 厨师决定要做什么(AI 代理)
- 厨房决定有哪些工具和食材(MCP 服务器)
- 厨师只能使用厨房公开提供的内容
- MCP 不是一个库或 SDK,而是一个规范,就像 REST 或 GraphQL,但它是为 AI 代理设计的。
- 模型仍然依赖其训练所得的知识和推理能力,但现在可以通过 MCP 服务器访问专用工具来填补知识空白。
- 当模型需要引用库存时,不是凭空猜测,而是直接查询真实的库存系统。
- 核心在于:通过安全的方式,让 AI 有效访问你的系统,从而扩展其能力。
- MCP 增加了一层:你的工具托管在应用之外的独立服务器上。
Lelauch 突然发现自己失去了好几个月的前进动力。这到底是怎么回事?
- 没有什么比离开熟悉的环境更能打断你的节奏。
- 如果睡眠出了问题,其他一切都会崩溃。缺乏睡眠不仅摧毁精力,还会彻底瓦解动力。
- 你的物理环境会反映你的心理状态,而你现在需要的是清晰,而不是混乱。
- 去健身房,或者进行任何足够艰难的体能训练,就像把自己插上电源一样。
- 大多数人失败的原因是缺乏清晰。他们的目标模糊、软弱,所以既达不到,也永远得不到满足。
Scott Young 认为动机可以用一个公式来解释:
动机 = 价值 × 概率 × 努力回报 / 距离
- 如果我们更看重某件事,在其他条件相同的情况下,我们就会更有动力去追求它。
- 努力回报:影响我们动机的不仅仅是目标本身的价值,还包括我们的努力能在多大程度上提升最终获得的价值。
- 提高感知价值:一件事越有价值,你就越有动力去实现它。
- 目标越是迫近当下,就越能激发动力。
- 激励自己的关键在于诊断公式中哪个环节出了问题,然后采取措施去改善它。
Kieran Klaassen 介绍了什么是复利式工程(compounding engineering):构建自我改进的开发系统,让每一次迭代都比前一次更快、更安全、更好。
- 每一次修复,系统都会学习。每一次审查,系统都会学习。每一次本可避免的失败,系统都会学习。
- 复利式工程强调要建立有记忆的系统:每一次 PR 都能教会系统新东西,每一个 bug 都成为永久的教训,每一次代码审查都会更新默认做法。
- 复利式工程需要前期投入:你必须先教会工具,它们才能自我学习。
- 但 AI 输出并非确定性的——一次有效的 prompt,下次可能就失败了。
- 下次我们需要检测用户情绪或行为时,不必从零开始,而是可以说:“使用挫败感检测器的工作流。” 系统已经知道该怎么做。
Joan Westenberg 认为我们是被惯性支配的:
- 但在生活中,我们常常忘记,复利不仅存在于银行账户里。它体现在我们建立的习惯、积累的知识、深化的关系中。
- 第一次举起杠铃总是最重的,第一页写得最慢,第一次拍的视频最别扭。但每一次努力都为下一次打下基础,结果是乘法而不是加法。
- 重新开始的代价比维持更高——熵也会复利。
- 你真正的复利资产不是计费的工时,而是你的案例、你的人际关系、你的流程、你的作品。
- 美妙的是,惯性可以叠加。成功养成一个习惯后,你就会学会如何建立下一个。
lelouch 从头开始学习数学,但进展缓慢。直到有一天,ta 才明白:挣扎的原因不是因为 ta 不够能力,而是因为 ta 缺失了大量的前置知识。
- 理解上的差距并不是能力不足,而是缺乏必要的知识基础。
- ta 回过头去翻看更早的学习材料,选择更好的学习方法,并拼命练习。
- 这个过程缓慢且常常令人谦卑,但却必不可少。每一个被掌握的基础概念,都为更复杂的理论和问题奠定了基础。
- 实际上,ta 依然觉得自己很笨,但正在一步步慢慢靠近目标。
Preston Thorpe 分享了他在狱中重生的经历:
- 他发现自己对各种环境都能很好地适应,监狱也不例外。
- 监狱有自己的亚文化、行话和一套道德体系,这一切都由一种极端负面的群体思维和“我们就是罪犯”的严格心态所维持。
- 这种心态会强加在所有囚犯身上,而长年累月浸泡在这种消极氛围中,会改变任何人。
- 他曾选择了错误的方向,结果在经历短短 14 个月的成瘾与痛苦后,又回到了监狱。
- 他在单独监禁 13 个月后(并非因纪律处分),被列入了跨州转移名单。官方文件上写的原因是“设施的安全与稳定”。然而他没想到,这竟会成为他人生中最好的转折点。
Arun Venatesan 自 2020 年夏天以来,已经发布了 79 期内容,平均每 24 天一期:
- newsletter 订阅人数的一个优点是,它通常不像社交媒体那样单调地持续增长。
- 他稍微改动了封面印章,结果无意间创造出“邮票图案”这种现在对他来说已成为每期必不可少的美学元素。
- 一开始他尝试了不同方式,但很快就定型为三部分结构——博客更新、一则小故事或近期的思考话题、以及推荐内容。
- 这些想法在产生时,看起来彼此毫无联系。它们常常自发地出现在跑步时、工作时或洗澡时。只有把它们写下来再读一遍,他才发现其中的内在联系。
- 平均每一期都会收到三到四个回复,几乎全部写得很用心。其中不少互动进一步发展为视频通话,甚至现实中的见面。
Andrej Karpathy 介绍了他使用 vibe coding (这个词就是他最先提出的)的体验:
- 他个人在使用大语言模型时,75% 通过 Cursor 的自动补全功能。
- 他觉得用文字去精确表达需求需要太多信息量和带来过多延迟,还不如直接在代码里、在正确的位置演示给模型看,效率更高。
- 他还没有学会同时高效地使用多个实例——单个实例已经让他觉得够难应付了。
- 这些模型基本上没有品味。
- 在他进入更偏 vibe-coding 的领域、即自己不太熟悉的部分时,它们却不可或缺。
Ryan McEntush 认为在实体经济中,软件已经数字化了规划与设计,但“最后一公里”依旧受限于现实世界的复杂性与需要人参与的操作。
- 要让实体行业也能走上同样的轨迹,首先需要一座真正连接比特与原子的桥梁。这座桥梁就是“电气工业栈”——让机器能够像软件一样运作的技术集合。
- 软件曾经“吞噬世界”,而现在它将“推动世界”。
- 简而言之,2010 年代把物理工作流接入了 API,而 2020 年代将由自主系统与智能体来控制这些工作流。
- 我们正走向一个世界:曾经需要多年经验与专业技师才能完成的任务,如今只需像对话一样自然的界面来调度。
本周的生产力日报集合就到此为止,如果你有什么建议,也欢迎留言告诉我们。如果想要收到最及时的推荐,不妨订阅我们的频道,或者付费解锁更多增值内容,我们下期见。
如果你喜欢的话,不妨直接订阅这份电子报 ⬇️
Comments ()