ai

Daily Productive Sharing 1344 - Agent Skills

One helpful tip per day:) Claude 刚刚发布了 Skills - 一种有组织的指令、脚本和资源集合,代理(agent)可以动态发现并加载这些内容,从而在特定任务上表现得更好: 1. 与其为每个用例单独构建定制的代理,现在任何人都可以通过识别并共享自己的流程化知识,来用**可组合的能力(composable capabilities)为代理赋能。 2. 最简单的情况下,一个 skill 就是一个包含 SKILL.md 文件的目录。该 yaml

Daily Productive Sharing 1340 - Paying AIs to Read

One helpful tip per day:) Kevin Kelly 预测,在不久的将来,作家们将会倒过来付钱给 AI 公司,以确保他们的书籍被纳入 AI 的教育与训练之中。 1. 如果你的作品不被 AI 所认识与欣赏,它就几乎等同于不存在。 2. 每本书的收益中,只有一半实际会流向作者,另 50% 被出版社拿走。 3. 感到很荣幸,能成为那些用于训练我每天使用的 AI 模型的书之一。想到自己的思想可能通他过 LLM

Daily Productive Sharing 1339 - Vibe Engineering

One helpful tip per day:) Simon Willson 认为 vibe engineering 已经日益成为现实,特别随着代码智能体(coding agents) 的兴起——例如 Claude Code(2025年2月发布)、OpenAI 的 Codex CLI(4月)以及 Gemini CLI(6月)。这些工具能够迭代代码,不断测试和修改,直到实现特定目标,大幅提升了 LLM

Daily Productive Sharing 1319 - Why Language Models Hallucinate?

One helpful tip per day:) Adam Tauman Kalai, Ofir Nachum,Santosh S. Vempala 和 Edwin Zhang 解释了为什么 LLM 中的幻觉问题始终难以解决: 1. 大语言模型之所以产生幻觉,是因为标准的训练和评估流程更奖励“猜测”,而非承认不确定性。 2. 幻觉指的是语言模型生成的似乎合理但实际上错误的陈述。 3. 评估本身并不会直接导致幻觉,但大多数评估方式衡量模型表现时,鼓励了猜测而不是对不确定性的诚实。 4. 可以把它想象成一次选择题考试:如果不会但乱猜,

Daily Productive Sharing 1335 - The Bitter Lesson

One helpful tip per day:) 强化学习之父 Rich Sutton 在2019年就揭示了算力即一切的道理: 1. 从 70 年的人工智能研究中得到的最大教训是:利用算力的方法最终是最有效的,而且优势巨大。 2. 为了在短期内看到改进,研究人员往往试图利用自己对领域的人类知识,但从长期来看,唯一重要的是能否利用算力。 3. 基于人类知识的方法往往会让方法复杂化,使其不适合利用那些依赖算力的一般方法。 4. 在人工智能研究中,搜索和学习是两类最重要的技术,用来发挥海量计算的作用。 5. 另一边是更新的统计类方法,它们基于隐马尔可夫模型(HMM),需要更多计算。结果依然是统计方法战胜了基于人类知识的方法。