Dr Selfie

Dr Selfie

Daily Productive Sharing 1340 - Paying AIs to Read

One helpful tip per day:) Kevin Kelly 预测,在不久的将来,作家们将会倒过来付钱给 AI 公司,以确保他们的书籍被纳入 AI 的教育与训练之中。 1. 如果你的作品不被 AI 所认识与欣赏,它就几乎等同于不存在。 2. 每本书的收益中,只有一半实际会流向作者,另 50% 被出版社拿走。 3. 感到很荣幸,能成为那些用于训练我每天使用的 AI 模型的书之一。想到自己的思想可能通他过 LLM

Daily Productive Sharing 1339 - Vibe Engineering

One helpful tip per day:) Simon Willson 认为 vibe engineering 已经日益成为现实,特别随着代码智能体(coding agents) 的兴起——例如 Claude Code(2025年2月发布)、OpenAI 的 Codex CLI(4月)以及 Gemini CLI(6月)。这些工具能够迭代代码,不断测试和修改,直到实现特定目标,大幅提升了 LLM

Daily Productive Sharing 1338 - The Illusion of Independent Thought

One helpful tip per day:) Joan Westenberg 问人们为什么会相信他们所相信的,他们总能给出一些理由。 1. 观点是先出现的——由大脑通过模式匹配瞬间拼凑而成;而那些理由,是后来才被编造出来,用来合理化他们早已认定的信念。这就是“虚构合理化”(confabulation),它主导了我们大约 80% 的公共讨论。 2. 当你接触到一条新信息时,还没等理性思考介入,你的大脑就会先运行一个快捷算法:我所属群体中那些地位高的人对此怎么看? 3. 心理学家称这种现象为“虚构合理化”,即我们创造出听起来合理的故事,用来解释其实源自潜意识的决策或信念。 4. 这些理由只是对一个早已注定结论的事后辩护。

Daily Productive Sharing 1319 - Why Language Models Hallucinate?

One helpful tip per day:) Adam Tauman Kalai, Ofir Nachum,Santosh S. Vempala 和 Edwin Zhang 解释了为什么 LLM 中的幻觉问题始终难以解决: 1. 大语言模型之所以产生幻觉,是因为标准的训练和评估流程更奖励“猜测”,而非承认不确定性。 2. 幻觉指的是语言模型生成的似乎合理但实际上错误的陈述。 3. 评估本身并不会直接导致幻觉,但大多数评估方式衡量模型表现时,鼓励了猜测而不是对不确定性的诚实。 4. 可以把它想象成一次选择题考试:如果不会但乱猜,

Daily Productive Sharing 1336 - Hype is a Business Tool

One helpful tip per day:) Scorr Jenson 说别再把它叫作“人工智能”了?称为“大语言模型(LLM)”要准确得多,但许多人已经懒得纠正,直接叫“AI”。 1. Cory Doctorow 说得很到位:“我们离 AI 能真正取代你的工作还差得远,但已经到了 AI 销售员能说服你老板它能取代你工作的阶段。” 2. 他知道这话可能让自己听起来像个老人,但要理解当下的 LLM,了解一点历史会很有帮助。 3.