MoreRSS

site iconDaily Productivity Sharing修改

每日生产力分享,及 DPS 周刊(无专用 RSS 故不添加周刊标签)。
请复制 RSS 到你的阅读器,或快速订阅到 :

Inoreader Feedly Follow Feedbin Local Reader

Daily Productivity Sharing的 RSS 预览

Daily Productive Sharing 1341 - The First Ten Years

2025-10-20 10:28:41

Daily Productive Sharing 1341 - The First Ten Years

One helpful tip per day:)

Gregory Gundersen 花了十年时间学习编程,他又不少感悟:

  1. 放慢脚步让他能够专注于真正的精通。放慢速度能让你有机会诚实地问自己:我真的理解了吗?
  2. 精通式学习的核心,是忽略学习所需的时间,而专注于完全理解所学内容。
  3. 他的建议是,不要担心自己是否“有天赋”能成为好程序员。不要被“程序员”或其他标签困住。
  4. 初学者的心态对成年人尤其难得,但至关重要,因为评判会让你看不清事物本身。
  5. 直觉并非天生的理解,而是经过长时间努力后“消化吸收”的经验。
  6. 但如果一直沉溺于外部环境或过去的境遇,那只会成为逃避个人能动性的借口。
  7. 他的建议是:**为自己的教育承担全部责任。没人会替你做到这一点。
  8. 如果你相信自己足够聪明,并通过努力能搞懂一切,那么面对困难时,你会感到沮丧,但仍会坚持。
  9. 很多我们称作“天生聪明”的表现,其实是家庭教育、心态、努力、学习与运气的积累。
  10. 你的“天赋极限”是无法知晓的干扰项。专注于具体技能,而不是标签。

如果你喜欢的话,不妨直接订阅这份电子报 ⬇️

Daily Productive Sharing 1340 - Paying AIs to Read

2025-10-17 08:00:45

Daily Productive Sharing 1340 - Paying AIs to Read

One helpful tip per day:)

Kevin Kelly 预测,在不久的将来,作家们将会倒过来付钱给 AI 公司,以确保他们的书籍被纳入 AI 的教育与训练之中。

  1. 如果你的作品不被 AI 所认识与欣赏,它就几乎等同于不存在。
  2. 每本书的收益中,只有一半实际会流向作者,另 50% 被出版社拿走。
  3. 感到很荣幸,能成为那些用于训练我每天使用的 AI 模型的书之一。想到自己的思想可能通他过 LLM 的思维链条传递给数百万人,我甚至有点受宠若惊。
  4. 在 Bartz 诉 Anthropic 案中,判决结果认为:如果一本书的副本是以合法方式获得的,那么用于 AI 训练属于合理使用(fair use)。
  5. 用于教育 AI 的资料筛选,将成为决定我们是否信任并依赖这些 AI 的关键因素。
  6. 不过,大多数人不会在意这些;他们只关心谁能给出“最好的”答案或最可靠的服务。
  7. 年轻人和早期 AI 使用者几乎都已把 AI 设为“常开模式”;他们越来越多的精神生活只在 AI 里展开,不再越界。
  8. 他早已不再质疑计算器,也不再质疑谷歌,如今也发现 AI 的大多数答案都相当可靠。AI 正逐渐成为“真理的仲裁者”。
  9. AI 代理不仅被用来回答问题,还被用来搜索、理解与提出建议。
  10. 正如 Tim O’Reilly 所说,如今创作者面临的最大挑战不是盗版,而是被淹没在无名之中。
  11. 他要补充的是,未来创作者面对的最大挑战,也不是被 AI 模仿,而仍是被淹没。
  12. 如果 AI 成为真理的裁定者,而它所接受的训练内容至关重要,那么我希望自己的思想与创作能成为它们训练语料中的重要组成部分。
  13. 如果你今天正在写书,请记住,你主要是在为 AI 写作。
  14. 几乎没有任何人类读者会像 AI 那样彻底阅读你的作品。
  15. 在吸收之后,AI 会做出奇妙的整合:把你的文字纳入它所读过的所有文本中,将它定位在世界知识的版图里——这是任何人类读者都无法做到的。
  16. 作者未来甚至可能主动优化自己的作品,让其更适合被 AI 吸收,甚至与 AI 公司合作,确保自己的内容被正确理解与整合。
  17. “AI 友好型写作”的概念——拥有清晰的结构、明确的论点与定义清楚的概念——将变得越来越重要,而这本身也会得到 AI 的协助。
  18. AI 很可能会像外向生长的系统一样,无休止地积累与扩展。
  19. 与 AI 合作、为 AI 创作,是当今人类最具杠杆效应的活动之一——越早开始,力量越大。

如果你喜欢的话,不妨直接订阅这份电子报 ⬇️

Daily Productive Sharing 1339 - Vibe Engineering

2025-10-16 08:00:28

Daily Productive Sharing 1339 - Vibe Engineering

One helpful tip per day:)

Simon Willson 认为 vibe engineering 已经日益成为现实,特别随着代码智能体(coding agents) 的兴起——例如 Claude Code(2025年2月发布)、OpenAI 的 Codex CLI(4月)以及 Gemini CLI(6月)。这些工具能够迭代代码,不断测试和修改,直到实现特定目标,大幅提升了 LLM 在真实开发问题中的实用价值:

  1. 在实际软件工程中高效地与大语言模型(LLM)协作,有一个不太被提及的真相:这其实是很难的
  2. 越来越多经验丰富、口碑可靠的软件工程师开始同时运行多个智能体,并行解决多个问题,从而拓宽他们的工作边界。
  3. 自动化测试:如果你的项目拥有健全、全面且稳定的测试套件,这类智能体工具的效率会像“起飞”一样迅猛。
  4. 对于能循环迭代的智能体而言,测试优先开发(test-first development) 尤其有效。
  5. 提前规划:临时上手写点代码的过程,如果从高层计划开始,往往会更顺畅。
  6. 完善的文档:就像人类程序员一样,LLM 也只能在上下文中保留代码库的一部分内容。
  7. 良好的版本控制习惯:在智能体可能修改代码的情况下,能追溯每次变更的时间、原因与内容,比以往更加重要。
  8. 高效的自动化体系:持续集成(CI)、自动格式化与代码检查(linting)、自动部署预览环境——这些都是代码智能体可以受益的关键基础设施。
  9. 如果你在 代码审查(code review) 上反应快、效率高,你与 LLM 协作的体验会远好于那些宁愿亲手写代码、不愿审查他人或 AI 代码的人。
  10. 从智能体那里获得良好结果的感觉,与从一位人类合作者那里获得成果的感觉惊人地相似。
  11. 确定最佳方案、验证可行路径,始终是放手让智能体编写代码前的必要步骤。
  12. 如果智能体构建了一个新功能,那么拥有一个安全的预览环境(而不是直接部署到生产环境)能让审查更高效,同时极大降低上线风险。
  13. 你需要培养一种直觉:哪些工作可以外包给 AI,哪些必须自己亲手处理。
  14. 项目周期估算 一直是资深工程师最难、但又最重要的技能之一——尤其是在预算与战略决策依赖这些估算的组织中。
  15. AI 工具会放大既有的专业能力:你作为软件工程师的技能与经验越丰富,与 LLM 或代码智能体协作的效果就越出色、效率也越高。

如果你喜欢的话,不妨直接订阅这份电子报 ⬇️

Daily Productive Sharing 1338 - The Illusion of Independent Thought

2025-10-15 08:00:58

Daily Productive Sharing 1338 - The Illusion of Independent Thought

One helpful tip per day:)

Joan Westenberg 问人们为什么会相信他们所相信的,他们总能给出一些理由。

  1. 观点是先出现的——由大脑通过模式匹配瞬间拼凑而成;而那些理由,是后来才被编造出来,用来合理化他们早已认定的信念。这就是“虚构合理化”(confabulation),它主导了我们大约 80% 的公共讨论。
  2. 当你接触到一条新信息时,还没等理性思考介入,你的大脑就会先运行一个快捷算法:我所属群体中那些地位高的人对此怎么看?
  3. 心理学家称这种现象为“虚构合理化”,即我们创造出听起来合理的故事,用来解释其实源自潜意识的决策或信念。
  4. 这些理由只是对一个早已注定结论的事后辩护。
  5. 我们所看到的绝大多数“观点表达”,其实都是部落式信号伪装成个人思考。
  6. 更难摆脱的是,没有人愿意承认自己只是重复部落的口号。
  7. 你可以学着让自己的观点更松动一些,对自己的信念保持好奇,偶尔也承认:自己其实并不了解到足以形成一个有根据的看法。

如果你喜欢的话,不妨直接订阅这份电子报 ⬇️

Daily Productive Sharing 1319 - Why Language Models Hallucinate?

2025-10-14 08:00:57

Daily Productive Sharing 1319 - Why Language Models Hallucinate?

One helpful tip per day:)

Adam Tauman Kalai, Ofir Nachum,Santosh S. Vempala 和 Edwin Zhang 解释了为什么 LLM 中的幻觉问题始终难以解决:

  1. 大语言模型之所以产生幻觉,是因为标准的训练和评估流程更奖励“猜测”,而非承认不确定性。
  2. 幻觉指的是语言模型生成的似乎合理但实际上错误的陈述。
  3. 评估本身并不会直接导致幻觉,但大多数评估方式衡量模型表现时,鼓励了猜测而不是对不确定性的诚实。
  4. 可以把它想象成一次选择题考试:如果不会但乱猜,有时也能蒙对。
  5. 当模型的评估仅基于准确率时,它们更倾向于猜答案,而不是回答“我不知道”。
  6. 对于只有一个“正确答案”的问题,回答可分为三类:准确回答、错误回答,以及选择不作答(即不贸然猜测)。
  7. 大多数排行榜根据准确率来排名,但实际上错误回答比不作答更糟糕。
  8. 评估体系应当对自信的错误惩罚更重,对合理表达不确定性给予部分奖励。
  9. 改进排行榜能推动减少幻觉的技术被更广泛采用,包括新方法和已有研究成果。
  10. 模型只在训练中接触到流畅语言的正例,因此只能近似整体分布。
  11. 准确率永远不可能达到 100%,因为无论模型规模、搜索或推理能力多强,一些现实问题本身就是不可解答的。
  12. 小模型有时更容易意识到自己的局限。
  13. 例如,当被问到毛利语问题时,一个完全不懂毛利语的小模型会直接回答“我不知道”;而一个懂一点毛利语的模型则需要判断自己的信心程度。

如果你喜欢的话,不妨直接订阅这份电子报 ⬇️

Daily Productive Sharing 1336 - Hype is a Business Tool

2025-10-13 08:00:08

Daily Productive Sharing 1336 - Hype is a Business Tool

One helpful tip per day:)

Scorr Jenson 说别再把它叫作“人工智能”了?称为“大语言模型(LLM)”要准确得多,但许多人已经懒得纠正,直接叫“AI”。

  1. Cory Doctorow 说得很到位:“我们离 AI 能真正取代你的工作还差得远,但已经到了 AI 销售员能说服你老板它能取代你工作的阶段。”
  2. 他知道这话可能让自己听起来像个老人,但要理解当下的 LLM,了解一点历史会很有帮助。
  3. 炒作周期的早期阶段,往往是由风险资本推动的。他们害怕错过任何一个爆发式增长的新技术,因此资金会迅速涌入。
  4. 移动技术经历了完整的炒作周期:在 2000 年代初达到顶峰,随后经历低谷,在几年的幻灭期后才于 2009 年左右重新起飞。
  5. 人们记住的是它最终超越了最初的“过度期望峰值”,却忘了它也经历过一次坠落。
  6. 关键在于:几乎每一项科技创新都经历过这样的周期。这并不意味着一切都会失败,而是每一次都会在最初的天真高峰后迎来一个下跌。
  7. 偶尔,像移动互联网这样的技术会远远超越最初的高点,但那是例外,不是常态。
  8. 之所以这种高峰总会出现,其实原因很简单:炒作本身就是一种商业工具。像 Theranos、Udacity、Tesla,如今的 OpenAI 都明白资金终会耗尽,他们都在与时间赛跑。
  9. 并不是 LLM 注定失败,而是别慌。LLM 很可能会经历一个“幻灭低谷”阶段。
  10. 要弄清楚什么真正有效,必须经历无数错误。
  11. 通往真正进步的道路,始终是从底层向上构建,而不是从炒作往下砸。

如果你喜欢的话,不妨直接订阅这份电子报 ⬇️