DPS 周刊 85 - 心中的那团火焰
前阵子,我的 coach 问我,你觉得快乐是什么?
我想了想,觉得快乐就像火焰一样,这是一个绝妙的隐喻:无论何时,快乐都想一团火焰一样。
当我们不怎么注意快乐时,它就像一团蓝色的火焰,温温吞吞地燃烧着;当我们注意到快乐时,它就像一团黄色的火焰,充分燃烧着;
快乐可以不断放大,不断渲染,感染到身边的人。就像火焰一样,越烧越旺,可以温暖到其他人。
快乐也可以被传递,就像火焰一样会蔓延。
你注意到心中的那团火焰了吗?
Recap
我们经常听到选择比努力更重要,Anne-Laure Le Cunff 用数学中的向量来解释这一原理:选择是方向,努力程度是标量,两者结合起来才有可能成功。如果方向选错了,再努力也是白用功。具体而言,她建议:
- 考虑速度而不是仅仅速率。
- 考虑方向感;
- 不断调整你的努力轨迹。
Mark Manson 分享了他对阅读的见解:
- 阅读不必为了记得每本书里讲了具体什么内容,只要记得哪本书讲了什么即可;
- 没有必要读完一本书的每一页,而应该追寻最大化的信息摄入;
- 除非我们讲阅读所获得的知识和我们的生活联系起来,否则我们不太会记住他们;
- Mark 有一条规矩,如果读了一本书的 10% 还没有读到让他感兴趣的内容,他就会放弃这本书;
- Mark 每天会有固定的时间拿来阅读。
Morgan Housel 指出,人的欲望有四种:
- 如果你不想要什么东西,又没有它,你就不会去想它。
- 如果你想要某样东西并拥有它,你可能会感觉很好。
- 如果你想要的东西但还没得到,你可能会感到有动力。
- 如果你想要的东西却得不到,你就会把自己逼疯。
尽管科技公司近来纷纷裁员,Apple 却是一个例外。Gergely Orosz 分析了近20年的数据指出:
- Apple 经历了两轮科技业的低谷,都没有大规模裁员;
- 其他诸多公司的招聘/裁员基本都和他们的盈利能力相关,而 Apple 一直保持缓慢的节奏招聘;
- Apple 内部有诸多部门都缺人。
OpenAI 解释了为什么 ChatGPT 的输出有偏见,以及如何修者这些结果。这是一篇非常棒的公开产品路线图:
- ChatGPT 是基于一个巨大的神经网络构成的,开发/迭代这一产品更像是训练一只刚出生的小狗;
- 因为 ChatGPT 是基于 pre-training dataset 和 fine-funing dataset 两个数据集进行训练,对于后者,他们使用认为干预来保证质量。
- OpenAI 有明确的指导文件,用于规范 fine-funing dataset 的人为干预。未来,他们会不断地细化这些文件,以期让模型的偏见更少;
- 同时他们认为 ChatGPT 只是一个基础模型,而用户可以更具自己需求来定制,所以他们也会在这方面下功夫。
Archive
本周的生产力日报集合就到此为止,如果你有什么建议,也欢迎留言告诉我们。如果想要收到最及时的推荐,不妨订阅我们的频道,或者付费解锁更多增值内容,我们下期见。
Comments ()