2025-12-06 04:34:00
最近升职了,工作内容一下子不太一样了。不再是把自己的项目做好就行,更多时候要负责沟通、协调,还得主动发起和带项目。这里简单写下这段时间的一些体会,后面如果有新的想法我再来更新。
[Revised by ChatGPT]
现在接到的很多项目,往往只有一个“大方向”或最终目标,但中间要怎么做没人告诉你。通常我拿到的只有一句话:某个时间点之前要把项目做到什么状态。至于怎么把坑填满,只能自己不断找上下游聊,试、问、补,慢慢把路径摸出来。
做项目的时候,不能只盯着眼前这一小步,不然很容易走成局部最优,或者后面发现埋了技术债。随时在脑子里模拟一下“如果我现在这样做,下一步、再下一步会发生什么”。当然不要求每次都完美看清,但多想几步真的能少踩坑。
提前想到后面两三步,很多时候能让你提前准备,也让你的当下决策更稳更安心。
升职之后明显感觉:不能再张口就给答案了。很多时候需要先缓一下,想清楚了再说。
“慢一点”其实不是效率变低,而是把质量放在更前面。你需要靠“把事情做对”来建立信任,而不是靠“做得快”。
要做到“慢下来”,一个很有效的方法就是多跟人聊。
多跟 team 里的同事 sync 一下,尤其是那些更资深的 SDE。聊多了你自然会放慢节奏,很多想法能被快速校正,还能从别人那里听到你没想到的点。
功利一点讲,多跟资深 SDE 合作,也有助于你找到未来升职时能帮你背书的人。
从“把事情做好”到“把项目带好”,是完全不一样的体验。
想清楚 next 3 steps、适当慢下来提高质量、多向厉害的人请教,这三点对我现在挺重要。
后面如果有新的踩坑经历或者更好的办法,再来更新。
2025-09-18 04:54:00
最近读完了 Generative AI with Amazon Bedrock: Build, scale, and secure generative AI applications using Amazon Bedrock。 在豆瓣已要求实名记录阅读的情况下,还是用博客写书评吧。
内容由 ChatGPT 生成,大纲是我提供的。
不必读,这本书内容已经过时。
这本书很好地体现了“时代的眼泪”——AI 领域出版物面临的最大挑战:时效性。 尽管它出版于 2023 年底,但短短几个月内就显得落伍,原因包括:
与其读书,不如:
这不仅是本书的问题,而是整个 AI 技术书籍领域的困境。 在快速演进的技术环境下,传统出版模式可能需要改变,例如:
在 AI 领域,持续学习与实践远比依赖书籍更重要。
2025-08-21 04:54:00
2025.08.08 是个值得纪念的大日子,基于此,这里更新下自己的 2025 计划 2024总结 并 2025规划。
这里重新列举下自己的2024计划。
Major tasks:
Accumulating tasks:
2025-08-16 04:54:00
很简短的一个博客,推荐下这本书《大规模语言模型:从理论到实践》.
最近读完了这本书,在豆瓣已经必须实名才能记录自己阅读的现在,还是用博客写书评吧。
这本书最好的一点就是有网络版,https://intro-llm.github.io/
事实上,我最先看的是去年的第一版,前几天搜了搜发现更新了第二版,而且作者提供了基于 GitHub 的 Issues 提交页面。
在大预言模型日新月异的现在,基本上,你今天掌握的具体的一些知识点过了六个月可能就过期了,这本书不断更新才是正确的方法。
回过头来说这本书,我觉得是中文领域少有的比较正规的大预言模型学习资料。正规的意思是这本书会按照特定的章法循序渐进地全面介绍一个领域,而不是过于看重细节,防止只见树叶不见泰山的问题。
这本书我推荐大家跳着读,读的时候先想一想如果你自己来写,你会介绍什么。对照着阅读就会发现自己没想道的知识点。不过没必要沮丧,这是完全正常的,学些下就行。
2025-01-01 04:54:00
2024 年就这么匆匆的过去,心中感慨万千,这里总结下自己的 2024,规划下 2025 的计划。
这里先写下这个总结,后面我再补充调整。
不停写博客的好处就是,如果你去翻看去年的这个总结,其实开头是一样的,只是改了年份,年年岁岁花相似,岁岁年年人不同。
直接从年初计划 2023总结 并 2024规划 和 2024Q1 总结 那拷贝下任务列表,
这里重新列举下自己的2024计划。
Major tasks:
Accumulating tasks: