vDaily - V2EX 周报

✨ V2EX 周报 本周热门主题及高赞回复 02.14-02.20

🙋‍♂️ vDaily 每周日为您统计本周内的热门主题和高赞回复

🛠️ 推荐使用站内流行的浏览器扩展: V2EX Plus


🎉 热门主题

  9855 ➰ [新年送码] 功能十分齐全完善的多平台 RSS 阅读器(RSS Reader),支持沉浸式双语对照翻译、 AI 摘要、集成多 RSS 服务账户等特性,已上架 Google Play,微软商店
      Lowae · 分享创造 · 2026-02-18

  6655 ➰ Mac 上 有 Navicat 的替代品吗?
      ggp1ot2 · 程序员 · 2026-02-15

  6300 ➰ UU 远程真乃 Vibe Coding 神器
      robinc · 程序员 · 2026-02-14

  6147 ➰ 为什么端到端加密的 PGP 邮件没有被广泛使用?
      jianglibo · 程序员 · 2026-02-15

  5957 ➰ 过年饭桌上,全是幸存者偏差话题,怎么溜??
      Stupid22 · 生活 · 2026-02-15

  5762 ➰ Gemini 突然删除了我所有的 conversation history
      noinil · Google · 2026-02-19

  5391 ➰ 过年回家相亲记录
      AFOX · 生活 · 2026-02-20

  5273 ➰ 年前这段时间上班是真的爽
      abcfreedom · 职场话题 · 2026-02-14

  5174 ➰ 4 年后再问, 2026 适合在深圳买房吗?
      Awes0me · 深圳 · 2026-02-20

  4780 ➰ 看春晚有感
      ujshenry · 分享发现 · 2026-02-16

  4620 ➰ 春晚武 Bot 机器人进步太大,明年不知道能干啥了
      jacketma · 水深火热 · 2026-02-17

  4618 ➰ 正月初二刚点完香就因为迷信跟亲姐大吵一架
      DandelionFlowers · 生活 · 2026-02-18

  4546 ➰ 听自媒体说, Apple 3 月 4 日会发布超低价 Macbook, 搭载 iPhone 的 A 系列芯片
      kamikaze472 · Apple · 2026-02-17

  4521 ➰ 兄弟们,那个女人说明天有约,作为一个 ATM,该不该拉黑她
      Lowlife · 信息处理中心 · 2026-02-14

  4519 ➰ glm 5 和 minimax m2.5 都挺菜的
      qdwang · 分享发现 · 2026-02-14

  4510 ➰ 性价比机场选购指南
      ZeawinL · 宽带症候群 · 2026-02-16

  4480 ➰ 被裁员玩了快一年了
      Cyc1ing1313 · 职场话题 · 2026-02-19

  4381 ➰ 问问各位过来人,想问下是否要继续?
      r199703111111111 · 问与答 · 2026-02-15

  4381 ➰ 家里最近装了太阳能 50 度电池,有什么好的办法把电都用掉?
      FourAndHalf · 分享发现 · 2026-02-18

  4351 ➰ 顺风车从开始到放弃
      aincvy · 生活 · 2026-02-20

  4335 ➰ 大家怎么解决 claude 封号的问题的啊
      Mark12324 · Claude Code · 2026-02-19

  4190 ➰ 那些工作中浏览器要打开 50+标签的人都是啥想法
      bugmakerxs · 职场话题 · 2026-02-18

  4173 ➰ 26 年研发环境预测,更累?
      YanSeven · 程序员 · 2026-02-18

  3914 ➰ 回到老家,发现我爸刷的视频百分之 80 都是户晨风的直播切片
      LittleYe233 · 水深火热 · 2026-02-17

  3887 ➰ 使用公司提供的 AI 套餐来做个人项目,会有所有权的纠纷么?
      x97bgt · 程序员 · 2026-02-15

  3694 ➰ APPLE 充值加赠 10%的活动又有了
      YoungKing6 · Apple · 2026-02-14

  3653 ➰ 飞牛这组织能力,真的就不像是做商业产品的配置
      xiaoker · NAS · 2026-02-14

  3602 ➰ AI 能力大幅提升后,我们大部分人是不是躺平就可以了?
      xiyy02 · 随想 · 2026-02-20

  3395 ➰ 买了 Qoder ,此前公司有提供来着
      rmrf · 程序员 · 2026-02-14

  3371 ➰ 新年第一问: 2026 年了, v 站有官方的 app 吗
      wzwsafe · 程序员 · 2026-02-17


💕 高赞回复

       25 ➰ 我是瞧不上这群废物公务员 啥都不是废物一个
      shuiduoduo · 2026-02-15

       22 ➰ 祝他新年用苹果手机,开特斯拉汽车,做苹果人
      dajj · 2026-02-17

       21 ➰ 吴京:“贱不贱呐,真的太贱了这个”
      gumayusi · 2026-02-14

       14 ➰ 说点大家不知道的,想引流小白去 star ,然后挂推广?比如 github 上常见的垃圾机场狗狗加速?
      MYDB · 2026-02-16

       14 ➰ 亲日与仇日是立场问题,双方各有各的说法,但问题是,为什么一个不经世事的孩子可以轻描淡写地说出「手搓个核弹送给 XX 国」这种极端反人类的言论?这恐怕才是如今内宣的无底线所在
      zackwu · 2026-02-20

       13 ➰ 咱也不知道楼上那些人是什么基础,什么文化水平,上来就说“《机械公敌》真的被我们做出来了”。 除了自嗨,还剩下什么? 人形机器人是最差,最烂,最不合理的机器人形态,因为需要消耗额外的算力、能量、算法去保持毫无意义的平衡,动作。 真正的机器人,是根据实际应用场景进行调整,放弃人形机器人。比如餐馆的送餐机器人,轮子+托盘就够了。这个形态推广一下,送快递,自动驾驶也可以用; 再比如“扫地机器人”,哪里有“人”? 以目前的纯机械方式来看,未来可见的未来,很难实现长续航(能量密度)、安全(储能安全,动作安全)、智能和能力并行。何况现在的训练,其实很工业的“烧开水”区别不大。没有自我意识,非强 AI ,有锤子用? 有的人以为可以代替人力,但是真的做不到啊。除非是极度危险,或者人力不可谓的地方——那种地方,机械臂不就可以了吗……
      Dispatcher · 2026-02-17

       12 ➰ 拿一个单一的问题来对比测试是否过于片面性?
      xiaoz · 2026-02-14

       12 ➰ 你爸比你强多了
      nettest · 2026-02-17

       12 ➰ 这种现在的可怕是孩子在三观尚未成型的情况下却已经出现极端化的倾向了。想想中东那些人肉炸弹是怎么来的就知道了。
      lifei6671 · 2026-02-20

       12 ➰ “有些事不上称没四两重,上称了一千斤也打不住”
      darkengine · 2026-02-15

       12 ➰ 是不是你爸去吃中药调理身体,买鸿蒙手机,开 BYD 电动汽车,你就满意了?
      dna1982 · 2026-02-17

       12 ➰ 广告里插了春晚
      kulove · 2026-02-16

       11 ➰ 对了,我快没 b 了。麻烦给我点点感谢送我些,不然都回复不了。/(ㄒoㄒ)/~~
      v1 · 2026-02-14

       11 ➰ 这种只是掌权者的权力游戏的一种手段吧,日本人是该恨,恨得是不承认历史,极右派的军国主义者。但是一棍子打倒所有的,甚至一有地震时候,社媒上多少人许愿一样希望震大一点,死的越多越好,不管那里有多少无辜的人,甚至还包括同胞。甚至有些愚昧的人希望来十级大地震,殊不知真来十级是全球的灾难。俄罗斯是历史侵占中国土地最多的国家,但现在关系却非常好。德国意大利二战把欧洲基本上都践踏了一遍,似乎也没有听说过他们跟哪个国家局势紧张。恨的人应该是那些极右,好战的军国主义分子,对于那些普通人,热爱和平的人,他们有什么错吗?君子生于小国,非君子之过也。不要恨着恨着,自己成了法西斯了。
      DragonX · 2026-02-20

        9 ➰ 同感,更累了。 昨天看到一篇文章,感觉写的非常好,转过来感兴趣的可以看一下 软件工程师 SiddhantKhare 最近写了一篇博客文章,吐槽 AI 编程为自己带来的“疲乏的感觉”,引发了其他工程师们的共鸣。他结合亲身经历指出,AI 引发的职业倦怠是真实存在的问题,却长期被行业有意无意地忽视。单项任务提速并不意味着整体工作负担减轻,实际上正好相反,任务总量不断膨胀,高频的上下文切换带来了深层次的精力透支。 与此同时,工作角色也在悄然转变。工程师从原本的创造者沦为高认知消耗的 AI 产出审核者,而 AI 输出固有的不确定性又与工程师习惯的确定性思维产生冲突,持续滋生焦虑情绪。此外,行业技术更新节奏过快催生出一种 "FOMO 跑步机" 效应,频繁追逐新工具不仅浪费时间,还加速了已有知识的贬值,工程师也容易陷入反复调试提示词的“prompt 螺旋”之中,长此以往,独立思考和解决问题的能力逐渐退化。社交媒体上铺天盖地的高光展示,则进一步放大了比较焦虑。 Khare 认为,在 AI 时代,工程师真正的核心竞争力不在于将 AI 用到极致,而在于懂得为自己设定边界、适时叫停,守护有限的认知资源,以实现可持续的长期产出。 以下为 Siddhant Khare 的文章翻译 AI 疲劳是真实存在的,但是并没有人谈论这一点 你用 AI 来提高生产力。可为什么你比以往任何时候都更加疲惫不堪?这是每个工程师都必须面对的悖论。 上个季度我交付的代码量超过了我职业生涯中的任何一个季度。同时,我也感到比以往任何一个季度都更加精疲力竭。这两个事实并非毫无关联。 我以构建 AI 智能体基础设施为生。我是 OpenFGA ( CNCF 孵化项目)的核心维护者之一,我开发了用于智能体授权的 agentic-authz ,开发了用于上下文去重的 Distill ,交付了 MCP 服务器。我不是那种偶尔玩玩 AI 的人。我深陷其中。我构建的工具被其他工程师用于在生产环境中让 AI 智能体运转起来。 然而,我撞上了一堵墙。那种筋疲力竭的感觉,无论多少工具或工作流程优化都无法修复。 如果你是一名每天使用 AI 的工程师——用于设计评审、代码生成、调试、文档编写、架构决策——并且你注意到自己不知为何比 AI 出现之前更加疲惫,这篇文章是写给你的。你不是在想象。你不是软弱。你正在经历某种真实存在的东西,而整个行业却完全假装它不存在。如果一个全职构建智能体基础设施的人都能因为 AI 而产生职业倦怠,那么这种事可能发生在任何人身上。 我想诚实地谈谈这个问题。不是那种“AI 太棒了,这是我的工作流程”的版本。而是真实的版本。那种你晚上 11 点盯着屏幕,周围全是还需要审查的 AI 生成代码,疑惑着那个本该节省你时间的工具如何吞噬了你一整天的版本。 无人预警过的悖论 有件事困扰了我很久:AI 确实让单个任务变快了。这不是谎言。过去需要 3 小时的事,现在只要 45 分钟。起草设计文档、搭建新服务脚手架、编写测试用例、调研陌生的 API——全都变快了。 但我的工作日变得更难了,不是更轻松,而是更难。 原因一旦看清就很简单,但我花了数月才明白。当每个任务耗时变少,你并不会做更少的任务,而是会做更多的任务。你的能力看似扩展了,于是工作量也随之膨胀,甚至超载。你的经理看你交付更快,期望值随之调高。你自己也发现自己交付更快,自我期望也随之调高。基准线被动抬升了。 AI 之前,我可能花一整天只解决一个设计问题。在纸上画草稿,洗澡时思考,出门散步,然后带着清晰的思路回来。节奏虽慢,但认知负荷是可控的。一个问题。一天。深度专注。现在呢?我一天可能处理 6 个不同的问题。每个问题“用 AI 只需一小时”。但在 6 个问题之间切换,对人类大脑来说代价极高。AI 不会在问题间感到疲惫。我会。 这就是悖论:AI 降低了产出的成本,却提高了协调、评审和决策的成本。而这些成本全部由人类承担。 你成了评审员,而这并非你本意。 AI 之前,我的工作是:思考问题、写代码、测试、交付。我是创作者、制造者。这正是当初吸引我们大多数人进入工程领域的原因——构建本身。 AI 之后,我的工作日益演变为:写 prompt → 等 → 读输出 → 评估输出 → 判断是否正确 → 判断是否安全 → 判断是否符合架构 → 修不对的部分 → 再 prompt → 再重复。我成了评审员、裁判员、永不停歇的装配线上的质检员。 这是性质完全不同的工作。创造让人充满活力,评审让人精疲力竭。有研究支持这一点:生成性任务与评估性任务在心理上的差异。生成性工作带给你心流状态,评估性工作带给你决策疲劳。 我是在重度使用 AI 构建一个 microservice 的那周首次意识到这点的。到了周三,我甚至无法做简单决策了。这个函数该叫什么?我不在乎。这个配置该放哪里?我不在乎。我的大脑已经满载。不是因为写代码,而是因为评判代码。每天一整个时间都在做无数个细小判断,会把你掏空。 残酷的讽刺在于,AI 生成的代码需要比人类编写的代码更仔细的评审。同事写代码时,我了解他们的模式、长处和盲点。我可以略读我信任的部分,聚焦于我不确定的部分。但面对 AI ,每一行都值得怀疑。代码看起来信心十足。它能编译。甚至可能通过测试。但它可能以微妙的方式出错,只在生产环境中、在负载下、在凌晨三点才浮出水面。 所以你只能逐行审阅。而阅读不是你写的、由一个不懂你代码库历史或团队约定的系统生成的代码,是令人精疲力竭的工作。 这也是我认为 agent 安全和授权至关重要的原因。如果我们无法评审 AI 生成的所有内容——实际上我们也做不到,无法大规模做到——那么我们就需要从一开始就约束智能体能力的系统。最小权限访问、范围限定 token 、审计追踪。你越不需要担心“AI 会不会做出危险动作”,你越能把认知预算留给真正重要的工作。这不仅是安全问题,更是“人能否长期承受”的可持续问题。 非确定性问题 工程师是在确定性的环境中训练出来的。相同输入,相同输出。这是契约。这使调试成为可能,使系统推理成为可能。 AI 打破了这份契约。 我有一个提示词,周一用起来完美无瑕,为某个 API 端点生成了干净、结构良好的代码。周二我为类似端点用了同样的提示词。输出结构完全不同,采用了不同的错误处理模式,还引入了一个我并未要求的依赖。为什么?没理由。更准确地说,没有我能触达的原因。这里没有“模型今天换了想法”的 stack trace ,也没有日志告诉你”temperature sampling 走了 B 路径不是 A 路径”。它就是……不一样了。 对于一个整个职业生涯建立在“如果它出问题了,我能找出原因”之上的人来说,这让人深感不安。不是戏剧性的那种。而是缓慢、磨人、背景式的焦虑。你永远无法完全信任输出。你永远无法彻底放松。每一次交互都需要保持警觉。 我曾试图对抗这一点。我对提示词做版本控制。我构建了复杂的系统消息。我创建了模板。有些方法有帮助。但没有一个能解决根本问题:你在与一个概率性系统协作,而你的大脑是为确定性系统而生的。 这种不匹配是一个持续存在的、低强度的压力源。 这种挫败感实际上促使我构建了 Distill——为大型语言模型提供确定性上下文去重。没有 LLM 调用,没有嵌入,没有概率性启发式算法。纯粹靠算法在大约 12 毫秒内清理你的上下文。我只想让 AI 流程中的至少一部分是能够被推理、调试和信任的。如果模型的输出注定是非确定性的,我至少能确保输入是干净和可预测的。 我与那些处理这种情况最好的工程师交流过,他们都已经与之和解。他们把 AI 输出看作一个聪明但不可靠的实习生写的初稿。他们预期要重写其中的 30%。他们会为这种重写预留时间。当输出错误时,他们不会沮丧,因为他们从未期待它是正确的。他们期待它是有用的。这之间有本质区别。 FOMO 的跑步机 深吸一口气,试着跟上仅仅过去几个月的节奏。Claude Code 推出了子智能体,然后是技能,然后是 Agent SDK ,然后是 Claude Cowork 。OpenAI 发布了 Codex CLI ,然后是 GPT-5.3-Codex——一个名副其实能自我编码的模型。新的编码智能体宣布了具有数百个并发自主会话的后台模式。Google 推出了 Gemini CLI 。GitHub 增加了 MCP 注册中心。收购每周都在发生。Amazon Q Developer 获得了智能体升级。CrewAI 、AutoGen 、LangGraph 、MetaGPT——随便选一个智能体框架,每周都有新的。Google 宣布了 A2A ( Agent-to-Agent 协议)与 Anthropic 的 MCP 竞争。OpenAI 推出了自己的 Swarm 框架。Kimi K2.5 发布了,其智能体群体架构可协调 100 个并行智能体。"氛围编码"成了流行词。OpenClaw 推出了技能市场,一周内,研究人员就在 ClawHub 上发现了超过 400 个恶意智能体技能。而在这所有事情之间,有人在 LinkedIn 上发帖:"如果在 2026 年你还没使用带子智能体编排的 AI 智能体,你已经被淘汰了。" 这不是一年的变化。这只是几个月。 而且我还没列全。我深深陷入了这个陷阱。我花周末评估新工具。阅读每一份更新日志。观看每一个演示。努力留在前沿,因为我害怕落后。实际情况是这样的:周六下午我花时间设置一个新 AI 编码工具。周日我建好了一个基本工作流。到了下周三,就有人发帖说另一个工具"好得多"。我感到一阵焦虑。下个周末,我又开始设置那个新东西。旧的那个则闲置不用。从一个编码助手换到另一个,再到下一个,又回到第一个。每次迁移都耗费我一个周末,却只换来大约 5%、我甚至无法恰当衡量的改进。 将这个情况乘以每个类别——编码助手、聊天界面、智能体框架、多智能体编排平台、MCP 服务器、上下文管理工具、提示词库、群体架构、技能市场——你得到的是一个永远在学习新工具、却从未深入任何一个工具的人。单单 Hacker News 首页就足以让你应接不暇。今天是"Show HN:自主研究群体",明天是"Ask HN:AI 群体将如何协调?"没人知道。但每个人都在构建。 最糟糕的是知识的衰减。2025 年初,我花了两周时间构建了一个复杂的提示工程工作流。精心设计的系统提示、少样本示例、思维链模板。效果很好。三个月后,模型更新了,提示的最佳实践变了,我一半的模板产生的效果还不如一句简单的指令。那两周时间就这样消失了。不是投资,是耗费。同样的事情也发生在我搭建的 MCP 服务器上——我构建了五个定制服务器( Dev. to 发布器、Apple Notes 集成、Python 和 TypeScript 沙箱等),然后协议演进了,接着 MCP 注册中心在 GitHub 上线,突然就有了成千上万个预制好的。我的一些定制工作一夜之间变得多余。 智能体框架的快速更迭更糟。我目睹团队在一年之内从 LangChain 转到 CrewAI ,再到 AutoGen ,再到自建编排。每次迁移都意味着重写集成、重新学习 API 、重建工作流。那些等待观望、按兵不动的人,往往比那些过早采用、被迫迁移两次的人处境更好。 此后我采用了不同的策略。我不再追逐每一个新工具,而是深耕于它们之下的基础设施层。工具来来去去,但它们解决的问题不会变。上下文效率、智能体授权、审计追踪、运行时安全——无论本月流行哪个框架,这些都是持久存在的问题。这就是为什么我在 OpenFGA 上构建 agentic-authz ,而不是将其绑定到任何特定智能体框架。这就是为什么 Distill 工作在上下文层面,而非提示词层面。在不会快速更迭的层次上构建。我仍然密切关注领域动态——当你为其构建基础设施时,你必须这样做。但我关注它是为了理解生态系统的走向,而不是为了采纳每一样新事物。保持信息灵通和被动反应是两回事。 “再多一次提示”的陷阱 这种陷阱很隐蔽。你试图让 AI 生成某个特定的东西。第一次输出 70%正确。于是你优化提示词。第二次输出 75%正确,但破坏了第一次已正确的东西。第三次尝试:80%正确,但结构变了。第四次尝试:你已经折腾了 45 分钟,而你自己从头写的话 20 分钟就能完成。 我称之为"提示词螺旋"。这是 AI 版的"绕远路修枝"( yak shaving )。你从一个明确的目标开始。三十分钟后,你却在调试你的提示词,而不是调试你的代码。你在优化你对语言模型的指令,而不是解决实际问题。 提示词螺旋尤其危险,因为它让你感觉很有效率。你在迭代。你在接近目标。每次尝试都稍好一点。但边际回报正在快速递减,而你已忘记了目标从来不是“让 AI 产生完美输出”。目标是交付功能。 我现在有个硬性规定:尝试三次。如果 AI 在三轮提示内无法达到 70%的可用度,我就自己写。没有例外。就这一条规则,为我节省的时间比我学过的任何提示技巧都多。 完美主义遭遇概率性输出 工程师往往倾向于完美主义。我们喜欢干净的代码。喜欢通过的测试。喜欢行为可预测的系统。这是优点,不是缺陷——正是这点让我们擅长构建可靠的软件。 AI 输出从不完美。它总是"相当好"。完成了 70-80%。变量名有点偏差。错误处理不完整。边缘情况被忽略。抽象层次与你的代码库不匹配。它能运行,但不正确。对完美主义者来说,这是折磨。因为"差不多对"比"完全错"更糟糕。完全错,你可以扔掉重来。差不多对,你得花一小时修修补补。而修补 AI 输出格外令人沮丧,因为你是在修正别人的设计决策——这些决策是由一个系统做出的,而这个系统并不具备你的品味、你的背景、你的标准。 我不得不学会放手。不是放弃质量——我仍然在意质量。而是放弃对"AI 会产出质量"的期待。我现在把每一次 AI 输出都当作粗糙的草稿。一个起点。原材料。它在出现的瞬间,我就在心里给它贴上"草稿"的标签。单是这种心态转变,就让我的挫败感减少了一半。 最难以适应 AI 的工程师,往往是最优秀的工程师。那些标准最高的人。那些能注意到每一个瑕疵的人。而 AI 奖励的是一种不同的技能:能够快速从不完美的输出中提取价值,而不过度执着于使其完美。 思考能力的萎缩 这是最让我恐惧的一点。我是在一次设计评审会上注意到这点的。有人要求我在白板上推理一个并发问题。没有电脑。没有 AI 。只有我和一支马克笔。而我感到吃力。不是因为我不知晓相关概念——我知道。而是因为我数月没有锻炼这个“肌肉”了。我外包自己的初稿思考给 AI 太久了,以至于我即兴思考的能力已经退化。 这就像 GPS 和导航。有 GPS 之前,你会构建大脑中的地图。你了解你的城市。你能推理路线。经过多年使用 GPS ,你没有它就迷路了。这项技能萎缩了,因为你不再使用它。同样的事情正在 AI 和工程思考中发生。当你总是先问 AI ,你就停止了构建那些源自于亲自与问题搏斗的神经通路。搏斗正是学习发生的地方。困惑正是理解形成之处。跳过这些,你会得到更快的输出,但也会得到更浅的理解。 现在我每天第一个小时刻意不用 AI 。我在纸上思考。我手绘架构。我以缓慢的方式推理问题。这感觉效率低下。也确实效率低下。但这能保持我的思维锐利,而这种锐利度在接下来使用 AI 的时间里会带来回报——因为当我的自身推理能力被激活后,我能更好地评估 AI 的输出。 比较的陷阱 社交媒体上充斥着似乎把 AI 研究明白了的人。他们发布自己的工作流。他们的生产力数据。他们“两小时用 AI 构建了整个应用”的帖子。而你看着自己的经历——失败的提示词、浪费的时间、不得不重写的代码——你想:我到底哪里不对? 你哪里都没不对。那些帖子里是精彩集锦。没有人会发"我花了三小时试图让 Claude 理解我的数据库模式,最后放弃并手动写完了迁移脚本。“没有人会发”“AI 生成的代码引发生产事故,因为它默默地吞掉了一个错误。”没有人会发“我很累。” 比较陷阱被另一个事实放大了:AI 技能很难衡量。传统工程中,你可以看一个人的代码,大致评估其能力。对于 AI ,输出取决于模型、提示词、上下文、温度。某人的精彩演示在你的机器上、你的代码库里可能完全无法复现。 我对社交媒体上的 AI 内容变得非常挑剔。我仍然密切关注这个领域——我必须这样做,这是我的工作。但我从消费每个人的热门观点,转向聚焦于那些真正在构建和交付(而不仅仅是演示)的人。信号与焦虑的比例很重要。如果一个信息流让你感觉落后而不是见多识广,它对你并无益处。 真正有帮助的事 我将具体说明是什么改变了我与 AI 的关系,从对抗到可持续。 给 AI 会话设时限。 我不再无休止地使用 AI 。我设定一个计时器。这项任务用 AI ,30 分钟。计时器一响,要么交付手头的成果,要么切换到手动编写。这同时避免了提示词螺旋和完美主义陷阱。 分离思考时间与 AI 时间。 早上是思考时间。下午是 AI 辅助执行时间。这并不死板——有时我也会打破规则。但有了默认结构,意味着我的大脑能以恰当比例同时获得锻炼和辅助。 接受来自 AI 的 70%。 我不再试图获得完美输出。70%可用是标准。剩下的我自己修正。这一接受,是我工作流中减少 AI 相关挫败感的头号功臣。 对炒作周期保持战略定力。 我追踪 AI 领域动向是因为我为它构建基础设施。但我已停止在每个新工具发布的当周就去采用。我使用一个主要的编码助手,并深入了解它。我只在那些新工具经过数月而非数天的验证后,才进行评估。保持信息灵通和保持被动反应是两回事。 记录 AI 的助力之处与无效之处。 我坚持做了一个简单的两周日志:任务,是否使用 AI ,耗时,对结果的满意度。数据揭示了很多。AI 在样板代码、文档和测试生成方面为我节省了大量时间。而在架构决策、复杂调试以及任何需要代码库深度上下文的任务上,它反而耗费了我时间。现在我知道何时该用它,何时不该。 不审阅 AI 生成的一切。 这很难接受。但如果你用 AI 生成大量代码,你客观上无法以同样严苛的标准审阅每一行。我把审阅精力集中在最重要的部分——安全边界、数据处理、错误路径——其余部分则依赖自动化测试和静态分析。非关键代码中的些许粗糙是可以接受的。 可持续性问题 科技行业在 AI 出现前就存在职业倦怠问题。AI 正在使之恶化,而非改善。不是因为 AI 本身不好,而是因为 AI 移除了曾经保护我们的自然速度极限。 AI 之前,你一天能产出的量存在一个天花板。这个天花板由打字速度、思考速度、查阅资料所需时间决定。有时这令人沮丧,但它也是一个调节器。你无法把自己累垮,因为工作本身施加了限制。AI 移除了调节器。现在唯一的限制是你的认知耐力。而大多数人是在超出认知极限后,才意识到它的存在。 我在 2025 年末经历了职业倦怠。不是戏剧性的——我没有辞职也没有崩溃。我只是不再在乎了。代码评审变成了走过场。设计决策变成了“AI 建议什么都行”。我机械地行动着,产出比以往更多,感受却比以往更少。我花了一个月才意识到发生了什么,又花了一个月才恢复。 恢复的关键不在于使用更少的 AI 。而在于以不同的方式使用 AI 。带着边界。带着意图。带着“我不是机器,也无需与机器保持同步”的理解。在 Ona 的工作帮助我清晰地看到了这一点——当你为企业客户构建 AI 智能体基础设施时,你会看到不可持续的 AI 工作流在大规模下造成的人力成本。这些问题不仅仅是个人层面的 。它们是系统性的。并且需要在工具层面解决,而不仅仅是个体层面。讽刺的是,倦怠期恰恰是我一些最佳工作成果诞生的时候。当我停止尝试使用每一种 AI 工具,开始思考真正出了什么问题,我第一次清晰地看到了问题所在。上下文窗口被垃圾填满——这成了 Distill 。智能体拥有全有或全无的 API 密钥访问权限——这成了 agentic-authz 。无法审计智能体实际做了什么——这正在成为 AgentTrace 。倦怠迫使我从消费转向构建。不是更快地构建更多功能,而是审慎地构建正确的东西。 真正的技能我认为 AI 时代真正的技能不是提示工程,不是知道用哪个模型。不是拥有完美的工作流。而是知道何时停止。知道何时 AI 输出已足够好。知道何时该自己动手写。知道何时该合上笔记本电脑。知道何时边际改进不值认知代价。知道你的大脑是有限资源,保护它并非懒惰——这是工程学。我们优化系统以实现可持续性。我们增加断路器。我们实现背压。我们设计优雅降级。我们应当为自己也这样做。AI 是我用过的最强大的工具。它也是最消耗心力的工具。两者皆是事实。在这个时代蓬勃发展的工程师,不会是使用 AI 最多的人,而是最明智地使用 AI 的人。如果你感到疲惫,不是因为你做错了什么。而是因为这本身就很艰难。工具是新的,模式仍在形成,而整个行业都在假装更多产出就等于更多价值。它不是。可持续的产出才是。我至今仍每天都在这个领域构建。智能体授权、上下文工程、审计追踪、运行时安全——让 AI 智能体真正在生产环境中工作的基础设施。我比以往任何时候都更致力于 AI 。但我按照自己的节奏,依循自己的方式,致力于构建重要的事物,而非追逐潮流的事物。照顾好你的大脑。这是你唯一的大脑,没有 AI 可以替代它。
      Dragonish3600 · 2026-02-14


🔗 回顾上一期周报: ✨ V2EX 周报 本周热门主题及高赞回复 02.07-02.13
🌐 查看更多优质主题及回复: V2EX 精选
🥇 主题及回复排行榜: V2EX 排行
⚙️ 到这里选择您喜欢的 V 站主题样式: V2EX 样式商城
📰 RSS 订阅: Atom
✉️ 欢迎任何交流及反馈: sciooga@gmail.com

周末愉快,下周再见👋

桂ICP备15001906号-2