Of all things the measure is Man, of the things that are, that they are, and of the things that are not, that they are not.
引言
上周,我与一位 VC 线上商讨融资事宜的时候,对方提到他们非常看好 Agentic AI (AGI) 的未来,用户不再需要直接和其他软件交互,而是由 AI 代理一切。与此同时,诸如 Glass、MineContext 这类产品也在积极推动这个概念,让 AI 全时段准备、主动介入用户的工作和生活。
AI 作为工具的时代似乎正在走向终结,人们心中完美的管家似乎正在成型,尽管这一切都是充满安全漏洞的概率游戏也值得。代理了你的屏幕和文件,持续揣测行为意图,甚至是上传隐私数据。作为用户的我们,真的准备好迎接并接受与 AI 主客关系颠倒的未来了吗?
从这个观点来看,我们的被动式 AI,即用户按下快捷键后 AI 才介入反倒成了技术上的保守,甚至是在 AGI 风头正盛的时候显得有些过时。但所谓的 Age of Scaling —— 认为只要堆砌算力和数据,力大砖飞,就能涌现出通用的智能 —— 已经面临越来越多的挑战。
在工场手工业中,工人利用工具;在工厂中,工人服侍机器。
人的自由意志经历了文艺复兴、启蒙运动等历史阶段的洗礼,才逐渐确立了现代意义上的主体地位。从工业革命、信息革命到现在,技术的进步不断挑战着人的主体性。而 AGI 的兴起,尤其是当它试图以更懂你的名义全面介入生活时,似乎又将我们推向了一个新的十字路口。
不得不承认的是,我能通过 Copilot 感受到编程效率的提升,向 ChatGPT、Gemini 寻求建议也确实能节省不少时间。赛博外骨骼的出现,让我在体力劳动中获得了前所未有的便利。
但 AGI 不一样,它与人的根本矛盾在于控制权而非效率。大厂们恨不得将他们的 AI 塞到人们生活的每一秒中,意图创造一个“无缝的体验”。但这种主动似乎逐渐失去了边界感,同时带来了焦虑和不适。
我们选择做被动式 AI,是因为我们仍将 AI 视为工具,而非主宰。我们相信,技术应当服务于人,而非取代人。高质量的信息由人产生,高效的执行由 AI 辅助。用户应当始终掌握控制权。
我们没有在技术上选择保守,而是坚守对用户自由意志的尊重与控制权的回归。
本文,我不想谈论太多 AGI 的幻想与未来,而是从隐私法规、算力成本和心理学的约束下,探讨这一热门的被资本追捧的概念。
隐私
人们谈及对隐私的消极态度时,往往都来源于大数据在各个软件的围追堵截带来的无力感。个人、企业与政府之间的博弈也让用户感到力不从心。
AGI 这种系统性的失控,让我担心起福柯的全景敞视主义:全知全能的监视者通过无处不在的监视让被监视者自觉地规训自己。尽管这句话来自于对法律和权力的批判,但在 AGI 的语境下,它同样适用。当一个 AI 宣称它能够“一直看着你”的同时“服务你”必然会带来被凝视感。
潜意识里的心理压迫会时刻影响用户的状态,当你进行私密聊天、工作摸鱼、处理银行信息时,总有个智能体在旁边看着你。审视的目光也会逐渐压制用户的创造时刻,那个最放松最自由的时刻。
不被注视的自由才是隐私安全对人的意义。
翻车的 Recall
去年,微软推出了 Windows Recall 功能,试图通过每隔几秒截图来帮用户回溯记忆。但在顶级的法务团队手中依然没能活过公测。本地数据库被攻破后,用户的隐私信息被泄露。最后舆论哗然,监管接入。
这算是我印象里比较早的 AGI 雏形了,但即使是微软也难以打消用户对隐私的担忧。大厂怎么博弈我们管不着,也管不到。我们只知道以一个小初创团队的身份,想要说服用户把隐私交给一个持续监控的 AI,是多么困难的一件事。
全球合规
AGI 自然被授予获取大量数据源的权限(比如全盘文件或屏幕),同时也有记忆,那我们看看各地区的隐私法规如何。
开发者都知道在隐私方面,欧盟是个难啃的骨头。它对于数据保护的法案写在通用数据保护条例(GDPR)中,其中的数据最小化原则(Data Minimization Principle)明确规定,收集的数据应当限于实现特定目的所必需的最少量。
您必须确保您处理的个人数据是:
足够 - 能够充分实现你所期望的目标;
相关 - 与该目的有合理的联系;并且
仅限于必要 - 你不需要的就不要持有。
然后是北美,最近在编写隐私政策的时候注意到加州对隐私的保护也不简单。虽然不像欧盟那样对收集这一块卡那么死,但加州消费者隐私法案(CCPA)也要求企业在收集个人信息前必须明确告知用户,并提供选择退出的权利。这意味着,如果 AGI 需要持续监控用户的行为,必须确保用户完全知情并同意这种监控方式。同时当地的集体诉讼文化也会让企业在发生数据泄露时面临巨额赔偿。
最后是中国,迷幻的隐私环境让人捉摸不透,那还是谈谈熟悉的现状。从用户角度来看,尽管它可能不在意隐私,但一些行业(例如银行、广告、医疗等)的服务或软件对用户数据保护更加严格。但最近刚好就有个例子:
静默的数据泄露
这个月,豆包手机问世,第一天惊艳、第二天一机难求、第三天发现微信用不了。实测23款主流 App(包括淘宝、美团、支付宝等)无法登录;微信、高德地图、大麦网3款 App 可以手动登录但无法通过 AI 操作。
不同于传统 App 仅在用户交互时获取权限和相关信息,AGI 的行为内含的授权更广泛。在分析用户行为特征时,仅仅是为了执行一个操作,用户的画像都逐渐清晰了。不假思索地将自己的数据交给一个可疑的代理人,让代理人和各种 App 交互,转手了隐私授权的直观感知,这本身就是一种隐患。
在这个环境下,企业的利益驱动的作用非常明显。当豆包手机能够精准关闭广告时,企业的广告投放效果大打折扣,直接影响了它们的收入;买机票的时候特别提醒用户是否需要加购保险。这些都会或多或少的影响企业的盈利模式。
同时豆包也会在点外卖的时候加入自己的意见,在凑单的时候自动加入商品。用户体验的提升背后,是企业对用户行为的深度干预。
这种商业利益的博弈,最终牺牲的往往是用户的体验。当 AI 为了“主动”而不得不扫描每一个 App 的界面布局时,它不仅触犯了互联网公司的护城河,更让用户成为了巨头战争中的炮灰。
数据安全
不仅数据泄露是隐私安全的隐患,AGI 对数据本身的威胁也不容忽视。当人将自主权交给它时,数据的完整性和安全性也面临着新的挑战。
我个人的态度是在使用这类软件时,用别怕,怕别用。
为 AI 的幻觉买单
哪怕是 Coding Agent,诸如 Claude Code 出现的幻觉或是一点小小失误也足以对你的代码库造成不可逆的破坏。


倒不是说这些 Scoped Agent 本身不靠谱,而是它作为一个工具,使用它的人应当学会承受风险。
当然有用 Git 的小白不小心 discard 了自己的成果,这些工具也是一样的,用户最好做好风险隔离或是限制的准备,使用备份、沙箱环境都是可以的。
被代理的自主权
Claude Cowork 刚出现那会把我吓了一跳,不只是它的出现似乎象征着 AI 大厂们对 AGI 的野心,更在于它的风险。

三次改名的 ClawdBot -> MoltBot -> OpenClaw 更是经典案例,至少上面的代码库事故可以通过版本控制来挽回。那么当人们授予其更多权限并介入到更广泛的场景时,数据的安全性又该如何保障?
最近更是爆出了安全漏洞,作为一个高权限管家,它可以运行 Shell 命令并读写文件,当项目本身出现安全问题时,拿到了 Chat 的界面就等于能全范围攻击了。
止步于理想的体验
如果说隐私和合规是悬在它们头顶上的达摩克利斯之剑,那么可用性就是绊脚石,AGI 的干涉往往演变成了一种粗暴的打扰。
意图识别的妄想
AGI 的无缝体验建立在一个假设:AI 能够精准预测用户下一秒想干什么,或是需要什么帮助。
但在屏幕感知这个场景下,猜测意图的难度远高于执行指令。目前的 LLM 虽然在文本生成上表现出色,但在理解屏幕上下文的潜台词时,依然经常产生幻觉。
想象一下,当你正在专注地阅读一份竞品的财报时,AGI 认为你可能需要它生成五彩斑斓的饼图。几个小小的建议就完全有能力打断一个人的思考,从而暗中跟着 AI 的节奏走。
错误的主动,比不做更可怕。它不仅没有提升效率,反而成为了最大的噪音。
生产力的天敌
心理学家米哈里·契克森米哈赖 Mihaly Csikszentmihalyi 提出的心流 Flow 理论认为:
心流是一种专注或完全沉浸在当下活动和事情的状态。沉浸在心流状态的人会感受到涅磐般的快乐。心流时的内在动机的达到最佳,让人完全沉浸在他们正在做的事情中。每个人都有过心流体验,会在感到全神贯注、充满成就感的同时,忽略世俗的需求(时间、食物、自我等)。
程序员在写代码、作家在写作、设计师在绘图时,最怕的就是被打断。而 AGI 就像是 20 年前微软 Office 里的回形针(Clippy),像一个没有眼力见的实习生,每隔五分钟就跳出来问你这个要不要我帮你弄?
对于专业用户而言,不可控的惊喜,往往意味着惊吓。用户宁愿多按一个快捷键来换取 100% 确定的响应,也不愿被一个只有 80% 准确率的弹窗打断思路。
极低的信噪比
我们的屏幕上,大部分都是对你的注意力无关紧要的信息。
从休闲的场景来看:发呆时的桌面、循环播放的歌词、微信群的一个个回复、摸鱼时刷的短视频,保持全能和响应的 AGI 就会时刻对他们进行分析和理解。但厂商真的如此慷慨,时刻提供“值得被称为是生产力”的模型吗?至少在目前的成本控制下,答案是否定的。
这种极低的信噪比导致了严重的浪费。为了维持持续监控的成本,竞品往往被迫使用参数量较小、智商较低的模型来处理数据。最终花了大价钱,养了一个并不怎么聪明的助手。
从专业的场景来看:在阅读一篇论文时,专注的点始终在眼球盯着的地方,而非整个屏幕,但 AGI 却不得不对整个屏幕进行分析。大量的无关信息(比如侧边栏、工具栏、背景图等)都需要被处理和过滤。除非哪天接入眼动仪了,否则 AGI 只能对整个屏幕进行盲目地理解。
人的主体性
到了我最喜欢的键哲环节了。
意志的异化
在工业生产中,工人出卖了劳动力;而现在,用户将出卖决策权。
在这里,意志的自由与效率被放到天平上,用户通过让渡了执行权给 AGI,以在表面上获得更高的生产力。
不同于工业时代的机器逐步取代体力劳动,更为深刻的是,AGI 在向神经系统动刀。由于 AI 的运作往往是黑箱,用户无法理解 AGI 做出某一决策背后的具体参数,导致其从行动的主体退化为算法运行的被动接受者。
与此同时,算力和数据成为了这个时代的生产资料,下游的技术路线被迫跟随大厂的节奏和基础设施。与大数据时代不同,用户的数据不仅被收割,更是成为反过来干预用户行为的原材料。
AI 是人思考的延申?还是替代?这个问题的出现本身就成问题。
认知萎缩与摩擦
几乎在所有情况下,人类都以一种平凡而又更深入的方式参与到世界中,为了达成某种目标而承担各种任务。以锤子为例:它触手可及;我们使用它时无需思考。
—— 海德格尔
我还没赋予其其他含义,只是个联想到的现象。
AI 带来认知,AGI 则是认知工具,而上手的认知工具变得自动化,更容易带来大脑可塑性的丧失。
肌肉少了活动会萎缩,思维也一样。长期将认知任务外包给 AI 会导致批判性思维、记忆与判断力的衰退。
总之,AGI 最好是负责的,发现用户的指令模糊、存在漏洞或是涉及风险时,应当顽固(Obstinate)一点,变成一个更显眼对象,反问用户。心流对人来说是很重要的状态,但是陷入无意识的流不是,唤醒主体性,对技术保持审视和纠正的能力,才是我们应当追求的目标。
人本主义
以数据为中心,如果 AI 能更高效地处理数据,人类就应当让位吗?
Effective Acceleration (e/acc, 有效加速主义) 认为宇宙的根本目的是通过热力学过程最大化熵增,而 AI 则是实现这一目标的工具。它不在乎智能的生物学基础,而是将后人类主义视为超越生物学限制的手段。
作为一个人本主义者,我始终认为技术应按照人类的价值观和需求来设计和使用。大洋彼岸的精英主义倾向,实质上将造成技术垄断在多元价值观上的乌云,我们应当让技术更民主、更包容。
AI 对人的每次反馈,在微观上体现了人的主体性,但这不够。人是万物的尺度,提升用户对系统的信任和控制权,在每个节点,而非一味追求无缝和自动化,才是我们应当坚持的方向。
时代与人
人应当保持对生产资料的掌控,代行的数字意志应当始终在自己的监控之下,自己的数据也应当在本地保存;AI 应当作为认知外骨骼存在,始终处于待命状态,而非主动干预;保持对 AI 的怀疑和审视和对社会造成的影响,维护人的主体性。
AI 与人的未来不应当陷入后人类的浪潮,在算法的嘈杂声中,我们应当发出属于人类意志的声音。
每个人都是行动的发起者,人赋予了意义,人是万物的尺度。