新闻中心

用AI越用越累?我发现了一个真相
发布时间:2026-03-30 浏览数:4
最近我总在试OpenClaw这类AI工具,不管是办公还是自己的电脑上都在用,可越用越觉得累,没一点轻松的感觉。
网上到处都是“一人公司”的鸡汤故事,看得人特别焦虑。说什么只要把龙虾养好,睡一觉起来,就能收到大笔订单、赚到大钱,听着就特别美好,对比自己的状态,就更焦虑了。
不知不觉间,我看工作里的每一个步骤,都带着“这个能不能用AI抓取”的眼光,就像手里拿着一把无形的锤子,不管什么东西,都想把它砸成能敲的钉子。

可我慢慢发现,在企业里干活,最复杂的从来不是“怎么做”,而是一堆扯不清的事:这件事到底该谁负责?我有没有权限去做?做完之后领导认不认可?
这些问题,AI根本解决不了。它顶多就是把这些问题摆到台面上,等着你一个个解决完,它才能接着干活,一点忙都帮不上。
反而那些一人公司,更容易把AI用好。因为“一个人”的模式,天生就没有那些让人头疼的协同麻烦——没有职责边界的争论,没有跨部门抢权限的拉扯,也没有被迫接活的内耗,想怎么用AI就怎么用,效率反而高。

当然,AI也确实解决了不少重复性工作,这一点不可否认。但我发现,过去那些“费时间、费眼睛,但不用动脑子”的活,其实是一种缓冲。
就像平时机械地削土豆皮,手在动,脑子却可以放空、神游,甚至不知不觉就把之前想不通的难题想明白了,相当于给大脑充电。可现在,这些能“摸鱼”的时刻,全被AI填平了,我被迫一直处于高强度思考的状态,连喘口气的机会都没有。
每天都在焦虑:又有新的AI工具要学了,不学就落后;又冒出新的AI名词了,比如HARNESS,听不懂就显得自己跟不上;Deepseek又出了新思路,以前从来没想过,不试试又怕错过;AI给出一大段总结,还得小心翼翼检查,生怕里面有错误(也就是所谓的“幻觉”)。

AI确实消灭了那些低效的体力活,却成倍增加了“高质量思考”的负担,越用越累,一点都不夸张。
更让人头疼的是,不光我在用AI,整个团队都在⽤。以前我判断下属有没有用心干活,扫一眼他写的东西有多少页,大概就有个数了。可现在不行了,AI让“努力的痕迹”彻底消失了,只剩下“思考的质量”,根本没法凭表面判断。
如果是为了检验他的真实能力,我不得不追问:“这里面到底有多少是你自己写的?”或者直接问“你用的什么提示词?”;如果只是为了拿到最终结果,我又得费脑子想,用什么标准去衡量这份产出,是不是真的有用。

用AI的不止我们团队,其他部门也在大批量输出AI生成的报告。很多报告长篇大论,看起来很专业,可仔细一看,全是“听君一席话,如听一席话”的废话,没一点实际价值。
以前手写打字,哪怕是说废话,也得费点体力,所以大家不会随便写。现在有了AI,生成废话的成本几乎为零,废话就越来越多了。
当每个人产出内容的成本都趋近于零,我们消费这些内容的成本就暴涨了——要花大量时间筛选有用信息。没办法,只能用魔法打败魔法,再用AI去总结这些报告,直接把结论提炼出来给我看,不然根本看不完。
可即便这样,心里还是慌慌的:AI说的这个观点挺新鲜,但会不会是幻觉?不试一下,万一错过了好机会,领导要是看到了,我没跟上怎么办?AI给的内容这么多,有没有更好的新工具,能直接总结好、判断出结论?

这段时间用下来,我有个新发现:其实各个大模型的能力都差不多,关键不在于模型本身,而在于它能不能记住上下文,能不能了解我之前说的话、做的事。
为了让AI更好地帮到自己,我们开始做一件以前根本不需要做的事——不断把自己“讲清楚”。
回想以前用搜索引擎的时候,我们只需要输入几个关键词,系统就会反推我们的需求。那时候,我们是“隐藏意图”的,不用把话说全,机器也能猜个大概。即便这样,大数据也能从只言片语里,精准“猜你喜欢”。

可现在不一样了,想让AI给出准确的结果,必须把所有细节都说清楚:背景是什么、目标是什么、有什么限制条件、用在什么场景,说得比跟人沟通还详细,就像美剧里去看心理医生,絮絮叨叨说个没完没了,只为了让AI“懂我”、“喜欢我”,给出我想要的答案。
就连给团队布置任务,我发现自己也越来越像在写AI提示词,要求信息完整、结构清晰,不能有一点歧义,就怕他们理解错。同时,我也不自觉地期待团队能像AI一样,快速响应、稳定输出,还能24小时在线,不偷懒、不犯错。
有时候会觉得,再这么下去,我们都快向三体人发展了——越透明,效率越高。可转念一想,人真的应该完全透明吗?
那些模糊的、矛盾的,甚至是自我欺骗的部分,可能正是我们创造力的来源,也是我们最后的心理安全区。就像三体故事里,人类就是靠那些隐晦的故事和比喻,才制衡了比我们高效得多的三体人。
如果我们完全透明,把自己压缩成AI能理解的数据,是不是也意味着,我们会被AI彻底看穿,一点隐私和自我都没有了?

昨天我把QCLAW卸载了,虽然安装起来很方便,但用着真不省心。比如我设置了每天发送新闻简报的定时任务,测试的时候好好的,可实际却没发送。查了半天,才知道要设置微信ID,跟它沟通了半天,它才找到我的ID。
其实这件事本不该发生,微信难道不应该比我更清楚我的微信ID是什么吗?当然,我相信这类问题以后肯定能解决,QCLAW也会越来越好用,但这件事本身提醒了我:我和AI之间,又多了一层中间环节。
假如我要对AI透明,那我也得对QCLAW透明。就算有什么隐私保护机制,大趋势也一定会是让我把所有数据和内容,都放到这个平台的云上,这样操作起来才更无缝、更高效。
到最后,我的思维模式会沉淀在平台的技能里,我的历史数据会留在平台上,我的沟通方式也会越来越像一个AI代理。

现在在企业里,大家都在说,每个员工都需要一个AI代理。我觉得,用不了多久,就会变成每个岗位都需要一个AI代理;再往后,可能每个岗位本身,就是一个AI代理。
那一个很自然的问题就来了:未来,员工的职责,会不会就变成“维护这个岗位的AI代理”?
我不知道答案。但我越来越觉得,这个问题的答案,不取决于AI有多强大,而取决于我们怎么看待那些AI做不到的事。
那些模糊的、不透明的、说不清楚的东西——比如写一首好诗,比如讲一个让人记住的故事,AI好像一直都做不好。
这到底是AI暂时的缺陷,还是人和AI之间,某种更根本的界限?
我现在,还没有答案。


特别声明:

转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与英琦科技的立场无关。如有任何疑问或了解更多,请与我们联系。电话:05356752331 邮箱:1041038439@qq.com

留言咨询

*
*
*
*
*
提交