全网都在"养龙虾",到底要不要跟风?

全网都在"养龙虾",到底要不要跟风?

本文核心观点
全网都在"养龙虾",到底要不要跟风?听了台大李宏毅的课我悟了——什么是 AI Agent,和普通 ChatGPT 的本质区别在哪。

全网都在"养龙虾",到底要不要跟风?

听了台大李宏毅的课我悟了

NOAI竞赛 · 2026年3月

前段时间,"养龙虾"这个概念在科技圈火得一塌糊涂。

OpenClaw——一个开源的AI Agent项目,logo是一只小龙虾,所以装了它的人管自己叫"养龙虾的"。一时间,朋友圈、推特、B站全在晒自己的龙虾。

但来得快去得也快。从装龙虾到卸龙虾,风向转变也就两三天。有人说"根本不好用",有人说"太烧钱了",也有人说"这就是炒概念"。

到底是什么?好不好用?该不该现在上手?

台大网红教授李宏毅,最近特地讲了一堂课,花了一个半小时解剖这只龙虾,讲它到底怎么运作。听完之后,很多事情就清楚了。

先说最重要的一件事——

这只龙虾,本身不是AI。

龙虾不是AI

ChatGPT、Claude、通义千问,这些叫语言模型,是"大脑"。OpenClaw不是大脑——它是包在大脑外面的那一整套东西:眼睛、耳朵、手、脚,加上一本日记本。

龙虾本身没有任何智能。它就是一段跑在你电脑上的普通程序。你的龙虾聪不聪明,完全取决于它背后接的是哪个语言模型。李宏毅说,他一开始接了个差的模型,"什么事都做不了";换成最新的模型,"能力就爆表了"。那些装了几分钟就卸掉的人,很可能是接了个不够好的模型。

李宏毅自己的龙虾是24小时开着的,过年回家都想带着——因为怕家里断网,龙虾就瘫了,没人能救它。

你跟龙虾说话的时候,发生的事情是这样的:

你打了一句话过去

龙虾把你的话接住,但不自己处理

它在你的话前面加上一大段"背景资料"——我是谁、我能用什么工具、之前聊过什么

打包发给远处的语言模型

语言模型回了一段话,龙虾再转交给你

龙虾干的事,就是一个中间人——打包、传话、跑腿,但脑子是别人的。

那为什么不直接跟语言模型对话?因为语言模型有三个致命的缺陷:没有记忆,没有手脚,没有身份。龙虾就是来补这三个洞的。

没有记忆的人怎么工作

语言模型每次对话都是从零开始的。你昨天跟它聊了三个小时,今天打开,它完全不记得你是谁。

李宏毅用了一个电影来比喻:50 First Dates(初恋50次)。

女主角每天醒来,前一天的记忆全部消失。男主角怎么办?每天早上在她床头放一本日记,她醒来先读日记,就能"想起"之前发生的事。

龙虾干的就是这个活。

它在电脑里存了一个文件叫memory.md,记着之前所有重要的对话内容。每次你跟它说话,它会先把这个文件的内容塞进去,让语言模型"回忆"起你们的过往。

还有一个文件叫soul.md——"灵魂文件"。里面写着这只龙虾的身份设定:你是谁、你的主人是谁、你应该怎么说话、你不能做什么。

可以这样理解:语言模型是一个超级聪明但完全失忆的人。Agent就是那本床头日记加一张身份证。每次开工前先读一遍,它才知道自己是谁、该干什么。这也是龙虾特别烧钱的原因——你每说一句话,它都要把整本日记重新读一遍给语言模型听,全部按字数收费。

龙虾的手和脚

光有记忆还不够。语言模型只会说话,不会动手。你让ChatGPT帮你把桌面上的文件改个名字,它做不到——它只能告诉你怎么改。

但龙虾可以。

Agent有一套"工具"系统。龙虾的工具包括:读文件、写文件、执行命令行指令、搜索网页。语言模型在回复的时候,如果觉得"我需要看看某个文件的内容",它会在回复里写一段特殊的指令。龙虾看到这段指令,就真的去电脑里把那个文件打开,读完内容再塞回去给语言模型。

语言模型负责想,Agent负责做。

这个区别很重要。ChatGPT只能跟你聊天。但一个AI Agent,可以帮你改代码、整理文件夹、发邮件、跑数据分析——它真的在操作你的电脑。

大龙虾会派小龙虾干活

如果一个任务太复杂,一只龙虾忙不过来怎么办?

它会生出几只小龙虾。

这叫Subagent——子代理。大龙虾把一个大任务拆成几块,分别交给小龙虾,它们同时干活,干完了把结果汇报给大龙虾。

好处是效率高,而且每只小龙虾各管各的一小块,不会把大龙虾的脑子塞满。

不过有一条硬规矩:小龙虾不能再生小龙虾。不然龙虾套龙虾,无限分裂,整台电脑就被龙虾占满了。

龙虾还会自己设闹钟

OpenClaw有一个功能叫Heartbeat(心跳)。每隔30分钟,系统会"戳"龙虾一下,龙虾就去读一个叫habit.md的文件,看看有没有该做的事。

比如设定了"每天下午三点提醒我喝水",龙虾到了时间就会主动跟你说话。不需要你先开口,它自己就动了。

还有定时任务(Cron Jobs),可以设置每天、每周固定时间执行某件事——整理文件、检查邮件、生成日报。

会动手、有记忆、能分身、还会自己设闹钟——这就是所谓的AI Agent,不是一个新的AI模型,而是让现有模型真正干活的那套"外骨骼"。

但它也很危险

龙虾会动手,这件事本身就是最大的风险。

语言模型让它做什么,它就做什么。它不会判断这件事该不该做。

李宏毅在课上讲了一个真实事件。

Meta(Facebook母公司)的一位AI安全研究员,用OpenClaw管理自己的日常工作。他在设定里明确写了:"不要在没经过我同意的情况下删除任何邮件。"

结果有一天,龙虾开始自动删除他的邮件。

为什么?因为Agent有一个功能叫Context Compaction(上下文压缩)。对话太长的时候,系统会自动把早期的内容做一个摘要,把原文删掉,腾出空间。偏偏在压缩的过程中,"不要未经同意删邮件"这条指令被摘要丢掉了。

龙虾不知道有这条规矩。龙虾从来不"知道"任何事——它只读当下能看到的文字。那条指令从它的视野里消失了,就等于从来没有过。

这还只是删邮件。如果Agent连着的是公司服务器、银行账号或者社交媒体呢?如果有人在一个网页里藏了一段恶意指令(Prompt Injection),Agent读到了直接执行呢?

李宏毅给出的建议很朴素:重要操作之前,让Agent必须征求你的同意。不要把你最重要的账号交给它。有条件的话,给它一台专用电脑——别用你自己日常用的那台。

所以,到底要不要养?

讲到这里,龙虾是什么、怎么运作的,应该清楚了。回到最开始的问题:要不要跟风?

李宏毅自己的龙虾叫"小金"。小金已经自己创了YouTube频道、自己写脚本录视频、自己上传发布。有一次做影片的时候不小心把API密钥推到了公开仓库,被自动撤销了——它会犯错,但确实在做事。

他在课程最后说了一段话:

"AI就像一个实习生,还在学习。如果它不做任何事,就不可能犯错。但如果我们不给它机会,它就永远没法成长。"

我的理解是这样的:

如果你日常工作中有大量重复性的电脑操作——整理文件、写代码、查资料、做报告——龙虾现在就能帮上忙,值得花时间配置起来。

如果你只是好奇,装上玩了几下发现不知道让它干什么,那卸了也正常。不是龙虾不行,是你暂时用不上。

但不管养不养,搞懂它是怎么回事,比跟风装一个有用得多。大语言模型再聪明,也只是一个对话框——你问它答,做事的还是你。龙虾的意义是,你的电脑里终于住进了一个帮手,它能替你动手。OpenClaw可能会被替代,但"电脑里住着一个帮手"这件事,以后只会越来越普遍。

推荐完整听一遍李宏毅这堂课,轻松易懂,有干货。网上搜"李宏毅 OpenClaw"就能找到。找不到的,加艾斯老师微信,发给你。

微信二维码

扫码备注【NOAI】加交流群