能点进来看的朋友,应该都发现了相同的问题。
为什么那些AI博主演示的强大的AI生产力工具,一到我们手里用起来就稀烂?
这事背后到底有什么奥秘呢?
先不说具体原因,我先和大家分享一个我今天用AI的小故事。
1 AI不太可信
今天看到一篇新闻,是关于anthropic这家公司在2025年的盈利分析。
不了解这家公司没关系,它的产品有可能你听说过,叫Claude。
我这个人有个特点,不太容易记住一些事,这家公司的创业史是怎样的我记不太清楚了,想了解下。
于是我就打开了一款AI产品,向它提出问题。
为了避免被说是抹黑企业,我们不提产品名字,只关注在问题本身的讨论上。
我的问题是:“anthropic是一家怎样的公司,创立过程是怎样的?”
AI马上基于我的问题开始了深度思考。
从思考过程来看,一切正常,我满心期待,等着AI输出结果。
然而,不出意外的是,意外出现了。
什么意外呢?我截取一段给大家看一下。
在介绍创始人部分,AI提及该公司的联合创始人之一,是Claude Shannon(克劳德·香农)。
然而综合它提出的人物线索:信息论之父、提出香农定律、参与早期计算机研发这些信息,我对这份输出内容产生了疑惑。
因为在我的印象里,符合这个特征的那位香农,应该早就去世了啊?怎么会穿越到2021年,去创立一家AI公司呢?难道是诈尸了?
由于实在是不太相信,我就去百度搜了一下,结果我的记忆没错,香农在2001年就已经去世了。
既然我的记忆没有出错,那么只能是ai错了,于是我开始了追问,“Claude Shannon不是早就死了吗,为什么这里被说成是联合创始人了”。
AI再次开始了全面深度思考与分析,然而我它的思考过程中又发现了一个新的问题。
什么问题呢?AI认为:Claude Shannon(克劳德·香农)死于2001年2月16日;而我通过百度百科和维基百科双信源核实,香农其实是死于2月24日。
AI竟然把大师给编排的少活了七八天…,至于错误的原因,Ai将其甩锅给互联网信源。
有维基百科和百度百科权威数据不取信,为什么没爬取呢?好奇怪。
当我以为错误到这里就完了的时候,ai又提及,anthropic这家公司的联合创始人之一为Claude Staple,任首席技术官(CTO)。
然而这个名字我也一点印象也没有,已经不太相信AI的我,于是遍历了anthropic官网,又找ChatGPT问了一遍,经过多轮核实,确定了Claude Staple只是AI瞎编出来的一个虚构人物。
幸好幸好,碰巧因为我做过20年IT,对香农多少有点了解,因此才对ai的回答产生了怀疑。
自己主动去核实了,才发现了AI的错误,而且还是一错错一片。
这也再次加深了我对这款AI产品现阶段的不信任。
以后搜集资料我是肯定不会用它了。因为核实它给我的资料是否准确,比我自己查百度更要费劲,时间上是一点也没节省。
2 AI为什么不好用
AI博主们告诉我们,只要学会AI,就能让人在职场里如虎添翼,什么脑图,PPT,商业计划,工作汇报,通过一个命令就可以一键生成,确实很震撼。
以至于不赶紧学点啥,就觉得马上要被职场淘汰,要被同行给卷死了。产生了恐慌、害怕的情绪,可以理解。
然而,照着这些AI达人们演示的步骤一步步学下来,我们总是又会惊讶的发现一个事实:
那些AI博主演示的强大的AI生产力工具,一到我们手里用起来变得稀烂,这是怎么一回事?
举个例子,比如用AI做PPT。
看AI达人的演示,只要写那么一句话,一个商业方案,一个工作汇报,立马就刷刷刷的全自动生成出来了。设计排版精美,内容详实丰富。
有了它,一键发给老板,3天的活儿5分钟搞定下班。
等我们去操作的时候,确实也是刷刷刷全出来了,然而内容都是看似华美,实则空洞,怎么也无法和自己的工作结合上。这是为什么呢?
最可能的原因之一,就是这些博主有个共性,都很年轻,没怎么上过班,他们真相信,用AI生成的PPT,真的拿来就能用,能糊弄领导,糊弄客户。
当然,这只是看问题看表面,背后还有更深层次的原因。
讲AI的人和学AI的人,都把AI的位置摆的太高了,认为AI是1,人是后边的0;但现实是,人应该是1,AI才是后面的那些0。
比如两个人,分别代表A、B公司,他们平时都用AI协助自己工作,那么,当他们在一块沟通需求的时候,是两个人在沟通呢,还是人背后的两个AI在沟通呢?
答案很明显,是人在沟通。这时候:
如果你本身业务能力就强,技能储备多,AI越能帮到你,往你后边加0,把你这个1变成10,变成100,变成10000,对你的技能成倍放大;
如果你是刚上班,工作经验少,太依赖AI,就相当于在1前面摆放0,摆了再多的0,结果还是1。
比如有些朋友原来就不会制作PPT,不懂PPT排版布局原理,也不会写商业计划方案,给你生成再精美的PPT也没用。
因为一你不会写方案,不会写也就不会改AI生成的方案,一个字都动不了;二你不会做PPT,不会做PPT也就不会改AI生成的PPT。
就像前文里我和AI的一场对话,碰巧因为我正好知道那个知识点,才没有被AI误导。
假使我不了解这块内容,直接把它的结果拿来就用会怎样?后果不堪设想。
发到网上顶多被懂的朋友笑话,删了隐藏了也就罢了;
如果是是工作中不假思索的引用到商业方案里,被甲方懂的人发现了,不仅会让甲方觉得这家公司不专业取消合作;
甚至单子丢了老板还要把你开掉,一毛钱赔偿都没有,因为你犯错失职了。
这时候你该怎么办呢?可以像AI回答我一样,轻飘飘的说一句,是AI给错了答案,把锅甩给AI吗?
抱歉,可能没有机会了。
这里还可以再举一个例子,我昨天刚写了一篇关于manus和通义千问合作的分析文章,评论区有位网友从别处截屏了一篇文章,想证明我讲错了,和通义千问合作的manus是一家荷兰芯片巨头公司。
这事明明错的离谱,但他就相信了,信誓旦旦的拿来和我对质,这说明了什么?
这个信息正好是他的知识盲区,但他就相信了,这是不是很可怕呢?
3 结论
所有AI产品的背后,都存在着一个相同的逻辑:都是从互联网爬取内容,喂给它啥就吐出来啥。
一旦源头信息错了,后面就全错了。
这就像人一样,吃了不干净的东西,好汉也架不住三泡稀。
所以,判别AI信息真假、对错,应用到工作生活里效果怎么样,最后都取决于你,你这个人。
在你还不够强大以前,AI帮不了你。
没有一个稳定的内核,会用多少AI工具并不会给你带来巨大竞争的优势;
反而可能会误导你,对自己、对别人产生很多错误的判断。
所以,我们更应该用更多时间,理解自己,包容自己,锻炼自己,提升自己,等待自己;
而不是把命运拱手交给一台黑盒子机器。
观自在菩萨,行深般若波罗蜜多时,照见五蕴皆空。
#烈焰童子说#
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.