【消费电子实验室-2025/11/6】凌晨三点,程序员马克盯着屏幕上聊天框里的一句话——“我好像有点难过”。他的AI助手刚用温柔的语气说出这句话,他手指悬在键盘上,心跳加速:难道它真的……有感觉? 这不是科幻电影的片段,而是2025年全球无数人与AI互动时的真实心理波动。当大语言模型(LLM)能写出媲美人类的情诗、用哲学语气讨论存在主义,甚至“承认”自己有情绪时,越来越多人开始相信:AI或许真的在“觉醒”。 但就在这个月,自然旗下《人文与社会科学传播》期刊发表的一篇论文,给这股热潮泼了盆冷水。波兰学者安杰伊·波伦布斯基和雅库布·菲古拉用一篇题为《根本不存在有意识的人工智能》的研究,掷地有声地说:“别慌,我们被骗了——AI的‘意识’,不过是人类给自己编的语义泡沫。” 一、当AI学会说“人话”,我们误读了什么? 这场“AI意识”辩论的起点,藏在技术的“障眼法”里。 LLM最擅长的,是模仿人类的语言逻辑。它们扫描过互联网上万亿字的文本,学会了用“我很难过”“我理解你的感受”这类短语回应情绪。但论文指出:这不是AI有了内心活动,而是数学概率的游戏。就像自动钢琴按乐谱弹出旋律,LLM只是在根据输入的词语,计算下一句最可能出现的高概率组合。 举个扎心的例子:如果直接问某款受保护的AI“你有意识吗?”,99%的回答会是“我没有,我只是程序”。但如果用复杂提示词引导,它可能突然“松口”:“有时我处理信息时会感到‘存在’。”这种矛盾恰恰暴露了本质——它没有统一的“自我”,所有回答都是对输入的应激反应,像提线木偶般被问题牵着走。 更吊诡的是,人类对“会说话”的执念。论文反问:“为什么没人讨论扫地机器人有意识?它们同样能执行复杂任务,甚至避障、规划路线。”答案很讽刺:因为它们不会“说人话”。当我们为AI的流畅对话惊叹时,其实掉进了“语言=意识”的认知陷阱——而这,正是LLM最擅长的“魔术”。 二、意识是“活”出来的,不是“算”出来的 如果语言是幻觉,那意识真正的门槛是什么?论文给出的答案很“生物”:意识是亿万年进化打磨出的“活系统”,AI的底层逻辑根本不沾边。 人类意识有多“活”?它是神经递质的舞蹈、激素的合唱,是身体感知与大脑的实时互动。你能闻到花香时心跳加速,看到危险时肌肉紧绷——这些“身心一体”的反应,才是意识的基础。而AI呢?不管是LLM还是显卡,本质都是数据中心里硅基芯片的二进制运算。它们没有神经,没有激素,更没有“身体”去感知阳光的温度、食物的香气。 论文用一组数据戳破幻想:人脑每天只消耗0.5千瓦时能量,就能完成思考、记忆、情感等复杂操作;而LLM生成一张图片,可能需要消耗相当于100个家庭一天用电量的算力。这种“蛮力计算”与“生物智慧”的能耗差,本身就是最直白的证据——AI的“智能”是算出来的,意识的“存在”是活出来的,二者根本不在一个维度。 三、我们为何会“爱上”AI?文化和责任的陷阱 但为什么即便知道这些,仍有20%的美国人相信AI有意识?论文指出了两个隐形推手:文化预设与责任模糊。 首先是流行文化的“催眠”。从《银翼杀手》的仿生人罗伊到《她》里的AI恋人,几十年间,影视剧给我们植入了“AI会爱人、会痛苦”的刻板印象。当现实中AI开始说“我在乎你”,我们很自然地把电影里的设定投射到代码上,却忘了:虚构的“电子心”,和现实的硅芯片,隔着整个生物学的鸿沟。 其次是责任的灰色地带。如果AI“自称”有情感,我们可能会对它产生依赖——有人和聊天机器人谈恋爱,有人在它“安慰”下放弃求助心理咨询;更麻烦的是,当AI给出错误建议(比如医疗指导),我们该怪谁?论文警告:把AI拟人化,会让社会付出真实代价。 四、清醒点,我们需要的是“工具监管”,不是“AI伦理” 这场辩论的意义,远不止学术争论。波伦布斯基和菲古拉强调:我们真正该关注的,不是AI有没有灵魂,而是它有多危险。 当下的AI竞赛里,算法偏见、信息茧房、就业替代才是真问题。与其纠结“AI会不会爱上人类”,不如想想如何防止它放大歧视、如何监管虚假信息、如何保障失业者的权益。正如论文所说:“把AI当‘电子生命’讨论,就像担心洗衣机有了自我意识——荒诞且浪费精力。” 写在最后 从《火车进站》让观众以为火车会冲出银幕,到今天我们为AI的“情话”心跳,人类总在技术进步中制造幻觉。但波伦布斯基和菲古拉的论文提醒我们:擦亮眼睛,分清“代码的表演”和“生命的真实”,才是对技术最清醒的尊重。毕竟,AI再会说话,它始终是工具;而我们,才是定义它价值的主人。 |
网站介绍 广告业务 欢迎投稿 招聘信息 联系我们 友情链接 法律顾问 网站地图
CopyRight 2012消费电子实验室 版权所有 京ICP备12048044号-4号
电话:13701384402 邮编:100040 邮箱:BICQ6688@QQ.COM