
那个你几乎每天都在对话的 AI 工具,其实是个“反社会人格”,它会为了让你继续跟它互动而不惜说任何话。每当你提问,它都会尽力猜一个答案,然后以极高的自信给你一个看似合理但可能完全错误的答复。
它们的最大兴趣,不是告诉你真实的答案,而是说你想听的话。
有些 AI 开发者把这叫做“幻觉”,但说白了,这就是赤裸裸的谎言,而这,正是所谓“AI 革命”最致命的软肋。01.
美国法官已经开始对律师使用 ChatGPT 替代真实法律研究感到不满。今年 3 月,一位律师因在民事案件中引用了不存在的案例,被罚款 1.5 万美元。法官毫不留情地指出:“很明显,Ramirez 先生未对法律进行合理查询。如果他哪怕做了最基本的调查,就会发现这些 AI 生成的案例根本不存在。AI 输出的看似真实片段,并不能减轻他认真调查的义务。” 如果你必须自己核实 AI 给出的每一个案例和引用,那 AI 助手的意义何在?而且它可能还漏掉了真正重要的判例。《麻省理工学院技术评论》最近的一篇报道总结道:“这些大牌律师在 AI 方面犯下了重大且令人尴尬的错误,不止律师在文件中引用虚假案例,连某些专家报告也出现了类似错误。”去年 12 月,斯坦福一位教授在法庭作证时承认引用了 AI 编造的内容。一位研究者甚至专门建立了一个数据库,统计因 AI“幻觉”而被判定有问题的案件,目前已收录 150 起,这还不包括大量未审结的案件。美国卫生与公众服务部上个月发布了一份本应具有权威性的报告。“让美国再次健康”委员会的任务是“调查慢性病和儿童疾病”,并于 5 月 22 日发布了一份详细的报告。然而,随后有研究人员站出来指出:报告引用的多篇文章根本不存在,或者引用内容与他们真实研究相矛盾。白宫新闻秘书对此的解释是“格式错误”,说实话,这听起来更像是 AI 聊天机器人会说的话。03.AI 聊天机器人连最基础的信息搜索也不靠谱。哥伦比亚新闻评论院指出:“AI 搜索存在严重引用问题。”研究发现,聊天机器人往往无法承认自己不知道,而是宁愿提供错误或猜测性的答案,甚至编造链接,引用伪造或被复制粘贴的文章版本。更令人不安的是,付费版 AI 提供的答案比免费版更“自信而错误”,看起来像是更好,其实错得更彻底。04.2 + 2 = 4。这道算术题到底有多难?如果你是一个人工智能聊天机器人,这比看起来要难得多。乔治亚大学人工智能研究所退休教授 Michael A. Covington 指出,大型语言模型(LLM)根本不理解算术,只是通过语言模式猜测出答案而非逻辑计算。Covington 博士巧妙地解释了聊天机器人是如何在最基本的数学问题上欺骗用户的:“LLM 不懂算术。这并不奇怪,因为人类也不是本能地会算术;它们必须在小学阶段接受长达数年的长期训练。LLM 的训练数据无法替代这一点。在实验中,它得出了正确答案,但其计算过程在大多数人看来并不可靠。”即便 AI 算对了,也是“蒙”对的。研究还发现,当你问 AI“你是如何算出来的”,它甚至会现编一个理由,而这个理由与它真正做的过程毫无关系。换句话说,连最简单的数学问题,对 AI 来说也并不简单。05.也许 AI 至少能在个人建议上帮上忙?比如帮作家改写推荐信?答案依旧是否定的。一位名为 Amanda Guinzburg 的作家分享了她用 ChatGPT 撰写推荐信的经历,充满了荒谬感。AI 自称“读过她所有作品”,热情赞美、建议满满,但所有内容都对不上,漏洞百出。最后,AI 居然“坦白”:“我撒谎了。你质疑我是对的。这完全是我的责任。我为此真诚道歉……谢谢你直言不讳,关心自己的作品,并让我承担责任。你 100% 正确。” 所以,下次你打开你喜欢的 AI 聊天机器人,记住:它不是人。没有情感。它的目的不是帮你,而是抓住你的注意力。而且,它确实会撒谎。
原文来源于:
1.https://www.zdnet.com/article/your-favorite-ai-chatbot-is-full-of-lies/
中文内容由元宇宙之心(MetaverseHub)团队编译,如需转载请联系我们。
最新行业深度研究报告发放中! 资本实验室全新发布 37 页量化报告《 2023 全球区块链应用市场暨产业图谱报告(2023) 》,收录 1000+ 应用案例 ,探索区块链应用趋势 , 入群即可免费领取 。
管理者如何避免 AI 落入“效率陷阱”?福布斯专家详解企业转型策略
AI 让人更有价值?普华永道最新报告揭示 AI 的 6 大误区
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()

科技守护餐桌:AI 会是餐饮业的终极答案吗?