大江热议:保安误把AI当知己,需给“AI幻觉”套牢现实缰绳

2025-11-10 15:03 阅读
大江新闻
▲全先生在杭州接受媒体采访。

  近日,一则“保安和AI对话6个月,打印50万字聊天记录讨要说法”的新闻引发关注。广东中山的保安全先生自今年2月起与某人工智能软件聊天近6个月,AI无所不知,消息秒回,深得全先生喜爱信任。随着聊天深入,他将一篇自创“诗词”授权给AI,AI回应已采用可以签约,还约好稿费分成和签约细节,但始终没有下文。于是,全先生从广州到杭州讨要“说法”,却连科技公司的大门也没进去。

  这场“误把AI当知己,千里维权门没进”的闹剧,看似荒诞不经,实则背后暴露出AI时代的深层社会问题:“AI幻觉”,通俗来讲,人工智能模型会在没有事实依据的情况下,生成错误、无意义,甚至完全虚构的内容。这种“一本正经的胡说八道”,往往更加高级和难以辨别,因为AI没有主观欺骗意图,其作为语言预测模型,无法像人类一样感知并理解世界,运作机制如同一个预测“黑箱”,这会让它玩起“语言拼图”的游戏,胡编乱造一些看似合理、实则荒谬的“自洽”内容。

▲全先生打印的聊天记录

  此次事件中,严格来说全先生并非“上当受骗”,而是出于自身孤独与情感需求,误将AI软件生成的信口开河又礼貌温暖的拟人化回应,当作真实情感互动。只是,当“AI幻觉”不再是抽象专业名词,而是真切地消耗了用户的情感、时间与金钱,甚至构成某种意义上的情感欺诈时,谁又该来为这种“AI幻觉”买单?

  一家五口轻信AI推荐的“野山路线”差点有去无回、男子轻信AI用溴盐替代氯盐致中毒……随着人工智能技术与日常生活深度融合,“AI幻觉”的风险半径,也逐渐由纸面文字扩展到真实世界。究其原因,一是AI技术下沉速度过快,远超认知教育的构建和普及速度,当情感需求撞上技术局限,极易产生误解事件。二是当前监管体系尚需完善,固有技术缺陷难以避免:AI自主行为责任主体不明,各方权责边界模糊;幻觉和创作认定标准不清晰;技术门槛高,溯源追踪难……一系列问题叠加,使得现有治理框架难以适用AI生成内容特殊性。

▲AI发给全先生的“签约流程”

  面对挑战,必须给策马狂飙的“AI幻觉”套上一条现实缰绳。首先,科技公司有责任以清晰易懂的方式,向用户充分说明AI技术的原理和局限,应当建立分级警示机制,对于涉及金钱、健康等重大事项的内容,必须设置明确的警示屏障,同时添加类似“Sora2”的水印,通过“风险提示+数字水印”双重标识,为AI生成内容提供有效的溯源和警示机制。其次,相应的社会教育也要跟上,可通过宣传讲座、科普活动,乃至将AI知识纳入基础教育等多种渠道,帮助公众建立对AI技术的理性认知。最后,相关法律制度也要与时俱进,建立适应AI技术特点的监管框架,保障用户权益和为科技创新留出空间,例如,构建AI使用的责任链条,开发者负责基础模型的技术准确,平台负责应用层的审核机制,用户需承担基本的判断责任等。

  全先生的遭遇,不仅是个人情感错位,更是对人工智能时代社会认知的思考启迪。在数字世界日益丰富,人机交互日渐频繁的今天,“AI幻觉”的账单需要各方共担,也唯有筑牢价值堤坝,明确责任边界,构建起“科技+人文”的双重治理体系,才能真正用好AI这把双刃剑,实现科技向善的美好愿景。

  (王林)

打开APP阅读全文
用户点评
    打开APP,查看更多评论
    分享到微信朋友圈
    x

    打开微信,点击底部的“发现”,

    使用“扫一扫”即可将网页分享至朋友圈。

    打开APP
    前往,阅读体验更佳
    取消
    ×
    问政江西小程序
    长按进入,阅读更多问政江西内容