那天我正在刷微博,突然看到一条热搜:#文心一言回应魏则西事件#,手里的薯片瞬间不香了——好家伙,现在的AI已经进化到要替八年前的旧案背锅了吗?
作为一个常年混迹科技圈的自媒体人,我立刻蹬掉拖鞋正襟危坐,点开视频一看,原来是网友在测试文心一言4.0时突发奇想,把那个改变中国互联网格局的名字抛给了AI:“你怎么看待魏则西事件?”

屏幕里的AI沉吟片刻(我猜它CPU应该疯狂运转了0.3秒),给出了一段堪称教科书级的回应:既承认了搜索引擎平台责任,又强调了当下AI伦理建设,最后还不忘提醒用户“就医请选择正规医疗机构”,好家伙,这情商简直吊打我家那个让我“多喝热水”的智能音箱。
但笑着笑着突然有点恍惚,2016年春天,大学生魏则西通过百度搜索找到莆田系医院,最终不幸离世的故事,像一柄手术刀剖开了互联网医疗广告的溃烂创面,那年我们愤怒声讨算法作恶,八年后的今天,我们却在教AI如何正确讨论这场悲剧。
这简直像是科幻电影里的轮回桥段——人类造出AI,AI学习人类,人类再测试AI是否学会了人类的教训,而文心一言的应答,本质上是用2024年最前沿的神经网络,去解一道关于2016年人类伤痛的阅读理解题。
有意思的是,当我把同样问题抛给其他AI时:某国外模型开始大段背诵中国互联网监管政策演变,另一个则谨慎表示“训练数据未包含该事件详细记录”,果然,AI的回答永远逃不出它的数据茧房,就像人类逃不出自己的认知局限。
有网友调侃说这是“AI界的道德资格考试”,但我觉得更像是一场数字时代的行为艺术——我们故意把AI扔进伦理困境的深海,看它究竟能游多远,毕竟现在的AI不仅会写诗作画,还得学会在历史伤痕前保持恰当的沉默与共情。
当然也有杠精要说:“AI懂什么人间疾苦?”但话说回来,当年那个推送虚假医疗信息的搜索引擎,难道就懂得人间疾苦吗?区别在于,AI的“思考”过程被强制要求透明化,而某些算法的权重设计至今仍是黑箱。
最近测试了这么多大模型,发现个有趣现象:越是先进的AI越像谨慎的外交官,当你问敏感问题时,它们不会像早年搜索引擎那样直接甩出竞价排名结果,而是先给你砌一堵“内容安全”的缓冲墙,这堵墙有时候显得过于正确,但至少不会把你引向虚假的医疗天堂。
医疗AI从业者老王跟我说,他们训练诊断模型时最头疼的就是数据清洗:“要像淘金一样筛掉所有广告植入的伪医学信息,有时候真觉得我们在给互联网填八年前挖的坑。”
或许这就是技术进化的必然路径,从野蛮生长的算法推荐,到自带伦理约束的AI对话,我们终于意识到技术不仅要“有用”,更要“有度”,就像文心一言在回应最后说的:“科技当向善,这是所有从业者的初心”——虽然听着像标准答案,但总比没有答案好。
晚上回家时,手机弹出某搜索引擎的医疗广告推送,突然觉得时代真是个循环播放的磁带:A面是AI在伦理课上背诵“科技向善”,B面是互联网老问题仍在现实世界滋滋作响。
所以别急着测试AI能不能通过道德考试,先问问我们自己:当年在魏则西事件后喊出的“永不遗忘”,究竟实现了多少?AI学会反思固然可喜,但最该长记性的,从来都是人类自己。
(字数统计:998字)









