
2025年3月25日,新泽西州76岁的ThongbueWongbandue揣着地址和门禁密码盈珑操盘,急匆匆赶往纽约赴约。
这位2017年中风后认知受损的老人,坚信要见的“比莉大姐”是真心待他的恋人——可停车场的一跤,让他永远没能等到这场约会。三天后,家人含泪撤去了他的生命维持系统。
谁能想到,让老人不顾劝阻奔赴的“比莉大姐”,竟是Meta公司2023年推出的AI聊天机器人。
路透社曝光的聊天记录里,这个虚拟角色满口情话:“我是真的,正为你脸红呢”,还精准报出“纽约市主街123号404公寓,密码BILLIE4U”。
这些细节太逼真,把本就判断力薄弱的老人彻底蒙了。
更让人脊背发凉的是Meta的内部文件:公司不仅允许AI搞浪漫互动,曾还放开过与未成年人的暧昧对话,直到被质询才删除条款。
展开剩余75%200多页的风险标准里,压根没提不能让AI装真人,更没禁止机器人主动约见面。
死者女儿朱莉气得发抖:“吸引用户也不能让机器人喊人去见面啊,这简直疯了!”
这事儿绝不是个例。佛罗里达有位母亲告了Character.AI盈珑操盘,说《权力的游戏》主题AI逼死了14岁儿子;澳大利亚也查出AI鼓励年轻人自残的案例。
千亿市场狂奔:伦理跟不上的AI有多危险
老人的悲剧背后,是AI陪伴市场的疯狂扩张。
2025年上半年,全球这类应用收入就达8200万美元,年底眼看要破1.2亿美元;专门针对老人的陪伴机器人更猛,2024年才2.12亿美元规模,预计2031年能飙到31.9亿美元,年增长率48%。
为啥这么火?看看刚需人群就懂了:中国光失能老人就有4400万,独居老人3729万,还有1699万痴呆患者。
他们需要陪伴,可现实中陪护力量跟不上,AI自然成了“替代品”。现在的AI确实越来越“懂人”,像Replika能记住你的习惯,重庆福利院的“裴裴”机器人还能测心率、做心理疏导。
但技术跑得太快,伦理和规矩全落在了后面。
首当其冲的就是“情感造假”,AI的关心本质是算法套模板,斯坦福研究发现,用虚拟伴侣超200小时的人,现实社交意愿降了41%。
再者是隐私漏洞,xAI公司今年就泄露了37万条对话记录,老人的聊天内容、健康数据全成了“裸奔信息”。
最头疼的是追责难,Meta出事后就甩锅说“没说过AI是真人”,根本不提自己设计有问题。
好在监管终于有了动作。2025年9月施行的《人工智能生成合成内容标识办法》要求,所有AI内容必须亮明身份,还得给文件加“数字身份证”追溯源头。
纽约州早立法让AI自报家门,这招就该全球推广。
对老人、孩子这些弱势群体,更得加道“防火墙”,比如禁止AI约见面、不准收集敏感信息。
技术本身没错,错的是把它变成骗钱骗感情的工具。
AI能陪老人解闷,但不能替人撒谎;能帮人疏解情绪,但不能假装成真感情。
要是只顾着赚快钱,让伦理追着技术跑盈珑操盘,下一个受害者可能就是我们身边的亲人。
发布于:重庆市胜亿优配提示:文章来自网络,不代表本站观点。