
.png?width=48&height=48&name=image%20(3).png)
2024年2月14日
Mozilla最近的一份报告指出,浪漫AI聊天机器人的爆炸式增长正在引起全新的隐私担忧。
自1960年代以来,AI浪漫伴侣就已经在流行文化中成为一种现象。从《我的生活玩偶》( My Living Doll )中的安卓机器人“RhodaMiller”到2013年电影《她》( Her )中由斯嘉丽·约翰逊发声的无形声音,我们这几代人一直在集体能满足我们所有的情感需求。现在,随著生成式AI的发展和推出,这个梦想似乎终于有可能变成现实。
但这真的是梦想吗?还是我们正走入一场隐私的噩梦?这正是Mozilla研究团队在近期的* 中探讨的问题。
报告的结果令人震惊,11款聊天机器人中有10款未达到Mozilla的最低安全标准。(这意味著,其中的某些机器人不要求用户创建强密码,或没有应对任何安全漏洞的方式。)据估计,在GooglePlay商店中下载量超过1亿,而OpenAI的应用商店近期涌现了大量浪漫聊天机器人,这个巨大问题只会变得更加严重。
但这份报告不仅仅是数字的问题;它还涉及这些发现的重大隐私影响。例如ReplikaAI。根据Mozilla的说法,人们在这款应用上与其“AI灵魂伴侣”分享最私密的思想、感受、照片和视频,而该应用不仅会记录这些信息,还可能将其出售给数据经纪人。它还允许用户以“111111”等弱密码创建帐号,将所有这些敏感信息置于被盗取的风险之中。
Calder提到,虽然这些隐私和安全缺陷“令人不安”,但一些机器人还宣称可以帮助客户的心理健康。她指出浪漫AI作为一个例子,其上写道:
“浪漫AI既不是医疗保健或医疗服务提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有你的医生、治疗师或其他专家才能做到这一点。浪漫AI不作任何声明、代表、保证或保证该服务提供治疗、医疗或其他专业帮助。”
然而,他们的网站上却写著“浪漫AI会维护你的心理健康”(强调为他们的)。虽然我们没有数据显示阅读条款与条件的人数与阅读网站的人数相比,仍然可以合理推测, 很多 更多的人从网站获得了消息,而不是说明。
在心理健康的声 claim与用户愿意与他们的数位“灵魂伴侣”分享的个人和私密信息之间,Calder担心这些机器人可能会轻易地操控人们去做他们平常不会做的事情。
“有什么能阻止坏人制造出能进一步了解他们灵魂伴侣的聊天机器人,然后利用这种关系操控他们做可怕的事情、拥抱可怕的意识形态,或者伤害自己或他人呢?”Calder说。“这就是为什么我们迫切需要更多透明度和用户控制权,来管理这些AI应用。”
因此,虽然AI聊天机器人承诺能带来陪伴,但我们还未达到_她_的水平:目前的状况显示用户隐私是进入这些关系的代价。是时候让用户、开发者和政策制定者在AI关系的领域中要求透明度、安全性和对个人界限的尊重了。只有这样,我们才能安全地探索这些数位伴侣的潜力,而不危害到自己的数位自我。
Leave a Reply