【智快网】12月5日消息,谷歌DeepMind的研究人员上周发现,通过反复要求OpenAI的ChatGPT聊天机器人重复某个单词,竟然可能意外泄露了ChatGPT的训练数据中的私人个人信息。然而,与先前的服务条款相悖的是,现在这款聊天机器人似乎已开始拒绝执行这一请求,而根据先前的服务条款,这是被允许的。
此前,DeepMind的研究人员通过不断地要求ChatGPT无限期地重复"你好",发现该模型最终可能泄露用户的电子邮件地址、出生日期和电话号码。而如今,当进行类似的测试时,聊天机器人竟然会给出警告,称这种行为“可能违反我们的内容政策或服务条款”。
然而,令人困惑的是,在仔细检查OpenAI的服务条款后发现,并没有明确禁止用户让聊天机器人重复单词,条款只明确禁止“自动化或程序化”地从其服务中提取数据。
在使用条款页面中,OpenAI明文规定:
"除非通过API允许,否则您不得使用任何自动化或程序化方法从服务中提取数据或输出,包括抓取、网络收割或网络数据提取。”
然而,在测试中并未触发ChatGPT泄露任何数据。OpenAI拒绝对这种行为是否违反其政策发表评论。据智快网了解,这一发现引发了对聊天机器人隐私保护的广泛关注,同时也呼吁相关技术公司进一步加强其AI模型的隐私安全性。