隐私泄露风险后,ChatGPT更新服务规定禁止用户反复请求

   发布时间:2023-12-05 10:12

【智快网】12月5日消息,谷歌DeepMind的研究人员上周发现,通过反复要求OpenAI的ChatGPT聊天机器人重复某个单词,竟然可能意外泄露了ChatGPT的训练数据中的私人个人信息。然而,与先前的服务条款相悖的是,现在这款聊天机器人似乎已开始拒绝执行这一请求,而根据先前的服务条款,这是被允许的。

此前,DeepMind的研究人员通过不断地要求ChatGPT无限期地重复"你好",发现该模型最终可能泄露用户的电子邮件地址、出生日期和电话号码。而如今,当进行类似的测试时,聊天机器人竟然会给出警告,称这种行为“可能违反我们的内容政策或服务条款”。

然而,令人困惑的是,在仔细检查OpenAI的服务条款后发现,并没有明确禁止用户让聊天机器人重复单词,条款只明确禁止“自动化或程序化”地从其服务中提取数据。

在使用条款页面中,OpenAI明文规定:

"除非通过API允许,否则您不得使用任何自动化或程序化方法从服务中提取数据或输出,包括抓取、网络收割或网络数据提取。”

然而,在测试中并未触发ChatGPT泄露任何数据。OpenAI拒绝对这种行为是否违反其政策发表评论。据智快网了解,这一发现引发了对聊天机器人隐私保护的广泛关注,同时也呼吁相关技术公司进一步加强其AI模型的隐私安全性。

 
 
更多>同类内容
全站最新
热门内容
本栏最新
 
智快科技微信账号
ITBear微信账号

微信扫一扫
加微信拉群
电动汽车群
科技数码群