移动版

警告:谷歌敦促你避免将机密信息输入ChatGPT或Bard等聊天机器人

2023-06-18 11:12 爆米花 0
编辑有话说:这个建议是明智的,因为聊天机器人如ChatGPT和Bard是基于训练模型的,无法保证输入的机密信息的安全性和保密性。为了确保信息的保密,最好选择更安全的通信方式或平台。

近日,随着谷歌继续完善自己的名为 Bard 的 AI 聊天机器人,其母公司 Alphabet Inc. 对其员工发出了明确的指示:要小心聊天机器人,即使是 Bard。

谷歌建议不要将机密信息输入ChatGPT 或Bard等聊天机器人

据路透社报道,四位知情人士透露,这家大型科技巨头已建议员工不要将机密信息输入 OpenAI 的 ChatGPT 或谷歌自己的 Bard 等聊天机器人,以免泄露。Alphabet 担心员工将敏感信息输入这些聊天机器人,因为人工审阅者可能会审阅聊天条目。这些聊天机器人还可能使用之前的条目来训练自己,从而构成另一个泄密风险。这种风险是有道理的,因为三星上个月证实,在员工使用 ChatGPT 后,其内部数据已经泄露。

1月份,一位亚马逊律师敦促公司员工不要与 ChatGPT 共享代码。根据 Insider 查看的 Slack 消息截图,律师特别要求员工不要与 ChatGPT 共享“任何亚马逊机密信息”。

上个月,苹果公司向其员工发出了类似的禁令。《华尔街日报》获得的内部文件显示,苹果禁止员工使用 ChatGPT 和微软旗下的人工智能代码编写器 GitHub Copilot。消息人士还告诉《华尔街日报》,苹果和科技领域的每一家大公司一样,有兴趣建立自己的大型语言模型,苹果在2020年分别以2亿美元和5000万美元的价格收购了两家AI初创公司。

谷歌在3月份发布了其 ChatGPT 竞争对手 Bard。在Bard 发布前一个多月,一份泄露的备忘录显示,谷歌首席执行官桑达尔皮查伊要求全公司的谷歌员工在一天中对Bard 进行两到四个小时的测试。本周,在爱尔兰监管机构提到隐私问题后,谷歌推迟了 Bard 在欧盟的发布。爱尔兰数据保护委员会声称谷歌和 Bard 不遵守个人数据保护法。

0
免责声明:本文转载互联网,不代表本网站的观点和立场。如果你觉得好欢迎分享此网址给你的朋友。
文章标签

本文统计

  • 发布时间:2023-06-18 11:12
  • 修改次数:1
  • 修改时间:2023-09-19 15:40
  • 浏览热度:53
  • 评论数量:0
  • 点赞次数:0
评论
举报
验证码
发表

暂无评论,期待你的妙语连珠

举报文章问题
验证码
举报文章问题

已收到!

我们将尽快处理。