据《华尔街日报》报道,一份苹果内部文件显示,苹果禁止内部使用 ChatGPT 和类似产品。根据该文件,苹果的担忧与其他禁止在内部使用 ChatGPT 的公司一致,即 AI 可能会泄漏与其共享的敏感内部信息。
除了 ChatGPT,苹果还禁止使用 GitHub 的自动编码工具Copilot。有消息称,苹果很可能正在开发自己的 AI 大模型,与 ChatGPT 和 Google Bard 竞争。
目前,已经有不少公司宣布禁止员工在内部使用 ChatGPT,如三星、摩根大通、美国银行、花旗集团、德意志银行等。
其中,三星曾两次宣布禁止内部使用 ChatGPT。今年 3 月前,三星曾宣布禁用 ChatGPT,3 月份,三星解除了这一禁令。据外媒报道,三星引入 ChatGPT 不到 20 天就发生了 3 起涉及 ChatGPT 的事故。三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。其中,两起与半导体设备有关,另外一起与会议内容相关。
在设计晶片设备的事件中,三星半导体事业暨装置解决方案部门(Device Solutions,即 DS)的一名员工在测试设备下载软体的过程中,将出现问题的原始代码复制到 ChatGPT,并向其请教解决办法,但这一操作反而让三星设备测量相关的原始码成为 ChatGPT 学习资料。另一起则是有员工为了解设备良率等相关资讯,将程式码输入 ChatGPT,要求其优化代码。
虽然是保密工作,但为了尽量提高效率、为公司节约时间以测试和验证处理器,最终降低开发成本,三星还是决定允许员工使用外部 AI 服务。
第三起则是,有员工使用 ChatGPT 将会议记录转换成演示文稿,但其中却涉及大量三星明显不希望对外透露的内容。
三星本月早些时候重新实施了 ChatGPT 禁令,以防止类似事件再次发生。
ChatGPT、谷歌 Bard 和 LLM 机器人的问题在于,输入到它们的数据往往被用于进一步培训这些机器人,英国情报机构 GCHQ 警告称,如果其他人提出类似问题,这些数据很容易导致机密商业信息被回流。
此外,ChatGPT 等产品还存在软件漏洞问题。今年 3 月,OpenAI 承认开源库中的一个错误 redis-py 导致其他用户可以看到人们与 ChatGPT 的一些谈话。卡巴斯基首席数据分析师 Vlad Tushkanov 告表示,这个错误应该提醒我们,LLM 聊天机器人不会为用户提供任何真正的隐私。
“ChatGPT 在登录时警告说‘对话可能会被我们的 AI 培训师审查’……因此从一开始,用户在使用 ChatGPT 网络演示时就应该对隐私抱有零期望,”Tushkanov 说。
针对这些质疑,OpenAI 也正在做出改进。今年 4 月,OpenAI 为 ChatGPT 用户添加了禁用聊天记录的功能,这不仅可以在 ChatGPT 界面的侧边栏中隐藏聊天记录,还可以防止禁用历史记录的聊天记录被用于训练 OpenAI 的模型。
OpenAI 表示,当历史记录被禁用时,它仍会保留对话 30 天,并且它有能力“在需要监控滥用情况时,在永久删除之前”对其进行审查。
“我们希望这提供了一种比我们现有的退出流程更容易管理数据的方法,”OpenAI 在公告中写道。该公司补充说,用户可以随时更改他们的聊天记录设置。
在同一份声明中,OpenAI 还表示将很快推出商业版的 ChatGPT,让企业能够更好地控制其数据的使用,OpenAI 表示这意味着 ChatGPT 商业对话不会用于培训其 LLM。
评论