"); //-->
出于安全和数据方面的考虑,许多AI工具不再供员工使用。自定制版GPT上线以来,各路大神分享自己GPTs整活链接。结果有网友一个不小心竟扒出了其中某个GPTs背后知识库文件,里面各种科技大厂职级薪资的数据直接曝光……只需几句再简单不过的提示词,GPTs就会乖巧地如数上传。有网友表示:这是新的安全漏洞吗?不少人开始为企业定制担忧。值得注意的是,就连OpenAI最亲密盟友微软,都曾暂时取消过对ChatGPT的内部访问。数据和提示词都被泄漏按照之前的说法,用户可深度定制机器人的身份、语言特征,以及建立自有知识库。只需要在GPT Builder的引导之下用自然语言来描述,他能自动完成除了自有知识库以外的大部分设置。定制过后的GPTs可以自己用,也可以将链接分享给他人。但问题就出现在这里。一开发者用他们为Levels.fyi创建了基本GPT,可分析数据可视化,并开放链接对外使用。结果就被网友发现只需问上几句,就可以下载文件。一时间网友们都惊呆了:这应该是限制的吧?
出于安全和数据考虑,员工今后将无法使用部分AI工具。什么AI工具呢?点名的就是ChatGPT和设计网站Canva。而后,ChatGPT在微软员工的内部设备上被屏蔽。不仅如此,微软当时还表示,虽然咱确实投资了OpenAI,但对于微软人来说,ChatGPT是第三方工具。员工使用时应当慎之又慎,就像大伙儿使用Midjourney等外部AI工具时一样。不过这个禁止令并没有持续太久。很快,员工对ChatGPT的访问已经恢复,并且官方声明称,这只是一次美丽的误会,but还是推荐大家用Bing(doge)。
我们正在测试LLM的终端控制系统,无意中面向所有用户开启了该选项。在发现错误后不久,我们恢复了服务。> >正如我们之前所说,我们鼓励员工和客户使用Bing Chat Enterprise和ChatGPT Enterprise等具有更高级别隐私和安全保护的服务。不知道是不是为了打破外界“貌合神离”的传言,奥特曼还亲自发了个推特,证明OpenAI并没有因为这个事件产生心理波动,传言的OpenAI因此禁用Microsoft 365作为回击更是无稽之谈。但这一系列事件说来说去,绕不开“隐私”“数据安全”还是这个议题。也就是说在现在,不仅仅是巨头、公司发现使用ChatGPT/GPTs有“内部数据共享”的隐患,如上文提到的,创业者、开发者甚至普通用户,也发现了这个问题摆在面前。因此新一轮的讨论就此如火如荼地展开了:如果任何用户在GPTs上传的数据、文档等不能保证私有性,该怎么迈出商业化的下一步呢?对于想要打造ChatGPT时代“App Store”的OpenAI来说,这似乎并不太妙。但一切刚刚开始,不妨看看OpenAI的后续补救措施,让子弹再飞一会。
来源:量子位
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。