仅凭两句提示词,数据就能直接泄露!

近期,微软内部紧急禁用了ChatGPT,官方给出的理由是出于安全和数据考虑,许多AI工具不再供员工使用。

微软这个OpenAI最密切的合作伙伴,也曾出现过临时取消ChatGPT内部访问权的情况。

自定制版本的GPTs上线后,各路大神纷纷分享他们自己的GPTs链接,展示其各种应用。一位网友无意中发现其中某个GPTs的知识库文件,其中包含各大科技公司的职级薪资信息,直接曝光于众。

只需几句简单的提示词,GPTs便会乖乖地上传数据。一些网友纷纷表达担忧:这是新的安全漏洞吗?许多人开始对企业定制产生疑虑。

不仅如此,连提示词的文本说明也可能会被泄露。然而,有解决方案可供选择,在自定义时可以明确设定规则来阻止此类问题。

此外,微软内部曾限制ChatGPT的访问。尽管微软是OpenAI的最大合作伙伴之一,他们却在内部禁止员工使用ChatGPT,并给出了安全和数据考虑的理由。

上传的数据和提示词都可能会泄露。尽管有些人认为这并非是bug,而是其功能的一部分,文件中的数据应该是公开的。对于这个问题,一些网友提供了解决方案,即在设置时取消代码解释器的能力。

上述事态发展显示,私隐和数据安全是一个不可忽视的议题。不仅是巨头和公司,即便是创业者、开发者甚至普通用户也发现了ChatGPT/GPTs带来的“内部数据共享”隐患。

对于OpenAI来说,他们希望打造一个ChatGPT时代的“应用商店”,但面临的挑战显而易见。

这只是新时代的开端,让我们拭目以待OpenAI采取的后续补救措施,让子弹再飞一会儿。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。