本周,三星表示将暂时限制员工通过公司电脑使用ChatGPT等生成式人工智能,该禁令还针对提供生成式人工智能技术的服务,例如微软的Bing。
据香港IDC新天域互联了解,三星在一个月前曾发现其内部敏感数据意外被泄露给ChatGPT,随后告知其员工不要向AI工具“提交任何公司及个人相关的信息数据”。
此外,三星还指出ChatGPT等AI工具所存在的安全隐患,例如用户很难“检索和删除”外部服务器上的数据,而这些被传输到AI工具上的数据可能会泄露给其他用户。根据三星4月的内部调查显示,约有65%参与者表示使用生成式AI工具存在安全风险。
上个月,风险投资公司Team8也警告称,使用包括ChatGPT在内的生成式人工智能工具,可能会使公司将客户敏感信息和商业机密置于风险之中。
三星此次的禁令将只适用于该公司向员工发放的设备,且将一直维持到它能够建立足够安全的环境为止,让员工能够“安全地使用生成人工智能提高生产力和效率”。
据悉,三星也正在开发公司内部的人工智能工具,用于“软件开发和翻译”。
而除了三星以外,一些大型银行和企业也都在限制其员工使用ChatGPT,包括美国银行、花旗银行、德意志银行、高盛银行、富国银行和 摩根大通等。
amp;f=网络公司警告称,ChatGPT可能会泄露公司机密
扫码关注
QQ联系
微信好友
关注微博