三星电子(Samsung)先前曾允许旗下工程师使用人工智慧ChatGPT作为辅助工具,藉此快速修复原始程式码的错误,没想到一个月内就发生3起使用ChatGPT导致会议数据洩漏的事件,因此三星决定禁止员工使用AI,并正在准备自己公司内部用的AI工具。

据《彭博》报导,三星已经将新政策告知内部员工,因为公司担心传输至AI平台的数据资料会被储存到外部伺服器,导致敏感代码难以取回或被删除,最终有可能外洩给其他用户,所以未来将禁止员工使用这种生成式的AI工具。

此外,三星上个月还进行了一项关于内部员工使用AI工具的调查,结果其中有65%的人认为这种工具存在安全风险。公司的备忘录称,4月初,有三星工程师将内部原始程式码上传到ChatGPT,结果不小心洩漏出去,不过目前仍不清楚这些外洩的机密代码包含什麽内容,三星也拒绝回应。

据了解,事件起因是有三星半导体员工提交专有程式的原始程式码给ChatGPT,以修复程式码错误,却无意间将最高机密应用程式的代码洩漏给其他公司的AI。

报导指出,三星电子将禁止公司电脑、平板及手机使用生成式AI工具,也禁止在连线内部网路时使用相关平台。当然,这一项规定并不影响三星对外贩售给消费者的手机和笔电等商品。

三星还要求在个人装置上使用ChatGPT的员工,不要输入跟公司有关的资讯,以及任何可能洩漏智慧财产的私人资料,如果员工违反规定,可能遭到公司开除。

LEAVE A REPLY

Please enter your comment!
Please enter your name here