三星电子公司以安全为由,暂时禁止员工使用ChatGPT、谷歌巴德和必应等流行的生成式人工智能工具,这使人工智能技术在工作场所的普及遭遇挫折。根据一份内部备忘录,三星电子周一将新政策通知了其最大部门之一的员工。该文件称,公司担心,传输到此类人工智能平台的数据存储在外部服务器上,难以检索和删除,并可能最终被泄露给其他用户。
该公司对员工表示:“公司内外对ChatGPT等生成式人工智能平台的兴趣一直在增长。虽然人们的兴趣集中在这些平台的实用性和效率上,但人们也越来越担心生成式AI带来的安全风险。”
三星只是最新一家对这项技术表示担忧并采取行动的大公司。今年2月,就在OpenAI的聊天机器人服务激起人们对该技术兴趣的几个月后,包括摩根大通、美国银行和花旗集团在内的一些华尔街银行禁止或限制了该服务的使用。出于对隐私的担忧,意大利政府也一度禁止使用ChatGPT,不过最近几天改变了立场。
三星的新规定禁止在公司拥有的电脑、平板电脑和手机以及内部网络上使用生成式人工智能系统。它们不会影响该公司销售给消费者的设备,比如安卓智能手机和Windows笔记本电脑。
三星要求在个人设备上使用ChatGPT和其他工具的员工不要提交任何可能泄露其知识产权的公司相关信息或个人数据。该公司警告称,违反新政策可能会导致被解雇。
三星在备忘录中表示:“我们要求你们努力遵守我们的安全准则,如果不这样做,可能会导致公司信息泄露或泄露,从而导致纪律处分,甚至终止雇佣关系。”
该公司上个月进行了一项关于内部使用人工智能工具的调查,并表示65%的受访者认为此类服务构成安全风险。备忘录称,4月初,有三星工程师将内部源代码上传到ChatGPT上,不小心泄露了源代码。
备忘录称:“总部正在审查安全措施,为安全使用生成式人工智能创造一个安全的环境,以提高员工的生产力和效率。然而,在准备好这些措施之前,我们暂时限制了生成式人工智能的使用。”
与此同时,该公司正在创建自己的内部人工智能工具,用于翻译和总结文档以及软件开发。该公司还在研究阻止公司敏感信息上传到外部服务的方法。上个月,ChatGPT增加了一种“隐身”模式,允许用户阻止他们的聊天记录被用于人工智能模型训练。