您当前位置:首页 > 资讯中心 > 业内新闻

首起ChatGPT芯片机密泄露,三星成受害者

文 | 芯东西 翊含

编辑 | Panken

4月3日消息,据韩媒报道,三星设备解决方案(DS)部门才启用聊天机器人ChatGPT 20多天,就闹出了3起数据泄露事故,导致其与半导体设备测量、良品率/缺陷、内部会议内容等相关信息被上传到ChatGPT的服务器中。

这一事件立即引起了韩国全网的关注与热议。DS部门主管三星的存储、芯片设计、晶圆代工等半导体核心业务,自今年3月11日起允许员工使用ChatGPT。结果有3位员工为了“图省事”,把机密数据送到海外了。

美国人工智能(AI)企业OpenAI是ChatGPT的开发商,但这3起泄密事故的锅可背不到OpenAI头上。在ChatGPT使用指南中,OpenAI已经明确说明输入ChatGPT聊天框的文本内容会被用于进一步训练模型,警告用户不要提交敏感信息。

三星已采取限制ChatGPT输入问题长度、限制办公电脑使用等紧急措施,筹备以防再发生类似信息泄露事故的保护措施,并正考虑在构建自己的人工智能服务。当前,多家海外企业已采取措施阻止或限制员工使用ChatGPT。

01.3位员工将三星机密数据输入ChatGPT

美国初创公司OpenAI会获取用户们在ChatGPT输入的内容,并将这些数据用于进一步训练模型。如果用户提问的内容涉及企业机密,相关内容将会遭到大范围泄露。OpenAI也在ChatGPT使用指南中告知“不要输入敏感内容”。

三星电子担心ChatGPT的内部使用可能会发生公司内部机密等信息泄露的问题,一直在阻止在企业内使用ChatGPT。但从3月11日开始,DS部门允许使用ChatGPT。负责影像显示、家电、移动通信、医疗设备等业务的三星设备体验部门(DX部门)目前还禁止使用ChatGPT。

允许DS部门使用ChatGPT的原因是该部门负责人认为员工有必要认识到当代技术发生的变化。三星只是允许使用ChatGPT,并向员工们发布公告称:“注意公司内部信息安全,不要输入私人内容。”

DS部门实施这项运营政策不到20天,就发生了令人担忧的“公司内部信息泄露”事故。三星电子掌握的事故内容为两起“设备信息泄露事故”和一起“会议内容泄露事故”。三星在得知相关事实后,实施了“紧急措施”事项,包括将每个问题的上传容量限制在1024字节。三星计划调查企业信息泄露事故经过,必要时给予当事员工惩戒。

三星电子DS部门员工A某在运行半导体设备测量数据库(DB)下载程序的源代码时发生了错误。于是他复制所有有问题的源代码,输入ChatGPT,询问解决方法。

员工B某将为“设备测量”及“产量和缺陷”编写的程序代码整个相关源输入ChatGPT,要求其优化代码。

员工C某通过NAVER Clova应用程序(APP)将用智能手机录制的会议内容转换为文档文件后,输入到ChatGPT中,目的是要求制作会议记录。

三星电子向员工通告了上述情况,并提醒员工谨慎使用ChatGPT。三星通过内部公告警示说:“在ChatGPT中输入内容的瞬间,数据就会发送到外部服务器并存储,公司无法收回。如果ChatGPT学习相关内容,敏感内容可能会提供给不特定的多数人。”

02.三星电子提高对生成式AI理解,限制使用ChatGPT

三星电子正在制定防止通过ChatGPT泄露信息事故再次发生的保护措施方案。该公司告知员工:“如果在采取信息保护紧急措施后仍发生类似事故,公司内部网可能会阻止ChatGPT连接。”

一位三星电子相关人士对询问此次信息泄露事故的记者说:“因为是公司内部情况,很难确认。”

三星电子认为生成式AI可能会使半导体生态系统发生变化,因此敦促管理层采取应对措施。上月22日,以全体高管为对象,以“ChatGPT登场,生成式AI创造未来”为主题举行了在线研讨会。三星电子副会长韩钟熙曾强调ChatGPT的重要性,强调有必要提高对生成型AI的理解。

为了防止今后公司主要机密和个人信息等泄露,DX部门就ChatGPT的使用情况对公司员工进行问卷调查。 问卷不仅包括询问是否有使用ChatGPT的经验,还包括询问对公司内部使用ChatGPT的看法等内容。

三星电子计划以问卷调查结果为基础,制定上传容量限制或业务PC(个人电脑)使用限制等内部规定,并与员工共享。

三星电子设备解决方案部门(DS部门)在最近的公告栏上发布了提醒注意ChatGPT误用的信息。各组长还对组员进行了ChatGPT可用范围等培训。

03.各大公司限制ChatGPT使用,制定ChatGPT使用指南

半导体业务大部分属于机密,一不小心就会上传报告等内部信息,泄露机密。全球钢铁制造厂巨头韩国浦项制铁为了防止通过ChatGPT泄露信息,正在准备通过内部Intranet(企业内部网)利用ChatGPT的途径,向员工进行引导。浦项制铁公司在内部协作平台“Teams”中引入ChatGPT功能,只在内部系统内使用ChatGPT,从而同时加强安全性和工作效率。

市场调查公司Gartner对62名企业人事负责人进行了问卷调查,结果显示,其中48%的人表示正在制定ChatGPT等AI聊天机器人业务的使用指南。

全球第二大存储芯片巨头韩国SK海力士除必要时刻外几乎禁止公司内部网使用ChatGPT。

韩国液晶面板龙头公司LG Display通过公司内部帖子和教育、活动等,随时强调公司内部信息保护和防止泄露等信息安全认识。海外因担心机密信息泄露而限制使用ChatGPT的企业越来越多。各家公司担心如果在ChatGPT中输入信息,AI可能会学习并泄露给外界。

最近,JP摩根大通、美国银行、花旗集团、高盛、德意志银行等美国银行限制使用ChatGPT等AI聊天机器人。

据《日本经济新闻》等媒体报道,日本软银集团最近向全体员工通报了禁止在ChatGPT中输入机密信息等注意事项,该集团还计划制定了哪些业务或用途可以使用交互式AI的规则。

在日本,瑞穗金融集团、三菱UFJ银行、三井住友银行禁止将ChatGPT等交互式AI用于业务。此外,松下控股旗下松下Connect在制定信息泄露对策后才允许使用交互式AI。富士通设置了“AI伦理治理室”,提醒用户使用交互式AI时的注意点。

一位韩国商界相关人士称,ChatGPT一直以来都是热门话题,现在大家都在试着使用和学习,企业也需要更加警惕信息泄露等问题。

04.结语:三星电子企业机密泄露,制定ChatGPT使用的保护措施

三星电子批准内部使用ChatGPT不久后,公司内部与半导体“设备测量”及“产量和缺陷”有关的程序内容被传送到美国。ChatGPT在聊天界面和输入的信息极有可能会泄露,关于这一点并没有任何安全保障。各大公司纷纷意识到了这一点并立马开始建立完善的ChatGPT使用说明以提示员工谨慎使用这一软件。

ChatGPT像一把双刃剑,在为大家提出各种问题解决方案的同时,也让提问者经受着输入信息被泄露的风险。要想安全有效的使用这一软件,还需提高谨慎,在有完善的信息保护体系之前,不要输入任何有关企业机密信息的问题。

来源:韩联社、韩国《经济学人》


作者:Admin - 发布时间:2023-04-23 - 点击量:3321
公司简介:大势至公司是国内较早的企业网管软件提供商,可以为企事业单位提供整体的企业网络管理方案和企业网络管理平台,通过全系列的公司监控员工电脑软件教你如何控制员工上网、如何控制局域网内电脑上网以及如何保护电脑文件安全等。公司核心产品“聚生网管系统”是一款专门的公司网管必备软件、查看网络流量软件、网络流量监控软件和办公室电脑监控软件;“网络特警”则是一款专门的网络流量监控设备、上网行为管理服务器、网络行为管理设备,可以实现更为强大的局域网网络行为管理;大势至USB接口禁用软件则是一款专门的数据防泄密产品、屏蔽U盘软件、电脑USB端口禁用软件,可以严防通过一切途径泄露电脑文件,保护单位无形资产和商业机密安全;大势至共享文件夹管理软件则是一款专门的共享文件权限设置软件和共享文件设置密码软件,全面保护共享文件安全;大势至共享文件审计系统则是一款专门的服务器共享文件夹设置软件、服务器共享文件访问日志记录软件,可以详细记录局域网用户访问共享文件的行为,更好地管理共享文件的安全;大势至局域网网络准入控制系统则是一款专门防止未经授权的电脑接入公司局域网的行为,防止外来电脑访问局域网共享文件、防止蹭网以及绑定IP和MAC地址,保护网络安全;大势至FTP服务器日志记录软件则是一款专门记录局域网用户访问FTP服务器日志的软件,可以有效保护FTP服务器文件安全。
联系我们