AI在职场中的使用增长迅速,根据,员工将敏感数据输入例如ChatGPT和Gemini等聊天机器人的频率是去年两倍以上。《AI采纳和风险报告》指出,“影子AI”的增长 — 指在个人账户上使用的AI工具,这些账户可能没有像企业账户那样的安全保障。企业如果对员工使用影子AI的情况失去可见性和控制,可能无法识别和阻止机密员工、客户和商业信息的暴露。
根据Cyberhaven报告的分析,报告涵盖了超过300万名员工的AI使用模式。整体而言,从2023年3月到2024年3月,员工将公司数据输入AI工具的数量增加了485%。其中,96%的使用来自于OpenAI、Google和Microsoft的工具。
科技公司的员工是AI工具的重度使用者,每10万名员工就有超过200万次的数据提交到聊天机器人,同时AI生成内容的使用频率则超过每10万名员工160万次。
在员工提交给聊天机器人的数据中,敏感数据的比例为27.4%,较去年10.7%的比例上升了156%。最常见的敏感数据类型是客户支持数据,占所有输入的16.3%。
除了客户支持数据,输入到聊天机器人的敏感数据还包括源代码(12.7%)、研究与开发数据(10.8%)等。
| 敏感数据类型 | 比例 |
|---|---|
| 客户支持数据 | 16.3% |
| 源代码 | 12.7% |
| 研究与开发数据 | 10.8% |
三大AI工具提供商都提供企业AI解决方案,拥有更高的,例如不将数据用于进一步的模型训练。然而,Cyberhaven的分析显示,大多数的职场AI使用是在缺乏这些保护措施的个人账户上进行的,形成了组织内的影子AI。
在使用ChatGPT的员工中,73.8%的使用是在个人账户上;而对于Google的工具,个人账户的使用率更高。谷歌在2024年以Gemini品牌重新推出之前,GoogleBard在职场上95.9%的使用是在个人账户上。Gemini发布后,个人账户的使用仍然高达94.4%。
影子AI的一个重要风险是法律文件的提交 — 虽然这些提交仅占所有敏感数据输入的2.4%,但82.8%的上传都是到个人账户,增加了公共曝光的风险。此外,约有一半的源代码上传到个人账户,55.3%的研究与开发材料和49%的员工及人力资源记录也是如此。
将敏感公司信息发送
Leave a Reply