随着技术创新的速度不断加快,网络防守者常常处于被动应对的状态。例如,流行的生成式人工智能聊天机器人ChatGPT在去年底发布后仅两个月便达到了1亿用户。
bjch白鲸加速器虽然新闻报道警告称攻击者正在“武器化”生成式人工智能进行虚假信息传播和其他网络犯罪,大多数企业主要担心的是员工可能会无意中泄露公司机密或其他机密数据。
生成式人工智能技术使用户能够实时“生成”内容,具有很大的生产力潜力,因此对现代用户而言非常迷人。然而,缺乏适当培训的情况下,用户容易分享机密信息,从而对公司造成风险。
企业有两个选择要么让员工使用这些工具,要么禁止他们使用。我们知道,阻止员工访问这些工具是行不通的,反而可能导致影子IT现象,他们可以通过自己的设备和网络访问这些工具。另一种更可行的选择是:开放访问这些工具,但要持续监控、控制并执行其使用。
大多数组织在部署人工智能方面仍处于早期阶段。制定计划时,可以先询问谁将使用这些工具。例如,安全团队希望允许人力资源和市场营销团队使用这些工具,因为他们涉及内容创作,但可能会阻止工程师团队,以减少数据泄露的风险。此外,明确员工将使用哪些工具也至关重要。他们会使用ChatGPT、EinsteinGPT,还是其他工具?哪些信息可以分享,哪些信息不能与这些工具共享?回答这些问题并制定合适的政策和工具可以为在特定环境中安全使用这些工具提供指导。
为降低潜在风险,可以遵循以下五个步骤:
公司利益相关者和业务领导者需要沟通,以确保大家理解员工访问这些工具的目的与原因。还需要达成共识,明确哪些信息不应暴露在这些工具中。团队需要在利益相关者的协作下建立政策,包括如何打算使用这些工具,以及理解这些工具对他们的重要性。
向员工展示如何使用这些工具,例如通过定制的指导页面,告知他们在使用这些工具前需阅读使用条款。
为用户制定明确的安全政策。例如,不允许用户向这些工具上传任何源代码。反之,也不允许他们从这些工具下载任何代码,因为这部分代码可能涉及版权或属于他人。如果公司中的某人使用了这些代码,团队可能会面临诽谤风险。
虽然生成式人工智能可以带来好处,但团队需要防止任何敏感数据离开网络。许多组织已经在朝着采用零信任框架的方向迈进。利用零信任指导方针和工具,例如数据丢失防护DLP,对于执行公司的生成式人工智能政策至关重要。例如,制定一项DLP政策,捕获用户向这些工具发送的所有信息。
用户误用生成式人工智能已成为当今企业的主要担忧。正如公司网络安全意识培训有助于降低钓鱼和其他类型定向网络攻击的风险,针对生成式人工智能相关风险进行培训也至关重要。
尽管存在风险,但安全使用生成式人工智能的好处远远超过潜在的缺点。工具是否可以比人类更快地编写代码以利用漏洞?是的,确实可以。但问题在于:谁最早知道这个漏洞?该工具本身并没有什么新颖的东西可提供,它不会生成其未经过培训的信息。它只能够执行人类指令。它无法