网络安保CEO从客户处失掉的反应如何?
在2023年RSA大会上接受采访的网络安保提供商的CEO示意,他们的企业客户认可ChatGPT在改善网络安保方面的价值,同时也表白了对秘密数据和常识产权异常暴露风险的担心。云安保联盟(CSA)在会议时期颁布了有史以来第一份ChatGPT指点文件,呐喊业界改坏蛋工智能路途图。
NextDLP的CEO ConnieStack引见称,她的公司考查了Next客户对ChatGPT的经常使用状况,发现97%的大型企业都发现其员工经常使用该工具。Next的Reveal平台上有10%的终端访问了ChatGPT。
在2023年RSA大会的一次性采访中,Stack示意,“这种水平的ChatGPT经常使用率是咱们的一些客户在评价这种新的数据失落载体时十分关注的疑问。一些Next的客户选用间接禁用它,其中包含一家医疗保健公司,该公司无法接受向面向群众的生成式大型言语模型暴露常识产权和商业秘密的任何风险。其余公司对潜在的好处持放开态度,并选用审慎地经常使用ChatGPT来允许诸如增强数据失落‘要挟搜查’和允许安保相关内容创立之类的事情。”
构建新的网络安保肌肉记忆
生成式AI技术有或者提高要挟剖析师、要挟猎人和安保运营中心(SOC)员工的学习和上班效率,这是网络安保厂商力争抢先驳回ChatGPT等生成式AI工具的关键动力。继续的学习须要深化到企业的要挟进攻中,这样他们就可以依托“肌肉记忆”来顺应、照应并在入侵希图开局之前覆灭它。
2023年RSA大会上讨论最多的话题当属新颁布的ChatGPT产品和集成。
在发表推出新产品和集成的20家供应商中,最值得留意的是Airgap Networks、Google Security AIWorkbench、Microsoft Security Copilot(在展会前推出)、Recorded Future、Security Scorecard和SentinelOne。
其中Airgap的零信赖防火墙(ZTFW)与ThreatGPT尤其值得关注。它被设计为经过在网络中心中参与公用的微分段和访问层来补充现有的中心防火墙基础设备。Airgap的CEORiteshAgrawal示意,“仰仗高度准确的资产发现、无代理微分段和安保访问,Airgap为应答不时变动的要挟提供了丰盛的情报。客户如今须要的是一种无需任何编程即可轻松应用这种性能的方法。这就是ThreatGPT的美妙之处——人工智能的纯正数据开掘智能与便捷的自然言语界面相联合。这对安保团队来说将是游戏规定的扭转者。”
在20家零信赖初创公司中,Airgap被以为是“最具翻新性的工程和产品开发团队”之一。Airgap的ThreatGPT联合了图形数据库和GPT-3模型,提供了以前无法取得的网络安保洞察力。该公司性能GPT-3模型来剖析自然言语查问并识别潜在的安保要挟,同时集成图形数据库以提供端点之间流量相关的高低文智能。
ChatGPT强化零信赖的形式
生成式AI增强零信赖的一种形式是识别和增强企业最软弱的要挟外表。往年早些时刻,零信赖的发明者JohnKindervag在接受采访时倡导,“你要从一个受包全的外表开局”,并谈到了他所谓的“零信赖学习曲线。你没有从技术入手,这就是曲解。”
以下是生成式 AI增强NIST 800-207规范中定义的零信赖中心框架的潜在方法:
1、在企业层面一致并学习要挟剖析和事情照应
首席消息安保官(CISO)们宿愿整合自己的技术堆栈,由于在要挟剖析、事情照应和警报系统方面存在太多相互抵触的系统,而SOC剖析师不确定什么是最紧迫的。生成式AI和ChatGPT曾经被证实是整合运行程序的弱小工具。它们最终将为CISO提供跨基础设备的要挟剖析和事情照应的繁多视图。
2、经过继续监控更快识别基于身份的外部和外部入侵希图
零信赖的中心是身份。生成式AI有或者极速识别给定身份的优惠能否与其之前的历史分歧。
CISO们以为,须要阻止的最具应战性的入侵行为通常是从外部开局的,应用的是非法的身份和凭据。
LLM(大言语模型)的中心长处之一是能够依据小样本量发现数据中的异常。这十分适宜包全IAM、PAM和Active Directories。理想证实,LLM在剖析用户访问日志和检测可疑优惠方面是有效的。
3、克制微分段最具应战性的阻碍
正确启动微分段面临的诸多应战或者会造成大型微分段名目迁延数月甚至数年。只管网络微分段旨在隔离企业网络中定义的分段,但它鲜少是与日俱增的义务。
生成式AI可以经过确定如何在不终止系统和资源访问的状况下最好地引入微分段方案来提供协助。最关键的是,它可以潜在地缩小不良微分段名目在IT服务控制系统中创立的数以千计的缺点单。
4、处置控制和包全端点及身份面临的安保应战
攻打者不时在寻觅端点安保和身份控制之间的破绽。生成式AI和ChatGPT可以协助处置这个疑问,为要挟猎人提供他们所需的情报,让他们知道哪些端点最容易被攻破。
为了强化安保照应的“肌肉记忆”,特意是当触及到端点时,生成式AI可以用来不时学习攻打者试图浸透端点的形式、指标点以及他们试图经常使用的身份。
5、将最低特权访问优化到一个全新的水平
将生成式AI运行于经过身份、系统和时期长度限度对资源的访问是最弱小的零信赖AI增强用例之一。依据资源和权限性能文件向ChatGPT查问审计数据可为系统控制员和SOC团队每年节俭数千小时。
最低权限访问的中心局部是删除过期的帐户。Ivanti的《2023年安保预备状况报告》发现,45%的企业疑心前员工和承包商依然可以被动访问公司的系统和文件。
Ivanti的首席产品官SrinivasMukkamala博士指出,“大型企业往往没有思索到庞大的运行程序、平台和第三方服务生态系统,这些运行程序、平台和第三方服务授予的访问权限远远超越员工的任期。咱们称这些为‘僵尸凭证’,数量惊人的安保专业人员,甚至是上层控制人员,依然可以访问前雇主的系统和数据。”
6、微调行为剖析、风险评分以及安保角色的实时调整
生成式AI和ChatGPT将使SOC剖析师和团队能够更快地把握行为剖析大风险评散发现的异常状况。而后,他们可以立刻阻止潜在攻打者试图启动的任何横向移动。仅经过风险评分定义特权访问将过期,生成式AI会将恳求置于高低文中,并向其算法发送警报以识别潜在要挟。
7、改良的实时剖析、报告和可见性,协助阻止在线欺诈
大少数成功的零信赖方案都是建设在数据集成基础之上的,后者汇总和报告实时剖析、报告和可见性。企业可将这些数据用于训练生成式AI模型,向SOC的要挟猎人和剖析师提供史无前例的见地。
在阻止电子商务欺诈方面,其结果将是可以立刻权衡的,由于攻打者会以无法跟上攻打步调的电子商务系统为指标。具备ChatGPT访问历史数据的要挟剖析人员将立刻知道标志的买卖能否非法。
8、改良情境感知访问,增强细粒度访问控制
零信赖的另一个中心组件是基于身份、资产和端点的访问控制粒度。寻求生成式AI来创立全新的上班流程,可以更准确地检测网络流量形式、用户行为和高低文智能的组合,从而依据身份、角色倡导战略更改。要挟猎人、SOC剖析师和欺诈剖析师将在几秒钟内了解每个被滥用的特权访问凭据,并能够经过便捷的ChatGPT命令限度一切访问。
9、强化性能和合规性,使其愈加合乎零信赖规范
ChatGPT所基于的LLM模型已被证实在改良异常检测和简化欺诈检测方面是有效的。该畛域的下一步是应用ChatGPT模型来智能化访问战略和用户组创立,并随时了解模型生成的实时数据的合规性。ChatGPT将极大提高性能控制、风险控制和合规性报告的上班效率。
10、限度网络钓鱼攻打的半径
这是攻打者赖以生活的要挟外表——用社交工程手腕诱骗受益者支付大笔现金。ChatGPT已被证实在自然言语处置(NLP)方面十分有效,并且与其LLM相联合,可以有效地检测电子邮件中的异常文本形式。这些形式通常是商业电子邮件入侵(BEC)欺诈的标志。ChatGPT还可以检测识别AI生成的电子邮件并将其发送到隔离区。生成式AI正被用于开发下一代网络弹性平台和检测系统。
专一于将零信赖的劣势转化为长处
ChatGPT和生成式AI可以经过增强企业零信赖安保的“肌肉记忆”来应答不时变动的要挟情报和安保常识的应战。是时刻将这些技术视为学习系统了,经过记载和检测一切网络流量、限度和控制访问以及验证和包全网络资源,协助企业不时提高其网络安保智能化水温和人力技艺,以抵御外部和外部要挟。