人工智能的帮助如何使安全团队保持人性化
诺贝尔奖获得者小说家阿纳托尔·法兰西(Anatole France)著名地指出:“明智地思考和愚蠢的行为是人的天性。”作为一个物种,我们天生具有(在我们的意识延伸的范围内)我们广阔无穷的宇宙中最高,最深刻的智力,知识和洞察力。但这并不等同于无所不知或绝对精确。
人类绝不是想象中的完美。我们感到压力,感到压力,生活发生,最后我们犯了错误。实际上,它是如此不可避免,以至于它实际上已经扎根到我们的DNA中。无论好坏,人性的这一方面都是完全自然的,而且是人们坚决期望的。在大多数情况下,人们对矫正的顽固追求使人更容易陷入困境。但是从网络安全的角度来看,这种意图和过程发生得太慢了。在这个领域中,简单的错误可能导致眨眼之间的可怕后果。
将其置于上下文中,简单的黑客攻击或破坏就可能导致数十亿美元的损失。彻底关闭关键基础设施,例如电网和核电厂;机密政府信息的泄漏;公开发布数量无法量化的个人数据。在许多情况下,这些太真实的“假设”(经济崩溃,城市陷入混乱,国家安全受到损害或盗窃无数身份)都可能被重新定位为围绕网络安全的人为错误。
面对如此多的风险,许多CISO对员工保护数据的能力没有信心并不令人惊讶。这是因为大多数员工使用的大多数网络安全解决方案都难以使用,并且会导致精心设计的变通办法,从而开辟新的漏洞,以使员工仅能在工作中高效地工作。
恶意行为者不仅意识到这一点;他们利用它来获得最终的优势。员工只是人类,而社会工程师在利用我们的人性方面表现卓越。但是我们不希望员工抛弃他们太过珍贵的人性,以保护自己免受社会工程师的恶意攻击。输入人工智能(AI)的帮助之手,它可以使员工保持人类的生命,同时保护他们免受自己的人道侵害。由AI驱动的自适应安全性可以弥补我们知道可能会发生的人为错误。
员工(包括我本人在内)需要帮助以确保工作场所的安全,因为我们很容易分心和被欺骗。目标是永远不会犯错误或使公司容易受到攻击。但是正如法国所说,我们的智慧有时会被我们的野蛮,自发,情感驱动的行为所取代。
但是,真的可以信赖人工智能来弥补人为错误吗?好吧,这完全取决于谁回答这个问题以及他们对AI的看法。那些对AI持平庸看法的人并不深深扎根于科幻小说或好莱坞的比喻中,他们大多同意AI是捕获和避免粗心的人为错误的有效工具,因为它不受人性和认知的微弱或脆弱的负担固有的理性极限。正如IBM的Ginni Rometty所说:“有人将其称为人工智能,但现实是,这项技术将增强我们的能力。因此,我认为,代替人工智能,我们将增强我们的智能。”
AI弥合了工作生产力和安全性之间的鸿沟,并实现了“隐形安全性”概念,该概念创建了防卫线,从本质上可以将其归类为防人为自然。事实是,当今的威胁向量现在以光速或人类人工智能的速度发生变化。在人工智能和机器学习的帮助下,员工具有强大的抵抗机会,可以阻止恶意行为者窃取公司数据,这些恶意行为者还利用这些高速模型和算法来实现其邪恶的目标。