<p>从传统的软件开发到集成人工智能(AI)和机器学习(ML)的演变可以说是革命性的。随着人工智能的不断普及,人工智能技术对企业乃至我们的日常生活变得越来越重要,根据ISC2的研究,人工智能最有可能接管用户行为模式的分析(81%)、重复性任务的自动化(75%)、网络流量和恶意软件的监控(71%)、薄弱环节的预测(62%)以及检测和阻止威胁(62%)。</p><p>随着人工智能的广泛使用,其带来安全问题的复杂性、真实性和数量可能会大幅度提高。</p><p>一个令人担忧的趋势是,网络攻击者以代码和图像存储库为目标,旨在向软件供应链注入恶意软件。这种策略不仅损害了软件的完整性,而且对依赖这些应用程序进行关键操作的最终用户和组织构成了重大风险。数据中毒的威胁对人工智能模型的完整性提出了险恶的挑战。通过将恶意修改的代码和数据引入训练集,攻击者可以操纵人工智能系统的行为,导致长期影响,因为有毒数据持续存在于机器学习模型中。</p><p>这种阴险的攻击形式凸显了保持警惕和强大的安全措施在保护推动人工智能和机器学习创新的数据方面的重要性。在开发安全中,通过DevSecOps实践更有力的创建安全软件。这些方法是解决人工智能和机器学习安全所面临的熟悉挑战的宝贵经验。</p><p>在过去五年多的时间里,DevSecOps 已成为我们开发和保护软件的主要方式,通过软件和安全团队之间的协作,以及将改进的安全实践嵌入到开发过程的每个阶段。这种集成方法帮助我们提高了软件产品的安全性,并提高了安全和软件工程师之间的安全可见性。DevSecOps 的原则和成功案例同样可以指导 AI 和 ML 模型的安全开发和部署。</p><p>AI和ML模型不断学习和进化,AISecOps将DevSecOps原则应用于AI/ML和生成式AI,意味着将安全性集成到这些模型的生命周期中——从设计、培训到部署和监控。持续的安全实践,如实时漏洞扫描和自动威胁检测、数据和模型存储库的安全检测和保护措施,对于防范不断发展的威胁至关重要。</p><p>DevSecOps的核心原则之一是培养开发、安全和运营团队之间的协作文化。这种多学科方法在AISecOps的背景下更为重要,因为开发人员、数据科学家、人工智能研究人员和网络安全专业人员需要共同努力识别和减轻风险。协作和开放的沟通可以加速漏洞的识别和修复。</p><p>数据是 AI 和 ML 模型的命脉。确保用于训练和推理的数据的完整性和机密性至关重要。DevSecOps 强调了安全数据处理实践(如加密、访问控制和匿名化技术)对于保护敏感信息和防止数据中毒攻击的重要性。</p><p>在AI和ML开发一开始就将安全考虑进去,符合对道德人工智能的日益重视,确保模型不仅安全,而且公平、透明和负责任。在设计阶段纳入安全和道德准则有助于在人工智能系统中建立信任和弹性。</p><p>人工智能和机器学习技术带来的安全挑战很复杂,但对我们来说并不陌生。通过将DevSecOps的安全经验应用到AISecOps中,我们可以通过提高人工智能和人工智能数据安全可见性的方法来应对这些挑战,并强调持续安全、协作、安全数据实践和设计安全性。</p><p><!--StartFragment--> <!--EndFragment--></p><p>我们的未来是人工智能驱动的,网络安全和人工智能专业人员需要齐心协力,为这些变革性技术奠定基础。我们要释放人工智能和机器学习的全部潜力,同时确保所有利益相关者的安全、隐私和信任。</p><p><br></p>