导读 实施应对威胁的安全措施以保护人工智能投资符合每个组织的最大利益。安全和隐私问题是采用人工智能的最大障碍,这是有充分理由的。良性和恶...
实施应对威胁的安全措施以保护人工智能投资符合每个组织的最大利益。
安全和隐私问题是采用人工智能的最大障碍,这是有充分理由的。良性和恶意行为者都可以威胁AI模型和数据的性能,公平性,安全性和隐私性。
随着AI变得更加主流并向他们承诺一系列好处,这不是企业可以忽略的事情。实际上,在最近的2020年Gartner新兴技术炒作周期中,所列技术中有三分之一以上与AI有关。同时,AI也有一个往往无法解决的阴暗面,特别是因为当前的机器学习和AI平台市场还没有提供一致或全面的工具来保护组织。这意味着组织是独立的。更糟糕的是,根据Gartner的一项调查,消费者认为,使用或提供AI的组织在出现错误时应负责任。
实施应对威胁的安全措施以保护AI投资符合每个组织的利益。对AI的威胁和攻击不仅损害AI模型的安全性和数据安全性,而且损害模型的性能和结果。
分子通常会以两种方式攻击AI,技术专家可以采取行动来减轻此类威胁,但首先让我们探讨AI的三大核心风险。
人工智能的安全,责任和社会风险
使用AI的组织面临三种风险。随着AI越来越普及并嵌入到关键的企业运营中,安全风险正在上升。例如,自动驾驶汽车的AI模型中可能存在导致致命事故的错误。
由于使用敏感客户数据的AI模型越来越多地影响着影响客户的决策,因此责任风险正在增加。例如,错误的AI信用评分会阻碍消费者获得贷款,从而导致财务和声誉损失。
免责声明:本文由用户上传,如有侵权请联系删除!