2020 年及以后, 安全和风险专业人士将发现, 网络安全决策会具备前所未有的社会影响力. 我们生活, 学习和社交都越来越依赖于技术, 而这种依赖性也使技术成为攻击目标.
由于我们在做出关键决策时对数据的依赖日益增加, 这导致恶意行为者更有动机使用勒索软件来限制对大型数据池的访问. 而人口数据的武器化将使专断的政府和空壳组织有更大的能力操纵地缘政治, 扩大其在境外的影响力. 过去几年对人工智能和机器学习 (ML) 所做的改进将导致改会提高网络安全, 但同时也将帮助攻击者.
这些趋势背景下, 为 2020 年的三个网络安全预测奠定了基础:
1. 企业将通过并购活动收集数据并将其武器化
剑桥分析丑闻的揭露虽然引起了人们对数据收集的普遍担忧, 但数据价值的不断增长仍然让企业和政府难以忽视这一资源. 旨在限制企业如何共享其大量数据的法律将在全球范围内激增, 但这些措施对阻止数据整合背后不断增长的并购市场无济于事.
企业收集用户偏好数据, 用户位置或医疗信息等在最开始的时候可能是无害的, 但是如果当前领先的应用背后的公司被政府所有的实体收购, 这些数据现在就会被对手利用.
当北京的工程师通过收购 Grindr 合法地获得了敏感的健康信息时, 他们就证明了当前的立法没有减轻数据落入坏人之手的风险, 因此需要公司制定自己的消费者数据治理策略.
2. 到 2020 年, 与 Deepfake 诈骗相关的损失将超过 2.5 亿美元
今年早些时候, 社会工程师通过使用自然语言生成技术, 从一家德国能源公司骗取了 24.3 万美元, 这可能是首个案例. 有了这样的先例表明 AI 支持的 Deepfake 技术所带来的巨大经济收益, 预计会有更多的人模仿攻击, 更多的基于 Deepfak 的攻击可能以很低的成本制造出以假乱真的音频和视频.
为了降低风险, IT 部门需要进一步在安全培训和安全意识提升上投入成本. 如果员工不了解基于 deepfake 的攻击和传统网络钓鱼攻击之间的区别, 与 Deepfake 诈骗相关的损失将大幅提升.
3. 数据隐私问题将导致五分之一的企业客户拒绝把数据交给 AI
尽管 AI 和 ML 解决方案的价值不断增长, 但依赖企业客户数据来改进 B2B 产品的公司很难找到愿意选择数据共享协议的客户. 由于 GDPR 和 CCPA 等立法以及消费者的强烈反对, 再加上隐私泄露对品牌的短期发展和长期形象都会造成灾难性的影响, 因此, 企业不愿意将其数据交给第三方. 这种数据短缺可能会降低 AI 和 ML 解决方案的有效性, 反过来, 这可能会造成一个恶性循环: 没有获得人工智能相关收益的企业, 也没有增加隐私保护相关的支出. 这导致了更多的企业在未来几年进一步严禁外部使用他们的数据.
来源: http://netsecurity.51cto.com/art/201911/606547.htm