1月21日消息,“现在智能音箱开始融入很多家庭的日常,为我们的生活带来了一定便利,但大家有没有想过智能音箱可能会变成窃听器?”在昨天举办的中国人工智能学会“人工智能与安全专委会” 成立大会上,360集团董事长兼CEO周鸿祎当选首任专委会主任,他表示,智能音箱变身窃听器并不是科幻电影里的场景。
据他介绍,360与浙大合作发现了一种“海豚音攻击”,该攻击人耳无法听见,但通过超声波信号可以劫持智能设备的语音控制系统,再利用麦克风的硬件漏洞,就可以悄悄开启语音助手,把智能音箱变成窃听器,窃取用户隐私。
此外,“海豚音攻击”还可用于攻击多种拥有语音助手的智能设备,包括智能手机、智能手表、智能汽车等。伴随着越来越多的智能设备介入我们的生活,人工智能面临的安全问题也令产学研各界持审慎态度。
周鸿祎指出,人工智能是个热词,也是未来的大势所趋。但当下的人工智能技术并不完善,存在四大冰点:
首先、前端传感器可以被干扰。人工智能广泛依赖音视频采集、红外感应、激光雷达等各类传感器。但这些传感器自身并不安全,能够被干扰,造成人工智能识别和决策失误。“海豚音攻击”就是干扰语音传感器的方式之一。
其次、人工智能的数据样本可以被污染。目前人工智能采用深度学习模型,黑客可以构建畸形输入或者污染训练数据集,进行“数据投毒”,导致人工智能出错。比如,通过给智能汽车输入“污染”过的训练样本,就可以把“禁止通行”的交通标志牌识别为“可以通行”,从而造成交通事故。
第三、内部算法可以被欺骗。人工智能本质上是一种用大量数据训练出来的概率判断系统,其内部复杂的计算逻辑和决策过程还不透明,可以被欺骗或绕过。周鸿祎表示,人工智能也许可以有99.99%的概率保证识别是正确的,但是对于安全来讲,它只要出现一次识别错误,就会造成严重后果。
最后、实现平台有漏洞。周鸿祎介绍,当下的人工智能系统都依赖开源的深度学习框架,存在大量漏洞,当前360研究人员已经发现了40多个深度学习框架的软件漏洞。