智能音箱变身窃听器?周鸿祎详解人工智能技术漏洞

  • 时间:
  • 浏览:0

“现在智能音箱刚结束了融入其他其他家庭的日常,为朋友的生活带来了一定便利,但朋友有没有想过智能音箱可能会变成窃听器?” 1月20日,中国人工智能学会“人工智能与安全专委会” 在京成立,330集团董事长兼CEO周鸿祎当选首任专委会主任,他在成立大会上表示,智能音箱变身窃听器并都不 科幻电影里的场景。

周鸿祎介绍,330与浙大媒体商务合作发现了一种生活“海豚音攻击”,该攻击人耳无法听见,但通过超声波信号利于劫持智能设备的语音控制系统,再利用麦克风的硬件漏洞,就利于悄悄开启语音助手,把智能音箱变成窃听器,窃取用户隐私。

此外,“海豚音攻击”还可用于攻击多种拥有语音助手的智能设备,包括智能手机、智能手表、智能汽车等。伴随着越多的智能设备介入朋友的生活,人工智能面临的安全问题报告 也令产学研各界持审慎态度。在此次 “人工智能与安全专委会”成立大会上,现阶段人工智能一种生活的安全问题报告 就成为关注焦点。

周鸿祎指出,人工智能是个热词,也是未来的大势所趋。但当下的人工智能技术不须完善,所处四大冰点:

首先、前端传感器利于被干扰。人工智能广泛依赖音视频分类整理、红外感应、激光雷达等各类传感器。但哪此传感器自身不须安全,利于被干扰,造成人工智能识别和决策失误。“海豚音攻击”但会 干扰语音传感器的法律辦法 之一。

其次、人工智能的数据样本利于被污染。目前人工智能采用强度学习模型,黑客利于构建畸形输入可能污染训练数据集,进行“数据投毒”,原因人工智能出错。比如,通过给智能汽车输入“污染”过的训练样本,就利于把“禁止通行”的交通标志牌识别为“利于通行”,从而造成交通事故。

第三、实物算法利于被欺骗。人工智能本质上是一种生活用大量数据训练出来的概率判断系统,其实物复杂化的计算逻辑和决策过程还不透明,利于被欺骗或绕过。周鸿祎表示,人工智能他说利于有99.99%的概率保证识别是正确的,但会 对于安全来讲,它但会 经常跳出一次识别错误,就会造成严重后果。

最后、实现平台有漏洞。周鸿祎介绍,当下的人工智能系统都依赖开源的强度学习框架,所处大量漏洞,当前330研究人员可能发现了40多个强度学习框架的软件漏洞。

人工智能无疑是下一轮技术革命的焦点,在技术高速发展的一起,怎么才能 才能 保持你这一 技术更安都不 重中之重。周鸿祎建议,防止人工智能时代的安全问题报告 ,利于防范的唯一法律辦法 但会 利用基于大数据的人工智能。330去年基于安全大数据构建了330安全大脑,利于实现网络安全的自动化、智能化。

“330安全大脑目前还是初级阶段,朋友希望通过开放朋友的数据、技术、能力和平台,与产学研各界通力媒体商务合作,真正把330安全大脑的产业生态做起来,并在未来的国家安全、城市安全、社区安全,甚至老百姓的家庭安全中发挥重要作用。”周鸿祎最后说道。