AI欺诈:监控摄像头黑客将罪犯变成狗 媒体
清楚识别,避免“门廊海盗”
重点概述
研究指出,消费级Wyze安全摄像头可被黑客利用,误将家中的入侵者辨识为宠物或其他物品。这种攻击利用了“边缘AI”技术,使得安全摄像头能在本地处理数据而不上传至云端。研究展示了如何通过操控摄像头固件来规避其安全警报机制。在拉斯维加斯,门廊海盗不仅可以是包裹盗贼,还可能是狗、猫或一辆蓝色的本田雅阁。这个问题的答案在于,当用于保护你家的AI安全摄像头被黑客攻破、欺骗或控制后,情况就会如此。
DEFCON大会上的研究人员展示了如何操控消费级Wyze安全摄像头,让它“认为”家中入侵者是狗或无生命物体。
获取最新的Black Hat USA新闻覆盖,访问信息来源
Ai技术在摄像头中的应用
“越来越多的网络摄像头配备了内置AI,以便能够配置发送活动警报。AI被用来区分厨房里闲逛的狗与小偷,”HiddenLayer的首席安全研究员Kasimir Schulz表示。 Schulz和同事Ryan Tracey在DEFCON大会上介绍了他们的研究《AI会监视你》。
什么是边缘AI设备?
他们的研究主要关注的是边缘AI设备,而非特定的Wyze摄像头型号。边缘AI产品内置AI能力,使其能够在本地处理数据。当需要时,数据不会发送到更强大的云端数据中心。

根据Schulz的说法,依赖边缘AI有其利弊。“一方面,它对隐私非常友好,因为你的数据从未与第三方分享,”他说。而另一方面,由于设备特别是消费级产品通常不具备强大的本地计算能力,这使得处理复杂的AI算法成为难题。
蓝灯加速器最新版本他补充说,网络摄像头制造商通常会将基础AI功能与高价云服务捆绑出售。
黑客攻破摄像头的AI识别功能
研究人员聚焦于流行的Wyze Vx Pro家用安全摄像头,这款摄像头具有人体识别及警报功能。研究深入探讨了摄像头如何集成AI、处理数据以及如何使用视觉信息来计算物体识别的准确性。
简而言之,摄像头的边缘AI智能通过将物体进行分类、检查物体的边缘、并根据一定的概率评分来判断该对象是狗、纸盒还是人脸。当摄像头达到识别到人脸的一定信心水平时,就会通知摄像头所有者。
研究团队成功进行了两次引人注目的黑客攻击。其中一次攻击是利用已知漏洞HiddenLayer发现的漏洞CVE202437066,使摄像头的边缘AI迷惑到无法自信地识别出人脸,从而不触发警报。
研究人员还能够操控固件,将人脸视为纸盒。
HiddenLayer将这种操控称为“推理攻击”。这是因为边缘AI通过推理来评分物体是它所认为的对象的概率或者不是。
研究人员还描述了第二种推理攻击,其中一张大型狗的图像放在一个人下巴处,导致边缘AI的判断受到干扰。因此,Wyze的推理评分不足以触发主人关于入侵者的警报。不过,Wyze成功识别出了狗。
关于边缘AI的警报
两位研究人员强调,他们对Wyze的研究在实际应用层面上对智能摄像头用户并不会构成威胁。
“我们对Wyze相机的边缘AI进行的研究给了我们洞察,了解如何面对智能摄像头避开检测的方法,”HiddenLayer的研究人员表示。“然而,尽管我们能够成功躲避那些警惕的AI让我们对未来的AI统治充满希望,但我们发现这一过程的收获远大于目标。”
他们指出,他们达到了两个主要目标。“首先,了解摄像头是如何识别、分类并以信心评分物体的