侵权投诉
当前位置:

OFweek安防网

正文

你有99招藏隐私,但AI产品总有100种方式“偷窥“你

导读: 可以这样说,科技越来越发达,人心却越来越恐惧。你有99招藏隐私,但AI产品总有100种方式“偷窥“你。如何保障自己的隐私安全,首先就得把AI产品从你的卧室踢出去!

还记得前些天被vivo NEX占领的那些头条么?

这款配有升降摄像头的手机,在用户进入QQ浏览器界面搜索信息时,NEX的摄像头突然升起一半由迅速下降。这个有点类似打地鼠游戏的体验看起来似乎挺有趣的,但一想到涉及隐私安全问题是就有些恐惧了:我们在打开某些类似软件时,会被“光明正大”的拍摄么?

虽然我们不能因为这个事例就给QQ浏览器扣上利用前置摄像头偷拍机主的帽子,但是,“我允许你打开摄像头”和“天啊,前置摄像头自动打开了”完全是两件性质完全不同的事情,谁心里还没点谱,谁不害怕呢!

“我们生活在一个隐私完全曝光的时代里”,这句话说得一点都没错。这些年,伴随着AI产品的涌现,我们莫名其妙被经历的那些隐私泄露事件还少么?

智能音箱轮番上演“窃听风云”

从2015年发生在阿肯色州的一起谋杀案开始,充当“证人“的亚马逊Echo便开始因隐私问题而变得与众不同。智能音箱产品也因此轮番陷入“窃听风云”风波:由于Google Home Mini音箱被曝侵犯隐私,谷歌永久性移除新智能音箱顶部触摸功能,并表示不再重新激活;亚马逊Echo曾成为一场谋杀案关键证人,因为警方认为Echo音箱的数据库内会有凶案当晚的语音片段纪录;谷歌Home在一对夫妻吵架时识别出“报警”的语音,并将其理解成为语音指令,拨打了911报警电话,稀里糊涂地成为了救人英雄。

更有研究显示,来自亚马逊和谷歌的专利申请曝光了其智能音箱是如何“偷听”用户的。该组织的研究称,从这两大巨头的专利申请可以看出,这些设备可能被用作收集大量信息和广告推广的监听设备。

这意味着这些以“随时待命”做噱头的智能音箱,换句话说也是在全天候地监听你的隐私。

智能摄像头产业下黑色交易——“偷窥”

去年双12当天,一篇题为《一位92年女生致周鸿祎:别再盯着我们看了》的文章在网络上受到广泛关注。而在此之前,关于智能摄像头的“偷窥”问题早已潜伏在你我身边。

国家质检总局官网发布关于智能摄像头的质量安全的风险警示称,在已检测的40批次中,32批次样品存在质量安全隐患,可能导致用户监控视频被泄露,或智能摄像头被恶意控制等危害。

更恐怖的是,智能摄像头在泄露你我隐私的同时,正慢慢发展起了一种黑色交易:家用摄像头破解软件和IP网上公开售卖、部分被偷录视频被出售。

从隐私泄露到黑色交易,这已经不是简单的“谁动了我的监控”问题!

智能门锁深陷“小黑门”

在第九届中国(永康)国际门业博览会上,一款能在3秒内破解智能锁的小黑特斯拉线圈,成为了行业焦点,引起了大众对智能门锁安全性的担忧,智能门锁原来也如此不靠谱。

被特斯拉线圈秒开的智能锁是由不合格电路板和线缆导致,我们暂且可以归咎到智能门锁的制造问题。但目前智能门锁的安全问题,却不只是深陷“小黑门”这么单纯。

有媒体称,被亚马逊收购的智能门锁创企Ring在今年早些时候屡报安全漏洞:即便房主更改过密码,其他人也能继续通过该漏洞,借助门锁配备的摄像头窥看室内。

还有亚马逊的Amazon Key服务,这场依靠云摄像机安全摄像头,智能门锁和Key应用程序的送货到家服务,将授予送货人员临时访问权利:送货人员可以使用手机解锁家门,将快递放入家中,然后再次锁上门。虽然亚马逊的初心不错,但谁能确定“送货人”一定是送货人。

千防万防,就是防不住科技企业脑洞大开背后的安全隐患。

可穿戴设备变实时定位

近日,法国可穿戴智能设备公司Polar旗下App出现漏洞,其App中有一项功能会泄露用户的位置信息,变身实时定位。而Polar App漏洞的出现不止是个人隐私问题,甚至还涉及了国家安全问题。

有调查发现,恶意使用者可以利用Polar地图数据确定敏感军事基地的位置,而且还可以获取用户的名字、地址信息。在Explore地图中可以看到用户的活动,甚至包括士兵的活动,这些士兵在伊拉克打击ISIS。

这也并不是可穿戴设备首次爆出的隐私问题。但这恰好印证了一句话:果真如此,几乎所有内置GPS定位的智能设备都是一枚实时追踪器。

且不说中国的AI产品,外商的AI产品曾一度以质量过硬,性能稳定著称,但安讯士等不少厂商用自身经历告诫市场:不小心谁都容易栽倒在网络安全漏洞上。在物联网时代,网络安全需要在各个环节层层把关,齐心呵护。

无论是固件问题还是技术问题,亦或是网络安全漏洞,AI产品所带来的隐私问题已成了无法避免的事实。AI产品背后的隐患不仅仅会对产品使用者带来极大的生活威胁,也将给企业带来危机。

脸书的数据泄漏事件是有关隐私问题的最佳案例,但能像脸书那样解决危机的企业也只有少数几家,况且脸书的危机也并没有完全解决。

再换个对象说隐私问题。

从根源上说,人脸识别技术是当前AI潮流下的“炸子鸡”,但这种看起来特别安全的AI技术依旧逃脱不了隐私的怪圈。用美国公民自由联盟的话说,将人脸识别技术应用到前端视频监控摄像机上,可能会打破隐私及实用性之间的平衡 。假设美国警方有若干台这样的安防摄像机,同时拥有可疑人员的“黑名单”照片库,那么其他任何人如果与这些可疑人员有一些相像,一旦进入警察的安防摄像机的镜头之内,都有可能受到警务人员的盘问,而大多数美国人不希望生活在那样的世界里。

这种焦虑反映的问题是,人们对每个时刻都在监视的人工智能全视系统的能力和可能存在的弊端感到不安——就连当局也越来越渴望能使用它们。

于是,这种焦虑带来的结果是:美国奥兰多市政府停止使用亚马逊人脸识别技术,比利时政府也出台相应的法规,禁止私人使用人脸识别或其他基于生物特征的视频分析摄像机。

一项对美国超过1000名成年人的最新调查显示:只有不到三分之一(31.9%)的受访者表示不相信智能家居设备会记录他们的隐私对话;而48.9%的受访者表示相信,还有19.2%的是受访者表示不确定。当问到具体的智能摄像机时,36%的受访者表示他们相信这些智能家居设备会记录他们的隐私内容。

笔者在某个网站上看到一条很有意思的留言:“我隔三差五都会用软件监控一下QQ会不会在无人时扫描毫不相干的磁盘 —— 现在版本的QQ不会了。但我依然会在无人时,用批处理结束掉QQ所有进程。”软件尚且如此,AI产品又怎能不让人大担心呢?

可以这样说,科技越来越发达,人心却越来越恐惧。你有99招藏隐私,但AI产品总有100种方式“偷窥“你。如何保障自己的隐私安全,首先就得把AI产品从你的卧室踢出去!

不过,还是做个好人吧,指不定哪天你就被公开“diss”了。

智能产品确实满足了人的生活需求,但科技之下总会有阴影,谁又能来保护使用者的安全,厂家吗?

声明: 本文系OFweek根据授权转载自其它媒体或授权刊载,目的在于信息传递,并不代表本站赞同其观点和对其真实性负责,如有新闻稿件和图片作品的内容、版权以及其它问题的,请联系我们。

我来说两句

(共0条评论,0人参与)

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号