• 1
  • 2
  • 3
  • 4

首页 / 行业

轻松监听手机的信息,AI是如何窃取隐私、监控社会的?

2019-07-03 14:50:00

轻松监听手机的信息,AI是如何窃取隐私、监控社会的?

海归学者发起的公益学术平台

分享信息,整合资源

交流学术,偶尔风月

近日,剑桥大学计算机实验室在预印本平台arXiv上线了一项研究,研究人员设计了一种人工智能算法,该算法通过监听用户点击手机屏幕发出的声音,可以还原出用户在智能手机上的输入内容。

该研究由剑桥大学的Ilia Shumailov、Jeff Yan、Ross Anderson及三星美国研究院Laurent Simon合作开展。

在这个被智能手机统治了的社会,人们伸手点触摸屏的频次或许比张嘴说话更多。而任何点击屏幕的操作都不可避免地会发出声音。或许人们自己听不见,可是手机内置的麦克风却能听得一清二楚。

研究人员利用这一点,对人们点击屏幕的声音进行了监听,他们辨认出点击屏幕不同区域时所产生的声波波形,再进一步运用人工智能算法,使还原用户输入内容成为了可能。从此,窥探隐私、窃取密码易如反掌。

图1.点击触摸屏上f时的声波波形反馈

剑桥大学计算机实验室安全工程教授Ross Anderson及其团队设计开发了一个可以监听触摸屏声波的应用程序,并随即采用机器学习算法对其进行训练,使其能够顺利还原出用户输入内容。

图2.可以监听触摸屏的应用程序

研究人员模拟了三种日常噪声环境,并在这种环境下检验AI是否能成功还原信息。这三种环境分别为:

1、公共休息室:有人在旁边谈话,偶尔会有咖啡机噪声。

2、阅览室:有轻微键盘敲击声,有人低声谈话。

3、图书馆:几乎无人谈话,仅有键盘敲击声。

被试将被要求在上述环境中输入文字与数字,而所采用的设备为谷歌智能手机Nexus 5与谷歌平板电脑Nexus 9。这两种设备均有两个内置麦克风。

当被试输入的是四位数字密码时,重复输入该密码10次后,AI识别出正确密码的概率是54%,重复输入该密码20次后,正确识别率为61%。被试输入单词时还原同样有效。对于一个27词长度的英文密码,在重复输入10次之后,Nexus 5手机上能够被正确还原7个单词, Nexus 9平板电脑上能够被正确还原19个单词。

研究人员表示,该算法模型还仅仅处于实验阶段。但这无疑揭示了一个针对人们隐私的巨大潜在威胁。而在其中助纣为虐的,正是上天入地无所不能的人工智能。

无独有偶,在更早的一项研究里,研究人员竟然能够利用AI分析薯片包装袋的振动,进而破译附近的人的谈话内容。

这个来自MIT的研究团队通过捕捉物体的微小振动还原了音频。在实验里,研究人员在4.6米外透过隔音玻璃拍摄一个薯片包装袋,而后通过分析包装袋的振动还原了谈话内容。而在另一项实验中,研究人员通过监测植物叶片振动,成功鉴别出了播放的歌曲。

而原理同样简单:当声波击中物体时会引发物体振动,这正是一种视觉信号。通过对视觉信号的分析,我们就可以还原出音频。而这些视觉信号人类的肉眼难以分辨,但是深度学习后的AI不仅可以轻松辨别,更能够将这些信号背后的内容破译出来。

横行世界的AI 监控大师

严格说来,“偷听”还不算人工智能的最强项,“偷看”才是。事实上,AI在人脸识别上的巨大突破,令其成为了人们最理想的监控助手。尤其在公共安全领域,AI监控正在发挥巨大的作用。

在莫斯科,城市正在组建一套监控设施,该系统拥有超过10 万台高分辨率相机,覆盖了城市 90% 以上的公寓出入口,AI通过这些相机提供的资料进行人脸识别;在英国,警方开发了一套相当完备的AI监控系统,它能够准确区分上百万个嫌疑人,甚至仅仅看见嫌疑人的耳朵就可以确定他的身份。

在过去十年间,中国是世界上监控摄像头增长最快的国家。根据IHS Markit 2016 年的数据,中国共有约 1.76 亿个监控摄像头,而这一数值在2020年有望突破6亿。这样的背景为AI监控技术提供了旷阔的成长空间。

现在AI技术的成长速度令人咋舌。即便你戴上墨镜口罩,AI也照样可以识别。来自剑桥大学的Amarjot Singh、印度国家理工学院的Devendra Patil、G Meghana Reddy和印度科学院的SN Omkar,在一篇题为“Disguised Face Identification (DFI) with Facial Key Points using Spatial Fusion Convolutional Network”的论文当中,初步验证了人工智能可以用于识别那些戴着帽子、围巾、墨镜的人。

除开看脸的人脸识别,AI也有不看脸的步态识别算法。我国河南的一起案件就运用了这种技术,AI通过对对其步态体征进行分析,仅花费33个小时,就从3000个小时的监控视频资料里寻找到了特征吻合的嫌疑人。案件圆满告破。

不过,历史经验告诉我们,技术发展似乎总是一把双刃剑。在迅猛的AI技术发展背后,我们或许应该更多地思考:这些技术将为人们勾勒出一幅怎样的生活图景?

AI发展与隐私泄露

再度崛起的AI技术自然是一匹意义巨大的黑马,但窥探手机隐私,破译私密谈话内容,无处不在的监控识别,似乎也已将人类的隐私逼入了一个死角。例如,现在许多企业都将AI技术用于员工考勤,而更有一些企业让AI变成了一位“常驻监工”。 这些AI监工将员工的工作量化,并结合多种参数判断员工绩效如何、是否有偷懒嫌疑。

这样的AI监工受到了老板们的热烈欢迎。互联网企业高管Dana Gibber表示,这些AI监工将被认为是非常有价值的,因为它们会提供关于员工行为的重要意见,鼓励最佳的工作状态,提高工作效率。不过对于员工们来说则是五味杂陈,因为在全方位监督工作过程时,个人隐私也必定荡然无存。

而另一方面,AI的深度学习是建立在大数据之上的。在使用深度学习AI的过程中,往往伴随着海量隐私数据泄露的风险。

2017年5月,在没有征询患者意见的情况下,英国皇家自由信托基金会将共计160万份病人资料提供给AI公司DeepMind。这些医疗资料里甚至包括HIV感染状况、过去的吸毒量和堕胎信息等私密数据。而面对公众愤怒的质疑,DeepMind和英国皇家自由信托基金会表示,他们认为患者已经给予“暗示同意”。

2017年9月,我国浙江绍兴警方取缔了臭名昭著的“快啊”打码平台,该平台窃取了近10亿组公民个人信息。作案人员在破解一个用户密码之后,往往用该密码尝试登入其他各大网站,以便破解该用户的更多账户。该过程称之为“撞库”。

而在撞库过程中,各网站的验证码机制让作案人员必须手工键入,这无疑大大拖慢了破解速度。于是“快啊”案的作案人员转而使用一个深度学习AI,完美解决了验证码问题。据悉,该AI破解验证码的效率在90%之上。

其实在AI技术声势喧天之时,反思与警告的声音一直都存在。只不过它们都被淹没在了关于AI技术的溢美之词里。特斯拉首席执行官Elon Musk至始至终对AI保持警惕态度,他联合众多硅谷巨头发起了非营利组织Open AI,旨在预防人工智能的灾难性影响,推动人工智能发挥积极作用。

前不久,谷歌发布了一款可以自动拍照的AI相机Google Clips,许多人质疑这样的自动相机是否会侵犯用户隐私。Musk则直接发推讥讽说:“这玩意甚至不屑于让自己‘看起来’是无辜的。”

对于AI技术的反思很多,而隐私保护是其中非常重要的一环。按照如今的AI发展速度,这个问题已经迫在眼前。如何在发展技术的同时建立起全新的法律法规、伦理框架,从而将收益提至最高、将风险降至最低,这是一个亟待解决的问题。相信,没有人愿意生活在一个毫无隐私、处处被监视的世界。

而尤其需要铭记的是,在一个技术飞速革新的社会里,我们都不是局外人,技术现在的发展将决定我们未来的生活。SAP首席学习官Jenny Dearborn说:“对于人工智能渗透到人们生活的程度,人们需要有所了解。这样,他们就不会在某天醒来说:‘我一直都是被利用的棋子’”。

人工智能风险框架伦理

  • 1
  • 2
  • 3
  • 4

最新内容

手机

相关内容

  • 1
  • 2
  • 3

猜你喜欢