2019年4月7日 星期日

传媒频道: AI算法"偷听"用户信息 突破伦理的"灰犀牛"并不远

传媒频道
传媒新闻 
AI算法"偷听"用户信息 突破伦理的"灰犀牛"并不远
Apr 8th 2019, 00:00, by 人民网

  漫画/勾犇

  人机未来

  在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。

  人工智能算法能"偷听"用户信息

  人工智能(AI)算法是否可以"偷听"你的信息?对于这样的疑问,许多人恐怕还半信半疑,难以给出确定答案。但剑桥大学的一项最新研究却表明:这是很有可能的。

  "偷听"的原理是:当人们轻敲手机和平板电脑的屏幕时会产生声波。这些声波通过设备的内置麦克风收集、恢复,从而就可"听到"敲击屏幕的声音。结合人工智能算法,听到的声音与键盘位置关联,就可实现"偷听"用户信息。

  开展这项研究的剑桥大学计算机实验室用其自己开发的算法模型进行了实验,结果表明,对于四位数密码而言,该模型在10次尝试后可以准确恢复54%的密码;20次尝试后可以恢复150个密码中的91个,识别准确率为61%。

  该项研究的论文于3月26日发表,题目就叫《听到你的触摸:智能手机上的新声学侧通道》。

  对于已经基本离不开智能手机的我们来说,这项研究结果无疑是当头一棒。就在前不久,某些手机APP"偷听"用户信息的消息,在很短时间内刷爆朋友圈,引发了巨大质疑。相关平台迅速出面辟谣,而许多针对性的测试也一时拿不出确凿证据。

  坦率地说,我们不相信相关平台就是在有意地"偷听",而更倾向于认为,这是大数据在自动生成"用户画像"。只是画像的精准度,也着实让人害怕。

  扎紧技术伦理和法律篱笆

  但从另一个角度来看,怀疑"偷听"不啻为一声响亮的警钟,它再次对我们发出警示:在人工智能和大数据时代,公民个人信息权益的保护,相较于技术发展更加脆弱,必须尽快找到可行的应对之道。

  同时,对以"进步"为名的技术发展,我们也必须保持高度警惕和怀疑,并时刻从人类尊严和技术伦理的高度详加审视。这是必要的审慎,绝不是螳臂当车的保守,因为墨菲定律早就说得非常清楚——如果事情有变坏的可能,不管这种可能性有多小,它总会发生,并造成最大可能的破坏。

  "偷听"有可能发生吗?剑桥大学的研究已经表明:肯定会的。虽然囿于技术的局限,目前尚无法偷听得那样精确。但假以时日,人工智能算法装备的智能手机等设备,肯定会把人"偷"得赤条条。而以技术发展在当今的迅猛之势,这个时日其实并不多么遥远。

  我们已清楚地看到"灰犀牛"就在那里,它正在向我们冲来。可是出于无数的利益计算和犹疑,人类就是找不到切实的预防、应对之策。

  这正是我们当前面临的恼人困惑。对于公民个人信息安全,目前能够想到的办法,无外乎以繁多的法律法规条款,尽可能扎紧篱笆,同时加大惩处力度。但这种办法,受制于差异极大的文化环境和执法力度,常常很难从纸面上真正落地。

  而更加薄弱的是,技术伦理明显还未受到应有的重视,更缺乏现实的灌输培育。很多科技者仅仅醉心于技术突破,由于和远端的技术应用者以及被影响者相隔着明显距离,他们几乎不可能感受到技术发展可能带来的麻烦与痛苦。对于"偷听"的怀疑,其实恰恰反证了技术伦理的缺位可能带来的问题。

  人工智能、大数据是当今社会发展的趋势,没有任何力量能够阻止它们前进的步伐。我们认可并且也愿意享受这样的进步,但前提条件是,它们应是为人类服务,而不是羞辱、奴役人类。

  □徐冰(新京报智慧城市研究院研究员)

You are receiving this email because you subscribed to this feed at blogtrottr.com. By using Blogtrottr, you agree to our policies, terms and conditions.

If you no longer wish to receive these emails, you can unsubscribe from this feed, or manage all your subscriptions.

沒有留言:

張貼留言