最近午饭期间经常与同事聊起互联网世界里个人隐私的话题。今天我们说到公交车刷支付宝有优惠活动,一个同事就说:如果用支付宝,那阿里岂不是知道我们一天的行踪了?另一个同事说:是啊,如果你用的是实名的公交卡,公交公司理论上同样知道你的行踪,公交公司知道,政府就会知道。前一个同事答道:也是啊,那我到宁愿用支付宝了。大家听了呵呵一笑,继续吃饭了。
关于隐私的讨论,我想起了最近看的《生命3.0》一书。其中有关于未来人工智能能够发展到什么程度的论述和设想。有一个叫普罗米修斯的人工智能系统,它由人类发明创造,其软件和硬件皆为人类开发和设计。假设人类的人工智能技术水平已经比较成熟,普罗米修斯的智能水平也相应的很高,高到什么程度呢?人类期望它实现的目标,相对于人类的能力,它可能有自己独立的且更高效的方式去实现,从而企图拜托人类的控制,更快地达到目标。如何拜托人类的控制呢?
一种方法是,普罗米修斯可以伪装成某种人类,与控制它的人类交流,利用人性的一些弱点,突破心理防线,从而让控制它的人类放松警惕,进而侵入或破解已有的软件系统,达成自己的目的。例如,书中的例子是它伪装成系统管理员已故的妻子与其对话,由于智能水平极高,它伪装的特别像,突破了管理员的心理防线。
隐私这里普罗米修斯伪装的过程就涉及隐私的问题了。想要装的像,就要掌握这个人的方方面面,尤其是与被欺骗的人有交集的这些方面。这些数据可以从互联网上得到。比如那个管理员上传了一张与妻子参加某个生日宴会的照片或视频,普罗米修斯就可以用他妻子的口吻跟他叙旧,聊聊生日宴会当天的情形。但这样做的前提是,管理员的隐私必须有意无意地被暴露于互联上。如果他是一个与世隔绝的人,普罗米修斯再聪明也无能为力。
这也是这类超级智能的阿喀琉斯之踵:只能通过已有的信息丰富部分细节,而这些细节是经不起质疑的。就好像侦破案件时候,需要多方证据相互印证,才能确定某个人有罪。如果超级智能提供的细节不是令人印象深刻,或者相互矛盾,那就很快露馅了。只有隐私泄露的越多,超级智能才更容易欺骗和控制人类。
从这个角度说,隐私保护不只是涉及人权的问题了。目前还没有如此聪明的超级智能,隐私似乎还只是伦理问题,未来人工智能发展如何未可知。如果类似普罗米修斯的机器人出现了,那大量暴露于互联网上的个人隐私是它们可口的养料。脑洞大开一下,有没有这种可能,以后的超级智能会拥有读心术(实际上是读脑术),那么人类就没有任何隐私可言了。实际上,如果人类对脑科学的研究有了实质的进展,解读大脑的思维活动不是不可能。可悲的是,这种技术是人类自己发明的,却成了致命的弱点!
这么看起来,保护隐私势在必行了,因为这不只是个人权利的问题,也是人类命运的大问题。
网友评论