每个个体都有唯一的可以测量或可自动识别和验证的生理特性或行为方式,即生物特征。它可划分为生理特征(如指纹、面像、虹膜、掌纹等)和行为特征(如步态、声音、笔迹等)。生物特征识别就是利用这些个体固有的特征信息进行身份鉴别。在人机交互中,生物特征也主要运用于身份鉴别。
运用最成熟和广泛的的生物特征就是指纹了。抛开日常所见的考勤机、签到机不谈。指纹识别早在功能机时代就已经进入了手机中用于身份识别(F505i - 由日本电信公司NTT DoCoMo在2003年7月推出)。在智能手机时代,摩托罗拉和HTC都曾发布过带有指纹识别的智能手机,但若说是更为成熟和广泛的应用,是在苹果发布iPhone5s之后,紧随其后的三星在自己家的旗舰机Galaxy S5上也采用了指纹识别,不同的是,三星采用的滑动式指纹识别,苹果采用的是按压式的指纹识别。在操作上,按压式指纹识别的用户体验明显优于滑动式指纹识别,并且支持360度的指纹识别。目前各手机厂商也均采用了按压式的指纹识别方案。
到今天,指纹已经不仅仅用于解锁屏幕时的身份鉴别,而且在各种支付场景中,也都得到广泛应用,免去输入密码的繁琐。
在安全性上,指纹识别仍存在较大争议,虽然其避免了输入密码时可能被偷窥的可能性,但是最大的漏洞是缺乏生物活性的检测,而指纹是可以复制的。通过窃取他人指纹,再使用橡胶对指纹进行复制,完全可以骗过手机的指纹身份验证,解锁手机。
面部识别早已不是新鲜事,记得早在三星的Galaxy S3上,就已经实现了人脸解锁,但识别精度和识别速度都很不令人满意,其安全性也极低,可以轻易地使用照片来骗过手机,解锁屏幕,实用性不强,这也是面部识别发展的一个难点。
9月苹果发布iPhone X,首次用面部识别代替指纹识别作为身份验证的解决方案。相比于其他厂商在全面屏手机中采用后置指纹识别的方案,可以说又是跨跃性的一步。根据苹果官方说法,随机挑人能够指纹解锁你手机的概率是1/50000,而面部识别能解锁你手机的概率是1/1000000。但iPhone x所采用的面部识别,可以不被照片欺骗了吗?虽然没有实际测验过,但根据其“刘海”部分所分布的各种传感器元器件来说,似乎是的。
iPhone X面部识别硬件结构除传统的听筒和前置摄像头外,还有一个可以投射30000多个肉眼不可见的光点的点阵投影器以及读取点阵的红外镜头和泛光感应元件。大部分人可能并不了解其工作原理,这点可以参考结构光3D成像原理,笔者的毕业设计刚好与之相关,通过线形激光在物体表面移动,摄像头采集各个时刻线条的形状结构,反推物体表面的三维结构。类似的,苹果通过30000多个点阵在面部的分布位置,通过合适的算法就可以反推出面部的3D轮廓。也就是说手机中所存储的是面部的三维轮廓,每次识别时也是对比实时三维轮廓,也就从根源上避免了可能被照片欺骗的问题。而且根据发布会介绍,进行面部识别时,眼睛必须注视手机,否则将无法解锁,可以说是增加了生物活性的检测,从一定程度上避免了复制特征解锁的可能性。虽不是果粉,但不得不说苹果真的很强大。当别的厂商还在纠结到底要不要使用充满诟病的面部识别的时候,苹果已经使用了最前沿的3D面部识别技术。所以,苹果就算背负着骂名也要留着那一撮“刘海” 。
在行为特征中,大家最熟悉也是目前发展迅速就是语音了。而且已经不再仅仅局限于语音识别,向难度更大的语意识别迈进。
可以发现,任何一款手机的系统内置应用中,都有语音识别软件。苹果有Siri,三星有最新的Bixby。根据目前了解,小米、华为、魅族均采用了科大讯飞的语音识别引擎,在识别精度和基本功能上,并无较大差别。关于Siri、Bixby有更为详细的评测介绍。
笔者曾对比分析小米、华为、魅族的语音识别,以华为为例,通过语音识别,可以实现拨打电话、翻译、管理闹钟、管理日程、管理备忘录、嘀嘀打车、发微博、查询生活资讯、发送信息、查询出行信息、打开系统常用开关、播放/查找音乐、查找餐馆、百科搜索、查找菜谱、使用高德地图、查询天气、打开应用查找地图、搜索、打开常用网站、查询股票、查看帮助共22个场景。
但实际上,用户对于智能手机中语音识别并不在意,日常使用频率很少。其主要原因在于在大部分场景中,语音识别式的交互仍存在技术和用户体验上的一些问题。首先是启动问题,用户既然可以使用触控的方式去启动手机上的语音识别功能,然后输入语音去完成某项操作,为什么不直接靠触控去完成想要进行的操作呢。在这点问题上,可以看到华为做了些许努力,华为的语音助手支持语音唤醒和蓝牙耳机按键唤醒,虽然功能基本实现,但识别率仍较低。根据使用习惯,蓝牙耳机按键唤醒则更适用于驾驶环境中,但笔者使用魅族的EP51蓝牙耳机连接后,发现并不能通过耳机按键唤醒???
到目前为止,语音识别的准确度都已较高,在语意识别上的相关研究也正进一步推进,但最大的问题在于通过语音识别进行人机交互的隐私性太弱。与传统的触控操作不同,语音交互相当于直接把自己的操作过程和意图暴露到使用环境中去。想想自己在上班的时候,在工位对着手机说:帮我查一查xxx股票/帮我发一个微博。相信大多数人都不会选择这么干。
相比智能手机上的语音识别,近期在家庭生活场景中,以智能音箱的身份出现的语音识别似乎更能引起人们的注意力。毕竟在家中不必担心旁人听到自己都干了什么。
小米AI智能音箱笔者曾在小米之家调戏小爱同学,不仅由于在家庭生活场景中,可以直接或间接地与各种智能硬件、家用电器等实现一对多的连接。可以说语音识别在从可玩儿到可用慢慢转变。而且其不仅仅从简单的语音识别切入,而是以语音+智能场景(硬件)的方式切入,类似于目前家电企业的“智慧家居”。相信看过钢铁侠的都知道托尼的贾维斯智能管家是多么酷炫和强大的存在。而且在家庭生活中,似乎更适合使用语音的方式进行交互,做法的时候可能想把电视关掉,而此时手已经沾满了水,你只要说一声就好;睡下的时候忘了给空调定时,又不想去拿遥控器,你只要说一声就好;而且也不会存在隐私暴露的情况。智能音箱已经不仅仅再是一个语音识别的工具,而是作为一个多设备控制器的形式进入我们生活中,语音仅仅是作为适用于这个场景的一种交互方式。毕竟你肯定不希望得到的是一个集空调、电视、顶灯开关于一体的有着数不清的按键的超大遥控器。
相比生物特征,通过生物电来进行人机交互,了解的人并不是很多,可以说这是一种未来的交互方式,大部分仍处于实验和研究阶段。由于笔者曾在某电子科技大学主修生物医学工程专业,对此方面有一定了解。
生物的器官、组织和细胞在生命活动过程中发生的电位和极性变化。它是生命活动过程中的一类物理、物理-化学变化,是正常生理活动的表现,也是生物活组织的一个基本特征。人类在进行各项生理活动时都在放电。心脏跳动时会产生1~2毫伏的电压,眼睛开闭会产生5~6毫伏的电压,而思考问题时大脑会产生0.2~1毫伏的电压。
生物电信号经过采集、滤波、放大后可作为特定的输入控制信号,从而组成人-机系统。
生物电在人机交互中,同样既可以作为身份鉴别特征,也可以作为控制输入。
大家平时接触较多的是心电,每个心电周期的曲线都由一个P波、一个QRS波群、一个T波、一个U波,由于个体的年龄、行别、体重以及心脏的大小、位置、结构以及胸腔结构存在或大或小的差异,这些差异会作用于心电周期内的某个波上,因此在大的总体特征下,每个人在不同的波段的波峰、波谷又存在一些个性特征。通过提取、比较细微的个体差别,就可以通过心电进行身份的鉴别。这一点在实验室已经成功实现,相比指纹识别、面部识别,心电身份识别的隐私性和可复制性更低,有着更高的安全性。而且华米的米动健康手环已经搭载这一功能,但仅仅是作为beta版的功能上线,识别精度和识别速度上仍有不少问题。
与心电不同,肌电信号多用于控制输入,不同的肌肉运动会产生不同的肌电信号,将不同的肌电信号作为输入便可进行操作和控制,相当于可以凌空进行操作,不必说话,也不必接触被控制器,只需一个信号采集器,便可通过无线方式进行控制。也许旁人看到你在手舞足蹈,但其实你只是在切换歌曲或者切换电视节目。由于生物电信号及其微弱,信号采集后干扰信号较多,需要进行大量的放大、滤波操作。所以信号采集处理设备很难做到体积微小。这也是目前限制其发展的一个主要原因。
通过肌电信号控制的智能手表相比心电、肌电,脑电的开发前景可以说是没有尽头。个人认为,也是人机交互的终极。首先,脑电可以像心电一样作为个体特征进行身份识别,简单点说,我每次在脑海中想象我的手和你每次在脑海中想象你的手所产生的脑电信号是具有个体特征的,也就可以用做身份识别了。另外,脑电还可作为控制输入,可以实现所谓的“意念操作”,通过想象不同的物体、动作、词汇,产生的脑电信号经过放大、滤波后作为控制输入信号。当然目前也是仅仅停留在实验室阶段。相信技术成熟后,对残障人士将会产生巨大的帮助,在人机交互中,也有不可估量的发展前景。到那一刻,你不必用手去触摸,也不必说话,更不必手舞足蹈,只需冥想。
通过脑电信号控制的“意念小球”可以说,人机交互的方式随着科技发展在渐渐脱离双手,脱离肢体,转向“全面交互”。
网友评论