美文网首页
德国杂感7:künstliche_intelligenz

德国杂感7:künstliche_intelligenz

作者: 小镇蜗牛哥 | 来源:发表于2019-07-12 16:30 被阅读0次
    @历史和现在@昨日偶拍@纽伦堡火车站@1900年纪念墙@KI展览海报

    有感于昨日在纽伦堡火车站的科普微展览,随聊下“künstliche intelligenz - 德语人工智能”。

    @Chance@KI@纽伦堡火车站
    1. 虽也学过一些基础编程理论和知识,但AI以我自己目前的知识结构而言,可能只能算是普罗大众。所以,只能从大众体验者的角度来描述一种很初级的体会。目前在手机端,我使用效率最高、效果最明显的是各类地图APP(这两天在德国用着google map,在国内主用腾讯地图),不管在国内、国外,不管开车、地铁、公交、铁路,能够以很快速、不求人的方式迅速找到从起点到终点的到达路径的最优和次优解,还能捕捉到沿路的实时拥堵情况、沿路的加油站、超市、景点信息,希望看的更细的,可以参考他人的评论等等。

    2. 从地图的人工智能场景来探索一下,初始使用时,是信息需求人和机器人之间的对话,更严格来说,是和机器中的一段“算法”的对话;过程中,比如走了一半的路,有可能会调整方向,机器也会不厌其烦的推送“更替”的路途最优和次优建议;到达时,机器会主动询问你的使用感受,让需求人提供有效有价值的评价。纵观开始、经过、结果,机器算法都在模拟人的思考逻辑和需求人保持互动对话。

    3. 人工智能从一开始就落实商业伦理、社会伦理的意义:这段话不是我的原创,而是作为一名管理会计咨询师的职业本能,再加上后面转载的两篇文章给予我的更多引导的思考。人工智能,其本质脱离不了人类工具,而人类因工具理性的过度滥用而产生的伤害,在历史上不胜枚举。所以,从一开始就汲取教训,把对人工智能的运用限定在人类底层社会和商业道德的底线之上,尤为关键。君不见,近三年的央视315晚会,有很多所谓“信息技术公司”,滥用、贩卖非法甚至合法获取的隐私数据,被曝光并惩罚的例子举不胜举。

    好了,就这样吧。又回到了慕尼黑,亲切感油然而生。

    今天重点参观德意志博物馆。

    @KI@人类温情

    转载两篇不新的新闻,当时看到时留下的印象还挺深刻。

    《 欧盟发布人工智能伦理准则》本报驻比利时记者 方莹馨

    2019年04月11日 人民网-人民日报

    欧盟委员会4月8日发布人工智能伦理准则,以提升人们对人工智能产业的信任。欧盟委员会同时宣布启动人工智能伦理准则的试行阶段,邀请工商企业、研究机构和政府机构对该准则进行测试。

    该准则由欧盟人工智能高级别专家组起草,列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。

    根据官方解释,“可信赖的人工智能”有两个必要的组成部分:

    1. 是应尊重基本人权、规章制度、核心原则及价值观;
    2. 是应在技术上安全可靠,避免因技术不足而造成无意的伤害。

    举例来说,如果人工智能在未来诊断出一个人患有某种病症,欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断,也不会无视人类医生的反对意见,患者可以自行选择获得对诊断结果的解释。

    欧盟数字经济和社会专员玛利亚·加布里尔表示,算法做出的任何决定都必须经过验证和解释。当保险公司的系统拒绝了一次索赔后,客户应当能详细地知晓缘由。加布里尔还强调,还需要确保人工智能系统的公平。如果招聘系统使用的算法是由一家仅雇用男性员工的公司数据生成的,其算法就可能会筛除女性应聘者,“这样带有偏见的数据输入将会带来伦理困境”。

    对于这份准则,欧委会副主席兼欧盟单一数字市场战略副总裁安德鲁斯·安西普表示:“符合伦理标准的人工智能将带来双赢,可以成为欧洲的竞争优势,欧洲可以成为人们信任的、以人为本的人工智能领导者。”

    欧盟此举也受到一些质疑。非营利组织“算法观察”联合创始人马蒂亚斯·斯皮尔坎普认为,尽管制定准则是一个好主意,但准则围绕的核心——“可信赖人工智能”这一概念的定义尚不明确,且目前还不清楚未来的监管如何实施;还有业内人士担心,准则过分细化会使许多公司尤其是中小型企业难以操作;此外,参与了准则起草工作的德国美因茨大学哲学教授托马斯·梅辛格对于欧盟没有禁止使用人工智能开发武器表示批评。

    《人民日报》( 2019年04月11日 17 版)


    《人工智能的六大伦理原则》
    作者:微软人工智能项目总经理,原载2019年5月27日《财经》杂志
     Tim O’Brien | 文

    AI机器人的随机图片

    透明度和问责制是基础,其他四项原则是公平、可靠和安全、隐私和保障、包容

    2018年,微软发表了《未来计算》(The Future Computed)一书,其中提出了人工智能开发的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任。

    首先是公平性。
    公平性是指对人而言,
    不同区域的人、不同等级的
    所有人在AI面前是平等的,
    不应该有人被歧视。
    

    人工智能数据的设计均始于训练数据的选择,这是可能产生不公的第一个环节。训练数据应该足以代表我们生存的多样化的世界,至少是人工智能将运行的那一部分世界。以面部识别、情绪检测的人工智能系统为例,如果只对成年人脸部图像进行训练,这个系统可能就无法准确识别儿童的特征或表情。

    确保数据的“代表性”还不够,种族主义和性别歧视也可能悄悄混入社会数据。假设我们设计一个帮助雇主筛选求职者的人工智能系统,如果用公共就业数据进行筛选,系统很可能会“学习”到大多数软件开发人员为男性,在选择软件开发人员职位的人选时,该系统就很可能偏向男性,尽管实施该系统的公司想要通过招聘提高员工的多样性。

    如果人们假定技术系统比人更少出错、更加精准、更具权威,也可能造成不公。许多情况下,人工智能系统输出的结果是一个概率预测,比如“申请人贷款违约概率约为70%”,这个结果可能非常准确,但如果贷款管理人员将“70%的违约风险”简单解释为“不良信用风险”,拒绝向所有人提供贷款,那么就有三成的人虽然信用状况良好,贷款申请也被拒绝,导致不公。因此,我们需要对人进行培训,使其理解人工智能结果的含义和影响,弥补人工智能决策中的不足。

    第二是可靠性和安全性。
    它指的是人工智能使用起来
    是安全的、可靠的,不作恶的。
    

    目前全美热议的一个话题是自动驾驶车辆的问题。之前有新闻报道,一辆行驶中的特斯拉系统出现了问题,车辆仍然以每小时70英里的速度在高速行驶,但是驾驶系统已经死机,司机无法重启自动驾驶系统。

    想象一下,如果你要发布一个新药,它的监管、测试和临床试验会受到非常严格的监管流程。但是,为什么自动驾驶车辆的系统安全性完全是松监管甚至是无监管的?这就是一种对自动化的偏见,指的是我们过度相信自动化。这是一个很奇怪的矛盾:一方面人类过度地信赖机器,但是另一方面其实这与人类的利益是冲突的。

    另一个案例发生在旧金山,一个已经喝晕了的特斯拉车主直接进到车里打开了自动驾驶系统,睡在车里,然后这辆车就自动开走了。这个特斯拉的车主觉得,“我喝醉了,我没有能力继续开车,但是我可以相信特斯拉的自动驾驶系统帮我驾驶,那我是不是就不违法了?”但事实上这也属于违法的行为。

    可靠性、安全性是人工智能非常需要关注的一个领域。自动驾驶车只是其中一个例子,它涉及到的领域也绝不仅限于自动驾驶。

    第三是隐私和保障,
    人工智能因为涉及到数据,
    所以总是会引起个人隐私和
    数据安全方面的问题。
    

    美国一个非常流行的健身的App叫Strava,比如你骑自行车,骑行的数据会上传到平台上,在社交媒体平台上有很多人就可以看到你的健身数据。问题随之而来,有很多美国军事基地的在役军人也在锻炼时用这个应用,他们锻炼的轨迹数据全部上传了,整个军事基地的地图数据在平台上就都有了。美国军事基地的位置是高度保密的信息,但是军方从来没想到一款健身的App就轻松地把数据泄露出去了。

    第四是人工智能
    必须考虑到包容性的道德原则,
    要考虑到世界上各种功能障碍
    的人群。
    

    举个领英的例子,他们有一项服务叫“领英经济图谱搜索”。领英、谷歌和美国一些大学联合做过一个研究,研究通过领英实现职业提升的用户中是否存在性别差异?这个研究主要聚焦了全美排名前20 MBA的一些毕业生,他们在毕业之后会在领英描述自己的职业生涯,他们主要是对比这些数据。研究的结论是,至少在全美排名前20的MBA的毕业生中,存在自我推荐上的性别差异。如果你是一个男性的MBA毕业生,通常你在毛遂自荐的力度上要超过女性。

    如果你是一个公司负责招聘的人,登录领英的系统,就会有一些关键字域要选,其中有一页是自我总结。在这一页上,男性对自己的总结和评估通常都会高过女性,女性在这方面对于自我的评价是偏低的。所以,作为一个招聘者,在招聘人员的时候其实要获得不同的数据信号,要将这种数据信号的权重降下来,才不会干扰对应聘者的正常评估。

    但是,这又涉及到一个程度的问题,这个数据信号不能调得过低,也不能调得过高,要有一个正确的度。数据能够为人类提供很多的洞察力,但是数据本身也包含一些偏见。那我们如何从人工智能、伦理的角度来更好地把握这样一个偏见的程度,来实现这种包容性,这就是我们说的人工智能包容性的内涵。

    在这四项价值观之下还有两项重要的原则:透明度和问责制,它们是所有其他原则的基础。

    第五是透明度。
    在过去十年,人工智能领域
    突飞猛进最重要的一个技术
    就是深度学习。
    

    深度学习是机器学习中的一种模型,我们认为至少在现阶段,深度学习模型的准确度是所有机器学习模型中最高的,但在这里存在一个它是否透明的问题。透明度和准确度无法兼得,你只能在二者权衡取舍,如果你要更高的准确度,你就要牺牲一定的透明度。

    在李世石和AlphaGo的围棋赛中就有这样的例子,AlphaGo打出的很多手棋事实上是人工智能专家和围棋职业选手根本无法理解的。如果你是一个人类棋手,你绝对不会下出这样一手棋。所以到底人工智能的逻辑是什么,它的思维是什么,人类目前不清楚。

    所以我们现在面临的问题是,深度学习的模型很准确,但是它存在不透明的问题。如果这些模型、人工智能系统不透明,就有潜在的不安全问题。

    为什么透明度这么重要?举个例子,20世纪90年代在卡耐基梅隆大学,有一位学者在做有关肺炎方面的研究,其中一个团队做基于规则的分析,帮助决定患者是否需要住院。基于规则的分析准确率不高,但由于基于规则的分析都是人类能够理解的一些规则,因此透明性好。他们“学习”到哮喘患者死于肺炎的概率低于一般人群。

    然而,这个结果显然违背常识,如果一个人既患有哮喘,也患有肺炎,那么死亡率应该是更高的。这个研究“学习”所得出的结果,其原因在于,一个哮喘病人由于常常会处于危险之中,一旦出现症状,他们的警惕性更高、接受的医护措施会更好,因此能更快得到更好的医疗。这就是人的因素,如果你知道你有哮喘,你就会迅速采取应急措施。

    人的主观因素并没有作为客观的数据放在训练模型的数据图中,如果人类能读懂这个规则,就可以对其进行判断和校正。但如果它不是基于规则的模型,不知道它是通过这样的规则来判断,是一个不透明的算法,它得出了这个结论,人类按照这个结论就会建议哮喘患者不要住院进行治疗,这显然是不安全的。

    所以,当人工智能应用于一些关键领域,比如医疗领域、刑事执法领域的时候,我们一定要非常小心。比如某人向银行申请贷款,银行拒绝批准贷款,这个时候作为客户就要问为什么,银行不能说我是基于人工智能,它必须给出一个理由。

    第六是问责。
    人工智能系统采取了某个行动,
    做了某个决策,
    就必须为自己带来的结果负责。
    

    人工智能的问责制是一个非常有争议的话题,我们还是回到自动驾驶车上进行讨论。确实,它还涉及到一个法律或者立法的问题。在美国已经出现多例因为自动驾驶系统导致的车祸。如果是机器代替人来进行决策、采取行动出现了不好的结果,到底是谁来负责?我们的原则是要采取问责制,当出现了不好的结果,不能让机器或者人工智能系统当替罪羊,人必须是承担责任的。

    但现在的问题是我们不清楚基于全世界的法律基础而言,到底哪个国家具备能力处理类似案件的能力。(美国)很多案件的裁决是基于“判例法”进行判定的,但是对于这样一些案例,我们没有先例可以作为法庭裁决的法律基础。

    其实,不光是自动驾驶,还有其他很多领域,比如刑事案件问题,还有涉及军事领域的问题。现在有很多的武器已经自动化或者是人工智能化了,如果是一个自动化的武器杀伤了人类,这样的案件应该如何裁定?

    这就要牵涉到法律中的法人主体的问题,人工智能系统或全自动化系统是否能作为法人主体存在?它会带来一系列的法律的问题:首先,人工智能系统是否可以判定为是一个法律的主体?如果你判定它是一个法律的主体,那就意味着人工智能系统有自己的权力,也有自己的责任。如果它有权力和责任,就意味着它要对自己的行为负责,但是这个逻辑链是否成立?如果它作为一个法律主体存在,那么它要承担相应的责任,也享有接受法律援助的权利。因此,我们认为法律主体一定要是人类。

    相关文章

      网友评论

          本文标题:德国杂感7:künstliche_intelligenz

          本文链接:https://www.haomeiwen.com/subject/qnoekctx.html