美文网首页
谷歌对人工智能设计师的规则

谷歌对人工智能设计师的规则

作者: 元宇宙云课堂 | 来源:发表于2017-12-21 17:53 被阅读69次

    谷歌对人工智能设计师的规则

    作为人工智能新项目的一部分,该公司创建了一个名为“以人为本的机器学习”的指南。



    我们如何确保我们设计的人工智能将人类行为考虑在内?
    如何将机器学习集成到产品或服务中,同时确保它不会造成偏见、过于简化的细微差别,或者用虚假的新闻轰炸人类?
    说得直白一点,我们如何设计出不邪恶的算法?
    谷歌的人工智能研究部门Google Brain表示,它正在进行一项调查。
    该公司宣布了一项名为“人+人工智能研究计划”(简称为简称“PAIR”)的新研究项目,该计划的目的是了解人类与机器学习的互动方式。
    作为努力的一部分,该公司开发了一套最佳实践,其团队用于设计包括机器学习在内的体验。

    这是谷歌用户体验社区所称的“以人为本的机器学习”的一种哲学,机器学习算法可以解决问题,同时还能保持人类的需求和行为。
    Josh Lovejoy和Josh Lovejoy是在谷歌的研究和机器智能小组的两位设计师,这些都是谷歌在机器学习方面的设计规则,同时仍然让用户和他们的人性在中心。以下是一些基础知识。


    机器学习并不能解决所有问题

    Lovejoy和Holbrook 提到,赶在你的产品或服务中包括机器学习之前,要记住,作为设计师,你的工作是识别问题,以及如何最好地解决问题。做那些将成为你常规设计过程的一部分的研究。有些问题可能根本不需要机器学习,而另一些可能完全适合它。关键是,算法不知道它是否是解决问题的正确工具。不要把机器学习扔到任何地方,特别是因为它比一个简单的修复更昂贵。
    例如,Lovejoy和Holbrook指出了Gmail的功能,提醒用户如果他们在邮件的正文中提到了“attachment”或“attached”的话,就会附上一个文件。
    没有机器学习的过程,而人工智能可能会发现更多的附件,它将会变得更加复杂和耗时。

    为了确保机器学习是这项工作的正确工具,the duo推荐这样的问题,以确定用户对一款基于人工智能的产品的期望:

    描述一个理论上的人类“专家”今天可能完成的任务。

    如果你的人类专家要完成这项任务,你会如何回应他们,以便他们下次能有所改进?在混乱矩阵的所有四个阶段都这样做。

    如果一个人要执行这个任务,那么用户希望他们做出什么假设呢?

    在如何解决问题的一组想法中,找出哪些解决方案对用户有最大的影响,哪些可以从使用机器学习中获益最大。这两种观点都严重依赖机器学习,并对用户产生最大的影响,这是最好的解决办法。


    原型是真实的人而不是真正的算法

    一个用于原型设计的方法是在你的机器学习系统中使用参与者的真实数据(在他们的许可下),另一个选择是完全不使用机器学习系统。
    这被称为“奥兹的巫师”测试。
    从本质上说,参与者认为他们在与人工智能系统交互,但实际上它是由人控制的。20年前,这是一种测试方法,Lovejoy和Holbrook写了一种测试方法,但机器学习的出现已经把它带回了主流。
    这些互动对于指导设计是必不可少的,因为当参与者能够认真地参与他们所认为的人工智能时,他们自然会倾向于形成一个系统的思维模式,并根据这些模型调整他们的行为。”他们写道。

    了解用户的心理模型是如何形成的,这是设计交互的关键。
    您还可以通过使用参与者的数据模拟错误的答案来了解这一点。
    当机器出现故障时,用户如何响应?这将如何改变他们未来的互动?


    在设计时考虑到系统的失败

    机器错误地分类输入数据似乎是一个小错误。
    但是,当输入数据是真实的人类时,被算法错误地分类可能会产生重大的后果。例如,如果机器学习算法决定了用户是机器人还是真人,那么对于被错误拦截的人来说,这比被错误拦截的机器人更重要。
    所以你最好确保你考虑的是假阳性。

    为了做到这一点,Lovejoy和Holbrook 建议使用所谓的“混乱矩阵”,当算法的响应是准确的时候,当它的响应是不准确的时候,当它返回一个错误的正的时候,当它返回一个错误的负数时,它就会在网格上显示。

    最终,这意味着决定什么是更重要的——精确的(哪里有错误的答案,而不是正确的答案),或者是回忆(包括所有正确的答案,但可能会有更多错误的答案)。
    在某些情况下,更重要的是要优先考虑精确度,而不是召回和副产品,但这意味着要了解对用户来说更重要的是什么。

    以谷歌照片搜索为例。
    如果你输入“操场”文字,谷歌的设计师们判定,每一个跟场地相关的都是很重要的,即使有些照片不适合你。
    但是,就一种识别在线聊天机器人与人的算法而言,也许更重要的是要准确,所以你不会因为用户不是人而把他们从账户中锁起来,从而冒着激怒用户的风险。


    永远需要反馈

    如果你不知道什么时候出错了,你怎么知道系统的运行情况?
    Holbrook和Holbrook 写道,有时机器学习模型是不可预测的,尤其是当用户的想法是如何与设计师的工作不同的时候。
    确保你能预测长期的反馈方法,并将它们直接建立在你的平台上,进行定量反馈,并与人们一起坐下来,观察他们对平台的期望是如何变化的。在一个设计师并不总能理解他们的服务和产品如何运作的世界里,谷歌的解决方案很简单:获取这些数据。
    当然,尽管谷歌在如何设计人工智能的问题上提出了一系列的规则,但这两项举措的推出证明,即使是机器学习的先驱之一,也无法理解如何负责任地设计人工智能,而人工智能正是人类的中心。
    尽管这对谷歌来说是一个很有希望的举措,但这些举措也提醒人们,这项技术所固有的挑战是:有偏见的数据,不可靠的假设,不考虑隐私,以及所有的后果。及所有的后果。所有的后果。

    相关文章

      网友评论

          本文标题:谷歌对人工智能设计师的规则

          本文链接:https://www.haomeiwen.com/subject/puphvxtx.html