美文网首页
NO.2 AI 政策研究动态

NO.2 AI 政策研究动态

作者: 83ecb10bd834 | 来源:发表于2019-03-25 00:18 被阅读0次

    一、计算社区联盟(CCC)发布人工智能研究20年路线图草案

    该路线图由CCC联合主席Yolanda Gil 和Bart Selman起草, 要求联邦政府提供持续的支持,并规定了一系列步骤,以确保美国继续成为人工智能领域的卓越领导者。

    路线图的具体建议包括:

    1、创建和运营国家人工智能基础设施,通过相互关联的四个措施为学术界、产业界和政府服务:

    a、开放AI平台和设施:由学术界,政府和企业的研究人员贡献的,同时可供他们使用的,互相关联的大规模分布式AI资源,包括数据集、软件库、机器人环境、云服务等;

    b、持续的社区驱动的人工智能挑战:构建协调研究人员制定明确的挑战路线图的组织结构,以共同解决关键问题,根据新进展重新制定它们,促进整合和精心设计的系统,并在开放AI平台和设施上,创造共享资源;

    c、国家研究中心:集中一流的研究人员,产生群聚效应,解决人工智能的核心挑战,并促进技术转移到产业界;

    d、国家人工智能实验室:政府机构将提供持续的能力和人工智能专家,以支持开放的人工智能平台和人工智能挑战,并解决卫生、政策、教育和科学等部门涉及的公共利益问题。

    2、重新定义并培训全面的人工智能劳动力:

    a、通过开放的人工智能平台培训高技能的人工智能工程师和数据科学家,这需要通过社区学院和劳动力再培训项目显著增加这一输送渠道;

    b、AI人才招聘项目,包括资助有才能的学生获得高级研究生学位,为博士水平的研究人员以及代表性不足的群体提供保留项目;

    c、扩展ai课程,鼓励非传统和跨学科的ai研究,优先ai政策、法律以及ai安全工程。

    为什么重要:

    这份路线图是在美国总统特朗普签署了多少有些含糊、不太实质的人工智能倡议几周后首次公开发布的,旨在帮助美国的人工智能研究人员识别挑战、机遇和陷阱,同时为美国政府的人工智能政策落地,提供了方向性建议。

    Source:A 20-Year Community Roadmap for Artificial Intelligence Research in the US Executive Summary March 2019

    二、关于AI研究论文的重复性争论

    目前一些公开发表的AI研究论文,没有公布代码或者数据集。一些研究者认为论文应该总是带有代码和/或数据;另一些认为虽然可重复性很重要,但在某些情况下,您可能希望发表一篇论文,但限制某些细节的传播,以尽可能减少潜在的滥用或恶意使用该技术。

    机器学习(至少)包括三种不同类型的研究,其中算法的性质也有所区别:

    算法:目标是提出一个更好的算法来解决一些学习问题,这是最典型的观点。

    理论:目标通常是理解学习算法的可能和不可能。虽然这些论文可能有算法,但它们往往不是重点,要求实现它们对于作者、审稿人和读者来说是浪费时间。

    应用:目标是解决一些具体任务。例如AlphaGoZero,其目的就是为了打败世界冠军。在此情况下,计算很极端,数据是专有的,所以要求完美的编程可重复性是不可行的。

    评估重复性的三个问题:

    如果审阅人员能够访问底层代码或数据,那么他们是否能够更好地进行审阅?

    作者能否从发布代码中获益?

    读者能否从公开的代码中获益?

    总之,如何在可重复性最大化和潜在危害最小化之间取得平衡是当前人工智能研究的主要挑战之一。

    Source:http://hunch.net/?p=11377237

    三、AI2:中国将在人工智能研究方面超过美国

    AI2分析了截至2018年底发表的200多万篇人工智能学术论文,发现2006年中国在人工智能研究论文数量上就已经超过了美国。虽然中国的AI论文整体质量仍低于美国,但正在提升中。

    如果这一趋势继续下去,今年中国在引用率前50%的论文数量上,将超越美国;在引用率前10%、1%论文数量的这两项指标,中国也将分别在2020年和2025年超过美国,成为全球第一。由于引用数量是影响力的滞后指标,因此这一研究结果可能低估了中国在人工智能研究方面不断增长的影响力。

    Source:https://medium.com/ai2-blog/china-to-overtake-us-in-ai-research-8b6b1fe30595

    四、OpenAI新版本语言模型引发争议

    最近,OpenAI发布了新版本的语言模型 “GPT-2”,它是基于对大量写作样本的无监督分析,来自动生成下一个能够写的很好的单词。他们决定不遵循开源实践,只发布了一个小得多的模型供研究人员实验,以及一篇技术论文。这引起一场争论,即关于人工智能产品的监管和自我监管的政策问题。

    由埃隆·马斯克(ElonMusk)等人创办的非营利性人工智能研究公司OpenAI,2019年2月14日宣布,“我们已经训练了一个大规模的无监督语言模型,它可以生成连贯的文本段落,在许多语言建模基准上实现最先进的性能,并进行基本的阅读理解、机器翻译、回答问题和总结——所有这些都没有经过特定任务的培训。”OpenAI表示,其新的自然语言模型GPT-2经过训练,能够在40g的互联网文本样本中预测下一个单词。该模型是对第一个版本的巨大改进,产生了更长的文本和更大的一致性。同时声明,“由于我们担心该技术的恶意应用,我们不会发布经过训练的模型“。

    OpenAI政策主管杰克•克拉克(JackClark)表示,该组织的首要任务是“不允许恶意或滥用该技术”,并称这是“对我们来说非常艰难的平衡之举”。但电子前沿基金会认为,“当像OpenAI这样受人尊敬的研究机构单方面做出违背全面发布趋势的决定时,它就会危及目前在语言理解研究中盛行的开放出版规范。”

    为什么重要?

    针对对社会有潜在负面影响的人工智能产品及其快速发展,谁(如果有的话)应该负责监管?我们是依靠自我监管还是需要政府监管?如果美国有规章制度而其他国家没有呢?清算所的做法会给开发商和企业带来基于利润的压力吗?没有监管的帮助,开源运动能成功吗?

    Source:https://openai.com/blog/better-language-models/

    相关文章

      网友评论

          本文标题:NO.2 AI 政策研究动态

          本文链接:https://www.haomeiwen.com/subject/yglmvqtx.html