所谓伦理,道德,概括的是两方面的内容,却均是根植于时代的土壤。正如古代的奴隶制为现代所不容,现代的男女平等放到以往也是骇人听闻。不同领域的道德伦理标准也因环境不同而自成一体,且一定存在其底线。 IT同样如此。
说到IT方面的伦理问题,就必然要与人工智能挂钩。人工智能(英语:Artificial Intelligence, AI)亦称机器智能,是指由人制造出来的机器所表现出来的智能。通常人工智能是指通过普通电脑实现的智能。该词同时也指研究这样的智能系统是否能够实现,以及如何实现的科学领域。
一般教材中的定义领域是“智能主体(intelligent agent)的研究与设计“,智能主体是指一个可以观察周遭环境并作出行动以达致目标的系统。约翰·麦卡锡于1955年的定义是“制造智能机器的科学与工程。”
著名物理学家霍金曾经表示,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件,表明了他对人工智能前景的担忧。
许田认为,从人类社会的角度出发,新技术不断被开发并应用,背后产生的伦理道德问题,单单靠科学家、工程师的自觉性显然是不够的,需要全社会来参与讨论,人工智能必将会深刻地影响社会和个人生活。
英国科普作家Philip Ball表示,机器人的道德问题是人类必须重视并且需要持续讨论的议题。当机器人越来越复杂之后人类该怎么对待,机器和人之间互动的界限在哪里,机器和人最终会不会发生冲突?这些之前看来是哲学的问题,随着技术的发展已经成为操作层面的问题。Philip Ball认为,当新的技术出现之后,肯定会随之而来许多新的道德问题,这是一个需要全人类共同面对的挑战。
从更小的方面说
用语言来阐明社会伦理体系本就是一件千百年来一直探索的问题,更何况要让初代的人工智能明白,更是难上加难。 举个例子:
在1942年的短篇小说中,科幻作家Isaac Asimov提出了机器人的3条准则——工程安全措施和内置的道德准则,以保证机器人会友善对待人类并使人们免于机器末日。这些准则一是机器人不能伤害人类,或无所作为而导致人类受伤害;二是机器人必须听从命令,除非这些命令违背第一条准则;三是机器人必须保护自身,但这些保护不能与第一和第二条准则相违背。
不过,今年5月,在美国布鲁金斯学会的一个无人驾驶汽车研讨会上,专家讨论了在危急时刻无人驾驶汽车应当怎样做。如果汽车为了保护自己的乘客而急刹车,但造成后方车辆追尾应如何?或当车辆为了躲避儿童进行急转,但撞到旁边其他人怎么办?
就好像是”闸道两边一边绑了三个人,一边绑了五个人,让你选择火车路线“这个伦理问题一样,并没有一个完美的解决方案,需要有舍弃。
与道德相关的问题涉及IT行业的方方面面。无论是程序员,产商,营销公司均要遵守相关的法律与道德准则。
法律是道德的底线,
每一位计算机从业人员必须牢记:
严格遵守这些法律法规正是计算机从
业人员职业道德的最基本要求。
世界知名的计算机道德规范组织IEEE-CS/ACM 软件工程师道德规范和职业实践(SEEPP)联合工作组曾就此专门制订过一个规范,根据此项规范计算机职业从业人员职业道德的核心原则主要有以下两项:
原则一计算机从业人员应当以公众利益为最高目标。这一原则可以解释为以下八点:
1.对工作承担完全的责任;
2.用公益目标节制雇主、客户和用户的利益;
3.批准软件,应在确信软件是安全的、符合规格说明的、经过合适测试的、 不会降低生活品质、影响隐私权或有害环境的条件之下,一切工作以大众利益为前提;
4.当他们有理由相信有关的软件和文档,可以对用户、公众或环境造成任何实际或潜在的危害时,向适当的人或当局揭露;
5.通过合作全力解决由于软件、及其安装、维护、支持或文档引起的社会严重关切的各种事项;
6.在所有有关软件、文档、方法和工具的申述中,特别是与公众相关的,力求正直,避免欺骗;
7.认真考虑诸如体力残疾、资源分配、经济缺陷和其他可能影响使用软件益处的各种因素;
8.应致力于将自己的专业技能用于公益事业和公共教育的发展。
等等。
因此作为IT人,我们不仅要有过硬的技术,还必须拥有够格的伦理道德观。望读者能在以后的每次工作中都对此有所关注,足够敬畏。以上。
网友评论