本文要点
ACM 职业道德和职业行为准则于 2018 年修正,以应对自 1992 年以来计算机行业的变化。
该准则的目标是向有抱负的、正在从业的计算专业人士表达该职业应有的良知。
对所有规模的公司和从业者来说,道德规范都很重要,现在公众、员工和其他利益相关者都期望科技公司对公众利益承担更高的责任。
开发人工智能技术的人员尤其应该肩负更高的责任,因为机器学习方法和应用的不确定性可能导致公众不信任这些技术,尤其是当它们被集成到基础设施之中时。
将准则应用到日常工作中并不意味着读一读就完了,而应对其进行全面地思考,尤其是在创新过程中需要做出决策时。
2018 年 ACM 道德规范和职业行为准则做了重写,使其能够紧跟新的技术和社会需求同步。本准则透过一套在科技行业积极工作的指南,规范了计算机专业人士的道德操守。
ACM职业规范和职业行为准则旨在帮助专业人士反思其工作带来的影响,采取负责任的做法:
本准则旨在鼓励和指引所有电脑专业人士的道德操守,包括当前有抱负的实践者、导师、学生、有影响力的人士,以及以任何方式使用电脑科技的任何人士。此外,如果出现违规情况,本准则可以作为纠正的基础。
本准则分为四个部分。
第一部分“通用伦理准则”规定,计算机专业人员应该为人类的福祉做出贡献,避免伤害,诚实可信;公平,采取行动时不带歧视;尊重产生新创意、发明、创意作品及电脑制品所需的工作;尊重隐私,以保密为荣。这些原则为道德行为提供了基础。
第二部分“职业责任”探讨了计算机专业人员与他们所从事的工作的相关职责。比如,这些责任包括:努力实现高质量的产品;了解和尊重与专业工作有关的现有规则;接受并提供适当的专业意见;培养公共意识;了解计算机、相关技术及其影响;设计和实现安全可靠的系统。
第三节“职业领导原则”指导的是肩负领导职责的人。比如,在这一节中提到的原则包括:确保公众利益是所有专业计算工作的关注焦点;对人员和资源加以管理以提高工作生活质量;为组织或团体的成员成长为专业人员创造机会;认识到已经融入到社会基础设施的系统,并对其采取特殊对待。
第 4 部分“遵从本准则”确保对本准则的承诺得以落实,规定计算专业人员应坚持、促进和尊重本准则的原则,并将违反本准则的行为视为不符合 ACM 成员资格。
本准则的上一个版本可以追溯到 1992 年。ACM 决定更新本准则的主要原因之一是,自那以后出现了互联网和许多其他新技术。这些新的和新兴的技术以全新的和有趣的方式影响着社会,这是当时在编写第一版准则时所没有预料到的。
一些更大的变化包括:刻意添加了对安全做出要求的部分,服务成为基础设施(如谷歌)的公司对服务于公众利益以及解决机器学习关切的特定方面负有更高的责任,对整个系统的生命周期予以更高的关注。
部分条款做了重新编写,例如,自 1992 年以来知识产权的性质发生了变化,并突出了该准则积极的方面;不只是专业人士不应该做什么,还有他们可以做什么来让他们的技术得到更好地发展。
另一个主要的变化是准则的关注点,最初的关注点是围绕专业和质量,而现在则是围绕具有公众利益的技术发展,这是最重要的关注点。这有助于解决本准则中涉及到价值观冲突的一些困境,应该优先考虑维护公众利益的价值观。
ACM 职业道德委员会成员Catherine Flick在2019年伦敦QCon大会上谈到了为什么我们应该关注技术伦理。InfoQ 采访了她,请她谈了谈让道德变得重要的有关内容,以及如何将本准则应用于人工智能和机器学习应用,企业目标和道德标准,以及道德规范和认证的作用。
InfoQ:是什么使得道德规范对大公司和小公司都很重要?
Catherine Flick:许多公司开始看到不考虑道德规范的潜在后果,例如,剑桥分析公司(Cambridge Analytica)丑闻对 Facebook 造成的影响;谷歌的员工反对谷歌内部的不道德行为,等等。然而,他们也看到了,呼吁建立一个更有道德意识的市场的潜力,这个市场关心的是他们的隐私、安全和数据,并且越来越多地表达他们的需求,而不是接受强加给他们的最新技术。
InfoQ:我们如何将这个准则应用于人工智能和机器学习的应用?
Flick:当然,要全面应用!虽然在原则 2.5 中直接提到了机器学习,但这并不意味着你应该跳到这一部分,只看它说了什么。该准则中的每个原则都对理解和解决机器学习中的伦理问题有所帮助。事实上,我想请你完成一个挑战,看能否在第 1 部分和第 2 部分找到一条不能应用于机器学习领域的原则!甚至,第 3 部分中的内容也可以应用于管理机器学习业务或项目。实际在使用该准则时,我建议你在你具体的工作场景下仔细考虑每条原理,哪些涉众可能会受到影响(而不仅仅是直接的利益相关者!),识别你的工作未来可能的道德影响,评估可能可以缓解或解决问题的行动,然后着眼于使您能够防止未来发生类似问题的组织流程。
也就是说,在原则 2.5 中特别提到了机器学习,讨论了风险。在该原则的指南中,它说:
应特别注意识别和规避机器学习系统中的潜在风险。不能有把握地预测未来风险的系统,需要随着系统在使用中的演变而频繁地重新评估风险,或者就不应该部署这个系统。任何可能导致重大风险的问题都必须向有关方面报告。
简单地说,如果您不能预测您的系统将要做什么,您不能或者不愿意监控它,那么就不应该部署它。微软的 TayBot 就是一个很好的例子,它在推出有问题的内容后,一直在运营。然而,这需要结合该准则其余部分的上下文来理解,为什么 TayBot 有这么大的问题?这是因为它还违反了该准则的其他方面,特别是在歧视、工作质量和避免伤害方面。所以,不要只看那些直接与你的项目相关的原则,或者只阅读一次这个准则就动手干,记住这一点很重要。
InfoQ:有人说公司的目标是为股东回报价值,而不是为了道德,也不是为了做社会公益,你对此有何看法?
Flick:商业的最初目的是服务社会。如果你不为社会服务,别人就不太可能买你的产品。如今,社会上有一股巨大力量,推动着大家采取更加合乎道德的商业行为。我们也看到了一些知名大公司的员工在道德问题上的抵触情绪,因此公司内部和外部都在推动更多的道德技术。我们看到了更多考虑环境的需求,更多考虑可持续性发展的需求,以及大家对技术的社会影响的更多关注。
人们担心他们的数据,他们担心他们的隐私,他们担心他们的孩子,他们担心所有影响他们的道德问题。事实上,这些公司长期以来一直能够在一个相对灰色的领域运营,这意味着我们已经看到了这些情况的发展前景。现在政府要求加大监管力度的更大了,这一点可以从欧盟通用数据保护条例(GDPR)看出。因此,我们看到了大家对技术中伦理的需求,这或许也是为什么所有大型咨询公司都突然涌现出“负责任的技术”的服务!
InfoQ:您对规范和认证在道德规范中的作用有什么看法?
Flick:对技术行业的专业人士进行认证是非常困难的。它与土木工程或医学不同的是,有大量的专业人士被并入科技行业,你可以很早就“做科技”,而且很容易获得工具和技能。任何想要开始要求认证的人都需要将他们的范围缩得很小,绝对可能是这样的,如果你要从事高层次基础设施方面的工作,你可能需要获得一定程度的能力认证。当然,在这个领域有很多可用的认证,但它主要针对的是工作角色,用于推动某些方法,例如,项目管理或网络安全。然而,该准则还将目标定位于那些有抱负的专业人士,我们希望学生、自学成才的技术人员和任何以有意义的方式使用计算机的人注意到这个准则,以及关于他们正在创建的东西都说了什么,也就是说,什么是行业所接受的。因为有了这个准则,我们已经有新成员加入了 ACM,他们喜欢看到一种类似于“誓言”的东西,他们可以站在它后面,用它来指导他们的工作,如果他们被要求做一些不道德的事情,他们可以向雇主提出反对。有最大的专业机构的支持作为后盾当然很有帮助,正如我们在谷歌员工抵制事件中所看到的那样。
监管是另一回事,我们从许多例子中得知,监管机构往往做得不对。重要的是,计算机专业人员要参与其中,帮助政府决定应该实施哪些法规,以及它们可能会产生什么影响;然而,从伦理出发,他们不应针对组织(或个人)价值推动监管,而应推动促进公共利益的监管。当然,ACM 是个重要的角色,ACM 成员必须遵守道德规范,如果他们违反它,就报告他们的违规行为,他们可能会被从 ACM 中清除出去,(连同其他组织,取决于调查的结果可能会采取较轻的制裁)。由于该准则代表的是业界的良知,任何被这样的组织除名的专业人员都应该是不受欢迎的。
InfoQ:InfoQ 的读者可以从哪里获得道德规范相关的在线资源?
Flick:大多数有用的在线资源都非常具体。在 ACM 道德规范准则之外,还有IEEE/ACM软件工程道德规范准则。像“负责任的创新”这样的方法正在欧洲流行起来,再加上像负责任的创新自我检查工具之类的工具,它们的定位于研发新技术的公司,以及一些着眼于塑造道德创新行业路线图的公司。在 Orbit 上可以找到一些相关的案例研究和其他论文,该网站专门在英国ICT研究负责任的创新。
目前,人工智能的伦理是一个很大的领域,许多组织都出台了自己的负责任/伦理人工智能指南。我相信艾伦·图灵伦理研究所正在进行一些最好的工作。
受访者简介
Catherine Flick 博士是德蒙特福特大学计算机与社会责任中心计算机与社会责任专业的一名读者。她是 ACM 职业道德委员会的成员,也是 ACM 道德规范准则更新小组的成员。她教授研究方法和计算机伦理学,并主办了一个关于伦理学和视频游戏的播客,名为“不仅仅是一个游戏”。
查看英文原文:Why Should We Care About Technology Ethics? The Updated ACM Code of Ethics
评论