人工智能也有自己的"小心思"?带你窥探技术背后的治理问题 | 澳公会延伸阅读

来源:澳洲CPA 时间:2021-03-26 作者:澳洲CPA编辑:无忧草
打印 RSS |
导读:人工智能(AI)正在迅速普及,然而相关伦理治理框架的创建速度却跟不上其技术能力的发展。随着人工智能的运用场景变得越来越清晰,这种情况也许会逐步改变。

用搜索引擎搜索信息已然成为数百万人几乎每天都要做的事情,但很少有人会在按下搜索按钮之后,思考其背后的算法是如何执行的。

举例来说,如果搜索“大学教授”(universityprofessor),在谷歌上的大部分搜索结果都是白人男性。作为全世界最热门的搜索引擎,谷歌的算法非但不是中立的,而且长期以来就存在着明显的偏见,这种情况早已根深蒂固。

当然,谷歌并非是唯一的负面案例。另一家科技巨头亚马逊(Amazon)也因其开发的招聘软件会降低女性的录取比率,而不得不停运整改。微软也曾因其人工智能聊天机器人Tay在社交网络上发送带有种族主义的言论,而不得不接受调查。

随着科技的进步,人工智能技术在聊天机器人等领的应用已经变得越来越普遍,但确保人工智能技术能够安全、正确地应用的管治机制尚有待进一步完善。

人工智能的“自带”偏见

随着人工智能越来越普及并逐渐成为现代生活中不可或缺的一部分,对于人工智能可能会存在偏见的担心,促使人们呼吁建立一个道德、公正、透明的管治框架。

KritiSharma是英国跨国会计软件公司赛捷(Sage)的机器人自动化和人工智能业务副总裁(Vice-president of bots and AI).

她表示,由于人工智能是人类发明的,天生会带有在人类身上普遍存在的某些偏见,而如果这些偏见不受监管且机器本身还在不断重复学习,很可能会使这种偏差越来越严重。

Sharma曾在世界会计师大会WCOA)上就人工智能对金融行业的影响发表演讲,她表示,“然而值得庆幸的是我们是可以纠正这些偏见的。”

除了数据隐私、保护以及使用外,要打造符合道德标准的人工智能的难关往往就是道德本身。我们必须加以正确的指引,才能真正满怀信心地挖掘并释放第四次工业革命的全部潜力,并依靠技术突破推进信息物理融合的系统发展。

Sharma说道:“你必须确保为算法设定正确的目标、价值观以及意图。重要的不只是完成任务,还必须要采取正确的方式。对于会计等工作来说,这一点非常重要,因为这类工作在很大程度上依赖于信任。”

在英国工作和生活的Sharma已经成为推动这项被称为“负责任的”人工智能运动的主要积极分子,她的不懈努力获得了联合国大使以及奥巴马基金会的认可。

她说:“当我刚开始宣传时,许多人甚至从未听闻过人工智能。他们通常会说,‘你是在为机器人争取权利吗?’,现在人们越来越意识到它的重要性。”

政府政策如何协助降低偏见

为了创建伦理框架,Sharma认为,重要的是不能让开发者根据具体项目来选择是否采取治理标准。恰恰相反,开发者要认识到伦理标准是其工作的重要组成部分,这需要组织机构的高层以及政府主动承担责任。

一些国家已经开始采取行动。英国政府就建立了数据伦理和创新中心。Sharma在其中担任理事,近期还招纳了牛津大学哲学和信息伦理学教授Luciano Floridi,而该中心的核心任务是为英国创建人工智能伦理框架。

中心的工作基于英国上议院委员会为负责任的人工智能制定的五项原则,其中借鉴了著名科幻作家艾萨克·阿西莫夫(Isaac Asimov)在1942年提出的“机器人三定律”。

根据委员会制定的第五项原则,人工智能不能拥有“毁灭”人类的力量,这项原则在新南威尔士大学杰出教授Toby Walsh有关禁止杀伤性人工智能全自动武器的请愿书中也有所反映。

无独有偶,新加坡金融管理局近期公布了一系列准则,促使金融行业以公平、道德、负责以及透明(FEAT)的方式应用人工智能和数据分析技术。

澳大利亚也正在向这一方向发展,联邦政府强制要求联邦科学与工业研究组织(CSIRO)的Data61与澳大利亚国立大学自主、机构和保障创新研究所(3A研究所)联合开发伦理框架。在英特尔公司前高管Genevieve Bell教授的领导下,3A研究所以及Data61将在2022年之前为认证的AI从业人员创建一门课程。

澳大利亚还有一家致力于开发人工智能的机构就是澳大利亚机器人视觉中心(Australian Centre for Robotic Vision),这是一个由多所知名大学组成的协作中心。该中心的首席运营官Sue Keay博士认为,有两个关键领域可以纠正人工智能的偏见并更好地解决伦理问题:数据的质量和数量;以及共同参与开发AI算法的研发人员的多样性。

数据多样性或许是解药

Keay表示,人工智能的应用依靠所提供的数据集,因此只有使用的数据没有偏见,算法才会不带偏见。开发算法的人必须确保数据的完整性,并且数据应该足够丰富并能够真正做到代表任何样本。

举例来说,麻省理工学院的研究人员调查了某个收入预测系统,发现其将女性列为低收入者的可能性是男性的两倍。如果数据集增加十倍,分类错误的发生率就会下降40%。

Keay说:“另一个常见案例就是,如果通过机器人来判断服刑人员能否获得假释,有色人种很可能会遭到严重歧视。这或许是因为我们的历史数据中存在很多这样的情况,过去确实有这方面的偏见。”

“还有一点就是,我们要意识到偏见是确实存在的,然后设法找到一种编程方式,可以在不受这些偏见影响的情况下完成目标任务。”

Keay引用模拟世界的案例来阐述自己的其他观点:AI开发团队成员的多元化有助于消除偏见并实现更好的设计。

她说道:“很长一段时间以来,汽车的安全性能一直都是通过碰撞试验假人来检测的,几十年后,研究人员注意到女性和儿童在汽车事故中的受伤几率偏高。”

后来人们了解到,碰撞试验假人的原型是标准美国男性的体形,而负责进行这些检测的工作人员正属于这类人群。我认为在人工智能方面,相比规范性框架,更重要的是组建更加多元化的团队来开发这些人工智能技术。

商业性与透明度的两难境地

在商业环境中,Keay确实看到了大众对透明度的要求与科技型企业保护知识产权的愿望之间存在潜在的对立冲突。

她表示,随着人工智能的蓬勃发展,这些企业倾向于保护自己的知识产权,并不愿意公布算法的具体内容。

不过,算法确实需要具有可测试性并应该向受其决策影响的人员保持透明,这方面正是需要政府可以发挥重要作用的领域,因为他们可以制定这类框架。

Sharma认为,对黑箱运作方式持反对态度是不容置疑的。

她说:“科技行业总有非常聪明的人,他们其中一些可能会说自己的算法非常智能,以至于自己也无法解释。可我并不这样认为。我知道有些算法很难解释,但却依然需要具有可审核性和可追溯性,这是基本原则。”

作为人工智能的倡导者,Sharma认为在人工智能已经无缝融入到日常生活的现代社会,人们不会注意到算法,也不会质疑算法。为此,我们首先需要建立一个符合伦理道德且相互信任的基础。

她坚持认为:“人应当有权调查和置疑人工智能,而且这个框架应适用于所有人,我们不应该对其感到畏惧。”

Sharma正在针对人工智能应用程序开发一种被她称为“偏见检测”的测试,用于人工智能产品发布之前。

我们已经在做网络测试,为什么不能在发布之前进行一项偏见测试呢?

Sharma认为,就像商业和政府在其他领域设立道德规范,符合伦理道德的人工智能将成为取得更好结果的关键因素,包括企业盈利方面。

她说道:“符合伦理道德的技术不仅仅是锦上添花,更是重要的业务驱动因素。人们总是倾向于向自己信赖的公司购买产品,这同样适用于人工智能,因为它会成为我们生活的一部分。”

使用人工智能的五项原则

•人工智能应为人类共同利益和福祉服务。

人工智能应遵循可被理解和公平性原则。

人工智能不应用于削弱个人、家庭乃至社区的数据权利或隐私。

所有公民都有权接受相关教育,以便能在精神、情感和经济上适应人工智能的发展。

人工智能绝不应被赋予任何伤害、毁灭或欺骗人类的自主能力。

以上内容经《INTHEBLACK》杂志授权发布

点击“这里”,作更深入地阅读。

点击“这里”,阅读微信原文。

沪公网安备 31011802001002号