人工智能如何构建算法化的社会契约?

 

通过协作式规划,迎接人机共存的未来。...



编译:徐思彦  腾讯研究院研究员



随着人工智能的应用不断推进,参与我们的日常生活和社会治理,如何设计一个人工智能系统不仅仅是科学家和工程师的工作。越来越多的设计范式涌现,“人机回圈”(Human-in-the-Loop)是其中一个核心部分。在许多情况中,机器所面临的是一个复杂的问题,需要决策与妥协。而通常,如何妥协的问题是一个伦理问题,不能单纯依靠机器学习的算法来得到答案。这时,需要一个人机回圈的过程来辅助机器做决策支持,人是规划环路的一部分,人的判断既用于业务决策,又被反馈到机器学习算法中,使其更智能。在涉及到千万人的社会问题中,更需要由大家众筹得到一些社会问题的共识,形成自动算法+社会判断的反馈回路。这就是所谓的“众机回圈”(Society-in-the-Loop)。启蒙时代标志着人类向现代的社会契约转型。现在,我们致力于缩小“众机回圈”的差距可能将人类带向一个新的算法化的社会契约。通过协作式规划,迎接人机共存的未来。
人工智能前沿之“众机回圈”
Joi Ito 伊藤穰一
MIT媒体实验室主任
Iyad Rahwan在刚刚发表在《科学》杂志上的文章中第一次使用“众机回圈”(Society-in-the-Loop)这个术语。在这篇论文中,他在线测试公众会如何为一辆自动驾驶汽车在不同情况下做各种决定—这是个现代版本的伦理学中的“电车难题”(注:该项目名为Moral Machine,是一个致力于采集人类对自动驾驶汽车等未来智能机器可能遇到的各种道德难题的意见的平台)。实验背后的想法是,通过理解公众的优先选项和价值观,我们可以训练机器,使它按照社会认可道德的方式行事。我们还可以创造一个系统,允许人们与人工智能(AI)进行交互,并通过提出问题或观察其行为来测试道德。

“众机回圈”是“人机回圈”(Human-in-the-Loop)的拓展版本,这也是AI研究中一个越来越重要的领域。通常,机器由AI工程师使用大量数据“训练”。由工程师决定使用什么数据,如何加权,使用的学习算法类型和各种参数来尝试创建一个准确有效的模型,做出正确的决策并提供准确的见解。训练机器的人通常不是某个领域的专家。多数情况下,机器学习的训练由机器学习专家完成。这产生了一个重要的问题,数据中的任何偏差或错误将导致偏差和错误的模型。一个例子是如果数据来自于允许拦截和搜身的地区 - 很明显,目标社区会显示出更高的犯罪率。

“人机回圈”机器学习是一种尝试创建允许通过让专家与机器的一系列交互参与到机器学习的训练中的系统工作。“人机回圈”的核心是构建模型的想法不仅来自数据,而且来自于人们怎样看待数据。 Karthik Dinakar称这个过程为“透镜”,提取某领域专家或公众的视角,并将其用于训练机器学习算法。我们认为这对于提供机器学习的民主化的工具有重要的启示。
在最近一次与哲学家和人工智能及技术专家的会议上,我们讨论了机器替代法官工作的可能性。我们有证据表明,机器可以对涉及数据的事情做出非常准确的评估,并且我们可以合理假设用机器来判断保释金额或假释之类的决定可以比人类更准确。此外,有研究表明人在授予保释或判断保释金额时并没有优势。例如,判决是在午餐前后会对结果产生重大影响。

在讨论中,我们中的一些人提议用机器代替法官的某些职能,例如判断保释和假释。然而哲学家们解释说,虽然它从功利主义的角度看结果可能更正确,但对于社会来说,“法官是人”比获得“正确”的答案更重要。因此,获得公众的接受对于任何机器学习系统来说都是很重要的,解释这个观点也是很重要的。

有两种方法可以解决这个问题:一种方法是尝试将人纳入循环中(Human-in-the-Loop),并使用机器来协助或扩大人类法官的能力。这可能是有效的。另一方面,在医学或飞行飞机等其他领域的经验表明,人们可能以错误的决定推翻机器的选择,在一些情况下很有必要防止人们推翻机器的选择。同样,人类可能信任结果,只让机器运行系统。

第二种方式是机器由公众社会纳入循环中的训练(Society-in-the-Loop),通过这样的方式,人们可以感受到机器更可靠地代表了人类,并且包含不同的价值观。这并不是前所未有的。在许多方面,理想的政府是一个人民感到充分知情和参与,允许政府行使权力,并相信它代表他们,并且能为行为负责的政府。也许有办法设计一个机器,可以获得公众的支持和代理,能够受到公众的培训,并且足够透明能让公众可以信任它。政府处理能处理竞争和利益冲突,那么机器也可以。虽然还存在明显的复杂障碍,包括:与传统软件不同,机器学习模型更像是一个大脑,其中代码像一系列规则,不可能查看每一个比特来理解它究竟做什么或将做什么。需要有一种方法让公众测试、审核机器的价值观和行为。

如果我们能够弄清楚如何从公众获取输入,然后获得公众的支持,使他们成为这台机器的最终创造者和控制者,它可以解决这个司法问题的另一方,由人制造的机器犯罪的问题。例如,如果公众认为他们对自动驾驶汽车的行为有足够的投入和控制,公众是否也能感觉到公众或代表公众的政府能对自动驾驶汽车可能造成的损害负责,从而帮助我们解决任何公司开发自驾车汽车将面临的产品责任问题?

机器将如何接受来自公众的输入,并由公众进行审核和控制,可能是最重要的需要开发的领域之一。这个领域可以使人工智能实现决策功能,保证公正甚至挽救生命。这需要向每个人提供机器学习的工具,建立一个非常开放和包容性的对话,并重新分配来自人工智能进步的力量,而不仅仅是找出方法来训练它显得符合伦理。
众机回圈——可被算法化的社会契约
Iyad Pahwan  MIT媒体实验室
ScalableCooperation Group 负责人


Joi Ito将发明“众机回圈”这个说法归功于我,我想来解释一下“众机回圈”的具体含义,并强调它发挥了连接人性和计算科学之间的鸿沟的作用。

“人机回圈” Human-in-the-Loop

“众机回圈”(Society-in-the-Loop)是自动控制系统中一个已有的说法“人机回圈”的升级版。在HITL(Human-in-the-Loop)系统中,人类操作员是控制系统中的一个重要组成部分,需要处理管理、预期控制、优化以及维护系统。整个研究领域的重点是如何最好地设计HITL系统来优化性能,使人类的判断最优化,同时避免人类的限制,例如信息过载或系统认知偏见。
最近,一些文章已经指出了将HITL思维应用于人工智能和机器学习系统的重要性。 HITL AI已经走了一段时间。例如,许多应用都会从人的行为中汲取教训,以提供更好的服务能力(例如预测你要输入的下一个字词)。同样,当你在Gmail中将电子邮件标记为“垃圾邮件”时,你是复杂机器学习算法(特别是主动学习系统)循环中的许多人之一,帮助其持续改进电子邮件分类为垃圾邮件或非垃圾邮件。

当然,HITL的重要性不限于改进电子邮件垃圾邮件过滤或其他分类任务。各种形式的HITL在从医学诊断到机器人战争的领域中可以发挥关键作用。设计这些系统是一个不平凡的任务。

“众机回圈”应用于治理算法

当AI系统不是用于一个小范围、明确定义的功能,而是在一个很宽泛的社会影响的功能中会发生什么?设想一个控制数十亿自动驾驶汽车的AI算法,或一组影响数十亿公民的政治信仰和偏好的新闻过滤算法;或者是调节整个经济中的资源和劳动力分配的算法。什么是这些治理算法的HITL版本?这就是我们从“闭环中的人”到“闭环中的社会”的转折点。

如果说HITL AI是关于将个人或群体的判断嵌入到AI系统的优化中,那么SITL是关于将社会的判断作为整体嵌入到社会结果的算法治理中。换句话说,SITL更像是一个政府和一个治理公民之间的相互作用。现代政府是被统治者与其统治者之间的一种隐含的协议或社会契约的结果,旨在实现公民的一般意志。类似地,SITL可以被设想为将一般意愿嵌入到算法社会契约中的尝试。

在基于人的政府中,公民通过各种渠道——民主投票,民意调查,民间社会机构,社交媒体来向政府表达他们的期望。同时,政府通过其官僚机构和各种分支机构承担治理职能,最终由公民进行评估。现代社会是(理论上)基于人类的SITL治理机器。其中一些机器比其他机器有更合理的程序。

同样,随着越来越多的治理功能被编码到AI算法中,我们需要在人类价值观和治理算法之间创建渠道。
可被算法化的社会契约

为了实施SITL,我们需要知道人们对人工智能所期望的行为类型,并使决策者和公众能够将这些期望(目标,伦理,规范,社会契约)转化为机器理解的语言。为了形成闭环,我们还需要新的度量和方法来评估人工智能行为与可量化的人类价值观。换句话说,我们需要构建新的工具,使社会能够编程来调试和监控人类与治理算法之间的算法社会契约。

在治理算法中实现SITL控制存在一些难点:首先,这些算法中的一些产生了什么经济学家称为“负外部性”,即第三方不参与决定的成本。例如,如果自主车辆算法过度优先考虑乘客的安全,谁拥有他们或支付使用他们,他们可能不成比例地增加由行人承担的风险。量化这些外部性并不总是直接的方案,特别是当它们是长的间接因果链的结果时。

实现SITL的另一个困难是管理算法通常需要一些隐性的妥协。人类基于专家的治理已经实现了这种妥协。例如,降低道路上的速度限制降低了想要快速回家的驾驶员的效用,同时增加驾驶员和行人的整体安全性。事实上可以通过将速度限制降低到零和禁止汽车来消除事故,但这也将消除驾驶的效用。监管机构试图通过不断的学习过程达到社会舒适的平衡。公民需要手段来表达他们对治理算法的期望,因为它们与人类监管者一样。

达到SITL差距

为什么我们还没有实现SITL呢?不透明算法所带来的社会和法律挑战已经渗透和影响了我们的生活。其中最有名的是Frank Pasquale的《黑箱社会》以及Eli Pariser的《过滤气泡》。这些著作指出了许多挑战,但往往缺乏解决方案。很有可能是因为缺少将社会预期的机制(例如伦理、法律原则、规范)转化为机器可以理解的语言。我们还缺乏一套全面的机制来监督管理算法的行为与精确的期望。将社会置于循环中需要我们弥合人文和计算之间的差距。
这幅图像的一个重要组成部分是,人类价值观和人工智能是持续不断的共同演化,这是丹尼·希利斯(Dan Hillis)告诉我的。因此,技术能力的演变可以不可逆转地改变社会认为可接受的,考虑到由于智能手机和互联网提供的效用,隐私规范如何改变。

未来之路

来自人文科学和计算机科学的越来越多的研究人员已经认识到SITL差距,并且正在努力弥合它。包括采用新方法用来量化算法歧视,量化新闻过滤算法中的偏差的方法,开展可以引出公众对机器的道德期望的调查,以及提提供隐私细节选择的途径等等。

启蒙时代标志着人类向现代的社会契约转型。现在,我们致力于缩小“众机回圈”的差距可能将人类带向一个新的算法化的社会契约。

(本文提到的道德机器Moral Machine: http://moralmachine.mit.edu/)

一分钟了解腾讯研究院




    关注 腾讯研究院


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册