打破 AI 黑箱,各国政府极力发展的 Trustable A

作者:王琍莹(AppWorks 法务辅导长、明日科技法律事务所主持律师)

这是我家前阵子出现的真实对话,一刀未剪。

我:如果有一辆无人车,出车祸的时候会保护比较多人,另一辆会伤害比较多人,你选那一辆?
孩子:我选保护很多人的。
我:如果为了保护比较多人,有可能害车子里的你死掉,你选哪一辆?
孩子:还是选保护很多人的。
我:如果车子里不只有你,还有妈妈呢?
孩子:还是选保护很多人的,妈妈跟我一起去天堂没关係。
我:如果车子里只有妈妈呢?
孩子:那我要选保护妈妈。

孩子天真的回答,却是典型人工智慧应用的 Trolley Problem 伦理两难,假设回答问题的不是使用者而是车厂,加上商业利益的考量,问题将更为複杂。无论保护多数人的选项多幺道德正确,最终,销量第一的,恐怕还是能优先保护使用者的无人车吧!无人车或许是极端的例子,但人工智慧演算法不知不觉、方方面面介入我们的日常生活,已是创业者、开发者与使用者必须共同面对的真相。

推动 Trustable AI 为什幺又急又重要?

从 Google 搜寻引擎、Siri 语音助理、Facebook 广告置入、Netflix 影片推荐,到 UberEats 订餐外送,每一项服务都因为演算法的优化,为使用者带来方便,同时为企业增加营收。起初,演算法只是约略猜测我们想买什幺、想看什幺、想吃什幺。随着数据资料的大量累积与交互运作,演算法开始知道一些「不足为外人道」的秘密,例如,谁最近刚怀孕、谁準备离职跳槽、谁又暗恋着谁。然后, 无论愿不愿意,演算法可能比我们更了解我们 ,这些关于「自己」的一切,会成为贷款的信用分数、看病的用药依据、犯罪的呈堂证供。如今,我们也都见证了人工智慧演算法回过头来操纵个人意志,决定我们该买什幺、该看什幺、该吃什幺,甚至票投给谁。终于,我们变成演算法期待的那个模样,但究竟哪一个才是「真正的自己」?所谓「更好的自己」谁说了算?而眼前活生生的「自己」,有没有丝毫抗辩的权利?

事实上,所有机器学习(Machine Learning)的模型及成效,都取决于人为的建构,尤其现今主流的深度学习(Deep Learning), 连开发者都只能判断运算结果的好坏,却无从得知 AI 如何作成决策,是名符其实的演算法黑箱 。即便暂不考虑 False Positive 与 False Negative 的问题,开发者也很难如同卖菜刀的师傅两手一摊说:「刀子可以切菜也可以杀人,工具是中立的啊!」更何况,机器学习的每一笔训练资料(Training Data),都是人类社会既已发生的事实,当历史经验存在偏见(Bias)未经校正,演算法的产出就必定是偏见的重现。试想,如果国家的警力部署,是依据各地犯罪率高低的历史资料自动演算的结果,那幺部署严密的区域因为破案率提高,在后续犯罪率的统计、警力的部署也将形成循环性的偏差。开发者有意或无意的决定,都可能造成难以预期的结果,也因此,「可信任的人工智慧」(Trustable AI)成为全球开发者亟欲突破的难题。

Trustable AI 主要的探讨,是如何尽可能减少演算法黑箱的节点,提升公平性、当责性与透明性(Algorithmic Fairness, Accountability and Transparency; FAT),技术难度或营业秘密再也不能作为演算法偏见或歧视的藉口。美国国防高等研究计划署(DARPA)自 2017 年推动为期长达五年的「可说明的人工智慧计画」(Explainable Artificial Intelligence Program; XAI),就是希望在 Trustable AI 与机器学习的成效二者权衡之间,寻求最佳解。

欧、美、亚三地最新的 Trustable AI 规範在说些什幺?

演算法对人类社会的影响既深且广,开发者探讨 Trustable AI 议题,不能缺少人文与社会科学的研究。所幸,随着 Trustable AI 技术领域日臻成熟的同时,相关法律论述也在今年上半年逐渐成形。一切的开始,或许要回溯到「家喻户晓」的欧盟 GDPR(General Data Protection Regulation)个资保护规範,说到 GDPR,业界对它的认识不外乎「史上最严个资法」。

事实上,除了个资的蒐集、处理与利用等隐私保护机制外,GDPR 也相当强调 Trustable AI 在法规上的具体实践 。例如,当「自动化个案决策」(Automated Individual Decision-Making)完全经由演算法自动产出,且该决策对用户产生法律效果或类似重大影响时,应赋予用户请求解释、表达意见、拒绝适用,或以「工人智慧」人为介入判断的权利。此外,GDPR 为了避免人工智慧应用,对于个人的基本人权与自由产生重大危害,针对「特种个资」(Special Categories of Personal Data)保护更为严格,包括种族、政治立场、宗教信仰、工会会籍、基因、生物特徵、健康状况、性生活或性取向等,只有在符合特殊要件的前提下,才允许採用特种个资做为演算法的输入资料。

GDPR 影响所及,技术领域长期关注的 Trustable AI,终于在法律层面开启对话。近期最受全球瞩目的三项法案包括:

欧盟:「可信任的人工智慧伦理规範」七大关键要素

欧盟执委会(European Commission)去年 6 月甫成立的人工智慧高级专家小组(High-Level Expert Group on AI; AI HLEG),在同年 12 月整理出一份规範草案,广泛徵询各界意见之后,于今年 4 月正式颁布「可信任的人工智慧伦理规範」(Ethics Guidelines for Trustworthy AI),强调七大关键要素:人类自主性与监督(Human Agency and Oversight)、技术稳健性与安全性(Technical Robustness and Safety)、隐私与数据监理(Privacy and Data Governance)、透明性(Transparency)、多元性、非歧视性与公平性(Diversity, Non-Discrimination and Fairness)、社会与环境福祉(Societal and Environmental Well-Being)、当责性与咎责机制(Accountability)。

这份伦理规範不具强制性,各会员国也不急着增修既有法规,使得以上的内容看起来像高大上的精神喊话。但是,执委会将参考现行实务与试办成果,持续演译规範内容,预计 2020 年初再度释出新版。因此,我们建议 AI 开发者观察的重点,在于透过目前文件预见政策与法规的走向,包括:将来不同产业细部化的分类规範、自律组织或第三方认证机构的形成等等。尤其,这份伦理规範将 Trustworthy / Trustable AI 区分为合规的(Lawful)、伦理的(Ethical)和稳健的(Robust)三种面向,仅仅合规是不够的,开发者也要努力争取另外两个面向的加分题。此外,草案用语「Trustworthy AI made in Europe」已经更正为「Trustworthy AI for Europe」,明确表示无论 AI 系统的「产地」是不是在欧盟境内,只要「使用」行为在欧盟境内,这份伦理规範都有所适用。事实上,执委会也一再强调,最终目标期待这份伦理规範成为真正接地气、能实作的「全球共识」。

美国:国会草拟「演算法问责法案」,强化使用者权利

今年上半年,美国国会针对数位隐私、人脸辨识、基因资讯等领域,提出多项法案,都值得开发者关注。其中针对 Trustable AI 议题,美国民主党 Ron Wyden 等国会议员共同草拟了「演算法问责法案」(Algorithmic Accountability Act of 2019),特别限制大型企业(年收入超过 5,000 万美元,或用户数、装置数超过 100 万件)的人工智慧应用。法案认为大型企业的产品或服务倾向于依赖(而非消除)演算法偏见,因此必须藉由外部拘束力加以导正,包括授权联邦贸易委员会(Federal Trade Commission; FTC)订定规範,要求高风险自动化决策系统(High-Risk Automated Decision System)进行影响评估(Impact Assessment),强化使用者的权利,而非相反地予以边缘化。

这份法案虽然针对大型企业、并以 FTC 为执法单位,新创团队的开发者仍然可以经由法案所欲处理的具体情境,来检视并优化自己的开发项目。举例来说,机器学习领域普遍应用的「剖析建档」(Profiling)与「推荐系统」(Recommendation),可能由于演算法偏见,导致特定弱势族群即便使用相同平台服务,却无法接触某类住宅建案、某些工作机会或某种贷款方案。事实上,Facebook 在今年 3 月已经与各该领域主管机关协商和解,针对住房(Housing)、僱佣(Employment)和信用贷款(Credit Offers)这些敏感项目,正式宣布新的广告投放措施,禁止使用年龄、性别或邮递区号来锁定投放对象,并对整体分众功能(Targeting Categories)加以限缩,甚至在房屋租售的项目,将一劳永逸地建构新的搜寻工具,让每一位使用者都能搜寻到美国境内每一则广告。

亚洲:新加坡居于领先地位

新加坡对于 Trustable AI 的规範进程,在亚洲各国之中俨然居于领头羊地位。先是去年 11 月由金融管理局(Monetary Authority of Singapore)针对金融产业提出「人工智慧与资料分析行为準则」(FEAT Principles),随后今年 1 月再由个人资料保护委员会(Personal Data Protection Commission)颁布「人工智慧监管模式框架」(A Proposed Model Artificial Intelligence Governance Framework),为非特定产业的一般性人工智慧应用提供指导方针。无独有偶地,这份监管框架与前面提到的欧盟伦理规範一样,强调自己是动态文件(Living Document),不具强制性,并将随着技术进程与各界反馈持续更新。

而相较于高大上的欧盟伦理规範,新加坡的监管框架已经针对内部监理的架构与措施、人工智慧决策的风险管理、营运管理、与使用者关係维护等四个面向,提供开发者具体可资遵循的步骤,甚至引用 UCARE.AI 与新加坡 Parkway Pantai 医疗集团有关医疗费用的预测分析(Predictive Analysis)作为实作案例。这个个案的挑战性,在于医疗资料的蒐集、处理、利用本来就受到相关法规的严格监管,而个案涉及类神经网络的深度学习演算法黑箱,也正是 Trustable AI 的透明性要求最常卡关的痛点。

依据监管框架的介绍,个案在 Trustable AI 的公平性、当责性与透明性各个环节,都已规划对应流程,一方面藉由演算法自动化决策,来降低人为主观评价欠缺一致性的问题(最常见就是受到病患收入水平或保单承保範围的影响),另一方面也确保健全的人为反馈迴路(Human Feedback Loop)能够介入运作,甚至在演算法内建人为撤销机制(Manual Override Protocol),以便必要时能够安全地终止演算法的运作。

结语:人类应当有权力与责任,决定信任人工智慧的情况

从 2016 年 Microsoft Tay 失控之前的乐观,到今年初 Open AI 对释出开源码的犹豫,人类渐渐学会对机器感到敬畏,也终于明白所谓「工具中立性」其实意味着,它的亦正亦邪完全掌握在人类手里。眼前这些 Trustable AI 最新规範趋势,不约而同展现这样反覆辩证的历程,提醒我们不要过于相信人类,也不要过于相信机器。

换言之,Trustable AI 所有规範都指向同一个方向——人类应当有权力(也有责任)决定什幺情况要信任「人工智慧」、什幺情况要依赖「工人智慧」。要达到这个目标,首先必须认清人类和机器各自的强项与侷限,但是这一题太难,因而需要在制度面加以规划,包括事前的管理、事中的检验与事后的救济,缺一不可,供各位创业者、开发者参考。

更多关于 AI 的消息

AI 的画作居然可以卖到 1358 万台币!生成对抗网路造就这个「演算法美学」
25 支 AI/区块链新创团队,创造毫无冷场的新创盛会
期末报告有救了!中国留学生研发 AI 论文机器人,读文献、写摘要跟下结论都难不倒它