查看原文
其他

EPIC—AI立法评分卡解读

余玥韩 清华大学智能法治研究院
2024-08-28

近年来,美国在州和联邦层面提出了大量的AI立法提案。这些法案试图通过不同的方式来监管AI,有些法案试图制定全面的监管框架,有些则创建了任务小组或委托进行进一步研究,还有一些集中于特定领域或狭义的AI应用。面对如此多样化的立法尝试,EPIC认为有必要制定一个标准化的评估工具,以帮助各方了解和比较这些法案的有效性和完整性。


电子隐私信息中心(EPIC)是一家致力于引导公众关注新兴的隐私和公民自由问题的非营利研究机构。随着人工智能(AI)技术的迅速发展,EPIC认识到需要评估和规范AI立法的有效性,以确保这些技术的使用不会损害公众的权利和安全。为此,EPIC开发了AI立法评分卡,为立法者、记者、倡导者和学者提供了一个评估AI法案强度的工具,其具体内容如下。


1

评分卡的关键要素


(1)明确有力地定义


明确有力的定义是确保AI立法的有效性的首要前提,主要涵盖了以下定义:


· 算法/人工智能/自动决策系统的定义:应重点描述这些系统的功能,尤其是它们如何替代或影响人类决策。定义应包括复杂的AI模型和简单的算法/自动化过程,确保没有对政府使用或国家安全的广泛豁免。


· 算法歧视的定义:应界定为AI系统在使用中对基于受保护类别的人群产生歧视性影响,使得这些人群在商品、服务或机会的享有方面受到不平等对待。受保护类别应至少包括种族、肤色、族裔、国籍、宗教、性别、怀孕状态、性别认同、性取向、家庭状态、残疾、生物识别或遗传信息、收入来源或收入水平等。


· AI系统的后果性使用:定义应涵盖所有可能显著影响个人安全或福祉的AI使用,特别是对民权、公民自由、隐私或平等机会有法律或类似重要影响的使用。额外的定义还应包括对气候或环境安全、关键基础设施、选举完整性、敏感政府信息或知识产权有显著影响的AI使用。


· 开发者和部署者:开发者是设计、创建、维护、修改或更新AI系统的实体,部署者是使用AI系统辅助决策或向最终用户提供AI系统的实体。开发者和部署者可以是同一实体。


(2)基本要求


所有AI立法应满足的基本要求包括:


· 覆盖所有后果性使用:法案应涵盖所有对个人有重大影响的AI系统用途,而不仅限于那些是唯一或控制因素的用途。


· 内容生成披露:开发者和部署者应披露内容是否由AI生成,以确保信息的透明性。


·明确同意和公平补偿:除合理使用外,开发者和部署者应在使用内容训练AI系统前获得内容创作者的明确同意,并公平补偿创作者。


(3)禁止算法歧视


· 开发者和部署者不得开发或部署会导致算法歧视的AI系统。单纯的谨慎义务是不够的,必须有明确的禁止性规定。


(4)禁止特别有害的用途


包括但不限于:


· 情感或属性识别

· 社会评分

· 一对多人脸识别

· 非自愿深度伪造技术


法案还应规定程序或赋予规则制定权,以认定其他值得暂停或禁止的技术或AI系统用途。


(5)数据最小化


· 数据收集和处理:开发者和部署者不得收集、处理、保留或转移个人数据,除非这些操作对于开发、训练或维护特定产品或服务是必要且一致的,并且个人明确同意这样的使用。


· 数据删除:开发者和部署者应在训练目的完成后或两年内(以较短者为准)删除用于训练AI系统的源数据。


(6)透明度和责任


确保AI系统的透明度和问责机制至关重要,包括:


· 审计和影响评估的内容:应包括部署前后的训练数据和输入的来源和质量的评估、限制运行中的错误、AI系统的运行逻辑、开发和测试过程、AI系统的预期用途和可预见的误用;定期验证研究和随时间进行的比较输出评估的过程及结果,用于检测AI模型的漂移或退化;AI系统生成的输出类型;AI系统输出的下游用途,超出预期目的的情况;任何偏见审计或测试歧视性影响及对受保护类别的影响的结果;数据管理政策和程序,包括数据安全评估和/或AI红队测试程序;人工审核或重新决定的程序;以及在决定使用AI系统时进行的风险-收益分析的结果。


· 独立审计:审计应由符合相关领域适当资质的独立审计员完成,开发者和部署者必须保留审计和影响评估的文档和结果至少5年。


· 部署前要求:开发者应向部署者提供符合本节标准的正面影响评估结果和AI系统功能的测试结果,部署者应创建和实施测试和评估机制,以确保满足后续要求。


· 部署后要求:部署者每年至少需要进行一次审核和影响评估,同时在系统的使用环境、操作方式或使用的数据发生重大变化时,也应进行相应的评估。对于重要应用的AI系统,开发者和部署者应主动向相关执法机构提交审核和评估的文档和结果,而不应仅在被请求时提供。若风险评估发现系统存在偏见或算法歧视,部署者必须暂停使用该系统,直至这些问题被缓解,或在无法解决的情况下,彻底废止该系统。在此过程中,还需确保暂停或废止系统操作不会影响到受影响群体获得基本商品、服务或机会。此外,如果在AI系统的审核中发现问题,开发者和部署者应向政府监管机构报告失败,并停止使用该系统直至问题得到纠正。开发者还需要向下游部署者通报任何发现的审核失败或通过影响评估发现的偏见及算法歧视情况。


· 透明度和披露:开发者和部署者应在其网站和中央存储库中公布审核和影响评估的结果摘要、训练数据详情、风险与潜在利益的权衡过程及其缓解措施等信息。披露应限于商业机密,并不得包括宽泛或模糊的术语如“专有”“机密”或“商业”信息。


(7)数据安全


确保数据安全是AI立法的重要组成部分:


· 数据保护义务:开发者和部署者应有义务保护个人数据不受未经授权的访问、使用、破坏、修改或披露。


· 数据加密:数据不得以明文形式存储、保留或转移,应使用加密和其他隐私增强技术。


· 安全事件响应:开发者和部署者应创建并实施标准操作程序,以检测和响应安全事件和数据泄露,并向相关政府监管机构和受影响的个人报告事件。


· 员工培训:开发者和部署者的所有涉及AI开发或部署的员工应接受适当的个人数据保护培训。


(8)禁止不公平行为


为了保护消费者和监督者的权利,AI立法应禁止以下不公平行为:


· 消费者报复:开发者和部署者不得对行使个人权利的消费者进行报复,包括提高价格或降低商品或服务质量。


· 告密者保护:开发者和部署者不得对合法的举报人采取不利行动。


· 人为操控:应禁止使用人为操控改变个人决策,包括在提供或撤回个人意向或行使个人权利时。


(9)个人权利


确保AI系统使用中的个人权利是AI立法的核心,主要包括以下几个方面:


· 不可解释的AI系统:不可解释的AI系统不应用于重要用途。


· 知情权和解释权:个人应有权知晓AI系统的输出结果及其生成过程的解释,解释应以简明的语言书写,并具体到使得个人能够识别出该结果是否基于不准确或不完整的信息而生成的。


· 访问权和纠正权:个人应有权访问系统逻辑和纠正用于输出结果的任何不正确或不完整的个人信息。


· 选择退出权:个人应有权独立选择退出AI系统的使用,且不得因此处于比退出前更差的位置,包括不得因选择退出而被取消任何机会或决定。


· 重新评估和人工审查权:个人应有权要求重新评估或人工审查AI系统的决定。


(10)执行和规则制定


有效的执行和规则制定机制是确保AI立法实施的关键:


· 私人诉讼权:执行机制应包括私人诉讼权,政府监管机构和消费者应有权对开发者和部署者因违规行为提起诉讼,并提供法定赔偿,对故意或重复违规行为应允许额外赔偿。


· 纠正期:纠正期应仅适用于通过内部测试/流程发现的违规行为,而不适用于通过调查或消费者投诉发现的违规行为。


· 调查和执法权:总检察长或其他相关机构应有调查和执法权,包括明确授权的利得剥夺权、禁令救济权以及对开发者和部署者施加额外要求的能力。


· 不预先排除更具保护性的地方法规:法案不应该取代更具保护性的地方或州法规。


· 规则制定权和充分资金:相关消费者保护机构应有规则制定权,并应适当分配执行和制定规则的资金和人员。



2

结论


EPIC的AI立法评分卡通过提供了一个较为全面的评估标准,确保了AI立法的有效性和完整性,主要强调了透明度和问责机制,保障数据隐私和安全,禁止算法歧视和不公平行为,强化个人在AI系统使用中的权利等主要内容。这些措施不仅适用于商业领域,也适用于政府的AI系统开发、采购和使用,从而为商业领域安全有效地采用AI技术树立榜样。评分卡还设计了完善的执行和规则制定机制,以确保法律的实际执行力和持续改进。通过制定和实施这些标准,立法者和相关机构可以有效应对AI技术带来的各种挑战,保护公众的权利和安全,为各国开展AI立法提供了一份系统性的指导框架。





撰稿 | 余玥韩,清华大学智能法治研究院实习生 

选题&指导 | 刘云

编辑 | 沈廖佳


注:本公众号原创文章的著作权均归属于清华大学智能法治研究院,需转载者请在本公众号后台留言或者发送申请至computational_law@tsinghua.edu.cn,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。

继续滑动看下一个
清华大学智能法治研究院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存