万字长文详解:国外主流科技公司的AI伦理实践.docx

上传人:枫** 文档编号:564332750 上传时间:2023-04-24 格式:DOCX 页数:27 大小:51.17KB
返回 下载 相关 举报
万字长文详解:国外主流科技公司的AI伦理实践.docx_第1页
第1页 / 共27页
万字长文详解:国外主流科技公司的AI伦理实践.docx_第2页
第2页 / 共27页
万字长文详解:国外主流科技公司的AI伦理实践.docx_第3页
第3页 / 共27页
万字长文详解:国外主流科技公司的AI伦理实践.docx_第4页
第4页 / 共27页
万字长文详解:国外主流科技公司的AI伦理实践.docx_第5页
第5页 / 共27页
点击查看更多>>
资源描述

《万字长文详解:国外主流科技公司的AI伦理实践.docx》由会员分享,可在线阅读,更多相关《万字长文详解:国外主流科技公司的AI伦理实践.docx(27页珍藏版)》请在金锄头文库上搜索。

1、万字长文详解:国外主流科技公司的AI 伦理实践2022年全国两会期间,社会各界热议科技创新与科技伦理。从业界具体实践来看,随着各界对AI伦理的日益重视?口各国AI监管政策和立法 的持续推进,各大科技公司纷纷拥抱AI伦理,打造可信AI ,把AI伦理和可信 AI作为打造AI产品和服务的市场竞争优势的核心引擎之一。微软、谷歌、IBM、Twitter等众多国外主流科技公司在AI伦理与可信AI方面 谋划早、布局全、实践深,涉及原则、治理机构、技术工具和解决方案、AI伦 理产品服务、行动指南、员工培训等诸多层面。本文对微软、谷歌、IBM、Twitter这四家比较有代表性的公司的实践做法予以 系统梳理,以期

2、能够有所启示。一、微软伦埋原则微软致力于以人为本地推动AI技术发展,在AI伦理方面提出公平、安全可靠、 隐私保障、包容、透明、负责六大原则。技术指南负责任Al的评估环节HAX Workbook人工智能交互问题Human Al Interaction Guidelines负责任AI的开发环节HAX Design PatternsAl Security Guidance人工智能交互问题1 Inclusive Design Guidelines -偏见问题k Conversational Al guidelines机器人领域安全问题二谷歌伦理原则谷歌从积极方面和消极方面规定了人工智能设计、使用的原则

3、,将其作为公司和未来AI发展的基础。该原则以道德宪章的地位,指导公司的AI研究以及AI产品中的开发和使用。同时谷歌也承诺,愿意随着时间的推移而及时调整这些原则。具体来说,这些原则包括:积极方面,人工智能的使用应该:1. 有利于增进社会福祉;2. 避免制造或强化歧视、偏见;3. 以安全为目的的创新;4. 对公众负责;5. 纳入隐私设计原则;6. 坚持科学卓越的高标准;7. 符合这些原则。消极方面,公司不会在以下应用领域设计或部署AI:1. 造成或可能造成危害的技术;2. 对人造成伤害的武器或其他技术;3. 违反了国际公认规范,收集或使用信息用于监视的技术;4. 目的违反广泛接受的国际法和人权原则

4、的技术。1. 治理机构2018年,谷歌宣布人工智能原则的同时,成立了负责任创新中央团队(central Responsible Innovation team ),当初这个团队仅由6名员工组成。如今,团队规模已经显著扩大,数百名谷歌员工构成了数十个创新团队,在人权、 用户体验研究、伦理、信任和安全、隐私、公共政策、机器学习等领域构建了一 个AI原则生态系统。谷歌通过这个内部的AI原则生态系统来实施负责任AI的创新实践,帮助谷歌技 术开发人员将负责任AI落实到他们的工作当中。这个生态系统的核心是一个三层的治理架构:Advanced Technology Review Council ATRCPr

5、ivacy & DataProtection OfficeSteeringCommitteeReviewprocessesHealth EthicsCommitteeCentral ResponsibleInnovation ReviewCommitteeProduct AreaAl Principles ReviewCommitteesCouncilDedicatedfunctions inproduct teams*Trust & SafetyUserExperienceProductInclusionDEI CouncilsPrivacyWorkingGroupsEscalation (

6、If needed),This is not an exhaustive list, and does not indude product-specific teams (e.g. Search Quality)Google operationalizes responsible innovation practices viaa three-tiered internal Al Principles Ecosystem.第一层是产品团队,由专门负责用户体验(UX )、隐私、信任和安全(T&S ) 等方面的专家组成,这些专家提供与人工智能原则相一致的专业知识。第二层是专门的审查机构和专家团队

7、。由负责任仓!J新中央团队(Central Responsible Innovation ReviewCommittee )、隐私顾问委员会(Privacy Advisory Council)、卫生伦理委员 会(Health Ethics Committee )以及产品审查委员会(Product Area Al Principles Review Committees )四个部门组成。(1) 负责任创新中央团队(Central Responsible Innovation ReviewCommittee )该团队为整个公司的实施AI原则提供支持。公司鼓励所有员工在整个项目开发过程中参与人工智能

8、原则的审查。一些产品领域已经建立了审查机构,以满足特定的受众和需求。如谷歌云(Google Cloud )中的企业产品、设备和服务(Devices and Services ) 中的硬件、谷歌健康(Google Health )中的医学知识。(2 )隐私顾问委员会(Privacy Advisory Council )该委员会负责审查所有可能存在潜在隐私问题的项目,包括(但不仅限于)与人 工智能相关的问题。(3 )健康伦理委员会(Health Ethics Committee )HEC成立于成立于2020年,是一个在健康领域发挥指导、决策功能的论坛,针 对健康产品、健康研究或与健康有关的组织决策

9、等领域产生的伦理问题提供指 导,保护谷歌用户和产品的安全。H EC是一个综合性的论坛,其中包括生物伦理学、临床医学、政策、法律、隐 私、合规、研究和商业方面的主题专家。2021年,谷歌生物伦理项目创建了 the Health Ethics Cafe ,这是一个讨论生物伦理问题的非正式论坛。 公司任何人在项目开发的任何阶段都可以在此进行讨论,论坛中遇到的棘手问题 将被升级到H EC进行审查。(4 )产品审查委员会(Product Area Al Principles Review Committees )PAAPRC是一个专门为特定产品领域而设立的审查委员会。其中包括谷歌云的负责任AI产品委员会

10、(Responsible Al ProductCommittee )和交易审查委员会(Responsible AI Deal Review Committee )0其旨在确保谷歌云的AI产品、项目以系统、可重复的方式与谷歌人工智能原则 保持一致,并将道德、责任嵌入了设计过程中。产品委员会专注于云人工智能和行业解决方案(Cloud AI & IndustrySolutions )所构建的产品。根据AI原则对社会技术前景、机会以及危害进行综合审查,并与跨职能、多样 化的委员会进行现场讨论,从而形成一个可操作的协调计划。交易审查委员是一个由四名跨职能的高级执行成员组成的委员会。所有决定的作出都必须得

11、到所有四名委员会成员的完全同意,并根据需要逐步升 级。谷歌AI原则生态系统的相关人员会帮助委员会了解讨论的内容,避免其凭空做 出决定。第三层是先进技术审查委员会(Advanced Technology Review Council )。这是一个由高级产品、研究和商业主管轮流担任委员的委员会,代表着谷歌公司 多个部门的不同意见。ATRC处理升级问题以及最复杂的先例性案例,并建立影响多个产品领域的策 略,权衡潜在的商业机会和某些应用程序的道德风险。案例一:谷歌云的负责任AI产品审查委员会&谷歌云负责任AI交易审查委员会 为避免加重算法不公平或偏见,决定暂停开发与信贷有关的人工智能产品2019年,谷

12、歌云的负责任AI产品审查委员会评估了信用风险和信誉领域的产 品。虽然我们希望有一天AI能够进入信贷领域,并在增进金融普惠和财务健康方面 发挥作用。但产品审查委员会最终否定了这项产品用当下的技术、数据打造的信用可 靠性产品,可能在性别、种族和其他边缘化群体方面产生差别影响,并与谷歌避 免创造或加强不公平的偏见的人工智能原则相冲突。2020年年中,产品审查委员会重新评估并重申了这一决定。在过去的一整年中,交易审查委员会评估了多个与信贷评估有关的人工智能应用(proposed custom AI engagements )。 每一项应用都会根据其特定的用例进行评估,交易审查委员会最终决定拒绝进行 其

13、中的许多业务。多年的经验和教训让我们确信:在风险得到适当缓解之前,应该暂停开发与信贷 相关的定制AI解决方案(custom Al solutions )。这个方针从去年开始生效,并一直持续到今天。案例二:先进技术审查委员会基于技术问题与政策考量,拒绝通过面部识别审提 案2018年,先进技术审查委员会处理了谷歌云产品的审查提案,决定在解决重大 技术、政策问题之前,不提供通用面部识别API ,并建议团队专注于专用AI解 决方案。随后,公司内外相关人员对此进行了大量的投入。经过团队的多年努力,谷歌云开发了一个高度受约束的名人专用API2( Celebrity Recognition API2 ),并

14、寻求ATRC的批准,最终ATRC同意发布该产品。案例三:先进技术审查委员会对涉及大型语言模型的研究进行审查,认为其可以 谨慎地继续2021年,先进技术审查委员会审查的其中一个主题是关于大型语言模型的发展。 审查之后,先进技术审查委员会决定,涉及大型语言模型的研究可以谨慎地继续, 但在进行全面的人工智能原则审查之前,此模型不能被正式推出。2. 技术工具(1 )Fairness Indicators :2019年发布,用于评估产品的公平性。Min-Diffl4 technique :对日益增多的产品用例进行补救,以达到最佳的学习规模,能够主 动解决公平性问题。(2 ) federated lear

15、ning :在Gboard等产品中使用的联邦学习,帮助模型根 据真实的用户交互进行集中训练和更新,而无需从个人用户那里收集集中的数 据,以增强用户隐私。(3 ) federated analytics :使用与 federated learning 类似的技术,在不收 集集中数据的情况下,深入了解产品特性和模型对不同用户的性能。同时,federated analytics也允许项目团队在不访问原始用户数据的情况下进 行公平性测试,以增强用户隐私。(4 ) federated reconstruction :与模型无关的方法,可以在不访问用户隐私信息的情况下,实现更快、大规模的联邦学习。(5) Panda : 一种机器学习算法,帮助谷歌评估网站的整体内容质量,并相应 地调整其搜索排名。(6 ) Multitask Unified Model (MUM):使搜索引擎理解各种格式的信息,如文本、图像和视频,并在我们周围世界的概念、主题和想法之间建立隐含的联 系。应用MUM不仅将帮助世界各地的人们更高效地找到他们所需要的信息,而且 还将增强创造者、出版商、初创企业和小企业的经济效益。(7 ) Real Tone :为深色肤色的用户提供了人脸检测、自动曝光和自动增强等 功能,帮助人工智能系统发挥更好性能。(8 ) L

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 解决方案

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号