商业
您现在的位置:首页 > 商业 > 谷歌研究人员发布审计框架以缩小AI问责制差距
  • 腾讯创作者生态的前车之鉴,能否支撑《元梦之星》逐梦UGC?

    腾讯创作者生态的前车之鉴,能否支撑《元梦之星》逐梦UGC?

    发布时间:2023/09/24

    近期,腾讯以“天美乐园”的特别形式公布了新作《元梦之星》,宣告正式入主派对游戏赛道。过去,派对游戏在国内市场份额较小,直到《糖豆人》《香肠派对》《蛋仔派对》等作品引发用户和市场的高度关注,整个赛道才...

  • 普悦智能,专注净水,为渠道经销搭载新引擎!

    普悦智能,专注净水,为渠道经销搭载新引擎!

    发布时间:2023/08/28

    稳步推进:祝贺普悦智能(北京联营公司)第一轮股东入股签约圆满成功! 2023年8月18日,浙江普悦智能科技有限公司北京联营公司——北京普悦京允智能科技有限公司在总经理宋玉财的热忱推进下,成功签约了五名销售/服...

  • 新鸿基地产园区中心封面地标, 苏州环贸汇众盼而至

    新鸿基地产园区中心封面地标, 苏州环贸汇众盼而至

    发布时间:2021/12/28

    当苏州迈向全球都会序列之际,当苏州园区盛启一城想象之时。实力港企新鸿基地产携苏州首个超高层多业态综合体住宅——新鸿基地产苏州环贸汇澎湃而来,势将为苏州高净值投资人群挚献园区中心CBD地标之作,擎领苏州未...

  • 看图操作,三步即可开通微粒贷

    看图操作,三步即可开通微粒贷

    发布时间:2021/12/01

    ​微粒贷是由国内首家互联网银行微众银行推出的一款小额信贷产品,具有无抵押无担保、随借随还等特点,深受大家的喜欢。在此,小编结合官方资料,为想用微粒贷却不知怎么开通的朋友提供一些帮助。微粒贷开通 第一...

  • 英国与快速反应小组一起抗击冠状病毒

    英国与快速反应小组一起抗击冠状病毒

    发布时间:2020/04/01

      英国政府宣布了新的措施,以打击虚假的COVID-19在线信息的传播,包括建立专门的专家小组来处理错误信息。 新成立的快速反应小组将在英国内阁办公室内部运作,并将研究应对互联网上“有害叙述”的方法-解决“...

  • 微软即将吸引消费者-但Skype仍将保留

    微软即将吸引消费者-但Skype仍将保留

    发布时间:2020/03/31

      微软今天宣布,今年晚些时候,它将推出Teams的基本消费版,即类似于Slack的文本,音频和视频聊天应用程序。就像Microsoft所喜欢的,您的个人生活团队将使用许多工具,这些工具将使家庭和小组更轻松地组织...

  • 安全漏洞暴露了共和党选民公司的内部应用代码

    安全漏洞暴露了共和党选民公司的内部应用代码

    发布时间:2020/03/31

      一家专供共和党政治运动使用的选民联系和拉票公司,错误地在其网站上留下了未经保护的应用程序代码副本,供任何人找到。 Campaign Sidekick公司通过iOS和Android应用程序帮助共和党竞选活动布署其选区,这...

  • 在宾夕法尼亚州,州酒商店仍然关闭,人们越来越口渴

    在宾夕法尼亚州,州酒商店仍然关闭,人们越来越口渴

    发布时间:2020/03/31

      随着美国人渴望长时间的自我隔离,白酒业务的销量激增。根据尼尔森(Nielsen)的数据,到3月中旬,这一增长已经比去年同期高出26%以上。但是,联盟中至少有一个州与这种趋势背道而驰,而且与消费者的意愿无...

谷歌研究人员发布审计框架以缩小AI问责制差距

发布时间:2020/02/02 商业 浏览次数:675

 
与Google和AI合作伙伴关系相关的研究人员创建了一个框架,以帮助公司及其工程团队在部署AI系统之前对其进行审核。该框架旨在为启动AI的企业增加一层质量保证,将其转化为AI伦理原则中通常所奉行的实践价值,并解决了作者认为当今AI中存在的问责制缺口。
这项工作的标题是“弥合AI问责制差距:定义内部算法审计的端到端框架”,是少数优秀的AI伦理学研究论文之一,已被接受作为《公平,问责制和透明度》(FAT)的一部分发表。 )会议,本周将在西班牙巴塞罗那举行。
该论文写道:“拟议的审计框架旨在通过嵌入一个可靠的流程来确保审计完整性,从而弥补大型人工智能系统在开发和部署责任方面的不足。” “至少,内部审核流程应能对系统的潜在影响进行批判性思考,并作为对道德意识的内部教育和培训,除了在每个步骤中留下我们所谓的文档“透明性追踪”开发周期。”
该框架还旨在识别风险并将其降低到最低程度,并勾勒出未来可以如何做的事情或发射后如何应对失败。该方法还意在超越一些公司今天进行的基于风险的评估,询问“如果…怎么办”,但往往没有纳入社会或道德挑战。
该框架名为“范围界定,制图,工件收集,测试和反思(SMACTR)”,旨在鼓励公司在部署AI模型供客户使用之前执行审核。对于像Google这样的公司而言,这种模式可能会影响数十亿用户的生活。
SMACTR审核产生了许多文档,其中包括超出是或否答案的清单。设计历史文件以记录设计输入和输出,以及模型卡以确保将AI部署用于其预期目的;故障模式和影响分析(FMEA),以结合工程师和产品设计师的已知问题和经验。
SMACTR中的每个字母都旨在充当审核过程的一个阶段:
范围界定阶段是风险评估过程和审核员进行社会影响评估以及对系统用例进行道德审查的阶段。
映射阶段用于创建内部利益相关者的地图,并确定关键协作者以执行审核。
Artifact Collection阶段用于创建审核清单,数据表或模型卡,其中记录了模型的构建方式,开发过程中的假设及其预期用途。
测试阶段使用对抗训练等方法评估绩效,并创建道德风险分析图,以识别故障的可能性和严重程度或风险级别。
反思阶段是审核和工程团队评估内部设计建议或制定缓解计划的阶段。
算法审计框架借鉴了许多其他对安全至关重要的领域,例如航空航天和医疗保健,对保护生命安全至关重要,这些领域现在作为设计过程的一部分进行审计。
工业界采取行动使审计成为应对一系列失败和丑闻或提高标准以满足政府法规的标准方法。该框架采用了FMEA等其他行业中发现的工具,以及诸如“除非保持持续的警惕,否则复杂的系统趋向于不安全的状况”之类的课程。但是,它也承认AI会遇到独特的问题。
九名研究人员在SMACTR框架上进行了合作,包括Google员工Andrew Smart,Margaret Mitchell和Timnit Gebru,以及前AI伙伴关系研究员和现任AI Now Institute研究员Deborah Raji。
米切尔(Mitchell)和格布鲁(Gebru)合作开发了模型卡,谷歌云现在将这种方法用于其某些AI模型。 Gebru还致力于数据集的数据表,并与Algorithmic Justice League的Joy Buolamwini分别进行了合作,共同对微软和亚马逊等公司出售的主要面部识别软件服务进行的审计,结果发现深色皮肤的人(尤其是有色女性)的表现不佳。
SMACTR文件还尝试承认一些缺陷,例如审计的某些部分依赖于或容易受到人为判断的事实。它敦促审计师要注意自己的偏见和公司的观点,以免使审计过程仅仅是声誉管理的行为。作者认为,随着AI模型的规模和跨多个设备的分布的增加,这种方法可能越来越有价值。
该论文写道:“人工智能有可能造福整个社会。” “但是,目前存在不公平的风险分布,以致那些已经面临结构脆弱性或偏见的人承受了许多这类系统的代价和伤害。公平,正义与道德要求对那些承担这些风险的人们给予应有的重视,并且构建和部署人工智能系统的组织还应内部化并积极应对这些社会风险,并认真承担责任,以确保系统遵守已宣布的道德原则。