-
振东集团的”本草革命”:让中药材跳出药罐子,闯出大健康新天地
发布时间:2025/06/10
红球纷飞传三晋,大爱无边漫九州。5月25日,由中国红十字会总会主办,山西振东健康产业集团赞助的“红气球挑战赛”(晋中站)在山西省高校新区(山西大学城)鸣笛开赛。该赛事汇聚了来自全国各地及山西大学城高校的...
-
2025中美领衔世界级艺术名家 ——赵玉林精品展播
发布时间:2025/01/17
赵玉林,笔名三友,内蒙古包头市美术家协会副主席,草原书画院院长,中国美协内蒙古分会会员,台北故宫书画院名誉院长,中华国礼书画家,国家博物馆画廊特邀书画家。作品入选《中国当代国际书画家年鉴》,在中国书画研究...
-
腾讯创作者生态的前车之鉴,能否支撑《元梦之星》逐梦UGC?
发布时间:2023/09/24
近期,腾讯以“天美乐园”的特别形式公布了新作《元梦之星》,宣告正式入主派对游戏赛道。过去,派对游戏在国内市场份额较小,直到《糖豆人》《香肠派对》《蛋仔派对》等作品引发用户和市场的高度关注,整个赛道才...
-
普悦智能,专注净水,为渠道经销搭载新引擎!
发布时间:2023/08/28
稳步推进:祝贺普悦智能(北京联营公司)第一轮股东入股签约圆满成功! 2023年8月18日,浙江普悦智能科技有限公司北京联营公司——北京普悦京允智能科技有限公司在总经理宋玉财的热忱推进下,成功签约了五名销售/服...
-
英国与快速反应小组一起抗击冠状病毒
发布时间:2020/04/01
英国政府宣布了新的措施,以打击虚假的COVID-19在线信息的传播,包括建立专门的专家小组来处理错误信息。 新成立的快速反应小组将在英国内阁办公室内部运作,并将研究应对互联网上“有害叙述”的方法-解决“...
-
微软即将吸引消费者-但Skype仍将保留
发布时间:2020/03/31
微软今天宣布,今年晚些时候,它将推出Teams的基本消费版,即类似于Slack的文本,音频和视频聊天应用程序。就像Microsoft所喜欢的,您的个人生活团队将使用许多工具,这些工具将使家庭和小组更轻松地组织...
-
安全漏洞暴露了共和党选民公司的内部应用代码
发布时间:2020/03/31
一家专供共和党政治运动使用的选民联系和拉票公司,错误地在其网站上留下了未经保护的应用程序代码副本,供任何人找到。 Campaign Sidekick公司通过iOS和Android应用程序帮助共和党竞选活动布署其选区,这...
-
在宾夕法尼亚州,州酒商店仍然关闭,人们越来越口渴
发布时间:2020/03/31
随着美国人渴望长时间的自我隔离,白酒业务的销量激增。根据尼尔森(Nielsen)的数据,到3月中旬,这一增长已经比去年同期高出26%以上。但是,联盟中至少有一个州与这种趋势背道而驰,而且与消费者的意愿无...
谷歌研究人员发布审计框架以缩小AI问责制差距
发布时间:2020/02/02 商业 浏览次数:934
与Google和AI合作伙伴关系相关的研究人员创建了一个框架,以帮助公司及其工程团队在部署AI系统之前对其进行审核。该框架旨在为启动AI的企业增加一层质量保证,将其转化为AI伦理原则中通常所奉行的实践价值,并解决了作者认为当今AI中存在的问责制缺口。
这项工作的标题是“弥合AI问责制差距:定义内部算法审计的端到端框架”,是少数优秀的AI伦理学研究论文之一,已被接受作为《公平,问责制和透明度》(FAT)的一部分发表。 )会议,本周将在西班牙巴塞罗那举行。
该论文写道:“拟议的审计框架旨在通过嵌入一个可靠的流程来确保审计完整性,从而弥补大型人工智能系统在开发和部署责任方面的不足。” “至少,内部审核流程应能对系统的潜在影响进行批判性思考,并作为对道德意识的内部教育和培训,除了在每个步骤中留下我们所谓的文档“透明性追踪”开发周期。”
该框架还旨在识别风险并将其降低到最低程度,并勾勒出未来可以如何做的事情或发射后如何应对失败。该方法还意在超越一些公司今天进行的基于风险的评估,询问“如果…怎么办”,但往往没有纳入社会或道德挑战。
该框架名为“范围界定,制图,工件收集,测试和反思(SMACTR)”,旨在鼓励公司在部署AI模型供客户使用之前执行审核。对于像Google这样的公司而言,这种模式可能会影响数十亿用户的生活。
SMACTR审核产生了许多文档,其中包括超出是或否答案的清单。设计历史文件以记录设计输入和输出,以及模型卡以确保将AI部署用于其预期目的;故障模式和影响分析(FMEA),以结合工程师和产品设计师的已知问题和经验。
SMACTR中的每个字母都旨在充当审核过程的一个阶段:
范围界定阶段是风险评估过程和审核员进行社会影响评估以及对系统用例进行道德审查的阶段。
映射阶段用于创建内部利益相关者的地图,并确定关键协作者以执行审核。
Artifact Collection阶段用于创建审核清单,数据表或模型卡,其中记录了模型的构建方式,开发过程中的假设及其预期用途。
测试阶段使用对抗训练等方法评估绩效,并创建道德风险分析图,以识别故障的可能性和严重程度或风险级别。
反思阶段是审核和工程团队评估内部设计建议或制定缓解计划的阶段。
算法审计框架借鉴了许多其他对安全至关重要的领域,例如航空航天和医疗保健,对保护生命安全至关重要,这些领域现在作为设计过程的一部分进行审计。
工业界采取行动使审计成为应对一系列失败和丑闻或提高标准以满足政府法规的标准方法。该框架采用了FMEA等其他行业中发现的工具,以及诸如“除非保持持续的警惕,否则复杂的系统趋向于不安全的状况”之类的课程。但是,它也承认AI会遇到独特的问题。
九名研究人员在SMACTR框架上进行了合作,包括Google员工Andrew Smart,Margaret Mitchell和Timnit Gebru,以及前AI伙伴关系研究员和现任AI Now Institute研究员Deborah Raji。
米切尔(Mitchell)和格布鲁(Gebru)合作开发了模型卡,谷歌云现在将这种方法用于其某些AI模型。 Gebru还致力于数据集的数据表,并与Algorithmic Justice League的Joy Buolamwini分别进行了合作,共同对微软和亚马逊等公司出售的主要面部识别软件服务进行的审计,结果发现深色皮肤的人(尤其是有色女性)的表现不佳。
SMACTR文件还尝试承认一些缺陷,例如审计的某些部分依赖于或容易受到人为判断的事实。它敦促审计师要注意自己的偏见和公司的观点,以免使审计过程仅仅是声誉管理的行为。作者认为,随着AI模型的规模和跨多个设备的分布的增加,这种方法可能越来越有价值。
该论文写道:“人工智能有可能造福整个社会。” “但是,目前存在不公平的风险分布,以致那些已经面临结构脆弱性或偏见的人承受了许多这类系统的代价和伤害。公平,正义与道德要求对那些承担这些风险的人们给予应有的重视,并且构建和部署人工智能系统的组织还应内部化并积极应对这些社会风险,并认真承担责任,以确保系统遵守已宣布的道德原则。






