全国服务热线 4001334566
语言
关于我们

Company Profile

为什么人工智能应该放慢发展速度并解决问题

03-14

乔伊·布兰维尼(Joy Buolamwini)是人工智能研究员,身为黑人,她第一次引起轰动是因为一次TED演讲。她在演讲中表示,除非她戴上白色口罩,否则面部识别系统无法检测到她的脸。她也是算法正义联盟的创始人。布兰维尼的新书《揭开人工智能的神秘面纱:我在机器世界中保护人类的使命》(Unmasking AI: My Mission to Preserve What is Human in a World of Machines)提醒工程师们,默认设置不是中立的,便捷的数据集可能充斥着道德和法律问题,基准也并非总是评估正确的事。

图片

乔伊·布兰维尼获得了麻省理工学院媒体实验室的博士学位,并创办了算法正义联盟,为经历过算法歧视的人而奋斗。纪录片《编程的偏见》(CodedBias)以她的作品为主题,她的新书是《揭开人工智能的神秘面纱:我在机器世界中保护人类的使命》,兰登书屋,2023年)

你一直在努力寻找你认为合乎道德的数据收集方法。你能想象一个所有人工智能研究人员都如此谨慎的世界吗?

乔伊·布兰维尼:在我获得学术学位和学习编程时,没有道德数据收集的示例。基本上,如果数据可以在网上获取,那么它就是用来获取的。假如你永远看不到另一条路,那就很难想象另一种处事方式。我确实相信,在这个世界上,会有更多的人工智能研究人员对数据收集活动更加谨慎,因为有向算法正义联盟寻求更好方法的工程师们。

针对算法偏见和其他人工智能伦理问题,大型科技公司的相关工程师们能做些什么?

乔伊·布兰维尼:文档的重要性再怎么强调都不为过。在进行算法审查并向知名科技公司提供相关结果的过程中,有一个问题反复出现,那就是内部对正在部署的人工智能系统的局限性缺乏认识。(文档)能够提供机会,让人们了解用于训练人工智能模型的数据和这些人工智能模型在各种情况下的性能,这是一个重要的起始点。然后,问题就变成了:该公司是否愿意发布一个记录了局限性的系统,或者是否愿意回去进行改进?

人工智能研究人员如何说服其公司认真对待人工智能伦理问题?

乔伊·布兰维尼:不要把人工智能伦理与开发强大而有弹性的人工智能系统分开来看,这是很有帮助的。如果你的工具在女性或有色人种身上的效果不佳,那么相较于那些创建的工具适合各种人群的公司而言,你就处于劣势。如果你的人工智能工具产生了有害的刻板印象或仇恨言论,你就会面临名誉受损的风险,而这可能会阻碍公司招聘必要的人才、保障未来的客户或获得后续投资。

你写道,即使工具已经被采用,“选择停止也是可行和必要的”。你想看到当今流行的生成式人工智能工具发生逆转吗?

乔伊·布兰维尼:脸谱网(现为Meta)在面临未经用户明确同意就收集人脸数据训练人工智能模型的指控之后,在6.5亿美元和解达成前后删除了10亿个面纹。(这种)行动表明,存在阻力和审查时,改变就会发生。

你对超级智能的人工智能对我们物种构成生存风险这一观点有什么看法?

乔伊·布兰维尼:我所担心的“X风险”是被排除在外的X风险,也就是说,被人工智能系统伤害。我关注的是致命的自主武器,以及赋予人工智能系统作出杀戮决定的能力。我担心的是,人工智能可以通过缺乏足够的医疗保健、住房和经济机会被用于缓慢地杀人。

作者:Eliza Strickland

Copyright © 2011-2023  北京天华中威科技有限公司 版权所有 京ICP备2023011416号-1 All Rights Reserved