“信息鸿沟”——人工智能创造者和政策制定者

2021-02-24 17:27| 发布者: | 查看: |

世界经济论坛(WEF)发表了一份报告,表示在决策者和人工智能创造者之间存在“巨大鸿沟”。

该报告由 The Future Society的人工智能政策研究院兼项目经理Adriana Bora和即将离任的Brussels Hub馆长David Alexandru Timis共同撰写,该报告主要探讨了人工智能如何解决责任与建立信任的问题。

两位作者表示,需要建立健全的机制,大众才有机会全面了解人工智能开发与部署周期的相关信息。因此,二位补充到,这种治理建立在多方利益者持续对话的基础上,同时还需要跨科学方法与技术的支持。

在大众化用语中,双方都要使用同一种语言。作者表示,虽然人工智能创造者具备这种能力并使用AI语言,但监管者却不这么认为。

真正了解人工智能技术周期的政策制定者少之又少,另一方面,在技术设计时需要植入伦理要求以保持政策的完整性,技术提供商在此方面的透明度较低,有时亦缺乏兴趣。

对于缺乏伦理性或在建立系统时植入偏见的人工智能实践实例不枚胜举,2020年7月,MIT 因为训练人工智能模型的数据集存在歧视女性及种族偏见倾向而道歉,并下架相关软件。谷歌及微软也曾经承认在YouTube视频审核及MSN新闻中也曾经犯过此类错误。

人工智能技术在法律执行过程中也受到质疑。20201年6月,超过1000名研究人员、学者和专家签署了一封公开信,对一篇即将发表的论文提出质疑,该论文表示可以在面部自动识别的基础上预防犯罪。另外,在同一月,底特律警察局长承认人工智能人脸识别技术在大多数情况下都不起作用。

谷歌因为辞退公司人工智能伦理团队负责人Margaret Mitchell饱受批评,加剧了市场对公司的负面印象,Mitchell 在推特上证实了其被辞退的消息。谷歌随机在发给路透社的声明中解释了辞退事件的原因,公司在前期调查中发现Mitchell泄露了公司电子文档。

2020年11月,谷歌同样解雇了人工智能伦理领域专家Timnit Gebru,Gebru表示期因为一篇未发表的文论以及一封有关批判公司做法的邮件而被辞退。Mitchell曾写过一封公开信,表达了她对此次解雇事件的担忧。据Axios报道,在Gebru被辞退后,公司对“如何处理研究、多样化和员工离职”的问题进行了调整。Gebru的离职导致其他员工被迫辞职,例如软降工程师Vinesh Kannan和工程总监 David Baker。

Bora和Timis从技术提供商的角度强调了“伦理素养”和“跨学科调查承诺”的重要性。

文章指出,即便在职业生涯中经过培训,但是人工智能背后的技术团队并没有接受过人类社会复杂性的系统学习,在设计过程中如何植入伦理道德、所设计出的产品如何对社会产生负面影响,仍然是现存的问题。

Bora 和 Timis补充道,理解并承认人工智能部署关于社会和文化内容的过程,对人类来说风险程度较高,因此需要大量耐心和时间。随着对人工智能投入的逐年增加,科技公司更倾向于将伦理道德与公司产品相互识别,在部署前将解决预案透明化。

从理论上看,这可以解释为什么在模型出现伦理问题时,公司会急忙撤回以并诚意道歉,然而研究人员也同时指出,政策制定者需要加强管理力度。

文章指出,只有熟悉人工智能以及潜在利益和风险,政策制定者才能制定合理的法规,利用人工智能的巨大影响力和潜力,在法律和伦理边界令人工智能均衡发展。对于人工智能法规的制定、政策制定者与科技公司平等对话、共同建立伦理规范框架以及人工智能安全的创新,知识的建设均起到了至关重要的作用。

创新可以有效解决算法偏见的问题。在英国,CDEI已经制定了解决这类问题的“规划图”,CDEI的报告更偏重对警务、招聘、金融服务和地方政府四方面的研究,而这四类场景更容易发生算法偏见的问题。

 
QQ在线咨询
售前咨询热线
13926975768
售后服务热线
400 693 8006
返回顶部