如何建立一个可接受公平的整体框架

栏目:时讯快报    来源:证券之星    阅读量:12711   作者:醉言    发布时间:2021-12-21 22:41   

最近几天,清华大学社会科学学院社会学系,中国科学院学部—清华大学科学与社会协同发展研究中心主办了伦理立场,算法设计与企业社会责任研讨会清华大学公共管理学院副教授陈玲在研讨会上指出,可从数据,算法,人类行为三个层面入手,建立一个可接受公平的整体框架,关注算法治理的起点,过程和结果公平,促进AI的创新发展和善治

如何建立一个可接受公平的整体框架

不管哪个国家,经济体或产业部门,各方都把公平作为算法治理的一个起点性要求,但实际上关于什么是算法公平,大家却没有共同可接受的内容陈玲认为,公平有不同的定义,至少应先建立一个基础框架,从共识的角度去理解可接受公平

公平可分为起点公平,过程公平,结果公平,陈玲建议针对不同阶段的公平来制定相应的公平准则例如,我们将数据作为起点公平的对象,首先我们希望用于训练算法模型的数据集本身是完整的,数据集不偏向于男性或女性,白人或黑人等其次,数据集应当是开放的,用户可以自己选择进入或退出数据集若数据集完整且开放,至少可以在最低限度上保证算法的起点公平陈玲称

在陈玲看来,算法程序的透明,可追溯,可问责,有利于促进算法的过程公平例如通过企业内设的算法伦理委员会或外部监管机构,可以核查,追溯到算法任意模块或环节的问题,进而确定每一个模块或环节的可问责对象,这可以在最低限度上确保算法的过程公平

结果公平是人们最直观,最朴素的公平诉求人们看到的算法推荐或AI决策,希望这些是可计算,可预期和可解释的陈玲举例称,很多时候人们可以接受一些歧视定价或者专门推荐,比如保险的差别定价,本质上是因为它符合人们的预期,而不是结果均等所以,算法推荐结果的可计算,可预期,可解释,而不是决策结果的均等化,是结果公平的最低起点

那么如何建立一个可接受公平的整体框架在陈玲看来,可从数据,算法,人类行为三个层面入手数据的完整性,准确性,开放性,算法的透明,可追溯和可问责,结果的可计算,可预期,可解释,这是大家可接受的公平底线,那些尚存争议或技术上有待解决的部分,可以作为算法公平的调适区间,伴随着调适水平提高,算法公平的共识底线也可以逐步提高

那么,算法公平的规则体系具体该如何落地陈玲表示,法律提供了一个最低限度的公平底线,算法伦理的要求往往高于法律可以从私法,公法,全球秩序三个层面来研究现有法律体系的规制现状,找到可接受公平的共识起点

全球立法或治理规定,对我们有两点启示:一是在中国国内现有的法律和行政法规体系下,建议推出不同层面的策略,包括算法公平政策,虚假信息准则,可信的透明度准则等,二是兼顾创新和数字经济的发展,尊重客观的现实条件,吸引更多的工程师和不同领域的专家参与到规则制定过程中陈玲称

近日,清华大学社会科学学院社会学系,中国科学院学部-清华大学科学与社会协同发展研究中心主办了“伦理立场,算法设计与企业社会责任”研讨会,并在会上发布了《伦理立场,算法设计与企业社会责任》研究报告(下称报告)。清华大学社会学系教授李正风在分享报告时指出,算法治理正在向更加综合的治理网络发展,强调政府,专业机构,团体,企业及公众共同参与的协同治理。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

如何建立一个可接受公平的整体框架