中新经纬3月24日电 (王玉玲)近日,由中国人民大学高瓴人工智能学院、智能社会治理跨学科交叉平台和基于大数据文科综合训练国家级虚拟仿真实验教学中心联合主办的算法公平性与内容生态建设研讨会在线上举行。中国科学技术大学教授王翔表示,算法公平性是多方需求,对于某一类敏感人群,或者敏感信息,如果算法推荐产生了一些不公平结果,我们需要对结果进行纠偏或者去除混淆。
“关键在于如何鉴定敏感信息,如果我们没有明确敏感信息的对象,那么公平性这个东西是模棱两可的,很难去衡量。”王翔指出,如果可以鉴定出敏感信息,那可以通过统计等方式,结合一些认知交叉科学的方式去衡量敏感信息。
例如,对于显式的敏感信息,如用户画像、商品属性等,如果我们引入认知图谱,就会导致敏感信息爆炸式增长。举个例子。比如说你去应聘一个岗位,如果一味强调公平性,可能会导致招过来的人不符合岗位需求。所以,我们需要从显式信息里鉴定出应该真正关注哪些信息。
其次,还有隐式敏感信息,如潜在特征和潜在组合。在我们的推荐场景里,模型很可能不按照人的运行逻辑走,因为它会捕捉到一些隐式的信息或者特征。这些特征就是一个隐空间里面的向量,如何从中鉴定出来,这是我们达成公平性的前提条件。我认为有两种找出隐式敏感信息的方式。
第一,人机混合智能。算法是天然的人机混合决策的场景,涉及到推荐算法平台、人以及商品等多方交互,还有监管部门的加入等。人在其中是非常关键的,需要跟推荐系统产生交互,跟商品产生交互。“我们需要监管人员或者决策者对算法进行监管,定义哪些信息是我们需要关注的敏感信息,或者说从敏感信息中挖掘出来一些潜在的特征或属性组合,定义其为敏感信息。”王翔说道。
第二,可信人工智能。从推荐结果入手,观察算法到底违背了哪种公平性衡量标准,不妨让模型白盒化,捕捉和理解推荐模型的决策逻辑,到底应用和侧重哪些敏感信息,导致了哪些结果。当推荐模型白盒化,透明化,就会更明确哪些场景或者面对哪些人群,算法会产生不公平,这样就可以去调节各项参数,使它变得公平和精确。(中新经纬APP)
中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。
免责声明:凡本网注明 “来源:XXX(非中国房产新闻网)” 的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。