微比恩 > 信息聚合 > 不公正的AI算法,正折射出人类的偏见

不公正的AI算法,正折射出人类的偏见

2020-06-21 08:00:00来源: 钛媒体

图片来源@全景视觉钛媒体注:本文来源于微信公众号硅兔赛跑(ID:sv_race),作者丨Molly Fosco,编译丨Vivian,责编丨Lu,钛媒体经授权发布。01、标签和类别无法充分反映个体的复杂性和潜力在阿巴拉契亚山脉下田纳西州长大的Alice Xiang,是在以白人为主的学校里为数不多的亚裔学生之一。随着她进入“高级班”,她发现同龄人越来越多地来自中上层家庭。她的许多小学同学,家庭背景不那么优越的,走上了前途机会较少的路。这段经历让Xiang记忆犹新,因为她后来考上了哈佛、牛津、耶鲁等精英大学。事实上,这也是她现在作为Partnership on AI(PAI)的研究科学家,专门研究算法公平性的主要原因之一。她说,在田纳西州长大的经历,让她认识到标签和类别 "可能无法充分反映个体的复杂性和潜力"。当Xiang开始职业生涯时,在第一次训练机器学习算法的时候,她发现她个人认为相关的数据会很大程度上影响

关注公众号
标签: AI