首页 / 行业
AI偏见广泛存在 企业应当为技术应用划线
2019-12-25 15:25:00
你对AI有什么印象,没有感情、不会犯错,还是公正客观?但总之,AI是不食人间烟火的,既不会闪耀人性的光辉,也不存在“七宗罪”。实际上,AI并非那么没有人性,不过这并非一件好事。AI获得智能的同时,也学会了人类的“歧视”与“偏见”。
AI偏见广泛存在
麻省理工学院媒体实验室的Joy Buolamwini曾研究过各个科技公司的面部识别系统,研究发现,所有的系统在识别男性面孔和浅色皮肤的面孔上拥有较高的准确率,其中,浅色皮肤男性的错误率不超过1%,而深色皮肤女性的平均识别错误率则高达35%。
提及对整个安防行业产生深刻影响的AI技术,人脸识别肯定榜上有名,但AI人脸识别的这类偏见,也已经渗入了安防领域。安防领域中,带有偏见的AI可能会让清白无辜者蒙冤,受到无理审查,这并非杞人忧天。
在英国,曾有一名黑人男性因人脸识别技术失误而被误认为嫌犯,在公众场合遭到搜身检查。Big Brother Watch UK报告也显示,伦敦警察厅使用的面部识别技术有超过90%的性别识别错误率。
AI为何会产生偏见?
当前人工智能还处于弱人工智能阶段,其“偏见”显然取决于背后训练算法训练的数据。如上所述,如果AI训练数据库中,白人、男性比黑人、女性更多,且肤色较深的人多与违法相关的场景同时出现,就会导致AI产生偏见,这是训练集和测试集特征分布不一致导致的,在技术领域被称为“过拟合”。
目前针对算法“过拟合”,已经有权值衰减、交叉验证、添加正则项等方法。而关于如何解决算法歧视问题,科技界则众说纷纭。曾有人提出开发公正透明的算法,让公众进行监督,但这一方法壁垒较高,需受过专业训练才能够进行监督。不过,现在已经有不少的科学家在努力开发出一套“公平公正”的算法系统。
科技向善 AI应服务于人类
无论哪种方法,都不可能立竿见影地纠正AI偏见,因此,科技公司以及组织应当避免将“带有明显歧视性质的算法”在不经测试之下应用到现实情景中。AI并无善恶之分,但人类需要推动科技向善。
在安防领域,公安部门应用AI技术关爱孤寡老人,以往民警需要每天上门查看孤寡老人状态,现在可以通过人脸、人体及轨迹技术确认孤寡老人活动是否有异常;AI跨年龄人脸识别则可以凭借一张泛黄照片找回被拐十年的儿童。
通过一张3岁的泛黄照片,腾讯优图利用AI技术突破“跨年龄人脸识别”,助力警方寻回被拐十年儿童。腾讯董事会主席马化腾也多次在公开演讲中阐释“科技向善”的愿景与使命。
而在未来的算法开发过程中,应该对算法进行适当的“算法伦理”教育,并且确定一些算法的“基本准则”,如同“机器人永不能伤害人类”一样。
最新内容
手机 |
相关内容
智能传感器助力打造数字经济数字世
智能传感器助力打造数字经济数字世界,数字,经济,传感器,助力,智能,及时发现,PCM1801U智能传感器是一种能够感知环境并将感知结果转不只是芯片 看看传感器技术我们离
不只是芯片 看看传感器技术我们离世界顶级有多远,传感器,芯片,位置,测量,交通,用于,传感器技术是现代科技中至关重要的一部分,它们被消除“间隙”:力敏传感器如何推动新
消除“间隙”:力敏传感器如何推动新颖的HMI设计,传感器,智能手机,交互,交互方式,操作,用户,随着科技的不断发展,人机交互界面(HMI)的设射频前端芯片GC1103在智能家居无线
射频前端芯片GC1103在智能家居无线通信IoT模块中应用,模块,芯片,无线通信,智能家居,支持,数据交换,射频前端芯片GC1103是一种低功耗所有遥不可及,终因AI触手可及
所有遥不可及,终因AI触手可及,出行,平台,无人驾驶汽车,导致,人工智能,学习,人类历史上,有许多事物曾被认为是遥不可及的,然而随着科技面向6G+AI,鹏城云脑的演进
面向6G+AI,鹏城云脑的演进,鹏城,人工智能,数据存储,脑可,智能终端,智能,随着科技的不断进步,人们的生活方式也在不断改变。6G+AI(人工黑芝麻智能助力亿咖通科技旗下首款
黑芝麻智能助力亿咖通科技旗下首款智能驾驶计算平台成功量产交付,智能驾驶,计算,助力,首款,交付,智能,近年来,智能驾驶技术逐渐成为智能家居中的MEMS传感器
智能家居中的MEMS传感器,传感器,智能家居,控制,用户,温度传感器,系统,MEMS(微机电系统)传感器是智能家居中的关键技术之一。它们是一