计算机技术论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

  • 欢迎访问 计算机技术论坛-电脑迷与初学者的家园!由于论坛管理严格,新注册会员可能遇到各种问题,无法解决的请发邮件 admin@jsjbbs.cn
查看: 1003|回复: 0

计算机视觉虽然很神奇,但它也会有不完美的时候

[复制链接]
发表于 2021-4-12 02:59:26 | 显示全部楼层 |阅读模式
#111723#(文章起源:SHData)
克日,谷歌宣布了一则报歉申明。原因居然是Google Vision Cloud将手持测温计的深肤色职员的图象标志为“枪枝”,而将浅肤色职员的相似图象标志为“电子装备”。现在,谷歌已更新了算法,不再前往“枪枝”标签。申明在表白歉意的同时,也称谷歌发明“没有标明与肤色有关的体系性成见的证据。”
“盘算机视觉”没法准确标志手持温度计是因为体系尚未应用大批手持温度计图象的数据集加以练习。侧重研讨主动化体系中的成见的Agathe Balayn博士在谷歌效劳中测试大批图象后表现该示例可能是“不存在统计成见的禁绝确例子”,在缺少更严厉测试的情形下,确切不能说这个体系存在成见。

但盘算机视觉确实会基于肤色天生差别的成果,这它依附练习数据中相干的形式有关,究竟是盘算机视觉没法辨认人类意思上的任何物体。研讨标明,一旦在白雪皑皑的配景下照相,盘算机视觉会将狗标志为狼。假如母牛站在海滩上,它们会被标志为狗。因为肤色深的人在练习数据会合刻画暴力的场景中呈现的频率可能高很多,因而对深肤色手的图象停止主动揣摸的盘算机用暴力方面的辞汇加以标志的可能性要大很多。
盘算机可能是“无意之失”,但这类“成见”已开端影响人们的生涯。
FrauenLoop的开创人兼首席履行官称盘算机视觉软件中的成见会“相对”影响深肤色人群的生涯。她弥补说,因为女性和深肤色人群的误辨认率始终偏高,因而用于监督的盘算机视觉的遍及会对他们形成过大的影响。固然有外部问责的提示,但成见的模子已发生的影响是没法抹去的。在研发阶段更稳重的考量也许后果更佳。   (fqj)
更多内容阅读推荐:冰箱不制冷了怎么回事
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

无图版|手机版|计算机技术论坛 JSJBBS.CN @ 2008-2024 ( 鲁ICP备17021708号 )

技术支持 : 北京康盛新创科技有限责任公司

快速回复 返回顶部 返回列表