专栏名称: AI前线
我们专注大数据和机器学习,关注前沿技术和业界实践。每天发布高质量文章,技术案例等原创干货源源不断。同时有四千人的社群微课堂,每周一次业界大牛技术分享,也希望你能从这里分享前沿技术,交流深度思考。
目录
相关文章推荐
大数据与机器学习文摘  ·  刚刚,OpenAI正式发布o3-pro!奥特 ... ·  昨天  
直通硅谷  ·  精选Data岗位 | ... ·  昨天  
直通硅谷  ·  精选Data岗位 | ... ·  昨天  
51好读  ›  专栏  ›  AI前线

会杀人的机器人不可怕,有偏见的 AI 才“要命”

AI前线  · 公众号  · 大数据  · 2017-10-22 17:00

正文

请到「今天看啥」查看全文


“真正的安全问题,如果非要这么叫的话,是如果我们向这些系统提供了有偏见的数据,这些系统也会变得带有偏见。” Giannandrea 在谷歌最近一次有关人类和 AI 系统关系的会议上如此说到。

随着科技不断向医药和法律等关键领域延伸,以及更多没有深厚技术背景的人可以应用最新科技,机器学习的偏见问题会变得更加显著。一些专家警告称,算法的偏见问题已经在很多行业十分普遍,却几乎没人试图进行识别或者纠正(点击查看文章《有偏见的算法无处不在,却无人关心》)。

“公开我们在用的训练数据,公开我们正在寻找数据背后的偏见信息,这是很重要的,否则我们就是在建造有偏见的系统,” Giannandrea 补充到,“如果有人试图卖给你一个辅助医疗决策的黑盒系统,而你却不知道它如何运作或者用了什么数据进行训练,那我肯定不会信任这个黑盒的。”

黑盒机器学习模型已经在决定一些人的命运上发挥着重要作用了。由 Northpointe 公司制作的称为 COMPAS 的系统可以预测被告人再次犯罪的相关性,已经被一些法官用来决定是否批准犯人保释了。COMPAS 的工作原理尚未公开,不过 ProPublica 的调查发现了其模型会不利于少数族群的证据。







请到「今天看啥」查看全文