专栏名称: 人机与认知实验室
北京邮电大学人机交互与认知工程实验室 联系方式:[email protected]
目录
相关文章推荐
MINISO名创优品  ·  🥳买六免一!六一来名创,好玩又好逛~ ·  2 天前  
刀法研究所  ·  本周消费圈最重要的十件事:Labubu在英暂 ... ·  昨天  
玩物志  ·  重磅发布!制糖工厂 App 开启安卓内测 ·  3 天前  
51好读  ›  专栏  ›  人机与认知实验室

没有负责任的AI,只有负责任的人

人机与认知实验室  · 公众号  ·  · 2025-05-27 00:00

正文

请到「今天看啥」查看全文



2. 对AI输出的判断和利用


当AI给出结果时,人类需要对这些结果进行判断。在医疗领域,AI辅助诊断系统可能会给出一些疾病的诊断建议。医生需要根据自己的专业知识和经验来判断AI的建议是否合理。如果医生完全依赖AI的诊断结果而没有进行进一步的检查和分析,导致误诊,那么责任主要在于医生,而不是AI。AI只是一个辅助工具,它不能替代人类的专业判断。

简言之,AI只是一个工具,它没有自主意识和道德判断能力。人类作为AI的开发者和使用者,应该对AI的行为和结果负责。所以说,只强调负责任的AI,而不指出只有人类才能负责任,会产生欺骗性和误导性。


三、小心“负责任”的AI


“负责任的AI”这个概念本身并不是欺骗性的,而是强调在AI的设计、开发和使用过程中需要遵循一定的伦理、法律和道德准则,以确保AI技术对人类社会和环境产生积极的影响。然而,如果对“负责任的AI”这一概念的理解或宣传有误,或者某些人利用这一概念进行不当行为,那么可能会给人一种“欺骗性”的感觉。以下是几种可能导致误解或被误用的情况:

1. 对“负责任的AI”概念的误解


一些公司或机构可能会过度宣传其AI产品是“负责任的”,但实际上只是在营销上做文章,而没有真正落实到技术开发和应用中。比如,声称其AI系统完全公平、无偏见,但实际上在数据收集和算法设计上并没有采取足够的措施来避免偏见。有些AI产品可能只是在表面上符合一些基本的伦理要求,比如通过了某些简单的测试或认证,但实际上在复杂的实际应用场景中仍然存在问题。例如,一个AI招聘系统可能通过了简单的公平性测试,但在处理复杂的简历时仍然存在对某些群体的隐性偏见。







请到「今天看啥」查看全文