赞
踩
2021年全球“最出圈”剧集当属《鱿鱼游戏》。它打破了语言和地域的障碍,以讽刺的社会话题和相通的人性考验征服全球观众。与其他科幻剧不同,《鱿鱼游戏》将各种科技元素隐藏进剧中一个个重要关卡。透过极富冲击力的视觉效果,你会发现,剧中场景与现实始终紧密相连。
《鱿鱼游戏》讲述的是数百名为生活所困的人,为456亿韩元奖金参加6个生死逃杀游戏的故事。游戏一共设有6个关卡,每一关都以童年游戏为主题。
剧中运用到的许多“黑科技”其实都与我们当下的科技生活不谋而合。如“一二三木头人”中使用的智能识别定位技术,在VR领域广泛应用;负责人办公室的幕后控制中心技术,在智慧城市等领域也扮演着不可或缺的角色。
游戏第一关的“一二三木头人”,主宰人们命运的“机器女孩”实际上是一个几米高的巨型机器人。它的两只眼睛里安装了变焦摄像头,能够检测出是否有人移动。移动的人会被识别出来,并被遥控步枪精确射杀。
*图片来源于网络,侵删
人脸识别:通过测量人脸上各个关键点之间的距离,生成专属于个人的独特代码。AI通过大量标记的人脸数据对模型进行训练,并不断优化得到一个偏见更小、更可靠的人脸识别系统。
对于这个游戏而言,AI技术是保障游戏“公平性”的关键——人类不可能准确而公平地跟踪检测如此大规模的运动轨迹,而没有感情的AI看起来不会偏颇任何个体。可事实果真如此吗?
2014年,一款AI招聘工具在识别招募的软件工程师时被发现歧视女性,该工具随即遭弃用;2016年,某商用AI司法软件在帮助法官作出量刑决定时,被发现对黑人犯罪的可能性存有偏见。随着人工智能在各行各业中大规模开展应用,AI的偏见问题正在被广泛探讨。
AI系统能强化它们从现实数据中获得的认知,也存在放大该认知的风险,比如种族和性别偏见。在面对不熟悉的场景和存有偏见的数据时,AI还可能作出错误的判断。
人类的道德始于情感,人工智能的道德始于数据。偏见问题需要在模型构建一开始就保持警惕,否则就可能被引入开发和生产的各个阶段。在数据标注阶段,无论是数据本身还是数据标注者都需要实现多元化;定期使用新数据重新训练模型,亦有助于及时发现偏见,并随着时间的推移不断保持模型的准确性。
AI 存在偏见已经是一个普遍存在的问题,它虽然不可能完全消除,但却可以通过科学的方法积极地防止。负责任的企业正在通过有效的偏见管理部署他们的AI计划。以下八个步骤,可以帮助避免 AI 偏见渗入模型:
01 明确并缩小待解决的业务问题
在相对狭小的范围内定义问题,有助于确保模型能够在它的实际作用方面表现良好。
02 对数据收集进行结构化处理并允许有不同的意见
单个数据点通常会有多个有效的意见或标签,收集这些意见并考虑合理的分歧会令模型更加灵活。
03 了解您的训练数据
对数据集的了解和拥有程度越高,出现偏见标签的可能性就越低。
04 组建一支多样化的 ML 团队
种族、性别、年龄、经历、文化等背景不同的人,肯定会提出不同的问题,并且会以不同的方式与模型进行交互,多元化的提问有助于在模型投入生产之前发现问题。
05 考虑所有最终用户
通过学习去预测不喜欢您的人如何与您的技术交互,以及在交互时可能出现的问题来避免 AI 偏见。
06 确保标注多样性
标注资源库扩展得越广泛,观点就越具多样性,这可以切实帮助减少训练模型时的偏见。
07 进行测试、部署及反馈
在部署的整个生命周期中,模型很少是静态的。开放用户讨论以获取反馈,有助于继续确保模型能够真正为每个人带来价值。
08 制定具体的计划,并通过反馈来改善模型
收集反馈不仅包括客户反馈,还包括聘请独立人员来审核变更、边缘案例、可能遗漏的各种偏见等等,以改善模型性能并不断迭代、提高准确率。
二十多年以来,澳鹏Appen一直致力于提供高质量的训练数据服务。澳鹏Appen在全球拥有超过100万名技能娴熟的众包资源,支持235+种语言和方言,来自全球170+个国家和70,000+个地区。多样化的众包资源帮助您自信地部署偏见最小化的 AI 模型。点击此处,与我们的专家联系。
人工智能应该使所有人受益,无论其种族、性别、国籍或背景如何。负责任的 AI 不仅仅是一个哲学概念,更是 AI 领域的所有企业都必须采用的方法。好在时间已经为我们证明:以负责任的态度构建的 AI 模型,往往在现实应用中也更为成功。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。