建立毫无偏见的人工智能存在着固有的挑战

人工智能偏见问题已经引发了长时间的讨论

尽管人工智能产品现在已经从梦想变成了现实,但是如果使用不当,它们很快就会成为现代噩梦。有些人工智能系统的预测结果经常会针对特定利益相关方出现系统性的偏差,并导致歧视,人工智能偏见问题已经引发了长时间的讨论,一些政府机构,例如美国政府和欧盟基本权利机构也已经就此问题发布了专门的报告。

尽管人工智能现已取得了巨大的成就,但构成人工智能基础的算法只是冷酷的数学方程,它们本身无法做任何事,它们就像停车场闲置的汽车,等待有人为它们加油并赋予它们存在的正确意义。算法的燃料是数据,数据教导算法理解我们的世界规则,然而,这里的薄弱环节在于数据是由人准备的,这种知识传播链可能导致现实世界中的偏见和不公正影响到算法的思维方式。

活动中心 1

人工智能

活动中心,庆幸的是,在这个领域已经有人开始采取行动了,在2018年5月初,Facebook宣布创建了一个特殊的内部机构,以评估该公司算法做出的决策是否符合道德规范并且不含有偏见;微软也采取了类似的行动,开发“一种能够自动识别各种人工智能偏见的工具”,这一举措肯定会帮助该公司提高有问题的算法的检出率;而IBM的主张略有不同,该公司的研究人员发表了一篇论文,建议采用供应商符合性声明,在多个层面上确定算法的性能,例如性能标准化测试、公平性、风险因素和安全措施等,任何想要使用这一算法的人都可以看到这些结果。

虽然这些努力都建立在善意的基础上的,但我们不得不承认,我们每天都在使用认知偏见,偏见在我们的学习过程中也发挥着重要作用,无论它们多么有害,都是我们大脑探索的一种方式,可以让我们更快地做出决定。因此,建立毫无偏见的人工智能存在着固有的挑战,使用人类制作内容进行训练就更是如此。

我们现在就要开始解决人工智能偏见可能带来的所有问题,自学机器的概念不再只是一个愿景,社会已开始接受这一事实。大规模使用未经检测、带有偏见并无法解释的算法可能会悄然引发悲剧,创建自学产品越容易,这种悲剧就越发难以避免。