• IBM的使命是消除人工智能的偏见

    2019-03-23 10:35:37

    IBM的使命是消除人工智能的偏见 IBM的使命是消除对AIComputers的偏见.AmompayFeatureJames Holloway 2018年2月28日图片IBM的工具包旨在使影响我们日常生活的决策更加公平(图片来源:mangostock

      IBM的使命是消除人工智能的偏见

      IBM的使命是消除对AIComputers的偏见.AmompayFeatureJames Holloway 2018年2月28日图片IBM的工具包旨在使影响我们日常生活的决策更加公平(图片来源:mangostock /)查看图库 - 2图片“今天采用的价值观“人工智能系统将反映在这些系统制造十年或更长时间的决策中,”IBM表示。无论是评估您的信用记录,为您提供工作还是给予您的假释,组织都越来越多地转向人工智能来自动化决策。

      然而直到最近我们才开始研究面部识别系统如何放大而不是消除人类偏见,这只是一个日益受到关注的领域的一个例子:AI算法使用不完美的数据和有缺陷的假设,继承了人类背后的偏见和偏见他们。

      凭借其最新发布的AI Fairness 360工具包,IBM正在摒弃这一挑战。该工具包是一种瑞士军刀算法,可供任何人使用,旨在消除这种偏见。

      “这个工具箱有多个组件,”IBM Research AI的Kush R. Varshney告诉New Atlas。“首先是如何检查偏见。第二个是如何解释这些检查是如何发生的以及它对用户意味着什么。第三个方面是纠正偏见并修复由它们产生的模型以使它们更公平的算法。“”......人类的决定具有偏见的痕迹,无论是隐含的还是明确的......“

      但这些偏见源自哪里? AI算法所依赖的源数据通常是问题的原因。 “通过机器学习算法,他们使用历史数据进行训练,并且通常数据[由具有历史意义的”人类决策组成,这些数据是在同一任务上完成的,“Varshney解释说。 “而且,由于各种原因,人类的决定往往具有偏见的痕迹。因此,如果基于这种有偏见的训练数据集训练机器学习模型,那么它将继承并复制这些偏见。“

      然而,问题不仅仅是数据。 “有些情况下,数据科学从业者或建模人员可以在不知情的情况下做一些不恰当的转换数据或者以某种形式或形式对建模过程产生偏见,”IBM科学研究员亚力克森Mojsilović告诉New Atlas 。

       一个简单的例子可能是将数据分类到桶中的看似无害的行为,比如年龄或教育,这可能会对大学录取的决定产生连锁反应。

      该工具包实际上做了什么? “简单地检查偏差是非常简单的,”Varshney解释道。 “算法是我们真正感兴趣的地方,因此工具箱现在包含10种不同的算法来修复或减轻偏差。”这些算法大致分为三种类型。一组对数据进行预处理,以确保公平对待不同的人群。另一个用于处理数据本身,其中可能包括构建算法保护措施以清除偏差数据。第三个检查AI算法结果的偏差。 “我们有多个[算法]这一事实有利于用户选择最合适的算法,”他补充道。