可解释的AI如何帮助算法避免偏差
作者:访客发布时间:2023-04-24分类:暖心故事浏览:90评论:0
给大家分享一篇关于互联网和手机的文章。相信很多朋友对互联网和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和互联网的相关知识与大家分享。希望大家看完之后会喜欢。
人工智能有偏见。人类是有偏见的。事实上,只要我们在选择中比其他因素更关注某些因素,那么我们选择中的每个人和每件事都是有偏见的。尽管如此,尽管人工智能(当之无愧)因对某些人口统计数据(如女性和有色人种)有偏见而赢得了声誉,但从事人工智能技术的公司在克服算法偏见方面越来越好。
主要是他们这样做的方式是通过所谓的“可解释的AI”。过去,甚至现在,人工智能中很多需要考虑的东西都被视为黑箱。程序员有意识地设计了可以从数据中学习的算法神经网络,但是一旦他们的创造力被释放到野外,这种神经网络就开始运作,而程序员看不到是什么让他们以自己的方式行动。所以直到太晚了,公司才发现自己的AI有偏见。
幸运的是,这一切都在改变。越来越多的初创公司和公司围绕可解释和可解释的人工智能提供解决方案和平台。其中最有趣的是菲德尔实验室。它位于旧金山,由前脸书和三星工程师创建,为公司提供了一个人工智能引擎,使所有与决策相关的因素可见。正如联合创始人兼CPO阿米特卡帕告诉我的那样,其软件使人工智能模型的行为透明且易于理解。
例如,卡帕解释了可解释的人工智能如何改进银行使用的基于人工智能的信用贷款模型。他说:“在确定具体应用的信用决策时,很多输入(如年收入、FICO评分等。)需要考虑。在没有Fiddler的传统环境中,很难或几乎不可能说出每个输入是如何以及为什么影响结果的。”
然而,有了可解释的人工智能,银行现在可以“将每个投入的影响百分比分配给产出。在这种情况下,一个例子可能是年收入对产出的正面影响是20%,而FICO评分对产出的负面影响是15%。”
本文就为大家讲解到这里。- 暖心故事排行
- 最近发表
- 标签列表
-