AI的可解释性问题我们可以克服吗
作者:访客发布时间:2023-04-24分类:暖心故事浏览:135评论:0
给大家分享一篇关于互联网和手机的文章。相信很多朋友对互联网和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和互联网的相关知识与大家分享。希望大家看完之后会喜欢。
你还记得你妈妈告诉你不要用手吃饭吗?你会说,“为什么?”她会说:“因为我说过!”
简而言之,这就是AI中的可解释性问题。当然,出于尊重(也许是害怕),你没有质疑你母亲的权威。但是“因为是我说的!”人工智能模型以一种不透明的方式对关键决策做出完整的回答,而没有解释遵循它们的原因——尤其是在我们不想完全委托决策的领域?
当自动驾驶控制与遥测和其他类型的传感器结合使用,使飞机飞入地形,或者对于波音737MAX,它会在进入地面时引起问题。当涉及到难以解释的算法和结论的路径如此不透明时,它们可能会导致灾难性的后果,或者更有可能导致数百万个小的错误决定加起来。我该怎么办?从道德上讲,这也是责任、安全、责任的要求。
机器学习(ML)模型非常简单。他们只是很快地重复了一遍。他们做的最复杂的事情是支持回归或聚类的矩阵代数。在前一种情况下,他们查看大量数据,并试图找到趋势或预测变量。在集群中,他们试图找到属于一起的东西。最常见的技术是最大化或最小化“成本”功能,例如“次佳选择”。
然而,AI不仅仅是一个简单的ML。神经网络及其推论(深度学习)特别难理解,它们以戏剧性的方式影响人们的应用,比如面部识别和自然语言处理(Alexa在听你说话)。另一方面,贝叶斯网络更容易解释,但部署频率不高,因为它们只谈概率,很少有人知道如何用概率来管理。
解释性有几个不同的要素:
数据好吗?如今,无法保证AI使用的数据是原始数据。每个建模者都知道这一点。正如特里法塔和CSO联合创始人乔赫勒斯坦(Joe Hellerstein)最近告诉我的那样,解决方案的一部分是“关注”。换句话说,我们使用通用的数据分析,并使用自动化工具来检查不一致、数据漂移和数据丢失——这是我们多年来一直在做的事情。然而,由于数量、速度和复杂性,需要人工智能驱动的工具来增加数据的质量。
在设计机器学习模型时,需要解释其逻辑,以不需要方程就可以用散文阅读的方式记录下来,并附上可能出现的偏差问题清单,由指定人员进行审核。
有必要仔细评估从模型中学到的偏差,以便AI开发人员和其他利益相关者能够理解和验证他们的决策依据。
本文就为大家讲解到这里了。- 暖心故事排行
- 最近发表
- 标签列表
-