当前位置:网站首页 > 科技网络 > 正文

Google的MLfairnessgym可研究AI决策的长期影响

作者:访客发布时间:2023-05-12分类:科技网络浏览:98评论:0

导读:导读给大家分享一篇关于互联网和手机的文章。相信很多朋友对互联网和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和互联网的相关知识...
导读 给大家分享一篇关于互联网和手机的文章。相信很多朋友对互联网和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和互联网的相关知识

给大家分享一篇关于互联网和手机的文章。相信很多朋友对互联网和手机还是不太了解,所以边肖也在网上搜集了一些关于手机和互联网的相关知识与大家分享。希望大家看完之后会喜欢。

为了确定人工智能系统的预测是否公平,数据科学家需要了解模型的短期和长期影响,这可能是由于许多静态数据集的误差度量存在差异。在某些情况下,除了误差指标之外,还必须考虑AI系统的运行环境,这也是谷歌研究人员开发ML-failure-gym的原因,ML-failure-gym是一组用于评估算法在模拟社会环境中的公平性的组件。

ML-failure-gym(本周GitHub上的开源版本)可以通过使用OpenAI的Gym框架模拟决策来研究自动化系统的长期影响。人工智能控制的代理与数字环境循环交互,在每一步中,代理都会选择一个会影响环境状态的动作。然后,环境将揭示一个观察,代理将使用该观察来通知其下一个操作,以便环境可以对问题的系统和动态进行建模,并将该观察用作数据。

比如考虑到经典的借贷问题,即每组申请人偿还银行贷款的概率是其信用评分的函数,银行作为代理人,以环境的形式接待申请人,观察其评分和会员情况。它做出决定(是否接受或拒绝贷款),环境模拟申请人是成功还款还是违约,然后相应调整其信用评分。在整个过程中,ML-failure-gym会对结果进行模拟,从而评估银行政策的公平性。

这样,ML-failure-gym巧妙地避开了静态数据集分析的陷阱。如果经典公平性评估(即用于评估模型性能的语料库)中的测试集是从现有系统生成的,则它们可能是不完整的或者反映了这些系统的固有偏差。此外,人工智能系统输出通知的动作可能会影响其未来的输入。

谷歌研究软件写道:“我们创建了ML-公平-健身房框架,以帮助ML从业者将基于模拟的分析引入他们的ML系统。这种方法已被证明在许多难以分析封闭分析的动态系统中是有效的。”工程师Hansa Srinivasan在博客中发表了一篇文章。

本文就为大家讲解到这里了。