欧盟发布了鼓励道德人工智能开发的指南
作者:访客发布时间:2023-04-25分类:科技网络浏览:196评论:0
没有任何技术像人工智能一样提出道德问题(和彻头彻尾的恐惧)。而且担心的不仅仅是个别公民。Facebook,谷歌和斯坦福大学投资了人工智能道德研究中心。去年年底,加拿大和法国联手组建了一个国际小组,讨论人工智能的“负责任的采用”。今天,欧盟委员会发布了自己的指导方针,要求“值得信赖的人工智能”。
欧盟认为,大赦国际应遵守尊重人的自治,防止伤害,公平和问责的基本道德原则。该指南包括以下列出的七项要求,并特别注意保护弱势群体,如儿童和残疾人。他们还声明公民应该完全控制他们的数据。
欧盟委员会建议在开发或部署AI时使用评估列表,但该指南并不意味着 - 或干扰 - 政策或法规。相反,它们提供了一个松散的框架。今年夏天,委员会将与利益攸关方合作,确定可能需要额外指导的领域,并找出如何最好地实施和核实其建议。在2020年初,专家组将纳入试验阶段的反馈意见。随着我们开发构建自动武器和假新闻生成算法之类的东西的潜力,很可能会有更多政府对AI带来的道德问题采取立场。
下面是欧盟指南的摘要,您可以在此处阅读完整的PDF 。
人力资源和监督:人工智能系统应通过支持人类机构和基本权利来实现公平社会,而不是减少,限制或误导人类自治。
稳健性和安全性:值得信赖的AI要求算法安全,可靠且足够强大,以便在AI系统的所有生命周期阶段处理错误或不一致。
隐私和数据治理:公民应该完全控制自己的数据,而有关他们的数据不会被用来伤害或歧视他们。
透明度:应确保AI系统的可追溯性。
多元化,非歧视和公平:人工智能系统应考虑人类的各种能力,技能和要求,并确保可访问性。
社会和环境福祉:人工智能系统应该用于增强积极的社会变革,增强可持续性和生态责任。
问责制:应建立机制,确保人工智能系统及其结果的责任和问责制。
- 科技网络排行
- 最近发表
- 标签列表
-