您的位置首页 >科技 >

欧盟发布了鼓励道德人工智能开发的指南

没有任何技术像人工智能一样提出道德问题(和彻头彻尾的恐惧)。而且担心的不仅仅是个别公民。Facebook,谷歌和斯坦福大学投资了人工智能道德研究中心。去年年底,加拿大和法国联手组建了一个国际小组,讨论人工智能的“负责任的采用”。今天,欧盟委员会发布了自己的指导方针,要求“值得信赖的人工智能”。

欧盟认为,大赦国际应遵守尊重人的自治,防止伤害,公平和问责的基本道德原则。该指南包括以下列出的七项要求,并特别注意保护弱势群体,如儿童和残疾人。他们还声明公民应该完全控制他们的数据。

欧盟委员会建议在开发或部署AI时使用评估列表,但该指南并不意味着 - 或干扰 - 政策或法规。相反,它们提供了一个松散的框架。今年夏天,委员会将与利益攸关方合作,确定可能需要额外指导的领域,并找出如何最好地实施和核实其建议。在2020年初,专家组将纳入试验阶段的反馈意见。随着我们开发构建自动武器和假新闻生成算法之类的东西的潜力,很可能会有更多政府对AI带来的道德问题采取立场。

下面是欧盟指南的摘要,您可以在此处阅读完整的PDF 。

人力资源和监督:人工智能系统应通过支持人类机构和基本权利来实现公平社会,而不是减少,限制或误导人类自治。

稳健性和安全性:值得信赖的AI要求算法安全,可靠且足够强大,以便在AI系统的所有生命周期阶段处理错误或不一致。

隐私和数据治理:公民应该完全控制自己的数据,而有关他们的数据不会被用来伤害或歧视他们。

透明度:应确保AI系统的可追溯性。

多元化,非歧视和公平:人工智能系统应考虑人类的各种能力,技能和要求,并确保可访问性。

社会和环境福祉:人工智能系统应该用于增强积极的社会变革,增强可持续性和生态责任。

问责制:应建立机制,确保人工智能系统及其结果的责任和问责制。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。