Ƨ盟发布人工道d准则Q值得信赖的AI要满7大条?/div>
发布日期Q?019-04-11
览量:498
当地旉4?日,Ƨ盟委员会发布了一份h工智能(AIQ道德准则,提出了“值得信赖”的人工应当满?个条件。下一阶段Q欧盟委员会启动AI道d准则的试行,邀请工业界、研I机构和政府机构对该准则q行试和补充?br />
《经学人》曾表示Q美国和中国已经是毋庸置疑的AI体,而欧z可以率先制定规则来限制AIpȝ可能造成的危実뀂许多h希望Ƨ洲能徏立AI行业的全球标准,像其徏立的新数据隐U法GDPR一栗?/p>
一、七大条?/strong>
Ƨ盟在技术监方面占据全球领先地位,d引入了具有里E碑意义的数据隐U法GDPRQ同时瞄准大型科技公司的反垄断行ؓ以及避税问题Q而目前h工智能的道d准则是欧盟最新的监管方向?br />
Ƨ盟召集?2名专家组成的组Q提Z他们认ؓ未来AIpȝ应该满的七大条Ӟ
1、受人类监管QAI不能늊人类的自L。hcM应该被AIpȝ操纵或威胁,人类应该能够q预或监督AI的每一决定?br />
2、技术的E_性和安全?/strong>QAI应该是安全和准确的。它不应该轻易受外部d的媄响,它应该非常可靠?br />
3、隐U和数据理QAI攉的个人数据应该是安全的、私有的。它不应该让M人接触,也不应该L被盗?br />
4、透明?/strong>Q用于创建AIpȝ的数据和法应该是可讉K的,应确保AI决策的可q溯性。换句话_q营商应该能够解释他们的AIpȝ是如何做出决{的?br />
5、多h、非歧视性和公^?/strong>Qh工智能提供的服务应面向所有hQ无论年龄、性别、种族或其他特征。同Ppȝ不应该有M偏向?br />
6、社会和环境祉Qh工智能系l应该是可持l的Q即它们应该对生态负责)q“促q积极的C会变革”?br />
7、问责制Q应建立机制Q确保对AIpȝ及其成果负责和问责?br />
目前q些要求不具有法律约束力Q但它们可能Ҏ(gu)盟未来v草的所有法律造成影响。欧盟希望成为AI伦理领域的领D,q过《通用数据保护条例》(GDPRQ表明,愿意制定影响p的法律,以保护公众的数字权利?br />
今年夏天Q欧盟委员会与相关方合作,定可能需要额外指导的领域Qƈ定如何更好地执行和核查?020q初Q专家组纳入试炚wD늚反馈意见?br />
二、AI伦理探烦
最早关于机器h的u理规定是U作家阿西莫夫上世U设计的防止机器人失控的“机器h三定律”:机器Z能伤害hc;它们必须服从于hc;它们必须保护自己。后来还加入了“第零定律”:机器Z得伤害hcL体,不得因不作ؓ使hcL体受C実?br />
但是随着人工不断发展Q“机器h三定律”中的许多问题都有待q一步细化?br />
全球知名的艾伦h工智能研I所首席执行官埃齐奥|两年前在一ơ演讲中呼吁更新“机器h三定律”。他q提出,人工pȝ必须遵守适用于其操作人员的所有法律条文;人工pȝ必须明确表示它不是hc;未经信息来源明确许可Qh工智能系l不能保留或披露机密信息{?br />
在过ȝ两年旉里,有大量的AI研究人员开启对AI伦理的思烦?br />
2016q?月,Amazon、Facebook、Google、DeepMind、Microsoft ?IBM{几家全球大公司共同成立?Partnership on AIQ研I和制定人工技术的最?jng)_践,促进公众对h工智能的理解Qƈ作ؓ一个开攑^台来讨论人工对h和社会的影响?br />
2017q?月,中国政府发布《新一代h工智能发展规划》时指出,建立人工法律法规、u理规范和政策体系QŞ成h工智能安全评估和控能力?br />
dq底Q加拿大和法国联合成立了一个国际小l,讨论如何负责d使用人工?br />
目前Q在国家层面上关于AI的规则制定ƈ不^衡,有的国家已经优先制定了机器h和h工智能的规则Q甚臌通过立法来管理自动驾驶汽车,但大多数国家q没有着手去做?br />
Ƨ盟委员会指出,技术、数据和法不分国界Qؓ此,其将l箋加强同日本、加拿大以及新加坡等志同道合国家的合作,ql在包括七国集团QG7Q和G20在内的国际场合讨论和倡议中发挥积极作用?br />
IBMƧ洲d늉QMartin JetterQ对此表C,Ƨ盟委员会此ơ出台的指导斚w“ؓ推动AI的道德和责Q制定了全球标准”?/p>
——来源:《国际金融报?/p>