当前位置: 首页> 网站运营

不同于美∵国的避免过度干预原则,┆┇欧盟正在考虑更为严Δ格的↕人工智能政策。

近日,彭博社▶披露的一份欧盟人工智能“白皮书”草案の显示,欧盟计划对人工智能开发者提出∧具有法律约束力的新要求,以确保现代科技的开发和使用符合道德规范。

据路透社报道,这份长达18页的草案建议3至5年内禁止人╥脸识别技术应用于公共场所,目的是留出更多时间评估技术风险。草案指出:♀“基于这些现有规定,未来的监管框架可Ж能会进一步推进,包括限时禁■止公共场所使用人脸识别技术。”

欧盟委员会称,需要出Ψ台新的严格规定来支持现有的隐私和数据保≧护法规。

作为建议的λЛ一部◘分,欧盟还希望成员国任命相关部门监督人工智能⿰政策规则的执行情况。

这份草案将于2020年2月中旬公布┝,最终↔内容可能有∽所改变。

近年来,欧盟一再表示希望成为道德AI的领导者。

2♡0๑18年12月,欧盟人工智能高级别专家组向社会发布人工智能道德准则草案,开始讨论ⓔ“可信赖人工智能”并给出官方解释。草案认为,◈“可信赖人工智能”有两∏个必要的组成部分:首先,应尊重基╣本权利、规章制度、核心原则及价值观,以确保“道※德目☆的”,其次,应在技术上强۩..健且可靠,因为即使有良好的意●图,缺乏对技术的掌握也会造成无意的☑伤害。

2019年4月,欧盟委员会发布人→工智能道德准则,准则由¤2018年12月公布的草案演变而з来,提出实现可∞信赖人工智能的七个要素,要求◆不得使用公民个人资料做出伤害或歧视行为。

欧盟委员会当时表示,正在采取三步行动以促进可信赖人工智々能健康发展:制定可信赖人工智】能的关键要求;启动利益相关者的♥大规模试点阶段;为以人为中心的人工智能建立国际共识。

与欧盟的谨慎作风不同,美国白宫在2020年1月7日提出10条а人工智能监管原则,要求避免联邦机构对人工智能应用的过度干预,强调监管的灵活性。其中,灵活∩性原则指出,︴大多数情况下,试图规定死板的人工智能应用规则是ξ不切实√际且无效的,因╜为人工智能将以预期的速度发展,机构需要对新的信息〓和证据做出反应。◤

◎ Ы 编 辑:$值班记者