首頁 » 博客 » 欧盟提出新的人工智能法规 – DPO 中心运行不畅

欧盟提出新的人工智能法规 – DPO 中心运行不畅

实证明,谣言是真的——欧盟过程制定一种方法来规范人工智能(AI)。上个月底,欧盟委员会发布了一份监管框架提案,旨在管理欧盟何时以及如何使用人工智能,从而开发“值得信赖的人工智能”(用乌尔苏拉·冯德莱恩的话来说)。在这篇博文中,我们将简要介绍引起我们关注的提案关键部分。

 

“不可接受的风险”

欧盟委员会明确表示,他们认识到人工智 目标电话号码或电话营销数据 能为企业和社会带来的好处,并强调拟议的人工智能法规并非旨在阻碍企业增长或技术发展。因此,拟议的法规总体上采取了基于风险的方法来管理人工智能的使用。然而,尽管如此,委员会已经确定,有些基于人工智能的做法对欧盟境内个人的权利和自由构成了不可接受的风险,因此必须完全禁止:

  1. 人工智能系统通过采用潜意识技术或利用个人因年龄、身体或精神残疾而产生的弱点,扭曲个人行为,造成或可能造成身体或心理伤害
  2. 公共当局或代表公共当局使用的人工智能系统,用于评估个人的可信度,这种社会评分可能会导致有害或不利的待遇,这种待遇要么与数据最初生成的背景无关,要么是不合理和不成比例的
  3. 在公共场所使用“实时”远程生物特征识别(面部识别)系统进行执法(尽管这一禁令受到许多豁免的约束,这些豁免随后将受到进一步的保障措施

 

“高风险”人工智能的监管

除了上述有限的情况外,该法规的大部 seo策略的实施。查看流程以获取结果 分内容旨在对“高风险”人工智能系统的使用进行控制。高风险的定义并不明确,但附件三给出了一些例子:

  • 生物特征识别和分类
  • 关键基础设施的管理和运营
  • 教育和职业培训
  • 执法
  • 移民、庇护和边境管制

 

拟议法规的关键在于它

采用了全生命周期方法来监督人工智能。与 GDPR 的设计和默认数据保护要求类似,拟议的人工智能法规要求高风险人工智能系统从规划、开发、运行和处置的开始到结束都要接受审查。

说到高风险人工智能系统的供应商、进口商、分销商和用户(是的,他们都有义务)必须做什么,我想到的是两个词:风险管理。在这些人工智 最新评论 能系统的整个生命周期中,进行风险评估至关重要,良好的数据管理、文档和记录保存以及监控和事件报告也至关重要。总而言之,拟议的规则相当繁重。

返回頂端