“不可接受的风险”
欧盟委员会明确表示,他们认识到人工智 目标电话号码或电话营销数据 能为企业和社会带来的好处,并强调拟议的人工智能法规并非旨在阻碍企业增长或技术发展。因此,拟议的法规总体上采取了基于风险的方法来管理人工智能的使用。然而,尽管如此,委员会已经确定,有些基于人工智能的做法对欧盟境内个人的权利和自由构成了不可接受的风险,因此必须完全禁止:
- 人工智能系统通过采用潜意识技术或利用个人因年龄、身体或精神残疾而产生的弱点,扭曲个人行为,造成或可能造成身体或心理伤害
- 公共当局或代表公共当局使用的人工智能系统,用于评估个人的可信度,这种社会评分可能会导致有害或不利的待遇,这种待遇要么与数据最初生成的背景无关,要么是不合理和不成比例的
- 在公共场所使用“实时”远程生物特征识别(面部识别)系统进行执法(尽管这一禁令受到许多豁免的约束,这些豁免随后将受到进一步的保障措施)
“高风险”人工智能的监管
除了上述有限的情况外,该法规的大部 seo策略的实施。查看流程以获取结果 分内容旨在对“高风险”人工智能系统的使用进行控制。高风险的定义并不明确,但附件三给出了一些例子:
- 生物特征识别和分类
- 关键基础设施的管理和运营
- 教育和职业培训
- 执法
- 移民、庇护和边境管制
拟议法规的关键在于它
采用了全生命周期方法来监督人工智能。与 GDPR 的设计和默认数据保护要求类似,拟议的人工智能法规要求高风险人工智能系统从规划、开发、运行和处置的开始到结束都要接受审查。
说到高风险人工智能系统的供应商、进口商、分销商和用户(是的,他们都有义务)必须做什么,我想到的是两个词:风险管理。在这些人工智 最新评论 能系统的整个生命周期中,进行风险评估至关重要,良好的数据管理、文档和记录保存以及监控和事件报告也至关重要。总而言之,拟议的规则相当繁重。