当前位置: 自动焊接机 > 激光打标机 > 供应激光焊接机,席斌张志坚|欧洲机器人技术民事法律规则
供应激光焊接机,席斌张志坚|欧洲机器人技术民事法律规则
发表日期:2022-03-28 05:54| 来源 :本站原创 | 点击数:521次
本文摘要:席斌【译】 山西大学法学院博士研究生 张志坚【校】 南京大学法学院博士后流动站研究人员,江西理工大学法学院副教授 要目 一、规则背景 二、规则内容 三、规则附件 欧洲议会决

席斌【译】

山西大学法学院博士研究生

张志坚【校】

南京大学法学院博士后流动站研究人员,江西理工大学法学院副教授

要目

一、规则背景

二、规则内容

三、规则附件

欧洲议会决议通过的《欧洲机器人技术民事法律规则》,主要由规则制定背景、规则内容设计和规则配套附件三部分组成。关于规则的制定背景,议会认为人类已开启一场新的工业革命,人工智能的发展与应用将为社会提供巨大的经济和创新效益,但机遇与风险并存,人们也应当看到人工智能发展将带来伦理失衡、数据与隐私侵害、问责困难等问题,故有必要对人工智能的发展风险进行规制。关于规则内容的设计,议会建议的规制手段包括通过制定有效的伦理指导框架、成立欧盟统一的机器人技术和人工智能的监管机构、明确损害赔偿的严格责任、建立适用于智能机器人的强制保险制度、建立赔偿基金、为复杂自动化机器人创设“电子人”的法律地位等内容。最后,《机器人技术宪章》《机器人技术工程师伦理行为准则》《研究伦理委员会准则》等附件以供未来立法作具体参照。

供应激光焊接机,席斌张志坚|欧洲机器人技术民事法律规则

欧洲议会

——参考《欧洲联盟运行条约》第225条;

——参考85/374/EEC号指令;

——参考《欧洲议会议事规则》第46条和第52条;

——参考代表议会科学与技术选择评估(STOA)小组开展的信息物理系统的伦理方面研究,该研究成果由欧洲议会研究处科学展望团队负责管理;

——参考法律事务委员会的报告,以及交通和旅游委员会,公民自由、司法和内政事务委员会,就业和社会事务委员会,环境、公共安全和食品安全委员会,工业、研究与能源委员会,的意见(A80005/2017)。

一、规则背景

引言

鉴于:

A.从玛丽·雪莱(MaryShelley)笔下的《科学怪人》(Frankenstein’sMonster)到皮格马利翁(Pygmalion)的古典神话,再从《布拉格人偶》(Prague’sGolem)的故事到卡雷尔·卡佩克(KarelCˇapek)的机器人,正是后者创造了“机器人”这一词汇,人们幻想着制造智能机器的可能性,特别是带有人类特征的仿真机器人;

B.人类现在,更复杂的机器人、机器程式、仿生机器人等人工智能(AI)其他的表现形式似乎准备要开启一场新的工业革命,这或许会使社会各阶层均受到影响,故立法机关在不扼杀创新的情况下考虑其法律及伦理的影响和效果将至关重要;

C.有必要创设一个公认的机器人和人工智能的定义且这一定义是灵活的,不会阻碍创新;

D.在2010年至2014年间,机器人销售额平均每年增长17%,2014年销售额增长29%,创历史新高,这其中汽车零部件供应商和电气/电子行业为主要的增长驱动因素;机器人技术的年度专利申请量在过去十年已经增长了三倍;

E.在过去的200年中,因为技术发展,就业数据持续增加;机器人及人工智能的发展能够转变生活和工作方式,提升效率、节能和安全水平并提供更高水平的服务;机器人技术和人工智能将在中短期助益于提升效率和节能水平,这不仅体现在生产和商业方面,而且也会体现在运输、医疗、救援、教育和农业等领域,于危险状态中,诸如清理严重;

F.老龄化是生活条件和现代医学进步导致预期寿命延长的结果,也是21世纪欧洲社会面临的最大政治、社会和经济挑战之一;到2025年,超过20%的欧洲人将年满65岁或以上,80岁或以上的人数增长尤为迅速,这将导致我们社会根本的代际失衡,有鉴于此,为了社会利益,老年人;

G.从长远来看,目前的趋势偏向于开发能够接受训练及具有独立决策能力的智能自主机器,其不仅具有经济优势,也对于整个社会都具有直接或间接的影响;

H.机器学习尽管可以通过大幅提高数据分析能力来为社会提供巨大的经济和创新效益,,即如何确保决策过程中的不歧视、正当程序、透明度与可理解性;

I.同样地,我们需要评估机器人技术和机器学习带来的经济转型及其对就业的影响;尽管机器人技术具有无可否认的优势,但这种技术的应用势必会、就业和社会政策反思的需要;

J.尽管机器人的广泛使用或许不会必然地替代工作岗位,但劳动密集型产业中低技术含量的工作可能更易实现自动化;这种趋势可能会将生产工序带回欧盟;有研究表明,在使用计算机的职业中,就业增长明显更快;工作的自动化有可能使人们摆脱手工单调的劳动,使他们能够转向去完成更具创造性和富有意义的任务;自动化要求政府应在教育和其他改革方面进行投资,以便对未来工人所需技能类型的重新分配进行优化;

K.、,要谨记,发展机器人技术可能会导致财富和影响力高度集中在少数人手中;

L.机器人技术和人工智能的发展势必会影响工作环境,因此也可能会涉及新产生的相关责任问题,这种问题较其他问题而言,也势必会更加尖锐;因此,鉴于在突发事件,法律责任需要从商业视角模式和劳动者制造模式两方面加以明确;

M.自动化的趋势要求参与人工智能应用程序开发和商业化的人员在一开始就应秉持安全和伦理观,从而意识到他们必须对其所生产的技术质量承担法律责任并为此做好应对的准备;

N.欧洲议会和理事会第2016/679号条例(《通用数据保护条例》)规定了保护个人数据的法律框架;考虑到在没有人为干预的情况下,应用程序和设备之间以及与数据库之间的通讯仍可能引起隐私问题,数据访问、个人数据及隐私保护的其他方面问题仍需解决;

O.机器人技术和人工智能的发展方向可以而且应当以这样的方式进行设计,即通过保持个人的尊严、自主和自决来“修复”或增强人类,特别是在人类需要关怀和陪伴的领域以及医疗器械的环境中;

P.从长远来看,人工智能存在超越人类智力能力的可能;

Q.随着自动化和智能算法的进一步发展,及其逐渐增高的使用频率,这一决策无疑会影响多方的自主选择(诸如企业),也会使行政部门、司法部门或其他公共机关干扰消费者、企业或权威机构,并影响其最后选择决策结果;需要在自动化和算法决策的过程中纳入保障措施,增设人为控制与审核验证;

R.一些外国司法管辖区,如美国、、中国和韩国,正在考虑并在一定程度上对机器人技术和人工智能采取了监管措施,一些欧盟成员国也开始反思制定法律标准或进行立法变革,以应对这些新兴技术的应用;

S.欧洲的产业可以得益于欧盟这一层级高效、连贯且透明的监管措施,这些措施可以为企业在欧洲范围内开发应用程序和规划业务模式提供可预测和足够明确的条件,持对拟定监管标准的控制,以免去被动采用和遵守其他国家制定的标准,也即那些处于机器人技术和人工智能发展前沿第三国的标准;

一般原则

鉴于:

T.阿西莫夫定律应当可以直接适用于具有自主性和自我学习能力的机器人的设计者、生产者和操作者,尽管这些定律并不能被转换成机器代码;

U.一系列规则,特别是关于责任、透明度和归责原则的规则是有效的也是必要的,本质上反映了欧洲和全球的人文价值,而这些价值是欧洲对社会的贡献;这些规则不应影响对机器人技术的研究、创新与发展;

V.在机器人和人工智能的发展、规划和使用过程中,欧盟可以在确立基本伦理原则方面发挥重要作用,并将这些原则纳入欧盟的规章制度和行为准则当中,以期型塑技术革命并服务于人类,在使先进机器人技术和人工智能的益处获得广,也尽可能防止潜在的隐患;

W.本决议附有一份《机器人技术宪章》,由科学展望团队(STOA)与欧洲议会研究服务机构协助起草,他们提出制定《机器人技术工程师伦理行为准则》《研究伦理委员会准则》,一份《设计者许可》和一份《使用者许可》;

X.在机器人和人工智能方面,欧盟应采取让·莫内倡导的渐进、务实和谨慎的工作方式,以确保我们不会扼杀创新;

Y.机器人技术和人工智能已经达成的发展阶段,从民事责任问题着手是适当的;

责任

鉴于:

Z.得益于过去十年中令人瞩目的技术进步,今天的机器人不仅能够进行以往属于人类典型且独有的活动,而且还发展了某些自主和认知功能—如从经验中学习的能力和作出“准独立”决策的能力—已经使机器人越来越类似于能够与环境发生交互并且作出重大改变的智能体;在这种情况下,因机器人的侵害行为而产生的法律责任成为了一个至关重要的议题;

AA.机器人的自主性可以被界定为在外部世界作出独立于外在控制或影响的决定并实施这些决定的能力;这一自主性具有纯技术本质,且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度;

AB.机器人越是自主,它们就越难以被看作是其他行为人手中的简单工具;就此,需要我们反过来思考的是,在机器人的作为或不作为不能归责于某个特定自然人的情况下,以及在不能确定机器人的作为或不作为是否可以避免造成伤害的情况下,普通的责任规则是否足够,或者是否需要新的原则;

AC.最终地,依据现有法律类别,机器人的自主性对机器人的性质提出了质疑,或者是否应当创建一个具有自己特定特征和含义的新类别;

AD.在目前的法律框架下,机器人本身不能为其作为或不作为给第三方造成的损害承担责任;现有的责任规则涵盖这类案件,即机器人的作为或者不作为可以归因于一个特定的人类实体,诸如制造者、操作者、所有者或者使用者,并且这一实体本可以预见到并且避免机器人的致害行为;,制造者、操作者、所有者或使用者可以被要求为机器人的作为或者不作为承担严格责任;

AE.根据产品责任的现行法律框架—产品生产者对故障负有责任—侵害行为的责任规则—产品使用者对其致害的行为负有责任—这些规则适用于机器人或人工智能造成的损害;

AF.在机器人可以自主决策的情况下,传统规则不足以确定机器人造成损害的法律责任,因为这些规则不能确定到底哪一方当事人需要承担赔偿责任,以及由谁应当对机器人自主行为引起的损害承担赔偿责任;

AG.目前法律框架在合同责任方面的缺陷也很明显,例如,设计的机器在选择交易方、协商合同条款、订立合同、决定是否和如何实施合同条款等方面均使传统规则无法适用;由此凸显了对新的、有效的和最新规则的需要,这些规则应当能够适用于技术的发展;

AH.关于非合同责任,85/374/EEC号指令只能涵盖由机器人的制造缺陷造成的损害,并且条件是伤者能够证明实际损害、产品缺陷以及损害与缺陷之间的因果关系,因此严格责任或无过错责任的框架或许是不充分的;

AI.尽管85/374/EEC号指令在上述范围内可以适用,但是新一代机器人具备适应和学习能力,将使它们的行动必然存在一定程度的不可预测性,目前的法律框架无法充分涵盖它们所造成的损害,主要是由于这些机器人可以自主地从他们的个殊经历中学习并且以一种唯一的和不可预见的方式与他们的环境进行交互。

二、规则内容

关于机器人技术和人工智能发展的一般原则

1.欧洲议会通过考量智能机器人的下列特点,吁请、自动系统、智能自主机器人及其子类别的欧盟共同定义:

——通过感应器和/或与其周围环境的信息交换(互连性所获得的自我管理能力以及对于这些信息的交换与分析);

——从经验与互动中的自我学习(可供选取的非必要条件);

——至少具有少许的物理支持;

——使其举止与行动适应于周围环境;

——不具备生物学意义上的“生命”。

2.欧洲议会认器人注册系统,这对于特定类别的机器人是有意义且必要的,册的机器人分类标准;在这方面,吁请委员会研究登记系统和登记簿是否需要由指定的欧盟机器人技术和人工智能机构管理;

3.欧洲议会强调机器人技术的发展应着眼于补足人的能力,而不是取代人的能力;认为在机器人技术和人工智能的发展中,必须保证人类始终控制智能机器;认为应当特别关注人类和机器人之间情感联系的可能发展,特别是在弱势群体(儿童、老人和残疾人)中,并强调这种作用于人类的情感依赖带来的严重的情感或身体影响所引发的问题;

4.欧洲议会强调欧盟层面的方法可,和机器;吁请测试、中是必要的;强调这种做法应;

5.欧洲议会强调机器人技术领域小型企业和初创企帮扶措施的重要性;

研究与创新

6.欧洲议会强调许多机器人应用仍处于试验阶段;欣见会员国和欧盟资助的研究项目越来越多;认为欧盟有必要同会员国一道通过运用公共资金以保持机器人技术和人工智能研究的领导者地位;建议委员会和成员国强化用于机器人技术和信息通信技术研究项目的金融工具,包括公私伙伴关系,并在加以落实研究政策及开放科学于负责任的伦理创新原则;强调需要投入足够的资源,探寻应对技术发展及其应用所带来的社会、伦理、法律和经济挑战的路径;

7.欧洲议会吁请委员会和会员国促进研究方案,鼓励对机器人技术和人工智能技术可能存在的长期风险和机遇进行研究,并鼓励尽快就开发这些技术的后果开展有组织的公众对话;吁请委员会加大对由学术出版与学术资源联盟(SPARC)资助的“地平线2020”中多年金融框架中期审查的支持力度;吁请委员会和成员国共同努力,以便在按照预防原则进行适当的安全评估后,仔细监控并保证这些技术从研;

8.欧洲议会强调机器人技术和人工智能在经济和社会中的创新与整合作用,而这些均需建设能提供普遍连接的数字基础设施;吁请委员会制定一个框架,以满足欧盟数字未来的联结要求,并确保宽带和5G中立原则;

9.欧洲议会强烈认为,基于安全和隐私设计的系统、设备和云服务之间的互操,这种数据流使机器人和人工智能变得更加灵活和自主;

伦理原则

10.欧洲议会指出通过使用机器人技术来赋予权力的潜能受到一系列紧张或风险的影响,这种潜能应当从人类安全、健康和保障的角度认真进行评估;自由、隐私、正直和尊严;自决和不歧视以及个人数据保护;

11.欧洲议会认为需要为机器人的开发、设计、生产、使用和改装制定明确、严格和有效的伦理指导框架,以补充报告中的法律建议、成员国及欧盟的法律;在审查机器人技术协议及设计师和使,本立法建议在决议附件中以宪章的形式构建一个框架,该框架由《机器人技术工程师伦理行为准则》与《研究伦理委员会准则》组成;

12.欧洲议会强调透明度原则,即应始终能够提供在人工智能帮助下作出的任何决定背后的理由,这些决定可能对一人或多人的生活产生实质性影响;认为将人工智能系统的算法简化为人类可以理解的形式是一定有可能的;认为先进的机器人应配备一个“黑匣子”,它记录了机器执行的每一项交易的数据,包括促成其进行决策的逻辑;

13.欧洲议会指出伦理指导框架应以有益、非恶、自主和公正原则为基础,并应建立在《欧洲联盟条约》第2条以及《欧洲联盟基本权利宪章》所载的原则和价值之上,诸如人性尊严、平等、公正与公平、非歧视、知情同意、隐私和家庭生活及数据保护。,这一框架亦应建立在欧盟法的其他基本原则和价值观之上,诸如透明、自治、个人责任和社会责任,并以现有的伦理实践和准则为基础;

14.欧洲议会认为应特别关注那些对秘密构成重大威胁且居于传统受保护和隐私领域的机器人,因为它们能够提取并发送个人数据和敏感数据;

一个欧洲机构

15.欧洲议会认为有必要加强成员国与欧盟委员会之间的合作,以确保欧盟的跨境规则连贯一致。这些规则允许在整个欧盟范围内部署符合欧盟法律规定的安全和保障水平及伦理原则的机器人;

16.欧洲议会吁请委员会考虑选定一个欧洲机器人技术和人工智能实体机构,通过提供必要的技术、伦理和监管专门知识来支持欧盟和成员国两级的相关公共行为者,、合乎伦理且知情地应对机器人技术发展带来的新机遇和挑战,特别是跨界属性的问题,正如交通运输部门所需应对的那样;

17.欧洲议会考虑到人工智能的当前发展和投资,需要给予这一新的欧盟机构充分预算,配备监管人员以及外部的技术和伦理专家,对人工智能应用开展跨领域、跨学科的监测,确认行业最佳实践,,确定新的原则并解决潜在的消费者保护问题和系统性挑战;吁请欧盟委员会(如果创设,包括前述的欧洲机构)向欧洲议会报告机器人技术的最新发展以及每年需要采取的任何行动;

知识产权与数据流动

18.欧洲议会指出当前没有专门适用于机器人技术的法律规定,尽管在某些方面或许需要具体考量,但现有的法律制度和学理可以很容易地适用于机器人技术;吁请委员会支持对机器人技术应用的各领域中涉及的知识产权采取横向和技术中立的做法;

19.欧洲议会吁请委员会和成员国确保机器人领域的民事法律规则符合《通用数据保护条例》的规定并遵循必要性及相称性原则;吁请委员会和成员国要考虑到机器人技术领域正在进行快速技术革命的情形,,以确保欧盟法律不会落后于技术的开发和部署;

20.欧洲议会强调《欧洲联盟基本权利宪章》第7条、第8条以及《欧洲联盟运作条约》第16条关于尊重私生活和保护个人数据权利的规定适用于机器人技术的所有领域,据保护的法律框架;在这方面,要求在《通用数据保护条例》的实施框架内,明晰关于在机器人中使用摄像机及传感器的规则与标准;吁请委员会确保数据保护原则符合欧盟数据保护法的规定,诸如设计隐私和默认隐私、数据最小化、目的限制、数据主体透明控制机制与适当救济措施,遵循并促进适当的建议和标准,并将这些原则纳入欧盟政策;

21.欧洲议会强调数据的自由流动对数字经济、机器人技术和人工智能领域的发展至关重要;强调机器人系统,包括其内部数据系统和数据流动的高级别安全及防护水平,包括系统内部数据系统和数据流动的高度安全,对机器人技术和人工智能的适当使用至关重要;强调互联机器人和在的安全漏洞;强调个人数据高级别的安保与防护水平并适当顾及人类、机器人和人工智能之间的通信隐私是基本要求;强调机器人技术和人工智能的设计者有责任开发安全、可靠且用途适当的产品;吁请委员会和会员国支持并鼓励开发必要的技术,包括设计安全技术;

标准化、安全与保障

22.欧洲议会强调制定标准和实现互操作性是未来人工智能和机器人技术领域竞争的关键;吁请委员会继续致力于技术标准的国际协调,尤其是与欧洲标准化组织和国际标准化组织合作,以推动创新、避安全和消费者较高水平的保护,这其中也包括在工作环境中的确定适当的最低安全标准;强调合法逆向工程和开放标准的重要性,以使创新价值最大化,并确保机器人能够相互交流;在此,设立专门致力于机器人技术标准制定的专业技术委员会,如ISO/TC299机器人技术委员会,应当给予肯定;

23.欧洲议会强调在现实生活中,机器人的测试对识别和评估机器人可能带来的风险以及在纯实验室阶段以外机器人技术的发展均是至关重要的;在此强调,在现实生活中,,机器人的测试带来了许多问题,包括出现了一些放缓测试阶段进展的障碍,这些测试需要有效的战略和监控机制;吁请委员会按照预防原则,制订跨越国别且各会员国均可执行的欧盟统一标准,以便确定机器人实验领域的准入范围;

供应激光焊接机,席斌张志坚|欧洲机器人技术民事法律规则

无人交通工具

a)无人驾驶汽车

24.欧洲议会强调无人运输涵盖了所有形式的远程驾驶、自动化、连接和无人的道路、铁路、水路和航空运输方式,包括车辆、火车、船只、渡轮、飞机、无人机,以及该领域未来所有形式的发展和创新;

25.欧洲议会认为汽车行业迫切需要有效的欧盟和全球规则,以确保自动化及无人车辆的跨境发展,从而充分发挥其经济潜力,并从技术发展趋势的积极影响中获益;强调各自为政的监管方式将阻碍无人运输系统的实施,并危及欧洲的竞争力;

26.欧洲议会指出驾驶员在意外接管,因此吁请利益相关方在决定安全;

27.欧洲议会认为无人驾驶汽车的出现将对以下方面产生影响:民事责任(责任和保险)、道路安全、与环境有关的所有议题(如能效、可再生技术和能源的使用)、与数据有关的问题(如数据访问、数据保护、隐私和数据共享)、与信息和通信技术(ICT)基础设施(如高密度、有效且可靠的通信)和就业(如工作岗位的创造和减少、重型货车司机驾驶无人汽车的培训)有关的问题;强调对道路、能源以及信息和通信技术基础设施的重大投资是非常必要的;吁请委员会在无人驾驶汽车的工作中考虑上述方面;

28.欧洲议会强调欧洲伽利略卫星导航计划(Galileo)和欧洲地球静止导航重叠服务(EGNOS)为实施无人驾驶汽车提供可,并敦促在此方面发射完成欧洲伽利略卫星导航计划所需的卫星以完善该定位系统;

29.关注无人驾驶汽车为残疾人所带来的高附加值,因为这种车辆使他们能够更有效地参与到个体的道路交通中,从;

b)无人机(控制飞行器系统)

30.欧洲议会肯定无人机技术取得的积极进展,特别是在搜索救援领域;强调无人机欧盟框架对保护欧盟公民的安全、防护和隐私的重要性,并吁请委员会就欧洲议会2015年10月29全使用控制飞行器系统(RPAS)〔俗称无人飞行器(UAVs)〕立法建议的决议采取后续行动;敦促委员会提供关于无人机广泛使用安全问题的评估报告;吁请委员会审查是否有必要为控制飞行器系统采用强制性的跟踪和识别系统,以便能够确定飞机在使;吁请委员会采取欧洲议会和理事会第216/2008号条例规定的措施以确保无人飞行器的同质性和安全性;

供应激光焊接机,席斌张志坚|欧洲机器人技术民事法律规则

护理机器人

31.欧洲议会强调老年人护理机器人的研究和开发迟早会变得更加主流和廉价,也正由此可以生产出功能更强大、消费者接受程度更广的产品;指出这类技术的广泛应用可以为老年人、残疾人以及患有痴呆症、认知障碍或记忆丧失的人提供预防、援助、监测、激励与陪伴;

32.欧洲议会指出人与人之间的交际是护理的一个基本方面;认为用机器人取代人类的可能会导致护理实践去人性化,另一方面,认识到机器人可以执行自动化护理任务,并可以为护理工作提供便利,也可以加强人文关怀并使康复过程更有针对性,使医务人员和照料者划治疗方案;强调尽管机器人技术可以提高残疾人和老年人的行动能力和融合能力,但是,护理工作仍然需要人类的参与,这种参与是社会互动不可替代的重要来源;

医疗机器人

33.欧洲议会强调对医生和护理助理等保健专业人士进行适当教育、培训和准备的重要性,以确保其尽可能获得最高水平的专业能力,并保障病人的健康;为便于操作和获准使用外科手术机器人,强调外科医生须符合专业要求的最低需要;认为尊重机器人的监督自治原则至关重要,因此,最初的治疗计划和最终的决定将始终由人类外科医生来决定;强调对使用者进行培训的特殊重要性,以使他们能够熟悉这一领域的技术要求;关注到使用移动机器人进行自我,因此,也关注到培训医生去处理自我诊断病例的需求;认为使用这种技术不应弱化或损害医患关系,而应协助医生诊断和/或治疗病人,以减少人为失误的风险,提高生活品质和预期寿命;

34.欧洲议会认为医疗机器人可以继续在进行高精度手术和执行重复性程序方面取得进展,并可以改善康复的结果,它们也可以在医院内提供高效的后勤保障;指出通过将医疗专业人员注意力从治疗转移到预防、提供更多可用预算资源以更好地适应患者需求多样性、对医疗专业人员持续进行培训和研究等方式,医疗机器人可以减少医护成本;

35.欧洲议会吁请委员会确保在欧盟关于医疗器械的第2017/745号,测试新型医疗机器人设备的程序是安全的,特别是在植入人体的设备的情况下;

人的修复与增强

36.欧洲议会指出机器人在修复受损器官和恢复人的生理功能方面取得的巨大进步,也有巨大潜在的发展空间,但是,医疗机器人,特别是信息物理系统(CPS)有增强人体质的可能性,这引起了诸多较为复杂的问题。由于这些机器医疗器械可直接佩戴在人身上或植入人体内,因此我们或许会改变对人健全身体的概念;国家应当在医院和其他保健机构设置机器人伦理问题委员会,并配备专业工作人员,以协助病人的治疗工作;吁请委员会和会员国制定准则,以协助此类委员会的设立和正常运作;

37.欧洲议会指出对于重要的医疗应用领域,如机器人假体,需要确保不间断、可持续地获得维护和升级,特别是要通过修补漏洞与修正易受攻击的问题来实现软件的更新;

38.欧洲议会建议建立独立的受信实体,特别是在原始供应商不再提供此类服务的情况下,保留必要的手段,向携带重要和先进医疗器械的人员提供服务,例如维护、维修和升级,包括软件更新;类似于在国家图书馆存放合法出版物那样,建议制造商有义务向这些独立的受信实体提交全面的设计说明,包括源代码;

39.欧洲议会注意到整合到人体内的信息物理系统存在关联风险,例如可能被黑客攻击、关闭或被抹去记忆,因为这些问题可能危及人类健康,在极端情况下甚至危及人类生命,因此强调必须优先考虑保护这些系统;

40.欧洲议会强调确保人人平等获得技术创新、工具和干预措施的重要性;吁请委员会和各会员国促进辅助技术的发展,应根据《联合国残疾人权利公约》第4条的规定,促进那些技术需求者开发和利用这些技术;

教育和就业

41.欧洲议会注意到委员会预测,到2020年,欧洲可能面临多达825000名信息和通信技术专业人员的短缺,而且90%的工作将至少需要基本的数字技能;欣见委员会提出可使用与修订“数字素养”框架的路线图倡议,并且为各级学习者提供有关数字素养的具体描述。为了更好地,第一步是要吁请委员会不论所有年龄组的人就业状况如何,都应为其发展数字能力提供重大支助;强调随着机器人技术的发展,会员国应当进一步深化灵活的培训和教育系统,以确保技术提升战略符合机器人经济的需要;

42.欧洲议会认为目前更多年轻女性对数字职业感兴趣,而让更多女性从事数字工作,将有利于数字产业发展、女性自身发展及欧洲经济水平的提升;在此吁请委员会和成员国采取积极行动,支持女性参与信息和通信技术工作并提高她们的数字应用技能;

43.欧洲议会吁请委员会更为密切地分析和监测中长期的就业趋势,着重关注不同资格领域中就业的新开创、被取代和消失情况,以便了解哪些领域正在创造就业机会,哪些领域的就业机会由于机器人的高频使用而减少;

44.欧洲议会强调对预测社会发展变化的重要性,人工智能在其发展和投入使用后可能产生的影响;要求委员会分析机器人技术和人工智能产生的各种情况及其对各会员国社会保障制度可行性的后续影响;

45.欧洲议会强调技能的灵活性以及社交、创意和数字技能在教育方面的重要性;可以肯定的是,除了在学校传授学术知识外,终身学习还需要通过终身实践来完成;

46.欧洲议会指出机器人技术在提高工作安全水平方面具有巨大潜力,即可以将一些危险和有害的工作从人类转移到机器人身上,,也应当注意到,由于在各工作场所的人机交互的次数越来越多,这一技术也可能会带来一系列新的潜在风险;

47.欧洲议会指出机器人技术和人工智能的发展应以此类方式进行,即通过有效的能源消耗限制环境影响、通过促进使用可再生能源和稀缺材料提高能源利用率、使浪费最小化,如电子和电气废物,以及可修复性;因此鼓励委员会将循环经济原则纳入全部关于机器人技术的欧盟政策当中;指出机器人技术的使用也将对环境产生积极影响,特别是在农业、粮食供应和运输领域,尤其是通过减少机器尺寸、减少化肥、能源和水的使用,实现农耕精细化和路径最佳化;

48.欧洲议会强调信息物理系统将推动能源和基础设施系统的创建,这些系统能够控制从生产者到消费者的电力流动,还将导致能源“散户”的产生,他们既生产又消耗能源,从而带来极大的环境效益;

责任

49.欧洲议会认为机器人致害的民事责任是一个关键问题。为造福公民、消费者和企业,这一问题需要在欧盟层级上进行研究处理,以确保整个欧盟法律的执行在效率、透明度和一致性方面均处于同等水平;

50.欧洲议会指出机器人技术的发展,需要对人类与机器人交互活动的共同基础予以更多理解,这一理解应基于两个相互依存的核心关系,即可预测性和直接关联性;在此应当指出,这两种相互依存的关系至关重要,其中包含划定人类与机器人之间需要共享哪些信息以及如何建立人类与机器人之间的共同基础,从而使人类与机器人能够顺利地进行人机互动;

51.欧洲议会要求委员会根据《欧洲联盟运行条约》第114条之规定提出制定立法文书的议案,该立法文书主要涉及在未来十年至十五年内可以预见的、与机器人技术和人工智能开发使用相关的法律问题,,也应一并附上本决议附件提及的准则和行为守则;

52.欧洲议会认为无论选择什么样的法律方案来解决机器人致害的民事赔偿责任,在涉及财产损害之外的案件中,未来的立法文书都不应当限制被救济的损害类型或者程度,也不应当基于损害是由非人类行动者(即智能机器人自身)造成的这一理由限制受害人可能获得的赔偿;

53.欧洲议会认为未来的立法文书应以委员会的深入评估为基础来确定是否应采用严格责任或风险管理方法;

54.欧洲议会指出严格责侵害行为和受害人损害之间具有因果关系;

55.欧洲议会指出风险管理方法并不关注有“过失行为”的责任人本人,而是关注在某些情况下,能够尽量减少风险和处理负面影响的那个人;

56.欧洲议会认为一旦最终负有责任的主体得到确认,其所应承担责任的大小应与给予机器人的指令级别和机器人的自主性程度相称。因此,机器人的自主性或者学习能力越强,“训练”,机器人的“训练人”所应承担的责任就越大。特别指出当将机器人的侵害行为归咎,不应将通过“训练”机器人产生的技能与严格依赖于其自身学习能力获得的技能相混淆;指出至少在现阶段,责任必须由人而不是机器人承担;

57.损进行法律责任分配是一个复杂的问题,一个可能的解决方案便是建立适用于智能机器人的强制保险制度,类似于机动车上的强制保险;指出该保险制度与当前机动车上的强制保险不同,因为后者仅涵盖人类的行为和过错,适用于机器人的强制保险制度应将所有环节中的潜在责任考虑在内;

58.欧洲议会认为与机动车保险的情况一样,可以考虑建立赔偿基金,作为强制保险制度的一个补充,赔偿基金可以确保未被保险覆盖的损害可以得到弥补,这是设立赔偿基金的首要目的;吁请保险业开发与机器人技术进步相适应的新产品与种类;

59.欧洲议会吁请委员会在对其未来立法文书进,探索、分析和考虑所有可能法律解决方案及其带来的影响,例如:

a)制定一个适用于特定类别机器人的强制性保险方案,就像汽车保险所涉及的情形那样,要求机器人生产商或机器人所有者对其机器人可能造成的损害进行投保;

b)如果机器人造成的损害不属于保险范畴,确保补偿基金不仅服务于提供赔偿保障这一目的;

c)如果机器人制造商、程序开发者、所有者或使用者向这个赔偿基金捐款,并且在机器人造成损害的情况下共同拿出保险提供赔偿,则允许他们受益于有限责任;

d)决定是否应当为所有智能自主机器人设立一个一般性的基金,还是针对每一个类别的机器人设立一个独立的基金;决定是否应当在,还是在机器人的生命周期内定期捐款;

e)确保机器人与其补偿基金之间的联系是公开的,能够通过一个特定的欧盟登记簿上的个人登记号码查到,从而令任何与机器人发生互动的人都能获悉该基金的性质、在财产遭受损失的情况下其责任的限制、捐赠人的姓名、职能以及其他一切相关细节;

f)从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格。

国际方面

60.欧洲议会指出目前适用于欧盟内部关于交通事故的一般国际私法规则并无迫切需要进行实质性修改来适应无人驾驶车辆的发展,但是简化现行关于界定法律适用的双重制度,根据《欧洲议会和欧洲理事会第864/2007号条例》和1971年5月4《关于交通事故适用法律的海牙公约》,将提高法律确定性,并限制择地行诉的可能性;

61.欧洲议会指出需要考虑对国际协定的进行修订,例如1968年11月8《维也纳道路交通公约》和《关于交通事故适用法律的海牙公约》;

62.欧洲议会企盼委员会确保各成员国执行国际法,例如道路交通维也纳公约需要统一修订,以使无人驾驶成为可能,并吁请委员会、会员国和业界尽快达成《阿姆斯特丹宣言》设定的目标;

63.欧洲议会大力倡导在社会、伦理和法律挑战的审查中开展国际合作,然后在联合国主持下制定监管标准;

64.欧洲议会指出欧洲议会和欧洲理事会第428/2009号条例对两用物品—可用于民用和军事用途和/或有助于大规模杀伤性武器扩散的商品、软件和技术—贸易规定的限制和条件也应当适用于机器人技术;

最后方面

65.欧洲议会吁请委员会在《欧洲联盟运行条约》第225条的基础上,根据《欧洲联盟运行条约》第114条提交一份关于机器人技术民事法律规则的立法建议,并遵循本附件中的建议;

66.欧洲议会确认这些建议尊重基本权利和辅助性原则;

67.欧洲议会认为如果要建立新的欧洲机构,所提出的提案将对财务产生影响;欧洲议会指示主席将本决议及其所附建议转交委员会和理事会。

三、规则附件

关于所要求提案内容的建议

1.“智能机器人”定义与分类

需要阐明智能自动化机器人在欧洲的通常定义,适当包括其子分类,并考虑以下特征:

——通过传感器与/或通过与所处环境交换数据(内部连接)及分析数据实现自动化的能力;

——通过经验积累及互动方式进行学习的能力;

——机器人的物理支持形式;

——根据环境调适自己行为的能力。

2.智能机器人的登记

为了实现可追踪性,便于建议的进一步落实,需要引入一套基于机器人分类标准的高级机器人登记系统。登记系统及登记簿应当建立在全欧盟范围内并,并且指定的欧盟机器人技术和人工智能欧盟机构一旦设立,即可以管理该系统。

3.民事法律责任

在涉及财产损害之外的案件中,任何选定的法律解决路径都不应当限制需被救济的损害类型或者程度,也不应当基于损害是由非人类行动者(即智能机器人自身)造成的这一理由限制受害人可能获得的赔偿;

未来的立法文书应以委员会的深入评估为基础来确定是否应采用严格责任或风险管理方法;

应当建立强制保险,要求制造商为自己制造的自动化机器人投保;

该保险方案应当有赔偿基金作为补充,确保强制保险未能覆盖的损害得到补偿;

任何涉及机器人和人工智能民事责任的规则均应当在咨询欧盟机器人与神经科学研究开发项目的科学家和专家后方可适用,这些科学家和专家需具备评估所有相关风险及后果的能力。

4.互动性、代码使用及知识产权

化机器人应当确保具有互动性。为了调查机器人造成的事故和损害,也为了确保其持续运转、可使用、可靠及安全,机器人源代码的访问、数据输入、制造。

5.机器人技术宪章

,委员会应当考虑以下《机器人技术宪章》所包含的原则。

《机器人技术宪章》

提议的机器人领域伦理行为准则为机器人从设计到开发各阶段提供基本伦理原则的识别、背离判定及遵守的基础。

该行为框架经查询专注机器人及神经科学的全欧洲研究开发项目而起草,其设计需深思熟虑,允许个人依据个案情况进行调整,据以判定特定情况下特定行为正误与否,并依据事前设定的价值体系做出决定。

该伦理行为准则不能取代该领域应当对所有重大法律风险的需求,而应当具有补充功能。它应当推进机器人伦理规范的分类,强化该领域重建责任的努力,回应公众关切。

应当重点关注研究、开发阶段相关技术过程(设计过程、伦理审查、审计控制等等)。它应当关注研究人员、实施人员、使用者、设计者遵守伦理标准的必要性,还应当引进一套程序用以设计解决伦理困境的方案,使这些体系运行在伦理责任的轨道中。

《机器人技术工程师伦理行为准则》

1.前言

准则要求所有研究、设计人员对自己的行为负责,充分考虑人类的尊严、隐私和安全。

准则要求各学科领域紧密合作,保证欧盟机器人技术研究的安全性、伦理性和高效性。

准则适用于机器人领域所有研究和开发行为。

准则自愿遵守,并为所有利益相关方采取行动提供总体的原则和方法。

鼓励机器人研究的资助主体、研究机构、研究人员、伦理委员会在起始阶段思考正在研究的技术或对象的未来影响,培养一套责任文化,观照未来可能出现的挑战与机遇。

公共或者私有的机器人研究资金提供方应当要求每一项机器人研究的资金申请进行风。该准则应当将人,而不是机器人,作为责任方。

机器人研究者应当信守伦理和职业的最高规范,遵守以下原则:

有益性—机器人应当为人类追求最高利益;

非恶性—“不伤害”是首要信条,机器人不得伤害人类;

自主性—就与机器人互动方面,能够做出知情、非强制的决定;

公正性—与机器人相关利益的公平分配,特别要提供廉价的家政和医疗服务机器人。

2.基本权利

机器人研究行为的设计、实施、传播、使用都应当尊重基本权利,服务于个体和社会的福利及自我决定的利益。人类的尊严和自主—包括生理和心理—需自始尊重。

3.预防措施

机器人研究行为应当遵守预防原则,预测其结果的安全问题,采取与保护水平相应的预防措施,的改进。

4.全面性

机器人工程师保证透明性,尊重所有利益相关方了解信息的合法权利。全面性原则允许所有涉入机器人研究行为的利益相关方或有关方面参与决策过程。

5.责任

机器人工程师保持对机器人对人类当前或未来造成的环境及健康影响承担责任。

6.安全

机器人设计者应当考虑并尊重人们的身体利益、安全、健康和权利。机器人工程师需维护人类利益,并尊重人类权利,境的因素。

7.可逆性

可逆性是可控性的必要条件,是机器人编程,保证其行为安全可靠的基础概念。可逆性模型告诉机器人哪些行为可逆以及逆转的方法。撤销先前行为或先前的系列行为的能力使使用者可以撤销有违自己意愿的行为,回复到先前的“良好”状态。

8.隐私

隐私权应当被尊重。机器人工程师应当保证私人信息安全保存,恰当使用。,机器人工程师还需保证,除非特殊情况不能识别个人,知情同意。在人机互动之前就应当征求并取得人的知情同意。所以,机器人设计者有责任开发并遵守有效同意、保密、匿名、公正对待及必要过程的流程。一经要求,设计者需销毁有关数据,从所有资料库中删除数据。

9.利益最大化与伤害最小化

研究者应当努力从构思到传播的各个工作阶段实现利益最大化。要避免对研究参与者、人类对象、实验过程、试用过程、调研参与者或对象的伤害。若风险是研究过程的组成部分而不可避免,则需要开发有力的风险评估及管理协议并遵守。通常情况下,风险损害,也就是说,不应当要求人们应对大于他们平常生活中的常见风险或额外的风险。机器人系统的操作应当以彻底的风险评估为前提,风险评估应当遵守预防和比例的原则。

《研究伦理委员会(REC)准则》

1.原则

(1)独立

伦理调查过程应当独立于研究本身。该原则强调避免研究人员与伦理协议审查人员之间的,以及审查人员与组织治理机构之间的利益冲突。

(2)职业能力

伦理审查过程应当由具备适当专业能力的审查人员进行,需要仔细考虑研究伦理委员会成员的范围及特定伦理培训的情况。

(3)透明度与清晰度

审查过程应当清晰,接受仔细审查。研究伦理委员会成员应当意识到他们肩负的责任及身处的位置,这关乎到他们可以为研究伦理委员会工作过程提供透明度以维持和审查相关标准。

2.研究伦理委员会的角色

所有相关机构内部或其雇佣人员开展的涉及人类参与的研究一般都由研究伦理委员会审查,确保伦理审查的独立性、,保护参与者的尊严、权利和安康,考虑研究人员的安全及利益相关方的合法利益,在知情的情况下判定研究方案的科学价值,并对有缺陷的方案向研究者提出有依据的建议。

3.研究伦理委员会章程

研究伦理委员会通常应当由跨学科领域的人员组成,其成员包括男士和女士,成员在机器人研究领域有丰富的经验和专业素养。其任用机制应当确保其成员在科学素养及哲学、法律、伦理背景方面与普通人的观点实现平衡,其中至少有一名成员具备伦理学的专业知识;专业的健康、教育、社会服务若为研究活动所涉及,则应当包含有关使用者;应当包括在所审查领域具备特定研究方法的专家;而且,其组成必须确保避免利益冲突。

4.监督

所有研究组织应当设计适当的程序来监督已经得到伦理审查许可的研究行为,这一监督应直至终了。这一程序的设立应,在可能需要的情况下,审查能够持续进行。监督过程应当与研究的性质及风险等级相一致。研究伦理委员会若发现监督报告引发了对研究行为的重大伦理担忧,其应当取得研究活动的完整、详细报告以进行充分伦理审查。一经发现研究活动有违伦理,应当考虑撤回其伦理许可,研究活动应当暂停或终止。

《设计者许可》

——该类技术设计、开发、转移的相关研究开始前、研究过程中、研究过程之后,您都应当考虑尊严、自主、自决、自由、公正的欧洲价值观,其中包括不伤害、不欺骗、不恶意利用(易受伤害的)使用者。

——出于安全的目的,机器人操作的硬软件设计所有相关方面、平台内外的数据处理,您都应当适用可信的系统设计原则。

——您的设计应当关注隐私问题,确保私人信息安全保存,适当使用。

——您应当整合明显的、与合理的设计目标相一致的退出机制(配备毁灭开关)。

——您需确保机器人的操作遵守地方的、国家的、世界的伦理及法律原则。

——您需确保机器人的决策步骤能够进行重建和跟踪。

——您需要确保机器人系统编程的最大透明度,确保机器人行为的可预测性。

——您应当考虑解释过程及行为的不确定性,以及机器人或人类可能的失误,分析人机系统的可预测性。

——您需要在机器人设计阶段开发追踪工具。即便因为专家、操作人、使用者的水平不同而受到限制,这些工具依然应当强化机器人行为的报告和解释。

——您应当绘制设计和评价协议过程图,参与潜在使用者及利益相关方评价机器人的利益和风险,其中包括认知、心理、环境相关方面。

——您需确保机器人与人类互动中机器人可以被识别为机器人。

——您需保证与机器人联络、互动人员的健康和安全,因为机器人产品的设计应当使用保证人类安全的程序。机器人研究工程师应当维护人类利益、尊重人类权利;若不能保证系统操作的安全、可靠、可逆,则不应当部署机器人。

——您在取得研究伦理委员会的肯定之后方可在实际环境中测试机器人,或者让人类参与机器人的设计、开发环节。

《使用者许可》

——您使用机器人无须担心身体或心理遭受伤害的风险。

——您有权期待机器人完成其设计的任何事务。

——您需要注意,所有的机器人都可能存在感知、认知、行动方面的限制。

——您需要关注人类身体和心理的脆弱,关注人类的情感需求。

——您需要考虑个人的隐私权利,其中在亲密行为中应当关闭视频监控。

——未经数据主体的明确同意,您不可以收集、使用、披露个人信息。

——任何有违伦理及法律原则与标准的机器人使用行为均不被允许。

——您不可改造机器人,以使其具备武器功能。

供应激光焊接机,席斌张志坚|欧洲机器人技术民事法律规则

参考资料
(责任编辑:admin)
热门推荐