返回首页

人工智能是否可获知识产权,法律准备好了吗?

来源:www.668e.net   时间:2023-06-12 22:28   点击:295  编辑:admin   手机版

一、人工智能是否可获知识产权,法律准备好了吗?

这个问题近日国际上才达成一致,先说结论:

人工智能 不能在专利申请中列为发明人,他不是人。。

去年,两项相对平凡的专利“一种可变形的食品容器”和“一种应急手电筒”

给全世界的国际专利法规提出了一个存在的问题:专利发明人必须是人吗?

这两项发明是物理学家和人工智能研究者Stephen Thaler创造的人工智能系统DABUS的作品。

现在,USPTO(美国专利商标局)已经裁定,DABUS和其他任何人工智能都不能被列为专利申请中的发明人。

在此之前,美国专利法对机器是否可以发明的规定很模糊,指的是“个人”作为合格的发明人。

但随着英国,根据当地禁止非自然人发明的专利法,DABUS专利被驳回。

美国也紧随其后,规定 “只有自然人可以在专利申请中被列为发明人。”

欧盟专利局在当时更是率先驳回了 AI 发明专利。

我早就说吧。。

任何知产问题欢迎留言或私信——派智知产管家

专利SAAS平台免费试用中

二、人工智能的法律适用?

2019年,欧洲司法效率委员会(CEPEJ)发布了《关于在司法系统及司法环境中使用人工智能的欧洲道德宪章》,为这类人工智能提出了分类标准,并提出了一些警告。该道德宪章预示着对市场一些产品的禁止,或者说至少是对一些产品的强烈反对。特别是针对如北美市场上LexMachina(法律机器)这样可以针对单个法官或律师进行剖析的工具。

该道德宪章为法学界使用和发展人工智能提供了可能最为完整和具体的分析基础。经过详细的研究,它指出了人工智能工具需要遵循的五项原则(即从设计阶段就尊重基本权利、非歧视原则、质量和安全原则,与可解释性相关的透明、公正和公平原则,以及“用户控制”原则),并挑选出哪些是需要鼓励的工具,哪些是使用起来需要采取特别预防措施的工具,以及哪些是需要监督而不使其造成风险和混乱的工具。

我们将从包括但不限于以下的分类来探讨各种人工智能在服务司法上的应用或论证其服务司法的可行性。另外,考虑到《关于司法系统及司法环境中使用人工智能的欧洲道德宪章》,总而言之,欧洲做法是将一些类别的工具认定为是需要支持的(即道德上的支持,故需要将投资集中在这些类型上),并在发展人工智能使其服务司法的整体项目中予以考虑。这些工具的类别是:

判例法检索增强工具:(1)在自然语言处理领域运用机器学习技术,通过链接多样化的来源(如宪法和国际公约、法条、判例法和法律原理)来补充当前关键词搜索和全文搜索的选项。(2)通过数据可视化技术来展示搜索的各种结果。

获取法律信息的工具:主要是指针对专业知识方面的法律信息的获取。在这个方面,无论是处理可能的民事责任方面,还是针对提供技术解决方案或是提供专业性辅助上,这类工具的应用都十分娴熟。其中主要的例子是聊天机器人,它便是为了方便使用自然语言访问各种现有的信息资源而创建的。类似的,网络文件模板(如法院申请、租约等)也被认为是合乎伦理且具有战略作用的工具。

而一些创新性工具可以归入这一项:比如运用自然语言来方便访问现有信息资源的聊天机器人、文件模板、法院申请、租约协议等。奇怪的是,欧洲议会和理事会的拟议法规非常关注其中的一些内容,其制定了关于人工智能的统一规则(人工智能法),并修订了一些欧盟立法法案(SWD(2021) 85 final)(社会福利署(2021年)85终稿)。比如,其中一些法案的规定提高了聊天机器人的透明度。

这类工具强有力地对法律知识进行了去中介化处理,其目的是大规模地获取基本可操作的法律知识或者是向该领域的专业人士提供帮助。这便开辟了两个非常有趣的场景。即如果这类工具为作为专业人士的现存客户有效整合了几种服务,那么可以期待的是,这类工具能够进入由普通公众组成的、更为广阔的市场。

三、人工智能与法律哪个更好?

这二者是互不矛盾且互补的,法律是对于社会生活的规则,而人工智能是实现规则的手段之一

四、人工智能立法的优缺点?

近年来,伴随着深度学习、语音识别等的快速发展,人工智能与我们的生产生活愈发密切。人工智能带来的融合发展,不仅推动了传统产业的转型升级,同时也为人们带来全新的产业风口和机遇。在此背景下,人工智能受到的支持和青睐不少,诸多国家和地区都已将人工智能视为战略性产业。

  但是,人工智能并非只带来利好,有时其也带来担忧。作为一把双刃剑,人工智能就像是潘多拉魔盒,外观虽然精美,让人爱不释手,可一旦打开也可能释放厄运。目前,随着人工智能渗透到医疗、教育、制造、金融等行业之中,其隐私、数据、偏见等问题的显现,已给整个社会带去不少隐患。

  比如这两年,人工智能加持的网络诈骗越来越多,便让人们防不胜防、损失惨重;同时大量企业数据频频泄露,也让用户隐私暴露于危险之中;此外,智能机器人时常出现的意外伤人事件,也让人身安全遭受威胁;以及“机器换人”带来的失业恐慌,也持续弥漫在各行各业和不同领域。

  据相关业内人士分析,人工智能带给人的忧虑重点分为两方面。其一是安全威胁,包括对未来、对人身、对数据、对隐私的各种安全;其二则是伦理和法律挑战,因为人工智能时常跳脱于现有法律和伦理道德之外,缺乏完善的监管与限制。基于此,要想让人工智能迈向成熟,就需要通过治理趋利避害。

  目前,在这方面的行动欧盟已经走在前列。4月21日,欧盟提出了全新的人工智能法规,旨在解决人工智能系统带来的具体风险,并在全球范围内设定最高标准。在保证人们和企业的安全与基本权利的同时,加强欧盟对人工智能的吸收、投资和创新。新的法规将人工智能依据风险高低进行了分类治理。

  其中,具体包括不可接受的风险、高风险、有限的风险和最小的风险。按照新规,被认为对人们的安全、生计和权利有明显威胁的人工智能系统将被禁止;被认定为高风险的人工智能需受到严格管控;对于被认为有限风险和最小风险的人工智能,则进行一定干预和不做干预。每个风险法规都举了相应例子。

  据了解,早在2018年时,欧盟就已经发布过一项人工智能法规,名为《欧盟AI协调计划》。相比该计划,新的法规通过机械条例让相关规定更加明确,透过允许文件的数字格式和调整中小企业的合格评估费用,简化了企业的行政负担和成本,确保了与欧盟产品立法框架的一致性,让人工智能治理再度升级。

  不过,新法规的出台并非总是受到欢迎,对于欧盟内一些企业来说,就提出了对于新法规的担心。不少企业认为新法规会增加AI成本,适得其反限制或打压自身科技创新。毕竟,在新法规划定的高风险领域,包括了不少重大基础建设项目,同时根据法规,违法企业最高面临年营收6%的惩罚,过于严厉。

五、法律硕士和人工智能硕士哪个更好就业?

人工智能硕士,尤其在疫情防控期间人工智能能减少不必要接触。

六、人工智能时代,如何用法律按下“规制键”?

不久前,DeepMind公布了AlphaGo的最新升级版本AlphaGo Zero,并在《自然》杂志上对其使用的相应技术做出详解。DeepMind称:“AlphaGo Zero与AlphaGo最大的不同是做到了真正的自我学习,经过3天的训练,就以100:0的战绩完胜前代AlphaGo。”曾与AlphaGo有过交战的柯洁也在第一时间做出回应,柯洁表示,“对于AlphaGo的自我进步来讲……人类太多余了”。

近些年来,人工智能持续升温,成为全球科技研发的新热点。Google、百度、阿里巴巴、腾讯等不少国内外大型互联网企业,都在加大资金与人才投入,试图抢先占领人工智能技术的高地。在国家层面,很多国家也纷纷出台政策支持人工智能的发展。如2014年欧盟发布了《欧盟机器人研发计划》,2016年美国发布了《国家人工智能发展与研究战略计划》,2017年法国发布了《人工智能战略》。我国政府也于今年7月发布了《新一代人工智能发展规划》。

人工智能可能引发大量技术性失业

人工智能到底会让人类的生活变得更美好,还是更糟糕?在人工智能突飞猛进的同时,也伴随着质疑甚至抵制。

近日,英国著名物理学家史蒂芬·霍金表示,人工智能(AI)的崛起可能是“人类文明史上最糟事件”,除非人类社会能够找到控制AI发展的方法,否则后果不堪设想。确实,人工智能如果运用不当,的确可能产生很多问题。

首先,人工智能可能引发大量技术性失业。创新工场董事长李开复在2016WISE大会上表示,未来十年,世界上50%的工作都会被人工智能所取代。准确的数据可能无法预测,但人工智能必然会使很多职业消失,可能导致就业停滞,从而给社会带来不稳定性因素。

第二,人工智能可能导致新的不平等。开发者可能存在种族偏见、性别歧视、特定疾病歧视,基于此而开发出来的人工智能就可能存在算法歧视,从而造成新的不平等。而且,由于人工智能导致的就业停滞和生产力提升,可能导致财富更加向少数人集中,从而也可能引发新的资本不平等。

第三,人工智能可能导致责任空白。对于人工智能产生的损害,如何承担分配责任还远未达成共识,开发者、生产者是否应当承担瑕疵担保责任,能否确立人工智能的法律人格地位还不得而知。当开发者、生产者由于破产等因素无法、无力担责时,受损者可能无法得到赔偿、补偿。

第四,人工智能可能失控,成为后人类的敌人。开发者与使用者可能基于不正当目的开发、使用人工智能,从而可能给人类带来毁灭性的灾难,例如一些极端恐怖组织可能滥开发、滥利用人工智能。而且,目前人工智能已经具有深度学习能力,会不断演化进步。霍金警告说,“由于受到缓慢的生物演化的限制,人类不能与AI竞争,最终将会被代替”。

对人工智能担忧并非杞人忧天

由此可见,对人工智能的出现存在隐忧,是有一定道理的。很多新生事物刚出现时,往往不被广泛接受甚至受到极力抵制。就如同百年前的“车马大战”,汽车刚产生时就受到了马车行业的大力抵制,因为汽车严重影响到了马车夫、马车生产商、马厩管理员、马粪清理工等许多人的生计。但是,进步的科技终将无法阻挡,汽车最终取代了马车。

人工智能必将给未来人类社会带来翻天覆地的变化。但对人工智能的诸多担忧并非杞人忧天,如果没有法律的有效规范,人工智能不仅不可能成为人类的福音,反而还可能成为人类的丧钟。然而,也不能因噎废食,因为人工智能可能存在隐患,就全面禁止或不当限制其发展。相反,应当积极运用法律,对人工智能进行适度有效的规制。

规制人工智能就是要规制人的智能

人是人工智能的总开关,所以规制人工智能首先需要规制人的智能,需要对人工智能的开发者进行规制。开发者在设计人工智能时,应当以人为本,以有利于社会福利最大化而非利润最大化为理念,遵守基本的社会伦理道德,消除各种歧视观念,遵守平等原则。禁止基于不正当目的开发人工智能。开发者应当审慎设计相关代码程序,如果某项人工智能所促进的社会公共利益,与其所造成的损害明显不成比例,违反比例原则,或者可能失控,就应当及时放弃。

其次,应当对人工智能的销售者与使用者进行规制。销售者应当建立并执行人工智能产品进货检查验收制度,验明人工智能产品合格证明和其他标志,禁止销售不合格的人工智能产品,不得伪造或者冒用认证标志等质量标志。使用者应当合理利用人工智能,不得损害国家、社会及他人合法权益,法律应当合理设定相应的使用条件与标准。

第三,明确人工智能致损的责任分担机制。如果开发者在设计时存在故意或重大过失,导致损害发生,则应由开发者承担责任。如果由于开发者当时的认知局限,没有预见到未来发生的状况,导致损害发生,开发者也应当承担责任,即瑕疵担保责任,因为开发者有所获益,就应当承担相应的风险,而且如此更能促使开发者审慎地设计相应的代码程序。在索赔方式上,使用者、受害者可以直接找开发者索赔,也可以找销售者索赔。如果销售者与使用者存在过错,则应承担相应的责任。此外,应当逐步建立完善的人工智能产品保险制度。

技术中立不代表可以脱离法治

科技需要在法律的轨道上发展,技术中立并不表明技术可以脱离法治。尽管存在隐忧,但只要法律规制适当,具有诸多优势的人工智能必定会给未来人类社会带来无穷大的正能量。

因此,应当对人工智能进行适度有效的规制,及时立、改、废相关法律制度。我国国务院在《新一代人工智能发展规划》中提出,“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。在规制人工智能时,政府应当处理好科技创新与法律规制的关系,按照“鼓励创新、包容审慎”的原则,确立事前备案、事后惩处的机制,使法律既能有效保障公民权利,又能支持促进科技创新。

七、人工智能不应该拥有法律人格的论据?

人工智能的法律地位问题,是解决人工智能发展与人类身份认同焦虑的关键性问题。

认定人工智能的法律地位需要考虑人的反身性,否定人工智能具有法律人格的论据无外乎人工智能没有意志、缺乏理性,囿于生产工具的特性而缺乏人的欲望与社会性。

通过阐释现代权利理论视阈下的法律主体地位赋予机理,考察法律主体扩张进路,探究法律主体资格证成范式,明确人工智能法律主体地位与资格赋予的可能。

在实现人工智能为人类服务的共识基础上,确定人工智能法律人格有限性并明确阈值范围,以减少法律对技术发展造成的阻力。

顶一下
(0)
0%
踩一下
(0)
0%
热门图文