如果AI获得法律性格,那将是人们游戏的终结

关于人工智能的现代对话通常会陷入错误的问题。我们担心如何拥有人工智能,控制它,以确保它不会危害我们而不会摆脱对人民的监视。然而,随着技术的加速,我们有可能变得更深,更紧急的问题:AI系统将运行的法律环境。
真正的威胁并不是不是AI受到我们的控制,而是AI系统会悄悄地提交合法权利,例如财产所有权,签订合同或保留财务资源 – 除非它们成为人们无法轻易挑战的经济力量。如果我们现在未能设置正确的界限,我们就会有风险创建具有所有权和问责制的系统,以创建扭曲系统最终降低人类繁荣和自由的系统。
其中的数据基础设施是企业家Peter Rainheart 有影响力的2015论文 “用API代替中层管理人员”,那些从事“ API”的人以及在“工作的人”下工作的人 – 也就是说,那些由软件指导和控制的角色。 API或应用程序编程接口,一组规则,允许软件系统自动进行通信和自动通信。
Rainhart以Uber驱动程序为主要例子。尽管许多人的灵活性和明显的自主权获得了奖励,但赖因哈特(Reinhart)辩称,他们“在巨大的自动发射机上凝视着”,并由可爱的编程优化(例如激增奖品)控制。 “驾驶员遵循软件和机器(例如驱动程序)规定的说明,可以自己替换很少的结果。
莱因哈特(Reinhart)论文引起的焦虑可能是我们担心与法律相交的能力,而不仅仅是技术。我们不仅需要技能和智力才能保持“超过API”。我们需要一个法律结构,以确保人们保持最终控制。
这不是任何问题的估计。
AI研究员史蒂芬·塔勒(Stephen Thaler)花了几年 测试AI系统法律人格的界限2019年,他在列为AI System Dubas的发明家的几个国家提交了专利申请,认为它是自主创新设计的。在美国,英国和澳大利亚的法院拒绝了这些主张,确保只有自然人才能被公认为发明家。
同样,Thaler试图在2019年为其AI系统创造的创造力机制作的艺术品制作版权文章,只是为了由美国版权所能拒绝它。联邦法院 这拒绝了拒绝 2023年8月,判决人类作者需要版权保护。
这些挑战表明,赋予AI系统合法权利的尝试已经在进行中。除了观点的法律界限外,这些努力只是获得牵引力之前的时间问题。
这些边界的有用指南可能来自一个不可能的地方: 1871年的民权法。 基本上,他们是为了保护自由奴隶的权利,并保护他们免受像库克拉克斯氏族这样的暴力警惕团体的权利,法律在增加法律认可和保护个人方面是一个突破。老实说,想要保证它的权利 – 财产所有权,进入合同,参与平民生活的权利 – 为我们认为我们应该对AI系统强加的路线图提供了路线图。
尽管这似乎是一个过时的类比,但它遵循了适应历史典型法律结构以应对现代技术挑战的悠久传统。法院已经用来定义18世纪的宪法政策,例如《第四修正案》 数字时代的隐私权关于公司个性的争议,宪法权利组织应享受它,通常取决于19世纪初期发展的法律学说。同样,《民权法》提供了一个发射结构,以考虑任何非标准制度绝对否认。
当然,这里没有任何东西并不意味着在《民权法》的历史重要性或在人类自由和尊严之前的作用中降低其在历史重要性中的作用。焦虑正是我们如何为人类性质,人格的主流权利而构成人类系统的法律权利。
有些人可能会认为,作为一个人为的实体,公司长期以来一直被授予许多法律人格的特征,其中一些特征是特定的宪法权利,例如言论自由,但公司最终受到控制和对人类决策者的负责。相比之下,AI系统可以自动运行,无需人类监督而收集资源和影响。 AI系统并不难以赢得法律权利来进入我们的经济和社会最深的水平 – 没有资本冻结,影响力增加,没有人为责任。这些国家结果将扭曲为人类参与者设计的法律和经济体系。
解决方案是直的。应禁止AI系统的财产所有权,签订协议,保留财务资源或诉讼。这些限制不会抑制创新,但它将确保法律结构将基于人民的判断,问责制和目的。
这很紧急。有一种方法可以使法律审判,尤其是在技术方面。今天似乎不合理的 – 赋予AI系统的财产或诉讼权 – 明天可能会成为先例。越过线路后,很难重新进行。
是时候问有关应该执行什么AI系统以及在现实世界中不应该做什么的严格问题了。否则,未来可能比我们的期望快,这并不是要接受Malvoland机器。这是关于未能区分人类和机器的法律结构,最终减少了旨在保护的自由。
我们都会在API下永久地发现自己。
Josh Harlan Harlan是Capital Partners的创始人兼执行合伙人。