联邦法官: 除非有人类验证其准确性 否则AI不能进入我的法庭

联邦法官:除非有人类验证其准确性否则AI不能进入我的法庭根据斯塔尔法庭的一项新的"法官特定要求","所有在法院出庭的律师都必须在备审簿上提交一份证明,证明文件的任何部分都不是由生成性人工智能(如ChatGPT、Harvey.AI或GoogleBard)起草的,或者证明由生成性人工智能起草的任何语言都是由人类使用印刷记者或传统法律数据库检查其准确性。"每个案件都必须提交一份证明,并将涵盖该案件的所有文件。一份证明样本说,这些要求适用于文件中的任何语言,"包括引文、引证、转述的论断和法律分析"。特朗普提名的美国德克萨斯州北区地区法院的斯塔尔说,人工智能"平台是令人难以置信的强大,在法律上有许多用途:表格离婚,发现请求,建议文件中的错误,口头辩论中的预期问题。但法律简报不是其中之一"。人工智能"平台在其目前的状态下很容易产生幻觉和偏见。在幻觉上,他们会编造东西--甚至是引文和引证。"根据法律专家尤金-沃洛克的文章,斯塔尔关于人工智能的新的常设命令是昨天发布的。"请注意,联邦法官对在其法庭上执业的律师通常都有自己的常设命令。这些是在当地地区规则以及正常的联邦民事和刑事诉讼规则之外的,"沃洛克写道。此前律师引用了ChatGPT"发明"的假案件斯塔尔的命令是在纽约的律师史蒂文-施瓦茨承认他使用ChatGPT帮助撰写法庭文件,其中引用了人工智能工具发明的六个不存在的案件之后发出的。施瓦茨和他的合伙人正在等待美国纽约南区地方法院的凯文-卡斯特尔法官可能下达的惩罚。在卡斯特尔所谓的"史无前例的情况下",法官说原告律师提交的文件包括六个"假的司法判决,有假的引文和假的内部引用"。这些文件包括捏造的案件名称和一系列假裁决的"摘录",引用了人工智能发明的其他假先例。施瓦茨提交的一份宣誓书说,他"对利用生成性人工智能来补充这里进行的法律研究感到非常遗憾,今后在没有绝对核实其真实性的情况下绝不会这样做。"他还说,他"在这一事件发生之前,从未利用ChatGPT作为进行法律研究的来源,因此没有意识到其内容可能是虚假的。"斯塔尔的新常设命令讨论了人工智能工具的潜在偏见。他写道:"虽然律师们宣誓抛开他们的个人偏见、偏差和信仰,忠实地维护法律并代表他们的客户,但生成性人工智能是人类设计的程序的产物,他们不需要宣誓。""人工智能系统不效忠于任何客户、法治或美国的法律和宪法,"斯塔尔继续说道。"不受任何责任感、荣誉感或正义感的约束,这种程序根据计算机代码而不是信念行事,基于编程而不是原则。任何一方认为一个平台具有法律简报所需的准确性和可靠性,可以申请许可并解释原因。"展望未来,斯塔尔的命令说,法院"将剔除任何来自律师的文件,如果该律师没有在备审簿上提交一份证明,证明该律师已经阅读了法院的特定法官要求,并理解他或她将根据规则11对他或她签署并提交给法院的任何文件内容负责,无论生成性人工智能是否起草了该文件的任何部分。"...PC版:https://www.cnbeta.com.tw/articles/soft/1363073.htm手机版:https://m.cnbeta.com.tw/view/1363073.htm

相关推荐

封面图片

美国法官禁止 AI 撰写的材料除非人类验证了其精确性

美国法官禁止AI撰写的材料除非人类验证了其精确性美国得州的一位联邦法官JudgeBrantleyStarr为参加其庭审的律师制定了一项新规定:禁止递交AI撰写的材料,除非其正确性经过了人类验证。法官还要求律师递交保证书,证明其递交的文件是人类撰写或经过了人类的审核。法官要求每个案件都递交一份证明,他表示目前的生成式AI容易产生幻觉和偏见,它们会捏造故事,包括引述和引文。在这之前纽约律师StevenSchwartz使用ChatGPT帮助撰写了法庭文件,引用了6个捏造的案例。来源,前文:来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

哥伦比亚一位法官刚刚使用ChatGPT做出了一项法庭裁决

哥伦比亚一位法官刚刚使用ChatGPT做出了一项法庭裁决"这个决定的论据将根据人工智能(AI)的使用来确定,"加西亚在决定中写道,"因此,我们进入了这些程序,并提出的部分法律问题。""包括这些人工智能产生的文本的目的绝不是要取代法官的决定,"他补充说。"我们真正追求的是在证实人工智能提供的信息后优化起草判决书的时间。"该案件涉及与一家医疗保险公司的争议,即一名自闭症儿童是否应获得医疗保障。根据法庭文件,输入人工智能工具的法律问题包括:"自闭症未成年人是否可以免于支付其治疗费用?"和"宪法法院的判例是否在类似案件中做出过有利的裁决?"加西亚在裁决中包括了聊天机器人的全部回答,这显然是有法官第一次承认这样做。法官还在判词中写入了他自己对适用的法律先例的见解,并体积人工智能被用来"扩展所通过的决定的论点"。在详细介绍了与大赦国际的交流后,法官随后采用了大赦国际的答复和他自己的法律论据作为其决定的理由。哥伦比亚法律并不禁止在法庭裁决中使用人工智能,但像ChatGPT这样的系统以给出有偏见的、歧视性的、或纯粹错误的答案而闻名。这是因为语言模型对文本没有实际的"理解",它只是根据用于训练系统的数百万个例子的概率来合成句子。ChatGPT的创建者OpenAI已经实施了过滤器,以消除一些更有问题的回应。但开发者警告说,该工具仍然有很大的局限性,不应该被用来做重要的决策。虽然本案显然是法官首次承认使用ChatGPT这样的人工智能文本生成器,但一些法院已经开始使用自动决策工具来决定量刑或刑事被告是否被保释,这是具有争议性的。这些系统在法院的使用受到了人工智能伦理学家的严厉批评,他们指出,这些系统经常强化种族主义和性别歧视的陈规定型观念,并放大了预先存在的不平等形式。尽管哥伦比亚法院的文件表明,人工智能主要用于加快起草文书,而且其反应经过了事实核查,但这很可能是一个迹象,表明更多的事情正在发生。...PC版:https://www.cnbeta.com.tw/articles/soft/1342537.htm手机版:https://m.cnbeta.com.tw/view/1342537.htm

封面图片

美国首席大法官罗伯茨:谨慎在法律中使用人工智能

美国首席大法官约翰·罗伯茨近日发布了他的年度报告,敦促法律体系谨慎对待人工智能,并预测该行业将受到重大影响,特别是在初审法院。罗伯茨警告人工智能存在侵犯隐私和非人化法律的风险,并指出律师提交带有人工智能生成的虚假法律引文的摘要的真实案例。罗伯茨还表示,人工智能工具有潜力通过提供法律指导来扩大低收入诉讼当事人诉诸司法的机会。法官经常在复杂的法律灰色地带做出裁决,需要细致入微的人类判断和自由裁量权——他认为人工智能无法取代这一点。via匿名标签:#AI频道:@GodlyNews1投稿:@GodlyNewsBot

封面图片

人工智能让"挑选法官"的法律流程成为一门精确的科学

人工智能让"挑选法官"的法律流程成为一门精确的科学"挑选法官"是指寻找法官或更换已指派的法官来审理案件,希望以此获得更有利的结果。虽然这在法律界已是公开的秘密,但"挑选法官"却被认为是滥用程序,为自己谋取战术上的利益,损害了司法系统的公正性。今年早些时候,有报道称美国反堕胎组织在得克萨斯州阿马里洛而非食品药品管理局总部所在地马里兰州对食品药品管理局批准一种堕胎药提出质疑,这种策略成为头条新闻。选择阿马里洛作为审判地并非巧合:这个小城市只有一个联邦法院,由一名联邦法官主持,他就是极度保守的美国地区法院法官马修-卡克斯马里克(MatthewKacsmaryk)。现在,人工智能让挑选法官变得更容易了。2023年1月,唯一能预测联邦诉讼结果的诉讼分析平台Pre/Dicta收购了州法院司法分析平台Gavelytics,美国95%的案件都是在州法院审理的。Pre/Dicta对法官和司法辖区进行比较,以预测民事案件的胜诉可能性Pre/Dicta是一个由人工智能驱动的数据集,它不考虑相关法律或案件事实,而是根据法官的履历细节--净资产、政治派别、任命人、教育背景和工作经验--以及他们的判决历史来预测他们在民事案件中的判决方式。Pre/Dicta旨在帮助律师和原告决定如何最好地投入时间和资源,其准确率高达86%。值得注意的是,Pre/Dicta不能预测刑事案件和陪审团审判的结果。公司首席执行官兼联合创始人丹-拉比诺维茨(DanRabinowitz)在2022年6月推出该平台时表示:"Pre/Dicta帮助顶级诉讼律师理解和应用司法行为,这是人类无法做到的。我们相信,我们的驳回动议预测工具以及即将推出的其他工具,将成为任何顶级诉讼律师整体诉讼策略中不可或缺的一部分。"Gavelytics于2017年推出,在Pre/Dicta之前,Gavelytics是州法院诉讼分析领域的市场领导者,到2022年,其地理覆盖范围已扩大到美国25个州,不仅收集了法官的数据点,还收集了律师事务所、律师和诉讼当事人的数据点。这些信息现已加入Pre/Dicta的数据集。"这笔交易是Pre/Dicta和整个预测性诉讼分析领域的一个重要里程碑,"Rabinowitz在谈到Pre/Dicta收购Gavelytics时说。"通过收购Gavelytics的州法院资产,Pre/Dicta大大加快了诉讼律师圣杯的打造速度:为全国范围内的每一起诉讼提供预测的产品。"Pre/Dicta算法可提供特定法官批准动议的可能性以及所需的时间迄今为止,法官似乎一直在避免成为人工智能的目标。相反,关于人工智能对法律行业的影响的讨论主要集中在如何提高耗时的人工任务(如研究或文件起草)的效率上。那么,Pre/Dicta这样的人工智能驱动平台是件好事吗?抛开"挑选法官"的问题不谈,它还是有一些明显的优势的。首先,诉讼费用高昂,因此让原告了解他们的钱是否花得值,可以说是一个重要的考虑因素。而且,如果有更多的人根据人工智能的胜诉预测决定不打官司,那么可能会减少本已堵塞的系统中积压的案件。然而,选择法官的问题依然存在,而且在人工智能的帮助下,这种现象有可能更加普遍。2023年4月,民主党参议员马齐-博野(MazieHirono)提出了一项法案,规定美国哥伦比亚特区(DC)地方法院对涉及移民和竞选资金挑战等具有全国影响的案件拥有专属管辖权,以努力遏制挑选法官的现象。赫罗诺在一份新闻稿中说:"当当事人能够选择法官时,就会让人觉得他们能够预先确定案件的结果,从而损害我们联邦司法系统的公正性。激进的原告不应该亲自挑选个别法官来制定全国性的政策,这就是为什么我们必须解决在联邦法院挑选法官的问题。"时间会证明Pre/Dicta案对选择法官的做法会产生什么影响,尤其是在涉及国家利益的问题上。但这一现象不可能很快消失。...PC版:https://www.cnbeta.com.tw/articles/soft/1383893.htm手机版:https://m.cnbeta.com.tw/view/1383893.htm

封面图片

【美联邦法官将把币安的保护令动议提交至治安法官】

【美联邦法官将把币安的保护令动议提交至治安法官】2023年08月17日03点48分老不正经报道,在8月16日向美国哥伦比亚特区地方法院提交的文件中,美国法官AmyBermanJackson表示,她将把Binance.US律师针对SEC提出的一项针对SEC的保护令动议提交给治安法官Faruqui,以寻求解决方案。截至发稿时,SEC尚未针对Binance.US的请求提出任何动议。老不正经曾报道,Binance.US的法律团队于8月14日提交了该动议,认为这对于保护该公司在发现过程中免受SEC的“钓鱼执法”是必要的。

封面图片

美国联邦法官在裁决中表示,由人工智能创作的艺术作品不受版权保护

美国联邦法官在裁决中表示,由人工智能创作的艺术作品不受版权保护美国一位联邦法官最近支持了美国版权局的立场,认为由人工智能创作的艺术作品不具备版权保护。这项裁决是对一位人工智能公司首席执行官提起的诉讼做出的回应,他主张由人工智能创作的作品应该受到版权保护。法官强调,版权法只保护人类创作,并强调人类创造力是版权保护的核心要素。她指出,人类的参与和创造控制是判断作品是否符合版权范围的关键。这个判决对于人工智能生成的作品是否受版权保护产生了重要的影响,确认了版权法仅适用于人类创作的作品。参考:;;来源:投稿:@ZaiHuaBot频道:@TestFlightCN

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人