引用 ChatGPT 伪造案例的律师被罚 5000 美元

引用 ChatGPT 伪造案例的律师被罚 5000 美元 一位美国法官对在法庭文件中引用 ChatGPT 伪造案例的两位律师及其律所罚款 5000 美元。曼哈顿地区法官 Kevin Castel 命令 Steven Schwartz、Peter LoDuca 及律所 Levidow, Levidow & Oberman 支付罚金。法官称,技术进步司空见惯,使用可靠的 AI 工具提供帮助本质上是可接受的,但现有规则要求律师对此进行把关,确保所递交文件的准确性。在本案中,律师及其律所放弃了其责任,甚至在受到质疑后还坚持己见。Schwartz 对此结果拒绝置评。来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

相关推荐

封面图片

在得知律师事务所使用ChatGPT计算出过高律师费后 法官将账单数额砍了一半

在得知律师事务所使用ChatGPT计算出过高律师费后 法官将账单数额砍了一半 总部位于纽约的 Cuddy 律师事务所利用 ChatGPT 支持其申请,为该公司最近胜诉的一项审判收取巨额费用。卡迪代表一位母亲及其有特殊需要的孩子起诉了纽约市教育局。根据《残疾人教育法》,地方法院可酌情将合理的律师费作为费用的一部分判给胜诉方的残疾儿童父母。OpenAI 的工具被问及,对于一名在残疾教育听证方面拥有最多三年经验的律师来说,合理的小时费率是多少。该工具指出,时薪可能在 200 美元到 500 美元之间,在某些法律领域具有专长的律师时薪可能更高,可达每小时 1200 美元或更多。根据 ChatGPT 的建议,Cuddy Law 提交了一份 113484 美元的最终服务账单,相当于每小时约 550 美元至 600 美元。但联邦地区法官保罗-恩格尔迈耶(Paul Engelmayer)对该公司使用该技术计算账单的做法并不以为然。恩格尔迈耶在其意见书中写道:"卡迪律师事务所援引 ChatGPT 作为其咄咄逼人的收费要求的依据,完全没有说服力,这一点就足够了。"法官指出,由于 ChatGPT 没有指明它得出结论所使用的数据,因此无法知道这些信息是"非常真实和相关的",还是只是它编造出来的,这仍然是生成式人工智能面临的一个问题。还有人提到,该公司未能确定用于接收 ChatGPT 结论的精确输入。恩格尔迈耶法官指出了 ChatGPT 产生幻觉信息的众多法律案件中的两个。一个是马塔诉阿维安卡航空公司案,这是一起针对阿维安卡航空公司的人身伤害诉讼案。史蒂文-A-施瓦茨(Steven A. Schwartz)律师在该案中提交了一份长达 10 页的辩护状,其中援引了多个类似案件的相关法院判决,而所有这些判决都是 ChatGPT 捏造的。另一起名为"Park 诉 Kim"的案件涉及律师 Jae Lee,她在一起医疗事故诉讼案中使用 ChatGPT 进行研究,但没有确认她引用的案例是否有效,因此被提交给律师申诉小组。在 Cuddy 案中,恩格尔迈耶法官最终决定将该公司申请的律师费减半,减至 53050 美元,原因包括使用了 ChatGPT。他补充说:"除非这一工具的可靠性发生了范式转变,否则建议卡迪律师事务所在今后的收费申请中不再提及 ChatGPT"。 ... PC版: 手机版:

封面图片

英国高等法院警告律师:引用 AI 生成的“假判例”将会被重罚

英国高等法院警告律师:引用 AI 生成的“假判例”将会被重罚 近日,英格兰及威尔士高等法院发布警示,强调律师在使用生成式人工智能(如ChatGPT)进行法律检索时,必须严格核查信息来源。法院指出,AI工具虽能生成看似合理的内容,但其引用的判例和法条常常存在虚假或错误,律师必须以权威资料为准,核对无误后方可引用。如不履行核查责任,律师将面临公开谴责、罚款、蔑视法庭程序乃至被移交警方等严厉后果。 近期各国已有多起律师因引用AI生成的“假判例”而被调查,不少引用的判例要么根本不存在,要么与主张毫不相关。

封面图片

美国纽约一名律师承认其律所利用人工智能软件ChatGPT搜集诉状用资料,结果自己招惹了诉讼。

美国纽约一名律师承认其律所利用人工智能软件ChatGPT搜集诉状用资料,结果自己招惹了诉讼。 这位律师正代表一名旅客起诉航空公司索赔,被告方代表律师收到原诉方文件之后向法庭提出疑问,主审的美国纽约南区联邦地方法院法官卡素尔(Judge P. Kevin…

封面图片

30年老律师用ChatGPT旁征博引:结果被骗得禁止执业!

30年老律师用ChatGPT旁征博引:结果被骗得禁止执业! 老哥撰写案件文案的时候,尝鲜让ChatGPT帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书。 结果就是,10页文书被法官定义为“充满虚假”,老哥还被暂停执业许可,面临被制裁的可能。 这位姓施的老哥欲哭无泪,因为秉承着一贯的严谨态度,他明明认真询问过ChatGPT,它提供“南方航空公司被诉案”等材料时,有没有撒谎? ChatGPT响应得很快:“当然没有啦~~” 律师之间一直在争论类ChatGPT的AI的价值和危险性,也在讨论是不是有必要验证AI提供的信息。ChatGPT对法律工作带来的最大危险,就是它拥有“胡说八道还不脸红”的本领。 One More Thing 施老哥因为ChatGPT深陷泥潭的事情是真的,绝非通过AI瞎编。但是,这篇文章也是在ChatGPT的帮助下写的(虽然参与部分很少很少,还进行了事实确认)。 人类的本质就是套娃。 #ChatGPT来源 , 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

美国法官禁止 AI 撰写的材料除非人类验证了其精确性

美国法官禁止 AI 撰写的材料除非人类验证了其精确性 美国得州的一位联邦法官 Judge Brantley Starr 为参加其庭审的律师制定了一项新规定:禁止递交 AI 撰写的材料,除非其正确性经过了人类验证。法官还要求律师递交保证书,证明其递交的文件是人类撰写或经过了人类的审核。法官要求每个案件都递交一份证明,他表示目前的生成式 AI 容易产生幻觉和偏见,它们会捏造故事,包括引述和引文。在这之前纽约律师 Steven Schwartz 使用 ChatGPT 帮助撰写了法庭文件,引用了 6 个捏造的案例。来源 ,前文: 来自:雷锋 频道:@kejiqu 群组:@kejiquchat 投稿:@kejiqubot

封面图片

有诈:5000年来的谎言、伪造与谣传

有诈:5000年来的谎言、伪造与谣传 描述:5000 年来,人类历史上最荒谬、奇葩、有趣的骗局故事! 链接: 大小:N 标签:#电子书 来自:雷锋 频道:@Aliyundrive_Share_Channel 群组:@alyd_g 投稿:@AliYunPanBot

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人