AI有风险 使用需谨慎 美国律师因引用ChatGPT虚假案例受到处罚

AI有风险使用需谨慎美国律师因引用ChatGPT虚假案例受到处罚当地时间周四,美国纽约联邦法官做出判决,Levidow,Levidow&Oberman律师事务所引用了ChatGPT撰写的一份由虚假案例引证的法庭简报,行为恶劣,对其处以罚款5000美元。(注:判决文书)法官卡斯特(P.KevinCastel)指出,该律师事务所的两名律师有意识地避免表明这些引文是虚假的,并“向法庭做出误导性陈述”。Levidow,Levidow&Oberman随后回应称,其律师“谦恭的”不同意恶意误导方面的判决。“我们犯了一个善意的错误,没想到ChatGPT居然可以凭空捏造。”凭空捏造在3月份,律师彼得·洛杜卡(PeterLoDuca)和史蒂文·施瓦茨(StevenSchwartz)代表其客户罗伯托·马塔(RobertoMata)起诉阿维安卡航空公司,提交了一份人工智能撰写的法律文书。据悉,引用的虚假案例包括“Varghese诉中国南方航空公司”、“马丁内斯诉达美航空公司”和“米勒诉联合航空公司”等。但经过仔细查证之后,却根本找不到这些判决案例。在事实面前,到了5月底,律师施瓦茨不得不承认,他使用了ChatGPT来“补充”他对该案件的研究。施瓦茨表示,他没有意识到ChatGPT的内容有可能是虚假的。卡斯特指出,两位律师“放弃了自己应尽的责任”,且在提出对文书的质疑之后,两人“继续坚持虚假意见”。卡斯特责令洛杜卡和施瓦茨以及他们的律师事务所Levidow,Levidow&Oberman分别支付5000美元的罚款,并且他们必须自己将判决结果通知那些认为伪造了案例的法官。法官卡斯特在曼哈顿联邦地方法院的判决书中写道:“法院不会要求他们道歉,因为强迫的道歉不是真诚的道歉。任何道歉的决定都由当事人决定。”使用人工智能没有不妥周四当天,法官在另一项命令中批准了阿维安卡航空公司驳回诉讼的动议。原告马塔声称,在2019年8月,从萨尔瓦多飞往纽约的航班上他的膝盖被一个金属托盘撞到,因而严重受伤。卡斯特认为,马塔的诉讼是在《蒙特利尔公约》规定的两年诉讼窗口期满后提起的,该窗口允许与国际航空旅行相关的法律索赔。卡斯特表示,如果律师们“坦白”使用了人工智能撰写法律文书,可能就不会受到惩罚。但在对文书提出质疑后,两位律师仍然极力辩护,对文书及其内容做出了虚假和误导性的陈述,表现出了“恶意”。判决书中提到:“在研究和起草法庭文书时,优秀的律师会适当地从初级律师、法学院学生、合同律师、法律百科全书、Westlaw和LexisNexis等数据库中获得帮助。”卡斯特还写道:“技术进步是司空见惯的,使用可靠的人工智能工具提供帮助并没有本质上的不妥。但现有规则对律师施加了把关作用,以确保他们提交的文书的准确性。”...PC版:https://www.cnbeta.com.tw/articles/soft/1366895.htm手机版:https://m.cnbeta.com.tw/view/1366895.htm

相关推荐

封面图片

律师用 ChatGPT 打官司,结果被骗引用不存在的案例

律师用ChatGPT打官司,结果被骗引用不存在的案例IT之家5月28日消息,据纽约时报报道,近日,一名律师在一起法庭案件中,依赖聊天机器人ChatGPT进行法律文献检索(legalresearch),导致提交了错误的信息。这一事件揭示了人工智能在法律领域的潜在风险,包括误传错误信息。该案件涉及一名男子因个人受伤而起诉一家航空公司,原告的法律团队提交了一份简短的诉讼文件,引用了几个先前的法院案例来支持他们的论点,试图为他们的诉求建立一个法律先例。然而,航空公司的律师发现,其中一些引用的案例并不存在,并立即通知了主审法官。凯文・卡斯特尔法官对这种情况表示惊讶,称其为“前所未有”,并下令要求原告的法律团队作出解释。原告律师之一史蒂文・施瓦茨承认自己使用了ChatGPT来搜索类似的法律先例,在一份书面声明中,施瓦茨深表遗憾,他说:“我以前从未使用过人工智能进行法律文献检索,也不知道它的内容可能是虚假的。”提交给法院的文件附有施瓦茨和ChatGPT之间的对话截图,在对话中施瓦茨询问了一个特定的案例:Varghesev.ChinaSouthernAirlinesCoLtd是否真实。ChatGPT回答说是真实的,并表示该案例可以在法律参考数据库如LexisNexis和Westlaw中找到。然而,后续的调查显示,该案例并不存在,进一步调查显示,ChatGPT捏造了6个不存在的案例。鉴于这一事件,涉案的两名律师,来自Levidow,Levidow&Oberman律师事务所的彼得・洛杜卡和史蒂文・施瓦茨将于6月8日出席一个纪律听证会,解释他们的行为。IT之家注意到,这一事件引发了法律界对于人工智能工具在法律研究中适当使用的讨论,以及制定全面指导方针以防止类似情况发生的需求。——投稿:@ZaiHuaBot频道:@TestFlightCN

封面图片

引用 ChatGPT 伪造案例的律师被罚 5000 美元

引用ChatGPT伪造案例的律师被罚5000美元一位美国法官对在法庭文件中引用ChatGPT伪造案例的两位律师及其律所罚款5000美元。曼哈顿地区法官KevinCastel命令StevenSchwartz、PeterLoDuca及律所Levidow,Levidow&Oberman支付罚金。法官称,技术进步司空见惯,使用可靠的AI工具提供帮助本质上是可接受的,但现有规则要求律师对此进行把关,确保所递交文件的准确性。在本案中,律师及其律所放弃了其责任,甚至在受到质疑后还坚持己见。Schwartz对此结果拒绝置评。来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

GPT-4考90分全假 30年资深律师用ChatGPT打官司 6个虚假案例成笑柄

GPT-4考90分全假30年资深律师用ChatGPT打官司6个虚假案例成笑柄然而,律师为自己辩护中,甚至提交了和ChatGPT聊天截图的证据。显然,ChatGPT称‘这些案例都是真实存在的’。本为原告打的官司,自己竟惹祸上身,将受到制裁,这波操作瞬间在网上引起轩然大波。毕竟,GPT-4刚诞生时,OpenAI放出它在律师资格考试(UBE)的成绩,还拿到了90分。网友警告,千万不要用ChatGPT进行法律研究!!!还有人戏称,要怪就怪你的prompt不行。律师承认使用ChatGPT这起诉讼的起始和其他许多案件一样。一位名叫RobertoMata的男子在飞往纽约肯尼迪国际机场的航班上,不幸被一辆餐车撞到膝盖,导致受伤。由此,他便要起诉这架航班的‘哥伦比亚航空公司’(Avianca)。Mata聘请了Levidow,Levidow&Oberman律所的一位律师来替自己打这个官司。接手案子后,律师StevenA.Schwartz向法院提交了一份10页的辩护状。其中,引用了6个相关的法院判决:VargheseV.中国南方航空公司ShaboonV.埃及航空公司PetersenV.伊朗航空公司Martinez 达美航空公司EstateofDurdenV.荷兰皇家航空公司MillerV.美国联合航空公司然而,让所有人震惊的是,从案件本身,到司法判决,再到内部引文,全是假的!为什么假?因为是ChatGPT生成的。这不,麻烦就来了。目前,对方律师考虑举行听证会,对原告律师进行制裁。Schwartz律师,可以说已经非常资深,在纽约从事法律工作已有30年。从他的话中得知,自己吃了大亏,竟是从来没用过ChatGPT,由此没有意识到它生成的内容是假的。说来,还是太离谱。原告律师StevenA.Schwartz在一份宣誓书中承认,他确实用了ChatGPT进行相关研究。为了验证这些案件的真实性,他做了唯一一件合理的事:让ChatGPT验证这些案件的真实性。他告诉法官,‘自己无意欺骗法庭或航空公司’。当他询问ChatGPT这些案件的来源时,ChatGPT先是为之前的表述不清道歉,但还是坚称这些案件都是真实的,可以在Westlaw和LexisNexis上找到。而对方律师也同样坚持,来自Levidow&Oberman律师事务所的原告律师是多么荒唐可笑,由此才引发了法庭对这个细节的重视。在其中一个案例中,有个叫Varghese的人起诉中国南方航空有限公司。然而这件事压根不存在。ChatGPT好像引用了另一个案件——Zicherman起诉大韩航空有限公司。而ChatGPT把日期、案件细节什么的都搞错了。Schwartz此时才悔恨地表示,他没有意识到ChatGPT可能提供假案件,现在他非常后悔用生成式AI来进行法律研究。法官表示,这种情况前所未见,并将于6月8日举行听证会,讨论可能的制裁措施。这件事情再次体现了一个很重要的事实,那就是用完ChatGPT必须用其它来源进行双重,甚至三重查证。而AI模型在信息输入上出现重大事实错误已经不是第一次了,Google的Bard也遇到过这种问题。90分?GPT-4成绩被夸大还记得GPT-4刚刚发布那天,‘小镇做题家’在各项考试指标上接近满分的水平。尤其,在美国统一律师资格考试(UBE)中,GPT-4可以拿到90%水平,而ChatGPT(GPT-3.5)也仅拿到10%的分数。但是,没过多久,来自MIT的研究人员EricMartínez发了一篇论文,重新评估了GPT-4在Bar考试中的表现。论文直言,GPT-4的律师考试成绩被夸大了。论文地址:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4441311作者在文中提出了4组发现,表明OpenAI对GPT-4在UBE的表现,尽管明显比GPT-3.5有令人印象深刻的飞跃,但似乎过于夸大。特别是,如果被当作代表‘百分位数下限范围’的保守估计。更不用说,意在反映一位执业律师的实际能力了。首先,GPT-4的律师考试成绩,是与2月份伊利诺伊州律师考试的应试者相比较的。值得注意的是,这些考生都是复读生,不难理解,他们的分数可能会更差。其次,最近一次七月份考试的数据表明,GPT-4的UBE成绩为68%。第三,通过检查官方NCBE数据,并使用若干保守的统计假设,估计GPT-4在所有首次考试中实现63%。最后,当只考虑那些通过考试的人(即已获得许可或待许可的律师)时,预计GPT-4的表现将下降到48%。网友称,更准确来说,GPT-4应该只有63分,或者68分。文中,作者还提供了深刻的见解,探讨了将法律任务外包给AI模型的可取性和可行性。甚至,人工智能开发人员实施严格和透明的能力评估,以帮助确保安全和可靠的人工智能的重要性。要是,原告的那位律师看过这项研究后,说不定就不会吃大亏了。ChatGPT胡说八道归根结底,ChatGPT能够编造出6个不在的案例,还是因为它固有的‘幻觉’问题。直白来讲,就是张口胡说八道的天性所致。就连马斯克都想拯救这个致命的问题,官宣推出了名为TruthGPT的AI平台。马斯克曾表示,TruthGPT将是一个‘最大的求真人工智能’,它将试图理解宇宙的本质。然而,别管什么GPT,幻觉很难搞定。前段时间,OpenAI联合创始人兼研究员JohnSchulman在演讲‘RLandTruthfulness–TowardsTruthGPT’中,讨论了幻觉产生的原因以及解决方案。根据Schulman的说法,幻觉大致可以分为两种类型:1模式完成行为,即语言模型无法表达自己的不确定性,无法质疑提示中的前提,或者继续之前犯的错误2模型猜测错误语言模型代表一种知识图谱,该图谱将训练数据中的事实存储在自己的网络中。而微调可以理解为‘学习一个函数’,能够在知识图谱上操作并输出token预测。比如,微调数据集中,如果有包含‘星球大战是什么片?’这个问题,以及‘科幻’这个答案。要是这一信息在原始训练数据中存在,那么模型就不会学习新信息,而是学习一种行为——输出答案。而这种微调也被称为‘行为克隆’。如果‘星球大战是什么片?’这一问题的答案不是原始训练数据的一部分。即便不知道,模型也会学习正确答案。但问题是,使用这些不在知识图谱中的答案进行微调,就会让模型学会编造答案,即产生所谓的‘幻觉’。相反,要是用不正确的答案去训练模型,就会导致模型知识网络隐瞒信息。网友热评此事一出,各位网友也是各抒己见。Kim表示,不光是ChatGPT,其实人类也爱用想象来弥补知识盲区。只不过ChatGPT能装的更逼真。关键在于,要搞清楚ChatGPT知道什么、不知道什么。Zero提出了一个很有建设性的提议,那就是:以后ChatGPT再举事例,后面得附上来源链接。Francis表示,早说过了,ChatGPT是一种生成式人工智能。意味着它会根据输入的问题生成回答。无论它有多能模仿人类在理解问题后的精彩回答,也改变不了ChatGPT本身并不理解这个问题的事实。Tricorn认为,这位原告律师不应该把锅扔给ChatGPT,是他自己用错了。应该是把事例当作prompt的一部分输入进去,然后让ChatGPT填补中间缺环的论证部分。还有网友称,用ChatGPT要上点心,要不下一个超级碗就是你了。这就是活灵活现的证据。ChatGPT等人工智能工具做人类的工作,真的是可能直接导致我们的大灾难。对于ChatGPT这个表现,你怎么看?...PC版:https://www.cnbeta.com.tw/articles/soft/1362117.htm手机版:https://m.cnbeta.com.tw/view/1362117.htm

封面图片

30年老律师用ChatGPT旁征博引:结果被骗得禁止执业!

30年老律师用ChatGPT旁征博引:结果被骗得禁止执业!老哥撰写案件文案的时候,尝鲜让ChatGPT帮忙准备材料。然而提交后,不管是法官、对方律师还是老哥自己,都溯源不到引用的判决文书。结果就是,10页文书被法官定义为“充满虚假”,老哥还被暂停执业许可,面临被制裁的可能。这位姓施的老哥欲哭无泪,因为秉承着一贯的严谨态度,他明明认真询问过ChatGPT,它提供“南方航空公司被诉案”等材料时,有没有撒谎?ChatGPT响应得很快:“当然没有啦~~”律师之间一直在争论类ChatGPT的AI的价值和危险性,也在讨论是不是有必要验证AI提供的信息。ChatGPT对法律工作带来的最大危险,就是它拥有“胡说八道还不脸红”的本领。OneMoreThing施老哥因为ChatGPT深陷泥潭的事情是真的,绝非通过AI瞎编。但是,这篇文章也是在ChatGPT的帮助下写的(虽然参与部分很少很少,还进行了事实确认)。——人类的本质就是套娃。#ChatGPT来源,来自:雷锋频道:@kejiqu群组:@kejiquchat投稿:@kejiqubot

封面图片

在得知律师事务所使用ChatGPT计算出过高律师费后 法官将账单数额砍了一半

在得知律师事务所使用ChatGPT计算出过高律师费后法官将账单数额砍了一半总部位于纽约的Cuddy律师事务所利用ChatGPT支持其申请,为该公司最近胜诉的一项审判收取巨额费用。卡迪代表一位母亲及其有特殊需要的孩子起诉了纽约市教育局。根据《残疾人教育法》,地方法院可酌情将合理的律师费作为费用的一部分判给胜诉方的残疾儿童父母。OpenAI的工具被问及,对于一名在残疾教育听证方面拥有最多三年经验的律师来说,合理的小时费率是多少。该工具指出,时薪可能在200美元到500美元之间,在某些法律领域具有专长的律师时薪可能更高,可达每小时1200美元或更多。根据ChatGPT的建议,CuddyLaw提交了一份113484美元的最终服务账单,相当于每小时约550美元至600美元。但联邦地区法官保罗-恩格尔迈耶(PaulEngelmayer)对该公司使用该技术计算账单的做法并不以为然。恩格尔迈耶在其意见书中写道:"卡迪律师事务所援引ChatGPT作为其咄咄逼人的收费要求的依据,完全没有说服力,这一点就足够了。"法官指出,由于ChatGPT没有指明它得出结论所使用的数据,因此无法知道这些信息是"非常真实和相关的",还是只是它编造出来的,这仍然是生成式人工智能面临的一个问题。还有人提到,该公司未能确定用于接收ChatGPT结论的精确输入。恩格尔迈耶法官指出了ChatGPT产生幻觉信息的众多法律案件中的两个。一个是马塔诉阿维安卡航空公司案,这是一起针对阿维安卡航空公司的人身伤害诉讼案。史蒂文-A-施瓦茨(StevenA.Schwartz)律师在该案中提交了一份长达10页的辩护状,其中援引了多个类似案件的相关法院判决,而所有这些判决都是ChatGPT捏造的。另一起名为"Park诉Kim"的案件涉及律师JaeLee,她在一起医疗事故诉讼案中使用ChatGPT进行研究,但没有确认她引用的案例是否有效,因此被提交给律师申诉小组。在Cuddy案中,恩格尔迈耶法官最终决定将该公司申请的律师费减半,减至53050美元,原因包括使用了ChatGPT。他补充说:"除非这一工具的可靠性发生了范式转变,否则建议卡迪律师事务所在今后的收费申请中不再提及ChatGPT"。...PC版:https://www.cnbeta.com.tw/articles/soft/1420719.htm手机版:https://m.cnbeta.com.tw/view/1420719.htm

封面图片

SEC 律师或因 DEBT Box 案的 “虚假陈述” 而受到制裁

SEC律师或因DEBTBox案的“虚假陈述”而受到制裁一份新的法庭文件显示,美国犹他州最高联邦法官RobertJ.Shelby命令证券交易委员会(SEC)解释其在实施和维持针对加密公司DEBTBox的临时限制令(TRO)过程中所做的声明,法官发现,SEC关于该命令的一些声明是“虚假或误导性的”,并表示SEC律师或将面临制裁。根据RobertJ.Shelby引用的联邦规则,制裁“应仅限于足以阻止此类行为重复发生的范围”,可能包括金钱处罚,但也可能仅限于“非金钱性质的指令”,SEC及其律师有14天的时间向RobertJ.Shelby做出回应。

🔍 发送关键词来寻找群组、频道或视频。

启动SOSO机器人