一位律师使用ChatGPT写辩护状 现在不得不为其"假"的引证做出解释
一位律师使用ChatGPT写辩护状现在不得不为其"假"的引证做出解释律师史蒂芬-A-施瓦茨在一份宣誓书中承认,他曾使用OpenAI的聊天机器人进行研究。为了核实这些案件,他做了唯一合理的事情:他问聊天机器人是否在撒谎。一张截图显示,律师问其中一个引用的案例是否真实,而聊天机器人回答说是,律师接着问:"你的消息来源是什么?"结果ChatGPT为之前的混乱叙述道歉,并坚持认为该案件是真实的,说可以在Westlaw和LexisNexis上找到。他很满意,问其他案件是否是假的,ChatGPT坚持认为它们都是真的。对方律师在叙述Levidow,Levidow&Oberman律师提交的材料是如何充满谎言的时候,让法庭意识到了这个问题的细节。在一个例子中,一个名为Varghesev.ChinaSouthernAirlinesCo.,Ltd.的不存在的案例中,聊天机器人似乎参考了另一个真实的案例Zichermanv.KoreanAirLinesCo.,Ltd.,但把日期(和其他细节)弄错了,说它是在1996年的原始裁决12年后决定的。施瓦茨说他"没有意识到其内容可能是假的"。他现在"非常后悔利用生成性人工智能来补充这里进行的法律研究,并且在没有绝对核实其真实性的情况下,今后也不会这样做。"施瓦茨没有被允许在纽约南区执业,但在诉讼被转移到该法院之前,他最初提出了诉讼,并说他继续在这方面工作。同一公司的另一名律师彼得-罗杜卡(PeterLoDuca)成为该案的记录律师,他将不得不在法官面前解释到底发生了什么。这再次凸显了使用聊天机器人进行研究而不在其他地方对其来源进行双重(或三重)检查的荒谬性。微软的必应首次亮相,现在已经与赤裸裸的谎言、气话和情感操纵臭名昭著。Google的人工智能聊天机器人Bard在其第一个演示中编造了一个关于詹姆斯-韦伯太空望远镜的事实。在今年三月的一个搞笑的例子中,Bing甚至谎称Bard被关闭了。法官指出了律师的辩护状是一个绝对的谎言大会:如果你连字母"e"在番茄酱中出现了多少次都搞不清楚,那么在模仿书面语言的模式以保持坚定的信心方面做得再好也没有什么价值。...PC版:https://www.cnbeta.com.tw/articles/soft/1362055.htm手机版:https://m.cnbeta.com.tw/view/1362055.htm
在Telegram中查看相关推荐
🔍 发送关键词来寻找群组、频道或视频。
启动SOSO机器人