寂静回声 发表于 7 天前

把生成式AI用于正规场合简直是作死

美国犹他州(Utah)一名律师贝德纳(Richard Bednar)因在一份中期上诉请愿书中,援引了名为“罗耶尔诉内尔森”(Royer v Nelson)的判例,结果被发现这个判例并不存在,调查后发现,该判例是由ChatGPT所虚构出来的。最终,贝德纳为此对外致歉,犹他州上诉法院也判处贝德纳制裁1000美元。
综合外媒报导指出,整起事件源于贝德纳与其同事杜尔巴诺(Douglas Durbano)共同提出的请愿书。杜尔巴诺为申请人代表律师,但根据法院资料,他并未参与该文件的起草。请愿书的草拟由一名未具执照的法律助理负责,此人为一名已离职的法学院毕业生,该员使用ChatGPT进行法律研究,但后续并未详细确认后,就将研究结果提交法院。
在审阅过程中,对方律师发现其中多处引用内容有误,包含援引不存在的案件与无关主题的错误案例。更有甚者,该案唯一可查证的来源竟然只出现在ChatGPT生成内容中,甚至在进一步询问AI该案真伪时,系统本身也承认为错误并道歉。
在4月的听证会中,贝德纳与律师巴内克(Matthew Barneck)公开承认错误,表示并未在送出文件前亲自审查,愿意承担全责,并表示将补偿所有由此引发的法律费用。
根据法院命令,贝德纳除需支付对方律师费外,还必须退还客户因编写与处理该请愿书所支付的费用,并捐出1,000美元予犹他州非营利法律机构“正义为所有人”(And Justice for All)。
犹他州上诉法院在判决中强调,尽管科技进步使得人工智能日益成为法律研究的辅助工具,但律师作为法律实务专业人士,对提交法庭的文件内容仍负有不可推卸的审查责任。
法院同时表示,贝德纳并无意图欺骗法庭,因此不构成蓄意恶意行为。但州律师公会的专业行为办公室将对此事进行后续处理,并已开始与法律实务与伦理专家合作,制定有关AI伦理使用的相关指导方针。
报导中提到,这也并非是美国法律界首次出现类似争议。早在2023年,纽约律师施瓦茨(Steven Schwartz)、罗杜卡(Peter LoDuca)及其所属事务所Levidow, Levidow& Oberman就曾因提交引用虚构案件的文件,被法院裁定罚款5,000美元。当时的法官认为该事务所律师对法庭做出“蓄意规避事实及虚假和误导性陈述”,事后施瓦茨亦坦承使用ChatGPT协助撰写文件。
https://s3.bmp.ovh/imgs/2025/10/02/f23a5ad26ee96cf0.jpg
https://s3.bmp.ovh/imgs/2025/10/02/bda0c048f4f1f53f.jpg
https://s3.bmp.ovh/imgs/2025/10/02/8aa994393ed471d2.jpg
https://s3.bmp.ovh/imgs/2025/10/02/d33cdd5ad443af96.jpg
https://s3.bmp.ovh/imgs/2025/10/02/b3b5ef789b862548.jpg
网友总结的不错,这与我的实践感受基本一致,使用国产推理模型,至少两个以上进行对比,单独的国产推理模型幻觉太多,直接被坑死。
GPT-5、Grok4和Gemini2.5Pro,GPT-5即使让它“推理”,它也是采用简短回答。稍微详细点,它就得付费。
这一点不如Grok4和Gemini2.5Pro,它俩“推理”模式每天都有免费额度,一般足够用了。
对于有点难度的提问,“推理”时间都在1分半以上,而对比国产“推理”模型,30秒就给结果了,那胡说八道程度。

页: [1]
查看完整版本: 把生成式AI用于正规场合简直是作死