人工智能
加拿大律师因引用ChatGPT编造的虚假案例受罚
Chong Ke 是一名卑诗省律师,代表一位名叫 Wei Chen 的百万富翁,他在与前妻 Nina Zhang 的离婚诉讼中争夺子女抚养权。
去年 12 月,Ke 在一份申请中引用了两起案例,支持 Wei Chen 带孩子去中国的请求。这两起案例分别是:
# 一位母亲带 7 岁的孩子去印度旅行六周
# 一位母亲获准带 9 岁的孩子去中国探望父母和朋友四周
然而,这两起案件后来被发现根本就不存在。它们是由聊天机器人 ChatGPT 生成的虚假案例。
法庭裁决
法官 David Masuhara 在裁决中写道:“正如这个案件不幸地表明的那样,生成式人工智能仍然不能替代法律体系要求律师具备的专业知识。”
“在选择和使用任何技术工具,包括那些由人工智能驱动的工具时,能力至关重要。”
Masuhara 接受了 Ke 的道歉,认为她没有故意欺骗法庭。但他也表示,Ke 应该承担对方律师为解决虚假案例造成的混乱而采取的措施的费用。
他还命令 Ke 审查她其他案件的文档,并立即向对方当事人和法庭报告任何由 ChatGPT 或其他生成式人工智能工具生成的文档。
事件影响
该事件引发了人们对律师使用人工智能工具的担忧。一些人认为,人工智能工具可以帮助律师提高效率和准确性。但其他人则担心,人工智能工具可能会被用来生成虚假信息或误导法庭。
该事件也提醒律师,他们有责任确保提交给法庭的所有材料都是准确和真实的。
以下是该事件的一些关键点:
# Ke 在法庭文档中引用了两起由 ChatGPT 生成的虚假案例。
# 这些案件被发现后,Ke 向对方律师道歉并承认了自己的错误。
# 法官接受了 Ke 的道歉,但认为她应该承担对方律师的费用。
# 这起事件凸显了在法律实践中使用人工智能工具的风险。
该事件也引起了加拿大律师界的反思。 卑诗省律师协会警告律师,他们有责任确保提交给法庭的所有材料都是准确和真实的。该协会还建议律师在使用人工智能工具时要谨慎,并告知法庭他们使用了这些工具。