@ 2024.02.28 , 07:03

加拿大律师因引用ChatGPT编造的虚假案例受罚

Chong Ke 是一名卑诗省律师,代表一位名叫 Wei Chen 的百万富翁,他在与前妻 Nina Zhang 的离婚诉讼中争夺子女抚养权。

去年 12 月,Ke 在一份申请中引用了两起案例,支持 Wei Chen 带孩子去中国的请求。这两起案例分别是:

# 一位母亲带 7 岁的孩子去印度旅行六周
# 一位母亲获准带 9 岁的孩子去中国探望父母和朋友四周

然而,这两起案件后来被发现根本就不存在。它们是由聊天机器人 ChatGPT 生成的虚假案例。

法庭裁决

法官 David Masuhara 在裁决中写道:“正如这个案件不幸地表明的那样,生成式人工智能仍然不能替代法律体系要求律师具备的专业知识。”

“在选择和使用任何技术工具,包括那些由人工智能驱动的工具时,能力至关重要。”

Masuhara 接受了 Ke 的道歉,认为她没有故意欺骗法庭。但他也表示,Ke 应该承担对方律师为解决虚假案例造成的混乱而采取的措施的费用。

他还命令 Ke 审查她其他案件的文档,并立即向对方当事人和法庭报告任何由 ChatGPT 或其他生成式人工智能工具生成的文档。

事件影响

该事件引发了人们对律师使用人工智能工具的担忧。一些人认为,人工智能工具可以帮助律师提高效率和准确性。但其他人则担心,人工智能工具可能会被用来生成虚假信息或误导法庭。

该事件也提醒律师,他们有责任确保提交给法庭的所有材料都是准确和真实的。

以下是该事件的一些关键点:

# Ke 在法庭文档中引用了两起由 ChatGPT 生成的虚假案例。
# 这些案件被发现后,Ke 向对方律师道歉并承认了自己的错误。
# 法官接受了 Ke 的道歉,但认为她应该承担对方律师的费用。
# 这起事件凸显了在法律实践中使用人工智能工具的风险。

该事件也引起了加拿大律师界的反思。 卑诗省律师协会警告律师,他们有责任确保提交给法庭的所有材料都是准确和真实的。该协会还建议律师在使用人工智能工具时要谨慎,并告知法庭他们使用了这些工具。

本文译自 CBC News,由 BALI 编辑发布。

赞一个 (4)