美移民局报告惊现AI代笔,联邦法官揭露“噩梦场景”
在一份长篇法庭意见的注脚中,一名美国联邦法官近期严厉批评移民局探员使用人工智能(Artificial
Intelligence)撰写武力使用报告。法官指出,这种做法可能助长不准确性,并进一步侵蚀公众对执法部门在芝加哥(Chicago)地区处理移民镇压及后续抗议活动的信心。
美国地方法院法官萨拉·埃利斯(Sara
Ellis)在上周发布的长达223页的意见书中强调,使用ChatGPT来撰写这些报告,不仅损害了探员的可信度,而且“可能解释了这些报告为何不准确”。她详细描述,在至少一段随身摄录机的影片中,观察到一名探员在向程式提供一个简短的描述性句子和几张图片后,指示ChatGPT为报告编写一份叙述。法官同时也指出了官方执法记录与随身摄录机影片所揭示的事实之间存在差异。
AI报告引发的准确性危机
专家们认为,在没有融入警员实际经验的情况下,单纯依赖其特定视角来利用人工智能起草报告,构成了对该技术最糟糕的应用,并引发了对准确性和隐私的严重关切。全国各地的执法机构一直在努力制定指导方针,以便在允许警员使用日益普及的人工智能技术的同时,维持准确性、隐私和专业性。专家表示,法庭意见中描述的案例未能应对这一挑战。
南卡罗来纳大学(University of South Carolina)犯罪学助理教授伊恩·亚当斯(Ian
Adams)表示:“这个家伙所做的,是所有可能情况中最糟糕的。如果他真的只给了一句话和几张图片,那这就违背了我们所有的建议。这是一个噩梦般的场景。”亚当斯同时在无党派智库刑事司法委员会(Council
for Criminal
Justice)的人工智能专责小组任职。法院在审议使用武力是否合理时,已确立了所谓的“客观合理性”标准,该标准在很大程度上依赖于特定警员在特定情境下的视角。亚当斯补充说:“我们需要该事件的具体陈述和该警员的具体想法,才能判断这是否是合理使用武力。”...