美移民局報告驚現AI代筆,聯邦法官揭露「噩夢場景」
在一份長篇法庭意見的註腳中,一名美國聯邦法官近期嚴厲批評移民局探員使用人工智慧(Artificial
Intelligence)撰寫武力使用報告。法官指出,這種做法可能助長不準確性,並進一步侵蝕公眾對執法部門在芝加哥(Chicago)地區處理移民鎮壓及後續抗議活動的信心。
美國地方法院法官薩拉·埃利斯(Sara
Ellis)在上周發布的長達223頁的意見書中強調,使用ChatGPT來撰寫這些報告,不僅損害了探員的可信度,而且「可能解釋了這些報告為何不準確」。她詳細描述,在至少一段隨身攝錄機的影片中,觀察到一名探員在向程式提供一個簡短的描述性句子和幾張圖片後,指示ChatGPT為報告編寫一份敘述。法官同時也指出了官方執法記錄與隨身攝錄機影片所揭示的事實之間存在差異。
AI報告引發的準確性危機
專家們認為,在沒有融入警員實際經驗的情況下,單純依賴其特定視角來利用人工智慧起草報告,構成了對該技術最糟糕的應用,並引發了對準確性和隱私的嚴重關切。全國各地的執法機構一直在努力制定指導方針,以便在允許警員使用日益普及的人工智慧技術的同時,維持準確性、隱私和專業性。專家表示,法庭意見中描述的案例未能應對這一挑戰。
南卡羅來納大學(University of South Carolina)犯罪學助理教授伊恩·亞當斯(Ian
Adams)表示:「這個傢伙所做的,是所有可能情況中最糟糕的。如果他真的只給了一句話和幾張圖片,那這就違背了我們所有的建議。這是一個噩夢般的場景。」亞當斯同時在無黨派智庫刑事司法委員會(Council
for Criminal
Justice)的人工智慧專責小組任職。法院在審議使用武力是否合理時,已確立了所謂的「客觀合理性」標準,該標準在很大程度上依賴於特定警員在特定情境下的視角。亞當斯補充說:「我們需要該事件的具體陳述和該警員的具體想法,才能判斷這是否是合理使用武力。」...