La polizia ha usato l'IA per i verbali e ha detto che il poliziotto si è trasformato in una rana. Questo è un problema | Carscoops
Un bizzarro rapporto di polizia prodotto dall'IA mostra quanto i registri delle fermate stradali possano essere pericolosamente imprecisi
8 ore fa
di Stephen Rivers
Un'IA della polizia ha falsamente affermato che un agente si fosse trasformato in una rana durante una fermata.
L'errore mostra quanto facilmente l'IA possa interpretare erroneamente l'audio di sottofondo.
Verbali di polizia scritti male possono perseguitare gli automobilisti per molti anni.
Le fermate stradali non sono piacevoli per nessuno, ma c'è un nuovo problema che suona tanto falso quanto il poliziotto rana nella nostra immagine principale. A dicembre, la polizia di Heber City, nello Utah, ha dovuto spiegare perché un rapporto di polizia generato dall'IA affermava che un agente si fosse letteralmente trasformato in una rana. Il colpevole non era un tirocinante sarcastico né un agente fuori controllo. Era l'intelligenza artificiale che allucinava.
Altro: Un adesivo legale per la targa che inganna le telecamere AI della polizia potrebbe comunque mandarti in carcere in Florida
Il dipartimento stava testando un software di redazione dei rapporti alimentato dall'IA che ascolta le riprese delle body cam e redige automaticamente i verbali di polizia. Sfortunatamente, il sistema ha captato l'audio de La principessa e il ranocchio che suonava in sottofondo e lo ha inserito con sicurezza nel documento ufficiale.
«Il software della body cam e il software di redazione dei rapporti dell'IA hanno captato il film che stava passando in sottofondo, che per caso era "La principessa e il ranocchio"», ha detto il sergente Keel a Fox 13. «È stato allora che abbiamo imparato l'importanza di correggere questi rapporti generati dall'IA.»
Ora, oggettivamente è esilarante, ma è anche un po' preoccupante. Secondo la rete televisiva, questi strumenti di IA sono progettati per far risparmiare tempo agli agenti trasformando l'audio delle body cam in verbali scritti. In teoria, questo significa meno burocrazia e più tempo in pattuglia.
Quando il software scrive la storia
In pratica, significa anche che un algoritmo ora interpreta conversazioni, tono e rumori di fondo durante gli incontri sul ciglio della strada, comprese le fermate stradali che possono avere conseguenze a lungo termine per gli automobilisti.
Dipartimento della Pubblica Sicurezza dello Utah
Può essere facile considerare una fermata stradale come un'interazione breve, ma i registri di quelle fermate possono essere permanenti. Quel rapporto può influenzare fermate future, procedimenti giudiziari, richieste assicurative, sospensioni della patente e persino i controlli dei precedenti per l'impiego.
In altre parole, quando l'IA sbaglia, non si tratta solo di un errore di battitura. È disinformazione incorporata in un documento ufficiale.
Essere "abbastanza vicino" non è sufficiente
Nel caso di Heber City, l'errore era abbastanza evidente da poter essere preso con una risata. Ma cosa succede quando un'IA fraintende chi ha detto cosa, interpreta male il tono del conducente o riassume in modo errato perché una fermata è degenerata? Quegli errori sono molto più problematici.
Non solo potrebbero essere più difficili da individuare, ma ogni agente correggerà un linguaggio che è simile ma forse più intenso di quanto dovrebbe essere se è "abbastanza vicino"?
Per ora, sembra che la mossa migliore per gli automobilisti comuni sia iniziare a usare una dashcam e altri dispositivi di registrazione per garantire un resoconto che l'IA non possa manomettere.
Richiedere le riprese della body cam e i rapporti tramite la legge sulla libertà di informazione potrebbe rivelarsi vitale. Una rana in un rapporto è divertente, ma il tuo dossier permanente presso le autorità legali non è un gioco.
Dipartimento della Pubblica Sicurezza dello Utah
Altri articoli
La polizia ha usato l'IA per i verbali e ha detto che il poliziotto si è trasformato in una rana. Questo è un problema | Carscoops
Un bizzarro rapporto di polizia generato dall'IA mostra come i registri delle fermate stradali possano essere pericolosamente inaffidabili.
