Meno farlocca di una realtà distopica, più veritiera di un’ipotesi realistica. Succede negli Stati Uniti, dove è possibile che un rapporto di polizia venga stilato da un modello di intelligenza artificiale capace di interpretare e trascrivere l’audio estratto dalla bodycam di un agente. Si chiama Draft One e utilizza l’intelligenza artificiale basata sul modello GPT-4 Turbo di OpenAI per trascrivere l’audio delle telecamere del corpo e trasformarlo automaticamente in un rapporto di polizia. È l’ultimo prodotto di Axon, un’azienda leader nel settore delle soluzioni tecnologiche per le forze dell’ordine.

L’amministratore delegato di Axon, Rick Smith, ha dichiarato a Forbes che gli agenti di polizia saranno quindi in grado di esaminare il documento per garantirne l’accuratezza. Uno dei primi tester dello strumento, il dipartimento di polizia di Fort Collins in Colorado, ha registrato una diminuzione dell’82% del tempo dedicato alla stesura di rapporti. “Se un agente trascorre metà della sua giornata a riferire, e possiamo dimezzare questi tempi, abbiamo l’opportunità di liberare potenzialmente il 25% del tempo di un agente per tornare a fare attività di polizia”, ha detto Smith.

Questi rapporti, tuttavia, sono spesso utilizzati come prove nei processi penali e le perplessità al riguardo non sono poche. La prima obiezione che viene mossa riguarda la capacità dell’intelligenza artificiale di interpretare correttamente il linguaggio e distinguere quei modelli linguistici che possono mostrare pregiudizi razziali, palesemente o inconsciamente.

“È una sorta di incubo”, ha detto Dave Maass, direttore delle indagini sulle tecnologie di sorveglianza presso la Electronic Frontier Foundation.

“La polizia, che non è specializzata nell’intelligenza artificiale e non sarà specializzata nel riconoscere i problemi dell’intelligenza artificiale, utilizzerà questi sistemi per generare un linguaggio che potrebbe influenzare milioni di persone nel loro coinvolgimento con il sistema di giustizia penale.” Smith ha detto che Axon sta raccomandando alla polizia di non utilizzare l’intelligenza artificiale per scrivere rapporti per incidenti gravi come una sparatoria con la polizia, in cui potrebbero sfuggire informazioni vitali. “Una sparatoria che coinvolge un agente è probabilmente uno scenario in cui non verrebbe usata, e probabilmente sconsiglierei alle persone di farlo, solo perché c’è così tanta complessità, la posta in gioco è così alta”. L’amministratore delegato di Axon ha anche riferito che alcuni tra i primi clienti stanno usando Draft One solo per reati minori, anche se altri stanno scrivendo “incidenti più significativi”, inclusi casi di uso della forza. Axon, tuttavia, non avrà il controllo sul modo in cui i singoli dipartimenti di polizia utilizzano gli strumenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *