Con una sentenza prima del suo genere negli Stati Uniti, un giudice di Washington che presiede un triplice caso di omicidio ha stabilito che non è possibile presentare come prove filmati migliorati mediante tecnologie di Intelligenza Artificiale.
Spiegando la decisione, il giudice Leroy McCullough ha riferito di timori riguardo a metodologie poco chiare sfruttate dalle tecnologie AI per mettere in mostra quello che queste ritengono utile essere mostrato, elementi che potrebbero potenzialmente confondere i giurati e pregiudicare la deposizione dei testimoni oculari. Secondo il giudice, accettare filmati elaborati con l’AI come prove può portare a un processo lungo senza tenere conto di alutazioni paritarie per quanto concerne i modelli usati dalle AI.
Il video oggetto del contendere risale al 2021 e mostra una sparatoria all’esterno di un pub, una successione di colpi d’arma da fuoco che ha portato alla morte di tre persone e di due feriti. L’uomo accusato degli omicidi afferma che stava cercando di far sedare una rissa tra due persone, che è stato colpito all’improvviso ed avrebbe agito per legittima difesa, rispondendo al fuoco e colpendo i presenti.
Un filmato di 10 secondi girato con un telefono cellulare postato su Snapchat mostra la sparatoria. I difensori dell’uomo sotto accusa hanno cercato di presentare una versione del filmato migliorata dal punto di vista visivo con tecnologie di machine learning, al fine di mostrare meglio quanto si vede nel video dal momemto che l’originale è a bassa risoluzione ed è sfocato in alcuni punti; la versione migliorata con l’AI mostra una risoluzione maggiore, migliore nitidezza, definizione e morbidezza.
Il sito statunitense The Hill spiega che l’accusa ha evidenziato che non esistono precedenti nei quali sono state usate tecnologie AI di questo tipo, definendo il filmato migliorato “inaccurato, fuorviante e inaffidabile”, elementi che hanno convinto il giudice a rifiutare il video migliorato come prova.
A inizio marzo il Parlamento europeo ha approva la legge sull’intelligenza artificiale; i sistemi di IA per finalità generali dovranno soddisfare determinati requisiti di trasparenza e i modelli più potenti, che potrebbero comportare “rischi sistemici,” dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti. Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.