Diversi dipendenti avvelenati con i loro ex datori di lavoro, si stanno vendicando inondando le aziende di cause legali costose e inaccurate nel merito usando suggerimenti che arrivano dall’Intelligenza Artificiale.
Lo riferisce The Telegrah parlando della frustrazione tra avvocati del lavoro i quali evidenziano un crescente trend tra parti in causa che usano l’AI per le rispettive rivendicazioni, scelta che porta ad “argomentazioni errate, lunghe e spesso incongruenti” e a una impennata nelle spese legali.
Indicare informazioni altamente confidenziali in strumenti quali ChatGPT, è altresì un rischio per la privacy, avvertono i legali.
Ailie Murray, una partner dello studio Travers Smith, riferisce di una consistente crescita nella presentazione di documenti generati dalle AI, “spesso eccessivamente lunghi e densi di incongruenze”, con datori di lavoro costretti a spendere grandi quantità di denaro per rispondere.

Spiega ancora l’avvocato: “In molti casi, i risultati ottenuti con le AI sono inaccurati, portando il ricorrente a reclamare richieste infondate o indicare argomentazioni sbagliate”.
“Il datore di lavoro non può semplicemente ignorare tali richieste, e questo porta a un ciclo di corrispondenza continua a costosa. Queste dinamiche possono sovraccaricare i già intasati tribunali per discutere di affermazioni infondate e malamente formulate”.
L’impatto delle AI in ambito legale sta diventando un problema, un ambito nel quale, invece, dovrebbe vincere la linea della prudenza.
Studi legali come lo statunitense Morgan & Morgan hanno sottolineato al personale di fare attenzione perché le AI possono inventare di sana pianta casi di giurisprudenza e l’uso di queste tecnologie può portare al licenziamento. La decisione è arrivata dopo che un giudice ha minacciato di imporre sanzioni due avvocati dello studio in questione che avrebbero citato casi di fantasia nell’ambito di una casa legale contro Walmart. Si è scoperto che gli avvocati utilizzavano l’intelligenza artificiale per preparare i documenti, ma il sistema citava casi inesistenti andando in Allucinazione.
Come noto, le AI tendono a fornire risposte sempre e comunque, a volte generando informazioni che non corrispondono alla realtà o che non sono coerenti con i dati di input forniti, interpretando erroneamente i dati o estrapolando informazioni non realistiche, quelle che in gergo sono definite “allucinazioni nell’output dell’AI”.
Per tutti gli articoli dedicati all’intelligenza artificiale si parte da questa pagina di macitynet.