Sam Altman, CEO di OpenAI – la società che ha creato ChatGpt – nel corso di un’audizione davantia alla sottocomissione Giustizia del Senato a Washington ha indicato necessaria una normativa nel settore dell’Intelligenza Artificiale e ha esortato il Congresso a lavorare con OpenAI e altre aziende del settore per stabilire regole e standard di sicurezza.
Lo riferisce il sito Axios spiegando che Altman sostiene che l’AI generativa è qualcosa di diverso da quanto esisteva in precedenza e richiede interventi normativi specifici.
Altman ritiene che l’intelligenza artificiale può offrire all’umanità vantaggi ma ha anche evidenziato effetti negativi come la perdita di posti di lavoro nei quali si fa ricorso all’automazione, ed evidenziato potenziali pericoli in vari ambiti: «Le cose potrebbero finire molto male: dobbiamo dirlo ad alta voce e lavorare col governo per evitare che ciò accada».
Il CEO di OpenAI ha esortato la creazione di un ente governativo per stabilire regole sul licensing di determinati sistemi oltre una soglia cruciale di capacità. “Il mio peggiore incubo è che [questa tecnologis, ndr] possa causare danni rilevanti al mondo”, ha dichiarato Altman, evidenziando la possibilità di agire in modo autonomo e l’esposizione a manipolazioni dall’esterno.
Nel corso della discussione al Senato USA si è parlato della possibilità di alterare le dinamiche elettorali, evidenziando pericoli in vista delle presidenziali 2024, e di come l’intelligenza artificiale potrebbe moltiplicare e rendere difficile da contrastare fake news e disinformazione, riproducendo ad esempio immagini, video e riproduzioni vocali false, elementi che è possibile creare con l’IA in modo sempre più perfetto e indistinguibile dal vero.
Di tutto ciò, Altman ha riferito di essere consapevole e ha ribadito la volontà di lavorare con il governo per evitare scenari di questo tipo ma ha anche sottolineato la necessità di tenere conto degli effetti dei social: fake news e affini passano sempre da qui e non sono stati mai regolamentati dal Congresso.
Buona volontà di Altman a parte, c’è anche chi fa notare che ha evitato di prendere impegni sulla trasparenza dei metodi di addestramento dei modelli di machine learning, e a non usare per l’addestramento contenuti protetti da copyright, opere d’arte e altre opere di ingegno; ha riferito che è giusto riconoscere il valore economico ai titolari ma non indicato soluzioni per retribuire le fonti usate dagli algoritmi usati dalle tecnologie di IA.
Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet