Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » AI - Intelligenza Artificiale » Rivoluzione AI parte 6, bisogna aver paura dell’AI? Risponde Anthropic dei fratelli Amodei

Rivoluzione AI parte 6, bisogna aver paura dell’AI? Risponde Anthropic dei fratelli Amodei

Continuiamo la nostra escursione nel mondo dell’intelligenza artificiale e delle direzioni che sta prendendo chiedendoci se bisogna aver paura dell’AI e chi dice di no.

Il nome stesso dovrebbe tranquillizzare: “Anthropic” ha dentro la parola greca per “essere umano” (la stessa radice di “antropologia”, per intendersi). E un quarto di italianità, forse la vera ricetta per un punto di vista umanistico sull’intelligenza artificiale che porta a una divergenza rispetto al neo-pragmatismo utilitarista e transazionale degli statunitensi, visto che i due fondatori sono sì americani di prima generazione ma la loro famiglia (e il loro nome) è molto italiano.

È proprio Daniela Amodei, cofondatrice e presidente di Anthropic, a spiegare che il nome è stato scelto per sottolineare come l’AI debba essere progettata per servire e collaborare con le persone, aiutandole a raggiungere i propri obiettivi e vivere meglio. Questo approccio, a dire di Amodei, si manifesta sia nel design dei loro modelli, come Claude, sia nei processi di sviluppo, che includono tecniche come il reinforcement learning basato sul feedback umano. Insomma, il nome “Anthropic” rappresenta la filosofia centrale dell’azienda: un’AI sviluppata in modo sicuro, etico e allineato ai valori umani, con l’obiettivo di minimizzare i rischi e massimizzare i benefici per la società.

Questo, almeno in teoria. Ma nella pratica ci fa vedere non soltanto la strategia di una delle grandi aziende che stanno modellando il mercato dell’intelligenza artificiale, quanto quello che potremmo definire l’elefante in mezzo alla stanza: nonostante tutta l’enfasi e la capacità trasformativa, l’AI fa paura. A ragione o a torto?

Gli enormi timori dell’opinione pubblica

Sta smuovendo le montagne dei capitali e cambiando il modo con cui si lavora e ci si intrattiene, certamente. Ma la corsa all’intelligenza artificiale ha generato, oltre a tanto entusiasmo, enormi timori nell’opinione pubblica. Ogni settimana emergono dibattiti accesi sulle potenzialità e i rischi di queste tecnologie, spesso alimentati da scenari distopici più cinematografici che realistici. Anthropic si inserisce in questo panorama come una voce che la fa distinguere. Fondata nel 2021 da chi ha scelto di allontanarsi dalla direzione presa da OpenAI, ha come obiettivo “perseguire una visione più incentrata sulla sicurezza”. La missione dell’azienda è chiara: sviluppare sistemi di intelligenza artificiale che siano intrinsecamente sicuri, trasparenti e allineati ai valori umani.

La storia delle origini è semplice. Anthropic è nata dalla decisione dei fratelli italo-americani Dario e Daniela Amodei di lasciare OpenAI, dove occupavano rispettivamente i ruoli di vicepresidente della ricerca e vicepresidente della sicurezza. La separazione è avvenuta per divergenze sulla direzione intrapresa da OpenAI, sempre più orientata alla rapida commercializzazione delle proprie tecnologie. Nel nome stesso dell’azienda, come abbiamo visto derivato dal greco “anthropos” (essere umano), si riflette la filosofia che guida il loro approccio: mettere l’uomo al centro dello sviluppo dell’intelligenza artificiale. Grazie a finanziamenti significativi, che hanno portato la valutazione dell’azienda a circa 5 miliardi di dollari, Anthropic ha potuto dedicarsi a costruire un’alternativa concreta nel mercato dell’AI generativa.

Il prodotto di punta dell’azienda è Claude, un assistente conversazionale che compete direttamente con ChatGPT di OpenAI. Claude si distingue per la sua architettura basata su quello che Anthropic definisce un approccio “costituzionale”, che integra principi etici direttamente nel processo di addestramento del modello. L’attenzione alla sicurezza, second Anthropic, non è solo un elemento di marketing, ma una caratteristica fondante del prodotto, progettato per ridurre i rischi di risposte inappropriate o dannose. L’evoluzione dei modelli di Claude, arrivati alla terza generazione con le varianti Haiku, Sonnet e Opus, indica l’impegno costante dell’azienda nel migliorare non solo le capacità, ma anche l’affidabilità dei propri sistemi.

Un panorama sempre più competitivo

Nel mercato dell’intelligenza artificiale generativa si è sviluppata una competizione serrata tra diversi attori. OpenAI, con ChatGPT e GPT-4 (ora GPT-4.1), mantiene una posizione dominante grazie alla partnership con Microsoft e a una strategia aggressiva di commercializzazione. Invece Google risponde con Gemini, evoluzione del precedente Bard, puntando sulla propria infrastruttura e sull’integrazione con i servizi di ricerca. Perplexity rappresenta invece un approccio innovativo, posizionandosi come motore di risposte anziché semplice chatbot, con particolare attenzione alla citazione delle fonti.

In questo panorama Anthropic si distingue per l’equilibrio tra capacità avanzate e attenzione alla sicurezza, ponendosi come alternativa etica senza sacrificare le prestazioni.

C’ìè una cosa importante da capire, però. Le differenze tra questi modelli non sono solo tecniche, ma riflettono visioni diverse del futuro dell’intelligenza artificiale. OpenAI, nonostante la struttura ibrida no-profit/for-profit, ha mostrato un crescente orientamento commerciale, culminato nelle tensioni che hanno portato al temporaneo allontanamento del CEO Sam Altman nel 2023. Google, con la sua posizione dominante nel mercato della ricerca, vede nell’AI generativa sia un’opportunità che una minaccia per il proprio modello di business e ha un rapporto a volte contraddittorio. Anthropic, pur ricevendo finanziamenti significativi anche da Amazon, mantiene come priorità la sicurezza e l’allineamento etico, continuando la ricerca su quello che definisce “AI costituzionale“.

La vera disputa non riguarda solo la superiorità tecnica dei modelli, ma piuttosto quale approccio prevarrà nella definizione degli standard del settore. Le scelte di oggi determineranno come l’intelligenza artificiale si evolverà nei prossimi anni, con implicazioni profonde per l’intera società. La presenza di aziende con filosofie diverse in realtà rappresenta un vantaggio per l’ecosistema, poiché stimola l’innovazione in direzioni complementari e offre agli utenti la possibilità di scegliere soluzioni più allineate ai propri valori.

Una paura ingiustificata

Veniamo al problema dei problemi: l’effetto Terminator (e SkyNet). Bisogna aver paura dell’AI? La risposta è semplice: non è necessario temere l’intelligenza artificiale, ma piuttosto comprenderne le reali capacità e limiti. Non è retorica, è semplice buon senso. L’approccio di Anthropic dimostra che è possibile sviluppare sistemi avanzati mantenendo al centro l’interesse umano e la sicurezza. I rischi esistono e non vanno sottovalutati, ma la narrazione catastrofista che circonda l’AI spesso oscura le possibilità concrete di gestire questi rischi in modo efficace. La presenza di aziende come Anthropic, che fanno della sicurezza un elemento fondante della propria missione, rappresenta un importante contrappeso alle pressioni commerciali che potrebbero spingere verso uno sviluppo meno cauto.

Certo, tra apocalittici e integrati, come divideva il mondo Umberto Eco, ci sono anche delle sfumature intermedie. E poi le persone esprimono, a seconda del momento storico e del contesto idee diverse. Dario Amodei, ceo di Anthropic, ha recentemente dato spazio preoccupazioni sui rischi futuri dell’AI, sottolineando però che proprio per questo è necessario un approccio rigoroso e responsabile. Le sue dichiarazioni in realtà non devono gettare le persone nel panico, quanto evidenziare che chi lavora più a stretto contatto con queste tecnologie è anche chi ne comprende meglio i potenziali rischi e l’importanza di affrontarli. Il futuro dell’intelligenza artificiale dipenderà dalla capacità dell’industria di autoregolarsi e accettare le regolamentazioni esterne, come quelle a cui lavorano l’Unione europea e il Parlamento italiano, ad esempio. C’è infatti anche la volontà dei governi di mezzo mondo (Stati Uniti esclusi, a quanto pare) di implementare normative appropriate senza soffocare l’innovazione. Gli utenti possono contribuire a questo processo rimanendo informati e sostenendo le aziende che adottano approcci più responsabili.

La trasparenza su limiti e capacità dei sistemi di AI (ad esempio, non “succhiare” i dati degli utenti per usarli per addestrarla) è un elemento cruciale per costruire la fiducia del pubblico. Claude, ad esempio, è progettato per essere più trasparente riguardo a ciò che sa e ciò che non sa, ammettendo i propri limiti anziché inventare risposte plausibili ma inaccurate.

Se ci si registra come utenti, si usa per un po’ e poi si chiede a ChatGPT di dirci quale profilo emerge dalle nostre interazioni precedenti, l’AI generativa di OpenAI è bravissima a rivedere tutto quello che abbiamo fatto e raccontarcelo in sintesi. Provate con questo prompt, ad esempio: “Descrivimi in base a tutte le nostre chat. Parla chiaro e in modo diretto”. Il risultato potrebbe sorprendervi.

Invece, tutto questo non è semplicemente possibile con Claude perché Anthropic non consente alla sua AI di ricordare troppe cose su di noi: “Non ho accesso alle conversazioni precedenti che potresti aver avuto in altre sessioni di Claude. Ogni nuova chat con me è indipendente e non conservo memoria delle interazioni passate tra diverse sessioni”.

Questa caratteristica di Claude rappresenta un vantaggio significativo in scenari dove l’affidabilità è prioritaria rispetto alla semplice impressione di onniscienza. L’onestà sui limiti della tecnologia è un segno di maturità dell’industria e un passo necessario verso un’integrazione responsabile dell’AI nella società. Anche se è molto più comodo quando le risposte sono molto più calibrate e personalizzate, cosa che si ottiene raccogliendo i dati delle precedenti conversazioni. È come una coperta mal proporzionata: troppo corta per coprire contemporaneamente i piedi e la testa.

Rivoluzione AI parte 6, bisogna aver paura dell'AI? Cosa risponde Anthropic dei fratelli Amodei - macitynet.it
Rivoluzione AI parte 6, bisogna aver paura dell’AI? Cosa risponde Anthropic dei fratelli Amodei

Il futuro secondo Anthropic

La visione a lungo termine di Anthropic va oltre lo sviluppo di prodotti commerciali di successo. I fratelli Amodei puntano a stabilire un nuovo standard per lo sviluppo etico dell’intelligenza artificiale, influenzando l’intero settore. Gli ingenti finanziamenti ricevuti dall’azienda servono a questo: mantenere un forte focus sulla ricerca fondamentale, esplorando soluzioni innovative per garantire che l’AI rimanga uno strumento al servizio dell’umanità. Infatti, come si è lungamente dibattutto anche a seguito dell’exploit di DeepSeek, una organizzazione orientata alla commercializzazione immediata dei prodotti di AI generativa in un ambito scientificamente immaturo in cui serve moltissima capacità di calcolo per sviluppare i prodotti e trovare le innovazioni, è controproducente: le risorse vengono dirottate quotidianamente verso i clienti (per evitare che non ci sia abbastanza capacità di calcolo a loro disposizione) a scapito dei miglioramenti e delle innvoazioni.

L’approccio costituzionale, che incorpora principi etici direttamente nell’architettura dei modelli, potrebbe diventare un paradigma dominante man mano che l’industria matura.

Il modello di business di Anthropic bilancia la necessità di sostenibilità economica con la fedeltà alla propria missione. L’azienda ha dimostrato che è possibile attrarre investimenti significativi pur mantenendo un forte focus sulla sicurezza e sull’etica. Questo potrebbe indicare un cambiamento nelle priorità degli investitori, sempre più consapevoli dell’importanza di uno sviluppo responsabile dell’AI. La sfida per Anthropic sarà mantenere questa indipendenza di visione man mano che cresce e compete con giganti tecnologici dalle risorse praticamente illimitate.

Il contributo più significativo di Anthropic, secondo i suoi fondatori, non essere un singolo prodotto, ma l’aver dimostrato che esiste un mercato per l’intelligenza artificiale sviluppata in modo responsabile. L’azienda sta tracciando una strada alternativa che altri potrebbero seguire, influenzando l’intero settore verso standard più elevati di sicurezza ed etica. In un mondo sempre più plasmato dall’intelligenza artificiale, è importante (almeno sulla carta) avere dei guardiani attenti come i fratelli Amodei e il loro team. Dovrebbero essere quella risorsa che garantisce che la tecnologia dell’AI generativa rimanga uno strumento al servizio del progresso umano, e non diventi invece una minaccia.

<em>Le puntate di questa serie:</em>

‌Rivoluzione AI parte 3, il cambiamento silenzioso della nostra economia

Rivoluzione AI parte 4, l’intelligenza artificiale cambia le regole delle ricerche online

Rivoluzione AI parte 5, perché Google sfida il grande tabù dando corpo all’AI

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

Offerte Speciali

Airtag già in vendita su Amazon

Gli Airtag tornano in sconto, quattro a solo 94 €

Su Amazon l'Airtag in confezione da scende ad un prezzo ottimo. Pagate il pacchetto solo 94 €, il prezzo più basso da mesi a questa parte
Pubblicità
Pubblicità

Ultimi articoli