mercoledì 19 febbraio 2025

Il dilemma della DeepSeek

The Guardian, Regno Unito

 

Otto anni fa Viladimir Putin disse che avere il controllo sull’intelligenza artificiale (ia) avrebbe permesso di “dominare il mondo”. Le sanzioni occidentali forse hanno ridimensionato le sue ambizioni di riuscirci. Ma a gennaio la start-up cinese DeepSeck ha presentato il chatbor R1, in grado di fare concorrenza a quello della statunitense OpenAi con una potenza di calcolo inferiore e a un decimo dei costi.

Il lancio è arrivato dopo che il presidente degli Stati Uniti Donald Trump ha approvato lo Stargate, un piano da cinquecento miliardi di dollari con cui la OpenAi vorrebbe sbaragliare la concorrenza. Il successo della DeepSeek è una dimostrazione che la necessità aguzza l'ingegno: in assenza di grandi data center e processori potenti, l'azienda ha ottenuto risultati eccellenti ottimizzando il softvware. Inoltre il codice di R1 è pubblico e quindi chiunque può modificarlo. Ma quest'apertura ha dei limiti. R1 rispetta i “valori socialisti”: se gli si chiedono informazioni su Tiananmen o su Taiwan, interrompe la conversazione. La vicenda ripropone il dibattito sul futuro dell'ia: è meglio tenerla al sicuro attraverso i brevetti, al servizio di poche multinazionali, o dovrebbe essere open source per favorire l'innovazione? I rischi sono innegabili: a febbraio del 2014 l'OpenAi ha cancellato alcuni profili legati ad hacker finanziati da Cina, Iran, Russia e Corea del Nord. La contraddizione è chiara: l'ia open source democratizza la tecnologia e alimenta il progresso, ma può essere sfruttata dai malintenzionati.

Questa tensione tra innovazione e sicurezza mostra che servono regole internazionali condivise. Bisognerebbe ascoltare Geoffrey Hinton, pioniere dell'ia e premio Nobel per la fisica, quando dice che il ritmo frenetico del progresso rende più probabile una catastrofe. Nella corsa al dominio dell'ia il rischio maggiore non è rimanere indietro, ma perdere il controllo.  As

Internazionale, 21 gernaio 2025