Angoscia e paura. Sono le sensazioni prevalenti che accompagnano l’umanità nel profilarsi concreto all’orizzonte dell’intelligenza artificiale (AI). Da poco più di 70 anni ha iniziato il suo lungo percorso destinato a cambiare non solo il modo di vivere dell’uomo come già sta avvenendo con l’informatica, ma il suo stesso essere e pensarsi. Si profila un confronto tremendo: saranno le macchine perfezionate dalla robotica a governare l’uomo o sarà l’uomo a restare la misura di tutte le cose? In attesa dell’esito finale di questo incerto duello, la pura teoria dell’AI sta passando rapidamente da utopia lontana a possibile realtà.
Il caso ChatGPT
Bussa alla porta del nostro tempo, sempre più insistente con il suo carico di timori e speranze tipico del futuro intravisto e non ancora governato con sicurezza. L’ultimo allarme della nuova stagione possibile accompagna il prototipo di ChatGPT, versione più avanzata di AI che potrebbe portare scompiglio come mai prima nell’ambito del lavoro individuale e sociale e quindi dell’economia. I pochi grandi gruppi, signori delle tecnologie informatiche, sono già sul piede di guerra: serrato confronto, gara impietosa tra team geniali della tecnologia che governa internet. In ritardo gli Stati e i governi nei confronti del potere di pochi che stanno erodendo la democrazia finora conosciuta, vanto dell’Occidente. Chi la spunterà?
Distinguere il vero dal falso
Sono gli stessi attori in gara per il business, coscienti di una prospettiva pericolosa per l’umanità intera che al primo concreto comparire di ChatGPT, a torto o a ragione, per paura o per affari, hanno diffuso una lettera aperta sollecitando una pausa di riflessione. Necessaria a loro parere, per misurare in maniera ponderata i rischi che si corrono, non tanto per questioni di mercato, quanto per questioni etiche. Si potrebbe cadere nella tela del ragno cancellando possibilità e capacità proprie dell’uomo di distinguere il vero dal falso. Una moratoria che non servirà a tornare indietro, frenando il progresso tecnico, ma a individuare almeno la garanzia di non perdere totalmente il controllo dell’uomo sulla macchina. La lettera aperta che rilancia gli interrogativi etici sull’intelligenza artificiale è stata pubblicata a fine marzo da Future of Life Institute. Gli oltre mille firmatari chiedono in sostanza di sospendere gli esperimenti avanzati di AI.
Sei mesi di stop
È, forse, un caso più unico che raro che inventori si fermino a riflettere su riserve e interrogativi sollevati da intellettuali e giuristi specialmente dove l’inglese non ha ancora sostituito le lingue nazionali. I sistemi di AI dotati di un’intelligenza competitiva con quella umana – è la tesi centrale della lettera – possono comportare rischi profondi per la società e l’umanità. Lo dimostrano ricerche approfondite dai migliori laboratori di AI. Tra i firmatari compaiono imprenditori di successo come Steve Wozniak e Elon Musk, professori universitari specialisti di intelligenza artificiale come Yoshua Bengio o Gary Marcus, filosofi e scrittori che da decenni studiano l’IA e i suoi effetti come Yuval Harari o Aza Raskin. Essi – per interessi contrapposti – chiedono ai laboratori di tutto il mondo una sospensione di almeno sei mesi a tutti gli sviluppi in corso su sistemi di intelligenza artificiale, per consentire una riflessione collettiva e procedere quindi ad una regolamentazione del settore valida globalmente. La moratoria si rende urgente, sostengono i firmatari, perché i sistemi di intelligenza artificiale, in mancanza di regole, rischiano di “comportare gravi rischi per la società e l’umanità, […] in quanto potrebbero portare alla perdita di controllo della nostra civiltà”.
Uno strumento da regolamentare
Con il passare dei giorni, nella comunità scientifica internazionale cresce la consapevolezza della necessità di regolamentare uno strumento straordinario, tuttavia rischioso per i diritti individuali, sociali e del lavoro e apre scenari di manipolazione delle opinioni e delle scelte individuali fra le quali quelle che riguardano l’orientamento politico. Tra gli esperti del settore si sottolinea l’urgenza dell’obbligo per tutte le aziende di rendere aperti i propri sistemi per consentire a chiunque di conoscere i loro meccanismi di funzionamento e impedire un uso criminale dello strumento. “Pertanto, – si legge nella lettera – chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile”. Ciò non significa “una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti. La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali… La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per la società e possiamo farlo anche in questo caso. Godiamoci una lunga estate dell’IA, non precipitiamoci impreparati in un autunno”.