Saremo in grado di controllare Terminator?

Escape room, intelligenza artificiale e… Terminator. A prima vista sembrano tre cose che non c’entrano nulla tra loro, ma in realtà hanno un filo rosso comune: ci costringono a riflettere su quanto siamo davvero “intelligenti” e su come potremo convivere con macchine molto più intelligenti di noi.

Dalle escape room alla super-intelligenza

In una escape room di Monopoli a Londra – un gioco gigante tra indovinelli, prove logiche e sfide di squadra – capita facilmente di sentirsi persi se non hai la mente allenata ai rompicapi. Per fortuna, in certi casi basta avere la squadra giusta: la famosa frase di Warren Buffett “non conta quanto remi duro, conta su quale barca sei” si rivela ancora una volta perfetta.

Ma se in un gioco puoi permetterti di non capire nulla, nel mondo reale la domanda è diversa: siamo sicuri che l’essere umano medio sia davvero intelligente? Le decisioni che prendiamo ogni giorno – dal comprare un libro a scegliere con chi sposarci – sono spesso guidate dall’istinto più che dalla logica.

Ed è qui che arriva la riflessione: se noi decidiamo “a caso”, mentre un’intelligenza artificiale generalizzata (AGI) ragiona con milioni di volte più capacità di calcolo, cosa succede quando il confronto non sarà più alla pari?

Terminator: fantascienza o possibile futuro?

La domanda sorge spontanea: saremo in grado di controllare il “Terminator” del futuro?
Che sia buono o cattivo, riusciremo a stabilire regole, limiti e soprattutto un rapporto di rispetto reciproco con un’intelligenza molto più avanzata della nostra?

Gli ottimisti dicono che basterà dare istruzioni chiare, gli apocalittici temono la catastrofe imminente. La verità? Nessuno lo sa. Quello che sembra emergere dalle previsioni – da Elon Musk a Ray Kurzweil – è che non si parla più di un futuro lontano 30 o 50 anni: la timeline per l’arrivo di un’AGI credibile si restringe a pochi anni, forse entro 5.

L’AI è davvero “fredda”?

Un altro mito da sfatare è quello dell’empatia. Per anni si è detto che l’intelligenza artificiale non potrà mai essere “calda” come un essere umano. Eppure, alcune ricerche dimostrano che in certi contesti le risposte di un chatbot risultano percepite come più empatiche di quelle dei medici reali.
Il motivo è semplice: un’AI ha tempo infinito per ascoltarti, non si annoia, non è stressata da una lista di pazienti infinita. Non è poco.

Il problema del controllo

Anche senza arrivare all’AGI, già oggi esistono sistemi di AI verticali – soprattutto in campo militare – che possono essere devastanti. Non serve un’intelligenza super avanzata per creare problemi: gli umani sono campioni mondiali di autodistruzione anche con strumenti meno sofisticati.

Quando però arriverà una super-intelligenza, pensare di poterla controllare “dall’alto” sarà probabilmente un’illusione. Sarebbe come un bambino di due anni che pretende di dare istruzioni a un adulto: l’asimmetria è troppo grande.

Eppure, c’è chi lavora seriamente su questo tema. OpenAI e altre realtà stanno studiando meccanismi di alignment, cioè tecniche per far sì che un sistema più debole riesca a “guidare” uno più forte. La metafora giusta? La mamma di The Rock in Fast & Furious: Hobbs & Shaw: piccola ma autorevole, capace di tenere a bada una banda di giganti con la sola ciabatta.

Vivere con l’incertezza

La verità è che oggi non abbiamo risposte definitive. Sappiamo che la velocità dell’evoluzione tecnologica è enorme, che le timeline si stanno accorciando e che il tema del controllo è cruciale. Sappiamo anche che spesso oscilliamo tra due estremi: la paura apocalittica e l’eccessiva leggerezza.

Forse l’unica certezza è che ci stiamo dirigendo verso un futuro incerto, con le dita incrociate e – speriamo – una “ciabatta digitale” pronta a mantenere il rispetto reciproco tra uomini e macchine.

Monty Staff