Cari lettori, non è Caterina, si chiama Sophia e questa volta è proprio vera. Nelle scorse settimane a Lugano è stata esposta al LAC, destando l’attenzione della comunità scientifica e dei mezzi di comunicazione, Sophia, un robot creato dalla Hanson robotics di Hong Kong. L’umanoide ha dialogato con i giornalisti rispondendo a tutte le loro domande, cadendo perfino simpaticamente in qualche gaffe. Il suo volto in silicone ha le sembianze dell’attrice americana Audrey Hepburn e riesce a riprodurre oltre 60 espressioni facciali umane. Nei suoi occhi sono inserite due telecamere e ha un ampio bagaglio di informazioni e algoritmi che le consentono di sostenere un buon numero di conversazioni.

Spiega cos’è per lei la felicità e offre giudizi sull’intelligenza della razza umana, sua creatrice.

Ne abbiamo parlato con il prof. Markus Krienke, docente di etica sociale alla Facoltà di Teologia di Lugano che è tornato a trovarci.

Nel 2013 l’Intelligenza Artificiale (IA) ha raggiunto il quoziente intellettivo (QI) di un bambino di 4 anni mentre tra un decennio sarà paragonabile a quella di un adulto. Sophia, afferma di ambire a possedere alcune capacità esclusivamente umane come la capacità di adattarsi, l’immaginazione e l’emotività, ma in realtà quando Sophia decide e agisce, lo fa soltanto sulla base di mappe che contengono i «dati» del mondo: conosce quindi solo una codificazione della realtà, che non potrà mai essere del tutto completa, perché la realtà è sempre più complessa di qualsiasi macchina intelligente.

Le emozioni e le interazioni dei robot non saranno mai espressioni spontanee in riferimento a qualcosa perché sono soltanto il risultato di Big Data, dunque non hanno significato. Frankenstein, era soltanto un sogno, il sogno dell’umanità di creare un essere intelligente dotato di coscienza.

L’IA forse aspira alle «decisioni perfette», ma il carattere morale delle scelte non sta nella «perfezione» ma nella capacità di ponderare distinguendo il bene dal male.

Abbiamo fatto al nostro ospite il prof. Markus Krienke alcune domande un po’ delicate sull’argomento, curiosiamo qual è il suo pensiero.

Quanto alto è il pericolo di perdere il controllo sulle macchine da parte dell’uomo?

“A molti questo rischio sembra in realtà altissimo dal momento che l’Intelligenza artificiale (IA) ha sviluppato la possibilità di auto-ottimizzarsi, ma le macchine non raggiungeranno mai l’eccezionalità umana, non avranno mai una coscienza, la creatività e l’intenzionalità. Perciò la paura che le macchine un giorno potranno schiavizzare gli esseri umani è fantascienza. C’è una dimensione però che davvero deve preoccuparci. Tra qualche decennio le macchine intelligenti faranno parte delle nostre società e interagiranno quotidianamente con gli esseri umani. Avremo bisogno di regole che determinino l’agire delle macchine e il loro rapporto con noi.”

Computer e telefoni cellulari hanno fomentato ormai una società individualista, gli androidi potrebbero peggiorare o migliorare questa condotta?

“A causa delle nuove tecnologie e dei social in effetti questo rischio è già preoccupante e potrebbe aumentare con l’incidenza ascendente dell’IA. Ma allo stesso tempo, il confronto con questa nuova realtà, rappresenta per l’uomo un’opportunità, un’occasione per riscoprirci in quanto esseri umani nei confronti di robot, che umani sembrano, ma non potranno mai trasmettere autenticità relazionale.”

Dunque prof. Krienke se ho capito bene, possiamo dormire sonni tranquilli ma chiudendo un occhio soltanto? Perdonatemi cari lettori ma ormai mi conoscete e sapete quanto mi piace sdrammatizzare. Speriamo di non avervi allarmati ma divertiti. E se avete bisogno di portare a spasso il vostro cagnolino alle tre del mattino mentre siete in vacanza, niente paura, ci penserà Sophia. Pensate che l’Arabia Saudita le ha concesso la cittadinanza con tanto di passaporto… Ma magari di questo ne parleremo nel prossimo articolo con il nostro prof. Krienke.