Le macchine intelligenti sono già presenti tra noi, dentro i computer o come dispositivi a sé. Sistemi basati sulla cosiddetta Intelligenza Artificiale (IA) sono nei motori di ricerca, nelle auto a guida automatica, in laboratorio, per esempio per progettare nuovi materiali.
Questi risultati sono stati preceduti da alcune tappe. Nel 1997 il programma Big Blue, su supercomputer IBM, superò il campione mondiale di scacchi Garry Kasparov; Big Blue esplorava un’enorme quantità di possibili mosse usando regole definite da esperti giocatori. Nel 2015 una rete neurale basata su deep learning superò l’abilità umana nel riconoscere immagini. Nel 2016 Microsoft raggiunse nel riconoscimento del parlato un tasso di errore del 5,9%, paragonabile a quello umano. Ciò che ha reso possibile questi risultati è l’uso di grandi quantità di dati per apprendere da essi senza necessità di usare regole definite da esperti. Le macchine intelligenti potranno modificarsi imparando dall’esperienza. Potranno conservare i loro dati storici per fare diagnosi e manutenzione, o potranno reperire nuovi dati online per affinare le loro conoscenze.
La domanda che segue è quindi: come ci interfacceremo a queste macchine?
Umberto Eco, nel 2003, all’inaugurazione della scuola del Design del Politecnico di Milano presentò una riflessione sul problema dell'interfaccia. L’interfaccia non esisteva fino a quando gli oggetti erano progettati con una forma che ne comunicava la funzione: una scala comunica l’idea che si possa salire, un ascensore no. La maggior parte degli oggetti sono calchi – della mano o di qualche parte del corpo: la maniglia, la scarpa, le forbici. Dove c'è un calco, c'è perfetta congruenza e comunicazione tra forma e funzione. Questo vale anche per gli oggetti che usiamo per prolungare un’azione naturale (una pinza) o per fare meglio cose che si fanno anche su oggetti naturali (una sedia). Ma una macchina fa cose indipendenti dalla forma dell’organo che sostituisce, e le fa da sola, attraverso un computer invisibile in essa, e tramite una serie di mediazioni che ci sfuggono. Non possiamo quindi maneggiarla d’istinto, occorre l’interfaccia; le interfacce – siano esse manopole, meccaniche, display grafici o comandi vocali – definiscono e limitano l’usabilità delle macchine. Citando Eco: «… un solo tipo d’interfaccia standard sta già unificando il televisore, la radio, il computer, il cruscotto dell’automobile, il forno a microonde. Questo oggetto minimo non deve comunicare nulla a chi lo usa, perché lo si usa quanto agli effetti, ma non se ne determina il funzionamento, né manualmente né intellettualmente».
Il problema è che non si controlla la macchina, ma si pone un obiettivo. Questo va bene per una lavatrice (si fissa la temperatura, per esempio), ma per una macchina complessa? Da anni la human-computer interaction (HCI) si propone di facilitare l’interazione tra utenti e calcolatori. Grafica, realtà virtuale, analisi del linguaggio e dei gesti, fino all’interpretazione delle emozioni, dovrebbero permettere alla macchina di rispondere alle richieste dell’utente e all’utente di indicare alla macchina come procedere.
L’importanza dell’interfaccia cresce con la tendenza che vede sempre meno il valore aggiunto nell’hardware della macchina e sempre più nei servizi offerti. Questo processo è iniziato con la telefonia; oggi telefono, macchina fotografica, calcolatrice, posta, sveglia, televisore sono tutti unificati in un unico dispositivo con interfaccia a grafica semplificata, con menu fissi, e possibilità di dialogo in chat per i casi più complessi. I sistemi di IA generativa potranno a breve migliorare il dialogo e la comprensione? Forse sì, per servizi generici. Ma nel mondo del lavoro? Oggi non c’è professione tecnico-scientifica che non utilizzi sistemi computazionali, con o senza IA integrata, per ricerca di dati, estrazione di pattern, o per costruire modelli. Ma chi ha le competenze per costruire e usare queste macchine?
Ho lavorato con dottorandi di farmacologia che sviluppano (con successo) sistemi di predizione di proprietà di sostanze chimiche. Nonostante tali modelli superino la competenza di molti esperti umani, essi non intaccano lo scetticismo dei tossicologi che sono abituati a ragionare su osservazioni dirette. Così chi costruisce dai dati un “esperto”, si sente come un pesce fuor d’acqua: si è spinto fuori dal suo tradizionale metodo di lavoro e rischia di non essere accettato nemmeno fuori, perché non “sa” abbastanza né di tossicologia né d’informatica. Qui il problema non è l’interfaccia, ma la necessità di comprendere come la macchina opera. La lezione da trarre è che matematica, informatica, statistica e data science dovranno essere presenti in ogni percorso educativo, in modo che la precisione e ripetibilità dei sistemi informatizzati, così come i limiti, siano compresi in tutte le professioni tecnico-scientifiche. Per le professioni umanistiche la situazione è diversa. Le capacità linguistiche e di ricerca dei sistemi di IA sono apprezzate, e non mettono in crisi professioni che usano regolarmente la ricerca storica e l’analisi dei testi.
Che cosa succederà agli informatici? Saranno cruciali per creare nuove macchine intelligenti e per dare agli utenti una migliore interfaccia. Con sensori e IA, l’utente potrà interfacciarsi alla macchina con tutti i suoi sensi e potrà personalizzarla secondo i propri obiettivi. I programmatori generici dovranno specializzarsi. Da qualche anno in USA le posizioni offerte in telecomunicazioni, sistemi di gestione o programmazione generica stanno diminuendo, mentre aumentano le richieste per specialisti in sicurezza informatica, data science e IA. Questo si vede bene dagli stipendi medi: circa $100.000 per IT generico e $175,000 per chi ha competenze di IA. In Italia siamo ancora un po’ lontani da queste cifre, ma la tendenza è la stessa, ed emerge soprattutto in alcune città come descrive il report Tech Cities di Experis.
Infine, come cambierà l’hardware delle macchine? Sebbene la ricerca di sistemi di calcolo radicalmente nuovi – come i computer quantistici – possa rivoluzionare i calcolatori usati nei centri aziendali, la principale modifica per gli utenti comuni potrà essere che il calcolatore avrà non solo occhi e orecchie, ma anche arti. Un limite dei dispositivi personali attuali è che essi lavorano sui dati, non sulle azioni. Ma già ci sono macchine che operano nel mondo reale e sono i robot. Nelle loro interfacce si può assegnare il compito (per esempio, colpire un bersaglio) e, allo stesso tempo, controllarne le azioni. Un robot chirurgo raggiunge autonomamente una posizione, ma questa deve essere assegnata secondo una procedura medica. Si parla di autonomia condivisa. Passare da servizi offerti da uno smartphone a quelli ottenuti da un robot personale è una sfida aperta e appena iniziata. Alcune multinazionali sono impegnate nello sviluppo di un robot umanoide che potrebbe diventare l’hardware di riferimento. Il vantaggio previsto è che robot di forma umana possano convivere e cooperare con gli uomini senza dover cambiare le norme operative né gli ambienti; inoltre, attraverso il linguaggio e le espressioni facciali, avrebbero un’interfaccia immediata con l’utente. Realtà virtuale e un ritorno sensoriale completo – composto da vista, udito, tatto, senso del peso e del contatto – potranno creare un’esperienza immersiva. L’utente si muove nel suo spazio indossando sensori che ne rilevano il movimento, replicato dal robot, e, mediante i suoi sensi, vive la sua presenza nel mondo remoto in cui il robot opera. Controllare il robot diventa controllare il proprio avatar: la futura interazione tra esseri umani e macchine intelligenti sarà tutta qui.
GIUSEPPINA GINI
Laureatasi in Fisica all’Università di Milano nel 1972, Giuseppina Gini è Professoressa Associata di Robotica al Politecnico di Milano, dove insegna anche Fondamenti di Computer Science. Revisore di numerose pubblicazioni scientifiche, ha diretto altrettanti progetti di ricerca nazionali e internazionali