segni

N.51 Giugno/Luglio 2024

frontiere

Intelligenza artificiale, ma anche sociale: così la tecnologia aiuta nella cura delle fragilità

Un convegno promosso da Fondazione Germani aiuta a riflettere sulle possibili applicazione della IA negli ambiti di cura e in particolare nel supporto alle disabilità: tra necessità di controllo e una migliore qualità nel servizio

L’intelligenza artificiale (IA) è uno dei temi più caldi ed attuali, che ci chiama in causa tutti perché, volenti o nolenti, si tratta di una tecnologia talmente pervasiva da andare a coinvolgere ogni ambito della vita. Questo non può dunque lasciarci indifferenti perché lo dobbiamo leggere come un chiaro segno dei tempi, di quel vero e proprio cambio di paradigma sociale, rivoluzione che ci riguarda e rispetto al quale possiamo scegliere se essere semplicemente spettatori –su cui la novità cala inesorabilmente – oppure capirne realmente la portata e diventare protagonisti del cambiamento. Anche negli ambiti più delicati che riguardano le zone più fragili della nostra società.

Per questo di IA si è parlato anche a Cella Dati lo scorso 20 giugno in occasione del convegno organizzato da Fondazione Germani e dal titolo “Intelligenza artificiale e sociale per l’innovazione dei servizi residenziali per disabili”.

Un po’ tutti, magari tacitamente,  ci poniamo l’interrogativo che racchiude il dubbio dell’uomo comune: in che misura l’intelligenza artificiale si può considerare un’opportunità oppure un rischio? Una risposta non è semplice da trovare, soprattutto per il fatto credo che sia ancora da definire bene che cos’è in realtà questa famosa (o famigerata?) Intelligenza Artificiale.

La realtà è che tutti ne parlano, ma pochi sono veramente quelli che ne hanno piena competenza. Sì, perché questa tecnologia è talmente pervasiva da entrare in tutte le altre tecnologie, da riguardare tutti gli ambiti del sapere e questa è una delle prime grandi “novità” rispetto alle tecnologie con cui siamo stati abituati ad interfacciarci. E qui il pensiero va ai film futuristici dove i robot antropomorfizzati vivono nella società insieme agli uomini, oppure le pellicole più catastrofiste dove il genere umano viene messo a rischio dalle macchine che hanno preso il comando del mondo.

In realtà l’intelligenza artificiale è già tra noi. E in alcuni casi sta già sostenendo buone prassi operative come quella messa in campo già da tre anni da Fondazione Germani nella cura dei pazienti del nucleo Alzheimer e nel reparto anziani dell’ente. In questo caso si tratta di sensori in grado di monitorare (badate bene, non sorvegliare, e la differenza non è trascurabile) i movimenti e gli spostamenti dei residenti per evitare disagi o cadute, ottimizzando il lavoro degli assistenti. A presentare durante il convegno questa sperimentazione ormai consolidata è stato il dottor Mario Cucumo, raccontando come con questa tecnologia si sia ridotto il numero di cadute e l’utilizzo di strumenti di contenzione come ad esempio fasce o spondine ai letti, che tradotto in qualità della vita significa maggiore autonomia e libertà di movimento, in sicurezza naturalmente.

Fortunatamente, dunque, la realtà è diversa dalle rappresentazioni più apocalittiche dell’avvento della IA, anche se contengono una sorta di verità, ossia che con l’intelligenza artificiale per la prima volta non dobbiamo più parlare semplicisticamente di un software in senso stretto, ma piuttosto di sistemi addestrati a rispondere in modo autonomo, apprendere e riprogrammarsi sulla base dell’apprendimento pregresso. Una sorta di processo di pensiero, si potrebbe dire.

E questo ci porta subito ad una seconda riflessione, ossia che non siamo più gli unici attori di tale attitudine cognitiva: «L’uomo si è distinto dagli altri animali proprio per la sua capacità di agire e capire il senso e le conseguenze delle proprie azioni, dando uno scopo alla sua attività», ha spiegato don Maurizio Compiani nel convegno di Cella Dati. «Facendo un esempio semplice – ha proseguito il sacerdote e teologo, assistente pastorale della sede cremonese dell’Università Cattolica –  i mammut durante l’era glaciale hanno dovuto attendere che il loro dna si modificasse per adattarsi al nuovo habitat più freddo. È servito tempo, molti sono morti perché geneticamente non hanno saputo adattarsi ed hanno subìto passivamente il cambiamento. L’uomo invece non ha atteso che la propria genetica si adattasse alle mutate condizioni ambientali, ma ha imparato ben presto ad usare le pelli e le pellicce degli animali per coprirsi, adattandosi in modo attivo alle nuove condizioni. Questo è il segno che la mente umana pensa in funzione di uno scopo, un bisogno, una condizione ed agisce consapevole delle conseguenze dell’azione che, superando il mero istinto, ha pensato».

Ora, l’intelligenza artificiale fa qualcosa di simile, capisce il contesto e imita il pensiero umano con le sue dinamiche, proprio perché non si limita a copiare delle azioni, ma impara a valutarle prima di metterle in campo, in funzione di uno scopo da raggiungere.

Per esempio, esistono già numerosi software o app che, sfruttando la capacità di apprendere dell’IA, sono in grado di supportare le persone più fragili. Ne ha fatto una carrellata la dottoressa Emanuela Catenacci di Fondazione Germani, presentandone alcuni esempi e puntando la riflessione su come si possa parlare di «empatia di un robot, ossia il fatto che per esempio la macchina possa servire per rendere autonoma una persona. In tal caso, se è gestita sotto il controllo dell’utente, può essere empatica nella misura in cui offre un sollievo, sia a chi è assistito, sia a chi deve assistere la persona fragile».

Ora, l’intelligenza artificiale fa qualcosa di simile, capisce il contesto e imita il pensiero umano con le sue dinamiche, proprio perché non si limita a copiare delle azioni, ma impara a valutarle prima di metterle in campo, in funzione di uno scopo da raggiungere. Come quello – ad esempio – del miglioramento e della riduzione dei rischi in un ambiente di cura.

Per esempio, esistono già numerosi software o app che, sfruttando la capacità di apprendere dell’IA, sono in grado di supportare le persone più fragili. Ne ha fatto una carrellata la dottoressa Emanuela Catenacci di Fondazione Germani, presentandone i risvolti pratici e puntando la riflessione su come si possa parlare di «empatia di un robot, ossia il fatto che per esempio la macchina possa servire per rendere autonoma una persona. In tal caso, se è gestita sotto il controllo dell’utente, può essere empatica nella misura in cui offre un sollievo, sia a chi è assistito, sia a chi deve assistere la persona fragile».

In questo senso Remco Mostert, ricercatore e professore presso i più prestigiosi istituti ed università olandesi, ha puntato la sua riflessione sulla qualità della vita, che è diversa dalla soddisfazione personale del singolo utente: «Se facciamo bene il nostro lavoro e offriamo un buon servizio in generale, non è però detto che ciò porti alla soddisfazione personale del soggetto. Questo vuol dire studiare delle cure personalizzate, che oltre al buon lavoro, generino anche la soddisfazione dell’utente». Una riflessione che ricalca in qualche modo le parole del dottor Franco Spinogatti: «Bisogna umanizzare la medicina, servono connessioni, legami e scambi col paziente e in questo può esserci d’aiuto l’intelligenza artificiale se integrata da un’intelligenza sociale»

Giunti a tale livello di avanzamento tecnologico e con la consapevolezza di non essere più gli unici “sistemi” in grado di pensare, si pone dunque un importante tema di etica della tecnologia che, come ha chiarito don Compiani, «non vuol dire porre dei limiti dettati da una visione religiosa, ma significa che devo saper gestire la tecnologia sottoponendola a verifica continua per capire dove la continua evoluzione, che progredisce a velocità esponenziale, ci stia portando realmente».

Un tema che richiama precedenti storici tristemente noti, come – ad esempio – lo sviluppo che ha portato l’industria bellica a sviluppare l’atomica, l’arma più devastante che ancora oggi ci fa tremare i polsi, partendo dall’energia nucleare, partendo dalla ricerca sull’energia nucleare, non certo nata allo scopo di distruggere l’umanità.

Al contrario, dunque, il bene dell’uomo deve restare al centro della ricerca tecnologica, nella consapevolezza che il potere degli algoritmi porta con sé una tendenza alla standardizzazione dei processi, con la conseguente difficoltà a tollerare le “trasgressioni”. Un punto di vista di grande interesse di cui ha parlato il professor Luigi Croce, medico specialista in Psichiatria e Psicoterapia, uno dei relatori del convegno promosso da Fondazione Germani.

L’intelligenza artificiale – ha invitato a riflettere lo specialista – “ragiona” sulla base di velocissimi calcoli di dati e per questo motivo tende a generare dei flussi omogenei dove le discrepanze costituiscono una sorta di “disturbo”. Ma il pensiero umano è ancora molto più di questo, a partire dalla componente fisiologica e fisica del nostro cervello, diviso in due emisferi: il sinistro, molto più tecnico e razionale, più “facilmente” replicabile ed assimilabile ad un algoritmo; poi però le cose si complicano con l’emisfero destro, quello che presiede le emozioni e la creatività. Lo spazio di manovra, dunque, si pone proprio qui, tra la parte matematica dell’IA che definisce il data processing (l’elaborazione dei dati) e la componente umana del decision making (la scelta dell’azione): «L’intelligenza artificiale ci serve per elaborare dati ad una velocità inimmaginabile per la mente umana e ci permette di anticipare i possibili scenari e le variabili, per far sì che possiamo diventare noi i piloti». La tecnologia ci permetterà di avere macchine che calcolano, “pensano” e prevedono, ma dovrà sempre essere cura dell’uomo mantenere quella parte di creatività nel momento della decisione, per far sì che sia l’intelligenza artificiale lo strumento al servizio dell’uomo e mai viceversa.