Di fronte alla diffusione esponenziale di software basati sull’intelligenza artificiale, come Chat GPT, aumenta il rischio che l’umanità deleghi ogni forma di approfondimento conoscitivo alla macchina, nella speranza illusoria che essa possa in qualche modo affrancarci da ogni complessità per restituirci una realtà mediata in una maniera perfetta. Non è così.
Al contrario, si tratta di un pericolo estremamente importante su cui porre attenzione affinché non si imbocchi la strada di una deriva generalizzata, ma si riesca al contrario ad utilizzare al meglio uno strumento che, in quanto tale, ha bisogno del controllo, della supervisione e della programmazione della mente e della conoscenza umana per funzionare al meglio.
Le parole del prof Salvatore Magazù, decano di Fisica dell’Università di Messina, hanno messo il punto su una questione che oggi è certamente all’ordine del giorno. Il docente ha infatti animato il Focus sul giornalismo scientifico nel corso della V Edizione del Festival della Cultura Scientifica intitolato Comunicare la Scienza, organizzato dal Liceo Caminiti-Trimarchi di Giardini Naxos e dall’Ateneo messinese, insieme giornalista Gianluca Rossellini e a Roberta Fulci e Marco Motta, conduttori di Rai Radio3 Scienza, entrando nel merito della questione e approfondendo la tematica oggi delicata come non mai.
La diffusione pervasiva dei software basati su IA e Machine learning
“La diffusione sempre più pervasiva delle tecniche digitali e l’aumento delle capacità di calcolo stanno trasformando la nostra società in modo tutt’altro che trasparente”, ha spiegato il docente facendo riferimento, innanzitutto, al Chat Generative Pre-Trained (Chat GPT) il software di intelligenza artificiale basato su tecniche di apprendimento automatico che da settimane ormai il mondo intero sta ponendo sotto i riflettori, e che permette di parlare un linguaggio affine a quello di essere umano con doti e conoscenze intellettive certamente al di sopra della media, componenti testi complessi e rispondendo a domande nient’affatto scontate. Tanto da essere stato già vietato in molte università e capace di mettere in allarme interi sistemi scolastici. “Tuttavia, questi strumenti possono generare informazioni fuorvianti, sia intenzionalmente, che a causa di inaccurate forme di raccolta di dati”, ha precisato Magazù.
“Bisogna infatti tener in conto che i dati possono essere anche significativamente distorti, non necessariamente in modo volontario, che non esistono raw data e che la semplice correlazione tra eventi non implica causalità; infine, è importante osservare come i big data non siano in grado di anticipare fenomeni mai prima osservati. Pertanto, l’aforisma la mappa non è il territorio si declina qui con i dati non rappresentano la realtà. L’uso di Chat GPT e modelli simili nell’industria dell’informazione, soprattutto quella scientifica, è dunque pericoloso perché può contribuire alla diffusione di fake news”, è la disamina dell’esperto.
“L’inerente e sottesa preoccupazione è che viviamo sempre più in bolle-filtro cuciteci addosso da algoritmi che da un lato propinano prodotti che fanno sentire ciascuno nella propria confort-zone, spesso con messaggi veicolati o di chi la pensa nello stesso modo; ne consegue, pertanto, che viene ostacolato ogni reale dialogo fatto di confronto. Gli algoritmi rischiano di farci passare da una democrazia a una ‘datacrazia’ basata su big data, ovvero a un governo dell’algoritmo”.
In sostanza, è necessario approfondire determinati argomenti prima di gettare in pasto ogni nostra conoscenza all’intelligenza artificiale sperando che essa possa risolvere ogni falla sociale e scientifica e soprattutto possa conferire all’umanità una sorta di scienza infusa, perché ciò non corrisponde a realtà. Le macchine sono create dagli esseri umani e questi non possono permettersi di impigrirsi di fronte ad esse, che funzionano proprio grazie alla capacità umana di progettarle, gestirle e regolarle affinché restituiscano una conoscenza oggettiva e priva di errori.