ChatGPT blocca account che tentavano di condizionare campagna elettorale Usa

Un gruppo di account israeliani ha utilizzato ChatGPT per influenzare le elezioni presidenziali in corso negli Stati Uniti

Come si dice spesso, la tecnologia è un’arma a doppio taglio. Da una parte può rivelarsi utile sotto molti aspetti, dalla risoluzione di problemi, al campo della produzione e della socialità. Dall’altra, però, se usata in modo sbagliato può diventare un pericolo per l’intera società. Un esempio è rappresentato da quanto è avvenuto nelle scorse settimane in Iran. Qui una rete di account iraniani ha utilizzato il chatbot artificialmente intelligente ChatGPT per generare dei testi che avevano lo scopo di condizionare le elezioni presidenziali americane. L’obiettivo era quello di spostare l’opinione pubblica verso uno dei candidati, penalizzando l’altro. Un illecito gravissimo, che mostra anche la  potenza di uno dei nuovi mezzi emergenti: quello dell’intelligenza artificiale.

ChatGPT blocca account che tentavano di condizionare campagna elettorale Usa
Un gruppo iraniano usa ChatGPT per condizionare le elezioni americane (Ansa Foto) – Notizie.com

A scoprire quanto stava accadendo è stata l’azienda madre di ChatGPT, OpenAI. Fondata tra i tanti anche dal famosissimo Elon Musk, in una nota pubblicata venerdì scorso sul proprio sito ufficiale ha comunicato che: “Abbiamo identificato e rimosso un gruppo di account ChatGPT che generavano contenuti per un’operazione segreta di influenza iraniana chiamata Storm-2035. Non ci sono prove concrete che questi contenuti abbiano raggiunto un pubblico significativo”. Spiegano nella speranza che il loro mezzo non sia stato utilizzato per fini illegali, dopo aver fermato questo flusso continuo di matrice iraniana.

La spiegazione di OpenAI

OpenAI non ha specificato il numero di persone che hanno preso parte a questa iniziativa. Tra i dettagli forniti, però, ha fatto sapere che oltre a utilizzare l’intelligenza artificiale per creare questi articoli online, Storm-2035 ha utilizzato ChatGPT anche per creare risposte sui social media che potessero tranne in inganno il ricevente. Alcuni dei testi incriminati affermavano che il candidato presidenziale repubblicano Donald Trump era stato censurato o che voleva dichiararsi re degli Stati Uniti. Sono stati prodotti anche falsi e illusori servizi sulla guerra di Gaza e sulle Olimpiadi, con i medesimi obiettivi. 

La spiegazione di OpenAI
La spiegazione di OpenAI

Insomma, un’operazione ben studiata e con obiettivi ben precisi che si spera non abbia raggiunto. Da OpenAI sono convinti che sia così, che siano intervenuti in tempo per evitare che si diffondessero in tutto il mondo. La verità è che, probabilmente, quanto hanno realmente influenzato non si saprà mai. Le uniche indicazioni potrebbero arrivare da un eventuale cambio drastico nei sondaggi che evidenzi come, in quella frazione di tempo, il popolo americano abbia fatto fronte comune cambiando le proprie idee politiche,  spostandosi dalla parte opposta. Un’eventualità, in ogni caso, molto complicata e forse anche irrealistica.

Gestione cookie