La società fondatrice di ChatGPT si avventura in un’altra affascinante ma pericolosissima scoperta tecnologica
Il progresso tecnologico è una delle fortune di cui l’uomo può godere. Fondamentale per la ricerca, in campo medico e scientifico, e le conseguenti scoperte, questa presenta però anche dei lati oscuri. Se maneggiata con poca cura, se non si presta attenzione a ciò che si fa circolare, può provocare danni non solo a sé stessi, ma soprattutto agli altri. Per questo prendere con le pinze ogni passo verso il futuro, proporre norme e regolamenti anche stringenti, diventa un passaggio necessario per garantire la giusta convivenza tra uomo e tecnologia. Un connubio perfetto, funzionale, ma pur sempre regolamentato.
Parlando in questi termini il pensiero va immediatamente all’Intelligenza Artificiale, ultima e rivoluzionaria invenzione. Questa ha permesso di aprire spazi che prima sembravano irraggiungibili e il suo potenziale è incredibile, forse anche troppo sviluppato. Proprio per queste ragioni sono state decretate delle leggi a tutela della sicurezza mondiale e che sembrerebbero aver frenato gli obiettivi prossimi della celebre azienda OpenAI. La società di Greg Brockman, infatti, ha presentato – e realizzato – un progetto tramite il quale è già possibile clonare la voce di una persona. Un risultato impressionante, ma che non ha ancora ottenuto l’ok per essere messo in circolazione.
Una scoperta troppo pericolosa
La presentazione della nuova tecnologia ‘Voice Engine‘ è arrivata lo scorso venerdì, esattamente una settimana dopo aver depositato una domanda per ottenere un marchio per il nome. La spettacolarità e la pericolosità di questa eccezionale invenzione si riassume nella sua capacità di ricreare la voce di una persona con soli 15 secondi di registrazione. Una frazione di tempo microscopica che consentirebbe a chiunque di registrare un discorso e, per mezzo di quello, clonare la parola di qualcuno, anche senza la sua autorizzazione. L’uso improprio, dunque, è un rischio troppo elevato, motivo per cui la stessa azienda ha comunicato di volerla sottoporre a test, ma di non metterla in vendita e quindi a disposizione di tutti.
“Riconosciamo che generare un discorso che assomigli alla voce della gente comporta seri rischi, che sono particolarmente importanti in un anno elettorale“, ha affermato la società di San Francisco in una nota. Nei tester, che verranno svolti nei mesi a venire, OpenAI ha dichiarato che tutto ciò verrà fatto sotto l’occhio di tutti, ottenendo l’autorizzazione dei ‘proprietari’ di tutte le voci che saranno rigenerate. Una dichiarazione per sottolineare l’intenzione di proseguire con lo sviluppo, ma facendo tutto in maniera legale e alla luce del sole.