Una delle domanda più comuni legate al mondo della rete riguarda la capacità di Google di trovare ogni informazione in pochi secondi e di rispondere immediatamente ad ogni richiesta o curiosità, quasi alla stregua di un antico “oracolo” onnisciente.
Ad esempio, come si muove il segnale elettrico che dal proprio pc è capace di collegarci a server sconosciuti dislocati dall’altro lato del Pianeta e che conoscono tutti di noi?
Quando digitiamo una semplice parola sul motore di ricerca e premiamo invio ciò che si compie è il primo passaggio è il “matching”, vale a dire l’abbinamento. Le parole che scriviamo vengono recepite e inviare nella rete internet grazie al fatto che i software possiedono una copia di ogni sito esistente in internet, che scansiona alla ricerca della parola cercata.
Il secondo passaggio riguarda il “meaning”, il significato della richiesta stessa, e in questo caso entra in campo la capacità del software detta “machine learning”: un algoritmo che apprende in maniera automatica la modalità con la quale selezionare i migliori risultati tra tutti quelli esistenti. Vale a dire quelli che troveremo ai primi posti della ricerca di Google.
Un sistema, come molti vedono, praticamente infallibile. Ma che non contempla solo una mano artificiale. Esistono infatti dei veri e propri esperti in carne e ossa che lavorano per Google, detti “Search quality raters”, che si occupano in prima persona di visionare i siti e di valutarli secondo la loro attendibilità. Centrandosi sulle caratteristiche di autorevolezza, competenza e affidabilità.
Il loro lavoro farà in modo che siti più affidabili compaiano ai primi posti rispetto ad altri che lo sono meno. All’interno di questo meccanismo però vi è anche la componente Seo, “Search engine optimisation”, e anche questa prevede il lavoro di esperti che lavorino sui singoli siti e che permettano agli stessi di riuscire a comparire proprio tra le prime posizioni del motore di ricerca.
Tutti questi dati finiscono nei Data center, centri di elaborazione e stoccaggio di dati, enormi edifici di cui Google è proprietario e dove vi sono posizionati giganteschi macchinari elettrici, i cosiddetti server, computer che lavorano continuamente senza mai interrompersi. Questi realizzano copie costantemente aggiornate dell’intero web, suddiviso in piccolissime parti.
Sono loro che ricevono le nostre ricerche attraverso segnali elettrici che passano attraverso i cavi e che arrivano in pochi istanti in tutto il mondo. Grazie anche alla dislocazione degli stessi data center in ogni Paese, riducendo le distanze per aumentare la velocità di risposta del software. In Europa ci sono precisamente 8 Data center, di cui uno a Milano.
Un vero e proprio vortice di informazioni che però presenta un problema, per niente trascurabile: il dispendio di energie, che è a dir poco gigantesco. Pare infatti che le aziende del settore digitale utilizzano per i loro data center l’uno per cento dell’elettricità di tutto il mondo, una cifra pari a circa 200 TW all’ora.
Uno studio pubblicato su Nature spiega che i Data center contribuiscono allo 0,3 per cento delle emissioni di Co2, con l’intero sistema del settore Ict che tocca una percentuale pari al 2 per cento. Come si pone perciò, oggi, questa realtà di fronte alla crisi energetica che sta scoppiando in tutto il mondo? La questione non è affatto scontata, visto che se si vuole proseguire sulla strada della tecnologia e della velocità dei software si avrà bisogno di sempre più energia, e quindi di produrne sempre di più. Ma in un momento di crisi, dove i suoi costi aumentano ogni giorno, diventa davvero una bella sfida.