Oggi mi è passato per le mani un post che a pochi sarà sfuggito. Una intervista che Eric Enge ha fatto a Matt Cutts, in cui si parla principalmente del redirect 301 e di come a differenza di 3 anni fa, quest’ultimo oggi si perde i pezzi per strada, non trasferendo più l’intero valore intrinseco che la pagina ha acquisito nel corso del tempo.
Cosa è cambiato in questi tre anni (data di un’altra affermazione apparsa nel Google Webmaster Tools)?
Matt Cutts conferma che in presenza di duplicati, Google invece che ignorare le altre pagine può (doveroso il condizionale) decidere di trasferire il valore di PR e annessi e connessi, verso l’unico indirizzo reputato interessante.
La notizia di per se è interessante, ma prevalentemente fuori dal nostro controllo, quindi come si dice dalle mia parti, buono a sapersi (ma nulla di più)
Google indicizza e analizza le informazioni un pò per volta, in maniera consapevole. Molti si aspettano che fatto un sito, messo on line, in quattro e quattr’otto questo venga indicizzato. Mi spiace, ma non funziona così. Google assegna una sorta di budget (chiamato Crawl budget) ad ogni sito in funzione di certi parametri, tra cui il PR e il numero di link. Maggiore è l’autorevolezza della pagina, maggiori sono le chances per la pagina di essere indicizzata prima delle altre.
In questa ultima risposta, Cutts accenna anche all’host load, ovvero la capacità di carico di un server, che strettamente ci riconduce ad un precedente fattore su cui Google sta puntanto parecchio, la velocità.
Eric ha posto un totale di 29 domande, che nel loro complesso coprono diversi aspetti. Certo che se le raggruppava per argomento, sarebbe stato meglio, ma una letta tuttavia consiglio di darcela.