Che a Mountain View siano sempre con le dita sulla tastiera a buttar giù codice per rendere il Big Motore sempre più performante e rispondente ai nuovi criteri di web design non v’era dubbio.
Ieri, tanto Cutts che sul blog ufficiale di Google, hanno annunciato una miglioria - se vogliamo significativa - che per lungo tempo ha precluso la scansione di pagine organizzate e realizzate solo per certi browser e comunque non per tutti gli utenti (qua mi riferisco espressamente ad utenti non completamente autonomi e la famosa accessibilità, senza entrare oltre nel merito perchè divagherei dal fine ultimo del post).
In sostanza, Google, da oggi è in grado di scansionare anche le pagine nascoste e collegate ai Form, quelle pagine cioè raggiungibili solo mediante una interazione con l’utente. Si supponga a tal proposito una pagina di ringraziamenti, molto in voga negli ultimi periodi per azioni di conversione. Detta pagina, di proposito, non viene mai linkata da nessuna altra parte del sito, ma solo collegata all’action di un form per fare in modo che l’utente riceva - nel caso specifico - un ringraziamento derivante da una particolare azione (compilazione di un questionario, acquisto, partecipazione ad un sondaggio e via dicendo). Questa pagina, volutamente lasciata isolata, non inserita nemmeno nella mappa fino ad oggi non sarebbe mai stata raggiunta dal crawler e di conseguenza mai analizzata.
Ora, se rimaniamo sul discorso della pagina di ringraziamento, magari il discorso fila anche (non avrebbe senso mostrare quella pagina se non in determinate circostanze). Ma proviamo un attimo a pensare a quei siti realizzati solo con un concetto di design grafico in mente, quelle dove per iniziare v’è magari una combo di scelta che se non selezionata non farebbe proseguire l’utente nella sua navigazione.
In questi anni me ne sono passate diverse di pagine di questo tipo sotto il naso, specie quelli di grandi corporate che pretendono una selezione a livello di paese da subito. Cosa pensate che succeda con queste pagine? Come dice Cutts: ***think of search engine spiders much like small children. They go around the web clicking on links. ***Quindi, niente links, niente navigazione, ovvero una situazione assolutamente da evitare.
Visto che i webmaster o i webdesigner sono spesso duri di comprendonio, se Maometto non va dalla montagna, la montagna va da Maometto, e da qui la nuova capacità di scansione del motore, che comunque rispetterà sempre il robots.txt, quindi per capirci con l’esempio iniziale, se la nostra pagina grazie.html gli è stata negata l’indicizzazione, comunque Google non la prenderà in considerazione.
Alcune prerogative di questa nuova analisi, come riportato dal blog, sono:
- Solo un numero ristretto di siti verrà analizzato sotto questo aspetto;
- Il recupero analizzerà solo form la cui action è di tipo Get, e comunque dove non è prevista l’immissione di informazioni, ma solo la selezione di elementi presenti nella pagina stessa (combo, checkbox, radio);
- Le pagine recuperate tramite questo sistema non influenzeranno in alcun modo il PageRank, ma contribuiranno esclusivamente ad arricchire gli indici e il numero di pagine presenti per un dato sito.