Creare siti web e pubblicarli è divenuto sempre più facile di questi tempi. Ma per quanto riguarda i contenuti, sia sotto un profilo qualitativo che sotto quello di interesse globale e quindi di rintracciabilità, è tutt’altra storia.
In questo frangente bisogna fare tutte quelle attività necessarie per dar luogo ad un interesse anche da parte del motore di ricerca, e bisogna poi utilizzare gli strumenti giusti per verificare l’interesse di questi motori nei confronti del sito web in questione.
Tra questi strumenti, per quanto concerne quelli solo on line, il Google Webmaster Tool lo conoscono bene o male tutti quanti quelli del settore. Microsoft, dal canto suo, non poteva rimanere indifferente, e sebbene in ritardo, poco meno di un anno fa lanciò il suo strumento. Ho avuto la fortuna di partecipare alla beta (solo su invito) e veder crescere questo strumento. Ci sono molte cose che il tool Microsoft non fa se lo si paragona allo strumento di Mountain View. Tuttavia, è con estremo interesse che in questi giorni è stato dato l’annuncio di un update del tool, ora in grado di riportare i Crawl Issues, ovvero i problemi di navigazione.
Direte voi, chissà mai cosa hanno inventato. In effetti non è che abbiano scoperto o inventato l’acqua calda. A differenza però di quanto ci ha abituato fino ad oggi Google con il sua scansione web che riporta principalmente errori di accesso ai file (vogliano essere generati da timeout, piuttosto che file non raggiungibili a livello http, sitemap o robots) lo strumento Microsoft si preoccupa di sviscerare le seguenti informazioni:
- File Not Found (404), il classico errore della pagina rimossa, ma con una marci in più, perchè a differenza di Google, il tool live riporta anche la pagina da dove il link con la pagina mancante è stato trovato. Questa cosa, nonostante l’abbia più volte segnalata, ancora non è stata implementata.
- Blocked by REP, ovvero le pagine trovate dal crawler, ma bloccate dal Robots Exclusion Protocol (REP), esclusione impostabile - giusto per completezza - tanto nel meta tag della pagina che nel file robots.txt.
- Long Dynamic URLs, ovvero quelle query parametriche spaventose, non SEO ottimizzate che possono creare anche loop al crawler.
- Unsupported Content-Types. Questa è un pò più Microsoft Style. Live infatti non accetta tutti i content-type restituibili tramite web, quindi in questa sezione si preoccupano di riportare eventuali occorrenze di casi trovati per la rete.
Un piccolo cambiamento, in fin dei conti, ma pur sempre un passo avanti per noi SEO e SEM manager. Speriamo solo che la prossima novità non arrivi tra altri 5 mesi.