Questo è il dilemma … come potrebbe dire Amleto se oggi si trovasse di fronte a questo quesito.
Per anni abbiamo visto le query dei motori di ricerca affollate da tonnellate di pagine che spesso mostravano gli stessi risultati, o comunque riconducevano sempre allo stesso sito web, di fatto scalzando via risultati che spesso e volentieri potevano essere più attendibili rispetto a quelli proposti, sovraffollando le SERP o come potrebbe direbbe Matt Cutts crowded results.
Fatto sta che per molto tempo lo scegliere il sottodominio per promuovere pagine specifiche del proprio sito web, piuttosto che per creare delle doorway pages ha generato tonnellate di risultati inattendibili falsando di fatto le SERPs e di conseguenza le aspettative degli utenti ricercatori. Questo anche a totale svantaggio di coloro che - in buona fede - usavano lo strumento in maniera corretta.
Mi ricordo ancora di un sito web che rispondeva a tutti gli oltre ottomila comuni italiani, mostrando il medesimo contenuto, semplicemente cambiando qualche alt tag, il title e la description del sito. Ora immaginatevi un sito praticamente omnipresente a livello geografico, e poi dei contenuti scadenti se non addirittura inutili. Risultato … tempo perso e dopo poco anche un certo scetticismo da parte degli utenti stessi nei confronti del motore di ricerca, che in un era di ipertecnlogia come quella alla quale siamo abituati, senza dubbio può suscitare qualche critica.
Questo fattore, unitamente al concetto di Spam nel senso più lato della parola e alla recente campagna di abbattimento del concetto di manipolazione dei link (link manipulation) che recentemente Google ha iniziato a contrastare ha portato inevitabilmente a fare le pulizie di Natale.
Se oggi, infatti, facciamo delle ricerche con BigG ci accorgeremo sicuramente che per la maggior parte delle combinazioni di parole chiave restituisce ora soltanto una parte dei risultati. Dopo alcuni test, direi che addirittura ne restituisce 1/10. Cosa è successo? Google è stata vittima di un attacco di hackers che hanno intaccato il loro database? O semplicemente Google ha fatto la pulizia richiesta e ha rimosso un pò di siti?
In parte, l’ultima affermazione è vera. Google ha eliminato si parte dei risultati contenuti nei suoi indici, e principalmente pagine che portavano a 404 piuttosto che pagine che violavano le policy del motore. Ma soprattutto Google ha iniziato a considerare i sottodomini come delle sottodirectory, introducendo una nuova policy nell’algoritmo e limitando il numero di visualizzazioni di un sito web ad un massimo di due, quindi sito e sottopagina.
Ne consegue che se prima potevano saltare fuori SERP dove per 10-15 risultati di fila veniva fuori sempre lo stesso dominio, questo oggi non sarà più possibile. Il tutto ovviamente condito dalla solita salsa alle eccezioni, ovvero - come per stessa ammissione di Cutts che dice “se un dominio (e io aggiungerei anche sottodominio) è particolarmente rilevante, Google ritornerà più dei due canonici risultati annunciati.”
A particular domain is really relevant, we may still return several results from that domain (Matt Cutts){: .blockquote} }
Questo significa, almeno per la maggioranza di siti di piccole dimensioni, assolutamente nulla. Cioè se prima siti con 30-50 pagine erano abituati ad avere 1 o 2 pagine, queste pagine continueranno ad essere viste ne più ne meno come prima. Le cose saranno invece diverse per directory e portali di settore che dovranno ora scontrarsi con questo nuovo modo di ragionare di Google, fermo restando l’ipotesi della rilevanza.
Ecco allora spiegato perchè da un mesetto a questa parte trovavo SERP decisamente meno nutrite e non riuscivo a capacitarmi, sicchè oggi ho deciso di rileggermi tutti gli ultimi post sull’argomento finchè non mi sono soffermato sulla frase di Cutts (che evidentemente in un primo tempo mi era sfuggita): Note that this is a pretty subtle change, and it doesn’t affect a majority of our queries. In fact, this change has been live for a couple weeks or so now and no one noticed, tratto dal suo post. Quindi vero che non si poteva far caso, perchè detta modifica era difficile da cogliere, al fatto che i risultati restituiti ora erano circoscritti per i singoli domini, ma è anche vero che tale circoscrizione inevitabilmente ha significato la riduzione del numero dei risultati nelle SERPs.
A questo punto è lecito domandarsi quale sistema possa essere meglio utilizzare per promuovere il proprio sito, dove per promozione in questo caso mi riferisco ad un concetto puramente pubblicitario, quindi creo il sito e lo pubblico per farmi conoscere.
Ovviamente il tutto dipende dal tipo di hosting prescelto, della registrazione del dominio piuttosto che si sta adoperando un motore di blogging. Per stessa ammissione di Cutts, il sottodominio o la sottodirectory non avranno vantaggio l’uno rispetto all’altro. Ne nasce però un evidente problema che si trasla in particolar modo sulle piattaforme di blogging o sugli hosting provider che offrono spazio web ai propri utenti (tanto che usino il sistema del sottodominio che quello delle sottodirectory). Infatti inevitabilmente, se è vero che due e solo due risultati verranno restituiti, prima o poi spariranno milioni di pagine web dalle SERPs. Non credo che Google abbia sottovalutato questo aspetto, anche perchè il suo stesso sistema di blogging - BlogSpot, alias Blogger - ne risentirebbe. Credo che in casi come questi vi saranno delle eccezioni e comunque sarà il tempo e gli aggiustamenti fatti dagli ingegneri nel corso dei prossimi mesi ci mostreranno eventuali reazioni.
A questo punto concludo con quelle che sono - e che sono sempre state - le mie personali convinzioni sul modo di gestire un sito web rispetto a questa storia del dominio, sottodominio o directory.
In primis, qualora il sito rappresenti una entità (o cliente se preferite) che ha anche sedi all’estero, visto che non sempre è possibile acqustare domini in tutte le nazioni (vedasi i domini tedeschi o i domini cinesi per esempio) è bene procedere all’acquisto del TLD (Top Level Domain) per la singola nazione (es. .it, .co.uk, .de, .fr, .au, ecc). Se il cliente è locale, ma se ne fa una questione di branding, quindi a tutela del marchio, anche qui, dove possibile, preferisco accaparrarmi tutti i domini specifici registrandoli con lo stesso alias in tutte le possibili combinazioni.
Passando poi al contenuto. Qui il discorso è vincolato in funzione della scelta di cui sopra, ma soprattutto dell’organizzazione logica e delle future espansioni del sito web, un aspetto che spesso viene sottovalutato.
Ipotizziamo la scelta del mono dominio, qualora vi sia un contenuto modesto, nell’ordine delle 10 pagine circa, senza suddivisioni che richiedano troppe sottocartelle per suddividere gli argomenti o le sezioni del sito, si può procedere anche ad un discorso del tipo dominio.tld/lingua/pagine-o-sottocartella, regola che vale come già detto se si è in presenza di un solo dominio, perchè diversamente si deve procedere (per un maggior effetto) alla pubblicazione dei contenuti in lingua negli specifici domini, quindi di fatto avere diversi spazi web o un piano hosting frazionabile (a seconda del provider).
Qualora però il numero delle pagine sia di un numero superiore, ho sempre preferito creare un sottodominio in modo da avere una intera gerarchia dedicata ad una specifica lingua (facilitandomi anche la gestione dei links interni). Tuttavia la gestione del sottodominio non è una cosa da webmaster novizi e che comunque richiede l’accesso al DNS del dominio registrato, piuttosto che la possibilità di configurare il server web come meglio si ritiene opportuno o quantomeno di usare script di redirect.
E’ consigliabile pertanto approfondire bene con il Cliente quali siano le aspettative che intende ottenere dal suo sito web, ma soprattutto cercare di ipotizzare quali siano le evoluzioni che detto sito potrà avere nel corso del tempo.