SEO e Motori di Ricerca del futuro – PARTE SECONDA

Pubblicato il 10 luglio 2007
Autore:
L'articolo tratta di Google, Seo, Web .

A voi, amici, la seconda parte dell’articolo sul futuro del SEO e dei Motori di Ricerca. Mi piacerebbe che ciascuno di voi, poi, presentasse il suo personale scenario: i commenti sono a vostra disposizione!

Analisi, test, feedback

Seo e Motori di Ricerca nel futuroLa conoscenza del comportamento degli utenti, l’analisi delle loro abitudini, dei loro gusti e delle loro preferenze assumerà un ruolo sempre più importante. Si renderà necessario condurre test, panel, analisi estensive su campioni di utenti che condividono caratteristiche comuni.

Non solo, anche lo studio delle correlazioni semantiche che intercorrono tra date tipologie di utenti risulterà elemento imprescindibile per effettuare un buon posizionamento. Ecco allora che diventeranno sempre più importanti le aziende che dispongono delle risorse e della competenza per effettuare questo tipo di ricerche. Il feedback di chi arriverà alle nostre pagine dai motori di ricerca diventerà merce preziosissima. Ogniqualvolta un utente ci visita ci dovremo chiedere chi è, da dove viene, che mestiere fa, a che classe sociale appartiene, corrisponde ad un gruppo di user che abbiamo già “tracciato”?

Software di analisi del posizionamento, log e metriche

Come si diceva l’analisi del traffico dai motori rappresenterà una attività di fondamentale importanza. Mi auguro che, a breve, sarà possibile individuare ciascun utente in maniera più efficace, attraverso la geolocalizzazione. Attualmente i software di statistiche fanno difficoltà a tracciare un utente che utilizza un IP dinamico, generalmente messo a disposizione dalle adsl economiche. Ma, in un futuro molto vicino, potrebbe essere sviluppato da queste stesse applicazioni un algoritmo più efficace che effettui operazioni quali l’individuazione del range di IP dell’utente (ogni adsl, in ciascuna sessione di navigazione, assegna, infatti, degli IP compresi in un dato intervallo), consideri parametri quali il browser utilizzato, la provenienza geografica, il tempo di navigazione, ecc, per tracciare, con un modesto margine di errore, ciascun utente.

Di contro, risulterà molto difficile definire delle metriche SEO efficaci. La posizione nelle serp non potrà più essere utilizzata quale parametro di valutazione dell’efficacia di una campagna. I software attuali che, sulla base di una lista di chiavi, individuano la posizione delle pagine nei motori, potranno essere tranquillamente disinstallati, non essendo in grado che di offrire la visione dei risultati relativi ad utenti appartenenti a date tipologie. Lo ribadisco: si deve ragionare in tre dimensioni, utente/chiave/posizione!

Ammettiamo, in ogni caso, che vengano implementati software di posizionamento in grado di condurre report su base tridimensionale: anche per la query più banale, sarebbero necessarie decine e decine di interrogazioni che simulino classi di utenti diverse, insomma, vi sarebbe il rischio concreto di saturazione della banda dei Motori di Ricerca. Pertanto, presumo che simili applicazioni sarebbero immediatamente bandite da Google e tutti gli altri Search Engine.

Ecco allora, che in mancanza di dati certi, i SEO – e gli stessi software di Posizionamento – non potranno che affidarsi all’analisi a posteriori dei log. Teorizzo anche la nascita di piattaforme di condivisione dei log che permettano di classificare gli utenti e, quando possibile, di attribuire l’uso di certe keyword a ciascuna classe. Per concludere, l’analisi statistica e la Web Analytic diverranno argomenti di importanza assoluta.

Fattori di Posizionamento

Già ora, senza adeguati capitali e tempo, il posizionamento per chiavi competitive è un’operazione molto complessa e, soprattutto, costosissima. Ma pensiamo a quello che succederà fra qualche anno.

Pensiamo, ad esempio, ad una ricerca per la chiave “cinema”: le serp muteranno spostandosi di pochi chilometri. Interverrà, infatti, la geolocalizzazione allo scopo di presentare risultati coerenti con l’area geografica in cui l’utente si trova; ma interverrà pure la personalizzazione: l’utente, se “conosciuto” dai motori, potrà ottenere in cima alle serp siti relativi a cinema che proiettano, in quella data settimana, film comici, proprio perché sono quelli che preferisce. E, ancora, in posizione intermedia, potrebbero essere presenti collegamenti a video contenenti i trailer di quei stessi film…

I fattori da considerare per effettuare un posizionamento saranno troppi e difficilmente misurabili. Ecco allora che sarà ancora più conveniente effettuare politiche di Long Tail Optimization. Individuare, cioè, enormi quantità di chiavi settoriali e di nicchia, dove il campione di utenti che ne fa uso risulterà ridotto e dove i motori non saranno in grado di disporre di dati certi per personalizzare la ricerca.

Quanto al codice, non credo si potrà fare molto! Sicuramente sarà necessario effettuare analisi più approfondite dei competitor, dei loro fattori on page e off page. Il link tematico avrà valenza superiore e, all’aumentare delle capacità semantiche dei motori, sarà possibile stabilire correlazioni tra siti web che, attualmente, agli occhi degli stessi motori, non hanno alcun elemento comune.

Quanto alla promozione online, si dovrà passare dall’ottica di link popularity a quella di social popularity. Le strategie per ottenere link e trust saranno quelle che possono fare la differenza: link baiting, word of mouth, buzz diventeranno termini ancora più importanti di ora per tutti i SEO. Mi viene da pensare, infine, che l’attività di Posizionamento nei Motori di Ricerca sarà molto più costosa, soprattutto in termini di tempo e, forse, di studio e dedizione.

Varie

Da qualche mese sono stati implementati i cosiddetti risultati supplementari da parte di Google.

Ammetto di non aver compreso appieno il loro funzionamento; l’unica certezza, ad oggi, è che sono del tutto inefficaci. Ad ogni modo prevedo che, col passare degli anni, si svilupperanno sempre più differenziazioni tra serp di serie A e serp di serie B; quando l’algoritmo riterrà che una pagina presenti contenuti non del tutto nuovi e/o comunque interessanti per l’utente provvederà ad estrometterla dai risultati principali ma, in mancanza di dati certi in merito ad una sua violazione delle linee guida, sarà obbligato ad indicizzarla comunque in un altro indice, meno importante. Solo fra qualche tempo si potrà valutare l’efficacia di queste operazioni: temo che, per un certo periodo, metaforicamente parlando, molte pagine meritevoli del Paradiso, saranno costrette a dimorare, ingiustamente, nel Purgatorio…

Della Privacy ho parlato a più riprese. Aggiungo solo che mi sembra possibile che, fra qualche tempo, la ricerca personalizzata intervenga anche sugli IP statici e quindi, a distanza di qualche tempo, se le mie previsioni sono corrette, anche sugli IP dinamici. Insomma, prima o poi, ma posso sbagliare, il meccanismo sarà attivo anche quando non abbiamo effettuato un accesso all’account di Google (e degli altri motori che implementeranno applicazioni similari).

Sem e Seo

A mio avviso, uno degli scopi della ricerca personalizzata è favorire la ricerca a pagamento, il Pay per Click (o altra forma prevista tra qualche anno). Mi sto domandando se, in questo scenario futuro, sarà più semplice e meno costoso effettuare del buon SEM piuttosto che avventurarsi in una complessa campagna di posizionamento. Onestamente non so rispondere a questo quesito. Le campagne SEM potrebbero aumentare a scapito di quelle SEO. Potrebbe accadere che, ad un aumento della domanda di ADS verrebbe a corrispondere una diminuzione del loro costo per le economie di scala, questo determinerebbe un ulteriore effetto volano. Ma potrebbe accadere anche l’esatto opposto, come molti affermano: l’aumento della richiesta di ADS potrebbe portare alla saturazione degli spazi espositivi e quindi a costi a click proibitivi, dirottando nuovamente molti investimenti verso il posizionamento organico.

L’esperienza, tuttavia, insegna: quando il PPC fu introdotto per la prima volta numerosi siti e blog titolavano “il SEO è morto” e, in tutta onestà, questo non è avvenuto.

Lo spam

Leggo di continuo proclami dei ricercatori dei motori di ricerca: dicono di essere vicini a sistemi per arginare lo spam, eppure il fenomeno non si arresta. Tutt’altro.

Attualmente, circa l’11% dei risultati delle serp statunitensi è composto da pagine prive di contenuti e ricolme di ads. E, tale percentuale non tiene conto di molte altre categorie di “junk pages”. Insomma, diciamocelo, oggi lo spam dilaga.

In futuro? Uso l’immaginazione… Da una parte i motori potrebbero divenire più intelligenti ed eliminare molti siti che “sporcano le serp”, dall’altra l’aggiunta della dimensione utente potrebbe rendere gli attuali spam engine molto meno efficaci e quindi meno redditizi.

Tuttavia, potrebbe anche accadere che il fenomeno si espanda anche in considerazione delle economie di scala che si possono attuare creando spam engine. Lo spammer, per mantenere inalterato il suo guadagno, potrebbe aumentare l’offerta di siti spam, sembra logico!

Inoltre, come sta avvenendo per i motori, stanno proliferando nuove tipologie di spam engine verticalizzate.

In definitiva, lo spam, come molte altre attività perniciose, segue il Terzo Principio della Dinamica.

Conclusioni

Il Posizionamento è una attività in via di estinzione?
Non credo. Per meglio dire, è una attività che nei prossimi anni subirà una incredibile evoluzione.
I SEO dovranno essere sempre più polivalenti e specializzati, ottimi copywriter, attenti all’analisi, alla statistica, alla Web Analytic, ai trend: insomma, degli esperti di comunicazione tout court. Non ci si potrà più improvvisare esperti di Posizionamento, lo spero almeno…

ultimo_seo.jpg

E se il futuro fosse talmente infausto quasi a voler dire che ne resterà uno solo, beh, allora, mi auguro di essere IO quell’unico sopravissuto!

La fine del SEO?

L’articolo è disponibile anche in PDF, convertito e lavorato in tale formato interamente a mano. Potete leggerlo, pubblicarlo, farci quello che vi pare, vi chiedo solo un link a questo blog in cambio…
[Scarica articolo – PDF 100 KByte]


3 commenti all'articolo “SEO e Motori di Ricerca del futuro – PARTE SECONDA”

  1. 11 luglio 2007 alle 16:35

    ottimo articolo anche se non so quanto tu stia andando vicino al reale scenario seo. in ogni caso. ammettendo che sia così, secondo te come faranno i seo a quantificare il loro lavoro?
    nel senso: se non sarà più possibile essere primi per una certa keyword, visto che cambierannno le serp in base alle persone, sulla base di cosa si potrà quantificare al cliente (e quindi farsi pagare per) il proprio lavorare bene?
    ok offrire una buona consulenza, ma bisognerà pur dimostrare di aver raggiunto certi obiettivi..

  2. 11 luglio 2007 alle 16:58

    Gentile Elena, ti ringrazio per la domanda, in effetti è un tema a cui non avevo pensato.
    La vedo così: non essendoci indicatori certi sulle serp alcuni si faranno pagare a ore o a forfait, altri, intelligentemente, a conversione…

  3. 12 luglio 2007 alle 14:16

    A mio, peraltro modestissimo, avviso, il compenso del SEO sarà legato alla crescita globale del sito.
    Nel senso: se un sito prima di attività seo faceva x visite e y conversioni, l’agenzia legherà il suo compenso al raggiungimento di x+tot visite e y+tot conversioni.

    Sul compenso a conversione, o a vendita, ho più volte espresso scetticismo perchè se da una parte elimina il rischio di impresa per l’azienda che vuole investire sul web, dall’altra è troppo vincolante per l’agenzia e ne rappresenterebbe un cappio al collo.

    un compromesso ideale sarebbe quindi una logica da vecchi media (io ti posso garantire tot popolarità a toto prezzo) ma col vantaggio della targettizzazione e della precisione nella misurazione dei risultati dati dalla web analysis

    Ryan

Scrivi il tuo commento