Comunicazione e web agency

Ottimizzazione (motori di ricerca)

Con il termine ottimizzazione (Search Engine Optimization, SEO, in inglese) si intendono tutte quelle attività finalizzate ad aumentare il volume di traffico (accessi) che un sito web riceve tramite i motori di ricerca. Tali attività comprendono l'ottimizzazione sia del codice sorgente della pagina web, sia dei contenuti. L'ottimizzazione è parte di un'attività più complessa, quale il marketing dei motori di ricerca (Search Engine Marketing, SEM). L'attività di ottimizzazione per i motori di ricerca comprende varie operazioni tecniche che vengono effettuate sul codice HTML (incluso il markup) e sui contenuti delle pagine web del sito, nonché sulla struttura ipertestuale complessiva (tecnologie di interazione comprese). Indispensabile è anche l'attività esterna al sito, solitamente effettuata con tecniche di link building, diffusione di comunicati stampa e campagne di article marketing di qualità. La figura professionale specializzata in ottimizzazione è il SEO (search engine optimizer, ottimizzatore per i motori di ricerca - che ha il medesimo acronimo dell'attività che svolge). In siti di dimensioni elevate, o particolarmente complessi, il SEO resta in stretto contatto con il team di lavoro, necessitando a seconda degli elementi trattati di specifiche professionalità che difficilmente possono ricadere in una singola persona. L'ottimizzazione di un sito è funzionale al suo posizionamento nelle pagine di risposta dei motori, che a sua volta è funzionale alla visibilità dei prodotti/servizi venduti.

L'ottimizzazione per Google

Google introdusse un elemento di novità nell'approccio al problema dell'indicizzazione del web, il PageRank, algoritmo di valutazione della rilevanza di una pagina basato su concetti matematici che l'inventore di Ethernet, Bob Metcalfe, sintetizzò con il termine network effect: una rete è tanto più utile quanto più elevato è il numero dei suoi utenti. Google indicizza una pagina basandosi sui suoi contenuti e sui link che puntano ad essa.

Buone pratiche per l'ottimizzazione delle pagine

Per quanto riguarda la struttura HTML, è buona norma:

Inserire i contenuti importanti all'inizio del codice HTML; Usare I tag HTML il più possibile attinenti alla struttura dei contenuti presentati (semantico) e verificare sempre che il codice delle pagine sia formalmente valido.

Può essere utile confrontarsi con le specifiche WCAG per rendere i contenuti meglio "accessibili" anche per i crawler; Differenziare opportunamente i titoli delle varie pagine di un sito, renderli chiari e coerenti con il contenuto della pagina: dovrebbero contenere le parole chiave di maggior peso; Evitare di inviare informazioni incontrollate o inutili (potenzialmente dannose) tramite tag: i browser le ignorano, i crawler no; Evitare l'utilizzo di JavaScript per gestire la navigazione, perché il crawler non interpreta gli script e non seguirà questi collegamenti. Usare invece collegamenti standard inserendo tag con l'attributo.

I browser delle ultime generazioni non avranno problemi a gestire link contenenti sia un indirizzo in href che una chiamata a JavaScript in un gestore di evento onClick: se quest'ultima è ritenuta indispensabile, è possibile inserirla ed essa verrà eseguita invece del collegamento vero e proprio. È importante ricordarsi di inserire comunque anche il collegamento tramite l'attributo href, a beneficio di browser non standard, browser accessibili, e crawler.

Riguardo alla gestione del server e degli URL, invece, è opportuno:

  • Possibilmente, scegliere anche l'URL della pagina in modo che contenga le parole chiave più probabili, ovvero che sia descrittivo e possibilmente somigliante al titolo della pagina stessa;
  • Evitare se possibile l'invio di parametri per un'eventuale applicazione lato server tramite l'inserimento di un'interrogazione (query) nell'URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l'indirizzo della pagina (http://www.sito.it/percorso/pagina?parametri=valori). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query;
  • inoltre, se l'interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie;
  • Evitare l'utilizzo di redirect non HTTP (attraverso tag ), perché non è detto che il motore di ricerca li segua. È anche diffusa l'idea che la loro presenza possa penalizzare il ranking di una pagina. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx);
  • inoltre, ogni redirezione effettuata tramite tag è contraria ai paragrafi 7.4 e 7.5 delle WCAG 1.0;

Evitare se possibile di servire contenuti differenziati ai crawler (Cloaking) tentando di riconoscerne la stringa di User agent o l'IP del bot che scansiona le nostre pagine. È una pratica potenzialmente dannosa che espone (in casi estremi) al rischio concreto di cancellazione dagli indici dei motori e nella maggior parte degli altri casi ad una mancata valorizione delle pagine interne di un sito; qualora questo non fosse possibile per ragioni tecniche ( per esempio fornire dei contenuti statici di un sito realizzato interamente in Flash), ma fosse necessario implementare una staticizzazione dei contenuti, è preferibile gestirla client-side, mediante l'uso di cookie di sessione.

Implementare i file robots.txt e sitemap.xml per indicare ai crawler dei motori di ricerca quali contenuti indicizzare e quali escludere dal processo di indicizzazione.