6 minuti

seoCon il termine ottimizzazione (in lingua inglese Search Engine Optimization, in acronimo SEO) nel linguaggio di internet si intendono tutte quelle attività finalizzate ad ottenere la migliore rilevazione, analisi e lettura del sito web da parte dei motori di ricerca attraverso i loro spider, grazie ad un migliore posizionamento.

 

L’attività SEO consente un facile reperimento del sito da parte degli utenti che cercano sui motori e normalmente determina l’aumento del volume di traffico qualificato (utenti specificamente interessati) che un sito web riceve tramite i motori di ricerca. Tali attività comprendono l’ottimizzazione della struttura del sito e degli url (url optmization), dell’accessibilità delle informazioni da parte dei motori degli utenti, spider (robot and sitemap optimization) sia del codice sorgente (code and error optimization), degli approfondimenti link (link optimization), la presenza delle immagini, della pagina web, sia dei contenuti.

L’ottimizzazione è parte di un’attività più ampia, il Web marketing (marketing del web e dei motori di ricerca), differente dal Search Engine Marketing (SEM), che invece è una specifica branca del Web marketing che riguarda l’attività di acquisto di traffico svolta nei principali motori di ricerca. La piattaforma di SEM più famosa è sicuramente AdWords (di Google Inc.), la quale permette agli utenti di acquistare una parola chiave tramite un meccanismo ad asta: in base all’offerta effettuata (e al punteggio di qualità) si ottiene un determinato posizionamento nella pagina dei risultati del motore di ricerca. Nonostante questo si può ritenere che le tecniche di attività di SEO e quelle di SEM non differiscano in modo sostanziale, bensì abbiano numerosi punti in comune.

Le due caratteristiche salienti che li differenziano sono:

  1. L’investimento monetario per il SEM e la “gratuità” delle campagne SEO;
  2. L’immediatezza del SEM (una campagna online dà risultati immediati) e i lunghi tempi della SEO (i risultati delle attività di SEO sono visibili dopo settimane di lavoro).

L’attività di ottimizzazione per i motori di ricerca comprende varie operazioni tecniche che vengono effettuate sul codice HTML (incluso il markup) e sui contenuti delle pagine web del sito, nonché sulla struttura ipertestuale complessiva (tecnologie di interazione comprese). Indispensabile è anche l’attività esterna al sito, solitamente effettuata con tecniche di link building, diffusione di comunicati stampa e campagne di article marketing di qualità.

La figura professionale specializzata in ottimizzazione è il SEO (search engine optimizer, ottimizzatore per i motori di ricerca – che ha il medesimo acronimo dell’attività che svolge). In siti di dimensioni elevate, o particolarmente complessi, il SEO resta in stretto contatto con il team di lavoro, necessitando a seconda degli elementi trattati di specifiche professionalità che difficilmente possono ricadere in una singola persona. L’ottimizzazione di un sito è funzionale al suo posizionamento nelle pagine di risposta dei motori, che a sua volta è funzionale alla visibilità dei prodotti/servizi venduti.

Pratiche per l’ottimizzazione delle pagine

Per quanto riguarda la struttura HTML, parte dell’ottimizzazione consiste nel:

  • Inserire i contenuti importanti all’inizio del codice HTML;
  • Usare I tag HTML il più possibile attinenti alla struttura dei contenuti presentati (semantico) e verificare sempre che il codice delle pagine sia formalmente valido[1]. Può essere utile confrontarsi con le specifiche WCAG[2] per rendere i contenuti meglio “accessibili” anche per i crawler;
  • Differenziare opportunamente i titoli delle varie pagine di un sito, renderli chiari e coerenti con il contenuto della pagina: dovrebbero contenere le parole chiave di maggior peso;
  • Evitare di inviare informazioni incontrollate o inutili (potenzialmente dannose) tramite tag <meta>: i browser le ignorano, i crawler no;
  • Evitare l’utilizzo di JavaScript per gestire la navigazione, perché il crawler non interpreta gli script e non seguirà questi collegamenti. Usare invece collegamenti standard inserendo tag <a> con l’attributo <href>. I browser delle ultime generazioni non avranno problemi a gestire link contenenti sia un indirizzo in href che una chiamata a JavaScript in un gestore di evento onClick: se quest’ultima è ritenuta indispensabile, è possibile inserirla ed essa verrà eseguita invece del collegamento vero e proprio. È importante ricordarsi di inserire comunque anche il collegamento tramite l’attributo href, a beneficio di browser non standard, browser accessibili, e crawler.

Riguardo alla gestione del server e degli URL, invece:

  • Possibilmente, scegliere anche l’URL della pagina in modo che contenga le parole chiave più probabili, ovvero che sia descrittivo e possibilmente somigliante al titolo della pagina stessa;
  • Evitare se possibile l’invio di parametri per un’eventuale applicazione lato server tramite l’inserimento di un’interrogazione (query) nell’URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l’indirizzo della pagina (http://www.sito.it/percorso/pagina?parametro=valore). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query;
    • inoltre, se l’interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie[3];
  • Evitare l’utilizzo di redirect non HTTP (attraverso tag <meta http-equiv=”refresh”>), perché non è detto che il motore di ricerca li segua. È anche diffusa l’idea che la loro presenza possa penalizzare il Link Analysis Ranking di una pagina[4]. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx); inoltre, ogni redirezione effettuata tramite tag <meta http-equiv=”refresh”> è contraria ai paragrafi 7.4 e 7.5 delle WCAG 1.0[2];
  • Evitare se possibile di servire contenuti differenziati ai crawler (Cloaking) tentando di riconoscerne la stringa di User agent o l’IP del bot che scansiona le nostre pagine. È una pratica potenzialmente dannosa che espone (in casi estremi) al rischio concreto di cancellazione dagli indici dei motori e nella maggior parte degli altri casi ad una mancata valorizzazione delle pagine interne di un sito; qualora questo non fosse possibile per ragioni tecniche (per esempio fornire dei contenuti statici di un sito realizzato interamente in Flash), ma fosse necessario implementare una staticizzazione dei contenuti, è preferibile gestirla client-side, mediante l’uso di cookie di sessione.
  • Implementare i file robots.txt e sitemap.xml per indicare ai crawler dei motori di ricerca quali contenuti indicizzare e quali escludere dal processo di indicizzazione.

L’ottimizzazione per Google[modifica | modifica wikitesto]

Nei primi anni Duemila il celeberrimo motore di ricerca Google ha introdotto un elemento di novità nell’approccio al problema dell’indicizzazione del web, il PageRank, un algoritmo di valutazione della rilevanza di una pagina basato su concetti matematici. Nel decennio successivo questo valore ha perso progressivamente importanza. Oggi è considerato uno dei tanti parametri di cui tener conto (e non il più importante). Robert Metcalfe (inventore di Ethernet), ha definito tale algoritmo come “l’effetto della rete” (network effect): una rete è tanto più utile quanto più elevato è il numero dei suoi utenti. Google indicizza una pagina basandosi sui suoi contenuti e sui link che puntano ad essa. Non solo: utilizza anche 200 valori segreti (o almeno lo sono la maggior parte di essi), che interagiscono mediante l’algoritmo di Google per definire la qualità e vari altri fattori contenuti nei siti (e nei blog, oltre che nei servizi utili nel web). Nelle varie informazioni che è necessario conoscere per arrivare nelle vette dell’ottimizzazione per Google è necessario che il proprio sito possa essere SEO friendly, ovvero che possa essere riconosciuto come sito o blog facilitato per quanto riguarda la lettura dei bot dei motori di ricerca. Ciò avviene prestando particolare cura a molti degli elementi che si trovano in ogni pagina di un sito web, e di ogni documento caricato sul web.

Fonte 

Questo articolo è stato letto 0 volte

Shares

About Vincenzo Carrettiere

Vanto una ventennale esperienza come dirigente aziendale nel modo della consumer electronics, con un’ampia specializzazione in tutti gli aspetti di gestione commerciale, tecnici e organizzativi. Nel corso degli anni ho instaurato numerose relazioni professionali in ambito nazionale ed internazionale. Ho contribuito, a partire dalla fine degli anni 90, alla progettazione ed allo sviluppo di piattaforme E-Commerce B2B B2C , avviando una delle primissime e più significative attività di E-Commerce in Italia. Ho approfondito le tematiche del settore sviluppando le conoscenze in ambito Web Marketing & Seo. La passione, la curiosità e soprattutto la necessità di valutare le opportunità di sviluppo imprenditoriale, mi hanno spinto a seguire da vicino le evoluzioni del Web Marketing, maturando significative conoscenze ed esperienze relativamente allo sviluppo di strategie in ambito Social Media. Ho collaborato e collaboro, in qualità di consulente web marketing, con diverse aziende di primaria importanza.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Shares
Richiedi subito una consulenza GratisRichiedi