Spider & Bot: cosa sono?

  • 17 Aprile 2014
  • News

Anche se è possibile su alcuni motori che l’inserimento dei link al sito venga effettuato manualmente con un processo che viene chiamato “Add URL”, nella maggior parte dei casi questo processo avviene in seguito al passaggio di uno Spider o un Bot. Ma cosa sono gli spider?
Uno spider è un programma che ha il compito di leggere una o più pagine di uno o più siti web. Questo avviene in automatico percorrendo il web e seguendo solo quelle catene di link che, partendo dalle pagine già presenti nel database, si diramano per tutta la Rete. Lo spider può essere immaginato come un browser che visualizza il contenuto delle pagine come un essere umano ma ha capacità di lettura molto limitate rispetto a quelli moderni. Questo spiega perché non riesca a leggere i Javascript, i files Flash ed in generale tutte quelle parti che non vengono stampate direttamente sul browser. Il suo obiettivo è quello di tenere traccia di quali informazioni il sito contiene e indicare al navigatore l’elenco di quei siti che hanno maggiore attinenza con la ricerca che sta eseguendo.
Perché ciò sia possibile, il software dei motori deve poter leggere le informazioni e catalogarle o indicizzarle in qualche modo. Tutto quello che non è direttamente leggibile, non è indicizzabile o catalogabile. Tutta la grafica di un sito, quindi, può avere significato per un uomo, ma non ne ha alcuno (o pochissimo) per un motore di ricerca. In generale possiamo dire che possono essere considerati utili, al fine dell’indicizzazione, esclusivamente i testi all’interno del tuo sito web.

Evitare Errori

Lo studio e la sperimentazione consentono di comprendere quali siano i metodi usati per comporre i risultati, i parametri di maggior incidenza e le soglie limite. Tali conoscenze permettono di realizzare pagine e siti che abbiano le caratteristiche necessarie per meglio posizionarsi sui motori, a fronte delle ricerche delle chiavi oggetto dell’attività. Chiaramente questo, nel tempo, ha fatto si che si sviluppassero figure professionali (i cosiddetti esperti di SEO e SEM) per ottimizzare, appunto, la posizione dei siti web all’interno dei motori di ricerca. Questo, che è un fatto sicuramente normale da un lato, ha chiaramente dei lati negativi. Il più negativo, tra i tanti, è quello di avere reso sempre più aggressivo l’approccio all’ottimizzazione e di avere fatto salire, e tanto, l’attenzione degli algoritmi verso tutte quelle pratiche considerate “scorrette”. In particolare, molti siti web che hanno raggiunto posizioni di privilegio negli anni passati hanno subito nel tempo forti penalizzazioni e un rimescolamento delle carte per quanto riguarda il posizionamento. Non possiamo fare altro che darvi qualche piccolo consiglio utile sulle cose da evitare nel posizionamento:

  1. Non usare trucchi e trucchetti. Sono troppo rischiosi e hanno la necessità di un continuo controllo e manutenzione del sistema. Inoltre prima o poi verrete scoperti.
  2. Evitare l’uso di tecniche dichiaratamente non gradite dai motori, pena l’esclusione definitiva dagli indici (cloaking, redirect).
  3. Evitare l’eccessiva presenza di codice Javascript nelle pagine sopratutto se questo interferisce con l’analisi degli Spider.
  4. Realizzare siti web con troppi temi, non attinenti tra loro, strutturati male e soprattutto non utili all’utente del settore.
  5. Non scambiate link con criteri puramente casuali. Dovete sempre cercare di mantenere attinenza con il vostro servizio.
  6. Diffidate da soluzioni prospettate come certe e garantite, nessun può farlo e in particolare Google lo considera come un’atteggiamento considerato illecito.

Altri Articoli

Leggi tutti