Esplorazione Visuale in Real-Time

Visualizza in real-time come lo spider di un motore di ricerca esplorerebbe il tuo sito, con scala temporale simulata... e vedi come funziona sotto il cofano!

Lo spider di Visual SEO Studio esplora i siti web emulando il comportamento dello spider di un motore di ricerca[1], e il programma mostra in real-time i percorsi di esplorazione intrapresi.

Real-time Crawl Session - Visual SEO Studio
Il G-time simulato mostra quanto tempo occorrerebbe allo spider di un motore di ricerca per visitare il sito

Caratteristiche principali:

  • Esplora come farebbe il crawler di un motore di ricerca
  • Può mettere la sessione di esplorazione in Pausa e Riprenderla
  • I dati di esplorazione sono sempre persistiti e possono essere visionati in un secondo momento
  • Ricostruisce la struttura di link in tempo reale
  • Supporta i percorsi Unicode negli URLs (caratteristica distintiva!)
  • Supporta Unicode nei nomi di dominio (es. domini .рф - caratteristica distintiva!)
  • Può lanciare più sessioni di esplorazione in parallelo (caratteristica distintiva!)
  • Può esplorare siti basati su Ajax (es. siti fatti con Wix - caratteristica distintiva! )
  • e molto altro...

Un pannello in sovra impressione mostra in tempo reale il "G-Time Simulato" (altra caratteristica unica in Visual SEO Studio!): il tempo di esplorazione che occorrerebbe a googlebot - o qualsiasi altro agente a bassa frequenza - per visitare il sito, rendendo estremamente chiara l'importanza di percorsi di esplorazione efficienti scolpiti nelle pagine web.

Sarai spesso sorpreso dai percorsi di esplorazione inattesi che uno spider prenderebbe a partire dalla Home Page del sito... controllali, prima è meglio è!

Vedi anche:

[1] Lo spider di Visual SEO Studio visita i siti web usando una ricerca in ampiezza, un modo efficiente di esplorare un sito web trovandone prima nel processo di esplorazione i contenuti più importanti, in assenza di indicatori come i link esterni.
Ogni motore di ricerca proprie politiche di esplorazione che non possono essere interamente riproducibili essendo prioritizzate da segnali esterni come il page rank, e risultato di processi a fasi multiple (dove download, estrazione di link e messa in coda degli URL per essere visitati sono eseguiti indipendentemente da componenti separati) oltre che parte dei propri segreti industriali. L'esplorazione in ampiezza ciò nonostante ricostruisce in modo riproducibile in generale i percorsi di esplorazione presi dalla più parte dei bot dei motori di ricerca.
Di più sulle politiche di selezione dei web crawler (in Inglese) può essere letto su Wikipedia.