Manuale: Esplora Sitemap XML
La funzione "Esplora Sitemap XML" di Visual SEO Studio, documentata in dettaglio.
Esplora Sitemap XML
Questa potente funzione ti permette di fare l'audit di Sitemap XML esplorando tutti gli URL in esse elencati.
Le Sitemap possono essere esplorate ricorsivamente, e sono presentate annidate nell'intuitiva interfaccia utente.
Non solo puoi esplorare sitemap normali o sitemap indice, il programma va un ulteriore passo oltre e permette persino di esplorare tutte le Sitemap XML elencate dentro un file robots.txt che usi le direttive Sitemap:
.
Per saperne di più sulla funzione, leggi la pagina Esplora Sitemap XML e robots.txt.
URL di XML Sitemap o di robots.txt
Inserisci qui l'indirizzo della Sitemap XML di cui vuoi fare l'audit, o del file robots.txt
Gli URL elencati nella Sitemap XML saranno scaricati e mostrati annidati sotto al nodo della Sitemap.
Se inserisci l'URL di una Sitemap Indice, ci saranno due livelli di annidamento, con la Sitemap Indice in cima, poiché tutte le Sitamp XML elencate nella Sitemap Indice saranno scaricate per prime, e poi pre ogni Sitemap saranno scaricati i suoi URL.
Analogamente, se inserisci l'URL di un file robots.txt che utilizza le direttive Sitemap:
, ci saranno tre livelli di annidamento.
Se non specifichi un protocollo (http://
o https://
), sarà utilizzato http://
.
Nome Sessione (opzionale)
Puoi dare alla tua sessione di esplorazione un nome descrittivo opzionale a tuo uso e consumo. Potrai anche aggiungerlo o modificarlo in un momento successivo.
Mostra/Nascondi opzioni
Cliccando sul link Mostra opzioni la finestra si espanderà per permetterti di accedere a ulteriori opzioni di esplorazione.
Usa Autenticazione HTTP
L'accesso a siti web ancora in sviluppo potrebbe essere ristratto tramite autenticazione HTTP.
Cliccando sul bottone , apparirà una finestra per permetterti di specificare le credenziali di accesso da per fare l'audit di una Sitmap XML di un sito con accesso ristretto tramite autenticazione HTTP.
Dimensione Massima Download per URL (KB):
La massima dimensione tollerata per le pagine web da scaricare. Pagine che eccedono tale dimensione saranno troncate.
Una pagina troncata potrebbe inficiare il processo di esplorazione: link nel contenuto HTML successivi al punto di troncamento non possono essere trovati e seguiti. Non è così raro trovare siti le cui pagine sono - a causa di errori di configurazione nel web server - così affollate di roba inutile prima del vero e proprio contenuto (es. tonnellate di script e CSS nella sezione head
dell'HTML in alcuni siti WP male configurati, o enormi ViewState all'inizio della sezione body
dell'HTML in mal concepite vecchie pagine ASP.NET WebForms) che nessun link può essere trovato prima del punto di troncamento. Solo la Home Page sarebbe visitata e la sessione di esplorazione terminerebbe. Questo è proprio uno dei casi coperti dalla nostra FAQ di risoluzione problemi.
In tali casi potresti volere aumentare il limite del parametro.
Raccomandiamo di tenere il limite predefinito (512 KB) e cambiarlo solo se realmente necessario.
Ci sono ragioni per cui il limite predefinito esiste:
-
Aumentare il limite aumenta anche il consumo di memoria del programma durante il processo di l'esplorazione.
Visual SEO Studio usa dei punti di controllo della memoria durante l'esplorazione, per prevenire l'avvenirsi di crash dovuti a limitazioni nella disponibilità di RAM del computer: ogni poche migliaia di pagine visitate, controlla la memoria disponibile per vedere se può completare il compito successivo; se la memoria disponibile non è sufficiente il processo di esplorazione termina. Siamo orgogliosi di quanto Visual SEO Studio sia robusto rispetto ai problemi di memoria.
Incrementare il limite di dimensione di pagina aumenta anche la richiesta di memoria libera da parte del programma, aumentando la probabilità che il processo di esplorazione termini prima che tutte le pagine siano visitate, se la dimensione reale delle pagine non è poi così grande. -
Sebbene Google sia molto tollerante ed è in grado di scaricare senza troncamento pagine di dimensione fino a 15-16 MB, ciò non vuole dire che le pagine con HTML corposo siano buone per i motori di ricerca:
Pagine eccessivamente corpose prendono tempo a essere visualizzate nel browser, e sono una cattiva esperienza utente. I motori di ricerca tendono a penalizzarle nel posizionamento.
Raccomandiamo di tenere il limite di troncamento predefinito così da rilevare problemi di dimensione il prima possibile.
Quando necessiti di aumentare il limite per completare l'esplorazione di un sito, raccomandiamo anche di fare l'audit delle dimensioni di pagina usando la funzione Suggerimenti prestazioni. Quando l'eccessiva dimensione di pagina è un tratto comune tra tutte le pagine del sito web, ciò è di solito causato da una configurazione sul server o nel template principale. Lo metti a posto lì, e lo metti a posto ovunque. - Un limite, sia esso alto o basso, deve esistere per evitare le cosiddette "spider traps" (letteralmente: "trappole per ragni") basate sui download a "dimensione infinita", concepite da siti maligni per rompere i web bot esaurendone la memoria RAM di lavoro.
Detto tutto questo, dobbiamo anche aggiungere che gli utenti della gratuita Edizione Community è estremamente improbabile possano mai incontrare problemi relativi alla memoria, visto che possono scaricare solo un massimo di 500 pagine/immagini per sessione di esplorazione. Possono tranquillamente incrementare il limite senza preoccuparsi del problema.
Al contrario, utenti di edizioni superiori che necessitano di esplorare grossi siti web di centinaia di migliaia di URL dovrebbero essere più consci dell'impatto che incrementare il limite ha sul consumo di memoria. Meglio correggere i problemi di dimensione prima, e poi esplorare l'intero sito web.
Nota: il limite riguarda le sole pagine web. Per i file immagine - quando il loro download è abilitato dall'apposita opzione - lo spider applica il limite di 10 MB (che è molto alto, mai tenere immagini web così pesanti!) e per le Sitemap XML il limite è quello di 50 MB previsto dal protocollo Sitemap.
Numero massimo di connessioni simultanee
Gli spider SEO tentano di velocizzare le visite ai siti web usando multiple connessioni HTTP contemporanee, ossia richiedendo più pagine web allo stesso tempo.
Visual SEO Studio fa lo stesso, anche se il suo motore di esplorazione adattivo può decidere di spingere di meno se rileva che il server web potrebbe essere sovraccaricato.
Questo controllo ti permette di dire allo spider quando può spingere più forte se il server web continua a rispondere velocemente.
La edizione di Visual SEO Studio e se il sito web è elencato tra i Siti Verificati possono influenzare l'ablità dello spider di esplorare più velocemente:
Per siti verificati puoi impostare fino a 32 connessioni simultanee. Per siti non verificati, il limite massimo è 5.
L'Edizione Community può usare al massimo 2 connessioni simultanee.
Attenzione: aumentare il numero di thread può rallentare o bloccare il server se questo non può tenere il ritmo delle richieste; fallo a tuo rischio (per questo puoi forzare di più solo su siti verificati).