Manuale: Esplora una lista di URL
La funzione "Esplora una lista di URL" di Visual SEO Studio, documentata in dettaglio.
Esplora una lista di URL
Questa funzione ti permette di esplorare liste di URL da diversi domini per analizzare il profilo di link di un sito.
Puoi importare liste di URL da tutti i maggiori backlink intelligence provider, il programma ne riconosce i formati CSV proprietari.
Puoi importare URL da più sorgenti, le liste originali saranno unite e i duplicati scartati.
Per saperne di più sulla funzione, leggi la pagina Esplora Lista URL: analisi off-site.
Aggiungi da Appunti
Puoi importare URL dalla memoria degli appunti, se ha copiato una lista testuale di URL.
Cliccando sul bottone si importeranno gli URL copiati. Le linee di testo non riconosciute come URL saranno saltate.
Aggiungi da file CSV
Puoi importare URL da file CSV esportati da Google Search Console, Strumenti per Webmaster di Bing, Yandex.Webmaster, e da tutti i maggiori backlink intelligence provider.
Cliccando sul bottone questi si espanderà per permetterti di scegliere il formato CVS desiderato, e poi aprirà una finestra per selezionare il file CSV e avere un'anteprima degli URL da importare.
Se non sei sicuro di quale formato CSV hai, non ti preoccupare: potrai testare i diversi schemi di importazione e cambiare quello da usare prima di importare gli URL..
Esplora anche gli URL collegati in questo dominio
Quando si esplora una lista per fare l'audit di un profilo di backlink, è caldamente raccomandato di specificare il dominio per il quale si farà l'analisi.
In tale modo lo spider scansionerà anche gli URL di destinazione quando trova link che puntano a tale dominio.
Numero di URL
Il numero totale di URL unici importati nella lista.
Questo numero può essere inferiore al numero nella lista originale, perché i doppioni sono rimossi.
Nome Sessione (opzionale)
Puoi dare alla tua sessione di esplorazione un nome descrittivo opzionale a tuo uso e consumo. Potrai anche aggiungerlo o modificarlo in un momento successivo.
Lista di URL
Questa scheda elenca tutti gli URL importati da esplorare.
URL
Colonna con gli URL importati delle pagine da esplorare.
Domini
Questa scheda elenca tutti i nomi di dominio distinti, estratti dalla lista degli URL importati.
Nota: la lista può essere esportata in Excel/CSV.
Nome
Il nome del dominio.
Numero
Il numero di URL nella lista appartenenti al domino.
Sotto Domini
Questa scheda elenca tutti i nomi di sotto-dominio distinti, estratti dalla lista degli URL importati.
Nota: la lista può essere esportata in Excel/CSV.
Nome
Il nome del sotto-dominio.
Numero
Il numero di URL nella lista appartenenti al sotto-domino.
Mostra/Nascondi opzioni
Cliccando sul link Mostra opzioni la finestra si espanderà per permetterti di accedere a ulteriori opzioni di esplorazione.
Scarica contenuti di pagine con codici d'errore HTTP
Nell'analizzare i contenuti delle pagine da un punto di vista SEO, ci si preoccupa solo delle pagine che ritornano un codice di stato 200 OK, perché solo queste possono essere indicizzate dai motori di ricerca.
Tuttavia vi sono molti motivi per poterle volere analizzare lo stesso: controllare il codice di tracciatura di Analytics, controllare che la pagina sia user-friendly, ecc.
Consigliamo di disabilitare l'opzione solo in rari casi di esplorazione di grossi siti con molti errori HTTP se si necessita di risparmiare il più possibile spazio su disco.
Ignora direttive 'Disallow' in robots.txt (solo per siti verificati)
Selezionare questa opzione farà sì che lo spider ignori le direttive Disallow:
nel file robots.txt che normalmente impedirebbero la visita a certi percorsi del sito web.
Per il file robots.txt, trattare tutti i codici HTTP 4xx come "accesso completo"
Secondo le specifiche originali del robots.txt, un file mancante (404 or 410) dovrebbe essere interpretato come "consenti tutto" e tutti gli altri codici di stato dovrebbero essere interpretati come "vieta tutto".
Google fece la contestabile scelta di trattare alcuni codici di stato quali il 401 "Unauthorized" e il 403 "Forbidden" come "consenti tutto" anch'essi, anche se semanticamente vorrebbero dire il contrario!
Per essere in grado di riprodurre il comportamento di Google abbiamo aggiunto questa opzione, che come valore predefinito non è selezionata.
Per il file robots.txt, trattare redirezione a / come "accesso completo"
Secondo le specifiche originali del robots.txt, un file mancante (404 or 410) dovrebbe essere interpretato come "consenti tutto" e tutti gli altri codici di stato dovrebbero essere interpretati come "vieta tutto".
Un reindirizzamento dovrebbe pertanto essere interpretato come un "vieta tutto"; sfortunatamente è un'impostazione non rara reindirizzare all'indirizzo radice (ossia alla the Home Page) un file mancante, con la regola generica che copre anche il caso di robots.txt mancante. È una pratica contestabile (per esempio Google tratta reindirizzamenti generici come dei "soft 404"), ma comunque abbastanza diffusa per cui Google fece la scelta di tollerare questo caso specifico interpretandolo come un 404 (d'altronde l'intenzione originale del webmaster così dovrebbe essere rispettata).
Per essere in grado di riprodurre il comportamento di Google abbiamo aggiunto questa opzione, che come valore predefinito non è selezionata.
Per il file robots.txt, trattare redirezione a [altro dominio]/robots.txt come "accesso completo"
Secondo le specifiche originali del robots.txt, un file mancante (404 or 410) dovrebbe essere interpretato come "consenti tutto" e tutti gli altri codici di stato dovrebbero essere interpretati come "vieta tutto".
Un reindirizzamento dovrebbe pertanto essere interpretato come un "vieta tutto"; sfortunatamente è uno scenario comune in casi come una migrazione HTTP->HTTPS, o un cambio di nome dominio, il redirezionare tutto dalla nuova alla vecchia versione, robots.txt incluso.
Per permettere di analizzare un sito dopo una migrazione da HTTP a HTTPS quando l'URL di partenza dato usa il protocollo http://
(o il protocollo non è specificato e il programma assume sia http://
) abbiamo aggiunto questa opzione, selezionata come valore predefinito.
Numero massimo di connessioni simultanee
Gli spider SEO tentano di velocizzare le visite ai siti web usando multiple connessioni HTTP contemporanee, ossia richiedendo più pagine web allo stesso tempo.
Visual SEO Studio fa lo stesso, anche se il suo motore di esplorazione adattivo può decidere di spingere di meno se rileva che il server web potrebbe essere sovraccaricato.
Questo controllo ti permette di dire allo spider quando può spingere più forte se il server web continua a rispondere velocemente.
Il limite massimo è 5. L'Edizione Community può usare al massimo 2 connessioni simultanee.
Attenzione: aumentare il numero di thread può rallentare o bloccare il server se questo non può tenere il ritmo delle richieste; fallo a tuo rischio (per questo puoi forzare di più solo su siti verificati).