Nwlapcug.com


Come creare il mio sito Web Robot

Sito web robot sono file di testo che notificano a ricerca per indicizzazione motori di ricerca di file all'interno di sito web che non si desidera. Essi vengono utilizzati per impedire ai motori di ricerca da scansione e l'indicizzazione di pagine che non si desidera essere indicizzati nei risultati di ricerca del motore di ricerca. In tal modo, dirigono crawler lontano da pagine meno importanti e di quelli più importanti che si desidera venga visualizzato nei risultati di ricerca. Creazione di un sito web robot è abbastanza semplice e richiede solo un programma di elaborazione testi semplici.

Istruzioni

1

Aprire il blocco note e digitare il comando seguente per consentire tutti i file sottoposti a scansione:

Agente utente: *
Disallow:

2

Digitare il comando seguente per consentire a tutti i file tranne i file di immagine per indicizzazione:

Agente utente: *
Disallow: / images /

3

Digitare il comando seguente per consentire a tutti i file tranne i file di statistiche per indicizzazione:

Agente utente: *
Disallow: /stats/

4

Digitare il comando seguente per consentire tutti i file tranne uno specifico file per indicizzazione:

Agente utente: *
Disallow: (Percorso del file) per esempio immagine/immagini /

5

Digitare il comando seguente per impedire un certo crawler dallo strisciare il tuo sito Web:

Agente utente: (Nome del cingolo)
Disallow: /

6

Salvare il file come file di testo dal titolo "robot" e caricarlo nella directory principale del web hosting pannello di controllo.

Consigli & Avvertenze

  • Combinare i fattori di cui sopra per impedire l'indicizzazione più directory del sito web crawler.
  • Alcuni host web automaticamente generare un robot per il tuo sito, così doppio controllo prima di creare il proprio, come si può essere in grado di semplicemente modificare quello già generato.