Google SEO

Standard - Alle Robots sind:  
    
Crwaling-Verzögern:
    
Sitemap: (leer lassen falls es keine gibt) 
     
Such-Robots: Google
  Google Image
  Google Mobile
  MSN Search
  Yahoo
  Yahoo MM
  Yahoo Blogs
  Ask/Teoma
  GigaBlast
  DMOZ Checker
  Nutch
  Alexa/Wayback
  Baidu
  Naver
  MSN PicSearch
   
Gesperrte Verzeichnisse: Der Pfad ist relativ zum Stamm und muss einen Schrägstrich enthalten "/"
 
 
 
 
 
 
   



Wenn der Inhalt für die robots.txt Date erstellt ist, Kopiere Sie diese Datei in das Root-Verzeichnis der Webseite. In den Google-Webmastertools können Sie diese auch sofort eintragen.


Der praktische Generator für Robots.txt-Dateien

Wer schon immer nach einem SEO-Tool gesucht hat, das dabei hilft dem Anwender geschickt unter die Arme zu greifen, liegt mit dem Robots.txt Generator genau richtig. Das nützliche Werkzeug liefert erstklassige Lösungen im Bereich der Suchmaschinenoptimierung. Mit diesem Generator lassen sich Anweisungen schnell und einfach zusammenstellen. Jede Webseite benötigt solchen Anweisungen die sich auf Suchmaschinen-Spider auswirken. Daher wird die Robots.txt zu einem wichtigen Instrument in der SEO-Arbeit und lässt sich als geeignetes Tool nicht mehr wegdenken. Wenn Sie die Robots.txt nutzen, profitieren Sie auf Ihrer Webseite von zahlreichen Vorteilen, gegenüber der Konkurrenz, denn nicht alle Seiten nutzen die Robots.txt-Datei.

Erstklassige SEO-Lösung

Prinzipiell dienen Robots.txt dazu, den Crawlern sowie Spidern von Suchmaschinen mitzuteilen welche bestimmten Seiten nicht gespidert werden dürfen. Doch um dies zu bewerkstelligen, benötigen die entsprechenden Spider eine solche Datei, um zu verstehen wie die nächste Handlung aussehen kann. Um solch eine Datei zu erstellen, bietet sich das praktische Tool an. Jetzt wird SEO auf ein neues Level gehoben, denn mit diesem Tool wird das Erstellen von Robots.TXT Dateien zu einem echten Kinderspiel. Nie zuvor war es so einfach und zeitsparend, mit dem SEO Werkzeug die Datei für die Webseiten erstellen zu lassen

.

Dafür wird eine Robots.txt benötigt

Kurz und knapp lässt sich sagen: Mit der Robots-Datei wird genau festgelegt welche Eigenschaft eine Webseite erhält. Ist diese frei verfügbar und abrufbar oder sollte die Seite eher für die Öffentlich gesperrt bleiben? Mit der Robots.txt Datei lässt sich dieser Zustand festlegen. Durch diese Datei können zudem einzelne Verzeichnisse oder Abschnitte gesperrt oder verschlossen werden. Mit dem SEO-Tool, lässt sich die Robots.txt in wenigen Klicks erstellen und einbinden.

So wirken sich Spider aus

Gerade im SEO Bereich besitzt die Robots.txt eine enorme Bedeutung. Die Suchmaschinen nutzen sogeannnte Spider um Ihre digitalen Fühler auf die Webseiten im Netz zu lenken. Die Spider erkennen beispielsweise genau wohin die einzelnen Links auf einer Webseite führen. Die Robots.txt wird in das Hauptverzeichnis gelegt und dient den "Greifarmen" der Suchmaschinen als Orientierungshilfe. Mit diesem Tool kann die Datei nun noch schneller erstellt werden.