Blog
.

Wie benutzt man die RelaunchApp

Die erste Voraussetzung ist natürlich dass du einen Account bei uns hast :-) - falls du noch keinen hast, erstell dir direkt einen - den gibt es natürlich auch kostenlos im Free Tarif. Sobald du deinen Account hast, können wir loslegen.

1. Schritt - Projekt erstellen

Direkt nachdem du dich eingeloggt hast, wirst du gefragt wie das 1. Projekt heißen soll welches du anlegen willst. Tippe hier einfach einen Namen ein der dir aussagekräftig genug erscheint.

Projekt anlegen

Sobald du das Projekt eingetragen hast springst du in die nächste Maske zu den Projekteinstellungen.

2. Schritt - Projekteinstellungen bearbeiten

In dieser Maske kannst du den Namen des Projektes wieder ändern und du kannst das Crawllimit hier festlegen - das Crawllimit gilt dann für das gesamte Projekt. Steht dort 10.000 dann sind für die alte und die neue Seite jeweils 10.000 URLs zum Crawlen freigegeben. Hier solltest du einen sinnvollen Wert eingeben. Weiterhin findest du hier die Buttons um die neue und die alte Seite einzutragen.

Wie du nun erkennst brauchst du immer den Zugang zur alten Seite - das ist ja in der Regel die Domain die gerade live ist und einen Zugang zur neuen Seite, also einen Staging Bereich. Dies ist oft new.deinedomain.de oder staging.... - je nachdem was du gewählt hast. Außerdem kannst du hier diverse Benutzer freigeben und auch angeben ob im Projekt die robots.txt beachtet werden soll. Dies ist aber nur in Ausnahmefällen eine sinnvolle Option da man ja schließlich alles finden will.

Allgemeine Einstellungen

3. Alte / Neue Domain eintragen

Wenn du auf den Button alte Domain eintragen klickst kommst du zur folgenden, etwas komplexeren Maske. Aber keine Angst die meisten Einstellungen ergeben sich eigentlich von alleine und viele brauchst du für den ersten Crawl überhaupt nicht.

Zuerst gibst du den Namen deiner Domain ein, der Haken das das Crawling aktiviert ist, ist in der Grundeinstellung vorausgewählt damit du das auch nicht vergessen kannst.

Wenn du die Domain schon einmal gecrawled hast, kannst du mit dem folgenden Button "Crawlvorgang neu starten" den Crawl der Seite erneut anstoßen, aber ACHTUNG - dabei gehen alle vorherigen Daten verloren.

Im nächsten Schritt kannst du die Zugangsdaten für eine .htpasswd Schutz eintragen falls deine Domain passwortgeschützt ist.

Einstellungen einer Domain

Der nächste Punkt - Textrenner - ist sehr wichtig. Für die RelaunchApp ist es wichtig den eigentlichen Content der Seiten korrekt zu finden. Die RelaunchApp versucht beim Crawling den eigentlichen Content Bereich zu finden, allerdings gelingt das oft nicht, da die Seiten sehr unterschiedlich sind.

Um die Vergleiche deutlich zu verbessern, lohnt es sich in der Regel, HTML Elemente anzugeben, die den eigentlichen Content umschließen. Diese Start- und Stop-Sequenzen kannst du pro Domain eintragen. Wenn du dort sinnvolle Daten einträgst, sind die Ergebnisse in der Regel beim nächsten Crawl sehr viel besser.

Im Feld darunter kannst du definieren welche Parameter aus den gecrawlten URLs gelöscht werden sollen. Dies ist oft hilfreich wenn beim ersten Crawl viele URLs z.B. mit Sessionvariablen gecrawled werden oder nicht zu indizierenden Druckseiten. Wenn du hier einen Paramater einträgst wird er beim Crawl nicht berücksichtigt.

Beispiel: Die Url lautet eigentlich http://www.relaunchapp.com/index.php?sessionid=12323885763745 - wenn du jetzt sessionid als Parameter dort einträgst wird die URL geändert und nur diese wird gecrawled: http://www.relaunchapp.com/index.php

Auf der rechten Seite kannst du die Anzahl der Crawler angeben, 10 ist der kleinstmögliche Wert, wenn du mehr Crawler möchtest musst du die Seite verifizieren. Aber ACHTUNG - zuviele Crawler können deine Seite in den Abgrund reißen.

MIt dem darunter stehenden Button kommst du zur Eingabemaske für verschiedene APIs wie Google Webmaster Tools oder Google Analytics, Sistrix usw. Diese APIs werden genutzt um von dort alle URLs zu holen, die dort verfügbar sind um möglichst alle URLs in deinem Projekt crawlen und vergleichen zu können. 

Einstellungen Domain

Wir sind fast durch :-) - jetzt fehlt eigentlich nur noch der Part mit den zu ignorierenden Parameter. Wenn du hier einen Eintrag machst wird die URL komplett ignoriert und überhaupt nicht gecrawled. Das macht mitunter Sinn, wenn du ein altes CMS oder Shop System nutzt, das große Mengen an Double Content produziert, der oft ohnehin nicht von Google indiziert wurde.

Hier solltest du aber sorgfältig abwägen, was Sinn macht und im Zweifel Crawls mehrfach mit verschiedenen Optionen laufen lassen. Wenn deine Seite sehr groß ist, macht es sicher Sinn die Anzahl der zu crawlenden URLs für diese Experimente zu begrenzen damit nicht du nicht immer den Crawl der gesamten Seite abwarten musst.

Außerdem kannst du mit dem Button rechts, noch manuell zusätzliche URLs hinzufügen die ebenfalls gecrawled und verglichen werden sollen.

Nun kannst du endlich auf speichern drücken - puh - geschaaaafft:-)! Der Crawl startet automatisch sobald du die alte und die neue Seite eingetragen hast.

Einstellungen Domain

 

Die Ergebnisse des Crawls?

Hier findest du eine kurze Beschreibung zu den Ergebnissen des ersten Crawls.

Im dauerhaft kostenlosen Tarif kannst du bis zu 301 Urls testen - probier es aus - 0 Risiko!

 

.

xxnoxx_zaehler

.

xxnoxx_zaehler