Weiterleitungen: Meta Refresh, .htaccess oder Javascript

Wenn es um die Weiterleitung auf eine andere Seite geht, dann gibt es viele Möglichkeiten dies zu tun. Zu einem kann man dies über .htaccess erledigen. Zum anderen über Javascript oder aber halt über reines HTML.
Suchmaschinen mögen übrigens nur die Methode mit der .htaccess-Datei.

HTML:

Dabei wird zwischen das HEAD-Tag ein META-Tag geschrieben. Die 5 gibt die Zeit in Sekunden an, wann die Weiterleitung erfolgen soll. Auch 0 (also direkt) wäre ein gültiger Wert. \“Url\“ gibt dann die eigentliche Adresse an. Auch relative Angaben sind möglich.

.htaccess

Um eine Weiterlung mit .htaccess zu machen muss man dazu einfach nur einen kleinen Eintrag in der .htaccess machen. Die Zahl 302 gibt dabei den Statuscode der Weiterleitung an. 302 bedeutet temporär, 301 für immer. Es folgt die Adresse welche weitergeleitet werden soll. \“/\“ steht dabei für alles \“/undweg\“ würde alles was mit \“/undweg\“ anfängt weiterleiten. Und letztlich die eigentliche URL wohin die Weiterleitung gehen soll

JavaScript

Weiterleitungen mit Javacsript haben den Nachteil, dass der Nutzer Javascript in seinem Browser aktiviert haben muss. Sonst funktionieren Sie einfach nicht. Zudem sollte man Sie nicht für Downloads nutzen. Der IE7 (und somit auch IE8) bringen eine Sicherheitswarnung, wenn man versucht auf eine Datei weiterzuleiten. Dies kann der Nutzer zwar erlauben, aber oft übersieht er diese! Also sollten solche Downloads anders gelöst werden (Redirect auf Scriptseite z.B.).
Der kleinen Funktion übergibt man einfach die neue URL und diese führt dann die Weiterleitung aus.

Redirect auf https per .htaccess

Wenn man irgendwann einmal eine Zertifikat für seine Website erstanden hat und möchte, dass die Domain nur noch über eine SSL Verbindung ausgeliefert wird, dann kann man folgendes in die .htaccess schreiben:

[sourcecode language=“css“]
RewriteEngine On
RewriteCond %{HTTPS} off
RewriteRule ^(.*)$ https://www.my-domain.com/$1 [R=301,L]
[/sourcecode]

Dies prüft ob man über https auf die Seite zugreift. Wenn nicht wird ein permanenter Redirect zu der SSL Seite gemacht.

Yahoo führt \’robots-nocontent\‘ Tag ein

Es war lange Zeit still in der Welt der Standards und Abarten derer. Nun beglückt uns Yahoo mit einem neuen Feature: robots-nocontent!
Die Idee von Yahoo liest sich eigentlich ganz gut. Damit die Suchmaschine endlich weiß, was wirklich relevanter Inhalt (Content) ist, sollen die Webdesigner & Co all das markieren, was das schöne Suchergebnis stören könnte. Also Navigationenselemente, Werbung (!!!) und wiederkehrende Elemente.
Die einzige Frage, welche man sich nun dabei stellt ist: Warum??? Ok, dadurch kann ich die Aufmerksamkeit auf einen inhaltlich wichtigen Bereich lenken. Aber…: Ist meine Navigation in der Regel nicht auch wichtig? Vor allem weil dort die eventuellen Unterseiten zu dem angezeigten Thema zu finden sind. Oder aber verwandte Themen, welche den Nutzer eventuell auch helfen könnten? Ober aber bei der Werbung. Der Betreiber hat ja bewusst die Werbung geschaltet, also möchtet er diese auch in den Seiten haben. Und er freut sich total, wenn diese auch noch von der Suchmaschine mit gefunden wird. Warum sollte er also diesen Bereich rausnehmen? Eben!

Viel bessere wäre es gewesen, wenn sich die Betreiber der Suchmaschinen (ja genau, auch die anderen!) mal darangesetzt hätten Verknüpfungen im Sinne vom Semantic Web besser zu erfassen.

PS: Für alle die jetzt Angst haben, dass Sie mit dem Einsatz des Tags dem (X)HTML-Standard nicht mehr entsprechen: Das Tag ist in Wirklichkeit eine Auszeichnung als CSS-Style Klasse.

<div class=\"robots-nocontent\">Das ist aber uninteressant</div>

Würde den entsprechenden Bereich also für Yahoo uninteressant machen.
Dazu, dass wir damit CSS missbrauchen sage ich jetzt lieber mal nichts weiter. Ich denke jeder der sich damit auskennt weiß genau was daran so schlimm ist.

Hoffen wir mal das die anderen Suchmaschinen nicht nachziehen werden, sondern besser programmieren können und relevante Informationen selbst erkennen.

Sitemaps für alle Suchmaschinen über robots.txt

Eine von der Suchmaschine unabhängige Art wie man Sitemaps überträgt ist nun endlich möglich. Dazu wird ein entsprechender Eintrag in die hoffentlich sowieso schon vorhandene robots.txt gemacht. Dadurch ist man nicht mehr an eine spezielle Suchmaschine gebunden. Der Eintrag in der robots.txt ist für web-zeiger wie folgt:

Sitemap: http://www.web-zeiger.de/sitemaps.xml

Die Adresse zu der Sitemap ist vollständig, also mit http:// davor anzugeben und muss natürlich auf die jeweilige Site angepasst werden.

Dadurch wissen Suchmaschinen, welche das neue Protokoll unterstützen, wo Sie (und ob überhaupt) sie nach der Sitemap suchen müssen.
Mehr Information zu dem Protokoll findet man auf der offiziellen Seiten der Sitemap.org, einem Zusammenschluss von einigen Suchmaschinenbetreiber zu diesem Thema. (Google, Yahoo, MSN und einige andere)

Trotz dieser neuen Möglichkeit bietet es sich weiterhin an die speziellen Sitemapoptionen der einzelnen Anbieter zu nutzen, da man dort weitreichendere Möglichkeiten hat. Zum Beispiel kann man dort auch sehen wann das letzte Mal Zugriffen wurde und ob die Syntax OK ist.