von Manticor |
Ahhh. Danke .
Schade, und ich dachte, das wäre etwas für meine Site, da könnte ich vermutlich 2k pro Seitenanfrage sparen.
Aber woher sollen die armen Crawler denn wissen, dass andere andere Seiten präsentiert bekommen? Werden da nochmal Testcrawler mit anderen Konfigurationen eingesetzt und die Seiteninhalte verglichen?
---
 |
von m3rlin |
Die Technik nennt sich Website Cloaking ("Webseiten Tarnung"). Ein Script wertet den USER_AGENT des Besuchers aus und gibt je nachdem ob es sich um einen normalen Surfer oder um einen Crawler/Spieder handelt, verschiedene Inhalte zurück.
Das ganze ist aber sehr umstritten, da die Gefahr der Manipulation zu groß ist. Einige Suchmaschinen schmeißen getarnte Webseite sogar aus ihrem Index bzw. nehmen sie gar nicht erst auf.
_________________
Hardware-Probleme? Lets talk about it
[ Diese Nachricht wurde geändert von: m3rlin am 2002-05-17 11:19 ] |
von Manticor |
Folgende Sätze stehen bei ideenreich.com in der FAQ:
Warum finde ich im Quellcode manchmal keine Meta-Description und keine Keywords, das widerspricht doch Ihren eigenen Ratschlägen?
Wir filtern diese Daten auf einigen Seiten, so das ein Browser sie gar nicht erst zu Gesicht bekommt. Sie dienen schließlich nur der Kommunikation mit Suchmaschinen. Auch werden die Seiten so etwas schlanker.
Hört sich superpraktisch und genial an, oder? Der User kriegt die Seiten schneller und die Suchmaschinen das, was sie wollen...
Wie funktioniert das? Warum machen das dann nicht alle, WENN es funktioniert?
_________________
Meine & unsere
[ Diese Nachricht wurde geändert von: Manticor am 2002-05-17 11:02 ] |
|