ecommerce-blog.at
Juni (
2
)
März (
1
)
April (
1
)
Mai (
1
)
Juli (
2
)
August (
2
)
März (
2
)
April (
3
)
Mai (
2
)
Juni (
3
)
Juli (
3
)
August (
2
)
März (
3
)
April (
4
)
Mai (
3
)
Juni (
3
)
Juli (
3
)
August (
3
)
März (
3
)
April (
3
)
Mai (
3
)
Juni (
3
)
Juli (
3
)
August (
3
)
März (
4
)
April (
3
)
Mai (
4
)
Juni (
3
)
Juli (
3
)
August (
2
)
März (
3
)
April (
4
)
Mai (
4
)
Juni (
2
)
Juli (
4
)
August (
3
)
März (
5
)
April (
4
)
Mai (
4
)
Juni (
4
)
Juli (
4
)
August (
4
)

01.09.2009 - Mythos Suchmaschinenoptimierung

Wer Internetseiten oder einen Onlineshop betreibt ist sicherlich schon des öfteren mit Angeboten von sogenannten Suchmaschinenexperten konfrontiert worden, die einem um einen Betrag X anbieten, seine Seiten ohne zutun des Seitenbetreibers für Suchmaschinen zu optimieren, damit diese weiter vorne gerankt werden und mehr Besucher auf die Seiten gelangen. Wer sich jedoch bereits ein bisschen mit dem Thema Suchmaschinenoptimierung auseinander gesetzt hat weiss, dass diese Vorgehensweise keine erfolgsversprechenden Resultate mit sich bringen kann. Auch wenn es sich viele Webmaster wünschen würden - die berühmt berüchtigte Zauberformel zur Verbesserung der Suchmaschinenpositionierung gibt es nicht oder besser gesagt nicht mehr. Vor einigen Jahren sah noch alles anders aus, hier konnte man die Positionierung in Suchmaschinen in der Tat manipulieren, heute ist dies glücklicherweise nicht mehr so einfach möglich, wodurch Suchmaschinen wie Google, Bing oder Yahoo ausgezeichnete Treffer listen.

Es gibt durchaus Suchmaschinenexperten, die dazu in der Lage sind, die Positionierung von Internetseiten zu verbessern. Dies aber ganz ohne Zauberformel und unter der Voraussetzung, dass die Optimierung gemeinsam mit dem Seitenbetreiber durchgeführt wird. Worauf es Suchmsachinen heute nämlich wirklich ankommt ist der Content, also der Text, der von den Suchmaschinenspidern, sogenannten "Bots" indiziert wird. Diese Indizierungsmethode ist schier genial, da es kaum Möglichkeiten der Manipulation gibt.

Da die Rankingalgorithmen, und damit ist nicht der öffentlich dargelegte Algorithmus des Google PageRank gemeint, von den Suchmaschinenbetreibern nicht öffentlich publiziert wird, war und ist es nur durch ein gewisses Maß an Research-Arbeiten möglich, dahinter zu kommen, welche Kriterien das Ranking einer Seite beeinflusst. Durch diese Unklarheiten und Vermutungen entstanden nach und nach Theorien über die Verbesserung des Rankings. Mittlerweile kursieren im World Wide Web die absurdesten Theorien, Mythen und Missverständnisse rund um das Thema Suchmaschinenoptimierung, die teilweise nicht im geringsten etwas mit der Realität zu tun haben. Dadurch wird oft Manpower und dadurch Geld in Suchmaschinenoptimierung investiert, das eigentlich keine positiven Resultate bringt.

Nachfolgend möchten wir Ihnen einige Mythen und Missverständnisse näher bringen:

Doublecontent

Der Begriff "Doublecontent" ist seit einigen Jahren in aller Munde unter Suchmaschinenexperten. "Wehe dem, der einen Text von einer Website kopiert und in einer anderen einfügt - das ist Doublecontent und wird von Google abgestraft". So die Theorie. Die einen behaupten, dass Seiten dadurch aus dem Ranking fallen, die anderen behaupten, dass nur die PageRank-stärkere Seite im Index bleibt und die schwächeren rausfallen. Doch was ist dran?

Google erkannte, dass viele Webseiten sogeannte Aliasdomains betreiben. Das sind Zusatzdomains, über welche die Webseiten ebenfalls aufgerufen werden können. Solche Domains erkennt Google und streicht tatsächlich die PageRank-schwächeren Seiten aus dem Index. Wer jedoch einzelne Passagen von einer Seite in eine andere kopiert, riskiert keineswegs, dass seine Seiten deshalb aus dem Index fliegen - zumindest gibt es keine fundierten Anhaltspunkte, dass dem so wäre. Doublecontent wird von Google behandelt, allerdings nicht so, wie die meisten Suchmaschinenexperten dies vorgeben. Wichtig ist natürlich, dass man keinen urheberrechtlich geschützten Text ohne Einverständnis von fremden Seiten kopiert.

Suchmaschinenfreundliche URLs

Viele Experten behaupten, es würde für das Ranking von Vorteil sein, wenn man sogeannte "sprechende URLs" verwendet, auch bekannt unter "suchmaschinenfreundliche URLs". Gemeint ist damit, anstelle von einer URL wie z.B. http://www.test.tst/test.php?productId=123 eine URL wie etwa http://www.test.tst/holzhammer/ zu verwenden. Hierfür werden oft unnötige Umprogrammierungen von CMS- und Shopsystemen durchgeführt, welche die Performance der Systeme meist negativ beeinflussen. Und das alles völlig ohne nachweislich messbares Resultat. Google hatte ursprünglich empfohlen, selbstsprechende URLs zu verwenden, damit die Anzeige der URL in der Trefferliste besser lesbar ist. Inzwischen werden jedoch der Title-Meta und Ausschnitte aus dem Content bei den Treffern gelistet, wodurch dies auch dafür nicht mehr notwendig ist. Suchmaschinenfreundliche URLs in der Form, wie es die meisten Suchmaschinenexperten interpretieren existieren nicht und bringen daher auch keinen Vorteil bei der Suchmaschinenpositionierung.

Meta-Tags

Viele Laien sind der Meinung, sie müssten möglichst viele Keywords und Meta-Angaben bei den einzelnen Seiten hinterlegen, damit die Seiten gut gefunden werden. Diese Annahme wurde inzwischen jedoch auch schon von Suchmaschinenexperten als falsch erkannt. Sie stammt aus einer Zeit, wo Google noch nicht die Seiteninhalte selbst indizierte, sondern lediglich mit den Meta-Angaben arbeitete. Seite etwa sieben Jahren indiziert Google allerdings die Seiteninhalte, da die Indizierung über Meta-Angaben zu manipulierbar war. In der Startphase von Google war es aus technischen Gründen noch nicht möglich, die Inhalte sämtlicher Webseiten der Welt auszuwerten und zu indizieren. Heute stehen deutlich mehr Möglichkeiten zur Verfügung.

Völlig vernachlässigen sollte man Meta-Angaben jedoch auch nicht. Vor allem der Title-Meta und die Meta-Description bringen in Verbindung mit dem Content einen minimalen Vorteil, wenn für die einzelnen Unterseiten unterschiedliche Angaben verwendet werden. Wichtig dabei ist, dass Schlüsselwörter aus dem Title- und Description-Meta mit Wörtern aus dem Content übereinstimmen.

PageRank

Der Google-PageRank ist der Indikator für die Wertigkeit einer Internetseite bei Google. Darüber kursieren die realitätsfremdesten Theorien. Die einen behaupten, es wäre geheim wie sich der Algorithmus zur Ermittlung des PageRank zusammensetzen würden. Die anderen behaupten, der PageRank hätte keinen Einfluss auf die Suchmaschinenpositionierung, da es sehr häufig vorkommt, dass Seiten mit schwächerem PageRank vor Seiten mit höherem PageRank gelistet werden. Andere behaupten wiederrum, je höher der PageRank wäre, desto weiter vorne wird eine Seite gelistet. Doch was ist nun wahr?
Der Google-PageRank-Algorithmus ist nicht geheim, er wird von Google öffentlich bereitgestellt. Er ist umso höher, desto mehr eingehende Links für die jeweilige Seite existieren. Dabei spielt auch der PageRank dieser Seiten eine Rolle. Je höher der PageRank, desto mehr wird davon auf die verlinkte Seite weitervererbt. Google setzt hier allerdings einen Dämpfungsfaktor ein, welcher verhindern soll, dass sich der PageRank durch gegenseitiges Verlinken unendlich nach oben katapultiert. Der Dämpfungsfaktor scheint bei jeder Seite individuell zu sein und wird von Google ohne nähere Angaben definiert und wird auch nicht öffentlich publiziert.

Der PageRank beeinflusst die Positionierung tatsächlich, allerdings kommt es nicht ausschließlich auf den PageRank an. Eine Seite mit niedrigem PageRank wird dann vor einer Seite mit höherem PageRank gelistet, wenn das bei der Suche eingegeben Suchwort öfter bei der niederwertigen Seite gefunden wurde als bei der hochwertigeren. So pauschal lässt sich dies aber auch nicht definieren. Es kommt auch auf die Differenz der Keyword-Vorkommnisse an. Und damit auch kein weiteres Missverständnis entsteht: Absichtlich 20 oder 30 mal ein Schlüsselwort in einem Text zu plaztieren bringt auch keinen Vorteil. Google erkennt Keywordspamming und macht ab einer gewissen Anzahl an gefundenen Keywords keinen Unterschied mehr.

Unterschiedliche IP-Adressen

Viele Suchmaschinenexperten sind davon überzeugt, dass Seiten bevorzugt behandelt werden, wenn die eingehenden Links von Domains mit möglichst unterschiedlichen IP-Adressen verlinkt werden. Nach mehrjährigen Versuchen konnte dies aber nicht nachgewiesen werden. Google indiziert den Inhalt, die IP-Adressen der Domains spielen erfahrungsgemäß keine Rolle.

Dateiendungen

Viele Laien meinen, dass Seiten besser gerankt werden, wenn als Dateiendung .html anstelle von z.B. .php verwendet wird. Auch dies konnte nicht nachgewiesen werden. Offen gestanden würde es auch keinen sonderlichen Sinn ergeben, warum Google Internetseiten mit .html Dateiendung bevorzugen sollte.

Verwenden absoluter Links

Die Mythen gehen sogar schon soweit, dass Suchmaschinenoptimierer behaupteten, dass die Verlinkungen der internen Unterseiten einer Seite durch absolute Links anstelle von relativen durchgeführt werden sollten. Eine Sache, die erhebliche Aufwände bei den Optimierungsarbeiten mit sich bringt, aber nicht im gerinsten positive Ergebnisse verzeichnen lässt. Google selbst empfiehlt zwar selbst, absolute Links anstelle von relativen zu verwenden, jedoch ohne jegliche Begründung. Aus der Praxis ist jedoch kein einziger Fall bekannt, wo dies irgend welche positiven oder negativen Auswirkungen hätte. Vermutlich bringt es einfach nur eine Entlastung der Googlebots mit sich, wenn sie die Links der vielen gecrawelten Seiten nicht dynamisch zusammensetzen müssen, sondern einfach nur hinter die Domain zu stellen brauchen.

Parameterangaben in den URLs

Nach wie vor heiss begehrt ist der Mythos, dass Parameterangaben in den URLs sich negativ auf das Ranking auswirken würden. In Wahrheit hat dies nicht im geringsten Einfluss auf die Suchmaschinenpositionierung, lediglich der Content ist relevant.

301-Weiterleitungen statt 302-Weiterleitungen

Header-Weiterleitungen werden häufig verwendet, um von einem Script zu einem anderen weiterzuleiten. Die Standardweiterleitung ist hierbei die temporäre Weiterleitung, auch bekannt als "302-Weiterleitung". Unter vielen Suchmaschinenoptimieren hat sich die Meinung verbreitet, jede Weiterleitung durch eine permanente Weiterleitung (301-Weiterleitung) zu ersetzen, da die Seiten damit angeblich besser von Suchmaschinen gefunden werden.

Doch was ist dran? Leider handelt es sich dabei um nichts weiter als um ein Missverständnis. Die permanente Weiterleitung (301) sollte dann eingesetzt werden, wenn mehrere Alias-Domains verwendet werden. Grund dafür ist, dass sich der Google-PageRank sonst bei unterschiedlicher Verlinkung auf mehrere Domains aufteilt. Verwendet man eine 301-Weiterleitung auf eine zentrale Domain, so erhält man in Summe einen höheren PageRank. Relevant ist dies allerdings nur in Verbindung mit Alias-Domains. Das blosse Verwenden von 301-Weiterleitungen bringt keinen Vorteil und kann bei falscher Anwendung sogar dazu führen, dass eine Domain aus dem Index fliegt.

Man muss sich bei Suchmaschinen anmelden

Dieser Mythos ist vor allem unter Laien verbreitet. Die meisten Webmaster glauben, sie müssten ihre Seiten bei den Suchmaschinen registrieren. Dies ist allerdings gar nicht notwendig, da Suchspider durch Verlinkungen anderer Seiten automatisch auf die neuen Internetseiten gelangen. Trägt man eine Seite bei einer Suchmaschine ein, wo noch gar keine Links von anderen Seiten gesetzt wurden, riskiert man dass die Domain in der Startphase einen höheren Dämpfungsfaktor erhält und es dadurch länger dauert  bis sie gut gerankt wird. Tragen Sie Ihre neuen Internetseiten daher nicht händisch ein, warten Sie bis die Spider Ihre Seiten indizieren. Um den Vorgang zu beschleunigen, empfiehlt es sich, Ihre Seiten von möglichst vielen anderen, themenverwandten Seiten zu verlinken.

Alt-Tags bei Bildern würden mehr Besucher bringen

Dies ist ein sehr beliebter Mythos unter Suchmaschinenoptimierern. Sie behaupten, wenn man jedes Bild mit einem Alt-Tag versieht (das ist der alternative Text, der angezeigt wird, wenn ein Bild nicht geladen werden kann), dann wird die Website bei Google besser gerankt. Dies ist jedoch nichts anderes als ein Mißverständnis. Tatsächlich ist es so, dass die Bilder in der Bildsuche von Google besser gefunden werden, wenn Alt-Tags dafür definiert sind. Die Seite wird dadurch aber nicht besser gefunden, weshalb man hier keine unnötige Zeit und Geld investieren sollte. Ausnahme ist natürlich, wenn man gezielt Bilder verkaufen möchte. Da die Google-Bildsuche gut frequentiert besucht wird, kann man damit gut zu Neukunden gelangen. Allerdings sollte man sich darüber im Klaren sein, dass es auch viele Fotopiraten im World Wide Web gibt, die das Bild dann einfach ohne zu bezahlen verwenden werden.

100% valider HTML-Code ist Voraussetzung

Webseiten, die Prüfungen von HTML-Validatoren nicht bestehen, werden von Google im Ranking benachteiligt. So meinen zumindest viele Suchmaschinenexperten. HTML-Validatoren stammen aus einer Zeit, in welcher Webseiten noch aus statischem HTML-Code programmiert wurden. Dies ist heute jedoch nur mehr die Ausnahme. Heute werden Webseiten hauptsächlich durch Content Management Systeme realisiert, wo sich der HTML-Code dynamisch, während der Laufzeit erzeugt. Kaum eine Firmenwebsite würde heutzutage einen HTML-Validierungstest bestehen. Dies gilt auch für die ganz großen wie Ebay, Google, Microsoft und viele weitere. Überzeugen Sie sich selbst:

http://validator.w3.org/check?uri=http://www.ebay.de
http://validator.w3.org/check?uri=http://www.google.com
http://validator.w3.org/check?uri=http://www.microsoft.com

Bislang konnten keine messbaren Veränderungen der Suchmaschinenpositionierung, zwischen validem und nicht validem HTML-Code festgestellt werden. Es gibt auch keinen Grund, weshalb Google Seitenbetreiber für nicht validen Code bestrafen sollte. Auch dies ist leider nichts anderes als ein Mythos.

Ein Suchmaschinenexperte könne ohne zutun des Webmasters eine Internetseite optimieren

Wie eingehend erwähnt, ist dies nicht möglich. Grund dafür ist ganz einfach, dass es hauptsächlich auf den Content, also den Text ankommt. Niemand kennt seine Produkte oder Dienstleistungen besser als der Seitenbetreiber, weshalb man in der Regel keine sonderlich brauchbaren Ergebnisse erwarten sollte, wenn man die Umgestaltung oder gar die Erstellung der Texte durch einen Suchmaschinenexperten durchführen lässt.

Hingegen zielführend ist es meist jedoch, gemeinsam mit einem Suchmaschinenexperten die Texte zu erarbeiten. Der Experte steht dabei als Mentor zur Verfügung, die Texte selbst werden vom Seitenbetreiber geschrieben.

Weiters ist es selbstverständlich sinnvoll, den grundsätzlichen Seitenaufbau von einem Suchmaschinenexperten auf eventuelle No-Goes prüfen zu lassen, um das vollständige Potential ausschöpfen zu können.

Bitte berücksichtigen Sie, dass dies nur die verbreitetsten Mythen rund um Suchmaschinenoptimierung sind, selbstverständlich gibt es noch eine ganze Reihe weiterer. Außerdem muss man sich auch vor Augen halten, dass sich die Kriterien, nach denen das Ranking von Seiten durchgeführt werden, ständig ändern, da die Suchmaschinenbetreiber besonders daran interessiert sind, möglichst genaue Treffer zu liefern.

zurück zur Übersicht


Kommentare - hinzufügen

5 Kommentar(e) gefunden:


Manfred
07.09.2009 09:51
Suchmaschinenoptimierung ist wie Religion. Man weiss zuwenig und muss einfach irgendwas glauben. Viele Leute meinen dass wenn etwas Sinn ergibt, z.B. dass unterschiedliche IP-Adressen einen Vorteil bieten, dass Google dass dann auch macht. Aber Google, und andere Suchmaschinen, sind kommerzielle Betriebe. Wenn etwas Sinn ergibt bedeutet Dies noch lange nicht dass Dies auch technisch machbar ist oder bezahlbar ist. Ich persönlich glaube dass Backlinks noch immer mehr Einfluss auf das Ranking haben als der Seiteninhalt. Womit Ich jedoch nicht meine dass man den Inhalt verwahrlosen kann. Ca. 50% der Suchaufträge kommen von Keywords wovon Google letzten Monat, oder auch im Durchschnitt, keine ausreichenden Daten hat. Die Leute geben alles mögliche in den Suchschlitz ein. Wenn man viele Keywords mit wenig Suchanfragen in den Kontent einbaut, Keywords womit man kaum Konkurrenz von anderen Webmastern hat, kann man schon einige extra Besucher bekommen. Manche dieser Keywords konvertieren extrem gut. Viele unterschiedliche Keywords werden auch nicht als Keywordspam bewertet. Aber im allgemeinen glaube Ich dass Google noch immer mehr auf Backlinks als auf Seiteninhalt setzt. OnPage SEO hat noch immer weniger Einfluss als OffPage SEO. Aber das wollen Kunden von SEO-Agenturen wahrscheinlich nicht hören. Um einen Auftrag zu bekommen muss man Ihnen alles mögliche erzählen, so dass Ihnen schwindelig davon wird und Sie unterschreiben. Wahrscheinlich glauben viele SEOs die Mythen auch selbst, obwohl Sie keine statistischen beweise dafür haben.

Johannes
10.09.2009 14:07
Super Beitrag! Aber Vorsicht: Man darf echt nicht alle Suchmaschinenoptimierer in einen Topf werfen! Klar gibt es viele Schalatane die einfach die Gutgläubigkeit der Kunden ausnutzen. Aber trotzdem gibts auch Optimierer, die wirklich hilfreich sind. Schwierig halt für einen Laien die zu unterscheiden. Vielleicht ist das ein gutes Unterscheidungsmerkmal: Wer einen der oben angeführten Mythen anspricht, fällt durch :) Liebe Grüsse aus Wien!

Interessierter Laie
16.09.2009 09:18
WOW! Hier spricht der Fachmann! Ich muß zugeben, ich hab selber an einige dieser Mythen geglaubt ..

Matze
16.10.2009 21:31
Hab mich gerade mal schlau gemacht zum Thema absolute Verlinkung, weil ich es mir auch nicht erklären konnte. Vor Allem nicht, wenn ich die bescheuerten Erklärungen der tollen SEO-Agenturen lese... Eine absolute Adressierung scheint tatsächlich von Vorteil zu sein. Warum weiß ich zwar immer noch nicht genau, aber das ist eine offizielle Google-Aussage unter http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=35156

Christian
19.10.2009 09:09
@Matze: Auswirkungen auf die Positionierung konnte damit bisher definitiv nicht festgestellt werden. Irgend einen Grund wird die Angabe durch Google aber sicher haben, den wahrscheinlich aber nur Google selbst kennen wird. Dazu fällt mir nur folgende Theorie ein, dass Google damit wohl einfach nur die CPU-Beanspruchung ihrer Crawler senken möchte. Das dynamische Zusammensetzen von URLs kostet immerhin CPU-Zeit. Ist aber natürlich auch nur eine Theorie.

Kommentar hinzufügen

Ihr Name *  
Ihre E-Mail-Adresse *   (wird nicht veröffentlicht!)
Ihre Homepage   http://
Ihr Kommentar *  
Rechenaufgabe: 3 + 5 = (bitte aus Sicherheitsgründen beantworten)
 
ecommerce-blog.at - Onlineshop & Shopsystem Österreich
Wir danken unserem Sponsor www.arweb.at
Webshop by www.trade-system.at

Empfohlene Bücher:

Partnerseiten:
www.trade-system.at
www.support-system.at
www.irmler.at
www.hunt-royal.com
www.forum4help.at
www.nebenjob-von-zuhause.at
ssl.irmler.at
www.regionalo.com
www.securit.at
www.fuzzyfind.net
en.regionalo.com
www.qmabi.at
www.baseinterface.at
www.webcrypt.at
www.ecommerce-blog.at
www.teachnow.at
www.flexhost.at
www.performance-hoster.at
www.trustsigned.net
www.billing4u.net
www.trustlabel.at
www.hackalert24.com
www.miet4you.at
www.idea2profit.at
www.cms4u.biz
www.trustlabel.de
www.trustlabel.ch
www.webmarketing-services.at
notes.irmler.at
en.idle-agency.com
www.elite-concepts.at
www.webrepair.at
www.it-troubleshooters.com
www.it-business-consulting.at
www.lexiwik.com
nodumping.software-projekte.net
kurse.liste24.at
www.shopsult.at
www.vertriebplus.at
firmen.liste24.at
www.ideeinvest.at
www.idle-agency.com
design.irmler.at
www.trustlabel.net
en.trustlabel.net
www.abcfabrik.at
www.eportfolio.at
www.hackalarm24.com
www.trustsigned.at
www.round-apps.at
www.bulkmarketing.org
foren.liste24.at
www.treeoffice.at
www.jagd-royal.com
www.ticketsystem.eu
www.bar2buy.com
blog.liste24.at
www.spamstop.at
www.trustsigned.ch
www.blog-system.at
www.arweb.at
www.mediaverlag.at
wissen.liste24.at
www.esuccess.org
www.it4success.biz
www.procast.at