Zum SEO, das beschränkt sich heutzutage auf gehaltvolle Texte und barrierefreien Code.

Du musst nur einige Grundregeln beachten:

  • das zu taggende Keyword sollte keine höhere Dichte als 5% vom Text einnehmen
  • Versuche nur ein Keyword bevorzugt pro Seite zu taggen
  • Title, H-Tag und Text sollten miteinander korrelieren (Title=ich H1=du Text=wir macht keinen Sinn)
  • Code: Scripte, die nicht unmittelbar ausgeführt werden und auch keine Sprungmarken in der Seite haben ans Ende der Seite packen um höchstmögliche Barrierefreiheit zu erreichen. Bots, die die Rechenzeit für JS aufwenden müssen, gehen wieder
  • Für deine Analysezwecke gehen PIWIK und Google Analytics, wobei du PIWIK auf dem eigenen Server betreiben kannst und gemäß Datenschutzvorgaben die IP anonymisieren kannst, was bei Analytics nicht geht (die letzten drei Stellen werden durch 0 ersetzt)

Ich hoffe, ich konnte helfen.

...zur Antwort

Die Masse kann sogar eher schädlich sein, wie schon viele bei der Nutzung von Linkfarmen feststellen durften.

Um es mal auf den Punkt zu bringen, wenige aber themenrelevante Backlinks wären wünschenswert. Es macht wenig Sinn, wenn die Seite eines Kohleunternehmens auf die Seite eines Naturschutzbundes verlinkt.

Und wenn möglich ebenfalls zurückverlinken.

...zur Antwort

Erstmal grundsätzliches zu H-Tags, man sollte sie wirklich nur zum Kennzeichnen neuer relevanter Inhalte nutzen, alles über h3 -h4 ist optisch to much. Da man ja eigentlich nur die Wichtung darstellen will, würde ich z.B. alle h-Tags in CSS identisch formatieren.

h1, h2, h3, h4, h5, h6 {

font-size: 12pt;

font-weight: bold;

}

über 14 Punkte würde ich nicht rausgehen. Punkte deshalb, um ein relatives Verhalten statt eines absoluten Verhalten, wie bei px z.B., zu erreichen. Man kann auch zwei Gruppen bilden und unterschiedlich formatieren. Aber wie Sie schon selbst bemerkt haben, zerschlagen zu groß gewählte Tags das Layout, dem kann man, wie beschrieben, entgegenwirken und trotzdem die Gewichtung erreichen, die man braucht.

Zum Popup: die meisten Browser sind inzwischen in der Grundeinstellung so eingestellt, dass Popups entweder unterdrückt oder garnicht erst ausgeführt werden, insofern wirklich nachdenken, wie sinnvoll das ist. Ich würde da z.B. mit einer Sprungmarke innerhalb der Seite arbeiten, um das Popup Problem von vornherein auszuschalten. Und nochwas, ein Popup ist i.d.R. gescriptet und somit wird kein Bot dem Verweis folgen, da JS zwar erkannt aber nicht interpretiert wird, heißt, man wird schon gezwungen eine Sitemap in die Codierung zu integrieren, da die Links für Bots schon mal nicht barierefrei sind, wenn man JS einsetzt.

...zur Antwort

Wie die Voredner schon geschriebenn haben, Googlebot muss erstmal vorbeigeschaut haben. Um meine Seiten schnell in den Index zu drücken nutze ich nicht Google sondern soziale Medien. Dort ist gewährleistet, dass der Bot regelmäßig vorbeischaut, die Links werden zwar gering bewertet, spielen reichen aber für den schnellen Schubs in den Index.

...zur Antwort

Wie die Kollegen schon schrieben, man muss den Auftritt sehen. Von Leuten, die wie der Mechanikermeister unter die Haube schaut und "oooooooh, das wird teuer" würde ich genauso die Finger lassen wie von den Billighanseln, wie wir im Norden sagen.

Vieles kann man selber machen, ich persönlich habe mein Augenmerk auf die OnPage SEO gelegt. Heißt, Codeoptimierung, Kausalität des gewünschten Suchbegriffs zu den Texten, Auslagerung von JS Designs, wenn möglich, in CSS umformulieren.

Alles Dinge, die man auch mit ein wenig Lesearbeit selbst erledigen kann.

...zur Antwort

HTML mit WP Script

...zur Antwort

Link der indexierten Seite (ist ja noch über Herrn Google sichtbar) und über 301 Weiterleitung auf die Startseite umleiten, dann trifft der Besucher zuminestens auf Inhalte.

...zur Antwort

Relativ simpel beantwortet, als qualifiziert bezeichnet man Backlinks, die mit dem Inhalt deiner Seite korrelieren.

Für eine Seite, die sich mit Fahrrädern beschäftigt, ist ein Backlink aus dem Bereich Drachenfliegen relativ sinnfrei.

Kommt aber der Link von einer Seite, die sich mit Radwandern beschäftigt, korreliert das Thema und der Link macht Sinn. Außerdem spielt es auch bei der Wertung durch Suchmaschinen eine nicht ungewichtige Rolle, ob der Backlink korreliert oder nicht.

...zur Antwort

Eigentlich simpel gemacht. Eine .htaccess auf den alten Webspace legen, das Geheimnis nennt sich RedirectPermanent() 301. Die Suchmaschine bekommt erzählt, such den Inhalt an dieser Stelle. Bis die alte URL dann endgültig verschwindet vergehen etwa 3 - 4 Wochen.

...zur Antwort

Moin, bei mir ist das 8 Jahre her, aber hier mal ein Grundabriss. Zugrunde liegt hier ein kleiner Handel und Löwenanteil Dienstleistungen. Er sollte auf mindestens 2 Jahre ausgelegt sein, besser 3 bis 5, wenn es um Fördermittel geht. Er sollte folgendes enthalten:

  • benötigtes bzw. vorhandenes Eigenkapital und Betriebseinrichtungen
  • beabsichtigte Ziele im Vertrieb (Waren- / Softwareverkauf) bzw. angestrebte Erlöse aus Dienstleistungen (Lohneinnahmen)
  • Für den Betrieb notwendige Ausgaben (Wareneinkauf, Telekommunikation, Personal bzw. Unternehmerlohn)
  • angestrebte Ertragssteigerung und somit Gewinnsituation.

Wichtig dabei ist, es muss plausibel sein (bei mir waren anfangs 700,00 Euro monatliche Einnahmen im ersten Geschäftsjahr angenommen mit einer Steigerung innerhalb der Geschäftsjahre.

Im ersten Geschäftsjahr kannst auch noch Verlust ausweisen. Am Ende dieses Planes sollte rauskommen, dass du nach Steuern und Kosten mit mindestens ortsueblichem Einkommen rausgehst. Tiefstapeln ist angezeigt. Lieber knapp anlegen.

Wenn es um Fördermittel geht, Steuerberater abzeichnen lassen. Der wird dir auch erzählen, ob du realistisch liegst. Was ich damit sagen möchte, dass du für den Businessplan auch Geld in die Hand nehmen musst. Ein rein geistiges Konstrukt deines Hirnschmalzes muss hier durch Stempel und Unterschrift eines Steuerberaters bestätigt werden. Wie gesagt, wenn es um Fördermittel geht.

...zur Antwort
Mehrere Webprogrammierer sitzen trotz schlechter Leistung mit Anwälten im Nacken, irgendein Rat?

Hey Leute...

Also folgendes Problem:

Ein Kumpel von mir hat sich von mehreren verschiedenen Freelancern eine Webseite mit unterschiedlichen Funktionen schreiben lassen, hat dafür auch bereits mehr als 5000€ investiert. Leider wurden mit der Zeit immer wieder neue Mängel festgestellt aber auch weitere neue Funktionen benötigt, so dass erneut Programmierer beauftragt werden mussten. Leider hat sich dabei herausgestellt, dass verschiedene technische Probleme dadurch weder beseitigt wurden, noch das Design der Seite -dass von anfang an sehr unprofessionell war- verbessert wurden. Es kann aber auch sein, dass sich die Webdesigner keine Mühe machen wollten. Jedenfalls wurden nun erneut mehrere tausend € investiert, die Homepage ist jedoch vom technischen / Design Niveau immer noch derart schlecht, dass sich dort kein Einziger (!) Mensch registriert bzw. sich mit der Homepage kein Cent verdienen lässt.

Nun ist es jedoch so, dass mindestens 5 Webdesigner / Programmierer noch Forderungen von mehreren tausend € stellen obwohl entweder die technischen Probleme nicht verbessert wurden oder die Funktionen derart schlecht und unprofessionell gelöst wurden, dass sich damit schlicht nicht arbeiten lässt. Eine weitere "professionelle Webagentur" hat sogar einige der Funktionen grob fahrlässig beschädigt, weigert sich aber nun diese zu reparieren bis alles bezahlt ist und lügt auch bei verschiedenen Sachen rum.

Mindestens 3 der Programmierer sitzen nun meinen Kumpel mit einem Rechtsanwalt / Gerichtsverfahren im Nacken, mein Kumpel sieht aber nicht ein für dermaßen schlechte Leistung noch soviel zu bezahlen. Es wurden auch von mindestens einem Anbieter Funktionen mutwillig beschädigt. Leider streitet jeder alles ab bzw. schiebt alles auf den Nächsten. Ein Gerichtsverfahren endete bereits mit einem Vergleich weil sich mein Kumpel keinen TEUREN (!) Gutachter bis Frist XY leisten konnte, der belegen würde, dass die erbrachte "Leistung" das Wort nicht Wert ist. Mit einem der Programmierer, der jetzt ebenfalls ein RA eingeschaltet hat gibt es nichtmal einen Vertrag. Wobei es im Übrigen nicht so ist, dass die Leute nicht bereits tausende € erhalten haben.

Die Frage, die ich mir nun stelle ist: Angenommen es ist wirklich so wie hier geschrieben: Haben diese Leute eigentlich Anrecht auch nur einen Cent zu sehen? Wäre es nicht viel eher angebracht Diejenigen, welche die Arbeit so schlecht gemacht haben, dass die Homepage nun absoluter Schrott ist / keinen Standards mehr genügt zu verklagen? Mir ist es ehrlich gesagt ein Rätsel wie jmd. so schlechte Arbeit leistet und noch soviel Geld dafür will, dass er dieses gerichtlich eintreiben will.

Mir ist es aber auch ein Rätsel wie man es so oft hintereinander schafft an den Falschen zu geraten...

Zu was für einer Option würdet ihr raten?

...zum Beitrag

Hier sind einige Dinge schiefgelaufen. Er ist nicht unbedingt hintereinander an die falschen Leute geraten, sondern es lag von vornherein an der Art, wie an das Problem rangegangen wird. Erlebe ich tagtäglich. "Ich brauche eine Internetseite", "Ja, was muss sie denn können und vor allem, wie soll sie aussehen, eher konservativ oder modern?", "Äh ja, keine Ahnung, sie soll schick sein", "Haben Sie sich schon mal bei Mitbewerb umgeschaut und mal nachgeschaut, wie die das machen?", "Nein, keine Zeit gehabt". Genau da geht das Elend für den Programmierer Designer bzw. Coder schon los. Dann wird noch nach Logofarben gefragt, falls vorhanden. Wenn nicht: "Wie sollte Ihr Logo denn aussehen, in den branchenüblichen Farben?", "Äh, bitte was für Farben?"

Das ist etwas überspitzt dargestellt. Wenn ich mich nicht täusche, hat dein Kumpel von keinem der Freelancer einen Leistungskatalog abgefordert.

Dort sollten drinstehen: Die Leistungen Funktionen Haftung

Z.B. Maximale Anzahl an Designentwürfen 3 etc. etc. z.B. könnte man da festlegen, wie bei Beschädigungen vorhandener Module verfahren wird. In diesem Falle würde ich gefühlt sagen Modul beschädigt, 50% Abzug, Rest wenn wieder repariert aber kostenfrei Ich habe mit einem Kunden so eine "Neverending Story" durch. "Ach hier noch ein Pünktchen und dort eine Suchfunktion." Seitdem arbeite ich nur noch so. Für deinen Kumpel sehe ich, bis auf den einen Fall mit der nachweislichen Beschädigung, eher schlechte Karten, sofern keine Leistungsbeschreibungen vorhanden sind.

...zur Antwort

Moin Teil eins ist Handarbeit. Die entsprechenden Goolgetreffer die einen 404 auslösenen rauspicken und mit moved permanent 301 per .htaccess auf die Startseite umleiten, damit der 404 verschwindet.

Teil 2 Den Tipp von spearboy beherzigen und die Links abwerten lassen. Achtung: bis die Ergebnisse aus dem Index verschwinden, kann es einige Wochen dauern.

Teil 3 Alle Passworte (FTP, falls ein CMS verwendet wird, das Backendpasswort) neu setzen

Teil 4 als Prophylaxe Passworte nicht speichern, sondern notieren. Was nicht auf dem Rechner hinterlegt ist, kann auch nicht ausgespäht werden.

...zur Antwort

Moin, bitte, da ist die Zeile: <img class="xr_rn_ xr_ap" src="index_htm_files/15599.png " alt="ALT=""" title="" onmousemove="xr_mo(this,316,event)" style="left: 1139px; top: 1243px; width: 142px; height: 33px;"/>

...zur Antwort

Die fehlende robots.txt hat keine negativen Auswirkungen.. Dort sind in der Regel Anweisungen für die Suchmaschinenrobots und Clients hinterlegt. Ansonsten legen Sie eine robots.txt ohne Anweisungen an, wenn es Sie beruhigt.

...zur Antwort

Als erstes soziales Netzwerk, dass den Möglichkeiten heutiger Netzwerke weitestgehend würde ich das IRC benennen. Vorwiegend auf Uniservern gehostet ist es auch heute noch über speziell entwickelte Clients (mirC und X-Chat) erreichbar. Dieses Netzwerk ermöglicht PtoP Dateiübertragungen, Aufbau von Interessengruppen, Statusabfragen von Teilnehmern oder Offlinemittelungen via "Highlight" an bestimmte Teilnehmer. Dieses Netzwerk ist zwar rein textbasiert, stellt für mich von den Möglichkeiten her aber den Vorläufer heutiger sozialer Netzwerke dar, wie wir sie kennen. Existiert zumindest für die Öffentlichkeit seit 1993 oder 1994

...zur Antwort

Grundsätzlich reichen die Ma0nahmen aus. Siteanmeldung ignoriert Google gerne mal über Monate, zu deutsch, Anmeldung hat selten den Effekt, den man sich wünschr, nämlich die Aufnahme in den Index.

Kleiner Tip, such dir einen Auftritt, von dem du a) weißt, dass er im Index steht und b) sichergestellt ist, dass Googlebot regelmäßig mal nachguckt, ob keiner guckt. Und setze von dort einen Backlink. Entscheidend ist erstmal nicht, wie hoch der PR ist oder ob das Ding gehaltvoll ist. Man "prügelt" die eigene Seite damit in den Index und zwar recht zügig.

...zur Antwort

Moin erst mal,

Google schafft das ja, eher nicht. Doppelter Content ist doppelter Content. Wenn man pech hat, fliegt die Seite alleine deswegen schon rausfliegt, bzw. wird abgewertet. Also "Ist nicht schlimm", ist eine grobe Fehleinschätzung und vor allem eine Falschaussage.

Suche mal nach .htaccess und bevorzugter URL. Der andere Punkt. robots.txt Wenn User-Agent: * dort steht und anschließend Disallow: / sind alle Verzeichnisse für alle Suchmaschinen gesperrt. Auch dazu solltest du dich im Netz mal umschauen

...zur Antwort
Ist das noch normal? / Massives Gefühl von Google verfolgt zu werden!

Mich würde mal sehr interessieren ob es für folgendes "Problem" eine Erklärung gibt:

Also ich habe ein merkwürdiges Phänomen beobachtet, dass praktisch ALLES was ich im Internet (Boards, Blogs, Foren) schreibe dazu führt, dass später jeder der auf Google ein allgemeines Suchwort eingibt was irgendwie annähernd mit dem Thema oder der Problematik zutun hat Tataaaa : MEIN Thema auf der allerersten Position und was noch seltsamer ist: nicht selten lässt sich auch sonst nichts großartig dazu finden.

Themen sind hierbei immer unterschiedlich: Von Rechtsanfragen über sehr allgemeine persönliche Erlebnisse bishin zur Beschreibung bestimmter Sachthemen oder Neigungen und das an jeweils unterschiedlichen Orten. Gebe ich auf Google irgendwas ein ob in " " oder ohne was auch nur annähernd mit der Sache zutun hat ist mein Thema zu 100% dabei. Was mich dabei sehr erschrickt, dass dies eben auch sehr allgemeine Erzählungen oder Themen betrifft wovon ich nie gedacht hätte damit in irgendeiner Form unique zu sein. Noch komischer macht das Ganze, dass ich dazu eigentlich garkeiner bin der den ganzen Tag in irgendwelchen Foren abhängt, sondern fast überall eher zu den Wenig-Schreibern gehöre.

Meine Fragen hierzu wären:

  1. Gibt es Wege das zu unterbinden?
  2. Mit was kann das Ganze zutun haben? Da ich davon ausgehe, dass es 7.000.000.000 Milliarden Menschen gibt und ich nicht für Alles der Einzige auf der ganzen (!!!!!) Erde sein kann, den irgendwas betrifft oder über bestimmte Themen spricht, ist mir das oben Beschriebene, zumal es wirklich andauernd passiert und ich praktisch kaum noch was im Netz erzählen kann ohne eindeutig identifizierbar zu sein nicht wirklich verständlich!
  3. Ist es möglich, dass Google bestimmte einzelne Personen (Rechnerunabhängig!) im WWW ermitteln kann und auf dem Kieker hat? zb. durch Schreibstil oder verändertes Ranking?
  4. Mir ist etwas Anderes Wichtiges entgangen?

Wer hat eine Theorie dazu?

...zum Beitrag

Das nennt sich personalisierte Suche. Ich persönlich nutze NoScript, witzigerweise bekomme ich jetzt die Suchergebnisse meiner Lebensgefährtin vorgeschlagen, die über den selben Anschluss surft, zumindest bei Youtube :). Sie spielt halt viel online und ich habe plötzlich die Ergebnisse in den Vorschlägen für Videos zu ihren Spielen aber nicht zu meiner Suche :).

Du kannst von folgendem Ausgehen, Google hört nicht bei der 9. Stelle deiner öffentlichen IPv4 auf, sondern tracked bis zu letzten Stelle. Würde mich nicht wundern, wenn selbst deine MAC Adresse der Hardware bekannt wäre. Ich schütze mich recht erfolgreich gegen Tracking, weil ich folgende Maßnahmen durchgeführt habe:

  • Ich habe meinem Browser verboten, Dateien auf dem Rechner abzulegen. Stichwort: temporäre Dateien, Efekt, schließe ich den Browser, habe ich nicht mal mehr aktive Reste im Arbeitsspeicher geschweige auf der Festplatte.
  • Verwendung von NoScript, brauche ich tatsächlich Funktionen der Seite, schalte ich sie explizit frei und zwar nur vorübergehend, hat auch den angenehmen Effekt, ich bekomme zwar gezeigt wo Werbung sitzen müsste, aber in den seltendsten Fällen die Werbung selbst
  • Keine Verwendung von Google Chrome Browsern ) die verfügen über eine eindeutige Kennung somit bin ich nicht nur über die IP sondern über die ID des Browsers zu identifizieren)
  • Keine Verwendung von Internet Explorer

Fazit der Geschichte, seit drei Jahren habe ich weder schwerwiegende Probleme mit Viren, die sich auf die Festplatte schreiben, noch mit übermäßigem zielgerichteten Spam in meinen Postfächern

Ich hoffe, das hat dir etwas die Augen über deine Möglichkeiten zum Selbstschutz geöffnet.

...zur Antwort

Die Wahrscheinlichkeit ist groß, dass bei identischem Content beide aus dem Index fliegen,

...zur Antwort

Normalerweise spielen Domainnamen keine Rolle es sei denn es liegen Markenrechte drauf, was aber nur wahrscheinlich ist, wenn die Domain eine Marke wiedergibt Es gab eine Zeit, da haben sich Domainhändler Domains namenhafter Unternehmen registriert und haben damit einen Haufen Geld gemacht, da das Markenrecht zwar den Namen als Bild und Wort abdeckte aber für Domains völlig unzureichend war. Heute funktioniert so etwas schwerlich. Und da du mit dem Segment des Inhabers nichts zu tun hast, ist es eher unwahrscheinlich, dass dort etwas passiert. Es gibt auch die Domains Google und gugel nebeneinander und der Firmeninhaber ist immer noch online :)

...zur Antwort