Wie Reputation zu einem der wichtigsten SEO-Ranking-Faktoren wurde

Online Reputation als SEO-Ranking-Faktoren

Schon vor mehr als zehn Jahren wurde vorausgesagt, dass Google eine Qualitätsbewertung in seine organischen Rankings einfließen lassen könnte. Die neuesten Algorithmus-Updates weisen nun darauf hin, dass die Reputation eines Unternehmens für das Suchranking zunehmend bedeutsam sein wird.

Es ist mittlerweile bekannt wie wichtig “Über uns”-Seiten sind, damit die Besucher wissen, wer hinter einer Website steckt und dass gute Kontakt-Seiten Vertrauen herstellen. Auch gute Nutzbarkeit für User, Urheberrechtsabgaben, gute Grammatik und Rechtschreibung sind wichtig. Die neueste Ausgabe von Googles „Guidelines zur Qualitätsbewertung“ (QRG) bestätigt diese Empfehlungen.

Googles Qualitätsrating-Guidelines zeichnen sich bereits in den letzten Updates ab

Es ist klar, dass Qualitätsfaktoren wie jene, die in den QRG aufgeführt sind, mehr Einfluss auf das Ranking der Google-Suchergebnisse bekommen haben, auch wenn Google bereits erklärt hat, dass die Noten der Bewerter nicht direkt für das Ranking der Websites verwendet werden. Danny Sullivan hat bestätigt, dass diese Bewertungen nicht für das maschinelle Lernen der Algorithmen genutzt werden, sondern eher wie Feedback-Karten in Restaurants funktionieren, mit denen man überprüft, wie gut die Rezepte bei den Gästen ankommen.

Danny Sullivan Twitter Zitat
Googles Qualitätsrating-Guidelines zeichnen sich bereits in den letzten Updates ab

Andere Autoren haben spezielle Punkte in den Guidelines als für das Ranking relevante Signale betrachtet, vor allem die Punkte Erfahrung, Autorität und Vertrauen. Doch John Mueller von Google hat dazu klar geäußert, dass Google weder die Reputation eines Webseitenautors noch öffentliche Unternehmensbewertungen erforscht. Gleichzeitig hat Google jedoch Webmastern immer häufiger geraten, sich auf die Qualität zu konzentrieren und dazu auf die QRG verwiesen. Ben Gomes, Googles Vizepräsident, sagte letztes Jahr in einem Interview:

Betrachtet die Guidelines für die Bewerter als das, wohin wir mit dem Suchalgorithmus gehen wollen. Sie zeigen zwar nicht, wie der Algorithmus Ergebnisse sortiert, aber sie zeigen, was der Algorithmus tun sollte.

Es stellt sich also die Frage, wie genau Google mit dem Algorithmus Qualität bestimmt, einschließlich scheinbar subjektiver Konzepte wie Erfahrung, Autorität, Vertrauenswürdigkeit und Reputation. Googles Algorithmen müssen diese Konzepte in zählbare Kriterien verwandeln, die gemessen und zwischen ähnlichen Seiten verglichen werden können. Ich glaube, dass einige von Googles letzten Algorithmus-Entwicklungen bereits auf diese Entwicklung hinweisen. Der Gedanke, dass Google nur über die Analyse von Links und Suchanfragen zu einer Qualitätsbewertung kommt, erscheint viel zu begrenzt. Google zieht ganz offensichtlich noch andere Faktoren in Betracht, die über diese Analysen hinausgehen.

Googles Patent zur Website-Qualität

Eines von Googles älteren Patenten, das sich auf maschinelles Lernen bezieht, scheint diesen Entwicklungsprozess zu beschreiben. Es heißt “Website Quality Signal Generation” und Bill Slawski beschrieb es 2013 in einer kurzen Zusammenfassung. Diese erklärt, wie Menschen eingesetzt werden können, um die Qualität von Websites zu bewerten und wie dann ein Analyse-Algorithmus diese Bewertungen mit den Signalen von Webseiten in Verbindung bringen könnte. Mit diesen Signalmodellen könnten dann Webseiten miteinander verglichen werden, um ihnen einen Qualitätswert zuzuordnen.

Im Patent finden sich auch einige Beispiele für die Dinge, die als Qualitätsfaktoren benutzt werden könnten. Als solche werden etwa richtige Rechtschreibung und Grammatik erwähnt, das Vorhandensein unangemessener Materialien oder die Frage, ob leere oder unvollständige Seiten in der Website enthalten sind. Das sind einige der Dinge, die auch in den QRG erwähnt sind, doch das ist nicht der Grund, warum das Patent so interessant ist. Das ist es vielmehr, weil es einen sehr logischen Rahmen aufzeigt, innerhalb dessen Methoden entwickelt werden können, um die Qualität von Webseiten zu bewerten.

Stell Dir vor, Du möchtest für eine bestimmte Art von Seiten einen Qualitätsscore erstellen, zum Beispiel für einen Informationsartikel über ein Gesundheitsthema. Google könnte die Signale nehmen, die es messen kann, also Umfang des Inhalts, Layout der Seite, Zahl und Platzierung der Werbeanzeigen, Bewertungen von Seite und Ersteller, ausgehende und eingehende Links (PageRank), Clickthrough-Raten von den wichtigsten Keyword-Suchen, Zusammenhang zwischen Überschrift, Titel und Inhalt und Meta-Beschreibung. Durch das Testen ähnlicher Seiten könnte Google ein Modell oder ein Muster der Kombination dieser Qualitätssignale entwickelt haben und darauf aufbauend einen Bewertungsscore. Wenn eine Seite mit einem Gesundheitsartikel also bei einer gewissen Bandbreite der Kriterien wie zum Beispiel PageRank ähnlich ist, dann könnte Google den berechneten Qualitätsscore anwenden, ohne dass ein Mensch den Artikel bewerten muss. Es scheint als habe Google einige solcher Modelle für verschiedene Arten von Seiten entwickelt.

Der Grund, warum Google maschinelles Lernen in diese Sequenz einbauen könnte ist der, dass sie komplexere Verbindungen zwischen Qualitätsbewertungen herstellen könnten als mit der manuellen Gewichtung einzelner Kriterien. Das Modell kann dann genutzt werden, um alle Seiten einer bestimmten Klasse zu identifizieren, einen Qualitätsscore zu errechnen und diese oder eine ähnliche Bewertung auf andere Seiten einer Klasse anzuwenden. Tatsächlich glauben viele SEO-Analysten, dass Google maschinelles Lernen in die Content-Rankings einfließen lässt und nicht nur in die Interpretation von Suchanfragen, wie Google schon öffentlich gemacht hat. Das erklärt, warum Google nur vage reagiert hat, wenn gefragt wurde, was man bei Änderungen des Algorithmus gegen Abstürze im Ranking tun kann. Selbstlernende Netzwerke erarbeiten sehr ganzheitliche Scores, daher wäre es kaum möglich, auf nur eines oder nur einige der Signale hinzuweisen, die das Ergebnis beeinflussen könnten – jedes davon wäre in einem komplexen Modell vergraben, das ziemlich abstrakt sein könnte.

Wenn die berechneten Modelle auf die Suchergebnis-Rankings angewandt werden, lässt Google seine Bewerter die Suchresultate nochmals einstufen. Indem man das nacheinander tut, werden die Ergebnisse nach und nach immer besser.

Die verschiedenen möglichen Signale, die wahrscheinlich in den Qualitätsscore einfließen, haben ihrerseits eine gewisse Komplexität:

  • PageRank – und/oder ein weiterentwickeltes Signal, das auch die Qualität der Links mit einbeziehen könnte;
  • Nutzerbewertungen – Googles QRG deutet an, dass es eine gewisse Mindestzahl an Bewertungen geben muss, wenn es also nur relative wenige Bewertungen hat, könnte dieses Kriterium als zu volatil ignoriert werden. Google hat im Hinblick auf die Analyse von Nutzerbewertungen viel Forschungsarbeit geleistet und hält ein oder zwei Patente dafür, außerdem haben sie diese Technik in der Vergangenheit schon für lokale Listings verwendet.
  • Erwähnungen – Sprechen die Menschen in den sozialen Medien oder in Emails über ein Produkt? Erwähnungen in Social Media sind ein Beliebtheitsmerkmal und können auch ein Qualitätsmesswert sein.
  • Click-Through-Rate (CTR) – ebenso wie der Qualitätsscore selbst wird die CTR auch für das Scoring bei den Werbeanzeigen verwendet, warum also nicht auch für das organische Ranking? Googles ehemaliger Chef für Suchqualität, Udi Manber, wurde 2012 mit der Aussage zitiert, dass die Klickdaten das Ranking mit beeinflussen, weil sie zeigen, was die Nutzer wirklich wollen.
  • Anteil / Platzierung von Werbeanzeigen – Wieviel Prozent des Platzes auf der Seite besteht aus Anzeigen? Google könnte hier einen Gut-/Schlecht-Grenzwert festgelegt haben. Daneben könnte auch berechnet werden, wie störend Anzeigen sind, also wie viele es gibt, ob sie den Seiteninhalt unterbrechen, ob sie beim Scrollen mitwandern oder ob es überlagernde Anzeigen gibt, die sich nicht schließen lassen.
  • Fehlende Identifikationsinformationen – Idealerweise sollten Websites “Über uns” und “Kontakt”-Seiten haben. Die “Über uns”-Seiten sollten erklären, wer hinter dem Unternehmen steckt oder noch besser, die wichtigsten Mitarbeiter mit Fotos vorstellen. Kontaktseiten sollten idealerweise so viele Kontaktinformationen wie möglich haben, einschließlich Postanschrift, Telefonnummern und Kontaktformulare. Es gibt nichts schlimmeres als eine Seite zu besuchen und nicht erkennen zu können, wer dahintersteckt.
  • Wichtige E-Commerce-Faktoren – HTTPS ist eine Grundvoraussetzung. Google geht aber sogar noch weiter als nur zu dem Check, ob eine Seite HTTPS-Verschlüsselung hat. E-Commerce-Seiten und solche mit Finanzinformationen müssen außerdem klare AGB, Datenschutzbestimmungen und Kontaktinfos für den Kundenservice aufweisen. Ein Hilfe-Abschnitt und Hinweise zur Retourenabwicklung sollten, falls anwendbar, auch vorhanden sein.
  • Ladegeschwindigkeit – versteht sich eigentlich von selbst. Ladegeschwindigkeit war beim Qualitätsscore schon immer ein Faktor und ist noch immer ein Qualitätsmerkmal für die organische Suche.
  • Regelmäßige Updates – Einige Arten von Artikeln oder Informationen wie medizinische, rechtliche, finanzielle oder steuerliche Inhalte sollten laut dem QRG regelmäßig überprüft und wenn nötig aktualisiert werden. Für solche Informationen empfehle ich, eine sichtbare Markierung “aktualisiert am” auf der Artikelseite anzubringen. Auch vergessene Aktualisierungen des Copyright-Datums im Footer könnten dazu führen, dass eine Seite als aufgegeben oder nicht aktualisiert angesehen wird. Andere Aspekte sind Seiten mit nicht oder schlecht funktionierenden Widgets, nicht funktionierenden Links, nicht ladenden Bildern und Seiten, die eindeutig nicht mehr aktuellen Inhalt aufweisen.
  • Seiten mit ungenügendem oder leeren Inhalt – Google kann erkennen, wie hoch der Anteil an Fehlerseiten, leeren Seiten und solchen mit unbefriedigend kurzen Inhalten ist. Ein hoher Anteil solcher Seiten in einer Website deutet auf ungenügende Aktualisierungen und Pflege hin.
  • Pornographie / Malware / Täuschungen – Solche Inhalte erhöhen die Wahrscheinlichkeit dramatisch, dass eine Seite den niedrigsten möglichen Qualitätsscore erhält. Zu beachten ist aber, dass eine Website auch selbst dafür verantwortlich gehalten wird, wenn solche Inhalte in Werbeanzeigen erscheinen. Daher muss man ein bisschen aufpassen, was auf der eigenen Seite angezeigt wird.

Berechnungsmethode für PageRank könnte angewendet werden

Ein interessanter Aspekt beim Qualitätsscore ist, dass bei dessen Berechnung auch der Qualitätsscore der Seiten mit einfließen könnte, die zu einer Website verlinken. Dies wäre eine ähnliche Methode wie bei der Berechnung des PageRank und würde eine bessere Gewichtung des Qualitätsscores bewirken. Damit wäre sichergestellt, dass Seiten mit der niedrigsten Qualität so tief in den Ergebnissen vergraben werden, dass man ihnen bei normalen Suchen nie begegnen wird.

Beobachtungen auf Seiten, die vom Medic Update betroffen waren

Google Medic-Update
Das Google Medic-Update. Betroffen waren vor allem Seiten, die sensible Themen behandeln (Your Money, Your Life)

Barry Schwartz hat sich zudem einige Websites angesehen, die vom Googles Medic Update betroffen waren und hat festgestellt, dass bei diesen viele der Kriterien fehlten, die als potenzielle Qualitätsfaktoren genannt werden und die im QRG speziell erwähnt werden:

So hatte Prevention.com keine „Über uns“-Seite, die Kontaktangaben waren auf einer anderen Domain und die Seite hatte sehr große Werbeanzeigen.

Bei Minted.com und Buoyhealth.com gab es keine Kontakt-Telefonnummer und NaturalFoodSeries.com hatte eine Homepage mit Endlos-Scrolling und ebenfalls keine „Über uns“- und Kontaktangaben.

Einige dieser Seiten haben sich seither verändert und könnten im Ranking etwas zugelegt haben. Allerdings ist es unwahrscheinlich, dass kosmetische Veränderungen wie das Hinzufügen einer “Über uns”-Seite die gesamte Kombination der Aspekte reparieren kann.

Gemischte Signale

Einige der möglichen Signale, die ich hier erwähne, können sicherlich kontrovers diskutiert werden. Doch ich glaube, dass meine Gedanken dabei helfen, die Diskrepanz zwischen dem, was SEO-Profis für Rankingfaktoren halten und dem, was die Google-Leute bestreiten, zu erklären. Es ist fast sicher, dass es verschiedene Kombinationen und Gewichtungen von Faktoren gibt, um den Qualitätsscore verschiedener Arten von Seiten zu bestimmen. Die Nutzung eines selbstlernenden Netzwerks würde es fast unmöglich machen, den daraus resultierenden Qualitätsscore selbst herzustellen, weil dieser so ganzheitlich ist. Daher haben die Google-Leute nur vage Empfehlungen für Betroffene gegeben, etwa „arbeite an der Verbesserung der Qualität“ oder „konzentriere Dich darauf, den bestmöglichen Inhalt anzubieten“.

Wie Du den Qualitätsscore Deiner Seite verbessern kannst

Also, wie hilft uns die Erkenntnis, dass der Qualitätsscore eine komplexe Gestalt ist dabei, das Ranking zu verbessern?

Die gute Nachricht ist, dass die meisten SEO-Empfehlungen noch immer ziemlich passend sind. Nutze allgemeine SEO-“Hygiene” und begrenze Fehlerseiten und solche ohne Inhalte auf ein Minimum. Lösche unnötige Seiten und solche mit wenig Content und vermeide es, Dich an unerlaubten Linkaufbau-Strategien zu beteiligen.

SEO an sich ist eine ganzheitliche Aufgabe – mache all die Dinge, die angemessen und machbar sind, um Deine Site zu optimieren. Stelle sicher, dass Du alle Elemente hast, die Kunden zeigen, dass die Seite aktiv und nutzbar ist: “Über uns“- und Kontaktseite, Datenschutzbestimmungen, AGB und Kundenkontakt und aktualisiere den Inhalt wenn angemessen. Außer mit technischen SEO-Modifikationen solltest Du Dich auf gute Nutzbarkeit, guten Kundenservice und auf guten Content konzentrieren. Du brauchst sehr kritische Leute, die Dir Feedback geben können. Schau Dir Deine Seiten so an, als wärst Du selbst ein Kunde. Du musst auf externe, negative Bewertungen eingehen und versuchen, von zufriedenen Kunden Online-Bewertungen zu bekommen.

Und schließlich ist es wichtig, proaktives Reputationsmanagement zu betreiben, um Dich mit Deiner Community zu verbinden, sowohl online als auch offline und das regelmäßig und nachhaltig. Nutze die sozialen Medien und stärke Deine Präsenz über diese Kanäle. Gebe kostenlose Expertenratschläge als Mittel, um Deine Reputation zu verbessern. Werde Mitglied in Branchenverbänden und ähnlichen Gruppen. Antworte immer professionell und lass Dich online nicht provozieren.

Diese Methoden werden mit der Zeit die Signale für einen guten Qualitätsscore generieren.

Weiterführende Links:

SEO GUIDE: JavaScript Frameworks und SEO

JavaScript Frameworks und SEO

Dieser Artikel sollte nicht als vollständig angesehen werden. Er wird ständig erweitert.

JavaScript und technisches SEO ist heutzutage ein sehr heißes Thema, da immer mehr Websites moderne JavaScript-Frameworks und -Bibliotheken wie Angular, React, Vue.js und Polymer verwenden. Die Realität ist jedoch, dass SEOs und Entwickler noch am Anfang einer Reise stehen, um moderne JS-Frameworks für die Suchmaschinen zu optimieren.

The web has moved from plain HTML – as an SEO you can embrace that. Learn from JS devs & share SEO knowledge with them. JS’s not going away. | John Mueller (8. August.2017)

Warum das so ist und welches Maßnahmen für die Suchmaschinenoptimierung von JS-Frameworks basierenden Seiten ergriffen werden können, zeigt dieser Artikel auf.

Können Suchmaschinen Javascript-Webseiten crawlen und indexieren?

Ja und Nein. Laut der offiziellen Aussage von Goolge, kann der Goolgebot JavaScript rendern, die Inhalte indexieren und crawlen. Diese gab Google 2014 über den Webmaster Central Blog bekannt. Diese Aussage bekräftigt John Mueller (Webmaster Trends Analyst bei Google) nochmals 2016 auf der AngularConnect. Soviel zum Ja.

Google’s Gary Illyes said at PubCon that they are able to fully render 98% or more of the web pages they crawl. With that he also added rendering takes longer than normal crawling and indexing. He said it can take days to a few weeks to fully render a page from the time it was crawled. | Search Engine Roundtable (10.Mai.2018)

Nun zum Nein: Es gibt einige Fallstudien die genau das Gegenteil wieder spiegeln und eine mangelnden Interpretationsfähigkeit der Suchmaschinen von JavaScript widerspiegeln. Des Weiteren haben bis auf den Branchenprimus Google alle anderen Suchmaschinen noch massive Probleme mit dem crawlen und indexieren von JavaScript. Auch die führenden SEO-Tools sind hierzu noch nicht in der Lage, was das OnPage-Monitoring sehr erschwert.

Ein Experiment aus dem Jahr 2017 zeigt auf das Google und Ask (Ask bassiert auf Google) die einzigen Suchmaschinen sind, die von JavaScript generierte Inhalte ordnungsgemäß indizieren. Bing, Yahoo, AOL, DuckDuckGo und Yandex sind vollständig JavaScript-blind.

Können Suchmaschinen Javascript-Webseiten crawlen und indexieren?
Können Suchmaschinen Javascript-Webseiten crawlen und indexieren? – Experiment aus dem Jahr 2017

Hinweis: Ich versuche hier gerade aktuellere Daten zu erheben.

Rendern von JavaScript Frameworks durch den Googlebot

Google gab 2014 bekannt, dass der Goolgebot in der Lage ist Javascript zu rendern. Voraussetzung dafür ist, dass keinerlei JavaScript und CSS Ressourcen durch die robots.txt Datei blockiert werden. Im Oktober 2015 wurde von Google dann offiziell die Empfehlung zur Verwendung des AJAX Crawling Schema als veraltet gekennzeichnet.

Wir wissen auch, dass der Indexer einen Web Rendering Service nutzt, der auf dem Google Chrome 41 basiert. Diese Chrome Version ist aus dem Jahr 2015 und heute noch im Einsatz. Wie John Mueller auf der Google I/O 2018 bestätigt:

Google I/O John Mueller revealed that Google is still using the older version of Chrome – Chrome | John Mueller (Google)

Features des Chrome Version 41
Auszug aus den nicht unterstützen Features des Google Chrome Version 41 im Vergleich zur Version 73

Diese Aussage ist für das Thema JavaScript SEO sehr interessant. Das heißt Google rendert Webseiten mit einem drei Jahre altem Browser, dieser verfügt etwa über 60% der Technologien und Features der aktuellen Chrome Version. Aktuell sollte also auf alle Features, die der Chrome 41 nicht beherrscht verzichtet werden.

Welche Features die Version 41 im Vergleich zu der aktuellen Version nicht unterstützt, kann auf CanIuse.com verglichen werden oder direkt bei Chrome Platform Status.

Für alle JavaScript Webseiten sollte der Chrome Version 41 zu einem der primären Testing-Tools gehören. Nachfolgen findet einen Link zum Download des Chrome 41 und einen Link zur Puppeteer API. Mit dieser API ist die Steuerung von Chromium oder Chrome über das DevTools-Protokoll möglich:

NameAnmerkungLink
Google Chrome in der Version 41Den Google Chrome in der Version 41 gibt es hier direkt bei Google zum DownloadZum Download
Puppeteer API Tip-Of-TreePuppeteer ist eine Node-Bibliothek, die eine übergeordnete API zur Steuerung von Chromium oder Chrome über das DevTools-Protokoll bietet.Zu GitHub

Zum Thema Rendern von JavaScript ist der Vortrag „Deliver search-friendly JavaScript-powered website“ auf der Google I/O 2018 zu empfehlen:

Die Lösung: Dynamic Rendering

Nun wir wissen jetzt, dass so einige Probleme mit der Verarbeitung von JavaScript Webseiten gibt. Wie sieht die Lösung aus? Google Eine Lösung die Google selbst empfiehlt ist das Dynamic Rendering. Beim Dynamic Rendering, werden je nach Benutzeragent entweder clientseitig gerenderte und vorgerenderte Inhalt ausgeliefert. Damit können die aktuellen Probleme der Suchmaschinen-Crawler umgangen werden.

Die Lösung empfiehlt sich vor allem für Webseiten die:

  • JavaScript-Funktionen verwenden die von den Crawlern noch nicht unterstützt werden.
  • öffentlichen JavaScript generierte Inhalte zur Verfügung stellen der sich schnell ändert.

Dynamic Rendering
Bei Bedarf stellt der dynamische Renderer eine Version des Inhalts bereit, die für den Crawler geeignet ist. Beispielsweise kann er eine statische HTML-Version bereitstellen. Sie können den dynamischen Renderer für alle Seiten oder auf Seitenbasis aktivieren.

Dynamisches Rendering implementieren

Mehr Informationen zum Thema Dynamisches Rendering finden Sie hier: Get started with dynamic rendering.

Google: Verwenden Sie keine Hashtags in URLs

Now, Gary (Google) was specifically talking about using hashtags where the # calls new content to load. If you are just using them as basic web anchors to scroll down the page or to a location in the page but that content has already been loaded on first load – then it is fine. But if you programmed your site to load new content based on what comes up after the # sign in the URL, then you are in trouble. PubCon – 18 Okt 2018

Tipps und Best Practices Ansätze zu SEO und JavaScript

Seit dem 27.02.2019 gibt es auf dem Google Webmasters YouTube-Kanal eine Serie namens „JavaScript SEO“. Hier gibt Martin Splitt von Google Tipps und Best Practices Ansätze zu SEO und JavaScript preis.

Nachfolgend habe ich euch die Playliste aus dem YouTube Kanal von Google Webmasters verlinkt:

Vue.js: Technisches SEO für das progressive JavaScript Framework

Martin Splitt von Google hat ein wunderbares technisches SEO-Video gepostet, in dem es darum geht, Vue.js, in Vue integrierte Web-Apps, suchmaschinenfreundlich zu gestalten. Dabei werden Titel, Beschreibungen und URLs von Googlebot besser erkannt, wenn sie in Vue integriert sind.

 

Weitere interessante Videos zu JavaScript SEO

SEO best practices and requirements for modern sites | John Mueller

JavaScript SEO– Crawling, Indexierung und Auditing von JavaScript-Websites – Webinar

Weiterführende Links:

Mit häufigen Bildwechseln hat Google seine Probleme

Google Crawler

John Mueller gibt auf der Pubcon-Konferenz bekannt das Google 99 Prozent der Bildwechsel verborgen bleiben, wenn es auf einer Webseite sehr häufig zu solchen Wechsel kommt.

If users are still using the old domain (eg, there are external links there), then I’d maintain the certificate so that they get redirected without a browser warning. Certificates are free/cheap 🙂John Mueller

Da die Indizierung von Bildern mehr Zeit in Anspruch nimmt als Textinhalte, kann es mehrere Monate dauern bis neue Bilder in den Index übernommen werden. Eine Image-Sitemap kann die Indizierung beschleunigen, ist aber keine vollständige Lösung.

Google hat Probleme mit Bildwechseln

Weiterführende Links

Kleiner Helfer für die schnelle Keyword-Recherche

Keyword-Recherche Tool

Für die schnelle Keyword-Recherche oder eine Keyword- und Content-Inspirationen habe ich ein kostenloses Tool entwickelt.

Das Tool findet für dich Longtail-Keywords zu einem gewünschten Suchbegriff. Aber auch häufig gesuchte und passende Keywords, sowie Keyword-Kombinationen werden vorgeschlagen. Hierzu nutzt das Tool die Google Suggest Funktion.

Hier gehts zum Tool.

Was ist Google Suggest?

Google Suggest (auch Google Autocomplete) ist eine Erweiterung der Suchmaschine Google. Die Erweiterung gibt während der Eingabe eines Suchbegriffes Vorschläge zu ähnlichen und oft gesuchten Suchwort-Kombinationen.

Google Ads Agentur – DigitalBegleiter.de

Google Ads Agentur - DigitalBegleiter 

Mit DigitalBegleiter haben wir einen dynamischen Dienstleister im Online-Marketing gegründet. Speziell für kleine und mittlere Unternehmen haben wir moderne und zielgerichtete Marketing-Lösungen entwickelt. Die Servicepakte sind so konzipiert das Sie ohne Streuverluste und zu geringen Kosten die richtige Zielgruppe zu erreichen.

Google Ads Agentur – DigitalBegleiter

Die Google Ads Agentur DigitalBegleiter generiert für ihre Kunden Anfragen von relevanten Zielgruppen und sorg auf diese Weise für mehr Wachstum und Umsatz. Die Google-Ads-Experten von DigitalBegleiter planen, starten und optimieren Ihre Google-Ads-Kampagnen. Mit DigitalBegleiter haben Sie einen starken Partner in Sachen Akquise von Neukunden und dem systematischen Aufbau Ihrer Marke an Ihrer Seite.

Expertennetzwerk – Geprüfte Experten für Unternehmen

DigitalBegleiter bringt ausgewählte Dienstleister mit Unternehmern und KMUs zusammen.

Mit einem dynamischen Team von Programmieren, Marketingspezialisten, Textern und Grafikern vereinen wir unterschiedliche Expertisen und garantieren Ihnen als Kunden dauerhaften Erfolg im Netz. Sie erhalten auf einfache und flexible Weise direkte Unterstützung von unserem Expertenteam. Zum Expertennetzwerk.

Online Kundenakquise für Handwerker – Zahlen, Daten, Fakten

Online-Kundenakquise-fuer-Handwerkerbetriebe-1110x530

Wie Handwerkerbetriebe mit Online-Marketing zu mehr Kunden kommen? Hierzu finden Sie einen Artikel von mir auf DigitalBegleiter.de.

Zahlen, Daten, Fakten: Weshalb auch ein Handwerksbetrieb ONLINE solide aufgestellt sein sollte!

Wer heutzutage Neukunden gewinnen will, kommt nicht mehr am Internet vorbei. Heute nutzten schon 80% aller Deutschen ab 14 Jahren das Internet und verbringen bis zu 169 Minuten täglich online. Potenzielle Neukunden informieren sich mit dem Smartphone über Unternehmen und deren Bewertungen… zum Artikel

Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen zu Cookies erhalten Sie in unserer Datenschutzerklärung
OK