← Alle Ausgaben

Week 16 · 2026 Ausgabe

Google verbietet Back-Button-Hijacking in neuer Spam-Richtlinie

Blogs
23
Artikel erfasst
102
über Schwellenwert
83

Google Spam-Policy-Updates und Durchsetzungsänderungen 6

Google führt Spam-Policy gegen Back Button Hijacking ein

Google kündigte eine neue Spam-Policy an, die explizit "Back Button Hijacking" als Verstoß gegen schädliche Praktiken einstuft, mit Durchsetzung ab 15. Juni 2026. Laut dem Google Search Central Blog wird diese betrügerische Technik zu potenziellen Spam-Maßnahmen gegen beteiligte Websites führen. Search Engine Journal berichtet, dass Websites eine zweimonatige Frist haben, um anstößigen Code zu entfernen, bevor Strafen greifen.

Search Engine Land bestätigt, dass Google sowohl manuelle als auch automatische Ranking-Strafen für Websites verhängen kann, die nach der Frist noch Back Button Hijacking verwenden. Der Search Engine Roundtable stellt fest, dass dies eine wachsende Manipulationstaktik angeht, die Nutzer daran hindert, zu den Suchergebnissen zurückzukehren - etwas, worüber viele überrascht waren, dass Google es nicht schon früher explizit verboten hatte.

Änderungen bei Google Spam-Meldungen können manuelle Maßnahmen auslösen

Google aktualisierte sein Spam-Meldesystem mit einer bedeutenden Policy-Änderung: Spam-Meldungen können nun für manuelle Maßnahmen gegen Verstöße verwendet werden. Laut Search Engine Roundtable veröffentlichte Google eine Klarstellung: "Google kann Spam-Meldungen verwenden, um manuelle Maßnahmen gegen Verstöße zu ergreifen."

Search Engine Journal berichtet, dass dies eine neue Möglichkeit für SEOs darstellt, potenziell manuelle Maßnahmen auszulösen und Spam-Websites aus den Suchergebnissen zu entfernen. Dies markiert eine bedeutende Verschiebung von früheren Spam-Meldeverfahren, bei denen Meldungen hauptsächlich für algorithmische Verbesserungen anstatt direkte Durchsetzungsmaßnahmen verwendet wurden.

Google Core Update-Analyse und Search Console-Probleme 5

März 2026 Core Update abgeschlossen mit Verschiebung weg von Aggregator-Seiten

Nach dem Abschluss des März 2026 Core Updates (das wir als nach 12 Tagen abgeschlossen berichteten) veröffentlichte Aleyda Solis eine umfassende Analyse mit Sistrix-Daten, die klare Muster zeigt, die sich von Zwischenhändler-, Aggregator-, Verzeichnis- und Schnellantwort-Utility-Sites weg hin zu stärkeren Zielmarken und institutionellen Quellen bewegen. Ihre Analyse vom 26. März bis 11. April identifizierte dies als eines der klarsten frühen Muster des Updates und deutet darauf hin, dass Google autoritäre Ziel-Sites gegenüber Content-Aggregatoren priorisiert, die zuvor bei informativen Suchanfragen gut rankten.

Search Console Bug-Fixes und technische Störungen

Der Search Console Impression-Inflation-Bug, den wir letzte Woche berichteten, wurde nun vollständig behoben, wobei Google die Vollendung der Behebung laut Search Engine Journals SEO Pulse-Bericht bestätigte. Zusätzlich verursachte ein neuer separater Search Console-Fehler Alarm durch die Anzeige fehlerhafter Nachrichten, die suggerierten, dass Impressionen erst kürzlich für bereits verifizierte Sites gemeldet wurden. Google bestätigte, dass diese E-Mail-Benachrichtigungen durch einen Bug verursacht wurden, wobei Nutzern geraten wurde, sich nicht durch E-Mails alarmieren zu lassen, die behaupten, Google sammle Impressionen auf "längst verifizierten" Sites.

AI-Suche und Zitationsmuster 6

ChatGPT-Zitationsforschung zeigt überraschende Muster

Ahrefs analysierte 1,4 Millionen Prompts, um zu verstehen, warum ChatGPT bestimmte Seiten gegenüber anderen zitiert, und stellte fest, dass es nur etwa 50% der abgerufenen Seiten zitiert. Diese umfassende Studie liefert entscheidende Erkenntnisse zu AI-Zitationsmustern für SEO-Strategien und zeigt eine erhebliche Lücke zwischen Inhaltsabruf und tatsächlicher Zitation auf.

Kevin Indigs separate Analyse von 815.000 Abfrage-Seiten-Paaren ergab, dass kürzere, fokussierte Inhalte in ChatGPT-Zitationen besser abschneiden als umfassende Leitfäden, was traditionelle SEO-Annahmen über Inhaltstiefe und -abdeckung herausfordert. Die Forschung deutet darauf hin, dass "mehr Bereiche, die Ihr Inhalt abdeckt" nicht unbedingt zu besserer AI-Sichtbarkeit führt, entgegen klassischen SEO-Best-Practices, die für mehr Unterthemen, Abschnitte und Wörter plädieren.

AI Overview-Genauigkeitsprobleme und Reddit-Zitationsherausforderungen

Eine von der New York Times in Auftrag gegebene Studie fand erhebliche Genauigkeits- und Grundlagungsprobleme in Googles AI Overviews, so Search Engine Roundtable. Die Forschung hebt potenzielle Probleme mit AI-generierten Suchergebniszusammenfassungen hervor und fügt zu wachsenden Bedenken über AI-Zuverlässigkeit in der Suche hinzu.

Neue Ahrefs-Daten zeigen, dass ChatGPT häufig Reddit-Seiten für Kontext abruft, sie aber selten als sichtbare Zitationen anzeigt, wie Search Engine Journal berichtet. Dies schafft potenzielle Sichtbarkeitsprobleme für Reddit-Inhalte in der AI-Suche, obwohl die Inhalte der Plattform zur Information von AI-Antworten verwendet werden. Die Diskrepanz zwischen Abruf und Zitation deutet darauf hin, dass Reddits Wert im AI-Training möglicherweise nicht in sichtbare Attribution übersetzt wird.

AI-Slop und Content-Qualitätsprobleme

Die Analyse von Search Engine Journal zeigt, wie AI-Such-Tools selbstsicher fabrizierte SEO-Updates zitieren und damit wachsende Risiken beim Vertrauen auf LLM-generierte Informationen aufzeigen. Der "AI Slop Loop" demonstriert, wie AI falsche Informationsschleifen schaffen kann, bei denen fabrizierte Inhalte zitiert und wieder zitiert werden, was möglicherweise Fehlinformationen verbreitet.

Google bestätigte das Bewusstsein für selbstbedienende Listicles, die darauf ausgelegt sind, AI-Systeme zu manipulieren, und deutete an, dass sie daran arbeiten, diese Art von Inhaltsmanipulation daran zu hindern, die Suchqualität zu beeinträchtigen, so Search Engine Roundtable. Als Teil der Berichterstattung in The Verge, die sich gegen SEOs richtete, bestätigte Google, dass sie aktiv Inhalte überwachen und bekämpfen, die speziell erstellt wurden, um AI und Suchergebnisse zu manipulieren.

Googles Agentic Search-Evolution 5

Googles Verschiebung hin zu aufgabenbasierter agentischer Suche

Sundar Pichai skizzierte, wie sich die Suche zu einem "Agent Manager" entwickelt und damit eine Verschiebung von link-basierten Ergebnissen hin zu Aufgabenvervollständigung und mehrstufigen Arbeitsabläufen signalisiert, so Search Engine Journals Analyse seines kürzlichen Interviews. Dies stellt eine grundlegende Änderung in der Funktionsweise der Suche dar und bewegt sich über traditionelle Informationsabfrage hinaus hin zur aktiven Aufgabenausführung.

Search Engine Journal argumentiert, dass diese aufgabenbasierte agentische Suche "SEO heute, nicht morgen disrupted" und eine massive Verschiebung in der Funktionsweise der Internetsuche darstellt, die bereits Optimierungsstrategien beeinflusst. Die Analyse deutet darauf hin, dass dies keine zukünftige Sorge, sondern eine gegenwärtige Realität ist, die SEOs sofort angehen müssen. Marie Haynes diskutiert das Entstehen eines "agentischen Webs", in dem AI-Agenten Websites durchsuchen und mit ihnen interagieren können, und teilt Erkenntnisse aus Kundengesprächen darüber, wie diese Änderungen SEO-Strategien beeinflussen.

Google AI Mode Interface-Updates

Google AI Mode öffnet jetzt angeklickte Links in geteilter Ansicht auf Desktop-Geräten, was die Art und Weise, wie Nutzer mit Suchergebnissen interagieren, erheblich verändert und möglicherweise Website-Traffic-Muster beeinflusst, so Search Engine Roundtable. Dies stellt eine große UX-Änderung für die AI-Sucherfahrung dar und ermöglicht es Nutzern, den Kontext mit der AI-Unterhaltung beizubehalten, während sie verlinkte Inhalte durchsuchen.

Search Engine Journal berichtet, dass Google AI Mode in Chrome mit nebeneinander liegender Seitenansicht und erweiterten Kontextmenü-Funktionen aktualisiert, einschließlich eines Plus-Menüs zum Hinzufügen von Tabs, Bildern und Dateien als Kontext. Diese Interface-Änderungen deuten darauf hin, dass Google AI Mode als umfassendere Browse- und Forschungsumgebung anstatt nur als Such-Tool positioniert.

Social SEO und SERP-Feature-Evolution 1

Googles "Was Menschen sagen" Box signalisiert Social SEO-Ära

Google rollt "Was Menschen sagen" Boxen aus, die Live-Diskussionen von Reddit, YouTube Shorts und X am oberen Rand der Suchergebnisse zeigen, so Alek Asaduryans Analyse. Dies stellt eine bedeutende Verschiebung hin zu Social SEO über traditionelle keyword-fokussierte Content-Strategien dar.

Asaduryan argumentiert, dass "die alte SEO des bloßen Keyword-Stuffings in Blog-Posts stirbt" und wir in die Ära des Social SEO eintreten, in der YouTube und Reddit zu den primären Plattformen für Sichtbarkeit werden. Das neue SERP-Feature priorisiert Echtzeit-Social-Diskussionen über statische Blog-Inhalte und verändert fundamental, wie Content-Ersteller Suchoptimierung angehen sollten.

Google technische Updates und Anleitungen 5

Google klärt Canonical URL-Auswahlprozess

Googles John Mueller erklärt neun spezifische Szenarien, die beeinflussen, wie Google kanonische URLs gegenüber Duplikaten auswählt, und bietet direkten Einblick in Googles Kanonisierungsprozess, so Search Engine Journal. Diese Anleitung bietet SEOs konkretes Verständnis der Faktoren, die Google bei mehreren URLs mit ähnlichem oder identischem Inhalt berücksichtigt.

Der Search Engine Roundtable berichtet, dass Google zwar mehrere URLs verarbeiten kann, die auf dieselbe Seite zeigen, dies aber nicht empfohlene Praxis ist, da es Crawling und Indexierung erschwert. Mueller betonte, dass Google ohnehin einfach eine URL auswählt, sodass mehrere URLs unnötige Komplikationen sowohl für Googles Systeme als auch für das Site-Management schaffen.

Outbound Links und Seitengewicht-Anleitungen

Googles John Mueller stellte klar, dass ausgehende Links keine negativen Signale weiterleiten, und unhilfreiche Links typischerweise ignoriert anstatt Schäden zu verursachen, so Search Engine Journal. Dies adressiert langjährige SEO-Bedenken über Links zu minderwertigen Websites und potenzielle negative Auswirkungen auf Rankings.

Der Search Engine Roundtable berichtet über Googles neuesten Search Off The Record Podcast-Diskussion über wachsende Seitengewichtsprobleme und ihre Auswirkungen auf Nutzer und Googlebot-Crawling. Dies folgt auf Googles Aktualisierung seiner Dokumentation zur Klarstellung von Dateigrößenbegrenzungen für verschiedene Googlebot-Versionen, was darauf hinweist, dass Page Bloat zu einem bedeutenderen Problem sowohl für Nutzererfahrung als auch für technisches SEO wird.

Google testet AI Contribution Report in Search Console

Google testet einen neuen 'AI Contribution' Bericht in Search Console, möglicherweise ähnlich zu Bings AI-Leistungsberichten, so Search Engine Roundtable. Während Details über die Benutzeroberfläche unklar bleiben, deutet diese Entwicklung darauf hin, dass Google sich darauf vorbereitet, Website-Besitzern Einblicke darüber zu bieten, wie ihre Inhalte in AI-generierten Suchfunktionen erscheinen, und damit Microsofts Führung in der AI-Leistungsberichterstattung folgt.

Lokales SEO und Bewertungsrichtlinien-Updates 2

Google Bewertungsrichtlinie beschränkt Mitarbeiter-Aufforderungen

Google aktualisierte seine Bewertungsrichtlinie, um Mitarbeiter-Aufforderungen für spezifische Bewertungsanzahlen und Erwähnungen von Mitarbeiternamen in Bewertungsinhalten zu beschränken, so Search Engine Roundtable. Die beiden neuen Beschränkungen verbieten es, Mitarbeiter eine bestimmte Anzahl von Bewertungen einholen zu lassen und verlangen, dass Bewertungsinhalte keine Mitarbeiternamen und -informationen erwähnen sollten.

Dies stellt wichtige Änderungen für lokale Unternehmen dar, die ihre Bewertungsstrategien verwalten, und hebt Googles anhaltende Bemühungen hervor, die Authentizität von Bewertungen zu wahren und Manipulation des lokalen Such-Ökosystems zu verhindern.

Google Maps Spam-Bekämpfungsergebnisse

Googles jährlicher Maps-Sicherheitsbericht zeigt die Blockierung von 292 Millionen richtlinienverletzenden Bewertungen und die Entfernung von 13 Millionen gefälschten Unternehmensprofilen in 2025, so Search Engine Roundtable. Google blockierte auch 79 Millionen ungenaue oder unverifizierte Bearbeitungen und verhängte Posting-Beschränkungen für mehr als 783.000 richtlinienverletzende Konten.

Diese Zahlen demonstrieren erhebliche Durchsetzung gegen lokales SEO-Spam und gefälschte Bewertungen und zeigen Googles anhaltende Investition in die Wahrung der Integrität lokaler Suchergebnisse und Unternehmenslistings.

Content-Strategie und AI-Optimierung 3

Websites für das agentische Web erstellen

Search Engine Journal veröffentlichte Anleitungen, die erklären, wie AI-Agenten Websites interpretieren, und Empfehlungen für das Erstellen von Sites, die für das agentische Web optimiert sind, mit Fokus auf semantisches HTML, Barrierefreiheitsmuster und server-gerenderte Inhalte. Branchenexperte Slobodan Manic argumentiert, dass Websites nicht für AI-Agenten gebaut sind und fundamentale architektonische Änderungen benötigen.

Manic plädiert für "Machine-First" Architektur zur Vorbereitung auf AI-gesteuerte Web-Interaktionen und deutet an, dass aktuelle Website-Designs unzureichend für die entstehende Ära sind, in der AI-Agenten autonom Web-Inhalte durchsuchen und mit ihnen interagieren werden. Die Anleitung betont, dass Websites mit semantischem HTML, barrierefreien Mustern und sichtbaren server-gerenderten Inhalten besser für diese technologische Verschiebung positioniert sind.

AI-Sichtbarkeitsherausforderungen für nicht-englische Inhalte

Sprachvoreingenommenheit in AI-Modellen schafft erhebliche Sichtbarkeitslücken für nicht-englische Inhalte und zwingt Marken, ihre mehrsprachigen Such- und Content-Strategien für AI-gesteuerte Suchergebnisse zu überdenken, so die Search Engine Journal-Analyse von Duane Forrester. Dies stellt eine kritische Herausforderung für globale Marken dar, die in mehreren Märkten tätig sind.

Die Analyse zeigt, dass AI-Sichtbarkeitsstrategien, die auf Englisch funktionieren, möglicherweise nicht effektiv in andere Sprachen übertragen werden, was versteckte Lücken in der Markensichtbarkeit schafft, die internationale SEO-Teams angehen müssen. Diese Sprachvoreingenommenheit in AI-Systemen könnte globale Content-Distribution und Suchsichtbarkeitsstrategien erheblich beeinflussen.

Alle Artikel 83