1. Aus Versehen alles blockieren: robots.txt, Meta-Robots, HTTP-Header
Staging ist live gegangen. Die Disallow: / blieb drin. Oder ein Build setzt <meta name="robots" content="noindex,nofollow"> global. Manchmal schießt sogar ein Reverse-Proxy per Header X-Robots-Tag: noindex quer. Crawler sind weg. Umsätze rutschen hinterher.
Dein Check: Automatisiere Prüfungen in CI/CD. Teste auf „noindex“ in HTML und Headern, prüfe robots.txt auf Disallow: /, und setze Staging per Basic-Auth oder IP-Restriktion statt Noindex in Production.
# robots.txt (Production) User-agent: * Disallow: /checkout/ Disallow: /account/ Allow: /media/ Sitemap: https://www.deinshop.de/sitemap.xml
2. Ressourcen blockieren: JS, CSS, Medien
Wenn Crawler CSS und JS nicht laden dürfen, verstehen sie Layout, Lazy-Loading und Navigation schlechter. Renderprobleme führen zu Fehleinschätzungen bei Content, LCP und CLS.
Dein Check: Erlaube statische Verzeichnisse. Prüfe im „Abruf wie Google“ bzw. in der Search Console Renderberichte. Keine sensiblen Assets blocken, außer wirklich private Pfade.
# robots.txt User-agent: * Allow: /static/ Allow: /assets/ Allow: /bundles/ Disallow: /admin/
Mehr zu JavaScript-SEO findest du in der Google-Doku. Lies die Basics, bevor du nächste Woche wieder am Rendering schraubst: JavaScript und Google Suche.
3. Canonical Chaos: Duplicate Content durch Filter, Sortierung, Paginierung
Shops erzeugen Varianten wie Konfetti: ?sort=, ?color=, ?page=, Facetten ohne Ende. Ohne Selbstdisziplin konkurrieren URLs intern.
Dein Check: Setze auf selbstreferenzierende Canonicals für Seitenzustände, die eigenständig ranken dürfen. Für reine Sortierungen keine Indexierung. Paginierung mit stabilen Canonicals und klaren Parametern.
<link rel="canonical" href="https://www.deinshop.de/kategorie/" /> <!-- Seite 2 der Kategorie --> <link rel="canonical" href="https://www.deinshop.de/kategorie/?page=2" /
4. Hreflang falsch verdrahtet
Internationalisierer lieben Hreflang, bis Traffic verschwindet. Häufige Fehler: Verweise auf non-canonical URLs, unvollständige Rückverlinkung, falsche Ländercodes, fehlendes x-default.
Dein Check: Hreflang immer auf die kanonische Version setzen und wechselseitig verknüpfen. Automatisiere die Generierung im Build.
<link rel="alternate" href="https://example.com/de/produkt" hreflang="de-DE" /> <link rel="alternate" href="https://example.com/at/produkt" hreflang="de-AT" /> <link rel="alternate" href="https://example.com/en/product" hreflang="en" /> <link rel="alternate" href="https://example.com/" hreflang="x-default" />

Seo Shop aufräumen – E-Commerce News – Tipps & Tricks – 🛠️ Warum Shop-Entwickler oft SEO unbewusst zerstören🚦
5. JavaScript-Rendering frisst Content
Wichtige Texte, Links und Meta-Tags erscheinen nur nach Client-Rendering. Wenn Google die Ressourcen drosselt oder die App hydratisiert langsam, sieht der Bot zu wenig. Ergebnis: schwache Indexierung.
Dein Check: Liefere kritische Inhalte serverseitig gerendert. Progressive Enhancement ist dein Freund. Prüfe, ob <title>, <meta description> und Hauptinhalt im Initial-HTML stehen.
6. Core Web Vitals ignorieren
LCP, CLS und INP hängen an realen Nutzerdaten. Fehlende Bilddimensionen, nachladende Webfonts, Third-Party-Skripte im Hauptthread und gigantische JS-Bundles schaden der Performance.
Dein Check: Setze Dimensionen für Bilder und Platzhalter. Lade Fonts mit font-display=swap und Preload. Splitte Bundles, entferne ungenutztes JS. Miss Web-Vitals in der Production mit RUM.
<img src="/media/hero.webp" width="1280" height="720" alt="Sommer-Sale">
Ein kompaktes Canonical-How-to hilft dir beim Aufräumen der Parameter-Hölle. Lies den Leitfaden: SISTRIX: Canonical Tag erklärt.
7. Lazy-Loading ohne Fallback
Nur JavaScript-Lazy-Loader ohne loading="lazy" oder <noscript> riskieren leere Seiten für Crawler und Nutzer ohne JS.
Dein Check: Nutze natives Lazy-Loading und ergänze ein <noscript>-Fallback.
<img src="/img/p1.webp" alt="Produkt 1" loading="lazy" width="600" height="600"> <noscript><img src="/img/p1.webp" alt="Produkt 1" width="600" height="600"></noscript>
8. Pagination und Filter ohne saubere Informationsarchitektur
Endlose Scrolls, unklare URLs und Filter, die jedes Facetten-Klick als indexierbare Seite rausblasen. Das produziert dünnen Inhalt und Kannibalisierung.
Dein Check: Definiere, welche Filter indexierbar sind. Nutze konsistente URL-Parameter. Verknüpfe Pagination intern gut. Biete eine „Alle anzeigen“-Seite nur, wenn sie performant ist.
9. Soft-404s und kaputte Weiterleitungen
Produkt offline? Bitte kein 200 mit „Leider ausverkauft“. Das wirkt wie Soft-404. Oder 302-Ketten nach Relaunch. Beides kostet Budget und Vertrauen.
Dein Check: Setze 404/410 korrekt. Nutze saubere 301 auf Nachfolger. Meide Ketten und Loops. Prüfe regelmäßig mit Crawl.
# NGINX Beispiel location = /altes-produkt { return 301 https://www.deinshop.de/neues-produkt; }
10. Sitemaps als Afterthought
Uralte URLs, 404er und Noindex-Seiten in der Sitemap? Dann vertraut Google deinen Signalen weniger.
Dein Check: Generiere Sitemaps täglich. Nur indexierbare, kanonische URLs aufnehmen. Pro Datei unter 50.000 URLs und 50 MB bleiben. Trenne nach Typen.
Tipp: Nutze hier unser kostenloses SEO Audit Tool für einen Website Check
SEO Audit Tool
Umfassende Website-Analyse mit echten Performance-Daten & KI-Optimierungen
11. Strukturierte Daten mit Fehlern
Product, Offer, Breadcrumb, FAQ, Organization. Alles drin, aber falsch verknüpft oder widersprüchlich zu sichtbaren Daten.
Dein Check: Generiere JSON-LD konsistent aus denselben Datenquellen wie das Frontend. Validiere im Rich-Result-Test. Halte Preise, Verfügbarkeit und Währung synchron.
<script type="application/ld+json">{ "@context":"https://schema.org","@type":"Product", "name":"Basic Hoodie","sku":"BH-001", "offers":{"@type":"Offer","priceCurrency":"EUR","price":"49.90","availability":"https://schema.org/InStock"} }</script>
12. Migration ohne Redirect-Plan
Neue Architektur, neue URLs, alte Rankings weg. Ohne 1:1-Redirect-Mapping verlierst du Linkjuice und Nutzer.
Dein Check: Erstelle ein Mapping aus Alt- auf Neu-URLs. Teste mit 100%-Abdeckung kritischer Seiten. Übertrage Metadaten, Hreflang, Canonicals, Strukturierte Daten.
13. Trailing Slashes, Groß/Kleinschreibung, http/https
Kleine Inkonsistenzen erzeugen große Dubletten. Beispiel: /Kategorie vs. /kategorie, /pfad vs. /pfad/.
Dein Check: Lege eine Norm fest. Erzwinge Weiterleitungen per Server. Setze Canonicals konsistent. Teste internen Linkgraph mit einem Crawler.
14. Session-IDs und Tracking-Parameter in Links
Wenn interne Links UTM-Parameter oder Session-IDs tragen, vervielfacht sich der URL-Raum unnötig.
Dein Check: Entferne solche Parameter in internen Links. Nutze serverseitige Attribution oder First-Party-Storage statt URL-Schwemme.
15. Interne Suche indexiert
Suchergebnisse sind dünn, volatil und gehören nicht in den Index.
Dein Check: Blocke interne Suche per robots.txt und setze noindex auf Suchergebnis-Templates.
Disallow: /search Disallow: /suche
16. Cookie-Banner und Overlays, die Content verdecken
Wenn ein Consent-Layer Inhalt verdeckt oder Links unbedienbar macht, sinken Nutzersignale. Bot-Erkennung sollte den Banner ausblenden, aber sauber, ohne Cloaking.
Dein Check: Serverseitiges Consent-Tuning, kein Blockieren von Hauptinhalten. Stelle sicher, dass HTML-Content unabhängig vom Banner zugänglich bleibt.
17. Produktvarianten falsch modelliert
Größen und Farben als eigene indexierbare Seiten ohne Mehrwert erzeugen Kannibalisierung.
Dein Check: Bündle Varianten auf einer starken Produktseite. Wenn separate Seiten nötig sind, liefere klaren, eigenständigen Content oder setze Canonical auf die Hauptvariante.
18. Bilder ohne Alt-Text, falsches Format, kein CDN
Bilder ranken, beschleunigen und erklären. Ohne Alt-Text, mit riesigen JPEGs statt WebP/AVIF, dazu ohne Caching, verschenkst du Performance und Suchtraffic.
Dein Check: Nutze moderne Formate, Alt-Texte mit Kontext, Breiten/Höhen, sinnvolles Caching. Liefere responsive <source>-Sets.
<picture> <source srcset="/img/p1.avif" type="image/avif"> <source srcset="/img/p1.webp" type="image/webp"> <img src="/img/p1.jpg" alt="Herren Sneaker weiß" width="800" height="800"> </picture>
Wenn du Hreflang noch vertiefen willst, liefert das Ryte-Wiki eine gute Übersicht: Ryte Wiki: Hreflang.
19. HTTP-Header und Caching-Regeln kollidieren
Fehlkonfigurierte Proxies oder CDNs überschreiben Metadaten. Plötzlich hat deine Kategorienseite einen veralteten Canonical oder einen falschen Statuscode aus dem Cache.
Dein Check: Versioniere HTML, differenziere Cache-Policies für HTML vs. Assets, invalidiere nach Deploy zielgenau.
20. Monitoring fehlt
Ohne Alerts merkst du Probleme erst, wenn Umsatz weg ist. Du brauchst Metriken für Indexierung, Statuscodes, interne Verlinkung, Web-Vitals und SERP-Klicks.
Dein Check: Richte Health-Checks ein. Automatisiere Crawls nach Deploy. Logge Bot-Traffic. Baue Dashboards für 404-Trends, 5xx-Spitzen und Sitemap-Fehler.
Praktische Quick-Wins für deine nächste Sprint-Planung
Checkliste „Vor Livegang“
- robots.txt geprüft, Staging-Reste entfernt
- Kein globales Noindex, Header sauber
- Core-URLs serverseitig gerendert
- Canonicals konsistent, Parametrisierung definiert
- Sitemap frisch, nur indexierbare URLs
- Redirect-Mapping vorhanden und getestet
- Hreflang validiert, wechselseitig
- Web-Vitals RUM aktiv, Budgets gesetzt
Was du in CI/CD automatisierst
- Linting für Meta-Robots und Canonical
- Snapshot-Tests für kritische Templates
- Crawl-Smoke-Test nach Deploy
- Sitemap-Validierung und Link-Graph-Checks







nofollow auf interne Links ‚für PageRank Sculpting‘. Entwickler von 2010 oder was? Hat unsere interne Verlinkung komplett zerschossen.
Lazy Loading für ALLE Bilder. Auch above the fold. LCP = 8 Sekunden. Core Web Vitals = rot. Rankings = weg.
Ich bin Freelance Developer und habe diesen Artikel jetzt in meine Signatur gepackt. JEDER Kunde muss den lesen, bevor wir starten!
JavaScript-Routing ohne SSR oder Pre-Rendering. Google sieht: Eine Seite. Wir haben: 2000 Produkte. Super!
Noch ein Klassiker: Alle Produktbilder heißen IMG_12345.jpg. Alt-Tags? Fehlanzeige. Bilder-SEO? Nie gehört. Dabei macht Bilder-Traffic bei uns 30% aus!
Session-IDs in URLs. Im Jahr 2025. Ich hab keine Worte mehr.
Was mich am meisten nervt: Entwickler, die denken, sie wüssten alles besser. ‚SEO ist tot, jetzt zählt nur noch User Experience!‘ Ja klar, und wie finden die User den Shop? Durch Telepathie?
Breadcrumbs mit JavaScript = Google blind. So einfach kann man SEO zerstören.
Entwickler: ‚Wir machen alles mit Angular, das ist modern!‘ Google: ‚Cool, aber ich kann nichts lesen.‘ Traffic: -80%. True story aus 2024.
Mega wichtiges Thema! Bei uns hat der Entwickler alle Filterseiten indexierbar gelassen. Resultat: 50.000 Near-Duplicate-Pages. Google hat unsere Domain komplett abgestraft. 6 Monate Recovery-Zeit!
CSS-only Hamburger Menu = Links für Google unsichtbar. Mobile First Index = Rankings tot. Danke für nichts.
Unser Entwickler hat alle internen Links mit target=’_blank‘ versehen. ‚Ist besser für die User!‘ Nein, ist es nicht! Link Juice futsch, User verwirrt, Google not amused.
Load Balancer mit verschiedenen URLs ohne Canonical = Duplicate Content Nightmare. True story.
Query Strings für Tracking = URL-Chaos. Tausende duplicate URLs im Index. War nicht lustig.
Ich arbeite als SEO-Berater und räume ständig hinter Entwicklern auf. Das Traurige: 80% der Fehler wären vermeidbar gewesen. Ein bisschen Grundwissen würde reichen! Aber viele Entwickler sind beratungsresistent. ‚Das haben wir schon immer so gemacht‘ höre ich ständig. Ja, und deshalb rankt der Shop auch auf Seite 8 bei Google!
Soft 404s überall! Ausverkaufte Produkte mit 200 Status Code aber ‚Nicht verfügbar‘ Message. Google liebt sowas… NOT!
Wichtiger Artikel! Besonders für kleinere Shops kann schlechtes technisches SEO existenzbedrohend sein. Wir konkurrieren ja nicht nur untereinander, sondern gegen Amazon & Co!
Faceted Navigation ohne SEO-Konzept ist der Tod jedes Shops. 100k sinnlose URLs, Crawl-Budget im Eimer.
CDN falsch konfiguriert = Duplicate Content auf 5 verschiedenen Domains. Canonical Tags? Fehlanzeige. Das war ein teurer Spaß…
Super wichtiges Thema! Was mich besonders ärgert: Viele Entwickler verstehen nicht mal die Basics. Letztens hatte ich eine Diskussion mit einem ‚Senior Developer‘ (10 Jahre Erfahrung!), der mir erklären wollte, dass Meta-Keywords super wichtig für SEO sind. Im Jahr 2025! Als ich ihm erklärt habe, dass Google die seit 2009 ignoriert, war er total überrascht. Wie kann man 10 Jahre Shops entwickeln und sowas nicht wissen? Das zeigt das Grundproblem: SEO wird in der Entwickler-Ausbildung komplett ignoriert. Dabei ist es essentiell! Ein Shop ohne SEO ist wie ein Laden ohne Eingang – technisch perfekt, aber niemand kommt rein.
Pagination rel=prev/next vergessen. 500 Kategorieseiten. Google indexiert nur Seite 1. 🤦
JSON-LD vs. Microdata – unser Entwickler hat beides gleichzeitig implementiert. Mit unterschiedlichen Daten. Google war verwirrt, wir auch.
Wir haben mal 20k für einen ‚SEO-optimierten‘ Shop bezahlt. Was wir bekommen haben: – Title Tags alle gleich (‚Shop | Shop | Shop‘) – Meta Descriptions auto-generiert mit erstem Satz vom Content – Keine strukturierten Daten – Bilder ohne Alt-Tags – URLs mit Session-IDs – Keine XML-Sitemap. Als wir reklamiert haben, meinte die Agentur: ‚Aber die Keywords sind doch im Content!‘ *facepalm*
Kurzer Einwurf: Shop-Entwickler sollten verpflichtend einen SEO-Grundkurs machen müssen. Die Schäden, die durch Unwissenheit entstehen, sind enorm!
Hreflang-Tags bei mehrsprachigen Shops – ein Albtraum wenn’s falsch gemacht wird. Hatten deutsche Seiten, die in Google.com rankten und englische in Google.de. Total chaos.
Das Thema Core Web Vitals wird auch oft falsch verstanden. Ja, Speed ist wichtig. Aber CLS und FID sind genauso relevant! Unser Shop hatte einen CLS von 0.8 – katastrophal!
Noindex auf Suchergebnisseiten vergessen = 80.000 Thin Content Pages im Index. Danke Google für die manuelle Abstrafung! Hat uns fast das Geschäft gekostet. Der Entwickler meinte nur: ‚Ups, das wusste ich nicht.‘ ARRGH!
Wir hatten einen Entwickler, der hat alle Bilder als WebP ausgeliefert – ohne Fallback. Ältere Browser? Pech gehabt. Safari-User? Sehen keine Bilder. Der Traffic ist um 30% eingebrochen, weil die Leute sofort wieder weg waren. SEO ist eben nicht nur Google-Optimierung, sondern auch User-Experience!
Wichtiges Thema! Besonders die interne Verlinkung wird oft vernachlässigt.
Redirect-Chains sind auch son Thema. Unser Dev: 301 -> 302 -> 301 -> 200. Google: 🤮
Ich bin selbst Entwickler und muss zugeben: SEO war lange mein blinder Fleck. Habe immer gedacht, das ist Marketing-Kram. Bis ich mal die Analytics von einem meiner Shops gesehen habe. 90% Bounce Rate, Average Session Duration 8 Sekunden. Der Shop war technisch perfekt – aber SEO-technisch eine Katastrophe. Seitdem habe ich mich intensiv mit dem Thema beschäftigt. Was mir aufgefallen ist: Es gibt kaum gute Ressourcen für Entwickler! Die meisten SEO-Guides sind für Marketing-Menschen geschrieben. Wir Entwickler brauchen konkrete, technische Anleitungen. Nicht ‚Mach guten Content‘, sondern ‚So implementierst du Structured Data richtig‘, ‚So optimierst du das Crawl-Budget‘, ‚So baust du eine SEO-freundliche URL-Struktur‘. Der Artikel hier ist ein guter Anfang, aber wir brauchen mehr davon!
True! Hatten ähnliches Problem mit React-Shop. SSR ist ein Muss!
AJAX-Warenkorb killed unsere Conversions. Nicht weil er schlecht war, sondern weil der Dev alle Links durch JavaScript-Events ersetzt hat. Google konnte die Produktseiten nicht mehr crawlen. -60% organischer Traffic in 4 Wochen.
Super Artikel! Ich ergänze noch: Infinite Scroll ohne Pagination-Alternative. Google sieht nur die ersten 20 Produkte. Die anderen 480? Invisible! Unser Entwickler: ‚Aber das ist doch moderne UX!‘ Ja, toll, nur dass 96% unserer Produkte nicht indexiert wurden. Moderne UX bringt nichts, wenn keiner den Shop findet!
Canonical Tags falsch gesetzt = Duplicate Content Hölle. Hatten wir. War teuer.
Wir haben die Erfahrung gemacht, dass viele Entwickler SEO als ‚Bremse‘ sehen. ‚Das macht den Shop langsamer‘, ‚Das verkompliziert den Code‘, ‚Das ist old school‘. Dabei ist modernes SEO das genaue Gegenteil! Ein gut optimierter Shop ist schneller, benutzerfreundlicher und technisch sauberer. Das Problem ist die Ausbildung. In den meisten Coding-Bootcamps wird SEO mit keinem Wort erwähnt. Die Leute lernen React, Node, Docker – aber nicht, wie Suchmaschinen funktionieren. Das rächt sich später bitter. Wir haben jetzt einen festen SEO-Consultant, der bei JEDEM Shop-Projekt von Anfang an dabei ist. Kostet mehr? Ja. Spart es langfristig Geld? Absolut!
Faceted Navigation Horror Story: 50.000 Filter-Kombinationen = 50.000 URLs = Crawling Chaos. Danke für nichts, lieber Entwickler.
Was auch immer vergessen wird: Mobile First! Unser Entwickler hat den Shop perfekt für Desktop optimiert. Mobile? ‚Das machen wir später.‘ Google indexiert aber Mobile First! Die Rankings sind komplett abgestürzt, weil die mobile Version grauenhaft war. Keine responsive Bilder, horizontales Scrolling, winzige Buttons. Ein Albtraum!
Kurz und knapp: Nach Shop-Relaunch 70% Umsatz verloren. Entwickler hatte alle /produkt/ URLs auf /p/ gekürzt. ‚Ist doch besser so!‘ Nein, ist es nicht.
Structured Data nicht vergessen! Unser Dev kannte nur Schema für Artikel, nicht für Produkte. Rich Snippets = Fehlanzeige.
Der Artikel spricht mir aus der Seele! Ich bin seit 15 Jahren im E-Commerce und habe schon alles erlebt. Das krasseste war ein Entwickler, der meinte, er hätte eine ‚geniale SEO-Innovation‘ entwickelt. Seine Idee: Alle Produkttexte dynamisch per JavaScript generieren lassen, basierend auf Keywords. Das Problem? Google konnte NICHTS davon lesen! Der ganze Content war client-seitig gerendert, ohne SSR, ohne Fallback. 8.000 Produktseiten, komplett unsichtbar für Suchmaschinen. Als ich ihm das erklärt habe, war seine Antwort: ‚Aber Google kann doch JavaScript!‘ – Ja, KANN, aber nicht immer und nicht sofort! Wir haben 6 Monate gebraucht, um das wieder hinzubiegen. Seitdem bestehe ich darauf, dass bei jedem Shop-Projekt ein SEO-Experte von Tag 1 dabei ist. Anders geht es einfach nicht.
Kann ich bestätigen. Unser Entwickler: ‚SEO macht man doch mit Google Ads!‘ 🤯
Das mit dem Crawl-Budget hatte ich auch noch nie gehört. Erklärt aber, warum Google bei unserem Shop mit 50k Produkten nur 10% indexiert hat…
Ich bin Shop-Betreiberin und SEO-Enthusiastin. Was mich am meisten nervt: Entwickler, die denken, ein schneller Shop reicht für gute Rankings. Ja, Speed ist EIN Faktor von über 200! Was bringt mir ein Shop, der in 0,5 Sekunden lädt, aber keine vernünftigen Title-Tags hat, keine interne Verlinkung, keine strukturierten Daten? Wir haben letztes Jahr einen Entwickler gehabt, der war super proud auf seine Core Web Vitals. Alles grün! Nur: Er hatte vergessen, die XML-Sitemap einzurichten, die robots.txt war falsch konfiguriert, und die Breadcrumb-Navigation hat er ‚aus Performance-Gründen‘ weggelassen. Ich musste ihm erstmal erklären, dass Breadcrumbs nicht nur für User wichtig sind, sondern auch für Google! Sein Kommentar: ‚Ach, das wusste ich nicht.‘ – Ja, genau das ist das Problem! Entwickler müssen endlich verstehen, dass SEO kein nice-to-have ist, sondern essentiell für den Erfolg eines Online-Shops. Ohne Sichtbarkeit keine Kunden, ohne Kunden kein Umsatz. So einfach ist das.
Paginierung ist auch so ein Thema! Unser Dev hatte bei Kategorieseiten einfach alle Seiten auf noindex gesetzt, außer Seite 1. Resultat: 500+ Produkte nicht mehr auffindbar.
Wir hatten mal einen Entwickler, der meinte, robots.txt sei ‚Sicherheitsrisiko‘ und hat einfach alles auf Disallow gestellt. Nach 2 Wochen waren wir komplett aus Google verschwunden. True Story! Als wir ihn darauf angesprochen haben, meinte er nur ‚Aber der Shop ist doch trotzdem erreichbar?‘ – Ja klar, nur findet ihn halt keiner mehr! Das Schlimmste: Er hat bis heute nicht verstanden, was das Problem war. Manche Entwickler leben echt in ihrer eigenen Bubble.
True Story: Entwickler baut mega geilen Shop. Alle Produktbilder über Lazy Loading. Problem: Auch die Above-the-fold Bilder. LCP im Keller. Rankings weg. 🤦♂️
Super Artikel! Besonders der Part über die URL-Struktur hat mich angesprochen. Unser Entwickler hatte alle Kategorien in kryptische IDs umgewandelt (/cat/12345 statt /herrenschuhe/). Hat Monate gedauert, bis wir das wieder hinbekommen haben.
Kann die Kritik verstehen, aber als Entwickler muss ich auch sagen: Viele Kunden wollen einfach nicht für SEO zahlen. ‚Macht erstmal den Shop fertig, SEO machen wir später‘ höre ich ständig. Dann wundern sie sich, wenn später teurer wird.
Interessanter Punkt mit den JavaScript-Frameworks! Wir nutzen Vue.js und hatten massive Probleme mit der Indexierung. Google konnte unsere Produktseiten teilweise gar nicht crawlen. Die Lösung war Server-Side-Rendering, aber das hat nochmal 3 Monate Entwicklung gekostet. Hätte man vorher wissen können…
Bei uns war es noch schlimmer: Shop-Relaunch im Januar, bis März 80% Traffic-Verlust, im April Insolvenz angemeldet. Kein Witz.
Ich arbeite selbst als Entwicklerin und muss leider zugeben: Der Artikel trifft ins Schwarze. In meiner Ausbildung kam SEO genau NULL vor. Wir haben gelernt, wie man performante, sichere und schöne Shops baut – aber niemand hat uns erklärt, wie Google eigentlich funktioniert. Das Problem ist systemisch: Die meisten Entwickler-Bootcamps und Studiengänge behandeln SEO als ‚Marketing-Thema‘, nicht als technische Anforderung. Dabei ist technisches SEO zu 80% Entwickler-Arbeit! Canonical-Tags, strukturierte Daten, Core Web Vitals, Crawl-Budget-Optimierung – das sind alles Entwickler-Themen. Ich habe mir das Wissen erst nach 3 Jahren Berufserfahrung selbst angeeignet, nachdem ich gemerkt habe, wie viele Kunden-Shops ich unbewusst ‚kaputt optimiert‘ hatte. Mein Vorschlag: SEO sollte Pflichtbestandteil jeder Webentwickler-Ausbildung sein!
DANKE für diesen Artikel! Schicke ich direkt an unseren Entwickler weiter 😅
Das Problem kenne ich nur zu gut. Die meisten Entwickler denken tatsächlich, dass ein schneller Shop automatisch gut für SEO ist. Dabei vergessen sie die Basics.
Endlich spricht es mal jemand aus! Wir haben letztes Jahr unseren Shop relaunchen lassen – 45.000€ Budget, tolle Agentur aus Hamburg. Der Shop sieht MEGA aus, läuft butterweich, super UX. Aber: Nach 3 Monaten waren 60% unserer Rankings weg! Die Entwickler hatten einfach alle URLs geändert, keine Weiterleitungen eingerichtet, Meta-Descriptions gelöscht und die ganze Seitenstruktur über den Haufen geworfen. Mussten dann nochmal 15k für SEO-Recovery ausgeben. Mein Learning: NIEMALS wieder einen Shop ohne SEO-Begleitung entwickeln lassen!