GSC-Audit: Ausgangslage (20.03.2026)
Google hatte Probleme mit der Indexierung von 3dausdu.de gemeldet. Die Analyse der GSC-Berichte ergab folgende Kernprobleme:
- Doppelte robots-Meta-Tags auf mehreren Seiten (wiki/suche.php, creator-hub/index.php)
- Deal-Seiten ohne einzigartigen Content β Produktbeschreibungen waren Merchant-Duplikate
- Fehlende noindex-Tags auf Login, Konto, Verify und Passwort-Reset-Seiten
- Sitemap enthielt 1.234 URLs, davon 500+ Deal-Produkte ohne eigenen Content
- Blog-Duplikat: Zwei identische TPU-Filament-Artikel in der Sitemap
- Themen-URLs mit Umlauten/Leerzeichen: 34 URLs die zu 404 fuehrten
- Keine Kategorie-Seiten im Hardware-Radar: Google sah nur eine einzige /deals-Seite
Durchgefuehrte Fixes
1. Dynamisches robots-Meta-Tag System
header.php wurde um die Variable $pageRobots erweitert. Jede Seite kann jetzt ihren eigenen robots-Tag setzen:
- Default:
index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1 - noindex-Seiten: konto.php, login.php, verify.php, passwort-reset.php, empfehlungen.php, deal.php, wiki/suche.php
2. Deal-Seiten aus der Sitemap entfernt
500 Deal-Produkt-URLs wurden aus der Sitemap entfernt. Grund: Die Produktbeschreibungen stammen von den Merchant-Seiten und sind kein einzigartiger Content. Google bewertet das als Thin Content.
3. Sitemap-Bereinigung
- Vorher: 1.234 URLs
- Nachher: 707 URLs (alle HTTP 200, 0 Duplikate, 0 Redirects)
- Themen-Slugs: Strenge Regex-Filterung (nur
[a-zA-Z0-9-]), Case-Insensitive Dedup bei Beibehaltung der Original-Schreibweise (API ist case-sensitive!) - Blog-Dedup hinzugefuegt
- Globale Dedup-Sicherung am Ende der Sitemap
- buddy/chat aus Sitemap entfernt
4. Doppelte Meta-Tags behoben
wiki/suche.php und creator-hub/index.php hatten sowohl den robots-Tag aus header.php als auch einen eigenen inline-Tag. Die inline-Tags wurden entfernt, header.php uebernimmt via $pageRobots.
5. Blog-Duplikat deaktiviert
Zwei Artikel mit identischem Titel "TPU-Filament: So gelingt der Druck mit flexiblem Material" existierten parallel. Einer wurde auf status rejected gesetzt.
6. Crawl-Budget-Optimierung
450 Brand-Links im Ticker der Startseite erhielten rel="nofollow". Blog-Kategorie-Links erhalten immer den Canonical auf /blog statt /blog?kategorie=X.
7. 301-Redirect fuer passwort-vergessen.php
Google hatte /passwort-vergessen im Index. Da die Seite in /login integriert wurde, leitet /passwort-vergessen.php jetzt per 301 auf /login weiter.
Hardware-Radar Kategorie-Seiten (SEO-Rebuild)
Das groesste strukturelle Problem: Der gesamte Hardware-Radar war eine Single-Page-Application. Google konnte nur eine einzige Seite sehen, unabhaengig von der gewaehlten Kategorie.
Fix: Server-seitige Kategorie-Rendering
Jede der 9 Hauptkategorien ist jetzt eine eigene crawlbare Seite mit:
- Eigenem Title: z.B. "Filament kaufen β 13.074 Angebote im Hardware-Radar | 3D AUS DU"
- Eigener Meta-Description mit kategorie-spezifischem Text
- Eigenem Canonical:
https://3dausdu.de/deals?category=filament - Eigenem H1: z.B. "Filament im Hardware-Radar"
- Eigenem Hero-Bild: Fotorealistisches Kategorie-Bild (Replicate API, WebP, 1400x680)
- Eigenem SEO-Content: 300-400 Woerter faktenbasierter Text mit internen Wiki-Links
- Schema.org CollectionPage mit kategorie-spezifischen Daten
- Breadcrumb: Startseite > Hardware-Radar > [Kategorie]
Kategorien in der Sitemap
Alle 9 Kategorien sind als eigene URLs in der Sitemap mit priority 0.8 und changefreq daily eingetragen:
- /deals?category=3d-drucker (2.287 Produkte)
- /deals?category=filament (13.074 Produkte)
- /deals?category=resin (4.266 Produkte)
- /deals?category=3d-scanner (294 Produkte)
- /deals?category=zubehoer-ersatzteile (4.753 Produkte)
- /deals?category=werkzeuge (374 Produkte)
- /deals?category=verbrauchsmaterial (1.017 Produkte)
- /deals?category=laser-material (39 Produkte)
- /deals?category=software (5 Produkte)
SEO-Watchdog (Automatisches Monitoring)
Ein Cron-Job (/home/chris/bin/seo-watchdog.sh) prueft alle 6 Stunden automatisch:
- Sitemap-URLs: Alle URLs muessen HTTP 200 zurueckgeben
- Meta-Tags: Hauptseiten haben korrekte robots/canonical Tags
- noindex-Seiten: Login, Konto etc. haben tatsaechlich noindex
- Deal-Stichprobe: Zufaellige Deal-Seiten haben noindex
- robots.txt: Erreichbar und korrekt
- HTTPS-Redirect: HTTP leitet auf HTTPS weiter
- Sitemap-Duplikate: Keine doppelten URLs
Bei Problemen wird automatisch ein Telegram-Alert gesendet (gleicher Bot wie service-watchdog.sh). Cooldown: max 1 Alert pro 6 Stunden.
Log: /home/chris/3dausdu-dev/logs/seo-watchdog.log Report: /home/chris/3dausdu-dev/logs/seo-watchdog-report.json
Ergebnis
- Sitemap: 707 -> 716 URLs (707 + 9 Kategorie-Seiten)
- Alle URLs: HTTP 200, 0 Fehler
- 32 interne Wiki-Links: Alle verifiziert (HTTP 200)
- SEO-Monitoring: Automatisch, alle 6h, Telegram-Alert bei Problemen
- Hardware-Radar: 9 eigene Kategorie-Seiten statt 1 SPA-Seite