Mies, mieser, richtig schlecht: CDU-Seiten

gepostet von Johan am

[Disclaimer: Ich bin Mitglied der CDU-Schleswig-Holstein und versuche manchmal Tipps zu geben, was man besser machen könnte. Nicht alles davon wird umgesetzt, aber manches wurde schon umgesetzt, weshalb die CDU-SH.de vielleicht nicht so schlecht abschneidet, wie sie es vor ein paar Monaten getan hätte…]

[Disclaimer2: Auch diese Seite hat noch viel Potenzial in vieler Hinsicht. Aber: Es handelt sich um eine private Seite eines Ehrenamtlichen im Vorruhestand und nicht um eine Seite einer großen Volkspartei…]

Wieschlecht sind sie wirklich. Ich wollte es einfach mal wissen. Nach der Gründung des politcamp e.V. (ein anderes Mal mehr…) bin ich nach hause gefahren und wollte die CDU-Landeswebseiten mal auswerten, um zu schauen, wer smart unterwegs ist und wer nicht.

Technische Fehler der CDU-Seiten

Aus der 20 Minuten Aktion wurde irgendwann ein irrer Aufwand, weil sämtliche Tools an fehlenden technischen Basics der Seiten gescheitert sind. Zusammenfassen lassen sich die Ergebnisse ungefähr so:

Gesamtrang des technischen Unvermögens von CDU Internetauftritten im August 2011

Gesamtrang des technischen Unvermögens von CDU Internetauftritten im August 2011

Der Gesamtrank enthält Punkte für Dinge, die man nicht tut. Wer Dinge, die man nicht tun sollte am Wenigsten tut bekommt die Wenigsten Punkte. Dinge, die man nicht tut sind zum Beispiel:

  • Seiten verlinken, die es an der Stelle nicht gibt (kein 200er Status)
  • Extra-Strafe bei Weiterleitung der Startseite. Noch was Extra, wenn man das per Meta-Refresh, oder 302-Status tut
  • Fehler im HTML und CSS
  • Fehler in Bezug auf Accessibility und Barrierefreiheit
  • Langsam laden
  • Viele Bilder, CSS und JS – Dateien referenzieren
  • Keine Überschriftenlogik, keine Beschreibung der Seite, keinen Seitentitel

Die einzelnen Themen habe ich nicht gewichtet, auch wenn ich überlegt habe die CDU Sachsen allein aufgrund des Meta-Refreshs von cdu-sachsen.de auf wissen.cdu-sachsen.de zu disqualifizieren.

Was wurde gemessen?

Wie oben beschrieben hab ich einige Probleme bei der Datenerhebung gehabt.
Dennoch habe ich insgesamt reliable Ergebnisse (für eine Quick&Dirty-Studie).

Für alle Startseiten der normalen Parteiseiten (bei CDU-Berlin also http://www.cduberlin.de/index.php und nicht die Vorschaltseite) hab ich erhoben (Links zu den Tools oben in der Liste):

  • für HTML-Standardkonformität laut W3C- und CSS-Validator
  • Accessibilty-Wert laut wave.webaim.org
  • alle Überschriften 1 und 2 (H1 und 2)
  • Description und TItle
  • Wird ein Trackingtool eingesetzt? Welches?
  • Ladezeit und weitere Objekte laut tools.pingdom.com (jaja, ich weiß, es gibt andere, aber mit pingdom hab ich am Schnellsten Ergebnisse in einer Tabelle)

Weil mich die Ergebnisse so erschreckt haben, habe ich noch mal einen Crawler angeschmissen und versucht mir von jeder Domain 500 Seiten zu ziehen. Dazu kommen wir vielleicht am Schluss noch mal.

Die CDU Hamburg und dieses Internet-Dingens

Bevor wir uns die Ergebnisse im Detail ansehen, hier einer meiner kleinen Lieblingsfunde:

Die CDU Hamburg und dieses Internetdingens

Die CDU Hamburg und dieses Internetdingens

Höchst professionell: Bei der CDU-Hamburg kann man sich ein „Dingens“ ein- oder ausblenden

Ein Gefühl für die CDU und das Internet bekommen

Für den Anfang schauen wir uns nicht die Seiten selbst an, sondern versuchen über Google ein Gefühl für die Größe der Seiten zu bekommen.

site:domain.de gibt alle Seiten aus, die Google zu einer Seite kennt. Vorsicht: Bei CDU.de wird auch brandenburg-cdu.de gefunden. Daher müssen wir in solchen Fällen die komplette Subdomain suchen, also www.cdu.de. Um einheitlich zu bleiben machen wir das überall…

Anzahl der Seiten im Google Index von CDU Internetseiten im August 2011

Anzahl der Seiten im Google Index von CDU Internetseiten im August 2011

Wir sehen: Lediglich 5 Domains haben mehr als 1.000 Seiten. Spannend ist die CDU-Sachsen. Eine Seite im Index. Hier könnte man auch zum Vergleich wissen.cdu-sachsen.de abfragen anstatt www.cdu-sachsen.de abzufragen. Tu ich aber nicht, denn Strafe muss sein.

Anzahl der Wörter auf Startseiten von CDU-Seiten im August 2011

Anzahl der Wörter auf Startseiten von CDU-Seiten im August 2011

Die Anzahl der Wörter auf der Startseite ist kein großartig wichtiger Wert. Aber sie hilft uns einzuordnen, wie die Seite funktionieren soll. Sollen hier nur bunte Bilder gezeigt werden (wie auf cdu.de), oder soll versucht werden direkt Informationen unterzubringen?

Wir sehen: Hamburg, Sachsen, Bremen, Schleswig-Holstein gehören zu Typ 2. CSU, Saarland, Meck-Pomm definitiv eher zur Bildervariante.

Beide Werte sagen noch nichts über die eigentliche Qualität der Seite aus, sondern sollen uns nur sagen: Gibt es viel Inhalt, oder wenig? Was steht im Vordergrund? Bild oder Text?

Die CDU bewegt sich etwas kopflos im Internet

Und bevor wir uns jetzt wirklich dem Elend widmen, noch ein Screenshot aus der „Benutze Kopf mit Tisch“–Rubrik:

Kopflose Internetseiten: Hier: Headbereich der Startseite der CDU Sachsen-Anhalt

Kopflose Internetseiten: Hier: Headbereich der Startseite der CDU Sachsen-Anhalt

Wer sich mit HTML-Quelltext nicht auskennt: Grundsätzlich unterscheidet man zwischen „Head“ und „Body“. Im Head-Bereich stehen Meta-Informationen für den interessierten Nutzer oder Bots. Außerdem werden hier CSS- und JavaScript-Dateien referenziert, die der Darstellung des Inhalts dienen. Der eigentliche Inhalt der Seite steht im Body-Bereich.

Auf dem Screenshot sehen wir einen sehr minimalistischen Head-Bereich mit einem JavaScript, dass an der Stelle nichts zu suchen hat.

Ein durchschnittlicher Head-Bereich einer ordentlichen Seite dürfte etwa genau so lang sein, allerdings würde anstatt des JavaScripts sinnvolle Information dort stehen:

  • Wann wurde die Seite zuletzt aktualisiert?
  • Wie kann man den Inhalt zusammenfassen?
  • In welcher Sprache ist der Inhalt geschrieben?
  • Darf ich als Bot die Seite holen und speichern?

Ein solcher Headbereich ist mir schon länger nicht mehr untergekommen. *schüttel*

Die CDU ist zu langsam für das Internet

Nun aber wirklich zu kurzen Ergebnissen. Wie schnell ist eigentlich schnell?

Ladezeiten von CDU Internetseiten im August 2011

Ladezeiten von CDU Internetseiten im August 2011

Wir wissen ja. Zeit ist Geld und je länger wir warten müssen, desto weniger Zeit haben wir zum Lesen der politischen Inhalte, um die es eigentlich geht. Je länger es dauert, desto aggressiver werde ich und desto weniger Lust habe ich mich konstruktiv auf die Inhalte einer Seite einzulassen.

Könige in dieser Kategorie sind mit Sicherheit BW und Thüringen mit fast 10 Sekunden Wartezeit.

Schlimm finde ich das insbesondere vor dem Hintergrund, dass mir auf diesen Seiten noch nicht wirklich Inhalte angeboten werden.Beide haben nur knapp über 100 Wörter auf der Startseite.

Natürlich gibt es auch positive Beispiele: CSU und Hessen sind schon ziemlich schnell. Ich finde ja alles unter 1 Sekunde gut. Alles unter 3 Sekunden kann man nebenbei Stück für Stück verbessern. Mehr als 3 Sekunden ist dringender Änderungsbedarf und mehr als 6 Sekunden sind aus meiner Sicher ein Kündigungsgrund.

In der CSV-Datei (Download s.u.) findet man auch einige Gründe für die Ladezeit. Bis zu 28 CSS Dateien, 22 Java Scripte und 331 Bilder sollen geladen werden.

Ich hab es nicht geprüft, gehe aber davon aus, dass alles unkomprimiert übertragen wird und auch keine Gedanken über nicht mehr benötigte Anweisungen verschwendet werden.

Je mehr Dateien, desto schlimmer. Es gibt durchaus Möglichkeiten CSS, JavaScripte und sogar die Layoutbilder zusammen zu fassen. Und das ist noch nicht mal großer Aufwand. spart aber auf beiden Seiten Ressourcen, verschlankt den Quelltext, führt zu mehr Übersichtlichkeit und Wartbarkeit — ach was red ich drüber. Laut der Daten und ohne es näher zu prüfen dürfte man lediglich bei der CDU-Saar einen interessierten Gesprächspartner zu diesem Themenkomplex finden.

Alte Partei: Nicht barrierefrei

Accessibility und Standardkonformität von CDU-Seiten im August 2011

Accessibility und Standardkonformität von CDU-Seiten im August 2011

Accessibility beschreibt die Möglichkeit unter bestimmten Nutzungseinschränkungen eine Seite benutzen zu können.

Nutzungseinschränkungen können Blindheit, Taubheit, haptische Beeinträchtigungen usw. sein.

Um auch Menschen mit Einschränkungen das Benutzen der Seiten zu ermöglichen ist es wichtig standardkonform zu arbeiten, damit die Geräte, die diese Menschen unterstützen sollen korrekt arbeiten können.

In dieser Kategorie bekleckert sich niemand so richtig mit Ruhm. Lediglich NRW ist halbwegs standardkonform…

Wichtig übrigens auch: Je mehr Fehler ich hier mache, desto schlechter kann auch ein Bot, zum Beispiel einer Suchmaschine mit der Seite umgehen. Beeindruckend finde ich, dass lediglich 4 Seiten eine Überschrift 1. Ordnung (H1) haben. Die die es haben, bauen aber mehr als eine Überschrift. Auch das ist schwierig, wie soll denn eine Maschine bei mehreren Überschriften erster Ordnung schnell feststellen, worum es geht / welche relevant ist. Bei den Überschriften 2. Ordnung (H2) sieht es nicht besser aus.

barrierebewehrte Barrierefreiheit der CDU Hessen

Zum Thema Accessibility auch noch mal ein schöner Screenshot der CDU Hessen:

barrierenbewehrte Barrierefreiheit bei der CDU Hessen im August 2011

barrierenbewehrte Barrierefreiheit bei der CDU Hessen im August 2011

Der Link zeigt den Quelltext einiger Links, die die Ansicht der Seite verändern können. Lustigerweise heißen diese Bilder barrierefrei.jpg, obwohl sie keinen Alt-Text haben, der helfen könnte das Bild maschinenlesbar zu machen. Das wäre nicht unbedingt relevant, wenn es einen klaren Linktext geben würde. Das ist aber nicht der Fall.

Die CDU und das Internet: Eine Statusfrage?

Status Code nennt man die Antwort des Servers auf die Anfrage eines Nutzers. Der beliebteste dürfte der 200er sein. Der heißt: Alles gut, ich hab das gesuchte Dokument, Du darfst es sehen und ich kann es Dir geben. Der bekannteste ist allerdings der 404er. Er heißt: Ich hab das gesuchte Dokument nicht. In der Regel tritt er auf, wenn Jemand Dokumente auf dem Server verschoben hat und keine Ahnung hatte, was er da tut. In einer korrekt installierten und sauber gewarteten Umgebung sollte man keine 404er finden und auch keine internen Links auf Seiten, die inzwischen wieder verschoben wurden.

Die gecrawlten Daten zeigen, dass es (selbst bei dem kleinen Sample) bei mindestens 5 Umgebungen Probleme gibt, teilweise in größerem Ausmaß.

Bei der CDU-NRW mochte man mich offensichtlich nicht und hat relativ zügig nur noch geantwortet, dass ich die Seite nicht laden darf.

Warum ist mir ein wenig schleierhaft. Bei der geringen Anzahl an Seiten bestand (eigentlich) keine Gefahr den Server in Bedrängnis zu bringen. Sollte es doch aus diesem Grund sein, müsste man eventuell mit dem Webmaster mal reden. 😉

Erhoben und nicht ausgewertet

Anzahl und Länge von Title, Description, Keyword-Tag hab ich nicht näher ausgewertet.

Allein der Unterschied in der Länge zeigt ja, dass hier jeder etwas anderes macht…

Die zwingenden Anforderungen sind hier begrenzt. Gewisse Grenzen sind aber sinnvoll. Verzichten kann man meinetwegen gern auf die Meta-Keywords. Title, Description, H1 und H2 sind aber zwingendes muss. Und zwar individuell je Einzelseite.

Das bringt mich noch mal zu einem weiteren Punkt: Doppelte Inhalte. Wer Seiten (den selben Artikel) unter verschiedenen URLs verfügbar macht (http vs. https, Parameter, Subdomains, Ordner, PHP + HTML, …, …, …) der macht sich nicht nur das Leben in Bezug auf Wartung (und zB caching) schwerer, sondern bekommt auch ein echtes Problem mit Inkonsistenzen im System, verschwendeter Energie bei Suchmaschinen und meinen persönlichen Ineffizienz-Award.

TrackingCode, das Politikum, oder: Ist Datenschutz nur machbar, wenn einem Besucher egal sind?

Tracking der Nutzer ist ein Politikum geworden.

Ich behaubte, dass man ohne Tracking nur schwer sinnvolle Seiten bauen kann. Das schrieb ich schon mal: ULD empfiehlt sinnloses Tracking.

  • Man ist nicht nur langsamer als die Konkurrenz, sondern entwickelt im Zweifel einfach in die falsche Richtung.
  • Man merkt nicht, ob bestimmte Probleme mit der Seite bestehen
  • …und man merkt nicht, wann man eventuell mehr Ressourcen bereitstellen muss.
  • Man merkt auch nicht, ob man die Leute erreicht, die man erreichen möchte
  • Man kann auch keine Kampagnen auf das Nutzerverhalten abstimmen.

Von daher finde ich es interessant mal zu schauen, wer mit welchem Tool trackt.

Hier also das Ergebnis:

  • Google Analytics (finde ich als Partei mutig noch einzusetzen, finde aber sehr ordentlich, dass man es tut. Diese Google Analytics-Debatte ist völlig abstrus. Was ich allerdings nicht gecheckt habe: Wurde das Tracking anonymisiert.): CSU.de
  • eTracker (über eTracker kann ich nicht viel sagen. Also auch nichts schlechtes. Habe von vielen gehört, dass es wirklich brauchbar sein soll. eTracker ist aber eines der wenigen TrackingTools, mit dem ich mich noch nicht intensiver auseinander gesetzt habe. eTracker scheint ein wenig die Empfehlung der CDU zu sein.): cdu.de, cdu-niedersachsen.de, cdu-nrw.de
  • Piwik (Warum ich der Meinung bin, dass Piwik kein richtiges TrackingTool, sondern nur bunte Logfile-Analyse ist hab ich schon geschrieben. Auch wenn hier in der Entwicklung viel getan wird und man sich teilweise in die richtige Richtung bewegt, so meine ich doch einige veraltete Tracking-Codes gesehen zu haben.): cdu-bw.de, cdu-sachsen.de, cdu-sh.de, cdu-thueringen.de
  • Keines (Jawoll: Keines. Ich weiß wirklich nicht, was ich davon halten soll. Arbeitet man hier auf Logfile-Ebene? Eigentlich kann das überhaupt nicht wahr sein. Erklärt aber, warum einige Seiten so aussehen, wie sie aussehen.): brandenburg-cdu.de, cdu-bremen.de, cdu-mecklenburg-vorpommern.de, cdurlp.de, cdu-saar.de, cduberlin.de, cduhamburg.de, cduhessen.de, cdulsa.de

Schlussnotizen und Passspiel

Das Ganze ist nicht weder wissenschaftlich, noch gründlich. Umso erschreckender finde ich, dass derart viele Fehler in ungefähr 30 Minuten auftauchen (wenn man erstmal die Start-URLs rausgesucht hat).

Nun also Ihr:

  • Wie ist Euer Eindruck?
  • Was fehlt noch unbedingt?

Datenmaterial

p.s: Der Artikel geht recht schludrig mit Links um und die Dateien sind auch nicht gerade optimal beschrieben. Von der -ähem- unorthodoxen Verwendung des blockquotes ganz zu schweigen. Ich entschuldige mich hiermit für sämtliche Fehler mit der schlechten Ausrede, dass meine Internetverfügbarkeit hier während der Bahnfahrt durch Brandenburg nur suboptimal ist…

Kommentare

  1. Floki

    Ich führe diese Analyse weiter:
    Wir machen eine einfachen Validator-Check:
    – 11 Errors & 1 warning found while checking http://www.johanvonhuelsen.de/blog/wordpress/ as HTML5!
    – 4 Errors & 5 warnings found while checking http://www.johanvonhuelsen.de/ as HTML 4.0 Transitional!
    – Ergebnisse des CSS-Validators http://www.johanvonhuelsen.de/ (CSS level 2.1): 1 Fehler
    – Ergebnisse des CSS-Validators http://www.johanvonhuelsen.de/blog/wordpress/ (CSS level 2.1): 39 Fehler!
    Vielleicht sollte man diese Seiten auch so betiteln: Mies, mieser, richtig schlecht: johanvonhuelsen.de

  2. Johan

    Moin Floki, da hast Du natürlich recht. Deshalb schrieb ich das ja schon im Disclaimer:

    [Disclaimer2: Auch diese Seite hat noch viel Potenzial in vieler Hinsicht. Aber: Es handelt sich um eine private Seite eines Ehrenamtlichen im Vorruhestand und nicht um eine Seite einer großen Volkspartei…]

    Glücklicherweise zeigt gleichzeitig ein Vergleich mit den geprüften Seiten, dass ich mich mit den Fehlern deutlich am unteren Ende bewege. 100% Perfektion ist meist weder machbar, noch erstrebenswert, aber die Richtung sollte schon stimmen.

  3. Pingback: Mies, mieser, ganz schlecht: Die Session auf dem Barcamp | Johan v. Hülsen

  4. Pingback: CDU-SH.de – Relaunch: Eine Schaffhausen–Katastrophe die mich schafft | Johan v. Hülsen