Piwik im Redaktionseinsatz

In vielen Anfragen von verschiedenen Redaktionen wird um die Bereitstellung der Software Piwik gebeten. Doch liefert Piwik einen echten Mehrwert oder wird es doch nur zu einem Schwanzlängenvergleich genutzt?

Es wird zwar immer behauptet, man benötige es zur Messung der Reichweite von einzelnen Artikeln oder Kampagnen – aber in der Praxis erfolgt danach dann doch kein Rückfluss in Form einer Verbesserung des Redaktionsworkflows oder einer Optimierung der Inhaltsgestaltung.

Der oftmals begründete Zweck der Maßnahme ist ja, dass man sich redaktionell anhand des statistischen Feedbacks verbessern könne.
Dieser Zweck wurde jedoch bisher in keinen der von mir beobachteten Redaktionen tatsächlich umgesetzt. Egal ob ein Artikel gute oder schlechte Wertung oder Verbreitung fand – es hatte nie einen merklichen Einfluss darauf, was die Redaktion publizierte oder wie sie es tat.

Unterm Strich lässt sich feststellen, dass die Statistik überwiegend doch nur zum „Schwanzlängenvergleich“ verwendet wird. Oder eben, damit der Redaktionsmitarbeiter zeigen kann, wie erfolgreich er oder sie ist.

Da es oftmals eher qualitativ mittelmäßige Redaktionen sind, reichen die Grafiken & Daten von AWSTATS und Webalizer nicht, da diese nicht sexy genug aussehen um sie weiterzugeben. Aus den Grafiken & Daten dagegen eigene schöne Grafiken zu gestalten,  würde jedoch Arbeit bedeuten und erfordern, dass man eine Infografik gestaltet.

Da ist die Alternative doch viel leichter, „die Techniker“ mögen mal eben Piwik und co installieren und fortan mit eigenen Mitteln pflegen und warten (natürlich umsonst).

Das gilt auch für Statistiken aus Newsletterversand. Hier wird ja mit selber  Argumentation oft behauptet, man bräuchte einen professionellen Dienstleister wie bspw. Cleverreach, anstelle einer simplen Mailverteilerliste.

Wie nun damit umgehen?

Als IT-Dienstleister wollen wir natürlich, dass unsere Kunden das bekommen, was sie brauchen. (Was nicht immer dasselbe sein muss, wie das was sie wünschen).
Gleichzeitig muss es effizient und nachhaltig einsetzbar sein. Daher empfehle ich die Beantwortung der Frage „Piwik – ja oder nein?“ mit Hilfe einer Kostenrechnung.

Die Bereitstellung von PiWik ist immer mit Kosten verbunden, auch wenn diese für sich genommen minimal sind:

  • Zeitkosten zur Verwaltung (Abklärung mit dem Datenschutzbeauftragten / Zugangsberechtigungen; ggf. alle paar Monate neu anzupassen / Dokumentation)
  • Regelmäßige Updates der Software
  • Bereitstellung eines (virtuellen) Servers für Piwik und dessen Datenbank
  • ggf. Nachoptimierung der Skripten aufgrund von Performance-Einbußen auf der Website, die Piwik einbinden soll. (Erinnerung: Webseiten sollten binnen 400 ms ausgeliefert sein).

Bei uns „kostet“ ein virtueller Server an die 1000,- Euro pro Jahr. Bei einer Standardinstallation, die ein Standard Apache und einen Standard MySQL enthält.

Die Installation der Software über Paketierungsdienste geht relativ fix, muss aber dennoch gemacht werden. Ebenso der Update, bei dem man regelmäßig auf Änderungen achten muss, will man nicht Gefahr laufen sich eine Sicherheitslücke einzufangen.
Also ggf. 1x mal pro Monat kontrollieren => 12 * 70,- Euro.

Die stetig im Falle des Personalwechsel notwendigen Absprachen mit dem Datenschutzbeauftragten und der Verwaltung der Infos werden im Jahr zusammen genommen vielleicht bei einer Woche liegen => 40 * 70,- Euro.

Die Performanceoptimierung hingegen? Diese könnte teuer werden, da die Abhängigkeiten zu dem CMS oder dessen Themes vorhanden sind.

Ggf. müsste man den virtuellen Server schneller machen und das MySQL auch nachjustieren. Je nach Größe der Website kann dies notwendig werden. Man könnte zur Not aber drauf verzichten, wenn es eine kleine Website ist und man bereit ist, ein paar Millisekunden (und damit ein paar kleine Punkte beim Google Perfomance-Ranking) zu opfern.

Unterm Strich schätze ich die Kosten für den Einsatz von Piwik für eine zentrale Installation mit nicht häufig wechselnden Personal ohne zusätzliche Performanceoptimierung der Website auf etwa 4000,- Euro pro Jahr.

Dem gegenüber stehen:

  • Vorteile durch eine fast selbsterklärende schöne Statistik
  • Möglichkeit des Rücklaufs der Ergebnisse in den Redaktionsworkflow
  • Mittel zur direkten oder indirekten Erfolgskontrolle

 

Und unterm Strich?

Am Ende sollte man also einen Kostenvergleich anstellen:

Wenn es nur darum geht, eine allgemeine Erfolgskontrolle zu machen, bei es zu keinem Rücklauf in die redaktionelle Workflows kommt, wäre es billiger eine domainspezifische AWSTAT oder Webalizer-Logfile-Auswertung zu betreiben. Die schönen Grafiken, die ein Mitarbeiter dann für seinen Chef vorzeigen will, kann er oder sie mit den dortigen CSV- Exports in Excel erstellen.

Wenn aber tatsächlich eine kontinuierliche und artikelbezogene Erfolgskontrolle mit Reaktion und Optimierung der Prozesse statt findet, dann sind die Kosten von Piwik und co sicherlich zu rechtfertigen.

(Aber auch dies muss kontinuierlich geprüft werden: Ggf. würde aber die gesonderte In-Rechnungsstellung der Dienstleistung Piwik bewirken, dass diese Dienstleistung nur solange genutzt wird, wie sie tatsächlich gebraucht wird).

 

Flattr this!

WordPress: Custom Links im Hauptmenu verhindern

Aus Gründen der Usability ist es nicht sinnvoll, wenn man im Hauptmenü einer Website Links auf externe Webseiten setzt. Die Benutzer der Website erwartet im Hauptmenü  stattdessen die Seiten der Website auf die er sich befindet.
Externe Links gehören stattdessen in eigene dafür gedachte Menüs oder in den Content-Bereichen.

Ein Theme, an dem ich arbeite, wird leider von vielen Webmastern und Redakteuren genutzt, die an dieser Stelle eher etwas unbedarft sind und externe Links reinsetzen. Oder auch den Link zur Startseite, der durch den im Theme enthaltenen Logo zur Website bereits enthalten und somit redundant ist.

Es ist daher sinnvoll, den Anwender im Backend entweder die Möglichkeit zu nehmen, solche Custom Links zu setzen oder aber ihn entsprechend zu warnen.

Eine schnelle Lösung funktioniert mit JavaScript:

Das Skript macht folgendes:

Zunächst wird der Einsatz beschränkt auf die Menu-Bearbeitung im Backend. Danach suche ich die ID des aktuell in der Bearbeitung angezeigten Menüs

Um herauszufinden, welche ID das tatsächlich Hauptmenu hat, muss ich einen Umweg machen über den Label zur Auswahl der Menüpositionen. Die ID befindet sich dort zwar nicht, wohl aber der Titel des Hauptmenüs (in der deutschen Sprachvariante ist es „Hauptmenü“, im englischen Setting „Main Menu“). Da die for-Anweisung im Label sprachunabhängig ist, kann ich damit den dazugehörigen textuellen Inhalt nehmen:

Nun such ich in der Auswahlliste der verschiedenen vorhandenen Menüs nach diesen Text und erhalte dann dort die richtige ID:

Somit kann ich am Ende schauen, ob ich mich bei der Bearbeitung gerade beim Hauptmenü der Website befinde oder auf einem anderem Menü.
Denn nur wenn ich das Hauptmenü bearbeite, will ich die Custom Links deaktivieren.

Das JavaScript speichere ich wie gewohnt in eine JS-Datei (z.B. „/js/admin.js“) , die ich dann in meinem Theme einbinde:

Redakteure können natürlich dennoch externe Links einfügen. So könnte man obiges einfach „austricksen“, wenn man das Hauptmenü kurzzeitig einem anderen Menü zuweist und dann die Custom Links hinzufügt. Dies ist allerdings auch nur als ein mahnender Hinweis zu verstehen.  Wenn ein Redakteuer sich darüber hinweg setzt, wurde er wenigstens gewarnt.

Wenn man es als Admin ernst meint und die Nutzung wirklich streng unterbinden will, bleibt einen weiterhin die einfache Möglichkeit für die Anzeige des Menüs eine eigenen Walker-Class zu erstellen. Bei der Elementanzeige kann dann der jeweilige Link geprüft werden und dann nach eigenen festen Regeln angezeigt werden oder nicht.

 

 

Flattr this!

Einführung in die Suchmaschinenoptimierung

Am Wochenende hab ich für das Vorständetreffen der Piratenpartei „Marina Kassel“ einen Vortrag über Suchmaschinenoptimierung gehalten.


Der Vortrag steht auf Slideshare zur Verfügung, kann aber auch hier als PDF geladen werden: Einführung in die Suchmaschinenoptimierung.

Der Vortrag greift dabei auch zurück auf Vorträge von André Scharf, Marcell Kolmar und eigenen Materialien. Der Vortrag richtet sich an ein Publikum, welches nicht all zu tief in der Materie steckt und eher Praxistipps für Redakteure benötigt.

 

Flattr this!

Mona Harry: Liebeserklärung an den Norden

Weil es so schön ist, binde ich hier mal dieses Video ein.

„Mona Harry trug beim Poetry Slam 2015 im Medienatelier Deggendorf (in Bayern) dieses Liebesgedicht an den Norden vor – authentisch, klar, schnörkellos und offensichtlich mit vielen Glückshormonen.“

Mona Harry ist eine Künstlerin, die unter www.monaharry.de und auf Facebook unter der Seite MonaHarryPoetry zu finden ist.

Flattr this!

Radiotheorie reloaded

Wenn ich mir aktuell die Entwicklung um das vermeintlich Recht des Vergessens und jetzt auch dem Urteil bzgl. Social Media Buttons anschaue, muss ich an den Schockwellenreiter, Jörg Kantel, denken; u.a. wie er beim Vortrag auf dem WKE2008 über Partizipation 2.0 auf die Radiotheorie von Brecht hinwies.

Er sagte dabei:

„Neue Medien entstehen notwendigerweise in Kooperation. Ich kann als Webblogger meine Webblog nicht völlig mit eigenen Gedanken füttern. ich brauch Zulieferer, ich brauch Kooperation. Wiederum andere, die von meinen Webblog was mitnehmen. Die von meinen riesigen Fotooutput und Videooutput was mitnehmen“.

Wir waren lange Jahre im Internet in einem Zustand, dass jeder leicht zum Sender werden konnte. Blogs und andere Websites bereicherten das Web. Das Web blühte und es gab eine Atmosphäre des Teilens und der Mitwirkens. Remixing war normal.

Doch inzwischen erfolgt offenbar eine Rückkehr auf die Zustände vor 2003 mit Hilfe von Bürokratie, bzw. durch Ausnutzung und Überdehnung von Rechten und Gerichtsurteilen. Diese gefährden immer mehr das Internet als sozialer und kommunikativer Kulturraum.

Die Methode (ob beabsichtigt oder nicht) ist immer dieselbe: Ein Gesetz oder BGH/OGH-Urteil wendet sich gegen die Handlung eines großen (vermeintlich bösen) Unternehmens.  Dieses Urteil bzw. das Gesetz ist in sich auch oft schlüssig und richtig und möchte Gutes bewirken. So beispielsweise die Pflicht für ein Impressum für die Betreiber von Websites. Ursprünglich war diese Pflicht für kommerzielle Betreiber von Webangeboten gedacht.

Doch was sich eigentlich gegen Unternehmen oder Konzerne richtete, schlug und schlägt schnell zurück viele andere.

Durch die Einbindung von Werbebanner oder Empfehlungen wurden jedoch sehr schnell auch private Blogs und dann auch private Websites unter dieser Pflicht gelegt.  Die Diskussion darüber, wann ein Blog privat oder gewerblich ist, ist immer wieder eine Streitfrage. Man könnte sie natürlich leicht klären und sich verteidigen, wenn man nur das entsprechende juristische Wissen und einen dicken Pelz hat. Leider ist es aber so, dass nun mal eben nicht überall verbreitet ist. Und das viele Leute auch gar keine Lust auf die Zeitverschwendung eines juristischen Spielchens haben.

Folglich akzeptierten viele private Websites die Impressumspflicht. Zwar mit meckern, aber letztlich wurde sie allgemeiner Usus. Inzwischen redet keiner mehr drüber. Eine Ausweg gab es natürlich: Den, einfach gar keine eigene Website mehr zu betreiben und sich in die Obhut eines Blogbetreibers oder einer Plattform zu begeben…

Später kam die Verpflichtung dazu, eine Datenschutzerklärung einzubauen. Auch hier mit dem Ziel den Missbrauch durch kommerziell tätige Unternehmen einzuschränken. Auch hier mit dem Nebeneffekt, dass man dann auch wiedermal alle privaten Blogs und Websites mit traf. Es sei denn, sie nutzten den Ausweg und gaben ihre Website auf und begaben sich in die Obhut eines Blogbetreibers oder einer Plattform…

Vor ein paar Jahren sollte dann nach dem Willen einiger Verbände mit dem Jugendmedienstaatsvertrag eine Verpflichtung an alle Website-Betreiber kommen, ihre Seiten zu kennzeichnen. Zum Glück wurde dies fürs erste abgewendet. Die Widerstände waren dann aufgrund des Unsinns und Unzulänglichkeit der Vorschläge all zu groß. Doch scheint es nur aufgeschoben, nicht aufgehoben. Alvar Freude zeigte auf dem CCC-Kongress und auch vorgestern auf dem Webkongress Erlangen, wie unsinnig diese Vorschläge sind. So zeigte es sich, dass selbst der offizielle Kanal mit den Videos zur Sendung mit der Maus gesperrt sei. Diesen Irrsin erlaubte ich mir zu twittern, worauf ich dann sogleich eine Mention erhielt:

twittershot-20160308-fragfinn

fragFinn, der Twitter-Account des Kinderschutzfilterbetreibers wies darauf hin, dass man die Sendung mit der Maus, ja im fragFINN-Surfraum aufrufen könne.

In anderen Worten: Kommt zur Plattform unseres Vertrauens, da und nur dort ist alles gut. Das nun Menschen allerdings ihre eigenen bevorzugten Plattformen und Orte haben und dort zu Hause sind oder den Content in den eigenen Websites einbinden (zum Beispiel die Videos in der eigenen Homepage), das spielt da gar keine Rolle. Man denkt wie im Jahr 2003, als es die höchste Form der Verlinkung die eines Links oder eines Frames war…

Also auch hier wieder: Wenn man nur den Ausweg nutzte und seine Website aufgebe und sich in die Obhut eines Blogbetreibers oder einer (ausgewählten) Plattform begäbe…

Dann kam jetzt vor einiger Zeit die Cookie-Richtlinie. Viele Blogs und andere Website sind nun fröhlich dabei, ihre Websites mit Cookie-Hinweisen zu versehen. Manche sogar unter dem Zwang von Medienkonzernen, wie Google.

Und auch hier wieder wie bei der Impressumspflicht, der Pflicht zu Datenschutzhinweisen, der gerade noch verhinderten Pflicht zur Altersangabe, man könnte ja…

Und nun das Urteil zu den Social Media Plugins.

Auch hier wurde an Facebook gedacht und ein ehrenwertes Ziel verfolgt, nämlich die unbändige Datensammlerei einzuschränken. Wer nicht viel weiter denkt, beklatschte das Urteil auch schnell.

Nicht als erstes, aber als einer der prominenten Netizens, wies Mario Sixtus darauf hin, dass dies mehr bedeutet als nur Facebook:

twittershot-20160309-sixtus

Sixtus schrieb,

Auf dem Weg, das Internet abzuschaffen, ist Deutschland heute einen entscheidenden Schritt voran gekommen.

Denn genauso wie wir Facebook einbinden, binden wir auch viele andere Dinge ein. Beispielsweise Videos von YouTube, Slides von Slideshare, Schriften von Google,  Twittercards von Twitter.com, Bilder von Flickr, Musik von Jamendo oder anderen freien Plattformen, etc pp.
Und immer und überall ist eines gleich, denn dies ist grundlegender Mechanismus im Netz: Wenn ich ein Objekt aus dem Netz von einem Server lade, merkt der betreffende Server dies auch. Und loggt dies auch wahrscheinlich. Und nutzt diese Daten auch. Und dies ist auch richtig so.

Was der Serverbetreiber jeweils mit diesen Daten macht, ist eine andere Frage. Ob er diese missbraucht zu bösen Zwecken oder ob er sie lediglich nutzt um sich an der Zugriffsstatistik zu erfreuen, eine Erfolgskontrolle und Feedback zu erhalten oder um sie zu remixen und neues zu schaffen: Wir wissen es erst mal nicht. Doch obiges Urteil macht, wie so viele andere oben genannte ein Pauschalurteil über all dies: Das ist böse. Und daher darf das nicht sein.

Die vermeintliche Lösung? Man könne doch alles selbst hosten:

twittershot-20160309-derkalle-content

Tobias McFadden,

„Wer sich auskennt, soll Content selbst hosten, nicht tracken und damit sharebar machen“.

Dies ist genau dieselbe Ansicht, wie es oben die Lobbyisten der Netzfilter vortrugen: Man müsse halt eben alles selbst hosten. Auf einer Plattform: Nicht vernetzt,  nicht erlangt durch Sharing, nicht interaktiv (denn wenn jemand mein Content integriert, wäre dies eine Möglichkeit).

Aber da es niemand leisten kann, alles selbst zu hosten und dies auch genau das widerspricht was verlangt wird (nämlich die Integration fremden Contents), bedeutet dies im Folgeschritt auch das was oben so oft als Ausweg kam:  Den Ausweg, einfach gar keine eigene Website mehr zu betreiben und sich in die Obhut eines Blogbetreibers oder einer Plattform zu begeben. Und dieses mal wahrscheinlich einer speziellen.
Vielleicht gibt es noch einen weiteren Ausweg: Ab ins Darknet und nur noch über Tor mit einer .onion Adresse erreichbar. Oder ins IndieWeb nur noch für Freunde.

Doch ist es das, was wir wollen? Ist das dieses grenzenlose Netz?
Nein. Wir bauen neue Schranken, neue Grenzen auf. Virtuelle Grenzen, die Rechtsräume unterscheiden. Netz der moralische Reinheit hier. Netz des Datenschutzregimes da. Netz aus der Staats- und-Verlags-Connection dort. Dazwischen höchstens ein paar kleine Inseln aus Graswurzel-Projekten, die noch zu klein oder zu unbedeutend sind, als das der Staat oder Lobbys auf sie aufmerksam würden.

Der mündige Bürger, der frei in seiner Entscheidung und seiner Lebenswahl ist? Den kann es nicht mehr geben in dieser Welt. Die sanft knospende Blüte eines Bürgerstaats wird abgerissen: Der Vater- oder Mutterstaat muss den Bürger schützen und behüten. Ob dieser will oder nicht steht nicht zur Debatte, er wird nicht einmal gefragt. Jeder Protest verhalt ungehört, denn auch Demonstrationen sind nur noch ein Symbol in einer Welt voller bunter Symbole, Icons und Emoticons.

Willkommen im Nanny-Netz 3.0. Der Version nach den Misserfolgen Zensursula 1.0 und JMStV-Netz 2.0.

Es macht mich traurig, dass wir nach all diesen Jahren, seit der Schockwellenreiter den oben genannten Vortrag hielt, wieder dabei sind zurück zufallen auf einem Stand davor. Auf einem Stand, indem es aufgrund bürokratischer oder juristischer Hürden zu gefährlich ist, ein eigenständiger „Sender“ zu sein. Wo letztlich als einzig verbleibender Ausweg nur der zu bleiben scheint, sich einer Plattform unterzuordnen; Unter deren Regeln und unter deren Regime.

Wohin auch dies führen kann, hat der Schockwellenreiter in seinem Vortrag auch erwähnt, als er einen Rückblick gab darauf, welches Regime einst die freien Radios unter Kontrolle brachte.

 

Flattr this!