Als einige großen Nachrichtenseiten wie Spiegel Online oder Süddeutsche.de im Frühjahr ihre Nutzer zum Abschalten der Adblocker bei ihren Browsern aufriefen, da dauerte es nicht lange bis im Social Web einige die Frage stellten: „Gibt es nicht einen Anti-Adblock-Warnhinweis-Blocker?“
Neben Spenden oder dem Aufbau von Bezahlschranken finanzieren sich Inhalteanbieter im Internet vor allem über das Ausspielen von Werbung. Doch Adblocker blockieren diese Online-Reklame. Es sei denn, die Contentanbieter kaufen sich bei der Whitelist vom populären Adblock Plus ein. Diese Praxis hat das Blog MobileGeeks jüngst offengelegt.
Damit senden die Unternehmen ein falsches Signal aus: „Adblockern Geld zu zahlen bedeutet, langfristig Risiken aus strategischer Perspektive einzugehen – es kann verhängnisvoll für die Unabhängigkeit, die Kontrolle und die eigene Nachhaltigkeit sein“, sagt Ido Yablonka. Der Israeli hat mit zwei weiteren Partnern das Startup Clarityray gegründet. Sein Ziel: Lösungen anbieten, um die Verluste durch Adblocker aufzufangen.
Bevor Yablonka sein Geschäftsmodell erklärt, möchte er einen Blick in die Zukunft werfen. Was sollen Webfirmen machen, wenn es nicht mehr nur einen großen Adblock-Anbieter gibt, sondern vier oder fünf? Aus Sicht Yablonkas geben die Content-Anbieter damit nicht nur die Kontrolle über ihre Inhalte ab, sondern finanzieren damit das Geschäftsmodell einer Softwarebranche, die sich bisher nur durch Spenden oder durch Gebühren von den Endnutzern speiste.
Die wichtigsten IT-Trends
So wolkig wie der Name bleibt für viele nach wie die Bedeutung des Begriffs Cloud Computing - und dabei handelt es sich inzwischen unbestreitbar um einen seit Jahren anhaltenden Trend. Dabei ist das Grundprinzip recht einfach: Aufgrund der großen Netzwerk-Bandbreiten und der flächendeckenden Verfügbarkeit des Internets werden Computerressourcen zentralisiert und nur bei Bedarf über das Netzwerk - sei es das Internet (Public Cloud) oder das firmeninterne Netz (Private Cloud) - abgerufen. Das hilft Kosten und Energie zu sparen, weil Computerressourcen so effektiver verwaltet werden können.
Die Fortschritte in der Informationstechnologie und ihre rasante Verbreitung haben ein Phänomen nach sich gezogen, mit der die IT Schwierigkeiten hat, mitzuhalten: Die Menge an verfügbaren Daten steigt rasant an. Ein großer Teil dieser Daten wird dabei ohne menschliches Zutun maschinell erzeugt - beispielsweise allein durch die Protokollierung von Software und Zugriffen.
Als Big Data wird in der Informatik die Tatsache bezeichnet, dass derart große Datenmengen mit Standard-Datenbanken und -Werkzeugen nicht mehr zufriedenstellend verarbeitet werden können. Dabei lohnt es sich für Unternehmen wie Wissenschaft riesige Datenmengen zu verarbeiten - sei es in der Marktforschung (zum Beispiel schnelle Verarbeitung von Web-Statistiken) oder im Finanzsektor, wo die systematische Untersuchung der Transaktionen Unregelmäßigkeiten zutage fördern kann.
Datenbank-Systeme, die Big Data verarbeiten können - das heißt Datenbanken, die Daten im Bereich von Terabytes, Zetabytes, Exabytes und gar Zettabytes verarbeiten - setzen massiv auf eine parallele Verarbeitung der Anfragen. So werden Hunderte oder gar Tausende Rechner zu einem Datenbank-Grid zusammengeschlossen. So gut wie alle großen Technologie-Konzerne wie IBM, Intel, HP, Oracle, Dell oder EMC haben Lösungen für sehr große Datenmengen im Angebot.
Freie Software (auch Open-Source-Software genannt) und offene standardisierte Schnittstellen sind weiter auf dem Vormarsch - sehr zum Nutzen aller, die von IT-Infrastruktur abhängig sind. Denn mit offenen Technologien vermeiden Unternehmen den sogenannten Lock-in-Effekt: Sie sind an einen einzigen Anbieter und seine eigene Technologie gebunden, sondern können bei offenen Schnittstellen und Open-Source-Software samt Daten und Anwendungen auch den Anbieter wechseln.
Die Ursprünge der Idee Freier Software liegen in den Anfängen der Computerrevolution: Die vor allem aus dem Hippie-Umfeld stammenden Mitglieder des Homebrew Computer Clubs im Silicon Valley tauschten Wissen und Software wie selbstverständlich untereinander aus. Als Firmen wie Microsoft in den 1980er Jahren aus der Software ein Geschäft machten, rief der Programmierer Richard Stallman das GNU-Projekt zum Bau eines freien Betriebssystems und die erste explizit freie Softwarelizenz ins Leben: die GNU General Public License.
Heute bilden die Tools des GNU-Projekts zusammen mit anderer Software und dem Linux-Kernel die Basis der Linux-Distributionen wie Red Hat, Open-Suse, Ubuntu oder Debian sowie von Googles mobilem Betriebssystem Android. Linux in seinen verschiedenen Varianten ist das auf heute auf Servern überwiegend eingesetzte Betriebssystem. Zahlreiche Open-Source-Lösungen wie die Datenbanken MySQL oder PostgreSQL haben die Unternehmen erobert.
Das Zusammenschließen von Computern via schneller Netzwerk-Technik zu einem einzigen großen virtuellen Supercomputer (Cluster) wird als Grid-Computing bezeichnet. Dabei erscheint das Rechen-Netzwerk von außen als ein einziger Computer. Die einzelnen Teile des Grid-Computers sind dabei meist redundant ausgelegt. Das bedeutet: Fällt ein einzelner Rechner aus dem Gesamtverbund aus, hat das für die grundsätzliche Funktionalität des Gesamtsystems keine Auswirkungen.
Beim Grid-Computing werden zwei Ziele verfolgt: Einerseits ermöglicht das Zusammenschließen vieler Rechner eine hohe Arbeitsgeschwindigkeit des Gesamtsystems - und das im Vergleich zu anderen Supercomputer-Konzepten zu niedrigen Kosten. Voraussetzung ist dafür allerdings, dass die zu berechnenden Aufgaben stark parallelisierbar sind. Das heißt im Klartext: Die Berechnung eines Teils der Aufgabe, die der Computer lösen soll, darf nicht von einer anderen Berechnung abhängen. Nur so kann die Berechnung auf viele verschiedene Prozessoren oder Computer aufgeteilt werden.
Zweitens ermöglicht der Aufbau eines Grids mit Redundanz eine besonders ausfallsichere Server-Infrastruktur, selbst wenn preisgünstige Standard-Hardware verwendet wird, weil der Ausfall einzelner Rechner nicht die Funktionalität des Gesamt-Systems gefährdet.
Auch bei den Servern geben längst Konsumenten-Produkte in den Betrieben den Ton an, wenn auch weniger sichtbar als bei iPhone und iPad. Bis zur Jahrhundertwende herrschten in Unternehmen noch spezialisierte Server vor, auf denen Unix-Systeme wie mit Namen wie Solaris, HP-UX oder Irix liefen. Die Massenanfertigung von PCs und Konsumenten, die immer leistungsfähigere Hardware nachfragten, führten aber zu einer Verbilligung schneller Hardware.
Statt teure, besonders zuverlässige Hardware, nutzen Unternehmen heute als Server meist Computer mit x86er-Prozessoren von Intel oder AMD wie sie auch in jedem Büro oder Heim-Arbeitsplatz stehen. Meist wird darauf das Open-Source-Betriebssystem Linux oder Microsofts Windows eingesetzt. Die Unternehmen bleiben bei der Betriebssystem-Software flexibel und sind nicht auf teure Spezial-Hardware angewiesen, auf der nur ein bestimmtes herstellerspezifisches Unix-System läuft.
Die Virtualisierung von Servern ist bereits seit vielen Jahren ein anhaltender Trend, auf den heute kaum ein Unternehmen bei der Nutzung seiner IT verzichten möchte. Virtualisierung erlaubt eine deutlich flexiblere Nutzung der Hardware: Ein Server wird dabei aufgeteilt in beliebig viele virtuelle Server. Das ist eine wichtige technologische Voraussetzung für das Cloud Computing – doch nicht dasselbe. Beim Cloud Computing geht es um den gesamten Prozess des flexiblen Bereitstellens von Rechenressourcen, Daten und Anwendungen über eine standardisierte Schnittstelle. Die Virtualisierung von Server-Hardware schafft also technisch eine wichtige Voraussetzung für Cloud Computing.
Neue Cloud-basierte Business-Anwendungen benötigen häufig besonders schnelle Datenbanken - beispielsweise, wenn Mitarbeiter auf Unternehmensdaten per Smartphone oder Tablet zugreifen. Auf der Seite der Server lassen sich Datenbanken durch sogenanntes In-Memory-Computing deutlich beschleunigen. Was hinter dem Begriff steckt ist eigentlich ganz einfach: Die Rechner speichern die Daten nicht auf einer langsamen Festplatte, sondern im vielfach schnelleren Arbeitsspeicher - eben dem Memory.
Nachteilig daran ist, dass Arbeitsspeicher nicht nur um ein Vielfaches schneller ist als eine Festplatte, sondern die gleiche Speichermenge auch deutlich mehr kostet. Häufig wird bei In-Memory-Datenbanken vom Grid-Computing gebrauch gemacht, bei dem viele einzelne zu einem Rechner-Verbund zusammengeschlossen werden.
In-Memory-Computing gilt als Markt mit großen Wachstumschancen. Die großen Anbieter im Markt der Datenbank haben sich allesamt Know-how auf dem Gebiet eingekauft. So übernahm der deutsche Anbieter SAP für einen hohen Milliarden-Dollar-Betrag den Anbieter Business Objects. Orcale kaufte sich den In-Memory-Spezialisten Hyperion und IBM übernahm den kanadischen Anbieter Cognos.
"Bring your own device“ heißt es in immer mehr Unternehmen. Laut Consumerization Report 2011 erlauben bereits 59 Prozent der deutschen Firmen ihren Arbeitnehmern, private IT-Geräte im Unternehmen zu nutzen, in den USA sind es bereits 75 Prozent. Mit gutem Grund: Die Mitarbeiter nutzen auf der Arbeit schlicht die Geräte, mit denen sie sich selbst am besten auskennen - und die sie privat am meisten schätzen. Davon profitieren vor allem das iPhone und iPad von Apple sowie die Smartphones mit Googles Android-System.
Für die IT-Branche bedeutet die Hinwendung zu den Konsumenten einen tiefgreifenden Wechsel ihrer Strategie. Reichte es früher aus, die IT-Einkäufer von den eigenen Produkten zu überzeugen, die immer schneller und effizienter wurden, müssen nun diejenigen überzeugt werden, die die Geräte auch tagtäglich einsetzen.
Und da zählen plötzlich ganz andere, weniger fassbare Werte. Wird man mich bewundern? Wird mich das Produkt erstaunen, überraschen? Denn auch Arbeit darf Freude machen. Zudem gibt es neue Herausforderungen für die Sicherheitsexperten der IT-Abteilung. Schon gibt es erste Software-Lösungen, die mittels Virtualisierung Privates und Geschäftliches auf den Smartphones trennt.
Wie können Geschäftsabläufe profitabler werden, Kosten gesenkt und Risiken minimiert werden? Unter dem Schlagwort Business Intelligence werden alle Versuche gefasst, die solche Fragen mit Hilfe der elektronischen Verarbeitung von Daten beantworten wollen. Das englische Wort „Intelligence“ ist dabei im Sinne vom Sammeln und Aufbereiten von Daten gemeint. Der Begriff Business Intelligence wurde bereits in den 1990er Jahren populär.
Doch insbesondere das Cloud Computing und die Verbreitung Internet-fähiger mobiler Geräte verschaffen Managern neue Möglichkeiten. Die Firmenlenker können nun auch mobil via Smartphone oder Tablet jederzeit auf Geschäftszahlen und Software-gestützte Analysen zugreifen. Komplexere Business-Intelligence-Anwendungen können gleich Prognosen und Analysen auf Basis von mobil eingegebenen Daten erstellen. Laut den Analysten von Gartner werden in einigen Jahren ein Drittel aller Analysen auf Unternehmensdatenbanken von einem Smartphone oder Tablet aufgerufen, schreibt das Computermagazin iX.
2011 gegründet will Clarityray eine Art Gegengeschäftsmodell zu Adblockern anbieten. Und das funktioniert ungefähr so: Clarityray misst zunächst, wie viele Nutzer mit einem Adblocker auf die Webseite eines Kunden surfen. „Viele Geschäftsführer haben kaum eine Ahnung davon, wie viel Prozent ihrer Nutzer sich mit Adblockern auf ihren Seiten tummeln“, erklärt Yablonka. Er erzählt von einem Gespräch mit einem Manager, der den Anteil der Adblock-Nutzer auf ein halbes Prozent seiner gesamten Visits schätzte. „Es waren tatsächlich fast zwanzig Mal so viel“, lacht Yablonka und wird sofort wieder ernst, „Wenn das einen Werbeeinnahmenverlust in Höhe von zehn Prozent entspricht, dann ist das wie bei einem Supermarktbesitzer, der zusehen muss, wie zehn Prozent seiner Kunden nicht zahlen“. Das bedeutet auch: Die Contentanbieter haben letztlich die Kontrolle verloren. „Und ich glaube, dass diese Firmen ihre Inhalte kontrollieren sollten“, sagt Yablonka „Unser Unternehmen baut auf dieser Idee auf.“
So funktioniert die Technik von Clarityray
Clarityray bietet seinen Kunden neben einer Verlustanalyse eine Strategie an, wie diese Verluste wieder reingeholt werden können. Yablonka zeigt an einem Beispiel, wie diese technologiebasierte Strategie funktioniert: Er surft eine Seite an, der Adblocker im Chrome-Browser ist deaktiviert. Überall sind die Werbe-Banner zu sehen. Dann aktiviert er das Antiwerbe-Plugin, lädt die Seite neu – und einige Banner sind tatsächlich immer noch zu sehen.
Die von Clarityray patentierte Technologie ermöglicht es den Contentanbietern, den Adblocker zu umgehen und ihre Werbung trotzdem auszuspielen. Nicht alle Kunden bekämen dabei die gleiche vorgefertigte Lösung, so Yablonka. „Weil jeder Contentanbieter unterschiedliche Nutzer anspricht, müssen diese entsprechend berücksichtigt werden. Wir stellen daher eine entsprechend maßgeschneiderte Lösung zur Verfügung“. Will heißen: Die Kunden können ihre Maßnahmen je nach Wunsch auf eine Werbeart konzentrieren - „Sie können so zum Beispiel zwischen visuellen Banneranzeigen oder Videoclips wählen“, erklärt Yablonka das anpassbare Adblock-Block-System. Und: „Es funktioniert mit allen Adblockern, die zurzeit auf dem Markt sind, auch mit Hardware und Provider basierter Blockiertechnologie.“
Genaueres möchte Yablonka nicht sagen - und auch nicht zu den Kunden, die er nach eigenen Angaben in Europa und den USA hat. „Ich kann darüber keine Angaben machen“, sagt Yablonka und lässt durchblicken, dass er vertraglich zum Schweigen verpflichtet ist. Nur so viel möchte er sagen: „Wir arbeiten mit großen Contentanbietern in den USA und Europa zusammen. Und wir konnten bei einigen unserer betreuten Webseiten bereits nach kurzer Zeit eine Erholung der Werbeumsätze messen“.
Außerdem hat Clarityray bei den größeren Webseiten die Reichweite gemessen und herausgefunden, wie hoch die Adblock-Dichte ist. In den Vereinigten Staaten surften im Mai 2012 im Schnitt 9,26 Prozent der Nutzer mit Adblocker. „Ein Jahr später haben wir eine Dichte von 11,79 Prozent gemessen“, sagt Yablonka, „Und wenn das so weiter geht, dann dürfte 2014 bereits 15 Prozent der Nutzer die Werbung auf ihrem Browser blockieren.“
Besonders brisant sind die Zahlen die Yablonka für Europa parat hält. 21 Prozent der Nutzer in Deutschland verwenden Anti-Werbungsmaßnahmen, das stellt das Land an Platz Nummer eins, dicht gefolgt von Finnland (19 Prozent) und Österreich (18,5 Prozent).
Wer die Firefox- und Chrome-Browser verwendet hat eine besondere Affinität zum Werbeboykott – 2013 surfen nach Angaben von Clarityray 24 und 18 Prozent der entsprechenden Nutzer mit einen Antiwerbemaßnahmen-Plugin durch das Netz. Doch nicht die Zahl an sich ist brisant sondern der Wachstum, den die Israelis innerhalb eines Jahres gemessen haben: Im Mai 2012 surfte erst nur jeder zehnte Chrome-Nutzer mit Adblockern. Das Problem ist, dass weltweit die Zahl der Chrome- und Firefox-User zunimmt – der Browser aus dem Hause Google wurde laut Statcounter.com im Juni 2012 bereits von 32 Prozent der weltweiten Surfer eingesetzt. Ein Jahr später lag der Anteil schon bei 42 Prozent. Nimmt die Zahl weiter zu, dürfte auch der Adblocker-Nutzer-Anteil wachsen.
Unklar, wie deutsche Webseiten mit den Adblockern umgehen
Und damit auch die Verluste für Contentanbieter, die sich nur durch Werbung finanzieren können. Wie viel Geld durch Adblocker verloren wird, darüber gibt es nur Schätzungen. Ido Yablonka rechnet mit zehn Prozent der Werbeumsätze – in den USA lagen diese 2012 laut des Interactive Advertising Bureau bei 36,6 Milliarden US-Dollar. In Deutschland prognostiziert der Online-Vermarkterkreis (OVK) des Bundesverbands Digitale Wirtschaft (BVDW) für 2013 ein Bruttowerbevolumen für klassische Online-Werbung, Suchwortvermarktung und Affiliate-Netzwerke in Höhe von 7,1 Milliarden Euro. Die relativen Verluste dürften, der höheren Adblock-Nutzung hierzulande entsprechend, größer sein.
Es ist nicht ganz klar, welchen Weg die deutschen Verlagshäuser beschreiten wollen, um das Umsatzloch zu stopfen. Die Axel Springer AG verweist auf Anfrage an den Online-Vermarkterkreis des BVDW. Die Pressestelle verweist ihrerseits auf das Interview mit Matthias Ehrlich, das der BVDW-Präsident jüngst der Fachzeitschrift W&V gab. Dort sagt Ehrlich: „Ziel muss es sein, Werbung so zu gestalten, dass Verbraucher sie akzeptieren.“ Interessant ist die Information, die W&V am Ende des Interviews hinzufügt: Matthias Ehrlich sitzt seit dem 1. April im Aufsichtsrat der United Internet Media, davor war er Vorstandschef des deutschen Webkonzerns. Zu seinem Unternehmen möchte der BVDW-Präsident dem W&V-Magazin keine Fragen beantworten, wie man aus der beigefügten Notiz von W&V erfahren kann.
So surfen Sie sicher
Halten Sie Ihr Antivirenprogramm und übrige Software stets aktuell. Das reduziert die Angriffsflächen für Schadprogramme.
Quelle: Stiftung Warentest
Meiden Sie dubiose Internetseiten, bei denen zum Beispiel aktuelle Kinofilme kostenlos zum Download angeboten werden.
Scannen Sie externe Speicher nach dem Einsatz am fremden PC. Drucken Sie Fotos in der Drogerie von schreibgeschützten SD-Karten.
Öffnen Sie keine unbekannten E-Mail-Anhänge. Nutzen Sie Spam-Filter. Bei verdächtigen E-Mails wählen Sie am besten den Zugang über einen Internetbrowser.
Klicken Sie nicht auf jeden Link im sozialen Netzwerk. Hinterfragen Sie die Herkunft.
Erstellen Sie regelmäßig ein Backup der gesamten Festplatte. Bei Befall haben Sie dann schnell ein funktionierendes System parat.
Seit neuestem weiß man, dass die United Internet Media-Tochter 1und1 auf der Whitelist von Adblock-Plus steht. Allerdings nur für den Bereich Search, wie die Pressestelle von 1und1 auf Anfrage der WirtschaftsWoche Online bestätigt. Und: „Wie bekannt ist, werden für das entsprechende Whitelisting technische Aufwandsentschädigungen fällig“, lässt der Pressesprecher von 1und1 wissen. Wie hoch diese sei, könne man mit Hinweis auf die Vertragslage nicht sagen. Nur kleine Webfirmen kommen auf die Whitelist von Adblock Plus für lau. Fest steht aber: Die United-Internet-Media-Tochter zahlt diese Art Schutzgeld. Genau wie Google auch.
So zumindest sieht es Yablonka. Er lächelt jetzt. Mit Clarityray kann er seine Miete zahlen, scherzt er. Die Jungs von Clarityray haben mit ihrer Geschäftsidee bereits einen erfahrenen Investor überzeugt: Saar Wilf, der 2001 Fraud Sciences gegründet hat. Das Unternehmen entwickelte Antibetrüger-Technologie für Online-Zahlungen, bevor Wilf es 2008 an die Ebay-Tochter PayPal für 169 Millionen US-Dollar verkaufte. Wilf sitzt heute auch bei anderen Startups aus dem Land im Nahen Osten als Geldgeber mit am Bord.
Der Sicherheitsbranche ist Wilf mit seinem Engagement bei Clarityray treu geblieben. „Wir arbeiten mit der Contentindustrie zusammen“, sagt Yablonka, „doch unser Feld ist Sicherheit und Kontrolle – Kontrolle über Content.“