Ende der 90er Jahre erlebte das Internet mit dem Dotcom-Boom seinen kommerziellen Durchbruch. In den seitdem vergangenen rund 15 Jahren stellten maßgeblich die Personen die Speerspitze der Netzwirtschaft und -kultur dar, die entweder kurz vor, während oder in den Jahren unmittelbar nach der ersten Dotcom-Welle die Faszination der Onlinewelt für sich erkannten. Aus ihnen wurden Gründer und Startup-Geschäftsführer, Website-Betreiber, Investoren, Entwickler und Designer, Blogger, Journalisten, Netzaktivsten oder ganz einfach leidenschaftliche Geeks, die jeden potenziell wegweisenden Service und jede App mindestens einmal kurz ausprobieren mussten, um inneren Frieden zu finden. Anderthalb Jahrzehnte kontrollierte diese "Dotcom-Generation" weitgehend das Netz.
Der Begriff "Dotcom-Generation" ist dabei natürlich nicht mehr als ein abstrahierendes Hilfsmittel. In Wahrheit handelt es sich um mindestens zwei Generationen, die eint, ungefähr zeitgleich ihre ersten Gehversuche im Internet gemacht zu haben, und die zu diesem Zeitpunkt das Kindesalter und die Pubertät bereits hinter sich gelassen hatten. Anders als heute stellte das "World Wide Web" damals noch kein Spielzeug für die ganz Jungen dar. Laut ARD/ZDF-Onlinestudie waren im Jahr 1997 13 Prozent der 20- bis 29-Jährigen und 12,4 Prozent der 30-bis 39-Jährigen in Deutschland gelegentlich im Netz, aber nur 6,3 Prozent der 14- bis 19-Jährigen – und entsprechend noch weniger der unter 14-Jährigen. Dreiviertel der deutschen Webnutzer waren zwischen 14 und 39 Jahre alt. Sie sind das, was ich als Dotcom-Generation bezeichne, wobei man sie freilich auch "Desktop-Generation", "Tastatur-Generation" oder "ISDN-Generation" nennen könnte.
Die Digital Natives kommen
Diese Dreiviertel der hiesigen Internet-Early-Adopter sind heute zwischen 29 und 54 Jahre alt. "Alt" ist dabei das entscheidende Stichwort. Denn genau das werden sie (was den Autor dieses Artikels mit einschließt, der 2013 die 30er Marke erreicht). Gleichzeitig stellt die nachrückende Generation die bisher unangefochtene Position der Dotcom-Pioniere als Macher und Meinungsführer im Digitalen in Frage. Seit 2010 sind laut ARD/ZDF-Onlinestudie 100 Prozent der 14- bis 19-Jährigen in Deutschland zumindest gelegentlich im Netz. Junge Leute, die zur Dotcom-Euphorie gerade das Laufen lernten oder im Sandkasten spielten, die den Umgang mit dem Netz aber so selbstverständlich verinnerlichten wie Schreiben und Lesen. Echte "Digital Natives" also, welche die ganz frühen Tage des Netzes maximal aus den Erzählungen ihrer Eltern kennen.
Snapchat als Zeichen des Wandels
Während die Generation-Dotcom reift, Familien gründet, ergraut, das Tempo verringert und sich gelegentlich nach den guten alten Zeiten sehnt, avancieren die in den 90er Jahren Geborenen zu neuen Trendsettern, die zunehmend die Agenda im Web diktieren. Das bisher deutlichste Indiz dafür: Snapchat, die US-App, mit der Nutzer mittels sich selbst zerstörender Fotos und Videos untereinander kommunizieren. Techblogger und -journalisten, Branchenexperten und Beobachter staunten nicht schlecht, als sie Ende 2012 erfuhren, dass Snapchat-Nutzer täglich beachtliche 50 Millionen "Snaps" verschicken. Die treibende Kraft für den Erfolg dieser lange Zeit von der Branche wenig beachteten App: Teenager.
Unbemerkt von den etablierten Kennern und Analysten des Netzgeschehens hat sich Snapchat unter Heranwachsenden vorrangig in den USA zu einer populären Methode entwickelt, um Smartphone-Schnapschüsse und -Kurzvideos auszutauschen, die anders als bei Facebook, Instagram und WhatsApp keinen dauerhaften Bestand haben. Anekdoten wie diese beschreiben, wie Snapchat mittlerweile bei US-Teens ähnlich intensiv genutzt wird wie Instagram. Kein Wunder, dass sich Instagram-Besitzern Facebook dazu gezwungen sah, in der Rekordzeit von zwölf Tagen mit Poke einen eigenen Snapchat-Konkurrenten zu programmieren und zu veröffentlichen. Mit mäßigem Erfolg.
Ob Snapchat als eigenständiges Produkt dauerhaft überleben können wird, bleibt abzuwarten. Doch dies ändert nichts an der Tatsache, dass Teenager abseits der von der Branche eingetretenen Pfade eine App rund um ein neues Kommunikationskonzept zu einem Hit gemacht haben, welche theoretisch irgendwann von allen Altersgruppen ins Herz geschlossen werden könnte. Die üblichen Early Adopter, Blogkoryphäen und Vordenker, die aus Experimentierfreude und Neugier sonst immer als erste auf einen neuen Hype aufspringen, werden in die für sie ungewohnte Rolle der "Early Majority" verwiesen. Sofern sie überhaupt etwas mit Snapchat anfangen können.
Auch im Falle der extrem populären Messenger-App WhatsApp gibt es Grund zur Annahme, dass es die 14- bis 19-Jährigen waren, welche die Anwendung zuerst für sich entdeckten. Offizielle Angaben gibt es dazu von dem US-Unternehmen zwar nicht, aber auch WhatsApp gelangte erst 2012 ins mediale Rampenlicht – was ein Indikator für die verspätete Wahrnehmung innerhalb der Netzwirtschaft darstellt. Den Durchbruch erlangte der in vielerlei Weise eigenwillige Service nämlich schon deutlich früher. Eltern von Teenagern schilderten mir, dass ihre Zöglinge WhatsApp zum Teil bereits seit zweieinhalb Jahren verwenden. Smartphones besitzen heutzutage die meisten Jugendlichen, genutzt werden sie mit Prepaid-Karten. Bei üblichen neun Cent pro SMS lässt sich da durch den Einsatz von WhatsApp viel Geld sparen.
Die wichtigsten IT-Trends
So wolkig wie der Name bleibt für viele nach wie die Bedeutung des Begriffs Cloud Computing - und dabei handelt es sich inzwischen unbestreitbar um einen seit Jahren anhaltenden Trend. Dabei ist das Grundprinzip recht einfach: Aufgrund der großen Netzwerk-Bandbreiten und der flächendeckenden Verfügbarkeit des Internets werden Computerressourcen zentralisiert und nur bei Bedarf über das Netzwerk - sei es das Internet (Public Cloud) oder das firmeninterne Netz (Private Cloud) - abgerufen. Das hilft Kosten und Energie zu sparen, weil Computerressourcen so effektiver verwaltet werden können.
Die Fortschritte in der Informationstechnologie und ihre rasante Verbreitung haben ein Phänomen nach sich gezogen, mit der die IT Schwierigkeiten hat, mitzuhalten: Die Menge an verfügbaren Daten steigt rasant an. Ein großer Teil dieser Daten wird dabei ohne menschliches Zutun maschinell erzeugt - beispielsweise allein durch die Protokollierung von Software und Zugriffen.
Als Big Data wird in der Informatik die Tatsache bezeichnet, dass derart große Datenmengen mit Standard-Datenbanken und -Werkzeugen nicht mehr zufriedenstellend verarbeitet werden können. Dabei lohnt es sich für Unternehmen wie Wissenschaft riesige Datenmengen zu verarbeiten - sei es in der Marktforschung (zum Beispiel schnelle Verarbeitung von Web-Statistiken) oder im Finanzsektor, wo die systematische Untersuchung der Transaktionen Unregelmäßigkeiten zutage fördern kann.
Datenbank-Systeme, die Big Data verarbeiten können - das heißt Datenbanken, die Daten im Bereich von Terabytes, Zetabytes, Exabytes und gar Zettabytes verarbeiten - setzen massiv auf eine parallele Verarbeitung der Anfragen. So werden Hunderte oder gar Tausende Rechner zu einem Datenbank-Grid zusammengeschlossen. So gut wie alle großen Technologie-Konzerne wie IBM, Intel, HP, Oracle, Dell oder EMC haben Lösungen für sehr große Datenmengen im Angebot.
Freie Software (auch Open-Source-Software genannt) und offene standardisierte Schnittstellen sind weiter auf dem Vormarsch - sehr zum Nutzen aller, die von IT-Infrastruktur abhängig sind. Denn mit offenen Technologien vermeiden Unternehmen den sogenannten Lock-in-Effekt: Sie sind an einen einzigen Anbieter und seine eigene Technologie gebunden, sondern können bei offenen Schnittstellen und Open-Source-Software samt Daten und Anwendungen auch den Anbieter wechseln.
Die Ursprünge der Idee Freier Software liegen in den Anfängen der Computerrevolution: Die vor allem aus dem Hippie-Umfeld stammenden Mitglieder des Homebrew Computer Clubs im Silicon Valley tauschten Wissen und Software wie selbstverständlich untereinander aus. Als Firmen wie Microsoft in den 1980er Jahren aus der Software ein Geschäft machten, rief der Programmierer Richard Stallman das GNU-Projekt zum Bau eines freien Betriebssystems und die erste explizit freie Softwarelizenz ins Leben: die GNU General Public License.
Heute bilden die Tools des GNU-Projekts zusammen mit anderer Software und dem Linux-Kernel die Basis der Linux-Distributionen wie Red Hat, Open-Suse, Ubuntu oder Debian sowie von Googles mobilem Betriebssystem Android. Linux in seinen verschiedenen Varianten ist das auf heute auf Servern überwiegend eingesetzte Betriebssystem. Zahlreiche Open-Source-Lösungen wie die Datenbanken MySQL oder PostgreSQL haben die Unternehmen erobert.
Das Zusammenschließen von Computern via schneller Netzwerk-Technik zu einem einzigen großen virtuellen Supercomputer (Cluster) wird als Grid-Computing bezeichnet. Dabei erscheint das Rechen-Netzwerk von außen als ein einziger Computer. Die einzelnen Teile des Grid-Computers sind dabei meist redundant ausgelegt. Das bedeutet: Fällt ein einzelner Rechner aus dem Gesamtverbund aus, hat das für die grundsätzliche Funktionalität des Gesamtsystems keine Auswirkungen.
Beim Grid-Computing werden zwei Ziele verfolgt: Einerseits ermöglicht das Zusammenschließen vieler Rechner eine hohe Arbeitsgeschwindigkeit des Gesamtsystems - und das im Vergleich zu anderen Supercomputer-Konzepten zu niedrigen Kosten. Voraussetzung ist dafür allerdings, dass die zu berechnenden Aufgaben stark parallelisierbar sind. Das heißt im Klartext: Die Berechnung eines Teils der Aufgabe, die der Computer lösen soll, darf nicht von einer anderen Berechnung abhängen. Nur so kann die Berechnung auf viele verschiedene Prozessoren oder Computer aufgeteilt werden.
Zweitens ermöglicht der Aufbau eines Grids mit Redundanz eine besonders ausfallsichere Server-Infrastruktur, selbst wenn preisgünstige Standard-Hardware verwendet wird, weil der Ausfall einzelner Rechner nicht die Funktionalität des Gesamt-Systems gefährdet.
Auch bei den Servern geben längst Konsumenten-Produkte in den Betrieben den Ton an, wenn auch weniger sichtbar als bei iPhone und iPad. Bis zur Jahrhundertwende herrschten in Unternehmen noch spezialisierte Server vor, auf denen Unix-Systeme wie mit Namen wie Solaris, HP-UX oder Irix liefen. Die Massenanfertigung von PCs und Konsumenten, die immer leistungsfähigere Hardware nachfragten, führten aber zu einer Verbilligung schneller Hardware.
Statt teure, besonders zuverlässige Hardware, nutzen Unternehmen heute als Server meist Computer mit x86er-Prozessoren von Intel oder AMD wie sie auch in jedem Büro oder Heim-Arbeitsplatz stehen. Meist wird darauf das Open-Source-Betriebssystem Linux oder Microsofts Windows eingesetzt. Die Unternehmen bleiben bei der Betriebssystem-Software flexibel und sind nicht auf teure Spezial-Hardware angewiesen, auf der nur ein bestimmtes herstellerspezifisches Unix-System läuft.
Die Virtualisierung von Servern ist bereits seit vielen Jahren ein anhaltender Trend, auf den heute kaum ein Unternehmen bei der Nutzung seiner IT verzichten möchte. Virtualisierung erlaubt eine deutlich flexiblere Nutzung der Hardware: Ein Server wird dabei aufgeteilt in beliebig viele virtuelle Server. Das ist eine wichtige technologische Voraussetzung für das Cloud Computing – doch nicht dasselbe. Beim Cloud Computing geht es um den gesamten Prozess des flexiblen Bereitstellens von Rechenressourcen, Daten und Anwendungen über eine standardisierte Schnittstelle. Die Virtualisierung von Server-Hardware schafft also technisch eine wichtige Voraussetzung für Cloud Computing.
Neue Cloud-basierte Business-Anwendungen benötigen häufig besonders schnelle Datenbanken - beispielsweise, wenn Mitarbeiter auf Unternehmensdaten per Smartphone oder Tablet zugreifen. Auf der Seite der Server lassen sich Datenbanken durch sogenanntes In-Memory-Computing deutlich beschleunigen. Was hinter dem Begriff steckt ist eigentlich ganz einfach: Die Rechner speichern die Daten nicht auf einer langsamen Festplatte, sondern im vielfach schnelleren Arbeitsspeicher - eben dem Memory.
Nachteilig daran ist, dass Arbeitsspeicher nicht nur um ein Vielfaches schneller ist als eine Festplatte, sondern die gleiche Speichermenge auch deutlich mehr kostet. Häufig wird bei In-Memory-Datenbanken vom Grid-Computing gebrauch gemacht, bei dem viele einzelne zu einem Rechner-Verbund zusammengeschlossen werden.
In-Memory-Computing gilt als Markt mit großen Wachstumschancen. Die großen Anbieter im Markt der Datenbank haben sich allesamt Know-how auf dem Gebiet eingekauft. So übernahm der deutsche Anbieter SAP für einen hohen Milliarden-Dollar-Betrag den Anbieter Business Objects. Orcale kaufte sich den In-Memory-Spezialisten Hyperion und IBM übernahm den kanadischen Anbieter Cognos.
"Bring your own device“ heißt es in immer mehr Unternehmen. Laut Consumerization Report 2011 erlauben bereits 59 Prozent der deutschen Firmen ihren Arbeitnehmern, private IT-Geräte im Unternehmen zu nutzen, in den USA sind es bereits 75 Prozent. Mit gutem Grund: Die Mitarbeiter nutzen auf der Arbeit schlicht die Geräte, mit denen sie sich selbst am besten auskennen - und die sie privat am meisten schätzen. Davon profitieren vor allem das iPhone und iPad von Apple sowie die Smartphones mit Googles Android-System.
Für die IT-Branche bedeutet die Hinwendung zu den Konsumenten einen tiefgreifenden Wechsel ihrer Strategie. Reichte es früher aus, die IT-Einkäufer von den eigenen Produkten zu überzeugen, die immer schneller und effizienter wurden, müssen nun diejenigen überzeugt werden, die die Geräte auch tagtäglich einsetzen.
Und da zählen plötzlich ganz andere, weniger fassbare Werte. Wird man mich bewundern? Wird mich das Produkt erstaunen, überraschen? Denn auch Arbeit darf Freude machen. Zudem gibt es neue Herausforderungen für die Sicherheitsexperten der IT-Abteilung. Schon gibt es erste Software-Lösungen, die mittels Virtualisierung Privates und Geschäftliches auf den Smartphones trennt.
Wie können Geschäftsabläufe profitabler werden, Kosten gesenkt und Risiken minimiert werden? Unter dem Schlagwort Business Intelligence werden alle Versuche gefasst, die solche Fragen mit Hilfe der elektronischen Verarbeitung von Daten beantworten wollen. Das englische Wort „Intelligence“ ist dabei im Sinne vom Sammeln und Aufbereiten von Daten gemeint. Der Begriff Business Intelligence wurde bereits in den 1990er Jahren populär.
Doch insbesondere das Cloud Computing und die Verbreitung Internet-fähiger mobiler Geräte verschaffen Managern neue Möglichkeiten. Die Firmenlenker können nun auch mobil via Smartphone oder Tablet jederzeit auf Geschäftszahlen und Software-gestützte Analysen zugreifen. Komplexere Business-Intelligence-Anwendungen können gleich Prognosen und Analysen auf Basis von mobil eingegebenen Daten erstellen. Laut den Analysten von Gartner werden in einigen Jahren ein Drittel aller Analysen auf Unternehmensdatenbanken von einem Smartphone oder Tablet aufgerufen, schreibt das Computermagazin iX.
Netzpioniere werden nostalgisch
Nicht nur die Tatsache, dass Jugendliche den nicht mehr ganz so jungen Vertretern der Dotcom-Generation zunehmend die Rolle der Trendsetter streitig machen, ist ein Zeichen für die bevorstehende Wachablösung, sondern auch die Nostalgie, mit der erfahrene Netzmenschen auf die digitale Vergangenheit blicken. "The Web We Lost" von Entepreneur Anil Dash (Jahrgang 1975) sowie "2013: Das Web zurückerobern" von Spreeblick-Blogger und re:publica-Mitveranstalter Johnny Haeusler (Jahrgang 1964) sind zwei in den letzten Wochen vieldiskutierte und von Online-Apologeten fleißig verbreitete Texte, in denen die Autoren den Tagen eines offeneren, weniger von geschlossenen Ökosystemen dominierten Internets nachtrauern. Während inhaltlich viel Wahres in den Werken zu finden und das Eintreten für ein demokratisches, freies, nicht kaputt kommerzialisiertes Web löblich ist, so untermauern die Artikel dennoch das Bild einer ergrauenden Dotcom-Generation, deren Vorstellungen und Ziele rund um das Web sich deutlich von dem unterscheiden, was die Touch-Generation – wie ich heutige und künftige Teens bezeichnen würde – vom Netz will.
Die Auswirkungen des Nachrückens der jungen Digital Natives bei gleichzeitig zunehmender Nostalgie der Dotcom-Generation wird auf verschiedene Weise die nächsten Jahre im Netz beeinflussen: Das "Netz-Establishment" wird sich anstrengen und anpassen müssen, um seinen Einfluss nicht zu schnell schwinden zu sehen. Alternde Blogger, Journalisten und Netztheoretiker, deren Gedankenmodelle und Idealvorstellungen sich zu stark von denen der Jüngeren unterscheiden und zu wenig Anpassungsfähigkeit aufweisen, müssen unweigerlich zu einer Legitmitätskrise führen. Sukzessive werden die heute 14- bis 19-Jährigen einen Teil der Meinungsführerschaft übernehmen. Egal ob sie dorthin mit ihrem eigenen Blog, innerhalb eines größeren Redaktionteams, mit Tweets, Facebook-Status-Updates, Instagram-Fotos oder Snaps gelangen. Oder auf ganz anderen Wegen.
Eine neue Gründer-Generation
Der Generationenwechsel wird auch die Gründerszene betreffen. Glücklicherweise ist der Mythos, Startup-Entrepreneure mit idealen Erfolgschancen dürfen nicht älter als 25 Jahre sein, mittlerweile widerlegt. Doch der Altersunterschied zwischen den frühen Internetpionieren und den heute und künftig Startups gründenden Studienabgängern oder Studienabbrechern nimmt zu. Die Gründer von Facebook (Mark Zuckerberg), Instagram (Kevin Syström), Airbnb (Brian Chesky), Box (Aaron Levie), Dropbox (Drew Houston) und Groupon (Andrew Mason) steuern alle auf die 30 zu oder passierten diesen Meilenstein kürzlich. Die Snapchat-Macher Evan Spiegel (22) und Bobby Murphy (24) sind schon etwas jünger. Weitere "Grünschnäbel" werden folgen. Ihnen fehlt das Wissen und die Erfahrung der bisherigen Internetmacher. Dafür verfügen sie über den direkteren Draht zur nachrückenden Webgeneration und die gesunde Naivitiät und Flexibilität, für deren Beibehaltung ihre etwas älteren, milliardenschweren Vorbilder aus dem Silicon Valley sich schon deutlich stärker anstrengen müssen.
Der Veteranen-Status allein reicht nicht mehr
Die Wachablösung geschieht nicht von heute auf morgen, sondern sukzessive und ohne, dass dabei die Erlebnisse und Werte der bisherigen Netzelite auf einen Schlag irrelevant werden. Doch sie muss sich mit dem Gedanken anfreunden, dass ihre eine Dekade oder länger währende Webexpertise, ihre Kenntnisse im Browser-Upload von HTML-Dateien zu Geocities sowie ihr heutiger Always-On-Modus nicht mehr unbedingt dazu ausreichen, um die Evolution der digitalen Sphäre mit ähnlichem Nachdruck mitgestalten zu können wie einst. Das Emporkommen von WhatsApp und Snapchat erfolgte ohne ihr Zutun oder ihre Einflussnahme, während der von ihnen intensiv bevölkerte Microbloggingservice Twitter von Teens noch immer vernachlässigt wird. Und auch Facebook steht bei den Unter-20-Jährigen nicht mehr so hoch im Kurs.
Nichts im Leben ist natürlicher als der Prozess des Nachrückens junger Generationen. Im Internet, als Kommunikationsmittel für die breite Masse selbst noch ziemlich jung, erfolgt dieser aber erstmalig. Das macht ihn so spannend und gleichzeitig herausfordernd für alle Dotcom-Veteranen, für welche die Rolle als Wegbereiter, Mitgestalter und Innovatoren bisher wie eine Selbstverständlichkeit wirkte. Doch das ist sie nicht.
Dieser Artikel ist zuerst auf netzwertig.com erschienen!