CeBIT 2013: Warum IBM sich mal wieder neu erfindet

ThemaCeBIT

CeBIT 2013: Warum IBM sich mal wieder neu erfindet

Bild vergrößern

Die IT-Branche steht aktuell an einem Wendepunkt. Auch bei IBM findet so etwas wie eine kleine Revolution statt, wie Martina Koederitz, Deutschlandchefin von IBM, im Gespräch mit der WirtschaftsWoche verrät.

von Michael Kroker

Martina Koederitz, Deutschland-Chefin des amerikanischen IT-Giganten IBM, sieht die IT-Branche wie auch die Wirtschaft im Allgemeinen aktuell an einem wichtigen Wendepunkt.

Wer nur ein einziges Indizes für den Wandel sucht, den IBM aktuell durchläuft, der wird schnell fündig: Auf dem CeBIT-Messestand in Halle zwei prangt in großen bunten Lettern das Wort "ReThink" von den Wänden, darunter in weiß die Fortsetzung "Your Business". Für ein Unternehmen, das ob seines eher zurückhaltenden - um nicht zu sagen konservativen - Auftretens und der zumeist in dunkelblauen Zwirn gewandeten Mitarbeiter schon vor Urzeiten den Spitznamen "Big Blue" verpasst bekam, beinahe so etwas wie eine kleine Revolution.

Doch die vollzieht sich gerade auch im Unternehmen selbst, wie Martina Koederitz, Deutschlandchefin von IBM, im Gespräch mit der WirtschaftsWoche während der CeBIT. "Die IT-Branche wie auch die Wirtschaft insgesamt befindet sich aktuell an einem Wendepunkt", sagt Koederitz.

Anzeige

Die wichtigsten IT-Trends

  • Cloud Computing

    So wolkig wie der Name bleibt für viele nach wie die Bedeutung des Begriffs Cloud Computing - und dabei handelt es sich inzwischen unbestreitbar um einen seit Jahren anhaltenden Trend. Dabei ist das Grundprinzip recht einfach: Aufgrund der großen Netzwerk-Bandbreiten und der flächendeckenden Verfügbarkeit des Internets werden Computerressourcen zentralisiert und nur bei Bedarf über das Netzwerk - sei es das Internet (Public Cloud) oder das firmeninterne Netz (Private Cloud) - abgerufen. Das hilft Kosten und Energie zu sparen, weil Computerressourcen so effektiver verwaltet werden können.

  • Big Data

    Die Fortschritte in der Informationstechnologie und ihre rasante Verbreitung haben ein Phänomen nach sich gezogen, mit der die IT Schwierigkeiten hat, mitzuhalten: Die Menge an verfügbaren Daten steigt rasant an. Ein großer Teil dieser Daten wird dabei ohne menschliches Zutun maschinell erzeugt - beispielsweise allein durch die Protokollierung von Software und Zugriffen.

    Als Big Data wird in der Informatik die Tatsache bezeichnet, dass derart große Datenmengen mit Standard-Datenbanken und -Werkzeugen nicht mehr zufriedenstellend verarbeitet werden können. Dabei lohnt es sich für Unternehmen wie Wissenschaft riesige Datenmengen zu verarbeiten - sei es in der Marktforschung (zum Beispiel schnelle Verarbeitung von Web-Statistiken) oder im Finanzsektor, wo die systematische Untersuchung der Transaktionen Unregelmäßigkeiten zutage fördern kann.

    Datenbank-Systeme, die Big Data verarbeiten können - das heißt Datenbanken, die Daten im Bereich von Terabytes, Zetabytes, Exabytes und gar Zettabytes verarbeiten - setzen massiv auf eine parallele Verarbeitung der Anfragen. So werden Hunderte oder gar Tausende Rechner zu einem Datenbank-Grid zusammengeschlossen. So gut wie alle großen Technologie-Konzerne wie IBM, Intel, HP, Oracle, Dell oder EMC haben Lösungen für sehr große Datenmengen im Angebot.

  • Freie Software

    Freie Software (auch Open-Source-Software genannt) und offene standardisierte Schnittstellen sind weiter auf dem Vormarsch - sehr zum Nutzen aller, die von IT-Infrastruktur abhängig sind. Denn mit offenen Technologien vermeiden Unternehmen den sogenannten Lock-in-Effekt: Sie sind an einen einzigen Anbieter und seine eigene Technologie gebunden, sondern können bei offenen Schnittstellen und Open-Source-Software samt Daten und Anwendungen auch den Anbieter wechseln.

    Die Ursprünge der Idee Freier Software liegen in den Anfängen der Computerrevolution: Die vor allem aus dem Hippie-Umfeld stammenden Mitglieder des Homebrew Computer Clubs im Silicon Valley tauschten Wissen und Software wie selbstverständlich untereinander aus. Als Firmen wie Microsoft in den 1980er Jahren aus der Software ein Geschäft machten, rief der Programmierer Richard Stallman das GNU-Projekt zum Bau eines freien Betriebssystems und die erste explizit freie Softwarelizenz ins Leben: die GNU General Public License.

    Heute bilden die Tools des GNU-Projekts zusammen mit anderer Software und dem Linux-Kernel die Basis der Linux-Distributionen wie Red Hat, Open-Suse, Ubuntu oder Debian sowie von Googles mobilem Betriebssystem Android. Linux in seinen verschiedenen Varianten ist das auf heute auf Servern überwiegend eingesetzte Betriebssystem. Zahlreiche Open-Source-Lösungen wie die Datenbanken MySQL oder PostgreSQL haben die Unternehmen erobert.

  • Grid Computing

    Das Zusammenschließen von Computern via schneller Netzwerk-Technik zu einem einzigen großen virtuellen Supercomputer (Cluster) wird als Grid-Computing bezeichnet. Dabei erscheint das Rechen-Netzwerk von außen als ein einziger Computer. Die einzelnen Teile des Grid-Computers sind dabei meist redundant ausgelegt. Das bedeutet: Fällt ein einzelner Rechner aus dem Gesamtverbund aus, hat das für die grundsätzliche Funktionalität des Gesamtsystems keine Auswirkungen.

    Beim Grid-Computing werden zwei Ziele verfolgt: Einerseits ermöglicht das Zusammenschließen vieler Rechner eine hohe Arbeitsgeschwindigkeit des Gesamtsystems - und das im Vergleich zu anderen Supercomputer-Konzepten zu niedrigen Kosten. Voraussetzung ist dafür allerdings, dass die zu berechnenden Aufgaben stark parallelisierbar sind. Das heißt im Klartext: Die Berechnung eines Teils der Aufgabe, die der Computer lösen soll, darf nicht von einer anderen Berechnung abhängen. Nur so kann die Berechnung auf viele verschiedene Prozessoren oder Computer aufgeteilt werden.

    Zweitens ermöglicht der Aufbau eines Grids mit Redundanz eine besonders ausfallsichere Server-Infrastruktur, selbst wenn preisgünstige Standard-Hardware verwendet wird, weil der Ausfall einzelner Rechner nicht die Funktionalität des Gesamt-Systems gefährdet.

  • Sieg der Standard-Hardware

    Auch bei den Servern geben längst Konsumenten-Produkte in den Betrieben den Ton an, wenn auch weniger sichtbar als bei iPhone und iPad. Bis zur Jahrhundertwende herrschten in Unternehmen noch spezialisierte Server vor, auf denen Unix-Systeme wie mit Namen wie Solaris, HP-UX oder Irix liefen. Die Massenanfertigung von PCs und Konsumenten, die immer leistungsfähigere Hardware nachfragten, führten aber zu einer Verbilligung schneller Hardware.

    Statt teure, besonders zuverlässige Hardware, nutzen Unternehmen heute als Server meist Computer mit x86er-Prozessoren von Intel oder AMD wie sie auch in jedem Büro oder Heim-Arbeitsplatz stehen. Meist wird darauf das Open-Source-Betriebssystem Linux oder Microsofts Windows eingesetzt. Die Unternehmen bleiben bei der Betriebssystem-Software flexibel und sind nicht auf teure Spezial-Hardware angewiesen, auf der nur ein bestimmtes herstellerspezifisches Unix-System läuft.

  • Virtualisierung

    Die Virtualisierung von Servern ist bereits seit vielen Jahren ein anhaltender Trend, auf den heute kaum ein Unternehmen bei der Nutzung seiner IT verzichten möchte. Virtualisierung erlaubt eine deutlich flexiblere Nutzung der Hardware: Ein Server wird dabei aufgeteilt in beliebig viele virtuelle Server. Das ist eine wichtige technologische Voraussetzung für das Cloud Computing – doch nicht dasselbe. Beim Cloud Computing geht es um den gesamten Prozess des flexiblen Bereitstellens von Rechenressourcen, Daten und Anwendungen über eine standardisierte Schnittstelle. Die Virtualisierung von Server-Hardware schafft also technisch eine wichtige Voraussetzung für Cloud Computing.

  • In-Memory-Computing

    Neue Cloud-basierte Business-Anwendungen benötigen häufig besonders schnelle Datenbanken - beispielsweise, wenn Mitarbeiter auf Unternehmensdaten per Smartphone oder Tablet zugreifen. Auf der Seite der Server lassen sich Datenbanken durch sogenanntes In-Memory-Computing deutlich beschleunigen. Was hinter dem Begriff steckt ist eigentlich ganz einfach: Die Rechner speichern die Daten nicht auf einer langsamen Festplatte, sondern im vielfach schnelleren Arbeitsspeicher - eben dem Memory.

    Nachteilig daran ist, dass Arbeitsspeicher nicht nur um ein Vielfaches schneller ist als eine Festplatte, sondern die gleiche Speichermenge auch deutlich mehr kostet. Häufig wird bei In-Memory-Datenbanken vom Grid-Computing gebrauch gemacht, bei dem viele einzelne zu einem Rechner-Verbund zusammengeschlossen werden.

    In-Memory-Computing gilt als Markt mit großen Wachstumschancen. Die großen Anbieter im Markt der Datenbank haben sich allesamt Know-how auf dem Gebiet eingekauft. So übernahm der deutsche Anbieter SAP für einen hohen Milliarden-Dollar-Betrag den Anbieter Business Objects. Orcale kaufte sich den In-Memory-Spezialisten Hyperion und IBM übernahm den kanadischen Anbieter Cognos.

  • Consumerization

    "Bring your own device“ heißt es in immer mehr Unternehmen. Laut Consumerization Report 2011 erlauben bereits 59 Prozent der deutschen Firmen ihren Arbeitnehmern, private IT-Geräte im Unternehmen zu nutzen, in den USA sind es bereits 75 Prozent. Mit gutem Grund: Die Mitarbeiter nutzen auf der Arbeit schlicht die Geräte, mit denen sie sich selbst am besten auskennen - und die sie privat am meisten schätzen. Davon profitieren vor allem das iPhone und iPad von Apple sowie die Smartphones mit Googles Android-System.

    Für die IT-Branche bedeutet die Hinwendung zu den Konsumenten einen tiefgreifenden Wechsel ihrer Strategie. Reichte es früher aus, die IT-Einkäufer von den eigenen Produkten zu überzeugen, die immer schneller und effizienter wurden, müssen nun diejenigen überzeugt werden, die die Geräte auch tagtäglich einsetzen.

    Und da zählen plötzlich ganz andere, weniger fassbare Werte. Wird man mich bewundern? Wird mich das Produkt erstaunen, überraschen? Denn auch Arbeit darf Freude machen. Zudem gibt es neue Herausforderungen für die Sicherheitsexperten der IT-Abteilung. Schon gibt es erste Software-Lösungen, die mittels Virtualisierung Privates und Geschäftliches auf den Smartphones trennt.

  • Business Intelligence wird mobil

    Wie können Geschäftsabläufe profitabler werden, Kosten gesenkt und Risiken minimiert werden? Unter dem Schlagwort Business Intelligence werden alle Versuche gefasst, die solche Fragen mit Hilfe der elektronischen Verarbeitung von Daten beantworten wollen. Das englische Wort „Intelligence“ ist dabei im Sinne vom Sammeln und Aufbereiten von Daten gemeint. Der Begriff Business Intelligence wurde bereits in den 1990er Jahren populär.

    Doch insbesondere das Cloud Computing und die Verbreitung Internet-fähiger mobiler Geräte verschaffen Managern neue Möglichkeiten. Die Firmenlenker können nun auch mobil via Smartphone oder Tablet jederzeit auf Geschäftszahlen und Software-gestützte Analysen zugreifen. Komplexere Business-Intelligence-Anwendungen können gleich Prognosen und Analysen auf Basis von mobil eingegebenen Daten erstellen. Laut den Analysten von Gartner werden in einigen Jahren ein Drittel aller Analysen auf Unternehmensdatenbanken von einem Smartphone oder Tablet aufgerufen, schreibt das Computermagazin iX.

Auslöser dafür sind in den Augen der 48-Jährigen, die seit Mai 2011 an der Spitze der hiesigen Niederlassung von IBM steht, zwei Entwicklungen. Zum einen die wachsende Verbreitung neuer Technologien wie Big Data, Cloud oder Mobile Computing - beflügelt durch die zunehmende Digitalisierung der gesamten Wirtschaft. Dadurch informieren sich etwa Unternehmen ganz anderes über aktuelle technologische Entwicklungen als früher.

Zum anderen durch die so genannte Millennial Generation, also Menschen, die um die Jahrtausendwende Teenager waren und die mit den neuen Medien aufgewachsen sind. "Diese Millenial Generation drängt jetzt auf den Arbeitsmarkt und hat ein neues, eigenes Verständnis von Digitalisierung und Social Media. Dies bedeutet auch andere Anforderungen etwa bei der Art der Ansprache oder der Geschwindigkeit", sagt Koederitz.

Die CeBIT 2013

  • Teilen im Mittelpunkt

    Viele der Unternehmen zeigen bei der CeBIT 2013 spezielle Neuheiten zum Thema „Shareconomy“. Dabei geht es nicht nur um die Auslagerung von Rechenkapazität, Daten und Software ins Netz (Cloud Computing), sondern auch um neue Modelle zur gemeinsamen Nutzung in der realen Welt. Auch die unter Datenschützern umstrittene Aufbereitung riesiger Informationsmengen (Big Data) gehört zu den Kernthemen.

  • Die Teilnehmer

    Auf der weltgrößten Computermesse sind dieses Jahr rund 4100 Unternehmen aus 70 Ländern beteiligt. Wie im vergangenen Jahr präsentieren die CeBIT-Teilnehmer Produkte und Dienstleistungen auf den vier übergreifenden Plattformen „Pro“ (Geschäftskunden), „Life“ (Privatnutzer), „Gov“ (öffentliche Hand) und „Lab“ (Forschung). Partnerland ist 2013 Polen.

  • Partnerland Polen

    Polen als Partnerland der CeBIT 2013 ist mit mehr als 150 Unternehmen und Instituten in insgesamt acht Hallen vertreten. Mit dabei sind unter anderem die polnischen Partnerverbände des deutschen Hightech-Verband BITKOM Iztech, KiGEIT und PIIT sowie das polnische Wirtschaftsministerium. "Polen gilt als eine der wirtschaftlich dynamischsten Nationen in Europa", so die CeBIT-Veranstalter. Besonders im Hightech-Sektor biete das Land großes Potenzial.

  • Startups auf der CeBIT

    Mehr als 200 internationale Start-up-Unternehmen präsentieren in Hannover kreative Ideen und Geschäftsmodelle für die Zukunft.

  • Auszeichnung für Startups: Der "CODE_n Award"

    2011 wurde "CODE_n" ins Leben gerufen, eine internationale Plattform für digitale Pioniere, Innovatoren und wegweisende Start-ups. Der Name steht für "Code of the New". In diesem Jahr verleiht die Plattform unter dem Motto "Smart Solutions for Global Challenges" den "CODE_n Award". Gesucht werden dabei IT-basierte Konzepte für eine nachhaltige Energieversorgung und -nutzung. Insgesamt wetteifern 50 junge Unternehmen aus 13 Ländern um die Topplatzierung.

Beide Entwicklungen, die Veränderung der Märkte wie auch die Erwartungshaltung des einzelnen Bürgers, ziehen neue Herausforderungen nach sich. "IBM - aber auch jedes andere Unternehmen - muss sich entsprechend anders aufstellen auf früher - daher auch unser Claim 'ReThink Your Business'", sagt Koederitz.

Ein Beispiel für die Veränderungen laut Koederitz: Erst die zunehmende Digitalisierung aller Geschäftsprozesse in Verbindung mit neuen Technologien wie etwa Big Data, also der blitzschnellen Analyse gigantischer Datenberge, erlaube erstmals die Steuerung von Geschäftsentscheidungen in Echtzeit. "Datenanalyse gab es auch vor zwanzig Jahren schon - aber damals in der Regel nur mit einer Datenquelle, und es dauerte Stunden."

Heute dagegen werten Unternehmen wie etwa der dänische Windanalagenhersteller Vestas bei der Suche nach geeigneten Standorten für Windkraftanlagen dutzende verschiedene Quellen wie meteorologische oder geologische Daten aus. "Dabei macht erst die Kombination der entsprechenden Daten solche Analysen überhaupt erst möglich", sagt Koederitz.

weitere Artikel

In vielen Branchen seien die Verbesserungen durch die neuen Analyseverfahren und die Echtzeit-Steuerung dagegen noch gar nicht richtig absehbar, etwa im Gesundheitswesen, der Energiewirtschaft oder im Bildungssystem. Genau aus diesem Grund sieht die IBM-Managerin die gesamte Wirtschaft gerade erst am Beginn einer neuen Computing-Dekade. Koederitz: "Der Einfluss von IT aufs die Unternehmen wächst weiter."

Anzeige
Unternehmer stellen sich vor
Deutsche Unternehmerbörse - www.dub.de
DAS PORTAL FÜR FIRMENVERKÄUFE
– Provisionsfrei, unabhängig, neutral –
Angebote Gesuche




.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%