Prof. Dr. Sandra Thomas ist Professorin im Fachbereich Wirtschaftswissenschaften an der Provadis School of International Management and Technology AG und Expertin für Strategie- und Unternehmensführung sowie Technologie- und Innovationsmanagement. Im eco Interview spricht sie über den Einfluss der Rechenzentrums- und Telekommunikationsbranche auf bestehende Geschäftsmodelle und über die Zukunft der Datenverarbeitung. Sie wird noch mehr von ihrer Expertise beim diesjährigen Data Center Expert Summit am 14. und 15. Juni teilen, wo sie unter anderem eine Keynote zum Thema Innovationsmanagement halten wird.
Frau Prof. Dr. Thomas, Sie befassen sich an der Provadis Hochschule in Frankfurt mit Technologie- und Innovationsmanagement. Wo sehen Sie in der Rechenzentrums- und Telekommunikationsbranche künftig mögliche Veränderungen bei Geschäftsmodellen?
Aus technologischer Sicht sind beide Branchen von hohen Innovationsraten gekennzeichnet. Die grundlegenden Geschäftsmodelle haben sich über die Zeit hingegen nicht so stark verändert. Weiterhin werden mehr oder minder Kapazitäten bzw. Dienste in Subskriptionsmodellen an Geschäfts- und/der Endkunden vermarktet. Hier besteht durchaus Innovationspotenzial. Impulse kommen sowohl von Nachfrageseite als auch aus der technologischen Weiterentwicklung. Technologien wie Edge-Computing, Hybrid- bzw. Multi-Cloud Lösungen, Virtualisierung und Data Encryption können Geschäftsmodelle forcieren, die spezialisierte Dienste für die Orchestrierung, Optimierung und Sicherung der entsprechenden Architekturen anbieten. Auf Nachfrageseite sehe ich aber auch nicht minder wichtige Impulse. Schließlich sind beide Branchen Enabler der Digitalisierung und Virtualisierung für alle Wirtschaftszweige. Es ist bereits eine große Bandbreite an Geschäftsmodellen entstanden, allen voran natürlich das Plattformmodel, welches Basis für Unternehmen wie Uber, Airbnb oder auch Delivery Hero ist. Aber nicht nur Plattformen, auch etliche weitere Entwicklungen, wie OTTs und FinTechs sind durchaus relevant für die Data Center und Telekommunikationsbranche.
Gravität spielt für die Etablierung Digitaler Ökosysteme eine entscheidende Rolle. Datenverkehre tauchen jedoch in volkswirtschaftlichen Bilanzierungen bislang kaum auf. Wie könnte eine Handelsbilanz in Bezug auf Datenimport und -export aussehen?
Aus betriebswirtschaftlicher Sicht ist bereits seit Jahren der Wert von Daten anerkannt. Herkömmliche Austauschbeziehungen zwischen Akteuren, also Ware oder Dienstleistung gegen Geld werden regelmäßig um Datenströme ergänzt. Dieses geht sogar so weit, dass ganze Geschäftsmodelle wie zum Beispiel WhatsApp auf Datenaustausch basieren. Aus volkswirtschaftlicher Perspektive sehe ich hier noch eine Lücke. Wir messen weiterhin Handelsbilanzen oder auch andere Kennzahlen der volkswirtschaftlichen Leistungsfähigkeit fast ausschließlich in monetären Werten. Es gibt bislang keine einheitliche Methode, um den Datenverkehr in volkswirtschaftlichen Bilanzierungen zu erfassen. Ansätze, die vorschlagen, Datenströme in monetäre Werte umzurechnen, um dann die Werte in der Handelsbilanz zu berücksichtigen überzeugen mich jedoch nicht abschließend. Zu viele Einflussfaktoren existieren bei der Ermittlung des "wahren Wertes" von Daten. Für mich wäre eher die Einführung einer Art "Datenkonten" eine interessante Option zum aktuellen Zeitpunkt. Ähnlich wie bei Bankkonten könnten Regierungen und auch Unternehmen Konten einrichten, um den Datenverkehr zu verfolgen und zu bilanzieren. Damit wären Datenströme zumindest transparent und diese Informationen könnten heutige Handelsbilanzen ergänzen.
Moores Law war in den letzten 50 Jahren eine verlässliche Konstante. Könnte sich mit der Weiterentwicklung von KI, GPU-Prozessoren sowie Quantencomputing hieran etwas grundlegend ändern?
Das Mooresche Gesetz, das besagt, dass sich Komplexität, das heißt die Anzahl der Schaltkreiskomponenten integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt, ist in der Tat seit mehreren Jahrzehnten ein Leitprinzip der Halbleiterindustrie. Die Zukunft des Mooreschen Gesetzes ist jedoch Gegenstand von Debatten, insbesondere angesichts der Fortschritte in den Bereichen KI, GPU-Prozessoren und Quantencomputing. Wir geraten in der Halbleitertechnologie in Bereiche physikalischer Beschränkungen, so dass es immer schwieriger und teurer wird, die Transistoren weiter zu verkleinern. Letzteres, die Kosten wird in der Auslegung des Mooreschen Gesetz leider regelmäßig unterschlagen. Allerdings haben wir in den letzten Jahren einige weitere Ereignisse und Entwicklungen gesehen, die die Kosten ebenfalls beeinflussen. Auch hierdurch gerät die "Gesetzmäßigkeit" unter Druck. Bezogen auf die technologischen Fortschritte sehen wir einerseits Prozessoren, wie KI- oder GPU-Prozessoren deren Leistungsoptimierung für bestimmte Aufgaben nicht allein auf der Skalierung von Transistoren beruht. Andererseits sehen wir auch technologische Ansätze jenseits klassischer Halbleitertechnik, wie dreidimensionale integrierte Schaltkreise oder auch Quantencomputing auf die das Mooresche Gesetz nur bedingt bzw. nicht wirklich anwendbar ist. Zusammengefasst kann man durchaus sagen, dass sich die bisher bekannte Regelmäßigkeit in der Halbleitertechnologie verändern wird, wie genau und in welchem Ausmaß wag ich jedoch nicht vorherzusagen. Die Zukunft der Datenverarbeitung wird wahrscheinlich aus einer Kombination von Fortschritten in verschiedenen Bereichen bestehen, darunter künstliche Intelligenz, spezialisierte Prozessoren, Quantencomputer und innovative Architekturen, die die Branchenlandschaft umgestalten können.
Vielen Dank für das Interview, Frau Prof. Dr. Thomas!