Frau Nolte, können Sie uns einen Überblick über die S2N geben und welche Themen im Fokus stehen? An welches Publikum richtet sich die Veranstaltung?
Die zweitägige Heise-Konferenz S2N führt in vier parallelen Tracks durch aktuelle Themen der Rechenzentrums-IT: Von der Migration von VMware-Servern auf Proxmox über Performance-Analysen für Software-defined Storage bis hin zum Management von EVPN-Fabrics. Behandelt werden aber auch praktische Themen wie Ransomware Incident Response, Performance optimieren für leistungshungrige Anwendungen, richtig inventarisieren mit Netbox als Single Source of Truth im Rechenzentrum oder der sichere Datenexport.
Mit diesen Themen richtet sich die S2N als Fortbildungs- und Networking-Event an RZ- und IT-Leiter:innen, CTOs, IT-Administrator:innen und Systemarchitekt:innen sowie alle IT-Profis, die sich mit der Rechenzentrums-IT befassen, also mit kleineren oder großen Serverlandschaften, mit Speichersystemen oder Netzwerken.
Inwiefern unterscheidet sich das Format der diesjährigen S2N von der bisherigen storage2day?
Der Fokus der storage2day lag auf Storage und Speichernetzen. Die lassen sich in der heutigen Zeit aber gar nicht mehr losgelöst vom Server- und Netzwerkdesign und von den dazu passenden Konzepten der Systemadministration betrachten. Dazu tragen Entwicklungen und Konzepte wie Software-defined Infrastructure, Hyper-converged Infrastructure und die Konfigurationsautomatisierung bei, die die bisherigen klaren Trennungen von Server, Storage-Systemen und Netzwerktechnik immer weiter aushebeln. Aber auch Anwendungen wie KI-Trainings und -Inferenzen bedingen, wenn man sie effizient implementieren will, eine Gesamtbetrachtung der RZ-IT.
Welche aktuellen Trends und Innovationen im Bereich Speichertechnologien und Netzwerkinfrastrukturen werden auf der S2N diskutiert?
Beim Netzwerk sind eindeutig EVPN-VXLAN und die Zunahme des Ost-West-Traffics die wichtigsten Punkte, während die Performanceanalyse und -optimierung ein Dauerbrenner ist. Beim Storage ist Software-defined immer mehr im Kommen und uns beschäftigt leider weiterhin Ransomware und was es dagegen zu tun gilt. Stichworte sind hier Air Gap, Immutable Storage, Incident Response und Kaltstarts.
Wie beeinflussen neue Technologien wie NVMe, Cloud-Speicher oder 5G die Diskussionen auf der S2N?
Neue Techniken sind natürlich immer Thema, auch die Einblicke in die Entwicklungen in den Laboren. Und neue Techniken, die in die Rechenzentren einziehen, verändern auch die dortige IT. NVMe etwa erlaubt andere Serverdesigns, ein anderes IO-Verhalten und mit NVMe-over-Fabric sogar neue Netz- und Storage-Designs.
Das Cloud-Computing hat viel in der IT verändert, allein wie Anwendungen oder IT-Infrastruktur heute „konsumiert“ werden. Für Admins und IT-Entscheider hängt da aber noch viel mehr dran. Neben Fragen wie „Was nehme ich wofür?“ stehen immer auch strategische Entscheidungen an, wenn es etwa um Vendor-Lock, Kostenfallen und den Datenschutz geht: Entscheidungen für Public, Hybrid, Private, oder Multi-Cloud sind immer auch Grundsatzentscheidungen mit entsprechenden Konsequenzen. Und dann hängen da viele technische Fragen dran, etwa: „Wie bekomme ich meine Cloud- und On-Premises-Ressourcen einheitlich gemanaged?“
5G sehe ich eher im Edge-Bereich, aber auch hier wächst die Zahl der Klein- oder Edge-Rechenzentren.
Welche Herausforderungen nehmen Sie derzeit in der Branche wahr und wie können diese bewältigt werden?
Da sind erstens neue Vorgaben wie NIS2 und CSRD. Für die IT- und RZ-Branche stehen damit Riesenherausforderungen vor der Tür: Zum einen muss das Cybersicherheitsniveau in Europa dringend erhöht werden, zum anderen werden Unternehmen nun in die Pflicht genommen, über ihre Produktionsprozesse und Lieferketten Rechenschaft abzulegen und im Falle von Mängeln – sowohl in Bezug auf deren Nachhaltigkeit als auch auf die soziale Verantwortung der Unternehmen – aktiv gegenzusteuern.
Allein den Scope 3 der internen IT zu berechnen, ist aber alles andere als trivial. Bei den Daten über anderweitig untergebrachtes Equipment, etwa Webserver, Backup- und Sekundär-Systeme sowie über sämtliche genutzte Cloud-Dienstleistungen sind die Unternehmen dann auch auf die Hoster, Colocators und Cloud-Dienstleister angewiesen. Gerade den kleineren unter ihnen ist häufig nicht bewusst, dass die CSR-Direktive sie auch betrifft. Doch auch sie müssen ihren – rechenschaftspflichtigen – Kund:innen die ESG-Daten für ihre Dienstleistungen liefern. Übrigens gilt Gleiches für NIS2, auch diese Regulierung trifft viele Rechenzentren und Internetdienstleister indirekt als Teil der Lieferkette.
Unternehmen sollten die Chancen wahrnehmen und nutzen, die mit einer frühen und durchdachten Umsetzung der Richtlinien und einem aufrichtigen Engagement verbunden sind, etwa der nicht zu unterschätzende Wettbewerbsvorteil, der sich daraus ergibt – und zwar nicht nur für die direkt von den Vorgaben betroffenen Unternehmen, sondern auch und vor allem für die IT- und RZ-Dienstleister.
Auch der Einzug von KI in die Unternehmens-IT stellt Infrastrukturbetreiber, aber auch die IT-Abteilungen, die KI-Ressourcen bereitstellen und betreiben, vor ganz neue Herausforderungen. KI-Anwendungen fordern Server, Storage und Netz in anderer Weise, als es die klassischen Business-Anwendungen tun. KI kongruiert eher mit HPC, dem High-Performance Computing. Hier gilt: GPU- statt CPU-Power, ein hoher, parallelisierter Datendurchsatz mit niedriger Latenz und im Netz Ost-West- statt Nord-Süd-Traffic. Das Nutzen von KI-Ressourcen aus der Cloud oder Verschieben dorthin wird sicherlich auch die Anforderungen an die Infrastruktur des Internets ebenso verändern, wie es das Cloud-Computing selbst bereits getan hat.
Wie werden sich innovative Technologien wie KI und Quantencomputing auf den Sektor auswirken? Was ist ihre persönliche Prognose für die Branche?
Ich denke, dass das Quantencomputing die binären Computer in diesem Jahrhundert ergänzen, aber sicher nicht ersetzen wird. Derzeit befindet sich das Quantencomputing in der Noisy-Intermediate-Scale-Quantum-Ära oder NISQ-Ära. Noch fehlt es an ausreichend Qubits und Ressourcen zur Fehlerkorrektur. Selbst in der nächsten Phase des Quantencomputing, dem Fault-tolerant Quantum Computing oder FTQC, wird es sich nur für bestimmte Anwendungen eignen: Berechnungen zur Optimierung von Abläufen etwa oder Kombinationsaufgaben beispielsweise in der Pharmazie oder Materialentwicklung.
Erste tatsächliche QC-Anwendungen nutzen die Unvorhersehbarkeit der Ergebnisse, bei der eine Fehlerkorrektur keine Rolle spielt, etwa zum Generieren nicht vorhersehbarer Zufallszahlen. Denn genau das können binäre Computer als deterministische Systeme halt nicht. Oft nutzen sie deshalb die menschliche Komponente, etwa das Tippverhalten des Anwenders, um aus der auf Millisekunden-Ebene niemals wirklich regelmäßigen Frequenz Zufallszahlen zu generieren. Dafür können binäre Systeme andere Aufgaben viel besser erledigen als Quantensysteme.
Und die manchmal umgehende Angst davor, dass Quantencomputer in Windeseile alle digitalen Schlüssel knacken und wir ohne eine geeignete Verschlüsselung dastehen, ist aus meiner Sicht völlig unbegründet. Das NIST ist mit seinem Ausschreibungsverfahren zur quantensicheren Verschlüsselung und Authentifizierung, das bereits mehrere Jahre läuft, sehr früh und sehr weit. Mehrere gute Verfahren haben es in die finale Runde geschafft, die jetzt noch näher untersucht werden. Dabei ist ein Quantencomputer mit den Fähigkeiten, auch nur die heute gängigen Schlüssel zu knacken, noch gar nicht in Sicht.
Insgesamt denke ich, wird sich die Branche selbst treu bleiben mit ihren Hypes und Drops sowie ihrer Fähigkeit, auf Chancen und Anforderungen zu reagieren und sich anzupassen.
Vielen Dank für das Interview, Frau Nolte!