• KI-Anforderungen an Data Storage Plattformen und Netzwerke
    Nov 25 2025

    Im Schnittpunkt zwischen KI und modernen Anwendungen stehen die Daten. Wo liegen potentielle IT-Infrastruktur-Engpässe und wie kann man sie vermeiden? Überblick zu Storageanforderungen inklusive Update zur NVIDIA Spectrum-X Ethernet Platform…

    Hintergrund

    KI-Applikationen und deren Entwicklung stellt andere Anforderungen an die Speicherinfrastruktur als klassische transaktionsorientierte Enterprise-Workloads. Aus KI-Sicht soll eine hohe "Ingest"-Bandbreite für Zugriffsmuster von kleinen bis großen Files zur Verfügung stehen.

    Bei vielen und sehr großen Datensätzen ergeben sich verschiedene Herausforderungen in Bezug auf den „richtigen“ Storage, d.h. Protokolle, Filesysteme, Server-Technologien, disaggregierte Architekturen vs. Hyperconverged sowie den geeigneten Netzwerkkomponenten.

    NVIDIA hat seine Spectrum-X-Netzwerkplattform funktional auf die Datenspeicher-Struktur und damit das entstehende Storage-Ökosystem ausgeweitet. Spectrum-X führte dazu Neuerungen ein, die von InfiniBand übernommen wurden.

    Anbieter wie DDN, Dell Technologies, Hewlett Packard Enterprise, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, VAST Data und WEKA arbeiten mit NVIDIA hier verstärkt zusammen.

    Fazit

    Bei KI ist es wichtig, die Speicherarchitektur stets im Auge zu behalten und wo nötig, gezielt zu modernisieren. Organisationen sind dann in der Lage, das Potenzial und die damit verbundenen Vorteile und Versprechen für die Anwendungsebene schneller auszuschöpfen.

    Weitere Details dazu finden Sie auch unter www.storageconsortium.de unter den Stichworten KI und Storage...

    Más Menos
    7 m
  • Hinweise zum Aufbau einer Cyber-resistenten Unternehmens-Speicherinfrastruktur
    Sep 2 2025

    Die Speicher- und Dateninfrastruktur im Unternehmen steht weiter im Fokus. Für mehr Resilienz und Datenschutz reichen Snapshots alleine nicht aus…

    Um was geht es in dieser Episode?

    Während Themen wie GenAI oder Quantum Computing gerade viel Aufmerksamkeit erhalten, drückt IT- und Anwenderseitig in der Praxis meist an anderer Stelle der Schuh.

    Denn Cyberangriffe nehmen an Raffinesse und Umfang immer weiter zu und beschäftigen damit die ohnehin angespannte Personallage vieler Rechenzentren und Unternehmen.

    Um die ständigen Angriffe abzuwehren ist es unumgänglich, die Widerstandsfähigkeit - sprich Ausfallsicherheit, Problemerkennung und rasche Wiederherstellungsfähigkeit - von kritischen Speicherumgebungen weiter zu erhöhen.

    Vereinfacht gesagt müssen die Systeme nach einem Angriff so schnell wie möglich wieder arbeiten können und die Sicherheit der im Betrieb gespeicherten kritischen Daten gewährleistet sein. Angriffe auf Storage-Produktivumgebungen sind pro-aktiv im Vorfeld bereits zu verhindern.

    Dafür stehen eine Reihe von modernen KI-gestützten Technologien zur Verfügung, die konsequent eingesetzt werden sollten (Stichwort: IT-Infrastruktur-Modernisierung).

    Grundsätze zum Aufbau einer Cyber-resistenten Enterprise Storage Infrastruktur:

    Damit kritische Daten vor dem Ablauf ihres Lifecyles nicht kompromittiert werden, ist ein pro-aktiver Ansatz zur Widerstandsfähigkeit gegen Angriffe notwendig.

    Verantwortliche sind gut beraten, dazu mehrere Schutzmaßnahmen zu kombinieren, um Angriffe sowie Penetrationen möglichst frühzeitig zu erkennen und die Systeme und Daten bei Bedarf schnell wiederherstellen zu können.

    Aus Storage- und Data Management-Sicht haben sich folgende Technologien sowie Verfahren bewährt:

    Diesen Beitrag als Podcast hören...

    Más Menos
    5 m
  • Wenn traditionelle Speicher datenintensive und KI-bezogene Anwendungen ausbremsen
    Aug 28 2025

    Künstliche Intelligenz, Container und Edge-Computing sind für die IT-Infrastruktur potentiell eine Herausforderung...

    Um was geht es in dieser Episode?

    Wenn Rechenleistung und Datenkapazitäten wachsen, ist eine Speicherinfrastruktur gefordert, die damit flexibel Schritt halten kann. Auch die leistungsfähigsten Compute-Ressourcen werden nur so schnell arbeiten, wie sie auf die gespeicherten Daten zugreifen können.

    Ein skalierbarer, softwaredefinierte Speicher im KI-Umfeld ist ein aktives Element zur Beschleunigung von datenintensiven Workloads. Traditionelle Speicherlösungen können hingegen verschiedene Engpässe erzeugen, die anspruchsvolle datenbezogene Anwendungen ausbremsen.

    Wichtig ist die Fähigkeit, Rechen- und Speicherkapazität unabhängig voneinander zu skalieren. Auch sollte die starre Abhängigkeit von einem Hypervisor-System vermieden werden.

    Auf Storage- und Data Management-Ebene sind dabei die folgende Aspekte kritisch zu beachten...

    Más Menos
    9 m
  • IT-Infrastruktur-Anforderungen für Unternehmen bei Planung und Implementierung von KI-Projekten
    Jun 12 2025

    In unserem Experten-Podcast #172 bei HPE und CANCOM nachgefragt:

    "Wie können Betriebe die Möglichkeiten von KI-Technologien im Unternehmensmaßstab nutzen, ohne dabei die Kontrolle über ihre Daten- und IT-Infrastruktur zu verlieren"

    Zum Inhalt

    Wenn Unternehmen mit der Planung und Implementierung von KI-Projekten befasst sind, müssen Sie IT-Infrastrukturseitig eine Reihe spezifischer Herausforderungen bewältigen, die vermehrt Hybride- oder Private Cloud-Lösungen betreffen. Weitere Fragestellungen in diesem Zusammenhang können sein:

    • Welche KI-Modelle sind im Zuge der dynamischen KI-Entwicklungen am Markt für meinen Betrieb sinnvoll?

    • Wie lassen sich Pilotprojekte ohne große Hindernisse in Produktionsumgebungen überführen?

    • Wie ist mit geschützten Daten umzugehen (Compliance)?

    • Wie schaffe ich eine möglichst robuste und einheitliche Datenverwaltung?

    • Ist mein Storage KI-geeignet?

    Eva Dölle, AI Consultant im Competence Center Cloud & Datacenter des IT-Dienstleisters CANCOM (IT, Services) und Dirk Derichsweiler, Field CTO & Distinguished Technologist bei HP Enterprise (HPE), werden in dieser Podcastfolge für Sie auch aus Praxissicht auf diese Punkte detaillierter eingehen.

    Moderation und Fragen: Norbert Deuschle, Storage Consortium.

    Mit welchen unternehmerischen Herausforderungen sind Kunden derzeit primär im Zusammenhang mit KI-Projekten konfrontiert?

    Sind Hybride- oder Private Cloud-Lösungen gegenüber reinen Public Cloud-Implementierungen zu bevorzugen? Beispiel: HPE Private Cloud for AI, PCAI.

    Wie lassen sich bei der Skalierung von KI-Implementierungen (in Reaktion auf wachsende Geschäftsanforderungen und dynamische Entwicklungen) Kosten und Ausgaben aus Projektsicht möglichst effektiv planen und kontrollieren?

    Sowohl die IT bei Modellentwicklung (Training) als auch Fachabteilungen (Inferenz-Thematik) dürfen beim KI-Einsatz nicht mit einer überdimensionierten Infrastruktur (teuer) und unnötiger technischer Komplexität belastet werden...

    Welche Ansätze bieten sich in der Praxis an? Wie können spezialisierte IT- und Services-Anbieter wie CANCOM effektiv unterstützen?

    Agentic AI ist weltweit im Vormarsch. Wie sollten sich Verantwortliche aus Projektsicht darauf einstellen?

    Fazit

    Um KI-Anwendungsfälle zu identifizieren, die eine wahrnehmbare Wertschöpfung und damit Return-on-invest liefern, werden fundierte Kenntnisse der Geschäftsanforderungen benötigt. Wichtiger Punkt: Verantwortliche sollten den Bedarf an Rechenleistung und Speicherplatz mit allen finanziellen Auswirkungen sorgfältig abwägen und sicherstellen, dass KI-Implementierungen bei einer Skalierung leistungs- und kosteneffizient bleiben.

    Die richtige Auswahl sowie Optimierung des Technologie-Stacks wie Storage, Server, Netzwerk und Data Management, ist für moderne KI-Anwendungen entscheidend für den geschäftlichen Nutzen und damit Projekterfolg.

    Dazu gilt es, die jeweils verwendeten Technologien im gesamten KI-Stack sorgfältig aufeinander abzustimmen und entsprechend anzupassen.

    Más Menos
    28 m
  • Backup-Verfahren als Teil einer umfassenden Datenschutzstrategie gegen Cyberangriffe
    Apr 24 2025

    Um was geht es in dieser Podcast-Episode?

    Die Datensicherung (Backup-Restore) kann alleine weder monetäre Verluste durch Ausfallzeiten noch Reputationsverluste ungeschehen machen, bildet jedoch für viele Betriebe eine zentrale Säule und Schutzmaßnahme gegen Cyberangriffe.

    Allerdings können Backups gegen Ransomware & Co. bei erfolgreichen Angriffen oftmals nur begrenzt erfolgreich sein. Welche Gründe dafür verantwortlich sind und weshalb sie „nur“ ein Teil einer breiter angelegten Datenschutzstrategie sind, erfahren Sie in dieser aktuellen Podcast-Folge...

    Más Menos
    7 m
  • Zur Bedeutung einer leistungsfähigen Speicherinfrastruktur für KI-Entwicklung und Betrieb
    Mar 19 2025

    Wie KI- und datenintensive Anwendungen von scale-out Filesystemen, Flash Storage und einem intelligenten Datenmanagement profitieren können...

    Parallele scale-out File Systeme, sequentielle I/O-Muster, effizientes Metadaten-Management und leistungsfähige Protokolle-/Technologien wie NVMe over Fabrics können dabei helfen, neben der KI-Leistung auch die Lebensdauer von NAND-Flash-Speichersystemen zu erhöhen.

    Más Menos
    12 m
  • Virtualisierungs- oder Containertechnologien? Positionierung und gängige Einsatzszenarien
    Jan 28 2025

    Um was geht es in dieser Podcast-Episode?

    Der Einsatz von Containerlösungen im Vergleich zur herkömmlichen Virtualisierung bietet für verschiedene Applikationsszenarien direkte Vorteile. Mit Cloud-nativen Architekturen wird es möglich, skalierbare Anwendungen für öffentliche, private- oder hybriden Umgebungen zu erstellen und auszuführen.

    Es entstehen lose gekoppelte Systeme, die sowohl flexibel und stabil als auch zentral verwaltbar sind. In Kombination mit einer robusten Automatisierung lassen sich zudem mit minimalem Aufwand im laufenden Betrieb Änderungen vorzunehmen.

    Die klassische Virtualisierung hingegen ist weiterhin für viele (Legacy-)Anwendungen gesetzt, insbesondere, wenn branchenspezifische Sicherheitsanforderungen mit Szenarien, die eine vollständige Betriebssystemisolation erforderlich machen, beachtet werden sollten.

    Das CSI (Container Storage Interface), wie es in Orchestrierungs-Lösungen wie Kubernetes zu finden ist, wird sowohl von physischen als auch von softwaredefinierten Lösungen verschiedener Anbieter im Bereich Enterprise Storage unterstützt. Ferner sind Software-Definierte Plattformen (vermehrt open-source) mit Unterstützung von File-, Block- und Objectstorage in diesem Umfeld gut positioniert..

    Más Menos
    8 m
  • Storage und HBM Memory im KI-Daten-Lebenszyklus
    Jan 8 2025
    Im Schnittpunkt zwischen künstlicher Intelligenz und leistungshungrigen Anwendungen stehen immer mehr Daten, während potentielle Infrastruktur-Engpässe bei der Verarbeitung auf der Netzwerk-, Server- und Speicherseite auftreten können. Beim Einsatz und Betrieb von KI-Projekten hat sich die Nachfrage nach geeignetem Arbeitsspeicher und Storagekapazitäten für die Unterstützung von Trainingssätzen und Inferenz-Engines erhöht. Vermehrt steht zudem die Verarbeitung aller Arten von Daten, einschließlich Text und Bilder sowie Audio- und Videoinhalte im Mittelpunkt und die Speicherung semi- und unstrukturierter Daten spielt dabei eine zentrale Rolle im gesamten KI-Lebenszyklus. Auf der Speicherebene hat GDDR5 inzwischen Schwierigkeiten, mit dem GPU-Leistungswachstum mitzuhalten, besonders in Bezug auf Kriterien wie Strom-/Energieverbrauch, Integration und Packungsdichte der verschiedenen eingesetzten Komponenten. High-Bandwidth-Memory HBM Produkte versprechen hier Leistungsvorteile... Diese und weitere Aspekte zu dem komplexen Themenkreis "Storage, Datenverwaltung und KI" werden in dieser Podcast-Episode kurz angerissen. Weitere Information dazu finden Sie auch unter www.storageconsortium.de
    Más Menos
    6 m