4-2024
Fachzeitschrift für Hochfrequenz- und Mikrowellentechnik
Fachzeitschrift für Hochfrequenz- und Mikrowellentechnik
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Aktuelles<br />
Benchmarking-Lösung beschleunigt Einsatz von Infrastruktur für KI<br />
• vereinfacht den Bench marking-<br />
Prozess – bietet eine Validierung<br />
der KI-Netzwerkstruktur<br />
mit vorgefertigten<br />
Benchmark-Anwendungen,<br />
die durch Partner schaften mit<br />
den größten KI-Betreibern und<br />
KI-Infrastrukturanbietern entstanden<br />
sind<br />
• führt definierte KI/ML-Verhaltensmodelle<br />
aus – ermöglicht<br />
den Austausch zwischen<br />
Nutzern und Kunden, um die<br />
Reproduktion von Experimenten<br />
zu unterstützen<br />
Die Keysight AI Data Center<br />
Test Platform bietet Netzwerkingenieuren<br />
die Möglichkeit,<br />
KI-Workloads mit messbarer<br />
Genauigkeit zu emulieren,<br />
indem sie Keysight Hardware<br />
Load Appliances oder Software-Endpunkte<br />
auf echten KI-<br />
Beschleunigern verwenden, um<br />
Benchmarking-Ergebnisse zu<br />
vergleichen. Sie beschleunigt die<br />
Innovation bei der Validierung<br />
und Optimierung von KI-Netzwerkstrukturen.<br />
Die Plattform<br />
verbessert das Bench marking<br />
neuer KI-Infrastrukturen mit<br />
beispielloser Skalierbarkeit<br />
und Effizienz unter Verwendung<br />
mehrerer KI-Test-Engines<br />
erheblich.<br />
Keysight Technologies<br />
www.keysight.com<br />
Hintergrund: Der Einsatz und<br />
die Nutzung von KI nimmt in<br />
allen Industriesegmenten rasant<br />
zu, und der Wettlauf um das<br />
schnelle und effiziente Trainieren<br />
und Bereitstellen neuer<br />
KI-Modelle ist für Unternehmen<br />
von höchster Priorität.<br />
KI/ML-Workloads verarbeiten<br />
riesige Datenmengen, die eine<br />
hohe Netzwerkbandbreite und<br />
Rechenleistung erfordern, um<br />
die Trainingszeit zu verkürzen.<br />
Die Kosten für die Entwicklung<br />
und Validierung umfangreicher<br />
„Was-wäre-wenn“-Szenarien<br />
sind jedoch selbst für die größten<br />
KI-Betreiber unerschwinglich.<br />
Um diese Herausforderung zu<br />
meistern und das Design und<br />
Testen von KI/ML-Infrastrukturen<br />
zu beschleunigen, bietet<br />
die Keysight AI Data Center Test<br />
Platform hochgradig abstimmbare<br />
KI-Workload-Emulation,<br />
vorgefertigte Benchmarking-<br />
Apps und Tools zur Datensatzanalyse,<br />
um die Leistung der KI/<br />
ML-Cluster-Netzwerkstruktur<br />
deutlich zu verbessern.<br />
Um das KI/ML-Netzwerkdesign<br />
zu beschleunigen, bietet die Keysight<br />
Lösung für Rechenzentren:<br />
• emuliert KI-Workloads im<br />
großen Maßstab mit messbarer<br />
Genauigkeit – bietet tiefe Einblicke<br />
in die kollektive Kommunikationsleistung<br />
• bietet eine Auswahl an Test-<br />
Engines – Auswahl zwischen<br />
KI-Workload-Emulation auf<br />
Keysight Hardware Load<br />
Appliances und Software-<br />
Endpunkten auf realen KI-<br />
Beschleunigern zum Vergleich<br />
der Benchmarking-Ergebnisse.<br />
Die Keysight-Plattform ermöglicht<br />
die Validierung und<br />
das Experimentieren mit dem<br />
Fabric-Design in großem Maßstab<br />
auf realistische und kosteneffektive<br />
Weise. Diese Lösung<br />
ergänzt das Testen von KI/ML-<br />
Workloads mit GPUs und bietet<br />
KI- Betreibern eine skalierbare,<br />
robuste und integrierte KI-Testplattform.<br />
800GE ist ein entscheidender<br />
Treiber für das KI/ML-Wachstum,<br />
da diese Technologie<br />
die schnellste Zunahme aller<br />
Portgeschwindigkeiten in der<br />
Geschichte von Rechen zentren<br />
haben wird. Das KI/ML-Bandbreitenwachstum<br />
wird bis zum<br />
Ende des Jahrzehnts um über<br />
100% pro Jahr zunehmen. Es<br />
ist erwiesen, dass ein Hoch-<br />
geschwindigkeits-Ethernet-<br />
Netzwerk die wirtschaftliche<br />
Skalierung und Leistung bietet,<br />
die erforderlich ist, um die Zeit<br />
für die Verarbeitung von KI/ML-<br />
Workloads zu reduzieren und<br />
gleichzeitig offene Standards<br />
einzuhalten. ◄<br />
12 hf-praxis 4/<strong>2024</strong>