Effiziente KI-Analysen am Edge: Reduzierte Latenz und Stromverbrauch

0

Im Rahmen der IOWN-Initiative haben NTT und Red Hat in Zusammenarbeit mit NVIDIA und Fujitsu eine innovative Lösung entwickelt, die Echtzeit-Datenanalysen mit Künstlicher Intelligenz am Edge revolutioniert. Unternehmen können von den zahlreichen Vorteilen dieser Lösung profitieren, darunter eine effiziente Verarbeitung großer Datenmengen, geringere Latenzzeiten und reduzierter Stromverbrauch. Diese wegweisende Lösung wurde als Proof of Concept anerkannt und eröffnet neue Möglichkeiten für Wachstum und Innovation.

Komplexe Implementierung von KI-Analysen am Edge vereinfacht

In einer zunehmend vernetzten Welt gewinnen KI-Analysen am Edge an Bedeutung. Die stetig wachsende Anzahl von Datenquellen erfordert eine effiziente Verarbeitung, um wertvolle Erkenntnisse zu gewinnen. Die Implementierung solcher Analysen kann jedoch komplex sein und hohe Wartungskosten mit sich bringen. Durch den Einsatz von Edge-Computing-Technologien können die KI-Analysen näher an den Sensoren durchgeführt werden, was zu einer Verringerung der Latenz und einer Erhöhung der Bandbreite führt. Dies ermöglicht eine effiziente und schnelle Datenverarbeitung.

Die Lösung basiert auf dem IOWN All-Photonics Network (APN) und umfasst Technologien, die die Datenpipeline in der IOWN Data-Centric Infrastructure (DCI) beschleunigen. NTT verwendet eine beschleunigte Datenpipeline, die Remote Direct Memory Access (RDMA) über APN nutzt, um große Mengen an Sensordaten effizient zu sammeln und zu verarbeiten. Durch die Verwendung von Red Hat OpenShift, einer Container-Orchestrierungstechnologie, können Workloads in der beschleunigten Datenpipeline über entfernte und geografisch verteilte Rechenzentren hinweg flexibel verwaltet werden. Die Lösung ermöglicht eine effektive Stromnutzung und niedrige Latenz für Echtzeitanalysen mit KI am Edge.

Im Zuge des Proof of Concept wurde die Echtzeit-KI-Analyse-Plattform in Yokosuka City mit Sensoren als Basis und dem entfernten Rechenzentrum in Musashino City evaluiert. Dabei konnte die Latenz bei KI-Inferencing-Workloads im Vergleich zu herkömmlichen Methoden um 60 Prozent reduziert werden. Zusätzlich wurde der Stromverbrauch der KI-Analysen im Vergleich zu traditionellen Technologien um 40 Prozent gesenkt. Dank der Skalierbarkeit der GPUs kann die Lösung eine größere Anzahl von Kameras unterstützen, ohne dass die Leistung der CPU beeinträchtigt wird. Man geht davon aus, dass der Stromverbrauch bei Verwendung von 1.000 Kameras um weitere 60 Prozent reduziert werden kann.

Beschleunigte Datenpipeline ermöglicht effizientes KI-Inferencing und reduziert Netzwerkoverhead

  • Die Datenpipeline beschleunigt das KI-Inferencing und gewährleistet eine effiziente Verarbeitung von Sensordaten
  • Durch Red Hat OpenShift können umfangreiche KI-Datenanalysen in Echtzeit durchgeführt werden, wodurch die Einführung von Hardware-basierten Beschleunigern erleichtert wird
  • NVIDIA A100 Tensor Core GPUs und NVIDIA ConnectX-6 NICs werden eingesetzt, um KI-Inferencing durchzuführen

Große Datenmengen effizient sammeln: Overhead reduziert

  • Mithilfe dieser Lösung kann der Overhead bei der Sammlung großer Datenmengen effektiv minimiert werden
  • Die Möglichkeit der Datensammlung über mehrere Standorte hinweg ermöglicht Unternehmen schnellere KI-Analysen
  • Durch die Einbindung von erneuerbaren Energien wie Solar- oder Windenergie wird der ökologische Fußabdruck reduziert
  • Das Gebietsmanagement wird durch den Einsatz von Videokameras als Sensoren sicherer

Durch die Zusammenarbeit von NTT und Red Hat im Rahmen der IOWN-Initiative wurde eine wegweisende Lösung entwickelt, die Unternehmen dabei unterstützt, ihre KI-gestützten Technologien auf nachhaltige Weise zu skalieren. Mit dieser Lösung können große Datenmengen effizient verarbeitet werden, während die Latenz und der Stromverbrauch reduziert werden. Die flexible Verwaltung von Workloads über verschiedene Standorte hinweg ermöglicht es Unternehmen, ihre Effizienz zu steigern. Weitere Informationen zu dieser Lösung sind in der Session des IOWN Global Forum auf dem MWC in Barcelona am 29. Februar 2024 verfügbar.

Flexibles Edge Computing: Lösung bietet Verwaltung von Workloads über Standorte hinweg

Dank der Entwicklung dieser Lösung für Echtzeit-Datenanalysen mit KI am Edge können Unternehmen große Datenmengen effizient verarbeiten und gleichzeitig die Latenz und den Stromverbrauch reduzieren. Dies führt zu schnelleren und kostengünstigeren KI-Analysen. Darüber hinaus bietet die Lösung Flexibilität bei der Verwaltung von Workloads über verschiedene Standorte hinweg und ermöglicht die Nutzung erneuerbarer Energien. Unternehmen können somit ihre Effizienz steigern und neue Chancen für Wachstum und Innovation erschließen.

Lassen Sie eine Antwort hier