KR9298-E3 – AI-Server mit 8x AMD Instinct™ MI350X GPUs
NEU
Der KR9298-E3 AI-Server ist eine heterogene Hochleistungs-Computing-Plattform für Large Language Model (LLM)-Inferenz, AI-Cloud-Dienste und skalierbare HPC-Workloads.
Mit Dual-Socket SP5 AMD EPYC™ 9005 Prozessoren (bis zu 500W je CPU, luftgekühlt) und 8x AMD Instinct™ MI350X GPUs bietet der KR9298-E3 höchste Rechendichte, 2TB HBM3e GPU-Speicher und eine branchenführende Speicherbandbreite von 48 TB/s. Dies garantiert ultraschnelles Training, Inferenz und hochparallele Datenverarbeitung für anspruchsvolle AI-Workloads.
AI & LLM-Inferenz: Optimiert für GPT-Modelle, Generative AI und multimodale KI
Cloud-Computing-Services: Skalierbare Multi-Tenant AI- und HPC-Cluster
High-Performance Computing (HPC): Wissenschaftliche Forschung, Simulationen, Ingenieur-Workloads
Datenintensive Workloads: Echtzeitanalysen und GPU-beschleunigte Big-Data-Verarbeitung
Der KR9298-E3 bietet Enterprise-Zuverlässigkeit, maximale Skalierbarkeit und höchste Leistungsdichte – die optimale Lösung für AI-Rechenzentren und moderne HPC-Infrastrukturen.
Preis auf Anfrage – tägliche Aktualisierung. Bitte Verfügbarkeit vor Bestellung prüfen.
Leider sind noch keine Bewertungen vorhanden. Seien Sie der Erste, der das Produkt bewertet.
{{.}}
{{/content}}{{{.}}}
{{/content}}