banner
Nachrichtenzentrum
Wir bieten einen 24/7-Online-Service, um Sie zu unterstützen.

Nvidia stellt bei SIGGRAPH neue KI, Omniverse-Tools und Hardware vor

Aug 08, 2023

Wylie Wong | 08. August 2023

Nvidia hat heute neue Hardware, Software und Dienste vorgestellt, um es Unternehmen schneller und einfacher zu machen, generative KI, Omniverse und andere KI-Projekte zu verfolgen.

Jensen Huang, CEO von Nvidia, sprach heute auf der Computergrafikkonferenz SIGGRAPH 2023 in Los Angeles und kündigte eine Reihe neuer Technologien an, darunter viele für Unternehmen und Rechenzentrumsbetreiber.

Was die Hardware betrifft, kündigte er an, dass Dell, Hewlett Packard Enterprise, Lenovo, Supermicro und andere bald neue Nvidia OVX-Server ausliefern werden, die mit der L40S-GPU von Nvidia ausgestattet sind, einem neuen Rechenzentrumsprozessor, der das KI-Training und die Inferenz sowie das 3D-Design und die Visualisierung beschleunigen soll , Videoverarbeitung und Omniverse-Anwendungen.

Nvidia gab heute außerdem eine Partnerschaft mit dem KI-Startup Hugging Face bekannt, um einen neuen Cloud-Dienst bereitzustellen, der es Unternehmen ermöglicht, die Hugging Face-Plattform zum Trainieren und Optimieren benutzerdefinierter generativer KI-Modelle zu nutzen. Der neue Dienst mit dem Namen Training Cluster As a Service wird in den kommenden Monaten in der Nvidia DGX Cloud, dem KI-Supercomputer-Cloud-Dienst von Nvidia, verfügbar sein.

Laut Huang können Organisationen die 275.000 Modelle und 50.000 Datensätze nutzen, die in der Hugging Face-Community geteilt wurden.

„Wählen Sie im Hugging Face-Portal Ihr Modell aus, das Sie trainieren möchten, oder [wenn] Sie ein brandneues Modell trainieren möchten, verbinden Sie sich zum Training mit DGX Cloud“, sagte Huang in seiner Grundsatzrede. „Das wird also ein brandneuer Dienst sein, der die weltweit größte KI-Community mit der weltweit besten KI-Trainingsinfrastruktur verbindet.“

Um die KI-Bereitstellung zu optimieren, hat Nvidia seine AI Enterprise-Software-Suite mit neuen Funktionen aktualisiert, darunter Nvidia NeMo zum Erstellen, Anpassen und Bereitstellen generativer KI-Modelle.

Das Unternehmen hat außerdem seine Nvidia Omniverse-Softwareplattform mit Verbesserungen aktualisiert, die die Erstellung virtueller Welten beschleunigen und es Unternehmen ermöglichen, größere, komplexere Simulationen wie digitale Zwillinge von Fabriken oder Lagerhäusern zu erstellen.

Um die Einführung generativer KI weiter zu vereinfachen, kündigte Nvidia außerdem Nvidia AI Workbench an, ein einheitliches Tool, mit dem Unternehmen generative KI-Modelle auf GPU-basierten Workstations erstellen, testen und bereitstellen können. Wenn dann mehr Kapazität benötigt wird, können sie mit demselben Tool die KI-Modelle migrieren und auf jedes Rechenzentrum, jede öffentliche Cloud oder die Nvidia DGX Cloud skalieren, so Nvidia-Führungskräfte.

„Es hilft Ihnen beim Einrichten der Bibliotheken und Laufzeiten, die Sie benötigen. Sie können das Modell verfeinern“, sagte Huang in seiner Rede. „Wenn Sie dieses Projekt migrieren möchten, damit alle Ihre Kollegen es verwenden und andere Modelle optimieren können, können Sie ihm einfach mitteilen, wohin Sie es migrieren möchten, und mit einem Klick migrieren Sie die gesamte Abhängigkeit von.“ das Projekt, alle Laufzeiten und Bibliotheken, alle Komplexitäten. Und es läuft auf Workstations und im Rechenzentrum. Es läuft in der Cloud – ein einziger Codekörper.“

Huang nahm sich die Zeit, seine Sicht auf die Auswirkungen der generativen KI darzulegen.

„Was bedeutet generative KI? Warum ist das eine so große Sache? Warum verändert sie alles? Der Grund dafür ist erstens, dass der Mensch die neue Programmiersprache ist. Wir haben die Informatik demokratisiert“, sagte er. „Jeder kann jetzt Programmierer sein, weil die menschliche Sprache, die natürliche Sprache, die beste Programmiersprache ist. Und das ist der Grund, warum ChatGPT so beliebt ist.“

Er sagte, das Large Language Model (LLM) sei eine neue Computerplattform und generative KI sei die neue Killer-App.

„Zum allerersten Mal nach etwa 15 Jahren ist eine neue Computerplattform entstanden. Wie der PC, wie das Internet, wie mobiles Cloud Computing ist eine neue Computerplattform entstanden“, sagte Huang. „Und diese neue Computerplattform wird alle möglichen neuen Anwendungen ermöglichen, aber ganz anders als die Vergangenheit. Diese neue Computerplattform kommt allen Computerplattformen davor zugute.“

Zeus Kerravala, Gründer und Chefanalyst von ZK Research, sagte, die große Erkenntnis aus den heutigen Ankündigungen von Nvidia sei, dass sie die Bereitstellung von KI – insbesondere generativer KI – einfacher machen.

„Es ist Nvidias Fähigkeit, die Nutzung ihrer Technologie durch eine Kombination aus Silizium, Software und Partnerschaften zu vereinfachen“, sagte Kerravala. „Sie haben das Konzept eines technischen Systems perfektioniert, das es Unternehmen und Entwicklern so einfach macht, sofort loszulegen, weil alles sozusagen vorgefertigt ist. Das sehen wir heute in vielen ihrer Ankündigungen: der Partnerschaft mit Hugging.“ Face und die AI Workbench. Kunden erhalten eine schnellere Wertschöpfung.“

Die neuen Nvidia OVX-Server, die ab Herbst von Hardwareanbietern ausgeliefert werden, richten sich nach Angaben des Unternehmens an Unternehmen und Cloud-Dienstleister, die KI- oder Omniverse-Workloads ausführen möchten.

Die OVX-Systeme unterstützen bis zu acht Nvidia L40S-GPUs pro Server. Die neue GPU, die Tensorkerne der vierten Generation und eine FP8 Transformer Engine umfasst, liefert mehr als 1,45 Petaflops Tensor-Rechenleistung.

Die neue L40S-GPU bietet im Vergleich zur Nvidia A100 Tensor Core GPU eine 1,2-mal höhere generative KI-Inferenzleistung und eine 1,7-mal höhere Trainingsleistung, so das Unternehmen.

„Der L40S ist eine wirklich hervorragende GPU für die Feinabstimmung gängiger großer Sprachmodelle im Unternehmensmaßstab“, sagte Huang.

Nvidia hat heute außerdem drei neue RTX-Workstations angekündigt, die jeweils mit bis zu vier Nvidia RTX 6000 Ada Generation GPUs ausgestattet sind. Die RTX 5000-, RTX 4500- und RTX 4000-Workstations, die mit der Nvidia AI Enterprise- oder Nvidia Omniverse-Software konfiguriert werden können, können bis zu 5.828 TFLOPS KI-Leistung und 192 GB GPU-Speicher bereitstellen. Laut Nvidia werden Dell, HP, Lenovo und BOXX Technologies voraussichtlich im Herbst mit der Veröffentlichung der Systeme beginnen.

Nvidia AI Enterpriseist eine Software-Suite aus KI-Tools, Frameworks und vorab trainierten Modellen, die Unternehmen die Entwicklung und Bereitstellung von KI-Workloads erleichtern soll.

Die neue Version – AI Enterprise 4.0 – bietet neue Funktionen, darunter Nvidia NeMo für generative KI, Nvidia Triton Management Service zur Automatisierung und Optimierung von Produktionsbereitstellungen sowie Nvidia Base Command Manager Essentials, eine Cluster-Management-Software, die Unternehmen dabei hilft, die Leistung und Nutzung von KI-Servern zu maximieren in Rechenzentren und hybriden Multicloud-Umgebungen.

Die Nvidia Omniverse-Plattform wird von Industrieunternehmen zum Aufbau und zur Erstellung von Metaverse-Anwendungen oder virtuellen 3D-Simulationen, beispielsweise digitalen Zwillingen, verwendet.

Nvidia hat Omniverse neue Plattform-Updates hinzugefügt, darunter neue Entwicklervorlagen und Ressourcen, die Entwicklern den Einstieg mit minimalem Programmieraufwand ermöglichen. Die neue Version enthält außerdem eine aktualisierte Omniverse Audio2Face-Anwendung, die Zugriff auf generative KI-APIs bietet, die realistische Gesichtsanimationen und Gesten aus einer Audiodatei erstellen, und umfasst jetzt mehrsprachige Unterstützung und ein neues weibliches Basismodell, so das Unternehmen.

Nvidia hat durch die Unterstützung von auch mehr Unterstützung für KI-Tools von Drittanbietern hinzugefügt

Öffnen Sie die universelle Szenenbeschreibung (OpenUSD). Letzte Woche hat Nvidia zusammen mit Pixar, Adobe, Apple, Autodesk und der Joint Development Foundation, die Teil der Linux Foundation-Familie ist, die Alliance of OpenUSD (AOUSD) gegründet, um OpenUSD als Standard zu fördern und die Interoperabilität von 3D-Tools zu ermöglichen und Daten.

„OpenUSD ist visionär und wird das Spiel verändern“, sagte Huang. „OpenUSD wird die Welt auf einem Standard-3D-Austausch zusammenführen und hat die Möglichkeit, für die Welt und für die Berechnung das zu tun, was HTML für das 2D-Web getan hat.“

Nvidia gab heute bekannt, dass KI-Tools von Cesium, Convai, Move AI, SideFX Houdini und Wonder Dynamics dank OpenUSD jetzt mit Omniverse verbunden sind.

Nvidia und Adobe kündigten außerdem Pläne an, Adobe Firefly, Adobes Familie kreativer generativer KI-Modelle, als APIs in Omniverse verfügbar zu machen. Die neue Version von Omniverse ist derzeit in der Beta verfügbar, sagte Nvidia.

Um OpenUSD weiter voranzutreiben, gab das Unternehmen heute bekannt, dass es vier Cloud-APIs entwickelt hat, die Entwicklern bei der Einführung von OpenUSD helfen sollen, darunter Deep Search, ein LLM, das eine schnelle semantische Suche in riesigen Datenbanken mit nicht getaggten Assets ermöglicht.

Anmerkung der Redaktion:Diese Geschichte wurde mit zusätzlichen Zitaten von Nvidia-CEO Jensen Huang während seiner Grundsatzrede aktualisiert.

Weitere Informationen zu Textformaten

Warum generative KI so beliebt istNeue Server und Workstations mit neuer GPUNvidia AI Enterprise 4.0Nvidia Omniverse-UpdateAnmerkung der Redaktion: