Nvidias AI Workbench bringt Modell in Ordnung
HeimHeim > Blog > Nvidias AI Workbench bringt Modell in Ordnung

Nvidias AI Workbench bringt Modell in Ordnung

Aug 05, 2023

Pünktlich zur SIGGRAPH, der jährlichen akademischen KI-Konferenz, kündigte Nvidia heute Morgen eine neue Plattform an, mit der Benutzer generative KI-Modelle auf einem PC oder einer Workstation erstellen, testen und anpassen können, bevor sie sie in einem Rechenzentrum und einer öffentlichen Cloud skalieren.

„Um diese Fähigkeit zu demokratisieren, müssen wir es ermöglichen, praktisch überall zu laufen“, sagte Nvidia-Gründer und CEO Jensen Huang während einer Keynote auf der Veranstaltung.

Auf den als AI Workbench bezeichneten Dienst kann über eine einfache Schnittstelle zugegriffen werden, die auf einer lokalen Workstation ausgeführt wird. Damit können Entwickler Modelle aus beliebten Repositories wie Hugging Face und GitHub mithilfe proprietärer Daten verfeinern und testen und bei Bedarf auf Cloud-Computing-Ressourcen zugreifen.

Manuvir Das, VP of Enterprise Computing bei Nvidia, sagt, dass der Anstoß für AI Workbench die Herausforderung – und der zeitaufwändige Charakter – der Anpassung großer KI-Modelle war. Bei KI-Projekten im Unternehmensmaßstab kann es erforderlich sein, mehrere Repositories nach dem richtigen Framework und den richtigen Tools zu durchsuchen. Dieser Prozess wird noch komplizierter, wenn Projekte von einer Infrastruktur in eine andere verschoben werden müssen.

Sicherlich ist die Erfolgsquote bei der Einführung von Unternehmensmodellen in die Produktion gering. Laut einer Umfrage von KDnuggets, der Plattform für Datenwissenschaft und Geschäftsanalysen, gab die Mehrheit der antwortenden Datenwissenschaftler an, dass 80 % oder mehr ihrer Projekte ins Stocken geraten, bevor ein Modell für maschinelles Lernen bereitgestellt wird. Einer separaten Schätzung von Gartner zufolge scheitern fast 85 % der Big-Data-Projekte, teilweise aufgrund von infrastrukturellen Hindernissen.

„Unternehmen auf der ganzen Welt kämpfen darum, die richtige Infrastruktur zu finden und generative KI-Modelle und -Anwendungen zu entwickeln“, sagte Das in einer vorgefertigten Erklärung. „Nvidia AI Workbench bietet organisationsübergreifenden Teams einen vereinfachten Weg zur Erstellung KI-basierter Anwendungen, die in modernen Unternehmen immer wichtiger werden.“

Die Jury ist sich nicht sicher, wie „vereinfacht“ der Weg ist. Aber was Das angeht, ermöglicht AI Workbench Entwicklern, Modelle, Frameworks, SDKs und Bibliotheken, einschließlich Bibliotheken für die Datenvorbereitung und Datenvisualisierung, aus Open-Source-Ressourcen in einem einheitlichen Arbeitsbereich zusammenzuführen.

Da die Nachfrage nach KI – insbesondere generativer KI – wächst, gibt es einen Zustrom von Tools, die sich auf die Feinabstimmung großer, allgemeiner Modelle auf bestimmte Anwendungsfälle konzentrieren. Startups wie Fixie, Reka und Together wollen es Unternehmen und einzelnen Entwicklern einfacher machen, Modelle an ihre Bedürfnisse anzupassen, ohne für kostspieliges Cloud-Computing bezahlen zu müssen.

Mit AI Workbench schlägt Nvidia einen dezentraleren Ansatz zur Feinabstimmung vor – einen Ansatz, der auf einem lokalen Computer und nicht über einen Cloud-Dienst erfolgt. Das macht Sinn, wenn man bedenkt, dass Nvidia und sein Produktportfolio an KI-beschleunigenden GPUs davon profitieren werden; Nvidia erwähnt seine RTX-Reihe in der Pressemitteilung, in der die Neuigkeiten angekündigt werden, nicht ganz so subtil. Aber abgesehen von Nvidias kommerziellen Beweggründen könnte der Pitch für Entwickler interessant sein, die nicht an eine einzige Cloud oder einen einzigen Dienst für Experimente mit KI-Modellen gebunden sein möchten.

Die KI-gesteuerte Nachfrage nach GPUs hat die Gewinne von Nvidia in neue Höhen getrieben. Im Mai erreichte die Marktkapitalisierung des Unternehmens kurzzeitig eine Billion US-Dollar, nachdem Nvidia einen Umsatz von 7,19 Milliarden US-Dollar gemeldet hatte, was einem Anstieg von 19 % gegenüber dem vorangegangenen Geschäftsquartal entspricht.