
Künstliche Intelligenz verändert die Art und Weise, wie Unternehmen Daten speichern und darauf zugreifen. Denn herkömmliche Datenspeichersysteme wurden für die Verarbeitung einfacher Befehle weniger Benutzer gleichzeitig entwickelt, während moderne KI-Systeme mit Millionen von Agenten kontinuierlich und parallel auf riesige Datenmengen zugreifen und diese verarbeiten müssen.
Herkömmliche Speichersysteme weisen mittlerweile viele Komplexitätsebenen auf, was die KI verlangsamt, da die Daten viele Ebenen durchlaufen müssen, bevor sie die GPU erreichen – die Grafikverarbeitungseinheit, die als „Gehirnzelle“ der KI gilt.
Cloudian – Mitbegründer von Michael Tso (MIT) und Hiroshi Ohta – unterstützt die Datenspeicherung dabei, mit der KI-Revolution Schritt zu halten. Das Unternehmen hat ein skalierbares Enterprise-Speichersystem entwickelt, das einen reibungslosen Datenfluss zwischen Speicher- und KI-Modellen ermöglicht.
Das System reduziert die Komplexität, indem es paralleles Rechnen auf die Speicherung anwendet und KI- und Datenfunktionen auf einer einzigen parallelen Verarbeitungsplattform konsolidiert, die in der Lage ist, große Datensätze zu speichern, abzurufen und zu verarbeiten, mit Hochgeschwindigkeits-Direktverbindung zwischen Speicher und GPUs und CPUs.
Die integrierte Compute-Storage-Plattform von Cloudian vereinfacht die Entwicklung von KI-Tools im kommerziellen Maßstab und bietet Unternehmen gleichzeitig eine Speicherinfrastruktur, die mit der KI-Explosion Schritt halten kann.
„Was die Leute bei KI oft vergessen: Es dreht sich alles um Daten“, sagt Tso. „Eine zehnprozentige Leistungssteigerung von KI lässt sich nicht mit zehn Prozent mehr Daten erreichen, und selbst zehnmal mehr Daten reichen nicht aus – man braucht tausendmal mehr Daten. Daten einfach zu speichern und Berechnungen direkt dort einzubetten, sodass sie sofort nach dem Eintreffen durchgeführt werden können, ohne sie verschieben zu müssen – das ist die Zukunft der Branche.“
Objektspeicherung und KI
Derzeit verwendet die Cloudian-Plattform eine Objektspeicherarchitektur, in der alle Arten von Daten – Dokumente, Videos , Sensordaten – als einzelne Objekte mit Metadaten gespeichert werden. Objektspeicher können riesige Datenmengen in einer flachen Struktur verwalten und sind daher ideal für unstrukturierte Daten und KI-Systeme. Bisher war es jedoch unmöglich, Daten direkt an ein KI-Modell zu senden, ohne sie zuvor in den Arbeitsspeicher des Computers zu kopieren – was zu Latenz und Energieverschwendung führte.
Im Juli gab Cloudian bekannt, dass es sein Objektspeichersystem um eine Vektordatenbank erweitert hat. Diese speichert Daten in einer Form, die sofort für die KI-Nutzung verfügbar ist. Während der Datenaufnahme berechnet Cloudian die Vektorform der Daten in Echtzeit, um KI-Tools wie Empfehlungsmaschinen, Suchfunktionen und KI-Assistenten zu unterstützen.
Cloudian kündigte außerdem eine Partnerschaft mit NVIDIA an, um sein Speichersystem direkt mit seinen GPUs zu verbinden. Cloudian sagte, das neue System ermögliche eine schnellere KI-Verarbeitung und niedrigere Rechenkosten.
„NVIDIA kam vor etwa anderthalb Jahren auf uns zu, weil GPUs nur dann nützlich sind, wenn sie mit Daten gefüttert werden“, sagte Tso. „Heute ist den Leuten klar, dass es einfacher ist, KI auf die Daten anzuwenden, als riesige Datenmengen zu verschieben. Unser Speichersystem verfügt über zahlreiche integrierte KI-Funktionen, sodass wir die Daten in der Nähe des Erfassungs- und Speicherorts vor- und nachbearbeiten können.“
KI-Prioritätsspeicher
Cloudian unterstützt rund 1.000 Unternehmen weltweit dabei, den größtmöglichen Nutzen aus ihren Daten zu ziehen, darunter große Hersteller, Finanzinstitute, Gesundheitseinrichtungen und Regierungsbehörden.
So hilft die Speicherplattform von Cloudian beispielsweise einem großen Automobilhersteller, mithilfe von KI zu ermitteln, wann jeder seiner Fertigungsroboter gewartet werden muss. Cloudian arbeitet außerdem mit der US-amerikanischen National Library of Medicine zusammen, um Forschungsarbeiten und Patente zu speichern, und mit der National Cancer Database, um Tumor-DNA-Sequenzen zu speichern – umfangreiche Datensätze, die KI verarbeiten kann, um die Entwicklung neuer Behandlungen oder Entdeckungen zu unterstützen.
„GPUs sind ein wichtiger Wegbereiter“, sagt Tso. „Das Mooresche Gesetz verdoppelt die Rechenleistung alle zwei Jahre, aber GPUs können Aufgaben auf einem Chip parallelisieren, mehrere GPUs miteinander verketten und über das Mooresche Gesetz hinausgehen. Diese Größenordnung bringt KI auf ein neues Intelligenzniveau. Doch die einzige Möglichkeit, GPUs zu Höchstleistungen zu bringen, besteht darin, Daten mit der gleichen Geschwindigkeit wie ihre Rechenleistung zu liefern – und die einzige Möglichkeit, dies zu erreichen, besteht darin, alle Zwischenebenen zwischen der GPU und Ihren Daten zu entfernen.“
(Laut MIT)
Quelle: https://vietnamnet.vn/cloudian-dua-du-lieu-den-gan-ai-hon-bao-gio-het-2433241.html
Kommentar (0)