Entwickelt von Elon Musks xAI-Initiative und gilt als das weltweit leistungsstärkste Bildungssystem für künstliche Intelligenz.Koloss , Es eröffnet eine neue Ära im Bereich der künstlichen Intelligenz.
100. Ausgestattet mit mehr als 000 NVIDIA H100-Grafikkarten, Colossus Es bietet enorme Rechenleistung, um Modelle der künstlichen Intelligenz zu trainieren.
Diese Entwicklung Es gilt als wichtiger Meilenstein in der Entwicklung künstlicher Intelligenztechnologien.
ERKLÄRUNG VON ELON MUSK
Elon Musk gab bekannt, dass er „Colossus“, den weltweit größten Computer mit Nvidia-Grafikkarte, in Betrieb genommen hat.
Dieser riesige, überlegene Computer wird zum Trainieren des künstlichen Intelligenzmodells Grok des Unternehmens verwendet.
Grok wird als Konkurrenz zum GPT-4-Modell von OpenAI entwickelt und zunächst Premium-Abonnenten der Social-Media-Plattform X von Musk angeboten.
Viele Tesla-Experten spekulieren, dass Grok künftig das KI-Gehirn von Teslas humanoidem Roboter Optimus sein wird.
Die Macht des Kolosses, Es ist nicht nur auf die aktuelle Situation beschränkt. Musks Thesenpläne, Sein Ziel ist es, Colossus noch stärker zu machen.
Der berühmte Milliardär wird in den kommenden Monaten das 50-jährige Jubiläum der neuen Prozessorgeneration der H200-Serie von Nvidia testen. Durch das Hinzufügen weiterer 000, Ziel ist es, die Prozesskapazität der Anlage zu verdoppeln.
GROK-3 KOMMT BALD
Das neue Modell der künstlichen Intelligenz namens Grok-3 wird voraussichtlich im Dezember veröffentlicht. Dieses Modell wird voraussichtlich das leistungsstärkste KI-Modell der Welt sein.
Musk stellte den Benutzern letzten Monat die erste Beta-Version von Grok-2 vor, die mit 15.000 Nvidia H100 trainiert wurde, und diese Version hat bereits einen wichtigen Platz unter den großen Sprachmodellen für künstliche Intelligenz eingenommen.
GRAFIKKARTENKRIEGE
Wettbewerb im Bereich Künstliche Intelligenz, Es hat sich kürzlich zu einem Hardware-Krieg entwickelt. Insbesondere die leistungsstarken Grafikprozessoren (GPU) von Nvidia, Es ist für das Training von Modellen der künstlichen Intelligenz unverzichtbar geworden. Diese Situation Es veranlasste Technologiegiganten, nach einer großen GPU zu suchen.
Elon Musks Elektroautohersteller Tesla Es werden nicht nur Fahrzeuge produziert. Unternehmen, Mit der Entwicklung eines eigenen, auf künstlicher Intelligenz basierenden Computers, Dojo, unternimmt das Unternehmen wichtige Schritte auf diesem Gebiet.
35. im Besitz von Tesla. 000 Nvidia-GPUs, Es wird verwendet, um die Leistung des Dojos zu erhöhen. Es wird erwartet, dass diese Zahl im Laufe des Jahres weiter erhöht und dem Dojo hinzugefügt wird.
Auch der Social-Media-Riese Meta (ehemals Facebook). setzt seine Investitionen in künstliche Intelligenz fort, ohne nachzulassen. Den Aussagen von Mark Zuckerberg zufolge Das Unternehmen beschäftigt derzeit 350 Mitarbeiter. Es verfügt über 000 Nvidia H100-GPUs. Diese Zahl wird bis Ende des Jahres 600 erreichen. Ziel ist es, 000 zu erreichen.
Microsoft, OpenAI und Amazon, andere große Technologieunternehmen, die im Bereich der künstlichen Intelligenz ein Mitspracherecht haben, sind hinsichtlich der GPU-Zahlen vorsichtiger.
Es ist bekannt, dass diese Unternehmen auch Nvidia-GPUs in großen Mengen gekauft haben, genaue Zahlen werden jedoch nicht bekannt gegeben.
WARUM NVIDIA-GPUs gefragt sind
Die GPUs von Nvidia erfreuen sich so großer Beliebtheit, weil sie sich ideal für das Training von Modellen der künstlichen Intelligenz eignen.
Dank ihrer parallelen Rechenfähigkeiten können diese Prozessoren schnell komplexe Prozesse für große Informationsmengen ausführen.
Darüber hinaus steigern Nvidias Software und Tools für künstliche Intelligenz die Leistung von GPUs weiter.
Ensonhaber