Meta ermöglicht dem US-Militär den Zugriff auf Modelle der künstlichen Intelligenz

0 0
Werbung

Nachrichtenzentrum

Meta gab bekannt, dass es sein künstliches Intelligenzmodell Llama US-Regierungsbehörden und Unternehmen, die im Bereich der nationalen Sicherheit tätig sind, zur Verfügung gestellt hat.

Durch die Zusammenarbeit mit großen Unternehmen wie Amazon, Microsoft, IBM, Lockheed Martin und Oracle ebnete Meta den Weg für den Einsatz von Llama bei militärischen Operationen.

Llama wird bei kritischen Missionen wie der Erleichterung komplexer Logistikprozesse, der Überwachung der Terrorismusfinanzierung und der Stärkung von Cyber-Abwehrsystemen eingesetzt.

Oracle nutzt Llama zur Analyse von Flugzeugwartungsaufzeichnungen, während Scale AI Llama zur gezielten Unterstützung bei nationalen Sicherheitseinsätzen entwickelt.

Lockheed Martin bietet Verteidigungskunden Llama für Anwendungen wie die Codegenerierung an.

META ZIELT ZUR NATIONALEN SICHERHEIT BEITRAG

Nick Clegg, Head of Global Affairs bei Meta, sagte in einer Erklärung: „Als amerikanisches Unternehmen möchte Meta seinen Teil dazu beitragen, die Sicherheit und den wirtschaftlichen Wohlstand Amerikas und seiner Verbündeten zu unterstützen.“sagte er.

Chinas unerlaubte Nutzung löste eine Reaktion aus

In einem kürzlich veröffentlichten Bericht wurde enthüllt, dass chinesische Forscher das Llama-2-Modell von Meta ohne Erlaubnis nutzten, um ein künstliches Intelligenzsystem für militärische Anwendungen zu entwickeln. Meta reagierte mit der Feststellung, dass diese Situation gegen ihre Richtlinien verstoße.

Meta betont, dass die USA im Wettlauf um künstliche Intelligenz die Nase vorn haben müssen. Das Unternehmen ist davon überzeugt, dass amerikanische Open-Source-Modelle, die eine bessere Leistung erbringen als Modelle aus China und anderen Ländern, sowohl den Vereinigten Staaten als auch den globalen Demokratien zugute kommen werden.

Ensonhaber

Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More