Red Hat und
Meta arbeiten enger zusammen. Ziel ist es, die Weiterentwicklung von generativer KI für Unternehmenskunden voranzutreiben. Die Zusammenarbeit der beiden Parteien begann mit Red Hats Day-0-Unterstützung der Modellfamilie Llama 4 auf Red Hat AI und dem Inference-Server vLLM. Darauf aufbauend werden Red Hat und Meta nun die Community-Projekte Llama Stack und vLLM stärker aufeinander ausrichten, um einheitliche Frameworks für die Vereinfachung von offenen KI-Workloads zu schaffen. Bei Llama Stack handelt es sich um Building Blocks und APIs für generative KI-Anwendungen, alles auf Open-Source-Basis. vLLM (Virtual Large Language Model) ist eine Library von Open Source Codes, die von der aktiven Community verwaltet und bereitgestellt wird.
Mike Ferris, Senior Vice President und Chief Strategy Officer bei
Red Hat, umschreibt die Zusammenarbeit wie folgt: "Red Hat und Meta sind sich bewusst, dass der zukünftige Erfolg von KI nicht allein von Verbesserungen der KI-Modelle abhängt, sondern auch von deren Inferencing-Fähigkeiten. Sie ermöglichen es Anwendern, das Maximum aus den Modellen der nächsten Generation herauszuholen. Unser gemeinsames Engagement für Llama Stack und vLLM soll dazu beitragen, die Vision von schnelleren, konsistenteren und kosteneffektiveren GenAI-Anwendungen zu verwirklichen."
(dok)