Das ist offenkundig kein Zufall: Die Gründer kommen von der Google KI-Tochter DeepMind und der Facebook-Muttergesellschaft Meta, wo sie zentrale Rollen bei der Entwicklung des Large Language Models Llama gespielt hatten. Die ChatGPT-Wettbewerber, die erst im Sommer vergangenen Jahres ihr Unternehmen gegründet hatten, haben bereits ihren eigenen Business-Assistenten auf Basis ihres Large Language Models Mistral 7B vorgestellt. Mistral 7B soll laut Medienberichten leistungsfähiger sein, als aktuelle Llama-Modelle von Meta, welche doppelt so groß sind, und sich auch in Benchmarks sehr gut schlagen. Ein Ziel von Mistral ist es, einen KI-Assistenten für Unternehmen entwickeln, der es mit GPT-4 von OpenAI aufnehmen kann. Bemerkenswert ist dabei, dass Mistral als schlankes KI-Modell seine Performance mit einem Bruchteil der Kosten und Ressourcen der Global Player erzielt. Erklärt wird dies beispielsweise in einem Blogbeitrag auf der Website des Unternehmens Cody AI damit, dass die Trainingsmethoden von Mistral effizienter und nur halb so teuer in der Implementierung sind, im Vergleich zu bisherigen Methoden. Schließlich handelt es sich um ein Open-Source-Modell, das flexibel und für alle zugänglich ist. Das ermögliche es Unternehmen ihre KI-Lösungen selbst zu hosten, da die Parameteranzahl mit 7 Mrd. so dimensioniert sei, dass auch kleinere Datacenter-Grafikchips zur Ausführung geeignet sind, schreibt etwa der Programmierer Victor Garske in seinem Blog. Das alles legt die Prognose nahe, dass die Eintrittshürden in den KI-Markt für Anbieter und Anwender tendenziell niedriger werden.
Zum englischsprachigen Blogbeitrag des US-Unternehmens Cody AI über die Vorteile des Vorgehens von Mistral AI
Das Portal "Trending Topics" über das Unternehmen Mistral AI und seine Investoren
Das Fraunhofer-Institut IESE über Praxis-Erfahrungen mit Open Source Large Language Models
Der Programmierer und Blogger Victor Garske über den Open-Source-Weg in der KI