MongoDB stellt neue Modelle, Schnittstellen und Kooperationen vor, die KI-Anwendungen produktiver und transparenter machen sollen. Im Zentrum stehen kontextbewusste Einbettungen, flexible Ergebnispriorisierung sowie Werkzeuge für Evaluation und Orchestrierung.
Foto: MongoDB
Fred Roma, SVP Engineering bei MongoDB
Foto: MongoDB
Andrew Davidson, SVP Products bei MongoDB
Mit neuen Funktionen und Partnerschaften will MongoDB Unternehmen dabei unterstützen, komplexe KI-Workflows schneller in den produktiven Betrieb zu bringen. Die Erweiterungen adressieren zentrale Herausforderungen wie kontextgerechte Suche, nachvollziehbare Ergebnisse und die Orchestrierung langlebiger Agentenprozesse.
Die von Voyage AI entwickelten Modelle sollen die Qualität von Einbettungen und Rerankings verbessern. So verarbeitet voyage-context-3 den vollständigen Dokumentkontext, was die Relevanz von Suchtreffern bei geringerem Tuning-Aufwand erhöhen soll. Ergänzend zielen die allgemeinen Modelle voyage-3.5 und voyage-3.5-lite auf eine verbesserte Retrieval-Qualität. Mit rerank-2.5 und rerank-2.5-lite können Unternehmen die Ergebnisreihenfolge per Instruktion steuern – ein Ansatz, der vor allem für Retrieval-Augmented-Generation (RAG)-Workflows relevant ist.
„Die Qualität von Einbettungs- und Reranking-Modellen entscheidet, ob eine KI-Anwendung im produktiven Einsatz überzeugt. Wir entwickeln Modelle, die bessere Ergebnisse liefern, weniger kosten und einfach zu implementieren sind“, sagt Fred Roma, SVP Engineering bei MongoDB.
Ein zentrales Element der Ankündigung ist der MongoDB Model Context Protocol (MCP) Server, der Datenbankumgebungen mit gängigen KI-Tools wie GitHub Copilot, Claude oder Cursor verbindet. Damit lassen sich Datenbankabfragen in natürlicher Sprache formulieren und Workflows beschleunigen.
Das Ökosystem wird durch Partner wie Galileo, Temporal und LangChain ergänzt. Galileo übernimmt die kontinuierliche Evaluation von Modellen und Anwendungen, während Temporal auf die Orchestrierung langlebiger, mehrstufiger Agentenprozesse spezialisiert ist. LangChain-Integrationen wie GraphRAG und Sprachabfragen in MongoDB Atlas sollen zudem nachvollziehbarer machen, wie Agenten zu Ergebnissen gelangen.
Die technischen Hürden für produktive KI-Anwendungen in Unternehmen sind laut MongoDB weiterhin hoch. Komplexe Infrastrukturen und heterogene Systeme erschweren den stabilen Betrieb. Eine aktuelle Gartner-Umfrage zeigt, dass sich 68 Prozent der IT-Entscheider von der Geschwindigkeit neuer Gen-AI-Einführungen überfordert fühlen. Zudem geben 37 Prozent an, dass ihre KI-Strategie weitgehend durch die Softwareanbieter ihrer Unternehmensanwendungen bestimmt sei.
Unternehmen wie Vonage, LGU+ oder die Financial Times setzen bereits auf MongoDB Atlas, ebenso wie rund 8.000 Start-ups in den letzten 18 Monaten. Die Anwendungen reichen von Zeiterfassung über semantische Suche bis zur talentbasierten Vermittlung.
„Die KI-Anwendungen unserer Kunden benötigen eine Datenbasis mit integrierter Vektorsuche und leistungsfähigen Modellen, um aus strukturierten und unstrukturierten Daten relevante Erkenntnisse zu gewinnen“, sagt Andrew Davidson, SVP Products bei MongoDB.