Japanisches Startup Sakana AI entwickelt innovative Methode für kollaborative LLMs

Ein japanisches Startup namens Sakana AI hat eine neue Methode zur Echtzeit-Zusammenarbeit von großen Sprachmodellen (LLMs) entwickelt. Anders als übliche Ansätze, die LLMs im Trainingsstadium kombinieren, ermöglicht diese Technologie die kooperative Arbeit mehrerer Modelle während des Inferenzprozesses. Inspiriert von Naturphänomenen wie Schwarmintelligenz und evolutionären Anpassungsprozessen verwendet Sakana AI einen Algorithmus namens adaptive Verzweigung Monte Carlo Baum-Suche (AB-MCTS). Dieser ermöglicht es verschiedenen LLMs, unabhängig voneinander, aber koordiniert an komplexen Aufgaben zu arbeiten, anstatt sie zu einem einzigen Modell zusammenzufassen. Modelle wie OpenAI’s o4-mini, Googles Gemini 2.5 Pro und DeepSeek’s R1-0528 fungieren als autonome Akteure, die durch AB-MCTS verbunden sind und gemeinsam ein komplexes Problem lösen.

Dieses Konzept baut auf früheren Forschungsergebnissen von Sakana AI zur evolutionären Modellverschmelzung auf, die darauf abzielte, Open-Source-LLMs zu einem leistungsstärkeren Ganzen zu vereinen. Die neue Methode zeichnet sich durch Flexibilität aus, da sie keine Neutrainierung oder Feinabstimmung der einzelnen Modelle erfordert, sondern deren bestehende Fähigkeiten dynamisch nutzt. Tests mit dem Benchmark GPT-4 zeigten vergleichbare oder überlegene Ergebnisse bei Aufgaben, die logisches Denken, Gedächtnis und mehrstufige Logik erfordern. Dies deutet auf ein großes Potenzial für Einsatzgebiete wie Datenanalyse, Forschung und komplexe Problemlösungen hin. Die Validierung durch unabhängige Forscher und die langfristige Durchsetzung dieser „kollektiven Intelligenz“ im Vergleich zu den gängigen Einzelmodellen bleiben jedoch wichtige Faktoren für die Zukunft dieser Technologie.

Schlagwörter: Sakana AI + Monte Carlo Baum-Suche + AB-MCTS

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 15. Juli 2025