Google DeepMind hat kürzlich Gemini 1.5, eine aktualisierte Version seiner KI-Modelle, vorgestellt. Mit dieser Aktualisierung soll die Schulung und Inferenz der Modelle effizienter werden. Das erste veröffentlichte Modell, Gemini 1.5 Pro, soll laut Google fast die gleiche Leistung wie das vorherige Modell Gemini 1.0 Ultra erreichen. Ein bemerkenswertes Merkmal des neuen Modells ist sein umfangreiches Kontextfenster, das bis zu 1 Million Token umfasst. In Experimenten konnte das Team das Fenster sogar auf bis zu 10 Millionen Token erweitern. Dank Gemini 1.5 Pro ist es möglich, große Datenmengen wie ein oder mehrere Stunden Video, 12 bis 24 Stunden Audio oder bis zu 700.000 Wörter zu verarbeiten. Das übertrifft deutlich OpenAIs GPT-4 und Claude 2.1 und eröffnet möglicherweise zahlreiche neue Anwendungsmöglichkeiten für multimodale Modelle.
Entwickler und Unternehmenskunden können über AI Studio und Vertex AI eine begrenzte Vorschau von Gemini 1.5 Pro nutzen, wobei das Token-Limit auf 128.000 begrenzt ist. Ausgewählte Tester haben hingegen Zugang zur Version mit einem Million-Token-Limit. Zu Beginn plant Google eine umfassende Veröffentlichung mit einer Version von 128.000 Token und hat zukünftige Pläne, Preisstufen einzuführen, die sich nach der Größe des Kontextfensters richten.
Aber nicht nur Google DeepMind hat eine neue Aktualisierung vorgestellt, auch das französische KI-Start-up Mistral AI hat sein neuestes Sprachmodell, Mistral Next, in den Startlöchern. Das vorherige Modell, Medium, erreichte bereits beeindruckende Leistungen auf dem Niveau von GPT-3.5. Mistral Next wird als ein umfangreiches Modell angekündigt und könnte das erste Modell des Unternehmens sein, das mit GPT-4 konkurrieren kann. Tester sind positiv gestimmt und sehen Mistral Next bei Logikaufgaben bereits auf dem Niveau von GPT-4 oder möglicherweise sogar darüber hinaus. Die Entwickler von Mistral haben angekündigt, in Kürze weitere Details zu Mistral Next bekannt zu geben.
Sam Altman, CEO von OpenAI, hat große Pläne, die Halbleiterindustrie mit einem 7-Billionen-Dollar-Projekt zur Entwicklung von KI-Chips umzugestalten. Doch die US-Regierung ist skeptisch und äußert Bedenken hinsichtlich der nationalen Sicherheit und des Wettbewerbs. Trotzdem versucht Altman weiterhin, die Regierung von seinem Vorhaben zu überzeugen. Er betont jedoch, dass er ohne deren Zustimmung nicht weitermachen kann. Auch Branchenvertreter wie der Chip-Experte Jim Keller und der Nvidia-CEO Jensen Huang haben Bedenken bezüglich Altmans Plänen geäußert. Ein weiterer Aspekt, der kritisiert wird, ist die Kooperation von OpenAI mit G42, einem Unternehmen aus Abu Dhabi, das enge Verbindungen nach China hat. Aufgrund von Sicherheitsbedenken hat die US-Regierung ihre Besorgnis über Chinas Ambitionen in der Chipfertigung und -entwicklung zum Ausdruck gebracht.
Eine innovative Hardware namens Language Processing Unit (LPU) wurde von dem Unternehmen Groq entwickelt. Diese LPU ist in der Lage, KI-Sprachmodelle mit einer beeindruckenden Geschwindigkeit von bis zu 500 Token pro Sekunde zu verarbeiten. Bei einer Demonstration übertraf eine spezielle LPU-Variante namens Llama 2 70B sogar die Geschwindigkeit herkömmlicher Sprachmodelle wie Gemini Pro und GPT-3.5, die auf Nvidia-Hardware laufen und zwischen 30 und 50 Token pro Sekunde verarbeiten können. Der GroqChip verwendet eine Tensor-Streaming-Architektur, um eine hohe Leistung und Effizienz zu gewährleisten. Die LPU bietet nicht nur eine höhere Geschwindigkeit, sondern ist auch energieeffizienter im Vergleich zu herkömmlichen GPUs. Darüber hinaus unterstützt sie gängige Machine-Learning-Frameworks, was die Integration in KI-Projekte erleichtert. Die von Groq entwickelten LPUs haben das Potenzial, die Echtzeitbereitstellung von KI-Anwendungen zu verbessern und eine energieeffiziente Lösung für die Ausführung großer KI-Modelle anzubieten. Allerdings sind sie momentan nicht geeignet, um für das Training verwendet zu werden.
Microsoft bietet für Office 365 eine kostenpflichtige KI-Erweiterung namens Copilot an. Der Service kann zusätzlich zum Office-365-Abonnement für 22 Euro pro Monat genutzt werden. Allerdings hat ein Test gezeigt, dass der KI-Assistent in seiner aktuellen Form nicht überzeugend ist. Während Copilot mit den Cloud-Versionen der Office-Programme funktioniert, können auf Windows-Rechnern mit Standalone-Versionen Lizenzprobleme auftreten, insbesondere wenn ein Business-Microsoft-Konto verwendet wird. Der Einsatz von Copilot kann im Detail fehleranfällig sein und führt oft nicht zu den gewünschten Ergebnissen. Obwohl die technische Umsetzung der Erstellung von Powerpoint-Präsentationen anhand von Textvorgaben funktioniert, sind die Ergebnisse in der Regel unzuverlässig und thematisch oft nicht passend. Die nahtlose Zusammenarbeit zwischen den verschiedenen Office-Programmen ist nicht gegeben. Bei der Verwendung von Word generiert Copilot oft Texte, die nicht den gegebenen Anweisungen entsprechen. Obwohl Excel ein vielversprechendes Anwendungsfeld für KI-Unterstützung darstellt, ist es bedauerlicherweise ausschließlich in englischer Sprache verfügbar und reagiert häufig nur mit Fehlermeldungen auf Eingaben. Aufgrund des Fehlens einer Schaltfläche konnte die Copilot-Funktion in Outlook nicht im Test überprüft werden. Nachdem er es getestet hat, zieht der Tester Jan-Keno Janssen das Fazit, dass Copilot Pro für Office in seiner aktuellen Version eine Unverschämtheit ist und noch nicht ausgereift genug, um den Preis zu rechtfertigen. Obwohl die Idee, KI in Office zu integrieren, viel Potenzial birgt, erfüllt die aktuelle Version von Microsoft das Vertrauen noch nicht, da sie den Erwartungen nicht gerecht wird.
Neben den bereits bekannten Investitionen in Deutschland plant Microsoft, 1,95 Milliarden Euro in den Ausbau der KI- und Cloud-Infrastruktur in Spanien zu investieren. Diese Information wurde von Pedro Snchez, dem spanischen Regierungschef, und Brad Smith, einem Manager bei Microsoft, bekanntgegeben. Die Investition ist Teil von Microsofts weltweitem Engagement, in den nächsten zwei Jahren in Künstliche Intelligenz und Cloud-Technologien zu investieren. Vor einer Woche gab Smith bereits bekannt, dass Investitionen von fast 3,3 Milliarden Euro für Deutschland geplant sind, um die Kapazitäten in Rechenzentren für KI- und Cloud-Anwendungen zu erweitern. Das Investitionsprojekt beinhaltet außerdem ein KI-Weiterbildungsprogramm, das für bis zu 1,2 Millionen Personen zugänglich ist. Darüber hinaus beabsichtigt Microsoft, bis zum Jahr 2026 rund 2,9 Milliarden Euro in den KI-Sektor in Großbritannien und etwa 3 Milliarden Euro in Australien zu investieren.
Der britische KI-Chiphersteller Graphcore führt derzeit Verhandlungen mit potenziellen Investoren wie Arm, SoftBank und OpenAI, um hohe Verluste auszugleichen, wie die Zeitung The Telegraph berichtet. Es wird auch in Betracht gezogen, das Produkt an ausländische Unternehmen zu verkaufen. Investoren wie Chrysalis und Baillie Gifford haben den Wert ihrer Beteiligungen an Graphcore erhöht. Der mögliche Verkauf an ausländische Interessenten wird voraussichtlich von den nationalen Sicherheitsbehörden überprüft, da die KI-Technologie als strategisch wichtig angesehen wird. Graphcores Chipverkäufe könnten aus verschiedenen Gründen beeinträchtigt werden. Einerseits hat sich das Unternehmen aufgrund der US-Exportbestimmungen, die den Zugang Chinas zu hochwertiger Halbleitertechnologie beschränken sollen, aus dem chinesischen Markt zurückgezogen, was zu einem Rückgang des Geschäfts in einem bedeutenden Markt geführt hat. Andererseits konnte sich Graphcore trotz einiger Fortschritte gegenüber Nvidia in Benchmarks nicht deutlich durchsetzen. Nvidia profitiert von einem ausgereiften Software-Stack für maschinelles Lernen und konnte über einen längeren Zeitraum hinweg an der Spitze aller bedeutenden KI-Benchmarks bleiben. Im Gegensatz dazu konnte die Konkurrenz nur in einigen Bereichen Erfolge erzielen. Eine der neuesten Innovationen von Graphcore ist die Bow-IPU, ein bahnbrechender Prozessor, der auf TSMCs fortschrittlicher Wafer-on-Wafer 3D-Technologie basiert und weltweit erstmalig eingeführt wird.
Schlagwörter: Gemini + Google DeepMind + Microsoft
Wie bewerten Sie den Schreibstil des Artikels?