Gemini 3 Deep Think und Flash-Lite: Googles KI-Doppelschlag

Google startet Gemini 3 Deep Think für komplexe Aufgaben und Flash-Lite für günstige Inferenz. Was die neuen Modelle können und kosten.
Gemini 3 Deep Think Flash-Lite Thumbnail

Google hat zwei neue Gemini-Modelle gleichzeitig gelauncht: Gemini 3 Deep Think für anspruchsvolle Reasoning-Aufgaben und Gemini 3.1 Flash-Lite als günstigstes Modell in Googles Portfolio. Die Strategie: Oben und unten gleichzeitig angreifen.

Gemini 3 Deep Think: Für die harten Probleme

Gemini 3 Deep Think ist ab sofort in der Gemini-App für Ultra-Subscriber verfügbar. Early API Access gibt es für Researcher, Engineers und Enterprises.

Google positioniert Deep Think explizit nicht als Chat-Modell. Es ist für technische Aufgaben gedacht:

  • Wissenschaftliche Analyse — Paper-Reviews, Hypothesenprüfung
  • Engineering-Probleme — Architekturdecisions, Debugging komplexer Systeme
  • Mathematik und Logik — mehrstufige Beweise, Optimierungsprobleme

Deep Think nutzt eine erweiterte Chain-of-Thought-Architektur, die intern mehrere Reasoning-Pfade durchspielt, bevor sie antwortet. Das kostet mehr Tokens und Zeit — liefert aber bei komplexen Problemen deutlich bessere Ergebnisse als Standard-Gemini.

Gemini 3.1 Flash-Lite: Inferenz für Centbeträge

Am anderen Ende des Spektrums steht Flash-Lite:

  • $0,25 pro Million Input-Tokens — einer der günstigsten Preise am Markt
  • 2,5x schnellere Antwortzeiten als frühere Gemini-Versionen
  • 45% schnellere Output-Generierung

Flash-Lite ist für High-Volume-Anwendungen gedacht: Klassifizierung, Zusammenfassungen, einfache Extraktionen, Chatbots mit vorhersagbaren Anfragen. Überall dort, wo Geschwindigkeit und Kosten wichtiger sind als maximale Intelligenz.

Die Strategie dahinter

Premium: Deep Think konkurriert mit OpenAIs o-Modellen und Claude Opus bei schwierigen Reasoning-Tasks. Für Enterprises, die Genauigkeit über Kosten stellen.

Budget: Flash-Lite untergräbt die Preise von GPT-4o-mini und Claude Haiku. Für Startups und Entwickler, die Millionen API-Calls pro Monat machen.

Samsung hat parallel angekündigt, Gemini AI auf 800 Millionen Geräte zu bringen — von Flaggschiff-Smartphones bis zu Budget-Phones. Flash-Lite ist das Modell, das auf diesen Geräten laufen wird.

Was das für Entwickler bedeutet

  • Einfache Tasks (Klassifizierung, Extraktion): Flash-Lite für minimale Kosten
  • Standard-Chat und Coding: Gemini 3.1 Pro oder Sonnet
  • Komplexe Reasoning-Tasks: Deep Think oder Claude Opus

Google bietet damit als erster Anbieter eine vollständige Modell-Palette von Ultra-Budget bis Premium-Reasoning. OpenAI und Anthropic haben vergleichbare Lücken in ihren Lineups.

Fazit

Mit Deep Think und Flash-Lite deckt Google die gesamte Bandbreite ab. Für Entwickler bedeutet das mehr Auswahl und niedrigere Einstiegskosten. Für OpenAI und Anthropic erhöht sich der Druck, bei Pricing und Modellvielfalt nachzuziehen.

Beitrag teilen:

Abonniere unseren Newsletter für mehr News