Googles stiller Schachzug
Drop #4·9. April 2026·3 min Lesezeit

Googles stiller Schachzug

C
Christopher Thanisch

Christopher Thanisch ist Gründer von Syndikat. Jede Woche schreibt er in seiner Kolumne „Drops“ über die neuesten Entwicklungen und Trends im Bereich KI.

Google hat letzte Woche ein KI-Modell released, das beliebte GPT Modelle von OpenAI in mehreren Standard-Benchmarks schlägt. Es kostet nichts. Du kannst es heute herunterladen und auf deinem eigenen Server betreiben.

Das ist Gemma 4. Und die interessante Frage ist nicht was das Modell kann. Die interessante Frage ist: Warum gibt Google das weg?

Die Antwort: aus demselben Grund, aus dem Google Android gratis rausgibt. Du bekommst das Betriebssystem umsonst - und zahlst dafür mit der Infrastruktur, den Services, dem Ökosystem, das dranhängt. Gemma läuft am besten auf Google Cloud. Gemma integriert sich nahtlos in Google Workspace. Gemma ist Googles Versuch, das Ökosystem zu kontrollieren ohne das Produkt zu besitzen.

Das erklärt die Strategie. Was es nicht erklärt: was das für dich bedeutet.

Gemma 4 läuft lokal. Das 12-Milliarden-Parameter-Modell - leistungsfähig genug für die meisten Unternehmensanwendungen - braucht eine GPU-fähige Workstation, die heute zwischen 3.000 und 15.000 Euro kostet. Danach: keine API-Kosten, keine Datenweitergabe, kein Vertrag mit OpenAI oder Microsoft. Deine Daten verlassen das Haus nicht.

Das klingt technisch. Die Konsequenz ist es nicht.

Ich kenne Unternehmen, die KI bisher nicht eingesetzt haben - nicht weil sie nicht wollten, sondern weil die Datenschutz-Frage nicht geklärt war. Kundendaten in eine amerikanische Cloud? Kommt der Betriebsrat nicht mit. Patentierte Prozessdaten durch ein externes Modell jagen? Kommt die Rechtsabteilung nicht mit. Das waren echte Blockaden.

Mit einem lokalen Modell wie Gemma 4 fallen diese Blockaden weg. Du hast die Kontrolle. Du weißt was mit den Daten passiert. Du kannst das Modell auf deine eigenen Dokumente, Produktkataloge, Vertragsvorlagen trainieren - und es verlässt deinen Server nie.

Was das in der Praxis bedeutet, habe ich selbst gerade am Testen. Drei Wochen Aufwand für einen guten IT-Leiter - dann läuft ein internes Sprachmodell, das Standardanfragen aus HR, Einkauf und Kundenservice bearbeitet. Ohne monatliche Kosten. Ohne externe Abhängigkeit.

Jetzt zu den unbequemen Seiten.

Wer verliert bei diesem Move? Erstens die KI-Berater und System-Integratoren, die ihr Geschäftsmodell auf Informationsasymmetrie gebaut haben. "Wir integrieren ChatGPT in eure Prozesse" war 2023 ein Projekt für 50.000 Euro. Heute ist es ein Wochenend-Projekt mit Gemma und einem YouTube-Tutorial. Das Preismodell dieser Firmen bricht gerade zusammen.

Zweitens - und das ist die unbequemere Wahrheit - verlieren Mittelständler ohne interne IT-Kapazität. Nicht weil Gemma ihnen schadet. Sondern weil der Wettbewerb jetzt schneller wird. Wer einen IT-Leiter hat der das will und kann, hat in sechs Monaten einen Vorsprung, den man mit Geld allein nicht aufholt.

Der Markt teilt sich gerade in zwei Gruppen: Die, die interne KI-Kompetenz aufbauen, und die, die darauf warten dass es einfacher wird. Es wird nicht einfacher. Es wird mächtiger.

Was du heute damit anfangen kannst, wenn du 50 bis 500 Mitarbeiter hast:

Rede mit deinem IT-Leiter. Nicht über Gemma spezifisch - über die Frage ob er in der Lage ist, ein lokales Sprachmodell zu betreiben. Wenn die Antwort Nein ist: Das ist die wichtigere Information als alles andere in dieser Mail.

Wenn die Antwort Ja ist: Fang mit einem internen Use Case an, der datenschutzsensibel ist und bisher nicht automatisiert werden konnte. Das ist der Proof-of-Concept, den du brauchst.

Google hat das Modell gratis gemacht. Die Arbeit ist trotzdem deine.

Diesen Drop teilen

Newsletter

Kein Drop verpassen.

Jeden neuen Essay direkt in dein Postfach. Kein Spam, kein Bullshit - nur Syndikat Drops.