Warum ich meine AI-Infrastruktur selbst betreibe
Es geht nicht darum, die Cloud zu vermeiden. Es geht darum, die Kontrolle zu behalten – und selbst zu entscheiden, was wann wohin geht.
Irgendwann im letzten Jahr habe ich angefangen, meinen eigenen KI-Stack aufzubauen. Nicht weil ich der Cloud grundsätzlich misstraue, sondern weil ich verstehen wollte, wie das alles wirklich funktioniert. Und weil es einfach Spaß macht.
Heute läuft bei mir zuhause in Schäftlarn ein Mac Mini mit OpenClaw – einer Infrastruktur aus mehreren spezialisierten Agenten, die von einem Orchestrator koordiniert werden. Das klingt komplizierter als es ist. Und es ist gleichzeitig spannender als es klingt.
Wie das Setup funktioniert
Im Kern ist es ein Multi-Agent-System: Verschiedene Agenten sind auf bestimmte Aufgaben spezialisiert – Recherche, Zusammenfassung, Planung, Kommunikation. Ein Orchestrator, den ich selbst konfiguriert habe, leitet Anfragen an den jeweils passenden Agenten weiter und koordiniert die Abläufe nach meinen Regeln.
Was das Modell angeht, bin ich pragmatisch: Kleine, unkritische Aufgaben erledigen lokale Modelle direkt auf dem Mac Mini – schnell, offline-fähig, ohne externe Abhängigkeit. Für komplexere Anfragen greife ich über OpenRouter auf externe Modelle zu – eine API-Schnittstelle, die Zugriff auf fast alle relevanten Modelle am Markt bietet. Der Unterschied liegt nicht im Prinzip, sondern in der Aufgabe.
Der entscheidende Punkt ist nicht "lokal oder Cloud" – sondern: Wer entscheidet, was wohin geht? Bei mir bin das ich.
Der Kontroll-Grund
Cloud-Dienste ändern sich. Preise steigen, APIs werden deprecated, Nutzungsbedingungen werden angepasst. Ich habe in den letzten zwei Jahren mehrere Tools, auf die ich mich verlassen hatte, verschwinden oder sich grundlegend verändern sehen.
Ein eigenes Setup ist meins. Ich entscheide, welche Modelle laufen, welche Regeln der Orchestrator befolgt, und was mit sensiblen Informationen passiert. Diese Kontrolle über die Architektur hat einen echten Wert – unabhängig davon, ob im Hintergrund gerade ein lokales oder ein Cloud-Modell rechnet.
Der Lern-Grund
Ehrlich gesagt: Es macht auch einfach Spaß. Einen eigenen Agenten-Stack aufzubauen, zu verstehen wie Orchestrierung funktioniert, verschiedene Modelle zu vergleichen – das ist für mich eine Form des Lernens, die sich direkt auf meinen Arbeitsalltag auswirkt.
Wenn ich heute über KI-Agenten spreche, tue ich das nicht aus einem Whitepaper heraus. Ich habe einen laufen. Das ist ein Unterschied.
Was es kostet – und was es bringt
Der Mac Mini als Basis hat mich rund 600 Euro gekostet. Dazu kommen variable API-Kosten über OpenRouter – die sind bei persönlichem Gebrauch sehr überschaubar. Im Vergleich zu mehreren SaaS-Abonnements rechnet sich das Setup schnell.
Was es bringt: Ein System, das genau so funktioniert, wie ich es gebaut habe. Kein Vendor Lock-in auf der Infrastrukturebene – auch wenn Cloud-Modelle als Option dazukommen, bleibt die Architektur in meiner Hand. Und ein Verständnis dafür, was KI-Infrastruktur wirklich bedeutet – von innen.
Für wen das Sinn macht
Nicht für jeden. Wer gelegentlich ChatGPT für kreative Texte nutzt, braucht keinen eigenen Stack. Aber wer tiefer verstehen will wie Agenten funktionieren, wer Kontrolle über seine Werkzeuge schätzt, oder wer einfach neugierig ist – für den lohnt sich der Einstieg.
Die Hürde ist niedriger als gedacht. Und was man dabei lernt, zahlt sich aus.