KI & ML
KI Entwicklung | EARNST
DSGVO konforme KI auf eigener Hardware. Lokale LLMs, RAG Systeme, Dokumentenanalyse.
Was ist DSGVO konforme KI?
Die meisten "KI-Lösungen" sind API-Wrapper um OpenAI oder Anthropic. Ihre Daten fließen zu US-Unternehmen, Datenschutzbeauftragte werden nervös, und AVV (Auftragsverarbeitungsverträge) sind kompliziert. DSGVO konforme KI bedeutet: Die Modelle laufen auf Ihrer eigenen Infrastruktur. Keine externen API-Calls, keine Datenübertragung an Dritte, vollständige Kontrolle über Training-Daten und Inferenz.
Wir setzen Open-Source LLMs ein (LLaMA, Mistral, Mixtral, spezialisierte Modelle wie Code LLaMA oder BioMedLM) und bauen RAG-Systeme (Retrieval-Augmented Generation) für Dokumentenanalyse, Chatbots oder interne Knowledge-Bases. Die Modelle laufen auf Ihrer Hardware (dedizierte GPU-Server) oder auf Cloud-Instanzen in EU-Rechenzentren mit vollständiger Datenkontrolle.
Für wen ist das relevant?
Unternehmen mit strikten Datenschutz-Anforderungen: Gesundheitswesen (Patientendaten), Finanzdienstleister (Kundendaten unter Bankenaufsicht), Rechtsanwaltskanzleien (Mandantengeheimnis), oder öffentliche Institutionen. Auch für Industrieunternehmen mit sensiblem IP (Konstruktionsdaten, Forschungsergebnisse), die KI für Dokumentenanalyse oder Prozessoptimierung nutzen wollen ohne Daten extern zu verarbeiten.
Typische Use Cases: Interne Chatbots, die auf Unternehmens-Dokumentation trainiert sind (Mitarbeiter-Support, Onboarding). Dokumentenanalyse für Verträge, technische Zeichnungen oder Forschungsberichte. Code-Assistenten für Entwickler-Teams, die auf internem Codebase trainiert werden. Alles läuft lokal, keine Cloud-APIs.
Wie EARNST das macht
Wir starten mit einer Machbarkeitsanalyse: Was ist der konkrete Use Case? Welche Daten gibt es? Welche Modellgröße ist nötig (7B, 13B, 70B Parameter)? Welche Hardware-Anforderungen? Nicht jedes Problem braucht KI, manchmal reichen klassische Algorithmen oder Datenbank-Suche. Falls KI sinnvoll ist, wählen wir passende Open-Source Modelle und evaluieren ob Fine-Tuning nötig ist (für spezialisierte Tasks) oder ob Pre-Trained Modelle ausreichen.
Infrastruktur wird entweder auf Ihren Servern aufgesetzt (dedizierte GPU-Maschinen, idealerweise NVIDIA A100 oder H100 für größere Modelle) oder auf Cloud GPU Instanzen (AWS EC2 P4, Azure NC-Serie) in EU-Regionen. Deployment läuft über Docker-Container mit Orchestrierung via Kubernetes falls nötig. Wir bauen APIs für Integration in bestehende Systeme: REST oder GraphQL Endpoints mit Rate Limiting, Caching und Monitoring.
Typischer Projektumfang
Machbarkeitsanalyse: 1 Woche. Proof of Concept (PoC): 2 bis 4 Wochen. Production-Ready System: 8 bis 16 Wochen abhängig von Komplexität und Fine-Tuning Aufwand. Hardware-Setup (falls noch nicht vorhanden) kommt hinzu: Beschaffung, Installation, Netzwerk-Konfiguration.
Sie brauchen entweder eigene GPU-Server oder Cloud-Budget für GPU-Instanzen. Wir helfen bei Hardware-Auswahl und TCO (Total Cost of Ownership) Kalkulation. Nach Go-Live bekommen Sie vollständige Dokumentation: Modell-Auswahl Rationale, Training-Prozesse, API-Dokumentation und DSGVO-Compliance Dokumentation für Datenschutzbeauftragte. Optionale Wartungsverträge für Model Updates, Fine-Tuning auf neuen Daten und Infrastruktur-Monitoring.
Typische Ergebnisse
0
Datenübertragung an Drittanbieter
100%
DSGVO Compliance durch lokale Infrastruktur
On-Prem
Volle Kontrolle über Modelle und Daten
Was Sie bekommen
Machbarkeitsanalyse
Technisches Assessment: Ist KI die richtige Lösung? Welche Modelle passen? Welche Infrastruktur?
Modellauswahl & Training
Auswahl passender Open-Source Modelle (LLaMA, Mistral, etc.) mit optionalem Fine-Tuning.
Infrastruktur Setup
Hardware-Setup (eigene Server oder Cloud GPU Instanzen) mit Docker-basiertem Deployment.
API Entwicklung
REST/GraphQL APIs für KI-Integration in bestehende Systeme. Rate Limiting, Caching, Monitoring.
DSGVO Dokumentation
Vollständige Dokumentation der Datenverarbeitung für Datenschutz-Audits und AVV.
Häufige Fragen
Brauche ich eigene GPU-Server?
Nicht zwingend. Für kleinere Modelle (7B-13B Parameter) reichen Cloud GPU Instanzen in EU-Rechenzentren. Für größere Modelle oder intensiven Dauerbetrieb lohnt sich eigene Hardware. Wir helfen bei der TCO-Kalkulation.
Wie gut sind Open-Source Modelle im Vergleich zu ChatGPT?
Für spezialisierte Tasks (Dokumentenanalyse, Code-Assistenz, domänenspezifische Chatbots) erreichen Fine-Tuned Open-Source Modelle vergleichbare oder bessere Ergebnisse. Für allgemeine Konversation sind kommerzielle Modelle breiter aufgestellt.
Was kostet DSGVO-konforme KI?
Machbarkeitsanalyse ab 3.000 Euro. PoC 8.000 bis 20.000 Euro. Production-System 30.000 bis 80.000 Euro je nach Komplexität. Dazu kommen laufende Infrastruktur-Kosten. Festpreis nach Machbarkeitsanalyse.
Könnt ihr bestehende ChatGPT-Lösungen migrieren?
Ja. Wenn Sie aktuell OpenAI APIs nutzen und aus Datenschutzgründen wechseln wollen, migrieren wir auf lokale Open-Source Modelle. Meist mit gleichwertiger oder besserer Performance für Ihren spezifischen Use Case.
Wie lange dauert ein typisches KI-Projekt?
Machbarkeitsanalyse 1 Woche, PoC 2 bis 4 Wochen, Production-System 8 bis 16 Wochen. Wir empfehlen immer erst eine Machbarkeitsanalyse, bevor Sie in ein volles Projekt investieren.
Projekt besprechen?
Erzählen Sie uns von Ihrem Vorhaben. Wir melden uns innerhalb von 24 Stunden.