Regulierung & Transparenz
EU AI Act.
Unsere Verpflichtungen.
Stand: April 2026 — EU AI Act (Verordnung EU 2024/1689), in Kraft seit August 2024
Verantwortliches Unternehmen: Cittasana S.R.L., Strada Principala Nr. 69, 327065 Carasova, Județ Caraș-Severin, Rumänien (EU-Mitgliedstaat)
Vertreten durch: Cosmo Gräf (Geschäftsführer/Administrator)
Kontakt AI Act: office@cittasana.de
Unsere Haltung
Transparenz ist kein Compliance-Checkbox für uns — sie ist Grundlage von Vertrauen. Diese Seite erklärt ehrlich, welche KI-Systeme wir einsetzen, wie wir sie klassifizieren und welche Rechte Sie haben. Fragen beantworten wir persönlich: office@cittasana.de
1. Überblick: Welche KI-Systeme wir einsetzen
HiveMind
Wissensmanagementsystem mit KI-Assistenz
Semantische Suche und Frage-Antwort-System auf Basis von Unternehmensdokumenten. Nutzt Claude AI (Anthropic) als Sprachmodell-Backbone.
Automatisierungslösungen
Workflow-Automatisierung und Datenverarbeitung
Regelbasierte und KI-gestützte Automatisierung von Geschäftsprozessen. Dokumentenverarbeitung, Routing, Klassifikation.
AI-Ready-Check
Beratungsunterstützung
KI-gestützte Analyse von Unternehmensprozessen zur Identifikation von Automatisierungspotenzialen. Menschliche Entscheidung bleibt zentral.
Interne Entwicklung
KI-unterstützte Softwareentwicklung
Einsatz von KI-Assistenten (Claude AI) bei der Entwicklung von Kundensystemen. Vollständige menschliche Überprüfung aller Ausgaben.
2. Risikoeinstufung nach EU AI Act
Der EU AI Act klassifiziert KI-Systeme nach ihrem Risikopotenzial in vier Kategorien. Wir haben alle unsere Systeme systematisch eingestuft:
HiveMind — Wissensassistent
Minimales RisikoHiveMind unterstützt Mitarbeiter beim Auffinden von Informationen und beantwortet Fragen auf Basis interner Dokumente. Es trifft keine verbindlichen Entscheidungen, steuert keine kritische Infrastruktur und hat keinen Einfluss auf Rechte natürlicher Personen.
Einstufung: Minimales Risiko gemäß Art. 50 EU AI Act (GPAI-System). Keine Hochrisiko-Klassifizierung nach Anhang III.
Transparenzpflicht: Nutzer werden informiert, dass Antworten von einem KI-System generiert werden. Quellenangaben sind in jeder Antwort enthalten.
Workflow-Automatisierung (AutoFlow, InvoiceBot, etc.)
Minimales RisikoAutomatisierung von Routineprozessen wie Rechnungsstellung, Anfragenrouting und Datensynchronisation. Keine Entscheidungen mit wesentlichen Auswirkungen auf natürliche Personen (kein Biometrie, kein Scoring, keine Beschäftigungsentscheidungen).
Einstufung: Minimales Risiko. Kein Hochrisikosystem nach Anhang III EU AI Act.
Menschliche Aufsicht: Alle automatisierten Ausgaben (Rechnungen, Dokumente) werden von Mitarbeitern vor dem Versand geprüft oder können vom Kunden so konfiguriert werden.
AI-Ready-Check — Beratungsanalyse
Minimales RisikoKI-gestützte Unterstützung bei der Analyse von Unternehmensprozessen. Alle Empfehlungen werden von Cosmo Gräf persönlich überprüft und verantwortet. Die KI liefert Analyseunterstützung — nicht die abschließende Empfehlung.
Einstufung: Minimales Risiko. Vollständige menschliche Letztentscheidung.
Nicht-Einsatz von Hochrisiko-KI: Cittasana AI setzt keine Hochrisiko-KI-Systeme gemäß Anhang III des EU AI Acts ein. Das umfasst ausdrücklich: keine biometrische Identifikation, kein Social Scoring, keine KI in kritischer Infrastruktur, keine KI in Beschäftigungsentscheidungen, keine KI in Bildungszugangsentscheidungen.
3. Menschliche Aufsicht (Human Oversight)
Gemäß Art. 14 EU AI Act stellen wir sicher, dass alle KI-Systeme unter effektiver menschlicher Aufsicht stehen:
Keine autonomen Entscheidungen mit wesentlichen Folgen für Personen oder Unternehmen ohne menschliche Prüfung.
Übersteuerbarkeit: Alle KI-generierten Ausgaben können von Nutzern korrigiert, abgelehnt oder ignoriert werden.
Transparenz der KI-Nutzung: Nutzer werden immer informiert, wenn eine Ausgabe von einem KI-System stammt.
Quellenangabe: HiveMind nennt bei jeder Antwort die zugrundeliegenden Dokumente und Quellen.
Fehlerkorrektur: Kunden können jederzeit fehlerhafte Ausgaben melden. Wir korrigieren und lernen daraus.
4. Datenqualität und Training
Kein Training auf Kundendaten: HiveMind und alle eingesetzten Sprachmodelle (Claude AI von Anthropic) werden nicht auf Kundendaten trainiert. Kundendaten dienen ausschließlich der Beantwortung von Anfragen innerhalb der Kundeninstanz.
Datenisolation: Jede HiveMind-Instanz ist vollständig von anderen Kunden isoliert. Kein Cross-Tenant-Datenzugriff ist technisch möglich.
Qualitätssicherung: Eingangsdaten werden auf Vollständigkeit und Konsistenz geprüft. Bekannte Verzerrungen werden dokumentiert und dem Kunden kommuniziert.
5. Transparenz über eingesetzte Basismodelle (GPAI)
HiveMind nutzt Claude AI, ein General Purpose AI Model (GPAI) von Anthropic PBC. Gemäß Art. 50 EU AI Act informieren wir transparent:
Modell
Claude AI (Anthropic)
Anbieter
Anthropic PBC, San Francisco
Training-Daten
Keine Kundendaten
Zweck bei uns
Semantische Suche, Q&A, Dokumentenanalyse
Datenverarbeitung
Zero Data Retention (API-Modus)
Dokumentation
6. Ihre Rechte im Umgang mit KI-Systemen
Als Nutzer von Cittasana AI-Produkten haben Sie folgende Rechte:
Recht auf Erklärung: Sie können jederzeit eine Erklärung anfordern, wie eine KI-Ausgabe zustande gekommen ist.
Recht auf menschliche Überprüfung: Jede KI-Empfehlung kann von einem Menschen (Cosmo Gräf) überprüft werden.
Recht auf Widerspruch: Sie können der Nutzung von KI-Systemen in Ihrem Kontext widersprechen. Wir bieten in solchen Fällen vollständig manuelle Alternativen an.
Recht auf Datenlöschung: Alle KI-verarbeiteten Daten können auf Anfrage gelöscht werden. Anfragen an: office@cittasana.de
7. Kontakt für AI Act Anfragen
Für Fragen zur KI-Nutzung, Auskunftsersuchen oder Beschwerden zu KI-Systemen:
Cosmo Gräf — Verantwortlicher für KI-Systeme
Antwort in der Regel innerhalb von 48 Stunden.
Zuständige Aufsichtsbehörde für den EU AI Act in Deutschland: Die Bundesregierung hat die Bundesnetzagentur als nationale zuständige Behörde vorgesehen.
8. Konformitätsbewertung
Da Cittasana S.R.L. ausschließlich Systeme minimalen Risikos betreibt, ist keine formelle Konformitätsbewertung nach Anhang VI oder VII des EU AI Acts erforderlich. Wir führen dennoch eine interne Selbstbewertung durch:
Systemdokumentation: Für jedes eingesetzte KI-System wird intern dokumentiert: Zweck, verwendetes Basismodell, Datenquellen, Einschränkungen, durchgeführte Tests.
Risikobewertung: Bei Einführung neuer KI-Systeme oder wesentlicher Änderungen bestehender Systeme führen wir eine Neubewertung der Risikoeinstufung durch.
Lieferantenbewertung: Wir prüfen, dass von uns genutzte Basismodell-Anbieter (insb. Anthropic) ihren eigenen Pflichten nach dem EU AI Act nachkommen. Anthropic hat ein EU AI Act Compliance-Programm.
Änderungsmanagement: Jede wesentliche Änderung an Prompt-Strukturen, Datenquellen oder Systemarchitektur wird dokumentiert und auf Risikoauswirkungen bewertet.
9. Post-Market-Monitoring
Wir überwachen den Betrieb unserer KI-Systeme kontinuierlich und reagieren auf Feedback und Vorfälle:
Leistungsüberwachung
Regelmäßige Stichproben von KI-Ausgaben auf Qualität, Korrektheit und mögliche Verzerrungen. Kundenfeedback wird systematisch ausgewertet.
Vorfallsmeldung
Schwerwiegende Vorfälle oder Missbräuche werden gemäß Art. 73 EU AI Act an die zuständige Behörde gemeldet. Schwellenwerte: wesentliche Beeinträchtigungen von Gesundheit, Sicherheit oder Grundrechten.
Bias-Erkennung
Bei HiveMind prüfen wir, ob Antworten bestimmte Nutzergruppen benachteiligen. Bekannte Einschränkungen des Basismodells werden im Kundenhandbuch dokumentiert.
Verbesserungszyklen
Erkannte Schwächen fließen in den nächsten Entwicklungszyklus ein. Kunden werden bei systemrelevanten Änderungen informiert.
10. Vorfallsmeldung und Beschwerden
Wenn Sie ein Problem mit einem unserer KI-Systeme bemerken — fehlerhafte Ausgaben, mögliche Diskriminierung, unerwartetes Verhalten — bitten wir um direkte Meldung:
Meldung an Cittasana S.R.L.
office@cittasana.de — Betreff: "AI Act Meldung"
Wir bestätigen den Eingang innerhalb von 24h und antworten inhaltlich innerhalb von 5 Werktagen.
Zuständige Marktüberwachungsbehörde für den EU AI Act:
Rumänien (Sitz von Cittasana S.R.L.)
Die zuständige Behörde wird von Rumänien noch benannt (Frist: August 2025 gemäß Art. 70 EU AI Act). Bis dahin gilt die Übergangszuständigkeit. Aktuelle Information: EU-Kommission
11. Aktualisierungen
Der EU AI Act wird schrittweise angewendet (vollständige Anwendung ab August 2026). Cittasana S.R.L. aktualisiert diese Seite bei relevanten Änderungen der Rechtslage, der Benennung nationaler Behörden oder wesentlicher Änderungen unserer KI-Systeme. Stand dieser Version: April 2026. Aktuelle Fassung immer unter ai.cittasana.de/eu-ai-act.