AI Governance, Risk & Compliance Platform

Umfassende ISO 42001-konforme Plattform für AI Management: von Maturitäts-Assessment über Roadmap-Planung bis zu kontinuierlichem Monitoring. Intuitiv, leistungsstark für Enterprise-Teams.

ISO 42001 konform NIST AI RMF EU AI Act Ready Multi-Framework Mapping

🎯 ISO 42001 Maturitäts-Assessment

10 strategische Fragen zur Bewertung Ihrer AI Management Reife

1
Verfügt Ihre Organisation über eine dokumentierte AI-Strategie mit klaren Zielen und Governance-Strukturen?

Was bedeutet das konkret?

Eine AI-Strategie ist wie ein Fahrplan für den Einsatz von Künstlicher Intelligenz in Ihrem Unternehmen. Sie beantwortet folgende Fragen:

  • Warum setzen wir AI ein? (z.B. Effizienzsteigerung, bessere Kundenbetreuung)
  • Wo setzen wir AI ein? (z.B. Chatbots, Datenanalyse, Prozessautomatisierung)
  • Wer ist verantwortlich? (z.B. AI-Manager, Datenschutzbeauftragter)
  • Wie stellen wir sicher, dass AI sicher und ethisch verwendet wird?

Praktisches Beispiel:

Ein Online-Shop nutzt AI für Produktempfehlungen. Die AI-Strategie legt fest:

  • Ziel: Umsatzsteigerung um 15% durch personalisierte Empfehlungen
  • Verantwortlich: E-Commerce Manager (Umsetzung) + Datenschutzbeauftragter (Compliance)
  • Governance: Monatliche Reviews der AI-Performance, vierteljährliche Datenschutz-Audits

So starten Sie:

  1. Workshop organisieren (2-3 Stunden) mit Geschäftsleitung, IT, Datenschutz
  2. Template nutzen: "AI-Strategie Template"
  3. Dokumentieren Sie:
    • Geschäftsziele (z.B. "Kundenservice-Kosten um 20% senken")
    • AI-Anwendungsfälle (z.B. "Chatbot für FAQ")
    • Rollen & Verantwortlichkeiten (RACI-Matrix)
    • Budget & Ressourcen
    • Risiken & Massnahmen (z.B. "Datenschutz: Anonymisierung implementieren")
  4. Freigabe einholen: Management-Approval
  5. Kommunizieren: Intranet, Team-Meetings, Schulungen
🔗 ISO 42001 Mapping:
📋 Clause 4.1 - Context 📋 Clause 5.1 - Leadership 📋 Clause 6.1 - Planning
2
Sind Rollen und Verantwortlichkeiten für AI Management klar definiert und kommuniziert?

Was ist das?

Jeder im Unternehmen muss wissen: Wer ist wofür zuständig, wenn es um AI geht? Das verhindert, dass wichtige Aufgaben "durchs Raster fallen".

Typische AI-Rollen:

  • AI Manager: Gesamtverantwortung für AI-Strategie & -Governance
  • Data Scientist: Entwicklung & Training von AI-Modellen
  • AI Ethics Officer: Sicherstellen, dass AI ethisch & fair ist
  • Datenschutzbeauftragter: DSGVO-Compliance, Datenschutz-Impact-Assessments
  • Business Owner: Definiert Anforderungen & Use Cases

So setzen Sie es um:

  1. Rollen identifizieren: Welche Rollen brauchen Sie?
  2. Personen zuweisen: Wer übernimmt welche Rolle?
  3. RACI-Matrix erstellen: Für alle wichtigen AI-Aufgaben
  4. Job Descriptions aktualisieren: AI-Verantwortlichkeiten in Stellenbeschreibungen aufnehmen
  5. Kommunizieren: Alle Beteiligten informieren
  6. Training: Schulungen für neue Rollen
🔗 ISO 42001 Mapping:
📋 Clause 5.3 - Roles & Responsibilities 📋 Clause 7.2 - Competence
3
Führen Sie systematische Risikobewertungen für AI-Systeme durch?

Was ist das?

Risikobewertung bedeutet: Welche Probleme können mit unseren AI-Systemen auftreten? Wie wahrscheinlich ist das? Wie schlimm wären die Folgen?

Typische AI-Risiken:

  • Bias/Diskriminierung: AI benachteiligt bestimmte Gruppen
  • Datenschutz: Personendaten werden unrechtmässig verarbeitet
  • Sicherheit: AI-System wird gehackt oder manipuliert
  • Fehlerhafte Entscheidungen: AI trifft falsche Entscheidungen
  • Regulatorische Risiken: Verstoss gegen DSGVO oder EU AI Act

5-Schritte-Prozess:

  1. Risiken identifizieren: Was kann schiefgehen?
  2. Wahrscheinlichkeit bewerten: Wie wahrscheinlich ist es? (1-5)
  3. Auswirkungen bewerten: Wie schlimm wäre es? (1-5)
  4. Risiko-Score berechnen: Wahrscheinlichkeit × Auswirkung
  5. Massnahmen definieren: Wie reduzieren wir das Risiko?
🔗 ISO 42001 Mapping:
📋 Clause 6.1 - Risk Assessment 📋 Clause 8.1 - Operational Planning 📋 Annex A - Control 5.1
4
Sind Datenschutz- und Sicherheitsmassnahmen für AI-Daten implementiert?

Was ist das?

AI-Systeme verarbeiten oft sensible Daten. Diese müssen geschützt werden vor unbefugtem Zugriff, Missbrauch und Datenlecks.

Wichtige Schutzmassnahmen:

  • Zugriffskontrolle: Nur autorisierte Personen haben Zugang zu AI-Daten
  • Verschlüsselung: Daten werden verschlüsselt gespeichert und übertragen
  • Anonymisierung: Personenbezogene Daten werden anonymisiert
  • Backup & Recovery: Regelmässige Datensicherung
  • Monitoring: Überwachung auf verdächtige Aktivitäten

DSGVO-Compliance für AI:

  • Rechtsgrundlage: Warum dürfen wir die Daten verarbeiten?
  • Zweckbindung: Daten nur für den angegebenen Zweck nutzen
  • Datenminimierung: Nur notwendige Daten sammeln
  • Betroffenenrechte: Auskunft, Löschung, Widerspruch ermöglichen
  • Privacy by Design: Datenschutz von Anfang an mitdenken
🔗 ISO 42001 Mapping:
📋 Annex A - Control 6.1 (Data Quality) 📋 Annex A - Control 6.2 (Data Security) 📋 Annex A - Control 6.3 (Privacy)
5
Existieren Prozesse zur Überwachung und Bewertung der AI-Performance?

Was ist das?

AI-Performance-Monitoring bedeutet: Wir überwachen kontinuierlich, ob unsere AI-Systeme so funktionieren wie geplant und die gewünschten Ergebnisse liefern.

Wichtige KPIs für AI-Systeme:

  • Genauigkeit (Accuracy): Wie oft trifft die AI die richtige Entscheidung?
  • Präzision: Von den als positiv klassifizierten Fällen, wie viele sind wirklich positiv?
  • Recall: Von allen positiven Fällen, wie viele hat die AI erkannt?
  • Response Time: Wie schnell antwortet das AI-System?
  • Verfügbarkeit: Wie oft ist das System verfügbar?
  • Fairness: Behandelt die AI alle Gruppen gleich?

Praktische Umsetzung:

  1. KPIs definieren: Was wollen wir messen?
  2. Schwellenwerte festlegen: Ab wann ist eine Abweichung kritisch?
  3. Dashboard aufsetzen: Visualisierung der wichtigsten Metriken
  4. Alerting konfigurieren: Automatische Benachrichtigung bei Problemen
  5. Reporting etablieren: Regelmässige Berichte an Management
🔗 ISO 42001 Mapping:
📋 Clause 9.1 - Monitoring & Measurement 📋 Annex A - Control 8.1 (Performance)
6
Werden Mitarbeitende regelmässig zu AI Ethics, Bias und Compliance geschult?

Warum ist das wichtig?

AI-Systeme sind nur so gut wie die Menschen, die sie entwickeln und einsetzen. Ohne entsprechende Schulungen können unbewusst Probleme entstehen.

Wichtige Schulungsthemen:

  • AI Ethics: Was ist ethisch vertretbar? Was nicht?
  • Bias & Fairness: Wie entstehen Vorurteile in AI? Wie vermeiden?
  • Datenschutz: DSGVO-konforme AI-Entwicklung
  • Transparenz: Wie erkläre ich AI-Entscheidungen?
  • Sicherheit: Wie schütze ich AI vor Angriffen?

Praktische Umsetzung:

  1. Schulungsplan erstellen: Wer braucht welche Schulung wann?
  2. Inhalte entwickeln: E-Learning, Präsenzschulungen, Workshops
  3. Externe Experten einbeziehen für spezielle Themen
  4. Erfolg messen: Tests, Feedback, Anwendung im Arbeitsalltag
  5. Kontinuierlich aktualisieren: Neue Regulations, Technologien
🔗 ISO 42001 Mapping:
📋 Clause 7.2 - Competence 📋 Clause 7.3 - Awareness 📋 Annex A - Control 3.1 (Training)
7
Sind Ihre AI-Systeme dokumentiert (Modelle, Daten, Entscheidungsprozesse)?

Warum ist Dokumentation wichtig?

Ohne Dokumentation ist es unmöglich zu verstehen, wie ein AI-System funktioniert, welche Daten es verwendet und warum es bestimmte Entscheidungen trifft.

Was muss dokumentiert werden?

  • Systemübersicht: Zweck, Funktionsweise, Architektur
  • Datenquellen: Herkunft, Qualität, Verarbeitung
  • Modell-Details: Algorithmus, Parameter, Training
  • Entscheidungslogik: Wie trifft das System Entscheidungen?
  • Risikobewertung: Identifizierte Risiken und Massnahmen
  • Tests & Validierung: Wie wurde das System getestet?

Best Practices:

  • Versionskontrolle: Jede Änderung dokumentieren
  • Automatisierung: Code-Kommentare automatisch in Doku übernehmen
  • Standardisierung: Einheitliche Templates verwenden
  • Regelmässige Updates: Dokumentation aktuell halten
  • Zugänglichkeit: Leicht findbar und verständlich
🔗 ISO 42001 Mapping:
📋 Clause 7.5 - Documented Information 📋 Annex A - Control 7.1 (Documentation) 📋 Annex A - Control 7.2 (Traceability)
8
Existieren Prozesse für Incident Management und Eskalation bei AI-Fehlern?

Was ist ein AI-Incident?

Ein Incident ist jeder Vorfall, bei dem ein AI-System nicht wie erwartet funktioniert und dadurch Schäden oder Risiken entstehen können.

Typische AI-Incidents:

  • Falsche Entscheidungen: AI trifft offensichtlich falsche Entscheidungen
  • Bias-Vorfälle: AI diskriminiert bestimmte Gruppen
  • Datenlecks: Sensible Trainingsdaten werden preisgegeben
  • System-Ausfälle: AI-System ist nicht verfügbar
  • Manipulation: Adversarial Attacks auf das System

Incident Management Prozess:

  1. Erkennung: Monitoring erkennt Problem automatisch oder User meldet es
  2. Bewertung: Wie kritisch ist der Vorfall?
  3. Eskalation: Bei kritischen Vorfällen sofort Management informieren
  4. Sofortmassnahmen: System stoppen, Schäden begrenzen
  5. Analyse: Root Cause Analysis - was war die Ursache?
  6. Behebung: Langfristige Lösung implementieren
  7. Lessons Learned: Was lernen wir daraus?
🔗 ISO 42001 Mapping:
📋 Clause 10.1 - Nonconformity 📋 Annex A - Control 9.1 (Incident Mgmt)
9
Führen Sie regelmässige Audits und Reviews Ihres AI Management Systems durch?

Warum sind Audits wichtig?

Audits helfen dabei herauszufinden: Funktioniert unser AI Management System wirklich? Halten wir uns an unsere eigenen Regeln? Was können wir verbessern?

Arten von Audits:

  • Interne Audits: Durchgeführt von eigenen Mitarbeitenden
  • Externe Audits: Durchgeführt von unabhängigen Prüfern
  • Compliance Audits: Prüfung der Einhaltung von Gesetzen/Standards
  • Performance Audits: Prüfung der Leistung und Effizienz
  • Security Audits: Prüfung der Sicherheitsmassnahmen

Audit-Prozess:

  1. Planung: Audit-Umfang, Termine, Auditoren festlegen
  2. Vorbereitung: Dokumente sammeln, Checklisten erstellen
  3. Durchführung: Interviews, Dokumentenprüfung, Tests
  4. Bewertung: Findings kategorisieren (Critical, Major, Minor)
  5. Berichterstattung: Audit-Bericht mit Empfehlungen
  6. Follow-up: Umsetzung der Massnahmen verfolgen
🔗 ISO 42001 Mapping:
📋 Clause 9.2 - Internal Audit 📋 Clause 9.3 - Management Review
10
Sind Ihre AI-Systeme konform mit relevanten Regulations (EU AI Act, DSGVO)?

Wichtige AI-Regulations:

  • EU AI Act: Europäische AI-Regulation (ab 2025)
  • DSGVO: Datenschutz-Grundverordnung
  • Schweizer DSG: Schweizerisches Datenschutzgesetz
  • Sektorspezifische Gesetze: Finma, Swissmedic, etc.

EU AI Act - Risiko-Kategorien:

  • Verboten: Social Scoring, Manipulation → Komplettes Verbot
  • Hochrisiko: Bewerbungsauswahl, Kreditentscheidungen → Strenge Auflagen
  • Begrenzt: Chatbots, Deepfakes → Transparenzpflicht
  • Minimal: Spam-Filter, Videospiele → Keine speziellen Auflagen

Compliance-Prozess:

  1. Regulatorische Landschaft verstehen: Welche Gesetze gelten?
  2. Gap-Analyse: Wo stehen wir? Was fehlt noch?
  3. Massnahmenplan: Was müssen wir umsetzen?
  4. Implementierung: Schrittweise Umsetzung
  5. Dokumentation: Nachweis der Compliance
  6. Monitoring: Kontinuierliche Überwachung
🔗 ISO 42001 Mapping:
📋 Clause 4.2 - Interested Parties 📋 Clause 8.1 - Compliance 📋 Annex A - Control 4.1 (Legal)

0%

Maturitäts-Score

🗺️ ISO 42001 Implementierungs-Roadmap

Step-by-Step Massnahmen basierend auf Ihrem Assessment

🚀 Starten Sie Ihr Assessment
START

Führen Sie zuerst das AI Management Assessment durch, um Ihre personalisierte Roadmap zu generieren.

📋 ISO 42001 Controls Übersicht

Alle 39 Controls aus Annex A mit praxisnahen Erklärungen

A.2.1
Policies
AI policy
Dokumentierte AI-Policy, die Management-Richtung und Unterstützung für AI-Systeme definiert.
A.3.1
Organization
AI governance structure
Etablierung einer klaren Governance-Struktur für AI-Management.
A.5.1
Impact Assessment
AI system impact assessment framework
Framework für die Bewertung von AI-System-Auswirkungen.
A.7.1
Data Management
Data governance for AI
Governance-Framework für AI-Daten.
A.8.1
Information
Transparency and explainability
Transparenz und Erklärbarkeit von AI-Systemen.
A.9.1
Usage
Intended use and restrictions
Bestimmungsgemässe Verwendung und Einschränkungen.

📋 Continuous Improvement Kanban

Verwalten Sie Ihre AI GRC Projekte & Massnahmen

📥 Backlog 3
AI Policy dokumentieren
HIGH 15.11.2024
Risk Assessment Framework
HIGH 14.11.2024
Datenqualitäts-Metriken
MEDIUM 13.11.2024
🚀 In Progress 1
RACI-Matrix erstellen
MEDIUM 12.11.2024
👁️ Review 1
Stakeholder Mapping
LOW 11.11.2024
✅ Done 2
AI Team Workshop
HIGH 10.11.2024
Initial Assessment
MEDIUM 08.11.2024

📈 Analytics & Insights

39
ISO 42001 Controls
12
Implementiert
31%
Compliance Rate
High
Risk Score

📊 Maturitäts-Trend (letzte 12 Monate)

🗺️ Control Heatmap

Visualisierung der Implementierungs-Intensität nach ISO 42001 Annex A

📉 Fortschritt nach Kategorie

🔍 Audit Log

Vollständige Nachverfolgbarkeit aller Änderungen

📝
Assessment Frage 1 beantwortet
15.11.2024, 14:32 · Current User
🗺️
Roadmap generiert
15.11.2024, 14:25 · Current User
📋
Aufgabe erstellt: AI Policy dokumentieren
15.11.2024, 14:20 · Current User
📊
Tab gewechselt: analytics
15.11.2024, 14:15 · Current User
🚀
Plattform geöffnet
15.11.2024, 14:10 · Current User

🌐 Multi-Framework Mapping

Ihre ISO 42001 Controls gemappt zu anderen Standards

🇺🇸
NIST AI RMF
Coverage: 78%
🇪🇺
EU AI Act
Coverage: 65%
🔒
ISO 27001
Coverage: 82%
🛡️
NIST CSF
Coverage: 71%
🔐
DSGVO/GDPR
Coverage: 89%
⚖️
SOC 2
Coverage: 55%

⚙️ Einstellungen & Datenmanagement

Import / Export / Backup

Benachrichtigungen

Datenbank-Integration (Coming Soon)

Verbinden Sie die Plattform mit Ihrer Unternehmens-Datenbank für zentrale Datenhaltung.

iOS App (Coming Soon)

Native iOS App mit React Native für mobiles AI GRC Management.

Asset Management (DEMO)

Verwalten Sie AI-Modelle, Daten-Assets und Infrastruktur zentral.