AI-Transparenzerklärung

Gemäß EU AI Act (VO (EU) 2024/1689) · Art. 4 AI Literacy · Art. 50 Transparenzpflicht · Letzte Aktualisierung: 24. März 2026

FeedOracle setzt künstliche Intelligenz als unterstützendes Werkzeug innerhalb seiner Compliance-Evidence-Infrastruktur ein. Diese Seite dokumentiert transparent, welche AI-Systeme wir verwenden, welche Rolle sie spielen, und wo menschliche Entscheidungen unersetzbar bleiben.

1. Unsere Rolle unter dem EU AI Act

FeedOracle ist Deployer (Betreiber) von General Purpose AI-Modellen, nicht Provider (Entwickler). Wir entwickeln keine eigenen Foundation Models, sondern integrieren bestehende Modelle als Werkzeuge in eine deterministische, regelbasierte Compliance-Infrastruktur.

Unsere AI-Systeme fallen unter die Kategorie Minimal/Limited Risk. Sie bewerten keine natürlichen Personen, erstellen keine Kredit-Scores und treffen keine Entscheidungen über den Zugang zu wesentlichen Dienstleistungen. Gemäß Annex III des AI Acts und Recital 85 sind Systeme zur Berechnung regulatorischer Compliance-Scores für Finanzinstitute explizit nicht als High-Risk eingestuft.

2. AI-System-Inventar

AI Query GatewayLIMITED RISK
Modell:
DeepSeek (LLM) — Routing-Klassifikator
Funktion:
Übersetzt natürlichsprachliche Fragen in strukturierte API-Aufrufe. Wählt aus 43 deterministischen Endpoints den passenden aus.
Output:
Kein eigenständiger Content — nur Routing-Entscheidung zu vorhandenen Daten-APIs Automatisch
Risiko:
Minimal. Falsche Routings führen zu "keine Daten gefunden", nicht zu falschen Compliance-Aussagen.
LLM Clause Check (DORA Art. 30)LIMITED RISK
Modell:
Anthropic Claude API
Funktion:
Analysiert ICT-Verträge auf die 15 Pflichtklauseln gemäß DORA Art. 30. Gibt PRESENT/PARTIAL/MISSING pro Klausel zurück.
Output:
Vorbereitende Analyse Mensch prüft — Vertragsverhandlung bleibt menschliche Entscheidung
Risiko:
Limited. Unterstützt menschliche Prüfung, ersetzt sie nicht. Art. 6(3) Exemption: "narrow procedural task" + "improve result of human activity".
Insider Information Classifier (MiCA Art. 87)LIMITED RISK
Modell:
Regelbasierte Heuristiken + Severity-Scoring
Funktion:
Klassifiziert Events nach Materialitäts-Wahrscheinlichkeit (HIGH/MEDIUM/LOW). Gibt Artikel-Referenz und empfohlene Maßnahmen aus.
Output:
Indikative Einschätzung Mensch PFLICHT — Klassifikation als Insiderinformation muss von verantwortlicher Person signiert werden
Risiko:
Limited. System empfiehlt, Mensch entscheidet. Höchstes Enforcement-Risiko laut ESMA — daher zwingender Human Checkpoint.
STOR Signal Detection (MiCA Art. 92)LIMITED RISK
Modell:
Pattern-Matching + statistische Anomalie-Erkennung
Funktion:
Erkennt verdächtige Transaktionsmuster (Wash Trading, Spoofing, Front Running etc.) und berechnet Confidence Scores.
Output:
Signal mit Confidence-Score Mensch PFLICHT — "Reasonable Suspicion" ist eine normative Bewertung, die der Surveillance Officer treffen muss
Risiko:
Limited. Kein automatisches Blocken oder Melden — immer menschliche Freigabe vor NCA-Meldung.
Deterministische Scoring-EnginesMINIMAL RISK
Modell:
Keine AI — regelbasierte Schwellenwert-Logik
Funktion:
Peg-Deviation, Reserve-Coverage, DORA-Artikel-Bewertung, Compliance-Ampel (GRÜN/GELB/ROT). Basiert auf definierten Schwellenwerten, nicht auf Prognosen.
Output:
Deterministische Ergebnisse Vollautomatisch — gleicher Input = gleicher Output, reproduzierbar
Risiko:
Minimal. Kein AI-System im Sinne des EU AI Acts (Art. 3(1)) — rein regelbasierte Verarbeitung ohne Inferenz oder Adaptivität.
Kryptographische SignierungKEIN AI-SYSTEM
Technologie:
ES256K (secp256k1 ECDSA) + SHA-256 + Blockchain-Verankerung (Polygon PoS, XRPL)
Funktion:
Signiert und verankert alle Evidence-Pakete. Kein AI — rein kryptographische Operationen.
eIDAS-Level:
Advanced Electronic Signature (Art. 25 eIDAS). Upgrade-Pfad zu Qualified Timestamp (Art. 42) dokumentiert.

3. Risiko-Klassifikation

SystemAI Act RisikoBegründungHuman Checkpoint
AI Query GatewayLimitedRouting-Funktion, kein eigenständiger ContentNicht erforderlich
LLM Clause CheckLimitedArt. 6(3): vorbereitende Aufgabe, verbessert menschliche PrüfungVertragsverantwortlicher
Insider ClassifierLimitedIndikativ, keine automatische EntscheidungPflicht: Verantwortliche Person
STOR DetectionLimitedSignal-Erkennung, keine automatische MeldungPflicht: Surveillance Officer
Compliance ScoringMinimalDeterministisch, kein AI-System (Art. 3(1))Nicht erforderlich
Signierung/AnchoringKein AIKryptographische OperationenNicht anwendbar

4. Warum FeedOracle kein High-Risk AI System ist

Annex III des EU AI Acts definiert High-Risk AI-Systeme im Finanzbereich als solche, die:

• Die Kreditwürdigkeit natürlicher Personen bewerten oder deren Kredit-Score erstellen
Risikobeurteilungen und Preisgestaltung für natürliche Personen bei Lebens- und Krankenversicherungen durchführen

FeedOracle bewertet keine natürlichen Personen. Unsere Systeme bewerten Tokens (USDC, EURC, USDT), Regulierungsartikel (MiCA Art. 35, DORA Art. 28), Verträge (ICT-Drittanbieter) und Institutionen (Compliance-Readiness). Keine dieser Funktionen fällt unter Annex III.

Zusätzlich stellt Recital 85 des AI Acts klar: "AI-Systeme zur Berechnung regulatorischer Kapitalanforderungen für Finanzinstitute sollten nicht als High-Risk unter diesem Act betrachtet werden." Compliance-Scoring für Regulierungszwecke ist explizit ausgenommen.

5. Transparenz-Maßnahmen (Art. 50)

Alle AI-generierten Outputs sind als solche gekennzeichnet:

• Jede MCP-Tool-Response enthält ein provenance-Feld mit der Kennzeichnung "FeedOracle MiCAOracle — AI-assisted, human-required" wo zutreffend
• LLM Clause Check-Ergebnisse sind als "AI-gestützte Analyse" markiert
• STOR-Signale tragen den Hinweis "AI signals are indicative only"
• Insider-Klassifikationen enthalten "AI assessment is indicative only — human sign-off required"

6. AI Literacy (Art. 4)

FeedOracle stellt sicher, dass alle Nutzer der Plattform über die Rolle von AI im System informiert sind:

• Diese Transparenz-Seite ist öffentlich zugänglich
• Die Compliance-Dashboards kennzeichnen Human-Checkpoint-Pflichten visuell
• Die API-Dokumentation beschreibt, welche Endpoints AI verwenden
• Enterprise-Kunden erhalten eine Einweisung in die AI-Architektur

7. Datenschutz & AI

FeedOracle verarbeitet keine personenbezogenen Daten in seinen AI-Systemen. Die AI-Komponenten arbeiten ausschließlich mit:

• Öffentlich verfügbaren Marktdaten (Peg-Kurse, Reserve-Berichte, ESMA-Register)
• Regulierungstexten (MiCA, DORA, Implementing Regulations)
• Vom Kunden bereitgestellten Vertragstexten (nur bei LLM Clause Check, nicht gespeichert)
• On-Chain-Daten (Blockchain-Transaktionen, Smart Contract Reads)

8. Kontakt & Verantwortung

AI-Verantwortlicher: Murat Yüksel, CEO & Founder, FeedOracle
Kontakt: compliance@feedoracle.io
Zuständige Aufsichtsbehörde (AI Act): Noch zu bestimmen durch Bundesrepublik Deutschland (Frist: August 2025)
Aktualisierung: Diese Seite wird bei jeder wesentlichen Änderung an AI-Systemen aktualisiert.