Transparenz für KI: Warum wir eine SBOM for AI brauchen

Künstliche Intelligenz ist längst kein Zukunftsthema mehr, sondern Teil unseres Alltags. Ob in der Industrie, bei öffentlichen Diensten oder in digitalen Anwendungen, KI-Systeme übernehmen zunehmend wichtige Aufgaben. Gleichzeitig wird ihre technische Basis immer komplexer. Oft bestehen KI-Anwendungen aus verschiedenen Modellen, Datenquellen, Software-Bibliotheken und Komponenten, deren Herkunft und Zusammensetzung schwer nachvollziehbar ist. Genau hier setzt das Konzept einer SBOM for AI an.

SBOM steht für Software Bill of Materials, also eine Art Zutatenliste für Software. Übertragen auf KI bedeutet das: Es soll transparent gemacht werden, welche Modelle, Daten und technischen Abhängigkeiten ein KI-System enthält. Auf dem G7-Arbeitstreffen zur Cybersicherheit im Mai 2025 in Ottawa wurde dieses Konzept als gemeinsamer Vorschlag der Cybersicherheitsbehörden vorgestellt. Das Ziel: mehr Transparenz, mehr Sicherheit und mehr Vertrauen in KI-Systeme.

Key findings:

  • Eine SBOM for AI schafft Transparenz über Modelle, Daten und Komponenten eines KI-Systems.

  • Sie stärkt die Sicherheit entlang der gesamten KI-Lieferkette und unterstützt bei Audits.

  • Die G7-Initiative definiert erste Mindestanforderungen und fördert internationale Standards.

  • ISO/IEC 42001 ergänzt die SBOM for AI als Managementrahmen für vertrauenswürdige KI.

Was ist eine SBOM for AI?

Im Vergleich zu klassischer Software ist ein KI-System deutlich schwerer zu durchschauen. Viele Anwendungen basieren auf vortrainierten Modellen, die aus verschiedensten Datenquellen gespeist wurden. Hinzu kommen komplexe Trainings- und Feinabstimmungsprozesse, die oft nicht dokumentiert oder von außen nachvollziehbar sind. All das macht es schwierig, die Qualität, Sicherheit und Vertrauenswürdigkeit eines KI-Systems zu bewerten.

Eine klassische SBOM, wie sie in der Softwareentwicklung bereits genutzt wird, reicht dafür nicht aus. Sie bildet zwar Abhängigkeiten zwischen Code-Komponenten ab, berücksichtigt jedoch nicht die Besonderheiten von KI, zum Beispiel den Einfluss von Trainingsdaten auf das Verhalten eines Modells oder die dynamische Weiterentwicklung durch Nachtraining und Updates.

Genau deshalb ist eine eigene SBOM für KI notwendig. Sie soll nicht nur technische Komponenten erfassen, sondern auch Informationen über den gesamten KI-Lebenszyklus enthalten. Nur so lassen sich zentrale Fragen beantworten: Woher stammen die Daten? Wie wurde das Modell trainiert? Welche Risiken bestehen durch mögliche Verzerrungen oder Sicherheitslücken?

Warum braucht KI eine eigene SBOM?

Künstliche Intelligenz kann nur dann vertrauenswürdig sein, wenn ihre Herkunft und Funktionsweise nachvollziehbar sind. Gerade in sicherheitskritischen Bereichen ist es entscheidend zu wissen, welche Komponenten ein KI-System nutzt, wie diese zusammenwirken und welche Risiken sich daraus ergeben können. Angriffe auf Lieferketten, sogenannte Supply-Chain-Angriffe, gehören heute zu den größten Bedrohungen für IT-Systeme und KI macht da keine Ausnahme.

Eine SBOM for AI schafft hier mehr Klarheit. Sie ermöglicht es, gezielt nach Schwachstellen zu suchen, bekannte Sicherheitslücken schneller zu erkennen und gezielt Gegenmaßnahmen einzuleiten. Auch bei Audits und Compliance-Prüfungen vereinfacht sie die Arbeit erheblich. Denn wer auf einen Blick sehen kann, welche Modelle, Datenquellen und Sicherheitsmaßnahmen in einem KI-System verwendet wurden, kann Risiken besser einschätzen und dokumentieren.

Hinzu kommt ein weiterer Vorteil: Durch die Transparenz steigt die Wiederverwendbarkeit bereits geprüfter Komponenten, was Entwicklungsaufwand und Kosten reduziert. Gleichzeitig unterstützt die SBOM auch bei Lizenzmanagement und der Einhaltung regulatorischer Anforderungen. Für alle Beteiligten im KI-Lebenszyklus – von Entwicklern über Betreiber bis hin zu Prüfinstanzen – bringt sie damit spürbare Entlastung.

Was soll eine SBOM for AI enthalten?

Damit eine SBOM for AI ihren Zweck erfüllt, muss sie die Besonderheiten von KI-Systemen abbilden. Dazu gehören nicht nur klassische Informationen wie Komponentenname, Version und Anbieter, sondern auch Angaben, die speziell für KI relevant sind.

Die G7-Cybersicherheitsgruppe hat in Ottawa eine erste Sammlung sogenannter „Minimum Elements“ vorgeschlagen. Diese sollen als Grundlage für eine internationale Standardisierung dienen und folgende Punkte umfassen:

  • Modelle: Informationen über die eingesetzten KI-Modelle, einschließlich Herkunft, Trainingsmethode und geplanter Verwendungszweck.

  • Trainingsdaten: Beschreibung der eingesetzten Datenquellen, ihrer Qualität, Herkunft und möglichen Verzerrungen.

  • Lernprozesse: Techniken, Algorithmen und Datenpipelines, die im Trainings- und Weiterentwicklungsprozess genutzt wurden.

  • Sicherheits- und Compliance-Merkmale: Hinweise auf Schutzmaßnahmen, dokumentierte Prüfungen und eingehaltene Sicherheitsstandards.

  • Systemverhalten: Beschreibung, wie das Modell Daten verarbeitet und wie die verschiedenen Komponenten miteinander verknüpft sind.

  • Leistungskennzahlen: Angaben zu Testergebnissen, Benchmarks und Qualität des Modells.

  • Lizenzen: Informationen zu rechtlichen Rahmenbedingungen der verwendeten Komponenten.

  • Technische Infrastruktur: Details zu benötigter Software und Hardware zur Ausführung des KI-Systems.

Diese Informationen sollen in einem strukturierten, maschinenlesbaren Format bereitgestellt werden. Ziel ist es, automatisierte Prüfungen und einfache Integration in bestehende Sicherheits- und Transparenzprozesse zu ermöglichen.

Step by step towards certifiable ISMS

Mit dem ISMS Tool von fuentis implementieren Sie aktuelle Standards automatisiert und effizient. Unsere schlüsselfertigen Module, Workflows und Expertenunterstützung machen den Aufbau eines ISMS einfach und zeitsparend – egal, ob Sie von Grund auf neu beginnen oder bestehende Systeme anpassen.

Multi-Compliance ISMS

Vollständiges ISMS Tool, das Sie unkompliziert zur ISO 27001 Zertifizierung führt und gleichzeitig andere Compliance-Anforderungen abdeckt. Wir sprechen Compliance, ob Grundschutz, TISAX® oder NIS2.

Automated processes

Automatisierte ISMS Prozesse und Workflows, die Sie Schritt für Schritt durch den Zertifizierungsprozess führen – auch ohne Vorkenntnisse.

Review Questionnaires

Simple and customizable questionnaires that help you quickly and clearly determine your protection requirements. Risk-based information security has never been easier.

Personal support

Personal support from experienced consultants who clearly explain what needs to be done – from the initial analysis to audit assistance.​

Herausforderungen und offene Fragen

So vielversprechend das Konzept einer SBOM for AI ist, so groß sind auch die Herausforderungen bei der praktischen Umsetzung. Eine der größten Hürden ist die Standardisierung. Während klassische SBOMs bereits in etablierten Formaten existieren, fehlt es im KI-Bereich bislang an einheitlichen Strukturen, Schnittstellen und Werkzeugen. Viele vorhandene Tools wie Model Cards oder System Cards sind nicht maschinenlesbar, schlecht automatisierbar oder schwer integrierbar.

Hinzu kommen rechtliche Fragen. In vielen Fällen handelt es sich bei den eingesetzten Modellen, Trainingsdaten oder Pipelines um vertrauliche Informationen. Die Offenlegung dieser Details könnte Geschäftsgeheimnisse oder geistiges Eigentum berühren. Gleichzeitig fordern Regulierungsbehörden und Anwender mehr Transparenz und Nachvollziehbarkeit. Es gilt also, einen sinnvollen Ausgleich zwischen Offenheit und Schutzinteressen zu finden.

Auch die Dynamik von KI-Systemen stellt eine Herausforderung dar. Neue Verfahren wie Modell-Distillation, der Einsatz synthetischer Daten oder laufende Nachtrainierungen machen es schwer, den Überblick zu behalten. Damit eine SBOM for AI aktuell bleibt, muss sie laufend angepasst und erweitert werden. Ohne automatisierte Prozesse und klare Verantwortlichkeiten droht sie schnell zu veralten.

Eine wichtige Entwicklung in diesem Zusammenhang ist die neue ISO/IEC 42001. Als erste internationale Managementsystemnorm speziell für KI adressiert sie viele der genannten Lücken. Sie legt Anforderungen fest, wie Organisationen den verantwortungsvollen, transparenten und sicheren Einsatz von KI-Systemen über deren gesamten Lebenszyklus hinweg gestalten können – einschließlich Themen wie algorithmische Entscheidungsfindung, Datenethik und Rückverfolgbarkeit.

Damit ergänzt ISO 42001 bestehende Normen wie ISO 27001 oder ISO 9001 und bietet einen strukturierten Rahmen, der auch mit einer SBOM for AI verknüpft werden kann. Gemeinsam könnten beide Ansätze – SBOM und ISO 42001 – dazu beitragen, KI-Systeme nicht nur transparenter, sondern auch auditierbar und nachhaltig steuerbar zu machen.

Ausblick: Der G7-Prozess als Wegbereiter

Das Konzept der SBOM for AI wurde im Rahmen der G7-Cybersecurity-Arbeitsgruppe unter der Leitung des BSI und der italienischen Cybersicherheitsbehörde entwickelt. Die internationale Zusammenarbeit ist dabei kein Zufall, sondern eine bewusste Antwort auf die globale Bedeutung von KI. Denn nur durch gemeinsame Standards und abgestimmte Rahmenbedingungen lässt sich eine vertrauenswürdige digitale Zukunft gestalten.

Ein zentrales Ergebnis des Treffens in Ottawa war die Verständigung auf grundlegende Informationskategorien, die in einer SBOM for AI enthalten sein sollten. In einem nächsten Schritt soll nun ein sogenanntes „Minimum Set of Elements“ definiert werden. Dies ist eine standardisierte Grundlage, die es Herstellern, Entwicklern und Prüfinstanzen ermöglicht, KI-Systeme strukturiert und vergleichbar zu dokumentieren.

Dabei soll die Zusammenarbeit mit Herstellern von SBOM-Frameworks ebenso intensiviert werden wie der Dialog mit Unternehmen, Behörden und Forschungseinrichtungen. Ziel ist es, SBOMs für KI nicht nur als theoretisches Konzept zu verankern, sondern sie in der Praxis anwendbar zu machen und damit eine neue Qualität an Transparenz und Sicherheit zu schaffen.

Scroll to Top

Discover more from fuentis

Subscribe now to keep reading and get access to the full archive.

Continue reading