Schutz von Anwendungen und Daten für künstliche Intelligenz und Machine Learning

Teilen:

Die Technologien im Bereich der künstlichen Intelligenz (KI) und des Machine Learning (ML) halten Einzug in gängige Systeme, Geräte und kritische Anwendungen, da kommerzielle und industrielle Unternehmen immer stärker vernetzt werden. Aktuelle Anwendungsfälle sind heute in den verschiedensten Bereichen weit verbreitet, von Spracherkennung, Malware-Erkennung und Qualitätstests bis hin zu sicherheitskritischen Anwendungen, wie Fahrassistenzsysteme oder medizinische Diagnosen.

Bedrohungen für die KI und das Machine Learning

Ein Angriff auf eine KI-Anwendung oder sogar eine einfache Fehlfunktion oder eine versehentliche Manipulation können lebensbedrohende Folgen haben. Im medizinischen Bereich könnte eine falsche Klassifizierung zu einer falschen medizinischen Diagnose und in der Folge zu einer falschen Behandlung führen. Außerdem werden KIs auf sensible Patientendaten trainiert, bei denen Vertraulichkeit und Anonymität des Patienten an erster Stelle stehen. Bei diesen Daten kann es sich um einen CT- oder MRT-Scan sowie um Informationen über die Krankengeschichte des Patienten handeln, bei denen eine Verfälschung der von der KI generierten Daten nachteilige Folgen für den Patienten haben könnte.

Im Industriesektor könnte ein Angriff beispielsweise auf die ML-Trainingsdaten erfolgen, wo selbst scheinbar harmlose Änderungen, wie die Veränderung der Farbe einzelner Pixel, große Auswirkungen haben können. Bestimmte manipulierte Eigenschaften könnten in das trainierte Modell einfließen, die kein Mensch jemals entdecken würde. In ähnlicher Weise wäre es möglich, dass ein Angreifer die Vorverarbeitung der Trainingsdaten, die Trainingsparameter oder sogar das fertig trainierte Modell manipulieren, um im weiteren Verlauf Fehler zu verursachen oder das System dazu zu bringen, falsche Klassifizierungsergebnisse zu liefern.

Schutz des Lebenszyklus von Machine Learning

Die Angriffspunkte des Lebenszyklus von Machine Learning sind vielfältig und der Schutz vor Manipulationen ist entscheidend. Die Manipulation von Daten oder Algorithmen, die im Lebenszyklus des Machine Learning verwendet werden, kann katastrophale Folgen haben. Zudem muss die Vertraulichkeit sensibler Daten gewährleistet und das darin enthaltene geistige Eigentum geschützt werden, da die Trainingsdaten beispielsweise das Innenleben einer Komponente offenlegen könnten. Auch die KI-Anwendung selbst oder die ihr zugrunde liegenden Daten über die Relevanz bestimmter Trainingsparameter könnten in dieser Hinsicht geistiges Eigentum darstellen.

CodeMeter Protection Suite

Die CodeMeter Protection Suite bietet einen umfassenden Werkzeugkasten für den Schutz von ausführbaren Dateien und Daten in KI- und ML-Anwendungen. Ausführbare Dateien werden vor Manipulationen oder Reverse Engineering weit über die traditionellen „Security-by-Obscurity“-Mechanismen hinaus geschützt. Ausführbare Dateien oder sensible Funktionen werden mit etablierten kryptografischen Algorithmen verschlüsselt. Darüber hinaus werden kryptografische Methoden eingesetzt, um die Integrität von Software und Daten zu schützen. Funktionen und Daten werden zur Laufzeit entschlüsselt. Sensible Teile des Codes können sogar entschlüsselt und ausgeführt werden und Schlüssel oder Zertifikate können sicher übertragen und in sicherer Hardware gespeichert werden. Damit bleiben nicht nur die Schlüssel geheim, sondern es wird auch die Manipulation von Schlüsseln und Zertifikaten verhindert.

AxProtector Python

Aufgrund der Verfügbarkeit von Open-Source-Frameworks und der Beliebtheit der Programmiersprache werden KI-Anwendungen häufig in Python geschrieben. AxProtector Python schützt sowohl den Framework-Code, der für das Training verwendet wird, als auch die Daten, die im Lebenszyklus des maschinellen Lernens verwendet werden, vor Manipulation, Diebstahl von geistigem Eigentum und unberechtigter Nutzung.

Nach oben