Sicherer und verantwortungsvoller Einsatz von KI

Im Interview erklärt  Philipp Adamidis,  CEO und Mitgründer von QuantPi, wie seine Plattform den sicheren, verständlichen und effizienten Einkauf sowie Einsatz von KI für Organisationen ermöglicht.

 

Herr Adamidis, wie wird aus KI eine vertrauenswürdige KI?

Damit KI vertrauenswürdiger wird, müssen wir sie vor allem verständlich und nachvollziehbar machen. Stellen Sie sich etwa eine KI-gestützte App vor, die Hautkrebs erkennt. Vertrauen entsteht, wenn unter anderem Nutzer wissen, woher die Trainingsbilder stammen, z. B. von Dermatologen, und dass sie vielfältig sind –verschiedene Hautfarben, Alter– etc. Zudem sollte die App erklären, warum sie ein Bild als verdächtig einstuft, z. B. wegen unregelmäßige Form“. Und natürlich muss die App gründlich getestet und laufend überwacht werden, um Fehlfunktionen zu erkennen. Der Weg zur vertrauenswürdigen KI führt nur über Transparenz, Nachvollziehbarkeit und Kontrolle.

Wie funktioniert in diesem Kontext Ihre „AI Trust Platform“?

Unsere Plattform ermöglicht den sicheren, verständlichen und effizienten Einkauf und Einsatz von KI für Organisationen. Sie verbindet KI-Governance-, Compliance- und technische Tests, um eine ganzheitliche und hochautomatisierte Lösung anzubieten, die die Leistung von KI-Systemen nachvollziehbar validiert – ohne dabei geistiges Eigentum oder private Daten offenlegen zu müssen!

Welche Vorteile haben Ihre Kunden davon?

Unsere Kunden profitieren in erster Linie davon, dass im Unternehmen eingesetzte KI-Systeme einheitlich überprüft werden, um einen hohen Qualitätsstandard zu gewährleisten. Somit lassen sich finanzielle, rufschädigende und rechtliche Risiken vermeiden, die durch KI-Systeme verursacht werden könnten. Zusätzlich zur Sicherstellung der Leistung und Einhaltung von Standards im großen Maßstab ermöglicht unsere Testtechnologie auch, dass KI-Experten ihre knapp bemessenen Ressourcen für anspruchsvolle Aufgaben und Innovationen nutzen können, statt für zeitaufwendige Tests.

Wie setzen Sie die Fördergelder des Europäischen Innovationsrats (EIC) ein?

Mit dem Fördergeld erweitern wir unsere KI-Testtechnologie und bauen die erste automatisierte Risikomanagement-Plattform für generative KI-Systeme, welche die Umsetzung von Verordnungen wie dem EU AI Act erleichtern wird. Da die technologische Entwicklung auf diesem Gebiet besonders rasant voranschreitet, müssen auch wir unsere Testtechnologie stetig erweitern. Wir sind fest davon überzeugt, dass wir mit unserer Lösung einen wichtigen Beitrag zur flächendeckenden Nutzung von KI leisten werden. Denn nur wenn KI sicher und verständlich ist, wird sie auf die breite Akzeptanz der Gesellschaft stoßen und unser Zusammenleben in Zukunft bereichern.

Herr Adamidis, welche Risiken entstehen bei der Vernachlässigung von Vertrauenswürdigkeit und Governance bei KI-Projekten?

Wie vorhin angesprochen, können enorme finanzielle, rufschädigende und rechtliche Risiken entstehen, wenn KI-Projekte Vertrauenswürdigkeit und Governance vernachlässigen. Viele Banken führen die KI-Revolution an, daher nehmen wir mal ein KI-gestütztes Kreditantragsverfahren als Beispiel. Versäumt man es, umfassende Tests und Governance-Praktiken in die Implementierung einzubeziehen, kann dies beispielsweise dazu führen, dass einzelnen Personen aufgrund von Merkmalen wie ihrer ethnischen Zugehörigkeit oder Wohnort schlechtere Bonitätsbewertungen zugewiesen werden, obwohl ihre finanzielle Lage stabil ist. Dies kann zu Klagen, Geldstrafen und Reputationsschäden führen – das Problem ist, dass die KI eine Blackbox ist und Unternehmen ohne ausführliche Tests und Übersichten möglicherweise gar nicht wissen, welche schlechten Praktiken sie anwenden.

Wo liegen die Herausforderungen die Black Boxes der KI transparent zu gestalten?

KI verknüpft Millionen von Parametern miteinander und macht es somit extrem schwierig, ihre Entscheidungsprozesse nachzuvollziehen. Angesichts der Komplexität sind Tests unglaublich zeitaufwendig und rechenintensiv. Da beide Ressourcen begrenzt und teuer sind, fällt es Unternehmen verständlicherweise schwer, das Thema Transparenz auf angemessene Weise anzugehen. Das Fehlen standardisierter Testmethoden trägt zudem dazu bei, dass es nahezu unmöglich ist, die wahren Fähigkeiten und Grenzen von KI-Lösungen zu beurteilen. Wenn es um den Kauf einer KI-Lösung geht, behaupten viele Anbieter, dass sie die relevanten Dimensionen getestet haben, aber mit welchen Daten und unter Berücksichtigung welcher Werte oder ethischen Grundsätze? Mit QuantPi arbeiten wir an der Lösung dieser Probleme. Wir beteiligen uns an der Entwicklung von Standards, wie z. B. der DIN SPEC 92001-3 über erklärbare KI, die agnostisch angewendet werden können und eine vergleichbare Basis für Transparenz schaffen  und wir ermöglichen es Unternehmen, Tests selbst effizienter und übersichtlicher durchzuführen.

 

 

 

 

Philipp Adamidis betont: „Der Weg zur vertrauenswürdigen KI führt nur über Transparenz, Nachvollziehbarkeit und Kontrolle.“

 

 

 

 

 

 

 

 

 

 

Nach welchen Kriterien wird getestet?

Um eine verantwortungsvolle und vertrauenswürdige KI zu gewährleisten, legen wir den Schwerpunkt auf diverse Tests in den Dimensionen wie Bias, Robustheit, Erklärbarkeit und Datenqualität. Für regulierte Branchen oder Anwendungen bieten wir außerdem die Prüfung von KI-Systemen anhand relevanter Verordnungen und Standards an.

Wir nehmen diese Standards, wandeln sie in einen testbaren Katalog von Anforderungen (sowohl quantitativ als auch qualitativ) um und ermöglichen es Unternehmen, ihre Compliance- oder Qualitätssicherungsprozesse für KI-Systeme zu skalieren. Kunden können so die für sie relevanten Compliance-Anforderungen auswählen, z. B. den EU AI Act oder bestimmte ISO-Normen oder auch ihre eigenen Ethikrichtlinien mit unserer Plattform prüfen lassen.

Welche Möglichkeiten bieten Sie Ihren Partnern?

Unsere Partner, so wie unsere direkten Kunden, erhalten einen umfassenden und technisch validierten Einblick in die Risiken, Nutzen und den Compliance-Status von ihren KI-Systemen.

Da unsere Partner oft über fundierte Branchenkenntnisse verfügen, sind Sie in der Lage, mit uns Ihr volles Potenzial auszuschöpfen. Das ermöglicht Ihnen, Ihre Kunden bei wichtigen Entscheidungen zu unterstützen und ganzheitliche Angebote im Bereich der KI-Governance anzubieten. Manche Partner erstellen auch eigene KI-Assessments und skalieren den Inhalt dieser durch unsere technischen KI-Tests. Hinzu kommen Zertifizierungs- und Auditpartner, die z.B. unsere Platform nutzen, um einheitliche Nachweise zu Prüfungen konkreter KI-Systeme zu erhalten. Während Anwendungsfälle unserer Technologie und die Darstellungsformen der Testergebnisse von Partner zu Partner unterschiedlich sind, sorgen diese grundsätzlich für die Beschleunigung einer verantwortungsvollen KI-Transformation von Unternehmen.

Herr Adamidis, was haben Sie sich mit QuantPi zum Ziel gesetzt?

Unsere Vision ist es, der Gesellschaft eine sichere und selbstbestimmte Zukunft mit intelligenten Maschinen zu ermöglichen. Um dies zu erreichen, haben wir uns das 3-Jahres-Ziel gesetzt, führende Unternehmen bei der Entwicklung vertrauenswürdiger und konformer KI zu unterstützen. Warum führende Unternehmen? Weil diese einen immensen Einfluss darauf haben, wie wir unser tägliches Leben gestalten. Wir müssen sicherstellen, dass die Prozesse, die uns umgeben, von Systemen angetrieben werden, die streng validiert und überwacht sind. Unsere Absicht ist es keineswegs, Innovation abzubremsen, sondern ihren Fortschritt auf verantwortungsvolle Weise zu unterstützen.

Bitte gehen Sie kurz auf Ihre Gründungsgeschichte ein.

Während unserer akademischen Laufbahn an der Universität des Saarlandes lernten Artur Suleymanov, Dr. Antoine Gautier und ich uns kennen. Das ist mittlerweile fast 8 Jahre her und von Anfang an waren wir als Technologie-Enthusiasten vom transformativen Potential der KI überzeugt und haben unsere Tage und Nächte mit diesem Thema verbracht.

Unsere Ambition war es, unsere eigene KI zu entwickeln und sie auf dem Markt zu etablieren. Nach den ersten gescheiterten Versuchen, Kunden von der Vertrauenswürdigkeit der KI-Black-Boxen zu überzeugen, hatten wir unseren Aha-Moment und erkannten die Notwendigkeit, dieses Vertrauensproblem auf technologischer Ebene anzugehen.

Als Teil des Ökosystems des weltweit führenden CISPA Helmholtz-Instituts für Cybersicherheit fanden wir die perfekte Umgebung für wegweisende Forschung im Bereich Sicherheit für KI. Schließlich gründeten wir 2020 QuantPi mit dem Ziel, Künstliche Intelligenz auch außerhalb der Forschung vertrauenswürdig zu machen.

www. quantpi.com

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.