Neue EU Regularien für die Entwicklung von KI

Till Böddinghaus
Till Böddinghaus
27.04.2021

Am 21. April 2021, hat die EU einen neuen Vorschlag für die Regulierung Künstlicher Intelligenz für die Europäische Union sowie einen koordinierten Plan für die nächsten Schritte auf dem Weg zu einer globalen Führerschaft von vertrauenswürdiger KI vorgestellt.

Regeln für vertrauenswürdige KI und bereits getätigte wichtige Schritte der EU

Im Februar 2020 wurde von der EU ein neuer Plan vorgestellt, um digitale Transformation zu fördern und die Ökonomie anzukurbeln. Mit neuen europäischen Lösungen und Strategien soll die Nutzung qualitativ guter Daten ermöglicht werden und im Allgemeinen die Schnittstelle zwischen Forscher*innen und Unternehmen und Daten verbessert werden.

Das übergeordnete Ziel ist es, das Vertrauen der der Gesellschaft in KI Applikationen zu stärken und eine stabile Grundlage für die Entwicklung vertrauenswürdiger KI zu schaffen.

Mit der Einführung der General Data Protection Regulation (GDPR) im Jahr 2018, haben die Gesetzgeber*innen bereits wichtige Schritte eingeleitet, um Nutzerrechte und persönliche Informationen besser zu schützen. Zwei Jahre später wurden von der EU neue Regeln für KI und Datenverarbeitung präsentiert:

  • Neue Regeln für Hoch-Risiko KI (z.B. in den Bereichen Gesundheitswesen, Politik, Transportwesen). Systeme müssen transparent und nachvollziehbar sein und stets von Menschen überwacht werden
  • Um Hoch-Risiko Systeme zu trainieren und dabei eine gute Performanz bei gleichzeitigem Schutz von Grundrechten (wie z.B. Nicht-Diskriminierung) zu erreichen, müssen die Trainingsdaten stets frei von Vorurteilen sein
  • Der Schutz des Endkonsumenten in Bezug auf das Testen und die Zertifizierung von Daten der Algorithmen
  • Das Führen einer Debatte über die Nutzung biometrischer Daten
  • Regularien zur Kennzeichnung von weniger riskanten KI Applikationen
  • Framework für Data Governance, Benutzerrechte, Wiederverwendung von Daten und das Teilen von Daten
  • Zugang zu Daten des öffentlichen Sektors, um Innovation voranzutreiben
  • Cloud Infrastruktur, die die mögliche Wiederverwendung von Daten fördert
  • Die Entwicklung von Europäischen Datenplätzen

Überwachungs- und Kontrollmechanismen zur Überprüfung von vertrauenswürdiger KI

Ergänzend dazu, hat die EU Durchsetzungsmechanismen etabliert, um KI Systeme hinsichtlich ihrer Vertrauenswürdigkeit zu prüfen.

  1. Das System soll mit Daten trainiert warden, welche „Europäische Werte und Regeln respektiert“
  2. Das System soll den/die Nutzer/in stets über seine Zielsetzung, Limitationen und Möglichkeiten informieren
  3. Die Systeme müssen robust sein und akkurat arbeiten
  4. Ein adäquates Niveau von menschlicher Aufsicht und Interaktivität mit den Systemen muss sichergestellt sein

Mit diesem Manifest wollen die Europäischen Gesetzgeberinnen Unternehmen und Forscherinnen besseren Zugang zu Daten ermöglichen, um die Innovationskraft anzutreiben, die Forschung zu verbessern und Wirtschaftswachstum sicherzustellen.

Datenräume sollen dabei nicht nur für die Speicherung verwendet werden, sondern auch die Verteilung sicher und einfach machen, wie bspw. die mögliche Verwendung von sensitiven Gesundheitsdaten durch Einführung neuer Gesetzgebungen.

Neuer Strafenkatalog für Unternehmen, um das Vertrauen in KI zu stärken

Kürzlich hat die EU weitere Regularien zur Nutzung und Entwicklung von Künstlicher Intelligenz eingeführt. Insbesondere für Hoch-Risiko KI wurden neue Regeln zur Prüfung vorgestellt. Die zu erfüllenden Punkte sind nicht gebunden an spezielle Industrien. Die Gesetzgeber*innen erhoffen sich durch diese Einführung eine weitere Verbesserung des Vertrauens in KI.

Wenn Unternehmen diese Regeln verletzen, können Strafen in Höhe von bis zu 4% des globalen Umsatzes oder 20 Millionen Euro fällig werden – der größere Wert gilt.

Entwickler*innen und Nutzer*innen von KI müssen künftig prüfen, ob bestimmte KI Use-Cases als Hoch-Risiko einzustufen sind und anschließend diverse Tests zur Überprüfung der Einhaltung durchführen, bevor das Produkt in den Markt gehen kann.

Ein System, dass die notwendigen Punkte erfüllt, wird anschließend mit dem CE Logo markiert, um Konformität und Einhaltung zu kennzeichnen. Die Mitgliedsstaaten sind eigenständig angewiesen die nötigen Prozesse zu installieren und eine nationale Instanz mit der Regulierung zu beauftragen.

Wir müssen die Entwicklung von KI neu denken

Heute bedarf es mehr denn je einer neue Grundlage, wie vertrauenswürdige und ethische KI entwickelt, benutzt und überwacht werden soll. Um das gewünschte Niveau an Sicherheit und Vertrauen zu erreichen, muss ein System alle zuvor genannten Punkte erfüllen und ein neuer, ganzheitlicher Ansatz zur Entwicklung und Prüfung von Algorithmen eingesetzt werden.

Neue KI Applikationen müssen transparent in Bezug auf ihre Möglichkeiten, Nutzung und Limitationen sein und gleichzeitig sämtliche Regeln zum Schutz der Persönlichkeitsrechte einhalten.

Die Forschung hat gezeigt, dass weitverbreitete Techniken wie Anonymisierung nicht gut genug sind, um wirklich Datenschutz zu garantieren. Neue Methoden wie Differential Privacy, Federated Learning, Secure Multi-Party Computation oder Homomorphic Encryption. wurden mit dem Ziel entwickelt, dieses Problem zu lösen.

Differential Privacy bspw. liefert eine robuste, mathematische Definition des Datenschutzes im Maschinellen Lernen. So wird „mathematisch garantiert, dass jemand, der die Ergebnisse einer differenziell privaten Analyse sieht, dieselben Schlüsse über die Informationen eines bestimmtes Individuums zieht, unabhängig davon, ob die Daten dieses Individuums in der Analyse enthalten waren oder nicht.“

Wenn Differential Privacy verwendet wird, erhalten wir Menschen die Möglichkeit, den Informationsfluss, der von der Analyse zu externen Partnern geleaked wird, wirklich zu kontrollieren und zu überwachen. Da der Verlust an Privatsphäre messbar gemacht wird, kann der Besitzer der Daten die Prozesse erstmals adäquat überwachen.

Eine Plattforml für vertraunswürdige KI

Die neue EU Regulierung für Künstliche Intelligenz kann, wenn korrekt angewendet, zu einem verstärkten Vertrauen und mehr Sicherheit für Unternehmen führen. Regulierung alleine löst jedoch wenig. Unternehmen und KI Entwickler*innen benötigen Prozesse und Werkzeuge, die sie dabei unterstützen, die Einhaltung zu gewährleisten.

Damit die Regulierung von KI ein Erfolg wird und es Unternehmen erleichtert wird, wirklich vertrauenswürdige KI zu entwickeln, wird eine Plattform benötigt die

  • Prozesse für die Entwicklung ethischer KI implementiert
  • starke und robuste Garantien zum Schutz der Daten sicherstellt
  • es Firmen ermöglicht, Benutzerrechte zuzuweisen und zu überwachen
  • eine robuste Entwicklungsumgebung für ethische und vertrauenswürdige KI bietet

Für die erfolgreiche Entwicklung verantwortungsvoller KI Applikationen reicht es nicht, dass das Management einige Richtlinien oder Fragenkataloge am Ende eines jeden Produktionszyklus entwirft. Ethische KI kann nur erfolgreich sein, wenn die Grundsätze direkt in den Produktionsprozess einfließen. Eine Software Plattform hilft Datenwissenschaftlerinnen, Machine Learning Expertinnen und Software Entwickler*innen, den genannten Regularien für KI während des Entwicklungsprozesses zu folgen. Nur so steht die Produktion auf einer fundierten Basis und die KI Systeme haben keinerlei versteckte Fehler oder Black Boxes und sind somit wirklich vertrauenswürdig.

Zusätzlich dazu sollte die Plattform Schutzbarrieren und robuste technische Maßnahmen bieten, um das höchstmögliche Niveau an Datensicherheit und Datenschutz zu gewährleisten. Gerade weil die Qualität das Maschinellen Lernens (als derzeit wichtigstes Feld von KI) sehr stark auf den zugrundeliegenden Daten basiert, ist der Schutz der Daten vor Missbrauch und Leaks einer der wichtigsten Faktoren bei der Entwicklung von vertrauenswürdiger KI. Ferner müssen auch Prozesse für die Bereiche IT Security und Software- und ML-Development in der Entwicklungsumgebung etabliert werden, um ganzheitlichen Datenschutz zu jeder Zeit sicherzustellen.

Bei der Einbindung von Prozessen zur Einhaltung der Regularien für ethische KI bedarf es außerdem klarer Abgrenzungen zwischen Benutzerrechten, der Aufgabenverteilung, Scopes und Anforderungen. Eine Software Plattform kann hier den Aufwand zur kontinuierlichen Überprüfung der genannten Punkte massiv verringern. Ferner können wichtige Auditing Mechanismen in sämtlichen Produktionsabschnitten eingebaut werden, welche die Arbeit von externen Berater*innen enorm vereinfachen.

Insgesamt kann nur eine vollumfängliche Entwicklungsplattform für ethische KI alle benötigten Punkte zufriedenstellend erfüllen. Nur so kann gewährleistet werden, dass Organisationen sichere, robuste und vertrauenswürdige Applikationen entwickeln können.

Dafür nötige Werkzeuge und Frameworks werden zunehmend greifbarer. Die ersten Tools für Explainable AI sind bereits verfügbar und erfüllen einige der genannten Punkte schon recht gut. Nichtsdestotrotz benötigen Unternehmen mehr als einige Werkzeuge, um wirklich allen Regularien vollumfänglich zu entsprechen. Eine Plattform bietet letztlich alle dieser Pfeiler: robuste und zertifizierte Prozesse, höchste Datenschutzgarantien, integrierte und sichere Entwicklungsumgebungen und die sichere Verteilung und Überwachung von Benutzerrechten. Mit konstanter Unterstützung durch kontinuierliche Updates und einem vertrauenswürdigen Enterprise Support.

Kontaktieren Sie uns für weitere Informationen zu DQ0 und unseren Lösungen für vertrauenswürdige und ethische KI!

 

Alle Blog-Einträge