Gastbeitrag

„Bei KI-Risiken besser nicht nur die EU fragen“

Pepper, der Roboter. © Photo by Owen Beard on Unsplash
Pepper, der Roboter. © Photo by Owen Beard on Unsplash
Startup Interviewer: Gib uns dein erstes AI Interview Startup Interviewer: Gib uns dein erstes AI Interview

Künstliche Intelligenz (KI) revolutioniert Wirtschaft und Gesellschaft. Vorreiter sind die USA, während China rasant aufholt – und dazu bis 2030 gut 150 Milliarden US-Dollar investiert. Europa muss also aufpassen, nicht den Anschluss zu verlieren. In dem Sinn ist die Ankündigung zu verstehen, dass die EU nun 20 Milliarden Euro pro Jahr in die Zukunftstechnologie stecken will. So steht es in ihrem Weißbuch Künstliche Intelligenz, das die EU-Kommission letzten Mittwoch veröffentlicht hat. Die Summe sollen die EU, Mitgliedsstaaten und Unternehmen gemeinsam aufbringen – wie, das ist offen.

Das KI-Weißbuch behandelt neben der Finanzierungs- noch einige weitere Grundsatzfragen, etwa zum Risiko eines KI-Einsatzes. Die EU äußert sich zu diesem Aspekt nur vage – und fordert damit geradezu zum Weiterdenken über die Risikominimierung auf, was die Voraussetzungen für eine sinnvolle KI-Anwendung sowie Ansatzpunkte für Unternehmen einschließen sollte.

Was sich die EU unter risikohafter KI und ihrer Regulierung vorstellt

In dem Weißbuch steht: Für das nötige Vertrauen sollen KI-Rechtsvorschriften sorgen, die den Risiken entsprechen, aber Innovationen nicht verhindern. Ein hohes Risiko sieht die EU in den Sektoren Gesundheitswesen, Verkehr, Polizei und Rechtssystem. Als kritisch wird eine KI-Lösung eingestuft, wenn bei dieser mit rechtlichen Auswirkungen, Lebensgefahr, Schäden oder Verletzungen zu rechnen ist. So führt das EU-Papier die Medizintechnik, automatisiertes Fahren und Entscheidungen über Sozialversicherungsleistungen als Beispiele für einen risikobehafteten Einsatz von KI auf. Generell kritisch bewertet die EU KI-gestützte Einstellungsverfahren.

Die EU fordert nun strenge Vorschriften, die Konformitätsprüfung, Kontrollen sowie Sanktionen regeln, damit „KI-Systeme mit hohem Risiko transparent sind, Rückverfolgbarkeit gegeben ist und unter der Kontrolle des Menschen stehen.“ Die Kommission argumentiert: „Behörden müssen KI-Systeme ebenso überprüfen können wie Kosmetika, Autos und Spielzeug.“ Andere KI-Anwendungen könnten freiwillig gekennzeichnet werden.

Vertrauen auf Regeln oder Akzeptieren von nicht reproduzierbaren Ergebnissen?

Weitergedacht bedeuten die Vorschriften beispielsweise für das Gesundheitswesen: Es dürfen nur Expertensysteme zum Einsatz kommen. Diese fällen Entscheidungen nach definierten Regeln. Dabei arbeiten sie transparent, erkennen jedoch keine Muster in Röntgenbildern und lernen nicht dazu. Anders sieht das bei KI-Anwendungen für maschinelles Lernen aus, die neuronale Netze verwenden. Ein Neuron wird hierbei als Funktion (Algorithmus) modelliert, einschließlich Input, Parameter und Output.

Als Dateninput dienen Fotos, Texte, Zahlen, Videos oder Audiodateien. Diese trainieren das Modell, selbstständig Muster zu erkennen, bessere Ergebnisse zu liefern und letztendlich auch unbekannte Daten zu bewerten. Beim Lernen verändert sich die Gewichtung der Parameter und damit die Verknüpfungen im System – am Ende lässt sich nicht mehr nachvollziehen, wie ein Ergebnis zustande gekommen ist. Solange man Qualitätssicherung betreibt, ist das kein Problem. Allerdings fehlen bisher verbindliche Regeln.

Ein Ansatz wäre, ein zugelassenes Medizingerät, das neuronale Netze verwendet, im gut trainierten Originalzustand zu belassen. Ansonsten hängt es von den Fähigkeiten des medizinischen Fachpersonals ab, ob dieses das KI-System in der Bilderkennung besser oder eben schlechter macht. Vertraut ein Arzt seiner KI, interpretiert die Technik CT-, MRT- oder Echographie-Daten wesentlich schneller sowie präziser, was zu einer besseren Diagnose und Therapie führt. Das Lösen der Vertrauens- und Qualitätssicherungsfrage wird die Effizienz steigern – und zwar branchenübergreifend.

Ein sinnvoller KI-Einsatz verlangt eine solide Basis

Um erst gar nicht in Konflikt mit Datenschutz, Ethik und Verbraucherinteressen zu geraten, ist die Frage nach den Kriterien der Qualitätssicherung entscheidend für einen sinnvollen KI-Einsatz. Unternehmen aller Branchen stehen jedoch zunächst vor der Herausforderung, eine entsprechende Dateninfrastruktur zu etablieren. Das erfordert einen ganzheitlichen Denkansatz, der eine nahtlose Datenpipeline vom Entstehungsort der Daten bis ins Rechenzentrum oder in die Cloud garantiert.

Unverzichtbar sind dabei eine hohe Datenqualität, ein intelligentes Daten-Management sowie Möglichkeiten zur Erweiterbarkeit, da sich KI-Hardware und Cloud-Ansätze immer weiterentwickeln. Zu all dem bietet der Markt umfassende Lösungen. Rar hingegen sind Data Scientists und KI-Experten, weshalb es für viele Unternehmen schwierig wird, das nötige Know-how intern aufzubauen.

Politikvorlage aufgreifen und Unternehmensrisiken senken

In einer nachvollziehbaren Zertifizierung liegt der Schlüssel, um das nötige Vertrauen in KI-Systeme zu schaffen. Dabei sollte es nicht allein Aufgabe der Politik sein, die Kriterien für eine Zertifizierung zu definieren. Auch Wirtschaft und Forschung sind gefragt. Die Vorlage dazu hat die EU mit ihrem KI-Weißbuch geliefert, das bis zum 19. Mai 2020 zur öffentlichen Konsultation steht. Alle Beteiligten sollten dabei auch daran denken, was passiert, wenn sich der Verwendungszweck ändert.

Unternehmen wiederum stehen in der Pflicht, eine passende Dateninfrastruktur und Expertenwissen für einen sinnvollen KI-Einsatz aufzubauen. Wer das nicht tut, büßt entscheidend an Innovationsfähigkeit ein. Das ist das KI-Risiko, welches Unternehmen selbst verantworten – und gestalten können.

Dieser Gastkommentar wurde von Peter Hanke, Senior Director Germany, Austria & Switzerland bei NetApp, verfasst.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Podcast: Mit den smartesten Köpfen im Gespräch

Der Podcast von Trending Topics

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen