Künstliche Intelligenz

Google: Manipulierte Bilder beeinflussen Wahrnehmung von KI und Mensch

Die Google Forschungsergebnisse zeigen: Störungen in Bildern können zu menschlichen Entscheidungen führen, die maschinellen ähneln. © Shutterstock
Die Google Forschungsergebnisse zeigen: Störungen in Bildern können zu menschlichen Entscheidungen führen, die maschinellen ähneln. © Shutterstock

Es gibt News aus der Google-Forschung. Ein Forscher:innenteam hat herausgefunden, dass durch veränderte digitale Bilder nicht nur KI ausgetrickst wird, sondern auch von Menschen nicht immer das erkannt wird, was tatsächlich darauf zu sehen ist. Künstliche neuronale Netze (ANNs) und Menschen werden also ähnlich beeinflusst, wenn sie es mit irreführenden Störungen auf Bildern zu tun haben.

Adverserial Attacks sind geringfügige Veränderungen an Bildern

Ein Bild wird durch ein Verfahren subtil verändert, um ein KI-Modell zu veranlassen, den Bildinhalt mit Sicherheit falsch zu klassifizieren. Was hier passiert, wird „kontradiktorische Störungen” oder „Adversarial Attacks” genannt. Vorstellen kann man sich das so: Einer Bilderkennungs-KI werden zwei „manipulierte” Fotos vorgelegt. Dabei kann zum Beispiel die Größenordnung der Pixel verändert werden oder ein vermeintlich zufälliges Muster wird über ein Bild gelegt. Für das menschliche Auge treten auf den ersten Blick keine sichtbaren Veränderungen auf. Dem Bilderkennungsprogramm passiert allerdings, dass es ein weißes Haus und einen davor stehenden weißen Van fälschlicherweise als Schaf identifiziert.

Anfällig für unerwünschte Störungen

Der Google Blogpost zum Research bestätigt: Künstliche neuronale Netze (ANNs) sind von der Funktionsweise des menschlichen Gehirns inspiriert. Im Fall der Bilderkennung zeigen sie allerdings eine Schwäche, die in der menschlichen Wahrnehmung normalerweise nicht vorkommt. Damit ist belegt, dass Computer und Menschen die Dinge tatsächlich auf unterschiedliche Weise sehen beziehungsweise wahrnehmen. Die Google Forschungsergebnisse zeigen dennoch, dass ANNs und menschliche Entscheidungen ähnlich beeinflusst werden, wenn sie mit irreführenden Störungen bei Bildern konfrontiert werden. Warum das so ist, liegt mehr an den allgemeinen Merkmalen von Bildern als an spezifischen Strukturen von ANNs.

Straßenchaos durch Adversarial Attacks möglich

Im wahrsten Sinne von Attacken lässt sich sprechen, wenn solche Bildmanipulationen bewusst eingesetzt werden, um zum Beispiel autonom fahrende Autos im Straßenverkehr zu verwirren. Man könnte Stoppschilder oder andere Verkehrszeichen entsprechend manipulieren, sodass sie von der KI nicht mehr eindeutig erkannt werden, berichtet t3n. Für die Google-Wissenschaftler:innen ist klar, dass die Auswirkungen von KI auf die Menschen hinlänglich untersucht werden müssen und hier weiterer Forschungsbedarf besteht. Nur so können zuverlässige und sicherere KI-Systeme gebaut werden.

Werbung
Werbung

Specials unserer Partner

Die besten Artikel in unserem Netzwerk

Powered by Dieser Preis-Ticker beinhaltet Affiliate-Links zu Bitpanda.

Deep Dives

Austrian Startup Investment Tracker

Die Finanzierungsrunden 2024

#glaubandich-Challenge 2024

Der größte Startup-Wettbewerb Österreichs mit Top VC-Unterstützung

Podcast: Mit den smartesten Köpfen im Gespräch

Der Podcast von Trending Topics

2 Minuten 2 Millionen | Staffel 11

Die Startups - die Investoren - die Deals - die Hintergründe

The Top 101

Die besten Startups & Scale-ups Österreichs im großen Voting

BOLD Community

Podcast-Gespräche mit den BOLD Minds

IPO Success Stories

Der Weg an die Wiener Börse

Weiterlesen