Zum Hauptinhalt springen

EMI-Forum: Die dunklen Seiten der KI

Gruppenfoto
Prof. Alexander Peterhänsel, Prof. Dr. Daniel Loebenberger und Stefan-Lukas Gazdag (v.l.n.r.)

Der Einsatz künstlicher Intelligenz bietet viele Vorteile und Möglichkeiten, hat aber auch Schattenseiten. Diese „dunklen Seiten“ der künstlichen Intelligenz wurden beim vergangenen EMI-Forum thematisiert.

Gruppenfoto
Prof. Alexander Peterhänsel, Prof. Dr. Daniel Loebenberger und Stefan-Lukas Gazdag (v.l.n.r.)

Nach einer Begrüßung durch den Präsidenten Prof. Dr. Clemens Bulitta sowie den Dekan der Fakultät Elektrotechnik, Medien und Informatik Prof. Dr. Ulrich Schäfer startete Prof. Dr. Daniel Loebenberger (Fraunhofer AISEC / OTH Amberg-Weiden) mit dem ersten Vortrag.

Fake News und Desinformation

Darin gab er zunächst einen Überblick über die Geschichte der Künstlichen Intelligenz. Denn bereits vor über 60 Jahren erhoffte man sich, mit Maschinen menschliches Verhalten imitieren zu können. Er ging auf Meilensteine der KI-Geschichte, wie den Chatbot Eliza, den Schachcomputer Deep Blue sowie AlphaGO und natürlich ChatGPT ein. Zwischen all diesen Meilensteinen gab es jedoch auch sogenannte „KI-Winter”. Damit sind Phasen gemeint, in denen mangels Forschungsgeldern kaum Forschung stattfand, und so auch keine Fortschritte entstanden sind.

Im Mittelpunkt von Prof. Loebenbergers Vortrag standen die Risiken von KI-Fälschungen, die mittlerweile alle Arten von Daten betreffen. Besonders hervorgehoben wurden die Möglichkeiten von Generative Adversarial Networks, die seit einiger Zeit täuschend echte Fotos von nicht existierenden Personen erzeugen können. Diese Technologie kann beispielsweise auf Websites wie thispersondoesnotexist.com eindrucksvoll erlebt werden. Ein bekanntes Beispiel für die potenzielle Gefahr ist die Verwendung solcher Technologien zur Erstellung von Phishing-Mails.

Und auch bei Videos und Audioaufnahmen gab es in den letzten Jahren deutliche Fortschritte. So können unter anderem Stimmen geklont werden und so zum Beispiel Olaf Scholz beliebige Worte in den Mund gelegt werden.

Diese Entwicklungen sind selbstverständlich sozioökonomischer Zündstoff. Filterblasen und gezielte Fake News senken unweigerlich das Vertrauen in die Medien. Doch ganz hoffnungslos ist die Sache nicht.
Kryptographische Verfahren, wie das Watermarking (Wasserzeichen), können helfen, die Echtheit von Medien überprüfbar zu garantieren und sind aktueller Gegenstand der Forschung.

Massenüberwachung und Gegenmaßnahmen

Stefan-Lukas Gazdag (genua GmbH) erklärte zu Beginn seines Vortrags, er habe für seine Anreise Google Maps verwendet. Diese App beherrscht nicht nur klassische Navigation, sondern kann einen darüber hinaus auch mit Live-Informationen bzgl. Staus versorgen. Damit dieser und viele weiter heutzutage gerne verwendeten Services funktionieren, ist eine gewisse Form von Überwachung notwendig. Dies geschieht häufig freiwillig. So gibt man im Austausch für Vergünstigungen oder Boni mittels Payback und Supermarkt-Apps viele wichtige Informationen preis. Denn aus dem Einkaufsverhalten lassen sich mit Machine Learning schnell Vorhersagen treffen über unter anderem das Konsumverhalten, die finanzielle und auch persönliche Situation. Aber auch die Lokalisierung und Bewegungsprofile werden so möglich.

Ein häufig genanntes dystopisches Beispiel ist das Social Credit System aus China. Wird unerwünschtes Verhalten vom System detektiert, wird der Social score verschlechtert. Ist dieser zu niedrig, können gewisse Geschäfte nicht mehr betreten werden, der ÖPNV darf nicht mehr verwendet werden, etc.
Stefan-Lukas Gazdag machte auch darauf aufmerksam, dass die NSA in der Wüste der USA einen Massenspeicher gebaut hat, der mutmaßlich eine Kapazität besitzt, mit der umgerechnet für jeden Menschen weltweit 140 GB Speicher vorhanden wären. Themen wie die viel disktuierte Vorratsdatenspeicherung sind auch unter dem Gesichtspunkt des technischen Fortschritts relevant. Denn heutzutage ist absolut unklar, was man in fünf bis zehn Jahren mit diesen Daten (und KI) anstellen kann.

Mit dieser Motivation ging der Referent auch auf die Probleme ein, die das datenbasierte Lernen der KI hat: Sie erlernt Vorurteile, die in den Daten aufgezeichnet sind und repliziert diese („Bias”). Außerdem ist häufig unklar, wo die Grenzen eines Systems liegen. Und KI lernt aktuell immer korrelationsbasiert. Das heißt, es werden keine kausalen Zusammenhänge gelernt, sonder nur statistische Korrelationen.

Was empfiehlt der Experte also? Datensparsam agieren. Dabei können Tools wie duckduckgo, der Messenger Signal oder der Terminplaner nuudel helfen. Außerdem ist es wichtig, das Bewusstsein für die Situation zu erlangen, und mit Regulationen und ethischen Werten die technische Entwicklung zu steuern.

Smile to Vote: KI, Biometrie und Demokratie

Den Abschluss machte Prof. Dr. Alexander Peterhänsel (OTH Amberg-Weiden). Er selbst forscht an der Schnittstelle von Wirtschaftsinformatik und Medienkunst und hat im Zuge dessen Smile to Vote entwickelt.
Die Idee begründete sich u.a. in der breiten Akzeptanz von Geischtserkennungsalgorithmen. So ist Apple Face ID eine beliebte Art, um sein Handy zu entsperren. Vom chinesischen Unternehmen Alibaba gibt es sogar ein „Smile to Pay”-System. Der Bezahlungsvorgang wird dabei abgeschlossen, indem sich der Kunde mit einem Lächeln in die Kamera identifiziert. Man tauscht also seine Daten gegen Bequemlichkeit ein.
Interessant sind diese Vorgänge auch aus der Sicht der digitalen Psychometrie. So gab es vor einigen Jahren eine Forschungsarbeit, in der es den Autoren gelang, eine KI zu trainieren, die Anhand eines Gesichtsfotos die sexuelle Orientierung bestimmt. Und das mit einer Genauigkeit, die ein Mensch vermutlich nie erreichen würde. Auch das ist ein Beispiel dafür, dass man heute noch nicht wissen kann, was in Zukunft mit jetzt gesammelten Daten möglich ist.Das ist auch zu berücksichtigen hinsichtlich micro  targeting und politischen Datenanalysen.
In diesem Zusammenhang ging vor einigen Jahren der Fall Cambridge Analytica durch die Medien. Das Unternehmen konnte durch die Analyse von Social Media Daten gezielt Inhalte schalten, um Wahlen zu beeinflussen. Mittels KI lassen sich Zusammenhänge oft auch dort erkennen, wo man sie nicht erwartet. So kann man aus den Mausbewegungen am Computer nicht nur auf den Benutzer schließen, sondern sogar seinen Gemütszustand. Inspiriert von diesen Entwicklungen startete Prof. Peterhänsel das Forschungsprojekt Smile to Vote. Dabei wird in einer Wahlkabine mittels digitaler Psychometrie, also den Gesichtszügen, die politische Einstellung ermittelt und die Stimme für diese Partei auch sofort abgegeben.

 


Vortragender
AI for Evil – Das EMI-Forum beleuchtet die dunklen Seiten der Künstlichen Intelligenz
Daniel Loebenberger
Prof. Dr. Daniel Loebenberger (Fraunhofer AISEC / OTH Amberg-Weiden) spricht über Fake News und Desinformation.
Stefan-Lukas Gazdag
Stefan-Lukas Gazdag (genua GmbH) widmet sich in seinem dem Thema Massenüberwachung und Gegenmaßnahmen.
Alexander Peterhänsel
Prof. Alexander Peterhänsel (OTH Amberg-Weiden) präsentiert im dritten Vortrag das Forschungsprojekt „Smile to Vote“
Zurück