Künstliche Intelligenz braucht menschliches Bewusstsein: Wie wir Maschinen dazu bringen, das Richtige zu lernen

„Keine Panik, ist ja nur Technik …“ Kenza Ait Si Abbou Lyadini weiß, wovon sie spricht. Nach Stationen in Spanien, Berlin und China ist die Powerfrau aus Marokko heute Managerin für Robotik und künstliche Intelligenz. Für Aareon Live öffnet sie ein Fenster in andere Branchen, andere Länder und in die Zukunft: Was ist möglich? Was ist denkbar? Und was längst Realität?

Bei aller Freude an der Technik sind KI und Robotik für die engagierte Ingenieurin nie Selbstzweck. Ihr Ansatz: Damit Maschinen nicht das Falsche lernen, braucht es Ethik und das Bewusstsein der Menschen. Die Technologie existiert. An uns ist es, sie zu verstehen, zu formen und klug zu nutzen – neugierig, engagiert und ohne falsche Scheu.

- Anzeige -

Nach ihrem Impuls beantwortet die KI-Expertin die Fragen der Zuschauer im Livestream – interaktiv! Per Klick am 10. Juni 2021 hier: https://www.aareon-live.de. Zur Einstimmung nun ein Gespräch mit Kenza Ait Si Abbou Lyadin der Expertin für Robotik und künstliche Intelligenz und Frauke Schewe.

Ihr Buch „Keine Panik, ist nur Technik“ gilt als Erziehungsratgeber, damit die Maschinen in unserem Leben endlich machen, was wir wollen. Wen muss man denn mehr erziehen: die Maschinen oder die Menschen?

Das ist eine sehr gute Frage. Ich würde hier gerne eine Analogie aus der Kindererziehung heranziehen. Wir erziehen unsere Kinder und bringen ihnen vieles bewusst bei, aber auch vieles unbewusst. Das merken wir erst, wenn die Kinder sich so verhalten wie wir, ohne dass wir es so wollten. Sie halten uns einen Spiegel vor die Augen. Dasselbe passiert mit den Maschinen. Wir programmieren sie, damit sie bestimmte Aufgaben für uns erledigen – und dabei schleichen sich viele Verzerrungen ein, ohne dass wir es merken.

Das heißt, auch die Maschinen machen nur das, was wir ihnen beigebracht haben – sei es bewusst oder unbewusst. Der bewusste Teil ist die Aufgabe sowie der Weg zur Lösung der Aufgabe. Der unbewusste Teil steckt in der Art und Weise, wie wir die Maschine programmieren, aber auch in den Daten, mit denen wir die Maschine antrainieren.

Kenza
- Anzeige -

Algorithmen können diskriminieren. Nicht selten reproduzieren sie Vorurteile und verstärken sie. Wie verhindern wir solche Echokammern? Anders gefragt: Wie stellt man sicher, dass künstliche Intelligenz nicht das Falsche lernt?

Wie oben erwähnt, lernen die Maschinen alles, was sie machen, von uns. Wenn wir Vorurteile haben und nicht darauf achten, dass wir sie im Entwicklungsprozess neutralisieren, dann werden die Maschinen diese Vorurteile reproduzieren. Gleichzeitig liegt die Schwierigkeit genau darin, diese Vorurteile zu identifizieren, damit man sie neutralisieren kann. Denn kognitive Verzerrungen entstehen dadurch, dass Menschen nur aus ihrer eigenen Perspektive denken und davon ausgehen, dass die ganze Welt genauso tickt.

Das machen sie alles unbewusst. Was unbewusst ist, ist schwierig zu identifizieren. Aber auch da kann uns die künstliche Intelligenz helfen, unsere Verzerrungen (Bias) in den Daten zu finden. Datenwissenschaftler sind daran gewöhnt, Bias in den Daten zu identifizieren. Nur geht es meistens darum, Korrelationen in den Daten zu finden, die keinen Sinn ergeben. Die kognitiven Verzerrungen sind zwar eine Art von Bias, d. h. methodisch ist das Vorgehen ähnlich. Aber das funktioniert nur, wenn die Datenwissenschaftler in „unconscious bias“ geschult sind und die unterschiedlichen Dimensionen von Diskriminierungen etc. kennen, auseinanderhalten und korrigieren können.

Sie müssen zusätzliche Aspekte in den Daten sehen – also auch gesellschaftliche Aspekte. Und da ist schon viel gefragt. Deswegen sind diverse Teams in meinen Augen sehr wichtig. Denn diverse Menschen bringen diverse Perspektiven mit rein – und das hilft beim Entdecken von Verzerrungen. Und mit divers meine ich auch eine Diversität der Fähigkeiten, d. h. Expertinnen in Soziologie sind genauso wichtig wie Programmierinnen.

Kenza

Lesen Sie die nächsten Artikel dieser Ausgabe

Lesen Sie Artikel zum selben Thema