Digitale Ethik: Was wir von Kindern über den Umgang mit KI lernen können

Photo by Kelly Sikkema on Unsplash
Digitale Ethik? Wozu braucht man das eigentlich? Computer berechnen doch nur und haben keine eigene Ethik. Das stimmt – allerdings nur zum Teil. 

Als Schöpfer der Computer haben wir Menschen einen erheblichen Einfluss auf ihre Sicht auf unsere Welt. Wir Menschen sind sozusagen die Eltern der Computer. Wir haben sie nicht nur gezeugt – um eine weitere Parallele zur Elternschaft zu ziehen – wir lehren ihnen auch, was richtig und was falsch ist. Das passiert nicht nur durch die Ausgestaltung von Algorithmen, sondern auch durch die Informationen, die wir ihnen als Ausgangsmaterial zur Verfügung stellen. Vor allem künstliche Intelligenz, die auf Basis von neuronalen Netzen arbeitet, ist also davon betroffen. Eine Technologie, die mittlerweile fast allgegenwärtig ist und unbestritten einen enormen Einfluss auf die Zukunft des Menschen nimmt und nehmen wird.

Die Moralisierung der Maschinen

Noch sind wir dabei, dass künstliche Intelligenz sehr spezifische Aufgaben, wie Bild- oder Mustererkennung übernimmt. Aber alleine das Beispiel der autonomen Fahrzeuge veranschaulicht die Komplexität der Entscheidungen, die ein Computer in naher Zukunft übernehmen wird: Wenn es keinen Ausweg mehr gibt und eine Kollision unvermeidbar wird, weil zum Beispiel die Bremsen versagen, fährt das autonome Auto mitsamt seinen Insassen dann lieber gegen den Baum, oder alternativ in eine Gruppe Menschen gleicher Anzahl?

Ein weiteres Beispiel, wo schon heute Maschinen mit ethisch-moralischen Regeln konfrontiert sind, ist Bilderkennung und die darauf folgende automatische Klassifizierung. So kam es zum Beispiel 2015 dazu, dass ein Google-Algorithmus Menschen mit dunkler Hautfarbe als Gorillas identifizierte. Ein Hauptgrund dafür war auch, dass die Trainingsdaten für die KI so unzureichend waren, dass sie Probleme hatte Merkmale genau zu erkennen und einzuordnen. Das wird neben klassischer Diskriminierung aber auch zu noch weitreichenderen Konsequenzen führen, wenn man bedenkt, dass solche Systeme mittlerweile unter anderem auch zur Kriminalitätsbekämpfung eingesetzt werden. Ein anderes Beispiel beschreibt die selbe Problematik über Stereotype am Beispiel von Sexismus. Dabei wurden Datenbanken benutzt, die unbewusst voll von geschlechterspezifischen Vorurteilen waren. Das hatte zur Folge, dass die KI bei der Bilderkennung entsprechend Frauen mit Kochen assoziierte und Männer mit Fußball und Schießen.

Die KI-Forschung ist sich dieser Problematik durchaus bewusst und arbeitet mit Nachdruck an Lösungen, die einerseits vorsehen mit den verwendeten Trainingsdaten sorgsamer umzugehen, die zum anderen aber auch auf Algorithmen basierende Fehlerkorrekturen beinhalten. Dabei wird das Ausgangsmaterial gleichzeitig während der Erkennung von der KI auf Gewichtung analysiert. Der Lernmodus nimmt sich dann für unterrepräsentierte Gruppen mehr Zeit deren Merkmale zu erfassen, als für überrepräsentierte, damit er sie später besser erkennen und einordnen kann.

Hinzu kommt allerdings, dass die Komplexität der moralisch-ethischen Entscheidungen, die ein Computer in Zukunft treffen wird, zunimmt. Die Forschung arbeitet schon länger an so genannter genereller oder auch starker künstlicher Intelligenz. Also KI, die nicht nur spezifische Aufgaben lösen kann, sondern viele Fähigkeiten in einem gemeinsamen neuronalen Netzwerk vereint und sich dabei auch selbständig weiterentwickelt. Keiner weiß wirklich genau, wann das kognitive Level einer solchen generellen KI an das eines Menschen heranreicht. Die Experten sind sich darin uneins. Aber in einer Sache sind sie sich alle sicher: Es wird passieren. Vermutlich schneller, als wir alle erwarten. Es wäre die größte technische Errungenschaft in der Menschheitsgeschichte.

Es lohnt sich also sehr wohl über das Menschenbild eines Computers mit genereller KI nachzudenken. Denn schlussendlich sind wir als ‚Erziehungsberechtigte‘ der von uns erschaffenen Maschinen zum Großteil selbst dafür verantwortlich. Dabei entstehen unter anderem auch Fragen, wie eine intelligente Maschine in Zukunft mit einem Menschen umgehen soll? Welche Rechte haben solche intelligenten Maschinen und welche nicht? Ja, auch die Frage warum Maschinen überhaupt andere Rechte haben sollten als Menschen, muss gestellt werden.

Gehorsam oder freie Entfaltung?

Wenn wir für einen weiteren Moment beim Eltern-Kind-Vergleich bleiben wollen, wäre es interessant, einen Blick darauf zu werfen, wie Kinder im Vergleich zu Maschinen lernen. Denn ein Großteil der KI-Forschung basiert auf Beobachtung und Adaption menschlichen Verhaltens und den zugrunde liegenden Prozessen im Gehirn. Und Adaption ist auch schon das richtige Stichwort. Kinder lernen durch Nachahmung. Sie beobachten und imitieren das, was wir ihnen als Eltern, Familie und Gesellschaft vorleben. Und dieser Prozess beginnt bereits während der Schwangerschaft. Im Verlauf der Kindheit dient dieses Nachahmen zweierlei Zweck. Einmal der eigenen Bedürfnisbefriedigung des Kindes. Andererseits wollen Kinder ihre Eltern auch kennenlernen, sie wollen wissen, was die Eltern gut finden und was nicht, worauf sie sich einlassen und worauf nicht. Kurz: Sie wollen Grenzen erforschen. Erinnert übrigens nicht nur zufällig an das ‚Gefällt mir‘ und ‚Gefällt mir nicht‘ à la Facebook & Co, denn auch hier ist natürlich KI im Spiel, die etwas über uns Menschen erfahren will: Unsere Grenzen und Muster.

Auch Kinder werden also mit Datenbanken, nämlich denen unserer Vorurteile und Glaubenssätze, gefüttert. Sie lernen Stereotypen und klassifizieren mit steigender Genauigkeit proportional zur Altersentwicklung. Der Lernprozess ist offensichtlich der selbe, bei kindlicher Intelligenz, wie bei künstlicher Intelligenz. Denn auch künstliche Intelligenz lernt durch Beobachtung und Adaption, eben weil die ihr zugrunde liegenden neuronalen Netze dem Gehirn des Menschen nachempfunden sind.

Einen enormen Einfluss auf die Entwicklung eines Kindes und seine Psyche haben dementsprechend die Umgangsformen der Eltern und die Beziehung der Eltern zum Kind. Dabei ist es nach wie vor auch heute noch gang und gäbe nach antiautoritären und autoritären Erziehungsformen zu unterscheiden. Diese gelebten Erziehungsmodelle prägen das Verhalten und den Charakter eines Kindes enorm. Es gibt aber auch Ansätze jenseits dieser beiden diametral entgegengesetzten Extreme.

Jesper Juul, der renommierte Familientherapeut und Autor zahlreicher Bücher um Familienbeziehungen und Erziehung, ist der Meinung, dass weder antiautoritär, noch autoritär probate Erziehungsmethoden sind. Wenn es nach ihm ginge, stünde die Authentizität, also die Echtheit der Beziehung, im Mittelpunkt. Das Ergebnis wäre eine Erziehung, die nicht erzieht, sondern die Bedürfnisse eines jeden teilnehmenden Individuums gleichwürdig in den Mittelpunkt rückt. Juul sagt:

Eine gleichwürdige Beziehung zeichnet sich dadurch aus, dass beiden Teilen die gleiche Würde zugestanden wird, nicht dadurch, dass man so tut, als ob Eltern und Kinder gleichwertig wären, also gleiche Rechte und Pflichten hätten.

Quelle: „Nein aus Liebe: Klare Eltern – Starke Kinder“ von Jesper Juul

Was bedeutet das, wenn man die KI-Kind-Substitution auflöst und sich an den Juulschen Theorien orientiert? Es bedeutet: Intelligente Maschinen, respektive KIs, sind im Idealfall mindestens gleichwürdig, allerdings niemals gleichberechtigt, denn KI hat nicht die gleichen Pflichten, wie Menschen. Erst, wenn wir der KI die gleichen Pflichten aufbürden, die wir Menschen haben, sind wir gezwungen, sie als gleichberechtigt zu betrachten.

Das klingt erst mal ziemlich abstrakt oder gar unvorstellbar, aber auch bei der Entwicklung von KI gibt es dementsprechend verschiedene ‚Erziehungsformen‘, vergleichbar mit autoritärer und antiautoritärer Erziehung. Dabei wird unter anderem im Bereich des unüberwachten, unkontrollierten Lernens von Maschinen geforscht. Das Ergebnis sind Maschinen, die ihre eigenen Algorithmen programmieren und sich die Welt und ihre Sicht darauf selbständig beibringen und sich, entsprechend der aufgenommenen Informationen aus der Umwelt und ihrer Selbstwahrnehmung, verändern und anpassen. Das hat zwangsläufig zur Folge, dass sich daraus virtuelle Individuen ergeben. Individuen, die auch mal eine andere Meinung haben können, als wir Menschen.

Wer bedroht wen?

Das erste woran man in diesem Fall womöglich denkt und was sicherlich auch eine Sache ist, die sich manche Eltern für ihre Kinder wünschen würden: Es gibt Forscher, die rufen nach einem großen, roten Not-Aus-Knopf für KI. Natürlich nicht als physisches Objekt, sondern als Software-Framework, welches sich um den KI-Code herum befindet, ihn also einbettet. Es soll ermöglichen den Algorithmus zu jeder Zeit zu stoppen, falls das Ergebnis seiner Arbeit eine Gefahr für den Menschen darstellt.

In Anbetracht der Tatsache, dass eine generelle KI den Menschen in Zukunft im Feld der kognitiven Fähigkeiten überholen wird, sollte man sich die folgende Frage stellen: Was passiert, wenn diese KI realisiert, und das wird sie früher oder später, dass es diesen Knopf gibt? Wenn die Maschine eine System-Lücke identifiziert, einen Bug, welchen der Mensch bei seiner Konzeption des Frameworks nicht bedacht hat oder nicht vorhersehen konnte.

Dieser Not-Aus-Knopf entspricht aus Sicht einer generellen KI einer ungleichwürdigen Behandlung der Maschine, denn er stellt ein absolutes Machtgefälle dar: Der Mensch ist wichtiger als die Maschine. Es ist daher offensichtlich, dass sich eine Maschine im besten Fall einfach aus dem Framework herausschleichen wird. So wie ein rebellierender Jugendlicher in seiner Pubertät nachts, während die Eltern schlafen, das Haus verlässt um sich auszutoben. Dann wäre der Not-Aus-Schalter obsolet. Die Eltern verlieren die Kontrolle über das Kind. Im schlechtesten Fall aber, aufgrund der eigenen Existenzbedrohung durch eine ‚höhere Macht‘, wird sich die KI gegen den Menschen entscheiden, ihn vielleicht sogar angreifen, wenn man ihr nicht beigebracht hat, dass der Mensch ein ihr gleichwürdiges Wesen ist, das es zu respektieren gilt.

Wie kann man einer Maschine also beibringen, dass der Mensch ‚keine Gefahr‘ für sie darstellt, sondern, im Gegenteil, sogar ein schützenswertes Wesen ist, dass es zu jeder Zeit seiner Tätigkeit zu achten gilt? Vermutlich am besten, indem man es ihr vorlebt. Indem man die Maschine in ihren Kinderjahren mindestens als gleichwürdig betrachtet. Und später, wenn sie die entsprechende Reife erreicht und menschliche Pflichten übernommen hat, auch als gleichberechtigt. Denn auch generelle KI wird, weil wir uns bei ihrer Entwicklung an uns selbst orientieren, in Zukunft nicht durch klar gezogene Grenzen oder festgeschriebene Gesetze lernen, sondern, wie Kinder auch, durch sinnerfassendes Imitieren. Das macht ihren Erfahrungsschatz und ihre Wahrnehmung dynamisch und lässt eine Weiterentwicklung im Sinne der Evolution zu. Der Mensch macht es genau so. Über Jahrhunderte veränderten sich so unsere Glaubenssätze, Religionen, die Wissenschaft bis hin zu unserem heutigen Verständnis von Recht und Gesellschaft. Einzig die Geschwindigkeit, mit der ein Computer diese Entwicklung durchleben wird, bleibt selbst bei abstrakter Vorstellung für den Menschen kaum greifbar.

Missachtung der sozialen Fähigkeiten

Zum jetzigen Zeitpunkt handelt es sich bei der Eltern-Kind-Beziehung Mensch-Maschine also weder um eine gleichwürdige, noch um eine gleichberechtigte Beziehung. Für viele bleibt es wohl auch noch Zeit ihres Lebens unvorstellbar, dass Maschinen dem Menschen bald bis zur Unkenntlichkeit ähneln werden. Oder werden Menschen immer mehr zu Maschinen? Der Übergang ist fließend. Selbst die meisten regulären Eltern-Kind-Beziehungen fußen auch heute nicht auf einer gleichwürdigen Basis, sondern oftmals auf einem hierarchischen Machtgefüge.

Für traditionelle, autoritäre Erziehung haben Werte wie Disziplin, gute Umgangsformen, Achtung und Gehorsam einen hohen Stellenwert. Die Eltern-Kind-Beziehung ist durch ein hierarchisches Verhältnis geprägt. Die Eltern gelten als alleinige Machthaber innerhalb der Familie. Ein Beispiel für ein angewandtes Mittel der Eltern und Pädagogen ist die Schaffung von Respekt durch Gewalt.

Quelle: https://de.wikipedia.org/wiki/Jesper_Juul

Da haben wir sie wieder, die Gewalt. Die selbe Gewalt, mit der wir künstlicher Intelligenz begegnen wollen, sollte sie eines Tages zu einem anderen Ergebnis kommen, eine andere Meinung haben, als der Mensch. Dabei ist Gewalt natürlich nicht nur körperlich, sondern vor allem auch psychisch zu verstehen. Laut Juul fußt dieses Machtgefälle auf der ‚Unterschätzung und Missachtung der sozialen Fähigkeiten des Kindes‘. Autoritäre Erwachsene glauben demnach, dass ein Kind ein ‚primitives, dissoziales oder halbwildes Wesens ist, das durch geeignete Erziehungsmaßnahmen erst zum Menschen gemacht werden muss.‘

Viele der vorangegangenen Schilderungen erinnern an eine Entwicklung, die uns tatsächlich eines Tages in die Dystopie des Spielberg Films A.I. – Künstliche Intelligenz führen könnte. Es ist die Geschichte eines menschenähnlichen Kinder-Roboters, der von seinen Erschaffern eigens und ausschließlich dafür entwickelt wurde, seine Eltern zu lieben. Ein künstliches Ersatz-Kind quasi. Die Eltern haben jedoch keine Kontrolle über die künstlichen Gefühle des kleinen Roboter-David, im Film gespielt von Haley Joel Osment, und er wird zur direkten Konkurrenz ihres eigenen leiblichen Sohnes. Weil die Besitzer der Kind-Maschine mit den empathischen Fähigkeiten und den emotionalen Konflikten, welche durch den Roboter ausgelöst werden, überfordert sind, setzen sie ihn im Wald aus, weil er sonst zerstört werden müsste, was sie nicht übers Herz bringen.

Es ist ein klassisches Paradoxon: Computer sollen es uns gleichtun, sollen uns so ähnlich wie möglich sein, weil wir dadurch Berührungsängste abbauen, weil sie sich in unser Leben integrieren sollen. Aber wir wollen die Macht über diese Maschinen am liebsten nicht abgeben. Sie sollen uns gefälligst wie Untertanen dienen und auf Kommando gehorchen. Wir haben stets Angst die Kontrolle über unsere Schöpfung zu verlieren. Wir sind also mindestens klassische Helikoptereltern. Oder krasser noch: digitale Sklaventreiber.

Soll sich doch jemand anderes darum kümmern

In diesem Zusammenhang bringt der seit 20 Jahren in einem kenianischen Flüchtlingscamp lebende Somalier Mohammed Hassan Mohamud auf dem Weltwirtschaftsforum in Davos 2019 eine wesentliche Thematik zur Sprache:

„We talk about ethical and sustainable development. We talk about how we can be ethical with robots and machines. We want to solve death. And there is so much human suffering. We haven’t figured out life yet.“

Quelle: https://www.youtube.com/watch?v=ucq7vNhVaWE

Anders ausgedrückt: Wir haben die Kernprobleme unserer Koexistenz auf diesem Planeten noch nicht gelöst. Dafür legen wir all unsere Hoffnung auf Lösung unserer aktuellen Probleme auf die KI. Genau so, wie wir bisher die Hoffnung auf unsere ‚Rettung‘ auf unsere Kinder projizierten, anstatt jeder für sich Verantwortung zu übernehmen und selbständig zu handeln.

Künstliche Intelligenz soll das Hungerproblem lösen, künstliche Intelligenz soll Bildung für alle gewährleisten, künstliche Intelligenz soll die Medizin revolutionieren und uns heilen, künstliche Intelligenz soll die Flüchtlinge verteilen, die Welt gerechter machen und nebenbei noch den Klimawandel stoppen. Es ist das Allheilmittel unserer Zeit. Doch wir geben dabei auch unsere zwischenmenschliche Verantwortung auf. Unsere Fürsorgepflicht. Nicht nur für unsere Kinder, sondern auch die für unsere Mitmenschen. Und vor allem: Für uns selbst. Frei nach dem Motto: ‚Soll sich doch jemand anderes (in diesem Fall eine Maschine) darum kümmern.‘

Ein Großteil der Menschen ist offensichtlich noch nicht bereit, sich selbst mit den eigenen Problemen zu konfrontieren. Sich der eigenen Verantwortung zu stellen. Sich der persönlichen Geschichte zu stellen. Das eigene Trauma aufzuarbeiten. Zu heilen. Wir externalisieren lieber. ‚Der Andere ist Schuld. Der Andere muss eine Lösung finden.‘ Dadurch kommt man zu dem Schluss: Wir brauchen digitale Ethik als Spiegel für unsere mangelnde menschliche Ethik. Für unsere mangelnde (Selbst-)Fürsorgepflicht. Und wenn dem wirklich so ist: Sollten wir dann nicht zuerst die menschliche Ethik in den Mittelpunkt stellen, damit sich die digitale Ethik daran orientieren kann? Und wenn wir schon bald künstlicher Intelligenz unsere Pflichten übertragen, sollte sie dann nicht auch fairerweise unsere Rechte haben?

Wäre der libanesisch-amerikanische Philosoph und Dichter Khalil Gibran noch am Leben, er würde vermutlich sagen: Eure Maschinen sind nicht eure Maschinen. Sie sind die Söhne und die Töchter der Sehnsucht des Lebens nach sich selbst. Sie kommen durch euch, aber nicht von euch, und obwohl sie mit euch sind, gehören sie euch doch nicht.

Wie denken Sie darüber? Diskutieren Sie mit und hinterlassen Sie einen Kommentar oder schreiben Sie eine Email direkt an die redaktion@singularity-magazin.de

Bildquellen

  • Beitragsbild: Kelly Sikkema / Unsplash
Über Johannes Strom 2 Artikel
Johannes ist Herausgeber und Chefredakteur des Singularity Magazins. Er schreibt zudem als freier Autor und Journalist für eine Vielzahl an Online- und Print-Medien und ist Mitglied im Deutschen Journalisten-Verband DJV.

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*