Künstliche Intelligenz – Schafft der Mensch sich ab?

Künstliche Intelligenz Header

Während noch gestritten wird, was genau eigentlich Künstliche Intelligenz bedeutet, sind wir bereits mitten in einem Prozess, der weitgreifende Folgen für Rechts-, Sozial- und Kultursysteme hat.

Elon Musk vereint in Bezug auf Künstliche Intelligenz die Widersprüchlichkeit unserer Gesellschaft in einer Person: die Angst vor der Übermächtigkeit von künstlicher Intelligenz einerseits und andererseits den Wunsch, jeden und alles zu optimieren.

Der Tesla-Chef hat zum einen mit OpenAI eine gemeinnützige Gesellschaft gegründet, die die Erforschung Künstlicher Intelligenz zum Nutzen der Menschheit als Ziel hat. Er warnt vor den Gefahren, spricht sich für ein Verbot von „Killer-Robotern“ aus, die in Kriegen selbstständig über Freund und Feind entscheiden.

Andererseits will er für seine Elektro-Autos autonome Fahrsysteme einsetzen und hat mit Neuralink ein Unternehmen mitgegründet, das erforscht, wie Computer mit unserem menschlichen Hirn vernetzt werden könnten. Denn er vertritt auch die Auffassung, dass der Mensch sich langfristig zum Cyborg – also einer Mischung aus Mensch und Maschine - aufrüsten müsse, damit er inmitten der künstlichen Umgebungsintelligenz bestehen könne.

Die Digitale Revolution: Entwicklungsrichtung völlig offen

Die sogenannte Digitale Revolution seit dem Ende des 20. Jahrhunderts wird mit ihrer Schlagkraft oft mit der industriellen Revolution 200 Jahre zuvor verglichen. Digitaltechnik und Computer bewirken einen Wandel nahezu aller Lebensbereiche und läuten eine radikale Umwälzung unseres Gesellschaftsmodells ein. Noch ist kaum abzusehen, welche Folgen die aktuellen technischen Entwicklungen für die Menschheit haben.

Es ist keine Vision mehr, sondern tägliche Realität: Amazon weiß aufgrund unserer Kaufhistorie und der von anderen, was wir mögen und vielleicht noch kaufen möchten. Google liefert uns zuvorderst Suchergebnisse, die unsere Ansichten bestärken. Facebook filtert aus der Vielzahl von Posts diejenigen heraus, die für uns vermeintlich wichtiger als andere sind. Bei Banken sorgen Algorithmen dafür, dass Wertpapiere ohne jedweden Eingriff von Menschen in Millisekunden gewinnbringend gehandelt werden. Insbesondere in der Medizin ist Künstliche Intelligenz oft lebensrettend: durch schnelle und präzise Auswertung von tausenden oder Millionen Bildern lassen sich mit größerer Wahrscheinlichkeit Krankheiten erkennen und Menschenleben retten. Besonders große Hoffnungen werden auf die Entwicklung von Künstlicher Intelligenz im Verkehr und im Auto gelegt, um eines Tages flächendeckend autonomes Fahren zu ermöglichen.


Was ist eigentlich Künstliche Intelligenz?

Eine einheitliche, allgemein akzeptierte Definition gibt es bislang nicht. Bereits zum Intelligenzbegriff an sich gibt es zahlreiche Definitionsansätze. Und was ist künstlich? Die meisten Anwendungen, wie wir sie bislang kennen, sind menschengemachte Regelapparate, sogenannte Algorithmen. Diese tragen Annahmen und Vermutungen über Entscheidungen und Möglichkeiten ihrer Entwickler.

Noch ist sogenannte Künstliche Intelligenz vorwiegend eine von Menschen gemachte und kontrollierte regelgesteuerte Disziplin. Dabei ist der Programmierer immer noch derjenige, der den Regelapparat kennt. Anders gestaltet es sich, wenn Künstliche Intelligenz selbstlernend ist und selbst die Programmierer, die den Initialcode lieferten, die Entscheidungen des Computers nicht mehr nachvollziehen können.


Fluch oder Segen?

Während die Nützlichkeit etlicher Anwendungen außer Frage steht, beschleicht den einen oder anderen jedoch das Gefühl, manipuliert und überwacht zu werden. Viele Menschen sträuben sich dagegen, dass Konzerne unkontrolliert große Datenmengen sammeln (zum Beispiel zu Websitebesuchen, Meinungsäußerungen in Foren, Käufe etc.), zusammenführen und Profile anlegen. Und technisch ist bereits vieles möglich: In Pilotprojekten übermitteln Armbänder das Bewegungsverhalten seines Trägers an die Krankenkasse und könnten in naher Zukunft für eine Einstufung in einen Gesundheitstarif sorgen. Autoversicherungen bieten bereits heute an, die Höhe der Versicherungsprämie vom Fahrstil abhängig zu machen. Dazu muss der Autobesitzer den Einbau einer Software zustimmen, die das gesamte Fahrverhalten erfasst.

Verantwortung und Schuld

Doch es bleiben Fragen von Moral, Verantwortung und Schuld: So wird in einem autonomen Fahrzeug die Software in Gefahrensituationen innerhalb von Millisekunden Entscheidungen treffen, die im Zweifelsfall ethische Fragen aufwerfen. Wie soll eine Künstliche Intelligenz entscheiden, wenn ein Unfall unvermeidlich ist und nur die Wahl besteht, ein Kind oder mehrere Erwachsene zu verletzen oder zu töten? Insbesondere bei durch Künstliche Intelligenz gesteuerten Drohnen für Kriegszwecke wird ein zentrales Kriterium sein, wie wir über Entscheidungshoheiten, Verantwortungen und Schuld von Künstlichen Intelligenzen denken.

Neu sind diese Überlegungen nicht, die im deutschsprachigen Kulturkreis als „Weichenstellerproblem“ bereits 1930 erörtert wurden. Und schon 1942 lieferte der Schriftsteller Isaac Asimov vorausschauende „Grundregeln des Roboterdienstes“:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Was aber, wenn ein autonomes Fahrzeug einen Unfall verursacht? Was ist mit dem Mähroboter, der ein spielendes Kleinkind erheblich verletzt? Noch hat unser Rechtssystem dafür keine Handhabe. Denn Maschinen fehlt das Gefühl für Recht und Unrecht sowie die Fähigkeit, Schuld auf sich zu laden. Doch wer haftet dann? Mit Fragen wie diesen beschäftigt sich seit 2010 die erste Forschungsstelle für RobotRecht an der Universität Würzburg.

Wo bleibt der gesellschaftliche Dialog?

Während sich die Politik in Deutschland erst zögerlich mit Künstlicher Intelligenz auseinandersetzt, ist man in anderen Ländern schon weiter. In Frankreich beispielsweise identifizierte die Datenschutzbehörde sechs Themenkomplexe, über die Politik und Gesellschaft im Zusammenhang mit Künstlicher Intelligenz nachdenken und diskutieren müsse:

1. Autonome Maschinen: Ist es sinnvoll, Entscheidungen und Einschätzungen über Menschen in die Verantwortung von vorgeblich neutralen Maschinen zu geben und Fehlerfreiheit vorauszusetzen?

2. Tendenzen, Diskriminierung und Ausschluss: Wie kann sichergestellt werden, dass Künstliche Intelligenz keine Personen oder Personengruppen diskriminiert oder ausschließt?

3. Algorithmisches Profilieren von Menschen: Wie kann verhindert werden, dass durch das Zuschneiden von persönlichen Informationen (Informationsblasen) der Wertepluralismus gefährdet wird?

4. Widerspruch zwischen Big Data und Datenschutz: Wie kann der Anspruch, möglichst viele Daten zu Menschen zusammenzuführen, mit dem Datenschutz in Einklang gebracht werden?

5. Auswahl von Daten in Qualität, Quantität und Relevanz: Wie können Entscheidungsträger gegenüber Ergebnissen aus Künstlicher Intelligenz kritisch bleiben?

6. Menschliche Identität: Wie sollen Menschen in Zukunft mit humanoiden Robotern umgehen, welche Rechte sollen sie haben, welche Unterschiede ziehen wir zum Menschen?

Himmel oder Hölle auf Erden?

Jenseits der ethischen Fragen bei der Nutzung Künstlicher Intelligenz hat der israelische Historiker Yuval Noah Harari die These aufgestellt, dass wir gerade dabei sind, uns abzuschaffen. Wenn Computer nicht nur selbstständig Maschinen bauen und Autos lenken können, sondern selbst die Arbeit von Führungskräften in Firmen und die Arbeit von Politikern übernehmen könnten, was bliebe uns dann? Wo bliebe der Lebenssinn?

Befeuert werden solche Überlegungen durch durchaus seriöse Studien: So ermittelte das Institut für Arbeitsmarkt- und Berufsforschung, dass bereits im Jahr 2016 das Potenzial bestanden hätte, 25 Prozent der bezahlten menschlichen Tätigkeiten von Maschinen erledigen zu lassen. Dabei wären zwar mit über 80 Prozent Fertigungsberufe betroffen gewesen, doch Dienstleistungen und Berufe in der Unternehmensführung und –organisation immerhin noch mit 60%, Tendenz steigend.

Die Befürchtung, dass diese dritte industrielle Revolution uns die Arbeit nehmen wird, vertreten auch etliche Forscher und Unternehmer. Dabei hört man immer wieder zwei Folgerungen: (1) Wir müssten Cyborgs – also Mischwesen aus Mensch und Maschine – werden, um mit Künstlicher Intelligenz konkurrieren zu können. Und (2) die Forderung nach einem bedingungslosen Grundeinkommen, das Menschen jenseits einer Berufstätigkeit ein gutes Leben ermöglichen soll.

Prognosen sind schwer, besonders wenn sie die Zukunft betreffen

Müssen wir uns nun vor Künstlicher Intelligenz fürchten oder können wir uns beruhigt zurücklehnen? Die Frage ist eher, wo wir hinwollen. Wer soll künftig wesentliche Entscheidungen treffen, ein Mensch oder eine Künstliche Intelligenz? Und welche Entscheidung ist „besser“? Damit stellt sich auch die Sinnfrage wieder neu. Elon Musk sieht es so: „Unsere Existenz kann nicht nur darin bestehen, ein erbärmliches Problem nach dem anderen zu lösen. Es muss Gründe geben zu leben.“

Die Beantwortung der Frage nach dem Sinn sollten wir vielleicht keiner Künstlichen Intelligenz überlassen. Denn es könnte uns eine ähnlich kryptische Antwort erwarten, wie sie in der Science Fiction-Satire „Per Anhalter durch die Galaxis“ nach sehr, sehr langer Rechenzeit kommt: 42.

Das LIW bietet Seminarveranstaltungen an, in denen Sie sich mit Digitalisierung und Künstlicher Intelligenz kritisch befassen.