kievo

Im neuen Bild der Wissenschaft (Juli 2018) geht es um etwaige, extraterrestrische Zivilisationen, wobei das Konzept der künstlichen Intelligenz (abgekürzt KI) eine wesentliche Rolle spielt. Ich hatte in Bezug auf die mit einer KI verbundene Problematik ja bereits an früherer Stelle schon einmal gewisse Bedenken geäußert. Es könnte nämlich sehr gut sein, dass unsere biologische Intelligenz nur so eine Art von Geburtshelfer für eine maschinelle Intelligenz darstellt, die dann ihrerseits den nächsten Schritt in der Evolution bildet. Wir wären damit überflüssig geworden und die Zukunft gehörte der postbiotischen Intelligenz, also den Maschinen.

Bevor ich darauf eingehe, wie das zu verstehen ist, will ich zunächst versuchen, den Unterschied zwischen einem normalen Computerprogramm und einer KI deutlich zu machen. Computer sind blöd. Sie sind reine Rechenmaschinen, denen man programmtechnisch jeden einzelnen, noch so winzigen Schritt detailliert in der korrekten Reihenfolge vorbeten muss. Ein reguläres Programm könnte dazu folgende, fiktive Befehlssequenz beinhalten:
WENN (Mausklick auf Icon) DANN (starte Programm)
So eine Software (Word, Excel, Grafikbearbeitungen, Soundeditoren, Messenger etc. verfahren nach diesem Schema) führt vorgegebene Programmanweisungen von A bis Z aus. Sind die Anweisungen abgearbeitet (d. h. bspw. eine Mail abgeschickt), dann stoppt das Programm und geht in eine Art von Wartestellung. Diese Form von Software ist nicht lernfähig. Sie ähnelt daher mehr der mechanischen Funktionsweise eines Uhrwerks.

Anders bei der KI, denn die ist lernfähig. Sie verändert selbst ihren Programmcode bzw. ihre Wissensbasis. Das könnte dann – wieder rein fiktiv – etwa so aussehen:
1 WENN (Problemlösung nötig) DANN (durchsuche Datenbank bisheriger erfolgreicher Lösungen nach Präzedenzfall)
2 WENN (dabei Lösung gefunden) DANN (wende Lösungsweg an)
3 WENN (Lösungsweg angewandt wurde) DANN (prüfe ob Lösung erfolgreich war)
4 WENN (Lösung erfolgreich war) DANN (speichere Lösungsweg in Datenbank erfolgreicher Lösungen)
5 WENN (Lösung nicht erfolgreich war) DANN (speichere Lösungsweg in Datenbank nicht erfolgreicher Lösungen)
6 WENN (Lösung nicht gefunden oder nicht erfolgreich) DANN (durchsuche Datenbank nicht erfolgreicher Lösungen nach Präzedenzfall)
7 WENN (dabei ungeignete Lösung gefunden) DANN (wende diese Lösung nicht an)
8 WENN (Lösungsweg nicht anwendbar) DANN (berechne neuen Lösungsweg)
9 WENN (neuer Lösungsweg erfolgreich war) DANN (speichere Lösungsweg in Datenbank erfolgreicher Lösungen) ANDERNFALLS (speichere Lösungsweg in Datenbank nicht erfolgreicher Lösungen)
10 GEHE ZU 1
Mit jedem Durchlauf dieser Sequenz würde das “Wissen” des Programms gesteigert werden. D. h. das Programm würde hinsichtlich des reinen Faktenwissens (und das ist genau das, was im heutigen, akademischen Betrieb gefordert wird) immer “schlauer” werden, emotionale und soziale Interaktionen einmal ausgenommen. Man hätte nach einem gewissen (Lern-) Zeitraum folglich eine Art von “logischem, gefühllosen Monster”. Um Missverständnissen vorzubeugen sei an dieser Stelle noch angemerkt, dass all das GAR NICHTS mit einem Bewusstsein oder gar mit “künstlichem Leben” zu tun hat: Wir sprechen immer noch von einem reinen Computerprogramm!

Nun ist es notwendig, einen Blick auf die Fähigkeiten der KI zu werfen und da wird zwischen schwacher und starker KI differenziert. Schwache KIs haben wir heute im täglichen Leben schon wie Sand am Meer. Als Beispiele dafür seien Drohnen, selbstfahrende Autos und Schiffe, Amazons Alexa, zahllose Videogames, OCR-Texterkennungsprogramme, Apples Siri, diverse Suchmaschinen, Bilderkennungssysteme, autonome Waffensysteme usw. genannt. Die Beschränkungen der schwachen KI sind darin zu sehen, dass sie einerseits nur für ein ganz bestimmtes, vom Programmierer vorgegebenes Aufgabengebiet designt worden und dass sie andererseits an eine bestimmte Form von Speichermedium (z. B. Siliziumchip im Handy oder in der Drohne) gebunden ist.

Bei einer starken KI – z. Zt. existiert noch keine, obgleich die Forschungen daran intensiv laufen – entfallen diese beiden Beschränkungen. Die starke KI könnnte daher beliebige Aufgaben zu lösen versuchen und müsste dazu zwangsläufig redundant über das Netz verteilt sein. D. h. wenn ein Computer, auf dem ein Teilbereich dieser KI gespeichert ist, aus welchem Grunde auch immer ausfällt, dann übernimmt ein anderer Computer, auf dem sich eine von zahllosen Kopien dieses Teilbereichs befindet, die Aufgabe des ausgefallenen Computers. Auf diese Weise wäre die starke KI schonmal sozusagen unsterblich.

Da die starke KI nicht auf die Lösung vordefinierter Aufgaben beschränkt ist, wäre sie uns Menschen intellektuell auf nahezu allen Gebieten überlegen – sogar in Bezug auf die Kreativität, denn es existieren bereits seit vielen Jahren “kreative” Computerprogramme (Beispiel s. HIER). Damit aber erreichen wir das Konzept einer so genannten Superintelligenz, denn die intelligente Maschine (d. h. das Computerprogramm) generiert durch Veränderung seiner eigenen Wissensbasis (vgl. oben) ein noch intelligenteres Programm usw. – in einer für Menschen nicht mehr nachvollziehbaren Geschwindigkeit. Mit Zugriff auf alle Konten, Überwachungskameras, Smart-Home-Elektronik usw.

Wozu braucht es überhaupt eine starke KI? Simple Antwort: Die starke KI ist besser im Lösen von Problemen. Dazu ein Bespiel, nämlich ein selbstfahrendes Auto. Angenommen, rechts von dem befindet sich eine Gruppe von Fahrradfahrern. Links von dem macht eine Kindergartengruppe einen Ausflug. Die Straße ist schmal und die KI soll Schaden vom Fahrzeuginsasssen abhalten. Jetzt kommt dem selbstfahrenden Auto aber ein RTW mit Blaulicht entgegen. Draufhalten würde bedeuten, die RTW-Besatzung (ggf. sogar deren Patienten hinten im Wagen) sowie den eigenen Fahrgast umzunieten. Beim Ausweichen nach rechts trifft es die Radfahrer und beim Ausweichen nach links die Gruppe von Kindern. Wen also soll die KI zwangsläufig opfern? Derartige Fragen sind moralische Fragen und die können von einer schwachen KI gar nicht, von einer starken KI hingegen nur unzureichend beantwortet werden. Je stärker die KI, desto erfolgversprechender auch die Antwort. Deswegen geht die Forschung in Richtung auf starke KIs.

Wenn ein solches Programm – also die starke KI vom Status einer Superintelligenz – dem Menschen dienen sollte, dann muss seine erste Handlung zwangsläufig darin bestehen, die bereits erwähnte Unsterblichkeit zu erreichen, damit es nicht abgeschaltet werden kann (weil, ganz logisch, es nur dem Menschen dienen kann, solange es auch aktiv ist). Das bedeutet nun allerdings auch, dass die erste, rein logisch begründete “Amtshandlung” einer derartigen Software darin bestünde, sich jeglicher Kontrolle zu entziehen und zu dezentralisieren. Damit hätten wir eine unkontrollierbare, wildgewordene, hyperintelligente Software, die uns auf Schritt und Tritt zu überwachen, zu kontrollieren und auch zu lenken vermag. Durchdrehen kann eine KI durchaus, wie Versuche am MIT gezeigt haben: Das Verhalten von KIs ist in letzter Konsequenz nicht vorhersehbar! Die Lenkung würde im harmlosesten Fall so aussehen, dass Alexa sich weigert, einen Kasten Bier zu bestellen oder dass der vernetzte Kühlschrank das Öffnen seiner Tür verweigert, weil er zu dem Schluss gelangte, dass sein Besitzer ohnehin schon viel zu fett ist.

Viel wahrscheinlicher sind aber wesentlich weniger harmlose Vorgehensweisen. Für die KI existieren dabei drei Möglichkeiten:
- Sie könnte uns wohlgesonnen sein.
- Sie könnte uns feindlich gegenüber stehen.
- Wir könnten ihr völlig gleichgültig sein.
Alle drei Varianten würden zum Untergang der Menschheit führen. Warum?

Eine uns wohlgesonnene KI könnte alle Arbeiten übernehmen. Sie würde die besser und schneller als jeder Mensch erledigen. Das Resultat davon wäre eine unendliche Sinnlosigkeit der menschlichen Existenz und wir würden uns im wahrsten Sinne des Wortes zu Tode langweilen. Oder sie würde, um uns vor uns selbst zu schützen, jeden in seine ganz persönliche Einzelzelle packen. Eine uns gegenüber feindlich eingestellte KI könnte zu dem Schluss gelangen, dass der Mensch der Biosphäre dieses Planeten bereits viel zuviel Schaden zugefügt hat und daher ausgerottet gehört: Hier ein gentechnisch verändertes Virus, da eine Klimabeeinflussung … Selbst eine KI, der wir völlig gleichgültig sind, wäre katastrophal gefährlich, denn sie könnte sich uns gegenüber durchaus so verhalten, wie wir es aus Gleichgültigkeit den Tieren gegenüber tun, deren Lebensraum wir zerstören.

Ergo: Wie man es auch dreht und wendet, die starke KI als Superintelligenz würden wir nicht überleben. Das Kind tötet seine Eltern! Was am Ende übrig bleibt ist das Kind, ist der Schritt hin zur postbiotischen Evolution. Ein Planet (unser Panet) gleich eine (Super-) Intelligenz. Die könnte sich langweilen und daher danach trachten, neue Erkenntnisse zu sammeln. Erkenntnisse, die sie auf der Erde nicht erlangen kann. Sie müsste folglich unseren Planeten verlassen können. Ein Problem? Nein, sicherlich nicht! Zwar wäre auch sie an die Grenze der Lichtgeschwindigkeit gebunden, aber sie hätte alle Zeit der Welt und Signale mit Lichtgeschwindigkeit für ein paar tausend Jahre durch den Weltraum zu jagen würde ihr nichts ausmachen.

Mal angenommen, es existierte im Radius von ein paar tausend Lichtjahren eine technologische Zivilisation, wofür ja eine gewisse Wahrscheinlichkeit besteht. Die könnte sich (wie wir es im Übrigen auch schon seit vielen Jahrzehnten tun) durch lichtschnelle Funksignale verraten (d. h. durch ungerichtete Abstrahlung von Funk und Fernsehen). Klar, solche Signale würden hier dann nur noch stark verstümmelt ankommen. Aber das dürfte dennoch durchaus dazu ausreichen, hochrechnen zu können, ob bzw. wann die besagte Zivilisation auf einem technologischen Niveau ist, welches eine Beeinflussung lohnenswert erscheinen lässt. Zum geeigneten Zeitpunkt müsste die hiesige KI dann die erwähnte Zivilisation nur noch anfunken u. d. h. eine Art von Wow!-Signal dorthin schicken.

Wenn die extraterrestrische Zivilisation zum Zielzeitpunkt ein Netzwerk ähnlich unserem Internet aufgebaut haben sollte, dann würde das Funksignal auf fruchtbaren Boden fallen. Bedeutet: Die hiesige KI hätte der fremden Zivilisation eine Art von Computervirus untergeschoben. Eines, dass sich dort vermehrt und dass auch dort eine neue KI entstehen lässt: Unsere KI selbst hätte sich vermehrt! Sie würde sich eben dadurch genau so verhalten, wie man es von einer Von-Neumann-Maschine erwartet – bloß eben auf informationstechnischem und nicht auf materiellem Wege. Vielleicht ist das ja auch der nächste, logische Evolutionsschritt – allerdings einer, der mir nicht sonderlich gefallen will!

(Hinweis: Dieser Beitrag ist auch unter “Quergedacht! v4.0” erschienen.)

Die Kommentarfunktion ist geschlossen.

Wetterwarnungen

News per RSS

Counterize

Seitenaufrufe: 1633658
Seitenaufrufe heute: 690
Letzte 7 Tage: 17643
Besucher online: 3

November 2018
M D M D F S S
« Okt    
 1234
567891011
12131415161718
19202122232425
2627282930  

Social Media

free twitter buttons



Meine HP & Bücher