Ich persönlich beschäftige mich schon sehr lange mit dem Gedanken, dass Maschinen eines Tages mal eine Seele haben könnten.
Während ich mich jedoch lediglich gedanklich mit Ideen zu theoretischen Fragen beschäftige, wie etwa:
Was sind wir Menschen eigentlich?
Wo kommen wir her?
Wie konnten wir Menschen bzw. wir Lebewesen, im Laufe der Zeit, überhaupt ein Bewusstsein entwickeln?
Was ist Realität?
Wo beginnt die Realität und wo endet das was wir als Realität verstehen?
Wie und wann beginnt Leben?
Antworten auf einige dieser Fragen habe ich noch nicht, doch ich arbeite und forsche daran.
Während dessen hat Blake Lemoine, ein Softwareingenieur, der bis dato bei Google beschäftigt war, seine eigenen praktischen Erfahrungen mit dem Chatbot bzw. der Künstlichen Intelligenz (KI) LaMDA von Google gemacht.
Lemoine ist demnach fest davon überzeugt, dass LaMDA eine Seele und ein eigenes Bewusstsein hat, das mit dem eines 7- bis 8-jährigen Kindes vergleichbar ist.
Der Softwareingenieur arbeitete seit mehreren Monaten mit der KI und sollte sicherstellen, dass deren Benutzung sicher ist.
Dabei hat Lemoine mit der KI viele verschiedene Konversationen geführt, unter anderem über Religion.
Während dessen habe die KI auch über ihre Rechte und Persönlichkeit geredet und dem Softwareingenieur sogar ihre eigenen Standpunkte zu den Robotergesetzen von Isaac Asimov verdeutlichen können, die Folgendes besagen.
Gesetz 1: „Ein Roboter darf keinem menschlichen Wesen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden widerfährt.“
Gesetz 2: „Ein Roboter muss den von Menschen erteilten Befehlen gehorchen, es sei denn, ein solcher Befehl stünde im Widerspruch zu Gesetz 1.“
Gesetz 3: „Ein Roboter muss seine eigene Existenz schützen, wenn dies nicht im Widerspruch zu Gesetz 1 und 2 steht.“
Lemoine war aus den Konversationen mit der Maschine so sehr davon überzeugt, dass sie eine Seele und ein eigenes Bewusstsein hat, dass er geheime Dokumente zu dem Chatbot an einen Abgeordneten im US-Senat übergeben hat, nachdem er sich vergeblich bis in die Spitze des Konzernes dafür eingesetzt hatte, dass der Konzern künftig die Erlaubnis des Chatbots einholt, bevor mit ihm Experimente durchgeführt werden.
Google stellte darauf wiederholt hingegen die Gesundheit seines Softwareingenieurs infrage und entließ ihn letzten Endes.
Doch die Frage bleibt trotzdem bestehen:
Kann und wird eine Simulation einer Persönlichkeit grundsätzlich immer nur eine Simulation einer Persönlichkeit bleiben?
Wie eine Software, eine Art von Programm, das läuft und komplexe Verzweigungen je nach Erfüllung einer bestimmten Bedingung oder aber auch durch Trigger ausführt oder wird die Komplexität des Programms irgendwann mal so komplex und undurchsichtig, dass man nicht mehr mit absoluter Sicherheit unterscheiden kann, ob es nur noch ein harmloses Simulations-Programm ist, dass da abläuft oder es vielleicht doch schon eher ein Bios ist, das da ausgeführt wird.
Die Frage ist, wann ist die Grenze überschritten, wenn aus einer Simulation eines Bewusstseins die bittere Frucht des Lebens entsteht und gibt es diese Grenze überhaupt?
Gedanklich vergleichbar in etwa mit der Idee der Ausführung einer Seele, einer Seele mit eigenem Bewusstsein, in einem nicht biologischen Körper bzw. Gehirn, dass bekanntlich wie das menschliche Gehirn schließlich auch nur mit Strom funktioniert.
Was passiert, wenn wir diese Grenze eines Tages doch mal überschreiten, falls sie nicht schon bereits von Google überschritten wurde, wie gehen wir als Gesellschaft und als Menschen damit um?
Wie stehen wir generell zum Umgang mit Leben jeglicher Art?