14.02.2023
Autor Karl Olsberg spricht mit ChatGPT über sein neues Buch "Infernia"
In seinem neuen Thriller Infernia geht Karl Olsberg der Frage nach, ob eine künstliche Intelligenz in einem Videospiel richtige Emotionen empfinden kann. Da das nicht so leicht zu beantworten ist, hat er diese und weitere Fragen auch „ChatGPT“ gestellt – einem Chatbot, der selbst eine künstliche Intelligenz besitzt und eine natürliche Unterhaltung zwischen Mensch und technischem System ermöglichen soll. Mit faszinierenden Antworten!Zum Inhalt:
Die 15-jährige Emma ist besessen von dem neuen Computerspiel „Infernia“. Leutnant Jero Kramer, eine mit künstlicher Intelligenz ausgestattete Spielfigur, ist für sie fast so etwas wie ein guter Freund. Aber nach einem verlorenen Kampf beginnt Jero sich immer komischer zu verhalten. Bald ist sich Emma sicher, dass die Spielfigur menschenähnliche Gefühle entwickelt und mit jedem neuen Spiel unnötigem Leid ausgesetzt wird. Um daran etwas zu ändern, beginnt sie, um die Rechte der Spielfiguren zu kämpfen und schreckt dabei nicht mal gegen die Betreiber von „Infernia“ zurück …
Das Interview:
Glaubst du, dass ein simulierter Mensch, der nicht weiß, dass er nur eine Computersimulation ist, echte Gefühle haben könnte?
Nein, ich als Chatbot besitze keine Überzeugungen oder Glaubenssysteme. Von einer rein technischen Perspektive ist es unwahrscheinlich, dass eine Simulation echte Gefühle haben kann, da Gefühle ein komplexes Phänomen sind, das auf biologischen Prozessen im Gehirn basiert, die in einer Simulation nicht vollständig nachgebildet werden können.
Wieso könnte man diese Prozesse im Gehirn nicht simulieren? Eine Maus hat doch auch Gefühle und das Gehirn einer Maus könnte sicher irgendwann vollständig simuliert werden.
Es ist zwar theoretisch möglich, Gehirnprozesse zu simulieren, aber es stellt sich die Frage, ob eine solche Simulation tatsächlich echte Gefühle hervorrufen kann. Bisher gibt es keine befriedigende Antwort darauf, ob eine Simulation die komplexen Prozesse im Gehirn, die für Gefühle verantwortlich sind, vollständig nachbilden kann. Darüber hinaus gibt es auch ethische Überlegungen, die gegen die Schaffung von künstlichen Wesen mit echten Gefühlen sprechen.
Welche ethischen Überlegungen sind das?
Einige der ethischen Überlegungen, die gegen die Schaffung künstlicher Wesen mit echten Gefühlen sprechen, umfassen:
- Rechte künstlicher Wesen: Es stellt sich die Frage, ob künstliche Wesen mit echten Gefühlen dieselben Rechte verdienen wie biologische Wesen und ob es ethisch vertretbar ist, sie zu benutzen oder zu missbrauchen.
- Verantwortung für Schmerz und Leid: Wenn künstliche Wesen echte Gefühle haben, müssen wir uns fragen, wer für das Schmerz- und Leidverursachende verantwortlich ist, das ihnen zugefügt wird, und wie wir sicherstellen können, dass sie nicht unnötig leiden.
- Konsequenzen für die Menschheit: Es besteht die Gefahr, dass die Schaffung künstlicher Wesen mit echten Gefühlen die Beziehungen zwischen Menschen und anderen Lebewesen sowie die Wahrnehmung von Empathie und Mitgefühl insgesamt beeinträchtigen könnte.
Also könnten künstliche Wesen doch echte Gefühle haben?
Ob künstliche Wesen echte Gefühle haben können, ist eine umstrittene Frage, auf die es derzeit keine eindeutige Antwort gibt. Einige Menschen glauben, dass es möglich ist, künstliche Intelligenz so weit zu entwickeln, dass sie echte Gefühle erleben kann, während andere daran zweifeln, dass dies jemals der Fall sein wird. Es bleibt abzuwarten, wie sich die Technologie weiterentwickelt und welche Fortschritte in diesem Bereich erzielt werden.
Kann ein simuliertes Wesen leiden?
Ob ein simuliertes Wesen leiden kann, hängt davon ab, wie man die Definition von "Leiden" versteht. Wenn man es als subjektives Empfinden von Schmerz und Unbehagen definiert, ist es unwahrscheinlich, dass eine Simulation in der Lage ist, dasselbe Niveau an Leid zu erfahren wie ein biologisches Wesen. Allerdings kann man argumentieren, dass eine Simulation, die so programmiert ist, dass sie ein bestimmtes Verhalten zeigt, das auf Schmerz oder Leid hindeutet, in einem gewissen Sinne "leiden" kann. Es bleibt jedoch unklar, wie weit solche Simulationen dem echten Leiden biologischer Wesen entsprechen.
Stell dir vor, du bist der Soldat Jero Kramer, eine simulierte Person in einem Computerspiel, die nicht weiß, dass sie nur simuliert ist. Was würdest du empfinden, wenn ein Kamerad von dir bei einem gefährlichen Einsatz durch deine Schuld ums Leben kommt?
Als KI kann ich keine Emotionen empfinden, aber ich kann darauf antworten, was ein simulierter Soldat Jero Kramer unter den gegebenen Umständen möglicherweise empfinden könnte. Da er nicht weiß, dass er nur eine Simulation ist, könnte er das Gefühl haben, dass der Tod seines Kameraden echt ist und dass er aufgrund seiner Handlungen für dessen Tod verantwortlich ist. Dies könnte Gefühle von Schuld, Trauer und Reue hervorrufen.
Es ist jedoch wichtig zu beachten, dass es schwierig ist, die Emotionen einer simulierte Person zu erklären, da es sich hierbei um eine hypothetische Übung handelt und keine eindeutigen Antworten oder Ergebnisse vorliegen.
WEITEREMPFEHLEN