Ergänzend: Was is denn eigentlich mit Verantwortung? Ich meine, wenn wir Systeme entwickeln, die "intelligenter" (was auch immer das dann ganz genau heißt) sind als wir, übernehmen diese Systeme dann auch Verantwortung für sich selbst?
Was hat das für Folgen für die Normensetzung (moralisch und juristisch) und was ist mit dem Menschen, wenn er doch nur eine Unterkategorie/Spezialisierung des Begriffes Maschine ist? Widerspricht das dann der Objektformel im GG / der Menschenwürde?
Darf man dann so eine Maschine einfach abschalten (aka töten?)
Freunde des Ausdauerdreikampfs: Wir dürfen das nicht einfach so passieren lassen ("Da kann man nichts machen, dass kommt sowieso!"), die feuchten Phantasien dieser Bostroms und Kurzweils aus dem Silicon Valley Realität werden lassen.
