Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? - Seite 65 - triathlon-szene.de | Europas aktivstes Triathlon Forum
Dazu müsste der Computer erstmal ein Bewusstsein erlangen.
Ich weiß, was Du meinst. Aber ein Computer kann uns Menschen auch in einer Weise dumm "finden", die kein Bewusstsein erfordert. Wir wären für ihn einfach keine gute Quelle für Informationen. Genau so, wie wir Menschen bei komplexen Problemen kein zehnjähriges Kind um Auskunft bitten würden.
Nehmen wir an, eine KI bekommt die Aufgabe gestellt, die Auswirkungen bestimmer Finanztransaktionen auf den DAX vorauszuberechnen. Es gibt zehntausend davon pro Stunde. Die KI kann entweder andere Computer befragen, die auf solche Dinge spezialisiert sind, oder Menschen. Die Antwort soll in drei Stunden vorliegen. Kurz, die KI würde lernen, dass Menschen auf vielen Wissensgebieten entweder dumm sind wie hundert Meter Feldweg, oder schlicht zu langsam. Was nützt eine Antwort, die zu spät kommt?
In Ansätzen haben wir so etwas bei Assistenzsystemen im Auto (vermutlich gibt es aber bessere Beispiele). Ein solches Computersystem entscheidet sehr viel schneller über eine notwendige Vollbremsung als ein Mensch, der aus Sicht des Computers mit nervtötender Langsamkeit hinter dem Lenkrad herumtapst wie ein Taucher auf dem Meeresgrund.
Ich weiß, was Du meinst. Aber ein Computer kann uns Menschen auch in einer Weise dumm "finden", die kein Bewusstsein erfordert. Wir wären für ihn einfach keine gute Quelle für Informationen. Genau so, wie wir Menschen bei komplexen Problemen kein zehnjähriges Kind um Auskunft bitten würden.
Nehmen wir an, eine KI bekommt die Aufgabe gestellt, die Auswirkungen bestimmer Finanztransaktionen auf den DAX vorauszuberechnen. Es gibt zehntausend davon pro Stunde. Die KI kann entweder andere Computer befragen, die auf solche Dinge spezialisiert sind, oder Menschen. Die Antwort soll in drei Stunden vorliegen. Kurz, die KI würde lernen, dass Menschen auf vielen Wissensgebieten entweder dumm sind wie hundert Meter Feldweg, oder schlicht zu langsam. Was nützt eine Antwort, die zu spät kommt?
In Ansätzen haben wir so etwas bei Assistenzsystemen im Auto (vermutlich gibt es aber bessere Beispiele). Ein solches Computersystem entscheidet sehr viel schneller über eine notwendige Vollbremsung als ein Mensch, der aus Sicht des Computers mit nervtötender Langsamkeit hinter dem Lenkrad herumtapst wie ein Taucher auf dem Meeresgrund.
Solche Dinge passieren ja schon in Teilen.
Das eigentlich spannende wird sein: Was wird das in einer Gesellschaft bewirken, wenn diese wirklich checkt, dass Computer in weiten Teilen haushoch überlegen sind?
Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.
Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.
Haben sie das nicht schon immer gefragt?
Im Ernst: fällt Dir wirklich nichts ein, womit Du Menschen zum Lernen motivieren könntest? KI ist ein tolles Werkzeug, das Menschen Arbeit und Zeit erspart, aber was kann sie ohne fähige und aktive Menschen bewirken? Wer versorgt die KI mit Strom, mit Hardware, mit Endgeräten? Wer baut diese, mit welchem Know-How? Wer produziert Lebensmittel, baut Häuser, Rennräder, Katzenklos? Wer schneidet Dir die Haare, wer pflegt alte und kranke Menschen? Ich sehe immer noch immens viele Bereiche, in denen KI den Menschen nicht ersetzt, bestenfalls ihm zur Hand geht. Oder hältst Du Endzeit-Visionen a la Terminator für realistisch, in dem die Maschine die Weltherrschaft übernimmt und die Menschen eliminiert?
__________________
“If everything's under control, you're going too slow.” (Mario Andretti)
Ich weiß nicht, ob folgender Gedanke hilfreich ist: Wie würden ein Mensch und ein Computer ein Passwort knacken?
Ich habe das beim Notencomputer der Schule (es gab noch keine Netzwerke) damals so gemacht, dass ich (damals noch in Assembler) einen Trojaner (Keylogger) geschrieben und als deutschen Tastaturtreiber (keyb gr) getarnt habe. Im Anschluss habe ich eine organisatorische Sicherheitslücke und "menschliches Versagen" ausgenutzt und das Ding in einem kurzen Zeitfenster installiert, in dem ich alleine in dem Raum mit dem Computer war. Ob das intelligent war, müssen andere beurteilen.
Genug der Anekdoten
Zitat:
Zitat von keko#
Aber du hast doch irgendwann auch erst gelernt, dass das Passwort von der Freundin verwendet werden könnte. Vielleicht von deinem Kumpel, der es dir gesagt hat. Der Computer lernt genau so, nur dass es ihm halt nicht der Kumpel ins Ohr flüstert. Er entwickelt selbständig Strategien. Er probiert aus, was ihm erfolgversprechend erscheint. Ist er mit der Freundin erfolgreich, weiß er das und merkt es sich.
Ich sehe keinen Unterschied.
Ich gewinne den Eindruck, dass du denkst, dass der Mensch eine "Biochemiemaschine" sei, der man mit bestimmten, für die Maschine geeigneten "Algorithmen" etwas beibringen kann.
Manche Menschen haben ein performanteren "Rechner", ein hochwertigeres Betriebssystem und bessere Software an Board (vulgo sind intelligenter) als andere. Diese können dann part. DLG lösen, wenn man sie entsprechend "trainiert" vulgo (ausbildet) während andere nur in Mumbai Autofahren können
Du siehst das bei künstlichen Intelligenzen ebenso. Lediglich die Funktionsweise der Maschine ist (im Moment noch) eine andre und der Trainingsprozess unterscheidet sich halt auch. Am Ende ist der "Maschinenbegriff" eine Oberkategorie von Mensch und Computer.
Um es kurz zu sagen: Ich mag dies Bild nicht.
Ich halte folgendes für den Menschen für wichtig: Er sollte sich im klaren sein, dass er Teil der Natur ist. Diese Erkenntnis scheint mir für Handlungen im Thema Umwelt-/Klimaschutz oder Umgang mit Tieren wichtig.
Ebenso halte ich es für wichtig, dass der Mensch sich im klaren darüber ist, dass er in einem Verhältnis zur KI (wie zur Technik überhaupt) steht und auch in welchem Verhältnis konkret. Die bloße Existenz und noch mehr die Verwendung von Technik wirkt auch auf das Selbstverständnis des Menschen zurück - z.B. in subjektiven Ängsten vor der Zukunft, vor Arbeitsplatzverlust, ... you name it.
Da ich der Meinung bin, dass dieses Selbstverständnis des Menschen gegenüber KI insbesondere auch durch Sprache gebildet wird, gefällt mir die Attributierung von Intelligenz mit künstlich/menschlich nicht. Ich bin der Meinung, wir wenden unsere Adjektive/Verben viel zu schnell auf die Maschine an.
Denn wegen Fragen wie dieser ...
Zitat:
Zitat von keko#
Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.
... scheint es mir nötig, dieses Thema viel Sorgfältiger zu behandeln, insbesondere Fragen wie: Wie sieht denn der Platz des Menschen (und damit sein Verhältnis zur KI) in der Zukunft aus? Worin liegt der Sinn meines Lebens, den ich ihm selbst geben kann? Oder ist es vielmehr so, dass der freie, selbstbestimmte Mensch plötzlich zum "Unterlegenen" der KI wird? Wird es unsere Gesellschaft zerreißen, weil wir im Sinne der Maschinenstürmer zum KI-Stürmer werden? Sind wir plötzlich "Schädling" und es wäre gut, z.B. die Führung des Staates einer KI zu übergeben, denn die ist dem Menschen ja auch moralisch Überlegen - sie muss ja nur (vorzugsweise von Elon Musk ) trainiert werden?
Ergänzend: Was is denn eigentlich mit Verantwortung? Ich meine, wenn wir Systeme entwickeln, die "intelligenter" (was auch immer das dann ganz genau heißt) sind als wir, übernehmen diese Systeme dann auch Verantwortung für sich selbst?
Was hat das für Folgen für die Normensetzung (moralisch und juristisch) und was ist mit dem Menschen, wenn er doch nur eine Unterkategorie/Spezialisierung des Begriffes Maschine ist? Widerspricht das dann der Objektformel im GG / der Menschenwürde?
Darf man dann so eine Maschine einfach abschalten (aka töten?)
Freunde des Ausdauerdreikampfs: Wir dürfen das nicht einfach so passieren lassen ("Da kann man nichts machen, dass kommt sowieso!"), die feuchten Phantasien dieser Bostroms und Kurzweils aus dem Silicon Valley Realität werden lassen.