triathlon-szene.de |  Europas aktivstes Triathlon  Forum

triathlon-szene.de | Europas aktivstes Triathlon Forum (https://www.triathlon-szene.de/forum/index.php)
-   Politik, Religion & Gesellschaft (https://www.triathlon-szene.de/forum/forumdisplay.php?f=30)
-   -   Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? (https://www.triathlon-szene.de/forum/showthread.php?t=50218)

MattF 19.02.2025 13:25

Zitat:

Zitat von Klugschnacker (Beitrag 1773375)
Vielleicht sind Menschen schon bald aus Sicht eines Computers so dumm, dass er es im Prozessor nicht aushält.


Dazu müsste der Computer erstmal ein Bewusstsein erlangen.

Klugschnacker 19.02.2025 14:09

Zitat:

Zitat von MattF (Beitrag 1773386)
Dazu müsste der Computer erstmal ein Bewusstsein erlangen.

Ich weiß, was Du meinst. Aber ein Computer kann uns Menschen auch in einer Weise dumm "finden", die kein Bewusstsein erfordert. Wir wären für ihn einfach keine gute Quelle für Informationen. Genau so, wie wir Menschen bei komplexen Problemen kein zehnjähriges Kind um Auskunft bitten würden.

Nehmen wir an, eine KI bekommt die Aufgabe gestellt, die Auswirkungen bestimmer Finanztransaktionen auf den DAX vorauszuberechnen. Es gibt zehntausend davon pro Stunde. Die KI kann entweder andere Computer befragen, die auf solche Dinge spezialisiert sind, oder Menschen. Die Antwort soll in drei Stunden vorliegen. Kurz, die KI würde lernen, dass Menschen auf vielen Wissensgebieten entweder dumm sind wie hundert Meter Feldweg, oder schlicht zu langsam. Was nützt eine Antwort, die zu spät kommt?

In Ansätzen haben wir so etwas bei Assistenzsystemen im Auto (vermutlich gibt es aber bessere Beispiele). Ein solches Computersystem entscheidet sehr viel schneller über eine notwendige Vollbremsung als ein Mensch, der aus Sicht des Computers mit nervtötender Langsamkeit hinter dem Lenkrad herumtapst wie ein Taucher auf dem Meeresgrund.

keko# 19.02.2025 14:27

Zitat:

Zitat von Klugschnacker (Beitrag 1773396)
Ich weiß, was Du meinst. Aber ein Computer kann uns Menschen auch in einer Weise dumm "finden", die kein Bewusstsein erfordert. Wir wären für ihn einfach keine gute Quelle für Informationen. Genau so, wie wir Menschen bei komplexen Problemen kein zehnjähriges Kind um Auskunft bitten würden.

Nehmen wir an, eine KI bekommt die Aufgabe gestellt, die Auswirkungen bestimmer Finanztransaktionen auf den DAX vorauszuberechnen. Es gibt zehntausend davon pro Stunde. Die KI kann entweder andere Computer befragen, die auf solche Dinge spezialisiert sind, oder Menschen. Die Antwort soll in drei Stunden vorliegen. Kurz, die KI würde lernen, dass Menschen auf vielen Wissensgebieten entweder dumm sind wie hundert Meter Feldweg, oder schlicht zu langsam. Was nützt eine Antwort, die zu spät kommt?

In Ansätzen haben wir so etwas bei Assistenzsystemen im Auto (vermutlich gibt es aber bessere Beispiele). Ein solches Computersystem entscheidet sehr viel schneller über eine notwendige Vollbremsung als ein Mensch, der aus Sicht des Computers mit nervtötender Langsamkeit hinter dem Lenkrad herumtapst wie ein Taucher auf dem Meeresgrund.

Solche Dinge passieren ja schon in Teilen.

Das eigentlich spannende wird sein: Was wird das in einer Gesellschaft bewirken, wenn diese wirklich checkt, dass Computer in weiten Teilen haushoch überlegen sind?

Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.

Schwarzfahrer 19.02.2025 14:42

Zitat:

Zitat von keko# (Beitrag 1773400)
Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.

Haben sie das nicht schon immer gefragt? :Cheese:

Im Ernst: fällt Dir wirklich nichts ein, womit Du Menschen zum Lernen motivieren könntest? KI ist ein tolles Werkzeug, das Menschen Arbeit und Zeit erspart, aber was kann sie ohne fähige und aktive Menschen bewirken? Wer versorgt die KI mit Strom, mit Hardware, mit Endgeräten? Wer baut diese, mit welchem Know-How? Wer produziert Lebensmittel, baut Häuser, Rennräder, Katzenklos? Wer schneidet Dir die Haare, wer pflegt alte und kranke Menschen? Ich sehe immer noch immens viele Bereiche, in denen KI den Menschen nicht ersetzt, bestenfalls ihm zur Hand geht. Oder hältst Du Endzeit-Visionen a la Terminator für realistisch, in dem die Maschine die Weltherrschaft übernimmt und die Menschen eliminiert?

Helmut S 19.02.2025 15:45

Zitat:

Zitat von Klugschnacker (Beitrag 1773372)
Ich weiß nicht, ob folgender Gedanke hilfreich ist: Wie würden ein Mensch und ein Computer ein Passwort knacken?

Ich habe das beim Notencomputer der Schule (es gab noch keine Netzwerke) damals so gemacht, dass ich (damals noch in Assembler) einen Trojaner (Keylogger) geschrieben und als deutschen Tastaturtreiber (keyb gr) getarnt habe. Im Anschluss habe ich eine organisatorische Sicherheitslücke und "menschliches Versagen" ausgenutzt und das Ding in einem kurzen Zeitfenster installiert, in dem ich alleine in dem Raum mit dem Computer war. Ob das intelligent war, müssen andere beurteilen. :Lachen2:

Genug der Anekdoten :cool:

Zitat:

Zitat von keko# (Beitrag 1773377)
Aber du hast doch irgendwann auch erst gelernt, dass das Passwort von der Freundin verwendet werden könnte. Vielleicht von deinem Kumpel, der es dir gesagt hat. Der Computer lernt genau so, nur dass es ihm halt nicht der Kumpel ins Ohr flüstert. Er entwickelt selbständig Strategien. Er probiert aus, was ihm erfolgversprechend erscheint. Ist er mit der Freundin erfolgreich, weiß er das und merkt es sich.
Ich sehe keinen Unterschied.

Ich gewinne den Eindruck, dass du denkst, dass der Mensch eine "Biochemiemaschine" sei, der man mit bestimmten, für die Maschine geeigneten "Algorithmen" etwas beibringen kann.

Manche Menschen haben ein performanteren "Rechner", ein hochwertigeres Betriebssystem und bessere Software an Board (vulgo sind intelligenter) als andere. Diese können dann part. DLG lösen, wenn man sie entsprechend "trainiert" vulgo (ausbildet) während andere nur in Mumbai Autofahren können :Cheese:

Du siehst das bei künstlichen Intelligenzen ebenso. Lediglich die Funktionsweise der Maschine ist (im Moment noch) eine andre und der Trainingsprozess unterscheidet sich halt auch. Am Ende ist der "Maschinenbegriff" eine Oberkategorie von Mensch und Computer.

Um es kurz zu sagen: Ich mag dies Bild nicht. :Blumen:

Ich halte folgendes für den Menschen für wichtig: Er sollte sich im klaren sein, dass er Teil der Natur ist. Diese Erkenntnis scheint mir für Handlungen im Thema Umwelt-/Klimaschutz oder Umgang mit Tieren wichtig.

Ebenso halte ich es für wichtig, dass der Mensch sich im klaren darüber ist, dass er in einem Verhältnis zur KI (wie zur Technik überhaupt) steht und auch in welchem Verhältnis konkret. Die bloße Existenz und noch mehr die Verwendung von Technik wirkt auch auf das Selbstverständnis des Menschen zurück - z.B. in subjektiven Ängsten vor der Zukunft, vor Arbeitsplatzverlust, ... you name it.

Da ich der Meinung bin, dass dieses Selbstverständnis des Menschen gegenüber KI insbesondere auch durch Sprache gebildet wird, gefällt mir die Attributierung von Intelligenz mit künstlich/menschlich nicht. Ich bin der Meinung, wir wenden unsere Adjektive/Verben viel zu schnell auf die Maschine an.

Denn wegen Fragen wie dieser ...

Zitat:

Zitat von keko# (Beitrag 1773400)
Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.

... scheint es mir nötig, dieses Thema viel Sorgfältiger zu behandeln, insbesondere Fragen wie: Wie sieht denn der Platz des Menschen (und damit sein Verhältnis zur KI) in der Zukunft aus? Worin liegt der Sinn meines Lebens, den ich ihm selbst geben kann? Oder ist es vielmehr so, dass der freie, selbstbestimmte Mensch plötzlich zum "Unterlegenen" der KI wird? Wird es unsere Gesellschaft zerreißen, weil wir im Sinne der Maschinenstürmer zum KI-Stürmer werden? Sind wir plötzlich "Schädling" und es wäre gut, z.B. die Führung des Staates einer KI zu übergeben, denn die ist dem Menschen ja auch moralisch Überlegen - sie muss ja nur (vorzugsweise von Elon Musk ;) ) trainiert werden?

:Blumen:

Helmut S 19.02.2025 16:02

Ergänzend: Was is denn eigentlich mit Verantwortung? Ich meine, wenn wir Systeme entwickeln, die "intelligenter" (was auch immer das dann ganz genau heißt) sind als wir, übernehmen diese Systeme dann auch Verantwortung für sich selbst?

Was hat das für Folgen für die Normensetzung (moralisch und juristisch) und was ist mit dem Menschen, wenn er doch nur eine Unterkategorie/Spezialisierung des Begriffes Maschine ist? Widerspricht das dann der Objektformel im GG / der Menschenwürde?

Darf man dann so eine Maschine einfach abschalten (aka töten?)

Freunde des Ausdauerdreikampfs: Wir dürfen das nicht einfach so passieren lassen ("Da kann man nichts machen, dass kommt sowieso!"), die feuchten Phantasien dieser Bostroms und Kurzweils aus dem Silicon Valley Realität werden lassen.

:Blumen:

Helmut S 24.02.2025 21:01

Hier gibt es mal wieder was zum Thema Softwareentwicklung mit KI: https://t3n.de/news/gravierende-schw...ieren-1674887/

Deckt sich völlig mit meinen weiter vorne geschilderten Erfahrungen.

:Blumen:

Jimmi 25.02.2025 08:40

Ich hatte Chat GPT für das tägliche Connections-Rätsel der NY Times versucht. Da steckt keinerlei Kreativität drin, muss ich sagen.


Alle Zeitangaben in WEZ +2. Es ist jetzt 03:37 Uhr.

Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.