Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? - Seite 68 - triathlon-szene.de | Europas aktivstes Triathlon Forum
Wenn jemand "Die Abschaffung des Todes" von Eschmann als Thriller zum Thema lesen will: Lasst es. Zu dünn.
Ich gucke lieber Raumschiff Enterprise (TNG). Lt. Commander Data ist über die Folgen schon spannend, vom Wunsch menschlich zu sein, vor der Herausforderung was überhaupt Mensch sein bedeutet bis zur rechtlichen Frage wann eine Maschine ein Lebewesen ist oder sein kann.
Das ganze ist ja schon recht umfangreich in diversen SciFi Filmen und Serien ein Thema gewesen, da muss ich nicht noch extra dieses altmodische "Lesen".
Ich habe ChatGPT konkret mit Bild eine Frage zu meiner Gegensprechanlage im Haus gestellt. Über google hätte ich nie im Leben so schnell so eine fundierte Antwort gefunden.
Für die, die es interessiert hier mal ein etwas aktueller Bericht aus der Praxis.
...
Darin:
Warum das Gedächtnis versagt
Die Autoren führen die Fehlleistungen auf drei Mechanismen zurück:
- Fragiles Weltmodell – Fakten, die aus dem Kontextfenster fallen, werden nicht mehr berücksichtigt.
- Fehlende Meta‑Reflexion – keine Instanz prüft, ob die eigene Diagnose noch in den Simulationsrahmen passt.
- Langzeitdrift – je länger der Lauf, desto mehr kleine Diskrepanzen häufen sich, bis sie kippen.
Der Mensch ist da diesbezüglich aktuell noch viel weiter, weil er aus sich selbst heraus Veränderungen hervorrufen kann, z.B. durch Emotionen oder ein singuläres Ereignis. So kann man z.B. augenblicklich der Meinung sein, dass Spinnen doch nicht eklig sind. Ein LLM muss das erst erlernen und käme von selbst nie auf die Idee, Spinnen zu mögen. Dass Spinnen eklig sind, steckt irgendwo fest in seinem Model drin, also in den erlernten Mustern und Wahrscheinlichkeiten.
Ist diese „Stabilität der Meinung“ nicht gerade ein Vorteil der AI? So kann ein kurzzeitiges Fluten von Fake News nicht gleich das ganze Modell durcheinander würfeln.
Ist diese „Stabilität der Meinung“ nicht gerade ein Vorteil der AI? So kann ein kurzzeitiges Fluten von Fake News nicht gleich das ganze Modell durcheinander würfeln.
Ist ein LLM erst mal ordentlich auf Fakenews trainiert, ist es dem gemeinen Menschen wahrscheinlich deutlich überlegen.
Aber in dem Artikel ging es um einen Agenten, der eigenmächtig Entscheidungen fällen soll. Das ist komplizierter.
Kürzlich war ich gleichzeitig in einem Chat mit 2 Agenten von verschiedenen online Plattformen (es ging um eine falsche Buchung bei einem Dienstleister, auf den der andere wartete). Der eine Agent schickte mich zu dem anderen und so ging das hin und her
Da hilft dann nur der Mensch am Telefon und die Sache ist nach 2s erledigt. Die Agenten checken das einfach nicht.
Ist ein LLM erst mal ordentlich auf Fakenews trainiert, ist es dem gemeinen Menschen wahrscheinlich deutlich überlegen.
Aber in dem Artikel ging es um einen Agenten, der eigenmächtig Entscheidungen fällen soll. Das ist komplizierter.
Kürzlich war ich gleichzeitig in einem Chat mit 2 Agenten von verschiedenen online Plattformen (es ging um eine falsche Buchung bei einem Dienstleister, auf den der andere wartete). Der eine Agent schickte mich zu dem anderen und so ging das hin und her
Da hilft dann nur der Mensch am Telefon und die Sache ist nach 2s erledigt. Die Agenten checken das einfach nicht.
Hättest du einen Anruf vom MAD bekommen? Falls ja, sag' einfach, dass du keine Lust hast dich mit der KI