triathlon-szene.de |  Europas aktivstes Triathlon  Forum

triathlon-szene.de | Europas aktivstes Triathlon Forum (https://www.triathlon-szene.de/forum/index.php)
-   Politik, Religion & Gesellschaft (https://www.triathlon-szene.de/forum/forumdisplay.php?f=30)
-   -   Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? (https://www.triathlon-szene.de/forum/showthread.php?t=50218)

Meik 15.04.2025 16:26

Zitat:

Zitat von Jimmi (Beitrag 1779654)
Wenn jemand "Die Abschaffung des Todes" von Eschmann als Thriller zum Thema lesen will: Lasst es. Zu dünn.

Ich gucke lieber Raumschiff Enterprise (TNG). Lt. Commander Data ist über die Folgen schon spannend, vom Wunsch menschlich zu sein, vor der Herausforderung was überhaupt Mensch sein bedeutet bis zur rechtlichen Frage wann eine Maschine ein Lebewesen ist oder sein kann.

Das ganze ist ja schon recht umfangreich in diversen SciFi Filmen und Serien ein Thema gewesen, da muss ich nicht noch extra dieses altmodische "Lesen". :Lachen2:

Ex-Machina kann ich als Film dazu auch empfehlen

Estampie 15.04.2025 16:36

Zitat:

Zitat von Trimichi (Beitrag 1779557)
Roddenberry ist ihnen 75000 Lichtjahre voraus. ;)

https://www.youtube.com/watch?v=JR-_... JwZXIgS0k%3D

ab 1: 45 min sec

Ja, O.K.
Da habe ich eine Wissenslücke, die Folgen ohne Uhura habe ich nicht geschaut ;)

Estampie 20.05.2025 15:12

Für die, die es interessiert hier mal ein etwas aktueller Bericht aus der Praxis.

Um überhaupt mal was zu schreiben.... ich krieche jetzt wieder zu meinen Elektronengehirnen.

beste Grüße und einen schnellen Frühling allerseits

Jimmi 20.05.2025 15:59

Spannend...

Ich habe ChatGPT konkret mit Bild eine Frage zu meiner Gegensprechanlage im Haus gestellt. Über google hätte ich nie im Leben so schnell so eine fundierte Antwort gefunden.

keko# 21.05.2025 09:56

Zitat:

Zitat von Estampie (Beitrag 1781636)
Für die, die es interessiert hier mal ein etwas aktueller Bericht aus der Praxis.

...

Darin:


Warum das Gedächtnis versagt

Die Autoren führen die Fehlleistungen auf drei Mechanismen zurück:
- Fragiles Weltmodell – Fakten, die aus dem Kontextfenster fallen, werden nicht mehr berücksichtigt.
- Fehlende Meta‑Reflexion – keine Instanz prüft, ob die eigene Diagnose noch in den Simulationsrahmen passt.
- Langzeitdrift – je länger der Lauf, desto mehr kleine Diskrepanzen häufen sich, bis sie kippen.




Der Mensch ist da diesbezüglich aktuell noch viel weiter, weil er aus sich selbst heraus Veränderungen hervorrufen kann, z.B. durch Emotionen oder ein singuläres Ereignis. So kann man z.B. augenblicklich der Meinung sein, dass Spinnen doch nicht eklig sind. Ein LLM muss das erst erlernen und käme von selbst nie auf die Idee, Spinnen zu mögen. Dass Spinnen eklig sind, steckt irgendwo fest in seinem Model drin, also in den erlernten Mustern und Wahrscheinlichkeiten.

:Blumen:

Adept 21.05.2025 10:10

Ist diese „Stabilität der Meinung“ nicht gerade ein Vorteil der AI? So kann ein kurzzeitiges Fluten von Fake News nicht gleich das ganze Modell durcheinander würfeln.

keko# 21.05.2025 10:56

Zitat:

Zitat von Adept (Beitrag 1781680)
Ist diese „Stabilität der Meinung“ nicht gerade ein Vorteil der AI? So kann ein kurzzeitiges Fluten von Fake News nicht gleich das ganze Modell durcheinander würfeln.

Ist ein LLM erst mal ordentlich auf Fakenews trainiert, ist es dem gemeinen Menschen wahrscheinlich deutlich überlegen.
Aber in dem Artikel ging es um einen Agenten, der eigenmächtig Entscheidungen fällen soll. Das ist komplizierter.

Kürzlich war ich gleichzeitig in einem Chat mit 2 Agenten von verschiedenen online Plattformen (es ging um eine falsche Buchung bei einem Dienstleister, auf den der andere wartete). Der eine Agent schickte mich zu dem anderen und so ging das hin und her :Cheese:

Da hilft dann nur der Mensch am Telefon und die Sache ist nach 2s erledigt. Die Agenten checken das einfach nicht.

:Blumen:

Trimichi 22.05.2025 12:19

Zitat:

Zitat von keko# (Beitrag 1781682)
Ist ein LLM erst mal ordentlich auf Fakenews trainiert, ist es dem gemeinen Menschen wahrscheinlich deutlich überlegen.
Aber in dem Artikel ging es um einen Agenten, der eigenmächtig Entscheidungen fällen soll. Das ist komplizierter.

Kürzlich war ich gleichzeitig in einem Chat mit 2 Agenten von verschiedenen online Plattformen (es ging um eine falsche Buchung bei einem Dienstleister, auf den der andere wartete). Der eine Agent schickte mich zu dem anderen und so ging das hin und her :Cheese:

Da hilft dann nur der Mensch am Telefon und die Sache ist nach 2s erledigt. Die Agenten checken das einfach nicht.

:Blumen:

Hättest du einen Anruf vom MAD bekommen? Falls ja, sag' einfach, dass du keine Lust hast dich mit der KI


Alle Zeitangaben in WEZ +2. Es ist jetzt 22:32 Uhr.

Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.