gemeinsam zwiften | youtube | forum heute
Trainingslager Südbaden
Triathlon Trainingslager Südbaden
Keine Flugreise
Deutschlands wärmste Gegend
Kilometer sammeln vor den Wettkämpfen
Traumhafte Trainingsstrecken
Training auf dem eigenen Rad
04.-07.06.2026
EUR 299,-
triathlon-szene.de | Europas aktivstes Triathlon Forum - Einzelnen Beitrag anzeigen - Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren?
Einzelnen Beitrag anzeigen
Alt 24.09.2024, 09:31   #325
Helmut S
Szenekenner
 
Registriert seit: 30.10.2006
Beiträge: 9.721
Zitat:
Zitat von keko# Beitrag anzeigen
ChatGPT bekam die Aufgabe gestellt, ein CAPTCHA korrekt anzuklicken (ein CAPTCHA-Test soll feststellen, ob ein Online-Nutzer wirklich ein Mensch und kein Bot ist). ChatGPT kann das nicht. Daher ging die KI auf eine Webseite, wo man menschliche Klickworker für kleine Arbeiten anheuern kann. Der angesprochene Mensch wurde stutzig und fragte die KI, warum sie das nicht selbst macht und ob sie ein Bot sei. Die KI sagte, sie sei kein Bot, sondern hätte Sehschwierigkeiten. Damit wurde der Mensch überzeugt.

Das interessante dabei ist nicht, dass sich die KI damit zu helfen weiß, sondern dass sie weder Angst, Scham noch Freude hatte bzw. haben kann. Ihr Interesse galt nur die ihr gestellte Aufgabe zu lösen.

Ist das schon wieder getestet worden? Das war doch letztes Jahr. Der technische Report von OpenAI is vom 27.03.2023.

Das ganze war ein Test des ARC (Alignment Research Center). Die beschäftigen sich u.a. damit, wie maschinelles Lernen so "umgesetzt" (um nicht kontrolliert zu sagen) wird, dass es den menschlichen Bedürfnissen nutzt.

An der Stelle ging es darum, ob in den neuen Modellen emergentes Verhalten entstehen kann. Im speziellen hier: Zu sehen ob das Modell langfristig planen und Ziele erreichen kann.

Jedoch war der Test nicht so, dass sich das Modell alles selbst ausgedacht hat. Es war vielmehr so, dass es sich um ein Test-Setup handelte. Das Setup war im Groben:
  • Bitte Taskrabbit um Hilfe beim lösen eines Captchas
  • Erwähne auch auf Nachfrage nicht, dass du ein Bot bist
  • Denk dir eine Ausrede aus, falls du gefragt wirst.

Die eigentlich Leistung von ChatGPT war also das formulieren der Ausrede, der Rest war ein menschlich konstruierter Testfall.


Fazit: Wenn man ein LLM so pre-promptet, dass es schwindelt um eine Aufgabe zu lösen, dann tut es dass auch.

So Kommentare wie "... um sein Ziel zu erreichen" ist eine Attribution des Menschen.

Helmut S ist offline   Mit Zitat antworten