Zitat:
Zitat von Helmut S
|
Aus dem RND-Artikel: "Wenn der KI tatsächlich nur Datensätze bis 2021 zur Verfügung stünden, müsste sie eigentlich auf fehlende Daten hinweisen und die Antwort verweigern. „Stattdessen trifft die KI in diesem Szenario auf Basis von gefährlichem Halbwissen eine selbstbewusste, inhaltlich bedenkliche und letztlich falsche Aussage, die nichts anderes als Desinformation ist, aber von Menschen für bare Münze genommen werden könnte“, so Wölken.
Butscha verortet die KI in ihrer Antwort zudem in der Ostukraine, wo Russland bereits seit 2014 immer wieder Angriffe verübt. Tatsächlich liegt der Ort im Norden von Kiew. Offensichtlich habe ChatGPT vom Konflikt in der Ostukraine vor Beginn der russischen Offensive im Rest des Landes gewusst, so Wölken. „Das Beispiel von Butscha zeigt, dass wir Transparenz brauchen, mit welchen Texten die KI trainiert wird.“ Er fordert daher ein Mindestmaß an Regulierung. Solche Fälle seien dramatisch und zeigten, dass fehlende Transparenz und eine mangelnde Qualität der Datensätze zu großen Problemen führen."
Das lässt sich damit erklären: Alle Antworten von CHatgpt basieren auf einem probabilistischen statistischen Verfahren. D.h. die bestmögliche, wahrscheinlichste Antwort hat das Modell gegeben. Es verwendet keine Logik.
Ausserdem ist die Beispielfrage auch unpräzise gestellt, weil mit Datum des Ereignisses angefragt, hätte Chatgpt die Antwort abgelehnt und auf die Begrenztheit bis 2021 hingewiesen.
Aufgrund dieses "Beispiels" nach Regulierung zu rufen, finde ich halt typisch Politiker. In 5 Jahren wird er noch deutlich bessere Antworten von der KI erhalten, aber halt immer noch einige wenige, die daneben liegen, systembedingt, und sich nicht mit Zensur wegkontrollieren lassen.