gemeinsam zwiften | youtube | forum heute
4 Radtage Südbaden
4 Radtage
Südbaden
4 Radtage Südbaden
Keine Flugreise
Deutschlands wärmste Gegend
Kilometer sammeln vor den Wettkämpfen
Traumhafte Trainingsstrecken
Training auf dem eigenen Rad
30.04..-03.05.2026
EUR 199,-
triathlon-szene.de | Europas aktivstes Triathlon Forum - Einzelnen Beitrag anzeigen - Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren?
Einzelnen Beitrag anzeigen
Alt 22.11.2024, 10:41   #357
Helmut S
Szenekenner
 
Registriert seit: 30.10.2006
Beiträge: 9.787
Zitat:
Zitat von keko# Beitrag anzeigen
Ein paar Sachen sind im Grunde völlig banal. Stelle dir vor, du hast die Noten einer Schulkasse und ein paar Parameter der Schüler: Alter, Geschlecht, Bildungsstand der Eltern und Vorbereitungszeit für die Klausur.
Ein kleines Computerprogramm analysiert das alles, rechnet hin und her und erzeugt ein "Model": Es dreht dabei so lange an den Parametern herum, bis Echtdaten dann ein gutes Ergebnis bringen. Das Ganze wird dann in speziellen Datenbanken abgespeichert.
Dann kommt ein neuer Schüler daher, mit seinen Parametern (Alter, Geschlecht, ....). Ein Programm sucht in der Datenbank nach einem vergleichbaren Datensatz und spuckt den als Vorhersage aus: Welche Note schreibt der Schüler wahrscheinlich.
Und schon hast du eine kleine KI gebaut ("maschinelles Lernen") und kannst anfangen zu experimentieren und das alles erweitern
Naja - wo ich dir zustimmen muss ist: Nicht überall wo KI drauf steht, ist auch NN und LLM drin

In dem Kontext der Bemerkung von Jimmi und der Frage von Adept, denke ich sollte man das aber schon etwas Differenzieren, denn meist haben Fragende an der Stelle ja schon LLMs im Kopf.


Was du da beschreibst ist das, was man (für den Fall, dass neuronale Netze verwendet werden) RAG KI nennt: Retrieval Augmented Generation KI.

Mit ML (machine learning) hat das zunächst(!) wenig zu tun. Freilich werden die dafür eingesetzten NNs ggf. mit ML Techniken trainiert. So banal ist das dann aber schon nicht mehr:

<nerd alarm=on>Dabei (ML) geht es darum, dass NNs so gestaltet sind, dass Matrix- und Aktivierungsfunktionen (diese nur fast überall) differenzierbar sind. Matrixfunktionen sind dabei linear, Aktivierungsfunktionen nicht. Das ist wichtig um im Wege einer Backpropagation Parameter automatisch so anzupassen, dass es zu einer optimalen Ausgabe kommt. Durch die Differenzierbarkeit ist sichergestellt, dass die Abweichung zwischen Vorhersage und optimaler Ausgabe berechnet und so die Parameter optimal angepasst werden können (Stichwort: Gradientenabstieg). Im Endeffekt ist ML also ein mathematische Optimierungsaufgabe. Das nachsehen in einer Datenbank ist dafür nicht hinreichend..
</nerd >


Helmut S ist offline   Mit Zitat antworten