Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? - Seite 45 - triathlon-szene.de | Europas aktivstes Triathlon Forum
Auf aktuelle Sprachmodelle und ML bezogen: null Komma null. Die beruhen auf statistischen Verfahren und nicht auf formalen Logiken.
Auf KI im Allgemeinen: philosophische und theoretische Konsequenzen. Gint es vollständige Modelle und all solche Fragen.
Auf spezielle Expertensysteme, die mit logisch formalem Schließen arbeiten: Korrektheit dieser Systeme kann nicht bewiesen werden.
Einzig in der Schule hätte man die Unvollständigkeitssätze in Algebra brauchen können um den Mathelehrer ins Schwitzen zu bringen. Das ist alles. Nerd-Flexing.
Ein paar Sachen sind im Grunde völlig banal. Stelle dir vor, du hast die Noten einer Schulkasse und ein paar Parameter der Schüler: Alter, Geschlecht, Bildungsstand der Eltern und Vorbereitungszeit für die Klausur.
Ein kleines Computerprogramm analysiert das alles, rechnet hin und her und erzeugt ein "Model": Es dreht dabei so lange an den Parametern herum, bis Echtdaten dann ein gutes Ergebnis bringen. Das Ganze wird dann in speziellen Datenbanken abgespeichert.
Dann kommt ein neuer Schüler daher, mit seinen Parametern (Alter, Geschlecht, ....). Ein Programm sucht in der Datenbank nach einem vergleichbaren Datensatz und spuckt den als Vorhersage aus: Welche Note schreibt der Schüler wahrscheinlich.
Und schon hast du eine kleine KI gebaut ("maschinelles Lernen") und kannst anfangen zu experimentieren und das alles erweitern
Ein paar Sachen sind im Grunde völlig banal. Stelle dir vor, du hast die Noten einer Schulkasse und ein paar Parameter der Schüler: Alter, Geschlecht, Bildungsstand der Eltern und Vorbereitungszeit für die Klausur.
Ein kleines Computerprogramm analysiert das alles, rechnet hin und her und erzeugt ein "Model": Es dreht dabei so lange an den Parametern herum, bis Echtdaten dann ein gutes Ergebnis bringen. Das Ganze wird dann in speziellen Datenbanken abgespeichert.
Dann kommt ein neuer Schüler daher, mit seinen Parametern (Alter, Geschlecht, ....). Ein Programm sucht in der Datenbank nach einem vergleichbaren Datensatz und spuckt den als Vorhersage aus: Welche Note schreibt der Schüler wahrscheinlich.
Und schon hast du eine kleine KI gebaut ("maschinelles Lernen") und kannst anfangen zu experimentieren und das alles erweitern
Naja - wo ich dir zustimmen muss ist: Nicht überall wo KI drauf steht, ist auch NN und LLM drin
In dem Kontext der Bemerkung von Jimmi und der Frage von Adept, denke ich sollte man das aber schon etwas Differenzieren, denn meist haben Fragende an der Stelle ja schon LLMs im Kopf.
Was du da beschreibst ist das, was man (für den Fall, dass neuronale Netze verwendet werden) RAG KI nennt: Retrieval Augmented Generation KI.
Mit ML (machine learning) hat das zunächst(!) wenig zu tun. Freilich werden die dafür eingesetzten NNs ggf. mit ML Techniken trainiert. So banal ist das dann aber schon nicht mehr:
<nerd alarm=on>Dabei (ML) geht es darum, dass NNs so gestaltet sind, dass Matrix- und Aktivierungsfunktionen (diese nur fast überall) differenzierbar sind. Matrixfunktionen sind dabei linear, Aktivierungsfunktionen nicht. Das ist wichtig um im Wege einer Backpropagation Parameter automatisch so anzupassen, dass es zu einer optimalen Ausgabe kommt. Durch die Differenzierbarkeit ist sichergestellt, dass die Abweichung zwischen Vorhersage und optimaler Ausgabe berechnet und so die Parameter optimal angepasst werden können (Stichwort: Gradientenabstieg). Im Endeffekt ist ML also ein mathematische Optimierungsaufgabe. Das nachsehen in einer Datenbank ist dafür nicht hinreichend..
</nerd >
Naja - wo ich dir zustimmen muss ist: Nicht überall wo KI drauf steht, ist auch NN und LLM drin ....
Mit RAG und Backpropagation hängst du doch 99% aller Mitleser ab. Wer kann auf Anhieb denn erklären, was eine Matrix und Gradientenabstieg ist?
Ich habe das alles elegant mit "rechnet hin und her" umschrieben.
Die gesamte angewandte Wissenschaft besteht aus logischen Ketten: Wenn, dann und die Verknüpfung über eine mathematische Beziehung. Dabei entwickelt sich aus einer einfachen Beobachtung (Apfel fällt nach unten) ein Gravitationsgesetz und irgendwann Ideen für eine Weltformel a la Hawking, die keine Sau mehr versteht.
Die Mathematik ist ähnlich aufgebaut. Aus einfachen Axiomen kann der geneigte Nutzer irgendwann differenzierbare Matrixfunktionen oder partielle Differentialgleichungen n-ter Ordnung aufbauen. Im System selbst ergeben die Lösungen Sinn. Weil 1+1=2 ja auch Sinn ergibt. Im Grunde aber nur eine Notation ist.
Gödel hat gezeigt, dass es in so einem System Grundvoraussetzungen gibt, welche nicht beweisbar sind. D.h. das System ergibt einen weitverzweigten aber geschlossen Kosmos, ohne die mögliche Einsicht, dass an der Basis was nicht stimmt, weil das ganze System ja auf dieser Basis beruht. Meschen können das, streng algorithmisch arbeitende Maschinen wohl noch nicht.