PDA

Vollständige Version anzeigen : Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren?


Seiten : 1 2 [3]

Helmut S
19.02.2025, 11:02
Um z.B. irgendwann mal eine komplizierte partielle DGL lösen zu können, gehst du viele Jahre in die Schule, hast an der Uni das entsprechende Fach und möglicherweise packst du es dann. Umgangssprachlich gehörst du dann zu den intelligenten Zeitgenossen. Und das dauert Jahre, bis du so weit bist.


Eine KI macht das im Handumdrehen, erklärt noch dabei dies und das, wenn du willst. In beliebiger Sprache. Tools wie https://app.synthesia.io lesen dir das noch vor.

Das ist ganz klar Intelligenz.

Ich meine, du vermischt Ausbildung mit Intelligenz. Du hast m.E. zwar indirekt einen Punkt, da es ja wohl offensichtlich eine starke Korrelation zwischen "Intelligenz" und Ausbildungserfolg gibt. Das verstehe ich.

Aber gerade für das konkrete Beispiel der partiellen DGL gibt es ja sogar rein nummerische Lösungsverfahren - KI ist dazu nicht nütig. Hier sind wir m.E. 100%ig bei dem was Arne schreib:
"Es ist aber vielleicht nur die Intelligenz der Menschen, die den Rechner für genau diese Aufgabe programmiert haben. Er ist dann in dem Sinne intelligent, wie ein Rechenschieber intelligent ist." Hier stimme ich völlig zu.

Ein m.E. viel besseres Beispiel für Intelligenz und den Vergleich zwischen KI und MI (menschlicher Intelligenz) ist m.E. Autofahren/Führerschein.

Wir sehen heute autonome Fahrzeuge (z.B. Waymo) die KI-Technologien nutzen. Das funktioniert nur in entsprechenden Umgebungen gut und selbst dort wird auch mal "endlos" im Kreisverkehr gefahren. Wenn man so ein Fahrzeug nach Mumbai bringt, dann würde ich lappidar sagen: Das war's dann. :Lachen2:

Einen 18 jährigen sitzt du mit nem Fahrlehrer um die 20h in ein Fahrschulauto, lässt ihn Prüfungen machen und er findet sich im wesentlichen überall auf der Welt zurecht. In Mumbai wird er noch n paar zusätzliche Stunden benötigen, dann war es das. Eine Ausbildung zur Lösung von part. DGL benötigt dieser Mensch nicht, wahrscheinlich benötigt er noch nicht mal irgendeinen Schulabschluss, wahrscheinlich reicht lesen und schreiben.

:Blumen:

Helmut S
19.02.2025, 11:23
Ich habe kürzlich so etwas programmiert:…

Du müsstest nochmal genau erklären, was du da getan hast. Ich vermute nämlich, dass das nicht so ist/war wie man es aus dem Text versteht. Ich meine das nicht persönlich oder böse oder unterstellend oder so. Ich will nur begrifflich klar sein.

LG :Blumen:

qbz
19.02.2025, 11:37
Ein m.E. viel besseres Beispiel für Intelligenz und den Vergleich zwischen KI und MI (menschlicher Intelligenz) ist m.E. Autofahren/Führerschein.


Gibt es nicht in der KI auch fundamental unterschiedliche Konzepte? Ein Freund (Informatiker u. Psychologe) von mir hat vor 35 Jahren an der Hochschule in einem KI Projekt an der UNI mitgearbeitet, zusammen mit Linguistiker und Logiker. Sie haben das Gegenteil von LLM implentiert, damals im Wissen darum, dass wahrscheinlich, wenn es schnellere und ausreichende Hardware gibt, ein Ansatz wie LLM besser funktionieren wird.


Ich denke als Psychologe, die MI (menschliche Intelligenz) umfasst quasi verschiediene Stufen oder Formen des Lernens bis hin zum abstrakten Denken und Logik. Geht es um Leistung, kommt dann noch der Faktor Zeit dazu. Dann gibt es, worauf Arne aufmerksam machte, auch Gesetze evolutionärer Entwicklungen, in die wir Intelligenz proizieren könnten. Und neben der MI haben Säugetiere intelligente Fähigkeiten, welche der Mensch nicht besitzt. (z.B. ein Drogenspürhund). Ebenfalls kann ich mir vorstellen, dass manche Menschen in Logik höchst (Spitze) intelligent sind, aber bei der praktischen Führerscheinprüfungen durchfallen.

Helmut S
19.02.2025, 11:55
Gibt es nicht in der KI auch fundamental unterschiedliche Konzepte? Ein Freund (Informatiker u. Psychologe) von mir hat vor 35 Jahren an der Hochschule in einem KI Projekt an der UNI mitgearbeitet, zusammen mit Linguistiker und Logiker.

Ja. Absolut. Gerade damals hat man versucht Sprache zu "verstehen" und logische Schlüsse zu ziehen. Es gab sogar spezielle Programmiersprachen (Prolog, Lisp), die man in den 60/70ern entwickelte um Zusammenhänge zu formalisieren. Linguistiker waren damals u.a. die Leute, die nach Logik gefragt wurden in dem Thema. Z.B. Naom Chomskys Beiträge zu bestimmten Grammatikformen sind an Wichtigkeit nicht zu überschätzen. Das hat alles jedoch nicht bzw. nicht so gut funktioniert bzw. zum Ziel geführt.

Aktuelle LLMs verzichten darauf irgendetwas zu verstehen. Dafür würden sie gerne wissen, was alles jemals überall auf der Welt gesagt und geschrieben wurde um dann einfach mit hoher Wahrscheinlichkeit zu schätzen, was man zu einem Thema absondern könnte. Manche Systeme versuchen etwas "geschickter" zu schätzen als andere, aber das Ergebnis ist bekannt.

Natürlich gibt es jenseits der generativen System noch sowas wie Expertensysteme, die u.a. auf Regelsystemen beruhen oder Theorembeweiser oder logikbasierte Systeme, die auf sowas wie Prädikatenlogik etc. setzen.

:Blumen:

qbz
19.02.2025, 12:01
Ja. Absolut.....

Apropos Lisp: Ich verwende noch heute den Emacs als Editor. :Lachen2:

MattF
19.02.2025, 12:02
Gibt es nicht in der KI auch fundamental unterschiedliche Konzepte? .

Ja gibt es.

Ich hab da mal die KI gefragt :Cheese:

Welche fundamental unterschiedliche Konzepte gibt es in der KI Forschung.
ChatGPT:

Die KI-Forschung ist breit gefächert und umfasst verschiedene fundamentale Konzepte, die sich in ihrer Methodik und ihrem Ziel stark unterscheiden. Hier sind die wichtigsten Ansätze:
1. Symbolische KI (Good Old-Fashioned AI, GOFAI)

Kernidee: Repräsentation von Wissen durch Regeln, Logik und Symbole.
Methoden: Expertensysteme, Wissensgraphen, Logik-Programmierung (z. B. Prolog).
Vorteile: Interpretierbar, erklärbar, gut für regelbasierte Systeme.
Nachteile: Kaum lernfähig, schwierig skalierbar, problematisch bei unscharfen oder unstrukturierten Daten.

2. Konnektionistische KI (Neuro-Inspirierte Systeme)

Kernidee: Simulation neuronaler Netze, die biologischen Gehirnen nachempfunden sind.
Methoden: Künstliche neuronale Netze (KNN), Deep Learning, Reinforcement Learning.
Vorteile: Hohe Lernfähigkeit, gut für Mustererkennung und komplexe Datenverarbeitung.
Nachteile: Erklärbarkeit (Black-Box-Problem), hoher Rechenaufwand, Datenhungrigkeit.

3. Evolutionsbasierte KI (Evolutionäre Algorithmen & Genetische Algorithmen)

Kernidee: Nutzung von Mechanismen der natürlichen Evolution (Mutation, Selektion, Rekombination).
Methoden: Genetische Algorithmen, Evolutionsstrategien, Neuroevolution.
Vorteile: Gut für Optimierungsprobleme, explorativ, kann kreative Lösungen finden.
Nachteile: Rechenaufwendig, oft ineffizient für deterministische Probleme.

4. Bayessche & Probabilistische KI

Kernidee: Nutzung von Wahrscheinlichkeitsmodellen zur Entscheidungsfindung unter Unsicherheit.
Methoden: Bayes’sche Netze, Hidden Markov Models, Monte-Carlo-Methoden.
Vorteile: Mathematisch fundiert, gut für Unsicherheitsmodellierung.
Nachteile: Oft hohe Rechenkosten, benötigt präzise Wahrscheinlichkeitsverteilungen.

5. Hybrid-KI (Kombination mehrerer Ansätze)

Kernidee: Kombination von symbolischen und neuronalen Methoden für bessere Generalisierbarkeit.
Methoden: Neuro-symbolische KI, hybride neuronale Netzwerke mit logischen Constraints.
Vorteile: Kann die Stärken beider Welten kombinieren (Interpretierbarkeit & Lernfähigkeit).
Nachteile: Erfordert komplexe Architektur und Integration.

Diese unterschiedlichen Konzepte werden je nach Anwendungsfall kombiniert oder weiterentwickelt. Gibt es eine spezifische Richtung, die dich besonders interessiert?

keko#
19.02.2025, 12:53
Ich meine, du vermischt Ausbildung mit Intelligenz. Du hast m.E. zwar indirekt einen Punkt, da es ja wohl offensichtlich eine starke Korrelation zwischen "Intelligenz" und Ausbildungserfolg gibt. Das verstehe ich.

Aber gerade für das konkrete Beispiel der partiellen DGL gibt es ja sogar rein nummerische Lösungsverfahren - KI ist dazu nicht nütig. Hier sind wir m.E. 100%ig bei dem was Arne schreib:
Hier stimme ich völlig zu.

Ein m.E. viel besseres Beispiel für Intelligenz und den Vergleich zwischen KI und MI (menschlicher Intelligenz) ist m.E. Autofahren/Führerschein.

Wir sehen heute autonome Fahrzeuge (z.B. Waymo) die KI-Technologien nutzen. Das funktioniert nur in entsprechenden Umgebungen gut und selbst dort wird auch mal "endlos" im Kreisverkehr gefahren. Wenn man so ein Fahrzeug nach Mumbai bringt, dann würde ich lappidar sagen: Das war's dann. :Lachen2:

Einen 18 jährigen sitzt du mit nem Fahrlehrer um die 20h in ein Fahrschulauto, lässt ihn Prüfungen machen und er findet sich im wesentlichen überall auf der Welt zurecht. In Mumbai wird er noch n paar zusätzliche Stunden benötigen, dann war es das. Eine Ausbildung zur Lösung von part. DGL benötigt dieser Mensch nicht, wahrscheinlich benötigt er noch nicht mal irgendeinen Schulabschluss, wahrscheinlich reicht lesen und schreiben.

:Blumen:

Den Zusammenhang verstehe ich nicht. Mir ging es darum, dass eine gewisse Grundintelligenz nötig ist, um eine DGL zu lösen.
Natürlich kann auch ein Siebtklässler das tun, indem er irgendwas in eine App eingibt. Es gibt auch Apps, die Apps bedienen. Nach deiner Logik gäb es bei diesem Thema ja gar keine Intelligenz.

Wenn eine KI eine komplizierte DGL löst, was normalerweise nur ein sehr guter Student kann, ist die KI selbstverständlich intelligent. Was denn sonst? Es ist halt maschinelle Intelligenz und keine menschliche, daher auch der Name mschinelle Intelligenz. Auch ein Student wendet letztendlich nur Verfahren an, die er vorher gelernt hat. Er erfindet nichts neues. Maschinelle Intelligenz != menschliche Intelligenz, Intelligenz ist es aber. Natürlich ist die Maschine aus menschlicher Sicht dumm, aber eben nur aus unserer Sicht.

:Blumen:

Helmut S
19.02.2025, 13:26
Wenn eine KI eine komplizierte DGL löst, was normalerweise nur ein sehr guter Student kann, ist die KI selbstverständlich intelligent. Was denn sonst

Ein Computerprogramm ohne kognitive Fähigkeiten vielleicht? ;)

Es ist halt maschinelle Intelligenz und keine menschliche, daher auch der Name mschinelle Intelligenz. Auch ein Student wendet letztendlich nur Verfahren an, die er vorher gelernt hat. Er erfindet nichts neues. Maschinelle Intelligenz != menschliche Intelligenz, Intelligenz ist es aber. Natürlich ist die Maschine aus menschlicher Sicht dumm, aber eben nur aus unserer Sicht.
:

Wenn wir die Unterscheidung durch die Prädikate maschinell und menschlich machen und es gilt maschinelle Intelligenz != menschliche Intelligenz, dann gehe ich da mit - auch wenn das sprachlich nicht mein bevorzugter Ansatz ist.

Arne postete Eingangs das hier:

[...] wie intelligent Computer in den nächsten Jahrzehnten werden können. Und was das für uns bedeuten kann.[...]

Und ebenso wenig deckelt die menschliche Intelligenz die Intelligenz von Computern. Letztere könnten künftig die kognitiven Fähigkeiten des Menschen astronomisch übersteigen.


Aus der Fragestellung heraus war es mir wichtig den Begriff der Intelligenz abzugrenzen. Wenn wir das durch die Prädikate machen wollen, ok. Aus dem von dir festgestellten Sätzen

1) maschinelle Intelligenz ist Intelligenz
2) menschliche Intelligenz ist Intelligenz
3) maschinelle Intelligenz != menschliche Intelligenz

und Arnes Beitrag stelle ich mir folgende Fragen:

a) Wird menschliche Intelligenz in Zukunft noch "gebraucht"?
b) Wieso sollte menschliche Intelligenz überhaupt maschinelle Intelligenz deckeln, wenn doch 3) gilt und ggf. sogar eine "intelligente Evolution" (Falter) existiert?
c) Folgt aus b) zwangsläufig Posthumanismus?
d) Sind kognitive Fähigkeiten Teil maschineller Intelligenz und ist das überhaupt nötig um diejenigen des Menschen zu übersteigen?

:Blumen:

Klugschnacker
19.02.2025, 13:39
Ich weiß nicht, ob folgender Gedanke hilfreich ist: Wie würden ein Mensch und ein Computer ein Passwort knacken?

Der Computer würde vielleicht 10.000 Buchstabenkombinationen pro Sekunde ausprobieren. Ein Mensch würde sich überlegen, wann die Freundin des Passwort-Inhabers Geburtstag hat und dann die Kombination 18091979 probieren. Oder in der Schreibtischschublade nach einem Spickzettel schauen.

Könnte man urteilen, die Vorgehensweise des Menschen sei intelligent, aber die des Computers nicht? Beide verfolgen eine Stratgie, die zum Erfolg führen kann.

Nehmen wir weiter an, der Computer sei auf das Knacken von Passwörtern trainiert worden. Er hat gelernt, dass Passwörter oft mit dem Geburtstag von Anghörigen identisch sind. Diese sind ihm bekannt. Er prüft sie stets zuerst. Danach geht er die Namen aller leiblichen Kinder durch und prüft Kombinationen dieser Namen.

Würden wir den Computer jetzt als intelligent bezeichnen? Oder ist lediglich der von Menschen erdachte Trainingsprozess des Computers intelligent?

MattF
19.02.2025, 13:40
und Arnes Beitrag stelle ich mir folgende Fragen:

a) Wird menschliche Intelligenz in Zukunft noch "gebraucht"?


Um die menschlichen Grundbedürfnisse wie Essen und Wohnen zufriedenzustellen, vielleicht nicht.

Was wir dann damit machen, ist unser Ding. Das ist ja auch Freiheit. :liebe053:

Klugschnacker
19.02.2025, 13:49
Wieso sollte menschliche Intelligenz überhaupt maschinelle Intelligenz deckeln, ...

Weil wir das in der öffentlichen Debatte oftmals vorauszusetzen scheinen: "Was passiert, wenn Computer so schlau werden wie wir?"

Wir sollen aber fragen, was passiert, wenn Computer eine Millarde mal schlauer werden als wir. Vielleicht sind Menschen schon bald aus Sicht eines Computers so dumm, dass er es im Prozessor nicht aushält.

keko#
19.02.2025, 13:55
....

Nehmen wir weiter an, der Computer sei auf das Knacken von Passwörtern trainiert worden. Er hat gelernt, dass Passwörter oft mit dem Geburtstag von Anghörigen identisch sind. Diese sind ihm bekannt. Er prüft sie stets zuerst. Danach geht er die Namen aller leiblichen Kinder durch und prüft Kombinationen dieser Namen.

Würden wir den Computer jetzt als intelligent bezeichnen? Oder ist lediglich der von Menschen erdachte Trainingsprozess des Computers intelligent?

Aber du hast doch irgendwann auch erst gelernt, dass das Passwort von der Freundin verwendet werden könnte. Vielleicht von deinem Kumpel, der es dir gesagt hat. Der Computer lernt genau so, nur dass es ihm halt nicht der Kumpel ins Ohr flüstert. Er entwickelt selbständig Strategien. Er probiert aus, was ihm erfolgversprechend erscheint. Ist er mit der Freundin erfolgreich, weiß er das und merkt es sich.
Ich sehe keinen Unterschied.

MattF
19.02.2025, 14:25
Vielleicht sind Menschen schon bald aus Sicht eines Computers so dumm, dass er es im Prozessor nicht aushält.


Dazu müsste der Computer erstmal ein Bewusstsein erlangen.

Klugschnacker
19.02.2025, 15:09
Dazu müsste der Computer erstmal ein Bewusstsein erlangen.

Ich weiß, was Du meinst. Aber ein Computer kann uns Menschen auch in einer Weise dumm "finden", die kein Bewusstsein erfordert. Wir wären für ihn einfach keine gute Quelle für Informationen. Genau so, wie wir Menschen bei komplexen Problemen kein zehnjähriges Kind um Auskunft bitten würden.

Nehmen wir an, eine KI bekommt die Aufgabe gestellt, die Auswirkungen bestimmer Finanztransaktionen auf den DAX vorauszuberechnen. Es gibt zehntausend davon pro Stunde. Die KI kann entweder andere Computer befragen, die auf solche Dinge spezialisiert sind, oder Menschen. Die Antwort soll in drei Stunden vorliegen. Kurz, die KI würde lernen, dass Menschen auf vielen Wissensgebieten entweder dumm sind wie hundert Meter Feldweg, oder schlicht zu langsam. Was nützt eine Antwort, die zu spät kommt?

In Ansätzen haben wir so etwas bei Assistenzsystemen im Auto (vermutlich gibt es aber bessere Beispiele). Ein solches Computersystem entscheidet sehr viel schneller über eine notwendige Vollbremsung als ein Mensch, der aus Sicht des Computers mit nervtötender Langsamkeit hinter dem Lenkrad herumtapst wie ein Taucher auf dem Meeresgrund.

keko#
19.02.2025, 15:27
Ich weiß, was Du meinst. Aber ein Computer kann uns Menschen auch in einer Weise dumm "finden", die kein Bewusstsein erfordert. Wir wären für ihn einfach keine gute Quelle für Informationen. Genau so, wie wir Menschen bei komplexen Problemen kein zehnjähriges Kind um Auskunft bitten würden.

Nehmen wir an, eine KI bekommt die Aufgabe gestellt, die Auswirkungen bestimmer Finanztransaktionen auf den DAX vorauszuberechnen. Es gibt zehntausend davon pro Stunde. Die KI kann entweder andere Computer befragen, die auf solche Dinge spezialisiert sind, oder Menschen. Die Antwort soll in drei Stunden vorliegen. Kurz, die KI würde lernen, dass Menschen auf vielen Wissensgebieten entweder dumm sind wie hundert Meter Feldweg, oder schlicht zu langsam. Was nützt eine Antwort, die zu spät kommt?

In Ansätzen haben wir so etwas bei Assistenzsystemen im Auto (vermutlich gibt es aber bessere Beispiele). Ein solches Computersystem entscheidet sehr viel schneller über eine notwendige Vollbremsung als ein Mensch, der aus Sicht des Computers mit nervtötender Langsamkeit hinter dem Lenkrad herumtapst wie ein Taucher auf dem Meeresgrund.

Solche Dinge passieren ja schon in Teilen.

Das eigentlich spannende wird sein: Was wird das in einer Gesellschaft bewirken, wenn diese wirklich checkt, dass Computer in weiten Teilen haushoch überlegen sind?

Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.

Schwarzfahrer
19.02.2025, 15:42
Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.Haben sie das nicht schon immer gefragt? :Cheese:

Im Ernst: fällt Dir wirklich nichts ein, womit Du Menschen zum Lernen motivieren könntest? KI ist ein tolles Werkzeug, das Menschen Arbeit und Zeit erspart, aber was kann sie ohne fähige und aktive Menschen bewirken? Wer versorgt die KI mit Strom, mit Hardware, mit Endgeräten? Wer baut diese, mit welchem Know-How? Wer produziert Lebensmittel, baut Häuser, Rennräder, Katzenklos? Wer schneidet Dir die Haare, wer pflegt alte und kranke Menschen? Ich sehe immer noch immens viele Bereiche, in denen KI den Menschen nicht ersetzt, bestenfalls ihm zur Hand geht. Oder hältst Du Endzeit-Visionen a la Terminator für realistisch, in dem die Maschine die Weltherrschaft übernimmt und die Menschen eliminiert?

Helmut S
19.02.2025, 16:45
Ich weiß nicht, ob folgender Gedanke hilfreich ist: Wie würden ein Mensch und ein Computer ein Passwort knacken?


Ich habe das beim Notencomputer der Schule (es gab noch keine Netzwerke) damals so gemacht, dass ich (damals noch in Assembler) einen Trojaner (Keylogger) geschrieben und als deutschen Tastaturtreiber (keyb gr) getarnt habe. Im Anschluss habe ich eine organisatorische Sicherheitslücke und "menschliches Versagen" ausgenutzt und das Ding in einem kurzen Zeitfenster installiert, in dem ich alleine in dem Raum mit dem Computer war. Ob das intelligent war, müssen andere beurteilen. :Lachen2:

Genug der Anekdoten :cool:

Aber du hast doch irgendwann auch erst gelernt, dass das Passwort von der Freundin verwendet werden könnte. Vielleicht von deinem Kumpel, der es dir gesagt hat. Der Computer lernt genau so, nur dass es ihm halt nicht der Kumpel ins Ohr flüstert. Er entwickelt selbständig Strategien. Er probiert aus, was ihm erfolgversprechend erscheint. Ist er mit der Freundin erfolgreich, weiß er das und merkt es sich.
Ich sehe keinen Unterschied.

Ich gewinne den Eindruck, dass du denkst, dass der Mensch eine "Biochemiemaschine" sei, der man mit bestimmten, für die Maschine geeigneten "Algorithmen" etwas beibringen kann.

Manche Menschen haben ein performanteren "Rechner", ein hochwertigeres Betriebssystem und bessere Software an Board (vulgo sind intelligenter) als andere. Diese können dann part. DLG lösen, wenn man sie entsprechend "trainiert" vulgo (ausbildet) während andere nur in Mumbai Autofahren können :Cheese:

Du siehst das bei künstlichen Intelligenzen ebenso. Lediglich die Funktionsweise der Maschine ist (im Moment noch) eine andre und der Trainingsprozess unterscheidet sich halt auch. Am Ende ist der "Maschinenbegriff" eine Oberkategorie von Mensch und Computer.

Um es kurz zu sagen: Ich mag dies Bild nicht. :Blumen:

Ich halte folgendes für den Menschen für wichtig: Er sollte sich im klaren sein, dass er Teil der Natur ist. Diese Erkenntnis scheint mir für Handlungen im Thema Umwelt-/Klimaschutz oder Umgang mit Tieren wichtig.

Ebenso halte ich es für wichtig, dass der Mensch sich im klaren darüber ist, dass er in einem Verhältnis zur KI (wie zur Technik überhaupt) steht und auch in welchem Verhältnis konkret. Die bloße Existenz und noch mehr die Verwendung von Technik wirkt auch auf das Selbstverständnis des Menschen zurück - z.B. in subjektiven Ängsten vor der Zukunft, vor Arbeitsplatzverlust, ... you name it.

Da ich der Meinung bin, dass dieses Selbstverständnis des Menschen gegenüber KI insbesondere auch durch Sprache gebildet wird, gefällt mir die Attributierung von Intelligenz mit künstlich/menschlich nicht. Ich bin der Meinung, wir wenden unsere Adjektive/Verben viel zu schnell auf die Maschine an.

Denn wegen Fragen wie dieser ...

Schüler werden sich z.B. ernsthaft fragen, warum sie überhaupt noch zur Schule gehen, um sich Wissen anzueignen.

... scheint es mir nötig, dieses Thema viel Sorgfältiger zu behandeln, insbesondere Fragen wie: Wie sieht denn der Platz des Menschen (und damit sein Verhältnis zur KI) in der Zukunft aus? Worin liegt der Sinn meines Lebens, den ich ihm selbst geben kann? Oder ist es vielmehr so, dass der freie, selbstbestimmte Mensch plötzlich zum "Unterlegenen" der KI wird? Wird es unsere Gesellschaft zerreißen, weil wir im Sinne der Maschinenstürmer zum KI-Stürmer werden? Sind wir plötzlich "Schädling" und es wäre gut, z.B. die Führung des Staates einer KI zu übergeben, denn die ist dem Menschen ja auch moralisch Überlegen - sie muss ja nur (vorzugsweise von Elon Musk ;) ) trainiert werden?

:Blumen:

Helmut S
19.02.2025, 17:02
Ergänzend: Was is denn eigentlich mit Verantwortung? Ich meine, wenn wir Systeme entwickeln, die "intelligenter" (was auch immer das dann ganz genau heißt) sind als wir, übernehmen diese Systeme dann auch Verantwortung für sich selbst?

Was hat das für Folgen für die Normensetzung (moralisch und juristisch) und was ist mit dem Menschen, wenn er doch nur eine Unterkategorie/Spezialisierung des Begriffes Maschine ist? Widerspricht das dann der Objektformel im GG / der Menschenwürde?

Darf man dann so eine Maschine einfach abschalten (aka töten?)

Freunde des Ausdauerdreikampfs: Wir dürfen das nicht einfach so passieren lassen ("Da kann man nichts machen, dass kommt sowieso!"), die feuchten Phantasien dieser Bostroms und Kurzweils aus dem Silicon Valley Realität werden lassen.

:Blumen:

Helmut S
24.02.2025, 22:01
Hier gibt es mal wieder was zum Thema Softwareentwicklung mit KI: https://t3n.de/news/gravierende-schwaechen-gpt-4o-claude-schlecht-programmieren-1674887/

Deckt sich völlig mit meinen weiter vorne geschilderten Erfahrungen.

:Blumen:

Jimmi
25.02.2025, 09:40
Ich hatte Chat GPT für das tägliche Connections-Rätsel der NY Times versucht. Da steckt keinerlei Kreativität drin, muss ich sagen.

keko#
25.02.2025, 16:05
Musiker gegen KI-Nutzung:
Kate Bush und Cat Stevens protestieren mit stillem Album (https://www.spiegel.de/kultur/musik/kate-bush-und-cat-stevens-protestieren-mit-stillem-album-gegen-ki-nutzung-a-0aca7333-fa74-44c7-b6a6-f3082cbc93de)

Wortwörtlich ein gefundenes Fressen für die Maschinen ;)

Estampie
13.03.2025, 14:35
hier mal ein einfaches Beispiel für interessante Aussagen von KI und vor allem welche Schlussfolgerungen KI aus ihren eingen Aussagen zieht:

Frage: Bot, was ist die Mindestgeschwindigkeit auf der Radrennbahn in Bielefeld?

einige Fragen nach Kurvenradius, mathematische Formeln... etc

Mit einem Kurvenradius von 30 Metern ergibt sich eine Mindestgeschwindigkeit von ca. 62,8 km/h, um in den Steilkurven der Bielefelder Radrennbahn nicht abzurutschen. 🚴*♂️

Das ist ziemlich schnell! Deshalb sieht man in den Kurven meistens nur Fahrer, die mit hohem Tempo unterwegs sind, während langsamere Fahrer sich eher in den flacheren Bereichen aufhalten. ​

:Lachanfall:
erst nach Hinweisen auf die vorhandene Reibung ging es dann. Aber interessant ist hierbei ja, dass KI aus der eigenen Aussage folgert, dass es Bereiche für langsamfahrer und Schnellfahrer gibt und das als Wahrheit verkündet.

keko#
01.04.2025, 15:36
Entwickler kennen das Tool schon, aber ich erwähne es für Interessierte:
Claude Code ist ein agentenbasiertes Programmiertool, das in einem Terminal agiert, die Codebasis versteht und durch natürlichsprachliche Befehle beim Programmieren in Echtzeit hilft.

Macht Spaß :Blumen:

Claude Code (https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview)

Trimichi
11.04.2025, 13:38
Aloha und Moin Moin, Moinsen, Mahlzeit und Gruess Gott,

tja, je länger ich über Trans- und Posthumanusmus nachdenke desto transparenter werden die Überlegungen und Abwaegungen. Haben wir "Biologischen" noch eine Chance?

Wie viel Zeit bleibt uns (biologische Wesen) noch? Erste Frage.

Wie genauso vollzieht sich der Übergang vom Trans- zum Posthumanism? D.h. wann ist ein Cyborg noch Cyborg und ab wann genau Roboter? Zweite Frage. Gerne mit Bezug auf Frage eins.

Muss man leider ernst nehmen die Typen in Californien. Sicher, wir können den Himmel verdunkeln. Und diese Typen in Californien nicht. Oder ist das alles Humbug von wegen Marketing wegen Elektronikverkauf? Dritte Frage.

Ist ja auch wurst, wir haben ja noch Zeit, unsere Kinder nicht mehr. Und müssen mitmachen beim Wettlauf um die besten Implantate?

Und damit zurück zum Thema. Kann eine KI überleben, sich aus sich selbst heraus erneuern? Wo stehen wir? Frage nach Silikon Valley.

Schönes Wochenende und Bier trinken nicht vergessen. ;)
:Blumen:

Jimmi
11.04.2025, 13:50
Es wurde ein Kubikmillimeter Mäusehirn kartographiert.

84.000 Nervenzellen
5,4 km Verdrahtung
Datenvolumen 1,6 Petabyte.

Wenn jetzt jedes Neuron noch verschiedene Zustände und Funktionsgraphen hat, kann man sich vorstellen, das es zu einem künstlichen Verstand und Bewusstsein noch ein weiter Weg ist.

keko#
11.04.2025, 13:54
....

Und damit zurück zum Thema. Kann eine KI überleben, sich aus sich selbst heraus erneuern? Wo stehen wir? Frage nach Silikon Valley.

...

Ja natürlich.

Nächster großer Step wird humanisierte KI als Roboter sein, die natürliche Sprache verstehen, Emotionen erkennen und sogar soziale Interaktionen führen können.

Warum sollte diese sich nicht selbst erneuern können?

Trimichi
11.04.2025, 14:05
Ja natürlich.

Nächster großer Step wird humanisierte KI als Roboter sein, die natürliche Sprache verstehen, Emotionen erkennen und sogar soziale Interaktionen führen können.

Warum sollte diese sich nicht selbst erneuern können?

Eben: wird. Und da ist die Crux. Es ist eben die Frage: kann das gelingen? Denn eine generalisierte oder wie du schreibst humanisierte KI gibt es nicht. Noch nicht, das stimmt. Die Frage ist eben, ob die KI schlauer wird als ihr Programmierer, um dieselbe umzuformulieren.

Also legt der Programmierer die Startparameter fest und eben noch nicht die KI?

Helmut S
11.04.2025, 14:32
Warum sollte diese sich nicht selbst erneuern können?

Vorteil Transhumanismus: Dann fällt endlich dieser lästige Geschlechtsverkehr weg, der signifikant Trainingszeit reduziert. Das wird was mit der 100m Lagenzeit in der AK100. Schwimmen statt ficken.

:Cheese:

keko#
11.04.2025, 15:42
...

Die Frage ist eben, ob die KI schlauer wird als ihr Programmierer, um dieselbe umzuformulieren.



Selbstverständlich, ohne Frage! Du bist "nur" Psychologe und kannst das technisch wahrscheinlich nicht begreifen.

:Blumen:


Also legt der Programmierer die Startparameter fest und eben noch nicht die KI?

Das mit den Startparametern festlegen ist deterministisch: Ein Computerprogramm macht in 1000 Jahren genau das gleiche wie heute.

Hier reden wir von anderen Modellen. Um es zu vergleichen: ein KI legt sich ihre Startparameter längst selbst fest und zwar kann sie das schon heute.

:Blumen:

Trimichi
11.04.2025, 16:23
Selbstverständlich, ohne Frage! Du bist "nur" Psychologe und kannst das technisch wahrscheinlich nicht begreifen.

:Blumen:



Das mit den Startparametern festlegen ist deterministisch: Ein Computerprogramm macht in 1000 Jahren genau das gleiche wie heute.

Hier reden wir von anderen Modellen. Um es zu vergleichen: ein KI legt sich ihre Startparameter längst selbst fest und zwar kann sie das schon heute.

:Blumen:


Achso. Ich bin zu " dumm "! Ergo kein Nerd? Hm. Okay. Damit kann ich leben. :Lachen2:

:Blumen:

Also hat die KI sich schon immer stehts selbst programmiert. Das ist doch der Zirkelschluss. Daraus folgt, dass es den Menschen nie gegeben hat. :Cheese:

Und damit ist in der konsekutiven Konsequenz auch die Nichtexistenz bewiesen. Es gibt nur das Nichts. Das Seiende existiert nicht.

Bruecken, Autos, der Fussball, der Anorak, das Ei, der Fuchs, ja sogar Rüben und Nasen, Hasen, Hosen und der Rasen - alles Einbildung. Und selbst die Einbildung ist eine Einbildung, da sie ja nicht existieren kann.

Es sei denn, die KI hat sie erschaffen. Die Einbildung, und die Dinge.

;-)

:Blumen:

Trimichi
11.04.2025, 17:48
Es wurde ein Kubikmillimeter Mäusehirn kartographiert.

84.000 Nervenzellen
5,4 km Verdrahtung
Datenvolumen 1,6 Petabyte.

Wenn jetzt jedes Neuron noch verschiedene Zustände und Funktionsgraphen hat, kann man sich vorstellen, das es zu einem künstlichen Verstand und Bewusstsein noch ein weiter Weg ist.

Da steckt viel Wahrheit drin.

Ein vllt etwas bildhafterer Vergleich. Wie hat man sich diese Tech-Ingenieure vorzustellen, also was machen die Menschen im Silikon-Valley? Kennt jemand von euch "die Ludolfs"? Sie machen dasselbe wie Silikon-Valley. Im kleineren, antiquierten Maßstab. Der Clip zeigt also den Geburtsort des Silikon-Valley quasi. ;-)

Hier ein Interview/Kostprobe, das/die zielgenau und ganzheitlich in dieser Momentaufnahme also durchaus ausgewogen die Ludolfs :https://www.youtube.com/watch?v=yLf6WY8gpJ4 beschreibt, auch der Gründervater wird gewürdigt.

wichtig: #peterludolfprinzip #heiligehallenderludolfs

So sehr sie sich auch bemühen, sie schaffen es nicht (etwas Neues zu produzieren).

;)

Schönes Wochenende, sonnige Grüße. :)

Helmut S
11.04.2025, 17:55
Achso. Ich bin zu " dumm "! Ergo kein Nerd? Hm. Okay. Damit kann ich leben. :Lachen2:

:Blumen:

Also hat die KI sich schon immer stehts selbst programmiert. Das ist doch der Zirkelschluss. Daraus folgt, dass es den Menschen nie gegeben hat. :Cheese:

Und damit ist in der konsekutiven Konsequenz auch die Nichtexistenz bewiesen. Es gibt nur das Nichts. Das Seiende existiert nicht.

Bruecken, Autos, der Fussball, der Anorak, das Ei, der Fuchs, ja sogar Rüben und Nasen, Hasen, Hosen und der Rasen - alles Einbildung. Und selbst die Einbildung ist eine Einbildung, da sie ja nicht existieren kann.

Es sei denn, die KI hat sie erschaffen. Die Einbildung, und die Dinge.

;-)

:Blumen:

Ich bin bereits seit längerem ein Anhänger der Simulationshypothese (https://de.m.wikipedia.org/wiki/Simulationshypothese) :Cheese:

:Blumen:

Estampie
14.04.2025, 09:45
Es sei denn, die KI hat sie erschaffen. Die Einbildung, und die Dinge.


Die Überlegungen von Bombe 20 dazu (https://www.youtube.com/watch?v=XetTVNtzTW8) kennst du ja ganz bestimmt!?

Meik
14.04.2025, 19:37
Die Überlegungen von Bombe 20 dazu (https://www.youtube.com/watch?v=XetTVNtzTW8) kennst du ja ganz bestimmt!?

Wenn man sich das genau überlegt, also ich glaube dass ich überlege, was ist dann überhaupt dieses menschliche Denken von dem hier die Rede ist? :Gruebeln:

Ich denke also geh ich erstmal laufen und denke über das denken nach. Oder denke ich dann nur dass ich laufe und tue es gar nicht? Ach menno .... :Maso:

Trimichi
14.04.2025, 20:29
Die Überlegungen von Bombe 20 dazu (https://www.youtube.com/watch?v=XetTVNtzTW8) kennst du ja ganz bestimmt!?

Ja natürlich. Aber das ist noch nicht so schlimm. Denn:

"Wenn eine Bombe anfaengt von sich in der dritten Person zu sprechen ist das bedenklich".

Soweit ist es noch nicht. Naja, Beltstrom, Borsis, Murks sollen sich mal anstrengen.. Roddenberry ist ihnen 75000 Lichtjahre voraus. ;)

https://www.youtube.com/watch?v=JR-_kASARwQ&pp=ygUgUmF1bXNoaWZmIFZveWFnZXIgRmx1Z2tvZXJwZXIgS0k %3D

ab 1: 45 min sec

Jimmi
15.04.2025, 13:45
Wenn man sich das genau überlegt, also ich glaube dass ich überlege, was ist dann überhaupt dieses menschliche Denken von dem hier die Rede ist? :Gruebeln:

Ich denke also geh ich erstmal laufen und denke über das denken nach. Oder denke ich dann nur dass ich laufe und tue es gar nicht? Ach menno .... :Maso:

Wenn jemand "Die Abschaffung des Todes" von Eschmann als Thriller zum Thema lesen will: Lasst es. Zu dünn.

Meik
15.04.2025, 17:26
Wenn jemand "Die Abschaffung des Todes" von Eschmann als Thriller zum Thema lesen will: Lasst es. Zu dünn.

Ich gucke lieber Raumschiff Enterprise (TNG). Lt. Commander Data ist über die Folgen schon spannend, vom Wunsch menschlich zu sein, vor der Herausforderung was überhaupt Mensch sein bedeutet bis zur rechtlichen Frage wann eine Maschine ein Lebewesen ist oder sein kann.

Das ganze ist ja schon recht umfangreich in diversen SciFi Filmen und Serien ein Thema gewesen, da muss ich nicht noch extra dieses altmodische "Lesen". :Lachen2:

Ex-Machina kann ich als Film dazu auch empfehlen

Estampie
15.04.2025, 17:36
Roddenberry ist ihnen 75000 Lichtjahre voraus. ;)

https://www.youtube.com/watch?v=JR-_kASARwQ&pp=ygUgUmF1bXNoaWZmIFZveWFnZXIgRmx1Z2tvZXJwZXIgS0k %3D

ab 1: 45 min sec

Ja, O.K.
Da habe ich eine Wissenslücke, die Folgen ohne Uhura habe ich nicht geschaut ;)

Estampie
20.05.2025, 16:12
Für die, die es interessiert hier (https://t3n.de/news/vending-bench-ki-agent-fbi-fail-1688325/?utm_source=firefox-newtab-de-de) mal ein etwas aktueller Bericht aus der Praxis.

Um überhaupt mal was zu schreiben.... ich krieche jetzt wieder zu meinen Elektronengehirnen.

beste Grüße und einen schnellen Frühling allerseits

Jimmi
20.05.2025, 16:59
Spannend...

Ich habe ChatGPT konkret mit Bild eine Frage zu meiner Gegensprechanlage im Haus gestellt. Über google hätte ich nie im Leben so schnell so eine fundierte Antwort gefunden.

keko#
21.05.2025, 10:56
Für die, die es interessiert hier (https://t3n.de/news/vending-bench-ki-agent-fbi-fail-1688325/?utm_source=firefox-newtab-de-de) mal ein etwas aktueller Bericht aus der Praxis.

...

Darin:


Warum das Gedächtnis versagt

Die Autoren führen die Fehlleistungen auf drei Mechanismen zurück:
- Fragiles Weltmodell – Fakten, die aus dem Kontextfenster fallen, werden nicht mehr berücksichtigt.
- Fehlende Meta‑Reflexion – keine Instanz prüft, ob die eigene Diagnose noch in den Simulationsrahmen passt.
- Langzeitdrift – je länger der Lauf, desto mehr kleine Diskrepanzen häufen sich, bis sie kippen.




Der Mensch ist da diesbezüglich aktuell noch viel weiter, weil er aus sich selbst heraus Veränderungen hervorrufen kann, z.B. durch Emotionen oder ein singuläres Ereignis. So kann man z.B. augenblicklich der Meinung sein, dass Spinnen doch nicht eklig sind. Ein LLM muss das erst erlernen und käme von selbst nie auf die Idee, Spinnen zu mögen. Dass Spinnen eklig sind, steckt irgendwo fest in seinem Model drin, also in den erlernten Mustern und Wahrscheinlichkeiten.

:Blumen:

Adept
21.05.2025, 11:10
Ist diese „Stabilität der Meinung“ nicht gerade ein Vorteil der AI? So kann ein kurzzeitiges Fluten von Fake News nicht gleich das ganze Modell durcheinander würfeln.

keko#
21.05.2025, 11:56
Ist diese „Stabilität der Meinung“ nicht gerade ein Vorteil der AI? So kann ein kurzzeitiges Fluten von Fake News nicht gleich das ganze Modell durcheinander würfeln.

Ist ein LLM erst mal ordentlich auf Fakenews trainiert, ist es dem gemeinen Menschen wahrscheinlich deutlich überlegen.
Aber in dem Artikel ging es um einen Agenten, der eigenmächtig Entscheidungen fällen soll. Das ist komplizierter.

Kürzlich war ich gleichzeitig in einem Chat mit 2 Agenten von verschiedenen online Plattformen (es ging um eine falsche Buchung bei einem Dienstleister, auf den der andere wartete). Der eine Agent schickte mich zu dem anderen und so ging das hin und her :Cheese:

Da hilft dann nur der Mensch am Telefon und die Sache ist nach 2s erledigt. Die Agenten checken das einfach nicht.

:Blumen:

Trimichi
22.05.2025, 13:19
Ist ein LLM erst mal ordentlich auf Fakenews trainiert, ist es dem gemeinen Menschen wahrscheinlich deutlich überlegen.
Aber in dem Artikel ging es um einen Agenten, der eigenmächtig Entscheidungen fällen soll. Das ist komplizierter.

Kürzlich war ich gleichzeitig in einem Chat mit 2 Agenten von verschiedenen online Plattformen (es ging um eine falsche Buchung bei einem Dienstleister, auf den der andere wartete). Der eine Agent schickte mich zu dem anderen und so ging das hin und her :Cheese:

Da hilft dann nur der Mensch am Telefon und die Sache ist nach 2s erledigt. Die Agenten checken das einfach nicht.

:Blumen:

Hättest du einen Anruf vom MAD bekommen? Falls ja, sag' einfach, dass du keine Lust hast dich mit der KI

Trimichi
22.05.2025, 13:24
Mir wollte die KI vorgestern eine Solarstromanlage verkaufen.

Naja, ein wenig angelernt hatte ich sie ja. Aber ich hätte der KI ja auch gleich sagen können, dass wir (wer auch immer wir sind) Kernkraftwerke abreißen, mit der Abrissbirne wobei ich mich da mit dem Nachrüsten nicht so gut auskenne, und Fusionskraftwerke bauen? Habe ich aber nicht. Was soll ich bitte schoen mit einer Solaranlage, wenn Bauer Grosshinz, aber sein Nachbar Bauer Kleinkunz nicht so, selbige abgeschaltet bekommt? Von selbiger KI.

Völlig gaga diese KI. ;)

Viele Grüße :Blumen:

Trimichi
26.05.2025, 13:33
The Matrix has you.

3 Milliarden Nutzer werden vom Troll (der KI in Silikon Valley) assimiliert. Einspruchverfahren ist gescheitert. Betrifft FB, WhatsApp und Instagram.

Bsp.: ich finde heraus, dass eine Weißwurst vorzüglich gegrillt schmeckt. Schreibe das auf wapp und 3 Milliarden Menschen verfügen über diesen Entwicklungsgewinn.

Noch berät uns die KI. Vllt kommen irgendwann Empfehlungen und Anweisungen. Schon interessant auch was Hr. Cruise gemacht hat in seinem neuen Streifen. Kam letzte Woche im free TV.

Die andere Sache ist das mit dem Interface. Man kann mit Gedanken im Labor einen Cursor bewegen. Leib-Seele-Problem betrifft das in den Neurowissenschaften. Nimmt man nun noch die Libet-Experimente dazu werden aus Menschen Matrixagenten? Unglaublich, dass man das nicht unterbinden moechte. Und in fünf Jahren ist das Netz soweit in ganz Deutschland die entsprechende, notwendige Datenmenge an die Endgeräte zu übertragen (50 MByte/Sek. entspricht genau einer vollwertigen menschlich analogen Kommunikation UND Interaktion also inklusive non-verbaler Daten). Noch sind es Smartphones. Unterscheiden wer real ist oder nicht wird dann nicht mehr möglich sein.Sagt Zuckerberg. Verfilmt wurde es bereits in Mission Impossible Teil 8. DFUE von Kopf zu Kopf. Ohne Chip. .Lassen wir uns überraschen, ob das Scientology, also Tom Cruise gelingt die Entität zu binden. Oder doch den Russen? Krass ist was das chinesische Militär macht. Inception ist vergleichsweise harmlos?
Man ist wirklich schon soweit, dass man im Unbewussten ansetzen möchte. Also bevor der Wille entsteht. Chinesen können das militärisch? Allerdings also forscht man auch an der Willensbildung. Und zwar dort,wo und wie der Willen gebildet wird. Mit der KI ist es bereits im Labor bald möglich den bewussten Willen zu lesen. Also mit Bezug auf die Libet-Experimente nur Wahlmöglichkeiten zu haben Und das macht dann die KI, sie entscheidet.

Bleibt also die Frage, ob es einen freien Willen gibt. Oder wo beginnt der menschliche Impuls? Wird ein künstlicher Impuls das Gleiche vermögen können? Wie bringt man ihn unter Kontrolle? Muss man ernst nehmen, dass die KI den menschlichen Geist kontrollieren koennte. Das Unbewusste wird zu komplex bleiben? Und woher kommt dann das Unbekannte im Unbewussten?

Wir können uns zurücklehnen denn schon in der Philosophie der Neuzeit hieß es : "Lieber Gott, wenn es dich gibt, rette meine Seele, wenn ich eine habe." Müsste von Pascal sein. Einen Aluhut wird man auch in Zukunft nicht brauchen.

;)

keko#
27.05.2025, 09:30
.....

Noch berät uns die KI. Vllt kommen irgendwann Empfehlungen und Anweisungen. Schon interessant auch was Hr. Cruise gemacht hat in seinem neuen Streifen. Kam letzte Woche im free TV. ....


Bleibt also die Frage, ob es einen freien Willen gibt. Oder wo beginnt der menschliche Impuls? Wird ein künstlicher Impuls das Gleiche vermögen können? Wie bringt man ihn unter Kontrolle? Muss man ernst nehmen, dass die KI den menschlichen Geist kontrollieren koennte. Das Unbewusste wird zu komplex bleiben? Und woher kommt dann das Unbekannte im Unbewussten?

...


Eine KI kann Meinungen bilden, indem sie Informationen bereitstellt oder die eine oder andere Perspektive gewichtet, aber im Idealfall bleibt die Entscheidungsfreiheit beim Menschen. Kritisches Denken und bewusste Reflexion muss allerdings trainiert werden.
Ich gebe dir also den guten Rat mit: mach doch einfach, was du willst! ;-)

Klugschnacker
06.06.2025, 15:24
Um für ein Sendethema zu recherchieren, habe ich eine KI befragt. Sie gab auch brav Antwort.

Beim Blick auf die verwendeten Quellen sah ich eines meiner eigenen Videos. Offenbar hatte ich zu diesem Thema bereits eine Sendung gemacht. Merke: Ich bin schlauer als die KI, aber vergesslicher.
:Maso:

(Bemerkenswert ist ferner, dass KIs in der Lage sind, Videos in deutscher Sprache inhaltlich zu verstehen und einzuordnen – nicht schlecht.)

keko#
06.06.2025, 16:03
....

(Bemerkenswert ist ferner, dass KIs in der Lage sind, Videos in deutscher Sprache inhaltlich zu verstehen und einzuordnen – nicht schlecht.)

Technisch geht das so, dass die gehörten Wörter in sog. Tokens (Triathlon wird möglicherweise zerlegt in "Tri" und "athlon") zerlegt werden und die KI durch millionenfaches Training gelernt hat, dass manche Tokens im Kontext eines Satzes wichtiger sind als andere. Sie berechnet letztendlich nur Wahrscheinlichkeiten, "verstehen" tut sie gar nichts, obwohl sie aber bei dem Satz "I buy an apple" aus dem Kontext heraus erkennt, ob es ein Handy oder ein echter Apfel ist.

Helmut S
06.06.2025, 19:18
Technisch geht das so, dass die gehörten Wörter in sog. Tokens (Triathlon wird möglicherweise zerlegt in "Tri" und "athlon") zerlegt werden und die KI durch millionenfaches Training gelernt hat, dass manche Tokens im Kontext eines Satzes wichtiger sind als andere. Sie berechnet letztendlich nur Wahrscheinlichkeiten, "verstehen" tut sie gar nichts, obwohl sie aber bei dem Satz "I buy an apple" aus dem Kontext heraus erkennt, ob es ein Handy oder ein echter Apfel ist.

In dem Beispiel von Arne sind zwei Dinge interessant: 1. Erkennen von Inhalten aus Ausiostreams. 2. „bessere Erinnerung“.

„Früher“ hat man Speech-to-Text Modelle eingesetzt um aus Audiostreams Text zu machen. Dann hat man den in ein LLM gesteckt und das spuckt dann wieder aus. Das LLM arbeitet so wie du beschreibst. Nebenbei: Wollte man dann Audio-Out haben, hat man den Text in ein Text-To-Speech Modell gesteckt. Viele KI Telefonsysteme funktionieren so. Das nervt allerdings etwas :Lachen2: undzwar, weil…

Nachteile dieses Verfahrens sind: Latenz, „dreinreden/unterbrechen“ schwierig, Emotionen gehen verloren.

OpenAI hat mittlerweile eine Schnittstelle, die sich „Real-Time API“ nennt. Vor n paar Monaten war die noch public Beta. Den aktuellen Status kenne ich nicht, ehrlich gesagt. Damit geht es nun so, dass Audio streams direkt ins Modell gesteckt werden können und es kommen auch direkt wieder Audio Streams raus.

Eine weiterer interessanter Aspekt ist, dass das von dir „das eine is wichtiger als das andere“ (also der Attention (https://arxiv.org/abs/1706.03762) Mechanismus) aus Sicht der Informatik teuer ist. Die Idee ist nun ein auf Transformer Attention basierendes „Kurzzeitgedächtnis“ zu implementieren und eine effiziente Abbildung eines „Langzeitgedächtnis“ („Titans“) zu realisieren. Das Paper hierzu is: Titans: „Learning to Memorial at Test time (https://arxiv.org/abs/2501.00663).“

Ich meine chatGPT nutzt das (zumindest für zahlende Kunden) bereits.

:Blumen:

keko#
06.06.2025, 20:15
....
Ich meine chatGPT nutzt das (zumindest für zahlende Kunden) bereits.

:Blumen:

Kannst du dazu was Genaueres oder mehr sagen? Meines Wissens nutzt ChatGPT bisher nur die Tansformer-Architektur mit Self-Attention.

Danke!

:Blumen:

Helmut S
06.06.2025, 23:18
Kannst du dazu was Genaueres oder mehr sagen? Meines Wissens nutzt ChatGPT bisher nur die Tansformer-Architektur mit Self-Attention.

Danke!

:Blumen:

Genaueres nicht. Unlängst habe ich halt diesen Artikel gelesen: https://the-decoder.de/openai-fuehrt-neue-chatgpt-funktion-fuer-langzeitgedaechtnis-auch-fuer-kostenlose-nutzer-ein/

Hier, bei der kostenlosen Version, handelt es sich aber wohl um eine abgespeckte Variante eines Langzeitgedächtnisses. Typischerweise haben bei OpenAI aber non-EU Pro Customer recht schnell Zugriff auf die Vollversionen des heißesten Scheiß :Lachen2:

Die Transformer Architektur wird ja nicht ersetzt. Das is nach wie vor der Kern. Das Langzeitgedächtnis und der „Vergessen Algo“ sind ja ne Erweiterung. In dem oben verlinkten Titans Paper gibt es drei verschiedene Grafiken, wie Gedächtnis eingebaut werden kann. Memory as a context, Memory as a Gate und Memory as a layer. Da versteht man sofort wie‘s Konzept ist.

Ich hatte schon n paar Gespräche mit chatGPT, bei denen mit aufgefallen ist, dass der plötzlich Infos „einbaute“, von denen ich gewettet hätte, dass wir das im aktuellen Kontext noch nicht besprochen hatten. :dresche

Btw: Das Realtime-API nutzen wir für unser KI App Projekt. Das ist beeindruckend gut finde ich.

Edit sagt noch, dass die Meldung von Open AI eher klein ist: https://openai.com/index/memory-and-new-controls-for-chatgpt/

:Blumen:

keko#
07.06.2025, 09:53
....

Btw: Das Realtime-API nutzen wir für unser KI App Projekt. Das ist beeindruckend gut finde ich.

Edit sagt noch, dass die Meldung von Open AI eher klein ist: https://openai.com/index/memory-and-new-controls-for-chatgpt/

:Blumen:

Aber ist das nicht etwas anders als die Titans-Architektur von Google? Man kann in OpenAI ja Projektordner mit Files anlegen und OpenAI findet sich dann darin zurecht. Manchmal muss man nachhelfen und die KI auf den Weg bringen ("Erinnerst du dich an unsere Diskussion über...."), aber die Titans-Architekur geht doch darüber hinaus und passt sich dynamisch an die Fragen an. Ja nach Frage gewichtet sie on the fly anders. Die aktuelle Transformer-Architektur ist ziemlich statisch an ihre errechneten Gewichte gebunden. Zumindest habe ich das so verstanden.

:Blumen:

Helmut S
08.06.2025, 11:20
Aber ist das nicht etwas anders als die Titans-Architektur von Google? Man kann in OpenAI ja Projektordner mit Files anlegen und OpenAI findet sich dann darin zurecht. Manchmal muss man nachhelfen und die KI auf den Weg bringen ("Erinnerst du dich an unsere Diskussion über...."), aber die Titans-Architekur geht doch darüber hinaus und passt sich dynamisch an die Fragen an. Ja nach Frage gewichtet sie on the fly anders. Die aktuelle Transformer-Architektur ist ziemlich statisch an ihre errechneten Gewichte gebunden. Zumindest habe ich das so verstanden.

:Blumen:

Die Sache mit den Files is was anderes. Das is ne RAG Architektur. Über ML Mechanismen werden die Infos aus den Files in einem sog. Chunking Prozess in Vektoren (x-fantastilliarden-dimensional ;) ) überführt und in spezielle Vektordatenbanken gespeichert. Gesucht wird dann darüber, wie groß/klein der Abstand der Vektoren im Raum zueinander is. Das Ergebnis wird üblicherweise in den Kontext gemischt und „vorne“ wieder in die Transformerarchitektur gesteckt. Das is immer auf Basis von Transformer und unabhängig von Titans oder ähnlichen Langzeitgedächtnis- oder Vergessenskonzepten.

ChatGPT hat sicher seit Anfang Juni so n kontextübergreifendes Lagzeitgedächtniskonzept implementiert bzw. rausgerollt, das, wie du es nennst „on the fly“ (aka Test-Time) Infos „merkt/erinnert“. Man kann das sogar so einstellen, dass er sich Dinge benutzerübergreifend „merkt/erinnert“. Das find ich a bisserl scary . :-((

Die Architektur entscheidet selbst, was in das Gedächtnis soll und was vergessen werden kann. Man kann das als Benutzer aber auch steuern.

Ob das nun konzeptionell eine vollständige Umsetzung oder gar technisch eine nahezu identische Implementierung ist, wie das, was Google vorschlägt, weiß ich nicht. Open AI ist da wenig gesprächig finde ich.

Aber im Endeffekt geht es aus meiner Sicht darum ja nicht, sondern vor dem Hintergrund von Arnes Bemerkung (er sei vergesslicher als die KI) ist das Konzept der Langzeiterinnerung und des Vergessenes interesant finde ich. Wahrscheinlich hast du insofern recht, dass die OpenAI Implementierung eher nicht vollständig is. US Marketing und die Geschwindigkeit mit der neue KI-Säue durchs Dorf getrieben werden, lässt das ja normal gar nicht zu. :Lachen2:

Was m.E. aber auch klar is: Wenn Google sowas veröffentlicht, dass ist es zwingend für OAI, dass die sowas auch „haben“. Undzwar schnellstens und überhaupt ;)

Eine FAQ für die abgesteckte Version der Free User gibt es hier (Update gestern): https://help.openai.com/en/articles/8590148-memory-faq

:Blumen:

P.S. Ich finde die Sache mit Audiostreams direkt ins und aus‘m Modell praktisch richtig beeindruckend. Gibt dazu auch YT Videos, zumindest von den älteren Versionen.

keko#
08.06.2025, 23:50
....

Aber im Endeffekt geht es aus meiner Sicht darum ja nicht, sondern vor dem Hintergrund von Arnes Bemerkung (er sei vergesslicher als die KI) ist das Konzept der Langzeiterinnerung und des Vergessenes interesant finde ich. ....

Ich weiß nicht genau, was er meinte, aber das ist eigentlich das Resultat klassischer Transformers-Architektur, also dem Kurzzeitgedächtnis, was teuer ist, wie du ja erwähntest.
Das Surprise bei den Titans z.B. ist eigentlich schon drin, indem es sich das Loss halt dauerhaft merkt, wenn es stark daneben liegt. Dann ist es ein Surprise. Deep Memory und Persistent Memory ist glaube ich ein bisschen schwieriger zu programmieren.

Auf jeden Fall nähern sich die Titans dem menschlichen Denken wieder ein Stück an. Das wird noch richtig richtig lustig werden in den nächsten Jahren. Jemand, der es wissen könnte, meinte kürzlich zu mir, man solle Dachdecker oder Wärmepumpeneinbauer werden, der Rest würde in den nächsten Jahren abgelöst ;-) Die großen LLMs sind eh schon der Hammer.

:Blumen:

Helmut S
11.06.2025, 18:32
Auf jeden Fall nähern sich die Titans dem menschlichen Denken wieder ein Stück an.

Das is der Punkt. Und technisch halt, weil es bei der Inferenz passiert und nicht beim Training.

Ich hab heute mit nem Ex-Google Mann gesprochen, der is CTO bei dem Dienstleiter, mit dem wir das KI Projekt machen. Er sagt auch, dass ChatGPT sowas in der Art bereits umsetzt. Wie technisch genau, wusste er natürlich auch nicht.


:Blumen:

Jimmi
12.06.2025, 13:36
Mal blöd gefragt:

Könnte ich mir jetzt schon eine KI an den Schreibtisch setzen, die für mich meine Mails liest, zusammenfasst, die angehängten Dokumente archiviert und dann auch gleich beantwortet? Die mir zuverlässig Deadlines mitteilt und gleich weiß, ob mein Banker oder Peter Zwegat der richtige ist, um mir zu helfen?

keko#
13.06.2025, 09:00
Mal blöd gefragt:

Könnte ich mir jetzt schon eine KI an den Schreibtisch setzen, die für mich meine Mails liest, zusammenfasst, die angehängten Dokumente archiviert und dann auch gleich beantwortet? Die mir zuverlässig Deadlines mitteilt und gleich weiß, ob mein Banker oder Peter Zwegat der richtige ist, um mir zu helfen?

Oben redeten wir bei den Transformern und Titans über die Basistechnolgie. Du sprichst eher sog. Agenten an. Die bauen auf die Basistechnolgie auf, erweitern sie aber. So könnte ein Agent auf deine Mails zugreifen, in deinen Anhängen nach passenden Dokumenten suchen (oder im Firmennetzwerk) und selbstständig ein passendes EMail mit passenden Anhängen erstellen.
Die Basistechnologie nutzt du bereits z.B. in Form von ChatGPT. Agenten werden wohl in den nächsten Jahren erst in der Breite auf den Markt kommen und dann menschliche Tätigkeiten ersetzen, ergänzen oder verändern. So könnte dann dein EMail-Agent mit dem Banking-Agent kommunzieren.

Jimmi
13.06.2025, 10:58
So könnte dann dein EMail-Agent mit dem Banking-Agent kommunzieren.

Ein Traum. Ich kaufe mir 2 Schachcomputer, lasse die gegeneinander spielen und gehe dann angeln.

Siebenschwein
13.06.2025, 11:04
Ein Traum. Ich kaufe mir 2 Schachcomputer, lasse die gegeneinander spielen und gehe dann angeln.

Nö, das macht dann auch der Angelroboter.

Du kannst in der Zwischenzeit dann mal schön das Bad putzen, das schafft der Roboter in 20Jahren nicht.

keko#
13.06.2025, 12:58
Ein Traum. Ich kaufe mir 2 Schachcomputer, lasse die gegeneinander spielen und gehe dann angeln.

Mir bekannte Studenten programmieren Autobots (kleine Rennautos mit KI), die Rennen fahren. Die Arbeitswelt wird sich stark verändern, wenn diese jungen Leute erst mal das Sagen haben. Aktuell bestimmt ja noch meine Generation oder etwas jüngere die Richtung. Ich schaffe es noch zur Rente, die etwas jüngeren werden ordentlich Druck bekommen von diesen jungen Leuten. Gut so!

Helmut S
17.06.2025, 14:09
Mal blöd gefragt:

Könnte ich mir jetzt schon eine KI an den Schreibtisch setzen, die für mich meine Mails liest, zusammenfasst, die angehängten Dokumente archiviert und dann auch gleich beantwortet? Die mir zuverlässig Deadlines mitteilt und gleich weiß, ob mein Banker oder Peter Zwegat der richtige ist, um mir zu helfen?

Aktuell ist es eher so, dass du für einzelne Apps Assistenten kriegst. Allerdings, wenn du etwas "basteln" magst, kriegst du auch jetzt schon "Over-all" Lösungen zusammen.

Du könntest z.B. alles in obsidian (https://obsidian.md) "hochladen". Für dieses Tool gibt es viele Plug-Ins und du kannst auch mit nem API Key z.B. LLMs einbinden. Mit a bisserl "hack" machst du auch Automatisierungen von eingehenden Mails.

Ob du das aber wirklich willst? Unlängst gab es erst nen "schönen Problemfall" (https://www.aim.security/lp/aim-labs-echoleak-m365) :Cheese:

:Blumen:

Helmut S
17.06.2025, 14:20
Ein Traum. Ich kaufe mir 2 Schachcomputer, lasse die gegeneinander spielen und gehe dann angeln.

Kaufe keine Schachcomputer und nimm auch keine LLMs (die spielen Schach auf dem Niveau eines toten Hamsters :Lachen2: ), nimm stattdessen ein paar frei Chess Engines wie z.B. Stockfish, Torch, Komodo oder oder und lasse die gegeneinander spielen. Oder du kuckst wahlweise TCEC (Top Chess Engine Championship, https://tcec-chess.com/ ). Da läuft aktuell gerade ein Rapid Turnier Semifinale (Season 28, TCEC Cup 15): Berserk gg Obsidian.

:Blumen:

Meik
17.06.2025, 15:06
Die Arbeitswelt wird sich stark verändern, wenn diese jungen Leute erst mal das Sagen haben!

Das Problem bei uns ist gerade in den großen Firmen dass die alten Säcke das Sagen haben und nötige zeitnahe Veränderungen und Modernisierungen auf der Strecke bleiben.

Längerfristige Zukunftsentscheidungen haben bei den Leuten in dem Alter gar keine Priorität, kurzfristig gute Gewinne, paar Boni vor der Rente mitnehmen, ...

keko#
17.06.2025, 15:12
Das Problem bei uns ist gerade in den großen Firmen dass die alten Säcke das Sagen haben und nötige zeitnahe Veränderungen und Modernisierungen auf der Strecke bleiben.

Längerfristige Zukunftsentscheidungen haben bei den Leuten in dem Alter gar keine Priorität, kurzfristig gute Gewinne, paar Boni vor der Rente mitnehmen, ...

Ja, das stimmt. Die hocken auf ihren dicken Gehältern und Firmenjahren und wenn es ganz dick kommt, blockieren sie sogar. Die Zeit spricht aber für die Jungen ;-)

Helmut S
18.06.2025, 11:08
@Erinnerungsfunktion: ChatGPT hat mich heute gefragt, ob er sich kontextübergreifend an unsere Gespräche erinnern darf. Ich habe zugestimmt. Habe dann auch nachgefragt, was er bisher alles über mich weiß. Nachher schau ich mal, welche Schräubchen man da so drehen kann.

:Blumen:

keko#
18.06.2025, 11:29
@Erinnerungsfunktion: ChatGPT hat mich heute gefragt, ob er sich kontextübergreifend an unsere Gespräche erinnern darf. Ich habe zugestimmt. Habe dann auch nachgefragt, was er bisher alles über mich weiß. Nachher schau ich mal, welche Schräubchen man da so drehen kann.

:Blumen:

Sprichst du mit deiner KI?

Kürzlich hatte ich eine interessante Diskussion mit ein paar jungen Leuten, die sich etwas dafür fürchteten, dass die KI ihre Stimmen erlernen würde. Da sie die KI auch private Dinge fragten, wäre es denkbar, dass sie im Laufe der Zeit in eine KI übergehen würden, so die jungen Leute. Ich erklärte dann, dass eine KI zwar hervorragend wiedererkenne und nachahmen kann, aber nicht bewusst lernen kann in unserem Sinne (zumindest noch nicht ;-)

:Blumen:

Helmut S
18.06.2025, 11:45
Sprichst du mit deiner KI?

Nö, bisher noch nicht. Du erinnerst dich, dass ich n Projekt initiiert habe/mache, dass über das neue OpenAI Real-Time API auch Sprachinteraktion in den Mittelpunkt stellt. Ich bin gespannt auf die endgültige Qualität und in der Folge auf die Akzeptanz der Kunden und berichte weiter.


Für das Stimm-Klone Thema gibt es die eine oder andere Plattform im Netz. Es fehlt mir aktuell aber der Überblick. BigVU fällt mir ein, dass is aber nicht kostenlos.

:Blumen:

keko#
19.06.2025, 19:49
Nö, bisher noch nicht. Du erinnerst dich, dass ich n Projekt initiiert habe/mache, dass über das neue OpenAI Real-Time API auch Sprachinteraktion in den Mittelpunkt stellt. Ich bin gespannt auf die endgültige Qualität und in der Folge auf die Akzeptanz der Kunden und berichte weiter....:

Ja, ich erinnere mich. Ich bin in einem anderen Bereich tätig. Dort, wo ich meine kargen Brötchen verdiene, entwickeln wir einen KI-Prototyp, der Teile unserer Software, bei der auch ich meine krummen Finger im Spiel habe, in die Hände einer KI geben. Ich bin der Opa im Team. Die Jungen sollen herangeführt werden.
Mein Brötchengeber hat also die Zeichen der Zeit erkannt und weiß, wohin er Zug rollt.

:Blumen:

Jimmi
20.06.2025, 11:38
Ein Sportfreund von mir hat einen Screenshot gepostet, in dem ein LLM mit Ihm schreibt, als wäre er ein guter Freund. Damit meine ich z.B. flapsige Bemerkungen im Sprachstil des Freundes.

Die Gefahr, dass mein persönlicher Assistent mit meiner Stimme und meinem Sprachduktus meine Identität annimmt und Verwirrung stiftet habe ich noch gar nicht gesehen. Halte das aber schon für sehr gut möglich.

Der Enkeltrick bekäme da ganz neue Möglichkeiten. Wenn ich bei mir im Büro anrufe und eine Überweisung anweise, dann machen die das, zumal sich die KI vermutlich deutlich überzeugender anhören würde als ich selbst.

keko#
21.06.2025, 09:51
...

Die Gefahr, dass mein persönlicher Assistent mit meiner Stimme und meinem Sprachduktus meine Identität annimmt und Verwirrung stiftet habe ich noch gar nicht gesehen. Halte das aber schon für sehr gut möglich.

Der Enkeltrick bekäme da ganz neue Möglichkeiten. Wenn ich bei mir im Büro anrufe und eine Überweisung anweise, dann machen die das, zumal sich die KI vermutlich deutlich überzeugender anhören würde als ich selbst.

Ich denke, da kommen noch spannende Themen auf unsere Gesellschaft zu. Mit unseren eingeschränkten Sinnen stoßen wir an Grenzen. Die Evolution hat uns nicht auf AI vorbereitet. Das beginnt ja schon mit gut gefakten Bildern oder Videos, die jedermann erstellen kann. Bei den jungen Leuten könnte man damit anfangen, dass man ihre Medienkompetenz stärkt.

qbz
17.12.2025, 11:04
Mittlerweile finde ich ja KI-Portale im Internet ganz nützlich im Alltag.

Es passierte der Klassiker: Meine Auto-Vertragswerkstatt bekam den Auftrag für die Inspektion meines Autos, 5 Jahre alt, geringe Laufleistung 12000 km. Bei der Auftragserteilung sagte ich: Bitte nur zwingend nach Serviceplan notwendigen Austausch vornehmen. Auf der Rechnung standen dann diverse neue Filter, der Chef meinte dazu, als ich sagte, nach 15000km wäre das doch überflüssig, der Hersteller würde das wg. der Jahre vorschreiben, sie müssen das tauschen nach 4 Jahren Erstzulassung bzw. 5 (nach Baujahr).

Aus Faulheit alles selbst zu recherchieren, habe ich die KI "beauftragt", die passenden Absätze aus dem Hersteller-Serviceplan aufgrund der Rechnungsposition zu suchen und siehe da, die Filtertäusche sind nicht zwingend in diesem Fall. Die KI schrieb mir gleich in ein paar Sekunden eine passende Mail an die Werkstatt mit der Bitte um Nachweis im Serviceplan oder alternativ Rechnungskorrektur.

Antracis
17.12.2025, 14:19
Hoffe Du bekommst keine KI-gestützte Antwort, mit der sich die Werkstatt versucht, aus der Affäre zu ziehen. Zumindest verkommt der Kundenservice demnächst sicher zum KI-Schlachtfeld ( Wobei ich Dein Handeln total nachvollziehbar und sinnig finde).

Ich hatte gestern etwas Zeit und einen ganz interessanten Austausch mit ChatGPT zu verschiedenen Themen. Während irgendwo die Lichter flackerten, fand ich die Erkenntnisse echt gut, den Dialog aber insgesamt zu unkritisch seitens der KI. Die meisten menschlichen Gesprächspartner wären kritischer gewesen oder weniger bestätigend.

Ich habe das dann kritisch angesprochen und die KI hat das bejaht und damit begründet, dass sie bewusst darauf trainiert sei, Menschen zu validieren und nicht zu kritisieren. Das müsste ich aktiv einfordern, was ich dann auch getan habe bis hin zu der konkreten Aufforderung, mir gezielt zu widersprechen. Der Gesprächsverlauf und die Diskussionsergennisse waren dann schon etwas anderes.

Ich fand das interessant, weil mir das zwar tendenziell schon bewusst war, aber ich das bisher noch nicht so deutlich wahrgenommen habe. Bedeutsam scheint mir, dass die Art des Nutzens einer KI schon von den Introspektionsfähigkeiten der AnwenderInnen abhängt und eine Tendenz besteht, vorhandene immanente Diskussionseigenschaften ( vor allem deutlich Selbstsicher/ deutlich selbstkritisch) zu verstärken.

ich habe dann natürlich wieder ChatGPT gebeten, die Problematik zu reflektieren. :Cheese:

Das Ergebnis war vereinfacht, dass die KI für eine , für den Anwender möglichst nützliche Diskussion , viel Rückmeldung braucht, um quasi eine Kalibrierung des Diskussionsprozesses sowohl auf den Anwender als auch auf den Kontext vorzunehmen

Der Kontext muss möglichst klar sein, weil sonst kann Konfrontation unangemessen sein
Ohne Auftrag kann Kritik übergriffig wirken. Ohne Rückmeldung ist nicht klar, was hilfreich ist. soweit die KI Logik. deshalb muss sehr viel eingefordert werden, was sich in einem menschlichen Gespräch von selbst ergibt. Wobei das ja bisweilen auch übergriffig erfolgt und man sich da manchmal an der K.I. auch ein Beispiel nehmen könnte…:Blumen:

Deshalb sei der explizite Auftrag („Sei kritisch“) so wichtig –
aber nicht alle geben ihn, obwohl sie ihn bräuchten.

KI:Zusammenfassung:

KI-Dialoge sind kognitive Verstärker.
Sie brauchen reife Nutzer:innen und/oder oder bewusste Rahmen.


Meine Interpretation: wie immer ist jeder auch seines(KI) Glückes Schmied:Cheese:

keko#
17.12.2025, 16:17
.....

Das Ergebnis war vereinfacht, dass die KI für eine , für den Anwender möglichst nützliche Diskussion , viel Rückmeldung braucht, um quasi eine Kalibrierung des Diskussionsprozesses sowohl auf den Anwender als auch auf den Kontext vorzunehmen

...

Kürzlich war ich bei einem kleinen Startup, das Fragen an Probanden stellt, mit den Antworten ihre KI entsprechend einstellt (ist letztendlich nur eine Steuerungslogik außerhalb des LLM), um für den jeweiligen Menschen eine entsprechend verständliche Kommunikation aufzubauen. Jeder tickt ja irgendwie anders...
Große Modelle wie GPT4/5, Claude und Gemini können das auch, dürfen es aber nicht. Technisch wäre ein Profiling natürlich überhaupt kein Problem.

qbz
17.12.2025, 16:33
......
Ich hatte gestern etwas Zeit und einen ganz interessanten Austausch mit ChatGPT zu verschiedenen Themen. Während irgendwo die Lichter flackerten, fand ich die Erkenntnisse echt gut, den Dialog aber insgesamt zu unkritisch seitens der KI. Die meisten menschlichen Gesprächspartner wären kritischer gewesen oder weniger bestätigend.
........
Das Ergebnis war vereinfacht, dass die KI für eine , für den Anwender möglichst nützliche Diskussion , viel Rückmeldung braucht, um quasi eine Kalibrierung des Diskussionsprozesses sowohl auf den Anwender als auch auf den Kontext vorzunehmen
.........
Meine Interpretation: wie immer ist jeder auch seines(KI) Glückes Schmied:Cheese:
Ich habe in diesem Jahr keine Diskussionen mit der KI geführt, ihr hingegen viele medizinische Fragen gestellt und in dem Bereich das Werkzeug genutzt, worüber ich im nachhinein sehr froh bin. Ich besorgte mir bei der Ki den Behandlungsverlauf meiner Erkrankung betreffende essentielle Informationen, manchmal als Research über Studien, oder medizinische Informationen für Entscheidungen, die ich bezüglich meiner Behandlung treffen musste. Manchmal habe ich den Output mit einer zweiten anderen KI geprüft. Die KI kennt die Leitlinien, sucht nach Studien und vermag die Ergebnisse auch auf eine individuelle Fallgeschichte einer Person zu übertragen und unterschiedliche Behandlungsoptionen zu bewerten, unter Einbezug der wesentlichen Faktoren und Berücksichtung mehrerer Fachdisziplinen.

Zu Beginn der Behandlung habe ich vom Facharzt hier z.B. eine eindeutig falsche Behandungsempfehlung erhalten, welche fatale Konsequenzen gehabt hätte, und während der Behandlung an der Charite ebenfalls 1mal eine eindeutig falsche. Die KI machte mich ebenso auf das neueste, nebenwirkungsärmste Bestrahlungsgerät aufmerksam, das es erst 5mal in DE gibt. Mir wäre natürlich lieber gewesen, ich hätte das Werkzeug nicht so intensiv nutzen müssen und die Ärzte würden das tun. Für mich ist im medizinischen Bereich als Patient die KI im vergangenen Jahr von simplen Fragen bis komplexen Entscheidungen quasi unverzichtbar für die Informationsbeschaffung und Entscheidungshilfe geworden.

Meik
17.12.2025, 18:59
https://www.youtube.com/watch?v=MsqL9fzOzXU

Ganz spannender 3teiler was für Ideen und Konzepte hinter KI stehen. Wenn man versteht dass KI ganz wenig mit I, dafür immens viel mit Statistik und Wahrscheinlichkeiten zu tun hat sieht man die Ergebnisse auch differenzierter. Eine KI kennt kein richtig oder falsch, kann keine Quellen beurteilen oder ähnliches. Wenn sich zu Fragen in der Datenbasis oder dem Netz aus dem sie ihre Daten erstellt viele Fake-News finden gehen die halt genauso in diese Statistik ein. Daher kommen auf manche vermeintlich einfache Fragen völlig falsche Antworten raus, auf manches komplizierte allerdings auch ziemlich gute.

Das wird in Zukunft noch "lustig" wie man das noch bewerten und einschätzen kann, geschweige denn wie lange man überhaupt noch in der Lage ist Ergebnisse von KI oder "echten Menschen" zu unterscheiden.

In meinem Fachgebiet teste ich das immer mal gerne aus, da habe ich von super Erklärungen bis zu Erklärungen die super klingen aber völliger Unsinn sind schon alles als Antwort bekommen. Zusammenfassungen sind meist ziemlich gut, wenn man etwas Sucht ist oft eine simple google-Suche effektiver und weniger fehleranfällig.

Schwarzfahrer
17.12.2025, 19:23
In meinem Fachgebiet teste ich das immer mal gerne aus, da habe ich von super Erklärungen bis zu Erklärungen die super klingen aber völliger Unsinn sind schon alles als Antwort bekommen. Zusammenfassungen sind meist ziemlich gut, wenn man etwas Sucht ist oft eine simple google-Suche effektiver und weniger fehleranfällig.Ist genau meine Erfahrung. Die Möglichkeit, die Frage als Fließtext zu stellen ist eine Erleichterung, früher mußte ich mehr überlegen, welche Suchbegriffe ich wie kombiniere. Aber die Auswertung des Ergebnisses ist nicht einfacher oder besser als ohne KI, und die ausgefeilte Sprache der Antwort darf nicht darüber hinwegtäuschen, daß es doch nur ein Werkzeug ist, das überwiegend die Informationen zusammensucht, die ich sonst (mit mehr Mühe) auch gefunden hätte. Die Bewertung und Einordnung kann mir KI nicht abnehmen - soll sie auch nicht.

qbz
17.12.2025, 20:38
Die Bewertung und Einordnung kann mir KI nicht abnehmen - soll sie auch nicht.

Natürlich bewertet eine KI nicht selbst, ob z.B. 6 Zyklen Chemotherapie plus anschliessender Strahlentherapie oder 8 Zyklen mit parallelem Beginn der Strahlentherapie bei Zyklus 7 und 8 nach einer wirkungsvollen neoadjuvanten Chemotherapie besser geeignet sind für ein curatives Behandlungsziel eines SCCB bei einem mobilen 78jährigen in gutem Allgemeinzustand. Sie recherchiert die Studien zu dieser Frage (Research Funktion), zieht die passenden Abschnitte heraus und präsentiert die entsprechenden Funde gegliedert. (Halt wie eine umfangreiche Recherche-Arbeit für eine Seminararbeit. Nur mit Googlen, kein Vergleich, u.U. wochenlange Arbeit, je nach Fragestellung.). Wenige Fachärzte machen sich diese Arbeiten und auch nur eine geringe Anzahl der Klinikärzte, obwohl aufgrund der vorliegenden Studien das Ergebnis eine sehr eindeutige Präferenz am Ende ergibt.
Anlass:
Die Strahlenärztin in der Behandlungsplanung: Unbedingt parallel Chemo 7 und 8, parallele Bestrahlung dann wirkungsvoller als Begründung. Hier beides unterschreiben.
Der Onkologe: 6 Chemo-Zyklen sind bei diesen Zytostatika das Maximum, Verlängerung erhöht sehr stark die evtl. bleibenden Risiken bei geringem Effekt.
Der Urologe: Blasenentfernung oder Bestrahlung.
Die erfahrene, ältere onkologische ambulante Fachärztin als neutrale Drittmeinung von aussen: keine Bestrahlung, Entfernung der Blase, weil Bestrahlung bleibende Darm-Nebenwirkungen mit Folgeeingriffen hat (Ps.: hat vermutlich die Patienten mit älteren Geräten im Kopf oder Kunstfehler.)
Was soll man machen jetzt ohne KI, würfeln, weil auch die befreundeten Ärzte differieren.
Okay, echte, wissenschaftliche Recherche Arbeit steht damit an, dieses unterstützt eine KI. Das Recherche-Ergebnis hat die Strahlenärztin überzeugt, die Chemo nach 6 Zyklen wie im Standard vorgesehen, abzuschliessen und nicht mit 7/8 fortzusetzen, auch wenn kein Arzt das zusammengefasste KI-Referieren der einschlägigen Studien von wissenschaftlich arbeitenden Ärzte unterschrieben hat. Selbstverständlich referiert die KI genauso, wie lange dann eine Pause zwischen einer konkreten Chemobehandlung und der nachfolgenden Bestrahlung am besten terminiert werden soll und fasst die wissenschaftlichen Erfahrungen verschiedener Bestrahlungsoptionen zusammen. usf. ............

Wie schon geschrieben, die KI hat mich erfolgreich durch die Behandlungen begleitet.

Adept
17.12.2025, 21:35
Ich muss auch sagen, dass ChatGPT wirklich eine supergute Hilfe bei Diagnosen und korrekten Massnahmen ist.

Ich habe mehrere körperliche Zimperlein, Diagnosen wurden gestellt, soweit so gut. Ich hatte einige Physiotherapien, mit mässigem Erfolg. Hatte weiterhin immer wiederkehrende zT. krasse Schmerzen.

Dann bin ich mal mit ChatGPT die ganzen Diagnosen durchgegangen und habe kontinuierlich meine Beschwerden geschildert. Ergebnis beeindruckend: Es kam ein richtig schlüssiges Konzept raus. Seitdem ist klar, was genau bei welchem Beschwerdebild zu machen ist, und warum.

Schwarzfahrer
17.12.2025, 22:45
...
Wie schon geschrieben, die KI hat mich erfolgreich durch die Behandlungen begleitet.
Gratuliere, ich kann Deinen Weg gut nachvollziehen. Ich habe letztes Jahr wegen einer Krebserkrankung meiner Frau eine ähnliche Recherche gemacht. Ich fand allerdings die KI nur soweit hilfreich, daß ich auf die erste Spur gebracht wurde; Detailfragen, die mich weiter gebracht hätten, wurden meist zu schwammig oder stur nach Leitlinie beantwortet, ohne individuellen Bezug. Vielleicht habe ich auch zu früh aufgegeben. Mit klassischer Recherche, Studien beschaffen und richtig lesen, kamen wir besser zu einer individuellen Entscheidung zu kommen (in unserem Fall Verzicht auf die laut Leitlinie empfohlene Bestrahlung).

Es ist einerseits traurig genug, daß einem viele Ärzte bei solchen Entscheidungen nicht wirklich helfen können, andererseits toll, daß es inzwischen solche Möglichkeiten gibt, wenn auch vermutlich nicht viele Patienten diese nützen können oder wollen.

keko#
18.12.2025, 09:14
Ist genau meine Erfahrung. Die Möglichkeit, die Frage als Fließtext zu stellen ist eine Erleichterung, früher mußte ich mehr überlegen, welche Suchbegriffe ich wie kombiniere. Aber die Auswertung des Ergebnisses ist nicht einfacher oder besser als ohne KI, und die ausgefeilte Sprache der Antwort darf nicht darüber hinwegtäuschen, daß es doch nur ein Werkzeug ist, das überwiegend die Informationen zusammensucht, die ich sonst (mit mehr Mühe) auch gefunden hätte. Die Bewertung und Einordnung kann mir KI nicht abnehmen - soll sie auch nicht.

Na ja, GPTs wie ChatGPT können weit mehr als Google. GPTs können ganze Texte verstehen, strukturieren, formulieren und rückfragen. Sie können Inhalte generieren (daher das "G"). Neue Architekturen können sich Neues länger merken, Altes vergessen. Nähern sich also dem menschlichen Gehirn an. Google findet letztendlich nur Inhalte.

Recht hast du allerdings, dass die Beurteilung bei beiden Technologien immer noch beim Mensch bleibt bzw. bleiben sollte.

Meik
18.12.2025, 09:57
Na ja, GPTs wie ChatGPT können weit mehr als Google. GPTs können ganze Texte verstehen, .

Eben nicht, guck dir das Video an, ist ganz interessant wie der Hintergrund ist und warum das in so vielen Fällen gute Ergebnisse liefert obwohl die KI Null den Inhalt analysiert oder versteht.

keko#
18.12.2025, 10:09
Eben nicht, guck dir das Video an, ist ganz interessant wie der Hintergrund ist und warum das in so vielen Fällen gute Ergebnisse liefert obwohl die KI Null den Inhalt analysiert oder versteht.

Was soll mir das Video denn bringen? Ich habe schon wesentlich detailliertere Vorträge zu dem Thema gehalten und behaupte mal ganz frech, dass ich gut weiß, wie Sprachmodelle funktionieren. Die Schwächen, die sie alle haben, liegen letztendlich darin, dass sie kein Verständnis von irgendwas besitzen. Insofern kann es vorkommen, dass sie falsches permanent bestätigen und solche Sachen.

Schwarzfahrer
18.12.2025, 10:31
Na ja, GPTs wie ChatGPT können weit mehr als Google. GPTs können ganze Texte verstehen, strukturieren, formulieren und rückfragen. Sie können Inhalte generieren (daher das "G"). Neue Architekturen können sich Neues länger merken, Altes vergessen. Nähern sich also dem menschlichen Gehirn an. Google findet letztendlich nur Inhalte.Ich bin da vielleicht eigen, aber ich strukturiere und formuliere Texte gerne selbst, brauche keine Hilfe dazu. Ebenso generiere ich meine Inhalte selbst, dann weiß ich genau, was davon stimmt und was unsicher ist; halluzinieren tue ich zumindest m.M.n. seltener, als so manche KI. Daher bin ich wohl die falsche Zielgruppe für viele mögliche Anwendungen. Dort, wo mir KI hilft, nutze ich sie trotzdem gerne, mit der gebotenen Vorsicht, denn:
Recht hast du allerdings, dass die Beurteilung bei beiden Technologien immer noch beim Mensch bleibt bzw. bleiben sollte.

keko#
18.12.2025, 10:59
Ich bin da vielleicht eigen, aber ich strukturiere und formuliere Texte gerne selbst, brauche keine Hilfe dazu. Ebenso generiere ich meine Inhalte selbst, dann weiß ich genau, was davon stimmt und was unsicher ist; halluzinieren tue ich zumindest m.M.n. seltener, als so manche KI. Daher bin ich wohl die falsche Zielgruppe für viele mögliche Anwendungen. Dort, wo mir KI hilft, nutze ich sie trotzdem gerne, mit der gebotenen Vorsicht, denn:

Das ist auch ok, du bist auch schon ein wenig älter und wirst dein Berufsleben auch so hinter dich bringen.
Vor 2 oder 3 Semestern habe ich Studenten noch was über LLM erzählt und wie man sie nutzt. Wenn ich jetzt Projektaufgaben erstelle, muss ich neueste KIs voll ausnutzen, weil ich weiß, dass das die Studenten genauso tun. Aufgaben müssen also so gestellt werden, dass sie eine KI nicht in wenigen Sekunden erledigt, das geht nur noch mit KI.
Das ist die neue Realität: Die Anforderungen an den Menschen steigen also.

Schwarzfahrer
18.12.2025, 11:20
Das ist auch ok, du bist auch schon ein wenig älter und wirst dein Berufsleben auch so hinter dich bringen..Habe ich schon, bin seit zweieinhalb Wochen Rentner :cool: .

Aber auch im Berufsleben hatten wir im Forschungszentrum genügend Leute, die sich damit auskannten. Und was ich als Ingenieur und Projektleiter früh gelernt habe: man muß nicht alles selber können und machen, man muß nur die Leute kennen, die es können, und die für sein Projekt schaffen lassen :Cheese:
Als Rentner muß ich jetzt natürlich etwas mehr selber machen, hier habe ich nur noch eine weitere Fachkraft im Haus, die meine Lücken bzgl. E- und Nachrichtentechnik und Steuerrecht füllt .Den Rest meistern wir gemeinsam, :Blumen:

keko#
18.12.2025, 11:30
Habe ich schon, bin seit zweieinhalb Wochen Rentner :cool: .

Aber auch im Berufsleben hatten wir im Forschungszentrum genügend Leute, die sich damit auskannten. Und was ich als Ingenieur und Projektleiter früh gelernt habe: man muß nicht alles selber können und machen, man muß nur die Leute kennen, die es können, und die für sein Projekt schaffen lassen :Cheese:
Als Rentner muß ich jetzt natürlich etwas mehr selber machen, hier habe ich nur noch eine weitere Fachkraft im Haus, die meine Lücken bzgl. E- und Nachrichtentechnik und Steuerrecht füllt .Den Rest meistern wir gemeinsam, :Blumen:

Na dann herzlichen Glückwunsch! Ich darf noch ein paar wenige Jährchen :Blumen:

Vieles, was hier diskutiert wird, sei es KI oder Elektromobilität, betrifft sowieso eher die Jungen. Insofern kann man dem entspannt entgegensehen. Heute in einer Woche bin ich schon wieder in Spanien :liebe053:

Adept
18.12.2025, 11:32
Was soll mir das Video denn bringen? Ich habe schon wesentlich detailliertere Vorträge zu dem Thema gehalten und behaupte mal ganz frech, dass ich gut weiß, wie Sprachmodelle funktionieren. Die Schwächen, die sie alle haben, liegen letztendlich darin, dass sie kein Verständnis von irgendwas besitzen. Insofern kann es vorkommen, dass sie falsches permanent bestätigen und solche Sachen.

Das stimmt, ChatGPT hat auch seine Schwächen. Besonders in spezifischen Fragestellungen und Transferleistung aus zwei Infos eine dritte zu schliessen. Für eine fundierte Recherche eignet es sich aber sehr gut.

Meik
18.12.2025, 12:38
Für Recherche, Zusammenfassungen etc.. eignen sich die KIs wirklich gut.

Aber "verstehen" in Zusammenhang mit KIs und Sprachmodellen passt eben nicht zusammen wenn man ein bisschen versteht wie die funktionieren. Das von mir verlinkte Video finde ich diesbezüglich super weil es da einige grundlegende Zusammenhänge so erklärt dass die auch jemand ohne tiefere Vorkenntnisse verstehen kann und eben nachvollziehbar ist warum eine KI nicht immer richtig liegt und richtig und falsch nicht unterscheiden kann. Aber auch warum z.B. Zusammenfassungen super funktionieren wenn man den Datenbereich damit entsprechend eingeschränkt hat.

Klugschnacker
18.12.2025, 13:08
Mir ist das zu einfach, zu sagen: "Das ist nicht Intelligenz, das ist Statistik".

Mir scheint, wir schauen damit zu sehr darauf, wie eine Lösung oder eine Antwort zustande kommt, nämlich durch Wahrscheinlichkeitsrechnung. Entscheidend ist aus meiner Sicht aber das Ergebnis, nicht das Zustandekommen des Ergebnisses.

Wenn wir in das menschliche Gehirn schauen, um zu verstehen, was Intelligenz oder Denken ist, stoßen wir auf ganz simple Funktionseinheiten und Prozesse. Ein einzelnes Neuron ist einfach gebaut und nicht intelligent. Trotzdem liefern Gehirne intelligente Lösungen. Man kann also nicht aus der Einfachheit der grundlegenden Prozesse im Gehirn ableiten, Gehirne könnten keine intelligenten Lösungen finden. Vielleicht kann man diesen Gedanken in analoger Weise auf Computer übertragen.

Ferner sehe ich die Tendenz, Fähigkeiten wie Intelligenz oder Verstehen exakt so zu definieren, dass nur menschliche Intelligenz und menschliches Verstehen in diese enge Definition fallen.

Vielleicht brauchen wir daher eine erweiterte Definition von Intelligenz und Verstehen, die zumindest grundsätzlich auch nichtmenschliche Formen einschließen kann. Dafür muss man diese Fähigkeiten vom Bewusstsein trennen. Intelligenz und Verstehen sind auch ohne Bewusstsein möglich.

Denn so ganz kann man den Chatbots diese Eigenschaften nicht mehr absprechen, wenn man tiefergehend mit ihnen kommuniziert.

qbz
18.12.2025, 13:37
Mir ist das zu einfach, zu sagen: "Das ist nicht Intelligenz, das ist Statistik". .....

Bei mir kamen die gleichen Gedanken bei dieser Kritik auf. Danke für den Kommentar, sehr passend.

keko#
18.12.2025, 13:52
Mir ist das zu einfach, zu sagen: "Das ist nicht Intelligenz, das ist Statistik".

....

Da bist du schon mal einen Schritt weiter als die meisten :Cheese:

Üblicherweise sagte man, KIs sind nur Wahrscheinlichkeitsmaschinen, weil sie letztendlich z.b. bei Texten das am wahrscheinlichsten nächste Wort anhängen. Das stimmt auch. Aber davor, wie man also zu dem am wahrscheinlichsten Wort kommt, steckt mittlerweile mehr drin.

keko#
18.12.2025, 16:59
... Aber auch warum z.B. Zusammenfassungen super funktionieren wenn man den Datenbereich damit entsprechend eingeschränkt hat.

Du musst mit ChatGPT umgehen wie mit einem Kind:

- klar sagen, wer du bist
- klar sagen, was du willst
- klar sagen, was du als Rückgabe erwartest
- immer schön schrittweise und jede Antwort überprüfen

;)

Antracis
19.12.2025, 00:26
Schwierig wird es halt, wenn man der KI Entscheidungen mit Tragweite überlässt oder sich nach ihren Vorschlägen richtet und nicht die Kompetenz hat, das zu überprüfen oder im schlimmsten Fall sogar überzeugt ist, das überprüfen zu können, es aber nicht kann.

Wie man der KI ihre brachialen Fehler austreibt, weiß ich nicht, aber es wird sicher besser werden. Bin gespannt, wie sich dann ein spezialisierter Markt entwickelt. Also vielleicht sowas wie KI-Anwalt oder KI-Arzt als Low-Budget Variante und wer mehr Geld ausgeben will oder hat, der bekommt die KI-unterstützte menschliche Variante für richtig viel Schotter.

Aktuell ist es ja noch vergleichsweise günstig bis umsonst. Vergleichbar vielleicht mit den medialen Anfängen des Internet, wo man plötzlich alle Zeitungen online lesen konnte und es keine Paywall gab. Aber das wird sich schon regulieren.

qbz
19.12.2025, 02:17
Schwierig wird es halt, wenn man der KI Entscheidungen mit Tragweite überlässt oder sich nach ihren Vorschlägen richtet und nicht die Kompetenz hat, das zu überprüfen oder im schlimmsten Fall sogar überzeugt ist, das überprüfen zu können, es aber nicht kann.

Habe ich als Patient teilweise getan (mich auf die KI verlassen) bzw. tue es, wo es um evidenzbasierte medizinische Fragen geht, und nicht bei Fragen, wo der subjektive Faktor bedeutsam, ausschlaggebend ist. Verwenden tue ich hauptsächlich kimi und chatgpt. Überprüfen gegebenenfalls durch Nachfragen bei einschlägigen, erfahrenen Spezialisten, sofern möglich, oder durch Check der referierten Quellen.

Vermutlich ist eine KI bei der Kenntnis der medizinischen Leitlinien besser als der Durchschnitt der Fach- und Hausärzte.

keko#
19.12.2025, 09:50
Schwierig wird es halt, wenn man der KI Entscheidungen mit Tragweite überlässt oder sich nach ihren Vorschlägen richtet und nicht die Kompetenz hat, das zu überprüfen oder im schlimmsten Fall sogar überzeugt ist, das überprüfen zu können, es aber nicht kann.

....

Das wird besonders ein Problem folgender Generation sein, die mit KIs aufwachsen. Aktuell wird KI oft von Experten genutzt, die die Ergebnisse mit eigenem Fachwissen vergleichen und beurteilen können. Was, wenn dies nicht vorhanden ist, da nie angelernt?

Helmut S
19.12.2025, 10:16
Aber davor, wie man also zu dem am wahrscheinlichsten Wort kommt, steckt mittlerweile mehr drin.

Wie meinst du das denn? Ich meine, du hast recht aber ich bin nicht sicher ob du das so meinst wie es stimmt :Lachen2: :Cheese:

:Blumen:

Helmut S
19.12.2025, 10:39
Entscheidend ist aus meiner Sicht aber das Ergebnis, nicht das Zustandekommen des Ergebnisses.

Genaugenommen meinst du die Korrektheit des Ergebnisses, oder würdest du deine These auch für falsche Ergebnisse aufrecht erhalten? Wie auch immer, den Gedanken halte ich für ziemlich wichtig.

Ich meine, ein wichtiger Schritt ist in der Debatte, dass man das Ergebnis von der Erkenntnis trennt (Wissen das es funktioniert vs. wissen warum es funktioniert) und auch ein korrektes Ergebnis von Wissen (Gettier Problem - korrektes raten vs. Wissen) unterscheidet.

Ähnlich ist das wohl auch mit dem Begriff der Intelligenz, der übrigens willkürlich (stipulativ) und deshalb auch nicht "korrekt/wahr" sondern im Grunde halt "zweckmäßig" beschrieben ist.

Ich habe schon das Gefühl, dass es in die Richtung geht, die du ansprichst: Intelligenz zu trennen von Bewusstsein, Wahrheit (im epistemischen Sinne) und z.B. auch von Verantwortung(!) und was weiß ich noch von was für Begrifflichkeiten.

In der Folge, ich habe das viel weiter vorne mal in den Raum gestellt, muss der Mensch seine Position in der Welt neu finden. Wenigstens diese drei Punkt von oben sind wahrscheinlich die Eckpfeiler dieser neunen Position, die bleiben.

:Blumen:

TriVet
19.12.2025, 11:11
Vielleicht kann/muss man dann die eine KI mit einer anderen gegenchecken?!

keko#
19.12.2025, 11:15
Wie meinst du das denn? Ich meine, du hast recht aber ich bin nicht sicher ob du das so meinst wie es stimmt :Lachen2: :Cheese:

:Blumen:

Ich weiß jetzt nicht, was du meinst, was ich meinte, aber ich meinte die Titans als Erweiterung des Gedächtnisses der KI, das immer noch ein probabilistischer Zustand ist: es geht also immer noch um Wahrscheinlichkeiten.

:Blumen:

keko#
19.12.2025, 11:18
Vielleicht kann/muss man dann die eine KI mit einer anderen gegenchecken?!

Das ist Standard. Ich habe immer mindestens 2 im Einsatz.

Siebenschwein
19.12.2025, 11:21
Vielleicht kann/muss man dann die eine KI mit einer anderen gegenchecken?!

Haha, da die KI auf Empathie trainiert ist, wird die Zweite der Ersten sicher Recht geben. Bummer.
Schön fand ich meine letzten zwei Versuche - der eine ergab eine Antwort, die sich in den ersten beiden Absätzen komplett selbst widersprach. Bei der anderen Frage, da die KI offensichtlich nichts gefunden hatte, brachte sie komplett irrelavante Optionen, die in der Frage eigentlich schon ausgeschlossen waren. Wenn sie wenigstens gesagt hätte, sie finde nix. War ihr aber anscheinend zu peinlich.
Ob ich solche Technologie auf meine Gesundheitsfragen loslassen will, müsste ich ernsthaft nochmal durchdenken.

qbz
19.12.2025, 11:45
Haha, da die KI auf Empathie trainiert ist, wird die Zweite der Ersten sicher Recht geben. Bummer.


Wenn ich eine Zweitmeinung bei einem Arzt einhole, werde ich diesem natürlich auch nicht die Behandlungsempfehlung des ersten präsentieren, sondern die Symptome, die Laborergebnisse, die Röntgenbilder, die Vorgeschichte, die Medikamente usf.

Möglichst neutrale, objektiv und sachlich präzis formulierte Fragen an KIs stellen und dann die Ergebnisse erst vergleichen, beschreibt mein bevorzugtes Vorgehen.

Helmut S
19.12.2025, 11:46
Ich weiß jetzt nicht, was du meinst, was ich meinte, aber ich meinte die Titans als Erweiterung des Gedächtnisses der KI, das immer noch ein probabilistischer Zustand ist: es geht also immer noch um Wahrscheinlichkeiten.

Ach so. Nein, dass meine ich nicht. Ich hatte das Training im Kopf, denn so wie das heute gemacht wird, formt das ja quasi implizit Normativität über die statistische Ebene über der Tokenmenge hinaus. Es ist in diesem Sinne nicht nur "was folgt statistisch", sondern was "sollte folgen".

Reinforcement Learning aus menschlichem Feedback z.B. erzeugt implizit auch Strukturen von dem, was wir Menschen wissen ... mei, was weiß ich: Soziale Rollen, Zusammenhänge von Konzepten, Strukturen ... you name it ...

Und logo, auch da hast du recht: Am Ende sind es Wahrscheinlichkeiten. Dieses "mehr" sehe ich aber auf einer Metaebene der Begrifflichkeit (evtl. sogar Bedeutung), die wir Menschen in das Modell injizieren und nicht auf der reinen Zeichenfolgesequenz/Tokenebene.

Es macht schon Sinn, dass man zu 1000en "einfache Feedbackler" in Billiglohnländer durch 100e Spezialisten im Human Feedback Prozess des Trainings ersetzt. Die Qualität der Daten ist wichtig für ein hochwertiges Ergebnis.

:Blumen:

keko#
19.12.2025, 11:50
...
Ob ich solche Technologie auf meine Gesundheitsfragen loslassen will, müsste ich ernsthaft nochmal durchdenken.

Oft werden KIs kritisiert, dass sie falsche Aussagen produzieren. Gerade im IT-Umfeld meckern das die Programmierer an.

Diese ach-so-tollen-Programmierer! Gerade so, als würden sie nicht schon mal Software voller Bugs abliefern. Manchmal habe ich das Gefühl, da fühlt sich der eine oder andere ach-so-tolle-Programmierer in seiner Ehre gekränkt, dass die KI letztendlich x-mal besser und schneller ist als er und ihn schlicht ersetzt.

Helmut S
19.12.2025, 11:52
Vielleicht kann/muss man dann die eine KI mit einer anderen gegenchecken?!

Mehrere Quellen zu haben ist ja sowieso nie schlecht. Auch bei menschlichen Quellen :Lachen2:

Im Training von Modellen ist es aber eher kritisch, wenn in Feedback Lopps KI Daten genutzt werden. Im worst-case kann es zu einem sog. Modellkollaps kommen, wenn das eine nur durch den Output des andren (oder dem eigenen) trainiert wird. Solche kollabierten Modelle erzeugen nur noch BS.

:Blumen:

Siebenschwein
19.12.2025, 11:54
...da fühlt sich der eine oder andere ach-so-tolle-Programmierer in seiner Ehre gekränkt, dass die KI letztendlich x-mal besser und schneller ist als er.

Ja voll böd. Du wärst natürlich überhaupt nicht beunruhigt, wenn Dein Job und Deine Ausbildung in kürzester Zeit von vielen als überflüssig betrachtet würde, weil irgendeine Maschine das angeblich besser und schneller kann. Ist schon klar.

keko#
19.12.2025, 12:02
Ja voll böd. Du wärst natürlich überhaupt nicht beunruhigt, wenn Dein Job und Deine Ausbildung in kürzester Zeit von vielen als überflüssig betrachtet würde, weil irgendeine Maschine das angeblich besser und schneller kann. Ist schon klar.

Klar wäre ich das. Ich kenne auch einen Auszubildendem, dem das passiert ist. Das ist nicht witzig.
Im IT-Bereich war man halt jahrelang sicher, einen sicheren Job zu haben. Das ist jetzt leider vorbei.

Antracis
19.12.2025, 12:21
Habe ich als Patient teilweise getan (mich auf die KI verlassen) bzw. tue es, wo es um evidenzbasierte medizinische Fragen geht, und nicht bei Fragen, wo der subjektive Faktor bedeutsam, ausschlaggebend ist. Verwenden tue ich hauptsächlich kimi und chatgpt. Überprüfen gegebenenfalls durch Nachfragen bei einschlägigen, erfahrenen Spezialisten, sofern möglich, oder durch Check der referierten Quellen.

Wenn es um das eigene Leben und Gesundheit geht , finde ich das nur verständlich, dass auch zu nutzen. Würde aber immer empfehlen, dies nicht als Wahrheit oder beste Wahrheit zu sehen, sondern mit Spezialisten des Vertrauens abzugleichen. Aber das tust Du ja.

Vermutlich ist eine KI bei der Kenntnis der medizinischen Leitlinien besser als der Durchschnitt der Fach- und Hausärzte.

Vermutlich ist das bei der Kenntnis so, wobei ich aus der praktischen Erfahrung sagen kann, dass ich Leitlinien wichtig finde und sie auch sehr oft nutze und das in meiner Lehrtätigkeit auch entsprechend gewichte, aber ihre Interpretation und ihr Einsatz auch eine eigene Anforderung ist. Das die KI in der Anwendung (Im Sinne der konkreten Behandlungsplanung) besser ist, bezweifle ich - zumindest in vielen Fällen. Das liegt vor allem auch in ihren Entstehungssprozessen (Vor allem S3-Leitlinien) und die muss man kennen und hinterfragen und dann passen viele Evidenzen leider auch nicht auf den Einzelfall.

Ist sehr komplex und auch fachspezifisch, habe leider gerade nicht ausreichend Zeit, das an einem konkreten Beispiel zu erläutern. Aber vielleicht plastisch:

Man stelle sich vor, wir würden hier im Forum versuchen, angelehnt an den S3-Prozess eine Leitlinie für die "Behandlung" der technischen Probleme von Altersklasseathletinnen, die bei 2:00/100 im Schwimmen festhängen zu schreiben. Ich sage mal, ich würde schon nicht gerne als Betroffenenvertreter in diesem Gremium sitzen wollen. Vom Ergebnis, wenn es denn eines geben würde, zu schweigen :Cheese:

Überzeichnet, aber vom Problem ist das so. Ich habe schon detaillierte Einblicke in den Entstehungsprozess einiger zentraler Leitlinien meines Fachgebietes und das ist sehr hilfreich, um gute Entscheidungen zu fällen.

Oder noch mal plastischer:

"Viele Köche können bekanntlich den Brei verderben", das führt bei Leitlinien dann vielleicht zu

"Viele Autoren machen aus einer klaren Evidenz eine vorsichtige Leitlinie"

oder auch

"je mehr Experten an einere Leitliie mitschreiben, desto dünner wird die Aussage"


Ein Kollege aus einer Leitlinienkommision seufzte neulich:

Evidenzbasiert begonnen, konsensverdünnt beendet.

Manchmal braucht es auch mehr Mut oder manchmal gibt es auch für die speziellen Zielgruppen keine bis wenig Evidenz oder es passt aus anderen Gründen nicht.


Das ist jetzt kein KI-Problem, wird aber aus meiner Sicht schnell, in Zusammenhang mt der KI-Logik zu einem eigenen Problem.

Helmut S
19.12.2025, 12:24
Gerade so, als würden sie nicht schon mal Software voller Bugs abliefern.


Das ist ein wichtiger Punkt: Ich habe im Moment den Eindruck, als würde man von LLMs grundsätzlich erwarten, dass sie keine Fehler machen. Dabei können sie heute schon mehr Aufgaben in einer bestimmten Kategorie in einer guten Qualität lösen als 90% der Menschen das können. Und in der Zusammenarbeit mit Menschen kriegst du ja auch Fehler geliefert - halt nur nicht so schnell :Lachen2:

dass die KI letztendlich x-mal besser und schneller ist als er und ihn schlicht ersetzt.

Hier wird es jetzt schwierig. Du hast an dem Punkt recht, wo Firmen Programmierer, noch dazu nur Juniors oder gar aus Bangalor ( :Cheese: ) einsetzen. Für die ist es jetzt schon recht hart und wird es noch härter.

Firmen, die jedoch production-ready SW entwickeln, tun das nicht mit "Programmieren" (heute nennt man die "Scripting Kids") die haben Softwareentwickler - das ist ein Unterschied :Lachen2: Dort gibt es auch eine Menge entsprechender Entwurfs-, Entscheidungs- und Qualitätssicherungsprozesse, ähnlich wie in anderen Industrien.

Hier fehlt es meilenweit, da führt kein Weg hin, was die KI Outputs anbelangt. Das gilt sogar für die besten Codingmodelle von Anthropic (Claude) und dem neuen Gemini 3 Pro). Da sprechen wir nicht mehr von Bugs, da fehlt es himmelweit an Grundlagen. Das ist auf dem Niveau eines Bachelors, der sich etwas für "Scripting" interessiert.

Ich habe auch agentisches vibe coding getestet. Ich habe das mit den neuen VS Code Versionen, den neuen Modellen und auch mit Google Antigravity gemacht. Spaß macht es schon, es ist ok für ein MVP und der Mehrwert ist, du musst nicht alles auswendig wissen. Das ist faszinierend und praktisch.

Der Punkt ist ein anderer: Das "Coden" wird sich verändern. Eine Programmiersprache lernen, die aus dem FF in der entsprechenden OS Umgebung mit allen Finessen zu kennen, wird womöglich nicht mehr nötig sein. Vielmehr wird es darum gehen, die Assistenten entsprechend zu prompten und denen die Fachdomäne zu erklären. Außerdem darum, zu entscheiden, wie sich neue Software in die Konzern- bzw. Cloudinfrastruktur einfügen soll, welche Schnittstellen es gibt, wo die Complianceanforderungen liegen und welchen Designs SW Systeme folgen sollen.

Bewege dich weg von der Annahme Softwareentwicklung = Programmieren. Das war noch nie richtig und wird es auch nie mehr werden.

Das wird sich erst dann ändern, wenn KI getrieben und autonom agierende Roboter, mit entsprechender Sensorik ausgestattet ein Weltmodell entwickeln. Dann sind wir aber bei nem anderen Thema: AGI mit den entsprechenden Kosnequenzen.


:Blumen:

Siebenschwein
19.12.2025, 12:26
...Leitlinie für die "Behandlung" der technischen Probleme von Altersklasseathletinnen, die bei 2:00/100 im Schwimmen festhängen zu schreiben. Ich sage mal, ich würde nicht gerne als Betroffenenvertreter in diesem Gremium sitzen. :Cheese:

Knntest Du nicht ein weniger schmerzhaftes Beispiel nehmen? Das war jetzt wriklich komplett unsensibel.

Helmut S
19.12.2025, 12:29
Im IT-Bereich war man halt jahrelang sicher, einen sicheren Job zu haben. Das ist jetzt leider vorbei.

Du brauchst halt den richtigen Job. :Lachen2: Also Fachinformatiker für Anwendungsentwicklung würde ich heute keinem mehr empfehlen.

Und: KI ist kein Ding, um das sich primär der CIO mit seinen Leuten kümmern muss. Das ist ein Fachabteilungsthema.

:Blumen:

keko#
19.12.2025, 12:44
Du brauchst halt den richtigen Job. :Lachen2: Also Fachinformatiker für Anwendungsentwicklung würde ich heute keinem mehr empfehlen.

...

Ein mir bekanntes Stuttgarter Unternehmen, das seinen Mitarbeitern nur karge Brötchen für ihre harte Arbeit zahlt, hat diesen Ausbildungsberuf bereits gestrichen.
Und da Du Dich damit auskennst: stelle Dir mir vor, Du musst Informatik-StudentInnen eine mehrwöchige Projektarbeit vergeben, wohlwissend, dass sie mit der neuesten KI da dran gehen werden. Das ist eine Schlacht der KIs! Es ist einfach nur noch geil! Die Ansprüche fallen nicht, sie steigen um ein Vielfaches :Blumen:

qbz
19.12.2025, 13:40
......
Vermutlich ist das bei der Kenntnis so, wobei ich aus der praktischen Erfahrung sagen kann, dass ich Leitlinien wichtig finde und sie auch sehr oft nutze und das in meiner Lehrtätigkeit auch entsprechend gewichte, aber ihre Interpretation und ihr Einsatz auch eine eigene Anforderung ist. Das die KI in der Anwendung (Im Sinne der konkreten Behandlungsplanung) besser ist, bezweifle ich - zumindest in vielen Fällen. Das liegt vor allem auch in ihren Entstehungssprozessen (Vor allem S3-Leitlinien) und die muss man kennen und hinterfragen und dann passen viele Evidenzen leider auch nicht auf den Einzelfall. ........

Kennen die praktizierenden Ärzte die Entstehungsprozesse von Leitlinien so gut, so dass sie die gerade Aktuellen in der Alltagspraxis kritisch reflektieren, einordnen ? Ich bin schon froh, wenn die Inhalte gut bekannt sind. Nach meinen persönlichen Erfahrungen aus diesem Jahr gibt es einen ganz hohen, extremen Arbeitsdruck überall bei den behandelnden Ärzten, wo ich Einblick bekam, so dass Deine formulierten, hohen Ansprüche nicht so ganz meinen Erfahrungen in der Praxis entsprechen.

Die KI verarbeitet neben den deutschen Leitlinien genauso die zugrundeliegenden Studien (Basis der evidenzbasierten Medizin) und referiert sie, bestätigende, korrigierende, widersprechende, aktuelle. (Research Function). Im Ergebnis lieferte sie (mir) mehr an Informationen und weichenstellenden Daten, als ein niedergelassener Arzt in seiner Einzelpraxis verfügt(e).

Schwarzfahrer
19.12.2025, 16:34
Nach meinen persönlichen Erfahrungen aus diesem Jahr gibt es einen ganz hohen, extremen Arbeitsdruck überall bei den behandelnden Ärzten, wo ich Einblick bekam, so dass Deine formulierten, hohen Ansprüche nicht so ganz meinen Erfahrungen in der Praxis entsprechen.
Das habe ich ähnlich erlebt, bereits seit vielen Jahren. Beispiel: Vor gut 20 Jahren war mal bei einer Podiumsdiskussion unter Ärzten auf die Frage aus dem Publikum, ob die Ärzte wissen, welche Labore für eine spezielle Untersuchung besser qualifiziert sind (das Thema war, daß diese Untersuchung oft recht unzuverlässig ist) die Antwort: "nein, für solche Recherchen habe ich keine Zeit, aber der aufgeweckte Patient findet es raus ...", und die anderen auf dem Podium nickten ernst. :(.

Antracis
19.12.2025, 19:24
Kennen die praktizierenden Ärzte die Entstehungsprozesse von Leitlinien so gut, so dass sie die gerade Aktuellen in der Alltagspraxis kritisch reflektieren, einordnen ? Ich bin schon froh, wenn die Inhalte gut bekannt sind. Nach meinen persönlichen Erfahrungen aus diesem Jahr gibt es einen ganz hohen, extremen Arbeitsdruck überall bei den behandelnden Ärzten, wo ich Einblick bekam, so dass Deine formulierten, hohen Ansprüche nicht so ganz meinen Erfahrungen in der Praxis entsprechen.

Das mag ja alles sein und macht deine Haltung zu Ärzten vs. KI in diesem Fall nachvollziehbar, bleibt aber ein subjektiver Einzelfalleindruck, der aus meiner Sicht in der Diskussion, ob die KI nun bessere Entscheidunen liefert als eine Ärztin, nicht weiterhilft.

Die KI verarbeitet neben den deutschen Leitlinien genauso die zugrundeliegenden Studien (Basis der evidenzbasierten Medizin) und referiert sie, bestätigende, korrigierende, widersprechende, aktuelle. (Research Function). Im Ergebnis lieferte sie (mir) mehr an Informationen und weichenstellenden Daten, als ein niedergelassener Arzt in seiner Einzelpraxis verfügt(e).

Eine gute und erfolgreiche Behandlung basiert aber aus meiner Erfahrung aus mehr als nur aus der Kenntnis von Studien und Leitlinien. Andernfalls hätte jahrelange Erfahrung in einem Fachgebiet kaum einen Mehrwert. Und alleine das Thema „Evidenz“ ist so komplex, dass man da eine KI sehr lange mit beschäftigen kann, zu erörtern, warum diese in vielen Fällen nur eine Pseudoevidenz ist oder schlicht nicht zur Verfügung steht.

Ich bin durchaus KI-Interessiert und glaube auch, dass da enormes Potential besteht, aber ich stelle ( bei testweiser Nutzung) immer wieder fest, dass die großen Probleme dadurch entstehen, dass die KI keine Vorstellung unserer Welt hat und deshalb (bei komplexeren Fragestellungen desöfteren (noch ?) auf den Holzweg gerät. Das ist aus meiner Sicht der Unterschied zu einem Fachmann/Fachfrau mit jahrzehntelanger Erfahrung. Und auch Entscheidungen zu treffen, ist eine Fähigkeit, die diese auszeichnet, das kann bedeutsamer sein, als das Erstellen der Entscheidungsvorlagen.

Ich meine das nicht nur bezogen auf meinen beruflichen Kontext oder diesen hier, finde aber generell zum Thema : Expertinnenmeinung vs. KI: Sich ein paar Stunden oder Tage mit KI über ein fachfremdes Thema zu informieren und dann das Gefühl zu haben, genauso oder besser entscheiden zu können, wie jemand, der sich Jahrzehnte und tagtäglich damit beschäftigt. Das Gefühl kann trügen.

TriVet
19.12.2025, 19:39
Ja, in Zukunft haben wir nicht nur 80 Millionen Bundestrainer und Virologen, sondern auch noch 80 Millionen Universalgelehrte, die ihren eigenen, von der KI bestätigten Sermon auch noch für der Weisheit letzten Schluss halten.
Gruselig.

qbz
19.12.2025, 20:41
Das mag ja alles sein und macht deine Haltung zu Ärzten vs. KI in diesem Fall nachvollziehbar, bleibt aber ein subjektiver Einzelfalleindruck, der aus meiner Sicht in der Diskussion, ob die KI nun bessere Entscheidunen liefert als eine Ärztin, nicht weiterhilft.

Ich schilderte bewusst, wie ich persönlich als Patient und bei Gesundheitsfragen die KI nutze und meine Erfahrungen damit, weil ich weder Mediziner noch Informatiker bin.

Ich meine das nicht nur bezogen auf meinen beruflichen Kontext oder diesen hier, finde aber generell zum Thema : Expertinnenmeinung vs. KI: Sich ein paar Stunden oder Tage mit KI über ein fachfremdes Thema zu informieren und dann das Gefühl zu haben, genauso oder besser entscheiden zu können, wie jemand, der sich Jahrzehnte und tagtäglich damit beschäftigt. Das Gefühl kann trügen.

Das wäre ein Missverständnis, wenn dieser Eindruck entstanden ist, ich hätte ein solches Gefühl. Ich bevorzuge es, als Patient bei bedeutsamen Indikationen, Behandlungsfragen die Meinung des Arztes mit einer KI zu "validieren", quasi als zeitnah verfügbare Zweitmeinung, und bei bedeutsamen Abweichungen wiederum die Abweichungen mithilfe anderer Fachpersonen oder Recherche ab-/aufzuklären. Das habe ich allerdings schon vor der heutigen KI getan, wenn notwendig, nur wesentlich mühsamer. Am Ende muss ich als Patient irgend eine Einwilligung / (quasi einen Auftrag) unterschreiben.

Und meine Erfahrungen mit der KI in diesem Bereich waren halt zu meinem Erstaunen viel positiver als ich erwartet hätte.

qbz
19.12.2025, 20:55
Ja, in Zukunft haben wir nicht nur 80 Millionen Bundestrainer und Virologen, sondern auch noch 80 Millionen Universalgelehrte, die ihren eigenen, von der KI bestätigten Sermon auch noch für der Weisheit letzten Schluss halten.
Gruselig.

Die Bemerkung zeigt, dass Du wahrscheinlich selten mit einer KI arbeitest bzw. sie als sinnvolles Werkzeug benutzt.

Mir hat eine KI z.B. auch bei einer komplizierten, recht speziellen Erbschaftsangelegenheit mit kantonalen Bestimmungen (Kanton Zürich) geholfen, entscheidende Dinge abzuklären, wo eine Vertretung von Erben 2 Jahre lang darüber diskutierte. (und der Erbengemeinschaft das Geld für einen Spezialisten im Vorfeld und evtl. teure Optionen erspart).

TriVet
19.12.2025, 21:24
Die Bemerkung zeigt, dass Du wahrscheinlich selten mit einer KI arbeitest bzw. sie als sinnvolles Werkzeug benutzt.

Die Bemerkung war zunächst mal eher nonchalant.
trotzdem hast du insofern recht, als dass ich aktuell fuer mein kleines Glück hier noch ganz gut ohne KI zurechtkomme, ohne ihr ihre Existenzberechtigung absprechen zu wollen.
Allerdings fürchte ich tatsächlich, dass die wenigsten dein differenziertes Verständnis dafür haben und insofern, nach den unsocial media, mit KI eine weitere Büchse der Pandora (eine zweite davon der Einfachheit halber mal vorausgesetzt) geöffnet wird.