Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? - Seite 77 - triathlon-szene.de | Europas aktivstes Triathlon Forum
Habe ich als Patient teilweise getan (mich auf die KI verlassen) bzw. tue es, wo es um evidenzbasierte medizinische Fragen geht, und nicht bei Fragen, wo der subjektive Faktor bedeutsam, ausschlaggebend ist. Verwenden tue ich hauptsächlich kimi und chatgpt. Überprüfen gegebenenfalls durch Nachfragen bei einschlägigen, erfahrenen Spezialisten, sofern möglich, oder durch Check der referierten Quellen.
Wenn es um das eigene Leben und Gesundheit geht , finde ich das nur verständlich, dass auch zu nutzen. Würde aber immer empfehlen, dies nicht als Wahrheit oder beste Wahrheit zu sehen, sondern mit Spezialisten des Vertrauens abzugleichen. Aber das tust Du ja.
Zitat:
Vermutlich ist eine KI bei der Kenntnis der medizinischen Leitlinien besser als der Durchschnitt der Fach- und Hausärzte.
Vermutlich ist das bei der Kenntnis so, wobei ich aus der praktischen Erfahrung sagen kann, dass ich Leitlinien wichtig finde und sie auch sehr oft nutze und das in meiner Lehrtätigkeit auch entsprechend gewichte, aber ihre Interpretation und ihr Einsatz auch eine eigene Anforderung ist. Das die KI in der Anwendung (Im Sinne der konkreten Behandlungsplanung) besser ist, bezweifle ich - zumindest in vielen Fällen. Das liegt vor allem auch in ihren Entstehungssprozessen (Vor allem S3-Leitlinien) und die muss man kennen und hinterfragen und dann passen viele Evidenzen leider auch nicht auf den Einzelfall.
Ist sehr komplex und auch fachspezifisch, habe leider gerade nicht ausreichend Zeit, das an einem konkreten Beispiel zu erläutern. Aber vielleicht plastisch:
Man stelle sich vor, wir würden hier im Forum versuchen, angelehnt an den S3-Prozess eine Leitlinie für die "Behandlung" der technischen Probleme von Altersklasseathletinnen, die bei 2:00/100 im Schwimmen festhängen zu schreiben. Ich sage mal, ich würde schon nicht gerne als Betroffenenvertreter in diesem Gremium sitzen wollen. Vom Ergebnis, wenn es denn eines geben würde, zu schweigen
Überzeichnet, aber vom Problem ist das so. Ich habe schon detaillierte Einblicke in den Entstehungsprozess einiger zentraler Leitlinien meines Fachgebietes und das ist sehr hilfreich, um gute Entscheidungen zu fällen.
Oder noch mal plastischer:
"Viele Köche können bekanntlich den Brei verderben", das führt bei Leitlinien dann vielleicht zu
"Viele Autoren machen aus einer klaren Evidenz eine vorsichtige Leitlinie"
oder auch
"je mehr Experten an einere Leitliie mitschreiben, desto dünner wird die Aussage"
Ein Kollege aus einer Leitlinienkommision seufzte neulich:
Evidenzbasiert begonnen, konsensverdünnt beendet.
Manchmal braucht es auch mehr Mut oder manchmal gibt es auch für die speziellen Zielgruppen keine bis wenig Evidenz oder es passt aus anderen Gründen nicht.
Das ist jetzt kein KI-Problem, wird aber aus meiner Sicht schnell, in Zusammenhang mt der KI-Logik zu einem eigenen Problem.
Gerade so, als würden sie nicht schon mal Software voller Bugs abliefern.
Das ist ein wichtiger Punkt: Ich habe im Moment den Eindruck, als würde man von LLMs grundsätzlich erwarten, dass sie keine Fehler machen. Dabei können sie heute schon mehr Aufgaben in einer bestimmten Kategorie in einer guten Qualität lösen als 90% der Menschen das können. Und in der Zusammenarbeit mit Menschen kriegst du ja auch Fehler geliefert - halt nur nicht so schnell
Zitat:
Zitat von keko#
dass die KI letztendlich x-mal besser und schneller ist als er und ihn schlicht ersetzt.
Hier wird es jetzt schwierig. Du hast an dem Punkt recht, wo Firmen Programmierer, noch dazu nur Juniors oder gar aus Bangalor ( ) einsetzen. Für die ist es jetzt schon recht hart und wird es noch härter.
Firmen, die jedoch production-ready SW entwickeln, tun das nicht mit "Programmieren" (heute nennt man die "Scripting Kids") die haben Softwareentwickler - das ist ein Unterschied Dort gibt es auch eine Menge entsprechender Entwurfs-, Entscheidungs- und Qualitätssicherungsprozesse, ähnlich wie in anderen Industrien.
Hier fehlt es meilenweit, da führt kein Weg hin, was die KI Outputs anbelangt. Das gilt sogar für die besten Codingmodelle von Anthropic (Claude) und dem neuen Gemini 3 Pro). Da sprechen wir nicht mehr von Bugs, da fehlt es himmelweit an Grundlagen. Das ist auf dem Niveau eines Bachelors, der sich etwas für "Scripting" interessiert.
Ich habe auch agentisches vibe coding getestet. Ich habe das mit den neuen VS Code Versionen, den neuen Modellen und auch mit Google Antigravity gemacht. Spaß macht es schon, es ist ok für ein MVP und der Mehrwert ist, du musst nicht alles auswendig wissen. Das ist faszinierend und praktisch.
Der Punkt ist ein anderer: Das "Coden" wird sich verändern. Eine Programmiersprache lernen, die aus dem FF in der entsprechenden OS Umgebung mit allen Finessen zu kennen, wird womöglich nicht mehr nötig sein. Vielmehr wird es darum gehen, die Assistenten entsprechend zu prompten und denen die Fachdomäne zu erklären. Außerdem darum, zu entscheiden, wie sich neue Software in die Konzern- bzw. Cloudinfrastruktur einfügen soll, welche Schnittstellen es gibt, wo die Complianceanforderungen liegen und welchen Designs SW Systeme folgen sollen.
Bewege dich weg von der Annahme Softwareentwicklung = Programmieren. Das war noch nie richtig und wird es auch nie mehr werden.
Das wird sich erst dann ändern, wenn KI getrieben und autonom agierende Roboter, mit entsprechender Sensorik ausgestattet ein Weltmodell entwickeln. Dann sind wir aber bei nem anderen Thema: AGI mit den entsprechenden Kosnequenzen.
...Leitlinie für die "Behandlung" der technischen Probleme von Altersklasseathletinnen, die bei 2:00/100 im Schwimmen festhängen zu schreiben. Ich sage mal, ich würde nicht gerne als Betroffenenvertreter in diesem Gremium sitzen.
Knntest Du nicht ein weniger schmerzhaftes Beispiel nehmen? Das war jetzt wriklich komplett unsensibel.
__________________
Wenn Ihr alle die Zeit, die Ihr hier im Forum vertüdelt, fürs Training nutzen würdet...
Du brauchst halt den richtigen Job. Also Fachinformatiker für Anwendungsentwicklung würde ich heute keinem mehr empfehlen.
...
Ein mir bekanntes Stuttgarter Unternehmen, das seinen Mitarbeitern nur karge Brötchen für ihre harte Arbeit zahlt, hat diesen Ausbildungsberuf bereits gestrichen.
Und da Du Dich damit auskennst: stelle Dir mir vor, Du musst Informatik-StudentInnen eine mehrwöchige Projektarbeit vergeben, wohlwissend, dass sie mit der neuesten KI da dran gehen werden. Das ist eine Schlacht der KIs! Es ist einfach nur noch geil! Die Ansprüche fallen nicht, sie steigen um ein Vielfaches
......
Vermutlich ist das bei der Kenntnis so, wobei ich aus der praktischen Erfahrung sagen kann, dass ich Leitlinien wichtig finde und sie auch sehr oft nutze und das in meiner Lehrtätigkeit auch entsprechend gewichte, aber ihre Interpretation und ihr Einsatz auch eine eigene Anforderung ist. Das die KI in der Anwendung (Im Sinne der konkreten Behandlungsplanung) besser ist, bezweifle ich - zumindest in vielen Fällen. Das liegt vor allem auch in ihren Entstehungssprozessen (Vor allem S3-Leitlinien) und die muss man kennen und hinterfragen und dann passen viele Evidenzen leider auch nicht auf den Einzelfall. ........
Kennen die praktizierenden Ärzte die Entstehungsprozesse von Leitlinien so gut, so dass sie die gerade Aktuellen in der Alltagspraxis kritisch reflektieren, einordnen ? Ich bin schon froh, wenn die Inhalte gut bekannt sind. Nach meinen persönlichen Erfahrungen aus diesem Jahr gibt es einen ganz hohen, extremen Arbeitsdruck überall bei den behandelnden Ärzten, wo ich Einblick bekam, so dass Deine formulierten, hohen Ansprüche nicht so ganz meinen Erfahrungen in der Praxis entsprechen.
Die KI verarbeitet neben den deutschen Leitlinien genauso die zugrundeliegenden Studien (Basis der evidenzbasierten Medizin) und referiert sie, bestätigende, korrigierende, widersprechende, aktuelle. (Research Function). Im Ergebnis lieferte sie (mir) mehr an Informationen und weichenstellenden Daten, als ein niedergelassener Arzt in seiner Einzelpraxis verfügt(e).
Nach meinen persönlichen Erfahrungen aus diesem Jahr gibt es einen ganz hohen, extremen Arbeitsdruck überall bei den behandelnden Ärzten, wo ich Einblick bekam, so dass Deine formulierten, hohen Ansprüche nicht so ganz meinen Erfahrungen in der Praxis entsprechen.
Das habe ich ähnlich erlebt, bereits seit vielen Jahren. Beispiel: Vor gut 20 Jahren war mal bei einer Podiumsdiskussion unter Ärzten auf die Frage aus dem Publikum, ob die Ärzte wissen, welche Labore für eine spezielle Untersuchung besser qualifiziert sind (das Thema war, daß diese Untersuchung oft recht unzuverlässig ist) die Antwort: "nein, für solche Recherchen habe ich keine Zeit, aber der aufgeweckte Patient findet es raus ...", und die anderen auf dem Podium nickten ernst. .
__________________
“If everything's under control, you're going too slow.” (Mario Andretti)
Kennen die praktizierenden Ärzte die Entstehungsprozesse von Leitlinien so gut, so dass sie die gerade Aktuellen in der Alltagspraxis kritisch reflektieren, einordnen ? Ich bin schon froh, wenn die Inhalte gut bekannt sind. Nach meinen persönlichen Erfahrungen aus diesem Jahr gibt es einen ganz hohen, extremen Arbeitsdruck überall bei den behandelnden Ärzten, wo ich Einblick bekam, so dass Deine formulierten, hohen Ansprüche nicht so ganz meinen Erfahrungen in der Praxis entsprechen.
Das mag ja alles sein und macht deine Haltung zu Ärzten vs. KI in diesem Fall nachvollziehbar, bleibt aber ein subjektiver Einzelfalleindruck, der aus meiner Sicht in der Diskussion, ob die KI nun bessere Entscheidunen liefert als eine Ärztin, nicht weiterhilft.
Zitat:
Die KI verarbeitet neben den deutschen Leitlinien genauso die zugrundeliegenden Studien (Basis der evidenzbasierten Medizin) und referiert sie, bestätigende, korrigierende, widersprechende, aktuelle. (Research Function). Im Ergebnis lieferte sie (mir) mehr an Informationen und weichenstellenden Daten, als ein niedergelassener Arzt in seiner Einzelpraxis verfügt(e).
Eine gute und erfolgreiche Behandlung basiert aber aus meiner Erfahrung aus mehr als nur aus der Kenntnis von Studien und Leitlinien. Andernfalls hätte jahrelange Erfahrung in einem Fachgebiet kaum einen Mehrwert. Und alleine das Thema „Evidenz“ ist so komplex, dass man da eine KI sehr lange mit beschäftigen kann, zu erörtern, warum diese in vielen Fällen nur eine Pseudoevidenz ist oder schlicht nicht zur Verfügung steht.
Ich bin durchaus KI-Interessiert und glaube auch, dass da enormes Potential besteht, aber ich stelle ( bei testweiser Nutzung) immer wieder fest, dass die großen Probleme dadurch entstehen, dass die KI keine Vorstellung unserer Welt hat und deshalb (bei komplexeren Fragestellungen desöfteren (noch ?) auf den Holzweg gerät. Das ist aus meiner Sicht der Unterschied zu einem Fachmann/Fachfrau mit jahrzehntelanger Erfahrung. Und auch Entscheidungen zu treffen, ist eine Fähigkeit, die diese auszeichnet, das kann bedeutsamer sein, als das Erstellen der Entscheidungsvorlagen.
Ich meine das nicht nur bezogen auf meinen beruflichen Kontext oder diesen hier, finde aber generell zum Thema : Expertinnenmeinung vs. KI: Sich ein paar Stunden oder Tage mit KI über ein fachfremdes Thema zu informieren und dann das Gefühl zu haben, genauso oder besser entscheiden zu können, wie jemand, der sich Jahrzehnte und tagtäglich damit beschäftigt. Das Gefühl kann trügen.