Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? - Seite 69 - triathlon-szene.de | Europas aktivstes Triathlon Forum
Mir wollte die KI vorgestern eine Solarstromanlage verkaufen.
Naja, ein wenig angelernt hatte ich sie ja. Aber ich hätte der KI ja auch gleich sagen können, dass wir (wer auch immer wir sind) Kernkraftwerke abreißen, mit der Abrissbirne wobei ich mich da mit dem Nachrüsten nicht so gut auskenne, und Fusionskraftwerke bauen? Habe ich aber nicht. Was soll ich bitte schoen mit einer Solaranlage, wenn Bauer Grosshinz, aber sein Nachbar Bauer Kleinkunz nicht so, selbige abgeschaltet bekommt? Von selbiger KI.
3 Milliarden Nutzer werden vom Troll (der KI in Silikon Valley) assimiliert. Einspruchverfahren ist gescheitert. Betrifft FB, WhatsApp und Instagram.
Bsp.: ich finde heraus, dass eine Weißwurst vorzüglich gegrillt schmeckt. Schreibe das auf wapp und 3 Milliarden Menschen verfügen über diesen Entwicklungsgewinn.
Noch berät uns die KI. Vllt kommen irgendwann Empfehlungen und Anweisungen. Schon interessant auch was Hr. Cruise gemacht hat in seinem neuen Streifen. Kam letzte Woche im free TV.
Die andere Sache ist das mit dem Interface. Man kann mit Gedanken im Labor einen Cursor bewegen. Leib-Seele-Problem betrifft das in den Neurowissenschaften. Nimmt man nun noch die Libet-Experimente dazu werden aus Menschen Matrixagenten? Unglaublich, dass man das nicht unterbinden moechte. Und in fünf Jahren ist das Netz soweit in ganz Deutschland die entsprechende, notwendige Datenmenge an die Endgeräte zu übertragen (50 MByte/Sek. entspricht genau einer vollwertigen menschlich analogen Kommunikation UND Interaktion also inklusive non-verbaler Daten). Noch sind es Smartphones. Unterscheiden wer real ist oder nicht wird dann nicht mehr möglich sein.Sagt Zuckerberg. Verfilmt wurde es bereits in Mission Impossible Teil 8. DFUE von Kopf zu Kopf. Ohne Chip. .Lassen wir uns überraschen, ob das Scientology, also Tom Cruise gelingt die Entität zu binden. Oder doch den Russen? Krass ist was das chinesische Militär macht. Inception ist vergleichsweise harmlos?
Man ist wirklich schon soweit, dass man im Unbewussten ansetzen möchte. Also bevor der Wille entsteht. Chinesen können das militärisch? Allerdings also forscht man auch an der Willensbildung. Und zwar dort,wo und wie der Willen gebildet wird. Mit der KI ist es bereits im Labor bald möglich den bewussten Willen zu lesen. Also mit Bezug auf die Libet-Experimente nur Wahlmöglichkeiten zu haben Und das macht dann die KI, sie entscheidet.
Bleibt also die Frage, ob es einen freien Willen gibt. Oder wo beginnt der menschliche Impuls? Wird ein künstlicher Impuls das Gleiche vermögen können? Wie bringt man ihn unter Kontrolle? Muss man ernst nehmen, dass die KI den menschlichen Geist kontrollieren koennte. Das Unbewusste wird zu komplex bleiben? Und woher kommt dann das Unbekannte im Unbewussten?
Wir können uns zurücklehnen denn schon in der Philosophie der Neuzeit hieß es : "Lieber Gott, wenn es dich gibt, rette meine Seele, wenn ich eine habe." Müsste von Pascal sein. Einen Aluhut wird man auch in Zukunft nicht brauchen.
Noch berät uns die KI. Vllt kommen irgendwann Empfehlungen und Anweisungen. Schon interessant auch was Hr. Cruise gemacht hat in seinem neuen Streifen. Kam letzte Woche im free TV. ....
Bleibt also die Frage, ob es einen freien Willen gibt. Oder wo beginnt der menschliche Impuls? Wird ein künstlicher Impuls das Gleiche vermögen können? Wie bringt man ihn unter Kontrolle? Muss man ernst nehmen, dass die KI den menschlichen Geist kontrollieren koennte. Das Unbewusste wird zu komplex bleiben? Und woher kommt dann das Unbekannte im Unbewussten?
...
Eine KI kann Meinungen bilden, indem sie Informationen bereitstellt oder die eine oder andere Perspektive gewichtet, aber im Idealfall bleibt die Entscheidungsfreiheit beim Menschen. Kritisches Denken und bewusste Reflexion muss allerdings trainiert werden.
Ich gebe dir also den guten Rat mit: mach doch einfach, was du willst! ;-)
Um für ein Sendethema zu recherchieren, habe ich eine KI befragt. Sie gab auch brav Antwort.
Beim Blick auf die verwendeten Quellen sah ich eines meiner eigenen Videos. Offenbar hatte ich zu diesem Thema bereits eine Sendung gemacht. Merke: Ich bin schlauer als die KI, aber vergesslicher.
(Bemerkenswert ist ferner, dass KIs in der Lage sind, Videos in deutscher Sprache inhaltlich zu verstehen und einzuordnen – nicht schlecht.)
(Bemerkenswert ist ferner, dass KIs in der Lage sind, Videos in deutscher Sprache inhaltlich zu verstehen und einzuordnen – nicht schlecht.)
Technisch geht das so, dass die gehörten Wörter in sog. Tokens (Triathlon wird möglicherweise zerlegt in "Tri" und "athlon") zerlegt werden und die KI durch millionenfaches Training gelernt hat, dass manche Tokens im Kontext eines Satzes wichtiger sind als andere. Sie berechnet letztendlich nur Wahrscheinlichkeiten, "verstehen" tut sie gar nichts, obwohl sie aber bei dem Satz "I buy an apple" aus dem Kontext heraus erkennt, ob es ein Handy oder ein echter Apfel ist.
Technisch geht das so, dass die gehörten Wörter in sog. Tokens (Triathlon wird möglicherweise zerlegt in "Tri" und "athlon") zerlegt werden und die KI durch millionenfaches Training gelernt hat, dass manche Tokens im Kontext eines Satzes wichtiger sind als andere. Sie berechnet letztendlich nur Wahrscheinlichkeiten, "verstehen" tut sie gar nichts, obwohl sie aber bei dem Satz "I buy an apple" aus dem Kontext heraus erkennt, ob es ein Handy oder ein echter Apfel ist.
In dem Beispiel von Arne sind zwei Dinge interessant: 1. Erkennen von Inhalten aus Ausiostreams. 2. „bessere Erinnerung“.
„Früher“ hat man Speech-to-Text Modelle eingesetzt um aus Audiostreams Text zu machen. Dann hat man den in ein LLM gesteckt und das spuckt dann wieder aus. Das LLM arbeitet so wie du beschreibst. Nebenbei: Wollte man dann Audio-Out haben, hat man den Text in ein Text-To-Speech Modell gesteckt. Viele KI Telefonsysteme funktionieren so. Das nervt allerdings etwas undzwar, weil…
Nachteile dieses Verfahrens sind: Latenz, „dreinreden/unterbrechen“ schwierig, Emotionen gehen verloren.
OpenAI hat mittlerweile eine Schnittstelle, die sich „Real-Time API“ nennt. Vor n paar Monaten war die noch public Beta. Den aktuellen Status kenne ich nicht, ehrlich gesagt. Damit geht es nun so, dass Audio streams direkt ins Modell gesteckt werden können und es kommen auch direkt wieder Audio Streams raus.
Eine weiterer interessanter Aspekt ist, dass das von dir „das eine is wichtiger als das andere“ (also der Attention Mechanismus) aus Sicht der Informatik teuer ist. Die Idee ist nun ein auf Transformer Attention basierendes „Kurzzeitgedächtnis“ zu implementieren und eine effiziente Abbildung eines „Langzeitgedächtnis“ („Titans“) zu realisieren. Das Paper hierzu is: Titans: „Learning to Memorial at Test time.“
Ich meine chatGPT nutzt das (zumindest für zahlende Kunden) bereits.
Hier, bei der kostenlosen Version, handelt es sich aber wohl um eine abgespeckte Variante eines Langzeitgedächtnisses. Typischerweise haben bei OpenAI aber non-EU Pro Customer recht schnell Zugriff auf die Vollversionen des heißesten Scheiß
Die Transformer Architektur wird ja nicht ersetzt. Das is nach wie vor der Kern. Das Langzeitgedächtnis und der „Vergessen Algo“ sind ja ne Erweiterung. In dem oben verlinkten Titans Paper gibt es drei verschiedene Grafiken, wie Gedächtnis eingebaut werden kann. Memory as a context, Memory as a Gate und Memory as a layer. Da versteht man sofort wie‘s Konzept ist.
Ich hatte schon n paar Gespräche mit chatGPT, bei denen mit aufgefallen ist, dass der plötzlich Infos „einbaute“, von denen ich gewettet hätte, dass wir das im aktuellen Kontext noch nicht besprochen hatten.
Btw: Das Realtime-API nutzen wir für unser KI App Projekt. Das ist beeindruckend gut finde ich.