![]() |
Mir wollte die KI vorgestern eine Solarstromanlage verkaufen.
Naja, ein wenig angelernt hatte ich sie ja. Aber ich hätte der KI ja auch gleich sagen können, dass wir (wer auch immer wir sind) Kernkraftwerke abreißen, mit der Abrissbirne wobei ich mich da mit dem Nachrüsten nicht so gut auskenne, und Fusionskraftwerke bauen? Habe ich aber nicht. Was soll ich bitte schoen mit einer Solaranlage, wenn Bauer Grosshinz, aber sein Nachbar Bauer Kleinkunz nicht so, selbige abgeschaltet bekommt? Von selbiger KI. Völlig gaga diese KI. ;) Viele Grüße :Blumen: |
The Matrix has you.
3 Milliarden Nutzer werden vom Troll (der KI in Silikon Valley) assimiliert. Einspruchverfahren ist gescheitert. Betrifft FB, WhatsApp und Instagram. Bsp.: ich finde heraus, dass eine Weißwurst vorzüglich gegrillt schmeckt. Schreibe das auf wapp und 3 Milliarden Menschen verfügen über diesen Entwicklungsgewinn. Noch berät uns die KI. Vllt kommen irgendwann Empfehlungen und Anweisungen. Schon interessant auch was Hr. Cruise gemacht hat in seinem neuen Streifen. Kam letzte Woche im free TV. Die andere Sache ist das mit dem Interface. Man kann mit Gedanken im Labor einen Cursor bewegen. Leib-Seele-Problem betrifft das in den Neurowissenschaften. Nimmt man nun noch die Libet-Experimente dazu werden aus Menschen Matrixagenten? Unglaublich, dass man das nicht unterbinden moechte. Und in fünf Jahren ist das Netz soweit in ganz Deutschland die entsprechende, notwendige Datenmenge an die Endgeräte zu übertragen (50 MByte/Sek. entspricht genau einer vollwertigen menschlich analogen Kommunikation UND Interaktion also inklusive non-verbaler Daten). Noch sind es Smartphones. Unterscheiden wer real ist oder nicht wird dann nicht mehr möglich sein.Sagt Zuckerberg. Verfilmt wurde es bereits in Mission Impossible Teil 8. DFUE von Kopf zu Kopf. Ohne Chip. .Lassen wir uns überraschen, ob das Scientology, also Tom Cruise gelingt die Entität zu binden. Oder doch den Russen? Krass ist was das chinesische Militär macht. Inception ist vergleichsweise harmlos? Man ist wirklich schon soweit, dass man im Unbewussten ansetzen möchte. Also bevor der Wille entsteht. Chinesen können das militärisch? Allerdings also forscht man auch an der Willensbildung. Und zwar dort,wo und wie der Willen gebildet wird. Mit der KI ist es bereits im Labor bald möglich den bewussten Willen zu lesen. Also mit Bezug auf die Libet-Experimente nur Wahlmöglichkeiten zu haben Und das macht dann die KI, sie entscheidet. Bleibt also die Frage, ob es einen freien Willen gibt. Oder wo beginnt der menschliche Impuls? Wird ein künstlicher Impuls das Gleiche vermögen können? Wie bringt man ihn unter Kontrolle? Muss man ernst nehmen, dass die KI den menschlichen Geist kontrollieren koennte. Das Unbewusste wird zu komplex bleiben? Und woher kommt dann das Unbekannte im Unbewussten? Wir können uns zurücklehnen denn schon in der Philosophie der Neuzeit hieß es : "Lieber Gott, wenn es dich gibt, rette meine Seele, wenn ich eine habe." Müsste von Pascal sein. Einen Aluhut wird man auch in Zukunft nicht brauchen. ;) |
Zitat:
Ich gebe dir also den guten Rat mit: mach doch einfach, was du willst! ;-) |
Um für ein Sendethema zu recherchieren, habe ich eine KI befragt. Sie gab auch brav Antwort.
Beim Blick auf die verwendeten Quellen sah ich eines meiner eigenen Videos. Offenbar hatte ich zu diesem Thema bereits eine Sendung gemacht. Merke: Ich bin schlauer als die KI, aber vergesslicher. :Maso: (Bemerkenswert ist ferner, dass KIs in der Lage sind, Videos in deutscher Sprache inhaltlich zu verstehen und einzuordnen – nicht schlecht.) |
Zitat:
|
Zitat:
„Früher“ hat man Speech-to-Text Modelle eingesetzt um aus Audiostreams Text zu machen. Dann hat man den in ein LLM gesteckt und das spuckt dann wieder aus. Das LLM arbeitet so wie du beschreibst. Nebenbei: Wollte man dann Audio-Out haben, hat man den Text in ein Text-To-Speech Modell gesteckt. Viele KI Telefonsysteme funktionieren so. Das nervt allerdings etwas :Lachen2: undzwar, weil… Nachteile dieses Verfahrens sind: Latenz, „dreinreden/unterbrechen“ schwierig, Emotionen gehen verloren. OpenAI hat mittlerweile eine Schnittstelle, die sich „Real-Time API“ nennt. Vor n paar Monaten war die noch public Beta. Den aktuellen Status kenne ich nicht, ehrlich gesagt. Damit geht es nun so, dass Audio streams direkt ins Modell gesteckt werden können und es kommen auch direkt wieder Audio Streams raus. Eine weiterer interessanter Aspekt ist, dass das von dir „das eine is wichtiger als das andere“ (also der Attention Mechanismus) aus Sicht der Informatik teuer ist. Die Idee ist nun ein auf Transformer Attention basierendes „Kurzzeitgedächtnis“ zu implementieren und eine effiziente Abbildung eines „Langzeitgedächtnis“ („Titans“) zu realisieren. Das Paper hierzu is: Titans: „Learning to Memorial at Test time.“ Ich meine chatGPT nutzt das (zumindest für zahlende Kunden) bereits. :Blumen: |
Zitat:
Danke! :Blumen: |
Zitat:
Hier, bei der kostenlosen Version, handelt es sich aber wohl um eine abgespeckte Variante eines Langzeitgedächtnisses. Typischerweise haben bei OpenAI aber non-EU Pro Customer recht schnell Zugriff auf die Vollversionen des heißesten Scheiß :Lachen2: Die Transformer Architektur wird ja nicht ersetzt. Das is nach wie vor der Kern. Das Langzeitgedächtnis und der „Vergessen Algo“ sind ja ne Erweiterung. In dem oben verlinkten Titans Paper gibt es drei verschiedene Grafiken, wie Gedächtnis eingebaut werden kann. Memory as a context, Memory as a Gate und Memory as a layer. Da versteht man sofort wie‘s Konzept ist. Ich hatte schon n paar Gespräche mit chatGPT, bei denen mit aufgefallen ist, dass der plötzlich Infos „einbaute“, von denen ich gewettet hätte, dass wir das im aktuellen Kontext noch nicht besprochen hatten. :dresche Btw: Das Realtime-API nutzen wir für unser KI App Projekt. Das ist beeindruckend gut finde ich. Edit sagt noch, dass die Meldung von Open AI eher klein ist: https://openai.com/index/memory-and-...s-for-chatgpt/ :Blumen: |
Alle Zeitangaben in WEZ +2. Es ist jetzt 13:46 Uhr. |
Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.