![]() |
Musiker gegen KI-Nutzung:
Kate Bush und Cat Stevens protestieren mit stillem Album Wortwörtlich ein gefundenes Fressen für die Maschinen ;) |
hier mal ein einfaches Beispiel für interessante Aussagen von KI und vor allem welche Schlussfolgerungen KI aus ihren eingen Aussagen zieht:
Frage: Zitat:
Zitat:
erst nach Hinweisen auf die vorhandene Reibung ging es dann. Aber interessant ist hierbei ja, dass KI aus der eigenen Aussage folgert, dass es Bereiche für langsamfahrer und Schnellfahrer gibt und das als Wahrheit verkündet. |
Entwickler kennen das Tool schon, aber ich erwähne es für Interessierte:
Claude Code ist ein agentenbasiertes Programmiertool, das in einem Terminal agiert, die Codebasis versteht und durch natürlichsprachliche Befehle beim Programmieren in Echtzeit hilft. Macht Spaß :Blumen: Claude Code |
Aloha und Moin Moin, Moinsen, Mahlzeit und Gruess Gott,
tja, je länger ich über Trans- und Posthumanusmus nachdenke desto transparenter werden die Überlegungen und Abwaegungen. Haben wir "Biologischen" noch eine Chance? Wie viel Zeit bleibt uns (biologische Wesen) noch? Erste Frage. Wie genauso vollzieht sich der Übergang vom Trans- zum Posthumanism? D.h. wann ist ein Cyborg noch Cyborg und ab wann genau Roboter? Zweite Frage. Gerne mit Bezug auf Frage eins. Muss man leider ernst nehmen die Typen in Californien. Sicher, wir können den Himmel verdunkeln. Und diese Typen in Californien nicht. Oder ist das alles Humbug von wegen Marketing wegen Elektronikverkauf? Dritte Frage. Ist ja auch wurst, wir haben ja noch Zeit, unsere Kinder nicht mehr. Und müssen mitmachen beim Wettlauf um die besten Implantate? Und damit zurück zum Thema. Kann eine KI überleben, sich aus sich selbst heraus erneuern? Wo stehen wir? Frage nach Silikon Valley. Schönes Wochenende und Bier trinken nicht vergessen. ;) :Blumen: |
Es wurde ein Kubikmillimeter Mäusehirn kartographiert.
84.000 Nervenzellen 5,4 km Verdrahtung Datenvolumen 1,6 Petabyte. Wenn jetzt jedes Neuron noch verschiedene Zustände und Funktionsgraphen hat, kann man sich vorstellen, das es zu einem künstlichen Verstand und Bewusstsein noch ein weiter Weg ist. |
Zitat:
Nächster großer Step wird humanisierte KI als Roboter sein, die natürliche Sprache verstehen, Emotionen erkennen und sogar soziale Interaktionen führen können. Warum sollte diese sich nicht selbst erneuern können? |
Zitat:
Also legt der Programmierer die Startparameter fest und eben noch nicht die KI? |
Zitat:
:Cheese: |
Zitat:
:Blumen: Zitat:
Hier reden wir von anderen Modellen. Um es zu vergleichen: ein KI legt sich ihre Startparameter längst selbst fest und zwar kann sie das schon heute. :Blumen: |
Zitat:
Achso. Ich bin zu " dumm "! Ergo kein Nerd? Hm. Okay. Damit kann ich leben. :Lachen2: :Blumen: Also hat die KI sich schon immer stehts selbst programmiert. Das ist doch der Zirkelschluss. Daraus folgt, dass es den Menschen nie gegeben hat. :Cheese: Und damit ist in der konsekutiven Konsequenz auch die Nichtexistenz bewiesen. Es gibt nur das Nichts. Das Seiende existiert nicht. Bruecken, Autos, der Fussball, der Anorak, das Ei, der Fuchs, ja sogar Rüben und Nasen, Hasen, Hosen und der Rasen - alles Einbildung. Und selbst die Einbildung ist eine Einbildung, da sie ja nicht existieren kann. Es sei denn, die KI hat sie erschaffen. Die Einbildung, und die Dinge. ;-) :Blumen: |
Zitat:
Ein vllt etwas bildhafterer Vergleich. Wie hat man sich diese Tech-Ingenieure vorzustellen, also was machen die Menschen im Silikon-Valley? Kennt jemand von euch "die Ludolfs"? Sie machen dasselbe wie Silikon-Valley. Im kleineren, antiquierten Maßstab. Der Clip zeigt also den Geburtsort des Silikon-Valley quasi. ;-) Hier ein Interview/Kostprobe, das/die zielgenau und ganzheitlich in dieser Momentaufnahme also durchaus ausgewogen die Ludolfs :https://www.youtube.com/watch?v=yLf6WY8gpJ4 beschreibt, auch der Gründervater wird gewürdigt. wichtig: #peterludolfprinzip #heiligehallenderludolfs So sehr sie sich auch bemühen, sie schaffen es nicht (etwas Neues zu produzieren). ;) Schönes Wochenende, sonnige Grüße. :) |
Zitat:
:Blumen: |
Zitat:
|
Zitat:
Ich denke also geh ich erstmal laufen und denke über das denken nach. Oder denke ich dann nur dass ich laufe und tue es gar nicht? Ach menno .... :Maso: |
Zitat:
"Wenn eine Bombe anfaengt von sich in der dritten Person zu sprechen ist das bedenklich". Soweit ist es noch nicht. Naja, Beltstrom, Borsis, Murks sollen sich mal anstrengen.. Roddenberry ist ihnen 75000 Lichtjahre voraus. ;) https://www.youtube.com/watch?v=JR-_... JwZXIgS0k%3D ab 1: 45 min sec |
Zitat:
|
Zitat:
Das ganze ist ja schon recht umfangreich in diversen SciFi Filmen und Serien ein Thema gewesen, da muss ich nicht noch extra dieses altmodische "Lesen". :Lachen2: Ex-Machina kann ich als Film dazu auch empfehlen |
Zitat:
Da habe ich eine Wissenslücke, die Folgen ohne Uhura habe ich nicht geschaut ;) |
Für die, die es interessiert hier mal ein etwas aktueller Bericht aus der Praxis.
Um überhaupt mal was zu schreiben.... ich krieche jetzt wieder zu meinen Elektronengehirnen. beste Grüße und einen schnellen Frühling allerseits |
Spannend...
Ich habe ChatGPT konkret mit Bild eine Frage zu meiner Gegensprechanlage im Haus gestellt. Über google hätte ich nie im Leben so schnell so eine fundierte Antwort gefunden. |
Zitat:
Warum das Gedächtnis versagt Die Autoren führen die Fehlleistungen auf drei Mechanismen zurück: - Fragiles Weltmodell – Fakten, die aus dem Kontextfenster fallen, werden nicht mehr berücksichtigt. - Fehlende Meta‑Reflexion – keine Instanz prüft, ob die eigene Diagnose noch in den Simulationsrahmen passt. - Langzeitdrift – je länger der Lauf, desto mehr kleine Diskrepanzen häufen sich, bis sie kippen. Der Mensch ist da diesbezüglich aktuell noch viel weiter, weil er aus sich selbst heraus Veränderungen hervorrufen kann, z.B. durch Emotionen oder ein singuläres Ereignis. So kann man z.B. augenblicklich der Meinung sein, dass Spinnen doch nicht eklig sind. Ein LLM muss das erst erlernen und käme von selbst nie auf die Idee, Spinnen zu mögen. Dass Spinnen eklig sind, steckt irgendwo fest in seinem Model drin, also in den erlernten Mustern und Wahrscheinlichkeiten. :Blumen: |
Ist diese „Stabilität der Meinung“ nicht gerade ein Vorteil der AI? So kann ein kurzzeitiges Fluten von Fake News nicht gleich das ganze Modell durcheinander würfeln.
|
Zitat:
Aber in dem Artikel ging es um einen Agenten, der eigenmächtig Entscheidungen fällen soll. Das ist komplizierter. Kürzlich war ich gleichzeitig in einem Chat mit 2 Agenten von verschiedenen online Plattformen (es ging um eine falsche Buchung bei einem Dienstleister, auf den der andere wartete). Der eine Agent schickte mich zu dem anderen und so ging das hin und her :Cheese: Da hilft dann nur der Mensch am Telefon und die Sache ist nach 2s erledigt. Die Agenten checken das einfach nicht. :Blumen: |
Zitat:
|
Mir wollte die KI vorgestern eine Solarstromanlage verkaufen.
Naja, ein wenig angelernt hatte ich sie ja. Aber ich hätte der KI ja auch gleich sagen können, dass wir (wer auch immer wir sind) Kernkraftwerke abreißen, mit der Abrissbirne wobei ich mich da mit dem Nachrüsten nicht so gut auskenne, und Fusionskraftwerke bauen? Habe ich aber nicht. Was soll ich bitte schoen mit einer Solaranlage, wenn Bauer Grosshinz, aber sein Nachbar Bauer Kleinkunz nicht so, selbige abgeschaltet bekommt? Von selbiger KI. Völlig gaga diese KI. ;) Viele Grüße :Blumen: |
The Matrix has you.
3 Milliarden Nutzer werden vom Troll (der KI in Silikon Valley) assimiliert. Einspruchverfahren ist gescheitert. Betrifft FB, WhatsApp und Instagram. Bsp.: ich finde heraus, dass eine Weißwurst vorzüglich gegrillt schmeckt. Schreibe das auf wapp und 3 Milliarden Menschen verfügen über diesen Entwicklungsgewinn. Noch berät uns die KI. Vllt kommen irgendwann Empfehlungen und Anweisungen. Schon interessant auch was Hr. Cruise gemacht hat in seinem neuen Streifen. Kam letzte Woche im free TV. Die andere Sache ist das mit dem Interface. Man kann mit Gedanken im Labor einen Cursor bewegen. Leib-Seele-Problem betrifft das in den Neurowissenschaften. Nimmt man nun noch die Libet-Experimente dazu werden aus Menschen Matrixagenten? Unglaublich, dass man das nicht unterbinden moechte. Und in fünf Jahren ist das Netz soweit in ganz Deutschland die entsprechende, notwendige Datenmenge an die Endgeräte zu übertragen (50 MByte/Sek. entspricht genau einer vollwertigen menschlich analogen Kommunikation UND Interaktion also inklusive non-verbaler Daten). Noch sind es Smartphones. Unterscheiden wer real ist oder nicht wird dann nicht mehr möglich sein.Sagt Zuckerberg. Verfilmt wurde es bereits in Mission Impossible Teil 8. DFUE von Kopf zu Kopf. Ohne Chip. .Lassen wir uns überraschen, ob das Scientology, also Tom Cruise gelingt die Entität zu binden. Oder doch den Russen? Krass ist was das chinesische Militär macht. Inception ist vergleichsweise harmlos? Man ist wirklich schon soweit, dass man im Unbewussten ansetzen möchte. Also bevor der Wille entsteht. Chinesen können das militärisch? Allerdings also forscht man auch an der Willensbildung. Und zwar dort,wo und wie der Willen gebildet wird. Mit der KI ist es bereits im Labor bald möglich den bewussten Willen zu lesen. Also mit Bezug auf die Libet-Experimente nur Wahlmöglichkeiten zu haben Und das macht dann die KI, sie entscheidet. Bleibt also die Frage, ob es einen freien Willen gibt. Oder wo beginnt der menschliche Impuls? Wird ein künstlicher Impuls das Gleiche vermögen können? Wie bringt man ihn unter Kontrolle? Muss man ernst nehmen, dass die KI den menschlichen Geist kontrollieren koennte. Das Unbewusste wird zu komplex bleiben? Und woher kommt dann das Unbekannte im Unbewussten? Wir können uns zurücklehnen denn schon in der Philosophie der Neuzeit hieß es : "Lieber Gott, wenn es dich gibt, rette meine Seele, wenn ich eine habe." Müsste von Pascal sein. Einen Aluhut wird man auch in Zukunft nicht brauchen. ;) |
Zitat:
Ich gebe dir also den guten Rat mit: mach doch einfach, was du willst! ;-) |
Um für ein Sendethema zu recherchieren, habe ich eine KI befragt. Sie gab auch brav Antwort.
Beim Blick auf die verwendeten Quellen sah ich eines meiner eigenen Videos. Offenbar hatte ich zu diesem Thema bereits eine Sendung gemacht. Merke: Ich bin schlauer als die KI, aber vergesslicher. :Maso: (Bemerkenswert ist ferner, dass KIs in der Lage sind, Videos in deutscher Sprache inhaltlich zu verstehen und einzuordnen – nicht schlecht.) |
Zitat:
|
Zitat:
„Früher“ hat man Speech-to-Text Modelle eingesetzt um aus Audiostreams Text zu machen. Dann hat man den in ein LLM gesteckt und das spuckt dann wieder aus. Das LLM arbeitet so wie du beschreibst. Nebenbei: Wollte man dann Audio-Out haben, hat man den Text in ein Text-To-Speech Modell gesteckt. Viele KI Telefonsysteme funktionieren so. Das nervt allerdings etwas :Lachen2: undzwar, weil… Nachteile dieses Verfahrens sind: Latenz, „dreinreden/unterbrechen“ schwierig, Emotionen gehen verloren. OpenAI hat mittlerweile eine Schnittstelle, die sich „Real-Time API“ nennt. Vor n paar Monaten war die noch public Beta. Den aktuellen Status kenne ich nicht, ehrlich gesagt. Damit geht es nun so, dass Audio streams direkt ins Modell gesteckt werden können und es kommen auch direkt wieder Audio Streams raus. Eine weiterer interessanter Aspekt ist, dass das von dir „das eine is wichtiger als das andere“ (also der Attention Mechanismus) aus Sicht der Informatik teuer ist. Die Idee ist nun ein auf Transformer Attention basierendes „Kurzzeitgedächtnis“ zu implementieren und eine effiziente Abbildung eines „Langzeitgedächtnis“ („Titans“) zu realisieren. Das Paper hierzu is: Titans: „Learning to Memorial at Test time.“ Ich meine chatGPT nutzt das (zumindest für zahlende Kunden) bereits. :Blumen: |
Zitat:
Danke! :Blumen: |
Zitat:
Hier, bei der kostenlosen Version, handelt es sich aber wohl um eine abgespeckte Variante eines Langzeitgedächtnisses. Typischerweise haben bei OpenAI aber non-EU Pro Customer recht schnell Zugriff auf die Vollversionen des heißesten Scheiß :Lachen2: Die Transformer Architektur wird ja nicht ersetzt. Das is nach wie vor der Kern. Das Langzeitgedächtnis und der „Vergessen Algo“ sind ja ne Erweiterung. In dem oben verlinkten Titans Paper gibt es drei verschiedene Grafiken, wie Gedächtnis eingebaut werden kann. Memory as a context, Memory as a Gate und Memory as a layer. Da versteht man sofort wie‘s Konzept ist. Ich hatte schon n paar Gespräche mit chatGPT, bei denen mit aufgefallen ist, dass der plötzlich Infos „einbaute“, von denen ich gewettet hätte, dass wir das im aktuellen Kontext noch nicht besprochen hatten. :dresche Btw: Das Realtime-API nutzen wir für unser KI App Projekt. Das ist beeindruckend gut finde ich. Edit sagt noch, dass die Meldung von Open AI eher klein ist: https://openai.com/index/memory-and-...s-for-chatgpt/ :Blumen: |
Zitat:
:Blumen: |
Zitat:
ChatGPT hat sicher seit Anfang Juni so n kontextübergreifendes Lagzeitgedächtniskonzept implementiert bzw. rausgerollt, das, wie du es nennst „on the fly“ (aka Test-Time) Infos „merkt/erinnert“. Man kann das sogar so einstellen, dass er sich Dinge benutzerübergreifend „merkt/erinnert“. Das find ich a bisserl scary . :-(( Die Architektur entscheidet selbst, was in das Gedächtnis soll und was vergessen werden kann. Man kann das als Benutzer aber auch steuern. Ob das nun konzeptionell eine vollständige Umsetzung oder gar technisch eine nahezu identische Implementierung ist, wie das, was Google vorschlägt, weiß ich nicht. Open AI ist da wenig gesprächig finde ich. Aber im Endeffekt geht es aus meiner Sicht darum ja nicht, sondern vor dem Hintergrund von Arnes Bemerkung (er sei vergesslicher als die KI) ist das Konzept der Langzeiterinnerung und des Vergessenes interesant finde ich. Wahrscheinlich hast du insofern recht, dass die OpenAI Implementierung eher nicht vollständig is. US Marketing und die Geschwindigkeit mit der neue KI-Säue durchs Dorf getrieben werden, lässt das ja normal gar nicht zu. :Lachen2: Was m.E. aber auch klar is: Wenn Google sowas veröffentlicht, dass ist es zwingend für OAI, dass die sowas auch „haben“. Undzwar schnellstens und überhaupt ;) Eine FAQ für die abgesteckte Version der Free User gibt es hier (Update gestern): https://help.openai.com/en/articles/8590148-memory-faq :Blumen: P.S. Ich finde die Sache mit Audiostreams direkt ins und aus‘m Modell praktisch richtig beeindruckend. Gibt dazu auch YT Videos, zumindest von den älteren Versionen. |
Zitat:
Das Surprise bei den Titans z.B. ist eigentlich schon drin, indem es sich das Loss halt dauerhaft merkt, wenn es stark daneben liegt. Dann ist es ein Surprise. Deep Memory und Persistent Memory ist glaube ich ein bisschen schwieriger zu programmieren. Auf jeden Fall nähern sich die Titans dem menschlichen Denken wieder ein Stück an. Das wird noch richtig richtig lustig werden in den nächsten Jahren. Jemand, der es wissen könnte, meinte kürzlich zu mir, man solle Dachdecker oder Wärmepumpeneinbauer werden, der Rest würde in den nächsten Jahren abgelöst ;-) Die großen LLMs sind eh schon der Hammer. :Blumen: |
Zitat:
Ich hab heute mit nem Ex-Google Mann gesprochen, der is CTO bei dem Dienstleiter, mit dem wir das KI Projekt machen. Er sagt auch, dass ChatGPT sowas in der Art bereits umsetzt. Wie technisch genau, wusste er natürlich auch nicht. :Blumen: |
Mal blöd gefragt:
Könnte ich mir jetzt schon eine KI an den Schreibtisch setzen, die für mich meine Mails liest, zusammenfasst, die angehängten Dokumente archiviert und dann auch gleich beantwortet? Die mir zuverlässig Deadlines mitteilt und gleich weiß, ob mein Banker oder Peter Zwegat der richtige ist, um mir zu helfen? |
Zitat:
Die Basistechnologie nutzt du bereits z.B. in Form von ChatGPT. Agenten werden wohl in den nächsten Jahren erst in der Breite auf den Markt kommen und dann menschliche Tätigkeiten ersetzen, ergänzen oder verändern. So könnte dann dein EMail-Agent mit dem Banking-Agent kommunzieren. |
Zitat:
|
Zitat:
Du kannst in der Zwischenzeit dann mal schön das Bad putzen, das schafft der Roboter in 20Jahren nicht. |
| Alle Zeitangaben in WEZ +2. Es ist jetzt 12:43 Uhr. |
Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.