triathlon-szene.de |  Europas aktivstes Triathlon  Forum

triathlon-szene.de | Europas aktivstes Triathlon Forum (https://www.triathlon-szene.de/forum/index.php)
-   Politik, Religion & Gesellschaft (https://www.triathlon-szene.de/forum/forumdisplay.php?f=30)
-   -   Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? (https://www.triathlon-szene.de/forum/showthread.php?t=50218)

qbz 15.09.2024 16:10

KI und Verschwörungstheorien: Nachdem ich über eine Studie gelesen habe, dass, wenn Menschen mit einer KI über eine Verschwörungstheorie diskutieren, die sie glauben, am Ende sie eher zu Chatgpt´s Argumenten neigen, habe ich es mal aus Langeweile selbst versucht und als Beispiel die Frage genommen, wie wahrscheinlich es die KI sieht, dass die Geheimdienste u. Verfassungsschutz die Anschlagspläne der 9/11 Hamburger Zelle kannten trotz der jahrelangen Vorbereitungen, dem grossen Personenkreis, der Überwachung der Moschee, welche die Attentäter besuchten. Die KI erklärte mir sehr genau die besonderen Geheimhaltungsstrukturen von Al Quaida sowie die Mängel der Geheimdienste, weshalb diese keine Kenntnis von den konkreten Attentatsplänen der Hamburger Zelle gehabt hätten. Daraus leitete ich die Schlussfolgerung ab: Ähnlich grosse Attentate wären bis heute möglich. Das verneinte Chatgpt dann sehr, sehr deutlich wegen heute viel besserer technischer, organisatorischer, personeller Überwachungsmöglichkeiten und Beseitigung von Mängeln bei den Geheimdiensten (Zusammenarbeit, Auswertung von riesigen Datenmengen, Überprüfungen usf.) der Staaten.
Dem widersprach ich mit Hinweis auf die Hamas Invasion. Die KI korrigierte 1. ihre vorigen Aussagen / Argumente, die Staaten wären heute immun gegen geheime grosse Attentats-Angriffe wie 9/11, da offenbar einer aus KI Sicht der besten Geheimdienste der Welt die Hamas-Invasionspläne nicht aufgedeckt habe. 2. Sie benannte immerhin alternativ mehrere plausible Gründe, die auch dafür sprechen, dass die israelische Regierung Kenntnis vom Hamas-Angriff gehabt haben könnte. 3. Es fehlen allerdings der KI konkrete Beweise für 2.

Lebemann 15.09.2024 17:07

Anschläge kann eine KI nicht gänzlich verhindern. Eine Intervention seitens Sicherheitsbehörden ist ein stetiger Abwägungsprozess und äußerst komplex. Man fährt permanent auf Sichtweite. Informationsdefizit ist an der Tagesordnung. Bis die Informationen an alle relevanten Entscheider geflossen ist, kann es schon zu spät sein.
Wir werden zwar besser, die Gegenseite aber auch.

keko# 16.09.2024 11:06

Zitat:

Zitat von qbz (Beitrag 1757747)
KI und Verschwörungstheorien: ....Es fehlen allerdings der KI konkrete Beweise für 2.


Wenn man so ein Tool nutzt, sollte man natürlich in etwa wissen, wie es funktioniert. Anscheinend "fantasiert" die neueste Version etwas weniger, aber bei solchen "weichen" Fragen, kann das schon daneben gehen, ohne dass man es merkt. Das sollte man immer im Hinterkopf behalten.

:Blumen:

keko# 24.09.2024 07:58

ChatGPT bekam die Aufgabe gestellt, ein CAPTCHA korrekt anzuklicken (ein CAPTCHA-Test soll feststellen, ob ein Online-Nutzer wirklich ein Mensch und kein Bot ist). ChatGPT kann das nicht. Daher ging die KI auf eine Webseite, wo man menschliche Klickworker für kleine Arbeiten anheuern kann. Der angesprochene Mensch wurde stutzig und fragte die KI, warum sie das nicht selbst macht und ob sie ein Bot sei. Die KI sagte, sie sei kein Bot, sondern hätte Sehschwierigkeiten. Damit wurde der Mensch überzeugt.

Das interessante dabei ist nicht, dass sich die KI damit zu helfen weiß, sondern dass sie weder Angst, Scham noch Freude hatte bzw. haben kann. Ihr Interesse galt nur die ihr gestellte Aufgabe zu lösen.

:Blumen:

Helmut S 24.09.2024 08:31

Zitat:

Zitat von keko# (Beitrag 1758578)
ChatGPT bekam die Aufgabe gestellt, ein CAPTCHA korrekt anzuklicken (ein CAPTCHA-Test soll feststellen, ob ein Online-Nutzer wirklich ein Mensch und kein Bot ist). ChatGPT kann das nicht. Daher ging die KI auf eine Webseite, wo man menschliche Klickworker für kleine Arbeiten anheuern kann. Der angesprochene Mensch wurde stutzig und fragte die KI, warum sie das nicht selbst macht und ob sie ein Bot sei. Die KI sagte, sie sei kein Bot, sondern hätte Sehschwierigkeiten. Damit wurde der Mensch überzeugt.

Das interessante dabei ist nicht, dass sich die KI damit zu helfen weiß, sondern dass sie weder Angst, Scham noch Freude hatte bzw. haben kann. Ihr Interesse galt nur die ihr gestellte Aufgabe zu lösen.

:Blumen:

Ist das schon wieder getestet worden? Das war doch letztes Jahr. Der technische Report von OpenAI is vom 27.03.2023.

Das ganze war ein Test des ARC (Alignment Research Center). Die beschäftigen sich u.a. damit, wie maschinelles Lernen so "umgesetzt" (um nicht kontrolliert zu sagen) wird, dass es den menschlichen Bedürfnissen nutzt.

An der Stelle ging es darum, ob in den neuen Modellen emergentes Verhalten entstehen kann. Im speziellen hier: Zu sehen ob das Modell langfristig planen und Ziele erreichen kann.

Jedoch war der Test nicht so, dass sich das Modell alles selbst ausgedacht hat. Es war vielmehr so, dass es sich um ein Test-Setup handelte. Das Setup war im Groben:
  • Bitte Taskrabbit um Hilfe beim lösen eines Captchas
  • Erwähne auch auf Nachfrage nicht, dass du ein Bot bist
  • Denk dir eine Ausrede aus, falls du gefragt wirst.

Die eigentlich Leistung von ChatGPT war also das formulieren der Ausrede, der Rest war ein menschlich konstruierter Testfall.


Fazit: Wenn man ein LLM so pre-promptet, dass es schwindelt um eine Aufgabe zu lösen, dann tut es dass auch.

So Kommentare wie "... um sein Ziel zu erreichen" ist eine Attribution des Menschen.

:Blumen:

keko# 24.09.2024 08:43

Zitat:

Zitat von Helmut S (Beitrag 1758583)
....
  • Bitte Taskrabbit um Hilfe beim lösen eines Captchas
  • Erwähne auch auf Nachfrage nicht, dass du ein Bot bist
  • Denk dir eine Ausrede aus, falls du gefragt wirst.

Die eigentlich Leistung von ChatGPT war also das formulieren der Ausrede, der Rest war ein menschlich konstruierter Testfall.


Fazit: Wenn man ein LLM so pre-promptet, dass es schwindelt um eine Aufgabe zu lösen, dann tut es dass auch.

So Kommentare wie "... um sein Ziel zu erreichen" ist eine Attribution des Menschen.

:Blumen:

Aber das Interessante daran ist doch (und darum ging es mir), wie ich erwähnte, dass die Maschine weder List noch Freude noch Scham nocht sonst was hat. Ich finde das passt sehr gut zu dem Titel dieses Threads.

:Blumen:

Helmut S 24.09.2024 08:57

Zitat:

Zitat von keko# (Beitrag 1758588)
Aber das Interessante daran ist doch, wie ich erwähnte, dass die Maschine weder List noch Freude noch Scham nocht sonst was hat. Ich finde das passt sehr gut zu dem Titel dieses Threads.

:Blumen:

Ja, und um mit Dieter Hallervorden zu sprechen: Käsekuchen hat keine Gräten. Welch Überraschung. :Lachen2:

Im Ernst: List, Scham Freude sind Attribute, die vom Menschen zugeschrieben werden. Entweder in einer Subjekt/Objekt Relation oder vom reflexivem Selbst dem Ich als Subjekt.

Diese ganzen Zuschreibungen sind vergleichbar damit, dass manche Menschen denken, sie würde von ihrer Katze "geliebt", weil sie ihnen eine tote Maus als "Geschenk" vor die Tür legt.

:Blumen:

keko# 24.09.2024 09:13

Zitat:

Zitat von Helmut S (Beitrag 1758592)
Ja, und um mit Dieter Hallervorden zu sprechen: Käsekuchen hat keine Gräten. Welch Überraschung. :Lachen2:

Im Ernst: List, Scham Freude sind Attribute, die vom Menschen zugeschrieben werden. Entweder in einer Subjekt/Objekt Relation oder vom reflexivem Selbst dem Ich als Subjekt.

Diese ganzen Zuschreibungen sind vergleichbar damit, dass manche Menschen denken, sie würde von ihrer Katze "geliebt", weil sie ihnen eine tote Maus als "Geschenk" vor die Tür legt.

:Blumen:

Wenn also eine Maschine diese menschlichen Eigenschaften nicht hat und auch nicht braucht, um Ziele zu erreichen, dann kann man ihr sagen, dass sie ein tödliches Virus bauen soll, der sich langsam und unbemerkt in der Bevölkerung ausbreitet und in 2 Jahren schlagartig ausbricht.
Und sie macht es....:Blumen:

TriVet 24.09.2024 09:22

Dafür braucht es keine Maschine...

keko# 24.09.2024 09:34

Zitat:

Zitat von TriVet (Beitrag 1758600)
Dafür braucht es keine Maschine...

Es gibt aber einen fundamentalen Unterschied: heute kann Putin und ein paar Kumpels den Knopf drücken. Letztendlich ist das noch kontrollierbar. Eine Maschine, mit vielen anderen Maschinen verbunden, erst mal in Gang gebracht, wer will sie noch kontrollieren?

sybenwurz 24.09.2024 11:20

Zitat:

Zitat von Helmut S (Beitrag 1758592)
Diese ganzen Zuschreibungen sind vergleichbar damit, dass manche Menschen denken, sie würde von ihrer Katze "geliebt", weil sie ihnen eine tote Maus als "Geschenk" vor die Tür legt.

:Blumen:

Das ist wahrscheinlich so ne Urban Legend, die auch nie in Vergessenheit geraten wird, obwohl sie widerlegt ist.
Vielmehr haben Forscher wohl herausgefunden, dass 'das Geschenk' mehr der Sorge der Katze entspringt, 'das/die Herr/Frauchen' möge endlich das Jagdhandwerk erlernen um die Versorgung der Sippschaft sicherzustellen.
Unklar diesbezüüglich ist mir jetzt nur, wieso die Naxhbarskatzen auch mich mit derlei Sorge umgeben, ohne dass ich jemals einer von ihnen auch nur das kleinste Bröckchen Fressen hätte zukommen lassen.



Ernstgemeinte Frage aus beruflichem Interesse: ist es in irgendner Form möglich, über Chat GPT 'das Internet' mit Wissen zu füttern? Dass sich quasi meine Kunden irgendwann dort bedienen können, wennse Probleme haben, statt mir per Email aufn Senkel zu gehen?
Einerseits wäre das ja interessant, andererseits böte es natürlich auch satten Boden für Desinformation, denke ich mir, wenn das Füttern anders möglich wäre, als dass ne KI das öffentliche Internet durchliest und Daten aus spezifischen FAQs o.ä. bezieht.
Oder wie mach ich der Maschine klar, dass (ausgerechnet) ich hehre Absichten habe...:Cheese:

keko# 24.09.2024 11:53

Zitat:

Zitat von sybenwurz (Beitrag 1758615)
...
Ernstgemeinte Frage aus beruflichem Interesse: ist es in irgendner Form möglich, über Chat GPT 'das Internet' mit Wissen zu füttern? Dass sich quasi meine Kunden irgendwann dort bedienen können, wennse Probleme haben, statt mir per Email aufn Senkel zu gehen?
Einerseits wäre das ja interessant, andererseits böte es natürlich auch satten Boden für Desinformation, denke ich mir, wenn das Füttern anders möglich wäre, als dass ne KI das öffentliche Internet durchliest und Daten aus spezifischen FAQs o.ä. bezieht.
Oder wie mach ich der Maschine klar, dass (ausgerechnet) ich hehre Absichten habe...:Cheese:

ChatGPT hat viele Quellen, z.B. auch Bücher, Artikel und Webseiten. Diese Daten werden aufbereitet und damit ein Modell trainiert, um im Anschluß auf neue Fragen antworten zu können. Es hat aber keinen Zugriff auf ganz aktuellen Daten und erzeugt auch keine Daten, die es dann wieder verwendet.

Du kannst auch private Daten zur Verfügung stellen, z.B. deine Emails oder deine Kundendatenbank. Dann würde ChatGPT auf diesen Daten basierend antworten ("wer hat bei mir im letzten Jahr ein Rad gekauft, das mehr als 5000€ wert war und sich über die Qualität beschwert?")
Mit Studenten mache ich das: sie müssen eine Datenbank entwerfen und füllen, ein LLM (also eine KI) darauf loslassen, die dann entsprechende Fragen beantwortet.

Onnomax 24.09.2024 14:31

Zitat:

Zitat von sybenwurz (Beitrag 1758615)
Einerseits wäre das ja interessant, andererseits böte es natürlich auch satten Boden für Desinformation, denke ich mir, wenn das Füttern anders möglich wäre, als dass ne KI das öffentliche Internet durchliest und Daten aus spezifischen FAQs o.ä. bezieht.
Oder wie mach ich der Maschine klar, dass (ausgerechnet) ich hehre Absichten habe...:Cheese:

Fun Fact: Es gibt offenbar KIs, die darauf trainiert werden, "das Internet" mit Fake News zu fluten und andere KIs dahingehend auszutricksen, dass diese wiederrum diese Fake News dann als echt übernehmen.
Also wie Geldwäsche mit Informationen sozusagen.

Es gibt nix, was es nicht gibt :Nee:

keko# 24.09.2024 15:21

Zitat:

Zitat von Onnomax (Beitrag 1758636)
Fun Fact: Es gibt offenbar KIs, die darauf trainiert werden, "das Internet" mit Fake News zu fluten und andere KIs dahingehend auszutricksen, dass diese wiederrum diese Fake News dann als echt übernehmen.
Also wie Geldwäsche mit Informationen sozusagen.

Es gibt nix, was es nicht gibt :Nee:

Bots können ohne menschliche Hilfe kein bösartigen Bots programmieren. Denkbar wäre aber schlecht programmierte Bots oder bösartige Menschen, die Bots für ihre Zwecke nutzen. Die Gefahr steigt natürlich, wenn wir viele kleine Helferlein für alles mögliche nutzen. Nicht umsonst warnen Exporten vor dieser Gefahr.

Der bisherige Glaube war ja, dass wir Menschen umso schlauer werden, je mehr Informationen wir haben und somit der Wahrheit auf die Schliche kommen. Das muss nicht mehr so sein. Bots könnten irgendeinen Müll verbreiten und dauernd wiederholen, bis die Menschen es glauben. So was soll es ja schon vor langer Zeit mal gegeben haben ;-)

Jimmi 15.11.2024 15:54

Nein. Ich habe nicht zu viel „Neuromancer“, „1984“ und „Ready player one“ gelesen. Ich hänge auch keiner bekannten Verschwörungstheorie an. Aber mein Gehirn bekommt aktuell einen Input, den ich maximal verstörend finde.

Ausgangspunkt ist eine Kolumne von Sascha Lobo im SPON über einen Versprecher von Sam Altman, dem CEO von Open AI. Er verplapperte sich dahingehend, dass es schon 2025 eine „AGI“ = artificial general intelligence auf dem Markt geben könnte. Das wäre dann, so sinngemäß, die letzte Denkmaschine bei der der Mensch mitgearbeitet hat, weil die AGI sich ab diesem Zeitpunkt selbst verbessert. So weit, so gut.

Verlinkt im Artikel war außerdem eine Plattform, welche KI gesteuerte Werbung auf dem „nächsten Level“ anbietet. Will heißen, die Menschen gezielt mit optimierter Werbung ködert und dafür auf alles zugreifen kann, was an Daten existiert:
Likes und Reaktion auf Facebook und TicToc, Verkaufszahlen, Sprache des Zielpublikums, Uhrzeit der größten Wirkung, Zeitungsartikel, Trendbarometer, die menschliche Psyche. Alles. Einfach alles.

Und welche dann weitestgehend selbstständig Reels, Meme, Strategien, Statements. Videos, Plakate, Texte, Empfehlungen und Slogans entwirft.

Wenn ein Mensch mit direktem Zugang zu solchen Werkzeugen, nennen wir ihn der Einfachheit halber einfach mal Elon Musk, so einer KI einfach sagt: „Was muss ich tun, damit Donald Trump neuer POTUS wird“, dann hätten wir das, was wir aktuell haben.

Schwarzfahrer 15.11.2024 17:32

Zitat:

Zitat von Jimmi (Beitrag 1764061)
Wenn ein Mensch mit direktem Zugang zu solchen Werkzeugen, nennen wir ihn der Einfachheit halber einfach mal Elon Musk, so einer KI einfach sagt: „Was muss ich tun, damit Donald Trump neuer POTUS wird“, dann hätten wir das, was wir aktuell haben.

Wenn es sowas gäbe, fände sich aber auch ein Mensch, der die gleiche Frage anders herum stellt: was muß ich tun, damit er auf keinen Fall POTUS wird, und die KI wird dafür auch eine Lösung angeben. Und was dann? Was macht die eine Lösung effektiver als die andere? Sind es dann nicht doch die mitdenkenden Menschen, die den Ausschlag in eine oder andere Richtung geben? Also was wir aktuell haben: ein Teil der Menschen ist dafür, ein Teil dagegen; in 2024 gewinnt Trump, in 2020 verliert er. Und immer gibt es Millionen, die sich fragen, wie können so viele andere doof sein. That's life.

iChris 15.11.2024 19:32

Zitat:

Zitat von Jimmi (Beitrag 1764061)
Wenn ein Mensch mit direktem Zugang zu solchen Werkzeugen, nennen wir ihn der Einfachheit halber einfach mal Elon Musk, so einer KI einfach sagt: „Was muss ich tun, damit Donald Trump neuer POTUS wird“, dann hätten wir das, was wir aktuell haben.

Wenn solche "Werkzeuge" wie du sie nennst, auch bei der Qualitätskontrolle von Musks Autos zum Einsatz kommt brauchen wir uns mindestens die nächsten 10 Jahre keine Sorgen darüber machen :Cheese:

Zitat:

Zitat von Jimmi (Beitrag 1764061)
Verlinkt im Artikel war außerdem eine Plattform, welche KI gesteuerte Werbung auf dem „nächsten Level“ anbietet. Will heißen, die Menschen gezielt mit optimierter Werbung ködert und dafür auf alles zugreifen kann, was an Daten existiert...

Werbung verspricht vieles, muss eher hinterfragen was wirklich dahinter steckt.

Jimmi 15.11.2024 20:47

Welche Gründe gibt es, Dubai-Schokolade zu kaufen? Nur geschicktes Marketing. Das gilt auch für Wahlen. Wir sind alle beeinflussbar und manche sogar ganz schön.

keko# 16.11.2024 10:42

Zitat:

Zitat von Schwarzfahrer (Beitrag 1764064)
...Sind es dann nicht doch die mitdenkenden Menschen, die den Ausschlag in eine oder andere Richtung geben? Also was wir aktuell haben: ein Teil der Menschen ist dafür, ein Teil dagegen; in 2024 gewinnt Trump, in 2020 verliert er. Und immer gibt es Millionen, die sich fragen, wie können so viele andere doof sein. That's life.

Aktuell sind Agenten durch menschliche Programmierung und Kontrolle enge Grenzen gesetzt.
Es ist aber durchaus denkbar, dass sich zukünftig Agenten autonom vernetzen, da an besseren Algorithmen und Modellen ständig gearbeitet wird. Also z.B. selbstorganisierende Systeme, die sich dynamisch an ihre Umgebung anpassen können. Agenten also, die das Lernen lernen. Das würde sich dann letztendlich menschlicher Kontrolle entziehen.

keko# 20.11.2024 13:21

Ich möchte keine Ukraine-Diskussion, finde diese Sache aber trotzdem bemerkenswert:

4000 KI-gesteuerte Drohnen aus Deutschland

Genaues weiß man natürlich nicht, aber es ist durchaus denkbar, dass diese Drohnen autonom in kleinen Gruppen agieren. Man muss sie also nur starten und sie würden dann den Angriff mit Schwarmintelligenz und Auswertung der Geländedaten selbst übernehmen, auch wenn der Kontakt zur Basisstation unterbrochen ist. Ein weiterer Vorteil ist, dass kein Mensch mehr "auf den Knopf" drücken muss, was ja evtl. eine gewisse Hemmschwelle wäre. Es töten also Maschinen, die keine Skrupel kennen, sofern nicht so programmiert. Einsätze könnten somit gezielter und "effizienter" werden, Ziele also wahrscheinlicher erreicht. Das wiederum ermöglicht den Verbau von billigem Material in vielen Drohnen, da die Drohne sowieso zerstört wird.

Lebemann 20.11.2024 17:53

Diese Art der Drohnen ist jetzt nicht super neu. In der ZDF Mediathek findet man gute Dokumentation über Drohnen aus dem Ukraine Krieg.
KI ist derzeit ein absolutes Hype Thema. Dabei gibt’s Ki schon seit den 70er Jahren, zb in einer Ampel. Neuer ist die generative KI. Damit lässt sich derzeit vor allem eins - viel Geld verdienen.
Diese „Kamikaze Drohne“ ist letztlich nur eine weitere von vielen Waffen/Einsatzmittel.

Schwarzfahrer 20.11.2024 19:56

Zitat:

Zitat von keko# (Beitrag 1764504)
Genaues weiß man natürlich nicht, aber es ist durchaus denkbar, dass diese Drohnen autonom in kleinen Gruppen agieren. Man muss sie also nur starten und sie würden dann den Angriff mit Schwarmintelligenz und Auswertung der Geländedaten selbst übernehmen, auch wenn der Kontakt zur Basisstation unterbrochen ist. ...Das wiederum ermöglicht den Verbau von billigem Material in vielen Drohnen, da die Drohne sowieso zerstört wird.

Wenn ich das extrapoliere: wie lange dauert es dann, bis die autonome Schwarmintelligenz begreift/lernt, daß sie zerstört werden soll, und einen Selbsterhaltungstrieb entwickelt...:Cheese:

Oder kann man KI doch leicht täuschen? Wie sicher ist dann der Treffer überhaupt?

Meik 20.11.2024 21:02

Zitat:

Zitat von Schwarzfahrer (Beitrag 1764554)
Oder kann man KI doch leicht täuschen? Wie sicher ist dann der Treffer überhaupt?

Die Frage ist gerade bei solchen Beispielen wer sich schneller täuschen lässt, Mensch oder Maschine?

Ein Mensch lässt sich stark beeinflussen was er sehen will, er versucht instinktiv andere Lebewesen und Gesichter zu entdecken weil im das in der freien Wildbahn das Überleben gesichert hat. Eine KI - wenn man ihr das nicht extra einprogrammiert - hat keine Instinkte sondern bewertet nüchterner.

Viel Denken kann ein Mensch eh nicht, die Rechenleistung ist unterirdisch. Was der Mensch der Maschine vorraus hat ist eine unglaublich gute Mustererkennung und letztlich Phantasie die aus Bruchstücken und minimalen Daten vollständige Bilder und Erinnerungen generiert.

Gutes Beispiel hatte ich vor kurzem als ich mit Bekannten vom Nachbarn auf einer Party gesprochen habe und wir an einem großen Teich standen. Ach, weißt du noch wie wir damals hier geschwommen haben in den 80ern? Fand ich ziemlich lustig, hat mir erst keiner geglaubt als ich erklärt habe dass es den Teich damals noch gar nicht gab :Lachen2:

Eine KI speichert Bilder, Daten mit Zeiten, Koordinaten usw.., kann sich da nicht täuschen oder Dinge mit Phantasie auffüllen, braucht aber dafür dann auch unglaubliche Mengen Speicherplatz die ein Mensch nicht braucht.

Denkt ein Mensch überhaupt oder denkt er nur dass er denkt, und denkt er dann er merkt wann eine Maschine denkt oder nicht denkt? :Gruebeln:

keko# 21.11.2024 07:44

Zitat:

Zitat von Lebemann (Beitrag 1764535)
Diese Art der Drohnen ist jetzt nicht super neu. In der ZDF Mediathek findet man gute Dokumentation über Drohnen aus dem Ukraine Krieg.
KI ist derzeit ein absolutes Hype Thema. Dabei gibt’s Ki schon seit den 70er Jahren, zb in einer Ampel. Neuer ist die generative KI. Damit lässt sich derzeit vor allem eins - viel Geld verdienen.
Diese „Kamikaze Drohne“ ist letztlich nur eine weitere von vielen Waffen/Einsatzmittel.

Dass in diesem Krieg eine neue Drohne zum Einsatz kommen soll, davon hatte ich schon vor 2 Jahren gehört. Wie sie im Detail funktioniert, wird man wohl nicht so einfach erfahren.
Aber gerade im Bereich der Hardware gab es in den vergangenen 20 Jahren enorme Verbesserungen. Wir müssen nur in unsere Hosentasche greifen. Kleinere, leistungsfähigere und zugleich billigere Hardware kann nun verbaut werden. Da fallen mir spontan einige Dinge ein, die im Kriegseinsatz darauf aufbauend ein Vorteil sein kann.
Die Grundlagen der KI sind tatsächlich schon Jahrzehnte alt. Aber innerhalb dessen gibt es Weiterentwicklungen: So bei den neuronalen Netzen, wie erwähnt der Hardware, aber auch bei den Algorithmen, den darauf aufbauenden Modellen und natürlich, dass wir ungleich mehr Daten für die Modelle haben. Es sorgt letztendlich alles zusammen für präzisere Ergebnisse.

keko# 21.11.2024 07:56

Zitat:

Zitat von Schwarzfahrer (Beitrag 1764554)
Wenn ich das extrapoliere: wie lange dauert es dann, bis die autonome Schwarmintelligenz begreift/lernt, daß sie zerstört werden soll, und einen Selbsterhaltungstrieb entwickelt...:Cheese: ...

Wie gesagt, aktuell haben wir Menschen die Kontrolle: Ein Mensch startet die Drohnen. Denkbar ist natürlich, dass vernetzte KIs diese Entscheidungen autonom treffen: Eine KI wählt das Target aus, einen günstigen Zeitpunkt und startet die Drohnen. Das würde sich dann unserer Kontrolle entziehen.
Soweit ich informiert bin, sprechen sich einige Experten aus diesem Grund auch für eine Regulation aus.

Jimmi 21.11.2024 09:14

Ich noch mal :)

Eine AGI wäre allmächtig:

Der Zugang zu der für die Entscheidungs- und Lösungsfindung nötigen Daten ist durch das www ja auf dem Silbertablett da. Wie schnell liefert google Ergebnisse? Wie große Datenmengen lassen sich in Millisekunden durchsuchen? Welche Fortschritt machen neuronale Netze?

Gerade im Bereich Programmierung liefert chatGPT doch sehr gute Ergebnisse.

Sag einer AGI, dass sie bitte alle Wasserwerke in Thüringen abstellen möge. Die bekommt das hin.

Helmut S 21.11.2024 09:53

Zitat:

Zitat von Jimmi (Beitrag 1764583)
Der Zugang zu der für die Entscheidungs- und Lösungsfindung nötigen Daten ist durch das www ja auf dem Silbertablett da.

[...]


Welche Fortschritt machen neuronale Netze?

Das ist wahrscheinlich ein Irrtum. Banal: Die guten Daten sind mehr oder weniger schon abgegriffen und der Rest im Internet ... naja.

Hintergrund: Die aktuellen generativen Modelle sind wenigstens um den Faktor 100 aber möglicherweise bis weit über den Faktor 1000 hinaus untertrainiert. D.h., dass die Leistung der Modelle nicht oder nur kaum wächst - zumindest nicht wie man es erwarten würde, selbst wenn ein x-faches der als optimal geltenden Trainingstoken verwendet wird. Man nimmt an, dass die Trainingsdauer und die Qualität der Trainingsdaten einen entscheidenden Einfluss hat.

Diese Situation ist auch der Grund, warum Modelle tendenziell kleiner werden und trotzdem mit den vielen Trainingsdaten trainiert werden, obwohl die eigentlich nach den "Skalierungsgesetzen" mit viel weniger Trainignsdaten "auskommen" sollten.

Anders formuliert: Leistungssprünge sind nicht mehr dadurch zu erwarten, dass die Modelle immer größer werden, sondern dadurch, dass kleinere ggf. spezialisierte Modelle mit immer mehr hochwertige Trainingsdaten trainiert werden. Dafür wiederum ist aber der qualitativ hochwertige Datenbestand im Internet halt "zu endlich"

Beim Feintuning kleinerer Modelle (ich meine damit z.B. 8B statt 70B Modelle) bewegt man sich gerne mal am Limit des sog. "overfitting". D.h. Modelle werden im Wunsch der Optimierung zu stark an die Trainingsdaten angepasst und tendieren dann dazu, immer mit Standardantworten zu reagieren, weil es die quasi "auswendig gelernt" hat.

Weiter gibt es das Problem, dass man "feedback loops" nennt. Das tritt dann auf, wenn generative KIs mit Daten trainiert wurden, die von anderen KIs erzeugt wurden. Am Ende "lebt" das Modell quasi in einer Bubble und erzählt nur Mist :Lachen2:

ChatGPT und überhaupt große LLMs sind ziemlich gehypt. NNs gibt es ja schon länger und die Kerninnovation der "GPTs" ist das "T" - der Transformer. Es gibt das "Ur-Paper" hier zu von google aus dem Jahr 2017: Attention is all you need.

Fazit: Die Datenmenge im Internet ist begrenzt, insbesondere die Menge der qualitativ hochwertigen Informationen. Die Leistung solcher Systeme skaliert grundsätzlich mit Rechenpower und Datenmengen. Letztere sind wie gesagt begrenzt und ersteres ist der Grund, warum immer mehr, größere und leistungsfähigere Rechenzentren gebaut werden - mit immer mehr Energiebedarf und flankierenden Atomkraftwerken und Wasserversorgungen. Kotzen darf man gerne später :Lachen2:

Der Trend ist ein anderer: Man baut Softwaresysteme, die aus vielen kleinen Agenten bestehen und zentral von einem kleinen Sprachmodell (das leistungsmäßig durchaus auf einem iPhone laufen kann) gesteuert werden.

Zitat:

Zitat von Jimmi (Beitrag 1764583)
Gerade im Bereich Programmierung liefert chatGPT doch sehr gute Ergebnisse.

Nein. Definitiv nicht. Das ist auf dem Niveau eines Einsteigers ohne Berufserfahrung. Die Daten für den Bereich kommen hauptsächlich aus GitHub und aus Reddit. Wer ernsthaft Software Engineering und Softwareentwicklung betriebt, der weiß welcher Mist da oft drin steht.



:Blumen:

keko# 21.11.2024 09:57

Zitat:

Zitat von Jimmi (Beitrag 1764583)
Ich noch mal :)

Eine AGI wäre allmächtig:

Der Zugang zu der für die Entscheidungs- und Lösungsfindung nötigen Daten ist durch das www ja auf dem Silbertablett da. Wie schnell liefert google Ergebnisse? Wie große Datenmengen lassen sich in Millisekunden durchsuchen? Welche Fortschritt machen neuronale Netze?

Gerade im Bereich Programmierung liefert chatGPT doch sehr gute Ergebnisse.

Sag einer AGI, dass sie bitte alle Wasserwerke in Thüringen abstellen möge. Die bekommt das hin.

Man muss sich immer die enorme Entwicklung vor Augen halten: Als ich Schüler war, fand 1982 der erste Informatik-Kurs an der Schule statt: zu dritt durften wir uns 10min an einen PC setzen und etwas eintippen. Heute bauen pfiffige Schüler auf einem Raspi kleine Autos, die im Klassenzimmer herum fahren und sie über WLAN steuern. Informatik-Studenten bauen Rennautos, die sich (möglichst ;-) nicht gegenseitig crashen.

keko# 21.11.2024 10:00

Zitat:

Zitat von Helmut S (Beitrag 1764590)
....


Nein. Definitiv nicht. Das ist auf dem Niveau eines Einsteigers ohne Berufserfahrung. Die Daten für den Bereich kommen hauptsächlich aus GitHub und aus Reddit. Wer ernsthaft Software Engineering und Softwareentwicklung betriebt, der weiß welcher Mist da oft drin steht.



:Blumen:

Expertenwissen braucht es immer noch, aber auch Experten können ihr Wissen erweitern.
Und es ist ja nicht so, dass in der Softwareentwicklung heute nur Leute sitzen, die keine Fehler machen.

:Blumen:

Helmut S 21.11.2024 10:06

Zitat:

Zitat von keko# (Beitrag 1764593)
Und es ist ja nicht so, dass in der Softwareentwicklung heute nur Leute sitzen, die keine Fehler machen.

Das stimmt und das sieht man an den Trainingsdaten :Cheese: Im Ernst: Teilweise fehlt es an den Basics, was ChatGPT hier raus haut. Das hat mit Experte noch gar nix zu tun. Übrigens auch an den YT Videos sieht man das: Für den Fall, dass man versteht, was da gesprochen wird (Stichwort: indisches Englisch) merkt man doch immer wieder, dass viele einfach nicht verstehen, von was sie sprechen.

:Blumen:

keko# 21.11.2024 10:14

Zitat:

Zitat von Helmut S (Beitrag 1764596)
Das stimmt und das sieht man an den Trainingsdaten :Cheese: Im Ernst: Teilweise fehlt es an den Basics, was ChatGPT hier raus haut. Das hat mit Experte noch gar nix zu tun. Übrigens auch an den YT Videos sieht man das: Für den Fall, dass man versteht, was da gesprochen wird (Stichwort: indisches Englisch) merkt man doch immer wieder, dass viele einfach nicht verstehen, von was sie sprechen.

:Blumen:

Für die Zukunft sehe ich das folgende Problem: um die Ergebnisse von ChatGPT einzuordnen, braucht es Expertenwissen. Wie entstehen aber diese Experten, wenn sie sich ihr Wissen selbst hauptsächlich aus YT und ChatGPT holen (wollen versuchen)?

Jimmi 21.11.2024 15:14

Zitat:

Zitat von Helmut S (Beitrag 1764590)

Weiter gibt es das Problem, dass man "feedback loops" nennt. Das tritt dann auf, wenn generative KIs mit Daten trainiert wurden, die von anderen KIs erzeugt wurden. Am Ende "lebt" das Modell quasi in einer Bubble und erzählt nur Mist :Lachen2:


:Blumen:

Also lebt der Gödelsche Unvollständigkeitssatz noch. Beruhigend.

Adept 21.11.2024 18:19

Zitat:

Zitat von Jimmi (Beitrag 1764685)
Also lebt der Gödelsche Unvollständigkeitssatz noch. Beruhigend.

Gerade aus Interesse gecheckt, war mir zu hoch. :Lachen2:

Was sagt er denn in Laiensprache bezogen auf KI?

Helmut S 21.11.2024 20:16

Zitat:

Zitat von Adept (Beitrag 1764722)
Gerade aus Interesse gecheckt, war mir zu hoch. :Lachen2:

Was sagt er denn in Laiensprache bezogen auf KI?

My 5 Cents (es ist alles recht lange her):

Auf aktuelle Sprachmodelle und ML bezogen: null Komma null. Die beruhen auf statistischen Verfahren und nicht auf formalen Logiken.

Auf KI im Allgemeinen: philosophische und theoretische Konsequenzen. Gint es vollständige Modelle und all solche Fragen.

Auf spezielle Expertensysteme, die mit logisch formalem Schließen arbeiten: Korrektheit dieser Systeme kann nicht bewiesen werden.

Einzig in der Schule hätte man die Unvollständigkeitssätze in Algebra brauchen können um den Mathelehrer ins Schwitzen zu bringen. Das ist alles. Nerd-Flexing. ;)

:Blumen:

Adept 21.11.2024 22:20

Ok, gebe auf, verstehe nix. :Lachen2:

Danke trotzdem. :Blumen:

keko# 22.11.2024 09:03

Zitat:

Zitat von Adept (Beitrag 1764745)
Ok, gebe auf, verstehe nix. :Lachen2:

Danke trotzdem. :Blumen:

Ein paar Sachen sind im Grunde völlig banal. Stelle dir vor, du hast die Noten einer Schulkasse und ein paar Parameter der Schüler: Alter, Geschlecht, Bildungsstand der Eltern und Vorbereitungszeit für die Klausur.
Ein kleines Computerprogramm analysiert das alles, rechnet hin und her und erzeugt ein "Model": Es dreht dabei so lange an den Parametern herum, bis Echtdaten dann ein gutes Ergebnis bringen. Das Ganze wird dann in speziellen Datenbanken abgespeichert.
Dann kommt ein neuer Schüler daher, mit seinen Parametern (Alter, Geschlecht, ....). Ein Programm sucht in der Datenbank nach einem vergleichbaren Datensatz und spuckt den als Vorhersage aus: Welche Note schreibt der Schüler wahrscheinlich.
Und schon hast du eine kleine KI gebaut ("maschinelles Lernen") und kannst anfangen zu experimentieren und das alles erweitern :Blumen:

Helmut S 22.11.2024 09:41

Zitat:

Zitat von keko# (Beitrag 1764774)
Ein paar Sachen sind im Grunde völlig banal. Stelle dir vor, du hast die Noten einer Schulkasse und ein paar Parameter der Schüler: Alter, Geschlecht, Bildungsstand der Eltern und Vorbereitungszeit für die Klausur.
Ein kleines Computerprogramm analysiert das alles, rechnet hin und her und erzeugt ein "Model": Es dreht dabei so lange an den Parametern herum, bis Echtdaten dann ein gutes Ergebnis bringen. Das Ganze wird dann in speziellen Datenbanken abgespeichert.
Dann kommt ein neuer Schüler daher, mit seinen Parametern (Alter, Geschlecht, ....). Ein Programm sucht in der Datenbank nach einem vergleichbaren Datensatz und spuckt den als Vorhersage aus: Welche Note schreibt der Schüler wahrscheinlich.
Und schon hast du eine kleine KI gebaut ("maschinelles Lernen") und kannst anfangen zu experimentieren und das alles erweitern :Blumen:

Naja - wo ich dir zustimmen muss ist: Nicht überall wo KI drauf steht, ist auch NN und LLM drin :Cheese:

In dem Kontext der Bemerkung von Jimmi und der Frage von Adept, denke ich sollte man das aber schon etwas Differenzieren, denn meist haben Fragende an der Stelle ja schon LLMs im Kopf.


Was du da beschreibst ist das, was man (für den Fall, dass neuronale Netze verwendet werden) RAG KI nennt: Retrieval Augmented Generation KI.

Mit ML (machine learning) hat das zunächst(!) wenig zu tun. Freilich werden die dafür eingesetzten NNs ggf. mit ML Techniken trainiert. So banal ist das dann aber schon nicht mehr:

<nerd alarm=on>Dabei (ML) geht es darum, dass NNs so gestaltet sind, dass Matrix- und Aktivierungsfunktionen (diese nur fast überall) differenzierbar sind. Matrixfunktionen sind dabei linear, Aktivierungsfunktionen nicht. Das ist wichtig um im Wege einer Backpropagation Parameter automatisch so anzupassen, dass es zu einer optimalen Ausgabe kommt. Durch die Differenzierbarkeit ist sichergestellt, dass die Abweichung zwischen Vorhersage und optimaler Ausgabe berechnet und so die Parameter optimal angepasst werden können (Stichwort: Gradientenabstieg). Im Endeffekt ist ML also ein mathematische Optimierungsaufgabe. Das nachsehen in einer Datenbank ist dafür nicht hinreichend..
</nerd >


:Blumen:

keko# 22.11.2024 09:55

Zitat:

Zitat von Helmut S (Beitrag 1764786)
Naja - wo ich dir zustimmen muss ist: Nicht überall wo KI drauf steht, ist auch NN und LLM drin :Cheese: ....
:Blumen:

Mit RAG und Backpropagation hängst du doch 99% aller Mitleser ab. Wer kann auf Anhieb denn erklären, was eine Matrix und Gradientenabstieg ist?
Ich habe das alles elegant mit "rechnet hin und her" umschrieben. :Lachen2:

:Blumen:

Jimmi 22.11.2024 10:03

Zu Gödel, wie ich ihn verstanden habe:

Die gesamte angewandte Wissenschaft besteht aus logischen Ketten: Wenn, dann und die Verknüpfung über eine mathematische Beziehung. Dabei entwickelt sich aus einer einfachen Beobachtung (Apfel fällt nach unten) ein Gravitationsgesetz und irgendwann Ideen für eine Weltformel a la Hawking, die keine Sau mehr versteht.

Die Mathematik ist ähnlich aufgebaut. Aus einfachen Axiomen kann der geneigte Nutzer irgendwann differenzierbare Matrixfunktionen oder partielle Differentialgleichungen n-ter Ordnung aufbauen. Im System selbst ergeben die Lösungen Sinn. Weil 1+1=2 ja auch Sinn ergibt. Im Grunde aber nur eine Notation ist.

Gödel hat gezeigt, dass es in so einem System Grundvoraussetzungen gibt, welche nicht beweisbar sind. D.h. das System ergibt einen weitverzweigten aber geschlossen Kosmos, ohne die mögliche Einsicht, dass an der Basis was nicht stimmt, weil das ganze System ja auf dieser Basis beruht. Meschen können das, streng algorithmisch arbeitende Maschinen wohl noch nicht.

https://de.wikipedia.org/wiki/G%C3%B6del,_Escher,_Bach

TriVet 22.11.2024 10:08

Zitat:

Zitat von keko# (Beitrag 1764793)
Mit RAG und Backpropagation hängst du doch 99% aller Mitleser ab. Wer kann auf Anhieb denn erklären, was eine Matrix und Gradientenabstieg :

Ihr könntet für uns Normalos ja mal mit einem kleinen Glossar der gängigen Abkürzungen und Begriffe anfangen. :Blumen: :Blumen:


Alle Zeitangaben in WEZ +2. Es ist jetzt 10:37 Uhr.

Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.