Und ähnlich gestaltet es sich doch hier, wo hoffentlich ausschließlich echte Menschen zumindest grösstenteils ihre eigene Meinung vertreten und das zum Teil sogar unter ihrem Klarnamen. Und dann kommt da so eine Robotertussie und versucht, uns an der Nase herumzuführen.
Es ist gut, dass sich durch ChatGPT nun auch Menschen wie du mit dieser Technik beschäftigen. Durch diesen Bot/Thread fällt es dir vielleicht auf, aber umgeben bist du von dieser Technologie schon lange. Wir erleben gerade lediglich seichte Anfänge.
Spannende Geschichte - @Klugschnacker, ich persönlich würde vermutlich auch bei der Firma nachfragen, bzw. was spricht dagegen ?
Ich kann mir, wie unten schon genannt, gut vorstellen, dass hier eine Trollfarm das Netz nach der hier benutzten Forensoftware absucht und bots mit gehackten email Addressen losschickt.
Diese ganze generative AI Geschichte ist schon ein wenig scary und wird sicherlich gute und neue regulatorische Ansätze benötigen. Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde...
... Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde...
Das, was schon passiert: Maschinen werden sich neues Wissen selbst generieren.
Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde...
Zitat:
Zitat von keko#
Das, was schon passiert: Maschinen werden sich neues Wissen selbst generieren.
Ach keko! Wenn das so wäre wie walter beschreibt, dann wird es 100%ig nicht so so sein wie du schreibst
Jedoch könnte es sein, wie du schreibst, dass sich Maschinen selbst neues Wissen generieren. Allerdings benötigen wir für diese Debatte zwei Gruppen von Grundlagen:
a) Erkenntnistheoretische Grundlagen, wie z.B. "Was ist Wissen?", "Was ist Wahrheit"? "Was ist gerechtfertigte Meinung?" (Für den Fall, dass wir auf die klassische Begriffsbestimmung zurückgreifen wollen). Du musst dir halt darüber im Klaren sein, dass Wahrheit kein Wissensbegriff ist (es kann etwas wahr sein, dass du gar nicht nicht weißt), Wissen in seiner Begriffsbestimmung aber davon abhängt, dass es wahr ist. Was wiederum erkenntnistheoretisch durchaus problematisch ist - siehe die Fragen am Anfang. Jedoch muss man ja mal bei den Grundlagen anfangen (Korrespondenztheorie).
Merke: Wissen und Wahrheit ist praktisch zwecklos, wenn es den Menschen nicht durch den Tag hilft. Aus diesem Grunde glauben Menschen gerne Dinge, die ihnen durch den Tag helfen (bzw. von denen sie glauben sie würden), seien wahr (z.B. Verschwörungstheorien, Religion).
b) Autonome Interaktion der KI mit der Umwelt. KI Systeme wie der ChatGPT werden grundsätzlich trainiert, die bringen sich selbst nichts bei (supervised learning). Auch die Abschätzung des Trainingserfolges macht das System nicht selbst. Was ChatGPT schon macht, ist unsupervised learning, d.h. es such selbstständig nach Mustern, Anomalien, Clustern usw.
Was viele Leute an der Stelle fälschlicherweise vermuten, ist (deep) reinforcement learning. Vereinfacht: Es gibt wenige Regeln, die KI darf mal loslegen und was "ausprobieren". In der Regel gibt es dann ein neuronales Netze, dass den Handlungserfolg der KI beurteilt (dieses Netz wurde trainiert). Das Ergebnis dieses Abschätzung führt zu einer justierung der Parameter der KI und dann geht es weiter mit "trail & error".
Interessant wir5d es dann, wenn autonome Agenten selbst die grundlegenden Regeln der Handlungsdomäne erkennen und sich so neue Domänen erarbeiten können. Ich habe im KI Thread diesbezüglich schon mal auf MuZero verweisen. Jedoch fehlt an der Stelle immer noch die autonome (und bewusste) Abschätzung des Handlungserfolges in der bisher unbekannten Domäne.
....
Merke: Wissen und Wahrheit ist praktisch zwecklos, wenn es den Menschen nicht durch den Tag hilft. Aus diesem Grunde glauben Menschen gerne Dinge, die ihnen durch den Tag helfen (bzw. von denen sie glauben sie würden), seien wahr (z.B. Verschwörungstheorien, Religion)....
Neben "Wissen" und "Wahrheit" fehlt hier der Begriff "Moral", der letztendlich den Menschen zum Menschen macht.
Aber warum sollten Maschinen keine Moral haben? Sind das letztendlich nicht auch bloss Muster? Mir ist kein allgemeingültiges Naturgesetz "Moral = ...." bekannt.
Das sind philosophische Erwägungen, die aus meiner oberflächlichen Sicht zu sehr auf die menschliche Intelligenz zugeschnitten sind.
Ein Computer braucht nicht im menschlichen Sinne intelligent zu sein. Die biologische Evolution ist ebenfalls nicht intelligent (nach menschlicher Definition) und bringt trotzdem komplexe und kreative Lösungen hervor: Kein Mensch wäre intelligent genug, um eine Leber zu bauen; die Natur macht das seit ein paar hundert Millionen Jahren. Sie hat dabei einfach für jede Entscheidung tausende Male gewürfelt, bis sie einen Treffer hatte. Auf diesem Entwicklungspfad ging es dann weiter.
Ein Computer kann ebenfalls durch milliardenfaches Herumprobieren zu einer Lösung kommen. Die vergisst er dann nie mehr. Alle seine Erkenntnisse kann er verlustfrei an andere Rechner weitergeben. Auf diesem Erkenntnispfad geht es dann weiter zur nächsten Erkenntnis.
Heutige Computer können das nicht oder nur so halb. Die Zutaten sind aber bereits vorhanden: Rechenleistung, Speicher, Vernetzung.
Ein Computer braucht nicht im menschlichen Sinne intelligent zu sein. Die biologische Evolution ist ebenfalls nicht intelligent (nach menschlicher Definition) und bringt trotzdem komplexe und kreative Lösungen hervor: Kein Mensch wäre intelligent genug, um eine Leber zu bauen; die Natur macht das seit ein paar hundert Millionen Jahren. Sie hat dabei einfach für jede Entscheidung tausende Male gewürfelt, bis sie einen Treffer hatte. Auf diesem Entwicklungspfad ging es dann weiter.
Das ist ein sehr griffiges Beispiel, das ich gerade gut gebrauchen kann. Danke dafür!
Neben "Wissen" und "Wahrheit" fehlt hier der Begriff "Moral", der letztendlich den Menschen zum Menschen macht.
Moral ist ein Bündel recht einfacher Regeln. Wer das Haar offen trägt, wird ausgepeitscht. Warum sollte ein Computer das nicht lernen können?
Der Koran und die Hadite, das Alte und Neue Testament und so weiter brauchen doch kaum Platz auf der Festplatte. Für einen Computer ist das ein Kinderspiel. If, else, fertig.
Komplex wird erst der Verzicht auf Moral, oder mit anderen Worten: Der Verzicht darauf, mittels einfacher Regeln die Welt in Gut und Böse einzuteilen.