triathlon-szene.de |  Europas aktivstes Triathlon  Forum

triathlon-szene.de | Europas aktivstes Triathlon Forum (https://www.triathlon-szene.de/forum/index.php)
-   Politik, Religion & Gesellschaft (https://www.triathlon-szene.de/forum/forumdisplay.php?f=30)
-   -   Was bringt es einem Chatbot, hier zu posten? (https://www.triathlon-szene.de/forum/showthread.php?t=51992)

keko# 24.05.2023 23:08

Zitat:

Zitat von svmechow (Beitrag 1709503)
...

Und ähnlich gestaltet es sich doch hier, wo hoffentlich ausschließlich echte Menschen zumindest grösstenteils ihre eigene Meinung vertreten und das zum Teil sogar unter ihrem Klarnamen. Und dann kommt da so eine Robotertussie und versucht, uns an der Nase herumzuführen.

Es ist gut, dass sich durch ChatGPT nun auch Menschen wie du mit dieser Technik beschäftigen. Durch diesen Bot/Thread fällt es dir vielleicht auf, aber umgeben bist du von dieser Technologie schon lange. Wir erleben gerade lediglich seichte Anfänge.
:Blumen:

walter 24.05.2023 23:25

Spannende Geschichte - @Klugschnacker, ich persönlich würde vermutlich auch bei der Firma nachfragen, bzw. was spricht dagegen ?

Ich kann mir, wie unten schon genannt, gut vorstellen, dass hier eine Trollfarm das Netz nach der hier benutzten Forensoftware absucht und bots mit gehackten email Addressen losschickt.

Diese ganze generative AI Geschichte ist schon ein wenig scary und wird sicherlich gute und neue regulatorische Ansätze benötigen. Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde...

keko# 25.05.2023 07:39

Zitat:

Zitat von walter (Beitrag 1709528)
... Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde...

Das, was schon passiert: Maschinen werden sich neues Wissen selbst generieren. :Blumen:

Helmut S 25.05.2023 08:36

Zitat:

Zitat von walter (Beitrag 1709528)
Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde...

Zitat:

Zitat von keko# (Beitrag 1709534)
Das, was schon passiert: Maschinen werden sich neues Wissen selbst generieren. :Blumen:

Ach keko! Wenn das so wäre wie walter beschreibt, dann wird es 100%ig nicht so so sein wie du schreibst :Cheese:

Jedoch könnte es sein, wie du schreibst, dass sich Maschinen selbst neues Wissen generieren. Allerdings benötigen wir für diese Debatte zwei Gruppen von Grundlagen:

a) Erkenntnistheoretische Grundlagen, wie z.B. "Was ist Wissen?", "Was ist Wahrheit"? "Was ist gerechtfertigte Meinung?" (Für den Fall, dass wir auf die klassische Begriffsbestimmung zurückgreifen wollen). Du musst dir halt darüber im Klaren sein, dass Wahrheit kein Wissensbegriff ist (es kann etwas wahr sein, dass du gar nicht nicht weißt), Wissen in seiner Begriffsbestimmung aber davon abhängt, dass es wahr ist. Was wiederum erkenntnistheoretisch durchaus problematisch ist - siehe die Fragen am Anfang. Jedoch muss man ja mal bei den Grundlagen anfangen (Korrespondenztheorie).

Merke: Wissen und Wahrheit ist praktisch zwecklos, wenn es den Menschen nicht durch den Tag hilft. Aus diesem Grunde glauben Menschen gerne Dinge, die ihnen durch den Tag helfen (bzw. von denen sie glauben sie würden), seien wahr (z.B. Verschwörungstheorien, Religion).

b) Autonome Interaktion der KI mit der Umwelt. KI Systeme wie der ChatGPT werden grundsätzlich trainiert, die bringen sich selbst nichts bei (supervised learning). Auch die Abschätzung des Trainingserfolges macht das System nicht selbst. Was ChatGPT schon macht, ist unsupervised learning, d.h. es such selbstständig nach Mustern, Anomalien, Clustern usw.

Was viele Leute an der Stelle fälschlicherweise vermuten, ist (deep) reinforcement learning. Vereinfacht: Es gibt wenige Regeln, die KI darf mal loslegen und was "ausprobieren". In der Regel gibt es dann ein neuronales Netze, dass den Handlungserfolg der KI beurteilt (dieses Netz wurde trainiert). Das Ergebnis dieses Abschätzung führt zu einer justierung der Parameter der KI und dann geht es weiter mit "trail & error".

Interessant wir5d es dann, wenn autonome Agenten selbst die grundlegenden Regeln der Handlungsdomäne erkennen und sich so neue Domänen erarbeiten können. Ich habe im KI Thread diesbezüglich schon mal auf MuZero verweisen. Jedoch fehlt an der Stelle immer noch die autonome (und bewusste) Abschätzung des Handlungserfolges in der bisher unbekannten Domäne.

:Blumen:

keko# 25.05.2023 08:57

Zitat:

Zitat von Helmut S (Beitrag 1709545)
....
Merke: Wissen und Wahrheit ist praktisch zwecklos, wenn es den Menschen nicht durch den Tag hilft. Aus diesem Grunde glauben Menschen gerne Dinge, die ihnen durch den Tag helfen (bzw. von denen sie glauben sie würden), seien wahr (z.B. Verschwörungstheorien, Religion)....

Neben "Wissen" und "Wahrheit" fehlt hier der Begriff "Moral", der letztendlich den Menschen zum Menschen macht.
Aber warum sollten Maschinen keine Moral haben? Sind das letztendlich nicht auch bloss Muster? Mir ist kein allgemeingültiges Naturgesetz "Moral = ...." bekannt.
:Blumen:

Klugschnacker 25.05.2023 09:12

Das sind philosophische Erwägungen, die aus meiner oberflächlichen Sicht zu sehr auf die menschliche Intelligenz zugeschnitten sind.

Ein Computer braucht nicht im menschlichen Sinne intelligent zu sein. Die biologische Evolution ist ebenfalls nicht intelligent (nach menschlicher Definition) und bringt trotzdem komplexe und kreative Lösungen hervor: Kein Mensch wäre intelligent genug, um eine Leber zu bauen; die Natur macht das seit ein paar hundert Millionen Jahren. Sie hat dabei einfach für jede Entscheidung tausende Male gewürfelt, bis sie einen Treffer hatte. Auf diesem Entwicklungspfad ging es dann weiter.

Ein Computer kann ebenfalls durch milliardenfaches Herumprobieren zu einer Lösung kommen. Die vergisst er dann nie mehr. Alle seine Erkenntnisse kann er verlustfrei an andere Rechner weitergeben. Auf diesem Erkenntnispfad geht es dann weiter zur nächsten Erkenntnis.

Heutige Computer können das nicht oder nur so halb. Die Zutaten sind aber bereits vorhanden: Rechenleistung, Speicher, Vernetzung.

schnodo 25.05.2023 09:28

Zitat:

Zitat von Klugschnacker (Beitrag 1709550)
Ein Computer braucht nicht im menschlichen Sinne intelligent zu sein. Die biologische Evolution ist ebenfalls nicht intelligent (nach menschlicher Definition) und bringt trotzdem komplexe und kreative Lösungen hervor: Kein Mensch wäre intelligent genug, um eine Leber zu bauen; die Natur macht das seit ein paar hundert Millionen Jahren. Sie hat dabei einfach für jede Entscheidung tausende Male gewürfelt, bis sie einen Treffer hatte. Auf diesem Entwicklungspfad ging es dann weiter.

Das ist ein sehr griffiges Beispiel, das ich gerade gut gebrauchen kann. Danke dafür! :Blumen:

Klugschnacker 25.05.2023 09:32

Zitat:

Zitat von keko# (Beitrag 1709548)
Neben "Wissen" und "Wahrheit" fehlt hier der Begriff "Moral", der letztendlich den Menschen zum Menschen macht.

Moral ist ein Bündel recht einfacher Regeln. Wer das Haar offen trägt, wird ausgepeitscht. Warum sollte ein Computer das nicht lernen können?

Der Koran und die Hadite, das Alte und Neue Testament und so weiter brauchen doch kaum Platz auf der Festplatte. Für einen Computer ist das ein Kinderspiel. If, else, fertig.

Komplex wird erst der Verzicht auf Moral, oder mit anderen Worten: Der Verzicht darauf, mittels einfacher Regeln die Welt in Gut und Böse einzuteilen.


Alle Zeitangaben in WEZ +2. Es ist jetzt 14:34 Uhr.

Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.