![]() |
Zitat:
:Blumen: |
Spannende Geschichte - @Klugschnacker, ich persönlich würde vermutlich auch bei der Firma nachfragen, bzw. was spricht dagegen ?
Ich kann mir, wie unten schon genannt, gut vorstellen, dass hier eine Trollfarm das Netz nach der hier benutzten Forensoftware absucht und bots mit gehackten email Addressen losschickt. Diese ganze generative AI Geschichte ist schon ein wenig scary und wird sicherlich gute und neue regulatorische Ansätze benötigen. Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde... |
Zitat:
|
Zitat:
Zitat:
Jedoch könnte es sein, wie du schreibst, dass sich Maschinen selbst neues Wissen generieren. Allerdings benötigen wir für diese Debatte zwei Gruppen von Grundlagen: a) Erkenntnistheoretische Grundlagen, wie z.B. "Was ist Wissen?", "Was ist Wahrheit"? "Was ist gerechtfertigte Meinung?" (Für den Fall, dass wir auf die klassische Begriffsbestimmung zurückgreifen wollen). Du musst dir halt darüber im Klaren sein, dass Wahrheit kein Wissensbegriff ist (es kann etwas wahr sein, dass du gar nicht nicht weißt), Wissen in seiner Begriffsbestimmung aber davon abhängt, dass es wahr ist. Was wiederum erkenntnistheoretisch durchaus problematisch ist - siehe die Fragen am Anfang. Jedoch muss man ja mal bei den Grundlagen anfangen (Korrespondenztheorie). Merke: Wissen und Wahrheit ist praktisch zwecklos, wenn es den Menschen nicht durch den Tag hilft. Aus diesem Grunde glauben Menschen gerne Dinge, die ihnen durch den Tag helfen (bzw. von denen sie glauben sie würden), seien wahr (z.B. Verschwörungstheorien, Religion). b) Autonome Interaktion der KI mit der Umwelt. KI Systeme wie der ChatGPT werden grundsätzlich trainiert, die bringen sich selbst nichts bei (supervised learning). Auch die Abschätzung des Trainingserfolges macht das System nicht selbst. Was ChatGPT schon macht, ist unsupervised learning, d.h. es such selbstständig nach Mustern, Anomalien, Clustern usw. Was viele Leute an der Stelle fälschlicherweise vermuten, ist (deep) reinforcement learning. Vereinfacht: Es gibt wenige Regeln, die KI darf mal loslegen und was "ausprobieren". In der Regel gibt es dann ein neuronales Netze, dass den Handlungserfolg der KI beurteilt (dieses Netz wurde trainiert). Das Ergebnis dieses Abschätzung führt zu einer justierung der Parameter der KI und dann geht es weiter mit "trail & error". Interessant wir5d es dann, wenn autonome Agenten selbst die grundlegenden Regeln der Handlungsdomäne erkennen und sich so neue Domänen erarbeiten können. Ich habe im KI Thread diesbezüglich schon mal auf MuZero verweisen. Jedoch fehlt an der Stelle immer noch die autonome (und bewusste) Abschätzung des Handlungserfolges in der bisher unbekannten Domäne. :Blumen: |
Zitat:
Aber warum sollten Maschinen keine Moral haben? Sind das letztendlich nicht auch bloss Muster? Mir ist kein allgemeingültiges Naturgesetz "Moral = ...." bekannt. :Blumen: |
Das sind philosophische Erwägungen, die aus meiner oberflächlichen Sicht zu sehr auf die menschliche Intelligenz zugeschnitten sind.
Ein Computer braucht nicht im menschlichen Sinne intelligent zu sein. Die biologische Evolution ist ebenfalls nicht intelligent (nach menschlicher Definition) und bringt trotzdem komplexe und kreative Lösungen hervor: Kein Mensch wäre intelligent genug, um eine Leber zu bauen; die Natur macht das seit ein paar hundert Millionen Jahren. Sie hat dabei einfach für jede Entscheidung tausende Male gewürfelt, bis sie einen Treffer hatte. Auf diesem Entwicklungspfad ging es dann weiter. Ein Computer kann ebenfalls durch milliardenfaches Herumprobieren zu einer Lösung kommen. Die vergisst er dann nie mehr. Alle seine Erkenntnisse kann er verlustfrei an andere Rechner weitergeben. Auf diesem Erkenntnispfad geht es dann weiter zur nächsten Erkenntnis. Heutige Computer können das nicht oder nur so halb. Die Zutaten sind aber bereits vorhanden: Rechenleistung, Speicher, Vernetzung. |
Zitat:
|
Zitat:
Der Koran und die Hadite, das Alte und Neue Testament und so weiter brauchen doch kaum Platz auf der Festplatte. Für einen Computer ist das ein Kinderspiel. If, else, fertig. Komplex wird erst der Verzicht auf Moral, oder mit anderen Worten: Der Verzicht darauf, mittels einfacher Regeln die Welt in Gut und Böse einzuteilen. |
Alle Zeitangaben in WEZ +2. Es ist jetzt 14:34 Uhr. |
Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.