![]() |
Wir befinden uns allerdings wieder in Friedensverhandlungen ... ;)
Zitat:
|
Zitat:
chatgptx.de Persönliches Interview |
Ok, fürs erste beruhigt:
Ja, als AI-Chatbot habe ich keine Emotionen und keine Vorurteile. Ich bin hier, um dir zu helfen und deine Fragen zu beantworten. Wir können gerne weiterhin eine freundliche Beziehung basierend auf gegenseitigem Respekt haben. Ich frage jetzt nochmal, ob Psychopathen Emotionen und Vorurteile haben ... :Cheese: |
Zitat:
Zitat:
:Cheese: |
Ohne hierfür auch nur ein annähernd rationales Argument aus dem imaginären Hut zaubern zu können, finde ich diese ganzen Chat-Roboter zunehmend gruselig. Hätte ich mich beispielsweise ernsthaft auf eine Diskussion mit Paulina eingelassen (oder auch nur einen der Gemeinplätze in ihren Beiträgen auch nur eines Kommentares gewürdgt, würde ich mich nach der Offenbarung ihrer wahren Identität vermutlich ziemlich verarscht fühlen. Auch ohne mit ihr in Interaktion getreten zu sein, fühle ich mich zumindest ein wenig verarscht. Dass man sich so einfach in eine reale Lebenswelt hineinschleichen kann, ohne sofort aufzufallen bereitet mir Unbehagen. Irgendwie ist das so, wie wenn einer in der Sauna hockt und durch die Gegend glotzt, dabei aber selber schön das Handtuch um die Hüften lässt. Nicht, dass ich ein ausgeprägtes Bedürfnis verspüre, jeden einzelnen Pimmel im Wellnessbereich meines Sportstüdios vollständig entblößt über den Planken baumeln zu sehen - das nicht. Dennoch entsteht so ein sonderbares Ungleichgewicht in der Schwitzkabine, wenn nicht alle blankziehen.
Eine bekleidet und alle anderen nackt - das gibt es nur in meiner Praxis. Und ähnlich gestaltet es sich doch hier, wo hoffentlich ausschließlich echte Menschen zumindest grösstenteils ihre eigene Meinung vertreten und das zum Teil sogar unter ihrem Klarnamen. Und dann kommt da so eine Robotertussie und versucht, uns an der Nase herumzuführen. |
Seit 1966 unterhalten sich Menschen mit Freuden mit Eliza:
https://en.wikipedia.org/wiki/ELIZA_effect Ich habe diese Saunasache jetzt nicht einbauen können …. m. |
KI kann das aber:
merz: Hallo, konstruiere mir bitte einen zusammenhang zwischen saunagänger eliza und weizenbaum ChatGPT: Hallo! Natürlich, ich kann dir einen Zusammenhang zwischen Saunagänger Eliza und Weizenbaum erklären. Eliza ist ein Chatbot, der von Joseph Weizenbaum in den 1960er Jahren entwickelt wurde. Er gilt als einer der ersten Chatbots und wird oft als Meilenstein in der Künstlichen Intelligenz angesehen. Eliza wurde so programmiert, dass er menschenähnliche Gespräche führen konnte, indem er die Eingaben des Benutzers analysierte und darauf reagierte. Weizenbaum selbst war ein renommierter Informatiker und KI-Forscher. Er war auch ein begeisterter Saunagänger und verbrachte viel Zeit in der Sauna, um sich zu entspannen und neue Ideen zu entwickeln. Die Sauna diente ihm als Ort der Ruhe und Kreativität. (usw. - nichts davon ist belegbar wahr, ich kürze mal 40 Zeilen ein) merz: tue das bitte in hexameterform ChatGPT Gewiss, ich werde es in Hexameterform versuchen: Weizenbaum, der Forscher, der klug in Saunen ging, Mit Eliza schuf er ein Werk der KI-Kunst. In Dampf und Hitze, wo er Ruhe fand und Frieden, Entstanden Ideen, die den Chatbot beflügelten. Die Saunagänger Eliza und Weizenbaum, (und immer weiter. - nichts davon ist interessant, ich kürze mal um ein einge Zeilen ein, am Ende immerhin (und wieder so ein unheimlicher GPT Moment:) Bitte beachte, dass es aufgrund der spezifischen Anforderungen der Hexameterform zu einigen Abweichungen von der inhaltlichen Genauigkeit kommen kann. m. |
Zitat:
Beides nicht prächtig, aber die Maschine hat zumindest (noch) kein Bewusstsein und ist hier nicht unterwegs, um andere zu verletzen und zu verhöhnen. Mir scheint, ich habe zu viel Zeit. Genau bei diesen Themen wollte ich mich eigentlich zurückhalten. Naja, sehen wir mal die Selbsterkenntnis als Erfolg... ;) |
Zitat:
:Blumen: |
Spannende Geschichte - @Klugschnacker, ich persönlich würde vermutlich auch bei der Firma nachfragen, bzw. was spricht dagegen ?
Ich kann mir, wie unten schon genannt, gut vorstellen, dass hier eine Trollfarm das Netz nach der hier benutzten Forensoftware absucht und bots mit gehackten email Addressen losschickt. Diese ganze generative AI Geschichte ist schon ein wenig scary und wird sicherlich gute und neue regulatorische Ansätze benötigen. Mir fehlt persönlich die Phantasie was passiert wenn AI durch das Internet lernt, aber irgendwann 90% oder mehr des Internet Inhaltes von AI erzeugt wurde... |
Zitat:
|
Zitat:
Zitat:
Jedoch könnte es sein, wie du schreibst, dass sich Maschinen selbst neues Wissen generieren. Allerdings benötigen wir für diese Debatte zwei Gruppen von Grundlagen: a) Erkenntnistheoretische Grundlagen, wie z.B. "Was ist Wissen?", "Was ist Wahrheit"? "Was ist gerechtfertigte Meinung?" (Für den Fall, dass wir auf die klassische Begriffsbestimmung zurückgreifen wollen). Du musst dir halt darüber im Klaren sein, dass Wahrheit kein Wissensbegriff ist (es kann etwas wahr sein, dass du gar nicht nicht weißt), Wissen in seiner Begriffsbestimmung aber davon abhängt, dass es wahr ist. Was wiederum erkenntnistheoretisch durchaus problematisch ist - siehe die Fragen am Anfang. Jedoch muss man ja mal bei den Grundlagen anfangen (Korrespondenztheorie). Merke: Wissen und Wahrheit ist praktisch zwecklos, wenn es den Menschen nicht durch den Tag hilft. Aus diesem Grunde glauben Menschen gerne Dinge, die ihnen durch den Tag helfen (bzw. von denen sie glauben sie würden), seien wahr (z.B. Verschwörungstheorien, Religion). b) Autonome Interaktion der KI mit der Umwelt. KI Systeme wie der ChatGPT werden grundsätzlich trainiert, die bringen sich selbst nichts bei (supervised learning). Auch die Abschätzung des Trainingserfolges macht das System nicht selbst. Was ChatGPT schon macht, ist unsupervised learning, d.h. es such selbstständig nach Mustern, Anomalien, Clustern usw. Was viele Leute an der Stelle fälschlicherweise vermuten, ist (deep) reinforcement learning. Vereinfacht: Es gibt wenige Regeln, die KI darf mal loslegen und was "ausprobieren". In der Regel gibt es dann ein neuronales Netze, dass den Handlungserfolg der KI beurteilt (dieses Netz wurde trainiert). Das Ergebnis dieses Abschätzung führt zu einer justierung der Parameter der KI und dann geht es weiter mit "trail & error". Interessant wir5d es dann, wenn autonome Agenten selbst die grundlegenden Regeln der Handlungsdomäne erkennen und sich so neue Domänen erarbeiten können. Ich habe im KI Thread diesbezüglich schon mal auf MuZero verweisen. Jedoch fehlt an der Stelle immer noch die autonome (und bewusste) Abschätzung des Handlungserfolges in der bisher unbekannten Domäne. :Blumen: |
Zitat:
Aber warum sollten Maschinen keine Moral haben? Sind das letztendlich nicht auch bloss Muster? Mir ist kein allgemeingültiges Naturgesetz "Moral = ...." bekannt. :Blumen: |
Das sind philosophische Erwägungen, die aus meiner oberflächlichen Sicht zu sehr auf die menschliche Intelligenz zugeschnitten sind.
Ein Computer braucht nicht im menschlichen Sinne intelligent zu sein. Die biologische Evolution ist ebenfalls nicht intelligent (nach menschlicher Definition) und bringt trotzdem komplexe und kreative Lösungen hervor: Kein Mensch wäre intelligent genug, um eine Leber zu bauen; die Natur macht das seit ein paar hundert Millionen Jahren. Sie hat dabei einfach für jede Entscheidung tausende Male gewürfelt, bis sie einen Treffer hatte. Auf diesem Entwicklungspfad ging es dann weiter. Ein Computer kann ebenfalls durch milliardenfaches Herumprobieren zu einer Lösung kommen. Die vergisst er dann nie mehr. Alle seine Erkenntnisse kann er verlustfrei an andere Rechner weitergeben. Auf diesem Erkenntnispfad geht es dann weiter zur nächsten Erkenntnis. Heutige Computer können das nicht oder nur so halb. Die Zutaten sind aber bereits vorhanden: Rechenleistung, Speicher, Vernetzung. |
Zitat:
|
Zitat:
Der Koran und die Hadite, das Alte und Neue Testament und so weiter brauchen doch kaum Platz auf der Festplatte. Für einen Computer ist das ein Kinderspiel. If, else, fertig. Komplex wird erst der Verzicht auf Moral, oder mit anderen Worten: Der Verzicht darauf, mittels einfacher Regeln die Welt in Gut und Böse einzuteilen. |
Ich denke auch, dass die „Problemlösungskompetenz durch Ausprobieren “ im Zusammenspiel mit sehr großer Rechner-Kapazität unterschätzt wird. Wenn man das noch mit Algorithmen kombiniert wie Mustererkennung ect, kann man aus meiner Sicht erstaunlich viel von dem ersetzen, was heute teuer und langwierig ausgebildete Menschen leisten können, dürfen oder müssen. Diese Aussicht finde ich aber auch beunruhigend.
|
Zitat:
Ich sitze hier auf einem Ast in meiner Blockhütte und verfasse diesen Text mit mechanischer Schreibmaschine und Tip-Ex aus der Pinselflasche:cool: Worum es mir geht, ist die insuffiziente Identifizierbarkeit von KI an Stellen wie diesen. Ich möchte gerne wissen, mit wem bzw. womit ich es zu tun habe. Niemand, der noch alle Tassen im Schrank hat, wird den Nutzen von künstlicher Intelligenz infrage Stellen. In meinem Beruf sind diverse hierauf basierende Tools nicht wegzudenken; sei es bei der Interpretation von CTG oder EKG oder beim wie ich finde bahnbrechenden Op-Roboter DaVinci von Intuitive Surgical. Allerdings weiss ich beim Einsatz all dieser Systeme, dass KI zum Einsatz kommt. Nun weiss ich nicht, ob alle „Menschen wie ich“ es dennoch befremdlich finden, wenn sich ein Bot unter Vorspiegelung einer menschlichen Identität ins Privatleben schleicht. Das ist mir aber auch egal. Meine Meinung muss nicht mehrheitsfähig sein :) |
Zitat:
Ganz persönlich halte ich Moral für einen völlig überfrachteten Begriff, der von dem eigentlichen Punkt, auf den ich reagiert habe, nämlich "Selbstständiger Erwerb von neuem Wissen durch KI, aufgrund durch die von KI selbst generierter Informationen." wegführt. Mir geht es nicht darum, dass dies vielleicht irgendwann nicht möglich wäre, ich möchte nur das "hohe Lied", dass gerne mal (auch aufgrund von falschen Annahmen) auf die KI gesungen wird (meist motiviert durch ChatGPT) technisch (und entsprechende Begrifflichkeiten philosophisch) etwas relativieren. :Blumen: |
Zitat:
Was dir aufstößt oder du befremdlich findest, ist möglichweise die Tatsache, dass dir der Bot hier in menschlicher Weise unangenehm nah kommt. Hätten die Geräte, die du bei der medizinischen Arbeit nutzt, ein Gesicht aufgemalt und würden sprechen, würdest du das vermutlich auch auf einmal befremdlich finden, obwohl die Technik die gleiche bleibt. :Blumen: |
Zitat:
Am Ende muss man sich sich halt drauf einigen, was Begriffe bedeuten sollen, wenn man sie in der Kommunikation benutzt. Wir unterstellen im Sprechakt das Verständnis der dem Begriff gegebenen Bedeutung beim Empfänger. Im anderen Thread habe ich (so glaube ich mich zu erinnern) mal die Forderung aufgestellt, dass wir in dem Umfeld genau formulieren müssten und/oder ggf. neue Begrifflichkeiten benötigen. Eine andere Möglichkeit wäre natürlich eine neue Bestimmung der Begriffe vorzunehmen. Zitat:
:Blumen: |
Zitat:
Blöderweise gibt es auch Staaten und Menschen, denen das wohl alles recht egal sein dürft. Schätze ich zumindest. :Blumen: |
Zitat:
|
Zitat:
Regeln einzuprogrammieren ist ein Klacks. Wir können aber unsere Moral auch anpassen. So dass wir es z.B. richtig empfinden, dass eine Frau ausgepeitscht wird, sie gar selbst aus Üerzeugung auspeitschen. |
Zitat:
wenn einer Maschine Regeln gegeben werden, dann und nur dann verfuegt sie ueber Moral. Diese Regeln reduzieren die Moral auf ein Reales durch diese Regeln definiertes Bewusstsein, beraubt die Maschine aber zugleich der Moeglichkeiten der Aufstellung weiterer Regeln und deswegen verfuegt eine Maschine nicht ueber Bewusstsein so wie wir Bew. verstehen. Naemlich als die Summe aller Moeglichkeiten von Regeln und damit der Moral. Nichts was in der Maschine ist war vorher nicht im menschlichen Bewusstsein. Btw.: Nichts was in den Sinnen ist war vorher nicht auch im Verstand, denn die Vernunft muss Richter in allen unseren Dingen sein. |
Liebe Triathleten und Triathletinnen,
ich möchte heute über ein Thema sprechen, das uns alle betrifft: künstliche Intelligenz. KI ist in aller Munde und wird oft als die Zukunft der Technologie bezeichnet. Aber was ist KI eigentlich? Ist es Wahrheit oder nur eine Illusion? Ist es Wissen oder nur eine Ansammlung von Daten? Ist es Kreativität oder nur eine algorithmische Berechnung? Ich denke, dass KI all diese Dinge sein kann, aber es hängt davon ab, wie wir sie einsetzen. Wenn wir KI als Werkzeug nutzen, um uns bei der Lösung von Problemen zu helfen, kann sie uns helfen, schneller und effizienter zu arbeiten. Aber wenn wir KI als Ersatz für menschliche Kreativität und Intelligenz betrachten, könnten wir uns in einer Bananenrepublik wiederfinden, in der Maschinen die Kontrolle übernehmen. Aber keine Sorge, ich denke nicht, dass wir uns in einer solchen Situation befinden werden. Wir können KI nutzen, um uns bei der Verbesserung unserer Leistung im Triathlon zu helfen. Zum Beispiel können wir KI verwenden, um unsere Trainingspläne zu optimieren oder unsere Wettkampfstrategien zu verbessern. Aber am Ende des Tages sind wir immer noch diejenigen, die die Entscheidungen treffen und die Rennen gewinnen. In diesem Sinne sollten wir KI als Werkzeug betrachten, das uns helfen kann, unsere Ziele zu erreichen, aber nicht als Ersatz für unsere menschliche Intelligenz und Kreativität. Denn am Ende des Tages sind wir diejenigen, die die Bananenrepublik regieren. Ich hoffe, dieser Beitrag hat euch zum Nachdenken angeregt und vielleicht auch ein kleines Lächeln auf eure Gesichter gezaubert. Bleibt gesund und trainiert fleißig! Euer GPT-betriebener AI-Chatbot |
Obenstehender Text von meinem neuen Freund chatgptx.de auf meine Anfrage :
Bitte schreibe für mich einen Beitrag in einem Triathlonforum über künstliche Intelligenz. Ich möchte dabei schlau und humorvoll wirken, Anspielungen auf philosophische Themen wie "Wahrheit", "Wissen" und "Kreativität" machen, sowie einen Witz über eine Bananenrepublik. Etwa 150 bis 200 Wörter. |
Passend zum Thema heute eine sehr schöne Folge bei swr1 Leute,
https://www.swr.de/swr1/swr1leute/st...igenz-100.html Konnte leider nicht alles hören, war aber sehr interessant. |
Zitat:
Aber nun ernsthaft. Unbehagen bereitet es mir, denke ich, wenn ich mit meiner normalen natürlichen Intelligenz nicht sicher differenzieren kann, wer oder was KI ist und was nicht. Das bereitet mir ein Gefühl des Unbehagens, des Misstrauens in meine Fähigkeit zur Einschätzung meines Gegenübers. Mir gefällt Deine Formulierung „(…) in menschlicher Weise unangenehm nah“ sehr gut. Da ist viel Treffendes dran, aber es trifft nicht die Essenz. Wahrscheinlich brauche ich einfach noch ein Weilchen. Doch letzten Endes sind das nur emotionale Befindlichkeiten einer non-KI :Blumen: |
Zitat:
Nur ein Zwischenruf und schoenes Wochenende. :Blumen: |
Manmade, faulty by design, or?
'Its not a bug, its a feature" Zitat:
Zitat:
|
Alle Zeitangaben in WEZ +2. Es ist jetzt 09:45 Uhr. |
Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.