Kann, soll oder darf die künstliche Intelligenz das menschliche Denken substituieren? - Seite 25 - triathlon-szene.de | Europas aktivstes Triathlon Forum
Wenn du anhand dessen Intelligenz festmachst, hast du schon verloren.
Falsch. Ein Computer ist kein Lebewesen. Daher kann er über keine Intelligenz verfügen.
In dem Wort KI steckt ja auch das Wort Künstlich. D.h. die I. ist immitiert. Bestenfalls ahmen uns Computer nach. Mimikry und Mimese zudem. Sie tun als ob. Sind es allerdings nicht.
Hätte deine KI von sich aus angefangen irgendetwas hervorzubringen ohne vorher eingehendes Kommando? Sicherlich nicht.
Aber ich gebe auf mit den Worten Roger Ciceros, nicht mit Markus Tullius Cicero verwechseln bitte: Computer regieren die Welt. Oh! Wieder falsch.
Wer die KI beherrscht, der beherrscht die Welt. Putin zitiert nach Kissinger.
Wie dem auch sei: du hast Recht und ich meine Ruhe..
Dieser Schmetterling, das Tagpfauenauge, hat die Augen einer Katze auf seinen Flügeln. Die Fressfeinde des Schmetterlings, die Vögel, bekommen hier einen Schreck.
Zweifellos handelt es sich hier um eine sehr intelligente Lösung für ein Problem. Die Idee ist brillant und die Ausführung meisterhaft.
Der Schmetterling weiß jedoch nicht, wie er selbst aussieht. Von den Katzenaugen auf seinen Flügeln hat er keine Ahnung. Er weiß außerdem nicht, dass Vögel Angst vor Katzen haben.
Der Prozess, der zu diesem pfiffigen Einfall führte, kam ohne Gehirn aus: Nirgendwo während der Evolution dieses Schmetterlings hat ein Gehirn eine Entscheidung getroffen. Nirgendwo gab es eine Instanz, die wir als intelligent bezeichnet hätten. Stattdessen führte ein ganz simpler Prozess zu dieser kreativen Lösung: Die Natur hat einfach unzählige Male gewürfelt und alles Unbrauchbare aussortiert. Das hat genügt.
Ich will damit sagen: Vielleicht haben wir falsche Vorstellungen davon, was "intelligent" ist. Ist ein Prozess, der Schmetterlinge mit Katzenaugen auf seinen Flügeln hervorbringt, intelligent? Falls ja, dann gibt es Intelligenz auch außerhalb von Gehirnen. Oft genug würfeln kann reichen.
Falsch. Ein Computer ist kein Lebewesen. Daher kann er über keine Intelligenz verfügen.
In dem Wort KI steckt ja auch das Wort Künstlich. D.h. die I. ist immitiert. Bestenfalls ahmen uns Computer nach. Mimikry und Mimese zudem. Sie tun als ob. Sind es allerdings nicht.
Hätte deine KI von sich aus angefangen irgendetwas hervorzubringen ohne vorher eingehendes Kommando? Sicherlich nicht. .....
Es geht um maschinelles Lernen. Es geht darum, dass Maschinen Tätigkeiten ersetzen, für die eigentlich menschliche Intellienz nötig ist. Es geht nicht darum, den Menschen zu ersetzen oder in seiner Fülle nachzubauen.
Ein Beispiel dafür, das jeder kennt, ist Google Maps. Kein Mensch fährt mehr mit einer Stadtkarte durch eine fremde Stadt. Das ist maschinelle Intelligenz, die die menschliche ersetzt hat.
Viele andere werde folgen, das ist so sicher wie das Amen in der Kirche.
Über das "ob" zu diskutieren, wäre der gleiche Unsinn wie sich
- wird im Sport gedopt?
- gibt es den Klimawandel?
zu fragen.
Sinnvolle Fragen wären:
Wer dopt?
Wie gehen wir mit dem Klimawandel um?
Du bist immer noch auf dem Grundsatzfragereiniveau.
Es geht um maschinelles Lernen. Es geht darum, dass Maschinen Tätigkeiten ersetzen, für die eigentlich menschliche Intellienz nötig ist. Es geht nicht darum, den Menschen zu ersetzen oder in seiner Fülle nachzubauen.
Ein Beispiel dafür, das jeder kennt, ist Google Maps. Kein Mensch fährt mehr mit einer Stadtkarte durch eine fremde Stadt. Das ist maschinelle Intelligenz, die die menschliche ersetzt hat.
Viele andere werde folgen, das ist so sicher wie das Amen in der Kirche.
Über das "ob" zu diskutieren, wäre der gleiche Unsinn wie sich
- wird im Sport gedopt?
- gibt es den Klimawandel?
zu fragen.
Sinnvolle Fragen wären:
Wer dopt?
Wie gehen wir mit dem Klimawandel um?
Du bist immer noch auf dem Grundsatzfragereiniveau.
Naja, Kartenlesen hat ja jetzt nichts mit dem Denken zu tun. Sondern eher mit Orientierung und Orientierungssinn. Vllt macht es manchen Menschen Spaß eine Karte via Kompass einzuorden um so den Weg zu finden? Sehr nervig in den Bergen wenn Wanderer mit Phone auf den Wanderwegen herumlaufen und das Phone den Weg zur Berghütte ansagt. Auch in der Großstadt kann es chic sein nach dem Weg zu fragen. Man kommt mit den Menschen ins Gespräch, das ist schön. Auf der anderen Seite du und deine ComputerNerds, und deine "Robo Sapiens". Kein Wunder, dass die Lobbyisten die Reißleine gezogen haben und nicht weiter investieren. Wozu braucht man ein hochmodernes Händi in der Großstadt, wenn tausende von Menschen herumlaufen und jeder kann potenziell jedem den Weg erklären meinetwegen zum Dom, falls es eine Domstadt ist? Händi kostet 1000,- EUR, fragen kostet hingegen gar nichts. Hier kostete die KI 1000,- EUR, die Nutzung von sozialer Intelligenz nichts ("Nulltarif").
Macht es Sinn für den Pfau Pfauenfedern auszubilden? Um so ein rießiges Rad zu schlagen? Wie der Emu kann er nicht mehr fliegen. Wegen seines immensen Federschmucks. Was also sexy ist, ist nicht unbedingt intelligent im Sinne von Überlebensvorteil. Dennoch haben Pfau und Emu überlebt, darf man auch nicht vergessen.
Darum geht es ja imho: was ist Intelligenz oder was intelligent, und was ist künstlich intelligent und damit verbunden: kann, soll oder darf... - vllt kommen die Börsianer auf die Idee, dass KI total doof ist, und Schmetterlinge nicht so und schön dazu, und die KI-Blase platzt wie eine Seifenblase in einer Dreigroschenoper oder so ähnlich formuliert, auf jeden Fall noch vor der SUV-Blase. In SUVs kann ich jedenfalls mehr Sinn erkennen als in KIs. Aber ich versteh' schon worum es dir geht: du kombinierst in deinem Kopf das SUV-Thema mit dem KI-Thema und was folgt sind kleine Raumschiffe, fliegende SUVs, man könnte auch von Shuttles sprechen (voll weltraumfähig irgendwann, freilich ).
Ich denke ich kann alle außer dir keko# beruhigen. Autos werden auch mit Hilfe der KI nicht fliegen können. Schmetterlinge sind also doch viel intelligenter als die KI, weil sie ja fliegen können. Nicht so SUVs mit KI.
Daher ist die KI dem Schmetterling unterlegen. Spaß beiseite. Aber das stimmt.
Gute Woche alle und danke an die Admin , dafür dass wir hier gut beschirmt unsere Ansichten austauschen dürfen. Bald wirds Frühling.
Zweifellos handelt es sich hier um eine sehr intelligente Lösung für ein Problem.
[...]
Ich will damit sagen: Vielleicht haben wir falsche Vorstellungen davon, was "intelligent" ist.
[...]
Ist ein Prozess, der Schmetterlinge mit Katzenaugen auf seinen Flügeln hervorbringt, intelligent? Falls ja, dann gibt es Intelligenz auch außerhalb von Gehirnen. Oft genug würfeln kann reichen.
Es gibt ja durchaus mehr als eine Begriffsbestimmung von Intelligenz. Zufall ist m.W.n. nicht dabei. Deshalb und weil eine kognitive Leistung in der Evolution oder gar ein Problembewusstsein oder ein Ziel fehlt, würde ich im vorliegenden Falle nicht von einer intelligenten Lösung des Problems spreche. Vielmehr ist das eine im Ergebnis passende, zufällige Entwicklung. So
Selbstverständlich können wir den vorhandenen Begriffsbestimmungen eine weitere hinzufügen. Ob das wohl sinnvoll ist?
Es geht um maschinelles Lernen. Es geht darum, dass Maschinen Tätigkeiten ersetzen, für die eigentlich menschliche Intelligenz nötig ist.
[...]
Ein Beispiel dafür, das jeder kennt, ist Google Maps. Kein Mensch fährt mehr mit einer Stadtkarte durch eine fremde Stadt. Das ist maschinelle Intelligenz, die die menschliche ersetzt hat.
Ich finde, eine der besten Begriffsbestimmungen für Intelligenz ist die des kognitiven Entwicklungspsychologen Jean Piaget. Er hat sinngemäß gesagt: "Intelligenz ist das, was man einsetzt, wenn man nicht weiß, was man tun soll."
Transformer oder trainierte feed-forward Netze (ChatGPT) wissen immer was zu tun ist. Der Ablauf ist deterministisch. Eine Ausnahme - und hier hast du ggf. einen Punkt (aber nicht bei ML) - sind rekurrente Netze (RNN). Je nach Anwendung möchte man nichtdeterministisches Verhalten vermeiden oder gar nutzen.
Spricht man über medizinische Diagnostik, will man nicht, dass jedes mal bei der selben Eingabe eine andere Diagnose raus kommt. Das würde u.U. zwar dem realen Leben bei Artzbesuchen entsprechen (vier Ärzte, vier Meinungen) - in dem Fall will man das aber nicht
Wenn dagegen aber ein RNN z.B. ein Musikstück raus hauen soll, will man ggf. schon, dass am Ende bei der selben Eingabe was anderes raus kommt - einmal ein Rock-Cover von Beethovens 5ter vielleicht, ein anderes mal eine Jazz Version
Jedoch würde ich auch hier nicht von Intelligenz sprechen. Eher von der "Kreativität des Zufalls" Das is wie bei Arnes Schmetterling
Das Navigieren entlang einer Route hat sicher nichts mit Intelligenz zu tun. In dem Moment, in dem "trainiert" wurde die Karte zu lesen, weiß man immer was zu tun ist. Das ist eine 08/15 Arbeit, die sehr gut für klassische IT geeignet ist. Die kartenlesende Frau am Beifahrersitz wurde längst von den Navis abgelöst. Eine Ausnahme ist meine Frau: Die traut dem Braten nicht
Das Navigieren entlang einer Route hat sicher nichts mit Intelligenz zu tun. In dem Moment, in dem "trainiert" wurde die Karte zu lesen, weiß man immer was zu tun ist. Das ist eine 08/15 Arbeit, die sehr gut für klassische IT geeignet ist. Die kartenlesende Frau am Beifahrersitz wurde längst von den Navis abgelöst. Eine Ausnahme ist meine Frau: Die traut dem Braten nicht
Kinder, die Legohäuser bauen, mussten das vorher über einen langen Zeitraum lernen. Irgendwann haben sie es raus und sie können beliebige Häuser bauen. Wenn du deinem Kind sagst: "baue ein Haus mit 2 Türen, einer Garage, einem roten Dach und 8 Fenstern", dann baut es das. Auch dann, wenn es noch nie ein solches Haus gebaut hat. Man vergißt irgendwann den mühsamen vorherigen Lernprozess, das Erlernen von Mustern. Diese laufen aber bei dem Kind energiearm im Hintergrund ab. Erwachsene Menschen, die z.B. Teile ihres Gedächtnisses verloren haben, können keine Legohäuser mehr bauen.
Das alles kann eine Maschine auch. Sie analysiert die Wörter in "baue ein Haus mit 2 Türen, einer Garage, einem roten Dach und 8 Fenstern" im Kontext und baut das Haus (wenn ein Roboter angeschlossen ist). Auch dann, wenn sie noch nie eine solches Haus gebaut hat.
Die Anzahl der Fehlversuche bei einer für die Maschine neuen Situation sind mittlerweile sehr gering.
Die Legobaumaschine kann natürlich keine Stadtpläne lesen. Aber kann das dein Kind? Nur dann, wenn es das vorher gelernt hat.