Zitat:
Zitat von keko#
Du vergleichst die Automaten mit menschlichen Fähigkeiten
|
Geht es nicht auch darum die Unterschiede zwischen menschlichem Denken und maschinellem abarbeiten darzustellen? Ich zumindest halte das in dieser Debatte für wichtig. Es scheint mir weiter entscheidend, wo Wissen erzeugt bzw. angewandt wird und um welche Art von Wissen es sich eigentlich handelt. Passiert die „Wissens-Wertschöpfung“ in der Maschine oder passiert das im menschlichen Gehirn?
Es ist ein Unterschied, ob wir von Information oder Repräsentation reden. Es ist ein Unterschied ob wir von Daten, Informationen oder Wissen reden. Am obigen Beispiel der Professorin und dem Beispiel „es kann Berechnungen durchführen“ sieht man das Problem. Es ist halt schlicht falsch, dass ChtGPT „Berechnungen durchführt“. Diese „Wissens-Wertschöpfung“ passiert nämlich beim Menschen. Diese Erkenntnis ist m.E. in der gesamten Debatte wichtig. ChatGPT eignet sich vor allem aus diesem Grund nicht dafür, Leistungsfähigkeit einer KI in die Zukunft zu extrapolieren. Hier müssen wir über andere Ansätze (siehe weiter unten) reden.
Das geistige Routineaufagben durch KI ersetzt wurden, werden und noch weiter ersetzt werden ist doch ein no-brainer. Ebenso, dass es neben dem Ansatz, den der Mensch hat, auch noch den der Maschine gibt. Das is aber doch längst klar und gar nicht die Debatte. Oder?
Vielmehr geht es m.E. darum zu verstehen, welche Art der Tätigkeiten von der jetzigen und ggf. der zukünftigen KI übernommen werden können. Versteht man das, kann man Beiträge dazu leisten, wie sich die Gesellschaft darauf vorbereiten kann, denn der Mensch muss in der zukünftigen Welt seinen Platz finden. Dazu wird er sich differenzieren müssen.
ChatGPT ist ein Micro-Hype. Daran ist nicht wirklich etwas innovativ - lediglich ein Arsch voll Arbeit.

Die verschiedenen KI Technologien befindet sich in verschiedenen Phase des Hypezyklus. Chat-Bots haben vor Chat-GPT enttäuscht und waren „im Tal der Tränen“ angesiedelt. Jetzt hyphen sie etwas, sind aber, wie man an der steigenden Zahl kritischer Artikel sehen kann, bereits wieder dabei zu “ernüchtern“.
Gartner publizier regelmäßig (ich meine alle 2 Jahre) wo aus ihrer Sicht auf der Hypekurve die Technologien angesiedelt sind. Hier ist die
Gartner Sicht von 2021
Was ChatGPT allerdings zeigt ist, dass man gerade eben nicht „intelligent“ sein muss, um menschliche Routinearbeiten zu übernehmen. Jeder, der Morgens ins Büro geht und immer in jeder Situation weiß, was er zu tun hat, weil das Wesen seiner Arbeit so ist, der sollte besser schon mal schauen, ob er finanziell ausreichend vorgesorgt hat.
Jean Piaget (Entwicklungspsychologe) hat gesagt: Intelligenz benötigt man dann, wenn man nicht weiß was man tun soll. Jeder auf dessen Arbeitsbeschreibung das im Wesentlichen zutrifft, muss sich im Moment etwas weniger Sorgen machen.
Wir sollten aufgrund einer sorgfältigen Analyse der Situation vorbereitet sein, wenn wir in nicht allzu ferner Zukunft über domänenunabhängige, wissensmodellbasierte KI Ansätze reden, die lediglich ein Meta-Modell der Welt haben und in der Lage sind sich jedes (und mehrere gleichzeitig) spezifische Domänenmodell selbst zu erzeugen. An der Stelle wird es dann ernst und wir benötigen Antworten für unsere Gesellschaft. Diese Antworten müssen dann vor allem ethische und soziale Fragen beantworten. Spätestens hier wird klar, dass KI zu allererst eine gesellschaftliche Herausforderung darstellt.
Einen Hinweis auf solche Ansätze (allerdings noch nicht domänenunabhängig) habe ich mit auf MuZero bereits gegeben. Zu Quantencomputing habe ich vor ein paar Beiträgen schon was geschrieben.
