![]() |
Zitat:
Wir kennen es alle schon, dass Automaten intelligenter sind als Menschen: wer fährt noch mit Landkarte durch eine fremde Stadt? Wir alle nutzen ein Navi. Es wird so sein, dass jede KI intelligenter sein wird als der schlaueste Mensch auf Erden. Es geht nicht darum, dass qbz seinen Job als Berater im sozialen Umfeld verliert oder eine Bankangestelle ihren Job beim Finanzdienstleister. Es geht um viel mehr: Entscheidungen werden uns abgenommen, weil die Maschine die objektiv besseren trifft. Wie gehen wir damit um? |
Zitat:
Zur Arbeitswelt und um auf deine Frage zu antworten: schaffen wir z.B. alle Sekretär_innen ab? Heute so ungefaehr in der Tageszeitung formuliert. Wäre das gut? Aus Arbeitgebersicht ja!? Aus Arbeitnehmersicht nein!? Oder muss der Staat neue Gesetze erlassen? Die IT betreffend im Sinne Isaak Asimovs: 4. Gesetz der Robotik: keine Maschine darf einem Menschen seinen Arbeitsplatz wegnehmen. Würde mich sehr interessieren, wo du die Grenze(n) 'reinzimmerste bzw. wie du dir das vorstellst. Woran macht der Staat ggf. diese Gesetze fest? Solle es überhaupt solche Gesetze geben? Ich hatte den Notendurchschnitt (oder NC) als Beispiel einer benchmark oder eines Kriteriums vorgeschlagen. Z B. alle, die eine Abinote mit einer 1 vor dem Komma haben dürfen arbeiten. Der Rest wird durch Computer ersetzt und ist damit ohne Arbeit. Oder welche Kriterien würdest du anlegen? Nur um das plakativ darzustellen, worum es dir vermutlich geht oder wie handhaben wir das. |
Zitat:
Was ist Intelligenz? Hier legst du fest, dass I. die Fähigkeit ist "objektiv die besseren Entscheidungen zu treffen". Bestenfalls wäre das eine Definition von Intelligenz, die aber darauf basieren muss, dass definiert ist, was Objektivität ist. Weil du also objektiv urteilen kannst, kannst du ja überhaupt erst erkennen was objektiv ist und was nicht (Urteile von Menschen z.B. oder auch von Affen, Katzen usw.) und demzufolge schließen, dass Computer objektiv urteilen oder entscheiden koennen zumindest besser als Menschen. Dieser Logik folgend muesstest du der schlauste Mensch auf Erden sein, sogar noch etwas schlauer, da du ansonsten diese Abwägung gar nicht vornehmen könntest. :confused: Hm. Ach' jetzt komm' ich mit! Ein Computer hat dir das so eingefluestert! Sonst könntest du das ja gar nicht wissen. Zumal Du ja selbst hier eingetippt hattest, dass du kein Computer bist ... :Lachen2: |
Zitat:
Der zweite Punkt wäre, dass man aktuelle technischen Fortschritte veröffentlicht und anderen Forschern zur Verfügung stellt. So könnte man ein Wettrüsten ebenso verhindern und eine humane Nutzung erreichen. Aufhalten kann man die Technik nicht. Ebenso konnte man das erste Auto von Daimler nicht aufhalten, das ein paar Meter von hier erstmals am Neckar rollte, oder das Internet. Es gilt die Technik für die Menscheit dienlich einzetzen. Wie beim Klimawandel oder den Atomwaffen sehe ich aber auch bei der KI eine falsche Richtung: Micro$oft hat Milliarden in OpenAI investiert und Google wurde aufgeschreckt. Ich befürchte, sie werden die Technik an sich reißen und zu eigen machen. Aufgeschreckt sollte Scholz sein ;-) |
Zitat:
:Blumen: |
Zitat:
"Kannst Du die Riemannsche Vermutung untermauern oder widerlegen?" "Ich bin ein computergestützter Dienst und obwohl ich viel Wissen habe, bin ich nicht in der Lage die Riemannsche Vermutung zu untermauern oder widerlegen, da es eines der am meisten ungelösten Probleme in der Mathematik ist und es bis heute keine Beweise oder Widerlegungen gibt. Seit Riemanns Veröffentlichung hat es viele Fortschritte gegeben und es gibt einige Annäherungen an die Lösung, aber es bleibt immer noch ungelöst. Derzeit gibt es laufende Anstrengungen von Mathematikern auf der ganzen Welt, um die Riemannsche Vermutung zu lösen." Auf Nachfrage erhält man einige der bisherigen Lösungsversuche. |
Zitat:
möglicherweise bist du in deiner Sichtweise tatsächlich objektiv, und womöglich findet der Computer Lösungen auch in der Anwendung, d.h. in der Umsetzung. Der Menschheit dienlich. Ist eine Abwaegungsfrage, was dienlich ist. Aber lassen wir das so stehen im guten Glauben also, dass der Computer für uns die richtigen Entscheidungen trifft, um uns vor uns selbst zu bewahren. Habe ich dich richtig verstanden? Als Beispiele hattest du genannt: Atomwaffen, Klimawandel. Oder Autofahren. Insofern, dass die Welt sicherer oder sicher, lebenstauglich und unfallfrei ist. Kann so kommen. Aus meiner Sicht spricht nichts dagegen. Dass das so kommen kann. Stelle auch das unhinterfragte Fortschreiten der Digitalisierung fest und nicht in Abrede, insofern, dass sich die Digitalisierung nicht aufhalten lässt. Alles was man machen kann ist: Nein sagen als Individuum. Um beim Beispiel der durch die KI künftig ersetzten Sekretaer_innen zu bleiben: es gibt acht Milliarden Menschen, und ich muss mich dann mit einem Computer (Serviceanruf) unterhalten? Wir kennen das alle. Juergen Habermas differenzierte zwischen strategischer und verstaendnisorientierter Kommunikation. Vermutlich wird unter dem Banner des Humanismus die KI und das Internet, sowie die Digitalisierung weiter voranschreiten. Und statt Humanismus genau das Gegenteil bewirken, ironischerweise. Jürgen Habermas sprach von Rationalisierung der Lebenswelt. |
:
Zitat:
Lässt sich das verallgemeinern? Stategisch ja, da der geistig behinderte Mensch keine Wahlmöglichkeit mehr hat. Er muss die vom Computer verordneten Pillen nehmen. War Einstein geistig behindert? Aus heutiger Sicht ja. Würde Beethoven jemals seine Schicksalssymphonie geschrieben haben, hätte man ihm das Hörvermögen via Chip eingepflanzt? Würde es noch die Kunst geben in Anbetracht von Rationalisierung? Ist also tatsächlich alle Kunst unnütz (Oscar Wilde), wenn es das Wesen des Künstlers ist eine Wahrheit auszudrücken, die ihn, den Künstler selbst in Kenntnis derselben, krank macht und infolgedessen literarische Werke wie das Glasperlenspiel (Hermann Hesse) auf der Strecke blieben? Bleibt nur wieder der Verweis auf Habermas und die strategische Kommunikation. Die keiner Erklärung bedarf. "Du machst das jetzt so!". Weil ich (die vom Psychiater angelernte KI) das besser weis. Verstaendnisorientiert wäre das nicht. Und um bei Habermas zu bleiben, wäre somit nicht unsere Freiheit eingeschränkt bzw. Wahlfreiheit, und wäre diese Beschneidung nicht genau das wovor der Philosoph, Literat und Psychologe Habermas warnt, da die vernünftigen, oder intelligiblen Gründe wegfielen? Was hätten wir gewonnen den Menschen auf Ratio und Sensorik zu reduzieren? Vernünftige Freiheit im Sinne von Habermas stelle ich mir nicht als Reduktionismus und den vom Philosophen als solchen selbst benannten Wegfall vernünftiger Gruende vor, vielmehr bezweifle ich nicht den Konstruktivismus, der allerdings um seine radikal konstruktivistische, autopoietische oder intrinistische Komponente innerhalb des Aquilibrationsparadigmas beraubt wäre. Was wäre vernünftig? Dass der Computer Junk-Food verbietet? Dass Hundehaltern ein Hundeführerschein zugemutet werden muss? Ein Tempolimit auf dt. Autobahnen? Die Abschaffung von Fussball (Verletzungsgefahr)? Bezogen auf Triathlon: niemand hat das Recht seinen Körper so zu zerstören wie er möchte? Wäre es nicht gut med. Psychiater würden diverse Trainingspläne prüfen und oder eine KI, die dann entscheidet, dass der Sport zu lassen ist und Tabletten einzunehmen sind? Was soll das Ergebnis sein? Ein Sportler hat Krebs. Darf er noch Bergsteigen oder Radfahren? Die KI könnte entscheiden, dass das Suizidrisiko zu hoch ist, hier die Psychiater-KI und auf Grund von statistischen Entscheidungen zu Ergebnissen kommen, klar, nur sind eben Statistiken nicht für Einzelfälle geeignet. Es gibt die statistische Diagnose, diese, ja, als auch die erfahrungsbasierte Diagnose die auf der Intuition des Psychiaters basiert. Die Trefferwahrscheinlichkeiten sind vergleichbar. Wie sieht es im Bereich der Forensik aus? Hier ist die statistische Diagnose maximal (!) eine Informationsquelle bei der Begutachtung von Kriminellen. Oder mit anderen Worten: darf eine KI die Schuldunfähigkeit oder verminderte Schuldfähigkeit eines Gewaltverbrechers, sagen wir Vergewaltigung in Tateinheit mit Todesfolge des Opfers feststellen, die dann dem Gericht als Beurteilungs- und Verurteilungsgrundlage dient? Wäre dem so, könnte man die Justiz den Paragraphen 68 StGB z.B betreffend entlasten. Ein Computer würde über nachträgliche Sicherheitsverwahrung entscheiden? Moeglich wäre das. In einem weiteren Schritt müsste man überlegen, ob Computer besser als Richter_innen urteilen können. Vielleicht entdeckt der Computer oder die KI sogar, dass Täter die eigentlichen Opfer sind und die Strafanstalten öffneten sich, da "die Behandlung am anderen Ende" einsetzen muss. ... :Blumen: ... |
Alle Zeitangaben in WEZ +2. Es ist jetzt 19:35 Uhr. |
Powered by vBulletin Version 3.6.1 (Deutsch)
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.