Zitat:
Zitat von keko#
Moderne Agenten dagegen arbeiten probabilistisch, lernen aus Daten und können ihr Verhalten situationsabhängig dann anpassen. Dadurch wirken sie nach außen hin zwar autonom und nicht mehr strikt vorhersagbar. Trotzdem verfolgen sie keine eigenen Ziele im philosophischen Sinn und haben auch kein Bewusstsein, so wie wir. Ihre Zieldefinition stammt weiterhin vom Menschen, da hast du natürlich recht.
|
Ein Ziel eines Algorithmus könnte beispielsweise sein:
"Schlage auf Youtube dem Nutzer Videos vor. Optimiere die Auswahl der vorgeschlagenen Videos so, dass der individuelle Nutzer möglichst lange dabei bleibt."
Der Algorithmus kann selbst lernen, wie der Nutzer auf die Videos reagiert und seine Video-Vorschläge entsprechend anpassen. Er führt dabei den Willen der Menschen aus, die ihn entwickelt haben.
Der Algorithmus handelt intelligent, hat aber keinen eigenen Willen, da er kein eigenes Bewusst sein hat. So verstehe ich das.
Gibt es irgendwo ein Beispiel, mit dem sich ansatzweise ein eigener Wille eines Algorthmus erkennen lässt?
