Anonymus2024 Geschrieben 6. Mai Teilen Geschrieben 6. Mai Hallo, ich weiß mir leider nicht mehr anders zu helfen, als hier Hilfe zu suchen... Ich benötige für eine Präsentation eine KI die kognitive Verzerrungen aufweist an der ich beispielhaft erklären könnte, wie man diese reduziert oder sogar umgehen kann. Bezug bildet hier eine 5. Prüfungskomponente des Abiturs. PS: ich finde sonst auf anderen Plattformen keine Hilfe bzw. werde beleidigt o.ä. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Parser Geschrieben 6. Mai Teilen Geschrieben 6. Mai vor einer Stunde schrieb Anonymus2024: eine KI die kognitive Verzerrungen Es stellt sich die Frage ob eine KI überhaupt kognitive Verzerrungen haben kann bzw was diese sein sollen. Eine KI kann gebiased sein, wenn sie zB nur mir Daten von den berühmten - ich hasse diesen Begriff- alten weißen Männern trainiert wurde. Wie soll "sie" dann auf die "junge" Damenwelt generalisieren ? Wie auf den Schwarzen aus Chicago ? Um aber obigen Terminus aufzunehmen: Kognitive Verzerrungen setzen für mich die Fähigkeit zur Kognition voraus - eine genuin menschliche Fähigkeit, bzw. auch bei anderen Tieren anzutreffende. Eine kognitive Verzerrung ist dann zB ein Sehfehler im optischen System ("Auge") des Menschen. Eine KI kann zwar Dinge messen (zB über einen Sensor: Temperatur und Co...) aber ist sich dessen nicht bewusst. Deswegen weiß ich nicht ob man bei solchen Systemen von Kognition sprechen sollte. Alles, was da passiert / was von menschlichen Programmieren VERSUCHT wird ist Kognition zu modellieren und im Idealfall dieses Modell zu nutzen um Kognition zu imitieren ... Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Datawrapper Geschrieben 6. Mai Teilen Geschrieben 6. Mai Ein Beispiel: https://t3n.de/news/vorurteile-arbeitsamt-ki-chatbot-1600367/ Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Parser Geschrieben 6. Mai Teilen Geschrieben 6. Mai wenn man es mit dem Debiasen aus politisch korrekten Gründen natürlich übertreibt kommt sowas wie Googles Gemini dabei rum. Eine KI , welche , wenn sie aufgefordert Bilder der amerikanischen Gründungsväter zu zeichnen, Schwarze gezeichnet hat. Was natürlich historisch falsch ist... und Google hat dafür zurecht nen ordentlichen shitstorm bekommen. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.