HORIA Geschrieben 25. Oktober Teilen Geschrieben 25. Oktober Moin, Ich hätte eine kurze Frage an die KI Experten hier. Und zwar beschäftige ich mich momentan Intensiver mit dem Thema KI, da ich in 2 Monaten eine Präsentation über dieses Thema halten muss. In meiner Gliederung kommt das Thema Gefahren einer KI, und da wollte ich mal folgendes fragen. Eine KI arbeitet generell mit Daten, die sie zur Verfügung bekommen hat, was wäre nun, wenn man einen physischen Roboter, der mit einer KI gesteuert wird, hackt und dessen Datenbank mit "Menschen gefährdenden Videos und Beiträge" Füttert und diese dann verherrlicht. Würde dann der KI Roboter dieses Verhalten ausleben und Menschen eventuell Schaden zufügen. Ist dieses Szenario realitätsnach oder ist das eher Science-Fiction. Grüße HORIA Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
charmanta Geschrieben 25. Oktober Teilen Geschrieben 25. Oktober ... das ist bei den ersten militärischen Robotern sogar schon Praxis. Die 3 Newtonschen Regeln werden von Menschen offensichtlich nicht eingehalten Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Gooose Geschrieben 25. Oktober Teilen Geschrieben 25. Oktober vor 31 Minuten schrieb charmanta: Die 3 Newtonschen Regeln Ich glaube, die Regeln kommen von Asimov. charmanta reagierte darauf 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Alexej_a7x Geschrieben 25. Oktober Teilen Geschrieben 25. Oktober vor 21 Minuten schrieb Gooose: Ich glaube, die Regeln kommen von Asimov. Dann wären es aber 4 Gesetze und mit 0 wird die Zählung angefangen. Aber zurück zum Thema. Ist halt die Frage, ob so ein Roboter nur mit Machine Learning funktionieren würde. Aber ja, ein Machine Learning Modell lässt sich weitertrainieren oder die trainierten Parameter komplett austauschen. Aber wenn ich schon das Ding gehackt habe, dann ist die "KI" nicht die Gefahr. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Sullidor Geschrieben 25. Oktober Teilen Geschrieben 25. Oktober (bearbeitet) 1. Soweit mir bekannt ist sind Roboter meist mit diskriminativer KI ausgestattet. 2. Wird so eine KI meist vor dem Einsatz in einem Roboter trainiert. Damit sollte deine Frage eigentlich beantwortet sein. Bearbeitet 25. Oktober von Sullidor Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Whiz-zarD Geschrieben 26. Oktober Teilen Geschrieben 26. Oktober (bearbeitet) Du solltest für deine Recherche weniger Hollywood-Filme schauen. Eine KI ist in erster Linie nur eine Mustererkennung. Sowas, wie eine Datenbank, die man hacken kann, gibt es bei KIs auch nicht. Es gibt eine Trainingsphase, wo man nach Gemeinsamkeiten in Daten sucht und Klassifiziert diese Gemeinsamkeiten. Das ist aber ein extrem Zeit- und Rechenintensiver Prozess. Allein nur für die erste Trainigssphase für GPT3 hat man dafür über ein halbes Jahr gebraucht. Die dritte Phase war sogar ein manuelles Training, indem man eine Million Fragen gestellt hat und dann die Antworten bewertete. Die Daten müssen aber auch eine gewisse Qualität haben, sonst werden falsche Muster erkannt. z.B. wenn wir amerikanische und russische Panzer unterscheiden wollen aber auf den Bildern der russischen Panzer überwiegend Schnee liegt, so kann es passieren, dass bei Bildern mit amerikanischen Panzern, wo ebenfalls Schnee liegt, plötzlich zu 70% als russische Panzer erkannt werden. Ein reales Beispiel für schlechte Datenqualität war der Versuch von Amazon, ihren Bewerbungsprozess zu beschleunigen. Sie fütterten eine KI mit den Lebensläufen der Mitarbeiter von Amazon. Es kam dann heraus, dass die KI junge, weiße Männer bevorzugt hat, weil bei Amazon überwiegend junge, weiße Männer arbeiten. Möchte man jetzt also nun eine KI hacken, so muss man dann den Trainingsmodus anstoßen und sie mit neuen Daten antrainieren. Das bleibt nicht ungesehen, wie man es z.B. neulich bei ByteDance (TikTok) sehen konnte. Ein Student soll wohl angeblich den Trainingsprozess manipuliert haben. Auch wenn man es schaffen sollte, falsche Daten unterzujubeln, so greifen Roboter nicht gleich zu den Waffen. Alles was über die Mustererkennung hinausgeht, muss programmiert werden. Wenn also nicht programmiert wurde, dass der Roboter eine Waffe ziehen soll, sobald der einen Nazi sieht, passiert gar nichts. Was aber nun mit dem oberen Beispiel mit den Panzern passieren kann, ist, dass die KI falsche Rückschlüsse aus den Trainingsdaten treffen kann. Eine Drohne könnte vielleicht losfliegen, um Panzer zu zerstören, klassifiziert aber die eigenen Panzer, die im Schnee stehen, als Panzer des Feindes und ja, sowas ähnliches ist schon mal passiert. Was vor einigen Tagen Tesla präsentiert hat, war auch nur ein reines Schmierentheater. Die Roboter, die liefen, wurden speziell nur dafür programmiert. Der Bereich war auch extra abgesperrt, sodass kein Mensch da durchläuft. Sonst wäre aufgefallen, dass sie die Menschen gnadenlos umgerannt hätten. Einige Roboter standen zwar herum und haben mit den Menschen interagiert aber die wurden ferngesteuert und liefen auch nicht. Dafür hat Tesla zwei Monate zuvor extra neue Mitarbeiter gesucht, die stundenlang einen Motion Capture-Anzug und eine VR-Brille tragen können. Bearbeitet 26. Oktober von Whiz-zarD Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
HAL_9000 Geschrieben 29. Oktober Teilen Geschrieben 29. Oktober Moin HORIA, wenn Du Dich mit KI beschäftigst, kann ich Dir das folgende Buch ans Herz legen von Michelle Mitchell: Artificial Intelligence: A Guide for Thinking Humans (2019). Es erklärt die Entwicklung der verschiedenen Modelle sehr verständlich, und wie sie funktionieren. Es ist wirklich sehr gut und verständlich geschrieben. Und fernab des ganzen Hype, sondern sehr nüchtern und logisch erklärt. Sie geht auch auf die "3 Roboter-Gesetze" von Isaac Asimov ein, und warum diese für die Entwicklung von KI einen Konflickt darstellen. In der Geschichte "Runaround" (1942) beschreibt Asimov eine Situation, in dem ein Roboter in einer Endlosschleife endet beim Versuch, das 2. und das 3. Robotergesetz einzuhalten. Ich denke, Asimov wollte damit aufzeigen, dass diese 3. Gesetze nicht funktionieren können. Die Problematik wird auch von Arther C. Clarke in dem Roman 2001: A Space Odysee (1968) aufgegriffen. Im Moment sehe ich eine Gefahr in der KI darin, dass wir uns zu sehr auf die Algorithmen verlassen die wir nicht verstehen, und vergessen, dass wir einen "gesunden Menschenverstand" (=Common Sense) haben. Das fehlt m.E. bei der KI noch. Zu bemeken wäre noch, dass sich hinter einigen "KI" Modellen tausende von Data-Labeler verbergen (oftmals sitzen diese in niedriglohn-Ländern wie Bangladesh oder Pakistan), die nichts anderes tun als Informationen auszuwerten und den Datenbanken zu füttern (Böse Zungen sprechen von "Data-Sklaven"). Manchmal ist "die KI" garnicht so künstlich, wie man es präsentieren möchte. Da steckt ganz viel Menschenarbeit bzw. Menschenintelligenz dahinter 🙂 HORIA reagierte darauf 1 Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
HORIA Geschrieben 30. Oktober Autor Teilen Geschrieben 30. Oktober Am 29.10.2024 um 09:20 schrieb HAL_9000: Moin HORIA, wenn Du Dich mit KI beschäftigst, kann ich Dir das folgende Buch ans Herz legen von Michelle Mitchell: Artificial Intelligence: A Guide for Thinking Humans (2019). Es erklärt die Entwicklung der verschiedenen Modelle sehr verständlich, und wie sie funktionieren. Es ist wirklich sehr gut und verständlich geschrieben. Und fernab des ganzen Hype, sondern sehr nüchtern und logisch erklärt. Sie geht auch auf die "3 Roboter-Gesetze" von Isaac Asimov ein, und warum diese für die Entwicklung von KI einen Konflickt darstellen. In der Geschichte "Runaround" (1942) beschreibt Asimov eine Situation, in dem ein Roboter in einer Endlosschleife endet beim Versuch, das 2. und das 3. Robotergesetz einzuhalten. Ich denke, Asimov wollte damit aufzeigen, dass diese 3. Gesetze nicht funktionieren können. Die Problematik wird auch von Arther C. Clarke in dem Roman 2001: A Space Odysee (1968) aufgegriffen. Im Moment sehe ich eine Gefahr in der KI darin, dass wir uns zu sehr auf die Algorithmen verlassen die wir nicht verstehen, und vergessen, dass wir einen "gesunden Menschenverstand" (=Common Sense) haben. Das fehlt m.E. bei der KI noch. Zu bemeken wäre noch, dass sich hinter einigen "KI" Modellen tausende von Data-Labeler verbergen (oftmals sitzen diese in niedriglohn-Ländern wie Bangladesh oder Pakistan), die nichts anderes tun als Informationen auszuwerten und den Datenbanken zu füttern (Böse Zungen sprechen von "Data-Sklaven"). Manchmal ist "die KI" garnicht so künstlich, wie man es präsentieren möchte. Da steckt ganz viel Menschenarbeit bzw. Menschenintelligenz dahinter 🙂 Danke dir für deinen Ratschlag das Buch habe ich gerade eben bestellt, mal schauen, ob es mich weiterbringt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.