KI und Motorradreparatur

  • Das wird wohl auch in unserem Metier Einzug halten - Stichwort Legal Tech -, ich hoffe allerdings nicht in der richterlichen Entscheidungsfindung.

    Um ein Ergebnis zu erzielen, müssen die richtigen Fragen gestellt und und beantwortet werden. Schon das ist extrem schwierig und funktioniert selbst ohne KI in der Praxis schlecht, von der Beweiswürdigung ganz zu schweigen.

    Und einmal falsch abgebogen, ist das Ergebnis unbrauchbar.

    Ich bin auf die Zukunft gespannt.

  • Michael,

    ich habe kurz wegen neuronalen Netzen wikipediat...

    Du hast, wie ich vermutet hatte, einen Graphen, dessen Elemente irgendwelche Funktionen (oder Methoden) aufrufen.

    Ich denke, wenn das System lernt, werden neue Elemente mit der gelernten Information in den Graphen eingefügt.

    Wie willst du das ohne if machen?

    Ich denke, wir reden aneinander vorbei, ich sagte, dass "if then else" IM KERN verwendet wird, wahrscheinlich irgendwo in einer Bibliothek, die von dir indirekt aufgerufen wird.

    Dass die Information nicht vom Client aufbereitet und dann eingefügt wird, dachte ich mir schon.

    Du als Trainer gibst dem System eine Struktur oder Klasse und sagst der Bibliothek "Nimm das Ding und füge es in dir an die richtige Position ein."

    Damit hat das System gelernt.


    So, damit genug, es ist schönes Wetter draußen und wir fahren mit Pan und Deauville am Dienstag zwei Wochen nach Belgien.


    Aber nichts desto trotz kann KI gefährlich werden, wenn es von skrupellosen Menschen verwendet wird...

  • Hallo Werner,


    ich weiß halt, wie ein neuronales Netz arbeitet (hab selber schon welche trainiert) und if then else spielt keine Rolle dabei. Aber Du musst mir das nicht glauben ;-)

    Ich schreib aus einem anderen Grund: Du schreibst:


    Aber nichts desto trotz kann KI gefährlich werden, wenn es von skrupellosen Menschen verwendet wird...


    Die Gefahr bei neuronalen Netzen entsteht definitiv nicht durch skrupellose Menschen. Sondern dadurch, dass völlig gutmeinende Menschen KIs überschätzen in dem, was sie können und tun. Und das geschieht an jeder Ecke ... DAS ist die Gefahr. Und diese ist sehr konkret.

  • Michael,

    es steht mir nicht zu deine Expertise in Bezug auf KI in Frage zu stellen.

    Ich sagte ja schon, dass ich davon keine Ahnung habe. Und sich nun innerhalb einer Woche einzulesen bringt auch keine belastbaren Diskussionsargumente...


    Was ich mit skrupellosen Menschen meine, ist die Möglichkeit des deep fakes, wie wir sicher schon gehört haben. Siehe Papst in Designer-Klamotten oder der Putin Kniefall, ihr wisst, was ich meine...


    Jetzt fange ich mal an zu spinnen:

    Michael und ich sind irgendwie verfeindet.

    Jetzt suche ich mir ein hübsches Mädel, das ihn der Vergewaltigung bezichtigt. Meine KI findet ein Bild von Michael und eines vom Mädel im Netz und macht daraus ein nettes Vergewaltigungsvideo.

    Das legen wir dann dem Gericht vor. Wie groß sind Michaels Chancen da wieder heraus zu kommen?


    Das Problem hierbei ist doch, dass man sich auf das, was man "gesehen" hat, nicht mehr verlassen kann. Und wenn das beispielsweise gerichtsrelevant ist, ist das äußerst gefährlich.


    Michael ich habe dich jetzt missbraucht, sorry dafür. Wir kennen uns nicht, sind also auch nicht verfeindet, hoffe ich...

    Aber ich denke, ich habe die Problematik, die ich meinte, verdeutlicht.


    Meine Frage an dich:

    Wenn ich meine KI bewusst mit falschen Informationen füttere, kriege ich die Fehler wieder raus?

    Wenn sie lernt, dass ein nicht-anspringen der Pan am fehlenden Luftdruck auf den Reifen liegt, weiß jeder, dass das Blödsinn ist. Aber die KI hat es als wahr gelernt und wird es weiter als wahr verarbeiten. Wie werden Fehler korrigiert?

  • Wenn sie lernt, dass ein nicht-anspringen der Pan am fehlenden Luftdruck auf den Reifen liegt, weiß jeder, dass das Blödsinn ist.

    Spannende Frage! Woher weiß die KI eigentlich, was die Wahrheit ist?


    Aber zu deinem platten Reifen ist mir grad ein Schwank aus meiner bewegten Vergangenheit durchs Hirn geflitzt:

    Ich habe mal im Urlaub nach dem Tanken meine R100GS gestartet, der Motor sprang an, aber er ließ den Anlasser nicht mehr los! Killschalter: Der Anlasser dreht weiter! Zündung aus: Der Anlasser dreht weiter! Gepäck runter, Sitzbank runter, Werkzeug raus, Massekabel ab: endlich wieder Ruhe!

    😮

    Ein offensichtlicher Fehler war nicht zu finden. Ich habe das (völlig intakte) Anlasserrelais gezogen und das Mopped auf dem Rest der Tour angekickt (1.043 ccm, 10:1 verdichtet und ein Kickstarter, der die Kurbelwelle gerade mal eine halbe Umdrehung weiterdreht😳). Wieder zuhause habe ich ewig nach diesem Fehler gesucht, habe Anlasser, Relais und die halbe Elektrik von meinem Gespann (gleiche Zugmaschine) eingebaut, wähnte mich mehrmals am Ziel, weil die Tests in der Werkstatt allesamt positiv verlaufen waren, aber immer unterwegs hat dann dieser Fehler wieder zugeschlagen.


    Nachdem ich ein paar Nächte schlaflos im Bett auf- und abmarschiert war, dämmerte mir, dass es irgendwas mit dem Tank zu tun haben muss. Immer wenn der Fehler auftrat, war der Tank montiert - immer wenn ich nach dem Fehler gesucht habe, war der Tank selbstverständlich runter, um an die Elektrik ranzukommen. Also die Unterseite des Tanks nach Reibspuren abgesucht, dort am Rahmenrückgrat dem Kabelbaum abgesucht (ohne Befund), dort dann dennoch die Umwicklung geöffnet und eine ganze Reihe völlig maroder, blankgescheuerter, vollkommen oxydierter Kabel vorgefunden. Kabelbaum erneuert und alles war wieder gut.


    Gefunden habe ich diesen Fehler aber nur, weil ich den offensichtlich blödsinnigen Schluss zugelassen habe, der Tank könne irgendwas mit meinem Anlasser zu tun haben. Da wäre ich jetzt wirklich mal gespannt, was eine KI damit anfängt.

  • Die Frage kann ich versuchen dir zu beantworten, der Trainer sagt, was die Wahrheit ist. Wenn die KI intelligent ist, wird sie dich nach Behebung des Problems fragen, woran es denn gelegen hat. Ich nehme an, diese deine Information wird dann in der KI abgelegt. Dann bist du der Trainer. Oder die KI fragt dich, ob ihre Antwort hilfreich war. Dann setzt sie intern ihre Trefferquote hoch und liefert bei einem ähnlichen Problem deine Lösung.

    Das bedeutet, dass die KI durch deine Angaben lernt, ist ja auch so vorgesehen.

    Wenn du natürlich Schwachsinn als Lösung einfließen lässt, lernt die KI eben Schwachsinn.

    Das ist ja das Thema meiner Frage an Michael.

  • Wenn du natürlich Schwachsinn als Lösung einfließen lässt, lernt die KI eben Schwachsinn.

    Und da wird's m.E. spannend:

    Man kann dann in der KI ein künstliches, postfaktisches Paralleluniversum aufbauen, in der die Chem-Trails eben Chem-Trails und keine harmlosen Kondensstreifen mehr sind. Die KI wäre dann nichts anderes, als die Echokammern derer, die sie füttern. Das sehe ich durchaus als Gefahr.

  • Wenn ich meine KI bewusst mit falschen Informationen füttere, kriege ich die Fehler wieder raus?

    Ich hab wahrscheinlich noch weniger Ahnung als Du, aber die Frage müsste grad bei Deinem Beispiel lauten: (wie) kann ich die (oder eine) Fälschung erkennen?
    Wenn das so geht wie beim Kachelmann, fährst Du halt erst mal ein und dann wird genau geguckt. Das ist ohnehin eine Gratwanderung an der Stelle, auch für die Strafverfolgungsbehörden.

  • Hallo Werner,


    nein, wir sind ganz sicher nicht verfeindet :lol::lol::lol::lol:

    Deine Frage lautet: "Wenn man sich mit dem Hammer auf den Kopf schlägt - wie kann man vermeiden, dass es weh tut?" Mein Vorschlag wäre: "Schlag Dir nicht mit dem Hammer auf den Kopf". ;-)


    Nochmals: Die Gefahr bei den KIs besteht nicht darin, dass sie missbraucht werden. Zu Bilderfälschungen oder was auch immer. Bilderfälschungen gabs schon vor KIs - ich kann nicht erkennen, dass dies ein großes Problem war ... und es wird auch in Zukunft kein großes Problem sein. Man wird auch zukünfig Fälschungen erkennen - und wer Fälschungen glaubt, der muss halt dann seine Medienkompetenz ein bisschen trainieren ... ;-)


    Die Verwendung von KIs enthält ganz andere Gefahren - Gefahren, die völlig ohne Beteiligung von bösem Willen entstehen. Die Gefahr ist, dass Menschen glauben, die KI könne "denken" oder gar: "verstehen" . Neulich hab ich sogar gelesen: "Haben KIs Gefühle?" :lol::lol::lol::lol: Klar, und mein Kochtopf hat Hunger, schließlich tu ich jeden Tag Essen rein ... Mann Oh Mann, was für ein Blödsinn ... Um es ganz deutlich zu sagen: KIs können nicht denken. Sie können nur antrainierte Reaktionen ausführen und das geht exakt so lange gut, bis etwas Neues geschieht. Und dann gehts gewaltig in die Hose. Der Glaube an die Denkfähigkeiten von KIs - das ist die Gefahr. Nicht irgend jemand, der irgend etwas Böses will.


    Weil KIs so dämlich sind wie sie sind, darf man sie nur unwichtige Entscheidungen treffen lassen. Bildverbesserung im Fernseher, Sprachverständlichkeitsverbesserung bei meinem neuen Hörgerät - solche Dinge. Da ist es nicht tragisch, wenn mal was nicht hinhaut. Wichtige Dinge darf man keinesfalls KIs entscheiden lassen. Das geschieht aber schon - teilweise mit Todesfolge (Tesla).


    Grüße, Michael

  • KIs können denken?

    Stimmt, den Spruch gab es in abgewandelter Form schon vor 40 Jahren.

    Damals musste etwas so und so gemacht werden, weil der Computer es so gesagt hat.

    Schon damals habe ich geantwortet, ein Computer ist stockdoof, nur wahnsinnig schnell.

    In meiner Welt ist das Programm nur so leistungsfähig oder "intelligent" wie der Programmierer. In deiner Welt eben der Trainer..., da sind wir uns absolut einig.


    Nur hast du meine Frage nicht beantwortet, können Fehler korrigiert werden? Sprich, wenn der Trainer Mist rein gibt, kann man das nachträglich korrigieren?

    Ich weiß ich soll mir nicht mit dem Hammer auf den Kopf hauen, aber wenns nun mal passiert ist...

  • Ich verstehe Deine Frage nicht. Eine KI wird immer mit "realen Daten" (also Daten aus der Vergangenheit) trainiert. Welchen Grund sollte jemand haben, eine KI mit gefälschten Daten zu trainieren? Warum sollte irgend jemand so etwas tun (wollen)? Sind das Deine (angeblich so problematischen) Menschen mit bösen Absichten? Vergiss die - die gibts nicht. Oder wenn es sie gibt, dann sind sie bedeutungslos. Die Menschen mit den guten Absichten - die sind das Problem ;-)

    Nochmals: "Falsche" Daten sind NICHT das Problem. Sondern das Problem ist, dass das Trainingsprogramm IMMER unvollständig sein wird. Weil es eben immer wieder mal was Neues gibt auf der Welt. Erfreulicherweise - sonst würde es ja langweilig werden ;-)


    Und sobald eine KI mit Neuem konfrontiert wird, ist sie dümmer als ein Kleinkind.