KI und Motorradreparatur

  • Passend zum oben angesprochenen Thema habe ich gestern eine Doku gesehen, welche im Grunde genommen ein Problem der neuronalen Netze beschreibt.
    Also der richtigen neuronalen Netze, nicht der computerbasierten Netze.

    Ist meines Erachtens nach sehenswert, ich denke da auch an hermi, oder machst du kein Strafrecht, hermi?


    Können wir unseren Erinnerungen trauen?

  • Michael,
    ok, ich glaube, ich habe es kapiert.


    Vielleicht reden wir auch aneinander vorbei, vielleicht meine ich "KI" und du meinst "Expertensystem".


    Ich wiederhole mal mein Verständnis:

    Die KI ist der Versuch der Nachbildung eines neuronalen Netzes, analog zum menschlichen/tierischen Gehirn.

    Hier wird versucht, Zusammenhänge von Informationen herzustellen und diese im eigenen "Gedächtnis" abzulegen. Dabei werden Verknüpfungen zu der bisher vorhandenen Informationen hergestellt, oder es zumindest versucht.


    Ein Expertensystem ist eine auf ein bestimmtes "Thema" ausgerichtete Ausprägung einer KI.

    Es fließen initiale Informationen durch einen Trainer in die KI.

    Im Beispiel eines Fehleranalysesystems für Honda Motorräder wäre das der Inhalt des Werkstatthandbuches.


    Die initiale Füllung macht der Trainer, das sehe ich ein.


    Nur kann dann doch das Expertensystem nur einen eng begrenzten Teil des Wissens abdecken, oder?
    In unserem Beispiel müsste ich ein Expertensystem für die Pan haben und ein anderes für die Fireblade.

    Sonst würden doch unsinnige Verknüpfungen gebildet werden.

    Beispiel wären Probleme beim Leichtlauf des Hinterrades.
    Wäre mein Expertensystem bezogen auf alle Honda Motorräder, würde mir das Expertensystem bei Leichtlaufproblemen meiner Fireblade vielleicht sagen, dass es am Kardan liegen könnte, weil eben einige Honda Motorräder einen Kardan haben, also falsche Verknüpfung in der KI.


    Du schreibst, die Füllung der KI wird immer mit Daten aus der Vergangenheit gemacht.

    Kapiere ich nicht. Wie kann eine KI dann lernen? Ich muss doch irgendwie die Erfahrung des Benutzers in das Expertensystem kriegen, also ablegen, welcher Fehler bei meinem Motorrad welche Ursache hatte. Nur so kann das System lernen.

    Und du wirst mir nicht erzählen wollen, dass eine Problemlösung erst durch einen dedizierten Trainer verifiziert und dann antrainiert wird, oder doch ???

    Das würde die KI zu einer einfachen Datenbank degradieren.


    Und wenn die Erfahrung des Benutzers relativ ungeprüft übernommen wird, sind wir wieder bei meinen bösen Mitmenschen.


    Dass einer KI Phantasiefähigkeiten seitens der nutzenden Menschen angedichtet werden, ist unbestritten, da bin ich voll bei dir...


    So, bin morgen für zwei Wochen weg und muss heute packen.

  • Hallo Werner,


    danke für Dein Interesse! Ich zögere gerade ein bisschen - manches führt etwas zu weit. Eigentlich wärs nötig, von Anfang an zu erklären, wie ein neuronales Netz funktioniert. Das zu erklären ist aber schriftlich etwas schwierig.


    Das Training einer KI (sie wird also nicht "programmiert" sondern "trainiert") passiert immer mit realen Daten aus der Vergangenheit, bei denen man außer dem Daten-Input auch das gewünschte Ergebnis kennt. Eine KI, die am Geräusch eines fabrikneuen Rasierapparats erkennen soll, ob dieser in Ordnung ist oder nicht, wird mit vielen Sounddateien trainiert, bei denen dann jeweils der KI gesagt wird, ob sie mit ihrer Entscheidung "defekt" oder "ok" richtig oder falsch lag. Daraufhin ändert die KI ihren Bewertungsmechanismus und probiert die nächste Sounddatei. So lange, bis ihre Entscheidungen richtig sind. Trainigsdaten sind also immer reale Daten aus der Vergangenheit.


    "Im Beispiel eines Fehleranalysesystems für Honda Motorräder wäre das der Inhalt des Werkstatthandbuches."

    Nein - das ist völlig falsch. Denn die KI wird das Buch nicht "verstehen" - sie versteht gar nichts!!! Die Trainingsdaten sehen anders aus. Man nimmt den realen Fall eines Defektes und gibt alle Symptome als Input in die KI. Man lässt die KI das durchrechnen (rein mathematisch - ohne jedes Verständnis). Dann wird die KI zum Beispiel melden: "Es ist der Vergaser". Wenn das falsch ist (das weiß ich weil ich kenne ja den realen Fall), dann korrigiert die KI ihre Berechnungsmethode. Wenn es richtig ist, dann ist korrigiert sie diese nicht. Das macht man immer wieder, so lange, bis die KI "austrainiert" ist.


    "In unserem Beispiel müsste ich ein Expertensystem für die Pan haben und ein anderes für die Fireblade."

    Nö - wieso? Der Motorrad-Typ ist einfach eine der Input-Daten, die der KI mitgeteilt werden (sowohl beim Training wie auch nachher in der Benutzung der KI).


    Nochmal danke für Dein Interesse - ich befürchte, es ist doch ein bisschen viel für eine mail.


    Viele Grüße, Michael

  • Hallo Michael,

    Kein Problem, das habe ich verstanden.

    Du bringst der KI den Sollzustand bei und trainierst abweichende Symptome mit von dir definierten Ursachen.

    Wenn der aktuelle Fall andere Symptome hat, liefert die KI Möglichkeiten der Ursache, der Anwender (oder Trainer) muss entscheiden, ob der gelieferte Vorschlag die Ursache war.

  • Tut mir echt leid - so ist es nicht. Es gibt keinen "Sollzustand" bei einer KI. Es gibt Input und es gibt Output. Wenn eine KI einen Rasierapparat "hört", dann soll sie fähig sein, zu sagen: "defekt" oder "ok". Wenn sie ein Videobild von der Straße (+ Umgebung) bekommt, dann soll sie sagen/bzw. tun: "Gas geben", "bremsen", nach links oder nach rechts lenken", usw ....

    Der Begriff "Sollzustand" hat hierbei keine Bedeutung.

  • ZEIT ONLINE: Das beste KI-System für Go, AlphaGo Zero, meisterte das komplexe Brettspiel viel besser als alle seine Vorgänger, die noch mit historischen Daten trainiert wurden. Es brachte sich die Strategien selbst bei, indem es einfach immer wieder gegen sich selbst antrat. Zu Anfang kannte es nicht viel mehr als die Spielregeln. Werden auch Ihre Modelle eines Tages so lernen?

    Altman: Ja, das ist die Zukunft. Es gibt zwei wichtige Konzepte, eines davon ist die AlphaGo-Zero-Idee. Ein System, das aus sich selbst heraus Neues lernt. Das andere ist die GPT-Idee, also ein System, das aus Daten lernt. Beide haben funktioniert. Sie zu kombinieren, wird sehr spannend.


    https://www.zeit.de/digital/20…at-gpt-ki/komplettansicht