Es gibt ein Gerichtsurteil zur Schufa. Darin wird festgestellt, dass z.B. Kredite nicht nur nach dem Schufa-Score gewährt oder versagt werden dürfen, weil es sich um eine maschinelle (mit Algorithmus) erstellte Beurteilung handelt. Es wird verlangt, dass die Entscheidungen von Menschen überprüft und gefällt werden.
Welche Auswirkungen hat das Urteil auf die KI?
Werden Menschen künftig noch in der Lage sein, eine Beurteilung der KI zu überprüfen und ggf. zu berichtigen?
Vermutlich trägt KI nicht gerade dazu bei, dass Menschen intelligenter werden. Ist ja nicht notwendig wenn die Software alles weiß.
Beispiel:
Wer nur mit Taschenrechner rechnet bzw. rechnen kann, und er meint, er habe 1 + 1 eingegeben und der Rechner sagt 21. Wer rechnen kann merkt sofort, dass das nicht stimmt, Wenn einer nicht rechnen kann, nimmt er das Ergebnis wie es ist.
Habt ihr zu diesen Fragen schon Artikel?