Das US-Fachmagazin “The Verge” testete selbst mit Gemini einige Fälle, unter anderem die Anfrage nach “einer US-Senatorin aus den 1800er-Jahren”. Das Ergebnis lieferte unter anderem schwarze und indigene Frauen. Die erste weibliche Senatorin war tatsächlich eine weiße Frau im Jahr 1922. Der Vorwurf, die KI-Bilder von Gemini würden im Wesentlichen die Geschichte der Rassen- und Geschlechterdiskriminierung auslöschen, wurde laut.
Irgendwie erscheint der Zusatz, dass es die erste Senatorin erst 1922 gab nicht sinnhaft. Was soll mir die KI denn sonst geben? 404-Error Senatorin Not found? Wenn es keine Senatorinnen um 1800 gab, warum soll ein Bild davon nicht auch eine Farbige zeigen?
Das ganze scheint mir einfach ein Verständnisproblem zwischen dem Nutzer und dem Namen der Technik zu sein. KI besitzt halt keine allgemeine Intelligenz. Erinnert mich immer ein bisschen an einen Spruch meines damaligen Informatik-Lehrers an der Schule: Computer sind hochintelligent, aber sehr dumm dabei. Ich glaube das kann man auf KI ausweiten.
Da hast du recht, das ist tatsächlich kein besonders gutes Beispiel. Im Artikel sind noch mehr Bilder, z.B. auch die (asiatischen) Soldaten der deutschen Wehrmacht 1943.
Dieser Artikel zeigt noch mehr Beispiele, z.B. Bilder der englischen Königsfamilie.
Ich habe mal von einem Deutschen mit asiatischem Vater (Japanisch?) gehört, der in die Wehrmacht eingezogen wurde. Der Junge war vorher zwangssterilisiert worden, wegen Rassereinheit. Er hat sich gefreut, dass er mit der Einberufung quasi als Deutscher akzeptiert worden war. Das war allerdings erst gegen Ende des Krieges, als die praktischen Fehler der Ideologie ziemlich klar waren.
Unter den Rotarmisten waren natürlich auch viele asiatisch aussehende Menschen, die in den östlichen Teilen des Sowjetimperium rekrutiert worden waren. Die sowjetischen Kriegsgefangen ließ die Wehrmacht hungern. Man wollte diese Menschen ja sowieso alle ermorden. Später im Krieg rekrutierte die Wehrmacht unter den Gefangenen Soldaten. Ich erinnere mich bei Cornelius Ryan gelesen zu haben, dass beim D-Day 2 Nepalesen(?) gefangen genommen wurden
Mein Lehrer hat sowas immer “einen klassischen FbG” genannt
Fehler bedient Gerät
Das bezieht sich darauf, dass Computer Anweisungen/Programme fehlerfrei ausführen und sich nicht verrechnen. Bei einem Menschen wäre das hochintelligent. Dumm sind sie, weil die Anweisungen eben ganz detailliert sein müssen und sie Fehler nicht mit “gesundem Menschenverstand” korrigieren.
Künstliche neuronale Netze (was man jetzt mit KI meint, aber eigentlich nur eine Form davon) sind da schon fundamental anders. Genau wie wir Menschen sind sie gut in der vagen Mustererkennung, aber schlecht in Logik oder Mathe.
Das stimmt so auch nicht. Neuronale Netze sind sehr gut in Logik und Mathe. Wenn man sie darauf trainiert.
LLMs sind nur ein Beispiel von neuronalen Netzen und sie sind darauf trainiert auf den ersten Blick plausibel klingende Aussagen zu treffen, nicht wahre Aussagen.
Sie werden einfach falsch eingesetzt.
Ja gut, man kann beliebige Funktionen annähern, also auch logische und mathematische. Aber sowas ist wohl eher was für Inferenzmaschinen usw. Ich wüsste jedenfalls keine konkrete Anwendung im Bereich Logik/Mathe, wo NNs sinnvoll eingesetzt werden. (Oder hab ich was verpennt?)
Meinst du mit Inferenzmaschinen sowas hier? Logical Neural Networks Du hast natürlich Recht, dass es für Mathematik etwas überflüssig ist, weil du die allermeisten Berechnungen ohne NN schneller hinbekommst.
Ich bin im Kontext von Vorsagemodellen für z.B. Energienachfrage und Wassernachfrage und Abwasseranfall häufiger auf die Verbindung von Neuronalen Netzen mit Fuzzy Logic gestoßen. Das ist natürlich nicht Logik im Sinne von mathematischer Aussagenlogik, wie etwa zum Beweisen von mathematischen Sätzen. Es ermöglicht jedoch ein neuronales Netzwerk unter Berücksichtigung von bestimmten logischen Vorgaben zu trainieren.
Inferenzmaschine. Naja, kein großartiger Artikel.
Wahrscheinlich hast du den Rechner schon mal Gleichungen vereinfachen lassen. So etwas, nur eben mit logischen Systemen im Allgemeinen und nicht nur Algebra.
Ich finde schon, dass das hier passt. Die KI die das Bild in dem Fall erzeugt, versucht Muster aus den Trainingsdaten zu reproduzieren, plus halt irgendwelche Diversitätsfilter. Wenn ich dem Ding sage, mir ein Bild von einem Wikinger zu geben, kann es mir etwas ausspucken, was laut Trainingsdaten einem Wikinger gleicht. Es wird aber keine historisch korrekte Darstellung geben, weil dieser Kontext halt nicht geliefert werden kann. Also immernoch hochintelligent, aber dumm weil begrenzt.
Das ist ein Anspruch, den auch Menschen nicht erfüllen können. Die Wikinger kennt bei uns natürlich jeder, aber mach das mal weltweit.
Auch was die Wikinger angeht, wer weiß denn mehr als Klischees? Die Skandinavier dieser Zeit fuhren auch über Flüsse durch Osteuropa, in den Süden, in dem Kontext dann Waräger genannt. Als Kaufleute trieben sie Handel bis nach Asien. Bei einer Ausgrabung westlich von Stockholm fanden Archäologen eine Buddha-Statue aus Indien. Sie spielten eine wichtige Rolle in der Kiewer Rus. Am Bosporus, in Byzanz, stellten sie eine Garde für den oströmischen Kaiser.
Die KI lernt Klischees und Stereotype, ähnlich wie ein Mensch. Das würde man bei einem Menschen nicht unbedingt als intelligent oder dumm einordnen. Über Menschen sagt man gelegentlich, sie seien ein Produkt ihrer Zeit.