Beiträge von joern im Thema „ChatGTP plötzlich "dumm" geworden“

    Das was maik3531 sagt könnte natürlich eine Rolle spielen.

    Mir geht es hier ja gar nicht mal um das wissen. Angeblich ist der Wissensstand ja von 2022 oder so. Alles danach kann also fehlen. Das sind ja dann reine Fakten. Mir geht es aber eher darum, dass Fragen grundsätzlich falsch beantwortet werden. Also sowas wie "Nenne mir 3 Tiere":

    1. Blauwal
    2. Ameise
    3. Holzhütte

    Dann fragt man erneut nach und dann weiß ChatGPT kurioserweise, dass das falsch war. Dann lässt man es korrigieren und dann wird Holzhütte mit Gummiball ersetzt.

    Das ist jetzt ein Beispiel, um die Sache zu verdeutlichen. Kein Grund, dass Ganze wieder einzutippen und die Antworten als Screenshot hier zu posten :D

    Klar.. die Eingabe des Nutzers spielt eine wichtige Rolle. Aber das sollte sie halt nicht. Wie intelligent ist eine KI, wenn sie nicht mal einfachste Fragen richtig versteht? Wenn ich mir jetzt immer genau überlegen muss, wie ich frage, kann ich es doch auch gleich sein lassen. Denn wenn es mal nicht sehr offensichtlich ist, bemerke ich doch gar nicht, dass die Antworten falsch sind. Wenn ich die Antworten selbst kenne, muss ich ja auch keine KI fragen.

    Ja, sehe ich auch so, allerdings ist das ja noch eine junge Technik und muss ja noch nicht alles perfekt sein und unbestritten wird der Weg dahin führen, umkehrbar. Macht mir Angst, weil die Auswirkungen noch nicht absehbar sind.

    Ich habe einen einfachen Test gemacht und gefragt, was man über die eigene Person weiß. Das Ergebnis war mit drei Themen korrekt und eines falsch.

    Dann aber weiter gefragt nach einer Kombination der Person und spezielles Thema kamen weitere Antworten,naber längst nicht alles, was im Netz über mich öffentlich hinterlegt ist.

    Danach ist die GPT nicht dumm, sondern faul.

    Ich werde diesen Test nochmals mit anderen Ki machen, dann lässt es sich vergleichen.