Das was maik3531 sagt könnte natürlich eine Rolle spielen.
Mir geht es hier ja gar nicht mal um das wissen. Angeblich ist der Wissensstand ja von 2022 oder so. Alles danach kann also fehlen. Das sind ja dann reine Fakten. Mir geht es aber eher darum, dass Fragen grundsätzlich falsch beantwortet werden. Also sowas wie "Nenne mir 3 Tiere":
- Blauwal
- Ameise
- Holzhütte
Dann fragt man erneut nach und dann weiß ChatGPT kurioserweise, dass das falsch war. Dann lässt man es korrigieren und dann wird Holzhütte mit Gummiball ersetzt.
Das ist jetzt ein Beispiel, um die Sache zu verdeutlichen. Kein Grund, dass Ganze wieder einzutippen und die Antworten als Screenshot hier zu posten
Klar.. die Eingabe des Nutzers spielt eine wichtige Rolle. Aber das sollte sie halt nicht. Wie intelligent ist eine KI, wenn sie nicht mal einfachste Fragen richtig versteht? Wenn ich mir jetzt immer genau überlegen muss, wie ich frage, kann ich es doch auch gleich sein lassen. Denn wenn es mal nicht sehr offensichtlich ist, bemerke ich doch gar nicht, dass die Antworten falsch sind. Wenn ich die Antworten selbst kenne, muss ich ja auch keine KI fragen.
Ja, sehe ich auch so, allerdings ist das ja noch eine junge Technik und muss ja noch nicht alles perfekt sein und unbestritten wird der Weg dahin führen, umkehrbar. Macht mir Angst, weil die Auswirkungen noch nicht absehbar sind.