Hallo zusammen
Leider ist es notwendig, dass wir unsere Regeln zur Nutzung von KI anpassen bzw überhaupt welche definieren. Dem Team ist aufgefallen, dass es in letzter Zeit immer häufiger vorkommt, dass komplette Antworten einfach durch ChatGPT erstellt und dann hier hineinkopiert werden. Das war aber niemals Sinn und Zweck der Funktion, solche Antworten entsprechend markieren zu können.
Wenn ein Nutzer eine Frage stellt, sich vielleicht eine Diskussion entwickelt und dann jemand von uns/euch im Rahmen seiner Recherche auf ChatGPT und andere KI zurückgreift, sollte dieser Teil entsprechend markiert werden. Dann ist es eine ganz normale Antwort eines wissenden Community-Mitglieds und ergänzt wird diese eventuell durch KI, was dann gekennzeichnet wird.
Beispiel
Frage: Ich habe unter Linux Mint nicht die Rechte, um auf Daten einer externen Festplatte zuzugreifen. Was kann ich tun?
Mögliche Antwort: Du kannst die Rechte einer Datei mit Rechtsklick und... Alternativ geht das auch im Terminal mit chmod 777 ..
Die Zahl gibt übrigens an, welche Rechte genau an wen vergeben werden:
Die Bedeutung der einzelnen Zahlen
Die Ziffern sind wie folgt aufgeteilt:
- Erste Ziffer (optional, Setuid/Setgid/Sticky Bit):
- Diese vierte (manchmal ausgelassene) Ziffer legt spezielle, erweiterte Berechtigungen fest: Setuid (4), Setgid (2) oder das Sticky Bit (1).
- Wenn sie fehlt, wird sie als 0 angenommen.
- Zweite Ziffer (Besitzer/Owner):
- Legt die Rechte für den Besitzer (U: User) der Datei oder des Verzeichnisses fest.
- Dritte Ziffer (Gruppe/Group):
- Legt die Rechte für die Gruppe (G: Group) fest, der die Datei oder das Verzeichnis zugeordnet ist.
- Vierte Ziffer (Andere/Others):
- Legt die Rechte für alle anderen (O: Others) Benutzer auf dem System fest.
Das soll jetzt einfach nur ein ganz einfaches Beispiel sein und diese Mischung aus natürlicher menschlicher Antwort unter Einbeziehung der KI verdeutlichen.
Leider stellen wir in letzter Zeit aber fest, dass vermehrt einfach die komplette Frage bei ChatGPT (oder anderen) eingefügt und deren Antwort 1:1 dann gepostet wird. Das dann oft ohne weitere Infos, ohne Kontext, ohne menschliche Bestandteile/Antworten. Und wenn ich mir diese Antworten dann teilweise ansehe, habe ich leider den Eindruck, dass die Antwort nicht mal vorher durchgelesen wird oder aber, dass der Verfasser selbst gar nicht versteht, was da geantwortet wurde und was er da eigentlich postet.
So oder so ist das nicht zielführend und teilweise vielleicht sogar gefährlich, wenn eine KI Terminal-Kommandos halluziniert und Schaden angerichtet wird. Da kann sich dann auch niemand hinter der Kennzeichnung verstecken. Also quasi nach dem Motto "Keine Ahnung, was ich da gepostet habe, aber ich habe es ja vorsichtshalber als KI markiert".
Und was mich hier ganz persönlich stört: Wir sind ein Forum mit echten Menschen und Helfern. Die Leute kommen zu uns, weil sie von anderen Menschen Hilfe erhoffen und vielleicht sogar ein wenig an die virtuelle Hand genommen werden wollen. Wenn dann jemand einfach die Frage in ChatGPT kopiert, ist das eigentlich nichts anderes als das Verlinken auf eine bereits erfolgte Google-Suche mit deren Ergebnissen (SERP). Die meisten Menschen wären durchaus imstande, das einfach auch selbst bei ChatGPT einzugeben. Das ist also keine wirkliche Hilfe und hilft maximal dem, der das gepostet hat, weil er A: das Gefühl hat etwas beigetragen zu haben oder B: der Post-Zähler nach oben geht.
Jeder von uns sollte hinter den eigenen Texten stehen und das was gesagt wird, auch selbst verfassen. Ist vollkommen okay, wenn jemand durch KI einen spell-check durchführen lässt oder Formulierungen verbessert (Lese-Schreibschwäche, etc) und natürlich auch, wenn man etwas genauer antworten möchte und man einen Teil dann bei ChatGPT oder Gemini recherchiert. Aber komplette Antworten generieren ist dann einfach unerwünscht. Persönliche Hilfe von Menschen für Menschen.
Das Mod-Team wird daher ab sofort Antworten löschen, die komplett oder zum größten Teil aus KI-generierten Antworten bestehen.
Danke und Gruß
Boris