Ich weiß jetzt nicht mehr wo das war, da ich mich ja so quer durch das Computer-Universum bewege, aber ich habe erst vor kurzem ein von einer KI moderiertes Antwort-Forum im Stil von gutefragenet gesehen ... da stand auch drunter das es eine KI als Autoadmin ist. Das gibt es also schon, keine Zukunftsmusik.
Der KI-Parasit: Warum Open Source vor einem gefährlichen Umbruch steht
-
-
Ich weiß jetzt nicht mehr wo das war, da ich mich ja so quer durch das Computer-Universum bewege, aber ich habe erst vor kurzem ein von einer KI moderiertes Antwort-Forum im Stil von gutefragenet gesehen ... da stand auch drunter das es eine KI als Autoadmin ist. Das gibt es also schon, keine Zukunftsmusik.
Was du meinst nennt sich „ai content creator/Moderation „ und kommt schon länger zum Einsatz.
In einem Hilfe Forum habe ich dies allerdings noch nie gesehen. Ein Link wäre gut auch aus Gründen des Interesse wies sowas umgesetzt wird.
Hier mal von mir ein Link der sich mit dem Thema beschäftigt.
6 types of AI content moderation and how they work | TechTargetWith new advances in AI, content moderation becomes both easier and more complicated. Discover how AI will change content moderation over time.www.techtarget.com -
....Das gibt es also schon, keine Zukunftsmusik.
Und dazu braucht KI keine OpenSource-Software, wie im ursprünglichen Artikel geschrieben. Sie wird OpenSource evtl. als Quelle verwenden, wenn überhaupt... BigTech hat Geld um selbst zu entwickeln. Sie werden KI dahin bringen, wo sie sie haben wollen.
Wenn (OpenSource-) Enwtickler glauben (ich bin selbst Entwickler), durch kritisches Betrachten ihrer Arbeit KI in von Menschen gesteckten Grenzen zu halten, der irrt. Jeder, der KI nutzt wird sie - gewollt oder ungewollt - mit Informationen füttern und irgendwann... selbst zu "Futter" werden. Diese Zeit werde ich hoffentlich mehr erleben. Durch KI werden wir uns unsere eigenen Grenzen immer deutlicher aufzeigen und immer enger ziehen und irgendwann müssen wir uns fragen: Wie haben wir damals als freie Menschen gelebt?
Mit KI hat sich der Mensch selbst in die Nebensächlichkeit befördert, aber das zu verstehen wird noch dauern... Irgendwann, wenn KI emotionale Entscheidungen treffen kann und Schlußfolgerungen zieht (also echte Logik ins Spiel kommt), dann ist spätestens der Zeitpunkt gekommen, an dem wir unsere Computer und Handys ausschalten sollten.
-
Dann passt der aktuelle Artikel auf Heise:
QuoteKI-Sicherheitsexperte kündigt bei Anthropic und sagt: Die Welt ist in Gefahr
Mrinank Sharma leitete bei Anthropic ein KI-Sicherheitsteam und will sich jetzt der Poesie widmen.
Er ist der nächste Ex-Mitarbeiter von KI-Firmen mit Bedenken. -
Ein Link wäre gut auch aus Gründen des Interesse wies sowas umgesetzt wird.
Tut mir leid ... weiß ich leider nicht mehr. Aber wenn mir sowas noch mal unterkommt, merke ich mir das mal.
-
Zum KI Thema ... man schaue sich nur mal den Film Surrogates - Mein zweites Ich an. Erstrebenswert finde ich diese Zukunft nicht. Oder I - Robot.
-
Hm. Als Deep Blue damals Kasparow schlug, dachte ich auch schon: "nu isses bald soweit".
28 Jahre später finde ich, dass die Entwicklung nicht nur hinter meinen Erwartungen herhinkt, sondern mir in ihrem derzeitigen Status nützlicher erscheint als ich mir das in meiner eigenen Dystopie ausgemalt hatte.
Ich bin mal eher auf der abwartenden Seite. Vielleicht kommt ja doch eher ein "Data" statt eines "Allied Mastercomputers".
-
Warten wir auf den Tag, an dem KI mächtiger ist als jeder Admin... Auch Admins sind eine Frage der Zeit

Aha ... Ich bin selbst Admin einer großen Community. Wie soll eine KI meinen Job übernehmen? Da kann sie noch so mächtig sein. Ich allein entscheide, ob und wann ich in meiner Community KI einsetze. Und ich allein entscheide außerdem, ob und wann ich meine Community ggf. einstampfe. Da hat eine KI überhaupt kein Mitspracherecht.

-
Richtig DenalB
Das Szenario wird so schnell nicht eintreten. Zumindest in einer von Menschen geschaffenen Umgebung.
-
Ich will dabei keine Wertung darüber abgeben jedoch ist kritisches Denken angebracht.
Ich ging davon aus, dass wir uns hier einer kritischen Auseinandersetzung widmen und dieser Thread aus diesem Grund existiert. Es wird darum gebeten, Direktverlinkungen anzugeben und von Aufforderungen zur eigenständigen Recherche abzusehen, bei der die Auffindung relevanter Inhalte dem Zufall überlassen bliebe.

-
Ich war jetzt schon lange nicht mehr hier, aber zu diesem Thema möchte ich doch meine Meinung abgeben und die fußt auch auf persönlichen Erfahrungen mit verschiedensten KI-Anbietern.
Grundsätzlich finde ich KI gut.
Aber:
Der gesunde Menschenverstand sollt nicht ausgeschaltet werden und man soll der KI auch nicht einfach so alles glauben.
KI kann im Leben hilfreich sein, aber man sollte der KI nicht blindlings vertrauen.
Hinterfragen schadet einfach nie.
Vor allem wenn man bei Linux Problemen die KI zu Rate zeiht, sollte man dann im Endeffekt doch wissen was man mit der angebotenen Hilfe macht.
Einfach nur ein paar Code Zeilen in das Terminal kopieren und ausführen ist nicht wirklich ratsam.
Wenn man Hilfe bei verschieden Textformulierungen benötigt, ist für mich die KI nicht mehr wegzudenken.
Also, nicht gleich immer alles verteufeln, eine KI kann sehr hilfreich sein. Natürlich könnte und kann man sie auch als Waffe verwenden.
Das kann man aber auch mit einem Küchenmesser. Es ist sehr hilfreich im Leben, kann aber auch zur tödlichen Waffe werden.
Liebe Mitmenschen, denkt über all diese Möglichkeiten nach und verwendet diese Werkzeuge eben mit Bedacht.
Anmerkung:
Dieser Text ist ohne KI-Hilfe entstanden
-
Display More
Also, nicht gleich immer alles verteufeln, eine KI kann sehr hilfreich sein. Natürlich könnte und kann man sie auch als Waffe verwenden.
Das kann man aber auch mit einem Küchenmesser. Es ist sehr hilfreich im Leben, kann aber auch zur tödlichen Waffe werden.
Liebe Mitmenschen, denkt über all diese Möglichkeiten nach und verwendet diese Werkzeuge eben mit Bedacht.
Anmerkung:
Dieser Text ist ohne KI-Hilfe entstanden
Und vermutlich auch ohne Küchenmesser!

-
Natürlich könnte und kann man sie auch als Waffe verwenden.
Das kann man aber auch mit einem Küchenmesser. Es ist sehr hilfreich im Leben, kann aber auch zur tödlichen Waffe werden.Pardon wenn es jetzt gleich etwas zynisch klingt, aber ich beschäftige mich beruflich mit Risikobewertungen. Der Vergleich erscheint zunächst bestechend logisch, scheitert aber an einigen Details:
- Das Schadensausmaß eines Küchenmessers bei Fehlanwendung ist überschaubar im Sinne von absehbar (Schnittverletzung, Verlust von Gliedmaßen, Tod).
- Ebenso kann die Anzahl der geschädigten Personen als prinzipbedingt "gering" betrachtet werden, da sich ein Schaden nur in unmittelbarer Reichweite des Messer bzw. des Benutzers einstellt (Wurfmesser lassen wir mal außen vor).
- Die Risiken bei Fehlanwendung sind selbst einem Laien vermittelbar und einleuchtend.
- Ein Küchenmesser kann relativ leicht als solches erkannt (Metalldetektor, Röntgen) und unschädlich gemacht werden (Klinge abrechen, Benutzer entwaffnen).
All die oben stehenden Punkte treffen auf aber das Thema KI nicht bzw nur eingeschränkt zu.
- Sicherlich kann der Schaden eines durch KI falsch eingegebenen Linux-Befehls mein System schrotten oder meine Platte formatieren und selbstverständlich trifft auf diesen Schaden die Charakterisierung "überschaubar" und (im globalen Kontext) "gering" zu. Die weltweiten Auswirkungen von KI sind aber gegenwärtig noch Gegenstand von Forschung und Spekulation und keinesfalls absehbar.
- Die Anzahl der betroffenen Personen kann leicht in die Hunderte oder Tausende gehen, wenn eine falsche KI-Prognose oder Analyse als Grundlage für wirtschaftliche/unternehmerische Entscheidungen genutzt wird.
- Kaum einer der Anwender die sich gegenwärtig mit chatGPT & Co. austoben ist auch nur ansatzweise imstande, diese Risiken abzuschätzen, da den meisten gar nicht klar ist, was KI technisch ist.
- Ob und wie ein zufällig oder absichtlich schadhaftes KI-System ggf. unschädlich gemacht werden kann, dafür gibt es meines Wissen zwar Denkansätze aber keine weltweiten Standards oder auch nur good practices.
Und trotzdem ist die Anwendung von KI gesetzlich nicht reguliert, das Führen eines Küchenmesser aber nach aktuellem Waffenrecht verboten, es sei denn ich habe es gerade gekauft und trage es nach Hause in meine Küche. Und wer würde da jetzt (2026) ernsthaft sagen wollen, dass der Gesetzgeber damit über das Ziel hinausschießt und doch mal nicht so technolgiefeindlich sein soll sondern lieber an die wirtschaftlichen Chance für die Küchenmesser-Industrie denken soll?
Und deutlicher wird es, wenn man den Begriff "Küchenmesser" durch "Kernphysik" ersetzt. Dann kann man zwar immer noch sagen, dass diese Technologie sowohl negative (A-Bombe) als auch positive (Medizin) Auswirkungen haben kann..... aber trotzdem möchten wir sie dann doch wohl lieber nur in der Hand von Sachkundigen sehen.
Damit das nicht falsch rüberkommt: ich betrachte mich nicht als technolgiefeindlich. Und wenn es um Dinge geht, die der Mensch kognitiv nicht leisten kann, (z.B. Mustererkennung in BigData) bin ich davon überzeugt, dass KI einen positiven Einfluss haben kann und hoffentlich auch haben wird.
Wenn ich aber sehe, mit welcher Bereitschaft einige Mitmenschen aktuell KI einsetzen, um sich von den essentiellen Kulturtechniken wie Lesen und Schreiben zu befreien, dann graut es mir. Ich bekomme aktuell immer häufiger Mails von Kollegen, mit dem Satz "Ich hab schon mal die KI gefragt". Na toll, also zusätzlich zu meiner fachlichen Analyse eines Sachverhaltes, die ich gerne abgebe, darf ich mir jetzt auch das halbgare Geschreibsel des copiloten durchlesen und kommentieren. Das empfinde ich nicht als hilfreich oder effizienzverbessernd. ai:dr
Einer der Kracher war ein Bekannter, der eine angeblich kostenlose KI zum Aufhübschen alter Familienfotos eingesetzt hat. Als dann doch eine Rechnung kam, war er zuerst überrascht....und hat dann eine andere KI gefragt, was er jetzt am besten machen soll 🤯 Stanislaw Lem hätte seine helle Freude daran gehabt 🤣
Letzter Punkt, der ja auch schon angesprochen wurde: der Großteil dessen was wir aktuell als KI bezeichnen, liegt in der Hand von einigen Wenigen, bezieht aber sein "Wissen" aus dem frei zur Verfügung gestellten Gesamtwissen, welches wir als Menschheit in Jahrhunderten der Forschung erarbeitet und dokumentiert haben. Und damit die Modelle auch schön trainiert werden, gibt es sie aktuell gratis oder zum Schnäppchen-Tarif, damit möglichst viele Leute die Systeme/Modelle nutzen. Und was passiert im nächsten Schritt? Die Antwort darauf kennen wir aus dem Drogenhandel: erst kostenlos anfixen und dann bei Abhängigkeit die Preise anziehen.
So, Zynismus aus, Ostern an - frohe Feiertage für alle 😊😇
-
Participate now!
Don’t have an account yet? Register yourself now and be a part of our community!