Was ist eigentlich KI (Künstliche Intelligenz) / AI (artificial intelligence) aka LLM (large language models)

  • Alle reden über KI aber wie funktioniert es? Wissen all die Begeisterten eigentlich, was da drinnen steckt?

    Ich fühle mich noch nicht informiert genug, um es zu benutzen. Ich fühle mich nicht vorbereitet genug, um sowas zu Testen und um mir eine Meinung darüber zu bilden.

    Das liegt an mir, weil ich beim Einsatz von Tools immer befürchte, irgendwann überhaupt nicht zu wissen was ich tue. Analogie zum Navigationsgerät, mit dem Leute jahrelang durch ihren neuen Wohnort fahren und deshalb nie lernen sich zu orientieren.

    Folgendes Video vom aktuellen Chaos Communications Congress 37C3 beleuchtet ziemlich viel, imho: Eva Wolfangel - Unsere Worte sind unsere Waffen

    Einmal editiert, zuletzt von Kaenguru73 (31. Dezember 2023 um 11:16)

  • Hallo

    Ja was ist künstliche Intelligenz.

    Im Prinzip nur das "zusammenschalten" mehrerer Computer in einem neuronalem Netzwerk, die allerdings "lernfähig" sind durch ihr Datenbank System.

    My Lord ich bin nicht so gut darin sowas zu erklären.

    Zum testen schlage ich dir mal sowas vor auf der Shelll.

    Zitat


    tgpt

    Bitte lies dich vorher dazu ein, weil ich mal einen kurzen Installationsschnippel dazu lege.


    Zitat


    Bitte, nicht direkt ausführen sondern erst in die Problematik einlesen.


    Danke !!


    Gruss


    Fubba

  • Bitte, nicht direkt ausführen sondern erst in die Problematik einlesen.

    ... und guckt das Video! ;) (Nur die erste Hälte ist etwas enthüllend/dystopisch.)

    Sind die KI-Frontends nicht wieder nur eine bequeme Lösung für das Sammeln von Überwachungsdaten oder massenhafte Beeinflussung gehypter BürgerInnen!? Einige "Angebote" sind schon schockierend zweckdienlich in diesem Sinn und kommerzielle Anbieter können jederzeit verkauft/übernommen werden. =O

    Seid bitte vorsichtig mit Euren Anfragen, seid verdammt vorsichtig mit dem Hochladen/Übergeben von Dokumenten an irgendeine KI-App von irgendwem ...

    Wir alle haben viel Hintergrund mit kommerziellen Diensten (Betriebssysteme, Cloud-Anwendungen, Smartphones, Apps) und sind mit dem Betriebssystem und zum Glück endlich (viel zu spät) auf Open Source umgestiegen. Das hat Gründe und es sind gute Gründe.

    Vielleicht sollten wir es mit KI eher früher als später auch richtig machen? ;)

  • Ich bin ja nach wie vor der Meinung, dass es irgendwann Richtung Intelligenz gehen kann, wir aktuell aber einfach nur "smart" gemachte Sprachmodelle haben, die den Anschein von Intelligenz erwecken. Im Prinzip eine Datenbank, die ihr Wissen dann aber "kumpelhaft" ausgibt. Es ist gefühlt manchmal beeindruckend, dennoch für mich mehr Show als echte Intelligenz. Zudem finde ich die KI-Systeme hinter den Kulissen spannender und interessanter als diese Assistenten. Also so etwas wie Bildgeneratoren oder maschinelles Lernen.

    💾 AMD EPYC 7452 (8 Cores) 40GB | 💾 Unraid Homeserver i5-4570 16GB

    💻 Ryzen 9 7900X RX7800XT 32GB | 💻 MacBook Pro M2Pro 32GB

    EndeavourOS <3

  • Hallo


    Das mag in der Informatik richtig sein.

    Viel Show um nichts.

    Nur in der Physik gibt es schon Unterschiede.

    Es kann mittlerweile fast alles interpoliert werden was das Herz begehrt.

    Von Atomaren Gleichungen bis Wetterphänomenen, die Grenze ist nicht Umfassend aufzeigbar.

    Was wir hier als KI definieren mit all ihren Ausgabe Einheiten ist Schrott den nur Einsteiger als "wahnsinnig intelligent " definieren.

    Es kann nur ausgegeben werden was vorher erfasst worden ist, wie immer ohne "input no output"

    Ich habe ein bisschen Sorge wie lange es noch dauert bis wir unsere Hirn deaktivieren.=O


    Hoffen wir das "der große Bruder" an uns vorbei geht.


    Gruss


    Fubba

  • Es kann nur ausgegeben werden was vorher erfasst worden ist, wie immer ohne "input no output"

    Wenn diese Helferlein (KI) mal über das bloße Zusammensetzen/-suchen hinausgehen, dann fallen mir da schon ein paar konkrete Aufgaben ein: Eine KI könnte eigentlich in der Lage sein, Quellcodes zu verstehen, die für ein Hirn schlicht zu komplex sind. Eine KI müsste doch eigentlich schlimme Dinge wie Closed Source Treiber auf Binärpaketen dekompilieren können!? ;) Vielleicht könnte eine KI auch den daraus resultierenden unverständlichen Code mit Hilfe von von Open Source Quellcodes in Beziehung setzen und größtenteils mit verständlicheren Bezeichnern für Variablen und Funktionen versehen... Sowas wäre ziemlich sinnvoll, um Geräte länger nutzen zu können, deren Support abgelaufen ist.

    Sicherheitslücken in Quellcodes könnte eine sogenannte KI wahrscheinlich auch aufdecken. Ich könnte mir eine KI als ziemlich mächtige Hilfe vorstellen, wenn jemand einer KI alle Quellcodes einer Linux-Distribution beibrächte.

    Ganz simple Einstiegsaufgabe: Könnte eine KI nicht theoretisch für jede man-page eine UI mit Erläuterungen/Hilfen bauten? Sie könnte dabei auch berechnen, ob Annahmen aus der man-page so im Quellcode funktionieren würden.

    Aber das alles würde in einem Disaster enden, solange die KI nur eine ungenaue Lügenmaschine ist (Google-Suche). Ich neige noch dazu, Large Language Models logische Genauigkeit korrekter Algorithmen zu unterstellen... 8o Ich habe das System und den Sinn einfach noch nicht begriffen.

    Es wird so viel Positives über KI geschwafelt/geträumt, dass konkrete und korrekte/inkorrekte Ergebnisse total untergehen.

    Ich habe ein bisschen Sorge wie lange es noch dauert bis wir unsere Hirn deaktivieren.=O

    Spielst Du auf Manfred Spitzer an? :)

    Wir sollten alle mal eine gehörige Portion Zurückhaltung gegenüber Innovationen nachtanken. Informationen über Innovationen zu streuen ist schon wichtig, um was neues zu lernen, aber sich (und andere) mit Hoffnungen zu überschütten, obwohl man nicht weis worüber man redet, endet immer in Enttäuschung für jene, die dann tatsächlich was daraus machen wollen und sollen.

    Wenn gleichzeitig begründetes, kritisches Feedback als Innovationsfeindlichkeit diffamiert wird... :( Irgendwann bleibt einfach nur ein zutiefst frustriertes Heer von dysfunktionalen Technikern übrig, die kaum noch über verlässliche Tools verfügen, um auch nur etwas in die Richtung der abgehobenen Vorstellungen/Träume der Auftraggeber zu realisieren.

    ... und etwas später äußert sich niemand mehr, der irgendwas realisieren könnte/wollte.

    Man muss alle Äußerungen filtern, die nach undifferenziertem Hype riechen und sich das vor allem selbst abgewöhnen. Hohle Hoffnungen führen solange zu Enttäuschungen, bis das Hirn nicht mehr zu hoffen wagt.

    Hoffen wir das "der große Bruder" an uns vorbei geht.

    Ich will nicht nach Qualityland. =O

  • Hallo


    Naja ich bin eher dafür alles technisch Mögliche aus zu probieren und bis an Ihre Grenzen zu reizen.:P

    Stillstand bedeutet Rückschritt.:|

    Nicht mit der stillschweigenden Masse zu arbeiten sondern zu testen was Möglich ist.


    Nur wer lernt kann dazu gewinnen.

    Aber das ist wahrscheinlich mein Alter, das mich so denken lässt.

    Wie sollen wir unseren Zukunft gestalten wenn wir an den gegeben Bedingungen fest halten ?


    Nur eine "Waffe" die du bedienen lernst kannst du entsichern...


    Gruss


    Fubba

  • Die künstliche Intelligenz ist einfältig und wahrnehmungsunfähig und spiegelt uns lediglich Muster der Sprachen und Denkweisen der zugehörigen Testdaten unter von den Programmierern/Konfigurieren bzw. den Nutzern vorgegebenen Gesichtspunkten (Kathegorien, Ziele, ....) wieder. Damit lässt es sich durchaus effektiver arbeiten aber auch effektiver manipulieren:

    Es wird wohl nicht lange dauern, bis die ersten KI-Biologie"lehrer" umgesetzt werden, die ein Intelligent Design vertreten oder die ersten KI-Geographie"kenner", die Flache-Erde-Thesen im "glaubwürdigen Expertenstil" wiedergeben.

    Genaugenommen ist es ein alter Schuh, dass neue Werkzeuge der menschlichen Arbeit, Kommunikation usw. gewisse Krisen mit sich bringen: Die gab es z.B. bei der Einführung von Industrialisierung, von Massen- (Zeitung, Radio, Fernsehen, Internet) und sozialen Medien usw. ja auch --- und brachte zum Preis der zugehörigen Vorteile auch immer Anstrengungen mit sich, die Autonomie des Individuums und der gemeinschaftlichen Lebensweisen bzw. ein waches, kritisches Denken zu bewahren.

    Diese Anstrengungen sind eine grundlegende menschliche Aufgaben im menschlichen Miteinander --- keine Ideologie, keine Religion, keine Führer, kein Massenmedium, kein Technologieunternehmen, keine Bürokratie, keine öffentliche Meinung, kein Stammtisch, keine Facebook-Gruppe und auch keinerlei KI kann uns das abnehmen --- Letztere sind lediglich Mittel, um Hürden der zwischenmenschlichen Kommunikation dabei höher oder niedriger zu hängen.


    P.S: Eigentlich hätte es meinem Humor entsprochen, diesen Text von einer KI generieren zu lassen --- dummerweise kam dieser Einfall erst spät und es hätte mir zuviel Zeit gekostet ;)

    Keine Alternativen ? Kein Mitleid !

    Debian XFCE und Void XFCE

  • P.S: Eigentlich hätte es meinem Humor entsprochen, diesen Text von einer KI generieren zu lassen --- dummerweise kam dieser Einfall erst spät und es hätte mir zuviel Zeit gekostet ;)

    Diesen Einfall hatte ich bereits gestern und der aufmerksame Leser konnte es bestaunen bzw. lesen.

    PC: AMD Ryzen 7 5700X | AMD RX6600 | 32GB RAM | Debian 12 Xfce
    Notebook: AMD Ryzen 5 5300U | Vega Graphic | 16GB RAM | Debian 12 Xfce

  • Ich finde die Frage: "Was ist eigentlich KI" hier ganz gut erklärt.

    Ja, das ist spannend. :thumbup: Die Betrachtung ist etwas Top-Down, also abstrakt von der Anwendung her.

    -----------------------------------

    Von der anderen Seite (Bottom-Up) betrachtet habe ich noch eine gute Video-Präsentation (mit neuronalen Netzen) gefunden, die mehr beleuchtet, was so ein LLM eigentlich ist (am Beispiel von chat GPT): "#ChatGPT & Co – wie intelligent ist KI?", 98Min., youtube (ZDF Terra X), mit Hannah Bast, Harald Lesch und Marco Smolla.

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.

    Einmal editiert, zuletzt von Kaenguru73 (3. Januar 2024 um 13:13) aus folgendem Grund: Vorschau-Link eingefügt

  • Hab mich mal schlau gemacht und etliche Meinungen und Ansichten mir reingezogen und komme selber zu diesen Schluss: Genau genommen ist KI nur eine Simulation von (ich weiß, darüber könnte man streiten ob es die wirklich gibt, aber ich nenn es mal so): menschlicher Intelligenz.

    Sie funktionieren, indem sie große Mengen gelabelter Daten zum Training aufnehmen, die Daten auf Korrelationen und Muster analysieren und diese Muster nutzen, um Vorhersagen über zukünftige Zustände zu treffen. Auf diese Weise kann z. B. ein Chatbot, der mit Beispielen von Textchats gefüttert wird, lernen, lebensnahe Dialoge mit Menschen zu führen, oder ein Bilderkennungsprogramm kann lernen, Objekte in Bildern zu identifizieren und zu beschreiben, indem es Millionen von Beispielen überprüft. Eine KI braucht also eine Grundlage aus spezialisierter Hardware und Software zum Schreiben und Trainieren von Algorithmen für maschinelles Lernen. Die bekommt sie durch die Programmierung von Menschen, die sich im allgemeinen auf drei Fähigkeiten konzentriert: Lernen, logisches Denken und Selbstkorrektur.

    Diese Wären: 1. Lernprozesse. Dieser Aspekt der Programmierung von KI konzentriert sich auf die Erfassung von Daten und die Erstellung von Regeln, wie die Daten in verwertbare Informationen umgewandelt werden können. Die Algorithmen, geben den Computer Schritt für Schritt Anweisungen, wie eine bestimmte Aufgabe zu erledigen ist. 2. Logikprozesse. Diese Programmierung konzentriert sich auf die Auswahl des richtigen Algorithmus, um ein gewünschtes Ergebnis zu erzielen und 3. Selbstkorrekturprozesse. Diese Programmierung dient der kontinuierlichen Feinabstimmung der Algorithmen, um sicherzustellen, dass sie möglichst genaue Ergebnisse liefern. Das bedeutet, eine KI weiß nur, was ihr gezeigt wurde; und daher unter Umständen eine mangelnde Fähigkeit zur Verallgemeinerung von einer Aufgabe auf eine andere.

    Allerdings bei täglich anfallen riesigen Datenmengen, z. B. In der Forschung oder in Unternehmungen die einen Menschen überfordern können, können KIs, die maschinelles Lernen nutzen, diese Daten schnell in verwertbare Informationen umwandeln. Zum jetzigen Zeitpunkt besteht aber der Hauptnachteil des Einsatzes von KI darin, dass die Verarbeitung von großen Datenmengen, die für die Programmierung erforderlich sind, teuer ist.

    Wir haben im Moment einen regelrechten Hype um KI. Deswegen haben sich viele Anbieter darum bemüht, die Nutzung von KI in ihren Produkten und Dienstleistungen an zu bieten. Aber oft ist das, was sie als KI bezeichnen, nur eine Komponente der künstlichen Intelligenz, wie zum Beispiel das maschinelles Lernen und sind damit von dem was z. B. Arend Hintze (Assistenzprofessor für integrative Biologie, Computerwissenschaft und Ingenieurwesen an der Michigan State University) in einem Artikel 2016 erklärte, dass KI in vier Arten unterteilt werden kann, angefangen bei den aufgabenspezifischen intelligenten Systemen, die heute weit verbreitet sind, bis hin zu empfindungsfähigen Systemen, die noch nicht existieren. Diese vier beschreibt er in etwa so:

    1. Reaktive Maschinen (Reactive Machines). Diese KI-Systeme haben keinen Speicher und sind aufgabenspezifisch. Ein Beispiel ist Deep Blue, das IBM-Schachprogramm, das Garri Kasparow in den 1990er Jahren besiegte. Deep Blue kann Figuren auf dem Schachbrett erkennen und Vorhersagen treffen, aber da es kein Gedächtnis hat, kann es nicht auf frühere Erfahrungen zurückgreifen, um künftige Erfahrungen zu nutzen.

    2. Begrenzte Speicherkapazität (Limited Memory). Diese KI-Systeme verfügen über ein Gedächtnis, so dass sie auf frühere Erfahrungen zurückgreifen können, um künftige Entscheidungen zu treffen. Einige der Entscheidungsfunktionen in selbst fahrenden Autos sind auf diese Weise konzipiert.

    3. Theorie des Geistes (Theory of Mind). Theorie des Geistes ist ein Begriff aus der Psychologie. Auf die KI angewandt bedeutet er, dass das System über die soziale Intelligenz verfügt, Emotionen zu verstehen. Diese Art von KI wird in der Lage sein, menschliche Absichten zu erkennen und Verhalten vorherzusagen – eine Fähigkeit, die KI-Systeme benötigen, um integrale Mitglieder menschlicher Teams zu werden.

    4. Selbstwahrnehmung (Self-awareness). In dieser Kategorie haben KI-Systeme einen Sinn für sich selbst, was ihnen ein Bewusstsein verleiht. Maschinen mit Selbstbewusstsein verstehen ihren eigenen aktuellen Zustand. Diese Art von KI gibt es noch nicht.

    Hier mal der Link zu diesem Artikel, da ich nicht weiß wie gut die Übersetzung daraus ist.

  • Beispiel von chat GPT): "#ChatGPT & Co – wie intelligent ist KI?", 98Min., youtube (ZDF Terra X), mit Hannah Bast, Harald Lesch und Marco Smolla.

    Hab' mir die Sendung mal reingezogen. Ist einerseits recht informativ, andererseits stellenweise zu Philosophisch (erst recht von Harald Lesch, aber der neigt sowieso dazu) Was mir überhaupt nicht gefallen hat, ist wenn Fragen auftauchten die in das Weltbild von Hannah Bast als Informatikerin nicht passt abgebügelt oder verharmlost wurde. Witzig find ich die im Hintergrund stehende Uraltdatenbank und dazu dann auch noch passend den Röhrenfernseher.

    Bei einer Stelle ging mir ein Gedanke durch den Kopf, da manche KI in der Lage sind Bilder und Texte zu verfälschen. Also das ich aufnahmen nehme, die Stimme von dem Gezeigten nachmache und veröffentliche. Der Gedanke bei mir war folgender. Angenommen Donald Trump (oder jemand anderes der so tickt wie dieser) gewinnt nächstes Jahr die Präsidentschaftswahlen. Trump war ja dafür bekannt das es Entscheidungen die er getroffen hat über Twitter zu verbreiten. Bei mir erschien ein Bild wo eine generierte Fälschung eine Kriegserklärung an sagen wir mal Russland oder China ixt.

    Was Chat GPT angeht macht mir folgendes Sorgen. Chat GPT ist ja nur so schlau wie die Datenbangen über die es versorgt wird. Da steht viel Richtiges drin, aber auch viel Müll, Verschwörungstheorien, unwahres und und und. Ich erinnere mal daran, dass vor ein paar Jahren auf Wikipedia aufgefallen ist, dass dort ein Witzbold Informationen zu einem Krieg platziert hat der nie statt gefunden hat, was viele Jahre gar nicht aufgefallen ist. So eine KI hat ja keinen gesunden Menschenverstand (und wird ihn auch niemals haben) mit dem man doch recht gut falsches von Richtigen unterscheiden kann. Besteht da nicht die Gefahr das solche Falschinformationen noch fiel schneller verbreitet werden und die Menschen denken das diese Information richtig ist, weil die Info ja von einer KI stammt!? Früher haben viele Menschen das geglaubt was in der Zeitung stand und zwar aus dem Grund weil es in der Zeitung stand. Also mich muss KI und z. B. Chat GPT noch überzeugen und stehe diesem Thema (noch) recht Skeptisch gegenüber.

    3 Mal editiert, zuletzt von Hiasl59 (3. Januar 2024 um 19:55) aus folgendem Grund: Ergänzungen und Grammatik

  • Hab' mir die Sendung mal reingezogen. Ist einerseits recht informativ,

    Ja, darum ging es. Dank Hannah Brants gutem Vortrag sind bei mir "viele Groschen gefallen". :)

    andererseits stellenweise zu Philosophisch (erst recht von Harald Lesch, aber der neigt sowieso dazu). Was mir überhaupt nicht gefallen hat, ist wenn Fragen auftauchten die in das Weltbild von Hannah Bast als Informatikerin nicht passt abgebügelt oder verharmlost wurde.

    Man muss Harald Leschs Hintergrund beachten und aus dem heraus ist er extrem kritisch gegenüber den Entwicklungen der Digitalbranche.

    Politik

    Harald Lesch hat eines der besten Bücher zum Klimawandel mitverfasst:
    Die Menschheit schafft sich ab - Die Erde im Griff des Antropozän

    und er hat 2019 einen sehr guten, offenen und kritischen Vortrag zu Internet & Gadgets gehalten
    Prof. Dr. Harald Lesch: Die digitale Diktatur, 45Min., SWR 2019

    Bei allem gezeigtem didaktischem Talent (und sicher auch Sachverstand), scheint Hannah Bast auch einer dieser Menschen zu sein, die sich wenig von möglichen Folgen und Gefahren runterziehen lassen, oder mitverantwortlich fühlen.

    Politik

    Man beachte Ihre haarsträubende Abwiegelung zum Energieverbrauch von KI - Solange KI noch nicht soviel verbraucht wie Verkehr oder Immobilien... :rolleyes:

    Was Chat GPT angeht macht mir folgendes Sorgen. Chat GPT ist ja nur so schlau wie die Datenbanken über die es versorgt wird. Da steht viel Richtiges drin, aber auch viel Müll, Verschwörungstheorien, unwahres und und und.

    Das Training einer fähigen KI ist (noch) mordsaufwendig. Wie das funktioniert, wurde sehr anschaulich und spannend vermittelt auf dem 37C3 Kongress durch
    Rainer Mühlhoff in seinem Vortrag "KI macht Ungleicheit" auf dem 37C3Unlocked (Warnung, spätestens ab 21:40 geht es nur noch um ethische Gedanken und Nachaltigkeit)

    Ich erinnere mal daran, dass vor ein paar Jahren auf Wikipedia aufgefallen ist, dass dort ein Witzbold Informationen zu einem Krieg platziert hat der nie statt gefunden hat, was viele Jahre gar nicht aufgefallen ist.

    Das was Lesch auch schon anmeckerte über textuelle KI-Unterstützung gemieteter Trolle betraf schon früher Wikipedia (Artikel werden verzerrt/manipuliert durch bezahlte Trolle in Diskussionen):
    https://www.sueddeutsche.de/digital/wikipe…issen-1.4496890

    So eine KI hat ja keinen gesunden Menschenverstand (und wird ihn auch niemals haben) mit dem man doch recht gut falsches von Richtigen unterscheiden kann.

    Ich hoffe das, aber ich fürchte ich irre mich: Was der von Hannah Brant beschriebenen System noch fehlt, wäre etwas wie Träumen oder selbstständiges Nachdenken, bei dem die bisherigen Gewichtungen optimiert werden und die direkte Speicherung/Verarbeiung von Erfahrungen, was chatGTP so nicht macht. (Vielleicht lässt der Hersteller OpenAI alle Interaktionen aufzeichnen und sie von einer nächsten Version lernen und veröffentlich nach eingängigen Tests die nächste Version damit? :/)

    Besteht da nicht die Gefahr das solche Falschinformationen noch fiel schneller verbreitet werden und die Menschen denken das diese Information richtig ist, weil die Info ja von einer KI stammt!? Früher haben viele Menschen das geglaubt was in der Zeitung stand und zwar aus dem Grund weil es in der Zeitung stand. Also mich muss KI und z. B. Chat GPT noch überzeugen und stehe diesem Thema (noch) recht Skeptisch gegenüber.

    Die Menschen sind sicher (noch) nicht bereit für KI! <- Das habe ich maximal optimistisch formuliert. ;)

    Einmal editiert, zuletzt von Kaenguru73 (4. Januar 2024 um 00:46) aus folgendem Grund: Tippfehler & falsche Videostartposition, & 1 Videolink fehlte

  • Naja ich bin eher dafür alles technisch Mögliche aus zu probieren und bis an Ihre Grenzen zu reizen.:P

    [...] Nicht mit der stillschweigenden Masse zu arbeiten sondern zu testen was Möglich ist.

    Die von uns erreichbaren KI-Systeme besitzen doch (noch) nichts, was mit "Bewustsein" oder "Urteilsvermögen" (im klassischem Sinn) bezeichnet werden könnte. Was würde eigentlich mit einer selbstlernenden* KI passieren, wenn wir sie mit ironischen Aussagen "bilden" würden? :evil:

    * Im Gegensatz zu chatGPT, das ja sozusangen im Relase-Zustand eingesperrt ist, also nichts Neues durch unsere Interaktionen "erwirbt".

  • Die von uns erreichbaren KI-Systeme besitzen doch (noch) nichts, was mit "Bewustsein" oder "Urteilsvermögen" (im klassischem Sinn) bezeichnet werden könnte. Was würde eigentlich mit einer selbstlernenden* KI passieren, wenn wir sie mit ironischen Aussagen "bilden" würden? :evil:

    * Im Gegensatz zu chatGPT, das ja sozusangen im Relase-Zustand eingesperrt ist, also nichts Neues durch unsere Interaktionen "erwirbt".

    Wie gesagt fürs interpolieren in der Physik mehr als geeignet, das hat allerdings weniger mit den Kernthemen die wir hier diskutieren zu tun.

  • Die von uns erreichbaren KI-Systeme besitzen doch (noch) nichts, was mit "Bewustsein" oder "Urteilsvermögen" (im klassischem Sinn) bezeichnet werden könnte. Was würde eigentlich mit einer selbstlernenden* KI passieren, wenn wir sie mit ironischen Aussagen "bilden" würden? :evil:

    * Im Gegensatz zu chatGPT, das ja sozusangen im Relase-Zustand eingesperrt ist, also nichts Neues durch unsere Interaktionen "erwirbt".

    Die aktuelle Version soll da doch mehr können und auch Zugriff auf das Internet haben.

    💾 AMD EPYC 7452 (8 Cores) 40GB | 💾 Unraid Homeserver i5-4570 16GB

    💻 Ryzen 9 7900X RX7800XT 32GB | 💻 MacBook Pro M2Pro 32GB

    EndeavourOS <3

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!