Ich glaube wir müssen da etwas differenzieren. Wenn du alles gleichsetzt, scheitern wir vermutlich schon an der Definition. Was meinst du mit 30% bei KI? Auf was genau bezieht sich das? Sprichst du hier von Dingen wie ChatGPT? ChatGPT ist ja erst mal ein LLM und nicht direkt die KI. Und in der Robotik ist KI ja ebenfalls nur ein Teilbereich.
Ich gebe dir Recht, dass KI aktuell ein Buzzword ist und es oft überhaupt nichts mit Intelligenz zu tun hat. Zudem wird das Ganze in Bereichen eingesetzt, in denen es offensichtlich reines Marketing ist. Gleichzeitig erkenne ich aber auch, dass Dienste wie ChatGPT, Gemini, etc immer besser werden.
Aber um mal bei dem zu bleiben, was aktuell hauptsächlich als KI durch die Medien geistert (ChatGPT):
Es gab letztes Jahr eine Studie, bei der man 33 (echte) Wissenschaftler aus 17 Bereichen genommen hat, um ChatGPT 284 Fach-Fragen verschiedener Schwierigkeitsgrade zu stellen. Der Mittelwert war dabei 5,5. Das finde ich dann durchaus beeindruckend.
In einer weiteren Studie hat man medizinisches Fachpersonal Patienten-Fragen beantworten lassen und die selben Fragen dann ChatGPT gestellt. Dann wurden alle Antworten ohne Verweis mehr als 400 Probanden vorgelegt und die sollten sagen, welche Antworten von Medizinern kommen und welche eben KI-generiert waren. In beiden Fällen konnte man bei ca. 65% der Antworten richtig zuordnen. Und das waren Menschen, die halt genau wussten, dass die Hälfte der Fragen von einer KI kommen. Wenn wir da jetzt einfach mal Pi-mal-Daumen den Wert für Unwissende extrapolieren, würde ich vermuten, dass man im Schnitt die Hälfte aller Antworten nicht als KI-generiert erkennen kann. Und wir sprechen hier immer noch von medizinischen Fragen und Antworten, die Patienten stellen. Wenn da die Hälfte nicht als "künstlich" erkannt wird, ist das durchaus ein entsprechender Erfolg für das LLM.
Eine ganz gute Studie bzw Einschätzung gibt es auch vom ITAS.
Es gibt einen Zusammenschluss von Wissenschaftlern aus Saudi-Arabien, Indien und dem Jemen und die kommen zu dem Entschluss, dass ChatGPT gut geeignet ist und verwendet werden sollte, um Sprachen (in dem Fall Englisch) zu lernen und dass Lehrer es einsetzen und veranschaulichen sollten.
Dann gibt es eine Studie, die auf einer weiteren beruht (AI tools can improve equity in science) und im Prinzip aussagt, dass KI oder in dem Fall ChatGPT für mehr Ausgewogenheit, Gleichheit oder Fairness in der Wissenschaft sorgen kann, da es oft sprachliche Hürden sind, die Wissenschaftler benachteiligen, obwohl deren Arbeit einwandfrei ist. ChatGPT kann hier helfen, diese Hürden zu überwinden und Ergebnisse zu mehr Beachtung und Überprüfung zu verhelfen.
Meine eigene Meinung und Zusammenfassung:
Man darf KI aktuell nicht mit irgendwelchen Computern aus Star Trek vergleichen, die menschlich agieren und wie Data tatsächliche Intelligenz besitzen. Wir stehen hier noch ganz am Anfang und aktuell ist es oft wirklich nur KI. Aber ich finde es durchaus beeindruckend, was da bereits möglich ist und das Ganze wird sich ganz sicher weiter und weiter entwickeln. Ich finde es etwas paradox, "KI" als dumm zu bezeichnen, gleichzeitig aber von einem Killswitch für HAL-9000 oder Skynet zu sprechen.
Ich glaube, dass wir jetzt durchaus schon profitieren können, wenn wir solche Tools richtig einsetzen und bewusst damit umgehen. Es liegt halt immer auch an der eigenen Erwartungshaltung. Und mal ehrlich: Wenn ich bekomme was ich suche, ist es mir im Endeffekt egal, ob es KI, ein gutes LLM oder sonst etwas ist. Das Resultat zählt halt.