Ryzen 9 7900X oder Ähnliche - Erfahrungen gesucht

  • Ich habe uns mal in ein neues Thema geschoben.

    Was soll ich sagen.. ich bin super zufrieden. Viele hier werden sicher sagen, dass du besonders bei Spielen den 7900X3D nehmen sollst, weil der da nochmal mehr rausholen kann. Ist ganz sicher auch so. Ich persönlich bin im Nachhinein aber zufrieden mit meiner Entscheidung. Aktuell liegt der x3d über 100 EUR über dem 7900X. Das wäre mir das Extra nicht wert. Es mag sicher Anwendungsfälle geben, in denen der Extra-Cache bzw dessen Größe Vorteile bringt - ich selbst sehe für mich aber aktuell keine.

    Das Teil rennt einfach. Ich wüsste jetzt nicht, wo ich die 110 EUR Aufpreis bei dem x3d bemerken sollte. Klar, wenn du ein Angebot entdeckst und das 50 EUR wären, schlag zu. Oder wenn du wirklich so rechenintensive 3D-Dinge machst bzw spielst, dass es wirklich einen Unterschied machen würde.

    Geekbench spuckt im Single-Core 3000 Punkte aus und über 16.800 im Multicore. Das hier sind original meine Werte von heute:


    Im Vergleich dazu performt der 7900x3d mit fast identischen Werten. Je nach System liegen die Werte mal ein wenig höher und mal ein wenig niedriger. Schaut man sich die Reallife-Ergebnisse an und schenkt man diversen Tests Glauben, performt der 7900x bei "normalen" Anwendungen ein klein wenig besser aufgrund des höheren Basistakt. Kommt man in den Bereich Gaming, sollen die Leistungszuwächse durch den x3d je nach Titel und CPU Intensität bei 10% und höher liegen.

    Ich selbst bemerke bei Spielen absolut nichts. Also keine Probleme, kein spürbarer Leistungsverlust, nichts. Wenn ich den hätte, würde vermutlich auch der x3d nicht helfen. Was natürlich gut sein kann, ist eine spürbare FPS-Steigerung, wenn man darauf achtet. Also in irgendwelchen Spielen dann 130 statt 120FPS oder so. Wenn dir das wirklich wichtig ist, greif zum x3d. Wenn nicht, ist der 7900X nicht langsamer (wie gesagt eher noch ein minimales Bisschen schneller). Ich kann dir leider keine Auswahl an AAA Titeln mit Benchmarks oder so geben, da ich diese Titel wenig zocke. Cyberpunk habe ich installiert, fand es nach 15 min kacke und habe es deinstalliert. Ich kann dir aktuell sagen, dass ich bei meinen Spielen folgende FPS bei QHD (2560x1440) habe/hätte:

    World of Warcraft (Ultra-Settings): 390 FPS

    Diablo 4 (Ultra): 150 FPS (Wert verändert sich nicht, daher vermute ich, dass ich irgendwo doch noch ein cap aktiviert habe)

    Subnautica (maximale Settings): 160 FPS (150 bei Kämpfen mit Leviathans)

    Ich habe den Sync jetzt deaktiviert, um einfach mal die Zahlen nennen zu können. Mein Monitor macht 165Hz und da macht es halt wenig Sinn, wenn 300 oder mehr FPS "erzeugt" werden, weil davon ja eh nichts an den Augen ankommt. 300FPS sieht halt toll aus - ich bemerke sie aber nicht. Geleistet werden die in meinem Fall durch eine RX7800XT und ich spiele ausschließlich unter Linux. Aber, wenn ich jetzt die x3d hätte und tatsächlich 10% oder gar 20% mehr, wäre ich bei meinen Spielen ja immer noch in einem Bereich, der höher liegt als mein Monitor mithalten kann. Hätte also nichts gewonnen.

    Wo der x3d jedoch für mich interessant wäre, sind die TWP. 170 beim X gegenüber "nur" 120 beim x3d. Das wäre absolut nice.

    Fazit: Ich bereue es null, den 7900x gekauft zu haben. Wenn du viel spielst und FPS wichtig sind, wäre der x3d aber die bessere Wahl, falls dir die 10-20% FPS den Aufpreis wert sind.

  • Ganz herzlichen Dank für deinen sehr ausführlichen Beitrag!

    Zwei Dinge sind es vermutlich, die mich noch etwas hadern lassen - die für meine Zwecke effektive Kernzahl sowie der Nutzen des X3D-Aufsatzes (mit dem offensichtlichen Vorteil geringerer TDP!).

    Gaming ist für mich eher Entspannung für zwischendurch, irgendwo hatte ich es hier schon erwähnt, das geht mehr in Richtung Gnome Games und alte DOS-Titel, also ist das Thema für mich nicht relevant.

    Aber - immer mehr Software nutzt GPU-Fähigkeiten, z.B. im Audio- und Videoprocessing oder im 3D-Rendering, womit ich mich schon deutlich häufiger beschäftige. Da will ich natürlich von den modernen (iGPU-)Möglichkeiten maximal profitieren. Von da, wo ich herkomme (intel core i7-4771) ist daher selbst der Ryzen 8700G in allen Belangen ein sehr heißer Kandidat.

    Natürlich beobachte ich auch sehr interessiert, was demnächst Strix Halo in einer möglichen Variante für den Desktop bedeuten wird.

    Was die Kernzahl angeht ist es nicht so leicht zu recherchieren, wie gut welche Software wirklich skaliert. Synthetische Benchmarks sind das eine, Praxis mit z.B. ffmpeg oder einem Stapel ladspa-Plugins für Audioeditoren ist für mich schwieriger zu erfassen, weil es unterschiedlichste Aussagen dazu gibt oder schlicht keine.

    Unterm Strich wird es wohl so sein, daß mein altes System gegen jeden aktuellen 8-Kerner oder größer in jedem Fall keine Sonne mehr sieht, und vermutlich kann ich ruhig zuschlagen, andererseits bin ich nicht gewillt, in kürzeren Zeiträumen als ca. alle 10 Jahre einen HW-Wechsel zu unternehmen, da soll die neue Büchse (ich zimmere mir die PCs komplett selbst zusammen) wenigstens eine Weile state of the art sein. Ich bin seit Wochen dabei, meine Zusammenstellung immer wieder zu prüfen, zu ändern, viel zu lesen und zu gucken, was so am Markt passiert. Das ist an sich auch eine schöne Beschäftigung :)

  • Okay, ich lese da heraus, dass eine dedizierte GPU für dich nicht interessant ist, dafür jedoch "GPU-Fähigkeiten", die aktuell oft und viel für KI genutzt werden. Ist ein interessantes Thema und wir können hier gerne etwas philosophieren und Gedankenspiele betreiben.

    Aber - immer mehr Software nutzt GPU-Fähigkeiten, z.B. im Audio- und Videoprocessing oder im 3D-Rendering, womit ich mich schon deutlich häufiger beschäftige. Da will ich natürlich von den modernen (iGPU-)Möglichkeiten maximal profitieren.

    Wobei ich da halt nicht weiß, was ich da von der HW halten soll. Wenn GPU-Kerne plötzlich Neural Engines werden und man im Prinzip nur vorhandene Hardware neu benennt, ohne genau zu wissen, wo die Reise überhaupt hingehen soll. Hier kann vielleicht kim88 etwas zu sagen, da er auch die Entwicklung bei Apple ein wenig im Auge hat (denke ich zumindest).

    Mein Gefühl sagt mir, dass alle aktuell irgendwie "KI-Hardware" einbauen, die dann später vielleicht eine Funktion erhalten soll und man oft gar nichts genaues sagen kann. Aber ein neues Gerät ohne KI geht aktuell halt irgendwie überhaupt nicht. Ich denke, dass das was aktuell möglich ist, durchaus mit gängigen GPU oder iGPU/AGPU möglich ist.

    Natürlich beobachte ich auch sehr interessiert, was demnächst Strix Halo in einer möglichen Variante für den Desktop bedeuten wird.

    Ich weiß nicht. Die kommenden Ryzen AI Max+ (was für ein dummer Name!) werden - so zumindest der aktuelle Stand - locker doppelt so viel kosten wie vergleichbare "dumme" CPU. Niemand weiß, was dann da alles genau mit gemacht wird oder werden kann. Ist ja aktuell alles eher Spekulation. Also ich glaube, dass die Hersteller sehr wohl Pläne haben. Aber gleichzeitig haben die halt auch Druck, weil die KI-Sau gerade durch das Dorf getrieben wird.

    Wenn es hier um Kerne, deren Effizienz und Leistung geht, würde ich da glaube eher noch zu einem Snapdragon X Elite greifen. Da hast du richtig gute und starke Hardware, kannst die kommenden "KI-Funktionen" nutzen und das Ganze hat sogar mobil noch richtig Power und Ausdauer. ARM finde ich ehrlich gesagt spannender und interessanter als Ryzen AI/KI-CPUs.

    Was die Kernzahl angeht ist es nicht so leicht zu recherchieren, wie gut welche Software wirklich skaliert. Synthetische Benchmarks sind das eine, Praxis mit z.B. ffmpeg oder einem Stapel ladspa-Plugins für Audioeditoren ist für mich schwieriger zu erfassen, weil es unterschiedlichste Aussagen dazu gibt oder schlicht keine.

    Gerade für solche Aufgaben wäre ein Ryzen 9 7900X oder auch 7950X doch ideal, oder nicht? 12 bzw 16 Kerne und somit 24 bzw 32 Threads. Starke Single-Core-Performance und somit durch die Anzahl der Kerne auch hohe Multithreading-Leistung. Die unterstützen AVX2 und AVX-512, was für Videobearbeitung, Transcoding, etc ideal sein dürfte. Leider fehlt hier natürlich ein entsprechender GPU-Teil. Den müsste dann eine dedizierte Grafikkarte übernehmen.

    Wenn es eine integrierte GPU sein soll, wäre vermutlich beim Ryzen 9 7940HS Schluss. Der hat mehr "GPU-Power", dafür aber dann nur 8 Kerne und nen Basistakt von 4,0. Der boosted zwar auf 5,2 GHz, unterm Strich liefert da ein 7900X aber vermutlich mehr Leistung.

  • Tatsächlich strebe ich an, um den in Hardware gegossenen KI-Kram einen Bogen zu machen, wenn möglich. Was ich damit meinte, daß Software vor einiger Zeit damit begonnen hat, angestammte CPU-Arbeit an die GPU abzugeben, gab es ja schon, bevor der KI-Hype sich dessen bemächtigte. Beruflich bin ich angehalten, MS Copilot für Office und auch jene "KI" für VS Code zu nutzen. Aber privat möchte ich damit auch in Form von Software nichts zu tun haben.

    Eben habe ich mal nachgesehen, ob ich es nach Jahren ohne dGPU doch noch mal mit einer solchen wagen könnte. Tatsächlich bietet der Markt immer noch passable Karten im Low Profile und/oder mit geringer baulicher Länge, die in die Gehäuse meiner Wahl auch passen dürften.

    So gesehen bestärkt mich dein Kommentar zu einem Prozessor mit möglichst vielen Kernen und Threads dann doch, in Richtung 12- oder 16-Kerner zu schauen. Mit meinem Anforderungsprofil genügt dann ggf. doch die iGPU wie bisher auch, die Upgrademöglichkeit auf eine dGPU im Hinterkopf. Gefällt.

  • Ich kann hier nur was zu den KI-Co-Prozessoren sagen.

    Bei Apple's eigenen M- und A- Prozessorreihen heissen diese zusätzliche KI-Kerne "Apple Neural Engine" (ANE), abseits der Apple Welt also bei z.b. beim Snapdragon X Prozessor und den neuen AMD Kernen heissen sie NPU-Kerne bzw. Neural Processing Unit (war absehbar, dass sie nicht den Namen von Apple kopieren ;)). Technisch ist es aber das gleiche.

    Im Grunde sind das einfach zusätzliche Prozessorkerne die aber komplett anders optimiert sind.

    Ich versuche das sowenig technisch wie irgendwie möglich zu Beschreiben. Aber kurz kann man folgendes sagen:

    CPU-Kerne kann man sich wie ein vielseitiges Schweizer Taschenmesser vorstellen. Sie können viele verschiedene Aufgaben erledigen, sind aber nicht auf eine bestimmte Tätigkeit spezialisiert.

    NPU-Kerne / ANE-Kerne (ich werde nachfolgend nur von NPUs sprechen, meine aber auch die von Apple damit) sind wie ein spezialisierter Hochleistungsbohrer. Sie sind für eine bestimmte Aufgabe – in diesem Fall die effiziente Verarbeitung von KI-Berechnungen – optimiert und erledigen diese deutlich besser als ein Allzweckwerkzeug.

    CPU Kerne nutzen komplexe Befehlssätze (CISC oder RISC), die für eine breite Palette von Anwendungen geeignet sind. Während NPU Kerne spezialisierte Architekturen und Befehlssätze haben, die für die effiziente Ausführung von KI-Algorithmen entwickelt wurden. NPUs sind optimiert für spezifische mathematische Operationen wie Matrixmultiplikationen und Vektorrechnungen, die in neuronalen Netzwerken häufig vorkommen. Durch diese Spezialisierung können sie grosse Datenmengen parallel verarbeiten, was zu einer erheblichen Beschleunigung von KI-Anwendungen führt.

    Daher z.b. ein Feature wie Windows Recall (das ja alle 3 Sekunden nen Screenshot machen, und den direkt Taggen und auswerten soll) funktioniert nur mit NPU Kernen. Wenn das über die normale CPU laufen würde wäre die in Dauerbetrieb, wie auch dein Lüfter und das System ziemlich träge und langsam.

    Daher NPUs ermöglichen die sofortige Ausführung von KI-Anwendungen, was besonders in Bereichen wie autonomes Fahren oder Spracherkennung wichtig ist, da dort viele Dinge möglichst in Echtzeit passieren müssen, da diese Kerne speziell auf solche Berechnungen spezialisiert sind können sie das auch noch sehr Energieeffizent tun.

    Man kann sich das ein bisschen wie die GPU Beschleunigung bei Videos vorstellen. Wenn dein Linux / oder Browser falsch konfigruiert ist hast du keine Hardwarebeschleunigung bei Videos. Wenn du nun auf YouTube ein Video anklickst wird das über die CPU gerendert (die nicht dafür gemacht ist 60 Bilder pro Sekunde in 4k zu berechnen und auszugeben). Was dazu führt, dass die Lüfter angehen (weil CPU viel rechnet und warm wird) und du dem Akku-Zuschauen kannst wie er pro Minute 1-2% verliert.

    Wenn du alles richtig konfiguriert hast, läuft die Video über die GPU die speziell für solche Aufgaben optimiert ist. Lüfter gehen nicht an und du kannst mit dem selben Akku 10-12 Stunden Videos schauen - und nebenbei noch normale Tasks machen da die CPU nicht ausgelastet ist.

    Ich hoffe das war weitgehend verständlich.

  • Hier noch als Ergänzung. Das Betriebssystem / Software muss entsprechend optimiert sein. Sprich im Grunde muss das Betriebsstem wissen ob seine Hardware NPU Kerne hat oder nicht. Und wenn es merkt: Oh ich habe da einen KI-Task den ich abarbeiten muss dann auch diese Prozessoren ansprechen.

    Wie im Beispiel von GPU-Beschleunigung auch da muss von Browser, über Treiber bis Mesa alles passen sonst klappt es nicht. Hier hat Apple natürlich klare Vorteile da sie OS und Hardware aus einer Hand fertigen und ihr Betriebssystem immer genau auf die entsprechenden Prozessoren anpassen können.

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!