PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 13./14. April 2024


Leonidas
2024-04-15, 09:45:33
Link zur News:
https://www.3dcenter.org/news/news-des-1314-april-2024

Platos
2024-04-15, 12:46:44
Da bin ich mal gespannt, ob sich diese Cinebench-Werte von Zen5 in den nächsten Wochen von anderer Seite nochmals bestätigt. Wenn die wirklich Echt sind, dann ist Intel diesbezüglich am Arsch was MT anbelangt, da sie kein HT mehr haben.

Gast
2024-04-15, 12:55:04
Na-ja, es wäre nicht das erste mal, dass Intel mit dem 16-Kerner von AMD in Multithreading nicht mithalten könnte.
Dann setzt AMD den 16-Kerner 9950X wieder auf 800 Euro und Intel kann sein Topmodel für 600 Euro verkaufen. Der 12-Kerner 9900X landet dann leicht unterhalb des Intel-Topmodels beim Preis. Solange die Gaming-Leistung passt, hat es die Konsumenten nicht gestört, wenn der 16 Kerner von AMD von Intel in Multhidreading nicht erreicht wird....

Manni2210
2024-04-15, 13:08:04
Twitterer HXL weist auf den interessanten Umstand hin, dass die derzeit beste integrierte Grafik in Form der Radeon 780M (Desktop), verbaut im Ryzen 7 8700G, es unter dem 3DMark13 TimeSpy-Benchmark inzwischen mit der nahezu gleichnamigen "GeForce GTX 780" aufnehmen kann bzw. jene gemäß der Top-Liste um ca. 20% schlägt. Die GeForce RTX 780 kam anno 2013 auf Basis des Kepler-Chips GK110 heraus und galt seinerzeit als sehr potente Grafikkarte unterhalb der Titan-Angebote. Natürlich täuscht der 3DMark13 etwas über die exakten Performance-Verhältnisse hinweg, jener ist bekannt sehr freundlich zu integrierten Grafiklösungen. Die Launch-Reviews zu Ryzen 8000G zeigten eher eine Grafik-Performance der Radeon 780M (Desktop) iGPU in Richtung von grob ~400% im 3DC FullHD Performance-Index an, somit nicht wirklich bereits vor den 440% der GeForce GTX 780 liegend.

Die beste integrierte Grafik kann inzwischen mit einer 11 Jahre alten externen Lösung mithalten ?
Da fällt es mir schwer zu glauben dass APU-Gaming wirklich mal ein erstzunehmendes Thema wird.

Exxtreme
2024-04-15, 13:09:54
Die beste integrierte Grafik kann inzwischen mit einer 11 Jahre alten externen Lösung mithalten ?
Da fällt es mir schwer zu glauben dass APU-Gaming wirklich mal ein erstzunehmendes Thema wird.

Das ist auch der Grund warum ich APUs nicht ernstnehmen kann. X-D Das ist für mich pures Spielzeug. Allenfalls irgendwelche totalen Casual-Spiele laufen damit. IMHO ist das Ressourcenverschwendung. Die sollen sich bei den APUs auf einen guten Desktop-Betrieb konzentreiren.

Gast
2024-04-15, 13:26:32
Die beste integrierte Grafik kann inzwischen mit einer 11 Jahre alten externen Lösung mithalten ?
Da fällt es mir schwer zu glauben dass APU-Gaming wirklich mal ein erstzunehmendes Thema wird.
Ohne deutlich mehr Speicherbandbreite wird das nix. Man muss bedenken, selbst ne Nvidia RTX 3070 mit 256-Bit-Speicheranbindung hat im P5 state mit 800 Mhz Speichertakt (video mode) mehr Bandbreite als das aktuellste APU-Gelumpe und auch mehr fps.

Lehdro
2024-04-15, 15:47:23
Es ist trotzdem erstaunlich was damit heutzutage geht, vor allem wenn man die Energieeffizienz mit einbezieht. Eine GTX 780 hatte immerhin eine TDP von 250W. Im Endeffekt werden APUs aber sowieso von der Speicherbandbreite eingefangen, sofern man nicht endlich mal an der Cacheausstattung großzügig Hand anlegt. Da liegen locker noch ordentliche Zuwächse zwecks der Leistung und auch der Effizienz brach, nur die Chipfläche müsste man halt opfern wollen. Dann lohnen sich auch mehr CUs.

Platos
2024-04-15, 16:40:32
Na-ja, es wäre nicht das erste mal, dass Intel mit dem 16-Kerner von AMD in Multithreading nicht mithalten könnte.
Dann setzt AMD den 16-Kerner 9950X wieder auf 800 Euro und Intel kann sein Topmodel für 600 Euro verkaufen. Der 12-Kerner 9900X landet dann leicht unterhalb des Intel-Topmodels beim Preis. Solange die Gaming-Leistung passt, hat es die Konsumenten nicht gestört, wenn der 16 Kerner von AMD von Intel in Multhidreading nicht erreicht wird....

Weil ja "die Konsumenten" nur aus Gamer bestehen...

Das ist auch der Grund warum ich APUs nicht ernstnehmen kann. X-D Das ist für mich pures Spielzeug. Allenfalls irgendwelche totalen Casual-Spiele laufen damit. IMHO ist das Ressourcenverschwendung. Die sollen sich bei den APUs auf einen guten Desktop-Betrieb konzentreiren.

Bin ich grundsätzlich bei dir, hat aber schon ein paar (wenige) Anwendungsfälle, wo es Sinn machen kann (solange denn der Preis stimmt):

- Handhelds
- "Gaming"-PCs für irgend jemand, der damit nur Anspruchslose Titel spielt wie z.B CSGO oder Minecraft usw.

So kann man sich dann auch vom Stromverbrauch her eine effiziente Maschine bauen (also jetzt mal abgesehen von den PCI-E 5.0 Plattformen, die viel Strom fressen). Dabei muss der Preis natürlich günstiger sein, wie wenn man sich stattdessen eine der günstigsten Grafikkarten kauft.

Aber m.M.n sollten Grafikkarten endlich mal am Desktop komplett abschaltbar sein, wie es am Laptop der Fall ist (also soweit "komplett", das der Stromverbrauch unter 1Watt fällt bzw. am besten noch deutlich weiter). Und Mainboards (zu Normalpreisen) Angeboten werden, die Stromsparend sind (vor allem unter Teillast und Idle).

Es muss endlich möglich sein, einen Desktop-PC mit 15Watt Idle und 20-25Watt Teillast (Youtube 4k Videos, Browsen, Office etc.) zu bauen im diy-Bereich. Auch mit High-End Grafikkarten und High-End CPUs (also solange die CPU an sich natürlich dafür geeignet ist).

Gast
2024-04-15, 20:31:23
Es muss endlich möglich sein, einen Desktop-PC mit 15Watt Idle und 20-25Watt Teillast (Youtube 4k Videos, Browsen, Office etc.) zu bauen im diy-Bereich.

So niedrig wirds nicht werden, gerade nicht mit 4k Videos. Da brauchen selbst die Notebooks und Mini-PCs mit APU only, LPDDR5 und ner kleinen SSD gelegentlich noch mehr. Speziell mit Firefox, dem Ineffizienz-Browser No. 1, was Youtube abspielen angeht.
Mit GPU alleine ausschalten ist es auch nicht getan, die AM5-Desktop-Mainboards ohne CPU-VRM-Verluste inkludiert und der Ram saufen mittlerweile alleine schnell auch mal 12-15 Watt im Leerlauf und das sind dann noch die sparsameren Exemplare.
Den Trend zu sparsameren Mainboards sehe ich nicht, das hat auch keiner auf dem Schirm. Staatdessen wedelt man sich lieber einseitig einen auf die Package Power und dividiert die durch die Frames. Ist schön und gut, wenn man nur innerhalb einer Plattform vergleicht, aber nicht AM5 mit AM4.

Gast
2024-04-15, 21:02:03
Weil ja "die Konsumenten" nur aus Gamer bestehen...

Hat keiner behauptet. Aber die Gamer sind nun mal eine wichtige Kundschaft für potente Hardware. Für einen 0815-Office-Rechner brauchst kauft sich keiner eine 500 Euro CPU. Und Pro-User, die keine Gamer sind und keine Workstation mit Xeon oder Epyc benutzen, sind halt auch eine begrenzte Kundschaft.

Der 7800X3D wird auch vom Core i7 14700 und dem Ryzen 9 7900X in Multithreading geschlagen und sogar vom Core i5 3600K und dennoch verkauft sich der 7800X3D blendend...

Gast
2024-04-15, 21:30:07
Weil ja "die Konsumenten" nur aus Gamer bestehen...




Die Konsumenten die nicht Gamer sind haben schon seit vielen Generationen mehr als genug Leistung.

bad_sign
2024-04-16, 12:37:59
Speziell mit Firefox, dem Ineffizienz-Browser No. 1, was Youtube abspielen angeht.
Mit GPU alleine ausschalten ist es auch nicht
Den Trend zu sparsameren Mainboards sehe ich nicht, das hat auch keiner auf dem Schirm. Staatdessen wedelt man sich lieber einseitig einen auf die Package Power und dividiert die durch die Frames.

Man siehts bei CB immer, wie ihr Mainboard die AMD Idleverbräuche killt.
Mein Umstieg von 5950X mit B550 Aorus Pro auf 7800X3D mit B650M UD3H brachte mir ganze 1.x-2W (50-51 vs 49-50) Idle Reduktion an der Steckdose.

Wegen FF und YT, man spürt das Google Monopol immer mehr :(

Platos
2024-04-16, 12:57:43
Die Konsumenten die nicht Gamer sind haben schon seit vielen Generationen mehr als genug Leistung.

Nein, es gibt nie genug und abgesehen davon gehts um P/L.

Hat keiner behauptet. Aber die Gamer sind nun mal eine wichtige Kundschaft für potente Hardware. Für einen 0815-Office-Rechner brauchst kauft sich keiner eine 500 Euro CPU. Und Pro-User, die keine Gamer sind und keine Workstation mit Xeon oder Epyc benutzen, sind halt auch eine begrenzte Kundschaft.

Der 7800X3D wird auch vom Core i7 14700 und dem Ryzen 9 7900X in Multithreading geschlagen und sogar vom Core i5 3600K und dennoch verkauft sich der 7800X3D blendend...

Ja, nur wenn die oberen CPUs teurer werden, werden das auch die unteren...
So niedrig wirds nicht werden, gerade nicht mit 4k Videos. Da brauchen selbst die Notebooks und Mini-PCs mit APU only, LPDDR5 und ner kleinen SSD gelegentlich noch mehr. Speziell mit Firefox, dem Ineffizienz-Browser No. 1, was Youtube abspielen angeht.
Mit GPU alleine ausschalten ist es auch nicht getan, die AM5-Desktop-Mainboards ohne CPU-VRM-Verluste inkludiert und der Ram saufen mittlerweile alleine schnell auch mal 12-15 Watt im Leerlauf und das sind dann noch die sparsameren Exemplare.
Den Trend zu sparsameren Mainboards sehe ich nicht, das hat auch keiner auf dem Schirm. Staatdessen wedelt man sich lieber einseitig einen auf die Package Power und dividiert die durch die Frames. Ist schön und gut, wenn man nur innerhalb einer Plattform vergleicht, aber nicht AM5 mit AM4.

Es könnte aber so niedrig werden. Mir ist schon klar, dass wir momentan genau in die andere Richtung gehen. Deswegen sage ich ja, dass es endlich mal in die andere gehen soll.

Es gab ja schon CPUs, die fast solche Werte erreicht haben (glaube das waren 4xxxG von AMD. Da gabs mal einen Usertest bei CB oder Hardwarelux).

Und der Grund, warum das selbst bei Laptops schwierig ist, ist der, dass die noch einen Bildschirm drann haben. Der verbraucht auch noch Strom.

Und nein, mit GPU ausschalten alleine ist es nicht getan. Genau so ist es. Aber ohne gehts auch nicht. Da kann man noch so ein effizienten PC haben, wenn dann die High-End GPU 10-15Watt im idle frisst, dann war die ganze Mühe um sonst quasi.

Dass übertakteter RAM viel Strom frisst, ist aber klar. Ich habe nicht gemeint, dass man mit vollends übertakteten Bauteilen einen Sparsamen PC haben können soll. Das geht natürlich nicht...

VfBFan
2024-04-16, 15:37:38
Mit Standardkomponenten und ohne GPU ist im Idle bei 17 Watt momentan die untere Grenze erreicht, siehe den aktuellen 17-Watt-PC der c't.
Zum Jahresende 2013 war das ganze noch mit 11 Watt möglich.

Gast
2024-04-16, 23:42:24
Mit Standardkomponenten und ohne GPU ist im Idle bei 17 Watt momentan die untere Grenze erreicht, siehe den aktuellen 17-Watt-PC der c't.
Zum Jahresende 2013 war das ganze noch mit 11 Watt möglich.
Leider kommt bei Intel, wenn der 16x PCie-Slot zum Leben erweckt wird, noch mal gut was wattmäßig drauf. Dürften dannn so 23-24 Watt sein plus nochmal ne potente Graka von Nvidia mit ca. 18 Watt Verbrauch jedenfalls weit abseits von 60-Hz-Krüppelei. Wären wir um die 40-42 Watt im Leerlauf. Nicht berauschend, aber wenn man sieht, was AMD mit AM5 und ihren Ryzens da verbrochen hat, selbst mit der 8000er-G-Series, wo man nochmals 10 Watt und mehr extra investieren muss und im Teillastbereich dann noch extremer, weil AMD nur Leerlauftakt und vollen Boost ohne jegliche Granularität kann und kennt, wenn nicht gerade TDP, Temp oder Stromfluss limitieren, im Vergleich dazu nicht übel.

Platos
2024-04-17, 14:10:58
Meine 4080 macht laut afterburner 8Watt im "idle" (also ich habe ja keine iGPU, also idlet die eig. nie...).

Aber gut möglich, dass das mit dem PCI-E Slot so ist. Das wäre ja nur noch ein weiterer Grund, warum es endlich möglich sein sollte, die Grafikkarte abzuschalten, wenn keine 3D Last anliegt.