Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 8. April 2022
Leonidas
2022-04-09, 10:21:55
Link zur News:
https://www.3dcenter.org/news/news-des-8-april-2022
Falsche Empfehlung für Gamer. Für die 300€ im Vergleich zum 12600K kann man bei gleichem Budget 2+ Stufen schnellere GPU kaufen.
GerryB
2022-04-09, 21:04:29
Jo,
5600@189€ im Mindstar (auf vorh. Board)
statt 3050@366€ ne 6600xt@429€ (Preise bei MF)
MiamiNice
2022-04-09, 22:41:45
Und was macht ihr dann mit so einer Kiste? Die langweiligen möchtegern tripple A sunshines Games von EA und Co spielen? Weil für mehr taugt das so nicht. So bald da richtige Games drauf gefahren werden, ist Schicht im Schacht.
In einen Gaming PC gehört nicht nur ne schnelle GPU, die CPU muss ebenbürtig sein. Und ja die darf auch gerne hart OC sein und ohne Powerlimit laufen, weil das CPU bound Games beschleunigt und natürlich auch alle anderen Games in CPU limitierten Szenen.
Nur wird so etwas nicht gebencht weil da Redakteure und keine Gamer am Werk sind.
Fakt ist aber, eine CPU kann in einem Gaming PC nicht schnell genug sein.
GerryB
2022-04-09, 22:59:08
btw.
Die Ideen, wie so Arc-Desktop werden könnte halte ich für verfrüht, weil gerade so ein FS(U) net viel besagt.
Da wäre die 1650 Super auch gar net super unterwegs.
GerryB
2022-04-09, 23:46:07
Nur wird so etwas nicht gebencht weil da Redakteure und keine Gamer am Werk sind.
Fakt ist aber, eine CPU kann in einem Gaming PC nicht schnell genug sein.
Bei dem Test von CB verstehe ich net, wie die CPU(+GPU) von 720p auf 1080p i.M. 20fps verlieren können.
Entweder ist die Graka(incl. Overhead) total ungeeigent, oder ...
Wenn die selbe Graka in 720p@10600k 142fps und in 1080p@12900k 147fps schafft, kanns doch eigentlich net sein, das durch die Bank weg alle Ergebnisse in 1080p schon Graka limitiert sind.(oder ist Es dann der Ram)
Ich hätte eher erwartet, das das Feld bei 140fps nahe zusammenrückt. (ala BF2042 bei GameGPU)
Und schon werden die Marktingzombies mit ihrem Hype um neuste Hardware versorgt, damit man auch ja die Preise nach oben anpassen kann. Wer bitte braucht 600w Grafikkarten? Schwachsinn pur und geht in die völlig falsche Richtung, was verbraucht denn eine 4060 oder 4070, 350w und 450w? Aber schon mal vorab den Markt mit Infos zupumpen, damit dieser entwicklungstechnische Schrott auch ja gekauft wird und über die vermeintlichen Insider enthüllt wird. Was für eine verdrehte Welt mittlerweile, in der einfachste Fortentwicklung als Innovation angepriesen wird. GH202 gestrichen, weil 750w Verbrauch, und es dafür keine Abnehmer gibt...lol Nievidia.
WedgeAntilles
2022-04-11, 10:18:46
Und schon werden die Marktingzombies mit ihrem Hype um neuste Hardware versorgt, damit man auch ja die Preise nach oben anpassen kann. Wer bitte braucht 600w Grafikkarten? Schwachsinn pur und geht in die völlig falsche Richtung, was verbraucht denn eine 4060 oder 4070, 350w und 450w? Aber schon mal vorab den Markt mit Infos zupumpen, damit dieser entwicklungstechnische Schrott auch ja gekauft wird und über die vermeintlichen Insider enthüllt wird. Was für eine verdrehte Welt mittlerweile, in der einfachste Fortentwicklung als Innovation angepriesen wird. GH202 gestrichen, weil 750w Verbrauch, und es dafür keine Abnehmer gibt...lol Nievidia.
Falls das Satire war: :up:
Falls das keine Satire ist: "Schwachsinn" und "verdrehte Welt" passt auf dein Posting dann leider sehr gut.
Als ob eine 4060 350W brauchen wird.
Aber passt gut in die Zeit - von der Materie 0 Ahnung haben aber schöne Shitstorm-Postings raushauen.
Gastxyz
2022-04-11, 11:31:35
Aber passt gut in die Zeit - von der Materie 0 Ahnung haben aber schöne Shitstorm-Postings raushauen.
Trifft ja auf deinen Post auch zu.:)
AD103 alias RTX4070 (wenn es so kommt) soll mit 12GiB VRAM bei 300-350w in Referenz herauskommen (Dualslot), es ist davon ausgehen das Peak und Customs 400-450w benötigen (ti Varianten und OC Versionen sowieso) und der 12 Pin PCIe 5.0 - 450w auch ausgenutzt wird. Selbst wenn es der AD104 wird, wird Nvidia massiv darauf einprügeln. Sparsam war gestern.
Wir reden bei der x070 von Mainstream! Vermutlich wird das Ding sogar für vierstellig über den Ladentisch gehen oder zumindest dreistellig in gut gehoben Regionen. Weit und breit nichts zusehen von der so hoch gelobten Effizienz seitens Nvidia. Sieht eher nach Brechstange aus, um eine 3080 oder ggf. 3090 (alias GA102) zu schlagen (die Krux der Amperegen selbst, nämlich eine 3080 mit dem Bigship auszurüsten, weil die Konkurrenz gut aufgestellt war - dann auch schlagen zu können), bei gleichem Energiebuget natürlich. 5nm bringt da anscheinend kaum Effizienzvorteile mit, sondern lässt nur die Diefläche schrumpfen und ADA scheint kein besonders effizientes Design zu sein. Spült einfach mehr Kohle in Nvidias Kasse, weil die Chips vermutlich kleiner ausfallen und man mehr aus dem Wafer pressen kann. Die geben also einen Dreck auf Spieler die eher effizient unterwegs sein wollen, weil das eben viele Vorteile hat (Abwärme). AMD dürfte bei der 7700xt mit 5nm 6900xt Leistung aufwarten und dann wird es zu eng für Nvidia, vor allem wenn die Caches (IFC) fürs Gaming wachsen. Effizient genug waren sie schon vorher, die 5% die 5nm in ersten Yields wahrscheinlich noch mitbringt obendrauf. Das reicht Nvidia nicht...wenn sie vorne bleiben wollen und die 6700xt hat sich verkauft wie geschnitten Brot, die Preise fallen ansehnlich.
Bevor man also blind antwortet, selbst mal etwas das Hirn einschalten. Frustration gibt es seit Ampere sicherlich zu Hauf und auch mal "hier und da" ein sarkastisches Posting über das man schmunzelt, zu Recht!
Platos
2022-04-11, 11:33:02
Jetzt mal unabhängig davon: Momentan habe ich gerade 2 GPUs im PC. 400W Gesammtverbauch. Ok, läuft fast 24h bei 400W weil PC Software, aber Raumtemperatur (ü 25m2) von ~22 auf 25° gestiegen. Man würde meinen, sind ja nur 3 Grad, aber bei 25° in nem Büro/Hobbyraum, kann man defintiv nicht mehr den ganzen Tag sein (zumindest ich nicht). Also zumindest nicht mit Kleider :D
Aber was ich damit sagen will: 450W GPU oder solche Spielchen kommt mir nie in die Bude :D Ausser ich schliesse die Abwärme irgendwie ans Lüftungssystem an und kann damit die ganze Wohnung heizen bzw. es in der ganzen Wohnung verteilen:D
WedgeAntilles
2022-04-11, 11:45:46
Richtig, und deswegen wird schon eine 4070 nicht bei 350 Watt sein, egal wie sehr das von einigen hier herbeigesehnt wird. (wie unserem Gast über mir z.B.)
Ebensowenig wie wir manche kühnen Träume (4070 für 500 Euro mit doppelter Leistung der 3070) sehen werden, werden wir die apokalyptischen Träume mit irren Stromverbräuchen sehen.
Das ist jedem normalen Menschen auch klar, aber Erregung, Empörung und Wutposts sind ja heutzutage das Lebenselixier vieler.
Richtig, und deswegen wird schon eine 4070 nicht bei 350 Watt sein, egal wie sehr das von einigen hier herbeigesehnt wird. (wie unserem Gast über mir z.B.)
Aber vermutlich wird die 4070 auch nach oben gehen. So 250W-280W halte ich durchaus für realistisch.
Ketzerisch könnte man auch sagen, NVidia hat die 3070TI gebracht, damit der Mehrverbrauch der 4070 nicht so schlimm aussieht. Dann wäre sogar noch mehr drin, aber ich würde eher auf zwischen 250W und 280W tippen.
Eine 4070 bei 350W müsste ja im Umkehrschluss dann auch schneller als eine 3090 sein, denn die Effizienz wird sicherlich höher liegen als bisher. Das würde aber auch bedeuten, dass man die beiden Karten entsprechend vergleichen müsste, und nicht die 3070 mit einer 4070.
Eine 3070ti nimmt heute schon 295 Watt Gaming max real (bei der Pcgh gemessen, Referenz) nicht peak und dann nimmt eine 4070 natürlich weniger?
Träumer...ja bis 450w sind für eine 4070 (ti) sogar realistisch, bis 375 für eine 4070. Das wird viele wie hier beschrieben, zur Verzweiflung treiben vor allem im Sommer. Irgendwann ist es mal gut.
3070ti:
Anno1800 FHD=291w
CONTROL WQHD=278w
Nur die Karte!
Noch Fragen?
Bla Zusammengefasst: Blödsinn
* Es geht nicht darum, 300€ an der CPU zu sparen, wenn man 2000€ für GPU ausgibt. Es geht um GPU+CPU-Budget von z.B. 1K.
usw.
* Pro-Gamer sind eh raus.
* Es gibt immer wieder Tests, wie viel bzw. wenig man mit 'zu kleiner' CPU verliert.
* Ganze Artikelserien beschäftigen sich mit der Settings-Optimierung von 'zu kleiner' Hardware - wenn auch nicht immer gut.
usw.
Die Erkenntnis, dass das Problem bei der Wärmeentwicklung von GPUs deutlich über die Karte hinaus geht, setzt sich scheinbar so langsam durch. Schön. Sind die Zeiten vorbei, dass man mich schief anschaut, weil ich PC wegen Hitze und Lärm in den Flur stelle.
GastXX
2022-04-11, 14:37:10
5nm bringt da anscheinend kaum Effizienzvorteile mit, sondern lässt nur die Diefläche schrumpfen und ADA scheint kein besonders effizientes Design zu sein.
25-30% effizienter, bei 40-45% Flächenersparnis. Genau deshalb werden die Verbräuche steigen, anders kann man die versprochenen Leistung nicht erreichen (doppelt so schnell). Der Leistungszugewinn von 7nm zu 5nm wäre bereinigt gerade mal 15% groß und genau das ist das Problem, wobei klar zu wenig.
Natürlich wird das Design im Vergleich effizienter sein (mehr Transistoren usw.), leider wird es trotzdem sehr viel verbrauchen und damit Abwärme erzeugen.
4070 300-350
4070ti 350-400
4080 450-500
4090 600-650 (gerüchteweiser zweimal 12 Pin bei bis zu 850w).
Es kann natürlich OC Varinaten geben die mehr verbrauchen. Das wird sehr kuschelig werden.
WedgeAntilles
2022-04-11, 14:43:02
Aber vermutlich wird die 4070 auch nach oben gehen. So 250W-280W halte ich durchaus für realistisch.
Da bin ich bei dir und widerspreche ganz sicher nicht.
Aber ob eine 4070 jetzt 280W oder 450W (wie im Rant-Post vom anderen Gast) ist eben ein signifikanter Unterschied.
Die 3070TI hatte IMO den Hauptgrund darin, den Preis anzuheben und die Leute an ein höheres Preisniveau zu gewöhnen.
Aber da kann man natürlich unterschiedlicher Meinung sein, klar ist nur: Die 3070TI war kein gutes Produkt und egal welcher Grund jetzt für ihre Existenz richtig ist - für den Verbraucher ist keiner davon toll.
Aber ob eine 4070 jetzt 280W oder 450W (wie im Rant-Post vom anderen Gast) ist eben ein signifikanter Unterschied.
Er hat es nicht geschrieben, das es so ist, sondern gefragt! Mal auf den Satzbau achten!!! Was ein Fragezeichen am Satzende bedeutet. Auch da gibt es signifikante Unterschiede.
Siehe:
Wer bitte braucht 600w Grafikkarten? Schwachsinn pur und geht in die völlig falsche Richtung, was verbraucht denn eine 4060 oder 4070, 350w und 450w?
Darauf, auf diese Fragestellung hättest du ja antworten können.
25-30% effizienter, bei 40-45% Flächenersparnis.
Dann kommt es doch gut hin, oder aber der 104 oder 103 liefert eben nicht "doppelt" soviel (was ja auf FP32 nur im Idealfall zutrifft).
3070: 220w=2x=440-25-30%=310-350w (OC mehr). Performance und sei es das letzte Bißchen, wurde zuletzt immer nur mit höherer Leistungsaufnahme erkauft. Bei der 3090ti auf die Spitze getrieben. Da kommt nichts Neues, wenn es sogar Pin gleich ausfallen soll, einfach nur aufgeblasen. Das aufblasen kostet. Ich sage: 50% schneller bei 50 oder 100w mehr ist keine Revolution, das ist nicht mal eine Evolution. Und wenn man darauf einprügelt werden es auch 150w mehr (370w). Zeigt die 3090ti wunderbar.
Schlimm wird es für Nvidia wenn man sich verzockt, AMD einfach sagt: ach lass, 10% langsamer aber 100w weniger ist auch gut. Dann werden viele sagen, ja reicht mir ich will keine Zusatzheizung. Das letzte Bißchen kostet eben immens und Nvidia scheint mit aller Macht vorne bleiben zu wollen. Kommt darauf an was AMD noch liefert, FSR2.0 und Raytracing, Treiber mäßig sind sie imo vorn was die Usability angeht und mittlerweile genauso stabil wobei sie immer noch was rausquetschen können. Nvidia immer am Limit. Wenn das stimmt könnte es für Nvidia und deren Bruteforce diesmal böse ausgehen.
Auch Miner lockt das nicht, jede einzelne Bitcointransaktion kostet soviel CO², wie eine 2000km lange Autofahrt und dass dies durch die Politik unbeantwortet bleibt ist kaum glaubhaft.
https://s20.directupload.net/images/220412/728m9e2r.png (https://www.directupload.net)
:freak:
Leonidas
2022-04-12, 11:21:58
Wenn Satire zur Realität wird ...
WedgeAntilles
2022-04-12, 11:40:28
Er hat es nicht geschrieben, das es so ist, sondern gefragt! Mal auf den Satzbau achten!!! Was ein Fragezeichen am Satzende bedeutet. Auch da gibt es signifikante Unterschiede.
Siehe:
Darauf, auf diese Fragestellung hättest du ja antworten können.
Was eine rhetorische Frage ist scheint dir unbekannt zu sein.
Die gesamte Konstellation "Schwachsinn" und so weiter, implizierte eindeutig, dass er eben NICHT eine Frage gestellt hat, auf die er eine Antwort wollte.
Sondern dass es ein reiner Rant-Post war.
Legendenkiller
2022-04-12, 13:00:45
Richtig, und deswegen wird schon eine 4070 nicht bei 350 Watt sein, egal wie sehr das von einigen hier herbeigesehnt wird. (wie unserem Gast über mir z.B.)
Ebensowenig wie wir manche kühnen Träume (4070 für 500 Euro mit doppelter Leistung der 3070) sehen werden, werden wir die apokalyptischen Träume mit irren Stromverbräuchen sehen.
Das ist jedem normalen Menschen auch klar, aber Erregung, Empörung und Wutposts sind ja heutzutage das Lebenselixier vieler.
Genau die 4070 landet nicht bei 350W , sondern bei 400W.
WedgeAntilles
2022-04-12, 13:07:58
Genau die 4070 landet nicht bei 350W , sondern bei 400W.
Wenn es dich glücklich macht, können wir uns meinetwegen auch drauf einigen, dass die 4070 700 Watt braucht :)
Und die 4090 dann mit einem kleinen Mini-AKW ausgeliefert wird um den Stromverbrauch zu decken.
Leonidas
2022-04-12, 13:16:14
4090Ti dann Putin im Hamsterrad?
WedgeAntilles
2022-04-12, 13:20:22
4090Ti dann Putin im Hamsterrad?
Nein, die 4090TI wird gestrichen, da der Energieverbrauch zu gefährlich wird und eine unkontrollierte Kernfusion auslösen könnte, die die Erde vernichten würde.
Wenn Satire zur Realität wird ...Tesla? Iglo/Dr. Oetker? ...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.