Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Taktraten zur GeForce RTX 4070, deutlich niedrigerer Stromverbrauch...
Leonidas
2022-08-10, 12:15:57
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-taktraten-zur-geforce-rtx-4070-deutlich-niedrigerer-stromverbrauch-bei-der-gefo
Am Ende sind wir da, was alle normalen Leute schon immer gesagt haben.
Performance verdoppelt sich eindeutig nicht, der Stromverbrauch wird aber ebenfalls meilenweit von den Horrorstories entfernt sein.
Die 4070 wird am Ende bei 250, 260W sein, die 4080 bei ca. 340W und die 4090 bei 450W.
50-60% Leistungsplus, dafür 10% mehr Verbrauch.
Oder anders gesagt - gaaanz grob eben das, was wir seit über 10 Jahren im Durchschnitt bei jeder Generation sehen.
Klar, mal etwas mehr, mal etwas weniger - aber als Faustformel kommt es halbwegs hin.
Die 4090 bricht aus, höherer Leistungszuwachs, höherer Stromverbrauchszuwachs.
Unterm Strich wird man mit der groben Faustformel aber SEHR viel näher an der Realität sein als die ganzen Leaks jemals waren.
Clowns.
Leonidas
2022-08-10, 13:39:28
Vielleicht trifft das am Ende sogar wirklich zu. Aber ich würde das Urteil erst fällen, wenn die Messe gelesen ist. Vorher zu urteilen bedeutet, man kann deutlich danebenhauen. Ich liege lieber mit einer Prognose daneben als mit einem Urteil.
Vielleicht trifft das am Ende sogar wirklich zu. Aber ich würde das Urteil erst fällen, wenn die Messe gelesen ist. Vorher zu urteilen bedeutet, man kann deutlich danebenhauen. Ich liege lieber mit einer Prognose daneben als mit einem Urteil.
Das stimmt. Man kann daneben liegen.
Aber ich bezweifle sehr, dass ich mit meiner Festlegung weiter daneben liege, als die Leaker mit ihren "Prognosen" von vor wenigen Monaten. Was war das? 4090 mit 600W oder gar 800W?
4070 mit 400W?
Performanceverdoppelung, bei der 4090 sogar deutlich mehr?
Wenn man völlig ohne Quellen sondern nur mit gesundem Menschenverstand und einem Blick in die Vergangenheit aller Voraussicht nach sehr viel näher an der Realität liegen wird als die ganzen Leaker ist das etwas absonderlich.
Leonidas
2022-08-10, 14:45:11
Mir ging es bei meiner Rede eher um den Unterschied zwischen "Danebenliegen bei einer Prognose" und "Danebenliegen bei einem Urteil". Letzteres sollte man schlicht vermeiden.
Inhaltlich hast Du Recht: Gesunder Menschenverstand wäre wohl zielführender gewesen. Da hab ich mich auch (falsch) treiben lassen.
You vill eat ze bugz
2022-08-10, 14:45:41
Die GPU in den jetzigen Konsolen ist unter 4K UHD bereits ausgereizt.
Da dümplen die Bildraten bereits jetzt zwischen 30 - 60 fps bei teils dynamisch wechselnder Auflösung.
Viel mehr GPU-Rasterrizer-Leistung wird also nicht mehr gebraucht werden.
Was in den echten, kommenden curent-gen Spielen 2023/2024+ Einzug halten wird ist Texturstreaming, direct storage api. Dadurch werden die virtuellen Welten deutlich hübscher.
Die PC-Ports werden wie immer unterirdisch sein; bekommen obendrein ein paar extra Raytracingschalter auf Ultra/Extreme. Dann können High-End und Enthusiasten ihre unnötig hohe GPU-Power mit rtx 4090, rtx 5090 etc. für hübschere Strahlen verballern :D
Den Rolf von der PCGH wird es freuen :D
Korvaun
2022-08-10, 14:46:14
Wundert mich alles nicht wirklich. Nv hat ja gerade massive Absatzprobleme, und das werden sie intern nicht erst seit gestern wissen. Das Ergebins: 4080 und kleiner wurden auf 2023 verschoben, finale Specs komplett unklar (möglicherweise hat nV intern schon rel. finale Specs nochmal umgeschmissen Aufgrund der Situation, Stichwort Stromverbrauch). Das die 4090 überhaupt schon Sept/Okt. vorgestellt wird wundert mich ehrlich gesagt etwas. Wenn die Karte da ist und alles andere Meilenweit hinter sich lässt ermuntert das nicht gerade zum Kauf der massig lagernden alten Generation (die ja noch abverkauft werden muss bevor die 4080/70/etc. kommen)... ich würde die 4090 frühestens Nov/Dez rausbringen.
Legendenkiller
2022-08-10, 14:54:31
Die Verbräuche waren aber immer in der Annahme das auch die kolportierte hohe Perfomance erreicht wird.
Das die Karten jetzt evtl. "zahmer" kommen ist ja im Prinzip gut. Aber dann werden sie alle unter den bisher "angesagten" Performance liegen.
BlacKi
2022-08-10, 17:19:59
Aber ich bezweifle sehr, dass ich mit meiner Festlegung weiter daneben liege, als die Leaker mit ihren "Prognosen" von vor wenigen Monaten. Was war das? 4090 mit 600W oder gar 800W?
4070 mit 400W?
Performanceverdoppelung, bei der 4090 sogar deutlich mehr?
Wenn man völlig ohne Quellen sondern nur mit gesundem Menschenverstand und einem Blick in die Vergangenheit aller Voraussicht nach sehr viel näher an der Realität liegen wird als die ganzen Leaker ist das etwas absonderlich.
es wird save eine gpu über der 4090 mit 450w geben. nicht zum start, aber später. und die kommt sehr wahrscheinlich mit mehr powerlimit als die 4090. ob das nun 600w oder 800w sind spielt dann auch keine rolle mehr.
Vermutlich ist es egal, in welchem Thread ich es verlinke, da die Läster-Gäste es eh nicht lesen werden.
600W werden kein Problem für GPU-Board sein.
https://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-295x2 und von da aus ggf. weiter.
Leaker mit ihren "Prognosen" von vor wenigen Monaten. Was war das? 4090 mit 600W oder gar 800W?
4070 mit 400W?
Performanceverdoppelung, bei der 4090 sogar deutlich mehr?
Wenn man völlig ohne Quellen sondern nur mit gesundem Menschenverstand und einem Blick in die Vergangenheit aller Voraussicht nach sehr viel näher an der Realität liegen wird als die ganzen Leaker ist das etwas absonderlich.
Hat wer 800W für 4090 geschrieben? Ging es nicht um Test-(!)!Boards und Möglichkeiten des AD102 (4090Ti, Titan, usw.)?
4070 mit 400W sind weiter denkbar, aber nach aktuellem Stand unwahrscheinlich, dass solche Customs gebaut werden.
Generell könnten das jeweils Peaks bei Maximalausbau auf OC gewesen sein.
Bei den kolportieren 2-3x Leistung ging es afaik immer um Rohleistung. Nicht Spieleleistung. Und idR AD102. usw usw usw
Erwartet hatte nicht nur ich zugegeben wegen des Wechsels von Samsung8 auf TSMC4 größeren Sprung als sich jetzt realisiert. Vielleicht bleibt man weiter weg vom jeweiligen Maximum. Oder es waren Nebelkerzen Richtung AMD. Was weiss ich schon.
"Leaks" sind halt manchmal keine. Oder Absicht. Und bei einem noch nicht mal in Auftrag gegebenem Produkt können die auch daneben liegen. Einfach so lange ignorieren, bis finale Daten fix sind.
Die Verbräuche waren aber immer in der Annahme das auch die kolportierte hohe Perfomance erreicht wird.
Das die Karten jetzt evtl. "zahmer" kommen ist ja im Prinzip gut. Aber dann werden sie alle unter den bisher "angesagten" Performance liegen.Hinweise dafür gibt es in der Tat ein paar. Neue Hochzeit für Overclocker?
Am Ende sind wir da, was alle normalen Leute schon immer gesagt haben.
Performance verdoppelt sich eindeutig nicht, der Stromverbrauch wird aber ebenfalls meilenweit von den Horrorstories entfernt sein.
Die 4070 wird am Ende bei 250, 260W sein, die 4080 bei ca. 340W und die 4090 bei 450W.
50-60% Leistungsplus, dafür 10% mehr Verbrauch.
Oder anders gesagt - gaaanz grob eben das, was wir seit über 10 Jahren im Durchschnitt bei jeder Generation sehen.
Klar, mal etwas mehr, mal etwas weniger - aber als Faustformel kommt es halbwegs hin.
Die 4090 bricht aus, höherer Leistungszuwachs, höherer Stromverbrauchszuwachs.
Unterm Strich wird man mit der groben Faustformel aber SEHR viel näher an der Realität sein als die ganzen Leaks jemals waren.
Clowns.
sie überspringen mit n4, 2 nodes und dafür ist das witz. das sind die grob 20 bis 30% pro gen wie immer. es sieht derzeit nur viel aus, weil sie von 8nm kommen. ich habe es ewig schon heruntergebetet, leo meinte was anderes. die ganzen fakeinfos von insider mal aussen vor und was man mit einem es anstellt ist immer noch nicht serie. beim es pcb muss man für die zusätzliche überwachungselektronik auch 40 bis 70w dazurechnen, die fallen in serie dann weg. scheint kopitekimi nicht zu wissen.
nix besonderes und dann soviel verbrauchen ist echt kein besonderer verdienst. 5nm bringt ja vor allem eine höhere density, kaum effizienz dabei mässige taktratenzuwächse (15 bis 20%), alles was man hier sieht und die physik betrügt man nunmal nicht. nun dreht man die taktraten runter, weil man mitbekommt das solche verbräuche niemand will und vor allem will man zu aller erst den ausschuss für viel geld verkaufen. der taktet nicht hoch oder nur, wenn man darauf einprügelt.
bin gespannt was amd macht, die werden ganz sicher nicht schneller, aber die können wohl effizienter und billiger, was nvidia wenn man sich das derzeitige marktgeschehen anschaut massiv unter druck setzt. von tsmc zu samsung zu wechseln war ein riessn fehler, die gier wieder und deren knebelverträge.
nvidia hat eine gpu schwemme aus mining am halsy egal ob im gebrauchtmarkt oder im handel. verdient!
Mir ging es bei meiner Rede eher um den Unterschied zwischen "Danebenliegen bei einer Prognose" und "Danebenliegen bei einem Urteil". Letzteres sollte man schlicht vermeiden.
Inhaltlich hast Du Recht: Gesunder Menschenverstand wäre wohl zielführender gewesen. Da hab ich mich auch (falsch) treiben lassen.
deine prognosen liegen doch teikweise meilenweit daneben. hab ich dir bestimmt 20mal schon geschrieben. du siehst das eher als persönlichen angriff auf berichterstatter und insider an, ich eher als fakenews die falsche hoffnungen weckt und damit schon vor veröffentlichung zu enttäuschungen. wie gast schon schreibt, klarer menschenverstand wäre bei prognosen klar besser, als kaum fundierte übertreibungen mit einem schuss ins blaue. sich dann in nachgang herauszureden macht es nicht besser.
nvidia wird das volle potential eh nur mit pcie 5 netzteilen abrufen können und da sollten die tester genau aufpassen was nvidia macht! daher auch diese verbrauchswerte! pcie 3 = 325 versus pcie5 = 420.
wie bereits geschrieben muss man es und serie noch etwas rausrechnen, wegen des überwachungsklimbim. alle vorab bios versionen laufen auf überwachten platinen.
Leonidas
2022-08-11, 10:15:17
Tja, viel mehr als Deine Postings freischalten und damit zu beweisen, dass ich auch völlig andere Meinungen und Kritik an mir toleriere, kann ich auch nicht. Es liegt nun an Dir, anzuerkennen, dass dies auch einen gewisse Wert darstellt - der heutzutage zudem gar nicht so alltäglich ist.
Tja, viel mehr als Deine Postings freischalten und damit zu beweisen, dass ich auch völlig andere Meinungen und Kritik an mir toleriere, kann ich auch nicht. Es liegt nun an Dir, anzuerkennen, dass dies auch einen gewisse Wert darstellt - der heutzutage zudem gar nicht so alltäglich ist.
Und dafür absolut Daumen hoch!
von tsmc zu samsung zu wechseln war ein riessn fehler, die gier wieder und deren knebelverträge.
Von TSMC auf Samsung zu wechseln war aus NV Sicht goldrichtig.
Dank Samsung konnte man nämlich im Gegensatz zu AMD Grafikkarten verkaufen, zwar immer noch nicht ausreichend um die Massenhafte Nachfrage zu bedienen, aber immer noch um Größenordnungen über AMD.
Mit TSMC hätte man nur ähnlich wenig wie AMD verkaufen können, die nicht mal ausreichend N7 Wafer (weitestgehend) ohne Nvidia hatten.
Von TSMC auf Samsung zu wechseln war aus NV Sicht goldrichtig.
Dank Samsung konnte man nämlich im Gegensatz zu AMD Grafikkarten verkaufen, zwar immer noch nicht ausreichend um die Massenhafte Nachfrage zu bedienen, aber immer noch um Größenordnungen über AMD.
Mit TSMC hätte man nur ähnlich wenig wie AMD verkaufen können, die nicht mal ausreichend N7 Wafer (weitestgehend) ohne Nvidia hatten.
link der das beweist? amd hat ganz andere wafervertrage mit tsmc weil man im gpu bereich andere marktanteile hat, warum sollte man also im überfluss bestellen wenn der großteil und so wie du, sowieso kein amd kaufen? zudem läuft die komplette zen fertigung über tsmc und das dürfte was die waferzahlen angeht, nvidias anteil klar überflügeln. wieder so eine schwachsinns behauptung ohne nachhaltigkeit. grüne forenparolen vom besten. lol.
was bitte soll man an nichtfundierter berichterstattung gutheissen. hier twitterpost von vermeintlichen insidern copy&paste einzufügen, um dann seinen eigenen senf dazu zu geben, der auf basis dieser fakeinsider meilenweit daneben liegt, zeugt also von besonderer grösse. das liest sich eher wie "es war einmal..." mit einem grossen anteil eigenem wunschdenken, und man kann es daher kaum für voll nehmen. das leonidss mit seiner schreibweise zur kompletten übertreibung neigt, ist zwar nicht neu aber diesmal mehr als kontraproduktiv, was da alles vermeintlich hineininterpretiert wurde.
zurückhaltende quellen als reine info lesen sich anders.
Gastxyz
2022-08-14, 11:23:50
Mit TSMC hätte man nur ähnlich wenig wie AMD verkaufen können, die nicht mal ausreichend N7 Wafer (weitestgehend) ohne Nvidia hatten.
Wo denn? Die 3070 und 3060 waren doch ewig nicht lieferbar. Da hat AMD schon munter 6700xt's verkauft, die weg gingen wie warme Semmeln. Man muss schon eine erhebliche Wahrnehmungsschwäche haben, um das zu ignorieren.
AMD wickelt die komplette N7 Fertigung über TSMC ab, dass ist deutlich mehr als Nvidia bei Samsung ausmacht. Genau um solche Fakeparolen geht es hier.
Nvidia hätte was die Effizienz vom Ampere angeht, AMD mit RDNA2 bei TSMC klar schlagen können. Daran sieht man auch gut wer in der Vergangenheit Nvidia zu guter Effizienz verhalf, das war kein alleiniger Verdienst von Nvidia! Nur weil man TSMC mit Knebelverträgen drohte und die sich das nicht gefallen liessen und auch nicht mehr gefallen lassen, macht es Nvidia nicht zum Primus.
Die Marktanteile die man den Analysten und Anlegern gerade im Segment Gamer mit Cryptoanteilen vorgaukelte, sind ja alles andere als aussagekräftig wie man gerade hört und liest. Eine überproduzierte Schwemme and GPUs inbegriffen, die man nun am Hals hat und allein für Gamer hätten die Kontingente bei TSMC klar gereicht. Der reine Anteil der auf Gamer abfällt, ist viel kleiner als man allen weis machen will.
Nvidia geht es nur um Marge, nichts weiter. Vor allem wollen sie verdienen, aber alle anderen nicht. Man genießt bei TSMC keinerlei Voteile mehr, weil man denen 2018 und mit dem Wechsel rote Zahlen für einzelne Nodes hinterlassen hat. Selbst Schuld. Nun zahlen sie reichlich im Voraus ansonsten stehen dort die Bänder still. Man sieht ja was das finanziell bedeutet. Es reißt riesige Löcher in die eigenen Bugetprognosen, die genauso übertrieben sind, wie das was bestellt wurde und so manche Berichterstattung.
Es war der größte Fehler was man mit dem Wechsel zu Samsung hingelegt hat. AMD hatten Wafer genug, auch das ist kompletter Nonsens und die Menge sorgar noch erhöht. Das ist einfach ein Strohmann den man verbreitet hat, um nicht begründen zu müssen warum man bei TSMC rausgeflogen ist. Die haben für die Extrawurst die Nvidia ständig will, mehr verlangt, weil es mehr Kosten erzeugt und das wollte Nvidia nicht bezahlen. TSMC lässt sich in dem Fall aber kaum von Nvidia erpressen. Die haben genug Abnehmer.
Apple kommt auf 26% Anteil, danach kommt gleich AMD mit Anteilen aus 7 und 5nm (da hält sich TSMC bedeckt), die im vergangenen Jahr um 188% gewachsen sind. Die Waferverkäufe an AMD liegen bei einem Volumen von 20%, was natürlich nicht auf die Fertigungsmengen schließen lässt, aber nur leicht hinter Apple zurückfällt. Natürlich hat dabei auch Zen Priorität. Netto liegt der Gewinn für TSMC bei 16mrd $ und 488mrd nt$. Die müssen also kaum bei Nvidia betteln, was für die zu produzieren.
3dcenter verkommt zu einer Clickbyteside, genau darum geht es einigen hier. Berichterstattung der Berichterstattung wegen, auf Teufel komm raus.
Leonidas
2022-08-14, 13:39:24
3dcenter verkommt zu einer Clickbyteside, genau darum geht es einigen hier. Berichterstattung der Berichterstattung wegen, auf Teufel komm raus.
Wenn 3DCenter tatsächlich Klickbait wäre - dann müsste man, wenn man andere Seiten im Internet zu Gesicht bekommt, auf der Stelle mit Herzstillstand tot umfallen.
Will sagen: Irgendwie sind die Maßstäbe komplett abhanden bekommen.
Wo denn? Die 3070 und 3060 waren doch ewig nicht lieferbar. Da hat AMD schon munter 6700xt's verkauft, die weg gingen wie warme Semmeln. Man muss schon eine erhebliche Wahrnehmungsschwäche haben, um das zu ignorieren.
rofl, was für ein Unsinn.
Ein Blick in die Geschäftszahlen und die Umsätze 4. Quartal 2020 sowie 2021 genügen um zu belegen, dass Nvidia zig mal mehr GraKas verkauft hat als AMD.
Wie jemand auf die Idee kommt zu vermuten, die 6700 hätte sich besser als die 3060 und 3070 verkauft ist unvorstellbar.
Wo es doch so einfach wäre das zu überprüfen. Aber hey, andere haben die Wahrnehmungsschwäche, gell?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.