Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 12./13. März 2022
Leonidas
2022-03-14, 09:33:31
Link zur News:
https://www.3dcenter.org/news/news-des-1213-maerz-2022
Aroas
2022-03-14, 09:48:36
Die Energiepreise weltweit steigen immer weiter und dennoch haben NVidia und AMD nichts besseres zutun, als den Verbrauch ihrer Produkte in die Höhe zu treiben.
Unter diesen Umständen werde ich wohl grundsätzlich Abstand vom PC Gaming in der höheren Kategorie behmen und mich zukünftig auf Einsteigerniveau bewegen.
Auch in dem Bereich ist die Hardware ja teuer genug.
Mit dem neuerlichen Lockdown in Shenzen kommen mit Sicherheit auch wieder deutliche Preiserhöhungen.
Die sind nicht mehr ganz klar in ihrem Kopf. Es geht ja nicht nur um den Energiebedarf, sondern auch um Haltbarkeit, Stabilität und damit verbunden Abwärme. Da hat NVidia die letzten Jahre gerade im Bereich Enthusiast extreme Probleme, die immer wieder unter den Tisch gekehrt werden (2080ti/3090/ti}.Wie bitte will man 600w Leistungsaufnahme auf Dauer abführenx wo jeder weiss das GPUs den kompletten Energiebedarf in Abwärme umwandeln? Schon die 3090 ist ein riesiger Mauerstein. Man sollte jetzt endlich die Kriterien für die Leistungsaufnahme in der EU und weltweit beschränken, dann sind die Hersteller gezwungen andere Lösungen zu finden um die Leistung effizient zu steigern.
WedgeAntilles
2022-03-14, 10:36:34
Die Energiepreise weltweit steigen immer weiter und dennoch haben NVidia und AMD nichts besseres zutun, als den Verbrauch ihrer Produkte in die Höhe zu treiben.
Abwarten.
Nur weil ein Spitzenmodell, das für 99,99% der User sowieso uninteressant ist, mehr verbraucht, heißt das nicht, dass die gesamte Produktpalette mehr verbraucht.
Das ist selbstverständlich möglich, aber bevor man jetzt schon ein Fazit zieht sollte man erstmal warten was wir wirklich erhalten.
Und sollten die Verbräuche tatsächlich steigen - und sich die Leistung verdoppeln - kann man bei der kommenden Generation immer noch relativ bequem eine Leistungsebene niedriger zugreifen.
Dann bekommt man immer noch sehr viel Mehrleistung ohne höheren Verbrauch.
Und als letztes bleibt einem ja noch die Möglichkeit, etwas runterzutakten. Wie aufwändig das ist? Keine Ahnung, habe mich damit nie beschäftigt.
Ich hoffe einfach mal, dass man das relativ einfach machen kann.
Da kann man eventuell recht einfach 10, 20% Strom einsparen und nur ein paar wenige Prozent Leistung verlieren.
Abwarten.
Nur weil ein Spitzenmodell, das für 99,99% der User sowieso uninteressant ist, mehr verbraucht, heißt das nicht, dass die gesamte Produktpalette mehr verbraucht.
Würde ich auch sagen. Ich weiß nicht, warum man immer von irgendwelchen Leaks gleich auf eine Bewertung der Komponenten schließen muss. Wartet doch einfach mal Tests ab, dann kann man immer noch genug schimpfen. Vielleicht ist die Karte ja auch mit 600W Verbrauch 3x so schnell als aktuelle, dann wäre das deutlich effizienter. Und wenn man dann auf 300W drosselt, ist man vielleicht noch effizienter unterwegs. Oder die 600W erreicht man nur in ganz seltenen Szenarien.
Aroas
2022-03-14, 11:12:55
Abwarten.
Nur weil ein Spitzenmodell, das für 99,99% der User sowieso uninteressant ist, mehr verbraucht, heißt das nicht, dass die gesamte Produktpalette mehr verbraucht.
Grundsätzlich richtig. Allein mir fehlt der Glaube.
Mir ist auch keine GPU Generation bekannt, in der die High End Modelle einen hohen Stromverbrauch aufwiesen, während die kleineren Modelle dann plötzlich Effizienz- bzw. Stromsparwunder gewesen sind.
Rabiata
2022-03-14, 11:39:37
Grundsätzlich richtig. Allein mir fehlt der Glaube.
Mir ist auch keine GPU Generation bekannt, in der die High End Modelle einen hohen Stromverbrauch aufwiesen, während die kleineren Modelle dann plötzlich Effizienz- bzw. Stromsparwunder gewesen sind.
Das liegt daran, daß die High End Modelle auf Biegen und Brechen deutliche (absolute) Performancegewinne bringen sollen, während die Effizienz zur wenig steigt. Für etwa dieselbe Performance gibt es durchaus sparsamere Karten.
Beispiele aus den 3D Center Aufstellungen:
AMD RX 5700 XT => RX 6600 XT.
Nvidia GeForce RTX 2080 Super => 3060 Ti
Die Verbesserungen kommen langsamer, aber sie sind da.
"Allerdings täuscht jenes Ergebnis etwas und ist damit auch der Artikel-Titel nicht korrekt, denn im Schnitt von 7 Anwendungs-Benchmarks liegt Intel hingegen mit gut +11% vorn. Faktisch geht allein der Cinebench zugunsten von AMD aus, die anderen 6 Benchmarks dann hingegen zugunsten von Intel."
Eigentlich sind es 9, da Cinebench in 3 Versionen drin ist (die auch unterschiedlich performen). Anwendungen trifft es auch nicht, da eigentlich nur Blender, 7Zip und LibreOffice Anwendungen sind, der Rest sind rein synthetische Benchmarks, die mit Real World nicht immer viel zu tun haben. Und es wird da auch nichts darüber ausgesagt, wie viele Threads genutzt werden können. Auf einem Thread ist Intel so weit vor Zen3, dass das auch ein etwas optimierter Zen3+ nicht ansatzweise aufholen kann. Grob gesagt schafft Rembrandt es, die Leistung von Cezanne auf 45W mit nur noch 35W zu erreichen. Aber zu Alder Lake kann der in der Spitzenleistung niemals aufschließen. Aktuell scheint er über 45W (AMD typisch) kaum mehr Leistung zu bringen, da steigt dann nur der Verbrauch. AlderLake zieht da dann gnadenlos durch und verliert bis vermutlich um die 80W kaum an Effizienz.
Laut einigen Reviews ist AMD aber unter 45W effizienter als Alder Lake H, daher wird es dann spannend, wie Alder Lake P und U performen. Aktuell ein richtig schöner Schlagabtausch zwischen AMD und Intel mit abwechselnden Spitzenreitern, sollte letztendlich für uns Kunden sehr gut sein.
Zu Effizienz von Zen3+ vs Alder Lake im Mobilbereich hat Hardware Unboxed letzte Woche eine Video dazugemacht: https://youtu.be/X0bsjUMz3EM?t=725
Wenn der Timestamp nicht funktioniert: ab 12:06 gibt es einen Graph, was das Performance von Zen3+, Alder Lake und M1 Pro von 35W bis 75W SoC Package Power vergleicht
Ist leider eine Video, ich weiß nicht, ob HUB das in Textform als Artikel irgendwo veröffentlicht hat.
Platos
2022-03-14, 12:53:46
Die sind nicht mehr ganz klar in ihrem Kopf. Es geht ja nicht nur um den Energiebedarf, sondern auch um Haltbarkeit, Stabilität und damit verbunden Abwärme. Da hat NVidia die letzten Jahre gerade im Bereich Enthusiast extreme Probleme, die immer wieder unter den Tisch gekehrt werden (2080ti/3090/ti}.Wie bitte will man 600w Leistungsaufnahme auf Dauer abführenx wo jeder weiss das GPUs den kompletten Energiebedarf in Abwärme umwandeln? Schon die 3090 ist ein riesiger Mauerstein. Man sollte jetzt endlich die Kriterien für die Leistungsaufnahme in der EU und weltweit beschränken, dann sind die Hersteller gezwungen andere Lösungen zu finden um die Leistung effizient zu steigern.
Ist schwierig zu begrenzen. Wie machst du das? Eine Grafikkarte darf nicht mehr wie 300W brauchen? Dann kommt sicher SLI wieder auf :D
An der Effizienz kannst du es nicht ausmachen, die steigt ja ständig. Möglivh wäre noch zu beschränken, wie weit man takten darf. Also innerhalb der Effizienzkurve darf es einen bestimmten Prozentwert nicht überschreiten.
Aber das wären alles sehr harte Markteingriffe.
Das ist nicht wie bei nem TV. Die TVs werden nicht von Generation zu Generation xx% Energieeffizienter. Da kann man also durchaus ne Obergrenze festlegen und die gibts ja auch (ab 2023).
Lowkey
2022-03-14, 12:57:26
Was kostet der Strom in Taiwan? Was kostet der Strom in den USA? Nur weil Deutschland in Europa und weltweit die höchsten Strompreise hat ...
WedgeAntilles
2022-03-14, 12:58:30
Die sind nicht mehr ganz klar in ihrem Kopf. Es geht ja nicht nur um den Energiebedarf, sondern auch um Haltbarkeit, Stabilität und damit verbunden Abwärme. Da hat NVidia die letzten Jahre gerade im Bereich Enthusiast extreme Probleme, die immer wieder unter den Tisch gekehrt werden (2080ti/3090/ti}.Wie bitte will man 600w Leistungsaufnahme auf Dauer abführenx wo jeder weiss das GPUs den kompletten Energiebedarf in Abwärme umwandeln? Schon die 3090 ist ein riesiger Mauerstein. Man sollte jetzt endlich die Kriterien für die Leistungsaufnahme in der EU und weltweit beschränken, dann sind die Hersteller gezwungen andere Lösungen zu finden um die Leistung effizient zu steigern.
Das Problem ist eben, dass du gesetzlich gezwungen bist die 2080TI/3090/ti zu kaufen. Gäbe es das nicht, könnte ja jeder kaufen was er will.
Da ich ein Rebell bin entziehe ich mich dem und verstoße gegen das Gesetz.
Aber nicht jeder will natürlich ein Outlaw sein.
Platos
2022-03-14, 12:58:47
Was kostet der Strom in Taiwan? Was kostet der Strom in den USA? Nur weil Deutschland in Europa und weltweit die höchsten Strompreise hat ...
Ja, Deutschland ist da eine Sonderstellung. Schon die Länder um Deutschland rum haben z.T viel tiefere Strompreise. Bzw. da steigen sie auch z.T kein bisschen an.
Platos
2022-03-14, 12:59:37
Das Problem ist eben, dass du gesetzlich gezwungen bist die 2080TI/3090/ti zu kaufen. Gäbe es das nicht, könnte ja jeder kaufen was er will.
Da ich ein Rebell bin entziehe ich mich dem und verstoße gegen das Gesetz.
Aber nicht jeder will natürlich ein Outlaw sein.
Inwiefern bist du gesetzlich dazu gezwungen? Verstehe ich nicht.
WedgeAntilles
2022-03-14, 13:02:07
Inwiefern bist du gesetzlich dazu gezwungen? Verstehe ich nicht.
Das sollte der Gag sein - dass eben jeder kaufen kann was er will.
Das Spitzenmodell braucht zu viel? Kauf eins tiefer.
Der Sweetpoint ist zu weit weg? Takte etwas runter.
Dieses Geschreie der Staat (der quasi alles vermurkst was er anfasst) solle alles richtigen ist einfach nur zum Kotzen.
Wer in einem freien Land leben will muss eigene Entscheidungen treffen. Ein Staat der alles regeln will ist kein freiheitlicher Staat sondern eine Diktatur.
Tipp: Haben wir in Deutschland schon mehrfach probiert, hat nicht ganz so toll funktioniert.
Brauche ich nicht schon wieder.
Platos
2022-03-14, 13:22:22
Wenn es fair umsetzbar wäre, wäre ich schon dafür.
Siehe TV. Da gibts bald ein maximal zulässiger Stromverbauch bezogen auf die Anzeigefläche. Da TVs nicht jährlich riesige Effizienzfortachritte machen, finde ich das da in Ordnung. Solange die Obergrenze fair ausgelegt ist. Das ist sie auch m.M.n. Selbst mein TV aus 2016 würde nicht durchfallen.
8K TVs dann eben nicht...
Aber bei Grafikkarten sehe ich da keine so einfache Regelung. Es wäre dann eben nicht "macht was ihr wollt, solange ihr es nicht übertreibt" wie es bei TVs ist.
Was willst du da sagen? Pro Fläche darf es nicht xyz Strom verbauchen? 2 Jahre später kann man ein neues Gesetz auflegen weil Fertigungsfortschritt...
Einzig wie gesagt: Der Hersteller muss eine Effizienzkurve ausarbeiten (Takt/Stromverbauch xy Diagramm) und darf dann bei rapidem Anstieg nicht mehr wie (sagen wir) 20% über diesem Punkt liegen, wo er rapide ansteigt.
Wäre immerhin keine wirkürliche Zahl (würde auch keine Obergrenze darstellen, man kann trotzdem riesen Chips bauen, die dann 600W brauchen). Geht dann nur um die Effizienz und zwar um die eigene. D.h wenn der Konkurrent eine schlechtere hat, ist das egal. Die Regelung wäre immer individuell auf die eigene Arichtektur bezogen bzw. auf die Takt/Stromverbrauchs Kurve der eigenen Architektur.
Fände ich fair bei 20%. Es gälte dann schliesslich für alle. Damit müsste sich das eine Unternehmen nicht gezwungen fühlen, übertriebene Taktraten zu fahren. Die anderen dürfens schliesslich ja auch nicht.
(natürlich gibts da dann leichtes Missbrauchspotential, indem man für die Kurve ein Goldensample nimmt).
Die Karten sollen 2,2 bis 2,5x so schnell werden, verbrauchen dabei genauso viel mehr. Was nur für die 4090 gilt, das ist schon der Shaderanzahl ersichtlich. Was ist das für ein Fortschritt? Null.
Nein am effizientesten ist immer der größte Chip einer Serie und nicht irgendwelcher nachgeordneter, teildeaktivierter Ausschuss, der braucht bekanntlich Weise immer mehr, oder leistet nicht so viel. Siehe 3080 12g oder 3080ti. Da knüppelt Nvidia sinnlos mit der Brechstange darauf ein, um an AMD vorbeizukommen weil RT eben kein Argument für eine Besserstellung ist und man selbst dort nicht so viel besser aussieht. Ich würde sogar behaupten, damit hat man sich selbst beschränkt, viel zu früh am Markt. Fürn paar Schatten...
Vermutlich wird es das erste Mal sein das ich AMD kaufe. Ich habe Turing und Ampere überlebt, ohne zu kaufen weil mir die Preisgestaltung zu blöd war und der Vorsprung zu einer 1080ti marginal, dann sei es so aber das mache ich nicht mit.
NVidia hat sich wie Intel mit ihrem monolytischen Design total verrannt. Entweder extrem hohe Leistungsaufnahme oder riesige Flächen die immens kosten.
Hab ich keinen Bock mehr drauf...ich will meine Bude nicht damit heizen. Die 3090 ist zumindest in dem Fall ein Katastrophe. Ich durfte es in real miterleben, ging zurück.
Platos
2022-03-14, 14:25:31
Na wenn du zuerst 400W bestellen musst, um feststellen zu können, dass es dir die Bude aufheizt, weiss ich auch nicht...:freak:
WedgeAntilles
2022-03-14, 14:35:59
Die Karten sollen 2,2 bis 2,5x so schnell werden, verbrauchen dabei genauso viel mehr. Was nur für die 4090 gilt, das ist schon der Shaderanzahl ersichtlich. Was ist das für ein Fortschritt? Null.
Nein am effizientesten ist immer der größte Chip einer Serie und nicht irgendwelcher nachgeordneter, teildeaktivierter Ausschuss, der braucht bekanntlich Weise immer mehr, oder leistet nicht so viel. Siehe 3080 12g oder 3080ti. Da knüppelt Nvidia sinnlos mit der Brechstange darauf ein, um an AMD vorbeizukommen weil RT eben kein Argument für eine Besserstellung ist und man selbst dort nicht so viel besser aussieht. Ich würde sogar behaupten, damit hat man sich selbst beschränkt, viel zu früh am Markt. Fürn paar Schatten...
Vermutlich wird es das erste Mal sein das ich AMD kaufe. Ich habe Turing und Ampere überlebt, ohne zu kaufen weil mir die Preisgestaltung zu blöd war und der Vorsprung zu einer 1080ti marginal, dann sei es so aber das mache ich nicht mit.
NVidia hat sich wie Intel mit ihrem monolytischen Design total verrannt. Entweder extrem hohe Leistungsaufnahme oder riesige Flächen die immens kosten.
Hab ich keinen Bock mehr drauf...ich will meine Bude nicht damit heizen. Die 3090 ist zumindest in dem Fall ein Katastrophe. Ich durfte es in real miterleben, ging zurück.
Dann kauf dir doch AMD? :confused:
Wenn nvidia so scheiße ist und soooo viel Strom verbraucht - während AMD ja sooooo wenig braucht - wo ist da dein Problem?
Aber halt, wir sind ja wieder beim bösen Gestzgeber der dich ZWINGT nvidia zu kaufen.
Oder Nvidia schickt jemanden bei dir vorbei und macht dir ein Angebot, dass du nicht ablehen kannst.
Richtig?
Nvidia so böse, AMD so gut. Kauf dir AMD und fertig.
Meine Fresse, ein elends langer Heulpost über Dinge, von denen wir Stand heute noch exakt 0 wissen.
Das kann nur eines bedeuten, das Teil wird extrem schnell.
Wenn man sieht, wie viel alleine TSMC 7N effizenter als Samsungs 8N ist ist eine Verdreifachung der Performance wohl das absolute Minimum: https://www.youtube.com/watch?v=zBAxiQi2nPc
Leonidas
2022-03-14, 16:29:50
Eigentlich sind es 9, da Cinebench in 3 Versionen drin ist (die auch unterschiedlich performen).
In einem solchen Fall verrechnen ich immer nur die neueste Version. Ansonsten wird das Gesamtergebnis zu Cinebench-lastig, was nicht Ziel eines Durchschnitts sein kann.
Platos
2022-03-14, 18:07:04
Das kann nur eines bedeuten, das Teil wird extrem schnell.
Wenn man sieht, wie viel alleine TSMC 7N effizenter als Samsungs 8N ist ist eine Verdreifachung der Performance wohl das absolute Minimum: https://www.youtube.com/watch?v=zBAxiQi2nPc
Kannst du da mal ne spezifische Stelle angeben aus dem Video?
Das Geschrei über Verbrauchsanstieg ist albern.
Man will halt mehr Leistung. So what? So lange die Effizienz steigt, ist das i.O. Du willst weniger Stromverbrauch? Dann kauf modernisiertes Retro oder lass es besser ganz. Punkt.
Man will ja z.B. nicht plötzlich Next-Gen Konsolen, die schlechter sind, damit sie Strom sparen. Cloud-Gaming?
Oder man schaue auf die Leistungsdaten von hier verkauften E-Autos jenseits Dacia Spring. Sinnlose Diskussion.
Immerhin bleibt es wohl (erstmal) bei 600W. Gerüchte über höheren Verbrauch waren nicht glaubhaft.
Gibt es inzwischen gute Artikel zu dem neuen Stecker? Hardwareluxx und Co. erzählen bisher nur Murks. Wie z.B. soll bitte aus einem Adapter Spec-konform 600W kommen? Wird der Stecker 'kurzgeschlossen' und der Karte suggeriert, dass Netzteil könne alles? Urgs.
Notebookcheck macht leider öfter mal wenig hilfreiche Tests. Und clickbaitige Überschriften. Gern auch mal generell schlechte Artikel, die umformulierte Werbe-PEs der Hersteller zu sein scheinen.
Ich persönlich kann mit Peaks leben, so lange das keine nennenswerten Auswirkungen aufs Gewicht hat. Erhöht die zumeist viel wichtigere 'Responsiveness'.
Die Karten sollen 2,2 bis 2,5x so schnell werden...1080ti...
Dann dürfte dir eine 7700xt reichen, die schneller wird als eine 6900xt aber deutlich effizienter und die 7900xt wird wohl bei 300 bis 400w herauskommen. Was NVidia da treibt und 200w mehr braucht weiß niemand - Fermi 3.0. Kauf AMD...;).
FarCry
2022-03-14, 22:32:47
Das Geschrei über Verbrauchsanstieg ist albern.
Man will halt mehr Leistung. So what? So lange die Effizienz steigt, ist das i.O. Du willst weniger Stromverbrauch? Dann kauf modernisiertes Retro oder lass es besser ganz. Punkt.
Man will ja z.B. nicht plötzlich Next-Gen Konsolen, die schlechter sind, damit sie Strom sparen. Cloud-Gaming?
Oder man schaue auf die Leistungsdaten von hier verkauften E-Autos jenseits Dacia Spring. Sinnlose Diskussion.
Sinnfreies Gerede.
"So lange die Effizienz steigt, ist das i.O."
Ah, verstehe. Dann wären 3000W auch noch ok, solange die Effizienz steigt?
Wie wäre es dann, vielleicht im Jahre 2030, mit 6000W? Auch noch alles gut?
Es muss bei solchen Sachen eine Grenze geben. Eine GK mit der Abwärme einer Turbine unterm Schreibtisch zu haben ist völlig gaga. Aber letztendlich läuft es, wenn die User blindlings zugreifen, genau darauf hinaus.
Für mich sind 300W das Ende der Fahnenstange, daher werde ich mir vielleicht nochmal eine 6800/6900 zulegen, sofern sich die Preise wieder im dreistelligen Bereich ansiedeln, und dann hab ich für die nächsten ~8 Jahre meine Ruhe.
Immerhin bleibt es wohl (erstmal) bei 600W. Gerüchte über höheren Verbrauch waren nicht glaubhaft.
Wie gesagt: noch.
Mal schauen, ob die 5090 demnächst schon die 1kW anpeilt.
WedgeAntilles
2022-03-14, 22:53:46
Heul
Hoher Stromverbrauch
Heul
Böses Nvidia
Heul
(wenigstens ist dein Name Program...)
"Kauf ich mir ne 6900" ;D
Kann man sich einfach nicht ausdenken.
Da heult er rum wegen dem Stromverbrauch der nächsten Generationen - von denen wir NICHTS sicher wissen, schon gar nicht was die Mittelklassemodelle brauchen - und redet dann davon sich die 6900 zu kaufen.
Ja, die ist ja so ultra sparsam, da wird eine 4070 natürlich WEIT mehr brauchen...
Ich wiederhole mich, das kann man sich einfach nicht ausdenken. ;D
Sinnfreies Gerede.
Dann wären 3000W auch noch ok, solange die Effizienz steigt?
Wie wäre es dann, vielleicht im Jahre 2030, mit 6000W?Mit dem Nonsense erübrigt sich Diskussion.
Heul
Hoher Stromverbrauch
Heul
Böses Nvidia
Heul
(wenigstens ist dein Name Program...)
"Kauf ich mir ne 6900" ;D
Kann man sich einfach nicht ausdenken.
Da heult er rum wegen dem Stromverbrauch der nächsten Generationen - von denen wir NICHTS sicher wissen, schon gar nicht was die Mittelklassemodelle brauchen - und redet dann davon sich die 6900 zu kaufen.
Ja, die ist ja so ultra sparsam, da wird eine 4070 natürlich WEIT mehr brauchen...
Ich wiederhole mich, das kann man sich einfach nicht ausdenken. ;D
Dein Nvidia Lobgehudel langweilt auch, woher willst du deiner Argumentation nach denn wissen was eine 4700 verbraucht? Können ja gut und gerne 400W sein, wenn die 4900, 600 davon verpulvert, Peak vlt. sogar 800 bis 900. Oder glaubst du eine 4700 legt dann nur 10% zu? Eine 3070ti haut doch jetzt schon 250 bis 275 locker raus. Die wird so viel verpulvern wie eine 3080/3090 Customs und die liegen bei bis zu 470W, alle real über 300. Nvidia scheint den Verstand verloren zu haben, gab ja genug die argumentiert haben von nix kommt nix. Kann mich an diesen Bullshit bei Amperelaunch noch erinnern, nun bekommt ihr wie bestellt diesen Müll präsentiert. Aber bei NVidia ist das ja alles kein Problem, alles easy. Lol AMD Vega diese Luftpumpe. Was für eine Doppelmoral!
Nochmal: diesen Schrott kann Nvidia behalten. Das passt in keinen derzeit existierenden Formfaktor für Gamer und kann dort leise gekühlt werden. Bretter mit überteuerten Komponenten und Bigcoolern die dazu dienen die Preise in den Himmel zu jubeln, in einem Formfaktor wie ein Mauerstein, immer mehr Aufwand für Leistungsschübe die keine sind. Ähnlich und vergleichbar Intels Versuche, Tic Tic Tic Centrino und Ringbus bis in alle Ewigkeiten zu pushen. Die Geschichte kennen wir. Das kleine dumme AMD zeigte denen den Stinkefinger. Wenig Aufwand in der Entwicklung, für viel viel Geld auf ewig etabliert, weil es genug versnobte Dummköpfe und ewig Verbohrte gibt, die immer den gleichen Bullshit in Foren labern. Da Nvidia schon mitgeteilt hat, dass man an der Architektur kaum was ändern will, sondern diese weiter künstlich aufpumpem ist die nächste Fermigen eigentlich faktisch angekündigt, inklusive neuer Stecker und und und.
Umherheulen, um es mal in deinem Jargon auszudrücken tust nur du, weil man dein geliebtes Nvidia dafür zu Recht kritisiert. Das Ganze auf Basis proprietäre Technologien wobei man sich zum Versuchskaninchen degradiert fühlt, mit Update Klappe die zigste.:rolleyes:
Die sollen erstmal Stabilität in den Markt bringen, indem man ausreichend derzeitige Varianten und Gens produzieren lässt, sie zu annehmbaren Preisen irgendwo nahe der UVP im Markt anbietet!
Marktführer lächerlich. Lügen und betrügen passt wohl eher!
Liszca
2022-03-15, 00:58:26
... Man sollte jetzt endlich die Kriterien für die Leistungsaufnahme in der EU und weltweit beschränken, ...
Ein Kriterium für eine Sonderbesteuerung wäre denkbar einfach, wenns kein ECC hat darfs nicht mehr als 150 Watt verbrauchen. :D
Wir wissen weder über NVidias noch AMDs kommende Generation alles, also bringt es doch nichts, sich jetzt schon aufzuregen.
Und wenn die Effizienz steigt und der Verbrauch steigt, muss damit auch zwangsweise die Leistung massiv steigen. Ich kann mir nicht vorstellen, dass weder AMD noch NVidia Karten auf den Markt bringen, die unter 180W verbrauchen. Irgend ein 150W Kärtchen oder vielleicht auch 100W Kärtchen sollte schon mit dabei sein, und die sind dann immer noch schnell genug (da effizienter als aktuelle Karten).
Also wartet doch erst mal den Launch der Dinger ab, dann kann man doch früh genug und vor allem mit fundiertem Wissen über AMD und NVidia schimpfen...
Legendenkiller
2022-03-15, 08:28:27
Es wird nur das gebaut was man den Leuten andrehen kann.
Solange es Leute gibt den der Stomverbarauch egal ist, im Sinne nur Jammern aber trotzdem kaufen, geht das so weiter.
Erst wenn Grafikkarte wegen zu hohen Verbrauch Ladenhüter werden wird es ein umdenken geben. Oder es technischeinfach nicht mehr händelbar ist, wenn ich da mal so auf die aktuellen 400W GRakas schau gibt es da ja durchaus jetzt schon Probleme.
PS: mein Limit liegt bei 150W ... alles was mehr braucht, ist keine Kaufoption mehr für mich.
Die 4090/4080 sind mir eh zu teuer, ich gebe nicht über 1000€ für ne GRafikakrte aus.
GerryB
2022-03-15, 09:02:10
Die Grakakühler werden sicher interessant bei 600W+ für Enthusiast-Customs.
120+100+120 endlich mal 25er mit richtig Druck?
alternativ
Die 360er AiO´s sollten dann auch mit vernünftigen Lüftern bestückt werden.
(Wer Platz für PP hat ist natürlich im Vorteil und kanns auch leiser.)
WedgeAntilles
2022-03-15, 10:17:56
Dein Nvidia Lobgehudel langweilt auch, woher willst du deiner Argumentation nach denn wissen was eine 4700 verbraucht? Können ja gut und gerne 400W sein,
Können natürlich auch 800 Watt sein, klar.
Loben tue ich Nvidia in diesem Thread überhaupt nicht - ich stelle nur fest, dass wir noch keinerlei Daten haben was die neuen Karten brauchen wirklich brauchen werden.
Keine Ahnung wo ich das tun soll, deine Sprachkompetenz reicht wohl für Textverständnis nicht aus.
Und dass jemand, dem der Stromverbrauch angeblich so wichtig ist, dann eine 6900 kaufen will ist nunmal ein Witz. Eine 6900 ist keine stromsparende Grafikkarte, auch wenn die 3090 noch mehr verbraucht.
Das dich diese Differenzierungen geistig überfordern, überrascht mich natürlich nicht.
WedgeAntilles
2022-03-15, 10:23:42
arte wegen zu hohen Verbrauch Ladenhüter werden wird es ein umdenken geben. Oder es technischeinfach nicht mehr händelbar ist, wenn ich da mal so auf die aktuellen 400W GRakas schau gibt es da ja durchaus jetzt schon Probleme.
.
Da sind wir evt. sehr viel früher als man glaubt.
Schon bei der 3090 gab es ja viele Probleme. Ob die jetzt mit Stromverbrauch zu tun haben? Keine Ahnung - es würde mich aber nicht überraschen.
Zumindest kann ich mir nicht vorstellen, dass mehr Stromverbrauch die Problematik verbessert.
Daher würde ich persönlich mir auch nie GraKas kaufen die noch mehr Strom ziehen - die potentiellen Probleme steigen ja immer weiter an.
Wegen Abwärme ist für mich ca. 250 Watt das Ziel. 300 ist mir schon zu hoch.
Das Problem an dieser News ist der PCI Sig Standard 5.0 und der Vergleich mit alten Steckern (High Powerr Connector) bzw. der Fudpresse drum herum (Igorslab usw.).
Der Stecker liefert 450w nicht 600. 4x9,5A bei 12v (<11,8)! Inklusive PCIe dann wohl 525w und damit ist nicht die TPG gemeint, sondern Peak ohne Abschaltung.
Er ermöglich 4x12v Rails in einem Layout zu vereinen, was die Stabilität deutlich erhöhen dürfte (Ressourcenverteilung). Es sagt nicht aus, wieviel eine Karte unter Last dauerhaft aufnimmt. 600w sind es definitiv nicht. ZU vermuten sind es sind weniger als unter Ampere.
Der Stecker liefert 450w nicht 600.
Die 3080ti Custom haben teilweise 3x8Pin PEG, diese liegen bei 150w pro Buchse lt. Spezifikation und können elektrisch 283w übertragen, einer von denen. Stimmt schon keine Karte nimmt knapp 900w.
Sogesehen wären es dann die drei 8PIN in einem Stecker nach Standard vereint. Pinanzahl ist physisch die gleiche, wobei die 3x8=6x12v liefern könnten?
Dann geht es lediglich um Platzersparnis?
FarCry
2022-03-15, 16:57:53
Mit dem Nonsense erübrigt sich Diskussion.
Mal schauen, was in ein paar Jahren davon wirklich wahr ist.
Vor 10 Jahren konnte man sich auch nicht ausmalen, dass mal 600W erreicht werden. Bald ist es das neue normal.
Und wenn es soweit ist, darfst du dann gerne meinen "Nonsense" nochmals herausholen und dir übers Bett nageln.
FarCry
2022-03-15, 17:03:39
Dein Nvidia Lobgehudel langweilt auch, woher willst du deiner Argumentation nach denn wissen was eine 4700 verbraucht? Können ja gut und gerne 400W sein, wenn die 4900, 600 davon verpulvert, Peak vlt. sogar 800 bis 900. Oder glaubst du eine 4700 legt dann nur 10% zu? Eine 3070ti haut doch jetzt schon 250 bis 275 locker raus. Die wird so viel verpulvern wie eine 3080/3090 Customs und die liegen bei bis zu 470W, alle real über 300. Nvidia scheint den Verstand verloren zu haben, gab ja genug die argumentiert haben von nix kommt nix. Kann mich an diesen Bullshit bei Amperelaunch noch erinnern, nun bekommt ihr wie bestellt diesen Müll präsentiert. Aber bei NVidia ist das ja alles kein Problem, alles easy. Lol AMD Vega diese Luftpumpe. Was für eine Doppelmoral!
Nochmal: diesen Schrott kann Nvidia behalten. Das passt in keinen derzeit existierenden Formfaktor für Gamer und kann dort leise gekühlt werden. Bretter mit überteuerten Komponenten und Bigcoolern die dazu dienen die Preise in den Himmel zu jubeln, in einem Formfaktor wie ein Mauerstein, immer mehr Aufwand für Leistungsschübe die keine sind. Ähnlich und vergleichbar Intels Versuche, Tic Tic Tic Centrino und Ringbus bis in alle Ewigkeiten zu pushen. Die Geschichte kennen wir. Das kleine dumme AMD zeigte denen den Stinkefinger. Wenig Aufwand in der Entwicklung, für viel viel Geld auf ewig etabliert, weil es genug versnobte Dummköpfe und ewig Verbohrte gibt, die immer den gleichen Bullshit in Foren labern. Da Nvidia schon mitgeteilt hat, dass man an der Architektur kaum was ändern will, sondern diese weiter künstlich aufpumpem ist die nächste Fermigen eigentlich faktisch angekündigt, inklusive neuer Stecker und und und.
Umherheulen, um es mal in deinem Jargon auszudrücken tust nur du, weil man dein geliebtes Nvidia dafür zu Recht kritisiert. Das Ganze auf Basis proprietäre Technologien wobei man sich zum Versuchskaninchen degradiert fühlt, mit Update Klappe die zigste.:rolleyes:
Die sollen erstmal Stabilität in den Markt bringen, indem man ausreichend derzeitige Varianten und Gens produzieren lässt, sie zu annehmbaren Preisen irgendwo nahe der UVP im Markt anbietet!
Marktführer lächerlich. Lügen und betrügen passt wohl eher!
Ganz genau so isses, vielen Dank, ich hätts nicht besser schreiben können.
Jedes Wort ein Treffer.
Von der Gegenseite kommt halt nur dieses "Heul-BösesNVidia-WenigstensIstDeinNameProgramm"-Gesülze rüber. Wenn überhaupt.
Aber gut, passt halt auch zu einem NV-Fanboy.
FarCry
2022-03-15, 17:10:25
Und dass jemand, dem der Stromverbrauch angeblich so wichtig ist, dann eine 6900 kaufen will ist nunmal ein Witz. Eine 6900 ist keine stromsparende Grafikkarte, auch wenn die 3090 noch mehr verbraucht.
Wo soll da der Witz sein?
Wo habe ich erwähnt, dass die 6900 ein Stromsparwunder ist?
Ich habe lediglich gesagt, dass für mich bei ca. 300W Schluss ist.
Und da sowohl die nächste Gen von AMD als auch NV deutlich darüber liegen werden, ist RDNA3/Ada für mich keine Option mehr.
Bleibt für mich also nur noch die 6800/6900 als moderne GK mit ~300W, denn bevor ich Intel/NV kaufe trinke ich lieber ein Glas Rotze.
Anderen fehlendes Textverständnis vorwerfen aber selbst kaum was auf die Reihe kriegen. Diese Leute habe ich gerne.
Platos
2022-03-15, 20:09:43
Denkst du jetzt ernthaft, es wird keine Grafikkarte unterhalb bis 300W geben in der nächsten Gen? Also jetzt ernsthaft?
Vlt. würde es manchen gut tun, sich daran zu erinnern, dass es in keinster Weise bekannt ist und nur Gerüchte sind. Die wechseln bei Lovelace und RDNA 3 ja mittlerweile fast so schnell wie Unterhosen. Vor allem sind sie vage. Niemand weiss, ob das Peak ist oder durchschnitt oder schlicht nur die maximale Stromversorgung durch die Pins. Es könnte auch sein, dass dass sich das auf nur Hopper bezieht.
Alles nicht bekannt.
Mal schauen, was in ein paar Jahren davon wirklich wahr ist.
Vor 10 Jahren konnte man sich auch nicht ausmalen, dass mal 600W erreicht werden. Bald ist es das neue normal.
Und wenn es soweit ist, darfst du dann gerne meinen "Nonsense" nochmals herausholen und dir übers Bett nageln.Wohl kaum. Du schreibst dich, wie man so sagt, um Kopf um Kragen.
U.a. ist 295X2 zwar erst 8 Jahre her, aber 2030 auch nur noch 8 hin.
6KW-Karten im Gaming-PC sind aus verschiedensten Gründen absurd.
Ich sehe aber noch weit mehr als 600W pro Karte im entsprechenden Marktsegment.
Sogesehen wären es dann die drei 8PIN in einem Stecker nach Standard vereint. Pinanzahl ist physisch die gleiche, wobei die 3x8=6x12v liefern könnten?
Dann geht es lediglich um Platzersparnis?
Genau, wobei der 12VHPW bis zu 684w liefern kann. Das nur, wenn auch die Sensepins (die 4 darunter) mit dem Netzteil verbunden sind, die GPU und das Netzteil miteinander über diese Pins kommunizieren können, und die Resscource frei ist (Powerbuget und gefordert wird, als Art Peak). Es gibt nur noch diesen Stecker bei neuen GPUs (nach PCIe 5.0 Standard). Daher davon auszugehen, dass die Karten auch 600w verbrauchen (was auch noch falsch ist, der Wert liegt höher) ist reichlich dumm. Eine Fudnews sonders gleichen. Natürlich wird die 4090 den PCIe 5.0 Standard erfüllen.
Ansonsten liefert der Stecker 450w, wie die "alten" 3x8 die man schon bei Turing, Ampere und RDNA2 zu Hauf sieht, was auch den Partnern für Customs genug Spielraum läßt. Es bveibt also alles beim Alten - ergo keine Superduperstromschleudern von Nvidia für Gamer. Der Post bezieht sich eher darauf, dass die neue Gen schon PCIe 5.0 unterstützt - was viel wichtiger ist als den Stromverbrauch in Wattage damit untermauern zu wollen. Das bringt ja viele andere Neuerungen mit, siehe Bandbreite als Beispiel.
Also selbst von Leo als Newsgeber viel zu kurz gedacht!
Leonidas
2022-03-16, 02:12:27
Möglich, das wir das mit dem Stecker allesamt noch falsch auslegen.
Möglich, das wir das mit dem Stecker allesamt noch falsch auslegen.Eigentlich nicht. Stecke da keine Energue rein (die deutsche 'Fachjournalie' scheinbar auch nicht), aber Gast hat den relevanten Teil des aktuellen Wissensstands imho exakt beschrieben.
Ohne Datenleitungen 450, sonst 600.
684 ist Summe der Einzelwerte - wohl möglich, aber nicht erlaubt.
Kann man die Signalisierung überbrücken? Wird es NTs mit weniger als 450 als Maximum auf dem 12VHP geben? Wenn 450W ohne 4pin konform ist, müssten alles andere die Pins haben.
Leonidas
2022-03-16, 10:22:06
Die Frage ist eher, ob jemand wirklich bis 600W TDP geht, wenn der Stecker für maximal 600W ausgelegt ist. Normalerweise läßt man sich da eine gewisse Reserve. Und wegen 30W mehr einen zweiten Stecker verbauen zu müssen, wäre auch doof.
WedgeAntilles
2022-03-16, 11:17:06
Wo soll da der Witz sein?
Wo habe ich erwähnt, dass die 6900 ein Stromsparwunder ist?
Ich habe lediglich gesagt, dass für mich bei ca. 300W Schluss ist.
Und da sowohl die nächste Gen von AMD als auch NV deutlich darüber liegen werden, ist RDNA3/Ada für mich keine Option mehr.
Bleibt für mich also nur noch die 6800/6900 als moderne GK mit ~300W, denn bevor ich Intel/NV kaufe trinke ich lieber ein Glas Rotze.
Anderen fehlendes Textverständnis vorwerfen aber selbst kaum was auf die Reihe kriegen. Diese Leute habe ich gerne.
Darauf hat dir Platos ja schon geantwortet.
"Denkst du jetzt ernthaft, es wird keine Grafikkarte unterhalb bis 300W geben in der nächsten Gen? Also jetzt ernsthaft? "
Ich bin an dieser Stelle auch raus, das ist doch reinstes Trolling was du hier betreibst.
Jedenfalls hoffe ich das.
Das ist immer noch besser als wenn du ernsthaft glaubst, es gäbe in Zukunft nix mehr unter 300W.
Die Frage ist eher, ob jemand wirklich bis 600W TDP geht, wenn der Stecker für maximal 600W ausgelegt ist.
Keine Ahnung, welche Peaks die Norm erlaubt. Interessiert mich nicht, da ich solche Karten weder einsetzen, noch empfehlen werde - überlasse ich anderen. Der 8pol-PEG verträgt bekanntlich weit mehr als 150. Und wie unterschiedlich/eng Limits interpretiert/umgesetzt werden, weiss man nicht erst seit dem AMD-Desaster mit uu viel Strom aus Slot.
Hauptsächlich will ich darauf hinweisen, dass aktuell viel gelabert statt fundiert berichtet wird. U.a. hat Giga gerade erst nochmal 850W Verbrauch plakativ benutzt, obwohl andere sich schon sicher sind, dass es um NT-Anforderung oder kurze Peaks geht.
Die Frage ist eher, ob jemand wirklich bis 600W TDP geht.
Nein Leo, die PCI Sig sieht folgendes vor:
Intital Permits 12HPWR
375w
225w
150w
100w
Max Sustain (Sense - Software) 12HPWR
600w
450w
300w
150w
Die Berichterstattung darürber ist eine riesige Farce (mal wieder von Igorslab in die Welt gesetzt), die Stecker sehen alle gleich aus. Logischer Weise soll es nur ein Anschlussternimal/Buchsen usw. geben, max elek. Belastung der Verbindung liegt bei 684w, wie bereits geschrieben. Es geht doch in eine völlig andere Richtung, die Peaks werden reduziert weil der Stecker nicht mehr als 684 zulässt. Die PCI Sig hat es bei 600 gedeckelt, aber daran halten muss man sich nicht, wenn man das Logo nicht verwenden will.
Die 4090 kann also mit dem Stecker bei gut und gerne 375w initial liegen, Peaks bei 600, das ist weniger als bei Ampere! Allein am Stecker erkennt man das aber nicht!!!!
Dann müsste Kopite7kimi Zugriff auf die finale Biosversion haben und das glaube ich nicht (ist derzeit komplett auszuschließen). Vermutlich hat er auf einem Engineersample diesen Stecker gesehen und schließt daraus, dass es 600w werden, dass ist aber völlig unsinnig. Wie gesagt mechanisch sind die Stecker gleich ausgelegt, unterteilen sich aber in unterschiedliche Leistungsklassen (woa). Was darüber bisher berichtet wird, ist FUD.
Nvidia wäre dumm, zu sagen die volle Leistung kann man nur über max sustain erreichen, das ist grober Unfug. Die Karten werden avg. daher NICHT auf 600w ausgelegt sein! Das ist einfache Logik.
Leonidas
2022-03-16, 15:18:07
Danke für die Erklärung!
WedgeAntilles
2022-03-16, 19:24:34
Das ist einfache Logik.
Interessante Informationen, danke für den Post.
Hoffentlich behälst du recht :)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.