PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Erster TimeSpy-Wert zeigt GeForce RTX 4090 um +86% schneller als ...


Leonidas
2022-07-19, 11:36:23
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-erster-timespy-wert-zeigt-geforce-rtx-4090-um-86-schneller-als-geforce-rtx-3090

Gast
2022-07-19, 11:58:42
Ernüchterung, von wegen 2,5 fache Performance - Blahblah. War ja klar. Raytracing dann 30% schneller. Das bei 450-600Watt lachhaft. Prügel mal eine 3090 so hoch, mal sehen wie der Vorsprung dann noch aussieht.

Gast
2022-07-19, 12:04:38
...eine OC 3090ti max OC LN liegt bei 14700, ähnliche Verbrauchsdwerte 450-550Watt..., schwach! 25-30% schneller, lächerlich. Und das bei + zwei Fertigungsverfahren und dem Gehype um 2,5 fache Performance. Der nächste Hypetrain knallt voll gegen die Wand. Jetzt wissen wir auch warum Nvidia darauf einprügelt als gäbe es kein Morgen mehr.

Gast
2022-07-19, 12:10:11
https://tunlog.com/rtx-4090-angeblich-30-schneller-in-timespy-extreme-vs-ln2-rtx-3090-ti/

Hier wird es übrigens bestätigt...30%, ist das lachhaft für den Aufwand den man betreibt, da zeigt sich einfach das bei monolithischen Dices die Luft raus ist.

Was bitte ist daran positiv für die Preise die Nvidia dafür aufrufen wird, nichts! Deine Schätzung lag mal wieder meilenweit im Nirvana, vor Monaten wurde das schon angezweifelt.

Leonidas
2022-07-19, 12:14:45
Thema Mehrperformance:
Das 2,5fache war das obere Ende der Skala. Die genaue Prognose lautete auf "ca. 1,9-2,5fache". Und das war bevor die (relativ) niedrigen Taktraten der 4090 bekanntgewesen sind. Die aktualisierte Prognose war dann "ca. 1,8-2,3fache". Bitte bei den Fakten bleiben.

Thema LN2:
Vergleichen wir heute Luftkühlung gegen LN2? Oder holen wir uns auch von RTX4090 die LN2-Werte?

Gast
2022-07-19, 12:18:22
Nett, aber angesichts der schon geleakten Infos unspannend und unspektakulär.
Selbst bei kaum erhöhtem Listenpreis werden 0% der Gamer das Ding kaufen (gerundet). Zum Glück für Nvidia, wird die Zielgruppe nicht auf Ti warten.

Gast
2022-07-19, 12:32:05
@Leonidas
Es ging darum, bei vergleichsweiser Leistungsaufnahme, gestern und heute zu vergleichen, das muss erlaubt sein. Rechne mal den Takt raus (Taktbereinigt), was dann noch übrig bleibt. 71% mehr Shader resultieren dann in 86% Mehrleistung, das ist nichts, beim Überspringen von zumindest einem Fertigungsverfahren - wo bleibt da der Fortschritt?

Was du machst ist mal wieder Cherrypicking, 2,5 Fache Performance sag ich da nur! LOL. Ich habe es dir vor Monaten schon geschrieben!

Höhere Takt, mehr Einheiten, überarbeitetes Speicherinterface, das lässt du alles drin und ist i.O., aber bei ähnlichen Verbräcuhen (Leistungsaufnahme resultiert ja bei euch neuerlich in mehr Leistung), alt und neu vergleichen darf man nicht. Die IPC ist gleich NULL. Ada ist ein aufgeblasener Ampere mehr nicht. Die Größe der Dices und gestiegene Anzahl an Einheiten braucht höhere Spannungen, damit sie auch überall ankommt. Genau das resultiert in verrückten Verbräuchen. Singledice ist am Ende. Bis Nvidia das kapiert vergehen wahrscheinlich noch Jahre. So lange behindern sie die Entwicklung dahingehend weiter, wie immer.

Das Ergebnis ist gerechnet auf Aufwand den sie betreiben und den Preisen die sie verlangen, einfach schwach! Als wenn man will das AMD aufholt. Da kannst du soviel umherblubbern wie du willst. Sry.

Wieviel Mühe du dir mal wieder gibst, um das bei Nvidia positiv aussehen zu lassen können wir lesen! Bin gespannt wie dann deine Offerte gegen AMD ausfällt.

BlacKi
2022-07-19, 12:34:03
Ernüchterung, von wegen 2,5 fache Performance - Blahblah. War ja klar. Raytracing dann 30% schneller. Das bei 450-600Watt lachhaft. Prügel mal eine 3090 so hoch, mal sehen wie der Vorsprung dann noch aussieht.leicht unter einer 3090ti. eine stock 3090 mit 350w lliegt zwischen 9000 und 9600 punkten, damit ist die 4090(ja mit 100w mehr verbrauch) exakt 2x schneller also die 3090.


und eine 4090ti (oder titan)(mit bis zu 800w)wird wohl wirklich 2,5x schneller als eine 3090. die leaks stammen aus der zeit, in der die 3090ti noch nicht auf dem markt war.


von daher stimmen die werte bisher noch alle. natürlich könnten die 19000+ TSE werte auch fake sein.

Gast
2022-07-19, 12:37:54
Leo 1,8x bis 2,3x wären 21060 bis 26910 unter Luft. Einfach mal den Kopf benutzen! Wir sehen 19000! Das ist 1,6x.

Kriegsgeier
2022-07-19, 12:39:22
All diese Leistungsangaben sind relativ nutzlos solange der Preis + Verfügbarkeit nicht bekannt sind!

+70% mehr Leistung bei 100 Watt mehr Verlustleistung für 1499$ UVP würde ich sehr willkommen heißen.
Das Gleiche für 1999$ UVP wäre bei weitem nicht so attraktiv

Gast
2022-07-19, 12:40:06
Er ging von 11700 aus, da stimmt rechnerisch gar nichts. Bitte nicht schön reden, sondern einfach mal Matheausgaben machen. genau deshalb habe ich das schon vor Monaten angezweifelt, zu Recht! Wir liegen bei 1,6x.

BlacKi
2022-07-19, 12:40:55
Leo 1,8x bis 2,3x wären 21060 bis 26910 unter Luft. Einfach mal den Kopf benutzen! Wir sehen 19000! Das ist 1,6x.
ist es nicht.

Leonidas
2022-07-19, 12:41:18
Leo 1,8x bis 2,3x wären 21060 bis 26910 unter Luft. Einfach mal den Kopf benutzen! Wir sehen 19000! Das ist 1,6x.

Nada. Die 1,8-2,3fach waren immer ggü der 3090, nicht der 3090Ti. Ergo Rahmen von 18'383-23'489 Punkten.

Bitte Kritik so, dass sie inhaltlich korrekt ist. Kritik-würdig sind die "bis zu 2,3fachen" von mir. Aber die Untergrenze habe ich eingehalten, da muss man dann schon genau lesen.

Gast
2022-07-19, 12:45:52
...eine OC 3090ti max OC LN liegt bei 14700, ähnliche Verbrauchsdwerte 450-550Watt..., schwach! 25-30% schneller, lächerlich. Und das bei + zwei Fertigungsverfahren und dem Gehype um 2,5 fache Performance. Der nächste Hypetrain knallt voll gegen die Wand. Jetzt wissen wir auch warum Nvidia darauf einprügelt als gäbe es kein Morgen mehr.
Mit LN gekühlte Halbleiter verbrauchen deutlich weniger, da generell die Leckströme mit sinkender Temperatur abnehmen. Daher sind solche Vergleich sinnlos.

Gast
2022-07-19, 12:45:55
Der Score ist >19000 nicht 19000!

Alles zwischen 19001 und undendlich ist möglich ;)

Kriegsgeier
2022-07-19, 12:48:22
nicht streiten Jungs, wie gesagt, alles fällt und steht mit dem Preis...

Sollte der 5nm-Prozess bei TSMC wesentlich teurer für NVIDIA rauskommen als geplant so wird der Mehrpreis natürlich mit Aufschlag an den Kunden weitergegeben...

Und wenn wir Pech haben steht der Etherium in 2-3 Monaten bei über 4000 USD
Dann fängt die "Schei..e" wieder von vorne an.

Somit gilt für die 4090 die 1 Millionen Frage: 1499 USD oder 1999 USD oder gar 2399 USD?

Gast
2022-07-19, 12:52:32
@Leonidas
Boah seit ihr Grün! Einfach mal lesen was man selbst schreibt=3090 FE=ü10000!

Stinknormale Partnerkarten erreichen unter Luft mehr, weil sie ein höheren PL mitbringen. Und schon hast du es in der Tabelle nur noch auf 1,8x bis 2,0x abgeändert, was interessiert mich der Sch*iss den gestern gelabert habe...

Niemand weiß ob es überhaut eine 4090ti gibt! Der nächste NICHT existierende Spoiler/Hypetrain.

Gast
2022-07-19, 13:01:13
Mit LN gekühlte Halbleiter verbrauchen deutlich weniger, da generell die Leckströme mit sinkender Temperatur abnehmen. Daher sind solche Vergleich sinnlos.
Witz komm raus, du bist umzingelt. Die Höhe der "Leckströme" haben mit der Betriebstemperatur nichts zu tun, sondern sie sind bei steigender Temperatur ein Indiz für ihre Höhe. Sondern mit dem verwendeten Material und der Qualität des Fertigungsverfahren. LN gekühlte Karten verbrauchen deutlich mehr, weil die dauerhafte Haltbarkeit im Moment des Tests egal ist.

Ein komplett eingefrorener Chip kann auch durch Leckströme beschädigt werden. Die Höhe der Temperatur ist eher ein Grad für andere Materialen, wie dem Lot, das sich verflüssigen würde. Und deshalb kühlt man das bspw. runter.

Gast
2022-07-19, 13:04:55
https://www.3dmark.com/hall-of-fame-2/timespy+3dmark+score+extreme+preset/version+1.0/1+gpu

Echt schwach von NVidia wenn die Karte wirklich bis zu 600w braucht.

Leonidas
2022-07-19, 13:06:11
@Leonidas
Boah seit ihr Grün! Einfach mal lesen was man selbst schreibt=3090 FE=ü10000!

Ist das zu viel oder zu wenig? Weil ich habe sowohl niedrigere als auch höhere Werte gesehen.




Und schon hast du es in der Tabelle nur noch auf 1,8x bis 2,0x abgeändert, was interessiert mich der Sch*iss den gestern gelabert habe...

Wegen der Änderung steht extra eine Notiz dran. Die älteren Artikel wurden keineswegs geändert, jeder kann jederzeit nachschlagen, was ich früher geschrieben habe. Und ich habe sogar EXPLIZIT SELBER auf diese früheren Performance-Prognosen hingewiesen.

Ergo: Kritisiere bitte die zu hoch frühere Performance-Prognose. Dazu hast Du jedes Recht. Aber unterstelle mir bitte nicht, ich würde irgendwas vertuschen oder so tun, als hätte ich es schon immer die neue Prognose vertreten. Es war genau das Gegenteil der Fall.




Niemand weiß ob es überhaut eine 4090ti gibt! Der nächste NICHT existierende Spoiler/Hypetrain.

Die 4090Ti wurde im ganzen Beitrag weder direkt noch zwischen den Zeilen erwähnt.




Echt schwach von NVidia wenn die Karte wirklich bis zu 600w braucht.

Die 4090 soll (wie auch merhrfach erwähnt) bei 450W TDP liegen. Andere AD102-basierten Karten können auf 600W herauskommen, nicht aber die 4090.

BlacKi
2022-07-19, 13:09:10
Witz komm raus, du bist umzingelt. Die Höhe der "Leckströme" haben mit der Betriebstemperatur nichts zu tun, sondern sie sind bei steigender Temperatur ein Indiz für ihre Höhe. Sondern mit dem verwendeten Material und der Qualität des Fertigungsverfahren. LN gekühlte Karten verbrauchen deutlich mehr, weil die dauerhafte Haltbarkeit im Moment des Tests egal ist.

Ein komplett eingefrorener Chip kann auch durch Leckströme beschädigt werden. Die Höhe der Temperatur ist eher ein Grad für andere Materialen, wie dem Lot, das sich verflüssigen würde. Und deshalb kühlt man das bspw. runter.
das ist nicht richtig. bei silizium sinkt der widerstand bei zunehmender hitze. d.h. es fließen mehr ampere. deshalb steigt der verbrauch bei steigender temperatur. eine 300w grafikkarte brauch 30w weniger bei selber taktrate wenn man sie um 30° senken kann. zb. mit wakü. eine karte unterln2 hat bei selber taktrate wohl nur noch den halben verbrauch, braucht weniger spannung, oder kann diese reserve in mehr takt setzen. deshalb sind ln2 karten gegen luft überhaupt nicht vergleichbar.

Gast
2022-07-19, 13:16:01
Nada. Die 1,8-2,3fach waren immer ggü der 3090, nicht der 3090Ti. Ergo Rahmen von 18'383-23'489 Punkten.
Liegt ja genau bei deiner Vorhersage. Weiß daher nicht, warum da jetzt gemeckert wird. Ob der Wert jetzt gut oder schlecht ist, ob die Karte und der Aufwand gerechtfertigt sind, das ist natürlich was Anderes. Aber generell finde ich deine Prognose bisher gut treffend. Natürlich ist das nur ein Wert, der sagt noch nicht viel aus.
Wie das Ganze dann in Games aussieht, steht auf einem anderen Blatt (CPU Limit, Effizienz-Verluste und so), Benchmarks sind für mich immer nur die halbe Wahrheit. Und wie gut die Karte dann ist, wird sich zeigen, wenn AMD's Konter da ist. Ich bin gespannt, ob man wirklich so viel effizienter als AMD sein wird, weil man ja angeblich so massive Fertigungsnachteile bei Ampere hat.

Gast
2022-07-19, 13:19:13
Das bei 450-600Watt lachhaft. Prügel mal eine 3090 so hoch, mal sehen wie der Vorsprung dann noch aussieht.

Gibt es schon, nennt sich 3090Ti, und wie weit diese vor der 3090 liegt ist ja hinlänglich bekannt.

Gast
2022-07-19, 13:20:02
Nicht wie erwartet. Hatte mehr gehofft.

N4nm
1GHz mehr Takt
100 bis 200w mehr
riesiges Die mit mehr Einheiten
schnellerer Speicher

Irgendwas bremst da. Mal wieder komplett fürs Mining entwickelt, wie es scheint. Gerade da ist hoher Verbrauch wichtig, weil ein Angreifer die gleiche Energiemenge aufbringen müsste, wie das Netzwerk. Desto mehr also und so sicherer. Also dieser Miningquatsch setzt NV mächtig zu.

Denke mal die RmDinger sind kaum noch zu kühlen und rennen bei jedem Furz ins Limit. Erinnert an Vega und die waren auch nur fürs Mining gut. Saufen wie ein Loch.

Gast
2022-07-19, 13:22:53
...eine OC 3090ti max OC LN liegt bei 14700, ähnliche Verbrauchsdwerte 450-550Watt..., schwach! 25-30% schneller, lächerlich.

Eine luftgekühlte mit einer LN2 gekühlten zu vergleichen ist lächerlich.

Alleine mit Wasser sinkt der Verbrauch signifikant, bzw. umgekehrt sind bei selbem Powerlimit deutlich höhere Taktraten möglich. LN2 senkt den Verbrauch bei konstantem Takt extrem.

Gast
2022-07-19, 13:24:57
Sieht so aus als wolle Nv das wir alle noch Ampere kaufen, nach unten hin fällt der Leistungszuwachs dann noch schlechter aus bei ähnlichem Verbrauch, 4080-4070. Kann man auch eine 3080 oder 3090 kaufen. Mit 12g haste man dbn gegenüber der 4070 mehr Speicher. Das wird die Absicht sein, man hat zu viele ga102 Auflage und tritt auf die Bremse.

Die guten Dies werden selektiert und dann später im Ada Refresh verwüstet. 4070ti,4080ti,4090ti.

Gast
2022-07-19, 13:30:21
Haha, jetzt wird hier ernsthaft gemeckert, weils nicht die (maximale) Perfomance von Gerüchten erreicht ?

Wie naiv... Wir naiv muss man sein, um sich Generation für Generation immer wieder so dermassen von Gerüchten leiten zu lassen xD

Ihr tut so, als ob nvidia ihre Behauptungen nicht einhalten würde.

Ich verrate euch ein Geheimnis: Bei den ersten AMD Leaks wird das Selbe passieren ;)

bschicht86
2022-07-19, 13:32:34
Interessant wäre, wieviel Einfluss der L2-Cache am "Leistungssprung" hat, den man von AMD kopiert hat.

BlacKi
2022-07-19, 13:34:53
Nicht wie erwartet. Hatte mehr gehofft.

N4nm
1GHz mehr Takt
100 bis 200w mehr
riesiges Die mit mehr Einheiten
schnellerer Speicher

Irgendwas bremst da. Mal wieder komplett fürs Mining entwickelt, wie es scheint. Gerade da ist hoher Verbrauch wichtig, weil ein Angreifer die gleiche Energiemenge aufbringen müsste, wie das Netzwerk. Desto mehr also und so sicherer. Also dieser Miningquatsch setzt NV mächtig zu.

Denke mal die RmDinger sind kaum noch zu kühlen und rennen bei jedem Furz ins Limit. Erinnert an Vega und die waren auch nur fürs Mining gut. Saufen wie ein Loch.
da die speicherbandbreite fast garnicht steigt, wird die karte kaum schneller als eine 3090, und auch nur dasselbe verbrauchen. ausserdem endet ethereum mining bald. und bitcoin kann man damit eh nicht ernsthaft schürfen.

madshi
2022-07-19, 13:37:02
Weiß nicht genau, aber war die obere Grenze von 2,3x oder 2,5x nicht ursprünglich gedacht gewesen für eine nahe dem Vollausbau liegende AD102 GPU? Die 4090 ist ja nun deutlich kastriert in Sachen SMs und dazu noch handzahm in den Taktraten. Da ist doch klar, daß nicht das volle Potential des AD102 bei heraus kommt.

Aus meiner Sicht ist ein Ergebnis von 1,8x für eine auf 450 Watt betriebene 4090 durchaus positiv, im Vergleich zu einer auf 350 Watt betriebenen 3090 - wenn denn die "> 19000" bei 450 Watt gemessen wurden. Wenn ich das richtig rechne, wäre 1,8x eine Effizienzsteigerung (Leistung pro Watt) von 40%, wenn man den Verbrauchsunterschied (350W vs 450W mit einrechnet). kopite7kimi redet ja von > 19000, das genaue Ergebnis wissen wir also noch nicht. Und RedGamingTech sagt im neusten Video, daß er persönlich noch spürbar höhere Zahlen als 19000 gehört hat.

Dazu kommt, daß bei Raytracing die Steigerung nochmal deutlich höher liegen sollte. Wieviel genau, wird sich sicher von Spiel und Spiel unterscheiden, aber da würde ich erstmal abwarten. Wenn wir Raytracing mit einbeziehen, könnte der Faktor im Durchschnitt durchaus über 2,0x liegen, bei "nur" 28.5% mehr Stromverbrauch. Da kann man wirklich nicht meckern, finde ich.

Interessant wird natürlich die Preisgestaltung!!

Leonidas
2022-07-19, 13:40:10
RayTracing unter Control hier (leider mit DLSS vermischt, soll AD102 im Vollausbau und viel TDP sein):
https://twitter.com/harukaze5719/status/1549336470204207104

https://pbs.twimg.com/media/FYBZRl8VUAAJ4NF?format=jpg

Gast
2022-07-19, 13:41:41
Es ging wohl um gleiche Leistungsaufnahme im Vergleich und wieviel dann übrig bleibt, weil in letzter Zeit viel mit der gestiegenen Leistungsaufnahme erkauft wird.

Nvidia geht also zu Turing, FP+INT oder FP zurück, nicht mehr FP+FP+INT. Das hinterlässt Spuren. Der Takt ist auch sehr niedrig, denke der Shitstorm zu den Verbrauchswerten ist angekommen. 600w will halt keiner oder nur der geringste Teil.

Das könnte ein Kopf an Kopfrennen mit AMD Navi31 werden. Wahrscheinlich weil Nvidia den riesigen Markt auch nicht mehr allein beliefern kann. Das zeigen die letzten zwei Jahre gut auf. Lieber weniger verkaufen, etwas teurer - aber immer lieferbar. Macht ja auch Sinn. Also ich bin kein 4090 Käufer und nach unten hin wird der Leistungszuwachs merklich abnehmen. Siehe ADA103->ADA102->ADA104.

Denke mal für den einen oder anderen ist das zu wenig. Die werden nicht wechseln, oder man kann jetzt sogar noch GA102 kaufen.

Gast
2022-07-19, 13:48:51
Warum genau kann ich nicht sagen, aber wenn die GPU statt der 95-110 Grad via Wakü auf 35-40 Grad gekühlt wird sinkt der Stromverbrauch erheblich. Bei meiner 1080 waren das etwa 20% bei gleichem Takt. Auf dem 180W Powerlimit geht sie auf 1950-2000 Mhz, das ist schon einiges an Spielraum. Wird bei den aktuellen Karten nicht anders sein, und mit nochmal 40 Grad weniger ist der Effekt vermutlich noch stärker.
Die Haltbarkeit mal außen vor gelassen, lassen sich die Ergebnisse bei unterschiedlicher Kühlung selbst beim Bestand schlecht vergleichen. Niemand kann sicher sagen ob das Ergebnis überhaupt echt ist, unter welchen Umständen es entstanden ist, und wie die Chips der neuen Generation bei unterschiedlichen Temperaturlagen laufen.

vinacis_vivids
2022-07-19, 13:51:25
Leonidas wieder einmal mit einen Griff ins Klo. Das gleiche gilt für die große Masse der grünen Schar im Forum.

Gerade mal 79-86% Mehrperformance beim zusätzlichen Cache, zusätzlicher Takt und mehrere Sprünge bei der Fertigungsnode ist insgesamt einfach schwach bzw. schlecht.

Die Ausführungseinheiten haben sich prinzipiell nicht verbessert und die Auslastung bleibt insgesamt unterdurchschnittlich.

Vermutlich schlucken die Zusatzeinheiten für RT und DLSS zuviel Fläche, so dass die Verbesserung beim Rasterizing insgesamt nicht mehr skalieren kann.

Gast
2022-07-19, 13:55:02
RayTracing unter Control hier (leider mit DLSS vermischt, soll AD102 im Vollausbau und viel TDP sein):
Eine 3080ti schafft 105fps bei Luft (4k+RT+DLSS-Q), da schrumpft der Vorsprung dann weiter zusammen. Wenn das die 4090ti im Fullsize ist, dann gute Nacht (sind nur noch 55% zur 3080ti wohlgemerkt, 3090 und 3090ti sind etwas schneller), und die 4090 fällt einfach zu handzahm aus. Vielleicht fallen ja Preise merklicher.

Ex3cut3r
2022-07-19, 13:55:11
Ich finds geil. Auch wenn ich nix kaufen werde.

BlacKi
2022-07-19, 13:55:54
Gerade mal 79-86% Mehrperformance
das ist nicht richtig.

M4xw0lf
2022-07-19, 14:00:21
Was für eine sinnlose Diskussion um Prognosen, die noch nicht Mal komplett daneben liegen. Für eine pi mal Daumen Schätzung alles andere als verkehrt.

Nazar
2022-07-19, 14:34:31
Es sollte klar sein, dass die TS Benchmark-Werte in Spielen im Verhältnis geringer ausfallen werden.
Die 3090 war in TS fast 49% schneller als die 2080 Ti aber in Spielen waren es dann im eher 30-35%.
Es scheint sich wieder genau in dieselbe Richtung zu entwickeln, wie beim Sprung zu Ampere.
Erst war es der Faktor 1.8, dann 1.7 und mit jeder Woche wurde der Faktor kleiner (zur Ti), bis dann nV die Katze aus dem Sack ließ und der Faktor gar nicht zur Ti galt, sondern zu 2080 (ohne Ti).
Ich hatte es schon mal geschrieben; ich vermute, dass die 450 Watt GPU bei maximal Faktor 1.7 herauskommen wird. Und wenn es richtig mies läuft, dann sogar nur bei 1.5. Alles darüber wird wohl viel mehr Verlustleistung benötigen, und diesen "Joker" behält nV noch in der Hinterhand.
Der Faktor Treiber war bei nV noch nie so groß, dass sie ähnlich viel darüber herausholen konnten, wie AMD. Weshalb sich nicht darauf verlassen sollte da Sprünge jenseits der 5% Mehrperformance zu erwarten.

Korvaun
2022-07-19, 14:34:41
Ich finde es ja erstaunlich das Leute bei normaler Rasterizer Grafik ernsthaft noch enorme Effizienzsprünge pro Shader erwarten.. irgendwann ist das Teil halt mal ausoptimiert, seit wie vielen Generationen stitzt nV da jetzt dran?

Gast
2022-07-19, 14:44:04
das ist nicht richtig. bei silizium sinkt der widerstand bei zunehmender hitze. d.h. es fließen mehr ampere. deshalb steigt der verbrauch bei steigender temperatur. eine 300w grafikkarte brauch 30w weniger bei selber taktrate wenn man sie um 30° senken kann. zb. mit wakü. eine karte unterln2 hat bei selber taktrate wohl nur noch den halben verbrauch, braucht weniger spannung, oder kann diese reserve in mehr takt setzen. deshalb sind ln2 karten gegen luft überhaupt nicht vergleichbar.
Hat mit der Temperatur wie geschrieben wurde nichts zu tun. Das Silizium kann viel mehr vertragen. Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur. Leckströme erzeugen einen höheren Widerstand, der die Verlustleistung erhöht und zugleich mehr Wärme erzeugt, weil eine GPU nun mal alle aufgenommene Energie in Wärme umwandelt ist das ein limitierender Faktor. Logischerweise kann eine GPU dann mehr Verlustleistung erzeugen, wenn sie kühler ist um nicht ins thermische Limit zu rennen und darum ging es auch, es ging um vergleichbare Leistungszuwächse bei gleicher Verlustleistung (TDP 450w+), 3090 versus 4090. Die Temperatur kann dabei ein limitierender Faktor sein.

Es kommt also bei verwendeter Sperrschicht vor allem auf die VCore an, bei der diese nicht überwunden werden kann, ohne die Verlustleistung durch zusätzliche Leckströme und resultierend daraus zusätzliche Wärme, erheblich zu beeinflussen, um dabei aufgenommene Energie, also elektrische Leistung in dem speziellen Fall in FPS umzuwandeln. Das Transistorpowermanagement wird dabei von einem internen Asic überwacht. Die Logik kann dann die Energiezufuhr in Einzelbereichen abschalten. Da liegt die 3090 sicherlich unter dem Niveau einer 4090, siehe TSMC versus Samsung. Dann bleibt einem nichts weiter, als die 3090 besser zu kühlen, um die IPC bei gleicher Leistungsaufnahme zu vergleichen. Ein gutes Beispiel auch von Asicgüte her wäre die 3090ti. Da hat Lovelace anscheinend kaum was hinzugewonnen. Ansonsten hilft es noch die Spannungen und oder den Takt auf ein gleiches Niveau zu senken. Ich halte ADA in dem Fall nicht für besonders gelungen. Nvidia macht einfach mit ihrem dedizierten Müll weiter, von unified sind die weit entfernt. Das heißt sie blasen die dedizierten Einheiten weiter auf. Die Leistungszuwächse sind dabei proportional zu den Einheitenzuwächsen, damit steigt aber auch die Verlustleistung im gleichen Verhältnis an. Hier schient Nvidia die 4090 dabei deutlich herunter zu takten. Dürfte reichlich Ausschuss dabei sein, was sie derzeit produzieren, wobei sie dann viel mehr verwerten können und teuer vermarkten. AD102...

Was die IPC angeht, ist das eher ein Wert, der im Bereich von CPUs angesiedelt ist. Aber eine höher getaktete CPU, oder eben auch GPU hat immer eine höhere IPC. Hier sollte sie bei gleicher Leistungsaufnahme verglichen werden. IPC ist dabei etwas unglücklich gewählt, aber ein von der Frequenz abhängiger Wert (Leistung pro Takt, man kann es auch auf GPUs anwenden wenn man meint). Wenn man diesen bei ADA runterbrechen würde, z.B. auf die Werte der 3090 bei gleichem Takt (FE Referenz), sähe der Leistungszuwachs noch schlechter aus. Daher wollte der Autor die 3090 über die machbare Leistungsaufnahme vergleichen +100w und mehr (Peak). Dann muss die 3090 besser gekühlt werden. Was dann möglich ist wurde aufgezeigt, 14600-14700 Points im Timespy Extreme mit einer 3090ti unter LN. Dann gehen die x1,8 oder x2,3 eben nicht auf. Die 3090 genehmigt sich nun mal 100w weniger. Nvidia erkauft viel über die Leistungsaufnahme seit Generationen. Vielleicht würde die 3090 dann bei gleicher Frequenz sogar genauso viel schaffen oder viel näher dran sein als viele glauben.

Da gibt es natürlich viele Limits, wie eben auch die Leckströme die dabei entstehen können, denn höherer Takt bedeutet auch höhere Spannung und mehr Wärme. Der logische Zusammenhang ist nicht verkehrt. Bei ADA schient sich Nvidia mal wieder übernommen zu haben, oder dessen Insider zu euphorisch berichtet und sich zigmal korrigiert, was die Versprechungen im Vergleich zur Vorgängerversion angeht, mehr Leistung generieren. Was Besonderes scheint es nicht zu werden. Die übliche Kost, über zwei Fertigungsverfahren hinweg zu erwarten. Also mal wieder kein Verdienst von Nvidia selbst, sondern eher TSMC.

Prinzenrolle
2022-07-19, 14:45:41
AMD kriegt mal so richtig einen auf den Deckel, geil.
Hoffentlich dämmt das dann mal das ewig unsachliche Genöle gegen Nvidia ein.

Lehdro
2022-07-19, 14:47:57
Wenn die ~80% dann auch im realen Leben ankommen (sprich: Games und mit der 4090 als kaufbares Produkt) ist das okay. Bleibt nur noch das große Fragezeichen hinter dem Preis. Hoffe AMD heizt da ordentlich ein, damit wir das Preisniveau nicht erneut nach oben verschieben müssen...

Prinzenrolle
2022-07-19, 14:48:34
Die 3090 war in TS fast 49% schneller als die 2080 Ti aber in Spielen waren es dann im eher 30-35%.

Im Schnitt sind es heute gute 50%, zu Release 47%.


Ich hatte es schon mal geschrieben; ich vermute, dass die 450 Watt GPU bei maximal Faktor 1.7 herauskommen wird. Und wenn es richtig mies läuft, dann sogar nur bei 1.5. Alles darüber wird wohl viel mehr Verlustleistung benötigen, und diesen "Joker" behält nV noch in der Hinterhand.

In welcher Welt wären Faktor 1,7, also 70% mehr Effizienz schlecht?:rolleyes:
Wie viel brachten vorherige Generationen so?

Freestaler
2022-07-19, 14:48:35
Was für eine sinnlose Diskussion um Prognosen, die noch nicht Mal komplett daneben liegen. Für eine pi mal Daumen Schätzung alles andere als verkehrt.
*Daumen hoch*

Gast
2022-07-19, 14:49:06
Amüsant, was für Müll manche als 'Argumente' verwenden.
Ich bin sicher kein NVidia-Fan, aber es ist einfach albern, was hier abgeht.

Korrekt und bedauerlich ist, dass die geschürten Erwartungen nicht erfüllt werden. Das liegt aber zum Teil daran, dass diese auf fehlerhafter Interpretation präsentierter Leaks basieren.

Ich persönlich habe auch mehr erwartet. Aber spätestens seit 450W war klar, dass da Luft nach oben bleibt.

Nazar
2022-07-19, 14:49:56
Ist denn überhaupt die Verlustleistung beim Erreichen des Wertes bekannt?
Es ist mal wieder alles sehr ungenau, und deshalb vermute ich eher, dass dieser Wert nicht mit einer Verlustleistung von "nur" 450Watt erreicht wurde.
Immer lässt der Kerl alle wichtigen Informationen aus, scheint von nV bezahlt zu werden. :freak:

@Prinzenrolle
Kommt da noch Inhalt? Ah, Ferien... na dann. :wink:

Im Schnitt sind es heute gute 50%, zu Release 47%.



In welcher Welt wären Faktor 1,7, also 70% mehr Effizienz schlecht?:rolleyes:
Wie viel brachten vorherige Generationen so?

Einfach mal den Zusammenhang erlesen. ;)
Spekulation in diesem Forum immer sehr positiv, wenn es um nV geht.
Es werden Gerüchte gestreut, dass nV die Leistung "locker" um den Faktor 2.5 -2.8 erhöhen könnte, sogar der Faktor 3.0 stand im Raum. Nicht der Meldung wurde hinterfragt. Ganz im Gegenteil. Ja, das sei so möglich, wurde hier sogar posaunt.
Dann gingen die Werte wieder nach unten, als sich die Nutzer über die spekulierte Verlustleistung mokierten. Sofort gab es Gerüchte, dass es doch keine 600-900 Watt seien, sondern "nur" 450Watt. Überhaupt kein Gedanke wurde dann daran verschwendet, dass damit dann eigentlich auch die Leistungsprognose geringer sein müsste.
Erst als diese Diskussion dazu in anderen Foren entfacht wurde und hochkochte, wurde die Leistungsprognose vom "Kimi" langsam aber sicher heruntergefahren, ohne aber je die Faktoren dafür zu benennen.
Wir waren dann beim Faktor 2.0 - 2.5 angekommen, passte nur nicht zur neuen Verlustleistung. Jetzt sind wir bei zirka 1.7 angekommen, was gut ins Gesamtbild passt, wenn man die vorherigen Prognosen zusammenfasst und logisch auswertet.
900 Watt = 2.3
600 Watt = 2.0 (vermutlich TS Extreme Benchmark)
450 Watt = 1.7
Mir geht es nicht darum, ob der Wert für 1.7 nun gut oder schlecht ist, sondern wie "unterwürfig" und fast "gläubig" mit den geleakten Daten, wenn sie nV betreffe, umgegangen wird. Es wird, ganz im Gegenteil zum AMD, nie wirklich kritisch hinterfragt. Und selbst wenn sich dann die Datenlage negativ verändert, wird alles immer noch extrem positiv hingestellt.
Ich vermisse hier einfach eine gesunde Objektivität, anstatt dieses Anbeten von nV.

Zu den Daten von einer 2080 Ti und einer 3090.
Ich weiß nicht wo du deine Daten herhast aber ich besitze beide Karten und die 3090 ist im Durchschnitt !!nicht!! 50% schneller in Spielen, als meine 2080 Ti. Sie ist im Durchschnitt nur 35% schneller. Erst wenn der VRAM limitiert, zeigt sich die "Stärke" der 3090 und sie zieht davon.
Und nochmal: TimeSpy != Spieleleistung

Gast
2022-07-19, 15:05:19
In welcher Welt wären Faktor 1,7, also 70% mehr Effizienz schlecht?:rolleyes:
Wieso denn Effizienz?, die kennen wir noch nicht! Angenommen werden 450w, bei deutlich niedrigerem Takt als angenommen.

Übrigens 2,2 bis 2,5 (Boost) die hier schon andeutet wurden. Das entspräche dem Fertigungsprozess in 5nm. AMD soll bei knapp 3GHz liegen! Wäre schon mit RDNA2 möglich gewesen.

Ich kann meinen Post bzgl. der Taktrate gerne raussuchen, die zweifelte Leonidas ziemlich an. Das eine 4090ti dann bei 2,8 liegt und mehr, sowie bei gleicher Effizienz heraus kommt, ist komplett unglaubhaft.

basix
2022-07-19, 15:22:07
Hat mit der Temperatur wie geschrieben wurde nichts zu tun. Das Silizium kann viel mehr vertragen. Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur. Leckströme erzeugen einen höheren Widerstand, der die Verlustleistung erhöht und zugleich mehr Wärme erzeugt, weil eine GPU nun mal alle aufgenommene Energie in Wärme umwandelt ist das ein limitierender Faktor. Logischerweise kann eine GPU dann mehr Verlustleistung erzeugen, wenn sie kühler ist um nicht ins thermische Limit zu rennen und darum ging es auch, es ging um vergleichbare Leistungszuwächse bei gleicher Verlustleistung (TDP 450w+), 3090 versus 4090. Die Temperatur kann dabei ein limitierender Faktor sein.

Es kommt also bei verwendeter Sperrschicht vor allem auf die VCore an, bei der diese nicht überwunden werden kann, ohne die Verlustleistung durch zusätzliche Leckströme und resultierend daraus zusätzliche Wärme, erheblich zu beeinflussen, um dabei aufgenommene Energie, also elektrische Leistung in dem speziellen Fall in FPS umzuwandeln. Das Transistorpowermanagement wird dabei von einem internen Asic überwacht. Die Logik kann dann die Energiezufuhr in Einzelbereichen abschalten. Da liegt die 3090 sicherlich unter dem Niveau einer 4090, siehe TSMC versus Samsung. Dann bleibt einem nichts weiter, als die 3090 besser zu kühlen, um die IPC bei gleicher Leistungsaufnahme zu vergleichen. Ein gutes Beispiel auch von Asicgüte her wäre die 3090ti. Da hat Lovelace anscheinend kaum was hinzugewonnen. Ansonsten hilft es noch die Spannungen und oder den Takt auf ein gleiches Niveau zu senken. Ich halte ADA in dem Fall nicht für besonders gelungen. Nvidia macht einfach mit ihrem dedizierten Müll weiter, von unified sind die weit entfernt. Das heißt sie blasen die dedizierten Einheiten weiter auf. Die Leistungszuwächse sind dabei proportional zu den Einheitenzuwächsen, damit steigt aber auch die Verlustleistung im gleichen Verhältnis an. Hier schient Nvidia die 4090 dabei deutlich herunter zu takten. Dürfte reichlich Ausschuss dabei sein, was sie derzeit produzieren, wobei sie dann viel mehr verwerten können und teuer vermarkten. AD102...

Was die IPC angeht, ist das eher ein Wert, der im Bereich von CPUs angesiedelt ist. Aber eine höher getaktete CPU, oder eben auch GPU hat immer eine höhere IPC. Hier sollte sie bei gleicher Leistungsaufnahme verglichen werden. IPC ist dabei etwas unglücklich gewählt, aber ein von der Frequenz abhängiger Wert (Leistung pro Takt, man kann es auch auf GPUs anwenden wenn man meint). Wenn man diesen bei ADA runterbrechen würde, z.B. auf die Werte der 3090 bei gleichem Takt (FE Referenz), sähe der Leistungszuwachs noch schlechter aus. Daher wollte der Autor die 3090 über die machbare Leistungsaufnahme vergleichen +100w und mehr (Peak). Dann muss die 3090 besser gekühlt werden. Was dann möglich ist wurde aufgezeigt, 14600-14700 Points im Timespy Extreme mit einer 3090ti unter LN. Dann gehen die x1,8 oder x2,3 eben nicht auf. Die 3090 genehmigt sich nun mal 100w weniger. Nvidia erkauft viel über die Leistungsaufnahme seit Generationen. Vielleicht würde die 3090 dann bei gleicher Frequenz sogar genauso viel schaffen oder viel näher dran sein als viele glauben.

Da gibt es natürlich viele Limits, wie eben auch die Leckströme die dabei entstehen können, denn höherer Takt bedeutet auch höhere Spannung und mehr Wärme. Der logische Zusammenhang ist nicht verkehrt. Bei ADA schient sich Nvidia mal wieder übernommen zu haben, oder dessen Insider zu euphorisch berichtet und sich zigmal korrigiert, was die Versprechungen im Vergleich zur Vorgängerversion angeht, mehr Leistung generieren. Was Besonderes scheint es nicht zu werden. Die übliche Kost, über zwei Fertigungsverfahren hinweg zu erwarten. Also mal wieder kein Verdienst von Nvidia selbst, sondern eher TSMC.

In diesem Post steht so viel Blödsinn, dass es sich nichtmal lohnt das im Detail auseinanderzunehmen. Ich wüsste nichteinmal, wo ich anfangen sollte :freak:

Nur um das kurz zu kommentieren:

IPC (Instruction per Clock) hat rein gar nichts mit Energieaufnahme zu tun. Und da es eben per Clock ist, ist der Wert per Definition frequenzunabhängig. Praktischerweise sinkt die IPC aber immer(!) leicht mit steigenden Chip-Taktraten, da irgendwann Bandbreiten und/oder Latenzen zu limitieren beginnen. Gab eine schöne Folie dazu bei Release von RDNA2 und dessen Infinity Cache. Und was hier CPUs zu suchen haben ist mir ebenfalls schleierhaft.
Kühlere Silizium-Chips haben immer(!) eine geringere Leistungsaufnahme. Referenz: Physik. Und Leckströme sind ganz klar temperaturabhängig. Gäbe zig Artikel und Links dazu, auch mit LN2 gekühlten Karten, hier aber mal allgemeiner Wikipedia-Artikel zum Thema Leckstrom, 1. Absatz: Die Höhe des Leckstroms ist Temperaturabhängig https://de.wikipedia.org/wiki/Leckstrom
Ja, höhere Spannungen erhöhen die Leckströme ebenfalls. Und dazu die dynamische Verlustleistung. Temperaturabhängig ist es dennoch, sogar sehr stark.
LN2 vs. Stock Karte irgendwelche Performance- und insbesondere Leistungsaufnahme-Vergleiche anzustellen ist völlig sinnfrei (genau wegen der grossen Temperaturabhängigkeit bei Leistungsaufnahme sowie V-f Kurve). Und daraus dann irgendwelche Chip-Qualitäten abzuleiten ebenfalls. Du kannst eine 3090 Ti mit 450W luftgekühlt mit AD102 @ 450W vergleichen. Alles andere ist sinnlos. Und selbst dieser Vergleich ist suboptimal, da eine 3090 Ti am Limit des Chips operiert.

Gast
2022-07-19, 15:26:42
900 Watt = 2.3
600 Watt = 2.0 (vermutlich TS Extreme Benchmark)
450 Watt = 1.7

Und nochmal: TimeSpy != Spieleleistung
This!

Leo setzt zuviel auf Kimi und nicht auf seine eigenen Erfahrungswerte im Umgang mit solcherlei Informationen. Sicher ist, eine Prognose bleibt eine Prognose, damit reine Spekulation. Nun ist sie nicht ganz so, wie von einigen erwartet, da geht die Welt nicht unter. Hype hin oder her.

Was mich persönlich stört ist, wenn man schon drauf hinweist (siehe Taktrate 5nm 15% density=2,25 Basis und 2,55 Boost), dass er sowas manchmal komplett ignoriert, wenn es um Nvidia geht. Ist leider feststellbar, er erwartet von denen immer mehr als sie tatsächlich zu leisten im Stande sind. Ich würde da mehr Skepsis erwarten. Man betrügt die Physik nun mal nicht und RDNA2 war, handbereinigt für AMD ein großer Wurf. Damit hatte RDNA viel Ballast verloren. Ob sie nach so einem Wurf, noch eins draufsetzen können, bleibt auch fraglich. Muss man hier ganz klar ansprechen. Letztlich kochen alle nur mit Wasser.

Gast
2022-07-19, 15:48:17
In diesem Post steht so viel Blödsinn, dass es sich nichtmal lohnt das im Detail auseinanderzunehmen. Ich wüsste nichteinmal, wo ich anfangen sollte :freak:

Nur um das kurz zu kommentieren:

IPC (Instruction per Clock) hat rein gar nichts mit Energieaufnahme zu tun. Und da es eben per Clock ist, ist der Wert per Definition frequenzunabhängig. Praktischerweise sinkt die IPC aber immer(!) leicht mit steigenden Chip-Taktraten, da irgendwann Bandbreiten und/oder Latenzen zu limitieren beginnen. Gab eine schöne Folie dazu bei Release von RDNA2 und dessen Infinity Cache. Und was hier CPUs zu suchen haben ist mir ebenfalls schleierhaft.
Kühlere Silizium-Chips haben immer(!) eine geringere Leistungsaufnahme. Referenz: Physik. Und Leckströme sind ganz klar temperaturabhängig. Gäbe zig Artikel und Links dazu, auch mit LN2 gekühlten Karten, hier aber mal allgemeiner Wikipedia-Artikel zum Thema Leckstrom, 1. Absatz: https://de.wikipedia.org/wiki/Leckstrom
Ja, höhere Spannungen erhöhen die Leckströme ebenfalls. Und dazu die dynamische Verlustleistung. Temperaturabhängig ist es dennoch, sogar sehr stark.
LN2 vs. Stock Karte irgendwelche Performance- und insbesondere Leistungsaufnahme-Vergleiche anzustellen ist völlig sinnfrei (genau wegen der grossen Temperaturabhängigkeit bei Leistungsaufnahme sowie V-f Kurve). Und daraus dann irgendwelche Chip-Qualitäten abzuleiten ebenfalls. Du kannst eine 3090 Ti mit 450W luftgekühlt mit AD102 @ 450W vergleichen. Alles andere ist sinnlos. Und selbst dieser Vergleich ist suboptimal, da eine 3090 Ti am Limit des Chips operiert.

Was ist bei dir=ein von der Frequenz abhängiger Wert?, dein Leseverständnis ist gleich NULL.

Eine 3090FE kannst du nicht 450W mit Luft kühlen bei 2,5GHZ Boost. Soviel dazu.

Hohe Asicgüte=hohe Verlustleistung=höhere Leckströme=höhere Spannung, und hoffentlich auch höherer Takt oder Pippielangstrumpfland. Ich erfinde mir die Welt, wie sie mir gefällt.

Mehr schreibe ich dazu nicht, sind wahrlich Ferien. Eine LN gekühlte Karte entfernt oder egalisiert keinerlei höhere Leckströme, die sind nur von der Spannung abhängig und werden auch von dieser beeinflusst. Man kann höhere Spannungen fahren wenn das GPU Design besser gekühlt wird. Hat mit den Leckströmen nichts zu tun und wovon diese abhängig sind, bzw. wodurch sie beeinflusst werden. Kühler, entstehen noch höhere Leckströme und nicht weniger oder werden durch irgendwas egalisiert. Schwachsinn³, Forenparolen.

Eine kühlere GPU läuft später in ihr Templimit und daher kann ich auch höhere Spannungen anlegen, wobei die Leckströme dann bis ins Templimit ansteigen und ein großen Teil der Wärmeentwicklung oder Leistungsaufnahme (steht ja wie erklärt im direkten Zusammenhang) ausmachen können (Widerstand). Ist das ein Kindergarten.

Wenn ich höhere Limits fahren will, 450w = dann muss ich die 3090 besser kühlen, nur dann sehe ich wieviel sie im Vergleich mit der 4090 dann bei gleichem Powerlimit und möglichst hohem Takt, leistet. Es ging um "IPC" Zuwachs bei gleicher Leistungsaufnahme. Kannst ja die 4090 im Takt senken, nur dann bekommt sicher ein Auslastungsproblem ähnlich wie bei der 3090.

Ich geh dann mal, mir ist das zu bl*d hier.

Gast
2022-07-19, 15:56:51
Ich wüsste nichteinmal, wo ich anfangen sollte :freak:

Bei dir auch nicht, angefangen bei Rechtschreibung und Grammatik...

Der Takt ist nicht abhängig von der Energieaufnahme? Man schreibst Du dir einen Quatsch zusammen und machst einen auf Oberlehrer! Du taktest bei 3.0 GHz unter Last mit einem Watt? LOL!!! Das steht im direkten Zusammenhang.

BlacKi
2022-07-19, 16:00:07
Wenn die ~80% dann auch im realen Leben ankommen (sprich: Games und mit der 4090 als kaufbares Produkt) ist das okay. Bleibt nur noch das große Fragezeichen hinter dem Preis. Hoffe AMD heizt da ordentlich ein, damit wir das Preisniveau nicht erneut nach oben verschieben müssen...
klar, in fhd vl

wohlgemerkt hatte die 2080ti fe einen tdp vorteil gegenüber den referenzmodellen.
https://abload.de/img/screenshot2022-07-19azjkc2.png

Gast11
2022-07-19, 16:03:10
Fakt ist, es wurde mal wieder auf Basis irgendwelcher Spekulationen die als Insidernews verkauft werden, viel zu euphorisch erwartbare Werte als Infos geleakt, die nun kaum erreichbar erscheinen. Der Takt der 4090 ist deutlich niedriger als vorher angenommen. Dabei wurde sich mehrfach selbstkorrigiert, um nicht angreifbar zu erscheinen. Leider endet heutzutage immer alles in einen Shitstorn oder Forenkontroversen, wie gerade jetzt wieder. Da bin ich raus.

wolik
2022-07-19, 16:05:52
2080 und 3090 könnten kaum übertaktet werden (10% wenn überhaupt).
Was ich gelesen habe, dass 4090 untertaktet ist, um die 450 Watt Grenze einzuhalten.
Für mich bedeutet das, dass bei 600 Watt 20-25% mehr Tackt möglich ist.
So. Jetzt habe ich die Kaffeetasse beiseite gestellt.

Leonidas
2022-07-19, 16:19:50
900 Watt = 2.3
600 Watt = 2.0 (vermutlich TS Extreme Benchmark)
450 Watt = 1.7

Also ich schätze ja Dein Posting und Dein Bemühen, hier Klarheit reinzubringen. Aber im vorstehend zitierten Detail liegst Du falsch. Der TSE-Wert ist von einer 4090, also bei 450W. Wenn Kopite was zu einer 600W-Lösung sagen wollte, würde er das auch spezifisch kundtun.

etp_inxession
2022-07-19, 16:34:14
Bis zum Release wird sich noch so viel ändern.

Für mich sieht es aber so aus, als würde AMD im Top End nicht mithalten können/wollen.
Dafür aber sparsamer bleiben und mit MCM Design.

Reizt beides aktuell gar nicht.

Karten mit Verbrauch >300 Watt kommen bei mir eh nicht rein.

DSD512
2022-07-19, 16:35:51
Alles steht und fällt mit dem Preis.

Die Hoffnungen mancher, weil wir eine Rezession haben,
dass NV auf einmal katholisch wird und sich erbarmt den Preis unter 2000.- anzusetzen.

Amüsant und verfehlter Blick auf die Realität.

BlacKi
2022-07-19, 16:41:38
ich hab keine ahnung wo die 4090 preislich stehen wird. 1499$? 2499$? vermutlich irgendwas dazwischen. wenn sie auf ihren kapazitäten nicht sitzen bleiben wollen, dann würde ich 1499$ ansetzen^^

ChaosTM
2022-07-19, 16:44:43
2080 und 3090 könnten kaum übertaktet werden (10% wenn überhaupt).
Was ich gelesen habe, dass 4090 untertaktet ist, um die 450 Watt Grenze einzuhalten.
Für mich bedeutet das, dass bei 600 Watt 20-25% mehr Tackt möglich ist.
So. Jetzt habe ich die Kaffeetasse beiseite gestellt.


ich tippe da eher auf ~10-15% Mehrleistung so wie bei der 3090ti. Gesetz vom abnehmenden Grenzertrag.
Reicht auch für einen Refresh + ein paar Shader mehr hat man dann 20%.

Meridian12
2022-07-19, 16:56:08
Alles steht und fällt mit dem Preis.

Die Hoffnungen mancher, weil wir eine Rezession haben,
dass NV auf einmal katholisch wird und sich erbarmt den Preis unter 2000.- anzusetzen.

Amüsant und verfehlter Blick auf die Realität.

Da die Miner wegfallen, dürfte der Markt für eine 2000 Euro Karte eher gering ausfallen.

Zudem dann die 4080 ja mindestens 1200 Euro+ kosten müsste um den Aufpreis zur 4090 nicht zur Farce werden zu lassen.

Denn doppelter Preis (zB 1000 zu 2000 Euro) bei 30% mehr Speed und mehr Stromverbrauch kaufen dann wirklich nur eine sehr geringe Minderheit.

Complicated
2022-07-19, 17:13:01
Nach langer Zeit habe ich mal wieder die Kommentare zu einem "Twitter-Leaks"-Artikel durchgelesen und beschlossen weiterhin alle Artikel mit Geizhals- und "Twitter-Leaks"-Inhalten zu ignorieren, da völlige Zeitverschwendung sich damit zu befassen.

Null Erkenntnisse und ein Haufen unsinniger Kommentare, die man gerade rücken muss.
@basix - übrigens Danke dafür und das sachlich bleiben dabei.

bbott
2022-07-19, 17:52:53
Damit kommt die Performance wohl rein über Takt und Einheiten. IPC Verbesserungen, wie einige gehofft hatten, von 20-40% scheint es nicht zu geben.
Ich bin auf Tests mit gleicher TDP und/ oder gleichem Takt gespannt. Von den ~70% kommen alleine ~30% von mehr TDP und das bei einem Chip der ziemlich im Sweetspot liegt vs. geprügeltem Chip. Das sieht dann für die kleinen ADs dann nicht allzu gut aus.

BlacKi
2022-07-19, 18:45:20
die 3090 hat keine prügeltaktraten. in TSE geht der takt unter 1,7ghz und auch ada taktet da nicht am limit, wenn man keine ipc fortschritte unterstellt, wird der takt bei 2,5ghz liegen. ad103 wird allerdings wenn den 420w tdp stimmen wohl wirklich am taktlimit laufen.

MD_Enigma
2022-07-19, 20:08:28
Was für eine sinnlose Diskussion um Prognosen, die noch nicht Mal komplett daneben liegen. Für eine pi mal Daumen Schätzung alles andere als verkehrt.

Eben. Jungs. Das sind Gerüchte, keine Fakten. Was steigert ihr euch da so rein? Danke Leonidas für das Update, bin gespannt wie sich das weiter entwickelt.

Gast
2022-07-19, 20:27:28
Hat mit der Temperatur wie geschrieben wurde nichts zu tun. Das Silizium kann viel mehr vertragen. Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur.
Das ist halt einfach falsch. Halbleiter verändern wie fast jedes leitende Material mit der Temperatur den Widerstand. Und wenn nun die Temperatur steigt, sinkt der Widerstand, was den Stromfluss einfach erhöht (bei konstanter Spannung). Entsprechend steigen eben die Leckströme bei steigender Temperatur. Das erhöht entsprechend die Abwärme.

Gast
2022-07-19, 20:41:19
Im Schnitt sind es heute gute 50%, zu Release 47%.
Bei Computerbase sind es in 4K nur 45%, bei niedrigeren Auflösungen wird es dann nur deutlich weniger (28% in FHD). Insofern ist der Einwand durchaus nachvollziehbar.
In welcher Welt wären Faktor 1,7, also 70% mehr Effizienz schlecht?:rolleyes:
Wie viel brachten vorherige Generationen so?
Es sind aber keine 70%, da von der 3090 ausgegangen wird. Die hat 350W. Es bleibt trotzdem eine deutliche Effizienzsteigerung von gut 30%. Aber eben keine 70%.

Gast
2022-07-19, 20:54:37
Ist schon echt erschreckend, was hier abgeht. Es gibt Gerüchte(!) und schon sehen die einen den Untergang von NVidia und die anderen den Untergang von AMD. Es sind Gerüchte, mehr nicht! Und die Gerüchte liegen durchaus in einem erwartbaren Rahmen und AMD muss es erst mal besser machen.

Blase
2022-07-19, 21:06:45
Denn doppelter Preis (zB 1000 zu 2000 Euro) bei 30% mehr Speed und mehr Stromverbrauch kaufen dann wirklich nur eine sehr geringe Minderheit.

Du hast die 3080 und 3090 noch auf dem Schirm diesbezüglich, ja...?! ;)

Ansonsten - es macht echt keinen Spaß sich durch solche oder ähnliche Themen zu lesen. "Team Rot" gegen "Team Grün" :rolleyes:. Was hier für eine Scheiße erzählt wird und mit welchem "Ton" hier manch einer einsteigt... Leute, habt ihr ein Leben auch außerhalb eurer Bubble?

Naja, selbst wenn wir nun am unteren Rand der Spekulationen, bzw. Erwartungen spazieren, ist das immer noch ein sehr großer Leistungssprung. Mir persönlich völlig Schnuppe, ob der Verbrauch nun um 100 Watt steigt. Das ist ne Karte für Enthusiasten! Wem das zu hoch oder die Karte generell zu teuer ist (beides selbstverständlich völlig legitime Punkte), für den dürfte nVidia und auch AMD Alternativen im kommenden Portfolio haben. Kein Grund hier wieder die Mistgabeln raus zu holen.

Es steht und fällt mit dem Preis. Bin mir aber ziemlich sicher, dass wir unterhalb von 2k bleiben werden. Wie viel "da drunter" wird sich zeigen...

MfG Blase

ChaosTM
2022-07-19, 21:56:42
Beim Dickschiff erwarte ich 1990.
4080er um 1000-1400, je nach Abstand.
Im absoluten High End Bereich sitzt das Börserl mittlerweile sehr locker, daher kann man das verlangen.
Hängt natürlich auch stark von der Mining Situation ab, wenn die neue Generation aufschlägt.

Add.: der Abstand von AMD spielt da natürlich auch mit hinein, aber sollten deren Karten auch schnell sein, werden die eher mitziehen, als einen "Preiskampf" anfangen. Wie viel Altbestand noch da sein wird ist natürlich auch relevant.

Blase
2022-07-19, 22:01:01
Mit der 4090 magst du Recht behalten, auch wenn ich eher in Richtung 1700 bis 1800 glaube. Aber die 4080 wäre imho zu hoch angesetzt - letztlich sogar deutlich zu hoch. Eine XX80 für bis zu 1400€? Eine Verdopplung zur Vorgängergeneration? Da fehlt mir die Phantasie. Ich lehne mich mal aus dem Fenster und sage, die 4080 bleibt (hoffentlich "klar") dreistellig...

MfG Blase

ChaosTM
2022-07-19, 22:09:28
1400 ist zu hoch, ja, da müsste sie punkto Leistung sehr nahe kommen, was aber nicht zu erwarten ist.
Unter 1000 wäre schön, aber ich kann nicht ganz dran glauben. Wenn dann sehr knapp..

ChaosTM
2022-07-19, 22:18:51
Die 4080er ist nicht Highend und sauf weniger :D
In 4 Fäden den gleichen blödfug gepostet.

Blase
2022-07-19, 22:21:25
Letztlich wissen wir so einiges nicht - bis wir es wirklich wissen. Soll sagen, dass wir hier ohnehin nur fleißig weiter spekulieren können. Zwar mit stetig besserer Datenlage von "Tag zu Tag", aber am Ende fehlt zur vollständigen Betrachtung eh der Preis. Und den erfahren wir wenn nVidia die Karten vorstellt. Also fasten your seatbelt, Getränke kalt stellen und weiter raten :tongue:

Ich hau mal einfach raus:

4090 für 1.699€
4080 für 799€
4070 für 599€

Mal sehen wer am Ende am nahestehen dran ist :freak:

MfG Blase

hq-hq
2022-07-19, 22:30:49
Hat mit der Temperatur wie geschrieben wurde nichts zu tun. Das Silizium kann viel mehr vertragen. Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur. Leckströme erzeugen einen höheren Widerstand, der die Verlustleistung erhöht und zugleich mehr Wärme erzeugt, weil eine GPU nun mal alle aufgenommene Energie in Wärme umwandelt ist das ein limitierender Faktor. Logischerweise kann eine GPU dann mehr Verlustleistung erzeugen, wenn sie kühler ist um nicht ins thermische Limit zu rennen und darum ging es auch, es ging um vergleichbare Leistungszuwächse bei gleicher Verlustleistung (TDP 450w+), 3090 versus 4090. Die Temperatur kann dabei ein limitierender Faktor sein.

Es kommt also bei verwendeter Sperrschicht vor allem auf die VCore an, bei der diese nicht überwunden werden kann, ohne die Verlustleistung durch zusätzliche Leckströme und resultierend daraus zusätzliche Wärme, erheblich zu beeinflussen, um dabei aufgenommene Energie, also elektrische Leistung in dem speziellen Fall in FPS umzuwandeln. Das Transistorpowermanagement wird dabei von einem internen Asic überwacht. Die Logik kann dann die Energiezufuhr in Einzelbereichen abschalten. Da liegt die 3090 sicherlich unter dem Niveau einer 4090, siehe TSMC versus Samsung. Dann bleibt einem nichts weiter, als die 3090 besser zu kühlen, um die IPC bei gleicher Leistungsaufnahme zu vergleichen. Ein gutes Beispiel auch von Asicgüte her wäre die 3090ti. Da hat Lovelace anscheinend kaum was hinzugewonnen. Ansonsten hilft es noch die Spannungen und oder den Takt auf ein gleiches Niveau zu senken. Ich halte ADA in dem Fall nicht für besonders gelungen. Nvidia macht einfach mit ihrem dedizierten Müll weiter, von unified sind die weit entfernt. Das heißt sie blasen die dedizierten Einheiten weiter auf. Die Leistungszuwächse sind dabei proportional zu den Einheitenzuwächsen, damit steigt aber auch die Verlustleistung im gleichen Verhältnis an. Hier schient Nvidia die 4090 dabei deutlich herunter zu takten. Dürfte reichlich Ausschuss dabei sein, was sie derzeit produzieren, wobei sie dann viel mehr verwerten können und teuer vermarkten. AD102...

Was die IPC angeht, ist das eher ein Wert, der im Bereich von CPUs angesiedelt ist. Aber eine höher getaktete CPU, oder eben auch GPU hat immer eine höhere IPC. Hier sollte sie bei gleicher Leistungsaufnahme verglichen werden. IPC ist dabei etwas unglücklich gewählt, aber ein von der Frequenz abhängiger Wert (Leistung pro Takt, man kann es auch auf GPUs anwenden wenn man meint). Wenn man diesen bei ADA runterbrechen würde, z.B. auf die Werte der 3090 bei gleichem Takt (FE Referenz), sähe der Leistungszuwachs noch schlechter aus. Daher wollte der Autor die 3090 über die machbare Leistungsaufnahme vergleichen +100w und mehr (Peak). Dann muss die 3090 besser gekühlt werden. Was dann möglich ist wurde aufgezeigt, 14600-14700 Points im Timespy Extreme mit einer 3090ti unter LN. Dann gehen die x1,8 oder x2,3 eben nicht auf. Die 3090 genehmigt sich nun mal 100w weniger. Nvidia erkauft viel über die Leistungsaufnahme seit Generationen. Vielleicht würde die 3090 dann bei gleicher Frequenz sogar genauso viel schaffen oder viel näher dran sein als viele glauben.

Da gibt es natürlich viele Limits, wie eben auch die Leckströme die dabei entstehen können, denn höherer Takt bedeutet auch höhere Spannung und mehr Wärme. Der logische Zusammenhang ist nicht verkehrt. Bei ADA schient sich Nvidia mal wieder übernommen zu haben, oder dessen Insider zu euphorisch berichtet und sich zigmal korrigiert, was die Versprechungen im Vergleich zur Vorgängerversion angeht, mehr Leistung generieren. Was Besonderes scheint es nicht zu werden. Die übliche Kost, über zwei Fertigungsverfahren hinweg zu erwarten. Also mal wieder kein Verdienst von Nvidia selbst, sondern eher TSMC.

ich bin überrascht wie man zu dieser Überzeugung gelangt: "Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur."

wenn du den gleichen Benchmark laufen lässt, die VCore der GPU gleich bleibt, sinkt die Leistungsaufnahme der GPU garantiert wenn sie besser gekühlt wird

das kannst du ganz einfach mit z.B. GPUz aufzeichnen und dich selbst widerlegen

dann "Leckströme erzeugen einen höheren Widerstand, der die Verlustleistung erhöht" musst du bitte näher ausführen, damit man es versteht ^^

und dann gleich angepisst sein, da kannst du soviel schreiben wie du willst, deswegen wirds nicht richtig

Raff
2022-07-19, 22:55:20
Hier ist übrigens eine gut gepflegte 3DMark-Rangliste mit allen Karten auf demselben, schnellen Unterbau als Referenz: https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/

MfG
Raff

Schnitzl
2022-07-19, 22:59:27
Letztlich wissen wir so einiges nicht - bis wir es wirklich wissen. Soll sagen, dass wir hier ohnehin nur fleißig weiter spekulieren können. Zwar mit stetig besserer Datenlage von "Tag zu Tag", aber am Ende fehlt zur vollständigen Betrachtung eh der Preis. Und den erfahren wir wenn nVidia die Karten vorstellt. Also fasten your seatbelt, Getränke kalt stellen und weiter raten :tongue:

Ich hau mal einfach raus:

4090 für 1.699€
4080 für 799€
4070 für 599€

Mal sehen wer am Ende am nahestehen dran ist :freak:

MfG Blase
das wäre noch ... einigermaßen akzeptabel und m.M.n. ein besseres/spürbareres Upgrade zur 3070 als die 4070
Was mich da interessieren würde, ob die bei ~220W (bzw. 200W) noch sinnvoll betrieben werden kann und das Geschwindigkeits-upgrade spürbar ist ...

Ist wohl noch zu früh für solche Gedanken? :D

Blase
2022-07-19, 23:40:51
Es ist nie zu früh, sich auf spekulativer Ebene Gedanken zu machen :freak:

Die 4080 wird gegenüber der 3070 nach aktuellem Kenntnisstand grob eine Verdopplung darstellen. Ob die mit 200 Watt noch sinnvoll betrieben werden kann wird sich zeigen. Aber selbst auf 300 oder auch nur 250 Watt dürfte die Karte der 3070 sehr spürbar und deutlich davon rennen...

MfG Blase

Schnitzl
2022-07-19, 23:45:26
Danke so denke ich auch

muss wohl doch noch ne Klimaanlage her ;D

Gast11
2022-07-20, 02:09:37
das kannst du ganz einfach mit z.B. GPUz aufzeichnen und dich selbst widerlegen
Leckströme steigen wenn, mit der Temperatur UND der Spannung weiter an, ohne bestimmte Nennspannung erzeugst du keine hohe Temperatur, weil es um ELEKTRISCHEN WIDERSTAND geht. Aufgrund hoher Rippelströme ist die Erwärmung bis zu einer bestimmten Betriebstemperatur total wichtig, weil sonst die internen Spannungen extrem ansteigen können. Die Erwärmung ist also erwünscht. Die ESR Kurve (eines Kondensators) zum Beispiel aus Spannung, Temperatur und Frequenz lässt sich mit Veränderung dieser Werte verschieben. Der von euch genannte Leckstrom, in dem Fall auch Ableitstrom genannt, hängt also nicht nur von der TEMPERATUR, sondern auch von der FREQUENZ ab. Hohe Frequenzen erreicht man nur mit hoher NENNSPANNUNG. Daher stehen alle drei im direkten Zusammenhang, wenn man den Wert der Ableitströme nicht zu sehr ansteigen lassen will. Du kannst bei 0,7 Volt gerne die GPU in die Backröhre legen und aufheizen, da passiert gar nichts. Das Ding verträgt gut und gerne 150°C, wenn das vom Hersteller gesetzte Limit nicht schon viel früher erreicht werden würde. Das liegt aber daran, das andere Bauteile dabei in Mitleidenschaft gezogen werden würden. Bei sehr kalter GPU kann die Spannung so extrem ansteigen das es zu einem Defekt kommt, weil der Ableitstrom mit der hohen Nennspannung so stark ansteigt, dass intern etwas beschädigt wird. Der einzelne Satz auf Wikipedia ist kompletter Müll.

Die Hitze wird vor allem durch frequenzbedingte Ladungsverschiebungen erzeugt, wobei der elektrische Widerstand durch das Zusammenstoßen von Elektronen und Atomen zu Stande kommt. Mit geringerer Wärme allein erzeugt man also keine alleinige Absenkung der Ableitströme, denn sie stehen im kausalen Zusammenhang mit der Nennspannung/Betriebsspannung, der daraus resultierenden Frequenz und dem verwendeten Material. Vor allem bei extrem dünnen Siliziumoxidschichten als Gatedielektrikum steigen diese Werte mit höherer Transistordichte weiter an.

Es ist daher unsinnig zu behaupten, der "Leckstrom" sei nur abhängig von der Temperatur, wenn die Temperatur durch andere Faktoren beeinflusst und bestimmt wird. Leckströme treten vor allem bei sehr kleinen Structuren auf und steigen mit den Parametern bei dessen Betrieb weiter an. Temperatur ist dabei eher ein Produkt, als denn ein Wert der die Höhe der Leckströme direkt bestimmt.

Mal wieder der übliche NVidiashitstrom in Foren, wenn man die kritisiert. Man sieht ja, das NVidia damit Probleme haben muss, sonst würde man die Taktrate nicht so niedrig ansetzen. Ansonsten kann das Ding bei der Größe auch bei Teildeaktivierung und im kalten Zustand schon komplett hochgehen. Zeugt nicht unbedingt von hoher Güte und Haltbarkeit. Die brauchen ja immer eine Extrawurst komme was da wolle, ich sage nur N4 Ausschuss. Die "guten" Dinger wandern wieder in Server. Wer also anfänglich Schrott für viel Geld kaufen will, ist da genau richtig.:freak:

Leonidas
2022-07-20, 03:34:30
Ist schon echt erschreckend, was hier abgeht. Es gibt Gerüchte(!) und schon sehen die einen den Untergang von NVidia und die anderen den Untergang von AMD. Es sind Gerüchte, mehr nicht! Und die Gerüchte liegen durchaus in einem erwartbaren Rahmen und AMD muss es erst mal besser machen.

Danke, sehe es ähnlich. Es ist eine (unperfekte) Teil-Information auf dem Weg zum Ziel.



Hier ist übrigens eine gut gepflegte 3DMark-Rangliste mit allen Karten auf demselben, schnellen Unterbau als Referenz: https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/


Jo, die ist toll und hätte ich auch fast als Grundlage für die Vergleiche verwendet. Aber in diesem Fall war es besser, gegenüber konkreten Karten mit klaren Namen zu vergleichen.

GerryB
2022-07-20, 06:19:09
Hier ist übrigens eine gut gepflegte 3DMark-Rangliste mit allen Karten auf demselben, schnellen Unterbau als Referenz: https://www.pcgameshardware.de/3DMark-Software-122260/Specials/Punkte-Tabelle-Time-Spy-Benchmark-1357989/


Die Liste ist hinsichtlich der AMD-Treiber aber net gut "gepflegt".
Nur 1 Monat später sahen die Scores schon ganz anders aus im normalen TS.

Aber da kann man reden wie ein Buch, ... selten werden die Treiber mit hin geschrieben.
Es wäre so einfach bei jeder Graka in (x) ...(xxx) Fußnoten ranzuschreiben, falls die Treiber älter sind.

Legendenkiller
2022-07-20, 08:14:13
Auf jedenfall genug Potential um allen 4090 Käufern mit der 4090ti wiedermal richtig schön zu verarschen.

GerryB
2022-07-20, 08:34:42
Könnte mir vorstellen, das es Wege gibt mit der 4090>450W zu kommen, ... da brauchts dann keine Ti für mehr Schotter.
Hauptsache der PCiE-Slot wird dabei net zu sehr überlastet.

hq-hq
2022-07-20, 09:19:43
Leckströme steigen wenn, mit der Temperatur UND der Spannung weiter an, ohne bestimmte Nennspannung erzeugst du keine hohe Temperatur, weil es um ELEKTRISCHEN WIDERSTAND geht. Aufgrund hoher Rippelströme ist die Erwärmung bis zu einer bestimmten Betriebstemperatur total wichtig, weil sonst die internen Spannungen extrem ansteigen können. Die Erwärmung ist also erwünscht. Die ESR Kurve (eines Kondensators) zum Beispiel aus Spannung, Temperatur und Frequenz lässt sich mit Veränderung dieser Werte verschieben. Der von euch genannte Leckstrom, in dem Fall auch Ableitstrom genannt, hängt also nicht nur von der TEMPERATUR, sondern auch von der FREQUENZ ab. Hohe Frequenzen erreicht man nur mit hoher NENNSPANNUNG. Daher stehen alle drei im direkten Zusammenhang, wenn man den Wert der Ableitströme nicht zu sehr ansteigen lassen will. Du kannst bei 0,7 Volt gerne die GPU in die Backröhre legen und aufheizen, da passiert gar nichts. Das Ding verträgt gut und gerne 150°C, wenn das vom Hersteller gesetzte Limit nicht schon viel früher erreicht werden würde. Das liegt aber daran, das andere Bauteile dabei in Mitleidenschaft gezogen werden würden. Bei sehr kalter GPU kann die Spannung so extrem ansteigen das es zu einem Defekt kommt, weil der Ableitstrom mit der hohen Nennspannung so stark ansteigt, dass intern etwas beschädigt wird. Der einzelne Satz auf Wikipedia ist kompletter Müll.

Die Hitze wird vor allem durch frequenzbedingte Ladungsverschiebungen erzeugt, wobei der elektrische Widerstand durch das Zusammenstoßen von Elektronen und Atomen zu Stande kommt. Mit geringerer Wärme allein erzeugt man also keine alleinige Absenkung der Ableitströme, denn sie stehen im kausalen Zusammenhang mit der Nennspannung/Betriebsspannung, der daraus resultierenden Frequenz und dem verwendeten Material. Vor allem bei extrem dünnen Siliziumoxidschichten als Gatedielektrikum steigen diese Werte mit höherer Transistordichte weiter an.

Es ist daher unsinnig zu behaupten, der "Leckstrom" sei nur abhängig von der Temperatur, wenn die Temperatur durch andere Faktoren beeinflusst und bestimmt wird. Leckströme treten vor allem bei sehr kleinen Structuren auf und steigen mit den Parametern bei dessen Betrieb weiter an. Temperatur ist dabei eher ein Produkt, als denn ein Wert der die Höhe der Leckströme direkt bestimmt.

Mal wieder der übliche NVidiashitstrom in Foren, wenn man die kritisiert. Man sieht ja, das NVidia damit Probleme haben muss, sonst würde man die Taktrate nicht so niedrig ansetzen. Ansonsten kann das Ding bei der Größe auch bei Teildeaktivierung und im kalten Zustand schon komplett hochgehen. Zeugt nicht unbedingt von hoher Güte und Haltbarkeit. Die brauchen ja immer eine Extrawurst komme was da wolle, ich sage nur N4 Ausschuss. Die "guten" Dinger wandern wieder in Server. Wer also anfänglich Schrott für viel Geld kaufen will, ist da genau richtig.:freak:

:biggrin:

hui, also "Es ist daher unsinnig zu behaupten, der "Leckstrom" sei nur abhängig von der Temperatur, wenn die Temperatur durch andere Faktoren beeinflusst und bestimmt wird."

hat ja niemand behauptet aber

"Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur."

möchtest du dann so stehen lassen ja :freak:

is a Schmarrn weisst du ja selbst, du kannst Takt und VCore fixieren und trotzdem sinkt die Verlustleistung der GPU wenn die Temperatur sinkt, wie wärs wenn du genau diesen Effekt erklärst :smile:

und hey, großes Ego ist voll toll

wenn die 4090 ähnlich viel kostet wie die 3090 würde ich sie wahrscheinlich kaufen und bei Zeiten wieder auf Wasser umbauen (wie die 2080Ti Strix und die 3090FE; auch weil die Karten nur 3 Jahre Garantie haben und ersetzt werden sollen)

Blase
2022-07-20, 10:16:17
Auf jedenfall genug Potential um allen 4090 Käufern mit der 4090ti wiedermal richtig schön zu verarschen.

Hier mögen mal bitte alle XX80 / XX90 Käufer die Hand heben, die sich von der später erscheinenden XX80Ti bzw. XX90Ti verarscht vorgekommen sind. Würde mich nicht wundern, wenn niemand die Hand hebt...

... warum auch? Die "Ti" kommt in aller Regel sehr viel später - oftmals sogar ziemlich dicht an der Nachfolgegeneration (siehe 3090Ti) und kostet dafür auch nochmals ne ganze Stange mehr - bei eher zu vernachlässigender "Mehrperformance".

Also als XX90 Käufer gehöre ich zu den ersten, die die neue Generation in den Händen halten und zocke wahrscheinlich schon über ein Jahr mit der Karte, bevor eine Ti erscheint. Aber statt nochmals deutlich tiefer in die Tasche greifen zu müssen, für einen idR. lächerliches Plus an Performance, warte ich einfach noch ein paar Monate und kaufe mir dann die nächste (5090), die mit der Ti der Vorgänger Generation locker den Boden aufwischt...

MfG Blase

BlacKi
2022-07-20, 11:15:46
naja, der unterschied zwischen der 4090 und der 4090ti ist größer als der unterschied 3090->3090ti. und der preisliche unterschied wird auch nicht gering sein. warum ich immernoch auf einen günstigen 4090 preis tippe, also eher 1499$ als 1999$

Blase
2022-07-20, 11:31:01
Gut möglich bis sehr wahrscheinlich, dass die 4090Ti ein ganzes Stück schneller als die 4090 sein wird - im Vergleich zu dem, was die 3090Ti auf die 3090 drauf gelegt hat. Ändert doch aber trotzdem nicht wirklich etwas an der Ausgangslage. Zumindest dann nicht, wenn die 4090Ti wie erwartet erst sehr viel später als die 4090 kommt.
In vielleicht zwei Monaten schon kann ich mit der 4090 direkt in die neue Generation und ungeahnte Performance Klassen einsteigen. Ist mir doch Schnuppe, ob dann in einem Jahr+ später ne 4090Ti kommt. Ist ja trotzdem nicht so, dass die so viel "mehr" oben drauf legen wird (außer beim Preis vermutlich ;D), dass es sich wirklich nach einem ganzen Performance Sprung anfühlt. Vielleicht legt sie sogar 20-25 Prozent oben drauf (was noch zu beweisen wäre) - ist immer noch ein "Witz" gegenüber dem, was eine 5090 voraussichtlich oben drauf legen wird.

Also für mich stellt sich die Frage nicht. Aber letztlich keine Ahnung was diejenigen machen, die immer das Beste haben wollen. Wahlweise kaufen die tatsächlich die 90er und dann switchen sie auf die 90Ti's um (hat Raff das nicht gemacht :freak:?) - das wäre zumindest konsequent, weil man nur so auch wirklich immer "das Beste" hat. Kann mir aber nicht vorstellen, dass sich so jemand "verarscht" vorkommt. Das Spielchen ist doch seit Jahren wohl bekannt...

Bezüglich deiner Preisprognose hinsichtlich der 4090 hoffe ich einfach mal, dass du Recht behältst ;) Denn tatsächlich überlege ich auf diese zu wechseln...

MfG Blase

hq-hq
2022-07-20, 12:33:31
wenn die 4090Ti so spät kommt wie die 3090Ti wird es den 4090 Käufern egal sein :redface:

3090Ti konnte man ab 29.03.2022 bestellen? Da war meine 3090FE 16 Monate alt... 18 Monate nach 3090 Release ist schon ne lange Zeit, da regt sich niemand auf, oder doch :biggrin:

BlacKi
2022-07-20, 13:07:49
aber die 4090ti wird nicht so spät kommen. die 3090ti kam ja nur deshalb, weil man viel zu viele gute chips hatte, die der profimarkt garnicht kaufen konnte. ich glaub nicht, das die 3090ti überhaupt geplant war.

die 4090ti ist aber geplant, sonst wäre die 4090 nicht so beschnitten. sie wird auch nochmal ein gutes plus an performance draufsetzen, im gegensatz zur 3090ti.

ich glaub die 4090ti kommt nach amds big chip, spätestens ende frühling nächstes jahr, grob ein halbes jahr später.

Gast
2022-07-20, 13:27:55
Die Hoffnungen mancher, weil wir eine Rezession haben,
dass NV auf einmal katholisch wird und sich erbarmt den Preis unter 2000.- anzusetzen.


Das haben die Hersteller gut gemacht, jeder ist schon so an die übertriebenen Preise gewöhnt, dass unter 2k als "gut" angesehen wird.

Blase
2022-07-20, 13:30:59
Der "Aufhänger" für mich war ja die Aussage vom Legendenkiller, dass sich die nVidia Kunden verarscht vorkommen werden bedingt durch die Ti.

Ich wüsste eigentlich kein Szenario, in welchem das so sein sollte. Selbst wenn die Ti "schon" ein halbes Jahr später draußen wäre. Dann kann ich mich doch immer noch entscheiden, ob ich JETZT in die neue Gen einsteige - und zumindest für ein halbes Jahr die schnellste Karte habe - oder ob ich das halbe Jahr noch warte und dann die schnellste Karte der ganzen Gen haben werde.

Mir wäre es ja auch lieber, wenn in einem Schwung das komplette Portfolio von Groß bis Klein zusammen vorgestellt und in den Markt gebracht wird. Aber das ist nun einmal nicht die Realität. Und da imho die allermeisten Käufer solcher Karten durchaus informiert sind, trifft da jeder selbst seine Entscheidung - und hat keinen Grund sich zu ärgern...

MfG Blase

Lehdro
2022-07-20, 14:16:30
klar, in fhd vl

Selbst wenn es nur in 4k + RT ist, nehme ich die 80% doch gerne. Aber bitte nicht wieder mit 2x locken, wenn man sie wirklich nirgendwo erreicht. Zumindest das sollte NV lernen :biggrin:

Blase
2022-07-20, 14:28:10
Selbst wenn es nur in 4k + RT ist, nehme ich die 80% doch gerne. Aber bitte nicht wieder mit 2x locken, wenn man sie wirklich nirgendwo erreicht. Zumindest das sollte NV lernen :biggrin:

Der Lerneffekt sollte auf beiden Seiten passieren - also auch auf unserer der Konsumenten.

Dann würden solche Themen nicht immer komplett eskalieren und die beiden "Lager" müssten sich nicht die Köppe einschlagen :freak:

MfG Blase

Lehdro
2022-07-20, 14:37:46
Der Lerneffekt sollte auf beiden Seiten passieren - also auch auf unserer der Konsumenten.

Ja sicher. Aber das passiert doch schon seit Jahren nicht in dem Umfang in dem es müsste...leider.

ChaosTM
2022-07-20, 14:39:43
Die 3090ti war ein relativ normaler Refresh nach über einem Jahr. Nur war das Performance Plus 95% Brute Force. Die Verbesserung am Brett-Layout lassen aber stabileren - und nebenbei unglaublich effizienten Betrieb zu. Ob dieser Refresh ursprünglich überhaupt geplant war lässt sich schwer sagen..

Die 4090er wird man wohl von Haus aus gleich mehr "kastrieren" (Watt und Shader), um mehr Spielraum für den Refresh zu lassen.

BlacKi
2022-07-20, 14:48:48
ja, aber die 3090 hat doch geliefert. gerade der leak den kimi zur 3090 brachte war tiefgestapelt mit unter 10000 punkten, vermutlich wegen treibern zum zeitpunkt.
https://twitter.com/kopite7kimi/status/1288811296435998723
und da scheinbar die 3090 in 4k 45% schneller war als die 2080tiFE, kann fast exakt diesen wert übernehmen. 50% waren echt gegenüber 2080ti referenz, auch in spielen. spätestens mit treiberupdates werden dann noch mal 1-3% obendrauflegen.

Gast
2022-07-20, 15:10:39
Der "Aufhänger" für mich war ja die Aussage vom Legendenkiller, dass sich die nVidia Kunden verarscht vorkommen werden bedingt durch die Ti.

Vor allem macht es überhaupt keinen Sinn, wenn man davon ausgeht, dass jetzt eine 4090 und dann später eine etwas schnellere Ti kommt.

Die Aussage würde ja noch Sinn machen, wenn jetzt eine komplett überteuerte Titan, und kurz darauf eine langsamere aber doch nicht wirklich langsamere Ti zum wesentlich günstigeren Preis kommt.

GerryB
2022-07-20, 16:45:47
Wenn überhaupt, dann sind doch die Käufer der 3090Ti verarscht, wenn ein paar Wochen später der Preis 25% nachgibt.
(und Wiederverkaufswert vllt. noch mehr)

Bei Turing wars mit Super genau andersrum. (da hatte man mal als Spätkäufer nen Vorteil)

btw.
Ansonsten gabs ja bisher immer die Möglichkeit durch Flashen noch ein mue mehr Leistung rauszukitzeln.
Da ist ne Ti nur für Out of the Box - Faulpelze ein echter Vorteil.

Gast-xyz
2022-07-21, 02:21:13
[QUOTE=hq-hq;13061351]"Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur."

möchtest du dann so stehen lassen ja :freak:/QUOTE]
Der Satz stammte gar nicht von ihm, da er seinen Post mit Gast11 markiert hat. Ihr beruft euch dabei auf Wikipedia, da kann ich auch einen Artikel verfassen wenn ich Lust dazu habe. Der Inhalt muss nur prüfbar sein, also mit Quellen hinterlegt, welche und ob die überhaupt zutreffen interessiert niemanden. Oder denkst du, da sitzt jemand der das inhaltlich auf Richtigkeit abprüft? Müsste ja jemand aus der GPU Entwicklung sein? Wikipedia weist dabei auf eine problembewusste Nutzung als Informationsquelle hin. Nur soviel dazu. Das heißt in dem Fall nichts anderes als, da steht Unsinn oder eine Meinung des Autors, die nicht in jedem Fall zutreffen muss.

Mit Kälte Leckströme egalisieren zu wollen, ist kompletter Schwachsinn. Falls du dazu gerne mehr wissen willst, hier - lesen bildet und die Leseprobe dazu reicht eigentlich schon, um zu erkennen wie komplex das Ganze ist. Sonst würden die Halbleiterhersteller ihre Hardware einfach einfrieren oder soweit im Niedertemperaturbereich betreiben, was ja technisch möglich wäre. Nur hilft das gar nicht: https://www.grin.com/document/119167

Nun lässt man euch gerne mit eurem Fachwissen wieder allein, weil man mit Besserwissern eher nicht reden kann. Von dir kommen auch keinerlei Fakten, sondern nur das typische Foren-Geprolle. Da ist einem jedes weitere Wort zu Schade.

Falls es jemanden interessiert, ihr seid selbst Schuld wenn ihr von nVidia immer und immer wieder veralbert werdet. Es liegt einzig und allein daran, dass ihr alles kauft was die auf Markt werfen. Vermutlich ausgelöst durch gestörtes Konsumverhalten. Oftmals sind solche Leute komplett verschuldet und daher ist ihnen der überteuerte Preis völlig egal. Zudem haben diese eine gestörte Energiebilanz und damit einen gestörten Lebensstil.

Blase
2022-07-21, 08:34:46
Nun lässt man euch gerne mit eurem Fachwissen wieder allein, weil man mit Besserwissern eher nicht reden kann. Von dir kommen auch keinerlei Fakten, sondern nur das typische Foren-Geprolle. Da ist einem jedes weitere Wort zu Schade.

Falls es jemanden interessiert, ihr seid selbst Schuld wenn ihr von nVidia immer und immer wieder veralbert werdet. Es liegt einzig und allein daran, dass ihr alles kauft was die auf Markt werfen. Vermutlich ausgelöst durch gestörtes Konsumverhalten. Oftmals sind solche Leute komplett verschuldet und daher ist ihnen der überteuerte Preis völlig egal. Zudem haben diese eine gestörte Energiebilanz und damit einen gestörten Lebensstil.

Du wirfst in den Raum, dass man mit Besserwissern eh nicht reden kann und aus dieser Richtung nur Geprolle kommt (wo stellenweise durchaus was dran sein mag)...

... nur um dann selbst im letzten Absatz in die selbe Richtung auszuscheren. Nur weil du dir scheinbar keine vernünftig(ere) Erklärung geben kannst, warum Millionen Gamer unverändert zu (leider) immer teureren nVidia Karten greifen, unterstellst du gestörtes Konsumverhalten, sinnierst, dass das wahrscheinlich eh komplett überschuldete Personen sind und ja sowieso einen gestörten Lebensstil pflegen.

Du diskreditierst dich selbst als annehmbaren Gesprächspartner und tust, was du anderen vorwirfst. Das sagt mehr über dich aus, als du über andere zu wissen meinst...

MfG Blase

Gast
2022-07-21, 11:38:11
Du diskreditierst dich selbst als annehmbaren Gesprächspartner und tust, was du anderen vorwirfst. Das sagt mehr über dich aus, als du über andere zu wissen meinst...

MfG Blase
Ist doch hier gang und gebe...antworten auf gleichem Niveau. Bitte mal einen Moderator drüber schauen lassen, weil vieles gar nicht zu Thema passt. Wieder die üblichen Grabenkämpfe ohne Niveau.

Eine 4090 mit einer 3090 OC zu vergleichen ist keine so schlechte Idee, um dann zu entscheiden ob man diese wirklich braucht. Vor allem wenn man die Preise im Hinterkopf behält und schon eine 3090 besitzt. Nur weil es einen neuen Ferrari mit 600PS gibt, verkaufe ich meinen mit 550PS? Der spürbare Leistungszuwachs ist marginal. Ich vermute, wenn man eine 4090 oder eine 3090 an einem Bildschirm betreibt und die Framerate ausblendet, merkt man den Unterschied nicht mal. Für FHD ist eine 3090 sicher nutzlos, aber das wird wegen der fehlenden Auslastung auf die 4090 genauso zutreffen. Zudem müssen Spiele diese hohen Frameraten erstmal unterstützen. Da wird ja viel umhergelabert, obwohl jedes zweite Spiel einen Framelock besitzt.

Ich sage es mal so, der Hype wurde mal wieder so wie die Preise maßlos übertrieben. 2.5GHz Boosttakt ist echt ein Witz wenn man im Vorfeld 3.0GHz verlauten lässt und dann auch noch massiv beratungsresistent auftritt. Schlechte Informationskultur mit einfacher Weitergabe an unzuverlässigen Informationen, die dann hier zum Eklat führen. Im persönlichen Ranking wirft das 3dc für mich weit zurück. Einen respektvollen Umgang mit seinem Gegenüber, gab es hier noch nie.

Diskreditiert hat aber ganz am Anfang jemand anderes, Gäste waren das wie fast immer nicht. Gerade was Gäste dann angeht beraubt, man sich an Informationen, die diese auch anonym liefern könnten. Kenne da zwei drei Fälle die hier nichts mehr schreiben. Das sie vom Großteil der Forenmitglieder unerwünscht sind, ist auch nicht neu. Da wurden langatmige Debatten über der Für und Wieder geführt. Scheint wohl nur noch Leonidas zu sein, der sie hier halten will.

Gast
2022-07-21, 11:52:42
@Blase
Falls es dich interessiert, nein die 4090ti ist nicht "ein ganzes Stück schneller", es gibt bisher nicht mal die Absicht eine solche Karte zu launchen. Die liegt auf Eis wegen der Leckströme. Wunschdenken macht es nicht besser.

AD102 Fullsize wird als GH202 verwurstet, der komplett eingestellt wurde, da dürfte klar sein was Priorität hat. Nvidia hat wohl etwas zu euphorisch gedacht, wie ein großer Teil hier.

Leonidas
2022-07-21, 11:53:39
Ich sage es mal so, der Hype wurde mal wieder so wie die Preise maßlos übertrieben. 2.5GHz Boosttakt ist echt ein Witz wenn man im Vorfeld 3.0GHz verlauten lässt und dann auch noch massiv beratungsresistent auftritt.

Bitte genau lesen: Die 3 GHz sind real, nur nicht bei der RTX4090 - die bewusste runtergesetzt wurde, um eine (relativ) niedrigere TDP zu erreichen. Dies wurde bereits prognostiziert, noch bevor die 2.5 GHz bekannt wurde! Wie auch der ganze Sachverhalt eindeutig hier kommuniziert wurde. Es wurde also keineswegs eine RTX4090 auf 3 GHz versprochen. Alles in den 3DC-Archiven (https://www.3dcenter.org/news/nvidia-ada-lovelace) genau nachlesbar.

In dem Sinne wäre zu überlegen, ob Du nicht vorschnell geurteilt hast.

Gast
2022-07-21, 12:04:24
Hoffentlich liegst du richtig Leo.

Blase
2022-07-21, 12:54:27
Ist doch hier gang und gebe...

Es ist einfach nicht meine Art - und es vermiest mir auch den Spaß dran, mich an Spekulationen oder Diskussionen zu beteiligen. Zumal es einfach komplett über ist. Immerhin reden wir von zukünftig kommenden Grafikkarten, einem Hobby - und nicht vom Krieg irgendwo auf der Welt :rolleyes:

Gäste waren das wie fast immer nicht.

Ich fand schon den "Ton" und Wortwahl der ersten Gäste, die hier im Thema was geschrieben haben, direkt schroff gegenüber Leo. Unnötig! Zumal er mindestens Vieles von dem, was ihm vorgeworfen wird, soweit ich weiß, so nicht gesagt oder getan hat.

Gast 1:
Ernüchterung, von wegen 2,5 fache Performance - Blahblah. War ja klar. Raytracing dann 30% schneller. Das bei 450-600Watt lachhaft. Prügel mal eine 3090 so hoch, mal sehen wie der Vorsprung dann noch aussieht.

Mag ja sein, dass man bis zu (!) dieser Grenze spekuliert hat und natürlich ist es dann einigermaßen ernüchternd, wenn man doch weit da drunter ist. Aber so wie es aktuell aussieht werden wir von 3090 zu 4090 trotzdem einen der größten Leitungszuwächse sehen, den wir Generationenübergreifend je hatten. Kann in dem Kontext den "Ton" des Posts nicht nachvollziehen. Und es ist natürlich quatsch anzunehmen, eine 3090 auf 450 Watt kommt auch nur in die Nähe einer 4090.

Gast 2:
eine OC 3090ti max OC LN liegt bei 14700, ähnliche Verbrauchsdwerte 450-550Watt..., schwach! 25-30% schneller, lächerlich. Und das bei + zwei Fertigungsverfahren und dem Gehype um 2,5 fache Performance. Der nächste Hypetrain knallt voll gegen die Wand. Jetzt wissen wir auch warum Nvidia darauf einprügelt als gäbe es kein Morgen mehr.

Selbst wenn ich das mit der 3090Ti auf LN mal als gegeben hinnehme, dann ist es trotzdem Quatsch, diese mit der aktuellen Datenbasis einer NICHT LN 4090 zu vergleichen. Wie viel schneller ist denn die LN Version gegenüber einer normalen 3090Ti? Man darf ja locker davon ausgehen, dass eine - wie nach aktueller Datenbasis bekannt - sehr zaghaft getaktete und eingebremste 4090 grade auf LN sehr viel stärker profitiert, als es die (bis zur "Kotzgrenze" getriebene) 3090Ti getan hat.

Nur weil es einen neuen Ferrari mit 600PS gibt, verkaufe ich meinen mit 550PS? Der spürbare Leistungszuwachs ist marginal. Ich vermute, wenn man eine 4090 oder eine 3090 an einem Bildschirm betreibt und die Framerate ausblendet, merkt man den Unterschied nicht mal.

Ich denke, der Vergleich hinkt. Wir reden hier doch von einem groben Performance Plus von 80 Prozent gegenüber eine 3090 - ja?! Das ist unter 4K oftmals der Unterschied zwischen "spielbar" und "absolut flüssig".

Ich sage es mal so, der Hype wurde mal wieder so wie die Preise maßlos übertrieben. 2.5GHz Boosttakt ist echt ein Witz wenn man im Vorfeld 3.0GHz verlauten lässt und dann auch noch massiv beratungsresistent auftritt. Schlechte Informationskultur mit einfacher Weitergabe an unzuverlässigen Informationen, die dann hier zum Eklat führen. Im persönlichen Ranking wirft das 3dc für mich weit zurück. Einen respektvollen Umgang mit seinem Gegenüber, gab es hier noch nie.

Ich bin ich oftmals nur stiller Mitleser und ich will nicht ausschließen, dass mir mal was durch die Lappen geht... aber soweit ich weiß hat Leo immer klar den Stand der Spekulationen kommuniziert. Und das was er schreibt, habe ich auch so verstanden:

Bitte genau lesen: Die 3 GHz sind real, nur nicht bei der RTX4090 - die bewusste runtergesetzt wurde, um eine (relativ) niedrigere TDP zu erreichen. Dies wurde bereits prognostiziert, noch bevor die 2.5 GHz bekannt wurde! Wie auch der ganze Sachverhalt eindeutig hier kommuniziert wurde. Es wurde also keineswegs eine RTX4090 auf 3 GHz versprochen. Alles in den 3DC-Archiven (https://www.3dcenter.org/news/nvidia-ada-lovelace) genau nachlesbar.

In dem Sinne wäre zu überlegen, ob Du nicht vorschnell geurteilt hast.

Es muss klar sein, dass wir uns immer nur anhand der aktuell gegebenen "Gerüchteküche" unterhalten können. Morgen mag schon wieder einiges anders aussehen als gestern. Ist doch ok...

@Blase
Falls es dich interessiert, nein die 4090ti ist nicht "ein ganzes Stück schneller", es gibt bisher nicht mal die Absicht eine solche Karte zu launchen. Die liegt auf Eis wegen der Leckströme. Wunschdenken macht es nicht besser.

AD102 Fullsize wird als GH202 verwurstet, der komplett eingestellt wurde, da dürfte klar sein was Priorität hat. Nvidia hat wohl etwas zu euphorisch gedacht, wie ein großer Teil hier.

Ich habe kein Problem damit, wenn über eine theoretische 4090Ti/Titan spekuliert wird. Letztlich ist es ja nicht wirklich weit her geholt davon auszugehen, dass so eine Karte kommen wird. Denn erstens gibt es keine (?) Generation, wo so eine Karte nicht Bestandteil des Portfolios war und zweitens lässt die doch größere Beschneidung der 4090 ja wirklich viel Luft nach oben. Aber wenn du hier mehr "im Thema" bist, mag das aktuell so sein, wie du schreibst. Wir sind uns wahrscheinlich trotzdem einig darüber, dass nVidia dennoch versuchen wird, so eine Karte zu realisieren. Ganz besonders dann, wenn AMDs Flaggschiff ausreichend performant ist...

MfG Blase

Gast
2022-07-21, 14:43:21
In einfach: https://de.wikipedia.org/wiki/Leckstrom

Oder will jemand behaupten, die würden lügen?

hq-hq
2022-07-21, 16:04:44
[QUOTE=hq-hq;13061351]"Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur."

möchtest du dann so stehen lassen ja :freak:/QUOTE]
Der Satz stammte gar nicht von ihm, da er seinen Post mit Gast11 markiert hat. Ihr beruft euch dabei auf Wikipedia, da kann ich auch einen Artikel verfassen wenn ich Lust dazu habe. Der Inhalt muss nur prüfbar sein, also mit Quellen hinterlegt, welche und ob die überhaupt zutreffen interessiert niemanden. Oder denkst du, da sitzt jemand der das inhaltlich auf Richtigkeit abprüft? Müsste ja jemand aus der GPU Entwicklung sein? Wikipedia weist dabei auf eine problembewusste Nutzung als Informationsquelle hin. Nur soviel dazu. Das heißt in dem Fall nichts anderes als, da steht Unsinn oder eine Meinung des Autors, die nicht in jedem Fall zutreffen muss.

Mit Kälte Leckströme egalisieren zu wollen, ist kompletter Schwachsinn. Falls du dazu gerne mehr wissen willst, hier - lesen bildet und die Leseprobe dazu reicht eigentlich schon, um zu erkennen wie komplex das Ganze ist. Sonst würden die Halbleiterhersteller ihre Hardware einfach einfrieren oder soweit im Niedertemperaturbereich betreiben, was ja technisch möglich wäre. Nur hilft das gar nicht: https://www.grin.com/document/119167

Nun lässt man euch gerne mit eurem Fachwissen wieder allein, weil man mit Besserwissern eher nicht reden kann. Von dir kommen auch keinerlei Fakten, sondern nur das typische Foren-Geprolle. Da ist einem jedes weitere Wort zu Schade.

Falls es jemanden interessiert, ihr seid selbst Schuld wenn ihr von nVidia immer und immer wieder veralbert werdet. Es liegt einzig und allein daran, dass ihr alles kauft was die auf Markt werfen. Vermutlich ausgelöst durch gestörtes Konsumverhalten. Oftmals sind solche Leute komplett verschuldet und daher ist ihnen der überteuerte Preis völlig egal. Zudem haben diese eine gestörte Energiebilanz und damit einen gestörten Lebensstil.

"Mit Kälte Leckströme egalisieren zu wollen, ist kompletter Schwachsinn. "

egalisieren, hat hier jemand von egalisieren geschrieben, wer schreibt hier Schwachsinn :freak:

in der Sensorik begrenzen u.a. die ansteigenden Leckströme den Einsatz von z.B. über 150°C oder 160°C - also klar kann "Silizium" mehr als 95°C

Leckströme können mit steigender Temperatur sogar abnehmen nur um dann ab einer Schwelle plötzlich zu steigen... was halt verwendet wird, gell, weisst du ja selber :wink:
Wenn der Anteil des Leckstroms an der Verlustleistung bei x °C, x V und x MHz Taktraten 20% einer GPU ausmacht lässt sich der Anteil für gewöhnlich mit der Temperatur vergrößern oder verkleinern.

Über die niedrigere Spannung und dank niedrigerem Temp-Betriebspunkt lässt sich mehr gewinnen, klar.

Gast
2022-07-21, 16:06:44
Es gibt derzeit überhaupt keinen Markt für solche Karten und auf Kleinserien werden sich die Partner nicht einlassen, dafür schmeißt niemand in China die Bänder an. Die verweigern mittlerweile die Abnahme von Lovelace in großen Stückzahlen. Daher fährt Nvidia das Programm derzeit massiv zurück. Wahrscheinlich nicht ohne Grund, weil der Nutzen-/Kosten-Aufwand diese Dinger zu produzieren und zu kühlen weiter ausufert, 4 bis 5 Slot Kühler, dicke Netzteile usw., wo Nvidia das auch noch vorgibt. Wir kommen da langsam in HPC Regionen an, wo man aber deultich höhere Preise verlangen kann. Das zahlt aber kein Gamer. Soweit bekannt darf nur noch verlangt werden, was Nvidia UVP vorgibt um das Desaster (Scalper und Verfügbarkeit) um Ampere zu verhindern.

Der Kompite@Kimi ist für nichts weiter als ein Nvidiabot, wie Ellen Musk schon feststelle ist Twitter ein Konstrukt aus Fakeaccounts.

Gast
2022-07-21, 16:10:01
[QUOTE=Gast-xyz;13062243]

"Mit Kälte Leckströme egalisieren zu wollen, ist kompletter Schwachsinn. "

egalisieren, hat hier jemand von egalisieren geschrieben, wer schreibt hier Schwachsinn :freak:

in der Sensorik begrenzen u.a. die ansteigenden Leckströme den Einsatz von z.B. über 150°C oder 160°C - also klar kann "Silizium" mehr als 95°C

Leckströme können mit steigender Temperatur sogar abnehmen nur um dann ab einer Schwelle plötzlich zu steigen... was halt verwendet wird, gell, weisst du ja selber :wink:
Wenn der Anteil des Leckstroms an der Verlustleistung bei x °C, x V und x MHz Taktraten 20% einer GPU ausmacht lässt sich der Anteil für gewöhnlich mit der Temperatur vergrößern oder verkleinern.

Über die niedrigere Spannung und dank niedrigerem Temp-Betriebspunkt lässt sich mehr gewinnen, klar.
Hat er doch längst geschrieben, du käust alles nur wieder. Die Kennlinie für die Leckströme lässt mit deren Parameter in jede Richtung verschieben, Spannung->Frequenz->Kühlung.

Das muss man nun nicht noch zig mal wiederholen. Wäre echt schön ein Mod guckt hier mal vorbei.

hq-hq
2022-07-21, 21:40:38
[QUOTE=hq-hq;13062797]
Hat er doch längst geschrieben, du käust alles nur wieder. Die Kennlinie für die Leckströme lässt mit deren Parameter in jede Richtung verschieben, Spannung->Frequenz->Kühlung.

Das muss man nun nicht noch zig mal wiederholen. Wäre echt schön ein Mod guckt hier mal vorbei.

:biggrin: ja gut, wenn der Gast >Die Leckströme sind von der Spannung abhängig und nicht von der Temperatur.< einfach nur "nicht beredt" ist gilt es als abgehakt :wink:

-----

dann werd ich mein Konsumverhalten wahrscheinlich zum Ende des Jahres wieder auf gestört umstellen, ausser das neue 1000W Netzteil welches noch OVP Staub ansetzt reicht nicht aus
und weil es sehr wahrscheinlich nicht für eine 4090Ti ausreicht wäre das Netzteil der limitierende Faktor, ausser natürlich man würde wieder die Kurve verschieben und den Betriebspunkt zusätzlich mit dem Powerlimit bearbeiten... :biggrin:

Gast
2022-07-22, 17:40:57
[QUOTE=Gast;13062800]
ausser das neue 1000W Netzteil welches noch OVP Staub ansetzt reicht nicht aus
Könnte eng werden, kauf lieber ein 2kwh Netzteil nach und lege es schon bereit - nicht das es dann keine mehr gibt, dann freut sich auch dein Stromanbieter wenn du dann 60 Cent die kwh berappst. Nvidia verkauft dir sicher den Stromvertrag gleich gesondert mit wenn du mal fragst (da lässt sich ja wieder jemand abzocken), zu einem Mondpreis von 75 Cent pro kwh + einer RTX Rabattaktion für ein extra RT Strahlen, RT Schatten und RT Spiegelungen, die ja seit geraumer Zeit das wichtigste in weiterhin gerasterten Spielen zu sein scheinen. Den Großteil juckt das nicht mal, aber Hobby halt.

Ist sogar Ökostrom von einem Atomkraftwerk, man muss ja auf AI und KI setzen, anders geht das Nvidia nicht mehr, wenn nicht taugen die Spiele ja alle nichts mehr. Zudem müssen die Strahlen mit 340Hz über den Bildschirm flackern und dabei gegsynct sein, wobei kein einziges Spiel offiziell diese Framerate bisher unterstützt. Wird schon bei 240-260Hz eng.

Den Rest machen die Roten und Grünen schon, dass das so kommt, und ich mein nicht die GPU Hersteller...;). Wahrscheinlich führen sie dann eine gesonderte GPU Stromverbrauchssteuer ein.

Die mit der dicksten GPU sind sowieso die Hechte im Karpfenteich, mit dem höchstem Intelligenzgrad und der dicksten Brieftasche. Achja...seufz's.

StefAlb
2022-07-22, 20:22:29
Habe mir ein 750 Watt Corsair SFX Netzteil gekauft. Mehr gibts nicht für die geplante neue 4090 (wenn der Preis 1499 Euro wird) und der Raptor 13700 oder 900 CPU.Notfalls wird verbrauch limitiert.

Irgendwo gibt es Grenzen.

hq-hq
2022-07-23, 01:01:09
Habe mir ein 750 Watt Corsair SFX Netzteil gekauft. Mehr gibts nicht für die geplante neue 4090 (wenn der Preis 1499 Euro wird) und der Raptor 13700 oder 900 CPU.Notfalls wird verbrauch limitiert.

Irgendwo gibt es Grenzen.


so hab ich mir das auch gedacht :cool:

Strom kostet hier noch weniger als der günstige lokale Stadtwerke Strom mit 23,6 Cent Brutto die KWh im Neuvertrag (Preis Juli, allerdings gibts keine Bonusauszahlungen, 8,33€ Grundpreis, 100% CO2-neutraler Ökostrom). Check24 Bestpreis wäre Vattenfall mit 39,x Cent Brutto und glaub 15€ Grundpreis.

Selbst wenn die KWh 0 Cent kosten würde, 600Watt für die 4090Ti :biggrin: ... wie hiess es mal über die 3090Ti, die Karte für die Faulen bzgl. OC. Vielleicht eher was für die HallOfFame im 3dMurks und weniger für die Zocker.

Raff
2022-07-23, 01:12:49
Für Faule? Im Gegenteil, ein Schluckspecht jenseits von 400 Watt sollte in jedem den Undervolting-Trieb wecken. Meine läuft immer mit 150 bis 200 Watt, je nach Anspruch. :)

MfG
Raff

Leonidas
2022-07-23, 03:08:39
Jetzt bin ich gespannt, ob 150-200W noch mit der 4090TIIIII geht ...

BlacKi
2022-07-23, 03:17:39
Für Faule? Im Gegenteil, ein Schluckspecht jenseits von 400 Watt sollte in jedem den Undervolting-Trieb wecken. Meine läuft immer mit 150 bis 200 Watt, je nach Anspruch. :)

MfG
Raffzeigen! die 3080 lief mit 150w nicht mehr vernünftig, frametimes des todes. weil der ramtakt ständig zwischen idle und boost hin und her sprang. igor meinte, der ram würde auch unter 900mv nichtmehr normal boosten. dabei finde ich 900mv schon recht hoch.

Nightspider
2022-07-23, 03:29:42
Interessant wäre, wieviel Einfluss der L2-Cache am "Leistungssprung" hat, den man von AMD kopiert hat.

Ada Lovelace war im Design schon viel zu weit fortgeschritten als RDNA2 mit dem Infinity Cache kam.

Wenn Nvidia etwas von AMD kopieren würde, dann würde man das wohl erst bei der RTX5000er Generation sehen.

hq-hq
2022-07-23, 17:47:10
Für Faule? Im Gegenteil, ein Schluckspecht jenseits von 400 Watt sollte in jedem den Undervolting-Trieb wecken. Meine läuft immer mit 150 bis 200 Watt, je nach Anspruch. :)

MfG
Raff


halt Powerlimit auf 500+Watt, +165MHz GPU Takt und ganz vorne dabei sein :wink:
und man hat u.U. schon über 500Watt Powerlimit ohne XOC Bios

bei 150Watt (mit 21.5GHz RAM) ist meine alte 3090 Versuchsweise auf ~4xx MHz eingebrochen, leider kann man die Curve nicht von 0mV an aufziehen

Rampage 2
2022-07-23, 20:33:57
Ich halte nicht viel von den geleakten Benchmark-Werten; genauer gesagt, sagt das IMO Nichts über das Leistungspotential von Lovelace aus;)

Fassen wir doch die aktuellen und früheren Spekulationen über Lovelace zusammen:

- +71% mehr FP32-Shadereinheiten & GPCs/SMs beim Top-Dog (AD102)
- deutlich mehr Leistung pro SM (15-35%) da vermutlich zusätzliche 64 INT32-Einheiten vorhanden und auch andere Flaschenhälse (Ports, Register, u.A.) beseitigt wurden. Gehen wir mal von einem Mittelwert von 25% (1.25x) aus.
- doppelt so viele ROPs pro GPC, was auch zusätzlich Leistung bringen sollte.
- viel höherer Takt (bis zu 2.75 GHz oder noch mehr)

1.71 x 1.25 x 1.375 x 0.9 = ~ 2.65x zur 3090 Ti

0.9, weil mehr Einheiten i.d.R. nicht 100% (1.0) skalieren, sondern eher 80-90% (0.8 - 0.9x).

Der o.g. Wert bezieht auf eine potentielle 4090 Ti oder Titan. Da die reguläre 4090 aber weniger Einheiten (16384 bzw. +52%) besitzen und wegen "nur" 450W Verbrauchslimit relativ handzahm takten soll, gehe ich hier von 2.5 GHz aus, also:

1.52 x 1.25 x 1.25 x 0.9 = 2.15x zur 3090 Ti


Ich hau mal einfach raus:

4090 für 1.699€
4080 für 799€
4070 für 599€


Du musst vom Dollarpreis als Ausgangspunkt ausgehen, mit 19% MwSt. multiplizieren und es dann durch den aktuellen Euro-Dollar-Kurs (aktuell Parität, als genau 1.0) dividieren:

4090: 1500$
4080: 800$
4070: 500$ (wenn sie wirklich nur mit 10GB VRAM kommt, kann Nvidia keinen höheren Preis dafür verlangen...)

Ergäbe dann in Euro umgerechnet:

4090: 1800€ (1500€, falls Lederjacke Gnade gewährt ggü. der NV-Käuferschaft)
4080: 900-1000€
4070: 500€ (rechnerisch eigentlich 600€, aber das hängt primär davon ab ob es genügend Idioten geben wird, die es zu diesem Preis kaufen:P)

R2

MiamiNice
2022-07-23, 22:54:43
Das 3DC wird immer lustiger … dafür werden die Karten aber wieder deutlich schneller. Ist, für mich, auch OK ;) Bei mir wird es diese Gen keine 4090 mehr, damit bin ich irgendwie durch. Nächstes Jahr darf es dann gerne eine 4090 Ti oder Titan werden. Hauptsache sie verbraucht so viel Saft das dem durchschnittlichen 3DC User schlecht wird. Brauchen tue ich das nicht - aber es macht einfach Spaß und gibt ein gutes Gefühl. Der 350 Watt Raptor rundet das Paket untern herum ab.

Gott geht das voran wenn die Industrie den ganzen Quatsch vom Stromsparen ignoriert. I like it.

Für Faule? Im Gegenteil, ein Schluckspecht jenseits von 400 Watt sollte in jedem den Undervolting-Trieb wecken. Meine läuft immer mit 150 bis 200 Watt, je nach Anspruch. :)

MfG
Raff

Du solltest mal wieder unter HW Nerds gehen. 400 Watt animieren maximal zu einem Bios ohne PL und zu viel mehr OC. ����*♂️

Gast
2022-07-25, 13:14:13
Jetzt bin ich gespannt, ob 150-200W noch mit der 4090TIIIII geht ...
Ich kaufe eine 2000$ Karte um sie dann auf das Niveau einer 1000$ Karte zu bringen, weil mir der Verbrauch für die höchste Leistung einer Architektur zu hoch ist.

Ja klar. Oh man.:crazy:

Bitte schreibt hier nicht das ginge ohne jeden Leistungsverlust einher. Das wäre nämlich glatt gelogen.

Leonidas
2022-07-25, 16:53:03
Nein, UV kostet Leistung. Der Clou ist die Karte auf eine Performance zu bringen, wo sie dennoch schneller ist als das nächstkleinere Modell - zu deutlich geringerer Wattage.

Gast
2022-07-25, 16:57:38
Bitte genau lesen: Die 3 GHz sind real, nur nicht bei der RTX4090 - die bewusste runtergesetzt wurde, um eine (relativ) niedrigere TDP zu erreichen.
Das Taktlimit liegt bei 2.75. Wie werden da 3 GHz real?

Woher weißt du das mit der 4090 eine niedrige TDP als geplant erreicht wird? Eine vermeintliche 4090ti könnte bei gleicher TDP bis 2.75 gehen. Es ist eigentlich nichts neues, dass deepsleep mehr braucht weil man die schadhaften Bereiche nicht einfach abschalten kann. Daher muss der Vollausbau nicht automatisch mehr verbrauchen. Die 4090ti kann trotz höherem Takt bei 450w bleiben, wobei die 4090 die TDP nie voll ausnutzt. Es geht dabei auch um Sicherheiten aufgrund der Serienstreuung und der Bereiche die teildeaktiviert werden müssen. Das sie mehr als 10% vor der 4090 liegt ist komplett unglaubhaft. Das würde auch zu dem Taktlimit passen. Man kann sogar Glück in der Lotterie haben und eine 4090 erwischen, die schon diese Werte erreicht. So war es jedenfalls die letzten Jahre. Die 3090 war ein reiner Testballon für 450w in Serie, dass die Karten noch mehr verbrauchen (ohne OC) ist daher eher nicht der Fall. Was ein ES dabei braucht und wie hoch es taktet ist davon völlig ausgenommen. Wenn man sich deine Äußerungen manchmal durchliest, glaubt man du bist ein kompletter Laie.

StefAlb
2022-07-25, 20:02:27
Ich kaufe eine 2000$ Karte um sie dann auf das Niveau einer 1000$ Karte zu bringen, weil mir der Verbrauch für die höchste Leistung einer Architektur zu hoch ist.

Ja klar. Oh man.:crazy:

Bitte schreibt hier nicht das ginge ohne jeden Leistungsverlust einher. Das wäre nämlich glatt gelogen.

Leonidas hat es ja schon erklärt.

Du kannst dir das auch mit Autos vorstellen.

Ein 500 PS Auto verbraucht oftmals bei 150km/h weniger Sprit, als ein 60PS Fahrzeug.

Ganz einfach,weil der 60 PS Wagen bei 90%+ Maxleistung liegt und Motor bei zB 5000 upm läuft, während das 500PS Auto bei 40% Leistung liegt und unter 3000 ups läuft.

BlacKi
2022-07-25, 20:09:07
Das Taktlimit liegt bei 2.75. Wie werden da 3 GHz real?

Woher weißt du das mit der 4090 eine niedrige TDP als geplant erreicht wird? Eine vermeintliche 4090ti könnte bei gleicher TDP bis 2.75 gehen. Es ist eigentlich nichts neues, dass deepsleep mehr braucht weil man die schadhaften Bereiche nicht einfach abschalten kann. Daher muss der Vollausbau nicht automatisch mehr verbrauchen. Die 4090ti kann trotz höherem Takt bei 450w bleiben, wobei die 4090 die TDP nie voll ausnutzt. Es geht dabei auch um Sicherheiten aufgrund der Serienstreuung und der Bereiche die teildeaktiviert werden müssen. Das sie mehr als 10% vor der 4090 liegt ist komplett unglaubhaft. Das würde auch zu dem Taktlimit passen. Man kann sogar Glück in der Lotterie haben und eine 4090 erwischen, die schon diese Werte erreicht. So war es jedenfalls die letzten Jahre. Die 3090 war ein reiner Testballon für 450w in Serie, dass die Karten noch mehr verbrauchen (ohne OC) ist daher eher nicht der Fall. Was ein ES dabei braucht und wie hoch es taktet ist davon völlig ausgenommen. Wenn man sich deine Äußerungen manchmal durchliest, glaubt man du bist ein kompletter Laie.
du bist cringy af:biggrin:

The_Invisible
2022-07-25, 21:56:27
Leonidas hat es ja schon erklärt.

Du kannst dir das auch mit Autos vorstellen.

Ein 500 PS Auto verbraucht oftmals bei 150km/h weniger Sprit, als ein 60PS Fahrzeug.

Ganz einfach,weil der 60 PS Wagen bei 90%+ Maxleistung liegt und Motor bei zB 5000 upm läuft, während das 500PS Auto bei 40% Leistung liegt und unter 3000 ups läuft.

Wobei ich noch nie davon gehört habe das wer deswegen ein >300PS Auto gekauft hat, eher das Gegenteil, das wird nochmal aufgemotzt. Und von Preisen redet da auch keiner weil ist einfach "geil".
Schon ein sehr komisches Hobby als PC-Nerd wo man mit einer 1k Grafikkarte schon schief angeschaut wird :D

Leonidas
2022-07-26, 04:55:48
Das Taktlimit liegt bei 2.75. Wie werden da 3 GHz real?

Ich meinte den AD102-Chip bzw. die ADA-Gen insgesamt: 3GHz werden bei der ADA-Gen real, nur die 4090 ist bewußt limitiert. War leider etwas zu kurz geschrieben, hätte es klarer ausdrücken sollen.




Woher weißt du das mit der 4090 eine niedrige TDP als geplant erreicht wird?

Infos seitens der Leaker. Und es wird nicht "niedriger als geplant". Geplant sind 450W, dies wird erreicht. Wenn Du Dich auf die 600W beziehen solltest: Infos seitens der Leaker.




Die 4090ti kann trotz höherem Takt bei 450w bleiben, wobei die 4090 die TDP nie voll ausnutzt.

Dies wird im Zeitalter automatischer Boost-Systeme nicht passieren (bezogen auf "TDP nicht ausnutzen"). Man kann natürlich abwarten, was die 4090Ti bringt, aber es eher unwahrscheinlich, dass jene auch mit 450W antritt.



Das sie mehr als 10% vor der 4090 liegt ist komplett unglaubhaft.

Wieso "unglaubhaft"? NV hat bei der 3080Ti um die 8% rausgeprügelt. Nur mit 2 SM mehr (der Rest kam von anderen Dingen). Bei 4090 zu 4090Ti besteht ein viel größeres HW-Potential, da von 128 SM auf bestenfalls 144 SM. Da wäre ich extrem vorsichtig mit einer Aussage, das keine 10% drin sind.




Schon ein sehr komisches Hobby als PC-Nerd wo man mit einer 1k Grafikkarte schon schief angeschaut wird :D

Das ist überall so. Das grundlegende Problem ist nicht fehlendes Verständnis, sondern fehlende Toleranz gegenüber anderen Ansichten und Meinungen.

Gast
2022-07-26, 08:51:29
Ich denke auch dass der Unterschied zwischen RTX 4090 und RTX 4090 Ti relativ groß sein wird, ähnlich wie bei GTX 1080 und GTX 1080 Ti oder RTX 2080 und RTX 2080 Ti.

Die RTX 4090 Ti werden sie als Konter gegen AMDs Topkarte möglichst lange in der Hinterhand halten, um ja die Nr. 1 zu bleiben, wenn nötig mit 600 Watt Verbrauch.

Leonidas
2022-07-26, 09:15:32
... wenn nötig mit 600 800 Watt Verbrauch.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13066386#post13066386

Gast
2022-07-26, 10:00:34
Wieso "unglaubhaft"? NV hat bei der 3080Ti um die 8% rausgeprügelt. Nur mit 2 SM mehr (der Rest kam von anderen Dingen). Bei 4090 zu 4090Ti besteht ein viel größeres HW-Potential, da von 128 SM auf bestenfalls 144 SM. Da wäre ich extrem vorsichtig mit einer Aussage, das keine 10% drin sind.
Selbst wenn die Karte deutlicher ausgebaut ist, mit dem Mehr an Einheiten muss sie zu guter Letzt nicht deutlich schneller sein, weil mehr Einheiten die ausgelastet werden müssen, auch deutlich mehr Energie kosten. Bei Spielen geht diese Rechnung nicht immer auf. Das hat die Vergangenheit schon mehrfach bewiesen. Der größere Ausbau taktet eher niedriger, als höher und damit wird der Taktverlust eher durch das mehr an Einheiten egalisiert. NVidia verkauft es nur teurer. Wobei in den Szenarien wo Skalarität nicht gefordert wird, nichts dabei rum kommt und das Angebot dann oft nur verteuert.

AD102 soll pingleich zu GA102 ausgeführt sein. Es handelt sich damit wohl eher um einen größeren Ampere in 5nm, vermutlich mit den gleichen Auslastungsproblemen die diese Gen schon plagen.

Ich glaube nicht, das ein AD102 Fullsize deutlich mehr mitbringt und höher taktet. Zuletzt hat sich NVidia mehr Leistung mit überproportionaler Leistungsaufnahme erkauft, 100w mehr bei der 3090ti für 3 und im besten Fall 5% mehr Leistung im Durchschnitt. Das wird bei AD102 kein bisschen anders aussehen.

Wenn es stimmt kommt AMD mit höherem Takt und deutlich geringerer Leistungsaufnahme effizienter daher. Genau das wird für NNidia zum Problem. Man muss den Leuten erstmal erklären, warum sie ein neues Netzteil kaufen müssen das diese Leistungsaufnahme auch unterstützt, wobei bei der Konkurrenz weiterhin einfach 2x8Pin reichen. Adapter verbauen oder mitzuliefern wird nicht gehen, wenn man die PCIe 5.0 Spezifikationen einhalten will.

Bekommt die jeweilige NVidiakarte das Netzteil nicht, ist sie nicht schneller oder womöglich sogar langsamer als die Konkurrenz, weil die binäre Kompatibilität zwischen GPU->PSU->BS, die diese Leistungsaufnahme freigibt, erst gar nicht zu Stande kommt. Wenn man diese Spezifikationen nicht einhält, kann die GPU die benötige Energie gar nicht aufnehmen, weil sie ihr nicht zur Verfügung steht.

Genau in diesem Dilemma steckt NVidia mit Karten die mehr als 450w brauchen. Dies entspricht in der Summe 2x8 Pin, 1x6 Pin und dem PCIex16 Slot (150+150+75+75). Wenn bei einer neuen Grafikkarte von 1500€ Anschaffungspreis, nochmals Kosten für eine neue PSU von ca. 250€ dazu kommen, dann wendet sich der Interessent schnell ab. Das Ganze kann man auf jede Leistungsklasse herunter brechen.

Um nichts anderes geht es, es geht um Kompatibilität von der man derzeit nicht ausgehen kann, weil sie in bestehenden PC-Konfigurationen nicht gebraucht wird und damit auch nicht vorherrscht. Man müsste zuerst einmal abwarten, ob dieser Standard überhaupt ankommt oder in der breiten Masse Anwendung findet. Das kann man, wenn man die allgemeine Meinung dazu wiedergibt, jetzt schon wegen der ausufernden Leistungaufnahme arg bezweifeln. Daher wird es vorerst keine Karten mit mehr als 450w geben, der Rest ist ein reiner Spezifikationsballon und ob dabei PCIe 5.0 überhaupt beim Anwender ankommt oder übernommen wird. Die Vergangenheit zeigt auf, dass dies gerade im Bereich Gaming kaum der Fall ist und sich neuste Standards nur schleppend durchsetzen. Dabei bliebe NVidia auf den Karten sitzen. Schon 12pin wurde kaum angenommen oder übernommen. Das wäre nachdem die Cryptoblase geplatzt ist, damit der Absatz deutlich eingebrochen, ein massives Überangebot besteht, für NVidia ein heftiger Einschlag, den sie sich zur Zeit nicht leisten können.

Das ganze Gesülze, AMD ist so schlecht und daher fährt NVidia die machbare Leistung zurück ist ein netter Strohmann und kompletter Schwachsinn. Genau daher wird es auch erstmal keine 4090ti geben, die 600w und mehr schluckt. Wenn ist das eine Miniserie die die Partner wohl nie gross übernehmen werden. Das betrifft übrigens das gesamte Portfolie von Ada oder man verkauft die Karten gleich im Bundle mit kompatibilen Netzteilen. Die bisher überhaupt nicht in den Stückzahlen verfügbar sind. Die Produktionen dazu liegen auf Eis, fehlende Bauteile inkkusive usw.. Warum auch immer NVidia diesen unsinnigen Weg so kurzfristig gehen wollte. Das Problem alleine ist die ausufernde Leistungsaufnahme, was diese Standards erst nötig macht, die NVidia dann auch noch selbst animiert hat. Im Bereich Gaming kaum gebraucht werden. Da gibt es ganz andere Baustellen die mehr Leistung freisetzen können. Angefangen beim Code.

NVidia hat die 4090 also so aufgelegt, weil sie ohne den neueren bei bisher bestehenden Standard verkauft werden kann. Nichts weiter...

Es ist jetzt Aufgabe der OEMs, den Standard erst mal breitflächig in den Markt zu drücken. Das wird ganz sicher nicht, schon ab morgen passieren. Sorry Leo, aber solcherlei analytische Betrachtungen fehlen Dir gänzlich.