PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 [50] 51 52 53 54 55 56 57 58 59 60 61 62

TurricanM3
2020-09-22, 17:27:36
Schwein gehabt Miami. Gönn ich dir aber, ich brauche die Karte eh nicht aktuell. Hätte sie nicht mal eingebaut @Lukü.

MiamiNice
2020-09-22, 17:32:58
Schwein gehabt Miami. Gönn ich dir aber, ich brauche die Karte eh nicht aktuell. Hätte sie nicht mal eingebaut @Lukü.


Entweder bekommen wir beide eine oder halt keiner. Eine von den beiden Damen hat keine Ahnung, hoffen wir das es Deine ist :wink:
Mit WaKü werde ich auf den Aqua Computer Kühler warten, der kühlt aktiv die Backside mit. Läuft sie halt 3-4 Wochen mit Luft.

Hab aktuell eh nichts zum spielen, will die Karte aktuell nur um alles spielen zu können wenn ich wollte :biggrin:
Für die paar Runden Supreme Commander abends mit Kumpels würde auch der IGP reichen ...

TurricanM3
2020-09-22, 17:58:59
Du scheinst wirklich bis dato der einzige zu sein. Im Luxx würd ich mich nicht blicken lassen an deiner Stelle. X-D
Du hast da auch nur die Karte bestellt? Ich nämlich mehr und schon Versandinfo über Teillieferung erhalten.

MiamiNice
2020-09-22, 18:03:27
Ja, ich habe nur die eine Karte bestellt.
Falls sie den wirklich kommt, kann ich sie diese Woche auch nur Donnerstag Abend testen. Von Freitag an bis Montag Abend bin ich außer Haus.

teezaken
2020-09-22, 18:36:42
Habe auch mal nachgefragt bzgl. der OC, mir wurde gesagt die hätten nicht mal welche auf Lager und keine Infos wann überhaupt welche kämen.

MiamiNice
2020-09-22, 18:41:15
Sieht dann wohl so aus als hätte meine Dame keine Ahnung gehabt :biggrin:

teezaken
2020-09-22, 18:45:47
Sieht dann wohl so aus als hätte meine Dame keine Ahnung gehabt :biggrin:
Hätte mich ja selber gefreut wenn sie Donnerstags käme. :P
Schätze Oktober kommt was.

Lawmachine79
2020-09-22, 18:47:28
Von Freitag an bis Montag Abend bin ich außer Haus.
Soll ich auf die Karte aufpassen? Ist eine gefährliche Welt da draußen...

WedgeAntilles
2020-09-22, 20:01:01
Miami, du findest die 3080 doch absoluten Mist - hast du die Karte nur gekauft um sie dann sowieso wieder zurückzuschicken?

Falls ja fände ich das ehrlich gesagt ziemlich daneben.

Vielleicht bin ich altmodisch, aber ich finde auch das "ich bestell 3 Stück, schaue welche am besten übertaktbar ist und schicke den Rest zurück" (gerne auch bei CPUs) und ähnliches asozial.

Werewolf
2020-09-22, 20:02:12
Er hat doch nur die 3090 bestellt.

BlacKi
2020-09-22, 20:07:50
breaking news für die lg oleds mit hdmi2.1 auf der ampere serie.
B6DRWe-5o8s

gedi
2020-09-22, 20:09:29
Ich denke es gibt die 3090 bald wie Sand am Meer. Die 80er wird’s in breiter Verfügbarkeit erst wieder mit 103 geben.

MiamiNice
2020-09-22, 20:37:15
Hätte mich ja selber gefreut wenn sie Donnerstags käme. :P
Schätze Oktober kommt was.

Noch haben wir ja ein wenig "Resthoffnung". Vielleicht waren eure beiden Damen nur unfähig, aber da glaube ich selbst nicht dran :biggrin:

Soll ich auf die Karte aufpassen? Ist eine gefährliche Welt da draußen...

Du benutzt die doch nur. Bei mir kann die schön rumidlen, bis zum Cyberpunk Release :tongue:

Miami, du findest die 3080 doch absoluten Mist - hast du die Karte nur gekauft um sie dann sowieso wieder zurückzuschicken?

Falls ja fände ich das ehrlich gesagt ziemlich daneben.

Vielleicht bin ich altmodisch, aber ich finde auch das "ich bestell 3 Stück, schaue welche am besten übertaktbar ist und schicke den Rest zurück" (gerne auch bei CPUs) und ähnliches asozial.

Nö, habe die 3090 Strix OC bestellt um sie zu benutzen. Fetten AQ Wasserblock drauf, auf 21xx prügeln und sich an den Balken erfreuen. Von diesen "Mehrfachbestellungen" halte ich auch nichts. Geöffnet zurück schicken und der Händler kann die nur noch als B Ware verkaufen ist blöd.

OC_Burner
2020-09-22, 21:25:29
Komisch ... mein Samsung B-Die macht schon über ~65°c Probleme
Und CPUs hab ich schon Stundenlang bei 150°c und mehr (weiter ging der Sensor nicht ^^) eingebrannt. verrückte Zeit :freak:


Habe letztens erst den Mem-Controller eines Ryzen Renoir versehentlich auf 127°C gebracht aber 150°C ist schon eine Hausnummer, um welche CPU handelte es sich?

Erinnert sich noch wer an die TwinMos Twister DDR1-Riegel? Da hatten bei ein paar Modellen (nicht allen) die Speicherchips gar kein Gehäuse sondern da waren die Memory-Dies per FlipChip direkt auf's PCB gelötet und der Heatspreader hatte direkten Kontakt zum Die. Hat sich ganz offensichtlich nicht durchgesetzt. Habe sogar noch ein oder zwei davon irgendwo rumliegen. :lol:
https://www.hwupgrade.it/immagini/twister.jpg https://www.hwupgrade.it/immagini/wlcsp-chip.jpg
Das Foto ist von einer Version mit WLCSP. Ich hatte aber die, wo die Chips direkt per FC4 aufgelötet wurden und klar exponierte Dies zeigte, wenn man den Heatspreader abnahm.


Geil Golden Dragon DDR1 Module hatten auch offene Chips aufgelötet und waren nur durch eine transparente Blende vor neugierigen Fingern geschützt.

Ich sehe die Doppelbestückung der 3090 weniger kritisch, da die rückseitigigen Module die Wärme direkt an die Backplate abgeben können und quasi wie ein besseres Wärmeleitpad wirken können.

WedgeAntilles
2020-09-22, 21:28:11
Nö, habe die 3090 Strix OC bestellt um sie zu benutzen. Fetten AQ Wasserblock drauf, auf 21xx prügeln und sich an den Balken erfreuen. Von diesen "Mehrfachbestellungen" halte ich auch nichts. Geöffnet zurück schicken und der Händler kann die nur noch als B Ware verkaufen ist blöd.

Ah, danke - hätte mich auch gewundert. Ich hatte dich nämlich auch nicht als jemanden eingeschätzt der absichtlich Ware kauft um 2 Tage damit zu spielen und wieder zurückzuschicken :)

Ich freu mich für dich, dass deine Lieferung rauskommt, du hast ja immer viel Wert auf ne neue Karte mit ordentlich Power + Ram gelegt.
Da gönn ich dir deine neue 3090 :)

Zergra
2020-09-22, 21:35:42
Nö, habe die 3090 Strix OC bestellt um sie zu benutzen. Fetten AQ Wasserblock drauf, auf 21xx prügeln und sich an den Balken erfreuen. Von diesen "Mehrfachbestellungen" halte ich auch nichts. Geöffnet zurück schicken und der Händler kann die nur noch als B Ware verkaufen ist blöd.

Gibt es bei AQ eine Liste für welche Karten dort was kommt? Oder warten die auf Einsendungen?

Linmoum
2020-09-22, 21:37:06
Bei dem ganzen Chaos was Custom/Referenz/halb-Referenz/whatever ist, blickt noch kein Hersteller durch. Watercool hat das ja schon mal durchblicken lassen, dass die sich zurzeit auch extrem unsicher sind. Was im Umkehrschluss natürlich bedeutet, dass alles länger dauert. Und das wird ja auch noch dadurch bedingt, dass die Karten aktuell quasi nirgendwo zu bekommen sind.

Bitte habt Verständnis, das auch wir noch nie einen so unübersichtlichen Grafikkartenlaunch erlebt haben, bei dem vollkommen offen ist, welcher Kühler sich wohl rechnen wird. Wir sind nach wie vor eine kleine Firma und können es uns nicht erlauben, Kühler zu entwickeln, die dann nur wenig gekauft werden - bei uns muss jedes Produkt laufen. Deshalb lasst uns bitte noch ein bisschen Zeit, bis der Markt sich genauer sortiert hat und wir an mehr Daten und Bilder von unterschiedlichen PCBs gekommen sind, um endgültig klar sagen zu können, welches Layout wir unterstützen können und wollen.
https://www.hardwareluxx.de/community/threads/watercool-produktinfo.278904/page-263#post-27698506

Ich glaube, bei z.B. Aqua Computer ist das auch nicht anders. Die "Großen" wie EK werden sicherlich etwas schneller abseits von der FE am Markt sein, aber das merkt man auch immer an der Qualität. Und gerade da sollte man bei Ampere mMn gar keine Kompromisse machen.

dildo4u
2020-09-23, 06:28:45
3060 soll auf 2080 Level sein und 3070 Ti liegt über 2080 Ti.
Ich vermute mal die Einschätzungen sind besser als die von Nvidia, die haben z.b 3070 unter der 2080 Ti.



https://videocardz.com/newz/galaxs-internal-roadmap-confirms-geforce-rtx-3080-20gb-geforce-rtx-3060

The_Invisible
2020-09-23, 07:23:19
3060 soll auf 2080 Level sein und 3070 Ti liegt über 2080 Ti.
Ich vermute mal die Einschätzungen sind besser als die von Nvidia, die haben z.b 3070 unter der 2080 Ti.



https://videocardz.com/newz/galaxs-internal-roadmap-confirms-geforce-rtx-3080-20gb-geforce-rtx-3060

War vielleicht doch gut das meine 3080 nicht gekommen ist. Habe keine Eile, dann sehe ich mir eben mal den 3080/3090 "Battle" hier im Forum an ;D

ShinyMcShine
2020-09-23, 07:28:58
3060 soll auf 2080 Level sein und 3070 Ti liegt über 2080 Ti.
Ich vermute mal die Einschätzungen sind besser als die von Nvidia, die haben z.b 3070 unter der 2080 Ti.



https://videocardz.com/newz/galaxs-internal-roadmap-confirms-geforce-rtx-3080-20gb-geforce-rtx-3060

Wäre toll, wenn die 3070Ti/16GB wirklich gleich nach BigNavi kommt...

dildo4u
2020-09-23, 07:31:27
Ja schätze mal mit der üblichen Nvidia Tax,AMD 499 NV 599.

Edgecrusher86
2020-09-23, 08:25:40
3060 soll auf 2080 Level sein und 3070 Ti liegt über 2080 Ti.
Ich vermute mal die Einschätzungen sind besser als die von Nvidia, die haben z.b 3070 unter der 2080 Ti.



https://videocardz.com/newz/galaxs-internal-roadmap-confirms-geforce-rtx-3080-20gb-geforce-rtx-3060
https://abload.de/img/relative4kd0kvp.png

Wobei NV die RTX 3070 unter genereller 4K Leistung auch knapp unterhalb der RTX 2080 Ti hat - mit RT und DLSS dann darüber.

dildo4u
2020-09-23, 08:28:02
Dort steht doch faster than 2080 Ti und das ist Raster Performance sonst wäre die 1080 Ti nicht auf Level mit der 2070S.
Ganz normales overgehype vom PR Team.

Edgecrusher86
2020-09-23, 08:34:05
Ja, das stimmt - aber bezüglich Y-Achse knapp darunter platziert. :D

ShinyMcShine
2020-09-23, 08:39:45
Ja, das stimmt - aber bezüglich Y-Achse knapp darunter platziert. :D

Evtl. sollte man den Mittelpunkt des Kreises nehmen, und nicht die Unterkante?

Daredevil
2020-09-23, 09:08:37
LOL ;D
Ich brauche diese Karte, unbedingt! :D:D:D

https://abload.de/img/unbenanntdakck.png
https://abload.de/img/unbenanntxokh0.png
kFz9afj8lu0

JVC
2020-09-23, 09:19:45
@Daredevil Irgendwas an der Karte zieht mich auch an :freak: (für das "Regal" brauch ich irgendwann mal eine, was für ein Monster :usweet:)
um welche CPU handelte es sich?

Sockel A Athlons und Durons, Keramik eben. (der Sensor der bei ~150° ausstieg war der Sockelsensor :ulol:)
(wir testeten ob das "einbrennen/einfahren" was bringt ^^ Takt runter auf 500, Spannung rauf, Voll-Last + sehr hohe Temperaturen über viele Stunden...
zu mindestens direkt geschadet hat es keiner CPU... was uns selbst überraschte, da wir eigentlich min. eine CPU so killen wollten)

M.f.G. JVC

ShinyMcShine
2020-09-23, 09:29:50
Also ich weiß nur eines: so ein Ungetüm kommt mir nie in den Rechner... :tongue:

Cubitus
2020-09-23, 09:37:59
Also ich weiß nur eines: so ein Ungetüm kommt mir nie in den Rechner... :tongue:

Hmm könnte meine Heizung ersetzen..
Oder man könnte auf der Backplate ein paar Rostbratwürste Grillen und am Ende der Karte ein paar Cocktailwürstchen aufstecken..

Zergra
2020-09-23, 09:41:21
Meine Zotac 1070 Extreme AMP (2.Rechner) ist ja sogar noch größer.... aber die ist schon richtig groß :D beides Tri-Slot
325mm x 148mm
Die FE 3090 hat nur 312x138.

Daredevil
2020-09-23, 09:41:57
LOL ;D
Ich brauche diese Karte, unbedingt! :D:D:D

https://abload.de/img/unbenanntdakck.png
https://abload.de/img/unbenanntxokh0.png
https://youtu.be/kFz9afj8lu0
Uhuhuhuhu! Igor teasert auf Twitter!
https://twitter.com/IgorWallossek/status/1308630333965959168/photo/1

Für den Vergleich:
Palit 2080ti > 1200g ( 250w @ ~1600rpm )
Asus 2080ti > 1350g ( 250w@ ~1300rpm )
MSI 2080ti > 1530g ( 300w@ 1300rpm )
V64 Nitro+ > 1560g ( 350w@ 1500rpm )
https://pbs.twimg.com/media/EikwWmLWsAAen-H?format=jpg&name=4096x4096

Arschsilent oder Arschschnell wird diese Kiste, oder halt beides.

rentex
2020-09-23, 09:49:06
Da wird man wohl ne Stützkonstruktion brauchen :-D Baugerüst?!

Edgecrusher86
2020-09-23, 09:52:31
Ein handlicher Wagenheber wird es auch tun - für zwei Karten im Low Level Explicit MGPU, haha. ;)

Ja, das ist schon echt 5XL - vor allem ab Werk. 2100g also ca. die reine Karte oder ein bisschen darauf.

basix
2020-09-23, 09:53:33
Arschsilent oder Arschschnell wird diese Kiste, oder halt beides.

Beides ;)

Die Karte hat gerade mal +10% TDP aber +50% Gewicht und wohl +100% Kühlfäche.

BigBangBacket
2020-09-23, 09:58:05
Gott sei Dank habe ich mir schon eine Grakastütze bestellt.
So wunderschön das Teil.

rentex
2020-09-23, 10:22:41
Irgendwie bin ich sehr neugierig auf die 3090...

Edgecrusher86
2020-09-23, 10:26:57
Also eines ist klar - die 3090 FE wird eine gute Sammlerkarte werden bei der schieren Größe. Kann man sich dann später mal auf einen Schrank oder ähnliches stellen - damals, als man HW noch physikalisch in den Händen halten konnte....:cool:

Dural
2020-09-23, 11:03:59
Die 3090 ist ziemlich rund, ich halte der Kauf von dieser Karte für deutlich sinnvoller als eine 3080.

Klar am meisten Geld wird man mit der 3090 verlieren, dafür hat man die nächste zwei Jahre seine Ruhe und kann nur geniessen ;)

Ich würde die 3090 aber ziemlich sicher unter Wasser setzen, da fällt die FE leider raus oder man kann mit dem komischen Strom Anschluss leben. (Optik)

w0mbat
2020-09-23, 11:06:44
Ich glaube nicht, dass die 3090 eine längere Lebensdauer hat als die 3080, dafür ist der Leistungsunterschied zu gering. Ist wie 4GB R9 290 vs 8GB R9 290X "Special Edition". Klar, die 8GB 290X ist die bessere Karte, aber zu dem Zeitpunkt, als die 4GB wirklich zu wenig wurden, war die Leistung schon nicht mehr ansprechend.

Dural
2020-09-23, 11:11:21
Die nächsten 2 Jahre wird man mit den 10GB sicher zu recht kommen, ja.

Die 3090 hat doch 21% mehr Alu, und 23% mehr Bandbreite.
Das kann in Spielen mit RT oder in hoher Auflösung den Unterschied von stockt etwas zu flüssig Spielbar machen. Und dank 24GB wird man Garantiert keine Technischen Nachlade-Ruckler erleben, wenn dürfte das Problem an der Software sein.

Ich würde das PT bei der 3090 auf 400Watt setzen, der Speicher auf ca. 1TB/s übertakten und gut ist.

Daredevil
2020-09-23, 11:34:49
Ich glaube nicht, dass die 3090 eine längere Lebensdauer hat als die 3080, dafür ist der Leistungsunterschied zu gering..

Was genau ist „Der Leistungsunterschied“?
Die 3090 kann spiele flüssig darstellen, die eine 3080 nicht darstellen kann, deswegen ist der Unterschied hier immens groß und der Preis ( Stand heute ) gerechtfertigt.

crux2005
2020-09-23, 11:36:30
Was genau ist „Der Leistungsunterschied“?
Die 3090 kann spiele flüssig darstellen, die eine 3080 nicht darstellen kann, deswegen ist der Unterschied hier immens groß und der Preis ( Stand heute ) stark gerechtfertigt.

3090 Preis verteidigen aber PS5 Controller ist teuer. Na gut. :)

MiamiNice
2020-09-23, 11:38:55
Ich glaube nicht, dass die 3090 eine längere Lebensdauer hat als die 3080, dafür ist der Leistungsunterschied zu gering. Ist wie 4GB R9 290 vs 8GB R9 290X "Special Edition". Klar, die 8GB 290X ist die bessere Karte, aber zu dem Zeitpunkt, als die 4GB wirklich zu wenig wurden, war die Leistung schon nicht mehr ansprechend.

Man kann doch hier im Forum an dutzenden Stellen lesen das die Leistungssprünge immer kleiner werden in Zukunft. Die 10Gb reichen schon heute nicht in einigen Games, die Konsolen und RT werden den VRam Verbrauch noch weiter erhöhen. Die Zeiten haben sich zu damals massiv geändert. Die 3090 wird viel besser altern als die 3080. Bei der 3080 musst Du schon jetzt in manchen Spielen mit den Details runter. Also trifft es sogar schon jetzt zu das die 3090 eine bessere Lebensdauer hat, da die 3080 schon heute nicht für alles reicht wenn man alle Regler rechts haben möchte, wovon man in dieser Preisklasse ausgehen sollte.

Sonyfreak
2020-09-23, 11:48:06
LOL ;D
Ich brauche diese Karte, unbedingt! :D:D:D

https://abload.de/img/unbenanntdakck.png
https://abload.de/img/unbenanntxokh0.png
https://youtu.be/kFz9afj8lu0Man kann sagen was man will, aber die Karte fällt für mich in die Kategorie "Leider geil". :frown:

Der Preis ist zum Glück so hoch, dass ich mich vermutlich davon überzeugen kann, nicht zu kaufen. :freak:

mfg.

Sonyfreak

basix
2020-09-23, 11:53:00
Ich finde die Karte auch geil. Aber ausgehend von 1199$ für eine 2080 Ti FE ist die 3090 FE mit 1499$ gar nicht so viel besser was P/L angeht :D (ausser verdoppelter Speicher natürlich)

Daredevil
2020-09-23, 11:54:26
3090 Preis verteidigen aber PS5 Controller ist teuer. Na gut. :)

Hm?

ChaosTM
2020-09-23, 11:59:50
Man kann doch hier im Forum an dutzenden Stellen lesen das die Leistungssprünge immer kleiner werden in Zukunft. Die 10Gb reichen schon heute nicht in einigen Games, die Konsolen und RT werden den VRam Verbrauch noch weiter erhöhen. Die Zeiten haben sich zu damals massiv geändert. Die 3090 wird viel besser altern als die 3080. Bei der 3080 musst Du schon jetzt in manchen Spielen mit den Details runter. Also trifft es sogar schon jetzt zu das die 3090 eine bessere Lebensdauer hat, da die 3080 schon heute nicht für alles reicht wenn man alle Regler rechts haben möchte, wovon man in dieser Preisklasse ausgehen sollte.


Nvidia spielt mit unseren Schwächen, speziell mit der Unfähigkeit mancher, den Qualitätsregler nach links zu bewegen.

Man hofft, das viele daher zur 90er greifen und nicht auf was vernünftiges warten.

Marketing-technisch natürlich wieder Top. Das kann die Jacke und seine Crew richtig gut.

arcanum
2020-09-23, 12:03:19
Nvidia spielt mit unseren Schwächen, speziell mit der Unfähigkeit mancher, den Qualitätsregler nach links zu bewegen.

Man hofft, das viele daher zur 90er greifen und nicht auf was vernünftiges warten.

Marketing-technisch natürlich wieder Top. Das kann die Jacke und seine Crew richtig gut.

wart mal ab bis die richtigen next gen spiele rauskommen und als mit weniger als 16gb nur noch auf low gespielt werden kann. wie ja allgemein bekannt ist, werden spiele heutzutage auf die obersten 0,1% optimiert /s

Dampf
2020-09-23, 12:04:20
LOL ;D
Ich brauche diese Karte, unbedingt! :D:D:D

https://abload.de/img/unbenanntdakck.png
https://abload.de/img/unbenanntxokh0.png
https://youtu.be/kFz9afj8lu0

Alter Verwalter, das Teil kannste auch als Knüppel benutzen :biggrin:

MiamiNice
2020-09-23, 12:06:57
Nvidia spielt mit unseren Schwächen, speziell mit der Unfähigkeit mancher, den Qualitätsregler nach links zu bewegen.

Man hofft, das viele daher zur 90er greifen und nicht auf was vernünftiges warten.

Marketing-technisch natürlich wieder Top. Das kann die Jacke und seine Crew richtig gut.

Jetzt wird es aber lustig :biggrin:
Ich reiße die Regler schon länger nach rechts als es NV überhaupt gibt. Mal abgesehen davon gibt es immer neue HW wenn die Regler nicht mehr nach ganz rechts gehen. Und das schon seit über 20 Jahren. Nur Turing habe ich ausgelassen. Für mich steht es überhaupt nicht zur Diskussion Regler nach links zu schieben. Dafür gibt es Konsolen.

ShinyMcShine
2020-09-23, 12:10:01
Jetzt wird es aber lustig :biggrin:
Ich reiße die Regler schon länger nach rechts als es NV überhaupt gibt. Mal abgesehen davon gibt es immer neue HW wenn die Regler nicht mehr nach ganz rechts gehen. Und das schon seit über 20 Jahren. Nur Turing habe ich ausgelassen. Für mich steht es überhaupt nicht zur Diskussion Regler nach links zu schieben. Dafür gibt es Konsolen.

Du hast also "damals" Crysis mit max. Qualität und akzeptablen fps gespielt?

ChaosTM
2020-09-23, 12:18:05
@Miami

ich schaff das auch nur unter Aufbringung der letzten mentalen Reserven.
Und ja, ich hab Crysis eine Zeit lang mit max Details "gespielt" - bis an die Kotzgrenze, weil es so geil aufgeschaut hat.. ;)

Sardaukar.nsn
2020-09-23, 12:20:21
Ganz interessantes Video zum Voltage/Power Scaling am Beispiel der 3080.

https://i.imgur.com/qE8TT9j.jpg

https://i.imgur.com/rtsmKla.jpg

Auch die anderen Videos von ihm fand ich informativ:
xdlW5F84CbQ

Sweet Spot für Ampere dürfte demnach irgendwo bei 0.9v bis 0.95v sein. Also bis ca. 375 Watt. Darüber kommt scheinbar nur noch heiße Luft. Mal sehen ob die 3090 hier noch oben mehr kann.

Screemer
2020-09-23, 12:22:33
Sieht so aus als wäre der Samsung Prozess da einfach am Ende. Ich denke nicht, dass sich die 3090 da groß anders verhalten wird, da es ja der selbe chip ist.

Troyan
2020-09-23, 12:33:49
Als ob die Turing-Werte stabil wären. Wahrscheinlich werden die Fehler im Timespy einfach ignoriert. Ich benötige für 1950Mhz 1,05V bei meiner RTX2080TI für einen stabilen Takt. Er will also 2055Mhz bei 360W mit 0,95V stabil geschafft haben?

Auch sind die Timespy-Werte für die 2080TI falsch. 300W 2080TI liegt bei 6600 Punkten oder so. Selbst bei Undervolting mit 1800MHz bei 0,8V liegt man bei 6600 Punkten. Ich komme auf maximal 7400Punkte bei 360W.

Sieht nicht nach realen Werten bei Turing aus.

MiamiNice
2020-09-23, 12:47:24
@Miami

ich schaff das auch nur unter Aufbringung der letzten mentalen Reserven.
Und ja, ich hab Crysis eine Zeit lang mit max Details "gespielt" - bis an die Kotzgrenze, weil es so geil aufgeschaut hat.. ;)

Ich lasse Spiele aktuell tatsächlich liegen wenn die Regler nicht nach rechts gehen. Z.b. PCars 2 ist so ein Fall mit Pascal und VR. Da hoffe ich das ich mit der 3090 endlich das Rig aufstellen und heizen kann. Allgemein erhoffe ich mir von der 3090 das alle Spiele mit 500% Upscaling in VR rennen.
Ich versenke nicht tausende von € in meine HW um eine Optik wie an einer Konsole bestaunen.

Rancor
2020-09-23, 12:52:32
Jetzt wird es aber lustig :biggrin:
Ich reiße die Regler schon länger nach rechts als es NV überhaupt gibt. Mal abgesehen davon gibt es immer neue HW wenn die Regler nicht mehr nach ganz rechts gehen. Und das schon seit über 20 Jahren. Nur Turing habe ich ausgelassen. Für mich steht es überhaupt nicht zur Diskussion Regler nach links zu schieben. Dafür gibt es Konsolen.

Deshalb gurkst du auch seit Ewigkeiten mit einer 1080Ti rum. Laber doch net immer so viel Müll :D

BlacKi
2020-09-23, 12:57:04
die kühlungsmethode des gehäuses ist ja mal geil^^

naja, mit der methode kann man die werte erstmal nicht ernst nehmen. weder im vergleich lukü oder auch wakü.

ChaosTM
2020-09-23, 13:01:56
Deshalb gurkst du auch seit Ewigkeiten mit einer 1080Ti rum. Laber doch net immer so viel Müll :D


Die 2080ti war idiotisch überteuert. Nicht jeder hat sich das angetan für 25-30% + zu einer 1080ti.

MiamiNice
2020-09-23, 13:08:07
Deshalb gurkst du auch seit Ewigkeiten mit einer 1080Ti rum. Laber doch net immer so viel Müll :D

Ist kein Müll, die Spiele in denen die 1080TI nicht reicht, habe ich nicht gespielt. So einfach ist das. Für Turing wollte ich kein Geld in die Hand nehmen, hat sich gerade zum Release nicht gelohnt. Und mitten in einer Generation kauft man dann auch keine GPUs. Da ist die monatliche Abschreibung nicht mehr OK.

Fragman
2020-09-23, 13:43:53
Da kam die Amazonmail mit der Absage der Bestellung für die Zotac 3080.

"Aufgrund eines technischen Fehlers können wir Ihre Bestellung leider nicht bzw. nicht vollständig weiter bearbeiten und mussten den/die Artikel daher aus Ihrer Bestellung stornieren."

War aber zu erwarten.

ChaosTM
2020-09-23, 13:45:33
Wenn es danach ginge, hätte ich in den letzte Jahren kein Spiel spielen dürfen - 4k/60 durchgehend kann die 1080ti definitiv nicht -- die 2080 aber auch ned.. ;)


add.: ich schalte aber eher die Auflösung als die Qualität runter. 1800p rennt fast immer mit 60fps und schaut ähnlich gut aus. 1620p ist aber die Untergrenze. Dann wird es deutlich sichtbar.

Leonidas
2020-09-23, 13:48:56
NV wird gar nix ankündigen oder?Das sind reine AIB Modelle.


NV wird das trotzdem ankündigen sowie Launch-Daten vorgeben.




Spricht doch nichts dagegen, ein Heft zu kaufen wenn der Inhalt interessiert?
Leute, die hunderte Euros in PC Hardware versenken, können bestimmt auch das eine oder andere Print-Magazin erwerben.


Vor allem hat man was in der Hand. Das kann man sogar ohne Device und auch ohne Internet lesen!




Stellt euch vor, kurz nach GA102 und GA104 kommt ein 7nm TSMC GA103, das wäre eine Blamage für Samsung. Ich glaube nicht dran.


"Kurz danach" ist für Halbleiter-Entwicklung & Fertigungsvorbereitung eher so etwas wie ein halbes bis ganzes Jahr.

ChaosTM
2020-09-23, 14:03:30
Vor allem hat man was in der Hand. Das kann man sogar ohne Device und auch ohne Internet lesen!



Das geht?! Welche teuflische Technik steck da dahinter?

MiamiNice
2020-09-23, 14:45:44
So viel zur Strix von Amazon:

Guten Tag,

ursprünglich war die Lieferung Ihrer Bestellung 028-5795170-xxxx für heute angekündigt.

Leider kommt es bei der Auslieferung zu einer Verzögerung. Wir rechnen damit, dass die Sendung voraussichtlich ein bis zwei Werktage später eintreffen wird.

Wir entschuldigen uns für diese Verzögerung. Das Einhalten unserer Lieferversprechen ist für uns von höchster Priorität und wir tun alles, damit Sie Ihre Sendung so schnell wie möglich erhalten.

Falls Sie Ihre Sendungsdetails einsehen möchten, gehen Sie bitte unter "Mein Konto" zu "Meine Bestellungen" oder klicken Sie auf folgenden Link:

https://www.amazon.de/meine-bestellungen

(Dies ist eine automatisch versendete E-Mail. Bitte antworten Sie nicht auf dieses Schreiben, da die E-Mail-Adresse nur zum Versenden, nicht aber zum Empfang von E-Mails eingerichtet ist.)

Freundliche Grüße

Kundenservice Amazon.de
http://www.amazon.de

Impressum: https://www.amazon.de/impressum

ShinyMcShine
2020-09-23, 14:49:47
So viel zur Strix von Amazon:

Das liegt an den Streiks bei der Post / DHL und nicht an Amazon, würde ich sagen...

BlacKi
2020-09-23, 15:13:15
ausserdem, was sind denn schon 2 tage.

Linmoum
2020-09-23, 15:32:41
Das ist eine automatische E-Mail vom System, weil das heute wie hinterlegt nicht in den Versand ging. Da passiert auch nix, die haben die Dinger nicht auf Lager und Miami wird auch noch zeitnah dasselbe bekommen wie die 3080-Besteller.

BigBangBacket
2020-09-23, 16:13:49
So viel zur Strix von Amazon:

Naja für den Superpreis, wartet man auch gerne ein paar Tage.
Und dann wird sie mit DPD geliefert und das Teil liegt erstmal eine Woche in einem Zuliefererfahrzeug 😂

dargo
2020-09-23, 16:34:03
LOL ;D
Ich brauche diese Karte, unbedingt! :D:D:D

https://abload.de/img/unbenanntdakck.png
https://abload.de/img/unbenanntxokh0.png

Willst du damit jemanden erschlagen? Ziegelstein ist billiger. :D

Nvidia spielt mit unseren Schwächen, speziell mit der Unfähigkeit mancher, den Qualitätsregler nach links zu bewegen.

Dann ist aber bei der Speicherbestückung der 3070/3080 was schiefgelaufen. X-D

Ganz interessantes Video zum Voltage/Power Scaling am Beispiel der 3080.

https://i.imgur.com/qE8TT9j.jpg

https://i.imgur.com/rtsmKla.jpg

Das übetrifft sogar Vega10. ;D :freak: Echt so miserable Taktsteigerungen vs. Verbrauch? Kann ich kaum glauben.

mczak
2020-09-23, 17:06:24
Sweet Spot für Ampere dürfte demnach irgendwo bei 0.9v bis 0.95v sein. Also bis ca. 375 Watt.
Schon von 0.8V auf 0.9V hast du bloss 5% mehr Takt für 30% mehr Verbrauch, und ab 0.9V geht so gut wie gar nichts mehr, ausser dass die Zentralheizung entlastet wird. Sweetspot sieht für mich anders aus...
Das scheint tatsächlich nicht gerade für den Samsung 8LPP zu sprechen (wenn man davon ausgeht dass prinzipiell die Ampere Architektur auf ISO-Prozess dieselben Taktraten wie Turing erreichen würde), wobei immerhin bei etwa "normalen" (also das was die Fabs als Standard vorsehen) Spannungen das Ergebnis ganz akzeptabel aussieht.

MiamiNice
2020-09-23, 17:44:51
Asus Strix bisher die besten Karten:

https://www.youtube.com/watch?v=8IDMS54jEFM&ab_channel=der8auer

https://www.youtube.com/watch?v=EnI94ReQusE&ab_channel=der8auer

dargo
2020-09-23, 18:31:59
Schon von 0.8V auf 0.9V hast du bloss 5% mehr Takt für 30% mehr Verbrauch, und ab 0.9V geht so gut wie gar nichts mehr, ausser dass die Zentralheizung entlastet wird. Sweetspot sieht für mich anders aus...
Das scheint tatsächlich nicht gerade für den Samsung 8LPP zu sprechen (wenn man davon ausgeht dass prinzipiell die Ampere Architektur auf ISO-Prozess dieselben Taktraten wie Turing erreichen würde), wobei immerhin bei etwa "normalen" (also das was die Fabs als Standard vorsehen) Spannungen das Ergebnis ganz akzeptabel aussieht.
Ich würde da erstmal die 3070 mit ihrem GDDR6 Speichercontroller abwarten um sich ein besseres Bild zu machen. Wunder erwarte ich dort aber auch nicht.

igg
2020-09-23, 18:45:39
Free Willy, keine Paywall. Und yep, Tests mit ~8 bis ~33 Millionen Pixel pro Frame. :)

Einer meiner Lieblingsbenches (die Karte darüber hat "leicht" bessere Werte): ;)

MfG
Raff
Kam der Test bereits? Interessiert mich ehrlich gesagt mehr als die 3090 Reviews :-)

Daredevil
2020-09-23, 18:53:40
Da kannste dir sicher sein, dass der Morgen als Extra rausfällt, um die 3090 in ihrem "richtigen" Umfeld glänzen zu lassen. ^^

Rampage 2
2020-09-23, 19:03:58
Komisch ... mein Samsung B-Die macht schon über ~65°c Probleme


WTF????? :eek:

Meine Samsung B-Dies (G.Skill DDR4-3200 CL14 RGB) werden schon bei 40< °C instabil (je nachdem, wie hoch der Takt und/oder wie scharf die Timings sind) und du betreibst sie bei 60+ °C !? :freak::freak: Mit was für einer Spannung betreibst du die Dinger und werden sie aktiv gekühlt?

Du hast also "damals" Crysis mit max. Qualität und akzeptablen fps gespielt?


"Damals" beim Erscheinen, konnte auch ich Crysis 1 nur auf einem Mix aus "Hoch-Mittel-Sehr Hoch" spielen auf meiner damaligen 8800 GTX - und trotzdem war die Framerate eher kacke. Damals hatten die GPUs genug Speicher aber zu wenig Leistung für C1.

Heute ist die Situation zunehmend umgekehrt: die GPUs haben mehr als genug Leistung, man kann in einigen Spielen alle Regler ganz nach rechts stellen, aber nur den Textur-Regler nicht - weil der VRAM nicht mehr ausreicht*, obwohl die GPU noch genug Leistung hat!:facepalm:

* = bei manchen Spielen je nach Auflösung sogar bei 11GB-Karten!

Deswegen sollten 12GB das absolute Minimum an Grafikspeicher für jede Karte mit 1080Ti-Leistung (oder höher) sein! Bei der 1080Ti mögen die 11GB noch gerechtfertigt sein, da 2017, aber die 2080Ti ist Ende 2018 wieder mit ihren 11GB sowas von ein Abfallprodukt gewesen, schon beim Marktstart - hätte es Nvidia wie mit der 980Ti gemacht, also 384Bit statt 352Bit, dann hätte die 2080Ti jetzt 12GB VRAM und wäre damit immer noch eine vernünftige Karte für die nächsten paar Jahre...

Ich lasse Spiele aktuell tatsächlich liegen wenn die Regler nicht nach rechts gehen.


+1

Ich habe auch eine ganze Reihe von gekauften Spielen erst Jahre später rausgekramt, nachdem ich die nötige Hardware dafür hatte, um sie mit maximalen Settings + AA/AF spielen zu können:P

Die Leute scheinen vergessen zu haben, warum man sich Grafikkarten kauft: nicht, um Spiele mit höheren fps oder flüssig spielen zu können (das kann man mit jeder GPU, wenn man die Regler ganz nach links schiebt), sondern um sie möglichst mit höchsten Settings und (falls noch Leistung vorhanden) AA/DS + AF + AO flüssig spielen zu können!!!

Wie kann man sich eine 700+ Euro GPU kaufen, um dann doch damit in einigen Spielen Kompromisse bei der Texturqualität eingehen zu müssen, weil der Hersteller beim Grafikspeicher gegeizt hat!? :upicard:

(jetzt kommt mir nicht wieder mit schlecht programmierten Spielen - es wird immer wieder Games geben, die ein Haufen Codeschrott sind! Was nützt mir als User diese Tatsache, wenn ich das Spiel auf meiner 8- oder 11GB-Karte nicht voll ausfahren kann!?)

Ganz interessantes Video zum Voltage/Power Scaling am Beispiel der 3080.

https://i.imgur.com/qE8TT9j.jpg

https://i.imgur.com/rtsmKla.jpg


Was bedeuten die letzten beiden Einträge (2160 MHz, 2205 MHz) ? Dass die GPU abgestürzt/nicht stabil ist? :|

R2

dildo4u
2020-09-23, 19:24:55
Nvidia selber bestätigt jetzt die 3090 Performance gegenüber 3080.

For 4K gaming, the GeForce RTX 3090 is about 10-15% faster on average than the GeForce RTX 3080, and up to 50% faster than the TITAN RTX.

https://www.nvidia.com/en-gb/geforce/news/rtx-3090-out-september-24/

Linmoum
2020-09-23, 19:25:35
Und:

Since we built GeForce RTX 3090 for a unique group of users, like the TITAN RTX before it, we want to apologise upfront that this will be in limited supply on launch day. We know this is frustrating, and we’re working with our partners to increase the supply in the weeks to come.

Daredevil
2020-09-23, 19:28:13
Und:

https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/rtx-3090-out-september-24/geforce-rtx-3090-vs-titan-x-studio-performance-alt.png

https://www.igorslab.de/en/workstation-graphics-card-charts-benchmarks-tests-and-details/13/
https://www.igorslab.de/wp-content/uploads/2020/05/01-Octanebench.png
hq-hq kommt hier mit seiner geprügelten 2080ti auf 353/1194pts, eine 3090 würde also Stock auf ~496 Punkte kommen, also 40% schneller als ne 400w 2080ti!
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12331096#post12331096

Dat Potential. :)

dargo
2020-09-23, 19:29:25
Nvidia selber bestätigt jetzt die 3090 Performance gegenüber 3080.



https://www.nvidia.com/en-gb/geforce/news/rtx-3090-out-september-24/
Einfach nur lol. :freak: RTX 3085 oder 3080TI hätte hier besser gepasst. ;) Jetzt wird auch klar warum die 3080 zuerst kam.

Olliver
2020-09-23, 20:47:48
Einfach nur lol. :freak: RTX 3085 oder 3080TI hätte hier besser gepasst. ;) Jetzt wird auch klar warum die 3080 zuerst kam.

Es ist doch etwa das, was zu erwarten war.
Lol ist nur der Aufpreis.

dargo
2020-09-23, 20:51:15
Naja... manch einer hatte ja +20% erwartet. ;) Und ja... der Aufpreis ist sogar mega lol.

Platos
2020-09-23, 20:54:51
Naja, ist eben eher wie ne Titan. Kostet so viel, Leistet nicht wirklich viel mehr und man bezahlt eig. einen riesen Aufschlag nur für bisschen mehr an Speicher.

In ein paar Wochen/wenigen Monaten kommt ne 20GB Version der 3080 vermutlich deutlich günstiger.

Das ist das selbe Prinzip wie sonst auch. Zuerst die Titan für überzogene Preise launchen, ein paar werden das schon kaufen. Und dann kommt ne leicht abgespeckte Version für deutlich weniger Geld.

BlacKi
2020-09-23, 21:02:13
Naja... manch einer hatte ja +20% erwartet. ;) Und ja... der Aufpreis ist sogar mega lol.
weiß nicht was daran lol sein soll. es war zu erwarten, man hat das früher schon genauso gemacht und die konkurenz hat ebenfalls solche geringen abstände und massive aufpreise.

manche leute hier sind nicht weit entfernt von gedi.

Dural
2020-09-23, 21:04:05
15% ist richtig gut für die 30watt mehr mit den 24gb, die karte ist somit effizienter.

Umso mehr pt die karte bekommt, umso mehr wird sie sich absetzen können. Hat ja 21% mehr alu und mehr bandbreite.

Gibt es schon takt vergleiche?

Linmoum
2020-09-23, 21:06:57
10-15% mehr Performance (wahrscheinlich näher an ersterem) bei ~10% mehr Verbrauch ist alles, aber effizienztechnisch sicher nicht "richtig gut".

Ansonsten wie immer NV-Marketing, das war ja gerade bei der 3080 hervorragend.

BigBangBacket
2020-09-23, 21:09:53
Zumal man auch anmerken muss das manche über 200 Euro mehr bezahlen für eine 3080 Custom, die dann 3 Frames mehr bringt. Dagegen sind ja die 15% schon brachial.
Aber auch ich hatte mit 20% erhofft. Kann aber auch mit 15 leben.

Supermegahyper LOl

MikePayne
2020-09-23, 21:52:42
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3090-verfuegbarkeit-liefersituation/

Since we built GeForce RTX 3090 for a unique group of users, like the TITAN RTX before it, we want to apologise upfront that this will be in limited supply on launch day. We know this is frustrating, and we’re working with our partners to increase the supply in the weeks to come.

Nvidia

EDIT: Linmoum war schneller

dargo
2020-09-23, 22:09:46
weiß nicht was daran lol sein soll. es war zu erwarten, man hat das früher schon genauso gemacht und die konkurenz hat ebenfalls solche geringen abstände und massive aufpreise.

Beispiele?


Umso mehr pt die karte bekommt, umso mehr wird sie sich absetzen können. Hat ja 21% mehr alu und mehr bandbreite.

Glaubst du eigentlich den bullshit den du hier wieder schreibst? :freak: Noch nie eine Spannungskurve gesehen?

Hier hast du bereits die Marschrichtung von GA102.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12436370&postcount=12303

Dort heißt es lächerliche +3% Performance bei +44% mehr Power wenn ich als Basis die 327W nehme. Das ist nicht schlecht, das ist die reinste Katastrophe.

btw.
Ich frage mich ernsthaft was Lederjacke da mit der 3080 für einen seltsamen Betriebspunkt gewählt hat? Dem Vergleich nach (470W vs. 250W) sieht das so aus, dass die 3080 für ca. 10% mehr Performance die doppelte Wattage säuft. WTF? :freak:

y33H@
2020-09-23, 22:30:31
Einer meiner Lieblingsbenches (die Karte darüber hat "leicht" bessere Werte): ;)

MfG
RaffAlso hier hat's die 2080 Ti überlebt, kein Crash ^^ aber ruckelt übel und krass matschige Texturen ... nur HZD sieht noch fieser aus.

Badesalz
2020-09-23, 23:24:29
10-15% mehr Performance (wahrscheinlich näher an ersterem) bei ~10% mehr Verbrauch ist alles, aber effizienztechnisch sicher nicht "richtig gut".An sich schon. Als vergleich lässt sich ja nur die 3080 nehmen und die +10/+10 der 3090 sind demgegenüber ein Universum besser ;)

Ansonsten wie immer NV-Marketing, das war ja gerade bei der 3080 hervorragend.Ich hab das ja schonmal gefragt. Überall, laufen solche Diskussionen wie hier. So hervorragend kann das imho nicht gewesen sein, bzw. brachte nicht besonders viel. Die Leute die auf eine gehofft haben, die hätten sie so oder so oder so bestellt gehabt. Die interessiert kein Marketing. Es gibt eine neue NV-GPU, haben will, und fertig.

btw.
Ich frage mich ernsthaft was Lederjacke da mit der 3080 für einen seltsamen Betriebspunkt gewählt hat?Er sieht das wohl wie ich :usweet: Ergo, daß so ein Ding 3 Sweetspots hat. Oder eher, Sweetcones :tongue:

1x der reale Perf/Watt Sweetspot, 1x Perf mit für ab Werk noch vertrettbaren Watts und 1x dem OC-Sweetspot.
Die 3080 läuft ab Werk am Ende des OC-Sweetspots. Die ~272W (86%) wären der erwähnte ab Werk Sweetspot.

Warum die Karte ab Werk bis zum Anschlag überfahren ist, werden wir vielleicht durch RDNA2 erfahren. Wenn sich da das Bild nicht klärt, dan wirds an sich noch lustiger :usweet:
Genauso lustig wird aber die 3080/20GB. Wieviel die in realen Szenarios - also weniger mit Witcher Mega UHD Endgodmod v14.2 - aus dem Netzteil ziehen wird und was das an FPS bringt... Das wird nochmals ein Fest :rolleyes:

p.s.:
Das mit Dural grenzt fast schon an vorsetzliche, seelische Tortur...

r3ptil3
2020-09-24, 00:13:43
An diejenigen die morgen eine 3090 wollen:

Achtet auf die TUF, denn diese ist ziemlich gut lagernd bzw. am besten. :wink:

Daredevil
2020-09-24, 00:15:56
Ich bestell bei Amazon! :D

Cubitus
2020-09-24, 00:18:21
An diejenigen die morgen eine 3090 wollen:

Achtet auf die TUF, denn diese ist ziemlich gut lagernd bzw. am besten. :wink:

Wo bei Asus direkt?

r3ptil3
2020-09-24, 00:18:43
Wo bei Asus direkt?

Nein, bei den grösseren Händler.

Aber die nonOC Version, ansonsten, aber in viel viel geringeren Stückzahlen, noch die Palit (falls die jemand ernsthaft in Betracht zieht für einen Kauf).

Beim Rest ist es nicht besser wie vergangene Woche beim 3080er Release.

BlacKi
2020-09-24, 00:23:42
Beispiele?


die abstände zwischen allen karten sind bei amd identisch, teils noch geringer.

der unter schied 5700/5700xt ist genauso klein. der unterschied zwischen 5700xt und r7 ist winzig und der aufpreis rießig. der aufpreis der frontier edition was rießig.

die rtx titan hatte nur +15% alles schon dagewesen und daher verstehe ich das lol von dir nicht. das die karte keine +20% hat eigentlich jeder gewusst.

Cubitus
2020-09-24, 00:24:08
Nein, bei den grösseren Händler.

Aber die nonOC Version, ansonsten, aber in viel viel geringeren Stückzahlen, noch die Palit (falls die jemand ernsthaft in Betracht zieht für einen Kauf).

Beim Rest ist es nicht besser wie vergangene Woche beim 3080er Release.

Also gerade Caseking? Alternate?, Amazon?

Bzw. viele haben nen crawler laufen, wird morgen denke ich lustig.. xD

just4FunTA
2020-09-24, 00:27:23
https://pbs.twimg.com/media/EikX-3IVkAYBLxr?format=jpg&name=large

r3ptil3
2020-09-24, 00:29:07
Also gerade Caseking? Alternate?, Amazon?

Ich kann da nur raten, aber vermutlich da am höchsten.

Ein Mitarbeiter eines grösseren Händler in der CH, hat in einem Chat gerade ausgeplaudert, dass die 3090 TUF nonOC lagernd wäre und nicht nur 10 Stück davon.

Die Regel aus der Vergangenheit weist darauf hin, dass wenn sowas in der kleinen CH lagernd ist, dies bei den grossen Händler in DE noch in deutlich grösseren Stückzahlen der Fall sein sollte.

BlacKi
2020-09-24, 00:31:53
Ich kann da nur raten, aber vermutlich da am höchsten.

Ein Mitarbeiter eines grösseren Händler in der CH, hat in einem Chat gerade ausgeplaudert, dass die 3090 TUF nonOC lagernd wäre und nicht nur 10 Stück davon.

Die Regel aus der Vergangenheit verrät, dass wenn sowas in der kleinen CH lagernd ist, dies bei den grossen Händler in DE noch in deutlich grösseren Stückzahlen der Fall sein sollte.
bei meinem 8700k hatte caseking ebenfalls ständig ware reinbekommen und schon nach wenigen tagen hatte ich 2x in der hand. trotz angeblichem fehlteil.

aber ich finde die preise zu gesalzen, nicht nur bei caseking, aber vorallem bei caseking.

Cubitus
2020-09-24, 00:32:47
Ich kann da nur raten, aber vermutlich da am höchsten.

Ein Mitarbeiter eines grösseren Händler in der CH, hat in einem Chat gerade ausgeplaudert, dass die 3090 TUF nonOC lagernd wäre und nicht nur 10 Stück davon.

Die Regel aus der Vergangenheit weist darauf hin, dass wenn sowas in der kleinen CH lagernd ist, dies bei den grossen Händler in DE noch in deutlich grösseren Stückzahlen der Fall sein sollte.

Okay... dann hoffen wir mal das Beste :)

r3ptil3
2020-09-24, 00:35:06
Okay... dann hoffen wir mal das Beste :)

Zu lange warten würde ich aber nicht, falls du das Teil dringend willst. :D

Aber wenn die Reaktionszeit innerhalb der ersten 50-60 Sekunden nach 15.00 Uhr nicht zu schlecht ist, denke ich dass die Chancen gut stehen in den nächsten Tagen die 3090 in den Händen halten zu können.


@Blacki
Dann hast du aber auch bestimmt frühzeitig mehrere Stück bestellt oder?
In einem zeitgemässen Warensystem, wird das einfach nach Bestelldatum sortiert. Oder auch beliebt: nach der Zahlungsmethode.

Spasstiger
2020-09-24, 01:11:26
Linus Tech Tipps hat seine RTX 3090 auch schon präsentiert: https://youtu.be/JDUnSsx62j8
NDA ist also offenbar abgelaufen, wird Zeit, den Review-Thread wieder zu öffnen.

crux2005
2020-09-24, 01:41:02
Linus Tech Tipps hat seine RTX 3090 auch schon präsentiert: https://youtu.be/JDUnSsx62j8
NDA ist also offenbar abgelaufen, wird Zeit, den Review-Thread wieder zu öffnen.

Yep. Die Karte ist eindeutig zu langsam für 8K. In FH4 benutzen sie High Preset. Von Control spreche ich nicht einmal. Medium, medium... und DLSS. Pfff.

@Miami, 3090 ist nix für dich. Regler waren nicht ganz recht. Kannst gleich zurückschicken. ;D;D

BlacKi
2020-09-24, 02:48:31
@Blacki
Dann hast du aber auch bestimmt frühzeitig mehrere Stück bestellt oder?
In einem zeitgemässen Warensystem, wird das einfach nach Bestelldatum sortiert. Oder auch beliebt: nach der Zahlungsmethode.
so wie die anderen auf amazon am 17., allerdings schon gegen 12uhr. war allerdings die evga ftw3 non ultra. ich rechne nicht damit das ich die karte erhalten werde. aber solange meine bestellung nicht storniert ist, solange habe ich einen platz in der warteschlange.

BlacKi
2020-09-24, 02:50:28
Linus Tech Tipps hat seine RTX 3090 auch schon präsentiert: https://youtu.be/JDUnSsx62j8
NDA ist also offenbar abgelaufen, wird Zeit, den Review-Thread wieder zu öffnen.
nice, ein 8k video.

wolik
2020-09-24, 06:22:35
An diejenigen die morgen eine 3090 wollen:

Achtet auf die TUF, denn diese ist ziemlich gut lagernd bzw. am besten. :wink:

Ja , ziemlich gut ;D
Ich wünsche allen viel Glück heute. 3080 gabs Heute zwischen 00:30 und 00:45 bei NV direkt.

Datum: Mittwoch, 23 September 2020, 02:36nachm. +02:00
Betreff: Ihre Bestellung 41178 // ASUS TUF-RTX3090-O24G-GAMING

Sehr geehrter Herr xxxxx,
leider mussten wir Ihre Bestellung aufgrund von Überbestellung stornieren. Wir entschuldigen uns vielmals für die Unannehmlichkeiten. Wir haben Ihnen den Betrag bereits gut geschrieben.


Mit freundlichen Grüßen,

Ihr ASUS-Shop Support Team
--------------------------------------

wolik
2020-09-24, 07:03:59
3080 bei NV verfügbar. Bei Zur Kasse gehen hängt, obwohl das Karte in EK schon liegt. Tipp direkte link zum EK.
https://store.nvidia.com/store?Action=DisplayPage&Env=BASE&Locale=de_DE&SiteID=nvidia&id=QuickBuyCartPage

Kauf nur mit KK

mr coffee
2020-09-24, 07:11:04
Mist, ich war zu spät.

Dural
2020-09-24, 08:05:36
Ich glaub ich hole mir eine 3090 fe, problem ist nur das nv nicht in die schweiz liefert :(

dargo
2020-09-24, 08:11:40
die abstände zwischen allen karten sind bei amd identisch, teils noch geringer.

der unter schied 5700/5700xt ist genauso klein.
Willst du mich verarschen? Eine 5700XT und eine 5700 trennen gerade mal um die 40€ wenn ich aktuell GH bemühe. :facepalm:

dildo4u
2020-09-24, 08:16:23
Er meint natürlich Performance.

Mangel76
2020-09-24, 08:50:08
Er meint natürlich Performance.

Ja natürlich, es ging aber um den Aufpreis für die 10% Mehrleistung!

dildo4u
2020-09-24, 08:58:31
Ist das selbe wie bei Vega 7 wer den Vram für die Arbeit braucht zahlt massiv Aufpreis.(400 zu 700€) AMD selber hat dort mit 8K Video etc argumentiert nur hat Nvidia deutlich besseren Support für Adobe Software, Rendering Software wie Blender mit Optix etc.

Dural
2020-09-24, 09:08:51
Immer diese Diskussionen...

Bei den CPU hat man die komischerweise nie, obwohl man da oft für lächerliche 1-2% mehr Leistung zum teil über 10-20% mehr Aufpreis Zahlt und die Taktraten mit den günstigeren CPUs auch locker einstellen kann. Man Zahlt also praktisch für nichts mehr. :rolleyes:

Und bei einer Grafikkarte ist die Kühlung angepasst, die Stromversorgung, und im falle der 3090 hat man auch noch satte 14GB mehr Speicher.

Th3o
2020-09-24, 09:17:09
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/

Läuft bei Nvidia

Tomahawk
2020-09-24, 09:28:24
@Th3o
Genau, übertaktete Karten können dazu neigen abzustürzen. Das war schon früher so und ist auch jetzt so. Ich hoffe, dass sich die Verwunderung darüber in Grenzen hält.

Th3o
2020-09-24, 09:41:40
@Th3o
Genau, übertaktete Karten können dazu neigen abzustürzen. Das war schon früher so und ist auch jetzt so. Ich hoffe, dass sich die Verwunderung darüber in Grenzen hält.
Artikel ganz gelesen?
<schnip>Die Inhaber der Grafikkarten haben sie nach eigenen Angaben nicht übertaktet</schnip>

dildo4u
2020-09-24, 09:46:55
AIB werden oft mit Werks OC ausgelitert die offensichtlich nicht genug getestet wurden.

Dural
2020-09-24, 09:57:14
So viel zum Thema die Partner selektieren die GPUs, alle lug und Betrug aber das weiss ich schon seit über 10 Jahren.

Nur die ganz teuren OC Extreme XY Karten werden von Hand Selektiert, alles andere wo einfach OC drauf steht wird ausser eine Funktionskontrolle gar nichts gemacht, die Einstellungen im Bios werden einfach so vorgenommen das es ein Grossteil der Chips packt, das ist alles. :rolleyes:

Ich hatte in meinem Leben schon weit über 100 Karten in meinen Händen, und oft hatten die non OC sogar oft die bessere Chips drauf als die OC Versionen davon. Es ist reine Glückssache, völlig egal was auf der Verpackung steht.

Traurig finde ich viel mehr das es "Fachmedien" (Hallo Ingo) gibt die dieses Märchen von selektieren von Chips ständig und immer wieder predigen. Ich war einer der ersten der bei Turing das A / B Chip Märchen hinterfragt hat, heute weiss man das es auch da eine reine Glückssache war wie gut sich der Chip übertakten lies.

OC Versionen ist für die Hersteller nur eins: Aus dem nichts mehr Geld zu schaffen.

WedgeAntilles
2020-09-24, 10:00:49
Artikel ganz gelesen?
<schnip>Die Inhaber der Grafikkarten haben sie nach eigenen Angaben nicht übertaktet</schnip>

Der Artikel schreibt von Abstürzen bei mehr als 2,0GHZ.

Die Founders Edition taktet doch ein ganzes Stück niedriger, oder?

Es sind also übertaktete Karten.
Falls Nvidia jetzt nicht den Customs die eindeutige Freigabe: "Ihr könnt auch über 2,0GHZ fahren" gegeben hat, liegt der Fehler nicht bei Nvidia sondern primär bei den Anbietern wie Asus oder MSI, die eine übertaktete Karte ohne genaue Prüfung in den Handel bringen.

Für den Endkunden natürlich ein Alptraum - und schlussendlich reflektiert das auch negativ auf Nvidia.

Aber es handelt sich um deutlich übertaktete Karten - das darf man halt nicht vergessen.

Th3o
2020-09-24, 10:03:09
Wohl um werksübertaktete Karten, was letztendlich zeigt, dass diese auf Kante genäht wurden. Die Zeit des Übertaktens ist bei Nvidia wohl auch vorbei.

Daredevil
2020-09-24, 10:04:27
Jays2Cents kommt auch nicht über 2Ghz, selbst mit seiner Klimakühlung.
Vermutlich haben manche AIBs so einen fetten Kühler verbaut, dass die Karte denkt, sie könnte ( thermisch ) über 2 Ghz laufen, wobei dann aber die Spannung nicht ausreicht.

Ist in der Tat ärgerlich, aber ob das Problem nun in der Masse besteht, sieht man wohl erst, wenn die Karte auch in der Masse ankommt. Vereinzelte Meldungen sagen bei einer Karte, die hier im Forum vielleicht 5 mal unterwegs ist, nicht viel aus.
Wenn da einer ein Problem hätte, sind das halt 20% Fehlerquote.

Andererseits sind bei manchen Karten die SpaWas auch auf der Rückseite, da ist Gigabyte mit seiner Vega ja schon ordentlich auf die Nase gefallen, da gab es auch viele Leute mit Abstürzen ( inkl. mir ).

Edit:
Die Zeit des OC ist definitiv vorbei mit der 3080 bzw. Nvidia macht das selbst ^^

mironicus
2020-09-24, 10:09:14
Ja, sie zerstören damit ein komplettes Geschäftsmodell. :D

WedgeAntilles
2020-09-24, 10:11:15
Ehrlich gesagt begreife ich auch nicht ganz, dass eine Karte wie die 3080, die ja offensichtlich in der FE schon sehr Nahe am Limit desgint ist

a) von einem Hersteller noch mal deutlich übertaktet werden muss
b) diese Übertaktung - wenn sie denn sein muss - nicht wirklich gründlich geprüft wird sondern eher nach "wird schon klappen" verkauft wird
c) ein Kunde die übertaktete Karte kauft

Eine eh schon sehr stromhungrige und heiße Karte wegen was, 3%? mehr Leistung noch mal um über 10% höher zu takten?

Muss man glaube ich nicht nachvollziehen können.

mr coffee
2020-09-24, 10:15:11
Die Situation ist halt auch kundenseitig so, dass man kaum eine Wahl hat, man nimmt was man bekommt.

Daredevil
2020-09-24, 10:15:14
Die AIBs kennen halt nur "dicker Kühler drauf > Gut", Nvidia hat hier aber vorher einen Kühler designt, der nicht nur groß, sondern auch technisch neue Maßstäbe setzt.
Den mal eben zu übertrumpfen UND noch schneller zu sein ist Sicherlich für die AIBs nicht einfach.

Google stellt mit ihrem Pixel ja ebenfalls eine "Android Founders Edition" dar und die übertrumpft ebenfalls so manche anderen Hersteller.
Je Stärker die "Basis" ist, desto schwächer wird natürlich die Konkurrenz.

Den 1080ti FE kannste im Grunde links liegen lassen, dafür musste aber auch kein Geld für den Kühler in die Hand genommen werden. Bei Ampere allerdings...

Tomahawk
2020-09-24, 10:29:59
Selektion von Chips kann auch mit einfachen Mitteln erfolgen, z.B. sind die Chips in der Mitte eines Wafers besser. Wie gut, dass mir solche Spielereien wie OC nie wichtig waren.

@Th3o
Ich habe den Artikel gelesen, keine Sorge. Aber > 2 GHz ist für mich OC, egal wer dafür verantwortlich ist.

dargo
2020-09-24, 10:57:31
Ist das selbe wie bei Vega 7 wer den Vram für die Arbeit braucht zahlt massiv Aufpreis.(400 zu 700€)
Gegenüber was? Zudem ist der Vergleich ziemlicher Bullshit da deine 400€ Karte (welche auch immer?) kein HBM verwendet. Bei HBM weiß man wenigstens wohin der Aufpreis wandert.

Der Artikel schreibt von Abstürzen bei mehr als 2,0GHZ.

Die Founders Edition taktet doch ein ganzes Stück niedriger, oder?

Lest ihr eigentlich die Artikel? :rolleyes: Die >2Ghz liegen in Games mit weniger GPU-Last an, Odyssey ist so ein Kandidat! Meine Güte... es ist erschreckend lesen zu müssen, dass offenbar manche immer noch nicht das Powermanagement bei Grafikkarten verstanden haben.


@Th3o
Ich habe den Artikel gelesen, keine Sorge. Aber > 2 GHz ist für mich OC, egal wer dafür verantwortlich ist.
:facepalm:

Jays2Cents kommt auch nicht über 2Ghz, selbst mit seiner Klimakühlung.

Das sagt doch rein gar nichts aus. Welche Games hat er getestet, welche Auflösung? Wenn er alles in 4k abspult kann das schon reichen. Ein anderer User spielt in 1440p und somit ist der Boosttakt auch höher als in 4k.

dildo4u
2020-09-24, 11:01:14
Der Speicher auf der 3090 ist auch High-End und teurer als bei den Mainstream Karten.
Wenn nur Micron ihn baut zahlt NV natürlich ordentlich drauf da sie nicht Samsung vs Micron ausspielen können.

dargo
2020-09-24, 11:03:30
Der Speicher auf der 3090 ist auch High-End und teurer als bei den Mainstream Karten.

Der Speicher der 3080 ist der selbe, nur weniger. :rolleyes:

unl34shed
2020-09-24, 11:04:07
Ich habe den Artikel gelesen, keine Sorge. Aber > 2 GHz ist für mich OC, egal wer dafür verantwortlich ist.

Wenn die Karte aber per Default über die Boostclock (1710MHz) geht, wie es bei Nvidia mittlerweile normal ist, ist es irgendwie kein OC mehr, sonder ein vermurkstes setting der Karte

dildo4u
2020-09-24, 11:07:33
Der Speicher der 3080 ist der selbe, nur weniger. :rolleyes:
Ja offensichtlich ist er teuer der Haupt Kritikpunkt an der Karte aus dem AMD Lager ist doch nicht genug Vram.

MiamiNice
2020-09-24, 11:20:47
https://abload.de/img/asdtsk8f.jpg

-Ninetails-
2020-09-24, 11:32:47
Es ist schrecklich. Ich wollte doch nur einen neuen Rechner für Cyberpunk 2077 und jetzt hänge ich hier schon wochenlang in den ganzen Ampere Threads rum. Ein Wechselbad der Gefühle. Erst scheint die 3080 super für den Preis, dann ist sie aber nicht verfügbar. Bestellung da, Stornierung hier. Ein riesiger Abfuck.

Ich frage mich ob bis Mitte November genug 3080 produziert sind und ob diese nicht durch AMD obsolet werden.

dildo4u
2020-09-24, 11:34:29
Cyberpunk kommt doch erst im November bis dahin haste alle Infos um Entscheidungen zu treffen.

MiamiNice
2020-09-24, 11:38:38
Es ist schrecklich. Ich wollte doch nur einen neuen Rechner für Cyberpunk 2077 und jetzt hänge ich hier schon wochenlang in den ganzen Ampere Threads rum. Ein Wechselbad der Gefühle. Erst scheint die 3080 super für den Preis, dann ist sie aber nicht verfügbar. Bestellung da, Stornierung hier. Ein riesiger Abfuck.

Ich frage mich ob bis Mitte November genug 3080 produziert sind und ob diese nicht durch AMD obsolet werden.

Die 3080 wird nicht erst durch AMD obsolet, sie ist es jetzt schon. Wenn 3080 dann bitte eine 20Gb Version oder direkt ne Navi Karte.

Marodeur
2020-09-24, 12:04:09
https://pbs.twimg.com/media/EikX-3IVkAYBLxr?format=jpg&name=large


Noch 3 Wochen warten bis zur 3070... Auf dem Bild sieht man leider keine 3070 8GB/16GB im Gegensatz zur 3080. Schade.

Hakim
2020-09-24, 12:07:06
PG142 SKU 0 ist Höchstwahrscheinlich 3070ti mit 16gb.

dildo4u
2020-09-24, 12:08:08
Das könnte von AMD abhängen wenn AMD ein 500€ Modell mit 16GB bringt und die 3070 TI 100€ mehr kostet muss sie imo mit 16GB kommen.

nordic_pegasus
2020-09-24, 12:08:13
Noch 3 Wochen warten bis zur 3070... Auf dem Bild sieht man leider keine 3070 8GB/16GB im Gegensatz zur 3080. Schade.

PG142 ist das Board der RTX 3070. SKU 0 sollte "höher" sein als SKU 10, darum wird in der Folie vermutlich die RTX 3070 Ti/Super gemeint sein mit 16GB und GA104 Vollausbau?!?.

dargo
2020-09-24, 12:09:40
Noch 3 Wochen warten bis zur 3070... Auf dem Bild sieht man leider keine 3070 8GB/16GB im Gegensatz zur 3080. Schade.
PG142 SKU 0 in Form einer 3700TI wird wahrscheinlich ein vollwertiger GA104 mit dann 16GB 16Gbps GDDR6 und möglicherweise etwas höheren GPU-Taktraten werden.

Marodeur
2020-09-24, 12:09:45
Die Frage ist ja kommt auch eine "normale" 3070 mit 16 GB. Ohne den weiteren Preisaufschlag für TI.

Bei der TI vermute ich fast wegen des Vollausbaus und der 16 GB schrammt man da langsam an den Preis der normalen 3080 mit 10 GB.

dargo
2020-09-24, 12:13:55
Bei der TI vermute ich fast wegen des Vollausbaus und der 16 GB schrammt man da langsam an den Preis der normalen 3080 mit 10 GB.
Da kannst du dir sogar ziemlich sicher sein. ;) 649$ für eine 3070TI 16GB passen wunderbar ins Portfolio. Je nachdem wo AMD RDNA 2 im Preisgefüge platziert könnten es dann natürlich auch 599$ werden. Konkurrenz und so. :wink:

24p
2020-09-24, 12:20:23
Es ist schrecklich. Ich wollte doch nur einen neuen Rechner für Cyberpunk 2077 und jetzt hänge ich hier schon wochenlang in den ganzen Ampere Threads rum. Ein Wechselbad der Gefühle. Erst scheint die 3080 super für den Preis, dann ist sie aber nicht verfügbar. Bestellung da, Stornierung hier. Ein riesiger Abfuck.

Ich frage mich ob bis Mitte November genug 3080 produziert sind und ob diese nicht durch AMD obsolet werden.

Naja, so schlimm ist das imo nicht. Die 10Gb 3080 ist imo eh nicht so attraktiv. Dann lieber warten auf die 20Gb bzw. was AMD zu bieten hat und dann eine Entscheidung treffen.

Fragman
2020-09-24, 12:21:18
Noch 3 Wochen warten bis zur 3070...

Wollen wir wetten?
Das werden sicher mehr als 3 Wochen. In 3 Wochen werden die wohl nichtmal die 3080 Nachfrage befriedigt haben. Die 3070 wird wohl ein reiner Papierlaunch, zumindest erwarte ich nichts anderes mehr.
Die Kapazitäten sind offensichtlich am Ende (Zotac musste ja schon wegen 20K Bestellungen stornieren, wie lange ist dann wohl eine Knappheit abzusehen?).
Die Preise werden auch nicht haltbar sein, siehe 3080. Bei der 3090 kann man ab heut Nachmittag ähnliches erwarten.

basix
2020-09-24, 12:23:11
Vom GA104 werden aber vermutlich deutlich mehr Chips produziert, er kommt 4 Wochen später und es wird normaler GDDR6 verwendet. Lieferengpässe sind deutlich unwahrscheinlicher.

Daredevil
2020-09-24, 12:25:43
3090 Test um 13 Uhr bei igorslab auf YT

Edit: YT App zeigt Quatsch an

4Fighting
2020-09-24, 12:27:29
3090 Test um 13 Uhr bei igorslab auf YT

Eher 15 Uhr:confused:

BlacKi
2020-09-24, 12:27:45
und ob diese nicht durch AMD obsolet werden.
was macht dich so sicher das amd besser liefern kann? mal davon abgesehen, das dich zu CP77 wohl kaum dasselbe oder ein besseres spieleerlebnis erwarten wird. bei dem ganzen featurebrett das mit nv kommt.

just saying

dildo4u
2020-09-24, 12:27:51
15 Uhr wie immer.

https://www.youtube.com/watch?v=w118WrBENO8

Daredevil
2020-09-24, 12:28:55
Hm... in der YT TV App steht 13 Uhr :<
Sonst hätte ich es nicht gepostet ^^

dargo
2020-09-24, 13:03:49
Wollen wir wetten?

Gegen was? Virtuelle Kekse? :tongue:

GA104 ist wesentlich kleiner, ergo werfen die Wafer mehr ab. Gleichzeitig ist der Launch der 3070 ca. 1 Monat später. Gibt also etwas mehr Vorlaufzeit. Und mit Lieferengpässen bei GDDR6X (sollte es welche geben) hat die 3070 auch nicht zu kämpfen.

was macht dich so sicher das amd besser liefern kann?
Naja... in diesem Forum kauft doch eh kaum jemand AMD, ergo müssten die Lager voller sein. :weg:

Platos
2020-09-24, 13:07:04
3090 Test um 13 Uhr bei igorslab auf YT

Eig. interessiert mich die 3090 ja kein bisschen aus Käufersicht. Aber die "Leistung" des Kühlers macht mich schon neugierig. Auf Bildern sieht die Karte gross aus, ja, aber stellt man sie mal neben eine fette Custom-karte, sieht man, wie gross die Karte wirklich ist.

Und das Kühlerdesign finde ich interessant. Gepaart mit der Grösse bin ich mal gespannt, wie gut die Kühlung ist bei Igor.

Dschounz
2020-09-24, 13:44:11
Hm... in der YT TV App steht 13 Uhr :<
Sonst hätte ich es nicht gepostet ^^


Ist wohl das alte Problem mit GMT Zeit => 13:00 Uhr + 2 Std = 15:00 Uhr Lokalzeit in D

Ich denke, mehr als +10% max zur 3080 sehen wir nicht von dem Ziegelstein...zumindest in aktuellen Spielen

HOT
2020-09-24, 13:45:13
Gegen was? Virtuelle Kekse? :tongue:

GA104 ist wesentlich kleiner, ergo werfen die Wafer mehr ab. Gleichzeitig ist der Launch der 3070 ca. 1 Monat später. Gibt also etwas mehr Vorlaufzeit. Und mit Lieferengpässen bei GDDR6X (sollte es welche geben) hat die 3070 auch nicht zu kämpfen.


Naja... in diesem Forum kauft doch eh kaum jemand AMD, ergo müssten die Lager voller sein. :weg:
Der Engpass wird nur bei 102er und GDDR6X liegen, jo. Die Lage wird sich mMn erst entspannen, wenn Micron 16Gb in großen Mengen liefern kann und/oder GA103 den Markt betritt. Oder eben wenn AMD viele Verkäufe kostet.
GA104 wird sicherlich in großen Mengen verfügbar sein, das sehe ich auch so.

aufkrawall
2020-09-24, 13:48:29
Bis auf den Punkt mit der tatsächlich guten Performance, ist es wirklich ein reinrassiger AMD-Launch. :ulol:

HOT
2020-09-24, 14:01:27
Übrigens wird man beim GA103 sich am originalen GA103 mMn orientieren. Der wird sicherlich 7LPP werden, aber weiterhin 60SMs bieten, wie der originale GA103. Das geht kaum anders, da der Chip jaeigentlich mit 6x10 SMs konzipiert worden sein müsste. Der Prozess kompensiert dann den Taktunterschied, sodass eine 3080 Super möglich wird, gepaart natürlich mit 16Gb GDDR6X. Oder man muss es halt in 8LPP so hinfuckeln, dass 6x11 SMs möglich sind. In der Theorie ist das machbar, in der Praxis? Es bliebe auf jeden Fall unbenutzter Freiraum auf dem Chip -> sehr unwahrscheinlich mMn. Ich würd sagen, die Chance auf einen Refresh von GA103 und GA102 Mitte 2021 ist durchaus gegeben in 7 LPP.
Aber Wunder würd ich davon auch nicht erwarten. Das gibt halt etwas mehr Takt für ne 3080 Super und ne 3090 Super.

Cyberfries
2020-09-24, 14:23:49
7LPP werden, aber weiterhin 60SMs bieten, wie der originale GA103. Das gibt halt etwas mehr Takt für ne 3080 Super und ne 3090 Super.

Bei 60SM müsste der Chip mindestens mit 2,2GHz in Spielen takten um überhaupt an die 3080 ranzukommen.
Für +10% sind dann über 2,4GHz nötig, das kann ich mir nicht vorstellen, auch nicht in 7nm.
6GPC à 12SM wie bei GA102 klingt sinnvoller: 72SM @ 2GHz ist etwa 3080+10%

Leonidas
2020-09-24, 14:24:31
https://pbs.twimg.com/media/Eiq7oaGXkAQ7jUF?format=jpg

Daredevil
2020-09-24, 14:31:15
https://videocardz.com/newz/palit-launches-geforce-rtx-30-gamerock-series-with-tdp-up-to-420w
The RTX 3090 GameRock OC is officially listed with a TDP of 420W. That’s 70W above the reference specs. The RTX 3080 GamingRock OC is rated a 370W (+50W), while RTX 3070 GameRock OC is 270W (+50W).


https://external-content.duckduckgo.com/iu/?u=http%3A%2F%2Fbestanimations.com%2FScience%2Fengines%2Fcore-engine-turbine-motor-animation.gif&f=1&nofb=1

dargo
2020-09-24, 14:39:16
Die 500W kriegen die auch noch hin. ;D

Daredevil
2020-09-24, 14:41:18
420w sind ja perse okay, wenn der Kühler dabei auch die Hitze wuppt. So ein Tri Slot Kühler macht das aber bestimmt nicht. :X
Das kann vermutlich nur die FE oder die GB mit 4-Slot.

Athlonxp
2020-09-24, 15:05:11
nice, ein 8k video.

eine standbilder show :D

Lawmachine79
2020-09-24, 15:27:46
Die 500W kriegen die auch noch hin. ;D
Tja, Leistung kostet halt Leistung.

TurricanM3
2020-09-24, 15:50:12
Ich finde angesichts der ganzen SLIs Konfigurationen mit 2-3 Karten, die ich bis vor einigen Jahren immer hatte, 400w eigentlich noch voll in Ordnung. Mit Intels HEDT hatte ich idle lange Zeit schon Richtung 200w. :freak:

NC
2020-09-24, 15:58:38
Hat jemand von euch eine 3090 abgegriffen? Ich sehe nirgens welche, auf geizhals gab es 0 deutsche Anbieter.

BigBangBacket
2020-09-24, 16:07:30
Hat jemand von euch eine 3090 abgegriffen? Ich sehe nirgens welche, auf geizhals gab es 0 deutsche Anbieter.

20 Minuten habe ich den Shop neu geladen. Hatte eine im Warenkorb aber hat dann nicht weiter geladen. Dann war sie schon nicht mehr verfügbar.

Tomahawk
2020-09-24, 16:08:02
@NC
Es gibt welche bei Alternate, wenn du dir eine kaufen möchtest.

Durch die im Vergleich zur 3080er geringere Nachfrage scheint es dieses Mal genug Grafikkarten zu geben.

dargo
2020-09-24, 16:16:29
Tja, Leistung kostet halt Leistung.
Echt? Ich dachte die 3090 würde Strom erzeugen.

basix
2020-09-24, 16:17:52
https://pbs.twimg.com/media/Eiq7oaGXkAQ7jUF?format=jpg

Mannomann. Da der Zlatan mir irgendwie sympathisch ist, muss die 3090 FE nun auch gut sein :D

Ne, Spass beiseite. Viral Marketing at its best. Zumindest zlatanisiert die Karte PSUs am Laufmeter :ulol:

SentinelBorg
2020-09-24, 16:27:32
Mannomann. Da der Zlatan mir irgendwie sympathisch ist, muss die 3090 FE nun auch gut sein :D

Ne, Spass beiseite. Viral Marketing at its best. Zumindest zlatanisiert die Karte PSUs am Laufmeter :ulol:
Dazu passend: https://onefootball.com/de/news/milan-star-fehlt-vorerst-ibrahimovic-positiv-auf-corona-getestet-31156186

Die kommt also gerade richtig, er hat jetzt auch viel Zeit daheim. Oder hat er sich Zeit gemacht? ;D

BlacKi
2020-09-24, 16:31:44
eine standbilder show :D
no probs bei mir

Thunder99
2020-09-24, 16:46:34
Die Leistung sieht gar nicht gut aus wenn man sie auf 250W normiert. Sie ist sogar destrastiös gemessen an den Versprechungen.

Hoffentlich gibt es Tests die genau das Untersuchen und es schononungslos offenlegen. Eventuell öffnen sich bei paar die Augen.

TurricanM3
2020-09-24, 16:50:08
Die Strix OC hat wohl 480w PT. :biggrin:

https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/

V-Info hab ich allerdings keine. Gehe auch nicht davon aus, dass die schnell kommt.

Daredevil
2020-09-24, 16:51:44
Die Leistung sieht gar nicht gut aus wenn man sie auf 250W normiert. Sie ist sogar destrastiös gemessen an den Versprechungen.

Hoffentlich gibt es Tests die genau das Untersuchen und es schononungslos offenlegen. Eventuell öffnen sich bei paar die Augen.
Ich prophezeie dir 2080ti Leistung bei 160-180w.
Ja, wirklich. Nicht mehr und nicht weniger. :)
2080 Leistung habe ich mit ner 2080ti schon bei 160w geschafft.

Mit richtigem gescheiten UV und im richtigen "Sweetspot".
Ergebnisse kommen, wenn eine 3090 hoffentlich noch diese Woche bei mir eintrifft.
Den Fehler mache ich nicht noch einmal, nur auf ein Pferd zu setzen. ( Fuck Amazon :D )

dildo4u
2020-09-24, 16:52:08
Die Leistung sieht gar nicht gut aus wenn man sie auf 250W normiert. Sie ist sogar destrastiös gemessen an den Versprechungen.

Hoffentlich gibt es Tests die genau das Untersuchen und es schononungslos offenlegen. Eventuell öffnen sich bei paar die Augen.

Performance per Watt hat sich nicht negativ geändert gegenüber 3080.

https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/5/#abschnitt_energieeffizienz_in_fps_pro_watt

aufkrawall
2020-09-24, 17:00:34
Gibt halt zwei Chips mehr als bei der 3080 und breitere Anbindung, da müssen die Speicherchips unter Stress selbst nicht so viel saufen.
Spricht auch gegen den Samsung-Prozess.

Dural
2020-09-24, 17:18:09
Stimmt doch gar nicht :rolleyes:

Die 3090 ist effizienter.

MiamiNice
2020-09-24, 17:25:50
Die Strix OC hat wohl 480w PT. :biggrin:

https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/

V-Info hab ich allerdings keine. Gehe auch nicht davon aus, dass die schnell kommt.

Ja man, kotzt mich mega an.
Auch im Asus Web Store war keine zu ergattern :mad:

Ich glaube wenn meine geliefert wird überfalle ich Deinen Postboten, dann habe ich zwei. Du bist ja quasi mein Nachbar ;D

Adam D.
2020-09-24, 17:36:22
Stimmt doch gar nicht :rolleyes:

Die 3090 ist effizienter.
https://www.igorslab.de/wp-content/uploads/2020/09/04-UHD-Efiiciency-1.png
Merklich effizienter!

Asaraki
2020-09-24, 17:44:34
Ist der Abstand zur 3080 viel kleiner als bei den letzten Modellen von Titan zur ~80er? Müsste schon so sein, oder? Irgendwie schon komisch o_O

Troyan
2020-09-24, 17:46:06
Ist nicht zu vergleichen. Bei Pascal und Turing war der mittelgroße Chip in den 80ziger verbaut. Wenn müsste man die 3090 mit der 3070 vergleichen.

Asaraki
2020-09-24, 17:51:35
Ist nicht zu vergleichen. Bei Pascal und Turing war der mittelgroße Chip in den 80ziger verbaut. Wenn müsste man die 3090 mit der 3070 vergleichen.

Doch doch, ich rede vom Portfolio, das kann man sehr wohl vergleichen. Sie haben die Namen ja nicht per Zufall so gewählt ^^

maximus_hertus
2020-09-24, 17:58:48
Um den großen "Generation-leap" hinzubekommen, haben sie halt die Namen um eine Klasse nach oben gehievt. Also statt 3080 Ti jetzt 3080, statt 3080 jetzt 3070. Das klappt natürlich überall, bis auf dem Top-Dog, da hat man dann die jetzt "nur" 10-15% mehr Performance.

Die 3070 mit 16GB ist wohl DIE Karte für die meisten Performance-Gamer. Irgendwo 2080 Ti Performance, aber mit 220W (oder vielleicht sogar etwas weniger mit etwas Tuning).
Obwohl ich es schon kommen sehe: Navi knapp vor der 70er, nV muss dann bei der 16GB Karte den Takt anheben und es geht steil oberhalb von 250W weiter.

Für AMD ein nahezu Best-Case Szenario: Quasi nicht lieferbar, anscheinend extrem sensibel bei den NTs inkl. abrauchen selbiger und viele potentiellen Käufer sind frustriert.

Es wird ein heißer und spannender Herbst. Ein überhaupt nicht typischer nV Launch. Sehr, sehr strange.

Dural
2020-09-24, 18:14:49
Schon gesehen, bei 8auer auf Youtube kann man die Verbräuche im GPUZ der 3090 ablesen:

GPU ca. 160Watt
Speicher ca. 120Watt
PWR ca. 110Watt

Echt krass!

mironicus
2020-09-24, 18:21:03
Man stelle sich vor, die 3090 hätte HBM2-Speicher. Dann würde die Karte wohl nur 250 Watt verbrauchen. :D :D

BlacKi
2020-09-24, 18:24:08
Schon gesehen, bei 8auer auf Youtube kann man die Verbräuche im GPUZ der 3090 ablesen:

GPU ca. 160Watt
Speicher ca. 120Watt
PWR ca. 110Watt

Echt krass!

120w für den speicher:freak:
170w für die gpu!
wieviel teurer kann hbm denn bitte sein?

gedi
2020-09-24, 18:26:00
Man stelle sich vor, die 3090 hätte HBM2-Speicher. Dann würde die Karte wohl nur 250 Watt verbrauchen. :D :D

Aus dem Grund kauft man AMD - Duck und weg

Troyan
2020-09-24, 18:31:51
Schon gesehen, bei 8auer auf Youtube kann man die Verbräuche im GPUZ der 3090 ablesen:

GPU ca. 160Watt
Speicher ca. 120Watt
PWR ca. 110Watt

Echt krass!

Die Quadro-Karten kommen mit 300W, aber nur mit GDDR6. Wird interessant werden, wieviel weniger Leistung die in Spielen liefern.

120w für den speicher:freak:
170w für die gpu!
wieviel teurer kann hbm denn bitte sein?

Mit 4 Controller sind nur 32GB Speicher möglich. Zu wenig für Quadro-Karten, daher weiterhin GDDR6(x).

Daredevil
2020-09-24, 18:47:48
HWLuxx hat auch 8K Benches gemacht und den Verbrauch dokumentiert:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54210-wenig-geforce-fuer-einen-hohen-aufpreis-gigabyte-geforce-rtx-3090-gaming-im-test.html?start=22

In einigen Screenshots haben wir den Speicherverbrauch der Spiele festgehalten. Dieser sie wie folgt aus:

F1 2020: 14,5 GB
DOOM Eternal: 16,3 GB
Death Stranding: 13,5 GB
Crysis Remastered: 12,4 GB
In 8K wohlgemerkt. Dann müsste in 4K der Verbrauch doch meilenweit drunter sein, mh?

Gebrechlichkeit
2020-09-24, 18:51:29
Und haette die 2080Ti ebenfalls HBM2, laege der Verbrauch bei unter 50Watt. :rolleyes: (woopsie, zu lange gewartet ... antwort auf mirco)

Resumierend:

Eine ueberteuerte als 8K ready vermarktete, marginal (+20%) schnellere RTX3080 mit 24GB vRam fuer €1,500+, die in gewissen Apps. wie Cathia einer RTX Titan stark unterlegen ist und und sich dabei fast das doppelt goennt als eine RTX2080ti under heavy load. Das ist eine RTX3080+ fuer €1,500+.

GEEEEEILO Doom 8K mit von Nvidia vorgeschriebenen Einstellungen.


liegt es wirklich am speicher oder eher an ampere?

https://i.postimg.cc/T5KFbZBM/2560x1440-vtime-11-52-take-2020-09-24-18-20-11.png (https://postimg.cc/T5KFbZBM) https://i.postimg.cc/NLnWtjrg/2560x1440-vtime-13-21-take-2020-09-24-18-16-48.png (https://postimg.cc/NLnWtjrg)

yw8EDM94ZQI

Langlay
2020-09-24, 18:55:09
120w für den speicher:freak:
170w für die gpu!
wieviel teurer kann hbm denn bitte sein?

Ich würde vermuten, dass bei den 120W für den Speicher der Speichercontroller mit dabei ist.

BlacKi
2020-09-24, 19:05:02
Ich würde vermuten, dass bei den 120W für den Speicher der Speichercontroller mit dabei ist.
und ca. 35w für die vrm. und was sind dann die restlichen 25w?

4Fighting
2020-09-24, 19:12:43
120w für den speicher:freak:
170w für die gpu!
wieviel teurer kann hbm denn bitte sein?

gpu-z liest mist aus. das hat igor bestätigt (https://www.igorslab.de/community/threads/gddr6x-am-limit-%C3%9Cber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-investigativ.3175/post-73719)

SKYNET
2020-09-24, 20:18:38
So viel zum Thema die Partner selektieren die GPUs, alle lug und Betrug aber das weiss ich schon seit über 10 Jahren.

Nur die ganz teuren OC Extreme XY Karten werden von Hand Selektiert, alles andere wo einfach OC drauf steht wird ausser eine Funktionskontrolle gar nichts gemacht, die Einstellungen im Bios werden einfach so vorgenommen das es ein Grossteil der Chips packt, das ist alles. :rolleyes:

Ich hatte in meinem Leben schon weit über 100 Karten in meinen Händen, und oft hatten die non OC sogar oft die bessere Chips drauf als die OC Versionen davon. Es ist reine Glückssache, völlig egal was auf der Verpackung steht.

Traurig finde ich viel mehr das es "Fachmedien" (Hallo Ingo) gibt die dieses Märchen von selektieren von Chips ständig und immer wieder predigen. Ich war einer der ersten der bei Turing das A / B Chip Märchen hinterfragt hat, heute weiss man das es auch da eine reine Glückssache war wie gut sich der Chip übertakten lies.

OC Versionen ist für die Hersteller nur eins: Aus dem nichts mehr Geld zu schaffen.


Update 24.09.2020 12:01 Uhr Forum »
Auch Founders Edition und weitere Custom Modelle betroffen

https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/


;D;D;D;D

welch glück bin ich nicht auf den ampere hypetrain reingefallen, den schrott kann NV mal schön behalten... AMD ich komme!!

BigBangBacket
2020-09-24, 20:37:44
Da taktet die 3080 wohl etwas zu hoch. Kann zwar treibertechnisch behoben werden, zeigt aber irgendwie das NVIDIA es doch eilig hatte wenn solche Fehler nicht auffallen.

Gott sei Dank kommt meine Reverg G2 erst in 4 Wochen. Bis dahin müssen die Treiber laufen und die NVIDIAlager wieder voll sein

Olliver
2020-09-24, 21:21:43
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/


;D;D;D;D

welch glück bin ich nicht auf den ampere hypetrain reingefallen, den schrott kann NV mal schön behalten... AMD ich komme!!

Da steht auch dass die Karten beim Start kurzzeitig über 2Ghz tackten und dann crashen.
also ist nicht die Hardware Schrott, sondern es braucht halt ein oberes Limit.
Das sollte man doch über den Treiber regeln können, ohne die Karten zu entsorgen:wink:

crux2005
2020-09-24, 21:26:26
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/


;D;D;D;D

welch glück bin ich nicht auf den ampere hypetrain reingefallen, den schrott kann NV mal schön behalten... AMD ich komme!!

Peinlich.

Blaire und pixeljet zeigen sich auch nicht mehr im Forum. Brennt es bei nvidia?

[MK2]Mythos
2020-09-24, 21:36:33
Da hätte man in den im Werbefilmchen gezeigten QA Belastungstests vielleicht etwas mehr Fokus auf die Software legen sollen... Das ist echt peinlich und ein weiteres Beispiel dafür, dass vom eingebildeten Premium am Ende eben nichts übrig bleibt.

Ampere wird immer unattraktiver, jetzt kann man nur hoffen dass AMDs RDNA2 Launch ein Volltreffer wird, sonst muss ich mich dieses mal wohl zwischen Not und Elend entscheiden.

Fragman
2020-09-24, 21:50:42
Peinlich ist daran nichts.
Die 3080 ist gut getroffen und die 3090 leidet unter dem zu niedrigen Preis (weiterlesen! ;)).
Der läßt einige eine Spielekarte erwarten, die aber am Ende keine mehr so richtig ist. Den letzten Schritt will nv nicht gehen, die Treiber schaltet man nicht entsprechend frei, weil sie sich damit natürlich den Quadromarkt kaputt machen würden. Mit nvlink hat man 48GB Speicher zum Rendern für 3K Euro und als Einzelkarte ist die perfekt für unter anderem 3D Painting. Dieser semiprofessionelle Ansatz war in der Vorstellung von Ampere aber auch zu sehen.
Aktuell ist eher das Fehlen der 20GB 3080 Karte das Problem.

mr coffee
2020-09-24, 21:59:38
So gut getroffen ist die 3080 nicht... weniger Stromverbrauch, etwas weniger Leistung zur not deswegen, etwas mehr Speicher ... das wäre ausgewogener. Aber aus irgend einem Grund hat man die Performance etwas zu hoch geprügelt ...

w0mbat
2020-09-24, 22:01:23
Nachdem die meisten 3080 wohl einfach abstürzen würde ich sagen, super getroffen :ugly:

Linmoum
2020-09-24, 22:01:46
Die 3080 ist gut getroffenSpeicherkrüppel sind nie gut getroffen.

Bei Turing waren es Space Invaders bei der 2080Ti, jetzt sind's bei der 3080 reproduzierbare CTD. Für einen von vielen auserkorenen Premium-Hersteller wie NV ist das in der Tat ziemlich peinlich.

Fragman
2020-09-24, 22:13:50
-Mehr Speicher wird kommen
-Die Stabilitätsprobleme betreffen doch anscheinend nur deutlich übertaktete Modelle (außerdem sollten wir erst einmal abwarten, was da los ist)
-Der Stromverbrauch ist hoch. Aber hätte nv hier tiefer gestapelt, wäre die Leistung niedriger und damit wären wir am anderen Ende der Kritik am Produkt, weil Ampere dann wieder zu langsam wäre. ;)

Blediator16
2020-09-24, 22:15:07
-Mehr Speicher wird kommen
-Die Stabilitätsprobleme betreffen doch anscheinend nur deutlich übertaktete Modelle (außerdem sollten wir erst einmal abwarten, was da los ist)
-Der Stromverbrauch ist hoch. Aber hätte nv hier tiefer gestapelt, wäre die Leistung niedriger und damit wären wir am anderen Ende der Kritik am Produkt, weil Ampere dann wieder zu langsam wäre. ;)

Bei AMD hätte man einfach gesagt business as usual bei NV ist es halt noch etwas peinlicher als marktführender Premiumhersteller.

Linmoum
2020-09-24, 22:17:15
- Macht die aktuell erhältliche 3080 nicht besser oder "gut getroffen".
- Es gibt auch Leute mit der FE und diesem Problem.
- >=50W weniger Verbrauch führen nur zu einer 4-5% geringeren Performance. Hätte niemand kritisiert, zumal es keinen Druck dafür gibt, das lächerliche bisschen rauszuquetschen um aktuell irgendeinen Vorteil zu haben. Das haben sie ja nicht einmal mit Turing gemacht und da wäre es nötiger gewesen.

crux2005
2020-09-24, 22:18:49
-Mehr Speicher wird kommen

Die Frage ist wann und für wie viel. Darum ging es aber nicht

-Die Stabilitätsprobleme betreffen doch anscheinend nur deutlich übertaktete Modelle (außerdem sollten wir erst einmal abwarten, was da los ist)

Eben nicht. Und das ist der Grund für was ich geschrieben habe. FE sind auch betroffen.

-Der Stromverbrauch ist hoch. Aber hätte nv hier tiefer gestapelt, wäre die Leistung niedriger und damit wären wir am anderen Ende der Kritik am Produkt, weil Ampere dann wieder zu langsam wäre. ;)

Finde ich nicht. Mehr VRAM und effizienter wäre der bessere Weg IMHO. Das die Mehrheit nur auf reine Leistung schaut habe ich aber schon geschrieben.

Das große Problem ist das NV Marketing zu viel versprochen hat. "Doppelte 2080 Leistung" (stand nichts von 4K RT mit DLSS etc.) und 1,9x Perf/W Turing vs. Ampere. Dazu als Krönung der Paper Launch.

Fragman
2020-09-24, 22:23:02
Finde ich nicht. Mehr VRAM und effizienter wäre der bessere Weg IMHO. Das die Mehrheit nur auf reine Leistung schaut habe ich aber schon geschrieben.


Dann warte auf AMD, aktuell sehen die Gerüchte dort ganz gut aus.
Die Verfügbarkeit seitens Ampere machts auch leichter auf AMD zu warten. :)

Thunder99
2020-09-24, 22:48:11
Ich frage mich warum Nvidia nicht 352Bit gewählt hat für die 3080. Zu stark? Zu schlecht mit GDDR6 oder zu stark mit gddr 6x?

SKYNET
2020-09-24, 23:00:54
Da steht auch dass die Karten beim Start kurzzeitig über 2Ghz tackten und dann crashen.
also ist nicht die Hardware Schrott, sondern es braucht halt ein oberes Limit.
Das sollte man doch über den Treiber regeln können, ohne die Karten zu entsorgen:wink:


und dann ist die karte gleich mal gut 7-10% langsamer wenn sie die um 150-200MHz "reduzieren" müssen... grosses kino... ;D;D;D

irgendwie spielen alle grad AMD den ball zu... intel mit den kernschrott(welch wortspiel) den sie raushauen, NV jetzt mit ampere... die lisa feiert wohl grad eine party nach der anderen ;D

SKYNET
2020-09-24, 23:03:12
-Mehr Speicher wird kommen
-Die Stabilitätsprobleme betreffen doch anscheinend nur deutlich übertaktete Modelle (außerdem sollten wir erst einmal abwarten, was da los ist)
-Der Stromverbrauch ist hoch. Aber hätte nv hier tiefer gestapelt, wäre die Leistung niedriger und damit wären wir am anderen Ende der Kritik am Produkt, weil Ampere dann wieder zu langsam wäre. ;)


du hast schon den CB artikel gelesen? es betrifft auch die FE modelle... also nix übertaktet, die karten sind einfach über dem limit, fertig aus, und da muss man nix probieren schönzureden, NV hat alles auf eine karte gesetzt, und wies aussieht haben sie sich verzockt... jetzt ist lisa am zug.

Troyan
2020-09-24, 23:26:14
Paar neue Infos zu den Quadro-Karten: https://videocardz.com/newz/nvidia-quadro-rtx-ampere-6000-to-feature-a-new-8-pin-power-connector

300W mit GGDR6 scheinen sich zu bestätigen.

TheAntitheist
2020-09-24, 23:33:51
HWLuxx hat auch 8K Benches gemacht und den Verbrauch dokumentiert:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54210-wenig-geforce-fuer-einen-hohen-aufpreis-gigabyte-geforce-rtx-3090-gaming-im-test.html?start=22


In 8K wohlgemerkt. Dann müsste in 4K der Verbrauch doch meilenweit drunter sein, mh?
kannst dir doch selbst angucken welche framebuffer die engine nutzt und dann ausrechnen wie die Differenz ist. Allocated heißt aber immernoch nicht genutzt. Das muss man hier wohl 1000x sagen aber das reicht bestimmt auch nicht.

Dural
2020-09-25, 09:27:15
Ich frage mich nur wo die 2GHz+ Boost herkommen, in keinem Test konnte man die Stock sehen. Die Karten laufen in der Regel ja so wie so klar darunter.

https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_die_taktraten_unter_last

So gut getroffen ist die 3080 nicht... weniger Stromverbrauch, etwas weniger Leistung zur not deswegen


Kannst du selber innert 5 Sekunden Einstellen. 50W weniger nur 4% weniger Leistung :wink:

medi
2020-09-25, 09:53:28
Kannst du selber innert 5 Sekunden Einstellen. 50W weniger nur 4% weniger Leistung :wink:

Wieviel Leistung verliert man bei max 200W Verbrauch?
Warum ich frage: 200W sind so mein persönliches Limit was Graka bei mir im Rechner verbrauchen dürfen.

Dural
2020-09-25, 09:54:54
Keine Ahnung, aber wenn du 200Watt willst würde ich klar auf die 3070 warten. Wenn du mehr Speicher willst 3070 16GB oder schauen was aus Navi2 wird.

medi
2020-09-25, 09:59:07
Keine Ahnung, aber wenn du 200Watt willst würde ich klar auf die 3070 warten. Wenn du mehr Speicher willst 3070 16GB oder schauen was aus Navi2 wird.

Hatte ich sowieso vor. Das mit der 3080 hätte mich nur halt interessiert. Sprich welche Karte hat unabhängig vom Preis die beste Effizienz.

Raff
2020-09-25, 11:03:59
Ich frage mich nur wo die 2GHz+ Boost herkommen, in keinem Test konnte man die Stock sehen. Die Karten laufen in der Regel ja so wie so klar darunter.

Du kriegst mit einer RTX 3090 keine 2 GHz Boost, selbst mit Wasser und 400 Watt TGP wird das bei der Founders Edition sportlich. Ja, in Full HD, limitiert vom Rest des Systems, ist das kein Ding - aber mach das mal in 5K aufwärts. Der Chip ist zu fett, um alle Transistoren gleichzeitig schalten zu lassen. Das gäbe einen großen Knall. ;) Wobei, ein ordentlich gekühltes Custom-Design mit weiteren 100 Watt könnte das vielleicht leisten.

-> Dark Silicon (https://en.wikipedia.org/wiki/Dark_silicon)

MfG
Raff

Fragman
2020-09-25, 11:12:02
Vielleicht ist bei 2GHz einfach Schluss, aus technischen Gründen. Wenn ja, wirds ein Treiberupdate geben und die Karten takten automatisch nicht mehr so hoch. Scheinen wohl auch eher nur Peaks zu sein?

[MK2]Mythos
2020-09-25, 11:14:57
Vielleicht ist bei 2GHz einfach Schluss, aus technischen Gründen. Wenn ja, wirds ein Treiberupdate geben und die Karten takten automatisch nicht mehr so hoch. Scheinen wohl auch eher nur Peaks zu sein?
Natürlich sind das nur Boost-Peaks. Ist halt dumm wenn die schon ausreichen um die Karte abzuschießen.

Dr.Doom
2020-09-25, 11:15:30
Kannst du selber innert 5 Sekunden Einstellen. 50W weniger nur 4% weniger Leistung :wink:Na, sowas sollte es ab Werk geben. Anstatt irgendwelche Customs mit unsinnigem OC und noch mehr Verbrauch für natürlich mehr Geld, wäre mir eine "3080 SE" (Slow Edition) mit ~250W und angepasstem Preis unterhalb aber in der Nähe der "3080 FE" deutlich lieber.

Raff
2020-09-25, 11:21:17
Mythos;12438927']Natürlich sind das nur Boost-Peaks. Ist halt dumm wenn die schon ausreichen um die Karte abzuschießen.

Mit genug Power, Kühlung und einem guten Chip kriegt man das wohl hin. Ich hatte gestern noch 1.800 MHz mit 0,8 Volt (beides locked) am Laufen. 8K-Auflösung, effektiv 340 Watt Boardpower (!), bessere Frametimes als am Stock, fünf Minuten stabil. Geht man mit der Spannung hoch, explodiert die Leistungsaufnahme, also sind schon feste 1,9 GHz sportlich.

MfG
Raff

Fragman
2020-09-25, 11:25:33
Mythos;12438927']Natürlich sind das nur Boost-Peaks. Ist halt dumm wenn die schon ausreichen um die Karte abzuschießen.

Ja, da lief wohl etwas beim Testen der Chips oder der Karten schief.

dargo
2020-09-25, 11:35:13
Man stelle sich vor, die 3090 hätte HBM2-Speicher. Dann würde die Karte wohl nur 250 Watt verbrauchen. :D :D
Aber dann würde die Marge womöglich bei Lederjacke leiden. ;(


https://youtu.be/yw8EDM94ZQI
Geiler Vergleich der Ziegelsteine. :D

https://abload.de/img/30901ajqm.jpg

unl34shed
2020-09-25, 11:36:54
Glaubst du GDDR6X ist wirklich günstiger als HBM?

dargo
2020-09-25, 11:43:06
Glaubst du GDDR6X ist wirklich günstiger als HBM?
Keine Ahnung. Ohne offizielle, aktuelle Preise für beide Technologien kann man da eh nichts vergleichen. Und einfach nur stümperhaft Preise von GDDR6X und HBM2(e) zu nehmen bringt dich auch nicht weiter. Da gehört schon einiges mehr dazu für eine exakte Kostengegenüberstellung.

gpu-z liest mist aus. das hat igor bestätigt (https://www.igorslab.de/community/threads/gddr6x-am-limit-%C3%9Cber-100-grad-bei-der-geforce-rtx-3080-fe-im-chip-gemessen-investigativ.3175/post-73719)
Danke für den Link. Das hier finde ich recht interessant.
Mircon produziert nur 21 Gbps Module. Die mit 19 angegebenen sind vielleicht die ausortierten, die den Spot scheinbar nicht ganz schaffen. Aber das hatten wir früher auch beim GDDR6, dass die Module eigentlich identisch waren und am Ende auf ähnlichen Taktraten laufen konnten. Im Review ist ja das Foto vom RAM. Daraus geht NICHT hervor, welcher das ist.

Im öffentlichen Datenblatt stehen 105 °C Tcase als max. Operating Temperature. Tjunction gibt man hier leider gar nicht erst an.
Jetzt stellt sich mir die Frage... lässt NV die 21Gbps GDDR6X Chips nur langsamer laufen weil später noch was schnelleres kommt (Titan Ampere bsw.)? Ist das eher Ausschuss von Micron oder schafft der Speichercontroller einfach nicht mehr als 19,5Gbps aktuell?

Da steht auch dass die Karten beim Start kurzzeitig über 2Ghz tackten und dann crashen.
also ist nicht die Hardware Schrott, sondern es braucht halt ein oberes Limit.
Das sollte man doch über den Treiber regeln können, ohne die Karten zu entsorgen:wink:
Ich würde hier auch eher ein Treiberproblem vermuten. Mich hat schon diese Grafik bei igor etwas stutzig gemacht.

https://www.igorslab.de/wp-content/uploads/2020/09/01-Voltage.png

Seltsamerweise ging die Karte bei ihm kurzzeitig auf knapp über 1080mV im geschlossenen Gehäuse hoch, im offenen Case nicht. In dem Moment wo die Spannung so hoch springt gab es sicherlich kurzzeitig einen hohen Takt.

4Fighting
2020-09-25, 12:01:25
Mit genug Power, Kühlung und einem guten Chip kriegt man das wohl hin. Ich hatte gestern noch 1.800 MHz mit 0,8 Volt (beides locked) am Laufen. 8K-Auflösung, effektiv 340 Watt Boardpower (!), bessere Frametimes als am Stock, fünf Minuten stabil. Geht man mit der Spannung hoch, explodiert die Leistungsaufnahme, also sind schon feste 1,9 GHz sportlich.

MfG
Raff

Hängt es nicht eher von der Chipgüte ab? In den reviews gab es schon einige (wenige) Karten, die out of the Box ~1950 Mhz Core mit ~100% PT liefen.

dargo
2020-09-25, 12:07:48
So gut getroffen ist die 3080 nicht... weniger Stromverbrauch, etwas weniger Leistung zur not deswegen, etwas mehr Speicher ... das wäre ausgewogener. Aber aus irgend einem Grund hat man die Performance etwas zu hoch geprügelt ...
Da bin ich absolut bei dir. Der Betriebspunkt der 3080 ist kompletter bullshit. Eine 3080 mit 20GB von Anfang an (gerne beide Varianten mit 10/20GB, so hat der Interessent direkt die freie Wahl) und ca. 270-280W würde um Welten besser ankommen. Nvidia hätte dafür ca. 5% Performance opfern müssen, hätte niemandem weh getan. Wenn ich die Betriebspunkte von GA102 betrachte muss ich direkt an das alte AMD denken. :freak:

btw.
Man sieht auch wunderbar was passiert wenn schon die Referenz an der Kotzgrenze läuft. Die Partner legen da noch einen drauf. Da denkste 320/350W sind schon weit über der Schmerzgrenze und die Partner mit ihren Ziegelsteinen müssen unbedingt noch über diese Grenze gehen. :freak:


-Der Stromverbrauch ist hoch. Aber hätte nv hier tiefer gestapelt, wäre die Leistung niedriger und damit wären wir am anderen Ende der Kritik am Produkt, weil Ampere dann wieder zu langsam wäre. ;)
Du meinst also bei etwa 5% weniger Leistung wäre ein GA102 bei deutlich weniger Verbrauch für viele nicht mehr interessant? Sorry... aber das ist Unsinn³.

basix
2020-09-25, 12:12:15
Die 3080 FE wäre grandios geworden mit 12 GB normalem GDDR6 und 250W. Das wäre wohl kaum langsamer und wäre für die meisten Nutzer die bessere SKU. Man hätte immer noch eine 20 GByte SKU mit GDDR6X nachschieben können.

Verglichen mit einer 2080S +50% mehr Speicher und Performance zu etwas günstigerem Preis.

Edit:
Evtl. kommt das ja mit GA103 ;)

Thunder99
2020-09-25, 12:19:58
Ich vermute so einfach war es nicht. Die Karten gehen ja sofort ins PT. Macht das auch Turing oder Pascal? Scheint eher das die ganze Karte einfach extrem säuft und daher Nvidia einen Kompromiss eingegangen ist?!

250-280W wären in der Tat besser aber weiß der Geier warum sich Nvidia dagegen entschieden hat...

dargo
2020-09-25, 12:21:53
und dann ist die karte gleich mal gut 7-10% langsamer wenn sie die um 150-200MHz "reduzieren" müssen... grosses kino... ;D;D;D

Könntest du bitte deinen Trollmodus wieder abstellen?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12436370&postcount=12303

Ich sehe dort -75Mhz GPU-Takt und -4% Performance bei -77W wenn ich als Basis die 327W nehme was ja ganz gut zur 3080 passt.


Kannst du selber innert 5 Sekunden Einstellen. 50W weniger nur 4% weniger Leistung :wink:
Interessant wie sich die Zeiten doch ändern. Als ich Undervolting bei Vega10 LCE betrieb hatte man mich noch für verrückt gehalten. ;)

Lawmachine79
2020-09-25, 12:23:12
Aber dann würde die Marge womöglich bei Lederjacke leiden. ;(


Geiler Vergleich der Ziegelsteine. :D

[/URL]
Geilo. Wenn die RTX 3090 es nicht mehr bringt und ich mir eine RTX 5590 or Whatever für 3 Mille kaufe kann ich aus der RTX 3090 ein Lowboard machen und meine dann-75-Zoll-8K-Glotze draufpacken.

Tesseract
2020-09-25, 12:23:21
Glaubst du GDDR6X ist wirklich günstiger als HBM?

ziemlich sicher, aber die entscheidung liegt wohl auch an der verfügbarkeit. Gx100 hat seit ewigkeiten HBM und wird in steigenden stückzahlen in supercomputern verbaut. wenn da ein nicht unerheblicher teil des consumermarktes dazu kommt fehlt es momentan wahrscheinlich noch an kapazitäten.

=Floi=
2020-09-25, 12:26:06
es liegt an der hitze!

TurricanM3
2020-09-25, 12:32:30
Du kriegst mit einer RTX 3090 keine 2 GHz Boost, selbst mit Wasser und 400 Watt TGP wird das bei der Founders Edition sportlich. Ja, in Full HD, limitiert vom Rest des Systems, ist das kein Ding - aber mach das mal in 5K aufwärts. Der Chip ist zu fett, um alle Transistoren gleichzeitig schalten zu lassen. Das gäbe einen großen Knall. ;) Wobei, ein ordentlich gekühltes Custom-Design mit weiteren 100 Watt könnte das vielleicht leisten.
MfG
Raff

Immerhin lief die Strix OC mit 480w PT in dem TPU Review avg. ohne OC schon mit 1940MHz (kurzzeitig bis zu 2070MHz, denke kalt).
Ich hoffe die Chips sind wirklich gebinnt. Ich könnte mir mit Wakü und bisschen OC schon 2GHz vorstellen. Der Sweetspot wird das wohl eher nicht sein. Mal sehen.

basix
2020-09-25, 12:34:27
250-280W wären in der Tat besser aber weiß der Geier warum sich Nvidia dagegen entschieden hat...

Bei 250-260W, 12GB und 2080 Ti +25% hätte Nvidia auch 749$ dranschreiben können anstatt 699$. Damit hätten sie das bessere Produkt und evtl. sogar mehr Marge. Die Karte wäre leiser, hätte genug Speicher, sehr gute Performance und Perf/$ Steigerung gegenüber Turing wäre ordentlich. Dazu noch die neue Ampere Architektur, welche sich zukünftig immer mehr von Turing absetzen wird.

Ich weiss, hier aus meiner Armchair lässt sich das leicht sagen. Aber solch eine SKU wäre machbar gewesen.

Daredevil
2020-09-25, 12:37:19
Fette und Power limitierte Karten sind auf jeden Fall die beste Grundlage für einen Shrink. :D
Siehe Vega 64 > VII.
Da brauchste nicht viel ändern, die Karte rennt dir danach davon. :>

dargo
2020-09-25, 12:38:02
Ich vermute so einfach war es nicht. Die Karten gehen ja sofort ins PT. Macht das auch Turing oder Pascal?
Natürlich. Liest du keine Tests? :freak:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Bei der 1080TI war der Kühler halt nicht so pralle. Dadurch lief die Karte ins Temperaturtarget bevor das PT erreicht wurde. Jede moderne GPU läuft ins Powertarget wenn der Kühler vorher nicht limitiert. Ist auch das sinnvollste Powermanagement da Spiele unterschiedliche Lasten erzeugen.

Tesseract
2020-09-25, 12:43:25
nicht nur GPUs, auch Zen 2. wenn man die nötigen sensoren am chip hat gibt es keinen grund das nicht so zu machen. ältere boostmechanismen sind einfach schlechter.

Daredevil
2020-09-25, 12:50:25
del

dargo
2020-09-25, 12:52:20
ziemlich sicher, aber die entscheidung liegt wohl auch an der verfügbarkeit. Gx100 hat seit ewigkeiten HBM und wird in steigenden stückzahlen in supercomputern verbaut. wenn da ein nicht unerheblicher teil des consumermarktes dazu kommt fehlt es momentan wahrscheinlich noch an kapazitäten.
GA100 verwendet afaik HBM2 mit 307GB/s je Stack. Da gibt es sicherlich noch andere Ausführungen. Allerdings bräuchte GA102 Topdog bei HBM2 ganze 4 Stacks um die nötige Bandbreite zu bekommen. Mit zwei Stacks wäre bei 614GB/s Schluss, ergo zu wenig. Eventuell war das der Hauptgrund für GDDR6X. Zwei Stacks wären nur mit HBM2e einigermaßen machbar. Micron kam aber mit seinen 460GB/s je Stack zu spät. Und Samsung mit 410GB/s je Stack entweder auch zu spät oder NV hielt die 820GB/s für den fast vollen GA102 für zu wenig bei zwei Stacks. Die einzig wahre Lösung sehe ich hier nur bei Micron mit zwei Stacks und 920GB/s. Aber wie gesagt... Micron war bei der Massenproduktion für GA102 zu spät dran.

Triniter
2020-09-25, 13:24:19
Bei 250-260W, 12GB und 2080 Ti +25% hätte Nvidia auch 749$ dranschreiben können anstatt 699$. Damit hätten sie das bessere Produkt und evtl. sogar mehr Marge. Die Karte wäre leiser, hätte genug Speicher, sehr gute Performance und Perf/$ Steigerung gegenüber Turing wäre ordentlich. Dazu noch die neue Ampere Architektur, welche sich zukünftig immer mehr von Turing absetzen wird.

Ich weiss, hier aus meiner Armchair lässt sich das leicht sagen. Aber solch eine SKU wäre machbar gewesen.
Das versteh ich nicht so ganz. 10 GB sind der Weltuntergang aber 12 wären akzeptabel... Wenn wir mal ehrlich sind, 10GB sind zu wenig aber 12 wären auch nicht der wahnsinnige Sprung gewesen wenn man mal nur das Nummernschema xx80 hernimmt das seit 2 Generationen 8GB bietet. Ne 3080 mit 16GB hätte es eigentlich sein müssen. Man hätte zu den 24GB der 3090 immer noch genug Luft gehabt um ne TI oder Super einzuschieben, dann mit den 20GB, die für 1199€ bepreisen und sich die Hände reiben können.

basix
2020-09-25, 13:48:15
12 GByte sind in der Tat nicht so viel mehr. Es wären aber +10% ausgehend von 11 GByte einer 2080 Ti bei +25% Leistung. VRAM wächst also mit der Leistung etwas mit. Jetzt haben wir +30% Leistung bei -10% VRAM. Was ist also sinnvoller? Vor allem, wenn normaler GDDR6 deutlich weniger "Probleme" machen würde und vermutlich nichtmal teurer ist, obwohl +20% Speichermenge.

Stand heute gibt es kein einziges Spiel, welches in 4K mit 12GB mucken macht. Bei 10GB schon. Und bei NextGen Spielen wird das Problem sich weiter verstärken. Siehe 3GB vs. 4GB Karten. Letzteres war oft noch sehr gut spielbar und das andere nicht. Bei modernen Engines ist das etwas subtiler, da einfach automatisch die Texturqualität runtergeschraubt wird. 12GB gäbe der Karte einfach etwas Luft für die Zukunft, was man bei einer 700 Euro Karte erwarten darf. Nicht dass es perfekt wäre, aber es wäre besser. Der hohe Stromverbrauch ist sowieso ungünstig.

Thunder99
2020-09-25, 14:28:08
Natürlich. Liest du keine Tests? :freak:
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Bei der 1080TI war der Kühler halt nicht so pralle. Dadurch lief die Karte ins Temperaturtarget bevor das PT erreicht wurde. Jede moderne GPU läuft ins Powertarget wenn der Kühler vorher nicht limitiert. Ist auch das sinnvollste Powermanagement da Spiele unterschiedliche Lasten erzeugen.
Doch doch :D. Hab auch nochmal selber die Archive angeschaut und dort sehe ich Pascal oftmals ins PT rennen, Turing immer :).

Ampere ist leider geil, läuft schnell, säuft viel :freak: aber erst wirklich interessant mit >10GB :wink:. Mal echt schauen was die RTX 3070Ti/Super whatever so leistet. Irgendwann will ich auch RT genießen können :)

dargo
2020-09-25, 14:43:16
Das versteh ich nicht so ganz. 10 GB sind der Weltuntergang aber 12 wären akzeptabel... Wenn wir mal ehrlich sind, 10GB sind zu wenig aber 12 wären auch nicht der wahnsinnige Sprung gewesen wenn man mal nur das Nummernschema xx80 hernimmt das seit 2 Generationen 8GB bietet. Ne 3080 mit 16GB hätte es eigentlich sein müssen.
Man kann sich viele Möglichkeiten ausdenken, nur es führt zu nichts. 16GB kriegst du einfach mit einem GA102 Salvage nicht hin. Es gibt Abhängigkeiten beim SI. Was gehen würde wären eben diese 12GB bei einer 3080. Nur dann hätte die 3080 mit 912GB/s fast die selbe Bandbreite wie die 3090 und somit wäre der Performanceunterschied zu 3090 noch mickriger als er jetzt schon ist. Und das will Nvidia garantiert nicht. ;) Nvidia ist mit dem 21Gbps GDDR6X einfach aktuell extrem unflexibel. Gäbe es bsw. 16Gbps GDDR6X und wäre dieser einiges günstiger könnte man wiederum diesen nehmen und der 3080 384Bit SI spendieren. Mit 768GB/s würde man praktisch dort landen wo man jetzt mit 760GB/s ist. Einfach 21Gbps nehmen und mit 16Gbps takten bringt auch nichts. Dann stürzen sich wieder alle wie die Geier auf so ne 3080 weil sie durch "OC" für lau viel mehr Bandbreite bekommen.

PS: nicht die Kopfsache vergessen. 12GB ist mehr als die 11GB der 2080TI. 10GB, also weniger kommen da einfach schlecht rüber.

pixeljetstream
2020-09-25, 14:57:10
Nur so zum nachdenken, die 12 GB brauchen dann auch Perfect Chips beim L2Cache, Memory Interface etc. für die Leute die meinen es kostet nix und gemischte Anbindung hatte NV schonmal ;)

robbitop
2020-09-25, 15:00:51
Wahrscheinlich hatten deshalb auch die letzten xx80 Ti Modelle immer 11 GB.

gbm31
2020-09-25, 15:05:29
Interessant wie sich die Zeiten doch ändern. Als ich Undervolting bei Vega10 LCE betrieb hatte man mich noch für verrückt gehalten. ;)


Ja, sehr lustig anzusehen wie DAS Argument gegen alle Vegas jetzt plötzlich bei Ampere zieht.

Die lieben Fähnchen - zuverlässig wie eh und je. :D

MasterElwood
2020-09-25, 15:07:57
Irgendwelche News wann die nächsten Custom 3080er in die Läden kommen?