Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
masked__rider
2020-09-09, 20:16:03
Das stimmt. Die Gigabyte Aorus Master für 750€ und gut ist. Was soll bei Kupferblock, Vapor Chamber, 2x115mm und 1x 100mm Lüfter und riesigem Kühler schiefgehen. :biggrin:
Zergra
2020-09-09, 20:17:53
Caseking listet jetzt auch schon die ersten Modelle der 3080:
3080 Customs (https://www.caseking.de/asus-geforce-rtx-3080-rog-strix-10g-10240-mb-gddr6x-gcas-400.html)
800€ für das Asus Monstrum find ich jetzt nichtmal übertrieben teuer. Auf overclockers.co.uk ist die für 850 Pfund gelistet :rolleyes:
Die Grafikkarten mit GeForce-RTX-3080-Chipsatz von NVIDIA können ab dem 17.09.2020 um 15 Uhr vorbestellt werden.
Das wichtig 😉
masked__rider
2020-09-09, 20:25:35
Richtig! :)
MSI Gaming X Trio (https://www.equippr.de/msi-geforce-rtx-3080-gaming-x-trio-10-gb-gddr6x-retail-2060387.html) für 779€ bei equippr gelistet. Fürs erste scheinen die Preise zu passen.
y33H@
2020-09-09, 20:30:41
Also mich würde ein Benchmark GTX1080 vs RTX3080 interessieren. Dann weiß ich was mich erwartet :ugly:WIP :redface:
masked__rider
2020-09-09, 20:34:58
@y33H@
Habt ihr eigentlich auch schon Customs zum Test? Oder erstmal volle Konzentration auf die FE der beiden Karten fürs Review am Montag, 1500?
Leonidas
2020-09-09, 20:46:16
D.h. im Mittel deiner Bandbreite siehst du die 3080 jetzt knapp unter dem größten Navi?
Ich habe die Prognose zu BN nicht verändert, es gab ja auch keine neuen Leaks. Aber diese Prognose zu BN hat natürlich auch dick Bandbreite. Es kann faktisch alles herauskommen. Vielleicht wäre die Prognose, das BN die 3080 schlägt, vielleicht doch etwas zu vermessen. Das muss ich mir nochmal überlegen.
Also mich würde ein Benchmark GTX1080 vs RTX3080 interessieren. Dann weiß ich was mich erwartet :ugly:
Das ist einfach: 1080 -> 3080 dürfte ca. +135-150% MEHRperformance ergeben. Oder: 2,35fache bis 2,5fache Performance.
Orbmu2k
2020-09-09, 20:47:51
https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-3090
Die CK Preise sind schon heftig. Soviel besser als die FE sind die Customs sicher nicht.
crux2005
2020-09-09, 21:19:49
https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-3090
Die CK Preise sind schon heftig. Soviel besser als die FE sind die Customs sicher nicht.
Käsekönig ist auch Apotheke.
Würde nie über 1000€ für eine Grafikkarte ausgeben. Wobei das auch schon zu viel ist. Aber 1500+€ ist dann doch übertrieben. Und in 2 Jahren kommt die 4070 die schneller ist. ;D
Die CK Preise sind schon heftig. Soviel besser als die FE sind die Customs sicher nicht.
Genau das dachte ich auch. Da wird die Preorder der FE schon verlockend. Falls sie laut Reviews eine schlechte Wahl ist, kann sie nochmal einfach zurück. Warten auf Navi macht für mich leider wenig Sinn. Zuviel Abhängigkeiten mit Cuda und Nvidia Libs.
MiamiNice
2020-09-09, 21:30:33
Käsekönig ist auch Apotheke.
Würde nie über 1000€ für eine Grafikkarte ausgeben. Wobei das auch schon zu viel ist. Aber 1500+€ ist dann doch übertrieben. Und in 2 Jahren kommt die 4070 die schneller ist. ;D
1500/24=62,5€/Monat
Als Gamer schon echt hart ;D
Das sind die Kosten eines Spiels, pro Monat.
Und in der Rechnung fehlt noch der Wiederverkaufswert.
Leonidas
2020-09-09, 21:45:46
https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-3090
Die CK Preise sind schon heftig. Soviel besser als die FE sind die Customs sicher nicht.
Es fehlt allein die 1499-Euro-Einsteiger-Variante. Ansonsten war das erwartbar. Bei der 2080Ti/3090 übertreffen sich die Hersteller mit wirklich guten Karten/Designs, das schlägt dann auch auf die Preise nieder.
Beispiel RTX2000: Dort tendierten die kleineren Karten schnell in Richtung der günstigeren Referenz-Preise. Die 2080Ti hingegen wurde nur arg selten unterhalb 1100 Euro angeboten, das ging eher in Richtung des FE-Preises. Der Durchschnittspreis der 2080Ti-Verkäufe bei der Mindfactory lag bei sogar 1245€.
Dampf
2020-09-09, 21:53:03
Auch für Ampere interessant: Microsoft hat in einer Demo für Xbox Series S Sampler Feedback Streaming demonstriert. Das ist eine Funktion von DX12 Ultimates Sampler Feedback, was deutlich VRAM im Vergleich zu Non-DX12 Ultimate Karten einspart.
https://i.imgur.com/psqqibS.png
https://youtu.be/fYtJWIxt3-M?t=169
crux2005
2020-09-09, 22:04:08
Was soll XVA sein?
Dampf
2020-09-09, 22:04:54
Was soll XVA sein?
Xbox Velocity Architektur. Ist ein Marketing Term für DirectStorage und Dekompression.
crux2005
2020-09-09, 22:05:28
Alles Klar. Ja, habe ich schon gelesen. :)
Platos
2020-09-09, 22:10:13
Du magst du also echt diesen Soap Effekt? Bäähhh ^^
Nativ im Hobbit @ Kino @ 48FPS wars echt nice. Leider war das IMO der einzige und letze Film mit nativen 48FPS
Was ist mit Avatar 2 usw.? Die kommen doch noch...Wenns auch noch ne Weile dauert. Aber kommen werden sie auf jeden Fall.
Auch für Ampere interessant: Microsoft hat in einer Demo für Xbox Series S Sampler Feedback Streaming demonstriert. Das ist eine Funktion von DX12 Ultimates Sampler Feedback, was deutlich VRAM im Vergleich zu Non-DX12 Ultimate Karten einspart.
https://i.imgur.com/psqqibS.png
https://youtu.be/fYtJWIxt3-M?t=169
Wäre zwar genial, wenn man ähnliche Einsparungen im Schnitt erwarten könnte in zukünftigen Spielen, aber eben auch nur dort.
Von dem her brauche ich trotzdem mehr als 8/10 GB für ältere Spiele als eben kommende.
monstar-x
2020-09-09, 22:48:20
Ich bin mal echt gespannt in wie weit die 3080 sicher übertakten lässt.
Wenn ich meine ASUS 2080Ti OC übertakte, bin ich 15% schneller wie eine Founders, sprich der Abstand wäre dann nur 25-15% je nach Spiel, dafür meine schöne Ti zu verkaufen, ich weis ja nicht.
Wobei der Kerl in meinem Computer sagt, mehr FPS = mehr MACHT
https://abload.de/img/ezgif-2-b579c7a8068fjqkuv.gif (https://abload.de/image.php?img=ezgif-2-b579c7a8068fjqkuv.gif)
Dural
2020-09-09, 22:52:35
es gibt kein neuer mining boom mit ampere.
Daredevil
2020-09-09, 22:54:41
Ne 3080 wird man genauso übertakten können, das steht ja außer Frage.
Ich rechne mir die 3080 ja auch mit meinter 2080ti schön und sage mir, dass das alles halb so wild ist. Aber am Ende wird ne 3080 doch vorbei ziehen, auch wenn es "nur" 30% sind. 30% sind aber halt schon ne Menge in Zahlen, in FPS ist es nicht Groundbreaking, trotzdem schneller.
Die 2080ti hat halt eine Start TDP von 250w und kann ~30-40% mehr Saft ziehen.
Eine 3080 startet bei 320w ist und quasi direkt im Limit, jeder Watt mehr wirst du im Lüftergeräusch hören können. 10-20% sehe ich da, mehr nicht. Schon gar nicht, wenn die 3080 deutlich kleinere Kühler haben als die 3090.
Mining Boom und 3080 gepaart mit dem Bild ist völliger Schwachsinn.
Bei einem richtigen Mining Boom wird JEDE Karte gekauft, nicht nur vereinzelt welche.
Dampf
2020-09-09, 22:54:51
Wäre zwar genial, wenn man ähnliche Einsparungen im Schnitt erwarten könnte in zukünftigen Spielen, aber eben auch nur dort.
Von dem her brauche ich trotzdem mehr als 8/10 GB für ältere Spiele als eben kommende.
Naja gerade bei den kommenden Next Gen Titeln ist es notwendig um den Next Gen Sprung zu ermöglichen, ohne den physikalischen Speicher drastisch erhöhen zu müssen. Viele meinen ja der VRAM Bedarf wird durch die neuen Konsolen stark ansteigen und das wird er auch, aber nur für Karten ohne Sampler Feedback. Damit die alten Karten nicht zu sehr leiden, muss dann die Texturenqualität auf diesen drastisch reduziert werden und es wird vermutlich VRAM bedingte frametime spikes geben.
Ich meine, wenn wir von diesem sehr guten Szenario von 3.5x ausgehen, dann hat eine 8 GB Ampere Karte so viel effektiv nutzbaren Speicher wie eine 28 GB Pascal GPU, oder eben im schlechtesten Fall 16 GB. Das wird definitiv eine sehr große Sache werden.
Aber die alten Schinken laufen doch sowieso schon gut mit 8 GB VRAM in 4K.
Lowkey
2020-09-09, 22:56:10
del
Lowkey
2020-09-09, 22:57:00
es gibt kein neuer mining boom mit ampere.
https://screenshots.gamebanana.com/img/ico/sprays/5b329fb61deba.png
Slipknot79
2020-09-09, 23:09:42
Wozu schönrechnen, einfach ne Grenze setzen: Nicht moar als 100% Leistungsplus zur eigenen Hardware -> Generation überspringen. :redface:
Digidi
2020-09-09, 23:13:23
Auch für Ampere interessant: Microsoft hat in einer Demo für Xbox Series S Sampler Feedback Streaming demonstriert. Das ist eine Funktion von DX12 Ultimates Sampler Feedback, was deutlich VRAM im Vergleich zu Non-DX12 Ultimate Karten einspart.
https://i.imgur.com/psqqibS.png
https://youtu.be/fYtJWIxt3-M?t=169
Merkt man doch das man mittlerweile immer mehr auf steraming setzt. Das zeigtr halt das die Vram Diskussion von leuten geführt wird die von der zukünftigen Technik keine Ahnung haben. Wenn man jetzt zu einer neuen GPU mit PCI 4.0 greift und dann noch eine schnelle SSD kauft auch mit PCI4.0 sollte auf diesen Rechner V-Ram kein Problem mehr sein.
Man sollte nicht vergessen das dank Kompression die jetzige Bandbreite viel höhere ist als die reinen Hardwaredaten vermuten lassen. Wie viel GB man wohl packt mit kompremierten Texturen etc.?
Lowkey
2020-09-09, 23:16:56
Wozu schönrechnen, einfach ne Grenze setzen: Nicht moar als 100% Leistungsplus zur eigenen Hardware -> Generation überspringen. :redface:
Sich einfach mal den Luxus gönnen. Ohne Argumente. Ohne Sinn. Einfach kaufen und freuen. Freuen konnen sich viele nicht mehr.
dargo
2020-09-09, 23:19:23
Merkt man doch das man mittlerweile immer mehr auf steraming setzt. Das zeigtr halt das die Vram Diskussion von leuten geführt wird die von der zukünftigen Technik keine Ahnung haben.
Stimmt... der PC wird aktuell regelrecht von DirectX 12 Ultimate Games überflutet. Jetzt mal ernsthaft... bis der PC flächendeckend Games mit Sampler-Feedback abbekommt spricht mit hoher Wahrscheinlichkeit keiner mehr von Ampere. Schau dir nur an wie lange der Umstieg am PC auf low level APIs gedauert hat. Und wir sind immer noch nicht vollständig am Ziel.
Vor allem werden diese Games ja nicht weniger VRAM verbrauchen sondern eher mehr :D. Was an Ressourcen frei wird, wird der Entwickler ja ausnutzen.
Platos
2020-09-09, 23:30:54
Wozu schönrechnen, einfach ne Grenze setzen: Nicht moar als 100% Leistungsplus zur eigenen Hardware -> Generation überspringen. :redface:
Genau, bei gleichem Preispunkt wie damals die eigene Karte aber. Das ist ein gutes Motto. Gilt natürlich auch für den Speicher.
Naja gerade bei den kommenden Next Gen Titeln ist es notwendig um den Next Gen Sprung zu ermöglichen, ohne den physikalischen Speicher drastisch erhöhen zu müssen. Viele meinen ja der VRAM Bedarf wird durch die neuen Konsolen stark ansteigen und das wird er auch, aber nur für Karten ohne Sampler Feedback. Damit die alten Karten nicht zu sehr leiden, muss dann die Texturenqualität auf diesen drastisch reduziert werden und es wird vermutlich VRAM bedingte frametime spikes geben.
Ich meine, wenn wir von diesem sehr guten Szenario von 3.5x ausgehen, dann hat eine 8 GB Ampere Karte so viel effektiv nutzbaren Speicher wie eine 28 GB Pascal GPU, oder eben im schlechtesten Fall 16 GB. Das wird definitiv eine sehr große Sache werden.
Aber die alten Schinken laufen doch sowieso schon gut mit 8 GB VRAM in 4K.
Kann ich begrüssen, wenn wir dank den Konsolen den VRAM deutlich besser nutzen. Wie gut das dann wirklich funktioniert/implementiert wird, werden wir dann ja sehen. Und bis es flächendeckend genutz wird, wirds sicher auch noch ne Weile dauern.
Aber ich hab ja dann eher vor in 8K zu spielen (wo geht) und sonst eben 4k oder was dazwischen. Und "alte" Spiele sind ja dann alles unter 2021 oder alles unter Ende 2020 (bzw. wird es auch 2021 noch Spiele geben, die das nicht beherrschen). Also nicht wirklich alt. Seit es die 1080TI gibt hab ich genug Spiele gesehen, die die ~11GB geknackt haben (Da die Karte 11GB hat, bedeutet das, dass mehr als 11GB gut gebraucht werden könn(t)en). Ergo kaufe ich in dieser Leistungsklasse oder darüber nichts mit weniger wie 16GB.
Also nett für die Zukunft, aber bringt mir nichts, wenn ich Spiele spiele, die das nicht können.
Merkt man doch das man mittlerweile immer mehr auf steraming setzt. Das zeigtr halt das die Vram Diskussion von leuten geführt wird die von der zukünftigen Technik keine Ahnung haben. Wenn man jetzt zu einer neuen GPU mit PCI 4.0 greift und dann noch eine schnelle SSD kauft auch mit PCI4.0 sollte auf diesen Rechner V-Ram kein Problem mehr sein.
Das wird für die Lebenszeit von Ampere nicht mehr relevant sein. Das ist eins der Features, die man braucht um eine Nutzerbasis zu schaffen. Ich rechne fest damit, dass AMD es auch supportet. Es muss von Entwicklern explizit supportet werden und die werden einen Teufel tun es jetzt schon zu tun. Bei der UE5 weiß man ja, dass Support dafür kommt, aber die kommt frühstens Ende 2021 aus der Beta und mit Support in relevanten Spielen würde ich nicht vor 2023 rechnen.
Aber auch dann wird der Speicher immer genutzt werden. Zuviel Speicher gibt es nie. Was "ausreichend viel Speicher" ist, hängt rein von den Marktanteilen ab.
Digidi
2020-09-09, 23:49:19
@Rlz danke für die Info.
Orbmu2k
2020-09-10, 00:31:50
Es fehlt allein die 1499-Euro-Einsteiger-Variante. Ansonsten war das erwartbar. Bei der 2080Ti/3090 übertreffen sich die Hersteller mit wirklich guten Karten/Designs, das schlägt dann auch auf die Preise nieder.
Beispiel RTX2000: Dort tendierten die kleineren Karten schnell in Richtung der günstigeren Referenz-Preise. Die 2080Ti hingegen wurde nur arg selten unterhalb 1100 Euro angeboten, das ging eher in Richtung des FE-Preises. Der Durchschnittspreis der 2080Ti-Verkäufe bei der Mindfactory lag bei sogar 1245€.
Über die Preisentwicklung und A-Chips bei Turing reden wir lieber nicht. :-D
Dort sollte ja die FE als Premium Custom durchgehen, hat die Boardpartner aber fast nicht intressiert, das war weitestgehend die Baseline. Früher war es durchaus so dass jeder Boardpartner ein REF Modell hatte was entweder den NVIDIA Blower oder einen anderen günstigen Kühler hatte und das war dann Preis <= UVP.
Die neuen FE Kühler sind alles andere als günstig und einfach, da finde ich es etwas dreist dass die Boardpartner für vermeintlich einfachere Kühllösungen das nicht an den Kunden weitergeben und vielleicht sogar die NV UVP unterbieten.
Was echte Premium Custom Kühllösungen sind mit OC usw dürfen ja gerne mehr kosten.
davidzo
2020-09-10, 00:39:57
Nach dem ganzen Hype siehts echt ein bisschen traurig aus für Ampere, zumindest wenn Leos Interpolation stimmt: https://www.3dcenter.org/news/erster-geleakter-test-sieht-die-geforce-rtx-3080-um-53-vor-der-geforce-rtx-2080-super
Mit 50% mehr Alus und Rechenleistung und annähernd gleicher Transistorzahl+Verbrauch kommt z.B. GA104 in der 3070 gerade so auf einen Gleichstand mit der 2080Ti heraus. Und das ist sogar der Gamers Sweet Spot Chip, die 70er Serie, die mit der traditionell höchsten Effizienz. Mit 220W vs 250W hat sich bei der Energieeeffizienz der Architektur+Fertigung echt wenig bewegt - Und TU102 in der 2080TI als Vergleich hat noch die geringste performance pro Watt in der Turingfamilie. TU104 in der 2070 non super würde vermutlich bei der Effizienz mit den neuen Ampere chips gleichziehen. :frown:
Wenn sich diese Tendenz in den weiteren Benchmarks bewahrheitet, dann sind ernste Zweifel angebracht ob das von nvidia die richtige Richtung war in die man die Architektur entwickelt hat. Das Ziel kann sicher nicht gewesen sein einen linearen Performance-increase zu erziehlen bei linear gestiegenem Energieverbrauch und linear gestiegener Transistormenge, das ist imo ein bisschen wenig für eine neue Architektur.
crux2005
2020-09-10, 00:59:09
Wenn sich diese Tendenz in den weiteren Benchmarks bewahrheitet, dann sind ernste Zweifel angebracht ob das von nvidia die richtige Richtung war in die man die Architektur entwickelt hat. Das Ziel kann sicher nicht gewesen sein einen linearen Performance-increase zu erziehlen bei linear gestiegenem Energieverbrauch und linear gestiegener Transistormenge, das ist imo ein bisschen wenig für eine neue Architektur.
Ampere ist auch eher eine Turing Ausbaustufe.
Turing hat sicher viel R&D gekostet und danach sollte Ampere mit relativ wenig Aufwand mehr Leistung bringen. Das war schon lange so geplant. Eine neue uArch wird erst Hopper bringen. Wenn sich die nächste Gen. so nennt.
8nm Samsung war IMHO nicht von Anfang an geplant. Deswegen der höhere Verbraucht. Trotzdem sollte Ampere Perf/W +30% Turing sein.
[MK2]Mythos
2020-09-10, 01:11:38
Ampere ist auch eher eine Turing Ausbaustufe.
Turing hat sicher viel R&D gekostet und danach sollte Ampere mit relativ wenig Aufwand mehr Leistung bringen. Das war schon lange so geplant. Eine neue uArch wird erst Hopper bringen. Wenn sich die nächste Gen. so nennt.
8nm Samsung war IMHO nicht von Anfang an geplant. Deswegen der höhere Verbraucht. Trotzdem sollte Ampere Perf/W +30% Turing sein.
Wenig Aufwand und mehr Leistung? Also laut Leo hat sich die Performance/Watt kaum verbessert. Die Karten sind einfach ohne Ende geprügelt. Ja - insofern ist das wenig Aufwand, aber angesichts des Full Node Sprungs ist das unter dem Strich doch irgendwie sehr ernüchternd. In mir löst Ampere jedenfalls keinen "Habenwill" Impuls aus. Ich bin wirklich gespannt ob die Artikel von PCGH und Co statt nvs genialem Engineering nicht abermals das superbe Marketing aufzeigen und die Karten als das entlarven, was sie sind: Geprügelte Turing Nachfolger in einem neuen Prozess.
Mir ist der Verbrauch relativ egal, meine Grafikkarten werden eh unter Wasser gesetzt, aber mir fällt aktuell kein Grund ein, Ampere für irgendwas besonders nice finden zu können.
Badesalz
2020-09-10, 01:17:39
Sich einfach mal den Luxus gönnen. Ohne Argumente. Ohne Sinn. Einfach kaufen und freuen. Freuen konnen sich viele nicht mehr.Auch die Zivilisation darf weiter reifen, sich nicht mehr über belangloses freuen. Ohne Sinn Luxus gönnen und freuen über Einkäufe, ist sowas wie 100€ Taschengeld mit HelloKitty-Teenie bei Douglas.
Auf dem Stand wollen spürbar viele wohl nicht mehr weiter verbleiben =)
@[MK2]Mythos
:| RT. Turing war was RT angeht bisher eher eine Technologiestudie der Luxusklasse (da es nur auf dieser halbwegs benutzbar war). Jetzt kann es mind. eine 3080, also <800€ Klasse, wesentlich schneller als die 2080Ti.
Es bleibt aber ein geprügelter Refresh. Keine Frage. Dafür darf man sehr wohl die Frage stellen, ob die verschleuderte Energie wirklich am vermeindlich dürftigen 8nm von Samsung liegt. Alle seiern das vor sich hin, keiner von denen weiß auch nur das geringste darüber.
Liegts vielleicht am NVs Port auf jene 8nm? Oder liegt es vielleicht allgemein an NVs Refresh und TSMC im Standard-7nm hätte auch nur ~8% weniger Watt raushauen können? Und dann?
Linmoum
2020-09-10, 01:22:49
Mythos;12420185']aber mir fällt aktuell kein Grund ein, Ampere für irgendwas besonders nice finden zu können.Nvidia kommt über den Preis. ;D
rentex
2020-09-10, 05:50:20
@Leonidas Woher nimmst du die Gewissheit, das die Customkühler, um so besser werden? Weil es schon immer so war?
Die AIBs hatten massive Probleme mit der Entwicklung der Karten und einen zeitlich sehr knappen Support seitens NV.
Das es immer noch keine Boost Takt Angaben vieler Karten gibt, ist schon komisch?
mironicus
2020-09-10, 06:08:10
Em4k4zxQj1E
unl34shed
2020-09-10, 07:35:32
@[MK2]Mythos
:| RT. Turing war was RT angeht bisher eher eine Technologiestudie der Luxusklasse (da es nur auf dieser halbwegs benutzbar war). Jetzt kann es mind. eine 3080, also <800€ Klasse, wesentlich schneller als die 2080Ti.
Soo viel schneller ist RT jetzt auch nicht geworden. Vor dem Launch hat man mit mindestens einer Verdopplung pro SM gerechnet, so wie es aussieht sind es grad mal +40%.
Badesalz
2020-09-10, 07:53:53
Oh sorry. Dachte RT braucht dedizierte HW...
Edgecrusher86
2020-09-10, 08:09:32
Zu dem gestrigen 3DM Screenshot - wenn ich die drei fordernsten Benches - Stichwort GPU-Limit - nehme und 20% auf die RTX 3080 drauf schlage - sollte grob Folgendes heraus kommen für eine RTX 3090:
Fire Strike Ultra:
RTX 2080 Super - 6673 (100%)
RTX 2080 Ti - 8389 (125,7%) [100%]
RTX 3080 - 10876 (163%) [129,6%]
RTX 3090 - ~ 13051 (195,6%) [155,6%]
Time Spy Extreme:
RTX 2080 Super - 5344 (100%)
RTX 2080 Ti - 7054 (132%) [100%]
RTX 3080 - 8888 (166%) [126%]
RTX 3090 - ~ 10666 (199,6%) [151,2%]
Port Royal:
RTX 2080 Super - 6957 (100%)
RTX 2080 Ti - 9106 (131%) [100%]
RTX 3080 - 11455 (164,6%) [125,8%]
RTX 3090 - ~ 13746 (197,6%) [151%]
System:
Core i9-10900K
32GB RAM
Hm, bei der geleakten Masse an Benchmarks wäre es doch möglich, dass vielleicht schon heute um 15:00 das NDA fällt. Das wäre eine Woche vor dem RTX 3080- und zwei Wochen vor dem RTX 3090 Verkaufsstart.
masked__rider
2020-09-10, 08:21:10
@Edgecrusher86
Das Test-NDA fällt am 14. September.
Nazar
2020-09-10, 08:37:24
der Chinese mit der Hundsvieh-Maske mal wieder :D
https://www.bilibili.com/video/BV1m5411b7NG?from=search&seid=9753382372059202078
3080 Review
50% schneller als 2080 Super
30% schneller als 2080 TI
4K Gaming vs 2080S
Far Cry 5 +62%
Borderland 3 +56%
AC Odyssey +48%
Forza Horizon 4 +48%
Mopedjacke: "3080 is twice the Performance of 2080" - LOL, genau
(kann natürlich auch Power Draw meinen - ich kann leider kein chinesisch ;)
hier noch ein paar 3DMark Werte:
11049 FS Ultra (+36% 2080Ti, +64% 2080S )
20101 FS Extreme (+24% 2080Ti, +45% 2080S )
31919 FS (+25% 2080Ti, +43% 2080S )
8548 TS Extreme (+38% 2080Ti, +59% 2080S )
17428 TS (+28% 2080Ti, +49% 2080S )
11455 PR (+45% 2080Ti, +64% 2080S )
Quelle: _rogame (https://twitter.com/_rogame/status/1303688545404624897)
3DMark Fire Strike Performance: 31919 (+25% 2080Ti, +43% 2080S )
3DMark Fire Strike Extreme: 20101 (+24% 2080Ti, +45% 2080S )
3DMark Fire Strike Ultra: 11049 (+36% 2080Ti, +64% 2080S )
3DMark Fire Strike Time Spy: 17428 (+28% 2080Ti, +49% 2080S )
3DMark Fire Strike Time Spy Extreme: 8548 (+38% 2080Ti, +59% 2080S )
3DMark Fire Strike Port Royal: 11455 (+45% 2080Ti, +64% 2080S )
Quelle: Videocardz (https://videocardz.com/newz/alleged-geforce-rtx-3080-graphics-card-test-leaks-online)
Hm, mit diesen Ergebnissen hätte sich eine 3080 für mich erledigt. Sie wäre maximal 17% schneller als meine 2080Ti.
Selbst mit 20GiB wäre das ein Fail. Ich kann das kaum glauben, dass die 3080 so schwach sein soll. Hörte sich bei der Lederjacke ganz anders an. :freak:
Bääm, auf dem Boden aufgecrasht.
Jetzt erklären sich die Preise, wobei ich die Speichermengen eh für unkaufbar halte.
masked__rider
2020-09-10, 08:43:10
Warum wollen eigentlich manche Leute jede Generation aufrüsten? Von einer 2080ti aufzurüsten auf eine 3080 macht erstmal wenig Sinn. Für Pascal-Besitzer wie mich sieht die Sache schon interessanter aus.
Nazar
2020-09-10, 08:43:47
Ne 3080 wird man genauso übertakten können, das steht ja außer Frage.
Ich rechne mir die 3080 ja auch mit meinter 2080ti schön und sage mir, dass das alles halb so wild ist. Aber am Ende wird ne 3080 doch vorbei ziehen, auch wenn es "nur" 30% sind. 30% sind aber halt schon ne Menge in Zahlen, in FPS ist es nicht Groundbreaking, trotzdem schneller.
Die 2080ti hat halt eine Start TDP von 250w und kann ~30-40% mehr Saft ziehen.
Eine 3080 startet bei 320w ist und quasi direkt im Limit, jeder Watt mehr wirst du im Lüftergeräusch hören können. 10-20% sehe ich da, mehr nicht. Schon gar nicht, wenn die 3080 deutlich kleinere Kühler haben als die 3090.
Mining Boom und 3080 gepaart mit dem Bild ist völliger Schwachsinn.
Bei einem richtigen Mining Boom wird JEDE Karte gekauft, nicht nur vereinzelt welche.
Ja ne, is klar. Kannst du bitte mal die Lottozahlen, inkl. Superzahl, für den nächsten Samstag mitteilen. Firma dankt. ;D
Edgecrusher86
2020-09-10, 08:49:00
@Edgecrusher86
Das Test-NDA fällt am 14. September.
Schade.
masked__rider
2020-09-10, 08:50:15
Etwas weniger wilden Spekulatius bitte.
Nazar
2020-09-10, 08:52:08
Etwas weniger wilden Spekulatius bitte.
In einem Speku-Thread? :freak: ;D
basix
2020-09-10, 08:55:43
Zu dem gestrigen 3DM Screenshot - wenn ich die drei fordernsten Benches - Stichwort GPU-Limit - nehme und 20% auf die RTX 3080 drauf schlage - sollte grob Folgendes heraus kommen für eine RTX 3090:
...
Ich bezweifle, dass sich die 3090 so stark von der 3080 absetzen kann. 350W vs. 320W und dazu noch +14 Speicherchip à je 2.5W (laut Igor). 2.5W*14 = 35W. Ich denke eher, die wird sich ~10-15% von der 3080 absetzen und nicht 20%.
masked__rider
2020-09-10, 09:00:30
In einem Speku-Thread? :freak: ;D
Die Betonung liegt auf wild. :D
-Ninetails-
2020-09-10, 09:24:50
Vlt. bin ich nicht genug in der Materie drin. Aber wenn hier öfters geschrieben wird, dass von 2080Ti zu 3080 der Schritt nicht groß genug sei, wird dann nicht ein wenig der Preis außer acht gelassen? Ich mein, ist ja schön und gut, dass die 2080Ti eine starke Karte ist. Aber sie kostet immernoch trotzdem 400-500€ mehr als die 3080. Sicher werden die Preise in Zukunft etwas sinken, aber dennoch.
Eine Karte, die auch nur ein paar % stärker ist als die 2080Ti, zu einem deutlich geringeren Preis auf den Markt zu bringen ist doch ein ziemlich großer Schritt.
Slipknot79
2020-09-10, 09:27:09
Der Preis ist shiceegal, ich muss 100% boo(b)st sehen und spüren beim Umstieg und das werden 3080 und 3090 vs 2080TI ned liefern, also wird man weitere 2 Jahre seine dicke Hardware geniessen dürfen. :redface:
Dural
2020-09-10, 10:05:33
Ich würde nicht viel vom Boost / Takt erwarten. Die Architektur gibt einfach nicht mehr her.
Warum wollen eigentlich manche Leute jede Generation aufrüsten? Von einer 2080ti aufzurüsten auf eine 3080 macht erstmal wenig Sinn. Für Pascal-Besitzer wie mich sieht die Sache schon interessanter aus.
Macht keinen Sinn? Jeder der ein bisschen intelligent gewesen wäre hätte seine 2080Ti vor 2-3 Wochen Verkauft und hätte dafür "Gratis" eine 3080 bekommen...
robbitop
2020-09-10, 10:06:38
Eine Verdopplung der Rohleistung dauert aktuell grob 2x Generationen. Topdog vs Topdog.
Zwischenschritte kann man (muss aber nicht) entspannt weglassen.
Ggf sind deshalb auch Dinge wie VRS, Meshshading oder DLSS auch interessant. Um aus der vorhandenen Transistorzahl (mit Abstrichen) das Maximum herauszuholen.
basix
2020-09-10, 10:07:27
Vlt. bin ich nicht genug in der Materie drin. Aber wenn hier öfters geschrieben wird, dass von 2080Ti zu 3080 der Schritt nicht groß genug sei, wird dann nicht ein wenig der Preis außer acht gelassen? Ich mein, ist ja schön und gut, dass die 2080Ti eine starke Karte ist. Aber sie kostet immernoch trotzdem 400-500€ mehr als die 3080. Sicher werden die Preise in Zukunft etwas sinken, aber dennoch.
Eine Karte, die auch nur ein paar % stärker ist als die 2080Ti, zu einem deutlich geringeren Preis auf den Markt zu bringen ist doch ein ziemlich großer Schritt.
Im Prinzip hast du recht. Das gilt aber nur für Leute, welche keine 2080 Ti haben ;) Für die ist eine 3080 reichlich uninteressant.
Was man aber auch sagen muss: Turing und insbesondere die 2080 Ti war unverschämt teuer. 750-800 Euro für eine 3080 hat man 2017 für eine 1080 Ti Custom mit 11 GByte bezahlt. Eigentlich ist die 3080 nur wieder auf einen "normalen" Preis runtergefallen mit der Ausnahme, einen etwas mageren Speicherausbau zu bieten. Das macht sie trotz des annehmbaren Preises wieder etwas unattraktiv.
woodsdog
2020-09-10, 10:14:00
Vlt. bin ich nicht genug in der Materie drin. Aber wenn hier öfters geschrieben wird, dass von 2080Ti zu 3080 der Schritt nicht groß genug sei, wird dann nicht ein wenig der Preis außer acht gelassen? Ich mein, ist ja schön und gut, dass die 2080Ti eine starke Karte ist. Aber sie kostet immernoch trotzdem 400-500€ mehr als die 3080. Sicher werden die Preise in Zukunft etwas sinken, aber dennoch.
Eine Karte, die auch nur ein paar % stärker ist als die 2080Ti, zu einem deutlich geringeren Preis auf den Markt zu bringen ist doch ein ziemlich großer Schritt.
Da liegst du komplett richtig.
Die Frage "ob es lohnt" stellen hier aber überwiegend 2080ti Besitzer... und aus deren Sicht ist es halt schon nicht mehr so geil bei plus ~25-40% und minus 1GB RAM :freak:
masked__rider
2020-09-10, 10:14:16
Ich würde nicht viel vom Boost / Takt erwarten. Die Architektur gibt einfach nicht mehr her.
Macht keinen Sinn? Jeder der ein bisschen intelligent gewesen wäre hätte seine 2080Ti vor 2-3 Wochen Verkauft und hätte dafür "Gratis" eine 3080 bekommen...
Hätte... Bis zur Vorstellung wusste keiner, dass die 3080 so 'günstig' werden würde.
Das hat nichts mit Intelligenz zu tun, wenn mans einfach nicht wissen kann.
Hätte ich vor nem halben Jahr Tesla Aktien gekauft... Verstehst du was ich meine?
Im Prinzip hast du recht. Das gilt aber nur für Leute, welche keine 2080 Ti haben ;) Für die ist eine 3080 reichlich uninteressant.
Was man aber auch sagen muss: Turing und insbesondere die 2080 Ti war unverschämt teuer. 750-800 Euro für eine 3080 hat man 2017 für eine 1080 Ti Custom mit 11 GByte bezahlt. Eigentlich ist die 3080 nur wieder auf einen "normalen" Preis runtergefallen mit der Ausnahme, einen etwas mageren Speicherausbau zu bieten. Das macht sie trotz des annehmbaren Preises wieder etwas unattraktiv.
Naja nV hatte halt mit RT bzw. der Architektur was Neues gebracht. Der Preis der 2080 Ti hat sich zwei Jahre lang durchgehend stabil gehalten, weil das Ding einfach teuer in der Herstellung war. Im Endeffekt darf jeder 3080/3070 Käufer den 2000er Käufer danken. nV setzt dadurch weiter auf die Technologie und konnte die Herstellung nun günstiger gestalten.
Ich habe von ner 1080 Ti auf ne 2080 Ti gewechselt, warum? Na weil ich Bock hatte. :D Theoretisch reichen auch Mittelklassekarten für fluffiges Gaming vollkommen aus aber es ist mein Hobby und ich hab Bock drauf. Ob ich mir ne 3090 hole wird sich zeigen, ne 3080 wird es zu 100% nicht.
Dural
2020-09-10, 10:28:54
Naja, der Termin für die Ampere Vorstellung war ja schon länger bekannt, sogar durch NV selber. Man hätte das schon machen können.
Tesla Aktien? Sollte jeder haben!
basix
2020-09-10, 10:33:45
Naja nV hatte halt mit RT bzw. der Architektur was Neues gebracht. Der Preis der 2080 Ti hat sich zwei Jahre lang durchgehend stabil gehalten, weil das Ding einfach teuer in der Herstellung war. Im Endeffekt darf jeder 3080/3070 Käufer den 2000er Käufer danken. nV setzt dadurch weiter auf die Technologie und konnte die Herstellung nun günstiger gestalten.
Ich habe von ner 1080 Ti auf ne 2080 Ti gewechselt, warum? Na weil ich Bock hatte. :D Theoretisch reichen auch Mittelklassekarten für fluffiges Gaming vollkommen aus aber es ist mein Hobby und ich hab Bock drauf. Ob ich mir ne 3090 hole wird sich zeigen, ne 3080 wird es zu 100% nicht.
Ich verurteile niemanden für seine Investition, egal wie sinnvoll es ist (solange es das eigene Geld ist, das man ausgibt ;)). Ich muss nicht unbedingt den Sinn dahinter sehen, aber leben und leben lassen ist die Devise.
Ich habe den Preis für die 2080 Ti auch nur bezahlt, weil Turing technologisch auf die Kacke gehauen hat (riesen Chips, GDDR6, Tensor Cores, Raytracing, Mesh Shader, VRS, DLSS, neu auch das komplette DX12_2 und RTX IO). Ich kam von einer 980 Ti, da hat sich das auch vom Leistungssprung her gelohnt ;)
Edit:
Dass Turing mehr oder minder alle neuen Features von Ampere nachgereicht bekommt, finde ich ziemlich geil. Anderseits ist das wohl auch eine Massnahme, um die Turing Käufer nicht allzusehr zu vergraulen: Raytracing und DLSS hat sich noch nicht sehr stark verbreitet, deswegen noch kein riesiger Nutzen (aber ich habe den Preis dafür bezahlt). Und ohne DX12_2 und RTX IO hätte man Turing extrem stark gegenüber Ampere entwertet. Was man anhand der 3070er und 3080er Preise ja eh schon getan hat.
mironicus
2020-09-10, 10:33:52
lhowJmsZEmo
MiamiNice
2020-09-10, 10:52:10
Ich würde nicht viel vom Boost / Takt erwarten. Die Architektur gibt einfach nicht mehr her.
Deswegen läuft ne EVGA Kingpin mit 2100Mhz? Das wären 400Mhz sind als auf ner standard 3090.
prinz_valium_2
2020-09-10, 10:58:58
Hoffen wir, dass die Karten enttäuschen, dann muss ich keine kaufen^^
2070 ist halt immer noch teuer für 499, wenn man 350€ für meine 1070 bedenkt.
dargo
2020-09-10, 11:01:39
Deswegen läuft ne EVGA Kingpin mit 2100Mhz? Das wären 400Mhz sind als auf ner standard 3090.
Du weißt noch gar nicht wie hoch die 3090FE boostet. Zum x-ten Male... die offiziellen Angaben taugten zumindest bisher nicht.
Soo viel schneller ist RT jetzt auch nicht geworden. Vor dem Launch hat man mit mindestens einer Verdopplung pro SM gerechnet, so wie es aussieht sind es grad mal +40%.
Es ist massiv schneller geworden. Das kannst du aber nicht mit Benchmarks über die FPS im fertigen Spiel messen.
Du kannst die Rasterizer auch um Faktor 10 aufbohren und das Spiel läuft nicht 10 mal schneller.
Von guten Benchmarks würde ich mir ja wünschen, dass sie die RT Cores mal wirklich "alleine" benchen. Das wird aber wohl nicht passieren.
Ein Anhaltspunkts wäre aber mal die Validierung von den Nvidia Benchmarks
https://twitter.com/acmarrs/status/1300872851474591745/photo/1
Hoffen wir, dass die Karten enttäuschen, dann muss ich keine kaufen^^
Das hoffe ich inzwischen bei dem Kleinkrieg für beide Seiten. Für AMD und den gesamten Markt hoffe ich, dass BigNavi richtig stark wird. Für die AMD Fans erhoffe ich mir einen kompletten Fail. Höchstwahrscheinlich wird es etwas in der Mitte.
monstar-x
2020-09-10, 11:18:39
Hm, mit diesen Ergebnissen hätte sich eine 3080 für mich erledigt. Sie wäre maximal 17% schneller als meine 2080Ti.
Selbst mit 20GiB wäre das ein Fail. Ich kann das kaum glauben, dass die 3080 so schwach sein soll. Hörte sich bei der Lederjacke ganz anders an. :freak:
Naja, du spielst doch kein 3D Mark Benchmarks sondern Spiele, und da kann die Welt schon ganz anders aussehen.
Wenn es in Cyberpunk 30-35% sind sieht es schon anders aus.
dargo
2020-09-10, 11:20:39
Von guten Benchmarks würde ich mir ja wünschen, dass sie die RT Cores mal wirklich "alleine" benchen.
Was sollen diese theoretischen Benches genau bringen? Das ist ja so als wenn ich die Tessleistung separat messen würde. War zwar ganz nett wer dran interessiert war, für den Gamer aber am Ende auch ziemlich wurscht. Es zählt nur was am Ende des Renderingprozesses rauskommt.
MiamiNice
2020-09-10, 11:36:21
Du weißt noch gar nicht wie hoch die 3090FE boostet. Zum x-ten Male... die offiziellen Angaben taugten zumindest bisher nicht.
Zum x-ten Male schreibst Du das selbe. 1700 Mhz ist max. Boost der standard Karten, hat man jetzt schon zig mal gesehen und hat NV auch so gesagt.
2100 Mhz hat EVGA für den dicksten Chip durchsickern lassen. Informiere Dich doch bitte mal.
Lass doch bitte Dein pro AMD, anti NV Zeug in anderen Threads :mad:
rentex
2020-09-10, 11:40:20
https://videocardz.com/newz/evga-geforce-rtx-3080-ftw-ultra-features-1-8-ghz-boost-clock
Troyan
2020-09-10, 11:40:24
Nein, ~1700 ist nur der Marketing-Boost. Die 3080 läuft wohl durchgehend mit ~1910Mhz.
Dampf
2020-09-10, 11:41:03
Es ist massiv schneller geworden.
Doppelt so schnell, skalierend zur Verdoppelung der Fp32 units.
Das heißt du hast bei einer 3080 rund doppelt so viel Leistung im Vergleich zur 2080 in Minecraft RTX was Path Tracing nutzt.
So massiv ist das jetzt nicht. RT wird immer auf die Framerate drücken, weil es einfach ein aufwendiger Effekt ist, der auch die Shader Performance erheblich belastet.
dargo
2020-09-10, 11:48:25
Zum x-ten Male schreibst Du das selbe. 1700 Mhz ist max. Boost der standard Karten, hat man jetzt schon zig mal gesehen und hat NV auch so gesagt.
2100 Mhz hat EVGA für den dicksten Chip durchsickern lassen. Informiere Dich doch bitte mal.
Lass doch bitte Dein pro AMD, anti NV Zeug in anderen Threads :mad:
Du redest wirres Zeug. Schau dir einfach die tatsächlichen Boostclocks von Turing und Pascal an und vergleiche das mal mit den offiziellen Boostclockangaben von NV. Vielleicht geht dir dann endlich ein Licht auf.
Dural
2020-09-10, 11:50:30
Deswegen läuft ne EVGA Kingpin mit 2100Mhz? Das wären 400Mhz sind als auf ner standard 3090.
Aha und wo war bei Turing und Pascal in etwas schluss?
Armaq
2020-09-10, 11:52:26
Naja, du spielst doch kein 3D Mark Benchmarks sondern Spiele, und da kann die Welt schon ganz anders aussehen.
Wenn es in Cyberpunk 30-35% sind sieht es schon anders aus.
3DMark war erstaunlich gut darin, die Differenzen gerade für kommende Spiele aufzuzeigen.
Es wurde viel darüber gemeckert, aber die Trends hatten sie erstaunlich gut abgebildet, auch die Leistungsunterschiede innerhalb einer Familie.
Hauwech
2020-09-10, 11:53:56
Was sollen diese theoretischen Benches genau bringen? Das ist ja so als wenn ich die Tessleistung separat messen würde. War zwar ganz nett wer dran interessiert war, für den Gamer aber am Ende auch ziemlich wurscht. Es zählt nur was am Ende des Renderingprozesses rauskommt.
Für technisch interessierte Menschen sind mehr Messwerte bestimmt interessant - egal ob sie damit was anfangen können oder nicht.
Es gibt nicht nur Gamer da draußen sondern auch Menschen die mit Hardware Geld verdienen. Für die kann es auf jeden Fall interessant sein ob sie Geld in eine neue Karte investieren wollen/müssen oder eben nicht.
JaniC
2020-09-10, 12:03:56
EVGA FTW3 Ultra mit 1800Mhz Boost:
https://videocardz.com/newz/evga-geforce-rtx-3080-ftw-ultra-features-1-8-ghz-boost-clock
Lecker.
ASUS ROG Strix 1740, die MSI Gaming X Trio noch nicht bekannt.
Ich hab's nicht eilig.
2000 "Realboost" sollen es schon sein, da ich aktuell mit ner undervolteten 2080 ja schon 1900 fahre. Psychologisch und so.
Nein, ~1700 ist nur der Marketing-Boost. Die 3080 läuft wohl durchgehend mit ~1910Mhz.
Keine Grafikkarte läuft durchgehend mit viel Takt. Schau dir Turing an. Je mehr Last, desto tiefer der Drop.
MfG
Raff
Linmoum
2020-09-10, 12:09:15
Die 2080 FTW3 Ultra hatte einen Boost von 1860MHz, bei der 2080Ti waren es 1755MHz. Da hat sich also nicht viel getan.
hq-hq
2020-09-10, 12:23:03
scheint als ob sich der max erreichbare stabile Takt in hohen Auflösungen - wenn das Powerlimit und die Temperatur nicht bremst - wieder irgendwo zwischen 2000 und 2100MHz liegt. So wie bei der 1080Ti und 2080Ti
- die hier ja auch gerne mal mehr als 350Watt nehmen
Was sollen diese theoretischen Benches genau bringen? Das ist ja so als wenn ich die Tessleistung separat messen würde. War zwar ganz nett wer dran interessiert war, für den Gamer aber am Ende auch ziemlich wurscht.
Ja
Es zählt nur was am Ende des Renderingprozesses rauskommt.
Für 99,9% ja.
Aber die Erwartungshaltung, dass Raytracing "kostenloser" werden könnte, war halt mit etwas gesundem Menschenverstand und häufiger Ankündigung hier komplett daneben. Raytracing wird dauerhaft viel Leistung kosten. Rasterisierung ist, wenn es ausreicht für die Zielqualität, fast immer effizienter.
Ein gutes Beispiel sieht man hier:
Doppelt so schnell, skalierend zur Verdoppelung der Fp32 units.
Das heißt du hast bei einer 3080 rund doppelt so viel Leistung im Vergleich zur 2080 in Minecraft RTX was Path Tracing nutzt.
So massiv ist das jetzt nicht. RT wird immer auf die Framerate drücken, weil es einfach ein aufwendiger Effekt ist, der auch die Shader Performance erheblich belastet.
Doppelt so schnell ist massiv. Außerdem ist Raytracing genauso wie Rasterisierung kein Effekt.
Eindeutig falsche Erwartungshaltung.
aufkrawall
2020-09-10, 12:30:56
Ist aber schon ein absurder Betriebspunkt, da ~1,9GHz mit 0,9V gingen.
Edit: Zumindest ohne RT. Mit k.A.
mironicus
2020-09-10, 12:35:27
Vielleicht wird ein Ampere ein UV-Weltmeister. Mal schauen, wie die Karte performed wenn man sie auf 250 Watt TDP begrenzt... :D
Und dann mit Turing vergleichen... :D :D
aufkrawall
2020-09-10, 12:38:42
Vielleicht wird ein Ampere ein UV-Weltmeister.
Vielleicht auch das Gegenteil...
maximus_hertus
2020-09-10, 12:38:59
Heute 15 Uhr läuft das NDA aus?
Unboxing Videos und ein weiteres NDA für Benchmarks?
ChaosTM
2020-09-10, 12:40:00
Unwahrscheinlich. Außer NV betreibt die Dinger wirklich deutlich über der Kotzgrenze.
Adam D.
2020-09-10, 12:43:21
Heute 15 Uhr läuft das NDA aus?
Unboxing Videos und ein weiteres NDA für Benchmarks?
Wenn ich Igors Video richtig deute, scheint es heute primär um das Unboxing zu gehen.
Dural
2020-09-10, 12:43:50
Klar braucht RT viel Leistung, aber eine Verdopplung der FPS 2080Ti - 3090 halte ich wenn alles passt und für Ampere optimiert wurde für durchaus möglich.
Sagt NV ja auch selber.
Das einzige wo ich mich nach wie vor frage sind die 350Watt / die Abgrenzung/Abwägung! Das wird eigentlich der einzig wirklich interessante Punkt bei den Tests sein! Was Verbraucht und wie taktet die Karte bei Auslastung Xy.
dargo
2020-09-10, 12:45:26
Aber die Erwartungshaltung, dass Raytracing "kostenloser" werden könnte, war halt mit etwas gesundem Menschenverstand und häufiger Ankündigung hier komplett daneben. Raytracing wird dauerhaft viel Leistung kosten. Rasterisierung ist, wenn es ausreicht für die Zielqualität, fast immer effizienter.
Es war von vorne rein klar, dass Ampere beim Raytracing keine Wunder vollbringen wird. Dazu hatten sich schon bei Turing einige Leute mit Fachwissen geäußert. Solange RT stark von Shaderpower abhängig ist wird sich daran auch nichts ändern. Dieser ganze Bullshit @3x RT Performance waren doch nur feuchte Träume. Raytracing wird noch eine lange Reise werden. Das was wir momentan in den aktuellen und kommenden Games sehen sind doch eh nur erste Schritte.
MiamiNice
2020-09-10, 13:02:43
Du redest wirres Zeug. Schau dir einfach die tatsächlichen Boostclocks von Turing und Pascal an und vergleiche das mal mit den offiziellen Boostclockangaben von NV. Vielleicht geht dir dann endlich ein Licht auf.
Aha und wo war bei Turing und Pascal in etwas schluss?
Warum nehmt ihr zwei nicht eine Schallplatte auf und spielt die dann einfach hier ab :wink: Ihr habt euch auch irgendwie im Thread geirrt, hier ist Ampere Thema und nicht Pascal oder Turing.
Von euch kommt seit Seiten nur bla, bla und bla. Und dazu verbringt ihr eure Zeit scheinbar ausschließlich nur damit diesen Thread zu stören - statt an anderen Stellen mitzulesen. Sonst würdet ihr auch nicht so einen unqualifizierten BS absondern. Willkommen auf der Liste.
Unwahrscheinlich. Außer NV betreibt die Dinger wirklich deutlich über der Kotzgrenze.
Na ja, würde man 350W TDP machen, wenn man die Dinger nicht an der Kotzgrenze betreiben würde?
Thunder99
2020-09-10, 13:14:35
Ganz meiner Meinung. Nur dass es diesmal skaliert heißt nicht, dass man es machen muss. Sie haben sich aber dazu entschieden die TDP/TBP deutlich anzuheben. Gründe haben sie sicher warum es notwendig war um Ziel X zu erreichen...
Mal wirklich die echten Tests abwarten und dann eine finale Meinung bilden.
mironicus
2020-09-10, 13:19:48
Für Enthusiasten sind die 3080/3090 dann wohl auch nichts. :mad:
Aus der 3070 mit ihren 220 Watt kann man sicherlich noch etwas herauskitzeln.
Zergra
2020-09-10, 13:25:44
Für Enthusiasten sind die 3080/3090 dann wohl auch nichts. :mad:
Aus der 3070 mit ihren 220 Watt kann man sicherlich noch etwas herauskitzeln.
Wieso das denn nicht? 450-500 Watt sind locker drin
rentex
2020-09-10, 13:29:42
Wenn man alle verfügbaren Daten zusammen nimmt, ergibt sich vom Boost Takt das selbe Bild wie bei Turing.
Wer erwartet ernsthaft, Taktwunder?!
Es liegt ja offensichtlich schon, ein anliegendes thermisches Maximum der Karte vor. Die GPU ist da nicht der Hauptverursacher!
AstroHW19
2020-09-10, 14:04:44
Für Enthusiasten sind die 3080/3090 dann wohl auch nichts. :mad:
Aus der 3070 mit ihren 220 Watt kann man sicherlich noch etwas herauskitzeln.
Sehe ich nicht so. Man darf bei allem Gerede nicht aus den Augen verlieren die technische Seite der Ampere. GTX 3080 basiert auf 28 Milliarden Transistoren, soviel hat es bis dato nicht gegeben, siehe 18 Milliarden bei 2080ti minus der deaktivierten Einheiten. Bei Nvidia kann man grob so rechnen; Zahl der Transistoren entsprich in etwa der Terraflop Leistung, in etwa wie gesagt. Also 28 Milliarden GPU, über die Jahre gesehen, wird bei den künftigen Spielen vor allem durchschlagen im Verhältnis als 28 Terraflops Chip, als grobe Einschätzung der Möglichkeiten. Nur bloß zum Vergleich, die GPU der XBOX X hat wohl nur 13 Milliarden von denen etliche deaktiviert sind und 12 Terraflops, da werden die Möglichkeiten der 3080 schon deutlicher.
GTX 3070 ist meiner meiner Meinung nach überteuerte Grafikkarte mit nur 17 Milliarden Transistoren.
GTX 3080 ist gut und günstig aber sehr innovativ und somit klare Enthusiasten-Graka.
Ravenhearth
2020-09-10, 14:08:58
Die Transistorenzahl sagt doch nichts aus, wenn fast 20% der SMs deaktiviert sind :freak:
AstroHW19
2020-09-10, 14:14:53
Die Transistorenzahl sagt doch nichts aus, wenn fast 20% der SMs deaktiviert sind :freak:
Ich glaube aber nicht, dass in Verhältnis die Zahle der deaktivierten SM der Zahl der deaktivierten Transistoren entspricht.
Ich bin auch mit 25 Milliarden einverstanden.
Vielleiht aber kann hier jemand des Spaßes wegen die tatsächliche Transistor-Zahl der 3080 einschätzen.
=Floi=
2020-09-10, 14:25:22
Für Enthusiasten sind die 3080/3090 dann wohl auch nichts. :mad:
technisch ist ampere top. Wie turing. Freut euch doch über den fortschritt!
Jammern könnt ihr bei intel. :rolleyes: Dort hätten wir jetzt 6 cores im desktop.
Nazar
2020-09-10, 14:26:12
Sehe ich nicht so. Man darf bei allem Gerede nicht aus den Augen verlieren die technische Seite der Ampere. GTX 3080 basiert auf 28 Milliarden Transistoren, soviel hat es bis dato nicht gegeben, siehe 18 Milliarden bei 2080ti. Bei Nvidia kann man grob so rechnen; Zahl der Transistoren entsprich in etwa der Terraflop Leistung, in etwa wie gesagt. Also 28 Milliarden GPU, über die Jahre gesehen, wird bei den künftigen Spielen vor allem durchschlagen im Verhältnis als 28 Terraflops Chip, als grobe Einschätzung der Möglichkeiten. Nur bloß zum Vergleich die GPU der XBOX X hat wohl nur13 Milliarden und 12 Terraflops, da werden die Möglichkeiten der 3080 schon deutlicher.
GTX 3070 ist meiner meiner Meinung nach überteuerte Grafikkarte mit nur 17 Milliarden Transistoren.
GTX 3080 ist gut und günstig aber sehr innovativ und somit klare Enthusiasten-Graka.
Wichtig ist was hinten raus kommt. :wink:
Du kannst 1000 Zylinder haben aber wenn die PS dieselben sind wie bei einem 12 Zylinder, wenn juckts?
Die Frage ist doch dann, warum benötigt man so viele Zylinder um kaum mehr Wirkungsgrad zum Vorgänger zu erzielen?
Um innovativ zu sein, hätte man die Karte auch einfach nur bunt anmalen können.... ;D
rentex
2020-09-10, 14:31:02
technisch ist ampere top. Wie turing. Freut euch doch über den fortschritt!
Jammern könnt ihr bei intel. :rolleyes: Dort hätten wir jetzt 6 cores im desktop.
Das ist doch für einige hier Wurst, hauptsache 5 GHz+
AstroHW19
2020-09-10, 14:43:00
;D
Um innovativ zu sein, hätte man die Karte auch einfach nur bunt anmalen können.... ;D
Ja sicher, hat man aber leider :mad: nicht , sondern der 28 Milliarden GPU verpasst..:biggrin:
Ich kann mich noch an die Zeiten erinnern, als Nvidia riva tnt 2 mit 18 Millionen Transistoren von einer Geforce-3-GPU NV2A mit 30 Millionen ersetzt wurden und doppelt so schnell war.
Jetzt ist es auch so nur mit Milliarden.;D
TNT 2 hatte übrigens schon einen aktiven Kühler mit Lüfter drauf, der so groß war wie 1 Euro Münze.;D
Dural
2020-09-10, 14:47:47
Ist das so schwer zu verstehen??? :rolleyes:
Ich würde nicht viel vom Boost / Takt erwarten. Die Architektur gibt einfach nicht mehr her.
Deswegen läuft ne EVGA Kingpin mit 2100Mhz? Das wären 400Mhz sind als auf ner standard 3090.
Aha und wo war bei Turing und Pascal in etwa schluss?
mironicus
2020-09-10, 14:48:28
Ich bin ein wenig gefrustet, weil ich weder eine 3080 noch eine 3090-Referenz einfach so in mein bestehendes System einbauen kann wegen der Länge der Karten. Bei der 2080 Ti hat das noch geklappt.
Adam D.
2020-09-10, 15:04:08
Fsb8syaYg74
rentex
2020-09-10, 15:20:45
Nett. Die Seite ist wieder überlastet:wink:
JaniC
2020-09-10, 15:21:56
https://twitter.com/MRizkBV/status/1304027602882093056
Die erste RTX 3080 ist bei Nicehash aufgetaucht und schafft bei Etherium 80MH/s - kann mir das einer (Daredevil?) mal kurz einordnen, ob das jetzt krass gut ist (-> Mininghype, fuck!) oder eher nicht so?
*nägelbeiss*
/edit: Ok, aus den Kommentaren bei Twitter Videocardz: ne VII schafft bis zu 100MH/s. 5700 XT 80-90.
Fehlalarm, puh, alles gut, durchatmen Boys. ;)
Wobei es natürlich noch keine richtigen Treiber gibt. Aber keine Ahnung, wie sehr das eine Rolle spielt.
Dural
2020-09-10, 15:23:26
Laut Igor Kühl, Leise und viel Takt. Bin gespannt ob die an den 2Ghz kratzt.
Auf die Auslastung / Takt / Verbrauchs Messungen bin ich am meisten gespannt, jaja hab es schon gesagt.
JaniC
2020-09-10, 15:28:53
Hier hat einer eine eingebaute RTX 3090 abgelichtet:
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3090-in-a-case-1200x960.jpg
Jägersauce: https://videocardz.com/newz/this-is-how-nvidia-geforce-rtx-3090-looks-in-a-case
TheGamer
2020-09-10, 15:32:59
https://youtu.be/lf1OWiTNY60
rentex
2020-09-10, 15:35:28
Hier hat einer eine eingebaute RTX 3090 abgelichtet:
https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3090-in-a-case-1200x960.jpg
Jägersauce: https://videocardz.com/newz/this-is-how-nvidia-geforce-rtx-3090-looks-in-a-case
Sieht ja gut aus! Dachte schlimmeres.
monstar-x
2020-09-10, 15:36:30
3DMark war erstaunlich gut darin, die Differenzen gerade für kommende Spiele aufzuzeigen.
Es wurde viel darüber gemeckert, aber die Trends hatten sie erstaunlich gut abgebildet, auch die Leistungsunterschiede innerhalb einer Familie.
Danke für diese Info, das war mir so nicht ganz klar :wink:
Dural
2020-09-10, 16:06:23
3D Mark war für einen 3D Performence Vergleich schon immer gut. Die Vorurteile entstanden vor allem darin das die meisten einfach zu blöd waren und im CPU Limit getestet haben und / oder einfach den Overall Score genommen haben. Gerade 3D Mark 01, 03 und 06 waren da sehr kritisch. :rolleyes:
Aber wo würden wir den hinkommen wenn die Menschen mal ihr Gehirn einschalten würden :freak:
AstroHW19
2020-09-10, 17:36:36
https://www.youtube.com/watch?v=c4N-Q9hfM3o
Finde überhaupt nicht lustig noch scharfsinnig.;D
TurricanM3
2020-09-10, 17:39:49
Einfach nur LOL das Vid! ;D
AstroHW19
2020-09-10, 17:56:52
Ich will gar nicht wissen wieviel man für 2080ti bei ebay demnächst noch bekommt, also 400 Euro sicher nicht mehr.:biggrin:
Sorry, manches ist einfach so geschmacklos. https://www.youtube.com/watch?v=h47SfEu8k6g;D
Flinx
2020-09-10, 17:58:02
Poor samsung process give some chips a weak frequency. Nothing can do except to release a new driver for balancing it.
https://twitter.com/kopite7kimi/status/1304055254992871425
Troyan
2020-09-10, 18:24:42
Das bezieht sich auf Igors Artikel von heute: https://www.igorslab.de/chip-ist-nicht-gleich-chip-erste-informationen-zum-moeglichen-binning-und-den-streuungen-bei-der-geforce-rtx-3080-und-rtx-3090/
Nichts neues.
Gouvernator
2020-09-10, 19:33:17
Bei der 3090 liegt der Fall noch etwas komplizierter, denn die Boardpartner haben bisher nur wenige Chips aus der Pilot-Produktion erhalten, so dass die Chips für Bin 2 noch deutlich weniger sind.
Wird NV vielleicht so schnell es geht zu TSMC wechseln? Ich meine der Name 3090 ohne Ti ist sogar eine Andeutung dafür. Vielleicht will NV sogar mit Absicht so wenig wie möglich vom 400W Backofen verkaufen? Ich würde es vorziehen wenn nach dem Launch die Verfügbarkeit dauerhaft bei Null liegen würde. Das könnte für Viele eine Fehlinvestition ersparen bis was vernünftiges von TSMC kommt.
Ich würde es vorziehen wenn nach dem Launch die Verfügbarkeit dauerhaft bei Null liegen würde. Das könnte für Viele eine Fehlinvestition ersparen bis was vernünftiges von TSMC kommt.
Dir wäre es also lieber, die Leute würden die alten Karten zum alten Preis weiterkaufen bevor sie wesentlich mehr Leistung fürs gleiche Geld bekommen?
Radeonfreak
2020-09-10, 20:07:46
Ich will gar nicht wissen wieviel man für 2080ti bei ebay demnächst noch bekommt, also 400 Euro sicher nicht
Wenn Sie völlig bescheuert sind, dann ja.
Armaq
2020-09-10, 20:08:47
Dir wäre es also lieber, die Leute würden die alten Karten zum alten Preis weiterkaufen bevor sie wesentlich mehr Leistung fürs gleiche Geld bekommen?
Wesentlich scheint ja nicht der Fall zu sein und dann ist der Mehrverbrauch und Mehrperformance miteinander ins Verhältnis zu setzen. Nothing is for free in life, auch kein RayTracing. Wenn man der Logik folgt, ist es auch nicht unwahrscheinlich, dass Rasterizing gar nicht soo stark verbessert wurde.
Die 2080Ti bekomme ich mit dem RT Test von 3DMark so richtig geärgert. Leider gibt es nicht soo viele Spiele die RT nutzen und wo man das auch an lässt. In MW mach ich das aus, auch wenn es im SP hübscher ist. Wie gesagt, die Verbesserungen im Bild sind auch viel dezenter als HBAO oder ein fescher Effekt. Wenn man ein Bild mit RT sieht und eines ohne, sieht man das RT richtig aussieht und "off" ein Trick ist. Wenn du RT nie anmachst, kann dir das egal sein.
Edit: Gerade mal den DLSS Feature Test vom 3DMark probiert. 19 zu 35 fps. Also DLSS wird auch auf einer 2080Ti einen ordentlichen Schub bringen, VRam ist ja da. ;)
=Floi=
2020-09-10, 21:47:45
Wenn man der Logik folgt, ist es auch nicht unwahrscheinlich, dass Rasterizing gar nicht soo stark verbessert wurde.
wenn zb ein einzelnes frame X watt braucht, und turing 30 fps schaffte und ampere nun 50fps abliefert, braucht alleine diese steigerung mehr energie.
Man hat mit pascal und turing imho richtig große sprünge in rastering gemacht.
Hauwech
2020-09-10, 21:51:16
Dürfte wohl vom Spiel abhängen ob es wesentlich mehr Leistung gibt oder eben weniger als gehofft. Nichts neues.
OgrEGT
2020-09-10, 22:00:42
BudWXim0TK4
;D
https://www.techpowerup.com/gpu-specs/gigabyte-rtx-3090-eagle-oc.b7951
Kann man doch alles easy nachschlagen.
2x 8 Pin, PG132
Auf das Teil geht der EK Wasserblock z.b.
Es gibt auch PG132 Karten mit 3x8Pin.
Danke Dir, dann drück ich mal die Daumen, dass deren Infos nicht aus den Fingern gesaugt sind.
Platos
2020-09-10, 22:19:14
https://youtu.be/BudWXim0TK4
;D
Das witzige ist, ich sehe die letzten Tage etliche 2080Ti auf Gebrauchtportalen, die für 600-800 Euro weg gehen;D
Hasenpfote
2020-09-10, 22:22:45
Wenn hier die Reaktionen von 2080Ti Nutzer gepostet werden, will ich auch mal:
https://www.youtube.com/watch?v=pKneUFwVkXI
Radeonfreak
2020-09-10, 22:29:45
Ich denke mal am Montag triumphiert der 2080 TI User über die 3070. :tongue:
Selbst die 3080 ist nicht weit weg.
Armaq
2020-09-10, 22:38:09
Ich denke mal am Montag triumphiert der 2080 TI User über die 3070. :tongue:
Davon ist absolut auszugehen.
Ich geh sogar soweit und behaupte, dass 2080Ti aufgrund der Speichermenge auch in einem Jahr noch vorne liegen wird (der Trend ist ja ansonsten klar, dass sich die Abstände vergrößern mit jedem neuen Release).
Im Alltag (insbesondere ohne WaKü) werden die Karten nochmal anders performen. Kleine minimalistische Gehäuse sind zZ. auch total im Trend und von 3 Kumpels throttelt bei 2 die 2070Super, einfach weil die Temperatur erreicht wird. Wie soll das mit einer 3080 gehen?
Für die Effizienz würde es mir reichen, wenn man bspw. bei 90 fps den Limiter anstellt und dann schaut was die Karten verbrauchen für diese 90 fps. Einen besseren Vergleich bekommt man nicht (natürlich auch für 120 fps etc.). Dann wissen wir wieviel Bang for Buck drin steckt je Game.
Insgesamt wird es nvidia aber wieder gelingen ein gutes Quartal zu machen. Viele wollen jetzt kaufen, AMD ist echt spät für Weihnachten 2020 und mit Samsung haben sie garantiert dicke Margen im Sack.
Edit: Ich freue mich auf Igors Gesamtsystemmessungen. Ich nutze mein System so abgestimmmt, dass ich ca. 450Watt Maximalverbrauch habe, wenn ich gängiges Zeug mache. Wenn ich die Leine löse, dann komme ich auf 630Watt. Diese knapp 200Watt werden durch unangenehmes Geräusch und Hitze erkauft. Wenn jetzt zusätzlich zur 320Watt Graka, die CPU auch mehr schwitzt, macht das insgesamt ein Gesamtsystem unattraktiver. Wer heute glücklich mit einer 2070/2080S plus Rest ist, muss nach einem Upgrade vll. deutlich mehr machen als das Netzteil zu erneuern.
Daredevil
2020-09-10, 22:39:55
Der ganze Hate kommt doch eh nur von den Lappen, die sich die Kiste nicht leisten können, oder sagen, dass sie das nicht wollen.
Erst bölken die Kids rum, dass 2080ti User Assis sind, weil die Nvidia damit zustimmen, teure Kisten zu verkaufen und dann holen sie sich ne 3070 und fühlen sich geil, die gleiche Leistung zu haben, ohne mal nachzudenken, wo die Kohle für die Forschung herkommt.
Ja mei.
davidzo
2020-09-10, 22:43:58
Kommt von euch niemand auf die Idee dass man sowas vielleicht nochmal extern prüfen lassen sollte?
"The 3070 is faster than the 2080ti" kommt von denselben Leuten sie sagen die 3080 wäre "twice as fast" wie die 2080. In ersten externen Tests sinds plötzlich nur noch 53%.
Nvidia selbst ist einfach keine vertrauenswürdige Quelle wenn es um Benchmarks geht. Benchmarketing auf demselben Niveau wie Intel. Bloß weil AMD neuerdings ziemlich realistische Einschätzungen abgibt heißt das noch lange nicht dass Team Grün seine Marketingbehauptungen ebenfalls im Zaum hält. Die sind noch genauso unbrauchbar wie eh und je.
Das eine 3070 eine 2080ti schlägt ist vielleicht unter RTX on oder DLSS der Fall, wo die leicht höhere RT Leistung durchschlägt und die höhere Leistung der Tensorkerne.
Aber GA104 hat weniger SMs, ist dadurch schlechter auslastbar, hat 1/4 weniger Speicherbandbreite, weniger TMUs, ROPs und VRAM.
Es wird aber auch genausoviele Szenarien geben in denen eine 2080TI die 3070 abzieht weil bei letzterer eines der vielen eingebauten bottlenecks greift. Ich denke die 2080ti wird ohne RTX oder DLSS die klar konsistentere Leistung abliefern und ist mit der besseren VRAM Ausstattung auch zukunftssicherer.
Daredevil
2020-09-10, 22:46:43
Das ist aber doch kein Vergleich.
Meinetwegen kann die 2080ti in 4K ein paar Prozent mehr machen aufgrund der Bandbreite, aber die Kiste würde jetzt und kann bald das doppelte Kosten.
Die beiden Karten wird man eigentlich nur vergleichen, damit man das gute Gefühl hat, 1300€ für 500€ zu kaufen, mehr nicht.
Da stehen Leute drauf, wenig zahlen und das gleiche haben wie die reichen Jungs und Mädels. Gucci Taschen aufm Rummel, Sneaker aus China, Swarowski statt Diamanten.
Vergleich die 3070 mit ner 2070 und die Kiste hebt ab, das ist Wahnsinnig gut.
Die 3070 ist keine Gefahr für die 2080ti, wenn man 4K als Ziel sieht, für FullHD Gamer ist sie Klasse, da war die 2080ti aber nie.
PS:
cYotNjX0EXY
:D
unl34shed
2020-09-10, 22:53:52
Es ist massiv schneller geworden. Das kannst du aber nicht mit Benchmarks über die FPS im fertigen Spiel messen.
Du kannst die Rasterizer auch um Faktor 10 aufbohren und das Spiel läuft nicht 10 mal schneller.
Von guten Benchmarks würde ich mir ja wünschen, dass sie die RT Cores mal wirklich "alleine" benchen. Das wird aber wohl nicht passieren.
Ein Anhaltspunkts wäre aber mal die Validierung von den Nvidia Benchmarks
https://twitter.com/acmarrs/status/1300872851474591745/photo/1
In den verlinkten Test ist zwischen 3080 und 2080Ti nur ein Unterschied von etwa 60%. Da von "massiv" zu reden, wo zuvor mindestens Faktor 2 erwartet wurde, ich weiß ja auch nicht...
Außerdem: Die RTXGI samples laufen nicht rein auf den RT-cores: "An RTXGI sample is the combination of a ray trace, shade, and convolution of ray radiance and distance data in texture memory." (Quelle (https://twitter.com/acmarrs/status/1300882325442629635)). Da habe ich aktuell eher den Verdacht, dass die 60% von den FP32 ALUs kommen.
Gegenbeispiel hierzu wäre auch das Digital Foundry Video (https://www.youtube.com/watch?v=cWD01yUQdVA&feature=emb_logo)in dem Control mit und ohne RT gebencht wurde. Hier hatte in beiden Fällen die 3080 77,6% Vorsprung vor der 2080. Bei einer "massiven" Verbesserung der RT Cores würde ich hier einen Unterschied erwarten. Oder etwa nicht?
Ganz ehrlich ich würde sogar von meinen zuvor geschriebenen +40% zurückrudern. Da hat sich nichts nennenswertes getan...
Ich glaube ein reines Benchmark der RT-Cores dürfte ernüchternd werden, interessant wäre es aber wirklich.
In den verlinkten Test ist zwischen 3080 und 2080Ti nur ein Unterschied von etwa 60%. Da von "massiv" zu reden, wo zuvor mindestens Faktor 2 erwartet wurde, ich weiß ja auch nicht...
Man hat einen Unterschied zur 2080S von Faktor 2. Also >Faktor 2 zur 2080. Das ist schon stark überdurchschnittlich.
Außerdem: Die RTXGI samples laufen nicht rein auf den RT-cores: "An RTXGI sample is the combination of a ray trace, shade, and convolution of ray radiance and distance data in texture memory."
Ist mir schon klar. Aber das
(Quelle (https://twitter.com/acmarrs/status/1300882325442629635)). Da habe ich aktuell eher den Verdacht, dass die 60% von den FP32 ALUs kommen.
ist reine Kaffeesatz-Leserei ohne Messungen.
Gegenbeispiel hierzu wäre auch das Digital Foundry Video (https://www.youtube.com/watch?v=cWD01yUQdVA&feature=emb_logo)in dem Control mit und ohne RT gebencht wurde. Hier hatte in beiden Fällen die 3080 77,6% Vorsprung vor der 2080. Bei einer "massiven" Verbesserung der RT Cores würde ich hier einen Unterschied erwarten.
Also das Benchmarking von einem kleinen vermutlich RT limitierten Subsystem ist nicht ok, aber ein ganzes Spiel zu benchmarken ist ok?
Ehrlich gesagt erwarte ich gar keine Detailerkenntnis vom FPS Benchmarking eines kompletten Spiels. Dafür müssten man zumindest mal NSights auf beiden Karten anwerfen und sich jeweils die Bottlenecks anschauen.
unl34shed
2020-09-10, 23:18:19
Na wenn du meinst.
Was ist wahrscheinlicher? Das 2x aus 1.4x RT-Cores generiert werden oder von den 2.8x FP32 ALUs übrig bleibt?
Was ist wahrscheinlicher? Das 2x aus 1.4x RT-Cores generiert werden oder von den 2.8x FP32 ALUs übrig bleibt?
Bei aller Optimierung, die ich in meiner Karriere schon machen musste, hat sich eine Wahrheit rauskristalisiert: Das Bottleneck ist selten dort wo man es offensichtlich erwartet.
Es hat sich viel zu viel an der gesamten Architektur (und besonders Speichersystem) getan, um da blind raten zu können.
pixeljetstream
2020-09-11, 00:21:10
Bei aller Optimierung, die ich in meiner Karriere schon machen musste, hat sich eine Wahrheit rauskristalisiert: Das Bottleneck ist selten dort wo man es offensichtlich erwartet.
Und es ist selten nur eines ;) wenn eins "gelöst" wird kommt ein anderes, darum sind es viele Dinge die zur Verbesserung beitragen, auch wenn die 2x fp32 die meiste Aufmerksamkeit kriegen.
AstroHW19
2020-09-11, 00:22:50
Der ganze Hate kommt doch eh nur von den Lappen, die sich die Kiste nicht leisten können, oder sagen, dass sie das nicht wollen.
Ja mei.
Wieso können sie sich die Leistung nicht leisten, umgekehrt jetzt können grade diese sich auch die Leistung der GTX 2080ti leiste und wollen das auch. Man leistet sich ja eine leistungsstarke Karte und nicht einen teuren von der Palme, weil man mehr als Leistung nicht bekommen kann und auch hoffentlich nicht will zu wedeln anfangen, wenn man normal ist. Normal ist das so. Es geht ja hier nicht um irgendwelche auserlesene Kisten, sondern nur in erster Linie um Werkzeuge für Gamer und erst danach kommen andere sehr ausgefallene und sehr private und intime Bedürfnisse zum Zuge.
Palpatin
2020-09-11, 00:24:10
Vergleich die 3070 mit ner 2070 und die Kiste hebt ab, das ist Wahnsinnig gut.
Die 3070 ist keine Gefahr für die 2080ti, wenn man 4K als Ziel sieht, für FullHD Gamer ist sie Klasse, da war die 2080ti aber nie.
Wenn die 3070 ein paar Prozent hinter der 2080ti FE liegt dann ist sie nur ca 30% schneller als die 2070 super. 30% lassen mich eher gähnen statt abheben, wenn sich wenigsten beim VRAM was getan hätte :rolleyes:
Tesseract
2020-09-11, 00:44:36
ohne mal nachzudenken, wo die Kohle für die Forschung herkommt.
von den 50er und 60er serien und vom profimarkt. die 2080Ti ist ein nischenprodukt mit <1% marktanteil.
Digidi
2020-09-11, 01:42:44
Oh je VRAM scheint wirklich ein Problem zu werden. Wenn das schon die Leute von Id Sagen
https://twitter.com/axelgneiting/status/1304179692447109120
[MK2]Mythos
2020-09-11, 02:10:20
Oh je VRAM scheint wirklich ein Problem zu werden. Wenn das schon die Leute von Id Sagen
https://twitter.com/axelgneiting/status/1304179692447109120
Also definiert die Generation das untere Maß an RAM. The way its meant to be played. ;)
just4FunTA
2020-09-11, 02:22:15
Mythos;12421336']Also definiert die Generation das untere Maß an RAM. The way its meant to be played. ;)
da geht es um die xss:
Xbox Series S: 10 GB GDDR6 RAM, davon 8 GB @ 224 GB/sec. und 2 GB @ 56 GB/sec.
https://www.4players.de/4players.php/spielinfonews/XboxSeriesX/42086/2192687/Xbox_Series_S-Die_technischen_Daten_der_kleinen_Xbox_im_Vergleich_zur_Xbox_Series_X.html
BlacKi
2020-09-11, 05:27:38
"The 3070 is faster than the 2080ti" kommt von denselben Leuten sie sagen die 3080 wäre "twice as fast" wie die 2080. In ersten externen Tests sinds plötzlich nur noch 53%.
Nvidia selbst ist einfach keine vertrauenswürdige Quelle wenn es um Benchmarks geht. Benchmarketing auf demselben Niveau wie Intel. Bloß weil AMD neuerdings ziemlich realistische Einschätzungen abgibt heißt das noch lange nicht dass Team Grün seine Marketingbehauptungen ebenfalls im Zaum hält. Die sind noch genauso unbrauchbar wie eh und je.
du bist mir schon ein troll. get your facts straight!
da geht es um die xss:
https://www.4players.de/4players.php/spielinfonews/XboxSeriesX/42086/2192687/Xbox_Series_S-Die_technischen_Daten_der_kleinen_Xbox_im_Vergleich_zur_Xbox_Series_X.html
notfalls einfach etwas am LoD drehen lol. ein problem ist das nicht wirklich und niemand erwartet auf der xss dieselbe grafikpracht wie auf der xsx. da die beiden sowieso von der ssd streamen, sehe ich da kein echtes problem.
Screemer
2020-09-11, 07:55:47
Oh je VRAM scheint wirklich ein Problem zu werden. Wenn das schon die Leute von Id Sagen
https://twitter.com/axelgneiting/status/1304179692447109120
Das ist ja quasi genau das was er schon vor Monaten hier im Forum geschrieben hat:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12420687#post12420687
sChRaNzA
2020-09-11, 08:07:35
Der ganze Hate kommt doch eh nur von den Lappen, die sich die Kiste nicht leisten können,...
Scheint anders herum ja wesentlich deeskalierender zu sein.
dargo
2020-09-11, 08:13:51
Vergleich die 3070 mit ner 2070 und die Kiste hebt ab, das ist Wahnsinnig gut.
Nächstes Marketingopfer? ;D Wann war das jemals anders? Schau dir an wieviel schneller TU104 vs. GP106 ist. ;)
Armaq
2020-09-11, 08:28:53
Das ist ja quasi genau das was er schon vor Monaten hier im Forum geschrieben hat:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12420687#post12420687
Damit hängen wir eine komplette Generation durch...
Das wäre echt ultrabrutal und zwar nicht im guten Sinn.
[MK2]Mythos
2020-09-11, 09:13:18
da geht es um die xss:
https://www.4players.de/4players.php/spielinfonews/XboxSeriesX/42086/2192687/Xbox_Series_S-Die_technischen_Daten_der_kleinen_Xbox_im_Vergleich_zur_Xbox_Series_X.html
Oh shit, war wohl schon zu spät...
Dural
2020-09-11, 09:35:00
Was diskutiert ihr hier jetzt an dem Speicher der Konsolen um? :rolleyes:
Die neuen Konsolen und die XBS ist der beste Beweis das 8GB noch sehr sehr lange reichen werden. Dazu kommt das über ca. 95% der Grafikkarten die im Umlauf sind 8GB oder weniger haben.
Und für alle andern gibt es ja die 3090 mit komplett sinnlosen 24GB, aber wenn man schon mühe an den 500.- aufwärts für eine Grafikkarte hat wird das finanziell schon etwas schwieriger.
Dazu sollen die 3070 und 3080 noch mit deutlich mehr Speicher kommen, wo ist das Problem!?!
Kindergarten!
masked__rider
2020-09-11, 09:47:57
Es wird trotzdem so sein, dass PC Spiele verhältnismäßig mehr VRAM benötigen in Zukunft. Von den neuen Konsolen direkt auf den PC zu schließen ist ein Trugschluss. Siehe H:ZD oder RDR2. Klar, das sind keine Paradebeispiele guter Konsolenports, trotzdem zeigen sie eine gewisse Tendenz.
Dazu kommt, das mit der neuen Generation an Pixelbeschleunigern die verwendeten Auflösungen sich weiter hin Richtung UHD oder gar höher verschieben. Dort mehr VRAM zu haben als unbedingt nötig schadet jedenfalls nicht und gäbe den Karten eine längere Verwendungsdauer.
Orbmu2k
2020-09-11, 09:52:41
Die Reviews die am 14. kommen sind also nur die RTX 3080?
basix
2020-09-11, 09:52:53
Ich habe mir noch ein Unboxing der 3080 angeschaut. Sieht wirklich gut aus das Ding. Seit sie FEs machen sehen die Dinger fast durchs Band einfach gut aus (Ausnahme war Pascal, das war mir zu "wild").
Mein vorläufiges Fazit zu Ampere:
+ Performance
+ Technik (2x FP32, RT, Tensor, GDDR6X, PCB Design, RTX IO, DLSS)
+ Kühler (1x wird warme Luft in den "normalen" Gehäuse Luftstrom integriert :up:; 1x wird warme Luft sogar hinten aus dem Gehäuse geblasen :up::up:), vermutlich relativ leise
- Stromverbrauch (bis zu 350W)
- Energieeffizienz (nur ca. +20-30% verglichen zu Turing)
- Speicherausbau 3070 und 3080 (wo bleibt der 12Gbit Speicher? ;))
e-tec und ditech haben die asus tuf 3090 gelistet und kann bestellt werden.
Armaq
2020-09-11, 09:54:02
Ich beziehe mich mal auf den Test hier, der ist schön komprimiert:
https://www.computerbase.de/2020-09/amd-radeon-nvidia-geforce-ampere-rdna-2-benchmark-test/2/#diagramm-control-raytracing-in-3840-2160
Wird Ampere 4k und RT in spielbaren Frameraten ermöglichen? Auch ohne DLSS?
Control in WQHD und RT lässt die 20x0 ächzen, in 4k ist es dann eine Exekution.
Eigentlich müsste Ampere 80% drauflegen, damit man das überhaupt machen kann.
Das mit den Netzteilen scheint übrigens ernst zu sein, oder ASUS hat was Unnützes gemacht:
https://youtu.be/_e_KDqzlAbk?t=210
Daredevil
2020-09-11, 09:57:36
Nächstes Marketingopfer? ;D Wann war das jemals anders? Schau dir an wieviel schneller TU104 vs. GP106 ist. ;)
Ja.
masked__rider
2020-09-11, 10:05:13
Die Reviews die am 14. kommen sind also nur die RTX 3080?
Ja, und nur für die Founders Edition. Customs NDA fällt am 17. September 15:00.
ChaosTM
2020-09-11, 10:19:34
Diesmal ist die Chance relativ hoch eine FE Karte zu besitzen für eine Weile. Gefällt mir besser als die ganzen 3 Kühler Lösungen.
Jetzt muss sie nur noch halbwegs "geräuscharm" zu Gange gehen.
grobi
2020-09-11, 10:42:47
Weiß man schon ob die Lüfter im Idle aus sind?
Mfg grobi
mironicus
2020-09-11, 10:43:48
Weiß man schon ob die Lüfter im Idle aus sind?
Mfg grobi
Gab es noch nie bei NVidia FE-Modellen. Also wohl eher nein.
Troyan
2020-09-11, 10:47:07
Weiß man schon ob die Lüfter im Idle aus sind?
Mfg grobi
Im Digitalfoundry-Video waren die Lüfter beim Idlen aus.
Es gab auch vorher noch nie einen so perversen Kühler. ;)
MfG
Raff
sChRaNzA
2020-09-11, 10:48:48
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked
"3080 Gaming Performance leaked."
mironicus
2020-09-11, 10:54:22
https://videocardz.com/newz/nvidia-geforce-rtx-3080-synthetic-and-gaming-performance-leaked
"3080 Gaming Performance leaked."
Haut mich nicht vom Stuhl (als RTX 2080 Ti-Besitzer). :)
Lawmachine79
2020-09-11, 10:56:18
Ich habe mal das hier von Igor (ist der eigentlich Sachse?) gelesen:
https://www.igorslab.de/chip-ist-nicht-gleich-chip-erste-informationen-zum-moeglichen-binning-und-den-streuungen-bei-der-geforce-rtx-3080-und-rtx-3090/
Heisst das, wenn ich eine FE kaufe habe ich die größte Aussicht auf einen guten Chip, obwohl es die "billigste" Karte ist?
spike.sp.
2020-09-11, 10:57:31
Knapp 30% schneller als eine 2080Ti. Mir taugts, bin meine für 750€ losgeworden, sprich gratis Upgrade. 🙂
dildo4u
2020-09-11, 11:02:49
Haut mich nicht vom Stuhl (als RTX 2080 Ti-Besitzer). :)
Ist nicht wirklich GPU Limitiert CB hat schon 65% von 2060S zu 2080 Ti.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160
Adam D.
2020-09-11, 11:11:08
Es gab auch vorher noch nie einen so perversen Kühler. ;)
MfG
Raff
Das sind doch mal die NDA-konformen Antworten, mit denen man arbeiten kann, danke Raff :biggrin: Ich hoffe, das gilt auch für die 3070.
Linmoum
2020-09-11, 11:12:32
Ist nicht wirklich GPU Limitiert CB hat schon 65% von 2060S zu 2080 Ti.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160Die UHD-Benches sind also nicht GPU-limitiert in dem Fall. Aha.
Da sind es rund +35% (SotTR) und rund +25% (Far Cry). Naja, passt zu den +-30%, die man vorher schon erwartet hat. Dass es natürlich dennoch genauso Spiele geben wird, die stärker performen, ist logisch.
masked__rider
2020-09-11, 11:12:43
Es gab auch vorher noch nie einen so perversen Kühler. ;)
MfG
Raff
Hmm, auf beide FE´s bezogen oder eher nur auf die 3090 ^^
rentex
2020-09-11, 11:13:44
Es gab auch vorher noch nie einen so perversen Kühler. ;)
MfG
Raff
Besser pervers als halbgar:wink:
why_me
2020-09-11, 11:15:10
Ist nicht wirklich GPU Limitiert CB hat schon 65% von 2060S zu 2080 Ti.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-3840-2160
Aber die Werte 2060s -> 2080 ti passen doch in etwa zu den Werten von CB.
SoTR: Videocardz: 2060s -> 2080ti + 61%
SoTR: Computerbase: 2060s -> 2080ti + 63%
Troyan
2020-09-11, 11:16:47
Und passen auch zu den Werten von Digitalfoundry. Die hatten 70% oder so gegenüber der 2080 gezeigt. Farcry 5 Benchmark ist CPU-limitierend in UHD.
MiamiNice
2020-09-11, 11:18:33
Ich habe mal das hier von Igor (ist der eigentlich Sachse?) gelesen:
https://www.igorslab.de/chip-ist-nicht-gleich-chip-erste-informationen-zum-moeglichen-binning-und-den-streuungen-bei-der-geforce-rtx-3080-und-rtx-3090/
Heisst das, wenn ich eine FE kaufe habe ich die größte Aussicht auf einen guten Chip, obwohl es die "billigste" Karte ist?
Nein, da man mit weiß ob NV selektiert. Die größte Chance auf einen guten Chip hast Du mit einer teuren Karte von einem großen Hersteller wie z.b. Asus oder MSI
Adam D.
2020-09-11, 11:18:54
Wenn man nicht total gehypet war, dürften einen die ~30% auf die 2080 Ti nicht überraschen. Finde das angesichts des aufgerufenen Preises gut. Das dürfte zugleich auch heißen, dass sich die 3070 und die 2080 Ti in der Praxis wenig geben dürften, was auch passt.
Armaq
2020-09-11, 11:40:20
Wenn man nicht total gehypet war, dürften einen die ~30% auf die 2080 Ti nicht überraschen. Finde das angesichts des aufgerufenen Preises gut. Das dürfte zugleich auch heißen, dass sich die 3070 und die 2080 Ti in der Praxis wenig geben dürften, was auch passt.
Aber wo bleibt da der Fortschritt?
Ich gönne jedem 2080Ti Performance zu guten Preisen, aber wenn ich 100 Watt mehr verbrauche (was ca. 1/3 ist), um 30% Performance zu bekommen, dann ist das kein Fortschritt.
Man sieht hier ggf. den Unterschied von 8 nm Samsung zu 12nm TSMC. Obwohl ich an den RDNA2 Hype nicht glaube, könnte ein 7nm TSMC hier schon ziemlich beeindrucken.
masked__rider
2020-09-11, 11:42:05
Wo braucht eine 3080 100W mehr als eine 2080TI? (FE vs FE, sind 320W zu 260W)
Armaq
2020-09-11, 11:42:49
Wo braucht eine 3080 100W mehr als eine 2080TI? (FE vs FE)
250 Watt vs. 320 Watt
Die Schlussfolgerungen im Text bei cb sind auch ganz interessant.
MiamiNice
2020-09-11, 11:44:10
Aber wo bleibt da der Fortschritt?
Das kommt wohl darauf an wie man Fortschritt definiert. Wenn jemand nur an der absoluten Leistung interessiert ist, ist das schon ein Fortschritt.
w0mbat
2020-09-11, 11:45:24
Ne 2080 Ti FE hat 250W TDP, ne 3080 hat 320W TDP. Das sind 28% mehr TDP bei 31B weniger VRAM. Wenn da nur 30% mehr Leistung bei rum kommt ist das nicht gut, es gäbe dann nämlich genau null Effizienzsteigerung. Nur das P/L-Verhältnis ist halt besser-
Daredevil
2020-09-11, 11:45:32
Aber wo bleibt da der Fortschritt?
Ich gönne jedem 2080Ti Performance zu guten Preisen, aber wenn ich 100 Watt mehr verbrauche (was ca. 1/3 ist), um 30% Performance zu bekommen, dann ist das kein Fortschritt.
Man sieht hier ggf. den Unterschied von 8 nm Samsung zu 12nm TSMC. Obwohl ich an den RDNA2 Hype nicht glaube, könnte ein 7nm TSMC hier schon ziemlich beeindrucken.
Ich weiß was du meinst, der Fortschritt ist wohl eher der, dass du eine 2080ti selbst mit 400w Verbrauch nicht auf 3080 Niveau bekommen wirst.
Sogesehen ist die 2080ti im Vergleich zur 2080 auch ein "riesen Fortschritt", da du eine 2080 selbst mit 400w nicht auf die 250w 2080ti Leistung bekommen wirst.
Erst die 3090 wird ein größerer Fortschritt sein zur 2080ti, die 3080 ist halt nicht die fetteste Karte. ( Wie eben halt die 2080ti / Titan RTX / 3090 )
Gegen eine Vega64 @ Max OC mit WaKü eine VII ein Effizienzwunder, aber das ist sie nicht.
Fette Karten mit kleinen Karten vergleichen ist schwierig. Kleine Karten mit fetten Karten vergleichen ebenso.
Viele Einheiten, wenig Takt > Effizienz.
masked__rider
2020-09-11, 11:46:14
250 Watt vs. 320 Watt
Nvidia gibt 260W für die Founders an.
Ne 2080 Ti FE hat 250W TDP, ne 3080 hat 320W TDP. Das sind 28% mehr TDP bei 3GB weniger VRAM. Wenn da nur 30% mehr Leistung bei rum kommt ist das nicht gut, es gäbe dann nämlich genau null Effizienzsteigerung. Nur das P/L-Verhältnis ist halt besser-
1 GiB weniger RAM und 60 Watt mehr TGP, dafür fast ein Viertel mehr Durchsatz (Founders vs. Founders).
2080 Ti und 3080 kann man natürlich prima vergleichen, aber was am Ende zählt ist 2080 Ti gegen 3090 - und da sind's laut Nvidia mehr als 50 Prozent (es heißt "up to 50 % faster than Titan RTX").
MfG
Raff
Adam D.
2020-09-11, 11:48:03
Aber wo bleibt da der Fortschritt?
Ich gönne jedem 2080Ti Performance zu guten Preisen, aber wenn ich 100 Watt mehr verbrauche (was ca. 1/3 ist), um 30% Performance zu bekommen, dann ist das kein Fortschritt.
Man sieht hier ggf. den Unterschied von 8 nm Samsung zu 12nm TSMC. Obwohl ich an den RDNA2 Hype nicht glaube, könnte ein 7nm TSMC hier schon ziemlich beeindrucken.
Ganz ehrlich: wenn die 3090 da nochmal 10-20% drauf legt, dann bekommst du das, was du in Zeiten immer komplexer werdender Chipdesigns erwarten kannst. Bis da irgendeine Form von Multi-Chip-Design marktreif ist, wird da nicht viel mehr gehen. Das erleben wir jetzt schon eine ganze Zeit lang, zugleich denken die Leute immer noch, dass die Hersteller einen zweiten NV40 hervorzaubern. Die Zeiten sind vorbei.
mironicus
2020-09-11, 11:51:17
Übertrifft das Referenzdesign der 3090 eventuell alle anderen Modelle?
w0mbat
2020-09-11, 11:53:12
1 GiB weniger RAM und 60 Watt mehr TGP, dafür fast ein Viertel mehr Durchsatz (Founders vs. Founders).
2080 Ti und 3080 kann man natürlich prima vergleichen, aber was am Ende zählt ist 2080 Ti gegen 3090 - und da sind's laut Nvidia mehr als 50 Prozent (es heißt "up to 50 % faster than Titan RTX").
MfG
Raff
Hast Recht, die 3080 hat ja 10GB.
dargo
2020-09-11, 11:55:06
250 Watt vs. 320 Watt
Wie oft denn noch? Eine 2080TI FE nuckelt knapp 280W!
hq-hq
2020-09-11, 11:55:35
Ich weiß was du meinst, der Fortschritt ist wohl eher der, dass du eine 2080ti selbst mit 400w Verbrauch nicht auf 3080 Niveau bekommen wirst.
hm, evtl. klappt das manchmal doch:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71421&stc=1&d=1599818123
Badesalz
2020-09-11, 11:56:02
2080 Ti und 3080 kann man natürlich prima vergleichen, aber was am Ende zählt ist 2080 Ti gegen 3090 [...]Das wäre mir neu. Warum sollte man das?
@dargo
Man muss das zwar nicht, weil am Ende zählt ja was insgesamt bei rauskommt, aber wenn man soviel über die GPUs redet, kann man ne Weile auch nur die GPUs betrachten ;) GDDR6X zieht eben aus dem Netzteil wie irre. Andererseits ist halt interessant was NV selbst alles wie hinbekommen hat, und nicht Micron.
Daredevil
2020-09-11, 11:56:31
Übertrifft das Referenzdesign der 3090 eventuell alle anderen Modelle?
Jap, das ist durchaus möglich. Das war btw. auch schon bei Turing der Fall, zumindest bei den 2-Slot Varianten.
Nvidia bietet die Kiste für 1500 Eurönchen an, die erste gelistete Asus TuF Karte ist für 1629€ angeboten. Wird der ( süße ) Asus Kühler 130€ besser sein als der von Asus? Sicher nicht.
w0mbat
2020-09-11, 11:57:14
Wie oft denn noch? Eine 2080TI FE nuckelt knapp 280W!
Und, wissen wir, was eine 3080 FE son "nuckelt"? Vielleicht sind es da auch 350W+.
Daredevil
2020-09-11, 11:59:34
hm, evtl. klappt das manchmal doch:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71421&stc=1&d=1599818123
In UHD ? ^^
Imho sind es doch knapp 15% zwischen FE und hochgezüchteter 2080ti "Super" aka übertakteter Trio Z bei PCGH.
prinz_valium_2
2020-09-11, 12:00:47
Das wäre mir neu. Warum sollte man das?
Warum nicht?
Selbe Leistungsklasse.
2080TI und 3080 haben mehr gemeinsam als eine 2080TI und 3090
masked__rider
2020-09-11, 12:01:59
Wie oft denn noch? Eine 2080TI FE nuckelt knapp 280W!
Ich bezieh mich ja nur auf die offiziellen Angaben, oder weißt du schon wie viel die 3080 real verbraucht?
Badesalz
2020-09-11, 12:02:54
Warum nicht?
Selbe Leistungsklasse.Wie? Die sind gleich schnell? :rolleyes: Oder meinst du Watt?
2080TI und 3080 haben mehr gemeinsam als eine 2080TI und 3090War doch mein Reden :freak: Raff, möchte die 2080Ti eher gegen die 3090 vergleichen...
Leonidas
2020-09-11, 12:06:03
@Leonidas Woher nimmst du die Gewissheit, das die Customkühler, um so besser werden? Weil es schon immer so war?
Die AIBs hatten massive Probleme mit der Entwicklung der Karten und einen zeitlich sehr knappen Support seitens NV.
Das es immer noch keine Boost Takt Angaben vieler Karten gibt, ist schon komisch?
Du hast Recht, eine Gewissheit wäre hier übertrieben. Später wird das kommen, aber am Anfang wird es schwer, die FE wirklich hoch zu übertreffen.
Igor (ist der eigentlich Sachse?)
Zweifelsfrei. Und das ist gut so!
Kein Scherz seitens nVidia:
https://twitter.com/NVIDIAGeForce/status/1304088143805607936
Want a few more spatulas in your life?
Jensen's kitchen from the 30 Series announcement is now available as a Zoom background.
(You'll need to supply your own leather jacket.)
Download → https://www.nvidia.com/en-us/geforce/news/geforce-rtx-30-series-community-kit-download/
Wenn es billiger sein soll als eine RTX 3090:
https://pbs.twimg.com/media/EhkaHuqXkAEvG9-?format=jpg
dargo
2020-09-11, 12:06:17
Und, wissen wir, was eine 3080 FE son "nuckelt"? Vielleicht sind es da auch 350W+.
Habe ich irgendwo ein Wort über die 3080 verloren? :rolleyes:
hq-hq
2020-09-11, 12:08:00
In UHD ? ^^
Imho sind es doch knapp 15% zwischen FE und hochgezüchteter 2080ti "Super" aka übertakteter Trio Z bei PCGH.
die hatte doch nur ein 330Watt Powerlimit...
prinz_valium_2
2020-09-11, 12:08:54
Wie? Die sind gleich schnell? :rolleyes: Oder meinst du Watt?
War doch mein Reden :freak: Raff, möchte die 2080Ti eher gegen die 3090 vergleichen...
@masked__rider
Hatten wir ja alle 3 den gleichen Gedanken :D Gut, daß ihr beiden schneller schreibt ;) Schlecht, daß Dargo auf so triviales Zeug nicht von alleine kommt.
Ähnlich viel RAM,
Beide salvage 102 GPU
Ähnlicher Verbrauch
Wie gesagt es ergibt beides Sinn, je nach aus welcher Sicht man auf die Sache hat.
Armaq
2020-09-11, 12:09:47
1 GiB weniger RAM und 60 Watt mehr TGP, dafür fast ein Viertel mehr Durchsatz (Founders vs. Founders).
2080 Ti und 3080 kann man natürlich prima vergleichen, aber was am Ende zählt ist 2080 Ti gegen 3090 - und da sind's laut Nvidia mehr als 50 Prozent (es heißt "up to 50 % faster than Titan RTX").
MfG
Raff
Der Vergleich von videocardz ist ja auch intransparent, dennoch ist klar, dass man bei älteren Spielen nicht soviel erwarten kann.
Bei genaueren Angaben zu den getesteten Karten wird das dann sicherlich besser, wenngleich sich das Bild nicht ändert wird.
2080Ti vs 3090 ist natürlich dann die interessante Dynamik, hier gehe ich aufgrund der Rohdaten (Bandbreite, Compute Units) auch von längerfristig größer werdenden Abständen aus.
Dennoch ist klar, dass 8nm Samsung einen schweren Stand haben wird gegen 7 nm TSMC. Vll. hilft das AMD in puncto Konkurrenzfähigkeit.
Badesalz
2020-09-11, 12:19:20
Ähnlich viel RAM,
Beide salvage 102 GPU
Ähnlicher VerbrauchAutovergleiche sind immer schlecht :wink: aber wenn man da von gleicher oder ähnlicher Leistungsklasse spricht, dann meint man naheliegenden erreichten Testwerte aka Leistungswerte. Und nicht Hubräume, Beinfreiheit auf der Rückbank oder Verbrauch. Leistung, ist Leistung. Des Motors einerseits und des ganzen Autos andererseits.
Aber ok. Sorry =)
w0mbat
2020-09-11, 12:34:59
Habe ich irgendwo ein Wort über die 3080 verloren? :rolleyes:
Jetzt stell dich nicht so an. Hier wurden die TDPs von 2080 Ti und 3080 verglichen und dein Einwand war, dass die 2080 Ti mehr verbraucht als die TDP angibt.
Wenn du das nur als neutrale Aussage zur 2080 Ti einwerfen wolltest, war das nicht ersichtlich.
Badesalz
2020-09-11, 12:39:30
Kennt man denn schon überhaupt die TDPs von Ampere? Bisher kenn ich nur die TBPs ;)
MiamiNice
2020-09-11, 12:53:11
Dennoch ist klar, dass 8nm Samsung einen schweren Stand haben wird gegen 7 nm TSMC. Vll. hilft das AMD in puncto Konkurrenzfähigkeit.
Wieso?
Interessiert doch die meisten Kunden eh nicht. Es wird NV gekauft so weit das Auge reicht. Konkurrenzfähigkeit hilft AMD in diesem Markt nicht. Was helfen würde wäre DAS beste Produkt über 2-3 Gens hinweg um dem Ruf zu verbessern.
Das irgendwas anderes AMD im GPU Markt hilft ist völlig ausgeschlossen.
Badesalz
2020-09-11, 12:56:05
@MiamiNice
Das irgendwas anderes AMD im GPU hilft ist völlig ausgeschlossen.
Diese steile These ist komplett an der Realität vorbei. Die Idee, daß die Spielkiddis sich haufenweise eine 6600 abseits der realen Leistung kaufen, weil die 6800 die 3090 verhauen sollte, hat nichts mit der realen Welt zu tun.
Die ganzen Nicht-Fanboys sind ab Zen+ alle zu AMD gerannt und machen es weiterhin. Und die große Erkenntnis ist, daß der Threadripper damit nichts zu tun hat.
Klingelts? (ah... was frag ich überhaupt :rolleyes:)
MiamiNice
2020-09-11, 12:58:43
Das ist keine These, das ist knallharter Fakt. NV hat den Markt in der Hand, das kann man drehen und halten wie man will. Keine GeForce = kein Gaming PC.
Das ist die allgemeine Meinung. Wer das bestreitet hat einen kurzen Tellerrand.
masked__rider
2020-09-11, 12:59:24
Wieso?
Interessiert doch die meisten Kunden eh nicht. Es wird NV gekauft so weit das Auge reicht. Konkurrenzfähigkeit hilft AMD in diesem Markt nicht. Was helfen würde wäre DAS beste Produkt über 2-3 Gens hinweg um dem Ruf zu verbessern.
Das irgendwas anderes AMD im GPU Markt hilft ist völlig ausgeschlossen.
Dieser Logik nach wäre Ryzen dann auch nicht gekauft worden... Außerdem ist es so, dass sich der Name "AMD" dann relativ rasch als Mitbewerber potenter CPU´s in die Gehirne der potentiellen Kunden brannte.
Edith: Aah, der kurze Tellerrand also, diese Methapher sei bis dato an mir vorbeigefahren ;)
Badesalz
2020-09-11, 13:06:25
Edith: Aah, der kurze Tellerrand also, diese Methapher sei bis dato an mir vorbeigefahren ;)Und wird auch noch vom Boden des Suppentopfs betrachtet :freak: Aber ok. Er ist halt lustig. Humor unter Nerds ist eine seltene Erscheinung und sollte nicht kritisiert werden :tongue:
Ich war mit dem Edit davor 3min. zu spät dran ;)
dildo4u
2020-09-11, 13:13:13
3060 Ti soll auch im Oktober kommen.
https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-gets-4864-cuda-cores-and-8gb-gddr6-memory
MiamiNice
2020-09-11, 13:13:18
Dieser Logik nach wäre Ryzen dann auch nicht gekauft worden... Außerdem ist es so, dass sich der Name "AMD" dann relativ rasch als Mitbewerber potenter CPU´s in die Gehirne der potentiellen Kunden brannte.
Edith: Aah, der kurze Tellerrand also, diese Methapher sei bis dato an mir vorbeigefahren ;)
Du kannst Intel nicht mit NV vergleichen. Außerdem sind die Preise der NV Karten aktuell mehr als nur low. Und im CPU Bereich hat es AMD rein über die Preise gerissen am Anfang. Da müsste AMD schon kommen und massiv NV Preise unterbieten - dem hat Lederjacke aber schon eine Riegel vorgeschoben mit den abgespeckten Ampere Preisen für die Gammelkarten Speicherkrüppel.
w0mbat
2020-09-11, 13:13:37
Wieso?
Interessiert doch die meisten Kunden eh nicht. Es wird NV gekauft so weit das Auge reicht. Konkurrenzfähigkeit hilft AMD in diesem Markt nicht. Was helfen würde wäre DAS beste Produkt über 2-3 Gens hinweg um dem Ruf zu verbessern.
Das irgendwas anderes AMD im GPU Markt hilft ist völlig ausgeschlossen.
Dies. AMD muss es schaffen, ihre GPU Marke wieder aufzubauen.
Bei den CPUs haben sie es ja geschafft, Ryzen hat viel "mindshare" und wird als premium "habenwill" Produkt gesehen. Im GPU Bereich gibt es für sehr viele einfach nur Nvidia. Big Navi könnte 10% schneller als ne 3080 sein, bei 10% weniger Verbrauch, mit ähnlich gutem RT, 16GB VRAM und für 100€ weniger, die Masse würde trotzdem Nvidia kaufen. Dann wäre wahrscheinlich plötzlich DLSS das einzig wichtige feature.
Aber wenn DLSS von AMD kommen würde, oh jeh, dann wäre ein ein billiger Versuch die schlechte AMD performance mit einer Reduzierung der BQ zu cachieren und alle würden es hassen :tongue:
Wir können nur hoffen, dass Big Navi wirklich konkurrenzfähig wird (so wie Navi10 vs. 2060/2070), damit sich im GPU Markt wieder was bewegt. Mit Turning hat Nvidia beim launch nämlich nicht nur die Preise kräftig angezogen, sondern man hat auch eine niedrigere Stufe an Chips bekommen. Die 2070 war plötzlich nen 106er die, aber für xx80er Preise, die 2080er war nen cut-104er (also nen xx70 Chip) für fast Ti Preise und die echte Ti war zwar der richtig Chip, aber 50% teurer.
Und jetzt korrigiert Nvidia wieder die Chipreihenfolge, aber lässt die Preise hoch, und die Leute feiern es. Nur wenn AMD wieder was bringt, wird sich das ändern. Wenn RDNA1 und Navi10 nicht so gut geworden wäre, hätten wir ziemlich sicher keine SUPER-Varianten bekommen.
Hoffen wir das beste :cool:
Troyan
2020-09-11, 13:38:13
Laut Videocardz könnte eine 3060TI im Oktober zusätzlich kommen: https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-gets-4864-cuda-cores-and-8gb-gddr6-memory
4864 Cores, 8GB und selbe Bandbreite wie 3070. Das sollte dann ~2080S Niveau sein.
prinz_valium_2
2020-09-11, 13:49:24
Autovergleiche sind immer schlecht :wink: aber wenn man da von gleicher oder ähnlicher Leistungsklasse spricht, dann meint man naheliegenden erreichten Testwerte aka Leistungswerte. Und nicht Hubräume, Beinfreiheit auf der Rückbank oder Verbrauch. Leistung, ist Leistung. Des Motors einerseits und des ganzen Autos andererseits.
Aber ok. Sorry =)
Naja bei einem Auto Vergleich macht man es doch anders.
Man guckt sich die selbe Leistungsklasse and und dann welches in der am Besten ist und die meiste Ausstattung hat.
Bei GPUs ist das genau anders herum, weil dort die Leistung immer wächst.
Es wird aber niemals Autos geben, die schneller fahren als jetzt.
Das jetzt aber wirklich sehr off-topic
Laut Videocardz könnte eine 3060TI im Oktober zusätzlich kommen: https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-gets-4864-cuda-cores-and-8gb-gddr6-memory
4864 Cores, 8GB und selbe Bandbreite wie 3070. Das sollte dann ~2080S Niveau sein.
Für 350€ könnte die super interessant werden und die 1060 ablösen meistverkaufte Nvidia GPU
Troyan
2020-09-11, 13:56:21
Eher $399 wie die 2060 Super. Für <$299 wird es dann GA106 geben.
basix
2020-09-11, 14:13:25
Ich vermute auch mindestens 399$ wenn nicht sogar 429$.
GA106 wird irgendwo bei 299-379$ beginnen, wobei ich am ehesten an 349$ glaube - und wieder nur 6GB :D Performance wohl auf ~Ur-2070 Niveau
prinz_valium_2
2020-09-11, 14:18:23
Eben GA 106 wird doch wieder mit weniger RAM kommen.
In der Leistungsklasse ist 8GB schon nicht verkehrt.
Ich mag auch die 3070 einfach gar nicht.
Entweder 3080 oder 3060. Aber wenn die 3060TI 400€ ist, dann eher nicht.
Wobei die Nvidia Preise diesmal ja leider wieder nur für die absoluten MEH Modelle sind.
Also wie früher. Als es noch das billigste der billigen Referenzdesigns gab.
Stretcher
2020-09-11, 14:29:52
Und, wissen wir, was eine 3080 FE son "nuckelt"? Vielleicht sind es da auch 350W+.
Wissen wir nicht, aber das berechtigt dich ja auch als Threadstarter nicht, hier wissentlich Dinge zu verbreiten die du besser wissen müsstest.
4864 Cores, 8GB und selbe Bandbreite wie 3070. Das sollte dann ~2080S Niveau sein.
Mit 8GB können sie sich die Karte sonst wo hin schieben.:wink:
Genauso wie die 3070 und 3080. Wirklich lohnen tut eh nur die 3090.
Dural
2020-09-11, 14:31:04
Wie so sollte ein Multi-Chip-Design mehr Leistung bringen? Genau das Gegenteil ist doch der fall! Multi Chip macht man vor allem um kosten zu sparen, sicher nicht um die Leistung zu maximieren.
Mir ist auch nach wie vor ein Rätsel wie das bei GPUs überhaupt funktionieren soll, die Bandbreite beziehungsweise der Aufwand um die nötige Bandbreite zwischen den Chips sicher zu stellen ist doch viel zu hoch, GPUs sind KEINE CPUs! Mit RT in ferner Zukunft könnte das interessant werden, aktuell halte ich es für ein völliger Blödsinn.
Dieses Multi Chip bla bla hört man jetzt schon seit dem RV670 aus dem Jahr 2007, passiert ist in die Richtung bis jetzt aber genau gar nichts.
Daredevil
2020-09-11, 14:54:05
die hatte doch nur ein 330Watt Powerlimit...
Ja, ich meinte aber die PCGH Karte
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/
Die ist ja übertaktet, wird dann sicherlich auch mehr ziehen und trotz schnellen Speicher ist die "nur" 13% schneller im Schnitt.
Lehdro
2020-09-11, 14:58:44
Meinst Du G80?
NV40 ist schon richtig, genau wie G80. Die GeForce 6 Reihe hat doch die grässliche FX Serie von NV quasi direkt ins Nirvana befördert, wo sie von Anfang an auch hingehört hätte und somit wieder zu ATI aufgeschlossen, rein performancetechnisch.
Armaq
2020-09-11, 15:12:16
Soweit man den Daten von mindfactory folgen kann, gibt es durchaus Absatz für die 5700XT? So ganz kann das nicht stimmen, es scheint auch noch Publikum zu geben, welches in der Preisklasse AMD nimmt. Die Miner haben AMD ja auch geliebt.
Ich stimme gedanklich allerdings lawmachine und miami zu, viele sehen einen Gamer-PC nur mit grünem Logo. Das hab ich mehrmals erlebt.
Fraglich ist, muss AMD mit Zen im Rückenwind vll. nur ein gleich gutes Produkt abliefern? Also sagen wir BigNavi ist auf Höhe der 3080 und nimmt nur 275Watt. Das könnte mMn. reichen, denn Intel ist mit 10xxx ja nicht langsamer, aber "jeder" weiss Zen ist das rundere Produkt.
Also wenn das Paket von AMD am 28.10 insgesamt einen besseren Eindruck macht, reicht dann der Halo-Effekt von Zen aus, um die Stimmung Richtung AMD zu drehen? IMHO würde es das.
AstroHW19
2020-09-11, 15:18:27
Knapp 30% schneller als eine 2080Ti. Mir taugts, bin meine für 750€ losgeworden, sprich gratis Upgrade. ��
Das glaube ich dir sogar. Bei ebay treiben sich manchmal Leute herum, die von der Hardware weniger als gar keine Ahnung haben, das ist ein Fakt. Ich habe dort schon mal beobachtet, wie Leute sich paar Jahre alte Karten gekauft haben, zum selben Preis wie neue auf Geizhals.
2080ti für 750 Euro das grenzt an Wahnsinn in Anbetracht von 699 für super geiles 3080 Wunder. Ich liege unter dem Tisch und kriege mich nicht ein.;D
Will haben aber natürlich 3080, wie verrückt. 2080ti wurde von Nvidia selbst vernichtet.
Screemer
2020-09-11, 15:18:58
Soweit man den Daten von mindfactory folgen kann, gibt es durchaus Absatz für die 5700XT? So ganz kann das nicht stimmen, es scheint auch noch Publikum zu geben, welches in der Preisklasse AMD nimmt. Die Miner haben AMD ja auch geliebt.
Deutschland ist halt AMD land. Europa ist da allgemein wesentlich offener als der Rest der Welt.
hq-hq
2020-09-11, 16:06:59
Ja, ich meinte aber die PCGH Karte
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Benchmark-Vergleich-Rangliste-Test-1354679/2/
Die ist ja übertaktet, wird dann sicherlich auch mehr ziehen und trotz schnellen Speicher ist die "nur" 13% schneller im Schnitt.
die selbe Karte wurde in einem eigenen Test auf die ~2070/2000MHz betrieben bei 300watt+10%, da geht halt was flöten, +23% auf ne FE ist sehr schwierig aber möglich.
Rampage 2
2020-09-11, 16:50:00
NV40 ist schon richtig, genau wie G80. Die GeForce 6 Reihe hat doch die grässliche FX Serie von NV quasi direkt ins Nirvana befördert, wo sie von Anfang an auch hingehört hätte und somit wieder zu ATI aufgeschlossen, rein performancetechnisch.
+1
NV40 war sowohl von der Rohleistung als auch von der praktischen Leistung her in jeder Hinsicht eine brutale Steigerung ggü. NV3x - scheint aber das Problem der Pipelinestalls weiter mitgetragen zu haben, laut den Experten hier im Forum.
Überhaupt frage ich mich, warum immer nur G80 als Beispiel genannt wird - ATI Radeon 9700 Pro (R300), Nvidia NV40 und auch G71 (G70 Refresh) sowie R580 haben die Leistung ggü. der Vorgängergeneration jeweils verdoppelt oder verdreifacht. So war z.B. die 9700 Pro teilweise 3x so schnell wie eine GeForce 4 Ti 4600! :cool:
Das waren noch Zeiten und nur diese Zeiten waren wirklich spannend - heute herrscht seit Jahren Schneckentempo (sowohl bei Nvidia & AMD) vgl. mit damals und man darf für weniger Leistung auch noch mehr bezahlen:redface:
R2
Redneck
2020-09-11, 16:55:41
Soweit man den Daten von mindfactory folgen kann, gibt es durchaus Absatz für die 5700XT? So ganz kann das nicht stimmen, es scheint auch noch Publikum zu geben, welches in der Preisklasse AMD nimmt. Die Miner haben AMD ja auch geliebt.
Ich stimme gedanklich allerdings lawmachine und miami zu, viele sehen einen Gamer-PC nur mit grünem Logo. Das hab ich mehrmals erlebt.
Fraglich ist, muss AMD mit Zen im Rückenwind vll. nur ein gleich gutes Produkt abliefern? Also sagen wir BigNavi ist auf Höhe der 3080 und nimmt nur 275Watt. Das könnte mMn. reichen, denn Intel ist mit 10xxx ja nicht langsamer, aber "jeder" weiss Zen ist das rundere Produkt.
Also wenn das Paket von AMD am 28.10 insgesamt einen besseren Eindruck macht, reicht dann der Halo-Effekt von Zen aus, um die Stimmung Richtung AMD zu drehen? IMHO würde es das.
näh... hier bräuchte es denke ich mehr Konstanz.. eine Schwalbe macht noch keinen Sommer. Die müssen mal 3-4 Generationen abliefern, damit ein bleibender Eindruck hinterlassen wird. So lange wie der Niedergang gedauert hat, so lange wird der Aufstieg dauern. Die Präsenz von NV in den Köpfen ist zu stark. Selbst wenn die jetzt DAS Halo Produkt liefern aber in der Mittelklasse nicht gegen 3060+3070 bestehen, bringt das auch nichts.
Das Halo Produkt ist gut fürs image, die Mittelklasse fürs Portemonnaie
Fragman
2020-09-11, 16:57:11
s und man darf für weniger Leistung auch noch mehr bezahlen:redface:
R2
Die Gründe dafür werden ja auch oft genug wiederholt und eine Lösung für dieses Problem ist nicht in Sicht. Mittlerweile spart man sich ja sogar die jährlichen Refreshes, weil es nichts mehr bringt (das Theater mit den Superkarten zählt für mich nicht).
Lawmachine79
2020-09-11, 16:59:43
NV40 ist schon richtig, genau wie G80. Die GeForce 6 Reihe hat doch die grässliche FX Serie von NV quasi direkt ins Nirvana befördert, wo sie von Anfang an auch hingehört hätte und somit wieder zu ATI aufgeschlossen, rein performancetechnisch.
Ja, NV40 war schon geil, bin damals von 5900XT auf 6800 GT umgestiegen. aber G80 habe ich als den noch größeren Erdrutsch (den bisher größten Erdrutsch) wahrgenommen. Hatte G80 auch eher auf dem Schirm, weil AMD da erstmal keine Antwort gefunden hat, bei NV40 habe ich die X850er als selbe Liga in Erinnerung, je nachdem ob Mathepower oder Texel/Füllrate wichtig war. Bei AMD (ATI) war die 9700 Pro der Erdrutsch.
BlacKi
2020-09-11, 17:00:16
Ähnlich viel RAM,
Beide salvage 102 GPU
Ähnlicher Verbrauch
Wie gesagt es ergibt beides Sinn, je nach aus welcher Sicht man auf die Sache hat.
das aufrüsten auf die 3080 von einer 2080ti kann man machen, aber für die meisten ist das kein grund. gerade leute mit wasserblock würden niemals auf eine 3080 wechseln, wenn dann schon auf die 3090.
deshalb ich sehe leute die eine 2070-2080S haben eher als mögliche käufer der 3080. dort bringt dann ein upgrade dann auch gerne mal 55-100% mehr performance und ist damit ein sinnvolles upgrade, bei der 2080ti ist das nur der fall wenn man die alte teuer abstoßen kann. wenn der preis der 2080ti bei 550-600 erst einmal liegt, dann ist das eher ein ehhhhh schritt.
leute die hier ernsthaft darüber diskutieren wollen wie wenig die 3080 auf die 2080ti drauflegt trollen doch nur.
die 3080 ist kein 2080ti replacement sonder für die 2070/80er reihe, deshalb die preisregion.
Sardaukar.nsn
2020-09-11, 17:16:03
Ich sehe die 3080 eher als Ersatz für meine 1080ti, auch vom Preispunkt her. Die 2080ti war da eher der Ausrutscher nach oben. Ein 34" Ultrawide Monitor 3440x1440p, 144hz ist gerade im Zulauf, dafür wäre die 3080 ein guter Antrieb.
Eben auch noch gesehen, Wasserblöcke für die gängigsten Custom Desings lassen sich schon vorbestellen. Asus ROG Strix, EVGA FTW3 oder MSI Gaming X Trio. https://ezmodding.com/RTX-3000
Digidi
2020-09-11, 17:28:56
Der Text passt ja auch hier rein weil hier am meisten über Speicher diskutiert wird:
Ich hab mich im Netz noch mal etwas schlau gemacht. Die Nanite Engine bei der PS5 Demo packte 30fps bei 1440p und man glaubt fest daran, das man nach einer kurzen Zeit 60fps auf jedenfall packen wird. Erstaunlich ist, das die Nanite Demo nur 768 MB Ram verbraucht hat. 768? Wahrscheinlich braucht man bei MicroPolygonen keine Texturen mehr. Warum auch jedes Polygon ist kleiner als ein Pixel. Da kann man jedem Pixel auch nur einen Farbwert geben oder?
why_me
2020-09-11, 17:31:19
Waren die 768 MB nicht nur die Geometriedaten sry der Streaming pool?
Digidi
2020-09-11, 17:36:01
Nein das war alles.
https://thegeek.games/2020/07/15/unreal-engine-5-nanite-technology-can-do-wonders-on-ps5-video/
MiamiNice
2020-09-11, 18:00:11
Der Text passt ja auch hier rein weil hier am meisten über Speicher diskutiert wird:
Ich hab mich im Netz noch mal etwas schlau gemacht. Die Nanite Engine bei der PS5 Demo packte 30fps bei 1440p und man glaubt fest daran, das man nach einer kurzen Zeit 60fps auf jedenfall packen wird. Erstaunlich ist, das die Nanite Demo nur 768 MB Ram verbraucht hat. 768? Wahrscheinlich braucht man bei MicroPolygonen keine Texturen mehr. Warum auch jedes Polygon ist kleiner als ein Pixel. Da kann man jedem Pixel auch nur einen Farbwert geben oder?
Das ist jetzt genau wie relevant für Ampere und 99% aller Games die zur Lebenszeit von Ampere released werden?!?
Digidi
2020-09-11, 18:02:55
Wenn es um den Speicher geht sehr relevant wenn man bei so einer Bomben Grafik nur noch mit 768 MB auskommt ;) Ihr befeurt doch die Ram diskussion!
Tesseract
2020-09-11, 18:12:33
Überhaupt frage ich mich, warum immer nur G80 als Beispiel genannt wird - ATI Radeon 9700 Pro (R300), Nvidia NV40 und auch G71 (G70 Refresh) sowie R580 haben die Leistung ggü. der Vorgängergeneration jeweils verdoppelt oder verdreifacht. So war z.B. die 9700 Pro teilweise 3x so schnell wie eine GeForce 4 Ti 4600! :cool:
weil G80 einfach alles hatte: referenzbildqualität, features ohne ende (ein großer teil der features im nvidia inspector kommt aus der zeit), brutale performance über alle workloads hinweg und ein für damalige verhältnisse sehr durchdachtes kühlkonzept.
R300 würde ich definitiv knapp auf platz 2 hinter G80 reihen, die hatte neben guter performance mit ihrem optimierten MSAA und performance-AF zwei absolute killer features die sie viel deutlicher von allen anderen karten davor abhob als es performancebalken suggerieren würden. einen derartigen qualität-pro-performance-boost gab es danach bis DLSS 2.0 nichtmehr.
NV40 hingegen hatte absolut beschissene texturfilterung (noch schlimmer als HD 5000 IIRC) und die performance war zwar ganz gut aber nicht außergewöhnlich (wirklich schnell sah die nur im vergleich zur krüppel-FX aus, weniger gegenüber R300).
G7x konnte sich je nah szenario und settings mal viel mal wenig vom NV40 absetzen und ist mir eher langweilig in erinnerung.
MiamiNice
2020-09-11, 18:18:59
Ja, die Ram Diskussion zu Ampere. Die Engine wird auch nichts daran ändern das alles unter ner 3090 zu wenig Speicher hat. Auch wird sie nichts an der Geiz Mentalität der Leute ändern, die ihr Hirn ausschalten und eine 3080 oder 3070 8 Gb kaufen. Das Problem mit dem Ram ist einfach, dass NV hier die Leute verarscht und AMD und Intel in nicht wirklich schöne Positionen zwingt. NV nutzt hier gezielt die Marktmacht aus, die sie nun mal haben. Die Menschen müssten so schlau sein und alles boykottieren wo 3080 und 3070 dran steht. Tun sie aber nicht weil das Hirn bei diesen Preisen ins Portemonnaie gerutscht ist. Und die einzig sinnvoll kaufbare Karte hat NV, mal wieder NV typisch, massiv im Preis angehoben.
Daran ändert eine Engine die irgendwann mal kommt, wenn es das Speicherproblem schon lange nicht mehr gibt, leider nichts.
Birdman
2020-09-11, 18:19:04
Bei AMD (ATI) war die 9700 Pro der Erdrutsch.
Hmm, ja, und danach kamen die X800 Pro die quasi auch jeder in meinem Kollegenkreis hatte. (natürlich umgeflasht auf XT)
mironicus
2020-09-11, 18:37:35
Kurz vor Veröffentlichung der RTX 3000-Karten haben Asus und Zotac in ein paar Ländern bereits die Preise von RTX 2000-Karten offiziell um 50-55% gesenkt. :D :D
https://www.tomshardware.com/news/asus-and-zotac-massively-slash-geforce-rtx-2000series-pricing
Wer jetzt noch gebraucht kauft (ohne Garantie), dem ist nicht mehr zu helfen. :)
|MatMan|
2020-09-11, 19:19:34
Wahrscheinlich braucht man bei MicroPolygonen keine Texturen mehr. Warum auch jedes Polygon ist kleiner als ein Pixel. Da kann man jedem Pixel auch nur einen Farbwert geben oder?
(Man soll ja eigentlich nicht füttern, aber das ist zu gut)
Das klingt nach echtem Fortschritt. Keine Texturen mehr! Endlich! Spart nebenbei auch noch massig Geld bei der Entwicklung, da man ja die Artists dafür dann auch nicht mehr braucht - genial!
Dural
2020-09-11, 20:05:38
Wie so hat ampere so viel leistung? Nvidia: weil wir es können :biggrin:
Ampere skaliert sehr gut nach oben, es wird immer wie interessanter!
pixeljetstream
2020-09-11, 20:08:46
(Man soll ja eigentlich nicht füttern, aber das ist zu gut)
Das klingt nach echtem Fortschritt. Keine Texturen mehr! Endlich! Spart nebenbei auch noch massig Geld bei der Entwicklung, da man ja die Artists dafür dann auch nicht mehr braucht - genial!
Es gibt sehr wohl noch Texturen darauf. Digidi extrapoliert ein bisschen. Einfach logisch denken dass man die Geometrie mehrfach instanziert, aber damit das nicht auffällt das material natürlich schon noch unabhängig hat.
Radeonfreak
2020-09-11, 20:09:37
Wie so hat ampere so viel leistung? Nvidia: weil wir es können :biggrin:
3080 ca 15 % vor meiner TI? Boah.
Dural
2020-09-11, 20:09:50
https://youtu.be/7gSg8fkSVm4
Die karten laufen mit 75grad gpu und sind leiser als die alten turing karten!
Rampage 2
2020-09-11, 20:13:36
Laut Videocardz könnte eine 3060 Ti im Oktober zusätzlich kommen: https://videocardz.com/newz/nvidia-geforce-rtx-3060-ti-gets-4864-cuda-cores-and-8gb-gddr6-memory
4864 Cores, 8GB und selbe Bandbreite wie 3070. Das sollte dann ~2080S Niveau sein.
Und immer noch keine News zur 3070 Ti/Super (GA104-Full mit doppeltem Speicher) ? :frown:
Wo kann man noch einen Beschwerdebrief an Nvidia/Jensen schreiben? :redface:
R2
Linmoum
2020-09-11, 20:15:06
https://youtu.be/7gSg8fkSVm4
Die karten laufen mit 75grad gpu und sind leiser als die alten turing karten!Für lauter und wärmer betreibt Nvidia auch nicht so einen Aufwand.
NV40 hingegen hatte absolut beschissene texturfilterung (noch schlimmer als HD 5000 IIRC) und die performance war zwar ganz gut aber nicht außergewähnlich (wirklich schnell sah die nur im vergleich zur krüppel-FX aus, weniger gegenüber R300).
NV40 und G7x sind definitiv in die Geschichte der Kackfilterung eingegangen. Ich bin nicht sicher, ob das R200-Bi-Flimmer-AF schlimmer ist, IIRC sind die Verbrechen, die Nvidia bei der CineFX-Architektur begangen hat, aber ungeschlagen hässlich. Der HQ-Modus sieht dagegen echt okay aus. Winkelabhängig und im Verhältnis zu Q mit "Optimierungen" schnarchlahm, weil die ganze Renderpipeline stallt, aber okay. G80 lieferte dann die Qualität, welche wir heute noch sehen.
MfG
Raff
aufkrawall
2020-09-11, 20:26:47
G80 lieferte dann die Qualität, welche wir heute noch sehen.
Sogar pixelidentisch. :)
Allerdings können Vega (10 Jahre haben sie vs. Nvidia gebraucht...) und aufwärts besser mit negativem LOD-Bias für Virtual Texturing umgehen und filtern allgemein in der Standardeinstellung besser.
Rampage 2
2020-09-11, 20:43:32
NV40 und G7x sind definitiv in die Geschichte der Kackfilterung eingegangen. Ich bin nicht sicher, ob das R200-Bi-Flimmer-AF schlimmer ist, IIRC sind die Verbrechen, die Nvidia bei der CineFX-Architektur begangen hat, aber ungeschlagen hässlich. Der HQ-Modus sieht dagegen echt okay aus. Winkelabhängig und im Verhältnis zu Q mit "Optimierungen" schnarchlahm, weil die ganze Renderpipeline stallt, aber okay.
Inwiefern verschlimmert AF die Pipelinestalls - also wie muss man sich das vorstellen? G70/71 hatte doch Texturierleistung ohne Ende (für damalige Verhältnisse), was gerade bei AF von Nutzen ist. Außerdem habe ich nicht in Erinnerung, dass G70/71 auch im HQ-Modus erheblich langsamer ist als R580 - zumal R580 kein ganz fairer Vergleich ist, weil da die Shaderleistung gleichmal verdreifacht wurde:wink:
Dem R520 (X1800 XT) war G70 (z.B. "7800 GTX 512" mit höherem Chip- und Speichertakt) leistungsmäßig definitiv überlegen - der R520 war also ein kleiner Fail, weil verspätet und nicht schneller oder teils sogar langsamer als G70. R580 hat dann das Blatt gewendet.
R2
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.