PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3070 Review-Thread


Seiten : [1] 2

Leonidas
2020-10-27, 13:54:56
Launchreviews der GeForce RTX 3070 "Founders Edition": 27. Oktober 2020, 14:00
Launchreviews der GeForce RTX 3070 AIB-Modelle: 29. Oktober 2020, 14:00
gemeinsamer Verkaufsstart: 29. Oktober 2020

GeForce RTX 3070
- GA104-Chip
- 46 SM @ 320 Bit
- 8 GB GDDR6
- 220W TDP (GCP)
- $499 bzw. 499€

Liste der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/launch-der-nvidia-geforce-rtx-3070-die-launchreviews-gehen-online) & Videocardz (https://videocardz.com/newz/nvidia-geforce-rtx-3070-founders-edition-review-roundup).

dargo
2020-10-27, 14:00:58
Ich fange dann mal mit CB an.
https://www.computerbase.de/2020-10/nvidia-geforce-rtx-3070-test/

dildo4u
2020-10-27, 14:02:11
Computerbase:


https://www.computerbase.de/2020-10/nvidia-geforce-rtx-3070-test/

UFAfOqTzc18

r3ptil3
2020-10-27, 14:05:09
3070 vs 2080 Ti:

- 1-2%+ Leistung
- 60% günstiger
- 30% weniger Speicher
- 20% weniger Verbrauch

Akzeptabel!

Linmoum
2020-10-27, 14:05:22
tl;dr

Gebrauchte 2080Ti ist sinnvoller.

dildo4u
2020-10-27, 14:07:44
Die Karte und der Vram passt zu 1440p Horizon ist schon bei 66 fps bei den Min FPS, mit Null Raytracing.
Ich vermute das man für Raytracing oft DLSS Performance nutzen muss also 1080p als Basis.


https://www.computerbase.de/2020-10/nvidia-geforce-rtx-3070-test/2/#diagramm-horizon-zero-dawn-2560-1440

Adam D.
2020-10-27, 14:07:55
Das wäre meine perfekte Karte gewesen. Performance, Verbrauch, Design - top für mich. Aber ich gebe keine 500€ für einen Speicherkrüppel aus. Meine Fresse, ich hab vor 4 Jahren meine erste 8GB-Karte gekauft - das ist doch lächerlich.

Lowkey
2020-10-27, 14:10:14
Es hies mal, dass eine 290x mit 8gb einen anderen Verbrauch haben soll wie eine aktuelle 3070 8gb wegen neuerer Komprimierungsverfahren. Stimmt das noch?

dargo
2020-10-27, 14:14:57
Ist das Absicht, dass kein Marvel's Avengers mit ultra Texturen getestet wurde? ;)

Die Karte und der Vram passt zu 1440p Horizon ist schon bei 66 fps bei den Min FPS, mit Null Raytracing.

Ist natürlich Quatsch... die 8GB reichen niemals in HZD aus. Du lernst einfach nichts dazu.

dildo4u
2020-10-27, 14:22:25
Bei HWUnboxed legt die 3070 in 4k gegenüber der 5700XT zu sieht eher aus aus als wenn NV wieder mal das besser Speichermanagement hat.

https://youtu.be/UFAfOqTzc18?t=910

dargo
2020-10-27, 14:23:47
Du laberst wie immer bullshit.

Ex3cut3r
2020-10-27, 14:23:59
Wasn Schrott. 8GB. Einfach nur :ulol:
2016 hat man das mit der 1070 übrigens für den gleichen Preis schon bekommen.

Neosix
2020-10-27, 14:26:37
Wasn Schrott. 8GB. Einfach nur :ulol:

Leute die 8GB waren doch schon vorher bekannt, müsst jetzt nicht wieder neu ablassen. Tut nicht so überrascht.

Sehe mir grad den YT Stream von Igors Labs an. Bei ihm ist der Speicher nur 2x ausgegangen und zwar in Metro und Tomb Raider unter 4k. Da half selbst DLSS nichts. Auflösungen drunter war kein Problem. Ich zock in 1080p und die karte wird, wenn ich es schaffe übermorgen eine für 499 zu kriegen perfekt.

ChaosTM
2020-10-27, 14:26:39
Ea_p-ZYLiwI

Lowkey
2020-10-27, 14:27:14
Alle hier im Thread haben eine 8gb Grafikkarte im Rechner :D

ChaosTM
2020-10-27, 14:28:04
11..
Unter 16 rüst ich ned auf...

Ex3cut3r
2020-10-27, 14:28:22
Alle hier im Thread haben eine 8gb Grafikkarte im Rechner :D

Ja die wir alle 2016 oder 2018 gekauft haben. Neue Konsolen und Co kommen. Was will man wieder mit 8GB bei einem Neukauf? Können Sie sich dahin stecken wo die Sonne nicht scheint. AMD bietet 16GB....

Silentbob
2020-10-27, 14:28:49
Ich bin auch nochh in 1080p unterwegs. Da dieses Jahr noch andere Ausgaben anstehen wird es auch erstmal so bleiben. Daher passt die 3070 eigentlich für mich.

ianm
2020-10-27, 14:31:48
Enttäuschend, der Speicher limitiert jetzt schon, siehe auch Doom Eternal 1440p, Ultra N. @HU

dildo4u
2020-10-27, 14:32:35
Leute die 8GB waren doch schon vorher bekannt, müsst jetzt nicht wieder neu ablassen. Tut nicht so überrascht.

Sehe mir grad den YT Stream von Igors Labs an. Bei ihm ist der Speicher nur 2x ausgegangen und zwar in Metro und Tomb Raider unter 4k. Da half selbst DLSS nichts. Auflösungen drunter war kein Problem. Ich zock in 1080p und die karte wird, wenn ich es schaffe übermorgen eine für 499 zu kriegen perfekt.
Selbst die 3090 muss schon bei Cross-Gen Games wie Watch Dogs DLSS von 1080p aus nutzen, die GPUs werden massiv überschätzt.

Neosix
2020-10-27, 14:32:48
Ja die wir alle 2016 oder 2018 gekauft haben. Neue Konsolen und Co kommen. Was will man wieder mit 8GB bei einem Neukauf? Können Sie sich dahin stecken wo die Sonne nicht scheint. AMD bietet 16GB....

Also ich habe eine 1060 6GB im Rechner (2016 gekauft), laut Steam immer noch die GPU Wahl Nummer 1 dort. Da ist eine 3070 eine Riesenverbesserung, da ich weiterhin bei 1080p bleibe...

Linmoum
2020-10-27, 14:32:58
Speicherkrüppel mit Ansage halt. Aber die Quittung dafür bekommt NV immerhin zeitnah. Hätte eigentlich eine gute Karte werden können.

MikePayne
2020-10-27, 14:33:59
Ja die wir alle 2016 oder 2018 gekauft haben. Neue Konsolen und Co kommen. Was will man wieder mit 8GB bei einem Neukauf? Können Sie sich dahin stecken wo die Sonne nicht scheint. AMD bietet 16GB....

Hab 8 GB seit 2016 mit einer RX 480 (aktuell 5700). Die Karte ist an sich nicht schlecht (Stand heute, vor allem für FHD), aber 8 GB haben wir schon ewig und leider wird es diese Karte für 499$ nur in homöopathischen Dosen geben, dann geht der Preis hoch (siehe 3080), weil kaum verfügbar.

Hakim
2020-10-27, 14:34:50
Wenn man sich verbrauch zu Leistung im vergleich zu 7nm 5700xt schaut, scheint hier der 8nm Samsung prozess sehr gut zu sein.

dildo4u
2020-10-27, 14:37:25
Wenn man sich verbrauch zu Leistung im vergleich zu 7nm 5700xt schaut, scheint hier der 8nm Samsung prozess sehr gut zu sein.
Das Speicherinterface sollte deutlich genügsamer sein als bei der 3080.

Troyan
2020-10-27, 14:37:40
Der 8mn ist auch gut. Man hat eben nicht verstanden, dass GDDR6X deutlich ineffizienter ist bei der Bandbreite, die die 3080+ hat. Zeigt auch schon die Quadro A6000, die bei 300W liegt.

Aber laut den bekannten Leuten hier im Forum, wird AMD auch 60%, 70% effizienter als Navi1 sein.

MartinRiggs
2020-10-27, 14:38:02
Tja genau da was ich erwartet habe, also locker zurücklehnen und abwarten wie es weitergeht :biggrin:

Linmoum
2020-10-27, 14:40:43
Wenn man sich verbrauch zu Leistung im vergleich zu 7nm 5700xt schaut, scheint hier der 8nm Samsung prozess sehr gut zu sein.RDNA2 wird zeigen, dass das Problem nicht am Prozess lag, sondern (noch) architekturbedingt gewesen ist.

Der Sprung bei der 3070 ist natürlich größer als bei der 3080, aber für 16nm (jaja, Marketing-12nm) auf 8nm trotzdem noch immer irgendwie... naja.

Lowkey
2020-10-27, 14:40:59
Nicht zurücklehnen ... wir brauchen einen Hacker für das vBios. Ist doch alles nur durch das PL limitiert.

schreiber
2020-10-27, 14:41:39
Tja genau da was ich erwartet habe, also locker zurücklehnen und abwarten wie es weitergeht :biggrin:
Ja, mal schauen, ob AMD 16GB Vram verschenkt für 500 €. Ich glaubs nicht.

ianm
2020-10-27, 14:45:54
Laut Hardware Unboxed gab es zur 2080ti auch keinen Unterschied in DLSS und Raytracing. Schon peinlich für eine neue Generation und Nvidias "Killerfeatures"...

Adam D.
2020-10-27, 14:46:32
Ja, mal schauen, ob AMD 16GB Vram verschenkt für 500 €. Ich glaubs nicht.
Natürlich nicht, bei der Steilvorlage von NV kann AMD auch ordentlich kassieren für die 6800. Wer mehr Leistung und doppelt so viel Speicher an die Leute bringt, kann nur gewinnen.

Ich bin einfach persönlich etwas angepisst von Nvidias Strategie. Ist ja nicht gerade so, als wäre ich mit meiner Vega 64 zufrieden. Ich hätte gerne auch die Option auf RTX gehabt. Aber für UWQHD kann mir keiner erzählen, dass eine 8GB-Karte für 2-3 Jahre eine sichere Investition ist. Selbst Schuld, NV.

y33H@
2020-10-27, 14:47:17
Weil die RTX 3070 ja auch der Nachfolger der RTX 2080 Ti ist ...

dildo4u
2020-10-27, 14:47:55
Hier gibt es Benches gegen 1070 wenn jemand wie ich noch so eine Karte hat.


o_N7S9iEP7U

dargo
2020-10-27, 14:48:15
Wenn man sich verbrauch zu Leistung im vergleich zu 7nm 5700xt schaut, scheint hier der 8nm Samsung prozess sehr gut zu sein.
Nicht mehr lange. :D

Nicht zurücklehnen ... wir brauchen einen Hacker für das vBios. Ist doch alles nur durch das PL limitiert.
Willst du dein Brett schrotten? :tongue:

MikePayne
2020-10-27, 14:51:13
Weil die RTX 3070 ja auch der Nachfolger der RTX 2080 Ti ist ...

Das weiss glaube ich hier jeder, aber:
Die beiden Karten wurden von Jensen höchstpersönlich direkt verglichen.

Lowkey
2020-10-27, 14:54:23
Stimmt, die 3070 wurde immer als "2080Ti-Leistung für 500 Dollar" angepriesen.

aufkrawall
2020-10-27, 14:55:24
Es soll ja auch mal Zeiten gegeben haben, wo der Nachfolge-Performance-Chip mehr, und nicht deutlich weniger VRAM als der Highend-Vorgänger hatte...

Troyan
2020-10-27, 15:01:01
https://www.comptoir-hardware.com/images/stories/articles/gpu/ampere/rtx3070/founders_edition/gpuz_3070_oc.png
https://www.comptoir-hardware.com/articles/cartes-graphiques/42718-test-nvidia-geforce-rtx-3070.html?start=5

110W weniger als die 3090, aber selber "GPU Draw". Man beachte, wie wenig Strom der Speicher zieht und das die zweite Stromangabe kaum relevant ist.

Schade, dass nVidia keinen GA102 mit GDDR6 bringt.

dargo
2020-10-27, 15:01:32
Mit 16GB wäre die Karte ein absolut rundes Produkt. Blöd nur wenn man sich selbst mit einem verkrüppelten GA102 im Weg steht.

Redneck
2020-10-27, 15:06:21
IMHO beste Ampere Karte bisher..
für FHD und WQHD ausreichend gerüstet.
Hätten sie ihr mal bloss etwas mehr Speicher spendiert und dafür dann $50 mehr genommen.. aber so... va banque für die Zukunft

Lurtz
2020-10-27, 15:13:59
Speicherkrüppel mit Ansage halt. Aber die Quittung dafür bekommt NV immerhin zeitnah. Hätte eigentlich eine gute Karte werden können.
Bekommen sie? Die Fachpresse hat nVidia doch schon wieder überzeugt.

Bei Computerbase kriegt die Speichersituation einen Absatz im Fazit spendiert.

Gamestar:
An der Menge des Videospeichers dürften sich wiederum die Geister scheiden. Unsere Messungen und Spielerfahrungen legen nicht nahe, dass die RTX 3070 zu wenig VRAM für ihre typischen Einsatzzwecke hat, auch mit Blick auf die Zukunft.

Golem:
Schade ist in diesem Kontext nur, dass Nvidia in der x070-Leistungsklasse seit vier Jahren die Menge an Videospeicher nicht erhöht hat. Auch die Geforce RTX 3070 tritt mit 8 GByte an, weshalb diese Stagnation unschön ist.
Heutzutage genügt der Videospeicher in 1440p in den meisten Spielen und mit Blick auf die schnellen 10 GByte der Xbox Series X respektive die schnellen 8 GByte der Xbox Series S dürfte diese Menge auch künftig ausreichen. Im Zweifel ist die Performance ohnehin zu gering und es müssen Details wie Schatten reduziert werden.

Allein die Wortwahl, es ist "schade" dass uns der große Overlord nVidia nur 8 GB gewährt. Und dann wird eine 500€-GPU (realer Marktpreis vermutlich 600€ aufwärts) ernsthaft mit einer 299€ Series S verglichen ;D Kannst du dir nicht ausdenken.

Naja, zur ungenügenden Raytracing-Leistung von AMD wird man schon deutliche Worte finden... Der nVidia-Bias der Fachpresse ist einfach nur noch lächerlich.

HOT
2020-10-27, 15:15:46
Jetzt noch 16GB und das ist das beste Produkt im Portfolio.

r3ptil3
2020-10-27, 15:24:27
Die dämliche Regelung mit den Customs regt schon auf.
Dachte da kämen wenigstens nach der Verschiebung auch zeitgleich Reviews der Customs.

Habe jetzt mal die Preise kurz gecheckt, die TUF fängt schon mal bei knapp unter 700 Euro an - geht's noch?
Ich dachte zuerst ernsthaft noch, dass aufgrund der Positionierung die Preisgestaltung der Customs nicht massiv über 500 Euro wäre.

dargo
2020-10-27, 15:26:01
Schnell kaufen bevor die weg ist. :D
https://www.future-x.de/pny-xlr8-geforce-rtx-3070-gaming-epic-x-rgb-gaming-edition-grafikkarten-gf-8-gb-gddr6-pcie-40-x16-hdmi-3-x-displayport-p-8693650/?pv=2&utm_source=geizhals&utm_medium=cpc&utm_campaign=psm
https://www.future-x.de/asus-geforce-rog-strix-rtx-3070-gaming-8gb-p-8672416/?pv=2&utm_source=geizhals&utm_medium=cpc&utm_campaign=psm

Hakim
2020-10-27, 15:26:35
die ersten Karten für 740€ lieferbar :). Da Schielen die Händler Geier wohl auf die ganz ganz dummen.

dildo4u
2020-10-27, 15:27:35
Die dämliche Regelung mit den Customs regt schon auf.
Dachte da kämen wenigstens nach der Verschiebung auch zeitgleich Reviews der Customs.

Habe jetzt mal die Preise kurz gecheckt, die TUF fängt schon mal bei knapp unter 700 Euro an - geht's noch?
Ich dachte zuerst ernsthaft noch, dass aufgrund der Positionierung die Preisgestaltung der Customs nicht massiv über 500 Euro wäre.
Linus bemängelt das in der Mitte vom Video.

3XaOeLPztN4

cat
2020-10-27, 15:33:36
Alles Richtig, nur hat eine GTX 1070 mit 8GB keine 500€ gekostet, ich werde auf die günstigste 8GB mit 256Bit SI warten.. den 2060 SUPER Nachfolger ... falls das die 3060Ti wird dürfte das Verhältnis von 8GB zum Preis attraktiver sein, hoffe auf max. 399Euro ... lieber weniger.

seba86
2020-10-27, 15:37:00
Ist mir auch zuwenig Speicher...
auch wenn ich diese Monate die Karte zu 80% nur für Internet surfen verwende und die restlichen 20% für 1-2GB VRAM Spiele (Skyrim, Grim Dawn).

Aber genauso wie TFLOPS != TFLOPS, sind 8GB Speicher nicht gleich 8GB Speicher...Schätze mal dass durch die verbesserte Kompression es durchaus als 11-12GB Radeon 390 -Speicher durchgehen...

Ex3cut3r
2020-10-27, 15:37:20
Zitat:
Schade ist in diesem Kontext nur, dass Nvidia in der x070-Leistungsklasse seit vier Jahren die Menge an Videospeicher nicht erhöht hat. Auch die Geforce RTX 3070 tritt mit 8 GByte an, weshalb diese Stagnation unschön ist.
Heutzutage genügt der Videospeicher in 1440p in den meisten Spielen und mit Blick auf die schnellen 10 GByte der Xbox Series X respektive die schnellen 8 GByte der Xbox Series S dürfte diese Menge auch künftig ausreichen. Im Zweifel ist die Performance ohnehin zu gering und es müssen Details wie Schatten reduziert werden.

Golems Fazit ist doch lächerlich. Welcher PCler gibt 500€ + aus, um dann alles auf Medium (Konsolen Settings) zu zocken? Der Speicher reicht stand jetzt, ja.. Das kann im nächsten Frühling mit den ersten PS5 Ports schon wieder ganz anders aussehen. ;D

Btw. https://geizhals.de/pny-geforce-rtx-3070-xlr8-gaming-epic-x-rgb-triple-fan-edition-vcg30708tfxppb-a2366593.html?hloc=at&hloc=de

750€ für den Krüppel. Alles Klar liebe AIBs. Noch gieriger gehts nicht oder?

Dural
2020-10-27, 15:41:48
Die Aussage ist völlig korrekt :rolleyes:

Und das Konsolen Hardware billiger ist als PC, ist seit jeher so. Liegt aber auch nur daran das die Konsolen Hardware durch Spiele subventioniert wird, jeglicher Preis Vergleich führt ins lächerliche. :rolleyes:

Ravenhearth
2020-10-27, 15:53:33
Ich bin aber überrascht, wie gut die 3070 trotz der geringen Speicherbandbreite mithält. Ampere soll in der Hinsicht ja keine Effizienzverbesserungen bekommen haben, und trotzdem schafft man mit 2070/2080-Bandbreite die Leistung der 2080 Ti.

Der Speicher ist trotzdem zu klein. Das riecht nach GTX 770.

Marodeur
2020-10-27, 15:53:44
Wasn Schrott. 8GB. Einfach nur :ulol:
2016 hat man das mit der 1070 übrigens für den gleichen Preis schon bekommen.

Stimmt nicht ganz. War günstiger. Für meine Manli 1070 Ultimate hab ich damals 415 € gelöhnt. ;)

Ja, ist irgendwie einer der Punkte der mich zurück hält. Auch erst einmal AMD abwarten.

Benutzername
2020-10-27, 16:07:48
Es soll ja auch mal Zeiten gegeben haben, wo der Nachfolge-Performance-Chip mehr, und nicht deutlich weniger VRAM als der Highend-Vorgänger hatte...

Bei nVidia?

Ex3cut3r
2020-10-27, 16:10:17
Schätze mal dass durch die verbesserte Kompression es durchaus als 11-12GB Radeon 390 -Speicher durchgehen...

Wieso wird eigentlich dieser Quatsch ständig wiederholt? Die Kompression hat nix mit der VRAM Kapazität zu tun. Dadurch kann man nix sparen oder herzaubern. Die Kompression ist einzig und alle dafür da, die effektive Bandbreite zu steigern. Deswegen kann die 3070 trotz 2070 Bandbreite mit der 2080Ti mithalten.

aufkrawall
2020-10-27, 16:10:59
Bei nVidia?
Ja, natürlich. 580/570 -> 670/660; 780/Ti -> 980/970*; 980 Ti -> 1070...

r3ptil3
2020-10-27, 16:16:03
Ich würde gerne die 3070 bei vollem VRAM mit PCIe 4.0 und 3.0 sehen.

HOT
2020-10-27, 16:44:06
Wie sie sich alles vor dem Fazit herumdrücken, das ist schon fast albern. Aber alle wollen auch in Zukunft von NV Hardware haben, also wird das schöngeschrieben als gäbs kein Morgen mehr und gleichzeitig versucht jeder das Haar in der Suppe zu platzieren :freak:. "Hach, das ist doch ein sehr tolle Produkt, aber mit Wehrmutstropfen blabla".

Ich würd mich über ein ehrliches Fazit freuen:
Toller Chip, gute Karte, leider unbrauchbar dank zu knappem VRAMs. Alle Nachteile sind relativierbar, zu hoher Stromverbrauch, etwas geringere Effizienz, aber ausgerechnet VRAM leider nicht. Wenn der zu knapp wird, landet das Teil in der Entsorgung... bei 8GB droht das noch nicht, das wird as neue Minimum sein, aber wer kauft ne 500€-Karte um die Settings direkt bei alten Spielen schon zu kastrieren. Wie soll das bei künftigen Games werden...

y33H@
2020-10-27, 16:45:09
Und genau das ist halt übertrieben, denn von "unbrauchbar" ist die Karte weit entfernt - es gibt nicht nur schwarz und weiß ... aber was weiß ich schon.

Matrix316
2020-10-27, 16:52:04
Wenn man JETZT anfängt sich über die 8 GB zu beschweren, obwohl eigentlich schon immer klar, war, dass die 3070 8 GB haben wird... ist man etwas spät dran.

Neosix
2020-10-27, 16:54:25
Wenn man JETZT anfängt sich über die 8 GB zu beschweren, obwohl eigentlich schon immer klar, war, dass die 3070 8 GB haben wird... ist man etwas spät dran.

Das ist etwas, was ich nicht verstehe, es ist seit 8 Wochen klar gewesen, dass die 70 mit 8GB kommt. Und man hat bestimmt auf über 100 Seiten im Ampere Thread sich drüber ausgelassen. Und dann fängt man WIEDER damit an T_T

@HOT
Und ob die 8GB reichen oder nicht darf man nicht so einfach ohne die Auflösung zu beachten schreiben. <= WQHD ist das für ne weile noch nicht der Fall. Also Schrott ist die Karte definitiv nicht.

Der_Korken
2020-10-27, 16:54:46
Schon interessant, dass die 3070 anscheinend ne gute Ecke effizienter agiert als die 3080/3090. Normalerweise ist das eher andersrum, weil der große Chip sehr breit ist und niedrig taktet und dadurch insgesamt effizienter ist. Tatsächlich taktet auch die 3070 höher als die großen Karten.

Zuerst dachte ich, dass GA102 nicht so gut mit der Rechenleistung skaliert. Die 3080 hat z.B. 50% mehr SMs als die 3070 und 70% mehr Bandbreite. Davon kommen aber nur ca. 30% Mehrperformance an. Rechnet man aber noch ein, dass die 3070 knapp 10% höher taktet bei CB, bleiben nur noch knapp 40% mehr Rechenleistung übrig. Jetzt kann man natürlich sagen, dass die Bandbreite eh verpufft und die Rechenleistung der GA102-Ableger schon so ungefähr zur tatsächlichen Leistung passt (in 4K, wo die geringe Steigerung der GPCs nicht so ins Gewicht fällt).

Aber wenn wir gerade mal über +30% Performance reden, wozu hat die 3080 dann GDDR6X verbaut? Mit 320bit und 16Gbps GDDR6 hätte man auch +43% Bandbreite haben können. Mit 384bit und 16Gbps sogar 71%, also mehr als genug selbst für die 3090, die auch keine 50% auf die 3070 schafft. Wenn da der hohe Verbrauch von GA102 herkommt, warum setzt überhaupt auf so eine ausgefallene Technik? Von der Bandbreite her hätte im Vergleich zur 3070 auf GDDR6 gereicht und man hätte stattdessen die GPU höher takten oder die TDPs von 320/350W auf z.B. 290/320W oder so absenken können.

Die 8GB sind natürlich echt ein Abturner. Das Ding rechnet 3x so schnell wie meine alte RX470, hat aber nur genauso viel Speicher. Mit den krummen 1,5GB-Chips wäre das genial gewesen. Das ergäbe 12GB für die 3070, hätte perfekt gepasst.

seba86
2020-10-27, 16:57:01
Wieso wird eigentlich dieser Quatsch ständig wiederholt? Die Kompression hat nix mit der VRAM Kapazität zu tun. Dadurch kann man nix sparen oder herzaubern. Die Kompression ist einzig und alle dafür da, die effektive Bandbreite zu steigern. Deswegen kann die 3070 trotz 2070 Bandbreite mit der 2080Ti mithalten.

Weil es vom logischen Standpunkt Sinn macht...
Also nur Bandbreite, aber der benötigte Platz ist gleich?

Aber es ist doch wirklich so, dass Nvidia besser puffern in Grenzfällen kann als AMD bei gleicher VRAM-Austattung, sieht man doch in diversen VRAM-Limit Tests, wo die AMD wegbricht und Nvidia noch oben bleibt. Aber vielleicht nur eine Treiber-Geschichte.

dildo4u
2020-10-27, 16:59:30
Ich vermute mal das die Vram Chips mit höherer Kapazität seltener sind.
Auf dem Papier kann man vieles anbieten, die 3070 scheint mir aber mit Abstand die beste Chance aller neuen Karten zu haben wirklich verfügbar zu sein.

fondness
2020-10-27, 17:02:59
Der 8mn ist auch gut. Man hat eben nicht verstanden, dass GDDR6X deutlich ineffizienter ist bei der Bandbreite, die die 3080+ hat. Zeigt auch schon die Quadro A6000, die bei 300W liegt.

Aber laut den bekannten Leuten hier im Forum, wird AMD auch 60%, 70% effizienter als Navi1 sein.

Das hat wohl relativ wenig mit dem Speicher zu tun, wenn man bei der 3080 die TDP auf 270W senken kann und die Leistung nur um 4% sinkt. NV ist bei der 3080 einfach aufs absolute Limit gegangen, während die 3070 anscheinend im sweet spot läuft. Es gab ja sogar Daten die zeigten, dass GDDR6x geringfügig effizienter ist pro GB als GDDR6.

NeoTiger
2020-10-27, 17:03:59
Übrigens: Die Auflösung unter der ihr spielt hat nur geringe Auswirkung auf den VRAM Speicherbedarf. Denn die Größe der Textur- und Geometriedaten des Spieles sind sowohl bei 1080p als auch bei 2160p identisch und allein vom Hersteller des Spiels festgelegt.

Das einzige was unter 4K mehr VRAM frisst sind die Rendertargets, die gegenüber 1080p viermal so viel Speicher brauchen. Das ist im einfachsten Fall aber nur zwei Framebuffer und ein Z-Buffer mit jeweils 4 Byte pro Pixel, insgesamt rund 100 MB statt 25 MB für 1080p. Lasst es meinetwegen 200 MB statt 50 MB sein, wenn ein Spiel Deferred Rendering einsetzt. Auf jeden Fall weit davon entfernt 8 GB vollzustopfen.

Troyan
2020-10-27, 17:05:33
Das hat wohl relativ wenig mit dem Speicher zu tun, wenn man bei der 3080 die TDP auf 270W senken kann und die Leistung nur um 4% sinkt. NV ist hier einfach aufs absolute Limit gegangen.

Die 3070 taktet höher als die 3080. Also nein.

Ex3cut3r
2020-10-27, 17:20:25
Also ich sehe das genauso wie HOT.

basix
2020-10-27, 17:26:03
Ich bin positiv überrascht von der 3070. Hätte nicht gedacht, dass man gleich auf mit der 2080 Ti sein wird, eher 5-10% langsamer. Zudem leise und relativ energieeffizient.

HOT
2020-10-27, 17:32:12
Hab ja den Verdacht, dass 7-8 SMs pro GPC erheblich effizienter sind als 12 SMs pro GPC. NVs GCN? Um das zu verifizieren, wäre ein 7x8 GA102 interessant :D. Den wirds aber wohl kaum geben.

Radeonfreak
2020-10-27, 17:37:58
Ich bin positiv überrascht von der 3070. Hätte nicht gedacht, dass man gleich auf mit der 2080 Ti sein wird,

Bei einem 2080 TI OC Modell, sicher nicht.

Hakim
2020-10-27, 18:03:29
die FE ist auch vom PT etwas limitiert mit 1 x 8 Pin, denke die Customs könnte man evt noch gutes Stück übertakten.

Troyan
2020-10-27, 18:10:12
Hatten wir schon das PCB:
https://www.hardwareluxx.de/images/cdn01/FF02762F8E2A4A0CB3D4EF4513182ED1/img/67E2E2148012473C99A76FE5470B1740/NVIDIA-GeForce-RTX-3070-FE-00017_67E2E2148012473C99A76FE5470B1740.jpg
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54456-high-end-fuer-499-euro-nvidia-geforce-rtx-3070-founders-edition-im-test.html

Sieht kurz aus...

Grendizer
2020-10-27, 18:10:43
Eigentlich eine nette Karte, mit 12 Gb wäre sie für den Preis gar nicht verkehrt. Ich denke beim Gaming wird sie AMD aber nicht wirklich gefährlich werden.

Ich finde Igors Benches zu Lightroom, Blender und DaVinci interessant. CUDA ist OpenCL in den für mich interessanten Anwendung leider deutlich voraus.

Schnitzl
2020-10-27, 18:16:35
Computerbase Fazit:
"Für durchweg flüssiges Spielen in 2.560 × 1.440 reicht die Leistung nicht."
Schade, gefällt ganz gut die Karte, schön kurz und leise, wäre perfekt gewesen.

Der_Korken
2020-10-27, 18:18:37
Weil es vom logischen Standpunkt Sinn macht...
Also nur Bandbreite, aber der benötigte Platz ist gleich?

Jein. Du musst bedenken, dass es sich um verlustfreie Komprimierung handelt und es für diese keinerlei Garantien gibt wieviel kleiner die Daten am Ende sein werden. Folgendes Beispiel: Du hast eine 1MB große Textur, wendest den Kompressionsalgorithmus an und bekommst eine 700kB große Textur. Du musst also nur 700kB übertragen und theoretisch auch nur 700kB im VRAM allokieren. Angenommen du lädst die Textur nun aus dem Speicher (in der GPU ist sie dann wieder 1MB groß) und veränderst sie ein bisschen. Durch die Änderungen ist die Textur nicht mehr so gut komprimierbar und braucht jetzt 720kB. Du kannst diese Änderung jetzt nicht mehr an die selbe Stelle zurückschreiben, weil da nur 700kB Platz war. Ich weiß nicht, ob GPUs deswegen immer den Platz der unkomprimierten Textur reservieren, um nicht in dieses Problem zu laufen, aber zumindest IST das beschriebene ein Problem, welches man mit unkomprimierten Daten natürlich nicht hat.

dargo
2020-10-27, 18:20:06
Die 8GB sind natürlich echt ein Abturner. Das Ding rechnet 3x so schnell wie meine alte RX470, hat aber nur genauso viel Speicher. Mit den krummen 1,5GB-Chips wäre das genial gewesen. Das ergäbe 12GB für die 3070, hätte perfekt gepasst.
Ich finde die Argumente immer geil mit Sachen die es nicht gibt. Oder wer produziert 1,5GB GDDR6 Chips?

Rincewind
2020-10-27, 18:22:15
keiner, aber wäre eine Marktlücke.

sys64738
2020-10-27, 18:26:37
Wieso wird eigentlich dieser Quatsch ständig wiederholt? Die Kompression hat nix mit der VRAM Kapazität zu tun. Dadurch kann man nix sparen oder herzaubern. Die Kompression ist einzig und alle dafür da, die effektive Bandbreite zu steigern. Deswegen kann die 3070 trotz 2070 Bandbreite mit der 2080Ti mithalten.
Komprimierte Daten brauchen also genauso viel Speicher wie nicht komprimierte Daten? Brauchen aber auf magische Weise weniger Speicherbandbreite? Das erkläre doch mal bitte genauer.

r3ptil3
2020-10-27, 18:37:27
Hatten wir schon das PCB:
https://www.hardwareluxx.de/images/cdn01/FF02762F8E2A4A0CB3D4EF4513182ED1/img/67E2E2148012473C99A76FE5470B1740/NVIDIA-GeForce-RTX-3070-FE-00017_67E2E2148012473C99A76FE5470B1740.jpg
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54456-high-end-fuer-499-euro-nvidia-geforce-rtx-3070-founders-edition-im-test.html

Sieht kurz aus...

Das nenne ich mal einen Anpressdruck.

Bei dem Verbrauch kann ich mir gut vorstellen, dass es da gute ITX-kompatible Karten geben wird, dazu noch mit der Leistung. Was will man mehr? Achja, VRAM. :D

Birdman
2020-10-27, 18:41:11
8GB RAM sind sehr wenig, vor allem für 500€ und ende 2020
Das bessere Memory Management und die optimaleren Kompressions-Algorithmen machen den Unterschied zu 16GB Karten der Konkurenz nicht wett.

Dr.Doom
2020-10-27, 18:45:10
8GB RAM sind sehr wenig, vor allem für 500€ und ende 2020Na, Asus, MSI usw, werden da schon noch 600-700€ draus machen. Keine Sorge.

r3ptil3
2020-10-27, 18:53:26
Na, Asus, MSI usw, werden da schon noch 600-700€ draus machen. Keine Sorge.

Das finde ich das einzig gestörte daran.

8Gb hin oder her - man kann eigentlich alles gut zocken, genau so wie man es bis jetzt mit einer 2070/2080 Super auch konnte, nur jetzt mit deutlich mehr Leistung.
Vergleichbar mit der Situation R9 Fury X vs 980 Ti - auch damals waren die 4Gb für 1-2 Jahre ok.

Wenn ich jetzt eine 3070 TUF für knapp unter 700 Euro sehe - einfach kategorisch nein.

Customs dürfen von mir aus 30-40 Euro mehr kosten in der Klasse, aber nicht mehr.

dargo
2020-10-27, 18:54:16
Die miese Verfügbarkeit wird schon alleine den Preis nach oben regeln. Proshop hat gerade mal 17% der bestellten Ware als gesichert.

Platos
2020-10-27, 18:54:17
Naja, eben wie erwartet. Die Karte wäre gut, aber ist halt ein Speicherkrüppel. Jetzt schon gibt es Spiele, bei denen die Karte in 4k in die Knie geht. Und mal den Artikel von PCGH lesen bezüglich wenig Speicher und schlechtere Texturen laden.

Die Karte ist einfach ein Witz. Genauso eben wie die 3080. Ob die doppelten Speicherversionen nun gestrichen wurden oder nicht... nvidia bringt es wieder mal auf die Spitze.

Nein, eigentlich treiben es die "Journalisten" auf die Spitze, die das nicht bemängeln. Raff ist wieder mal gefühlt der einzige, der das bemängelt (Hab noch nicht alle Tests gelesen).

Einfach nur traurig. nvidida bringt Krüppel und viele Testseiten befürworten das auch noch oder schweigen darüber, als wäre nichts...Feiglinge!

Grendizer
2020-10-27, 18:58:13
Naja, eben wie erwartet. Die Karte wäre gut, aber ist halt ein Speicherkrüppel. Jetzt schon gibt es Spiele, bei denen die Karte in 4k in die Knie geht. Und mal den Artikel von PCGH lesen bezüglich wenig Speicher und schlechtere Texturen laden.

Einfach nur traurig. nvidida bringt Krüppel und viele Testseiten befürworten das auch noch oder schweigen darüber, als wäre nichts...Feiglinge!

:rolleyes: Das ist auch keine echte 4K Karte, aber in 1440p wird der Speicher auch hin und wieder eng, und das ist Mist.

r3ptil3
2020-10-27, 19:00:12
N
Nein, eigentlich treiben es die "Journalisten" auf die Spitze, die das nicht bemängeln. Raff ist wieder mal gefühlt der einzige, der das bemängelt (Hab noch nicht alle Tests gelesen).

Einfach nur traurig. nvidida bringt Krüppel und viele Testseiten befürworten das auch noch oder schweigen darüber, als wäre nichts...Feiglinge!

Verständlich und stimme ich zu, aber was man hierbei komplett ausser Acht lässt: Man hat vor wenigen Monaten noch 500-600 Euro für eine anständige 2070 Super bezahlt und keiner hat sich beschwert.

Jetzt kriegt man halt gleich viel Speicher, aber mit der Leistung einer 2080 Ti zum gleichen Preis.

Daran störend ist eigentlich nur die Tatsache, dass man bis zur 3080 Klasse einfach keine Möglichkeit auf mehr Speicher hat.

Hätte man für einen neutralen Preisaufschlag alternativ mehr Speicher im Angebot, wäre die Kritik nicht vorhanden.

Daredevil
2020-10-27, 19:08:14
Nein, eigentlich treiben es die "Journalisten" auf die Spitze, die das nicht bemängeln. Raff ist wieder mal gefühlt der einzige, der das bemängelt (Hab noch nicht alle Tests gelesen).

Was sollen sie denn bemängeln?
Die 3070 ist eine FullHD/WQHD Karte, das wird ganz klar durch den Speicher signalisiert. Steht irgendwo, dass es weder eine WQHD oder UHD Karte sein soll? Nope.

Turing bildete die Auflösungen in 60fps dar:
2060S > FullHD
2080S > WQHD
2080ti > UHD

Ampere bildet die Auflösungen in 120fps dar:
3070 > FullHD
3080 > WQHD
3090 > 4K+

Spiele ich in WQHD/UHD, dann ist eine 500€ Karte das falsche für mich.

dargo
2020-10-27, 19:11:17
Nein, eigentlich treiben es die "Journalisten" auf die Spitze, die das nicht bemängeln. Raff ist wieder mal gefühlt der einzige, der das bemängelt (Hab noch nicht alle Tests gelesen).

Jepp... da muss ich auch ein Lob an Raff ausrichten, auch wenn ich mir noch paar Beispiele mehr wünschen würde.
https://www.pcgameshardware.de/Geforce-RTX-3070-Grafikkarte-276747/Tests/8-GB-vs-16-GB-Benchmarks-1360672/

Aus Zeitmangel ging wohl nicht mehr.


Spiele ich in WQHD/UHD, dann ist eine 500€ Karte das falsche für mich.
Was bitte? ;D Bei Nvidia könntest du recht haben. :freak:

Platos
2020-10-27, 19:12:06
Ich und viele andere hier haben sich schon über Turings miese Speicherbestückung beschwert. Wobei es ja immer schlimmer wird, je höher die Rechenleistung geht bei selber Speichergrösse.

Und 2080Ti Leistung ist sehr wohl für 4k geeignet. Reicht alle mal, um die 8GB zu bersten (konnte ja schon die 1080Ti ganz gut). Und das jetzt, nicht morgen. Die Karte kann man einfach rauchen (genau so, wie die 3080).

Und ja, mit der "Streichung" der anderen Speicherversionen ist Ampere instant zu einem Witz geworden. Ein sehr ärgerlicher Witz. Turing war scheisse, von allen Seiten her gesehen, aber Ampere hätte die Rohleistung gehabt, aber am Speicher wird wieder mal gespaart.

Leider wird vermutlich auch AMD nicht der Heilsbringer sein und zu gleichem Preis mehr Speicher anbieten. Aber die Hoffnung stirbt zuletzt.

r3ptil3
2020-10-27, 19:16:10
Was sollen sie denn bemängeln?
Die 3070 ist eine FullHD/WQHD Karte, das wird ganz klar durch den Speicher signalisiert.


Es ist eine 500 Euro Karte. Das 8Gb zu knapp bemessen sind, ausser Frage, dass sie für die meisten Fälle ausreichend sind, akzeptiert.

Eine 5500 XT kommt bereits mit 8Gb und spätestens wenn AMD morgen 16Gb Karten für unter 600$ vorstellt, wird die Kritik sehr stark zunehmen.

Ich würde die 3070 aber trotzdem empfehlen bei unter 500 Euro.
Sehr gute Treiber und tolle Leistung.

Linmoum
2020-10-27, 19:17:18
Die 3070 ist eine FullHD/WQHD Karte, das wird ganz klar durch den Speicher signalisiert. Steht irgendwo, dass es weder eine WQHD oder UHD Karte sein soll? Nope. Da wird gar nix durch Speicher signalisiert. NV hat die 2080Ti als UHD-Karte beworben. Die 3070 hat 2080Ti-Perf, also ist sie genauso eine UHD-Karte.

Nur weil NV am Speicher knausert und das ja quasi selbst zugibt, muss man ihrem Marketing nicht gehörig werden. Beides UHD mit der Performance und fertig. Alles andere ist albern.

Platos
2020-10-27, 19:24:58
Amen.

Grendizer
2020-10-27, 19:27:56
Und auch wenn es immer als Quatsch abgetan wird, finde ich nVidia Broadcast für den "kleinen" Streamer von nebenan interessant.

Ich selber habe hier auch schon mit Beleuchtung und grünen Stoff rumgebastelt und niemand mag Goblin Haare :biggrin:

Evtl. kann das auch die Webcam selber, aber so als Paket mit Capture usw. ist das schon nett, denke ich. Muss man sich mal genauer anschauen.

Ex3cut3r
2020-10-27, 19:45:13
Also wer 8GB jetzt noch verteidigt bei der 3070, der ist wirklich ein HardCore Fan Boy wie Daredevil. Ende 2020 mit neuen Konsolen....und was macht Nvidia 8GB Mager Modell. Lächerlich. Aber gut Morgen kommt Big Navi, da braucht man wirklich keine Nvidia diesmal.

Hakim
2020-10-27, 19:50:14
Sind dann ab Morgen alle Nvidia Threads dann frei von deiner Meinung bezüglich Speicher undso? Man müsste mal bei der Suche deinen Namen + Speicher eingeben, bestimmt mehrere Seiten.

edit: 4 Seiten, meinste net das es alle gecheckt haben was du sagen willst?

user77
2020-10-27, 19:51:24
Wo steht eigentlich, dass die kleine 6800 auch 16gb hat?

Linmoum
2020-10-27, 19:58:16
Sind dann ab Morgen alle Nvidia Threads dann frei von deiner Meinung bezüglich Speicher undso? Man müsste mal bei der Suche deinen Namen + Speicher eingeben, bestimmt mehrere Seiten.

edit: 4 Seiten, meinste net das es alle gecheckt haben was du sagen willst?Bevor ich mich frage, warum man sich mit dem Speicher wiederholt, stelle ich mir eher die Frage, warum gerade in Nerd-Foren (also da, wo Leute tendenziell mehr Ahnung haben sollten) immer noch genug Leute rumlaufen, die der Meinung sind, mehr braucht es nicht und das reicht aus. Gerade in diesen Preisgefilden. Sowas erwarte ich von Bernd-Otto, der von Technik und GPUs keine Ahnung hat.

basix
2020-10-27, 20:04:03
Bei einem 2080 TI OC Modell, sicher nicht.

Das behauptet auch niemand. Erwartet hätte ich dennoch weniger. Zudem ist eine 2080 Ti FE wenn man es genau nimmt schon OC ;)

Zur 3070:
Hat jemand schon Undervolting angestellt? Ich konnte auf die schnelle leider keine Tests dazu finden. Laut CB ist der GPU-Takt ja ausgereizt und somit sollte viel Potential da sein.

Palpatin
2020-10-27, 20:12:34
Vergleichbar mit der Situation R9 Fury X vs 980 Ti - auch damals waren die 4Gb für 1-2 Jahre ok.

Ein Jahr nach der Fury kam Deus Ex MD raus und damit war die Party vorbei.
Eine gute 16 GB 3070 Custom für 700 würd ich hingegen einer10 GB 3080 FE jederzeit vor ziehen.

hq-hq
2020-10-27, 20:27:00
hab bisher nur ein Spiel gesehen das die 8GB (ohne Mod) in 1440p überschreitet, ob sich das 2021 ändert... eine 8GB Karte für 4k wird sich kaum jemand kaufen

wenn man sich jetzt die 3070 anschaut versteht man echt nicht warum die 3080 unbedingt den GDDR6X Speicher braucht

ne halbwegs gute Auflösung wäre ne 3070 10GB und 3080 12GB gewesen, evtl. kann AMD seine Chancen jetzt mal verwerten.

Sardaukar.nsn
2020-10-27, 20:36:55
Also wer 8GB jetzt noch verteidigt bei der 3070, der ist wirklich ein HardCore Fan Boy wie Daredevil. Ende 2020 mit neuen Konsolen....und was macht Nvidia 8GB Mager Modell. Lächerlich. Aber gut Morgen kommt Big Navi, da braucht man wirklich keine Nvidia diesmal.

Die Software Hersteller werden sich einfach dem knappen VRAM anpassen. Künftige triple-A Titel müssen auch auf einer Xbox Series S laufen, so what. Wo willst du mit dem ganzen überflüssigen VRAM hin bei max 1440p? Dank VRS und DirectStorage wird das Thema in Zukunft doch eh eher noch weniger relevant.

Summerbreeze
2020-10-27, 20:39:27
Bekommen sie? Die Fachpresse hat nVidia doch schon wieder überzeugt.

Naja, zur ungenügenden Raytracing-Leistung von AMD wird man schon deutliche Worte finden... Der nVidia-Bias der Fachpresse ist einfach nur noch lächerlich.

Man siehe sich auch das Bias von Marc an, das er hier an den Tag legt: Ständig irgendwelche Relativierungen, wenn bei Nvidia und Intel etwas nicht optimal ist. Es stinkt.

Alle schon das Nvidia NDA von vor 2 Jahren vergessen? Wer zum Launchtag eine Karte haben will musste für immer? oder zumindest sehr lange Zeit seine Journalistenseele verkaufen.
https://www.heise.de/newsticker/meldung/In-eigener-Sache-Nvidia-NDA-als-Maulkorb-fuer-Journalisten-4091751.html

Von daher wird man von denen nichts kritisches lesen.

Lurtz
2020-10-27, 20:42:27
Derartige Fanboy-Vorwürfe sind völlig daneben und vor allem komplett falsch ;(
Das hat nichts mit Fanboytum zu tun, eher damit, dass man die Hand, die einen füttert, nicht gerne beißt. Was nVidia mit allzu kritischen Journalisten macht ist ja hinreichend bekannt.

mr coffee
2020-10-27, 21:05:14
Die Software Hersteller werden sich einfach dem knappen VRAM anpassen. Künftige triple-A Titel müssen auch auf einer Xbox Series S laufen, so what. Wo willst du mit dem ganzen überflüssigen VRAM hin bei max 1440p? Dank VRS und DirectStorage wird das Thema in Zukunft doch eh eher noch weniger relevant.
Auch eine Series S hat mehr Speicher als die Generation davor ... also 8 GB werden knapp. Ich zumindest gebe nicht oft Geld aus für eine Grafikkarte aber dann viel - bei so einem Muster kaufe ich einfach nichts was mich „schon morgen“ ärgern könnte.

crux2005
2020-10-27, 21:32:27
Die Software Hersteller werden sich einfach dem knappen VRAM anpassen. Künftige triple-A Titel müssen auch auf einer Xbox Series S laufen, so what. Wo willst du mit dem ganzen überflüssigen VRAM hin bei max 1440p? Dank VRS und DirectStorage wird das Thema in Zukunft doch eh eher noch weniger relevant.

Halte ich für Wunschdenken. Lieber mehr VRAM als zu wenig. Habe ich schon mit der 2080 gemerkt. Meine erste und letzte Karte die nicht VRAM im Überfluss hat (für 1440p wohlgemerkt).

Und Series S ist/wird eine 1080p Konsole. Also 3070 8GB für 1080p Gaming.

Daredevil
2020-10-27, 21:48:19
Und 2080Ti Leistung ist sehr wohl für 4k geeignet.
Ja, die Leistung der 2080ti ist für 4K60 geeignet, der Speicher von 8 GB aber nicht. Deswegen ist die 3070 keine 4K Karte, nur weil sie schneller als eine der vorigen Generationen ist.

Da wird gar nix durch Speicher signalisiert. NV hat die 2080Ti als UHD-Karte beworben. Die 3070 hat 2080Ti-Perf, also ist sie genauso eine UHD-Karte.

Die VII wurde auch für "tolle 4K Leistung" beworben, ist die 5700XT nun eine 4K Karte, weil sie die gleiche Leistung bietet? Nope.
Die 3070 hat die Rohleistung der 2080ti, aber deutlich zu wenig Speicher für 4K, deswegen ist sie dafür schlicht ungeeignet in vielen Fällen. ( In den meisten Fällen bei Spielen reichen auch noch 8GB aus, es gibt Zehntausende Spiele, wo es keine Probleme gibt... )

Also wer 8GB jetzt noch verteidigt bei der 3070, der ist wirklich ein HardCore Fan Boy wie Daredevil. Ende 2020 mit neuen Konsolen....und was macht Nvidia 8GB Mager Modell.
Dieses "Mager Modell" wildert unter BigNavi Preis Regionen, checkst du das nicht?

Halte ich für Wunschdenken. Lieber mehr VRAM als zu wenig. Habe ich schon mit der 2080 gemerkt. Meine erste und letzte Karte die nicht VRAM im Überfluss hat (für 1440p wohlgemerkt).

Und Series S ist/wird eine 1080p Konsole. Also 3070 8GB für 1080p Gaming.
Exe hat letztens gesagt, er hatte nie Probleme in 8GB mit WQHD, war das bei dir anders?

OT: Als FullHD@240 ist die Karte fein, in vielen Fällen auch in WQHD, selten in 4K. Mei. Muss ja niemand kaufen.
Auch AMDs Glaskanonen können an der Karte nichts ändern.

Das hat nichts mit Fanboytum zu tun, eher damit, dass man die Hand, die einen füttert, nicht gerne beißt. Was nVidia mit allzu kritischen Journalisten macht ist ja hinreichend bekannt.
Was tun sie denn?

w0mbat
2020-10-27, 21:57:26
mMn die bisher beste Karte im Ampere lineup. Verbrauch gleich wie ne 2070S, aber ca. 35% schneller und für 1440p sind die 8GB nicht so ein Problem wie die 10GB der 3080 für 4K.

Daredevil
2020-10-27, 22:01:41
Hmmm, vielleicht rechnet Nvidia ja auch Raytracing mit rein, in ihrem Portfolio nach oben hin.
500€ für eine "FullHD Karte" ist natürlich krass, aber dafür ist es halt eine FullHD@240 Karte, das muss man dazu auch bedenken.
Weil mit RTX on ist eine 3070 in FullHD halt spielbar, eine 3080 in WQHD auch und eine 3090 in UHD.... nicht. :D

Aber Speicher finden die Leute auch nur geil, weil AMD morgen Speicher rausballert, des ist ja klar und verständlich.
Weil wenn ne 3070 dann am Ende eine NaviXT mit 16GB schlägt in Cyberpunkt@RT, dann bringt dir der Speicher halt auch ein scheiß, weil du so oder so auf FullHD gehen musst. ( Ja ich weiß Dargo, du findest es doof. Spielst es am Ende aber doch, wenn jeder darüber redet, weil du Bock hast, mitreden zu können )
Lieber habe ich ne 3090 mit 8GB, als ne 3070 mit 48GB. :R

Nazar
2020-10-27, 22:01:58
Bei HWUnboxed legt die 3070 in 4k gegenüber der 5700XT zu sieht eher aus aus als wenn NV wieder mal das besser Speichermanagement hat.

https://youtu.be/UFAfOqTzc18?t=910

Ach deswegen ist eine 2080ti ab 4K meistens schneller als eine 3070 und das obwohl in 1440p die 3070 meist noch schneller war... jetzt wo du es sagst.... die neue Speicher Magie von nV muss gewaltige Kräfte besitzen.... not? :freak:
Realität an Nutzer... Realität an Nutzer.. bitte kommen...? ist da jemand...? irgend jemand....? kommen bitte...! :freak:

Legendenkiller
2020-10-27, 22:06:15
https://www.youtube.com/channel/UC5i6PESNUrinW_hrC2Pn4MA

der zeigt 3080 vs 6800XT in Spielen
https://www.youtube.com/watch?v=PiFRS3ODdto


5600, 5800 5900 vs 10900k
https://www.youtube.com/watch?v=EBH2leG52Q4


Oder alles gut gefake ?

Daredevil
2020-10-27, 22:07:15
Ach deswegen ist eine 2080ti ab 4K meistens schneller als eine 3070 und das obwohl in 1440p die 3070 meist noch schneller war... jetzt wo du es sagst.... die neue Speicher Magie von nV muss gewaltige Kräfte besitzen.... not? :freak:
Realität an Nutzer... Realität an Nutzer.. bitte kommen...? ist da jemand...? irgend jemand....? kommen bitte...! :freak:
Die 2080ti hat deutlich mehr Bandbreite.
Dass die 5700XT in 4K Mist ist, sieht man ja auch immer mal wieder im Vergleich zur VII.

@Legendenkiller
Hier noch mehr brauchbare Videos, die sicherlich kein Fake sind.
https://www.youtube.com/watch?v=dQw4w9WgXcQ

Ex3cut3r
2020-10-27, 22:41:01
Bevor ich mich frage, warum man sich mit dem Speicher wiederholt, stelle ich mir eher die Frage, warum gerade in Nerd-Foren (also da, wo Leute tendenziell mehr Ahnung haben sollten) immer noch genug Leute rumlaufen, die der Meinung sind, mehr braucht es nicht und das reicht aus. Gerade in diesen Preisgefilden. Sowas erwarte ich von Bernd-Otto, der von Technik und GPUs keine Ahnung hat.

Das ist die Liebe zu einer Marke. Und die Liebe, verteidigt man dann auch, wenns mal schlechter läuft. :wink:

Nazar
2020-10-27, 22:56:28
Die 2080ti hat deutlich mehr Bandbreite.
Dass die 5700XT in 4K Mist ist, sieht man ja auch immer mal wieder im Vergleich zur VII.

@Legendenkiller
Hier noch mehr brauchbare Videos, die sicherlich kein Fake sind.
https://www.youtube.com/watch?v=dQw4w9WgXcQ

die 3070 wurde von der Lederjacke himself gegen die 2080ti gestellt.
In den meisten Reviews wird ie 3070 gegen die 2080ti gestellt, was hat das mit einer 5700XT zu tun?
Und zum Thema Preis....
Glaubt irgendjemand hier, dass nV nur deshalb mit so niedrigen Preisen ankommt, weil sie plötzlich Spendierhosen anhaben? :confused: :eek:
Hört doch bitte mit diesen selten "unglücklichen" Preisvergleichen auf, das ist ultra peinlich!
nV hat die Preise nur genommen, weil AMD so stark wird und nicht weil die Lederjacke und die Aktionäre plötzlich ihr Herz für Spieler entdeckt haben!
Heute, hier und jetzt, unabhängig von den Preisen, dürfen nur die Leistungskategorien zählen und dieser Vergleich ist dermaßen traurig, dass ich mir durch die Reviews der TecMagz mega verarscht vorkomme!:mad:
Einer 3080 mit 10GB eine noch für Jahre ausreichende VRAM Kapazität zuzusprechen, grenzt für mich an absichtliche Verarschung des Kunden.
Und einer 3070, die von eben diesen TecMagz mit einer 2080Ti mit 11GB Speicher verglichen wird, ebenso eine noch für Jahre ausreichende Speicherkapazität zuzusprechen ist an Frechheit kaum noch zu überbieten! :mad:
Was erlauben sich die angeblichen TecMagz, wenn sie vorher schon (bitte die alten Artikel lesen) den Vorgängerkarten zu knappen Speicher attestiert hatten?
Und jetzt ist plötzlich alles paletti und super gut?
What? :eek:
Ernsthaft? :confused:
Mir treibt es die Zornesröte ins Gesicht, wenn ich diese unverfrorene Verhalten hier mitbekomme.
Lasst es euch auf der Zunge zergehen:
Nur die 3090 der gesamten 30XX Serie hat mehr Speicher als eine 2080ti! Der angeblich direkte Counterpart sogar weniger. :eek:
Was für eine absolute Verarschung der Verbraucher mithilfe der TecMagz... insbesondere dann, wenn sie die 3070 direkt gegen die 2080ti vergleichen und nicht auf den Umstand des Performanceeinbruchs ab 4K hinweisen, der offensichtlich am VRAM Mangel liegt.... nein, da wird sogar behauptet, dass der VRAM noch Jahre sehr gut reichen würde... pfui... schämen sollten sie sich! :mad:

Daredevil
2020-10-27, 22:59:37
Das ist die Liebe zu den besten Produkten, da kann ich nichts für. :redface:
Das Ding ist, die Fanboykeule kann man immer schwingen, wenn man es sich richtig einfach machen will. Und auf andere rumhacken ist auch immer leichter, als wenn man seine eigene Überzeugung erklärt.

Besitzer von AMD Karten verzichten aktuell auf Performanve, DLSS, RTX und viele andere Gaming Features ( Shadowplay, RTX Voice, NVENV ).
Klar, das braucht man alles nicht, geschenkt.
In Zukunft, und das sagen die Leaks vorraus, wird eine Navi21XT gerade mal so schnell RT berechnen wie eine 2080ti, also eine 3070.
Da hast du dann am Ende eine AMD Karte, verzichtest auf diese Features oben und drauf kommt dann auch noch, dass man Raytracing mit der Karte ( Laut den Leaks ) ebenfalls knicken kann.
Aber dafür.... jA dAfÜr hABeN dIe kArTen vIeL ArBeiTsSpEiChEr.

Es bringt weder was, auf Arbeitsspeicher rumzuhacken, noch auf Features.
Weil wenn jemand die Featues nicht braucht > Passt.
Wenn jemanden den RAM nicht braucht > Passt.
Pauschal kannst du hier eh nichts sagen, solange du nicht weißt, worum es geht.


@Nazar
Du kannst die 3070 meinetwegen auch gegen eine Titan RTX stellen, trotzdem ist das weder der Nachfolger, noch Vergleichbar.
Nenn mir doch mal 10 Spiele, wo die 3070 in FullHD nicht mehr reicht. Weil ich spiele nur noch in FullHD.

blaidd
2020-10-27, 23:12:16
Bevor ich mich frage, warum man sich mit dem Speicher wiederholt, stelle ich mir eher die Frage, warum gerade in Nerd-Foren (also da, wo Leute tendenziell mehr Ahnung haben sollten) immer noch genug Leute rumlaufen, die der Meinung sind, mehr braucht es nicht und das reicht aus. Gerade in diesen Preisgefilden. Sowas erwarte ich von Bernd-Otto, der von Technik und GPUs keine Ahnung hat.


Confirmation Bias. (https://lexikon.stangl.eu/10640/confirmation-bias-bestaetigungsfehler-bestaetigungstendenz/)

Im Falle von (PC-)Hardware: Man will in seiner Entscheidung (z.B. eines Grafikkartenkaufs) bestätigt werden. Daher kommt auch die häufig hohe Aggressivität, vor allem dann, wenn die Leute ihren Kauf in Kritik gezogen sehen.

Hat man etwa viel Geld in ein Projekt gesteckt oder viel Arbeit investiert, und es tauchen verschiedene sowohl positive als auch negative Gerüchte über dieses Projekt auf, wird man sich eher auf die positiven Bemerkungen konzentrieren, um sich selber zu bestätigen, dass man die richtige Entscheidung getroffen hat. Diese bleiben dann auch nachhaltiger im Gedächtnis. (Stangl, 2020).

Das gibt's natürlich nicht nur bei PC-Bauteilen oder Konsolen, sondern z.B. auch bei Autos und auch bei anderen, kaufunabhängigen Interessen (z.B. ein bestimmter Fußballverein)

Ex3cut3r
2020-10-27, 23:26:54
blaidd. :up:

Hakim
2020-10-27, 23:31:19
Confirmation Bias. (https://lexikon.stangl.eu/10640/confirmation-bias-bestaetigungsfehler-bestaetigungstendenz/)

Im Falle von (PC-)Hardware: Man will in seiner Entscheidung (z.B. eines Grafikkartenkaufs) bestätigt werden. Daher kommt auch die häufig hohe Aggressivität, vor allem dann, wenn die Leute ihren Kauf in Kritik gezogen sehen.



da er auf meine Post geantwortet hat, schreibe ich mal was, ich werde die 3070 8GB net kaufen, also muss ich nix verteidigen, der einzige der hier Hyper Aggressiv seine Entscheidung Tag ein Tag aus verteidigt und Käufer der 3080 oder jetzt 3070 als Quasi Dumm darstellt und das seit wochen ist Ex3cut3r. Es nervt halt.

Blutmaul
2020-10-28, 00:07:55
Das die Leute so klug sind und sich eingestehn, das die 20er Serie Alphastatus, die 30er Serie Betastatus hatte und RTX erst in x Jahren eine Rolle spielen wird, weil Spieleentwicklung Zeit dauert und die neue Konsolengeneration bestimmte Limits setzt, die höchsten für Prestigeprodukte überschritten wird, oder die GPU Firma subventioniert zeigt doch eher deren Realitätssinn.

DLSS ist einfach das kaum verschleierte Eingeständnis von NV, das das Silicon zu lahm, RTX zu ineffezient und Benchmarksiege zu wichtig sind solange die Leute sich weismachen lassen, das die BQ gleich bleibt, oder mittels AI Hokuspokus sogar besser wird!

RTX Voice ist ein Gimmick, das niemand braucht, vor allem nicht, wenn es FPS kostet, weil es das Powerbuget der Karte für Grafikberechnung mindert (wie von Igorslab herausgefunden) und diese nur mit Grafik-Teilkraft läuft.
Andere (Good Old Gamer im letzten Techonomics Podcast) hören eine Reduktion der Soundqualität.

Ich kenn niemanden der Privat Shadowplay nutzt und finde keine Indizien, das es allgemein mehr als ein sporadisches "nice to have" ist.

Die letzte gute Serie war die 10er Serie, die 20er und 30er und selbst die 40er und vermutlich sogar die 50er Serie werden Übergangstechnologien, bevor dann die übernächste Konsolengeneration kommt und es im PC-Bereich genügend Marktdurchdringung gibt gepaart mit signifikanten Leistungssteigerungen, das es langsam eine allgemein breitenwirksam nützliche Mainsteamtechnologie wird.

Wahrscheinlich wird man im Bereich der Spieleprgrammierung erstmal Fake-Raytracing Technologien entwickeln, die den Produktionsaufwand senken und dem Endnutzer nur etwas vorgaukalen, das nichtmal offensichtlich erkennbar besser als das bisherige aussieht, sondern noch Jahre ein Screenshotfeature bleibt.

Sinn machen diese Karten für Leute die damit Geld verdienen, die Experimentierlust haben denn zur Zeit ist die Technologie nicht mal aus dem Schwangerschaftsstadium heraus!

N0Thing
2020-10-28, 00:55:33
Ich würd mich über ein ehrliches Fazit freuen:
Toller Chip, gute Karte, leider unbrauchbar dank zu knappem VRAMs. Alle Nachteile sind relativierbar, zu hoher Stromverbrauch, etwas geringere Effizienz, aber ausgerechnet VRAM leider nicht. Wenn der zu knapp wird, landet das Teil in der Entsorgung... bei 8GB droht das noch nicht, das wird as neue Minimum sein, aber wer kauft ne 500€-Karte um die Settings direkt bei alten Spielen schon zu kastrieren. Wie soll das bei künftigen Games werden...

Wenn die 3070 mit 8GB unbrauchbar ist, dann ist es auch jede andere Grafikkarte bis runter zur 5700. Erstaunlicherweise hat diese Meinung vor 6 Monaten noch niemand vertreten. :rolleyes:
Es ist enttäuschend, dass Nvidia mal wieder an der Speicherbestückung gespart hat, keine Frage, aber in 95% der aktuellen Spiele gibt es keine Einschränkungen und für die nächsten zwei Jahre sicherlich auch nicht durch die Bank bei allen Neuerscheinungen. Wer mehr Speicher möchte, kauft einfach AMD oder hofft auf eine besser bestückte 3070 im nächsten Jahr.

Komprimierte Daten brauchen also genauso viel Speicher wie nicht komprimierte Daten? Brauchen aber auf magische Weise weniger Speicherbandbreite? Das erkläre doch mal bitte genauer.

Die Daten liegen im VRAM nicht komprimiert vor. D.h. für die Übertragung vom RAM in den VRAM kann man durch die Komprimierung Bandbreite sparen, aber weil die Daten im VRAM entpackt vorliegen, hat man keinen Vorteil beim Speicherbedarf.

Reaping_Ant
2020-10-28, 03:45:26
Wenn die 3070 mit 8GB unbrauchbar ist, dann ist es auch jede andere Grafikkarte bis runter zur 5700. Erstaunlicherweise hat diese Meinung vor 6 Monaten noch niemand vertreten. :rolleyes:
Das finde ich auch etwas erstaunlich. Die Karte ist vielleicht 50% schneller als eine 5700XT, zur 2070S sind es knapp 40%. Klar sind 8 GB in der Leistungsklasse nicht optimal, aber ein KO-Kriterium ist es meiner Meinung nach (noch) nicht.

Falls AMD wirklich bei aehnlicher Leistung zum selben Preis mehr Speicher liefert, muss man die 3070 neu bewerten, aber im heutigen Marktumfeld und bei der ueberwiegenden Zahl der heutigen Spiele sehe ich die Karte sehr gut positioniert, zumal auch die praktische Umsetzung in Form der FE sehr gut gelungen ist. Fuer mich ist die Karte als Upgrade von der 1080 kommend sehr interessant. Alles natuerlich unter der Annahme, dass man die Karte auch tatsaechlich fuer 500 Euro kaufen kann, mehr wuerde ich dafuer auch nicht ausgeben.

crux2005
2020-10-28, 03:49:11
Exe hat letztens gesagt, er hatte nie Probleme in 8GB mit WQHD, war das bei dir anders?

Spontan von dem was ich gespielt haben fallen mir CoD WW2 (2017!), Flight Simulator 2020 und Youngblood ein.

Edit: Exe hat doch HZD gespielt. Er musste mit einer 8 GB Karten Low (!!) Texturen einstellen damit es in 1440p nicht ruckelt.
Neue Spiele die in 1440p mehr als 8 GB brauchen gibt es auch schon paar. 1. Doom Eternal DLC, Marvel Avengers mit HD Texturen. Watchdogs Legion mit Texture Pack wird auch sicher mehr als 8 GB brauchen (knapp 7800 MB ohne).

OT: Als FullHD@240 ist die Karte fein, in vielen Fällen auch in WQHD, selten in 4K. Mei. Muss ja niemand kaufen.
Auch AMDs Glaskanonen können an der Karte nichts ändern.

Definitiv.


Falls AMD wirklich bei aehnlicher Leistung zum selben Preis mehr Speicher liefert, muss man die 3070 neu bewerten, aber im heutigen Marktumfeld und bei der ueberwiegenden Zahl der heutigen Spiele sehe ich die Karte sehr gut positioniert, zumal auch die praktische Umsetzung in Form der FE sehr gut gelungen ist. Fuer mich ist die Karte als Upgrade von der 1080 kommend sehr interessant. Alles natuerlich unter der Annahme, dass man die Karte auch tatsaechlich fuer 500 Euro kaufen kann, mehr wuerde ich dafuer auch nicht ausgeben.

Wir haben z.B. deutlich weniger 3070 bekommen als bestellt. Und keine kostet 500€. Ab 580€+ geht es los.

Stretcher
2020-10-28, 05:09:35
Speicherkrüppel mit Ansage halt. Aber die Quittung dafür bekommt NV immerhin zeitnah. Hätte eigentlich eine gute Karte werden können.

Das Problem ist nur, dass sich nicht alles nur aus Speicher definiert, das ist auch das Problem wenn man Fan einer Marke ist.
Man geht her und nimmt immer nur die negativen Punkte einer Karte. Speicher ist nicht alles.

Da gibt es auch noch das Featureset, wie RT, DLSS, Anwendungsperformance, Cuda, RTX Voice, Broadcast usw, was die Karte definitiv zu einer guten Wahl werden lässt, der Kühler ist auch leise. Alles sehr stimmig, bis auf den Speicher.

AMD wird 12GB anbieten, aber das nicht ohne Grund, denn bei den Features und dem drumherum hapert es bei AMD mal wieder.:wink: Die 16GB 6800XL und 6800XT sind deutlich teurer, also keine Konkurrenz für die 3070, sondern eher für die 3080.

Nvidia hat den Preis der 3070 intern schon auf 449 gesenkt, die 6800XL kostet 549, die 6800XT 649 oder 699.

dargo
2020-10-28, 06:07:47
AMD wird 12GB anbieten, aber das nicht ohne Grund, denn bei den Features und dem drumherum hapert es bei AMD mal wieder.:wink: Die 16GB 6800XL und 6800XT sind deutlich teurer, also keine Konkurrenz für die 3070, sondern eher für die 3080.

Nvidia hat den Preis der 3070 intern schon auf 449 gesenkt, die 6800XL kostet 549, die 6800XT 649 oder 699.
Die 6800 legt sich also schon mit der 3080 an? Interessant... :uponder: Weißt du schon mehr als wir? Dann wäre nämlich die 3090 sowas von geschlagen und AMD hätte die schnellste GPU im Gaming-Markt. Schließlich kommt da noch die 6900XT. Und die Preise bei AMD kennst du auch schon? Wahnsinn...

btw.
Dein erster Satz ist an bullshit schon kaum zu überbieten. Die 12GB bei N22 ergeben sich einfach aus dem 192Bit SI. Genau so wie sich die 8GB der 3070 aus dem 256Bit SI ergeben.

Sardaukar.nsn
2020-10-28, 06:20:58
...
Was für eine absolute Verarschung der Verbraucher mithilfe der TecMagz... insbesondere dann, wenn sie die 3070 direkt gegen die 2080ti vergleichen und nicht auf den Umstand des Performanceeinbruchs ab 4K hinweisen, der offensichtlich am VRAM Mangel liegt.... nein, da wird sogar behauptet, dass der VRAM noch Jahre sehr gut reichen würde... pfui... schämen sollten sie sich! :mad:

Die 3070 ist eine Karte im oberen Mainstream. Dort spielt 4k Keine Rolle. Überhaupt ist 4k-Gaming am PC noch keine breite Basis und die Enthusiasten gehen eher den Schritt auf Ultrawide. Die 3070 ist dort positioniert wo Geld verdient wird, ist ein interessantes Angebot und wird sich ganz bestimmt auch sehr gut verkaufen. Wie viele Gaming PCs kommen aktuell mit 8 oder weniger VRAM aus? 90%, 95%? Das ist die Zielgruppe und die ist nicht gerade klein.

rentex
2020-10-28, 06:47:11
Man merkt hier, das viele "8GB" Kritiker nicht wissen, wo Geld im Grakamarkt verdient wird...
Gute und günstige Karte für die Masse und 1440p.

dargo
2020-10-28, 06:52:57
Blöd nur, dass die 8GB auch schon bei 1440p zu wenig sind. Dafür braucht es kein 4k.

rentex
2020-10-28, 06:57:24
Das wird die Zielgruppe der Karte, nicht so sehen (geschweige den bemerken).

crux2005
2020-10-28, 07:08:57
Man merkt hier, das viele "8GB" Kritiker nicht wissen, wo Geld im Grakamarkt verdient wird...
Gute und günstige Karte für die Masse und 1440p.

Die Masse kauft keine >500€ Grafikkarten und 1440p ist auch lange nicht Mainstream.

ianm
2020-10-28, 07:10:01
Das finde ich auch etwas erstaunlich. Die Karte ist vielleicht 50% schneller als eine 5700XT, zur 2070S sind es knapp 40%. Klar sind 8 GB in der Leistungsklasse nicht optimal, aber ein KO-Kriterium ist es meiner Meinung nach (noch) nicht.
Nur fürs Protokoll, eine 3070 ist nicht 50% schneller als eine 5700XT. Im Schnitt liegt die Karte gleich auf mit der 2070S. In einigen Benchmarks ist die 5700XT sogar signifikant schneller. Hier haben wir wieder das Thema das AMD Karten besser altern.

https://www.techspot.com/review/2124-geforce-rtx-3070/

dildo4u
2020-10-28, 07:10:25
Die Framebuffer werden wegen der neuen XBox für 10GB ausgelegt aber das gilt für 4k.
Es wird wenige Games geben die 1440p als Ziel für die 500€ Xbox haben, eher wird's mit 30fps 4k laufen wie es bei Watch Dogs schon der Fall ist.

ianm
2020-10-28, 07:13:08
Die Masse kauft keine >500€ Grafikkarten und 1440p ist auch lange nicht Mainstream.
Richtig, der Mainstream kauft bis zu 250 Euro, eher unter 200 und zockt in 1080p. Die gucken solche Karten nicht mal mit dem Arsch an.

The_Invisible
2020-10-28, 08:01:53
Weiß auch net was ich davon halten soll, die Leistung ist eigentlich ganz interessant aber nochmal 8GB? Mäh...

Hoffe nur das meine Karte in den nächsten Monaten nicht verstirbt, ka was ich dann kaufen sollte. 3080 nicht lieferbar, anscheinend noch länger und wenn ja zu absurden Preisen, 10GB wären zumindest mal ein kleiner Fortschritt. 3090 steht außer Frage, zudem man da jetzt ja auch schon so 3k löhnen darf. AMD wird anscheinend interessant, dafür angeblich weniger RT Leistung und kein DLSS.

Eine 3070 16GB wäre aber irgendwie auch merkwürdig, wie rechtfertigt man da bei nvidia dann noch die 3080 10GB? Sehr merkwürdige Situation derzeit...

dargo
2020-10-28, 08:41:10
Die Framebuffer werden wegen der neuen XBox für 10GB ausgelegt aber das gilt für 4k.

Bist du der nächste der es nicht mitbekommen hat, dass die XBSX 13,5GB für Spiele zur Verfügung hat? Gleiches wird mit sehr hoher Wahrscheinlichkeit für die PS5 gelten, von Direct Storage rede ich da noch nicht mal. Wie oft wollt ihr euch noch lächerlich mit den Konsolenvergleichen machen? Marvel's Avengers ist noch für alte Konsolen mit max. 5,5GB (Vram + Gamelogik!) erschienen und am PC sind selbst 11GB Vram @1440p für ultra Texturqualität zu wenig. :rolleyes: Hohe Texturqualität passt noch in 8GB, sehr hohe Texturqualität gibts leider nicht, nur hoch/ultra. So viel auch zum Thema die Spieleentwickler würden sich nach der Vram Größe am Markt orientieren. Am Arsch...

pixeljetstream
2020-10-28, 09:17:28
Komprimierte Daten brauchen also genauso viel Speicher wie nicht komprimierte Daten? Brauchen aber auf magische Weise weniger Speicherbandbreite? Das erkläre doch mal bitte genauer.
Die Daten liegen im VRAM nicht komprimiert vor. D.h. für die Übertragung vom RAM in den VRAM kann man durch die Komprimierung Bandbreite sparen, aber weil die Daten im VRAM entpackt vorliegen, hat man keinen Vorteil beim Speicherbedarf.
IMO redet ihr über unterschiedliche Formen der Kompression.

IO compression:
Es gibt einmal die komprimierten Spieldaten die bei Konsolen/direct storage komprimiert von System zu vram gelangen können, ohne einmal dekomprimiert im RAM zu sein. Wir sparen pcie Bandbreite (und aus CPU Sicht CPU RAM und Arbeit).

Texture compression:
Dann gibt es komprimierte Formate die die GPU nativ kann, diverse BC (Block compressed) Texturformate. Die Daten liegen dann so im VRAM und werden spät in den Texture Units entpackt. Wir sparen vram und Bandbreite für vram und cache.

Generic VRAM compression:
Secret Sauce Datenkompression die die GPU selbst vornimmt wenn sie die Daten im VRAM ablegt, um beim Zugriff Bandbreite zu sparen, wie sys64738 anmerkt. Wären die Daten unkomprimiert im VRAM bräuchten wir ja ein Chip ausserhalb der GPU (jenseits des BUS) der die Daten live komprimiert bei jeder Übertragung. Den gibt es offensichtlich aber nicht, die vram Chips sind ja direkt mit der GPU verbunden. Diese Form der on-chip Kompression wirkt in erster Linie bei Rendertargets sehr positiv. Im Normalfall wird in den L2 entpackt, es ist aber je nach Technik auch möglich später zu entpacken. Da die Daten veränderbar sind und die Kompression lossless sein muss, können wir im worst case kein vram sparen. Wir sparen Bandbreite bei vram und zum Teil beim Cache.

Alle drei Formen können unabhängig voneinander aktiv sein. Wobei es unwahrscheinlich ist das BC Formate von der on-chip Kompression profitieren, weil sie ja selbst schon komprimiert vorliegen und die Heuristik dann keinen zusätzlichen Bonus erzielt.

Edit: hinzugefügt wer was spart.

paul.muad.dib
2020-10-28, 09:59:23
Richtig, der Mainstream kauft bis zu 250 Euro, eher unter 200 und zockt in 1080p. Die gucken solche Karten nicht mal mit dem Arsch an.

Da sagen die Mindfactory Statisken aber was anderes. https://m.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

2070 Super und 5700 xt meistverkaufte Modelle.


On topic: Wie versprochen das Leistungsniveau der 2080 ti erreicht. Außerdem nochmal großer Fortschritt bei der Energieeffizienz. Weißan schon, ob es Spielräume bei Speichertakt gibt und was das bringt?

Vram ist natürlich absolute Spaßbremse. Besser auf die 3060 ti gehen. In zwei Jahren ist die dann gleichauf, weil beide im vRam limit laufen.

dargo
2020-10-28, 10:05:09
Da sagen die Mindfactory Statisken aber was anderes. https://m.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

2070 Super und 5700 xt meistverkaufte Modelle.

Im reichen Deutschland ja. Und global?

Benutzername
2020-10-28, 12:39:07
Man merkt hier, das viele "8GB" Kritiker nicht wissen, wo Geld im Grakamarkt verdient wird...
Gute und günstige Karte für die Masse und 1440p.


Mach da 1080p draus. Die meisten Leute haben keine höher aufgelösten Monitore. Aber selbst mit 1080p und mehreren Monitoren und/oder Extrabreitbildschirm wird das schon eng werden. Kommt halt immer rauf den Anwendungsfall an. 8GB sind halt nicht so zukunftssicher. FS2020 macht das ja schon locker voll und mehr. Und da werden mehr Spiele kommen. Dazukommt, daß (V)RAM immernoch billiger als Entwicklerzeit ist, also wird das mal schnell hingerotzt von programmierern und Grafikern und Levelbauern. Ich kann mich noch an optimierte Texturmods für Fallout erinnern, die genauso oder sogar besser aussahen als die sinnlos großen Texturen, die Bethesda ausgeliefert hatte. Und den VRAM zahlt der Kunde, nicht der Spielehersteller. klar, Hardwarefix für Softwareproblem ist immer Mist, aber billig für den Hersteller.




Hätte die 3070 12 oder gar 16 (gibt es überhaupt so große GDDR chips?), klar, super Angebot, aber dann sähen 3080 und 3090 schlechter aus.

dargo
2020-10-28, 12:41:20
Hätte die 3070 12 oder gar 16 (gibt es überhaupt so große GDDR chips?), klar, super Angebot, aber dann sähen 3080 und 3090 schlechter aus.
Natürlich gibt es 2GB GDDR6 Chips. Siehe N21, siehe kommende Konsolen.

Benutzername
2020-10-28, 12:41:55
Vram ist natürlich absolute Spaßbremse. Besser auf die 3060 ti gehen. In zwei Jahren ist die dann gleichauf, weil beide im vRam limit laufen.

Hast Du eine Kristallkugel, was für 3060 Modelle es geben wird? Ti modelle gibt es auch generell noch nicht.


(außer der 3090 vielleicht, wenn man so will ;))

#44
2020-10-28, 12:49:18
Dazukommt, daß (V)RAM immernoch billiger als Entwicklerzeit ist, also wird das mal schnell hingerotzt von programmierern und Grafikern und Levelbauern. Ich kann mich noch an optimierte Texturmods für Fallout erinnern, die genauso oder sogar besser aussahen als die sinnlos großen Texturen, die Bethesda ausgeliefert hatte. Und den VRAM zahlt der Kunde, nicht der Spielehersteller. klar, Hardwarefix für Softwareproblem ist immer Mist, aber billig für den Hersteller.
Es ist ja fast das Gegenteil. Die Leute sind Geil auf Spiele, die viel VRAM nutzen. Was die dann draus machen...
(Gut, da kann ich als wenigzocker eigentlich nicht mitreden. Es ist aber ein Eindruck der sich mir da aufdrängt.)

Benutzername
2020-10-28, 12:49:30
Natürlich gibt es 2GB GDDR6 Chips. Siehe N21, siehe kommende Konsolen.

Das eröffnet natürlich ein Fenster für die Partnerkarten. Obwohl Ich die Kompaktheit der 3070FE echt mag. Wasserblock drauf und es sieht nicht mehr so vollgestopft im Gehäuse aus.


Ich gucke gerade nach einem Ersatz für die 980Ti eines Freundes und da wäre die 3070 schon ganz nett. Aber er will sie wohl genauso lange benutzen wie seine 980Ti, da wäre der VRAM wohl doch etwas dünn. Hrmpf. mal sehen wie sich das entwickelt mit Bignavi bald.

dargo
2020-10-28, 12:50:22
Das eröffnet natürlich ein Fenster für die Partnerkarten.
Nicht wenn Nvidia es nicht will. ;)

Benutzername
2020-10-28, 12:59:45
Nicht wenn Nvidia es nicht will. ;)


Natürlich.



Lederjacke hasst wohl VRAM. ;D

dargo
2020-10-28, 13:09:47
Manchmal denke ich mir da steckt Taktik dahinter. Man will wohl die Kunden bei der Stange halten. Also schnell wieder den Nachfolger kaufen obwohl die Rohleistung noch gereicht hätte.

Matrix316
2020-10-28, 13:36:14
Manchmal denke ich mir da steckt Taktik dahinter. Man will wohl die Kunden bei der Stange halten. Also schnell wieder den Nachfolger kaufen obwohl die Rohleistung noch gereicht hätte.
Ach was, wie kommst du nur auf solche Ideen? ;)

Ist doch bei Intel ähnlich wo bis zuletzt versucht wurde an 4 Kernen festzuhalten und erst als AMD mit dem Ryzen kam, hat man sich langsam auf 6, 8 und 10 hochgerabeitet. Ja nicht zu viel Leistung für zu wenig Geld anbieten. Und für die nächste CPU brauchste wieder ein neues Board. :rolleyes:

Warum gibt's die 5700XT von AMD nicht mehr mehr als 8 GB RAM? Die Vega VII hatte ja 16, aber das wars auch.

dargo
2020-10-28, 13:42:12
Gibt es... ist Apple exklusiv.

Ich weiß gar nicht ob es damals zum Release von N10 überhaupt schon 2GB GDDR6 Chips gab. Falls das der alleinige Grund war lohnt jetzt kurz vor RDNA2 Release keine Neuauflage mehr von N10 mit 16GB im Desktop.

Matrix316
2020-10-28, 13:51:08
Gibt es... ist Apple exklusiv.

Ich weiß gar nicht ob es damals zum Release von N10 überhaupt schon 2GB GDDR6 Chips gab. Falls das der alleinige Grund war lohnt jetzt kurz vor RDNA2 Release keine Neuauflage mehr von N10 mit 16GB im Desktop.
Wieso eigentlich 2 GB? Kann man nicht einfach 16 1 GB Bausteine aufbringen? So wie bei der 3090 vorne und hinten? :uponder:

dargo
2020-10-28, 13:56:08
Man kann vieles... die Frage ist nur ob sich das finanziell lohnt? Besonders bei Grafikkarten um die 400€. Und afaik kriegst du an ein 256Bit SI keine 16 Chips angebunden. Man möge mich korrigieren wenn ich falsch liege.

Edit:
Letzteres dürfte falsch sein. Schließlich gehen ja auch 24 Chips bei einem 384Bit SI. Dann bleiben wohl nur noch die Kosten für ein komplizierteres PCB + natürlich die Kosten für den zusätzlichen Speicher.

DrMabuse1963
2020-10-28, 15:23:17
Mal ne blöde Frage zu dem 12Pol Anschluss, gehen eigentlich 2x6 Pin Stecker von 2 Strängen oder muss man von 8 Pol auf 12 ?

Edit: bin nu echt verwirrt,meine bei PCGH gelesen zu haben der Adapter ist von 8 auf 12,bei Igor hört es sich so an als ob 2x6+2 auf 12 ?????

"Mit den knapp unter 1000 Gramm ist die Karte fast schon ein Leichtgewicht. Die Länge von 24,5 cm ist schön kurz auch die Einbauhöhe ist mit 10,5 cm ab der Oberkante des PCIe-Slots bei eingebauter Karte bis zur Oberseite der Abdeckung recht niedrig. Der lustige 12-Pin Micro-Fit 3.0 an der Oberseite ist diesmal liegend eingebaut und zeigt nach hinten. Hier darf man dann den mitgelieferten 12-Pin Adapter anschließen, an den die zwei herkömmlichen 6+2-Pin Stecker passen, die man ja schon seit Jahren kennt. Ihr werdet auf der nächsten Seite noch die Platine sehen dass man hier fast schon mit Kanonen auf Spatzen schießt. Zum Kühlerdesign gibt es dort dann gleich auch noch weitere Details. Den NVLINK-Anschluss hat Nvidia weggelassen."

https://www.igorslab.de/nvidia-geforce-rtx-3070-founders-edition-im-test-ampere-kann-auch-sparsam-und-knuffig-klein/

pixeljetstream
2020-10-28, 16:15:09
Mal ne blöde Frage zu dem 12Pol Anschluss, gehen eigentlich 2x6 Pin Stecker von 2 Strängen oder muss man von 8 Pol auf 12 ?

Edit: bin nu echt verwirrt,meine bei PCGH gelesen zu haben der Adapter ist von 8 auf 12,bei Igor hört es sich so an als ob 2x6+2 auf 12 ?????
"

Es gibt zwei Adapter. Einmal von einem Strang (3070fe) und einmal zwei Stränge (3080fe und 3090fe), es liegt der Karte der zu benutzende bei.

MiamiNice
2020-10-28, 16:17:54
Es gibt zwei Adapter. Einmal von einem Strang (3070fe) und einmal zwei Stränge (3080fe und 3090fe), es liegt der Karte der zu benutzende bei.


Sehr sinnvoll :rolleyes:
Wie viel halbe Cent spart ihr dadurch und bietet Ihr die vollen Stecker noch separat an? ;D

DrMabuse1963
2020-10-28, 16:23:35
Es gibt zwei Adapter. Einmal von einem Strang (3070fe) und einmal zwei Stränge (3080fe und 3090fe), es liegt der Karte der zu benutzende bei.
Und kann ich nicht einfach 2 Stränge vom NT mit je 6 Pin direkt am Anschuss stecken ? Finde es ätzend wenn ich über/bzw.direkt an den Specs von 150W gehe,von den verschwendeten ~21A des zweiten NT Strangs ganz zu schweigen...

Edit: Grad nochmal geschaut,die 4x12v Anschlüsse meines NT haben 53A,denke je nach Verwendung der Anzahl an Strängen splitten sich dann die Ampere...

Marodeur
2020-10-28, 16:34:31
Die Masse kauft keine >500€ Grafikkarten und 1440p ist auch lange nicht Mainstream.

Eben. Wenn ich meinem Neffen eine Karte kaufen würde ginge das in Richtung 3060, etc. Aktuell hat er eine 1050 ti. Hab doch keinen Geldscheißer. Was hier teils unter "Masse" verstanden wird ist doch schon typisch Nerd etwas abgehoben. Selbst für mich sind 500 € für NUR EINE GPU verdammt viel Geld. Bisher war ich eben bei 400 € rum und bekam dafür eine sehr gute Grafikkarte zur damaligen Zeit (1070) die jetzt auch 4 Jahre locker gehalten hat.

MiamiNice
2020-10-28, 16:40:33
Was erwartest Du den bitte in einem Forum voller Hobbygamer und Enthusiasten? Schau mal analog dazu in ein Forum für Audio oder Autoliebhaber. Da wird Dir auch ganz schwindelig:)

Benutzername
2020-10-28, 17:22:39
Was erwartest Du den bitte in einem Forum voller Hobbygamer und Enthusiasten? Schau mal analog dazu in ein Forum für Audio oder Autoliebhaber. Da wird Dir auch ganz schwindelig:)

Ja auch dort haben viele die Bodenhaftung verloren. Kommt aber auch aufs Forum an, was dort für ein Ton herrscht.

Man kann auch eine 3090 (oder im Mondschein von kasachischen Jungfrauen geklöppelte Verstärkerröhren und esoterische Goldhaarlautsprecherkabel oder die neueste Schickimickifelge und Flipfloplack) kaufen, ohne das zum allgemeinen Standard zu erheben. Gibt hier ja auch genug Forenmitglieder die eher durchschnittliche Systeme haben. Enthusiast sein muss ja nicht teuer sein. :wink:

DrMabuse1963
2020-10-28, 19:03:25
Muss natürlich auch sagen das der VRAM leider zu knapp ist, allerdings lese ich hier immer nur von 8GB, aber meine 1080 hat 8GB, nen Durchsatz von 320gb/s ,die 3070 kommt auf 448.Könnte ich ja gleichsetzen im Bezug zu meiner wären es dann 11,5GB VRAM. Hinzu kommt das der Speicher gut zu takten sein soll, also denke ich die ist schon ok mit dem Hintergedanken etwas früher wieder aufzurüsten.

seaFs
2020-10-28, 20:05:32
Muss natürlich auch sagen das der VRAM leider zu knapp ist, allerdings lese ich hier immer nur von 8GB, aber meine 1080 hat 8GB, nen Durchsatz von 320gb/s ,die 3070 kommt auf 448.Könnte ich ja gleichsetzen im Bezug zu meiner wären es dann 11,5GB VRAM. Hinzu kommt das der Speicher gut zu takten sein soll, also denke ich die ist schon ok mit dem Hintergedanken etwas früher wieder aufzurüsten.
Drehzahl hat aber nichts mit Tankvolumen zu tun.

DrMabuse1963
2020-10-28, 20:14:35
Rein gar nichts? Und wozu wird da denn so gerne getaktet? Wäre dann ja völlig Sinnfrei wenn die Games sowieso laufen...
Edit:Grade mal ein wenig über die neuen AMDs gelesen, werde den Arsch zusammen kneifen und auf bessere Verfügbarkeit und Preise bei Nv warten und dann wohl doch zur 3080 greifen...

paul.muad.dib
2020-10-28, 21:02:38
Speicherbandbreite Speichermenge und Rechenleistung müssen im Verhältnis stehen. Haben die Rechenwerke keine Daten, stehen sie still. Je mehr Rechenleistung du hast, desto mehr Daten müssen pro Zeiteinheit ankommen. Wenn du den Ram als Datenlager betrachtest brauchst du bei steigender Rechenleistung eine schnellere Anbindung und ein größeres Lager. Machst du nur die Anbindung schneller und lässt das Lager klein, läuft es umso schneller leer.

paul.muad.dib
2020-10-28, 21:24:15
Hast Du eine Kristallkugel, was für 3060 Modelle es geben wird? Ti modelle gibt es auch generell noch nicht.


(außer der 3090 vielleicht, wenn man so will ;))

nö, aber es gab doch genug leaks dazu. Am Ende ist es ja auch egal ob die jetzt ti Super oder Knorke heißt, aber es wird wohl ein Salvage Modell mir GA104 geben. Ich rechne jedenfalls damit, dass Nvidia noch Modelle bei ~400, ~300 und ~200 Dollar anbieten wird. Und zu einem Duell 6 GB vs. 12 GB Vram brauchen sie gar nicht erst anzutreten.

blackbox
2020-10-28, 22:56:44
Ich habe meine GTX1070 im Abverkauf für ca. 250 geschossen.
Jetzt bekommt man die doppelte Leistung für den doppelten Preis. Also rein Preis-Leistung-mäßig hat sich in den letzten Jahren nichts getan.

WedgeAntilles
2020-10-29, 09:55:35
Ich habe meine GTX1070 im Abverkauf für ca. 250 geschossen.
Jetzt bekommt man die doppelte Leistung für den doppelten Preis. Also rein Preis-Leistung-mäßig hat sich in den letzten Jahren nichts getan.

Klar, wenn du einen Abverkaufspreis mit dem Launchpreis vergleichst. :rolleyes:
Vergleicht der nächste den Preis den er für ne 1070 auf dem Flohmarkt gezahlt hat?

Schade, dass die 3070 mit 16GB gecancelt wurde - warum auch immer.
Für 600 Euro wäre die ein sehr attraktives Produkt gewesen.

Lowkey
2020-10-29, 10:15:30
Ich überleg die 3070 in den Zweit-PC zu stecken. Der ist auf Onlineshooter ausgelegt. Da läuft der Speicher bestimmt nicht voll, da die Texturen nicht auf Ultra laufen. Limitierend wirken 8gb nur auf den höchsten Texturstufen.

https://www.hardwareluxx.de/images/cdn01/FF02762F8E2A4A0CB3D4EF4513182ED1/img/67E2E2148012473C99A76FE5470B1740/NVIDIA-GeForce-RTX-3070-FE-00017_67E2E2148012473C99A76FE5470B1740.jpg

Da paßt eine Wakü drauf und die Karte ist extrem kurz und flach.

ChaosTM
2020-10-29, 14:22:53
Hat irgendwer versucht eine zu bekommen?
Verkaufsstart war um 14:00

Ex3cut3r
2020-10-29, 16:14:15
Hier gibt es noch ein paar. Mit Aufpreis. Ich kann nur dazu raten bei Big N mit 16GB VRAM zuzuschlagen, aber gut.

https://www.alternate.de/Grafikkarten/RTX-3070

Korvaun
2020-10-29, 20:34:14
Wer sich ne 8GB 3070 für 599.- oder mehr kauft dem ist echt nicht mehr zu helfen... tztz.

Palpatin
2020-10-29, 20:47:17
Wer sich ne 8GB 3070 für 599.- oder mehr kauft dem ist echt nicht mehr zu helfen... tztz.
Da man die aktuell für 700-800 auf eBay verkaufen kann, wäre 599-650 ein guter Deal ;).

Korvaun
2020-10-30, 08:14:27
Schon, aber da würde ich mir wie ein Betrüger vorkommen ;)

ChaosTM
2020-10-30, 08:17:19
Das nennt sich "freie Marktwirtschaft" ;)

dildo4u
2020-10-30, 08:51:50
Asus 3070 Dual er kommt hier mit Undervolt auf 1.8Ghz bei 150 Watt.

https://youtu.be/E5-BVdWYLlQ?t=353

Wäre ziemlich im Bereich meiner 1070 was Verbrauch angeht nett.

Hakim
2020-10-30, 10:13:51
Wow 150W, Grafikkarten die nicht low end sind und dennoch unter 200W schlucken, das waren noch gute Zeiten

JFZ
2020-10-30, 10:17:08
Asus 3070 Dual er kommt hier mit Undervolt auf 1.8Ghz bei 150 Watt.

https://youtu.be/E5-BVdWYLlQ?t=353

Wäre ziemlich im Bereich meiner 1070 was Verbrauch angeht nett.

Jetzt wäre nur noch interessant, wie der Leistungsmässig bei dem Undervolt rauskommt. Zum einen im Vergleich zur alten 1070 (also wie groß dann noch der Leistungssprung ist) und zum Anderen wie stark die dann im Vergleich zum Normalzustand nachlässt

][immy
2020-10-30, 13:55:05
Interessant. Scheinbar ist die RTX 20x0er jetzt alteisen, wenn man nicht die 2080Ti hat
https://www.golem.de/news/call-of-duty-black-ops-cold-war-systemanforderungen-nennen-rtx-3070-fuer-raytracing-2010-151837.html

"Call of Duty black Ops Cold War " (langer Titel) empfiehlt eine RTX 3070 für Raytracing. Und für 4k Raytracing eine RTX 3080. Das dürfte besonders für die RTX 2070 dann das aus bedeuten, es sei denn man reduziert die Auflösung noch weiter.

ChaosTM
2020-10-30, 13:57:43
250GB Speicherplatz für die DxR Version. Jesus . ... ..

Daredevil
2020-10-30, 16:13:58
Nvidia nimmt auf jeden Fall das Momentum der "High End 2080ti" mit, indem sie die Performance so haargenau da positionieren. :D

FDVN5YfbDe8

Redneck
2020-10-30, 16:16:18
250GB Speicherplatz für die DxR Version. Jesus . ... ..
demnächst kann man sich gleich zum Spiel noch eine weitere Festplatte kaufen.
Grütze

dargo
2020-10-30, 16:23:59
demnächst kann man sich gleich zum Spiel noch eine weitere Festplatte kaufen.

:uban:

Nvidia nimmt auf jeden Fall das Momentum der "High End 2080ti" mit, indem sie die Performance so haargenau da positionieren. :D

https://youtu.be/FDVN5YfbDe8
Die Frameausgabe in Metro Exodus. :facepalm: Ist der D3D12-Renderer mit Geforce allgemein so im Arsch?

Redneck
2020-10-30, 16:26:52
:uban:

ist Festplatte neuerdings ein Unwort ??

dargo
2020-10-30, 16:33:49
Ja. ;(

Redneck
2020-10-30, 16:37:35
Nvidia nimmt auf jeden Fall das Momentum der "High End 2080ti" mit, indem sie die Performance so haargenau da positionieren. :D

https://youtu.be/FDVN5YfbDe8

schon erstaunlich , das Kärtchen... und fast immer gute 40-60W genügsamer.
schade schade

dargo
2020-10-30, 16:39:28
schon erstaunlich , das Kärtchen... und fast immer gute 40-60W genügsamer.
schade schade
Ja... beim Verbrauch überzeugt die 3070 gegenüber dem Vorgänger definitiv. Die 8GB machen leider alles kaputt.

Redneck
2020-10-30, 16:48:11
Ja... beim Verbrauch überzeugt die 3070 gegenüber dem Vorgänger definitiv. Die 8GB machen leider alles kaputt.
nicht nur die 8GB Dargo.. auch das es bald eine 6800 als direkten konkurrenten gibt, die fast schon auf 3080 level agiert. Da sieht die 3070 nur noch die Rücklichter.

Daredevil
2020-10-30, 16:52:24
Die schnellste vollumfängliche FullHD Karte der Welt. :D
Freuen sich zumindest die 2080ti Besitzer, das die Karte doch keine 200€ und ne Packung Drehtabak Wert ist. ^^

Redneck
2020-10-30, 16:53:37
Die schnellste FullHD Karte der Welt. :D
ist das der neue slogan für die 3070 ? müßte man mal überprüfen, ob das überhaupt stimmt... nur interessiert mich FHD nicht mehr

Redneck
2020-10-30, 16:56:18
Die schnellste vollumfängliche FullHD Karte der Welt. :D
Freuen sich zumindest die 2080ti Besitzer, das die Karte doch keine 200€ und ne Packung Drehtabak Wert ist. ^^
für die 2080TI Besitzer ist es bitter, die ihre Karte letztes/dieses Jahr gekauft haben.
Gibt wohl aber noch etliche "Dumme" die bereit sind viel Geld dafür hinzulegen, wenn ich mir die Gesuche auf EBAY Kleinanzeigen anschaue.
wer zu spät kommt, den bestraft das leben..

Daredevil
2020-10-30, 16:56:38
Da 8GB für WQHD nicht optimal sind ( Flächendeckend ), ist das nun einmal eine Karte, die FullHD eben komplett abdeckt und mehr nicht.
Da es Spieler gibt, die in 120-240-360hz Spielen, grätscht diese Karte genau in diese Sparte ein.
Wenn man nicht FullHD@HighFPS spielt, braucht man aber halt auch keine 3070, sondern da reicht halt ne... Polaris?
Weil am Ende zahlste bei ner 6800 für FullHD für Speicher, den du nie benötigen wirst. Ist zwar Nett, aber nicht nötig.

Die 2080ti und 3070 sind beide gleich schnell, die 3070 ist aber keine WQHD Karte, die 2080ti schon.
Gleiche Leistung, zwei unterschiedliche Probleme, die gelöst werden können, soviel macht der Speicher halt aus.

dargo
2020-10-30, 17:06:51
nicht nur die 8GB Dargo.. auch das es bald eine 6800 als direkten konkurrenten gibt, die fast schon auf 3080 level agiert. Da sieht die 3070 nur noch die Rücklichter.
Ich meinte das alleine im grünen Lager. ;) Und natürlich nicht bei den absurden Straßenpreisen momentan. RTX 3070 16GB für max. 600€, besser 550€ wäre beste Karte im Ampere Portfolio.

Die schnellste vollumfängliche FullHD Karte der Welt. :D

Falls der Seitenhieb Richtung Speicher ging... 1080p wird nicht viel helfen. Der Content frisst den Löwenanteil vom Speicher, nicht die Auflösung. Von der Rohleistung her ist für mich persönlich die RTX 3070 wunderbar für 1440p geeignet. Für 1080p schon fast zu schnell. Oder du brauchst extrem schnellen Prozessor um die Rohpower in 1080p auszuschöpfen, plus natürlich moderne Engines und nicht irgendwelche DX11 Gülle die im schlimmsten Fall noch schlecht multithreaded.

Redneck
2020-10-30, 17:14:07
Ich meinte das alleine im grünen Lager. ;) Und natürlich nicht bei den absurden Straßenpreisen momentan. RTX 3070 16GB für max. 600€, besser 550€ wäre beste Karte im Ampere Portfolio.


Falls der Seitenhieb Richtung Speicher ging... 1080p wird nicht viel helfen. Der Content frisst den Löwenanteil vom Speicher, nicht die Auflösung. Von der Rohleistung her ist für mich persönlich die RTX 3070 wunderbar für 1440p geeignet. Für 1080p schon fast zu schnell.
damit holst du die FPS zu 6800 aber nicht auf.. die sich im gleichen Preisbereich taumelt. Die 6800 ist da teilweise im 2 stelligen Prozentbereich vorne.

dargo
2020-10-30, 17:17:55
Weil am Ende zahlste bei ner 6800 für FullHD für Speicher, den du nie benötigen wirst. Ist zwar Nett, aber nicht nötig.

Für 1080p kommen bei AMD noch die richtigen Karten. Nennt sich Navi22. ;) So eine RX 6700 non XT für schmales Geld wird da ordentlich Frames generieren, und das mit 12GB. :whistle:

damit holst du die FPS zu 6800 aber nicht auf.. die sich im gleichen Preisbereich taumelt. Die 6800 ist da teilweise im 2 stelligen Prozentbereich vorne.
Ich weiß... P/L ist dann bei Nvidia schlechter, selbst mit 16GB (sollte da überhaupt was kommen). Aber hier wird ja gerne immer mit einem Nvidia-Bonus (was das immer sein soll :D) argumentiert.

Redneck
2020-10-30, 17:19:10
Da 8GB für WQHD nicht optimal sind ( Flächendeckend ), ist das nun einmal eine Karte, die FullHD eben komplett abdeckt und mehr nicht.
Da es Spieler gibt, die in 120-240-360hz Spielen, grätscht diese Karte genau in diese Sparte ein.
Wenn man nicht FullHD@HighFPS spielt, braucht man aber halt auch keine 3070, sondern da reicht halt ne... Polaris?
Weil am Ende zahlste bei ner 6800 für FullHD für Speicher, den du nie benötigen wirst. Ist zwar Nett, aber nicht nötig.

Die 2080ti und 3070 sind beide gleich schnell, die 3070 ist aber keine WQHD Karte, die 2080ti schon.
Gleiche Leistung, zwei unterschiedliche Probleme, die gelöst werden können, soviel macht der Speicher halt aus.
und die 6800er (XL) sollte in FHD nicht schneller als die 3070 sein weil ?
die laufen beide irgendwann ins CPU Limit.. so what. Die 3070 ist eigentlich erledigt bevor sie richtig auf den Markt angekommen ist. Ich sehe nur noch den Vorteil in Andwendungen durch Cuda. ich denke spätestens bei den reviews wird man sehen, das der Hoffnungsträger ausgespielt hat.. so bitter das auch für NV ist.

Piccolo
2020-10-30, 17:19:37
Ach als Zweitkarte oder für den PC der lieben Ehefrau reicht die 3070. Ati hat für mich eine scheiss Treiber Politik. Bin mal gespannt wo sich die neuen ATI Karten ansiedeln. Besser und schneller ?? Bin mal gespannt.

dargo
2020-10-30, 17:21:46
Ach als Zweitkarte oder für den PC der lieben Ehefrau reicht die 3070. Ati hat für mich eine scheiss Treiber Politik. Bin mal gespannt wo sich die neuen ATI Karten ansiedeln. Besser und schneller ?? Bin mal gespannt.
Wann hast du das letzte Mal eine AMD Grafikkarte im Rechner gehabt wenn du noch von ATI sprichst? X-D

Piccolo
2020-10-30, 17:24:53
;D ja ne Weile her das ich eine im Hauptrechner hatte. Für mich bleibt das ATI . Damit verbinde ich eine lange Hass/Liebe und irgendwann hab ich mich neu verliebt (Nvidia). Ja die gerade richtig viel :mad: machen.

Redneck
2020-10-30, 17:25:39
Wann hast du das letzte Mal eine AMD Grafikkarte im Rechner gehabt wenn du noch von ATI sprichst? X-D
wahrscheinlich als er seine Matrox Parhelia aus dem Rechner geschmissen hat ;D

Piccolo
2020-10-30, 17:38:55
wahrscheinlich als er seine Matrox Parhelia aus dem Rechner geschmissen hat

Eigentlich hatte ich nie eine. War die meiste Zeit in meiner Gaming History AMD/ATI Freak (ü. 20 Jahre lang)... aber man kann sich entlieben. Die Frage ist ob AMD jetzt den richtigen Weg einschlägt und vertrauen zurück gewinnt, zumind bei mir.

Daredevil hat schon recht . WQHD ist aber mit leichten Abstichen aber gut möglich mit der 3070 . 2080 Ti ist die besser Wahl.

Daredevil
2020-10-30, 17:53:39
und die 6800er (XL) sollte in FHD nicht schneller als die 3070 sein weil ?

Das meinte ich damit nicht, ich meinte, dass der Mehrspeicher der 6800 in FullHD selten Relevant ist. Den zahlst du aber mit.
Ob du nun 499€ UVP zahlst oder 599€ bei der 6800 sind 20%, wenn am Ende also "eh das gleiche" raus kommt, weil die CPU limitiert, braucht man das nicht.
Eine 3090/6900XT ist auch die bessere FullHD Karte, aber Geld und so. :D

Und natürlich ist die 3070/6080 viel zu "groß" für FullHD, ich habe ja nur das Beispiel des HighFPS Gamers genannt. Das ist ne Nische, völlig klar.
Das da noch kleinere Karten kommen ist ebenso klar, da sieht man aber noch nichts von. :)

Ex3cut3r
2020-10-30, 18:36:47
8GB reichen spätestens ende 2021 auch für FHD nicht. Neue Konsolen Gen...mit doppelten Speicher wie jetzt. 2021 kommen dann die PS5 Ports auf dem PC...man kann Sie kaufen, muss sich dann aber darauf einstellen schon in einem Jahr wieder was neues kaufen zu müssen, wenn man natürlich auf Texturen steht. Denn Texturen kosten keine Leistung, höchsten VRAM. ;)

r3ptil3
2020-10-31, 09:45:57
Habe jetzt die Zotac RTX 3070 Twin Edge getestet:

Lautstärke
IDLE: lautlos
Last: deutlich hörbar, für mich etwas zu laut
Temperatur: Bleibt unter 70°, die Lüfterkurve scheint auch danach ausgerichtet zu sein, um die Temp unter 70° zu halten.

Taktraten:
Der Standardtakt liegt im Spiel bei 1800-1820Mhz (ohne OC).

OC
Taktet mit OC bis max. auf 2080 Mhz rauf.
In PUBG WQHD Ultra bleibt der Takt im Schnitt bei 2050-2060 Mhz.

Weiteres:
Die Karte ist sehr klein, das ist eigentlich auch der einzige nennenswerte Pluspunkt der Grafikkarte.

Ist bereits inseriert zum Selbstkostenpreis.
Anfang nächster Woche hole ich die deutlich leisere MSI Trio 3070, welche ich dann voraussichtlich bis zur 6900 XT behalten werde.

dargo
2020-10-31, 17:06:51
Asus RTX 3070 TUF Gaming & MSI RTX 3070 Gaming X Trio Review
ahC8aW_mNgA

Die Kühlung der MSI bei 245W überzeugt absolut. Die ASUS ist nur geringfügig schlechter.

Mayk-Freak
2020-11-06, 17:58:09
Hab auch die kleine Zotac RTX 3070 Twin Edge bekommen 519 Euro von MM, bin sehr zufrieden mit der Karte. Mal schnell 3DMark laufen lassen.

https://abload.de/thumb/zotakkejz7.png (https://abload.de/image.php?img=zotakkejz7.png)

Alter Sack
2020-11-14, 10:41:08
Bin seit 2017 mit der GTX1070 zufrieden, welche eine GTX970 ersetzte.

Für mich ist die gesamte RTX30XX Reihe irgendwie fail.
3070/3080:
Beide zu wenig VRAM für 2020, wobei die 3080 mit 10 GB evtl. noch kaufbar wäre.
Die 3080 hat eine eine pervers hohe Verlustleistung, wodurch ein relative großer PC-Umbau wg. hoher Wärmeentwicklung notwendig wird (mein PC ist gut gedämmt und mit extrem leisen/langsamdrehenden Lüftern ausgestattet und ggf. kann die zusätzliche Abwärme von 170 Watt nicht adäquat abgeführt werden.
Zum Vergleich: meine GTX1070 mit 8 GB verbraucht TDP 150 Watt, die 3080 320 Watt.

Die RTX3070 wäre mit 220 Watt TDP ggf. noch halbwegs machbar in meinem PC Gehäuse, doch mit 8 GB RAM mit 3440x1440 ....nix für die Zukunft.

die RTX als FHD Karte zu bezeichnen, ist irre.
Meine Frau zockt auf ihrem PC mit meiner alten GTX970 in FHD gerade Metro Exodus und es flutscht in 60 Hz wie Butter. In FHD wäre selbst meine GTX1070 absolut oversized.

Für mich ist das aktuelle RTX-30XX LineUp nichts halbes und nix ganzes.
Warum wurde die RTX3080 nicht direkt mit 16 GB VRAM ausgestattet?
Warum müssen die Karten DEUTLICH (!) mehr Strom verbrauchen?

Ich schaue jetzt gespannt auf die ersten Reviews der neuen AMD-Karten und hoffe, dass Nvidia in 2021 das RTX-LineUp um interessante Karten erweitern wird.

dargo
2020-11-14, 12:04:37
Warum wurde die RTX3080 nicht direkt mit 16 GB VRAM ausgestattet?

Weil es mit dem SI nicht passt. Entweder 10GB oder 20GB. Letzteres wollte Lederjacke nicht. 16GB geht nur mit der RTX 3070 bzw. GA104, aber auch das wollte Lederjäckchen nicht.

Alter Sack
2020-11-14, 12:33:26
Weil es mit dem SI nicht passt. Entweder 10GB oder 20GB. Letzteres wollte Lederjacke nicht. 16GB geht nur mit der RTX 3070 bzw. GA104, aber auch das wollte Lederjäckchen nicht.

man hätte den Preis der Karten jemals problemlos um 100 bis 200 EUR erhöhen und dadurch den Speicher auch verdoppeln können.
sowie die Karten jetzt sind, werden Sie vermutlich gegen die AMD Karten nicht konkurrenzfähig sein.

BlacKi
2020-11-14, 13:55:04
Warum müssen die Karten DEUTLICH (!) mehr Strom verbrauchen?

Ich schaue jetzt gespannt auf die ersten Reviews der neuen AMD-Karten und hoffe, dass Nvidia in 2021 das RTX-LineUp um interessante Karten erweitern wird.
tja, die verbräuche zu den amd karten sind doch bekannt, keine davon braucht weniger als 250w. für noch sparsamere amd karten musst du wohl noch einige monate warten.

Ex3cut3r
2020-11-14, 14:34:27
Ich kann den "alten Sack" gut verstehen, 2 Generation/ 4 Jahre an GPUs weiter, und was bekommt man heute für 500€? Eine 3070 schon wieder mit 8GB. Ziemlich unsexy meiner Meinung nach. Aber gut, wenn man damit leben kann, Texturen, Schatten in Zukunft eins bis zwei Stufen runterzustellen, ist es IMO ok. Wobei bei satten 500€+ schon ein bitterer Nachgeschmack dabei ist. Sollte die 6800 Non XT gut verfügbar sein um die 500€ muss sich IMO auch ein Hardcore Nvidianer gut überlegen, was er sich holt. 16GB VRAM sind einfach sehr sexy.

dargo
2020-11-14, 15:01:00
man hätte den Preis der Karten jemals problemlos um 100 bis 200 EUR erhöhen und dadurch den Speicher auch verdoppeln können.

Hätte, hätte, Fahrradkette. Beschwerden bitte direkt an Lederjacke!

Alter Sack
2020-11-14, 15:57:12
Es wurde halt leider Potential verschenkt. Wenn schon heftige Stromverbräuche, dann bitte auch kompromisslos und nicht künstlich kastriert.

Ich hätte zudem auch gerne eine RTX30xx Karte, welche wie meine GTX1070 so um 150 Watt verbraucht und da wirft sich mir die Frage auf, ob ich spürbar mehr Leistung bei ähnlichem Stromverbrauch bekommen würde, wenn man die RTX30xx auf 150 Watt drosselt.... immerhin ist meine 14nm GTX1070 4 Jahre alt.

aufkrawall
2020-11-14, 16:06:24
Ich kann den "alten Sack" gut verstehen, 2 Generation/ 4 Jahre an GPUs weiter, und was bekommt man heute für 500€? Eine 3070 schon wieder mit 8GB.

Die billigste 3070 liegt bei 555€ im Preisvergleich, die allermeisten Modelle gibts erst ab 600 bzw. eher 640 und deutlich drüber.

r3ptil3
2020-11-14, 16:26:02
Es wurde halt leider Potential verschenkt. Wenn schon heftige Stromverbräuche, dann bitte auch kompromisslos und nicht künstlich kastriert.

Ich hätte zudem auch gerne eine RTX30xx Karte, welche wie meine GTX1070 so um 150 Watt verbraucht und da wirft sich mir die Frage auf, ob ich spürbar mehr Leistung bei ähnlichem Stromverbrauch bekommen würde, wenn man die RTX30xx auf 150 Watt drosselt.... immerhin ist meine 14nm GTX1070 4 Jahre alt.

Die 3070 ist effizienter als eine 2080 Ti, welche innerhalb der RTX 2000 Serie sowieso die effizienteste war.

Den Stromverbrauch der 3070 finde ich jetzt nicht schlecht - ich hatte die Karte vor kurzem und wenn ich 2 Sekunden früher eine MSI erwischt hätte, anstatt eine Zotac, dann wäre die nach wie vor im Einsatz.

Daredevil
2020-11-14, 16:27:26
Das effizienteste Mittel ist ein 60hz FullHD Monitor. :<

dargo
2020-11-14, 16:56:54
Es wurde halt leider Potential verschenkt. Wenn schon heftige Stromverbräuche, dann bitte auch kompromisslos und nicht künstlich kastriert.

Ich hätte zudem auch gerne eine RTX30xx Karte, welche wie meine GTX1070 so um 150 Watt verbraucht und da wirft sich mir die Frage auf, ob ich spürbar mehr Leistung bei ähnlichem Stromverbrauch bekommen würde, wenn man die RTX30xx auf 150 Watt drosselt.... immerhin ist meine 14nm GTX1070 4 Jahre alt.
Die Mehrleistung wurde leider immer wieder zusätzlich durch Mehrverbrauch erkauft. Die ganze GPU-Entwicklung ist nüchtern betrachtet für Nüsse. Man kann schon froh sein wenn sich die Performance in 3-4 Jahren bei gleichen Stromverbrauch verdoppelt. :(

Alter Sack
2020-11-14, 17:06:45
Die 3070 ist effizienter als eine 2080 Ti, welche innerhalb der RTX 2000 Serie sowieso die effizienteste war.

Den Stromverbrauch der 3070 finde ich jetzt nicht schlecht - ich hatte die Karte vor kurzem und wenn ich 2 Sekunden früher eine MSI erwischt hätte, anstatt eine Zotac, dann wäre die nach wie vor im Einsatz.

Die 70 Watt mehr wären ja noch halbwegs OK (wobei das so ist, als ob mir mir ne zweite 8-Kern CPU in den PC baue).
Der VRAM ist mir einfach zu wenig und die 3070 wirkt dadurch wie ein kastriertes Produkt.

Werde evtl. daher wie geschrieben diese Generation überspringen und hoffen, dass bereits in 2021 ein Refresh mit geringerem TDP und mehr VRAM rauskommt.

r3ptil3
2020-11-14, 17:09:47
Die 70 Watt mehr wären ja noch halbwegs OK (wobei das so ist, als ob mir mir ne zweite 8-Kern CPU in den PC baue).
Der VRAM ist mir einfach zu wenig und die 3070 wirkt dadurch wie ein kastriertes Produkt.

Werde evtl. daher wie geschrieben diese Generation überspringen und hoffen, dass bereits in 2021 ein Refresh mit geringerem TDP und mehr VRAM rauskommt.

Spielst du denn in 4k?

Weil dann wäre die 3070 auch mit 16Gb RAM eigentlich nicht das optimale Produkt.

Alter Sack
2020-11-14, 17:13:43
Spielst du denn in 4k?

Weil dann wäre die 3070 auch mit 16Gb RAM eigentlich nicht das optimale Produkt.

3440x1440

Ex3cut3r
2020-11-14, 17:14:21
Steht doch in der Sig, er ist wie ich Ultrawidler, aka 3440x1440. Kostet 15-25% mehr als 2560x1440

EDIT: Zu Spät. Also ich wurde auf ne 6800 Non XT wechseln, wenn ich du wäre, das sind in 3440x1440 schon 100-120% mehr Leistung als deine 1070 ausspuckt, das sind Welten, aber wenn man halt auf Nvidia besteht, gibt es diesmal keine Alternative im 500€ Bereich.

dargo
2020-11-14, 17:19:19
Die 70 Watt mehr wären ja noch halbwegs OK (wobei das so ist, als ob mir mir ne zweite 8-Kern CPU in den PC baue).
Der VRAM ist mir einfach zu wenig und die 3070 wirkt dadurch wie ein kastriertes Produkt.

Werde evtl. daher wie geschrieben diese Generation überspringen und hoffen, dass bereits in 2021 ein Refresh mit geringerem TDP und mehr VRAM rauskommt.
Geringere TDPs da kannst du dich in dieser Gen von verabschieden, da wird nichts mehr kommen. Für dich wäre wohl eine RTX 3060TI mit 16GB interessant. Nur wird es die mit 16GB nicht geben. :freak:


Also ich wurde auf ne 6800 Non XT wechseln, wenn ich du wäre, das sind in 3440x1440 schon 100-120% mehr Leistung als deine 1070 ausspuckt, das sind Welten, aber wenn man halt auf Nvidia besteht, gibt es diesmal keine Alternative im 500€ Bereich.
Das wird auch nichts... die RX6800 wird mindestens 250W saufen, bei den meisten AIBs eher mehr. Für ihn kommt bei AMD eigentlich nur eine RX6700 XT mit 12GB in Frage. Aber auch diese wird nicht bei 150W rauskommen.

Ex3cut3r
2020-11-14, 17:23:15
Wieso limitiert man sich denn selber mit Watt Max angaben? Nen 250W Modell wird man ja mit UV noch auf 200W drücken können, und nen 225W wie die 3070 auf unter 200W ohne groß Leistung zu verlieren, sich da irgendwie ne Grenze zu setzen, finde ich blöd. Aber gut. Ich finds halt schade um den 3700X, der langweiligt sich jetzt nochmal 2 Jahre mit der 1070 rum.

dargo
2020-11-14, 17:24:45
Ich kanns irgendwo verstehen wenn man seinen Rechner nicht hören will. Da gibt es halt Grenzen bei Lukü.

@Alter Sack
Oder du musst dich mit Undervolting und der Senkung vom Powerlimit anfreunden. Mal ein extrem Beispiel mit meiner RX 5700XT @75W GPU.
https://abload.de/thumb/2020.11.14-17.47k8ja5.jpg (https://abload.de/image.php?img=2020.11.14-17.47k8ja5.jpg)

Das sind rund 85-90W für die gesamte Karte.

So betreibe ich sie normalerweise mit 150W GPU.
https://abload.de/thumb/2020.11.14-17.55g0jcn.jpg (https://abload.de/image.php?img=2020.11.14-17.55g0jcn.jpg)

Das sind dann rund 175W für die ganze Karte.

Daredevil
2020-11-14, 19:48:25
Ne 2080ti ist auch ein effizienter Kandidat für UWQHD, wenn man es händisch passen möchte.
Da kommt man bei ~150w ( 0,7v - ~1500Mhz ) auf etwa 2080-2080s Leistung und hat halt 11GB Speicher, die für UWQHD durchaus wichtig werden könnten.

Eigentlich ist das die perfekte Karte, alles mit 8GB ist so meh, die 3080 ist aber zu Hungry und lässt sich nicht so nett wie Turing betreiben.

dargo
2020-11-14, 19:53:47
Dafür ist die 2080TI viel zu teuer. Bei 500 bis max. 600€ (neu!) könnte man u.U. über eine Green-Edition nachdenken. Wenn man dann aber effektiv nur bei 2080 bis 2080S rauskommt sind die 500-600€ auch wieder meh.

Daredevil
2020-11-14, 20:01:26
Ja, natürlich ne gebrauchte HighEnd Karte für 500-600€, das geht schon. Die dreht dann mit ~1000rpm und gut ist.
Willste schnell und sparsam, musste groß kaufen und langsam fahren, anders geht nüscht. :uidea:

dargo
2020-11-14, 20:02:52
Ne gebrauchte 2080TI für 500-600€? :lol: :ucrazy:

Daredevil
2020-11-14, 20:04:16
Das sind die aktuellen Preise, die habe ich nicht gemacht. ^^ ( 500€ wäre schon günstig )

dargo
2020-11-14, 20:10:24
Jeden Tag steht ein Idiot auf. Was interessieren mit Preise die irgendwelche Vollhonks bezahlen? Viel zu teuer.

aufkrawall
2020-11-14, 20:43:45
Eher 650-750€ auf ebay, wenn man die gehackten Accounts nicht mitzählt.

Palpatin
2020-11-14, 20:45:40
Für ihn kommt bei AMD eigentlich nur eine RX6700 XT mit 12GB in Frage. Aber auch diese wird nicht bei 150W rauskommen.
Das nicht aber ich glaub man wird die 6700xt mit 150W und immer noch sehr ordentlich Performance weit oberhalb der 1070 betreiben können.

Slipknot79
2020-11-14, 21:34:09
Ne 2080ti ist auch ein effizienter Kandidat für UWQHD, wenn man es händisch passen möchte.
Da kommt man bei ~150w ( 0,7v - ~1500Mhz ) auf etwa 2080-2080s Leistung und hat halt 11GB Speicher, die für UWQHD durchaus wichtig werden könnten.

Eigentlich ist das die perfekte Karte, alles mit 8GB ist so meh, die 3080 ist aber zu Hungry und lässt sich nicht so nett wie Turing betreiben.


WORD! (y)

JVC
2020-11-15, 11:04:13
Ne gebrauchte 2080TI für 500-600€? :lol: :ucrazy:
Für den gleichen Preis, würde ich mich immer für die 2080Ti 11Gb entscheiden.
(Leistung pro Watt sind sie sehr ähnlich, kaum Vorschritt)

Hätte die 3070 16Gb, würde ich mich bei gleichem Preis, immer für den mehr RAM entscheiden.

Gebraucht oder neu, spielt eine untergeordnete Rolle bei mir.
Was in Frage kommt, wird verglichen.
(Autos kaufe ich frühestens mit 2 Jahren...)

M.f.G. JVC

Thunder99
2020-11-15, 11:59:26
Der GA104 ist einfach zu langsam. Punkt. Sieht man ja sehr schön, dass die 3080 den 102er bekommen hat. Nvidia hat sich einfach verzockt, bei den informierten User.

Eine 2080Ti ist Stand heute immer der 3070 vorzuziehen. Mehr VRAM, gleich schnell im Schnitt. Einzig Verbrauch ist bei der 3070 etwas besser... .

Als 1080Ti Besitzer lockt mich die Karte nicht mehr. Zu wenig + an Performance und weniger VRAM, No Go! Ne 3080 ist zwar gut, aber säuft extrem viel, hat also die Performance auch über den höheren Stromverbrauch erkauft...

Daredevil
2020-11-15, 12:23:35
Man findet teilweise ne Lightning Z von MSI für unter 700€ bei Ebay, weil niemand diese Karte kennt, die Kids kennen nur Strix. :D
Das ist schon sehr viel Karte für sehr wenig Geld, wenn man es mit einer neuen 3070 für über 600€ in Relation setzt.
Da die Karte 1.8kg wiegt, passt das auch mit der Lautstärke. :D

Und Performance technisch kann man da Problemlos Richtung non-oc 3080 zugehen, wenn einem der Verbrauch nicht stört. Das ist quasi ne "3080 light". ^^

-/\-CruNcher-/\-
2020-11-15, 15:04:20
Die 3070/TI/Super kommt und wir hier werden alle wieder glücklich sein das Jensen im 2ten anlauf wort hält was das 2080 TI Ziel angeht
Der G102 Salvage ist ja schon so gut wie bestätigt

Ex3cut3r
2020-11-15, 15:15:46
Sie müssen aber relativ früh nächstes Jahr kommen, ende 2021 wäre definitiv zu spät. Und ob Nvidia da schon so weit ist, glaube eher nicht. Fakt ist, Sie haben diesmal AMD anscheinend trotz schon positiver 5700XT massiv unterschätzt. Und ob 3080 Early Adopter mit Preisen von jeweils 800-1000€ auf den Tisch gelegt haben, ob die dann noch so Happy sind, wenn eine 3080 Ti im Februar mit 20GB kommt für 999€? Ich glaubs ja nicht.

-/\-CruNcher-/\-
2020-11-15, 15:20:52
Jensen hat extreme gepokert mit Samsung 8N aber teils geben ihnen die gesammt zahlen recht die Architektur Performt auch noch so limitiert gegen AMDs Node vorteil
Je tiefer wir allerdings hinabsteigen umso interessanter wird es da der Infinity Cache schon ein brocken effizienz ist.

Alter Sack
2020-11-15, 15:23:55
Ich frage mich, wie eine RTX3070 bei 150 Watt performen würde, wenn man die GTX 1070 dagegen stellt.
Eigentlich kann man sagen bin ich nicht bereit deutlich über 150 Watt zu akzeptieren.

Wenn man (nur damit es sich leichter rechnet) mal 100 Watt Mehrverbrauch rechnen würde, kommen bei bei 100 Spielstunden immerhin 30€ Strommehrkosten auf einen zu. 1000 Spielstunden demnach schon 300€. Mir geht´s nicht um die € wg. ,mehr Strombedarf, sondern dass ich das nicht will. Wenn ich ne Zusatzheizung im Zimmer will, muss das nicht unbedingt die Grafikkarte sein.

Thunder99
2020-11-15, 15:31:48
Bestimmt nicht gut. Für das Performance Ziel braucht der Chip einfach die Leistungsaufnahme.
Ich kritisiere u.a. den GA104...
Eventuell erwarte(en) ich/wir zu viel...

JVC
2020-11-15, 16:00:53
... kommen bei 100 Spielstunden immerhin 30€ Strommehrkosten auf einen zu. 1000 Spielstunden demnach schon 300€.
So würde ich es nicht rechnen...
Ich fahre nen Elektro... rechne mir auch nicht aus was einmal Gas ä Strom geben kostet... die aktuelle KW :freak: Anzeige hab ich extra ausgeblendet.


Mir geht´s nicht um die € wg. ,mehr Strombedarf, sondern dass ich das nicht will. Wenn ich ne Zusatzheizung im Zimmer will, muss das nicht unbedingt die Grafikkarte sein.
Ok, das ist verständlich. Der umweltfreundliche Ökologe :up:
(Tipp: Spazierengehen benötigt keinen Strom und hat ne bomben Grafik + realistisches RT und allem drum und dran *schertzchen* (nicht das du so ans liegen gefesselt bist wie ich...))

M.f.G. JVC

Dr.Doom
2020-11-15, 16:07:28
Und ob 3080 Early Adopter mit Preisen von jeweils 800-1000€ auf den Tisch gelegt haben, ob die dann noch so Happy sind, wenn eine 3080 Ti im Februar mit 20GB kommt für 999€? Ich glaubs ja nicht.Die 3080TI wird's ja nicht für 999€ zu kaufen geben, sondern vmtl. eher für knapp unter der UVP der 3090. ;)

Thunder99
2020-11-15, 21:14:50
Die 3080TI wird's ja nicht für 999€ zu kaufen geben, sondern vmtl. eher für knapp unter der UVP der 3090. ;)

1200€ wäre so eine Möglichkeit. Aber AMD wird es richten, dass der Preis nicht zu hoch ist. Konkurrenz ist einfach gut für alle :)

dargo
2020-11-15, 21:21:55
Ich frage mich, wie eine RTX3070 bei 150 Watt performen würde, wenn man die GTX 1070 dagegen stellt.
Eigentlich kann man sagen bin ich nicht bereit deutlich über 150 Watt zu akzeptieren.

Wenn man (nur damit es sich leichter rechnet) mal 100 Watt Mehrverbrauch rechnen würde, kommen bei bei 100 Spielstunden immerhin 30€ Strommehrkosten auf einen zu. 1000 Spielstunden demnach schon 300€. Mir geht´s nicht um die € wg. ,mehr Strombedarf, sondern dass ich das nicht will. Wenn ich ne Zusatzheizung im Zimmer will, muss das nicht unbedingt die Grafikkarte sein.
Du musst bei den modernen Stromschluckern einfach umdenken. Du bezahlst einen hohen Preis für Performance X. Dann senkst du das Powerlimit wenn es dich stört und bekommst für den gleichen Preis Performance X minus Y%. Aber immerhin keine + ~100W mehr. :tongue: Mit Undervolting kannst du "Y%" recht gering halten, je nach Chipgüte halt.

Thunder99
2020-11-15, 21:55:36
Nicht jeder will eine Karte erst modifizieren damit sie wie gewünscht funktioniert.
Einfach das Power Limit runtersetzen ist nicht Zielführend laut Berichten... :rolleyes:

schreiber
2020-11-15, 22:00:40
Ich frage mich, wie eine RTX3070 bei 150 Watt performen würde, wenn man die GTX 1070 dagegen stellt.
Eigentlich kann man sagen bin ich nicht bereit deutlich über 150 Watt zu akzeptieren.

Dito. zu der Einsicht bin ich mittlerweile auch gelangt. Ich werd diese Generation komplett auslassen. Zocke sowieso auf 1080p mit der 1070er.

-/\-CruNcher-/\-
2020-11-16, 01:29:45
Hier kann man eben auch DLSS einsetzen um enorm Strom zu sparen man locked einfach die Framerate auf das vorher erreichte meistens stellt die differenz +20 fps AVG bei UHD da

Was nach Nvidia kalkulation normalerweise einen lineup jump up + AIB OC Headroom darstellt

so werden aus den jetzt meistens 40 FPS dann 60 FPS

locked man die FPS mit DLSS spart man energie Igor hat dort ~20% gemesen (DLSS Eco Mode)

https://www.igorslab.de/nvidia-geforce-rtx-3070-founders-edition-im-test-ampere-kann-auch-sparsam-und-knuffig-klein/11/
https://www.igorslab.de/mit-nvidia-und-dlss-2-0-auf-dem-oeko-trip-stromsparen-gegen-den-trend-geht-naemlich-auch/


Igorslab.de (Igor Wallossek)

Als Fazit nehme ich ich hier mit, dass sich DLSS und der Einsatz der lokalen KI auf der Karte eigentlich in die richtige Richtung weist. Wer keine Extrem-FPS braucht, weil er sich eh keinen Adleraugen-Gaming-Monitor mit Hunderten von Hz leisten kann, der kann mittels DLSS und Limiter wenigstens ordentlich Energie sparen. Womit sich das Ganze sogar noch im Ansatz als ökologisch wertvoll erweist. Jensen zeigt hier seinen grünen Daumen, wenn auch sicher unbeabsichtigt. Aber immer gut zu wissen, wo man sparen könnte, falls man es denn darauf anlegt.

Man kann in beide Richtungen gehen mit DLSS entweder um Performance zu Gewinnen und eventuel dafür einzusetzen um den RT Overhead abzufedern (RT Overhead kompensation) oder um Strom zu sparen durch die Entlastung über das Inferencing (Tensor Cores).

Slipknot79
2020-11-16, 02:08:32
1200€ wäre so eine Möglichkeit. Aber AMD wird es richten, dass der Preis nicht zu hoch ist. Konkurrenz ist einfach gut für alle :)


1200EUR-1300EUR wird die 6900XT sein.
1400EUR=3080Ti 20GB. Elefant hat schon recht.

dargo
2020-11-17, 08:59:31
Nicht jeder will eine Karte erst modifizieren damit sie wie gewünscht funktioniert.

Tja... dann musst du bis zur nächsten Generation warten und hoffen, dass es dort besser wird.

Hier kann man eben auch DLSS einsetzen um enorm Strom zu sparen man locked einfach die Framerate auf das vorher erreichte meistens stellt die differenz +20 fps AVG bei UHD da

Wo ist hier? Die Spieleauswahl wäre sehr dürftig wenn die Gamer nur Games spielen würden die DLSS supporten.

Alter Sack
2020-11-17, 10:00:40
Ist wohl wie damals bei der GTX970....ne sehr gute Karte, aber nur 3,5 GB VRAM. Erst die GTX 1070 war ein Volltreffer, der auch 4 Jahre später noch sehr gut läuft.

Die heutigen 3070/3080 werden den selben schnellen VRAM-Mangel Tod sterben, wie die damals die 970/980.

Da die 30XX Serie jedoch komplett ausverkauft ist, war es seitens NVidia richtig, die Karte mit Krüppel-VRAM rauszuhauen (und die Kunden lecker abzuzocken) und dann in 6-12 Monaten mit doppeltem VRAM rauszubringen (um die überlegten/klugen Käufer zu holen).

Am ehesten könnte mich evtl. die noch kommende 3060 Ti locken. TDP mit 180 Watt wohl noch vertretbar. 8 GB VRAM wie meine 1070. Die Frage ist nur, ob es eine entsprechende Mehrleistung gibt, zumal meine 1070 ja nur 150 Watt verbraucht. die 3060Ti sollte mind. 50-70% Mehrleistung bieten....dann könnte man (wenn der Preis stimmt) die 3060Ti als Übergangslösung für 1-2 Jahre nutzen.

dargo
2020-11-17, 10:11:39
Warte in Ruhe wenn der Schuh nicht zu sehr drückt die 3060TI und RX 6700 non XT ab. Letzteres könnte genau dein Ding sein. Bin mir nur nicht sicher ob der Salvage mit 12GB oder doch eher 10GB kommt. Bei Verbrauch würde ich beim Salvage Richtung 150-180W tippen.

Zergra
2020-11-17, 10:14:34
Die 3060TI dürfte ungefähr auf Höhe der 2080S liegen bzw. etwas drüber.

Die RX 6700 dürfte da auch in der Nähe liegen.

Alter Sack
2020-11-17, 10:18:55
das klingt doch sehr gut.
Habe ja einen GSync TFT. Da wäre eine NVidia Karte in jedem Fall besser.

Edit: https://www.computerbase.de/2020-11/geforce-rtx-3060-ti-schneller-als-geforce-rtx-2080-super/?amp=1

Habe mir gerade mal Benchmarks angesehen. Die 2080s ist je nach Spiel 50-100% schneller, als die 1070.
Wenn die Karten für 400€ a kaufbar sind, wäre das tatsächlich eine Überlegung als Übergang für die nächsten 1-2 Jahre wert, zumal die 3070TI auch deutlich unter 200 Watt TDP haben müsste.

Ich vermute, dass die 3060Ti auch die Karte sein wird, die sich am Besten verkaufen wird.

Ex3cut3r
2020-11-17, 13:57:42
Naja. Ich hoffe mal für dich, dass die Verfügbarkeit besser ist. Sonst wärst du 500-600€ für ne 3060Ti hinlegen müssen. UVP Preise bei Nvidia sind IMO ne lüge.