Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Thunderburne
2020-08-08, 10:57:39
https://videocardz.com/newz/nvidia-geforce-rtx-30-ampere-series-to-be-announced-on-september-9th
BlacKi
2020-08-08, 11:19:41
Wenn man mit 2k überhaupt hinkommt. Ich tippe mal locker auf 3k für eine eine 3090 mit 24Gb.
wenn das ganze obere portfolio die ram verdoppelungs option bekommt, unter anderem die 3080, dann wird die 3090 unter 2000€ bleiben, aber die 3080 mit 20gb auch die 1000€ überschreiten.
der hauptpunkt warum die titan rtx doppelt so teuer war wie die 2080ti war der rampreis und der name. das bisschen extra performance von 7% war es jedenfalls nicht. wenn nun beide hauptargumente wegfallen, dann wird die 3090, sofern der name stimmt, nur ein paar hundert euro teurer als dioe 3080 20gb.
ich tippe mal:
3080 10gb +-850€
3080 20gb +-1100€
3090 24gb +- 1500€
dargo
2020-08-08, 11:32:36
3070 Ti mit 16GB und der Leistung einer 2080 Ti + besseres RT. Für 500-600€. Shut Up and Take my Money. ;D
Nur wird es keine 3700TI geben, zumindest dieses Jahr. ;) Nächstes Jahr vielleicht... wird davon abhängig sein wo sich AMD mit dem RDNA2-Portfolio positioniert. Und selbst wenn diese kommt stehen 16GB bei dieser Karte noch völlig in den Sternen.
der hauptpunkt warum die titan rtx doppelt so teuer war wie die 2080ti war der rampreis und der name.
Nicht wirklich... RTX-Titan ist ein vollwertiger Chip, alles drunter ist "nur" Resteverwertung.
Spasstiger
2020-08-08, 11:36:28
Ich glaube, bei den Preisen bin ich als mittlerweile Casual Gamer raus. Wird dann wohl wieder was Gebrauchtes nächstes oder übernächstes Jahr, im Moment bin ich mit einer gebrauchten RX 470 unterwegs, die mir eigentlich völlig reicht.
Irgendwas auf RTX-2080-Level für 300 € fände ich reizvoll, dazu ein VR-Headset für max. 500 € inkl. Controllern und Tracking. Das könnte mir einen Anreiz bieten, wieder öfter zu zocken.
MiamiNice
2020-08-08, 11:46:28
ich tippe mal:
3090 24gb +- 1500€
Ich vermute für 1500 Steine bekommst nicht mal die 12gb Version.
Das ist imo eher der Preis an der 3080 20gb.
Aber vielleicht überrascht uns ja nV und hat die günstige Fertigung gewählt damit sie die Preise senken können.
3090 12gb für 999€ fände ich angemessen ;)
Fragman
2020-08-08, 11:52:12
Die Preise können nicht so hoch sein, wie hier schon wieder geschrieben wird.
Nv will auch Geld verdienen und da muss man auch ein Stück weit über die Masse gehen.
Eine 3080 wird nie über 1k kosten, selbst mit 20GB nicht.
Eine 3090 für 1.5K? Das ist irre, denn wir reden da von mind 1,7K für Customs. Irgendwo ist auch mal Schluss und mit Turing hatte man die Schraube schon deutlich weiter oben angesetzt.
AMD hat scheinbar wieder ein brauchbares Design, eventuell mit 16GB, noch ein weiterer Grund, weshalb nv nicht soo hoch gehen kann (die 20GB deuten ja dann eher darauf hin, das man sagen kann, man hat mehr). Dazu eine deutlich bessere Fertigung, dadurch weniger Risiko beim Design verglichen mit Turing. Das deutet eher darauf hin, das die Preise im schlimmsten Fall so bleiben. Andernfalls haben nv und Samsung technisch versagt und AMD wird einen Vega 2.0 Chip liefern. Das heißt alles ist schief gegangen bei den Herstellern in den letzten Jahren und nv muss so die Marge retten.
ChaosTM
2020-08-08, 11:52:48
Ich vermute für 1500 Steine bekommst nicht mal die 12gb Version.
Das ist imo eher der Preis an der 3080 20gb.
Aber vielleicht überrascht uns ja nV und hat die günstige Fertigung gewählt damit sie die Preise MARGEN senken steigern können.
3090 12gb für 999€ fände ich angemessen ;)
Hab das leicht angepasst ;)
NV hat nix zu verschenken. Der Höhenflug der Aktie gibt ihnen Recht. Auch wenns schlecht für uns Kunden ist.
MiamiNice
2020-08-08, 12:01:07
Eine 3080 wird nie über 1k kosten, selbst mit 20GB nicht.
Ich glaube da wird Dich NV bald eines besseren belehren :freak:
Thunderburne
2020-08-08, 12:18:26
Zu mal ich an 20GB nicht glaube bei der 3080 !
AffenJack
2020-08-08, 13:03:51
ich tippe mal:
3080 10gb +-850€
3080 20gb +-1100€
3090 24gb +- 1500€
Der Aufpreis für den Ram macht keinen Sinn. Das würde niemand kaufen und man wäre AMD mit etwaigen 16Gb unterlegen.
Wenn man von Anfang an 2 Kombinationen anbietet, dann wird man es auch so anbieten, dass die größere Menge ne Option ist. 100-150€ max für 10Gb mehr. Rampreise sind im Keller gerade und deshalb werden die auch erst zur Option.
ChaosTM
2020-08-08, 13:21:54
Je mehr desto besser. Sollte RTRT bei 4k wirklich großflächiger einsetzbar werden, braucht das platz ohne Ende.
Die 20Gb Version für die, die RTRT unbedingt überall wollen, die kleineren mit 10 für den Rest.
add.: macht auch wenig bis keinen Sinn..
BlacKi
2020-08-08, 13:31:34
Der Aufpreis für den Ram macht keinen Sinn. Das würde niemand kaufen und man wäre AMD mit etwaigen 16Gb unterlegen.
Wenn man von Anfang an 2 Kombinationen anbietet, dann wird man es auch so anbieten, dass die größere Menge ne Option ist. 100-150€ max für 10Gb mehr. Rampreise sind im Keller gerade und deshalb werden die auch erst zur Option.
ich glaube nicht das man die vram preise an seinen kostenaufpreis koppeln kann. was dann der markt draus macht steht sowieso nicht fest.
falls es einen run auf die 20gb versionen geben sollte, dann droppt der preis der 10gb version und die 20gb version wird kaum verfügbar und teuer sein.
das befürchte ich ja insgeheim, das die leute wieder grafikkarten nach speicher kaufen. was sinn macht, wenn man die karte sehr lange behalten will. bis zum release der 980 war die 2gb 680 ausreichend mit vram ausgestattet.
MiamiNice
2020-08-08, 13:38:29
Macht aktuell imo gar keinen Sinn die GPU für langfristig zu kaufen. Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
AffenJack
2020-08-08, 13:44:08
@Blacki
Das wird nicht passieren, da 90% der Leute nicht interessiert ob es 10 oder 20 GB sind. Sie werden die Benches sehen, sehen, dass man keinen Leistungsunterschied bei 10Gb vs 20Gb sieht und dann zum billigeren Ausbau greifen. Die 20Gb sind was für zukünftige Spiele, Texturmods. Vereinzelt min FPS, aber die Kaufentscheidung machen die Leute vom hier und jetzt einfach von Balken abhängig. Der kleinere Ramausbau hat sich sogut wie immer besser verkauft, da billiger. Nach deiner Lösung denkt sich dann nur jeder der mehr Ram will, ok, kaufe ich AMD und das wars.
BlacKi
2020-08-08, 13:45:30
@miami
bei turing war die aussage imho teilweise berechtigt. was ampere angeht, wissen wir noch nichts, aber die vorraussetzungen bei 20gb sehen zumindest gut aus.
@affenjack
war das bei der rx 480 damals auch so? damals war die 4gb version verpönt, obwohl das P/L bei der 8gb version schlechter war.
dargo
2020-08-08, 13:51:23
Macht aktuell imo gar keinen Sinn die GPU für langfristig zu kaufen. Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
Ja... ganz bestimmt. :comfort: Das lese ich schon seit Jahren und dann kommt die Ernüchterung. Stelle dich schon mal darauf ein, dass eine Leistungsverdoppelung in naher Zukunft alle ~3 Jahre kommt. Es sei denn bei der GPU-Entwicklung ändert sich bald was gravierend. Das spekulierte Chiplet-Design könnte der erste Schritt sein.
Leonidas
2020-08-08, 14:03:57
Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
Normalerweise stimmt das. Aber wird das die Chipfertigung hergeben? An der limitiert das alles.
Platos
2020-08-08, 14:09:04
Gäbe es keine optional grössere Speicher, würde ich diese Gen. definitiv auch als Übergangsgen. ansehen.
Aber mal etwas mehr Speicher ist schon nice. Ich hoffe allerdibgs, dass auch die 70- & 60-er daran teilhaben dürfen.
Thunderburne
2020-08-08, 14:10:13
Macht aktuell imo gar keinen Sinn die GPU für langfristig zu kaufen. Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
Bei Nvidia sieht es für mich schon nach 1 Jahr aus wen das mit 8nm Samsung stimmt?!?
Darum bevor ich was kaufe warte ich noch ab was AMD in 7nm macht und ob eventuell sogar 7nm+ zum Einsatz kommt bei AMD
Edgecrusher86
2020-08-08, 14:59:45
bis zum release der 980 war die 2gb 680 ausreichend mit vram ausgestattet.
Für WQHD ja - mit SLI konnte man dann höchstens 2880 halbwegs flüssig fahren - inkl. AA. Max Payne 3 lief vor einem großen Patch auch mit 4K+2xMS+FXAA (~1,95GB ausgelagert) - mit diesem gab es nach kurzer Zeit einen Blackscreen. 4K+FXAA lief aber wieder. :D
Die 4GB der 980er konnte man dann gleich kurz nach Release beim neuen AC:U in WQHD + 4x TXAA voll kloppen (SLI) oder alternativ 4K+FXAA bei dann aber etwa doppelten fps.
GeForce GTX TITAN war dann im Gespann mit 6GB ein Segen - konnte man doch alles in 4K gut spielen bei grob 50-60 fps und 3-3,5GB im VRAM.
BF3 4K+4xMS oder Crysis 2 MaldoHD. :)
Wenn man genug Rohleistung hat, ist mehr VRAM als für SGPU sinnig immer gut. Für zwei Ampere werden zumindest 16GB sicherlich gut nutzbar werden. Ich denke mal bei SGPU werden in Nächster eher 12-14GB genutzt werden in 4K oder 5K oder 8K (ältere/anspruchslose Schinken). ;)
MiamiNice
2020-08-08, 15:02:31
Normalerweise stimmt das. Aber wird das die Chipfertigung hergeben? An der limitiert das alles.
Du hast doch selbst geschrieben das die nächsten Gen wahrscheinlich auf 5nm bei AMD kommt und das es sich NV kaum leisten können wird mit einem alten Prozess anzukommen. Wer da 1 und 1 zusammen zählt kann nur zu dem Schluss kommen das Ampere die letzte GPU ist mit der gemolken wird da AMD Druck macht. Ergo ist Ampere eine Übergangs GPU.
Ex3cut3r
2020-08-08, 15:11:56
Macht aktuell imo gar keinen Sinn die GPU für langfristig zu kaufen. Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
Warum sollte der 2 Jahre Rhythmus denn wir seit Kepler haben, nun wieder durchbrochen werden? Dann müsste Ampere schon jetzt eigentlich ein Rohrkrepierer sein.
Nur wird es keine 3700TI geben, zumindest dieses Jahr. ;) Nächstes Jahr vielleicht... wird davon abhängig sein wo sich AMD mit dem RDNA2-Portfolio positioniert. Und selbst wenn diese kommt stehen 16GB bei dieser Karte noch völlig in den Sternen.
Da wette ich dagegen, denn die RTX 2070S ist schon jetzt irgendwie nicht mehr so dolle auf Lager. IMO EOL? Rechne im November mit der 3070 (Ti)
Edgecrusher86
2020-08-08, 15:21:08
Also von GM200 (X) auf GP102 (XP) waren es auch "nur" 17 Monate - TITANEN.
In der Regel waren es aber grob 24 oder etwas mehr, korrekt.
HPC Hopper mag eventuell schon Q3/4 2021 kommen. Desktopkarten wohl eher H2 2022.
BlacKi
2020-08-08, 15:28:54
Da wette ich dagegen, denn die RTX 2070S ist schon jetzt irgendwie nicht mehr so dolle auf Lager. IMO EOL? Rechne im November mit der 3070 (Ti)
die 3070(ti) wird aber nicht die 2070s ersetzen. das macht keinen sinn. wenn die 2070s EOL geht, dann für eine 3060. das mit dem ti werden wir erst später sehen.
Ex3cut3r
2020-08-08, 15:33:10
Ob eine 3070 Ti kommt, wissen wir doch gar nicht, vlt. kommt auch eine ganz normale 3070 only.
=Floi=
2020-08-08, 15:53:05
Normalerweise stimmt das. Aber wird das die Chipfertigung hergeben? An der limitiert das alles.
warum stimmt das?
big navi wird rdna2 haben und damit sicherlich für die nächsten 4 jahre die main architektur. So viel wird dann in den nächsten zwei jahren nicht passieren.
Bei ampere bringt man auch den großen chip zum start und somit ebenfalls für die nächsten zwei jahre die max ausbaustufe.
Ob eine 3070 Ti kommt, wissen wir doch gar nicht, vlt. kommt auch eine ganz normale 3070 only.
die kommt ganz bestimmt, weil nv sicher wieder langeweile bekommt und nach nem jahr eine unnötige karte nachschieben will. :rolleyes:
Nazar
2020-08-08, 15:55:05
Macht aktuell imo gar keinen Sinn die GPU für langfristig zu kaufen. Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
Naja, ob es Sinn macht muss jeder für sich selber entscheiden, besonders wenn man die du von 1.5 Jahren ausgeht bis die nächste bessere Generation erscheint.
Wo ich voll mitgehe ist, dass es sich hier um eine Übergangsversion handelt, besonders bei nVidia.
nVidia war -vermutlich aufgrund von finanziellen Differenzen, gezwungen alle GPUs bei Samsung und damit mit 8nm fertigen zu lassen, weil nVidia zu lange gepokert hatte und dann keine Kapazitäten mehr für 7nm Produktion bei TSMC für nVidia vorhanden waren.
Man geht derzeit davon aus, dass spätestens im ersten Halbjahr 2021 nVidia einen Super Refresh auf 7nm(+) anbieten wird.
Wenn man bedenkt das einige Leaks behaupten, dass die 8nm Samples von nVidia schon beim Stock Betrieb 300W benötigen und bei simplen OC die 400W locker genkackt werden sollen, dann würde ich auf jeden Fall warten bis nVidia mit dem Refresh ankommt.
Ich hatte schon mal ganz zu Anfang spekuliert, dass nVidia vermutlich ihr eigenes "Vega" Desaster erlebt und es scheint sich zu bewahrheiten.
Bei AMD hingegen glaube ich nicht, dass wir da noch großartige Veränderungen sehen werden und dass bis Ende 2021 kein Refresh kommen wird.
Meine derzeit laufende Wette: 2020 AMD im RZ 10%+ ( bei 300W) schneller als nVidia und im RT um min. die Hälfte langsamer als nVidia.
1. Halbjahr 2021 wird nVidia mit einem Refresh (Super Serie in 7 nm(+)) min 10% schneller als AMD im RZ sein. Beim RT wird es kaum Veränderungen geben. Wenn, dann wird AMD leicht aufholen, über optimierte Treiber.
MiamiNice
2020-08-08, 15:58:24
Warum sollte der 2 Jahre Rhythmus denn wir seit Kepler haben, nun wieder durchbrochen werden? Dann müsste Ampere schon jetzt eigentlich ein Rohrkrepierer sein.
Sehen wir doch mal den Fakten ins Auge. Nvidia konnte jetzt jahrelang machen was sie wollten. Sie hatten absolut keine Konkurrenz. Was mit solchen Firmen passiert, wissen wir alle. Prominentes Beispiel -> Intel. NV hat sich vom Kerngeschäft mit GPU zu einem Lieferanten von Supercomputer und Automobil Technik entwickelt und sich selbst kürzlich ein wenig von Gaming distanziert. Außerdem ist NV jetzt eins der größten Unternehmen an der Börse. Wir Gamer haben diese Entwicklung mitgetragen bzw. fand diese Entwicklung auf unserem Rücken statt - sei ihnen gegönnt. Wir bekommen dafür aber jetzt keine dedizierte Gaming HW mehr sondern die Überbleibsel aus dem viel lohnenderen Geschäftsfeld. Das mag zwar irgendwie toll und innovativ sein -> DLSS, aber auch nur eine Lösung um uns Gamer die für uns normal nutzlosen Transistoren schmackhaft zu machen.
Jetzt steigt AMD wieder in den GPU Markt ein und scheint keine halben Sachen
machen zu wollen. Viele werden dieses Jahr eher einen Navi statt einem Ampere kaufen. Sei es aus P/L Sicht, weil sie den Underdog unterstützen wollen, weil sie nicht so viel Geld ausgeben möchten/können, wie auch immer.
AMD wird jedenfalls nicht locker lassen, den die Kohle für R&D ist jetzt vorhanden. Leo hat in einer der letzten News geschrieben das die nächste AMD Gen auf 5nm kommen könnte. AMD scheint aktuell schon gut dran zu sein, sonst würde NV den aktuellen Stunt mit dem VRam nicht machen.
Hier wird immer geschrieben, dass Konkurrenz das Geschäft belebt. Wieso sollte das bei GPUs anders sein? Ampere wird imo die letzte „ausruh“ Gen werden. Von der alten Fertigung auf den aktuellen 10er bei Samsung ist es nicht weit. Vom dem 10er Samsung auf den 5er bei TSMC ist es sehr weit. Imo stellt sich die Frage gar nicht das Ampere ein Rohrkrepierer ist. Es ist das nötigste für eine neue Gen mit Fokus auf RT. Die nächsten Gen hat dann imho das Potential sehr viel schneller zu werden, vielleicht auch wieder mit Fokus auf die Gamer statt auf die Marge.
Ex3cut3r
2020-08-08, 16:01:49
@nazar
Schon im ersten HalbJahr kommt ein Ampere Refresh in 7nm+ der alles besser kann? Warum bringt Nvidia dann im Oktober überhaupt Ampere raus? Für 6 Monate? Deine Theorie macht IMO keinen Sinn.
Schnoesel
2020-08-08, 16:05:15
Jedenfalls muss Ampere min 50% schneller sein als meine jetzige 1080ti, sonst denk ich nicht mal über einen Kauf nach. Aber auch Big Navi werde ich mir genau ansehen. Für mich gilt Performance + Speicher stelle ich über RT, DLSS und SchnikSchnak
Troyan
2020-08-08, 16:05:56
Naja, ob es Sinn macht muss jeder für sich selber entscheiden, besonders wenn man die du von 1.5 Jahren ausgeht bis die nächste bessere Generation erscheint.
Wo ich voll mitgehe ist, dass es sich hier um eine Übergangsversion handelt, besonders bei nVidia.
nVidia war -vermutlich aufgrund von finanziellen Differenzen, gezwungen alle GPUs bei Samsung und damit mit 8nm fertigen zu lassen, weil nVidia zu lange gepokert hatte und dann keine Kapazitäten mehr für 7nm Produktion bei TSMC für nVidia vorhanden waren.
Man geht derzeit davon aus, dass spätestens im ersten Halbjahr 2021 nVidia einen Super Refresh auf 7nm(+) anbieten wird.
Wenn man bedenkt das einige Leaks behaupten, dass die 8nm Samples von nVidia schon beim Stock Betrieb 300W benötigen und bei simplen OC die 400W locker genkackt werden sollen, dann würde ich auf jeden Fall warten bis nVidia mit dem Refresh ankommt.
Ich hatte schon mal ganz zu Anfang spekuliert, dass nVidia vermutlich ihr eigenes "Vega" Desaster erlebt und es scheint sich zu bewahrheiten.
Bei AMD hingegen glaube ich nicht, dass wir da noch großartige Veränderungen sehen werden und dass bis Ende 2021 kein Refresh kommen wird.
Meine derzeit laufende Wette: 2020 AMD im RZ 10%+ ( bei 300W) schneller als nVidia und im RT um min. die Hälfte langsamer als nVidia.
1. Halbjahr 2021 wird nVidia mit einem Refresh (Super Serie in 7 nm(+)) min 10% schneller als AMD im RZ sein. Beim RT wird es kaum Veränderungen geben. Wenn, dann wird AMD leicht aufholen, über optimierte Treiber.
Aha. Wie genau soll AMD mit dem technischen Flop Navi auf 7nm schneller sein, wenn nVidia durch den Die-Shrink schonmal kostenlos nur Vorteile hat.
Bin wirklich begeistert, wie du und deine Genossen hier dauernd ignoriert, dass AMD schon auf 7nm ist und selbst gegen Pascal gefailt hat. Jetzt soll natürlich alles besser werden auf dem selben Prozess mit der selben Grundarchitektur gegen einen Konkurrent, der jetzt erst auf einem besseren Prozess wechselt.
rentex
2020-08-08, 16:08:08
Macht aktuell imo gar keinen Sinn die GPU für langfristig zu kaufen. Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
Also kommt erst Turing als "Einführungsangebot" für RT und DLSS daher und dann soll Ampere, erst noch eine "Übergangs GPU" werden...Alles klar ;D
edit: Falls es eine "Übergangs GPU" sein sollte, warum macht sich NV überhaupt die Mühe, dann Modelle mit unterschiedlicher VRAM Config anzubieten?
Gouvernator
2020-08-08, 16:15:04
Macht aktuell imo gar keinen Sinn die GPU für langfristig zu kaufen. Ampere und Big Navi sind maximal „Übergangs GPUs“ bis in ca. 1,5 Jahren die richtigen Eisen kommen.
Unter normalen Umständen. Aber jetzt sind Umstände völlig anders. Heute muss man davon ausgehen das die erste NextGen GPU auch die letzte wird. Wenn ein Land sich entscheidet den roten Knopf zu drücken. Ich werde nicht zögern und gleich die erste verfügbare Karte mit HDMI 2.1 mit min. 16Gb ordern sobald die verfügbar sind. Solche Hochtechnologie in solchen turbulenten und kriegerischen Zeiten könnte ganz schnell ganz rar werden. ;)
PS.
Die Nachfrage bzw. Verfügbarkeit sollte nicht so schlecht werden. Weil die Amerikaner zum Glück tief in der Geldnot stecken oder zumindest die Jüngen die sowas kaufen wollen. Weil die Kreditkarten ihre Limits durchgehend verringert haben z.b. von 20k --->3k.
rentex
2020-08-08, 16:54:38
Unter normalen Umständen. Aber jetzt sind Umstände völlig anders. Heute muss man davon ausgehen das die erste NextGen GPU auch die letzte wird. Wenn ein Land sich entscheidet den roten Knopf zu drücken. Ich werde nicht zögern und gleich die erste verfügbare Karte mit HDMI 2.1 mit min. 16Gb ordern sobald die verfügbar sind. Solche Hochtechnologie in solchen turbulenten und kriegerischen Zeiten könnte ganz schnell ganz rar werden. ;)
PS.
Die Nachfrage bzw. Verfügbarkeit sollte nicht so schlecht werden. Weil die Amerikaner zum Glück tief in der Geldnot stecken oder zumindest die Jüngen die sowas kaufen wollen. Weil die Kreditkarten ihre Limits durchgehend verringert haben z.b. von 20k --->3k.
Du bist somit der erste "Hardware Prepper":wink:
MiamiNice
2020-08-08, 17:21:45
Ob Gouvi wohl so ein russisches mini Akw im Garten hat?
Nazar
2020-08-08, 19:17:39
Aha. Wie genau soll AMD mit dem technischen Flop Navi auf 7nm schneller sein, wenn nVidia durch den Die-Shrink schonmal kostenlos nur Vorteile hat.
Bin wirklich begeistert, wie du und deine Genossen hier dauernd ignoriert, dass AMD schon auf 7nm ist und selbst gegen Pascal gefailt hat. Jetzt soll natürlich alles besser werden auf dem selben Prozess mit der selben Grundarchitektur gegen einen Konkurrent, der jetzt erst auf einem besseren Prozess wechselt.
Alleine deine Aussage, dass nVidia nur Vorteile alleine durch den Shrink haben soll, zeigt, dass du dich besser zu diesem Thema informieren solltest.
Dein persönlicher Angriff zeigt mir dann auch noch, dass du nicht offen für einen Diskurs sein wirst, deshalb lasse ich dir deine Meinung und wünsche dir noch viel Spaß. :wink:
Gouvernator
2020-08-08, 19:22:25
Du bist somit der erste "Hardware Prepper":wink:
Genau. Die Frage ist jetzt nur wie tief muss man bei NV für nennenswerte VRAM Größe in die Tasche greifen. Wenn das irgendwo bei 2k€ landet dann muss man gucken, ob nicht Big Navi mit 16GB 1k€ drin ist und den Rest legt man in neue CPU/Mainboard an. Statt gleich 2k€ für nur 24GB. Es sei denn 8K wird mit 24Gb wirklich durchgehend spielbar. Dann macht 16Gb Big Navi auch keinen Sinn mehr.
rentex
2020-08-08, 19:59:47
https://wccftech.com/exclusive-nvidia-ampere-graphics-cards-partial-specs-and-tentative-launch-schedule/
Was soll das bitte kosten?
Beim 2080Ti Nachfolger werden das sicher 1500€ aufwärts
Platos
2020-08-08, 20:18:20
https://abload.de/img/amperegerchtewccftechqokgu.png
Ich hab mal nen Screenshot gemacht. Bei wccftech hats grad so ne schöne Tabelle.
Aber dann sieht das wohl so aus, dass eine "3070" dann auch in 2 Speicherversionen verfügbar sein könnte/wird.
Die 60-er dann aber nicht? Wenn alles oberhalb ne grosse Speicherversion kriegt, dann wäre die 60-er dann irgendwie ziemlich unattraktiv.
Linmoum
2020-08-08, 20:23:00
Ich bin bei den Preisen ganz entspannt. Einfach, weil ich fest damit rechne, dass derjenige, der zuletzt launcht, dem anderen beim Preis ordentlich in die Suppe spucken wird.
Der eine will für den Top-Dog 1400€? Dann nimmt der andere halt nur 1100€. Ist zwar immer noch 2080Ti-Preisniveau, aber wirkt im Vergleich zum Konkurrenten wie ein Schnäppchen. Selbst damit wird man immer noch hohe Margen haben und gleichzeitig auch seine Karten los, so wie die Leute nach moar Performance gieren. ;)
ShinyMcShine
2020-08-08, 20:26:25
3070 Super/Ti mit 16GB! Yay! :ucatch:
Dafür warte ich auch ein wenig länger.
Ach ja: Und der Chip bitte nicht kastriert, sondern voll!
€: Ausgehend von der PG142-0 gibt es evtl. auch noch eine PG190-0 (3060Ti 8GB oder 3060 16GB) und eine 132-0 (das 48GB-Modell?)...
Birdman
2020-08-08, 20:47:35
2080S mit 10GB >> 2070S mit 16GB
Mit grosser Sicherheit auf Lebzeiten schneller als 2070S und günstiger...
Sehe keinen Sinn für die 0.01% künstlich aufgestellten Cornercases eine hypothetische 2070S mit 16GB zu nehmen
Platos
2020-08-08, 20:50:45
Du meinst 3080 und 3070. Das andere sind die Karten, die dadurch ersetzt werden.
Und das kommt auf den Preis der Karten an. Auf jeden Fall kriegt man eine 3080 mit 10GB sehr schnell voll (Rohleistung soll ja höher wie 2080ti sein und schon bei der 1080ti hat man ihre 11GB gut vollgekriegt. Also...)
Abgesehen davon hast du anscheinend die News von Leonidas zu HZD am PC nicht gesehen. Die 3080 wird da schon am 1. Tag ein "Krüppel" sein bzw. eben schlecht dimensioniert.
Birdman
2020-08-08, 20:52:50
Vollkriegen und daraus einen Vorteil ziehen sind aber zwei paar ganze verschiedene Schuhe.
Linmoum
2020-08-08, 20:55:50
2080S mit 10GB >> 2070S mit 16GBAktuell liegt der Performanceunterschied im Schnitt bei 10-15%. Für das bisschen 6GiB weniger Speicher, wenn es dann auch so kommen sollte? Ganz sicher nicht. So doof sind höchstens die 0815-MediaMarkt-Günthers.
Platos
2020-08-08, 21:04:27
Vollkriegen und daraus einen Vorteil ziehen sind aber zwei paar ganze verschiedene Schuhe.
Sehr klug, mit der Argumentation "brauchts nicht" kann man natürlich alles relativieren. Die unzähligen Beispiele, wo Modelle der Vergangenheit mit weniger Speicher abkacken trotz eigentlich noch brauchbarer Rohleistung, ist fast "endlos".
rentex
2020-08-08, 21:15:54
RT und DLSS werden die Speichermengen brauchen und da NV diese beiden Technologien durchdrücken möchte, wird der der Speicher eben gebraucht/genutzt.
BlacKi
2020-08-08, 21:57:35
dlss spart ram
Linmoum
2020-08-08, 22:06:40
dlss spart ramWird durch mehrfaches Wiederholen nicht richtiger. ;) Es ist schlicht nicht möglich, das pauschal mit "spart" oder "kostet" zu beantworten. Beides ist möglich.
Wer den Quervergleich der Benchmarkwerte wagt, erfährt außerdem, dass DLSS Speicher kostet, obwohl mit weniger Pixeln gearbeitet wird. Das lässt sich am ehesten herausfiltern, wenn man die Daten bei 24 RT-Cunks zwischen Ultra HD + DLSS mit nativem WQHD vergleicht. Ist DLSS aktiv, kommt eine Geforce RTX 2080 Ti in UHD auf keinen grünen Zweig mehr, die Performance ist infolge der großen Datenauslagerung völlig im Keller.https://www.pcgameshardware.de/Minecraft-Spiel-15576/Specials/Minecraft-RTX-Benchmark-Test-1348012/2/
y33H@
2020-08-08, 22:08:18
Ist das Minecraft spezifisch?
dlss spart ram
Allein die Logik spricht dagegen. AA kostet immer Performance und heftig an VRAM. Darum Upsampling incl einem gewissen SSAA-Part
Linmoum
2020-08-08, 22:59:16
https://wccftech.com/exclusive-nvidia-ampere-graphics-cards-partial-specs-and-tentative-launch-schedule/
Was soll das bitte kosten?
Beim 2080Ti Nachfolger werden das sicher 1500€ aufwärtsIgor sagt übrigens, dass er die Übersicht jemandem geschickt hat, der bei einem GPU-Hersteller arbeitet und dieser wiederum bestätigt hat, dass die Tabelle so stimmt.
bxUoyasqNNg
BlacKi
2020-08-08, 23:53:45
Allein die Logik spricht dagegen. AA kostet immer Performance und heftig an VRAM. Darum Upsampling incl einem gewissen SSAA-Part
dlss ist kein AA
MiamiNice
2020-08-09, 00:02:45
Wenn juckt schon AA. Nur Nachteile. DS ist Zauberwort, mal sehen wann NV das schnallt. Power, Power und nochmal Power, alles andere ist über wie ein Kropf.
BlacKi
2020-08-09, 01:06:53
@miami du bekommst nicht einfach die 2x power... wann raffst du das?
@dlss
ich hab hier die infiltrator demo, dort kann ich mit dlss bis zu 5-10% vram einsparen, gegenüber nativ und temporal AA. wenn minecraft da ein problem mit hat, muss man das nicht direkt auf dlss beziehen.
die aufnahme ruckelt leider, man sieht aber am graph das die fps in ordnung sind. bin mir nicht sicher warum die aufnahme ruckelt beim aufnehmen.
liegt sicher am hin und her switchen. in anderen games hab ich das ruckeln nicht.
ByMkrJAd5fc
Leonidas
2020-08-09, 04:35:50
Du hast doch selbst geschrieben das die nächsten Gen wahrscheinlich auf 5nm bei AMD kommt und das es sich NV kaum leisten können wird mit einem alten Prozess anzukommen. Wer da 1 und 1 zusammen zählt kann nur zu dem Schluss kommen das Ampere die letzte GPU ist mit der gemolken wird da AMD Druck macht. Ergo ist Ampere eine Übergangs GPU.
5nm oder ein Fullnode-Sprung bedeutet heutzutage eben nicht mehr, das es +100% gibt. Die Zeiten sind vorbei. TSMC haut die Fertigungsverfahren nach Zeitplan heraus, nicht nachdem die Verdopplung erreicht wurde. Sprich: Die Sprünge in der Fertigung werden kleiner, Fullnode bedeutet heutzutage +50-70%.
MiamiNice
2020-08-09, 09:09:14
Ja gut das wollte ich auch nicht sagen. NV produziert jetzt wohl in 10 und nennen es einen 8er. Wenn die nächstens Gens in 5 kommen sind das wie viel Nodes die übersprungen werden? Da sollte doch was zusammen kommen.
Thunderburne
2020-08-09, 09:27:22
Ja gut das wollte ich auch nicht sagen. NV produziert jetzt wohl in 10 und nennen es einen 8er. Wenn die nächstens Gens in 5 kommen sind das wie viel Nodes die übersprungen werden? Da sollte doch was zusammen kommen.
Warum sollte 5nm kommen ?
Mit 7nm+ TSMC in 2021 könnte nv noch mal 30-40% rausholen.
mironicus
2020-08-09, 09:42:09
Ich frage mich, wieviel teurer die Versionen mit doppelten Speicher sein werden. 200-300 Euro?
just4FunTA
2020-08-09, 09:50:32
Ich frage mich, wieviel teurer die Versionen mit doppelten Speicher sein werden. 200-300 Euro?
also wenn das jetzt wirklich so kommt wie es laut Tabelle aussieht wird das richtig Teuer das ganze.
Erst die zwei Speicherkrüppel:
RTX3070 mit 8gb für ~550€
RTX3080 mit 10gb für ~750€
Wenn man bedenkt das selbst das zutodeoptimierte Battlefield 5 wo man bloß nicht zu weit in die Ferne schauen darf wenn man nicht 2d Sprites (aka Bäume) sehen möchte schon die 8gb aktueller Grakas vollklatscht. Dann will ich nicht wissen wie sehr die Zukünftigen Spiele verkrüppelt werden wenn jetzt wieder so eine Speicherkrüppelgeneration kommt. :mad:
Und für die Refreshs mit doppelten Speicher 16gb & 20gb zahlst dann 500€ drauf oder wie? Ich hoffe wirklich die Tabelle ist Fake. Dann doch lieber rtx3070 & rtx 3080 mit jeweils 16gb und gut ist..
ChaosTM
2020-08-09, 09:52:56
3080er Speicherkrüppel wird auf jeden Fall mal bestellt und dann wieder retourniert.
Ein Monat testen bei Amazon ^^
edit.: irgendwie kann ich noch immer nicht an diese Zweiteilung glauben. Scheinbar haben die schon Karten fertig und wollen die nicht einstampfen.
Schaut a bissl nach Panikreaktion aus..
Dampf
2020-08-09, 10:39:11
Seid doch froh dass es überhaupt ne Version mit mehr VRAM geben wird (wenn die Tabelle stimmt). Dass es teuer wird, sollte jedem klar sein.
Gouvernator
2020-08-09, 10:49:06
Es darf halt nur nicht sein 1500€ für 3080 20Gb. Was durchaus möglich ist wenn Big Navi 999€ 16Gb kostet. NV könnte den Namen "Titan" von einer 3090 24Gb streichen, aber den Preis einer Titan dran lassen. ;D
Die echte Titan landet dann bei 5000€ was Huangs Strategie der letzten Jahre nur in die Hände spielt. Fünf Jahre später dann RTX 4090 für 5000€ und eine Titan für 10.000.
mironicus
2020-08-09, 11:00:34
Die wollen dich indirekt dazu zwingen, eine XBox zu kaufen. :)
MiamiNice
2020-08-09, 11:03:57
Warum sollte 5nm kommen ?
Mit 7nm+ TSMC in 2021 könnte nv noch mal 30-40% rausholen.
Weil AMD Druck macht?
also wenn das jetzt wirklich so kommt wie es laut Tabelle aussieht wird das richtig Teuer das ganze.
Erst die zwei Speicherkrüppel:
RTX3070 mit 8gb für ~550€
RTX3080 mit 10gb für ~750€
750 Bucks für ne 3080 mit 10Gb wären ULTRA günstig und nicht teuer. Die Karte wird imo 999 kosten. 750 für die 3070.
Slipknot79
2020-08-09, 11:11:53
Kann Lederjacke seine deep learing-KI eigentlich das Wetter für sein Präsentationdatum vorhersagen, so dass er an diesem Tag eine Lederjacke anziehen muss? Könnte mir schon vorstellen, dass das Präsentationdatum auf diese Art bestimmt wird. :redface:
just4FunTA
2020-08-09, 11:16:47
Weil AMD Druck macht?
750 Bucks für ne 3080 mit 10Gb wären ULTRA günstig und nicht teuer. Die Karte wird imo 999 kosten. 750 für die 3070.
red kein blech..
Grendizer
2020-08-09, 11:21:37
3070 wird bei 599 liegen, die 3080 mit 10 Gb bei 799.
Schnoesel
2020-08-09, 11:22:24
Gibst bei DLSS eigentlich Unterstützung jenseits von den gängigen Auflösungen wie FHD, 1440p und UHD? Was ist mit den ganzen 21:9 und 32:9 Formaten? Wenn es dei nicht gibt ist das Feature für mich absolut sinnlos.
ChaosTM
2020-08-09, 11:24:40
AMD kann jetzt gemütlich eine 32GB BigNavi Ultra planen..
NV hat ja die 48er Titan
Spannender Herbst
Dampf
2020-08-09, 11:27:02
Gibst bei DLSS eigentlich Unterstützung jenseits von den gängigen Auflösungen wie FHD, 1440p und UHD? Was ist mit den ganzen 21:9 und 32:9 Formaten? Wenn es dei nicht gibt ist das Feature für mich absolut sinnlos.
Ja, jede Auflösung geht. Ultra-Weit oder nicht spielt keine Rolle, solange es vom Game-Menü auch unterstützt wird!
Schnoesel
2020-08-09, 11:29:05
Interessant, da immer mit den gängigen Formaten getestet wird. Na mal sehen was uns die Hersteller dieses Jahr zu bieten haben.
BlacKi
2020-08-09, 11:29:48
Kann Lederjacke seine deep learing-KI eigentlich das Wetter für sein Präsentationdatum vorhersagen, so dass er an diesem Tag eine Lederjacke anziehen muss? Könnte mir schon vorstellen, dass das Präsentationdatum auf diese Art bestimmt wird. :redface:
vorhersagen? er kann das wetter bestimmen:biggrin:
https://www.spiegel.de/wissenschaft/natur/olympia-wetter-china-schiesst-auf-regenwolken-a-569361.html
Flusher
2020-08-09, 13:00:58
Ja, jede Auflösung geht. Ultra-Weit oder nicht spielt keine Rolle, solange es vom Game-Menü auch unterstützt wird!
Ich dachte das DLSS Training bei Nvidia wäre abhängig von der Auflösung bzw. muss das neuronale Netz mittels der Zielauflösung traininert werden
Sweepi
2020-08-09, 13:24:05
das ist eine der Änderungen bei DLSS 2.0 gewesen
davidzo
2020-08-09, 13:41:01
vorhersagen? er kann das wetter bestimmen:biggrin:
https://www.spiegel.de/wissenschaft/natur/olympia-wetter-china-schiesst-auf-regenwolken-a-569361.html
Pah, das ist die alte analoge Methode.
Es gibt da längst effizientere Wege: https://blogs.nvidia.com/blog/2017/12/03/nvidia-research-nips/
Dann ist egal in welchem Wetter das Event aufgenommen wird und was Jensen dabei an hat.
Wiedergegeben wird es einfach bei bestem Wetter und mit Lederjacke.
Ne, aber es stimmt echt dass es in Satan Clara / Mountain View so gut wie nie regnet und immer angenehm kühles aber nie kaltes Wetter ist. Das ist ja gerade das angenehme am Valley, was so viele Techfirmen dahin zieht. (Habt ihr euch nie gefragt wieso Boxed kühler immer so geringe Reserven haben;D?)
Ich war selbst eine weile da und auch im Januar-Februar ist es dort wie im Juni oder September bei uns und man hat über das ganze Jahr relativ konstante Temperaturen zwischen 16-18 und 22 Grad.
In SF hat man einen konstanten pazifischen Wind der es kühl und nicht selten neblig macht. Südlich davon, also bay und valley area hast du die pacific ranges und santa cruz mountains die den pazifischen Wind abhalten, nicht jedoch die Frische Luft und so die Härte herausnehmen die San Francisco ausmacht. Im Norden und Osten hast du dann die Devils mountains welche das kontinentale Klima und damit jegliche Regenwolken abhalten. Pflanzen wachsen überhaupt nur dort weil man den SF und Oakland Bay hat und dort Wasser abpumpt und den kleinen santa clara river im Valley. Der praktisch nicht existente Regen macht es auch zu einem hervorragenden Weinanbaugebiet.
Also kein Problem wenn man immer eine Lederjacke tragen möchte! Der Highway 1 von SF nach Norden ist der Traum eines jeden Bikers!
Flusher
2020-08-09, 13:54:53
das ist eine der Änderungen bei DLSS 2.0 gewesen
Upss, dann hab ich das wohl verpasst
Edgecrusher86
2020-08-09, 14:59:09
$799 MSRP bei der 3080 10GB wären wohl grob 950€ inkl. MwSt.
$599 MSRP für eine 3070 8GB sind um die 700€ inklusive MwSt.
Es ist doch eigentlich immer so, dass man bei HW 1:1 verrechnet.
Mal schauen, wie hoch der Aufpreis werden wird mit doppelt VRAM.
Ich tippe auf +200 bei der 80er und +150 für die 70er, sodass wir bei ~ 1200€ bzw. 850€ liegen könnten für die die "Super-Ersatz".
Mal sehen, was man bei der dicken Karte macht - nochmals als TITAN bringen für um die 3000€ oder als RTX 3090 für sicherlich 1750-2000€.
Entsprechend teure RTX 2080 Ti Custom hatten sich ja recht anständig verkauft - insofern wäre zumindest letzt genanntes Preissegment wohl zu rechtfertigen -
gerade wenn die Konkurrenz erst deutlich später kommt und mit vermutlich 50% weniger VRAM.
Mit Basis GP102 wird es schon ein netter Sprung sein - auch abseits RT. Zwischen +70-100% sollte man Mehrleistung haben in 4K je nach Titel - in der Mitte vermutlich um die +70-80% - wird massiv auf Compute gesetzt, entsprechend mehr.
An 2021er Refreshes mit 7nm+ TSMC glaube ich weniger. Das dürfte dann eher etwas für AMD werden, die ja nun größter Kunde sind (kleine RDNA2).
Aber es gäbe ja auch noch Samsungs 7LPP Prozess - auch EUV und sicherlich auch für GPUs zu gebrauchen; 1,5 Jahre nach dem Exynos 990.
Höchstens kommt 2021 noch ein voller GA100, sollte Arcturus eine Bedrohung werden - aber das mag vielleicht "nur" in N7P sein.
AffenJack
2020-08-09, 15:16:06
$799 MSRP bei der 3080 10GB wären wohl grob 950€ inkl. MwSt.
$599 MSRP für eine 3070 8GB sind um die 700€ inklusive MwSt.
Es ist doch eigentlich immer so, dass man bei HW 1:1 verrechnet.
Nein, es ist nie so. Man rechnet immer ziemlich genau den Dollarkurs um. Einzig die UVP ist manchmal ein wenig höher, aber auf dem Markt sind die Preise tendentiell sogar geringer als der US Preis, weil bei uns dank Preisvergleichen so ein Preiskampf herrscht bei den Händlern. Nur die FE, die es nur zu UVP Preisen hier gibt ist oft teurer.
Daher 799$ werden gerade auch 799€ bei uns, eher sogar weniger bei aktuellen Kursen.
Grendizer
2020-08-09, 15:23:35
Nein, es ist nie so. Man rechnet immer ziemlich genau den Dollarkurs um. Einzig die UVP ist manchmal ein wenig höher, aber auf dem Markt sind die Preise tendentiell sogar geringer als der US Preis, weil bei uns dank Preisvergleichen so ein Preiskampf herrscht bei den Händlern. Nur die FE, die es nur zu UVP Preisen hier gibt ist oft teurer.
Daher 799$ werden gerade auch 799€ bei uns, eher sogar weniger bei aktuellen Kursen.
Theoretisch müßten die 799 mit Dollarumrechung und 16% Mwst dann 787 Euro sein ... also schauen wir mal, wo wir rauskommen, bei 19% würden wir dann übrigens bei 809 Euro rauskommen.
Edgecrusher86
2020-08-09, 15:34:04
Bei der ersten TITAN kam das noch in etwa hin - MSRP war $999.
Hierzulande idR bei 950€.
TITAN Black dann auch wieder $999, aber hierzulande recht kurz nach Launch für "nur" 869€ zu haben.
Bei der Maxwell GTX TITAN X, auch unter anderem einem stärkeren Dollar geschuldet waren es immer noch $999, aber 1199-1299€ je nach AIB.
GTX 1080 FE -> $699 und 789€.
TITAN X (Pascal) war dann 1200 Dollar und zu Launch 1199€, später 1259€ glaube ich.
GTX 1080 Ti FE -> $699 und 819€.
Bei der 2080 Ti FE passte es auch -> $1199 und 1259€.
Die 2080 FE war aber dann entsprechend teurer -> $699 und 850€.
TITAN RTX für $2500 -> 2699€ zuerst, später dann hoch auf 2799€.
Leonidas
2020-08-09, 15:36:12
Ich plädiere für EUR/USD auf 1:1,60.
=Floi=
2020-08-09, 15:49:40
meine custom 2070S kostete 750€.
Ich gebe miami hier recht und ich persönlich denke man wird gezielt die großen karten teuer machen und den breiten markt mit den kleinen modellen bedienen.
Edgecrusher86
2020-08-09, 16:14:05
Wochenend-Spekulatius ist in - dieses mal wieder Moore's Law is Dead :
https://abload.de/img/2fkkey.png
https://abload.de/img/3k1kym.png
Quelle:
YT: The Next 2 Years of Graphics: Navi 2X, RDNA 3, Ampere, Hopper, Intel Xe (https://www.youtube.com/watch?v=nXeq2_P_O50)
y33H@
2020-08-09, 16:26:44
Aussagen wie "their arrogance delayed the launch" finde ich kurios.
Leonidas
2020-08-09, 16:30:35
Das mit dem "Quadro auf 7nm & GeForce auf 8nm" finde ich "lustig". Als würde NV zwei verschiedene Chips auflegen und als würde die Diskussion, was Chip und was Karte ist, nicht 20 Jahre hinter uns liegen.
Timbaloo
2020-08-09, 17:31:40
Was eine Ansammlung von Hirnfürzen das ist...
Ex3cut3r
2020-08-09, 17:54:34
Traue niemals irgendwem der ein kleines Anime Mädchen als Avatar hat. :freak:
Bullshit, und damit verdient er auch noch Geld. Vlt. sollte ich meinen Blödsinn auch mal zum besten geben. Vlt. werde ich damit zum Millionär wie diese YouTuber.
Unicous
2020-08-09, 18:04:27
https://steamuserimages-a.akamaihd.net/ugc/807678125593374785/04C48E740AE74FC406A4A209042602077316B172/
So gut wie alle Japaner und Chinesen sind Anime/Manga/whatever Fans, warum sollte man denen nicht wegen ihrem Avatar "trauen".:confused:
So eine dumme und ignorante Aussage.:freak:
Man sollte Youtubern nicht trauen, weil sie sämtlichen Scheiß den sie im Internet finden für voll nehmen und sofort zu einem 30-minütigen Vortrag verwursten.
Die angeführten Screenshot-Quellen hingegen haben in der Vergangenheit schon öfter richtig gelegen, sie wegen ihrem Avatar zu diskreditieren ist wie gesagt ziemlich einfältig.
dargo
2020-08-09, 19:16:22
Nein, es ist nie so. Man rechnet immer ziemlich genau den Dollarkurs um.
Klappt nur nicht überall. Eine 2080TI gibts nicht für 999€ (999$ UVP).
Edit:
https://6images.cgames.de/images/gamestar/4/nvidia-geforce-rtx-preise_6041705.jpg
genervt
2020-08-09, 19:44:20
Aussagen wie "their arrogance delayed the launch" finde ich kurios.
Kann sich eigentlich nur auf VRAM und Einschätzung Performance Target RDNA2 beziehen. evtl hat man sich verspekuliert und nun handfeste Infos zu den gegn. Karten so dass man noch kurzfristig umdisponieren muss.
monstar-x
2020-08-09, 20:49:13
$799 MSRP bei der 3080 10GB wären wohl grob 950€ inkl. MwSt.
$599 MSRP für eine 3070 8GB sind um die 700€ inklusive MwSt.
Es ist doch eigentlich immer so, dass man bei HW 1:1 verrechnet.
Sehe ich auch so
Mal sehen, was man bei der dicken Karte macht - nochmals als TITAN bringen für um die 3000€ oder als RTX 3090 für sicherlich 1750-2000€.
Entsprechend teure RTX 2080 Ti Custom hatten sich ja recht anständig verkauft -
Ja, meine ASUS ROG STRIX RTX 2080 Ti GAMING OC hat auch 1400€ gekostet.
TheGood
2020-08-09, 22:24:36
Ist doch gut wenn es beide VRAM Varianten gibt. So kann der Kunde entscheiden was er will. ES gibt sicher genügend denen der wenige RAM reicht und es gibt genügend die den groen Wollen. Somit hat man jede Diskussion den Wind aus den segeln genommen. Nur die Mehrpreis für mehr RAM darf man dann halt nicht betrachten.
Slipknot79
2020-08-09, 22:29:50
Alles qool, wenn Lederjacke 2GB von 12GB locked, dann locke ich meine Geldbörse bis nach big navi :redface:
Ne, unabhängig davon, locke ich meine Kohlen so oder so mal bis nach big navi, mal schauen was sich dann bei den Pricen tut. Cyberpunk kommt auch ned wirklich vorher, von daher alles qool. :wink:
BlacKi
2020-08-09, 22:51:01
Alles qool, wenn Lederjacke 2GB von 12GB locked, dann locke ich meine Geldbörse bis nach big navi :redface:
Ne, unabhängig davon, locke ich meine Kohlen so oder so mal bis nach big navi, mal schauen was sich dann bei den Pricen tut. Cyberpunk kommt auch ned wirklich vorher, von daher alles qool. :wink:
mach dich nicht lächerlich. das ding wird in der erstenwoche zerlegt und dann sieht man die 2gb extra auf dem board verbaut. und dann werden fragen gestellt.
das würde NV nie machen. nv hat davon auch nichts... warum sollten sie hw verbauen und dann deaktivieren? die kosten sind ausgegeben, etwas funktionstüchtiges vorhandenes zu deaktivieren macht keinen sinn...
im prinzip kann man das schon als fakt sehen, das die folie und der tuber nichts taugt.
Slipknot79
2020-08-09, 23:02:43
Wenn dann m8 sich Lederjacke lächerlich, ned ich ;)
Glaube der Tuber hat schon vorher nen feuchten-Traum-Folie vor 1-2 Monaten? rausgeballert afaik. Zumindest hatte die Folie den selben Style wie die aktuelle.
Flusher
2020-08-09, 23:04:35
Ich befürchte dass sich die bekloppten Cryptominer auf die Dinger stürzen werden bevor Big Navi im Handel erhältlich ist und so die Preise künstlich aufblähen werden bevor überhaupt ein Preiskampf entstehen kann. Weiss nicht ob man da zögern sollte
TheCounter
2020-08-09, 23:15:36
@Flusher: Das läuft doch fast alles nur noch über ASICs, da würde ich mir keine Sorgen machen.
Timbaloo
2020-08-09, 23:26:39
Wenn dann m8 sich Lederjacke lächerlich, ned ich ;)
Also bei deinem Schreibstil ist offensichtlich wer sich lächerlich macht.
Slipknot79
2020-08-10, 00:07:32
Es m8 sich nur jener lächerlich, der ein Problem damit hat. :wink:
reaperrr
2020-08-10, 00:48:01
die kosten sind ausgegeben, etwas funktionstüchtiges vorhandenes zu deaktivieren macht keinen sinn...
Es geht um die Testsamples und maximal vielleicht noch den ersten Batch Karten, um bei Bedarf noch kurzfristig die Specs für die Reviews ändern zu können.
Auf den (R)etail-Karten (spätestens ab der 2. Charge) würden die 2 Speicherchips bei 10 GB als endgültiger Spec natürlich fehlen, man will die Karten zum angepeilten Preis schließlich so billig wie möglich produzieren können, zumal sicher ein paar GA102 ein teildefektes SI haben werden und ein 320bit SI bei der 3080 auch die Ausbeute etwas erhöhen würde.
Von daher halte ich die Gerüchte schon für plausibel: NV würde die 3080 eigentlich am liebsten nur mit 320bit SI und 10GB launchen, kriegt aber langsam Schiss, dass AMD's Top-Modell mehr Speed und 16GB, und der Salvage ähnlichen Speed und mindestens 12GB bietet. Dann müsste NV den Preis senken, und die Einsparung durch das beschnittene SI und die eingesparten Speicherchips wäre futsch.
Nazar
2020-08-10, 00:48:32
Kann sich eigentlich nur auf VRAM und Einschätzung Performance Target RDNA2 beziehen. evtl hat man sich verspekuliert und nun handfeste Infos zu den gegn. Karten so dass man noch kurzfristig umdisponieren muss.
Bei dieser Aussage geht es um die Preisverhandlungen und das nVidia TSMC hingehalten haben soll und diese haben schließlich immer mehr Kapazitäten an andere verkauft und als nVidia endlich doch zuschlagen wollte, waren nicht ausreichend Kapazitäten vorhanden, um genügend Karten mit 7nm produzieren zu lassen.
Das ist mit der Arroganz von nVidia gemeint, dass sie denken, jeder würde nur darauf warten um mit und/oder für sie arbeiten zu "dürfen".
Sie haben es verkackt und das führt auch zum nächsten Punkt, dass das eigentliche Design für den 7nm Prozess gedacht war und weil man nun auf 8nm gehen musste, gibt es angeblich große Probleme mit der Leistungsaufnahme (angeblich schon 300W mit Standardtaktung).
Und das alles führt zu der Spekulation, dass nVidia sehr wahrscheinlich bis Mitte nächsten Jahres einen 7nm "Refresh", eigentlich das was Ampere schon jetzt sein sollte, als "Super Serie" bringen wird.
So zumindest haben es ein paar andere und ich verstanden. :wink:
reaperrr
2020-08-10, 00:57:36
Das ist mit der Arroganz von nVidia gemeint, dass sie denken, jeder würde nur darauf warten um mit und/oder für sie arbeiten zu "dürfen".
Mal abgesehen davon, dass NV immer die anderen die Drecksarbeit machen lässt, wenn es um Debugging und Optimierung von Prozessen in frühem Stadium geht. Die Early-Adopter von N7 (inkl. AMD) haben bei TSMC natürlich dann auch einen kleinen Bonus, weil sie TSMC geholfen haben den Prozess schneller reif für die Massenproduktion zu machen und zudem die R&D mitfinanziert haben.
Nvidia wollten sich wie bei 16FF+ ins gemachte Nest setzen und haben unterschätzt, in welchem Umfang die anderen bereit waren beim Nestbau mitzuhelfen, wenn sie dafür einen festen Platz im Nest bekommen.
MiamiNice
2020-08-10, 01:02:52
Wenn NV nächstes Jahr einen Super Refresh von Ampere releasen sollte, werden sich wohl einige beschweren. Vor allem wenn die Preise derart hoch sind wie angenommen. Eigentlich müsste NV die Fehlkonstruktion 8nm Ampere zum selbstkosten Preis verschwerbeln um irgendwie sauber aus der Nummer zu kommen.
Verstehe auch nicht wirklich warum zumindest nicht die Top Gamer Modelle direkt auf 7 kommen. So viele werden davon doch wohl kaum über den Tisch gehen.
Wenn das alles so kommt/ist wie spekuliert kann NV nur Ansehen und Ruf verlieren. Und das gerade unter der Kundschaft die bereit ist weit über 1k auf den Tisch zu legen.
Leonidas
2020-08-10, 04:08:34
So gut wie alle Japaner und Chinesen sind Anime/Manga/whatever Fans, warum sollte man denen nicht wegen ihrem Avatar "trauen".:confused:
Kann ich nur voll zustimmen. Aus dieser kulturuellen Differenz ist 0,0 etwas herauszulesen.
Wenn NV nächstes Jahr einen Super Refresh von Ampere releasen sollte,
Sehe ich nicht mehr. War ja eh nur ein Gerücht, zudem nicht gerade von soliden Quellen. Warum nicht:
- kostet bannig Geld
- Mehrspeicher gibt es nun ja auch initial
- die hohen Verbräuche zeigen eher darauf hin, das es NV nunmehr auch mit der 8nm-Gen wissen will
Nebenbei: Bislang hat NV in jüngerer Zeit niemals einen Refresh in besserer Fertigung aufgelegt. Immer nur neue Lösungen auf Basis der bekannten Chips, nie aber wirklich neue Chips.
Edgecrusher86
2020-08-10, 05:24:39
So etwas gab es zuletzt 2008.
Juni die GTX 280 in 65nm mit 602/1296/1107 MHz bei 236W TDP und im Dezember die GTX 285 mit 648/1476/1242 MHz und 204W TDP, wobei erstere $649 MSRP und letztere $359 MSRP hatte.
Geschwindigkeitsunterschied grobe 10%.
Einziger Wermutstropfen war dann auch, dass man z.b. analoge SpaWas verbaute - zuvor konnte man ja auch noch die VRM-Temps auslesen und zudem auch entsprechend per NiBiTor auch per Custom BIOS an der Spannung drehen. Einzige die erste GTX 295 (Dual-PCB) hatte dieses Feature noch trotz 55nm Fertigung. UV bei Standardtakt der genannten GTX 295 brachte mir um die 7-10 Grad auf GPU Seite und bis zu 15 Grad bei den Wandlern gegenüber dem Ausgangswert. :D
Nazar
2020-08-10, 07:29:36
Sehe ich nicht mehr. War ja eh nur ein Gerücht, zudem nicht gerade von soliden Quellen. Warum nicht:
- kostet bannig Geld
- Mehrspeicher gibt es nun ja auch initial
- die hohen Verbräuche zeigen eher darauf hin, das es NV nunmehr auch mit der 8nm-Gen wissen will
Nebenbei: Bislang hat NV in jüngerer Zeit niemals einen Refresh in besserer Fertigung aufgelegt. Immer nur neue Lösungen auf Basis der bekannten Chips, nie aber wirklich neue Chips.
Die Aussage mit den hohen Verbräuchen verstehe ich nicht. :confused:
Es ist ja nicht so, dass der 8nm Prozess freiwillig gewählt wurde, sondern gewählt werden musste.
Wenn sie schon 7nm Samples haben sollten, dann wäre es unlogisch ein schlechtes 8nm Design weiter zu verfeinern.
Nur wenn AMD nicht liefert, könnte sich nVidia ausruhen.
Schafft es AMD gleichzuziehen, glaube ich kaum, dass nVidia mehr Zeit in ein "schlechtes" 8nm Design stecken wird, um die "Krone" zu behalten und angeblich hat nVidia kaum Luft, um -wenn nötig- reagieren zu können.
Und nur weil früher etwas noch nie passiert ist, heißt es ja nicht, dass es nicht irgendwann doch passieren kann. :wink:
Rampage 2
2020-08-10, 07:54:56
Weil AMD Druck macht?
750 Bucks für ne 3080 mit 10Gb wären ULTRA günstig und nicht teuer. Die Karte wird imo 999 kosten. 750 für die 3070.
Bist du des Wahns? Das ist totaler BS was du da schreibst;)
Die 1080 war schon zu teuer gewesen (zu Release; die 1080 Ti war i.O.), die 2080 noch teurer und die 2080Ti irrsinnig teuer. Und bei Turing (2070, 2080, 2080Ti) gab es wenigstens noch einen kausalen Vorwand für die Mondpreise: die riesigen Die-Größen.
Bei Ampere ist das nicht mehr der Fall:
1. : die Die-Größe von GA102 ist nur ein bisschen größer als bei Maxwell/GM200.
2. : der verwendete Prozess (8nm) sollte ziemlich günstig sein, da kein Fullnode-Sprung.
3. : die Leistungssteigerung soll, wie bei Turing, wieder eher mau ausfallen.
4. : AMD ist wieder im Geschäft.
Unter solchen Bedingungen kann Nvidia die Preise gar nicht erhöhen. Überhaupt tut Nvidia gut daran, die Mondpreise von Turing wieder etwas zu senken:
3070 Ti 8GB: 499$
3070 Ti 16GB: 599/699$
3080 10GB: 599$
3080 20GB: 699/799$
3080 Ti 22GB: 999$
3090 24GB (GA102-Vollausbau): 1499$
Titan: 2499$
R2
Kimi2003
2020-08-10, 08:08:20
Wenn die Preise dann halbwegs 1:1 in Euro wären, würde ich direkt bei einer 3080ti oder 3080 10GB zuschlagen. Das sollte ne Weile langen für WQHD
MiamiNice
2020-08-10, 08:45:28
Bist du des Wahns? Das ist totaler BS was du da schreibst;)
Die 1080 war schon zu teuer gewesen (zu Release; die 1080 Ti war i.O.), die 2080 noch teurer und die 2080Ti irrsinnig teuer. Und bei Turing (2070, 2080, 2080Ti) gab es wenigstens noch einen kausalen Vorwand für die Mondpreise: die riesigen Die-Größen.
Bei Ampere ist das nicht mehr der Fall:
1. : die Die-Größe von GA102 ist nur ein bisschen größer als bei Maxwell/GM200.
2. : der verwendete Prozess (8nm) sollte ziemlich günstig sein, da kein Fullnode-Sprung.
3. : die Leistungssteigerung soll, wie bei Turing, wieder eher mau ausfallen.
4. : AMD ist wieder im Geschäft.
Unter solchen Bedingungen kann Nvidia die Preise gar nicht erhöhen. Überhaupt tut Nvidia gut daran, die Mondpreise von Turing wieder etwas zu senken:
3070 Ti 8GB: 499$
3070 Ti 16GB: 599/699$
3080 10GB: 599$
3080 20GB: 699/799$
3080 Ti 22GB: 999$
3090 24GB (GA102-Vollausbau): 1499$
Titan: 2499$
R2
Die Preise wären wirklich schön. Allerdings, wann wurde etwas mal günstiger nachdem sich die Preise etabliert hatten? Durch den Wegfall der Titan für Endkunden kann das komplette Lineup eines nach oben rutschen. Die 3090 ist die neue Titan, eventuell bekommt die auch noch einen neuen fancy Namen. Die 3080 wird das was vorher die TI gewesen ist und die 3070 wird die neue 3080 usw. usf. Was Du schreibst klingt sehr logisch aber seit wann sind Preise logisch? Es wird imo genommen was gezahlt wird. Bei den Preisen da oben würde ich direkt bei der 3090 zuschlagen. Wäre zu schön um wahr zu sein.
horn 12
2020-08-10, 08:58:46
Mit der RTX 3080 20 GB kanibalisiert sich NV doch die RTX 3090 (3080TI)
von selbst mit Ihren 24 GB und vielleicht 15% Mehrperformance.
Dass dies von Haus aus anfangs nicht gewollt war/ ist versteht sich von selbst.
Somit schneidet sich Nvidia in Eigene Fleisch und dies werden auch die Tests der 20 GB Karte aufzeigen,- und mal sehen wieviel davon schlussendlich mal releast werden.
Rechne dies wird vor Allem nur genutzt werden um AMD etwas entgegensetzen zu können,-
TobiWahnKenobi
2020-08-10, 09:04:49
bin gespannt, wie schnell die im shop bei NV auftauchen.. 1-2 stück werde ich auf jeden fall bestellen.
(..)
mfg
tobi
WedgeAntilles
2020-08-10, 09:39:24
Bist du des Wahns? Das ist totaler BS was du da schreibst;)
Die 1080 war schon zu teuer gewesen (zu Release; die 1080 Ti war i.O.), die 2080 noch teurer und die 2080Ti irrsinnig teuer. Und bei Turing (2070, 2080, 2080Ti) gab es wenigstens noch einen kausalen Vorwand für die Mondpreise: die riesigen Die-Größen.
Bei Ampere ist das nicht mehr der Fall:
1. : die Die-Größe von GA102 ist nur ein bisschen größer als bei Maxwell/GM200.
2. : der verwendete Prozess (8nm) sollte ziemlich günstig sein, da kein Fullnode-Sprung.
3. : die Leistungssteigerung soll, wie bei Turing, wieder eher mau ausfallen.
4. : AMD ist wieder im Geschäft.
Unter solchen Bedingungen kann Nvidia die Preise gar nicht erhöhen. Überhaupt tut Nvidia gut daran, die Mondpreise von Turing wieder etwas zu senken:
3070 Ti 8GB: 499$
3070 Ti 16GB: 599/699$
3080 10GB: 599$
3080 20GB: 699/799$
3080 Ti 22GB: 999$
3090 24GB (GA102-Vollausbau): 1499$
Titan: 2499$
R2
Vor einem halben Jahr habe ich noch gehofft, dass die Preise tatsächlich niedriger werden.
Für mich gab es nämlcih noch den Punkt: Neue Konsolen.
Kann man wirklich Mittelklasse GraKas (3070) für einen höheren Preis verkaufen, als eine neue Konsole kostet?
Leider deuten aber alle offiziellen Aussagen in den letzten Wochen auf das Gegenteil hin.
Nvidia hat doch schon gesagt, dass Mining zu höherer Nachfrage führt.
Sie haben zwar nicht genau gesagt, dass es teurer wird - aber wenn man betont wie groß die Nachfrage wegen Mining sein werde, dann bereitet man doch hier schon mal alles für eine Preiserhöhung vor.
Und AMD hat ebenfalls schon gesagt, dass sie eine höhere Marge wollen. AMD wird sich einfach an die Preise von Nvidia dran hängen. Da dann 10% runter, dass man das Image der "günstigeren Alternative" behält.
Daher bin ich da leider bei Miami und halte deutlich höhere Preise für quasi sicher.
Ich hoffe natürlich sehr, dass ich mich täusche und du recht hast - schließlich ist meine GTX 970 nicht mehr neu und für Cyberpunk soll neue Hardware her.
Aber ich fürchte du kannst da locker 200-300 Dollar für die 3070TI/3080 drauf schlagen.
Bei den Topkarten eher noch mehr.
Ich bin wirklich sehr gespannt, wann wir endlich genaue Preise erfahren.
Horn12: Ja, ich denke wir Spieler verdanken es ganz klar AMD, dass Nvidia bei der Speicherbestückung Wahlmöglichkeiten geben wird.
Releast werden diese alternativen Speicherbstückungen auf jeden Fall genug - denn wenn diese Karten nicht lieferbar wären sondern nur auf dem Papier existieren, würden die User ja doch auf AMD gehen.
Somit bräuchte Nvidia die Karten gar nicht releasen.
Damit will ich nicht sagen, dass alle Karten gleich von Anfang an in großen Stückzuahlen lieferbar sind.
Bestimmt nicht, das ist bei neuer Hardware ja häufig so.
Und gerade am Anfang wird Nvidia bestimmt auch erstmal etwas "fühlen" müssen, wie groß der Bedarf an den einzelnen Karten ist.
Aber innerhalb von ein paar Wochen hat sich das eingependelt.
Und falls z.B. die 20GB Version deutlich gefragter sein wird als die 10GB Variante, wird die Produktion der 20GB Variante auch stark hochgefahren.
Leonidas
2020-08-10, 09:47:48
Die Aussage mit den hohen Verbräuchen verstehe ich nicht. :confused:
Hoher Verbrauch = es wird alles herausgeprügelt, was geht = weniger Spielraum für einen Refresh.
Hakim
2020-08-10, 09:49:12
Ich finde es gut dss man die Auswahl der Speichergröße dem Kunden überlässt, wenn es den so kommt. Lang ist es her. Mir persönlich würde aber vermutlich eine 10gb Karte ausreichen. Bin mal auf den Preis der 3080 mit 10gb gespannt. Wird aber bei mir vermutlich ne 60/70er Karte. Hauptsache cyberpunk läuft auf WQHD vernünftig.
pixeljetstream
2020-08-10, 09:54:55
Ich bin wirklich sehr gespannt, wann wir endlich genaue Preise erfahren.
Das ist so ziemlich das was wirklich ganz kurz vor Schluss entschieden wird, daher wird das der Launch Tag sein.
Thunder99
2020-08-10, 10:08:28
Bei der anzunehmenden Performance Frage ich mich ob Mann mittlerweile an der Grenze ist für Steigerungen.
Müssen neue Ansätze her damit man wieder pro Generation 70-100% schafft? Ist die derzeitige Technologie nahezu am Ende?
ChaosTM
2020-08-10, 10:11:36
@ Wedge - Nvidias (überzogener) Aktienkurs hängt zu einem großen Teil an den riesigen Gewinnmargen. Deshalb wird der Markt für Grakas, speziell der Mittel und Niedrig- preisigen für die immer unattraktiver.
Die High-Endischen Karten werden garantiert teuerer - bis der Kunde mal spricht, aber das passiert nicht weil wir größtenteils Konsum-Idioten sind - nehme mich da nicht aus - 3080ti haben muss/will ;)
MiamiNice
2020-08-10, 10:25:52
Nvidias (überzogener) Aktienkurs hängt zu einem großen Teil an den riesigen Gewinnmargen. Deshalb wird der Markt für Grakas, speziell der Mittel und Niedrig- preisigen für die immer unattraktiver.
Was man meiner Meinung nach auch stark an den Produkten merkt. NV hat nicht mehr das Interesse an den Spielern, meiner Meinung nach. Deswegen wird es mal Zeit das wir alle AMD kaufen, denn aktuell machen wir Gamer noch 40-50% der Gesamteinnahmen von NV aus. Wenn die wegbrechen wird NV das merken.
Lasst uns den Ampere Boykott ausrufen (hah wäre das schön wenn die Welt so funktionieren würde).
rentex
2020-08-10, 10:37:49
Hoher Verbrauch = es wird alles herausgeprügelt, was geht = weniger Spielraum für einen Refresh.
Genau. Der 8nm Prozess könnte schon am oberen Ende operieren.
Ein Switch auf 7nm (TSMC) zum späteren Zeitpunkt, sehe ich eher kritisch entgegen.
pixeljetstream
2020-08-10, 10:54:45
@ Wedge - Nvidias (überzogener) Aktienkurs hängt zu einem großen Teil an den riesigen Gewinnmargen. Deshalb wird der Markt für Grakas, speziell der Mittel und Niedrig- preisigen für die immer unattraktiver.
Die High-Endischen Karten werden garantiert teuerer - bis der Kunde mal spricht, aber das passiert nicht weil wir größtenteils Konsum-Idioten sind - nehme mich da nicht aus - 3080ti haben muss/will ;)
wir haben eigentlich nen extra thread hier für Business Diskussion.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12384013#post12384013
Ein Switch auf 7nm (TSMC) zum späteren Zeitpunkt, sehe ich eher kritisch entgegen.
Aber einen "Switch" auf die (vermutlich ursprünglich geplanten) 7nm von Samsung
halte ich für wahrscheinlich. (für den Refresh)
Den wird es dann eben auch nochmal für einen "Dumpingpreis" für NV geben.
Reicht doch wenn 7nm "drauf stehen". Von Wo, interessiert die Wenigsten...
M.f.G. JVC
Linmoum
2020-08-10, 11:00:14
Dann hätte NV GA100 auch bei Samsung fertigen lassen können. Tun sie aber nicht, sondern nutzen stattdessen TSMC N7. Massenproduktion läuft bei Samsung seit Ende 2018, das wäre in der Hinsicht zeitlich also kein Problem gewesen.
Davon ab wird es Nvidia nicht interessieren, was auf der Packung oder sonstwo steht.
Piefkee
2020-08-10, 12:30:07
Dann hätte NV GA100 auch bei Samsung fertigen lassen können. Tun sie aber nicht, sondern nutzen stattdessen TSMC N7. Massenproduktion läuft bei Samsung seit Ende 2018, das wäre in der Hinsicht zeitlich also kein Problem gewesen.
Davon ab wird es Nvidia nicht interessieren, was auf der Packung oder sonstwo steht.
Naja Massenproduktion von Samsung 7nm ist halt so ein großes Fragezeichen. Nicht ohne Grund ist Samsung der einzige Kunde von Samsung 7nm :freak:
Troyan
2020-08-10, 12:55:20
7nm bei Samsung wird seit letztem Jahr produziert. Deswegen kommt A100 auch von TSMC wegen DUV.
Linmoum
2020-08-10, 13:01:34
7nm bei Samsung wird seit letztem Jahr produziert.
Nein, seit Oktober 2018: Samsung Electronics, a world leader in advanced semiconductor technology, today announced that it has completed all process technology development and has started wafer production of its revolutionary process node, 7LPP, the 7-nanometer (nm) LPP (Low Power Plus) with extreme ultraviolet (EUV) lithography technology.https://news.samsung.com/global/samsung-electronics-starts-production-of-euv-based-7nm-lpp-process
Es hätte zeitlich also problemlos gepasst, auch für GA100. NV wird seine Gründe dafür haben, warum sie dort TSMC N7 nutzen und bei Gaming-Ampere nach aktueller Gerüchtelage nur Samsungs 8nm.
Piefkee
2020-08-10, 13:03:07
7nm bei Samsung wird seit letztem Jahr produziert. Deswegen kommt A100 auch von TSMC wegen DUV.
Deshalb meinte ich ja das Samsung einziger Kunde von Samsung 7nm ist da laut gerüchten der yield so schlecht ist das man das ding nicht verkaufen kann..
https://www.reddit.com/r/AMD_Stock/comments/eds0am/rumour_samsung_7nm_yield_30/
- Samsung one gen behind TSMC in process technology, hard to catch up.
- 7nm yield <30%, not commercially viable.
Troyan
2020-08-10, 15:11:13
And so it has begun: https://twitter.com/NVIDIAGeForce
dildo4u
2020-08-10, 15:17:17
Laut dem gibt es am 31.8 Infos, könnte passen wenn der 9.9 Verkaufsstart ist.
rentex
2020-08-10, 15:25:00
Laut dem gibt es am 31.8 Infos, könnte passen wenn der 9.9 Verkaufsstart ist.
Wo steht das denn?
dildo4u
2020-08-10, 15:25:42
Nvidia Twitter ganz oben.
Troyan
2020-08-10, 15:32:47
31.08.1999 kam die Geforce 256 SDR auf dem Markt.
rentex
2020-08-10, 15:37:39
Nvidia Twitter ganz oben.
21 Days, 21 Years?!
31.08.2041?! ;-D
Linmoum
2020-08-10, 15:41:19
31.08.1999 kam die Geforce 256 SDR auf dem Markt.Korrektur: Sie wurde nur vorgestellt, Release war erst im Oktober.
Jetzt dürfen sich findige Nutzer an potentielle Parallelen ranmachen. Oder das ist einfach just4fun von NV.
Digidi
2020-08-10, 16:07:11
Na ja die 256 war die erste mit T&L, was damals Revolutionär war.
Ich frage mich was nach RT noch kommen soll? Eine komplett neue GPU Pipe Line?
Die neuen Karten werden in 21 Tagen ja wohl auch erst vorgestellt.
TheAntitheist
2020-08-10, 16:20:33
Na ja die 256 war die erste mit T&L, was damals Revolutionär war.
Ich frage mich was nach RT noch kommen soll? Eine komplett neue GPU Pipe Line?
Die neuen Karten werden in 21 Tagen ja wohl auch erst vorgestellt.
RT/Pathtracing war immer das Ziel. Damit kannst du ohne Kompromisse alles machen (ausser dem offensichtlichen Performance Problem).
Höchstens bekommen wir noch ein anderes Textursystem ohne UV's und dafür Ptex, das könnte noch Hardware brauchen.
Natürlich werden wir noch mindestens 8-12 Jahre ein Mix aus Rasterizer und Raytracing haben.
pixeljetstream
2020-08-10, 16:47:05
Ein neues Hardware Textur Sampling für ptex Zeug kam schon mit Turing.
Hauwech
2020-08-10, 16:58:40
Deshalb meinte ich ja das Samsung einziger Kunde von Samsung 7nm ist da laut gerüchten der yield so schlecht ist das man das ding nicht verkaufen kann..
https://www.reddit.com/r/AMD_Stock/comments/eds0am/rumour_samsung_7nm_yield_30/
Die Meldung ist 7 1/2 Monate alt. Kann also gut sein das es sich seitdem stark verbessert hat.
crux2005
2020-08-10, 17:47:42
21 Days, 21 Years?!
31.08.2041?! ;-D
Look back before looking forward.
rentex
2020-08-10, 17:58:50
Es war ein Witz...
crux2005
2020-08-10, 18:35:17
Es war ein Witz...
OK. :)
Bin überrascht das sie noch im August etwas preisgeben wollen. Hoffentlich ist der Release nicht wie mit GeForce 256 erst ~1 Monate später.
TheAntitheist
2020-08-10, 18:40:41
Ein neues Hardware Textur Sampling für ptex Zeug kam schon mit Turing.
Ja ich weiß, da haben wir mal drüber geredet. Es nutzt aber erstens kein Spiel und ich kenn auch keine engine damit. Denke die performance wird eben deutlich schlechter sein damit, das wollte ich sagen. Technisch möglich aber performanceverschwendung.
Linmoum
2020-08-10, 18:43:39
Bin überrascht das sie noch im August etwas preisgeben wollen. Hoffentlich ist der Release nicht wie mit GeForce 256 erst ~1 Monate später.Bei Turing hat's auch einen Monat bis nach der offiziellen Vorstellung mit dem Launch gedauert. Ich tippe auf innerhalb der letzten beiden Septemberwochen.
BlacKi
2020-08-10, 18:49:22
sieht so aus als würde der plan passen den igor mit quellen bestätigt hat. demnach käme die 3080 10gb als erstes.
OK. :)
Bin überrascht das sie noch im August etwas preisgeben wollen. Hoffentlich ist der Release nicht wie mit GeForce 256 erst ~1 Monate später.
das war die ganze zeit so zu erwarten.
Slipknot79
2020-08-10, 18:54:03
Realistischerweise 31 Sept. :redface:
Adam D.
2020-08-10, 18:54:11
Update: Oh and btw 256 (from GeForce 256) into 21 (years) is 5376. The leaked core count of NVIDIA's upcoming GA102 GPU.
;D
BiZiNiZz
2020-08-10, 18:57:19
;D
Nicht nur das, auch solche Sachen wie 5+3+7+6=21 läßt sich die Community gerade einfallen. Oder Spekulationen, dass man am 12.9 Vorbestellen kann, bzw Release ist, das wäre der 256 Tag des Jahres :freak:
rentex
2020-08-10, 19:00:22
Alu Hut Fan Boys;D
BlacKi
2020-08-10, 19:01:39
leute, der wink zur geforce 256 bestätigt den KO prozessor!
"Das Hauptmerkmal der GeForce-256-Serie ist aber die neu hinzugekommene Transform-and-Lighting-Einheit (T&L), eine Art spezialisierter, integrierter Koprozessor"
:deal:
Ravenhearth
2020-08-10, 19:04:02
5+3+7+6=21
2+1=3
Half-Life 3 confirmed :eek:
BiZiNiZz
2020-08-10, 19:04:09
leute, der wink zur geforce 256 bestätigt den KO prozessor!
"Das Hauptmerkmal der GeForce-256-Serie ist aber die neu hinzugekommene Transform-and-Lighting-Einheit (T&L), eine Art spezialisierter, integrierter Koprozessor"
:deal:
Spin das mal weiter, und der "KO-Prozessor" wäre der IO Chip;D
rentex
2020-08-10, 19:05:17
;D;D;D
mironicus
2020-08-10, 20:27:16
Also ich finde eine RTX 3080 mit 10 GB bzw. 20 GB ziemlich unausgewogen. Das erstere erscheint zu wenig und das zweitere wieder zuviel.
Gipsel
2020-08-10, 20:37:57
Wir brauchen die eigentlich spezifizierten 12Gbit-Chips! Damit könnte man an 320Bit (10 Chips) 15 GB bekommen (18GB an 384bit oder auch 12GB an 256bit). Die stellt nur bisher keiner her.
Also ich finde eine RTX 3080 mit 10 GB bzw. 20 GB ziemlich unausgewogen.
Geht mir auch so. Befürchte es könnte weniger technisch begründet sein sondern vielmehr eine zu späte Reaktion auf den Wettbewerb.
mboeller
2020-08-10, 20:55:13
Also ich finde eine RTX 3080 mit 10 GB bzw. 20 GB ziemlich unausgewogen. Das erstere erscheint zu wenig und das zweitere wieder zuviel.
wieso? Ich finde es gut. Zeigt doch, dass Big Navi wirklich so schnell ist wie die 3080, ansonsten würde Nvidia nicht so reagieren. 3080-10GB + 10% schneller als Big Navi ... und Nvidia würde nicht reagieren. Nur weil Big Navi anscheinend min. genauso schnell ist wie eine 3080 reagiert Nvidia jetzt so. Mehr Möglichkeiten haben sie anscheinend nicht.
Linmoum
2020-08-10, 21:11:56
Das ergibt aber keinen Sinn, dafür hätte NV schließlich immer noch die schnellere 3080Ti/wieauchimmerdasdingheißt.
mboeller
2020-08-10, 21:34:31
Das ergibt aber keinen Sinn, dafür hätte NV schließlich immer noch die schnellere 3080Ti/wieauchimmerdasdingheißt.
zu meinst die 3090? Eine Karte für >>1500,- Euro ist eigentlich keine direkte Konkurrenz.
wieso? Ich finde es gut. Zeigt doch, dass Big Navi wirklich so schnell ist wie die 3080, ansonsten würde Nvidia nicht so reagieren. 3080-10GB + 10% schneller als Big Navi ... und Nvidia würde nicht reagieren. Nur weil Big Navi anscheinend min. genauso schnell ist wie eine 3080 reagiert Nvidia jetzt so. Mehr Möglichkeiten haben sie anscheinend nicht.
Wenn du so argumentierst, warum zieht NV vom Performance-Segment bis Enthusiast alles nach oben?
Linmoum
2020-08-10, 22:34:59
zu meinst die 3090? Eine Karte für >>1500,- Euro ist eigentlich keine direkte Konkurrenz.Ich bleib beim aktuellen Namensschema, daher nenne ich das oberhalb der möglichen 3080 einfach Ti. Zumal das ja intern selbst bei NV scheinbar noch nicht final feststeht.
Sofern es NV nicht wie bei der 1060 handhabt, wird die 3080 nur durch den doppelten Speicher ja nicht noch schneller und egalisiert einen potentiellen Performancenachteil. Es wäre halt nur mehr Speicher, das macht den Balken in Reviews aber nicht länger, dafür den bei Preis/Leistung kürzer. Nah, den Speicher verdoppeln nur weil die Konkurrenz womöglich etwas schneller dort ist ergibt keinen Sinn, da man in dem Fall immer noch mit der 24GiB SKU die Performancekrone hätte.
Und für 10GiB mehr Speicher verlangt man bestimmt auch nicht nur 50€ mehr. Irgendeinen Grund dafür wird es geben, zumal man es ja noch eine SKU weiter drunter mit 8/16GiB ähnlich handhaben wird. Wir dürften uns auf jeden Fall einig dahingehend sein, dass das nicht einfach nur netter Fan-Service ist.
crux2005
2020-08-10, 23:51:17
Und für 10GiB mehr Speicher verlangt man bestimmt auch nicht nur 50€ mehr. Irgendeinen Grund dafür wird es geben, zumal man es ja noch eine SKU weiter drunter mit 8/16GiB ähnlich handhaben wird. Wir dürften uns auf jeden Fall einig dahingehend sein, dass das nicht einfach nur netter Fan-Service ist.
NV will keine Emails mehr von der PCGH Redaktion bezüglich VRAM bekommen. ;D ;D
Edgecrusher86
2020-08-11, 05:29:50
NV will keine Emails mehr von der PCGH Redaktion bezüglich VRAM bekommen. ;D ;D
Das ist natürlich ein guter Grund! :freak:;D
BlacKi
2020-08-11, 05:34:32
glaubt ihr die doppelte vram versionen haben mehr powertarget als die normalen 8/10/12gb versionen? durch den doppelten vram soll doch angeblich der verbrauch steigen. andernfalls wäre die 20gb 3080 etwas langsamer als die 10gb version.
vl hat auch nur die founders edition den doppelten vram zusammen mit 205 mehr PT ^^
rentex
2020-08-11, 05:58:33
Was hat das Powertarget der GPU mit dem VRAM zu tun?
Der VRAM sollte gut gekühlt, keinen Einfluss auf die GPU haben.
Noch 20 Tage....
BiZiNiZz
2020-08-11, 06:27:22
Bin mal gespannt, was da in 20 Tagen kommt. Würde es ja lustig finden, wenn alle bisherigen Leaks Nebelkerzen waren um alle zu verwirren und eventuell noch Löcher zu stopfen.:freak:
nordic_pegasus
2020-08-11, 06:45:00
Ich bleib beim aktuellen Namensschema, daher nenne ich das oberhalb der möglichen 3080 einfach Ti. Zumal das ja intern selbst bei NV scheinbar noch nicht final feststeht.
gemeint ist mit 3090 eine Karte oberhalb der 3080 Ti. Es sind ja 3 Karten mit GA102 geleakt worden (3080, 3080 Ti und 3090/Titan).
Was hat das Powertarget der GPU mit dem VRAM zu tun?
soweit ich das Video von Igor verstanden habe, ist das Power-Target ein Wert für die gesamte Karte. Also weniger Watt für den Chip, wenn mehr Speicher bei gleicher TDP verbaut wird.
Gipsel
2020-08-11, 07:44:40
soweit ich das Video von Igor verstanden habe, ist das Power-Target ein Wert für die gesamte Karte. Also weniger Watt für den Chip, wenn mehr Speicher bei gleicher TDP verbaut wird.Was aber nicht ganz so funktioniert (doppelt so viel Speicher hat nur wenig Mehrverbrauch, seine Annahme von 24 8GBit-Chips mit festem Verbrauch pro Chip ist Schwachsinn [mal abgesehen davon, daß man 24GB auch mit 12 Chips hinbekommt]).
ChaosTM
2020-08-11, 07:49:16
wieso? Ich finde es gut. Zeigt doch, dass Big Navi wirklich so schnell ist wie die 3080, ansonsten würde Nvidia nicht so reagieren. 3080-10GB + 10% schneller als Big Navi ... und Nvidia würde nicht reagieren. Nur weil Big Navi anscheinend min. genauso schnell ist wie eine 3080 reagiert Nvidia jetzt so. Mehr Möglichkeiten haben sie anscheinend nicht.
Liegt glaub ich eher am unterschätzen Speicherbedarf von RTX +DLSS in neuen Spielen..
Willst du volles RTRT -> kauf die fette Karte
Adam D.
2020-08-11, 08:23:59
Liegt glaub ich eher am unterschätzen Speicherbedarf von RTX +DLSS in neuen Spielen..
Willst du volles RTRT -> kauf die fette Karte
Never, denn dann würde NV einfach sagen: Kauf die Ti. Wenn es eine Version mit 20GB geben wird, dann ist das 100% eine Reaktion auf Navi.
robbitop
2020-08-11, 08:42:07
NV versucht die Preise oben zu halten in dem sie darauf achten, dass auch xx80 (ohne ti) noch von AMD ungeschlagen bleibt.
Das ist schon nicht unwichtig.
Wenn N21 wirklich 80 CUs hat und GA102 84 SMs, dann wird man GA102 wahrscheinlich nicht zu extrem beschneiden können, damit die 3080 Oberwasser behält.
Ggf war deshalb der GA104 auch keine 3080 (oder aber es kann einer der Gründe für die Stornierung vom angeblichen GA103 gewesen sein).
Bin mal gespannt, was da in 20 Tagen kommt. Würde es ja lustig finden, wenn alle bisherigen Leaks Nebelkerzen waren um alle zu verwirren und eventuell noch Löcher zu stopfen.:freak:Ja ob sich das mit den doppelten Speichermengen wirklich bewahrheitet. So eine Geforce 3070 mit 16 GB wäre schon was feines.
ShinyMcShine
2020-08-11, 08:48:41
Ja ob sich das mit den doppelten Speichermengen wirklich bewahrheitet. So eine Geforce 3070 mit 16 GB wäre schon was feines.
Ja, davon eine gute und leise Custom mit Lüfterabschaltung. Das reicht mir dann wieder für 4+ Jahre. Wenn's sein muss auch zum Preis, den ich damals für meine 1080 bezahlt hab... :frown:
Ja, davon eine gute und leise Custom mit Lüfterabschaltung. Das reicht mir dann wieder für 4+ Jahre. Wenn's sein muss auch zum Preis, den ich damals für meine 1080 bezahlt hab... :frown:
Hab damals für meine Geforce 1080 499,00 Euro bezahlt, war ein Angebot bei Amazon France vor 3 Jahren. Aber ich denke hier muss man schon deutlich tiefer in die Tasche greifen, gerade wenn es wirklich eine 16 GB Version geben sollte.
Timbaloo
2020-08-11, 08:58:53
Wir brauchen die eigentlich spezifizierten 12Gbit-Chips! Damit könnte man an 320Bit (10 Chips) 15 GB bekommen (18GB an 384bit oder auch 12GB an 256bit). Die stellt nur bisher keiner her.
This. Und irgendwie habe ich das Gefühl, dass wir hier noch überrascht werden.
WedgeAntilles
2020-08-11, 09:31:54
IMO hat Nvidia einfach erkannt, dass sie beim Speicher eine offene Flanke gegenüber AMD haben.
Performance-Betrachtungen sind da gar nicht das entscheidende. Ob eine Karte jetzt 10% schneller oder langsamer ist - was solls, weiß Stand jetzt sowieso noch keiner genau.
Aber wenn bei AMD halt 16GB Vram stehen und bei den eigenen Produkten stehen nur 10GB, 11GB oder 12GB ist das nun einmal etwas, wo AMD punkten und marketingtechnisch voll angreifen kann.
Was machst du wenn du eine Flanke hast über die der Gegner dir zusetzen kann?
Richtig, du verstärkst diese Flanke, falls möglich.
Und genau das hat Nvidia getan, in dem sie ihr Speicherportfolio von 8-12GB auf 16-24GB erweitert haben.
Falls AMD jetzt z.B. marketingtechnisch die 3080 mit 10GB angreift und die hohe Bedeutung von 16GB herauskehrt kann nvidia lachen und sagen: Ja, Speicher ist sehr wichtig - deswegen kauf lieber gleich unsere 20GB Version.
Leonidas
2020-08-11, 09:36:38
Genauso wird es sein. Aber intern dürfte man sich ärgern, dass man nicht rechtzeitig 1,5-Gbyte-Chips geordert hat. Die wären etwas günstiger, wenn man sie mit Rahmenvertrag abnimmt - aber ohne Vorarbeit geht da natürlich nichts.
ShinyMcShine
2020-08-11, 09:36:43
Die Speicherverdoppelung tut NVidia doch nicht weh, oder? Die geben den Preis doch eh an uns weiter. Und ob die jetzt 1GB-Speichermodule oder 2GB-Speichermodule auf das Brett pflanzen wird auch fertigungstechnisch kaum Unterschied machen...
[MK2]Mythos
2020-08-11, 09:43:50
Die Speicherverdoppelung tut NVidia doch nicht weh, oder? Die geben den Preis doch eh an uns weiter. Und ob die jetzt 1GB-Speichermodule oder 2GB-Speichermodule auf das Brett pflanzen wird auch fertigungstechnisch kaum Unterschied machen...
Ganz im Gegenteil, man kann wohl davon ausgehen dass die 20GB Version eine höhere Marge als die 10GB Version haben wird. Insofern hätte AMD mit einer spekulierten Navi 21 16GB Version NV einen Gefallen getan. :freak:
Zergra
2020-08-11, 09:48:51
Nv könnte aber die kleinen Speicher Versionen günstiger als AMD anbieten und die großen drüber.
Wird aber eher nicht passieren 🙄
Dural
2020-08-11, 09:54:00
Ich bezweifle das 1,5Gb Chips preislich interessant sind, da kann man gleich auf 2,0Gb gehen.
Und überhaupt, ich wäre mir da nicht so sicher das die Gerüchte stimmen, NV hat schon mehrfach Karten mit doppelten Speicher eine Nummer als Platzhalter vergeben. Oder es waren am ende Quadro Karten. Dazu würde NV die Titan so ziemlich selber untergraben.
3080 10GB tritt ja gegen Navi 12GB an, die 3080Ti 12GB gegen Navi mit 16GB. Jedenfalls nach aktuellen Gerüchten, und die Vergangenheit hat gezeigt das der geringe Speicher Unterschied NV (Und den Konsumenten) so ziemlich egal ist.
Die GeForce 256 hatte als erste Karte DDR Speicher, Eventuell kommen die Ampere wirklich schon mit GDDR6X.
mironicus
2020-08-11, 10:19:12
Die Speicherchips mit 2 GByte pro Modul verbrauchen auch nicht mehr Strom, oder?
Digidi
2020-08-11, 10:27:31
Da Nvidia ja etwas in der Größenordnung von T&L Ankündigt und Raytracing schon draußen ist hier meine Anlyse/Frage:
Gibt es ein Feature was wir überhaupt nicht auf den Schirm haben, was aber serh Revolutionär wäre?
Gibt es zurzeit noch Prozesse die auf der CPU ausgeüfhrt werden die einenen vielleicht eigenen Chip benötigen würden? (Darauf deutete ja T&L hin)
ChaosTM
2020-08-11, 10:31:40
Revolutionär wäre eine neue Lederjacke von J. ^^
mironicus
2020-08-11, 10:33:57
Lustig wäre eine Abmachung zwischen AMD und NVidia, das derjenige der die schnellste Konsumer-GPU am Markt hat, auch die Lederjacke tragen darf.
Gouvernator
2020-08-11, 10:35:45
Genauso wird es sein. Aber intern dürfte man sich ärgern, dass man nicht rechtzeitig 1,5-Gbyte-Chips geordert hat. Die wären etwas günstiger, wenn man sie mit Rahmenvertrag abnimmt - aber ohne Vorarbeit geht da natürlich nichts.
Riesenglück für Konsumenten. Bei den Wucher Preisen die NV sowieso schon verlangt, bekommt man durch mehr VRAM als ursprünglich gedacht, zumindest einen nennenswerten Mehrwert.
NV hätte wohl wieder sehr großes Interesse daran gehabt, mit VRAM untermotorisierte, überteuerte GPUs zu verkaufen. Jetzt bekommt man wenigstens eine überteuerte Karte mit ausreichend VRAM. Dafür zahlt dann NV mit ausgefallenen Umsätzen in den nächsten 2-3 Jahren. Vielleicht schlagen sie genau diese ausgefallene Profite auf den VRAM noch drauf. Pro Jahr an nicht verkauften Grafikkarten wegen zu hohem VRAM = 300$. Im besten Fall kostet dann so eine RTX3xxx +600$-1000$ extra. Wenn die GPUs insgesamt sehr "günstig" angesetzt werden : 3080 = 700$, 3090=999$ ergibt das 1300-2000$ Preis.
Leonidas
2020-08-11, 10:37:29
Die Speicherchips mit 2 GByte pro Modul verbrauchen auch nicht mehr Strom, oder?
Minimal. Auf jeden Fall nicht 2x soviel wie ein 1-GB-Chip.
Ghost1nTh3GPU
2020-08-11, 10:37:42
Teildeaktivierte GPU mit teildeaktiviertem RAM?
Vielleicht ein 15GB Lock über das BIOS.
MiamiNice
2020-08-11, 10:48:30
Da Nvidia ja etwas in der Größenordnung von T&L Ankündigt und Raytracing schon draußen ist hier meine Anlyse/Frage:
Gibt es ein Feature was wir überhaupt nicht auf den Schirm haben, was aber serh Revolutionär wäre?
Gibt es zurzeit noch Prozesse die auf der CPU ausgeüfhrt werden die einenen vielleicht eigenen Chip benötigen würden? (Darauf deutete ja T&L hin)
Die GPU bekommt eine KI und Ampere hat einen eigenen Willen :freak:
Fragman
2020-08-11, 10:56:57
Die GPU bekommt eine KI und Ampere hat einen eigenen Willen :freak:
Jetzt hab ich ich eine Hal9000 Szene im Kopf, wie ich mit der Graka darüber diskutiere, ob 5 Grad mehr Temp der GPU die 5 Frames per Second mehr rechtfertigen oder nicht. :freak:
rentex
2020-08-11, 11:26:58
Das befürchte ich ebenfalls ;-D
Thunderburne
2020-08-11, 12:38:29
https://videocardz.com/newz/nvidia-geforce-rtx-30-custom-graphics-card-to-launch-in-september
rentex
2020-08-11, 12:51:47
Jepp, klingt nicht schlecht!
monstar-x
2020-08-11, 14:22:15
Wieso meint ihr eigentlich immer, das nvidia genau bescheid weis was AMD da vorstellen wird?
So das sie unbedingt mit allen mitteln (20GB VRAM) AMD kontern müssen.
Bisher sind es doch nur Gerüchte und in der Vergangenheit waren die so oft daneben.
aufkrawall
2020-08-11, 14:27:52
Wenn das mit den VRAM-Mengen stimmt, dürfte der Bedarf mit der nächsten Konsolen-Gen kräftig in die Höhe schnellen. Käufer der Mittelklassse mit nur 8GB dürften dann zunehmend "schön" mit Matschtexturen und Streaming-Einbrüchen spielen. :cool:
Imho DOA-Produkte, aber es werden sich schon Opfer finden...
Linmoum
2020-08-11, 14:43:04
Wieso meint ihr eigentlich immer, das nvidia genau bescheid weis was AMD da vorstellen wird?
So das sie unbedingt mit allen mitteln (20GB VRAM) AMD kontern müssen.
Bisher sind es doch nur Gerüchte und in der Vergangenheit waren die so oft daneben.Der Speicherausbau in der Form wird stimmen, dafür ist der Release zu nahe und die Boardhersteller wissen dementsprechend über die Specs schon Bescheid. Und Igor hatte ja explizit bei einer seiner Quellen nachgefragt, die bei einem der GPU-Hersteller tätig ist. Und die hat es bestätigt.
Die Frage ist doch aber, warum es zwei SKUs mit optional doppelter Speichermenge geben wird. Man könnte sagen, NV will dem Kunden Wahlmöglichkeiten geben. Oder dass sie entsprechende Konkurrenzprodukte erwarten, wodurch die 8GiB/10GiB-Varianten abstinken würden. Wie man es aber dreht und wendet: In jedem Fall gestehen sie sich damit selbst ein, dass nur 8GiB/10GiB irgendwie nicht Fisch und nicht Fleisch sind. Welch Überraschung. Nicht.
NV bringt nicht mal einfach aus dem Nichts und aus Nettigkeit zwei bzw. sogar drei SKUs, die plötzlich (teils) massiv mehr Speicher aufweisen werden, als das aktuelle (Gaming-)Flaggschiff in Form der 2080Ti mit 11GiB. Ob die Entscheidung ggf. an der Konkurrenz liegt/lag wird man sehen, wenn Performancewerte beider Hersteller vorliegen.
MiamiNice
2020-08-11, 14:43:19
Wieso meint ihr eigentlich immer, das nvidia genau bescheid weis was AMD da vorstellen wird?
So das sie unbedingt mit allen mitteln (20GB VRAM) AMD kontern müssen.
Bisher sind es doch nur Gerüchte und in der Vergangenheit waren die so oft daneben.
Ich kann mir kaum vorstellen das man nicht weiß was der Gegenüber in der Pipeline hat. Alleine die Anzahl an Mitarbeitern die regelmäßig von A nach B und umkehrt wechseln. Diese MAs haben natürlich auch Freunde in den jeweiligen Unternehmen. Schwer vorstellbar das die Randdaten nicht dem jeweiligen ggü. bekannt sind.
Gouvernator
2020-08-11, 14:43:59
Wenn das mit den VRAM-Mengen stimmt, dürfte der Bedarf mit der nächsten Konsolen-Gen kräftig in die Höhe schnellen. Käufer der Mittelklassse mit nur 8GB dürften dann zunehmend "schön" mit Matschtexturen und Streaming-Einbrüchen spielen. :cool:
Imho DOA-Produkte, aber es werden sich schon Opfer finden...
8Gb VRAM für 4K waren eigentlich immer ausreichend. NV hat mit nun 10Gb kleines Fettpolster gemacht bzw. 12Gb. Und 20/24Gb für 8K/16K Perversionen... Gibt es denn mit NextGen Konsolen überhaupt noch einen PC Markt für Mittelklassen GPU?
aufkrawall
2020-08-11, 14:49:34
8Gb VRAM für 4K waren eigentlich immer ausreichend. NV hat mit nun 10Gb kleines Fettpolster gemacht bzw. 12Gb. Und 20/24Gb für 8K/16K Perversionen... Gibt es denn mit NextGen Konsolen überhaupt noch einen PC Markt für Mittelklassen GPU?
Weder waren 8GB für 4k "eigentlich immer ausreichend" (durch die eigentlich-Floskel eigentlich eine komplett dehnbare Aussage...), noch wird das vermutlich umsatzstärkste Marktsegment mit den nächsten Karten einfach wegfallen. Wie kommt man auf so einen Unsinn?
monstar-x
2020-08-11, 15:05:54
Ich kann mir kaum vorstellen das man nicht weiß was der Gegenüber in der Pipeline hat. Alleine die Anzahl an Mitarbeitern die regelmäßig von A nach B und umkehrt wechseln. Diese MAs haben natürlich auch Freunde in den jeweiligen Unternehmen. Schwer vorstellbar das die Randdaten nicht dem jeweiligen ggü. bekannt sind.
Weis man doch bei Sony, Apple, Samsung auch eigentlich nicht, nur ein paar Tage vorher, aber nicht Monate.
Wenn man so eine Position inne hat, das man einen Überblick hat, wird man es sich tausendfach überlegen ob man diese Position für einen (IGOR) riskiert. Den danach findet die Person nie mehr einen Job in der Branche.
Alle anderen wissen doch eigentlich nur winzige teile.
Ist bei Apple auch so, da weis Abteilung A nicht was B, C, D etc machen, so dass die keinen Überblick haben.
Ich bleibe skeptisch mit 10/20 GB und lasse mich (sehr gerne) eines besseren belehren.
TobiWahnKenobi
2020-08-11, 15:23:08
in knapp drei wochen wissen wir mehr ;)
@pixeljetstream
ja, ich weiss - das war schon mit den beiden TIs total sinnbefreit und wurde bei mir auch nur eine temporäre lösung; TI2 ist viel zwischen meinen systemen gewandert.
(..)
mfg
tobi
WedgeAntilles
2020-08-11, 15:25:15
Wieso meint ihr eigentlich immer, das nvidia genau bescheid weis was AMD da vorstellen wird?
So das sie unbedingt mit allen mitteln (20GB VRAM) AMD kontern müssen.
Bisher sind es doch nur Gerüchte und in der Vergangenheit waren die so oft daneben.
Du musst gar nicht "genau Bescheid" wissen.
Es genügt die Annahme, dass BigNavi kein kompletter Reinfall wird.
Dazu sind die 16GB Ram bei AMD ja jetzt nicht gerade unwahrscheinlich.
Eigentlich deutet fast alles darauf hin. Anfangen bei der Radeon VII hin zu den Leaks / Gerüchten. (Es erscheint unwahrscheinlich, dass AMD die Radeon VII mit 16GB ausstattet, das Flaggschiff 2020 aber nur mit 12GB.)
Und schon hat Nvidia eben eine Flanke, in die AMD stoßen kann.
Das einzige was mich wundert ist, dass Nvidia nicht schon viel früher mit der größeren Ram Variante kam. Denn siehe oben - das AMD mit 16GB antreten wird war ja eigentlich naheliegend.
Gut, vielleicht war die 10/20 bzw. 11/22 GB Ram Variante doch von Anfang an geplant, genau weiß es ja keiner.
Wieso genau sollte Nvidia da NICHT mit der großen Speichermenge als Option antreten?
Wäre ja dämlich von Nvidia. Da würde man ja alle Käufer, die unbedingt mehr Ram wollen mit Gewalt zu AMD treiben.
Und die Aussage: "Nvidia wil lein Refresh-Modell mit mehr Speicher verkaufen" halte ich für Blödsinn.
Wenn ich jetzt ne 20GB Karte kaufe muss ich in 2 Jahren sowieso die nächste Top-Karte von der 40XX Serie kaufen.
Warum? Weil meine Ampere vielleicht sogar genug Ram hat - aber halt schlicht nicht genug Rohleistung um den Ram sinnvoll auszunutzen.
Siehe Radeon VII.
Spiele, die diese Rammenge dann wirklich brauchen laufen halt trotzdem nicht in 60FPS - ganz zu schweigen von 100.
Also kaufen die Enthusiasten natürlich die nächste GraKa Generation.
Wenn man in 4K (oder noch höher) mit Max Details spielen will, bleibt einem gar nichts anderes übrig.
Troyan
2020-08-11, 15:35:06
Liveevent am 01.09 um 18Uhr unserer Zeit: https://www.nvidia.com/en-us/geforce/special-event/
Daredevil
2020-08-11, 15:43:29
Am 1. September läutet NVIDIA eine neue Ära ein mit einem Stream von NVIDIA-CEO Jensen Huang.
Bereite dich auf den #UltimateCountdown vor, der seinen Höhepunkt am 1. September um 18.00 Uhr CET erreicht.
Sehr theatralisch. :D
WedgeAntilles
2020-08-11, 15:53:25
Ja, ne Nummer kleiner hätte es vielleicht auch getan *g*
Wer von euch lässt jetzt bis zum 01.09. ein Browserfenster mit dem Countdown offen? :D
Slipknot79
2020-08-11, 15:53:27
Es erscheint die Nvidia GeForce 256 - remastered :redface:
Linmoum
2020-08-11, 15:57:47
Plot twist: Jensen enthüllt seine eigene Collection, demnächst gibt's mit Ampere bei jedem RTX-Kauf eine Lederjacke gratis dazu.
WedgeAntilles
2020-08-11, 16:00:23
Plot twist: Jensen enthüllt seine eigene Collection, demnächst gibt's mit Ampere bei jedem RTX-Kauf eine Lederjacke gratis dazu.
rofl
Aber ganz ehrlich, ich finde das sogar eine echt coole Marketingidee.
Klar, das wird nicht kommen, aber ich finde die Idee interessant.
Eine Art Special Edition bei den Top-GraKas mit Lederjacke dabei.
Vielleicht in Verbindung mit ner Charity-Aktion.
Ich sehe da ernsthaft Potential.
Lawmachine79
2020-08-11, 16:10:02
Gibt es schon Erkenntnisse, was der 2080TI-Nachfolger kosten wird? Und was erscheint zuerst, der RTX2080 oder der 2080TI-Nachfolger?
Thunder99
2020-08-11, 16:17:14
Vermutlich zuerst Nachfolger der 2080 Super und wenn AMD kontert die Ti bzw TopDog.
Kosten? Eher mehr als weniger als die letzte Generation.
Rampage 2
2020-08-11, 16:23:21
Gibt es schon Erkenntnisse, was der 2080TI-Nachfolger kosten wird? Und was erscheint zuerst, der RTX2080 oder der 2080TI-Nachfolger?
Wenn das Ding "nur" 900$ (= ~ 950-1000€) kostet, dann kannst du dich sehr glücklich schätzen. Wird aber wohl nicht eintreten - eher 1000$, wie die jetzige Ti.
Zu deiner zweiten Frage: es zeichnet sich ab, dass die reguläre 3080 und die Ti wieder gleichzeitig erscheinen, wie bei Turing.
R2
WedgeAntilles
2020-08-11, 16:24:29
Gibt es schon Erkenntnisse, was der 2080TI-Nachfolger kosten wird? Und was erscheint zuerst, der RTX2080 oder der 2080TI-Nachfolger?
3080 und 3080TI (so die denn so heißen) sollen im September kommen.
Die 3070TI wohl auch.
Edgecrusher86
2020-08-11, 16:32:12
https://twitter.com/NVIDIAGeForce/status/1293090205054902273
:uponder:
Es wäre interesant zu wissen, wie die gewählte Nummer lautet. Scheint ein Bezug zu 1999 zu sein -> 56K. :)
E:
https://abload.de/img/unbenanntmzjy4.png
Slipknot79
2020-08-11, 16:41:54
Es erscheint die Nvidia GeForce 256 - remastered :redface:
k, also 56k Transistoren :redface:
Leonidas
2020-08-11, 16:45:30
Am 1. September läutet NVIDIA eine neue Ära ein mit einem Stream von NVIDIA-CEO Jensen Huang.
Bereite dich auf den #UltimateCountdown vor, der seinen Höhepunkt am 1. September um 18.00 Uhr CET erreicht.
Sehr theatralisch. :D
https://pbs.twimg.com/media/EfJXU0rWkAEfF7X.jpg
rentex
2020-08-11, 16:46:47
1000€? Nö. Da kann man mit 1299$ und Aufwärts rechnen.
Slipknot79
2020-08-11, 16:56:57
Yo pixeljetstream, darfst du da auch "mitraten" oder stehst du beim Marketing auch unter NDA? :redface:
Linmoum
2020-08-11, 17:01:18
1000€? Nö. Da kann man mit 1299$ und Aufwärts rechnen.Och, die leistungsschwächste der SKUs wird Nvidia bestimmt unter der psychologisch wichtigen Marke von $1000 (ergo $999 ;D) platzieren wollen. Genauso teuer wie die 2080Ti, aber dafür schneller. Ergo mehr Leistung für dasselbe Geld, will doch jeder. :cool:
Edgecrusher86
2020-08-11, 17:04:51
Ein weiterer Zusammenhang zu 1999 mag der MSRP sein - für die Dicke. :D
Lawmachine79
2020-08-11, 17:17:01
1000€? Nö. Da kann man mit 1299$ und Aufwärts rechnen.
Für 1300 mache ichs :D. Der Release fällt mit der Lieferung der Reverb G2 zusammen. Damit ist das Setting für größtmögliche Unvernunft meinerseits geschaffen.
Dural
2020-08-11, 17:27:01
RT for free?
ChaosTM
2020-08-11, 17:29:25
Für 1300 mache ichs :D. Der Release fällt mit der Lieferung der Reverb G2 zusammen. Damit ist das Setting für größtmögliche Unvernunft meinerseits geschaffen.
In der Tat. Mein Hemmschwelle liegt niedrig wie nie. NV wird mich diesmal erwischen - kalt :)
RT for free?
"Forty Gigarays per second" ich kann ihn es schon fast sagen hören... :D
rentex
2020-08-11, 17:50:16
Für 1300 mache ichs :D. Der Release fällt mit der Lieferung der Reverb G2 zusammen. Damit ist das Setting für größtmögliche Unvernunft meinerseits geschaffen.
Mein "Wehretat" liegt bei 1500€...Maximum.
mironicus
2020-08-11, 17:52:48
Vielleicht deutet die 21 auch auf eine RTX 21-Reihe hin, also RTX 2180 TI etc...
ChaosTM
2020-08-11, 17:59:50
Auf jeden Fall passt der Launch Zeitpunkt perfekt.
Wer will nicht Cyperpunk 2077 oder den neuen FS2020 in VR (oder ohne) mit möglichst vielen Bildern pro Sekunde genießen. Und natürlich mit all dem (just working) RTX blingbling ;)
basix
2020-08-11, 18:08:08
"Forty Gigarays per second" ich kann ihn es schon fast sagen hören... :D
Gigarays? RTX Ops!!! :D
Digidi
2020-08-11, 18:13:00
Jernson ist doch eher bekannt dass er keine konkreten Zahlen sagt sondern: Unbelivablae Amounts of Performance! Insane! A way Faster! Irresponsible ammount of performance! A whole lot!
Startet schonmal den Insane Counter ;D
dreamweaver
2020-08-11, 18:17:11
Mein "Wehretat" liegt bei 1500€...Maximum.
Geld spielt doch keine Rolle. :tongue:
Hauptsache es gibt ein Modell mit Luftkühlung wo 1500rpm ausreichend kühlen.
monstar-x
2020-08-11, 18:21:34
Was meint nvidia mit
"the biggest breakthroughs in PC gaming since 1999"
Einfach nur schneller oder haben die noch etwas im petto (Technisch) was neu sein könnte.
Den mehr GigaRays, mehr Rohleistung und VRAM ist ja kein "größter Durchbruch"
Aber wahrscheinlich ist es nur Marketing BlaBla.
Ich bin bereit bis 1500-1600€ für eine 3090 TI auszugeben.
EPIC_FAIL
2020-08-11, 18:29:55
""21 days. 21 years. Before we enter the future, join us to celebrate the biggest breakthroughs in PC gaming since 1999. And what comes next."" Das wird zunächst nur eine Rückschau auf die Highlights der letzten 21 Jahre werden, danach wird die neue Generation vorgestellt.
Korvaun
2020-08-11, 18:53:25
nV Marketing liest hier sicher aufmerksam mit und ist hocherfreut über all die Leute die nicht schnell genug möglichst viel Geld für die neuen nV Karten raushauen können... Topmodelle werden also ordentlich teuer ;)
Dampf
2020-08-11, 18:55:12
DLSS3.0
Gibts nicht.
=Floi=
2020-08-11, 19:02:36
"Forty Gigarays per second" ich kann ihn es schon fast sagen hören... :D
das wäre eine verdreifachung?! Ich sehe das als wirklich realistisch/möglich an.
Rampage 2
2020-08-11, 19:05:15
nV Marketing liest hier sicher aufmerksam mit [...]
Das Gefühl habe ich auch - und natürlich nicht nur hier, sondern im ganzen Internet:redface:
Aus den gewonnenen Datensätzen werden dann psychologische Modelle, Käufermodelle, Preismodelle und HW-Modelle (Stichwort: Wahl der Speichermenge durch den Käufer) erstellt...
R2
rentex
2020-08-11, 19:12:36
Dazu brauchen die keine aktuellen Daten. Die Verkaufszahlen zu Turing haben genug Daten geliefert ; -)
Rampage 2
2020-08-11, 19:34:08
Dazu brauchen die keine aktuellen Daten. Die Verkaufszahlen zu Turing haben genug Daten geliefert ; -)
Es geht darum statistisch zu ermitteln, wo die aktuellen Empfindlichkeiten der potentiellen NV-Käufer liegen - aktuell sind das die Speichermenge und natürlich die Bepreisung & das P/L-Verhältnis. Die RT-Leistungssteigerung kommt an zweiter Stelle und die konventionelle (Rasterizer) Leistungssteigerung an letzter Stelle.
R2
Lawmachine79
2020-08-11, 19:34:45
Mein "Wehretat" liegt bei 1500€...Maximum.
Ich bin bereit bis 1500-1600€ für eine 3090 TI auszugeben.
Endlich mal normale Leute.
rentex
2020-08-11, 19:48:29
Endlich mal normale Leute.
Einfache Einschätzung der Lage.
Ist ja nicht so, das meine alte Karte keinen stolzen Wiederkaufspreis erzielt hätte :wink:
Das macht die ganze Angelegenheit bedeutent günstiger.
r3ptil3
2020-08-11, 19:52:37
1500 Euro also 3000 DM für eine 50% schnellere Grafikkarte als ein Top-Modell von 2018?
Ich vermute dass sich die Preise ändern werden. Nicht zu vergessen, dass 2018 Mitten im Mining-Boom war und von AMD im Premium-Highend-Segment rein gar nichts vorhanden war.
AMD bringt etwas in Richtung 2080 TI bzw. darüber und die wird ganz bestimmt nicht über 1000 Euro kosten, sondern eher zu einem Kampfpreis in den Markt gelassen.
Ich rechne beim neuen Gaming-Top-Modell (nicht Titan) mit 10-15%+ tieferen Preise als zu 2018 Zeiten.
Lawmachine79
2020-08-11, 19:53:19
Einfache Einschätzung der Lage.
Ist ja nicht so, das meine alte Karte keinen stolzen Wiederkaufspreis erzielt hätte :wink:
Das macht die ganze Angelegenheit bedeutent günstiger.
Spaß, ich würde ja auch recht viel raushauen ;). Werde dann auch meine 1080TI versetzen, denke mal 3-400 (eher 3) werden dann noch drin sein.
1500 Euro also 3000 DM für eine 50% schnellere Grafikkarte als ein Top-Modell von 2018?
Ich vermute dass sich die Preise ändern werden. Nicht zu vergessen, dass 2018 Mitten im Mining-Boom war und von AMD im Premium-Highend-Segment rein gar nichts vorhanden war.
AMD bringt etwas in Richtung 2080 TI bzw. darüber und die wird ganz bestimmt nicht über 1000 Euro kosten, sondern eher zu einem Kampfpreis in den Markt gelassen.
Ich rechne beim neuen Gaming-Top-Modell (nicht Titan) mit 10-15%+ tieferen Preise als zu 2018 Zeiten.
Glaube ich auch - das Problem ist, dass meine Reverb G2 zu früh geliefert wird ;).
monstar-x
2020-08-11, 20:27:59
Einfache Einschätzung der Lage.
Ist ja nicht so, das meine alte Karte keinen stolzen Wiederkaufspreis erzielt hätte :wink:
Das macht die ganze Angelegenheit bedeutent günstiger.
Eben, meine ASUS 2080 Ti Strix OC, wird schon noch ein nettes Sümmchen bringen, zu mal es noch 1,5 Jahre Garantie hat.
Und alle 2 Jahre mal 700-900€ (abzgl. Verkaufspreis der alten Grafikkarte) auf den Tisch legen, sind gerade mal 28-40€ im Monat, das sollte einem das Hobby doch Wert sein.
deLuxX`
2020-08-11, 20:41:17
Eben, meine ASUS 2080 Ti Strix OC, wird schon noch ein nettes Sümmchen bringen, zu mal es noch 1,5 Jahre Garantie hat.
Und alle 2 Jahre mal 700-900€ (abzgl. Verkaufspreis der alten Grafikkarte) auf den Tisch legen, sind gerade mal 28-40€ im Monat, das sollte einem das Hobby doch Wert sein.
Und nicht jeder hat das selbe Einkommen. Das klingt immer so als wenn jeder nur jene und diese Summe zur Verfügung hat.
Verdiene ich bspw. netto 4,5 k pro Monat....was jucken mich da die von angesprochenen 40€.
Platos
2020-08-11, 20:45:42
Eben, meine ASUS 2080 Ti Strix OC, wird schon noch ein nettes Sümmchen bringen, zu mal es noch 1,5 Jahre Garantie hat.
Und alle 2 Jahre mal 700-900€ (abzgl. Verkaufspreis der alten Grafikkarte) auf den Tisch legen, sind gerade mal 28-40€ im Monat, das sollte einem das Hobby doch Wert sein.
Und pro Tag dann irgendwo um einen Euro rum. Und pro Stunde 5 Cent...
So kann man sich natürlich jede Summe kleinreden :D Deswegen funktionieren Handyabos ja so gut.
Über 10 Jahre Nutzungszeit kostet mich irgend so ein überteurten riesen 8K Fernseher für 6-7k pro Monat auch "nur" 50-60 Euro. Pro Tag 2 Euro.
Jetzt sind's halt 2 anstatt 1 Euro pro Tag. Jacke wie Hose, was..?
/Locutus oB
2020-08-11, 20:52:40
bin ja kein Konsolen-Zocker aber über 1000€ NUR für eine GraKa stehen für MICH überhaupt nicht im Verhältnis zu einer Konsole... da fehlt mir dann doch der Mehrwert. aber jeder wie er will...
rentex
2020-08-11, 21:19:35
bin ja kein Konsolen-Zocker aber über 1000€ NUR für eine GraKa stehen für MICH überhaupt nicht im Verhältnis zu einer Konsole... da fehlt mir dann doch der Mehrwert. aber jeder wie er will...
Wenn man für jedes Spiel, 50- 60€ zahlt, steht das ebenfalls in keinem Verhältnis.
Was kann man noch mit einer Konsole, außer zocken, surfen und ggf. Blu-Rays ansehen?
Basteln oder Teile austauschen entfallen ebenfalls.
Und dann noch in HW Foren abhängen:wink:
BiZiNiZz
2020-08-11, 21:33:33
Wenn man für jedes Spiel, 50- 60€ zahlt, steht das ebenfalls in keinem Verhältnis.
Was kann man noch mit einer Konsole, außer zocken, surfen und ggf. Blu-Rays ansehen?
Basteln oder Teile austauschen entfallen ebenfalls.
Und dann noch in HW Foren abhängen:wink:
Ich würde da sogar noch surfen rausstreichen. Das ist zumindest für mich mehr Krampf als surfen.
monstar-x
2020-08-11, 22:12:57
Und nicht jeder hat das selbe Einkommen. Das klingt immer so als wenn jeder nur jene und diese Summe zur Verfügung hat.
Verdiene ich bspw. netto 4,5 k pro Monat....was jucken mich da die von angesprochenen 40€.
Das habe ich auch nie behauptet.
Wenn jemand nicht in der Lage ist, monatlich 50€ für eine Grafikkarte zur Seite zu legen, so kann er sich keine 2080 Ti kaufen, dann muss er sich eine kleiner Grafikkarte kaufen, zum Glück gibt es für jedes Budget eine Grafikkarte :wink:
Ich hätte auch gerne einen Tesla S in der Vollausstattung, doch ich kann keine 100.000€ für ein Auto auf den Tisch legen, so musste ein günstigeres Auto her.
Aber ich möchte jetzt hier auch nicht in, "wie viel Geld verdienen wir und wie viel geben wir aus" abdriften.
Ich stimmte lediglich zu und sagte 1500€ ist in "meinem" Budget für eine 3080 TI OK.
/Locutus oB
2020-08-11, 23:07:56
Wenn man für jedes Spiel, 50- 60€ zahlt, steht das ebenfalls in keinem Verhältnis.
Was kann man noch mit einer Konsole, außer zocken, surfen und ggf. Blu-Rays ansehen?
Basteln oder Teile austauschen entfallen ebenfalls.
Und dann noch in HW Foren abhängen:wink:
aber dafür muss ich doch keine 1000€ NUR für die GraKa ausgeben :confused:
Zergra
2020-08-11, 23:37:02
aber dafür muss ich doch keine 1000€ NUR für die GraKa ausgeben :confused:
Andere Zahlen noch mehr für ein Handy...
Da ist der Mehrwert geringer als bei einer 1000€ Grafikkarte.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.