Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
SKYNET
2018-11-23, 10:46:32
Der Wert ist so wie so ein Fake, die Karte müsste eigentlich so schnell wie eine 1070 sein.
@SKYNET
Ich würde Vorschlagen das du mal die verkaufszahlen der 1060 und 580 vergleichst.
Und Pascal hat übriges sehr viele Änderungen, die Architektur wurde auf hohen Takt Optimiert. Etwas was AMD bis heute nicht hinbekommen hat. So viel zum Thema keine Änderungen.
google mal nach 980Ti vs 1080 bei gleichem takt... soviel zum thema änderungen. :rolleyes: das mehr an takt war einfach der shrink ders möglich machte.
dann gib mir ein beleg von AMD und von NV wo die verkaufzahlen der jeweiligen GPUs drauf sind... soweit ich weiss hat NV immernoch die lager voll mit 1060ern, wärend AMDs RX580 lager wohl leer sind, und darum jetzt die 590 nachgeschoben wurde. :smile:
Dural
2018-11-23, 10:55:05
Pascal wurde auf einen hohen Takt und auf 16nm optimiert.
Dies hat AMD mit Vega auch versucht, aber es funktionierte nicht so ganz, jedenfalls nicht so wie bei NV.
Einfache Shrinks bringen heute kaum noch Vorteile, man muss die Architektur auf den Herstellungs-Prozess anpassen. Sieht man aktuell auch ganz schön an der Vega 20.
Timbaloo
2018-11-23, 11:11:56
Könnt ihr beide mal einfach die... Relevanz eurer Beiträge zum eigentlichen Thema überdenken?
Dural
2018-11-23, 11:17:37
Er kommt ja die ganze Zeit mit völligem OT, Spam und Unwahrheiten daher, und das seit Monaten.
Und wie ich schon gesagt habe, ich halte die Werte für einen Fake = Diskussion überflüssig.
reaperrr
2018-11-23, 15:32:46
Dann hätte das Ding wieder nur 6GB VRAM - Polaris kann schon seit Längerem mit seinen 8GB VRAM erfolgreich gegen die 1060 werben... ich glaube nicht, dass NV so fahrlässig sein wird 2019 immer noch zu wenig Grafikspeicher zu verbauen.
Ich tippe auf ein voll intaktes SI mit 256Bit @ GDDR5 oder aber ein 128Bit SI mit 16Gbit GDDR6 (mit dem höchstmöglichen Takt; 16-18 Gbps), so dass sich in beiden Fällen 8GB VRAM ergibt.
NV kann dafür mit massiv höherer Effizienz, DX12.1-Support und im Fall der 2060 dann auch höherer Performane werben.
Die bisherigen 2000er haben ja auch wieder genauso viel VRAM wie ihre Pascal-Vorgänger, und 192bit SI ist Chip-seitig günstiger als 256bit und Speicher-seitig günstiger als 8GB 16Gbps, zumal für 25-40% mehr Leistung auch günstigerer 12Gbps GDDR6 reichen würde, wodurch sie noch ein paar Dollar mehr sparen könnten.
vinacis_vivids
2018-11-23, 19:41:16
Er kommt ja die ganze Zeit mit völligem OT, Spam und Unwahrheiten daher, und das seit Monaten.
Und wie ich schon gesagt habe, ich halte die Werte für einen Fake = Diskussion überflüssig.
Der Takt bei NV kommt eher durch die Fertigung von TSMC und weniger durch die Architektur an sich.
Das kann man sehr gut bei Maxwell refresh Pascal erkennen.
Einen ähnlichen (kleineren) Schritt dazu hat AMD nun bei Polaris refresh gemacht, keinerlei Architekturänderung bei P30 und trotzdem ein gut an Mehrtakt.
Vega hat gegenüber Fiji massive uArch-Änderungen bekommen und dazu gehören explizite Transitoren für höhere Taktbarkeit. Von 1.05Ghz auf 1.667Ghz ist eine Steigerung von ~ 60%, die allein durch den shrink nicht zu erklären ist.
NV hat bei Turing massive uArch-Änderungen vorgenommen weil die Fertigung von 16nm auf 12nm einfach am Taktlimit ist. Das ist die 2,0Ghz "Wall" mit gewöhnlicher Kühlung.
Auch AMD nähert sich diese 2,0Ghz Grenze bei der 14nm bzw. 12nm Fertigung. V10 ~ 1,67Ghz P30 ~ 1,6Ghz wobei ein möglicher Vega10 refresh auf 12nm schon Richtung 1,8-2,0Ghz gehen kann.
Ob 7nm in der ersten Iteration jetzt noch massiv an Takt zulegen kann ist fraglich, siehe Vega20 7nm, wobei wir den Gaming Bereich nun verlassen und Takt auch nicht die höchste Priorität genießt im Pro-Bereich.
gravitationsfeld
2018-11-23, 21:28:43
Der Takt bei NV kommt eher durch die Fertigung von TSMC und weniger durch die Architektur an sich.
Nein.
Rampage 2
2018-11-24, 00:27:53
NV kann dafür mit massiv höherer Effizienz, DX12.1-Support und im Fall der 2060 dann auch höherer Performane werben.
Wenn der Speicher ausgeht, dann nützt die höchste Performance nichts. (Nachladeruckler, Mikro-Ruckler, Frametimes/subjektive Flüssigkeit)
6GB sind 2019 einfach nicht mehr zeitgemäß und schon gar nicht zukunftssicher (auch kurz- oder mittelfristig nicht) - angeblich soll es bereits einige Spiele geben, die schon in 1080p mit 8GB besser bedient wären!
Die bisherigen 2000er haben ja auch wieder genauso viel VRAM wie ihre Pascal-Vorgänger
Richtig. Und neben den Wucher-Preisen und des geringen Leistungssprungs vermutlich mitverantwortlich dafür, warum Turing (bis jetzt) kein Verkaufsschlager ist.
Außerdem haben *alle* bisher veröffentlichten Turing-Modelle mindestens 8GB VRAM - das reicht zumindest noch für 1440p bei allen (oder fast allen) Spielen.
und 192bit SI ist Chip-seitig günstiger als 256bit und Speicher-seitig günstiger als 8GB 16Gbps
Und kann nur 6GB VRAM behausen - siehe weiter oben meinen ersten Absatz...
zumal für 25-40% mehr Leistung auch günstigerer 12Gbps GDDR6 reichen würde, wodurch sie noch ein paar Dollar mehr sparen könnten.
Oder noch günstigerer regulärer GDDR5-Speicher (8 oder 9 Gbps) an einem (etwas) teurerem 256Bit-Interface. :)
Egal wie du's drehst oder wendest: sollte das Ding auch nur annähernd die Leistung einer 1070 erreichen, dann macht Nvidia mit nur 6GB VRAM sich selber Konkurrenz - denn die 1070 hätte dann 2GB mehr Grafikspeicher bei gleicher oder höherer Leistung...
R2
SKYNET
2018-11-24, 01:39:45
Außerdem haben *alle* bisher veröffentlichten Turing-Modelle mindestens 8GB VRAM - das reicht zumindest noch für 1440p bei allen (oder fast allen) Spielen.
8GB langen zT. ja nichtmal mehr in FHD wenn man alles auf rechts stellt... FFXV um das krasseste beispiel zu nennen, geiles game, aber mit nem 8GB krüppel würd ich das nicht spielen wollen, dafür siehts mit max settings einfach zuuuu gut aus!
robbitop
2018-11-24, 08:27:43
Man schaue sich mal an wie viel mehr Transistoren Pascal ggü Maxwell braucht. IIRC hat man eine Menge Transistoren für mehr Takt investiert (ohne dass die Leistungsaufnahme explodiert). Das bedeutet eben längere Pipelines. Vega hatte ähnliches hinter sich. Aber weniger erfolgreich.
Da hat Dural tatsächlich recht. Gravitationsfeld hinted es mit seinem "nein" ja bereits. ;)
TobiWahnKenobi
2018-11-24, 14:03:23
nicht jeder, der sich ein xx60 grafikkarte in den pc steckt hat videospiele ganz oben auf seiner agenda und ich kenne sogar leute, die spiele die partout nicht lauffähig auf hardware xy sind einfach nicht kaufen. die spielen dann was anderes oder stellen besagte, ominöse ingame-regler nach links.
(..)
mfg
tobi
aufkrawall
2018-11-24, 15:22:20
8GB langen zT. ja nichtmal mehr in FHD wenn man alles auf rechts stellt... FFXV um das krasseste beispiel zu nennen, geiles game, aber mit nem 8GB krüppel würd ich das nicht spielen wollen, dafür siehts mit max settings einfach zuuuu gut aus!
Ich nehme mal an, dass du nicht nachweisen kannst, dass es mit 8GB schlechter aussieht oder läuft als mit mehr VRAM?
Ex3cut3r
2018-11-24, 15:40:31
Ich nehme mal an, dass du nicht nachweisen kannst, dass es mit 8GB schlechter aussieht oder läuft als mit mehr VRAM?
Ist absoluter Quatsch, ohne Texture Pack welches eh keinen visuellen Mehrwert bietet und ohne die Gameworks Einstellungen reichen 8GB locker. Das wird immer schlimmer hier mit dem Bullshit. V_V und Skynet ganz schlimm.
SKYNET
2018-11-24, 18:35:17
Ist absoluter Quatsch, ohne Texture Pack welches eh keinen visuellen Mehrwert bietet und ohne die Gameworks Einstellungen reichen 8GB locker. Das wird immer schlimmer hier mit dem Bullshit. V_V und Skynet ganz schlimm.
ich habe kein texturpack installiert, 1920*1200 und kein DSR bei FFXV... trotzdem WEIT über 10GB videospeicher belegt... halt einfach alle regler auf rechts, und ja, gameworks natürlich an, gehört ja zu den aufhübschern. ohne gameworks = :ulol: kann ich mir ja grad ne 1060 in die kiste stopfen :P
Ex3cut3r
2018-11-24, 18:57:15
Ja schön für dich, leider bringst du den Comment mit FF15 alle 2 Tage, ich sage es nochmal für dich, 8GB werden bis zur neuen Konsolen Gen immer reichen. Und wenn nicht, kann man immer noch Settings anpassen ohne groß an Qualität zu verlieren. Oder halt eine neue GPU kaufen, ich plane bei 7nm schon wieder einen Umstieg, andere 3DCentler wohl auch.
SKYNET
2018-11-24, 21:01:33
Ja schön für dich, leider bringst du den Comment mit FF15 alle 2 Tage, ich sage es nochmal für dich, 8GB werden bis zur neuen Konsolen Gen immer reichen. Und wenn nicht, kann man immer noch Settings anpassen ohne groß an Qualität zu verlieren. Oder halt eine neue GPU kaufen, ich plane bei 7nm schon wieder einen Umstieg, andere 3DCentler wohl auch.
und du immer mit deinem konsolen argument... konsolen haben grauenhafte texturen, im bestfall 60fps, oft nur 30fps und AA ist wenn überhaupt vorhanden auch nur eher schlecht als recht...
ist wie der vergleich mit nem aston martin und nem lupo... hat beides räder und fährt, aber das eine ist nicht nur hässlich sondern auch langsam, wärend das andere nicht in den augen schmerzt wenn man es anschaut, und auch spass zum fahren macht :P
oder warum spielst du auf PC und nicht auf konsole? bestimmt nicht weils gleich gut aussieht aber man 5x soviel kohle ausgeben muss... eben, weils besser aussieht.
Ex3cut3r
2018-11-24, 21:18:16
:facepalm: Kein Kommentar. Immer wenn du "Mund" öffnest, kommt da selten ja was sinnvolles bei raus.
TGKlaus
2018-11-25, 00:38:14
ich sage es nochmal für dich, 8GB werden bis zur neuen Konsolen Gen immer reichen.
Aktuelle Konsolenspiele haben jetzt schon zumeist nicht mehr die höchste Texturstufe.
Also lass endlich mal dein rumgetrolle.
SKYNET
2018-11-25, 00:47:32
:facepalm: Kein Kommentar. Immer wenn du "Mund" öffnest, kommt da selten ja was sinnvolles bei raus.
nun musst du aber nicht anfangen selber so hart über dich zu reden...
btw.
6llLrWpkXNA
man sieht gut das PC = AA, PS4 = blur, und die texturen sind auf der playse auch mehr matsch als texturen.
Daredevil
2018-11-25, 04:51:10
ich habe kein texturpack installiert, 1920*1200 und kein DSR bei FFXV... trotzdem WEIT über 10GB videospeicher belegt... halt einfach alle regler auf rechts, und ja, gameworks natürlich an, gehört ja zu den aufhübschern. ohne gameworks = :ulol: kann ich mir ja grad ne 1060 in die kiste stopfen :P
Wird der denn auch tatsächlich...... gebraucht?
Ich hab ja alles hinter mit von GTX1060, GTX1080 und GTX1080ti und tatsächlich war die Speicherbelegung stets Randvoll. Aber mit der GTX1080 und GTX1080ti habe ich halt in den gleichen Settings getestet und die liefen identisch gut, trotz 3GB weniger bei der 1080.
Also gut in dem Sinne, dass es halt logischerweise weniger FPS gab, aber keine Anzeichen dafür, dass irgendwo Nachladerruckler oder stocken auftrat.
Nur, weil FF15 den RAM vorsorglich mit Daten zuschaufelt, bedeutet das ja noch nicht, dass man das braucht, nur weil man es nutzt.
Oder hat FF15 eine dynamische Texturregulierung?
Wenn ich meine Vega64 nun ausbaue und ne GTX1080ti einbaue, habe ich geschätzt einfach die gleiche Optik, nur dass die Ramauslastung höher ist.
Leonidas
2018-11-26, 16:02:50
https://www.pcbuildersclub.com/2018/11/leak-nvidia-produziert-2019-7nm-grafikkarte-bei-tsmc/amp/
Ich glaube, ich sollte eine News auflegen "nVidia produziert 2022 in 5nm bei TSMC". Stimmt todsicher, selbst auch ohne DigiTimes-Vorlage - und gesagt ist damit aber genauso wenig wie mit der 7nm-News. Sprich: Das Halbleiter-Entwickler immer kleinere Fertigungsverfahren benutzten, sofern diese verfügbar werden, ist irgendwie selbstverständlich.
https://m.eet.com/images/eetimes/2016/06/1329887/Handel1.png
Also doppelte Kosten pro Wafer ja, aber so viel teurer sind die Transistoren nicht.
Das Problem liegt darin, das NV einer der wenigen Chipentwickler ist, welcher seine Entwicklung über dauerhaft krass steigende Transistorenmengen erzielt. Im Gegensatz zu anderen Chipentwicklern spielt hier die Kosten pro Wafer die entscheidende Rolle, weil man eigentlich immer die gleiche Anzahl pro Chips aus dem Wafer rausholt wie früher. NV bräuchte dringender als alle anderen die früher (annähernd) übliche Halbierung der Kosten pro Transistor.
Setsul
2018-11-26, 17:53:17
Bei den momentanen Preisen ist das eigentlich kein Problem.
NVidia braucht die Größen- und Verbrauchszeduzierung viel dringender als eine Kostenreduzierung.
Klar wäre es nett, aber bis die Transistorkosten ein Hindernis werden sind wir bei Nodes, von denen wir nicht wissen ob sie überhaupt existieren werden.
Die Designkosten werden viel früher ein Problem.
gravitationsfeld
2018-11-26, 18:17:23
Das Problem liegt darin, das NV einer der wenigen Chipentwickler ist, welcher seine Entwicklung über dauerhaft krass steigende Transistorenmengen erzielt. Im Gegensatz zu anderen Chipentwicklern spielt hier die Kosten pro Wafer die entscheidende Rolle, weil man eigentlich immer die gleiche Anzahl pro Chips aus dem Wafer rausholt wie früher. NV bräuchte dringender als alle anderen die früher (annähernd) übliche Halbierung der Kosten pro Transistor.
Alle GPU-Hersteller haben das selbe Problem.
Klevapalis
2018-11-26, 19:04:34
NV bräuchte dringender als alle anderen die früher (annähernd) übliche Halbierung der Kosten pro Transistor.
Brauchen sie? Wofür und warum?
Nuvirus
2018-11-26, 22:57:41
Brauchen sie? Wofür und warum?
Damit Sie noch mehr Gewinn einstreichen können :freak:
Günstigere Kosten schaden ja nie aber ich glaube nicht das dadurch die Karten ohne Druck von AMD viel günstiger werden und große Sprünge mit neuen Karten zum gleiche Preis kommen - die üblichen Sprünge halt damit mal wieder Karten verkauft werden
Die Nvidia Karten sind ja so teuer da kann es sich Nvidia leisten
Leonidas
2018-11-27, 08:18:07
Brauchen sie? Wofür und warum?
Um mehr Transen * auf einen gleich großen Chip zu bringen. Und ca. 90% der Leistungssteigerungen der Vergangenheit bei NV und AMDs Grafikchip basieren auf dem Prinzip von mehr Transen auf gleicher Chipfläche.
* hat der Google-Algorithmus mal was zum Nachdenken
Klevapalis
2018-11-27, 10:34:46
Um mehr Transen * auf einen gleich großen Chip zu bringen.
Das hat aber null mit den Kosten zu tun.
Ja, NVIDIA braucht jeden neuen Prozess, um einen noch schnelleren Prozessor zu bauen. Aber die Halbierung der Kosten brauchen sie nicht wirklich.
Rein von der Marktsituation her brauchen sie den neuen Prozess aber nicht. Was AMD mit Vega20 in 7nm gezeigt hat - und irgendwann mal ausliefern will - liefert NVIDIA schon seit Monaten in 12nm.
Eigentlich könnte man fast eher den Case aufmachen, dass die fehlenden Prozesse für NVIDIA gut sind. So kommt ihr Architekturvorsprung viel stärker zu Geltung, als wenn ihn AMD mit einer Adaptierung des neuen Prozess die Show stehlt (HD4000 anyone?).
SKYNET
2018-11-27, 10:45:58
Wird der denn auch tatsächlich...... gebraucht?
Ich hab ja alles hinter mit von GTX1060, GTX1080 und GTX1080ti und tatsächlich war die Speicherbelegung stets Randvoll. Aber mit der GTX1080 und GTX1080ti habe ich halt in den gleichen Settings getestet und die liefen identisch gut, trotz 3GB weniger bei der 1080.
Also gut in dem Sinne, dass es halt logischerweise weniger FPS gab, aber keine Anzeichen dafür, dass irgendwo Nachladerruckler oder stocken auftrat.
Nur, weil FF15 den RAM vorsorglich mit Daten zuschaufelt, bedeutet das ja noch nicht, dass man das braucht, nur weil man es nutzt.
Oder hat FF15 eine dynamische Texturregulierung?
Wenn ich meine Vega64 nun ausbaue und ne GTX1080ti einbaue, habe ich geschätzt einfach die gleiche Optik, nur dass die Ramauslastung höher ist.
alles an AA, LOD beste qualität etc. was möglich im treiber aktiv? ;)
Leonidas
2018-11-27, 10:46:51
Ja, NVIDIA braucht jeden neuen Prozess, um einen noch schnelleren Prozessor zu bauen. Aber die Halbierung der Kosten brauchen sie nicht wirklich..
Das sehe ich anders. Verdopplung der Kosten kann man 1x oder 2x verkraften. Danach geht der gesamte Produktpreis außerhalb dessen, was der Konsument noch zu bezahlen bereit ist. Dauerhaft gesehen benötigt nVidia zwingend die Halbierung der Kosten.
Klevapalis
2018-11-27, 10:55:50
Das sehe ich anders. Verdopplung der Kosten kann man 1x oder 2x verkraften. Danach geht der gesamte Produktpreis außerhalb dessen, was der Konsument noch zu bezahlen bereit ist. Dauerhaft gesehen benötigt nVidia zwingend die Halbierung der Kosten.
Schau dir die letzten Quartalszahlen an. Da ist nichts mit zwingend notwendiger Halbierung der Kosten.
Vielleicht brauchen wir Konsumenten die Halbierung, um wieder Preise wie vor 5-10 Jahren zu haben, darüber können wir gern diskutieren. Aber NVIDIA braucht es nicht zwingend, alleine im HPC-Bereich können Sie den Preis ja quasi beliebig festsetzen. Die Transistorkosten sind bei einem DGX-Server z.B. relativ uninteressant.
][immy
2018-11-27, 11:15:00
Schau dir die letzten Quartalszahlen an. Da ist nichts mit zwingend notwendiger Halbierung der Kosten.
Vielleicht brauchen wir Konsumenten die Halbierung, um wieder Preise wie vor 5-10 Jahren zu haben, darüber können wir gern diskutieren. Aber NVIDIA braucht es nicht zwingend, alleine im HPC-Bereich können Sie den Preis ja quasi beliebig festsetzen. Die Transistorkosten sind bei einem DGX-Server z.B. relativ uninteressant.
ähm, doch, auch nvidia braucht das. Denn auch wenn sie derzeit prestige-Preise haben, kommen haben die höheren Preise ihren Grund.
Wenn man die 2080er auf 7nm produzieren würde, wäre der Preis nach wie vor der gleiche. Man könnte nur noch über den Takt skalieren. Würde man also z.B. die einheiten deutlich aufbohren (was für ihre RayTracing Unterstützung dringend nötig wäre) würde man nur die kosten erhöhen. Und das würde heißen, man müsste noch weiter gehen als die aktuellen Preise.
Mit ein wenig Glück kann AMD hier noch mal in 7nm ein wenig Preisdruck erzeugen, aber ich vermute mal nicht das sie es schaffen eine 2080TI zu schlagen. Mit etwas glück landet man auf 2080er Niveau. Dann müsste zwar nvidia die Preise nach unten hin anpassen, hätte aber selbst kaum mehr Möglichkeiten sich deutlicher abzusetzen ohne das es merklich teurer wird.
btw, der Verbrauch der 2080er zeigt eigentlich schon das 7nm eher zur Reduzierung des Verbrauchs führt als das darüber merklich mehr takt möglich wäre. Hier ist man ja schon relativ an den Limits. Wobei AMD hier auch noch mal ne schippe drauf legt, aber ohne das es ihnen viel bringen würde.
Wo war noch gleich der optimale Verbrauch zu Performance Punkt bei den aktuellen Vegas … war zumindest weit weg und der unterschied in der performance war nicht besonders groß.
Setsul
2018-11-27, 11:43:13
Wenn man die Verdoppelung ein oder zwei mal verkraften kann, dann ist es doch überhaupt kein Problem.
In der gleichen Kategorie (z.B. 660->760->960->1060 usw.) hält nVidia ein Tempo von ungefähr 20-30% pro Jahr.
Also selbst wenn man HPC/Workstation/Quadro ignoriert, wo bei 5000$ Verkaufspreis 100$ Mehrkosten kein Hindernis sind, und das Low-End wo die iGPU mittlerweile unangenehme Konkurrenz sind, also das Ende der Fahnenstange unabhängig davon erreicht wird, heißt das nVidia kann bis 2024-2026 fröhlich weitermachen wie bisher.
Da hätte ich eher Angst, dass der Stromverbrauch nicht weiter sinkt, weil Kosten hin oder her, 600W GPUs will man nicht.
Mal nebenbei wenn die Transistoren schneller schrumpfen als die Anzahl ansteigt, kann man eventuell auch den Takt etwas erhöhen und immernoch innerhalb der gleichen TDP bleiben wie die Vorgängergeneration, nur eben mit weniger Transistoren bei gleicher Leistung.
Also Größe und Verbrauch sind viel wichtiger, wenn man von 16nm an rechnet kann nVidia ein Jahrzehnt ohne Kostenreduzierung leben, aber ohne Größen- und Verbrauchsreduzierung gibts nach 2 Jahren Probleme.
Klevapalis
2018-11-27, 13:30:01
[immy;11862290']ähm, doch, auch nvidia braucht das.
Nein, sieh dir die Verkaufs- und Umsatzzahlen an.
Den Preisaufschlag auf den Chippreis gibt NVIDIA einfach nur an den Kunden weiter. Sie "brauchen" es nicht. Wir Konsumenten brauchen es vielleicht, aber das ist ne ganz andere Frage.
[immy;11862290']Mit ein wenig Glück kann AMD hier noch mal in 7nm ein wenig Preisdruck erzeugen, aber ich vermute mal nicht das sie es schaffen eine 2080TI zu schlagen.
Setz da nicht zuviele Hoffnungen drauf. Vega20 in 7nm ist schon exakt nur dort, wo bereits lange GV100 ist. Trotz Prozessunterschied.
Leonidas
2018-11-27, 13:54:39
Schau dir die letzten Quartalszahlen an. Da ist nichts mit zwingend notwendiger Halbierung der Kosten.
Das ändert doch nix an der Grundsatzaussage, oder?!
Wenn man die Verdoppelung ein oder zwei mal verkraften kann, dann ist es doch überhaupt kein Problem.
Gut. Aber wer sagt, das diese 2x nicht schon längst erreicht sind?
Ich sehe jedenfalls derzeit das Preismaximum für Grafikkarten nahezu erreicht. Als Turing herauskam, haben viele gesagt "Bye, dann werde ich Konsolero". Die wenigstens haben das wirklich getan - aber wenn jetzt noch einmal Preiserhöhungen kommt, dann ist der Ofen aus. Die bleiben Marktführer und verdienen vielleicht nicht einmal weniger - aber die Marktbedeutung wird abnehmen.
Klevapalis
2018-11-27, 14:06:33
Das ändert doch nix an der Grundsatzaussage, oder?!
Ich denke das ändert etwas massives an der Grundaussage.
Ich sehe jedenfalls derzeit das Preismaximum für Grafikkarten nahezu erreicht. Als Turing herauskam, haben viele gesagt "Bye, dann werde ich Konsolero". Die wenigstens haben das wirklich getan - aber wenn jetzt noch einmal Preiserhöhungen kommt, dann ist der Ofen aus. Die bleiben Marktführer und verdienen vielleicht nicht einmal weniger - aber die Marktbedeutung wird abnehmen.
Warum ist jetzt plötzlich willkürlich der Ofen aus? Wie du schon selbst sagst: Viele dachten es, haben es schon angekündigt - und dann doch nicht getan. Warum sollte es beim nächsten Mal nicht wieder so sein?
Man darf nicht vergessen, dass man für den hohen Preis auch eine sehr teure Karte bekommt. TU102 ist mal eben so fast 800mm² groß. So einen riesigen Chip gab es noch nie im Consumersegment.
NVIDIA hätte sicherlich viel Kritik sparen können, wenn sie einfach TU102 als Titan gebracht hätten, TU104 als 2080Ti und TU106 als 2080.
Aber: Was hätte das uns, als Konsumenten genutzt? Außer dem Gefühl für mehr als 1000€ ne Titan zu bekommen?
w0mbat
2018-11-27, 14:13:27
NVIDIA hätte sicherlich viel Kritik sparen können, wenn sie einfach TU102 als Titan gebracht hätten, TU104 als 2080Ti und TU106 als 2080.
Ich behaupte mal genau das Gegenteil. Die Hauptkritik an Turing ist ja, dass die 2080 eigentlich eine "2070" ist und die 2070 eigentlich eine "2060". Wenn sie es nochmal weiter verschoben hätten wäre die Kritik doch viel größer.
Und apropos "viel größer". Die Größe von Turing lieg ja an zwei Faktoren. Zum einen ist da das ganze RTX/Tensor Gedöns und dann war Turing wohl in 10nm und nicht 12nm geplant.
Klevapalis
2018-11-27, 14:30:51
Ich behaupte mal genau das Gegenteil. Die Hauptkritik an Turing ist ja, dass die 2080 eigentlich eine "2070" ist und die 2070 eigentlich eine "2060".
Genau, ein 450mm² Chip ist 200-300€ Mittelklasse
:facepalm:
Bei deinem Lieblingshersteller ist diese "2060"-Chipgröße übrigens das absolute HighEnd. Nur so nebenbei, um die Proportionen nochmal aufzuzeigen. Nicht, dass hinterher noch jemand dieses sinnlose Getrolle für eine Aussage mit Substanz hält.
Also natürlich nur die Chipgröße, der Chip selbst liefert bei doppelter Leistungsaufnahme natürlich nur 2/3 der Leistung :ugly:
SKYNET
2018-11-27, 14:40:41
Genau, ein 450mm² Chip ist 200-300€ Mittelklasse
:facepalm:
Bei deinem Lieblingshersteller ist diese "2060"-Chipgröße übrigens das absolute HighEnd. Nur so nebenbei, um die Proportionen nochmal aufzuzeigen. Nicht, dass hinterher noch jemand dieses sinnlose Getrolle für eine Aussage mit Substanz hält.
Also natürlich nur die Chipgröße, der Chip selbst liefert bei doppelter Leistungsaufnahme natürlich nur 2/3 der Leistung :ugly:
wie gross waren nochmal die gegenspieler der vega56/64? :rolleyes:
Bambuslooter
2018-11-27, 15:41:35
Genau, ein 450mm² Chip ist 200-300€ Mittelklasse
Bei deinem Lieblingshersteller ist diese "2060"-Chipgröße übrigens das absolute HighEnd. Nur so nebenbei, um die Proportionen nochmal aufzuzeigen. Nicht, dass hinterher noch jemand dieses sinnlose Getrolle für eine Aussage mit Substanz hält.
Also natürlich nur die Chipgröße, der Chip selbst liefert bei doppelter Leistungsaufnahme natürlich nur 2/3 der Leistung :ugly:
Warum diese Doppelmoral?
Wie Skynet kurz vor mir geschrieben hat, waren die Pascals (der Konkurrent zu Vega) auch sehr klein.
UND die 1080 ohne TI wurde als Highend verkauft...
Mittelklasse bleibt Mittelklasse. TU106 ist quasi ein halber TU102.
Das kann man eigentlich nicht verneinen.
TU104 Performance und TU102 Highend ist wirklich riesig.
Da aber selbst Leo sowas nie kritisiert hat oder eine sonstige Seite, kann nv machen was Sie wollen.
Man sieht daran aber sehr gut, wie die Kosten explodieren. Wenn man die Die-Größen auf 10nm zurückrechnet hätte der TU102 500-600mm² gehabt, wär aber trotzdem teurer und die Ausbeute schlechter gewesen...
In 7 EUV dürfte man noch mal 50% abspecken von der Größer her, aber die Kosten steigen dabei an. Will heißen, wenn man einen TU102 auf 7 EUV fertigt, ist der knapp 400mm² groß (grob geschätzt), aber das Die wird trotzdem nicht weniger kosten. Was man jetzt zusätzlich bedenken muss: Die Maske kostet sicherlich mindestens das doppelte, wenn nicht das dreifache und deutlich mehr Zeit. Man sieht also sehr gut, wo die Preise hingehen werden. Turing ist da erst der Anfang. Und man sieht, dass die Die-Größen auf absehbare Zeit schrumpfen müssen - und/oder man lagert den ganzen I/O- und Display-Scheiss in 12nm aus, wie bei AMD.
Thunder99
2018-11-28, 07:43:46
Genau, ein 450mm² Chip ist 200-300€ Mittelklasse
:facepalm:
Bei deinem Lieblingshersteller ist diese "2060"-Chipgröße übrigens das absolute HighEnd. Nur so nebenbei, um die Proportionen nochmal aufzuzeigen. Nicht, dass hinterher noch jemand dieses sinnlose Getrolle für eine Aussage mit Substanz hält.
Also natürlich nur die Chipgröße, der Chip selbst liefert bei doppelter Leistungsaufnahme natürlich nur 2/3 der Leistung :ugly:
Ist aber so, wenn man von den bisherigen Veröffentlichungen ausgeht. Ein 06er Chip war immer schon Midrage. Nvidia hat das nun aber umgeworfen was ebenso ungewöhnlich ist wie ein 70er Grafikarte ein extra Chip zu geben anstelle von einem Salvage Part einer x04er Chip ;).
Mir ist es egal wie groß der Chip ist. Das ist Problem von Nvidia.
Nebenbei hat man so große Chips auch für 200-300€ verkauft, oder hat du etwa GT200 vergessen? ;D
Die Produktpolitik von Nvidia ist sonderbar. Mal schauen was als nächstes kommt.
SKYNET
2018-11-28, 10:11:31
Ist aber so, wenn man von den bisherigen Veröffentlichungen ausgeht. Ein 06er Chip war immer schon Midrage. Nvidia hat das nun aber umgeworfen was ebenso ungewöhnlich ist wie ein 70er Grafikarte ein extra Chip zu geben anstelle von einem Salvage Part einer x04er Chip ;).
Mir ist es egal wie groß der Chip ist. Das ist Problem von Nvidia.
Nebenbei hat man so große Chips auch für 200-300€ verkauft, oder hat du etwa GT200 vergessen? ;D
Die Produktpolitik von Nvidia ist sonderbar. Mal schauen was als nächstes kommt.
der GT200 war sogar 3% grösser ;)
just4FunTA
2018-11-28, 19:48:31
ich weiß nicht so recht wohin damit, aber musste gerade herzhaft lachen bei der Meldung also poste ich sie mal hier:
Lagerüberschüsse nach Krypto-Flaute: Nvidia-CEO macht AMD verantwortlich
Betrachte man in einem fiktiven Beispiel nur die beiden Modelle, könnte die Geforce GTX 1060 normalerweise 90 Prozent des Inventars ausmachen und die Radeon RX 580 zehn Prozent. Entscheide sich AMD nun dazu, "jede Menge" GPUs für den Krypto-Markt zu produzieren und werfe diese schließlich in den Zwischenhandel, sei die Verteilung "unverhältnismäßig" - zum Beispiel bei 50:50. Huang führt den Gedankengang nicht mehr weiter aus, meint aber wohl, dass Spieler bei einer solchen Situation eher zu einer Radeon-Grafikkarte greifen könnten. Preislich ist die Radeon RX 580 neben der Radeon RX 570 zurzeit durchaus attraktiv, vor allem da es zurzeit hochkarätige Spiele wie The Division 2 dazugibt. Die eigenen Geforce-Preise hätten sich laut Huang hingegen nicht so schnell nach unten korrigiert, wie man erwartet habe, was den Verkäufen geschadet habe. http://www.pcgameshardware.de/Geforce-GTX-1060-6G-Grafikkarte-264678/News/Krypto-Flaute-Nvidia-CEO-AMD-verantwortlich-1270204/
Was erlaubt sich AMD nur? Wie können sie es wagen Grafikkarten zu verkaufen ist denen nicht klar das für jede verkaufte AMD Graka eine NV Graka nicht gekauft wird? ;D
Fragman
2018-11-28, 20:25:59
Aus Sicht von nv(!), hat er recht. Das er das Ganze nicht neutral sehen will und kann, sollte klar sein. Die Frage am Ende ist ja, wie lange bleiben die Lager voll, denn irgendwann ist der Markt gesättigt und den Rest kann man auf den Müll schmeissen. Hier haben sich wohl beide verzockt.
Könnte für die Zukunft bedeuten, das man erstmal kleinere Mengen auflegt und wartet, wie sich der Markt entwickelt. Dürfte für die Preise insgesamt nicht gut sein.
Troyan
2018-11-28, 20:53:46
Laut nVidia bis zu 6 Monate, AMD sieht die Probleme für fast 9 Monate.
Im Grunde ist bei AMD das komplette GPU-Geschäft für rund 6 Monate tot. Und nVidia verliert die kompletten Verkäufe der Midrange-Pascal Reihe (wohl rund $700 Millionen).
Interessant wird es sein, ob die kleinen Turing-Chips weiterhin zur CES kommen, wie es Gerüchte ja verlautet haben. Laut nVidia soll deren Q1 (Februar bis April) besser laufen als Q4.
MartinRiggs
2018-11-28, 21:07:21
ich weiß nicht so recht wohin damit, aber musste gerade herzhaft lachen bei der Meldung also poste ich sie mal hier:
http://www.pcgameshardware.de/Geforce-GTX-1060-6G-Grafikkarte-264678/News/Krypto-Flaute-Nvidia-CEO-AMD-verantwortlich-1270204/
Was erlaubt sich AMD nur? Wie können sie es wagen Grafikkarten zu verkaufen ist denen nicht klar das für jede verkaufte AMD Graka eine NV Graka nicht gekauft wird? ;D
Muhaha, sehr geil.
Bin gespannt wer verantwortlich ist für miese RTX-Verkäufe :freak:
Die Lederjacke ist schon etwas sehr abgehoben, wird Zeit das er mal wieder geerdet wird.
Digidi
2018-11-28, 22:12:38
Wer sich auf daten eines Mitbewerbers verlässt, ist verlassen.
Man man man was erlauubt sich Lederjacke noch alles?
Yahoo29
2018-11-29, 00:01:30
Pascal wurde auf einen hohen Takt und auf 16nm optimiert.
Dies hat AMD mit Vega auch versucht, aber es funktionierte nicht so ganz, jedenfalls nicht so wie bei NV.
Einfache Shrinks bringen heute kaum noch Vorteile, man muss die Architektur auf den Herstellungs-Prozess anpassen. Sieht man aktuell auch ganz schön an der Vega 20.
SKYNET
2018-11-29, 00:56:19
Aus Sicht von nv(!), hat er recht. Das er das Ganze nicht neutral sehen will und kann, sollte klar sein. Die Frage am Ende ist ja, wie lange bleiben die Lager voll, denn irgendwann ist der Markt gesättigt und den Rest kann man auf den Müll schmeissen. Hier haben sich wohl beide verzockt.
Könnte für die Zukunft bedeuten, das man erstmal kleinere Mengen auflegt und wartet, wie sich der Markt entwickelt. Dürfte für die Preise insgesamt nicht gut sein.
AMD hat sich nicht verzockt, die sind ihre RX alle losgeworden... sonst hätten sie sicherlich keine 590er auf den markt geworfen, wenn mit 580ern die lager noch voll wären ;)
und die 570er verkaufen sich auch wie geschnitten Brot, kostet das gleiche wie ne 1050Ti ist aber mehr als die hälfte schneller. :biggrin:
unterhalb der 2070 hat NV derzeit nix, aber auch garnix, das AMD in der jeweiligen Preisklasse das wasser reichen kann...
oder anders gesagt: AMD hat aufs richtige Pferd gesetzt, und NV war zu gierig ;D
BlacKi
2018-11-29, 01:31:54
ich weiß nicht so recht wohin damit, aber musste gerade herzhaft lachen bei der Meldung also poste ich sie mal hier:
http://www.pcgameshardware.de/Geforce-GTX-1060-6G-Grafikkarte-264678/News/Krypto-Flaute-Nvidia-CEO-AMD-verantwortlich-1270204/
Was erlaubt sich AMD nur? Wie können sie es wagen Grafikkarten zu verkaufen ist denen nicht klar das für jede verkaufte AMD Graka eine NV Graka nicht gekauft wird? ;D
recht hat er aber, siehe preise p21 vs p20 .nur was bringt es ihm es laut auszusprechen? das zieht doch nur ungeziefer an lol
naja, als kunde gibts schlimmeres^^
oder anders gesagt: AMD hat aufs richtige Pferd gesetzt, und NV war zu gierig ;D
als ob es von amd geplant war p20 zum preis von p21 zu verkaufen...
manchmal...ich spars mir.
SKYNET
2018-11-29, 02:26:19
als ob es von amd geplant war p20 zum preis von p21 zu verkaufen...
manchmal...ich spars mir.
im Gegensatz zu anderen Herstellern *hust* NV *hust* probiert AMD die preise nicht künstlich oben zu halten damit der neue krams "günstiger" erscheint...
BlacKi
2018-11-29, 03:22:10
künstlich hochhalten? die ware muss raus, sieht man am preis eines einzelnen chips, welcher fürs mining gedacht war und jetzt nur rumliegt. das war so nicht geplant von amd.
horn 12
2018-11-29, 06:34:51
Nvida sollte lieber zusehen die RTX Probleme in den GRIFF ZU BEKOMMEN, anstatt solche Sprüche zu klopfen!
Zudem eine Klage würde Nvidia mal wirklich gut tun um jene, vor allem den Huang auf den Boden der Tatsachen zurückzuholen.
Hochmut kommt oft zum Fall,- und dies ist nun wohl mal auch passiert!
Hoffe AMD kann mit Navi Big NV wirklich mal in die Schranken weisen.
Fragman
2018-11-29, 06:56:12
Nvida sollte lieber zusehen die RTX Probleme in den GRIFF ZU BEKOMMEN, anstatt solche Sprüche zu klopfen!
Die Probleme, wenn man das in den Preisregionen mal so nennen will, wird man erst mit 7nm "lösen" können. Zumindest wenn du die Probleme meinst, die ich vermute. Und für AMD sollte man hoffen, das nv da nicht so schnell reagieren wird, sonst wirds schnell ungemütlich. Mit den vollen Lagern kann man aber wohl davon ausgehen, das sie im Moment nicht gezwungen sind, mit noch besser optimierten Produkten auf den Markt zu kommen, weder bei der Leistung, noch beim Preis. Hier hat AMD, dank deren schwachen Performance der letzten Jahre, dann auch einen Vorteil mit Navi, selbst wenn der nur auf oder knapp über Vega landet. Bei nv wird ja wohl nur ein Productreplacement werden.
Laut nVidia bis zu 6 Monate, AMD sieht die Probleme für fast 9 Monate.
Bei den 6 Monaten ist Nvidia aber davon ausgegangen, dass sie 90:10 verkaufen. Dem ist aber nicht so darum ja dieses mimimi.
Calypso
2018-11-29, 08:24:47
künstlich hochhalten? die ware muss raus, sieht man am preis eines einzelnen chips, welcher fürs mining gedacht war und jetzt nur rumliegt. das war so nicht geplant von amd.
naja, also bei den Preisen von der 1060 sehe ich nicht annähernd einen Abverkauf, gerade wenn die Lager so voll sein sollen. Ich meine, wie will nvidia auch den Preis einer 2060 von 500 Euro (aufwärts?) rechtfertigen, wenn die 1060 für 200 weggehen würde (wie sonst alle x60 davor).... :rolleyes:
Linmoum
2018-11-29, 08:30:25
Bei den 6 Monaten ist Nvidia aber davon ausgegangen, dass sie 90:10 verkaufen. Dem ist aber nicht so darum ja dieses mimimi.
Zumal seine 9 Monate auch kompletter Quatsch sind, Su sprach im CC zu den Q3-Zahlen von den nächsten beiden Quartalen und sinngemäß sowas wie "might linger into Q1". Kann sich also sogar schon im Laufe von Q4 erledigen.
Beide haben zu viel produziert. Der eine heult rum, weil der andere dasselbe wie man selbst gemacht hat und daher Geld fehlt. Wie können andere Firmen es nur wagen.
|MatMan|
2018-11-29, 08:44:28
Oh man Huang muss eine Erklärung liefern warum man zu viel auf Lager hat. Da schiebt er es natürlich gern auf die Konkurrenz, was ja auch zum Teil stimmt. Das ist ganz normales Geschäft. Dass sich die AMD Fan gleich dermaßen auf den Schlips getreten fühlen wegen so einer lapidaren Aussage, ist einfach lächerlich.
Mich wundert eher, dass man preislich nicht reagiert und aussitzt. Pascal muss doch schon längst die Kosten wieder eingespielt haben. D.h. wohl wenn der GTX1060 Nachfolger ein paar Monate später kommt, bleibt der trotzdem noch lange genug am Markt um sich zu rentieren.
Ich glaube übrigens nicht, dass man bei den kleineren GPUs RT ausbaut. Man hat noch nie bei später erscheinenden GPUs Features wieder ausgebaut. Das wäre möglicherweise sogar teurer als es drin zu lassen.
dildo4u
2018-11-29, 09:02:10
Die Preise wurden gesenkt es gibt 1060 6G für 220€,bei der 580 gibt es ein Modell für 200 der Rest ist vieleicht 10€ Billiger.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&sort=p&bl1_id=30&xf=132_8192~9808_11704+-+RX+580+(XTX)
https://geizhals.de/?cat=gra16_512&xf=132_4096~9810_7+3855+-+GTX+1060+(6GB%2F1280+Shader)&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30
SKYNET
2018-11-29, 10:28:38
Die Preise wurden gesenkt es gibt 1060 6G für 220€,bei der 580 gibt es ein Modell für 200 der Rest ist vieleicht 10€ Billiger.
https://geizhals.de/?cat=gra16_512&v=l&hloc=at&hloc=de&sort=p&bl1_id=30&xf=132_8192~9808_11704+-+RX+580+(XTX)
https://geizhals.de/?cat=gra16_512&xf=132_4096~9810_7+3855+-+GTX+1060+(6GB%2F1280+Shader)&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30
langt doch
Troyan
2018-11-29, 10:53:49
recht hat er aber, siehe preise p21 vs p20 .nur was bringt es ihm es laut auszusprechen? das zieht doch nur ungeziefer an lol
naja, als kunde gibts schlimmeres^^
als ob es von amd geplant war p20 zum preis von p21 zu verkaufen...
manchmal...ich spars mir.
Nicht nur das. P20 kostet bis zu 70€ weniger als P30. Sieht nach einem fantastischen Konzept aus, den x-ten Aufguss erheblich teurer zu verkaufen, als den vorigen x-ten Aufguss, der jedoch weiter in Massen auf dem Markt ist.
Aber wehe jemand wie Huang spricht das an. :freak:
SKYNET
2018-11-29, 11:33:40
ich erinnere gerne auch an GF3/4/5... die eine war nen aufguss der anderen...
AffenJack
2018-11-29, 11:36:31
ich erinnere gerne auch an GF3/4/5... die eine war nen aufguss der anderen...
Wie GCN1-GCN5. Auch alles nur ein Aufguss des anderen.
aufkrawall
2018-11-29, 11:39:53
Huang ist einfach ein schlechter Verlierer, die Polaris 20-Schwemme versaut ihnen die angestrebte Marge und zur 590 können keinen direkten Konkurrenten aus dem Ärmel schütteln.
Hugo78
2018-11-29, 11:50:47
Die 590 ist auch nicht zwingend eine Reaktion wert, weil sie grade mal mit der 1060FE gleich zieht. Eine OC Custom 1060 ist immernoch schneller.
Troyan
2018-11-29, 11:54:02
Da die Preise der GTX1070 zur Zeit sinken (verfügbar ab 339€), ist die RX590 sowieso DoA. Das wiederum verschärft ja das Lagerproblem bei AMD weiter.
Huang hat also genau das angesprochen. Aber nein, wenn jemand die Wahrheit sagt, wird er sofort angefeindet, weil es in der vorgefertigten Welt der Trolle ja nicht so sein kann.
Calypso
2018-11-29, 11:55:33
wie manche hier ihre Lieblingslederjacke verteidigen ist ja langsam echt nicht mehr feierlich...
Linmoum
2018-11-29, 12:22:08
Die 590 ist auch nicht zwingend eine Reaktion wert, weil sie grade mal mit der 1060FE gleich zieht. Eine OC Custom 1060 ist immernoch schneller.
Wie kann die 590 gerade mal mit der 1060 FE gleichziehen, wenn bereits die 580 genauso schnell bzw. schneller (s. u.a. CB und PCGH) ist? Ergibt keinen Sinn.
Konkurrenz ist relativ, da die Performanceunterschiede nicht gewaltig sind, aber die 1060 ist eher Konkurrent der 580 und nicht der 590.
Dural
2018-11-29, 12:52:44
Wie kann die 590 gerade mal mit der 1060 FE gleichziehen, wenn bereits die 580 genauso schnell bzw. schneller (s. u.a. CB und PCGH) ist? Ergibt keinen Sinn.
Konkurrenz ist relativ, da die Performanceunterschiede nicht gewaltig sind, aber die 1060 ist eher Konkurrent der 580 und nicht der 590.
1060 oc karten sind genau so schnell wenn nicht sogar schneller... und eine normale 1060 verbraucht die hälfte strom (!!!) einer 590. Die 590 ist so langweilig das sich nv nicht mal genötigt sieht was neues auf den markt zu werfen obwohl die lager mit gp104 und gp106 noch voll sind.
https://www.computerbase.de/2018-11/amd-radeon-rx-590-test/3/#abschnitt_benchmarks_in_1920__1080_und_2560__1440
AMD ist schon lange nicht mehr konkurrenz fähig, und das sehen die mehrzahl der gamer auch so. Die 480 und 580 gingen zu einem sehr grossen teil an die bergleute... der hype ist zusammen gebrochen und amd wird ihre karten somit fast nicht mehr los und musste massiv den preis senken, und jetzt packen sie noch spiele dazu. Es gibt ein sehr grosses überangebot, aber zu wenige käufer.
Jensen hat somit zu 100% recht, aber ich erwarte schon lange nicht mehr das ihr solche offensichtliche fakten auch versteht...
Calypso
2018-11-29, 13:26:27
also prinzipiell glaube ich ja nicht, dass die Leute Spiele zocken, umdabei Strom zu sparen, sondern um hohe FPS zu bekommen. Und dass dies auf längere Sicht mit einer 8 GB Karte eher möglich sein wird, als mit einer 6 GB Karte spielt da sicher auch eine Rolle.
Und ja, Deine grüne Brille leuchtet schon weitem.. Ich weiß gar nicht, wieso ich überhaupt antworte, denn andere Meinungen werden ja eh nicht akzeptiert...
Dural
2018-11-29, 14:42:08
Welche andere Meinung? Die Meinungen die ohne Fakten zusammen gereimt werden?
Schau die Steam Werte an, die 1060 ist die meistverkauft Gamer Karte.
Jensen sagt was von 90/10, wird Wahrscheinlich nicht ganz so hoch sein, die Richtung zeigt es aber an.
Übrigens neutrale Fakten brauchen keine Grüne oder Rote Brille ;)
Calypso
2018-11-29, 14:47:34
ich weiß nicht, ob Du auch von nvidia bezahtl wirst, aber sich hier mit diversen Aussagen hinzustellen und dann zu behaupten, man wäre neutral, das ist schon dreist.
Davon abgesehen ist eine Aussage von Jenson noch keine Fakt,. aber himmel ihn ruhig weiter an, aber verschone doch den Rest im Forum mit Deinem Geblabber.
SKYNET
2018-11-29, 15:16:52
Die 590 ist auch nicht zwingend eine Reaktion wert, weil sie grade mal mit der 1060FE gleich zieht. Eine OC Custom 1060 ist immernoch schneller.
ehm, nein... mit 200MHz mehr GPU(also wie die meisten customs) und 600MHz speicher langts grade eben so, gleich zu ziehen...
btw: https://www.computerbase.de/2018-11/amd-radeon-rx-590-test/3/#diagramm-rating-99th-percentile-frametimes-in-fps-1920-1080
gbm31
2018-11-29, 15:36:37
Herrlich hier wieder.
Lederjacke ist sauer dass sein Abverkauf nicht zieht - ist doch klar. Was erlaube AMD?
Aber deswegen gleich wieder ausflippen? Und Turing kratzt das auch nicht.
@ Calypso: Ignore helps.
ilPatrino
2018-11-29, 15:53:05
Es gibt ein sehr grosses überangebot, aber zu wenige käufer.
Jensen hat somit zu 100% recht, aber ich erwarte schon lange nicht mehr das ihr solche offensichtliche fakten auch versteht...
die 1060 ist noch lange nicht auf dem preispunkt für ehemalige 60er karten im abverauf angekommen. er mault rum, daß zuwenig leute die abgehobenen preise bezahlen wollen. er will nicht seine traummargen aufgeben, um die lager leer zu kriegen und mault rum, daß amd das macht.
mal sehen, wer sich eher bewegt - nvidia oder die käufer. leider gibts im bereich drüber zu wenig konkurrenz - bei den 70er karten ist die preisgestaltung noch absurder.
Dural
2018-11-29, 17:13:39
also ab manchen muss man sich echt fragen... :rolleyes:
https://store.steampowered.com/hwsurvey/videocard/
GTX1060 - 14.8%
RX580 - 0.50%
RX480 - 0.60%
Selbst eine GTX1080Ti hat in Steam einen höheren Anteil als 480+580 ZUSAMMEN
Kindergarten nur noch :rolleyes:
Rampage 2
2018-11-29, 17:26:28
Die Preise wurden gesenkt es gibt 1060 6G für 220€,bei der 580 gibt es ein Modell für 200 der Rest ist vieleicht 10€ Billiger.
https://geizhals.de/?cat=gra16_512&xf=132_4096~9810_7+3855+-+GTX+1060+(6GB%2F1280+Shader)&asuch=&bpmin=&bpmax=&v=l&hloc=at&hloc=de&plz=&dist=&mail=&sort=p&bl1_id=30
Leider ist das ein Billig-Modell - also nicht so hochwertig (und damit vermutlich weniger OC-Eignung) wie die Modelle von prominenten Herstellern... (EVGA, Gigabyte, ASUS, MSI)
R2
Mangel76
2018-11-29, 17:52:15
also ab manchen muss man sich echt fragen... :rolleyes:
https://store.steampowered.com/hwsurvey/videocard/
GTX1060 - 14.8%
RX580 - 0.50%
RX480 - 0.60%
Selbst eine GTX1080Ti hat in Steam einen höheren Anteil als 480+580 ZUSAMMEN
Kindergarten nur noch :rolleyes:
Wenn Polaris doch soooooo unbedeutend ist, verstehe ich die Aussage von der Lederjacke noch weniger. Das Verhalten von AMD dürfte dann ja keinen Effekt auf NVIDIA haben. Ergo hat Jensen dein Argument höchstselbst widerlegt 😁
Ex3cut3r
2018-11-29, 18:02:39
also ab manchen muss man sich echt fragen... :rolleyes:
https://store.steampowered.com/hwsurvey/videocard/
GTX1060 - 14.8%
RX580 - 0.50%
RX480 - 0.60%
Selbst eine GTX1080Ti hat in Steam einen höheren Anteil als 480+580 ZUSAMMEN
Kindergarten nur noch :rolleyes:
Verstehe ich auch nicht, auf Steam ist die 1060 mit Abstand die meist verbreiteste Karte, dass Nvidia noch mehr 1060 los wird, liegt wohl einfach daran, dass die meisten schon eingedeckt sind. Aber lass die hier ruhig weiter glauben, dass die RX 590er ja so ein toller Fang ist, ja Sie hat die Leistungskrone, trotzdem durften die meisten einfach mit 1060, 1050Ti, RX 480, RX 570/580 eingedeckt sein. Von daher wenn kümmert es? ^^
fondness
2018-11-30, 08:33:46
ich weiß nicht so recht wohin damit, aber musste gerade herzhaft lachen bei der Meldung also poste ich sie mal hier:
http://www.pcgameshardware.de/Geforce-GTX-1060-6G-Grafikkarte-264678/News/Krypto-Flaute-Nvidia-CEO-AMD-verantwortlich-1270204/
Was erlaubt sich AMD nur? Wie können sie es wagen Grafikkarten zu verkaufen ist denen nicht klar das für jede verkaufte AMD Graka eine NV Graka nicht gekauft wird? ;D
Ja da musste ich auch schmunzeln. In Wahrheit konnte oder wollte AMD während des gesamten Mining-Booms nie ausreichende Mengen an GPUs liefern, wodurch die Preise für AMD-GPUs natürlich unattraktiv hoch wurden und Nvidia entsprechend viel absetzen konnte. Jetzt wo der Mining-Booms zu Ende ist, sinken die AMD-GPU-Preise wieder auf ihr ursprüngliches Niveau und plötzlich ist eine GTX1060 bei weitem nicht mehr so attraktiv wie vorher, was natürlich auch wieder mehr Marktanteile für AMD im Gaming-Markt bedeutet.
dildo4u
2018-11-30, 09:00:01
Ja da musste ich auch schmunzeln. In Wahrheit konnte oder wollte AMD während des gesamten Mining-Booms nie ausreichende Mengen an GPUs liefern, wodurch die Preise für AMD-GPUs natürlich unattraktiv hoch wurden und Nvidia entsprechend viel absetzen konnte. Jetzt wo der Mining-Booms zu Ende ist, sinken die AMD-GPU-Preise wieder auf ihr ursprüngliches Niveau und plötzlich ist eine GTX1060 bei weitem nicht mehr so attraktiv wie vorher, was natürlich auch wieder mehr Marktanteile für AMD im Gaming-Markt bedeutet.
Laut dem hat Nvidia massiv zugelegt in Q3 nicht abgebaut.
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2018
Das passt auch zu dem Game Bundle von AMD und den Dumping Preisen zum Black Friday,die Nachfrage als Gameing Karte war minimal daher braucht es Bundles.
Linmoum
2018-11-30, 09:17:40
Dann lügt Jensen, wenn die Zahlen stimmen. Beides geht nicht. Wobei ich weiß, wem ich eher traue. Was die Sache aber nicht besser macht.
dildo4u
2018-11-30, 09:24:45
Wenn Q3 mit dem RTX Launch nicht zugelegt hätte wäre auch massiv was falsch gelaufen ich vermute mal das sich Jensen auf den GTX Stock bezogen hat.
Warum sollte es auch eine hohe Nachfrage nach 2 Jahre alten Karten geben sobald das Mining weggebrochen ist.
Troyan
2018-11-30, 09:33:52
Ja da musste ich auch schmunzeln. In Wahrheit konnte oder wollte AMD während des gesamten Mining-Booms nie ausreichende Mengen an GPUs liefern, wodurch die Preise für AMD-GPUs natürlich unattraktiv hoch wurden und Nvidia entsprechend viel absetzen konnte. Jetzt wo der Mining-Booms zu Ende ist, sinken die AMD-GPU-Preise wieder auf ihr ursprüngliches Niveau und plötzlich ist eine GTX1060 bei weitem nicht mehr so attraktiv wie vorher, was natürlich auch wieder mehr Marktanteile für AMD im Gaming-Markt bedeutet.
Genau, AMD wollte nie. Deswegen haben die auch überhaupt kein Inventar-Problem im Channel. Nene.
Mal eine Frage: Wie kann man auf die Idee kommen, solche Lügen zu shreiben?
Rancor
2018-11-30, 09:51:33
Mal eine ernstgemeinte Frage an dich Troyan! Warum genau bist du so ein enormer Fürsprecher für Nvidia. Ich möchte das wirklich gerne mal wissen. Es ist nur ein verdammter Hersteller von PC Hardware.
pilzsammler2002
2018-11-30, 09:53:31
Ich gehe meistens (gibt ja mehrere "Fälle") davon aus das es Kunden/Mitarbeiter im Nvidia/AEG Programm sind, das ist ja nicht gecancelt worden nachdem es rauskam... :D
Troyan
2018-11-30, 09:55:03
Ich bin also ein "Fürsprecher von nVidia", wenn ich einen Lügner des Lügens überführe? Lmao.
Kann ich was dafür, dass der Typ hier einfach dreist meint die Unwahrheit zu schreiben? Nein.
Anscheinend hast du aber ein Problem, dass in einem nVidia-Thread(!) mal über nVidia gesprochen wird.
Daher meine Frage an: Wieso stören dich solche Teilnehmer wie Fondness nicht, aber Leute, die ihm berichtigen? Es ist nicht das erste Mal, dass du Typ ein Problem mit Posting hast, die nicht gegen nVidia haten.
Die Wahrheit ist einfach, dass beide viel zuviele GPUs produziert haben und AMD es gemacht hat, wie sie es immer machen, P10 mit minimaler Marge an die Hersteller abgeben, damit sehr niedrige Preise möglich sind. Darüber beschwert sich Mr. Lederjacke natürlich, da die extremen Lagerbestände der GP104/6 ebenfalls nur mit fast keiner Marge abgesetzt werden können. NV muss halt sehr viele GPUs absetzen und verdient nichts daran, obwohl AMD nur 1/10el des Marktes bedienen kann, aber eben den Preis festsetzt - das ist der Beschwerdeknackpunkt. Er muss halt stagnierende Umsätze erklären.
Dann setzt AMD aber noch einen obendrauf und bringt die RX590 für die gleichen Produktionskosten zu alten Preisen - und NV sitzt weiterhin auf seinen Lagerbeständen und muss sogar die Einführung des TU107/8 verschieben deswegen.
gbm31
2018-11-30, 10:02:49
Mal eine ernstgemeinte Frage an dich Troyan! Warum genau bist du so ein enormer Fürsprecher für Nvidia. Ich möchte das wirklich gerne mal wissen. Es ist nur ein verdammter Hersteller von PC Hardware.
Ich gehe meistens (gibt ja mehrere "Fälle") davon aus das es Kunden/Mitarbeiter im Nvidia/AEG Programm sind, das ist ja nicht gecancelt worden nachdem es rauskam... :D
Das geht dann aber deutlich nach hinten los.
1. Stufe: Ignore (zusammen mit Executer, Dural, PHuV, ... der Turing-Thread war sehr ergiebig...)
2. Stufe: Hab meine 1070Ti verkauft. (nach 10 Jahren NV - letzte AMD/ATI HD4870 oder 50)
Rancor
2018-11-30, 10:05:20
Ich bin also ein "Fürsprecher von nVidia", wenn ich einen Lügner des Lügens überführe? Lmao.
Kann ich was dafür, dass der Typ hier einfach dreist meint die Unwahrheit zu schreiben? Nein.
Anscheinend hast du aber ein Problem, dass in einem nVidia-Thread(!) mal über nVidia gesprochen wird.
Daher meine Frage an: Wieso stören dich solche Teilnehmer wie Fondness nicht, aber Leute, die ihm berichtigen? Es ist nicht das erste Mal, dass du Typ ein Problem mit Posting hast, die nicht gegen nVidia haten.
Ich will das einfach nur wissen, weil ich nicht verstehen kann, wie man so leidenschaftlich für einen Hersteller von PC Hardware argumentieren kann. Wenn man hier über Nvidia spricht und mal was kritisiert, wie zum Beispiel die RTX Karten, kommst du an und bügelst gleich alles in einem Sturm der Entrüstung nieder. Über etwas sprechen, heisst nicht das man es huldigen muss.
Und die AMD Jünger wie vinacis und Konsorten gehen mir genauso auf den Sack. Übrigens habe ich dort auch schon die gleiche Frage gestellt. Interessaner Weise haben sie fast dasselbe geantworter wie du. Eben nur mit AMD Brille..
Also erklär das mal bitte, gerne auch per PN.
Achja und ich bin ja selber Nvidia Kunde im VGA Bereich.. Meine letzte AMD Karte war die Radeon 9800pro.
Mangel76
2018-11-30, 11:50:52
Laut dem hat Nvidia massiv zugelegt in Q3 nicht abgebaut.
https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2018
Das passt auch zu dem Game Bundle von AMD und den Dumping Preisen zum Black Friday,die Nachfrage als Gameing Karte war minimal daher braucht es Bundles.
Ja, relativ haben sie im 3. Quartal zugelegt, weil die AMD-Preise länger brauchten um etwas runterzukommen. Vielleicht hat AMD ja doch nicht so ein großes Inventarproblem wie NVIDIA, denn dann hätten die Preise direkt nach dem Ende des Miningbooms deutlicher fallen müssen.
Absolut betrachtet haben beide dabei aber deutlich weniger verkauft, siehe Anstieg des Intel-Anteils bei Gesamtbetrachtung. Wenn der Intelanteil deutlich zunimmt, obwohl zu der Zeit schon teilweise der Preis der CPUs anstieg wegen schlechter Verfügbarkeit, dann muss der Absatz von dedizierten Grafikkarten im gleichen Zeitraum wirklich massiv eingebrochen sein. In so einer Situation ist dann auch die deutliche Verschiebung bei Betrachtung der dedizierten Grafikkarten kein Wunder mehr, da geht es wirklich drunter und drüber in dem Markt. Zudem dürfte Mining den AMD-Anteil zuvor hochgehalten haben und bei NVIDIA stand der Launch von Touring vor der Tür, das 3. Quartal muss daher echt desaströs gewesen sein was den Gamermarkt betrifft.
fondness
2018-11-30, 13:04:47
Genau, AMD wollte nie. Deswegen haben die auch überhaupt kein Inventar-Problem im Channel. Nene.
Mal eine Frage: Wie kann man auf die Idee kommen, solche Lügen zu shreiben?
Ich frage mich eher, wie du auf die Idee kommen kannst einen solchen Beitrag zu schreiben. Ich habe nirgends gesagt, dass AMD kein Channel-Problem hat. Unbestritten ist hingegen, dass AMDs Karten während des Mining-Booms wesentlich stärker im Preis gestiegen sind und dementsprechend wesentlich knapper waren und dementsprechend unattraktiv für nicht-Miner wurden. Sie haben dementsprechend jetzt auch ein geringeres Channel Problem (merke geringer != nicht) und müssen nicht ein Quartal eine ganze GPU-Serie von der Auslieferung ausschließen. Schlicht weil durch den gesunkenen Preis im Channel auch wieder die Absetzmenge bei Gamern zunimmt ggü. der Zeit des Mining-Booms.
Ich Spekuliere mal:
Wenn man bei einem Sandhaufen unten eine Schaufel voll wecknimmt,
rutscht auch von ganz oben etwas herunter ...
D.h.: NV stört es das AMD ihnen ans "Bein pisst" ( mehr kann AMD im Moment nicht )
und NV dadurch sein gewünschtes "Preisgefüge" gestört sieht.
Was wiederum den Gewinn etwas schmälert und die Aktionäre stört,
weil sie ihre Dividenden "gefährdet" sehen.
( der Mensch ist nun mal gierig und das trifft gerade bei Aktionären zu )
Wir sollten uns eher fragen, warum wir jetzt soviel mehr Geld für Grakas ausgeben wollen/müssen,
obwohl NV tief schwarze Zahlen schreibt ... :confused:
m.f.g. JVC
Troyan
2018-11-30, 13:43:57
Huang spricht von "Because it’s not just my inventory. It’s AMD’s inventory as well" und du findest die Aussage lustig, weil AMD zum Hypehöhepunkt nicht genug GPUs liefern konnte. Fun Fact: nVidia konnte es auch nicht. Also haben weder nVidia noch AMD zur Zeit ein Problem, ja?
Offizielle Aussage von AMD zum Thema Inventar aus Q3:
Channel GPU sales came in lower than expected based on excess channel inventory levels[...]
https://seekingalpha.com/article/4214112-advanced-micro-devices-amd-q3-2018-results-earnings-call-transcript?page=2
Offizielle Aussage zur Dauer des Problems:
Lisa T. Su - Advanced Micro Devices, Inc.
We are expecting that it might take a couple quarters to completely get back to, let's call it, a normal channel. However, it is factored into our Q4 guidance.
https://seekingalpha.com/article/4214112-advanced-micro-devices-amd-q3-2018-results-earnings-call-transcript?page=8
Und hier der Grund, wieso es zum Problem kam:
I think if you look at the underlying nature there was a set of over shipments in the first half of the year. So there was excess inventory that came in the first half of the year that we need to work off here in the second half of the year.
https://seekingalpha.com/article/4224857-advanced-micro-devices-inc-amd-ceo-lisa-su-presents-22nd-annual-credit-suisse-technology?page=3
Und ich denke, du kannst beweisen, dass AMDs Problem geringer wäre als das von nVidia. Denn Offiziell unterscheiden sich beide nicht in der Kommunikation.
Rancor
2018-11-30, 13:56:53
Ich warte noch auf eine Erklärung Troyan.
Troyan
2018-11-30, 14:03:55
"Confirmation Bias". Du empfindest jeden, der keine Hetze gegen nVidia schreibt als "Fürsprecher von nVidia". Dir scheint eben nicht bewusst zu sein, dass Leute einfach nur eine simple Pro-nVidia haben können. Simpel ausgedrückt: Du siehst jemanden, der die Wahrheit schreibt schon als "Fürsprecher" an, wenn die Wahrheit nicht dem entspricht, was du dir vorstellst.
Ist ein Hobbie für mich. Mich interessiert der Markt. Da ist deine Antwort.
Aber ich habe auch ehrlich Frage an dich: "Fürsprecher für AMD" wie fondness und Linmoum, die hier ja schon dauernd mit reinen Pro-AMD-Postings auffallen, scheinen für dich nicht relevant zu sein. Wieso? Wo ist hier dein Gerechtigskeitsinn?
Rancor
2018-11-30, 14:17:26
Du weisst, das ich seit der 9800pro Nvidia Kunde bin oder? Wieso sollte ich gegen Nvidia hetzen oder gegen sonst irgendeinen Hardwarehersteller? ich habe doch keine persönliche Fehde mit den Unternehmen :freak:
Meine nächste VGA wird sicher auch wieder eine Nvidia Karte sein, nur die 2000er Serie lasse ich aus, weil ich sie nicht so gut finde. Das reicht dir offenbar schon, um mich als Feind zu betrachten. Merkwürdig finde ich sowas.
Es sind verdammte Hardwarehersteller. Mich interessiert einfach, wie man solche einen Bias entwickeln kann.
Mir ist es im Prinzip völlig egal ob mein Rechner aus AMD, Nvidia oder Intel Komponenten besteht. Ich kaufe das, was ich für mich als am sinnvollsten erachte, wer das letzendlich baut ist mir wumpe.
Mit Fondness und v_v hatte ich selber schon meine Dispute, weil die ähnlich drauf sind wie du, nur eben auf AMDs Seite. Hier im Thread bist du aber gerade der auffälligste.
Das der Markt dich interessiert, ist keine Erklärung für deine Leidenschaft für Nvidia. Und von welcher Wahrheit redest du denn da die ganze Zeit?
SKYNET
2018-11-30, 14:30:28
Du weisst, das ich seit der 9800pro Nvidia Kunde bin oder? Wieso sollte ich gegen Nvidia hetzen oder gegen sonst irgendeinen Hardwarehersteller? ich habe doch keine persönliche Fehde mit den Unternehmen :freak:
Meine nächste VGA wird sicher auch wieder eine Nvidia Karte sein, nur die 2000er Serie lasse ich aus, weil ich sie nicht so gut finde. Das reicht dir offenbar schon um mich als Feind zu betrachten. Merkwürdig finde ich sowas.
Es ist ein verdammter Hardwarehersteller. Mich interessiert einfach, wie man solche einen Bias entwickeln kann.
Mir ist es im Prinzip völlig egal ob mein Rechner aus AMD, Nvidia oder Intel Komponenten besteht. Ich kaufe das, was ich für mich als am sinnvollsten erachte, wer das letzendlich baut ist mir wumpe.
Mit Fondness und v_v hatte ich selber schon meine Dispute, weil die ähnlich drauf sind wie du, nur eben auf AMDs Seite. Hier im Thread bist du aber gerade der auffälligste.
Ich will das einfach mal verstehen, woher das kommt.
jeder, der etwas gegen turing sagt(welche ein komplett unrundes und überteuertes produkt ist) wird von ihm automatisch angepisst :rolleyes:
wahrscheinlich ist er so frustriert darüber, das der mehrgewinn ggü. pascal nicht wie er erhofft hatte 50% und mehr sind, sondern im besten fall 30% und die preise so abgehoben, das anstelle der avisierten 2080Ti es nur für ne 2080 langte ;D
dazu kommt, das er wenn ichs recht in erinnerung habe, NV aktien hat... und die haben ja in den letzten 3 monaten fast 50% an wert verloren... zusätzliche frustrationsmasse :ulol:
Rancor
2018-11-30, 14:32:31
Naja so dramatisch kann das aber nicht sein. Ich habe in meiner Laufbahn auch schon Fehlkäufe getätigt.
Das passiert halt mal. Mein 3570k zB. Hätte direkt nen I7 nehmen sollen damals. War halt ne Fehlentscheidung.
Troyan
2018-11-30, 15:33:28
Hier im Thread bist du aber gerade der auffälligste.
Eigentlich bist du das. Du trägst nie zum Thema "Turing" etwas bei. Deine Postings sind immer rein negativ. Immer, egal um was es geht: Schlecht, langsam, doof, teurer, ungeeignet etc. Jedes Mal, wenn irgendwas kommt, tauchst du auf und kritisiert es.
Sage ich ja: Dein Bias ist so dermaßen verschoben, dass du eben immer das böse überall siehst. Du fragst, wie man "so leidenschaftlich" sein könnte? Du weißt es schon. Schau einfach hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11806499&postcount=9505
Deswegen hast du auch Probleme andere Meinungen zu akzeptieren, die konträr zu deiner sind. ;)
Daher lass es.
/edit: Ich setz dich auf meine Ignore. Macht kein Sinn ehrlich. Du musst also nicht mehr auf meine Posting antworten.
Argo Zero
2018-11-30, 16:04:38
Lese ich noch einmal persönlich werdende Beiträge oder sonstiges -> 5 Tage Urlaub.
Dural
2018-11-30, 17:52:42
sinken die AMD-GPU-Preise wieder auf ihr ursprüngliches Niveau und plötzlich ist eine GTX1060 bei weitem nicht mehr so attraktiv wie vorher, was natürlich auch wieder mehr Marktanteile für AMD im Gaming-Markt bedeutet.
Die AMD Karten sind einzig interessant für Gamer wenn sie günstiger als die NV Gegenstücke sind. Das ist gefühlt seit 10 Jahren so, ist aber offensichtlich noch nicht bei allen angekommen.
Laut einer aktuellen Marktstudie von Jon Peddie Research litt die Grafikkarten-Branche im dritten Quartal besonders stark unter der sinkenden Nachfrage für das Krypto-Mining. Gegenüber dem Vorjahr seien rund 36 Prozent weniger Grafikkarten verkauft worden. Dabei habe insbesondere AMD deutlich Marktanteile verloren.
https://www.computerbase.de/2018-11/grafikkarten-absatz-q3-2018-marktanteil-amd-nvidia/
Ich sage schon mal im Voraus: die Polaris werden noch weiter im Preis sinken. Vielleicht zieht NV ja nach, da haben wenigstens alle was davon. Ich fand es ja immer komisch wenn die völlig unnatürlichen Marksteigerung der letzten Zeit wirklich user das Gefühl hatten das die Karten auch wirklich Spieler gekauft haben. Es war so offensichtlich, das es noch offensichtlicher gar nicht ging.
=Floi=
2018-11-30, 17:58:44
Die AMD Karten sind einzig interessant für Gamer wenn sie günstiger als die NV Gegenstücke sind.
ich hätte eher mehr leistung!
mit den 5XX oldtimern können sie doch keinen mehr hinterm ofen hervorlocken. Deren leistungsklasse ist ein witz, wenn man aufrüsten möchte. Die haben imho 4x?! die gleiche klasse bedient.
Vega ist jetzt auch nicht so der bringer. (hier finde ich die 1070er/1080ti runder)
mir als kunde bringt auch die scheere nichts, wenn die einen produkte irgendwann 100€ kosten und die anderen 800€ :rolleyes:
Mancko
2018-11-30, 19:02:00
Nvidia soll nicht rumheulen. Ich bin zwar ein großer Fan der Firma und insbesondere des Managements aber das finde ich jetzt auch unpassend.
Hey sie haben Kohle ohne Ende gescheffelt. Wenn er seine 1060er verkaufen will habe ich einen Vorschlag. Einen Teil abschreiben und verschrotten und den Rest dann mit massivem Nachlass in den Markt drücken. Ist kurzfristig suboptimal aber positiver Nebeneffekt ist, dass die Konkurrenz dann so richtig an die Wand gedrückt wird. Nvidia verdient 1 Mrd pro Quartal und hat 7 Mrd auf dem Konto. Da kann man schonmal 2 Quartale lang ein ordentliches Schlachtfest entfachen. Dann ist die Konkurrenz nämlich ganz schnell gezwungen das R&D runterzufahren und ist dann im ordentlichen Würgegriff. Die Kohle holt er doch danach wieder locker rein weil er erstmal ne Weile Ruhe von der Konkurrenz hat. Zudem hat Nvidia HPC/AI, Workstation und HIgh End Gaming komplett unter Kontrolle und kann sich so eine Nummer auch mal leisten. Dann gibt es halt mal nur 500 Mio Gewinn pro Quartal in den nächsten 6 Monaten. Danach ist man ja sofort wieder auf altem Niveau. Bei der Konkurrenz gibt es dafür dann tief rote Zahlen und Alarmstimmung.
Geächteter
2018-11-30, 21:52:47
HDa Dann ist die Konkurrenz nämlich ganz schnell gezwungen das R&D runterzufahren
Noch weiter runter? Momentan erstreckt sich deren RnD auf Umetikettierung. Kein fine wine, aber alter Wein in neuen Schläuchen.
Titan RTX zeigt sich ein erstes Mal:
https://i.imgur.com/MoccR33.png
https://i.imgur.com/qBkBz9d.png
Wieder $2999? $3500? $3999? :eek: Wer bietet mehr? :D
Von Youtube (https://youtu.be/iFyYRz82kSM?t=1834) bzw. Twitter 1 (https://twitter.com/GavinFree/status/1068602263256670209) 2 (https://twitter.com/AndrewYNg/status/1068600427069923328).
crux2005
2018-12-01, 04:11:57
Interessant. Gewollte leaks von nVidia. Ich würde sagen 3000$/€.
Trotzdem irgendwie komisch das sie noch 2018 eine Turing Titan bringen. Hat der fallende Aktienkurs sie dazu gezwungen?
BlacKi
2018-12-01, 04:20:27
if its in 7nm i would buy it for 1500.
Edgecrusher86
2018-12-01, 07:28:54
Wenn es bei 320W max PT bleibt, wird es die Karte schwer haben, sich von custom Ti Karten mit bis zu 380W oder 450W (HoF) bzw. XOC BIOS abzusetzen.
Es sind nur 5,9% mehr SPs und 9% mehr ROPs und somit auch Bandbreite. Bei gleichem Takt kann man wohl idR grob mit 3-5% Mehrleistung rechnen zur Ti. Letzteres wohl auch nur, wenn die ROPs/Bandbreite etwas besser genutzt werden.
Als Beispiel wäre eine 1995/7000 MHz RTX TITAN so schnell wie eine 2112/7636 MHz Ti
Preislich würde es mich nicht überraschen, wenn es wie bei der V gehandhabt wird, also quasi 1/2 RTX 6000.
Release dürfte dann innerhalb der nächsten Tagen sein, analog zur V am 08.12.2017.
Etwas überraschend schon. Ich hatte zur nächsten GTC damit gerechnet, wenngleich ich Huang auch wieder Dezember zu getraut habe.
12GB überrascht auch nicht wirklich, war es recht offensichtlich als die Ti wieder mit 11GB und 352-bit SI kam.
Da die Karte noch mehr im PT hängt, wird sie sich vermutlich kaum von einer Ti FE absetzen können. Vermutlich 1600-1700 MHz dürften zu erwarten sein. 1700 MHz sind es bei der Ti FE IdR..
Ja, nur vier Monate zwischen Cut und Vollausbau ist in der Tat neu.
Nun ja, einige Quadro Features wird man wohl frei schalten...
horn 12
2018-12-01, 07:43:23
Man weiss wohl mehr über die Konkurrenz und will alles raushauen
So etwas gab es bis dato noch nie, 4 Karten innerhalb 3 Monaten!
maximus_hertus
2018-12-01, 08:53:50
RTX scheint wohl nicht wirklich gut zu laufen. Eine Titan für 2000+ USD wird wohl eine Niesche in der Niesche bedienen. Es fehlt der 299-399 USD Bereich.
Man könnte ja die 1060 GPU hernehmen, den Mehrtskt von G5X nutzen, die TDP von 120 auf immer noch unproblematische 160-175W erhöhen und man würde die Lücke zur 1070 deutlich verkürzen. Das gsnze für 329-349 und die Leute (auch nVs Marge) wären wohl glücklich.
Die 1060 ist schlicht zu slt und unsexy. Dabei spirlt es keine Rolle was sie leistet. Niemand will fast 3 Jahre slte Karten.
@horn
Leider weiss man wohl mehr. Navi wird wohl nichtmal die Vega 64 schlagen. Ergo wird nVidia wohl bis mindestens 2020 keine Konkurrenz haben.
Dazu sind die 3 Monate schon um.
dildo4u
2018-12-01, 09:03:51
Die 2080 Ti scheint gut zu laufen ist kaum was auf Lager,wenn sie kaum Dies hätten würde sie jetzt vermutlich auch keine Titan launchen.
maximus_hertus
2018-12-01, 09:13:59
Die 2080 Ti scheint gut zu laufen ist kaum was auf Lager,wenn sie kaum Dies hätten würde sie jetzt vermutlich auch keine Titan launchen.
Ich kann jetzt nur von „uns“ sprechen und da sind die RTX Karten (70 und 80) einfach etwas zu teuer. Nicht dramatisch, aber es gibt halt psychologische Grenzen.
Custom 70er für 600-650 Euro ist einfach over the Top.
Die 80er ist komplett verloren und niemand will sie. Entweder die 70er oder das schnellste.
Bei der Ti kommt das Problem dazu, dass überaschend virle potentielle Käufer uns auf die berichteten Ausfällen ansprechen. „Ob wir garantieren können das die Karten 1A sind und unter keinen Umständen nach kurzer Zeit defekt sind“. Sowas hatte ich lange nicht mehr.
Sicher gibt es 70er gür 519 Euro. Aber sobald ich diese Karten anbiete werde ich oft „böse“ angeguckt. Wenn, dann bitte eine Strix, Gaming Z etc. Eine ASUS Turbo wird als „Frechheit“ wahrgenommen, da viel viel zu laut und heiß.
Einfachste 70er Custom für 479 Euro, FE für 519 und die Flagschiffe für 549-569 Euro. Dann würde es Verkaufsrekorde geben.
Dazu 649/699/749 Euro für die 80.
899/949/999 Euro für die Ti.
Wie gesagt, es ist nicht so, dass die Leute kein Geld ausgeben wollen, aber bei den RTX Karten mit den aktuellen Preisen fühlen sich viele verschaukelt. Das ist fast ein Worstcase.
horn 12
2018-12-01, 09:52:14
Navi ist ein Gefixter Vega und überdurchschnittlich schnell
Zum Adrenaline 2019 Treiber Release dürfte die Performance in etwa ersichtlich werden …
30 bis 40% überhalb einer RX64 Stock halte ich für realistisch
dildo4u
2018-12-01, 10:13:40
Ich kann jetzt nur von „uns“ sprechen und da sind die RTX Karten (70 und 80) einfach etwas zu teuer. Nicht dramatisch, aber es gibt halt psychologische Grenzen.
Custom 70er für 600-650 Euro ist einfach over the Top.
Die 80er ist komplett verloren und niemand will sie. Entweder die 70er oder das schnellste.
Bei der Ti kommt das Problem dazu, dass überaschend virle potentielle Käufer uns auf die berichteten Ausfällen ansprechen. „Ob wir garantieren können das die Karten 1A sind und unter keinen Umständen nach kurzer Zeit defekt sind“. Sowas hatte ich lange nicht mehr.
Sicher gibt es 70er gür 519 Euro. Aber sobald ich diese Karten anbiete werde ich oft „böse“ angeguckt. Wenn, dann bitte eine Strix, Gaming Z etc. Eine ASUS Turbo wird als „Frechheit“ wahrgenommen, da viel viel zu laut und heiß.
Einfachste 70er Custom für 479 Euro, FE für 519 und die Flagschiffe für 549-569 Euro. Dann würde es Verkaufsrekorde geben.
Dazu 649/699/749 Euro für die 80.
899/949/999 Euro für die Ti.
Wie gesagt, es ist nicht so, dass die Leute kein Geld ausgeben wollen, aber bei den RTX Karten mit den aktuellen Preisen fühlen sich viele verschaukelt. Das ist fast ein Worstcase.
Es macht kein Sinn die Preise ohne Konkurrenz anzupassen,Intel macht genau das selbe mit dem 9900k und hat 2018 ein Hammer Jahr.
NV sieht nicht so gut aus weil sie im Sommer zu viel GTX produziert haben mit RTX hat das wenig zu tun.
nordic_pegasus
2018-12-01, 10:14:09
12GB überrascht auch nicht wirklich, war es recht offensichtlich als die Ti wieder mit 11GB und 352-bit SI kam.
Ja, nur vier Monate zwischen Cut und Vollausbau ist in der Tat neu.
ich traue Nvidia zu, dass diese Titan RTX auch kein Vollausbau ist, dafür aber 12GB / 384-bit SI. Der Vollausbau kommt dann 6 Monate später als Titan RTX2 ;) Bei Pascal war es doch genauso mit der Titan X(P) und der Xp.
Der Preis wird bestimmt aberwitzig. Irgendwas zwischen der Titan V und der Quadro RTX 6000.
maximus_hertus
2018-12-01, 10:21:27
Es macht kein Sinn die Preise ohne Konkurrenz anzupassen,Intel macht genau das selbe mit dem 9900k und hat 2018 ein Hammer Jahr.
NV sieht nicht so gut aus weil sie im Sommer zu viel GTX produziert haben mit RTX hat das wenig zu tun.
Doch, macht es. Am Ende ist nV sein eigener Konkurrent. Selbst wenn AMD die Grafikkarten einstellt kann nV für eine RTX 3080 nicht auf einmal 1999 Euro verlangen. Bzw sie könnten es, aber es würde quasi niemand kaufen.
Der 9900K hat einen Listenpreis von unter(!) 500 USD. Straßenpreise (durch die Liefersituation) von rund 550-600 USD. Also ein Flaggschiff von Intel kostet weniger als die Einsteiger RTX Karte.
SKYNET
2018-12-01, 10:34:50
Doch, macht es. Am Ende ist nV sein eigener Konkurrent. Selbst wenn AMD die Grafikkarten einstellt kann nV für eine RTX 3080 nicht auf einmal 1999 Euro verlangen. Bzw sie könnten es, aber es würde quasi niemand kaufen.
Der 9900K hat einen Listenpreis von unter(!) 500 USD. Straßenpreise (durch die Liefersituation) von rund 550-600 USD. Also ein Flaggschiff von Intel kostet weniger als die Einsteiger RTX Karte.
NV würde damit einfach die gamesparte ausbremsen, denn diese werden um ihre games zu verkaufen, dann nicht tausend neue sachen reinstopfen oder die grafik massiv aufhübschen... weil niemand sich ne graka für die preise kaufen würde, sondern alle midrange hätte für max. 1000€(omg, midrange und 1000€ in einem satz :frown: )
dildo4u
2018-12-01, 10:45:23
Doch, macht es. Am Ende ist nV sein eigener Konkurrent. Selbst wenn AMD die Grafikkarten einstellt kann nV für eine RTX 3080 nicht auf einmal 1999 Euro verlangen. Bzw sie könnten es, aber es würde quasi niemand kaufen.
Der 9900K hat einen Listenpreis von unter(!) 500 USD. Straßenpreise (durch die Liefersituation) von rund 550-600 USD. Also ein Flaggschiff von Intel kostet weniger als die Einsteiger RTX Karte.
Du nimmst zum Launch immer die Daus mit die zu viel Geld haben was anderes macht kein Sinn.Bei MF ist die Gameing-Z die best verkaufte 2070.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+2070.html
gbm31
2018-12-01, 10:47:27
Na also.
Die Titan RTX hätte die einzige RTX sein sollen - für Entwickler und Studios zum Rantasten an RT. Genug Leistung um auch sinnvoll angewendet zu werden.
Und wenn RT dann bissle gereift und z.B. als zweiter Pfad in den Engines ist, dann Go for the masses mit 200-700€ Karten.
Navi ist ein Gefixter Vega und überdurchschnittlich schnell
Zum Adrenaline 2019 Treiber Release dürfte die Performance in etwa ersichtlich werden …
30 bis 40% überhalb einer RX64 Stock halte ich für realistisch
Ich weiss ich sollte es nicht tun....
Horn, du kennst doch deine Vega, oder nicht?
Tut sich wirklich noch was performancetechnisch wenn du über 1500MHz Takt gehst?
Wo soll denn dann beim 7nm Refresh diese Mehrleistung herkommen?
SKYNET
2018-12-01, 11:00:00
Ich weiss ich sollte es nicht tun....
Horn, du kennst doch deine Vega, oder nicht?
Tut sich wirklich noch was performancetechnisch wenn du über 1500MHz Takt gehst?
Wo soll denn dann beim 7nm Refresh diese Mehrleistung herkommen?
zumal navi mit vega wohl soviel gemein hat wie turing mit pascal... :smile:
gbm31
2018-12-01, 11:31:27
Jepp.
Vega56/64 Performanve mit Polaris-like Chip wäre schon lukrativ.
Aber das hat im Turing-Thread nix verloren...
maximus_hertus
2018-12-01, 11:51:30
Du nimmst zum Launch immer die Daus mit die zu viel Geld haben was anderes macht kein Sinn.Bei MF ist die Gameing-Z die best verkaufte 2070.
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+2070.html
Launch = FE Aufschlag.
Meistverkaufte 2070 sagt aber nichts ob es viel oder wenig ist. Man müsste mal die Zahlen der 1070 vergleichen (x Wochen nach Launch).
SKYNET
2018-12-01, 12:00:47
Navi wird wohl nichtmal die Vega 64 schlagen.
die erste kaufbare navi, wird die vega64 sehr deutlich hinter sich lassen, versprochen ;)
Fragman
2018-12-01, 12:35:21
die erste kaufbare navi, wird die vega64 sehr deutlich hinter sich lassen, versprochen ;)
Also AMD selbst sagt immer was anderes, also wo hast Du Deine Infos her?
Und nein, Vega ist nicht Midrange, wie Navi es erstmal werden soll.
Ex3cut3r
2018-12-01, 12:39:50
Ende 2019/Anfang 2020 kommt erstmal ein Midrange Navi Chip von AMD. Jap, da scheißt Nvidia sich aber mal richtig ein. ^^
Endlich überholt AMD dann 1080Ti/RTX 2080 Leistung. Stark, hat dann nur fast 3 Jahre gedauert. (1080Ti rls. 2017) :up:
SKYNET
2018-12-01, 12:42:34
Also AMD selbst sagt immer was anderes, also wo hast Du Deine Infos her?
Und nein, Vega ist nicht Midrange, wie Navi es erstmal werden soll.
amd sagt ledeglich, das navi ein midrange chip wird... nicht mehr, nicht weniger... ;)
Fragman
2018-12-01, 12:47:49
Midrange, richtig. Preislich wohl max 399 Dollar, vermute ich jetzt mal.
Was soll da Leistungstechnisch rauskommen, ausser leicht über vega64? DAS wäre dann Midrange. Ein Performancewunder sollte man nicht erwarten. AMD braucht aber auch erstmal einen Chip, der von vielen gekauft wird und kein Prestige Chip ala Titan T. Deshalb sollte man nicht zuviel erwarten.
SKYNET
2018-12-01, 12:50:20
Midrange, richtig. Preislich wohl max 399 Dollar, vermute ich jetzt mal.
Was soll da Leistungstechnisch rauskommen, ausser leicht über vega64? DAS wäre dann Midrange. Ein Performancewunder sollte man nicht erwarten. AMD braucht aber auch erstmal einen Chip, der von vielen gekauft wird und kein Prestige Chip ala Titan T. Deshalb sollte man nicht zuviel erwarten.
nun, NV midrange 2070..... somit solltest vorstellen können wo navi liegt ;)
und nein, ein performancewunder wirds sicher nicht, aber ein gegenspieler zur 2070 :)
also 5-10% über vega64... und das ist schon "recht deutlich", wenn man bedenkt das vega schon am limit ist.
Digidi
2018-12-01, 13:01:33
nun, NV midrange 2070..... somit solltest vorstellen können wo navi liegt ;)
und nein, ein performancewunder wirds sicher nicht, aber ein gegenspieler zur 2070 :)
also 5-10% über vega64... und das ist schon "recht deutlich", wenn man bedenkt das vega schon am limit ist.
Navi hat kein RT Balast. Da können 5000 Shader kommen auf 350mm² und höhrem Takt dank neuem Prozess. Vermute die liegt dan eher zwischen 2080 und 2080ti
SKYNET
2018-12-01, 13:08:31
Navi hat kein RT Balast. Da können 5000 Shader kommen auf 350mm² und höhrem Takt dank neuem Prozess. Vermute die liegt dan eher zwischen 2080 und 2080ti
nein, das wird arcturus sein, der das feld auffüllen wird, also ende 2019/anfang 2020
Digidi
2018-12-01, 13:11:04
nein, das wird arcturus sein, der das feld auffüllen wird, also ende 2019/anfang 2020
arcturu is nvidia? AMD wird anfang - mitte 2019 navi freigeben und das kommt in 7 nm.
Nvidia hat 12nm und RT Cores. Für Raytracing ist das gut braucht aber platz den Navi für Shader nutzen wird. Nvidia wird erst gegen Ende 2019 wieder was neues bringen.
SKYNET
2018-12-01, 13:11:44
arcturu is nvidia? AMD wird anfang - mitte 2019 navi freigeben und das kommt in 7 nm.
Nvidia hat 12nm und RT Cores. Für Raytracing gut braucht aber platz den Navi für Shader nutzen wird. Nvidia wird erst gegen Ende 2019 wieder was neues bringen.
nein, AMDs neuer highend chip...
Digidi
2018-12-01, 13:14:16
nein, AMDs neuer highend chip...
Vega 64 ist 15% hinter einer 1080ti bzw 2080 das alleine macht die taktsteigerung weg und dann noch komplett neue architektur + mehr shader da keine RT Cores
SKYNET
2018-12-01, 13:29:22
Vega 64 ist 15% hinter einer 1080ti bzw 2080 das alleine macht die taktsteigerung weg und dann noch komplett neue architektur + mehr shader da keine RT Cores
15%? schön wäre es... sind eher 20-30% im schnitt, vega64 ist auf level der 1080/2070... wenngleich AMD sogar per "sofort" einen gegenspieler für die 1080Ti/2080 aus dem hut zaubern könnte, sie müssten einfach vega20 = vega 7nm als gaming karte bringen, die hat als professionelle lösung schon 1800MHz, als gaming karte sollten sie locker auf 1900MHz aufzubohren sein... in kombination mit 1200MHz HBM2 sollte das recht ordentlich sein was dabei rauskommt... aber dürfte dank HBM2 dann wieder überproprtional teuer sein. :frown:
Tesseract
2018-12-01, 13:32:57
Vega 64 ist 15% hinter einer 1080ti bzw 2080
aber wirklich nicht. zwischen einer V64 liquid und einer 1080Ti FE liegen schon ~25%, zu den customdesigns dann eher 35%.
Rampage 2
2018-12-01, 13:37:23
if its in 7nm i would buy it for 1500.
Wenn Nvidia ausnahmsweise mal gnädig ist, gibts die Titan 1499$ und der Preis der 2080 Ti sinkt auf 999$ :freak:
Man kann nur hoffen, dass Navi ein Erfolg wird - ansonsten sehe ich schwarz für die PC-Spielerschaft:(
R2
Troyan
2018-12-01, 13:39:59
Wette eher auf Intel. AMD ist das 3DFX der Neuzeit. Technisch komplett abgehängt. Intel hat das Geld und die Notwendigkeit neben den CPUs neue Märkte zu erreichen. 2020 wird ein Fest für PC-Spieler.
horn 12
2018-12-01, 13:42:17
Vega 20 kommt nicht mehr da Navi in dessen Fußstapfen tritt
Frage ob ich den Link posten darf und dann seht ihr.
Tesseract
2018-12-01, 13:48:57
Wette eher auf Intel. AMD ist das 3DFX der Neuzeit. Technisch komplett abgehängt. Intel hat das Geld und die Notwendigkeit neben den CPUs neue Märkte zu erreichen. 2020 wird ein Fest für PC-Spieler.
AMD ist intel (und allen anderen kandidaten abgesehen von nvidia) was GPU-IP angeht weit voraus.
Digidi
2018-12-01, 14:01:40
aber wirklich nicht. zwischen einer V64 liquid und einer 1080Ti FE liegen schon ~25%, zu den customdesigns dann eher 35%.
25% Wenn ich den ganzen Gamemurks Benches drin lasse. Schau ich mir Low Level API Benchmarks an sind es nur 5-10% und selbst da ist das Ende der optimierungen noch nicht erreicht.
Troyan
2018-12-01, 14:03:27
Der Grafikmarkt ist gerade im Wandel. Mit RTRT und DL sind nun zwei Bereiche entstanden, die anderen Marktteilnehmern einen Markteintritt ermöglichen.
AMD ist vielleicht in der alten Zeit anderen voraus, aber im neuen Zeitalter muss dies erst noch bewiesen werden. Mit Vega@7nm hat man jedenfalls gezeigt, dass man sehr weit zurückhängt.
Ich sehe Intel hier viel konkurrenzfähiger, da die Ansprüche an die Architektur sich ändert und damit Know-How aus vergangenen Tagen nicht mehr so dominierend ist.
Linmoum
2018-12-01, 14:23:46
AMD ist vielleicht in der alten Zeit anderen voraus, aber im neuen Zeitalter muss dies erst noch bewiesen werden.
[...]
Ich sehe Intel hier viel konkurrenzfähiger, da die Ansprüche an die Architektur sich ändert und damit Know-How aus vergangenen Tagen nicht mehr so dominierend ist.
Beeindruckende Logik, wo man bei Intel schon so viel weiß. Gerade vor dem Hintergrund des letzten Failtritts.
Und da GCN vermutlich zeitnah durch eine komplett neue Architektur abgelöst wird, erübrigen sich auch dahingehend irgendwelche Schlussfolgerungen.
Fragman
2018-12-01, 14:30:43
nun, NV midrange 2070..... somit solltest vorstellen können wo navi liegt ;)
und nein, ein performancewunder wirds sicher nicht, aber ein gegenspieler zur 2070 :)
also 5-10% über vega64... und das ist schon "recht deutlich", wenn man bedenkt das vega schon am limit ist.
Da stimme ich zu,
nur ist die 2070 preislich kein Midrange mehr. Und das wird der Knackpunkt bei Navi werden bzw vielleicht sogar was 7nm angeht. Wenn sie bei der Leistung preislich nicht deutlich drunter liegen, müssen wir Midrange neu definieren oder den Begriff vielleicht sogar aufgeben.
dildo4u
2018-12-01, 14:33:47
25% Wenn ich den ganzen Gamemurks Benches drin lasse. Schau ich mir Low Level API Benchmarks an sind es nur 5-10% und selbst da ist das Ende der optimierungen noch nicht erreicht.
Das ist viel zu allgemein,das was auf Vega gut läuft ist ein Subset eines Subsets im Markt.Low Level bedeutet nicht zwingend gute Vega Performance.
https://www.techspot.com/review/1727-nvidia-geforce-rtx-2070/page2.html
BlacKi
2018-12-01, 14:47:39
Wenn Nvidia ausnahmsweise mal gnädig ist, gibts die Titan 1499$ und der Preis der 2080 Ti sinkt auf 999$ :freak:
Man kann nur hoffen, dass Navi ein Erfolg wird - ansonsten sehe ich schwarz für die PC-Spielerschaft:(
R2
da kommt sie:biggrin:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RTX-Titan-Teaser-1270434/
https://www.computerbase.de/2018-12/nvidia-titan-rtx-teaser/
maximus_hertus
2018-12-01, 14:51:02
die erste kaufbare navi, wird die vega64 sehr deutlich hinter sich lassen, versprochen ;)
Da bin ich ja mal gespannt. Also Vega 64 Liquid und sehr deutlich = +20-30%, also grob auf 2080 Niveau. Das wäre krass. Mit den nur kolpotierten 2560 Shadern. Also grob eine Verdoppelung(!) pro Shader bei der Performance. Ich bin da doch etwas skeptisch.
Tesseract
2018-12-01, 14:58:28
25% Wenn ich den ganzen Gamemurks Benches drin lasse. Schau ich mir Low Level API Benchmarks an sind es nur 5-10% und selbst da ist das Ende der optimierungen noch nicht erreicht.
nein, mit einem realistischen durchschnitt des spielemarktes. ich weiß es ist unvorstellbar für einige hier, aber es gibt tatsächlich leute die die spiele auch spielen wollen und nicht nur in foren in grabenkämpfen den kult verteidigen dem sie irgendwann mal beigetreten sind indem sie aus 50+ spielen und hunderten konstellationen irgendwas cherry picken was ihnen gerade passt.
Troyan
2018-12-01, 15:01:08
Beeindruckende Logik, wo man bei Intel schon so viel weiß. Gerade vor dem Hintergrund des letzten Failtritts.
Und da GCN vermutlich zeitnah durch eine komplett neue Architektur abgelöst wird, erübrigen sich auch dahingehend irgendwelche Schlussfolgerungen.
Deine Logik ergibt kein Sinn. Wenn vergangene Umsetzungen eine Voraussage auf die Zukunft geben sollen, dann finde ich es fazinierend, dass du meinst, AMD würde ihre GCN-Architektur "zeitnah" ersetzen. Die produzieren sprichtwörtlich das selbe seit sieben Jahren. Und die 7nm Vega-Karte hat null relevante Anpassungen für DL. Deswegen wird sie auch von einer 70W T4 Karte geschlagen:
https://cdn.wccftech.com/wp-content/uploads/2018/11/AMD-MI60-TESLA-V100-Tensor-ResNet-Benchmarks.jpg
https://wccftech.com/amd-radeon-mi60-resnet-benchmarks-v100-tensor-not-used/
Microsoft hat auf Siggraph Upscaling von 1080p/30FPS auf "2160p"/30FPS mit DirectML gezeigt. Das ist Inference-Workload. Und der benötigt keine "alten" FP32 Compute-Units mehr. Das Know-Know dafür gibt es bei vielen Firmen.
BlacKi
2018-12-01, 15:03:02
2seitennurnavivega
TGKlaus
2018-12-01, 15:33:19
aber wirklich nicht. zwischen einer V64 liquid und einer 1080Ti FE liegen schon ~25%, zu den customdesigns dann eher 35%.
nein, mit einem realistischen durchschnitt des spielemarktes.
:facepalm:
Selbst die nvidiafreudliche CB kommt bei der normalen V64 zur 1080 Ti FE nur auf knapp 25%
Und wenn schon die Moderation nur so einen Nvidia-Jubel-Quatsch verbreitet, braucht sich auch keiner wundern, das Nvidia-Propagandalautsprecher wie Troyan und Dural mit keinerlei Konsequenzen rechnen müssen.
Linmoum
2018-12-01, 15:41:49
Selbst die nvidiafreudliche CB kommt bei der normalen V64 zur 1080 Ti FE nur auf knapp 25%
PCGH auf 33%. Und jetzt? Bei der Liquid sind's fast genau die 25%, die auch Tesseract nennt. Die passen auch zur Realität wunderbar. Aber klar, ist ja Nvidia-Jubel-Quatsch. Langsam wird's hier echt peinlich, wie sehr sich die Fanboys ihre Sichtweisen schönreden bzw. Fakten nicht akzeptieren wollen.
Davon ab ist das hier der Turing-Thread und das OT sollte man mal langsam lieber auslagern.
TGKlaus
2018-12-01, 15:48:24
PCGH auf 33%. Und jetzt?
Bei den Round-ups hier auf 3dc hat sowohl Polaris als auch VEGA jeweils bei pcgh am schlechtesten abgeschnitten von allen einbezogenen Pages.
Also pcgh ist für AMD eher der worst case als der von Tesseract geforderten "realistischen durchschnitt des spielemarktes".
Edit:
Und auch die ganz aktuelle Launchanalyse zur RTX 2070 hier auf 3dc zeigt genau das, was ich gerade geschrieben habe ...
MartinRiggs
2018-12-01, 16:27:39
da kommt sie:biggrin:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RTX-Titan-Teaser-1270434/
https://www.computerbase.de/2018-12/nvidia-titan-rtx-teaser/
Oh man, das Preisschild will ich gar nicht Wissen, aber wenigstens gibt es Leute die nvidia für ihre durchgedrehte Art noch verteidigen :freak:
BlacKi
2018-12-01, 16:33:02
hahaha crazy stuff^^:biggrin:
rHZE605Fxks
Tesseract
2018-12-01, 16:47:09
Und auch die ganz aktuelle Launchanalyse zur RTX 2070 hier auf 3dc zeigt genau das, was ich gerade geschrieben habe ...
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2070/launch-analyse-nvidia-geforce-rtx-2070-seite-2
WQHD: V64 98,1%; 1080ti 127,8%; 2080FE 136,9%
UltraHD: V64 99,5%; 1080ti 131,0%; 2080FE 139,8%
so, und jetzt schluss mit dem OT-gaslighting hier. das thema ist nicht vega.
=Floi=
2018-12-01, 16:57:57
RTX scheint wohl nicht wirklich gut zu laufen.
ach komm, bei den super preisen kann ich mir das kaum vorstellen! Das sind die besten preise seit der 2XX serie!
nur 1400€ für ne custom karte mit ganzen 3 jahren garantie und 11 gb vram. Da der stock lüfter nicht wechselbar ist, muss er für die ewigkeit (oder 3 jahre :freak: ) gebaut sein.
wolik
2018-12-01, 19:06:42
Abwarten was Titan RTX mitbringt... aber auf jeden Fall Abwertung 2080Ti. Wie fühlen sich grade Besitzer von Custrom 2080Ti für 1400€ gut nachvollziehbar. Natürlich 6% Leistung und 1Gb VRAM mehr wird nur lachhaft.
Hakim
2018-12-01, 19:52:12
Vielleicht gibts einen kleinen Preisfall bei den RTX Karten, beim Ti evtl. am meisten. Wobei, so eine Karte für über 3k dürfte da nicht viel Bewegung rein bringen
Ex3cut3r
2018-12-01, 19:59:58
Preissenkung? Warum? Weil AMD die göttliche RX 590 released hat? Sry Leute, ich verstehe ja eure Wünsche jetzt grade auch zu Weihnachten nach billigeren Preisen, aber die neue Titan wird auch wieder alle Preisrekorde brechen.
Realität kann man manchmal enttäuschend sein. Aber so ist das, seit der 1080Ti braucht Nvidia bis 2020 keine Sorge wegen der Leistungskrone zu haben. Und ob AMD wirklich zuerst 7nm Karten ausliefern wird, steht auch noch in den Sternen.
Digidi
2018-12-01, 20:13:04
Ach und Nvidia macht wieder das Gameworksspielchen:
https://www.youtube.com/watch?v=mFSLro_OXLQ&feature=youtu.be
Hakim
2018-12-01, 20:18:42
Das ergibt doch keinen Sinn, wieso sollten sie in einem Segment wo sie keine Neuauflage bieten können und die Konkurrenz da mit der neuen Karte schneller ist, die Karten noch langsamer machen?
Zumindest beim Superposition Benchmark konnte ich keinen unterschied zwischen 399 zu 416 feststellen.
crux2005
2018-12-01, 20:20:33
Ach und Nvidia macht wieder das Gameworksspielchen:
https://www.youtube.com/watch?v=mFSLro_OXLQ&feature=youtu.be
Das liegt an Windows. Wurde dir auch schon mehr mal gesagt.
Ex3cut3r
2018-12-01, 20:29:16
1803 vs 1809 mit gleichen Gameversionen? Oder wurden die Games auch mal geupdatet? Fragen über Fragen? Typisches Youtube Video.
Digidi
2018-12-01, 20:29:50
Das liegt an Windows. Wurde dir auch schon mehr mal gesagt.
Wie soll das an Windows liegen wenn nur der Treiber gewechselt wurde?:confused::confused::confused:
Ex3cut3r
2018-12-01, 20:36:17
Mit den 400er Treibern wurde auf 1809 WDDM 2.5 eingeführt, 399.24 läuft noch mit 2.4.
Digidi
2018-12-01, 20:37:37
Du kannst den Treiber 399.24 auch auf WDDMA 2.5 nutzen?
Troyan
2018-12-02, 13:11:06
hahaha crazy stuff^^:biggrin:
http://youtu.be/rHZE605Fxks
Heaven? Wolfenstein 2 erzeugt die stärkste Auslastung auf Turing. Will man seine RTX richtig quälen, erhöht man das TDP-Limit, macht sein Gehäuse zu und lässt Wolfenstein 2 laufen.
Aber Heaven? Na.
Mit den 400er Treibern wurde auf 1809 WDDM 2.5 eingeführt, 399.24 läuft noch mit 2.4.
Die Frage ist, warum ein neues WDDM Leistung kosten sollte. Ich sehe hier nichts: https://docs.microsoft.com/en-us/windows-hardware/drivers/what-s-new-in-driver-development#display-1809
€dit: Geil, ich habe laut DXDiag an dieser Kiste hier noch WWDM 1.3. :ugly: Windows 10 1607.
MfG,
Raff
aufkrawall
2018-12-02, 13:47:53
€dit: Geil, ich habe laut DXDiag an dieser Kiste hier noch WWDM 1.3. :ugly: Windows 10 1607.
Damit solltest du aber 2.1 haben, sofern du keine Steinzeit-Treiber verwendest.
Mancko
2018-12-02, 14:15:42
AMD ist intel (und allen anderen kandidaten abgesehen von nvidia) was GPU-IP angeht weit voraus.
Allerdings kann Intel die GPU-IP von AMD nutzen und hat seit geraumer Zeit dort ordentlich Leute abgeworben. Die Grafiksparte von AMD ist in den letzten Jahren ordentlich geschrumpft. Der Umsatz ist nur noch ein Bruchteil von dem was ATI mal umgesetzt hat. Der Sparzwang hilft auch nicht gerade zur Motiviation zum Verbleib in der Firma.
Ich bin jetzt nicht gerade überoptimistisch was Intel angeht. Die müssen erstmal liefern und in der Vergangenheit haben sie da eher schlecht geliefert. Trotzdem kann das für AMD schon perspektivisch bedrohlich werden, denn anders als Nvidia konnten die keine Quasi Standards an denen man nun kaum noch vorbei kommt etablieren und im Bereich HPC/AI und auch Workstation sind die eher eine NoShow. Ich würde jetzt nicht davon ausgehen, dass Intel nun gleich mit den großen High End GPUs angreifen kann. Wenn dann wird es eher im Bereich Mid-Range und darunter was werden, also genau da wo sich primär AMD derzeit mangels Konkurrenzfähigkeit in höheren Segmenten tummelt.
Ach und Nvidia macht wieder das Gameworksspielchen:
https://www.youtube.com/watch?v=mFSLro_OXLQ&feature=youtu.be
Das kann wie immer, keiner beweisen oder widerlegen...
( NV hat hald keine "Fine-Wine" Produkte, deren Wein wird höchstens "sauer" ^^ )
"Fallout 76 im Techniktest: Geforce RTX mit hohen Fps"
http://www.pcgameshardware.de/Fallout-76-Spiel-61712/Specials/Benchmark-Test-1270209/2/
So hoch find ich die Fps der RTX, in Anbetracht des Abstandes zu Pa., nun auch wieder nicht.
m.f.g. JVC
p.s.: in 4K bringt die 2080Ti ganze min 4fps mehr als die 1080Ti (70 vs 66) klingt irgendwie verdammt wenig/unglaubwürdig :confused:
( und die 2080 hat nur 2fps weniger als die 2080Ti, WQHD sieht normal aus )
Rampage 2
2018-12-02, 17:11:24
Allerdings kann Intel die GPU-IP von AMD nutzen und hat seit geraumer Zeit dort ordentlich Leute abgeworben. Die Grafiksparte von AMD ist in den letzten Jahren ordentlich geschrumpft. Der Umsatz ist nur noch ein Bruchteil von dem was ATI mal umgesetzt hat. Der Sparzwang hilft auch nicht gerade zur Motiviation zum Verbleib in der Firma.
Ist jetzt zwar OT, aber:
Dann sollte AMD sich, wo Zen1 offensichtlich ein Erfolg geworden ist und Zen2 wahrscheinlich auch wird, endlich wieder auf die Grafik-Sparte konzentrieren können und sich vielleicht einige kluge Köpfe (z.B. Raja Koduri) für die GPU-Entwicklung zurückholen - denn da müssen sie dringlichst etwas Konkurrenzfähiges liefern, auch im HighEnd-Bereich. Im Enthusiast-Segment nicht unbedingt, aber irgendwas im Bereich der RTX 2080 oder 1080Ti.
Und das muss möglichst bald (also noch 2019) geschehen. Die Zeit von Polaris und GP106 neigt sich ihrem Ende - da wird AMD auf absehbare Zeit nicht mehr viel Gewinn machen können. Auf der anderen Seite macht Nvidia von Quartal zu Quartal einen Rekordgewinn nach dem Anderen, und das auf Lasten von uns Gamern - alles, weil AMD in der GPU-Technologie nicht in die Gänge kommt:mad:
R2
Linmoum
2018-12-02, 17:42:08
Dann sollte AMD sich, wo Zen1 offensichtlich ein Erfolg geworden ist und Zen2 wahrscheinlich auch wird, endlich wieder auf die Grafik-Sparte konzentrieren können und sich vielleicht einige kluge Köpfe (z.B. Raja Koduri) für die GPU-Entwicklung zurückholen
[...]
Und das muss möglichst bald (also noch 2019) geschehen.
Du weißt allerdings schon, dass die Entwicklungszyklen deutlich länger als nur 2 Jahre sind, oder?
Manchmal hab ich echt den Eindruck, dass für manche heute die Entwicklung startet und es 2020 dann schon das fertige Produkt in den Regalen zu kaufen gibt. Meinst du, Nvidia hat mit der Entwicklung von Turing erst 2016 angefangen?
Rampage 2
2018-12-02, 18:28:21
Du weißt allerdings schon, dass die Entwicklungszyklen deutlich länger als nur 2 Jahre sind, oder?
Natürlich weiß ich das, aber mehr kluge Köpfe oder auch einfach mehr kompetentes Personal können dazu beitragen, das bereits in Entwicklung befindliche Design noch besser zu machen bzw. zu optimieren (an grundlegenden Designentscheidungen können sie zwar nichts mehr ändern, dafür aber mit Ideen und/oder Optimierungen dafür sorgen, dass das Design voll durchschlägt) wo immer es möglich ist - sei es nur, dass endlich mal ausgereifte und effektive Treiber schon bei Release verfügbar sind:facepalm:
Bestes aktuelle Beispiel ist Vega: mehrere Architektur-Features (PS, DSBR) die entweder gar nicht genutzt werden können *oder* zwar aktiv, aber nicht effektiv sind (wenig oder gar keine Vorteile), weil sie entweder nicht effizient implementiert wurden [hier könnte das Mehr an klugen Köpfen ansetzen] oder der Treiber sie nicht sinnvoll ausnutzen kann, weil es scheisse programmiert wurde - im Zusammenhang mit AMD-Treibern lese ich hier im Forum immer wieder Schlüsselworte wie "Shadercompiler", "schlechter Umgang mit DX11" oder "fehlende Manpower in der Treiberabteilung" -> hier könnte das Mehr an kompetentem Personal ansetzen. Mit Gewissheit kann Vega nicht so ineffizient und so schlecht geplant gewesen sein, aber am Ende doch so geworden - vermutlich war sie ursprünglich als Gegenspieler der GP102 geplant und nicht GP104:rolleyes:
Nvidia's G70 basierte laut den Gurus hier im Forum immer noch auf CineFX - war aber dennoch stark verbessert und optimiert. Eben jene Dinge, die man an einem bereits bestehenden Design noch machen kann.
R2
@Rampage 2
Bestes aktuelles Beispiel ist Turing...
Nur die 2080Ti bringt eine Mehrleistung und ~1/3 Chipfläche bezahlt man ohne sie,
im Moment noch, wirklich sinnvoll nutzen zu können.
( von 4K auf 1K herunter zu gehen, um noch vernünftige fps raten zu erreichen, betrachte ich nicht als sinnvoll )
Von DLSS mit seinem ~+100% Performancevorteil bei angeblich nicht erkennbarem Qualitätsverlust, hört man auch nichts mehr ...
https://www.3dcenter.org/news/nvidia-verspricht-47-mehrperformance-zwischen-geforce-gtx-1080-und-geforce-rtx-2080
Also wo ist der "absolute Performance-Bringer" eigentlich ?
Zum Glück für NV, haben sie "keine" Konkurrenz und so muss der Konsument kaufen, sofern er was neues will/braucht ...
( die eigene 1080Ti hat man scheinbar lieber abgeschrieben/eingestampft,
da sie eine zu starke Konkurrenz aus eigenem Haus wahr ...
und die Tester hat man scheinbar mit der "neuen NDA" dazu "genötigt" nur gegen FE Pa. zu testen ...)
NV hat aber bestimmt "genug" Manpower im vergleich zu AMD ;)
Aber das alles, ist ja eigentlich nur eine "Spekulation" meinerseits ...
m.f.g. JVC
p.s.:
Wenn man ne wirklich gute Custom 1080Ti erwischt hat:
( da hab ich echt mal schwein gehabt :biggrin: )
Wobei ich auch satte 812.- hingelegt habe für meine Gigabyte Aorus 1080 Ti Xtreme Edition.
Meine Graka mit 250W PL und unangetastet ( out of the Box, ohne dem "OC Mode" ):
https://www.userbenchmark.com/UserRun/8739664
= ~178 + ~12% = 2080Ti welche ~198 erreicht
https://gpu.userbenchmark.com/
Wobei das, denke ich, bei gutem OC der 2080Ti wieder Richtung +20-30% läuft,
nur die braucht dann bestimmt wesentlich mehr als 250W ^^
b.z.w. hat meine Graka bestimmt auch noch Reserven ;)
Rancor
2018-12-03, 09:26:47
TITAN RTX angespoilert?
https://www.gamestar.de/artikel/nvidia-titan-rtx-grafikkarte-und-verpackung-bei-social-media,3337799.html
Eigentlich bist du das. Du trägst nie zum Thema "Turing" etwas bei. Deine Postings sind immer rein negativ. Immer, egal um was es geht: Schlecht, langsam, doof, teurer, ungeeignet etc. Jedes Mal, wenn irgendwas kommt, tauchst du auf und kritisiert es.
Sage ich ja: Dein Bias ist so dermaßen verschoben, dass du eben immer das böse überall siehst. Du fragst, wie man "so leidenschaftlich" sein könnte? Du weißt es schon. Schau einfach hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11806499&postcount=9505
Deswegen hast du auch Probleme andere Meinungen zu akzeptieren, die konträr zu deiner sind. ;)
Daher lass es.
/edit: Ich setz dich auf meine Ignore. Macht kein Sinn ehrlich. Du musst also nicht mehr auf meine Posting antworten.
Achso, ich akzeptiere also keine anderen Meinungen, aber du setzt mit auf Ignore, weil ich Turing kritisiere.... Bestechende Logik :freak:
chiller
2018-12-03, 14:02:59
Computerbase:
Nvidia Turing: Titan RTX mit vollem TU102 und 24 GB GDDR6 für 2.699 € (https://www.computerbase.de/2018-12/nvidia-titan-rtx-specs-preis/)
pilzsammler2002
2018-12-03, 14:20:47
Billiger als Titan V also ists nen schnapper :freak:
AffenJack
2018-12-03, 14:25:11
Mit 24 GB ist das Ding wirklich ein Schnapper für viele Leute. Ne vollwertige Quadro RTX6000 ohne die paar Quadrofeatures/Support. Eine Menge Leute werden Nv die Dinger aus den Händern reißen.
Zum Gamen natürlich sinnlos.
Leider geil. Von dem, was man zu Zeiten des Launches kriegt, ist es eine echte Titan – Vollausbau und pervers viel Speicher. Das schaffte zuletzt die GTX Titan X von 2015.
MfG,
Raff
mironicus
2018-12-03, 14:38:43
Doch, damit kann man endlich Final Fantasy 15 in 4K richtig spielen.
Godmode
2018-12-03, 14:39:29
Computerbase:
Nvidia Turing: Titan RTX mit vollem TU102 und 24 GB GDDR6 für 2.699 € (https://www.computerbase.de/2018-12/nvidia-titan-rtx-specs-preis/)
Ich bin gespannt ob sich das Ding hier jemand holt.
Troyan
2018-12-03, 14:41:09
Leider geil. Von dem, was man zu Zeiten des Launches kriegt, ist es eine echte Titan – Vollausbau und pervers viel Speicher. Das schaffte zuletzt die GTX Titan X von 2015.
MfG,
Raff
Titan V CEO Edition hat 32GB. ;D
Dunkeltier
2018-12-03, 14:44:11
Bin echt am überlegen, sie mir zu kaufen. Gibt's gratis eine Lederjacke oben drauf? Ich sitze noch auf einer alten Titan X. Wenn ich schon pervers viel Geld für sowas raushaue, will ich auch einen Vollausbau und beim Speicher Fortschritte sehen.
Screemer
2018-12-03, 14:45:47
Ich bin gespannt ob sich das Ding hier jemand holt.
Miaminice.
Ich bin gespannt ob sich das Ding hier jemand holt.
Tobi, PhuV, du ... ;)
... und wir freuen uns über schöne Gebrauchtangebote für die Ti-Karten. :D
MfG,
Raff
Gibt es Infos zum Kühler?
Da sollte doch Pumpe und mora3 inkludiert sein :) damit es fetzt.
Troyan
2018-12-03, 14:48:26
Selbst Kühler wie bei der Ti. Nur in Gold gehalten. Sieht auf den Bilder viel besser aus als die silberne Variante.
nordic_pegasus
2018-12-03, 14:56:41
Gibt es Infos zum Kühler?
Da sollte doch Pumpe und mora3 inkludiert sein :) damit es fetzt.
solange die Karte ins Powerlimit rennt, würde auch eine 1 kW Klimaanlage keinen Vorteil bringen.
Ahja hier gibt es ja ein Link.
Sieht aus wie ein Radio aus den 80ern, sehr schick. ;)
TurricanM3
2018-12-03, 14:58:26
Nachteil an der RTX Titan ist, dass es kein Bios mit höherem PT gibt. Da müsste man dann wieder pinseln oder sonstwie vorgehen.
Das schaffte zuletzt die GTX Titan X von 2015.
Ich wüsste auch heute, drei Jahre später, nicht was ich mit 12GB sollte. Von 24 mal ganz abgesehen. :confused:
Habe mal geschaut was ich so in den letzten Monaten verbraucht habe. Waren immer nur zwischen 2-6GB belegt.
Dann spielst du einfach die "falschen" Spiele. :) Mit RotTR, CoD BO4, Wolfenstein 2, Need for Speed Payback und, etwas älter, Mirror's Edge Catalyst kann man 8-GiB-Karten wunderbar füllen oder gar töten.
MfG,
Raff
Platos
2018-12-03, 15:05:25
Sie ist ja billiger als die titan V, also ist sie ein Schnäppchen...Logik ;D
Da spiele ich lieber all' die zahlreichen PS4 Exklusives, die ich noch vor mir habe, bis dann mal eine RTX 3080TI kommt. Vlt. "muss" ich sogar bis zu einer RTX 4080Ti warten (bis 5K @ 60FPSmöglich ist oder änhliches). Aber hey, ich habe noch etwa 10 Spiele auf Konsole, also kein Problem :D
Ich wüsste auch heute, drei Jahre später, nicht was ich mit 12GB sollte. Von 24 mal ganz abgesehen. :confused:
Habe mal geschaut was ich so in den letzten Monaten verbraucht habe. Waren immer nur zwischen 2-6GB belegt.
Nur mal auf 5-8K gehen und dann siehst du die GB purzeln :D
4K (Downsampling) nicht vergessen !
Man will ja auch immer mehr Bildqualität ;)
Das benötigt natürlich auch mehr Speicher ...
m.f.g. JVC
Lehdro
2018-12-03, 15:20:49
Nachteil an der RTX Titan ist, dass es kein Bios mit höherem PT gibt. Da müsste man dann wieder pinseln oder sonstwie vorgehen.
Brauchte man bei der Titan X/XP Pascal auch nicht. Einfach mal den Curveeditor bedienen, ich komme meist nicht einmal in die Nähe der 300W und das obwohl ich nur in 4K spiele. Unter 1V für über 2 GHz ist schon ne Hausnummer, ab Werk liegen da 1,05V+ an.
Die Pascals haben soviel UV Spielraum, da kriegst du quasi jede sinnvolle Taktrate reingepresst ins Powerbudget. Die einzigen beiden Titan Generationen die wirklich ein neues BIOS brauchten waren die Kepler und Maxwell Ableger, die haben dann aber auch wirklich Saft gezogen....
Ich wüsste auch heute, drei Jahre später, nicht was ich mit 12GB sollte. Von 24 mal ganz abgesehen. :confused:
Habe mal geschaut was ich so in den letzten Monaten verbraucht habe. Waren immer nur zwischen 2-6GB belegt.
Ich wünschte mir ich hätte mehr Speicher auf den Titans (wahrscheinlich eh Einzelfall hier...), die letzte bei der das wirklich "ausreichend" war, sind Kepler + Maxwells gewesen. Die 12 GB bei Pascal und gerade Volta sind echt knauserig, mit titanischem Speicherausbau hat das nichts mehr zu tun...ich meine 1 GB mehr als eine Ti? Lächerlich.
AMDoderNvidia
2018-12-03, 15:22:00
Billiger als Titan V also ists nen schnapper :freak:
Mit 24 GB ist das Ding wirklich ein Schnapper für viele Leute.
Also wenn, dann doch bitte die Titan V in der CEO-Edition. Die hat immerhin 32 GByte HBM2 Speicher :biggrin:
Tobi, PhuV, du ... ;)
... und wir freuen uns über schöne Gebrauchtangebote für die Ti-Karten. :D
MfG,
Raff
Count me in! Ein positives Upgrade zur 1080ti und gute Basis für Metro Exodus :biggrin:
TurricanM3
2018-12-03, 15:39:48
Puh, ich bin da scheinbar wirklich anders drauf. 5-8K? Selbst @4K wären für mich die reinste Qual, zumindest in Spielen bei denen mir direktes Feeling an der Maus wichtig ist. Selbst 1440p schafft eine 2080 Ti in einigen Spielen keine 100fps+.
Und wenn ich irgendwie künstlich den RAM fülle, dann aber mit 50fps oder noch weniger rumkrebse, das würde mir so den Spielspaß nehmen, dass ich es liebes ganz lasse.
@Raff
Ja, 8GB Karten, aber ich meinte ja explizit 12GB und mehr. Und selbst wenn der vRAM gefüllt wird heißt das ja nichts.
Wolfenstein 2 hatte bei mir 5,9GB. Gerade mal mein letztes PCars2 Video geschaut, da lag ich unter 4GB. BF V unter 4.5GB rum. Mit Raytracing warens dann knapp 9GB, aber das ist eh die Inputlag Hölle und komplett unspielbar im MP.
Ich hab keine Ahnung wie ihr den so voll kriegt, oder aber ich hab hier unbewusst unglückliche Stellen geschaut. Achte da eigentlich nicht so drauf.
Für mich sind 24GB vRAM ungefähr genauso sinnvoll wie eine Anhängerkupplung an einem GT3 RS. :freak:
@TurricanM3
In welcher Auflösung spielst du ?
( bei FHD gebe ich dir Recht, da sind mehr als 8Gb sicherlich im Moment noch unnötig
und für WQHD reichen sie fast immer auch noch )
Für 8K sind 24Gb sicherlich schon nice/vorteilhaft.
( nicht jeder benötigt hohe Fps Zahlen )
m.f.g. JVC
chiller
2018-12-03, 16:14:08
Die hätten die 2080Ti für 800-900EUR und die Titan für 1300EUR mit ~12/16GB bringen sollen...
#abgehoben
Hakim
2018-12-03, 16:43:12
Die hätten die 2080Ti für 800-900EUR und die Titan für 1300EUR mit ~12/16GB bringen sollen...
#abgehoben
Solange man keine Konkurrenz hat lässt man sich halt alles vergolden. Ganz normal bei Profit gesteuerten Unternehmen, solange die Prognose sagt das man noch für die jeweiligen Preise absetzen kann.
dildo4u
2018-12-03, 17:02:06
Es rechnet sich einfach nicht,AMD bietet die Vega FE auch nicht mehr an.
Die billigste Vega mit 16GB scheint die 1800€ WX 9100 zu sein.
pixeljetstream
2018-12-03, 17:09:19
Falls es noch keinem aufgefallen ist
https://docs.nvidia.com/cuda/cuda-binary-utilities/index.html#turing
Godmode
2018-12-03, 17:13:32
Tobi, PhuV, du ... ;)
... und wir freuen uns über schöne Gebrauchtangebote für die Ti-Karten. :D
MfG,
Raff
Ich kaufe schon längere keine GPUs mehr, daher muss ich da den anderen den Vortritt lassen.
Die hätten die 2080Ti für 800-900EUR und die Titan für 1300EUR mit ~12/16GB bringen sollen...
#abgehoben
IMHO war die Titan V ein Testballon, was man für eine Grafikkarte wirklich verlangen kann. Der Preis der Titan RTX ist wohl der Sweetspot für NV, dass sie sich einerseits den Quadromarkt nicht kaputt machen und trotzdem noch genug Spieler/Forscher das Ding kaufen.
Aja und für den Preis wünsche ich mir eine 1A Wasserkühlung, da hat Luft nichts mehr zu suchen.
mksn7
2018-12-03, 17:14:06
Falls es noch keinem aufgefallen ist
https://docs.nvidia.com/cuda/cuda-binary-utilities/index.html#turing
Uniforms ???!
pilzsammler2002
2018-12-03, 17:48:49
Ich dachte in Rechenzentren "darf" man nicht mehr die Consumer Karten einsetzen, dazu gehörte die Titan V damals auch :freak:
https://www.heise.de/newsticker/meldung/Nvidia-begrenzt-Deep-Learning-mit-Geforce-und-Titan-3927851.html
N0Thing
2018-12-03, 17:50:52
An Einzelplätzen / Workstations in Uni und Betrieb aber durchaus.
Ex3cut3r
2018-12-03, 20:45:14
RTX Titan für schlappe 2500€ Wo bleibt den AMD? ;D
Die sind mittlerweile 3 Generationen zurück, eine Vega 64 kämpt mit einer GTX 1080 und 1070Ti, beides Technik vom Mai 2016. Was ich damit sagen will, kein Wunder das Nvdia solche Preise verlangen kann, und einige "verrückte" werden auch zuschlagen, soviel ist sicher. Schon und gut, dass AMD bei den CPUs so gut dabei ist, aber die GPU Sparte leidet massiv drunter.
Nightspider
2018-12-03, 21:26:10
Bei Irgendjemandem hat die aktuelle Star Citizen Alpha schon mal 13GB VRAM belegt wenn ich mich nicht irre. Das würde zumindest jetzt schon von 24GB VRAM profitieren. :D
GSXR-1000
2018-12-03, 22:12:59
Was ich damit sagen will, ...
Ich glaube, das wissen wir alle, auch ohne das du den Satz vollendest.
Warum können es die 2 handvoll Fanboys einfach mal nicht lassen, staendig einen Kampf AMD vs NV heranzuziehen, den es wohl, mitunter aus strategischen Gründen garnicht gibt? Der noch dazu mit der jeweils diskutierten HW nix zu tun hat?
Sowas sollte einfach mal konsquent geahndet werden. Dann kann man in diesen Threads vielleicht auch wieder sinnvoll diskutieren.
TGKlaus
2018-12-03, 22:36:20
Ich glaube, das wissen wir alle, auch ohne das du den Satz vollendest.
Warum können es die 2 handvoll Fanboys einfach mal nicht lassen, staendig einen Kampf AMD vs NV heranzuziehen, den es wohl, mitunter aus strategischen Gründen garnicht gibt? Der noch dazu mit der jeweils diskutierten HW nix zu tun hat?
Sowas sollte einfach mal konsquent geahndet werden. Dann kann man in diesen Threads vielleicht auch wieder sinnvoll diskutieren.
Wird nicht passieren. Wärend Troyan (u.a.) weiter wüten dürfen, incl. teils massiver Beleidigungen (was in keinster Weise mehr irgendwie nachvollziehbar ist) sind von mir Posts gelöscht wurden, wenn da statt "Nvidia" "AMD" gestanden hätte, hätte die niemand angefaßt. (Wie man ja bei Troyan, Dural ,.. sieht.)
Monsta
2018-12-03, 22:41:05
RTX Titan für schlappe 2500€ Wo bleibt den AMD? ;D
Die sind mittlerweile 3 Generationen zurück, eine Vega 64 kämpt mit einer GTX 1080 und 1070Ti, beides Technik vom Mai 2016. Was ich damit sagen will, kein Wunder das Nvdia solche Preise verlangen kann, und einige "verrückte" werden auch zuschlagen, soviel ist sicher. Schon und gut, dass AMD bei den CPUs so gut dabei ist, aber die GPU Sparte leidet massiv drunter.
die 2070 ist doch auch kaum schneller als 1080 und 1070ti bzw Vega64, und kostet mehr.
Also ist die aus Deiner Sicht auch mau da sie sich mit Hardware von 2016 messen muss?
gravitationsfeld
2018-12-03, 22:52:44
Uniforms ???!
Sieht so aus, typisch NVIDIA keinerlei Erwaehnung wert :)
Ex3cut3r
2018-12-03, 22:57:49
die 2070 ist doch auch kaum schneller als 1080 und 1070ti bzw Vega64, und kostet mehr.
Also ist die aus Deiner Sicht auch mau da sie sich mit Hardware von 2016 messen muss?
Ja warum wohl? Weil Nvidia überhaupt keinen Druck hat, wenn Sie denn hätten, wäre die 2070/2080 nochmal mal 20% schneller geworden. Ich finde es einfach nur traurig, das die halbe Foren Welt sich über die Nvidia Preise beschwert, aber irgendwie überhaupt nicht 1+1 zusammen zählen kann? Warum so teurer? Weil AMD vermutlich bis Anfang 2020 keine 1080Ti/RTX 2080 überbieten kann. Von der Technologie mal ganz abgesehen, Nvidia = bessere Performance/Watt Leistung = Leisere Customs + Raytracing angefangen. Fraglich ob AMD mit 7nm stark kontern kann, wenn es ganz blöd kommt, wird Nvidia 7nm Performance Chip wieder mal den Highend 7nm Chip von AMD deklassieren, wie einst bei Kepler. Und die Preise werden weiterhin sehr deftig sein. Tolle Wurst.
Monsta
2018-12-03, 23:12:48
Ja warum wohl? Weil Nvidia überhaupt keinen Druck hat, wenn Sie denn hätten, wäre die 2070/2080 nochmal mal 20% schneller geworden. Ich finde es einfach nur traurig, das die halbe Foren Welt sich über die Nvidia Preise beschwert, aber irgendwie überhaupt nicht 1+1 zusammen zählen kann? Warum so teurer? Weil AMD vermutlich bis Anfang 2020 keine 1080Ti/RTX 2080 überbieten kann. Von der Technologie mal ganz abgesehen, Nvidia = bessere Performance/Watt Leistung = Leisere Customs + Raytracing angefangen. Fraglich ob AMD mit 7nm stark kontern kann, wenn es ganz blöd kommt, wird Nvidia 7nm Performance Chip wieder mal den Highend 7nm Chip von AMD deklassieren, wie einst bei Kepler. Und die Preise werden weiterhin sehr deftig sein. Tolle Wurst.
Nvidia hat permanent Druck, die müssen alle 1 - 2 Jahre was neues bringen und die müssen den Leuten es glaubhaft verkaufen das sie den Kram brauchen.
Amd interessiert die nicht die Bohne, die 10% Amd User von den evtl 2% wechseln. Da lacht Nvdia drüber.
Die haben ausschließlich Konkurrenz im eigenen Haus.
Die wollen die User der 1060 dazu bewegen was neues zu kaufen. Und das ist schwer.
TGKlaus
2018-12-03, 23:27:33
Die wollen die User der 1060 dazu bewegen was neues zu kaufen. Und das ist schwer.
Ach Quatsch, das klappt bestimmt mit ner 2060 die 30% mehr kostet. ;D
wolik
2018-12-03, 23:37:18
Wieder so ein Lachnummer. Profi Karte (Titan RTX) ohne Quadro Driver ;) Oder liege ich falsch?
24Gb ist schon toll (SC wird wohl endlich zeigen wieviel VRAM er braucht) und NVLink dabei (Titan V hat keinen) "Zum Glück" es gab weniger "Begeisterte" wer Titan V gekauft haben (hier in Forum max. 5 Leute ?) deswegen Preis wurde deutlich nach unten korrigiert. Was ich noch lächerlich finde, dass das Leistung wird gleich sein oder noch schlechte als 2080Ti mit Wasserkühler. Ich wünsche das AMD Ihre Chance nicht verschläft. Eine Navi Karte mit Leistung 2080Ti und 16Gb für 900€ und Nvidia kann einpacken. RTX ist Totgeburt.
Eine Navi Karte mit Leistung 2080Ti und 16Gb für 900€ und Nvidia kann einpacken.
Wird so nicht passieren.
RTX ist Totgeburt.
RTX ist gekommen um zu bleiben, das wird nicht wieder verschwinden. Gewöhn dich schon mal dran.
Mancko
2018-12-04, 00:02:44
Wird so nicht passieren.
RTX ist gekommen um zu bleiben, das wird nicht wieder verschwinden. Gewöhn dich schon mal dran.
Davon würde ich auch mal ausgehen. Bei Workstation bzw. Professional wird man ohne das Feature zukünftig keinen Stich mehr sehen. Bei Gaming wird m.E. schon die nächste Generation von Nvidia bzw. der Refresh bereits ordentlich Leistung draufpacken so dass es auch im 2070/2060 Bereich in FullHD ordentlich spielbar ist. Bis dahin hat man auch ein paar wichtige Games die das Feature einsetzen und die selbstredend in jedem Review dabei sind. Kann sich jeder dann schon mal ausmalen was es heißt wenn das in der Kategorie spielbar ist und die Konkurrenz ggf. das Feature in der Form gar nicht erst anbietet weil ggf. zu spät davon Wind bekommen.
Hakim
2018-12-04, 00:19:47
Eine Navi Karte mit Leistung 2080Ti und 16Gb für 900€ und Nvidia kann einpacken. RTX ist Totgeburt.
Zu hoffen wäre es ja. Das würde echt etwas Bewegung reinbringen. Wird aber vermutlich irgendwo bei *2080 liegen tippe ich mal.
Komisch das es kaum Infos zu einer 2060 gibt. Bis auf diesen einen Benchmark die eine 2060 sein könnte. Vorhin irgendwo gelesen das es evtl doch mit RTX Einheiten kommen könnte, einerseits evt gut wegen Verbreitung und Unterstützung, andererseits, wäre das ja auf so einer Karte kaum vernünftig nutzbar.
wolik
2018-12-04, 00:57:53
RTX ist gekommen um zu bleiben, das wird nicht wieder verschwinden. Gewöhn dich schon mal dran.
Ich will nicht in ein Kreis laufen... Ich glaube diese Thread ist nicht für RTX Hater :mad: Wir werden sehen. Das zur Zeit RTX nie irgendwo zu sehen ist, ist doch Fakt. (BF5 nicht mal spielbar unter FHD) Verbreitung ? Unter 0,1% Mit Spiel Konsolen 0,003% ? Neue Xbox oder PS5 wird das (RTX) nicht haben. auch Fakt. Ich denke langsam müssen Köpfe abgekühlt sein. Physx war auch mit alle Demos war nett anzusehen. Wo ist jetzt Physx ?
gravitationsfeld
2018-12-04, 01:05:07
auch Fakt.
Uh, Quelle?
Das zur Zeit RTX nie irgendwo zu sehen ist, ist doch Fakt.
In BF V ist es doch zu sehen :confused:
BF5 nicht mal spielbar unter FHD
In 1080p ist es aktuell problemlos spielbar mit RT. Der kommende Patch soll die Leistung massiv steigern, sodass auch 1440p problemlos spielbar wird.
Verbreitung ? Unter 0,1%
You don't say? Turing ist die erste und einzige GPU die es kann und ist dazu erst seit September am Markt.
Neue Xbox oder PS5 wird das (RTX) nicht haben. auch Fakt.
Wo ist das ein Fakt? Es gibt null genaue Infos zur Hardware der neuen Konsolen.
Physx war auch mit alle Demos war nett anzusehen. Wo ist jetzt Physx ?
PhysX war nie offizieller Bestandteil einer herstellerübergreifenden API. Bei Raytracing ist das anders, das ist nun offizieller Bestandteil von DX12.
wolik
2018-12-04, 01:25:55
Uh, Quelle?
Quelle... Gesunder Menschenverstand. Die neue Konsolen sind schon längst in Entwicklung. Ziel ist 4K/60fps und nicht HD Ready mit RTX. IMHO.
You don't say? Turing ist die erste und einzige GPU die es kann und ist dazu erst seit September am Markt.
Schau dir lieber Statistik bei Steam ( https://store.steampowered.com/hwsurvey/videocard/) wie viel Spieler haben 1080Ti oder Titan X. Sogar in 2020 RTX Karten Besitzer werden in einstellige Prozentbereich sein.
PhysX war nie offizieller Bestandteil einer herstellerübergreifenden API. Bei Raytracing ist das anders, das ist nun offizieller Bestandteil von DX12.
DX12 bis Heute ist nicht besonders toll. Vulkan schon... Wie lange gibts schon DX12? Physx war lange Zeit ein Hype bei Nvidia. Mit Haarsimulation bis Flüssigkeitberechnung. Man hat das leise Begraben.
In 1080p ist es aktuell problemlos spielbar mit RT. Der kommende Patch soll die Leistung massiv steigern, sodass auch 1440p problemlos spielbar wird.
Ich habe 4k HDR "glotze" und will auf kein Fall in 1080p spielen! Auf kein Fall! Sogar in 1440p Bild sieht beschissen aus. Verwaschen und unscharf.
Morgenlicht
2018-12-04, 01:46:08
Ich will nicht in ein Kreis laufen... Ich glaube diese Thread ist nicht für RTX Hater :mad: Wir werden sehen. Das zur Zeit RTX nie irgendwo zu sehen ist, ist doch Fakt. (BF5 nicht mal spielbar unter FHD) Verbreitung ? Unter 0,1% Mit Spiel Konsolen 0,003% ? Neue Xbox oder PS5 wird das (RTX) nicht haben. auch Fakt. Ich denke langsam müssen Köpfe abgekühlt sein. Physx war auch mit alle Demos war nett anzusehen. Wo ist jetzt Physx ? Anhand eines ersten öffentlichen Gehversuches mit Echtzeit RayTracing im Falle von Battlefield 5 kann also abgeschätzt werden, daß die RTX Leistung zu wenig ist. Ist es also ratsam für Spieleentwickler alles im Alphastadium befindliche zu veröffentlichen, nur damit das Herz höher schlägt, um die RTX-Kaufentscheidung zu bestärken? :)
Mit DirectX 12 ist doch ein Standard geschaffen worden, der zum Beispiel mit NVIDIA RTX in Hardware verwendet werden kann. Es gibt sicherlich noch andere Möglichkeiten ohne RTX auf Echtzeit RayTracing zurückzugreifen. Im Laufe der Zeit werden bestimmt so einige Algorithmen entwickelt werden, daß dies sogar mit einer CPU machbar sein wird.
NVIDIA hat groß beworben das Denoising für RayTracing über die eigene Hardware laufen zu lassen, interessanterweise benutzt Battlefield 5 eigene Algorithmen für Denoising
gravitationsfeld
2018-12-04, 03:08:10
Raytracing wird definitiv nicht verschwinden. Das hat sich in der Filmbranche auch durchgesetzt als man genuegend Rechenleistung hatte. Hat viel zu viele Vorteile. Das ist kein "PhysX".
Quelle... Gesunder Menschenverstand. Die neue Konsolen sind schon längst in Entwicklung. Ziel ist 4K/60fps und nicht HD Ready mit RTX. IMHO.
Dann red nicht von Fakten.
crux2005
2018-12-04, 05:16:11
Anhand eines ersten öffentlichen Gehversuches mit Echtzeit RayTracing im Falle von Battlefield 5 kann also abgeschätzt werden, daß die RTX Leistung zu wenig ist. Ist es also ratsam für Spieleentwickler alles im Alphastadium befindliche zu veröffentlichen, nur damit das Herz höher schlägt, um die RTX-Kaufentscheidung zu bestärken? :)
Keine HW hat je "genug Leistung". Es muss ein use-case definiert werden. Aber ich will jetzt nicht wiederholen was RLZ schon mehrmals geschrieben hat. In 50. Seiten wird wahrscheinlich wieder darüber diskutiert. :(
Zu wenig RTX Leistung? :rolleyes: 1440p, RayTracing auf Ultra und 60+ FPS @ RTX 2080 Ti.
Abgesehen davon sind es andere Flaschenhälse die mehr FPS verhindern.
Fragman
2018-12-04, 06:54:34
Zu wenig RTX Leistung? :rolleyes: 1440p, RayTracing auf Ultra und 60+ FPS @ RTX 2080 Ti.
Abgesehen davon sind es andere Flaschenhälse die mehr FPS verhindern.
Ja, was Dice da jetzt rausgeholt hat an Frames ist schon ordentlich und die Optimierungen gehen ja weiter. Das "zu langsam" Argument zieht hier schon nicht mehr.
GSXR-1000
2018-12-04, 08:05:51
Dann red nicht von Fakten.
Du scheinst von Entwicklungszyklen wenig Ahnung zu haben, wenn du allen Ernstes davon ausgehst, die nächste Konsolengeneration würde RT anbieten. Die Architekturentscheidungen sind lange getroffen, selbst die entsprechenden Zulieferverträge dürften bereits längstens gezeichnet werden.
Aber, red dir gerne weiter ein, es bestünde noch eine Wahrscheinlichkeit.
Das genau ist nämlich der Springende Punkt: Für den Grossteil des Gamermarkts (Konsolen) für den die Spieleschmieden produzieren, wird RT die nächsten 5-7 Jahre keine Rolle spielen.
Du darfst das schön finden oder nicht. Anzunehmen, das spielefirmen trotzdem relevant ressourcen in RT features investieren werden ist mehr als naiv.
Rancor
2018-12-04, 08:22:15
Naja er muss es wissen. Er ist schließlich Entwickler und hat daher bestimmt schon devs kits der per ps5 oder des xbox Nachfolgers gesehen ^^
dargo
2018-12-04, 08:54:32
Ja, was Dice da jetzt rausgeholt hat an Frames ist schon ordentlich und die Optimierungen gehen ja weiter.
Ich frage mich wann DICE endlich an einer allgemeinen DX12-Optimierung anfängt zu arbeiten? Die Frametimes ohne DXR, welches nur die Probleme von DX12 verschleiert, sind immer noch kacke.
GSXR-1000
2018-12-04, 08:55:26
Naja er muss es wissen. Er ist schließlich Entwickler und hat daher bestimmt schon devs kits der per ps5 oder des xbox Nachfolgers gesehen ^^
Ach liebchen. Dazu muss man kein genie sein.
Das jemand wie du sich gegen solche simplen erkenntnisse sperrt, wundert auch niemanden.
Aber sojemand wie du ist doch ueber seinen herzenshardwarelieferanten so prima informiert. Hast du mal verfolgt mit was fuer einem vorlauf die entwicklungen zu einer neuen plattform anlaufen?
Schonmal ueberlegt, das softwareentwickler schon jetzt ziemlich genau wissen muessen wie die architektur aussieht? Weil natuerlich jede konsole zum marktstart exclusive titel haben muss, die auch einschlagen? Schon mal ueberlegt das natuerlich 1 bis 2 jahre vorher schon prototypen bestehen, die die architektur festlegen? Zu diversen testzwecken, zu durability tests, uat, etc?
Und schonmal ueberlegt wie weit im vorhinein die hardwareressourcen geplant werden muessen? Bei zulieferern? Fertigern? Wieviel geraete vor marktstart gefertigt werden muessen?
Meinst du im ernst die kommen 6 monate vorher an und sagen: hoer mal nv...wir brauchen in 3 monaten x millionen chips vom typ a, weil wir in 6 monaten x millionen neue konsolen verkaufen wollen? Glaubst du das im ernst?
Spar dir die antwort...wenns um Nv geht glaubst du alles.
Godmode
2018-12-04, 09:42:42
Sieht so aus, typisch NVIDIA keinerlei Erwaehnung wert :)
Uniforms sind Variablen im global Scope wenn ich das hier richtig lese: https://www.khronos.org/opengl/wiki/Uniform_(GLSL)
Sowas gab es bisher nicht?
TobiWahnKenobi
2018-12-04, 09:45:41
das wird dann die dritte.. gleichschnelle karte. würde nvidia nicht durch preisliche abgrenzung klarmachen, dass es sich hier "nicht" um ein spielerprodukt handelt, könnte man das als eingeständnis sehen, dass für videospiele zur zeit einfach nicht mehr drin ist.. selbst mit dem holzhammer (vollausbau und reichlich ram) nicht. abseits der templimits benötigt TU102 als 2080TI mal eben 380W um mit dem tensor-urvater GV100 @300W gleichzuziehen oder ihn homöopathisch zu überholen. ohne OSD sind beide in videospielen vergleichbar schnell und sich so ähnlich, dass man es am spielfluss nicht eruieren kann, auf welcher hardware der code grad läuft. auf der habenseite stehen bei einem rtx-titan unbeschnittene tensorcores (ggü. TU102), reichlich vram (ggü. TU102 und GV100), nvlink (ggü. GV100) und ein neueres techlevel (ggü. GV100). insofern kann die karte natürlich käufer neugierig machen, denen eine quadro zu teuer und titan v als sGPU zu langsam ist. <- das hat aber wenig bis gar nichts mit videospielen zu tun.
klar, der nerd in uns kann mit 24GiB ordentlich klotzen.. 8k auflösungen usw.. nur steht da wieder die grundsätzliche rohleistung im weg, was also mindestens zwei dieser karten notwendig machen würde.
mit dem shrink auf 7nm im nächsten jahr erwarte ich größere steigerungen in videospielen als heute mit dem oben erwähnten holzhammer. aber lassen wir uns mal überraschen..
der spieler, der 3.000€ in sein grafiksystem investieren möchte, bekommt mit
zwei 2080Ti und einem neuen netzteil mehr frames fürs gleiche geld. inklusive verbräuchen von 1KW pro stunde. :)
titan wird mit jeder iteration besser positioniert.. zwischen geforce und quadro.. da wo man ihn haben will. das kapiert in der generation youtube nur nicht jeder.
(..)
mfg
tobi
Godmode
2018-12-04, 09:50:55
Für Deep-Learning Anwendungen ist die Karte schon nice. Vor allem wenn das Modell nicht in den 11 GB VRAM einer 2080 Ti reinpasst und man nicht 5000+ € für eine Quadro RTX 6000 ausgeben kann. Wenn man die Karte für Spiele nutzt, muss einem Geld einfach egal sein.
Fragman
2018-12-04, 09:58:49
Ich frage mich wann DICE endlich an einer allgemeinen DX12-Optimierung anfängt zu arbeiten? Die Frametimes ohne DXR, welches nur die Probleme von DX12 verschleiert, sind immer noch kacke.
Das kommt noch dazu. Luft nach oben ist wohl generell noch. Aber ka ob Dice das kann, ohne den/die cores der Engine um zu schreiben. Ob man sich das jetzt noch antut mit den neuen Konsolen am Horizont?
Dural
2018-12-04, 10:22:31
Moment mal, ich dachte BF5 läuft so scheisse wegen RT, aber DX12 läuft auch ohne RT nicht gut, richtig komisch! :wink:
Man könnte ja vermuten dass das erste Spiel mit RT überhaupt vielleicht noch etwas Optimierung Potential hat? Reine Vermutung von meiner Seite! ;)
Die Titan RTX ist mal wieder eine richtige Titan! Ein sehr nettes Stück Hardware das bestimmt auch viele Gamer anschaffen werden, schon nur wegen den 24GB Speicher.
Godmode
2018-12-04, 10:30:15
Moment mal, ich dachte BF5 läuft so scheisse wegen RT, aber DX12 läuft auch ohne RT nicht gut, richtig komisch! :wink:
Man könnte ja vermuten dass das erste Spiel mit RT überhaupt vielleicht noch etwas Optimierung Potential hat? Reine Vermutung von meiner Seite! ;)
Die Titan RTX ist mal wieder eine richtige Titan! Ein sehr nettes Stück Hardware das bestimmt auch viele Gamer anschaffen werden, schon nur wegen den 24GB Speicher.
Alles passt, bis auf den Preis. Die Karte wird eher nicht von Gamern gekauft werden, außer der handvoll, die immer alles haben müssen, was neu ist.
Fragman
2018-12-04, 10:32:35
Zum rendern wär die Karte schon sehr geil. Wenn ich noch Freelancer wär, hätt ich eine gekauft. Aber so ist die einfach zu teuer. ;)
Korvaun
2018-12-04, 11:21:27
Mit dem nächsten BF V Patch soll ja die Raytracing-Leistung um 50% steigen (https://www.computerbase.de/2018-12/battlefield-v-patch-rtx-leistung/)... und das wird wohl nicht das Ende der Optimierungen/Verbesserungen bei BF V sein. Da ist wohl noch SEHR viel Optimierungspotential vorhanden, vor allem wenn die Devs das gleich von Entwicklungsbeginn an mit einpanen/die Engines ordentlich optimiert sind.
gbm31
2018-12-04, 11:57:34
Mit dem nächsten BF V Patch soll ja die Raytracing-Leistung um 50% steigen (https://www.computerbase.de/2018-12/battlefield-v-patch-rtx-leistung/)... und das wird wohl nicht das Ende der Optimierungen/Verbesserungen bei BF V sein. Da ist wohl noch SEHR viel Optimierungspotential vorhanden, vor allem wenn die Devs das gleich von Entwicklungsbeginn an mit einpanen/die Engines ordentlich optimiert sind.
Wohl eher nicht...
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11867788#post11867788
mksn7
2018-12-04, 12:43:55
Uniforms sind Variablen im global Scope wenn ich das hier richtig lese: https://www.khronos.org/opengl/wiki/Uniform_(GLSL)
Sowas gab es bisher nicht?
Die GLSL Uniforms sind nur ein API Konzept, das ist ein Inputparameter, der für alle Shaderthreads gleich ist.
Die uniforms bei Turing sind Register, die sich alle Lanes in einem Warp teilen. Als plakative Newsüberschrift könnte das so klingen:
"BEI AMD GEKLAUT: NVIDIA JETZT AUCH MIT SCALAR UNITS!!1"
Wie bei AMD auch, kann man damit vor allem Register sparen, weil man hier und da statt eines Vektorregisters eine Skalarregister verwenden kann. Und gerade bei Addressberechnungen hat man öfter mal identische Werte für jeden Thread.
MorPheuZ
2018-12-04, 12:47:56
@T-REX: Die Karte ist sicher der Burner und ein starkes Stück HW. Allerdings nichts mehr für mein Budget. Ist schon schlimm, vor ein paar Jahren kaufte man eine solche Karte noch für knappen 1000er...
pixeljetstream
2018-12-04, 12:51:22
Genau, die glsl uniforms entsprechen den constants/constant buffers, während das nun register sind.
Das ist ne Kunst für sich im Compiler dann die passende Art Register zu wählen.
Ex3cut3r
2018-12-04, 14:55:18
Man könnte die RTX Titan mit 24GB ja auch als Investition für die Zukunft ansehen, mit den 24GB sollte Sie lange ausreichen, man kauft sich die jetzt, und kauft dann 6 Jahre keine neue GPU. So hat man vlt. etwas gespart anstatt alle 2 Jahre das neue Topmodell für 1300€ zu kaufen. Für 1440p reicht Sie auch locker für 6 Jahre. :biggrin:
SKYNET
2018-12-04, 15:00:46
Man könnte die RTX Titan mit 24GB ja auch als Investition für die Zukunft ansehen, mit den 24GB sollte Sie lange ausreichen, man kauft sich die jetzt, und kauft dann 6 Jahre keine neue GPU. So hat man vlt. etwas gespart anstatt alle 2 Jahre das neue Topmodell für 1300€ zu kaufen. Für 1440p reicht Sie auch locker für 6 Jahre. :biggrin:
essei es kommt sowas wie crysis raus... das selbst heute mit allen regler auf rechts(inkl. treiber) in 1920*1200 keine konstanten 60fps liefert mit ner 1080Ti die bis an die zähne getaktet ist ;D
und ja, ich weiss dass das game mieserabel geproggt ist, aber trotzdem sieht es für das alter immernoch verdammt gut aus.
Hakim
2018-12-04, 15:11:47
Wenn jede neue Generation ordentlichen Performance boost gibt wechsele ich lieber 3x für das Geld statt einmal für 6 Jahre.
Godmode
2018-12-04, 15:14:37
Die GLSL Uniforms sind nur ein API Konzept, das ist ein Inputparameter, der für alle Shaderthreads gleich ist.
Die uniforms bei Turing sind Register, die sich alle Lanes in einem Warp teilen. Als plakative Newsüberschrift könnte das so klingen:
"BEI AMD GEKLAUT: NVIDIA JETZT AUCH MIT SCALAR UNITS!!1"
Wie bei AMD auch, kann man damit vor allem Register sparen, weil man hier und da statt eines Vektorregisters eine Skalarregister verwenden kann. Und gerade bei Addressberechnungen hat man öfter mal identische Werte für jeden Thread.
Genau, die glsl uniforms entsprechen den constants/constant buffers, während das nun register sind.
Das ist ne Kunst für sich im Compiler dann die passende Art Register zu wählen.
Danke für die Aufklärung. Liegen die Uniforms dann auch im Registerfile, oder gibt es dafür einen anderen Platz?
Man könnte die RTX Titan mit 24GB ja auch als Investition für die Zukunft ansehen, mit den 24GB sollte Sie lange ausreichen, man kauft sich die jetzt, und kauft dann 6 Jahre keine neue GPU. So hat man vlt. etwas gespart anstatt alle 2 Jahre das neue Topmodell für 1300€ zu kaufen. Für 1440p reicht Sie auch locker für 6 Jahre. :biggrin:
Das war noch nie schlau.
pixeljetstream
2018-12-04, 15:44:58
Danke für die Aufklärung. Liegen die Uniforms dann auch im Registerfile, oder gibt es dafür einen anderen Platz?
Gute Frage, leider weiß ich nicht ob das öffentlich dokumentiert ist. Mal weiter in der cuda doku suchen. Sinnvoll wäre es. 1 per thread Register opfern gibt dir schon 32 Uniform Registers..
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.