PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: PNY leakt ausgesprochen handzahme Taktraten zu GeForce RTX 2080 /Ti


Leonidas
2018-08-18, 15:42:56
Link zur News:
https://www.3dcenter.org/news/pny-leakt-ausgesprochen-handzahme-taktraten-zu-geforce-rtx-2080-2080-ti

hardtech
2018-08-18, 15:59:03
viell kann man hier einfach bis montag warten.
es treffen gefühlt 3x am tag iwelche infos zu turing ein.

ein test in sachen effizienz würde ich am meisten interessieren.
ansonsten einfach 7nm produkte abwarten, denn nach 2,5 jahren nicht einmal 50% mehr leistung zu bieten ist schon sauschlecht. scheinbar hat nicht nur intel probleme in der miniaturisierung der architektur.

unwissend!
2018-08-18, 16:12:16
In der ersten Tabelle ist, glaube ich, ein "Dreher" drin. Warum sollte die 2080 mehr Shader und ein breiteres Speicherinterface als die 2080TI haben?

wolik
2018-08-18, 16:17:04
In der ersten Tabelle ist, glaube ich, ein "Dreher" drin. Warum sollte die 2080 mehr Shader und ein breiteres Speicherinterface als die 2080TI haben?
Ohne Frage, dort ist ein Fehler... Weisst eine schon was GPU-GPU Access Memory bedeutet ? 11+11=22 GB ? :freak:

DjNorad
2018-08-18, 17:04:20
und ich glaube auch eher nicht, dass die Stromstecker bei der Ti 1*6-pin + 1*8-pin sind, wenn die Non-Ti 2* 8-pin hat...

Bösewicht
2018-08-18, 17:22:27
In der ersten Tabelle ist, glaube ich, ein "Dreher" drin. Warum sollte die 2080 mehr Shader und ein breiteres Speicherinterface als die 2080TI haben?
in der tabelle ist einfach alles verdreht.
guck genauer hin das einzige erkennbare muster ist zufall oder mir macht die hitze zu schaffen;D

prinz_valium
2018-08-18, 17:26:42
in der tabelle ist einfach alles verdreht.
guck genauer hin das einzige erkennbare muster ist zufall oder mir macht die hitze zu schaffen;D

Nö. wenn die erste Spalte geändert wird, dann passt alles.

Leonidas
2018-08-18, 18:22:01
Sorry, das war ziemlich dumm. Hätte ich sehen müssen. Nun ist alles an der richtigen Stelle.

Gast
2018-08-18, 18:27:36
Evtl ist das doch einfach nicht der Boost-Takt, sondern nur der "Basis" Takt.

Gast
2018-08-18, 19:52:33
Weisst eine schon was GPU-GPU Access Memory bedeutet ? 11+11=22 GB ? :freak:

NVLINK bietet 100GB/s in beide Richtungen auf den Speicher der jeweils anderen Karte.

An dem Bandbreitenunterschied zum lokalen Speicher erkennt man allerdings, dass es nicht so einfach mit 11+11=22 sein wird.

wolik
2018-08-18, 23:46:20
Naa... Wir haben mit HB Bridge 600 MHz ? Sogar PCIe 3.0 x16 ist "nur" 32Gb/s. Auf alle fälle gute Zeichen dass das NV SLI nicht endgültig begräbt.

Gast
2018-08-19, 01:37:10
Naa... Wir haben mit HB Bridge 600 MHz ? Sogar PCIe 3.0 x16 ist "nur" 32Gb/s. Auf alle fälle gute Zeichen dass das NV SLI nicht endgültig begräbt.

Es dürfte wohl genug sein um die ganzen Buffer die von einem Frame zum nächsten benötigt werden hin und her zu kopieren und damit die AFR-Skalierung auch mit "bösen" Engines zu verbessern.

Texturen etc. wirst du aber immer noch lokal auf jeder Karte haben wollen, wenn das performant laufen soll.

Im Prinzip ist das wohl so was ähnliches wie NUMA auf Multi-Sockel-Systemen.
Der Zugriff auf den fremenden Speicher ist prinzipiell möglich, aber du willst natürlich dass was du auf jeder GPU brauchst möglichst lokal haben.

Für SLI wird das weiterhin bedeuten, dass es effektiv nicht großartig mehr Speicher als auf einer Karte gibt.
Für GPGPU kann es natürlich anders aussehen, wenn jede GPU an grundsätzlich unabhängigen Problemen arbeitet, und nur für Synchronisierungen auf die jeweils andere zugreifen muss, dann kann es natürlich auch eine annähernd nutzbare Speicherverdoppelung geben.

Gast
2018-08-19, 01:39:23
Nachdem 16 TFLOPs FP32 für die größte Quadro bestätigt sind, kann man sich ja leicht ausrechnen in welchen Regionen der Takt liegen muss.

Dazu noch, dass Quadros in der Regel eher etwas niedriger getaktet sind (es könnte hier aber natürlich auch eine Ausnahme seiN).

Gast
2018-08-19, 06:41:24
Auf Grund anderer Prioritäten lese ich aktuell kein 3DC.
Und dann schau ich am Flughafen mal rein.
Merkt niemand mehr, wie lächerlich wegen - in sogar der überwiegenden Zahl - nicht zutreffenden Spekulation und Rumgerate 90% der Meldungen über zukünftige Grafikkarten sind?
Man könnte auch sagen, dass aktuell nvidia alle ganz gut verkackeiert und sämtliche drauf reinfallen.

Leonidas
2018-08-19, 10:12:02
@ Gast

Also ich verstehe den Tenor Deines Anliegens. Dummerweise scheinen gerade die letzten unglaubwürdigen Rumors dann doch zuzutreffen. Wahrscheinlich nicht diese Taktraten-Meldung (die trotzdem ihren Wert hat wegen der offiziellen Daten), aber diejenige davor.

Leider geht es eben doch nicht nach dem Schema "unglaubwürdig = falsch". Wenn es so einfach wäre, wär das schön.

JVC
2018-08-19, 18:46:55
Wie Igor mal meinte
"wir würden uns über die gebotene Leistung wundern ..."

Da er nicht die Rohperformance gemeint haben kann wird es wohl das "RTX" mit "besserer Bildqualität" gemeint haben ...

Das ist schon klar
Aber ich "befürchte" das NV mit seiner "nächsten Generation" hauptsächlich nur das abgrast was Custom Modelle mit hohem tackt jetzt schon fast bieten.

Ich fürchte das die neue Ti sich nur "wenig" vor der alten Ti ( beide auf Anschlag getaktet ) absetzen können wird :confused:

m.f.g. JVC

und ~+20% betrachte ich schon noch als "wenig" ( mir viel zu wenig )
40%+ wären für mich die unterste schmerzgrenze ( und da auch mit 16gb Ram )

m.f.g. JVC

Rabiata
2018-08-19, 19:12:53
und ~+20% betrachte ich schon noch als "wenig" ( mir viel zu wenig )
40%+ wären für mich die unterste schmerzgrenze ( und da auch mit 16gb Ram )

m.f.g. JVC
Finde ich generell auch, 50% Steigerung müssen für einen Neukauf schon drin sein. Besser mehr. Dann geht es halt nicht darum "ersetze ich jetzt meine GTX1080?", sondern für die Leute die noch eine 980 haben "will ich jetzt was neues?"

Ansonsten habe ich den Eindruck, daß es beim RAM über die Jahre am schnellsten eng wird. Also da eher nicht sparen. Bei einem Neukauf im High-End Bereich sollten heute 16 GB auf der Karte sein.

Edit:
Habe jetzt noch mal bei Wikipedia die Unterschiede von Quadro GP100 (Pascal-basiert) zur neuen Quadro GV100 (Volta-basiert) nachgelesen. In den meisten Disziplinen leistet der GV100 ca. 60% mehr, nur bei der Speicherbandbreite ist der Fortschritt geringer. Turing als Nachfolge-Architektur müßte eigentlich mindestens denselben Schritt in der Performance machen. Außer Nvidia verbläst die Chipfläche für Raytracing und opfert dafür den Performancezuwachs bei "herkömmlicher" Grafik.

JVC
2018-08-20, 08:10:02
Ich bin mal gespannt ob die "Tester" ( Werbung macher ) dann wirklich mit @2GHZ 1080 Ti vergleichen oder ( wie es NV lieber ist ) nur die FE als vergleich heranziehen ...
( da wird man eventuell, ein kleines bisschen, die neue NV NDA merken ;) )

m.f.g. JVC

Gast
2018-08-20, 08:49:15
Ich verstehe das Gezicke hier bezüglich der neuen NVIDIA Generation echt nicht.
Die finale Performance ist nicht bekannt aber es gibt Seitenlange Abhandlungen warum es auf jedenfall zu wenig ist.
Überhaupt gibts von allem zu wenig, Sei es Leistung ,Takt, RAM , Shader etc. nur beim Preis und Verbrauch ist es auf jeden Fall zu viel für das gelieferte...

NVIDIA bringt von Maxwell auf Pascal mehr Takt und Einheiten = Mehr Rohleistung --> NVIDIA wärmt altes nur auf , keine neuen Features blablabla!!

NVIDA bringt von Pascal auf Turing mehr Einheiten + RT --> NVIDA bringt sinnlosen Scheiss gebt mir noch mehr Rohleistung kann ja wohl nicht sein !!

Das ganze hat die Züge von verwöhnten Kindern die immer mehr Schokolade haben wollen.

Das Geheule und drauf rumgehacke macht diese Threads abseits der Fanboykriege noch unlesbarer !

Wo ist das Problem zu warten oder wenns einem nicht passt einfach mal still zu sagen "jo nix für mich kauf ich nicht" anstatt hier Seitenlang rumzuzicken.

Geht ihr auch beim neuen Golf/ASTRA/Focus what ever so ab das er nicht nach eueren Ansprüchen gebaut wurde ?

JVC
2018-08-20, 13:58:36
"Geht ihr auch beim neuen Golf/ASTRA/Focus what ever so ab das er nicht nach eueren Ansprüchen gebaut wurde ? "

Da wo ich alternativen habe, gehe ich zur Konkurrenz und muss mich dadurch auch nicht beschweren ( massig Auswahl ).

NV hat bei den High End Karten aber leider keine Konkurrenz mehr, man hat überhaupt keine Auswahl mehr ... und es hat den Anschein das sie ( auf Grund dessen ) nicht gewillt sind mehr als nötig zu machen.
Da baut man lieber neue Features ein ... bei dehnen sich bei mir leider sofort der absichtliche Gedanke der Kundenbindung durch Proprietäre Sachen aufdrängt ... hätten wir ja nicht zum ersten mal ^^
Wobei ich hoffe das es diesmal nicht soweit kommt und NV sich an den Standard hält.
( andererseits wussten sie schon sehr lange das "Free sync" in DX12 standardisiert wird und haben trotzdem ... )

Es vermittelt den Anschein, oder lässt zu mindestens befürchten, das sich so etwa wie bei Intel die letzten 8 Jahre entwickeln könnte ... künstlich verzögerte Entwicklung ... man will ja die Entwicklungskosten wieder rausholen und wenn geht noch viel mehr ...

Im Endeffekt arbeitet jedes Unternehmen für die Aktionäre, den Gewinn ...
und nicht für die Kunden.
Für die macht man nur soviel wie nötig, sodass man ausreichend gekauft wird ... was ohne Konkurrenz ein leichtes ist ;)

Ich freu mich auf jedenfalls auf die Tests :smile:

Die "Startwerbung" werde ich mit Vorsicht genießen ;)

m.f.g. JVC

Gast
2018-08-20, 16:08:17
Es vermittelt den Anschein, oder lässt zu mindestens befürchten, das sich so "etwa wie bei Intel die letzten 8 Jahre entwickeln könnte ... künstlich verzögerte Entwicklung ... man will ja die Entwicklungskosten wieder rausholen und wenn geht noch viel mehr ..."

Ganz ehrlich ich kann den "Anschein" nicht naachvollziehen.

Kepler auf Maxwell war technologisch ein richtig großer Sprung ,
Maxwell auf Pascal nochmal ein richtig Großer wobei hier eher Refinement betrieben wurde, der Node gewechselt + GDDR5x aber dafür die Effizienz massiv gesteigert wurde.
Pascal auf Turing --> sachte mehr Einheiten ( zu internen Änderungen/Evolution sag ich nix weil es noch nix handfestes gibt ) und Rohleistung dafür aber AI + RT im Mainstream , DDR6 , das alles in 12 nm Node bei großen Die`s(nach der Anscheintheorie hätte man auf 7nm gewarte um das Wirtschaftlicher mit größeren Margen umzusetzen und dafür nen dickeren Pascal mit mehr Shadern gebracht? ).

Wenn man jetzt bedenkt das NVIDIA seit Kepler von den Markanteilen dick in Führung liegt und sich der Hauptkonkurent mit der schrittweisen Evolution von GCN auch nicht gerade mit rasanter Entwicklungsgeschwindigkeit und Bahnbrechenden Neuerungen hervorgetan hat da kann ich diesen Anschein nirgends sehen.
Von auf dei Bremse treten kann also keine Rede sein. Bezahlen lässt man es sich natürlich fürstlich über eine hohe Marge und das mM zu Recht!
wenn man ein deart großen Vorsprung gemessen an den Mitbewerbern im Segment hat.

Klar doppelter Speicher etc. ist schon nett aber wer soll das bezahlen wenn jetzt schon alle über den Preis motzen ?

Natürlich sind es gewinnorientierte Unternehmen , aber gerade vor diesem Hintergrund ist es doch müssig entsetzt über Preise zu meckern.
Die gleiche Marktwirtschaft die es uns ermöglicht für einen Spotpreis Milch oder Südseefrüchte zu kaufen greift hier, Umgedreht scheint es dann doch vielen nichtmehr zu munden und plötzlich geht das Geheule los.....