PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Aktuelle Performance-Projektionen sehen nVidias Ampere GA102 und ...


Leonidas
2020-07-21, 12:47:45
Link zur News:
https://www.3dcenter.org/news/geruechtekueche-aktuelle-performance-projektionen-sehen-nvidias-ampere-ga102-und-amds-big-navi-

WedgeAntilles
2020-07-21, 12:56:44
Ich habe 3 Probleme mit dem Video von Moore's Law:

Gut möglich natürlich, dass ich einfach zu doof bin und zu wenig Ahnung habe.

1) Er unterstellt, dass BigNavi doppelt (bzw. leicht mehr) als die 5700XT bringt.
Ok, kann ich nicht einschätzen, aber:
Was ist mit Raytracing?
Nvidia verwendet einen ordentlichen Teil des Chips dafür.
Kommt Raytracing halt auch noch mit drauf bei AMD? Also verdoppelte Leistung UND Raytracing von 0 auf 100?
Dann müsste AMD ja quasi die Leistung verdreifachen oder so, um noch Platz für Raytracing zu haben? Das erscheint mir jetzt endgültig völlig übertrieben.

Oder bietet AMD kein Raytracing? Die wollen also GraKas für 500-1500 Euro OHNE Raytracing verkaufen?
Falls AMD sagen würde: Wir halten von Raytracing nix, das taugt nicht viel - ok.
Nur: In den Konsolen hat der AMD Chip ja Raytracing.

Egal was man selber von Raytracing jetzt hält - Marketingtechnisch erscheint es mir fast unmöglich, GraKas im Bereich 400 Euro aufwärts OHNE Raytracing zu verkaufen.

Edit: Im Artikel heißt es ja, aus Marketinggründen soll mit den Konsolen zusammen gelauncht werden.
Da kann man es sich ja so richtig schön vorstellen:
"Hey AMD, die Konsole kostet 500 Euro. Gute Leistung, hübsche GraKa mit Raytracing die ihr da verbaut habt."
Da kann sich AMD dann zurecht beglückwünschen.
Und dann kommt die Frage:
"Wie kommt es eigentlich, dass eure 1000 Euro GraKa für den PC kein Raytracing hat?"
Was sagt AMD dann darauf?
"Wenn du Raytracing willst kauf dir halt ne Konsole" oder so was in der Art?
Ist doch lächerlich.

2) Im Video sagt er, AMD würde nicht merken wie Nahe sie an Nvidia sind, dass sie den Thron übernehmen könnten.
Kapiere ich nicht.
AMD soll einen "Wunder"Chip rausbringen können, dann aber an einfacher Prozentrechnung scheitern?

3) Seine These mit dem Refresh auf 7nm.
Ein Refresh ist eine "Kleinigkeit" mit ein bisschen höherer Takt.
Von einem Fertigungsprozess auf einen anderen zu wechseln ist aber keine Kleinigkeit sondern ein gehöriger Aufwand
Sorry, das ist doch kein Refresh, wie stellt er sich das vor?


Nicht falsch verstehen, er weiß garantiert zig mal mehr als ich über diese Materie.
Aber unterm Strich klingt für mich das Video ziemlich unseriös.

Leonidas
2020-07-21, 13:02:44
Du hast in allen 3 Punkten recht.

zu 1. .... siehe meinen letzten Absatz
zu 2. .... so unsinnig, das ich es lieber nicht erwähnt habe
zu 3. .... keinesfalls das wahrscheinlichste Szenario, was es gibt

Ex3cut3r
2020-07-21, 13:18:39
Warum schenkt man diesen YouTube Leuten so viel Beachtung? Ich kann mich da auch registrieren mit den Namen Nvidia Insider und einfach mal fantasieren und diese Fantasien dann als Insider Wissen verkaufen. Ist doch quatsch hoch zehn. Mittlerweile sollte man wisssen, dass es für YouTube nur um die klicks und der Werbung geht. Eine Seuche unserer Neuzeit.

rentex
2020-07-21, 13:22:22
Mal ehrlich: War es in den letzten Jahren eben so, das es so wenig Gerüchte zu kommenden Grafikkarten Serien gab?

Flusher
2020-07-21, 13:28:14
Mal ehrlich: War es in den letzten Jahren eben so, das es so wenig Gerüchte zu kommenden Grafikkarten Serien gab?

Die Zeiträume waren einfach kleiner. Big Navi und Ampere werden jetzt gefühlt schon seit über zwei Jahren mehr oder weniger aktiv diskutiert.

Gast
2020-07-21, 13:48:04
Was wirklich bitter ist das der Clown mit seinen wiedersprüchlichen Aussagen eine News mit gehörig Spekulatius wert ist.
Ist der Quellenpool zur Zeit so bescheiden das man hier als Beschleuniger wirkt?

JohnTwoHawks
2020-07-21, 13:55:38
Ich habe 3 Probleme mit dem Video von Moore's Law:

Gut möglich natürlich, dass ich einfach zu doof bin und zu wenig Ahnung habe.

1) Er unterstellt, dass BigNavi doppelt (bzw. leicht mehr) als die 5700XT bringt.
Ok, kann ich nicht einschätzen, aber:
Was ist mit Raytracing?
Nvidia verwendet einen ordentlichen Teil des Chips dafür.
Kommt Raytracing halt auch noch mit drauf bei AMD? Also verdoppelte Leistung UND Raytracing von 0 auf 100?
Dann müsste AMD ja quasi die Leistung verdreifachen oder so, um noch Platz für Raytracing zu haben? Das erscheint mir jetzt endgültig völlig übertrieben.

Oder bietet AMD kein Raytracing? Die wollen also GraKas für 500-1500 Euro OHNE Raytracing verkaufen?
Falls AMD sagen würde: Wir halten von Raytracing nix, das taugt nicht viel - ok.
Nur: In den Konsolen hat der AMD Chip ja Raytracing.

Egal was man selber von Raytracing jetzt hält - Marketingtechnisch erscheint es mir fast unmöglich, GraKas im Bereich 400 Euro aufwärts OHNE Raytracing zu verkaufen.



Das Thema mit dem Flächenbedarf von Raytracing könnte AMD anders gelöst haben.
Es gab vor einiger Zeit mal einen Bericht bei PCGH, dass AMD einen Hybriden Ansatz bei der Implementierung von Raytracing fahren würde.

https://www.pcgameshardware.de/Raytracing-Hardware-255905/News/AMD-patentiert-eigene-Texturprozessor-Loesung-1293305/

Ohne jetzt ein Experte auf diesem Gebiet zu sein, liest sich der Bericht so, als würde AMD bestimmte Ausführungseinheiten (Shader, TMU) etwas aufblasen um Raytracing zu berechnen. Zugegebenermaßen habe ich es nicht 100% verstanden, aber es klingt so, als würde man entweder keinen oder geringeren Anteil an fester Hardware dafür benötigen. Der Rest wäre sozusagen immer noch variabel nutzbar. Um wieviel genau der Flächenbedarf für die "zusätzlichen" Funktionen innerhalb der Shader ansteigt ist jetzt natürlich noch vollkommen offen.

Wenn man das jetzt weiter durchdenkt, würde diese Lösung bedeuten, dass jeder RDNA2 Chip Raytracing beherrscht. Eine Segmentierung wie bei Turing würde nicht ohne weiteres möglich sein.
Wie leistungsfähig diese Lösung ist, steht natürlich auf einem vollkommen anderen Blatt.

matty2580
2020-07-21, 13:56:27
Mal ehrlich: War es in den letzten Jahren eben so, das es so wenig Gerüchte zu kommenden Grafikkarten Serien gab?
Gerüchte gab es auch zu Turing recht früh, aber sie stimmten alle nicht.

Z.B. würde ständig behauptet, dass Turing nur ein Shrink von Pascal sein wird, und keine Tensor Cores haben wird, und es nur wenige Architekturveränderungen zu Pascal geben wird. Jetzt wissen wir ja nun, dass Turing in 12nm produziert wird, was auch nur ein verbesserter 16nm Prozess ist, und es seit Maxwell die größten Veränderungen in der Architektur gab, was ich selbst damals immer geschrieben/vermutet hatte.

Und aktuell ist die Gerüchtelage so dünn, obwohl die neuen GPUs angeblich bald kommen sollen, dass man ehrlich geschrieben Null Infos hat.

Früher war das anders. Da gab es öfter Leaks, teilweise so gar von Nvidia und AMD selbst, um den Verkauf der Konkurrenz zu stören.
Aktuell hat man eher den Eindruck daß es gar nicht mehr um direkte Konkurrenz geht, Nvidia und AMD sich aufeinander anpassen, besonders auch preislich, und beide eine Null-Infopolitik fahren.

RitterRost
2020-07-21, 14:08:41
AMD wird ordentlich getrollt, um sie aus der Deckung zu locken.

Ich denke auch, dass AMD diese Performance nicht erreichen kann.
(also nicht mit einem Schritt, nach der NAVI10 Performance).
Wenn Konsolenspiele auf den PC kommen und AMDs "andere" Art Raytracing zu berechnen bevorzugen, kann AMD da womöglich auch mehr fps als Nvidia schaffen. Aber allgemein - ich denke nicht.

Nicht der eine Gast
2020-07-21, 14:28:29
Ich glaube auch nicht, dass Big Navi gleich schnell zur nächsten Geforce 3080 Ti wird. Nicht weil die Hardware schlechter ist, sondern weil Nvidia die Software und die Berichterstattung besser unter Kontrolle hat.
Auch wenn AMD sich nun immer mehr Intel und Nvidia annähert, wird es immer Unterschiede geben. Alleine schon durch unterschiedliche Zielsetzungen, Erfahrungen, bestehende Technik und Lösungsstrategien.
Wenn ich mir die Techpresse und diverse Forennutzer durchlese, dann werde ich das Gefühl nicht los, dass nach deren Meinung nur eine Lösung die richtige sein kann. Und diese wird inm den meisten Fällen von dem Marktführen und den max. Einstellungen der Spiele vorgegeben. Demnach ist auch andere Zielsetzungen ganz schlecht. Früher war zwar nicht allles besser, aber gefühlt hat es mehr Auswahl gegeben.

Surrogat
2020-07-21, 14:31:53
.... Nvidia und AMD sich aufeinander anpassen, besonders auch preislich, und beide eine Null-Infopolitik fahren.

da der Käufer kaum einen Preisaufschlag für weniger Leistung akzeptieren wird, bedingt eine preisliche Anpassung auch gleichzeitig eine Leistungsanpassung....

rentex
2020-07-21, 14:32:29
Gerüchte gab es auch zu Turing recht früh, aber sie stimmten alle nicht.

Z.B. würde ständig behauptet, dass Turing nur ein Shrink von Pascal sein wird, und keine Tensor Cores haben wird, und es nur wenige Architekturveränderungen zu Pascal geben wird. Jetzt wissen wir ja nun, dass Turing in 12nm produziert wird, was auch nur ein verbesserter 16nm Prozess ist, und es seit Maxwell die größten Veränderungen in der Architektur gab, was ich selbst damals immer geschrieben/vermutet hatte.

Und aktuell ist die Gerüchtelage so dünn, obwohl die neuen GPUs angeblich bald kommen sollen, dass man ehrlich geschrieben Null Infos hat.

Früher war das anders. Da gab es öfter Leaks, teilweise so gar von Nvidia und AMD selbst, um den Verkauf der Konkurrenz zu stören.
Aktuell hat man eher den Eindruck daß es gar nicht mehr um direkte Konkurrenz geht, Nvidia und AMD sich aufeinander anpassen, besonders auch preislich, und beide eine Null-Infopolitik fahren.

Den Eindruck könnte man wirklich haben.

x-force
2020-07-21, 14:46:08
looks fake to me... wann hat nvidia zuletzt das powertarget offen gelassen, so daß aussagen darüber möglich sind? ;)

Leonidas
2020-07-21, 14:46:40
Ist der Quellenpool zur Zeit so bescheiden


Ja. In Zeiten geschlossener Leak-Quellen ist das genau so.




Gerüchte gab es auch zu Turing recht früh, aber sie stimmten alle nicht.


Und ausgerechnet ein "blöder" YouTuber hatte dann den korrekten Leak ...

Digidi
2020-07-21, 15:09:42
@Leonidas
Laut dem eigtentlichen Leaker ist der Beitrag zu AMD fake:
https://twitter.com/kopite7kimi/status/1283411611462496256

Bei Nvidia wird von 7 Rasterengins ja laut Leaks ausgegangen, das ist eine Rasterstufe mehr. Da wären 40% schon eine Menge an Architektur und Taktsteigerung.

Gast
2020-07-21, 15:25:47
1) Also verdoppelte Leistung UND Raytracing von 0 auf 100?
Dann müsste AMD ja quasi die Leistung verdreifachen oder so, um noch Platz für Raytracing zu haben? Das erscheint mir jetzt endgültig völlig übertrieben.

3) Seine These mit dem Refresh auf 7nm.
Ein Refresh ist eine "Kleinigkeit" mit ein bisschen höherer Takt.
Von einem Fertigungsprozess auf einen anderen zu wechseln ist aber keine Kleinigkeit sondern ein gehöriger Aufwand
Sorry, das ist doch kein Refresh, wie stellt er sich das vor?
Zu 1) Wieso muss AMD die Leistung verdreifachen? Die RT Leistung hat doch nichts mit der rasterizing Leistung zu tun. AMD hatte eine Effizienzsteigerung von RDNA1 auf RDNA2 von +50% angepeilt. Dazu dann noch die TBP hoch, dann könnte man schon in den spekulierten Bereichen liegen. Wie schnell das RT ist, weiß man ja nicht. Ich vermute allerdings auch stark, dass AMD nicht an NV heran kommen wird (vielleicht an die 3080, aber nicht an die TI).
Zu 3) gab's früher doch auch häufiger, nicht selten auch bei Refresh Chips. Ist in letzter Zeit nur selten, da man in der Fertigung nicht mehr die Sprünge macht. Aber würde ich jetzt nicht ausschließen.

zockerX
2020-07-21, 15:32:30
Warum schenkt man diesen YouTube Leuten so viel Beachtung? Ich kann mich da auch registrieren mit den Namen Nvidia Insider und einfach mal fantasieren und diese Fantasien dann als Insider Wissen verkaufen. Ist doch quatsch hoch zehn. Mittlerweile sollte man wisssen, dass es für YouTube nur um die klicks und der Werbung geht. Eine Seuche unserer Neuzeit.
Sehe ich auch so. Diese Typen können das auch nur durchziehen, weil sie andauernd "News" bekommen und in Foren erwähnt werden. Würde man sie ignorieren, wären die ganz schnell wieder weg. Das geht auch ein wenig an deine Adresse @Leonidas. :wink: Wobei es sich bei dir in Grenzen hält. Andere wie Gamestar nehmen jeden Unsinn mit und verbreiten ihn.

Gast_16
2020-07-21, 15:45:48
Beeindruckend, wie AMD die Leaks gestopft hat. Ansonsten: Her mit den Spekulatius, die schmecken auch im Sommer...

Was ich nicht glaube, ist der Start von Big Navi erst mit den Konsolen. Bisher klang es nach: Vor den Konsolen.

Ansonsten machen mir "Spinnereien" nach wie vor Spaß.

Lehdro
2020-07-21, 16:18:23
Sehe ich auch so. Diese Typen können das auch nur durchziehen, weil sie andauernd "News" bekommen und in Foren erwähnt werden. Würde man sie ignorieren, wären die ganz schnell wieder weg.
Ich glaube du überschätzt da ein bisschen die Profitabilität eines YT Leakers. Die Klickzahlen sind lächerlich gering, bei MLID zum Beispiel im Schnitt weit unterhalb 50k pro Video, das ist gar nix.
Die meisten werden das also eher als Hobby und aus Spaß an der Freude machen, oder es mit anderenn Sache verknüpfen, so wie jede andere Techseite auch: Reviews, Merch und Patreon & co.
Nur von YT alleine lebt da keiner!

Charlie scheint da schon einer der Wenigen zu sein, die da wirklich Profit draus ziehen können, allerdings ist sein Geschäftsmodell komplett anders, ebenso wie sein "Kundenkreis".

Wenn wir also anfangen die YT Leaker zu ignorieren, nur weil sie auf YT Videos posten, so wird hier in Zukunft noch weniger los sein, da sich dieser Content immer mehr Richtung Youtube verlagert. Da fallen dann auch alle Leaks weg die in der Vergangenheit erstaunlich korrekt waren und bei anderen "Leakern" kategorisch als Quatsch abgetan wurden (bestes Beispiel: Radeon VII). Das schließt man dann einfach pauschal alles aus, auch den geliebten Igor, ist ja schließlich YT. Und wie wir wissen: YT = Schlecht!
Zudem auch wieder geil: YT Leakern wird immer wieder pauschal unterstellt gar keine eigenen Quellen zu haben und nur immer alles wiederzukauen was es woanders schon gab. Bei anderen Quellen hingegen wird nicht einmal der Verdacht der Unseriösität unterstellt, weil ist halt nicht YT. :freak:
Die Youtuber kann man wenigstens knallhart an ihren alten Videos messen, wohingegen ein Tweet schnell gelöscht ist und quasi unauffindbar ist. Die Videos speichert garantiert immer irgendwer und sei es nur um dem YTer im Nachhinein eins "auszuwischen".

Und zu guter letzt: Je mehr Quellen und Leaker wir haben, desto besser ist unsere Fähigkeit diese Leaks einzuordnen und zu werten, da gewinnen also alle dran.

WedgeAntilles
2020-07-21, 16:33:32
Beeindruckend, wie AMD die Leaks gestopft hat. Ansonsten: Her mit den Spekulatius, die schmecken auch im Sommer...

Was ich nicht glaube, ist der Start von Big Navi erst mit den Konsolen. Bisher klang es nach: Vor den Konsolen.

Ansonsten machen mir "Spinnereien" nach wie vor Spaß.

Naja, ob es "beeindruckend" ist, dass AMD die Leaks gestopft hat weiß ich nicht.
Kommt drauf an, wann man von AMD etwas hört.

Wenn Nvidia im September mit Ampere startet und man hört von AMD nichts, ist das ein ziemlich schlechtes Zeichen.
Denn es kann ja nicht das Ziel von AMD sein, dass sich die Enthusiasten alle schon ne 3080 oder 3080TI kaufen.

Wenn das eigene Produkt später kommt, sollte man als Hersteller tunlichst dafür sorgen, dass man im Gespräch ist.
Und die Käufer mit dem Kauf warten, bis das eigene Produkt auf dem Markt ist.
Das kann man mit offiziellen Verlautbarungen machen - oder halt mit Leaks.
Denn wenn sich jemand ne 3080 gekauft hat, ist er als potentieller Käufer für BigNavi verloren.

Allerdings ist bis dahin ja auch noch etwas Zeit, und ich vermute in 4-6 Wochen gibt es weit mehr Gerüchte und Leaks als aktuell.

Gast_16
2020-07-21, 16:54:30
Wenn wir also anfangen die YT Leaker zu ignorieren, nur weil sie auf YT Videos posten, so wird hier in Zukunft noch weniger los sein, da sich dieser Content immer mehr Richtung Youtube verlagert. Da fallen dann auch alle Leaks weg die in der Vergangenheit erstaunlich korrekt waren und bei anderen "Leakern" kategorisch als Quatsch abgetan wurden (bestes Beispiel: Radeon VII). Das schließt man dann einfach pauschal alles aus, auch den geliebten Igor, ist ja schließlich YT. Und wie wir wissen: YT = Schlecht!
Zudem auch wieder geil: YT Leakern wird immer wieder pauschal unterstellt gar keine eigenen Quellen zu haben und nur immer alles wiederzukauen was es woanders schon gab. Bei anderen Quellen hingegen wird nicht einmal der Verdacht der Unseriösität unterstellt, weil ist halt nicht YT. :freak:
Die Youtuber kann man wenigstens knallhart an ihren alten Videos messen, wohingegen ein Tweet schnell gelöscht ist und quasi unauffindbar ist. Die Videos speichert garantiert immer irgendwer und sei es nur um dem YTer im Nachhinein eins "auszuwischen".

Und zu guter letzt: Je mehr Quellen und Leaker wir haben, desto besser ist unsere Fähigkeit diese Leaks einzuordnen und zu werten, da gewinnen also alle dran.

Die Trennung von Medium und Inhalt fällt vielen schwer. "Das hast Du bestimmt von YT"... Ja, aber war ein längerer Vortrag von (sagen wir mal) Harald Lesch.

Freuen wir uns über die bunten Schlaglichter; einiges wird stimmen, vieles nicht. Die nüchterne Realität kommt früh genug.

@X-Wing-Pilot (*g*): So bleibt bei AMD der Nimbus des Geheimnisvollen. Man hat aus "overclocker's dream" gelernt. Besser Understatement und dann hoffentlich den ... rausholen. Wie man Impulskäufern vorbeugen will: Keine Ahnung. Aber schauen wir mal. Die Marketingabteilung kann mittlerweile mit Emotionen spielen, wie ich bei Lisas letzten Auftritten feststellen konnte. Nette Videos als Einspieler.

Gast
2020-07-21, 17:29:54
Videospeicher via SSD. Geht's noch bekloppter?
Bei den Konsolen ist das schon grenzwertig, aber wenn im PC das VRAM nicht reicht oder gar wegen iGPU ausschließlich der Hauptspeicher zur Verfügung steht, geht die Performance drastisch in die Knie.

Bevor jetzt wer "SSG" schreit: Völlig anderes Anwendungsgebiet.

Die Betrachtung GA102 vs BigNavi läßt Raytracing außer Acht. Wobei interessantw werden wird, was die Konsolen nutzen werden und ob es AMD am PC zum Vorteil gereieht. Wie groß die Relevanz von PhysX noch ist, mag ich nicht beurteilen. Desweiteren hat sich nVidia bei G-Sync gegenüber FreeSync geöffnet, umgekehrt jedoch nicht.

Ich habe kein Problem mit weiter ausuferndem Spitzenverbrauch. Wie andere das jenseits des Gemeckers der 'Fachpresse' sehen, kann ich nicht beurteilen.

Leonidas
2020-07-21, 17:49:15
@Leonidas
Laut dem eigtentlichen Leaker ist der Beitrag zu AMD fake:
https://twitter.com/kopite7kimi/status/1283411611462496256


... und MLID schreibt klar, das es inzwischen 2 Quellen für 72 CU gibt.

Nebenbei funktioniert der Original-Leak nur wegen der 128 ROPs nicht - und nur deswegen hat KK das (wahrscheinlich) als "Fake" abgekanzelt, weil es eben technisch unmöglich ist. Aber es ist eben oftmals so, das bei Vorab-Angaben ein Detail nicht stimmt. AdoredTV hatte die AmpereTuring-Serie auch tlw. mit 5 GB Speicher genannt. Passte nicht, der Rest der Angaben war aber ein Volltreffer.

Will sagen: Ich muss solche Möglichkeiten einkalkulieren, das Detailangaben inkorrekt sind. Die Chance, das trotz eines fehlerhaften Details das Gesamtwert passt, ist erwiesenermaßen da. Der Detailfehler erhöht die Chance auf ingesamte Korrektheit natürlich nicht (sondern senkt selbige Chance).




Das geht auch ein wenig an deine Adresse @Leonidas. :wink:


Ich nehme es als konstruktive Kritik entgegen. Zuletzt waren es wohl zu viele derart "Leaks", daher fällt das verstärkt auf. Leider läßt sich das nicht steuern, das so was nur ab und zu kommt. Ab und zu mal ein wenig Spekulation schadet nicht, nur das Intervall war zuletzt zu hoch.





Zudem auch wieder geil: YT Leakern wird immer wieder pauschal unterstellt gar keine eigenen Quellen zu haben und nur immer alles wiederzukauen was es woanders schon gab. Bei anderen Quellen hingegen wird nicht einmal der Verdacht der Unseriösität unterstellt, weil ist halt nicht YT. :freak:


Vollkommen richtig! Ich bin überhaupt kein YT-Fan, aber aus professioneller Sicht darf ich mich zumindest der Quelle nicht verwehren.

5CH4CHT3L
2020-07-21, 17:51:27
AMD-Leaks sind meist totales Wunschdenken und Nvidia-Leaks eher konservativ. Wenn man sich die Hardware-Daten anschaut (z.B. 84 vs. 72 Shadercluster bei ähnlichem Takt, nvidia leicht mehr Leistung pro Cluster) kommt man auf die im Bericht schon berechneten +17% für nvidia
Dann kommt auf beiden Seiten ein +X% für IPC. Nvidia hat DLSS als Bonus.
Raytracing hat nvidia auch mehr Erfahrung. Keiner weiß, wie gut das von AMD ist. Also wird das von nvidia wahrscheinlich auch besser sein.

Gast
2020-07-21, 18:32:17
Unser Hardware Leben wäre doch langweilig ohne solche Spekulationen, alle paar Jahre kommt ein neues Modell, dann wird ordentlich getestet und dann wäre wieder ein paar Jahre Stille? Ne, dann lieber einigermassen begründete YT News.

Desweiteren hat sich nVidia bei G-Sync gegenüber FreeSync geöffnet, umgekehrt jedoch nicht.
Wozu auch? FS ist schließlich offen und nicht proprietär.

zockerX
2020-07-21, 20:24:28
Ich nehme es als konstruktive Kritik entgegen. Zuletzt waren es wohl zu viele derart "Leaks", daher fällt das verstärkt auf. Leider läßt sich das nicht steuern, das so was nur ab und zu kommt. Ab und zu mal ein wenig Spekulation schadet nicht, nur das Intervall war zuletzt zu hoch.
Das war wie gesagt nur teilweise an dich gerichtet.
Aber ja, du hast vollkommen Recht, es waren zuletzt zu viele "Leaks". Erschwerend kam hinzu, dass sich andauernd was geändert hat (siehe z.B. VRAM-Größen oder Modellnamen). Das hat im Gesamtpaket einen faden Beigeschmack hinterlassen. Zudem kommt man auf anderen Seiten fast nicht um diese "Leaks" herum.

Ich glaube du überschätzt da ein bisschen die Profitabilität eines YT Leakers. Die Klickzahlen sind lächerlich gering, bei MLID zum Beispiel im Schnitt weit unterhalb 50k pro Video, das ist gar nix.
Die meisten werden das also eher als Hobby und aus Spaß an der Freude machen, oder es mit anderenn Sache verknüpfen, so wie jede andere Techseite auch: Reviews, Merch und Patreon & co.
Nur von YT alleine lebt da keiner!
Das kann durchaus sein und ich hätte da sogar eine Erklärung. Ich schaue mir die nie an, lese aber andauernd (etwas unfreiwillig) über sie. Dadurch kann es natürlich passieren, dass man die mediale Präsenz falsch deutet.

Wenn wir also anfangen die YT Leaker zu ignorieren, nur weil sie auf YT Videos posten, so wird hier in Zukunft noch weniger los sein, da sich dieser Content immer mehr Richtung Youtube verlagert. Da fallen dann auch alle Leaks weg die in der Vergangenheit erstaunlich korrekt waren und bei anderen "Leakern" kategorisch als Quatsch abgetan wurden (bestes Beispiel: Radeon VII). Das schließt man dann einfach pauschal alles aus, auch den geliebten Igor, ist ja schließlich YT. Und wie wir wissen: YT = Schlecht!
Zudem auch wieder geil: YT Leakern wird immer wieder pauschal unterstellt gar keine eigenen Quellen zu haben und nur immer alles wiederzukauen was es woanders schon gab. Bei anderen Quellen hingegen wird nicht einmal der Verdacht der Unseriösität unterstellt, weil ist halt nicht YT. :freak:
Die Youtuber kann man wenigstens knallhart an ihren alten Videos messen, wohingegen ein Tweet schnell gelöscht ist und quasi unauffindbar ist. Die Videos speichert garantiert immer irgendwer und sei es nur um dem YTer im Nachhinein eins "auszuwischen".
Wenn weniger los ist, ist das für meinen Geschmack nicht automatisch schlecht. Letztendlich wird derzeit viel diskutiert, was sich später als blanker Unsinn herausstellen wird. Muss es zwangsläufig bei den unterschiedlichen Angaben bei "Leaks".
Momentan ist das Problem doch, dass man bei fast keinem "Leak" vernünftig einschätzen kann, ob was dran ist. Sicher würden in Zukunft viele korrekte Leaks entfallen, aber was bringen die dir, wenn du die nicht rausfischen kannst?
Gerade was AMD-GPUs angeht wurde in der Vergangenheit mit jeder Generation spekuliert, dass das nun der ganz große Wurf werden wird. Fiji und Vega waren traurige Höhepunkte dessen.
Ob allen YTern pauschal Dinge unterstellt werden, kann ich nicht beurteilen. Fakt dürfte jedoch sein, dass viele - wenn nicht gar die große Mehrheit - viel labern ohne eine seriöse Quelle zu haben (egal ob eigene oder fremde). Und da liegt dann das Problem. Das Ganze kannst du selbstverständlich auf viele Webseiten ummünzen. Allerdings würde ich behaupetn einen YT-Kanal kann man einfacher betreiben als eine Webseite. Entsprechend mehr "Scharlatane" treiben sich dort rum. Zumindest gefühlt.

Und zu guter letzt: Je mehr Quellen und Leaker wir haben, desto besser ist unsere Fähigkeit diese Leaks einzuordnen und zu werten, da gewinnen also alle dran.
Finde ich nicht. Oder pickst du dir das raus, was dir am besten gefällt? Die Einordnung fällt durch eine große Spannweite nicht leichter. Denn eins ist klar, es kann zwar logische und vorhersehbare Entwicklungen geben, Überraschungen jedoch genauso.

Gast_16
2020-07-21, 21:55:00
@zockerx: Was ist schlimm daran, mit Möglichkeiten zu leben und manchen eine höhere, anderen wieder eine geringere Wahrscheinlichkeit einzuräumen?

Wir wissen ja auch nicht, ob eine der beiden Seiten kurz vor Schluß noch auf die Effizienz pfeift, um doch noch möglichst vorne zu liegen.

Lehdro
2020-07-21, 22:41:09
Allerdings würde ich behaupetn einen YT-Kanal kann man einfacher betreiben als eine Webseite. Entsprechend mehr "Scharlatane" treiben sich dort rum. Zumindest gefühlt.
Ja, gefühlt, richtig. Da ist dein Problem:

Ich erklärs mal so:
Twitter Leaker = komplett anonym möglich
Foren Leaker = relativ anonym möglich
Youtube Leaker = Gesicht + Name bekannt
Website = Name bekannt

Nun zu den üblichen Leakern:
Wir haben zwei sehr aktive Twitter Leaker (rogame & kopite7kimi), von denen einer sogar extra eine Website gemacht hat um seine Leaks besser auszuführen.
Wir haben ein asiatisches Forum (Chiphell) wo ab und zu Leaks herkommen, da wissen wir fast nix über die Hintergründe und Personen.
Wir haben mindestens 4 große Youtube Leaker, von denen wir die Namen wissen und alle habe eine eigene Website (Igor, Adored, RedGamingTech, Moores Law is dead).

Und da willst du mir jetzt erklären dass dir gerade die YTler am suspektesten sind? Die sind doch als erste dran wenn sie mal ordentlich daneben liegen, dann ist quasi gleich ihr "Brand" verbrannt, um diesen Wortwitz mal zu bringen.

Finde ich nicht. Oder pickst du dir das raus, was dir am besten gefällt? Die Einordnung fällt durch eine große Spannweite nicht leichter. Denn eins ist klar, es kann zwar logische und vorhersehbare Entwicklungen geben, Überraschungen jedoch genauso.
Du musst das auf Zeitspannen beziehen, mit der Zeit siebst du alles aus was "zu oft" daneben lag - die Leaker bekommen quasi jedes mal im Nachhinein eine Wertung von dir. Mit der Zeit weißt du dann wer oft richtig lag - so wie das Leonidas öfter mal in einem Nebensatz mit verpackt: "xy lag schon öfter richtig". Anders macht das ja auch wirklich keinerlei Sinn. Ist aber auch nicht so, dass jetzt ständig neue Leaker auftauchen würden. Alle Genannten sind schon mindestens ein paar Jahre dabei.

cat
2020-07-21, 22:43:06
Das NVCache stört mich persönlich auch, das bedeutet seit Jahren in diversen Bereichen nix anderes als non-volatile Cache bzw. irgendeine Cachingmethode.
siehe: https://www.storage-insider.de/nvidia-zeigt-mellanox-connectx-6-lx-a-940548/

Und zu sagen Nvidia hätte einen Vorteil davon sowas wie HBCC AMD-style zu nutzen, halte ich für unsinnig weil Nvidia das dann schon lange gemerkt hätte und man seit Jahren eine eher zugunsten Nvidias ausfallende VRAM-Verwaltung und PCIe-Slot Bandbreitennutzung findet.
AMD musste bis Vega sogar ewig den L2-Cache flushen weil vorher nur nicht-koherenter Pixel- und Texturspeicher genutzt wurde, das macht nvidia seit Jahren nichtmehr, sondern spätestens seit Maxwell wird der L2-aggressiv als für (GPU-verhältnisse) Langszeitcache genutzt.

Da die ganze Struktur um die L0(früherL1) für AMDs RT-Umsetzung noch geheim ist, sind auch Prognosen eigendlich völlig deplaziert weil es (im Rahmen) trotzdem stark anders zu Nvidia sein kann.

Gast_32
2020-07-22, 00:56:02
Leos Artikel letzter Absatz:
Gerüchten zufolge soll AMD mit TSMC 7nm eine bessere Fertigung verwenden als NV mit Samsung 8nm, was sich üblicherweise positiv auf Transistorbudget (IPC) und Taktrate auswirkt. Insofern sehe ich das nicht unbedingt als "Sollbruchstelle".

Gast
2020-07-22, 02:11:19
Wozu auch? FS ist schließlich offen und nicht proprietär.Wenn es danach ginge und alle so denken würden, könnte nur AMD verkaufen. Auf Grund der Marktmacht kann Nvidia einiges durchdrücken. So schön es auch wäre, wenn Nvidia sich eher an offenen Standards halten würde, statt an jeder Stelle abzocken zu wollen - es ist halt nicht so.

Keine Ahnung, ob es für Gamer relevant ist, aber ich hatte Pro Nvidia CUDA vergessen.

Leonidas
2020-07-22, 03:44:14
Leos Artikel letzter Absatz:
Gerüchten zufolge soll AMD mit TSMC 7nm eine bessere Fertigung verwenden als NV mit Samsung 8nm, was sich üblicherweise positiv auf Transistorbudget (IPC) und Taktrate auswirkt. Insofern sehe ich das nicht unbedingt als "Sollbruchstelle".


Das wäre zumindest eine technische Erklärung für bessere Taktraten. Ist überlegenswert.

Gast
2020-07-22, 06:20:01
Zu 1) Wieso muss AMD die Leistung verdreifachen? Die RT Leistung hat doch nichts mit der rasterizing Leistung zu tun. ...


Genau das ist ja der Schwachsinn der durch die Foren fegt , schau dir mal die Frameanalysen von Metro Exodus und Co an, dort es gibt nicht den einenRT Bottelneckt den man lösen könnte in dem Man die RT Einheiten aufblässt wie sonst was.

Wenn man X fache Leistung mit RT haben will kann man nicht nur einzelne Teile des Chips Aufblasen , alle Abhängigkeiten müssen hier skalieren.

Gast
2020-07-22, 07:34:37
Gerade was AMD-GPUs angeht wurde in der Vergangenheit mit jeder Generation spekuliert, dass das nun der ganz große Wurf werden wird. Fiji und Vega waren traurige Höhepunkte dessen.
Was genau war denn an Fiji so übermäßig schlecht, dass es als "trauriger Höhepunkt" gelten kann? Wenn ich mir meine Nano anschaue, die ich noch immer verwende, verstehe ich die Aussage nicht wirklich. Für meine Anforderungen ist die noch immer ausreichend und ich kann damit noch locker bis nach dem Launch der RTX3k bzw. Navi 2x warten.
Bei Vega gehe ich mit, wobei Vega eigentlich auch keine Gamer GPU war (war ein mauer Kompromiss aus GPGPU und Gaming Lösung, die Trennung jetzt war eine logische und nötige Konsequenz), aber bei Fiji war das Problem nicht die GPU, sondern das sinnlose Prügeln der Fury-X Richtung 980TI. Ich hoffe, dass sie bei Navi 2x nicht auch auf diese blöde Idee kommen (Richtung RTX3080TI prügeln), denn dann wird die Karte kein Erfolg werden.

X-Bow
2020-07-22, 09:28:40
Das wäre zumindest eine technische Erklärung für bessere Taktraten. Ist überlegenswert.

Wir sehen doch anhand von der Vega 8 GPU im 4700G das AMD mittlerweile durchaus weiß wie man eine GPU zum takten bringt. Auch sprechen die Next-Gen Konsolen GPUs auch dafür das wir bei den Navi 2x durchaus Taktraten über 2Ghz erwarten dürfen.

WedgeAntilles
2020-07-22, 10:01:20
Genau das ist ja der Schwachsinn der durch die Foren fegt , schau dir mal die Frameanalysen von Metro Exodus und Co an, dort es gibt nicht den einenRT Bottelneckt den man lösen könnte in dem Man die RT Einheiten aufblässt wie sonst was.

Wenn man X fache Leistung mit RT haben will kann man nicht nur einzelne Teile des Chips Aufblasen , alle Abhängigkeiten müssen hier skalieren.

Ich habe hier unterstellt, dass AMD für Raytracing genauso wie Nvidia Chipfläche benötigt. Nvidia "verbraucht" für RT einen ordentlichen Prozentsatz der Chipfläche.

Die 5700XT hat aktuell kein Raytracing.
Wenn BigNavi seine Performance im Gegensatz zu 5700XT verdoppelt UND gleichzeitig noch Raytracing anbietet - wie soll das gehen?
Der Chip kann ja nicht unendlich groß werden.
RT verbraucht Chipfläche. (Jedenfalls in der Art, wie es Nvidia macht. Eventuell löst AMD das komplett anders, hat ja einer hier im Thread angesprochen.)

Wenn ich jetzt aber bei meinem neuen Design Chipfläche für RT "verbrauche" und meine Rohleistung, die von RT unabhängig ist, trotzdem verdoppeln will, muss der Rest des Chips ja überproportional dazu besser werden. Da ich den Verlust an Fläche der mir durch RT entsteht ja ebenfalls ausgleichen muss.

Wenn mein neuer Chip an sich doppelt so schnell ist wie der Vorgänger habe ich 1*2 = 2 fache Leistung. Falls ich aber plötzlich 1/4 der Chipfläche für etwas verwende was ich bisher nicht hatte (Raytracing) dann ist meine Rohleistung unterm Strich nämlich nur noch 1*2*3/4 = 1,5
Also nur noch 50% schneller.
Weil eben 1/4 der Chipfläche wegfällt und nicht mehr für "normale" Leistung zur Verfügung steht.
Wenn ich bei obigem Beispiel bleibe muss ich für eine Verdoppelung der "normalen" Leistung des neuen Chips, die Leistung um 167% steigern um den Verlust von 1/4 der Chipfläche zu kompensieren.
1*2,67*3/4 = 2.

Klar, falls AMD eine Raytracing-Lösung hat, die die Chipfläche nicht beeinträchtigt und die keine "Rohleistung" kostet wie bei Nvidia sieht es anders aus. Ob das aber auch nur ansatzweise realistisch ist?


Bevor man also andere Postings als "Schwachsinn" bezeichnet, wäre es sinnvoll sich mal für 30 Sekunden Gedanken zu machen.
Zumal der Rest deines Postings exakt 0 mit dem von mir aufgeworfenen Problem, dass zusätzlich zu der verdoppelten Performance ja noch ein Raytracing dazu kommen muss. Ein RT, das es bisher gar nicht gibt.

matty2580
2020-07-22, 10:46:18
Nein, die Chipfläche (Diesize) die Nvidia für Raytracing aktuell bei Turing verbraucht, liegt unter 8%.
Der Grund warum Nvidia noch einmal deutlich das Preisgefüge nach Oben gezogen hat, war also gelogen.....
Leo hat das selbst hier noch einmal ausgewertet.
Hast du die News nicht gelesen?
Die RT-Cores machen noch nicht einmal 20% der Shader aus, und die Shader selbst machen noch nicht einmal 50% des Diesize aus....

Gast
2020-07-22, 11:03:38
Ich habe hier unterstellt, dass AMD für Raytracing genauso wie Nvidia Chipfläche benötigt. Nvidia "verbraucht" für RT einen ordentlichen Prozentsatz der Chipfläche.


"Pascal setzt wie auch Kepler auf separate ALUs für eine doppelte Genauigkeit. Exakt halb so viele FP64-Einheiten wie FP32-ALUs gibt es pro Streaming Multiprocessor. " laut CB bericht zu Nvidia GP 100.

NV und AMD haben einfach komplett andere Ansätze. Während AMD mit GCN damals zwei Fliegen mit einer Arch zerquetschen wollte, eben Compute und Gaming, hat NV ihre Architektur in jene Richtung entwickelt, dass man quasi eine Basis hat und zusätzliche Funktionen, eben wie FP64, Tensor und zuletzt RT durch eigene "Units" erweitert. So ist es NV möglich für unterschiedliche Märkte und Bedarf ihre Chips anzupassen, was wiederum "Chipfläche" kostet. Aber wer weiß, vllt gibt es in Zukunft dann sowieso Multi Chip Lösungen und Tensor Cores, RT werden eigene Chips.
Aktuell sieht man den Unterschied zwischen GTX und RTX. Man kann eben diese Units weglassen.

AMD hingegen versucht immer Synergien im bestehenden System zu finden. Bei deren RT Lösung sollen eben Units, die bereits im GPU Design existieren ebenso ein Teil der Berechnungen machen können, was bei NV die RT Cores machen. Kurz, die TexturUnit, die jede CU hat, bekommt etwas Logik dazu um gewisse Berechnungen "fix function" Funktionen (Ray Intersection Engine, laut MS bekannt) machen zu können, wofür die Shader selbst zu lahm sind. Weiteres hat man den Vorteil, dass man den Speicherpool direkt in der CU verwenden kann. Bei NV Ansatz benötigt man nämlich für die RT Cores einen (Speicher)Puffer. Soweit ich das gelesen habe.

Nachteil, mehr Komplexität im Design. Am Ende auch das Verhängnis von GCN. Viel zu komplex für Gaming, was AMD ja am Ende mit RDNA wieder bereinigt und eben Compute (CDNA) und Gaming (RDNA) aufspaltet.

Also ich bin kein Experte ! aber RT muss bei AMD nicht unbedingt wesentlich mehr Fläche bedeuten. Das aber eben auf Kosten von "möglicherweise" Performance im Vergleich. Was man aber dann mit gewonnen Fläche wieder durch mehr CUs wegmachen könnte. Welcher Ansatz "besser" ist, wird sich zeigen.

Am Ende muss eben die Software zeigen, ob es ein Nachteil ist. Denn MS letztes API Update ermöglicht ja quasi eine Stufung von RT. Ähnlich wie Tesselation, welches nicht unbedingt auf Anschlag berechnet werden muss sondern ebenso Abstufungen geben wird.
Besonders diese Möglichkeit spielt ja den Entwickler bei der Konsole zu.

Aber zuerst mal abwarten bis die Hardware und kommende Software (Spiele), die RT nützen, da sind.

Gast
2020-07-22, 11:33:45
Wenn mein neuer Chip an sich doppelt so schnell ist wie der Vorgänger habe ich 1*2 = 2 fache Leistung. Falls ich aber plötzlich 1/4 der Chipfläche für etwas verwende was ich bisher nicht hatte (Raytracing) dann ist meine Rohleistung unterm Strich nämlich nur noch 1*2*3/4 = 1,5
Also nur noch 50% schneller.
Weil eben 1/4 der Chipfläche wegfällt und nicht mehr für "normale" Leistung zur Verfügung steht.
Wenn ich bei obigem Beispiel bleibe muss ich für eine Verdoppelung der "normalen" Leistung des neuen Chips, die Leistung um 167% steigern um den Verlust von 1/4 der Chipfläche zu kompensieren.
1*2,67*3/4 = 2.

Komische rechnung, die du da machst. Warum gehst du davon aus, dass die Fläche wegfällt? Der Chip könnte doch auch einfach größer werden ;)

Dass man auch noch am Takt/IPC spielen kann um die Leistung zu erhöhen und nicht einfach nur in die Breite gehen muss, mal ignoriert.

BlacKi
2020-07-22, 11:34:33
Was genau war denn an Fiji so übermäßig schlecht, dass es als "trauriger Höhepunkt" gelten kann? Wenn ich mir meine Nano anschaue, die ich noch immer verwende, verstehe ich die Aussage nicht wirklich. Für meine Anforderungen ist die noch immer ausreichend und ich kann damit noch locker bis nach dem Launch der RTX3k bzw. Navi 2x warten.
Bei Vega gehe ich mit, wobei Vega eigentlich auch keine Gamer GPU war (war ein mauer Kompromiss aus GPGPU und Gaming Lösung, die Trennung jetzt war eine logische und nötige Konsequenz), aber bei Fiji war das Problem nicht die GPU, sondern das sinnlose Prügeln der Fury-X Richtung 980TI. Ich hoffe, dass sie bei Navi 2x nicht auch auf diese blöde Idee kommen (Richtung RTX3080TI prügeln), denn dann wird die Karte kein Erfolg werden.
bei fiji lag es hauptsächlich am speicher, aber das wusste jeder käufer, und wenn man am texturenregler dreht, dann könnte man damit heute noch spielen. bei vega war aber der gute wein die verarschungsnummer nummer 1. er reift noch beim kunden usw. jetzt schau dir die performance, zwischen 5700(xt) und vega, in deasth stranding an.
ich glaub nichtmal dass das am chip liegt, ich glaub das liegt am mangelhaften treiber, denn keins der spiele zuvor lief so schlecht auf vega. und das ist der catch zwischen dem reift beim kunden wie ein guter wein und der realität. death stranding ist wohl nur einer der kommenden titel der vega begraben wird, incl. hbcc. with no use.

matty2580
2020-07-22, 11:47:19
Bei Computerbase hat man Vega nach einem Jahr getestet, und kam zu dem Schluss dass bei Vega gar nichts gereift ist, anders als bei Polaris oder den Gens davor. Auch bei PCGH kam man zu einen ähnlichen Ergebnis.

Aber das Fine Wine Prinzip ist sowieso problematisch, da bei Nvidia schon am Anfang einer Gen die Treiber hoch optimiert sind.
Wer will den jahrelang warten bis der Treiber endlich richtig läuft?

Zergra
2020-07-22, 13:42:45
Ich habe vorher 10 Jahre nur AMD Karten verwendet und habe mich an die Treiber Probleme gewöhnt gehabt. Vega war da schon ein Negativ Beispiel. Ständig Treiber Resets. Jetzt seit 18 Monaten eine TitanX im PC und die macht keine Probleme, kein Ärger mit den Treiber nix.

Früher habe ich das nie Geglaubt das der Nvidia Treiber besser ist.
Gibt es mittlerweile eine AMD alternative zu dem NVSlimmer ? Bei AMD wird ja mittlerweile der ganze kram automatisch installiert, ein Grauß.

Lehdro
2020-07-22, 13:49:31
Wer will den jahrelang warten bis der Treiber endlich richtig läuft?
Du siehst das aber auch nur aus der negativen Sichtweise. Mal rein hypothetisches Beispiel: Wenn AMD und NV vergleichbar schnelle Grafikkarten zum ähnlichen Preis anbieten und man bei AMD mit der Zeit vom "Fine Wine" ausgeht, warum sollte man dann zu NV greifen, wenn sie doch jetzt schon on par sind? Beste Beispiele: GTX 1060/RX 480, GTX 680/HD 7970, R9 2/390/GTX 970.

Sofern ich plane die Karte 2+ Jahre zu behalten, ergibt AMD dann abzüglich gewisser anderer Unterschiede (Treiberqualität!) eventuell tatsächlich deutlich mehr Sinn.

Gast
2020-07-22, 13:56:30
Ich habe hier unterstellt, dass AMD für Raytracing genauso wie Nvidia Chipfläche benötigt. Nvidia "verbraucht" für RT einen ordentlichen Prozentsatz der Chipfläche.

Die 5700XT hat aktuell kein Raytracing.
Wenn BigNavi seine Performance im Gegensatz zu 5700XT verdoppelt UND gleichzeitig noch Raytracing anbietet - wie soll das gehen?
Der Chip kann ja nicht unendlich groß werden.
RT verbraucht Chipfläche. (Jedenfalls in der Art, wie es Nvidia macht. Eventuell löst AMD das komplett anders, hat ja einer hier im Thread angesprochen.)

Wenn ich jetzt aber bei meinem neuen Design Chipfläche für RT "verbrauche" und meine Rohleistung, die von RT unabhängig ist, trotzdem verdoppeln will, muss der Rest des Chips ja überproportional dazu besser werden. Da ich den Verlust an Fläche der mir durch RT entsteht ja ebenfalls ausgleichen muss.

Wenn mein neuer Chip an sich doppelt so schnell ist wie der Vorgänger habe ich 1*2 = 2 fache Leistung. Falls ich aber plötzlich 1/4 der Chipfläche für etwas verwende was ich bisher nicht hatte (Raytracing) dann ist meine Rohleistung unterm Strich nämlich nur noch 1*2*3/4 = 1,5
Also nur noch 50% schneller.
Weil eben 1/4 der Chipfläche wegfällt und nicht mehr für "normale" Leistung zur Verfügung steht.
Wenn ich bei obigem Beispiel bleibe muss ich für eine Verdoppelung der "normalen" Leistung des neuen Chips, die Leistung um 167% steigern um den Verlust von 1/4 der Chipfläche zu kompensieren.
1*2,67*3/4 = 2.

Klar, falls AMD eine Raytracing-Lösung hat, die die Chipfläche nicht beeinträchtigt und die keine "Rohleistung" kostet wie bei Nvidia sieht es anders aus. Ob das aber auch nur ansatzweise realistisch ist?


Bevor man also andere Postings als "Schwachsinn" bezeichnet, wäre es sinnvoll sich mal für 30 Sekunden Gedanken zu machen.
Zumal der Rest deines Postings exakt 0 mit dem von mir aufgeworfenen Problem, dass zusätzlich zu der verdoppelten Performance ja noch ein Raytracing dazu kommen muss. Ein RT, das es bisher gar nicht gibt.

Problem beim Textverständiss oder beim Zitieren verrutscht anders kann ich mir keinen Reim auf deine Ausführungen machen???
Falls ich zu blond bin bitte die Version für 3 Jährige das ichs checke.

Dino-Fossil
2020-07-22, 13:59:52
Meine letzte nVidia-GPU war ne Thermi ( GTX 460), das war ne gute Karte, aber ich hatte mit der mehr Treiberprobleme als seit dem Wechsel auf AMD (erst 7850, aktuell RX480).
Pauschale Aussagen "Hersteller x hat bessere/schlechtere Treiber" halte ich für problematisch.

Gast
2020-07-22, 14:03:47
Ich habe hier unterstellt, dass AMD für Raytracing genauso wie Nvidia Chipfläche benötigt. Nvidia "verbraucht" für RT einen ordentlichen Prozentsatz der Chipfläche.

Raytracing braucht in Turing maximal 10% der Chipfläche, nicht vernachlässigbar, aber jetzt auch nicht eine Größe mit der man andere Chipteile bedeutend verkleinern müsste um Platz für Raytracing zu machen.

Gast
2020-07-22, 14:05:39
Die 40 % Rasterleistung Angabe soll als Durchschnitt verstanden werden?
Unter der 4K Uhd Auflösung, wenn raytracing (die Hardware dafür) im Spiel nicht benutzt wird?

Eine rtx 3080 ti bei ~ 2 GHz Gpu-Takt verbrät dann ganze 320 W (+ 20 % Stromaufnahme gegenüber rtx 2080 ti) und liefert 40 % mehr Rasterleistung?
Oder gelten die 320 W für übliche Raster + raytracing Berechnungen kombiniert?

Das ist doch ein ziemlich mickriger Aufschlag, für eine neue Generation von Grafikkarten und neuer Fertigung.
Dlss 2/3 muss ja dann ab Ampere als Standard Eigenschaft in jedem neuen Spiel eingeschaltet werden.

Gast
2020-07-22, 14:07:58
Wenn AMD und NV vergleichbar schnelle Grafikkarten zum ähnlichen Preis anbieten und man bei AMD mit der Zeit vom "Fine Wine" ausgeht, warum sollte man dann zu NV greifen, wenn sie doch jetzt schon on par sind?

Weil "Fine Wine" immer ein gamble ist, kann aufgehen oder auch nicht, da nehme ich lieber Performance die ich garantiert am ersten Tag habe.

Außerdem kaufe ich nicht eine Karte für 2 Jahre in der Zukunft, in 2 Jahren wird es hoffentlich was besseres und schnelleres geben, und die Karte ausgetauscht.

y33H@
2020-07-22, 14:09:10
Bei den meisten sind es ja Einzelfälle, man muss schon sehr oft sehr viele unterschiedliche Grafikkarten und Treiber nutzen, um eine halbwegs konkrete Aussage treffen zu können. Als Hardware-Tester seit über einem Jahrzehnt kann ich sagen, dass es bei AMD früher teils übel war, seit GCN hat sich das aber weitestgehend gelegt.

MiamiNice
2020-07-22, 14:17:13
Meine letzte nVidia-GPU war ne Thermi ( GTX 460), das war ne gute Karte, aber ich hatte mit der mehr Treiberprobleme als seit dem Wechsel auf AMD (erst 7850, aktuell RX480).
Pauschale Aussagen "Hersteller x hat bessere/schlechtere Treiber" halte ich für problematisch.

Das gab es aber schon den ein oder anderen Test der das belegt hat, gerade in Bezug auf neue Spiele und bei welchem Hersteller es ootb besser läuft.

zockerX
2020-07-22, 14:47:17
Youtube Leaker = Gesicht + Name bekannt
Bringt nur etwas, wenn es ein echter Leak ist, der auch wertvolle Infos beinhaltet und nichts nachgeplappertes oder belangloses.

Du musst das auf Zeitspannen beziehen, mit der Zeit siebst du alles aus was "zu oft" daneben lag - die Leaker bekommen quasi jedes mal im Nachhinein eine Wertung von dir. Mit der Zeit weißt du dann wer oft richtig lag - so wie das Leonidas öfter mal in einem Nebensatz mit verpackt: "xy lag schon öfter richtig". Anders macht das ja auch wirklich keinerlei Sinn. Ist aber auch nicht so, dass jetzt ständig neue Leaker auftauchen würden. Alle Genannten sind schon mindestens ein paar Jahre dabei.
Und genau hier ist das Problem: du musst dich über Jahre hinweg intensiv damit beschäftigen und gleichzeitig den Überblick behalten. Genau darauf habe ich überhaupt keinen Bock. Wie du sagst, weist Leo freundlicherweise gelegentlich darauf hin.

Was genau war denn an Fiji so übermäßig schlecht, dass es als "trauriger Höhepunkt" gelten kann? Wenn ich mir meine Nano anschaue, die ich noch immer verwende, verstehe ich die Aussage nicht wirklich. Für meine Anforderungen ist die noch immer ausreichend und ich kann damit noch locker bis nach dem Launch der RTX3k bzw. Navi 2x warten.
Die Limitierung auf 4GB durch HBM1, während die 980Ti 6Gb hatte. Dazu der hohe Verbrauch trotz HBM. Treibertechnisch wurden die Karten auch schnell fallen gelassen. Für 700€ war mehr zu erwarten.

Du siehst das aber auch nur aus der negativen Sichtweise. Mal rein hypothetisches Beispiel: Wenn AMD und NV vergleichbar schnelle Grafikkarten zum ähnlichen Preis anbieten und man bei AMD mit der Zeit vom "Fine Wine" ausgeht, warum sollte man dann zu NV greifen, wenn sie doch jetzt schon on par sind? Beste Beispiele: GTX 1060/RX 480, GTX 680/HD 7970, R9 2/390/GTX 970.
Vielleicht weil du von Tag 1 an durchweg solide Leistung bekommst und nicht bangen musst, dass Spiel X nicht rund läuft, weil es Schwankungen gibt. Und vielleicht weil du keine Blackscreens bekommst oder dich um UV und ggf. Lüfterkurve selbst kümmern solltest.

Meine letzte nVidia-GPU war ne Thermi ( GTX 460), das war ne gute Karte, aber ich hatte mit der mehr Treiberprobleme als seit dem Wechsel auf AMD (erst 7850, aktuell RX480).
Und ich hatte auch mal nen Thermi. Auch ne gute Karte. Besonders weil es keine Treiberprobleme gab.

WedgeAntilles
2020-07-22, 14:52:07
Raytracing braucht in Turing maximal 10% der Chipfläche, nicht vernachlässigbar, aber jetzt auch nicht eine Größe mit der man andere Chipteile bedeutend verkleinern müsste um Platz für Raytracing zu machen.

Danke für den Hinweis. Dann relativiert sich da natürlich einiges.

Lehdro
2020-07-22, 15:18:33
Vielleicht weil du von Tag 1 an durchweg solide Leistung bekommst und nicht bangen musst, dass Spiel X nicht rund läuft, weil es Schwankungen gibt. Und vielleicht weil du keine Blackscreens bekommst oder dich um UV und ggf. Lüfterkurve selbst kümmern solltest.
Sorry aber die Argumente kannst du für beide Seiten bringen. AMD bietet doch auch UV und Lüfterkurven mit Wattman (https://www.amd.com/de/support/kb/faq/dh-020), auch NV hat Treiberprobleme (https://www.google.com/search?q=nvidia+driver+black+screen&rlz=1C1CHBF_deDE766DE766&ei=pjkYX6_4KYPasAeJ-Kr4BA&start=10&sa=N&ved=2ahUKEwiv476t9uDqAhUDLewKHQm8Ck8Q8NMDegQIDhBB&biw=1920&bih=1089) und ja auch NV hat nicht immer 100% Leistung direkt in jedem Spiel (Paradebeispiel Forza (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Treiber-Test-1339912/), das dauerte auch Monate).

Von daher finde ich das pauschale Fingerzeigen auf AMD von deiner Seite ziemlich peinlich, NV hat dort definitiv keine weiße Weste, sie ist vielleicht nur etwas heller als die von AMD. Kein Grund so zu tun, als wäre bei NV immer alles tutti Paletti.

Gast
2020-07-22, 17:11:34
Sorry aber die Argumente kannst du für beide Seiten bringen. AMD bietet doch auch UV und Lüfterkurven mit Wattman (https://www.amd.com/de/support/kb/faq/dh-020), auch NV hat Treiberprobleme (https://www.google.com/search?q=nvidia+driver+black+screen&rlz=1C1CHBF_deDE766DE766&ei=pjkYX6_4KYPasAeJ-Kr4BA&start=10&sa=N&ved=2ahUKEwiv476t9uDqAhUDLewKHQm8Ck8Q8NMDegQIDhBB&biw=1920&bih=1089) und ja auch NV hat nicht immer 100% Leistung direkt in jedem Spiel (Paradebeispiel Forza (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Treiber-Test-1339912/), das dauerte auch Monate).

Von daher finde ich das pauschale Fingerzeigen auf AMD von deiner Seite ziemlich peinlich, NV hat dort definitiv keine weiße Weste, sie ist vielleicht nur etwas heller als die von AMD. Kein Grund so zu tun, als wäre bei NV immer alles tutti Paletti.

Hattest du in letzter Zeit mal ne 5700er von AMD ?
Hattest du Probleme ? Wenn nein freu dich, bei mir war es das Grauen, nachdem HD7950, RX480 stabil liefen, 5700XT --> 3. verschiede Modelle inhalb von 6 Monaten durch (Red Devil, EVOKE und Gaming X ) über all der selbe Mist:
- Freezes ,
- Schwarzebildschirme,
- unerklärliche Resets,
- Lüfterbug, vergessen von Einstellungen

Dabei hab ich echt alles versucht ,hab die Karten auch leihweise zu nem Kumpel in ein anderes System gegeben der sonst ne Vega 56 ohne Probleme fährt, der hat vergelichbares Theater gehabt.
Was soll ich sagen hab vor 2 Wochen letzendlich ne RTX2070 im Abverkauf geholt und die läuft ohne murren genauso wie die testweise geliehen Vega 56 vom Kumpel.

Navi hat definitv häufig auftretende Treiber/Firmware Probleme da kannst du Gegenbeispiele geben wie du willst wers einmal durch hat ist geheilt und setzt bei der nächsten gen sehr lange aus ausserdem spricht sich sowas im Freundeskreis schnell rum.

zockerX
2020-07-22, 17:11:43
AMD bietet doch auch UV und Lüfterkurven mit Wattman (https://www.amd.com/de/support/kb/faq/dh-020)
Hab ich das bestritten? Es geht darum, dass man bei AMD-Karten im Normalfall tätig werden sollte, weil die Werkseinstellungen viel zu konservativ sind. Nicht jeder hat Bock darauf.

auch NV hat Treiberprobleme (https://www.google.com/search?q=nvidia+driver+black+screen&rlz=1C1CHBF_deDE766DE766&ei=pjkYX6_4KYPasAeJ-Kr4BA&start=10&sa=N&ved=2ahUKEwiv476t9uDqAhUDLewKHQm8Ck8Q8NMDegQIDhBB&biw=1920&bih=1089)
Dort auch ein Dauerproblem oder Einzelfälle?

und ja auch NV hat nicht immer 100% Leistung direkt in jedem Spiel (Paradebeispiel Forza (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-Treiber-Test-1339912/), das dauerte auch Monate).
Wie oft kommt das vor und sind die Spiele bis dahin schlecht spielbar?

Von daher finde ich das pauschale Fingerzeigen auf AMD von deiner Seite ziemlich peinlich, NV hat dort definitiv keine weiße Weste, sie ist vielleicht nur etwas heller als die von AMD. Kein Grund so zu tun, als wäre bei NV immer alles tutti Paletti.
Peinlich sind die ewigen Relativierungen. Das Gesamtpaket hat bei AMD nun einmal deutlich mehr schwarze Flecken als bei Nvidia. Wen diese Flecken nicht stören, kein Problem. Es soll aber tatsächlich Leute geben, denen gehen solche Bananenprodukte auf den Sack und wählen daher lieber gleich das Paket bei dem die Zufriedenheitswahrscheinlichkeit höher ist. Andere ärgern sich offensichtlich lieber rum und sind froh, dass pünktlich wenn sie ihren Wein wieder verkaufen, er endlich gereift ist. :freak:

Gast
2020-07-22, 19:22:56
Die Limitierung auf 4GB durch HBM1, während die 980Ti 6Gb hatte. Dazu der hohe Verbrauch trotz HBM. Treibertechnisch wurden die Karten auch schnell fallen gelassen. Für 700€ war mehr zu erwarten.
Aha. Das Problem daran: Die Nano (von der ich geschrieben hatte) verbraucht viel weniger als die 980TI (grob so viel wie eine 980). Die Nano war dazu ab Dezember 2015 grob 100€ günstiger als eine 980 (ohne TI), und die hatte auch nur 4GB VRam. Kann man alles noch auch Geizhals.de nachvollziehen. Also wo genau war das jetzt ein trauriger Höhepunkt?

Gast
2020-07-22, 23:18:56
Nvidia hat die schlimmsten Treiber. Es sei denn, man ist Geheimagent und braucht die eingebaute Selbstzerstörungsfunktion. (https://www.youtube.com/watch?v=dE-YM_3YBm0&t=6m40s)

zockerX
2020-07-23, 00:19:18
Aha. Das Problem daran: Die Nano (von der ich geschrieben hatte) verbraucht viel weniger als die 980TI (grob so viel wie eine 980). Die Nano war dazu ab Dezember 2015 grob 100€ günstiger als eine 980 (ohne TI), und die hatte auch nur 4GB VRam. Kann man alles noch auch Geizhals.de nachvollziehen. Also wo genau war das jetzt ein trauriger Höhepunkt?
Das Problem daran: die Nano ist auch nur so schnell wie 980 und verbraucht dabei noch einen Tick mehr. Der Tick mehr ist kein Problem, mit OC aber säuft die Nano wie eine Fury. Außerdem kam die Nano ein Jahr nach der 980 raus. Beim Preis weiß ich nicht welches Modell 100€ günstiger gewesen sein soll. Ohne absolute Zahlen macht dieser Punkt auch keinen Sinn zu diskutieren.

Screemer
2020-07-23, 03:40:02
ich bin ja jetzt nicht wirklich häufig dabei nvidia zur seite zu springen aber der gastpost von oben ist blödsinn. hab nun 10 minuten preise von >10 980 (teils massive oc versionen) und von 5 nanos im dez. 15 verglichen und 980 bekam man in nem preisbereich von 500-600€. gute customs lagen bei 550€ und es gab karten wie die g1 gaming oder super jetstream schon für 520€. im gegensatz dazu hat quasi jede nano bis kurz vor weihnachten ~560-600€ gekostet. der "preissturz" kam erst im januar und da zogen quasi alle nvidia karten mit.

bsp.: https://geizhals.de/xfx-radeon-r9-nano-r9-nano-4sf6-a1323262.html
https://geizhals.de/sapphire-radeon-r9-nano-21249-00-40g-a1316134.html
https://geizhals.de/vtx3d-radeon-r9-nano-vxr9-nano-4gbhbm-dh-a1323272.html

https://geizhals.de/msi-geforce-gtx-980-gaming-4g-v317-008r-a1167948.html
https://geizhals.de/evga-geforce-gtx-980-acx-2-0-04g-p4-2981-kr-a1172302.html
https://geizhals.de/gigabyte-geforce-gtx-980-g1-gaming-gv-n980g1-gaming-4gd-a1168440.html
https://geizhals.de/palit-geforce-gtx-980-super-jetstream-ne5x980h14g2j-a1184579.html

Gast
2020-07-23, 07:57:58
Das Problem daran: die Nano ist auch nur so schnell wie 980 und verbraucht dabei noch einen Tick mehr. Der Tick mehr ist kein Problem, mit OC aber säuft die Nano wie eine Fury. Außerdem kam die Nano ein Jahr nach der 980 raus. Beim Preis weiß ich nicht welches Modell 100€ günstiger gewesen sein soll. Ohne absolute Zahlen macht dieser Punkt auch keinen Sinn zu diskutieren.
Laut Computerbase ist sie etwas schneller als eine 980 OC und verbraucht weniger als diese:
https://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/8/
Bezüglich den Preisen hatte ich an Geizhals verwiesen, über die Preisentwicklung kann man da noch eine 980 (https://geizhals.de/zotac-geforce-gtx-980-amp-extreme-zt-90203-10p-a1167985.html?hloc=at&hloc=de) und zwei Nano (https://geizhals.de/sapphire-radeon-r9-nano-21249-00-40g-a1316134.html?hloc=at&hloc=de) anschauen. Ab Dezember 2015 war die Nano bis zum EOL unter 600€, was auf die 980 nicht zutrifft.
Es geht mir hier auch nicht darum, welche Karte besser war oder warum. Aber Fiji als traurigen Höhepunkt hinzustellen trifft eben nicht zu. Das trifft vielleicht auf die Fury-X zu, aber nicht weil Fiji so schlecht war, sondern weil man Fiji weit über seine Möglichkeiten prügeln wollte. Die GPU selber war aber eigentlich nicht schlecht und schon gar kein trauriger Höhepunkt. Im Vergleich zur (früher verfügbaren) GTX980 war man eigentlich auf einem Level was Gaming-Leistung, Verbrauch und auch Speicherplatz angeht (Compute Leistung lasse ich mal außen vor, da war Fiji klar schneller, weil die 980 nicht darauf ausgelegt war). Bei Vega verstehe ich, wenn man von einem traurigen Höhepunkt redet, aber bei Fiji passt das meiner Meinung nach nicht. Und genau das wollte ich ausdrücken.

Gast
2020-07-23, 09:14:12
Hattest du in letzter Zeit mal ne 5700er von AMD ?
Hattest du Probleme ? Wenn nein freu dich, bei mir war es das Grauen, nachdem HD7950, RX480 stabil liefen, 5700XT --> 3. verschiede Modelle inhalb von 6 Monaten durch (Red Devil, EVOKE und Gaming X ) über all der selbe Mist:
- Freezes ,
- Schwarzebildschirme,
- unerklärliche Resets,
- Lüfterbug, vergessen von Einstellungen

Klingt genau wie die Probleme welche ich damals mit meiner GTX1060 hatte. Hatte dann einem Kumpel leihweise meine 32GB Kingston Ramriegel geliehen und dafür sein Ram (8GB) bekommen und plötzlich waren die Probleme weg.
Die Probleme kamen zurück mit dem Kingston Ram und verschwanden wieder als ich die GTX 1060 durch eine Vega64 ersetzt hab. So, und nun erkläre mal den Zusammenhang. Hat etwa AMD Wundertreiber welche auch schlechten Ram wettmachen? Oder hat NV so schlechte Treiber das auch der Ram einfluss darauf nimmt? Oder sind manche "Treiberprobleme" in Wahrheit gar keine?

Gast
2020-07-23, 10:39:21
Klingt genau wie die Probleme welche ich damals mit meiner GTX1060 hatte. Hatte dann einem Kumpel leihweise meine 32GB Kingston Ramriegel geliehen und dafür sein Ram (8GB) bekommen und plötzlich waren die Probleme weg.
Die Probleme kamen zurück mit dem Kingston Ram und verschwanden wieder als ich die GTX 1060 durch eine Vega64 ersetzt hab. So, und nun erkläre mal den Zusammenhang. Hat etwa AMD Wundertreiber welche auch schlechten Ram wettmachen? Oder hat NV so schlechte Treiber das auch der Ram einfluss darauf nimmt? Oder sind manche "Treiberprobleme" in Wahrheit gar keine?

Wenn man das Problem mit der GPU zu einem anderen Rechner mit komplett unterschiedlicher Konfiguration (MB,RAM,CPU,NT ) transportieren kann und auf dem Eigenem sowohl mit einer V56,RX480,RTX2070 und Uhr alten HD7950 keinerlei Probleme hat kann es nur die GPU&Treiber Konstellation sein.

Gast
2020-07-23, 11:08:39
Laut Computerbase ist sie etwas schneller als eine 980 OC und verbraucht weniger als diese:
https://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/8/
Bezüglich den Preisen hatte ich an Geizhals verwiesen, über die Preisentwicklung kann man da noch eine 980 (https://geizhals.de/zotac-geforce-gtx-980-amp-extreme-zt-90203-10p-a1167985.html?hloc=at&hloc=de) und zwei Nano (https://geizhals.de/sapphire-radeon-r9-nano-21249-00-40g-a1316134.html?hloc=at&hloc=de) anschauen. Ab Dezember 2015 war die Nano bis zum EOL unter 600€, was auf die 980 nicht zutrifft.
Es geht mir hier auch nicht darum, welche Karte besser war oder warum. Aber Fiji als traurigen Höhepunkt hinzustellen trifft eben nicht zu. Das trifft vielleicht auf die Fury-X zu, aber nicht weil Fiji so schlecht war, sondern weil man Fiji weit über seine Möglichkeiten prügeln wollte. Die GPU selber war aber eigentlich nicht schlecht und schon gar kein trauriger Höhepunkt. Im Vergleich zur (früher verfügbaren) GTX980 war man eigentlich auf einem Level was Gaming-Leistung, Verbrauch und auch Speicherplatz angeht (Compute Leistung lasse ich mal außen vor, da war Fiji klar schneller, weil die 980 nicht darauf ausgelegt war). Bei Vega verstehe ich, wenn man von einem traurigen Höhepunkt redet, aber bei Fiji passt das meiner Meinung nach nicht. Und genau das wollte ich ausdrücken.

Erinner dich mal zurück welchen Status die Treiber bei AMD damals hatten , richtig ganz dickels CPU bottleneck in den Meisten DX Titeln, den ellen langen Thread mit Tonnen an Ergebnissen gibts im Luxx im übrigen immer noch .
Wenn man da nicht den dicksten i5/i7 @ OC hatte wars essig mit Fury.
Von der Mangelnden Tess Leistung und der zeitnahen verfügbarkeit der 980Ti die teils für 650 über die Theke ging ganz zu schweigen.

MasterElwood
2020-07-23, 12:07:32
"Tensor Memory Compression (20-40% VRAM-Ersparnis mittels VRAM-Kompression durch Tensor-Kerne)"

Als ICH sowas vor ein paar Wochen hier in den Raum gestellt habe (als Möglichkeit - nicht als Leak) - hat es noch geheissen so etwas geht nicht... :wink:

Leonidas
2020-07-23, 12:57:15
@MasterElwood

Link zum früheren Beitrag? Eventuell hat es MLID exakt hier abgeschrieben ...

eccle
2020-07-23, 13:29:15
Wir haben mindestens 4 große Youtube Leaker, von denen wir die Namen wissen und alle habe eine eigene Website (Igor, Adored, RedGamingTech, Moores Law is dead).

Und da willst du mir jetzt erklären dass dir gerade die YTler am suspektesten sind? Die sind doch als erste dran wenn sie mal ordentlich daneben liegen, dann ist quasi gleich ihr "Brand" verbrannt, um diesen Wortwitz mal zu bringen.

Schau dir doch mal die Moore's Law is dead von letztem Jahr an und was seine "Quellen" im gesagt haben. Würden seine Zuschauer über ein intaktes Gedächtnis verfügen, hättest du recht. Gerade deswegen ist Medienerziehung in Schulen so wichtig, damit Kinder lernen selbstständig eine Quelle als glaubwürdig oder nicht zitierfähig einzuordnen.

Wer Adored, RedGamingTech, Moores Law is dead zitiert, würde auch aus der "Neuen Post" das erfundene "Ehe-Aus von Charles und Camilla" abschreiben.

Lehdro
2020-07-23, 15:40:51
Schau dir doch mal die Moore's Law is dead von letztem Jahr an und was seine "Quellen" im gesagt haben. Würden seine Zuschauer über ein intaktes Gedächtnis verfügen, hättest du recht.
Du hast da nicht zufällig eine kleine Aufstellung der Sachen? Nicht das es nachher wieder heißt "der hat das so gesagt" und im Video kommt dann davor die Aussage "big grain of salt". Die teilen uns ja auch teilweise Leaks mit die sie selber für unplausibel halten oder halt einfach als Projektion ihrer Erwartungen haben, da ist dann die Semantik entscheidend. Von daher sind dann konkrete Beispiele hilfreich und eben keine pauschalen Urteile.

Wer Adored, RedGamingTech, Moores Law is dead zitiert, würde auch aus der "Neuen Post" das erfundene "Ehe-Aus von Charles und Camilla" abschreiben.
Hallo @ Leonidas :freak:

zockerX
2020-07-23, 16:11:28
Laut Computerbase ist sie etwas schneller als eine 980 OC und verbraucht weniger als diese:
https://www.computerbase.de/2015-09/amd-radeon-r9-nano-test/8/

Keine Ahnung wo das stehen soll, in dem Test jedenfalls nicht. Die 980 OC ist durchgehend schneller in den Gesamtratings. Nur übertaktet ist sie schneller, was gleichzeitig bedeutet, dass der Verbrauch durch die Decke geht (+72W ggü 980 OC).


Bezüglich den Preisen hatte ich an Geizhals verwiesen, über die Preisentwicklung kann man da noch eine 980 (https://geizhals.de/zotac-geforce-gtx-980-amp-extreme-zt-90203-10p-a1167985.html?hloc=at&hloc=de) und zwei Nano (https://geizhals.de/sapphire-radeon-r9-nano-21249-00-40g-a1316134.html?hloc=at&hloc=de) anschauen. Ab Dezember 2015 war die Nano bis zum EOL unter 600€, was auf die 980 nicht zutrifft.
Wenn du dir die teuerste Karte zum teuersten Zeitpunkt rauspickst, dann musst du dich nicht wundern. Die 980 gab es zumindest ab Sommer 2015 durchgehend unter 500€. Beispiel ist diese hier:
https://geizhals.de/kfa2-geforce-gtx-980-98nqh6dhc8xx-a1189818.html

Aber was soll ich mit einem Gast darüber diskutieren...

Gast
2020-07-23, 17:54:25
"Tensor Memory Compression (20-40% VRAM-Ersparnis mittels VRAM-Kompression durch Tensor-Kerne)"



Als ICH sowas vor ein paar Wochen hier in den Raum gestellt habe (als Möglichkeit - nicht als Leak) - hat es noch geheissen so etwas geht nicht... :wink:


Hört sich auch extrem unwahrscheinlich an.
Was soll man da großartig komprimieren? Texturen werden schon (verlustbehaftet) komprimiert, da sollte kaum noch Redundanz zu holen sein.

Framebuffer, Z-Buffer etc. werden auch schon von dezidierter Hardware komprimiert, da ist auch nichts zu holen.

Dann das nächste Problem, wenn man eine transparente Kompression einführen will muss diese zwangsweise verlustfrei sein. Bei verlustfreier Kompression hat man aber keine Möglichkeit im vorhinein zu wissen wie weit die Daten komprimiert werden können. Im Extremfall können diese gar nicht mehr komprimiert werden und man könnte aufgrund von Metadaten sogar bei etwas mehr Platzverbrauch landen.

Das Problem ist allerdings, dass man Speicher im VRAM in der Menge reservieren muss, als wenn die Daten nicht komprimierbar wären. Damit ist eine VRAM-Ersparnis gar nicht möglich, höchstens eine Bandbreitenersparnis. VRAM könnte man nur sparen wenn man eine bestimmte Datenreduktion garantieren kann, was bei verlustfreier Kompression nicht möglich ist.

Nächster Punkt warum, dafür die Tensor-Cores verwenden und keine dezidierte Hardware? Die Tensor-Cores sind dafür mit Sicherheit ineffizienter und sie sind teil des Shadercores und würden damit diesem Leistung klauen, sowohl vom Energiebudget als auch interne Bandbreite.

Man müsste also genau abwägen wann man überhaupt die Kompression verwendet, weil diese möglicherweise gar nicht immer Performance bringen sondern auch kosten könnte.

MasterElwood
2020-07-24, 07:53:03
@MasterElwood

Link zum früheren Beitrag? Eventuell hat es MLID exakt hier abgeschrieben ...

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12336236&postcount=3565

Wie gesagt: war REINE Spekulation vor mir ohne IRGENDEINE Info

MasterElwood
2020-07-24, 07:57:07
Nächster Punkt warum, dafür die Tensor-Cores verwenden und keine dezidierte Hardware?


Vielleicht macht genau DAS dieser mysteriöse Co-Prozessor...

da
DA
DAAAAAAAAAA :eek:

MiamiNice
2020-07-24, 08:45:55
Das sind doch Tensor Cores. Die erzeugen ein Tensor Gate und lagern die Texturen in einer anderen Dimension aus ... XD

Gast
2020-07-24, 10:24:54
Keine Ahnung wo das stehen soll, in dem Test jedenfalls nicht. Die 980 OC ist durchgehend schneller in den Gesamtratings. Nur übertaktet ist sie schneller, was gleichzeitig bedeutet, dass der Verbrauch durch die Decke geht (+72W ggü 980 OC).
Man hatte natürlich damals eine GTX980 oder Nano, um in 720p zu zocken. In der für diese Karten relevanten Auflösung von 4k ist die Nano schneller, in 2560x1440 wohl änlich schnell als eine nicht OC der 980. Das Auslastungs-Problem bei niedrigeren Auflösungen in DX11 ist allerdings auch ein generelles GCN Problem und nicht nur bei Fiji. Spätestens bei Downsampling oder hohem Multisampling ist das aber auch nicht mehr wirklich relevant.
Bezüglich dem Preis: Ich hatte nur die eine gefunden, da diese noch verfügbar ist. Die KFA ist dann doch deutlich billiger und sicher auch das bessere Angebot. Aber das ändert meiner Meinung nach nichts daran, dass man Fiji übertrieben schlechter macht, als er war.

eccle
2020-07-24, 12:31:09
Du hast da nicht zufällig eine kleine Aufstellung der Sachen? Nicht das es nachher wieder heißt "der hat das so gesagt" und im Video kommt dann davor die Aussage "big grain of salt". Die teilen uns ja auch teilweise Leaks mit die sie selber für unplausibel halten oder halt einfach als Projektion ihrer Erwartungen haben, da ist dann die Semantik entscheidend. Von daher sind dann konkrete Beispiele hilfreich und eben keine pauschalen Urteile.

Hallo @ Leonidas :freak:

topfvollgold.de macht sowas. Ich schaue mir "Moore's law is dead" oder die "Freizeit Spass" oder "die aktuelle" nicht an. Ein Disclaimer macht den Sachverhalt nicht viel besser. Dieser Rezo hat vor kurzem ein Video gemacht warum das so ist, schau es dir doch mal an ("Die Zerstörung der Presse").

Unabhängig davon sehe ich bei der Aussage "my sources say" wenige grains of salt. Entweder es ist so oder nicht.

Ich wage 'mal die Hypothese, dass es diese "Quellen" nicht gibt. Man schlussfolgert, verarbeitet einige kluge Foren-Posts, vielleicht auch einige E-Mails und die generellen Leaks.

Wie könnte man meine Hypothese überprüfen? Wahrscheinlich liegen "Quellen" häufiger falsch als richtig, insbesondere wenn der Tag an dem eine Prognose abgegeben wird etwas weiter vom Datum des Prognoseinhalts entfernt ist.

Ein Spaß für Freunde von Horoskopen, Lotterien und schwarzer Magie.

Gast
2020-07-24, 15:16:49
Vielleicht macht genau DAS dieser mysteriöse Co-Prozessor...


Ja sehr sinnvoll, wir lagern Kompression/Dekompression in einen externen Prozessor aus, weil das ja so sinnvoll ist.

Dann brauchen wir mal recht viel Bandbreite zwischen VRAM und Co-Prozessor, und noch mal viel mehr Bandbreite zwischen Co-Prozessor und der eigentlichen GPU, weil hier schieben wir ja die dekomprimierten Daten hin und her.

Wenn man etwas unbedingt extrem ineffizient machen will könnte man es so versuchen.

Lehdro
2020-07-24, 16:14:55
Ich wage 'mal die Hypothese, dass es diese "Quellen" nicht gibt.

[unbewiesene Annahme, Unterstellung]

Wusste ich es doch. Die Diskussion führt zu nichts, da du dir deiner Meinung schon sicher bist. Dass es so schwer ist für manche zwischen absolut Wahr und absolut Unwahr noch eine Grauzone einzufügen, deutet darauf hin dass du ein Bot bist. Ist jetzt auch nur meine Hypothese, rein auf deiner Booleschen Datenverarbeitung beruhend. :freak:

Wenn die Quellen alle Daten im Voraus mit 100%iger Genauigkeit (sofern die Quellen selber alle Daten haben!) leaken würden, wären sie auf jeden Fall nicht sehr lange eine Quelle. Man sieht ja jetzt schon wie dünn die Informationen im Gegensatz zu früher sind. Die stopfen immer mehr Informationslecks und die Originalquellen werden immer obskurer.

Rabiata
2020-11-15, 13:46:39
Warum schenkt man diesen YouTube Leuten so viel Beachtung? Ich kann mich da auch registrieren mit den Namen Nvidia Insider und einfach mal fantasieren und diese Fantasien dann als Insider Wissen verkaufen. Ist doch quatsch hoch zehn. Mittlerweile sollte man wisssen, dass es für YouTube nur um die klicks und der Werbung geht. Eine Seuche unserer Neuzeit.
Es sind schon meist die üblichen Verdächtigen, die da zitiert werden. Also nicht ein komplett neuer YouTuber.
Wenn sich diese bekannten Größen aber als Dummschwätzer erwiesen haben, gebe ich Dir recht. Die sollten besser ignoriert werden, Artikel über deren Gerüchte sind Platzverschwendung auf der Webseite.

Rabiata
2020-11-15, 14:21:09
Doppelpost gelöscht