Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 [73] 74 75

Hugo
2010-03-23, 20:48:40
Ein B1 vom ursprünglichen GF100 macht ja wohl auch keinen Sinn, wenn man noch einen Refresh hat. Charlies "April geht B1 in den Ofen" hat noch nie Sinn gemacht.

welcher Refresh? Meinst du den Nachfolger vom GF100?

Gast
2010-03-23, 20:48:48
Durch den Shrink wird der Chip nicht mehr 529mm^2 groß sein. Ein G80 war auf 65nm auch nur noch 324mm^2 groß bzw. wäen sie direkt auf 55nm gegangen nur 276mm^2. Und nVidia brachte keinen "Rohrputzer" vor G92 auf 65nm. Die gingen direkt G92 auf 65nm.
Deswegen werden sie mit großer Wahrscheinlichkeit einen zweiten G92 fertigen und sofort auf 28nm umsteigen.

Und das soll reichen gegen AMDs 28nm Chip? Ich glaube nicht. Im Herbst kommt wohl noch ein voller Fermi mit mehr Takt in welchem Stepping auch immer und dann Mitte 2011 zumindest etwas deutlich breiteres in 28nm IMHO.

dildo4u
2010-03-23, 20:49:18
welcher Refresh? Meinst du den Nachfolger vom GF100?
512 Shaderversion.

Coda
2010-03-23, 20:49:19
Tessellation macht den Vertex-Buffer größer und dann läuft scheint's der VRAM über.
Nein tut es nicht.

Gast
2010-03-23, 20:51:15
Die Leadtek 470 finde ich sehr schick, was aber nichts bringt.

nvidia macht kein B1, Ati kontert nicht mit einer 5890. Irgendwie erscheinen mir die beiden Hersteller etwas selbstzufrieden zu sein. :mad: ;)

Die hätten schon ne 5890 gelaunscht wenn der Fermi was taugen würde.
Bei der Heizbirne ist das nicht nötig.

LovesuckZ
2010-03-23, 20:52:49
Und das soll reichen gegen AMDs 28nm Chip?

Jo. Durch den Shrink sinkt der Stromverbrauch und man hat viel mehr Spielraum mit der Taktrate. Siehe auch G92(b).
Sollte GF100 mit Tessellation wirklich dem entsprechen was nVidia verspricht, dann muss AMD bei ihrem nächsten Chip deutliche Änderungen vornehmen. Sonst wird es ganz traurig für sie nächtes Jahr.

Hugo
2010-03-23, 20:53:16
Klingt auch logisch, ansonsten gäbe es auch kein A3 und man wäre spätestens nach A2 auf B1 gegangen.

so logisch finde ich das garnicht. Wenn A3 mit nur 480 SPs verkauft werden muß wird sicher noch ein Bx nachgeschoben um die vollen 512 SPs nutzbar zu machen.

An einen Refresh glaube ich dieses Jahr leider nicht mehr.

512 Shaderversion.

das ist für mich kein Refresh, sondern nur der volle GF100 wie er werden sollte

Für mich wäre ein Refresh, wenn er mehr SPs haben würde oder ein MADD, MUL je SP hinzugefügt werden würde um die Rechenleistung zu erhöhen

Gast
2010-03-23, 20:53:18
512 Shaderversion.


Die kommt wenn die Ausbeute hoch genug ist, dafür braucht es keinen "Refresh"

Gast
2010-03-23, 20:54:03
Die hätten schon ne 5890 gelaunscht wenn der Fermi was taugen würde.
Bei der Heizbirne ist das nicht nötig.

Was würde ihnen denn eine 5890 bringen? Die paar Chips die man von TSMC bekommt werden ihnen ohnehin aus den Händen gerissen. Vor Herbst sieht es düster aus mit höheren Stückzahlen. Quelle: AMD.

Gast
2010-03-23, 20:54:05
512 Shaderversion.

Wie wärs mit "gibts nicht"? Der Refresh ist schon zu nahe um GF100 nochmal aufzulegen, was Q1/2011 erst erscheinen würde. GF104 wird es richten und paar selektierte GF100 SP512 als Ultra auf den Markt werfen reicht für den Highend Markt.

Gast
2010-03-23, 20:55:52
Ein B1 vom ursprünglichen GF100 macht ja wohl auch keinen Sinn, wenn man noch einen Refresh hat.

Was soll so ein Refresh sein?

Noch mehr Transistoren wird man wohl kaum in 40nm unterbringen und 28nm wird noch lange nicht bereit sein.

Gast
2010-03-23, 20:55:56
Jo. Durch den Shrink sinkt der Stromverbrauch und man hat viel mehr Spielraum mit der Taktrate. Siehe auch G92(b).
Sollte GF100 mit Tessellation wirklich dem entsprechen was nVidia verspricht, dann muss AMD bei ihrem nächsten Chip deutliche Änderungen vornehmen. Sonst wird es ganz traurig für sie nächtes Jahr.

AMD wird aber sicherlich nicht nur die Geometrieleistung steigern. Das halte ich für zu optimistisch. Das konnte man sich bei G80 leisten, denn da war man meilenweit vorne. In der jetzigen Situation könnte das ganz schön nach hinten los gehen, sie haben AMD schon mal unterschätzt.

LovesuckZ
2010-03-23, 20:59:41
AMD wird aber sicherlich nicht nur die Geometrieleistung steigern. Das halte ich für zu optimistisch. Das konnte man sich bei G80 leisten, denn da war man meilenweit vorne. In der jetzigen Situation könnte das ganz schön nach hinten los gehen, sie haben AMD schon mal unterschätzt.

AMD muss erstmal die Geometrieleistung steigern. Genau das hat nVidia mit GF100 gemacht. Das ist der radikale Unterschied zwischen Cypress und GF100. DX11 wird sich durchsetzen. Tessellation wird in jeder Engine möglich sein. AMD muss an diesem Problem ansetzen. Eine 7th nicht konkurrenzfähige Tessellationunit wird in einer Katastrophe enden.

Don-Roland
2010-03-23, 20:59:53
Wird GF104 das "B-Stepping" oder ein total neuer Chip und als "A-Irgendwas" launchen?

LovesuckZ
2010-03-23, 21:01:20
Wird GF104 das "B-Stepping" oder ein total neuer Chip und als "A-Irgendwas" launchen?

GF104 ist ein "neues" Design. Daher wird der Chip beim ersten Silizium Tape-Out eine Ax Bezeichnung erhalten.

AnarchX
2010-03-23, 21:01:21
Wird GF104 das "B-Stepping" oder ein total neuer Chip und als "A-Irgendwas" launchen?
GF104 ist natürlich ein neuer Chip und sollte es als eigentlich als A2 in die Massenproduktion schaffen.

Hugo
2010-03-23, 21:02:30
Wird GF104 das "B-Stepping" oder ein total neuer Chip und als "A-Irgendwas" launchen?

man munkelt, dass GF104 ein halber GF100 werden wird

Wie wärs mit "gibts nicht"? Der Refresh ist schon zu nahe um GF100 nochmal aufzulegen, was Q1/2011 erst erscheinen würde. GF104 wird es richten und paar selektierte GF100 SP512 als Ultra auf den Markt werfen reicht für den Highend Markt.

GF104 wird mit Sicherheit nix im HighEnd richten ;) aber er könnte im Performance Segment schön mitmischen

Gast
2010-03-23, 21:02:35
Unigine 1 VS 2 NV s gezeigter bench getürkt.
http://translate.google.com/translate?hl=en&sl=ar&tl=en&u=http%3A%2F%2Fwww.arabhardware.net%2Fforum%2Fshowthread.php%3Ft%3D164761

LovesuckZ
2010-03-23, 21:02:45
GF104 ist natürlich ein neuer Chip und sollte es als eigentlich als A2 in die Massenproduktion schaffen.

G94 ging mit A1 in Produktion. ;)
Eventuell sind die Tools so gut, dass nVidia auf A1 als Produktionssilizium geht.

AnarchX
2010-03-23, 21:05:16
Unigine 1 VS 2 NV s gezeigter bench getürkt.
http://translate.google.com/translate?hl=en&sl=ar&tl=en&u=http%3A%2F%2Fwww.arabhardware.net%2Fforum%2Fshowthread.php%3Ft%3D164761
NV hat beide Karten mit 1.1 verglichen, die 480@2.0 und die 5870@1.0 zu testen, kann man sich nicht mal für eine Marketingfolie leisten.

G94 ging mit A1 in Produktion. ;)
Eventuell sind die Tools so gut, dass nVidia auf A1 als Produktionssilizium geht.
Bei G94 waren es aber auch 240mm² und 65nm. Und dann gab es ja auch noch das G96-Desaster, der es bis C1 schaffte.
Mit A2 wäre man wohl bei >330mm² gut dabei.

dildo4u
2010-03-23, 21:05:26
Unigine 1 VS 2 NV s gezeigter bench getürkt.
http://translate.google.com/translate?hl=en&sl=ar&tl=en&u=http%3A%2F%2Fwww.arabhardware.net%2Fforum%2Fshowthread.php%3Ft%3D164761
Nix getürkt in dem Video von NV wurde mit Version 1.1 gebencht das Pic unten ist von der 2.0 Version.

Gast
2010-03-23, 21:06:44
Die hätten schon ne 5890 gelaunscht wenn der Fermi was taugen würde.
Bei der Heizbirne ist das nicht nötig.

Würd mich nicht wundern, wenn die am 26.03. ne 5890 zeitgleich Launchen, aber das ist wohl nur Träumerei. Das wäre ein wenig zu viel Theater um ungebackene Brötchen.

AMD muss erstmal die Geometrieleistung steigern. Genau das hat nVidia mit GF100 gemacht. Das ist der radikale Unterschied zwischen Cypress und GF100. DX11 wird sich durchsetzen. Tessellation wird in jeder Engine möglich sein. AMD muss an diesem Problem ansetzen. Eine 7th nicht konkurrenzfähige Tessellationunit wird in einer Katastrophe enden.

Erstmal muß der GF100 beweisen, das er in DX11 bzw. Tesselation so Uber ist, wie du schon seit gefühlten 500 Seiten behauptest.
Wenn sich dann zum Release der RV870 als 'Unbrauchbar' für extreme Tesselation Anforderungen erweist, können wir uns darüber unterhalten, worauf man beim kaufn Sinnvoll seinen Fokus setzt, oder ob dies überhaupt nötig sein wird.

Don-Roland
2010-03-23, 21:06:56
GF104 ist ein "neues" Design. Daher wird der Chip beim ersten Silizium Tape-Out eine Ax Bezeichnung erhalten.
GF104 ist natürlich ein neuer Chip und sollte es als eigentlich als A2 in die Massenproduktion schaffen.
man munkelt, dass GF104 ein halber GF100 werden wird



GF104 wird mit Sicherheit nix im HighEnd richten ;) aber er könnte im Performance Segment schön mitmischen

Danke für eure zahlreichen und prompten Antworten.
Dann könnte man eigentlich wieder mal die Gunst der Stunde nutzen und heftig umlabeln ;D

LovesuckZ
2010-03-23, 21:08:30
Bei G94 waren es aber auch 240mm² und 65nm. Und dann gab es ja auch noch das G96-Desaster, der es bis C1 schaffte.
Mit A2 wäre man wohl bei >330mm² gut dabei.

Der Unterschied zwischen 320mm^2 und 240mm^2 ist jetzt nicht wirklich so groß.
Dazu kommt, dass jeder 55nm Shrink mit B1 auf den Markt kam. Imo ist sich nVidia bewusst, dass sie schon ohne Respin auf den Markt kommen müssen.

Ronny145
2010-03-23, 21:09:01
Unigine 1 VS 2 NV s gezeigter bench getürkt.
http://translate.google.com/translate?hl=en&sl=ar&tl=en&u=http%3A%2F%2Fwww.arabhardware.net%2Fforum%2Fshowthread.php%3Ft%3D164761


NVIDIA hatte doch mit Version 1.1 gebencht, oder? Außerdem frage ich mich was der Typ dort zeigen will. Mit höchsten settings läuft das deutlich schlechter und nicht besser. Da müsste er erstmal seine Einstellung verraten.

y33H@
2010-03-23, 21:10:04
@ Coda

Was dann? Mit Tessellation scheint der Speicherverbrauch signifikant höher zu sein.

Coda
2010-03-23, 21:11:58
Speicher für die Displacement-Maps?

Gast
2010-03-23, 21:14:08
GF104 ist natürlich ein neuer Chip und sollte es als eigentlich als A2 in die Massenproduktion schaffen.

also könnten womögliche flaschenhälse vom gf 100 (sofern vorhanden :P) mit dem gf104 bereits beseitigt sein?

y33H@
2010-03-23, 21:15:11
Displacement-Maps bei Tessellation ... hmmm.

LovesuckZ
2010-03-23, 21:18:39
@ Coda

Was dann? Mit Tessellation scheint der Speicherverbrauch signifikant höher zu sein.

Liegt wohl daran, dass es kein "High-Poly ohne Tessellation" Modus gibt. So benötigt Tessellation natürlich mehr Speicher als "Low-Poly ohne Tessellation" aber gegenüber dem normalen Weg ist Tessellation speicherfreundlicher.
Siehe auch hier (Folie 4): http://developer.nvidia.com/object/gamefest-2008-subdiv.html

Gast
2010-03-23, 21:18:47
Hab Unigine 2.0 schon mal laufen lassen und grundsätzlich kann man die beiden Benches nicht miteinander vergleichen, da es ein vollkommen anderer Ablauf mit anderen Szenen ist.

Auch wenn die meisten Szenen in Unigine 2.0 neu sind, so haben sie doch auch einige aus version 1.0 übernohmen so z.B. den berühmten Drachen und da finde ich es schon bemwerkenswert, dass an dieser Stelle mit gleichen Settings die HD58xx deutlich zulegen konnten.

Also ob die HD58xx wirklich so unbrauchbar für starke Tesselation sind wie einige das gerne hätten, kann man wohl noch nicht eindeutig sagen, da man mit entsprechenden Optimierungen durch Patches oder Treiber vielleicht doch noch einiges an Leistung abrufen kann.

Niall
2010-03-23, 21:22:03
Displacement-Maps bei Tessellation ... hmmm.

Ja, erst wird das Mesh gesmoothed und dann displaced oder nich?
(z.B. bei dem Drachenmoppes da...)

Wobei mir gerade einfällt: Wär’s nicht sinniger mit einer Art Graustufen-»Weightmap«
die Stärke der Tesselation des Objekts zu bestimmen?
So würde man bspw. die Übergänge ab einem bestimmten Winkel des Extrudierens
stärker unterteilen, Die Flanken vielleicht weniger.
Halt so ’ne Art »Tesselation-Density-Map« damit nicht alles erst
mit Polys aufgepumpt wird.

Gast
2010-03-23, 21:25:12
Wieviel mehr Speicherauslastung hat man bei starker Tessellation Verwendung? 5%, 15%, 30%?
Das würde eine Grafikkarte mit 1280MB Ram ja ad absurdum führen wenn heutige Crysis Mods schon über 1GB Vram brauchen.

y33H@
2010-03-23, 21:25:19
Sollte, ja. So weit habe ich nicht gedacht :usad:

Spasstiger
2010-03-23, 21:25:46
Hull Shader Stage -> Tessellation Stage -> Domain Shader Stage (http://msdn.microsoft.com/en-us/library/ff476340%28VS.85%29.aspx)
In der Domain Shader Stage werden die Eckpunkte verschoben (displacement), dadurch entsteht erst der optische Gewinn. Wobei man Tessellation natürlich auch ohne Displacement Mapping verwenden kann (wie z.B. bei ATIs Truform).

AnarchX
2010-03-23, 21:28:56
also könnten womögliche flaschenhälse vom gf 100 (sofern vorhanden :P) mit dem gf104 bereits beseitigt sein?
Mit 64 TMUs könnte ein GF104 vielleicht etwas besser dastehen, aber ansonsten wird man bei den ersten Ablegern nicht viel verändern können.
Langfristig muss Nvidia bei der Fermi-Architektur Transistorbedarf und Taktbarkeit der Einheiten optimieren.

Eggcake
2010-03-23, 21:33:11
Hab Unigine 2.0 schon mal laufen lassen und grundsätzlich kann man die beiden Benches nicht miteinander vergleichen, da es ein vollkommen anderer Ablauf mit anderen Szenen ist.

Auch wenn die meisten Szenen in Unigine 2.0 neu sind, so haben sie doch auch einige aus version 1.0 übernohmen so z.B. den berühmten Drachen und da finde ich es schon bemwerkenswert, dass an dieser Stelle mit gleichen Settings die HD58xx deutlich zulegen konnten.

Also ob die HD58xx wirklich so unbrauchbar für starke Tesselation sind wie einige das gerne hätten, kann man wohl noch nicht eindeutig sagen, da man mit entsprechenden Optimierungen durch Patches oder Treiber vielleicht doch noch einiges an Leistung abrufen kann.

Naja, was sind "gleiche" Settings. Die Presets für Tessellation wurden ja ziemlich sicher auch verändert.

Schlammsau
2010-03-23, 21:37:19
Was meint ihr, wird Fermi auch noch so überlegen sein, wenn ein Game gleichzeitig massiv auf GPU-Physik, Shader und Tesselation setzt?

Armaq
2010-03-23, 21:39:11
Was meint ihr, wird Fermi auch noch so überlegen sein, wenn ein Game gleichzeitig massiv auf GPU-Physik, Shader und Tesselation setzt?
Wie meinen? Er hat nunmal nur eine begrenzte Rechenkapazität. Wenn du ihm mehr abverlangst (Physik), dann wird er natürlich entsprechend schwächeln.

y33H@
2010-03-23, 21:41:03
Was meint ihr, wird Fermi auch noch so überlegen sein, wenn ein Game gleichzeitig massiv auf GPU-Physik, Shader und Tesselation setzt?Natürlich. Um den Faktor unendlich sogar - denn GPU-PhysX plus HWT kann nur ein Fermi ;D

Schlammsau
2010-03-23, 21:43:19
Wie meinen? Er hat nunmal nur eine begrenzte Rechenkapazität. Wenn du ihm mehr abverlangst (Physik), dann wird er natürlich entsprechend schwächeln.
Ich meine wegen der Architektur.

ATi hat ja eine feste Tesselationeinheit, die ist eigentlich immer gleich stark.
In meinen Benchmarks hab ich auch bewiesen, dass diese ziemlich unbeeindruckt von Auflösung, AA und AF ist.

Wird das bei Fermi auch so sein?

LovesuckZ
2010-03-23, 21:45:26
Ich meine wegen der Architektur.

ATi hat ja eine feste Tesselationeinheit, die ist eigentlich immer gleich stark.
In meinen Benchmarks hab ich auch bewiesen, dass diese ziemlich unbeeindruckt von Auflösung, AA und AF ist.

Wird das bei Fermi auch so sein?

Das ist abhängig davon wie schnell GF100 die zusätzliche Last durch Tessellation abarbeiten kann. Wenn nämlich die Pixelshaderberechnungen limitieren, dann wird GF100 mit Zunahme der Auflösung langsamer werden. Aber das bedeutet auch, dass man wesentlich schneller als Cypress wäre, da Cypress Tessellation limitiert wäre.

Gast
2010-03-23, 21:46:12
AMD muss erstmal die Geometrieleistung steigern. Genau das hat nVidia mit GF100 gemacht. Das ist der radikale Unterschied zwischen Cypress und GF100. DX11 wird sich durchsetzen. Tessellation wird in jeder Engine möglich sein. AMD muss an diesem Problem ansetzen. Eine 7th nicht konkurrenzfähige Tessellationunit wird in einer Katastrophe enden.

Auch wenn du es immer und immer wieder wiederholst wird sie das nicht daran hindern auch die Leistung zu steigern. 28nm erlaubt doppelte Transistorenanzahl. Und die Tesslationseinheiten waren bis außer Konkurrenz, da NV gar keine hatte. Selbst die 6the kam ein halbes Jahr vor NV. Wenn die 7the ein halbes Jahr später konkurrenzfähig ist kann man nur sagen AMD hat alles richtig gemacht.

dildo4u
2010-03-23, 21:46:38
Was meint ihr, wird Fermi auch noch so überlegen sein, wenn ein Game gleichzeitig massiv auf GPU-Physik, Shader und Tesselation setzt?
Im Vergleich zu anderen GPUs klar.Kommt halt aufs Game an bei na Konsolenumsetzung bleibt natürlich viel Luft neben dem was gerendert werden muss.Ein Game wie Metro mit PC Ursprung fordert whol schon mit dem was gerendet werden muss einiges ab,deshalb hat's whol nur so dürftige PhysX Effekte.

Armaq
2010-03-23, 21:47:49
Ihr seid zwei Nasenbären! Die Frage war schon eindeutig, aber die Antwort von LZ ist noch viel besser.

Edit: Ich muss da nochmal nachlegen:

Schlammsau meint: Wenn man PhysX, Tesselation und viele Shader hat, DANN KACKT FERMI IN DEN BAU!

LZ meint: Wenn all das an ist und die Auflösung 4000x2000 beträgt, dann KACKT FERMI IMMERNOCH VIEL VIEL SCHNELLER!

Gast
2010-03-23, 21:49:20
Dazu kommt, dass jeder 55nm Shrink mit B1 auf den Markt kam. Imo ist sich nVidia bewusst, dass sie schon ohne Respin auf den Markt kommen müssen.

Das ändert aber nichts daran ob sie einen brauchen werden.

Am liebsten würde man immer ohne Respin launchen, manchmal geht das aber eben nicht.

Gast
2010-03-23, 21:49:56
also könnten womögliche flaschenhälse vom gf 100 (sofern vorhanden :P) mit dem gf104 bereits beseitigt sein?


Welche Flaschenhälse?

Gast
2010-03-23, 21:52:32
In der Domain Shader Stage werden die Eckpunkte verschoben (displacement), dadurch entsteht erst der optische Gewinn.

Runde Rundungen alleine wären schon ein immenser optischer Gewinn, displacement-mapping kann man ja ohne Tesselatoin auch machen.

Gast
2010-03-23, 21:53:25
Was meint ihr, wird Fermi auch noch so überlegen sein, wenn ein Game gleichzeitig massiv auf GPU-Physik, Shader und Tesselation setzt?


Natürlich, die parallele Abarbeitung wurde ja deutlich beschleunigt.

Schlammsau
2010-03-23, 21:54:46
Natürlich, die parallele Abarbeitung wurde ja deutlich beschleunigt.

Wir werden es in 2 Tagen wissen. :)

Gast
2010-03-23, 21:56:18
ATi hat ja eine feste Tesselationeinheit, die ist eigentlich immer gleich stark.
In meinen Benchmarks hab ich auch bewiesen, dass diese ziemlich unbeeindruckt von Auflösung, AA und AF ist.


Tesselation und generell die Geometrieauflösung ist immer unabhängig von der Auflösung.

Es ist sogar umgekehrt, die Geometrielast bleibt immer gleich, unabhängig von der Auflösung, je höher die Auflösung, desto weniger kann also Tri-Setup+Tesselation limitieren, da die Dreiecke natürlich wieder mehr Pixel abdecken. Höhere Auflösungen werden damit natürlich nicht schneller, aber so lange die Dreiecksleistung limitiert auch nicht langsamer.

Gast
2010-03-23, 21:59:36
Also einige Mods in verschiedenen Foren können ja nicht wirklich die Klappe halten bzw. lassen einiges geschickt durchblicken und so wie es aussieht wird es Licht und Schatten ungefähr im selben Verhältnis geben. Crysiswerte stimmen schonmal mit sehr großer Sicherheit.

Gast
2010-03-23, 22:03:16
http://tof.canardpc.com/view/6cc6d6e8-c86d-41f5-9764-81601a5b301d.jpg

PWNED!

Ailuros
2010-03-23, 22:06:56
Ein B1 vom ursprünglichen GF100 macht ja wohl auch keinen Sinn, wenn man noch einen Refresh hat. Charlies "April geht B1 in den Ofen" hat noch nie Sinn gemacht.

Was fuer einen Refresh und unter welchem Herstellungsprozess genau. Ganz nebenbei kommt das B1 Zeug nicht von Charlie sondern wurde zuerst von XMAN in dem B3D Forum oeffentlich erwaehnt. Und ja natuerlich macht ein re-spin Sinn.

igg
2010-03-23, 22:07:01
Also einige Mods in verschiedenen Foren können ja nicht wirklich die Klappe halten bzw. lassen einiges geschickt durchblicken und so wie es aussieht wird es Licht und Schatten ungefähr im selben Verhältnis gebe
licht?

LovesuckZ
2010-03-23, 22:07:14
Nicht schon wieder Crysis. Vorallem sind es die Werte, die seit der Cebit bekannt sind. Ich meine, besteht ganz China nur aus Crysis?

Schlammsau
2010-03-23, 22:09:36
Nicht schon wieder Crysis. Vorallem sind es die Werte, die seit der Cebit bekannt sind. Ich meine, besteht ganz China nur aus Crysis?

Wie für China Crysis, für dich Metro 2033.

Gast
2010-03-23, 22:12:00
Also eins steht schonmal fest: Die Tesslation im neuen Unigine-Demo ist auf "extrem" absolut pervers. Das sollte also eine Paradedisziplin für Fermi sein. Wenn sich Fermi da nicht Minimum um Faktor 2 Absetzen kann dann kann er das nirgends. Ohne Wireframe erkenne ich allerdings in der Praxis nicht den geringsten Unterschied selbst zwischen "moderat" und "extrem". Über den Nutzen kann man also durchaus streiten.

Ailuros
2010-03-23, 22:12:03
Auch wenn du es immer und immer wieder wiederholst wird sie das nicht daran hindern auch die Leistung zu steigern. 28nm erlaubt doppelte Transistorenanzahl. Und die Tesslationseinheiten waren bis außer Konkurrenz, da NV gar keine hatte. Selbst die 6the kam ein halbes Jahr vor NV. Wenn die 7the ein halbes Jahr später konkurrenzfähig ist kann man nur sagen AMD hat alles richtig gemacht.

Ja es gibt fixed function Tessellations-Einheiten seit Xenos und R600 von ATI die aber ausser in 2-3 Spielen auf der XBox360 dumm herumhockten. Es wird so langsam Zeit dass manche von Euch endlich schnallt dass die verdammte Tessellations-pipeline in DX11 programmierbar ist und dann haben wir hoffentlich ein besseres Verstaendnis der Situation.

licht?

*click* :biggrin:

Gast
2010-03-23, 22:12:27
Also das mit den 5 Fps min. bei HD5870 halte ich für Mumpitz. Bei max. Fps hat man 8 Frames mehr was in Crysis Warhead Welten sind, aber angeblich so niedrige min. Fps.

Schlammsau
2010-03-23, 22:14:07
Also eins steht schonmal fest: Die Tesslation im neuen Unigine-Demo ist auf "extrem" absolut pervers. Das sollte also eine Paradedisziplin für Fermi sein. Wenn sich Fermi da nicht Minimum um Faktor 2 Absetzen kann dann kann er das nirgends. Ohne Wireframe erkenne ich allerdings in der Praxis nicht den geringsten Unterschied selbst zwischen "moderat" und "extrem". Über den Nutzen kann man also durchaus streiten.

Zwischen moderat und standard sieht man schon nen relativ deutlichen Unterschied. Der Schritt auf extreme ist aber schon schwer zu erkennen.

Ich denke so viel Tesselation werden wir in den nächsten Jahren nicht sehen!

dildo4u
2010-03-23, 22:14:15
Also das mit den 5 Fps min. bei HD5870 halte ich für Mumpitz. Bei max. Fps hat man 8 Frames mehr was in Crysis Warhead Welten sind, aber angeblich so niedrige min. Fps.
Zum 100 mal das ist kein Mumpitz sondern da läuft der V-Ram über bei der ATI.

Gast
2010-03-23, 22:14:39
licht?

Das sanfte Glühen des Kühlkörpers unter Furmark.

Gast
2010-03-23, 22:16:39
Also das mit den 5 Fps min. bei HD5870 halte ich für Mumpitz. Bei max. Fps hat man 8 Frames mehr was in Crysis Warhead Welten sind, aber angeblich so niedrige min. Fps.

Dank 3er Runs im Benchmark eben kein Mumpitz, auch wenns dir schwer fällt es zu glauben. Keine "ja die ATI war am Anfang kurz im 2D Modus" Ausreden mehr. Der Karte geht schlicht und einfach der VRAM aus.

Kosh
2010-03-23, 22:17:08
So sieht es aus. Die AMD-Eumel haben mal wieder die Lage falsch eingeschätzt, sind von einer geringeren Nachfrage und höheren Chipausbeute ausgegangen. Woher hätten die auch wissen sollen, dass der Fermi sich um ein knappes halbes Jahr verspätet und sich dann teilweise auch noch als Papiertiger entpuppt. Aber auch NV hat sich verkalkuliert. Der eine würde gerne mehr verkaufen, hat aber zu wenige Wafer gemietet und die Ausbeute ist schlecht, der andere hat zwar genügend Wafer, liefert aber ein fragwürdiges Produkt ab mit ebenfalls geringer Ausbeute, das kaum Gewinn in die Kassen spülen wird :freak:
Eine Wirtschafts-Komödie

Und warum hat AMD/ATI immernoch nicht genug Chips??

AMD hat doch schon seit Monaten mit Sicherheit mehr als genug Wafer geordert,nachdem man sah,wie die Karten den Händlern aus den Händen gerissen werden.

Also warum gibts imme rnoch nicht genug Karten?? Das halbe Jahr über wurden ja keine NVIDIA Fermis produziert,also kann da nichts blockiert haben,oder Wafer gebunden haben.

Also warum gibts immer noch nicht genug 58xx Karten?

Jake Dunn
2010-03-23, 22:17:59
Also das mit den 5 Fps min. bei HD5870 halte ich für Mumpitz. Bei max. Fps hat man 8 Frames mehr was in Crysis Warhead Welten sind, aber angeblich so niedrige min. Fps.

Jo BS, ersten haben die eine alte Version des Bench-Tools genommen und ein ein nicht sehbarer "Nachlader" wathever spuckt dann denn Müll aus, wurde schon Siebzigmal im Benchfred durchgekaut.(das Tex.Streaming funkt auch noch quer, kann man aber deaktivieren läuft dann eh besser, besonder in Warhead).

Spasstiger
2010-03-23, 22:21:35
displacement-mapping kann man ja ohne Tesselatoin auch machen.
Mit Tessellation machts aber erst wirklich Sinn. Ansonsten muss man massive Eckdatenmengen von der CPU zur GPU schicken.

Jake Dunn
2010-03-23, 22:21:57
Dank 3er Runs im Benchmark eben kein Mumpitz, auch wenns dir schwer fällt es zu glauben. Keine "ja die ATI war am Anfang kurz im 2D Modus" Ausreden mehr. Der Karte geht schlicht und einfach der VRAM aus.

Klar war die im 2D (da steht doch bei Frame 85 -> also am Anfang), Fermi hat ja kein 2D Mode ;D

Die 2Gb Karten werden da Licht ins Dunkle bringen :D

S940
2010-03-23, 22:25:18
AMD hat doch schon seit Monaten mit Sicherheit mehr als genug Wafer geordert,nachdem man sah,wie die Karten den Händlern aus den Händen gerissen werden.
Lol, ja ordern können sie, nur doof dass nVidia die knappen 40nm TSMC Wafer schon vorher bestellt hat..

Die 40nm Kapazität @TSMC ansich ist leider wegen den miserabligen Yields immer noch zu gering. TSMC hat schon verdoppelt und bis Jahresende feuern die dann nochmals eine FAB an, das sollte dann aber wirklich reichen ^^

ciao

Alex

Gast
2010-03-23, 22:25:49
Klar war die im 2D (da steht doch bei Frame 85 -> also am Anfang), Fermi hat ja kein 2D Mode ;D

Die 2Gb Karten werden da Licht ins Dunkle bringen :D

Auch im 3. Run?
Dann sollte ATI mal schaun dass die Karte nicht erst nach 5 Minuten in den 3D Modus schaltet :rolleyes:

Coda
2010-03-23, 22:28:10
Mit Tessellation machts aber erst wirklich Sinn. Ansonsten muss man massive Eckdatenmengen von der CPU zur GPU schicken.
Geometrie wird in der Regel im VRAM gespeichert. Das Problem ist eher der hohe Verbrauch dessen und das LOD ohne Tesselation relativ schlecht zu machen ist.

Gast
2010-03-23, 22:29:29
Charlie zu GTX480 Dirt2 Benchmark:

http://www.semiaccurate.com/2010/03/23/nvidia-bends-definition-honesty-gtx480-benches

Jake Dunn
2010-03-23, 22:31:15
Auch im 3. Run?
Dann sollte ATI mal schaun dass die Karte nicht erst nach 5 Minuten in den 3D Modus schaltet :rolleyes:

In jedem Run sieht man doch (bei 85igsten Frame), nach jedem Run wird wohl kurz runtergetakte weil keine Last da ist.

Hab WH gerade nicht installiert, aber ich schau mir das die Tage mal an :)

Gast
2010-03-23, 22:34:34
In jedem Run sieht man doch (bei 85igsten Frame), nach jedem Run wird wohl kurz runtergetakte weil keine Last da ist.

Hab WH gerade nicht installiert, aber ich schau mir das die Tage mal an :)

Selbst wenn sie die ersten 85 Frames im 2D Modus rennt, das wären bei ~6fps schon 14 Sekunden.

Gast
2010-03-23, 22:36:20
http://tof.canardpc.com/view/6cc6d6e8-c86d-41f5-9764-81601a5b301d.jpg

PWNED!

Jo pwned, 23 avg FPS, und die Frames sacken ein, die Welt geht unter :D

Dank 3er Runs im Benchmark eben kein Mumpitz, auch wenns dir schwer fällt es zu glauben. Keine "ja die ATI war am Anfang kurz im 2D Modus" Ausreden mehr. Der Karte geht schlicht und einfach der VRAM aus.

Dann wird halt ne 2GB RV870 gekauft, wenn man das Spiel mit 23FPS avg spielen will - wird günstiger sein als nen GF100 :x

Popeljoe
2010-03-23, 22:38:12
Und warum hat AMD/ATI immernoch nicht genug Chips??

AMD hat doch schon seit Monaten mit Sicherheit mehr als genug Wafer geordert,nachdem man sah,wie die Karten den Händlern aus den Händen gerissen werden.

Also warum gibts imme rnoch nicht genug Karten?? Das halbe Jahr über wurden ja keine NVIDIA Fermis produziert,also kann da nichts blockiert haben,oder Wafer gebunden haben.

Also warum gibts immer noch nicht genug 58xx Karten?
Spekulativ gesehen würde ich sagen: die halten durch künstliche Verknappung den Preis hoch.
Warum sollten sie ohne wirkliche Konkurrenz auch Masse produzieren und sich selber den Preis kaputtmachen?
Man wird sehen, wie sich der Preis der 5850 in den nächsten Monaten entwickelt, mMn wird er um einige Prozente einbrechen.
Ati wird, wenn denn der kleinere Fermi so gut wird, wie einige Leute hoffen, Umsatz über einen günstigen Preis machen. Wie früher auch schon .

Ailuros
2010-03-23, 22:40:56
Charlie zu GTX480 Dirt2 Benchmark:

http://www.semiaccurate.com/2010/03/23/nvidia-bends-definition-honesty-gtx480-benches

Sources deep inside Santa Clara have told SemiAccurate...

Natuerlich weiss Charlie dass NV wie verrueckt nach ihrem eigenem Leak sucht. Das Ihnen auch noch unter die Nase zu reiben ist wirklich.....LOL ;D

Menace
2010-03-23, 22:41:40
Spekulativ gesehen würde ich sagen: die halten durch künstliche Verknappung den Preis hoch.


ATI hält die Preise doch gar nicht hoch! Sie verdienen davon nichts. Würden sie das vorhaben, würden sie die Preise höher machen.
Warum sollten sie nicht ihr Zeugs verkaufen bevor Konkurrenz da ist?
Die einzigen, die was in der Hinterhand halten könnten wären die GraKa-Hersteller, die mit ihren eigenem Design punkten wollen.

Das ergibt für mich keinen Sinn.

Menace
2010-03-23, 22:42:34
Natuerlich weiss Charlie dass NV wie verrueckt nach ihrem eigenem Leak sucht.

Ich dachte Charlie lügt sich nur was zusammen? :confused:

Ailuros
2010-03-23, 22:42:43
Spekulativ gesehen würde ich sagen: die halten durch künstliche Verknappung den Preis hoch.
Warum sollten sie ohne wirkliche Konkurrenz auch Masse produzieren und sich selber den Preis kaputtmachen?
Man wird sehen, wie sich der Preis der 5850 in den nächsten Monaten entwickelt, mMn wird er um einige Prozente einbrechen.
Ati wird, wenn denn der kleinere Fermi so gut wird, wie einige Leute hoffen, Umsatz über einen günstigen Preis machen. Wie früher auch schon .

Einige Antworten zu der yield/Kapazitaet Masche gibt es in diesem Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=478003

Ich dachte Charlie lügt sich nur was zusammen? :confused:

Du kannst Gift drauf nehmen dass irgend jemand innerhalb NV entweder direkt zu ihm leaked oder zu jemand anders der als anonymer Mittelmann agiert. Dass er oefters BS schreibt, uebertreibt oder Hasskreuzzuege gegen NV fuehrt ist ein anderes Kapitel im Vergleich zu so manchen Einzelheiten die nur ein wahrer insider verraten koennte.

Menace
2010-03-23, 22:48:40
Du kannst Gift drauf nehmen dass irgend jemand innerhalb NV entweder direkt zu ihm leaked oder zu jemand anders der als anonymer Mittelmann agiert.

Davon gehe ich schon länger aus, allerdings werden diese Leute, die diesen Verdacht auch äußern, in diesem Forum eigentlich eher als Spinner hingestellt. Freut mich, dass Du diese Ansicht (über die tapeouts hinweg) auch teilst.

BlackFog
2010-03-23, 22:48:48
Please note, in this case 'hot' is more literal than figurative, the GPU here is running at 87C, far hotter than any card that expects to have a realistic life span should be at.

Hmm meine 8800GTX ist auch nicht kühler und läuft seit Jahren stabil. So What?

Wenn ich High-End kaufe, dann kann es auch warm/teuer/lauter werden als die 50€ Karte vom Discount-PC.

LovesuckZ
2010-03-23, 22:53:06
Hmm meine 8800GTX ist auch nicht kühler und läuft seit Jahren stabil. So What?

Wenn ich High-End kaufe, dann kann es auch warm/teuer/lauter werden als die 50€ Karte vom Discount-PC.

Welche GPU läuft nicht mit 87°C unter Last? Vorallem, wenn diese 250 Watt verbrauchen sollte? :confused:

derguru
2010-03-23, 22:57:25
Auch im 3. Run?
Dann sollte ATI mal schaun dass die Karte nicht erst nach 5 Minuten in den 3D Modus schaltet :rolleyes:
Selbst wenn sie die ersten 85 Frames im 2D Modus rennt, das wären bei ~6fps schon 14 Sekunden.

hier pokemon,

http://www.abload.de/thumb/crs6y6n.jpg (http://www.abload.de/image.php?img=crs6y6n.jpg)

Eggcake
2010-03-23, 22:58:56
Nimm die GT mal raus, die verwirrt *g*

Gast
2010-03-23, 23:02:56
Sag ich doch die 5 min. Fps konnten nur Mumpitz sein. Konnte es momentan leider nicht selber testen.

derguru
2010-03-23, 23:05:20
Nimm die GT mal raus, die verwirrt *g*

ich bin ne zwitter:wink:

ich mach die gt mal raus weil mir der wert doch ein bissel zuviel des guten ist,nicht das 8aa nicht richtig übernommen wird.

edit:

das tool kam durcheinander mit dem kuddelmuddel an grafikkarten,so jetzt mal mit deaktivierter 8800gt

min fps sind trotzdem deutlich besser als dort angegeben,wie schon öfter gesagt ein kleines nachladen und schwup sind die min fps werte im keller.

http://www.abload.de/thumb/crsd44e.jpg (http://www.abload.de/image.php?img=crsd44e.jpg)

Gast
2010-03-23, 23:07:39
Deckt sich aber einigermaßen mit den Leak-Werten. Was für einen Cat. benutzte denn 10.3a?

Armaq
2010-03-23, 23:15:17
Er hatte ja wirklich mit so ziemlich allem was er sagte recht.

Was wirklich interessant ist:

http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

How did this come about? Sources in Santa Clara tell SemiAccurate that GF100 was never meant to be a graphics chip, it started life as a GPGPU compute chip and then abandoned. When the successor to the G200 didn't pan out, the GF100 architecture was pulled off the shelf and tarted up to be a GPU. This is very similar to what happened to ATI's R500 Xenos, but that one seems to have worked out nicely in the end.

Den Teil glaube ich ohne auch nur darüber nachzudenken.

mapel110
2010-03-23, 23:17:48
Haben wir hier auch schon tausend mal durchgekaut, dass das Blödsinn ist.

Popeljoe
2010-03-23, 23:19:19
Einige Antworten zu der yield/Kapazitaet Masche gibt es in diesem Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=478003
Thx, habe mich mal ein wenig querlesend in dem Thread bewegt.
Einige interessante Infos dabei! :up:

Gast
2010-03-23, 23:21:44
Immer wieder gleich diese geradezu allergischen Reaktionen von immer denselben Leuten wenn es um Charlie geht. Der Typ hat irgendein krankes persönliches Problem mit NV richtig, aber er hat auch gute Quellen und war öfter an der Wahrheit als alle anderen.

LovesuckZ
2010-03-23, 23:23:11
Jo. Er war soweit an der Wahrheit, dass er diese sogar um 180° drehen kann. :D

Iruwen
2010-03-23, 23:24:05
Naja, die 275W TDP vor der Reduktion der Taktraten waren ja z.B. offenbar auch richtig. Das rät man auch nicht mal so eben.

Gast
2010-03-23, 23:24:09
Und selbst das, wenn es so wäre, ist nichts im Vergleich zu dir, mein Freund.

y33H@
2010-03-23, 23:26:27
275W standen iirc nie zur Debatte. An die AIBs und die 3rd-Party-Cooler-Hersteller wurden andere Werte kommuniziert.

Armaq
2010-03-23, 23:27:10
Ich finde es im Nachgang sehr interessant. Er hatte recht und das auch noch mit einer wirklich guten Trefferquote. C. labert zwar auch viel, aber sämtliche Kernelemten zu treffen ist nun nicht einfach. GF100 war vll. erst für 28nm bestimmt und es gab halt noch ein G200-Nachfolger?

LovesuckZ
2010-03-23, 23:27:12
Naja, die 275W TDP vor der Reduktion der Taktraten waren ja z.B. offenbar auch richtig. Das rät man auch nicht mal so eben.

Achja? Seine 280 Watt lagen bei 600/1200MHz an und 512, oder 448 oder 480...
Seine 275 bezogen sich auf die oberen Werte. Jetzt sind wir bei 700/1400 und 480 und 250 Watt. Nunja, das ist wirklich sehr akkurat.

Ich finde es im Nachgang sehr interessant. Er hatte recht und das auch noch mit einer wirklich guten Trefferquote. C. labert zwar auch viel, aber sämtliche Kernelemten zu treffen ist nun nicht einfach. GF100 war vll. erst für 28nm bestimmt und es gab halt noch ein G200-Nachfolger?

Nö. Er hat in vielen Bereichen seine Meinung um 180° gedreht. Kernaussagen waren: Langsamer als Cypress in DX10 und DX11. Tessellation und sonstige DX11 Features über "GPGPU Shader" ist hoch ineffizient. Cypress wird kein Leistungseinbruch ins unermessliche per Tessellation erleiden, GF100 wird unspielbar sein. Oh und Intel wird Larabee fertigen können, im Gegensatz zu TSMC und nVidia mit GF100.

Das sind seine Kernaussagen von Mai 2009. Vergleiche das mal mit den heutigen und du wirst sehen, er hat keine Ahnung gehabt.

Gast
2010-03-23, 23:28:46
AMD hat doch schon seit Monaten mit Sicherheit mehr als genug Wafer geordert,nachdem man sah,wie die Karten den Händlern aus den Händen gerissen werden.

TSMC hat dafür nicht genug Kapazitäten.


Also warum gibts imme rnoch nicht genug Karten?? Das halbe Jahr über wurden ja keine NVIDIA Fermis produziert,also kann da nichts blockiert haben,oder Wafer gebunden haben.

Es gibt noch andere NVidia-GPUs ;)

NVidia hat in den letzten Monaten fast das gesamte Lineup auf 40nm umgestellt.

Nazar
2010-03-23, 23:28:57
Bisher war Charlie mit seinen "Spekulationen" näher an der Wahrheit dran, als jeder andere in diesem Forum.

Was sehr interessant ist, dass beim Benchen mit Dirt2 die GTX480 aus versehen auf DX9 zurückgeswitched sein soll und diese DX9 Werte dann gegen die DX11 Werte von ATI gestellt wurden.

Naja.. noch 2 Tage und der Rest von heute ;)

Gast
2010-03-23, 23:29:45
Klar war die im 2D (da steht doch bei Frame 85 -> also am Anfang), Fermi hat ja kein 2D Mode ;D


Angeblich doch, wenn auch keinen besonders effizienten.

y33H@
2010-03-23, 23:31:23
Aus Versehen? Die Demo "erkennt" Fermi wenig überraschend nicht - wer dann GF100 mit DX9 bencht, es nicht merkt und diese Werte gegen eine HD5870 @ DX11 ... dem sollte man keine GraKa mehr in die Hand geben.

Und zum Thema Charlie: TDP nicht getroffen, Clocks nicht getroffen, Performance nicht getroffen.

Ailuros
2010-03-23, 23:32:46
Er hatte ja wirklich mit so ziemlich allem was er sagte recht.

Es gibt auch eine sehr gesunde Anzahl an Bullshit in seinen Aussagen.

Was wirklich interessant ist:

http://www.semiaccurate.com/2010/01/17/nvidia-gf100-takes-280w-and-unmanufacturable/

How did this come about? Sources in Santa Clara tell SemiAccurate that GF100 was never meant to be a graphics chip, it started life as a GPGPU compute chip and then abandoned.

Der Vorschlag dass NV eine zweischienige Entwicklung (ergo einen GPGPU chip fuer Tesla und einen 3D chip fuer Quadro und GeForce) vornehmen wuerde gibt es schon seit einer Ewigkeit. Ich bin leider irgendwo auf das Zeug selber reingefallen, aber als ich es endlich mit einem engineer auf den Tisch legte wurde ich nur ausgelacht.

When the successor to the G200 didn't pan out, the GF100 architecture was pulled off the shelf and tarted up to be a GPU.

Ergo wurde die GF100 nach der These angeblich in ~2008 wieder ausgegraben. Chalkboard Design fuer GF100 begann H1 2005 und seither gab es zwar kleinere Richtungsaenderungen aber nichts das die insgesamte Design-Philosophie ernsthaft beinflusste.

Schon im Dezember 2006 bekam ich von ATI's PR die ersten zuverlaessigen hints fuer NV's DX11 Generation.


This is very similar to what happened to ATI's R500 Xenos, but that one seems to have worked out nicely in the end.

ATI's Xenos war mit dem "Ur-R400" verwandt und hatte nichts mit irgendwelchem R500 zu tun. Als ATI frueh genug einsah dass R400 etwas seiner Zeit voraus gewesen waere und doch am Ende zu schwach fuer den PC, kam R5x0 zum Vorschein der aber gar nichts weder mit R400, Xenos oder R600 gemeinsam hatte.

Xenos ist zweifellos besser als RSX, aber ob R600 der den eigentlichen aufgekrempelten R400/Xenos Nachfolger darstellt wirklich "worked out nicely" war mit so vielen falschen Design-Entscheidungen ueberlass ich der Geschichte.

StevenB
2010-03-23, 23:35:04
Naja, die 275W TDP vor der Reduktion der Taktraten waren ja z.B. offenbar auch richtig. Das rät man auch nicht mal so eben.

Wie hoch ist die Chance? 50:50 das man mit irgend etwas richtig liegt. TDP höher oder Niedriger, 512 SP oder 480, wieder 50:50.

Was haben solch genannte "Insider" denn von ihrem wissen? Genau richtig! Nichts! Als ob jemand Geld dafür zahlt das sich irgend so nen Typ hinsetzt und frühs des Kaffeesatz liest....

Solche Typen sind genau solche Harz IV Typen die sich Highsociety Experten schimpfen, und frühs um Punkt 6 bei den RTL News auftauchen.

Es nervt einfach, man kann hier in einem Thread noch nicht mal vernünftig Argumentierten oder Diskutieren, weil dauernd irgendwelche Gäste kommen und die Leute reizen. Es nervt einfach, und es nervt auch wie irgend wie alle auf LovesuckZ rumhacken. Verdammt nochmal man kann doch in ruhe eine Diskussion führen, und immer mehr habe ich das Verlangen das einfach Gäste aus solchen Foren ausgeschlossen werden müssen. Ist klar, wenn ich nicht geregt bin kann ich Scheiße Verzapfen ohne das ich meinen ruf ankratze! Es NERVT!

Solch ein Thread beweist leider, das es endlich für so ein Forum eine regpflich geben sollte, sonst steht nur 500 Seiten müll....

derguru
2010-03-23, 23:36:57
Und zum Thema Charlie: TDP nicht getroffen, Clocks nicht getroffen, Performance nicht getroffen.

ich behaupte mal das nv es selbst erst vor kurzem weiß:wink:,so lang die tendenz in die richtung geht passt es.

Armaq
2010-03-23, 23:38:11
Achja? Seine 280 Watt lagen bei 600/1200MHz an und 512, oder 448 oder 480...
Seine 275 bezogen sich auf die oberen Werte. Jetzt sind wir bei 700/1400 und 480 und 250 Watt. Nunja, das ist wirklich sehr akkurat.



Nö. Er hat in vielen Bereichen seine Meinung um 180° gedreht. Kernaussagen waren: Langsamer als Cypress in DX10 und DX11. Tessellation und sonstige DX11 Features über "GPGPU Shader" ist hoch ineffizient. Cypress wird kein Leistungseinbruch ins unermessliche per Tessellation erleiden, GF100 wird unspielbar sein. Oh und Intel wird Larabee fertigen können, im Gegensatz zu TSMC und nVidia mit GF100.

Das sind seine Kernaussagen von Mai 2009. Vergleiche das mal mit den heutigen und du wirst sehen, er hat keine Ahnung gehabt.
In dem von mir verlinkten Beitrag hat er getroffen?
Ich will hier keine Lanze für C. brechen, aber insgesamt kann ich mir halt vorstellen, dass Fermi nicht die erste Wahl war, das habe ich ja auch schon früher behauptet.

Das ganze in 32nm und für GPGPU-Anwendungen ist mMn. plausibler als ein Kopf an Kopf-Rennen, dass man aus Sicht des Stromverbrauchs verliert (Eff. pro Watt).

Simpel gesprochen halte ich die 8800GTX und die 9800GTX+ in 55nm für die besten Chips von Nvidia. GT200 find ich zu "grob" und GF100 geht den selben Weg.

Wobei die viel besseren Minimum-fps anscheinend ein kleines "benefit" von dem Design sind. Keine Sau stört sich an maximal 60fps VSync, aber jeder an einem Drop auf unter 30. Wenn Fermi rein hypothetisch nie unter 40 fallen würde, das wäre ein echter Gewinn.

y33H@
2010-03-23, 23:41:59
@ derguru

Target für 512 ALUs @ 1,5 GHz waren 289W. Aktuell sind es bei [angeblich] 480 ALUs @ 1,4 GHz "nur" 250W TDP. Charlie hat weder das eine noch das andere genannt, sondern gepflegt in die Mitte gegriffen.

Gast
2010-03-23, 23:43:08
ich behaupte mal das nv es selbst erst vor kurzem weiß:wink:,so lang die tendenz in die richtung geht passt es.
Soll man das jetzt als ein "Charlie hatte recht" interpretieren?

Wenn ja, dann weisst du jetzt wieso Charlie immer recht hat.

LovesuckZ
2010-03-23, 23:43:13
In dem von mir verlinkten Beitrag hat er getroffen?
Ich will hier keine Lanze für C. brechen, aber insgesamt kann ich mir halt vorstellen, dass Fermi nicht die erste Wahl war, das habe ich ja auch schon früher behauptet.

Das ganze in 32nm und für GPGPU-Anwendungen ist mMn. plausibler als ein Kopf an Kopf-Rennen, dass man aus Sicht des Stromverbrauchs verliert (Eff. pro Watt).


GF100 ist ein Gamerchip. Ein zu 90% für den Gamermarkt bestimmtes Produkt. Das sollte man doch wenigsten seit der CES erkannt haben.
Oder anders gefragt: Erkläre doch bitte, wieso GF100 ein Produkt ist, dass nicht für den Gamingmarkt bestimmt wäre.

Nazar
2010-03-23, 23:46:19
Aus Versehen? Die Demo "erkennt" Fermi wenig überraschend nicht - wer dann GF100 mit DX9 bencht, es nicht merkt und diese Werte gegen eine HD5870 @ DX11 ... dem sollte man keine GraKa mehr in die Hand geben.

Und zum Thema Charlie: TDP nicht getroffen, Clocks nicht getroffen, Performance nicht getroffen.

Von treffen war auch nicht die Rede, sondern von "näher dran".
Ich möchte seine Hetzreden nicht gutheissen -er scheint der "Dunkle Bruder" von LZ zu sein- aber seine "Trefferquote" scheint doch recht hoch zu sein. Höher als bei jedem anderen hier im Forum (Fermi min. 60% schneller als die 5870 oder nur 10% langsamer als die 5970 :rolleyes:).
Für einige "Grüne" war der Fermi zu Anfang, wenn er weniger als 20% schneller wäre als die 5870, ein epic Fail.
Die selben Leute zählen nun auf, dass nV doch alles richtig gemacht hat und 10% mehr Leistung einfach nur genial sind und man mit Tesselation in einem Jahr richtig gut darsteht und man jetzt nicht darauf verzichten darf und die erhöhte Abwärme richtig geil aussehende und hochwertige Kühler gebracht hat :freak:

Im Geheimen hoffe ich auch immer noch, dass nV uns alle so richtig (positiv) verarscht hat und die GTX480 wirklich min. 20 schneller als die 5870 ist.
Ist ja fast wie Weihnachten ;D

y33H@
2010-03-23, 23:50:29
Average 20%? Hmmm ;D [Taschenrechner auspack]

Gast
2010-03-23, 23:50:41
Nö. Er hat in vielen Bereichen seine Meinung um 180° gedreht. Kernaussagen waren: Langsamer als Cypress in DX10 und DX11. Tessellation und sonstige DX11 Features über "GPGPU Shader" ist hoch ineffizient. Cypress wird kein Leistungseinbruch ins unermessliche per Tessellation erleiden, GF100 wird unspielbar sein. Oh und Intel wird Larabee fertigen können, im Gegensatz zu TSMC und nVidia mit GF100.

mit welchen aussagen hat er geschrieben, das
- er langsamer als der cypress wird
- das der gf100 unspielbar sein wird
wo ist bewiesen das der cypress
- unermessliche einbrüche in tessellation erleidet, im vergleich zum gf100

und die laughabee story auszupacken ist für nen nvidia fanboy ja mal das witzigste.. was für eine große klappe huan gegenüber dem larabee hatte, geht auf keine kuhaut.

Gast
2010-03-23, 23:50:54
Aus Versehen? Die Demo "erkennt" Fermi wenig überraschend nicht - wer dann GF100 mit DX9 bencht, es nicht merkt und diese Werte gegen eine HD5870 @ DX11 ... dem sollte man keine GraKa mehr in die Hand geben.



NDA Brecher! Ich zeige dich an!

y33H@
2010-03-23, 23:53:46
Habe ich versehentlich Trollfutter ausgekippt ... blöde Viecher ...

LovesuckZ
2010-03-23, 23:53:57
mit welchen aussagen hat er geschrieben, das
- er langsamer als der cypress wird
- das der gf100 unspielbar sein wird
wo ist bewiesen das der cypress
- unermessliche einbrüche in tessellation erleidet, im vergleich zum gf100

und die laughabee story auszupacken ist für nen nvidia fanboy ja mal das witzigste.. was für eine große klappe huan gegenüber dem larabee hatte, geht auf keine kuhaut.

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Viel Spaß.

Armaq
2010-03-23, 23:53:58
GF100 ist ein Gamerchip. Ein zu 90% für den Gamermarkt bestimmtes Produkt. Das sollte man doch wenigsten seit der CES erkannt haben.
Oder anders gefragt: Erkläre doch bitte, wieso GF100 ein Produkt ist, dass nicht für den Gamingmarkt bestimmt wäre.
Weil er mehr Strom verballert, unglaublich komplex ist und anscheinend zu viele Transistoren notwendig waren, um ihn derart programmierbar zu gestalten. Zudem scheint der Stromsparmechanismus, der bei 2 Generationen vorher prima funktioniert hat, hier überhaupt nicht zu greifen. Oder es war keiner vorgesehen, weil es kein klassischer Gamerchip war, als man ihn konzipiert hat. Daran ist ja auch nichts schlimmes und Nvidia will die Profisparte! In einem Indizienprozess wäre das schonmal eine Menge Holz. ;)

LovesuckZ
2010-03-23, 23:57:48
Weil er mehr Strom verballert, unglaublich komplex ist und anscheinend zu viele Transistoren notwendig waren, um ihn derart programmierbar zu gestalten. Zudem scheint der Stromsparmechanismus, der bei 2 Generationen vorher prima funktioniert hat, hier überhaupt nicht zu greifen. Oder es war keiner vorgesehen, weil es kein klassischer Gamerchip war, als man ihn konzipiert hat. Daran ist ja auch nichts schlimmes und Nvidia will die Profisparte! In einem Indizienprozess wäre das schonmal eine Menge Holz. ;)

NV40, G70, G80, GT200 und GF100.
nVidia scheint schon lange keine Chips mehr für den Gamingmarkt zu entwickeln. :(
Das sind keine Argumente, die diese Aussage stützen.

/edit: Um das klarzustellen: Ersetze bei dieser Aufzählung den GF100 durch G80. Was fällt dir auf? Richtung: Es war beim G80 genauso. Deine Aufzählung bezieht sich in keinster Weise auf die Architektur. Was du aufzählst, sind keine Indizien, keine Argumente für die These.

dildo4u
2010-03-23, 23:58:06
Weil er mehr Strom verballert, unglaublich komplex ist und anscheinend zu viele Transistoren notwendig waren, um ihn derart programmierbar zu gestalten.
Tesslation wurde so ausgelegt das sie schon in der ersten DX11 NV Gen praktisch eingesetzt werden kann z.b. sowas kostet Transistoren und bringt dem Gamer praktischen nutzen.

Coda
2010-03-23, 23:58:08
der aber gar nichts weder mit R400, Xenos oder R600 gemeinsam hatte.
Also Ideen haben sie auf jeden Fall übernommen für die Threads bei den Pixel-Shadern.

Im Prinzip war das eine moderne Architektur für die Pixel an einem alten Vertexshader.

Gast
2010-03-23, 23:59:05
ich bin ne zwitter:wink:

ich mach die gt mal raus weil mir der wert doch ein bissel zuviel des guten ist,nicht das 8aa nicht richtig übernommen wird.

edit:

das tool kam durcheinander mit dem kuddelmuddel an grafikkarten,so jetzt mal mit deaktivierter 8800gt

min fps sind trotzdem deutlich besser als dort angegeben,wie schon öfter gesagt ein kleines nachladen und schwup sind die min fps werte im keller.

http://www.abload.de/thumb/crsd44e.jpg (http://www.abload.de/image.php?img=crsd44e.jpg)

Eben, "Nachladeruckler" aber nicht von HDD (das würde ja nur beim 1. RUN passieren, deshalb macht man ja 2-3 Runs) sondern wegen Überlaufen des VRAMs. Hier ist ein Bench eines Systems mit 8 Gig Ram, SSD Array und GTX295. Selbes Bild, VRAM rennt über. Dank noch weniger VRAM natürlich noch schlimmer. Selbiges Problem hast du u.a. beim Mechwarrior MOD für Crysis.
http://img28.imageshack.us/img28/9301/crysisq.th.png (http://img28.imageshack.us/i/crysisq.png/)

Armaq
2010-03-24, 00:01:28
NV40, G70, G80, GT200 und GF100.
nVidia scheint schon lange keine Chips mehr für den Gamingmarkt zu entwickeln. :(
Das sind keine Argumente, die diese Aussage stützen.
Alle Chips lieferten aber, wenn ich mich korrekt erinnere, zu ihrer Zeit eine bessere Performance und NV40 sogar noch besseres Featureset ab? G80 war der König seiner Zeit und so geheim wie es nur ging. GT200 ist der erste Chip der meine Thesen spiegelt, allerdings war er immer wesentlich performanter als die Konkurrenz.

Edit: Warum genau willst du den GF100 eigentlich als Gamerchip sehen bzw. siehst du die Differenz zu ca. 4 Jahren Marktführerschaft?

Iruwen
2010-03-24, 00:03:14
Ergo wurde die GF100 nach der These angeblich in ~2008 wieder ausgegraben. Chalkboard Design fuer GF100 begann H1 2005 und seither gab es zwar kleinere Richtungsaenderungen aber nichts das die insgesamte Design-Philosophie ernsthaft beinflusste.

Wenn Nvidia seit fünf Jahren weiß wo die Reise hingeht, hätte da nicht irgendwann mal jemandem auffallen müssen dass der Chip in 40nm nur begrenzt Sinn macht und dass es vllt besser wäre einen ähnlichen Weg wie ATI zu gehen und die aktuellen High-End Chips erstmal auf 40nm zu bringen?

LovesuckZ
2010-03-24, 00:04:44
Alle Chips lieferten aber, wenn ich mich korrekt erinnere, zu ihrer Zeit eine bessere Performance und NV40 sogar noch besseres Featureset ab?

Nein. NV40 war langsamer und größer als r420, bot das bessere Featureset. G70 war 330m^2 groß und wurde auf 200mm Wafer hergestellt.


G80 war der König seiner Zeit und so geheim wie es nur ging. GT200 ist der erste Chip der meine Thesen stützt, allerdings war er immer wesentlich performanter als die Konkurrenz.

G80 hat die selben Probleme, die du als "GPGPU Chip" aufzählt: Hoher Stromverbrauch, sehr groß, kein IDLE-Modus. Klingt nach GF100, nicht? :D


Edit: Warum genau willst du den GF100 eigentlich als Gamerchip sehen bzw. siehst du die Differenz zu ca. 4 Jahren Marktführerschaft?

Weil er nunmal einer ist. Du bist anscheinend nicht in der Lage anhand der Architektur dazulegen, dass GF100 primär nicht als Gamingchip entwickelt wurde.

Superheld
2010-03-24, 00:05:27
Tesslation wurde so ausgelegt das sie schon in der ersten DX11 NV Gen praktisch eingesetzt werden kann z.b. sowas kostet Transistoren und bringt dem Gamer praktischen nutzen.

bist du LovesuckZ`s Vati ?

jaja Tesslation :biggrin:

Armaq
2010-03-24, 00:07:21
Nein. NV40 war langsamer und größer als r420, bot das bessere Featureset. G70 war 330m^2 groß und wurde auf 200mm Wafer hergestellt.



G80 hat die selben Probleme, die du als "GPGPU Chip" aufzählt: Hoher Stromverbrauch, sehr groß, kein IDLE-Verbrauch. Klingt nach GF100, nicht? :D
G80 war aber schneller als alle anderen und die Architektur hat überzeugt. War er im Verhältnis zum Prozess so groß wie Fermi?

Meine Frage hast du nicht beantwortet.

dildo4u
2010-03-24, 00:08:02
bist du LovesuckZ`s Vati ?

jaja Tesslation :biggrin:
Nö mich interresiert nur High-End Hardware beste Konsole,beste GPU etc.(nicht was ATI im Midrange Bereich anstellt)
Fermi oder deren Nachfolger könnten in irgend einer Form auch mal in der PS4 landen z.b.

LovesuckZ
2010-03-24, 00:10:26
G80 war aber schneller als alle anderen und die Architektur hat überzeugt. War er im Verhältnis zum Prozess so groß wie Fermi?

G80 ist 480mm^2, GF100 mit hoher Wahrscheinlichkeit 529mm^2. Das ist kleiner als G80 zu G70. Das Argument "G80 war aber schneller als alle anderen" kann man wohl kaum gelten lassen. Wäre r600 schneller gewesen, wäre G80 dann plötzlich ein GPGPU Chip? Nein, bestimmt nicht.
Und sehe meinen edit. Dort steht meine Antwort.

Ailuros
2010-03-24, 00:14:28
Wenn Nvidia seit fünf Jahren weiß wo die Reise hingeht, hätte da nicht irgendwann mal jemandem auffallen müssen dass der Chip in 40nm nur begrenzt Sinn macht und dass es vllt besser wäre einen ähnlichen Weg wie ATI zu gehen und die aktuellen High-End Chips erstmal auf 40nm zu bringen?

GT212 war ein 384SP/DX10.1 chip der fuer 40G@TSMC geplant und wurde ca. Mitte 2008 storniert. Ergo es war wohl sogar mehr als Du Dich fragst vorgesehen aber als man Wind bekam dass 40G problematisch ist und das Resultat sowieso nicht besonders viel Sinn gemacht haette, wurde dieser an Seite zum kleineren GT214 storniert.

Dass es GT212/4 irgendwann gab und kurz vor dem tape out storniert wurden kannst Du auch bei SA nachlesen.

Uebrigens lag GF100 knapp ueber 4 Jahre in Entwicklung genauso wie G80.

urfaust
2010-03-24, 00:21:09
beste Konsole

sorry für OT

welche Konsole ist denn momentan "die Beste"?
Bin da gar nicht up-to-date

Gast
2010-03-24, 00:23:05
Und zum Thema Charlie: TDP nicht getroffen, Clocks nicht getroffen, Performance nicht getroffen.
Fermi ist also mehr als nur 10% schneller, danke!

tombman
2010-03-24, 00:24:20
Sehen wir der Wahrheit ins Auge:
Fermi wird meßbar schneller als Zypresse sein, fühlbar schneller aber kaum.
Im Endeffekt zahlt man 100€ bis 150€ mehr um eine HD5870 inkl. Phys-X/Cuda, mehr Speicher und besserem MGpu zu erhalten- sozusagen eine "gepimpte" Version einer HD5870.

Fatal ist nur, daß das 6 Monate gedauert hat, vorallem da AMD jetzt mit ebenfalls gepimpten HD5870ern kontert- 2GB, Eyefinity, Oced.

Dh: Gleichstand :ugly:

Gott, ich hasse Gleichstand :biggrin:

Ailuros
2010-03-24, 00:27:13
Alle Chips lieferten aber, wenn ich mich korrekt erinnere, zu ihrer Zeit eine bessere Performance und NV40 sogar noch besseres Featureset ab? G80 war der König seiner Zeit und so geheim wie es nur ging. GT200 ist der erste Chip der meine Thesen spiegelt, allerdings war er immer wesentlich performanter als die Konkurrenz.

Ich wuerde erwarten dass sich manche an das NV40/R4x0 Debakel noch erinnern. NV PR versuchte mit SM3.0 zu punkten als aber dieses in Spielen auftauchte war NV4x schon lange ueberholt. Sonst hatte die NV4x GPUs keinen wirklich ueberragenden Leistungsvorteil gegenueber den R4x0, manchmal sogar das Gegenteil.


Edit: Warum genau willst du den GF100 eigentlich als Gamerchip sehen bzw. siehst du die Differenz zu ca. 4 Jahren Marktführerschaft?

Welche Marktfuerhrschaft genau? Nur G80 machte fuer NV einen bombastischen Unterschied und dass von der einen Seite weil er Bildqualitaet und Leistung zur gleichen Zeit erhoehte und auch R600 zufaelligerweise zu spaet und zu mittelmaessig ankam.

Sonst hatte NV4x gegen R4x0 keinen ueberragenden Leistungsvorteil, G7x war alles andere als eine bessere Loesung als R5x0 nur eben ein diametrisch kleinerer und stromsparender die der NV half sehr stark im notebook Markt damit zu punkten.

GT200 ist inwiefern wesentlich performanter als die Konkurrenz? GTX280 war um wie viel schneller als eine 4870 und die GTX285 genau um wie viel schneller als eine 4890?

Und um aufs einige Thema zurueckzukommen: wer zum Teufel erzaehlt dass der Unterschied zwischen GF100 und RV870 kleiner sein wird als zwischen GT200 und RV770?

Gast
2010-03-24, 00:37:35
Sehen wir der Wahrheit ins Auge:
Fermi wird meßbar schneller als Zypresse sein, fühlbar schneller aber kaum.
Im Endeffekt zahlt man 100€ bis 150€ mehr um eine HD5870 inkl. Phys-X/Cuda, mehr Speicher und besserem MGpu zu erhalten- sozusagen eine "gepimpte" Version einer HD5870.

Fatal ist nur, daß das 6 Monate gedauert hat, vorallem da AMD jetzt mit ebenfalls gepimpten HD5870ern kontert- 2GB, Eyefinity, Oced.

Dh: Gleichstand :ugly:

Gott, ich hasse Gleichstand :biggrin:

Der GF100 scheint aber deutlich weniger Einbrüche beim Frameverlauf zu haben und selbst wenn er bei avg. fps nicht viel schneller ist, so könnte dies dazu führen, dass er doch fühlbar deutlich schneller ist.

derguru
2010-03-24, 00:42:13
wo hast du frameverläufe gesehen?

pXe
2010-03-24, 00:42:20
...
Uebrigens lag GF100 knapp ueber 4 Jahre in Entwicklung genauso wie G80.

War da überhaupt schon genaueres über DX11 bekannt zum Anfang der Entwicklungszeit :confused:


pXe

Ailuros
2010-03-24, 00:52:20
War da überhaupt schon genaueres über DX11 bekannt zum Anfang der Entwicklungszeit :confused:
pXe

Ja sicher gab es zu dem Zeitpunkt schon etliche drafts fuer DX11 und die Richtlinien waren ziemlich klar. Anders glaubst Du dass in 2002 NV nicht wusste wie DX10 aussehen wird als sie mit G80 in die Startloecher gingen?

Saugbär
2010-03-24, 02:21:05
907 Seiten Spekulation und 3 Tage vor dem Launch immer noch keine gesicherten Fakten?
Respekt an die PR-Abteilung von Nvidia.
Wäre schön, wenn es ein Knaller würde, aber mittlerweile muß man wohl mit einem Knallfrosch zufrieden sein.

tombman
2010-03-24, 03:06:32
Wenns "da Ouberchip" geworden wäre, gäbs sicher mehr leaks- so lohnt es sich zuwenig :D

san.salvador
2010-03-24, 03:07:54
Ja sicher gab es zu dem Zeitpunkt schon etliche drafts fuer DX11 und die Richtlinien waren ziemlich klar. Anders glaubst Du dass in 2002 NV nicht wusste wie DX10 aussehen wird als sie mit G80 in die Startloecher gingen?
Hat sich nV nicht bei DX9 komplett verzettelt?

urfaust
2010-03-24, 03:11:25
Wenns "da Ouberchip" geworden wäre, gäbs sicher mehr leaks- so lohnt es sich zuwenig :D

mhhh...

Gast
2010-03-24, 05:30:56
Nehmt es leicht; Fermi wird ein Grafikchip. niemand hat wirklich ein Übermonster erwartet... nach 6 Monaten Verspätung und der Menge an Problemen schon gar nicht. Die einzig wichtige Frage (wie gut oder schlecht ist er dennoch?) wird in 2 Tagen beantwortet ;)

Ailuros
2010-03-24, 06:37:42
Hat sich nV nicht bei DX9 komplett verzettelt?

Ja deshalb gab es auch den NV30. Von da ab haben sich ihre DX9 GPUs Schritt fuer Schritt verbessert bis zum G80. ATI hat sich zugegeben nach dem R600 schneller "erhohlt", da zwischen diesem und RV770 nur RV670 lag.

Nehmt es leicht; Fermi wird ein Grafikchip. niemand hat wirklich ein Übermonster erwartet... nach 6 Monaten Verspätung und der Menge an Problemen schon gar nicht. Die einzig wichtige Frage (wie gut oder schlecht ist er dennoch?) wird in 2 Tagen beantwortet ;)

Potential scheint da zu sein; IMHO ist das eigentlichste Problem weniger die Frequenzen als die leistungs-optimierte Treiber. AMD hatte ganze 6 Monate Zeit und es war auch sicher kein Zufall dass ein Performance-Treiber wie Cat 10.3 erst jetzt ankommt. Wenn der erste Eindruck aber nicht so ist wie er sein sollte, hilft es auch nicht mehr viel.

Sascha1971
2010-03-24, 06:49:41
Average 20%? Hmmm ;D [Taschenrechner auspack]

Mach mal ein Screenshot vom Taschenrechner (mit Ergebnis natürlich) :biggrin:

Menace
2010-03-24, 07:11:31
niemand hat wirklich ein Übermonster erwartet...

Da widerspreche ich Dir. Viele haben so ein Übermonster erwartet.


Potential scheint da zu sein; IMHO ist das eigentlichste Problem weniger die Frequenzen als die leistungs-optimierte Treiber. AMD hatte ganze 6 Monate Zeit und es war auch sicher kein Zufall dass ein Performance-Treiber wie Cat 10.3 erst jetzt ankommt. Wenn der erste Eindruck aber nicht so ist wie er sein sollte, hilft es auch nicht mehr viel.

Hier im Forum wurde auch öfters behauptet, dass die Verspätung von Fermi nicht so schlimm sei, da sie dann mit "perfekten" Treibern die Grafikkarten veröffentlichen können.

Definitiv scheint er einen Vorsprung um 20% und mehr zu haben, sonst hätte y33H@ seinen Taschenrechner nicht ausgepackt. :biggrin: :wink:

Ailuros
2010-03-24, 07:12:24
Mach mal ein Screenshot vom Taschenrechner (mit Ergebnis natürlich) :biggrin:

*AiL nimmt Lichtstrahl und scheint auf das Taschenrechner display das nichts mehr sichtbar ist* :P

Knuddelbearli
2010-03-24, 07:14:50
Grundsätzlich sollte eine GPU nicht mehr als 40-50 Watt verbrauchen.
Aber, wer sich GF100 kauft, der wird auch die entsprechenden anderen Komponenten haben - dicke CPU, dickes Motherboard, viel RAM, viele Festplatten etc. Da kommt man alleine auf bestimmt ca. 100 Watt beim IDLEN ohne Grafikkarte. Da finde ich es schon absurd, sich solch ein ungetüm hinzustellen und damit zu 90% nur zu idlen...




Cool wie Love Sucks sich im wind dreht


Seine Aussagen bei der 4890:


Stimmt, die Leistung von mindesten 70 Watt werden immer und überall benötigt. Sei es beim Popeln während dem Idlen, beim Pokern oder beim Spielen.

[...]

Hat du eigentlich noch mehr Unsinn auf Lager, um das das Verschwenden von Strom beim nichtstun zu rechtfertigen?



Bei Dx 10.1 das selbe wenn interessieren die paar zusätzliche Effekte. Physikx wird aber hochgelobt. Und Tesselation auch das selbe als das Gerücht im Umlauf war das NV da miserabel abschneiden wird.

Ailuros
2010-03-24, 07:39:47
Da widerspreche ich Dir. Viele haben so ein Übermonster erwartet.

Rein technisch gesehen ist Fermi es insgesamt schon. Kann sein dass die Leistung zwar nicht genau auf dem erwarteten Nivaeu ist, aber ich denke es haben viele oefters erwaehnt dass zwar einige wichtige Aenderungen in der Architektur vorkamen aber wohl nicht zum Grad wie zwischen G7x und G80.

Je mehr die Treiber damals zulegten desto imposanter wurde G80 mit der Zeit und sein grosser Pluspunkt war eben dass er gleichzeitig Leistung und Bildqualitaet erhoehte. Beim GF100 hat sich hoffentlich bezueglich Filterungsqualitaet nichts geaendert aber ausser TMAA auf CSAA (unmittelbar brauchbar) und Tessellation (weitere Zukunft) sieht es nicht nach mehr aus.

Der Stromverbrauch in idle koennte enorm stoeren (mal sehen wie es genau in Echtzeit aussieht) und von da ab punktet momentan GF100 eben hauptsaechlich wo immer trisetup als Beispiel limitiert; meistens sogar eher bei den min fps als beim Durchschnitt.


Hier im Forum wurde auch öfters behauptet, dass die Verspätung von Fermi nicht so schlimm sei, da sie dann mit "perfekten" Treibern die Grafikkarten veröffentlichen können.

Ein etliche hundert engineers grosses Treiberteam braucht zumindest ein GF100 PC pro Mann damit die Treiberentwicklung wirklich loslegt. Kommt meistens erst nach dem Start der Massenproduktion, sonst benutzen wie ich mir das vorstelle etliche Kerle den gleichen PC. Ist aber meistens ueberall so. Hoechste Prioritaet bei jeglichem Launch ist Stabilitaet. Bugs und Schwaechen gibt es auch beim Launch und wenn all dieses beseitigt wird konzentriert man sich dann erst auf Leistungs-Optimierungen.

Gast
2010-03-24, 07:48:01
275W standen iirc nie zur Debatte. An die AIBs und die 3rd-Party-Cooler-Hersteller wurden andere Werte kommuniziert.

Ailuros hat bereits mehrmals angemerkt das die 275W von Charly bis zur Taktreduzierung korrekt waren. Und mit Verlaub, aber da glaube ich ihm eher als dir.

Gast
2010-03-24, 07:55:53
Nehmt es leicht; Fermi wird ein Grafikchip. niemand hat wirklich ein Übermonster erwartet... nach 6 Monaten Verspätung und der Menge an Problemen schon gar nicht. Die einzig wichtige Frage (wie gut oder schlecht ist er dennoch?) wird in 2 Tagen beantwortet ;)

Die wird schon früher beantwortet wär das erste mal das die Freaks auf das
NDA ende warten. Übermonster wirds schon beim Verbrauch.

Be aware that the 5870 is set as reference card, so those are not FPSs in the graph below, but differences in %.
See here.

Tested games, 2560*1600:
Call of Duty World at War, 4xAA, 16xAF
Company of Heroes, Opposing Fronts
S.T.A.L.K.E.R. Clear Sky, NoAA, NoAF
Call of Juarez: Bound in Blood, Maxed
Enemy Territory: Quake Wors, 8xAA, 16xAF
Farcry 2, DX10, HDR On, 4xAA
Crysis Warhead DX10
Dawn of War 2, Ultra
Fallout 3, Ultra, High-Res Texture Pack
HAWX, DX10, SSAO Very High, 4xAA
Resident Evil 5, DX10, Maxed
Wolfenstein, 8xAA, 8xAF, Maxed
Batman: Arkham Asylum, NoAA, Maxed
http://img709.imageshack.us/img709/9015/gtx480.jpg
http://forums.amd.com/forum/messageview.cfm?catid=12&threadid=130004&STARTPAGE=4&FTVAR_FORUMVIEWTMP=Linear

Gast
2010-03-24, 07:56:10
@ derguru

Target für 512 ALUs @ 1,5 GHz waren 289W. Aktuell sind es bei [angeblich] 480 ALUs @ 1,4 GHz "nur" 250W TDP. Charlie hat weder das eine noch das andere genannt, sondern gepflegt in die Mitte gegriffen.

Du verwechselst da was. Während du FUD aufgesessen bist hatte Charly recht. Siehe:

Ich schliesse momentan die 15SMs fuer die 480 nicht mehr aus. Wie dem auch sei beeinflusst die Deaktivierung eines SMs sehr wenig bis gar nicht den Stromverbrauch. Originaler TDP bei leicht hoeheren Frequenzen war tatsaechlich bei 275W und sank jetzt auf 250W mit 700/1400/900+

Gast
2010-03-24, 08:00:03
Die wird schon früher beantwortet wär das erste mal das die Freaks auf das
NDA ende warten. Übermonster wirds schon beim Verbrauch.

Be aware that the 5870 is set as reference card, so those are not FPSs in the graph below, but differences in %.
See here.

Tested games, 2560*1600:
Call of Duty World at War, 4xAA, 16xAF
Company of Heroes, Opposing Fronts
S.T.A.L.K.E.R. Clear Sky, NoAA, NoAF
Call of Juarez: Bound in Blood, Maxed
Enemy Territory: Quake Wors, 8xAA, 16xAF
Farcry 2, DX10, HDR On, 4xAA
Crysis Warhead DX10
Dawn of War 2, Ultra
Fallout 3, Ultra, High-Res Texture Pack
HAWX, DX10, SSAO Very High, 4xAA
Resident Evil 5, DX10, Maxed
Wolfenstein, 8xAA, 8xAF, Maxed
Batman: Arkham Asylum, NoAA, Maxed
http://img709.imageshack.us/img709/9015/gtx480.jpg
http://forums.amd.com/forum/messageview.cfm?catid=12&threadid=130004&STARTPAGE=4&FTVAR_FORUMVIEWTMP=Linear

http://img709.imageshack.us/img709/9015/gtx480.jpg

Ailuros
2010-03-24, 08:01:28
Ailuros hat bereits mehrmals angemerkt das die 275W von Charly bis zur Taktreduzierung korrekt waren. Und mit Verlaub, aber da glaube ich ihm eher als dir.

Ich hab's direkt vom Maul des Loewen. Man sagte zwar nur dass sie Aenderungen der letzten Minute vornahmen um den TDP zu reduzieren, aber was miaut wohl auf einem Ziegeldach? *purrrrrrrrrrrrrrrr*

Zurueck zum Thema:

GTX480 auseinandergelegt:

http://www.atomicmpc.com.au/Gallery/170368,nvidia-gtx480-disassembly-guide.aspx/1

Ich kann leider durch die Veschmierung nicht die letzten Ziffern rechts erkennen aber es sieht mir nach 04 aus:

http://i.haymarket.net.au/Galleries/20100324113532_IMG_0209%20copy.jpg

Wenn ja dann 04= 0.4ns (5Gbps): http://www.samsung.com/global/business/semiconductor/products/dram/downloads/Graphics_code.pdf

Raff
2010-03-24, 08:05:07
... übelst untertakteter Speicher. Gutes OC-Potenzial? :naughty: Wohl eher Unterversorgung, um die Leistungsaufnahme zu drücken.

MfG,
Raff

Gast
2010-03-24, 08:07:11
Wie soll jemand da rangekommen sein?

http://i42.tinypic.com/9vgvt4.jpg

Ailuros
2010-03-24, 08:07:31
... übelst untertakteter Speicher. Gutes OC-Potenzial? :naughty: Wohl eher Unterversorgung, um die Leistungsaufnahme zu drücken.

MfG,
Raff

Ich hoffte eigentlich dass jemand vielleicht das Bild besser entziffern kann, denn ich bin mir ueber das "04" ganz rechts auch nicht sicher.

N0Thing
2010-03-24, 08:13:26
Wie soll jemand da rangekommen sein?

http://i42.tinypic.com/9vgvt4.jpg


Photoshop? Die Treiberversion paßt nicht, sollte doch auf x56 enden. Link (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7888692&postcount=14574)


Ich hoffte eigentlich dass jemand vielleicht das Bild besser entziffern kann, denn ich bin mir ueber das "04" ganz rechts auch nicht sicher.


Bei einem anderen Bild erkennt man die 04 recht gut: http://i.haymarket.net.au/Galleries/20100324113535_IMG_0212%20copy.jpg

PCGH_Raffael
2010-03-24, 08:21:40
Wie soll jemand da rangekommen sein?

http://i42.tinypic.com/9vgvt4.jpg

Das ist ein Fake. Unsere aktuellen Benchmarks sehen anders aus.

Ich hoffte eigentlich dass jemand vielleicht das Bild besser entziffern kann, denn ich bin mir ueber das "04" ganz rechts auch nicht sicher.

Es ist eine 04. ;)

MfG,
Raff

Gast
2010-03-24, 08:23:23
Nehmt es leicht; Fermi wird ein Grafikchip. niemand hat wirklich ein Übermonster erwartet... nach 6 Monaten Verspätung und der Menge an Problemen schon gar nicht. Die einzig wichtige Frage (wie gut oder schlecht ist er dennoch?) wird in 2 Tagen beantwortet ;)
Photoshop? Die Treiberversion paßt nicht, sollte doch auf x56 enden. Link (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7888692&postcount=14574)

Er schreibt in dem post
The scores were a little higher for the ES card with the second set of drivers but nothing record-braking.

Core temp idle was 58C, core temp load around 86-90C, which was good.
It's laud, but not 5800Ultra.
In the tesselation tests, the GTX-ul won with +53% vs 5870, but this is as relevant as the 5-point parallelism issue where the The tesselation performance wasRAdeon wins with 350%+.

Idle power is at least 3 times that of the 5870 and the drained power at load was 283W. The official 480 will have less drained power because it will have a whole shader cluster disabled.

AnarchX
2010-03-24, 08:23:39
Ich hoffte eigentlich dass jemand vielleicht das Bild besser entziffern kann, denn ich bin mir ueber das "04" ganz rechts auch nicht sicher.
Beim 2. Chip von oben sieht man es doch deutlich: http://i.haymarket.net.au/Galleries/20100324113535_IMG_0212%20copy.jpg

Aber wenn man Charlie glaubt, ist ja der IMC verbugt und kann schnellen Speicher nur bei niedrigem Takt betreiben.:D

Wenn das nicht stimmt, wären 250GB/s @ 1.3GHz ein nettes OC-Potential.

Eggcake
2010-03-24, 08:28:24
The official 480 will have less drained power because it will have a whole shader cluster disabled.
Wat? Falls das stimmen sollte - haben die Reviewer die vollen 512SPs?

Gast
2010-03-24, 08:33:23
Nein bloß der Typ hat angeblich noch ein ES mit 512Sps, aber nur 600MHz Core-Takt.

Eggcake
2010-03-24, 08:36:49
Ah

Gast
2010-03-24, 08:57:02
http://www.xtremesystems.org/forums/showpost.php?p=4302969&postcount=1207

Wird immer toller.

fizzo
2010-03-24, 09:00:25
Nehmt es leicht; Fermi wird ein Grafikchip. niemand hat wirklich ein Übermonster erwartet... nach 6 Monaten Verspätung und der Menge an Problemen schon gar nicht. Die einzig wichtige Frage (wie gut oder schlecht ist er dennoch?) wird in 2 Tagen beantwortet ;)

Schau mal ein paar 100 Seiten zurück im Thread:

Wie auch immer, jedenfalls tut sich endlich mal wieder ordentlich was an der Performance.

RV870 ist schneller als ich erwartet habe und GT300 wird wohl nochmal eins drauflegen. Zumindest sollte NVIDIA dies tunlichst tun.

Doppelte GTX280 Leistung sollte man wohl angestrebt haben - alles andere wäre dann wie beim GT200, nur viel schlimmer.

Meine Kugel sagt:

Kaufbar: Jänner/Februar
Leistung: 2x GTX280, allerdings superstark bei GPGPU...

2xGTX280 wäre fast schon zuwenig, ich glaube eher 2,5x oder mehr, ähnlich wie damals von G70 zu G80...

2x kommt hin, war bisher so gut wie immer bei den Generationssprüngen ab der 6er Reihe.

Es wäre aber zu wenig, vor allem bei der Chipgröße.

link (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170&page=102)

boxleitnerb
2010-03-24, 09:04:00
Aus dem beyond3d Forum:

http://i40.tinypic.com/2khw2g.jpg
http://i39.tinypic.com/nfskn8.png

Zum Vergleich (Quelle guru3d): Eine 5870 1GB schafft im Performance Preset ca. 16k GPU Score.

Schlammsau
2010-03-24, 09:06:13
Aus dem beyond3d Forum:

http://i40.tinypic.com/2khw2g.jpg
http://i39.tinypic.com/nfskn8.png

Mit PhysX mal wieder.... :facepalm:

Damit die Ergebnisse mal wieder besser aussehen, als sie wirklich sind.

Gast
2010-03-24, 09:08:20
ach hört auf die benchen doch alle den Fermi mit nem Wolfdale :D

boxleitnerb
2010-03-24, 09:11:55
Mit PhysX mal wieder.... :facepalm:

Damit die Ergebnisse mal wieder besser aussehen, als sie wirklich sind.

Das siehst du wo?

http://www.hardware-infos.com/news.php?news=2235

Zitat:
"Dass mit einer separaten PhysX-Karte die CPU-Score aber auch höher ausfällt, will man beibehalten, weil dies etwas "anderes" sei."

Ich bezog mich auf die GPU Score. Wenn diese auch durch PhysX beeinflusst wird, korrigiere mich. Imho benchen die meisten aber nur die Gametests dafür und da greift kein PhysX. Oder liege ich damit falsch?

Nazar
2010-03-24, 09:15:07
Tesslation wurde so ausgelegt das sie schon in der ersten DX11 NV Gen praktisch eingesetzt werden kann z.b. sowas kostet Transistoren und bringt dem Gamer praktischen nutzen.

Praktischer Nutzen?
Bei wieviel Spielen bietet oder wird Tesselation in naher Zukunft praktischen Nutzen bringen?
Bisher ist keines bekannt, was bei höchster BQ + Tesselation spielbare Frames liefert.
Ist jetzt Tesselation > BQ?
Soweit ich die Diskussionen um Tesselation verfolgt habe, ist es eher ein Teil der BQ, der aber enorm viel Performance frisst, wenn er nur aufgesetzt ist, und selbst in aktuellen Spielen kaum BQ Vorteile bietet.

Das was Tesselation momentan in Metro2033 anbietet, ähnelt mehr Trueform.
Die tesselierten Objekte wirken aufgeblasen und die Texturen werden extrem gestreckt.

Natürlich wird in der Zukunft Tesselation eine sehr gewichtige Rolle spielen, doch wenn es ähnlich lange und so "umfangreich" wie mit DX10 läuft, dann haben wir ab jetzt min. 2 Jahre Zeit, bis der praktische Nutzen greifbar wird.
Oder aber, jemand schmeisst jetzt eine Next "Next Generation" Konsole auf den Markt, die DX11 kann.

Schlammsau
2010-03-24, 09:17:26
Das siehst du wo?

http://www.hardware-infos.com/news.php?news=2235

Zitat:
"Dass mit einer separaten PhysX-Karte die CPU-Score aber auch höher ausfällt, will man beibehalten, weil dies etwas "anderes" sei."

Ich bezog mich auf die GPU Score. Wenn diese auch durch PhysX beeinflusst wird, korrigiere mich. Imho benchen die meisten aber nur die Gametests dafür und da greift kein PhysX. Oder liege ich damit falsch?

Oups....verguckt, ist doch ohne PhysX. :redface:

Ich schaff mit einer 5850@800/1200Mhz, nenn Score von ~P16300 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7884658#post7884658).
Und das bei einem deutlich niedrigeren CPU Score von 14722.....

Gast
2010-03-24, 09:18:14
Also im Luxx sind einige Mods (die die Benchwerte von GTX480 kennen) doch ziemlich schadenfroh und freuen sich auf die dummen Gesichter speziell von Usern die vermehrt als NV-Fans aufgefallen sind. Allerdings sagen sie auch, dass es Fälle geben wird wo die GTX480 anscheinend sehr viel schneller sein wird, was ja jetzt auch nicht wirklich überrascht.

Schlammsau
2010-03-24, 09:21:25
Zum Vergleich (Quelle guru3d): Eine 5870 1GB schafft im Performance Preset ca. 16k GPU Score.


Eine unübertaktete 5870 schafft mit Sicherheit an die P17500 bis P18000, mit aktuellen Treibern.
Wenn ich schon P16300 schaffe.

svenw
2010-03-24, 09:24:48
Tesselation kann ne Menge bringen. Übertrieben gesprochen kann es aus nem Würfel einen Ball machen. Das ist prinzipiell gut für die Performance, nur leider bedeutet das auch das alle die Tesselation abschalten oder gar nciht haben einen Würfel sehen, was die sicher nicht so toll finden. Somit haben die aktuelle Modelle mehr Dreiecke als sie bei eingeschalteter Tesselation haben müßten, was wiederum bedeutet, das Tesselation momentan nur minimale Effekte bei, teilweise, starken Performance Einbrüchen bringt.

Ailuros
2010-03-24, 09:27:18
Praktischer Nutzen?
Bei wieviel Spielen bietet oder wird Tesselation in naher Zukunft praktischen Nutzen bringen?
Bisher ist keines bekannt, was bei höchster BQ + Tesselation spielbare Frames liefert.
Ist jetzt Tesselation > BQ?

Das mit der nahen Zukunft bezweifle ich persoenlich wenn die meisten Spiele nicht von Grund auf in der Zukunft mit Tessellation im Hinterkopf. Tessellation generiert Geometrie ohne dass die Resourcen so stark beinflusst werden wie sich manche denken. Man redet hier von patches und hier kann der output patch von 100x bis 1000x mal so viele vertices haben als der input patch.

Und ja natuerlich kann gut implementierte Tessellation die Bildqualitaet um einiges erhoehen.

Soweit ich die Diskussionen um Tesselation verfolgt habe, ist es eher ein Teil der BQ, der aber enorm viel Performance frisst und selbst in aktuellen Spielen kaum BQ Vorteile bietet.

Sehr stark vereinfacht: was klingt besser? Du codest ein Modell und schmierst als Nachgedanken noch Tessellation drueber oder Du codest von Anfang an ein Modell mit variablen Tessellations-Werten (fuer high end und lower end) mit zich kleinen Dreiecken?

Und nein es frisst keine Unmengen an Resourcen wenn man bedenkt wie billig man zich Mal hoehere Geometrie in der DX11 Tessellations-pipeline generieren kann.

Das was Tesselation momentan in Metro2033 anbietet, ähnelt mehr Trueform.
Die tesselierten Objekte wirken aufgeblasen und die Texturen werden extrem gestreckt.

Siehe oben. Und ich befuerchte dass wir auch bekloppte Phaenomaene sehen werden wie "over-Tessellation". Denk nach wie es mit pixel shadern am Anfang aussah; jeder verdammte Felsen oder weiss der Geier was noch musste wie der Hintern eines Affen glaenzen damit auch jeder Blinde sehen kann dass man PS verwendet hat. In der Zwischenzeit hat sich das Ganze auch Gott sei Dank etwas normalisiert. Ich erwarte auch hier irgendwelche sinnlose Uebertreibungen damit auch jeder unwissende Betrachter sehen kann "aha Tessellation!" egal ob Du eventuell auch dann Michelin-Maennchen ala Truform/Serious Sam sehen wirst.

Natürlich wird in der Zukunft Tesselation eine sehr gewichtige Rolle spielen, doch wenn es ähnlich lange und so "umfangreich" wie mit DX10 läuft, dann haben wir ab jetzt min. 2 Jahre Zeit, bis der praktische Nutzen greifbar wird.

Die Frage ist ob Entwickler bzw. ISVs die Zeit (und u.a. auch das Talent) haben Tessellation richtig zu implementieren oder ob es lediglich auf existierenden game code bzw. Modelle einfach druebergeschmiert wird.

Fuer den Anfang sagen wir einfach mal dass es keine Entschuldigungen mehr gibt fuer eckige Koepfe wie z.B. in Doom3. Entwickler haben mit Tessellation ein neues Spielzeug und natuerlich bleibt abzusehen ob und wie sie es ausnutzen werden.

Gast
2010-03-24, 09:28:36
Und zum Thema Charlie: TDP nicht getroffen, Clocks nicht getroffen, Performance nicht getroffen.

Achja? Seine 280 Watt lagen bei 600/1200MHz an und 512, oder 448 oder 480...
Seine 275 bezogen sich auf die oberen Werte. Jetzt sind wir bei 700/1400 und 480 und 250 Watt. Nunja, das ist wirklich sehr akkurat.

Da sprechen wieder die wahren Experten. Wenn Charlie im Januar schreibt, die TDP soll bei 275 Watt sein und am Ende liegen sie bei angeblich 250 Watt dann ist das wieder ein gefundenes Fressen. Er liegt ja satte 25 Watt daneben, das sind ja Welten. Einfach nur lächerlich, sich darüber lustig zu machen, er hätte die TSP Monate vorher nicht aufs Watt genau getroffen. Noch nicht mal die Nvidia Ingenieure haben die TDP wirklich gekannt im Januar. Sowas nennt sich Richtwert oder Größenordnung, so einen Wert kann man nicht exakt vorhersagen. Durch Optimierung bekommt man sowas immer runter wenns sein muss. Wenn ich die Aussagen vieler in den letzten Monaten verfolge, dann hatten die meisten mit weit weniger gerechnet. Charlie war einer der wenigen, die von hoher TDP gesprochen haben. Achja, ich persönlich glaube eher dieser Aussage:

http://forum.beyond3d.com/showpost.php?p=1411515&postcount=4500

295W is the power consumption of the part with 512CC and 725+Mhz Core (not going to see these for a while, I guess not everyone liked them.)
275W is the power consumption of the A3 part, with 480CC and 725+Mhz Core and 1050Mem i.e. OC GTX480 models
250W is the power consumption of the A3 part, with 480CC and 700Mhz Core and ~950Mem, i.e. GTX480.

Das klingt plausibler als vieles, was hier erzählt wurde. Passt auch ins Bild:

Hot, slow, late and unmanufacturable

Von hinten aufgerollt:

1) Unmanufacturable: Wo sind die 512 Shader-Cores? Wohl doch nur 480. Siehe Punkt 2 oben, 275 Watt TDP. Konnte Charlie ja auch nicht ahnen, dass Nvidia den Takt noch senken muss. Was Taktraten anging war er wohl zu optimistisch. Das hat Nvidia sicher nicht ganz freiwillig gemacht.
2) Late: Darüber braucht man sich wohl nicht mehr zu unterhalten.
3) Slow: So wie sich die Gerüchte rausstellen wird die GTX 480 nicht wesentlich schneller sein als die HD5870. Auf jeden Fall nicht soviel schneller, wie von vielen gepredigt und auch erwartet.
4) Hot: Die letzten Werte, die im Raum stehen sind etwa 70° idle und bis zu 100° unter Last.

Charlie hat offensichtlich etwas gegen Nvidia. Keine Frage, seine Schreibweise ist teilweise wirklich übertrieben und sicher trifft nicht alles zu, was er in den Raum stellt. Aber es sollte der eine oder andere erkennen, dass der Kerl wirklich seine Quellen haben muss, da vieles von dem was er über den GF100 gesagt hat, wirklich eingetroffen nichts. Da hilft das ganze Heulen und Beschimpfen nichts.

boxleitnerb
2010-03-24, 09:29:38
Ich finde keine P-Ergebnisse mit 10.3, aber die 17500-18000 dürften schon hinkommen.

Gast
2010-03-24, 09:30:24
Lange Rede kurzer Sinn
Egal wie, Fermi wird Ati nicht wie ein Relikt aus der Urzeit aussehen lassen.
Er kommt 6 Monate Später und ist nicht mehr Zeitgemäß im Verbrauch.
Er ist schlichtweg nichts besonderes.

Nazar
2010-03-24, 09:31:16
Das mit der nahen Zukunft bezweifle ich persoenlich wenn die meisten Spiele nicht von Grund auf in der Zukunft mit Tessellation im Hinterkopf. Tessellation generiert Geometrie ohne dass die Resourcen so stark beinflusst werden wie sich manche denken. Man redet hier von patches und hier kann der output patch von 100x bis 1000x mal so viele vertices haben als der input patch.



Sehr stark vereinfacht: was klingt besser? Du codest ein Modell und schmierst als Nachgedanken noch Tessellation drueber oder Du codest von Anfang an ein Modell mit variablen Tessellations-Werten (fuer high end und lower end) mit zich kleinen Dreiecken?

Und nein es frisst keine Unmengen an Resourcen wenn man bedenkt wie billig man zich Mal hoehere Geometrie in der DX11 Tessellations-pipeline generieren kann.



Siehe oben. Und ich befuerchte dass wir auch bekloppte Phaenomaene sehen werden wie "over-Tessellation".



Die Frage ist ob Entwickler bzw. ISVs die Zeit (und u.a. auch das Talent) haben ie Tessellation richtig zu implementieren oder ob es lediglich auf existierenden game code bzw. Modelle einfach druebergeschmiert wird.

Fuer den Anfang sagen wir einfach mal dass es keine Entschuldigungen mehr gibt fuer eckige Koepfe wie z.B. in Doom3. Entwickler haben mit Tessellation ein neues Spielzeug und natuerlich bleibt abzusehen ob und wie sie es ausnutzen werden.

Sehe ich genauso. Leider schaffe ich es nicht immer mich so genau auszudrücken.
Danke für die Hinweise :wink:

Ailuros
2010-03-24, 09:37:31
Eine unübertaktete 5870 schafft mit Sicherheit an die P17500 bis P18000, mit aktuellen Treibern.
Wenn ich schon P16300 schaffe.

Nochmal zum mitlesen originale landing zone fuer GF100 top dog in 3dfart vantage war ~22k fuer P und ~10k fuer Q. Im letzteren liegt die 480 irgendwo bei 9300-9600 je nach System, ergo macht mir alles >20k keinen besonderen Eindruck.

Als ich vor geraumer Zeit fragte wie die nicht uebertaktete 5870 im gleichen System aussieht war die Antwort >17k. Direkt von NV und nix mit Uebertaktungs-Uebungen dafuer.

Odal
2010-03-24, 09:38:33
http://www.xtremesystems.org/forums/showpost.php?p=4302969&postcount=1207

Wird immer toller.

definitiv fake!!111

das sind die korrekten leaks

http://666kb.com/i/bhrbydop8gzbxv6pj.jpg

:rolleyes:

edith: quickfix :D

Eggcake
2010-03-24, 09:39:15
Sehe ich genauso. Leider schaffe ich es nicht immer mich so genau auszudrücken.
Danke für die Hinweise :wink:

Hier sieht man ganz gut, wie es in Unigine eingesetzt wird und wie gut man es anpassen kann - selbst mit wenigen Dreiecken sieht es schon sehr passabel aus. Sowas in zukünftigen Games wäre natürlich fantastisch, da man die Grafik an "jede" Hardware flüssig anpassen kann.

http://www.youtube.com/watch?v=axMAtpYphLA


So ein Wireframe würde mich in Metro auch noch interessieren :ugly:

PCGH_Raffael
2010-03-24, 09:40:48
definitiv fake!!111

das sind die korrekten leaks

http://666kb.com/i/bhrbrppfrrznb3nhz.jpg

:rolleyes:

Das sind beides schlechte Fakes, da wir nie Nachkommastellen bei den Min-Fps angeben, der Geforce-Treiber Bullshit ist und auch die Kartenselektion nicht zutrifft. ;) Oh, und das Testystem ist auch falsch.

MfG,
Raff

Gast
2010-03-24, 09:43:21
Auch wenn für einige jetzt eine Welt zusammenbricht, strategisch gesehen hat Ati NV in den Allerwertesten getreten, das man es auf dem Mond noch hören kann.
Und das ist es was für Firmen das meiste Gewicht hat.

Gast
2010-03-24, 09:44:26
Trotzdem sollen laut manchem diese Werte durchaus realistisch sein, auch wenn das PCGH-Diagramm ein Fake ist. Vielleicht will auch einer PCGH an die Karre fahren.

Gast
2010-03-24, 09:45:32
Und das ist es was für Firmen das meiste Gewicht hat.

Lol?
Firmen die Grafikkarten in ihren Rechnern verbauen? Die intressiert eher Rentabilität und sonst garnix. Das höchste der Gefühle wär, dass sie sich für Treiberstabilität intressiern.

MiamiNice
2010-03-24, 09:47:57
Sorry MiamiNice, aber um keinen Stunk zu bekommen, kennzeichne ich diesen "Bench" ausdrücklich als FAKE

Komische Fake´s sind heute im Umlauf. Der echte ist doch schon seit Tagen im Netz ...

http://www.abload.de/img/bhrbrppfrrznb3nhzfjnn.jpg

Das ist der Wahrheit.

James Ryan
2010-03-24, 09:48:12
Auch wenn für einige jetzt eine Welt zusammenbricht, strategisch gesehen hat Ati NV in den Allerwertesten getreten, das man es auf dem Mond noch hören kann.
Und das ist es was für Firmen das meiste Gewicht hat.

Eigentlich war das bei GT200 vs. RV770 schon so.
NVIDIA muss mit der nächsten Generation reagieren, teure stromfressende Riesen-GPUs, die gerade mal 10% schneller als die Konkurrenz sind, haben keine Zukunft mehr.

MfG :cool:

Gast
2010-03-24, 09:51:03
Lol?
Firmen die Grafikkarten in ihren Rechnern verbauen? Die intressiert eher Rentabilität und sonst garnix. Das höchste der Gefühle wär, dass sie sich für Treiberstabilität intressiern.

Sorry, ich dachte man kann soweit mitdenken
Firmen sind ständig im Kampf ums Überleben und müssen Gewinne einfahren, das ist gemeint. Nicht Firmen die vieleicht die Karten in ihre PCs bauen.
Also Ati im Kampf gegen Nvidia in diesem Fall.

Amboss
2010-03-24, 09:53:56
@Moderator: Könnt ihr mal diese Photoshop PC-Games-Hardware Verarschungen löschen, ich denke es wird von den PCGames Leuten nicht gerne gesehen, dass ihr Magazin-Name für solche Späße benutzt wird.

Sascha1971
2010-03-24, 09:55:54
@Redaktion: Könnt ihr mal diese Photoshop PC-Games-Hardware Verarschungen löschen, ich denke es wird von den PCGames Leuten nicht gerne gesehen, dass ihr Magazin-Name für solche Späße benutzt wird.


Es bringt aber auch indirekt Werbung für die.
Weil nun sehr viele, die PCGH nicht kennen nun auf deren Homepage mal schauen.

Gast
2010-03-24, 09:57:30
Sorry, ich dachte man kann soweit mitdenken
Firmen sind ständig im Kampf ums Überleben und müssen Gewinne einfahren, das ist gemeint. Nicht Firmen die vieleicht die Karten in ihre PCs bauen.
Also Ati im Kampf gegen Nvidia in diesem Fall.

Tja und genau da fällt auf, dass Nvidia ordentliche Gewinne trotz größerer DIEs macht und ATI naja... kaum der Rede wert und AMD als ganzes der übliche Verlustkandidat mit enormen Verschuldungsgrad.

Die großen DIEs lassen sich halt gut über das Profi Segment querfinanzieren.

Popeljoe
2010-03-24, 09:58:48
@Moderator: Könnt ihr mal diese Photoshop PC-Games-Hardware Verarschungen löschen, ich denke es wird von den PCGames Leuten nicht gerne gesehen, dass ihr Magazin-Name für solche Späße benutzt wird.
Habe es ausdrücklich als Fake gekennzeichnet.
Nur, damit nicht wieder einige Leute meinen, diesen "Bench" als Grundlage für eine Fanboyschlacht zu nutzen.

Ailuros
2010-03-24, 09:59:04
Da sprechen wieder die wahren Experten. Wenn Charlie im Januar schreibt, die TDP soll bei 275 Watt sein und am Ende liegen sie bei angeblich 250 Watt dann ist das wieder ein gefundenes Fressen. Er liegt ja satte 25 Watt daneben, das sind ja Welten. Einfach nur lächerlich, sich darüber lustig zu machen, er hätte die TSP Monate vorher nicht aufs Watt genau getroffen. Noch nicht mal die Nvidia Ingenieure haben die TDP wirklich gekannt im Januar. Sowas nennt sich Richtwert oder Größenordnung, so einen Wert kann man nicht exakt vorhersagen. Durch Optimierung bekommt man sowas immer runter wenns sein muss. Wenn ich die Aussagen vieler in den letzten Monaten verfolge, dann hatten die meisten mit weit weniger gerechnet. Charlie war einer der wenigen, die von hoher TDP gesprochen haben.

AMD sagte mir vor Charlie ca. 280W TDP, ergo beindruckte mich seine 275W Behauptung kein bisschen.

http://forum.beyond3d.com/showpost.php?p=1411515&postcount=4500[/url]

neliz liegt hier falsch mit der 512SP TDP und ich hab es auch in der Zwischenzeit mit ihm privat geloest. Es gab nirgends und nie einen 295W TDP. Die 275W TDP von Charlie entsprachen in etwa AMD's Angaben und waren wohl fuer den originalen 16SM@1450 chip.

NV bestaetigte selber dass sie durch Aenderungen den TDP weiter unten angesetzt haben.

Das klingt plausibler als vieles, was hier erzählt wurde. Passt auch ins Bild:

Die 16SM wird spaeter nachgeladen. Wie sie es nennen werden ist ja auch egal aber koennte etwas doofes wie "Ultra" sein. Wann dieses sein wird? Wohl zum gleichen Zeitpunkt wo sie 2070-er/6GB Teslas mit immer noch bis zu 225W TDP ankommen werden.

Von hinten aufgerollt:

1) Unmanufacturable: Wo sind die 512 Shader-Cores? Wohl doch nur 480. Siehe Punkt 2 oben, 275 Watt TDP. Konnte Charlie ja auch nicht ahnen, dass Nvidia den Takt noch senken muss. Was Taktraten anging war er wohl zu optimistisch. Das hat Nvidia sicher nicht ganz freiwillig gemacht.

Das 2SM Problem kam erst bei der Massenproduktion im Februar auf. Unmanufacturable kann vieles heissen. Bis zum Januar 2010 war GF100 tatsaechlich nicht "herstellbar" dank zu radikal hohen Herstellungskosten. Ich bekam von AMD eine eingeschaetzte Kostensumme fuer Q3/4 GF100 Herstellung und diese lag nur ein Haar weg von NV's eigenen Behauptungen. TSMC Espionage ganz einfach.

2) Late: Darüber braucht man sich wohl nicht mehr zu unterhalten.

Siehe oben. Wenn TSMC IHVs schon irgendwo Anfang 2008 warnt dass grosse dies problematisch sein werden was die Herstellungskosten betrifft, dann sind sich die IHVs auch diesbezueglich bewusst. AMD verkleinerte ihren anfangs geplanten Cypress core und NV stornierte GT212 und GT214 die fuer Anfang 2009 unter 40G projeziert waren.

3) Slow: So wie sich die Gerüchte rausstellen wird die GTX 480 nicht wesentlich schneller sein als die HD5870. Auf jeden Fall nicht soviel schneller, wie von vielen gepredigt und auch erwartet.

Die 480 ist im Durchschnitt auch nicht nur 5% schneller als die 5870 wie SA behauptete. Egal ob es stimmt oder nicht solches Zeug generiert Schlagzeilen und SA ueberlebt von Werbungsmaterial. Es geht zwar keinen an aber ich hab zufaellig auch Einblick in die Affaere.

4) Hot: Die letzten Werte, die im Raum stehen sind etwa 70° idle und bis zu 100° unter Last.

Ja zum ersten, ~90C zum zweiten. Das Treiberteam werkelt gerade an dem Zeug rum aber keiner weiss natuerlich ob es ein hw leakage Problem ist oder ein Treiberfurz. Der erste Fall klingt wahrscheinlicher um ehrlich zu sein.

Charlie hat offensichtlich etwas gegen Nvidia. Keine Frage, seine Schreibweise ist teilweise wirklich übertrieben und sicher trifft nicht alles zu, was er in den Raum stellt. Aber es sollte der eine oder andere erkennen, dass der Kerl wirklich seine Quellen haben muss, da vieles von dem was er über den GF100 gesagt hat, wirklich eingetroffen nichts. Da hilft das ganze Heulen und Beschimpfen nichts.

Nochmal NV versucht ihren eigenen internen leak zu finden der auf die eine oder andere Art zu Charlie bzw. SA fuehrt. Das peinliche an der Affaere ist nicht Charlie selber, sondern dass irgend ein NV Angestellter fuer den Dreck verantwortlich ist und hier muss NV ihre Scheissbude aufraeumen und nicht gegen Charlie in irgend einer Art agieren.

PCGH_Raffael
2010-03-24, 09:59:44
@Moderator: Könnt ihr mal diese Photoshop PC-Games-Hardware Verarschungen löschen, ich denke es wird von den PCGames Leuten nicht gerne gesehen, dass ihr Magazin-Name für solche Späße benutzt wird.

Hier kann gepostet werden, was will, solange jeder weiß, dass es sich um Fakes handelt (siehe oben). Die echten Werte gibt's Samstagnacht. :) Und dort stehen andere Zahlen.

MfG,
Raff

Ailuros
2010-03-24, 10:01:09
Habe es ausdrücklich als Fake gekennzeichnet.
Nur, damit nicht wieder einige Leute meinen, diesen "Bench" als Grundlage für eine Fanboyschlacht zu nutzen.

Es fliegt in der Zwischenzeit so oft im Netz rum dass selbst das loeschen hier nichts mehr bringt. Ich kann Dir aber sagen dass GF100-er trotz allem aus unerklaerlichem Grund miserabel in Crysis und Crysis Warhead abschlagen.

LovesuckZ
2010-03-24, 10:02:03
Warum ausgerechnet Crysis? Wieso ausgerechnet Crysis? Eine schreckliche Welt. :(

Gast
2010-03-24, 10:03:21
Tja und genau da fällt auf, dass Nvidia ordentliche Gewinne trotz größerer DIEs macht und ATI naja... kaum der Rede wert und AMD als ganzes der übliche Verlustkandidat mit enormen Verschuldungsgrad.

Die großen DIEs lassen sich halt gut über das Profi Segment querfinanzieren.


Es geht um die jetzige situation und ich denke das Ati hier einiges an Boden wieder gut gemacht hat. Wer weiß was dieser Abschnitt noch für Auswirkungen haben wird, langfristig. Desweiteren würde ich mir nicht anmaßen das wirklich zu beurteilen, wie die Zahlen wirklich sind :)

Eggcake
2010-03-24, 10:03:32
Kann es denn nicht einfach ein Treiberproblem sein [@CrysisWerte]?

Edit: Okay, dumme Frage - natürlich kann es...ich frage anders:
Ist denn aufgrund der theoretischen Werte die Möglichkeit gegeben, dass tatsächlich etwas speziell in Crysis limitieren könnte?

Ailuros
2010-03-24, 10:05:17
Warum ausgerechnet Crysis? Wieso ausgerechnet Crysis? Eine schreckliche Welt. :(

Wenn ein zukuenftiger Treiber das heutige Bild korrigiert will ich Deine Reaktion dann abwarten :rolleyes:

Gast
2010-03-24, 10:05:18
@Ailuros

Danke für die Aufklärung. Ich wollte auch lediglich zum Ausdruck bringen, dass Charlie bessere Quellen hat als viele hier und das die ewigen Anschuldigungen nicht immer berechtigt sind. Da scheinen sich Befürworter immer die richtigen Aussagen rauszusuchen und die Gegner immer die falschen ;)

@PCGH_Raffael

Ist Werbung in der Signatur erlaubt???

PCGH Print 04/2010: Jetzt im Handel!

Gast
2010-03-24, 10:06:12
http://www.xtremesystems.org/forums/showpost.php?p=4302969&postcount=1207

Wird immer toller.

Na wenn das nicht Ärger für PCGH bedeutet. Ich frage mich wie sowas leaken kann.

Die Settings sind ja problemlos erkennbar.... 1920x1200, 4xAA/no AF (warum?) und das übliche PCGH-Testsystem

Das Ergebnis finde ich jetzt nicht sehr berauschend, wenn man Preis/ Stromverbrauch der Karten mit berücksichtigt

deekey777
2010-03-24, 10:06:12
Paar Worte zu Heaven 2.0:
http://www.overclock.net/8840643-post67.html
Ua:
We never got to get out hands on 1.1, and Unigine would not send it to me, stating that they did not produce it. I later found out that nVidia bought a license and produced 1.1. As far as I can see, this is not a real world scenario.

Gast
2010-03-24, 10:07:30
LZ so sehr du Crysis jetzt auch für belanglos erklären willst, es wird dir nicht gelingen, denn es ist und bleibt immernoch eines der hardwarehungrigsten Games und ist auch grafisch weiterhin absolut top.

Ja ich weiß du würdest gerne Tests der GTX480 sehen die nur aus dem weltbewegenden Metro 2033 und Unigine Heaven bestehen, aber sorry das wird nicht passieren.

Sascha1971
2010-03-24, 10:07:42
Hier kann gepostet werden, was will, solange jeder weiß, dass es sich um Fakes handelt (siehe oben). Die echten Werte gibt's Samstagnacht. :) Und dort stehen andere Zahlen.

MfG,
Raff

Warum Sa Nacht erst ?
Dachte Sa um 1 uhr (unserer zeit) läuft NDA aus.

Popeljoe
2010-03-24, 10:07:51
Es fliegt in der Zwischenzeit so oft im Netz rum dass selbst das loeschen hier nichts mehr bringt. Ich kann Dir aber sagen dass GF100-er trotz allem aus unerklaerlichem Grund miserabel in Crysis und Crysis Warhead abschlagen.
Interessant, aber letztlich kriegen wir immer nur einen kleinen Teil des Bildes zu sehen. Ich bin wirklich auf Samstag morgen gespannt, wenn wir das Bild in Gänze zu Gesicht bekommen!
Meine Vorraussage: ATI Fanboys werden schreien "zieht zuviel Strom" und die NV Fanboys schreien dagegen "Unser ist dafür aber länger!"
Und die liebe Moderation kann als Ordner in der Saalschlacht für Ruhe sorgen... :freak:

Eggcake
2010-03-24, 10:10:07
@Ailuros

Danke für die Aufklärung. Ich wollte auch lediglich zum Ausdruck bringen, dass Charlie bessere Quellen hat als viele hier und das die ewigen Anschuldigungen nicht immer berechtigt sind. Da scheinen sich Befürworter immer die richtigen Aussagen rauszusuchen und die Gegner immer die falschen ;)


Imho muss man bei Charlie einfach eine fette Filterbrille aufsetzen um den ganzen Crap zu filtern - was halt manchmal sehr schwer ist, da potenziell alles Crap sein kann. :>

@Sascha

Ich denke das meint er. Yeeha meinte afaik, Samstag 00:01 oder 01:01, eins von beiden.

mironicus
2010-03-24, 10:10:57
Wird der Unigene Heaven 2.0-Benchmark noch kurzfristig mit in die Tests einfließen?

Ailuros
2010-03-24, 10:19:08
Paar Worte zu Heaven 2.0:
http://www.overclock.net/8840643-post67.html
Ua:

Der gesamte Post hat noch weitere interessante Einzelheiten:

If you go into the heaven 2.0 directory, you will find heaven.zip. If you unpack that, you can see all the mesh files. If you have the free SDK, you will find optimized code that looks for specific hardware before defaulting to a secondary engine.

It doesn't name what it is looking for, but it looks for a specific hardware string, and when it is not found, it just falls back to the old render.

The problem with seaming is still not resolved.

The Tessellation optimization is not truly in place. Instead, we have a series of improved render methods that stack on top of each other. One major flaw with the engine that I already see in version 2.0 is that it is basically version 1.0 with new extensions added that I have not seen before. They are not DX11 library files. They are something else.

I'm not going to say it's nVidia optimized, but it certainly drops a lot of tessellation in, without taking into consideration the fact that a computer will have to run other tasks while rendering it. The CPU usage is maxed out as well.

Running it on our NV simulator, I don't see any advantages, but out simulator is 9 months old, and exists in software to test for final game compatibility, and there are calls that do not exist in that simulator.

I suppose we will soon see. I still say Voxel rendering is more efficient. Seeing as Tessellation on the GTX 480 is handled through CUDA emulation, it can use as many stream processors as it needs to handle the tessellation... but this does not take into account out of order processing, Physx, scenario render, destructible environments, or any other real world scenario.

In short, version 2.0 looks as broken as version 1.0.

We never got to get out hands on 1.1, and Unigine would not send it to me, stating that they did not produce it. I later found out that nVidia bought a license and produced 1.1. As far as I can see, this is not a real world scenario.

The environments are pretty, but they failed to use tessellation gap fill by overlapping or crossing the seams. It looks like it was thrown together to meet a launch date.

Imho muss man bei Charlie einfach eine fette Filterbrille aufsetzen um den ganzen Crap zu filtern - was halt manchmal sehr schwer ist, da potenziell alles Crap sein kann. :>

Die Frage ist aber dann warum er nicht die gleiche Filterbrille bei AMD und ueberhaupt bei Intel aufsetzt. Haette NV einen Larabee entwickelt so wie Intel uns die Ohren mit Bloedsinn vollgepumpt und das Ganze am Ende zu stornieren haette es aus allen moeglichen Richtungen bei SA zum Himmel gedonnert.

Wirklich unmanufacturable war Larabee und dazu noch eine ziemlich grosse Leistungsblamage da das Ding nichtmal einer 5850 die Kerze reichen konnte und das mit bruellenden 600mm2@45nm.

Wird der Unigene Heaven 2.0-Benchmark noch kurzfristig mit in die Tests einfließen?

Synthetisches Zeug kann seinen Zweck und Aussage haben, aber wenn's einem in 1.0 nicht schwindlig wurde um den verdammten Drachen endlos herumszurennen wird 2.0 wohl fuer neue aehnliche Aufforderungen sorgen.

mironicus
2010-03-24, 10:19:55
Na ja, das im Vorfeld einer Grafikkartenvorstellung etwas gecheatet wird, ist wohl normal. Da haben beide Hersteller schon mal ihre eigenen DLL-Dateien für Benchmarktests verwendet oder Redaktionen bei Tests zur Verfügung gestellt.

Eggcake
2010-03-24, 10:20:05
Ja, ich meinte Filterbrille bzgl. NV-Fantasien - man muss sich, wie bei praktisch allem was man heutzutage zu Gesicht bekommt bewusst sein, in welche Richtung er biased ist und das Ganze halt voreingenommen lesen, dann passt es auch.
Es hat nunmal auch vieles wahres dran - das mit dem Dirt2-Bench scheint ja z.B. auch zu stimmen. Dass auch viel Schrott dabei rauskommt, bestreitet denke ich niemand. Aber direkt bei einem Post von ihm zu sagen es seien alles Lügen ist einfach falsch. Genau das habe ich vor einigen Dutzend Seiten auch schon gesagt und wurde von allen Richtungen hier angekarrt ...

LovesuckZ
2010-03-24, 10:20:27
LZ so sehr du Crysis jetzt auch für belanglos erklären willst, es wird dir nicht gelingen, denn es ist und bleibt immernoch eines der hardwarehungrigsten Games und ist auch grafisch weiterhin absolut top.

Ja ich weiß du würdest gerne Tests der GTX480 sehen die nur aus dem weltbewegenden Metro 2033 und Unigine Heaven bestehen, aber sorry das wird nicht passieren.

Na, viel Spaß mit Crysis. Ich hab's noch nichtmal durchgespielt. Kann man das selbe von dir behaupten?
Aber ich hätte Crysis auch schon längst mit DX10 Hardware durchspielen können. Hm, ich brauch wohl für Crysis keine DX11 Karte. :rolleyes:

Der gesamte Post hat noch weitere interessante Einzelheiten:


Wow. Was für ein Unsinn /edit: Das, was im Link steht.

Gast
2010-03-24, 10:20:40
Der gesamte Post hat noch weitere interessante Einzelheiten:


Das erklärt dann auch warum man hier im Forum deutlich höhere Werte erreichte als der Durchlauf von NV auf deren Folie. Das ist aber dann schon eine ziemliche Schweinerei. Da musste man offenbar den Bench manipulieren nur um einen Abstand zu AMD zu erreichen.

mironicus
2010-03-24, 10:26:22
Synthetisches Zeug kann seinen Zweck und Aussage haben, aber wenn's einem in 1.0 nicht schwindlig wurde um den verdammten Drachen endlos herumszurennen wird 2.0 wohl fuer neue aehnliche Aufforderungen sorgen.

Interessant wäre es schon, nach ersten Tests ist Heaven 2.0 einiges schneller auf ATI-Karten als 1.0 - besonders bei Tesselation (insbesonders die Kamerafahrt um den Drachen :D).

LovesuckZ
2010-03-24, 10:28:41
Interessant wäre es schon, nach ersten Tests ist Heaven 2.0 einiges schneller auf ATI-Karten als 1.0 - besonders bei Tesselation (insbesonders die Kamerafahrt um den Drachen :D).

Dank Eggcake weiß man, dass 2.0 andere Tessellationeinstellungen verwendet und je nach Einstellung es beim Drachen deutlich schneller oder auch deutlich langsamer sein kann.
Man sollte also diesen Typen in diesem Forum nicht glauben.

Gast
2010-03-24, 10:30:28
Das erklärt dann auch warum man hier im Forum deutlich höhere Werte erreichte als der Durchlauf von NV auf deren Folie. Das ist aber dann schon eine ziemliche Schweinerei. Da musste man offenbar den Bench manipulieren nur um einen Abstand zu AMD zu erreichen.

Da hatte man einfach noch nicht den neusten Ati-Treiber, weil das Video schon etwas älter ist...

Ailuros
2010-03-24, 10:31:37
Ja, ich meinte Filterbrille bzgl. NV-Fantasien - man muss sich, wie bei praktisch allem was man heutzutage zu Gesicht bekommt bewusst sein, in welche Richtung er biased ist und das Ganze halt voreingenommen lesen, dann passt es auch.
Es hat nunmal auch vieles wahres dran - das mit dem Dirt2-Bench scheint ja z.B. auch zu stimmen.

Wieso sollte mich sein persoenlicher bias scheren? Er liegt mit NV lediglich im Krieg weil er nicht das bekam was er haben wollte. Nebenbei kann ich Dir sogar sagen dass Charlie als Mensch ein ziemlich netter Kerl ist.

Eggcake
2010-03-24, 10:32:56
? Natürlich schert mich sein bias, wenn ich seine Artikel lese.

Ich meine das überhaupt nicht persönlich, ich beziehe mich da rein auf seine Artikel und den potenziellen Informationsgehalt derer.
Charlie hat Quellen - die Informationen, die er erhält, werden meist zu Gunsten von ATi oder zu Ungunsten NV verschönert/verschlechtert. Um nun die Information, welche möglichst nah an der Realität ist zu extrahieren, muss man nunmal das Ganze wieder etwas geraderücken, dann kommt es oft auch hin...so meinte ich es...

Vergleichbar mit einem Rechten, der in der Zeitung über Ausländer herzieht - dann weiss man, dass das Ganze wohl kaum ganz so schlimm ist. Oder ein Grüner, welcher Bioprodukte in den Himmel lobt. Man sollte halt immer wissen, was die generelle Einstellung des Autors zum Thema ist...

Ailuros
2010-03-24, 10:34:15
Wow. Was für ein Unsinn /edit: Das, was im Link steht.

Ich kann nicht wissen was er genau meint aber wenn bei der Tessellation kein out of order processing benutzt wird auf GF100, dann ist der bench doch vielleicht um einiges daneben.

mironicus
2010-03-24, 10:37:04
Was macht ihr eigentlich nach dem 27. März, wenn die Katze aus dem Sack ist? :D
Hat das Leben mancher hier dann überhaupt noch einen Sinn? Das Geplänkel im Vorfeld ist doch immer das Beste. :D :D

Eggcake
2010-03-24, 10:38:31
@mironicus

Dann folgt hoffentlich der nächste Spekuthread - bis dahin gehen alle Poster in eine Art "Winter"schlaf über :ugly:

LovesuckZ
2010-03-24, 10:39:02
Ich kann nicht wissen was er genau meint aber wenn bei der Tessellation kein out of order processing benutzt wird auf GF100, dann ist der bench doch vielleicht um einiges daneben.

Es ist mist. Es ist unsinn:

Seeing as Tessellation on the GTX 480 is handled through CUDA emulation, it can use as many stream processors as it needs to handle the tessellation... but this does not take into account out of order processing, Physx, scenario render, destructible environments, or any other real world scenario.

Ich dachte, wir wären in diesem Forum über diesen Unsinnsstatus schon längst hinaus...

Was macht ihr eigentlich nach dem 27. März, wenn die Katze aus dem Sack ist? :D
Hat das Leben mancher hier dann überhaupt noch einen Sinn? Das Geplänkel im Vorfeld ist doch immer das Beste. :D :D

Wir werden erstmal alle Crysis spielen. Ein Jahr lang oder so.

Gast
2010-03-24, 10:39:22
Der 21W Delta Lüfter scheint also tatsächlich Realität zu sein und kein "Versehen". LOL :D

Ailuros
2010-03-24, 10:39:33
? Natürlich schert mich sein bias, wenn ich seine Artikel lese.

Mich persoenlich interessiert eher was jeder zu sagen hat und ob A, B oder C logisch ist oder nicht. AMD's PR als Gegenbeispiel ist noch mehr biased (und das aus gutem Grund); soll das heissen dass wenn sie mir X vermitteln es sofort FUD sein muss? Ich behalte X im Hinterkopf und frag rechts und links nach. Irgendwann irgendwo kommt man schon auf einen Treffer. Uebertreibungen sind von beiden Seiten (AMD/NVIDIA) normal.

TheBrother
2010-03-24, 10:41:38
Was macht ihr eigentlich nach dem 27. März, wenn die Katze aus dem Sack ist? :D
Hat das Leben mancher hier dann überhaupt noch einen Sinn? Das Geplänkel im Vorfeld ist doch immer das Beste. :D :D

Dann fängt der Spass doch erst an:

- Verfügbarkeits Thread
- Alle 2 Tage n neuer Beta Treiber der 0,1 mehr FPS bringt
- OC Ergebnisse die man je nach Aussentemp. immer etwas ändern kann
- WaKü Umbau
- ...

Also dann gehts quasi erst richtig los!

Gruß

Brother

Nazar
2010-03-24, 10:42:18
Hier sieht man ganz gut, wie es in Unigine eingesetzt wird und wie gut man es anpassen kann - selbst mit wenigen Dreiecken sieht es schon sehr passabel aus. Sowas in zukünftigen Games wäre natürlich fantastisch, da man die Grafik an "jede" Hardware flüssig anpassen kann.

http://www.youtube.com/watch?v=axMAtpYphLA


So ein Wireframe würde mich in Metro auch noch interessieren :ugly:

Ja *Träum* das sieht richtig super aus und ich freue mich tierisch auf Spiele, die Tesselation "richtig" nutzen werden.
Leider fehlt es da aber am Markt an Unterstüzung.
Es ist nun mal Fakt, dass 90% aller Spiele auf die Konsolenhardware ausgerichtet sind und so lange die aktuellen Konsolen Gewinn abwerfen, keine "Next Generation" erscheinen wird.
Ich will also den zukünftigen Nutzen von Tesselation nicht runterreden, sondern nur darauf hinweisen, dass er, aus bekannten Gründen, jetzt und in naher Zukunft nicht vorhanden sein wird; es sei denn, man sieht den Balkenvergleich als Nutzen an. ;)

Popeljoe
2010-03-24, 10:43:56
Man!
Es ist doch immer das selbe Schema, bevor eine neue Graka Gen rauskommt: Filtertricks und Co., "optimierte Benches", Marktinggeblubber.
Die Verschwörungstheoretiker aus dem Powi sind ja geradezu harmlos gegen das, was hier teilweise abgeht. ;)

Ailuros
2010-03-24, 10:46:21
Ja *Träum* das sieht richtig super aus und ich freue mich tierisch auf Spiele, die Tesselation "richtig" nutzen werden.
Leider fehlt es da aber am Markt an Unterstüzung.
Es ist nun mal Fakt, dass 90% aller Spiele auf die Konsolenhardware ausgerichtet sind und so lange die aktuellen Konsolen Gewinn abwerfen, keine "Next Generation" erscheinen wird.
Ich will also den zukünftigen Nutzen von Tesselation nicht runterreden, sondern nur darauf hinweisen, dass er, aus bekannten Gründen, jetzt und in naher Zukunft nicht vorhanden sein wird; es sei denn, man sieht den Balkenvergleich als Nutzen an. ;)

Besser hier: http://www.youtube.com/watch?v=V0U4Mxk1csU&NR=1

Schoen aber man hat mit der Tessellation hier wirklich uebertrieben.

***edit: Hurrah! man kann wieder um den Drachen rennen :P

mironicus
2010-03-24, 10:47:14
Es ist nun mal Fakt, dass 90% aller Spiele auf die Konsolenhardware ausgerichtet sind und so lange die aktuellen Konsolen Gewinn abwerfen, keine "Next Generation" erscheinen wird.

So ist es. Genau so wie DX11 in Games noch mindestens 2 Jahre keine große Verwendung finden wird (und dann gibt es schoon wieder neue GPUs, die Heaven 2.0 mit 100 fps+ abspielen können). Einer verschnellerte Immigration auf Windows 7 könnte das aber beschleunigen. DX10 war ja überhaupt nichts.

Ach ja: Könnte man nicht bestehende Games "modden", um z.B. Tesselationeffekte einzufügen? Gothic 3 zum Beispiel... :D

Nazar
2010-03-24, 10:50:53
Paar Worte zu Heaven 2.0:
http://www.overclock.net/8840643-post67.html
Ua:

Hmm.. sollte man dann nicht lieber alle Heaven Benches hier noch mit dem 1.0 durchführen?
(Nein, ich werde nicht mit der Blechtrommel um den Drachen laufen ;))
Wer weiss wieviel "Programmierarbeit und "Optimierungen" seitens NV vs ATI in allen Folgeversionen drinstecken werden.
Das ist es was mich wirklich an nV stört. Sie "optimieren" nicht ihre Treiber, sondern direkt die Spiele/Benches. Sie nehmen damit direkten Einfluss auf die Möglichkeiten des "Gegners" OHNE dass es wirklich bekannt wird.
Für den Kunden ist das kein Vorteil!

Eggcake
2010-03-24, 10:57:53
Ich denke schon, dass DX11-Games relativ schnell auf uns zukommen werden. Das wird kein Vergleich zu DX10 sein.
Ob jedoch Tessellation bereits sinnvoll eingesetzt wird, wage ich ebenfalls zu bezweifeln.

@Nazar
Ich würde mal behaupten ATi macht das genauso...beim letzten Release hatten sie's ja auch nicht wirklich nötig. NV wird es jetzt nötig haben. Wenn man sich in diversen Spielen evt. nicht richtig absetzen kann, dann soll vor allem Tessellation einen Schwerpunkt erhalten - und dann so richtig.

mironicus
2010-03-24, 11:00:43
Ich denke schon, dass DX11-Games relativ schnell auf uns zukommen werden. Das wird kein Vergleich zu DX10 sein.

Wird es im Falle von NVidia nicht eher so sein, dass sie eher weiter Physx als DX11 pushen werden - weil das die Konkurrenz ja nicht hat...? Ich glaube nicht, das DX11 so eine große Priorität für NVidia hat.

Gast
2010-03-24, 11:03:17
Das ist es was mich wirklich an nV stört. Sie "optimieren" nicht ihre Treiber, sondern die Spiele/Benches. Sie nehmen damit direkten Einfluss auf die Möglichkeiten des "Gegners" OHNE dass es wirklich bekannt wird.
Für den Kunden ist das kein Vorteil!

Das ist Quatsch. NV sorgt für eine bessere Unterstüzung ihrer Produkte und lässt dafür auch Benchmarks und Spiele optimieren. Allerdings wird kein Entwickler Nachteile für Ati einbauen, denn das Wichtigste um viel Geld mit Spielen zu machen, ist eine breite Zielgruppe und da gehören Besitzer von Ati-Karten eben auch zu.
Ebenso ist es kein Problem wenn NV Karten durch Optimierungen bei Benchmarks besser abschneiden, denn ein Benchmark soll ja in erster Linie die Leistung bei zukünftigen Spielen wiederspiegeln und die sind dann ebenfalls NV optimiert.

Ailuros
2010-03-24, 11:10:58
Wird es im Falle von NVidia nicht eher so sein, dass sie eher weiter Physx als DX11 pushen werden - weil das die Konkurrenz ja nicht hat...? Ich glaube nicht, das DX11 so eine große Priorität für NVidia hat.

Hw maessig hat GF100 mehr Vorteile mit Tessellation als Beispiel als mit PhysX (beim letzteren im Vergleich zu GT200, beim ersten gibt es ja keinen Vergleich).

Das soll jetzt nicht heissen dass sie PhysX aufgeben werden, aber es wuerde mich nicht im geringsten wundern wenn sie versuchen werden noch staerker mit Tessellation oder sogar 4 gather offset zu druecken.

Gast
2010-03-24, 11:15:48
Das ist Quatsch. NV sorgt für eine bessere Unterstüzung ihrer Produkte und lässt dafür auch Benchmarks und Spiele optimieren. Allerdings wird kein Entwickler Nachteile für Ati einbauen, denn das Wichtigste um viel Geld mit Spielen zu machen, ist eine breite Zielgruppe und da gehören Besitzer von Ati-Karten eben auch zu.

Ach nein? Dir ist nicht der Umstand bekannt, das bei Batman durch die ID Abfrage und Deaktivierung des AA bei ATI Präsenz nicht der Z-Buffer Schreibzugriff unterbinden werden soll, was Leistung kosten soll?

Wer weiß schon, wo solche Dinge - völlig egal ob gewollt oder ungewollt - sonst im argen sind? Es ist aus Prinzip einfach nicht richtig, wenn Spiele auf die Hardware eines Herstellers optimiert wird, noch falscher als falsch ist es, wenn der Hersteller direkt in den Code eingreift.

Nazar
2010-03-24, 11:19:57
Ich denke schon, dass DX11-Games relativ schnell auf uns zukommen werden. Das wird kein Vergleich zu DX10 sein.
Ob jedoch Tessellation bereits sinnvoll eingesetzt wird, wage ich ebenfalls zu bezweifeln.

@Nazar
Ich würde mal behaupten ATi macht das genauso...beim letzten Release hatten sie's ja auch nicht wirklich nötig. NV wird es jetzt nötig haben. Wenn man sich in diversen Spielen evt. nicht richtig absetzen kann, dann soll vor allem Tessellation einen Schwerpunkt erhalten - und dann so richtig.

Einflüsse seitens ATI sind mir nur über deren "Treiberoptimierungen" bekannt, dass direkt Einfluss in einem Spiel oder Bench (Programmierarbeit bei Batman fürs AA) genommen wurde, habe ich bisher nur von nV gehört (was natürlich die Möglichkeit als solche nicht ausschliesst ;)).
Was mich hier stört, ist, dass in einem Spiel direkt gegen den "Gegner" auf Kosten der Spieler vorgegangen wird. Wenn es ATI auch so macht, ist das ebenso verwerflich.
Sowas darf einfach nicht passieren!
Ich gehe sogar soweit, dass eine Veränderungen eines Benchmarks, als Irreführung und Vorspieleung falscher Tatsachen zu behandeln ist; strafbar sein sollte.
Auch wenn Ailuros gleich wieder um den Drachen laufen will :D; Benches haben einen großen Einfluss auf das Kaufverhalten (weshalb sonst werden diese manipuliert). Das nun ein Spiel oder Bench direkt manipuliert wird, ist extrem anders als eine Optimierung über den Treiber (wenn auch nicht besser), da hier auch direkt Einfluss auf die Ergebnisse des Gegners genommen werden kann.

Das ist Quatsch. NV sorgt für eine bessere Unterstüzung ihrer Produkte und lässt dafür auch Benchmarks und Spiele optimieren. Allerdings wird kein Entwickler Nachteile für Ati einbauen, denn das Wichtigste um viel Geld mit Spielen zu machen, ist eine breite Zielgruppe und da gehören Besitzer von Ati-Karten eben auch zu.
Ebenso ist es kein Problem wenn NV Karten durch Optimierungen bei Benchmarks besser abschneiden, denn ein Benchmark soll ja in erster Linie die Leistung bei zukünftigen Spielen wiederspiegeln und die sind dann ebenfalls NV optimiert.

Bitte informiere Dich erst mal, bevor Du luat "Quatsch" rufst.
Momentan trittst Du Dir selber in den Hintern.
Es ist ein Fakt, dass nV sowas bei Batman gemacht hat.
nV hat dort den Entwicklern ein wenig Arbeit "abgenommen" und den AA Pfad geschreiben und zwar so, dass ATI HW NICHT auf diesen zugreifen konnte.
Eigentlich gar nicht so schlimm, war ja deren Arbeit ABER sie haben auch nie deutlich gemacht, weshalb gerde ATI kein darstelllen konnte.

Quatsch?
Mit Sicherheit nicht ;)

Ailuros
2010-03-24, 11:26:24
Ach nein? Dir ist nicht der Umstand bekannt, das bei Batman durch die ID Abfrage und Deaktivierung des AA bei ATI Präsenz nicht der Z-Buffer Schreibzugriff unterbinden werden soll, was Leistung kosten soll?

Es gibt einen Thread fuer die Geschichte. Wenn es zu langwierig mit dem OT wird verschiebe auch alle Beitraege spaeter in diesen.

Wer weiß schon, wo solche Dinge - völlig egal ob gewollt oder ungewollt - sonst im argen sind? Es ist aus Prinzip einfach nicht richtig, wenn Spiele auf die Hardware eines Herstellers optimiert wird, noch falscher als falsch ist es, wenn der Hersteller direkt in den Code eingreift.

Wenn aber die Mehrzahl der Konspirationsthesen nicht stimmen sollte und es geht hauptsaechlich um effizienteres DevRel, dann waere es angebrachter dass AMD in diesem Bereich nachladet als unendlich wie ein verwoehntes Kleinkind herumheult.

Bei Optimierungen wo bewiesen die Konkurrenz benachteiligt wird, wird es wohl keiner befuerworten und ich hab sogar ernsthafte Zweifel dass Entwickler bzw. ISVs so etwas erstmal erlauben.

MiamiNice
2010-03-24, 11:29:26
Was spricht dagegen wen NV oder ATI bei der Spieleentwicklung den Entwicklern zur Hand gehen um die Spiele besser auf die Grafikkarten zu optimieren? Solange beide Hersteller die Möglichkeit dazu haben sehe ich da kein Problem. Aus Kundensicht ist es sogar zu begrüssen, läuft das Spiel doch letztendlich schneller/besser auf der HW des Kunden.

deekey777
2010-03-24, 11:34:47
Ich kann nicht wissen was er genau meint aber wenn bei der Tessellation kein out of order processing benutzt wird auf GF100, dann ist der bench doch vielleicht um einiges daneben.
Hat das überhaupt was mit Heaven 2.0 zu tun? Man schreibt in einem Absatz doch keine verschiedenen zusammenhanglose Äußerungen.
I suppose we will soon see. I still say Voxel rendering is more efficient. Seeing as Tessellation on the GTX 480 is handled through CUDA emulation, it can use as many stream processors as it needs to handle the tessellation... but this does not take into account out of order processing, Physx, scenario render, destructible environments, or any other real world scenario.
Die Voxel-Sachen laufen über CUDA, und alles, was nach diesem Satz folgt, bezieht sich auf diesen Satz. Oder?

Ailuros
2010-03-24, 11:36:52
Auch wenn Ailuros gleich wieder um den Drachen laufen will :D; Benches haben einen großen Einfluss auf das Kaufverhalten (weshalb sonst werden diese manipuliert). Das nun ein Spiel oder Bench direkt manipuliert wird, ist extrem anders als eine Optimierung über den Treiber (wenn auch nicht besser), da hier auch direkt Einfluss auf die Ergebnisse des Gegners genommen werden kann.

Nicht um den Drachen sondern gegen die Wand :P Nochmal als beim Cypress launch jemand vorgeschlagen hat dass Heaven als eine Art "Industrie-standard" angesehen wird wehrte ich mich mit allen vieren dagegen. Der Missbrauch oder die generelle falsche Konzeption von synthetischen Benchmarks liegt nicht an den IHVs selber IMHO, sondern eher am Verbraucher selber und danach nutzen die IHVs diesen "Missbrauch" wenn moeglich auch so gut wie moeglich aus.

Heaven 2.0 ist ein epic fail fuer mich weil ich den bloeden Drachen nicht abschiessen und zerschmettern kann :biggrin:


Bitte informiere Dich erst mal, bevor Du luat "Quatsch" rufst.
Momentan trittst Du Dir selber in den Hintern.
Es ist ein Fakt, dass nV sowas bei Batman gemacht hat.
nV hat dort den Entwicklern ein wenig Arbeit "abgenommen" und den AA Pfad geschreiben und zwar so, dass ATI HW NICHT auf diesen zugreifen konnte.
Eigentlich gar nicht so schlimm, war ja deren Arbeit ABER sie haben auch nie deutlich gemacht, weshalb gerde ATI kein darstelllen konnte.

Quatsch?
Mit Sicherheit nicht ;)

Nochmal es gibt einen gesamten Thread zu dem Thema und es gibt wie fuer alle solche Themen jeweils zwei Perspektiven. In dem Thread steht auch einiges pfiffiges drin um besser zu verstehen warum sich eigentlich beide IHVs so laecherlich zickig ueber das Thema Batman gezeigt haben.

Was spricht dagegen wen NV oder ATI bei der Spieleentwicklung den Entwicklern zur Hand gehen um die Spiele besser auf die Grafikkarten zu optimieren? Solange beide Hersteller die Möglichkeit dazu haben sehe ich da kein Problem. Aus Kundensicht ist es sogar zu begrüssen, läuft das Spiel doch letztendlich schneller/besser auf der HW des Kunden.

So ist es auch meistens. Nur ist AMD's DevRel generell immer noch nicht auf NV Nivaeu, obwohl zugegeben sich AMD in letzter Zeit um einiges mehr anstrengt. So etwas kommt auch nicht ueber Nacht.

LovesuckZ
2010-03-24, 11:39:33
Ich verstehe nicht, was Leute für Probleme mit Tessellation haben. Das schöne an Tessellation ist, es ist dynamisch, es ist lastabhängig, es ist fast vollständig frei konfigurierbar.
Heaven 2.0 zeigt doch, dass Tessellation nicht nur an und aus sein muss. Man kann in der Anwendung doch jegliche Möglichkeit einstellen.
Ich hoffe wirklich, dass dieses "gegen Tessellation" nicht nur daher kommt, weil nVidia eventuell deutlich schneller sein wird als Cypress. Freut euch doch eher, dass beide wieder auf einem DX Level sind. Wurde das nicht nVidia mit dieser 10.1 Sache dauernd vorgeworfen? :rolleyes:

Gast
2010-03-24, 11:45:03
Ich verstehe nicht, was Leute für Probleme mit Tessellation haben. Das schöne an Tessellation ist, es ist dynamisch, es ist Lastabhängig, es ist fast vollständig frei konfigurierbar.
Heaven 2.0 zeigt doch, dass Tessellation nicht nur an und aus sein muss. Man kann ln der Anwendung doch jegliche Möglichkeit einstellen.
Ich hoffe wirklich, dass dieses "gegen Tessellation" nicht nur daher kommt, weil nVidia eventuell deutlich schneller sein wird als Cypress. Freut euch doch eher, dass beide wieder auf einem DX Level sind. Wurde das nicht nVidia mit dieser 10.1 Sache dauernd vorgeworfen? :rolleyes:

Ich würde mir eher mal um deinen Verfolgungswahn Sorgen machen. Es gibt in Spielen eben zurzeit nichts anderes außer "aus und "an". Schön, bei Heaven 2.0 kann man es genauer skalieren, aber Heaven kann man nicht spielen. Und in allen aktuellen Spielen muss man die Vorteile durch Tesslation mit der Lupe suchen, bzw. sehen viele Dinge einfach aufgeblasen aus, das wirst du ja kaum bestreiten können. Das einzige was hier auffällt ist das du Tesslation wie verrückt pusht seit bekannt ist das NV höchstwahrscheinlich schneller sein wird. Du pusht es, obwohl du keine Argumenten vorlegen kannst was mir das nützt. Was ich aktuell in Spielen sehen überzeugt mich jedenfalls nicht, und das wird sich wohl auch nicht ändern solange Spiele nicht von Grund auf dafür designt wurde.

Bioshock
2010-03-24, 11:49:55
DX10.1 wurde auch gepusht wie verrückt! Für mich der Größte flop um kunden zugewinnen.

mfg

LovesuckZ
2010-03-24, 11:54:17
Ich würde mir eher mal um deinen Verfolgungswahn Sorgen machen. Es gibt in Spielen eben zurzeit nichts anderes außer "aus und "an". Schön, bei Heaven 2.0 kann man es genauer skalieren, aber Heaven kann man nicht spielen. Und in allen aktuellen Spielen muss man die Vorteile durch Tesslation mit der Lupe suchen, bzw. sehen viele Dinge einfach aufgeblasen aus, das wirst du ja kaum bestreiten können. Das einzige was hier auffällt ist das du Tesslation wie verrückt pusht seit bekannt ist das NV höchstwahrscheinlich schneller sein wird. Du pusht es, obwohl du keine Argumenten vorlegen kannst was mir das nützt. Was ich aktuell in Spielen sehen überzeugt mich jedenfalls nicht, und das wird sich wohl auch nicht ändern solange Spiele nicht von Grund auf dafür designt wurde.

Das ist ein Posting vom 23.11.2009 - zwei Monate vor der Offenlegung der Architektur des GF100:
Nachdem PCGH (http://www.pcgameshardware.de/aid,699976/Colin-McRae-Dirt-2-im-Test-DirectX-9-vs-DirectX-11-Update-Grafikkarten-Benchmarks/Rennspiel-Sportspiel-Simulation/Test/) nun auch Dirt2 getestet hat, sind alle drei "D3D11" Spiele für dieses Jahr auf dem Markt. Damit lässt sich wohl schon einiges ableiten:
Tessellation ist toll, aber für die erste Generation von Karten zu aufwendig. Wenn man sieht, was AMD in Stalker und Dirt 2 als Einsatzgebiete nimmt, dann ist der Leistungsverlust einfach zu hoch.

Wie du siehst, hat sich meine Meinung über Tessellation als Werkzeug nicht geändert. Aber anscheinend kann ich dann davon ausgehen, dass jegliche Kritik an nVidia bezüglich 10.1 im Grunde komplett unnötig war.

Ailuros
2010-03-24, 11:58:48
Mit Batmangate bitte hier weitermachen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=469298&page=40

Gast
2010-03-24, 11:59:57
Das ist ein Posting vom 23.11.2009 - zwei Monate vor der Offenlegung der Architektur des GF100:


Wie du siehst, hat sich meine Meinung über Tessellation als Werkzeug nicht geändert. Aber anscheinend kann ich dann davon ausgehen, dass jegliche Kritik an nVidia bezüglich 10.1 im Grunde komplett unnötig war.

Ich habe nicht behauptet das du deine Meinung geändert hat. Ich sage nur seit bekannt ist das NV dort gut sein wird wirst du nicht mehr müde immer und immer wieder zu behaupten wie toll das nicht sei. Ließ dir mal deine letzten Posts in diesen Thread durch, es wiederholt sich immer und immer wieder. Den Zusammenhang mit DX10.1 sehe ich auch nicht.

LovesuckZ
2010-03-24, 12:04:00
Ich habe nicht behauptet das du deine Meinung geändert hat. Ich sage nur seit bekannt ist das NV dort gut sein wird wirst du nicht mehr müde immer und immer wieder zu behaupten wie toll das nicht sei. Ließ dir mal deine letzten Posts in diesen Thread durch, es wiederholt sich immer und immer wieder. Den Zusammenhang mit DX10.1 sehe ich auch nicht.

Natürlich wiederholen sich die Postings. Handelt es sich hier auch um eine DX11 Karte mit Schwerpunkt auf Tessellation.
Es ist erstaunlich, dass plötzlich dieser Fakt einfach ignoriert wird. Ist aber nicht weiter schlimm. Wenn AMD nächtes Jahr aufschließt, wird sich die Stimmung sowieso wieder drehen. ;D

Ailuros
2010-03-24, 12:06:44
Ich glaub ich muss einen Thread mit dem Titel Lovesuck und Entourage aufmachen damit Ihr Euch alle voll austoben koennt. Einer gegen alle und alle gegen einen :biggrin:

Gast
2010-03-24, 12:08:53
Natürlich wiederholen sich die Postings. Handelt es sich hier auch um eine DX11 Karte mit Schwerpunkt auf Tessellation.
Es ist erstaunlich, dass plötzlich dieser Fakt einfach ignoriert wird. Ist aber nicht weiter schlimm. Wenn AMD nächtes Jahr aufschließt, wird sich die Stimmung sowieso wieder drehen. ;D

Nächstes Jahr reicht doch völlig, vorher kannst du Tessellation eh nicht sinnvoll nutzen außer in Benchmarks und oder dem Shooter-Fail Metro ;)

Schlammsau
2010-03-24, 12:09:09
Tess wird halt das einzige sein, wo sich Fermi deutlich absetzen kann.

Ist halt der letzte Strohhalm, wo sich die Hardcore Fanboys festklammern.

Tesselation hat einige Vorteile - korrekt. Nur sind sie noch nirgendw wirklich eingesetzt worden bzw verbessern sie auch nicht wirklich die BQ. Einzig allein der extrem, unrealistische Einsatz von Tesselation im Heaven Benchmark zeigt, was theoretisch möglich ist.

Tesselation in der Masse, wie es Heaven (>Normal) nutzt, werden wir in den nächsten Jahren in Games nicht sehen. Die ganze Grafik ist praktisch bis ins kleinste Detail tesseliert. Eine Techdemo einfach ohne jeglichen Praxisbezug.

Und daran geilen sich gewisse Leute auf.

Ailuros
2010-03-24, 12:15:01
Tess wird halt das einzige sein, wo sich Fermi deutlich absetzen kann.

Ist halt der letzte Strohhalm, wo sich die Hardcore Fanboys festklammern.

Tesselation hat einige Vorteile - korrekt. Nur sind sie noch nirgendw wirklich eingesetzt worden bzw verbessern sie auch nicht wirklich die BQ. Einzig allein der extrem, unrealistische Einsatz von Tesselation im Heaven Benchmark zeigt, was theoretisch möglich ist.

Tesselation in der Masse, wie es Heaven (>Normal) nutzt, werden wir in den nächsten Jahren nicht sehen. Die ganze Grafik ist praktisch tesseliert. Eine Techdemo einfach.

Und daran geilen sich gewisse Leute auf.

Haarspalterei (und ja ich musste es selber bei mir korrigieren): Tessellation. Da es sich um dynamische Geometrie handelt sollte es eigentlich TTessellattionn sein....

Wenn die 480 nicht kastriert waere und wenn der idle Stromverbrauch nicht so uebel klingen wuerde und wenn auch wirklich alles mit der Texturfilterung stimmt wuerde ich mir eine besorgen aber dann wohl nur fuer das TMAA Zeug so laecherlich wie es klingen mag. Bei 3 "wenn" ist man wohl nicht mehr unbedingt unter den potentiellen Kaeufern oder? ;)