Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
MiamiNice
2010-03-24, 12:20:05
Nächstes Jahr reicht doch völlig, vorher kannst du Tessellation eh nicht sinnvoll nutzen außer in Benchmarks und oder dem Shooter-Fail Metro
Ähm, Metro ist also ein Shooter-Fail? Doch nur weil es der Lunchtitel vom Fermi ist, oder? Aus Shooterfansicht kann man nämlich durchaus sagen das Metro ein sehr gutes Spiel ist.
Allerdings ist es auch ohne Tessellation ein sehr gutes Spiel, finde ich zumindest.
Ui, mein erster Post mit dem pösen Modewort ^^
Ailuros
2010-03-24, 12:23:31
Metro's Tessellations-Implementierung faellt eben genau in die Kategorie wo schon entwickelte Modelle einen kleinen Schuss an Tessellation dazubekamen und ein paar "Ecken" weg vom Fenster sind. Natuerlich sieht man von dem Zeug in Echtzeit wenig bis gar nichts.
@MiamiVice
Das Spiel hat keinen Multiplayer, damit nur 4-5h Single-Player und dann ist auch noch die KI teilweise ganz schön bescheuert. Und Munition als Bezahlsystem? Da muss man bei jedem Schuß überlegen, ob er einen das nächste Upgrade kostet und ist die ganze Zeit am Leichen durchsuchen. Außerdem spielt sich fast alles in den Tunnels ab, alles Schlauchlevels, kaum Flexibilität. Da sind die Texturen auch super, schaut man sich dagegen die Bodentexturen in den Außenabschnitten an, dann wirds einem fast übel. Ich kenne genug Leute, die das Spiel bevor sie es durchgespielt hatten schon wieder deinstalliert haben. Die meisten von denen spielen BC2, das hat nämlich Multiplayer. Und auf Tessellation kann man nach vielen Berichten und Screenshot-Vergleichen wohl auch verzichten, da es entweder kaum Unterschiede macht oder teilweise als störend empfunden wird. Deshalb ist es für mich ein "Fail"-Shooter, nicht weil es ein Vorzeigetitel von Nvidia ist. Crysis ist für mich einer der besten Shooter aller Zeiten und der ist/war auch Vorzeigetitel von Nvidia ;)
LovesuckZ
2010-03-24, 12:27:22
Metro's Tessellations-Implementierung faellt eben genau in die Kategorie wo schon entwickelte Modelle einen kleinen Schuss an Tessellation dazubekamen und ein paar "Ecken" weg vom Fenster sind. Natuerlich sieht man von dem Zeug in Echtzeit wenig bis gar nichts.
Trotzdem brechen Cypress-Karten unverhältnismäßig viel ein.
Hier wird dauernd auf Unigine herumgeritten. Aber Stalker und Metro2033 zeigen, dass Tessellation in Spielen eben auch aufgrund der Erweiterung der D3D Pipeline leistungsfressender seien sollten als im Unigine Benchmark: Einfach aus dem Grund, weil es wesentlich mehr Pixelberechnungen gibt.
In Stalker brechen die Karten auf 72% in Metro2033 auf 64% der Leistung ohne Tessellation ein. Und das ohne "übertriebenenden Einsatz".
Dimon
2010-03-24, 12:28:18
Tess wird halt das einzige sein, wo sich Fermi deutlich absetzen kann.
Ist halt der letzte Strohhalm, wo sich die Hardcore Fanboys festklammern.
Tesselation hat einige Vorteile - korrekt. Nur sind sie noch nirgendw wirklich eingesetzt worden bzw verbessern sie auch nicht wirklich die BQ. Einzig allein der extrem, unrealistische Einsatz von Tesselation im Heaven Benchmark zeigt, was theoretisch möglich ist.
Tesselation in der Masse, wie es Heaven (>Normal) nutzt, werden wir in den nächsten Jahren in Games nicht sehen. Die ganze Grafik ist praktisch bis ins kleinste Detail tesseliert. Eine Techdemo einfach ohne jeglichen Praxisbezug.
Und daran geilen sich gewisse Leute auf.
Achja und ATI´s AF und AA Filterung ist absolut grandios (SSAA ausgenommen) :freak:
Hör auf mit der Haarspalterei ;)
uweskw
2010-03-24, 12:33:58
Das ist Quatsch. NV sorgt für eine bessere Unterstüzung ihrer Produkte und lässt dafür auch Benchmarks und Spiele optimieren. Allerdings wird kein Entwickler Nachteile für Ati einbauen, denn das Wichtigste um viel Geld mit Spielen zu machen, ist eine breite Zielgruppe und da gehören Besitzer von Ati-Karten eben auch zu.
Blödsinn!
NV legt bei einigen Gelegenheiten die DX Vorgaben seeeeehr tolerant aus.
Dem Spielehesteller "hilft" NV mit Optimierungen die genau in dieser bewust angelegten Grauzone operieren. Das nennt sich dann "TWIMTBP".
Da ATI die DX Vorgaben genau einhält kommt es hier öfter zu Komplikationen bei manchen PC Konfigurationen. Wenns dann gerade auf der ATI Konfiguration mal läuft die der Spiele-Entwickler testet, reibt sich NV mal wieder die Hände weil sie ATI wieder blöd dastehen lasssen.
Greetz
U.S.
Trotzdem brechen Cypress-Karten unverhältnismäßig viel ein.
Hier wird dauernd auf Unigine herumgeritten. Aber Stalker und Metro2033 zeigen, dass Tessellation in Spielen eben auch aufgrund der Erweiterung der D3D Pipeline leistungsfressender seien sollten als im Unigine Benchmark: Einfach aus dem Grund, weil es wesentlich mehr Pixelberechnungen gibt.
In Stalker brechen die Karten auf 72% in Metro2033 auf 64% der Leistung ohne Tessellation ein. Und das ohne "übertriebenenden Einsatz".
Hast du denn schonmal einen WireFrame von Metro gesehen? Weißt du, wieviele Dreiecke die letzten Endes nur minimal sichtbaren Effekte tatsächlich tesseliert wurden? Weißt du, obs nicht mit einer viel geringeren Tessellationsstufe nahezu exakt gleich aussehen würde, ohne aber so einen fetten Performance-Hit zu haben?
Das fand ich an dem Unigine2.0-Wireframe-Video so toll: man sieht, daß schon bei sehr geringem Tessellationsgrad (Regler so bei 20-25%) der meiste Optik-Gewinn da ist, und wenn man die Tessellation weiter aufdreht, zwar die Dreieck-Zahlen ins unermeßliche wachsen, an der Optik sich aber eigentlich kaum noch was ändert.
Lange Rede, kurzer Sinn: daß man die Tessellation-Effekte in Metro nur bei genauem Hinsehen tatsächlich sieht, heißt nicht, daß nicht trotzdem massiv Dreiecke dafür verschwendet wurden.
Ailuros
2010-03-24, 12:36:16
Trotzdem brechen Cypress-Karten unverhältnismäßig viel ein.
Hier wird dauernd auf Unigine herumgeritten. Aber Stalker und Metro2033 zeigen, dass Tessellation in Spielen eben auch aufgrund der Erweiterung der D3D Pipeline leistungsfressender seien sollten als im Unigine Benchmark: Einfach aus dem Grund, weil es wesentlich mehr Pixelberechnungen gibt.
In Stalker brechen die Karten auf 72% in Metro2033 auf 64% der Leistung ohne Tessellation ein. Und das ohne "übertriebenenden Einsatz".
Fuer den Brei den ich bis jetzt sehen konnte in solchen Spielen wuerde ich kein Geld fuer das Zeug investieren. Du kannst mir aber gerne privat oder hier ein paar Screenshots von diesen nachliefern, im Fall wo ich etwas verpasst habe.
Frank1974
2010-03-24, 12:38:38
Tess wird halt das einzige sein, wo sich Fermi deutlich absetzen kann.
Ist halt der letzte Strohhalm, wo sich die Hardcore Fanboys festklammern.
Tesselation hat einige Vorteile - korrekt. Nur sind sie noch nirgendw wirklich eingesetzt worden bzw verbessern sie auch nicht wirklich die BQ. Einzig allein der extrem, unrealistische Einsatz von Tesselation im Heaven Benchmark zeigt, was theoretisch möglich ist.
Tesselation in der Masse, wie es Heaven (>Normal) nutzt, werden wir in den nächsten Jahren in Games nicht sehen. Die ganze Grafik ist praktisch bis ins kleinste Detail tesseliert. Eine Techdemo einfach ohne jeglichen Praxisbezug.
Und daran geilen sich gewisse Leute auf.
Das theoretisch gilt nur für AMD/ATI, würden beide etwa gleich stark sein, würden es die Spieleentwickler auch früher einbauen, aber nun muss man erst auf ATI warten, so etwas nennt man Technologiebremse.
Und es muss hier einfach mal gesagt werden, LovesuckZ ist hier wirklich der einzige der sich für Nvidia richtig einsetzt, ich lese den Thread hier von Anfang an mit, er übertreibt zwar manchmal, aber wie Ailuros schon geschrieben hat, er muss sich ja allein gegen 100+ AMD User(Fanboys), behaupten, dafür hat er schon meinen Respekt, ich würde auch keinen Kampf mit 100 Leuten eingehen.
ps
Wäre es ATI mit der guten Tesselation, würdest du das ganze wahrscheinlich umdrehen, gib es doch zu.
Das gleiche mit dem Stromverbrauch, mal schauen, 2900XT = Megaschlecht, 3870 gut, 4870/90 Megaschlecht, 5870 gut, wie man sieht, kann das bei einer 6870 auch wieder anders aussehen, der Idle Verbrauch ist gemeint.
mfg
Frank
Ailuros
2010-03-24, 12:40:32
Blödsinn!
Mal sehen was genau Bloedsinn ist....
NV legt bei einigen Gelegenheiten die DX Vorgaben seeeeehr tolerant aus.
Wie meinen und die Antwort mit Dokumentation bitte.
Dem Spielehesteller "hilft" NV mit Optimierungen die genau in dieser bewust angelegten Grauzone operieren. Das nennt sich dann "TWIMTBP".
Ich weiss zwar ehrlich noch nicht was Du genau meinst, aber eine GPU ist entweder DX-X oder eben nicht.
Da ATI die DX Vorgaben genau einhält kommt es hier öfter zu Komplikationen bei manchen PC Konfigurationen. Wenns dann gerade auf der ATI Konfiguration mal läuft die der Spiele-Entwickler testet, reibt sich NV mal wieder die Hände weil sie ATI wieder blöd dastehen lasssen.
Greetz
U.S.
Die Liste die das obrige fundamental zerbricht koennte lang werden. Ich warte aber trotz allem auf die obrige Antwort bzw. Dokumentation.
MorPheuZ
2010-03-24, 12:50:02
Blödsinn!
Da ATI die DX Vorgaben genau einhält kommt es hier öfter zu Komplikationen bei manchen PC Konfigurationen.
Das musst du jetzt aber echt erklären wie das geht im kontext zu deiner Aussage:rolleyes:
mironicus
2010-03-24, 12:50:58
Wird es vielleicht auch Geräuschtests mit Samples zum Download geben? :)
Oder einen Geräuschvergleich Föhn vs GTX 480 und wir müssen raten, welches die GTX 480 ist. :D
Schlammsau
2010-03-24, 13:05:07
Das theoretisch gilt nur für AMD/ATI, würden beide etwa gleich stark sein, würden es die Spieleentwickler auch früher einbauen, aber nun muss man erst auf ATI warten, so etwas nennt man Technologiebremse.
Und es muss hier einfach mal gesagt werden, LovesuckZ ist hier wirklich der einzige der sich für Nvidia richtig einsetzt, ich lese den Thread hier von Anfang an mit, er übertreibt zwar manchmal, aber wie Ailuros schon geschrieben hat, er muss sich ja allein gegen 100+ AMD User(Fanboys), behaupten, dafür hat er schon meinen Respekt, ich würde auch keinen Kampf mit 100 Leuten eingehen.
ps
Wäre es ATI mit der guten Tesselation, würdest du das ganze wahrscheinlich umdrehen, gib es doch zu.
Das gleiche mit dem Stromverbrauch, mal schauen, 2900XT = Megaschlecht, 3870 gut, 4870/90 Megaschlecht, 5870 gut, wie man sieht, kann das bei einer 6870 auch wieder anders aussehen, der Idle Verbrauch ist gemeint.
mfg
Frank
Ach hör doch auf....ich hab eine Grafikkarte, die seit einem halben Jahr DX11 + Tesselation kann. Ein halbes Jahr später schiebt nVidia Grafikkarte nach, die schneller tesseliert und einige Fanboys schreien als wäre das das Killerfeature schlechthin.
Die extremen Rückschritte beim Stromverbrauch, höchstwahrscheinlich dann auch Lautstärke, der mageren Durchschnitts(mehr)leistung zur 5870, der höhere Preis, werden komplett ausgeblendet.
Aber hauptsache Tesselation, Tesselation, Tesselation. :freak:
Sascha1971
2010-03-24, 13:09:02
Aber hauptsache Tesselation, Tesselation, Tesselation. :freak:
Aber ich bin froh das es so ist. Das gibt hoffnung, das die Spieleentwickler nun endlich mehr Spiele in der Richtung bauen werden. Ihr solltet auch darüber froh sein. Oder wollt ihr einen jahrelangen Stillstand ?
Wenn die 480 Crysis benches stimmen vom Fermi.
Kriegt der mit den 2GB Radeons arge probleme
Ne 5870 Toxic 2GB knallt sogar ne 5970 weg.
http://img.hexus.net/v2/graphics_cards/amd/Sapphire/58702GB/03.png
tombman
2010-03-24, 13:09:23
Also, bis jetzt wird GTX480 immer schwächer, je mehr leaks kommen :(
Im Endeffekt kann man im Schnitt über ein +/- 0% gegenüber der HD5870 noch froh sein :ugly:
Gut finde ich das Kühlkonzept mit der Platte für alles außer GPU- da bräuchte man keinen Vollbereichswasserkühler (teuer), ein reiner Corekühler würde reichen :)
PCGH_Raffael
2010-03-24, 13:09:59
Aber hauptsache Tesselation, Tesselation, Tesselation. :freak:
Als gläserner jemand, der die ~5 existenten und davon ~3 schwachen DX10.1-Spiele als grandioses Pro-HD-4000-Feature feierte, solltest du vielleicht nicht mit Steinen werfen. ;) Furby kann mehr als nur tessellieren.
MfG,
Raff
dildo4u
2010-03-24, 13:12:26
Also, bis jetzt wird GTX480 immer schwächer, je mehr leaks kommen :(
Im Endeffekt kann man im Schnitt über ein +/- 0% gegenüber der HD5870 noch froh sein :ugly:
Die Karte wird imo im Schnitt das mher Leisten was sie mher Verbraucht.Also zwischen 5870 und 5970 landen.
Wenn die 480 Crysis benches stimmen vom Fermi.
Kriegt der mit den 2GB Radeons arge probleme
Ne 5870 Toxic 2GB knallt sogar ne 5970 weg.
http://img.hexus.net/v2/graphics_cards/amd/Sapphire/58702GB/03.png
Das kann man garnicht oft genug betonen, wollte es selber gerade posten. CF und SLI mit zuwenig VRAM sind offensichtlich (bald) nur noch zum Benchmarken gut. Vor allem ist das der Average FPS wert. Der min. FPS wird sich da sicher dramatisch unterscheiden, ganz zu schweigen von den Nachlade-stotterern.
Sascha1971
2010-03-24, 13:14:46
Wenn die 480 Crysis benches stimmen vom Fermi.
Kriegt der mit den 2GB Radeons arge probleme
Ne 5870 Toxic 2GB knallt sogar ne 5970 weg.
http://img.hexus.net/v2/graphics_cards/amd/Sapphire/58702GB/03.png
Da knallt nix die 5970er weg
http://www.xtremesystems.org/forums/showthread.php?p=4303469#post4303469
nur der eine crysis Bench, sonst bringt sie kaum mehr wie die 1GB Version.
Der Unigine v2.0 zeigt auch deutlich, das Tesselation in Moderater Einstellung nicht schlechter aussieht und da "rennt" es.
Also ist der Umkehrschluss das alles das darüber liegt nur Ressourcen frießt und nicht mehr wirklich zur Verbesserung beiträgt.
Das wiederum heißt das das "Überfeature" Tesselation gar nicht wirklich ein Mehrgewinn ist, demnach ist Fermi wirklich alles genommen worden, aber ich wette das man natürlich runder noch runder machen kann und einen Pixel mit 1000 Milliarden Dreiecken darstellen wird in Zukunft :)
Gut finde ich das Kühlkonzept mit der Platte für alles außer GPU- da bräuchte man keinen Vollbereichswasserkühler (teuer), ein reiner Corekühler würde reichen :)
Naja, wenn man anständig overvolten will dann wärs schon ganz gut wenn die Spannungsregler auch mit Wasser gekühlt werden.
Da knallt nix die 5970er weg
http://www.xtremesystems.org/forums/showthread.php?p=4303469#post4303469
Bitte mitdenken anfangen, neuere Games werden immer mehr VRAM nutzen, vor allem mit Tessellation (siehe Coda). Insofern wärs schon von Vorteil mehr VRAM zu haben, wenn aktuelle Games schon an der Grenze kratzen (und bei der GTX295 oft sogar überschreiten!).
Da knallt nix die 5970er weg
http://www.xtremesystems.org/forums/showthread.php?p=4303469#post4303469
nur der eine crysis Bench, sonst bringt sie kaum mehr wie die 1GB Version.
In crysis schon ich bezog mich auf den crysis bench der 480 wo sie keine Chance hatt gegen die Toxic
Ailuros
2010-03-24, 13:20:12
Ach hör doch auf....ich hab eine Grafikkarte, die seit einem halben Jahr DX11 + Tesselation kann. Ein halbes Jahr später schiebt nVidia Grafikkarte nach, die schneller tesseliert und einige Fanboys schreien als wäre das das Killerfeature schlechthin.
Die extremen Rückschritte beim Stromverbrauch, höchstwahrscheinlich dann auch Lautstärke, der mageren Durchschnitts(mehr)leistung zur 5870, der höhere Preis, werden komplett ausgeblendet.
Aber hauptsache Tesselation, Tesselation, Tesselation. :freak:
In Deinen Schuhen wuerde ich mich erstmal gelassen zuruecklehnen und mich ueber meine Investition freuen wenn alles wirklich so duester aussieht als Du oben beschreibst (und ja manches sieht tatsaechlich nicht gut aus, aber von Perfektion bei GPUs hab ich selbst bei R300 bzw. G80 nichts sehen koennen).
Uebrigens da die Fanboy Betitlung ziemlich leicht genommen wird sollte ich mal die anderen Mods fragen ob es eine Option waere nach X Schlaegen jemand als A oder B Fanboy von der Moderation aus zu betiteln damit Ihr Euch auch nicht anstrengen muss. Ob Du dann dieser Massnahme entgehen wuerdest ist aeusserst fraglich.
Als gläserner jemand, der die ~5 existenten und davon ~3 schwachen DX10.1-Spiele als grandioses Pro-HD-4000-Feature feierte, solltest du vielleicht nicht mit Steinen werfen. ;) Furby kann mehr als nur tessellieren.
MfG,
Raff
Und wirst du deine 5870 austauschen? :)
Also, bis jetzt wird GTX480 immer schwächer, je mehr leaks kommen :(
Im Endeffekt kann man im Schnitt über ein +/- 0% gegenüber der HD5870 noch froh sein :ugly:
Man kann schon mit 15-20% im Durchschnitt rechnen. Nur steht mit Cat 10.4 der nächste performance Treiber vor der Tür, dann sind wieder 5% weg. Ati könnte somit mit einer übertakteten HD5870 aufschließen (+-5%).
Und dann könnte NVIDIA vermutlich nicht preislich konkurrieren. Vom Stromverbrauch wollen wir erst gar nicht anfangen.
Das theoretisch gilt nur für AMD/ATI, würden beide etwa gleich stark sein, würden es die Spieleentwickler auch früher einbauen, aber nun muss man erst auf ATI warten, so etwas nennt man Technologiebremse.
Und es muss hier einfach mal gesagt werden, LovesuckZ ist hier wirklich der einzige der sich für Nvidia richtig einsetzt, ich lese den Thread hier von Anfang an mit, er übertreibt zwar manchmal, aber wie Ailuros schon geschrieben hat, er muss sich ja allein gegen 100+ AMD User(Fanboys), behaupten, dafür hat er schon meinen Respekt, ich würde auch keinen Kampf mit 100 Leuten eingehen.
Das nennt man eben einseitige Sichtweise. Die Technologiebremse ist seit fast 7 Monaten am Markt. NV zieht nun nach (in welcher Menge werden wir sehen) und Tessellation wird hochgejubelt, ohne das die meisten Leute hier bislang eine entsprechende Karte eigenhändig testen konnten. Es gab übrigens schon oft Fälle, in denen bestimmte Karten in einem Gebiet besonders stark waren. Die alte Ati 8500 beispielsweise hatte einen viel höheren Dreiecksdurchsatz als die (meistens) schnellere Geforce 3 Ti500. Was hat es ihr gebracht? Oder spielen künftige Fermi-Nutzer nur noch im Wireframemodus, damit man die vielen Dreiecke wenigstens sieht?
Siehe: http://www.xbitlabs.com/articles/video/display/radeon-8500_2.html#sect1
Und LZ ist der einzige Mann, der sich für NV einsetzt? Übertreibt ein bisschen?
Mapel110, Grestorn, Blaire, Tombman, dildo4u, MiamiNice, Banshee18 und ein Stück weit auch Du. Ihr alle seid nicht unbedingt für Eure Neutralität bekannt. Eine Ati-Lastigkeit ist in diesem Thema jedenfalls nicht vorhanden oder wird gut kompensiert.
Wem Du Respekt zollst, ist dein Bier. Aber jemand, der rund um die Uhr hier abhängt und sich sehr engstirnig verhält, ist zumindest meines Respekts nicht würdig.
Dieser Thread könnte interessant und sogar lehrreich sein, gäbe es nicht diese unnützen Scheuklappen.
MiamiNice
2010-03-24, 13:22:08
Aber ich bin froh das es so ist. Das gibt hoffnung, das die Spieleentwickler nun endlich mehr Spiele in der Richtung bauen werden. Ihr solltet auch darüber froh sein. Oder wollt ihr einen jahrelangen Stillstand ?
Den jahrelangen Stillstand haben wir doch schon. Daran sind allerdings weder ATI noch Nvidia schuld. Und die Spieleentwickler werden bestimmt nix in die Richtung bauen, da Konsolen der gemeinsame Nenner sind. Was wir die nächsten jahren wahrscheinlich sehen werden sind Games bei denen im höchstfall neuere Features, wie eben diese Tessellation, "angeflansht" sind.
deekey777
2010-03-24, 13:22:25
Paar Worte zu Heaven 2.0:
http://www.overclock.net/8840643-post67.html
Ua:
We never got to get out hands on 1.1, and Unigine would not send it to me, stating that they did not produce it. I later found out that nVidia bought a license and produced 1.1. As far as I can see, this is not a real world scenario
Da ist mir gerade was eingefallen:
http://www.pcgameshardware.de/aid,705002/Catalyst-102-und-103-Neue-Features-im-Test/Grafikkarte/Test/
Laut AMD liegt die Leistung in der Unigine-Heaven-Demo unter Verwendung von DirectX 9 mit umbenannter Exe ("heaven" statt "unigine") und ohne die "AppProfiles" deutlich unter der unveränderten Exe. Erst nach der Installation der "AppProfiles" liegen die Fps wieder auf dem ursprünglichen Niveau. Bei dem Versuch, dies unter DirectX 11 nachzustellen, scheiterten wir - unter DirectX 9 dagegen funktionierten die "AppProfiles" so wie von AMD propagiert. AMD gibt jedoch an, die 1.1-Version der Heaven-Demo genutzt zu haben, Unigine bietet jedoch nur eine Version 1.0 an.
Wie ist AMD an Heaven 1.1 rangekommen, wenn Nvidia diese selbst produziert hat? Oder war Nvidia einfach so fair und vorausschauend und stellte Heaven 1.1 für AMD zur Verfügung?
Tiuri
2010-03-24, 13:23:04
Als gläserner jemand, der die ~5 existenten und davon ~3 schwachen DX10.1-Spiele als grandioses Pro-HD-4000-Feature feierte, solltest du vielleicht nicht mit Steinen werfen. ;) Furby kann mehr als nur tessellieren.
MfG,
Raff
Das war doch ueberhaupt nicht der Punkt! Die 5000er Reihe beherrscht ebenso wie Fermi Tesselation und alles andere, was DX11 ist.
Was er gesagt hatte, war: Fermi ist zu spaet, zu laut, verbraucht zu viel Strom, und ist abgesehen von einigen Features (--> Tesselation) nicht aufregend schneller als die 5000er Serie.
Dass selbst fuer einen "professionellen" Redakteur das nicht sein kann, was aus nvidia Sicht nicht sein darf, gibt mir jetzt schon zu denken.
Aus nvidia Sicht hat das ganze Featuregepushe und Marketing (aber nur wenn's auch passt aus nvidia Sicht!) ja leider eine unruehmliche Tradition. So haben sie 3dfx erledigt (TNT2 vs Voodoo3: Kein 32bit!, Geforce vs. Voodoo5: kein T&L! --> wobei das RGSAA der V5 mal kurz totgeschwiegen wurde...), genauso haben sie die Grafikwelt eine ganze Weile auf DX10.0 Level gehalten (GTX280 kein DX10.1, DX11 6 Monate nach ATi). Aber wenn dann mal die Tesselationsleistung hoch ist, ist natuerlich das neue Killerfeature geboren.
Ich hab absolut nichts gegen Technologiewettbewerb. Ati, nvidia, whoever, alles bringt die Grafikwelt weiter. Und es ist auch das gute Recht der Firmen, das ganze marketinggerecht moeglichst gut anzupreisen.
Aber die Funktion von euch als Redaktion waere, bei allen persoenlichen Vorlieben, zumindest bei eurer Arbeit neutral zu bleiben.
Vielleicht ist das aber auch zuviel verlangt?
In Deinen Schuhen wuerde ich mich erstmal gelassen zuruecklehnen und mich ueber meine Investition freuen wenn alles wirklich so duester aussieht als Du oben beschreibst (und ja manches sieht tatsaechlich nicht gut aus, aber von Perfektion bei GPUs hab ich selbst bei R300 bzw. G80 nichts sehen koennen).
Uebrigens da die Fanboy Betitlung ziemlich leicht genommen wird sollte ich mal die anderen Mods fragen ob es eine Option waere nach X Schlaegen jemand als A oder B Fanboy von der Moderation aus zu betiteln damit Ihr Euch auch nicht anstrengen muss. Ob Du dann dieser Massnahme entgehen wuerdest ist aeusserst fraglich.
Ich wäre eher dafür das du endlich jeden der das Wort Fanboy in den Mund nimmst dafür verwarnst. Aber du lässt ja fast alles durchgehen, dadurch sinkt das Niveau laufend. Ich finde solche persönlichen Anfeindungen haben hier nicht verloren und sollte ohne Rücksicht verwarnt werden.
Frank1974
2010-03-24, 13:24:28
Ach hör doch auf....ich hab eine Grafikkarte, die seit einem halben Jahr DX11 + Tesselation kann. Ein halbes Jahr später schiebt nVidia Grafikkarte nach, die schneller tesseliert und einige Fanboys schreien als wäre das das Killerfeature schlechthin.
Die extremen Rückschritte beim Stromverbrauch, höchstwahrscheinlich dann auch Lautstärke, der mageren Durchschnitts(mehr)leistung zur 5870, der höhere Preis, werden komplett ausgeblendet.
Aber hauptsache Tesselation, Tesselation, Tesselation. :freak:
Genau das wollte ich erreichen, man sieht sofort, mit welchem Aggressiven Schreibstil manche AMD/ATI User kontern:smile:, während meins Fakten sind, kommt von der anderen Seite nur Aggressive heiße Luft.
Besonders an deinem letzten Satz sieht man, das du hier überhaupt nicht mit diskutieren solltest, so was von aggressiv..
Und ich habe in meinem Post kein einziges mal erwähnt, das Tesselation ein Killerfeature ist, GT400 wird wahrscheinlich im Durchschnitt, vor einer 5870 sein, also kann von Fail keine Rede sein. Zum Vergleich, eine 8800GTX war 35-50% schneller als eine 2900XT(nach 6 Monaten Verspätung), auch das sind Fakten und so was nennt man Fail, GT400 ist wenigstens auf gleicher Höhe und mehr, hat noch einige Features an Board die ATI nicht bietet, das alles sind Fakten, die man nicht abstreiten kann.
mfg
Frank
dildo4u
2010-03-24, 13:27:54
Man kann schon mit 15-20% im Durchschnitt rechnen. Nur steht mit Cat 10.4 der nächste performance Treiber vor der Tür, dann sind wieder 5% weg. Ati könnte somit mit einer übertakteten HD5870 aufschließen (+-5%).
Und dann könnte NVIDIA vermutlich nicht preislich konkurrieren. Vom Stromverbrauch wollen wir erst gar nicht anfangen.
NV kann auch am Treiber schrauben und eine GTX480 hat viel mher Strom zum OC 250TDP bis 300Watt Luft.Nicht umsonsts werden die OC Versionen der 5870 mit stärkerer Stromversorgung ausgerüstet was zu Preisen von über 400€ (1GB Version)führt.
http://ht4u.net/news/21866_msi_radeon_r5870_lightning_unmittelbar_vor_der_einfuehrung_-_erste_listungen_erfolgt/
PCGH_Raffael
2010-03-24, 13:28:27
Und wirst du deine 5870 austauschen? :)
Nein.
Das war doch ueberhaupt nicht der Punkt! Die 5000er Reihe beherrscht ebenso wie Fermi Tesselation und alles andere, was DX11 ist.
Was er gesagt hatte, war: Fermi ist zu spaet, zu laut, verbraucht zu viel Strom, und ist abgesehen von einigen Features (--> Tesselation) nicht aufregend schneller als die 5000er Serie.
Dass selbst fuer einen "professionellen" Redakteur das nicht sein kann, was aus nvidia Sicht nicht sein darf, gibt mir jetzt schon zu denken.
Aus nvidia Sicht hat das ganze Featuregepushe und Marketing (aber nur wenn's auch passt aus nvidia Sicht!) ja leider eine unruehmliche Tradition. So haben sie 3dfx erledigt (TNT2 vs Voodoo3: Kein 32bit!, Geforce vs. Voodoo5: kein T&L! --> wobei das RGSAA der V5 mal kurz totgeschwiegen wurde...), genauso haben sie die Grafikwelt eine ganze Weile auf DX10.0 Level gehalten (GTX280 kein DX10.1, DX11 6 Monate nach ATi). Aber wenn dann mal die Tesselationsleistung hoch ist, ist natuerlich das neue Killerfeature geboren.
Ich hab absolut nichts gegen Technologiewettbewerb. Ati, nvidia, whoever, alles bringt die Grafikwelt weiter. Und es ist auch das gute Recht der Firmen, das ganze marketinggerecht moeglichst gut anzupreisen.
Aber die Funktion von euch als Redaktion waere, bei allen persoenlichen Vorlieben, zumindest bei eurer Arbeit neutral zu bleiben.
Vielleicht ist das aber auch zuviel verlangt?
Ich sag's gern nochmal: Ich bin neutral. So neutral, dass ich diese schrecklich langsame, weil setuplimitierte HD 5870 im Privatrechner habe und mich an ihr erfreue. ;) Was mir gegen den Strich geht, ist, dass hier Leute mit eindeutigem Bias anhand von dubiosen Leaks Dinge behaupten, die so nicht stimmen. Hier weiß doch niemand, wie schnell die beiden GF100-Karten wirklich sind. Hochs und Tiefs gibt's bei jeder Karte.
MfG,
Raff
Sascha1971
2010-03-24, 13:32:23
Man kann schon mit 15-20% im Durchschnitt rechnen. Nur steht mit Cat 10.4 der nächste performance Treiber vor der Tür, dann sind wieder 5% weg. Ati könnte somit mit einer übertakteten HD5870 aufschließen (+-5%).
Und dann könnte NVIDIA vermutlich nicht preislich konkurrieren. Vom Stromverbrauch wollen wir erst gar nicht anfangen.
Du vergisst, aber auch das NV auch laufend neue Treiber rausbringt.
Und bei denen ist noch nix optimiert.
Schau dir mal den Unterschied an wo die 5000er Serie von ATI raus kam wie langsam die Treiber da noch liefen und jetzt. Das gleiche wird wohl bei NV auch passieren. Also sind die Treiber ein sehr schlechtes Argument.
urfaust
2010-03-24, 13:35:49
mit welchem Aggressiven Schreibstil manche AMD/ATI User kontern
ich war mal so frei und habe eine Korrektur vorgenommen
TheBrother
2010-03-24, 13:36:21
Was mir gegen den Strich geht, ist, dass hier Leute mit eindeutigem Bias anhand von dubiosen Leaks Dinge behaupten, die so nicht stimmen. Hier weiß doch niemand, wie schnell die beiden GF100-Karten wirklich sind. Hochs und Tiefs gibt's bei jeder Karte.
Um mal im Forums-Slang zu bleiben: FULL ACK :freak:
Ich freue mich auf euer Review. Die Frage ist nur ob ich mir die Nacht vorm Rechner um die Ohren schlage oder ob ich lieber einen trinken gehe ;D
Was mir bis jetzt keiner wirklich sagen konnte ist er Verkaufsstart. 27.3. oder doch erst 6.4. und ab wann es Wakü Blöcke gibt.
Ob ich meine 280er ggf endlich in Rente schicken kann? Man wird's sehen. 2 Tage und weniger als 11h...
Du vergisst, aber auch das NV auch laufend neue Treiber rausbringt.
Und bei denen ist noch nix optimiert.
Es gibt echt Leute, die wirklich glauben, Nvidia hätte erst diese Woche angefangen, an den Treibern zu arbeiten. Solange wie sich die Hardware verschoben hat, soviel mehr Zeit hatte das Treiberteam zum Arbeiten. Kapiert das doch endlich, die jetzigen Treiber sind das Ergebnis monatelanger Arbeit. Klar hat AMD da einen Vorsprung, aber von nicht finalen Treibern zu reden ist Blödsinn.
Mr. Lolman
2010-03-24, 13:36:54
Da hatte man einfach noch nicht den neusten Ati-Treiber, weil das Video schon etwas älter ist...
Trotzdem bringt der Ati-Treiber nicht sooviel Mehrperformance, wie meine leicht übertaktete HD5870 bei 1.0 vgl zu den Originalwerten von NV zeigt:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7890223&postcount=14625
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7916152&postcount=16443
Du vergisst, aber auch das NV auch laufend neue Treiber rausbringt.
Und bei denen ist noch nix optimiert.
Schau dir mal den Unterschied an wo die 5000er Serie von ATI raus kam wie langsam die Treiber da noch liefen und jetzt. Das gleiche wird wohl bei NV auch passieren. Also sind die Treiber ein sehr schlechtes Argument.
Ati hat ganz sicher bisher noch nichts gemacht um die wirkliche Leistung zu entfalten, wenn man 6 Monate konkurrenzlos ist, dann verschießt man keine Munition, eher im Gegenteil, da macht man nur das nötigste.
Wenn man im Gegensatz dazu 6 Monate später Punkten muss, noch dazu wenn andere Faktoren nicht so toll sind, da wird man auf einen starken Treiber setzen ;)
Sascha1971
2010-03-24, 13:43:09
Es gibt echt Leute, die wirklich glauben, Nvidia hätte erst diese Woche angefangen, an den Treibern zu arbeiten. Solange wie sich die Hardware verschoben hat, soviel mehr Zeit hatte das Treiberteam zum Arbeiten. Kapiert das doch endlich, die jetzigen Treiber sind das Ergebnis monatelanger Arbeit. Klar hat AMD da einen Vorsprung, aber von nicht finalen Treibern zu reden ist Blödsinn.
Das würde stimmen wenn die 480er nur ein Refresh wäre. Aber es handelt sich um eine ganz neue Architektur.
Das würde stimmen wenn die 480er nur ein Refresh wäre. Aber es handelt sich um eine ganz neue Architektur.
Achja und an der Architektur arbeitet man erst seit 4 Wochen oder wie?
Sascha1971
2010-03-24, 13:47:39
Achja und an der Architektur arbeitet man erst seit 4 Wochen oder wie?
Den Spiess könnte ich umdrehen. bei der 5000er Serie handelte es sich nicht um eine komplett neue architektur. Und Trotzdem schafft es ATI ihr Karte (was eigentlich nur ein refresh ist) die Karte mit Ihren Treiber immer noch zu verbessern. Und das schon einige Monate mehr wie NV.
von ATI kommt ab Q2/2010 die neue Serie, Nvidia wird dann mit Fermi untergehen.
Den Spiess könnte ich umdrehen. bei der 5000er Serie handelte es sich nicht um eine komplett neue architektur. Und Trotzdem schafft es ATI ihr Karte (was eigentlich nur ein refresh ist) die Karte mit Ihren Treiber immer noch zu verbessern. Und das schon einige Monate mehr wie NV.
Da sieht man wie lange es dauert bis was neues rund läuft, dann viel Spaß mit den Wundertreibern 2012 :)
Der Spieß war nicht wirklich gut gedreht
Frank1974
2010-03-24, 13:53:08
Ich warte auch sehr gespannt auf die ersten Tests, aber ich spiele hauptsächlich Rollenspiele und Renngames und da ist in den meisten Tests nicht so viel vorhanden, da muss ich wohl blind eine GTX480 kaufen und hoffen, das sie gerade auch in diesen Games gut zulegt, damit für hohe Auflösungen und viel AA genug Platz ist, aber das sollte kein Problem sein, meine GTX295 hat ja nur 896MB VRAM, während die GTX480 1,5GB hat.
Größere Sorgen mache ich mir, das ich von den ersten GTX480 keine bekomme, selbst ich bezahle nicht jeden Preis, bis 500€ würde ich gehen, darüber wohl nicht, das meiste habe ich bis jetzt für eine 1900XT ausgegeben, 550€:redface:.
mfg
Frank
Sascha1971
2010-03-24, 13:54:33
von ATI kommt ab Q2/2010 die neue Serie, Nvidia wird dann mit Fermi untergehen.
Was soll denn da kommen ?
Ausser die 2 Gig Version von der 5870er wüsste ich nicht was das sein sollte.
Und die Benchmarks die ich dazu schon verlinkt hatte, Beweist das sich sich zur 1 Gig Version zur Zeit nicht sehr abhebt.
Eggcake
2010-03-24, 13:56:15
Genau das wollte ich erreichen, man sieht sofort, mit welchem Aggressiven Schreibstil manche AMD/ATI User kontern:smile:, während meins Fakten sind, kommt von der anderen Seite nur Aggressive heiße Luft.
Besonders an deinem letzten Satz sieht man, das du hier überhaupt nicht mit diskutieren solltest, so was von aggressiv..
Und ich habe in meinem Post kein einziges mal erwähnt, das Tesselation ein Killerfeature ist, GT400 wird wahrscheinlich im Durchschnitt, vor einer 5870 sein, also kann von Fail keine Rede sein. Zum Vergleich, eine 8800GTX war 35-50% schneller als eine 2900XT(nach 6 Monaten Verspätung), auch das sind Fakten und so was nennt man Fail, GT400 ist wenigstens auf gleicher Höhe und mehr, hat noch einige Features an Board die ATI nicht bietet, das alles sind Fakten, die man nicht abstreiten kann.
mfg
Frank
Also bitte...als ob man von der anderen Seite nicht auch aggressiven Schreibstil sehen könnte. Und bitte öffne auch deine Augen - LovesuckZ ist bei weitem nicht der einzige, welcher pro NV ist. Momentan haben zugegebenermassen die Pro ATi Fraktion die Überhand, das sah aber imho vor einigen Tagen noch ganz anders aus :>
Hier behaupten zu wollen die eine Seite sei so böse und die andere so lieb finde ich etwas lächerlich...sei(d) froh, dass ihr die ganz extreme pro ATi Fraktion in letzter Zeit nicht zu sehen bekommt (Namen nenne ich nicht) ;)
Was soll denn da kommen ?
Der ursprnunglüche RV870, noch größer, noch mehr Leistung
von ATI kommt ab Q2/2010 die neue Serie, Nvidia wird dann mit Fermi untergehen.
Ich glaub du hast dich im Jahr vertan ...
Schlammsau
2010-03-24, 13:59:42
Also bitte...als ob man von der anderen Seite nicht auch aggressiven Schreibstil sehen könnte. Und bitte öffne auch deine Augen - LovesuckZ ist bei weitem nicht der einzige, welcher pro NV ist. Momentan haben zugegebenermassen die Pro ATi Fraktion die Überhand, das sah aber imho vor einigen Tagen noch ganz anders aus :>
Hier behaupten zu wollen die eine Seite sei so böse und die andere so lieb finde ich etwas lächerlich...sei(d) froh, dass ihr die ganz extreme pro ATi Fraktion in letzter Zeit nicht zu sehen bekommt (Namen nenne ich nicht) ;)
Also ich empfinde meine Schreibstil eigentlich nicht als aggressiv.... :uhippie:
Also bitte...als ob man von der anderen Seite nicht auch aggressiven Schreibstil sehen könnte. Und bitte öffne auch deine Augen - LovesuckZ ist bei weitem nicht der einzige, welcher pro NV ist. Momentan haben zugegebenermassen die Pro ATi Fraktion die Überhand, das sah aber imho vor einigen Tagen noch ganz anders aus :>
Hier behaupten zu wollen die eine Seite sei so böse und die andere so lieb finde ich etwas lächerlich...sei(d) froh, dass ihr die ganz extreme pro ATi Fraktion in letzter Zeit nicht zu sehen bekommt (Namen nenne ich nicht) ;)
Seit Gerüchte über Leistung und Verbrauch aufgekommen sind hat sich das Ganze auf wenig Verfechter der Fermis reduziert. Die anderen haben wohl eingesehen, dass die Karten nicht so der Renner werden. Nur noch wenige kämpfen einen hoffnungslosen Kampf. Und über etwas Schadenfreude der "Roten" brauchen sich die "Grünen" nicht wundern, nachdem was in den letzten Monaten so alles geschrieben wurde.
Sascha1971
2010-03-24, 14:01:15
Seit Gerüchte über Leistung und Verbrauch aufgekommen sind hat sich das Ganze auf wenig Verfechter der Fermis reduziert. Die anderen haben wohl eingesehen, dass die Karten nicht so der Renner werden. Nur noch wenige kämpfen einen hoffnungslosen Kampf. Und über etwas Schadenfreude der "Roten" brauchen sich die "Grünen" nicht wundern, nachdem was in den letzten Monaten so alles geschrieben wurde.
Es kann auch daran liegen, das man einfach nur noch 2 Tagen warten muss. Bis man Fakten sieht. :wink:
Ailuros
2010-03-24, 14:03:28
Ich wäre eher dafür das du endlich jeden der das Wort Fanboy in den Mund nimmst dafür verwarnst. Aber du lässt ja fast alles durchgehen, dadurch sinkt das Niveau laufend. Ich finde solche persönlichen Anfeindungen haben hier nicht verloren und sollte ohne Rücksicht verwarnt werden.
Das Niveau kann nicht weiter sinken und das trotz der Zeit die ich und andere Mods diesen Threads widme. Eine Anerkennung fuer die Muehe die wir uns geben erwarte ich ja sowieso nicht. Das groesste Problem hier generell ist dass es einfach keinen Anstand mehr gibt.
Mir auch noch unter die Nase zu reiben dass ich am Abfall des Niveaus (selbst indirekt) verantwortlich bin ist das allerschoenste. Nichtdestominder danke fuer die Blumen.
Ich glaub du hast dich im Jahr vertan ...
hab ich nicht, spät. Q3/2010 kommt die neue Serie.
Es kann auch daran liegen, das man einfach nur noch 2 Tagen warten muss. Bis man Fakten sieht. :wink:
Glaub mir, wenn die ersten Reviews von 50% Mehrleistung reden würden bei einer TDP von 200 Watt, dann wäre aber sowas von die Hölle los. Da würde es nur wimmeln von Leuten mit Kommentaren wie: "Die Fermis wischen die Zypressen vom Boden auf" oder "Nvidia bigger all, AMD ist doch Schrott" usw. Das kann mir hier keiner erzählen. Ich finde die AMD Anhänger halten sich da sogar noch zurück mit ihren Äußerungen.
MiamiNice
2010-03-24, 14:07:29
Nur noch wenige kämpfen einen hoffnungslosen Kampf. Und über etwas Schadenfreude der "Roten" brauchen sich die "Grünen" nicht wundern, nachdem was in den letzten Monaten so alles geschrieben wurde.
Ich weiss ja nicht ob Schadenfreunde angebracht ist. Das Teil wird anscheind bissel schneller als die ATI Karten. Hat zusätzlich noch den Physikkram + Cuda + anscheind das schnellere DX11. Ok, die Karten werden wohl was mehr kosten und mehr Strom verbraten. Dafür ist man in den Benches wohl am schnellsten und hat die besseren/mehr Features an Bord. Highend definiert sich über Speed und Features. So what?
Sieht für mich immernoch nach einem NV Win aus, wen man die ganze Geschichte als Zweikampf sieht. Der Win ist nur nicht so überragend wie ürsprünglich angenommen.
Gast 76
2010-03-24, 14:08:02
hab ich nicht, spät. Q3/2010 kommt die neue Serie.
das sind aber nur gerüchte..
btw: vorhin hast du noch was von Q2/2010 geschrieben^^
Ailuros
2010-03-24, 14:09:43
Glaub mir, wenn die ersten Reviews von 50% Mehrleistung reden würden bei einer TDP von 200 Watt, dann wäre aber sowas von die Hölle los. Da würde es nur wimmeln von Leuten mit Kommentaren wie: "Die Fermis wischen die Zypressen vom Boden auf" oder "Nvidia bigger all, AMD ist doch Schrott" usw. Das kann mir hier keiner erzählen. Ich finde die AMD Anhänger halten sich da sogar noch zurück mit ihren Äußerungen.
Dann tragt beide Seiten Euren Kindergarten woanders hin. Mir ist es egal ob Ihr Euch wie hooligans im Fussballstadium fuehlen wollt oder nicht. Und da mir gerade der Kragen geplatzt ist; Thread zu und wir sehen weiter.
Ailuros
2010-03-24, 20:04:17
Thread ist wieder offen. Aber es wird diesmal so streng moderiert dass sich manche die Augen reiben werden. Entweder streng ON TOPIC und sachlich oder gar nichts.
DrFreaK666
2010-03-24, 20:08:38
Weiss schon jemand ob es noch andere neue AA-Modi geben wird oder ist 32xCSAA das einzig neue?
Ailuros
2010-03-24, 20:10:13
Weiss schon jemand ob es noch andere neue AA-Modi geben wird oder ist 32xCSAA das einzig neue?
Bin mir zwar nicht sicher aber ich glaube 32xAA + alle andere die es schon gibt. Eigentlich duerfte 16xCSAA + TMAA am interessantesten sein.
y33H@
2010-03-24, 20:15:18
Es gibt auch abseits von 32x neues und cooles =)
Banshee18
2010-03-24, 20:25:50
Es gibt auch abseits von 32x neues und cooles =)
SGSSAA? :naughty:
Ist sowas überhaupt spielbar oder wird das nur zum Screenies machen verwendet?^^
Ich schätze mal, dass das nicht viel langsamer als 8xMSAA ist, was auf Fermi ja gut performen soll
Bin mir zwar nicht sicher aber ich glaube 32xAA + alle andere die es schon gibt. Eigentlich duerfte 16xCSAA + TMAA am interessantesten sein.
Ist das 4xMSAA mit 12 Coverage Samples?
Banshee18
2010-03-24, 20:28:53
Etwas anderes. =) ;(
MfG,
Raff
Adaptives Shader-AA? :eek:
boxleitnerb
2010-03-24, 20:29:04
Ist es technisch eigentlich möglich, dass der Grafikchip/Treiber im Bild stellen erkennt, die potentiell flimmern könnten und nur dort SSAA appliziert? Oder ist das eine Schnapsidee? Würde das leistungsmäßig im Vergleich zu Vollbild-SSAA überhaupt was bringen?
Da frage ich mich auch, ob es seitens NV (und AMD) irgendwelche Guidelines bzw. Tips gibt, wie man Shaderaliasing eliminieren oder zumindest minimieren kann. Ist das bei den IHV überhaupt ein Thema (R&D) oder wälzt man es komplett auf die Spieleentwickler ab?
@Raff
Habt Ihr auch die Möglichkeit, Fermi im SLI zu testen? DX11 mit Metro 2033 und einer 5970 macht wirklich kein Spaß. :(
Eggcake
2010-03-24, 20:40:43
@Raff
Habt Ihr auch die Möglichkeit, Fermi im SLI zu testen? DX11 mit Metro 2033 und einer 5970 macht wirklich kein Spaß. :(
Nein, da hier (http://www.pcgameshardware.de/aid,707129/Grafikkarten-Test-mit-ueber-200-Benchmarks-Vorbereitung-auf-GTX-470/480/Grafikkarte/Test/)bereits gesagt wird, dass auf MGPU komplett verzichtet wird.
Also zumindest zu Beginn wird man wohl keine MGPU-Tests finden.
mapel110
2010-03-24, 20:47:30
In dem Benchparcour von PCGH sieht ja selbst die GTX285 schon sehr ordentlich aus. Da muss Furby ja extrem Fail sein, um nicht die meisten Benchmarks zu gewinnen.
LovesuckZ
2010-03-24, 20:49:42
In dem Benchparcour von PCGH sieht ja selbst die GTX285 schon sehr ordentlich aus. Da muss Furby ja extrem Fail sein, um nicht die meisten Benchmarks zu gewinnen.
Ja, da sind einige sehr - nennen wir sie - überraschende Ergebnisse drin. Bad Company 2 z.B.
Entweder die Spiele, in denen 5870 nicht wirklich schneller ist, sind Texturleistungslimitierend und GF100 wird hier sogar langsamer als die GTX285 sein, oder aber es wird einige Ergebnisse geben, wo man deutlich schneller ist...
Ailuros
2010-03-24, 20:53:16
Ist das 4xMSAA mit 12 Coverage Samples?
Ja. Das gute diesmal auf GF100 ist dass man Transparenz samples auch auf CSAA erweitern kann. Mit 16xCSAA bekommst Du jetzt 16xTMAA als 4xTMAA wie bisher.
In dem Benchparcour von PCGH sieht ja selbst die GTX285 schon sehr ordentlich aus. Da muss Furby ja extrem Fail sein, um nicht die meisten Benchmarks zu gewinnen.
Ist halt auch immer einer Frage der Tester, welche Spiele, welche Einstellungen, welche Szenarien, usw. Bei den meisten Seiten kann sich die 5870 deutlicher absetzen. PCGH hat halt auch einige alte Schinken dabei und relativ viele Spiele mit CPU-limit und alter Engine. Die interessante Frage wird sein ob da Fermi wegen der Texelfüllrate nicht auch Probleme bekommt.
y33H@
2010-03-24, 20:57:34
Bei den meisten Seiten kann sich die 5870 deutlicher absetzen.Man nehme die CB-Werte als Beispiel. Rechne das DX11-SpeedUp von Battleforge und Stalker CoP raus und die HD5870 setzt sich im Mittel genauso weit von der GTX285 ab wie bei PCGH, über den Daumen gepeilt würde ich gar sagen weniger.
EDIT
Ja, im Mittel ist die Differenz sogar geringer. Obwohl PCGH "alte Schinken", "CPU-Limit" und "alter Engine" dabei hat ;)
dargo
2010-03-24, 21:03:02
Könnt ihr schon verraten ob DS mit der neuen Genaration einwandfrei funktioniert? Oder wäre das ein NDA-Verstoß? :)
deekey777
2010-03-24, 21:08:56
Adaptives Shader-AA? :eek:
Also Edge Detection a la Radeons wäre nicht undenkbar, aber in Anbetracht davon, dass es CSAA gibt?
(Ja, EDAA ist wirklich die Krone der Schöpfung.)
y33H@
2010-03-24, 21:11:34
Nein, ED-SGSSAA ist die Krone und 32xS-TSSAA [mit SGSSAA] wäre die Krone ;D Aber das ist OT.
Sähe doch echt doof aus wenn der Balken der alten 295 länger wär oder gar der ner 5970. Als der des tollen Fermi.
Seh ich auch so! Beim Test zur 5870 war die GTX295 aber schon dabei, is ja klar. Aber es gibt genug andere Websites, die (hoffentlich) objektiver benchen.
@Topic: Gibt es Angaben über kommende GTX470-Karten mit noch mehr VRAM?
Wenn ihr regelmäßig auf PCGH.de wärt, würdet ihr sehen, dass dort nur selten MGPU-Karten mitgetestet werden. Die regelmäßigen Spiele-Benchmarks zum Launch "heißer" Titel werden nur mit Single-GPUs gemacht. Und warum? Weil die Redaktion MGPU nicht empfehlen kann.
MfG,
Raff
Nein, MGPU erfreut sich seit Monaten wenig bis gar keiner "Beliebtheit" und auch die Verbreitung ist gering.
Das hatte ich nach meiner 7950GX2 damals auch sofort begriffen was das für ein Mist ist ;) Da hatte ich sowas wie jetzt in Metro durchgehend in jedem Spiel :D Diesmal ist aber die Engine schrott... ich hasse diese Engine!
Achja back to topic... wer kennt einen Großhändler, der die 480 GTX schon auf Lager hat? :D
dildo4u
2010-03-24, 22:02:47
3X GTX480 SLI Vantage 3XXXX GPU Score.
http://www.news4it.it/images/stories/Nvidia/3dmb_copia.jpg
http://www.news4it.it/gpu/175-nvidia-gtx480-3-way-sli
Timolol
2010-03-24, 22:11:55
Was ich mich immer wieder Frage... Der abstand der Karten. Der Lüfter hat noch 0,5-1cm Luft zur nächsten Karte? Gar kein gescheiter Luftstrom mehr möglich... :freak:
Also müssen die Lüfter noch schneller drehen und Karten heißer?!
3x geschätzte 250W TDP, zusammengerechnet 0,75kw auf volllast + Prozessor und Rest. Sind knapp 1KW mal schnell zusammen :freak:
Anker zum Gehäuse festmachen damits nicht wegeblasen wird, wird wohl mitgeliefert beim kauf von 3 Karten.
Mr. Lolman
2010-03-24, 22:12:27
Seh ich auch so! Beim Test zur 5870 war die GTX295 aber schon dabei, is ja klar.
Das ist dann allerdings schon etwas inkonsequent.
y33H@
2010-03-24, 22:17:50
@ Ronny145
Von einer HD5770 aus lohnt sich alles ab einer HD5850. Zudem sind die HD4890 und die GTX260 dabei - das ist Anhaltspunkt genug imo. Zeit ist leider (und zum Glück) ein rares Gut.
Das ist dann allerdings schon etwas inkonsequent.
Die werden schon wieder Konsqenter wenn ne Fermi Dual kommt keine Angst.
Menace
2010-03-24, 22:26:39
Sorry for OT, aber PCGH macht ja hier auch Werbung, dafür darf man sie bestimmt auch fragen:
Seh ich auch so! Beim Test zur 5870 war die GTX295 aber schon dabei, is ja klar. Aber es gibt genug andere Websites, die (hoffentlich) objektiver benchen.
War das wirklich so? Falls ja, werde ich hellhörig.
Ich hoffe, ihr habt nicht den Treiberbench von nvidia mitgemacht, die die Vorgaben für die Benches empfohlen haben wie CB.
Die fehlende Kaufempfehlung von ATI vor 6 Monaten habe ich auch noch im Hinterkopf, da ihr ja keine Herstellerkarten (sondern nur die von ATI) hatten. Da gab es einfach keine Kaufempfehlung für Ati-Produkte.
Wenn ihr regelmäßig auf PCGH.de wärt, würdet ihr sehen, dass dort nur selten MGPU-Karten mitgetestet werden.
Nur dann, wenn eine Firma einen Vorteil hat? :wink:
Ich glaube schon, dass ihr versucht redlich zu sein. Allerdings agiert ihr imho mehr als ungeschickt. Die GF100 ist zwar eine neue Generation, aber in etwa gleiche Bedingungen wie die Tests der HD58XX sollten schon sein, selbst wenn nvidia der größere Werbepartner ist.
y33H@
2010-03-24, 22:34:31
Keine Retail-Karten, keine Platzierung im Einkaufsführer - simple Logik. Seit September empfiehlt PCGH jedoch praktisch ausschließlich HD5k, weil die Dinger einfach super sind =)
Ich hoffe, ihr habt nicht den Treiberbench von nvidia mitgemacht, die die Vorgaben für die Benches empfohlen haben wie CB. Es gab keine Vorgaben.
Ronny145
2010-03-24, 22:34:57
@ Ronny145
Von einer HD5770 aus lohnt sich alles ab einer HD5850. Zudem sind die HD4890 und die GTX260 dabei - das ist Anhaltspunkt genug imo. Zeit ist leider (und zum Glück) ein rares Gut.
Natürlich kann man sich alles zurechtbiegen. Es gibt auch nach dem Fermi launch nur eine DX11 Mittelklasse, das ist die 5770 (oder halt die kaum günstigere 5750) und mit der 5870 wohl auch die verkaufsstärkste. Deswegen hätte ich lieber die Karte gesehen als die 4850 512 MB. Zumal die älteren Karten 4870, 4890 vom Markt verschwinden und als Ersatz dann am ehesten die 5770 in Frage kommt.
y33H@
2010-03-24, 22:40:39
HD4870/512 und HD4890 sind weitaus verbreiteter, ergo wurden diese gebencht. Für ein Launch Review sind es viele Karten, Spiele und Settings mit aktuellen Treibern. Möchte sehen, wer das überbietet =)
urfaust
2010-03-24, 22:45:51
Thanks to a "certain" friend of mine who's under the NDA, i've had a quick look at nVidia FTP with pics, "reviewer's guides", drivers an most improtantly a whole plethora of the GTX470/480 benchmarks against the HD5850 and HD5870 and from what i've seen, the GTX480 beats the HD5870 easily by 25% on average. Sometimes it's 10% sometimes 50-60% but the GTX480 always wins.
They used the 10.2 ATi cats for their comparison by the way.
So yeah, don't read too hard into certain people's fear mongering anti-nVidia BS.
Here. I can assure you it's the real deal. Credit goes to... well you know who you are I'll upload a bigger set of benchmarks once i fugure out how to remove the water mark.
http://img522.imageshack.us/img522/6378/gtx4802.jpg
http://img10.imageshack.us/img10/4164/73529807.jpg
http://futuremark.yougamers.com/forum/showpost.php?p=1346470&postcount=1
Ailuros
2010-03-24, 22:47:29
Hier geht es weiter mit EDAA/MLAA http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480065 und nein ich meinten nicht dass es MLAA auf GF100 geben wird.
Nebenbei wer Fragen an y33H@ hat fuer Einzelheiten kann ihm auch eine PM schicken.
Ronny145
2010-03-24, 22:47:37
HD4870/512 und HD4890 sind weitaus verbreiteter, ergo wurden diese gebencht. Für ein Launch Review sind es viele Karten, Spiele und Settings mit aktuellen Treibern. Möchte sehen, wer das überbietet =)
Besser wäre beides, klar. Aber die Einstellung geht so nicht auf bei euch. Dann hättet ihr auch die 9800 GT testen müssen statt der GTX 260 usw. Zeitmangel ist ein Argument, das sehe ich ein. Die anderen Auflüchte nicht.
y33H@
2010-03-24, 22:48:29
Die Werte sind unstimmig, siehe erste Grafik mit BC2.
Dann hättet ihr auch die 9800 GT testen müssen statt der GTX 260 usw.GTX260 ist laut Poll iirc verbreiteter.
Eggcake
2010-03-24, 22:49:52
Im Vantage gibt's Nachkommastellen? Oo
LovesuckZ
2010-03-24, 22:50:27
Lol @ Crysis. Wenn die Werte stimmen, dann wissen wir ja jetzt, wieso nur Crysis geleaket wurde.
Mr. Lolman
2010-03-24, 22:50:43
Aaaaahhh, ich will den NV Reviewer's Guide sehen. Das gibts doch nicht. Kann das Ding nicht irgendjemand leaken? :freak:
EDIT: Irgendjemand der im Futurmarkforum angemeldet ist, soll den Typen um den Guide anraunzen. Bitte bitte bitte.
tombman
2010-03-24, 22:52:54
http://img522.imageshack.us/img522/6378/gtx4802.jpg
http://img10.imageshack.us/img10/4164/73529807.jpg
http://futuremark.yougamers.com/forum/showpost.php?p=1346470&postcount=1
Na endlich- da kommt Freude auf mit 2x GTX480 ;) Metro 2033 voll spielbar ;)
Aber man merkt die Texturschwäche, manchmal ist die 295er schneller. Trotzdem- ich kann damit leben ;)
8xAA herrscht auch mächtig.
Blaire
2010-03-24, 22:56:08
Lol @ Crysis. Wenn die Werte stimmen, dann wissen wir ja jetzt, wieso nur Crysis geleaket wurde.
Was meinst du? Liegt doch alles im erwarteten Rahmen. :smile:
Vieleicht auch nur geschätzte Werte , aber kann schon hinkommen.
Ronny145
2010-03-24, 22:56:53
Sind das Werte von NVIDIA selber? Wird wohl dann Cat 10.2 sein.
Schaut doch garnet so schlecht aus! Tomb was findest du nur an MGPU, sinds nur die Balken? :rolleyes:
mapel110
2010-03-24, 22:58:25
Sollten ja eh vorläufige Werte sein, wenns 1-2 Tage vor Launch nochmal einen Treiber von nvidia an die Tester gibt.
Eggcake
2010-03-24, 22:59:03
Sind das Werte von NVIDIA selber? Wird wohl dann Cat 10.2 sein.
Ja, wenn die Werte stimmen ist es Cat 10.2, schreibt derjenige der's gepostet hat.
LovesuckZ
2010-03-24, 23:00:18
Was meinst du? Liegt doch alles im erwarteten Rahmen. :smile:
Vieleicht auch nur geschätzte Werte , aber kann schon hinkommen.
Neben Crysis ist nur L4D mit einem Gleichstand vertreten.
Wenn die Werte da in der Tabelle stimmen kann man wenigstens FPS mässig mit der 480 leben. Es fehlen leider Details zu Lautstärke und Verbrach.
Ailuros
2010-03-24, 23:00:54
Schaut doch garnet so schlecht aus! Tomb was findest du nur an MGPU, sinds nur die Balken? :rolleyes:
Natuerlich sieht es nicht schlecht aus; in Ohnmacht faellt natuerlich auch keiner um die Balancen zu halten. Je mehr neuere Spiele ankommen und natuerlich mit etwas zukuenftiger Treiberliebe wird das Bild hoechstwahrscheinlich noch etwas besser aussehen.
Da wir aber trotzdem immer noch nicht wirklich offizielles haben, bitte ich nach wie vor um Vorbehalte bis zu den ersten offiziellen reviews.
Aber schon krass wie deutlich sich die 480 in einigen Spielen von der 5870 abhebt. Einfach nur krass.
Tesseract
2010-03-24, 23:03:39
sollten diese werte stimmen performt fermi besser als ich erwartet hätte nach den ganzen problemen mit der fertigung.
Natuerlich sieht es nicht schlecht aus; in Ohnmacht faellt natuerlich auch keiner um die Balancen zu halten. Je mehr neuere Spiele ankommen und natuerlich mit etwas zukuenftiger Treiberliebe wird das Bild hoechstwahrscheinlich noch etwas besser aussehen.
Da wir aber trotzdem immer noch nicht wirklich offizielles haben, bitte ich nach wie vor um Vorbehalte bis zu den ersten offiziellen reviews.
Hoffe, dass dies nah an der Realität ist, dann würde ich u.U. zuschlagen naja außer das Ding geht für 550.- raus da warte ich dann doch noch n bissl :D
Neben Crysis ist nur L4D mit einem Gleichstand vertreten.
und resident evil.
mit dem 10.3 treiber auch gleich schneller in dirt2.
Iruwen
2010-03-24, 23:09:24
Hier geht es weiter mit EDAA/MLAA http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480065 und nein ich meinten nicht dass es MLAA auf GF100 geben wird.
Nebenbei wer Fragen an y33H@ hat fuer Einzelheiten kann ihm auch eine PM schicken.
OT: Wenn es hier um AA Modi geht gehen bei mir die Lichter aus, gibt es die diversen Modi und Kombinationen irgendwo verständlich gesammelt zum Nachlesen, auch die neueren? Wikipedia gibt nicht wirklich was her.
Wenn die Werte da in der Tabelle stimmen kann man wenigstens FPS mässig mit der 480 leben. Es fehlen leider Details zu Lautstärke und Verbrach.
Zum Verbrauch kann man wohl sagen, dass halt mindestens das zusätzlich zur 5870 gebraucht, was auch mehr geleistet wird.
Sind dann keine Welten.
Die TDP ist eh mit 250 Watt abgesteckt, sprich im Reallife werdens wohl im Extremfall maximal 230 Watt sein. Das ist noch locker einigermaßen leise zu kühlen. Die GPUs können im Allgemeinen bis zu 125 °C ohne Probleme operieren. Sprich ein Pendeln um die 90 °C wäre gefahrlos möglich und dann ist die Chose relativ easy zu kühlen.
Ailuros
2010-03-24, 23:09:52
Hoffe, dass dies nah an der Realität ist, dann würde ich u.U. zuschlagen naja außer das Ding geht für 550.- raus da warte ich dann doch noch n bissl :D
Ich hab jetzt keinen Bock jegliches Resultat zu vergleichen aber der generelle Trend sieht schon in etwa so aus. Wenn die 2D Temperaturen nicht normalisiert werden koennen ueber den Treiber, geb ich kein Geld persoenlich fuer den Krueppel aus. Ich warte lieber auf den re-spin.
Armaq
2010-03-24, 23:10:25
@ Ronny145
Von einer HD5770 aus lohnt sich alles ab einer HD5850. Zudem sind die HD4890 und die GTX260 dabei - das ist Anhaltspunkt genug imo. Zeit ist leider (und zum Glück) ein rares Gut.
Was? Von 5770 zu 5850 ist Geldverschwendung.
Botcruscher
2010-03-24, 23:10:40
Im Schnitt halt 20%. Dank Kosten für Speicherausbau/Bus und Chipgröße darf es auch nicht weniger sein.
Von den Werten ausgehend kann man sagen, dass es tempomäßig ordentliche Karten werden, aber so richtig hui ist's irgendwie nicht. Auch nicht in Metro2033. Bleibt abzuwarten, wie es mit dem Rest (Stromverbrauch und sonstige Features/Neuerungen aussieht).
Ailuros
2010-03-24, 23:13:51
OT: Wenn es hier um AA Modi geht gehen bei mir die Lichter aus, gibt es die diversen Modi und Kombinationen irgendwo verständlich gesammelt zum Nachlesen, auch die neueren? Wikipedia gibt nicht wirklich was her.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480065
OT fliegt nach wie vor zum Fenster raus auch fuer Dich tombman. Dafuer gibt es PMs im Notfall
Es scheint wirklich so zu sein das Fermi bei einigen Spielen richtig aufdreht bei anderen ist der Abstand zur 5870 geringer. Jetzt müsste man die Engine dieser Spiele raussuchen und schauen was noch in Zukunft für Games kommen.
Eggcake
2010-03-24, 23:14:40
Metro sieht irgendwie etwas mager aus...PCGH hat ja in der Printversion afaik Frameverläufe angekündigt, hoffe die werden auch online zu begutachten sein.
Ich hab jetzt keinen Bock jegliches Resultat zu vergleichen aber der generelle Trend sieht schon in etwa so aus. Wenn die 2D Temperaturen nicht normalisiert werden koennen ueber den Treiber, geb ich kein Geld persoenlich fuer den Krueppel aus. Ich warte lieber auf den re-spin.
Hmm kommt drauf an ob es lediglich die Temps sind oder auch die Watt? Temps interessieren mich eigentlich nicht, auch wenn die Lebensdauer dadurch verringert würde, in der Regel bleibt bei mir keine Hardware solange oder warum stören die Temps sonst?
Naja insgeheim wollte ich auch keinen Krüppel aber wenn er einige Dinge ganz gut meistert warum nicht, bin ja ein sozialer Mensch :D
y33H@
2010-03-24, 23:15:06
Von 5770 zu 5850 ist Geldverschwendung. Wenn du meinst *Schulter zuck* Sind immerhin +50%.
dildo4u
2010-03-24, 23:17:55
Metro sieht irgendwie etwas mager aus...PCGH hat ja in der Printversion afaik Frameverläufe angekündigt, hoffe die werden auch online zu begutachten sein.
16 zu 23fps sind ordentlich Mherleistung(30%) aber nicht wirklich spielbar@Max Metro ist wirklich das Crysis des Jahres 2010.
Mr. Lolman
2010-03-24, 23:18:45
16 zu 23fps sind ordentlich Mherleistung aber nicht wirklich spielbar@Max Metro ist wirklich das Crysis des Jahres 2010.
Mich würds interessieren, welchen Anteil Tessellation daran hat. Naja Samstag wissen wirs. hoffentlich.
Superheld
2010-03-24, 23:19:59
Na endlich- da kommt Freude auf mit 2x GTX480 ;) Metro 2033 voll spielbar ;)
Aber man merkt die Texturschwäche, manchmal ist die 295er schneller. Trotzdem- ich kann damit leben ;)
8xAA herrscht auch mächtig.
aufeinmal wieder von Sli reden weil eine 480 auch nicht so viel schneller ist als ne 5870 :rolleyes:
Benchmarks sind entäuschend :(
Eggcake
2010-03-24, 23:20:52
16 zu 23fps sind ordentlich Mherleistung aber nicht wirklich spielbar@Max Metro ist wirklich das Crysis des Jahres 2010.
Das stimmt, hätte aber trotzdem erwartet, dass Metro gut spielbar sein wird mit einer GTX480. Schlussendlich ist man auch mit GTX480 gezwungen ohne Tessellation zu spielen (wobei das in diesem Spiel kein Verlust ist), da würden mich Benches ohne Tess fast mehr interessieren.
Edit: Wobei mal kucken wie das mit 1680er-Auflösung aussieht, da dürfte es durchaus klappen. Zudem ist ja auch noch 4xMSAA aktiv, welches ebenfalls extrem Leistung frisst, habe ich auch grad vergessen. Sollte also dann durchaus machbar sein.
Naja, ich hab gelesen 450 Euro. Klar wird das kein G80. Der Aufpreis zur 5870 wirds wohl wert sein.
dildo4u
2010-03-24, 23:22:12
Das stimmt, hätte aber trotzdem erwartet, dass Metro gut spielbar sein wird mit einer GTX480. Schlussendlich ist man auch mit GTX480 gezwungen ohne Tessellation zu spielen (wobei das in diesem Spiel kein Verlust ist), da würden mich Benches ohne Tess fast mehr interessieren.
4XAA haut auch ordentlich rein vieleicht geht's ohne das andere AAA ist nicht so schlecht.
Blaire
2010-03-24, 23:25:22
Das stimmt, hätte aber trotzdem erwartet, dass Metro gut spielbar sein wird mit einer GTX480. Schlussendlich ist man auch mit GTX480 gezwungen ohne Tessellation zu spielen (wobei das in diesem Spiel kein Verlust ist), da würden mich Benches ohne Tess fast mehr interessieren.
Das konnte man aber schon vorher ahnen bei den Anforderungen. Wenn die Werte einigermaßen passen, dann braucht es gar TriSLI GTX480@2560x1600 für spielbare FPS.
Also, die Werte sehen gut aus, freut mich, kann damit leben.
Weiß wer welche Cpu verwendet wurde?
@cr@b: frag mich per PM, aber nein, es sind nicht die Balken.
Etwas schlechter wäre es nur, wenn dass der Nicht-Krüppel (512) war/ist...
derguru
2010-03-24, 23:33:56
metro2033 ist aber auf keinen fall max details bei den settings ist standbild angesagt.
LovesuckZ
2010-03-24, 23:33:59
Mal sehen, ob nVidia neben den Watermark auch unterschiedliche Werte weitergegeben hat. Der Vantage - Performancewert sieht extrem niedrig aus im Vergleich zur GTX285.
Armaq
2010-03-24, 23:34:12
Wenn du meinst *Schulter zuck* Sind immerhin +50%.
Preis zu Leistung zu Preisaufschlag zu Leistungsaufschlag. Dazu kommt halt, dass es z.Z. noch wenige Spiele gibt, die die Leistung benötigen. Aber das ist halt meine Meinung.
tombman
2010-03-24, 23:34:49
Etwas schlechter wäre es nur, wenn dass der Nicht-Krüppel (512) war/ist...
10% weniger vertragen die SLI-Werte immer noch, falls das ganze überhaupt kein fake ist :)
Und falls die 23fps in Metro die 480sp-Werte sind, hätten 512sp+ mehr clock das ganze auch nicht spielbar gemacht- da hilft nur SLI und sonst gar nix :)
Sascha1971
2010-03-24, 23:51:21
Hoffe, dass dies nah an der Realität ist, dann würde ich u.U. zuschlagen naja außer das Ding geht für 550.- raus da warte ich dann doch noch n bissl :D
Jo, bin mit den werten eigentlich recht zufrieden.
Aber 2 Punkte will ich noch vorher wissen.
1. 2d Stromverbrauch
2. Lautstärke im 2d Betrieb
Daredevil
2010-03-25, 00:01:18
Preis zu Leistung zu Preisaufschlag zu Leistungsaufschlag. Dazu kommt halt, dass es z.Z. noch wenige Spiele gibt, die die Leistung benötigen. Aber das ist halt meine Meinung.
Ich frage mich wirklich, was die ganzen Leute mit ihrer HD5770 haben, da gibts etliche die von einer HD4870 wechseln wegen des Stromverbrauches. Die HD5770 ist nichts anderes als eine langsamer HD4870, die Stromsparender agiert, eine HD5850 ist ~45% schneller, das ist ein kompletter Generationswechsel, erst ab dann lohnt sich wirklich ein Umstieg. Ne 5770 ist genausoschnell wie eine Karte, die vor 2 Jahren ( !!! ) erschienen ist, da kann man solangsam mal an mehr Speed denken. ( Wenn man ihn denn braucht... )
derguru
2010-03-25, 00:05:55
jetzt ist aber klar warum nv die far cry2 werte gezeigt hatte.ich finde die werte bescheiden,positive ist die 8aa performance.
in den dx11 games kann sich die 480 nicht besonders gut absetzen,zwischen 0-20% und mit dem cat10.3 wird es sogar ein tick weniger.
Dural
2010-03-25, 00:12:34
bescheiden? fermi könnte 100% schneller als RV870 sein und du würdest irgend was finden... lol
wenn man bedenkt das der GF100 512SP wohl locker 20% mehr Leisten könnte und auch Leisten wird mit dem B2 ist das OK und mehr konnte man auch nie erwarten....
derguru
2010-03-25, 00:16:34
ach kommen jetzt schon die ausreden aller B2 wirds richten?
machen kopp zu.
mapel110
2010-03-25, 00:18:12
Wenn man die Werte mit der GTX285 vergleicht, hat nvidia wohl bei den TMUs richtig gute Arbeit geleistet. Da bin ich echt mal gespannt, wie sie aus 20 weniger TMUs so viel Leistung rausquetschen.
Dural
2010-03-25, 00:24:12
Bei Vantage scheint die Bandbreite zu Limitieren (Extreme) denk ich jetzt mal... oder hat jemand eine andere erklärung für das schlechte abschneiden in Vantage?
Mit dem B2 könnte NV auf bis zu 280GB/s gehen mit 3000MHz Speicher, das wäre ein Plus von 100GB/s von der GTX480 ausgesehen lol
Es erschtaunt mich eh das die GTX470/480 mit so einer geringen Bandbreite so viel schneller als GT200 ist, da scheint es doch einige änderungen zu geben
derguru
2010-03-25, 00:37:46
@Guru
Es kommt auf die Sicht an. Wenn man eine 5870 hat, muss man net umsteigen. Hat man so wie ich ne 260 mit 192 Shadern ist das ein Quantensprung. Und man sieht an diesen benches (Wenn sie wahr sind) das NV hier Games hat wo die 5870 sagen wir mal nicht mithalten kann. Ich finde das Ergebnis nicht schlecht. Man bedenke das dies die 480SP Version ist.
klar das ist schon richtig aber eine 512 wird da jetzt auch nicht mehr viel reißen.
NV wird sicher auch neue Treiber bringen, denn die Architektur ist neu- da ist sicher mehr herauszuholen, als ATI bei der Zypresse schafft.
da bin ich mal gespannt,ich glaub sogar nv hat zum jetzigen zeitpunkt schon weit mehr ausgequetscht als amd.
neugierig bin ich auf diese aussage ,
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7926290&postcount=18314
Iruwen
2010-03-25, 00:44:40
Jo, bin mit den werten eigentlich recht zufrieden.
Aber 2 Punkte will ich noch vorher wissen.
1. 2d Stromverbrauch
2. Lautstärke im 2d Betrieb
70 Grad Idle lässt ja zumindest vermuten dass die Temperatur der Lautstärke geopfert wurde. Mir wäre Lautstärke unter Last fast wichtiger, der Rechner läuft eh nur zum Zocken...
Daredevil
2010-03-25, 00:53:35
Ein heißer Chip heißt wiederum aber auch, das mehr Strom gezogen wird, ein Teufelskreis. ;)
Tomahawk
2010-03-25, 00:53:49
Ich bin gespannt, ob die Verfügbarkeit ähnlich desolat wie bei den ATi-Karten ausfallen wird. Leider ist das zu befürchten. Gibt es da neue Zahlen oder Erkenntnisse? Im Prinzip wäre es für nVidia (bei schlechter Verfügbarkeit) sinnvoll, einen sehr hohen Preis anzusetzen, damit die Händler nicht wie bei den Ati-Karten den Preis in die höhe treiben können.
Das hat dir der Teufel verraten! [/Rumpelstilzchen]
Du könntest Recht haben, NV optimiert leider sehr gut :/
Aber, bei so 'ner neuen Arch. kann noch was kommen, und AMD wird nach Cat 10.3 auch nimmer viel nachpfeffern können- sie brauchen die Leistung ja JETZT gegen Furby.
Na die optimieren stetig, bei RV770 hats gut geklappt. Zuerst war man hinter der 260, danach meistens vor der 260².
Im Moment wird z.b. Metro kaum optimiert sein ...
Wann soll B2 überhaupt kommen ? In nem halben Jahr ? Da gibts ja fast schon 28nm ^^
Na die optimieren stetig, bei RV770 hats gut geklappt. Zuerst war man hinter der 260, danach meistens vor der 260².
Im Moment wird z.b. Metro kaum optimiert sein ...
Wann soll B2 überhaupt kommen ? In nem halben Jahr ? Da gibts ja fast schon 28nm ^^
guten morgen---28 nm wirste die nächsten 2 jahre in sehn...TSMC hat klar gesagt das der prozess erst 2012 serienreife erreichen wird!
Nazar
2010-03-25, 01:34:06
wie man sieht muss es B2 nicht mal richten... Es geht um dem Chip / die Architektur und die scheint ganz "OK" zu sein
Ich weiß jetzt echt nicht was Du siehst!?
1. sind die Balken vs 10.2
2. sind dort viele nV Hausmarken drin, wo man nun weiß, dass diese Spiele schlecht zu vergleichen sind (siehe Batman)
3. Ist der Abstand VIEL zu gering, im Bezug auf Verzögerung, Größe, Leistungsaufnahme.
4. Hat der FC2 nV DX9 vs AMD DX11 Bench auch in dieser Gegenüberstellung ein Stelldichein.
Es scheint sich eher um eine Sammlung von Leaks zu handeln.
Um was es geht ist, das was hinten rauskommt!
Es ist den meisten Käufern total egal ob das Ding PhysX, Tesselation oder Tanzen kann. Wichtig ist der Bums am Ende des Rohrs!
Und für die "Dicke" und "Länge" des Rohrs, ist die Leistung recht bescheiden (wenn denn die Balken so stimmen)!
guten morgen---28 nm wirste die nächsten 2 jahre in sehn...TSMC hat klar gesagt das der prozess erst 2012 serienreife erreichen wird!
Da wird dann aber schon mehr als ein dutzend Monate keine ATI mehr produziert, das wandert u.a. nach Dresden, wo man jetzt bereits angeblich Zero-Defect-Wafer in 28 nm produzieren kann:
http://www.brightsideofnews.com/news/2010/3/17/globalfoundries-produces-zero-defect-wafers2c-10025-yield.aspx
Blaire
2010-03-25, 01:41:46
Ich find es erstaunlich wie immer nach dem Catalyst 10.3 geschriehen wird, als ob der soviel mehr Leistung brächte. Außer Dirt2 sind die Steigerungen doch im einstelligen Prozentbereich.
http://hardocp.com/article/2010/03/19/amds_ati_catalyst_103a_driver_performance
Sorkalm
2010-03-25, 01:49:38
Naja, auch einstelliger Prozentbereich ist wohl ne Sache die schon was ausmacht. ;)
Zwar nicht in Spielen, da merkt man diese Differenzen kaum. Aber durchaus bei Benchmarks mit der Balkenlänge. Und das ist nicht nur für die Unternehmen interessant, denkt man so...
PS: BBC2 sind zumindest bei den Min-FPS zweistellig. :p
J0ph33
2010-03-25, 02:50:46
oh mann...und da hofft man, dass nV dafür sorgen wird, dass ATi die Preise wieder auf Launch(!)-Niveau senken muss, und dann sowas, wenn die GTX480 wirklich 450€ und mehr kostet, wird sich die 5870 kein Stück bewegen ;(
und das schlimme, allen ist es irgendwie egal, da liest man sowas wie "das mehr an performance rechtfertigt den erhöhten Preis der GTX480", so ein Bullshit! Die HD5870 sollte nie 380€ kosten, das ist reinster Wucher, und wenn die bisherigen Benches stimmen, dürfte auch eine GTX480 niemals 450 und mehr kosten.
Ich habe vor ein paar Monaten eine GTX280 für 150€ gekauft...nur ist diese nun tlw. zu langsam, doch den zwei- bis dreifachen Preis für im Schnitt wahrscheinlich kaum 50% Mehrleistung (HD5870 vs. GTX28x in Bad Company2, da wo ich es bräuchte...absolut lächerlicher Vorsprung)
=Floi=
2010-03-25, 03:16:12
ein höherer preis ist aber auch für die kunden besser. eine grafikkarte ist nunmal kein 120€ produkt. alleine für den treibersupport dürften 10-20% des kaufpreises draufgehen.
wenn eine größeres budget da ist, dann kann man auch bessere komponenten und teurere lüfter verbauen.
Gast23
2010-03-25, 03:31:31
Bei den Grafikkartenpreisen darf man den Euro/Dollar-kurs nicht vergessen. Der Euro ist in den letzten ~4 Monaten um ~14% gefallen. Wenn sich der Abwärtstrend des Euro/Dollar vorsetzt, dann könnte der Euro bis zum Jahresende um bis zu ~13% fallen.
J0ph33
2010-03-25, 03:32:58
du glaubst doch selbst nicht, dass durch den erhöhten preis die ihv jetzt bessere komponenten verbauen...da wird nachwievor der beste kompromiss aus 'kostet wenig' und 'tut was es soll' gesucht...der höhere kaufpreis erhöht die gewinnmarge, sicher nicht die allgemeine qualität...(später vlt. wenn der gewinn entsprechend in die entwicklung gesteckt wurde, dann bringts (hoffentlich) was)
Ailuros
2010-03-25, 07:01:55
Wenn man die Werte mit der GTX285 vergleicht, hat nvidia wohl bei den TMUs richtig gute Arbeit geleistet. Da bin ich echt mal gespannt, wie sie aus 20 weniger TMUs so viel Leistung rausquetschen.
IMO ist es nicht alles dank der Effizienz-steigerungen fuer die TMUs selber. Andere Daten-Verwaltung bzw. besserer Umgang mit Bandbreite koennten hier viel mehr beitragen als die TMUs.
Ich weiss immer noch nicht wie der Leistungsunterschied zwischen HQ und Q in worst case scenarios aussieht. Wir glotzen ja leider nach wie vor auf sterile hypothetische Leistungszahlen.
HD-Ronny
2010-03-25, 07:02:49
Langsam wird es spannend, ob es wohl wie bei der HD58X0 laufen wird das die Launchpreise die besten=günstigsten sind ?
Gibt es da Shops die bevorzugt von Distros beliefert werden mit Nvidias?
Wenn ihr regelmäßig auf PCGH.de wärt, würdet ihr sehen, dass dort nur selten MGPU-Karten mitgetestet werden. Die regelmäßigen Spiele-Benchmarks zum Launch "heißer" Titel werden nur mit Single-GPUs gemacht. Und warum? Weil die Redaktion MGPU nicht empfehlen kann.
MfG,
Raff
Einfache Frage: Warum war die GTX295 dann bei 5870-Launch dabei? Das ihr auch damit keinen Gefallen tut ist euch hoffentlich bewusst.
Ailuros
2010-03-25, 07:27:18
Einfache Frage: Warum war die GTX295 dann bei 5870-Launch dabei? Das ihr auch damit keinen Gefallen tut ist euch hoffentlich bewusst.
Tragt bitte Eure PCGH relevante Fragen entweder direkt zur Seite oder fragt Raff oder jemand anders per PM ab (registrieren tut nicht weh). Ich hab besseres zu tun als konstanstes OT aufraeumen zu muessen.
Es wird sicher andere Benches geben wo man sehen kann wie die 480 im Vergleich zur GTX 295 abschneidet. Das interssiert sicher viele die eine
295 er haben. Und die selber wissen ob sie mit der Dual GPU Problematik leben wollen. Man ist ja nicht auf PCGH angewiesen.
Ich find es erstaunlich wie immer nach dem Catalyst 10.3 geschriehen wird, als ob der soviel mehr Leistung brächte. Außer Dirt2 sind die Steigerungen doch im einstelligen Prozentbereich.
http://hardocp.com/article/2010/03/19/amds_ati_catalyst_103a_driver_performance
Na recht viel weiter als dieser einstellige Wertebereich ist die 480er halt auch nicht entfernt :freak:
Aber mal schauen, was bei den finalen Tests bei Min fps rauskommt ...
w0mbat@Gast
2010-03-25, 08:44:12
an alle nv-liebhaber: keine sorge, fermi wird gut schneller als cypress. auf jedenfall wenn man sieht wie sich amd in den internen slides fast nur auf den stromverbrauch stuerzt. performancetechnisch laesst fermi keine all zu grossen angriffe zu (ausnahmen bestaetigen die regel).
ich gehe aktuell davon aus, dass die gtx480 min hd5870+20% ist.
@w0mbat:
Sind das schon Werte mit den 480 Shader / richtigem Taktraten ?
Ansonsten: Weisst Du wieso sie die 5890 gestrichen haben ? Oder war die nie geplant, und die Gerücht nur falsch ?
an alle nv-liebhaber: keine sorge, fermi wird gut schneller als cypress. auf jedenfall wenn man sieht wie sich amd in den internen slides fast nur auf den stromverbrauch stuerzt. performancetechnisch laesst fermi keine all zu grossen angriffe zu (ausnahmen bestaetigen die regel).
ich gehe aktuell davon aus, dass die gtx480 min hd5870+20% ist.
Wenn sie dann nicht mehr als 20% Strom verbrät würde es ja passen mit der Effizienz des Fermi.
w0mbat@Gast
2010-03-25, 09:04:26
kA von welchen daten die karten sind, ich denke aber von den finalen retail fermis. wenn x leute schon reviews vorbereiten hat amd auch schon benches.
zur hd5890: es gab ueberlegungen, aber die gibt es immer. auf eine solche karte wurd nie wirklich hingearbeitet. wieso weiss ich nciht.
Sollte die 480 tatsächlich nicht schneller sein als ne GTX295 würde sich der Fermi für mich zumindest nicht lohnen.
Schlammsau
2010-03-25, 09:17:56
Jetzt sind das erste mal Leaks aufgetaucht, die einer 480 eine deutlich höhere Performance zuschreiben als ich vermutete. Ich denke aber das das auch Fakes sind!
Ich bleibe bei meiner Theorie.....die 470 im Schnitt 5-15% schneller als eine 5850/1GB und die 480 mit dem selben Vorsprung vor einer 5870/1GB. Wie gesagt, alles im Durchschnitt.
Mit Sicherheit wird es Games geben, wo sie jeweils bis zu 30% schneller sein werden, aber umgedreht wird es auch Games geben, wo sie sich gar nicht vom direkten Gegner absetzen können und evtl sogar langsamer sein werden.
[reality mode off]
Warum deutlich mehr als man allgemein erwartete. Ich finde diese Bench-Werte alles andere als beeindruckend, zumal es NV interne Ergebnisse mit Cat. 10.2 seien sollen. Wenn ich bedenke, dass Cat. 10.3a für HD58xx bei Dirt2 20%, bei HAWX 15%, bei Crysis/WH 6%, bei Battleforge 8% usw. zulegt, dann bleiben für die GTX480 wahrscheinlich durchschnittlich nur 15% über.
Außerdem reden wir hier auch noch über eine Graka die immerhin eine ganze Preisklasse höher angesiedelt ist und offensichtlich auch noch mit exorbitanten Stromverbrauch und Hitze zu glänzen weiß. Interessant finde ich eigentlich nur noch das ganze Thema BQ und neue AA-Modi.
svenw
2010-03-25, 09:33:55
NV wird den Vorsprung brauchen, denn wahrscheinlich wird ATI im Sommer mit updates ihrer Karten kommen, was ca. 10% Mehrleistung bringen sollte. Auch sind ca. 20% Mehrleistung für 50% mehr Chipfläche auch kein Wunder an Effizienz.
Außerdem hat NV jetzt die Karten auf dem Tisch aber ATI kann noch reagieren, wenn die neue Architektur Anfang-Mitte 2011 kommt. NV wird mit der aktuellen Architektur erstmal leben müssen. ATI hat immer gesagt das sie keine High-End Chips bauen und die Preise für die 5870 sind schon über dem Budget der meisten und die 480 liegt noch ein ganzes Stück darüber.
AnarchX
2010-03-25, 09:41:40
Außerdem hat NV jetzt die Karten auf dem Tisch aber ATI kann noch reagieren, wenn die neue Architektur Anfang-Mitte 2011 kommt.
Großartige Veränderungen wird man heute wohl kaum an den Produkten für 2011 vornehmen können und wenn AMD wie Charlie bis vor kurzem geglaubt hat Fermis Tessellator ist eine SW-Lösung, könnte es wohl bis AMD mit einem vergleichbaren Ansatz kommt, wohl etwas dauern.
Warum AMD bringt wohl (nach eigenen Aussagen 2Q/2010) erstmal einen kompletten Refresh von Evergreen und danach die neue Architektur und wie die im Detail aussieht, weiß außer AMD selber momentan niemand. Natürlich wird diese neue Architektur auch schon einige Jahre in der Entwicklung seien und da fallen kurzfristige Änderungen, so sie denn nötig sind, natürlich nicht so leicht.
Warum AMD bringt wohl (nach eigenen Aussagen 2Q/2010) erstmal einen kompletten Refresh von Evergreen
Quelle?
Zu Fermi: Gibts neue brauchbare Leaks? Laut CB gibts am Freitag die offiziellen Infos, bisher ging ich davon aus, dass das NDA hierzulande aufgrund Zeitverschiebung erst Samstag 01:00 Uhr fällt.
Ich habe mal die Werte von 1980x1200 1920x1200 4xAA/16xAF der GTX480 vs. HD5870 gegenübergestellt
durchgezeichnet ist die Mittelwertlinie bei ~22%
http://www.abload.de/img/gtx480qugk.png
LovesuckZ
2010-03-25, 10:00:02
Quelle?
Zu Fermi: Gibts neue brauchbare Leaks? Laut CB gibts am Freitag die offiziellen Infos, bisher ging ich davon aus, dass das NDA hierzulande aufgrund Zeitverschiebung erst Samstag 01:00 Uhr fällt.
Es wird Freitag in Deutschland keine offiziellen Reviews geben.
Jedoch aufgrund der Sommerzeitumstellung in Amerika musst du nur ungefähr eine Minute im Samstag warten. ;)
Sorry natürlich nicht 2Q sondern 2H/2010.
http://www.google.de/url?sa=t&source=web&ct=res&cd=1&ved=0CAYQFjAA&url=http%3A%2F%2Fwww.hardware-infos.com%2Fnews.php%3Fnews%3D3396&rct=j&q=amd+evergreen+refresh&ei=JyerS_fcMI3__AamlIjjDw&usg=AFQjCNHc8vG2pdnhAu8A8KIo1X3ezZjo9g
Ich frage mich wirklich, was die ganzen Leute mit ihrer HD5770 haben, da gibts etliche die von einer HD4870 wechseln wegen des Stromverbrauches. Die HD5770 ist nichts anderes als eine langsamer HD4870, die Stromsparender agiert, eine HD5850 ist ~45% schneller, das ist ein kompletter Generationswechsel, erst ab dann lohnt sich wirklich ein Umstieg. Ne 5770 ist genausoschnell wie eine Karte, die vor 2 Jahren ( !!! ) erschienen ist, da kann man solangsam mal an mehr Speed denken. ( Wenn man ihn denn braucht... )
ist halt eine Preis/Leistungsfrage wenn die 5850 normal gepreist wär (<=200€) wär die 5770 auch deutlich weniger attraktiv
von 4870 upgrqaden lohnt natürlich nicht das ist klar selbst 4850 wäre sehr grenzwertig
aber die ganze 3850/70 88/98GT findet da ein einigermassen attracktives angebot
70 Grad Idle lässt ja zumindest vermuten dass die Temperatur der Lautstärke geopfert wurde. Mir wäre Lautstärke unter Last fast wichtiger, der Rechner läuft eh nur zum Zocken...
seh ich genau umgekehrt, mein rechner läuft zu 95% im "2d" und beim zocken hab ich eh meist headset auf und sound
während mir beim arbeiten jedes geräusch auf den sack geht
Na die optimieren stetig, bei RV770 hats gut geklappt. Zuerst war man hinter der 260, danach meistens vor der 260² GTX260 192SP.
Im Moment wird z.b. Metro kaum optimiert sein ...
Wann soll B2 überhaupt kommen ? In nem halben Jahr ? Da gibts ja fast schon 28nm ^^
die GTX260 192SP vielleicht aber nicht die 216SP
Ich find es erstaunlich wie immer nach dem Catalyst 10.3 geschriehen wird, als ob der soviel mehr Leistung brächte. Außer Dirt2 sind die Steigerungen doch im einstelligen Prozentbereich.
http://hardocp.com/article/2010/03/19/amds_ati_catalyst_103a_driver_performance
yepp lustig wie einigen roten fanboys der arsch auf grundeis geht und das treibermärchen ausgepackt wird weil fermi dann doch kein faili ist wenn die werte stimmen
ähnlich den nv fanboys beim nv30 damals als es immer hiess ja die cineFX engine braucht ein paar treiberoptimierungen und eine anpassung des internen shadercompilers dann rockt der NV30 auch in DX9 PS2.0 games ;D
ich selbst hab da im moment ein ähnliches gefühl wie beim G80 als der gelauncht wurde...der hatte mich anfangs weder enttäuscht noch vom hocker gerissen
schaun wir mal ob die werte stimmen und wie sich der fermi dann so in zukunft schlägt..
mictasm
2010-03-25, 10:11:57
Ich habe mal die Werte von 1980x1200 4xAA/16xAF der GTX480 vs. HD5870 gegenübergestellt
durchgezeichnet ist die Mittelwertlinie bei ~22%
http://www.abload.de/img/gtx480l6lc.png
1980?
schaun wir mal ob die werte stimmen und wie sich der fermi dann so in zukunft schlägt..
Wenn er sich durch die Veränderungen der Architektur als eine Art G80 mit längerer Lebensdauer erweisen sollte, wäre es umso ärgerlicher, dass er nicht komplett ist.
Ich habe mal die Werte von 1980x1200 4xAA/16xAF der GTX480 vs. HD5870 gegenübergestellt
durchgezeichnet ist die Mittelwertlinie bei ~22%
http://www.abload.de/img/gtx480l6lc.png
jetzt rechnest noch einen anteil von pro-nv spiele, die 10.3a catalyst und den umstand, dass die folien direkt von nvidia stammen dazu, wu bist du dann ;)
Eggcake
2010-03-25, 10:20:28
yepp lustig wie einigen roten fanboys der arsch auf grundeis geht und das treibermärchen ausgepackt wird weil fermi dann doch kein faili ist wenn die werte stimmen
Die 22% Mehrleistung die Pest visualisiert hat sind doch ziemlich genau das, was hier seit mehreren Dutzend Seiten spekulifiziliert wird?!
ich selbst hab da im moment ein ähnliches gefühl wie beim G80 als der gelauncht wurde...der hatte mich anfangs weder enttäuscht noch vom hocker gerissen
schaun wir mal ob die werte stimmen und wie sich der fermi dann so in zukunft schlägt..
Das stimmt wohl - ein definitives Urteil fälle ich erst in einigen Monaten - gerade bei neuen Architekturen würde ich mit definitiven Aussagen direkt nach den ersten Tests noch vorsichtig sein :)
yepp lustig wie einigen roten fanboys der arsch auf grundeis geht und das treibermärchen ausgepackt wird weil fermi dann doch kein faili ist wenn die werte stimmen
ähnlich den nv fanboys beim nv30 damals als es immer hiess ja die cineFX engine braucht ein paar treiberoptimierungen und eine anpassung des internen shadercompilers dann rockt der NV30 auch in DX9 PS2.0 games ;D
ich selbst hab da im moment ein ähnliches gefühl wie beim G80 als der gelauncht wurde...der hatte mich anfangs weder enttäuscht noch vom hocker gerissen
schaun wir mal ob die werte stimmen und wie sich der fermi dann so in zukunft schlägt..
Sorry, aber Vergleichbar ist das wohl nicht im geringsten. Der Cat. 10.3 ist Realität, nix Märchen. Er reist auch keine Bäume aus, aber er bringt erwiesenermaßen in einigen Spielen mehr Leistung. Da ist es wohl nicht zu viel verlangt wenn man erwartet das der auch für Benchs verwendet wird, was bei den NV-Werten nicht das Fall ist. Aber die meisten Leute sind hier offenbar nicht in der Lage in mehr als zwei Kategorien zu denken, fail oder nicht fail. Lächerlicher geht es kaum noch. Fermi wird Vor- und Nachteile haben, er wird weder ein fail noch ein Monster, das sollten manche endlich mal begreifen.
LovesuckZ
2010-03-25, 10:28:16
ich selbst hab da im moment ein ähnliches gefühl wie beim G80 als der gelauncht wurde...der hatte mich anfangs weder enttäuscht noch vom hocker gerissen
Wirklich? Ich fand G80 beeindruckend zur damaligen Zeit. Aus dem Stand durchgehend ca 66%* schneller als die schnellste Single-GPU Karte zu damaligen Zeit. Das gab es seitdem nicht mehr.
*66% mit 4AA/16AF, z.B. bei HT4U (http://ht4u.net/reviews/2006/nvidia_g80/)
Warum immer der Cat. 10.3/10.3a angesprochen wird? Ganz einfach weil die Performanceverbesserungen die AMD versprochen hat auch ca. hinkommen, zumindest bei meinem System mit HD5870 und den Games die ich benchen kann.
Dirt2 +17 min. Fps und +19% avg. Fps nach mehreren Durchläufen im Mittelwert
Stalker:CoP Benchmark: Day - +8% avg. Fps und +22% max. Fps(67 auf 82 Fps)
Night - +4% avg. Fps und +5% max. Fps
Rain - +6% avg. Fps und +9% max. Fps
SShafts - +10% max. Fps
Selbst bei Crysis WH kann ich die versprochenen 6% mehr nachweisen, auch wenn diese 6% in der Praxis bei Crysis WH natürlich nur 2-3 Fps ausmachen, aber da sich diese auch nach 5 Durchläufen immer wieder bestätigten, kann man sie als gesichert ansehen.
Also wird sich einfach im Vergleichstest mit Cat. 10.3/10.3a das Bild teilweise doch deutlich zugunsten der HD5870 verschieben können, zumal fast alle Games die NV in dieser Bench-Tabelle aufgeführt hat von Cat. 10.3 Verbesserungen profitieren.
MiamiNice
2010-03-25, 10:44:45
Gähn, kann man die ATI Boys nicht in einen anderen Thread auslagern? Immer das gleiche Gefasel in diesem Thread, bla Preis, bla Verbrauch, bla Cat x.3 blabla.
Das ist der Fermi Thread, eigendlich erwartet man hier Leaks, Infos etc. zum Fermi. Aber statt dessen muss man sich seitenweise durch rotes PR-Geblubber lesen. Das nervt, vor allem wen man morgens nur schnell schauen will ob es was neues gibt.
Das wär der Hammer zum totlachen
Wenn die Pressesamples mit 725 Mhz ausgeliefert wurden. Und am 6 dann die Karten mit 625 verkauft werden
XFX GTX480 Eckwerte
625 Mhz
http://product.yesky.com/product/606/606347/param.shtml
urfaust
2010-03-25, 10:48:50
eigendlich erwartet man hier Leaks
nur das in diesen Leaks "zufälligerweise" Ati Karten zum Vergleich
herangezogen werden... Darf man sich als 58XX Besitzer etwa nicht dazu äußern? Argumentieren etc.
Wenn du Monologe führen willst kannst du ja einen ortsansässigen nVidia FanClub gründen.
Jeden Sonntag Kaffeekränzchen und alle sind sich einig, keiner widerspricht dem anderen :tongue:
Sven77
2010-03-25, 10:49:50
Das ist der Fermi Thread, eigendlich erwartet man hier Leaks, Infos etc. zum Fermi. Aber statt dessen muss man sich seitenweise durch rotes PR-Geblubber lesen. Das nervt, vor allem wen man morgens nur schnell schauen will ob es was neues gibt.
Ja kann ich nur beipflichten. Dann immer diese unsäglichen Gast-Postings. Bin mal gespannt, wann die ersten GTX 4X0en gelistet werden. Kreditkarte liegt bereit :)
Auch als NV-"Fan" sollte man daran interessiert sein, dass die beiden Karten mit der derzeit höchst möglichen Performance was die Treiber angeht getestet werden. Wenn man sich ein Produkt natürlich nur schönreden will und garnicht an einem objektiven Vergleich interessiert ist, kann man natürlich den Cat. 10.3 ignorieren oder einfach mal die HD5970 komplett ausblenden (wie PCGH).
Das MGPU Nachteile hat und nicht für jeden was ist, ist auch klar, aber diese Entscheidung sollte man doch den Usern selbst überlassen.
Wie bei Duke Nukem Vorever
http://www.fudzilla.com/content/view/18208/34/
Wirklich? Ich fand G80 beeindruckend zur damaligen Zeit. Aus dem Stand durchgehend ca 66%* schneller als die schnellste Single-GPU Karte zu damaligen Zeit. Das gab es seitdem nicht mehr.HT4U (http://ht4u.net/reviews/2006/nvidia_g80/)Beeindruckender fand ich da eher die neuen AA-Modi und größere unterstützte Rendertagets. Ja gut, schnell war er auch noch, konnte mir aber relativ egal sein weil meiner hauptsächlich durch DX7- bis DX8-Spiele gehetzt wurde bei wahnwitzigen Qualitätseinstellungen.
Auch wenn Fermi kein sooo außergewöhnliches Tempo auf den Schirm bringt wie G80 zu seiner Zeit, neue Qualitätsoptionen wirds ja wieder geben...
...und wahrscheinlich wieder Unterstützung für größere Rendertargets.
2560x1600 oder 3840x1024 in 4x4 SSAA... MUAHAHAHA!
Da vielleicht noch 32xAF dazu :uconf2:
Mal schaun. Könnte selbst bei Meh-Tempo ein würdiger Nachfolger für NVs letzten großen Wurf werden.
Aquaschaf
2010-03-25, 11:19:05
Mit der R600-Architektur lag AMD wohl dennoch richtig, selbst wenn die HD 2xxx-Reihe erstmal gefailed hat. Die ausgereizte Version (HD 5870) ist weitaus schneller als der ausgereizte G80 (GTX 285) und bringt offensichtlich sogar die Nachfolgearchitektur ins Schwitzen (GF100).
Dafür steht auf Nvidias Seite beispielsweise G92, welcher wahrscheinlich bis dato der langlebigste Performance/Mainstream-Chip überhaupt ist. Aber das ist OT hier.
und die "Zukunft" fast vollständig ignoriert.
Der Beweis dafür steht noch aus. In der Zukunft wird man bei ATI auch neue Ansätze für das Tri-Setup brauchen, aber der Handlungsbedarf war bei RV870 in der Hinsicht noch nicht so groß wie bei Nvidia. Die Teile von ATI spucken ja tatsächlich 1 tri/clock aus, während es bei Nvidia bisher eher 1/2 tri/clock waren. Ich erwarte auch dass eine GTX470 sich in der Zukunft mehr von einer HD5850/5870 absetzen können wird, aber ob der Abstand signifikant wächst bleibt abzuwarten.
Hab das kleine Comic hier gerade gefunden, und musste an den Thread hier denken:
http://www.spiegel.de/fotostrecke/fotostrecke-53066.html
;-)
Damits kein Spam wird:
Die 625 MHz gibts bisher nur bei einem Laden in China, die hatten da schon öfters lustige Daten bei diversen Produkten. Das würde ich mal nicht überbewerten.
Selbst wenns stimmen würde, könnte es auch noch eine chin. Billigversion sein, die aus Chips bestehen, die den Takt nicht schaffen.
y33H@
2010-03-25, 14:15:51
Tessellation-Vergleich in Metro (http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/)
Amboss
2010-03-25, 14:17:18
Ich meine auf PCGH Vergleiche gesehen zu haben.
Mir persönlich gefällt Metro2033 untesseliert wesentlich besser.
Mit Tesselierung wirken viele Objekte wie aufgeblasen, auch werden die Texturen verzerrt.
Optisch ist es kein Gewinn.
Dem kann ich beipflichten. Die Figuren in Metro wirken tesseliert irgendwie aufgeblasen und eine Texturunschärfe/Verzerrung ist feststellbar, hab das hier gefunden http://www.gamestar.de/hardware/praxis/technik-check/2313602/special_directx_11_in_metro_2033_p2.html
grafzahl
2010-03-25, 14:52:51
Tja die grünen können ja ihr neues CSAA nutzen, nur bleibt die Frage ob das Spiel dann noch spielbar sein wird bei dem was es an Leistung nimmt. :)
Also das 32xCSAA kaum Leistung kosten soll wie es NV angab, glaubte ich nicht eine Sekunde. Ich glaube es sollten laut NV doch nur 8% seien im Vergleich zu 8xMSAA. Wie zum Teufel soll das bitte gehen?
Also das 32xCSAA kaum Leistung kosten soll wie es NV angab, glaubte ich nicht eine Sekunde. Ich glaube es sollten laut NV doch nur 8% seien im Vergleich zu 8xMSAA. Wie zum Teufel soll das bitte gehen?
Gleich wie bei 16xCSAA vs 4xMSAA :rolleyes:
Aquaschaf
2010-03-25, 16:04:57
Finde ich nicht, denn der Käufer möchte diese Entwicklung ja auch erkennen.
Eine Funktion, die ingame nicht wirklich ersichtbar wird, ist da eher kontraproduktiv.
Es geht ja darum einen Indikator dafür zu haben wie die Performance mit dem Feature aussehen wird, in der Hoffnung dass Spiele in Zukunft die es *richtig* einsetzen sich hinsichtlich der Performance ähnlich verhalten.
Wirklich schlauer sind wir am Samstag um 00:01 Uhr. Wenn die NDA fällt.
Zur der ganzen Technikdiskussion fällt mir nur eines ein: NextGen-Grafikkarten benötigen auch NextGen-Engines, um die volle Performance auszufahren. Denn im Grunde ist es völlig egal welches Game man als Beispiel aktuell heranzieht. Es sind zu 90% leidige Konsolenumsetzungen, die weder grafisch wirklich anspruchsvoll, noch für ein System entsprechend optimiert wurden.
Es ist für mich daher vollkommen egal, wie sich eine GTX 480 in CoD, Metro, oder Würschtelsepp 3D am Samstag um 00:01 schlägt. Ich weiß, dass sie verdammt schnell sein wird. Viel entscheidender ist für mich, welche Gamesstudios werden von nV wieder in Zukunft gepushed, um Optimierungen für die eigenen Karten entsprechend zu realiseren. Und da lag nV in der Vergangenheit bei der Summe der unterstützten Titel immer vorne.
Hier gibt es einen Rechner mit GTX480.
http://cgi.ebay.de/GTX480-Edition-PC-AMD-X4-965-1-5TB-8192MB-DDR3-Xigmatec_W0QQitemZ230454089502QQcmdZViewItemQQptZDE_Technik_Computer_Peripherieg er%C3%A4te_PC_Systeme?hash=item35a822571e
Hab mal die Einzelteile ohne GTX480 zusammengerechnet das sind ca 700 Euro. Der Händler will auch was verdienen also sag ich mal 1000 Euro. Also kostet die 480 ca 500 Euro.
derguru
2010-03-25, 16:39:39
Vielleicht meint nv min. 8%
Das sieht je nach Spiel anders aus
wieso vergleichen die sowas mit 8xmsaa,die sollen das mit 8x tmsaa vergleichen und dann bin ich neugierig ob das immer noch so dolle aussieht.
250 Watt TDP durch die Herabsetzung auf 625 MHz...? ;)
Das ist nur die Core-Frequenz, nachdem beim GF100 fast nichts mehr mit der Corefrequenz läuft dürfte das keine großartigen Auswirkungen haben.
Die bisher geleakten Frequenzen sprechen auch immer von 700/1400MHz, niemand sagt aber, ob die 700 tatsächlich die Corefrequenz sind, es könnte genauso 1/2 Hotclock sein. Überhaupt scheint mir ein 1:2-Verältnis zwischen Core und Hotclock unwahrscheinlich, bisher war es immer eher 1:2,2-1:2,3
Also das Thema Metro 2033 hatten wir hier ja schon oft im Zusammenhang mit den GF100 Karten, aber die Hardware-Anforderungen sind doch abnormal hoch. Ich meine natürlich sieht das Game sehr gut aus, aber da stimmt doch irgendwas nicht oder? Eine GTX285 z.B. kann ja noch nicht mal 1280x1024 absolut flüssig darstellen und allg. sind die "alten" NV-Karten im Vergleich zu den HD58xx extrem schwach. Auch die GTX480 wird da nicht soviel ausrichten können.
http://www.xbitlabs.com/articles/video/display/metro-2033_4.html#sect1
Superheld
2010-03-25, 18:33:32
Leadtek GeForce GTX 470 and 480 Pictures
http://www.legitreviews.com/news/7663/
Eggcake
2010-03-25, 18:35:37
Leadtek GeForce GTX 470 and 480 Pictures
http://www.legitreviews.com/news/7663/
470 - Lamborghini Reventon anyone? (http://www.julianaheng.com/wp-content/images/8_reventon_top.JPG) :biggrin:
Finde die sehen beide echt nice aus.
LovesuckZ
2010-03-25, 18:47:23
CSAA braucht kaum Mehrleistung gegenüber MSAA und 8xMSAA wurde deutlich beschleunigt, also ich denke diese Gefahr ist nicht vorhanden. Auf jeden Fall wird es deutlich weniger Leistung als SSAA kosten ;)
nVidia gibt im Mittel einen Leistungsverlust von 8% an. Selbst wenn es mehr ist, wird 32xCSAA aufgrund der deutlich gesteigerten 8xMSAA Leistung überall einsetzbar sein, wo auch 8xMSAA spielbar ist.
Also das 32xCSAA kaum Leistung kosten soll wie es NV angab, glaubte ich nicht eine Sekunde. Ich glaube es sollten laut NV doch nur 8% seien im Vergleich zu 8xMSAA. Wie zum Teufel soll das bitte gehen?
CSAA kostet schon heute kaum Leistung, warum sollte es plötzlich mit GF100 Leistung kosten?
BTW: Interessant wird es sein ob man für 32xAA zwangsweise 8xMSAA braucht oder ob es auch mit 4xMSAA funktioniert.
LovesuckZ
2010-03-25, 19:04:14
Hier hat man mal die GTX 285 und GTX 480-Werte aus den Reviewers Guide Folien verglichen:
http://forum.beyond3d.com/showpost.php?p=1412927&postcount=4948
Wobei da aber auch viele >60FPS-Werte dabei sind. Interessant dürfe dann wohl eher ein Extreme-Test mit SSAA (falls noch vorhanden) oder Downsampling mit einer 2GiB GTX 285 sein.
Das sich GF100 in einer Vielzahl von heutigen Spielen mit 4AA/16AF nicht deutlich absetzen kann, ist seit der CES bekannt. Interessant sind da eher Beispiele mit GPU-Physik und Spiele, die sehr viele Pixelberechnungen durchführen.
Sentionline
2010-03-25, 19:10:27
Wie stehen eigendlich die Changsen auf neue Cuda Anwendungen? Nach Video, Crypt etc. könnte jetzt mal Datenkompression als "nützlich" an der Reihe sein oder? :confused:
Düfte ja nicht so schwer sein den 7-Zip Code da einzucudern?
OgrEGT
2010-03-25, 19:41:17
Gibt es schon irgendwo einen Frameverlauf GTX 480 unter Unigine 2.0 1920x1080 Extreme Tesselation? Würde mich mal im Vergleich zur Radeon 5870 Cat 10.3a und das wiederum im Vergleich zu den Werten unter Unigine 1.0 interessieren. Dann könnte man mal sehen wie gut/schlecht die Tesselation Power unter extremen Bedingungen wirklich ist.
NV lügt ja auch nicht unbedingt, wenn sie z.B. 2,5xGTX285 Leistung versprechen. Wo und unter welchen Bedingungen diese Leistung aber besteht ist überhaupt nicht gesagt. NV hat auch Folien präsentiert bei denen man 8x schneller als eine HD5870 seien soll. Das du das aber nie in einem realen Game sehen wirst, sollte klar sein.
Das sind theoretische Werte die in einer realen Anwendung so niemals vorkommen. AMD könnte bestimmt auch solche Folien basteln mit fantastischen Überlegenheitswerten gegenüber GTX480, wenn man sich nurmal die Flops anschaut.
Ailuros
2010-03-25, 20:49:43
234 Posts in die Spielwiese verfrachtet...mehr brauch ich nicht sagen. Wir brauchen den Thread nicht mehr da Ihr sowieso nichts mehr zum Thema beizutragen habt.
AnarchX
2010-03-26, 07:07:54
GTX 470 OCing:
http://i43.tinypic.com/10hqdja.jpg
http://we.pcinlife.com/thread-1385213-1-1.html
Durch das Cache-Sytem profitiert man wohl kaum vom Speicher-OCing.
Aber GTX 480 Takt sieht schon mal nicht so schlecht aus.
Wenn das Unigine 2.0 Extreme Ergebnisse sind, ist die GTX 470 wohl im Avg. 33% schneller und bei den Min-FPS fast doppelt so schnell wie eine 5870:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7925939&postcount=52
Spasstiger
2010-03-26, 07:18:19
Interessant wäre noch 700/1400/837 MHz.
Ailuros
2010-03-26, 07:28:23
Interessant wäre noch 700/1400/837 MHz.
Wird wohl gleich oder einen Schnitt ueber 607/1215/1000 Resultaten liegen. Mich wuerden eher solche Uebungen auf der 480 interessieren und dann auch in 2560*1600, obwohl ich auch hier bezweifle dass die Bandbreite limitiert.
Uebrigens weiss jemand (und darf es sagen) wie es genau mit dem core clock aussieht? Ich meine wenn man den hot clock von 1215 auf 1400 jagt, wird dann der core clock automatisch auch um 15% erhoeht oder nicht. Zu 99% ist die Antwort wohl ja ich bin nur neugierig.
X.Perry_Mental
2010-03-26, 07:47:33
Uebrigens weiss jemand (und darf es sagen) wie es genau mit dem core clock aussieht? Ich meine wenn man den hot clock von 1215 auf 1400 jagt, wird dann der core clock automatisch auch um 15% erhoeht oder nicht. Zu 99% ist die Antwort wohl ja ich bin nur neugierig.
Schon merkwürdig, dass core-clock und 1/2 hotclock bei 470 und 480 bisher anscheinend gleich takten. Welchen Sinn würden 2 Taktdomänen haben, die immer synchron laufen (müssen)?
Ailuros
2010-03-26, 08:01:33
Schon merkwürdig, dass core-clock und 1/2 hotclock bei 470 und 480 bisher anscheinend gleich takten. Welchen Sinn würden 2 Taktdomänen haben, die immer synchron laufen (müssen)?
Ich glaube nicht dass sie gleich takten. Ausser NV hat irgend etwas geaendert, core clock muesste ca. 12-14% unter dem 1/2 hot clock liegen. Ich weiss ja auch nicht wie es im Treiber aussieht, aber falls es nicht transparenz sein sollte und Du stellst auf Beispiel von 1215 auf 1400 dann wird erstmal half hot clock automatisch mitgerissen und der core clock koennte auch automatisch um 15% erhoeht werden.
Wenn es stimmt koennte es sein dass dritte Applikationen wie Rivatuner als Beispiel (falls Unwinder hier ueberhaupt eingreifen kann) es erlauben koennten hier getrennt die Frequenzen zu aendern.
GTX 470 OCing:
http://i43.tinypic.com/10hqdja.jpg
http://we.pcinlife.com/thread-1385213-1-1.html
Durch das Cache-Sytem profitiert man wohl kaum vom Speicher-OCing.
Aber GTX 480 Takt sieht schon mal nicht so schlecht aus.
Wenn das Unigine 2.0 Extreme Ergebnisse sind, ist die GTX 470 wohl im Avg. 33% schneller und bei den Min-FPS fast doppelt so schnell wie eine 5870:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7925939&postcount=52
Die 5870 macht bei 1980/1200 8 AA normal Tes. Av. 24,2 FPS Min 13,1 FPS mit 10.3 Release Treiber, denke daher das es hier mit Fermi auch auf Normal war, wäre bestimmt auch dick hervorgehoben worden, falls nicht :)
Sven77
2010-03-26, 08:37:24
Dem kann ich beipflichten. Die Figuren in Metro wirken tesseliert irgendwie aufgeblasen und eine Texturunschärfe/Verzerrung ist feststellbar, hab das hier gefunden http://www.gamestar.de/hardware/praxis/technik-check/2313602/special_directx_11_in_metro_2033_p2.html
Da ist 100pro was schiefgegangen, offensichtlich sind die Heightmaps falsch normalisiert..
Swapping graphics cards can be a bit cumbersome thanks to the large capacitors at the end of the PCIe power cables, and idle power of our GPU testbed is higher with the 1200W unit thanks to the low idle of most modern day GPUs/CPUs, but so far it has been performing well in our tests.
You'll see exactly what it's been powering in about 24 hours.
Ein Netzteil für die Fermis.
http://www.anandtech.com/casecoolingpsus/showdoc.aspx?i=3780
GTX 470 OCing:
Wenn das Unigine 2.0 Extreme Ergebnisse sind, ist die GTX 470 wohl im Avg. 33% schneller und bei den Min-FPS fast doppelt so schnell wie eine 5870:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7925939&postcount=52
Wegen mir könnten die GTX Karten 1000 mal schneller in Heaven als eine 5870. Wäre mir dennoch völlig egal und für eine Kaufentscheidung völlig unerheblich.
Denn nur Spieleergebnisse zählen für mich.
Ich sitze nicht den ganzen Tag vor dem Uniginge 2.0 Benchmark und schau mir den Drachen an.
Ailuros
2010-03-26, 08:43:16
Swapping graphics cards can be a bit cumbersome thanks to the large capacitors at the end of the PCIe power cables, and idle power of our GPU testbed is higher with the 1200W unit thanks to the low idle of most modern day GPUs/CPUs, but so far it has been performing well in our tests.
You'll see exactly what it's been powering in about 24 hours.
Ein Netzteil für die Fermis.
http://www.anandtech.com/casecoolingpsus/showdoc.aspx?i=3780
As you may have heard, NVIDIA is launching a brand new pair of graphics cards tomorrow: the GeForce GTX 480 and GTX 470. In preparation for tomorrow's review we needed to update our GPU testbed power supply, in case a pair of these cards ended up pushing the limits of our existing 850W PSU. So we asked around for something a bit beefier. That's not to say that we needed it, but we wanted to be safe just in case.
A pair = 2 GPUs@SLi
Zweiter fettgedruckte Satz aus Anand's Artikel ist was Du wohl auch absichtlich ueberlesen hast.
mboeller
2010-03-26, 08:48:30
Ich glaube nicht dass sie gleich takten. Ausser NV hat irgend etwas geaendert, core clock muesste ca. 12-14% unter dem 1/2 hot clock liegen. Ich weiss ja auch nicht wie es im Treiber aussieht, aber falls es nicht transparenz sein sollte und Du stellst auf Beispiel von 1215 auf 1400 dann wird erstmal half hot clock automatisch mitgerissen und der core clock koennte auch automatisch um 15% erhoeht werden.
Wenn es stimmt koennte es sein dass dritte Applikationen wie Rivatuner als Beispiel (falls Unwinder hier ueberhaupt eingreifen kann) es erlauben koennten hier getrennt die Frequenzen zu aendern.
Das mit dem gleichen Takt für die TMUs und die ROPs habe ich auch schon vor 1 Woche gelesen. Eine mögliche Antwort könnte sein, das Nvidia die Core-Takt angehoben hat, um die Performance ein wenig anzuheben.
Ursprünglich sollten die TMUs ja wahrscheinlich mit 750-800MHz die ALUs mit 1500-1600MHz und der "Core" eben mit 650 - 700MHz laufen. Da die ALUs und die TMUs langsamer sind ist man beim "Core" möglicherweise auf den max. möglichen Takt gegangen um die Gesamtperformance noch ein wenig anzuheben.
uweskw
2010-03-26, 08:51:05
Ist das eigentlich die gleiche Quelle die von einem OC-Verbrauch von bis zu 600W geschrieben hat? (War aber glaub ich unter Stickstoff)
Ailuros
2010-03-26, 08:57:36
Das mit dem gleichen Takt für die TMUs und die ROPs habe ich auch schon vor 1 Woche gelesen. Eine mögliche Antwort könnte sein, das Nvidia die Core-Takt angehoben hat, um die Performance ein wenig anzuheben.
Oder das Ganze ist einfach nicht transparent zum User.
Ursprünglich sollten die TMUs ja wahrscheinlich mit 750-800MHz die ALUs mit 1500-1600MHz und der "Core" eben mit 650 - 700MHz laufen. Da die ALUs und die TMUs langsamer sind ist man beim "Core" möglicherweise auf den max. möglichen Takt gegangen um die Gesamtperformance noch ein wenig anzuheben.
Woher kommt jetzt schon wieder das Maerchen von 750-800MHz? Schon seit geraumer Zeit war von 725MHz die Rede (fuer half hot clock) und sie haben am Ende dank TDP auf 700MHz reduziert. Die maximale Toleranz des Designs liegt tatsaechlich ueber 1600 aber so etwas kommt auch nie mit dem ersten Schlag. Bei G80 (wo 90nm aber auch voll ausgereift war und nicht ein yield/leakage mess wie 40G) wurden vor dem Launch 1.5GHz maximal angegeben, die 8800GTX/A2 kam mit 1.35GHz und die 8800Ultra/A3 spaeter mit 1.5GHz.
Core clock bei 1620MHz wenn man sonst nichts aendert waere bei 726MHz. 810 vs. 726MHz = 12%.
Niall
2010-03-26, 09:49:42
Da ist 100pro was schiefgegangen, offensichtlich sind die Heightmaps falsch normalisiert..
Genau so sieht’s aus.
Kann es sein, dass die Displacementmaps beim »mit einrechnen«
den falschen Gammawert bekommen oder generell haben und dadurch insgesamt heller werden?
Das würde das »aufblasen« jedenfalls am ehesten erklären..! Normal ist das nicht.
Das Displacement-/Tesselatingergebnis sieht auf den Screens zum k****n aus.
fulgore1101
2010-03-26, 10:33:09
Ich hatte doch eben hier was gepostet?:uconf2:
Dann nochmal. Hieß es nicht die Benchmarks würden Freitag um 0 uhr kommen?
Ich hatte doch eben hier was gepostet?:uconf2:
Dann nochmal. Hieß es nicht die Benchmarks würden Freitag um 0 uhr kommen?
Freitag auf Samstag Nacht 00.01 Uhr.
Also in knapp 13 Stunden.
Zauberer
2010-03-26, 11:00:25
Dem kann ich beipflichten. Die Figuren in Metro wirken tesseliert irgendwie aufgeblasen und eine Texturunschärfe/Verzerrung ist feststellbar, hab das hier gefunden http://www.gamestar.de/hardware/praxis/technik-check/2313602/special_directx_11_in_metro_2033_p2.html
Das liegt daran, das sich die Entwickler keine Mühe gegeben haben.
Aber der Bär sieht mit Tessellation so was von knuffig aus, echt süß. http://mafia-ladies.iphpbb3.com/forum/images/users/u1/85/smilies/vzi1xea1.gif
Fazit: Tesselation Zukunftstechnik mit viel Potenzial? Ja
Momentaner Stand? Uneffektiv und keine BQ-Verbesserung
Momentaner Zweck? reines PR-Ding um auf die Packung einen tollen DX11
-Sticker zu kleben mit HW-Tesselation
Sven77
2010-03-26, 11:13:39
Es ist keine Zukunftstechnologie, sie ist ja da.. ich sehe das Problem eher, das sie nicht effektiv genutzt werden wird, solange Konsolen diese nicht beherrschen. Daher wird sich richtige gut umgesetzte Tesselation auf einige aufwendige Ports und PC-only Titel beschränken. Aber Tesselation ist das Killerfeature schlechthin wenn richtig umgesetzt.. wenn mich was bisher am meisten gestört hat, war es immer die Polygonarmut, selbst in Titeln wie Crysis.
DrFreaK666
2010-03-26, 11:18:04
Fazit: Tesselation Zukunftstechnik mit viel Potenzial? Ja
Da gebe ich dir recht
Momentaner Stand? Uneffektiv und keine BQ-Verbesserung
Das stimmt so nicht. Man sieht schon,d ass sich was ändert, aber bisher nur auf Vergleichsshots. Und die Änderungen sind bisher auch ein schlechter Witz (aufgeblasene Charaktere in Metro, Tesselation-Wasser in Dirt 2 :freak:).
Momentan hätte man es auch weglassen können. Während dem Zocken fallen die Veränderungen nicht auf. Das einzige, dass man merkt ist der FPS-Verlust.
Momentaner Zweck? reines PR-Ding um auf die Packung einen tollen DX11-Sticker zu kleben mit HW-Tesselation
Sowas macht sich auf Verpackungen natürlich immer gut.
Mit solchen Neuerungen macht man auch auf sich aufmerksam.
Bei neuen Teams imho schon wichtig.
Das ist ja erst der Anfang. In Zukunft wird Tesselation gezielter eingesetzt.
Man stelle sich nur ein RPG mit Tess vor.
Bei langsamen Games fällt das ja erst richtig auf :smile:
Natürlich muss man einfach irgendwann mit Tesselation anfangen und das die ersten Gehversuche dabei meistens nicht das Optimum darstellen ist auch richtig und normal.
Mit uneffektiv meinte ich ja auch, dass sich die BQ mit Tesselation nicht positiv absetzen kann, dennoch hast du recht und man kann in Screeshots den Unterschied sehen.
DrFreaK666
2010-03-26, 11:33:13
Natürlich muss man einfach irgendwann mit Tesselation anfangen und das die ersten Gehversuche dabei meistens nicht das Optimum darstellen ist auch richtig und normal.
Mit uneffektiv meinte ich ja auch, dass sich die BQ mit Tesselation nicht positiv absetzen kann, dennoch hast du recht und man kann in Screeshots den Unterschied sehen.
Aber das macht doch so keinen Sinn, oder?
Ich möchte einen Unterschied sehen während ich spiele.
Das Problem ist imho, dass heutige Games schon sehr viele Polygone haben.
Zu R300-Zeiten hätten man eher einen Unterschied gesehen (hat man auch teilweise (Serious Sam z.B.)). Da war alles noch so schön eckig :smile:
Sven77
2010-03-26, 11:40:42
Soviele Polygone haben heutige Spiele nicht.. es wird eben viel über Normal-Bumpmapping kaschiert, aber deswegen sehen Spiele eben aus wie Spiele. Mit Tesselation bekommt man endlich echte Details.. sollte ja auch möglich diese nicht nur adaptiv zur Kameraentfernung zu steuern, sonder auch z.B. zur Kamerageschwindigkeit. Bei schnellen Schwenks wird Tesselation komplett runtergefahren, wenn man sich langsam bewegt wird entsprechend höher tesseliert. Man muss nur vorsichtig sein, das es nicht auffällt, LOD-ploppen ist imho schon einer der nervigsten Sachen, da muss man nicht noch so etwas ähnliches sehen
RoNsOn Xs
2010-03-26, 11:42:20
Aber das macht doch so keinen Sinn, oder?
Ich möchte einen Unterschied sehen während ich spiele.
Das Problem ist imho, dass heutige Games schon sehr viele Polygone haben.
Zu R300-Zeiten hätten man eher einen Unterschied gesehen (hat man auch teilweise (Serious Sam z.B.)). Da war alles noch so schön eckig :smile:
sehe ich auch so. wenn ich die ganze zeit mit tess on herum laufe und keinen vergleich habe, würde ich nicht erkennen, das es sich um tes. handelt.
einzig und allein die geringe performance merke ich viel eher :freak:
halte das ganz für zu sehr gehyped.
Das ist ja erst der Anfang. In Zukunft wird Tesselation gezielter eingesetzt.
Man stelle sich nur ein RPG mit Tess vor.
Bei langsamen Games fällt das ja erst richtig auf :smile:
Und deshalb sollte man mal aufhören Tesselation nieder zu machen.
Es ist eine gute Sache.
Mehr gibts dazu nicht zu sagen.
Man kann sagen Metro sieht für einen persöhnlich schrottig aus, aber das hat wiederrum nichts mit Tesselation zu tun.
LovesuckZ
2010-03-26, 11:46:47
Das interessante an GF100 ist, dass die Rechenleistung eigentlich viel zugering für die Geometrieabarbeitung ist. Sollten nVidia's Worte wirklich stimmen, so wird GF100 in Spielen meistens pixellimitiert sein - was wiederrum bedeutet, dass "Tessellation" und Konsorten fast "for free" sind. Das wäre ein riesiger Schritt für eine deutlich schnellere Verbreitung bei den Entwicklern, da es Hardware gibt, die "realtiv" problemlos Tessellation händeln kann.
Niall
2010-03-26, 11:47:48
Werden die zukünftigen Realtime Licht- und Schattenberechnungen
dann eigentlich mit dem jeweilis tesselierten Mesh gemacht oder
mit dem »Basemesh«?
Schatten die aus dem Off kämen und deren Objekte dann nicht sichtbar
und somit auch nicht tesseliert wären, wären dann ja theoretisch auch
detailärmer als die von Objekte die sichtbar sind...
Ailuros
2010-03-26, 11:48:01
Bei so relativ kurzer Existenz von DX11 hw muss man einfach Technologien wie programmierbare Tessellation ihre Zeit lassen bis jeglicher ISV mit dieser etwas anstaendigeres auf die Beine stellen kann als wir bisher zu sehen bekamen. Was es dann fuer einen Wert in 3D haben kann wird man wohl erst dann definieren koennen.
Mit dem bisherigen Inhalt an Tessellation in Spielen und von dem was sich ausdenken koennte fuer die Lebenszeit einer 5870 als Beispiel, sehe ich persoenlich kein Kaufsargument einer GF100 GPU allein dafuer momentan.
Es wird sich wohl jeder selber ausdenken muessen nach dem Launch ob ihm X oder Y und fuer welche Gruende ueberhaupt. Von dem abgesehen verschwenden IMHO viele hier viel zu viel Energie mit pro und kontra Tessellations-Punkten. Es klingt schon fast so als ob einige meinen dass sie egal mit welcher Perspektive die Meinung des Lesers hier beinflussen koennten.
Man kann sagen Metro sieht für einen persöhnlich schrottig aus, aber das hat wiederrum nichts mit Tesselation zu tun.
Doch.
Die Umsetztung der Tesselation ist einfach grottig.
Ohne besseren Content (Texturen) wird sich das auch nicht so schnell ändern.
Das Problem bei Tesselation ähnlich wie bei den GF100-Karten ist einfach die viel zu hohe und nicht unbedingt gerechtfertigte Erwartungshaltung. Daran hat der Unigine Heaven-Bench meiner Meinung nach auch einen entscheidenen Anteil, denn der ist ja im Prinzip eine Tech-Demo/Bench für DX11 mit einem großen Schwerpunkt auf Tesselation.
Im Heaven-Bench wurde deshalb auch der Tesselationgrad massiv und wahrscheinlich unsinnig hoch angesetzt (tesselierte Türen?), gerade um einen möglichst großen Unterschied aufzuzeigen. Im Gegenzug wurde aber DX9/10 schlechter gemacht als es sein muss, z.B. das man unter DX9/10 aus den Treppen mal eben einfach Rampen gemacht hat, als ob es nicht möglich wäre unter DX9/10 eine Treppenstufe darzustellen.
DrFreaK666
2010-03-26, 11:52:17
Und deshalb sollte man mal aufhören Tesselation nieder zu machen.
Es ist eine gute Sache.
Mehr gibts dazu nicht zu sagen.
Man kann sagen Metro sieht für einen persöhnlich schrottig aus, aber das hat wiederrum nichts mit Tesselation zu tun.
Ich mache Tess ja nicht nieder - obwohl ich HD5xxx-Besitzer bin :biggrin:
Man sollte es jedoch an den richtigen Stellen einsetzen. Mehr Details an einem Nachsichtgerät oder Lampe benötige ich nicht.
Böden und Felsen verdienen mehr Rundungen - in Crysis sind diese ja teilweise noch eckig. Alte Burgmauern haben dann kein Pom mehr sondern "echte" Details.
Figuren sehen imho schon sehr gut aus. Die Umgebung könnte jedoch mehr Polygone vertragen.
Aber das macht doch so keinen Sinn, oder?
Ich möchte einen Unterschied sehen während ich spiele.
Das Problem ist imho, dass heutige Games schon sehr viele Polygone haben.
Zu R300-Zeiten hätten man eher einen Unterschied gesehen (hat man auch teilweise (Serious Sam z.B.)). Da war alles noch so schön eckig :smile:
Am heutigen Punkt ist nicht so, das man mit wenig Aufwand viel erreichen kann.
BQ Steigerungen sind teuer und daran wird sich nichts so schnell ändern.
Das gilt für jegliche BQ Steigerungen, nicht blos für Tesselation.
Tatsache ist, das die Grafikkarten immer leistungsfähiger werden, ergo bleibt wieder mehr Raum für BQ. Keine Ahnung warum man das nicht ausnutzen sollte.
Die Leistungssteigerungen sind keine Welten, im Gesamten betrachtet, eine BQ Steigerung um Welten ist somit gar nicht möglich, jemand der um Welten bessere BQ von der neuen 300€ Karte erwartet liegt falsch, hat umsont Geld ausgegeben, denn er wird es im Spiel nicht merken.
SentinelBorg
2010-03-26, 11:58:22
Sieht ja nun doch nicht so schlecht aus für Nvidia. Leistung scheint hoch zu sein, es gibt neue BQ-Features und die Architektur an sich passt. Die GF100 ist dank der Probleme im Herstellungsprozess halt leider jetzt erstmal ein heißes, stromfressendes Biest. Aber langfristig ist die GF104, die diese Probleme nicht in dem Ausmass haben dürfte sowieso wichtiger für Nvidia. Und im Ultra-Highend kann die Architektur dann mit dem Refresh eventuell richtig aufblühen.
Im Hinblick auf diese ATI-Treiberdiskussion muss ich den ATI'lern Recht geben. Es sollte für den Vergleich natürlich die aktuelle 10.3 verwendet werden. Auf der anderen Seite muss aber auch bedacht werden, dass Fermi komplett neu ist und so gerade bei Nvidia noch erhebliche Steigerungen in den nächsten Monaten zu erwarten sind, während ATI wahrscheinlich langsam ihr Maximum erreicht hat.
Doch.
Die Umsetztung der Tesselation ist einfach grottig.
Ohne besseren Content (Texturen) wird sich das auch nicht so schnell ändern.
1. Das hat nichts mit Tesselation zu tun.
2. Bessere Texturen wirds bei der 512MiB Verbreitung und dem momentanten Stillstand bei 1GiB nicht so bald geben.
Außerdem bräuchte es schnell weit mehr als nur den doppelten VRAM, damit man nennenswert besseren Texturen sieht.
Soll wohl ein Totschlagargument für Tesselation sein, das du schon oft gebracht hast.
Sogesehen kann man mit einer normalen 1GiB Karte aus dem Jahre 2008 noch gut fahren, wenn die Texturen limitieren und nicht die Rechenleistung.
NV wird mit Sicherheit die neuen Karten nicht mit einem eilig zusammen geschusterten Treiber präsentieren und dieser wird auch nicht erst seit diesem Monat entwickelt. Zum zweiten ist AMD bei den HD5er wohl noch lange nicht am Limit, denn der 10.3/10.3a war der erste Treiber überhaupt der an der Performance der HD5er gedreht hat, alle anderen Treiber davor (speziell 2009) waren reine Bugfix-Treiber bzw. Optimierungstreiber für Eyefinity und CF.
Ein Fingerzeig ist auch die Tatsache, dass der Cat. 10.3 auch noch Performanceverbesserungen für HD4xxx brachte. Also ich glaube da geht noch einiges bei den HD5ern, aber genauso natürlich auch bei NV.
Lasst es doch einfach.
HD5 ist länger Markt. Launchtreiber war ebenfalls nicht mal eben zusammengeschustert.
Monate später gibts einen Performanceupdate.
Es gibt absolut keinen Grund anzunehmen, das Nvidia keinerlei Performanceupdate gelingen wird. Ferner gibt es keiner exakten Zahlen, wie viel Performance AMD noch herausholen kann.
Eine Diskussion in Anbetracht dieser Umstände ist sehr schwer. Eine Diskussion nur mit Betrachten der einen Seite (z.b. das AMD noch viel herausholt und Nvidia gar nichts) ist sinnlos.
Eggcake
2010-03-26, 12:15:28
Lasst es doch einfach.
HD5 ist länger Markt. Launchtreiber war ebenfalls nicht mal eben zusammengeschustert.
Monate später gibts einen Performanceupdate.
Es gibt absolut keinen Grund anzunehmen, das Nvidia keinerlei Performanceupdate gelingen wird. Ferner gibt es keiner exakten Zahlen, wie viel Performance AMD noch herausholen kann.
Eine Diskussion in Anbetracht dieser Umstände ist sehr schwer. Eine Diskussion nur mit Betrachten der einen Seite (z.b. das AMD noch viel herausholt und Nvidia gar nichts) ist sinnlos.
Denke ich auch. Vor allem handelt es sich um eine neue Architektur - da anzunehmen, es sei mit dem Launchtreiber bereits getan wär reichlich naiv... :rolleyes:
Der Treiber wird sicherlich nicht "eben zusammengeschustert" worden sein, aber Verbesserungen liegen garantiert noch drin. Wie der Gast sagt: die HD5000er zeigen es ja vor, und dabei handelt es sich um eine ältere Architektur.
LovesuckZ
2010-03-26, 12:16:38
Amazon.com (http://www.amazon.com/Zotac-GeForce-384-bit-Graphics-ZT-40101-10P/dp/B003DTKU82/ref=sr_1_1?ie=UTF8&s=electronics&qid=1269600967&sr=8-1) hat die Zotac GTX480 zum Vorbestellen online gestellt. Preis: $499. Das werden dann wohl für Deutschland mit Steuern ca. 449€ werden.
Bei der GTX470 gibt es verschiedene Aussagen. Imo sind Preise zwischen 300-350€ denkbar.
urfaust
2010-03-26, 12:17:23
Auf der anderen Seite muss aber auch bedacht werden, dass Fermi komplett neu ist und so gerade bei Nvidia noch erhebliche Steigerungen in den nächsten Monaten zu erwarten sind, während ATI wahrscheinlich langsam ihr Maximum erreicht hat.
hier ist aber auch schon einige Male die "Spekulation" gefallen, dass nvidia bereits das Bestmögliche rausgeholt hat und in Zukunft daher nicht mehr
viel an Steigerung zu erwarten ist.
Wird sich zeigen...
Lasst es doch einfach.
HD5 ist länger Markt. Launchtreiber war ebenfalls nicht mal eben zusammengeschustert.
Monate später gibts einen Performanceupdate.
Es gibt absolut keinen Grund anzunehmen, das Nvidia keinerlei Performanceupdate gelingen wird. Ferner gibt es keiner exakten Zahlen, wie viel Performance AMD noch herausholen kann.
Eine Diskussion in Anbetracht dieser Umstände ist sehr schwer. Eine Diskussion nur mit Betrachten der einen Seite (z.b. das AMD noch viel herausholt und Nvidia gar nichts) ist sinnlos.
Es zählt aber der aktuelle Stand und nicht,was in 6 Monaten sein kann.
Stand heute muss ein Vergleichstest nunmal mit den aktuellen NVIDIA Treibern für die GTX480 gemacht werden und mit den aktuellsten Radeon treiber. Das diese für eine 6 Monate alte Karte sind und mittlerweile verbessert wurden ist,ist nunmal so.
Die 58xx Launchtreiber zu nhemen wäre völliger Schwachsinn,weil es mittlerweile bessere gibt.
Und wenn in 6 Monaten NVIDIA Performancetreiber bringt, nimmt man diese, aber unter Umständen muss man dann halt auch eine 5890 oder 6xxx Karte zum vergleichstest nehmen,weil es eine neue ATI KArte gibt.
Das beste was am Tag X zur Verfügung steht muss man für Tests nehmen, nicht 6 Monate veraltetes.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.