Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
AnarchX
2010-03-17, 17:19:02
Diskussion zu AMDs SGSSAA: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7909711#post7909711
LovesuckZ
2010-03-17, 17:28:07
Wenn interesse besteht, kann ich morgen die Seiten zu GF100 aus dem nVision Magazin einscannen. Reine Specs stehen zwar nicht im Text (bis auf Speichermenge... und ein paar Bilder der Karten), aber PR mäßig macht es Spaß zu lesen.
LovesuckZ
2010-03-17, 17:38:52
Okay, jetzt gibt es eine weltexklusive Bestätigung der Cuda Core der GF100 GTX480 (außer nVision lügt...):
"The GF100 doubles the amount of CUDA cores seen in the GT200 from 240 to 480[...]
/edit: Ich bitte darum, um das Forum ein paar Klicks zu bringen, doch auf das Posting zu verlinken und nicht de Text 1:1 zu kopieren. Danke.
AnarchX
2010-03-17, 17:42:46
Wobei da GTX 480 stehen sollte und nicht GF100.
Scans sind hier natürlich nicht erlaubt.
Das sehe ich übrigens auch so
Edit: Ich verstehe auch nicht, warum sie nicht gleich ne Ultra raus bringen. Die par Chips die 100 % ok sind, könnten die doch als Ultra verkaufen, den Rest eben als normale 480erAlle Karten, auch Ultras, werden in größeren Stückzahlen hergestellt als man denkt. So eine Kleinserie rechnet sich nicht.
Sehe ich nicht so. Du kaufst die 480 ja jetzt und ordnest sie im aktuellen Markt nach Leistung und verhältnismäßigem Preis ein. Wenn das jetzt für dich OK ist, wieso nicht? Warten kann man immer... bei GT200b hieß es auch, er würde nochmal deutlich auftrumpfen. Hat er nicht.Genau, weil auch von der GTX 285 ordentlich Stückzahlen abgesetzt werden sollten. Via GPU-Selektion wären locker 702 MHz drin gewesen. Aber der Name 285 zieht schon alleine, da muss der GPU-Takt (aus Produktmarketingsicht) nicht so krass steigen.
Jo, oder man SPAMMT den Rechner mit 3x 480 voll, und verliert ordentlich Geld, sobald die 512sp Karte herauskommt :mad:2x GTX 470 ist aus Preisleistungssicht sicherlich am sinnvollsten.
Die 470er war immer als Krüppel geplant, da gibts keine Überraschungen.
Die 280er war ein voller chip, die 285er hat nur ein bischen mehr Takt draufgehaut- das war abzusehen und klar.
Wenn dann ein refresh in Form einer 490er kommt, die 512sp UND mehr Takt hat, dann sind die 480er-Käufer
die Gearschten.Das ist egal ob Mehrleistung nur durch Takt kommt (8800 GTX und Ultra, GTX 280 und 285) oder durch Mehr-Cores und Takt.
Einige 8800-GTX-Käufer haben sich vor Wut in den Arsch gebissen als die Ultra rauskam – zumal meiner Erfahrung nach die Ultra dann wirklich das notwendige Extra-Quentchen Power hatte, um nicht gleich auf GT200 upgraden zu müssen.
Lol, tombman zum Denken anregen, der "Entdecker" der MR. ICH rege andere zum Denken an und nicht umgekehrt.
Wenns mir um Balken ginge, dann hätte ich wohl schon längst 2x HD5970- aber auch das kommt dir nicht in den Sinn.
Und wenn ich mit Quad-SLI glücklich war, dann werde ich es auch mit Triple 480 sein...2x GTX 295?
LovesuckZ
2010-03-17, 17:49:35
Wobei da GTX 480 stehen sollte und nicht GF100.
gerade verbessert. Ansonsten noch eine "Leistungseinschätzung":
You can also expect the GTX480 to be tweaked to run a little faster than it's GTX470 "little brother".
Scans sind hier natürlich nicht erlaubt.
Schade - für die anderen. :D
Thunder99
2010-03-17, 17:55:10
You can also expect the GTX480 to be tweaked to run a little faster than it's GTX470 "little brother".
Kann man davon ausgehen, dass die Karte dann nur so schnell ist wie optimales skalieren von SLI mit 2 GTX285? Oder wie soll man die Aussage werten... :confused:
LovesuckZ
2010-03-17, 18:05:08
Kann man davon ausgehen, dass die Karte dann nur so schnell ist wie optimales skalieren von SLI mit 2 GTX285? Oder wie soll man die Aussage werten... :confused:
Da steht nur, dass GTX480 anscheinend nicht deutlich schneller sein wird als die GTX470 - wohl um die 15-20% (abgesehen von Situationen, wo die Speichermenge ausgeht).
Achja, um einen Deckel auf "Software Tessellation" zu packen, lassen wir doch einfach Ujesh Desai es auf den Punkt bringen:
The main reason we chose to develop a completely new architecture for the GF100 was to really get the tessellation part of DX11 done right, and implement it 100% in hardware - not do any of it in software via emulation. To do that took a completely ground-up design and that's [the primary reason] we're late."
Neocroth
2010-03-17, 18:38:47
Vielleicht versucht man, über die Deaktivierung eines Clusters die Chipausbeute zu erhöhen, um damit genug Dies zum Launch zur Verfügung zu haben? Das wäre eine gute Taktik, wenn man die 5870 auch so locker schlagen könnte und die 5970 sowieso außer Reichweite wäre.
Also 480 SPs beim High-End-Bin zeugen wirklich nicht gerade von unglaublich guten Yields...
N0Thing
2010-03-17, 18:43:45
[...] lassen wir doch einfach Ujesh Desai es auf den Punkt bringen:
The main reason we chose to develop a completely new architecture for the GF100 was to really get the tessellation part of DX11 done right, and implement it 100% in hardware - not do any of it in software via emulation. To do that took a completely ground-up design and that's [the primary reason] we're late."
Äh, ja, klar. Wenn dies der Hauptgrund für die Verspätung ist, warum hieß es dann erst, es würde noch im Jahr 2009 den GF100 zu kaufen geben?
Die werden wohl kaum zwischen A1 und A3 Tesselation "done right" in den Chip integriert haben, sondern wohl deutlich früher.
Abgesehen davon: Bleibt zu hoffen, daß Tesselation in der Zukunft wirklich mehr und sinnvoll eingesetzt wird, immerhin kann es einen deutlichen Unterschied in der Darstellungsqualität machen. Was man aber bisher bei Dirt 2, AvP und Metro (Bilder) gesehen hat, ja da hätte man sich den Stress auch sparen können.
Wenn das neue Frontend die Probleme verursacht hat und nicht der restliche Chip, dann stimmt die Aussage schon so halbwegs.
Also 480 SPs beim High-End-Bin zeugen wirklich nicht gerade von unglaublich guten Yields...
Hört man schon länger immer wieder durch die Blume das NV so manche 40nm "Eigenheiten" zu spät bemerkt hat. Deshalb soll ja auch von ein B-Stepping kommen.
LovesuckZ
2010-03-17, 18:52:23
Äh, ja, klar. Wenn dies der Hauptgrund für die Verspätung ist, warum hieß es dann erst, es würde noch im Jahr 2009 den GF100 zu kaufen geben?
Was hat das mit der Aussage zu tun? Sie waren mit dem designen zu langsam. Dadurch verschob sich das Tape-Out und somit auch der anversierte Launchtermin. Bitte nicht Äpfel mit Birnen vergleichen.
Abgesehen davon: Bleibt zu hoffen, daß Tesselation in der Zukunft wirklich mehr und sinnvoll eingesetzt wird, immerhin kann es einen deutlichen Unterschied in der Darstellungsqualität machen. Was man aber bisher bei Dirt 2, AvP und Metro (Bilder) gesehen hat, ja da hätte man sich den Stress auch sparen können.
GF100 ermöglicht mehr Spielraum mit Tessellation. Demnach sollte die Entwicklung ab jetzt deutlich schneller vorangehen.
Neocroth
2010-03-17, 18:56:11
Also 480 SPs beim High-End-Bin zeugen wirklich nicht gerade von unglaublich guten Yields...
Bestätigt aber alle Gerüchte, die es in diese Richtung gab.
Zu der Aussage von Ujesh Desai:
Der Mensch arbeitet im Marketing. Was erwartet ihr sonst für Aussagen? "Wir haben uns verschätzt und Scheiße gebaut, deshalb sind wir 2 Quartale hinter der Konkurrenz"? Natürlich versucht der, die Verspätung in ein möglichst positives Licht zu rücken, unabhängig davon ob seine Aussage stimmt oder nicht.
Neocroth
2010-03-17, 19:00:13
GF100 ermöglicht mehr Spielraum mit Tessellation. Demnach sollte die Entwicklung ab jetzt deutlich schneller vorangehen.
Der kleinste gemeinsame Nenner sind immer noch Konsolen. Also wird man wohl wahrscheinlich angeflanschte Tesselation sehen. Da die Developer leider immer weniger Aufwand in Portierungen stecken, glaube ich kaum dass man hier in Kürze aufwändige Entwicklungen sehen wird.
Dural
2010-03-17, 19:06:31
wer kauft sich jetzt noch eine GTX480 ;D
somit ist die geringe ausbeutung an vollen 512SP Chips bestätigt... die frage ist jetzt wohl noch wie so...
EDIT:
naja eigentlich schon seit der TESLA vorstellung...
LovesuckZ
2010-03-17, 19:07:57
Der kleinste gemeinsame Nenner sind immer noch Konsolen. Also wird man wohl wahrscheinlich angeflanschte Tesselation sehen. Da die Developer leider immer weniger Aufwand in Portierungen stecken, glaube ich kaum dass man hier in Kürze aufwändige Entwicklungen sehen wird.
DX11 Tessellation ist programmierbar und geht bis zum 64x Grad. Es wird keinen "gemeinsamen Nenner" geben, denn es kann dynamisch eingestellt und geregelt werden.
Und dann kommt eben der enorme Speedvorteil von GF100 gegenüber Cypress zum Tragen. Und mehr Speed bedeutet auch immer mehr Freiraum. Ich hoffe daher, dass man nicht nur an und aus hat, sondern wenigsten einen Schieberegler, der einem einen gewissen Grad von Freiheit einräumt.
wer kauft sich jetzt noch eine GTX480 ;D
Da Leute wie Tombman und Co. keine "Krüppelkarten" kaufen, gibt es mehr für das gemeine Volk. :D
Neocroth
2010-03-17, 19:15:14
DX11 Tessellation ist programmierbar und geht bis zum 64x Grad. Es wird keinen "gemeinsamen Nenner" geben, denn es kann dynamisch eingestellt und geregelt werden.
Und wie läuft DX11-Tesselation auf einer XBox360 bzw. PS3?
Wie ich schon sagte: es wird im Nachhinein angeflanscht.
LovesuckZ
2010-03-17, 19:17:44
Wenn es danach geht - wieso gibt es DX11? :rolleyes:
Neocroth
2010-03-17, 19:19:55
Vielleicht auch nur weil man damit die gleiche oder gar bessere Leistung erreicht?
Eventuell ist nicht die Ausbeute an voll funktionstüchtigen Chips so niedrig, sondern es macht nur 1 Cluster mit hoher Wahrscheinlichkeit die angepeilten Taktraten nicht mit, und man ist im Endeffekt schneller wenn man einen deaktiviert und dafür die anderen höher taktet.
Das würde allerdings die Gerüchte um die hohe TDP erklären :freak:
Ich glaube nicht, dass nVidia den Cluster deaktiviert, weil sie sich davon eine höhere Performance durch das Taktplus erhoffen. Die einzige für mich plausible Erklärung ist die höhere zu erreichende Yieldrate. Dass man dann die verbleibenden 15 Cluster höher taktet, ist dann naheliegend. Damit macht man aber aus Fermi auch keine Effizienzkanone mehr.
Neocroth
2010-03-17, 19:24:45
Wenn es danach geht - wieso gibt es DX11? :rolleyes:
Ist angesichts der vielen Konsolenports eine durchaus berechtigte Frage... :(
wenigstens: ein paar Studios werden uns schon nicht hängen lassen, aber wieviele DirectX10-Only-Titel sind denn seit Ende 2006 erschienen? Mir fallen auf Anhieb nur SH und Stormrise ein.
Thunder99
2010-03-17, 19:41:30
wenn die 480 doch nicht so toll ist besorg ich mir halt 3 davon.
Hartz4 machts möglich
Wenn das war ist, sollte man dich beim Arbeitsministerium melden, deine Identität ist ermittelbar ;)
@Topic: Das hört sich nach einem Refresh im Bx Stepping an, was dann die volle 512 Shader freischaltet, ODER sie machen es so wie ATI/AMD.
Da waren beim RV770/790 von den 900Shader auch nur 800 aktiv... (geteilt durch 5, da 5D)
Eggcake
2010-03-17, 19:43:26
Und warum sollte man in einem Spiel, in dem die ganzen Weichzeichner schon jegliches Flimmern im Ansatz unterdrücken SSAA verwenden? (Abgesehen davon dass ich stark bezweifle, dass 8xSSAA in einer vernünftigen Auflösung schnell genug ist)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7910131&postcount=770 (Malaysia ist so ziemlich die übelste Karte)
OT:
Natürlich nervt es etwas, dass man eine "abgespeckte" 480er bekommt - aber schlussendlich ists doch egal, NV wird sowieso mit einem Refresh kommen, da müsste man sich ja auch mit 512SPs ärgern.
Blöder wär's natürlich, wenn in einem Monat eine Ultra nachgeschoben wird, das fände ich für die, welche bereits eine 480 gekauft haben doch etwas ärgerlich.
AnarchX
2010-03-17, 19:45:03
@Topic: Das hört sich nach einem Refresh im Bx Stepping an, was dann die volle 512 Shader freischaltet, ODER sie machen es so wie ATI/AMD.
Da waren beim RV770/790 von den 900Shader auch nur 800 aktiv... (geteilt durch 5, da 5D)
Diese 100SPs bei RV770/790 waren reine Redundanz, GF100 war jedoch auf 512 funktionierende SPs geplant.
AnarchX
2010-03-17, 19:50:08
ab wann kann man eigentlich ungefähr mit der gf104 rechnen?
Momentan sieht es nach einem Q2 Launch aus.
Wenn DX11 sonst keine Vorteile bietet, gibts ja keinen Grund es zu verwenden. Crysis spielt man optimalerweise (wenn man nicht unnötig Performance verschenken will) auch mit der 32bit Version in DX9 (ja auch unter Win7 64bit!).
Wieso 32 bit?
Schlammsau
2010-03-17, 20:13:34
Ja da schau her.
Unterschied zwischen 10.3 Preview und der 10.3a Preview.
Ist so wie es aussieht noch einiges drin, bei der Tesselation Optimierung.
Unigine Heaven Demo 1.0
http://www.abload.de/img/overallo8gd.jpg
Diese 100SPs bei RV770/790 waren reine Redundanz
Die waren/sind keine Redundanz, die waren schon immer nicht vorhanden. Die 900 SPs sind aus einem Bild geschlußfolgert, wo ein paar Strukturen mit SPs verwechselt wurden, die jedoch (bei genauem Hinsehen) keine SPs sind.
Hier bitte mal genau hinschauen:
http://www.hardware-infos.com/news.php?news=2597
9 senkrecht sind keine SPs, die Strukturen unterscheiden sich bei genauerem Hinsehen sehr deutlich von 1-8 senkrecht.
Armaq
2010-03-17, 20:18:57
Für ein Treiberupdate ganz ordentlich, aber viel mehr wird glaube ich nicht gehen.
Ja da schau her.
Unterschied zwischen 10.3 Preview und der 10.3a Preview.
Ist so wie es aussieht noch einiges drin, bei der Tesselation Optimierung.
Unigine Heaven Demo 1.0
http://www.abload.de/img/overallo8gd.jpg
sind wir wieder da angelangt wo optimierungen für ganz spezielle benchszenen hochgejubelt werden?
*kopfschüttel*
sind wir wieder da angelangt wo optimierungen für ganz spezielle benchszenen hochgejubelt werden?
*kopfschüttel*
Wieso ? Ist auch nicht unsinniger als die Tessellation Leistung an einem einzigen Bench festzumachen :freak:
Abgesehen sollte klar sein, dass ATi ab 10.3 mit dem Tuning anfängt, das war schon beim RV770 ähnlich, und beschränkt sich nicht auf Benchmarks allein.
Jetzt geht es doch erst los mit den Performanceoptimierungen bei AMD. Bis jetzt hat AMD hauptsächlich an den vorhandenen Bugs und der Optimierung der Features gearbeitet. Ich finde den Cat. 10.3a wirklich sehr bemerkenswert was die Performancesteigerungen angeht und das ja über sehr viele verschiedene reale Games hinweg und sogar noch teilweise für HD48xx und die Mobility GPUs.
Man tut auf jeden Fall alles um beim GF100 Launch bestmöglich dazustehen.
crux2005
2010-03-17, 21:17:27
Laut meiner Quelle hat die GTX 470 definitiv weniger GB/s als die HD 5870. :biggrin:
Blaire
2010-03-17, 21:21:22
sind wir wieder da angelangt wo optimierungen für ganz spezielle benchszenen hochgejubelt werden?
Metro2033 mit Tesselation wird zeigen wo der Hase langläuft. ;)
Eggcake
2010-03-17, 21:24:13
Ich mache mit dir jede Wette, dass jeder GF100-Besitzer in Metro Tesselation schlussendlich sowieso nie aktivieren wird ;)
Aber ja, als Vergleich der Tesselationsleistung in Games dürfte es hinhalten - zumindest mal weg vom Himmel :>
DrFreaK666
2010-03-17, 21:24:15
Metro2033 mit Tesselation wird zeigen wo der Hase langläuft. ;)
Ein Spiel ist natürlich sehr aussagekräftig :freak:
Bin mal gespannt wie CUDA-nutzende Spiele darauf laufen.
Just Cause 2 verliert ja auch einiges an Performance wenn man es einschaltet.
Wenn man mit CUDA schneller ist als eine 5870 ohne dann: Respekt :up:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7910131&postcount=770 (Malaysia ist so ziemlich die übelste Karte)
Und jetzt bitte das ganze in 1920x1200
DrFreaK666
2010-03-17, 21:38:53
Und jetzt bitte das ganze in 1920x1200
Für was?
Naja es ist doch klar wie das wieder laufen wird. Die NV-FB werden sich die 2-3 Games raussuchen, bei denen sich GF100 wirklich mal ein wenig von den HD58xx absetzen kann und diese Games dann natürlich im selben Atemzug zu den wichtigsten Leistungsindikatoren ever erklären.
Ich frage mich anhand der bisher erschienenen DX11-Games (inkl. Metro 2033) aber immer noch, was mir Tesselation eigentlich bringt, wenn kein optischer BQ-Gewinn festzustellen ist. Ich habe mich ernsthaft angestrengt den großen optischen Aha-Effekt zu finden, aber es wollte mir einfach nicht gelingen.
Blaire
2010-03-17, 21:43:48
Ein Spiel ist natürlich sehr aussagekräftig :freak:
Für eine gewisse Tendenz für zukünftige Games kann es schonmal herhalten. Ich glaube aber, das man für maximale Details mit "nur" einer GTX480 nicht großartig viel Spass haben wird das braucht mindestens SLI...
DrFreaK666
2010-03-17, 21:45:31
Naja es ist doch klar wie das wieder laufen wird. Die NV-FB werden sich die 2-3 Games raussuchen, bei denen sich GF100 wirklich mal ein wenig von den HD58xx absetzen kann und diese Games dann natürlich im selben Atemzug zu den wichtigsten Leistungsindikatoren ever erklären.
Ich frage mich anhand der bisher erschienenen DX11-Games (inkl. Metro 2033) aber immer noch, was mir Tesselation eigentlich bringt, wenn kein optischer BQ-Gewinn festzustellen ist. Ich habe mich ernsthaft angestrengt den großen optischen Aha-Effekt zu finden, aber es wollte mir einfach nicht gelingen.
Was bringen dir 8xSGSSAA-Werte zum Vergleich wenn nv kein 8xSGSSAA bietet?
Für eine gewisse Tendenz für zukünftige Games kann es schonmal herhalten. Ich glaube aber, das man für maximale Details mit "nur" einer GTX480 nicht großartig viel Spass haben wird das braucht mindestens SLI...
Kommt auch drauf an wie eine Engine optimiert wurde.
Könnte aber natürlich sein, dass in Zukunft nv wieder die Nase vorne hat
HD 5000 ist 1/2 Jahr alt und muß sich mit Furmi schon garnicht vergleichen, davon mal abgesehen ohne die zwei DX11 Einstellungen wird sogar ne 5850 das Ding in der Pfeife rauchen und obs SSAA zeigen darf steht auch noch in den Sternen, ich für meinen Teil bin in Metro zurück zu DX9 unter DX11 verblitzt man sich ja die Augen..nix fürn alten Mann :D völlig übertriebener Quark.
mictasm
2010-03-17, 21:49:30
Naja es ist doch klar wie das wieder laufen wird. Die NV-FB werden sich die 2-3 Games raussuchen, bei denen sich GF100 wirklich mal ein wenig von den HD58xx absetzen kann und diese Games dann natürlich im selben Atemzug zu den wichtigsten Leistungsindikatoren ever erklären.
Naja es ist doch klar wie das wieder laufen wird. Die ATI-FB werden sich die 2-3 Games raussuchen, bei denen sich GF100 nicht mal ein wenig von den HD58xx absetzen kann und diese Games dann natürlich im selben Atemzug zu den wichtigsten Leistungsindikatoren ever erklären.
DrFreaK666
2010-03-17, 21:50:21
HD 5000 ist 1/2 Jahr alt und muß sich mit Furmi schon garnicht vergleichen, davon mal abgesehen ohne die zwei DX11 Einstellungen wird sogar ne 5850 das Ding in der Pfeife rauchen und obs SSAA zeigen darf steht auch noch in den Sternen, ich für meinen Teil bin in Metro zurück zu DX9 unter DX11 verblitzt man sich ja die Augen..nix fürn alten Mann :D völlig übertriebener Quark.
Wieso darf man die 5870 nicht mit der GTX470 vergleichen wenn diese in etwa gleich teuer werden?
PulsarS
2010-03-17, 21:54:16
Ich frage mich anhand der bisher erschienenen DX11-Games (inkl. Metro 2033) aber immer noch, was mir Tesselation eigentlich bringt, wenn kein optischer BQ-Gewinn festzustellen ist. Ich habe mich ernsthaft angestrengt den großen optischen Aha-Effekt zu finden, aber es wollte mir einfach nicht gelingen.
Das wird auch wohl nicht mehr passieren.
Dafür sind die Objekte in den heutigen Spielen einfach nicht polygonarm genug.
Die optische Qualität ist mittlerweile auf einem sehr erfreulichen Niveau angelengt.
Die großen Quantensprünge in der Optik, wie von DX8 zu DX9 wird es einfach nicht mehr geben.
Was die Tesselation angeht, sind die heutigen Texturen einfach nicht ausreichend, um der an sich guten Technik, optisch gerecht zu werden.
Das wird wohl noch etwas dauern bis der Unterschied zwischen Tesselation off/on auch optisch wirklich direkt sichtbare Vorteile bringt.
btw anhand eines Spiels die Leistung beurteilen zu wollen, kann jawohl nicht euer Ernst sein. :freak:
Eggcake
2010-03-17, 21:57:15
Und jetzt bitte das ganze in 1920x1200
Was willst du eigentlich beweisen? 1920x1200 kann ich nicht, ich habe einen 22" Monitor. Ja, irgendwann geht bei 8xSSAA und einem neueren Titel auch der 5850 die Puste aus, das ist korrekt :freak:
Duplex
2010-03-17, 21:57:27
Man sollte Nvidia & ATI nur bei Crysis max. Details, max. Auflösung, 8AA, DX10 & 64 Bit testen
Das spiel sagt über die Leistung viel aus, DX11 ist momentan noch unwichtig
Eggcake
2010-03-17, 21:59:18
@Duplex
Jau, das wären sehr realistische Settings.
Duplex
2010-03-17, 22:01:39
ich bin schon gespannt wie die GTX480 bei 8AA skalliert, beim dem G80 war die 8AA Leistung schlecht, wenn Nvidia hier nachgebessert hat sieht es gut aus.
DrFreaK666
2010-03-17, 22:02:32
ich bin schon gespannt wie die GTX480 bei 8AA skalliert, beim dem G80 war die 8AA Leistung schlecht, wenn Nvidia hier nachgebessert hat sieht es gut aus.
alut einigen nvidianern braucht man kein 8xMSAA :wink:
Das hat nichts mit "NVIDIAner" zu tun. Ich verwende auch auf der 4870 kein 8xAA, weil ich den Unterschied für viel zu klein halte. Wenn dann eher noch Edge-Detect oder gleich Supersampling.
y33H@
2010-03-17, 22:35:36
8x MSAA ist angesichts von 4x TAA oder 4x SGSSAA fürn Arsch. Warum die Polygone bügeln bis zum geht nicht mehr und den Rest wie blöde flimmern lassen ... seeehr sinnvoll :ugly:
Sorkalm
2010-03-18, 01:32:28
Laut Charlie hatte GF108 jetzt seinen Tape-Out:
http://semiaccurate.com/2010/03/17/nvidia-tapes-out-gf108/
GF104 und einen GF106 den es wohl auch noch geben soll, laut ihm allerdings noch nicht.
(Je größer die letzte Zahl, desto kleiner der Chip, sprich GF108 = Low-End)
The shrinks are x2, usually around 90 percent of the speed of the x0 part
90%? Ein bisschen Bullshit muss einfach in jedem von seinen Posts enthalten sein :biggrin:
Den Rest muss man jetzt einfach erstmal so hinnehmen. Ich denke es stimmt sogar. NVIDIA wird gewartet haben mit den Shrinks, bis sie sicher waren, dass die Probleme gelöst sind.
Ailuros
2010-03-18, 07:11:21
Tombman und Lovesuck: Euren gegenseitigen Kaffeekranz gefaelligst in Zukunft privat loesen.
Nochmal zur >14SM Geschichte: wenn jetzt die 480 tatsaechlich nur 15SMs hat (und nein ich glaube gar nichts mehr bis zum launch denn auch der 275/280W TDP scheint bullshit zu sein) dann bestaetigt es das SM Geruecht dass angeblich erst bei der Produktion aufkam. Es hat ueberhaupt nichts mit yields zu tun da es erstmal Design-bedingt ist.
Auch ueber die die area ist man sich nicht im klaren da hier der die genauso "elastisch" zu sein scheint wie Cypress vor seinem offiziellen launch. Wir haben momentan eine theoretische Spanne von 474 bis auf 548mm2. Je nach dem wie die wirkliche Groesse des chips aussieht liegen die durchschnittlichen yields entweder leicht unter oder leicht ueber 50%.
Zu SA's neuestem doom & gloom (tm) Artikel: wieso jetzt NV die kleinste GF10x Variante aller vorgezogen haben soll weiss wohl nur Charlie. Abwarten und Tee trinken.
AnarchX
2010-03-18, 08:16:00
Galaxy behauptet jedenfalls die GTX 480 hat 512 SPs:
http://img37.imageshack.us/img37/5526/galaxyi.jpg
http://www.szgalaxy.com/Fermi/
mapel110
2010-03-18, 08:42:22
Und an die 512 glaube ich auch bis zum Launch. Es macht einfach keinen Sinn, diese Version nicht zu bringen. Ich könnte mir höchstens vorstellen, noch 1-2 Monate mit der Vorstellung von 512SPs zu warten. Aber andererseits gehen nvidia auch die Namen über "Geforce 480" aus.
Sascha1971
2010-03-18, 08:44:45
Aber andererseits gehen nvidia auch die Namen über "Geforce 480" aus.
Wieso da gibts doch genug Möglichkeiten. Geforce 480 Ultra z.b.
AnarchX
2010-03-18, 08:47:00
Ultra passt nicht mehr in das aktuelle Bezeichnungssystem.
Jedoch GTX 485 wäre denkbar.
mapel110
2010-03-18, 08:51:10
Ultra passt nicht mehr in das aktuelle Bezeichnungssystem.
Jedoch GTX 485 wäre denkbar.
Und was sollen dann B1 und Dual-Fermi noch bekommen?! 490 und 495 klingt nach zu wenig Abstand.
AnarchX
2010-03-18, 08:54:29
Und was sollen dann B1 und Dual-Fermi noch bekommen?! 490 und 495 klingt nach zu wenig Abstand.
Wenn es wirkliche solche Probleme bei >14SMs gibt, dann kommt wohl erst die 512SPs Version erst mit B1/2 und Dual-Fermi wäre mit GTX 49x passend bezeichnet, wenn auch ein GX2/GTX2 für den Kunden eindeutiger wäre, aber davon ist AMD mittlerweile ja auch weggekommen.
Mayk-Freak
2010-03-18, 09:03:58
Zubehör fürn Fermi.
http://www.abload.de/img/unbenanntvd32.jpg (http://www.abload.de/image.php?img=unbenanntvd32.jpg)
MiamiNice
2010-03-18, 09:22:45
Ich will so ein T-Shirt :eek:
Das mit dem Coke Schriftzug find ich sehr nice.
mboeller
2010-03-18, 09:32:47
http://www.nordichardware.com/en/component/content/article/71-graphics/10910-nvidia-moving-media-embargo-to-march-29th.html
Benchmarks angeblich erst am 29.03........ :(
Nazar
2010-03-18, 09:34:43
Ja und nein. :D
Wenn sich Tessellation und GPGPU in Spielen durchsetzen wird, dann wird auch die GTX480 ein Quantensprung bringen.
Wenn Tesselation einen gewichtigen Grund in der Spielszene haben wird, ist die GTX480 eh Geschichte.
Es zählt einzig und alleine das was die Karte bringen wird, zum Zeitpunkt des Kaufs und das Verhältnis zur anderen Produkten.
Ob es Spiele geben wird, die mal 4 Kerne sinnvoll nutzen werden, zählt bei meiner heutigen Kaufentscheidung recht wenig. Besonders, wenn ich absehen kann, dass 1. diese Spiele noch Jahre auf sich warten lassen (mangelnder Support seitens der Entwickler) 2. der Zyklus der CPU Neuauflagen schneller ist, als der der Spieleanpassungen. Bei den GPUs ist das nicht anders.
Sich jetzt eine GTX480, alleine wegen der guten Tesselationbeschleunigung zu kaufen, welche man aber erst 1-2 Produktzyklen später richtig nutzen kann, wäre äusserst grenzwertig.
Meiner Meinung nach, scheint nV ordentlich verwachst zu haben.
So wie es aussieht, haben sie hauptsächlich auf die wissenschaftliche Sparte beim Fermi gesetzt und waren so überheblich, den Spielebereich mal so "nebenbei" zu entwickeln.
Ein Monsterchip der, wenn man den GPU Boardherstellern Glauben schenken darf, viel zu viel Strom für die erbrachte Leistung verbrät.
Ich hoffe immer noch, dass es nicht ganz so schlimm ist, wie es sich jetzt anhört aber würde es wirklich jemanden wundern wenn der GF100 eine "Niete" wäre?
Wohl kaum.
Die meisten wären doch eher erstaunt, wenn der GF100 wirklich gut laufen würde und wenig Leistung verbrät.
Wünschen würde ich es mir aber daran zu glauben, fällt mir jetzt recht schwer.
Aber die Hoffnung stirbt ja bekannt lich zum Schluß ;)
Grestorn
2010-03-18, 09:46:24
Bei jeder neuen GraKa Generation gibt es immer wieder die selben Sprüche, dass die neue oder endlich effizient einsezbare Technologie jetzt doch noch völlig überflüssig und für den Endanwender nicht von Belang sei.
Das ist soooo langweilig. Zuletzt ist das bei der HD5xx0 und DX11 verargumentiert worden. Dabei ist dieses Argument wirklich nur zum davonlaufen.
Bei jeder neuen GraKa Generation gibt es immer wieder die selben Sprüche, dass die neue oder endlich effizient einsezbare Technologie jetzt doch noch völlig überflüssig und für den Endanwender nicht von Belang sei.
Das ist soooo langweilig. Zuletzt ist das bei der HD5xx0 und DX11 verargumentiert worden. Dabei ist dieses Argument wirklich nur zum davonlaufen.
Der Unterschied ist das es dich bei der HD5xx0 nicht gestört hatte. Unwahr sind solche Aussagen trotzdem nicht, auch wenn es sich um ein klassisches Henne-Ei-Problem handelt.
Armaq
2010-03-18, 09:55:50
Ich verstehe nicht, was daran Henne-Ei-Problem sein soll. Ohne die Technologie gibt es hier keine Unterstützung. Man braucht sich nur SSE2 bei Prozessoren ansehen.
Nazar
2010-03-18, 10:04:49
Metro2033 mit Tesselation wird zeigen wo der Hase langläuft. ;)
Was bringt Tesselation, wenn der BQ Gewinn im Spielfluss nicht auffällt?
Ich musste bei den Metro Shots switchen, um einen Unterschied erkennen zu können.
Er ist zwar da ABER für mich überhaupt nicht relevant, da er fast nicht auffällt, mir also zu wenig Nutzen bringt für den Performanceverlust.
Tesselation ist eine sehr gute Sache und kann vielleicht mal Spiele deutlich aufwerten, nur sehe ich das bisher in KEINEM aktuellem Spiel.
Nicht in einem Spiel ist mir auf anhieb und ohne Hinweis ein Unterschied aufgefallen oder es war ersichtlich, dass das "anderes geartete Bild" wirklich "besser" aussah.
Im Moment müssen die Entwickler erst mal lernen Tesselation richtig zu nutzen, um den Performanceverlust in eine Verhältnismäßigkeit mit dem Qualitätsgewinn zu bringen!
Nazar
2010-03-18, 10:14:27
Bei jeder neuen GraKa Generation gibt es immer wieder die selben Sprüche, dass die neue oder endlich effizient einsezbare Technologie jetzt doch noch völlig überflüssig und für den Endanwender nicht von Belang sei.
Das ist soooo langweilig. Zuletzt ist das bei der HD5xx0 und DX11 verargumentiert worden. Dabei ist dieses Argument wirklich nur zum davonlaufen.
Willst Du wirklich behaupten, dass Tesselation JETZT DAS Kaufargument für eine GF100 ist?
Hier geht es nur darum, dass Tesselation von einigen, als DER momentane Heilsbringer gepriesen wird.
Es ist aber die momentane Gesamtleistung die zählt.
Was glaubst Du wieviele zukünftige Besitzer momentan wissen was Tesselation ist und wieviele es je einschalten werden?
Ich tippe unter 30%.
Für die meisten ist die jetzige Leistung, bei den jetzt erhältichen Spielen wichtig!
Ist denn DX10 heute, nach so langer Zeit, ein "must have Feature"?
Nein!
Bis heute sind die eigentliche Vorteile nie richtig ausgespielt worden und es gibt schon DX11 Karten zu kaufen.
Ich verstehe Deine "Argumentation" überhaupt nicht, wenn es um den Zeitpunkt der Relevanz einer Technik geht!
Der Zeitpunkt zur Einführung einer Neuerung hat schon IMMER wesentlich über den Erfolg oder Misserfolg beigetragen.
Man kann seiner Zeit sehr wohl Voraus sein.
Botcruscher
2010-03-18, 10:16:17
Tes. ist im Moment ja auch nur angeflanscht und die Modelle werden "aufgepumpt". Dazu kommt das Texturproblem. Die Texturauflösung ist und bleibt ein schlechter Witz.
so lange es keine neuen Konsolen gibt, passiert da auch nichts.
Furmi muß sich an DX9 mit SSAA messen lassen alles andere zählt nicht. Auch keine DX10 Balken, kenne keinen der in DX10 spielt wenn er DX9 haben kann.
ShadowXX
2010-03-18, 10:50:57
Ist denn DX10 heute, nach so langer Zeit, ein "must have Feature"?
Nein!
Bis heute sind die eigentliche Vorteile nie richtig ausgespielt worden und es gibt schon DX11 Karten zu kaufen.
Was aber an Vista und dessen schlechter Verbreitung lag....
Das lustige ist doch das es jetzt schon, knapp 5 Monate nach Release der ersten DX11-Karten, fast genausoviel (wenn nicht sogar genauso viel oder mehr) spiele gibt die DX11 unterstützen als spiele gibt die Dx10 unterstützen (und somit auch von DX11 Karte unterstützte werden).
Ja, DX10 war mehr oder minder ein Flop, was sicher auch an Vista lag....bei DX11 sieht es IMHO doch schon anders aus.
Ich verstehe Deine "Argumentation" überhaupt nicht, wenn es um den Zeitpunkt der Relevanz einer Technik geht!
Der Zeitpunkt zur Einführung einer Neuerung hat schon IMMER wesentlich über den Erfolg oder Misserfolg beigetragen.
Man kann seiner Zeit sehr wohl Voraus sein.
Die Technik muss aber erst da sein, damit man für Sie entwickeln kann....
N0Thing
2010-03-18, 10:51:01
90%? Ein bisschen Bullshit muss einfach in jedem von seinen Posts enthalten sein :biggrin:
Den Rest muss man jetzt einfach erstmal so hinnehmen. Ich denke es stimmt sogar. NVIDIA wird gewartet haben mit den Shrinks, bis sie sicher waren, dass die Probleme gelöst sind.
90% kommt doch beim G92 vs. G80 ungefähr hin. Für den GT200 wurde kein entsprechender Chip veröffentlicht und vorher gab es doch noch andere Einteilungen bei den kleineren Chips, oder?
Grestorn
2010-03-18, 11:13:47
Der Unterschied ist das es dich bei der HD5xx0 nicht gestört hatte. Unwahr sind solche Aussagen trotzdem nicht, auch wenn es sich um ein klassisches Henne-Ei-Problem handelt.
Was hat mich nicht gestört?
Bei DX11 hat mich gestört, dass man nVidia unterstellt hat, sie würden behaupten, dass DX11 nicht wichtig wäre. Dabei hat nVidia das so nie behauptet (und wenn sie das getan hätten, wäre ich ihr schärfster Kritiker gewesen).
Ich verstehe Deine "Argumentation" überhaupt nicht, wenn es um den Zeitpunkt der Relevanz einer Technik geht!
Der Zeitpunkt zur Einführung einer Neuerung hat schon IMMER wesentlich über den Erfolg oder Misserfolg beigetragen.
Man kann seiner Zeit sehr wohl Voraus sein.
Wer definiert denn, wann die richtige Zeit für eine Technik ist?
Wenn eine Technik von niemandem zur Verfügung gestellt wird, KANN sie gar nicht genutzt werden und somit natürlich auch nie der richtige Zeitpunkt für die Technik erreicht werden.
Nvidia: DirectX 11 Will Not Catalyze Sales of Graphics Cards.
http://www.xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html
Die Überschrift "DX11 is not important" lässt sich aber aus der eigentlichen Aussage überhaupt nicht herauslesen. Das wurde schon damals kritisiert.
Die Aussage ist:
"DirectX 11 by itself is not going be the defining reason to buy a new GPU. It will be one of the reasons. This is why Microsoft (http://www.xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html# ) is in work with the industry to allow more freedom and more creativity in how you build content, which is always good, and the new features in DirectX 11 are going to allow people to do that. But that no longer is the only reason, we believe, consumers would want to invest in a GPU".
Steht da irgendwo, dass DX11 nicht wichtig sein würde? Da steht nur, dass DX 11 für sich alleine gesehen kein Grund sich eine neue GPU zu kaufen sei. Das ist aber eine ganz andere Aussage.
Mich ärgert, was diese Newsseiten so treiben. Da wird manipuliert, wo es nur geht.
Nvidia: DirectX 11 Will Not Catalyze Sales of Graphics Cards.
http://www.xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html
LovesuckZ
2010-03-18, 11:27:32
http://i43.tinypic.com/ab5v6x.jpg
http://forum.beyond3d.com/showpost.php?p=1409126&postcount=3930
Bis auf das Bild der Karte - vollkommen nichtssagend.
James Ryan
2010-03-18, 11:30:47
Scheint doch der neuere Kühler verbaut zu werden.
MfG :cool:
AnarchX
2010-03-18, 11:42:31
Die Karte nochmal größer:
http://img.donanimhaber.com/images/haber/WTM_gtx480buyukb_1-dh_fx57.jpg
http://img406.imageshack.us/img406/8137/wtmgtx480buyukb1dhfx57.th.jpg (http://img406.imageshack.us/i/wtmgtx480buyukb1dhfx57.jpg/)
mapel110
2010-03-18, 11:43:45
So viele Folien ohne wirklichen Inhalt. Ich will endlich die finalen Taktraten wissen.
Was bringt Tesselation, wenn der BQ Gewinn im Spielfluss nicht auffällt?
BQ hat ein so hohes Niveau erreicht, dass du wahrscheinlich nie wieder etwas ganz offensichtliches sehen wirst. Es geht nur kleckerweise voran.
LovesuckZ
2010-03-18, 11:44:38
Die Karte nochmal größer:
http://img.donanimhaber.com/images/haber/WTM_gtx480buyukb_1-dh_fx57.jpg
Die Konstruktion scheint ein "Runtime Error" zu sein. ;D
Schlammsau
2010-03-18, 12:10:10
Die Konstruktion scheint ein "Runtime Error" zu sein. ;D
:confused:
crux2005
2010-03-18, 12:12:16
wahrscheinlich ging die url oder der server nicht :wink:
MiamiNice
2010-03-18, 12:22:36
Die Bilder der Karte zeigen aber nicht das endgültige Layout, oder? Sieht so unspektakulär aus.
http://i43.tinypic.com/ab5v6x.jpg
http://forum.beyond3d.com/showpost.php?p=1409126&postcount=3930
Bis auf das Bild der Karte - vollkommen nichtssagend.
also mir sagen < 300W schon etwas... nämlich, dass dieser Ziegelstein 295W verbrauchen wird.
MiamiNice
2010-03-18, 12:26:25
Und wen genau interessiert bei High-End Karten der Stromverbrauch? Wen sie Dir zuviel verbraucht kaufst einfach ein kleineres Modell. Eine High-End Grafikkarte braucht erstmal nur Power, alles andere ist irrelevant.
Sascha1971
2010-03-18, 12:30:40
Und wen genau interessiert bei High-End Karten der Stromverbrauch? Wen sie Dir zuviel verbraucht kaufst einfach ein kleineres Modell. Eine High-End Grafikkarte braucht erstmal nur Power, alles andere ist irrelevant.
Ausserdem die par Stunden die man spielt, kann man damit leben.
Ich frage mich da mehr, wieviel die karte im 2d Betrieb zieht. Da mein PC immer an ist. Da er auch Servereigenschaft im Haus hat.
Im Moment müssen die Entwickler erst mal lernen Tesselation richtig zu nutzen, um den Performanceverlust in eine Verhältnismäßigkeit mit dem Qualitätsgewinn zu bringen!Wenn sich DX11 breit durchgesetzt hat, lässt sich mittels Tesselation auf den DX12/DX13-Karten die Szene effizienter rendern als ohne.
Abgesehen davon: Bleibt zu hoffen, daß Tesselation in der Zukunft wirklich mehr und sinnvoll eingesetzt wird, immerhin kann es einen deutlichen Unterschied in der Darstellungsqualität machen.Ja, wenn die Variante ohne Tesselation künstlich verschlechtert wird.
Man muss vom Feature-Denken wegkommen: DX10: (grobes Bild) DX11: (superfein aufgelöste Geometrie.)
Ist eine Content-Frage.
boxleitnerb
2010-03-18, 12:33:48
Dass der Stromverbrauch im High-End keine so große Rolle spielt, ist schon richtig. Aber Leistung um jeden Preis bei schlechter Effizienz kann doch auch nicht das Ziel sein. Ich fürchte, die HD5000er Serie hat da die Nase vorn.
Überleg doch mal: Wenn Nvidia das nicht auf die Reihe kriegt, wie soll es mit Leistungssteigerungen zukünftig aussehen, wenn man jetzt schon die 300W Marke fast mit einer SGPU knackt? Über die Jahre ist der Verbrauch im Vergleich zur Leistung immer moderat angestiegen, aber irgendwo muss doch mal Schluss sein.
Um die Kosten gehts doch keinem, das trägt die Katze auf dem Schwanz fort. Lautstärke und Hitzeentwicklung sehe ich hier viel kritischer. Unergonomisch eben.
LovesuckZ
2010-03-18, 12:38:12
Dass der Stromverbrauch im High-End keine so große Rolle spielt, ist schon richtig. Aber Leistung um jeden Preis bei schlechter Effizienz kann doch auch nicht das Ziel sein. Ich fürchte, die HD5000er Serie hat da die Nase vorn.
Welche? 5870 oder 5970?
Überleg doch mal: Wenn Nvidia das nicht auf die Reihe kriegt, wie soll es mit Leistungssteigerungen zukünftig aussehen, wenn man jetzt schon die 300W Marke fast mit einer SGPU knackt? Über die Jahre ist der Verbrauch im Vergleich zur Leistung immer moderat angestiegen, aber irgendwo muss doch mal Schluss sein.
Es treffen zwei unterschiedliche Architekturansichten aufeinander, die ihren Schwerpunkt fast 180° entfernt gelegt haben. Bei viel Geometrie und Tessellation (eventuell sogar auch mit GPGPU Berechnungen, die L1 Cache lieben) wird die Energieeffizienz bei GF100 deutlich besser sein als bei AMD. Bei vielen Shaderberechnungen und reinen Rechenanforderungen wird AMD deutlich die Nase vorne haben.
Ich sehe da kein Energieproblem, sondern ein Architekturproblem.
Godmode
2010-03-18, 12:41:57
Ich bin gespannt: "Fastest GPU in the World"
MiamiNice
2010-03-18, 12:43:43
Klar, überproportional ineffizient sollte die Karte nicht sein. Aber Kaufentscheind ist das ganz sicher nicht. In diesem Bereich geht es bloss um Power, mir zumindest. Da kann die Karte auch 500W oder mehr verbrauchen, wen die Power stimmt, wohlgemerkt. Was sich die Karte in 2D an Strom genehmigt ist allerdings wieder sehr interessant. In 3D ist mir alles egal, da kann sich die Karte auch anhören wie ein Flugzeug, hauptsache die Grafik beeindruckt mich. Gibst halt ein dickeres Headset ^^
tombman
2010-03-18, 12:47:04
Hmm, vielleicht war die 480er ja mit 512sp geplant, und einige Hersteller haben demnach ihre Packungen beschriftet- bei nur echten 480sps müßten die jetzt neu drucken.
(sofern die galaxy pics kein fake sind)
boxleitnerb
2010-03-18, 12:52:36
@LZ:
Beide. Wenn die 5970 bei vergleichbarem Verbrauch die 480 schlägt (im Durchschnitt in Spielen, nicht wenn man die Stärken extra fördert, indem man wie blöde Tesselation fährt), zieht NV hier den Kürzeren.
@Miami:
500W? Alter Latz. Nene, der Trend kann nicht das Wahre sein. Das Teil würde das System wie blöde aufheizen, neue Netzteile wären nötig, teure Kühlung etc. Es soll eben auch Leute geben, die einen leisen unauffälligen Rechner schätzen. Ich gehöre dazu. So kann ich mich auch viel besser auf das Spiel konzentrieren. Mit Headset spiele ich eh nicht daheim, warum auch?
Ailuros
2010-03-18, 12:53:43
Es waren sind und werden auch 512SPs auf der GTX480 bleiben. Da dieser Versuch mit dem 480SP FUD nicht hingehauen hat ist der naechste Kandidant wahrscheinlich TDP. Bei all dem Wirrwarr kann man einfach keinen Durchblick mehr halten.
LovesuckZ
2010-03-18, 12:58:06
@LZ:
Beide. Wenn die 5970 bei vergleichbarem Verbrauch die 480 schlägt (im Durchschnitt in Spielen, nicht wenn man die Stärken extra fördert, indem man wie blöde Tesselation fährt), zieht NV hier den Kürzeren.
GF100 ist dazu da, um "wie blöde Tessellation zufahren". Es ist primäres Designziel gewesen, Tessellation im großen Maßen nutzbar zu machen. Das kann man nicht einfach ausblenden, nur weil einem gewisse Dinge nicht gefallen. Wir müssen uns wohl oder übel beim Erscheinen von GF100 davon befreien, dass beide Hersteller im großen und ganzen das selbe Problem lösen wollten. Das trifft hier nicht zu. Weiter als bald lagen AMD und nVidia's Ansichten eigentlich nur einmal auseinander: Bei der Texturleistung des r600.
Zauberer
2010-03-18, 13:00:12
Hmm, vielleicht war die 480er ja mit 512sp geplant, und einige Hersteller haben demnach ihre Packungen beschriftet- bei nur echten 480sps müßten die jetzt neu drucken.
(sofern die galaxy pics kein fake sind)
Die Bilder sind sicher kein Fake, ich bin echt enttäuscht das 3dcenter.org hier Falschmeldungen auf der Homepage verbreitet.
480 Shader-Einheiten sind ein Witz, das haut nie im Leben hin, wenn die TDP mit 225 und 300 stimmen.
Wenn Tesselation einen gewichtigen Grund in der Spielszene haben wird, ist die GTX480 eh Geschichte.
Es zählt einzig und alleine das was die Karte bringen wird, zum Zeitpunkt des Kaufs und das Verhältnis zur anderen Produkten.ATIs Radeon 9700 bot als einzige Karte (für damalige Verhältnisse) sehr gute DX9-Pixelshaderleistung. Nur Monate später gab es Spiele, die das nutzten.
Zwar wird Tesselation nicht in Kürze das krasse Must-Have-Feature sein, aber eine gute Umsetzung beflügelt die Entwickler für zukünftige Games.
Wie man das jetzt beim Kauf gewichtet, ist jedem selbst überlassen; ich persönlich gewichte Zukunftsaussichten zum Beispiel nur sehr gering; aber "einzig und alleine" den Kaufzeitpunkt zu betrachten ist eine zu absolute Formulierung.
Palpatin
2010-03-18, 13:04:48
Vielleicht kommt es so wie bei der alten GTX 260, erst 480 und später volle 512, ohne große Namensänderung und recht fix paar Monate nach release.
Mr. Lolman
2010-03-18, 13:05:54
Wieso 32 bit?
Weil die bei massivem Streaming deutlich flotter ist.
Ausnahmen bestätigen die Regel.
Es gibt natürlich Workloads (wenig Geometrie, viel Compute-Shader) bei denen RV870 dann auch mal glänzen kann.
und da ist die Effizienz dann auch optimal: ZB gibts hier ne Astronomical Many Bodys Simulation, wo ein RV870 ~2TFLops raushaut: http://galaxy.u-aizu.ac.jp/trac/note/raw-attachment/wiki/Astronomical_Many_Body_Simulations_On_RV770/R700demo.zip
kann man denn schon in etwa einschätzen auf welchem leistungsniveau die gf104 läuft? verglichen mit der noch aktuellen geforce generation.
boxleitnerb
2010-03-18, 13:12:00
GF100 ist dazu da, um "wie blöde Tessellation zufahren". Es ist primäres Designziel gewesen, Tessellation im großen Maßen nutzbar zu machen. Das kann man nicht einfach ausblenden, nur weil einem gewisse Dinge nicht gefallen. Wir müssen uns wohl oder übel beim Erscheinen von GF100 davon befreien, dass beide Hersteller im großen und ganzen das selbe Problem lösen wollten. Das trifft hier nicht zu. Weiter als bald lagen AMD und nVidia's Ansichten eigentlich nur einmal auseinander: Bei der Texturleistung des r600.
Ein neues performantes Feature ist immer schön, aber ich bezweifle, dass es sich innerhalb der Lebenszeit der Karte so durchsetzen wird, dass GF100 IM SCHNITT (aller Spiele) dementsprechend gut dasteht was Perf/Watt, mm, whatever angeht. Tessellation ist nicht alles, nur weil GF100 da sehr stark ist. SSAA ist mir schon immer wichtiger gewesen als andere "Gimmicks". Ein unruhiges flimmerndes Bild stört das Spielerlebnis imho viel mehr als ein paar kantige Objekte (vor allem, wenn man mit der Lupe nach dem Unterschied suchen muss, siehe die Metro2033 Bilder hier im Forum). Und es gibt ja auch noch ein paar andere Dinge zu berechnen außer Dreiecken. Was nützen mir runde Objekte ohne Performancehit, wenn die Grundperformance für den Rest nicht ausreichend ist?
Ich persönlich bin eher NV-biased, das gebe ich offen zu. Ich hatte gehofft, dass Fermi richtig rocken wird (vor allem mit SSAA), aber deshalb rede ich nicht einen Anwendungsfall übermäßig wichtig, der in den nächsten 2 Jahren eher selten vorkommen wird.
Die Bilder sind sicher kein Fake, ich bin echt enttäuscht das 3dcenter.org hier Falschmeldungen auf der Homepage verbreitet.
480 Shader-Einheiten sind ein Witz, das haut nie im Leben hin, wenn die TDP mit 225 und 300 stimmen.
Und wen ich sage, dass 2 der 3 Werte nicht stimmen.
LovesuckZ
2010-03-18, 13:33:50
Ein neues performantes Feature ist immer schön, aber ich bezweifle, dass es sich innerhalb der Lebenszeit der Karte so durchsetzen wird, dass GF100 IM SCHNITT (aller Spiele) dementsprechend gut dasteht was Perf/Watt, mm, whatever angeht.
Und ohne GF100 würden wir in einem Jahr die exakt selbe Diskussion führen. Durch GF100 wird sich Tessellation auf dem PC deutlich schneller durchsetzen, weil die Implementierung dem Entwickler mehr Freiheiten ermöglicht. Cypress's Implementierung bewegt sich auf dem Niveau des DX9 vom NV35.
Tessellation ist nicht alles, nur weil GF100 da sehr stark ist. SSAA ist mir schon immer wichtiger gewesen als andere "Gimmicks". Ein unruhiges flimmerndes Bild stört das Spielerlebnis imho viel mehr als ein paar kantige Objekte (vor allem, wenn man mit der Lupe nach dem Unterschied suchen muss, siehe die Metro2033 Bilder hier im Forum).
Tessellation startet gerade und ist noch lange nicht am Ziel. Es heißt abwarten.
Und es gibt ja auch noch ein paar andere Dinge zu berechnen außer Dreiecken. Was nützen mir runde Objekte ohne Performancehit, wenn die Grundperformance für den Rest nicht ausreichend ist?
Eine 5850 erreicht ohne Tessellation 35/40 FPS in Metro und erreicht mit nur 20/26. Wenn der Einbruch nur 10% beträge, wäre es weiterhin spielbar.
Ich persönlich bin eher NV-biased, das gebe ich offen zu. Ich hatte gehofft, dass Fermi richtig rocken wird (vor allem mit SSAA), aber deshalb rede ich nicht einen Anwendungsfall übermäßig wichtig, der in den nächsten 2 Jahren eher selten vorkommen wird.
Man kann nicht ewig immer auf dem selben Niveau bleiben. SSAA in allen Ehren, aber wenn das der einzige Kaufgrund darstellt, dann läuft am PC einiges falsch. Abgesehen davon bietet nVidia mit dem neuen 32xCSAA + AAA eine deutlich billigere Möglichkeit um Alphatest zu glätten. Und wenn HQ-AF vorhanden ist, dann gibt es auch flimmerfreies AF. Ist ja nicht so, dass SSAA immer nur die einzige Möglichkeit darstellt.
Ailuros
2010-03-18, 13:35:17
Und wen ich sage, dass 2 der 3 Werte nicht stimmen.
Alle 3 stimmen wohl nicht ;D:P
PulsarS
2010-03-18, 13:35:50
GF100 ist dazu da, um "wie blöde Tessellation zufahren". Es ist primäres Designziel gewesen, Tessellation im großen Maßen nutzbar zu machen. Das kann man nicht einfach ausblenden, nur weil einem gewisse Dinge nicht gefallen. Wir müssen uns wohl oder übel beim Erscheinen von GF100 davon befreien, dass beide Hersteller im großen und ganzen das selbe Problem lösen wollten. Das trifft hier nicht zu. Weiter als bald lagen AMD und nVidia's Ansichten eigentlich nur einmal auseinander: Bei der Texturleistung des r600.
Wenn man z.B. durch Tesselation 50% Leistung verliert, bei der BQ aber kaum Unterschiede auszumachen sind, dann investiere ich die Performance lieber in bessere AA-Modi (Transparenz, SSAA).
Alles andere wäre kontraproduktiv.
Tesselation ist zwar eine tolle Technik, bei dem heutigen Content aber noch nicht das Wahre, dass ich in Begeisterungsstürmen ausbrechen würde.
Es gibt bessere Alternativen die vorhandene Performance in bessere BQ umzusetzen, die man auch sofort sieht.
PulsarS
2010-03-18, 13:38:40
Zwar wird Tesselation nicht in Kürze das krasse Must-Have-Feature sein, aber eine gute Umsetzung beflügelt die Entwickler für zukünftige Games.
Und genau darauf wird es ankommen.
Eine gute Umsetzung durch die Spielentwickler.
Ohne bessere Texturen sehe ich aber kaum Potenzial, die BQ durch Tesselation deutlich zu steigern.
Iruwen
2010-03-18, 13:40:12
Über die Jahre ist der Verbrauch im Vergleich zur Leistung immer moderat angestiegen, aber irgendwo muss doch mal Schluss sein.
Ist es nicht eher so dass der Verbrauch insgesamt zwar gestiegen, im Vergleich zur Leistung aber eher deutlich gesunken ist?
Mr. Lolman
2010-03-18, 13:44:30
Man kann nicht ewig immer auf dem selben Niveau bleiben. SSAA in allen Ehren, aber wenn das der einzige Kaufgrund darstellt, dann läuft am PC einiges falsch. Abgesehen davon bietet nVidia mit dem neuen 32xCSAA + AAA eine deutlich billigere Möglichkeit um Alphatest zu glätten. Und wenn HQ-AF vorhanden ist, dann gibt es auch flimmerfreies AF. Ist ja nicht so, dass SSAA immer nur die einzige Möglichkeit darstellt.
Ich denke es geht eher ums Shaderflimmern. Alphatests bekommt man auch mit heutigen Möglichkeiten ganz gut in den Griff.
Henroldus
2010-03-18, 13:45:19
Ist es nicht eher so dass der Verbrauch insgesamt zwar gestiegen, im Vergleich zur Leistung aber eher deutlich gesunken ist?
ja, geschuldet dem stetigen Shrinking im Fertigungsprozess sinkt natürlich die Leistungsaufnahme ohne dass an der Architektur geschraubt werden muss!
ein 8800GTX@40nm würde das aufzeigen
Ailuros
2010-03-18, 13:45:58
Ich bleibe bei meiner Meinung dass Tessellation als quasi Nachgedanke in eine schon existierende engine einzubauen entweder zu zu kleinen Aenderungen fuehren kann oder eben zu Phaenomenen wie "over-tessellation".
In meinem Hinterkopf waere es idealer wenn zukuenftige game engines von Grund auf mit Tessellation als Ziel von Anfang an entwickelt werden.
Pulsar hat im Grund schon recht. Wenn ich am Ende auf Phaenomaene wie oben in Spielen treffe, dann investiere ich meine Resourcen wohl auch lieber in etwas wie TMAA z.B.
PulsarS
2010-03-18, 13:46:25
Ist es nicht eher so dass der Verbrauch insgesamt zwar gestiegen, im Vergleich zur Leistung aber eher deutlich gesunken ist?
Alles andere wäre auch ein Rückschritt, wenn wir bedenken, dass der Fertigungsprozess im kleiner wird.
Darum geht es hier vielen aber wohl nicht.
Es geht um folgendes:
Ist eine GTX 480 20% schneller als eine 5870, braucht dafür aber 50% oder gar mehr Strom, ist die Energieeffizienz im Vergleich zur Leistung einfach miserabel.
Ailuros
2010-03-18, 13:48:42
Alles andere wäre auch ein Rückschritt, wenn wir bedenken, dass der Fertigungsprozess im kleiner wird.
Darum geht es hier vielen aber wohl nicht.
Es geht um folgendes:
Ist eine GTX 480 20% schneller als eine 5870, braucht dafür aber 50% oder gar mehr Strom, ist die Energieeffizienz im Vergleich zur Leistung einfach miserabel.
5870@850MHz 1GB, 188W TDP
5870@850MHz 2GB, 228W TDP
480@? 1.5GB, ? TDP
Merkst Du etwas?
LovesuckZ
2010-03-18, 13:49:58
Ich denke es geht eher ums Shaderflimmern. Alphatests bekommt man auch mit heutigen Möglichkeiten ganz gut in den Griff.
Für solche Spiele muss er a) sowieso auf viel Leistung verzichten durch SSAA und b) auf den implementierten DX10 und DX11 Pfad.
SSAA lohnt sich dann ja auch nur erst ab 4 Samples. Und bei nativer Auflösung von mindesten 1680x1050 ist es immer auch ein Kompromissspiel.
Burgard
2010-03-18, 13:55:06
In meinem Hinterkopf waere es idealer wenn zukuenftige game engines von Grund auf mit Tessellation als Ziel von Anfang an entwickelt werden.
Das wird aber noch auf sich warten lassen.
Die meisten Engines sind für 3 Plattformen ausgelegt und da hat Tessalation z.Zt keinen wirklichen Platz und wird eben nur drangepatsch und als möglicher Eyecandy gehandelt.
In 2-3 Jahren sieht die Sache schon anders aus, dann sollte auch die Konsolengeneration Tessalation beherrschen, aber bis dahin...
Man stelle sich nur mal Steinwände mit Tessalation vor.
Wichtiger wäre aber erstmal eine einheitliche Physikengine.
PulsarS
2010-03-18, 13:56:13
5870@850MHz 1GB, 188W TDP
5870@850MHz 2GB, 228W TDP
480@? 1.5GB, ? TDP
Merkst Du etwas?
Nö.
TDP juckt mich eh nicht.
Was für den Kunden zählt, ist die Verlustleitung in realen Anwendungen, vor allem in Spielen.
Die TDP könnte vielleicht Systembuilder interessieren...
Ailuros
2010-03-18, 14:04:17
Wieso jetzt gerade Steinwaende ein gutes Beispiel fuer Tessellation waere kann ich mir nicht vorstellen. Eine Steinwand wo nicht jede Kante abgerundet ist sieht nicht unbedingt unrealistischer aus.
Tessellation ist eher etwas fuer Figuren, Statuen oder relevantes Zeug zumindest IMHO.
Nö.
TDP juckt mich eh nicht.
Was für den Kunden zählt, ist die Verlustleitung in realen Anwendungen, vor allem in Spielen.
Die TDP könnte vielleicht Systembuilder interessieren...
Nochmal DEIN Satz auf den ich antwortete:
Es geht um folgendes:
Ist eine GTX 480 20% schneller als eine 5870, braucht dafür aber 50% oder gar mehr Strom, ist die Energieeffizienz im Vergleich zur Leistung einfach miserabel.
Um was soll es jetzt gehen genau und wieso ist unter einer realistischeren Perspektive ploetzlich Energieeffizienz nebenwichtig? Der TDP liegt eben nicht auf 295W sondern in kleinerer Naehe zu den 228W einer Eyefinity6 5870 als sich manche vorstellen. Und da momentan nur diese Werte hinter den Kulissen erhaeltlich sind hast Du wohl Deine angeblichen 50% mehr Stromverbrauch der Ironie zu Liebe vom TDP abgeschlagen.
Burgard
2010-03-18, 14:10:10
Steinwände, weil ich gerade Oblivion spiele, blöde Assoziation.
SO langsam überspannt NV den Bogen aber gewaltig.
Wohl keine Karten auf der Messe zu kaufen.
Update 18.03.2010
Nachdem gerade erst gemeldet wurde, dass die neuen Geforce-Karten von Nvidia vermutlich erst am 6. April im Handel erhältlich sein werden, meldet NordicHardware nun eine weitere Veränderung im Fahrplan von Nvidia.
Angeblich soll Nvidia die Geforce GTX 480 und Geforce GTX 470 wie angekündigt am 26. März auf der PAX 2010 vorstellen, aber selbst dort soll es noch keine offiziellen Benchmarks geben. Man werde zwar die Spezifikationen und Preise verraten, doch die Informationssperre für Medien soll bis Montag, den 29. März aufrechterhalten werden.
Erst dann soll es laut NordicHardware komplette Benchmarks der Karten geben, die dann eine Woche später im Handel zu finden sein sollen.
Link (http://www.gamestar.de/hardware/news/grafikkarten/2313481/nvidia_geforce_gtx_480.html)
Überleg doch mal: Wenn Nvidia das nicht auf die Reihe kriegt, wie soll es mit Leistungssteigerungen zukünftig aussehen, wenn man jetzt schon die 300W Marke fast mit einer SGPU knackt? Über die Jahre ist der Verbrauch im Vergleich zur Leistung immer moderat angestiegen, aber irgendwo muss doch mal Schluss sein.
Dann droht der Tod im Hamsterrad. ;)
Soviel Luft nach oben ist nicht mehr. Man sieht ja jetzt schon, dass alleine die Fertigung der großen Logikchips neben der Entwicklung immer komplexer, langwieriger und ausschussanfälliger bei wird, je näher man die magische "Siliciumgrenze" ranrückt. Das gibt ein Spaß, wenn in 32nm so 3,5 Milliarden funktionierende Transistoren im Industriemaßstab gebrannt werden müssen. Bis das rund läuft, oweh. An noch kleiner und 5 Milliarden Schaltermonster will ich erst gar nicht denken. Für ATI/AMD gilt natürlich das Gleiche. Man hat es jetzt mit 2 Milliarden noch nicht ganz so schwer gehabt, aber selbst da es sah/sieht es mit der Ausschussquote alles andere als toll aus.
Je mehr Leistung, desto schwieriger, teuer etc. Irgendwo ist Schicht im Schacht, da es sich nicht mehr lohnt oder es technisch nicht mehr machbar ist. Die "Natur" ist da unerbittlich und nimmt auf Träume von konstantem, stetigem Wachstum keine Rücksicht.
PulsarS
2010-03-18, 14:15:58
@Ail
Die PCGH und die HT4U testen praxisnah mit Spielen.
Lass uns die Werte abwarten und dann darüber diskutieren, ok?
Man kann auch einen Mittelwert zwischen 188 und 228 errechnen und dann mit einer GF100 mit 1,5 GiB vergleichen.
edit:
Wieso jetzt gerade Steinwaende ein gutes Beispiel fuer Tessellation waere kann ich mir nicht vorstellen. Eine Steinwand wo nicht jede Kante abgerundet ist sieht nicht unbedingt unrealistischer aus.
Tessellation ist eher etwas fuer Figuren, Statuen oder relevantes Zeug zumindest IMHO.
So siehts aus.
Für Wände oder allgemein homogene Flächen ist eher Bump Mapping oder POM die richtige Wahl.
grafzahl
2010-03-18, 14:17:05
Morgen kommt ein Nvidia Sample bin mal gespannt was gehauen und gestochen ist :)
5870@850MHz 1GB, 188W TDP
5870@850MHz 2GB, 228W TDP
480@? 1.5GB, ? TDP
Merkst Du etwas?
Der Vergleich ist unfair. Die Eyefinity6 Karte hat 6 DP-Anschlüsse die alleine 48W schlucken.
5870@850MHz 1GB, 188W TDP
5870@850MHz 2GB, 228W TDP
480@? 1.5GB, ? TDP
Merkst Du etwas?
Da hätte ich aber erwartet das du besser informiert bist...
Du beziehst dich bei der 5870 2GB auf die Eyefinity 6 Edition
Der Mehrverbrauch kommt hauptsächlich durch Eyefinity zustande. Normale 5870 werden mit aktiven 3 Displayoutputs vermessen (was einer mehr ist als bei allen aktuellen Nvidia Grakas) und dann die TDP ermittelt.
Bei der Eyefinity 6 werden dann schon 6 Displayoutputs angesteuert und das zieht durchaus merklich mehr Strom als wenn nur einer angesprochen wird.
Die Rechnung geht insofern nicht auf. 1GB GDDR5 verbraucht keine 40 Watt...
Die Leistungseffizienz ist momentan bei ATI klar besser wenn sich die Gerüchte bewahrheiten und damit wird Nvidia auch mit einer dual GF100 nicht die Leistungskrone zurückerobern können.
Und ohne GF100 würden wir in einem Jahr die exakt selbe Diskussion führen. Durch GF100 wird sich Tessellation auf dem PC deutlich schneller durchsetzen, weil die Implementierung dem Entwickler mehr Freiheiten ermöglicht. Cypress's Implementierung bewegt sich auf dem Niveau des DX9 vom NV35.
Tessellation startet gerade und ist noch lange nicht am Ziel. Es heißt abwarten.
Eine 5850 erreicht ohne Tessellation 35/40 FPS in Metro und erreicht mit nur 20/26. Wenn der Einbruch nur 10% beträge, wäre es weiterhin spielbar.
Man kann nicht ewig immer auf dem selben Niveau bleiben. SSAA in allen Ehren, aber wenn das der einzige Kaufgrund darstellt, dann läuft am PC einiges falsch. Abgesehen davon bietet nVidia mit dem neuen 32xCSAA + AAA eine deutlich billigere Möglichkeit um Alphatest zu glätten. Und wenn HQ-AF vorhanden ist, dann gibt es auch flimmerfreies AF. Ist ja nicht so, dass SSAA immer nur die einzige Möglichkeit darstellt.
So herrlich wie sich bei Anhängern einer Firma innerhalb kürzester Zeit immer wieder die Meinung um 180° drehen kann. Bei NV30 war SM2 zu Lebzeiten der Karte noch egal, jetzt ist alles auf Tesslation, das es praktisch keine Spiele gibt die das verwenden scheint egal.
ShadowXX
2010-03-18, 14:23:20
Das wird aber noch auf sich warten lassen.
Die meisten Engines sind für 3 Plattformen ausgelegt und da hat Tessalation z.Zt keinen wirklichen Platz und wird eben nur drangepatsch und als möglicher Eyecandy gehandelt.
In 2-3 Jahren sieht die Sache schon anders aus, dann sollte auch die Konsolengeneration Tessalation beherrschen, aber bis dahin...
Man stelle sich nur mal Steinwände mit Tessalation vor.
Der Grafikchip der XBox 360 hat einen Tesselator (zwar primitiver als das was die Tesselation von DX11 hergibt) und dieser wird in den Games auch durchaus genutzt).
Bei NV30 war SM2 zu Lebzeiten der Karte noch egal, jetzt ist alles auf Tesslation, das es praktisch keine Spiele gibt die das verwenden scheint egal.
Dafür das es erst Seit 5 Monaten DX11 Karten gibt, gibt es schon allerhand Game die Tesselation benutzen...mir fallen aus dem Stehgreif schonmal 3 Stück ein (Dirt2, Metro 2033 und das letzte Stalker).
Quasi jeder Dev der einen DX11 Pfad einbauen wird, wird Tesselation mitbenutzen.
Davon abgesehen: ich kann mich noch ganz gut daran erinnern wie Tesselation von den ATI-Fans hoch gejubelt wurde als alle noch dachten das die Tessalation eher ein Schwachpunkt des Fermi sein wird (Stichwort "Softwarelösung").
Sascha1971
2010-03-18, 14:25:06
Frage wie kommt NV mit dem Strom klar, wenn es noch eine 480er geben soll mit 3 Gig Speicher ? Kommen die da nicht über die 300W ?!
Mancko
2010-03-18, 14:26:17
Da hätte ich aber erwartet das du besser informiert bist...
Du beziehst dich bei der 5870 2GB auf die Eyefinity 6 Edition
Der Mehrverbrauch kommt hauptsächlich durch Eyefinity zustande. Normale 5870 werden mit aktiven 3 Displayoutputs vermessen (was einer mehr ist als bei allen aktuellen Nvidia Grakas) und dann die TDP ermittelt.
Bei der Eyefinity 6 werden dann schon 6 Displayoutputs angesteuert und das zieht durchaus merklich mehr Strom als wenn nur einer angesprochen wird.
Die Rechnung geht insofern nicht auf. 1GB GDDR5 verbraucht keine 40 Watt...
Die Leistungseffizienz ist momentan bei ATI klar besser wenn sich die Gerüchte bewahrheiten und damit wird Nvidia auch mit einer dual GF100 nicht die Leistungskrone zurückerobern können.
Manche scheinen echt Hellseher zu sein. Ob Nvidia die Leistungskrone unter den Singlekarten zurückerobern kann, werden die Reviews am 29.03.2010 zeigen. Für die SLI Version wird man noch ein wenig warten müssen.
Der Grafikchip der XBox 360 hat einen Tesselator (zwar primitiver als das was die Tesselation von DX11 hergibt) und dieser wird in den Games auch durchaus genutzt).
Es wird praktisch nirgends genutzt. Es gibt AFAIK ganze zwei Games.
Bei der Eyefinity 6 werden dann schon 6 Displayoutputs angesteuert und das zieht durchaus merklich mehr Strom als wenn nur einer angesprochen wird.
Sorry, aber das ist kompletter Käse. So ein Displaytreiber verbraucht nicht mehrere Watt.
Finde ich interessant, dass immer wieder einzelne Spiele herhalten müssen, um einen Verbrauch von 300 Watt oder eine neue Grafikkarte zu rechtfertigen. Wenn es danach ginge dann hätte alle directx 10 Karten Besitzer die letzten Jahre ausschließlich Crysis gespielt. Dasselbe gilt für Metro2033. Ich habe es selber nicht gespielt aber von einem Kollegen mitbekommen, dass es nicht das Wahre sein soll. Also was bringt mir dann eine Funktion wie Tesselation wenn sie nur in Spielen eingesetzt wird, die erstens langweilig und zweitens viel zu kurz sind? Und wenn der Unterschied dann auch noch so gering ist?
Es zählen doch eher Spiele, die viel gespielt werden, und das sind Online-Multiplayer-Spiele. Und da schalten die meisten sowieso den ganzen Performance-Schnickschnack aus, um mehr Frames zu bekommen. Ich spiele schon ewig am meisten Wolfenstein Enemy Territory und das packt meine HD4870 auch noch mit 225/230 2D Takt. Die meisten neuen Spiele sind doch eh langweilig, man spielt höchstens ein paar Stunden dran. Auch wenn die Spiele immer realistischer, diese ewigen Schlauchlevel-Rumballer-Shooter reizen mich persönlich schon lange nicht mehr. Dann lieber ein schönes anspruchsvolles Strategie-Spiel, wo man nicht soviele Frames braucht, oder ein schnelles Online-Spiel, wo man soviele Frames und so wenig Ablenkung wie möglich will und daher die Qualität runterdreht.
Darüber sollte der eine oder andere wohl mal ernsthaft nachdenken...
Sorry, aber das ist kompletter Käse. So ein Displaytreiber verbraucht nicht mehrere Watt.
8W laut Specs.
Welche Specs?
Das ist natürlich nicht das was er dauernd zieht, aber er muss es bereitstellen können und damit fließt es sicherlich auch in die TDP ein. 16V bei 500mA.
Überleg mal was du da redest. Wenn das so wäre würde eine HD 5450 allein 24W für die Displays verbraten. Ganz bestimmt nicht.
Das ist natürlich nicht das was er dauernd zieht, aber er muss es bereitstellen können und damit fließt es sicherlich auch in die TDP ein. 16V bei 500mA.
Wenn es so eine Versorgungsspannung bei HDMI oder DVI wirklich gibt, dann fließt die sicher nicht durch den Chip. Kann ich mir aber ehrlich gesagt nicht vorstellen, denn für eine 16V-Spannung bräuchte man eine Spannungsregelung von 12V auf 16V auf den Karten. Und das geht mit normalen Spannungsreglern gar nicht.
Überleg mal was du da redest. Wenn das so wäre würde eine HD 5450 allein 24W für die Displays verbraten. Ganz bestimmt nicht.
Seit wann hat eine 5450 drei DP-Anschlüsse?
Wenn es so eine Versorgungsspannung bei HDMI oder DVI wirklich gibt, dann fließt die sicher nicht durch den Chip.
Das hat ja auch niemand behauptet, aber es wird in die TDP der Karte fließen. Deshalb kann man die TDP der normalen 5870 kaum mit der Eyefinity Karte mit sechs DP-Anschlüsse vergleichen.
Die 5450 unterstützt laut AMD 3 Displays. Ist auch egal, such dir das kleinste Model aus mit 3 Anschlüssen und ich kann dir sagen, dass da ganz sicher nicht die TDP des Chips um 24W erhöht wird wegen den popligen TMDS-Treibern.
Das hat ja auch niemand behauptet, aber es wird in die TDP der Karte fließen. Deshalb kann man die TDP der normalen 5870 kaum mit der Eyefinity Karte mit sechs DP-Anschlüsse vergleichen.
Wie gesagt, ich bezweifel allein schon die Angabe. Woher sollen denn bitte die 16V kommen?
Page 137 of the DisplayPort V1.1 specification states: “The voltage
on the DP_PWR pin of the source connector must be in the range
of 3.0V to 16.0V and the DP_PWR pin of the sink connector must
be in the range of 3.15V to 3.45V. The minimum power available
at the DP_PWR pin must be 1.5W, regardless of the power supply
voltage. A device that consumes more than 1.5W of power must
have a means of getting power from an alternate power source.
The DP_PWR and RETURN pins of the box-to-box connectors
must support the maximum current rating of 500mA.”
1.5W pro Displayport. Das sind also 9W insgesammt für die 6 DP-Karte.
1.5W pro Displayport. Das sind also 9W insgesammt für die 6 DP-Karte.
äh hallo, für TDP rechnet man sicher nicht mit dem MINIMUM.
die 8w stimmen, und es geht hier um die board TDP und die ist dadurch klar höher. ob der chip da was mehr zu tun hat ist völlig egal. Wenn nur 3 Ausgänge angeschlossen sind, davon nur 1 DP, beeinflusst das die TDP sicher weniger.
äh hallo, für TDP rechnet man sicher nicht mit dem MINIMUM.
Aber ganz bestimmt nicht das FÜNFFACHE. Mach dich doch nicht lächerlich.
Mal ganz abgesehen davon, dass die 5870 Eyefinity 4 DP-Ports mehr hat als die normale 5870, d.h. maximal 6W mehr durch die Displays gezogen werden dürfen.
Und damit willst du dann einen TDP-Unterschied von 40W rechtfertigen. Is klar.
Schön, ist nur nicht die Spec der 5870 oder irre ich mich da jetzt? Das muss hinten mindestens herauskommen für DP spec. Kann aber auch sein das sich ATI nicht mit dem Mindeststandard zufrieden gibt sondern darüber hinaus geht und 16V mit 500mA ermöglicht oder irgendetwas dazwischen.
Somit bringt uns dieser Beitrag gar nicht weiter.
Viel interessanter würde ich jetzt mal die GDDR5 spec sehen. Angeblich verbraten 1GB GDDR5 ja 40 Watt...
Kann aber auch sein das sich ATI nicht mit dem Mindeststandard zufrieden gibt sondern darüber hinaus geht und 16V mit 500mA ermöglicht oder irgendetwas dazwischen.
Ja klar, weil möglicherweise ein Hersteller eines Displays auf der Welt sich nicht an die DisplayPort-Specs hält, geben sie für ihre Karten eine höhere TDP an und legen die Spannungsregelung für die Low-End-Parts auch entsprechend viel teurer aus.
Das klingt alles wirklich sehr plausibel.
Viel unwahrscheinlicher ist es natürlich, dass ein so hoch getakteter GDDR5-Speicher tatsächlich auch Strom verbrauchen könnte.
Die Versorgungsspannung der AMD-Karten bei DP liegt bei 5V, macht 2,5W pro DP-Anschluss.
Aber ganz bestimmt nicht das FÜNFFACHE. Mach dich doch nicht lächerlich.
Mal ganz abgesehen davon, dass die 5870 Eyefinity 4 DP-Ports mehr hat als die normale 5870, d.h. maximal 6W mehr durch die Displays gezogen werden dürfen.
Und damit willst du dann einen TDP-Unterschied von 40W rechtfertigen. Is klar.
40W Unterschied kann man aber auch kaum mit 1GB GDDR5 rechtfertigen.
Die Versorgungsspannung der AMD-Karten bei DP liegt bei 5V, macht 2,5W pro DP-Anschluss.
In der Spec steht Klipp und Klar: 1,5W unabhängig von der Versorgungsspannung. Wenn von einem Display mehr verbraucht wird muss es eine externe Stromversorgung haben.
Die 500mA sind nur ein weiteres Maximum um die Kabel zu spezifizieren.
40W Unterschied kann man aber auch kaum mit 1GB GDDR5 rechtfertigen.
34W abzüglich der Display-Anschlüsse. Und da wäre ich mir nicht mehr so sicher.
Mal ganz abgesehen davon, dass die Thermal Dispatch Power angibt was die Karte verheizt, und da ist bei dem was über die DisplayPorts rausfließt höchstens der Anteil der von der Spannungswandlung verbraten wird dabei. Wenn sie überhaupt was wandeln und nicht einfach die 5V vom Netzteil anlegen.
Wem interssieren schon "6 Stunden Wegwerfshooter", die selbst auf absoluten Highend-karten ohne AA nichtmal mit 60FPS laufen.
Wenn ein Spiel gut ist werden die Leute es noch spielen, wenn es Mainstream-hardware gibt die das Spiel mit in höchster Bildqualität flüssig wiedergeben kann.
Aber ganz bestimmt nicht das FÜNFFACHE. Mach dich doch nicht lächerlich.
Mal ganz abgesehen davon, dass die 5870 Eyefinity 4 DP-Ports mehr hat als die normale 5870, d.h. maximal 6W mehr durch die Displays gezogen werden dürfen.
Und damit willst du dann einen TDP-Unterschied von 40W rechtfertigen. Is klar.
also du machst dich hier lächerlich, nicht ich.
zuerst:
"Wenn es so eine Versorgungsspannung bei HDMI oder DVI wirklich gibt, dann fließt die sicher nicht durch den Chip."
wer sprach davon?
dann:
"Die 5450 unterstützt laut AMD 3 Displays. Ist auch egal, such dir das kleinste Model aus mit 3 Anschlüssen und ich kann dir sagen, dass da ganz sicher nicht die TDP des Chips um 24W erhöht wird wegen den popligen TMDS-Treibern."
erstens TDP des chips? hallo, wir sprechen von der Karte. und wer spricht vom TMDS Treiber?
dann:
"Aber ganz bestimmt nicht das FÜNFFACHE. Mach dich doch nicht lächerlich.
Mal ganz abgesehen davon, dass die 5870 Eyefinity 4 DP-Ports mehr hat als die normale 5870, d.h. maximal 6W mehr durch die Displays gezogen werden dürfen.
Und damit willst du dann einen TDP-Unterschied von 40W rechtfertigen. Is klar. "
dürften und machen sind zwei verschiedene dinge. als wären die Spawas nicht mit etwas reserve kalkuliert, als würde man auch hier nicht ein bisschen reserve einplanen. aber ne, ist klar, chef coda will das nicht, also ist es nicht so.
wenns statt 6w dann ca. 9w wären mit reserve sieht es schon wieder anders aus. dann noch n giga ram und die reserve die man da wieder in der stromversorgung einrechnet und sofort hast du die paar w mehr verbrauch.
Matrix316
2010-03-18, 15:03:38
Wem interssieren schon "6 Stunden Wegwerfshooter", die selbst auf absoluten Highend-karten ohne AA nichtmal mit 60FPS laufen.
Wenn ein Spiel gut ist werden die Leute es noch spielen, wenn es Mainstream-hardware gibt die das Spiel mit in höchster Bildqualität flüssig wiedergeben kann.
Wozu überhaupt ne GT400, nicht? ;)
LovesuckZ
2010-03-18, 15:05:11
Wichtiger wäre aber erstmal eine einheitliche Physikengine.
Es gibt auch keine "einheitliche Grafikengine", wieso sollte es eine "einheitliche Physikengine" geben? Und wer sollte diese Vereinheitlichung überhaupt durchführen?
DrFreaK666
2010-03-18, 15:06:42
Es gibt auch keine "einheitliche Grafikengine", wieso sollte es eine "einheitliche Physikengine" geben? Und wer sollte diese Vereinheitlichung überhaupt durchführen?
Stell dich doch nciht so an.
Du weisst genau, was er damit sagen wollte: GPU-Physics 4 everyone
LovesuckZ
2010-03-18, 15:10:03
Stell dich doch nciht so an.
Du weisst genau, was er damit sagen wollte: GPU-Physics 4 everyone
Ach, er meinte eine Schnittstelle zur Grafikkarte. Die gibt es doch in Form von DC und OpenCL.
Kann ja nVidia nichts dafür, dass sie schon seit 2007 diese Funktionalität ermöglichen.
DrFreaK666
2010-03-18, 15:12:47
Ach, er meinte eine Schnittstelle zur Grafikkarte. Die gibt es doch in Form von DC und OpenCL.
Kann ja nVidia nichts dafür, dass sie schon seit 2007 diese Funktionalität ermöglichen.
Er hat ja nicht behauptet, dass nv schuld ist.
also du machst dich hier lächerlich, nicht ich.
Doch Du machst dich lächerlich aber ganz mächtig. Die TDP wurde eingeführt um einen Maßstab dafür zu haben, wie groß der Kühlkörper dimensioniert sein muss. Wieviel Storm da aus den DP-Anschlüssen herausfließt hat mit der Abwärme der Karte rein gar nichts zu tun.
Mal ganz davon abgesehen, dass Coda mit den 1,5W ebenfalls recht hat und es keinen Sinn macht da als Hersteller eine größere Versorgung als vieleicht 1,55W bereit zu stellen.
Wozu überhaupt ne GT400, nicht? ;)
Ich bin nicht der Gast von oben. Mein Kommentar bezog sich auf.
Hatte vergessen es zu zitieren, hier wird ja soschnell gepostet wie im Chat.
...
Dafür das es erst Seit 5 Monaten DX11 Karten gibt, gibt es schon allerhand Game die Tesselation benutzen...mir fallen aus dem Stehgreif schonmal 3 Stück ein (Dirt2, Metro 2033 und das letzte Stalker).
Quasi jeder Dev der einen DX11 Pfad einbauen wird, wird Tesselation mitbenutzen.
Hatte vergessen es zu zitieren, hier wird ja soschnell gepostet wie im Chat.
Ich seh nicht den Sinn, sich immer die schnellste Hardware zu kaufen und dann die neusten Shooter mit 30FPS ohne AA zu Spielen und dann zu prahlen wie toll doch die Grafik sei.
Na ich war auch mal jung.
Wer 500€ ausgeben will nur um damit ein Spiel wie Metro2033 (10h Single-Player und KEIN Multiplayer) in bester Auflösung spielen zu können, der muss auch ganz schön naiv sein :D
Wer 500€ ausgeben will nur um damit ein Spiel wie Metro2033 (10h Single-Player und KEIN Multiplayer) in bester Auflösung spielen zu können
:upicard:
DrFreaK666
2010-03-18, 15:23:52
Wer 500€ ausgeben will nur um damit ein Spiel wie Metro2033 (10h Single-Player und KEIN Multiplayer) in bester Auflösung spielen zu können, der muss auch ganz schön naiv sein :D
Andere Spiele kann man dann sicherlich auch in very High mit AA/AF zocken.
Glaubst Fermi wird nur auf Metro optimiert..?? :freak:
Doch Du machst dich lächerlich aber ganz mächtig. Die TDP wurde eingeführt um einen Maßstab dafür zu haben, wie groß der Kühlkörper dimensioniert sein muss. Wieviel Storm da aus den DP-Anschlüssen herausfließt hat mit der Abwärme der Karte rein gar nichts zu tun.
Mal ganz davon abgesehen, dass Coda mit den 1,5W ebenfalls recht hat und es keinen Sinn macht da als Hersteller eine größere Versorgung als vieleicht 1,55W bereit zu stellen.
Wenigstens einer ist vernünftig.
Hakkerstiwwel
2010-03-18, 16:14:20
Der Grafikchip der XBox 360 hat einen Tesselator (zwar primitiver als das was die Tesselation von DX11 hergibt) und dieser wird in den Games auch durchaus genutzt).
Dafür das es erst Seit 5 Monaten DX11 Karten gibt, gibt es schon allerhand Game die Tesselation benutzen...mir fallen aus dem Stehgreif schonmal 3 Stück ein (Dirt2, Metro 2033 und das letzte Stalker).
Quasi jeder Dev der einen DX11 Pfad einbauen wird, wird Tesselation mitbenutzen.
Davon abgesehen: ich kann mich noch ganz gut daran erinnern wie Tesselation von den ATI-Fans hoch gejubelt wurde als alle noch dachten das die Tessalation eher ein Schwachpunkt des Fermi sein wird (Stichwort "Softwarelösung").
Worauf beruft sich eigentlich die als gesichert geltende Annahme dass Fermi Cypress in Tesselation gnadenlos demontiert? Bislang gibt es lediglich eine Benchmarkszene, von welcher niemand weiß wie genau sie entstanden ist, welche in diese Richtung schliessen lässt. Genau dieser Benchmark wird mit einem neuen Treiberrelease von AMD (vielleicht,oder auch nicht) mit Mehrperformance bedacht. Sicher dass nach den ersten unabhängigen Reviews die Stimmung nicht wieder kippt, oder beide Seiten die Bedeutung von Tesselation relativieren werden?:crazy:
MiamiNice
2010-03-18, 16:21:03
Wer 500€ ausgeben will nur um damit ein Spiel wie Metro2033 (10h Single-Player und KEIN Multiplayer) in bester Auflösung spielen zu können, der muss auch ganz schön naiv sein :D
Du glaubst nicht ernsthaft daran dass sich jemand eine 500€ Grafikkarte für ein Spiel kauft oder? Und selbst wen dem so wäre, ist es immernoch ein Hobby und Hobbys kosten Geld. Wen man mal paar Hobbys vergleicht, ist eine Graka für 500€ eine absolut lächerliche Investition. Das ist alles andere als naiv.
NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed
GeForce GTX 480 : 512 SP, 384-bit, 295W TDP, US$499
GeForce GTX 470 : 448 SP, 320-bit, 225W TDP, US$349
Internal benchmarks reveal that GeForce GTX 470 is some 5-10% faster than Radeon HD 5850 and similiar for GeForce GTX 480 over the Radeon HD 5870. Interestingly, the TDP of GeForce GTX 480 is almost similar to Radeon HD 5970 which is a dual GPU card. Interestingly, our sources revealed that there are indeed plans for dual Fermi cards and the TDP of the card is probably gonna be mind blowing.
http://vr-zone.com/articles/nvidia-geforce-gtx-480-final-specs--pricing-revealed/8635.html
derguru
2010-03-18, 16:28:55
hui eine 480 ist schneller als eine 5870,wäre hätte das gedacht.viel schneller als die 470 wird die 480 auch nicht sein es sei denn die ist ein gutes stück höher getaktet.
Du glaubst nicht ernsthaft daran dass sich jemand eine 500€ Grafikkarte für ein Spiel kauft oder? Und selbst wen dem so wäre, ist es immernoch ein Hobby und Hobbys kosten Geld. Wen man mal paar Hobbys vergleicht, ist eine Graka für 500€ eine absolut lächerliche Investition. Das ist alles andere als naiv.
Wieviele Leute haben sich für Crysis eine neue Karte gekauft? Ich glaube genug. Und so oft wie Metro2033 mit dessen Tesselation erwähnt wird, wird der eine oder andere sich vieleicht verführt sehen, genau das gleiche bei dem Spiel zu tun. Und ob 500€ für eine Grafikkarte zuviel sind, das muss jeder für sich entscheiden. Es ist auch mein Hobby und trotzdem liegt bei mir die Obergrenze bei 200€.
Schlammsau
2010-03-18, 16:35:37
NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed
http://vr-zone.com/articles/nvidia-geforce-gtx-480-final-specs--pricing-revealed/8635.html
Autsch! :down: xD
349 usd sind 255 euro. wieviel wird man dann wohl ca. in deutschland für ne gtx470 zahlen müssen?
MiamiNice
2010-03-18, 16:37:24
Wieviele Leute haben sich für Crysis eine neue Karte gekauft? Ich glaube genug. Und so oft wie Metro2033 mit dessen Tesselation erwähnt wird, wird der eine oder andere sich vieleicht verführt sehen, genau das gleiche bei dem Spiel zu tun. Und ob 500€ für eine Grafikkarte zuviel sind, das muss jeder für sich entscheiden. Es ist auch mein Hobby und trotzdem liegt bei mir die Obergrenze bei 200€.
Ich will nur sagen das allen ein Hobby unterschiedlich viel wert ist. Dir sind 200€ genug andere würden auch 1000€ für ihren Spass ausgeben. Das ist sowas von relativ da kann man einfach nicht von naiv reden.
GeForce GTX 480 : 512 SP, 384-bit, 295W TDP, US$499
GeForce GTX 470 : 448 SP, 320-bit, 225W TDP, US$349
Und schau mal wird doch anscheind recht günstig der Fermi. Da schlägt das Aufrüstherz direkt höher :)
Schlammsau
2010-03-18, 16:37:43
349 usd sind 255 euro. wieviel wird man dann wohl ca. in deutschland für ne gtx470 zahlen müssen?
280-350€!
Ne 5850 hat ne UVP von 299$ un bekommen tust du die momentan erst ab 270€ aufwärts.
derguru
2010-03-18, 16:39:20
mindestens 350 euro,alleine wegen der launchsteuer vom händler.:tongue:
N0Thing
2010-03-18, 16:39:52
NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed
http://vr-zone.com/articles/nvidia-geforce-gtx-480-final-specs--pricing-revealed/8635.html
Mal abgesehen davon, daß zu den "FInal Specs" für mich auch die Taktraten gehören, scheinen die Quellen die gleichen zu sein, die S|A mit Informationen versorgen. :rolleyes:
Schlammsau
2010-03-18, 16:41:13
Und schau mal wird doch anscheind recht günstig der Fermi. Da schlägt das Aufrüstherz direkt höher :)
Interessiert dich wohl gar nicht: ;D
Internal benchmarks reveal that GeForce GTX 470 is some 5-10% faster than Radeon HD 5850 and similiar for GeForce GTX 480 over the Radeon HD 5870. Interestingly, the TDP of GeForce GTX 480 is almost similar to Radeon HD 5970 which is a dual GPU card. Interestingly, our sources revealed that there are indeed plans for dual Fermi cards and the TDP of the card is probably gonna be mind blowing.
5-10%....ohne Worte!
MiamiNice
2010-03-18, 16:44:13
Internal benchmarks reveal that GeForce GTX 470 is some 5-10% faster than Radeon HD 5850 and similiar for GeForce GTX 480 over the Radeon HD 5870. Interestingly, the TDP of GeForce GTX 480 is almost similar to Radeon HD 5970 which is a dual GPU card. Interestingly, our sources revealed that there are indeed plans for dual Fermi cards and the TDP of the card is probably gonna be mind blowing.
Das glaube ich erst wen ich es sehe. Schreiben kann man viel. Sollte sich das bewahrheiten, kann man immernoch eine ATI kaufen. Besser direkt 2.
€: Mal ganz im Ernst. Wen dem so wäre glaube ich nicht das NV die Karten auf dem Markt bringen würde. Das wäre so ein herbe Imageverlust, das ich es eigendlich als totalen Schwachsinn abtun würde was da steht. 5-10% mehr Power bei fast 100% mehr Stromverbrauch never.
mindestens 350 euro,alleine wegen der launchsteuer vom händler.:tongue:
:P
dann werd ich wohl auf die gf104 warten :(
LovesuckZ
2010-03-18, 16:46:18
Leute - nur noch 8 Tage und ein paar Stunden. Dann gibt es die einzigen, gesicherten Informationen.
5-10%....ohne Worte!
Wertlose Werte, ohne Worte.
Ich mach auch mal eine Seite auf und schreibe 100% rein, gilt das dann auch als Wahrheit?
Das glaube ich erst wen ich es sehe. Schreiben kann man viel. Sollte sich das bewahrheiten, kann man immernoch eine ATI kaufen. Besser direkt 2.
Sei Vorsichtig, bei AMD gibts auch für viel Geld nur Beschnittende Versionen.
Fängt z.b. bei der Hardware mit dem kleinen VRAM an, trotz 600€.
Schlammsau
2010-03-18, 16:49:08
Leute - nur noch 8 Tage und ein paar Stunden. Dann gibt es die einzigen, gesicherten Informationen.
Schon wieder eine unglaubwürdige Quelle, weil sie nichts positives über Fermi zu berichten hat wa!? ;D
Aber auch egal, auch wenn die 480 langsamer als eine 5870 werden sollte, findet LZ schon irgendwas positives.
Ich lass mich überraschen. :popcorn:
Eine Nachricht die nur das gleiche Zeug propagiert, was die ganze Zeit rumschwirrt. Ailuros meinte aber das TDP Zeug ist wohl eher falsch, wieso soll der Rest dann stimmen? Es ist immo noch immer sehr viel offen.
Sascha1971
2010-03-18, 16:56:14
Weiss jemadn wann die 5970er mit 4 gig kommen sollen ? Und welche Preise die ungefähr haben ?
So langsam beschleicht mich das Gefühl, das ich damit besser fahre als mit einer 480e,r die wegen der Knappheit eh beim Händler min 550 - 590 Euro kosten wird.
dildo4u
2010-03-18, 16:59:22
Weiss jemadn wann die 5970er mit 4 gig kommen sollen ? Und welche Preise die ungefähr haben ?
So langsam beschleicht mich das Gefühl, das ich damit besser fahre als mit einer 480e,r die wegen der Knappheit eh beim Händler min 550 - 590 Euro kosten wird.
Mit der 5970 fährst du nie besser aktuell wenn man z.b BFBC2 zocken will funzt nur 1 GPU da das Profiel im Treiber fehlt.Solche "Späße" gibt's öfter bei ATI wird meistens 2-3 Monate später gefixt.
Mr. Lolman
2010-03-18, 17:01:34
Mit der 5970 fährst du nie besser aktuell wenn man z.b BFBC2 zocken will funzt nur 1 GPU da das Profiel im Treiber fehlt.Solche "Späße" gibt's öfter bei ATI wird meistens 2-3 Monate später gefixt.
Geh, die werden nun ja eh offen gelegt, bzw kann man die CF-Profile auch außerhalb von den monatlichen Treiberupdates aktualisieren...
Weiss jemadn wann die 5970er mit 4 gig kommen sollen ? Und welche Preise die ungefähr haben ?
Wohl in den kommenden Monaten für $1000.
Schon wieder eine unglaubwürdige Quelle, weil sie nichts positives über Fermi zu berichten hat wa!? ;D
Aber auch egal, auch wenn die 480 langsamer als eine 5870 werden sollte, findet LZ schon irgendwas positives.
Ich lass mich überraschen. :popcorn:
Nein, das ist keine Quelle, sondern eine abgeschriebene News.
Nicht jede News ist automatisch richtig, lerne das mal. Gerade weil sich in letzter Zeit der Bullshit Berg in Punktu GF100 Daten zum Himmel neigt bedenke dies.
Ansonsten gilt:
Der TDP liegt eben nicht auf 295W sondern in kleinerer Naehe zu den 228W einer Eyefinity6 5870 als sich manche vorstellen.
DrFreaK666
2010-03-18, 17:02:07
Multi-GPU mit Radeons ist keine gute Idee
Multi-GPU mit Radeons ist keine gute Idee
Das ist nunmal AMDs Vorstellung von High-End.
Wenn man über Nvidias High-End Vorstellung, der GTX 480 diskutieren darf, dann auch über AMDs reine MGPU "FPS Huren in ausgewählten Titeln".
grafzahl
2010-03-18, 17:05:17
Mit der 5970 fährst du nie besser aktuell wenn man z.b BFBC2 zocken will funzt nur 1 GPU da das Profiel im Treiber fehlt.Solche "Späße" gibt's öfter bei ATI wird meistens 2-3 Monate später gefixt.
Auch das hat ATI nun in den Griff bekommen mit einer neuen Update Variante der CF Profile.
Die DualGPU ist immer noch viel Leistung für relativ wenig Geld und die Nachteile versteht das Fußfolk ja eh nicht :D
DrFreaK666
2010-03-18, 17:05:58
Das ist nunmal AMDs Vorstellung von High-End.
Wenn man über Nvidias High-End Vorstellung, der GTX 480 diskutieren darf, dann auch über AMDs reine MGPU "FPS Huren in ausgewählten Titeln".
Natürlich darf man das. Aber dann im richtigen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=470376 :wink:
Bist nicht unbedingt auf dem neusten Stand oder?
Auch das hat ATI nun in den Griff bekommen mit einer neuen Update Variante der CF Profile also wird auch dieses Fanboy Kriterium bald nicht mehr ziehen.
Mikroruckler hat man trotzdem noch
LovesuckZ
2010-03-18, 17:06:29
Wo wir bei mGPU mit Profilen sind: Hoffentlich bringt nVidia Optimus' Profilverwaltung auch für SLI auf den Desktop. Das ist der einzige richtige Weg: Automatisches Update der Profildatenbank im Hintergrund.
Siehe auch hier: (http://blogs.nvidia.com/ntersect/2010/03/new-optimus-profiles-silence-is-golden.html)
Your notebook is more up to date today than it was a few days ago. How so? Well, a few days ago we sent out the first profile updates for Optimus with over 30 new Optimus profiles, including some for upcoming games that haven’t even been released, like StarCraft II and Battlefield: Bad Company 2.
Blaire
2010-03-18, 17:06:50
Geh, die werden nun ja eh offen gelegt, bzw kann man die CF-Profile auch außerhalb von den monatlichen Treiberupdates aktualisieren...
Offengelegt wurde bislang nichts, lediglich die Profile vom Treiber getrennt.
dildo4u
2010-03-18, 17:06:57
Geh, die werden nun ja eh offen gelegt, bzw kann man die CF-Profile auch außerhalb von den monatlichen Treiberupdates aktualisieren...
Ja das sollte mit dem 10.2 schon passiert sein BFBC2 ist seit 2 Wochen auf dem Markt un es gibt immer noch kein Profiel,obwhol ATI das Game schon seit dem Betastart vor 7 Wochen testen konnte.
tombman
2010-03-18, 17:08:02
NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed
http://vr-zone.com/articles/nvidia-geforce-gtx-480-final-specs--pricing-revealed/8635.html
Lol, was'n fail...
1/2 Jahr zu spät und ne TDP zum Fürchten. Und alles für 5%-10% + Phys-X +geiler Tess. Power :ugly:
Außerdem heißen 499$ hierzulande: 599€ lagernd für max. ein paar Stunden (dann sinds weg) :uhammer:
Naja, aber ich bin eh raus :(
y33H@
2010-03-18, 17:19:48
Was ist los tombman - wo ist die Gier der alten Tage? :usad:
Was ist los tombman - wo ist die Gier der alten Tage? :usad:
Ach, die attention whore regt sich wieder künstlich über ungesicherte Gerüchte auf. Nachdem sich das mit den 480SPs nicht bewahrheitet hat mosert er halt über was anderes. Fast wie schlechte Politiker wie z.b. Strache, hauptsache in den Nachrichten, wenn auch mit hirnrissigem Blödsinn.
dildo4u
2010-03-18, 17:24:37
Was ist los tombman - wo ist die Gier der alten Tage? :usad:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=479038
y33H@
2010-03-18, 17:26:03
@ dildo4u
Ist mir bekannt, danke. Trotzdem vermisse ich den "alten" tombman - der war bisher auch auf +10% geil.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=479038
ich bin kein fan von tombman, aber das hier in diesen thread zu verlinken ist sowas von low. da fällt mir echt nix mehr ein
@ dildo4u
Ist mir bekannt, danke. Trotzdem vermisse ich den "alten" tombman - der war bisher auch auf +10% geil.
Mit zunehmenden Alter wird man vernünftiger/ruhiger. Warum soll man sich, selbst als Enthusiast, wenn sich die Gerüchte bewahrheiten sollten, diesen knappen und damit überteuerten TDP-Heizkessel holen, der für Gamer kaum wirkliche Vorteile bietet. Da behält man besser sein GTX 280 SLi-Setup und wartet, bis dieser Bratpfannen-Die durch ein Shrinking auf auf alltagstaugliche Werte kommt. Und die aktuellen Games mit ihren aufgesetzten leistungsfressenden Zusatzfeatures reißen einem auch kaum vom Hocker. Wer lange dabei ist, langweilt sich damit zu Tode. Geht jedenfalls mir so. Bis Ende 2006 war's gefühlt irgendwie spannender und man war wirklich heiß auf neue Grafikkarten.
Duplex
2010-03-18, 17:43:29
Mit zunehmenden Alter wird man vernünftiger/ruhiger. Warum soll man sich, selbst als Enthusiast, wenn sich die Gerüchte bewahrheiten sollten, diesen knappen und damit überteuerten TDP-Heizkessel holen, der für Gamer kaum wirkliche Vorteile bietet. Da behält man besser sein GTX 280 SLi-Setup und wartet, bis dieser Bratpfannen-Die durch ein Shrinking auf auf alltagstaugliche Werte kommt. Und die aktuellen Games mit ihren aufgesetzten leistungsfressenden Zusatzfeatures reißen einem auch kaum vom Hocker. Wer lange dabei ist, langweilt sich damit zu Tode. Geht jedenfalls mir so. Bis Ende 2006 war's gefühlt irgendwie spannender und man war wirklich heiß auf neue Grafikkarten.
oder man kauft sich 2x 5870 Karten und wartet bis 2011.
oder man kauft sich 2x 5870 Karten und wartet bis 2011.
Warum sollte man von 2 GTX 280 auf 2 5870 umsteigen?
Der Umstieg auf 2 GTX 480 ist da 100mal sinnvoller.
Duplex
2010-03-18, 17:54:51
Warum sollte man von 2 GTX 280 auf 2 5870 umsteigen?
Der Umstieg auf 2 GTX 480 ist da 100mal sinnvoller.
Du kennst nichtmal die Leistung einer GTX480 und behauptest das das 100mal Sinnvoller wäre (was wenn die 480 nur 10% schneller als 5870 ist ;))
Eine 5870 ist 35% schneller als eine GTX280 http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating
oder man kauft sich 2x 5870 Karten und wartet bis 2011.
Ne, Multi-GPU ist eh schon nicht die Offenbarung, aber Crossfire ist wirklich "fühlbar" bedeutend schlechter als SLi, ohne wenn und aber. Als Single-GPU ist die 5870 natürlich super. Aber für SLi-User, die mit den kleinen mit Multi-GPU einhergehenden Nachteilen leben können, ist Single-GPU keine Option.
früher oder später wird tombman schwach werden,
Schuster bleib bei deinen Leisten!
tombman ist bestimmt auf ne xbox oder ps3 umgestiegen!!!11
Benedikt
2010-03-18, 18:02:13
Und schau mal wird doch anscheind recht günstig der Fermi. Da schlägt das Aufrüstherz direkt höher
Dazu kommen dann noch die Stromkosten bei 300W TDP. :wink:
Schon wieder eine unglaubwürdige Quelle, weil sie nichts positives über Fermi zu berichten hat wa!?
Aber auch egal, auch wenn die 480 langsamer als eine 5870 werden sollte, findet LZ schon irgendwas positives.
Wen jucken 300W, wenn das Ding dafür tesseliert wie Sau? Sprecht mir nach: TESSELATION! TESSELATION! TESSELATION! X-D
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=479038
Menschenskind, und da habe ich jetzt draufgeklickt. Danke, dildo4u, für die Vorwarnung übrigens - kann man echt gut brauchen, so etwas zu lesen - vor allem mit selber einem Bandscheibenvorfall, der nicht besser werden will.
tombman, auch wenns dir wahrscheinlich nichts gibt (ist trotzdem ehrlich gemeint): GUTE BESSERUNG!
tombman ist bestimmt auf ne xbox oder ps3 umgestiegen!!!11
braucht er nicht, er besitzt doch bereits alles wenn ich mich nicht irre ;)
hoffentlich wird mein Sohn nicht so wie tombman,
das kann ich mir echt nicht leisten
LovesuckZ
2010-03-18, 18:07:32
Waren das noch Zeiten, wo Tessellation und DX11 als Offenbarung aufgenommen wurden. Sie kommen einen noch so vor als sie erst vor ein paar Tagen noch da waren ;(
Du kennst nichtmal die Leistung einer GTX480 und behauptest das das 100mal Sinnvoller wäre (was wenn die 480 nur 10% schneller als 5870 ist ;))
Eine 5870 ist 35% schneller als eine GTX280 http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating
Selbst bei nur 10% ist die GTX 480 sinnvoller. Selbst wenn wir nur stur auf die 10% blicken.
Waren das noch Zeiten, wo Tessellation und DX11 als Offenbarung aufgenommen wurden. Sie kommen einen noch so vor als sie erst vor ein paar Tagen noch da waren ;(
Tesslation wurde von dir jahrelang bekämpft, aber was interessiert schon der Mist von gestern nicht wahr? :ulol:
Dazu kommen dann noch die Stromkosten bei 300W TDP. :wink:
Der Wert ist immer noch falsch.
Aber um mit dir entgegen zu kommen:
Eine 5970 wird immer noch mehr verbrauchen, die TDP wird immer noch nichts über den Verbrauch aussagen.
PS: Eine 4870 ist noch sparsamer. Geil, oder?
y33H@
2010-03-18, 18:17:22
Eine 5870 ist 35% schneller als eine GTX280Nur mit DX11-SpeedUp, ohne ists deutlich weniger overall.
urfaust
2010-03-18, 18:19:09
da hat wohl wieder jemand Langeweile gehabt?
http://www.hardwareluxx.de/images/stories//galleries/news/astegmueller/2010/donaimhaber-gtx480-folien-01/01.jpg
http://www.hardwareluxx.de/images/stories//galleries/news/astegmueller/2010/donaimhaber-gtx480-folien-01/02.jpg
http://www.hardwareluxx.de/images/stories//galleries/news/astegmueller/2010/donaimhaber-gtx480-folien-01/04.jpg
Auch wenn die Gerüchteküche in den letzten Tagen fast täglich neue Erkenntnisse hervorgebracht haben will, hat NVIDIA bislang ganze Arbeit geleistet und die Eckdaten seiner kommenden Grafikkarten zu großen Teilen unter Verschluss halten können. Nun will donanimhaber.com einige Folien aus der offiziellen Präsentation in die Finger bekommen haben. Zwar hat man die Folien inzwischen schon wieder offline genommen, doch konnten wir die drei Seiten bei den Kollegen von hexus.com auftreiben. Bahnbrechende Neuheiten gibt es aber nicht zu vermelden. So wird die NVIDIA GeForce GTX 480 lediglich als schnellste GPU der Welt bezeichnet, die mit insgesamt 1536 MB GDDR5-Videospeicher aufwarten kann und über einen 6- und 8-Pin-PCI-Express-Stromstecker mit Strom versorgt wird. Die Thermal Design Power (TDP) soll den Angaben zufolge unter 300 Watt liegen – aktuell schwirren 298 Watt TDP durch das Netz. Um der doch recht hohen Abwärme des Chips Herr zu werden, verbaute die kalifornische Grafikschmiede auf dem 267 mm großen PCB einen Referenzkühler mit insgesamt vier Heatpipes. Auf dem Dual-Slot-I/O-Shield stehen zwei DVI-Schnittstellen und ein mini-HDMI-Port bereit. Weiterhin unterstützt die Karte 3-way-SLI.
Zudem zweifelte man in den letzten Tagen daran, dass die NVIDIA GeForce GTX 480 tatsächlich vollbestückt auf den Markt kommen wird. Statt den 512 CUDA-Cores stehen nur noch 480 Einheiten im Raum. NVIDIA-Boardpartner Galaxy spricht auf seiner Homepage allerdings von insgesamt 512 Shadereinheiten. Auf den drei Präsentationsfolien findet man hierzu jedoch nichts. In der kommenden Woche soll das Geheimnis um den GF100 endgültig gelüftet werden, denn dann sollen die heiß erwarteten Grafikkarten offiziell vorgestellt werden. Bis dahin muss man wohl noch mit solchen Gerüchten vorlieb nehmen. (...)
Nur mit DX11-SpeedUp, ohne ists deutlich weniger overall.
Gegen die GTX280 sind es locker 35%, ich würde sogar eher sagen 50%, wenn ein GPU-Limit vorliegt. Bei neueren Spielen wie Metro deutlich mehr. GTX280 ~GTX275.
mapel110
2010-03-18, 18:37:46
GF100 wird ja eine ähnliche Performance-Charakteristik haben wie RV870. Alte Spiele shice, weil wenig Texturfüllratensteigerung und neue Spiele Top, weil hohe Shaderpower.
y33H@
2010-03-18, 18:51:52
Gegen die GTX280 sind es locker 35%, ich würde sogar eher sagen 50%, wenn ein GPU-Limit vorliegt. Bei neueren Spielen wie Metro deutlich mehr.In einigen aktuellen Titeln wie Metro, Crysis oder Risen oder CoP (ohne DX11), ja. Dem gegenüber stehen Spiele wie CoD MW2, GTA 4 oder Borderlands - letzteres läuft auf den HD5k extrem schlecht. So oder so - die HD 5870 wird im Vergleich [zur GTX 285] immer schneller, je fordernder der Titel (Metro!) desto weiter setzt sie sich ab. Zusammen mit dem 10.3a hat Fermi hier schön was zu knabbern. Dank MK-13 und VRM-R4 ist sind 1,0 GHz Core und flüsterleise kein Problem, Fermi dagegen wird wohl laut und hitzig. Sieht man von PhysX/CUDA ab, hat AMD sehr gute Karten in der Hand. Ich bin echt gespannt wie es am Ende denn aussieht - bei unter 20% Differenz ist eine HD5870 mit OC und geiler Kühlung imo die bessere Wahl.
PulsarS
2010-03-18, 18:55:50
Waren das noch Zeiten, wo Tessellation und DX11 als Offenbarung aufgenommen wurden. Sie kommen einen noch so vor als sie erst vor ein paar Tagen noch da waren ;(
Das Problem ist ja nicht die Technologie an sich, sondern die Umsetzung.
Und wenn ich ehrlich sein soll, dann ist die Umsetzung in den bisherigen Spielen sehr mangelhaft.
Vom technischen Standpunkt gesehen, finde ich die Umsetung in Dirt 2 noch am Besten.
Den Entwicklern von Metro und AvP würde ich empfehlen, dass man sich entweder mit dem Contentproblem auseinandersetzt oder eine bessere Zusammenarbeit zwischen den Programmieren und den Contendesignern stattfindet.
Da muss etwas in dem Bereich schiefgegangen sein.
Vielleicht wäre auch eine Verbesserung der Kenntnisse in 3D-Modelling sinnvoll.
Ein Grundkurs in Morpfing-Technologien kann beim Einsatz von Tesselation auch von Vorteil sein...
Also zur Zeit sieht es in Sachen Tesselation eher düster aus.
Das ist aber (auch wenn man es richtig gut machen würde) hauptsächlich ein Texturenproblem, das man nicht einfach so aus der Welt schaffen kann.
mapel110
2010-03-18, 18:55:55
Das bessere Transparanz-AA reizt mich persönlich eher als der Unterschied zwischen SGSSAA und RGSSAA(Hybridmodi). Aber wenn die Hybriden bei GF100 wegfallen, geht wohl überhaupt kein Weg mehr an den Radeons vorbei.
LovesuckZ
2010-03-18, 18:58:48
. Zusammen mit dem 10.3a hat Fermi hier schön was zu knabbern.
GF100 wird knapp die doppelte MADD-rechenleistung des GTX285 haben. Wieso sollte GF100 an einer 5870 zu knabbern haben, wenn diese ihre 2,8x hohe Rechenleistung gegenüber GTX285 nichtmal zu mehr als 1,7x ausspielen kann? 70% sind nichtmal die Häfte des theoretischen Vorteils. Und wir reden hier von der Gesamtrechenleistung mit der MUL. Ohne sind es sogar 3,8x mehr Rechenleistung. Eine GTX470 mit 448SP@1300Mhz wäre auf dem Niveau der 5870, wenn sie den MADD-Vorsprung 1:1 ins Ziel bringt in Metro2033.
Mr. Lolman
2010-03-18, 18:59:52
Das bessere Transparanz-AA reizt mich persönlich eher als der Unterschied zwischen SGSSAA und RGSSAA(Hybridmodi).
Naja. Solang ausreichend Leistung da ist ists natürlich egal. Andernfalls sollte man schon wissen, dass 4xSGSSAA qualitativ gleichwertig mit 8xS(old)+TSSSAA ist.
y33H@
2010-03-18, 19:00:19
Eine GTX470 mit 448SP@1300Mhz wäre auf dem Niveau der 5870, wenn sie den MADD-Vorsprung 1:1 ins Ziel bringt in Metro2033. Das teste ich =)
EDIT
Doppelte MADDs hast du etwa bei 448 @ 1,55 oder 480 @ 1,45 oder 512 @ 1,40. Sollte Fermi die Power auf die Beine kriegen plus vll etwas mehr Effizienz, sollte die GTX470 mit den von dir genannten 448 @ 1,3 die HD5870 tatsächlich knacken.
Das Problem ist ja nicht die Technologie an sich, sondern die Umsetzung.
Oh mann, du bist echt gegen alles, außer manches.
Aus deiner Sicht ist D3D11 genauso Müll.
Dural
2010-03-18, 19:02:28
bei unter 20% Differenz ist eine HD5870 mit OC und geiler Kühlung imo die bessere Wahl.
Bei Fermi kann man wohl den Kühler nicht wechseln und OC? :rolleyes:
GF100 wird knapp die doppelte MADD-rechenleistung des GTX285 haben. Wieso sollte GF100 an einer 5870 zu knabbern haben, wenn diese ihre 2,8x hohe Rechenleistung gegenüber GTX285 nichtmal zu mehr als 1,7x ausspielen kann? 70% sind nichtmal die Häfte des theoretischen Vorteils. Und wir reden hier von der Gesamtrechenleistung mit der MUL. Ohne sind es sogar 3,8x mehr Rechenleistung. Eine GTX470 mit 448SP@1300Mhz wäre auf dem Niveau der 5870, wenn sie den MADD-Vorsprung 1:1 ins Ziel bringt in Metro2033.
Doppelte MADD-Rechenleistung bei geringerer Texelfüllrate. Die Chance dass das zu 100% durchschlagt dürfte überschaubar sein.
Naja. Solang ausreichend Leistung da ist ists natürlich egal. Andernfalls sollte man schon wissen, dass 4xSGSSAA qualitativ gleichwertig mit 8xS(old)+TSSSAA ist.
Andererseits kommt dann wieder das vor einiger Zeit überlebensnotwendige 8xMSAA ins Spiel.
Damals zu HD4 Zeiten noch ohne AAA, gibts jetzt eine entsprechend gute Transparenzglättung bei bereits 8xCSAA.
Außerdem weisst du, das die Kosten für 16xS im Vergleich zu 8xSQ gering sind.
Blaire
2010-03-18, 19:07:00
Andernfalls sollte man schon wissen, dass 4xSGSSAA qualitativ gleichwertig mit 8xS(old)+TSSSAA ist.
8xSQ ohne TRSSAA würde ich sagen kommt eher hin. Der Rest macht das LOD ich mag ein schärferes Bild und keinen Matsch.
y33H@
2010-03-18, 19:09:24
Bei Fermi kann man wohl den Kühler nicht wechseln und OC?Es gibt keinen Kühler, der das aktuell kann. SpaWas und TDP sage ich nur. Hier verbucht die HD5870 ein fettes Plus.
LovesuckZ
2010-03-18, 19:10:40
Das teste ich =)
EDIT
Doppelte MADDs hast du etwa bei 448 @ 1,55 oder 480 @ 1,45 oder 512 @ 1,40. Sollte Fermi die Power auf die Beine kriegen plus vll etwas mehr Effizienz, sollte die GTX470 mit den von dir genannten 448 @ 1,3 die HD5870 tatsächlich knacken.
Nimmt man eure Messwerte ist eine GTX285 mit 50% mehr Rechenleistung auch nur ein bisschen schnell als diese 50% gegenüber der GTS250. Die besser nutzbare MUL des GT200 spielt also in Metro2033 keine bedeutende Rolle. Und wenn GF100 eine bessere Effizienz bei der Nutzung der vorhandenen Rechenleistung aufweist, dann sehe ich die 5870 nicht als übermäßig schnell an.
GF100 wird ja eine ähnliche Performance-Charakteristik haben wie RV870. Alte Spiele shice, weil wenig Texturfüllratensteigerung und neue Spiele Top, weil hohe Shaderpower.
Kann es sein dass der GF100 (60 TMUs) weniger Texture Fillrate hat als der G92 (64 TMUs)?
Wie wichtig ist die Texture Fillrate für "alte" Spiele die mehr auf gute Texturen, anstatt auf Shader setzen?
Kann es sein dass man mit einer GTX480 weniger Leistung in alten Spielen hat, als mit einer 9800 GTX?
Es gibt keinen Kühler, der das aktuell kann. SpaWas und TDP sage ich nur. Hier verbucht die HD5870 ein fettes Plus.
Warum vergleichst du nicht mit der GTX 470?
Ist eher auf dem Niveau der 5870 und ist auch sparsamer und ....
PulsarS
2010-03-18, 19:17:27
Oh mann, du bist echt gegen alles, außer manches.
Aus deiner Sicht ist D3D11 genauso Müll.
So ein Quatsch.
Lies doch genau, was ich geschrieben habe.
Die Technologie hinter D3D11 ist schon toll, zur Zeit happert es aber bei der Umsetzung. Zumindest was die Tesselation angeht.
Ich bin mal auf die Umsetzung der Möglichkeiten der CS gespannt.
Bis da aber brauchbare Ergebnisse kommen, wo man ein wenig von einem WoW-Effekt sprechen könnte (zumindest im Vergleich zu heute), werden sicherlich noch 2 Jährchen vergehen.
@y33H@
hast PN :)
y33H@
2010-03-18, 19:20:46
@ Gast
GTX470 kann ich nichts zu sagen, der Chip sollte kein Problem sein - Wandler gilt es zu testen ;)
@ PulsarS
Du auch :tongue:
Dural
2010-03-18, 19:25:58
Es gibt keinen Kühler, der das aktuell kann. SpaWas und TDP sage ich nur. Hier verbucht die HD5870 ein fettes Plus.
Aktuelle Kühler werden sehr wahrscheinlich passen... sieht nicht nach einem neuem Lochabstand aus! TDP??? da würd ich mal abwarten...
y33H@
2010-03-18, 19:31:22
Hach, die Abstände sind altbekannt. TDP brauche ich nicht abzuwarten, GPU ist eh das kleinere Übel.
Die Diagonale der Bohrungen rund um die GPU beträgt übrigens 82 Millimeter, ergo passen Kühler, welche mit G80-basierenden Karten kompatibel sind zumindest in der Theorie (etwa der Prolimatech MK-13 oder der Thermalright HR-03 Plus).
Hach, die Abstände sind altbekannt. TDP brauche ich nicht abzuwarten, GPU ist eh das kleinere Übel.
Also kann man auf den SpaWa Eier braten?
y33H@
2010-03-18, 19:40:27
Das habe ich nicht gesagt, aber wie bei den HD48x0 und HD58x0 sind auch bei den Fermis die SpaWas [offenbar] der kritische Punkt.
fizzo
2010-03-18, 19:50:13
3D Vision halbiert grob die Fps, wenig überraschend. Mit einem einzelnen Fermi in 1680 wird das ... naja, warten wir es ab ;D
Ja, das ist geil. 2-3h stupide Benchmarks, dafür, dass alle Balken am Ende gleichlang sind ;D
Aus dem Metro Thread in Verbindung mit..
GTX470 kann ich nichts zu sagen...
...erzeugt bei mir ein komisches Gefühl in der Magengegend...
y33H@
2010-03-18, 19:51:24
Schmetterlinge? :ulove:
fizzo
2010-03-18, 19:53:32
Schmetterlinge? :ulove:
LovesuckZ kann das sicher besser in Worte fassen ;)
LovesuckZ
2010-03-18, 20:09:35
Hast du den zweiten Quote auch im Kontext gelesen? ;)
Generell muss sich bei mir eine neue Graka performance technisch lohnen damit ich zuschlage. Von Ge-Force 3 auf 9700pro war übelst geil und von 6800 Ultra auf 8800 GTX auch nicht schlecht. Und selbst der Umstieg von 8800 GTX auf 280 GTX http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/#abschnitt_performancerating_qualitaet hat sich für mich gelohnt. Wenn also die 480 GTX nun ~10% schneller als ne 5870 wäre, dann würde es sich fast doch lohnen von 280 GTX auf 480 GTX oder was meint ihr? :D
PCGH_Carsten
2010-03-18, 20:37:57
Das teste ich =)
EDIT
Doppelte MADDs hast du etwa bei 448 @ 1,55 oder 480 @ 1,45 oder 512 @ 1,40. Sollte Fermi die Power auf die Beine kriegen plus vll etwas mehr Effizienz, sollte die GTX470 mit den von dir genannten 448 @ 1,3 die HD5870 tatsächlich knacken.
FLOPS sind nicht alles.
Wenn also die 480 GTX nun ~10% schneller als ne 5870 wäre, dann würde es sich fast doch lohnen von 280 GTX auf 480 GTX oder was meint ihr? :D
Man sollte nicht vergessen, dass man eine 5870 problemlos um 10% übertakten kann. Wenn die GTX480 unübetaktet schon an die 300Watt Grenze stößt, bleibt wohl nicht viel Spielraum zum übertakten.
Das teste ich =)
EDIT
Doppelte MADDs hast du etwa bei 448 @ 1,55 oder 480 @ 1,45 oder 512 @ 1,40. Sollte Fermi die Power auf die Beine kriegen plus vll etwas mehr Effizienz, sollte die GTX470 mit den von dir genannten 448 @ 1,3 die HD5870 tatsächlich knacken.
Das wird eher weniger, irgendwer muss ja auch die Tessellation rechnen ...
Aber teste es aus ;-)
Man sollte nicht vergessen, dass man eine 5870 problemlos um 10% übertakten kann. Wenn die GTX480 unübetaktet schon an die 300Watt Grenze stößt, bleibt wohl nicht viel Spielraum zum übertakten.
Warum vergleichst du nicht mit der GTX 470?
y33H@
2010-03-18, 21:04:19
@ PCGH_Carsten
Och Carsten ;) Jetzt verkompliziere doch nicht alles - natürlich sind FLOPS alles *SCNR*
http://www.abload.de/thumb/planetcsii.jpg (http://www.abload.de/image.php?img=planetcsii.jpg)
Gast2
2010-03-18, 21:07:12
Warum vergleichst du nicht mit der GTX 470?
Weil cR@b von einer GTX480 geschrieben hat.
Die GTX470 wird mit 2x6Pin Stromanschluss auch nicht viel Spielraum zum übertakten haben (Wenn die Verbrauchswerte stimmen).
Man sollte nicht vergessen, dass man eine 5870 problemlos um 10% übertakten kann. Wenn die GTX480 unübetaktet schon an die 300Watt Grenze stößt, bleibt wohl nicht viel Spielraum zum übertakten.
Der Vorschlag ist nicht schlecht, bloß kann ich mit ATI nicht mehr ganz so viel anfangen, obwohl sie sich stark verbessert haben. Auch wenn die nV Treiber teils stark zu wünschen übrig lassen und das nicht immer so war, liefern sie dennoch immer wieder verdammt gute Treiber ab wie z.B. derzeit den 197.13 der alle meine Probleme aus der Welt schaffen konnte :D Weiß nicht wie das mit den Treiber heute bei ATI so läuft, hatte da mit der 9700 Pro so meine Probleme damals...
Warum vergleichst du nicht mit der GTX 470?
Meinst du, dass sich aus der 470 GTX mit Übertaktung mehr rausholen lässt im Gegensatz zu ner etwas schlechter übertaktbaren 480 GTX mit mehr Shader etc.? Preis spielt für mich erstmal weniger ne Rolle, da ich bisher für meine letzten zwei Karten ~500 Euronen hinblättern musste und das deshalb für mich nix neues ist. :D Die Karten waren aber stets 2-3 Jahre im Rechner!
Man sollte nicht vergessen, dass man eine 5870 problemlos um 10% übertakten kann. Wenn die GTX480 unübetaktet schon an die 300Watt Grenze stößt, bleibt wohl nicht viel Spielraum zum übertakten.
digi SPAWA...30% unter Wasser sind da immer locker drinn...
die 470 ist doch eh billig³
Gast2
2010-03-18, 21:31:56
Der Vorschlag ist nicht schlecht, bloß kann ich mit ATI nicht mehr ganz so viel anfangen, obwohl sie sich stark verbessert haben. Auch wenn die nV Treiber teils stark zu wünschen übrig lassen und das nicht immer so war, liefern sie dennoch immer wieder verdammt gute Treiber ab wie z.B. derzeit den 197.13 der alle meine Probleme aus der Welt schaffen konnte :D Weiß nicht wie das mit den Treiber heute bei ATI so läuft, hatte da mit der 9700 Pro so meine Probleme damals...
Ja, wegen den Treibern habe ich seit der Geforce 2 auch immer eine Nvidiakarte im PC gehabt. Hatte vor der Geforce3 mal kurzfristig eine ATI Karte (ka welche das war) im Rechner, die hatte aber auch Treiberprobleme (Schattenflimmern in Operation Flashpoint), weswegen ich sie gegen eine Geforce3 getauscht habe.
Glaub mittlerweile gibt es keine großen Unterschiede bei der Bildqualität.
Man ist halt ein Gewohnheitstier.
Sascha1971
2010-03-18, 21:45:41
@PCGH_Carsten
Welche Karte würdest du dir privat kaufen ? :biggrin:
urfaust
2010-03-18, 21:50:52
@PCGH_Carsten
Welche Karte würdest du dir privat kaufen ? :biggrin:
was spielt für das eine Rolle?
Ich fänd es interessanter zu wissen welches Toilettenpapier er benutzt
bzw. "privat" empfehlen würde
;D
Sascha1971
2010-03-18, 21:51:45
was spielt für das eine Rolle?
Ich fänd es interessanter zu wissen welches Toilettenpapier er benutzt
bzw. "privat" empfehlen würde
;D
Weil ich mal vermute, das er ab heute ein Testexemplar hat.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.