PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28

Dural
2010-04-06, 20:57:27
Die ersten GTX480 kommen hier am 13.04.2010 rein!

Von den 100 Bestellten ASUS GTX480 sage und schreibe 5 Stück!!!

GTX470 auch 13.04, davon immerhin 10 Stück ;)

The_Invisible
2010-04-06, 20:59:46
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480.html

hm, was jetzt, da verbraucht sie nur 7 watt mehr als ne 285gtx? was stimmt jetzt denn?

mfg

y33H@
2010-04-06, 21:03:01
@ Black-Scorpion

Du hast keinerlei Sinn für Scherze, oder? :rolleyes:

SoF hat übrigens den Airflow im Case vergessen ...

Grestorn
2010-04-06, 21:05:58
Da haste recht PCGH halt

http://www.hardwareluxx.de/community/14286997-post665.html
Der verlinkte Kommentar ist Blödsinn. Temperaturen sind im offenen System meist höher als im geschlossenen.

Und y33H@'s Kommentar oben war eher nV-Kritisch (er stellt ja die Frage ob nV bei 4xMS weniger rendert). Aber bei Euch ist einfach immer nur die Hassbrille oben, bei jedem der auch mal was positives zu nV sagt.

y33H@
2010-04-06, 21:15:56
@ LovesuckZ

Wenn ich auf meiner GTX280 von AAA auf MSAA umschalte, blurt das Bild. Mit der HD5850 ist dies auch der Fall. Was machen die Xbitlabs anders?

Gast
2010-04-06, 21:17:46
Der verlinkte Kommentar ist Blödsinn. Temperaturen sind im offenen System meist höher als im geschlossenen.


Sorry, aber selbst ohne auch nur einen Funken Ahnung sollte einem doch klar sein, das die Temperatur innerhalb eines Gehäuses nicht niedriger sein kann, als ausserhalb eines Gehäuses. Also niedriger als die Raumtemperatur, das ist unmöglich.
Was je nach Case und Belüftung möglich ist, mit Entsprechender Konfiguration die Temperatur innerhalb des Gehäuses auf dem Level der Raumtemperatur zu halten. Doch selbst das wird schwer, wenn man neben dem eh schon glühenden Fermi eine ensprechende, und benötigt schnelle CPU einsetzt, und noch andere Perepherie in diesem Gehäuse verbaut hat.

Was nun die Temperatur der Grafikkarte senken kann ist ein perfekter Luftzug, welcher so an- bzw. über- die Grafikkarte, und dann aus aus dem Gehäuse geführt werden kann, das dies zu einem besseren Ergebnis führt, als an einem offenem Aufbau, aber sorry, das ist in den wenigsten Gehäusen der Fall.

Zu Bedenken dabei, das jeder weitere Lüfter, egal wie leise er ist, sich in der Lautstärke summiert, es wird einfach nicht leiser. Und ein 120er Scythe auf 800rpm bringt halt keinen wirklichen Luftzug auf kühlende Elemente.

Gast
2010-04-06, 21:19:38
Sorry, aber selbst ohne auch nur einen Funken Ahnung sollte einem doch klar sein, das die Temperatur innerhalb eines Gehäuses nicht niedriger sein kann, als ausserhalb eines Gehäuses. Also niedriger als die Raumtemperatur, das ist unmöglich.
Was je nach Case und Belüftung möglich ist, mit Entsprechender Konfiguration die Temperatur innerhalb des Gehäuses auf dem Level der Raumtemperatur zu halten. Doch selbst das wird schwer, wenn man neben dem eh schon glühenden Fermi eine ensprechende, und benötigt schnelle CPU einsetzt, und noch andere Perepherie in diesem Gehäuse verbaut hat.

Was nun die Temperatur der Grafikkarte senken kann ist ein perfekter Luftzug, welcher so an- bzw. über- die Grafikkarte, und dann aus aus dem Gehäuse geführt werden kann, das dies zu einem besseren Ergebnis führt, als an einem offenem Aufbau, aber sorry, das ist in den wenigsten Gehäusen der Fall.

Zu Bedenken dabei, das jeder weitere Lüfter, egal wie leise er ist, sich in der Lautstärke summiert, es wird einfach nicht leiser. Und ein 120er Scythe auf 800rpm bringt halt keinen wirklichen Luftzug auf kühlende Elemente.
Das tut ja beim Lesen weh. Wer erklärts ihm?

y33H@
2010-04-06, 21:20:18
Die GTX480 profitiert extrem vom ATX-Airflow eines einblasenden Front-Lüfters.
Zu Bedenken dabei, das jeder weitere Lüfter, egal wie leise er ist, sich in der Lautstärke summiert, es wird einfach nicht leiser.Diese Aussage ist falsch. Die Lautheit summiert sich nicht.

Iruwen
2010-04-06, 21:21:39
Sorry, aber selbst ohne auch nur einen Funken Ahnung sollte einem doch klar sein [...]

Sorry, aber wenn man keine Ahnung hat, einfach mal... informieren :rolleyes:

LovesuckZ
2010-04-06, 21:23:02
@ LovesuckZ

Wenn ich auf meiner GTX280 von AAA auf MSAA umschalte, blurt das Bild. Mit der HD5850 ist dies auch der Fall. Was machen die Xbitlabs anders?

Sie haben sich wohl nur AAA angesehen. HardOCP bestätigt es ja, dass auch 4xMSAA auf beiden unter VH blurrt.

y33H@
2010-04-06, 21:25:13
Bei mir blurts bei beiden IHVs mit AAA nicht *Schulter zuck*

OK, ich habe keine GF100 da - allerdings ist's mir beim Benchen nicht aufgefallen, dass es beim Fermi mit AAA blurt. Morgen mal nachschauen =)

Label
2010-04-06, 21:29:20
Die Lautheit summiert sich nicht.

Doch, tut sie... Nur halt nicht durch die einfache Addition der Pegelwerte in Dezibel...

http://de.wikipedia.org/wiki/Schalldruckpegel#Addition_der_Schalldruckpegel_mehrerer_Schallquellen

y33H@
2010-04-06, 21:30:53
Summiert wäre aber bei zwei Lüftern mit je 1,0 Sone dann 2,0 Sone (1+1=2). Und das ist Unfug.

Label
2010-04-06, 21:32:45
Summiert wäre aber bei zwei Lüftern mit je 1,0 Sone dann 2,0 Sone (2x1=2). Und das ist Unfug.

Sagt ja auch niemand... Es wird aber eben doch lauter (ca. 1,5 Sone)...

Gast
2010-04-06, 21:36:41
Diese Aussage ist falsch. Die Lautheit summiert sich nicht.

Sorry, falsch ausgerückt; sie summiert sich selbstverständlich nicht, aber 2 leise Lüfter sind lauter als 1 leiser Lüfter.
Das wollte ich damit aussagen.

Das tut ja beim Lesen weh. Wer erklärts ihm?
Sorry, aber wenn man keine Ahnung hat, einfach mal... informieren :rolleyes:

Ich tu es nicht, es wurde alles nötige geschrieben.
Ich bitte EUCH darum, sich zu informieren.

Gast
2010-04-06, 21:37:42
Sagt ja auch niemand... Es wird aber eben doch lauter (ca. 1,5 Sone)...

Der Fermi ist so laut da kommts auf nen Lüfter mehr auch nicht an.
Nur den haben viele nicht. Und bei denen wird die Karte im Case immer heiser als bei offenen aufbau. Thats problem.

y33H@
2010-04-06, 21:37:57
Wenn du zwei Lüfter mit 1,0 Sone hast, werden keine 1,5 Sone. Nicht, wenn die in einem Case verbaut sind. Theorie in allen Ehren, aber die Praxis widerspricht der Summierung in diesem Fall massiv.

@ Gast

Ah, ok =) Wobei sich die Erhöhung der Lautheit bei 2x 800er-120ern praktisch nicht bemerkbar macht.

Label
2010-04-06, 21:42:15
Wenn du zwei Lüfter mit 1,0 Sone hast, werden keine 1,5 Sone.

IMHO doch:
http://de.wikipedia.org/wiki/Schalldruckpegel#Sonderfall_gleich_starker_inkoh.C3.A4renter_Schallquellen

3dB entsprechen ca. 50% mehr...

y33H@
2010-04-06, 21:43:29
Lass die Theorie stecken, ich kenne dir Formel ;)

realist.@gast
2010-04-06, 21:47:44
Ah, ok =) Wobei sich die Erhöhung der Lautheit bei 2x 800er-120ern praktisch nicht bemerkbar macht.
Kommt auf die Lüfter an. Nen Scythe ist ja auch nicht gerade günstig, und selbst gut plazierte 800er in nem guten Gehäuse garantieren nicht, das die von der Hardware abgegebene Wärme komplett aus dem Gehäuse befördert wird. Warhscheinlich reichen da zwei nicht, dann hat das Gehäuse an der linken Wand auch nicht immer den Platz für nen 120er, sondern nur nen 80er, und die basen auch nicht direkt auf das Kühlelement, sondern von oben. Und die in neueren Gehäusen unten verbauten Netzteile nach oben gewendet ziehen ja auch die Luft, und blasen sie nicht auf das Kühlelement.

Wie auch immer, die Verlustleistung (unter anderem) des Fermi aus dem Gehäuse zu befördern ist nicht so einfach wie manche Leute so einfach behaupten.


Nur den haben viele nicht. Und bei denen wird die Karte im Case immer heiser als bei offenen aufbau. Thats problem.
Und thats the problem, die Behauptung Temperaturen sind im offenen System meist höher als im geschlossenen. ist da einfach nicht wahr.
Die Temperatur innerhalb des Gehäuses ist unmöglich niedrieger als ausserhalb des Gehäuses, und nur perfekt platzierte Gehäuselüfter sowohl auf die Grafikkarte, und entsprechend aus dem Gehäuse raus können die Temperatur der GPU senken, gegenüber einem offenen Aufbau, wo man ggf. nen Lüfter davor stellt.

Bei den allermeisten ist halt die Gehäusebelüftung eben nicht so perfekt, ist auch nur schwer bis unmöglich.

Label
2010-04-06, 21:54:10
Und thats the problem, die Behauptung Temperaturen sind im offenen System meist höher als im geschlossenen. ist da einfach nicht wahr.

Bei der Aussage stellen sich mir auch die Fussnägel Zehennägel hoch...
Aber heute hat schon mal n´anderer Member gesagt: Ich habe hier keinen Bildungsauftrag :P

Gast
2010-04-06, 21:56:18
es geht auch nicht um die Umgebungstemperatur, die kann klarerweise im Gehäuse nicht niedrigerer sein als aussen.

Es geht einzig und allein um das beförderte Luftvolumen von Lüftern die mehr oder minder direkt auf die Graka gerichtet sind.

Ein guter Luftfluss bringt garantiert niedrigere GPU-Temperaturen und das einzig und allein einfach deshalb weil die Abwärme schneller wegbefördert wird.

aths
2010-04-06, 22:02:29
Was sind schon 400€ für eine Handvoll FPS mehr.

Hast recht, ich verstehe die Enthusiasten Denke nicht!Plus DX11, plus entspannteres arbeiten mit großen Texturen.

Bei der Aussage stellen sich mir auch die Fussnägel hoch... Fußnägel (ß).

y33H@
2010-04-06, 22:03:51
Was sind schon 400€ für eine Handvoll FPS mehr.Mindestens eine Handvoll mehr ;D Und je nach Spiel auch mal zwei oder drei Handvoll. Aber kein SGSSAA :usad:

realist.@Gast
2010-04-06, 22:07:27
Ein guter Luftfluss bringt garantiert niedrigere GPU-Temperaturen und das einzig und allein einfach deshalb weil die Abwärme schneller wegbefördert wird.

Die Aussage ist so verallgemeinert nicht richtig.
fixed wäre

Mit einem GUTEN Luftfluss kann die GPU-Temperatur gesenkt werden, WENN die Abwärme schneller wegbefördert wird.

Und das mußt du halt bei dem Großteil der stehenden Gehäuse da draussen in freier Wildbahn erstmal erreichen. Und nein, das ist so nicht einfach zu bewerkstelligen, und ganz sicher negiert das nicht die knapp mehr oder minder 100 Watt Mehrverbrauch eines GF100.
100 Watt weniger werden immer leiser sein, und vor allem günstiger - nicht nur auf der Stromrechnung ... auch auf der Alternate oder Caseking Rechnung für die Gehäuselüfter.

La Junta
2010-04-06, 22:24:40
Die Aussage ist so verallgemeinert nicht richtig.
fixed wäre

Mit einem GUTEN Luftfluss kann die GPU-Temperatur gesenkt werden, WENN die Abwärme schneller wegbefördert wird.

Und das mußt du halt bei dem Großteil der stehenden Gehäuse da draussen in freier Wildbahn erstmal erreichen. Und nein, das ist so nicht einfach zu bewerkstelligen, und ganz sicher negiert das nicht die knapp mehr oder minder 100 Watt Mehrverbrauch eines GF100.
100 Watt weniger werden immer leiser sein, und vor allem günstiger - nicht nur auf der Stromrechnung ... auch auf der Alternate oder Caseking Rechnung für die Gehäuselüfter.

Nur mal eine kleine logische Frage . Laut deiner Aussage weiter oben kann bei geschlossenem Case die Lufttemperatur nicht niedriger sein als beim offenem Aufbau . Nun erklär mir mal wie ein stinknormaler Ventilator funktioniert und wieso der Mensch sowas als abkühlend empfindet . Laut deiner Aussage bringt ja das nix, weil die Luft nicht kühler sein kann als im Zimmer .... Wer nen Fermi von der Lautstärke her ertragen kann , der hat auch paar high RPM Lüfter im Tower und genau dort bringt es was .


Fußnägel (ß).

Ist es so verdammt schwer zu begreifen das nur ihr Deutschen euer (ß) habt ???

Gast
2010-04-06, 22:33:13
Die Aussage ist so verallgemeinert nicht richtig.
fixed wäre

Mit einem GUTEN Luftfluss kann die GPU-Temperatur gesenkt werden, WENN die Abwärme schneller wegbefördert wird.

Und das mußt du halt bei dem Großteil der stehenden Gehäuse da draussen in freier Wildbahn erstmal erreichen.

Wie groß ist denn deiner Meinung nach die Schnittmenge, der Leute die 50€ für ein so erbärmlich schlecht belüftetes Gehäuse ausgeben und derjenigen die 500€ für eine Grafikkarte ausgeben? Darüber schon mal nachgedacht? ;)

realist.@Gast
2010-04-06, 22:56:10
Nur mal eine kleine logische Frage . Laut deiner Aussage weiter oben kann bei geschlossenem Case die Lufttemperatur nicht niedriger sein als beim offenem Aufbau . Nun erklär mir mal wie ein stinknormaler Ventilator funktioniert und wieso der Mensch sowas als abkühlend empfindet . Laut deiner Aussage bringt ja das nix, weil die Luft nicht kühler sein kann als im Zimmer .... Wer nen Fermi von der Lautstärke her ertragen kann , der hat auch paar high RPM Lüfter im Tower und genau dort bringt es was .


Stimmt, die Luft kann NICHT Kühler sein als im Zimmer. Das ist auch bei einem Ventilatur nicht anders, welcher uns Kühlung und damit ein wohlbefinden verschafft, indem der Luftzug an unserer Haut (hier kombiniert mit dem Schweiß, und damit einer zusätzlichen Wärmeabgabe über die Verdunstung) die Wärme 'mit nimmt'. Die Luft vor dem Ventilator ist dadurch aber trotzdem nicht kühler als hinter dem Ventilator.

Und das ist auch bei nem Gehäuse nicht anders; die Luft innerhalb des Gehäuses ist auch mit optimalem Aufbau nicht kälter, als ausserhalb des Gehäuses. Jedoch kann diese optimale Kühlung dazu beitragen, das sich die Temperatur innerhalb des Gehäuses durch die Verbraucher nicht großartig erhöht, weil sich nicht staut.
Und - wie geschrieben - kann sie ausserdem zu einer besseren Kühlung beitragen WENN sie direkt auf die Kühlelemente gerichtet ist, und damit genau das selbe tut, wie der GPU Lüfter ansicht - die Wärme über die Kühlelemente abführt. Und selbst dann muß sie auch erstmal aus dem Gehäuse.

Das ist kein Widerspruch wie du vermutest, sondern ein Unterschied.

Wie groß ist denn deiner Meinung nach die Schnittmenge, der Leute die 50€ für ein so erbärmlich schlecht belüftetes Gehäuse ausgeben und derjenigen die 500€ für eine Grafikkarte ausgeben? Darüber schon mal nachgedacht? ;)
Die Schnittmenge ist deutlich geringer, wie jene der Leute die 380€ für eine unwesentlich langsamere Karte ausgeben, und locker mit nem 50€ Gehäuse und 1x statt 3x 16€ Gehäuselüfter auskommen :D

Botcruscher
2010-04-06, 23:05:53
Ich zweifel mal sehr stark an der besonderen Kühlwirkung der typischen Gehäuse. Besonderes Lüftungskonzept bedeutet doch eh mindestens 100 Löcher.:freak: Gleichzeitig kommt noch der liebe Staub dazu. Die realen Bedingungen dürften (im Durchschnitt) eher deutlich schlechter als der Teststand sein. Die PR-Aussage von NV zu den niedrigen Temperaturen/Leistungsaufnahme in PC Gehäusen ist daher maximal dreist.

Wer meldet sich den für ein Langzeitmonitoring freiwillig.^^

Iruwen
2010-04-06, 23:35:49
Durch 100 Löcher geht der Luftstrom eher überall hin außer da wo er hinsoll. Und die Lüfter die Luft in das Gehäuse befördern haben jawohl Staubfänger. Wenn jemand sich eine GTX 480 kauft und sich keine Gedanken über die Belüftung macht ist das halt persönliches Pech. Die Karte ist für Enthusiasten gedacht. Außerdem ist die Stockkühlung auch auf schlechter durchlüftete Gehäuse ausgelegt, sonst hätte NV auch gleich so eine Lösung wie Palit verbauen können die effektiv genau das tut was Nvidia empfiehlt.

P@trick
2010-04-07, 01:05:29
Bei der Gtx480 ist`n dicken Seitenlüfter sicher noch von Vorteil,schade ist Fermi dermassen heiss und zieht mächtig Strom. Noch keiner von den Cracks 3x FullHD bzw. 3x 1900x1200 gebencht(SoftTH)Hat jmd. was gesehen?WENN man noch 3D will auf 3 Monitoren würde es arg knapp werden mit der Leistung.Ein Mod hat es schon erwähnt, 3 Monitore+3D ca. 6-facher Rechenaufwand,von daher kann man fast froh sein ,dass Surround (3D)"nur" mit 2 Karten möglich ist.(oder wie auch immer)
Bin eben brennender Eyefinity-(bzw.Tripple Head)Fan und möchte es gerade nicht missen ,deswegen auch das Intereese an höheren Auflösungen und wie Fermi abschneidet.
Wären die karten mal früher auf den Markt gekommen,hätte ich was grünes im Pc,verstehe die Verbissenheit(mancher User) nicht.
Greets

Dicker Igel
2010-04-07, 04:11:09
so eine Lösung wie Palit

Gibts eigentlich schon Infos ob Gainward wieder Karten mit alternativer Kühlung anbietet ?

svenw
2010-04-07, 08:54:04
Der Unterschied zwischen Fermi und Cypress ist, das man beim Fermi merh oder weniger das System um die Graka herrum bauen muß. Und das der Föhn auf der GF100 weniger dröhn wenn die Kühlelemente direkt angeblasen werden sit richtig, nur dann muß man auch die Lautstärke des Zusatzlüfters plus dem Lüfter der die warme Luft wieder aus dem Gehäuse schafft mitrechnen, ansosnten wäre es unfair einer Cypress gegenüber.

Nur nebenbei: wenn NV das so sieht, wieso haben sie dann knicht gleich selber entsprechenden Lüfter verbaut anstatt das Ganze auf den Käufer abzuwälzen?

AYAlf_2
2010-04-07, 08:56:50
Mindestens eine Handvoll mehr ;D Und je nach Spiel auch mal zwei oder drei Handvoll. Aber kein SGSSAA :usad:

wo bitte sind es denn mehr als eine hand voll? und damit meine ich fps die noch spielerisch relevant waeren? metro mal ausgenommen. das spiel ist eine nvidia produktion :wink:

y33H@
2010-04-07, 09:08:29
Beispielsweise läuft WoW, GTA4, FC2 oder auch AvP exzellent. Oder Battleforge und Call of Pripyat.

Grestorn
2010-04-07, 09:09:51
Mensch, Du weißt doch, dass das nur an der RAM-Ausrüstung liegt! :)

Gast
2010-04-07, 10:15:03
Aber bei Euch ist einfach immer nur die Hassbrille oben, bei jedem der auch mal was positives zu nV sagt.
Oft auch andersrum - und darum verliert dieses Forum viel von seiner Attraktivität. Früher war ich mal gern hier, hatte fast 20.000 Postings. Heute schaue ich nur noch als Gast vorbei und das eher sporadisch.

Naja, sorry für OT: Bitte weiterbashen!

-Carsten

Gast
2010-04-07, 10:59:09
Der Unterschied zwischen Fermi und Cypress ist, das man beim Fermi merh oder weniger das System um die Graka herrum bauen muß. Und das der Föhn auf der GF100 weniger dröhn wenn die Kühlelemente direkt angeblasen werden sit richtig, nur dann muß man auch die Lautstärke des Zusatzlüfters plus dem Lüfter der die warme Luft wieder aus dem Gehäuse schafft mitrechnen, ansosnten wäre es unfair einer Cypress gegenüber.

So ein blödsinn, als wenn man bei einem i7-System keinen Lüfter bräuchte, der die Abwärme des Cpu-Kühlers nach draußen befördert und im Idealfall noch einen der dem Cpu-Kühler Luft zuführt. Für das Referencedesign der GTX480 braucht man lediglich einen Lüfter, der Luft zuführt und schon spart man sich 3 Sone unter Last (da ist die Lautstärke des Zusatzlüfters dann schon mit drin).

Nur nebenbei: wenn NV das so sieht, wieso haben sie dann knicht gleich selber entsprechenden Lüfter verbaut anstatt das Ganze auf den Käufer abzuwälzen?

Das liegt an der Form der Grafikkarten, daher sind die Kühllösungen der Grafikkarten auch extrem ineffizient. Die einzige effiziente Lösung sind halt 2 12er Lüfter, welche die Luft in die Richtung des PCB pusten, hierbei ist es allerdings nicht mehr möglich die Luft aus dem Gehäuse zu befördern.

AYAlf_2
2010-04-07, 11:05:38
Beispielsweise läuft WoW, GTA4, FC2 oder auch AvP exzellent. Oder Battleforge und Call of Pripyat.
und das laeuft nicht mit einer 5870 nicht exzellent? das glaube ich nicht tim!

Gast
2010-04-07, 11:09:34
Oft auch andersrum - und darum verliert dieses Forum viel von seiner Attraktivität. Früher war ich mal gern hier, hatte fast 20.000 Postings. Heute schaue ich nur noch als Gast vorbei und das eher sporadisch.

Naja, sorry für OT: Bitte weiterbashen!

-Carsten

Geht mir genauso. Nur hatte ich nicht annhähernd 1000 Posts. :D

Es sind leider nur noch die "Hardcoremember" wie z. B. Lovesuckz oder Schlammsau (um exemplarisch beide Seiten zu nennen) die hier im Forum versuchen Meinung anstatt Diskussion zu machen. Konstruktive Diskussionen sind, sobald diese Mitglieder auf den Plan treten, ohnehin nicht mehr möglich. Der Rest muss tatenlos oder auch hilflos zusehen.

Gast
2010-04-07, 11:10:37
und das laeuft nicht mit einer 5870 nicht exzellent? das glaube ich nicht tim!

Das hängt doch immer von den Qualitätseinstellungen ab. Mehr Qualität geht immer, bei NV nimmt man einfach 2x2 OGSSAA. Bei WoW im Raid wird man die brachiale Leistung der GTX480 auch zu schätzen wissen.

y33H@
2010-04-07, 11:21:31
@ AYAlf_2

Exzellent meinte deutlich schneller.

Iruwen
2010-04-07, 12:05:44
Wenn NV das so sieht, wieso haben sie dann knicht gleich selber entsprechenden Lüfter verbaut anstatt das Ganze auf den Käufer abzuwälzen?

Mit einer fetten Kühllösung die Luft auf den Kühler und dann aus dem Gehäuse befördert wäre es wohl eine 3 Slot breite Karte geworden. Hätte ich zwar kein Problem mit, wäre aber halt doof für SLI.

DeadMeat
2010-04-07, 12:21:33
Das hängt doch immer von den Qualitätseinstellungen ab. Mehr Qualität geht immer, bei NV nimmt man einfach 2x2 OGSSAA. Bei WoW im Raid wird man die brachiale Leistung der GTX480 auch zu schätzen wissen.

Wobei das bei WoW so eine Sache ist, sobald man den Schatten Regler auch nur 1 Stufe nach links nimmt kann man sogar 2/4x SSAA benutzen auf den ATIs im Raid. Und die letzte Stufe bringt nicht wirklich viel.

Gast
2010-04-07, 12:31:59
Fermi Certified Chase. (Ultra Low Noise Edition)


http://www.bilder-hochladen.net/files/8y3r-g.jpg (http://www.bilder-hochladen.net/files/8y3r-g-jpg-nb.html)

http://www.bilder-hochladen.net/files/8y3r-h.jpg (http://www.bilder-hochladen.net/files/8y3r-h-jpg-nb.html)

http://www.bilder-hochladen.net/files/8y3r-j.jpg (http://www.bilder-hochladen.net/files/8y3r-j-jpg-nb.html)

Exxtreme
2010-04-07, 12:35:27
Das hängt doch immer von den Qualitätseinstellungen ab. Mehr Qualität geht immer, bei NV nimmt man einfach 2x2 OGSSAA. Bei WoW im Raid wird man die brachiale Leistung der GTX480 auch zu schätzen wissen.
Da gibt es einen viel einfacheren Trick: einfach WoW anweisen mehr als 32 MB an Texturspeicher zu nutzen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7932397&postcount=28

AYAlf_2
2010-04-07, 12:44:37
naja .. was regen wir uns hier eigentlich auf ...

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/april/nvidia_geforce_gtx_470_480/

DeadMeat
2010-04-07, 12:49:31
Wobei man bei dieser Meldung aber nicht überrascht sein darf, irgendwie war das ja absehbar :)

AYAlf_2
2010-04-07, 12:51:23
^^ wenn dem wirklich so ist .. war es die teuerste vorfuehrkarte ever ;D

Megamember
2010-04-07, 12:59:51
Das sie erst um den 12.4 rum verfügbar wird sollte doch eigendlich längst bekannt sein.

Botcruscher
2010-04-07, 13:00:51
Vor Juni wird da mit fast absoluter Sicherheit nichts mit weitflächigen Lieferungen. "Ausreichende" Verfügbarkeit ist eh offen. Die 470/480 wird wohl Seltenheitswert bekommen.

Gast
2010-04-07, 13:14:38
Fermi ist tot es kommt Fermi2 GF119, hoffentlich behält Charlie hier recht:

http://semiaccurate.com/2010/04/05/new-nvidia-code-names-pop/

Iruwen
2010-04-07, 13:26:53
Hättste mal alles gelesen...

Soundwave1983
2010-04-07, 14:29:39
Das sie erst um den 12.4 rum verfügbar wird sollte doch eigendlich längst bekannt sein.


Ich würde nicht darauf wetten. :biggrin:

Gast
2010-04-07, 15:20:44
Neues custom Layout der 480er:
http://www.imagebanana.com/img/oyhti8l/NVDA_Custom_GTX480A_675.jpg

http://www.imagebanana.com/img/yhz9hbwf/NVDA_Custom_GTX480B_675.jpg

Kein Loch mehr im PCB für den Luftstrom + so kurz wie eine GTS250

http://www.brightsideofnews.com/news/2010/4/6/custom-pcb-gtx-480-designs-show-interesting-developments.aspx

Gast
2010-04-07, 15:22:36
Ajo und 6+6 Pin statt 6+8

Gast
2010-04-07, 15:27:22
Könnte man die Karten nicht einfach höher machen (also nicht mehr Slots oder länger) um die Kühlung zu verbessern? Die 8800 Ultra hatte doch z.B. auch den Lüfter in einem oben herausragenden "Buckel". Also jetzt nicht unbedingt als Referenzdesign, aber als Herstellervariante wäre es vielleicht eine Überlegung wert.

Botcruscher
2010-04-07, 18:09:52
Neues custom Layout der 480er:


1. Alt
2. Nie und nimmer für die 480. Von einer 317W Karte die 6+8 locker ausschöpft macht man so schnell keine 6+6 Version.

Raff
2010-04-07, 18:17:20
Ich habe auch erst gestutzt, aber dann zählte ich die Speicherchips nach, die bei Nvidia an den ROP-Partitionen hängen: 12 Stück. 6 x 64 = 384 Bit. Eine GTX 470 hätte mit ihren 320 Bit nur 10 Chips. Ob das stimmt? ;)

MfG,
Raff

Gast
2010-04-07, 18:38:26
Ich habe auch erst gestutzt, aber dann zählte ich die Speicherchips nach, die bei Nvidia an den ROP-Partitionen hängen: 12 Stück. 6 x 64 = 384 Bit. Eine GTX 470 hätte mit ihren 320 Bit nur 10 Chips. Ob das stimmt? ;)

MfG,
Raff

Ich denke es ist das PCB vom GF102 mit 12 mal 64MB Speicher und 8 SMs. Alles andere macht irgendwie keinen Sinn.

DiGiTaL
2010-04-07, 21:56:03
Das sie erst um den 12.4 rum verfügbar wird sollte doch eigendlich längst bekannt sein.

Vielleicht kommt dann auch der neue 256er Treiber.

Zumindest bis jetzt gibts überhaupt keinen Treiber für die 400er Karten.

Grestorn
2010-04-08, 08:47:10
Oh, dann haben die Tester also die Pixel selbst einzeln auf ihre Testmuster gepinselt :)

Raff
2010-04-08, 09:07:55
:D

Natürlich gibt's einen Treiber (197.17), der ist aber nur der Presse zur Verfügung gestellt worden ... und kurioserweise noch nicht geleakt.

MfG,
Raff

Grestorn
2010-04-08, 09:22:14
Natürlich gibt's einen Treiber (197.17), der ist aber nur der Presse zur Verfügung gestellt worden ... und kurioserweise noch nicht geleakt.

Der Treiber ist doch geleaked, nur nicht mit passender .inf für die Fermis, oder?

Gast
2010-04-08, 09:57:59
Der Treiber ist doch geleaked, nur nicht mit passender .inf für die Fermis, oder?

Nein, hierbei handelt es sich um eine alternative Treiberreihe mit eingebautem DRM.

AnarchX
2010-04-08, 10:55:52
Shamino hat die GTX 480 zu 1,35GHz Speichertakt überredet = 259GB/s (http://kingpincooling.com/forum/showthread.php?t=663)

Gast
2010-04-08, 11:08:42
Wenn der Treiber so nicht veröffentlich wird, dann kann man die Leistung die in Reviews die mit diesem Treiber ermittelt worden ist, nur als groben Anhaltspunkt anerkennen.
Wer weiß was für versteckte Optimierungen im Treiber eingebaut worden sind, zusätzlich wurden die Karten handverlesen.

Idealerweise sollte man Reviews abwarten die mit im Handel gekauften Karten durchgeführt worden sind, aber wenn man erst nach diesem Review bestellen würden, würde man wohl gar keine GTX 470/480 mehr bekommen.

BigKid
2010-04-08, 13:10:42
Ich bin bisher auch ziemlich überzeugter NVidia Anhänger - ich hatte einmal eine XT1900 von Ati drinn und die ist damals ziemlich schnell wieder rausgeflogen wegen 1-2 "Unnetigkeiten" (zum einen ist die Framerate von WOW im Fenstermodus massiv (auf c.a. 0.5 fps) eingebrochen sobald z.B. der Virenscanner oder irgend etwas anderes unten in der Taskleiste eine "Sprechblase" eingeblendet hat - zum anderen wegen "bunter Streifen" in der letzten Pixelzeile oben und unten im Bild). Ich hab damals zu hören gekriegt "das sei halt so und das sei NORMAL". Vielleicht bei ATI... Bei meinen NV Karten hatte ich das noch nie...

Jetzt bin ich vom Fermi auch einigermassen enttäuscht - aber das hat ja was mit Erwartungshaltungen zu tun - haben halt viele irgendwo erwartet, dass das Ding ein Monster wird, dass Leistungsmäßig Ati deklassiert. Isses nich - is aber auch nicht so schlimm... Letzlich interessiert mich persönlich die Mehrleistung zu meiner aktuellen Karte.

Ich hab ne GTX260+ - kennt zufällig jemand einen Vergleich in dem diese Karte mit der GTX480 oder 470 zusammen drinn ist und könnte den mal verlinken ?

N0Thing
2010-04-08, 13:17:25
Auf der ersten Seite im Thread ist ein Link zum Review der PCGH. Dort gibt es einen Vergleicht der GTX260-216 mit der GTX470 & GTX 480. WoW wurde dabei auch benutzt.

BigKid
2010-04-08, 13:31:22
Ahh... An die erste Seite hatte ich gar nicht mehr drann gedacht :o)

Ich sehe da also mal ganz grob eine 1.75 fache Leistungssteigerung zwischen 480 und 260 und c.a. 1.6 zwischen 470 und 260. Interpretiere ich das richtig ?

N0Thing
2010-04-08, 13:37:04
Ist die Version mit mehr Stream-Prozessoren, deshalb der Zusatz 216. Die erste Version der GTX 260 hatte nur 192.

DrFreaK666
2010-04-08, 13:38:07
Ahh... An die erste Seite hatte ich gar nicht mehr drann gedacht :o)

Ich sehe da also mal ganz grob eine 1.75 fache Leistungssteigerung zwischen 480 und 260 und c.a. 1.6 zwischen 470 und 260. Interpretiere ich das richtig ?

Hier wurde die GTX260² genutzt
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_qualitaet

Iruwen
2010-04-08, 13:38:25
Wenn der Treiber so nicht veröffentlich wird, dann kann man die Leistung die in Reviews die mit diesem Treiber ermittelt worden ist, nur als groben Anhaltspunkt anerkennen.
Wer weiß was für versteckte Optimierungen im Treiber eingebaut worden sind, zusätzlich wurden die Karten handverlesen.

Stimmt, in Wirklichkeit hatten die Review Samples nämlich 32 SMs und der Treiber hat nie AA/AF aktiviert. Und Augenbinden für die Reviewer von denen kein einziger etwas davon gemerkt hat lagen auch dabei. True Story :rolleyes:

Gast
2010-04-08, 14:00:42
Stimmt, in Wirklichkeit hatten die Review Samples nämlich 32 SMs und der Treiber hat nie AA/AF aktiviert. Und Augenbinden für die Reviewer von denen kein einziger etwas davon gemerkt hat lagen auch dabei. True Story :rolleyes:


Selbst wenn sie was gemerkt hätten, würden die meisten damit wohl nicht an die öffentlich gehen, da sie dann beim nächsten mal keine Karten mehr bekommen würden.
Stell dir mal die pupblicity vor, wenn sich herraustellen würde, dass die Review-Treiber optimiert wurden und die Reviewseiten aus angst vor Konsequenzen darüber nicht berichtet hätten. Das würde die ganze Branche unglaubwürdig machen.

Es wird sich erst noch zeigen, ob die Benchmarkergebnisse mit dem Release-Treiber reproduzierbar sind. Bisher gibt es ja nur heiße Luft.

Iruwen
2010-04-08, 14:08:12
Wie kann man nur so paranoid sein :D Deshalb gibt es dann auch Artikel wie diesen (http://www.pcgameshardware.de/aid,744486/Metro-2033-und-Geforce-GTX-480/470-Unstimmigkeiten-bei-der-Optik/Action-Spiel/Test/).

AnarchX
2010-04-08, 14:12:13
Bei EVGA gibt es nun auch 4-Way-SLI mit der GTX 480:
http://www.techpowerup.com/119615/GeForce_GTX_480_Supports_4-way_SLI_.html
http://www.brightsideofnews.com/news/2010/4/8/evga-shows-off-gtx-480-4-way-sli.aspx

Damit sollte Metro 2033 @ 3DVision Surround nichts im Wege stehen.

Gast
2010-04-08, 14:12:42
Hoffentlich ist dann bei den Karten ein Treiber auf CD dabei ^^
Wenn man Pech hat kommen die Karten echt bevor es einen Fermi Treiber im Netz gibt.

Gast
2010-04-08, 14:16:20
Wie kann man nur so paranoid sein :D


Du solltest erstmal die Bedeutung der Wörter verstehen, die du anderen an den Kopf wirfst.
Deshalb kann ich mir die Diskussion mit dir sparen, da ich mir nicht sicher sein kann ob du überhaupt verstehst was ich schreibe.

Grestorn
2010-04-08, 14:18:10
Stimmt, paranoid war nicht korrekt. nVidia-Hasser passt besser. Denn nVidia kann ja nur betrügen und belügen.

Gast
2010-04-08, 14:18:21
Es wird sich erst noch zeigen, ob die Benchmarkergebnisse mit dem Release-Treiber reproduzierbar sind. Bisher gibt es ja nur heiße Luft.

Zumindest hiermit könntest du recht behalten, denn es besteht eine sehr gute Chance, dass der Release-Treiber schneller sein wird. :) In nem halben Jahr wird man vermutlich sagen: "Wasn das fürn dummer Test ne GTX470 is niemals langsamer als ne HD5870."

Iruwen
2010-04-08, 14:18:23
Doch aber bitte schreib langsamer, ich kann nicht so schnell lesen :freak:

Es war genauso gemeint wie ich es gesagt habe, kannst ja selbst mal nachlesen (http://de.wikipedia.org/wiki/Paranoia).

Quad SLI mit Luftkühlung möchte ich mal in Aktion sehen. Bzw. vor allem hören. Die mittleren Karten dürften unter Volllast extrem heiß werden.

Botcruscher
2010-04-08, 14:24:02
Stimmt, paranoid war nicht korrekt. nVidia-Hasser passt besser. Denn nVidia kann ja nur betrügen und belügen.

Man könnte das natürlich auch Transparenter gestalten. Wenn jeder das Ding in der Hand hätte müsste man sich auch nicht mit Gerüchten rumschlagen.

Iruwen
2010-04-08, 14:27:33
Man könnte auch einfach gar nicht erst auf solche abwegigen Ideen kommen, mittlerweile hatten genug Leute das Ding in der Hand. Darunter auch viele die alles andere als Nvidia Fans sind.

Botcruscher
2010-04-08, 14:32:09
Bei eingeschränktem Zugang kommen die Gerüchte von alleine. Kennt man ja vom Militär. Die Quizfrage ist eher warum ist der Treiber nicht zugänglich. Nachtesten muss man so oder so.

Grestorn
2010-04-08, 14:34:11
Weil den Treiber, wenn er Fermi-Exklusiv ist, sowieso noch niemand nutzen kann?

Gast
2010-04-08, 14:36:31
Stimmt, paranoid war nicht korrekt. nVidia-Hasser passt besser. Denn nVidia kann ja nur betrügen und belügen.

Das ist eine genauso falsche Behauptung wie die dass ich paranoid sei.
Ich hatte bisher fast ausschliesslich Nvidia-karten im Rechner.
Nach den Nvidia PR-aktionen des letzten Jahres, ist es verständlich dass die Leute Nvidia gegenüber misstrauischer sind. Wer einmal lügt, dem glaubt man halt nicht mehr.

Now, I have one right here. This, Ladies and Gentlemen, this puppy here is Fermi. It just came back from Fab.

Wenn selbst der Nvidia CEO die Leute so professionell anlügt und dazu noch Grafikkartenattrappen präsentiert, dann kann man der Firma gegenüber nur misstrauisch sein, alles andere wäre Naïve.

Botcruscher
2010-04-08, 14:38:20
Weil den Treiber, wenn er Fermi-Exklusiv ist, sowieso noch niemand nutzen kann?


Dann würde es noch weniger Sinn machen den Zugang zu beschneiden. Und in ein paar Tagen könnte man selber testen.

Iruwen
2010-04-08, 14:41:51
Ein paar Tage mehr Zeit für Tests. Wird schon rechtzeitig zum Verkaufsstart online sein.

Grestorn
2010-04-08, 14:43:05
Das ist eine genauso falsche Behauptung wie die dass ich paranoid sei.
Ich hatte bisher fast ausschliesslich Nvidia-karten im Rechner.
Nach den Nvidia PR-aktionen des letzten Jahres, ist es verständlich dass die Leute Nvidia gegenüber misstrauischer sind. Wer einmal lügt, dem glaubt man halt nicht mehr.

Now, I have one right here. This, Ladies and Gentlemen, this puppy here is Fermi. It just came back from Fab.

Wenn selbst der Nvidia CEO die Leute so professionell anlügt und dazu noch Grafikkartenattrappen präsentiert, dann kann man der Firma gegenüber nur misstrauisch sein, alles andere wäre Naïve.

Oh mei, wenn Du das schon als Lüge siehst, wenn man eine Attrappe hochhält, was sind dann solche Marketinglügen wie sie ein Huddy oder ein Charlie verbreitet?

Besonders mit Ruhm bekleckert hat es sich aber freilich nicht, das will ich gar nicht beschönigen.

Grestorn
2010-04-08, 14:43:41
Dann würde es noch weniger Sinn machen den Zugang zu beschneiden. Und in ein paar Tagen könnte man selber testen.

Bei den Karten selbst wird ja wohl ein funktionsfähiger Treiber dabei sein. Es wird keiner mit Karte aber ohne Treiber dastehen!

Malabolge
2010-04-08, 14:52:14
Weil den Treiber, wenn er Fermi-Exklusiv ist, sowieso noch niemand nutzen kann?


Aber die Benchmarks kann ja jeder (unabhängig) nachprüfen , Gelle ? Ohne Teiber , Ohne Karte ...
Aber warten wir auf Montag , den nächsten Montag , den nächsten Montag ....


Keiner hat wasvon der "Mehrleistung" einer 4xxx solange nicht 1 Stück regulär verkauft wird.
UND DAS IST FAKT und kein Hassargument gegen Nvidia !
Da kannst du dich drehen und winden wie du willst !


Jetzt muss Nvidia "Butter bei die Fische" geben, entweder Karten oder Respin oder Nachfolger!

AwesomeSauce
2010-04-08, 14:54:45
Oh mei, wenn Du das schon als Lüge siehst, wenn man eine Attrappe hochhält, was sind dann solche Marketinglügen wie sie ein Huddy oder ein Charlie verbreitet?
Ach, eigentlich haben sie immer nur die Wahrheit gesagt;D

"With activated DX11 features, the GF100 will take a performance nosedive, whereas the RV870 won't";D

Grestorn
2010-04-08, 14:58:46
Aber die Benchmarks kann ja jeder (unabhängig) nachprüfen , Gelle ? Ohne Teiber , Ohne Karte ...

Also behauptest Du ernsthaft, dass alle Reviews getürkt sind?

Woher kommt eigentlich Euer ungeheures Misstrauen? Genau das ist doch, was Iruwen als Paranoia bezeichnet hat. Und das vollkommen zurecht.

Oder hofft ihr insgeheim immer noch, dass Fermi ein noch größerer Fehlschlag ist, als der für den ihr ihn eh haltet?

Schlammsau
2010-04-08, 15:00:53
Bei EVGA gibt es nun auch 4-Way-SLI mit der GTX 480:
http://www.techpowerup.com/119615/GeForce_GTX_480_Supports_4-way_SLI_.html
http://www.brightsideofnews.com/news/2010/4/8/evga-shows-off-gtx-480-4-way-sli.aspx

Damit sollte Metro 2033 @ 3DVision Surround nichts im Wege stehen.
Wie soll den das bitte funktionieren, wenn die Rückseite eine 480 schon 80-90° heiss wird. Das wird man mit den default Kühlern niemals stabil betreiben können. Niemals!

http://pics.computerbase.de/2/9/0/4/6/1.png

Dural
2010-04-08, 15:05:10
der lüfter läuft halt anstelle der 60-70% (oder was normal ist...) auf 100%...

Botcruscher
2010-04-08, 15:06:17
Im Fur verschmilzt der ganze Block zu einem großen Stück Plastik. Sollten dann ja 4X317W sein. :freak:

Grestorn
2010-04-08, 15:06:56
Wasserkühlung. Auch für 2xSLI. Alles andere kommt eigentlich nicht in Frage.

dildo4u
2010-04-08, 15:15:19
Das PCB ist beim Lüfter ja ausgestanzt also die oberen Karten saugen so Luft von ganz unten.EVGA muss auf die Config ja auch Garantie und alles geben.

http://pics.computerbase.de/2/9/0/2/1/9.jpg

Gast
2010-04-08, 15:20:31
Das PCB ist beim Lüfter ja ausgestanzt also die oberen Karten saugen so Luft von ganz unten.EVGA muss auf die Config ja auch Garantie und alles geben.

http://pics.computerbase.de/2/9/0/2/1/9.jpg


au ja, das ändert natürlich alles.

PCGH_Raffael
2010-04-08, 15:21:55
Wir haben unser Review nun auch mit GTX-480-SLI-Werten versehen: Geforce GTX 470 und GTX 480: Test von Nvidias GF100-Generation - Update: SLI-Benchmarks mit 2 GTX 480 (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation-Update-SLI-Benchmarks-mit-2-GTX-480/Grafikkarte/Test/)

Die Werte gibt's hier: http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation-Update-SLI-Benchmarks-mit-2-GTX-480/Grafikkarte/Test/?page=17

Die beiden sind – wenig überraschend – schnell (im Schnitt über der HD 5970) und noch weniger überraschend zeigen sie die typischen MGPU-Probleme.

MfG,
Raff

Gast
2010-04-08, 15:22:19
Wie soll den das bitte funktionieren, wenn die Rückseite eine 480 schon 80-90° heiss wird. Das wird man mit den default Kühlern niemals stabil betreiben können. Niemals!

http://pics.computerbase.de/2/9/0/4/6/1.png
jaja, so ist hald wenn man null Plan hat wie die Kühlung finktioniert.

da stellt ma hald alles in Frage und macht Dinge schlecht.
deshalb ist Dein andauerndes rumgejammere nicht Ernst zu nehmen, sry

Gast
2010-04-08, 15:23:45
Also behauptest Du ernsthaft, dass alle Reviews getürkt sind?

Woher kommt eigentlich Euer ungeheures Misstrauen? Genau das ist doch, was Iruwen als Paranoia bezeichnet hat. Und das vollkommen zurecht.

Oder hofft ihr insgeheim immer noch, dass Fermi ein noch größerer Fehlschlag ist, als der für den ihr ihn eh haltet?


Ein gesundes Maß an Misstrauen sollten man zunächst allen gegenüber haben.

Ich habe ja nicht behauptet, dass die Treiber optimiert sind, sondern dass eine Wahrscheinlichkeit besteht, dass sie optimiert sein könnten und man deshalb Tests mit im Handel gekauften Karten abwarten sollte.

y33H@
2010-04-08, 15:25:34
Was unterscheidet die Launch-Karten von den Retail-Karten, wenn der Treiber gleich ist?

Botcruscher
2010-04-08, 15:26:21
Wir haben unser Review nun auch mit GTX-480-SLI-Werten versehen: Geforce GTX 470 und GTX 480: Test von Nvidias GF100-Generation - Update: SLI-Benchmarks mit 2 GTX 480 (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation-Update-SLI-Benchmarks-mit-2-GTX-480/Grafikkarte/Test/)


Verbrauch, Temp und Lautstärke wäre interessanter.

mironicus
2010-04-08, 15:29:42
Denn nVidia kann ja nur betrügen und belügen.

Betrügen tun sie doch alle. Die Treiber werden doch heute nur noch für Benchmarks optimiert.

Gast
2010-04-08, 15:29:54
[QUOTE=y33H@;7958002]Was unterscheidet die Launch-Karten von den Retail-Karten, wenn der Treiber gleich ist?
Bei Review-Karten liegen für gewöhnlich Gummibärchen und Schokolade im Karton. :)

Warum sollte man annehmen, dass Nvidia den Käufern einen langsameren Treiber mit auf den Weg gibt? Klingt für mich ziemlich unsinnig, denn Hinweise auf Cheats gab es ja aus keiner Redaktion.

Iruwen
2010-04-08, 15:30:08
Toll "optimierter" Treiber wenn bei der Hälfte der Spiele SLI nicht funktioniert ;)

Palpatin
2010-04-08, 15:30:53
Am ehesten wirds noch mit dem http://www.caseking.de/shop/catalog/Gehaeuse/Antec/Antec-Skeleton-Open-Air-Case::11393.html hier klappen 4x 480GTX , im Sommer dann am besten den ganzen Raum via Klima auf 21 Grad halten.

derguru
2010-04-08, 15:31:08
die treiber sucken aber noch gewaltig im sli und auch wenn es mal skaliert ist der abstand nicht gerade groß zur 5970.

Iruwen
2010-04-08, 15:32:47
Am ehesten wirds noch mit dem http://www.caseking.de/shop/catalog/Gehaeuse/Antec/Antec-Skeleton-Open-Air-Case::11393.html hier klappen 4x 480GTX , im Sommer dann am besten den ganzen Raum via Klima auf 21 Grad halten.

Nicht die Diskussion wieder :rolleyes:

Die Wakü muss bei 1200W nur von den Grakas aber auch schon gut was abkönnen, mit einem 08/15 Aufbau kommt man da auch nicht weit.

y33H@
2010-04-08, 15:34:13
Verbrauch, Temp und Lautstärke wäre interessanter. Ersteres ist halt SGPU-GPU-System plus zweite Karte, Temp und Lautstärke auf dem offenen Aufbau sind mit extra gekühltem SLI imo recht sinnlos. Und von NV auch so nicht gedacht.

Iruwen
2010-04-08, 15:35:53
die treiber sucken aber noch gewaltig im sli und auch wenn es mal skaliert ist der abstand nicht gerade groß zur 5970.

Wenn es mal skaliert ist der Unterschied immerhin so groß um zwischen spielbar und unspielbar entscheiden zu können.

N0Thing
2010-04-08, 15:39:00
Wir haben unser Review nun auch mit GTX-480-SLI-Werten versehen:

Prima. Könnt ihr in der Tabelle vielleicht noch die Werte der HD5870 (+CF) als weiteren Vergleichswert hinzu fügen? Oder habt ihr mit einem anderen System gebencht?

derguru
2010-04-08, 15:39:03
Wenn es mal skaliert ist der Unterschied immerhin so groß um zwischen spielbar und unspielbar entscheiden zu können.

jo in metro2033,komm hör auf.:freak:

Iruwen
2010-04-08, 15:42:00
jo in metro2033,komm hör auf.:freak:

Man könnte die Tabelle auch auf Crysis und Metro reduzieren, woanders interessierts eh nicht :freak: Außer Multimonitor/3D.

derguru
2010-04-08, 15:49:42
in crysis ist der unterschied genauso gering,überhaupt eine 5970 mit einer 480gtx sli combi zu vergleichen ist nicht gerade sinnvoll,2*5870 karten sind ~15% schneller als eine 5970.

y33H@
2010-04-08, 16:00:52
@ N0Thing

Gleiches Sys, musst die Werte von den Spiele-Seiten kratzen :usad:

Gast
2010-04-08, 17:07:45
Die beiden sind – wenig überraschend – schnell (im Schnitt über der HD 5970) und noch weniger überraschend zeigen sie die typischen MGPU-Probleme.

MfG,
Raff

Schnell ist bei euch wohl relativ, da sind mir zuviele Spiele ohne funktionierendes SLI dabei. Noch skurriller sind die die sogar mit SLI weniger SLI liefern.

Mal eine Frage, ist es möglich, dass der Fermi im SLI-Betrieb uneffektiver geworden ist, oder ist das alles noch ein Treiberproblem?

y33H@
2010-04-08, 17:21:06
Skurril? Nein, MGPU im CPU-Limit oder Treiber-Fail :ulol:

Gouvernator
2010-04-08, 17:21:27
Die SLI Settings waren zu schwach. Ich erwarte mindestens FullHD 1080p@8xAA. Die 1680x1050@4xAA schafft ja meine HD4870 auch noch spielbar.

Gast
2010-04-08, 17:25:04
die treiber sucken aber noch gewaltig im sli und auch wenn es mal skaliert ist der abstand nicht gerade groß zur 5970.

Hast du eine Kristallkugel zu hause? Wie willst du wissen, wie die fps aussehen, wenn es mal richtig skaliert? Denn selbst bei den Spielen wo sich das GTX480-SLI-System jetzt absetzen kann, scheint es noch nicht richtig zu skalieren.

y33H@
2010-04-08, 17:33:14
@ Gouvernator

2560 mit 4x ist "schwach"? Ah ja ... MGPU ist Randthema.

Blaire
2010-04-08, 17:33:20
die treiber sucken aber noch gewaltig im sli und auch wenn es mal skaliert ist der abstand nicht gerade groß zur 5970.

Wo sucken denn die Treiber? Sind doch ganz normale Werte, man muss die Karten auch richtig füttern und nicht ins CPU Limit laufen lassen.

http://img168.imageshack.us/img168/6057/cw2.jpg ;)
DX11 ist ein Tipfehler wurde schon im Review korrigiert.

Gast
2010-04-08, 18:50:51
Verbrauch, Temp und Lautstärke wäre interessanter.

Da würden das Fermi SLI wieder uralt ausschauen gegen die 5970 geht doch bei PCGH nicht.

Gast
2010-04-08, 18:55:04
Wo sucken denn die Treiber? Sind doch ganz normale Werte, man muss die Karten auch richtig füttern und nicht ins CPU Limit laufen lassen.

http://img168.imageshack.us/img168/6057/cw2.jpg ;)
DX11 ist ein Tipfehler wurde schon im Review korrigiert.


Ohne Frametimes sagen die MGPU-benchmarks nichts über Spielbarkeit aus.
Der Balken ist jedenfalls länger, alles andere ist zweitrangig.

Gouvernator
2010-04-08, 18:58:28
@ Gouvernator

2560 mit 4x ist "schwach"? Ah ja ... MGPU ist Randthema.
Ahh, ich war zu dämlich den Button zu sehen...

Blaire
2010-04-08, 19:01:33
Ohne Frametimes sagen die MGPU-benchmarks nichts über Spielbarkeit aus.
Der Balken ist jedenfalls länger, alles andere ist zweitrangig.

Wenn es sich so verhält wie GTX285@TriSLI dann ist das auf jeden Fall spielbar.

derguru
2010-04-08, 19:03:57
Wo sucken denn die Treiber? Sind doch ganz normale Werte, man muss die Karten auch richtig füttern und nicht ins CPU Limit laufen lassen.

http://img168.imageshack.us/img168/6057/cw2.jpg ;)
DX11 ist ein Tipfehler wurde schon im Review korrigiert.

wieso zeigst du mir werte von einem anderen review? und vorallem wer spricht von einem spiel,ich mein gesamtbetrachtet im pcgh review und dort ist eine skalierung nur bei 6 von 12 spielen zusehen.

ZÜNDELholz
2010-04-08, 19:06:08
Wenn es sich so verhält wie GTX285@TriSLI dann ist das auf jeden Fall spielbar.

Es fehlen von Dir , nach wie vor, Framtimeaufzeichnungen in Spasstigers Ruckelfaktor-Thread :wink:

Gast
2010-04-08, 19:08:53
Ein 5870 Crossfire ist auch nicht dabei bei dem PCGH test. Ein schelm der sich da denkt vielleicht skalliert das besser.

Blaire
2010-04-08, 19:12:42
wieso zeigst du mir werte von einem anderen review? und vorallem wer spricht von einem spiel,ich mein gesamtbetrachtet im pcgh review und dort ist eine skalierung nur bei 6 von 12 spielen zusehen.

Schau auf die Games dann sollte dir ein Licht aufgehn. Mass Effect2 scheint überhaupt kein SLI zu funktionieren (Profilproblem), Dirt2 DX11 ebenso, NFS Shift spielt die CPU sicher auch mit rein, ebenso bei Anno. Ich sehe da jetzt nichts ungewöhnliches.

Es fehlen von Dir , nach wie vor, Framtimeaufzeichnungen in Spasstigers Ruckelfaktor-Thread :wink:

Wie auch , hab derzeit kein SLi. :wink: Die Frametimes zeigen zudem leider nicht die ganze Wahrheit.

derguru
2010-04-08, 19:14:51
ja und wovon rede ich?ich rede von treiber sucken und dazu gehören auch die profile,was gibts da nicht zu verstehen?

Blaire
2010-04-08, 19:16:14
ja und wovon rede ich?ich rede von treiber sucken,was gibts da nicht zu verstehen?

Die Profile sucken...aber wir sind hier bei Nvidia da kann man sich seine Profile selbst erstelln.

derguru
2010-04-08, 19:22:09
:facepalm:

Blaire
2010-04-08, 19:25:10
:facepalm:

Ja, darüber sollte man sich im Klaren sein, das man für MultiGPU auch passende Profile braucht.

SLI: Eine Sache von wenigen Minuten...
Crossfire: Eine Sache von mehreren Tagen...

Schlammsau
2010-04-08, 19:29:08
Ja, darüber sollte man sich im Klaren sein, das man für MultiGPU auch passende Profile braucht.

SLI: Eine Sache von wenigen Minuten...
Crossfire: Eine Sache von mehreren Tagen...

Nein, sogar weniger als ein paar Minuten.....exe renaming reicht normalerweise!
Ausserdem hat man bei Crossfire neuerdings die Möglichkeit Profile downzuloaden. Aber das weisst du ganz genau!

derguru
2010-04-08, 19:34:19
mal im ernst,sogar exe renaming hab ich schon sehr lange nicht gebraucht und für den notfall 1 sek. arbeit.;)

Blaire
2010-04-08, 19:35:57
Nein, sogar weniger als ein paar Minuten.....exe renaming reicht normalerweise!

Du kannst nicht von einem Reviewer erwarten, daß sie alle EXE durchprobiern. :tongue:

Ausserdem hat man bei Crossfire neuerdings die Möglichkeit Profile downzuloaden. Aber das weisst du ganz genau!

Und was ändert das an meiner Aussage?
Trotzdem kann ich mir keine Profile selber erstelln und das ist eigentlich das Mindeste was man erwarten darf, gerade bei einem MultiGPU System was auf Profile angewiesen ist.

boxleitnerb
2010-04-08, 19:36:32
Bei Nvidia bekommt man die Profile mit dem Treiber bequem mitgeliefert - oftmals Wochen oder gar Monate, bevor ein Spiel überhaupt erscheint.
AMD kann nicht erwarten, dass man sie selbst runterlädt - nicht, wenn es so eine gute und funktionierende Lösung von der Konkurrenz gibt.

exe renaming ist eine Pfuschlösung. Es ist nicht eindeutig (ein exe Name für verschiedene Spiele, z.B. um AA und HDR zu ermöglichen) und es kann und wird in einigen Fällen mit dem Kopierschutz von Spielen kollidieren. Auch hier ist Nvidias Lösung einfach besser. Zumal man auch hier wieder selbst Hand anlegen muss anstatt dass es einfach out-of-the-box funktioniert, so wie es sich gehört.

corvus
2010-04-08, 19:40:14
NV oder nHancer...und bits von einem andern Spiel einstellen ist im Grunde nix anderes wie die EXE ändern.

Allerdings würd ich mir CF oder Multi GPU mit ATI auch nie mehr antun.

Schlammsau
2010-04-08, 19:40:19
Du kannst nicht von einem Reviewer erwarten, daß sie alle EXE durchprobiern. :tongue:



Und was ändert das an meiner Aussage?
Trotzdem kann ich mir keine Profile selber erstelln und das ist eigentlich das Mindeste was man erwarten darf, gerade bei einem MultiGPU System was auf Profile angewiesen ist.

Das ist doch jammern auf hohem Niveau....wenn CF mal ein Game nicht unterstützt kann man ein paar exen durchprobieren oder in Foren wühlen.
Oder ATi bietet Profile (mittlerweile) zum Download an. Man braucht nichtmal ein Tool wie den nHancer. Einfach installen und fertig.

Darf ich an nVidias DiRT2 "Debakel" erinnern, wo es auch 3 oder 4 Wochen gedauert hat, bis funktionierende SLi-Profile vorhanden waren!? Da hat auch das selber rumfrickeln nichts gebracht.

Gast
2010-04-08, 19:50:03
Bei Nvidia bekommt man die Profile mit dem Treiber bequem mitgeliefert - oftmals Wochen oder gar Monate, bevor ein Spiel überhaupt erscheint.
AMD kann nicht erwarten, dass man sie selbst runterlädt - nicht, wenn es so eine gute und funktionierende Lösung von der Konkurrenz gibt.

exe renaming ist eine Pfuschlösung. Es ist nicht eindeutig (ein exe Name für verschiedene Spiele, z.B. um AA und HDR zu ermöglichen) und es kann und wird in einigen Fällen mit dem Kopierschutz von Spielen kollidieren. Auch hier ist Nvidias Lösung einfach besser. Zumal man auch hier wieder selbst Hand anlegen muss anstatt dass es einfach out-of-the-box funktioniert, so wie es sich gehört.

Bei dem neuen Treibern von ATI kann man beim Installieren auswählen Anwendungsprofile werden also auch mitgeliefert. Immer wieder schön zu sehen wenn behauptet wird NV hat bessere Treiber.
War vielleicht mal so.

boxleitnerb
2010-04-08, 19:51:28
Hat auch lang genug gedauert :rolleyes:

Blaire
2010-04-08, 19:59:04
Das ist doch jammern auf hohem Niveau....wenn CF mal ein Game nicht unterstützt kann man ein paar exen durchprobieren oder in Foren wühlen.

Und was ist wenn ein Game kein EXE Renaming erlaubt? Einzelfälle zugegeben, aber das gibts. Ohne Profilbearbeitung ist man von Ati abhängig.

Oder ATi bietet Profile (mittlerweile) zum Download an. Man braucht nichtmal ein Tool wie den nHancer. Einfach installen und fertig.

Und was macht man wenn das Profil nicht gut genug ist? Siehst du...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7958265&postcount=3623
Warum wohl skaliert QuadCF 5970 so mies...

Darf ich an nVidias DiRT2 "Debakel" erinnern, wo es auch 3 oder 4 Wochen gedauert hat, bis funktionierende SLi-Profile vorhanden waren!? Da hat auch das selber rumfrickeln nichts gebracht.

Woher weisst du das? Hast du es selber probiert? Ansonsten haltlose Behauptung. Bislang hab ich noch jedes Game zu SLI überreden können.

y33H@
2010-04-08, 19:59:09
@ Schlammsau

Es gibt Spiele, da sind die IHVs "unschuldig".

Vertigo
2010-04-08, 20:00:32
Bei dem neuen Treibern von ATI kann man beim Installieren auswählen Anwendungsprofile werden also auch mitgeliefert. Immer wieder schön zu sehen wenn behauptet wird NV hat bessere Treiber.
War vielleicht mal so.
Das war ganz sicher mal so. Wieviele Blockbuster der letzten Jahre liefen bei Release schlecht oder gar nicht mit den seinerzeit aktuellen ATI-Treibern? Wenn sich da nachhaltig was ändert, unterhalten wir uns nochmal. Die Sache mit den Profilen war überfällig. Die Kopplung nutzlicher Tweaks mit Bildqualitätseinbußen ist bei AI immernoch aktuell, oder?

y33H@
2010-04-08, 20:02:45
AMD wäre auch "dumm", wenn sie AI in BQ und Fixes splitten würden. Siehe Crysis'sches Gammel-AF @ HD5k.

Gast
2010-04-08, 20:05:19
Siehe Crysis'sches Gammel-AF @ HD5k.
wtf? :confused:

y33H@
2010-04-08, 20:09:48
In Crysis flimmert das AF böse und man schiebt kräftig Banding vor sich her. Bereits NVs Treiber-Default einer Geforce ab G80 ist weitaus besser, HQ eine Offenbarung. Übrigens ist der Fps-Verlust bei einer HD5870 durch 16:1 AF sehr gering - ein Schelm, wer böses denkt ;)

Gast
2010-04-08, 20:24:34
Stimmt siehe:

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation-Update-SLI-Benchmarks-mit-2-GTX-480/Grafikkarte/Test/?page=3

Abschnitt AF-Defizite im Blick;)

DrFreaK666
2010-04-08, 20:28:50
Banding ist echt ne üble Sache.
Das hat mich schon bei meiner Radeon 8500 gestört.
Aber damals war es ja noch schlimmer

Raff
2010-04-08, 20:29:42
Der R200 beherrscht ja auch nur (häääässliches), reines Bi-AF, gegen das das häässliche (weniger ä!) NV4x/G7x-Quality extrem geil aussieht. :ulol:

MfG,
Raff

Gast
2010-04-08, 20:30:40
Man kann ATI nicht mehr mit der Firma vergleichen die sie mal war, bevor sie von AMD übernommen worden ist.
Wenn ATI jetzt noch etwas Geld in ihre Treiber investieren und die AF-qualität auf Nvidia HQ Niveau bringt, dann würden viele eingefleischte Nvidiafans zu ATI wechseln.

Ich nehm's schonmal vorweg.... aber CUDA, PhysX, 3D Vision, Metro2033, bla bla...

DrFreaK666
2010-04-08, 20:36:20
Der R200 beherrscht ja auch nur (häääässliches), reines Bi-AF, gegen das das häässliche (weniger ä!) NV4x/G7x-Quality extrem geil aussieht. :ulol:

MfG,
Raff

Das waren noch Zeiten :biggrin:

Gast
2010-04-08, 20:36:21
Man kann ATI nicht mehr mit der Firma vergleichen die sie mal war, bevor sie von AMD übernommen worden ist.
Wenn ATI jetzt noch etwas Geld in ihre Treiber investieren und die AF-qualität auf Nvidia HQ Niveau bringt, dann würden viele eingefleischte Nvidiafans zu ATI wechseln.

Ich nehm's schonmal vorweg.... aber CUDA, PhysX, 3D Vision, Metro2033, bla bla...

Wenn ATI noch ne alternative Physx GPU Lösung integriert, wenn Stream mal gepusht wird und wenn die Treiber nicht bei fast jedem Blockbuster an Anfang bocken, könnte mich ATI überzeugen, jo.

DrFreaK666
2010-04-08, 20:37:19
Wenn ATI noch ne alternative Physx GPU Lösung integriert, wenn Stream mal gepusht wird und wenn die Treiber nicht bei fast jedem Blockbuster an Anfang bocken, könnte mich ATI überzeugen, jo.

"fast jedem Blockbuster"? Welche denn?

corvus
2010-04-08, 20:38:12
In Crysis flimmert das AF böse und man schiebt kräftig Banding vor sich her. Bereits NVs Treiber-Default einer Geforce ab G80 ist weitaus besser, HQ eine Offenbarung. Übrigens ist der Fps-Verlust bei einer HD5870 durch 16:1 AF sehr gering - ein Schelm, wer böses denkt ;)

Deswegen kannste mir den Fermi Gammelkram trotzdem nicht schmackhaft machen...und Crysis...wenn juckt das noch.

Gast
2010-04-08, 20:38:56
GTA4, Anno, Saboteur. Die fallen mir alle spontan ein, weil ich die Spiele.

DrFreaK666
2010-04-08, 20:40:34
GTA4, Anno, Saboteur. Die fallen mir alle spontan ein, weil ich die Spiele.

Dann sind in den letzten Monaten aber wenige Blockbuster erschienen.
Bei GTA und Saboteur lag es afaik am Entwickler und Saboteur ist kein Blockbuster

Gast
2010-04-08, 20:45:38
Bei GTA und Saboteur lag es afaik am Entwickler und Saboteur ist kein Blockbuster
Korrekt.
Beide Problem-Spiele sind durch Patches der Entwickler verbessert worden.
Neue Treiber bringen nichts.
Ergo - Problem beim Spielhersteller.

Gast
2010-04-08, 20:46:18
Dann sind in den letzten Monaten aber wenige Blockbuster erschienen.
Bei GTA und Saboteur lag es afaik am Entwickler und Saboteur ist kein Blockbuster

Klar ich könnte afaik sagen es liegt an ATI;) Fakt ist die Spiele liefen am Anfang nicht. Und Saboteur könnte man auch als Blockbuster sehen. Oder zumindest als sehr gutes Spiel.

DrFreaK666
2010-04-08, 20:49:52
Klar ich könnte afaik sagen es liegt an ATI;) Fakt ist die Spiele liefen am Anfang nicht. Und Saboteur könnte man auch als Blockbuster sehen. Oder zumindest als sehr gutes Spiel.

Zumindest bei GTA wurde es mit jedem Patch besser.
Bei Saboteur habe ich es nicht beobachtet, ausserdem ist es eher über-durchschnittlich (bei metacritic: 76% -- bei gamerankings: 72.42%)

Gast
2010-04-08, 20:51:35
Hier hab ich nochwas böses. Auch mal wieder ATI mit Bad Company 2. Ein für mich Blockbuster Spiel.

http://www.bf-games.net/readnews/9596/bad_company_2_ati_wenn_s_mal_wieder_laenger_dauert.html

DrFreaK666
2010-04-08, 20:57:40
Hier hab ich nochwas böses. Auch mal wieder ATI mit Bad Company 2. Ein für mich Blockbuster Spiel.

http://www.bf-games.net/readnews/9596/bad_company_2_ati_wenn_s_mal_wieder_laenger_dauert.html

Die haben vielleicht Probleme.
Sie sind wohl zu jung um den C64 zu kennen und haben noch nie Ecstatica mit einem 2x-CD-Laufwerk installiert...

Gast
2010-04-08, 21:02:23
Ob die jetzt jung sind oder nicht spielt ja keine Rolle. Das ist halt mehr als ärgerlich. Wie gesagt, sowas schreckt halt ab. Und ich denke wenn man mal weitergoogelt gibts noch mehr Probleme seitens ATI und Blockbustertitel;)

y33H@
2010-04-08, 21:03:24
In Mass Effect 2 ging anfangs kein AA, in Total War (Empire/Napoléon) geht nur SSAO oder MSAA, in Bioshock 1/2 geht AA nur unter DX10 (bei NV auch @ DX10), NfS Shift liegt vor Patch #2 extrem lahm, Saboteur und GTA4 und Anno 1404 hatten wir schon, in CoD MW2 stellen die Radeon teils kein DoF dar, Borderlands lief zu Beginn auf Radeons auch extrem lahm, das FC2-Problem ist altbekannt und das mit UT3 ebenfalls.

Klar, auf ner Geforce spackt's auch mal - aber schlicht nicht in diesem Ausmaß und dieser Häufigkeit.

Gast
2010-04-08, 21:16:04
In Mass Effect 2 ging anfangs kein AA, in Total War (Empire/Napoléon) geht nur SSAO oder MSAA, in Bioshock 1/2 geht AA nur unter DX10 (bei NV auch @ DX10), NfS Shift liegt vor Patch #2 extrem lahm, Saboteur und GTA4 und Anno 1404 hatten wir schon, in CoD MW2 stellen die Radeon teils kein DoF dar, Borderlands lief zu Beginn auf Radeons auch extrem lahm, das FC2-Problem ist altbekannt und das mit UT3 ebenfalls.

Klar, auf ner Geforce spackt's auch mal - aber schlicht nicht in diesem Ausmaß und dieser Häufigkeit.

Du sagst es. Da liegt doch die Vermutung nahe das ATI mit diesem Bug gar nichts zu tun hatte.

Gast
2010-04-08, 21:22:45
Mhhh.....

750/1952/1501 @ 0.83V - 70°C

http://j.imagehost.org/0032/10_Minutes.jpg

Sieht doch ganz gut aus.
Quelle: http://www.evga.com/forums/tm.aspx?&m=285823&mpage=2

Gast
2010-04-08, 21:22:51
In Mass Effect 2 ging anfangs kein AA, in Total War (Empire/Napoléon) geht nur SSAO oder MSAA, in Bioshock 1/2 geht AA nur unter DX10 (bei NV auch @ DX10), NfS Shift liegt vor Patch #2 extrem lahm, Saboteur und GTA4 und Anno 1404 hatten wir schon, in CoD MW2 stellen die Radeon teils kein DoF dar, Borderlands lief zu Beginn auf Radeons auch extrem lahm, das FC2-Problem ist altbekannt und das mit UT3 ebenfalls.


Ja, und? Gerade bei Anno war der Fehler ja umgehbar, indem man halt nicht den neusten Treiber nutzte.
Das ist das einzige Argument gegen ATI, welches ich immer und immer wieder höre. Klar, das ist bei ATI sicher noch verbesserbar; für den geduldigen Spieler, der die Games eh erst Wochen oder Monate nach erscheinen kauft (ergo nach der 1.Patchwelle und nach überarbeiteten Treiber), ist das sowieso kein Problem. Die anderen müssen halt auf NV warten bzw. eine technisch veraltete Graka der Kalifornier kaufen.

Grestorn
2010-04-08, 21:24:06
Patches des Spiels können grundsätzlich auch immer theoretisch einen Workaround für einen Bug oder eine Unzulänglichkeit im Treiber beinhalten.

Eigentlich sollte es gar nicht notwendig sein, dass ein Spiel etwas speziell für eine Grafikkarte anders macht.

Gast
2010-04-08, 21:30:00
Mhhh.....

750/1952/1501 @ 0.83V - 70°C

http://j.imagehost.org/0032/10_Minutes.jpg

Sieht doch ganz gut aus.
Quelle: http://www.evga.com/forums/tm.aspx?&m=285823&mpage=2

Naja, der Lüfter dreht aber auch schön hoch.

"Can't seem to get it loaded to a full 100% without going full screen and then i wouldn't be able to show you precision... Anyway, here's a shot of 800/1600/2000 @ 93% load: "

Noise level isn't too bad... no worse than one of My GTX 280's at 100% fan speed...

Undertaker
2010-04-08, 21:30:39
Borderlands lief zu Beginn auf Radeons auch extrem lahm

Und läuft es immernoch. Mir ist nicht aufgefallen, dass dies mit einem späteren Treiber mal spürbar schneller geworden wäre... :confused:

boxleitnerb
2010-04-08, 21:31:18
Du sagst es. Da liegt doch die Vermutung nahe das ATI mit diesem Bug gar nichts zu tun hatte.

Der im Falle von gutem Dev-Support seitens ATI evtl. gar nicht erst den Sprung in die Verkaufsversion geschafft hätte. Wer Schuld ist, ist erstmal zweitrangig. Den Spieler interessiert das nämlich nicht die Bohne - er merkt nur, es klappt nicht und ärgert sich. Man muss hier auch den ganzen Entwicklungsprozess eines Spiels/einer Anwendung berücksichtigen, in den in gewissem geringem Maße die IHVs auch eingebunden sind.

Gast
2010-04-08, 21:33:25
Der hat den Lüfter auf 100% bei 76 % GPU Temp. Lärmresistent scheint der auch zu sein.

Gast
2010-04-08, 21:34:28
Ups sorry, ich meinte 76 Grad, sorry.

kmf
2010-04-08, 21:34:46
650$ ... ;D http://www.evga.com/products/prodlist.asp?family=GeForce+400+Series+Family

Die haben doch echt eine an der Birne.

Gast
2010-04-08, 21:37:39
Der im Falle von gutem Dev-Support seitens ATI evtl. gar nicht erst den Sprung in die Verkaufsversion geschafft hätte. Wer Schuld ist, ist erstmal zweitrangig. Den Spieler interessiert das nämlich nicht die Bohne - er merkt nur, es klappt nicht und ärgert sich. Man muss hier auch den ganzen Entwicklungsprozess eines Spiels/einer Anwendung berücksichtigen, in den in gewissem geringem Maße die IHVs auch eingebunden sind.

Was wenn man sich auf den DEV-Support von nVidia verlassen hat und immer fleißig deren Code-schnippsel eingebaut hat?
Auf die Idee das es auf ATI-Karten nicht richtig läuft aber nicht gekommen ist?
Wasn Satz :ugly:

Ist reine specu. Wissen wird es wohl nur einer.

Don Vito
2010-04-08, 21:38:00
650$ ... ;D http://www.evga.com/products/prodlist.asp?family=GeForce+400+Series+Family

Die haben doch echt eine an der Birne.

Wieso, rehcne doch mal um. Es wären 500 euro, wenn in De nicht 1:1 umgerechnet würde.
Und 650 euro sind auch net zuviel.
Kauf doch mal eine Wakü, Graka 500 Wakü nochmal 120-160 Euro, also kaum teurer als selbstumbau aber dafür Garantie.

Gast
2010-04-08, 21:38:38
650$ ... ;D http://www.evga.com/products/prodlist.asp?family=GeForce+400+Series+Family

Die haben doch echt eine an der Birne.

Naja, geoced, Wakü + 10 Jahre Garantie. Das wird schon gekauft werden.

Iruwen
2010-04-08, 21:41:56
Ja, und? Gerade bei Anno war der Fehler ja umgehbar, indem man halt nicht den neusten Treiber nutzte.
Das ist das einzige Argument gegen ATI, welches ich immer und immer wieder höre. Klar, das ist bei ATI sicher noch verbesserbar; für den geduldigen Spieler, der die Games eh erst Wochen oder Monate nach erscheinen kauft (ergo nach der 1.Patchwelle und nach überarbeiteten Treiber), ist das sowieso kein Problem. Die anderen müssen halt auf NV warten bzw. eine technisch veraltete Graka der Kalifornier kaufen.

Resident Evil 5 lief im Februar noch nicht auf meiner HD 4850.

Blaire
2010-04-08, 21:48:21
Mhhh.....

750/1952/1501 @ 0.83V - 70°C

http://j.imagehost.org/0032/10_Minutes.jpg

Sieht doch ganz gut aus.
Quelle: http://www.evga.com/forums/tm.aspx?&m=285823&mpage=2

Undervolting scheint auch ganz gut zu funktionieren. :)

Gast
2010-04-08, 21:50:13
Heaven @ 800/1600/2000

FPS 33
Score 832.

Mal schauen was der noch so bencht:)

Malabolge
2010-04-08, 22:00:14
Also behauptest Du ernsthaft, dass alle Reviews getürkt sind?

Woher kommt eigentlich Euer ungeheures Misstrauen? Genau das ist doch, was Iruwen als Paranoia bezeichnet hat. Und das vollkommen zurecht.

Oder hofft ihr insgeheim immer noch, dass Fermi ein noch größerer Fehlschlag ist, als der für den ihr ihn eh haltet?


Du bist doch ....

Hat Ihr irgendjemand was von getürkt geschrieben ? Nein du INTERPRETIERST hier wieder irgendwas böses gegen die "guten" von NVIDIA!
Wie wärs einfach mit Nachvollziehbarkeit ? was Limitiert , was ist besser ?

Grestorn
2010-04-08, 22:03:35
Wenn ein Review nicht nachvollziehbar ist, was ist er dann? Ich nenne ihn dann einfach getürkt. Wobei das je eigentlich politisch inkorrekt ist. Sagen wir einfach, der Test ist dann schwul ... :)

Schlammsau
2010-04-08, 22:04:52
Wieso, rehcne doch mal um. Es wären 500 euro, wenn in De nicht 1:1 umgerechnet würde.
Und 650 euro sind auch net zuviel.
Kauf doch mal eine Wakü, Graka 500 Wakü nochmal 120-160 Euro, also kaum teurer als selbstumbau aber dafür Garantie.

Es wird aber 1:1 umgerechnet. Sieht man ja deutlich an den Preisen der HD5800er Serie. Aber eVGA war schon immer teurer als die Konkurrenz.

Gast
2010-04-08, 22:12:26
Es wird aber 1:1 umgerechnet. Sieht man ja deutlich an den Preisen der HD5800er Serie. Aber eVGA war schon immer teurer als die Konkurrenz.
500€ + über 100€ für den Wakühler

Wo um Himmels willen siehst du da eine Überteuerung?
Beim Selbstbau verliert man Garantie. Hier für weniger als 50€ mehr nicht.
Bei 500€ Grafikkarten erachte ich Garantie als sehr nützlich. Keine Ahnung ob dir Ersatz unwichtig ist. Scheinbar schon, 500€ liegen dir nicht so am Herzen.

Obendrauf gibts die Übertaktung seitens EVGA. Egal ob man das jetzt braucht oder nicht, jedenfalls kostet das alleine ohne jegliche Änderungen gerne 50€ oder gar mehr.

LovesuckZ
2010-04-08, 22:15:32
Undervolting scheint auch ganz gut zu funktionieren. :)

Mit welchem Tool? Mir ist keins bekannt zZ. Eventuell kommen die Karten auch mit weniger Spannung als die Reviewkarten...

Gast
2010-04-08, 22:15:47
Und für mich ist EVGA nebenher der Beste Boardpartner von NV. Kein Vergleich zu XFX, welche ich auch schon hatte. 10 Jahre Garantie, Wakü drauf und geoced. Der Preis ist mehr als angemessen.

Schlammsau
2010-04-08, 22:16:33
500€ + über 100€ für den Wakühler

Wo um Himmels willen siehst du da eine Überteuerung?
Beim Selbstbau verliert man Garantie. Hier für weniger als 50€ mehr nicht.
Bei 500€ Grafikkarten erachte ich Garantie als sehr nützlich. Keine Ahnung ob dir Ersatz unwichtig ist. Scheinbar schon, 500€ liegen dir nicht so am Herzen.

Obendrauf gibts die Übertaktung seitens EVGA. Egal ob man das jetzt braucht oder nicht, jedenfalls kostet das alleine ohne jegliche Änderungen gerne 50€ oder gar mehr.

Wo sehe ich eine Überteuerung? :confused:

Gast
2010-04-08, 22:17:27
Aber eVGA war schon immer teurer als die Konkurrenz.
Wo sehe ich eine Überteuerung? :confused:Verstehst du deine eigenen Beiträge nicht?

Schlammsau
2010-04-08, 22:19:10
Verstehst du deine eigenen Beiträge nicht?

evga ist und war immer teurer als die Konkurrenz!

Gast
2010-04-08, 22:20:11
evga ist und war immer teurer als die Konkurrenz!
Scheinbar nicht, wie die Rechnung zeigt!

Don Vito
2010-04-08, 22:20:34
Sehr Seltsam...

Beide bei alternate.

GTX 480 Asus 499 Euro
GTX 480 EVGA 499 Euro

Wo ist nun die normale von EVGA teurer?


ich kaufe nun als Bsp. eine 480 von Asus 500 euro+ Wakü 100 Europ macht 600 Euro und Garantieverlust.

EVGA Hydrocopper inkl Wakü + Garantie 649 euro... stimmt lohnt sich auf keinen Fall, 50 Euro ist da zuviel, wer braucht schon Garantie.:rolleyes:

Malabolge
2010-04-08, 22:21:58
Wenn ein Review nicht nachvollziehbar ist, was ist er dann? Ich nenne ihn dann einfach getürkt. Wobei das je eigentlich politisch inkorrekt ist. Sagen wir einfach, der Test ist dann schwul ... :)

Du meinst also PCGH, Hardwareluxx, Computerbase und ... haben ihre G4xx Reviwes getürkt ?:eek:
Nicht Nachvollziehbar heisst nicht getürkt ! Etwas selbst nachprüfen noch ansehen zu wollen ist also schon zu Kritisch ?
und versuch erst gar nicht , wieder den SInn der Worte zu verdrehen.

Hätte das allgemeine Review ( bzw die Meinung) über die G4xx einfach "besser" sein müssen? ( Deiner Meinung nach ?)


Sehr schön zu erfahren was für eine "Hohe" Meinung von den Redaktionen du hier und im Inet hast. Haben sicher alle gen Nvidia -gebasht und getürkt.:D;D
Demaskierend , wie du um dich schlägst wenn du mit den Fakten nicht klar kommst.
Niemand hier will dem Lieben Nvidia hier weh tun.


Ps: Warum errinnert mich das immer an H. Schmidt : Das gute A! Das gute A!

Und bevor jetzt hier weiterherumsinnierst. Kuck erstmal was ich damit meine.
Nein , Nicht Ati ;D;D:D:D:D

Blaire
2010-04-08, 22:25:07
Mit welchem Tool? Mir ist keins bekannt zZ. Eventuell kommen die Karten auch mit weniger Spannung als die Reviewkarten...

Jetzt wo du es sagst fällts mir auch auf. Vieleicht ist das auch der Grund warum sich die Karten verspäten?

Gast
2010-04-08, 22:26:30
ich kaufe nun als Bsp. eine 480 von Asus 500 euro+ Wakü 100 Europ macht 600 Euro und Garantieverlust.

EVGA Hydrocopper inkl Wakü + Garantie 649 euro... stimmt lohnt sich auf keinen Fall, 50 Euro ist da zuviel, wer braucht schon Garantie.:rolleyes:
Die Wakü EVGA ist zudem übertaktet.

Entweder das ist Gratis oder die Garantie.
Nicht gerade schlimm in dem Hochpreissegment solch freundlichen Preise. ;D

Don Vito
2010-04-08, 22:29:18
Finde die Preise noch human.
die 8800 GTX Hydrocopper kostete 850 Euro anfangs im Gegensatz zur normalen GTx ab 580 Euro oder so.

y33H@
2010-04-08, 22:36:46
@ Malabolge

Zumindest bei PCGH gibt's für jeden Benchmark eine Anleitung samt Savegame und Video :P

Grestorn
2010-04-08, 23:10:15
Du hast doch davon gefaselt, die Reviews wären nicht nachvollziehbar, nicht ich.

Was gibt es denn noch für Gründe, warum ein Review generell nicht nachvollziehbar ist, wenn dabei alles mit rechten Dingen zugegangen wäre?

Dass Du das Review (mangels HW) nicht nachvollziehen kannst, heist doch nicht, dass es generell nicht nachvollziehbar ist.

Du behauptest, alle Reviews wären nicht nachvollziehbar, weil keine Privatperson bisher selbst testen konnte, und unterstellst damit allen Reviews, dass sie nicht die Realität wiedergeben, sprich getürkt sind.

Und Du solltest wirklich an Form und Inhalt Deiner Postings arbeiten, das ist ja kaum zu ertragen!

tombman
2010-04-08, 23:46:30
650€ für die Hydrocopper ist normal, wenn man weiß wieviel Vollflächenwasserkühler kosten!
500€+ 1xx€ +OC +Garantie ~ 650€ ;)

Blos, daß man bei der 480er keinen Vollflächenkühler mehr braucht- ich werde 20€ Gpu-only Kühlerr verwenden ;)

Popeljoe
2010-04-08, 23:48:11
Au man, demnächst dann das gerusste Rev von Leo? :rolleyes:
Fahrt mal flachere Bälle, bitte!

tombman
2010-04-08, 23:51:24
gerusste Rev von Leo?
Wasn dat? :confused:

Gast
2010-04-09, 02:39:32
Wasn dat? :confused:


Wenn ein Review nicht nachvollziehbar ist, was ist er dann? Ich nenne ihn dann einfach getürkt. Wobei das je eigentlich politisch inkorrekt ist. Sagen wir einfach, der Test ist dann schwul ... :)

Au man, demnächst dann das gerusste Rev von Leo? :rolleyes:
Fahrt mal flachere Bälle, bitte!

xD

tombman
2010-04-09, 02:51:50
"Gerusst" von "Russen"?
"Rev" von "Review"?

:D

Gast
2010-04-09, 03:22:13
"Gerusst" von "Russen"?
"Rev" von "Review"?

:D
Jup :)

N0Thing
2010-04-09, 08:59:50
AMD wäre auch "dumm", wenn sie AI in BQ und Fixes splitten würden. Siehe Crysis'sches Gammel-AF @ HD5k.

Sie könnte doch einfach alle Fixes oder keine zur Auswahl stellen und zusätzlich die Wahl zwischen der bekannten AF-Qualität und eine HQ-Option, die Nvidia in nichts nachsteht. Gebencht wird ja auch bei NV in Q, man hätte für interessierte Kunden einfach eine zusätzliche Wahlmöglichkeit.

Vielleicht sollte man eine Petition anleiern, damit ATI merkt, daß eine solche Wahlmöglichkeit wirklich gewünscht ist. Jeder nur ein Kreuz

boxleitnerb
2010-04-09, 09:03:02
Und was bringen 100 Kreuze? :)
Das juckt die keinen Meter.

Skinner
2010-04-09, 09:03:26
Ich sehe gerade das EVGA SLI mit 4 GTX480 gezeigt hat. Gibts dafür eigentlich schon passende Netzteile?

N0Thing
2010-04-09, 09:08:54
Und was bringen 100 Kreuze? :)
Das juckt die keinen Meter.

Ab einer Gewissen Menge an Emails sollten die das Thema doch zumindest überdenken. Ich frage mich sowieso, ob es wirklich eine Herausforderung darstellt, einen HQ-Modus anzubieten, oder ob sich ATI nur einem direkten Vergleich entziehen will. :(

Iruwen
2010-04-09, 09:12:05
Ich sehe gerade das EVGA SLI mit 4 GTX480 gezeigt hat. Gibts dafür eigentlich schon passende Netzteile?

Ja von EVGA :D 1200W mit 1500W Peak.

Gast
2010-04-09, 09:42:28
Ich sehe gerade das EVGA SLI mit 4 GTX480 gezeigt hat. Gibts dafür eigentlich schon passende Netzteile?

Entweder das von EVGA oder Gehäuse mit Platz für 2 oder mehr NT.
Sehe das Problem nicht.

boxleitnerb
2010-04-09, 09:46:03
Ab einer Gewissen Menge an Emails sollten die das Thema doch zumindest überdenken. Ich frage mich sowieso, ob es wirklich eine Herausforderung darstellt, einen HQ-Modus anzubieten, oder ob sich ATI nur einem direkten Vergleich entziehen will. :(

So schön es wäre, das glaubst du doch selbst nicht :)

Gast
2010-04-09, 09:46:51
Ab einer Gewissen Menge an Emails sollten die das Thema doch zumindest überdenken. Ich frage mich sowieso, ob es wirklich eine Herausforderung darstellt, einen HQ-Modus anzubieten, oder ob sich ATI nur einem direkten Vergleich entziehen will. :(

Wenn es die HW noch besser filtern könnte (und die HD5xxx filtert wirklich ordentlich) würde AMD spätestens jetzt eine Option dafür freischalten. Die Power hätten Sie um dort problemlos zu bestehen.

Gast
2010-04-09, 12:09:11
Die Verfügbarkeit von Gainward und Zotac ist für GTX470 & GTX480 bei Alternate auf 3-5 Tage geändert worden!

sklave_gottes
2010-04-09, 14:44:30
Wenn es die HW noch besser filtern könnte (und die HD5xxx filtert wirklich ordentlich) würde AMD spätestens jetzt eine Option dafür freischalten. Die Power hätten Sie um dort problemlos zu bestehen.


Das erstaunliche ist doch, dass eine HD5870 mit af jetzt schon mehr leistung verliert wie eine 285GTX. Trotz mehr Textur power. Irgendwas ist hier faul. Obwohl erstere auch noch schlechter filtert. Generel verliert die HD5 reihe viel mehr leistung mit af als die HD4 reihe.....

Ich glaube langsam da wird nicht mehr viel gespart, die kriegen zur zeit einfach keine Bessere filterung mehr hin.

mfg martin

N0Thing
2010-04-09, 15:04:45
So schön es wäre, das glaubst du doch selbst nicht :)

Ich erwarte es zumindest nicht, dann kann ich auch nicht enttäuscht werden. Darüber freuen würde ich mich aber in jedem Fall, die letzten Grafikkarten sind vor allem wegen einer guten AF in meinem PC gelandet. ;)

Mich würde interessieren, was damals aus der angekündigten Umfrage über die AI Optionen bei der PCGH geworden ist. ( Link (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6925145))

HarryHirsch
2010-04-09, 15:17:52
Sie könnte doch einfach alle Fixes oder keine zur Auswahl stellen und zusätzlich die Wahl zwischen der bekannten AF-Qualität und eine HQ-Option, die Nvidia in nichts nachsteht. Gebencht wird ja auch bei NV in Q, man hätte für interessierte Kunden einfach eine zusätzliche Wahlmöglichkeit.

Vielleicht sollte man eine Petition anleiern, damit ATI merkt, daß eine solche Wahlmöglichkeit wirklich gewünscht ist. Jeder nur ein Kreuz

Jemand mit guten Englischkenntnissen hier? Wird echt Zeit! Wollten wir schon vor 2 Jahren machen.

Gast
2010-04-09, 16:20:34
Jemand mit guten Englischkenntnissen hier? Wird echt Zeit! Wollten wir schon vor 2 Jahren machen.


Guten Morgen! Schonmal das ATI Treiber Panel gesehen? Dort gibt es eine Auswahl zur Texture/Filter Qualität.

mironicus
2010-04-09, 16:20:48
Angeblich nur 8000 Karten zum Launch weltweit verfügbar:
http://www.semiaccurate.com/2010/04/08/nvidia-misses-gtx470480-launch-targets

HarryHirsch
2010-04-09, 16:24:42
Guten Morgen! Schonmal das ATI Treiber Panel gesehen? Dort gibt es eine Auswahl zur Texture/Filter Qualität.

Guten Morgen!
Es geht darum die Spielespezifischen Optimierungen vom AF zu trennen/entkoppeln. Also immer und überall das maximale an AF-Qualität rauszuholen.

Iruwen
2010-04-09, 16:46:51
Angeblich nur 8000 Karten zum Launch weltweit verfügbar:
http://www.semiaccurate.com/2010/04/08/nvidia-misses-gtx470480-launch-targets
Was kauf ich mir denn wenn das stimmt? :(

Gast
2010-04-09, 17:02:18
Retail-Karten mit Schaumpuffer, damit im SLI sich nicht die Karten die Rückseite am Kühlkörper der anderen Karte anschmoren:
http://www.techpowerup.com/119715/My_production_Fermi_arrived_.html

mironicus
2010-04-09, 17:06:43
Zwei Fermis frisch im Karton: :D

http://i219.photobucket.com/albums/cc58/RRXX88/After%2001-04-2010/GTX%20480/SANY2790.jpg

Gast
2010-04-09, 17:22:52
Guten Morgen!
Es geht darum die Spielespezifischen Optimierungen vom AF zu trennen/entkoppeln. Also immer und überall das maximale an AF-Qualität rauszuholen.


Na aber. Ist es denn bei Nvidia möglich anwendungsgebundene Optimierungen zu deaktivieren?! Ach nicht? Hm, dann verstehe ich den Sinn Deines Beitrages nicht.

aths
2010-04-09, 17:35:21
Angeblich nur 8000 Karten zum Launch weltweit verfügbar:
http://www.semiaccurate.com/2010/04/08/nvidia-misses-gtx470480-launch-targetsCharlie-Artikel bestehen zum Großteil aus allgemeinen Vorwürfen. Ich habe nichts dagegen wenn Nvidia hart angefasst wird. Ich finde es gut wenn man nicht nur einfach jeden Hersteller hochjubelt in der Hoffnung, von ebenjenem ernstgenommen zu werden. Aber das ständige ausführliche beschreiben wie unethisch sich Nvidia verhalten würde, nervt mit der Zeit nur.

Nvidia gehört sicherlich nicht geschont – das tatsächliche Produkt kam nicht nur deutlich zu spät sondern hat auch noch erstaunliche Schwächen in Dingen Lautstärke und Stromaufnahme. Das kann meinetwegen gerne jeden Artikel wiederholt werden. Dafür verfolgt NV mit der Strategie, möglichst leistungsstarke Single-GPU-Lösungen zu entwickeln einen durchaus interessanten Ansatz, den man auch mal nüchtern als sinnvoll betrachten kann solange er einem Multi-GPU-Lösungen erspart.

Was abseits des Gebashe die reine Information angeht: Charlie schreibt nicht nur Unsinn, ist aber leider nicht in der Lage, Tatsachen von Behauptungen zu unterscheiden. Das betrifft zum Beispiel die Bundelung an DX10.1-Produkte.

kmf
2010-04-09, 17:44:22
650€ für die Hydrocopper ist normal, wenn man weiß wieviel Vollflächenwasserkühler kosten!
500€+ 1xx€ +OC +Garantie ~ 650€ ;)

Blos, daß man bei der 480er keinen Vollflächenkühler mehr braucht- ich werde 20€ Gpu-only Kühlerr verwenden ;)Die Kosten der normalerweise verbauten LuftKühlung fehlen ganz bei der Rechnung. Die ist bestimmt auch nicht für anderthalbmarkfuffzig zu kriegen. Und so gesehen ist das Waküteil schon ziemlich teuer.

Aber egal, hab mir ja keine bestellt und es steht in den Sternen, ob überhaupt noch genügend auf den Markt kommen.

kmf
2010-04-09, 17:56:07
Charlie-Artikel bestehen zum Großteil aus allgemeinen Vorwürfen. Ich habe nichts dagegen wenn Nvidia hart angefasst wird. Ich finde es gut wenn man nicht nur einfach jeden Hersteller hochjubelt in der Hoffnung, von ebenjenem ernstgenommen zu werden. Aber das ständige ausführliche beschreiben wie unethisch sich Nvidia verhalten würde, nervt mit der Zeit nur.

Nvidia gehört sicherlich nicht geschont – das tatsächliche Produkt kam nicht nur deutlich zu spät sondern hat auch noch erstaunliche Schwächen in Dingen Lautstärke und Stromaufnahme. Das kann meinetwegen gerne jeden Artikel wiederholt werden. Dafür verfolgt NV mit der Strategie, möglichst leistungsstarke Single-GPU-Lösungen zu entwickeln einen durchaus interessanten Ansatz, den man auch mal nüchtern als sinnvoll betrachten kann solange er einem Multi-GPU-Lösungen erspart.

Was abseits des Gebashe die reine Information angeht: Charlie schreibt nicht nur Unsinn, ist aber leider nicht in der Lage, Tatsachen von Behauptungen zu unterscheiden. Das betrifft zum Beispiel die Bundelung an DX10.1-Produkte.Es hat sich aber auch Einiges als düstere Wahrheit herausgestellt, wo anfangs viele nur Blödsinn drin gesehen haben. Wenn es jetzt auch noch stimmt, dass die Ausbeute wirklich auf dem geringen Niveau liegt, welches Charlie verzapft hat, dann war's das mit High-End-Fermis.

Gast
2010-04-09, 18:04:43
Es hat sich aber auch Einiges als düstere Wahrheit herausgestellt, wo anfangs viele nur Blödsinn drin gesehen haben. Wenn es jetzt auch noch stimmt, dass die Ausbeute wirklich auf dem geringen Niveau liegt, welches Charlie verzapft hat, dann war's das mit High-End-Fermis.

Es wird schon fleissig in England, USA gebencht (EVGA FORUM). Alternate hat Karten des Herstellers Zotac in 3-4 Werktagen lieferbar. Charlie redet Mist, ganz einfach. Hier gehören einige ATI-Fanboys gebannt. Wird immer schlimmer.

Gast
2010-04-09, 18:50:59
Es wird schon fleissig in England, USA gebencht (EVGA FORUM). Alternate hat Karten des Herstellers Zotac in 3-4 Werktagen lieferbar. Charlie redet Mist, ganz einfach. Hier gehören einige ATI-Fanboys gebannt. Wird immer schlimmer.

Genau kmf ist ein ganz böser ATI Fanboy:D

tombman
2010-04-09, 19:07:09
Die Verfügbarkeit von Gainward und Zotac ist für GTX470 & GTX480 bei Alternate auf 3-5 Tage geändert worden!
Wie gut, daß ich Zotac unter anderem Namen nachbestellt habe- wurde nicht gecancelt ;)

Coda
2010-04-09, 19:13:41
Ich glaube langsam da wird nicht mehr viel gespart, die kriegen zur zeit einfach keine Bessere filterung mehr hin.
Das ist völliger Unsinn.

Wie man ein ordentlches AF implementiert hat ATi schon mit R5xx A.I. off gezeigt und die Abtastung an sich ist nun auch wirklich kein Hexenwerk.

Was sie derzeit tun ist ohne Zweifel absichtlich so implementiert.

Gast
2010-04-09, 19:23:10
Lasst euch schon eine plausible Selbstverleugnung einfallen, wodran es gelegen haben könnte, falls ihr keine Karte bekommt.

Mein Vorschlag: Die ATI-fanboys und Charlie haben den ganzen Bestand aufgekauft damit sie recht behalten.

Gast
2010-04-09, 20:11:06
Was sie derzeit tun ist ohne Zweifel absichtlich so implementiert.Bleibt die Frage, ob die TMUs überhaupt vernünftig filtern können. Vielleicht ist die HW so weit auf "optimierte" Filterung ausgelegt, dass vernünftige Filterung nur unter Zuhilfenahme der Shader möglich wäre?

Gast
2010-04-09, 21:20:04
Gamestrar nur 8000 Fermis Weltweit ?
http://www.gamestar.de/hardware/news/grafikkarten/2314111/nvidia_geforce_gtx_480.html

y33H@
2010-04-09, 21:21:07
S|A, nicht GS :rolleyes:

Iruwen
2010-04-09, 21:31:16
Das mit den Vorgaben scheint hiernach (http://hi-tech.at/wordpress/2010/03/geschichten-aus-der-nvidia-mafiosi-familie/) ja zu stimmen. Legt den Verdacht nahe dass der Rest auch nicht ganz aus der Luft gegriffen ist.

sklave_gottes
2010-04-09, 22:18:19
Das ist völliger Unsinn.

Wie man ein ordentlches AF implementiert hat ATi schon mit R5xx A.I. off gezeigt und die Abtastung an sich ist nun auch wirklich kein Hexenwerk.

Was sie derzeit tun ist ohne Zweifel absichtlich so implementiert.


Wie schon gesagt, vieleicht können die TMUs nicht besser filtern.

Wie Erklärst du dir dann das eine ATi Radeon HD 5870 mehr Leistung durch af verliert als eine GeForce GTX 285:

http://www.computerbase.de/artikel/grafikkarten/2009/test_ati_radeon_hd_5870/7/#abschnitt_skalierungstests

http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests

Obwohl die ATI schlechter filtert(also leistung spart) und über 30% mehr Texelfüllrate hat.(68000 MTex/s vs 51840 MTex/s)

Wie gesagt das verstehe ich nicht.

mfg martin

Gast
2010-04-09, 22:30:23
http://i157.photobucket.com/albums/t44/dagrim_2007/fermi6.jpg

tombman
2010-04-09, 22:41:44
Will be testing this config in a few hours

Auf Trubritar ist Verlaß- warte schon auf sein YT-Video. ABSOLUTELY PHENOMENAL! ;D
(mit diesem Akzent immer...lol) ;D

Dh, zum WE gibts die ersten 4-480er benchmarks ;D

Coda
2010-04-09, 23:12:42
Wie schon gesagt, vieleicht können die TMUs nicht besser filtern.
Können sie wohl auch nicht - das heißt aber nicht, dass ATI nicht wüsste wie man es besser macht.

Obwohl die ATI schlechter filtert(also leistung spart) und über 30% mehr Texelfüllrate hat.(68000 MTex/s vs 51840 MTex/s)
Reine Texelfüllrate sagt nicht viel aus. Da kommt noch Cache-Effizienz etc. dazu.

Ich habe ja schon öfters gesagt, dass sich das Verhältnis TMU:ALU schon seit R600 bei ATI nicht geändert hat.

Iruwen
2010-04-09, 23:16:38
Auf Trubritar ist Verlaß- warte schon auf sein YT-Video. ABSOLUTELY PHENOMENAL! ;D
(mit diesem Akzent immer...lol) ;D

Dh, zum WE gibts die ersten 4-480er benchmarks ;D

Wieso hat der vier GTX 480er, dann kanns davon ja nicht ganz so wenige geben :rolleyes:

Gast
2010-04-10, 00:06:13
Auch sollen die Karten garnicht so laut werden wie behauptet. Ähnlich der GTX280

Gast
2010-04-10, 00:14:42
http://www.youtube.com/watch?v=RGZcafP0kIM&playnext_from=TL&videos=_OoHmfp9A_4

Unboxing absolutely Phenomenol :D

tombman
2010-04-10, 00:30:16
Wieso hat der vier GTX 480er, dann kanns davon ja nicht ganz so wenige geben :rolleyes:
Ich bin sicher, daß jeder eine kriegt, der auch eine will- der Rest ist ATI-Fanboy FUD ;)

san.salvador
2010-04-10, 00:33:05
Ich bin sicher, daß jeder eine kriegt, der auch eine will- der Rest ist ATI-Fanboy FUD ;)
Das kann aber auch an der Nachfrage liegen... :ugly2:

Gast
2010-04-10, 00:38:56
Das kann aber auch an der Nachfrage liegen... :ugly2:
Ja und?
Eine 500€ Karte wär keine 500€ Karte wenn sie jeder Typ kauft.

Sonyfreak
2010-04-10, 00:42:38
http://www.youtube.com/watch?v=RGZcafP0kIM&playnext_from=TL&videos=_OoHmfp9A_4

Unboxing absolutely Phenomenol :DWas für Monsterteile! :eek: Wenn da nicht das Preis- und das Stromproblem wäre, würde ich sofort zuschlagen. :D

mfg.

Sonyfreak

LovesuckZ
2010-04-10, 00:48:54
Preisproblem? 479€ - 499€ sind eigentlich ziemlich human. Die 5970 kostet irgendwas ab 580€+ und Cypress für 6 Monate 380€+. Da ist GF100 ziemlich gut positioniert.

Blaire
2010-04-10, 00:49:44
Ich bin sicher, daß jeder eine kriegt, der auch eine will

Fragt sich nur wann...laut Alternate kommt die zweite Lieferung erst im Juni ;D

LovesuckZ
2010-04-10, 01:12:48
MAINGEAR SHIFT vs Corsair 800D: 3-way GTX 480 SLI (http://www.youtube.com/watch?v=cJczPWmTDJU)

Video von Maingear in deren Gehäuse und dem von Corsair.