PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20 21 22 23 24 25 26 27 28

Gast
2010-04-03, 13:47:49
Sehe gerade, dass bei UT2004 auf der Map DM-GAEL der R870 bei der Bodentextur mit dem Rautenmuster den Vogel abschießt. Miesestes AF vom Feinsten, Pfui Teifel.
Getestet wieder mit R870:
Bei AI on übelster BRIFilter --> Monsterbugwelle
Bei AI off, wohl trilinear, keine Bugwelle, aber deutliches Flimmern ist erkennbar und zwar wesentlich stärker als auf einem G80
Mal gucken, vielleicht lade ich nachher Videos hoch, damit man die jahrelange Optimierungsarbeit von den CANDADIAN FILTER CRIPPLES begutachten kann.

Grestorn
2010-04-03, 13:56:09
Mach bitte bei nVidia den LOD Clamp aus, sonst ist der Vergleich nicht fair für ATI!

Gast
2010-04-03, 14:10:20
Mach bitte bei nVidia den LOD Clamp aus, sonst ist der Vergleich nicht fair für ATI!

Ohne Clamp ist aber der Vergleich auch nicht fair. Denn der Clamp hat natürlich einen guten Grund: NV hat große Probleme mit negativen LoD-Bias, die Bildqualität wird dort grässlich.

Gast
2010-04-03, 14:20:04
Mach bitte bei nVidia den LOD Clamp aus, sonst ist der Vergleich nicht fair für ATI!
Jo gemacht, dann sieht's so aus wie auf dem R870, schlecht.
Bleiben als Manko bei UT2004 nur noch die AI-Bri-Schweinerei und dass es keine Clamp Option im ATI-Control-Center gibt.

Gast
2010-04-03, 14:39:58
Jo gemacht, dann sieht's so aus wie auf dem R870, schlecht.
Bleiben als Manko bei UT2004 nur noch die AI-Bri-Schweinerei und dass es keine Clamp Option im ATI-Control-Center gibt.

schön das wir heute 2010 haben und keine sau sich mehr für ut 2004 interessiert

Savay
2010-04-03, 14:46:56
Danke für den Beweis. Warum treibst Du Dich in diesem Thread denn rum, wenn es Dir nicht darum geht, die andere Seite niederzumachen? Welch anderen Vorteil versprichst Du Dir davon? Deine Entscheidung zu rechtfertigen? Dein Ego aufzubessern? Sag es mir!

pff in solchen threads geht es hier im 3dc seit einigen jahren doch von beiden seiten nach einigen posts und nachdem genug benchmarks und daten vorliegen doch eh nur noch um reine fanboy grabenkriege...
hier irgendeiner seite vorzuhalten sie wäre schlimmer ist ebenso unsachlich und irreführend wie die "diskussionen" selber. :rolleyes:

tatsachen muss man übrigens weder kleinreden noch hervorheben...die sprechen für sich selbst...welchem aspekt man welche bedeutung beimisst sollte dann doch immernoch jedem selbst überlassen sein!

Grestorn
2010-04-03, 14:57:19
tatsachen muss man übrigens weder kleinreden noch hervorheben...die sprechen für sich selbst...welchem aspekt man welche bedeutung beimisst sollte dann doch immernoch jedem selbst überlassen sein!

Man muss sie auch nicht unermüdlich wiederholen, als ob der Rets der Welt taub und merkbefreit wäre.

Savay
2010-04-03, 15:00:26
Man muss sie auch nicht unermüdlich wiederholen, als ob der Rets der Welt taub und merkbefreit wäre.

schon. das passiert andersrum aber absolut genauso...da nehmen sich beide seiten rein garnichts! ;D

aths
2010-04-03, 15:09:15
Ohne Clamp ist aber der Vergleich auch nicht fair. Denn der Clamp hat natürlich einen guten Grund: NV hat große Probleme mit negativen LoD-Bias, die Bildqualität wird dort grässlich.Das ist korrekt, allerdings sollte man eh keinen negativen Lod-Bias nehmen. Erst unscharfe Texturen, dann negatives Lod-Bias = widersinnig. Ich finde die Clamp-Option gut. Natürlich hätte ich auch gerne einen Clamp in die andere Richtung, um ein positives Bias zu verhindern.

Man muss sie auch nicht unermüdlich wiederholen, als ob der Rets der Welt taub und merkbefreit wäre.Ich habs lieber eine Spur zu kritisch als eine Spur zu nachsichtig. 110 Watt Verbrauch in Windows im Zweimonitorbetrieb? Fehlkonstruktion.

Gast
2010-04-03, 15:13:16
Kurze Zwischenfrage:
Kommt der Clamp vor oder nach einem manuellen LOD-Bias? Sprich das Spiel fordert -0,5 an, Clamp ist aktiv und manuell ist +0,5 gesetzt, endets in 0,0 oder +0,5?

Tigerchen
2010-04-03, 15:27:12
Mit dem ATI Tray tool kann man auch den LOD Bias einstellen. Ob das auch funktioniert weiß ich nicht. Eigentlich brauch ich sowas nicht.

Gast
2010-04-03, 15:37:54
Mit dem ATI Tray tool kann man auch den LOD Bias einstellen. Ob das auch funktioniert weiß ich nicht. Eigentlich brauch ich sowas nicht.
Oder Supersampling auf der 5000-Serie forcieren. Das LOD wird zwar dann mit den neusten Treibern ins Negative verschoben, das dürfte sich aber nicht mit einer negativen LOD-Anforderung seitens der Anwendung beißen.

Dural
2010-04-03, 15:44:09
die GTX480 scheint hier deutlich gefragter zu sein als die GTX470

Gast
2010-04-03, 16:05:15
Ich habs lieber eine Spur zu kritisch als eine Spur zu nachsichtig. 110 Watt Verbrauch in Windows im Zweimonitorbetrieb? Fehlkonstruktion.
Das ist ein negativer Aspekt. Eines, das von Jedem anders behandelt wird, also kein generelles Totschlagargument, wie so gerne gepredigt.

Allerdings sollten andere derartige Produkte dieselbe Kritik wiederfahren. Wo bleibt diese Kritik?
Da sie ausgeblieben ist, muss der traurige Schluss heißen, das es sich um nicht objektive Kritik handelt.

Raff
2010-04-03, 16:28:45
Kurze Zwischenfrage:
Kommt der Clamp vor oder nach einem manuellen LOD-Bias? Sprich das Spiel fordert -0,5 an, Clamp ist aktiv und manuell ist +0,5 gesetzt, endets in 0,0 oder +0,5?

Ist der Tacker aktiv, kannst du mit Tools am Texture LOD herumfuhrwerken wie du willst, das LOD wird bei 0.0 bleiben. Zumindest war das vor einigen Monaten noch so, als ich damit herumspielte.

Ja, das behaupte ich. Oder das sie im Text dann etwas durcheinandergebracht haben. Wie gesagt ergibt schon allein das Zitat von dir keinen Sinn. G71 war das schlimmste was die Erde jemals erblickt hat was das AF angeht - selbst mit HQ. Das sie sich darauf beziehen ist doch offensichtlich.

Und nein, das ist nicht subjektiv. Ich kann sowas durchaus beurteilen. Und RV770 flimmert immer. R580 nicht.

Da muss ich mal intervenieren. Das AF von Atis R200 (Radeon 8500) sieht noch viel schlimmer als als NV4x/G7x Quality. Oder lässt du den R200 direkt weg, weil der Pfusch nicht als "AF" durchgeht? ;) Es tut jedenfalls richtig weh. GF6/7-HQ sieht jedenfalls recht sauber aus – wenn man mal von der Winkelabhängigkeit absieht. In Kombination mit 4x4 OGSSAA ist auch eine GeForce 7 in der Lage, über weite Flächen bestes 16:1 AF darzustellen.

Bei den restlichen Beobachtungen steh ich voll hinter dir.

- R5xx flimmert mit A.I., ohne A.I. ist das AF mit G80+ HQ vergleichbar
- R(V)6x0 flimmert mit A.I. mehr als R5x0, A.I. Off reduziert das Geflimmer, beseitigt es aber nicht mehr
- RV770 flimmert vergleichbar/identisch wie der Vorgänger
- Evergreen flimmert geringfügig weniger als die beiden Vorgänger

MfG,
Raff

Botcruscher
2010-04-03, 16:33:10
Das ist ein negativer Aspekt. Eines, das von Jedem anders behandelt wird, also kein generelles Totschlagargument, wie so gerne gepredigt. Allerdings sollten andere derartige Produkte dieselbe Kritik wiederfahren. Wo bleibt diese Kritik?


Mach die Glubschen uf. Das ist hier seit September behandelt wurden und du findest es auch hier vor einigen Seiten. Die 5870 verbraucht dann eben statt 20 42W. Das liegt immer noch Welten von 110W entfernt. Bei Blu-ray Wiedergabe geht es ja bei NV gleich weiter.
die GTX480 scheint hier deutlich gefragter zu sein als die GTX470

Verwundert auch kaum. Die 480 bietet wenigsten noch Geschwindigkeit für Leute welchen der Verbrauch egal ist.

Gast
2010-04-03, 16:51:52
Mach die Glubschen uf. Das ist hier seit September behandelt wurden und du findest es auch hier vor einigen Seiten. Die 5870 verbraucht dann eben statt 20 42W. Das liegt immer noch Welten von 110W entfernt. Bei Blu-ray Wiedergabe geht es ja bei NV gleich weiter.

Unglaublich wie man so ignorant sein kann.
NRIGENDS steht dort etwas von 5870.

Es geht mir auch nicht 20W mehr oder weniger, ausgehend von 110W sind auch 90W viel zu viel.

So, was könnte ich wohl gemeint haben?
8800Ultra oder 2900XT oder 3870 X2 oder 9800GX2 oder 4870 X2 oder 4890 oder GTX295 oder 5970?
Suchs dir aus, sind allesamt keine besonders sparsamen, auch wenn man sie nicht so scharf kritisiert (hat).
Oder gehen wir noch weiter, wo bleibt die Kritik für die MGPU Geschichten mit mehr als einer Karte? NICHTS, keine Kritik vorhanden.

tombman
2010-04-03, 17:46:24
die GTX480 scheint hier deutlich gefragter zu sein als die GTX470
Logisch, E.s nehmen lieber 480er...

Raff
2010-04-03, 18:27:26
Der längste Balken ist prinzipiell interessanter als der zweit- oder drittlängste. Wer war nochmal der zweite Mann auf dem Mond? ;)

Sobald die GTX 480 mit weniger als 3-soniger Lautstärke unter Last verfügbar ist, wird sie gleich viel interessanter. Der Stromverbrauch als No-Go ist IMO ein vorgeschobenes Argument, um beim Bashen noch etwas Negatives zu haben. Die deutliche Klimaerwärmung der Radeon HD 4890 hat auch nur die Wenigsten gestört. "Als OC-Modell 70 Watt im Leerlauf? Drauf geschissen, denn die Karte ist so schnell wie eine GTX 285!" (angeblich) ...

Solange man die Wärme nicht hört, ist sie aus dem Sinn. Ich undervolte meine Grafikkarte primär, weil sie dann kälter und leiser bleibt. Das Stromsparen ist nett, aber stören die Kosten einen ernsthaften Zocker wirklich? Jeder, der mal ernsthaft über 10-20 Euro im Jahr nachdenkt, wird bemerken, dass das heutzutage nichts ist. Das ist Psychologie, das gute Gefühl, etwas (einen Furz) zu sparen. =)

MfG,
Raff

Schlammsau
2010-04-03, 18:31:40
Der längste Balken ist prinzipiell interessanter als der zweit- oder drittlängste. Wer war nochmal der zweite Mann auf dem Mond? ;)

Sobald die GTX 480 mit weniger als 3-soniger Lautstärke unter Last verfügbar ist, wird sie gleich viel interessanter. Der Stromverbrauch als No-Go ist IMO ein vorgeschobenes Argument, um beim Bashen noch etwas Negatives zu haben. Die deutliche Klimaerwärmung der Radeon HD 4890 hat auch nur die Wenigsten gestört. "Als OC-Modell 70 Watt im Leerlauf? Drauf geschissen, denn die Karte ist so schnell wie eine GTX 285!" (angeblich) ...

MfG,
Raff

Naja bei der HD 48xx hatte man immernoch die Möglichkeit durch untertakten und undervolting den Idle-Verbrauch um rund 45 Watt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=446733) zu senken. Ansonsten hätte ich sie mir nicht gekauft. So wie es aussieht geht das bei den Fermis nicht oder nur minimal, weil sie ja schon im Idle runtertakten. Oder täusche ich mich da Raff?

Raff
2010-04-03, 18:33:29
Das kann noch niemand mit Sicherheit sagen, da die üblich verdächtigen Tools noch etwas bechränkt im Umgang mit dem Furby sind. Vermutlich wird da aber nicht viel gehen, yep.

MfG,
Raff

Grestorn
2010-04-03, 18:37:47
Sie takten wohl - wie üblich - nicht runter, wenn man im Zweimonitor- oder SLI-Betrieb ist. Richtig Leistung sparen kann man wohl nur mit Teilabschaltung (und das muss die Hardware können) oder undervolten, was momentan mangels Tools nicht machbar ist.

Schlammsau
2010-04-03, 18:40:40
Sie takten wohl - wie üblich - nicht runter, wenn man im Zweimonitor- oder SLI-Betrieb ist. Richtig Leistung sparen kann man wohl nur mit Teilabschaltung (und das muss die Hardware können) oder undervolten, was momentan mangels Tools nicht machbar ist.

Undervolting bringt leider nicht viel. Bei der HD5850 zB nur 10W. Das was mit Abstand am meisten bringt ist das untertakten des Speichers. Wird bei Fermi wohl auch nicht anders sein.
Aber wie gesagt, die Fermis takten mit nur einem Monitor ja korrekt runter, keine Ahnung auf welchen Takt, dass verheisst nichts gutes.

Richtig sparsam wird man die 480 in dieser Form niemals machen können.

Grestorn
2010-04-03, 18:42:52
Aber wie gesagt, die Fermis takten mit nur einem Monitor ja korrekt runter,

Hat sich das beim HD5xxx inzwischen geändert?

Raff
2010-04-03, 18:43:29
Es sind laut aktuellen Tools 270 (135) MHz Speichertakt bei einer GTX 400, also "nichts". Eine GTX 200 kann man im Dual-Monitor-Betrieb auf den 1-Schirm-Takt underclocken und im Fall der GTX 280/216-65nm auch undervolten. Die Frage ist, inwieweit Furby und die Tools da mitspielen.

Hat sich das beim HD5xxx inzwischen geändert?

Hm? Bei zwei Schirmen gibt's einen Zwischentakt, IIRC 400 MHz GPU- und voller Speichertakt.

MfG,
Raff

derguru
2010-04-03, 18:44:14
Undervolting bringt leider nicht viel. Bei der HD5850 zB nur 10W. Das was mit Abstand am meisten bringt ist das untertakten des Speichers. Wird bei Fermi wohl auch nicht anders sein.
Aber wie gesagt, die Fermis takten mit nur einem Monitor ja korrekt runter, keine Ahnung auf welchen Takt, dass verheisst nichts gutes.

Richtig sparsam wird man die 480 in dieser Form niemals machen können.

mit undervolting kann man aber die temps eventuelle in griff kriegen,hab ich jetzt bei der 5870 gemacht,sogar bissel oc geht noch.

Gast
2010-04-03, 18:44:25
Undervolting bringt leider nicht viel. Bei der HD5850 zB nur 10W. Das was mit Abstand am meisten bringt ist das untertakten des Speichers. Wird bei Fermi wohl auch nicht anders sein.
Aber wie gesagt, die Fermis takten mit nur einem Monitor ja korrekt runter, keine Ahnung auf welchen Takt, dass verheisst nichts gutes.

Sie takten bereits standardmäßig extrem weit herunter, da gibt es kein Potential mehr. Dazu kommt noch das laut diversen Seiten man nicht viel benötigt damit sie hoch takten, oft soll schon das öffnen eines Browsers reichen. Dh die 50W idle schmeicheln den Karten eigentlich noch.

Schlammsau
2010-04-03, 18:45:23
Hat sich das beim HD5xxx inzwischen geändert?

Nicht wirklich, mit mehr als 2 Monitoren, untertaktet sie den Speicher nicht.
Wegen dem Flackern. Deswegen steigt der Verbrauch von 20W auf 35W im Idle bei der 5850 und 5870.
Bei der 480 sinds ja über 100 Watt mit 2 Monitoren beim faulenzen.

Und wie gesagt, der Idle Verbrauch der 4800er war auch nicht schön, sogar extrem schlecht, liess sich aber wirklich sehr einfach in den Griff bekommen.

Raff
2010-04-03, 18:47:58
mit undervolting kann man aber die temps eventuelle in griff kriegen,hab ich jetzt bei der 5870 gemacht,sogar bissel oc geht noch.

Yep. Sobald erste Tools das "Umspannen" einer GTX 480 erlauben, wird's interessant. Die macht ihren Standardtakt bestimmt auch mit 0,95-0,9 Volt, was einige Watt sparen und eventuell für "nur" 6 Sone sorgen könnte ... :ulol:

MfG,
Raff

derguru
2010-04-03, 18:55:52
die referenzlüfter sind doch relative stark,frag mich ob die customkühler soviel mehr bringen werden.ich glaub das wird nicht so einfach.

Raff
2010-04-03, 18:59:48
Ich halte dagegen. Vom Palit-(/Gainward-)Design erwarte ich einiges, da sie sehr gute GTX-200-Kühler entwickelt haben. Ich kann mich aber auch irren. =)

MfG,
Raff

Blaire
2010-04-03, 19:03:29
@Raff: Kommen von euch noch ein paar Benchmarks mit SSAA/Hybride mit der GTX470/480er im Vergleich zum Vorgänger? Im Netz findet sich sehr wenig brauchbares.

Savay
2010-04-03, 19:04:31
Hm? Bei zwei Schirmen gibt's einen Zwischentakt, IIRC 400 MHz GPU- und voller Speichertakt.


nicht ganz! es sind 400/900 statt 850/1200. das entspricht auch dem "UVD" takt bei der videowiedergabe...

wenn man per CCC über oder untertaktet geht sie übrigens auch bei 2 monitoren auf den idle takt von 147/300..dann hat man aber auf einem der 2 monitore das berühmte flackern! :freak: wenn man glück hat ist es nicht der "hauptmonitor" dann stört es nicht ganz so sehr...zumindest bei mir nicht da auf dem 2. schirm eh nur ICQ, Skype, Teamspeak und sonstige Tools laufen ;D

Gast
2010-04-03, 19:06:31
Wer war nochmal der zweite Mann auf dem Mond? ;)



Das werden wir wissen wenn wirklich mal die ersten Menschen auf dem Mond waren.

mapel110
2010-04-03, 19:07:40
@Raff: Kommen von euch noch ein paar Benchmarks mit SSAA/Hybride mit der GTX470/480er im Vergleich zum Vorgänger? Im Netz findet sich sehr wenig brauchbares.
Ich hab dazu auch nur die 3 Zahlen gesehen, wo sich die 400er Geforce nur bei 32xS absetzen konnte wegen besserer 8xMSAA-Performance. 16xS war dagegen enttäuschend und auf dem Niveau des Vorgängers. Ich würde da auch nicht mehr viel erwarten. nvidia hat sich gegen Textur-Rohpower entschieden und das muss man nun hinnehmen.

derguru
2010-04-03, 19:09:03
Das werden wir wissen wenn wirklich mal die ersten Menschen auf dem Mond waren.
hehe aber echt,ich bin da auch eher der verschwörungstheoretiker.:biggrin:

tombman
2010-04-03, 19:15:23
Yo Baby, Yo Baby, Yo! :cool:

http://www.abload.de/img/dx11-ownageuvi1.png (http://www.abload.de/image.php?img=dx11-ownageuvi1.png)

Quelle: hardware.fr + sick paint skills :uhippie:

boxleitnerb
2010-04-03, 19:19:04
Kommt von dir auch mal was Konstruktives oder müssen wir uns weiter mit bunten rosinengepickten Bildchen ohne Quellenangabe, garniert mit infantilem Ganstaslang begnügen?

Nazar
2010-04-03, 19:21:58
Nach 162 Seiten geblubber und viel Spam,

kann man nun behaupten, dass man die GTX470 kaufen kann, ohne das die Nachteile überwiegen?

Pro:

schnell@ DX 11
super BQ
kühl und leise durch custom design Edit bei Nazar :freak:


Contra:

DX9/10 mittelmäßig
Stromhungrig
heiß


Was mir auffällt, dass ziemlich übel gegen die GTX4xx Reihe geschossen wird. Nimmt man aber das Beispiel der HD5870, mit der Leistung der GTX480, würde der Stromverbrauch der ATI auch net soooo rosig aussehen ;) (geschätzte Werte laut Angaben hier aus dem Forum...)

Hast Du überhaupt den Artikel über die "Vergleichsberechnungen" des Leistungsverbrauchs bei Spielen von nV gelesen?
Wenn, dann wüsstest Du, dass Du total daneben liegst.

Und natürlich ist eine zusätzliche Ausgabe für custom Designs (z.B. Wakü, neuer LuKü) extrem positiv zu bewerten ;D

tombman
2010-04-03, 19:23:21
Kommt von dir auch mal was Konstruktives oder müssen wir uns weiter mit bunten rosinengepickten Bildchen ohne Quellenangabe, garniert mit infantilem Ganstaslang begnügen?
Quelle ist jetzt drinnen.
Und einen DX11-Schnitt würde ich nicht als "Rosine" bezeichnen ;)
Zum Rest deines freundlichen Posts: :comfort2:

boxleitnerb
2010-04-03, 19:27:04
Och weißt du, wenn man halt solche Posts verfasst, kommt halt auch mal Gegenwind. Es war nicht persönlich gemeint, aber in letzter Zeit hat dein Niveau doch etwas nachgelassen. Dabei respektiere ich dich durchaus als Enthusiast.
Die Rosinenpickerei war eigentlich auf die letzten gefühlten 10 deiner Bildchen bezogen ;)

PCGH_Raffael
2010-04-03, 19:27:57
@Raff: Kommen von euch noch ein paar Benchmarks mit SSAA/Hybride mit der GTX470/480er im Vergleich zum Vorgänger? Im Netz findet sich sehr wenig brauchbares.

Gewiss. Die Frage ist, was davon das Licht des Internets erblickt. ;) GF100 ist natürlich ein heißes Thema, dem wir im kommenden Heft nicht nur Retail-Kartentests, sondern auch Praxisartikel widmen werden. Mal sehen, eventuell wird's mehr als ein Teaser. Leistungswunder solltest du dennoch keine erwarten.

MfG,
Raff

Spasstiger
2010-04-03, 19:31:56
tombman wird uns schon zeigen, wie zwei GTX 480 in 1280x720 mit 4xAA + PhysX + Tessellation in Metro 2033 rocken. :freak: Für Ultra-High-Res und SSAA ist er ja leider schon länger nicht mehr zu haben.

tombman
2010-04-03, 19:34:57
Gewiss. Die Frage ist, was davon das Licht des Internets erblickt. ;) GF100 ist natürlich ein heißes Thema, dem wir im kommenden Heft nicht nur Retail-Kartentests, sondern auch Praxisartikel widmen werden. Mal sehen, eventuell wird's mehr als ein Teaser. Leistungswunder solltest du dennoch keine erwarten.

Ich schließe mich Blairs Bitte an- SSAA Tests FTW :up:

@bockleitnerb: welcher Gegenwind? Das ist für tombman normal ;D

tombman
2010-04-03, 19:38:04
tombman wird uns schon zeigen, wie zwei GTX 480 in 1280x720 mit 4xAA + PhysX + Tessellation in Metro 2033 rocken. :freak: Für Ultra-High-Res und SSAA ist er ja leider schon länger nicht mehr zu haben.
Immerhin muß ich nicht wie du auf SD-Auflösung ohne Phys-X spielen ;D

Und im SLI geht Metro 2033 sehr wohl auf FHD + 4xAA + Phys-X + Tessellation :cool:

Spasstiger
2010-04-03, 19:51:15
Metro 2033 geht auch auf einer Radeon HD 5870 mit max. Details in FullHD + PhxsX: http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/3
Nur auf MSAA muss man verzichten und dafür mit Analytical AA Vorlieb nehmen.

Schlammsau
2010-04-03, 19:51:23
Immerhin muß ich nicht wie du auf SD-Auflösung ohne Phys-X spielen ;D

Und im SLI geht Metro 2033 sehr wohl auf FHD + 4xAA + Phys-X + Tessellation :cool:

Man bist du überheblich. :rolleyes:

derguru
2010-04-03, 20:06:59
ich wette mit 2 matrix wird man es auch genauso spielen können wie mit 480gtx sli,der größte performanceverlust kommt durch rammangel behaupte ich jetzt mal,gefickt eingefädelt von nv.;)

Spasstiger
2010-04-03, 20:10:15
Das Letzte, was ein Besitzer einer HD 5870 tun muss, ist es, in SD-Auflösung zu zocken. Die Stärken der Architektur kommen in hohen Auflösungen erst richtig zum Tragen. Der GTX-480-Nutzer könnte jedoch geneigt sein, Auflösung gegen Polygone einzutauschen. ;)

Blaire
2010-04-03, 20:21:24
Gewiss. Die Frage ist, was davon das Licht des Internets erblickt. ;) GF100 ist natürlich ein heißes Thema, dem wir im kommenden Heft nicht nur Retail-Kartentests, sondern auch Praxisartikel widmen werden. Mal sehen, eventuell wird's mehr als ein Teaser. Leistungswunder solltest du dennoch keine erwarten.


In der Mai Ausgabe meinst du oder Juni?
Interessant wäre auch der Vergleich 8xMSAA vs. 8xS ist letzterer im Vergleich immer noch so performant? Sind +40% gegenüber der GTX285 mit 16xS in etwa realistisch?

tombman
2010-04-03, 20:21:52
ich wette mit 2 matrix wird man es auch genauso spielen können wie mit 480gtx sli,der größte performanceverlust kommt durch rammangel behaupte ich jetzt mal,gefickt eingefädelt von nv.;)
Nein, denn bei Rammangel sinken die fps sprunghaft auf einstellige Werte und nicht "linear" mit der Auflösung.

Blaire
2010-04-03, 20:23:21
ich wette mit 2 matrix wird man es auch genauso spielen können wie mit 480gtx sli,der größte performanceverlust kommt durch rammangel behaupte ich jetzt mal,gefickt eingefädelt von nv.;)

Die 2GB bringen recht wenig, was ich bislang gesehn habe.

Spasstiger
2010-04-03, 20:25:07
Nein, denn bei Rammangel sinken die fps sprunghaft auf einstellige Werte und nicht "linear" mit der Auflösung.
Das stimmt nicht, erst recht nicht bei ATI. Vergleiche einfach mal Benchmarks der Radeon HD 4870 mit 512 MiB und 1024 MiB. Es gibt Spiele, die sind auf beiden Varianten spielbar, aber auf der 1024-MiB-Variante mit 20-30% höheren fps.

deekey777
2010-04-03, 20:28:28
Hör auf mit dieser Korinthenkackerei.

RV770 flimmert EGAL ob mit A.I. off oder on SCHLIMMER als R580. Wenn du mir dieses Statement nicht abnimmst, ist das NICHT mein Problem.

Ich habe mich viel zu lange mit der ATI-Cheaterei beschäftigt um die Verhältnisse nicht exakt im Kopf zu haben.

Das Statement, dass ATI das AF immer verbessert haben STIMMT NICHT. R600 war ein Rückschritt und diesen haben sie bis RV770 beibehalten. R600 war nur eh schon so scheiße, dass das völlig unter dem Radar verschwand.
Warum diese Verniedlichung "Flimmern"?
Das ist kein Flimmern, es ist Texture-Noise, was insbesondere in HL2 zu sehen ist.
Als ich von der X1950GT auf die HD3850 wechselte, brauchte ich einige Zeit zu begreifen, was da auf dem Bildschirm passierte. Das war und ist grausig (HD4850).

Gast
2010-04-03, 20:28:30
Das stimmt nicht, erst recht nicht bei ATI. Vergleiche einfach mal Benchmarks der Radeon HD 4870 mit 512 MiB und 1024 MiB. Es gibt Spiele, die sind auf beiden Varianten spielbar, aber auf der 1024-MiB-Variante mit 20-30% höheren fps.

Wir reden dabei von min FPS nicht von average!

Undertaker
2010-04-03, 20:28:32
Nein, denn bei Rammangel sinken die fps sprunghaft auf einstellige Werte und nicht "linear" mit der Auflösung.

Hmm nicht ganz, da kann es auch Zwischenstufen geben - schau mal in alte Reviews der HD4870 1GB, diese konnte sich in vielen Fällen um 10-20% von der 512MB Variante absetzen, also noch lange keine absolute Speicherlimitierung - dennoch aber nennenswerte Auswirkungen. Edit: Da war Spasstiger schneller.
Bei 1024MB auf einer HD5870 scheint es allerdings (in spielbaren Settings) wohl praktisch noch nie zu Nachteilen gegenüber der 2048MB Version zu kommen, darauf kann man den Rückstand in Metro also nicht zurückführen.

tombman
2010-04-03, 20:28:52
Das Letzte, was ein Besitzer einer HD 5870 tun muss, ist es, in SD-Auflösung zu zocken.

In DEINEN Qualitätskriterien MUSS er das in DEINEM gewählten Spiel. Wenn die Argumente ausgehen, kannst du nicht einfach die Parameter der
Diskussion ändern um weiterreden zu können. Du hast verloren, also steh dazu wie ein Mann.

Die Stärken der Architektur kommen in hohen Auflösungen erst richtig zum Tragen. Der GTX-480-Nutzer könnte jedoch geneigt sein, Auflösung gegen Polygone einzutauschen. ;)
Nein, auch in 2560x1600 4xAA (+12%) und besonders in 8xAA (+30%) ist die GTX480 schneller IM DURCHSCHNITT als die HD5870.
Es gibt kein Entkommen ;)
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_qualitaet

derguru
2010-04-03, 20:38:41
Nein, denn bei Rammangel sinken die fps sprunghaft auf einstellige Werte und nicht "linear" mit der Auflösung.
ja und was ist das linear?selbst der 470 geht der ram langsam aber sicher aus unter 1920*1200
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=13

Spasstiger
2010-04-03, 20:40:01
Nein, auch in 2560x1600 4xAA (+12%) und besonders in 8xAA (+30%) ist die GTX480 schneller IM DURCHSCHNITT als die HD5870.
Es gibt kein Entkommen ;)
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/21/#abschnitt_performancerating_qualitaet
Die reine Auflösungsskalierung ist auf der Radeon besser als auf der GTX 480: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests. Bei der höheren Rechenleistung und Texelfüllrate der HD 5870 auch nicht weiter verwunderlich. Bei 8xMSAA kann die GTX 480 natürlich ihre 48 ROPs samt den Optimierungen für 8xMSAA sowie die höhere Speicherbandbreite ausspielen.

Undertaker
2010-04-03, 20:42:48
ja und was ist das linear?
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=13

Das ist aber alles nicht mehr spielbar, selbst bei CF (für erträgliche MR würde ich dort mal 40-50fps als Anforderung setzen). Bei einer HD5870 bleiben >1024MB verschenktes Geld.

derguru
2010-04-03, 20:48:11
ja und jetzt?ist bei der 480gtx und vorallem bei 470 auch nicht anders.jedenfalls in der 1920*1200 auflösung.

Blaire
2010-04-03, 20:51:02
ja und jetzt?ist bei der 480gtx und vorallem bei 470 auch nicht anders.jedenfalls in der 1920*1200 auflösung.

Bei der GTX480@SLI würde man die 40er Marke sicher stemmen. Mit der 470@SLI nicht.

tombman
2010-04-03, 20:51:11
ja und was ist das linear?selbst der 470 geht der ram lansgsam aber sicher aus unter 1920*1200
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=13
Das ist der Beweis, daß der Ram bis 1680x1050 hält, bei 1920x1200 ist er ausgegangen.
Wenn er aber bis 1680x1050 ausreichend war, dann waren auch die Werte korrekt. Und wenn man dann auf 1920x1200 extrapoliert, würden
nicht mal 2 Stück HD5870 reichen um das flüssig zu bekommen ;)
Und falls man es mit 3 oder 4 Stück schaffen sollte, fehlt immer noch Phys-X. Auch das kann man umgehen, aber dann bräuchte man ein ziemlich
abgefahrenes mobo (EVGA 4-SLI classified), Unmengen von Geld und hätte unfaßbar viel Stromverbrauch- dagegen wäre GTX480 SLI noch sparsam und günstig ;)

Undertaker
2010-04-03, 20:51:40
ja und jetzt?ist bei der 480gtx und vorallem bei 470 auch nicht anders.jedenfalls in der 1920*1200 auflösung.


Auch die brauchen nicht mehr Speicher, korrekt. Allerdings sollte den PCGH-Werten nach ein GTX470 SLI in Metro für 1680x1050/4xMSAA/16xAF/Max reichen, mit der GTX480 sollte FullHD möglich sein. Bei einem HD5870 CF muss man wohl auf 1440x900 zurückgehen.

Metro ist halt ein NV-Vorzeigegame. Gibt ja auch andere Fälle. ;)

Spasstiger
2010-04-03, 20:55:22
Und falls man es mit 3 oder 4 Stück schaffen sollte, fehlt immer noch Phys-X.
PhysX kann man in Metro 2033 selbst mit einer Radeon HD 5850 problemlos nutzen: http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX-Update-GPU-PhysX-Video/Action-Spiel/Test/?page=2.
Den Performancevorteil hat die GTX 480 in Metro 2033 nicht wegen PhysX, sondern wegen der Tessellation.

/EDIT: Hier die entscheidende Stelle im Text:
Die Kollegen von PhysX-Info haben sich die "Advanced PhysX"-Effekte näher angeschaut. Diese werden im Fazit als "mediocre" (unbedeutend) klassifiziert, denn im Vergleich zu bisherigen GPU-PhysX-Titeln erschöpfen sich die Effekte in ein paar zusätzlichen Partikeln wie umherspritzendem Putz (bei Schüssen auf Wände) oder mehr Trümmern bei Explosionen. Einzig in Kämpfen mit vielen Granaten und heftigem Sperrfeuer sinkt die Leistung (bei Berechnung auf der CPU) drastisch. Uns ist dies während dem Zocken nicht aufgefallen - offenbar ist unsere 4,0-GHz-Lynnfield-CPU potent genug oder wir haben schlicht kein so anspruchsvolles Gefecht geführt. Interessantes Detail: Die Multicore-Berechnung von PhysX via CPU funktioniert offenbar sehr gut, dies passt zu den publizierten Werten des Fluidmark v1.2.
Eine schnelle Multicore-CPU reicht für PhysX in Metro 2033.

LovesuckZ
2010-04-03, 20:58:37
Die reine Auflösungsskalierung ist auf der Radeon besser als auf der GTX 480: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/5/#abschnitt_skalierungstests. Bei der höheren Rechenleistung und Texelfüllrate der HD 5870 auch nicht weiter verwunderlich. Bei 8xMSAA kann die GTX 480 natürlich ihre 48 ROPs samt den Optimierungen für 8xMSAA sowie die höhere Speicherbandbreite ausspielen.

GF100 arbeitet Geometrie wesentlich schneller ab als alle anderen GPUs vor ihr. Deswegen verliert die Karte mit einer höhreren Auflösung auch mehr Leistung. Hier also bitte die richtigen Schlüsse aus den Zahlen ziehen.

Gast
2010-04-03, 21:00:14
wen es interessiert (falls noch nicht gepostet): http://ht4u.net/news/21916_nvidia_beschneidet_auch_dp-faehigkeiten_der_geforce-gtx-400-serie/

Sry Tombman, aber deine jugendhafte Ausdrucksweise bringt einen Erwachsenen tatsächlich mal wirklich auf die Palme.

Exxtreme
2010-04-03, 21:03:07
Sry Tombman, aber deine jugendhafte Ausdrucksweise bringt einen Erwachsenen tatsächlich mal wirklich auf die Palme.
Ist trotzdem offtopic hier. Also zurück zum Thema.

Gast
2010-04-03, 21:06:00
Nein, denn bei Rammangel sinken die fps sprunghaft auf einstellige Werte und nicht "linear" mit der Auflösung.

Das ist nur bei Nvidia so, AMD hat keinen VRAM-Bug.

Grestorn
2010-04-03, 21:08:42
wen es interessiert (falls noch nicht gepostet): http://ht4u.net/news/21916_nvidia_beschneidet_auch_dp-faehigkeiten_der_geforce-gtx-400-serie/

Diese Info ist schon wochenalt.

AYAlf_2
2010-04-03, 21:13:49
Diese Info ist schon wochenalt.
was aber nichts an ihrer aktualitaet veraendert hat. bitte beim thema bleiben!

derguru
2010-04-03, 21:17:31
Das ist der Beweis, daß der Ram bis 1680x1050 hält, bei 1920x1200 ist er ausgegangen.
Wenn er aber bis 1680x1050 ausreichend war, dann waren auch die Werte korrekt.
schau lieber mal genau hin,der speicher ist schon bei 1680*1050 am ende oder woher kommt der performanceunterschied der 470 und 480 bei 1680*1050 zu 1920*1200.

hier ist der kram mal ohne 4xmsaa,
http://www.abload.de/thumb/metro_016gxa.png (http://www.abload.de/image.php?img=metro_016gxa.png)http://www.abload.de/thumb/metro20331920real6r1u.png (http://www.abload.de/image.php?img=metro20331920real6r1u.png)

Grestorn
2010-04-03, 21:17:35
was aber nichts an ihrer aktualitaet veraendert hat. bitte beim thema bleiben!

Wie war das? Kritik gebetsmühlenartig wiederholen? Soll ich auch mal? AF, Profile, AI, Tesselation? Nein, das ist mir zu blöd.

Leuts, entweder ihr bringt wirklich neue Aspekte oder ihr lasst die Diskussion, deren einziger Sinn noch ist, um jeden Preis Recht zu haben.

pXe
2010-04-03, 21:20:33
Nächste Woche bekomme ich ja meine 5850, zur Zeit habe ich noch eine GTX260. Nun wollte ich Videos machen, um das AF besser vergleichen zu können.

Kennt jemand besonders flimmeranfällige Stellen in Demos etc. wo das sofort ins Auge sticht?

Habe mal kurz Far Cry1, Half Life 2 und Bad Company 2 getested, zwischen HQ AF und Q mit Tri Optimierung (was ja laut CB mit dem ATI nahezu identisch sein soll) sah ich jetzt keinen grossen Unterschied :confused:

Das letzte mal hab ich die AF Qualitätssettings mit meiner 6800GT mit Far Cry1 ausprobiert, dass weiss ich noch genau, ohne HQ AF hat sichs totgeflimmert.
Seitdem hab ich immer ausschliesslich mit HQ AF gespielt.


pXe

Botcruscher
2010-04-03, 21:21:58
wen es interessiert (falls noch nicht gepostet): http://ht4u.net/news/21916_nvidia_beschneidet_auch_dp-faehigkeiten_der_geforce-gtx-400-serie/
Böse, richtig böse. Ist das ein Hardwarelock oder kann man es per Treiber umgehen?
Diese Info ist schon wochenalt.
Die Info stammte damals aber glaube ich noch aus der Gerüchteecke. Ändert aber auch nichts.
Leuts, entweder ihr bringt wirklich neue Aspekte oder ihr lasst die Diskussion, deren einziger Sinn noch ist, um jeden Preis Recht zu haben.
Bleibt mal auf dem Teppich. Für Otto-Normalversager ist das kaum von Bedeutung, für den Profibereich schon.

Grestorn
2010-04-03, 21:27:06
Böse, richtig böse. Ist das ein Hardwarelock oder kann man es per Treiber umgehen?

Es ist sicher schade, aber wieso böse? Das Produkt kann, was es kann. Es wurde nie mehr versprochen.

Achtung: jetzt kommt wieder Grestorn mit einem seiner berühmten Vergleiche: Wenn Du Touristenklasse bezahlst, bist Du dann auch sauer, weil Du nicht im eigentlich noch freien Business-Class Sitzplatz sitzen darfst? Der ist schließlich auch gebaut, vorhanden und theoretisch nutzbar... nur die "Software" in Form der Stewardess hindert Dich daran...

Zu Deinem Edit: Profis kaufen sich auch Profikarten, die die Leistung liefern aber eben auch einen professionellen Preis haben.

Botcruscher
2010-04-03, 21:32:44
Es ist sicher schade, aber wieso böse? Das Produkt kann, was es kann.
Mit künstliche Beschneidungen zum pushen von Tesla schneidet man sich nur selber ins Fleisch.
Achtung: jetzt kommt wieder Grestorn mit einem seiner berühmten Vergleiche: Wenn Du Touristenklasse bezahlst, bist Du dann auch sauer, weil Du nicht im eigentlich noch freien Business-Class Sitzplatz sitzen darfst? Der ist schließlich auch gebaut, vorhanden und theoretisch nutzbar... nur die "Software" in Form der Stewardess hindert Dich daran...

Weil die Chinesen zum Bleistift bestimmt nicht aus der Turi Klasse hoch buchen. Die meisten Unis und Co werden es auch nicht tun. Man verschenkt einen hohen Verbreitungsgrad und irgendwann klopft dann Intel mit seinen MRD an die Tür. Na Kinder, rückt doch mal rüber.

Spasstiger
2010-04-03, 21:33:51
Zu Deinem Edit: Profis kaufen sich auch Profikarten, die die Leistung liefern aber eben auch einen professionellen Preis haben.
Im akademischen Bereich ist es nicht unüblich, Destkop-Grafikkarten für Computing zu verwenden (habs ja selbst schon an der Uni gesehen). 200€ für eine Desktop-Grafikkarte sind meist locker im Budget für ein studentisches Projekt, 2000€ für eine Tesla jedoch nicht.

aths
2010-04-03, 21:35:29
Böse, richtig böse.Inwiefern ist das böse, ungefähr doppelte DP-Leistung einer GTX 285 zu bekommen?

Marodeur
2010-04-03, 22:03:38
Bisschen runterscrollen in dem verlinkten Thread:

Ah, danke. Hatte nur auf der Artikelseite geschaut unds Forum vergessen.

Exxtreme
2010-04-03, 22:05:05
Inwiefern ist das böse, ungefähr doppelte DP-Leistung einer GTX 285 zu bekommen=
So eine künstliche Beschneidung ist aus dem psychologischen Standpunkt heraus nie etwas Optimales.

mapel110
2010-04-03, 22:07:33
So eine künstliche Beschneidung ist aus dem psychologischen Standpunkt heraus nie etwas Optimales.
Den Desktop-Geforce werden Tesla und Quadro-Features vorenthalten via Software. Das war schon immer so. Jetzt ist halt ein Detail dazu gekommen.

Exxtreme
2010-04-03, 22:12:16
Den Desktop-Geforce werden Tesla und Quadro-Features vorenthalten via Software. Das war schon immer so. Jetzt ist halt ein Detail dazu gekommen.
Als optimal sehe ich das trotzdem nicht. Zumal man als Spieler mit den Quadro-Features eigentlich kaum was anfangen konnte. Diese neue Beschneidung könnte negative Auswirkungen auch auf Spiele haben.

mictasm
2010-04-03, 22:14:22
Als optimal sehe ich das trotzdem nicht. Zumal man als Spieler mit den Quadro-Features eigentlich kaum was anfangen konnte. Diese neue Beschneidung könnte negative Auswirkungen auch auf Spiele haben.
Könntest du deinen Ansatz für die negativen Auswirkungen auf Spiele etwas weiter erklären?

aths
2010-04-03, 22:55:00
Als optimal sehe ich das trotzdem nicht. Zumal man als Spieler mit den Quadro-Features eigentlich kaum was anfangen konnte. Diese neue Beschneidung könnte negative Auswirkungen auch auf Spiele haben.Welche denn?

tombman
2010-04-04, 00:00:48
schau lieber mal genau hin,der speicher ist schon bei 1680*1050 am ende oder woher kommt der performanceunterschied der 470 und 480 bei 1680*1050 zu 1920*1200.

hier ist der kram mal ohne 4xmsaa,
http://www.abload.de/thumb/metro_016gxa.png (http://www.abload.de/image.php?img=metro_016gxa.png)http://www.abload.de/thumb/metro20331920real6r1u.png (http://www.abload.de/image.php?img=metro20331920real6r1u.png)
Die letzte Hoffnung ist jetzt 2Gb, oder wie? :lol:

Undertaker
2010-04-04, 00:11:49
schau lieber mal genau hin,der speicher ist schon bei 1680*1050 am ende oder woher kommt der performanceunterschied der 470 und 480 bei 1680*1050 zu 1920*1200.


Die 30% Performanceunterschied in 1680x1050 zwischen GTX470 und GTX480 sind an sich recht passend für die Rohleistungsdifferenz. In 1920x1200 könnte die GTX470 in der Tat schon geringfügig an der Speichermenge hängen - bei den fps ist das aber relativ egal. Die beiden HD5000 Karten scheinen in 1680x1050 aber noch nicht über ihr 1GB hinaus zu kommen, die Leistungsdifferenz ist ähnlich groß wie im weit weniger speicherfordernden DX10 Benchmark darunter.

Exxtreme
2010-04-04, 00:44:30
Könntest du deinen Ansatz für die negativen Auswirkungen auf Spiele etwas weiter erklären?
Welche denn?
Doppelte Genauigkeit ist in Spielen nicht nutzbar oder wie?

mapel110
2010-04-04, 00:50:41
Doppelte Genauigkeit ist in Spielen nicht nutzbar oder wie?
Wird bislang jedenfalls nicht verwendet laut unseren Gurus. Und es gibt wohl auch keinen Anwendungszweck beim Rendern.

AYAlf_2
2010-04-04, 02:47:16
Wie war das? Kritik gebetsmühlenartig wiederholen? Soll ich auch mal? AF, Profile, AI, Tesselation? Nein, das ist mir zu blöd.

Leuts, entweder ihr bringt wirklich neue Aspekte oder ihr lasst die Diskussion, deren einziger Sinn noch ist, um jeden Preis Recht zu haben.

dafuer ... dass du es nicht machen wolltest ... hast du es aber toll hinbekommen.. die andere info wurde noch nicht ganannt .. und ist deshalb interessant .. dein kram ist schon zu genuege .. auch in diesem thread ... durchgekaut worden. nur weil dir etwas bekannt ist .. musst du nicht zwangsweise davon ausgehen, dass jeder von dieser nachricht wusste. ..... immer schoen fair bleiben und weniger fanboy.

Grestorn
2010-04-04, 09:01:31
die andere info wurde noch nicht ganannt ..

Doch, wurde sie, denn ich wusste es nur aus diesem Thread.

Gast
2010-04-04, 09:25:26
Doppelte Genauigkeit ist in Spielen nicht nutzbar oder wie?
Dann dürfte das Fehlen von DP in sämtlichen bisherigen Mainstream-Parts (außer 4770) von AMD und Nvidia diesem "Spiele-Feature" ja erst recht den Todesstoß versetzen.

hanneslan
2010-04-04, 09:56:11
Guten Morgen alle Miteinander.

Ich hätte da zum Thema GTX 480 mal einige Fragen:

1. Performanceunterschiede in DX 11 zw. Windows 7 u. Vista? Wenn ja wieviel in %? Vernachlässigbar?

2. Große Unterschiede zw. PCI-Express 1.1 u. 2.0? Prozentwerte?

3. 600 Watt 85Plus Silber Markennetzteil ausreichend für 1 GTX 480? Auch für Furmark, Unigine Heaven u sonstige Benchmarks?

Hoffe auf einige Antworten u vielen Dank für die Antworten.

PS: Sorry für die Anfängerfragen. ;-)

Mfg hanneslan

Gast
2010-04-04, 10:10:50
Guten Morgen alle Miteinander.

Ich hätte da zum Thema GTX 480 mal einige Fragen:

1. Performanceunterschiede in DX 11 zw. Windows 7 u. Vista? Wenn ja wieviel in %? Vernachlässigbar?

2. Große Unterschiede zw. PCI-Express 1.1 u. 2.0? Prozentwerte?

3. 600 Watt 85Plus Silber Markennetzteil ausreichend für 1 GTX 480? Auch für Furmark, Unigine Heaven u sonstige Benchmarks?

Hoffe auf einige Antworten u vielen Dank für die Antworten.

PS: Sorry für die Anfängerfragen. ;-)

Mfg hanneslan

Hi

Zu 1.) Zwischen 0-5%
Zu 2.) Ebenfalls im kleinen Bereich, teilweise aber spürbar. Siehe: http://www.pcgameshardware.de/aid,685386/PCI-E-11-vs-PCI-E-20-Schlaegt-sich-die-hoehere-Transferrate-in-mehr-Leistung-nieder/Grafikkarte/Test/
Zu 3.) Passt auf jeden Fall.

cR@b
2010-04-04, 11:01:55
Wie ist das eigentlich jetzt... werden die Graka Hersteller von Anfang an eigene Karten bauen oder bekommen sie derzeit von nVidia die komplette Graka und müssen nur noch ihren Aufkleber drauf klatschen? Frage mich nur wie dann z.B. MSI mit besseren Kondensatoren etc. werben und das einhalten möchte, wenn sie die Karten direkt von nV bekommen?
Wieviel ns hat der Speicher der 480GTX und der der 470GTX?

Exxtreme
2010-04-04, 12:34:36
Dann dürfte das Fehlen von DP in sämtlichen bisherigen Mainstream-Parts (außer 4770) von AMD und Nvidia diesem "Spiele-Feature" ja erst recht den Todesstoß versetzen.
Nun ja ... ich habe mit "könnte" absichtlich die Wahrscheinlichkeitsform benutzt. ;)

Wenn es unwahrscheinlich ist, dass diese Beschneidung irgendwelche negativen Auswirkungen hat dann ist es ja OK. Andererseits sollte man niemals die Kreativität irgendwelcher Programmierer unterschätzen wenn sie erstmal neue Möglichkeiten haben.

deekey777
2010-04-04, 12:51:06
Wegen der beschnittenen DP-Performance (beschnitten != nicht vorhanden):
Für Spiele ist es egal. Selbst wenn Software kommt, die DP für irgendwelche Filter braucht, wird die Leistung einer GTX480/GTX470 immernoch höher sein als einer CPU.
Was aber immer wieder vergessen wird, dass es ein weiteres Gebiet gibt: Distributed Computing. Und dort haben wir schon Software, die DP nutzt, http://www.planet3dnow.de/vbulletin/showthread.php?t=375718&garpg=13#content_start. Und es gibt Leute, die Grafikkarten nur für DC kaufen.

Natürlich kommt jetzt einer, der sagt, das sei ein Nischenbereich.

Gast
2010-04-04, 16:53:41
Wegen der beschnittenen DP-Performance (beschnitten != nicht vorhanden):
Für Spiele ist es egal. Selbst wenn Software kommt, die DP für irgendwelche Filter braucht, wird die Leistung einer GTX480/GTX470 immernoch höher sein als einer CPU.
Was aber immer wieder vergessen wird, dass es ein weiteres Gebiet gibt: Distributed Computing. Und dort haben wir schon Software, die DP nutzt, http://www.planet3dnow.de/vbulletin/showthread.php?t=375718&garpg=13#content_start. Und es gibt Leute, die Grafikkarten nur für DC kaufen.

Natürlich kommt jetzt einer, der sagt, das sei ein Nischenbereich.

Wobei die Ati Karten z.B. im milkyway@home, collatz@home usw. ausser im folding@home die NV-Karten nur so aufschnupfen, weil die Rechenleistung der NV-Karten generell mangelhaft ist. Das alle nur folding@home benchen, ein Schelm wer böses dabei denkt.........



milkyway@home

Platform measured_speedup theoretical_peak

measured_speedup theoretical_peak sind jeweils der Faktor zur CPU-Leistung

Phenom_X4_940_3.0GHz_CPU_core, DP_SSE3 x1 x1 (12GFlop/s)
NV_GTX285_DP x17 x7.4 (89GFlop/s)
ATI_HD4870_DP x34 x20 (240GFlop/s)
ATI_HD4870_DP x48 x20 (240GFlop/s)
ATI_HD5870_DP x109 x45 (544GFlop/s)
NV_GTX285_SP x130 x89 (1063GFlop/s)
ATI_HD4870_SP x299 x100 (1200GFlop/s)
ATI_HD5870_SP x647 x225 (2700GFlop/s)

aths
2010-04-04, 17:57:21
Wie ist das eigentlich jetzt... werden die Graka Hersteller von Anfang an eigene Karten bauen oder bekommen sie derzeit von nVidia die komplette Graka und müssen nur noch ihren Aufkleber drauf klatschen? Frage mich nur wie dann z.B. MSI mit besseren Kondensatoren etc. werben und das einhalten möchte, wenn sie die Karten direkt von nV bekommen?
Wieviel ns hat der Speicher der 480GTX und der der 470GTX?Die ns-Angabe kenne ich nicht. Im Moment kommen alle Karten von Nvidia, welche bei Flextronics fertigen lassen. Nvidia erlaubt allerdings schon gleich zu Beginn Übertaktung und Änderungen am Kühler. GPU-Kits für die Hersteller dürften in Vorbereitung sein. Die können dann mit eigenen Layouts entweder auf Kostenersparnis optimieren oder auf Taktbarkeit (Spannungswandler, Signalstabilität.)

LovesuckZ
2010-04-04, 18:13:30
GTX470 soll 0,5 und GTX480 0,4ns Speicher haben.

Aquaschaf
2010-04-04, 18:38:39
Nun ja ... ich habe mit "könnte" absichtlich die Wahrscheinlichkeitsform benutzt. ;)

Wenn es unwahrscheinlich ist, dass diese Beschneidung irgendwelche negativen Auswirkungen hat dann ist es ja OK. Andererseits sollte man niemals die Kreativität irgendwelcher Programmierer unterschätzen wenn sie erstmal neue Möglichkeiten haben.

Die einzige Form in der das für Spiele theoretisch relevant sein könnte wäre dann, wenn ein Spiel GPGPU-Berechnungen in DP durchführen würde. Und da würde ich um Geld wetten dass es nicht passiert.

Der Effekt den die Sache hat ist in erster Linie dass die Grafikkarten von AMD/ATI für GPGPU-Anwender die DP benötigen attraktiver werden.

HD-Ronny
2010-04-04, 19:58:51
Eigentlich hätte ich mir gerne den Fermi geholt, aber es gibt keinen Grund dafür. Die GTX470 kostet das gleiche wie die 5870 und kann bis auf Metro2033 nichts besser. Selbst die GTX480 versagt in dem Game (1900x1200), kann man also knicken außer man nimmt SLI GTX480 dann wirds gerade so spielbar. Für mich unsinnig weil sonst alles mit einer HD5870 spielbar ist. PhysX und Cuda sind für mich noch kein Kaufargument, genau so wenig wie Tess. , weil zu wenig unterstützt. Eine propitäre GPU PhysX braucht kein normaldenkender Gamer und sollte eh boykottiert werden . . Was mich am meisten enttäuscht ist, das Nvidia nicht auf das geile SGSSAA antwortet und selbst die inoffiziellen Modi nicht supportet. Anstatt auf zukünftige DX11 Games zu warten die wie bekloppt tessilieren spiel ich doch gerne erstmal DX9 Goodies in max. Bildqualität.

Gast
2010-04-04, 20:32:24
Anstatt auf zukünftige DX11 Games zu warten die wie bekloppt tessilieren spiel ich doch gerne erstmal DX9 Goodies in max. Bildqualität.
Schön und gut, aber dafür braucht man keine 5870.

Raff
2010-04-04, 20:35:29
Nicht zwingend, aber die liefert SGSSAA plus gescheite Downfilter bei ausreichender Ausführungsgeschwindigkeit. Natürlich kann man auch eine GTX 200 hernehmen und die Spiele mit Hybridmodi bearbeiten, aber da wird die Leistung schon mal knapp.

MfG,
Raff

y33H@
2010-04-04, 20:37:11
Die GTX470 kostet das gleiche wie die 5870 und kann bis auf Metro2033 nichts besser.Das stimmt so pauschal schlicht nicht. Abgesehen von Metro schlägt sie die HD5870 auch in WoW sowie GTA4 und generell da, wo Tessellation massiv genutzt wird.

Gast
2010-04-04, 20:41:20
Das wirkt so als ob man erst jetzt auf die Idee kommt mal D3D9 Spiele aufzuwerten.
Ich sehe das mehr als einen natürlichen Übergang. Es gibt nicht den Stichtag, an dem ich nicht mehr auf D3D9 gesetzt habe, mit jeder neuen Grafikkarte habe ich ihre Leistung auch genutzt, ob in D3D9 oder auch mal seltener in D3D10.

derguru
2010-04-04, 20:45:11
Das stimmt so pauschal schlicht nicht. Abgesehen von Metro schlägt sie die HD5870 auch in WoW sowie GTA4 und generell da, wo Tessellation massiv genutzt wird.

und 99% aller anderen spiele ist sie langsamer,lol WoW,gta4.nicht mal in den dx11 games ist sie schneller.in ssaa kann sich die 470 auch nicht absetzen von einer 285gtx.
welches spiel nutzt den massive tess? heaven bench?

Raff
2010-04-04, 20:47:40
Die GTX 480 ist in 99 Prozent der Spiele langsamer als die HD 5870? Äh, nein. Nicht mal ansatzweise und mit perfektionierter Rosinenpickerei. ;)

Argh, ihr redet von der GTX 470. Sorry. :ugly: Naja, die ist immerhin für GTX-260/HD-4870-Besitzer eine feine Karte. Das nennt man "Alternative" – und zwar mindestens gleichwertig –, denn nicht jeder will eine HD 5800.

MfG,
Raff

tombman
2010-04-04, 20:49:20
und 99% aller anderen spiele ist sie langsamer,lol WoW,gta4.nicht mal in den dx11 games ist sie schneller.in ssaa kann sich die 470 auch nicht absetzen von einer 285gtx.
welches spiel nutzt den massive tess? heaven bench?
Aber sie hat Phys-X :ufinger:
Also, ich finde die 470er nicht schlecht.

HD-Ronny
2010-04-04, 20:50:30
Das stimmt so pauschal schlicht nicht. Abgesehen von Metro schlägt sie die HD5870 auch in WoW sowie GTA4 und generell da, wo Tessellation massiv genutzt wird.

WoW ist ein eigenes Ding das ich nicht kommentieren möchte. Für GTA IV gilt wie für den Rest das eine HD5870 ausreichende Fps liefert . Mag sein das in Ausnahmefällen die GTX schneller ist, ändert aber nichts am Fazit.

Exxtreme
2010-04-04, 20:50:56
Die GTX 480 ist in 99 Prozent der Spiele langsamer als die HD 5870? Äh, nein. Nicht mal ansatzweise und mit perfektionierter Rosinenpickerei. ;)

MfG,
Raff
Es geht um die 470'er. Und die scheint durchwegs langsamer zu sein als die R5870. Mag sein, dass neue Treiber noch was reissen. Andererseits ist Nvidia nicht dafür bekannt, dass sie grössere Sprünge bezüglich Geschwindigkeit in ihren Treibern bringen.

Gast
2010-04-04, 20:51:45
und 99% aller anderen spiele ist sie langsamer,lol WoW,gta4.nicht mal in den dx11 games ist sie schneller.in ssaa kann sich die 470 auch nicht absetzen von einer 285gtx.
welches spiel nutzt den massive tess? heaven bench?
UND?
Die GTX 470 hat ihre Berechtigung. Warum müssen wir nicht zum xten Mal durchkauen.

y33H@
2010-04-04, 20:51:57
@ derguru

Die GTX470 ist in vielen Titeln gleichauf, in einigen wenigen schneller und in einigen langsamer. Je nach Spiele-Parcours ist die GTX470 im Mittel ergo einen Tick vor oder hinter der HD5870 - oder eben gleichauf.

EDIT
Mit SSAA ist die GTX470 natürlich schneller als eine GTX285.

HD-Ronny
2010-04-04, 20:53:10
Aber sie hat Phys-X :ufinger:
Also, ich finde die 470er nicht schlecht.

Langsam sollte auch Dir dämmern das es auf GPGPU ein Rohrkrepierer ist . :rolleyes:

pXe
2010-04-04, 20:55:45
@ derguru

Die GTX470 ist in vielen Titeln gleichauf, in einigen wenigen schneller und in einigen langsamer. Je nach Spiele-Parcours ist die GTX470 im Mittel ergo einen Tick vor oder hinter der HD5870 - oder eben gleichauf.

EDIT
Mit SSAA ist die GTX470 natürlich schneller als eine GTX285.

Quelle?

Ich kenn nur das:

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=16


pXe

tombman
2010-04-04, 20:56:42
Langsam sollte auch Dir dämmern das es auf GPGPU ein Rohrkrepierer ist . :rolleyes:
Habe ich jemals was anderes behauptet? Nur geht mir GPGPU am A**** vorbei...

Wenn ich einen supercomputer bauen wollte, würde ich mich mit 5970ern eindecken :)

HD-Ronny
2010-04-04, 20:59:39
sorry

derguru
2010-04-04, 20:59:54
Aber sie hat Phys-X :ufinger:
Also, ich finde die 470er nicht schlecht.
krass:rolleyes:
@ derguru

Die GTX470 ist in vielen Titeln gleichauf, in einigen wenigen schneller und in einigen langsamer. Je nach Spiele-Parcours ist die GTX470 im Mittel ergo einen Tick vor oder hinter der HD5870 - oder eben gleichauf.
bei eurem benchparcour aber bei sogut wie allen anderen sind es 5-10% lahmer.


Mit SSAA ist die GTX470 natürlich schneller als eine GTX285.
dazu gibt es ja nichts außer von euch und da ist davon nichts zusehen abgesehen wenn die hybriden mit 8aa dazu nimmt.

http://www.abload.de/img/ssaa0wnx.gif

y33H@
2010-04-04, 21:00:50
@ pXe

Ich habe einige Titel mit 16xS angezockt und weiß, wie flott meine GTX280 hier ist. Und die GTX470 ist klar schneller.
bei eurem benchparcour aber bei sogut wie allen anderen sind es 5-10% lahmer.Nein. Die Differenz des Abschneidens der GTX480 zur HD5870 unterscheidet sich beispielsweise zwischen PCGH und CB um nur 1% über 1680, 1920 und 2560 hinweg. Ergo sollte die GTX470 bei CB minimal hinter der HD5870 liegen.

Blaire
2010-04-04, 21:11:45
Ich habe einige Titel mit 16xS angezockt und weiß, wie flott meine GTX280 hier ist. Und die GTX470 ist klar schneller.


Das ist wie Musik in meinen Ohren. Geht das noch etwas präziser? :) Welche Games z.b.

y33H@
2010-04-04, 21:14:38
CoD MW, L4D, Crysis, Dark Messiah, Riddick, Stalker SoC und Gears of War. Gerade die letzten drei laufen auf der GTX280 OC @ 1.920 x 1.200 ziemlich mies.

Raff
2010-04-04, 21:17:57
krass:rolleyes:

bei eurem benchparcour aber bei sogut wie allen anderen sind es 5-10% lahmer

Haarspalterei! :tongue: 5 bis 10 Prozent sind, wenn es denn so ist, nichts, was irgendwie über (Un)Spielbarkeit entscheidet. Noch dazu ist die Differenz vom Spieleparcours abhängig. Wir diskutieren hier im Grunde über die Nachkommastelle. Ergo: Die Karten sind gleich schnell, wie auch die GTX 260 etwa so schnell wie die HD 4870/1G ist und die HD 4890 im Schnitt mit der GTX 275 konkurriert. Ergo ergo: Die Features sollten beim Kauf ausschlaggebend sein, nicht der Fps-Furz.

MfG,
Raff

derguru
2010-04-04, 21:25:50
bin ja kein korintenkacker,nur halt die aussage das eine 470 gleich schnell ist stimmt einfach nicht.in sogut wie allen reviews ist die 480 ca.10-20% schneller als die 5870,dann kann eine 470 gar nicht gleich schnell sein.
richtig,fps ist nicht alles in allen anderem ist die 5870 auch überlegen,kühler,leiser,besseres AA(sgssaa),weniger verbrauch unter last und idle.

was bleibt der 470,phÜsXis und af.

wenn das bissel fps nicht von unspielbarkeit entscheidet ist die 5850 sowieso absolut konkurrenzlos.

Gast
2010-04-04, 21:30:14
Mit SSAA ist die GTX470 natürlich schneller als eine GTX285.Wie siehts denn aus, wenn man gezielt den Speicher quält? Habt ihr schon Treiber, mit denen Stereo3D-Surround geht, und dann ein 470er Duo gegen ein 2GB-285er Duo gestellt, idealerweise mit 16xS und/oder 32xS? Wenigstens für die Printausgabe?

mapel110
2010-04-04, 21:31:03
Und über das bessere AA kann man auch streiten, weil die SGSSAA-Modi von ATI kein MSAA beinhalten und damit weniger auf Polygonkanten einwirken.

y33H@
2010-04-04, 21:32:29
4x SGSSAA entspricht hinsichtlich der Polygone 4x SGMSAA. Mehr braucht's imo nur in Extremfällen.

@ Gast

Kein SLI.

Gast
2010-04-04, 21:42:46
Also nur mit 2 Monitoren/Beamern in Stereo3D :confused:

y33H@
2010-04-04, 21:44:21
Soweit waren wir noch nicht :usad: Und nach der Produktion erst mal Urlaub ...

Gast
2010-04-04, 21:51:41
Darf man fragen woran es lag? Noch keine Treiber mit Support dafür, nicht genug HW (ob nun Karten oder Monitore/Beamer) oder schlicht den Redaktionsschluss im Nacken? So ein echter Stresstest für die VRAM-Menge und wie NV sie verwaltet wäre schon sehr interessant, besonders wenn man den sogenannten "VRAM-Bug" der alten Gen bedenkt...

Wie auch immer, wünsche gute Entspannung nach dem Benchmarathon.

y33H@
2010-04-04, 21:55:56
Bis Print-Abgabe und Online keine Zeit und nur je eine Karte und die vergangene Woche Urlaub. Am Dienstag geht's weiter =)

aths
2010-04-04, 22:01:15
Es geht um die 470'er. Und die scheint durchwegs langsamer zu sein als die R5870. Mag sein, dass neue Treiber noch was reissen. Andererseits ist Nvidia nicht dafür bekannt, dass sie grössere Sprünge bezüglich Geschwindigkeit in ihren Treibern bringen.Reißen und größere bitte mit ß.

Ich rechne noch mit allgemeinen Performance-Schüben durch neue Treiber. Keine krassen, aber ein paar Prozent sind wohl drin.

und 99% aller anderen spiele ist sie langsamer,lol WoW,gta4.nicht mal in den dx11 games ist sie schneller.in ssaa kann sich die 470 auch nicht absetzen von einer 285gtx.Zumindest in Texel-lastigen Szenen: Natürlich nicht. Man muss den insgesamt relativ geringen Abstand aber nicht so interpretieren dass die 470 besonders schlecht ist, der GT200 war allerdings ziemlich gut. Die GTX 470 sollte nicht teurer sein als die GTX 285 aber hat eben DX11-Support und mehr RAM.

Gast
2010-04-04, 22:18:10
4x SGSSAA entspricht hinsichtlich der Polygone 4x SGMSAA. Mehr braucht's imo nur in Extremfällen.

Die Magazine (auch PCGH) haben dennoch 8xMSAA sehr fleissig getestet.
Da kann man nicht aufeinmal die Kehrtwende machen und sagen 4x reicht.

Das deiner Meinung nach 4x reicht ist absolut in Ordnung. Das ist deine Meinung, ändert jedoch nichts an dem was geschehen ist.

Meiner Meinung nach erhöhen die Hybriden die Flexibilität enorm, den zwischen 2x, 4x und 8x ist Platz für viele weitere Modi.
Was tun wenn die Leistung für 8x nicht reicht. 4x nehmen und die restliche Leistung ins Klo spülen.
Oder wenns nicht für 4x reicht, 2x nehmen und sich über die miese Glättung ärgern oder doch MS nehmen und sich übers fehlende SS ärgern.

Gast
2010-04-04, 22:45:13
Es geht um die 470'er. Und die scheint durchwegs langsamer zu sein als die R5870. Mag sein, dass neue Treiber noch was reissen. Andererseits ist Nvidia nicht dafür bekannt, dass sie grössere Sprünge bezüglich Geschwindigkeit in ihren Treibern bringen.

◦Bis zu 13 % mehr Leistung bei Crysis: Warhead mit einem einzelnen Grafikprozessor
◦Bis zu 30 % mehr Leistung bei Crysis: Warhead mit SLI Technologie
◦Bis zu 13 % mehr Leistung bei H.A.W.X mit einem einzelnen Grafikprozessor
◦Bis zu 15 % mehr Leistung bei H.A.W.X mit SLI Technologie
◦Bis zu 30 % mehr Leistung bei Left 4 Dead mit einem einzelnen Grafikprozessor
◦Bis zu 28 % mehr Leistung bei Left 4 Dead mit SLI Technologie

Aha gibts sonst noch was? :) Solche Zahlen liest man bei jedem zweiten Treiber und bei der jeweils aktuellsten Serie werden die Prozentzahlen auch in etwa erreicht. Sieht man sich Rückblickend die ganze Treiberentwicklung einiger Karten an, so bringen bessere Treiber auch bei NV deutlichen Performancezuwachs. Ich glaube kaum, dass die HD5870 sich lange vor der GTX470 behaupten kann. Sobald die Treiber beider Karten auf einem guten Effizienzlevel sind, wird die HD5870 hinten liegen.

LovesuckZ
2010-04-04, 23:08:45
MikeC von nvnews.net hat nun einen Furmarktest mit einem 120mm Lüfter gemacht, der direkt auf die Heatpipes bläst:
http://www.nvnews.net/articles/geforce_480_gtx_first_look/gpu_temp_images/cooling_with_120mm_fan.png
http://www.nvnews.net/vbulletin/showthread.php?t=149400

Dort gibt es auch noch Werte mit offener Seite, aber ohne zusätzlichen Lüfter.

tombman
2010-04-04, 23:34:05
Na bitte, geht doch :) Auf 100% GPU FAN (;D)+ 120mm gehts vielleicht sogar unter 70°C ;D

Raff
2010-04-04, 23:36:16
Das dürften dann ohrenschmeichelnde ~14 Sone sein. "Yippi-ya-yeah, Schweinebacke!"

MfG,
Raff

tombman
2010-04-04, 23:38:39
Das dürften dann ohrenschmeichelnde ~14 Sone sein. "Yippi-ya-yeah, Schweinebacke!"

Und dann noch 3 Stück davon :uattack4:

Exxtreme
2010-04-04, 23:44:45
Reißen und größere bitte mit ß.

Norwegische Tastatur ... :usad:

Das dürften dann ohrenschmeichelnde ~14 Sone sein. "Yippi-ya-yeah, Schweinebacke!"

MfG,
Raff


Da könnten die Hersteller so einen Lüfter doch beilegen. ;D

Jake Dunn
2010-04-04, 23:47:28
Das dürften dann ohrenschmeichelnde ~14 Sone sein. "Yippi-ya-yeah, Schweinebacke!"

MfG,
Raff

Der Raffael ist nie um einen Oster-Scherz verlegen :D

cR@b
2010-04-05, 00:12:34
Die ns-Angabe kenne ich nicht. Im Moment kommen alle Karten von Nvidia, welche bei Flextronics fertigen lassen. Nvidia erlaubt allerdings schon gleich zu Beginn Übertaktung und Änderungen am Kühler. GPU-Kits für die Hersteller dürften in Vorbereitung sein. Die können dann mit eigenen Layouts entweder auf Kostenersparnis optimieren oder auf Taktbarkeit (Spannungswandler, Signalstabilität.)

Das bedeutet also, MSI verkauft Karten deren Kondensatoren etc. u.U. schlechter sind als ihre normalerweise Verwendeten? Hmm... das ist ja Betrug oder?

GTX470 soll 0,5 und GTX480 0,4ns Speicher haben.

Danke, also liegt die 480er GTX nicht nur in den anderen Dingen vorne...

aths
2010-04-05, 00:45:06
Das bedeutet also, MSI verkauft Karten deren Kondensatoren etc. u.U. schlechter sind als ihre normalerweise Verwendeten? Hmm... das ist ja Betrug oder?Ich weiß nicht was das GPU-Kit genau umfasst, aber MSI muss ja auf seine Produkte normale Garantie geben. Wieso sollte MSI schlechtere Kondensatoren verbauen? Gespart wird gelegentlich beim Spannungswandler (weniger Phasen) und vor allem bei der Platine (weniger Layer) und manchmal beim Speicher (billig eine Charge von XYZ, welche mit Ach und Krach die Specs erfüllt.) Solange die Karte läuft ohne Probleme zu machen, sind Spar-Designs aber nichts schlechtes. Die Nvidia-Referenz ist vor allem auf Stabilität designt, weniger auf Kosteneffizienz. Allerdings lernt Nvidia langsam um und lotet gleich zu Beginn mehr Möglichkeiten zur Kostenreduzierung aus. Was die Grafikkarten aber nicht unbedingt schlechter machen muss. Ati-Karten sind ja auch nicht umsonst vergleichsweise preiswert – ein günstig herzustellendes Design heißt nicht dass die Lebensdauer der Karte leiden muss.

Iruwen
2010-04-05, 00:45:09
/EDIT: Beispiele für die Software-Physik in Garry's Mod:
- http://www.youtube.com/watch?v=LZe2fEK9Z7I
- http://www.youtube.com/watch?v=82SVpORfKDE
- http://www.youtube.com/watch?v=S-Yq_tfKsJE
Zugegebenermaßen, ein Core i7 @ 4 GHz darf es dafür schon sein.

Ein Core i7 @ 4Ghz nur für die Physiksimulation bei 2000 Objekten? Beeindruckend.

...und hier 128.000 Partikel (http://www.youtube.com/watch?v=r17UOMZJbGs) mit PhysX. Dafür kauf ich mir dann bei Garry's Mod 'ne Cray?

Gast
2010-04-05, 01:06:43
Ein Core i7 @ 4Ghz nur für die Physiksimulation bei 2000 Objekten? Beeindruckend.

Ist es tatsächlich, wenn man sich mal vor Augen hält, was aktuelle PhysX-Spiele bieten (5 Blätter, die sich bewegen, 3 Kisten, die man zerschießen kann ...).

cR@b
2010-04-05, 01:18:52
Ich weiß nicht was das GPU-Kit genau umfasst, aber MSI muss ja auf seine Produkte normale Garantie geben. Wieso sollte MSI schlechtere Kondensatoren verbauen? Gespart wird gelegentlich beim Spannungswandler (weniger Phasen) und vor allem bei der Platine (weniger Layer) und manchmal beim Speicher (billig eine Charge von XYZ, welche mit Ach und Krach die Specs erfüllt.) Solange die Karte läuft ohne Probleme zu machen, sind Spar-Designs aber nichts schlechtes. Die Nvidia-Referenz ist vor allem auf Stabilität designt, weniger auf Kosteneffizienz. Allerdings lernt Nvidia langsam um und lotet gleich zu Beginn mehr Möglichkeiten zur Kostenreduzierung aus. Was die Grafikkarten aber nicht unbedingt schlechter machen muss. Ati-Karten sind ja auch nicht umsonst vergleichsweise preiswert – ein günstig herzustellendes Design heißt nicht dass die Lebensdauer der Karte leiden muss.

Nein ich meine eigentlich die Karten von nV, die aber unter dem Namen MSI verkauft werden... am Anfang zumindest. MSI verwendet anscheinend andere/bessere Kondensatoren usw., um gegen Spulenfiepen vorzugehen bzw. die Lebensdauer zu verlängern. Verbaut Flextronic genau die selben wie MSI ist die Frage? Man bekommt also Anfangs keine MSI Karte, sondern von nV sprich Flex oder hab ich das falsch verstanden?

Die werben halt damit und deswegen die Frage warum die sich das trauen, obwohl die Karte anfangs nicht von ihnen stammt :D

■Military Class Components
- Hi-C Cap provides more precise GPU voltage and has better stability.
- SSC (Solid State Chock) for No Buzz noise.
- All Solid CAP for longer lifespan

LovesuckZ
2010-04-05, 01:50:35
Ist es tatsächlich, wenn man sich mal vor Augen hält, was aktuelle PhysX-Spiele bieten (5 Blätter, die sich bewegen, 3 Kisten, die man zerschießen kann ...).

Oder 1 Millionen Partikel in der RocketSled Demo. Oder 30k Partikel in Cryostasis oder ein dynamischer Nebel in Batman oder eine erstmal durch GPU-PhysX realisierte dynamische Cloth-Simulation in Mirrors Edge...
Aber ihr Anti-GPU-PhysX Gegner habt ja weiterhin Half-Life 2. ;D

LovesuckZ
2010-04-05, 01:58:06
Ein Core i7 @ 4Ghz nur für die Physiksimulation bei 2000 Objekten? Beeindruckend.

...und hier 128.000 Partikel (http://www.youtube.com/watch?v=r17UOMZJbGs) mit PhysX. Dafür kauf ich mir dann bei Garry's Mod 'ne Cray?

Nachdem ich die Videos gesehen habe, stell ich mir die Frage: Was will er damit aussagen? Ich find 2000 große Tonnen nicht wirklich überragend, wenn man überlegt, dass eine GPU das 100x bei besserem Speed berechnen kann...

Riplex
2010-04-05, 02:18:39
Kann es sein das Fermi ein klein wenig leiser wird, wenn man ein normal belüftetes Gehäuse hat ?. Also max. 2 Gehäuse Lüfter plus Netzteillüfter.
Also in ich denk mal in einem Gehäuse wo ein gewisser Luftstrom herrscht, ist Fermi leiser als auf einer Teststation.

Iruwen
2010-04-05, 02:21:44
Die tausend Tonnen sind viel größer als ein paar hunderttausend Partikel, also auch viel schwieriger zu berechnen :freak:

PS: wenn die Tonnen und das Terrain sich unter dem Druck verformen und die Explosion und der Staub sich auch physikalisch korrekt verhalten würden wäre ich vielleicht ein bisschen beeindruckt. Aber dafür bräuchte man wohl Tesselation und PhysX :rolleyes:

/e: ich vermute ich auch dass der Kühleffekt bei geschlossenem Case besser sein kann als im offenen Aufbau wenn man den Luftstrom entsprechend kanalisiert.

Gast
2010-04-05, 03:29:38
Aber ihr Anti-GPU-PhysX Gegner habt ja weiterhin Half-Life 2. ;D

Ja, richtig: http://www.youtube.com/watch?v=WTFQp625FqI :rolleyes:

Gast
2010-04-05, 03:39:31
Ja, richtig: http://www.youtube.com/watch?v=WTFQp625FqI :rolleyes:

Ich meine, das Spiel nutzt gerade mal einen einzigen CPU-Kern. Bitte mal die Funken beim Schießen mit dem Mist @ Cryostasis @ PhysX off @ 0:29 vergleichen: http://www.youtube.com/watch?v=g_11T0jficE Beim Crysis-Video sieht's sogar @ 0:06 besser aus als bei Cryostasis @ PhysX on. ;D

_DrillSarge]I[
2010-04-05, 06:56:20
OT:
Das bedeutet also, MSI verkauft Karten deren Kondensatoren etc. u.U. schlechter sind als ihre normalerweise Verwendeten? Hmm... das ist ja Betrug oder?
ohne jetzt die karte zu kennen: alles was mir bisher an karten und mobos abgeraucht ist, war von msi (1900xt, 3870, 4850, sockel 939 und am2 mobo). seit ich von denen nix mehr kaufe läuft alles. :ugly:

tombman
2010-04-05, 08:03:31
I[;7950839']OT:

ohne jetzt die karte zu kennen: alles was mir bisher an karten und mobos abgeraucht ist, war von msi (1900xt, 3870, 4850, sockel 939 und am2 mobo). seit ich von denen nix mehr kaufe läuft alles. :ugly:
Ich kauf von MSI auch nix- die Teile halten nix aus ;)
(es gibt Ausnahmen)

Soundwave1983
2010-04-05, 16:13:08
Nein ich meine eigentlich die Karten von nV, die aber unter dem Namen MSI verkauft werden... am Anfang zumindest.

Die erste Fuhre wird wohl 1:1 nV Standard sein, warum die allerdings da noch ihre Military Class Geschichte dranpappen ist mir schleierhaft. Könnte man die deswegen eigentlich verklagen? Flasche Werbung und so. :D
Das man bei Flextronics extra bessere Kondensatoren etc. ordert glaube ich nicht. Aber zumindest kann man so auch sicher sein, das man keine "stripped down" Karte bekommt.

mironicus
2010-04-05, 16:24:50
Tja... wer kauft sich denn jetzt SOFORT eine 480 von euch, wenn jetzt schon neue PCB-Modelle der 480 mit zwei 6poligen Stromsteckern im Internet aufgetaucht sind...? ;D

derguru
2010-04-05, 16:32:39
jeder der eine will denn bald ist knappheit angesagt.:biggrin:

Gast
2010-04-05, 16:32:41
Die tausend Tonnen sind viel größer als ein paar hunderttausend Partikel, also auch viel schwieriger zu berechnen :freak:

PS: wenn die Tonnen und das Terrain sich unter dem Druck verformen und die Explosion und der Staub sich auch physikalisch korrekt verhalten würden wäre ich vielleicht ein bisschen beeindruckt. Aber dafür bräuchte man wohl Tesselation und PhysX :rolleyes:

/e: ich vermute ich auch dass der Kühleffekt bei geschlossenem Case besser sein kann als im offenen Aufbau wenn man den Luftstrom entsprechend kanalisiert.

Ja sind sie, ein Partikel ist für die Physik-Engine nur ein Punkt der entsprechend mit der Welt kollidiert und abprallt.
Die Tonne hat dagegen eine komplexe Form aus mehreren Polygonen die eine exakte Kollisionsberechnung und Erkennung benötigen.
Außerdem hat die Tonne eine Masse, eine Schwerpunkt und interagiert mit derart komplex auch mit den anderen Tonnen und der Umgebung.
Wenn du genau hinschaust erkennst du, dass den PhysX-Partikeln ein extrem einfaches Physikmodell zugrundeliegt und diese oft granicht mit anderen Partikeltypen reagieren.

Labberlippe
2010-04-05, 16:34:36
I[;7950839']OT:

ohne jetzt die karte zu kennen: alles was mir bisher an karten und mobos abgeraucht ist, war von msi (1900xt, 3870, 4850, sockel 939 und am2 mobo). seit ich von denen nix mehr kaufe läuft alles. :ugly:

Hi

Jo leider hat MSI sehr stark nachgelassen, gerade deren Mainboards gehen bald mal über den Jordan.

Gruss Labberlippe

Botcruscher
2010-04-05, 16:34:50
Tja... wer kauft sich denn jetzt SOFORT eine 480 von euch, wenn jetzt schon neue PCB-Modelle der 480 mit zwei 6poligen Stromsteckern im Internet aufgetaucht sind...? ;D

Womöglich ist es auch nur für die 470 zur Kostenreduzierung. Vergleichbar mit der 260.

Propagandapanda
2010-04-05, 16:37:51
Ich kauf von MSI auch nix- die Teile halten nix aus ;)
(es gibt Ausnahmen)


Jo leider hat MSI sehr stark nachgelassen, gerade deren Mainboards gehen bald mal über den Jordan.
Scheinbar gut dass ich eine MSI vorbestellt habe... :freak:

Wobei von der Qualität der Karten selbst dürften die sich doch nicht von anderen Herstellern unterscheiden, Nvidia sortiert ja nicht für MSI vorher gezielt aus.

Botcruscher
2010-04-05, 16:48:11
MSI bekommt die Karten welche nach einem harten Arbeitstag unter dem Band liegen.;)
Ne Scherz bei Seite, die Firma ist von der Qualität echt weit hinten.

Propagandapanda
2010-04-05, 16:52:11
Wie äußert sich der Mangel an Qualität denn?

Setzen die Hersteller die Kühler selbst auf? Dann wäre dort ein Grund zu suchen, jedoch ging ich bisher davon aus, dass die Hersteller die Karten Fix und Fertig, also mit Standardkühllösung, kriegen und dann maximal noch Ihre Aufkleber draufpappen.
Da kann doch rein theoretisch nichts schlechter als bei der Konkurrenz sein, wenn nicht von Nvidia vorbestimmt.

Ein andere Sache wäre schlechter Support, der hat aber nichts mit der Qualität der Ware direkt zu tun.

:confused:

Soundwave1983
2010-04-05, 16:56:39
Ich hab mal ne eVGA Factory Tour im Web gesehen, dort haben sie grad 8800 GTX Karten bekommen, das waren fertige Kits, mit Kühler etc. wo einfach nur der eVGA Sticker draufgepappt wurde.

Glaube kaum, das sich das bei der ersten Welle an Karten ändert.

Botcruscher
2010-04-05, 16:57:04
Bei deiner Karte gar nicht, die wird eh fremd hergestellt. Bei MoBos und sonstigem Zeug, das sie rumspacken.

mironicus
2010-04-05, 16:59:15
Hey! Macht mir keine Angst! In meinem Desktop arbeitet eine MSI Hawk! ;)

Propagandapanda
2010-04-05, 17:15:04
Wenn deren Hardware so häufig ausfällt haben die aber doch bestimmt Spitzensupport bei RMA Fällen. :biggrin:

Aber atm spiele ich mit dem Gedanken mir noch eine EVGA zu bestellen, nur um sicherzugehen eine zu bekommen.

Soundwave1983
2010-04-05, 17:23:18
Aber atm spiele ich mit dem Gedanken mir noch eine EVGA zu bestellen, nur um sicherzugehen eine zu bekommen.

Was stellt denn sicher, das du eine eVGA bekommst, eine mit anderem Label nicht? Ich glaube kaum das die großartig mehr zugeteilt bekommen haben als alle anderen Hersteller. :confused:

dutchislav
2010-04-05, 17:58:00
Frage ... Asus bieten ihren 480GTXen mit Voltage Tweak an ... tendiere aber zu Zotac - da kommt dann ne Wakü drauf. jetzt würd ich gerne wissen, ob man bei allen 480er die spannung erhöhen kann. weil bei den 58xx Ati karten muss man zuerst das bios flashen, um bei der spannung was zu verändern

y33H@
2010-04-05, 18:11:40
Dazu unter dem Stromverbrauch! Für 1,0 GHz braucht's viel Spannung. Gibt's da Messungen der Leistungsaufnahme?

tombman
2010-04-05, 18:11:54
Tja... wer kauft sich denn jetzt SOFORT eine 480 von euch, wenn jetzt schon neue PCB-Modelle der 480 mit zwei 6poligen Stromsteckern im Internet aufgetaucht sind...? ;D
Und was ist an 2x6 Polen gut? Schlechtere Stromversorgung? Gebt mir 2x 8 Pole! :cool:

Ich sags ja, die meisten verstehen E.-Denke nicht...

Propagandapanda
2010-04-05, 18:31:41
Was stellt denn sicher, das du eine eVGA bekommst, eine mit anderem Label nicht? Ich glaube kaum das die großartig mehr zugeteilt bekommen haben als alle anderen Hersteller. :confused:
Ich wollte die andere dabei nicht abbestellen. ;)

anddill
2010-04-05, 19:35:29
Ein paar Stunden Pause zur allgemeinen Beruhigung. Und dann möchte ich diesen 1-Zeiler-Spam nicht mehr sehen.

dutchislav
2010-04-06, 00:25:28
Frage ... Asus bieten ihren 480GTXen mit Voltage Tweak an ... tendiere aber zu Zotac - da kommt dann ne Wakü drauf. jetzt würd ich gerne wissen, ob man bei allen 480er die spannung erhöhen kann. weil bei den 58xx Ati karten muss man zuerst das bios flashen, um bei der spannung was zu verändern

kann mir das jemand beantworten? =)

Don Vito
2010-04-06, 00:27:50
kann mir das jemand beantworten? =)
Jup, kann dir bald jeder beantworten, wer eine solche Karte in Besitz hat.:rolleyes:

chetigol
2010-04-06, 07:00:02
Ich meine, das Spiel nutzt gerade mal einen einzigen CPU-Kern. Bitte mal die Funken beim Schießen mit dem Mist @ Cryostasis @ PhysX off @ 0:29 vergleichen: http://www.youtube.com/watch?v=g_11T0jficE Beim Crysis-Video sieht's sogar @ 0:06 besser aus als bei Cryostasis @ PhysX on. ;D

Wenn ich an dem Crysis Video seh, was ohne PhysX möglich ist und dann Nvidias Werbevideos als Vergleich, dann komm ich mir etwas verarscht vor, denn anscheinend ist es kein Problem das gleiche auf der CPU berechnen zu lassen.

tombman
2010-04-06, 07:05:24
Wenn ich an dem Crysis Video seh, was ohne PhysX möglich ist und dann Nvidias Werbevideos als Vergleich, dann komm ich mir etwas verarscht vor, denn anscheinend ist es kein Problem das gleiche auf der CPU berechnen zu lassen.
Das ist Crytek- glaubst diese Technologie hat jedes Entwicklerstudio zur Verfügung? :lol:

desert
2010-04-06, 08:15:29
Wenn ich an dem Crysis Video seh, was ohne PhysX möglich ist und dann Nvidias Werbevideos als Vergleich, dann komm ich mir etwas verarscht vor, denn anscheinend ist es kein Problem das gleiche auf der CPU berechnen zu lassen.

Wenn es das kein problem ist, warum macht es denn keiner? Sind die alle unfähig oder wie? Oder liegt es vielleiht doch daran, das es nicht so einfach ist, wie es aussieht.

sHenker
2010-04-06, 08:21:22
Wenn es das kein problem ist, warum macht es denn keiner? Sind die alle unfähig oder wie? Oder liegt es vielleiht doch daran, das es nicht so einfach ist, wie es aussieht.

Nö! Liegt daran, dass komplexe Physik die Konsolen total überlasten würde und was bei den Hauptabsatzmarkt sowieso nicht genutzt werden kann wird schlicht und ergreifend nicht entwickelt. Oder meinst du Microsoft(zB) wäre nicht dazu in der Lage ne physikengine zu proggen?

Mr. Lolman
2010-04-06, 08:22:55
kann mir das jemand beantworten? =)

Bei ATi muss man kein BIOS flashen.

chetigol
2010-04-06, 09:21:11
Wenn es das kein problem ist, warum macht es denn keiner? Sind die alle unfähig oder wie? Oder liegt es vielleiht doch daran, das es nicht so einfach ist, wie es aussieht.

Du willst doch nicht ernsthaft behaupten, dass nur crytek fähige entwickler hat, die so etwas schaffen?
Ich denke eher, wie schon sHenker geschrieben hat, dass die meisten nun mal auch für die konsolen entwickeln und da wäre der aufwand für eine komplexe physikengine nur für den PC nicht rentabel.

Im Bezug auf PhysX bekommen die Entwickler aber sicher nicht all zu wenig unterstützung von NVidia, die dadurch ihre PhysX engine pushen wollen. Was ich ja nicht schlecht finde, aber das bisher in Spielen eingesetzte rechtfertigt noch lange nicht die PhysX - Hardware. Es wird einfach eingesetzt, weil es von NVidia gesponsort wird.
Natürlich, würde es NVidia nicht pushen, hätten wir solche Effekte wahrscheinlich garnicht, da es den Entwicklungsstudios nicht wert ist nur für den PC komplexe Effekte zu entwickeln (Crytek mal ausgenommen )

svenw
2010-04-06, 09:48:41
Wenn ich an dem Crysis Video seh, was ohne PhysX möglich ist und dann Nvidias Werbevideos als Vergleich, dann komm ich mir etwas verarscht vor, denn anscheinend ist es kein Problem das gleiche auf der CPU berechnen zu lassen.
Gleich aussehen ist nicht gleich. Die Frage ist doch wieviel Script ist und wieviel Berechnung. Am Ende kanns dem Spieler egal sein, hauptsache es sieht gut aus.
Ich glaube auch, das es einen entscheidenden Unterschied macht, ob man die Physik gleich bei der Engine entwicklung mit berücksichtigt oder ob man sie nachträglich "dranpappt". Physik wird kommen, aber dann nur als offener Standart (egal welcher) und dann wenn die neuen Konsolen kommen.

Mark3Dfx
2010-04-06, 10:09:49
http://semiaccurate.com/2010/04/05/new-nvidia-code-names-pop/

"...Getting back to the GF100, sources at Nvidia are confirming that the yields are far less than 20 percent on both of the variants, GTX480 and GTX470, combined. This means that the silicon for the GPU, before packaging and testing, costs at least $250 for each part.
Once you add all the components and make the card, there is no way the GTX470 and GTX480 can make a profit, given what they are being sold for.

If you are queued up for the second batch, don't expect there to be one. ;)
If Nvidia is losing money on each board it sells, trying to make it up in volume is not a sane way to proceed.
Expect Nvidia to once again pretend that the cards are not EOL'd and trickle the stock it puts aside out over the next few months...."

Charlie halt, mal sehn ober er (wieder) Recht hat.

tombman
2010-04-06, 10:45:59
Länger als bis Weihnachten gebe ich Fermi eh nicht ;) 2011 gibts neue Karten :)

Raff
2010-04-06, 10:48:39
Das wird dann aber auch Fermi-basiert sein. Nur eben besser (Shrink, etc.).

MfG,
Raff

tombman
2010-04-06, 10:57:15
Das wird dann aber auch Fermi-basiert sein. Nur eben besser (Shrink, etc.).

MfG,
Raff
Die Basis von Fermi ist eh sehr gut- einfach shaderpower etc verdoppeln- und man hat einen Killer :)

Expect Nvidia to once again pretend that the cards are not EOL'd and trickle the stock it puts aside out over the next few months. If this sounds eerily familiar, that is because Nvidia is doing the exact same thing with the GTX285. It is keeping up appearances while its partners get no stock and suffer the financial consequences.
Die 285er ist haufenweise lagernd auf GH :rolleyes:
Wenn Fermi auf diese Art "reintröpfelt", habe ich nichts dagegen ;)

Btw, nächste Woche treffen die ersten Karten bei den Händlern ein :whistle:

INDEX75
2010-04-06, 10:58:15
Das wird dann aber auch Fermi-basiert sein. Nur eben besser (Shrink, etc.).

MfG,
Raff
Und hoffentlich dann auch wesentlich sparsamer. Ich möchte nach einiger Zeit auch mal wieder eine GeForce in meinem PC haben. Jedoch nicht die momentanen Kernreaktoren.

AnarchX
2010-04-06, 11:04:16
Die Basis von Fermi ist eh sehr gut- einfach shaderpower etc verdoppeln- und man hat einen Killer :)

Ja, einen Netzteil-Killer. Der Ansatz des Hot-Clocks und der skalaren SPs scheint gegenüber AMDs Ansatz mit den 5D-ALUs immer mehr zu verlieren, würden diese bald mit einem GF100-ähnlichen Frontend kommen, hätte Nvidia hier ein Problem, wenn sie an Fermi keinen großen Spielraum bei den SPs haben.

DrFreaK666
2010-04-06, 11:18:44
Das ist Crytek- glaubst diese Technologie hat jedes Entwicklerstudio zur Verfügung? :lol:

Wenn die Engine (hoffentlich) oft lizensiert wird dann schon :smile:

tombman
2010-04-06, 11:19:36
Ja, einen Netzteil-Killer. Der Ansatz des Hot-Clocks und der skalaren SPs scheint gegenüber AMDs Ansatz mit den 5D-ALUs immer mehr zu verlieren, würden diese bald mit einem GF100-ähnlichen Frontend kommen, hätte Nvidia hier ein Problem, wenn sie an Fermi keinen großen Spielraum bei den SPs haben.
Wenn du so sicher bist: 10€ Wette, daß NV nächstes Jahr nicht untergeht mit ihrem HighEnd Chip im Vergleich zu ATIs HE-Chip?:)

Soundwave1983
2010-04-06, 12:45:26
So, Kumpel hat bei Alternate angerufen um nachzuhaken was mit seiner Karte is. :biggrin:
Ergebnis: Genauer Liefertermin weiter unbekannt, sie gehen davon aus das in dieser Woche noch welche kommen.

Na denn. ;D

Nachtrag: Mal wieder News im eVGA Forum.

Dear Valued Shopper: You had recently requested to be notified when the item, 10012462: PALIT NE5TX480F09CB Geforce GTX 480 (Fermi Architecture) 1536MB GDDR5 PCI Express x16 (2.0v) Video Card Retail becomes available again for purchase on ZipZoomFly.com. This item has indeed come back in stock -- come by and pick it up now! Click here to go directly to the item page: http://www.zipzoomfly.com...p?ProductCode=10012462 Hope to see you online soon! - The Staff at ZipZoomFly

:)

Iruwen
2010-04-06, 13:03:33
Auf der GTX 480 kann man ja wegen der Platte wohl prima einen Prolimatech MK-13 verbauen, ich finde gerade keine Bilder einer zerlegten GTX 470, geht das da genauso gut?

dutchislav
2010-04-06, 13:07:04
Bei ATi muss man kein BIOS flashen.

soweit ich weiß, konnte man aber bei den meisten karten die spannung nicht ändern, oder irre ich mich da? ging das mit nem tool?

hätte ich halt gern für die 480gtx gewusst, da ich schon vorbestellen möchte ;)

naja, werde ja sehen, was dann sache ist

AYAlf_2
2010-04-06, 13:12:40
Wenn ich an dem Crysis Video seh, was ohne PhysX möglich ist und dann Nvidias Werbevideos als Vergleich, dann komm ich mir etwas verarscht vor, denn anscheinend ist es kein Problem das gleiche auf der CPU berechnen zu lassen.
physx wird auch zum grossen teil nur auf der cpu berechnet .. die gpu dient machnmal nur als alibi :rolleyes:

James Ryan
2010-04-06, 13:20:57
Auf der GTX 480 kann man ja wegen der Platte wohl prima einen Prolimatech MK-13 verbauen, ich finde gerade keine Bilder einer zerlegten GTX 470, geht das da genauso gut?

Hier gibts Bilder einer zerlegten GTX470:
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/?page=2
Ich bin mir aber nicht sicher, ob da der MK-13 mit der Grundplatte drauf passt.

MfG :cool:

Gast
2010-04-06, 13:21:34
Der Ansatz des Hot-Clocks und der skalaren SPs scheint gegenüber AMDs Ansatz mit den 5D-ALUs immer mehr zu verlieren, würden diese bald mit einem GF100-ähnlichen Frontend kommen, hätte Nvidia hier ein Problem, wenn sie an Fermi keinen großen Spielraum bei den SPs haben.

Ich denke, dass dies ein weit verbreiteter Irrtum ist. Die theoretische Leistung der Shader bei Ati is zwar gigantisch, aber es ist wohl praktisch nicht möglich diese zu nutzen. Denn wenn es möglich wäre, könnte Ati doch einfach 1/3 der Shader weglassen (man wäre somit immer noch deutlich schneller als NV) und dafür mehr TMUs und ROPs einbauen. Man hätte sofort eine Top-Karte die schneller als jede NV-Karte wäre, da Ati dies nicht macht gehe ich davon aus, dass die Auslastung der 5D Shader wirklich miserabel ist und man auch keinen Weg findet, dieses Problem zu lösen. Anders kann man das weitere Aufrüsten der Ati-Shader auch nicht erklären.

Außerdem sind die Verhältnisse von Transistoren und Die-Fläche zwischen NV und Ati mit dem Fermi kleiner und nicht größer geworden. Hinzu kommt, dass NV mit den 1D Shadern offensichtlich flexibler ist, was es deutlich einfacher macht die Grafikkarten für neue Anwendungsgebiete flott zu machen. Die Implementierung von GPGPU und Tesselation ist hier deutlich besser gelungen und bei der Implementierung zukünftiger Neuerungen wird es wohl ähnlich laufen.

hanneslan
2010-04-06, 13:25:20
Hallo alle miteinander,

Wollte mal wissen wie das genau mit den Vorbestellungen so abläuft:

a) First in, First out Prinzip?
b) Zufallsprinzip?
c) Ganz anders u von Anbieter zu Anbieter verschieden? Alternate?

Vielen Dank im Voraus

Mfg hanneslan

Soundwave1983
2010-04-06, 13:33:24
Wollte mal wissen wie das genau mit den Vorbestellungen so abläuft:

Das wird dir hier glaube ich niemand wirklich beantworten können, da jeder Store dort wohl sein eigenes Süppchen kocht.

Wie Alternate das macht...ich denke mal die Vorkasse Karten zuerst, evtl. nach Bestelldatum sortiert.
Aber das ist ebenfalls Spekulation.

Auch würde ich sagen das jeder, der jetzt erst eine vorbestellt, wahrscheinlich sowieso keine mehr bekommen wird.

Scose
2010-04-06, 13:40:13
Es gibt grosse Shops welche neue Produkte erst mit dem erstmaligen Wareneingang in ihr Angebot aufnehmen. Da gibts dann logischerweise keine Vorbesteller (ausser vielleicht ein paar Ma) und bedingt das man täglich den Shop kurz auf die Ware kontrolliert. Hab ich bis dato immer so gemacht und hatte die gewünschte Hardware bei Bedarf stehts am release-Tag in den Händen.

Gast
2010-04-06, 13:42:25
Wie Alternate das macht...ich denke mal die Vorkasse Karten zuerst, evtl. nach Bestelldatum sortiert.

Alternate nimmt aber bei Artikeln die auf orange stehen und keinen expliziten Liefertermin haben gar keine Vorkassezahlungen an.

AnarchX
2010-04-06, 13:48:05
Ich denke, dass dies ein weit verbreiteter Irrtum ist. Die theoretische Leistung der Shader bei Ati is zwar gigantisch, aber es ist wohl praktisch nicht möglich diese zu nutzen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7933582#post7933582


Denn wenn es möglich wäre, könnte Ati doch einfach 1/3 der Shader weglassen (man wäre somit immer noch deutlich schneller als NV) und dafür mehr TMUs und ROPs einbauen. Man hätte sofort eine Top-Karte die schneller als jede NV-Karte wäre, da Ati dies nicht macht gehe ich davon aus, dass die Auslastung der 5D Shader wirklich miserabel ist und man auch keinen Weg findet, dieses Problem zu lösen. Anders kann man das weitere Aufrüsten der Ati-Shader auch nicht erklären.
Momentan gehen die Spekulation in die Richtung, dass man bei den kommenden GPUs vielleicht auf 4D reduziert.


Außerdem sind die Verhältnisse von Transistoren und Die-Fläche zwischen NV und Ati mit dem Fermi kleiner und nicht größer geworden.
Dafür steht aber man aber bei Tex-und ALU-Rohleistung deutlich schlechter da als noch bei G200 vs RV770. Hier steht eben das große Fragezeichen, wie viel Transistoren und zusätzliche Leistungsaufnahme AMD ein bessere Frontend kosten würde, um diesen Rohleistungsvorteil in praktische Leistung in Spielen umzusetzen.
Meine momentane Ansicht bei GF100 ist, dass nicht das Front-End die Verlustleistungsprobleme verursacht, sondern der hot-clock, der bei den Leckströmen in aktuellen und vielleicht auch kommenden Fertigungsprozessen immer mehr zum Problem wird.


Hinzu kommt, dass NV mit den 1D Shadern offensichtlich flexibler ist, was es deutlich einfacher macht die Grafikkarten für neue Anwendungsgebiete flott zu machen.
Bei "1D-Instruktionen" erreicht Cypress trotzdem noch 544GFLOPs bei 70% der Die-Size und einem fast 1/2 Verbrauch. Und teilweise sind es wohl auch 1088GFLOPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7935320#post7935320).


Die Implementierung von GPGPU und Tesselation ist hier deutlich besser gelungen und bei der Implementierung zukünftiger Neuerungen wird es wohl ähnlich laufen.
Sicher hat man hier Vorteile. Die Frage bleibt, ob Nvidia ähnlich schnell die Shader-ALUs anpassen kann, wie AMD vielleicht ein ähnlich verbessertes Fron-End und eine bessere Cache-Architektur implementieren kann.

Don Vito
2010-04-06, 13:48:33
Alternate nimmt aber bei Artikeln die auf orange stehen und keinen expliziten Liefertermin haben gar keine Vorkassezahlungen an.

Per Paypal gings;), zumindest bei mir.
Bestellt in der ersten stunde nachdem sie im shop gelistet waren.

Gast
2010-04-06, 13:48:37
wer jetzt noch bestellt , keine Chance.
Ob Kreditkarte oder Nachnahme-es zählt der Bestelleingang

Nighthawk13
2010-04-06, 14:01:02
Auf der GTX 480 kann man ja wegen der Platte wohl prima einen Prolimatech MK-13 verbauen, ich finde gerade keine Bilder einer zerlegten GTX 470, geht das da genauso gut?

Scheinbar nicht laut Caseking:
http://www.caseking.de/shop/catalog/Prolimatech-MK-13-Multi-VGA-Cooler::13772.html

GTX470 (ohne Bodenplatte des Originalkühlers, daher keine optimale Kühlung der Spannungswandler)
GTX480 (mit Bodenplatte des Originalkühlers)

Scose
2010-04-06, 14:01:37
wer jetzt noch bestellt , keine Chance.
Ob Kreditkarte oder Nachnahme-es zählt der Bestelleingang

Theoretisch ja, nur handelt bei weitem nicht jeder Shop nach simplen FiFo.
Da werden u.U. Stammkunden berücksichtigt, oder ein Teil des Wareneingangs wandert ohne Rücksicht auf die E-Vorbesteller ins Ladengeschäft und schlussendlich spielt der erzielte VP auch noch mit.

1. Ich kenne die gängige Praxis und klar ist es dem Endkunden ggü. nicht immer fair.

2. Der Endkunde hat im Normalfall keine Ahnung auf welchem Platz der Vorbestellerliste er sich befindet.

Gast
2010-04-06, 14:08:07
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7933582#post7933582

Genau hier liegt das Problem, in synthetischen Benchmarks rocken die 5D-Shader, aber in Spielen ist die Leistung nicht abrufbar.


Momentan gehen die Spekulation in die Richtung, dass man bei den kommenden GPUs vielleicht auf 4D reduziert.

Ja, ich bin mal gespannt, was als nächstes kommt, sowohl bei Ati als auch bei NV.


Dafür steht aber man aber bei Tex-und ALU-Rohleistung deutlich schlechter da als noch bei G200 vs RV770. Hier steht eben das große Fragezeichen, wie viel Transistoren und zusätzliche Leistungsaufnahme AMD ein bessere Frontend kosten würde, um diesen Rohleistungsvorteil in praktische Leistung in Spielen umzusetzen.
Meine momentane Ansicht bei GF100 ist, dass nicht das Front-End die Verlustleistungsprobleme verursacht, sondern der hot-clock, der bei den Leckströmen in aktuellen und vielleicht auch kommenden Fertigungsprozessen immer mehr zum Problem wird.

Man hat aber auch 2,13mal so viele Shader und Ati nur doppelt so viele und außerdem 16 Tesselatoren, statt nur 2 wie bei Ati (das ein SM ausfällt kann man schließlich nicht auf die Architektur schieben). Fertigungsprobleme treffen NV natürlich stärker als Ati, aber ich denke, dies ist nur eine Momentaufnahme, sollte es beim nächsten Fertigungsprozess nicht wieder massive Probleme geben, so wird NV wieder den gewohnten Vorsprung haben.


Bei "1D-Instruktionen" erreicht Cypress trotzdem noch 544GFLOPs bei 70% der Die-Size und einem fast 1/2 Verbrauch. Und teilweise sind es wohl auch 1088GFLOPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7935320#post7935320).


Sicher hat man hier Vorteile. Die Frage bleibt, ob Nvidia ähnlich schnell die Shader-ALUs anpassen kann, wie AMD vielleicht ein ähnlich verbessertes Fron-End und eine bessere Cache-Architektur implementieren kann.

Mal abwarten wer das Rennen macht, ob 1D oder 5D Shader überleben, wird sicher davon abhängen, welches Modell für die zukünftigen Aufgaben der Grafikkarten besser gerüstet ist.

Aquaschaf
2010-04-06, 14:16:58
Ich denke, dass dies ein weit verbreiteter Irrtum ist. Die theoretische Leistung der Shader bei Ati is zwar gigantisch, aber es ist wohl praktisch nicht möglich diese zu nutzen.

Es ist doch egal woher die Leistung kommt. Ob von wenigen hochgetakteten Einheiten, oder von mehr breiteren mit niedrigerem Takt spielt keine Rolle. Die erzielte Auslastung in modernen Spielen liegt bei ATI meistens irgendwo zwischen 60% und 80%. Und in GPGPU-Anwendungen sieht es bei ATI auch gut aus. Ich vermute dass ATIs Ansatz was die effektive Rechenleistung pro Transistor bzw. pro Watt betrifft effizienter ist.

Außerdem sind die Verhältnisse von Transistoren und Die-Fläche zwischen NV und Ati mit dem Fermi kleiner und nicht größer geworden. Hinzu kommt, dass NV mit den 1D Shadern offensichtlich flexibler ist, was es deutlich einfacher macht die Grafikkarten für neue Anwendungsgebiete flott zu machen..

Naja, RV870 besteht auch nicht nur aus Shader-Prozessoren. Einen entscheidenden Beitrag leistet wahrscheinlich die Tatsache dass G100 nur 64TMUs hat. Ich sehe keinen Grund dafür anzunehmen dass Nvidias Architektur flexibler ist oder sich für mehr Anwendungsgebiete eignet.

Spasstiger
2010-04-06, 14:24:34
Hallo alle miteinander,

Wollte mal wissen wie das genau mit den Vorbestellungen so abläuft:

a) First in, First out Prinzip?
So kenne ich es für Selbstabholer mit Bezahlung bei Abholung. Zu bearbeitende Vorbestellungen werden in der Reihenfolge des Bestelleingangs gelistet.
Grundsätzlich hat aber der Vorrang, der zuerst zahlt. ;) Sprich, wenn Ware auf Lager ist und Bestellungen dazu offen sind, dann haben Kunden im Direktverkauf trotzdem Vorrang vor den Bestellern, die ja erst bei Abholung zahlen (ergo später).

mapel110
2010-04-06, 14:35:53
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480.html

Gast
2010-04-06, 14:41:26
Es ist doch egal woher die Leistung kommt. Ob von wenigen hochgetakteten Einheiten, oder von mehr breiteren mit niedrigerem Takt spielt keine Rolle. Die erzielte Auslastung in modernen Spielen liegt bei ATI meistens irgendwo zwischen 60% und 80%. Und in GPGPU-Anwendungen sieht es bei ATI auch gut aus. Ich vermute dass ATIs Ansatz was die effektive Rechenleistung pro Transistor bzw. pro Watt betrifft effizienter ist.

Die effektive Rechenleistung pro Watt ist stark Anwendungsabhängig. Im Moment sieht dieser Wert bei NV wohl auch nicht gut aus, da eine schlechte Fertigung auch dazu führt, dass man eine höhere Spannung benötigt um den gewünschten Hot-Clock zu erreichen. Allerdings gibt es auch Anwendungen, wo NV vorne liegt und insbesondere bei DP-Berechnungen, da der Fermi hier extrem effizient ist.


Naja, RV870 besteht auch nicht nur aus Shader-Prozessoren. Einen entscheidenden Beitrag leistet wahrscheinlich die Tatsache dass G100 nur 64TMUs hat.

Da übersiehst du aber, dass es sich um Quad-TMUs handelt.


Ich sehe keinen Grund dafür anzunehmen dass Nvidias Architektur flexibler ist oder sich für mehr Anwendungsgebiete eignet.

Es ist teilweise einfacher neue Features einzubauen, bei DP z.B. muss NV nur 2 1D-Shader koppeln, was total simpel ist, während Ati sehen muss, wie man nun mit 5D-Shadern plötzlich DP-Berechnungen hinbekommt. Dies hat dazu geführt, dass bei Ati ein 5D-Shader in der Regel nur eine DP-Berechnung durchführt, obwohl eigentlich 2 möglich sein müssten.

Soundwave1983
2010-04-06, 14:58:41
Zu bearbeitende Vorbestellungen werden in der Reihenfolge des Bestelleingangs gelistet.

Glaubt man Charlie, dann bekommt jedes EU Land nur so um die 100 Stück, sollte das stimmen, dann siehts nicht nur für alle Vorbesteller, sondern auch für so ziemlich alle, die sich eine im Laden holen wollen zappenduster aus.

Edit: Grad mal aus Jux beim MSI Vertrieb angerufen, die Dame sagte....JUNI. :eek:
Auweia...

Spasstiger
2010-04-06, 15:09:33
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480.html
In Spielen siehts übler aus für die GTX 480, hier wurde der Last-Verbrauch mit Crysis Warhead ermittelt: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/26/#abschnitt_leistungsaufnahme.

Edit: Grad mal aus Jux beim MSI Vertrieb angerufen, die Dame sagte....JUNI. :eek:
Auweia...
Und ich hab die "xx Stück werden in 88 Tagen erwartet" für einen Falscheintrag gehalten. :eek:

kmf
2010-04-06, 15:15:16
physx wird auch zum grossen teil nur auf der cpu berechnet .. die gpu dient machnmal nur als alibi :rolleyes: Weswegen brechen dann die FPS ohne dedizierte Grafikkarte bei der Physikberechnung in Games, welche PhysX unterstützen, so ein? :confused:

Ich hab mir mal über Mittag bis jetzt in aller Ruhe bei PCGH den gesamten Artikel (http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-von-Nvidias-GF100-Generation/Grafikkarte/Test/) über Fermi durchgelesen. Das ganze ist am Bildschirm aber ziemlich ermüdend. Hab mich mehrmals dabei ertappt, dass mir fast die Augen zugefallen sind. :O
Fazit des Schmökerns: Für mich gibt es vorerst keinen Diskussionsbedarf mehr. Auch mein Wunsch nach 2 neuen Grafikkarten der 400er Serie ist auf ein Niveau nahe Null gesunken und solch einen "Stromverbrauchs-Moloch" hab ich bereits ja auch schon in Form meines 280er SLi-Systems. :wink:

AnarchX
2010-04-06, 15:15:50
http://www.xbitlabs.com/images/video/geforce-gtx-480/charts/12_storm.png
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_7.html#sect2

Wird da wohl per Vendor-ID-Abfrage D3D10.1 auf der 480 verhindert? :D

Über die Verfügbarkeit bitte hier diskutieren: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=480244

Spasstiger
2010-04-06, 15:21:37
Fazit des Schmökerns: Für mich gibt es vorerst keinen Diskussionsbedarf mehr. Auch mein Wunsch nach 2 neuen Grafikkarten der 400er Serie ist auf ein Niveau nahe Null gesunken und solch einen "Stromverbrauchs-Moloch" hab ich bereits ja auch schon in Form meines 280er SLi-Systems. :wink:
Du könntest den SLI-Verbund ohne Performanceverlust durch Single-GPU in Form der GTX 480 ersetzen. Keine Mikroruckler mehr, die Leistungsaufnahme sinkt, DX11 mit schneller Tessellation als kleiner Bonus.

Sonyfreak
2010-04-06, 16:10:11
/EDIT: Hier die Stelle in UT 2004, die Map sollte Jeder kennen, der das Spiel hat:
http://www.abload.de/thumb/moire1r5qc.png (http://www.abload.de/image.php?img=moire1r5qc.png) http://www.abload.de/thumb/moire2j50x.png (http://www.abload.de/image.php?img=moire2j50x.png)
Die Flimmerstelle ist links vom Fadenkreuz. Das Bild zeigt einen RV770 mit 16:1 AF und Catalyst A.I. @ off. Ein GT200 mit 16:1 HQ-AF zum Vergleich wäre interessant.
GTX 280 Büddeschön (http://www.bilderkiste.org/show/original/a55c9f8ae20f85a5d5909688fdb21132/UT2004_2010-04-03_01-51-56-82.png) :)
Ui, das ist echt mal ein Kaufargument für eine NV-Karte. :eek: Jetzt bräuchte ich noch einen Vergleichsscreen von einem R580.So, wie angekündigt kommen jetzt noch zwei Bilder von R520:

Catalyst 10.2
AI off // AI Standard
http://www.bilderkiste.org/show/thumbnail/92ab25eb8579a15a59b5768c73a3d4df/AI_off.png (http://www.bilderkiste.org/show/details/92ab25eb8579a15a59b5768c73a3d4df/AI_off.png.html) http://www.bilderkiste.org/show/thumbnail/07b7ebf8d89b79a26f5ba460485da8b6/AI_standard.png (http://www.bilderkiste.org/show/details/07b7ebf8d89b79a26f5ba460485da8b6/AI_standard.png.html)

Zwischen off und Standard kann ich keinen großen Unterschied erkennen (liegt vielleicht auch an der veränderten Perspektive), aber beide Versionen sind denen eines RV770 weit überlegen, würde ich mal sagen.

mfg.

Sonyfreak

Spasstiger
2010-04-06, 16:29:46
Jo, der R520 hat tatsächlich ein wesentlich besseres AF als der RV770. Dann hat Computerbase damals zum R600-Release Mist gebaut bei der AF-Untersuchung oder ATI hat sukkzessive die Qualität gesenkt.

Iruwen
2010-04-06, 16:46:01
Scheinbar nicht laut Caseking:
http://www.caseking.de/shop/catalog/Prolimatech-MK-13-Multi-VGA-Cooler::13772.html

Schade :( Dann lieber mal auf das Palit Design warten...

LieberAal
2010-04-06, 17:12:58
Mal abwarten wer das Rennen macht, ob 1D oder 5D Shader überleben, wird sicher davon abhängen, welches Modell für die zukünftigen Aufgaben der Grafikkarten besser gerüstet ist.
Ein Mix wirds werden ... bloß dumm für nvidia: ATI (AMD) und erst recht Intel haben GIGANTISCH bessere Rechenwerke in ihrem Portfolio als NV auf mittlere Sicht entwickeln könnte. Mit der Integration dieser ins Grafiksilizium kann NV weder bei Skalar- noch Vektorcode konkurrieren.

Iruwen
2010-04-06, 17:14:11
Was hat Intel? :confused:

LieberAal
2010-04-06, 17:18:22
Was hat Intel? :confused:
GIGANTISCH bessere Rechenwerke ... steht doch oben :rolleyes:
Bei Bedarf bitte in Wikipedia nachschlagen. Ich habe hier keinen Bildungsauftrag.

Aquaschaf
2010-04-06, 17:34:13
GIGANTISCH bessere Rechenwerke ... steht doch oben :rolleyes:

So wie man beim ersten Larrabee-Versuch sehen konnte, oder was? ;)

Man kann nicht sagen dass CPU-Rechenwerke "besser" sind. Sie sind für andere Ziele entwickelt, und nicht direkt vergleichbar.

LieberAal
2010-04-06, 18:06:52
So wie man beim ersten Larrabee-Versuch sehen konnte, oder was? ;)
Das LRB1 so endete war das Ergebnis einer ideologiegetriebenen Entwicklungpolitik. Man hat von aktuellen x86ern das gute (die Rechenwerke) entfernt und das schlechte (die ISA) behalten. Der x86-teil war quasi nur als Kontroll-CPU für die LRBni-Vektorrechenwerke konzipiert um der Welt zu beweisen: x86 adelt alles. Die Haltung wurde bei den Verantwortlichen sicherlich zum Teil auch gefördert durch das böse Wort vom "Intel kann alles, solang es x86 ist". Da war auch ein Stück weit Selbstironie dabei.
Man kann nicht sagen dass CPU-Rechenwerke "besser" sind. Sie sind für andere Ziele entwickelt, und nicht direkt vergleichbar.
Das ist ein bisschen eine Glaubensfrage, und ich glaube schon dass man das sagen kann - bezogen auf general purpose computing, wo NV dem eigenen Bekunden nach ja hin will. Man schaue sich nur mal den Multicore CPU-PhysX Fluidmark an:
http://physxinfo.com/news/2390/new-physx-fluidmark-1-2-first-tests/
NV wird, mal so aus dem Bauch heraus geurteilt, erst in 3-4 Jahren bei der Effizient im GPC dort sein wo Intel / AMD heute sind.
AMD soll nicht mehr soooooo weit von einer integrierten Grafiklösung entfernt sein und bei Intel weiß man nicht so genau ... LRB1 wurde ja halböffentlich entwickelt. Wer glaubt dass mit LRB2 erst nach der Beerdigung angefangen wurde, ist naiv.

Aquaschaf
2010-04-06, 19:10:01
Das ist ein bisschen eine Glaubensfrage, und ich glaube schon dass man das sagen kann - bezogen auf general purpose computing, wo NV dem eigenen Bekunden nach ja hin will. Man schaue sich nur mal den Multicore CPU-PhysX Fluidmark an

Ich kann dir auch general purpose computing Resultate zeigen bei denen eine GPU eine CPU versägt. Und was hat das mit der Effizienz der Rechenwerke zu tun?

deekey777
2010-04-06, 19:32:04
.
Man schaue sich nur mal den Multicore CPU-PhysX Fluidmark an:
http://physxinfo.com/news/2390/new-physx-fluidmark-1-2-first-tests/
.
Da liegt der Fehler: Man lese auch den Text sowie die Kommentare dazu. Die Grafikkarten werden in diesem Test unfair behandelt. Bei einem Emitter und noch mehr Partikeln als 15.000 hätten die CPUs so ihre Schwierigkeiten.

tombman
2010-04-06, 19:39:53
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480.html
Na bitte, für GTX295 user ändert sich also eh nix :)

aths
2010-04-06, 19:41:34
Scheinbar nicht laut Caseking:Scheinbar <-> anscheindend.

Glaubt man Charlie, dann bekommt jedes EU Land nur so um die 100 Stück, sollte das stimmen, dann siehts nicht nur für alle Vorbesteller, sondern auch für so ziemlich alle, die sich eine im Laden holen wollen zappenduster aus.

Edit: Grad mal aus Jux beim MSI Vertrieb angerufen, die Dame sagte....JUNI. :eek:
Auweia...Mai. 100 Stück pro EU-Land vielleicht im Durchschnitt wenn man die Mini-Staaten alle als einzelnes Land zählt.

Du könntest den SLI-Verbund ohne Performanceverlust durch Single-GPU in Form der GTX 480 ersetzen. Keine Mikroruckler mehr, die Leistungsaufnahme sinkt, DX11 mit schneller Tessellation als kleiner Bonus.Genau. Allerdings steigt vermutlich auch die Lautstärke.

LieberAal
2010-04-06, 19:42:34
Da liegt der Fehler: Man lese auch den Text sowie die Kommentare dazu. Die Grafikkarten werden in diesem Test unfair behandelt. Bei einem Emitter und noch mehr Partikeln als 15.000 hätten die CPUs so ihre Schwierigkeiten.
Hmmmm. Das ist also eine "unfair", wenn man auf der CPU alle Kerne benutzt??? Interessant ...
Ich seh das genauso wie der Artikelautor in seinem Kommentar: "it’s not fair to compare one emit. on CPU vs one emit. on GPU, because one emit. on CPU even with multi-threading uses only two cores maximum".

aths
2010-04-06, 19:44:43
Na bitte, für GTX295 user ändert sich also eh nix :)"So, the GeForce GTX 480 is faster in some games while the GeForce GTX 295, in others. There is no definite leader."

Sehe ich anders: Bereits die GTX 470 ist insgesamt besser als die GTX 295. Insbesondere ist ein SLI-System aus zwei GTX 470 besser als zwei GTX 295.

derguru
2010-04-06, 19:46:35
tombman redet auch vom verbrauch und nicht von der leistung nehme ich mal an.

tombman
2010-04-06, 20:11:14
Jo, Verbrauch meinte ich :)

Ich wollte GTX295 Quad SLI Leistung + DX11 - und ich bekomme sogar mehr. Der Aufpreis ist auch vertretbar, denn die 295er gehen bei ebay noch um 300€ weg. Sind also ca. 400€ Aufpreis für DX11, weniger MR (4 Gpus -> 2 Gpus), goiler Tess. Power und sogar noch ein bischen mehr speed :up:

Schlammsau
2010-04-06, 20:16:49
Jo, Verbrauch meinte ich :)

Ich wollte GTX295 Quad SLI Leistung + DX11 - und ich bekomme sogar mehr. Der Aufpreis ist auch vertretbar, denn die 295er gehen bei ebay noch um 300€ weg. Sind also ca. 400€ Aufpreis für DX11, weniger MR (4 Gpus -> 2 Gpus), goiler Tess. Power und sogar noch ein bischen mehr speed :up:

Was sind schon 400€ für eine Handvoll FPS mehr.

Hast recht, ich verstehe die Enthusiasten Denke nicht!

Gast
2010-04-06, 20:19:03
Metro mit schlechterer grafik auf der 480 ?
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_11.html

y33H@
2010-04-06, 20:20:42
Scheinbar <-> anscheindend.Wo hat Caseking das wohl her? ;D Ich tippe auf PCGH. Die waren die ersten, die einen MK-13 auf die GTX400 gepappt haben.

@ Gast
Again, this has nothing to do with speed.:rolleyes:

Gast
2010-04-06, 20:20:45
Metro mit schlechterer grafik auf der 480 ?
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_11.html

Lies richtig "No, the observed difference in quality is not due to the performance of the graphics cards. Indeed, graphics cards from Nvidia and ATI render the scene differently in some antialiasing modes. We are trying to find a way to correct this issue. Again, this has nothing to do with speed."

tombman
2010-04-06, 20:21:41
Was sind schon 400€ für eine Handvoll FPS mehr.

Hast recht, ich verstehe die Enthusiasten Denke nicht!
Mit verstehendem Lesen hast auch noch Probleme- oder warum hast außer "fps" alle anderen von mir aufgezählten Punkte nicht beachtet?
(DX11, weniger MR, mehr Tess. Power (im Vgl. zu HD5))

Fehlen tut noch 8xAA speed + 32xCSAA...außerdem skaliert SLI besser als Quad SLI.
Und dann besteht noch die Option auf 3x GTX480 upzugraden :devil:

Und 70% mehr Ram!!!11122 (GTA4 :naughty:)

ALL DAS ist 400€ wert IMO :cool:

Spasstiger
2010-04-06, 20:31:03
Nicht zu vergessen: 70% mehr nutzbarer VRAM.

chiller
2010-04-06, 20:34:08
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_11.html#sect0

Die Bilder, wenn ich schnell hin und her switche fällt auf das die nv bilder sehr unscharf sind oder bilde ich mir das nur ein?

tombman
2010-04-06, 20:34:11
Nicht zu vergessen: 70% mehr nutzbarer VRAM.
Lol, ich wußte ich hab was vergessen ;D

Nazar
2010-04-06, 20:38:25
Lies richtig "No, the observed difference in quality is not due to the performance of the graphics cards. Indeed, graphics cards from Nvidia and ATI render the scene differently in some antialiasing modes. We are trying to find a way to correct this issue. Again, this has nothing to do with speed."

Wenn Du RICHTIG lesen könntest, dann wäre Dir aufgefallen, dass Dein Zitat lediglich eine Stellungname der Producer ist.
Die Aussage der Tester geht in die Richtung, dass ein deutlicher BQ Unterschied zu Gunsten ATI sichtbar ist und dieser sich wahrscheinlich auf die Performance auswirkt.

Lesen ist wirklich schwer :rolleyes:

Gast
2010-04-06, 20:39:53
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_11.html#sect0

Die Bilder, wenn ich schnell hin und her switche fällt auf das die nv bilder sehr unscharf sind oder bilde ich mir das nur ein?

Ja sind welten von der Bildschärfe her.

y33H@
2010-04-06, 20:43:12
Mal abgesehen davon, dass die Shots böse Kompression-Artefakte haben (warum zur Hölle JPGs für einen BQ-Vergleich?!) ist das AMD-Bild de facto schärfer. Allerdings muss das Blur die Leistung nicht steigern - im Gegenteil. AMDs AF ist auch schärfer - weil die Samples sparen ;)

Gast
2010-04-06, 20:43:46
Ja sind welten von der Bildschärfe her.

Sieht so aus als würde das DOF bei Ati nicht funktionieren.

y33H@
2010-04-06, 20:45:09
Nachtrag
Die GTX400 ziehen gerade mit 4x MSAA die HD5870 ziemlich ab. Und unscharf wird es bei NV nur mit 4x MSAA. Ein Schelm, wer böses denkt ;D

Nazar
2010-04-06, 20:45:29
http://www.xbitlabs.com/articles/video/display/geforce-gtx-480_11.html#sect0

Die Bilder, wenn ich schnell hin und her switche fällt auf das die nv bilder sehr unscharf sind oder bilde ich mir das nur ein?

Das könnte mit dem negativen LOD von nV zutun haben.. allerdings ist das schon sehr extrem, was die Bilder da zeigen.

y33H@
2010-04-06, 20:46:43
Bei einem negativen LODs wird's schärfer ... und nicht matschiger.

Gast
2010-04-06, 20:49:09
Das könnte mit dem negativen LOD von nV zutun haben.. allerdings ist das schon sehr extrem, was die Bilder da zeigen.

Auf dem bild von der 480 bekommt man ja augenkrebs.

y33H@
2010-04-06, 20:50:04
So wie bei Wide-Tent? ;D

Gast
2010-04-06, 20:50:10
Auf dem bild von der 480 bekommt man ja augenkrebs.

In Bewegung bei Ati...so gleicht sich alles aus. :D

Black-Scorpion
2010-04-06, 20:53:11
Gibt es eigentlich bei euch in der Redaktion Sonderschulungen wie man etwas was man bei Nvidia nicht vertuschen kann gleich mit einem Seitenhieb auf ATI begegnet?
Langsam könnte man den Eindruck gewinnen.

LovesuckZ
2010-04-06, 20:53:18
Nachtrag
Die GTX400 ziehen gerade mit 4x MSAA die HD5870 ziemlich ab. Und unscharf wird es bei NV nur mit 4x MSAA. Ein Schelm, wer böses denkt ;D

Das soll nur per AAA und in Very High auftreten. Entweder ist es ein Very High Problem und somit betrifft es auch 4xMSAA oder ein AAA, da die Berechnungen nicht stimmen.
Laut HardOCP.com soll das Problem nicht mit 4xMSAA auftreten und auch mit AA und alles unter Very High in Ordnung sein.

/edit: http://www.hardocp.com/article/2010/04/06/metro_2033_image_quality_followup

Fazit: AMD und nVidia produzieren mit 4xMSAA und VH ein sehr ähnliches Ergebnis, nVidia blurrt dagegen nur alleine unter VH mit AAA. <VH läuft es auf beiden in beiden AA-Modi normal.

Gast
2010-04-06, 20:55:43
Gibt es eigentlich bei euch in der Redaktion Sonderschulungen wie man etwas was man bei Nvidia nicht vertuschen kann gleich mit einem Seitenhieb auf ATI begegnet?
Langsam könnte man den Eindruck gewinnen.

Da haste recht PCGH halt

http://www.hardwareluxx.de/community/14286997-post665.html