PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28

Tarkin
2010-04-17, 23:04:22
Komisch, seh ich nichts von. Nichtmal undeutlich. Erst recht bei den Minimum FPS.

blind, dämlich oder einfach nur unglaublich ignorant?

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30999-nvidia-geforce-gtx-470-sli-review-11.html

Geh doch bitte wieder CS oder WOW zocken, ist besser...

nagus
2010-04-17, 23:07:02
blind, dämlich oder einfach nur unglaublich ignorant?

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30999-nvidia-geforce-gtx-470-sli-review-11.html

Geh doch bitte wieder CS oder WOW zocken, ist besser...

dafür braucht man nämlich unbedingt "SLI" für diese beiden spiele ;D

Gast
2010-04-17, 23:12:18
@Iruwen: ich hab einen vorschlag: kauf dir doch deine dschieföhn und schieben sie dir dort hin, wo die sonne nie scheint.... aber verschone uns BITTE mit deinen märchen über "nvidia hat bessere treiber" und 480SLI ist 50% blah blah blah ... das hält ja kein normal denkender mensch aus.
Verschone du uns bitte mit deiner Stimmungsmache.
Wir wissen alle, das du eine tiefe Abneigung gegen nVidia hast, aber darum kannst du dich in den Radeonthreads munter austoben.

Gast
2010-04-17, 23:18:20
http://media.bestofmicro.com/3/V/242491/original/Metro%202033%201920%20real.png
http://www.tomshardware.de/geforce-gtx-480-470-Fermi-GF100,testberichte-240527-12.html
Heftig wie die 4870 X2 ihren Nachfolger platzwalzt.

y33H@
2010-04-17, 23:26:20
Aber der Redakteur bist DU.. also zeig her die Metro und GTA4 SLI vs CF Benches! MACH HINNÄ! Ich bin Privatperson, sonst würde ich mit PCGH-Acc posten. Und komm verdammt noch mal von dem Ton runter. Du hast nichts, aber auch gar nichts zu fordern.

Zatoichi
2010-04-17, 23:46:32
Was herscht den hier für ein Ton vor? 470er Sli läuft wesentlich runder
als mein 5870er CFX es getan hat. Btw, ich kann die verlinkten Benches so nicht nachvollziehen. Gerade BC2 nicht.

y33H@
2010-04-18, 00:02:57
BC2 weißt - wenn man den englischen Reviews glaubt - starke Schwankungen auf. Bei Anand-Tech gibt's Werte, in denen eine GTX480 hinter einer HD5850 liegt. Das krasse Gegenteil zeigt PCGH, wo eine GTX470 auf dem Level der HD5870 liegt, insbesondere bei den Min-Fps aber klar vorne [das würde dein "wesentlich runder" erklären]. Blöd: PCGH dokumentiert den Bench bis ins kleinste Detail (http://www.pcgameshardware.de/aid,744422/FAQ-So-bencht-PCGH-Spiele-How-to-Benches-inside/Spiele/Test/?page=3) samt Video, die Settings sind eindeutig benannt. Bei Anand steht dagegen nur "Maxmimum Quality", die assoziere ich mal mit 8x MSAA/16:1 AF bei allen Optionen auf Anschlag. Zudem ist der Bench nur sehr grob im Text umrissen - nachstellen kann den außer Anand leider niemand. Das ist halt blöd, so kann keiner prüfen, wo es da hakt, dass die GTX 4x0 so abkacken.

http://www.abload.de/thumb/221805zb9.png (http://www.abload.de/image.php?img=221805zb9.png) http://www.abload.de/thumb/bc2-dx11-1920v9xb.png (http://www.abload.de/image.php?img=bc2-dx11-1920v9xb.png)

Sentionline
2010-04-18, 00:17:36
Also das eine GTX480 an eine HD5890 drankommt und das 2x GTX480 eine HD5870 im CF überholen ist wohl keine Illusion.

Stromkonsum + Lautstärke ist jetzt nicht das Thema und solls auch nicht sein. Ich kann mich auf 40% Vorsprung einlassen, aufgrund der besseren Treiber. Ohne Hotfixes versteht sich. Eine GTX480 überholt eine HD5870. Und 2x GTX480 erstrecht eine HD5870CF bei weitem. Mehr hab ich nicht gesagt.

Wer die Hotfixmoral liebgewonnen hat, ist auch nicht das Thema...

Und Thema Mikroruckler behandelt meines wissens nach wie vor keine Review Seite. Und da ziet CF die A* Karte. Da wette ich drum, deshalb gewinnt definitiv SLI! Und das sage ich nur um die Frage zu beantworten. Thema GPGPU? Da hat ATi eh schon verloren. Aufgrund dessen weil die sich alles machen lassen aufgrund der "OpenSource Community". Engagement pur um kosten zu sparen. Sehr geil und wirksam!

y33H@
2010-04-18, 00:27:48
Es ist unbestreitbar, dass SLI CF in Sachen µRuckler voraus ist.

Sentionline
2010-04-18, 00:39:52
Es ist unbestreitbar, dass SLI CF in Sachen µRuckler voraus ist.
deshalb erübrigt sich die Frage, ob GTX480SLI<->HD5870CF?

y33H@
2010-04-18, 00:42:24
Rein auf die Fps und die Spielbarkeit bezogen, klar.

Don Vito
2010-04-18, 00:45:24
Rein auf die Fps und die Spielbarkeit bezogen, klar.


Kann ich bestätigen.
Hatte 5870CF zum testen da
kommt nicht an SLI ran. die MR sind klar erkennbar, da läuft SLI um einiges smoother

HarryHirsch
2010-04-18, 00:45:49
Also das eine GTX480 an eine HD5890 drankommt und das 2x GTX480 eine HD5870 im CF überholen ist wohl keine Illusion.

Stromkonsum + Lautstärke ist jetzt nicht das Thema und solls auch nicht sein. Ich kann mich auf 40% Vorsprung einlassen, aufgrund der besseren Treiber. Ohne Hotfixes versteht sich. Eine GTX480 überholt eine HD5870. Und 2x GTX480 erstrecht eine HD5870CF bei weitem. Mehr hab ich nicht gesagt.

Wer die Hotfixmoral liebgewonnen hat, ist auch nicht das Thema...

Und Thema Mikroruckler behandelt meines wissens nach wie vor keine Review Seite. Und da ziet CF die A* Karte. Da wette ich drum, deshalb gewinnt definitiv SLI! Und das sage ich nur um die Frage zu beantworten. Thema GPGPU? Da hat ATi eh schon verloren. Aufgrund dessen weil die sich alles machen lassen aufgrund der "OpenSource Community". Engagement pur um kosten zu sparen. Sehr geil und wirksam!

Zwei Links dazu:

http://www.mainconcept.com/press/single-view/article/mainconcept-and-amd-collaborate-to-accelerate-high-definition-video-encode.html

http://www.planet3dnow.de/vbulletin/showthread.php?t=375718

Sentionline
2010-04-18, 00:51:17
Zwei Links dazu:

http://www.mainconcept.com/press/single-view/article/mainconcept-and-amd-collaborate-to-accelerate-high-definition-video-encode.html

http://www.planet3dnow.de/vbulletin/showthread.php?t=375718
Kann mit dem SPAM nix anfangen, da kein Bezug auf GTX480SLI vs 5870CF! :rolleyes:

Würde mich mal interessieren wie Elcomsoft bzw Pyrit@Linux das Thema sieht. GPGPU auf ATI? Die Looser überhaupt. Egal auf welche Softwaresparte man sieht. Da wo Cuda ab 48€ steht, ist auch Supercomputer drin. Bei ATi wunsch und Selektionsdenken! Deren Chips sind einfach nirgends unterstützt. Die Blume SGSSAA + high Mikroruckel + Hotfix Garantie + low Tesselation Performance zieht nicht lange!

HarryHirsch
2010-04-18, 01:00:45
Kann mit dem SPAM nix anfangen, da kein Bezug auf GTX480SLI vs 5870CF! :rolleyes:

Würde mich mal interessieren wie Elcomsoft bzw Pyrit@Linux das Thema sieht. GPGPU auf ATI? Die Looser überhaupt. Egal auf welche Softwaresparte man sieht. Da wo Cuda ab 48€ steht, ist auch Supercomputer drin. Bei ATi wunsch und Selektionsdenken!

Ok.

derguru
2010-04-18, 01:05:18
Kann mit dem SPAM nix anfangen, da kein Bezug auf GTX480SLI vs 5870CF! :rolleyes:
Deren Chips sind einfach nirgends unterstützt. Die Blume SGSSAA + high Mikroruckel + Hotfix Garantie + low Tesselation Performance zieht nicht lange!
"Kann mit dem SPAM nix anfangen",wie recht du hast.

Sentionline
2010-04-18, 01:16:10
"Kann mit dem SPAM nix anfangen",wie recht du hast.
Geht richtung hellsehen, das kann ich nicht. Eine GTX280SLI wird aber mehr und länger "nützlich" sein als eine HD4870CF. Das wird sich mit der 480SLI nicht ändern.

Ich hab ein ATI Chip inkl. CF Board und kanns kaum für GPGPU einsetzen. Für mich sehr frustierend. Keine Pyrit unterstützung, kein Elkomsoft, kein Physik, kein vReveal, kein nix. Meine Argumente haben Hand und Fuß! Nicht nur im Bezug auf SLI!:D Deshalb kein Drang auf CF umzurüsten. Aus welchem Grund überhaupt? Bitte um gegenbeweise!

Iruwen
2010-04-18, 01:16:49
Dirt, BFBC2 gewinnt soger 5850 CF deutlich gegen 470 SLI.

Komisch, seh ich nichts von. Nichtmal undeutlich. Erst recht bei den Minimum FPS.

blind, dämlich oder einfach nur unglaublich ignorant?

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30999-nvidia-geforce-gtx-470-sli-review-11.html

Geh doch bitte wieder CS oder WOW zocken, ist besser...

Danke für den Link, ich dachte schon ich hätte vielleicht an der falschen Stelle geschaut. Also - wo gewinnt da 5850 CF deutlich gegen 470 SLI? Vor allem bei den Minimum FPS? :rolleyes:

/e: sind die beiden Honks jetzt wirklich gesperrt? :freak:

y33H@
2010-04-18, 01:27:01
Epic bann ;D

@ Topic
Aus welchem Grund überhaupt? Bitte um gegenbeweise!Wenn Super-AA mit SGSSAA ginge. Beste BQ ohne µRuckler. Wäre DAS Killerfeature ever =) Bei NVs SLI-AA sind die Samples ja total beknackt angeordnet ...

DrFreaK666
2010-04-18, 01:53:46
Wieso ist es so schwer die Micro-Ruckelr zu entfernen?
Würde es nur auf Kosten der FPS gehen?

y33H@
2010-04-18, 02:00:00
Auf Kosten der Fps würde kürzere Balken bedeuten ;) Das wird keiner der beiden IHVs machen.

mapel110
2010-04-18, 02:02:53
Auf Kosten der Fps würde kürzere Balken bedeuten ;) Das wird keiner der beiden IHVs machen.
Aber wie verhält sich SLI/CF eigentlich bei Vsync? Dann dürfte es doch keine MR mehr geben?!

DrFreaK666
2010-04-18, 02:03:17
Auf Kosten der Fps würde kürzere Balken bedeuten ;) Das wird keiner der beiden IHVs machen.

Das ist doch scheiße :frown:
was bringen mir hohe FPS wenn es trotzdem ruckelt.
Aber würde es auf Kosten der FPS gehen?

y33H@
2010-04-18, 02:08:35
@ mapel110

Was hat Vsync mit µRucklern zu tun? Du begrenzt nur die Fps auf die Hz [idR 60], zudem hast du einen gesteigerten Input-Lag, was die Problematik sogar verstärkt, statt sie zu mindern. Mit Vsync wird der Frame ja nicht ausgegeben, wenn er fertig ist, sondern wenn der Bildschirm refresht. Du meinst, da die Frames aufgrund der Angleichung an die Hz regelmäßiger ausgegeben werden? Prinzipiell richtig, nur wenn das MGPU-Gespann zwei Frames minimal nachdem der Monitor refresht hat raushaut, musst du warten, bis er wieder refresht, dann werden die Frames erst dargestellt. Das sieht zum Teil böse abgehackt aus, ohne 3-Buffering saufen zudem die Fps teils ab. Und mit 3-Buffering ist der Lag noch höher.

@ DrFreaK666

Hohe Fps = langer Balken. Und für PR zieht das. AMD hat SGSSAA kaum beworben, die meisten sind nur auf nominelle Fps geil, Rest egal. Man könnte, soweit ich das verstehe, per Treiber die Fps-Ausgabe glätten, was allerdings die Fps reduziert. Eine andere Option wäre statt AFR etwa SFR zu nehmen, aber hier kommen einem aktuelle Engines ins Gehege. Manche Post-Effekte wollen da nicht so richtig.

DrFreaK666
2010-04-18, 02:12:38
...
@ DrFreaK666

Hohe Fps = langer Balken. Und für PR zieht das. AMD hat SGSSAA kaum beworben, die meisten sind nur auf nominelle Fps geil, Rest egal. Man könnte, soweit ich das verstehe, per Treiber die Fps-Ausgabe glätten, was allerdings die Fps reduziert. Eine andere Option wäre statt AFR etwa SFR zu nehmen, aber hier kommen einem aktuelle Engines ins Gehege. Manche Post-Effekte wollen da nicht so richtig.

Man könnte dem Anwender doch folgende Möglichkeiten anbieten:
- hohe FPS + Micro-Ruckler
odeer
- etwas weniger FPS + flüssiges Bild

Aber AMD ist ja nicht dafür bekannt den Anwendern viele Möglichkeiten geben zu wollen :frown:

Sentionline
2010-04-18, 02:20:21
AMD hat SGSSAA kaum beworben, die meisten sind nur auf nominelle Fps geil, Rest egal.
Für mich eher nicht und eher ein Skandal. Da die RV870 auf die R600 alias HD2900XT basiert, frage sich ein ATi Fan: "Warum kommt SGSSAA erst jetzt?". Zusätzlich mit vermülltem AF?

Na? Antwort?

DrFreaK666
2010-04-18, 02:21:51
Für mich eher nicht und eher ein Skandal. Da die RV870 auf die R600 alias HD2900XT basiert. Jetzt frage sich ein ATi Fan: "Warum kommt SGSSAA erst jetzt". Zusätzlich mit vermülltem AF?

Na? Antwort?

kp :smile:

Sentionline
2010-04-18, 02:25:25
kp :smile:
PR. Weil was anderes steckt in dem Chip nicht, ausser ein Shrink. inkl. DX11 "Patch", wie bei SGSSAA usw. Mehr hat das Ding schlicht nicht drauf, weshalb man nix anderes darauf bewerben kann. Bleibt nur das Argument geringer Stromverbrauch mit Müll Texturfilterung und günstig verscherbeln. Wayne...

Aber aufregen wenn ein G92 "umgelabelt" wird. Lächerlich.

mfg

y33H@
2010-04-18, 02:26:13
@ DrFreaK666

Die Zielgruppe der MGPU-User, die bei einer solchen Lösung wert auf einwandfreie Fps legen, ist wohl zu gering. Sonst gäbe es Super-AA mit SGSSAA und NVs SLI-AA-Modi wären nicht so beknackt, was ihr Muster anbelangt. Beide IHVs bringen idR nur Profile, damit die Fps skalieren. NV allerdings erachtet SLI als gewichtiger wie mir scheint, denn die gehen gegen µRuckler vor - allerdings auch nur in einem sehr eng gesteckten Rahmen. Zu viele Optimierungen kosten Fps und gerade bei 3/4 GPUs ist die µRuckler-Problematik und Skalierung so mies und zugleich die Verbreitung so verschwindend gering, dass es schlicht Verschwendung ist.

Statt zwei GPUs auf eine Platine zu klatschen, lieber eine vernünftige GPU wäre prinzipiell besser. Die GTX480 wäre rechnerisch bei vollen 16 SMs und den wohl mal angepeilten 1,5 GHz SM-Takt teils fast so schnell wie eine HD5970 [+14% auf GTX480] - ohne deren Nachteile, zumindest was die Fps und Spielbarkeit anbelangt. Aber diese Methode ist teurer und aufwendiger.

@ Sentionline

Evtl. weil die HD3k und HD4k zu lahm waren oder weil eine Implementierung sonst wo scheitert. Wobei SGSSAA auf den HD4k unter OGL ja läuft. Es ist ja iirc "nur" aufgeblasenes AAA auf SGSSAA-Basis, welches nun Fullscreen läuft [allerdings nicht alles erfasst teils]. Wie gesagt, FS-SGSSAA war AMD eine kleine Randnotiz auf ihren PDFs wert, mehr nicht.

DrFreaK666
2010-04-18, 02:37:05
PR. Weil was anderes steckt in dem Chip nicht, ausser ein Shrink. inkl. DX11 "Patch", wie bei SGSSAA usw. Mehr hat das Ding schlicht nicht drauf, weshalb man nix anderes darauf bewerben kann. Bleibt nur das Argument geringer Stromverbrauch mit Müll Texturfilterung und günstig verscherbeln. Wayne...

Aber aufregen wenn ein G92 "umgelabelt" wird. Lächerlich.

mfg

- reicht doch bisher. DX9/DX10-Games laufen flüssig. Bis auf Metro gilt das auch für DX11-Games
- SGSSAA ist für AA-Fetischisten kein unwichtiges Thema
- günstig ist für viele wichtig
- besseres AF wäre aber auch noch nett gewesen
- umlabeln aht auch AMD drauf

y33H@
2010-04-18, 02:42:38
Stalker CoP @ DX11 in 1920 mit 4x/16:1 ist imo auf allen Karten unspielbar, das Gleiche gilt für Crysis/Warhead mit den gleichen Settings. Positiv überrascht war ich von der GTX480 in BC2: Die geht da böse ab, 1920 @ DX11 mit 4x/16:1 droppt man nur im Worst-Case unter 40 Fps. Der Unterschied zwischen der crappy Beta auf der GTX280 und der Full im MP auf einer GTX480 ist total krank - ungenießbar zu butterweich :ugly:

Sentionline
2010-04-18, 02:45:16
Mir stand meine GTS250 öfter "nützlicher" zur Seite als die theoretisch schnellere HD4850GS. Ich zaubere nix hervor wenn ich sage das die ATi leiser ist, die Nvidia aber nützlicher. Ich kann vReveal nutzen, Pyrit missbrauchen und PhysX geniessen. Wenn ich will kann ich SSAA zuschalten mit perfektem AF. Da kann ich gut auf ATi verzichten, wenn echt gar keine Consumer Software von ATi beschleunigt ist (CUDA dominiert). Aber ich bleibe dabei: Bei dem Stromverbrauch ist mir die GTX480 nicht über 400€ (@800 DM) wert. Das ändert die grandiöse Kompatibilität ohne gepatche auch nicht. Zudem die Treiberpolitik! Das aktuelle Pack unterstützt die GeForce reihe bis GeForce 6 (inkl. mancher Notebookchips). Das ist doch echt der Hammer. Und es kommen die super Tesselationsleistungen und verminderte Mikroruckelneigung etc. ATi kann da never ever mithalten, wenn ich alle Argumente meinerseits hier niederschreibe warum ich Nvidia als Sieger sehe...trotz des Verbrauchs und Lautstärke. Qualität und Kompatibilität sollte immer über Quantität siegen. Mitdenken PLS!

DrFreaK666
2010-04-18, 02:52:31
Mir stand meine GTS250 öfter "nützlicher" zur Seite als die theoretisch schnellere HD4850GS. Ich zaubere nix hervor wenn ich sage das die ATi leiser ist, die Nvidia aber nützlicher. Ich kann vReveal nutzen, Pyrit missbrauchen und PhysX geniessen. Wenn ich will kann ich SSAA zuschalten mit perfektem AF. Da kann ich gut auf ATi verzichten, wenn echt gar keine Consumer Software von ATi beschleunigt ist (CUDA dominiert). Aber ich bleibe dabei: Bei dem Stromverbrauch ist mir die GTX480 nicht über 400€ (@800 DM) wert. Das ändert die Grandiöse Kompatibilität ohne gepatche auch nicht.

- ja, nv-Karten haben schöneres AF. Hätte ich auch gerne
- ja, nv-Karten haben OGSSAA, würde ich aber gegen das SGSSAA tauschen. Hybrid-Modi wären auch auch ganz nett hier.
- was Lautstärke kann ich nur sagen: meine HD5850 geht im Vergleich leiser zu werke
- was die Treiber angeht: bei jedem Hersteller gibt es Macken. exe-Renaming macht mir nichts aus. Habe es sogar mit ner Geforce genutzt.
- PhysX ist ganz nett, aber es gibt imho noch kein Spiel, wo ich denke: dafür brauche ich unbedingt ne Geforce...
- CUDA juckt mich nicht.

Daher ist einer 5850 für mich bisher ideal

Gouvernator
2010-04-18, 07:50:59
Positiv überrascht war ich von der GTX480 in BC2: Die geht da böse ab, 1920 @ DX11 mit 4x/16:1 droppt man nur im Worst-Case unter 40 Fps. Der Unterschied zwischen der crappy Beta auf der GTX280 und der Full im MP auf einer GTX480 ist total krank - ungenießbar zu butterweich :ugly:
Exakt. Wenn das Spiel blos nicht so schwammig wäre könnte ich es bei 3840x2160 durchzocken. Bei dieser Auflösung GTX480@840Mhz kommen noch 25-30FPS raus.

corvus
2010-04-18, 08:01:35
zum schießen hier echt...hält doch niemand irgendeinen davon ab sich zu kaufen was er will....das lächerliche ist nur wie hier einige versuchen ihre Ansicht immer und immer wieder als der Welt Nabel darzustellen, wenn mir zb. Wärme und Verbrauch egal wären hätt ich event. auch eine.

Und das elendige AF der ATIs....wenn ich 98% von denen die darauf rumreiten 2 Bilder vorsetzte sehen die nix...darauf verwett ich Haus und Hof.

PS
vergleicht mal eure Karten was an Volt im idle anliegen......
Und das Flackern auch bei nur einem angeschlossenem Monitor beim Lastwechsel fällt natürlich auch keinen auf.....und dabei fiepen sich die Dinger nen Wolf :D.... ist natürlich bei 100% Lüfter schwer rauszuhören....

Sentionline
2010-04-18, 08:18:14
zum schießen hier echt...hält doch niemand irgendeinen davon ab sich zu kaufen was er will....
So siehts aus. Threadtitel beachtet?

Und das elendige AF der ATIs....wenn ich 98% von denen die darauf rumreiten 2 Bilder vorsetzte sehen die nix...darauf verwett ich Haus und Hof.
Ändert nix daran, das die Räder eiern. Das sagen alle "die sich damit auskennen". Das kann ich mir als "Leie" erstmal Latte sein, ob ich das sehen muss oder nicht.

Und das Flackern auch bei nur einem angeschlossenem Monitor beim Lastwechsel fällt natürlich auch keinen auf.....und dabei fiepen sich die Dinger nen Wolf :D
Meine Kontraliste zur ATi willst du nicht hören. Also lass es lieber und beachte bitte den Threadtitel.

Die Recyclesalamis von ATi wollen doch nur Benchjunkies oder Leute mit Profilierungsproblemen. Auf dauer gewinnen die Nvidia Chips. Super DX11 Performance, Cuda und PhysX, zumeist problemlose Treiber und einwandfreier SLI Support inkl. weniger Mikroruckeln + AO Bonus gratis im Treiber und...und...und...

Naja, ich lass es lieber die Liste fort zu führen...:rolleyes:

Hat keiner gesagt das die GTX4x die Krone der Schöpfung ist. "Sie ist Technisch schlicht besser als die Asbach Recycle Chips von ATi, wo nur SGSSAA freigeschaltet wurde und alles auf DX11 gepatcht wurde". Das hab ich gesagt.

Für mich ist Cuda immer mehr Gold wert. Nach Pyrit und vReveal hab ich LoiloScope entdeckt. Da kann ATis XCoder Müll einpacken als "nützliche Consumer Software"...

mfg

corvus
2010-04-18, 08:24:03
Meine Kontraliste zur ATi willst du nicht hören. Also lass es lieber und beachte bitte den Threadtitel.....

genau das solltest du und deinesgleichen tun....!

lies mal deinen Kram weiter....."ur Benchjunkies"....

so Typen wie du sind einfach nur Lächerlich und das traurige daran ist sie merkens noch nichtmal...

PS
ich hatte stundenlang sogar 2x480er im Rechner....und hab sie wieder abgegeben......aus den bekannten Gründen.

Und ich will zocken mit so Karten und keinen Gehörsturz beim Cuda rendern bekommen....

und das>vReveal >ist einfach nur Müll und brauch kein Mensch.

Sentionline
2010-04-18, 08:35:49
und das>vReveal >ist einfach nur Müll und brauch kein Mensch.
Gratismentalität. Ich bohre damit YouTube Videos auf.

Jedenfalls nützlicher als XCoder.Oder kennst du irgendeine ConsumerVideoSoftware auf ATiSteam basis? Ich nicht; obwohl vollmundig alles vor Jahren versprochen wurde. Nichtmal gegen bares sichte ich was in der Richtung...

Fail! Setzen, 6!

Gast
2010-04-18, 08:57:47
AsVideoConverter (http://bluesky23.hp.infoseek.co.jp/en/index.html) benutze ich und bin zufrieden.

Grestorn
2010-04-18, 09:04:02
Aber wie verhält sich SLI/CF eigentlich bei Vsync? Dann dürfte es doch keine MR mehr geben?!
Meist nicht mehr als bei einer Single GPU mit aktiviertem VSync. Es kann aber durchaus ausreißer geben, bei denen dann VSync das Problem noch verstärkt.

Beispiel: Bei 30 fps wäre es am besten, wenn bei jedem zweiten Screen-Refresh auch ein neues Image angezeigt würde. Also so:

x-x-x-x-x

Mit MultiGPU kann es aber dann auch mal so aussehen:

xx--xx--xx

was auch 30 fps gibt, aber wie 15 fps aussieht.

@ mapel110

Was hat Vsync mit µRucklern zu tun? Du begrenzt nur die Fps auf die Hz [idR 60], zudem hast du einen gesteigerten Input-Lag, was die Problematik sogar verstärkt, statt sie zu mindern.

Ein "Schwaches" Ruckeln wird durch VSync nicht verstärkt, zumindest nicht mehr als auf einer Single-GPU Karte, bei der VSync ja auch eine gewisse Ungleichmäßgkeit der Verteilung der Frames produzieren kann.

Für mich eher nicht und eher ein Skandal. Da die RV870 auf die R600 alias HD2900XT basiert, frage sich ein ATi Fan: "Warum kommt SGSSAA erst jetzt?". Zusätzlich mit vermülltem AF?

Man kann auch anders fragen: Nachdem das ziemlich sicher nur ein Feature des Treibers ist und die HW keine besonderen Fähigkeiten dazu braucht, stellt sich mir die Frage:

Warum hat das nVidia noch nicht in Angebot?

Gast
2010-04-18, 09:17:22
Für mich eher nicht und eher ein Skandal. Da die RV870 auf die R600 alias HD2900XT basiert, frage sich ein ATi Fan: "Warum kommt SGSSAA erst jetzt?". Zusätzlich mit vermülltem AF?

Na? Antwort?

Ihr tut ja alle gerade so als ob ATI oder NV Wohlfahrtsvereine sein sollten. Beide reagieren aber nur auf das Verhalten der Marktteilnehmer.

Würden jetzt beide Hersteller das Optimum an Optik auf Ihren Karten zulassen, hätte wohl einer immer das Nachsehen bei den nakten FPS-Zahlen, die der geneigte Kunde vorrangig sehen will. Genau das will weder ATI noch NV. Klar kann man jetzt Ausnahmen z. B. die 9800 Pro von ATI oder die 8800er Serie von NV anführen. Aber das waren eben andere Situationen.

Ich als Hersteller würde jedenfalls den Teufel tun einer FPS-geilen Kundschaft nicht das zu geben was sie will. Mehr FPS. :P

Sentionline
2010-04-18, 09:25:43
Warum hat das nVidia noch nicht in Angebot?
Weils die Ameise zerquetschen würde. Das ist meine "Vermutung". Nvidias Featureset ist jetzt schon so "erschlagend".

Würden jetzt beide Hersteller das Optimum an Optik auf Ihren Karten zulassen, hätte wohl einer immer das Nachsehen bei den nakten FPS-Zahlen...
Komisch. Bei Nvidia kann man zwischen HQ und FPS umschalten. :O

Problematik ist die Vergleichbarkeit gegenüber Ati, da kein HQ Schalter vorhanden :cop:

Gast
2010-04-18, 10:07:18
Weils die Ameise zerquetschen würde. Das ist meine "Vermutung". Nvidias Featureset ist jetzt schon so "erschlagend".


Komisch. Bei Nvidia kann man zwischen HQ und FPS umschalten. :O

Problematik ist die Vergleichbarkeit gegenüber Ati, da kein HQ Schalter vorhanden :cop:


Ein Featureset, das kaum ein Anwender braucht/nutzt/nutzen kann. Profianwender und Enthusiasten mal ausgenommen. Das sind aber nicht die Kunden, die entscheidend für den Erfolg eines Produkts sind.

Den Schalter gibts bei ATI auch. Der nennt sich AI-Off. Nur verliert man damit auch das "Grafik-Bugfixing", das die IHVs für die Spielehersteller mittlerweile recht grosszügig übernehmen.

tombman
2010-04-18, 10:14:08
Ein Featureset, das kaum ein Anwender braucht/nutzt/nutzen kann. Profianwender und Enthusiasten mal ausgenommen. Das sind aber nicht die Kunden, die entscheidend für den Erfolg eines Produkts sind.
Ähm, für den Erfolg von HighEnd-Produkten sind natürlich HighEnd-User entscheidend, denn die sind ja die Käufer.
Was 0815-User von HighEnd halten, ist irrelevant, weil die keine Käufer sind ;)
(siehe 100€ ATI-Graka.-owner, die sich über Strom/Hitze von GTX4 aufregen :lol:)

Gast
2010-04-18, 10:18:37
Den Schalter gibts bei ATI auch. Der nennt sich AI-Off. Nur verliert man damit auch das "Grafik-Bugfixing", das die IHVs für die Spielehersteller mittlerweile recht grosszügig übernehmen.
Die Filterung verbessert sich leider nicht auf das Niveau von Nvidia, wenn AI abgeschaltet wird, obwohl die aktuellen Radeons ja Vorteile bei der Winkelabhängigkeit bieten sollten.

Black-Scorpion
2010-04-18, 10:18:44
@Sentionline

Zu deinen ach so tollen GPGPU Vorteilen der Nvidia Karten solltest du z.B. mal Gipsel (http://www.forum-3dcenter.org/vbulletin/member.php?u=6896) fragen.
Der sieht das ganz sicher anders.

Dazu noch ein Beispiel wegen der Leistung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7935236#post7935236

DrFreaK666
2010-04-18, 10:20:34
...
Die Recyclesalamis von ATi wollen doch nur Benchjunkies oder Leute mit Profilierungsproblemen. Auf dauer gewinnen die Nvidia Chips. Super DX11 Performance, Cuda und PhysX, zumeist problemlose Treiber und einwandfreier SLI Support inkl. weniger Mikroruckeln + AO Bonus gratis im Treiber und...und...und...

Kann man nun bei mehr Games AO erzwingen?
Das war für mich damals auch ein Grund eine Geforce zu kaufen.
Leider wird das feature stiefmütterlich behandelt, ausserdem hatte ich keines der unterstützten Spiele

Gast
2010-04-18, 10:24:26
Ähm, für den Erfolg von HighEnd-Produkten sind natürlich HighEnd-User entscheidend, denn die sind ja die Käufer.
Was 0815-User von HighEnd halten, ist irrelevant, weil die keine Käufer sind ;)
(siehe 100€ ATI-Graka.-owner, die sich über Strom/Hitze von GTX4 aufregen :lol:)

Deine Aussage ist auch richtig. Aber, es ist die gesamte Technologie die erfolgreich sein muss, um für den Hersteller rentabel zu sein. Die Produkte die dabei herauskommen sind High-End, Mid-Range und Low-End. Den grössten Brocken an entstandenen Kosten und damit Gewinn holen dabei Mid-Range und Low-End herein.

Sentionline
2010-04-18, 10:26:10
Ich weiss nicht was ihr habt. Radeon Käufer bringen irgendwie die gleichen Argumente, die Konsoleros von sich geben...lächerlich.

Dann kauft euch eine XBox. Die haben auch immer (-optimierte) Performance und können nix als 08/15 Grafik. Ich nutze Cuda und bin froh das es die gibt. Schonmal "über den Tellerrand" gedacht?

Gast
2010-04-18, 10:26:47
Die Filterung verbessert sich leider nicht auf das Niveau von Nvidia, wenn AI abgeschaltet wird, obwohl die aktuellen Radeons ja Vorteile bei der Winkelabhängigkeit bieten sollten.

Dann sind wir aber wieder bei der Diskussion. ATI hat das bessere AF, NV das bessere AA. Irgendwo müssen sich die Hersteller aber unterscheiden. Einer kann immer etwas besser als der andere. Absolut gleich werden beide nie sein. Das waren sie auch noch nie.

DrFreaK666
2010-04-18, 10:29:21
Ich weiss nicht was ihr habt. Radeon Käufer bringen irgendwie die gleichen Argumente, die Konsoleros von sich geben...lächerlich.

Dann kauft euch eine XBox. Die haben auch immer (-optimierte) Performance und können nix als 08/15 Grafik. Ich nutze Cuda und bin froh das es die gibt. Schonmal "über den Tellerrand" gedacht?

Ist Radeon-Nutzern AA egal?? ;D

Was ist eigentlich mit dem von dir gepriesenen AO?
Werden nun mehr Games unterstützt?

Black-Scorpion
2010-04-18, 10:32:48
Ich weiss nicht was ihr habt. Radeon Käufer bringen irgendwie die gleichen Argumente, die Konsoleros von sich geben...lächerlich.

Dann kauft euch eine XBox. Die haben auch immer (-optimierte) Performance und können nix als 08/15 Grafik. Ich nutze Cuda und bin froh das es die gibt. Schonmal "über den Tellerrand" gedacht?
Dein Tellerrand ist schon eine Schüssel und du schaffst es nicht einmal mit den Händen bis zum Rand, geschweige drüber zu schauen.
Dein Diskussionsstil ist unter aller Sau.

corvus
2010-04-18, 11:04:02
Ähm, für den Erfolg von HighEnd-Produkten sind natürlich HighEnd-User entscheidend, denn die sind ja die Käufer.
Was 0815-User von HighEnd halten, ist irrelevant, weil die keine Käufer sind ;)
(siehe 100€ ATI-Graka.-owner, die sich über Strom/Hitze von GTX4 aufregen :lol:)

weiß ja nicht ob du deine Karten schon hast...ich mußte für 2 erstmal das Netzteil wechseln (das wußte ich aber :D) und 2. hats mit einem WAKÜ Kreislauf nicht hingehauen...auf beiden 480ern sind EKs verbaut...Mora blaa das ganze Programm...mein Kollege der die jetzt hat hat nen chiller im Nebenraum.....

Ich weiss nicht was ihr habt. Radeon Käufer bringen irgendwie die gleichen Argumente, die Konsoleros von sich geben...lächerlich.

Dann kauft euch eine XBox. Die haben auch immer (-optimierte) Performance und können nix als 08/15 Grafik. Ich nutze Cuda und bin froh das es die gibt. Schonmal "über den Tellerrand" gedacht?


Tellerrand das würde dir gut stehen....event sollteste dir erstmal so eine Karte kaufen.....

vergleicht mal eure Karten was an Volt im anliegt......******


Und das Flackern auch bei nur einem angeschlossenem Monitor beim Lastwechsel fällt natürlich auch keinen auf.....und dabei fiepen sich die Dinger nen Wolf .... ist natürlich bei 100% Lüfter schwer rauszuhören....
*********
ich frag das hier nochmal....ist beim OC nicht so ganz ohne...

Gast
2010-04-18, 11:13:55
Dann sind wir aber wieder bei der Diskussion. ATI hat das bessere AF, NV das bessere AA. Irgendwo müssen sich die Hersteller aber unterscheiden. Einer kann immer etwas besser als der andere. Absolut gleich werden beide nie sein. Das waren sie auch noch nie.
Absolut richtig, aber mich stimmt es nachdenklich, dass die X1000-Reihe mit AI off ein besseres AF zeigen konnte hat, als die topmodernen DX11-Radeons.

Das lässt für mich zwei mögliche Schlüsse zu: Entweder kann es die derzeitige Hardware nicht besser (was ich für ziemlich unwahrscheinlich halte) oder aber - und das ist für mich der aktuell einzig relevante Nerv-Faktor an AMD - dass der Treiber Qualität zurückhält, die möglich wäre.

So muss ich mir meine Games mit der leistungsfressenden Supersampling-Keule schönknüppeln (was dank SGSS zumindest besser aussieht als Nvidias OG bzw. schneller ist als Nvidias Hybriden). Trotzdem hätte ich gern, dass das der Hardware mögliche AF auch für mich nutzbar wäre.

Fetter Fettsack
2010-04-18, 11:46:45
dass der Treiber Qualität zurückhält, die möglich wäre.

Ich weiß nicht, ob das so stimmt, aber falls ja, dann vermutlich, weil es a)leistungsmäßig zu viel abzapfen würde oder b) weil man es als nicht rentabel erachtet, sich um etwas zu bemühen, dass zumeist nur "optische Feinschmecker" wie y33h@ und ähnliche bemerken. Ich persönlich kenne keinen Menschen in der "Normalbevölkerung", der auch nur wüsste, was AF überhaupt ist, geschweige denn, das es Unterschiede zwischen den beiden Herstellern gibt. selbst wenn, die meisten achten dann doch nicht so wirlich darauf, wie ich den Eindruck habe.

Sentionline
2010-04-18, 11:53:28
Wenn jemand eine Grafikkarte für 200€ oder mehr kauft, hat keine Ahnung von AF? :|

Abgesehn davon muss man das auch nicht wissen. Reicht schon wenn Kenner sagen das die Suppe versalzen ist. Aber da wiederhole ich mich...

DrFreaK666
2010-04-18, 11:54:07
Ich weiß nicht, ob das so stimmt, aber falls ja, dann vermutlich, weil es a)leistungsmäßig zu viel abzapfen würde oder b) weil man es als nicht rentabel erachtet, sich um etwas zu bemühen, dass zumeist nur "optische Feinschmecker" wie y33h@ und ähnliche bemerken. Ich persönlich kenne keinen Menschen in der "Normalbevölkerung", der auch nur wüsste, was AF überhaupt ist, geschweige denn, das es Unterschiede zwischen den beiden Herstellern gibt. selbst wenn, die meisten achten dann doch nicht so wirlich darauf, wie ich den Eindruck habe.

Das gilt hier im 3D-Center-Forum aber nicht :wink:

Fetter Fettsack
2010-04-18, 12:23:03
Das gilt hier im 3D-Center-Forum aber nicht

Ich hab ja auch von "Normalbevölkerung" (wie auch immer die sich definieren mag^^) geschrieben, die ja verständlicher Weise keine Ahnung von der Materie hat. Allerdings machen diese Gruppe einen großen Brocken Umsatz aus, daher meine Schlussfolgerung. Das es hier im 3DC wohl kaum jemanden gibt, der mit "Shader" oder "SSAA" nichts anfangen kann, ist mir schon klar :) .

Wenn jemand eine Grafikkarte für 200€ oder mehr kauft, hat keine Ahnung von AF?

Auf CB gibt es Leute, die wollen sich eine GTX480 um knappe 500€ kaufen und das für ein System mit einem 5600+ und 2GB RAM. Noch Fragen :freak: ?

DrFreaK666
2010-04-18, 12:28:38
Ich hab ja auch von "Normalbevölkerung" (wie auch immer die sich definieren mag^^) geschrieben, die ja verständlicher Weise keine Ahnung von der Materie hat. Allerdings machen diese Gruppe einen großen Brocken Umsatz aus, daher meine Schlussfolgerung. Das es hier im 3DC wohl kaum jemanden gibt, der mit "Shader" oder "SSAA" nichts anfangen kann, ist mir schon klar :) .
...

Solche Menschen kenne ich auch.
Diese haben einen PC eben zum Spielen gekauft :wink:

Fetter Fettsack
2010-04-18, 12:33:36
Diese haben einen PC eben zum Spielen gekauft

Was ja nichts schlimmes ist, wozu sollten sie sich auch dafür interessieren? Eben deshalb kann ich mir vorstellen, dass man nicht allzuviel Energie von seiten ATis in die AF Thematik steckt, da es nicht sonderlich wirtschaftlich wäre.

DrFreaK666
2010-04-18, 12:37:04
Was ja nichts schlimmes ist, wozu sollten sie sich auch dafür interessieren? Eben deshalb kann ich mir vorstellen, dass man nicht allzuviel Energie von seiten ATis in die AF Thematik steckt, da es nicht sonderlich wirtschaftlich wäre.

Hm, wieso gibt es dann SGSSAA?

Botcruscher
2010-04-18, 12:39:36
Weil die Implementierung nicht zu aufwendig sein dürfte und es die normalen AA+AF Penisbalken nicht beeinflusst.

Gast
2010-04-18, 12:43:27
Absolut richtig, aber mich stimmt es nachdenklich, dass die X1000-Reihe mit AI off ein besseres AF zeigen konnte hat, als die topmodernen DX11-Radeons.

Das lässt für mich zwei mögliche Schlüsse zu: Entweder kann es die derzeitige Hardware nicht besser (was ich für ziemlich unwahrscheinlich halte) oder aber - und das ist für mich der aktuell einzig relevante Nerv-Faktor an AMD - dass der Treiber Qualität zurückhält, die möglich wäre.

So muss ich mir meine Games mit der leistungsfressenden Supersampling-Keule schönknüppeln (was dank SGSS zumindest besser aussieht als Nvidias OG bzw. schneller ist als Nvidias Hybriden). Trotzdem hätte ich gern, dass das der Hardware mögliche AF auch für mich nutzbar wäre.

Eben. Genau das ist der Punkt. Ich glaube nämlich auch, dass qualitätsmässig bei ATI mehr gehen könnte. Sie wollen es aber nicht zeigen, weil sie dabei FPS-mäßig wohl nicht so gut aussehen. Deshalb stülpt man (genauso wie nVidia auch) ein Optimierungssammasurium via Treiber über die Karte und hat eben das was man will. Den längsten FPS-Balken.

Das ist aber auch das was der Markt fordert. Das was der geneigte 3D-Center Leser fordert entspricht nur einem sehr kleinen Teil des Marktes. Je schärfer der Wettbewerb wird desto mehr bewegen sich beide an der Grenze bei den "Optimierungen" (Stichwort: "cheaten"). Gibt ja genug Beispiele.

Diesen Wettbewerb kann die Kundschaft eben nicht steuern bzw. will es auch gar nicht. Das ist das gleiche wie bei den Enthusiasten. Den interessiert der Stromverbrauch einen Dreck (hat ja genug Geld). Den Performance-Kunden interessiert das minimal schlechtere AA/AF eben auch einen Dreck (das Geld sitzt nicht so locker).
Der Performance-Kunde ist aber immer derjenige der den Umsatz macht und nicht der High-End-Kunde. Ist bei Mercedes und BMW nicht anders, nur auf einem anderen Niveau. ;)

IMO liegt es eh beim High-End Kunden diese Dinge einzufordern. Er hat ja die Kohle dafür hingelegt. Bisher reissen diese Kunden den Herstellern die Karten aber einfach so aus der Hand. Woraus man man folgern muss, dass bei eben diesen Kunden mehrheitlich auch wieder nur der Balken zählt. Ob das den Aufpreis der verlangt wird rechtfertigt muss letztendlich wieder jeder für sich selbst entscheiden.

corvus
2010-04-18, 12:43:45
Hm, wieso gibt es dann SGSSAA?

weil jetzt vieleicht die Power reicht...

Gast
2010-04-18, 12:45:48
Weil die Implementierung nicht zu aufwendig sein dürfte und es die normalen AA+AF Penisbalken nicht beeinflusst.
Warum hats NV nich :conf2:

Malabolge
2010-04-18, 13:20:37
Wenn jemand eine Grafikkarte für 200€ oder mehr kauft, hat keine Ahnung von AF? :|

Abgesehn davon muss man das auch nicht wissen. Reicht schon wenn Kenner sagen das die Suppe versalzen ist. Aber da wiederhole ich mich...

So so -

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7729301&postcount=234

"Negativkampange" - Mehr ist nicht zu sagen.Sowas legt Motive eindeutig offen !

Empfehle dem genigten Leser auch den Rest des Threads wo du dein "können" und deine "unabhängigkeit" unter Beweis stellst ;);)
Unsachlich,voreingenommen, herablassend - Dein Stil gefällt mir.:eek::eek::eek:



PS: empfehle CF/SLi 4er Gespanne die kosten dann um die 1500-2000€ , damit du noch mehr Ahnung von AF bekommst !:D:D

PS: Für jemand bei dem die Treiber "angeblich" nicht laufen , machst du schon sehr "detaillierte" angaben bei deinen Vergleichen !

Spasstiger
2010-04-18, 13:23:51
Warum hats NV nich :conf2:
Der GF100 hat zu wenig Rohleistung und würde mit SGSAA in hohen Auflösungen vermutlich meist gegen eine HD 5870 verlieren. NV hat auch Surround-Gaming (Triple Head) noch nicht in den Treiber integriert. Man scheint zumindest zum Release alle Möglichkeiten zu scheuen, bei denen der GF100 auf offiziellem Weg extrem viele Pixel berechnen müsste (d.h. weit jenseits von 5 Megapixel).

y33H@
2010-04-18, 13:29:48
2560 mit SSAA? :ulol:

Spasstiger
2010-04-18, 13:31:43
2560 mit SSAA? :ulol:
Ist nicht offiziell (nicht per CP anwählbar). Und solange kein 8xMSAA-Anteil dabei ist, ist der Vorsprung gegenüber einer GTX 285 ja eher bescheiden.

y33H@
2010-04-18, 13:35:34
Der Unterschied bleibt prozentual gleich, solange es kein 8x MSAA enthält oder der GTX285 der VRAM ausgeht. D.h. je nach Spiel schon mal ein sehr fetter Vorsprung, WoW etwa +60% von GTX280 auf GTX 480, von HD5870 auf GTX480 immer noch +30%.

Spasstiger
2010-04-18, 13:39:42
WoW ist allerdings auch eins von den Spielen, wo der GF100 glänzen kann. In Crysis sieht es sicherlich schon anders aus, dort ist die GTX 480 ohne AA in 1920x1200 ja nur gleichauf mit der HD 5870: http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_470/13/#abschnitt_crysis_warhead.
Von höheren Auflösungen ohne AA bzw. von SSAA profitiert dann relativ gesehen eher die HD 5870. Das zeigen eigentlich alle Reviews. Je höher die Auflösung bei GPU-Limitierung, desto näher rückt die HD 5870 an die GTX 480 ran. Irgendwann sollte auch der Punkt erreicht sein, wo die HD 5870 dann die GTX 480 überholt. Notfalls halt mit 2 GiB VRAM auf der HD 5870 - wobei die HD 5870 ja auch mit 2 GiB VRAM günstiger ist als die GTX 480.
Ich denke, dass NV bewusst Situationen vermeiden wollte, in denen die GTX 480 von der HD 5870 (2 GiB) geschlagen wird. Deshalb kein offizielles SSAA und kein Surround-Gaming (Triple Head) zum Release.

y33H@
2010-04-18, 13:41:53
Ohne MSAA ist die GTX480 vor der HD5870, mit SSAA würde ich mich eher an non-MSAA-Werten orientieren. Ich habe allerdings sagen wir mal 16xS in Crysis noch nicht probiert.

tombman
2010-04-18, 13:49:15
weiß ja nicht ob du deine Karten schon hast...ich mußte für 2 erstmal das Netzteil wechseln (das wußte ich aber :D) und 2. hats mit einem WAKÜ Kreislauf nicht hingehauen...auf beiden 480ern sind EKs verbaut...Mora blaa das ganze Programm...mein Kollege der die jetzt hat hat nen chiller im Nebenraum.....

Kann ich mir nicht vorstellen, denn ich hab derzeit 2x GTX295, und da hat der Mora 2 keine Probleme die zu kühlen.
Und eine 480er braucht nicht mehr Watt als eine 295er...

Hast du vielleicht zu schwachbrüstige Lüfter drauf? Auf meinen Mora blasen zusammen ca 1000m³/h :cool:
(4x 180mm Fans, jeder 250m³/h, http://geizhals.at/deutschland/a450423.html)

Außerdem wird nur die GPU-Energie von den Grakas zum Mora geführt, den Rest kühlen die Platten und damit nicht der Wasserkreislauf ;)

p.s.: meine beiden 480er liegen nur 1Km im Postverteiler entfernt, wollte gestern direkt abholen, ging aber nimmer, die sind jetzt quasi vollautomatisiert (kein Kundenbetrieb/Schalter mehr)- und so muß ich auf morgen warten, bis sie regulär ausgeliefert werden...

DrFreaK666
2010-04-18, 14:17:13
weil jetzt vieleicht die Power reicht...

Für hq-AF dann nicht?? :|

Spasstiger
2010-04-18, 14:32:01
Für hq-AF dann nicht?? :|
Dazu hätte ATI vermutlich die TMUs überarbeiten müssen. Neue Ausführungseinheiten kommen bei ATI erst 2011 mit Nothern Islands.
Und Shader-AF wäre pervers langsam.

DrFreaK666
2010-04-18, 14:34:12
Dazu hätte ATI vermutlich die TMUs überarbeiten müssen. Neue Ausführungseinheiten kommen bei ATI erst 2011 mit Nothern Islands.
Und Shader-AF wäre pervers langsam.

Wieso kann man sowas nicht hacken?
Ich bin experimentierfreudig. Software-AF wäre zum Vergleichen interessant.
Naja. Pech

Spasstiger
2010-04-18, 14:39:41
Software-AF kannst du dir in Codas "3DCenter Filter Tester" anschauen, die Möglichkeit zum Laden von eigenen Texturen ist gegeben. Meine Radeon HD 4850 bricht mit 16:1 Shader-AF statt 16:1 TMU-AF von 2000 fps auf 1000 fps ein.

DrFreaK666
2010-04-18, 14:43:54
Software-AF kannst du dir in Codas "3DCenter Filter Tester" anschauen, die Möglichkeit zum Laden von eigenen Texturen ist gegeben. Meine Radeon HD 4850 bricht mit 16:1 Shader-AF statt 16:1 TMU-AF von 2000 fps auf 1000 fps ein.

Habe den Filter-Tester mal genutzt um meine modifizierter Prototype-Texturen testen zu können.
Hätte gerne aber die Möglichkeit es überall aktivieren zu können.

AnarchX
2010-04-18, 14:52:21
Dazu hätte ATI vermutlich die TMUs überarbeiten müssen. Neue Ausführungseinheiten kommen bei ATI erst 2011 mit Nothern Islands.
Also glaubst du, die Verbesserungen bei HD5000 (Winkelunabhängigkeit, Verringerung der Flimmerneigung gegenüber HD4000) wurden allein über Software erreicht? Bei der Winkelunabhängigkeit wäre das wohl denkbar, bei S3 Chrome 400 gab es den "runden Kreis" auch mit einem Treiberupdate.

Bleibt wirklich die Frage woran es hapert, eine Filterqualität ähnlich wie NVs HQ anzubieten, bei der theoretischen Füllrate hat man ja mittlerweile einen deutlichen Vorteil gegenüber NV. Beim Launch des R600 soll sich wohl Eric Demers entsprechend geäußert haben, dass er/man unzufrieden über die Verringerung der Qualität gegenüber R5x0 sei. Da scheint wohl leider AMD das Know-How für eine entsprechende Implementierung zu fehlen bzw. das Management stellt dafür keine Ressourcen bereit, da die Zielgruppe zu klein ist.

Spasstiger
2010-04-18, 15:07:48
Coda war doch der Meinung, dass das Flimmer-AF bei ATI hardware- und nicht treiberbedingt sei. Oder täusche ich mich da?
Von der HD4K-Serie zur HD5K-Serie hat man wohl schon an den TMUs geschraubt, afaik kam mit D3D11 auch ein neues Texturformat hinzu. Und die verbesserte Gradienberechnung ließ sich vielleicht auch einfach in Hardware umsetzen. Das Flimmern ist vermutlich ein tieferliegendes Problem, was man mit kleinen TMU-Erweiterungen nicht beseitigen konnte.

DrFreaK666
2010-04-18, 15:28:28
Coda war doch der Meinung, dass das Flimmer-AF bei ATI hardware- und nicht treiberbedingt sei. Oder täusche ich mich da?
Von der HD4K-Serie zur HD5K-Serie hat man wohl schon an den TMUs geschraubt, afaik kam mit D3D11 auch ein neues Texturformat hinzu. Und die verbesserte Gradienberechnung ließ sich vielleicht auch einfach in Hardware umsetzen. Das Flimmern ist vermutlich ein tieferliegendes Problem, was man mit kleinen TMU-Erweiterungen nicht beseitigen konnte.

Also war das eine Kosten/Nutzen-Frage

Marodeur
2010-04-18, 15:29:06
p.s.: meine beiden 480er liegen nur 1Km im Postverteiler entfernt, wollte gestern direkt abholen, ging aber nimmer, die sind jetzt quasi vollautomatisiert (kein Kundenbetrieb/Schalter mehr)- und so muß ich auf morgen warten, bis sie regulär ausgeliefert werden...

Wolltest du ned 3?

derguru
2010-04-18, 15:37:00
meinst du die 3?:tongue:
http://www.abload.de/thumb/bruzzlersgdnxejyo.jpg (http://www.abload.de/image.php?img=bruzzlersgdnxejyo.jpg)

apropo,das ist blairs material.:smile:

Don Vito
2010-04-18, 15:38:38
Wollen und bekommen.
Ich wollte auch 3, eine wurde storniert. und Das auf dem Pic sind Blaire's Karten.

Marodeur
2010-04-18, 15:39:27
Tombi wollte ja 3 gleiche wenn ich mich an den Thread im Markt richtig erinner, das Bild zählt also eh ned. ;)

Gast
2010-04-18, 15:42:19
Also glaubst du, die Verbesserungen bei HD5000 (Winkelunabhängigkeit, Verringerung der Flimmerneigung gegenüber HD4000) wurden allein über Software erreicht? Bei der Winkelunabhängigkeit wäre das wohl denkbar, bei S3 Chrome 400 gab es den "runden Kreis" auch mit einem Treiberupdate.

Bleibt wirklich die Frage woran es hapert, eine Filterqualität ähnlich wie NVs HQ anzubieten, bei der theoretischen Füllrate hat man ja mittlerweile einen deutlichen Vorteil gegenüber NV. Beim Launch des R600 soll sich wohl Eric Demers entsprechend geäußert haben, dass er/man unzufrieden über die Verringerung der Qualität gegenüber R5x0 sei. Da scheint wohl leider AMD das Know-How für eine entsprechende Implementierung zu fehlen bzw. das Management stellt dafür keine Ressourcen bereit, da die Zielgruppe zu klein ist.

Know-How, LOL. Dazu braucht es null know-how. Das was AMD macht bedarf know-how, nämlich Samples einzusparen und diese so zu verteilen das es möglichst wenig auffällt. Außerdem konnte es schon R5xx erwiesenermaßen perfekt.

Die perfekte Gradientenberechnung ist natürlich in Hardware gegossen werden.

derguru
2010-04-18, 15:44:25
Wollen und bekommen.
Ich wollte auch 3, eine wurde storniert. und Das auf dem Pic sind Blaire's Karten.

hab ich ja geschrieben,lol macht blaire pn rundschreiben oder was.;D

aths
2010-04-18, 15:44:47
Know-How, LOL. Dazu braucht es null know-how. Das was AMD macht bedarf know-how, nämlich Samples einzusparen und diese so zu verteilen das es möglichst wenig auffällt.Einfach generell weniger Samples zu nehmen ist keine Methode die besonderes Know-How erfordert.

Gast
2010-04-18, 15:48:28
Einfach generell weniger Samples zu nehmen ist keine Methode die besonderes Know-How erfordert.

Ich habe geschrieben diese so zu verteilen damit es möglichst wenig auffällt. Einfach entlang der Line of Anisotropy die entsprechenden Samples zu nehmen bedarf jedenfalls kein know-how. AMD Sparfilter ist mit Sicherheit pure Absicht und ich denke auch das es kein Problem wäre dies mit einem Treiber zu ändern.

aths
2010-04-18, 15:53:57
Ich habe geschrieben diese so zu verteilen damit es möglichst wenig auffällt. Einfach entlang der Line of Anisotropy die entsprechenden Samples zu nehmen bedarf jedenfalls kein know-how. AMD Sparfilter ist mit Sicherheit pure Absicht und ich denke auch das es kein Problem wäre dies mit einem Treiber zu ändern.Dann schreib doch mal wie ATI das machen soll dass es möglichst wenig auffällt. Dazu müsste on-the-fly eine Analyse der Helligkeits- und Farbunterschiede der zu filternden Texel stattfinden. Das ist wesentlich aufwändiger als einfach die volle Samplezahl zu nehmen.

corvus
2010-04-18, 15:58:49
Kann ich mir nicht vorstellen, denn ich hab derzeit 2x GTX295, und da hat der Mora 2 keine Probleme die zu kühlen.
Und eine 480er braucht nicht mehr Watt als eine 295er...

Hast du vielleicht zu schwachbrüstige Lüfter drauf? Auf meinen Mora blasen zusammen ca 1000m³/h :cool:
(4x 180mm Fans, jeder 250m³/h, http://geizhals.at/deutschland/a450423.html)

Außerdem wird nur die GPU-Energie von den Grakas zum Mora geführt, den Rest kühlen die Platten und damit nicht der Wasserkreislauf ;)

p.s.: meine beiden 480er liegen nur 1Km im Postverteiler entfernt, wollte gestern direkt abholen, ging aber nimmer, die sind jetzt quasi vollautomatisiert (kein Kundenbetrieb/Schalter mehr)- und so muß ich auf morgen warten, bis sie regulär ausgeliefert werden...

ich hab nur einen Lüfter am Mora 35er :D hängt aber alles mit im Kreislauf, kompl.Board (digi SPAWA..) und CPU (bis 4.6 :D).

Und da hatte ich schon 39 Grad Wasser bei ~20 Grad Umgebung....

Hatte schon bei einer 295er einen zweiten Kreislauf...ich hasse heißes Wasser :D
Achte bei den Dingern mal auf die Volt die haben eine irre Streuung....

Blaire
2010-04-18, 16:24:43
hab ich ja geschrieben,lol macht blaire pn rundschreiben oder was.;D

Nein, es sollte hier auch garnicht gepostet werden. ;)

Daredevil
2010-04-18, 16:27:30
Was? DU hast 3 GTXen? Gleich mal Twittern!!111 ;D

Spasstiger
2010-04-18, 16:40:47
@blaire: Ich will auf jeden Fall einen Erfahrungsbericht inkl. Strommessung bei einem Durchlauf von OCCT sehen (CPU- und GPU-Last kombiniert). Bin mal gespannt, ob die 1,5-kW-Marke ab Steckdose mit ein wenig OC geknackt wird. :freak:

Don Vito
2010-04-18, 16:42:56
@blaire: Ich will auf jeden Fall einen Erfahrungsbericht inkl. Strommessung bei einem Durchlauf von OCCT sehen (CPU- und GPU-Last kombiniert). Bin mal gespannt, ob die 1,5-kW-Marke ab Steckdose mit ein wenig OC geknackt wird. :freak:

Kann ich dir schon sagen: Nein.

Gouvernator
2010-04-18, 17:08:18
Ich finde 3 Stück total unseriös. Ähm, eigentlich sogar schon 2... Man hängt meistens am CPU Limit oder im anderen Fall an Speichermenge falls man damit CPU Limit umgehen will und dreht Downsampling Auflösung hoch. Für 3 Spiele: Crysis, Metro und Arma 2 muss man doch nicht zweite geschweige dritte Karte kaufen. Für mich ist es ein klares Mittel der *******verlängerung.

Grestorn
2010-04-18, 17:26:02
Mit AA hängt man ganz schnell am GPU Limit. Lasst diese unnötigen SLI Flames, ok? Die einen sagen es ist unvernünftig, die anderen sagen es ist purer Neid.

Lasst doch jedem sein Vergnügen, es ist völlig unnötig sich darüber irgendwie zu äußern.

DrFreaK666
2010-04-18, 17:33:18
Wie sieht es eigentlich mit den Micro-Rucklern aus?
Je mehr Karten desto schlimmer, oder?
Ist man mit 3 nv-Karten auf 2-AMD-Karten-Micro-Ruckler-Niveau?

The_Invisible
2010-04-18, 17:35:25
Mit AA hängt man ganz schnell am GPU Limit. Lasst diese unnötigen SLI Flames, ok? Die einen sagen es ist unvernünftig, die anderen sagen es ist purer Neid.

Lasst doch jedem sein Vergnügen, es ist völlig unnötig sich darüber irgendwie zu äußern.

verstehe ich auch net, ich sage auch net zu jedem 200ps autofahrer das er auch mit 60ps von a nach b kommt...

freut euch doch mit :biggrin:

mfg

Don Vito
2010-04-18, 17:36:19
Wie sieht es eigentlich mit den Micro-Rucklern aus?
Je mehr Karten desto schlimmer, oder?
Ist man mit 3 nv-Karten auf 2-AMD-Karten-Micro-Ruckler-Niveau?

War bei 3way gtx285sLI nihct der Fall und wird es auch hier nicht sein.

Grestorn
2010-04-18, 17:36:40
Wie sieht es eigentlich mit den Micro-Rucklern aus?
Je mehr Karten desto schlimmer, oder?
Ist man mit 3 nv-Karten auf 2-AMD-Karten-Micro-Ruckler-Niveau?

Nein, theoretisch je mehr Karten desto weniger schlimm.

Spasstiger
2010-04-18, 17:38:49
Dass die Radeons im Crossfire stärkere Mikroruckel-Probleme haben als die GeForces im SLI, konnte ich bisher anhand von Frametime-Messungen nicht erkennen. Ich hab schon katastrophale Ergebnisse mit SLI zugeschickt bekommen genauso wie fast mikroruckelfreie Ergebnisse mit Crossfire.

Nein, theoretisch je mehr Karten desto weniger schlimm.
Praktisch je mehr Karten, desto schlimmer. Das hat sich in den Frametime-Messungen, die ich untersucht hab, schon rauskristallisiert. Natürlich bei jeweils gleicher Zielframerate.
Macht auch theoretisch Sinn. Angenommen, man peilt 33 ms pro Frame an (= 30 fps). Dann können die Frames jeweils mit den Abständen 33 ms - 33 ms - 33 ms berechnet werden, aber es kann auch passieren, dass die Abstände 70 ms - 15 ms - 14 ms betragen. Mit zwei GPU hat man dann z.B. 52 ms - 14 ms.
/EDIT: Falls es nicht klar rüber kam, die 70 ms fühlen sich deutlich schlimmer an als die 52 ms. Um mit 3-way-SLI durchgehend unter 33 ms pro Frame zu haben (d.h. gefühlt immer über 30 fps), sollte man durchgehend über 50 fps anpeilen. Das treibt die CPU-Anforderungen nach oben. Mit Single-GPU reicht es in diesem Beispiel logischerweise, durchgehend über 30 fps anzupeilen.
Wenn die Anforderungen aber eh heißt, gefühlt durchgehend 60 fps (inkl. VSync), dann ist das Mikroruckeln relativ egal, weil man in diesen fps-Regionen mit VSync kein Mikroruckeln mehr hat. Deshalb ist Multi-GPU imo auch nur für Leute interessant, die sehr hohe Frameraten anpeilen und entsprechend leistungsstarke, übertaktete CPUs haben.

y33H@
2010-04-18, 17:39:43
Wieso? Je mehr Karten, desto beknackter kann die Frame-Ausgabe sein.

Gast
2010-04-18, 17:46:05
Dass die Radeons im Crossfire stärkere Mikroruckel-Probleme haben als die GeForces im SLI, konnte ich bisher anhand von Frametime-Messungen nicht erkennen. Ich hab schon katastrophale Ergebnisse mit SLI zugeschickt bekommen genauso wie fast mikroruckelfreie Ergebnisse mit Crossfire.

Angeblich soll es da einen wesentlich stärkeren Inputlag geben. Könnte es sein, dass AMD schon eine Art Harmonizer verwendet? Denn der Harmonizer von entwickelt einem 3Dcenter-User hier hat ja auch die Framtimes verbessert, man spielte aber durch ihn mehr in der Vergangenheit, sprich Eingaben zeigen erst verzögert Wirkung auf dem Schirm und zwar mehr als der gewöhnliche Inputlag.

Gast
2010-04-18, 17:53:24
Angeblich soll es da einen wesentlich stärkeren Inputlag geben. Könnte es sein, dass AMD schon eine Art Harmonizer verwendet? Denn der Harmonizer von entwickelt einem 3Dcenter-User hier hat ja auch die Framtimes verbessert, man spielte aber durch ihn mehr in der Vergangenheit, sprich Eingaben zeigen erst verzögert Wirkung auf dem Schirm und zwar mehr als der gewöhnliche Inputlag.

Nein. Das läuft genauso schlecht wie von Anfang an.

aths
2010-04-18, 17:55:14
Nein, theoretisch je mehr Karten desto weniger schlimm.Wie kommst du darauf?

derguru
2010-04-18, 18:11:50
weil man mehr fps hat und somit die mikroruckler weniger bemerkt.:rolleyes:
würd mich auch gern interessieren wieso es so sein soll.:biggrin:

dildo4u
2010-04-18, 18:15:47
3D Mark 06 Weltrekord (Single Card) mit GTX 480 (Stockkühlung)

http://pic.xfastest.com/nickshih/0640626.jpg

http://www.xtremesystems.org/forums/showthread.php?t=249903

Spasstiger
2010-04-18, 18:19:56
weil man mehr fps hat und somit die mikroruckler weniger bemerkt.:rolleyes:
So macht das natürlich Sinn.
Single-GPU: 25 fps aufwärts, kein Mikroruckeln
Dual-GPU: 45 fps aufwärts, starkes Mikroruckeln
Triple-GPU: 60 fps konst. (VSync), kein Mikroruckeln

tombman
2010-04-18, 18:28:38
Wie kommst du darauf?
Er meint bei perfekter Skalierung und mehr fps.
(30fps, 60fps, 90fps)

Jeweils worst case bei 10ms Cpu speed:

1 Karte: 30fps -> 33ms -> 30fps
2 Karten: 60fps -> 16.6ms-16.6ms -> 10ms-23.3ms -> 43fps
3 Karten: 90fps -> 11.1ms-11.1ms-11.1ms -> 10ms-10ms-13.3ms -> 75fps

Bei perfekter Skalierung und einem Cpu Limit von 10ms = 100fps wäre also selbst beim worst-case die gespürten fps immer höher je mehr Karten man hineinstopft ;)

edit:

Es kommt auf viele Faktoren an, wie es mit MR aussieht.

Negative Prognose für AFR:

Cpu Last gering+ Gpu Last extrem+ zu langsam für 1 HE-Gpu+ Anzahl der GPUs hoch+ Profil from Hell
-> Cpu haut frames ohne Ende raus, Gpus kommen nicht hinterher -> den letzten beißen die Hunde -> Mega-MR :(

Abhilfe:
1.) Stärkere Gpus besorgen und weniger davon
2.) Cpu runtertakten, in die NÄHE der Gpu-Leistung bringen
3.) Sieg durch overkill: soviele Gpus reinhauen, das man sich dem Cpu-Limit nähert :cool:

Gouvernator
2010-04-18, 18:55:06
Wieso? Je mehr Karten, desto beknackter kann die Frame-Ausgabe sein.
Könnt ihr denn nicht was handfesteres einführen was den real spürbaren FPS entspricht bei MultiGPU Nutzung?

Damit meine ich nehmt zwei Karten, nehmt ein Spiel und nimmt die Frametimes die die GPUs produzieren.
Und am Ende macht ihr einen Koeffizient mit dem FPS in diesem Spiel bei dieser MultiGPU Konfiguration interpoliert werden.
Wie so eine Schwanzguillotine.

Angenommen es gibt 15-50 Kadenz und dann nimmt man diese Kadenz mit 50ms und interpoliert sie weiter auf
60,100,200 FPS so das man eine einfache Zahl hat. Mit der dann beliebige FPS multipliziert werden können um die gefühlte Framerate zu beschreiben. Was ihr macht ist genau diese Zahl zu ermitteln und festzulegen. Ihr guckt wie skaliert CF/SLI in diesem Spiel, macht Frametimes bei unterschiedlichen FPS und am Ende steht eine Zahl.

Beispiel
15-50 Kadenz ergibt gefühlte 20FPS, diese FPS dienen als Basis. Man hat nun 2/3 von angezeigten 30 FPS. Und jetzt nimmt man die Zahl was eine Einzelkarte gebracht hätte.
Also geteilt durch zwei ohne Berücksichtigung der Effizienz.
Also 15 FPS mit Einzelkarte. Mit Berücksichtigung bei 80% Effizienz wären dann 16,667 FPS mit Einzelkarte.
So und nun die 20 gefühlte FPS als prozentualen Mehrwert ermitteln - das sind 120%.

So sehen dann die User das ihre zweite Karte nicht mehr bringt wie gutes OC einer Einzelkarte. Ihr macht dann nur die Frametimes bei unterschiedlichen FPS und setzt sie so um das man sehr einfach nachvollziehen kann wie schnell so ein Gespann wirklich ist. Ihr habt das Material ihr braucht nur jeweils die Frametimes auszuwerten.
Das wird für machne wie ein Schlag ins Gesicht wirken aber so sehe ich nun mal die Situation.
Jeden Bench immer jeweils mit Frametimes zu unterlegen und sie dreist in realistische Werte zu verpacken wird hoffentlich die Hersteller zwingen was gegen MR zu machen.

Spasstiger
2010-04-18, 19:01:26
@Gouvernator: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940
Das Startposting ist weniger relevant, eher auf die hinteren Seiten schauen.

Grestorn
2010-04-18, 19:01:27
Wie kommst du darauf?

Statistik. Eine Karte kann alle x ms ein Frame berechnen. Das ist eine Konstante ganz unabhängig davon, wieviele Karten beteiligt sind. Die anderen SLI Karten berechnen ihr Frame irgendwo dazwischen. Bei einer zusätzlichen Karte kann es sehr dumm am Anfang des Zeitraums liegen (statt in der Mitte), das fällt dann sehr stark auf.

Wenn mehr Karten da sind, ist die Wahrscheinlichkeit, dass alle Frames zeitlich zusammenkleben und dann wieder eine große Lücke kommt, einfach kleiner. Das ist alles.

Gouvernator
2010-04-18, 19:02:10
3.) Sieg durch overkill: soviele Gpus reinhauen, das man sich dem Cpu-Limit nähert :cool:
Nein der Sieg ist dann das du so viele GPUs hast das du wirklich durch jeweils realistischen +20% Mehrwert einer extra GPU , dem spielbaren Bereich näherst.

y33H@
2010-04-18, 19:12:53
@ Grestorn

In der Praxis sieht die Theorie halt anders aus: Mit jeder weiteren GPU wird der µRuckler-Faktor krasser.

Gast
2010-04-18, 19:22:06
Statistik. Eine Karte kann alle x ms ein Frame berechnen. Das ist eine Konstante ganz unabhängig davon, wieviele Karten beteiligt sind. Die anderen SLI Karten berechnen ihr Frame irgendwo dazwischen. Bei einer zusätzlichen Karte kann es sehr dumm am Anfang des Zeitraums liegen (statt in der Mitte), das fällt dann sehr stark auf.

Wenn mehr Karten da sind, ist die Wahrscheinlichkeit, dass alle Frames zeitlich zusammenkleben und dann wieder eine große Lücke kommt, einfach kleiner. Das ist alles.

Dein Denkfehler liegt darin das x keine Konstante ist. Denn mit mehr Karten fahre ich auch eine höhere Auflösung bzw. aktiviere mehr Qualitätsfeatures um von den zusätzlichen Karten auch zu partizipieren. Eine Konstante sind da schon eher die fps. Und hier verstärkt sich das MR-Problem mir jeder zusätzlichen Karten natürlich enorm.

Spasstiger
2010-04-18, 20:08:25
Wenn mehr Karten da sind, ist die Wahrscheinlichkeit, dass alle Frames zeitlich zusammenkleben und dann wieder eine große Lücke kommt, einfach kleiner. Das ist alles.
Das gilt nur, wenn drei oder vier GPUs eingebaut werden, um bei gleichbleibender Bildqualität höhere fps zu erzielen als mit zwei GPUs. Wen man aber das Ziel verfolgt, bei gleicher Framerate eine höhere Bildqualität zu erreichen, sieht es gleich ganz anders aus. Dein gedachtes Zeitfenster, innerhalb von dem sich die Frametimes verteilen, wird dann nämlich größer.

Grestorn
2010-04-18, 20:34:12
Ja und? Das ändert nichts grundsätzliches an meiner Betrachtung.

Gast
2010-04-18, 20:38:41
Ja und? Das ändert nichts grundsätzliches an meiner Betrachtung.

Doch, da es vollkommen Praxisfern und damit irrelevant ist.

Gast
2010-04-18, 20:41:29
Er meint bei perfekter Skalierung und mehr fps.
(30fps, 60fps, 90fps)

Jeweils worst case bei 10ms Cpu speed:

1 Karte: 30fps -> 33ms -> 30fps
2 Karten: 60fps -> 16.6ms-16.6ms -> 10ms-23.3ms -> 43fps
3 Karten: 90fps -> 11.1ms-11.1ms-11.1ms -> 10ms-10ms-13.3ms -> 75fps

Bei perfekter Skalierung und einem Cpu Limit von 10ms = 100fps wäre also selbst beim worst-case die gespürten fps immer höher je mehr Karten man hineinstopft ;)

edit:

Es kommt auf viele Faktoren an, wie es mit MR aussieht.

Negative Prognose für AFR:

Cpu Last gering+ Gpu Last extrem+ zu langsam für 1 HE-Gpu+ Anzahl der GPUs hoch+ Profil from Hell
-> Cpu haut frames ohne Ende raus, Gpus kommen nicht hinterher -> den letzten beißen die Hunde -> Mega-MR :(

Abhilfe:
1.) Stärkere Gpus besorgen und weniger davon
2.) Cpu runtertakten, in die NÄHE der Gpu-Leistung bringen
3.) Sieg durch overkill: soviele Gpus reinhauen, das man sich dem Cpu-Limit nähert :cool:

du vergisst den inputlag. hast du dafür auch eine abhilfe?

Spasstiger
2010-04-18, 20:50:06
Ja und? Das ändert nichts grundsätzliches an meiner Betrachtung.
Denk doch mal nach. Du willst im Mittel auf 25 ms Framedauer kommen (= 40 fps). Mit zwei Karten beträgt dein Zeitfenster bei perfekter Skalierung (der Einfachheit halber) also 50 ms. Irgendwo da drin setzt die zweite GPU ihr Häufchen. Die maximale Zeitdifferenz zwischen zwei Frames kann also theoretisch 50 ms betragen.
Jetzt hast du vier GPUs und willst weiterhin 25 ms im Mittel erreichen (= 40 fps). Eine GPU hat nun logischerweise ein Zeitfenster von 100 ms, da drin verteilen die anderen drei GPUs ihre Häufchen. Jetzt kann zwischen zwei Häufchen eine Zeitdifferenz bis zu 100 ms liegen. Es ist mehr Spielraum für unregelmäßige Frametimes vorhanden.

40 fps avg. mit vier GPUs sind schlechter als 40 fps avg. mit zwei GPUs, sofern man eine unregelmäßige Frametimeverteilung als schlecht bezeichnet. Das kann man mit den Mitteln der Wahrscheinlichkeitsrechnung beweisen.

Blaire
2010-04-18, 21:27:12
Was geil ist, die neuen TRSSAA Modis funktionieren auch unter DX10@Crysis. Das war vorher nicht möglich. :)

Raff
2010-04-18, 21:34:24
Was geil ist, die neuen TRSSAA Modis funktionieren auch unter DX10@Crysis. Das war vorher nicht möglich. :)

Welche neuen Modi? Es bleibt doch bei 2x, 4x und 8x. Funktioniert TSSAA nun unter D3D10?

MfG,
Raff

Blaire
2010-04-18, 21:42:01
Welche neuen Modi? Es bleibt doch bei 2x, 4x und 8x. Funktioniert TSSAA nun unter D3D10?


Es scheint zu greifen, aber es wirkt irgendwie blurry schau selber mal. 8xQ+8Supersamples
http://www.abload.de/thumb/crysis2010-04-1821-28-7h57.png (http://www.abload.de/image.php?img=crysis2010-04-1821-28-7h57.png)

Raff
2010-04-18, 21:44:06
Jau, schein zu gehen! Es ist in Crysis mit SSAA normal, dass die Vegetation "weicher" wird. Hast du Edge-AA an? Ohne EAA und Motion Blur ist alles knackiger. :)

MfG,
Raff

tombman
2010-04-18, 21:47:34
du vergisst den inputlag. hast du dafür auch eine abhilfe?
Ähm, welcher input lag? Vsync muß natürlich draußen sein, aber das ist er bei mir eh immer, da ich da nicht empfindlich bin ;)
Habe vor kurzem wieder Crysis demo mit QUAD Sli ausprobiert, absolut spielbar.
Vielleicht mach ich mal ein Video um den Leuten die Angst vor dem pösen IL zu nehmen:

Einzig beim competitiven online gaming würde ich MGPU herausnehmen, da kann es was ausmachen- aber doch sicher nicht beim single player gaming...

Blaire
2010-04-18, 21:47:58
Jau, schein zu gehen! Es ist in Crysis mit SSAA normal, dass die Vegetation "weicher" wird. Hast du Edge-AA an? Ohne EAA und Motion Blur ist alles knackiger. :)


Ist Crysis V1.2 alles VeryHigh ohne irgendwelche Mods. :)

Edit: TRMSAA funktioniert übrigens auch@DX10

Raff
2010-04-18, 21:50:43
Tombi, mir scheint, dass du an das Gummi-Gameplay mit vier GPUs schon erschreckend angepasst bist. ;) Vergleich mal 30 Crysis-Fps von Quad-SLI mit 30 Fps von nur einer GPU. In Sachen Reaktionszeit (Verhältnis zwischen Eingabe und Umsetzung auf dem Schirm) liegen Welten dazwischen. Q-SLI ist, ebenso wie Q-CFX, bei 30 Fps (und darunter) absolut unbrauchbar.

Ist Crysis V1.2 alles VeryHigh ohne irgendwelche Mods. :)

Edit: TRMSAA funktioniert übrigens auch@DX10

Screenie pls! =) Mindestens 8xQ, bitte (besser 16xQ+)

MfG,
Raff

Schlammsau
2010-04-18, 21:58:17
Damals mit meinen 2 HD3870er war für mich das störendste, mit weitem Abstand vor den Micro Rucklern die mir kaum aufgefallen sind, der Inputlag wenn man unter 25fps gekommen ist.
Das war so krass....bei Shootern hab ich das Gefühl gehabt, die Waffe wird wie von einem Gummiband in die ein oder andere Richtung gezogen.

tombman
2010-04-18, 22:04:08
Tombi, mir scheint, dass du an das Gummi-Gameplay mit vier GPUs schon erschreckend angepasst bist. ;) Vergleich mal 30 Crysis-Fps von Quad-SLI mit 30 Fps von nur einer GPU. In Sachen Reaktionszeit (Verhältnis zwischen Eingabe und Umsetzung auf dem Schirm) liegen Welten dazwischen. Q-SLI ist, ebenso wie Q-CFX, bei 30 Fps (und darunter) absolut unbrauchbar.

Das ist ja der Fehler: welche 30fps? There is no 30fps ;D
Ich kauf doch kein MGPU, um 30fps zu haben? (außer es geht ned anders)

Raff
2010-04-18, 22:08:28
Das ist ja der Fehler: welche 30fps? There is no 30fps ;D
Ich kauf doch kein MGPU, um 30fps zu haben? (außer es geht ned anders)

Eh? 30 Fps in Crysis sind deutlich länger Regel denn Ausnahme. Das weißt du gewiss. ;) Zwei GTX 295 krieg ich dir ganz einfach klein. Das ist ja das Problem: Mit SLI kann man nicht mit von einer "normalen" Grafikkarten gewohnten Bildraten spielen, sondern man ist auf 40+ Fps angewiesen, um gescheites Aiming zu bekommen (abgesehen vom Mikroruckeln). Anders formuliert: SLI taugt nicht, um bei 30 Fps die BQ in himmlische Höhen zu treiben (im Gegensatz zu einer Single-GPU-Karte). Meine HD 5870 dient idR als Bildverbesserer, nicht als Fps-Schleuder.

MfG,
Raff

Schlammsau
2010-04-18, 22:09:04
Das ist ja der Fehler: welche 30fps? There is no 30fps ;D
Ich kauf doch kein MGPU, um 30fps zu haben? (außer es geht ned anders)

Mit Metro, STALKER und Crysis wirst du TSLi auch auf unter 30fps bringen.

Aber ich vergass....du zockst ja dann mit 1280x720 im Fenster um durchgehend hohe Fps bei höchster BQ zu haben.

Führt das nicht das ganze ad absurdum?

derguru
2010-04-18, 22:11:51
Das ist ja der Fehler: welche 30fps? There is no 30fps ;D
Ich kauf doch kein MGPU, um 30fps zu haben? (außer es geht ned anders)
naja wofür kaufst du dir denn mgpu, für 100fps oder was?(obwohl anscheinend schon sonst hättest du ein triple 285gtx gehabt und nicht die 295gtx krüppeln)

ich hab eigentlich immer mgpu gekauft um sozusagen eine stufe weiter im bq aufzusteigen und nicht zwingend die fps zu erhöhen,jetzt aktuell ist vieles spielbar mit 1920*1200 4xSGSSAA und durch eine 2 karte erreiche ich dann spielbare 8xSGSSAA und wichtiger mit tb´s DS-tool demnächst die nächste auflösung.

Blaire
2010-04-18, 22:29:53
Screenie pls! =) Mindestens 8xQ, bitte (besser 16xQ+)


Sorry beim TRMSAA hab ich mich vertan, das will nicht unter DX10!

Klingone mit Klampfe
2010-04-18, 22:56:05
Sorry beim TRMSAA hab ich mich vertan, das will nicht unter DX10!
Das kann nicht unter DX10. Solche Eingriffe durch den Treiber verbietet DX10 - leider. Entweder die Entwickler glätten ihre Transparenzen selbst oder man hat eben Pech gehabt. Es ist derzeit technisch unmöglich, von außen Einfluss zu nehmen.

DrFreaK666
2010-04-18, 22:59:05
Das kann nicht unter DX10. Solche Eingriffe durch den Treiber verbietet DX10 - leider. Entweder die Entwickler glätten ihre Transparenzen selbst oder man hat eben Pech gehabt. Es ist derzeit technisch unmöglich, von außen Einfluss zu nehmen.

Was hat sich MS dabei bloß gedacht??

LovesuckZ
2010-04-18, 23:00:37
Also TSSAA kostet schonmal Leistung bei Dirt:2 in DX11. Das scheint zu funktionieren...

Gast
2010-04-18, 23:11:25
Was hat sich MS dabei bloß gedacht??
Dasselbe wie beim Vernichten von DirectSound.
Gut die richtige Anwort kenne ich nicht....

tombman
2010-04-18, 23:12:09
Eh? 30 Fps in Crysis sind deutlich länger Regel denn Ausnahme. Das weißt du gewiss. ;) Zwei GTX 295 krieg ich dir ganz einfach klein. Das ist ja das Problem: Mit SLI kann man nicht mit von einer "normalen" Grafikkarten gewohnten Bildraten spielen, sondern man ist auf 40+ Fps angewiesen, um gescheites Aiming zu bekommen (abgesehen vom Mikroruckeln). Anders formuliert: SLI taugt nicht, um bei 30 Fps die BQ in himmlische Höhen zu treiben (im Gegensatz zu einer Single-GPU-Karte). Meine HD 5870 dient idR als Bildverbesserer, nicht als Fps-Schleuder.

MfG,
Raff
Bei mir dients dazu von unspielbaren fps wegzukommen, wie zb 20fps bei Single-Gpu -> 50fps Quad-Gpu.
30fps spiele ich auch mit 'ner single Gpu äußerst ungern.
Muß ich dich an das uralte 3dfx 30fps vs 60fps Video erinnern? ;)

4xAA reicht mir übrigens als Kantenglättung...
Mit Metro, STALKER und Crysis wirst du TSLi auch auf unter 30fps bringen.

Aber ich vergass....du zockst ja dann mit 1280x720 im Fenster um durchgehend hohe Fps bei höchster BQ zu haben.

Führt das nicht das ganze ad absurdum?
Nein, da du deine Fragen immer selbst und noch dazu falsch beantwortest.

Man kann fast alle games, die über eine mächtige Konsole verfügen, unter die Spielbarkeitsgrenze bringen, die Frage ist
nur, wie weit man da gehen muß ;) Mit 3x GTX480 muß man jedenfalls ziemlich weit gehen um das zu schaffen, mit 'ner popeligen HD5850
nur ein paar Millimeter :cool:
naja wofür kaufst du dir denn mgpu, für 100fps oder was?(obwohl anscheinend schon sonst hättest du ein triple 285gtx gehabt und nicht die 295gtx krüppeln)

Magst nicht Schlammi über meine Absichten ausfragen? Da könnts euch dann gegenseitig über tombman befragen und auch gleich die
Antworten geben, die ihr offensichtlich dringend fürs Seelenheil braucht ;)

ich hab eigentlich immer mgpu gekauft um sozusagen eine stufe weiter im bq aufzusteigen und nicht zwingend die fps zu erhöhen,jetzt aktuell ist vieles spielbar mit 1920*1200 4xSGSSAA und durch eine 2 karte erreiche ich dann spielbare 8xSGSSAA und wichtiger mit tb´s DS-tool demnächst die nächste auflösung.
Ähm, das macht doch jeder so...

Btw, ich HATTE 3x 285- und habe sie wieder gegen 2x GTX295 zurückgetauscht, weil ich da mehr Leistung hatte- auch spürbar.

derguru
2010-04-18, 23:24:30
Ähm, das macht doch jeder so...

Btw, ich HATTE 3x 285- und habe sie wieder gegen 2x GTX295 zurückgetauscht, weil ich da mehr Leistung hatte- auch spürbar.
eben vorallem weil du es hattest sagt mir das du absolut null interesse an bq hast sondern 4xmsaa dir vollkommen reicht.(wer gibt denn triple 285 gegen 2*295 karten auf) :|
naja mir egal was du machst,es ist eh nicht nachvollziehbar obwohl doch irgendwie schon.:wink:

Spasstiger
2010-04-18, 23:27:02
Btw, ich HATTE 3x 285- und habe sie wieder gegen 2x GTX295 zurückgetauscht, weil ich da mehr Leistung hatte- auch spürbar.
Was aber nur daran liegt, dass dir die zeitliche Auflösung (= fps) wichtiger ist als die räumliche Auflösung (= AA). Mit 16xS-AA + TMSAA in FullHD wären die drei GTX 285 sicherlich überlegen gewesen.

Blaire
2010-04-18, 23:28:30
Was aber nur daran liegt, dass dir die zeitliche Auflösung (= fps) wichtiger ist als die räumliche Auflösung (= AA). Mit 16xS-AA + TMSAA in FullHD wären die drei GTX 285 sicherlich überlegen gewesen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7978878&postcount=4638
Spasstiger was meinst du dazu?

sklave_gottes
2010-04-18, 23:34:04
Was aber nur daran liegt, dass dir die zeitliche Auflösung (= fps) wichtiger ist als die räumliche Auflösung (= AA). Mit 16xS-AA + TMSAA in FullHD wären die drei GTX 285 sicherlich überlegen gewesen.


nicht nur da, es wird in quasi jedem quad vs trip sli test gezeigt das 3x285gtx vorne sind. gefühlt sowieso 100%.

z.b.
http://www.computerbase.de/artikel/grafikkarten/2009/test_3-way-sli_quad-sli_crossfire_x/17/#abschnitt_performancerating

Immer wenns wichtig ist, geht das 3er gespann vor. Eine 295 ist noch ok aber 2 sind einfach üble speicherkrüppel....

Btw:

Echt blöde das man mit dx 10-11 nichts mehr mit Treiber forcieren kann. Für mich ein eindeutiger Rückschritt.

mfg martin

AnarchX
2010-04-19, 07:33:15
Hier kann über das möglicherweise vorhandene FS-RG/SGSSAA diskutiert werden: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482088

AnarchX
2010-04-19, 08:19:13
Hier hat man wohl schon eine erste Lösung zum Multi-Monitor-Verbrauchsproblem gefunden:
http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-480-faq-bei-fragen-bitte-die-erste-seite-lesen-part-1-a-702517-38.html#post14424425
http://www.hardwareluxx.de/community/14425181-post957.html
86W Ersparnis gegenüber dem Referenzverhalten mit einem etwa 250ms Flackern auf dem 2. Monitor, wenn der Takt geändert wird.
edit: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7978852#post7978852

tombman
2010-04-19, 09:50:13
nicht nur da, es wird in quasi jedem quad vs trip sli test gezeigt das 3x285gtx vorne sind. gefühlt sowieso 100%.

In meinen internen Tests damals lag 2x GTX295 vorne- deshalb hatte ich sie behalten und gab 3x GTX285 wieder zurück...

Btw, 2x GTX480 Zotac eingetroffen :)

dllfreak2001
2010-04-19, 13:07:14
:D Dann schreib mal wie die sind.

Blaire
2010-04-19, 13:24:44
Btw, 2x GTX480 Zotac eingetroffen :)

Teppichbilder please ;D

Duplex
2010-04-19, 20:02:58
http://www.hardwareluxx.de/community/14429554-post201.html

GTX480 mit Wasserkühlung nur 47°C bei 900/1800/2000 @ 1,063V (+ 30% übertaktet)

der Fermi GTX480 ist auf hohe Taktraten und wenig spannung ausgelegt, als Kühlung muss aber umbedingt ein Wasserkühler installiert werden

TheBrother
2010-04-19, 20:10:56
mal wieder ohne Unigine. nur Kombustor zum testen ist zwecklos und reicht nicht.

Don Vito
2010-04-19, 20:25:33
mal wieder ohne Unigine. nur Kombustor zum testen ist zwecklos und reicht nicht.
Kann ich bestätigen, Ohne Heaven unnütz, erst wenn rurmark und Heaven Fehlerfrei sind, ist der Takt stabil.

hq-hq
2010-04-19, 21:11:20
hiho,

interessant, ich lass gleich mal den heaven laufen, hab bei meiner gtx 470 jetzt mal die gpu spannung reduziert aber bisher nur den kombustor laufen lassen.

mein sys nimmt sich bei kombustor

0,975v gpu -> 283 watt
0,925v gpu -> 269 watt
0,900v gpu -> 264 watt
0,875v gpu -> 256 watt

also ich lass jetzt mal den unigine mit max tesselation laufen und bin gespannt obs abkackt ^^

y33H@
2010-04-19, 21:15:41
Kombustor/Furmark taugen nicht, Crysis zocken ist angesagt ;)

hq-hq
2010-04-19, 21:28:06
na das war jetzt enttäuschend, mit unigine bei 4xfsaa 16x ani + high quality und extreme tesselation bei 1920x1080

bei 0,875v - 3s dann bunter absturz
bei 0,900v - bunte sternchen und teilausfall der texturen
von 0,925v bis 0,955v etwa kommen immer noch selten bunte leuchtende sterne, hdr reflexionen die eigentlich nirgends hinpassen in grün oder in rosa ...

naja... irgendwie bin ich jetzt bissl traurig ;(

TheBrother
2010-04-19, 21:40:04
naja... irgendwie bin ich jetzt bissl traurig ;(

Ich hab mir verschiedene Profile im Afterburner gemacht. Wenn DX11 dann schalte ich auf ein Profil mit hoher Spannung und weniger hohen Taktraten wenn DX10/9 dann schön die Spannung unten lassen und hohe taktraten. Mit Tastatur Shortcut geht das auch.

So kann man sich bei Bedarf an die Gegebenheiten anpassen.
Ist zwar noch nicht optimal, aber besser als nix.

hq-hq
2010-04-19, 21:48:06
wo du den takt ansprichst, ich hab jetzt den afterburner 1.6 beta5 und kann toll die gpu spannung verstellen, nur is jetzt plötzlich bei gpu takt/shader kein regler mehr bzw bei shader unbeweglich... gut, bei 1.51 war bei gpu und shader takt nur schmarrn dringestanden ^^

ich kann kaum lachen grad, hab das gefühl das fw 197.41 den neuen afterburner net mag

hmmja das evga tool das precision 1.9.1 is auch ungeeignet steht bei gpu takt nur schmarrn drin

TheBrother
2010-04-19, 21:50:18
bei mir geht's ganz normal - habe aber auch ne 480gtx...

hq-hq
2010-04-19, 21:51:50
hmmrrgh... ich seh schon ich hol mir jetzt nen bier, stell die spannung auf 0,900v runter und schau ob drakensang funzt, wer braucht schon tesselation ;)

oh mann, den shader regler kann man beim afterburner doch verstellen, lustig weil das übertakten funktioniert, man sieht nur den gpu takt nicht. muss man im monitor schauen. :freak:

Frank1974
2010-04-20, 07:36:05
Schade ich habe keine GTX480 bekommen, habe sofort bestellt, wo Alternate 48h Lieferzeit angegeben hat, ich hätte einen sehr Umfangreichen Test im Vergleich zu meiner GTX295 geliefert, so viele Games wie ich, testet keiner und ich werde es noch weiter ausbauen.

Aber wenn es diesen Monat nichts wird, dann warte ich auf den Refresh.

mfg
Frank

TheBrother
2010-04-20, 08:43:35
[...]
, ich hätte einen sehr Umfangreichen Test im Vergleich zu meiner GTX295 geliefert, so viele Games wie ich, testet keiner und ich werde es noch weiter ausbauen.


Das hättest du Alternate schreiben sollen, dann haettest du ggf eine bekommen ;) "Ich will garnicht spielen, ich will nur benchmarken" ;D ;D ;D

Raff
2010-04-20, 08:56:36
Ich gehe mal schwer davon aus, dass Nvidias Partner noch ein paar Karten nachproduzieren werden, also keine Sorge. ;)

MfG,
Raff

Iruwen
2010-04-20, 12:01:32
Nein, Charlie sagt es werden keine neuen GF100 mehr produziert also muss das stimmen :rolleyes:

Iruwen
2010-04-20, 12:16:20
GTX 480 vs FX 5800 Ultra (aka der Föhn) (http://techreport.com/discussions.x/18774) :D

Bucklew
2010-04-20, 12:25:31
GTX 480 vs FX 5800 Ultra (aka der Föhn) (http://techreport.com/discussions.x/18774) :D
Halt alles nicht so schlimm, wir nur von gewissen Leuten gezielt hoch gebauscht. Ist hier aber irgendwie sehr ruhig geworden :confused:

hq-hq
2010-04-20, 12:38:06
jupp, und das mit der gpu temperatur, meine alte x1950pro wird auch über 90°C heiss...:freak:

Gast
2010-04-20, 12:55:10
jupp, und das mit der gpu temperatur, meine alte x1950pro wird auch über 90°C heiss...:freak:
In der Pfanne vieleicht ? aber im Normalen Gehäuse komm ich nicht über 86 Grad raus. Auch schon viel aber immer dieses "hochstiliesieren"

Gast
2010-04-20, 12:58:30
Halt alles nicht so schlimm, wir nur von gewissen Leuten gezielt hoch gebauscht. Ist hier aber irgendwie sehr ruhig geworden :confused:
Naja , eure freundlichr MOdschaft aus der Nachbarschaft hat schon für ruhe bei den kritischen Stimmen gesorgt. Und ausserdem wird hier doch jeder der hier was kritisches schreibt als Fanboy abgetan.
Um gottes willen , ja nicht den Hype bremsen.

Ne Du - Lass den Troll einfach mal stecken !

PS: Ihr seid keine "Fanboys" - Ihr seid schon weit über "Fanatisch" hinweg ;-)

Exxtreme
2010-04-20, 13:03:09
GTX 480 vs FX 5800 Ultra (aka der Föhn) (http://techreport.com/discussions.x/18774) :D
Hmmm, kaum lauter als eine R9800 Pro, welche ich mal hatte. Und die war durchaus erträglich.

Bucklew
2010-04-20, 14:35:20
Naja , eure freundlichr MOdschaft aus der Nachbarschaft hat schon für ruhe bei den kritischen Stimmen gesorgt.
Ne, das haben die "kritischen Stimmen" sehr gut selbst erledigt, da lieb den Mods ja gar nichts anderes übrig, als die Leute nach den Aktionen zu sperren. Soll man alles durchgehen lassen, nur weil diese Leute "kritsch" sind? Lächerlich...

PS: Ihr seid keine "Fanboys" - Ihr seid schon weit über "FanATIsch" hinweg ;-)
Hallo Tarkin, habs mal korrigiert ;D

Iruwen
2010-04-20, 15:20:56
Triple SLI Test (http://www.hardware.info/nl-NL/articles/amdnampoZGCa/Clash_of_the_Titans_3way_SLI_GTX_480_test/13)

/e: irgendwie ist die Skalierung bei 3xCF ja deutlich besser.

Gouvernator
2010-04-20, 15:25:34
OC Temperatur bei 860Mhz @1,125V beträgt bei mir mit einem triple Radi 62°C, nur mal als Vergleich. Und die Karte bzw. GPU ist allein im Kreislauf...

Spasstiger
2010-04-20, 15:39:13
Hmmm, kaum lauter als eine R9800 Pro, welche ich mal hatte. Und die war durchaus erträglich.
Ich glaube, dass die Messungen nicht wirklich vergleichbar sind. Die Radeon 9800 Pro war sicherlich nicht lauter als alle heutigen Single-GPU-High-End-Karten bis auf die GTX 480.
Ich hatte eine Radeon 9700 und ein AC VGA Silencer, den ich später draufgebaut habe, war auf der Einstellung "high" ganz klar lauter als der Originallüfter. Im Vergleich zu einer GeForce 4 MX war er aber immer noch leise.

Advanced
2010-04-20, 15:41:00
Triple SLI Test (http://www.hardware.info/nl-NL/articles/amdnampoZGCa/Clash_of_the_Titans_3way_SLI_GTX_480_test/13)

/e: irgendwie ist die Skalierung bei 3xCF ja deutlich besser.
Das ist ja eine ganz neue Erkentniss... :freak:

dildo4u
2010-04-20, 15:49:31
Triple SLI Test (http://www.hardware.info/nl-NL/articles/amdnampoZGCa/Clash_of_the_Titans_3way_SLI_GTX_480_test/13)

/e: irgendwie ist die Skalierung bei 3xCF ja deutlich besser.
Das 2 Way SLI Scaling sieht ganz gut besser als bei ATI,man darf auch nicht vergessen das es der erste GT480 Treiber ist da wird sicher noch nachgelegt.

DrFreaK666
2010-04-20, 15:55:18
Das 2 Way SLI Scaling sieht ganz gut besser als bei ATI,man darf auch nicht vergessen das es der erste GT480 Treiber ist da wird sicher noch nachgelegt.

Könntest du bitte mal öfters Punkt und Komma nutzen?
Das liest sich ja fürchterlich...;(

RoNsOn Xs
2010-04-20, 16:52:21
Könntest du bitte mal öfters Punkt und Komma nutzen?
Das liest sich ja fürchterlich...;(
öfter, wenn denn. :freak:

tombman
2010-04-20, 19:15:37
Triple SLI Test (http://www.hardware.info/nl-NL/articles/amdnampoZGCa/Clash_of_the_Titans_3way_SLI_GTX_480_test/13)

/e: irgendwie ist die Skalierung bei 3xCF ja deutlich besser.
Naja, Treiber...aber die absolute Leistung herrscht :)

DrFreaK666
2010-04-20, 19:16:55
öfter, wenn denn. :freak:

Immerhin war mein Satz verständlich. Für einen Ausländer beherrsche ich die deutsche Sprache imho recht gut :smile:

aths
2010-04-20, 21:16:21
Wieder so ein Sinn befreiter "Beitrag", den kein Mensch braucht. Aber das kennt man ja von dir. Zum Deutsch sage ich besser gar nichts.

Thema Paperlaunch: Mehr als nur zutreffend.Mehr als nur zutreffend? Überzutreffend oder wie?

Bis auf ein paar Ausnahmen in Deutschland (kein Wunder, ist ja auch der größte PC-Spielemarkt) sind die Dinger kaum zu kriegen. Ich bin ja gespannt, ob's mit dem Refresh besser wird. Der aktuelle Chip ist ja ohnehin nur eine Notlösung.Ja nee denke mal, der Refresh wird auch scheiße aber die ganzen Fenbois bleiben bei Nvidia ...

Klar, GF100 ist nur eine Notlösung :eyes:

Antarktis
2010-04-20, 22:28:22
Ja nee denke mal, der Refresh wird auch scheiße aber die ganzen Fenbois bleiben bei Nvidia ...

Klar, GF100 ist nur eine Notlösung :eyes:

Auch Scheiße? Du stimmst mir also zu? Wie schmeichelhaft.

Der Chip ist in der Tat eine Notlösung, zumindest der 480er. Der sollte ursprünglich mehr Takt und auch mehr Einheiten haben. Das ging aber nicht, da der Stromverbrauch sonst weit jenseits der 350 Watt gelegen wäre.

Gast
2010-04-20, 22:32:19
Leistung war nicht der Grund für die Abschaltung des letzten Clusters.

Arctica
2010-04-20, 22:33:16
Leistung war nicht der Grund für die Abschaltung des letzten Clusters.
U.a. eben schon.

Bucklew
2010-04-20, 22:35:10
U.a. eben schon.
Nein, der Mehrverbrauch des 16. Clusters ist vernachlässigbar. Die Abschaltung dient einzig und allein dazu die Yield zu verbessern.

aths
2010-04-21, 10:28:11
Auch Scheiße? Du stimmst mir also zu? Wie schmeichelhaft.

Der Chip ist in der Tat eine Notlösung, zumindest der 480er. Der sollte ursprünglich mehr Takt und auch mehr Einheiten haben. Das ging aber nicht, da der Stromverbrauch sonst weit jenseits der 350 Watt gelegen wäre.Bei Nvidia hat es Tradition, ursprünglich erhoffte Taktraten nicht zu erreichen. Das war schon bei der Riva TNT so, dann bei der TNT2 und so weiter. NV25 machte nur magere 300 MHz mit, NV40 nur schlaffe 400 MHz. Sind diese ganzen Chips nur Notlösungen? Nvidia kann trotz der Kompromisse die schnellste GPU anbieten.

hq-hq
2010-04-21, 12:30:44
In der Pfanne vieleicht ? aber im Normalen Gehäuse komm ich nicht über 86 Grad raus. Auch schon viel aber immer dieses "hochstiliesieren"

tztz, im sommer hab ich mit atitool nach ca 1h 115°C erreicht. is der referenzkühler druff und im gehäuse war kein gehäuselüfter nur ein nt mit 120mm lüffi

Gast
2010-04-21, 13:20:07
tztz, im sommer hab ich mit atitool nach ca 1h 115°C erreicht. is der referenzkühler druff und im gehäuse war kein gehäuselüfter nur ein nt mit 120mm lüffi

toll, vielleicht hättest du auch noch 120° geschafft wenn du sie mit ner decke eingewickelt hättest.

Gast
2010-04-21, 14:03:41
EVGA hat wohl die EVGA GTX 480/470 Hydro Copper FTW etwas verändert?
Der Kühler wurde zum Slotblech erweitert.
Sieht aber so noch besser aus, sehr elegant!
http://www.evga.com/articles/00539/
http://www.evga.com/PRODUCTS/IMAGES/GALLERY/012-P3-1479-AR_LG_1.jpg

Byteschlumpf
2010-04-21, 16:58:08
Endlich! Daddln und nebenher Kaffee kochen - Dank Durchlauferhitzer! :D
Sorry für OT, aber das musste sein! ;)

LovesuckZ
2010-04-21, 17:02:42
Endlich! Daddln und nebenher Kaffee kochen - Dank Durchlauferhitzer! :D
Sorry für OT, aber das musste sein! ;)

Und was hat das mit GF100 zu tun? :confused:
Das kann man doch schon seit der 4870x2 machen.

Byteschlumpf
2010-04-21, 17:12:50
Und was hat das mit GF100 zu tun? :confused:
Das kann man doch schon seit der 4870x2 machen.
Warum? Weil mich eben das Bild dazu angeregt hat - es hätte auch Marke X Modell Y sein können! ^^
Ich wollte dich nicht als "Jünger" einer Marke so überdeutlich hier bloßstellen!

Eine passive 8600GT macht auch ILDE satte 90°C!

Fetter Fettsack
2010-04-21, 18:55:38
Eine passive 8600GT macht auch ILDE satte 90°C!

Da muss aber auch etwas bei der Gehäusebelüftung nicht ganz in Ordnung sein. ;)

moBi
2010-04-21, 19:01:18
Was mir nicht in den Kopf will ist, warum die Wakü Versionen immer ordentlich mehr kosten...:eek: Rein von den Materialkosten ist die Wakü doch bestimmt billiger und auch die Fertigung kann doch nicht schlimmer als eine normale Version sein.

Mich kotzt das echt an, dass man für fast jede Graka immer 100€ extra drauflegen muss, weil der Komplettkühler ja auch nur für diese eine passt.:rolleyes: Mit meinen GPU only Lösungen bin ich zwar weitgehend zufrieden, aber bei einer 500€ Graka hab ich nicht so viel Lust auf Garantieverlust...

Gast
2010-04-21, 19:10:57
Nein, der Mehrverbrauch des 16. Clusters ist vernachlässigbar. Die Abschaltung dient einzig und allein dazu die Yield zu verbessern.

hmm, du weisst ja genau bescheid, warst wohl dabei, als das beschlossen wurde ?

Gast
2010-04-21, 19:16:25
hmm, du weisst ja genau bescheid, warst wohl dabei, als das beschlossen wurde ?

Darf man mal fragen für wen das von Interesse ist ? Das Ding wurde beschnitten weil es offensichtlich nötig war. Bumms aus Ende...
Alles andere dient doch nur der eigenen Nabelschau um als FanATIker auf den Nivida-Fans rummhacken zu können oder andersrum wegzuargumentieren dass mit dem Chip halt nicht das erhoffte Übermonster da ist sondern ein Chip mit Ecken und Kanten...

Botcruscher
2010-04-21, 19:20:28
Was mir nicht in den Kopf will ist, warum die Wakü Versionen immer ordentlich mehr kosten...:eek: Rein von den Materialkosten ist die Wakü doch bestimmt billiger und auch die Fertigung kann doch nicht schlimmer als eine normale Version sein.

Kleinserie und die Herstellungskosten des Kühlers dürften sehr wohl deutlich höher sein.

Fetter Fettsack
2010-04-21, 19:36:54
sondern ein Chip mit Ecken und Kanten...

Was daran liegt, dass die Dinger meist quadratisch sind :D

Rein von den Materialkosten ist die Wakü doch bestimmt billiger und auch die Fertigung kann doch nicht schlimmer als eine normale Version sein.

Ich denke nicht, dass ein normaler Lüftkühler teurer im Material ist als eine doch schon von der Konstruktion her aufwendigere Wasserkühlung, die auch wirklich ordentlich verbaut werden muss, damit sich die Kühlflüssigkeit nicht verselbstständigt (mehr Zeiaufwand = höhere Kosten des Herstellers). Zumal, wie schon angemerkt wurde, werden die Luftgekühlten Versionen ja in Großserie aufgelegt, die Wasserkühlungs Versionen aber nicht.

Gast
2010-04-21, 19:46:56
Kleinserie + reichlich Kupfer = über 100€ für den Wasserkühler

Die mit vorinstalliertem Wasserkühler sind dann halt um den Betrag teurer, vollkommen angemessen, auch angesichts das im High-End Bereich der Aufpreis normalerweise nicht linear mit dem Nutzen steigt.

Gast
2010-04-21, 19:48:08
Darf man mal fragen für wen das von Interesse ist ? Das Ding wurde beschnitten weil es offensichtlich nötig war. Bumms aus Ende...
Alles andere dient doch nur der eigenen Nabelschau um als FanATIker auf den Nivida-Fans rummhacken zu können oder andersrum wegzuargumentieren dass mit dem Chip halt nicht das erhoffte Übermonster da ist sondern ein Chip mit Ecken und Kanten...

genau, weil es nötig war. bumms und ende. stand mal irgendwann irgendwo offiziell, warum es denn nötig war ? ich habe mich nur gewundert, warum er das mit dem yield als einzigen möglichen grund so sicher als tatsache hinstellt.

Byteschlumpf
2010-04-21, 20:15:35
Da muss aber auch etwas bei der Gehäusebelüftung nicht ganz in Ordnung sein. ;)
Jau, mit leisem 80er Lüfter neben der Karte fällt deren Temp fast um die Hälfte! :)

Tesseract
2010-04-21, 21:29:11
Klar, GF100 ist nur eine Notlösung :eyes:

klar ist er eine notlösung. sonst wäre wohl kaum jeder einzelne chip teildeaktiviert und die TDP am limit der spezifikation.
fermi hätte locker ein zweiter G80 werden können wenn die fertigung so funktioniert hätte wie geplant. die architektur selbst scheint wirklich gut geworden zu sein.
aber das was nvidia da momentan verkauft ist eine auf biegen und brechen überzüchtete notlösung um den psychologisch wichtigen ersten platz zu sichern.

Gast
2010-04-21, 21:52:10
Was sollten sie sonst tun?
Warten auf die 512er ist keine Option.
Auf Takt verzichten ist Unfug, den die MGPU Dinger sind auch nicht sparsam und denen will man nunmal was entgegensetzten.

Erzähl doch mal warum man auf Takt verzichten sollte. Du beziehst dich wohl einzig und allein auf die TDP.
Bekannterweise spielt die keine Rolle, siehe MGPU Konkurrenz.
Davon ab spart etwas weniger Takt nur wenig, dafür ist man Performancemäßig schlechter.

Botcruscher
2010-04-21, 21:59:39
Das die TDP bei der Abschaltung auch nur irgend eine Rolle gespielt hat könnt ihr meiner Oma erzählen. Chipausbeute, nix anderes.

Tesseract
2010-04-21, 22:07:12
Das die TDP bei der Abschaltung auch nur irgend eine Rolle gespielt hat könnt ihr meiner Oma erzählen. Chipausbeute, nix anderes.
klar machen sie das wegen der ausbeute. aber mit einem 512er chip hätte man spannung und takt sicher moderater ansetzen können und so mit weniger TDP den selben vorsprung gegenüber der 5870 erreichen können.

Gast
2010-04-21, 22:10:40
Wozu?
Erklär doch bitte endlich warum man die TDP senken sollte. Der Kühler kann es scheinbar, das einzige was der 512er Chip ändern würde, wäre der Abstand zur 5970.

Tesseract
2010-04-21, 22:12:55
Wozu?
Erklär doch bitte endlich warum man die TDP senken sollte.

1) lautstärke
2) kosten
3) lebenserwartung
4) lauffähigkeit mit mehr netzteilen, auch im zusammenhang mit SLI

Gast
2010-04-21, 22:22:13
1) lautstärke
2) kosten
3) lebenserwartung
4) lauffähigkeit mit mehr netzteilen, auch im zusammenhang mit SLI
Scheint bis auf Kosten alles Nebensächlich.
Kosten an sich werden mit dem höheren Preis wieder locker reinkommen.
Der Rest ist halt schnick schnack, sag mal was juckt das die BWL Abteilung? Das Marketing mag sich etwas ärgern, aber nur etwas den am Ende zählt A) der Balken und B) der Gesamteindruck. B) kann man nicht besser machen mit einer niedriegen Leistung und immer noch hohen TDP.
Den hier wird gerne übersehen, das die TDP nicht bedeutend gesenkt werden würde, nur weil man die Leistung drastisch senkt.

Tesseract
2010-04-21, 22:42:18
Scheint bis auf Kosten alles Nebensächlich.

das sind alles punkte, die direkt auf die bewertungen der reviewer und kaufentscheidungen vieler kunden einfluss haben. ka was daran "nebensächlich" sein soll. sobald die karten in größeren mengen verfügbar sind wollen sie die wohl auch verkaufen.

und wenn dann eine 5870 plötzlich so viel kostet wie eine 470, aber meist schneller und immer leiser ist wird es schon schwer argumente zu finden die das wieder aufwiegen.

Den hier wird gerne übersehen, das die TDP nicht bedeutend gesenkt werden würde, nur weil man die Leistung drastisch senkt.
bei verlustleistung geht es vor allem um spannung. ein paar % mehr befeuerte transistoren eines 512er chips würden da kaum ins gewicht fallen. das was wirklich frisst sind wohl die letzten paar % leistung, die man über hohe spannungen rauskitzeln musste.

Gast
2010-04-21, 22:48:55
klar ist er eine notlösung. sonst wäre wohl kaum jeder einzelne chip teildeaktiviert und die TDP am limit der spezifikation.
fermi hätte locker ein zweiter G80 werden können wenn die fertigung so funktioniert hätte wie geplant. die architektur selbst scheint wirklich gut geworden zu sein.
aber das was nvidia da momentan verkauft ist eine auf biegen und brechen überzüchtete notlösung um den psychologisch wichtigen ersten platz zu sichern.

Was für eine Rolle spielt es, ob es eine Notlösung ist oder nicht, solange diese die Konkurrenz deklassiert? ;) Da müssen wir uns nun wohl noch mehr Sorgen um Ati machen als bisher.

Tesseract
2010-04-21, 23:14:27
Was für eine Rolle spielt es, ob es eine Notlösung ist oder nicht, solange diese die Konkurrenz deklassiert?

habe ich oben schon geschrieben. die performance erkauft man sich leider über ein paar negative eigenschaften und nur balkenlängen sind nicht alles.

Gast
2010-04-21, 23:24:54
nur balkenlängen sind nicht alles.
In Zeiten von MGPU schon.
Sag nochmal herzlichen Dank zu diesem Mist.

Allerdings auch abseits davon, es geht um Balkenlänge. Ganz klar, es geht ganz selbstverständlich um die Krone.
Was glaubst du den, was man so großartig spart, wenn man den Takt umd 5% senkt?
Du meinst, die Performance/Watt würde sich drastisch ändern, ich meine man würde sich eine minimale Besserung damit erkaufen, das man eine unbedeutende Stellung innehat, die sich zu allem Übel auch weniger teuer verkaufen lässt.

Tesseract
2010-04-21, 23:41:05
Was glaubst du den, was man so großartig spart, wenn man den Takt umd 5% senkt?

schwer zu sagen ohne genau zu wissen wie sich der chip dann bzgl. spannung verhält. könnte fast nix bringen, könnte aber auch -30% oder mehr sein.

außerdem habe ich nie gesagt nvidia soll bei den aktuellen karten die taktung/spannung zurücknehmen sondern nvidia wäre mit einem 512er chip (und z.B. einem 480er in der kleineren karte) in kombination mit moderaterem takt und spannung auf eine bessere performance/watt gekommen wenn TSMC mitgespielt hätte.

Gast
2010-04-21, 23:43:32
und wenn dann eine 5870 plötzlich so viel kostet wie eine 470, aber meist schneller und immer leiser ist wird es schon schwer argumente zu finden die das wieder aufwiegen.

Wenn man sich das Gesammtpaket mal genauer ansieht, so liegt die GTX470 aber auch hier vorne. Erstmal ist die HD5870 oftmals 50€ teurer und hat weniger Speicher (außer man kauft die 2GB Version, aber die liegt ja in einer ganz anderen Preisregion). Laut 3D Center liegt die HD5870 zwar 5% vor der GTX470, aber dies nach über 6 Monaten Entwicklungszeit für einen optimalen Performancetreiber.
Man braucht keine Glaskugel um zu wissen, dass die GTX470 mindestens 10% vor der HD5870 liegen wird, sobald NV mit einem Performancetreiber nach zieht. Die etwas höhere Lautstärke und der höhere Verbrauch der GTX470 bleibt zwar, allerdings ist nicht gesagt, dass die HD5870 im Performance/Watt Vergleich die Nase vorn behält, wenn NV die Treiber erstmal optimiert hat.


bei verlustleistung geht es vor allem um spannung. ein paar % mehr befeuerte transistoren eines 512er chips würden da kaum ins gewicht fallen. das was wirklich frisst sind wohl die letzten paar % leistung, die man über hohe spannungen rauskitzeln musste.

Wer sich in den letzten Tagen mit dem Thema GTX4xx und OC beschäftigt hat, der weis, dass die Spannungen vor allem deshalb so hoch sind, weil die Streuung der Güte der Chips sehr groß ist. Dies liegt wohl an dem noch immer miserablen 40nm Prozess von TSMC. Viele Karten kommen mit deutlich geringeren Spannungen aus, die Sache ist leider zur Zeit eine Art Glücksspiel.

Tesseract
2010-04-21, 23:54:23
Man braucht keine Glaskugel um zu wissen, dass die GTX470 mindestens 10% vor der HD5870 liegen wird, sobald NV mit einem Performancetreiber nach zieht.
sicher nicht. erstens entwickelt nvidia schon seit monaten am treiber und nicht erst seit die karten raus sind und zweitens waren die nvidia-treiber schon immer zum launch weitgehend ausoptimiert. zumindest für einen großteil aller anwendungen. (von den FX-treibern die an allen ecken und enden lustiges shaderreplacement betrieben haben mal abgesehen)

ich würde da nichtmehr all zu viel erwarten.

Iruwen
2010-04-22, 00:42:23
Und ATI entwickelt seit über einem halben Jahr und sicherlich auch schon deutlich vorher an den Treibern für die 5800er Serie und hat jetzt ja nochmal einen tollen neuen Treiber nachgelegt, dass Nvidia das auch tut ist aber natürlich undenkbar :rolleyes: Dass Nvidia die Performance nicht verbessert ist schlichtweg Blödsinn, die brauchen allerdings nicht ein halbes Jahr um die gröbsten Bugs zu fixen und dann in ein paar Benchmarktiteln bessere FPS rauszuhauen sondern optimieren ständig schrittweise die Performance so dass man nicht solche großen Schritte hat sondern sich ständig freuen darf. Hooray :cool:

urfaust
2010-04-22, 00:49:27
Man braucht keine Glaskugel um zu wissen, dass die GTX470 mindestens 10% vor der HD5870 liegen wird, sobald NV mit einem Performancetreiber nach zieht.

achja, und Ati bleibt währenddessen untätig?

so, und jetzt back to the topic,
diese Grundsatzdiskussionen sind echt nicht mehr feierlich..
Das ist wie mit einer kaputten Ehe, da gibts nix mehr zu diskutieren..

Iruwen
2010-04-22, 00:58:14
Was soll ATI denn noch machen, AF in Crysis ganz abschalten? ;D

Marodeur
2010-04-22, 09:50:13
Das aus -5% im Durchschnitt aber +10% werden halte ich auch für etwas arg optimistisch... Gleichziehen ginge schon eher...

Gast
2010-04-22, 09:55:45
Habt ihr es eigentlich auch schon mal mit älteren Treibern versucht?
Gibt es da die gleichen Cheats?

Popeljoe
2010-04-22, 09:58:42
Leute: der nächste OT Beitrag geht mit Musik in eine Auszeit!

Ailuros
2010-04-22, 11:20:00
klar machen sie das wegen der ausbeute. aber mit einem 512er chip hätte man spannung und takt sicher moderater ansetzen können und so mit weniger TDP den selben vorsprung gegenüber der 5870 erreichen können.

Nach Geruechten soll das 16SM darin liegen dass nur ein einziger chip pro wafer mit vollen 16SMs moeglich ist. Ich sitz zwar nicht im TSMC Fab12 um zu wissen ob es stimmt, aber mal angenommen es stimmt tatsaechlich, waeren 16SM so verdammt selten gewesen dass es nicht mehr schoen gewesen waere. Egal ob jetzt jemand glaubt ob NV pro wafer 20, 30 oder 50 chips bekommt, lediglich 1 chip aus jeglicher dieser Anzahlen ist laecherlich klein.

Daher wundert es mich auch nicht dass sie zur 15SM Zwischenloesung gegriffen haben und nach Geruechten soll das Verhaeltnis der erhaeltlichen chips zwischen 14SM und 15 SM Varianten bei ca. 2:1 liegen. Sind es also im allerbesten Fall momentan <50 chips/wafer sind es um das Beispiel zu illustrieren hypothetische 16 480-er und 32 470-er chips pro wafer. Je kleiner der eigentliche yield desto kleiner die vorige Anzahl pro bin, aber das 2:1 Verhaeltnis sollte schon existieren. Im Vergleich zu diesem best case scenario hast Du dann 16x Mal mehr top-SKU chips als im sturen 16SM Fall.

Was genau willst Du dann in dem Fall an einem 16SM chip an Spannung bzw. Takt noch drehen? Ich nenne es weiterhin ein "SM-Problem" und ich bezweifle auch nicht dass sie fuer einen re-spin gehen werden, denn sonst laesst sich so ein ernsthaftes Design-Problem auch nicht loesen. IMO ist dieses hw-Problem auch der eigentliche Grund hinter der sich der zu hohen Stromverbrauch versteckt.

sicher nicht. erstens entwickelt nvidia schon seit monaten am treiber und nicht erst seit die karten raus sind und zweitens waren die nvidia-treiber schon immer zum launch weitgehend ausoptimiert. zumindest für einen großteil aller anwendungen. (von den FX-treibern die an allen ecken und enden lustiges shaderreplacement betrieben haben mal abgesehen)

ich würde da nichtmehr all zu viel erwarten.

Nochmal Treiber-entwicklung legt bei IHVs erst mit voller Pulle los wenn Massen-produktion anfaengt (irgendwo innerhalb Februar fuer GF100, da der juengste GF100 die den ich sehen konnte ein 1004A3 Stempel hat, ergo vierte Woche 2010, A3 metal spin). Natuerlich wird davor an Treibern herumgefuchtelt aber in begrenzterem Ausmass.

Wie dem auch sei; hoechste Prioritaet bei allen launch Treibern ist hoechstmoegliche Stabilitaet und Leistungs-Optimierungen kommen logischerweise spaeter. Ob der kommende 256xx Forceware ein solcher ist kann ich nicht wissen dass sie noch einiges in ihren Treibern fuer GF100 richten muessen. Irgendwo Anfang des Monats wurde ein neues BIOS an vendors verschickt der den multi-monitor Stromverbrauch etwas zurechtbiegen soll als Beispiel. Ob sie wirklich Zeit hatten fuer Leistungs-Optimierungen keine Ahnung. Eventuell kommen diese schon noch ob jetzt oder spaeter. Hilft aber trotzdem nicht viel da der Stromverbrauch bzw. Lautstaerke auf einer 480 wohl nicht besser werden wird und der erste Eindruck so oder so versaut ist.

Iruwen
2010-04-22, 11:39:41
Was kostet eigentlich ein Wafer?

Ailuros
2010-04-22, 11:45:55
Was kostet eigentlich ein Wafer?

Auf jeden Fall nicht "nur" $5000. Es gibt eine Kosten-anpassung bei maessigen yields die den Preis pro wafer ein gutes Stueck hoeher ansetzt als bei $5k (waere der Preis bei sehr hohem yield), aber IHVs bezahlen eben auch nicht etliche hunderte $ pro chip bei schlechten yields.

Iruwen
2010-04-22, 11:55:55
Das hab ich nicht ganz verstanden, ist das nicht ein Widerspruch? Wenn der Preis für den Wafer steigt steigen doch automatisch die Kosten pro Chip.

Tesseract
2010-04-22, 12:22:19
Nochmal Treiber-entwicklung legt bei IHVs erst mit voller Pulle los wenn Massen-produktion anfaengt (irgendwo innerhalb Februar fuer GF100, da der juengste GF100 die den ich sehen konnte ein 1004A3 Stempel hat, ergo vierte Woche 2010, A3 metal spin). Natuerlich wird davor an Treibern herumgefuchtelt aber in begrenzterem Ausmass.

warum sollten sie das tun? um bei den ersten, meinungsbildenden, reviews schlechter abzuschneiden als nötig?
oft gibts sogar einen eigenen reviewtreiber der auf die gängigen benchmarkszenarios optimiert ist wenn der treiber ansonsten nicht so weit ist.

und wann war das bisher jemals der fall, dass die treiber durch die bank 15% performance gut gemacht haben?

Dimon
2010-04-22, 12:27:43
Wie groß ist eig. der Chip (mm²)?

Gruß

Raff
2010-04-22, 12:29:27
und wann war das bisher jemals der fall, dass die treiber durch die bank 15% performance gut gemacht haben?

Hm, mit dem GeForce 185.63 (fast): http://www.pcgameshardware.de/aid,680537/Geforce-18563-Beta-Nvidia-Grafikkartentreiber-im-Test/Grafikkarte/Test/

MfG,
Raff

Gast
2010-04-22, 12:33:36
Hm, mit dem GeForce 185.63 (fast): http://www.pcgameshardware.de/aid,680537/Geforce-18563-Beta-Nvidia-Grafikkartentreiber-im-Test/Grafikkarte/Test/

MfG,
Raff

Was soll denn das "bis auf dynamische Objekte" bei der Qualitätsbewertung da heißen?
Hört sich für mich nach Schnönrederei an.

Tesseract
2010-04-22, 12:37:43
Hm, mit dem GeForce 185.63 (fast): http://www.pcgameshardware.de/aid,680537/Geforce-18563-Beta-Nvidia-Grafikkartentreiber-im-Test/Grafikkarte/Test/

"fast" ist gut. das sind eher 5% als 15% - wenn überhaupt.
mit steigender auflösung sogar weniger.

Raff
2010-04-22, 12:44:50
Was soll denn das "bis auf dynamische Objekte" bei der Qualitätsbewertung da heißen?
Hört sich für mich nach Schnönrederei an.

Hört sich für mich danach an, was dort steht: Dynamische Objekte (wie Äste im Wind und deren Schatten) schwanken, die restlichen Pixel nicht.

MfG,
Raff

Gast
2010-04-22, 12:47:08
Hört sich für mich danach an, was dort steht: Dynamische Objekte (wie Äste im Wind und deren Schatten) schwanken, die restlichen Pixel nicht.

MfG,
Raff

Kann sich aber auch so anhören, dass dynamische Objekte und Effekte anders aussehen.

Ailuros
2010-04-22, 14:07:49
Das hab ich nicht ganz verstanden, ist das nicht ein Widerspruch? Wenn der Preis für den Wafer steigt steigen doch automatisch die Kosten pro Chip.

Nein da es eine obere Kostengrenze gibt.

Gast
2010-04-22, 14:08:05
warum sollten sie das tun? um bei den ersten, meinungsbildenden, reviews schlechter abzuschneiden als nötig?

Ganz einfach, weil es gar nicht anders geht. Wie sollen weit über 100 Entwickler effektiv arbeiten, wenn es nur 10 Testsysteme gibt? Wie willst du damit effektiv testen, ob die eine oder andere Verbesserung im Treiber die Overall-Performance verbessert? Die sind froh wenn sie die größten Bug herausfischen.


oft gibts sogar einen eigenen reviewtreiber der auf die gängigen benchmarkszenarios optimiert ist wenn der treiber ansonsten nicht so weit ist.

Man kann vieleicht einen Reviewtreiber auf eine Anwendung optimieren, aber in den meisten Testen kamen doch 10 oder mehr Spiele zum einsatz. Geschummelt wurde in der Vergangenheit immer bei 3D-Mark und dort ist es auch möglich, da halt genau eine Streke abgelaufen wird, man kann somit dafür sorgen, dass nicht sichtbare Objekte nicht berechnet werden. Bei einem Spiel ist dies nicht möglich, da man nicht weiß wo der Spieler als nächstes lang läuft.


und wann war das bisher jemals der fall, dass die treiber durch die bank 15% performance gut gemacht haben?

Das passiert halt nicht unbedingt durch einen Treiber, aber wenn du mal die ersten mit den lezten Treibern vergleicht bei vergangen Generationen, da liegt schon ne menge Holz zwischen.

Ailuros
2010-04-22, 14:23:22
warum sollten sie das tun? um bei den ersten, meinungsbildenden, reviews schlechter abzuschneiden als nötig?
oft gibts sogar einen eigenen reviewtreiber der auf die gängigen benchmarkszenarios optimiert ist wenn der treiber ansonsten nicht so weit ist.

Weil es viel zu teuer gewesen waere X wafer in Produktion in Q3 oder sogar Q4 bei TSMC zu schicken und das gesamte Treiberteam mit zumindest 2 GPUs pro PC zu bestuecken.

und wann war das bisher jemals der fall, dass die treiber durch die bank 15% performance gut gemacht haben?

Kommt auf den Fall an und ob es z.B. irgend eine bloede Treiberblase fuer irgend ein Spiel gibt. Je nach der Groesse der eigentlichen "Blase" desto groesser der Leistungsgewinn. Solche Aenderungen kommen auch nicht ueber Nacht aber wenn Du ein Beispiel willst:

8800GTX launch 08.11.2006
ForceWare 96.94
Fear/2560*1600/4xAA = 31fps

http://www.computerbase.de/artikel/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_fear

8800GTX 02.05.2007
ForceWare 158.16
Fear/2560*1600/4xAA = 40 fps

http://www.computerbase.de/artikel/grafikkarten/2007/test_nvidia_geforce_8800_ultra/13/#abschnitt_fear

Unterschied = +29%

Tesseract
2010-04-22, 14:45:36
Weil es viel zu teuer gewesen waere X wafer in Produktion in Q3 oder sogar Q4 bei TSMC zu schicken und das gesamte Treiberteam mit zumindest 2 GPUs pro PC zu bestuecken.
als ob das bei diesen entwicklungskosten einen großen unterschied machen würde.
außerdem braucht sicher nicht jeder im treiberteam 2 GPUs um vernünftig optimieren zu können. die meisten optimierungen werden sowieso eher theoretischer natur sein. die setzen sich sicher hin und trial&errorn da performance in den code rein.

Kommt auf den Fall an
genau darum geht es mir. dass ein treiber in bestimmten situationen (gerade in extremauflösungen) und in bestimmten anwendungen auch mal 30%+ gut machen kann ist nichts ungewöhnliches. aber die rede war vom durchschnitt über alle anwendungen und das am besten noch mit den einstellungen, die ein großteil der user tatsächlich fährt.

Iruwen
2010-04-22, 14:54:32
Das hat der letzte (erste) ATI Performancetreiber ja auch nicht getan oder?

Gast
2010-04-22, 18:25:44
Unterschied = +29%


Ein Schuss ins Knie? Siehe Testsystem:

AMD Athlon 64 FX-60 (2,6 GHz, Dual-Core)

Vs.
Intel Core 2 Extreme X6800 (übertaktet auf 3,46 GHz, Dual-Core)

Gast
2010-04-22, 18:35:32
Hast du mal die Auflösung angeschaut... 2560er Auflösung! bei 4xAA, gute Nacht CPU Limit.

Undertaker
2010-04-22, 18:49:11
Das CPU-Limit liegt selbst auf dem FX-60 bei mindestens 134fps, siehe 1280x1024 Messung.

Gast
2010-04-22, 18:56:24
Ein Schuss ins Knie? Siehe Testsystem:




Ich nehm's zurück. Kam nicht umhin das mal näher zu untersuchen und bin dabei auf folgendes gestossen:

http://www.computerbase.de/artikel/grafikkarten/2006/bericht_nvidia_geforce_8800_gtx_sli/19/

Da sieht man den Unterschied zwischen dem FX60 & X6800. Hätt ja nich dran gedacht das der Conroe nur unwesentlich schneller zu Werke geht.

Mr. Lolman
2010-04-22, 19:03:05
8800GTX launch 08.11.2006
ForceWare 96.94
Fear/2560*1600/4xAA = 31fps

http://www.computerbase.de/artikel/grafikkarten/2006/test_nvidia_geforce_8800_gtx/18/#abschnitt_fear

8800GTX 02.05.2007
ForceWare 158.16
Fear/2560*1600/4xAA = 40 fps

http://www.computerbase.de/artikel/grafikkarten/2007/test_nvidia_geforce_8800_ultra/13/#abschnitt_fear

Unterschied = +29%

Und die X1950XTX verliert fast im gleichen Maße. Ich glaub eher, dass die da was mit ihren Ergebnissen verbockt haben.

Gast
2010-04-22, 19:48:56
Auf jeden Fall nicht "nur" $5000. Es gibt eine Kosten-anpassung bei maessigen yields die den Preis pro wafer ein gutes Stueck hoeher ansetzt als bei $5k (waere der Preis bei sehr hohem yield), aber IHVs bezahlen eben auch nicht etliche hunderte $ pro chip bei schlechten yields.

Im Prinzip sind die Kosten eines Wafers gar nicht so hoch. Das was die Kosten verursacht sind ist das "hochrampen" einer/s neuen Technologie/Prozesses. Einen Wafer zu produzieren ist dann gar nicht so teuer. Je nach Schicht/Prozess ~5-50 € Cent (HK!). Für abgeschriebene Anlagen und mit guten Yield (85+) laufende Prozesse.
Eine durschnittliche CPU hat ~ 300 Schichten bei ~ 500 Mio. Transistoren. Eine GPU wie z. B. Fermi hat ~ drei Mrd., also gut das sechsfache mehr. Daraus folgen dann ca. 2000 Schichten für eine GPU (grob!). Das sind knapp 1000 € (0,5 € Cent!), wenn der Prozess läuft. Nehmen wir jetzt an der Prozess läuft mies und TSCM kann nicht den "Normalpreis" nicht halten, sind wir vielleicht allerhöchstens bei ~ 2000-2500 € pro Wafer.
Das was dann funktionierend herausgeschnitten werden kann steht dann auf einem anderen Blatt.

y33H@
2010-04-22, 23:08:55
Bericht: Nvidia GeForce GTX 400 (http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/#abschnitt_einleitung)

Unter DX11, gerade mit 4x MSAA/16:1 AF und Tessellation, ist die GTX480 weitaus schneller als die HD5870: In AvP etwa fast doppelt so flott, Stalker CoP rund 40% vorne und Metro 2033 vernichtend. Dummerweise teils im nur bedingt spielbaren Bereich.

Gast
2010-04-22, 23:20:27
Bericht: Nvidia GeForce GTX 400 (http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/#abschnitt_einleitung)

Unter DX11, gerade mit 4x MSAA/16:1 AF und Tessellation, ist die GTX480 weitaus schneller als die HD5870: In AvP etwa fast doppelt so flott, Stalker CoP rund 40% vorne und Metro 2033 vernichtend. Dummerweise teils im nur bedingt spielbaren Bereich.

Kann es sein das gerade da der Radeon der Speicher ausgeht? Genauso wie in Metro? 1920x1080 sind mit AA kein Pappenstiel und die beiden Games sind ja bekannt für ihren Speicherhunger.

y33H@
2010-04-22, 23:22:44
In Metro 2033 definitiv, das läuft mit einer 2G-HD5870 in 1920 @ DX11 maxed out locker 5x mal so flott. AvP liegt der Radeon mit 4x MSAA einfach nicht wie es scheint.

Iruwen
2010-04-22, 23:25:49
http://www.pcgameshardware.de/aid,745792/DirectX-11-Techdemo-Stone-Giant-Benchmarks-GTX-400-gegen-Radeon-HD-5000/Grafikkarte/Test/

dildo4u
2010-04-22, 23:27:27
Bericht: Nvidia GeForce GTX 400 (http://www.computerbase.de/artikel/grafikkarten/2010/bericht_nvidia_geforce_gtx_400/#abschnitt_einleitung)

Unter DX11, gerade mit 4x MSAA/16:1 AF und Tessellation, ist die GTX480 weitaus schneller als die HD5870: In AvP etwa fast doppelt so flott, Stalker CoP rund 40% vorne und Metro 2033 vernichtend. Dummerweise teils im nur bedingt spielbaren Bereich.
Stalker gar kein Verlust durch Tessaltion mit der GF100.(4XMSAA)

y33H@
2010-04-22, 23:29:51
Eventuell bremst etwas anderes so sehr, dass die Tessellation die Fps nicht nach unten reißt. Das 4x MSAA etwa?

Gast
2010-04-22, 23:31:17
interessant sind sie stromverbaruchswerte , die sind beim gamen ja wirklich im durchschitt 150 watt höher. das mal richtig heftig!
wie hätte eine 5970 wohl in den tests abgeschnitten?

dildo4u
2010-04-22, 23:33:08
Eventuell bremst etwas anderes so sehr, dass die Tessellation die Fps nicht nach unten reißt. Das 4x MSAA etwa?
Jo der ATI kostet Tesslation noch FPS auch mit 4XMSAA.Ich denke bei den Einstellungen(Hohe Auflösung+AA),wird es bei echten Games(Keine Techdemos) öfter's so sein das Tesslation nicht spürbar Leistung kostet mit dem GF100.

y33H@
2010-04-22, 23:37:11
An sich eine feine Sache: Solange die Tessellation nicht der limitierende Faktor ist, bekommt man sie "for free" =)