PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GTX 590/595 - Dual GF11x - Q1 2011


Seiten : [1] 2

AnarchX
2011-01-07, 08:59:40
Dual GF104/GF114:

http://img217.imageshack.us/img217/6885/frontxq.jpg

http://img253.imageshack.us/img253/1092/backxz.jpg

http://techreport.com/discussions.x/20206

Das Design kommt sehr bekannt vor:
http://img338.imageshack.us/img338/8527/1681511.jpg
http://www.enet.com.cn/article/2010/1119/A20101119777146.shtml

Aber wohl doch eine Entscheidung weg von GF110 zu GF104/GF114: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8490907#post8490907

tombman
2011-01-07, 09:02:26
Pornös :massa:

mapel110
2011-01-07, 09:05:31
Wow, 2x8 Pin Stromstecker ergo 375 Watt und durch die Decke der Specs. Wird dann wohl bei EVGA-Only bleiben.

Ich frag mich, ob mit dem Produkt dann noch Dual GF114 so viel Sinn macht.

AnarchX
2011-01-07, 09:06:16
Zumal es auch 2x 384-Bit sind. Mit den neuen 2GBit-Chips könnte man hier 3GiB pro GPU verbauen. ;D

Wow, 2x8 Pin Stromstecker ergo 375 Watt und durch die Decke der Specs. Wird dann wohl bei EVGA-Only bleiben.

300W Power-Limit sind vielleicht der Auslieferungszustand, wer mehr will kann dies dann erhöhen und mit 2x 8-Pin wird dieses gleich sinnvoll unterstützt. ;)

Dural
2011-01-07, 09:06:23
375Watt ;D
das wird Garantiert 512SP mit 600MHz + bedeuten

Der Kühler sieht aber nicht nach Rev. NV aus, eher was eigenes von EVGA

tombman
2011-01-07, 09:10:58
Schade, daß nur Sli möglich ist und nicht Triple-Sli mit 6 Chips :D

AnarchX
2011-01-07, 09:13:22
Schade, daß nur Sli möglich ist und nicht Triple-Sli mit 6 Chips :D

Mit AFR wäre das wohl höchstens für Benchmarks nutzbar.

Dural
2011-01-07, 09:15:45
ehm hab mir die Karte noch mal genauer angeschaut, wie sicher sollen da GF110 drauf sein?

Ich würde eher auf GF114 tippen... zudem sieht das sehr gewaltig nach 256Bit aus...

nur 4 Phasen pro GPU, das PCB ist ähnlich aber im grunde genommen komplett anders als das von der alten "590"

256Bit macht null sinn mit einem GF110, ich gehe stark von GF114 aus, vielleicht 2x GTX560...

y33H@
2011-01-07, 10:42:47
Ein asymmetrisches PCB-Design mit vorne 12 und hinten 8 Chips? Glaube ich nicht. Ich sage GF114 @ 800 MHz mit 256 Bit ;D

V2.0
2011-01-07, 10:49:01
Wichtiger wäre ob EVGA endlich anfängt anständige OWn-Design-Kühler zu bauen. Das wäre nämlich saugeil.

Spasstiger
2011-01-07, 11:09:58
2*384-Bit-SI sind das auf jeden Fall nicht, sieht eher nach 2*256-Bit aus.
Alleine von den zwei 8-Pin-Stromanschlüsse auf zwei GF110 zu schließen, finde ich komisch. Zwei GTX 560 bräuchten auch zwei 8-Pin-Stecker.
Ich vermute da eher eine doppelte GTX 560 mit 2*1 GiB VRAM.

Raff
2011-01-07, 11:29:15
Naja, zwei volle GF1x4 ließen sich auch auf 300 Watt (1x 8 + 1x 6 Pole) herunterbrechen, immerhin zieht eine GTX 460/1G im Spieleschnitt nur 120-130 Watt. Milchmädchen an die Macht. :D

MfG,
Raff

Nakai
2011-01-07, 11:37:28
Ein asymmetrisches PCB-Design mit vorne 12 und hinten 8 Chips? Glaube ich nicht. Ich sage GF114 @ 800 MHz mit 256 Bit

Naja das sind zwei völlig unterschiedliche PCBs. Eigentlich kann man da nichts von ablesen.

Wohl 2*256bit SI. Entweder eine seeehr stark kastrierte GF110 oder GF114.


mfg

LovesuckZ
2011-01-07, 11:40:55
Da die ROP-Partitionen unabhängig von den aktiven SM sind, kann sich darunter auch ein voller GF110 verbergen.

Und da das sogar schon eine Custom-Version von eVGA ist, ist man wohl schon sehr nach an einem Launch.

AnarchX
2011-01-07, 11:52:11
http://img149.imageshack.us/img149/8285/38537325.jpg

http://img253.imageshack.us/img253/1092/backxz.jpg

http://benchmarkreviews.com/images/reviews/video_cards/NVIDIA-GTX-460/NVIDIA-GeForce-GTX-460-PCB-Bottom.jpg

http://benchmarkreviews.com/images/reviews/video_cards/GeForce-GTX580/NVIDIA-GeForce-GTX580-PCB.jpg


Wohl doch GF104, worauf auch die rechteckigere Anordnung der Bauteile hinter dem Die hindeutet?

deekey777
2011-01-07, 11:59:36
Hieß es nicht, dass zwei aneinander geklatschte PCBs günstiger wären?

AnarchX
2011-01-07, 12:01:10
Bei einem 140-200W Dual-GPU-Konzept vielleicht, aber bei ~300W wird der Kühlaufwand für die Sandwich-Bauweise wohl zu hoch.

Wenn es aber wirklich nur 8 Speicherchips sind, hat man hier wohl nur 1GiB pro GPU mit den verbauten 1GBit Chips, was wohl zu wenig für ein solches Flagschiff ist.

mapel110
2011-01-07, 12:04:40
Bei Tessellation haben es doch zwei GF114 ziemlich schwer gegen GF110, oder?! Find gerade keine guten Reviews dazu.

AnarchX
2011-01-07, 12:09:56
Wenn es dann wirklich noch bei den 2x1GiB bleibt, wäre das wieder eine Lösung auf dem "Niveau" einer 9800GX2.

y33H@
2011-01-07, 12:37:31
Bei Tessellation haben es doch zwei GF114 ziemlich schwer gegen GF110, oder?! Find gerade keine guten Reviews dazu.Das schon. Aber ein GF114 ist immer noch so gut wie ein Cayman XT.
Wenn es dann wirklich noch bei den 2x1GiB bleibt, wäre das wieder eine Lösung auf dem "Niveau" einer 9800GX2.Und damit imo crap. Langer Balken und wenn's drauf ankommt, krepiert die Karte an Speichermangel :uclap:

LovesuckZ
2011-01-07, 15:03:58
Bei Tessellation haben es doch zwei GF114 ziemlich schwer gegen GF110, oder?! Find gerade keine guten Reviews dazu.

Zwei GF114 Karten haben die "selbe" Geometrieleistung wie eine GF110 Karte. Und liegen damit bei der Dreieckszahl auf Caymann Niveau und sind mit Tessellation bis zu 3x so schnell.

AnarchX
2011-01-07, 16:45:50
Although we couldn't tease too many details from the reps on hand, we know it'll be based on two GF104 chips, carry 2GB of memory, support three-screen surround gaming out of the box, all the while costing less than a GTX 580.
http://www.hexus.net/content/item.php?item=28325

Wohl möglich eine reine Custom Lösung?

Dural
2011-01-07, 17:29:08
Wohl möglich eine reine Custom Lösung?


Das bestimmt! Das ist keine NV Referenz.

al1asx
2011-01-09, 02:42:04
Wenn ich damit nen Triple Screen betreiben kann ohne eine zweite davon zu brauchen, dann her damit. Ich hätte längst wieder ne Nvidia Karte wenn nicht zwangsweise SLI für nen Triple Screen Setup gebraucht würde...

maximus_hertus
2011-01-09, 03:42:38
Du brauchst auch da SLI, wenn auch keine zweite Karte. Leider gibts immer noch keine Enthusiasten-Karte, die alle wichtigen Features unterstützt :/

davidzo
2011-01-09, 15:36:06
http://www.fudzilla.com/graphics/item/21486-geforce-gtx-595-has-two-gf110s


The card has a dual-slot cooler with three fans on it, at least the one from EVGA does and we can expect that the card will end up quite fast.

Judging by the two 2x4 PCIe connectors the total power available to the card is 225W and we can only hope that consumption won't be too bad.

rofl, 225Watt. was sind denn bitte 4x PCIe Connectors? WTF?
Der gute Fuad war wohl gerade zu besoffen um zu merken dass das sogar weniger während als 1x GF110.

Bucklew
2011-01-09, 15:44:48
rofl, 225Watt. was sind denn bitte 4x PCIe Connectors? WTF?
Der gute Fuad war wohl gerade zu besoffen um zu merken dass das sogar weniger während als 1x GF110.
Er meint wohl 2x8 Pin (je 4 Doppelreihen Pins).

Iruwen
2011-01-09, 21:33:17
Da steht ja auch "two 2x4".

AnarchX
2011-01-26, 13:42:40
Wenn man sich die SLI-Ergebnisse der GTX 560 anschaut, müsste eine GF114-basierende Dual-GPU-Karte wohl mindestens 900MHz GPU-Takt und 2GiB VRAM je GPU mitbringen, um sich halbwegs attraktiv zu positionieren:
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_560_Ti_SLI/
http://www.guru3d.com/article/geforce-gtx-560-ti-sli-review/

Hugo78
2011-01-26, 16:37:45
Ja, Fudzilla wird da schon richtig liegen mit ihrer 2*GF110 Meldung.

dildo4u
2011-01-26, 16:42:25
34% mit 820(Rating - 1920x1200 4xAA/16xAF) mit 900 40%?Viel mehr hätte ich auch nicht erwartet.

http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/23/#abschnitt_performancerating_mit_aaaf

Ailuros
2011-01-27, 07:58:08
34% mit 820(Rating - 1920x1200 4xAA/16xAF) mit 900 40%?Viel mehr hätte ich auch nicht erwartet.

http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/23/#abschnitt_performancerating_mit_aaaf

Da es hier wohl im Thread um etwas total anderes geht ist es eher interessant in dem Link dass 560Ti@SLi um 54% vor der 6970 liegt in 1920/4xAA und in 2560/4xAA um 29%. Nur eben Pech dass in 2560/8xAA dem 560/SLi Gespann der Speicher schlapp macht.

Knuddelbearli
2011-01-27, 08:40:15
na mal gucken wieviel sie verbrauchen wird wenns 2*8 Pin ist dann eh gute nacht der Wahnsinn geht in die nächste Runde ...

Ailuros
2011-01-27, 08:46:13
na mal gucken wieviel sie verbrauchen wird wenns 2*8 Pin ist dann eh gute nacht der Wahnsinn geht in die nächste Runde ...

Jeglicher GT200 chip auf GTX295 hat einen 171W TDP (wenn man diesen auf einem PCB als GPU verbauen wuerde) und dennoch liegt die GPU insgesamt bei 289W TDP. Das Problem beim hypothetischen 2*GF114 Gespann ist dann eher dass womoeglich 1GB/chip/frame in sehr hohen Aufloesungen schlapp machen koennte.

Dural
2011-01-27, 08:53:46
und wir werden immer noch keine GTX595 mit GF114 sehen...


GF110 mit rund 650MHz wird es sein.

Knuddelbearli
2011-01-27, 09:55:10
Jeglicher GT200 chip auf GTX295 hat einen 171W TDP (wenn man diesen auf einem PCB als GPU verbauen wuerde) und dennoch liegt die GPU insgesamt bei 289W TDP. Das Problem beim hypothetischen 2*GF114 Gespann ist dann eher dass womoeglich 1GB/chip/frame in sehr hohen Aufloesungen schlapp machen koennte.

nicht wenn hier die Leute mit OC spekulieren und 1GB wäre wahnsinn² ^^ in den Auflösungen in denen man Dual GPU dann gebrauchen könnte wäre es nur minimal vor einer 5970

Ailuros
2011-01-27, 10:28:42
nicht wenn hier die Leute mit OC spekulieren und 1GB wäre wahnsinn² ^^ in den Auflösungen in denen man Dual GPU dann gebrauchen könnte wäre es nur minimal vor einer 5970

Ich sagte 1GB/chip/frame, ergo fuer eine hypothetische GX2/114 dann 2GB insgesamt auf dem PCB. Selbst das reicht aber nicht aus fuer sehr hohe Aufloesungen, wenn dann wohl eher 2GB/chip/frame oder anders insgesamt 4GB onboard.

Hier hat eben ein GF110-Ableger den theoretischen Vorteil dass man mehr Speicher pro chip verbauen kann (bei 320bit 2*1.2GB, bei 384bit 2*1.5GB).

Da die GF114 schon bei 822MHz auf 170W liegt, kann ich schwer an einen hoeheren Takt auf einer hypothetischen GX2 davon denken.

Der Abstand zur 5970 spielt ja heutzutage keine Rolle mehr; wohl eher der theoretische Abstand zu einer 6990/Antilles. Nach CB's durchschnittlichen Prozenten koennte das 560Ti/SLi Gespann durchaus irgendwo auf Gleichstand mit 6990 liegen bis zu 2560/4xAA. Bei 8xAA geht der Speicher aus.

Eben genau aus dem Grund koennte das ganze Projekt einer 40G/GX2 von Grund auf fraglich sein, egal ob jetzt 2*114@822MHz oder 2*110@650MHz.

Dural
2011-01-27, 10:35:43
wie so wird eigentlich immer wieder behauptet dass mGPU erst in höherer Auflösung rentabel ist?!?

Eigentlich ist es gerade da absoluter Blödsinn, da man mit sGPU und viel Speicher ziemlich oft das viel bessere und flüssiger wahrgenommene Spiel Erlebnis bekommt.

Für mich Zahlt sich SLI/CF erst aus wenn ich damit 60FPS+ erhalte, alles darunter ist mit sGPU ganz klar und deutlich besser!

Ich hatte schon 3-Way SLI und alles unter 50FPS war schrecklich, aber die Menschen werden das wohl nie verstehen und bereifen und einfach nach dem Motto handeln "mehr muss ja besser sein"

Und bei solchen sachen sieht man einfach mal wieder schön das die Menschen nicht das beste haben wollen, sondern sie müssen einfach nur das Gefühl haben das sie das beste haben.... Und ganz ehrlich, zwei oder drei oder vier GPUs hören sich auch einfach besser an als nur eine ;)

Ailuros
2011-01-27, 11:42:07
wie so wird eigentlich immer wieder behauptet dass mGPU erst in höherer Auflösung rentabel ist?!?

Vielleicht u.a. aus dem einfachen Grund dass in den hoeheren Aufloesungen die CPU weniger limitiert?

Eigentlich ist es gerade da absoluter Blödsinn, da man mit sGPU und viel Speicher ziemlich oft das viel bessere und flüssiger wahrgenommene Spiel Erlebnis bekommt.

Tja sollte es wundern warum dem so ist? Siehe oben und dann kommt natuerlich noch die interframe Latenz von AFR bei sehr niedrigen frameraten dazu.

Für mich Zahlt sich SLI/CF erst aus wenn ich damit 60FPS+ erhalte, alles darunter ist mit sGPU ganz klar und deutlich besser!

Haengt auch vom benutzten Bildschirm ab. Fuer die heutigen Verhaeltnisse fuer bis zu 1080p braucht man auch nicht wirklich mehr als eine GTX580.

Ich hatte schon 3-Way SLI und alles unter 50FPS war schrecklich, aber die Menschen werden das wohl nie verstehen und bereifen und einfach nach dem Motto handeln "mehr muss ja besser sein"

3 Deppen die untereinander frames austauschen sind umstaendlicher als 2 Deppen.

Und bei solchen sachen sieht man einfach mal wieder schön das die Menschen nicht das beste haben wollen, sondern sie müssen einfach nur das Gefühl haben das sie das beste haben.... Und ganz ehrlich, zwei oder drei oder vier GPUs hören sich auch einfach besser an als nur eine ;)

IHVs leben nicht in einem abgeschachtelten Universum. Wenn NV eine schnellere GX2 als Antilles liefern kann dann ist es auch fuer NV die Rede wert. Sonst koennen sie sich den Spass auch sparen und ein enthusiast kann sich auch 2*580@SLi ins System stecken.

http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/19/#abschnitt_performancerating_mit_aaaf

Es ist leicht zu sehen dass 2*570@SLi gegen 2*6950@CF keine grandiosen Unterschiede zeigen selbst in 1080p.

mapel110
2011-01-27, 22:33:55
http://www.nordichardware.com/news/71-graphics/42216-geforce-gtx-590-in-february-with-dual-gf110.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+nhdotcom+%28www.nordichardware.com+News+%26+Articles%29
GeForce GTX 590 in February with dual GF110

Darlie
2011-01-28, 23:31:11
Was wird so eine dual Fermi kosten, unter 600,- geht da doch sicher nix ?

Duplex
2011-01-28, 23:33:59
Was wird so eine dual Fermi kosten, unter 600,- geht da doch sicher nix ?
wenn es 2 vollwertige GF110 mit 2x 1536MB sind, dann wird die Karte mind. 600 € kosten, max. 700 €

AMD wird die 6990 Dual Karte zwischen 50-100 € über der GTX580 einordnen, die GTX590 wird schneller und einiges mehr kosten, 600 € könnte hinkommen.

Nevermore4ever
2011-01-29, 20:04:30
wie so wird eigentlich immer wieder behauptet dass mGPU erst in höherer Auflösung rentabel ist?!?

Eigentlich ist es gerade da absoluter Blödsinn, da man mit sGPU und viel Speicher ziemlich oft das viel bessere und flüssiger wahrgenommene Spiel Erlebnis bekommt.

Für mich Zahlt sich SLI/CF erst aus wenn ich damit 60FPS+ erhalte, alles darunter ist mit sGPU ganz klar und deutlich besser!

Ich hatte schon 3-Way SLI und alles unter 50FPS war schrecklich, aber die Menschen werden das wohl nie verstehen und bereifen und einfach nach dem Motto handeln "mehr muss ja besser sein"

Und bei solchen sachen sieht man einfach mal wieder schön das die Menschen nicht das beste haben wollen, sondern sie müssen einfach nur das Gefühl haben das sie das beste haben.... Und ganz ehrlich, zwei oder drei oder vier GPUs hören sich auch einfach besser an als nur eine ;)

Ich möchte zum Thema SLI - und hier gerade zum Punkt AFR und Mikroruckler - wieder einmal anmerken, dass es SLI-AA gibt und selbiges es mittlerweile auch ins reguläre Treibermenü geschafft hat (wohingegen man früher nHancer brauchte); und natürlich 3D-Stereo.

Davon abgesehen verfestigen sich ja gerade die Gerüchte, das mit 2x GF110 sei jetzt gesichert. Geht das aus irgendwelchen Quellen hervor, die mehr als nur ein paar obskure Informanten zitieren?

Bislang habe ich den Spekulationen im Thread hier noch nicht entnehmen können, dass 2x GF114 bei 2x 2GiB VRAM eine unrealistische Option wären. Gibt es denn klare Argumente, aus denen sich schlussfolgern lässt, dass 2x GF110 die wesentlich wahrscheinlichere Lösung ist?

Wenn man sich die SLI-Ergebnisse der GTX 560 anschaut, müsste eine GF114-basierende Dual-GPU-Karte wohl mindestens 900MHz GPU-Takt und 2GiB VRAM je GPU mitbringen, um sich halbwegs attraktiv zu positionieren: ...

Das hier wäre nämlich beispielsweise realisierbar, oder nicht?

tombman
2011-01-30, 02:09:33
http://www.nordichardware.com/news/71-graphics/42216-geforce-gtx-590-in-february-with-dual-gf110.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+nhdotcom+%28www.nordichardware.com+News+%26+Articles%29
GeForce GTX 590 in February with dual GF110
Ich wiederhole: pornös :)

Wie schnell wären 2 davon im SLI? Ohne Taktraten nicht zu sagen :(

Darlie
2011-01-30, 12:33:56
Ich möchte zum Thema SLI - und hier gerade zum Punkt AFR und Mikroruckler - wieder einmal anmerken, dass es SLI-AA gibt und selbiges es mittlerweile auch ins reguläre Treibermenü geschafft hat (wohingegen man früher nHancer brauchte); und natürlich 3D-Stereo.



Eben, ich sehe auch SLI eher als Qualitätssteigerndes Feature. Mein Monitor hat "nur" 1920x1200 und ich spiele mit den höchsten Einstellungen im Spiel wenn es die Grafikkarte hergibt. Mit dem richtigen SLI Pärchen sollte man fast immer über 60fps kommen und so die MR nur in abgemilderter Form bemerken.

Ilendir
2011-01-30, 14:00:46
Ich möchte zum Thema SLI - und hier gerade zum Punkt AFR und Mikroruckler - wieder einmal anmerken, dass es SLI-AA gibt und selbiges es mittlerweile auch ins reguläre Treibermenü geschafft hat (wohingegen man früher nHancer brauchte); und natürlich 3D-Stereo.

Davon abgesehen verfestigen sich ja gerade die Gerüchte, das mit 2x GF110 sei jetzt gesichert. Geht das aus irgendwelchen Quellen hervor, die mehr als nur ein paar obskure Informanten zitieren?

Bislang habe ich den Spekulationen im Thread hier noch nicht entnehmen können, dass 2x GF114 bei 2x 2GiB VRAM eine unrealistische Option wären. Gibt es denn klare Argumente, aus denen sich schlussfolgern lässt, dass 2x GF110 die wesentlich wahrscheinlichere Lösung ist?



Das hier wäre nämlich beispielsweise realisierbar, oder nicht?

war die 2x GF114 option nicht die EVGA Eigenentwicklung?
http://www.geeks3d.com/20110108/ces-2011-evga-gtx-590-gemini-dual-gpu-card/

Nevermore4ever
2011-01-30, 14:27:20
war die 2x GF114 option nicht die EVGA Eigenentwicklung?
http://www.geeks3d.com/20110108/ces-2011-evga-gtx-590-gemini-dual-gpu-card/

Tja, da frage ich mich halt, was davon genau die Eigenentwicklung ist! ;)

Auch diese Meldung ist leider vom Schlage nichts-Genaues-weiß-man-nicht. Die Bezeichnung GTX 590 steht im Titel, im Text ist sie dann mit Fragezeichen versehen, und die zwei GF114 sind auch nur mutmaßlich auf die Platine gelötet.

Dural
2011-01-30, 17:36:35
die NV "GTX590" referenz karte die schon lange durchs www umhergeister hat ganz klar GF110 mit 2x 384Bit

zudem würde NV nie eine GX2 high end karte auf den markt werfen die im schlimmsten fall so schnell wie eine GTX580 in der tesselation (2x8@8xxMHz vs 1x16@783MHz) ist... das würde auch komplett nicht ins aktuelle marketing passen und gerade in diesem punkt kann NV AMD auch um welten übertrupfen...

zu guter letzt dürfte ein GF110 bei der benötigten leistung x die die GTX590 haben sollte sogar effizienter arbeiten als der GF114

GF110 benötigt für die selbe Leistung wie GF114 ca. 650MHz anstelle ca. 875MHz, aber auch in diesem verhältnis dürfte GF110 sogar noch vorteile haben!


was ich mir vorstellen könnte wäre das NV beides auf den markt bringt, retabel wäre dies aber sicher nie! eine GF114 GX2 300Watt gegen die 6990, würde für NV sicher deutlich kostensparen und hätte preislich sicher ein sehr aktraktives angebot mit der karte, dann noch eine GF110 GX2 375Watt als pures High-End...

wäre wirtschaftlich aber sicher der wahnsinn...

=Floi=
2011-01-30, 18:05:27
560er sli würde aber reichen. siehe cb review. Da rocken die zwei 560er die 580er auch ganz gut.
126TMUs und 768 SPs rocken hald mehr wie eure olle tesselation.

Knuddelbearli
2011-01-30, 20:07:15
Eben, ich sehe auch SLI eher als Qualitätssteigerndes Feature. Mein Monitor hat "nur" 1920x1200 und ich spiele mit den höchsten Einstellungen im Spiel wenn es die Grafikkarte hergibt. Mit dem richtigen SLI Pärchen sollte man fast immer über 60fps kommen und so die MR nur in abgemilderter Form bemerken.

und wo ist da dann bitte der vorteil gegenüber 40 fps wo man gar keien MR bemerkt ?

also das einfach pornöse an der karte finde ich der Verbrauch und jetzt nicht wegen umweltschutz oder weill es mehr ist als der von AMD oder what ever sondern das sie sich nicht an die spez halten

schwedenJohnny
2011-01-30, 21:39:40
NV wird hier bestimmt was geiles basteln... mal schauen ob ich meine 3 480er endlich in den ruhestand schicken soll... höhö... aber tripple sli soll ja damit nicht gehen sch**** f*** c*** damn...

immer noch besser als was ATi so bieten. Da bräuchte man ja mindestens 6x CF um mit einer GTX 595 mitzuhalten. Das machen die ATi Lüfter bestimmt lange mit...

lassen wir uns von NV überraschen =)

Knuddelbearli
2011-01-30, 21:51:19
so wenig posts und soviel schwachsinn ...

schwedenJohnny
2011-01-30, 22:53:28
bist neidisch auf mein Sys, ne? jo, wär ich auch als AMD Fanboy...

Nevermore4ever
2011-01-30, 23:02:32
... höhö... aber tripple sli soll ja damit nicht gehen sch**** f*** c*** damn...
...

Falls du die GTX 590/595 meinst, so geht damit Tripple-SLI wohl tatsächlich nicht - sondern Quad-SLI. 2 Karten, 4 GPUs. Und was den Rest angeht ... nun, ich kann Knuddelbearli verstehen.

tombman
2011-01-30, 23:34:58
Die alte Frage bleibt natürlich, ob 3x 580 nicht besser als 2x 595 wären ;)

Knuddelbearli
2011-01-30, 23:57:09
selbst gegen 2 gtx 480 wird sich die GTX 590 wohl schwer tun
und auf jedenfalll die 4te skaliert kaum mehr effektiv verlierst du bei quad sli meiner meinung nach leistung da du mehr als die 25% mehr fps die du bekommst benötigst um die MR auszugleichen

und auch wenn ich eigentlich auf Kiddys und Fanboygesocks nicht eingehen sollte tu ichs doch mal
NV wird hier bestimmt was geiles basteln... mal schauen ob ich meine 3 480er endlich in den ruhestand schicken soll... höhö... aber tripple sli soll ja damit nicht gehen sch**** f*** c*** damn...

immer noch besser als was ATi so bieten. Da bräuchte man ja mindestens 6x CF um mit einer GTX 595 mitzuhalten. Das machen die ATi Lüfter bestimmt lange mit...

lassen wir uns von NV überraschen

3 480 sind wie schon gesagt höchst warscheinlich deutlich besser als 2 GTX 590 von eienr 590 erst gar nicht zu reden

dann keien Ahnung von der karte an sich ne GTX 590 ist bereits SLI willst du eine halbe GTX 590 verbauen? die Säge dazu leihe ich dir gerne wenn du es dafür mit nem video dokumentierst ^^

falls die 590 doch nur mit 300W kommt was ich sehr hoffe dann wirds ein Kopf an Kopf rennen mit der 6990. 470 und 6970 verbrauchen beide ca gleichviel und leisten das gleiche wie man an der 6850 sieht sinkt der verbrauch aber extrem ohne allzuviel Leistung einzubüßen.

Spasstiger
2011-01-31, 01:00:40
Arg viel mehr als GTX-560-SLI-Performance würde ich bei der Dual-GF110-Karte nicht erwarten. Die GTX 580 markiert ja schon fast das thermische Limit für PCIe-2.0/3.0-Karten und zwei einzelne GTX 560 hauen in den Messungen von Computerbase in BF Bad Company 2 schon 140 Watt mehr raus als die GTX 580: http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/27/#abschnitt_leistungsaufnahme.
Ergo wird NV kräftig an der Taktschraube drehen müssen. Ich vermute unter 600 MHz GPU-Takt, wahrscheinlich gar nur 550 MHz. Man kann nur darauf spekulieren, dass z.B. Asus eine neue Mars mit zwei bis drei 8-Pin-Anschlüssen und mächtigem Vollkupferkühler für kräftigen OC-Spielraum bringt. /EDIT: Sowas wie das, nur mit zwei GF110 satt zwei GF100: http://www.pcgameshardware.de/aid,764427/Asus-Mars-II-Doppelte-Geforce-GTX-480-in-der-Mache/Grafikkarte/News/bildergalerie/?iid=1401065.

Dural
2011-01-31, 09:26:27
naja die GTX560 ist auch einfach zu stark getaktet, in diesem hohen taktbereich wird fermi schon ineffizienter, bei so einem massen Produkt wie die 560er kein wunder, optimal wäre wohl rund 750MHz für GF114.

Ailuros
2011-01-31, 09:41:09
Wir werden schon sehen ob es wirklich irgend einen GX2 Referenz-Design am Ende geben wird. Das dual core Bild das Nordichw uebrigens benutzt hat (und schon ein ziemlich alter leak ist) ist kein Referenz-Design; es war eine reine vendor Initiative.

Dural
2011-02-10, 08:56:41
es ist so ruhig um die 590 geworden :frown:

Edit:

Ups falscher Threade...

in den richtigen Thread verschoben :)

AnarchX
2011-02-16, 21:37:17
NVIDIA_DEV.1083.01 = "NVIDIA GeForce GTX 590"

http://vr-zone.com/articles/geforce-gtx-590-and-gtx-550-ti-surfaced-in-beta-drivers/11215.html

Wohl doch GF110. Die GTX 580 hat die 1080.

AnarchX
2011-02-17, 14:53:42
http://www.dinoxpc.com/public/images/01c060a2025c11396be3221a1bf62662_590.PNG

http://www.dinoxpc.com/forum/viewtopic.php?f=22&t=60675&sid=b8a5283f8ffaf7c283bd9530b2b1574b

Kann natürlich auch nur ein Fake auf Basis der Device-ID sein.

Hugo78
2011-02-17, 15:22:21
Müsste bei Shaders nicht 2*512 / 1024 stehen?

Duplex
2011-02-17, 15:44:22
512 Shader pro GPU (2x GF110) habe ich auch erwartet, zusammen mit 1024 Shader braucht man bis Q4/2011 keine neue Karte mehr bringen :D
Kepler wird dann wahrscheinlich als Single Karte 1024 1D Shader haben, das sollte durch 28nm möglich sein.

Frank1974
2011-02-18, 05:16:09
Müsste bei Shaders nicht 2*512 / 1024 stehen?

Das ist schon richtig so, siehe hier meine alte GTX295

http://www.abload.de/img/gpu-gtx29587iv.png

Wird bei der neuen Karte wohl nicht anders sein, ROPs, Bandbreite usw. wird auch immer nur eine GPU angezeigt.

Mit GPU-Z kann man ja auch zwischen den beiden GPUs hin und her schalten.

mfg
Frank

Knuddelbearli
2011-02-18, 14:44:02
512 Shader pro GPU (2x GF110) habe ich auch erwartet, zusammen mit 1024 Shader braucht man bis Q4/2011 keine neue Karte mehr bringen :D
Kepler wird dann wahrscheinlich als Single Karte 1024 1D Shader haben, das sollte durch 28nm möglich sein.


1024 wird eher schwer da Chip dann vermutlich nochmal ein gutes Stück größer wird als jetzt trotz Shrink. Genauso wenig kann ich aktuell an 1024 glauben vor allem zusammen mit den Taktraten ...
abgesehen nach wie vor das ich 375W einfach wahnsinnig halte da das von keiner Spec abgedeckt wird.

Hugo78
2011-02-18, 15:31:05
Wäre doch nichts Neues bei MGPU Karten.
373W hat schon die HD 4870 X2 erreicht.

LovesuckZ
2011-02-22, 15:11:27
Laut Twitter befindet sich Igor Stanek in Paris. Dort hat nVidia auch die Gf100 und GF110 Karten den Journalisten präsentiert. Vielleicht gibt es ja erste Test zur Cebit in 1 1/2Wochen.

Spasstiger
2011-02-22, 19:46:41
373W hat schon die HD 4870 X2 erreicht.
Aber nur in Furmark und das ist heute dank Throttling und "Power Containment" kein Problem mehr.

LovesuckZ
2011-02-22, 22:21:23
Laut Twitter befindet sich Igor Stanek in Paris. Dort hat nVidia auch die Gf100 und GF110 Karten den Journalisten präsentiert. Vielleicht gibt es ja erste Test zur Cebit in 1 1/2Wochen.

Im Anandtech.com Forum (http://forums.anandtech.com/showpost.php?p=31282907&postcount=13) schreibt jemand, dass nVidia schon Review-Karten verschickt hätte bzw. in Kürze tun werde.

Hugo78
2011-02-22, 23:30:21
Hmm, dann behaupte ich, die 550 wird am 8. oder 15. März und die 590, entsprechend eine Woche später released. ;)

LovesuckZ
2011-02-22, 23:34:19
Wenn Reviewkarten unterwegs seien, dann kommt der Launch deutlicher früher. Wie wäre es nächsten Dienstag - zur Eröffnung der Cebit?

Hugo78
2011-02-22, 23:39:16
Ach ich weiß nicht, wäre das nicht eventuell kontraproduktiv?!
Die Arbeitsbelastung der HW Redaktionen ist ja nicht unbedingt kleiner während der Cebit.

Ausserdem nicht jede Redaktion bekommt auch mit Stichtag morgen schon die Karten, oder was wenn hier mal ein Teil defekt ankommt...
Dann hat man keine Zeit mehr für einen Austausch.

Edit:
Aber eine Preview wäre schon möglich, klar.
Und Benches + Verkaufsstart dann einen Woche später.

LovesuckZ
2011-02-23, 00:14:11
Ach ich weiß nicht, wäre das nicht eventuell kontraproduktiv?!
Die Arbeitsbelastung der HW Redaktionen ist ja nicht unbedingt kleiner während der Cebit.

Ausserdem nicht jede Redaktion bekommt auch mit Stichtag morgen schon die Karten, oder was wenn hier mal ein Teil defekt ankommt...
Dann hat man keine Zeit mehr für einen Austausch.

Das ist aber bei jedem Launch so. GF110 Karten gab es auch erst +-Mittwoch vor dem Launch. Wenn man dann ein kaputtes Sample erwischt, hat man immer Probleme.

Edgecrusher86
2011-03-02, 22:02:53
CeBIT: Exklusive Details zur Geforce GTX 590

Wir konnten im Rahmen der diesjährigen CeBIT exklusive Informationen zur neuen Nvidia Dual GPU-Karte Geforce GTX 590 in Erfahrung bringen.
Wie uns aus Nvidia-nahen Quellen zugetragen wurde, wird die Karte mit 3 GiB GDDR5-VRAM veröffentlicht und auf zwei GPUs basieren, welche nicht dem GF110 im Vollausbau entsprechen. Da aufgrund des Speichervolumens von 3 GiB der Einsatz des GF114 unmöglich ist, halten wir den Einsatz eines beschnittenen GF110 für wahrscheinlich.
Aufgrund dessen ist von einem 384 Bit-Speicherinterface, 2x 48 ROPs sowie 2x 448 oder 480 Shadereinheiten auszugehen.

Über die TDP konnte man uns bisher keine Angaben machen, gerüchteweise soll die Karte allerdings eine TDP von über 300 Watt besitzen. Die GTX 590 wird aller Voraussicht nach noch im März erscheinen und soll, wie schon die GTX 295, nur in beschränkten Stückzahlen erhältlich sein.
Damit bestätigen sich die Spekulationen, die bereits Ende Januar die Runde in den Gerüchteküchen des Internets machten



http://www.hardware-infos.com/news.php?news=3864


Falls sich das bewahrheitet, bleibt zu hoffen, dass wenigstens je 480 SPs verwendet werden - spätestens bei der PAX East, Mitte März (11.03 - 13.03), werden wir es sehen. ;)

E: Die Device-ID der GTX 590 (1083.01) könnte eventuell auch auf je 480 SPs hindeuten (GTX 570 Referenz -> 1081.01, EVGA GTX 570 HD -> 1086.01).

MfG
Edge

LovesuckZ
2011-03-02, 22:06:10
Naja - hardware-infos.com.

Man sollte also auf weitere Quellen warten.

tombman
2011-03-02, 22:09:36
Ohne Vollausbau wird sie aber gegen die 6990 abstinken, oder?

Duplex
2011-03-02, 22:15:53
mit 800Mhz GPU bei 2x 480Shader wird die Dual Karte bestimmt schneller als die 6990, die GTX295 war auch 10% schneller als 4870X2 :D

LovesuckZ
2011-03-02, 22:19:12
Ohne Vollausbau wird sie aber gegen die 6990 abstinken, oder?

Wie das? Wenn es 480SP mit einem 384bit Interface sind, dann reichen die 734MHz einer GTX570 aus, um vor der 6990 zu bleiben.

Es wird sowieso die Karte gewinnen, die die bessere BQ bieten wird. Ob die eine Karte mit 4xMSAA und LQ-AF um 10% schneller oder langsamer ist, interessiert doch niemanden.

Edgecrusher86
2011-03-02, 22:24:54
Fuad will die Karte wohl hinter verschlossenen Türen in Aktion (Crysis 2 @ 3D) gesehen haben:

Cebit 2011: Dual-chip Nvidia is real

We had a chance to see Geforce GTX 590 at Cebit. It is real, it runs and it’s coming soon. It is quiet and packs enough power to run Crysis 2 in 3D at very nice frame rates.

The card has two PCIe 2x4 power connectors and it is rather hot, something that doesn’t come as a surprise. The card looks slightly different than the EVGA card we saw at CES 2011, but the EVGA card had a custom cooler that will be different than the reference one.

The launch has not been set, sources confirm, but there is a chance for a March, Q1 2011 launch. It looks like Nvidia wants to see Radeon HD 6990 performance and then decide on the final clocks and specs.

Once this card launches, it will be time for us to start sniffing about possible Q4 2011 28nm part launch dates.


http://www.fudzilla.com/graphics/item/21991-we-saw-geforce-gtx-590-in-action


Hm, die Lautstärke scheint auch okay zu sein - wohl leiser als die GTX 295 Dual-PCB. :D


E: Also mit 800MHz Core wird die 590er eher nicht kommen - maximal mit 700MHz (vielleicht auch nur 650MHz).
Die beiden Dual-GPU-Karten sollten schon eng zusammen liegen - vergleich wohl wie GTX 570 & HD 6970 (meistens).

MfG
Edge

tombman
2011-03-02, 22:25:08
Wenn ich mir das so ansehe:
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/#abschnitt_einleitung

sollte die AMD gewinnen...

Spasstiger
2011-03-02, 22:25:56
Man braucht nicht ganz zwei GTX 570, um der HD 6990 Paroli zu bieten. Die HD 6990 wird mit Bios-Switch @ default zwischen zwei HD 6950 und zwei HD 6970 liegen.

LovesuckZ
2011-03-02, 22:28:24
Wenn ich mir das so ansehe:
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/#abschnitt_einleitung

sollte die AMD gewinnen...

In 1080p liegt die GTX570 mit der 6970 kopfauf.

Duplex
2011-03-02, 22:29:34
Crossfire skalliert jetzt besser als SLI, aber die 6990 hat 50-80MHz weniger GPU Takt als CaymanXT, somit wird der Abstand kleiner :)

Spasstiger
2011-03-02, 22:35:54
Ich frage mich ja, wer das Duell bei der Leistungsaufnahme gewinnt. Prinzipiell kann der Cayman ja sparsam sein, was die HD 6950 2 GiB eindrucksvoll beweist (imo mit die effizienteste AMD-Karte). Aber wenn man ans Limit gehen möchte, wird der Cayman auf einmal zum Schlucksprecht, siehe die HD 6970 (die ineffizienteste aktuelle AMD-Karte).
Die HD 6990 legt AMD auf jeden Fall nicht konservativ aus.

Bei NV ist die Leistungsaufnahme etwas berechenbarer, es bleibt nur die Frage offen, wo NV die TDP ansetzt. 375 Watt scheinen ja auf einmal akkzeptabel zu sein, auch wenn man damit die von der PCIe-Sig festgelegten Limits überschreitet.

Duplex
2011-03-02, 22:39:48
Nvidia hat mehr Taktspielraum als AMD

davidzo
2011-03-02, 22:57:19
In 1080p liegt die GTX570 mit der 6970 kopfauf.
Du blendest mal wieder bewusst aus was du nicht sehen willst.
1080p und 4xAA sind wohl nicht die maßgeblichen Settings für eine 500€ Karte.
Leider gibt es keine weiteren tests zu SSAA, aber der fast dreißigprozentige Vorsprung von 6970CF in 2560*1536*8xAA vor dem 570CF zeigt einen eindeutigen trend auf. Da keinerlei Abrupte Abstufungen erkennbar sind ist hier noch nicht von VRAM mangel auszugehen, sondenr schlichtweg von der wohlbekannten guten Auflösungskalierung der 6970.

Wenn ich mir das so ansehe:
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/#abschnitt_einleitung

sollte die AMD gewinnen...
Es wird auf jeden Fall sehr sehr knapp. Ich vermute das etwa gleichwertige Produkte entstehen, Leistungsmäßig ist eventuell AMD vorne wegen der guten Skalierung in hohen Auflösungen, bei wualität und microrucklern hat NV die Nase vorn.
Bei 6990CF vs 590SLI wird sich AMDs performancevorteil aber wahrscheinlich derart amplifieren dass die Karten dort eindeutiger zugunsten von AMD verteilt sind.

Nvidia hat mehr Taktspielraum als AMD
lol, wie kommst du darauf? die rennen doch viel früher als AMD in die TDPwall. Genau gegenteilig hat Nvidia weniger Taktspielraum und muss sich unterhalb der 570 orientieren während AMD sich mehr an der 6970 orientieren kann. Der Vollausbau von den beiden Gf110 GPUs und das breitere SI bringt die Taktraten sicher noch ein wenig runter, bzw. den Verbrauch nach oben. Im besten Fall erreicht man GTX570SLI leistung - das reicht aber nicht in den höheren Auflösungen.

Hatten wir die schon?
http://www.hardwareluxx.de/media/jphoto/news-galerien/amd-radeon-hd-6990-praesentationsfolien-gesichtet/donanimhaber-hd6990-praesentation-06-500x280.jpg
http://www.hardwareluxx.de/media/jphoto/news-galerien/amd-radeon-hd-6990-praesentationsfolien-gesichtet/donanimhaber-hd6990-praesentation-07-500x280.jpg
http://www.hardwareluxx.de/media/jphoto/news-galerien/amd-radeon-hd-6990-praesentationsfolien-gesichtet/donanimhaber-hd6990-praesentation-08-500x280.jpg
http://www.hardwareluxx.de/media/jphoto/news-galerien/amd-radeon-hd-6990-praesentationsfolien-gesichtet/donanimhaber-hd6990-praesentation-10-500x279.jpg
http://www.hardwareluxx.de/media/jphoto/news-galerien/amd-radeon-hd-6990-praesentationsfolien-gesichtet/donanimhaber-hd6990-praesentation-13-500x284.jpg

http://www.hardwareluxx.de/index.php/fotostrecken/news-galerien/amd-radeon-hd-6990-praesentationsfolien-gesichtet/donanimhaber-hd6990-praesentation-130da71e3.html (http://www.hardwareluxx.de/index.php/fotostrecken/news-galerien/amd-radeon-hd-6990-praesentationsfolien-gesichtet/donanimhaber-hd6990-praesentation-130da71e3.html)

Edgecrusher86
2011-03-02, 23:01:32
Zumindest der OC-Spielraum sollte bei NV wohl wieder besser liegen (vor allem wohl auch beim resultierenden Leistungszuwachs mit alternativen Kühllösungen).
Mal sehen, ob sich "Extreme Overclocking Limits" beweisen kann - zumindest die 900MHz Marke wird man mit der AMD wohl knacken können.

Spasstiger
2011-03-02, 23:07:07
Der OC-Spielraum wird in diesem Segment hauptsächlich von der Stromversorgung und der Kühllösung bestimmt. AMD rüstet die HD 6990 für 450 Watt Leistungsaufnahme, was 75 Watt mehr sind als für den default-Betrieb notwendig. Ob NV im Referenzdesign auch so großzügig sein wird?

Edgecrusher86
2011-03-02, 23:14:06
Das stimmt - und AMD geht hier wirklich recht kompromisslos vor.
Mal sehen, wie es bei den Grünen aussieht - 800MHz(+) sollten aber schon zu schaffen sein
(800MHz wäre gegenüber beispielsweise 650 MHz Referenztakt +23% und ~ +21% fps). ;)

Interessant wäre es auch, wenn es den AIBs erlaubt wäre, eigene Lösungen zu präsentieren -
aber bei den Dual-GPU-Karten ging man in der Beziehung bis jetzt ja eher konservativ vor
(von NV Seite kann nur die auch aufgrund des Kühlkonzepts gefloppte Asus MARS genannt werden,
während es doch schon so einige HD 5970 2x2GB gab).

LovesuckZ
2011-03-02, 23:36:56
Du blendest mal wieder bewusst aus was du nicht sehen willst.
1080p und 4xAA sind wohl nicht die maßgeblichen Settings für eine 500€ Karte.

Richtig. Daher gewinnt das Duel auch die Karte, die mehr BQ pro € liefert.
Und 2560x kann man jeder beliebigen nVidia-Karte fahren ohne 670€+ in einen Monitor zu investieren. Aber DAS wird ja von den roten gerne ausgeblendet. :freak:

tombman
2011-03-02, 23:56:33
Richtig. Daher gewinnt das Duel auch die Karte, die mehr BQ pro € liefert.
Eigentlich gewinnt die Karte, die bessere Emotionen beim Käufer bewirkt :ulol:
Und "fps" ist eine starke Emotion in der Zielgruppe :ugly:

boxleitnerb
2011-03-03, 00:01:43
Lol, genau :freak:

Ne, Lovesuckz hat schon Recht. In diesen Leistungsregionen kann AMD einpacken. Stromverbrauch ist nicht mehr wirklich ein Argument, da gleichauf, dafür tut AMD nichts gegen Mikroruckler und die Rohleistung kann man auch nicht vernünftig in Bildqualität umsetzen. 10% mehr oder weniger bringen keine wirklichen Unterschied in der Spielbarkeit.

Ich finde diese Karten aber generell ziemlich sinnlos. Zwei einzelne Highendkarten lassen sich idR besser übertakten, bleiben kühler und leiser. Sie kosten zwar mehr (bei Wakü nochmal mehr), aber ganz ehrlich: In diesem Preisbereich ist das auch egal.

Was mich im Übrigen wundert:
Warum skaliert CF inzwischen doch besser als SLI? Das find ich ein bisschen peinlich für Nvidia, die ja eigentlich die MGPU-Vorreiter sind.

LovesuckZ
2011-03-03, 00:05:32
Was mich im Übrigen wundert:
Warum skaliert CF inzwischen doch besser als SLI? Das find ich ein bisschen peinlich für Nvidia, die ja eigentlich die MGPU-Vorreiter sind.

Bessere Profile und mehr Mikroruckler.

boxleitnerb
2011-03-03, 00:07:44
Meinst du der Puffer, den Nvidia eingebaut hat, kostet soviel Performance?
An den Profilen könnten sie ruhig mal mehr arbeiten. Wenn man einen Tausender für zwei Kärtchen hingelegt hat, will man auch alles, was geht.

tombman
2011-03-03, 00:08:57
Weil MR-bekämpfen fps kostet- das war "uns" damals schon klar ;)
Wobei die Überlegenheit von NV in dem Bereich noch bewiesen werden müßte, und zwar durch Messungen und nicht durch Mundbekenntnisse ;)

Und solche Karten können schon Sinn machen- weil sie eben nur einen pcie slot brauchen und nur 2 slot dick sind- also die Hälfte von zwei Einzelkarten. Damit könnte man geile Sachen anstellen :naughty:

boxleitnerb
2011-03-03, 00:12:05
Computerbase hat doch die Frametimes gemessen, das war recht deutlich.

Naaaaa, also 4-way SLI ist dann doch etwas hart, das lasse ich nicht gelten :biggrin:
Edit: Ok, Numbercrunching...aber dafür ist ja Tesla da und entsprechend bestückt.

Blaire
2011-03-03, 00:16:22
Was mich im Übrigen wundert:
Warum skaliert CF inzwischen doch besser als SLI? Das find ich ein bisschen peinlich für Nvidia, die ja eigentlich die MGPU-Vorreiter sind.

Weil AMD die Toptitel besser auf MultiGPU optimiert hat.
Generell aber skaliert da garnix besser, das liegt fast ausschließlich an den Profilen. Testet man 10 andere Games kann es wieder völlig anders aussehn.

boxleitnerb
2011-03-03, 00:20:26
Trotzdem frage ich mich, wieso Nvidia das nicht auch tut. Man muss ja nicht gleich den restlichen Parcour links liegen lassen, aber mitunter fehlen da schon 15-20%, die man noch rausholen könnte.

Spasstiger
2011-03-03, 00:24:24
Computerbase hat doch die Frametimes gemessen, das war recht deutlich.
Meinst du das: http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/20/#abschnitt_das_problem_mikroruckler?

Crysis Warhead und Just Cause 2 gehen klar an NV, Stalker CoP ist auf beiden Karten MR-frei, bei Metro 2033 gibts ein Unentschieden und Mafia 2 geht klar an AMD. Imo kann man daraus kein allgemeingültiges Urteil ableiten, es hängt von der Anwendung ab.

airbag
2011-03-03, 00:26:50
Bessere Profile und mehr Mikroruckler.

Sagen wir eher. Mehr Optimierungen an bestimmten Profilen bzw. für bestimmte Spiele. Kompatibilität sollte aber auf seiten von Nvidia dank den Bits liegen. Skalierung sollte standardmäßig (also ohne manuelle Fummelei mit den Bits) zudem ähnlich sein.

Blaire
2011-03-03, 00:39:26
Trotzdem frage ich mich, wieso Nvidia das nicht auch tut. Man muss ja nicht gleich den restlichen Parcour links liegen lassen, aber mitunter fehlen da schon 15-20%, die man noch rausholen könnte.

Vieleicht fehlt denen einfach die Zeit, denk dran 3DVision braucht auch eigene Profile und beides muss zusammen harmonieren. AMD hat hier garnix zu bieten und kann sich entsprechend mehr um ihre CF Profile kümmern. Nvidia hat hier aber den Hauptvorteil in Form offener Profile so daß man sich jederzeit behelfen kann, wenn ein Game nicht optimal skaliert.

boxleitnerb
2011-03-03, 07:59:26
Meinst du das: http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/20/#abschnitt_das_problem_mikroruckler?

Crysis Warhead und Just Cause 2 gehen klar an NV, Stalker CoP ist auf beiden Karten MR-frei, bei Metro 2033 gibts ein Unentschieden und Mafia 2 geht klar an AMD. Imo kann man daraus kein allgemeingültiges Urteil ableiten, es hängt von der Anwendung ab.

Wenn mein System steht, werde ich auch mal ein paar Messungen mit weiteren Spielen machen. Vielleicht findet sich ja jemand mit CF, der mitmacht. Dann können wir besser vergleichen.

LovesuckZ
2011-03-03, 13:46:57
Real or Fake?
http://www.xtremesystems.org/forums/showthread.php?t=262456&page=16
http://www.xtremesystems.org/forums/showpost.php?p=4766790&postcount=393

tombman
2011-03-03, 14:07:32
Real or Fake?
http://www.xtremesystems.org/forums/showthread.php?t=262456&page=16
Meinst du das hier:
http://www.xtremesystems.org/forums/showpost.php?p=4766790&postcount=393

LovesuckZ
2011-03-03, 14:40:18
Ja - danke.

tombman
2011-03-03, 15:32:50
Ja - danke.
Immer nach links suchen um posts herum :D

Raff
2011-03-03, 15:36:43
Hm, die Lautstärke scheint auch okay zu sein - wohl leiser als die GTX 295 Dual-PCB. :D

Messen sind arschlaut. Arschlaute Grafikkarten wirken da weniger arschlaut als sie arschlaut sind. Ich wette, dass die GTX 590 arschlaut wird. Wenn nicht, ist sie ein Unikat. Unwahrscheinlich.

MfG,
Raff

Pirx
2011-03-03, 15:49:35
Aber laute Furze stinken immerhin nicht.;)

Edgecrusher86
2011-03-03, 18:15:02
Messen sind arschlaut. Arschlaute Grafikkarten wirken da weniger arschlaut als sie arschlaut sind. Ich wette, dass die GTX 590 arschlaut wird. Wenn nicht, ist sie ein Unikat. Unwahrscheinlich.

MfG,
Raff

Da könnte natürlich etwas dran sein - hm, die Lautstärke der GTX 295 Dual-PCB wird man hoffentlich trotzdem nicht erreichen - ich wär schon zufrieden, wenn sie sich diesbezüglich etwa auf 295er Single-PCB-Level einordnen würde.

Mal sehen - Leistung wär mir aber eh wichtiger und die dürfte wohl gegeben sein (macht sich bestimmt später gut zusammen mit nem LGA 2011 System). :cool:

MfG
Edge

Dural
2011-03-04, 12:36:16
Da AMD bis zu 450Watt zulässt kann man mittlerweilen sogar von bis zu 700MHz bei der GTX590 ausgehen, wenn mir vor zwei Jahren jemand gesagt hätte das es im 2011 Grafikkarten mit bis zu 500Watt gäbe hätte ich ihn vermutlich ausgelacht... Ich hoffe das wenigsten NV der klügere ist und dieses bescheuerte Spiel nicht mehr lange mit macht! Aber auch da ist der Markt und Presse gefragt...


Aber es ist genau das was ich schon seit Monaten sage, innerhalb der 300Watt können sich diese Karten gar nicht mehr genug von den schnellsten Single Chips Versionen die um die 250Watt haben absetzen, durch das ist der Aufwand und mehr kosten für eine Dual Karte hinten und vorne nicht mehr Wirtschaftlich. Also holt man die mehr Leistung mit deutlich mehr Verbrauch raus...

tombman
2011-03-04, 12:50:08
Die können ruhig drübergehen mit den Watt, da man eh nicht mehr als 2 davon in GAMES (4x GPU = Treiber-Maximum) sinnvoll betreiben kann. Problematisch wirds, wenn da jemand 4 davon für number crunshing einsetzen will -> mehrere Netzteile werden da Pflicht.

Aber 2x 500W sind kein Problem :)

Raff
2011-03-04, 12:53:02
Dann doch lieber drei 3-GiB-Karten (9 GiB VRAM, OMFG) anstatt viermal 1,5G, tombi. ;) Sowas schreit nach Dausampling – und da werden 1,5 GiB eng.

MfG,
Raff

Ailuros
2011-03-04, 12:58:35
Aber es ist genau das was ich schon seit Monaten sage, innerhalb der 300Watt können sich diese Karten gar nicht mehr genug von den schnellsten Single Chips Versionen die um die 250Watt haben absetzen, durch das ist der Aufwand und mehr kosten für eine Dual Karte hinten und vorne nicht mehr Wirtschaftlich. Also holt man die mehr Leistung mit deutlich mehr Verbrauch raus...

Na ich hab da etwas ganz anderes in Erinnerung, aber es ist auch ziemlich nebenwichtig. Ich will hoffen dass dieser 2*8pin Quark sich doch nicht langfristig etabliert. Momentan will ich es eher als ein uebles Resultat von der 40G Begrenzung betrachten.

Dural
2011-03-04, 12:59:38
Und was hast du in erinnerung???


@tombman
Ich würde jederzeit zwei GTX580 @ 950MHz im SLI bevorzugen als ein GTX590 SLI... alles über zwei GPU ist eh spiele UNTAUGLICH

Raff
2011-03-04, 13:00:31
950 MHz sind unter Luft aber nicht realistisch (ich meine rockstable). 900 schon eher.

MfG,
Raff

Dural
2011-03-04, 13:02:24
für den Preis unterschid holt man sich noch eine WaKü ;) dann sind vielleicht sogar 1000MHz drin :)

Raff
2011-03-04, 13:08:52
Mir ist keine GTX 580 bekannt, die spieletauglich, d.h. dauerhaft stabil 1.000 MHz schafft. Das sind Kompressor-/LN2-Geschichten. 950 MHz mit Wasser? Ja, das geht, aber nur mit bösen Spannungen um 1,15 Volt.

MfG,
Raff

tombman
2011-03-04, 13:14:32
Dann doch lieber drei 3-GiB-Karten (9 GiB VRAM, OMFG) anstatt viermal 1,5G, tombi. ;) Sowas schreit nach Dausampling – und da werden 1,5 GiB eng.
Ich nutze SSAA gar nicht :eek: Ich hab mehr fps lieber :eek:
Deshalb hab ich ja einen High-PPI Monitor ;)


@tombman
Ich würde jederzeit zwei GTX580 @ 950MHz im SLI bevorzugen als ein GTX590 SLI... alles über zwei GPU ist eh spiele UNTAUGLICH
Ich nicht, denn auch 590er wird man ocen können- vorallem mit Wasser :D

Und ich hab mit 3 Gpus keine Probleme, IMO besser als 2 :D
Beispiel:
1x Gpu: 20fps
2x Gpu: 37fps
3x Gpu: 50fps

Was glaubst, spielt sich am geilsten? ;)

Raff
2011-03-04, 13:16:45
Das spielt sich alles ähnlich schwammig. Mit jeder GPU erhöht sich die Latenz. 37 Fps sind mit SLI gerade im Multiplayer IMO zu wenig, weil der/die/das Inputlag in vielen Spielen deutlich fühlbar ist.

MfG,
Raff

san.salvador
2011-03-04, 13:20:40
Na ich hab da etwas ganz anderes in Erinnerung, aber es ist auch ziemlich nebenwichtig. Ich will hoffen dass dieser 2*8pin Quark sich doch nicht langfristig etabliert. Momentan will ich es eher als ein uebles Resultat von der 40G Begrenzung betrachten.
Etablieren?
Diese Karten werden in homöopatischen Dosen hergestellt und sind reine Prestigeobjekte. Da etabliert sich gar nichts, da sollen sie sich ruhig mal austoben.
Die 1001PS eines Veyron haben sich ja auch nicht "etabliert". ;)

tombman
2011-03-04, 13:24:45
Das spielt sich alles ähnlich schwammig. Mit jeder GPU erhöht sich die Latenz. 37 Fps sind mit SLI gerade im Multiplayer IMO zu wenig, weil der/die/das Inputlag in vielen Spielen deutlich fühlbar ist.

Na, dann viel Spaß mit 20fps :ulol:

Da "mikroruckle" ich gerne mit 50fps dahin ;)

Wenns schlecht rennt (10ms Kadenzen+ LARGE), dann hättest du in meinem Beispiel:
3x GPU: 50fps = 20ms -> 60ms für 3 frames -> 10-10-40 -> 40ms = 25fps -> und die zwei 10er (=100 fps) hauen das auf gefühlte 30fps hinauf -> mission accomplished ;)
2x GPU: 37fps = 27ms -> 54ms für 2 frames -> 10-44 -> 44ms = 22.7fps -> und der eine 10er haut das ganz sicher NICHT auf gefühlte 30fps hinauf -> kleiner fail :(
1x Gpu: 20fps -> großer FAIL! :D

Ailuros
2011-03-04, 13:34:49
Etablieren?
Diese Karten werden in homöopatischen Dosen hergestellt und sind reine Prestigeobjekte. Da etabliert sich gar nichts, da sollen sie sich ruhig mal austoben.
Die 1001PS eines Veyron haben sich ja auch nicht "etabliert". ;)

Dein Wort in AMDs bzw. NVIDIAs Ohren :rolleyes:

Raff
2011-03-04, 13:39:58
Na, dann viel Spaß mit 20fps :ulol:

Da "mikroruckle" ich gerne mit 50fps dahin ;)

Wenns schlecht rennt (10ms Kadenzen+ LARGE), dann hättest du in meinem Beispiel:
3x GPU: 50fps = 20ms -> 60ms für 3 frames -> 10-10-40 -> 40ms = 25fps -> und die zwei 10er (=100 fps) hauen das auf gefühlte 30fps hinauf -> mission accomplished ;)
2x GPU: 37fps = 27ms -> 54ms für 2 frames -> 10-44 -> 44ms = 22.7fps -> und der eine 10er haut das ganz sicher NICHT auf gefühlte 30fps hinauf -> kleiner fail :(
1x Gpu: 20fps -> großer FAIL! :D

Du siehst aber sicher selbst, dass der monetäre Aufwand für etwas mehr gefühlten Bums in einem ... sagen wir "unvernünftigen" Verhältnis zum Gewinn steht, gell? :D

MfG,
Raff

tombman
2011-03-04, 13:49:05
Du siehst aber sicher selbst, dass der monetäre Aufwand für etwas mehr gefühlten Bums in einem ... sagen wir "unvernünftigen" Verhältnis zum Gewinn steht, gell? :D

Naja, das war ja für "wenns schlecht rennt" ;) Schon, wenn aus den 10ern 15er werden-> welcome to happy land :D
(50fps -> 60ms für 3 -> 15-15-30 -> 30ms = 33fps + X (aus den 2 15ern) -> da können dann schon mal gefühlte 40fps herauskommen -> Gnihihihihi :D)
Bei Mgpu muß man halt ein bischen Bluna sein, um den Willen durchzudrücken :ulol:
Im Vergleich zu 20fps mit single immer noch ein HIMMELWEITER Unterschied :)
(vorallem auch im Ansprechverhalten der Maus, der ja MR egal sind)

Und wenns um MP geht, gewinnt leider folgendes:
1x Nerdkiddie
1x 19" CRT
1x 0815 Gpu
1x 5 Stunden pro Tag gamen

:ulol:

Nakai
2011-03-04, 14:43:04
Na ich hab da etwas ganz anderes in Erinnerung, aber es ist auch ziemlich nebenwichtig. Ich will hoffen dass dieser 2*8pin Quark sich doch nicht langfristig etabliert. Momentan will ich es eher als ein uebles Resultat von der 40G Begrenzung betrachten.

Ich denke das ist bereits etabliert. Bei der GPU-Entwicklung gabs nur einen Weg, nämlich den Weg nach oben. Performance und Stromverbrauch gingen auf langer Sicht immer in die Höhe. Ausnahmen bestätigen die Regel, aber das sollte klar sein.

Selbst unter 28nm werden wir wohl kaum Besserung sehen. Die Vorteile des 28nm-Prozesses gehen eh schon für eine krasse Leistungssteigerung drauf. Dank dem langem 40nm-Verfahren haben sich die Hersteller schön auf hohem Verbrauch und Co eingestellt. Siehe die ganzen Stromsparfeatures und Regulierungsmöglichkeiten aka Powertune. Die werden in Zukunft noch ausgebaut werden.

Demzufolge wird auch die nächste Generation(also 28nm) wahrscheinlich verdammt stark rüberkommen.



mfg

Knuddelbearli
2011-03-04, 19:40:39
bei cpus gilt aber das selbe

y33H@
2011-03-04, 20:33:43
Nehalem und SB sind in weiten Teilen sparsamer als Netburst und Kentsfield.

Knuddelbearli
2011-03-04, 20:53:28
dachte da eher vor allem vor netburst der den verbrauch dann durch die decke getrieben hat

P3 top model war glaub ich 34W ? mit ausnahme eines einmaligen 38W Topmodels

oder andersrum wenn man den p4 ignoriert hat man einen gemütlichen zuwachs über die zeit erkennen

=Floi=
2011-03-04, 21:01:08
ist doch besser, wie 150watt gpus, welche keine leistungssteigerung gegenüber der vorgänger generation bieten?!

Raff
2011-03-04, 21:05:53
Ich find's auch kurios, dass die IHVs mittlerweile auf die Watt-Spezifikation des PCI-Express pfeifen, aber weiterhin (anscheinend) nur popelige Dual-Slot-Kühler für diese Wattmonster nutzen. Asus macht gerade vor, wie wunderbar leise High-End bis 250 Watt sein kann, wenn man ein Stockwerk dranpappt. Gerade im Angesicht von 300+ Watt, die mit zwei Furbys oder Kaymanen gewiss sind, würde das wahre Wunder vollbringen.

MfG,
Raff

Knuddelbearli
2011-03-04, 21:07:28
naja die asus teile sind erstmal vor allem durch das alternative kühlkonzept die die warme luft nicht nach aussen drückt soiel leiser bzw leistungstärker

Raff
2011-03-04, 21:10:43
Kühler wie der Twin Frozr II machen das genauso, da fehlt's aber an Oberfläche, um wirklich leise zu sein. Wenn ich sehe, dass die Asus 580 DCII unter Last bei weniger als 70 Grad Celsius bleibt und dabei nur leise surrt, frage ich mich, warum AMD und Nvidia auf diesem Gebiet so Spec-hörig sind. Das kann doch nicht nur der Drang sein, Multi-GPU platzsparend möglich zu machen. Wenn die Karten dabei blasen als gäb's kein Morgen mehr, hilft das niemandem.

MfG,
Raff

Palpatin
2011-03-04, 22:11:44
Ich find's auch kurios, dass die IHVs mittlerweile auf die Watt-Spezifikation des PCI-Express pfeifen, aber weiterhin (anscheinend) nur popelige Dual-Slot-Kühler für diese Wattmonster nutzen.
- Dual GPU Karten sind für kleine Systeme prädestiniert die keinen Platz für CLI/CF bieten (z.B. µATX -Board incl. Raidcontroller oder Soundkarte)
- Die Meisten SLI/CF Mainboards sind auf 2 Slot Karten ausgelegt.
- Vielleicht ist es gewollt das sich die IHVs durch Kühler positiv von den Referenzkarten absetzten können.

Schrotti
2011-03-04, 22:20:59
Naja, das war ja für "wenns schlecht rennt" ;) Schon, wenn aus den 10ern 15er werden-> welcome to happy land :D
(50fps -> 60ms für 3 -> 15-15-30 -> 30ms = 33fps + X (aus den 2 15ern) -> da können dann schon mal gefühlte 40fps herauskommen -> Gnihihihihi :D)
Bei Mgpu muß man halt ein bischen Bluna sein, um den Willen durchzudrücken :ulol:
Im Vergleich zu 20fps mit single immer noch ein HIMMELWEITER Unterschied :)
(vorallem auch im Ansprechverhalten der Maus, der ja MR egal sind)

Und wenns um MP geht, gewinnt leider folgendes:
1x Nerdkiddie
1x 19" CRT
1x 0815 Gpu
1x 5 Stunden pro Tag gamen

:ulol:

Du hast vergessen dass das Nerdkiddie alle Effekte abschaltet um den Gegner 100ms eher zu sehen.

CS spielten einige meiner Kumpels damals in 640x480 Low Detail weil man den Gegner einfach eher kommen sah.

=Floi=
2011-03-04, 22:36:37
zitat
- Die Meisten SLI/CF Mainboards sind auf 2 Slot Karten ausgelegt.

bei den neuen boards schwenkt man schon auf 3 slots um!

die aus karte sieht potthässlich aus und der kühler könnte auch ein wenig breiter sein. die blende hinten ist auch ein graus für die augen.

tombman
2011-03-05, 00:44:48
Ich hoffe, die boards bleiben bei 2 slot layout, denn so ist sowohl 4x Doppelstock (mit XL-ATX), als auch 2x Tripplestock möglich...

Gouvernator
2011-03-05, 01:20:20
Na, dann viel Spaß mit 20fps :ulol:

Da "mikroruckle" ich gerne mit 50fps dahin ;)

Wenns schlecht rennt (10ms Kadenzen+ LARGE), dann hättest du in meinem Beispiel:
3x GPU: 50fps = 20ms -> 60ms für 3 frames -> 10-10-40 -> 40ms = 25fps -> und die zwei 10er (=100 fps) hauen das auf gefühlte 30fps hinauf -> mission accomplished ;)
2x GPU: 37fps = 27ms -> 54ms für 2 frames -> 10-44 -> 44ms = 22.7fps -> und der eine 10er haut das ganz sicher NICHT auf gefühlte 30fps hinauf -> kleiner fail :(
1x Gpu: 20fps -> großer FAIL! :D
Du hast doch Tri SLI Tombman? Kannst du mal diesen FPS Limiter testen? Es glättet die Frames bei SLI das weiß ich genau. Jetzt würde ich gerne wissen ob nur SLI oder auch Tri/Quad SLI. Und du bist der Mann zum testen. :biggrin:
Der Vorteil würde darin liegen wenn du einen 100% funktionierenden FPS Limiter hast dann kannst du praktisch deine min. FPS als reguläre FPS ohne Mikroruckler nehmen. Ich spiele damit schon zwei Stunden lang Bulletstorm @5120x2880 samt 2xSGSSAA mit 30FPS Limit. Ohne Mikroruckler ist es ganz erträglich, man kann besser zielen... Wäre jetzt das Tool in der Lage Tri SLI zu glätten dann hätte ich ja praktisch gar keine Framedrops unter 30 FPS somit wäre ALLES spielbar.

http://nthusim.com/download/15
Das tool hat 10min frei, dann neustarten usw. immer 10min am Stück funktionsfähig.

tombman
2011-03-05, 11:32:37
Du hast 289$ gezahlt? :ulol:

Gouvernator
2011-03-05, 11:47:25
Du hast 289$ gezahlt? :ulol:
Noch nicht. Ich starte das Spiel samt Tool immer neu nach 10min. :freak: Dank SSD geht das recht flott.
Der Vorteil bei dem Tool du kannst alles was dir nicht gefällt bzw. irgendwelche Bugs gleich dem Support melden und die fixen das in der nächsten Version. Also man hat gewisses Gegenwert... ist nicht so das man hier ewig betteln muss damit einer sich dem Problem widmet wie bei den üblichen kostenlosen Kandidaten. Das Tool ist eine Spieler Abwandlung einer viel teueren so um die 3k€ Software so das man eine seriöse Firma vor sich hat.

Screemer
2011-03-05, 12:26:48
das beste an dem tool ist aber ja eigentlich die multi-display technik. ich war grad im wsgf und mir wären fast die glotzer aus dem kopf gefallen: http://www.widescreengamingforum.com/forum/viewtopic.php?f=78&t=16794&start=120. sowas will ich auch haben. bin sehr gespannt ob er sich wirklich nen dome baut.

tombman
2011-03-05, 12:42:43
Noch nicht. Ich starte das Spiel samt Tool immer neu nach 10min. :freak: Dank SSD geht das recht flott.
Der Vorteil bei dem Tool du kannst alles was dir nicht gefällt bzw. irgendwelche Bugs gleich dem Support melden und die fixen das in der nächsten Version. Also man hat gewisses Gegenwert... ist nicht so das man hier ewig betteln muss damit einer sich dem Problem widmet wie bei den üblichen kostenlosen Kandidaten. Das Tool ist eine Spieler Abwandlung einer viel teueren so um die 3k€ Software so das man eine seriöse Firma vor sich hat.
Ich schau es mir vielleicht diese WE mal an :)
Und das Teil kann die FPS auf einen fixen Wert locken, auch in DX11?
das beste an dem tool ist aber ja eigentlich die multi-display technik. ich war grad im wsgf und mir wären fast die glotzer aus dem kopf gefallen: http://www.widescreengamingforum.com/forum/viewtopic.php?f=78&t=16794&start=120. sowas will ich auch haben. bin sehr gespannt ob er sich wirklich nen dome baut.
Naja, 2D ist leider out, auch wenns um einen herum ist. Heutzutage ist 3D angesagt ;)

Gouvernator
2011-03-05, 12:55:48
Ich schau es mir vielleicht diese WE mal an :)
Und das Teil kann die FPS auf einen fixen Wert locken, auch in DX11?

Naja, 2D ist leider out, auch wenns um einen herum ist. Heutzutage ist 3D angesagt ;)
Grundsätzlich schon.
DirectX 11 support, for those fancy new games
Ja mach das. Wenn das mit Tri SLI funktioniert dann kaufe ich mir so ein Programm. Denn SLI ist bei mir meist unter schwerem Einsatz und niederen FPS Bereich mit Mikroruckeln, deswegen muss einer Multi GPU Karte ein anti-mikroruckel-tool beiliegen. :biggrin:

tombman
2011-03-05, 13:01:48
Das Problem beim fps locken ist der böse laaaag. Am TV kannst du zb 24Hz per Vsync locken-> aber das willst du nicht sehen, das ist zääääh- auch wenn es komplett MR-frei ist.
Mit 30fps wäre es vermutlich ein bischen besser, aber lustig stell ich mir das auch ned vor...
Gegen MR sollten hohe fps immer noch King sein :)

Gouvernator
2011-03-05, 13:23:07
30 gelockte FPS mit 60Hz Vsync am Monitor ist absolut spielbar. Was suckt sind 30FPS auf 30Hz Vsync... aber das wird widerum durch bombastische BQ in promo Sreenshot Qualität mehr als ausgeglichen. Und so ein nettes Mickroruckel Tool verwandelt diese 30Hz erst von "ungenießbar" in "man kann es runterwürgen". Wenn später GBs Vram verbaut werden, könntest du SGSSAA ohne Ende mit Downsampling fahren, das würde wie SGI Cartoon aussehen und mit 30FPS spielbar bleiben.

tombman
2011-03-05, 13:27:30
Drückt man da einfach nur ein Knöpfchen im tool, und jedes DX game lockt auf die eingestellten fps?

Gouvernator
2011-03-05, 13:36:04
Drückt man da einfach nur ein Knöpfchen im tool, und jedes DX game lockt auf die eingestellten fps?
Du schreibst die gewünschte FPS in die Spalte und kannst das Spiel starten. Mit alt+tab kannst du jeder Zeit die FPS korrigieren im Tool, es gibt noch kein Hotkey für FPS verstellen on the fly. Ist wirklich ganz einfach.

boxleitnerb
2011-03-05, 14:49:11
Ich hab mir mal die Standardversion runtergeladen. Funktioniert irgendwie nicht. Ich stelle 50 fps ein, hab aber immer noch 60 (VSync). Viel falsch machen kann man ja nicht. In der Testversion kann man auch kein Anwendungsprofil oder so anlegen, einfach nur den Wert eintragen und fertig.

Edit:
Das Tool macht bei mir irgendwie gar nix. Ich hab da mit der Bildschirmkonfiguration rumgespielt, die Kanten in der Gegend rumgezogen, aber es passiert nichts. Geht das nur mit Projektoren?

Gouvernator
2011-03-05, 15:01:39
Ich hab mir mal die Standardversion runtergeladen. Funktioniert irgendwie nicht. Ich stelle 50 fps ein, hab aber immer noch 60 (VSync). Viel falsch machen kann man ja nicht. In der Testversion kann man auch kein Anwendungsprofil oder so anlegen, einfach nur den Wert eintragen und fertig.

Edit:
Das Tool macht bei mir irgendwie gar nix. Ich hab da mit der Bildschirmkonfiguration rumgespielt, die Kanten in der Gegend rumgezogen, aber es passiert nichts. Geht das nur mit Projektoren?
Was für Spiel hast du denn gestartet? Ich hatte bei Clear Sky das gleiche aber sonst funktioniert es überall. Hast du auch die nötigen DX Runtimes usw.?

boxleitnerb
2011-03-05, 15:07:33
Fear 1. Ist vielleicht zu alt.
Welche Runtimes? Ich hab ganz normal DX11 installiert, halt mit Windows 7. Muss ich noch was machen?
Sollte nicht auch der Desktop diese Verzerrung erfahren oder geht das nur in 3D-Anwendungen?

UT2004 geht...HAMMER! Total schräg, so schräg zu spielen :D
Der Limiter funzt 1A. Wenn mich Mikroruckler dann wirklich stören, überleg ich mir echt, das Tool zu kaufen. Beißt sich das irgendwie mit TB? Bzw. Triple Buffering ist ja dann unnötig, wenn man permanent mit z.B. 40 fps spielt. VSync braucht man aber noch, oder?

Btw thx :)

Gouvernator
2011-03-05, 15:15:50
Fear 1. Ist vielleicht zu alt.
Welche Runtimes? Ich hab ganz normal DX11 installiert, halt mit Windows 7. Muss ich noch was machen?
Sollte nicht auch der Desktop diese Verzerrung erfahren oder geht das nur in 3D-Anwendungen?
Nur 3D. Die ganzen Runtimes die der Downsampling Tool braucht, brauchst du wahrscheinlich auch hier bei diesem Tool. Es ist schon zu lange her als ich es installiert habe...
I can't find D3D9X_42.DLL, where do I download it?

This file is part of DirectX and you need to get that from Microsoft. It is actually illegal to distribute that file, so avoid websites that offer it for download. The only legitimate way to get this file is to run the DirectX installer from Microsoft. Please see the page on updating DirectX for step by step instructions.

Thunder99
2011-03-07, 13:23:18
Könnte bitte ein Mod mal die ganzen Beiträge in einem separaten Thread splitten und dann in das nV Forum verschieben? Dort dann unter nützliche Tools für nvdia Karten verlinken? Damit hätten alle mit Dual-Karten einen Vorteil und es würde net in der Versenkung verschwinden :)

Edgecrusher86
2011-03-07, 17:42:33
Sieht so aus, als kommt die GTX 590 etwa eine Woche später als vermutet (evtl. wird dann bei der PAX East nur die GTX 550 Ti vorgestellt bzw. die 590er vielleicht mal ganz grob erwähnt) - am 22.03. wohl:

http://translate.google.de/translate?hl=de&sl=sv&tl=en&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F13618-geforce-gtx-590-lanseras-den-22-mars

Naja, morgen nimmt dann wohl erstmal die HD 6990 den Thron ein (dann sollte ja die NDA fallen), zumindest für einige Tage.

MfG
Edge

Hugo78
2011-03-07, 18:45:44
Och das die 6990 morgen schon kommt, hat auch sein Gutes.
Die Leute hatten dann etwas Zeit, sich an 375-450W zugewönnen, bis zum Launch der GTX 590. :biggrin:

LovesuckZ
2011-03-07, 19:02:24
Och das die 6990 morgen schon kommt, hat auch sein Gutes.
Die Leute hatten dann etwas Zeit, sich an 375-450W zugewönnen, bis zum Launch der GTX 590. :biggrin:

Es ist doch egal. Beide Karten sind jämmerliche Versuche die schnellste Karte auf dem Markt zu haben. Die 6990 ist so dermaßen lang, dass man im schlimmsten Fall sich gleich noch ein neues Gehäuse kaufen darf. Und die Lautstärke der Kühlung soll nach dem ersten chinesichen Test (http://translate.google.de/translate?u=http%3A%2F%2Fwww.inpai.com.cn%2Fdoc%2Fhard%2F144777_25.htm&sl=zh-CN&tl=en&hl=&ie=UTF-8) deutlich sein.
Was bringen denn solche Karte für den User? Sobald solche Monster keine Vorteile mehr bieten, sind sie einfach nur überflüssig. Zwei GTX570/6950 Karten + ein Mobo, wo zwischen den PCIe-Slots mehr als ein Steckplatz frei ist, sind wesentlich sinnvoller. Irgendwann ist es dann einfach auch zuviel.

Hugo78
2011-03-07, 20:34:55
@LZ
Das ist alles richtig was du da schreibst.

Ich seh aber, über den Lastverbrauch der HD 6970 hat sich auch kein Schwein mehr beschwert,
die Leute waren schon drauf vorbereitet, dass man diese Leistung nicht umsonst bekommt.
Ebend durch die High End Fermis ein paar Monate zuvor.
Klar es wurde negativ bewertet, aber theatralische Auswüchse gabs nicht, war alles sachlich und fair.

Wäre die 6970 und 6950 in der Form, ein paar Monate früher erschienen, hätte man die 6970 in der Luft zerrissen.
Der Tenor wäre "sowenig mehr Leistung für soviel mehr Verbrauch, geht garnicht!". "AMD hat kein Herz für Eisbären.. bla bla..."
Genau das war ja der Vorwurf an die 480 im Vergleich zu 5870, ein paar Monate zuvor.

In dem Lichte und sollte die HD 6990 ihr TDP voll auskosten, zugunsten der max. FPS, kann das nur positiv für die GTX 590 sein.
Zumindest solang die 590 hier nicht nochmal zusätzlich viel mehr als eine 6990 saugt.
Die 2 Wochen mehr, könnte man ja noch mal für letzte Taktanpassungen nutzen und wer weiß wo das Wettrüsten dann endet,
bei einem Produkt, wo es nur darum geht, wer am ende den Längsten hat. ;D

Aber ja, wenn MGPU dann SLI/CF und Intel macht es bei seinem Mobo auch vorbildlich in dem sie hier gleich zwei,
statt nur einem Slot zwischen den PCIe x16 Slots lassen, für eine 2,5-3 Slot Kühlung.
http://cache-www.intel.com/cd/00/00/46/31/463138_463138.jpg

Raff
2011-03-07, 20:44:30
Nehmen wir mal an, die Teile würden immer mit 90 bis 100 Prozent skalieren (SSAA, ahoi), hätten keinen Lag und Mikroruckeln und würden leise gekühlt, wäre die Leistungsaufnahme relativ wayne. Einem ineffizient arbeitenden, unfassbar laut brüllendem Brett verzeiht man die Leistungsaufnahme nicht so leicht.

MfG,
Raff

y33H@
2011-03-07, 20:45:27
Ich seh aber, über den Lastverbrauch der HD 6970 hat sich auch kein Schwein mehr beschwert, die Leute waren schon drauf vorbereitet, dass man diese Leistung nicht umsonst bekommt.Viele dachten bis zum Schluss, AMD könne zaubern und hole die GTX 580 vom Himmel - bei geringerem Stromverbrauch. Am Ende rangelte sie mit der GTX 570. Die HD 6950 dagegen zeigt, was drin ist, wenn man das Design nicht ans Limit fährt =)

Raff
2011-03-07, 20:47:56
Du weißt ja: Kanadisches Wasser, mit dem Ex-Ati kocht, ist kälter als kalifornisches. ;)

MfG,
Raff

Edgecrusher86
2011-03-07, 21:33:13
Nochmal die Übersicht des China-Reviews zur HD 6990..die 590er sollte ja grob auf 6990 Level sein, vll. minimal darüber, aber das werden wir wohl in 2 Wochen sehen:

E: In SC2 haben sie vergessen VSynch zu deaktivieren. :freak:

MfG
Edge

Raff
2011-03-07, 21:34:35
Die Starcraft 2-Werte sind toll. Astrein am Vsync-Limit.

MfG,
Raff

Nightspider
2011-03-07, 21:36:35
Die sollen die Dinger gleich mit nem günstigen Wasserkühler ausliefern und Taktraten über den Single Chip Modellen ansiedeln und alle sind zufrieden.

Neue HighEnd Karten sind immer gut. An sinken die alten wenigsten, wenn auch nur um ein paar Euro. ^^

Edgecrusher86
2011-03-07, 21:54:23
Die Starcraft 2-Werte sind toll. Astrein am Vsync-Limit.

MfG,
Raff

Stimmt. ;)

MfG
Edge

y33H@
2011-03-07, 22:01:00
Warum fällt das niemandem auf? ;(

Knuddelbearli
2011-03-07, 22:15:17
wo siehst du da eine 590 ?!?

Knuddelbearli
2011-03-07, 22:16:31
und wie zur hölle hält das 600W netzteil das durch =D

Edgecrusher86
2011-03-07, 22:21:05
Ich seh keine 590er - sollte aber nach dem Edit ersichtlicher sein. :)

Spasstiger
2011-03-08, 17:39:08
Die Zielperformance für die GTX 590 ist ja jetzt nach der Veröffentlichung der Radeon HD 6990 klar, GTX-570-SLI-Niveau sollte es sein. Allerdings würde das in einer noch höheren Leistungsaufnahme als bei der Radeon HD 6990 resultieren, zumindest, wenn man einfach zwei GTX-570-GPUs heranzieht. Es würde mich allerdings wundern, wenn sich die 480-SP-Gerüchte bewahrheiten, ich gehe eher von 512 SPs pro GPU und dafür niedrigeren Taktraten aus. Das ist ja der Trumpf, den NV gegen AMD ausspielen kann, ein Design, das nicht am Limit laufen muss, um konkurrenzfähig zu sein.
Wenn NV die HD 6990 bei gleicher TDP erreichen will, müsste NV allerdings ihre bislang energieeffizienteste High-End-Grafikkarte vorstellen.

dildo4u
2011-03-08, 17:43:57
AMD hat mit der Default Powertune Stufe zu viel Luft gelassen,da hat NV noch Spielraum wenn die Karte an die 375W geht.In dem Bereich juckt es die Wenigsten wenn die Karte 360 statt 320W braucht.

tombman
2011-03-08, 17:49:10
Ich denke auch eher an eine 512sp Karte mit sehr wenig vcore und Takt. Würde am meisten Sinn machen. Noch einen Triple-Slot Monsterkühler drauf packen und fertig :ulol:
Extrem leet wäre ja eine wassergekühlte 590er mit geschlossenem Kreislauf inkl. Raddi + Pumpe onboard -> DIE ownage ;)

Spasstiger
2011-03-08, 17:52:37
Ich sehe gerade, dass die Gerüchteküche seit gestern ja doch von 512 SPs pro GPU und Taktraten unterhalb der GTX 570 ausgeht wie von mir vermutet (Link (http://translate.google.de/translate?hl=de&sl=sv&tl=en&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F13618-geforce-gtx-590-lanseras-den-22-mars)).
Mit Taktraten nur auf GTX-470-Niveau wird es allerdings imo in hohen Auflösungen mit AA nicht gegen die HD 6990 reichen. Andererseits sollte man damit ziemlich energieeffizient unterwegs sein, vielleicht sogar sparsamer als die HD 6990. Übertakter werden dann auch ihre Freude haben.

dildo4u
2011-03-08, 17:55:00
Ich sehe gerade, dass die Gerüchteküche seit gestern ja doch von 512 SPs pro GPU und Taktraten unterhalb der GTX 570 ausgeht wie von mir vermutet (Link (http://translate.google.de/translate?hl=de&sl=sv&tl=en&u=http%3A%2F%2Fwww.sweclockers.com%2Fnyhet%2F13618-geforce-gtx-590-lanseras-den-22-mars)).
Mit Taktraten nur auf GTX-470-Niveau wird es allerdings imo in hohen Auflösungen mit AA nicht gegen die HD 6990 reichen. Andererseits sollte man damit ziemlich energieeffizient unterwegs sein, vielleicht sogar sparsamer als die HD 6990.
Es geht auch das Gerücht rum das NV abgewartet hat und es deshalb noch kein finalen Takt gibt die passen jetzt die Performance nach Wunsch an.Bios ist ja schnell geflasht.

Spasstiger
2011-03-08, 17:58:51
Stimmt, es könnte sein, dass NV von 300 Watt bei der HD 6990 ausging, als diese Taktraten angepeilt wurden. Imo wäre NV mit 700 MHz Chiptakt und 800 MHz Speichertakt (3,2 Gbps GDDR5) gut genug gegen die Radeon HD 6990 aufgestellt, um bei "normalen" Auflösungen (im High-End sind das aktuell 1920x1080 bis 2560x1600) mit 4xMSAA nicht ins Hintertreffen zu geraten.

=Floi=
2011-03-08, 18:19:54
und wenn nv ine komplett andere strategie fahren will?!

jetzt könnte man ati richtig vorführen, wenn man die 300 watt einhällt und eher niedrig stapelt.

Nakai
2011-03-08, 18:20:02
um bei "normalen" Auflösungen (im High-End sind das aktuell 1920x1080 bis 2560x1600) mit 4xMSAA nicht ins Hintertreffen zu geraten.

Das wird schon klappen. Wenns darüber geht, spielt Cayman seine Rohleistungskarte aus.

So oder so, beide Karten sind ne Verschwendung...eigentlich wie jede Highend-Karte...

airbag
2011-03-08, 18:23:48
jetzt könnte man ati richtig vorführen, wenn man die 300 watt einhällt und eher niedrig stapelt.

Glaube ich kaum. Wenn dann müssten sie ja zwei GF114 verbauen, die dann die 300 W unter Spielelast einhalten könnten, für die sie aber auch gleichzeitig maximal soviel verlangen können, wie für eine GTX580, die dann noch weniger Leute kaufen würden.

Spasstiger
2011-03-08, 18:24:31
jetzt könnte man ati richtig vorführen, wenn man die 300 watt einhällt und eher niedrig stapelt.
Inwiefern? Mit 300 Watt wird NV die HD 6990 nicht ansatzweise schlagen können, da die HD 6990 energieeffizienter als jede NV-Karte ist. Das wäre dann ein Rohrkrepierer zwischen der GTX 580 und der HD 6990, der in kein Preisgefüge vernünftig passt - außer NV macht die GTX 580 deutlich günstiger.

LovesuckZ
2011-03-08, 18:27:39
Inwiefern? Mit 300 Watt wird NV die HD 6990 nicht ansatzweise schlagen können, da die HD 6990 energieeffizienter als jede NV-Karte ist. Das wäre dann ein Rohrkrepierer zwischen der GTX 580 und der HD 6990, der in kein Preisgefüge vernünftig passt - außer NV macht die GTX 580 deutlich günstiger.

Hallo? Die 6990 ist deswegen effizienter, weil man hierfür die besten Chips verwendet. Man sollte kein Massenprodukt wie eine GTX570 oder GTX580 mit einem Low-Market-Produkt ala 6990/GTX590 vergleichen.

Raff
2011-03-08, 18:28:14
Die GTX 580 ist ganz gewiss kein Massenprodukt.

MfG,
Raff

Spasstiger
2011-03-08, 18:29:44
Hallo? Die 6990 ist deswegen effizienter, weil man hierfür die besten Chips verwendet. Man sollte kein Massenprodukt wie eine GTX570 oder GTX580 mit einem Low-Market-Produkt ala 6990/GTX590 vergleichen.
Was hat das jetzt mit meiner Aussage zu tun, dass NV in 300 Watt TDP nicht die Performance einer HD 6990 reinbekommt?

LovesuckZ
2011-03-08, 18:31:20
Die GTX 580 ist ganz gewiss kein Massenprodukt.

MfG,
Raff

Natürlich. Selbst wenn die 6990/GTX590 für 400€ verkauft werden würden, wäre die Masse am Markt dermaßen gering im Vergleich zu Single-GPU-Karten.

Was hat das jetzt mit meiner Aussage zu tun, dass NV in 300 Watt TDP nicht die Performance einer HD 6990 reinbekommt?

Weil du eine Hochselektion von Chips mit Massenprodukten vergleichst, deren Spielraum wesentlich höher liegt. GTX295 war 295 Watt, GTX285 210 Watt.
Natürlich wird nVidia bei 300 Watt unterlegen sein, nur stimmt dies hier nicht: "da die HD 6990 energieeffizienter als jede NV-Karte ist".

Spasstiger
2011-03-08, 18:38:21
nur stimmt dies hier nicht: "da die HD 6990 energieeffizienter als jede NV-Karte ist".
Doch, das stimmt. Oder welche NV-Karte liefert deiner Meinung nach in z.B. Crysis @ 2560x1600 + 4xAA bessere fps pro Watt als die Radeon HD 6990?

Natürlich wird nVidia bei 300 Watt unterlegen sein
Damit stimmst du meiner Kernaussage doch zu. Ich habe wenigstens den Versuch einer Begründung geliefert. Du pickst du nur Satzteile raus und gibst darauf Kontra, obwohl du grundsätzlich der gleichen Meinung bist. Hauptsache kein schlechtes Haar an NV lassen.

=Floi=
2011-03-08, 18:41:48
GTX 580 +50-60% und eine leise kühlung @300 watt würde ja reichen. imho wäre das so besser.

LovesuckZ
2011-03-08, 18:43:18
Doch, das stimmt. Oder welche NV-Karte liefert deiner Meinung nach in z.B. Crysis @ 2560x1600 + 4xAA bessere fps pro Watt als die Radeon HD 6990?

Nochmal: Du vergleichst stark ausselektierte Chips mit einem Massenprodukt.
Es gibt bei nVidia für die GTX580 keine annährend so starke Selektierung. Deswegen ist dies nicht vergleichbar.
Dazu kommt, dass Crysis z.B. scheiße ist, weil AMD hier cheatet. Wie wäre es mit Battleforge? Oder Lost Planet 2? Oder Bad Company 2?

Du hast keine Ahnung, wie gut GF110 sich selektieren lässt. Deswegen sollte man einfach mal irgendwelche Vergleiche zwischen 6990 und GF110 vergessen.


Damit stimmst du meiner Kernaussage doch zu. Ich habe wenigstens den Versuch einer Begründung geliefert. Du pickst du nur Satzteile raus und gibst darauf Kontra, obwohl du grundsätzlich der gleichen Meinung bist. Hauptsache kein schlechtes Haar an NV lassen.

Nein, ich habe genau das herausgezogen, was einfach falsch ist. Ich kann mich nur wiederholen: Man sollte einfach nichts falsches schreiben. Mit 300 Watt wird nVidia natürlich nicht gewinnen, wenn AMD 350 Watt nimmt. Aber die Aussage, dass AMD die energieeffizienteste Karte hätte, ist einfach falsch, weil du einfach mal zwei unterschiedliche Produkte vergleichst.

Und ich bezog mich klar auf diesen Satz: "Mit 300 Watt wird NV die HD 6990 nicht ansatzweise schlagen können, da die HD 6990 energieeffizienter als jede NV-Karte ist"

Spasstiger
2011-03-08, 18:45:19
GTX 580 +50-60% und eine leise kühlung @300 watt würde ja reichen. imho wäre das so besser.
GTX 580 +50-60% bekommst du imo mit dem GF110 nicht in 300 Watt rein. Schon die GTX 580 benötigt in Spielen ca. 260 Watt, teilweise sogar 300 Watt.
Eine doppelte GTX 560 Ti würde man mit reduzierter Spannung in 300 Watt reinbekommen mit Selektion, aber GTX 560 Ti SLI ist nur ~30% schneller als die GTX 580.

Du hast keine Ahnung, wie gut GF110 sich selektieren lässt. Deswegen sollte man einfach mal irgendwelche Vergleiche zwischen 6990 und GF110 vergessen.
Ich lasse mir das Spekulieren nicht verbieten.

LovesuckZ
2011-03-08, 18:48:00
Ich lasse mir das Spekulieren nicht verbieten.

Das ist kein spekulieren. Du hast nunmal keine Ahnung, wie gut sich GF110 selektieren lässt. Trotzdem behauptest du etwas, dass zZ noch vollkommen im Raum steht und weder bewiesen noch widerlegt werden kann.

GTX570 und 6970 brauchen den selben Strom für gleiche Leistung. Wieso sollte es bei mGPU anders sein?

y33H@
2011-03-08, 18:49:46
Schon die GTX 580 benötigt in Spielen ca. 260 Watt, teilweise sogar 300 Watt.300W in einem Spiel? Das ist mir neu. Selbst 260W ingame sind arg hoch gegriffen.

Spasstiger
2011-03-08, 19:00:15
Crysis Warhead - 264 Watt: http://www.xbitlabs.com/articles/video/display/geforce-gtx-560-ti_4.html#sect0
Just Cause 2 - 242 Watt, HAWX - 247 Watt: http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index13.php
Battlefield BC2 - 213 Watt Differenz zur HD 5670 (50 Watt bei HT4U) => ca. 260 Watt: http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/25/#abschnitt_leistungsaufnahme
Ok, wir können uns auch auf 250 Watt im Spielebetrieb einigen.

GTX570 und 6970 brauchen den selben Strom für gleiche Leistung. Wieso sollte es bei mGPU anders sein?
Die HD 6970 ist meistens einen Tick schneller und einen Tick sparsamer. Außerdem taktet die HD 6990 niedriger als die HD 6970 und verhält sich dadurch von der Energieeffizienz her eher wie die HD 6950 - welche von NV mit keiner Karte in Sachen Energieeffizienz erreicht wird.
NV braucht GTX-570-SLI-Niveau, um der HD 6990 Paroli zu bieten. Natürlich wird NV die Energieeffizienz gegenüber der GTX 570 erhöhen, das hab ich oben ja bereits gesagt.
Aber dass NV in 300 Watt eine GTX 590 auf die Beine stellt, die in den Performanceratings vor der HD 6990 mit 375 Watt landet, kann ich mir nicht vorstellen. Und da ja auch nicht.
Ich weiß auch nicht, was du hier rumdiskutierst, obwohl wir im Grundtenor der gleichen Meinung sind.

Nakai
2011-03-08, 19:18:32
Nochmal: Du vergleichst stark ausselektierte Chips mit einem Massenprodukt.
Es gibt bei nVidia für die GTX580 keine annährend so starke Selektierung. Deswegen ist dies nicht vergleichbar.

1) HD6990 hat nen niedrigeren Takt.
2) HD6990 hat ne niedrigere Spannung.
3) HD6990 hat nen niedrigere Speichertakt.

Was denkst du passiert, wenn man das BIOS umschaltet?
Der Unterschied von HD6970 zur HD6990 beträgt aufeinmal 220W, was irgendwie nahe an den Verbrauch der HD6970 rankommt.

Natürlich wurde da ein bisschen feingetunt, aba von extremer Selektierung kann man da nicht sprechen.


mfg

Raff
2011-03-08, 20:18:10
Nochmal: Du vergleichst stark ausselektierte Chips mit einem Massenprodukt.
Es gibt bei nVidia für die GTX580 keine annährend so starke Selektierung. Deswegen ist dies nicht vergleichbar.

Nvidia kann für die GTX 580 auch nicht einfach jeden Mist vom Wafer klauben. Immerhin müssen alle Einheiten des monströsen GF110 intakt und auch der hohe Takt ... intakt sein. Es sollte klar sein, dass da eine Menge Ausschuss entsteht, der unter anderem auf der GTX 570 zum Einsatz kommt. Aber um ehrlich zu sein spekulieren wir ja beide nur. ;)

Es wird jedenfalls nicht einfach für Nvidia, die HD 6990 zu knüppeln. Die Karte geht in hohen Auflösungen bzw. mit Supersampling einfach wahnsinnig ab. Und genau dort spielt die Musik bei 600-Euro-Produkten.

MfG,
Raff

LovesuckZ
2011-03-08, 20:20:58
Nvidia kann für die GTX 580 auch nicht einfach jeden Mist vom Wafer klauben. Immerhin müssen alle Einheiten des monströsen GF110 intakt und auch der hohe Takt ... intakt sein. Es sollte klar sein, dass da eine Menge Ausschuss entsteht, der unter anderem auf der GTX 570 zum Einsatz kommt. Aber um ehrlich zu sein spekulieren wir ja beide nur. ;)

Natürlich. Nur kann man noch weiter selektieren.


Es wird jedenfalls nicht einfach für Nvidia, die HD 6990 zu knüppeln. Die Karte geht in hohen Auflösungen bzw. mit Supersampling einfach wahnsinnig ab. Und genau dort spielt die Musik bei 600-Euro-Produkten.

MfG,
Raff

Stimmt: Downsampling, SGSSAA in jeder API, bessere SGSSAA-Qualität, besseres HQ-AF. Hm, sieht ziemlich einfach aus die 6990 "zu knüppeln".

boxleitnerb
2011-03-08, 20:28:27
Wo ist das NV'sche SGSSAA qualitativ besser? Quelle?

tombman
2011-03-08, 20:28:28
Stimmt: Downsampling, SGSSAA in jeder API, bessere SGSSAA-Qualität, besseres HQ-AF. Hm, sieht ziemlich einfach aus die 6990 "zu knüppeln".
Demnach müßte auch eine 50€ NV Karte die 6990 knüppeln...
http://geizhals.at/eu/a615541.html?v=l

Fps spielen schon auch noch ne Rolle :ulol:

Ich bin auch gespannt, wie NV die 6990 noch hauen will, ohne gleiche 3 Stock hoch zu werden und ein externes Netzteil mitzuliefern ;D

LovesuckZ
2011-03-08, 20:31:26
Wo ist das NV'sche SGSSAA qualitativ besser? Quelle?

Siehe Crysis, siehe Shift. Dazu gibt es auch Videos hier im Forum.

Demnach müßte auch eine 50€ NV Karte die 6990 knüppeln...
http://geizhals.at/eu/a615541.html?v=l

Fps spielen schon auch noch ne Rolle :ulol:

Ich bin auch gespannt, wie NV die 6990 noch hauen will, ohne gleiche 3 Stock hoch zu werden und ein externes Netzteil mitzuliefern ;D

Stimmt. FPS spielen eine Rolle: Hey, ich hab hier 100 mit meiner GTX590. Wow, du Vollnoob, ich hab hier 120. ;D
FPS spielen kaum eine Rolle. Entweder kauft man sich so eine Karte um reine Benchmarks zu fahren, wo Lautstärke keine Rolle spielt, oder man will die beste BQ pro € haben. Denn wenn man auf BQ verzichten kann, dann kauft man sich auch keine solche Karte. Und wenn man solch eine Karte hat, will man erst Recht nicht auf BQ verzichten müssen.

boxleitnerb
2011-03-08, 20:35:01
Ich bin jetzt zu faul, das rauszusuchen :tongue:
Könntest du bitte in ein, zwei Worten zusammenfassen, was genau da besser war?

Raff
2011-03-08, 20:35:49
Sucky, ganz ehrlich: Ich hatte mehrere Tage eine GTX 580 @ 850 MHz (Standardspannung) im Rechner und weißt du, was ich auf meinem downsamplingverweigernden 30-Zöller vermisst habe? Die geilen Downfilter von AMD! Was bringen mir 32 Supersamples, wenn die Mistdinger mit 'nem Boxfilter zusammengepanscht werden? Das ist einfach nicht State-of-the-Art. Nvidia, bitte endlich integrieren!

Mal abgesehen davon, dass die Geforce mit Supersampling derber einbricht als die Radeon – ich vergleiche immerhin mit einer flüsterleisen HD 5870 @ mindestens 1 GHz Chiptakt. Die Fps-Unterschiede sind einfach soo gering. Klingt krass, ist aber so. Aber das hatten wir ja schon, gell. ;) Auch, dass Downsampling aufgrund des Frickel- und Kompatibilitätsaufwands einfach kein allgemeingültiges Pro-Geforce-Argument darstellt. Ein Vöglein hat mir jedoch gezwitschert, dass AMD dieses Thema ernster nimmt als wir denken. :naughty:

Wenn's in den kommenden Wochen dann doch eine 580 wird, dann gewiss eine, die mindestens 2,5 Sluts "verbraucht". Es kribbelt einfach zu arg nach über einem – zufriedenen – Radeon-Jahr.

Ich bin jetzt zu faul, das rauszusuchen :tongue:
Könntest du bitte in ein, zwei Worten zusammenfassen, was genau da besser war?

AMD lässt bei Shift die Schatten weg (keine Glättung), während bei Crysis anscheinend u. a. weit entfernte Sprites nicht geglättet werden. Und seitdem hier im Forum alle 3 Minuten ein besseres Nvidia-AA-Bit spawned, gilt das für Bastler gewiss als Argument für das bessere SGSSAA bei Nvidia. :D Im Standardzustand kann ich das nur bedingt unterschreiben.

MfG,
Raff

Duplex
2011-03-08, 20:36:31
BQ immer wenn ich diesen scheiss höre, ich habe eine GTX580 und spiele mit 4MSAA + 16AF oder 32CSAA + 16AF, alles andere interessiert mich als Kunde nicht, so denken auch viele andere, ein paar Junkies hier kommen immer mit dieser BQ Diskussionen, ATI Cheatet usw. ist doch alles wayne, Geforce & Radeon haben beide eine gute Bildqualität.

LovesuckZ
2011-03-08, 20:37:24
Ich bin jetzt zu faul, das rauszusuchen :tongue:
Könntest du bitte in ein, zwei Worten zusammenfassen, was genau da besser war?

In einigen Spielen wird bei AMD nicht vollständig SSAA angewendet. In Shift kommt es zum Flimmern aufgrund negativem LoD, wo kein SSAA angesetzt wird und in Crysis wird der Hintergrund nicht richtig geglättet.

Fakt ist, es gibt bei AMD Probleme mit SSAA. Dazu auch den Fakt, dass bei nVidia dank den AA-Bits eben nun auch einigen nVidia-seitige Probleme beseitigt werden können und sogar in einigen Spielen SSAA angewendet werden kann.


Mal abgesehen davon, dass die Geforce mit Supersampling derber einbricht als die Radeon – ich vergleiche immerhin mit einer flüsterleisen HD 5870 @ mindestens 1 GHz Chiptakt. Die Fps-Unterschiede sind einfach soo gering. Klingt krass, ist aber so. Aber das hatten wir ja schon, gell. ;) Auch, dass Downsampling aufgrund des Frickel- und Kompatibilitätsaufwands einfach kein allgemeingültiges Pro-Geforce-Argument darstellt. Ein Vöglein hat mir jedoch gezwitschert, dass AMD dieses Thema ernster nimmt als wir denken. :naughty:

Hä? Weder ist die 6990 "flüsterleise" noch gibt es bei nVidia gefrickel. Downsampling funktioniert out-of-the-box <DX1x. Selbst eine Treiberüberinstallation lässt eingestellte Auflösungen weiter bestehen.
Und nur weil du einen 30" Monitor hast: Nicht jeder will alleine für einen Monitor 650€ ausgeben. Und solange die Preisdifferenz zwischen 1080p/1200p zu 2560x bei annährend 400€ liegt, sollte man wohl anerkennen, dass man mit 30" zur Ausnahme gehört.


AMD lässt bei Shift die Schatten weg (keine Glättung), während bei Crysis anscheinend u. a. weit entfernte Sprites nicht geglättet werden. Und seitdem hier im Forum alle 3 Minuten ein besseres AA-Bit spawned, gilt das für Bastler gewiss als Argument. :D


Was einem nicht in die Argumentation passt, ignoriert man. Dann hat sogar AMD weiterhin das bessere SGSSAA. :lol:

Spasstiger
2011-03-08, 20:40:17
Bei NV matsch dafür das Bild teilweise bei Einsatz von SG-SSAA und LOD-Bias-Anpassung funktioniert nur suboptimal (nur manuell möglich, Tendenz zum Flimmern).
Wenn alles korrekt funktioniert, bietet AMD die beste SGSSAA-Qualität dank sinnvoller Downsampling-Filter.

tombman
2011-03-08, 20:45:43
S
FPS spielen kaum eine Rolle. Entweder kauft man sich so eine Karte um reine Benchmarks zu fahren, wo Lautstärke keine Rolle spielt, oder man will die beste BQ pro € haben. Denn wenn man auf BQ verzichten kann, dann kauft man sich auch keine solche Karte. Und wenn man solch eine Karte hat, will man erst Recht nicht auf BQ verzichten müssen.
Ich hab 3x 480er und fahre SSAA oder DS gar nicht :eek:
Hab halt 100fps oder 60fps gern- flutscht so schön :eek:²
(@2560x1440)

LovesuckZ
2011-03-08, 20:46:53
Ich hab 3x 480er und fahre SSAA oder DS gar nicht :eek:
Hab halt 100fps oder 60fps gern- flutscht so schön :eek:²
(@2560x1440)

Ja - siehe Punkt 1. ;)

Ailuros
2011-03-08, 20:56:31
Ich will Euch ja nicht den Spass verderben, aber der ganze Supersampling-Brei klingt mir eher danach dass es an AAA Titel fehlt die GPUs wirklich in die Kniehe bringen koennten.

Ich kann mir sowieso nicht vorstellen dass man mit einer GTX580 oder noch schlimmer HD5870mit 4x SSAA in 2560*1600 auf einem 30" in heutigen Spielen noch spielbarkeit erreichen kann, aber selbst das letztere ist eine ziemlich subjektive Affaere.

Ich brauche fuer mich selber keine gute Entschuldigung um 2*8pin Produkte zu gerechtfertigen. Nicht dass das Zeug so oder so irgend ein besonderes Prozentual des insgesamten Markts anspricht, aber anstatt konstatt der Laecherlichkeit zuzufuegen waere es endlich mal hoechste Zeit bei beiden IHVs dass sie an anstaendigeres hw basiertes mGPU scaling denken wuerden.

Es darf ja die IHVs bloss nichts kosten und AFR ist so oder so der billigste Weg ueberhaupt. Wenn man am Ende aber dann doch noch Ohrenstoepsel braucht sollte man irgendwann schon nachdenken sollen ob es irgendwo zu viel des Guten ist.

tombman
2011-03-08, 20:59:02
Ja - siehe Punkt 1. ;)
Nene, in die Schublade passe ich schon lange nimmer rein- benchmarks gehen mir am Anus vorbei.
3x 480 ist einfach- angenehm ;) (Crysis 2 @ 100fps zb ;D;D - und mit very high werdens in der final immer noch locker 50fps sein -> rulort)

boxleitnerb
2011-03-08, 21:09:39
Ein Vöglein hat mir jedoch gezwitschert, dass AMD dieses Thema ernster nimmt als wir denken. :naughty:


Schick das Vöglein mal vorbei :D
Ich hoffe inständig, dass Nvidia dann nachzieht, siehe NV-Themenabend, wo das Thema dominiert hat. Wenn man sich den DS-Thread anschaut, sieht man schon, dass es nicht völlig problemlos ist. Kein komplettes Bild teilweise, weniger also 60Hz bei 2x2DS@1080p (was nicht jeder Monitor schafft)...das irgendwie gescheit im Treiber implementiert und supported wäre schon geil.

Blaire
2011-03-08, 21:15:41
Bei NV matsch dafür das Bild teilweise bei Einsatz von SG-SSAA und LOD-Bias-Anpassung funktioniert nur suboptimal (nur manuell möglich, Tendenz zum Flimmern).
Wenn alles korrekt funktioniert, bietet AMD die beste SGSSAA-Qualität dank sinnvoller Downsampling-Filter.

SGSSAA matscht bei praktisch keinen Game mehr, dank der AA Bits (zumindest kenn ich keines). Und LOD Bias Anpassung flimmert bei AMD meiner Meinung sogar noch mehr, als es das bei Nvidia tat. Das seh ich daran das oft nichtmal 4xSGSSAA half um das Bild sauber zu bekommen, bei Nvidia reichte das aber.

Schick das Vöglein mal vorbei :D
Ich hoffe inständig, dass Nvidia dann nachzieht, siehe NV-Themenabend, wo das Thema dominiert hat. Wenn man sich den DS-Thread anschaut, sieht man schon, dass es nicht völlig problemlos ist. Kein komplettes Bild teilweise, weniger also 60Hz bei 2x2DS@1080p (was nicht jeder Monitor schafft)...das irgendwie gescheit im Treiber implementiert und supported wäre schon geil.

Ich nutze DS kaum noch, wenn dann lieber blurfreies SGSSAA. Als Option für Games ohne AA Unterstützung find ich es aber ok.

boxleitnerb
2011-03-08, 21:47:53
Würde ich auch so machen. Leider gibt es eben genug Games ohne AA-Unterstützung, aber ich denke, ab DX11 ist das langsam gegessen. Dann kann man immer SGSSAA forcieren und gut ist.

Spasstiger
2011-03-08, 22:00:14
Das seh ich daran das oft nichtmal 4xSGSSAA half um das Bild sauber zu bekommen, bei Nvidia reichte das aber.
Hast du einen Tent-Filter benutzt? Sollte man auf AMD-Karten in Verbindung mit SGSSAA nutzen, wenn die Option schon zur Verfügung steht. Damit sollte es eigentlich ziemlich sauber aussehen.

Blaire
2011-03-08, 22:09:08
Hast du einen Tent-Filter benutzt? Sollte man auf AMD-Karten in Verbindung mit SGSSAA nutzen, wenn die Option schon zur Verfügung steht. Damit sollte es eigentlich ziemlich sauber aussehen.

Das NarrowTent hatte ich öfter mal aktiviert, aber gegen Flimmern half das auch nicht wirklich. Bei WideTent das matschte mir dann wieder zu stark. Ich war davon nicht wirklich begeistert oder ich hab einfach die falschen Games damit getestet.

Dural
2011-03-09, 09:23:17
naja so wie es scheint selektiert AMD die chips bei der 6990 nicht einmal, sie bekommen die selbe Spannung wie auf der 6970...

Ich hoffe dass es NV besser macht, denn so was ist eine Zumutung!


Edit:
mir kam gerade wieder in Erinnerung das es hier so möchte gern Profis gab die eine Spannung von 1,00Volt bei der 6990 vermuteten, AMD kann so krasssss selektieren LOL

Ich sehe es schon fast kommen und NV haut fast eine ganz / volle Dual GTX580 auf den markt, ist ja egal ob 500Watt oder 600Watt...... in ein paar Jahren haben wir dann die erste 1000Watt Karte ;D


Die Menschheit verblödet immer wie mehr!!!!

tombman
2011-03-09, 12:25:47
Die Menschheit verblödet immer wie mehr!!!!
Indeed! ;D

An Selektionen glaub ich auch nicht...bin nur gespannt wie NV das kühlen will :)

Nakai
2011-03-09, 12:55:56
Indeed! ;D

An Selektionen glaub ich auch nicht...bin nur gespannt wie NV das kühlen will :)

;D;D;D

Selektion ist ein Mythos, welchen es tatsächlich gibt.:freak:
Natürlich nicht in der Form, die sich die Meisten vorstellen.
Schwankungen in der Fertigung gibts in der Tat, nur äußert sich das eher in kaputten Funktionseinheiten, als in einem UBER-Chip.

Black-Scorpion
2011-03-09, 18:08:47
Ausgerechnet er bezeichnet andere als Möchtegern Profis. :rolleyes:

Edgecrusher86
2011-03-11, 15:52:26
Laut den neusten Spekulationen soll es sich, wie schon des öfteren vermutet, um den GF110 Vollausbau mit 2 x 1536MB (2 x 384 Bit SI) und je 512 SPs handeln.

http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-590-erste-grobe-spezifikationen-im-netz-793710.html

Die Taktraten schätzt man auf
6xx MHz Core
12xx MHz Shader
850 MHz GDDR5 (je 163,2 GB/s @ 384 Bit)

Bei mal von mir wild spekulierten 632 MHz Core (was 100 MHz unterhalb einer 570er und 140 MHz weniger als bei einer 580er wäre)
und 85% SLI Skalierung im Schnitt sollte die Karte grob 50% oberhalb einer GTX 580 liegen (ohne den GDDR-Takt miteinzubeziehen).
Also schon bei + 4x % - auch wenn die Skalierung z.B. bei 75% liegen würde.

Mal schauen. ;)

MfG
Edge

Raff
2011-03-11, 16:12:53
Das gäbe aber ganz schön auf die Fresse von der HD 6990. Ich glaube nicht, dass Nvidia so "harmlose" Chiptaktungen anstrebt.

MfG,
Raff

boxleitnerb
2011-03-11, 16:22:10
Könnte man Nvidia nichtmal anhauen

1. die Sampleverteilung der SLI-AA Modi zu verbessern
2. einen FPS-Limiter für DX9,10,11 einzubauen (optional versteht sich, z.B. über die NVAPI aufrufbar) um dem Mikrogezuckel Herr zu werden?

san.salvador
2011-03-11, 16:23:59
Könnte man Nvidia nichtmal anhauen

1. die Sampleverteilung der SLI-AA Modi zu verbessern
2. einen FPS-Limiter für DX9,10,11 einzubauen (optional versteht sich, z.B. über die NVAPI aufrufbar) um dem Mikrogezuckel Herr zu werden?
Du bekämpfst also gefühlt niedrigere FPS, indem du die realen FPS runterwürgst?
Ich hab kein SLI, aber für mich klingt das ziemlich sinnfrei.

boxleitnerb
2011-03-11, 16:27:50
Frag mal die SLI-Gurus hier (Blaire, Gouvernator, tombman), die benutzen sowas (buggy SSAA-Tool oder den alten Limiter von ludi) nicht umsonst.

Lieber 30fps, die sich auch wie 30 anfühlen als 45, die sich wie 20 anfühlen ;)

Raff
2011-03-11, 16:28:35
Effektiver und immer hilft es, einfach eine Karte rauszuwerfen. :ulol:

MfG,
Raff

Nakai
2011-03-11, 16:36:32
Das gäbe aber ganz schön auf die Fresse von der HD 6990. Ich glaube nicht, dass Nvidia so "harmlose" Chiptaktungen anstrebt.

Naja bei Auflösungen bis zu 2560*1600 mit AA und AF, sollte man die HD6990 ohne Probleme verhauen können. Interessant wirds erst ab 2560*1920 und darüber, also für den Sektor in denen solche Highend-SKUs auch ausgelegt sind.
Da sollte dann eher dein "auf die Fresse von der HD6990" eintreten.
Und da wirds für NV auch verdammt schwer, was dagegen zu tun. Die Füllrate von Cayman kommt erst in hohen Settings wirklich zu tragen.


mfg

boxleitnerb
2011-03-11, 16:41:33
Effektiver und immer hilft es, einfach eine Karte rauszuwerfen. :ulol:

MfG,
Raff

Du weißt, dass das aber nicht für jeden eine Lösung ist ;)
Könnten ihr diesbezüglich bei eurem nächsten Gespräch mit Nvidia bitte mal nachfragen? Zumindest bzgl. des SLI-AA, ob da noch mal was kommt.

=Floi=
2011-03-11, 17:11:53
was ist so schlimm 2. zu sein? wenn der stromverbrauch und die lautstärke dafür alltagstauglich sind.

Raff
2011-03-11, 17:17:16
Wenn ein Produkt einzig und allein das Ziel "Prestige" anstrebt und dabei versagt, ist das durchaus schlimm. Alltagstauglich sind diese Teile ja nur sehr eingeschränkt bzw. nur bei großer Leidensfähigkeit.

Könnten ihr diesbezüglich bei eurem nächsten Gespräch mit Nvidia bitte mal nachfragen? Zumindest bzgl. des SLI-AA, ob da noch mal was kommt.

Jo. :)

MfG,
Raff

aylano
2011-03-11, 18:25:56
was ist so schlimm 2. zu sein? wenn der stromverbrauch und die lautstärke dafür alltagstauglich sind.
Wenn du es so ansprichts (Performance-Only), dann ist eben ein Zweiter Platz ein Zweiter Platz bzw. in Forum-üblichesprach "schlechter".

Aber es zählt immer das Gesamtpakt. Zwar bezweifel ich, dass der GTX 590 weniger Strom verbrauchen wird, aber ich könnte mir gut vorstelle bzw. erwarte mir bessere Lautstärken-Werte (=weniger db) als HD 6990, weil Nvidia eben schon viel längere Erfahrungen im höheren Stromverbrauchsbereich hat und in dieser Zeit AFAIK bessere Referenz-Kühler entwickelt/forciert hat.

IMO würde ein 2xCaymann mit 300W-TDP sinn machen, da der Performance-Abstand zwischen HD 6990 & HD 6970 IMO zu groß ist.
Nvidia Detto. Ein Absolut High-End, was voll auf die Performance geht und ein 2xGF110 unter 300W-TDP.

Und wer das Bessere Gesamt-Paket hat, auch wenn Performance in Absolut-High-End eben sehr hohe Priorität hat, der ist halt vorne bzw. verkauft mehr Karten als der Konkurrent.
Der Stromverbrauch hat halt in diesen Stromverbrauchs-Gegenden eben den Einfluss, dass man mit der Performance beschränkt wird oder verdammt hohe Herausforderungen hat, den Strom (Lautstärke, Kosten,... ) im Griff zu bekommen.

LovesuckZ
2011-03-11, 18:32:58
AMD bekommt haufenweise negative Kritik für die 6990 - vorallem wegen der Lautstärke. Viele bezeichnen diese als vollkommen inakzeptabel und sagen auch, dass man die Karte nicht kaufen sollte.
Der Spruch "besser negative als garkeine Presse" wird kaum Anwendung finden können. Es ist neben der 6970 die zweite "High-End" Karte, die in Sachen Lautstärke nicht überzeugt und im Zuge von nVidia's "Lautstärke matters" somit negative Presse einfährt.

Knuddelbearli
2011-03-11, 18:51:27
war ja klar

6970 ist leiser als die 580 und die 6990 als die 480 bei fast doppelter leistung und für unseren Lovesuckz und gewisse seiten sind es wieder drecks karten ^^

airbag
2011-03-11, 19:01:51
Die Hd6990 ist signifikant lauter als die GTX480 (den Pelzkugelbenchmark mal außen vor gelassen ), was PCGH und HT4u auch so bestätigen ;)

Knuddelbearli
2011-03-11, 19:11:51
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gts-450-sli/23/#abschnitt_lautstaerke

http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/23/#abschnitt_lautstaerke

LovesuckZ
2011-03-11, 19:13:45
war ja klar

6970 ist leiser als die 580 und die 6990 als die 480 bei fast doppelter leistung und für unseren Lovesuckz und gewisse seiten sind es wieder drecks karten ^^

Cool, bro. Die 6970 mit der GTX580 zu vergleichen. Das dabei die GTX570 deutlich leiser ist, bei selbem Speed - okay, kann man ignorieren. :freak:
Und die GTX480? Die ist bei HT4U, PCGH.de, Tomshardware.com oder auch Anandtech.com deutlich leiser. Aber das passt ja ebenfalls nicht. Also nimmt man den Worst-Case Wert von Computerbase.de.

Komischweise zeigst du nur, was ich sage: Die GTX480 wurde für ihre Lautheit verdammt, dieses Niveau wird jetzt von der 6990 nochmal übertroffen. Und die 6970 kommt leistungsmäßig nur in ausnahmefällen an die GTX580 ran, ist aber dank des schlechteren Kühlers fast genauso laut.
Also Zustimmung - ja?

Blaire
2011-03-11, 19:14:51
Die Hd6990 ist signifikant lauter als die GTX480 (den Pelzkugelbenchmark mal außen vor gelassen ), was PCGH und HT4u auch so bestätigen ;)

Selbst meine HD6950@6970 ist bei SGSSAA Einsatz lauter als eine GTX480, das Lüftergeräusch bzw. Röhren fällt mehr ins Gewicht. Dagegen war die Nvidia vergleichsweise ruhig und nur ein Rauschen wahrnehmbar. Für mich beides nicht störend, aber wenn man es genau nimmt, wurde viel Mist verbreitet zum Launch der Fermi Karten zu laut, zu heiss, Stromfresser witzigerweise aber jetzt nur als Randerscheinung erwähnt, während man damals ein Riesenfaß aufmachte.

Knuddelbearli
2011-03-11, 19:19:13
1.) nur das du bei der 480 damals nicht so rumgeheult hast
2.) du selber sagst das die 5970 in den settings die wichtig sind fast an die 580 ran kommt und dabei massiv weniger verbraucht und günstiger ist
3.) du vor allem bei der 6970 so tust als ob sie für vgehörschäden verantwortlich ist da du sie mit der 6990 in einen topf wirfst

ja ich betreibe hier rosinenpickerei aber genau das selbe tust du auch nur das ich das bewusst so mache während du einfach entsprechend verblendet bist

Hugo78
2011-03-11, 19:22:34
ja ich betreibe hier rosinenpickerei aber genau das selbe tust du auch nur das ich das bewusst so amche während du einfach nur so verblendet bist

Darf ich das als Sig benutzen? :biggrin:

Black-Scorpion
2011-03-11, 19:31:00
Ich bin schon gespannt die die üblichen Verdächtigen bei der Karte auch so meckern. :rolleyes:

Knuddelbearli
2011-03-11, 19:33:50
Black vergiss es habe paar beispiele ja schon emrhmals zitiert
das sich amnche leute zuerst eine 375W x2 von NV gewünscht haben und bei ATI dann gefragt haben ob die total bescheuert sind usw

für mich ist sowieso alles über einer 5850 / 560 sinnlos von der lautstärke ob es dann 60 oder 66 DB sind .... und alles über 200W genau das gleiche

LovesuckZ
2011-03-11, 19:36:01
1.) nur das du bei der 480 damals nicht so
rumgeheult hast

Ich habe sehrwohl bei der Lautstärke "rumgeheult". Jedoch haben es andere noch schlimmer getan.


2.) du selber sagst das die 5970 in den settings die wichtig sind fast an die 580 ran kommt und dabei massiv weniger verbraucht und günstiger ist

Bitte zitiere mich richtig, verstanden? Ich habe "leistungsmäßig nur in ausnahmefällen an die GTX580 ran" geschrieben.


3.) du vor allem bei der 6970 so tust als ob sie für vgehörschäden verantwortlich ist da du sie mit der 6990 in einen topf wirfst

Also bitte - wenn du Postings nicht verstehst, unterlasse es einfach darauf zu antworten. Ich habe die 6970 nicht in den selben Topf geworfen, sondern nur aufgezeigt, dass beide für ihre Lautstärke kritisiert worden sind.


ja ich betreibe hier rosinenpickerei aber genau das selbe tust du auch nur das ich das bewusst so amche während du einfach nur so verblendet bist

Wenn zig Belege für eine Aussage weiterhin als "Rosinenspickerei" gelten, dann hast du recht.
Lustig nur, dass du ausser "Computerbase" nichts anderes bringst. Könnte man fast meinen, dass Computerbase die Rosinenspickerei wäre. :freak:

Knuddelbearli
2011-03-11, 19:37:08
ich bringe CB weill die NV Jünger 2009/10 immer darauf geschworen haben ( weill sie nen recht einseitigen bench parcour damals hatten ) bzw die ATI Leute aus dem grund rumgeheult haben

Was ist also besser für so einen Vergleich als eine Seite der PRo NV sein unterstellt wird?

und was für ausnahmefälle sind das ? genaua uflösungen jenseits der 1920 und genau das ist das einsatzgebiet dieser Karten in 90% der Fälle

LovesuckZ
2011-03-11, 19:43:18
ich bringe CB weill die NV Jünger 2009/10 immer darauf geschworen haben ( weill sie nen recht einseitigen bench parcour damals hatten ) bzw die ATI Leute aus dem grund rumgeheult haben

Achso. Macht sinn. :freak:


und was für ausnahmefälle sind das ? genaua uflösungen jenseits der 1920 und genau das ist das einsatzgebiet dieser Karten in 90% der Fälle

Bestimmt nicht. Ich find's ja putzig, dass dauernd sowas gesagt wird, dabei aber alle einfach die Tatsache unter dem Tisch fallen lassen, dass solch ein Monitor erst bei 650€ startet. Die Aufgabe einer jeden Grafikkarte ist es tolle Bilder in einer schneller Abfolge zu erstellen. Und das wird bei 95% aller Käufer nunmal unter einer nativen Auflösung von maximal 1200p geschehen.

Ich müsste ja selten dumm sein soviel Geld in einen Monitor zu investieren, wenn ich für den selben Preis 2x GTX580 + einen tollen 200€ 1080p Monitor bekommen kann.

Hugo78
2011-03-11, 19:49:56
Jup, 1680*1050 und 1920*1080/1200 bedienen aktuell knapp 45% der Steam Zocker.
50% benutzt noch kleinere Auflösungen und grade mal 5% bleiben übrig, welche dann wohl höher als "Full HD" gehen.

http://store.steampowered.com/hwsurvey

edit:
Wobei ich nix gegen einen 24" mit doppelt so hoher Auflösung hätte, ganz im Gegenteil, am bessten noch gleich 120hz, Null Inputlag und PVA/IPS Panel.
Dafür würde ich glat wiedermal über 500€ ausgeben wollen... *träum*

Knuddelbearli
2011-03-11, 19:55:20
so und jetzt schau mal nach wieviele leute solche grafikkarten nutzen ;-) wieviele von den steamnutzern haben zB nur ne igp ? ;-)

da bleibt für 6970+ auch keine 5% übrig ;-)
480 ist von diesen grafikkarten dort die meistbenutzte glaube das sagt doch alles ^^

Edit: ich wäre mit 3 1920*1200 IPS LED 60 hz für insgesamt 1000€ mehr als zufrieden ^^
dafür aber keinene extrem hohen inputlag wie ihn die meisten leider haben

Hugo78
2011-03-11, 20:10:15
@Knuddelbearli
Die Steam Stats bieten immer viel Raum für Interpretationen. ;)
Aber es zeigt halt auch, dass die besondere Stärke der 6950 und 6970 in > Full HD,
noch kein echtes Verkaufsargument sind, wenn man rein nach den aktuell "zu befriedigenden Bedürfnissen" geht.

Die Stärke der Caymans ist ein Versprechen für die Zukunft, dann wenn ein auflösungs-(dpi)starkes Retina Display,
auch im Desktopmarkt bezahlbar wird bzw. überhaupt erstmal seinen Weg in diesen findet.

Aber bis dahin haben wir schon 20nm Grafikkarten, also meiner bescheidenen Einschätzung nach.
Ich warte ja schon seit einem Jahr auf ein 16:10, 120hz, 24" mit PVA/IPS Panel und sowas gibt es immernoch nicht, weshalb ich mir grad ein fast schon billiges Dell 2311 geholt habe.
Gegenüber meinem TN 22" vorher wenigstens ein kleiner Fortschritt, aber vom "haben-wollen-Faktor" her, nur ein "Ausreichend", kein "Sehr Gut".

Knuddelbearli
2011-03-11, 20:13:56
ehzer unter 10nm so wie die entwicklung mom stagniert monsterauflösungen wären ja bereits ohne probleme möglich trotztdem stagnierts im prinzip seit über nem jahrzent

und genau das selbe wollte ich auch sagen den der auflösungsanteil bei steam ist gering aber auch der personenkreis die solche grafikkarten auf steam benutzen ist extrem gering


Edit: ausserdem sind in deinen 5% sehe ich gerade die multimonitor setups nicht enthalten

Duplex
2011-03-11, 20:35:43
HD6990 kostet jetzt nur noch 535 € http://www.mindfactory.de/product_info.php/info/p726680/pid/geizhals
die Preise sind ja schnell korrigiert worden, 100 € Aufpreis gegenüber GTX580

Knuddelbearli
2011-03-11, 20:43:49
falscher thread dupi

Duplex
2011-03-11, 20:44:55
evtl. ein Anzeichen das die GTX590 unter 600$ vermarktet wird?

san.salvador
2011-03-11, 20:50:41
evtl. ein Anzeichen das die GTX590 unter 600$ vermarktet wird?
Oder dass die GTX einen Batzen flotter zu Werke geht.

Knuddelbearli
2011-03-11, 20:58:01
nur wenn NV zaubern kann dann kann ich aber auch geld scheissen ^^

570 und 6970 selbe ausgangslage bei Leistung und Verbrauch allerdings hat die 570 da noch weniger Ram und für dual soll der bitte verdoppelt werden wehsalb sie dann effizientsmässig minmal schlechter da stehn wird.
Beide Hersteller können nicht zaubern und beide hersteller haben das problem das die Verlustleistung bei höheren taktraten explodiert.
Beide hersteller werden also pro W umgefähr das selbe abliefern. noch höher wird NV bitte nicht gehen wenn doch gehört ihnen der Arsch aufgerissen.
Einzige Vorteil wird wohl sein das NV wohl auf jedenfall leiser sein wird aber ob ich jetzt nen Düsenjet im Gehäuse habe oder einen Helikopter macht doch auch nicht wirklich nen Unterschied.

Grüsse aus Wien

Dural
2011-03-12, 09:26:29
falsch, die 570 ist teildeaktiviert und folglich wird NV mit einem vollen GF110 effizienter arbeiten!

Da AMD nicht mal gross mit der Spannung spielt dürfte das für NV ein leichtes Spiel sein, den die NV Dual GPU Karten hatten bis jetzt immer gut Selektierte GPUs was man bei AMD nicht behaupten kam... da kommt alles der selbe Ramsch wie bei der 6970 drauf und wie man weis laufen die Chips bei 880MHz schon ziemlich am Anschlag! NV hat bei ihren Chips deutlich bessere Möglichkeiten und sie werden das sicher für das ein oder andere Watt weniger ausnutzen.

Ich gehe von bis zu 700MHz bei der GTX 590 aus, also noch mal weniger Takt als 580 und 570!


Das entscheidende bei diesem Vergleich wird aber eher die Skalierung der beiden Karten sein, wer da besser abschneidet wird gewinnen... Man kann es sich eben nicht leisten mal eben 10% schlechter zu Skalieren als die Konkurrenz...


NV steckt so wie so in der zwickmülle, den um auf die Leistung der 6990 zukommen werden sie auch einen änlichen hohen Strom-Verbrauch = Lautstärke wie diese hin nehmen müssen! DAS kann aber nicht der richtige weg sein und NV weis das auch ganz bestimmt... Ich hoffe das NV den richtigen kompromiss zwischen Leistung und Verbrauch finden wird :)

Knuddelbearli
2011-03-12, 10:43:14
NV steckt so wie so in der zwickmülle, den um auf die Leistung der 6990 zukommen werden sie auch einen änlichen hohen Strom-Verbrauch = Lautstärke wie diese hin nehmen müssen! DAS kann aber nicht der richtige weg sein und NV weis das auch ganz bestimmt...

nix anderes habe ich doch gesagt ...

ja bei 470 kann man noch was aktivieren dafür braucht der wie gesagt noch zusätzlichen Speicher 1,5GB ihmo einfach zu wenig. Skalieren tut soweit ichw eiss ATI mom besser. Bei der lautstärke wird NV wohl garantiert besser sein nur ob 60 oder 66 DB ist auch egal

Ailuros
2011-03-12, 10:59:38
Ich hab mich zwar mit dem Thema 590/mGPU wirklich nie ernsthaft beschaeftigt, aber ich wuerde erstmal dafuer tendieren dass sie zumindest eine A2 Revision vom GF110 benutzen werden.

Je nachdem was sie genau anstellen konnten zwischen dem G110 tape out und heute werden sich auch die finalen Frequenzen bewegen. Einen kleineren Stromverbrauch als bei 6990 erwartet wohl sowieso keiner.

MfA hat Recht bei B3D: http://forum.beyond3d.com/showpost.php?p=1532053&postcount=13

http://forum.beyond3d.com/showthread.php?t=59707

Raff
2011-03-12, 11:44:59
Ich bin schon gespannt die die üblichen Verdächtigen bei der Karte auch so meckern. :rolleyes:

Natürlich! Warum denn nicht? Es sei denn, Nvidia zaubert und macht die GTX 590 leise. Die Wahrscheinlichkeit dafür liegt jedoch bei ... null.

MfG,
Raff

Edgecrusher86
2011-03-12, 13:19:53
http://vr-zone.com/articles/nvidia-geforce-gtx-590-exposed-a-single-slot-card--/11563.html

Lustigste neue Spekulation - Kühlerdesign ähnlich der 295er Single-PCB, aber angeblich Single-Slot. ;D :ulol:

Das generelle Kühlerdesign könnte schon hinkommen (kombiniert mit Vapor-Chamber), aber das mit Single-Slot nicht wirklich. ;)

MfG
Edge