PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 [68] 69 70 71 72 73 74 75

Schlammsau
2010-03-21, 13:06:06
Gibt es eigentlich irgendwelche Spekus über den Idle-Verbrauch von Fermi?

Hab jedenfalls noch nichts darüber gelesen.....ist ein schlechtes Zeichen. ;)

AnarchX
2010-03-21, 13:10:06
Gibt es eigentlich irgendwelche Spekus über den Idle-Verbrauch von Fermi?

Hab jedenfalls noch nichts darüber gelesen.....ist ein schlechtes Zeichen. ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7918028#post7918028

Bleibt die Frage, ob man da noch später noch nachbessern wird. GDDR5 hat man ja eigentlich unter Kontrolle, wie man an der GT 240 sieht.

Gast
2010-03-21, 13:11:43
Ab 25% Mehrperformance der GTX480 gegenüber der HD5870 hat die Karte imo ihren Sinn erfüllt. ATI steht nicht mehr alleine da.
mfg

Auf einer der letzten Seiten wurde doch geschrieben, dass eine übertaktete 5870 der GTX480 "auf den Pelz" rücken kann.
Da sind 25% schon etwas optimistisch.

Sascha1971
2010-03-21, 13:14:24
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7918028#post7918028

Bleibt die Frage, ob man da noch später noch nachbessern wird. GDDR5 hat man ja eigentlich unter Kontrolle, wie man an der GT 240 sieht.

Da steht aber noch nix wieviel sie im 2 D Betrieb verbraucht.
Und die wenigen stunden sie man im Monat isngesamt spielt, stören mich die 100w mehr auch nicht.
Für mich ist nur der 2D Betrieb, weil mein Pc fast immer an ist.

Sascha1971
2010-03-21, 13:15:21
Auf einer der letzten Seiten wurde doch geschrieben, dass eine übertaktete 5870 der GTX480 "auf den Pelz" rücken kann.
Da sind 25% schon etwas optimistisch.


Ja. mit voltmod etc.
Dann braucht die Karte aber auch mehr Strom. Das wird hier aber gerne vergessen.

Gast
2010-03-21, 13:18:01
Ja. mit voltmod etc.
Dann braucht die Karte aber auch mehr Strom. Das wird hier aber gerne vergessen.
Trotzdem wird man nicht mehr als 1050 Mhz erreichen.
Das sind keine 25% mehr Takt, geschweige denn Leistung.
Da die 5870 "nur" 188W TDP hat, dürfte aber eine moderate Spannungserhöhung noch verkraftbar sein(muss ja nicht der Stockkühler sein).

urfaust
2010-03-21, 13:22:28
Und Gewinner sind die Wii Besitzer
Thema schließen

Gast
2010-03-21, 13:22:39
Trotzdem wird man nicht mehr als 1050 Mhz erreichen.
Das sind keine 25% mehr Takt, geschweige denn Leistung.
Da die 5870 "nur" 188W TDP hat, dürfte aber eine moderate Spannungserhöhung noch verkraftbar sein(muss ja nicht der Stockkühler sein).

Ne 5870 kann man aber mit relativ wenig spannunserhöhung auf 1000 takten.
Man wird dann vieleicht an die DTP ner 470 kommen wies dann performancemässig aussiet dürfte klar sein

Gast
2010-03-21, 13:22:40
1.25v > 1150mhz... unter Wasser... aber was wissen schlaue Leute schon seid Ewigkeiten? Genau, GrakA OC ist fürn poppo :D


Wie war das 10% ist 1 FPS....

Hans Olo
2010-03-21, 13:23:26
Ich lach mich kaputt. Jetzt ist es langsam ziemlich sicher, dass die Karte eine kleine Enttäuschung ist und jetzt kommen die nv Fanboys mit Sprüchen wie: "Ziel erreicht, die ATI Karte wird geschlagen etc."

Leute, wie es aussieht wird Fermi eine Enttäuschung. Mit der Verspätung hätte es schon was schnelleres sein müssen und solche Sprüche wie "das ist ein Feature-Brett, Glanzleistung von nv etc." bringen mir auch nichts, wenn ich in Spielen eine Mehrleistung von gerade mal 10-15 % habe. Auch das tolle Physx Argument zieht nicht. wenn ich ne ATI im Rechner habe, stecke ich mir einfach ne GT240 dazu und gut ist.

Ich werde wohl meine GTX 260 erst mal behalten und die nächsten Refresh-Chips abwarten.

Wer vor einem halben Jahr eine neue ATI gekauft hat (am besten noch die 5850 für unter 230 Euro) hat wohl alles richtig gemacht.

Ich meine auch als nv-Fan muss man sagen, dass das Ganze (noch?) nach einer Enttäuschung ausschaut. Wer was anderes erzählt, dem ist nicht mehr zu helfen, da könnte nv auch die original GeForce wieder auflegen, und die würden rufen „Geil, endlich T&L am PC“ oder ähnlich.

Dumm, das jetzt der Winter vorbei ist, mit dem Verbrauch hätte man massiv Heizkosten sparen können.

dildo4u
2010-03-21, 13:26:32
Ich lach mich kaputt. Jetzt ist es langsam ziemlich sicher, dass die Karte eine kleine Enttäuschung ist und jetzt kommen die nv Fanboys mit Sprüchen wie: "Ziel erreicht, die ATI Karte wird geschlagen etc."

Leute, wie es aussieht wird Fermi eine Enttäuschung. Mit der Verspätung hätte es schon was schnelleres sein müssen und solche Sprüche wie "das ist ein Feature-Brett, Glanzleistung von nv etc." bringen mir auch nichts, wenn ich in Spielen eine Mehrleistung von gerade mal 10-15 % habe. Auch das tolle Physx Argument zieht nicht. wenn ich ne ATI im Rechner habe, stecke ich mir einfach ne GT240 dazu und gut ist.

Ich werde wohl meine GT 260 erst mal behalten und die nächsten Refresh-Chips abwarten.

Wer vor einem halben Jahr eine neue ATI gekauft hat (am besten noch die 5850 für unter 230 Euro) hat wohl alles richtig gemacht.

Ich meine auch als nv-Fan muss man sagen, dass das Ganze (noch?) nach einer Enttäuschung ausschaut. Wer was anderes erzählt, dem ist nicht mehr zu helfen, da könnte nv auch die original GeForce wieder auflegen, und die würden rufen „Geil, endlich T&L am PC“ oder ähnlich.

Dumm, das jetzt der Winter vorbei ist, mit dem Verbrauch hätte man massiv Heizkosten sparen können.

Tja nur 90% der Käufer sind keine Fanboys und verfolgen das ganze auch nicht über Jahre.Die gucken welche Karte für welchen Preis was leistet und kaufen dann.Die Preisgestaltung scheint ok zu sein und von einer GTX 260 ist es ein großes Update.

LovesuckZ
2010-03-21, 13:27:16
Wer vor einem jahr eine GTX285 gekauft hat, hat alles richtig gemacht. :)

/edit: Die GTX285 kostete sogar weniger als die 5870. :lol:

Gast
2010-03-21, 13:29:16
Gibt es eigentlich irgendwelche Spekus über den Idle-Verbrauch von Fermi?


Ich geh mal davon aus, falls es möglich ist einzelne Chipteile komplett zu deaktivieren, dass es mit dem Lauchtreiber mit ziemlicher Sicherheit noch nicht funktionieren wird, bleibt also zumindest anfangs "nur" Takt und Spannungsreduktion. Damit sollte man keine Wunder erwarten, 58xx-Werte sind sicherlich utopisch und auch GT200-Werte werden wohl nur schwer erreichbar sein.

Ich tippe mal, dass der Idle-Verbrauch anfangs zumindest 10-20% über dem der G200-Serie liegt.

Sollte der Chip Clock-Gating beherrschen kann sich natürlich noch einiges tun, falls nicht, bleibt es natürlich dabei (und wundern würde mich das nicht, es wäre nicht das erste mal, dass NV bei einer komplett neuen Generation erst im 2. Anlauf sich um den Stromverbrauch kümmert)

mapel110
2010-03-21, 13:33:02
Da kann man wohl nur hoffen, dass NV noch schnell ein Idle-Fix nachschiebt.

Wo steht denn irgendwas zum Idle-Verbrauch?

GTX 280 hat eine TDP von 236 Watt gehabt. Machen jetzt 250 Watt TDP alles kaputt?!

Gast
2010-03-21, 13:34:04
Ich lach mich kaputt. Jetzt ist es langsam ziemlich sicher, dass die Karte eine kleine Enttäuschung ist und jetzt kommen die nv Fanboys mit Sprüchen wie: "Ziel erreicht, die ATI Karte wird geschlagen etc."


Naja, bei der Verspätung konnte man eher etwas NV30 oder R600-mäßiges erwarten, dagegen wäre die schnellste Single-Karte ja durchaus ein beachtlicher Erfolg.

Raff
2010-03-21, 13:34:13
Wer vor einem jahr eine GTX285 gekauft hat, hat alles richtig gemacht. :)

/edit: Die GTX285 kostete sogar weniger als die 5870. :lol:

IMO ist die GeForce GTX 280 der beste Kauf der letzten Jahre. Das Teil ist mit drei Klicks auf GTX-285-Niveau, fiept nicht so abartig wie das Refdesign des Nachfolgers und ist auch heute mit OC eine der schnellsten Single-GPU-Karten.

MfG,
Raff

Gast
2010-03-21, 13:34:38
Zum Thema GTX 480 "leise und kühl"

Man sollte sich nicht allzugroße Hoffnung machen, dass man 250 - 300 Watt Abwärme mit einem Radiallüfter "leise und kühl" abtransportiert, selbst wenn der Kühlkörper aus vernickelten Kupfer besteht.
Entweder ist es laut und sehr heiß, oder es ist sehr laut und heiß.

Um in einigermaßen erträgliche Regionen zu kommen, wird man auf Kühllösungen von Drittherstellern warten müssen oder man bastelt sich selbst eine.

Schlammsau
2010-03-21, 13:34:43
/edit: Die GTX285 kostete sogar weniger als die 5870. :lol:

Und was war mit der GTX280????

Und dafür kostet eine 285 jetzt mehr als eine 5850.... :ulol:

mapel110
2010-03-21, 13:36:28
Zum Thema GTX 480 "leise und kühl"

Man sollte sich nicht allzugroße Hoffnung machen, dass man 250 - 300 Watt Abwärme mit einem Radiallüfter "leise und kühl" abtransportiert, selbst wenn der Kühlkörper aus vernickelten Kupfer besteht.
Entweder ist es laut und sehr heiß, oder es ist sehr laut und heiß.

Um in einigermaßen erträgliche Regionen zu kommen, wird man auf Kühllösungen von Drittherstellern warten müssen oder man bastelt sich selbst eine.
War die GTX 280 mit ihren 236 Watt TDP so unerträglich heiß und laut? Machen 14 Watt mehr TDP so viel aus?

LovesuckZ
2010-03-21, 13:37:06
GTX 280 hat eine TDP von 236 Watt gehabt. Machen jetzt 250 Watt TDP alles kaputt?!

Richtig. Cypress braucht auch mehr Strom als der rv770. Da meckert komischerweise keiner. :rolleyes:

War die GTX 280 mit ihren 236 Watt TDP so unerträglich heiß und laut? Machen 14 Watt mehr TDP so viel aus?

Ja, sie war "unerträglich laut". :D

Spasstiger
2010-03-21, 13:39:07
Richtig. Cypress braucht auch mehr Strom als der rv770. Da meckert komischerweise keiner. :rolleyes:
Die Leistungsaufnahme bei Spielen ist mit der HD 5870 trotz höherer TDP geringer als mit der HD 4870. Deshalb meckert auch keiner.

urfaust
2010-03-21, 13:40:01
Tja nur 90% der Käufer sind keine Fanboys und verfolgen das ganze auch nicht über Jahre.Die gucken welche Karte für welchen Preis was leistet und kaufen dann..

ich würde eher sagen, dass die Mehrheit blind zu nVidia greift, und
das vollkommen unkritisch. Mund-zu-Mund-Propaganda, Fachpresse, Werbung, Popularität und so...

Wenn 90% der Käufer wirklich so clever sind wie du behauptest,
dann würden schlechte Produkte in Punkto Preis/Leistung
keine Chance auf dem Markt haben. Doch eher das Gegenteil ist der Fall.

LovesuckZ
2010-03-21, 13:40:37
Die Leistungsaufnahme bei Spielen ist mit der HD 5870 trotz höherer TDP geringer als mit der HD 4870. Deshalb meckert auch keiner.

Das wird bei einer GTX480 genauso sein. :rolleyes:
Und in viele Fällen sogar noch deutlicher, da sie länger am CPU-Limit sich bewegt.

Odal
2010-03-21, 13:42:25
Und was war mit der GTX280????

Und dafür kostet eine 285 jetzt mehr als eine 5850.... :ulol:

gtx285/275 und selbst die GTX260 sind im moment viel zu teuer da beisst die maus kein faden ab

das liegt aber wohl auch daran das das auslaufmodelle sind, wo auch keine Unmengen mehr auf Lager liegen werden.

Das ändert aber nix daran das das Abfallmodell des RV870 in Form der 5850 eher bei <=200€ gepreist werden sollte und in Form der 5830 eher um die <=160€

zumindest wäre das der "normale" Lauf der Dinge gewesen

Fetza
2010-03-21, 13:42:53
Wer vor einem jahr eine GTX285 gekauft hat, hat alles richtig gemacht. :)

/edit: Die GTX285 kostete sogar weniger als die 5870. :lol:

Ich hab ne gtx 280 und werde sie wie gesagt auch behalten, da die dx11 gpus der beiden hersteller insgesamt leistungstechnisch kein upgrade rechtfertigen für mich.

Der unterschied ist nur ati hat mit rv870 einen sehr guten chip püntklich fertig gestellt. Nv verspätet sich massiv mit einem produkt das performance technisch nicht zu überzeugen scheint.

Ich hoffe wenigstens nv bringt einen vernünftigen refresh gegen ende des jahres.

Edit: Das die gtx285 weniger kostet als ne hd5870 ist kein wunder, nv muss die teile ja auch irgendwie loswerden. ;)

tombman
2010-03-21, 13:45:13
Ich lach mich kaputt. Jetzt ist es langsam ziemlich sicher, dass die Karte eine kleine Enttäuschung ist und jetzt kommen die nv Fanboys mit Sprüchen wie: "Ziel erreicht, die ATI Karte wird geschlagen etc."
NV kauft man nicht nur wegen den fps :rolleyes:

1.) SLI besser als CF
2.) Nhancer
3.) Cuda
4.) Phys-X
5.) NV Einfluß auf Game Devs ;)

Phys-X kannst du mit 'ner Zusatzkarte VON NVIDIA (;D) ausgleichen, aber dafür brauchst gehackte Treiber
(und wer weiß, wie lang das noch geht!) und mußt GELD AUSGEBEN -> und zwar zusammen mehr als
wenn du gleich eine NV HighEnd- Karte gekauft hättest ;D
(bei gleicher Phys-X perf.)

Alle anderen Punkte bekommst du bei ATI NICHT und kannst sie auch nicht umgehen.

HD5 war doch nur so erfolgreich, weil NV 6 Monate nix hatte, was DX11 kann...jetzt ist "der Chef" bald wieder im Haus,
und ATI spielt 2. Geige, wie es sich gehört :cool:

Oder, um es mit NV auszudrücken: YOU CAN HAVE IT ALL ;D

AnarchX
2010-03-21, 13:46:19
Wo steht denn irgendwas zum Idle-Verbrauch?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7918028#post7918028

War die GTX 280 mit ihren 236 Watt TDP so unerträglich heiß und laut? Machen 14 Watt mehr TDP so viel aus?
Der Kühler der GTX 480 sieht jedenfalls wohl deutlich mächtiger als die Lösung bei der GTX 280 aus.
Denkbar wäre auch, dass NV die Temperatur niedrig halten will, denn dadurch wird auch der Verbrauch gesenkt.

Das wird bei einer GTX480 genauso sein. :rolleyes:
.
Man kann wohl annehmen, dass GF100 weniger Probleme mit der Auslastung seiner Einheiten haben wird als Cypress.

urfaust
2010-03-21, 13:46:39
Ja, sie war "unerträglich laut". :D

so empfand ich auch meine alte GTX285 im Referenzdesign,
bei aufwendigen Szenen wurde das Teil so laut wie Föhn

dagegen ist die 5870 ein Ohrenschmeichler

Exxtreme
2010-03-21, 13:47:25
1.) SLI besser als CF
2.) Nhancer
3.) Cuda
4.) Phys-X
5.) NV Einfluß auf Game Devs ;)

So, jetzt müsste man die Relevanz dieser Features in Betracht ziehen. Und da kann ich aus eigener Erfahrung sagen: darauf kann man getrost verzichten.

Raff
2010-03-21, 13:48:42
So, jetzt müsste man die Relevanz dieser Features in Betracht ziehen. Und da kann ich aus eigener Erfahrung sagen: darauf kann man getrost verzichten.

Und warum sollte man? Weil AMD so lieb und günstig ist? ;)

MfG,
Raff

LovesuckZ
2010-03-21, 13:50:04
Man kann wohl annehmen, dass GF100 weniger Probleme mit der Auslastung seiner Einheiten haben wird als Cypress.

Darum ging es nicht. Cypress sollte sich genauso verhalten wie rv770. Da Cypress aber mit 60% deutlich schneller ist, läuft man eher auf ein CPU-Limit.
Das geschieht mit der GTX480 genauso. Ergo wird sie im Vergleich zur GTX280/GTX285 ebenfalls sparsamer sein.

So, jetzt müsste man die Relevanz dieser Features in Betracht ziehen. Und da kann ich aus eigener Erfahrung sagen: darauf kann man getrost verzichten.

Ja, solange wie es sich nicht auf ein Spiel auswirkt. Aber sobald es mal passierieren sollte... Ja, dann können einige anscheinend nicht darauf "getrost verzichten". :D

Schlammsau
2010-03-21, 13:50:26
NV kauft man nicht nur wegen den fps :rolleyes:

1.) SLI besser als CF
2.) Nhancer
3.) Cuda
4.) Phys-X
5.) NV Einfluß auf Game Devs ;)

Phys-X kannst du mit 'ner Zusatzkarte VON NVIDIA (;D) ausgleichen, aber dafür brauchst gehackte Treiber
(und wer weiß, wie lang das noch geht!) und mußt GELD AUSGEBEN -> und zwar zusammen mehr als
wenn du gleich eine NV HighEnd- Karte gekauft hättest ;D

Alle anderen Punkte bekommst du bei ATI NICHT und kannst sie auch nicht umgehen.

HD5 war doch nur so erfolgreich, weil NV 6 Monate nix hatte, was DX11 kann...jetzt ist "der Chef" bald wieder im Haus,
und ATI spielt 2. Geige, wie es sich gehört :cool:

Oder, um es mit NV auszudrücken: YOU CAN HAVE IT ALL ;D

1. korrekt, aber SLi ist trotzdem Mist, wenn auch nicht ganz so grosser wie CF. ;)
2. ATT
3. Stream
4. bald kommen die Physik Engines über OpenCL.... (Physik über GPU ist derzeit noch nichts, was man haben muss) ;)
5. Welchen nutzen bringt das genau dir?

Gast
2010-03-21, 13:52:46
nix aber das weis er selbst, er will euch doch nur ärgern :D

AnarchX
2010-03-21, 13:53:54
Darum ging es nicht. Cypress sollte sich genauso verhalten wie rv770. Da Cypress aber mit 60% deutlich schneller ist, läuft man eher auf ein CPU-Limit.
Das geschieht mit der GTX480 genauso. Ergo wird sie im Vergleich zur GTX280/GTX285 ebenfalls sparsamer sein.
Ich würde eher vermuten, dass in diesen Fällen Cypress nicht von der CPU sondern von seinem Setup limitiert wird, was bei GF100 in der Theorie nicht so häufig auftreten sollte, dementsprechend auch ein Real-Verbrauch näher an der TDP bei den GTX 400.

Eggcake
2010-03-21, 13:55:20
Sorry, aber jetzt mit einem CPU-Limit den Verbrauch einer GTX480 schönreden - das wird leicht lächerlich...

Gast
2010-03-21, 13:58:16
War die GTX 280 mit ihren 236 Watt TDP so unerträglich heiß und laut? Machen 14 Watt mehr TDP so viel aus?

Für mich ist bei 30,4db die Grenze zwischen leise und laut und bei 60Grad die Grenze zwischen kühl und heiß. Die Grafikchips können auch Temperaturen bis zu 100Grad vertragen, dann aber mit höherer Ausfallrate.
Selbst bei "nur" 80Grad wird eine GTX480 mit Standartkühlung nicht leise sein.

Hans Olo
2010-03-21, 13:59:16
NV kauft man nicht nur wegen den fps :rolleyes:

1.) SLI besser als CF
2.) Nhancer
3.) Cuda
4.) Phys-X
5.) NV Einfluß auf Game Devs ;)

Phys-X kannst du mit 'ner Zusatzkarte VON NVIDIA (;D) ausgleichen, aber dafür brauchst gehackte Treiber
(und wer weiß, wie lang das noch geht!) und mußt GELD AUSGEBEN -> und zwar zusammen mehr als
wenn du gleich eine NV HighEnd- Karte gekauft hättest ;D
(bei gleicher Phys-X perf.)

Alle anderen Punkte bekommst du bei ATI NICHT und kannst sie auch nicht umgehen.

HD5 war doch nur so erfolgreich, weil NV 6 Monate nix hatte, was DX11 kann...jetzt ist "der Chef" bald wieder im Haus,
und ATI spielt 2. Geige, wie es sich gehört :cool:

Oder, um es mit NV auszudrücken: YOU CAN HAVE IT ALL ;D

Genau das meine ich mit den Fanboys, solche Aussagen, da kann ich mir nur an den Kopf packen. Wenn man sagt, nv gefällt mir aus den und den Gründen besser, alles klar. Aber hier wird immer gleich versucht zu provozieren

N0Thing
2010-03-21, 14:00:43
Heise hat einen neuen Artikel:
http://www.heise.de/newsticker/meldung/Preise-und-Spezikationen-der-Fermi-Grafikkarten-959845.html


Also die Teile sind definitiv Stromfresser hoch 3.


Die geben doch nur die Angaben von vr-zone wieder und keine eigenen Informationen. In dem Artikel wird auch nirgendwo geschrieben, daß die Angaben stimmen, es wird immer im Konjunktiv geschrieben oder von "laut vr-zone".

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7918028#post7918028


Da steht nichts zum idle-Verbrauch. Dem Beitrag von grafzahl an sich kann man auch nichts Nützliches entnehmen, der Satz kann sowohl einen Stromverbrauch leicht oberhalb einer GTX 275 meinen, wie auch einen in der Nähe der HD5890. Der frühere Kommentar bezüglich der Lautstärke (leise im idle, laut unter Last) hatte da noch mehr zu bieten, auch wenn es ebenfalls eine sehr schwammige Formulierung war.

Exxtreme
2010-03-21, 14:01:43
Und warum sollte man? Weil AMD so lieb und günstig ist? ;)

MfG,
Raff
Features, die in keinem Spiel Anwendung finden sehe ich nicht als relevant an, sry. Oder war Truform irgendwie ein wichtiges Feature? Und das fand sogar vereinzelt Verwendung.

tombman
2010-03-21, 14:02:10
1. korrekt, aber SLi ist trotzdem Mist, wenn auch nicht ganz so grosser wie CF. ;)
2. ATT
3. Stream
4. bald kommen die Physik Engines über OpenCL.... (Physik über GPU ist derzeit noch nichts, was man haben muss) ;)
5. Welchen nutzen bringt das genau dir?
1. Sli ist kein Mist, kann man super mit gamen
2. Nhancer >>> ATT
3. Zeig mir ein Spiel, was Effekte per Stream zeigt, die bei NV nicht sichtbar sind ;)
Es gibt VIELE Phys-X games mit zusätzlichen Effekten, die man bei ATI nicht zu sehen bekommt. FAKT.
4. vielleicht kommt auch "bald" der Weihnachtsmann :rolleyes: Jetzt ist nix da, aber Phys-X ist da. FAKT
5. Eben, daß ich Effekte sehe, die man bei ATI nicht sieht. NV schickt Leute hin und "hackt" Effekte rein, die
manchmal NUR mit NV Karten sichtbar sind. FAKT.

lilgefo~
2010-03-21, 14:06:32
5. Eben, daß ich Effekte sehe, die man bei ATI nicht sieht. NV schickt Leute hin und "hackt" Effekte rein, die
manchmal NUR mit NV Karten sichtbar sind. FAKT.

ie bessere Zusammenarbeit mit Devs hat vor Allem auch den Vorteil, dass viele Games besonders die, die nicht über Jahre von jeder Seite gebencht werden meißt auf nv Hardware besser laufen.

P.S.: ATT mit nhancer auf eine Stufe zu stellen sollte in diesem Forum eigtl nen 3 Tage Bann geben. ;)

dildo4u
2010-03-21, 14:10:27
1. Sli ist kein Mist, kann man super mit gamen
2. Nhancer >>> ATT
3. Zeig mir ein Spiel, was Effekte per Stream zeigt, die bei NV nicht sichtbar sind ;)
Es gibt VIELE Phys-X games mit zusätzlichen Effekten, die man bei ATI nicht zu sehen bekommt. FAKT.
4. vielleicht kommt auch "bald" der Weihnachtsmann :rolleyes: Jetzt ist nix da, aber Phys-X ist da. FAKT
5. Eben, daß ich Effekte sehe, die man bei ATI nicht sieht. NV schickt Leute hin und "hackt" Effekte rein, die
manchmal NUR mit NV Karten sichtbar sind. FAKT.
Ebend bei ATI gibts nur Versprechungen die 4800 Serie gibt's seit 2 Jahren,nix hat sich in Richtung Stream oder Open Source Physik und deren Nutzung in Games getan.Das einzige was genutzt und mit ATI zusammen von den Spieleentwicklern promotet wurde war DX11.

AnarchX
2010-03-21, 14:10:36
Features, die in keinem Spiel Anwendung finden sehe ich nicht als relevant an, sry. Oder war Truform irgendwie ein wichtiges Feature? Und das fand sogar vereinzelt Verwendung.
Truform ist wohl kaum vergleichbar mit der Zahl an GPU-PhysX-Spielen: http://physxinfo.com/
Sicherlich kann man die PhysX-Politik von NV deutlich kritisieren, aber wer in diesen Spiele alle Effekte sehen will, hat momentan keine andere Wahl.

Und die restlichen Vorteile die tombman genannt hat, sind ebenfalls von praktischer Natur.

Mit Just Cause 2 gibt es nun auch ein Spiel was CUDA für bestimmte Effekt fordert, was wohl dem geschuldet sein könnte, dass die ComputeShader 4.x Dokumentation vor einiger Zeit wohl sehr unbrauchbar war. CUDA hingegen bietet eine gute Dokumentation, Unterstützung in Form von NV-Mitarbeitern und ein breite HW-Basis. Durchaus denkbar, dass noch weitere Spiele mit Cuda-Effekten kommen.

Undertaker
2010-03-21, 14:11:01
1. Sli ist kein Mist, kann man super mit gamen
2. Nhancer >>> ATT
3. Zeig mir ein Spiel, was Effekte per Stream zeigt, die bei NV nicht sichtbar sind ;)
Es gibt VIELE Phys-X games mit zusätzlichen Effekten, die man bei ATI nicht zu sehen bekommt. FAKT.
4. vielleicht kommt auch "bald" der Weihnachtsmann :rolleyes: Jetzt ist nix da, aber Phys-X ist da. FAKT
5. Eben, daß ich Effekte sehe, die man bei ATI nicht sieht. NV schickt Leute hin und "hackt" Effekte rein, die
manchmal NUR mit NV Karten sichtbar sind. FAKT.

Ein für mich persönlich wichtiger Punkt ist noch, dass die Treiber sehr viel zeitnaher auf aktuelle Spiele optimiert sind. Was nützt es mir, wenn der Cat 10.3 Verbesserungen in Crysis o.ä. bringt, ich auf höhere fps in Metro aber noch ein halbes Jahr warten muss? Nvidia ist da meist etwas schneller.

AnarchX
2010-03-21, 14:12:25
Ein für mich persönlich wichtiger Punkt ist noch, dass die Treiber sehr viel zeitnaher auf aktuelle Spiele optimiert sind. Was nützt es mir, wenn der Cat 10.3 Verbesserungen in Crysis o.ä. bringt, ich auf höhere fps in Metro aber noch ein halbes Jahr warten muss? Nvidia ist da meist etwas schneller.
Neben den CF-Profilupdates gibt es bei AMD nun auch Single-GPU-Updates über den gleichen Weg.

Gast
2010-03-21, 14:15:02
IMO ist die GeForce GTX 280 der beste Kauf der letzten Jahre. Das Teil ist mit drei Klicks auf GTX-285-Niveau, fiept nicht so abartig wie das Refdesign des Nachfolgers und ist auch heute mit OC eine der schnellsten Single-GPU-Karten.

MfG,
Raff

weil man ja NUR die 280er GTX übertakten kann und die 5870er nicht. solche "mit OC" aussagen sind ziemlich idiotisch. es gitb glaub ich KEINE grafikkarte die man überhaupt nicht übertakten kann und stell dir vor, die 5870er kann man sogar außerordentlich gut übertakten!

Menace
2010-03-21, 14:15:25
Sicherlich kann man die PhysX-Politik von NV deutlich kritisieren, aber wer in diesen Spiele alle Effekte sehen will, hat momentan keine andere Wahl.


Wie sinnlos manche (!) Umsetzung von PhysX ist, zeigte doch der YouTube ausschnittes eines tanzenden Zettels aus Metro (Beiträge dazu finden sich wie das originalposting auf der Spielwiese).

Wer in Zukunft alle Effekte unabhängig von der Grafikkarte sehen möchte dürfte kein nvidia Produkt kaufen. Falls die GF100-Reihe so wird, wie von vielen befürchtet werde ich zumindest darin nicht in Versuchung geführt. :freak:

N0Thing
2010-03-21, 14:16:05
Es gibt VIELE Phys-X games mit zusätzlichen Effekten, die man bei ATI nicht zu sehen bekommt. FAKT.

Ab welcher Zahl fängt VIELE an? Ich finde die Anzahl der Spiele, die durch PhysX über die GPU zusätzliche Effekte anbieten sehr klein, dafür daß so viel Wirbel um das Thema gemacht wird.

Gast
2010-03-21, 14:18:29
gtx285/275 und selbst die GTX260 sind im moment viel zu teuer da beisst die maus kein faden ab

das liegt aber wohl auch daran das das auslaufmodelle sind, wo auch keine Unmengen mehr auf Lager liegen werden.

Das ändert aber nix daran das das Abfallmodell des RV870 in Form der 5850 eher bei <=200€ gepreist werden sollte und in Form der 5830 eher um die <=160€

zumindest wäre das der "normale" Lauf der Dinge gewesen

TJA, da dürfen sich alle bei Nvidia bedanken, dass dem nicht so ist. Weils die nicht gebacken bekommen haben, AMDs exzellenter DX11 Karten etwas entgegen zu setzen.

LovesuckZ
2010-03-21, 14:20:25
Ab welcher Zahl fängt VIELE an? Ich finde die Anzahl der Spiele, die durch PhysX über die GPU zusätzliche Effekte anbieten sehr klein, dafür daß so viel Wirbel um das Thema gemacht wird.

Ich finde alles über 0 seit Sommer 2008 sehr beachtlich. Ab diesem Zeitpunkt hat AMD nämlich Physik über OpenCL angekündigt.
Mir ist bewusst, dass AMD Fanboys AMD dafür feiern und nVidia kritisieren, dass sie mehr als 0 Anwendungen mit PhysX auf den Markt gebracht haben. Aber ich muss eben auch nicht alles verstehen, was einige sagen.

Gast
2010-03-21, 14:25:00
Ich finde alles über 0 seit Sommer 2008 sehr beachtlich. Ab diesem Zeitpunkt hat AMD nämlich Physik über OpenCL angekündigt.
Mir ist bewusst, dass AMD Fanboys AMD dafür feiern und nVidia kritisieren, dass sie mehr als 0 Anwendungen mit PhysX auf den Markt gebracht haben. Aber ich muss eben auch nicht alles verstehen, was einige sagen.

Mit einer HD 5870 kann man seit 6 Monaten D3D 11 genießen. Ob Battleforge, Dirt 2, Stalker CoP oder Metro 2033. Für einige ist PhysX aber wohl ein schwerwiegenderes Argument. :rolleyes:

Gast
2010-03-21, 14:25:06
*geblubber*

Oder, um es mit NV auszudrücken: YOU CAN HAVE IT ALL ;D

EXKLUSIV:
- Eyefinity
- SGSSAA
- DX11 (bis dato)

und vergessen hast du noch bei nvidia:
+ verspätungen am laufendem band
+ kundenverarschung hoch 14 mit endlosem rebranding
usw...

oder mit anderen worten: NV, wir sch*** auf die Kunden!

Gast
2010-03-21, 14:27:55
GPU-Physik ist im Prinzip eine schöne Geschichte die ich gerne weitverbreitet sehen würde, aber NV-PhysX ist definitiv der falsche Weg und für meine Kaufentscheidung vollkommen irrelevant.

Erstens gibt es viel zu wenige Spiele die auf GPU-PhysX setzen und noch dazu nur sehr wenige wirklich gute und interessante Titel. Desweiteren wird in den meisten dieser Games PhysX dermaßen schlecht und lieblos umgesetzt, dass selbst der optische Mehrwert fraglich ist ganz abgesehen von dem nicht vorhandenen spielerischen (siehe der "tanzende" Zettel).

Auch ist PhysX in bisheriger Form viel zu unperformant und dementsprechend die Anforderungen zu hoch. Das z.B. ein sowieso nur mittelmäßiges Game wie Dark Void allen ernstes eine GTX260 nur für PhysX braucht, kann ja wohl angesichts des optischen BQ-Gewinns nur ein schlechter Scherz sein.

y33H@
2010-03-21, 14:28:04
Rebranding gibt's bei AMD auch seit Jahren ... ist für den DAU egal und der der Ahnung hat, fällt nicht drauf rein. Es ist schlicht lästig.

lilgefo~
2010-03-21, 14:30:23
Eyefinity geht mit nv Karten auch nur brauchts da dann den Matrox Adapter aber das ist ja auch egal wenn man sich nen paar Monitore dazukauft. Supersampling (wenn auch nicht das Abtastmuster was ATI nutzt) gibs schon ewig bei NV sogar ohne das das Bild verwaschen wirkt und vor Allem die besseren Mischmodi.
:>

LovesuckZ
2010-03-21, 14:34:00
Mit einer HD 5870 kann man seit 6 Monaten D3D 11 genießen. Ob Battleforge, Dirt 2, Stalker CoP oder Metro 2033. Für einige ist PhysX aber wohl ein schwerwiegenderes Argument. :rolleyes:

Und in 2 Wochen gibt es Dx11 und GPU-PhysX auch für nVidia Kunden. Wieviele OpenCL-Physik Spiele werden dann wohl AMD Käufer haben? :D

Gast
2010-03-21, 14:34:00
Eyefinity ist aber nicht nur die Möglichkeit 3 Monitore mit einer Graka betreiben zu können, sondern das steckt schon einiges mehr dahinter.

lilgefo~
2010-03-21, 14:37:06
Eyefinity ist aber nicht nur die Möglichkeit 3 Monitore mit einer Graka betreiben zu können, sondern das steckt schon einiges mehr dahinter.

Weiß zwar grad nciht worauf du da hinaus willst aber aus einer Gamer Sicht um die es hier ja geht (v.A. tombman, den du ja zitiert hast ;) ) ist das ja das einzige Anwendungsgebiet für Eyefinity. Aber in dem Preisbereich wäre nen Projektor wahrscheinlich eh sinnvoller.

Spasstiger
2010-03-21, 14:38:26
Jopp, die Matrox-Lösung repräsentiert nur ein Feature von den vielen Möglichkeiten, die Eyefinity bietet. Und die Matrox-Lösung (Triple Head2Go) ist selbst in der Display-Port-Variante auf drei Monitoren mit 1680x1050 oder zwei Monitore mit 1920x1200 beschränkt und kostet fast soviel wie eine Radeon HD 5850.
Eine Bezelkorrektur fehlt der Matrox-Lösung auch.

N0Thing
2010-03-21, 14:39:54
Ich finde alles über 0 seit Sommer 2008 sehr beachtlich. Ab diesem Zeitpunkt hat AMD nämlich Physik über OpenCL angekündigt.
Mir ist bewusst, dass AMD Fanboys AMD dafür feiern und nVidia kritisieren, dass sie mehr als 0 Anwendungen mit PhysX auf den Markt gebracht haben. Aber ich muss eben auch nicht alles verstehen, was einige sagen.

Was hat AMD mit der Anzahl der GPU beschleunigten PhysX-Titel zu tun?
Was haben AMD Fanboys mit meinem Beitrag zu tun?

:|


AMD hat für den Endanwender in dem Bereich bis heute nichts auf die Beine gestellt, sie haben keine Firma aufgekauft um deren Technologie selber zu nutzen und haben auch keine Eigenentwicklung so weit, daß irgendein Spieleentwickler es einsetzen würde. Das ist aber Thema für einen anderen Thread.

Trotzdem sind 13 GPU-PhysX Spiele meiner Meinung nach kein allgemeiner Kaufgrund für eine Nvidia-Grafikkarte und eine Leistungssteigerung des GF100 in diesem Bereich deshalb auch nicht so relevant wie Leistung, Stromverbrauch, Lautstärke und BQ. Es ist eben eher zur Zeit ein Bonus, den man mitnehmen kann.

dildo4u
2010-03-21, 14:40:57
Mit einer HD 5870 kann man seit 6 Monaten D3D 11 genießen. Ob Battleforge, Dirt 2, Stalker CoP oder Metro 2033. Für einige ist PhysX aber wohl ein schwerwiegenderes Argument. :rolleyes:
Stalker und Metro kannste mit DX11 max vergessen mit deiner ATI.

Min fps 17 schon unter 1680*1050.
http://www.pcgameshardware.de/aid,699416/Stalker-Call-of-Pripyat-DirectX-11-im-Test-gegen-DirectX-10/Action-Spiel/Test/

12 bzw 13fps mit einer 5850,dann hat ne 5870 vieleicht 15 und 17fps.

http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX/Action-Spiel/Test/?page=2

Gast
2010-03-21, 14:45:15
Die letzten 4 Seiten kann man ungelesen löschen. Mein Gott ist das hier einfältig, unglaublich.

Gast
2010-03-21, 14:45:37
@dildo4u

Metro kannste als Spiel aber vergessen. Langweilig und wenig innovativ. Das hat ja nicht mal einen Multiplayer. Es sieht halt gut aus, und das wars schon fast. Wer wegen max. 10h Spiel seine Kaufentscheidung trifft, dem kann man nur gratulieren ;)

LovesuckZ
2010-03-21, 14:46:31
Was hat AMD mit der Anzahl der GPU beschleunigten PhysX-Titel zu tun?
Was haben AMD Fanboys mit meinem Beitrag zu tun?

:|


AMD hat für den Endanwender in dem Bereich bis heute nichts auf die Beine gestellt, sie haben keine Firma aufgekauft um deren Technologie selber zu nutzen und haben auch keine Eigenentwicklung so weit, daß irgendein Spieleentwickler es einsetzen würde. Das ist aber Thema für einen anderen Thread.

Trotzdem sind 13 GPU-PhysX Spiele meiner Meinung nach kein allgemeiner Kaufgrund für eine Nvidia-Grafikkarte und eine Leistungssteigerung des GF100 in diesem Bereich deshalb auch nicht so relevant wie Leistung, Stromverbrauch, Lautstärke und BQ. Es ist eben eher zur Zeit ein Bonus, den man mitnehmen kann.

Natürlich. Als AMD Fanboys wird man einfach alles negieren, was man nicht hat. Das ist erstmal nichts neues. Aber sobald man anfängt nVidia dafür zu kritisieren, dass es nur 13 GPU-PhysX Spiele gibt, dann finde ich es unerhöhrt. Denn 13 sind unendlich mal mehr als 0. Und diese 13 sind existent und bestehen nicht aus endlosen Slides und Papier, die alle 6 Monate mal wieder an die Öffentlichkeit weitergegeben werden.
Aber was schreibe ich: Leute wie du werden auch in Zukunft weiter AMD huldigen und nVidia für Initiative kritisieren. Nichts neues, in diesem Forum. :rolleyes:

Gast
2010-03-21, 14:50:42
Gerade du musst dich aufregen. Du könntest ja der AH der NV-Fanboys sein, aber alle die NV kritisch gegenüber stehen und nicht alles gleich kritiklos super finden müssen natürlich ATI-Fanboys sein. Solange NV Fans wie dich hat, müssen sie sich auch wirklich keine Mühe geben gute Produkte zu entwickeln.

Neocroth
2010-03-21, 14:52:08
Natürlich. Als AMD Fanboys wird man einfach alles negieren, was man nicht hat. Das ist erstmal nichts neues. Aber sobald man anfängt nVidia dafür zu kritisieren, dass es nur 13 GPU-PhysX Spiele gibt, dann finde ich es unerhöhrt. Denn 13 sind unendlich mal mehr als 0. Und diese 13 sind existent und bestehen nicht aus endlosen Slides und Papier, die alle 6 Monate mal wieder an die Öffentlichkeit weitergegeben werden.
Aber was schreibe ich: Leute wie du werden auch in Zukunft weiter AMD huldigen und nVidia für Initiative kritisieren. Nichts neues, in diesem Forum. :rolleyes:

sorry für OT:

ersetze "PhysX" durch "DX10.1" und AMD<->nVidia und lies den Text nochmal. Selbe Situation zu 4870/280 Zeiten.

@Ailuros: Bitte auch darum, die letzten 3 Seiten auf die Spielwiese zu schieben. Danke.

Gast
2010-03-21, 14:53:56
Wann fängt denn AMD mal an, gute Produkte zu entwickeln ?
Immer nur Preis/Leistungs Sieger sein is ja nicht so prickenlnd, oder ?

LovesuckZ
2010-03-21, 14:54:41
sorry für OT:

ersetze "PhysX" durch "DX10.1" und AMD<->nVidia und lies den Text nochmal. Selbe Situation zu 4870/280 Zeiten.


Huch, was hat 10.1 mit GPU-Physik zu tun? :confused:
Auch für dich: Seit Sommer 2008 hat AMD Physik über OpenCL angekündigt. Seit Sommer 2008 gibt es 13 GPU-PhysX Spiele.
Wer wird seit Sommer 2008 kritisiert? nVidia. Das ist schon an Absurdität nicht zu überbieten. ;D

N0Thing
2010-03-21, 14:54:59
Natürlich. Als AMD Fanboys wird man einfach alles negieren, was man nicht hat. Das ist erstmal nichts neues. Aber sobald man anfängt nVidia dafür zu kritisieren, dass es nur 13 GPU-PhysX Spiele gibt, dann finde ich es unerhöhrt. Denn 13 sind unendlich mal mehr als 0. Und diese 13 sind existent und bestehen nicht aus endlosen Slides und Papier, die alle 6 Monate mal wieder an die Öffentlichkeit weitergegeben werden.
Aber was schreibe ich: Leute wie du werden auch in Zukunft weiter AMD huldigen und nVidia für Initiative kritisieren. Nichts neues, in diesem Forum. :rolleyes:

Es ist hier weder angebracht andere zu beleidigen, noch Lügen zu verbreiten, das kannst du gerne via PM machen, dürfte hier sonst außer den Mods keinen interessieren.

Da du anderen immer so gerne empfiehlst, sie sollten lesen lernen und sich nicht abschreiben, kannst du mir in der PM gerne die Textstelle zitieren, in der ich Nvidia kritisiere. Viel Spaß beim suchen. :D

Gast
2010-03-21, 14:55:26
War die GTX 280 mit ihren 236 Watt TDP so unerträglich heiß und laut? Machen 14 Watt mehr TDP so viel aus?

Unerträglich nicht, aber doch relativ laut.
Mit einer leichten Spannungssenkung kam man aber schon recht schnell in den eher leisen Bereich.

Duplex
2010-03-21, 14:55:33
Wann fängt denn AMD mal an, gute Produkte zu entwickeln ?
Immer nur Preis/Leistungs Sieger sein is ja nicht so prickenlnd, oder ?

hast du Fieber?

HD5870 schnellste Single Karte der Welt seit 6-7 Monaten

Gast
2010-03-21, 14:56:23
Wann fängt denn AMD mal an, gute Produkte zu entwickeln ?
Immer nur Preis/Leistungs Sieger sein is ja nicht so prickenlnd, oder ?

LOL, der war gut. Sahnestück :D

urfaust
2010-03-21, 14:57:43
Du könntest ja der AH der NV-Fanboys sein

nö, das ist schon der kauzige "Maskulin" vom hardwareboard :

http://www.hardwareboard.eu/entry.php?4-Aufruf-Wir-werden-siegen!-Wir-sind-unbesiegbar

LovesuckZ ist lediglich ein gewöhnlicher Befehlsempfänger :freak:

Gast
2010-03-21, 14:58:03
hast du Fieber?

HD5870 schnellste Single Karte der Welt seit 6-7 Monaten

Is nun vorbei ....

grafzahl
2010-03-21, 14:59:01
Können wir zum eigentlich Thema zurück kommen?

Dieses Fanboy Gelaber ist unerträglich. Und alles versteckt sich hinter dem Gast Account. :(

Wie kann man testen welche AA-Bildmodis die 480GTX unterstützt?

Duplex
2010-03-21, 14:59:40
Is nun vorbei ....

was ist vorbei?
es wird noch schlimmer, schonmal was von 3200 Shader Chip von AMD gehört?

Gast
2010-03-21, 15:01:50
was ist vorbei?
es wird noch schlimmer, schonmal was von 3200 Shader Chip von AMD gehört?

Wie jetzt ? Die brauchen ernsthaft 3200 Shader um an 512 bzw. 480 NVIDIA-Shader ran zu kommen ?
Nich Dein Ernst, oder ?

Duplex
2010-03-21, 15:04:01
Wie jetzt ? Die brauchen ernsthaft 3200 Shader um an 512 bzw. 480 NVIDIA-Shader ran zu kommen ?
Nich Dein Ernst, oder ?

falsch, die werden mit 3200 Shader 50-60% vor der GTX480 liegen
die GTX480 ist nur 5-10% schneller als 5870

Gast
2010-03-21, 15:06:37
falsch, die werden mit 3200 Shader 50-60% vor der GTX480 liegen
die GTX480 ist nur 5-10% schneller als 5870
Ist das diese?
http://www.youtube.com/watch?v=wHBJSCMQLuQ&feature=player_embedded

Gast
2010-03-21, 15:06:53
falsch, die werden mit 3200 Shader 50-60% vor der GTX480 liegen
die GTX480 ist nur 5-10% schneller als 5870

Glaubst'de doch selber nich. Das Ding is von AMD. LOL

Undertaker
2010-03-21, 15:07:31
Welche 3200 SP Karte? Geschweige denn das dies im aktuellen Prozess zu fertigen wäre, dass würde auf Basis das aktuellen Designs auch ein ziemlicher Kolbenfresser werden - schon von der aktuellen Rechenleistung verpufft viel zu viel.

Shaft
2010-03-21, 15:08:10
NV kauft man nicht nur wegen den fps :rolleyes:

1.) SLI besser als CF
2.) Nhancer
3.) Cuda
4.) Phys-X
5.) NV Einfluß auf Game Devs ;)



Gründe warum ich bei Nvidia bleibe und zur 470GTX greife und wenn die Performance mit Tess wirklich besser ausfällt gegenüber AMD in der Spielpraxis, sowie PhysX, dann hat sich das warten gelohnt.

Verspätung hin oder her.

Gast
2010-03-21, 15:09:35
Auch ist PhysX in bisheriger Form viel zu unperformant und dementsprechend die Anforderungen zu hoch. Das z.B. ein sowieso nur mittelmäßiges Game wie Dark Void allen ernstes eine GTX260 nur für PhysX braucht, kann ja wohl angesichts des optischen BQ-Gewinns nur ein schlechter Scherz sein.


Das ist auch Blödsinn, eine 280GTX alleine reicht locker aus.

mironicus
2010-03-21, 15:12:35
Bin schon mal gespannt, was so passiert, wenn die GPU-Hersteller nicht mehr allein von TSMC abhängig sind.

Kann AMD da nicht von seinen eigenen (Ex-)Werken bzw. Global Foundries profitieren?

Gast23
2010-03-21, 15:12:37
Bis zu sechs Monitore an eine Grafikkarte anschliessen zu können, ist auch für professionelle Anwender interessant. Diese waren bisher auf teure Speziallösungen oder auf Bastellösungen mit mehreren Grafikkarten angewiesen.
Wenn Nvidia und dessen Boardpartner nicht auch Karten mit bis zu 6 Displayports anbieten, dann werden wohl einige Kunden deswegen zu AMD wechseln.
Nicht dass es beim Gesamtumsatz einen großen Unterschied machen würden, aber wenn die Kunden einmal weg sind und sich auf AMD eingestellt haben, müsste Nvidia schon etwas einzigartiges anbieten um sie zurück zu gewinnen.

LovesuckZ
2010-03-21, 15:16:05
Es ist hier weder angebracht andere zu beleidigen, noch Lügen zu verbreiten, das kannst du gerne via PM machen, dürfte hier sonst außer den Mods keinen interessieren.

Da du anderen immer so gerne empfiehlst, sie sollten lesen lernen und sich nicht abschreiben, kannst du mir in der PM gerne die Textstelle zitieren, in der ich Nvidia kritisiere. Viel Spaß beim suchen. :D


Es gibt VIELE Phys-X games mit zusätzlichen Effekten, die man bei ATI nicht zu sehen bekommt. FAKT.
4. vielleicht kommt auch "bald" der Weihnachtsmann :rolleyes: Jetzt ist nix da, aber Phys-X ist da. FAKT
T.

Ab welcher Zahl fängt VIELE an? Ich finde die Anzahl der Spiele, die durch PhysX über die GPU zusätzliche Effekte anbieten sehr klein, dafür daß so viel Wirbel um das Thema gemacht wird.

Du kritisierst nur (GPU)-PhysX. Überall, jederzeit.
Ich lese komischerweise keine negativen Äußerungen in Richtung AMD und ihrer "GPU-Physik über OpenCL" Ausrichtung. Die gibt es seit Sommer 2008.
Wie man 13 Spiele in Anbetracht von 0 als "wenig" und somit nicht als kaufentscheindend bezeichnen kann, ist natürlich nicht auf deine Neigung zu einer Firma zurückzuführen, gell? :D

Es gibt dieses Sprichwort:
Unter den Blinden ist der Einäugige König.

Vielleicht solltest du deine Kritik an GPU-PhysX solange zurückfahren, bis AMD ein reales Gegenprodukt hat.

AnarchX
2010-03-21, 15:16:45
Wie kann man testen welche AA-Bildmodis die 480GTX unterstützt?
Was offiziell ist, sollte im Treiber auswählbar sein.
Für inoffizielle Modi muss man den Weg gehen, den nHancer für die SSAA-Modi geht. Da nimmst du wohl am besten den Kontakt zu ihm auf: http://www.forum-3dcenter.org/vbulletin/member.php?u=11749

Ronny145
2010-03-21, 15:16:50
Es sind definitiv mehr als 5-10% Mehrleistung in dem Sinn hat Nvidia das Ruder herum reißen können ;)




Von welchem Treiber ausgehend, Cat 10.2? 10.3?

Odal
2010-03-21, 15:19:03
TJA, da dürfen sich alle bei Nvidia bedanken, dass dem nicht so ist. Weils die nicht gebacken bekommen haben, AMDs exzellenter DX11 Karten etwas entgegen zu setzen.


nvidia weil fermi sich so verzögert, tsmc weil die ihren prozess nicht im griff hatten und natürlich auch ati weil dort nur relativ lausige mehrleistung bei rauskam

als käufer ist man leider ziemlich schlecht dran zur zeit...kann man nur hoffen das die preisrutschs sich nur verzögern und man irgendwann mal ordentlich mehrleistung fürs geld bekommt

grafzahl
2010-03-21, 15:20:42
Was offiziell ist, sollte im Treiber auswählbar sein.
Für inoffizielle Modi muss man den Weg gehen, den nHancer für die SSAA-Modi geht. Da nimmst du wohl am besten den Kontakt zu ihm auf: http://www.forum-3dcenter.org/vbulletin/member.php?u=11749

Danke dir :)

Von welchem Treiber ausgehend, Cat 10.2? 10.3?

10.3a Preview Treiber.

tombman
2010-03-21, 15:21:14
EXKLUSIV:
- Eyefinity
- SGSSAA
- DX11 (bis dato)

und vergessen hast du noch bei nvidia:
+ verspätungen am laufendem band
+ kundenverarschung hoch 14 mit endlosem rebranding
usw...

oder mit anderen worten: NV, wir sch*** auf die Kunden!
-Eyefinity kriegst mit Nvidia auch:

http://www.abload.de/img/loaln95m.jpg

-sgssaa :
1. Hybridmodi bei NV
2. CSAA schneller bei NV (und glättet dort, wo mans braucht -> IQ > Holzhammer)
3. Ob NV sgssaa hat, weißt du noch nicht, erst am 27.3. ;)

-dx11:
Hat NV auch

NV verarscht vielleicht LOWEND Kunden (rebranding), aber die Enthusiasten sind ihre Lieblinge- war auch immer so :cool:

Neocroth
2010-03-21, 15:21:54
Huch, was hat 10.1 mit GPU-Physik zu tun? :confused:
Auch für dich: Seit Sommer 2008 hat AMD Physik über OpenCL angekündigt. Seit Sommer 2008 gibt es 13 GPU-PhysX Spiele.
Wer wird seit Sommer 2008 kritisiert? nVidia. Das ist schon an Absurdität nicht zu überbieten. ;D

Es geht um ein Feature, dessen Nutzen von vielen angezweifelt wird und von anderen hochgepriesen wird. Dass du nur eine Seite der Medaille siehst, ist mir klar. Ich habe nirgends explizit von GPU-beschleunigter Physik gesprochen, es ging mir um die Checklisten-Features, denn nichts anderes ist PhysX momentan. Bei einer Handvoll AAA-Titel ist es vermessen zu sagen, es ist das Killerkriterium für eine GeForce. Das selbe galt auch für DirectX10.1 und die 3000/4000er Serie. Von CUDA und Stream möchte ich (im Privatanwender-Bereich) gar nicht erst reden...

Gast
2010-03-21, 15:22:24
nvidia weil fermi sich so verzögert, tsmc weil die ihren prozess nicht im griff hatten und natürlich auch ati weil dort nur relativ lausige mehrleistung bei rauskam

als käufer ist man leider ziemlich schlecht dran zur zeit...kann man nur hoffen das die preisrutschs sich nur verzögern und man irgendwann mal ordentlich mehrleistung fürs geld bekommt

Sogar LovesuckZ hat mittlerweile schon zugegeben das Fermi ganz einfach zu spät fertig wurde, wäre schön wenn du das auch mal schaffen würdest. Cypress hatte sein Tapeout im Februar, Fermi irgendwann im Spätsommer. Da die Schuld auf TSMC zu schieben ist schon leicht lächerlich. NV hatte höchstens Glück das TSMC nicht genügend Ressourcen hatte so das AMD nicht genügend Karten liefern konnte.

Gast
2010-03-21, 15:24:30
Danke dir :)



10.3a Preview Treiber.

Für welche Seite arbeitest du Grafzahl?

Odal
2010-03-21, 15:24:58
Sogar LovesuckZ hat mittlerweile schon zugegeben das Fermi ganz einfach zu spät fertig wurde, wäre schön wenn du das auch mal schaffen würdest. Cypress hatte sein Tapeout im Februar, Fermi irgendwann im Spätsommer. Da die Schuld auf TSMC zu schieben ist schon leicht lächerlich. NV hatte höchstens Glück das TSMC nicht genügend Ressourcen hatte so das AMD nicht genügend Karten liefern konnte.


ähm was hab ich denn geschrieben? "weil fermi sich so verzögerte"

und natürlich hat tsmc auch schuld an der aktuellen marktsituation sonst hätte man cypress nich nur tröpfchenweise zu hohen preisen bekommen

wer spricht denn hier auch nur von nvidia ich bin anders als du vermutlich kein jünger eines hardwareherstellers...

TSMC hatte prozessprobleme daher gabs nix zypresse in ordentlichen mengen und zu ordentlichen preisen kapische?

das schlecht sein für GPU markt bzw. dessen Kunden? allet klar? dann is ja jut

grafzahl
2010-03-21, 15:27:09
Für welche Seite arbeitest du Grafzahl?

Hänge mich schon weit genug aus Fenster, die Antwort wäre mein Todesstoß ;)

Nazar
2010-03-21, 15:28:11
1. Sli ist kein Mist, kann man super mit gamen
2. Nhancer >>> ATT
3. Zeig mir ein Spiel, was Effekte per Stream zeigt, die bei NV nicht sichtbar sind ;)
Es gibt VIELE Phys-X games mit zusätzlichen Effekten, die man bei ATI nicht zu sehen bekommt. FAKT.
4. vielleicht kommt auch "bald" der Weihnachtsmann :rolleyes: Jetzt ist nix da, aber Phys-X ist da. FAKT
5. Eben, daß ich Effekte sehe, die man bei ATI nicht sieht. NV schickt Leute hin und "hackt" Effekte rein, die
manchmal NUR mit NV Karten sichtbar sind. FAKT.

1. Wenn CF Mist ist, dann mit Sicherheit auch SLi; das solltest Du als "Entdecker der MR wissen.
2. 90% aller Spieler nutzen diese Tools nicht! Welche Relevanz sollen die also haben?
3. und nun?
4-5. PhysX bringt keine Vorteile bei Spielen. Ähnlich "nützlich" wie DoF/Blur/etc. Effekte.
6. wäre ein Vorteil, nur sollte man vorsichtig sein. Wenn man dieses Vorgehen seitens nV unterstützt, kann es schnell passieren, dass nV, mangelns Konkurrenz, bald Mondpreise verlangen kann (man denke mal an die G80 Zeiten zurück).

Der einzige FAKT ist, dass nV nach über einen halben Jahr, einen riesigen Chip hat, der in keinem Verhältnis zum Zeitaufwand, Leistung und Verbauch steht!

Gast
2010-03-21, 15:29:37
Hänge mich schon weit genug aus Fenster, die Antwort wäre mein Todesstoß ;)

Dann mal ganz langsam: :)
Gibt es offizielles SGSSAA oder zumindest noch die alten Hybridmodi?
Wie sieht es mit dem idle-Verbrauch aus?
Wie hoch siehst du den Vorsprung zur 5870?

Labberlippe
2010-03-21, 15:29:38
Hi

Wie wieder von den üblichen Verdächtigen hier verzweifelt versucht wird einen Strohhalm mittels PhysX und Cuda zu ziehen.

Also was haben wir aktuell.

Eine 480er und 470er welche nicht die Leistung erbringen welche erhofft wurden.
So wie es aussieht kommt die erst gar nicht mit 512 Einheiten daher.
40-50% waren ja die ersten Traumzahlen hier.

Aktuelle Lage.

Enthusiast Lösung nada (Wie Tombman zu sagen pflegt.)
Midrange Chip - nada
Einsteiger Chips - nada
Notebook Chips - nada

Es ist zwar schön das nVIDIA jetzt was präsentiern kann, nur viel ausser die Testsampels und die paar Karten welche dann zu bekommen sind,
machen das Kraut auch nicht fett.
Die umgelabelten Karten zähle ich nicht.

Im Vergleich zu AMD steht nVIDIA alles andere als gut mit deren Produkt Sortiment da.
Kurz um, nVIDIA hat aktuell gar nichts um gegen das Produkt Sortiment von AMD anstinken zu können.
Das einzige was die aktuell an DX 11 Produkten anbieten ist die 480/470er und das ist eher traurig als die Krone für nVIDIA.

nVIDIA muss schleunigst in die Hufe kommen sonst lassen die dem Mitbewerber noch mehr Zeit und das ist gar nicht gut.

Gruss Labberlippe

mapel110
2010-03-21, 15:32:39
Labberlippe, solange ATI kaum Stückzahlen liefern kann, ist nichts verloren. Und laut Quartalszahlen hat das tolle Lineup nicht viel gebracht. nvidia konnte dagegen den alten Schrott sogar teurer loswerden, weil der Bedarf da war.

grafzahl
2010-03-21, 15:33:24
Dann mal ganz langsam: :)
Gibt es offizielles SGSSAA oder zumindest noch die alten Hybridmodi?
Wie sieht es mit dem idle-Verbrauch aus?
Wie hoch siehst du den Vorsprung zur 5870?

hab ich euch als Häppchen schon gepostet. ;)

tombman
2010-03-21, 15:35:59
1. Wenn CF Mist ist, dann mit Sicherheit auch SLi; das solltest Du als "Entdecker der MR wissen.
2. 90% aller Spieler nutzen diese Tools nicht! Welche Relevanz sollen die also haben?
3. und nun?
4-5. PhysX bringt keine Vorteile bei Spielen. Ähnlich "nützlich" wie DoF/Blur/etc. Effekte.
6. wäre ein Vorteil, nur sollte man vorsichtig sein. Wenn man dieses Vorgehen seitens nV unterstützt, kann es schnell passieren, dass nV, mangelns Konkurrenz, bald Mondpreise verlangen kann (man denke mal an die G80 Zeiten zurück).

Der einzige FAKT ist, dass nV nach über einen halben Jahr, einen riesigen Chip hat, der in keinem Verhältnis zum Zeitaufwand, Leistung und Verbauch steht!
1. Eben nicht. ich selbst hatte CF und SLI, und einige andere auch- die bestätigen meine Erfahrungen.
SLi ist besser und nutzbar.
2. Ich rede nur für Enthusis. Was noobs verstehen/können/nutzen oder nicht, ist mir egal.
3/4/5. Wenn ich mehr Effekte sehe, dann IST das ein Nutzen, egal wie sinnlos der Effekt ist. Abschalten kann ich immer noch.
6. Es ist mir auch egal, wieviel er verbraucht und wie heiß er wird. Gegen alles gibts Gegenmaßnahmen. (besseres NT, Wakü etc)

7. Die beste "Experience" und "Immersion" gibts nun mal bei NV.

NV HE = First Class
ATI HE = Business Class

Und ja, NV kostet mehr, man kriegt aber auch mehr. Ist das selbe wie mit Intel/AMD Cpus :cool:

Duplex
2010-03-21, 15:36:49
@Labberlippe
100% zustimmung

@mapel110
Bei Nvidia wird die Verfügbarkeit noch schlimmer als ATI

mapel110
2010-03-21, 15:38:43
@mapel110
Bei Nvidia wird die Verfügbarkeit noch schlimmer als ATI
Der Preis ist höher und es gibt Radeon als Alternative DX11-Lösung. Das sollte die Nachfrage spürbar senken gegenüber dem "Ansturm" auf die Radeons im September. Außerdem ist die Ausbeute seitdem gestiegen und es scheint derzeit mehr an den Kapazitäten zu scheitern.

sentinel_first
2010-03-21, 15:39:39
Was mich bei ATI (damals X1900xt, jetzt 4870) stört:

ständig Hotfix - Treiber (GTA4 usw.)
kein Hardware volumetrischer Rauch/Qualm (NFSU2, Grid, Stalker COP ins Wasser schießen )
Flimmerbugwelle wegen AA oder so

.. dafür darf die NV ruhig etwas mehr Strom verbraten und kommt ja eh wieder unter Wasser.
.. hab mit dem aktuell zurückgezogenem Treiber seitens NV nicht wirklich eine Temp-erhöhung erfahren ;D

Hofentlich hat die 480er ne PCB - Stabilisierung
http://www.abload.de/img/dsc07172h57l.jpg (http://www.abload.de/image.php?img=dsc07172h57l.jpg)

Allerdings lohnt sich der Umstieg von ner 285er nicht und im Sommer werde ich wohl wenig zöckeln, der Release - Zeitpunkt ist nicht sonderlich glücklich.

LovesuckZ
2010-03-21, 15:42:02
Non Disclosure Agreement

Es gibt eben noch ein paar Menschen, die das ernst nehmen. Das läuft doch eh in einer Woche aus, also mal kein Stress.

MfG,
Raff

Ich versteh's auch nicht: 5 tage und die Sache ist gegessen. Die sollte man eigentlich auch noch warten können.

Nightspider
2010-03-21, 15:47:42
Ich finde es immer wieder amüsant wie die Fanboys aus beiden lagern soviel Scheiße fabrizieren, wenn ein Launch vor der Tür steht.

Wieso könnt ihr nich noch ne Woche warten, ist alle Fakten bekannt sind.

Niemand weiß was Nvidia in einer Woche alles zeigen wird!

Am interessantesten dürfte imho sein, wie die Architektur mit neueren Spielen skalieren wird.
Immerhin könnte der Abstand bei neuen Spielen, mit hohen Polygonzahlen drastisch zugunsten Nvidias ausfallen.

Immer dieser verallgemeinerungen...5-10% !? Wo denn? Das lässt sich nicht verallgemeinern.
Es stimmt das Nvidia nach einem halben Jahr noch nichts im Low-und Midrange Bereich vorzeigen kann. Da hängt Nvidia schon hinterher aber das interessiert hier nicht. Hier geht es ausschließlich um die GTX 470 und GTX 480!
Zudem war es bisher immer so das die Lowend und Midrange Lösungen deutlich später kamen als die HighEnd-Produkte. Die 5000er Reihe ist eine ausnahme.

Gast
2010-03-21, 15:48:05
Im PCGH-Forum laufen auch mehr Ati-/AMD-Leute herum als Nvidia-Anhänger. Es gibt einfach viel mehr Rote als Grüne – oder die Grünen sind nicht ganz so redselig.

MfG,
Raff

Jau, und warum ? Weil der allgemeine Pöpel nur noch Geld für den Preis/Leistungssieger hat. Der Rest kauft halt Qualität von Nvidia bzw. Intel - so wie ich. Traurig, traurig.

Labberlippe
2010-03-21, 15:48:55
Labberlippe, solange ATI kaum Stückzahlen liefern kann, ist nichts verloren. Und laut Quartalszahlen hat das tolle Lineup nicht viel gebracht. nvidia konnte dagegen den alten Schrott sogar teurer loswerden, weil der Bedarf da war.

Hi

Schön und gut nur hat TMSC zwar noch immer deren Probleme ganz so astrein dürfte es ja noch immer nicht sein, auch wenn die nVIDIA User hier glauben das TMSC sofort für deren IHV alles stehen und liegen lässt.

Also ich sehe in letzter Zeit in den OEM Rechneren einiges an DX 11 Produkten von AMD auch im Notebook Bereich.
Die 57er Serie ist so gut wie bei allen Händleren lagernd auch die 5850 und5870 sind ohne nennenswerte Probleme zu bekommen.

nVIDIA muss schleunigst die Midrange und OEM Karten auf den Markt bringen sonst fängt jeder Monat schön langsam an weh zu tun.

Intel prescht auch fest im Netbooks Bereich mit und im "normalen" Segment sehe ich in letzter Zeit immer mehr AMD Karten verbaut.

nVIDIA hat Gott sei Dank einen guten Ruf, ansonsten würde das sehr haarig werden für nVIDIA, aber auf Dauer können die eine solche Situation auch nicht ohne Schaden überleben.

Gruss Labberlippe

Gast
2010-03-21, 15:50:47
Was ist den bitte bei AMD im Notebookbereich ?
Da läuft doch wohl fast gar nichts mehr.

HarryHirsch
2010-03-21, 15:51:10
Ich finde es immer wieder amüsant wie die Fanboys aus beiden lagern soviel Scheiße fabrizieren, wenn ein Launch vor der Tür steht.

Wieso könnt ihr nich noch ne Woche warten, ist alle Fakten bekannt sind.

Niemand weiß was Nvidia in einer Woche alles zeigen wird!

Am interessantesten dürfte imho sein, wie die Architektur mit neueren Spielen skalieren wird.
Immerhin könnte der Abstand bei neuen Spielen, mit hohen Polygonzahlen drastisch zugunsten Nvidias ausfallen.

Immer dieser verallgemeinerungen...5-10% !? Wo denn? Das lässt sich nicht verallgemeinern.
Es stimmt das Nvidia nach einem halben Jahr noch nichts im Low-und Midrange Bereich vorzeigen kann. Da hängt Nvidia schon hinterher aber das interessiert hier nicht. Hier geht es ausschließlich um die GTX 470 und GTX 480!
Zudem war es bisher immer so das die Lowend und Midrange Lösungen deutlich später kamen als die HighEnd-Produkte. Die 5000er Reihe ist eine ausnahme.

Njoar! :freak: Eine Never ending Story... Wenn Fermi dann draußen ist gehts im Speku-Thread zu ATIs neuen Chip weiter. ;D

Gast
2010-03-21, 15:52:45
Solche Feinseligkeiten gegenüber ATI als PCGH Mitarbeiter, sagt sehr viel über die wertigkeit der Tests aus :)

Da muss ich dir leider recht geben. Und da wundert man sich bei PCGH noch, dass einem fehlende Objektivität vorgeworfen wird...

Die Seite lese ich schon ewig nicht mehr, die taugt immer weniger.

Gast
2010-03-21, 15:52:46
der rechner steht bei tombman hinter der wand ...

Das heisst doch nichts, ich hör den Lüfter meines Destillators durch drei Wände. Gegen den 20W Radiallüfter der GTX480 ist der Lüfter eine sanfte Brise im Ohr. Bei Triple-Sli GTX480 denke ich an einen Kampfflugzeugstart.

dildo4u
2010-03-21, 15:53:25
Hi

Schön und gut nur hat TMSC zwar noch immer deren Probleme ganz so astrein dürfte es ja noch immer nicht sein, auch wenn die nVIDIA User hier glauben das TMSC sofort für deren IHV alles stehen und liegen lässt.


Natürlich NV hat selber gesagt das sie wesentlich mher Waffer bei TMSC bestellen.Und solche Kunden haben nunmal vorrang,war schon immer so und wird immer so sein egal in welchem Bereich.

Labberlippe
2010-03-21, 15:53:43
Jau, und warum ? Weil der allgemeine Pöpel nur noch Geld für den Preis/Leistungssieger hat. Der Rest kauft halt Qualität von Nvidia bzw. Intel - so wie ich. Traurig, traurig.

Hi

Wer sagt das Preis Leistungssieger keine Qualität haben?
Die Hersteller haben eine gute Qualität auch AMD.

Ich verstehe die Aussage nicht ganz.
Du darfst aber gerne erläutern was bei Dir Qualität ist.

Gruss Labberlippe

Duplex
2010-03-21, 15:54:49
Natürlich NV hat selber gesagt das sie wesentlich mher Waffer bei TMSC bestellen.Und solche Kunden haben nunmal vorrang,war schon immer so und wird immer so sein egal in welchem Bereich.

auf ein ATI Wafer passen 60-70% mehr Chips als ein Nvidia Wafer. Die Chips bei nvidia sind ziemlich groß.

Gast
2010-03-21, 15:55:35
Es sagt noch mehr über die Wertigkeit aus, wenn ein Post von einem anonymen Gast kommt :P

LOL als würde das IRGENDWAS machen ob man hier Mitglied ist, wer möchte schon Mitglied sein in einem Forum wo einer allein sich anmaßt zu beurteilen was stehen bleibt und was gemoved wird, LÄCHERLICH

Früher sagte man "wenn du sonst nix kannst, geh zum Bund, die nehmen jeden"

y33H@
2010-03-21, 15:58:06
Heute nehmen die auch nimmer jeden :P Mods?

dildo4u
2010-03-21, 15:59:58
auf ein ATI Wafer passen 60-70% mehr Chips als ein Nvidia Wafer. Die Chips bei nvidia sind ziemlich groß.
Das ist TMSC egal die verkaufen Waffer keine GPUs.Der Kunde hat vorrang der mher Waffer bestellt.

Gast
2010-03-21, 16:00:41
Heute nehmen die auch nimmer jeden :P Mods?

hat sich verlagert, der Bund wurde ersetzt durch PseudoHardwareIngeneure.
Arm, nur noch Arm

Labberlippe
2010-03-21, 16:02:22
Natürlich NV hat selber gesagt das sie wesentlich mher Waffer bei TMSC bestellen.Und solche Kunden haben nunmal vorrang,war schon immer so und wird immer so sein egal in welchem Bereich.
Hi

Das glaube ich nur nicht, ich zweifle stark daran das AMD einfach zum Spass weniger Waffer bestellt hat als nVIDIA.
Was nVIDIA sagt, das juckt mich nicht.
Die einzigen die das genau sagen können wäre TMSC.

Sollte nVIDIA ja eine solche Top Kundschaft sein, dann müssten die aber auch jetzt den Markt mit deren Karten überschwemmen können, aber so das man die Karten dann für ein Pelle und ein Ei bekommt.

Glaubt nicht immer jeden Schmarrn den ein IHV von sich abgibt.
Das gilt für beide Lager.

Gruss Labberlippe

Gast
2010-03-21, 16:02:52
Jau, und warum ? Weil der allgemeine Pöpel nur noch Geld für den Preis/Leistungssieger hat. Der Rest kauft halt Qualität von Nvidia bzw. Intel - so wie ich. Traurig, traurig.

Oh wow, ein Nerd-Snob der sich von der imaginären Masse durch seine ach so elitäre Hardware abgrenzt. Wie jämmerlich...

Ach ja: ich bin auch dafür dass die Moderation hier wieder mal ausmistet (mein Post inklusive).

LuXon
2010-03-21, 16:02:54
@y33H@

Stell doch einfach die Gast-Ignorieren-Funktion ein. Dann hast du auch Ruhe so wie ich :D

@Topic
So wie es jetzt gerade aussieht liegt die Karte in den Erwartungen, abgesehen vom Stromverbrauch. Allerdings müssen genaue Messungen das zuerst einmal zeigen.

Labberlippe
2010-03-21, 16:02:59
Das ist TMSC egal die verkaufen Waffer keine GPUs.Der Kunde hat vorrang der mher Waffer bestellt.

Hi

Woher weisst Du das?

Gruss Labberlippe

dildo4u
2010-03-21, 16:03:48
Hi

Das glaube ich nur nicht, ich zweifle stark daran das AMD einfach zum Spass weniger Waffer bestellt als nVIDIA.
Was nVIDIA sagt das juckt mich nicht die einzigen die das genau sagen können wäre TMSC.
Sollte laut nVIDIA ja eine solche Top Kundschaft sein dann müssten die aber auch jetzt dann den Markt mit deren Karten überschwemmen können, das man die Karten für ein Pelle und ein Ei bekommt.

Glaubt nicht immer jeden Schmarrn den ein IHV von sich abgibt.
Das gilt für beide Lager.

Gruss Labberlippe
Dazu muss man sich nur die Marktanteile angucken,da weiß man das NV mher bestellen muss.Ganz einfache Logik.

http://store.steampowered.com/hwsurvey/

Gast
2010-03-21, 16:06:32
als käufer ist man leider ziemlich schlecht dran zur zeit...kann man nur hoffen das die preisrutschs sich nur verzögern und man irgendwann mal ordentlich mehrleistung fürs geld bekommt


Ehrlich gesagt bin ich als Käufer ziemlich froh mit der jetzigen Situation ;)

ATI bietet mir im Moment nichts, was mich dazu veranlassen würde meine 280GTX abzulösen. Wie es aussieht wird Fermi das auch kaum schaffen können (und wenn dann wohl nur in der größten Ausführung die Traditionell überteuert ist), also kann ich mir das Geld für 6-12 Monate wohl sparen.

Wäre Fermi wirklich so schnell kommt wieder diese blöde "will haben Sucht" auf, und mein Geld wäre schon weg ;)

Gut, Metro muss dann eben auch 1 Jahr warten, aber der Geldtasche wird auch das nicht schaden ;)

LovesuckZ
2010-03-21, 16:09:53
Gut, Metro muss dann eben auch 1 Jahr warten, aber der Geldtasche wird auch das nicht schaden ;)

GTX480 hat 2,16x soviel MADD-Rechenleistung wie die GTX280. Das sollte sich fast 1:1 in Metro2033 auswirken, da eine GTX285 auch nur 50% schneller ist als eine GTX250 - also im selben Verhältnis wie die nutzbare Rechenleistung (MADD).
Ich hoffe aber, dass die Reveiwer jeder DX11 Spiel testen werden - AVP, Stalker, Dirt:2, Battleforge und Metro2033. Vorallen in Bezug auf Tessellation in AvP, Stalker und Metro2033.

Gast
2010-03-21, 16:10:12
Sogar LovesuckZ hat mittlerweile schon zugegeben das Fermi ganz einfach zu spät fertig wurde, wäre schön wenn du das auch mal schaffen würdest.

Es ist beides.

Fermi wurde zu spät fertig, das alleine hätte aber höchstens 2-3 Monate gekostet und wir hätten Fermi schon Ende letzten Jahres gesehen, anstatt des geplanten Termins im Herbst.

Die Verzögerung von Dezember bis heute (bzw. in naher Zukunft) ist aber alleine dem schlechten Prozess von TSMC zuzuschreiben.

Gast
2010-03-21, 16:10:27
Und die Orthografie der Gäste wird auch immer schlimmer. Nur der Content der Posts ist noch übler :ulol:

Ich vermute mal das der verdienst bei PCGH so gut ist, das du deine Stelle bei NV als Chefdesigner gekündigt hast.
Einfach mal zurück in die Realität kommen, da muss man sich auch nicht in Foren verstecken und dicke Arme machen. LOL

Btw, jetzt hast du es mir aber gegeben :)

Labberlippe
2010-03-21, 16:11:31
Dazu muss man sich nur die Marktanteile angucken,da weiß man das NV mher bestellen muss.Ganz einfache Logik.

http://store.steampowered.com/hwsurvey/


Hi

Also ist Deine ganze Argumentation auf Steam ausgelegt.

Ich frage mich wie Du durch Steam aufschlüsseln willst welcher IHV wieviel Waffer bei TMSC geordert hat.

Super ich warte lieber die Quartalszahlen von Peddy ab.
Nicht jeder zockt und loggt sich bei Steam ein.
Ich kann eher sehen das nVIDIA User mehr zocken als AMD User.
Das kann man auslegen wie man will.

Gruss Labberlippe

Armaq
2010-03-21, 16:11:36
Laut der Steam-Umfrage kann es gar nicht mehr ATI-Fanboys geben. Verhältnis ist 70 zu 30.

Damit wir noch ein wenig Weihrauch versprühen können, hat denn jmd. die kommende Highlights auf dem Radar, welche auch von den neueren Features profitieren?

Raff
2010-03-21, 16:12:35
GTX480 hat 2,16x soviel MADD-Rechenleistung wie die GTX280. Das sollte sich fast 1:1 in Metro2033 auswirken, da eine GTX285 auch nur 50% schneller ist als eine GTX250 - also im selben Verhältnis wie die nutzbare Rechenleistung (MADD).
Ich hoffe aber, dass die Reveiwer jeder DX11 Spiel testen werden - AVP, Stalker, Dirt:2, Battleforge und Metro2033. Vorallen in Bezug auf Tessellation in AvP, Stalker und Metro2033.

In Metro 2033 wird sich auch der größere Videospeicher und dessen (hoffentlich) effizientere Nutzung auszahlen. Ich sehe da mehr als schnöde +100 Prozent in 1.920x1.200+. :D

MfG,
Raff

Gast
2010-03-21, 16:13:21
Die Verzögerung von Dezember bis heute (bzw. in naher Zukunft) ist aber alleine dem schlechten Prozess von TSMC zuzuschreiben.

Jaja, immer die andere sind schuld. Nvidia hat doch bereits bestätigt, dass sich Fermi verschoben hat, weil man Verbesserungen angestellt hat.

mapel110
2010-03-21, 16:13:50
In Metro 2033 wird sich auch der größere Videospeicher und dessen (hoffentlich) effizientere Nutzung auszahlen. Ich sehe da mehr als schnöde +100 Prozent in 1.920x1.200+. :D

MfG,
Raff
Und mit 8xAA sowieso. Aber dann sollte man eh im einstelligen fps-Bereich sein.

Nightspider
2010-03-21, 16:14:17
In Metro 2033 wird sich auch der größere Videospeicher und dessen (hoffentlich) effizientere Nutzung auszahlen. Ich sehe da mehr als schnöde +100 Prozent in 1.920x1.200+. :D

MfG,
Raff

Ist das jetzt ne Spekulation oder ne Tatsache? :D

Raff
2010-03-21, 16:15:38
Ist das jetzt ne Spekulation oder ne Tatsache? :D

Eine realistisch anmutende Spekulation. ;) Eine GTX 285/2G sollte auch ganz gut regeln ...

MfG,
Raff

Bioshock
2010-03-21, 16:16:11
Ist das jetzt ne Spekulation oder ne Tatsache? :D

Ich denke letzteres ;)

mfg

y33H@
2010-03-21, 16:16:14
Naja, Fermi kann ja ins RAM adressieren usw., ergo ist der "VRAM-Bug" den es seit G80 bis GT200 gab, wohl behoben. Dazu noch 1,5G und die VRAM-Fresser können kommen. Eine 2G-HD5870 ist rein aus VRAM-Sicht aber trotzdem besser. Nur kann die kein AA in Stalker SoC ;(

Dural
2010-03-21, 16:16:20
Jau, und warum ? Weil der allgemeine Pöpel nur noch Geld für den Preis/Leistungssieger hat. Der Rest kauft halt Qualität von Nvidia bzw. Intel - so wie ich. Traurig, traurig.

so ist es... auch dieses mal wird ein GF100 3-Way SLI das Mass aller dinge sein...

grafzahl
2010-03-21, 16:16:52
Raff Post :)

Ja 8xAA liegt den Nvidias ganz gut.

LovesuckZ
2010-03-21, 16:17:32
In Metro 2033 wird sich auch der größere Videospeicher und dessen (hoffentlich) effizientere Nutzung auszahlen. Ich sehe da mehr als schnöde +100 Prozent in 1.920x1.200+. :D

MfG,
Raff

Gucke ich mir eure 1920x1200 Ergebnisse an, sehe ich kein Problem mit 1GB Speicher: http://www.pcgameshardware.de/aid,706590/Metro-2033-Grafikkarten-Benchmarks-mit-DirectX-11-und-GPU-PhysX/Action-Spiel/Test/?page=2

Es kommt alleinig auf die Rechenleistung drauf an. Schlägt sie sich bei GTX480 wie auch bei Cypress 1:1 durch, müsste GTX480 ca. 52FPS schaffen und wäre somit ca. 27% schneller als die 5870.
Mal sehen.

y33H@
2010-03-21, 16:19:30
Da ist auch kein MSAA an ...

Nightspider
2010-03-21, 16:19:33
Naja, Fermi kann ja ins RAM adressieren usw., ergo ist der "VRAM-Bug" den es seit G80 bis GT200 gab, wohl behoben. Dazu noch 1,5G und die VRAM-Fresser können kommen. Eine 2G-HD5870 ist rein aus VRAM-Sicht aber trotzdem besser. Nur kann die kein AA in Stalker SoC ;(

Deswegen wünsche ich mir auch eine 3GB Variante. Da ey kein überteuert-schneller GDDR5 Speicher verbaut wird sollten sich die Kosten in Grenzen halten.

Ihr wart doch bei CryTek oder? Gabs da Infos zum VRAM verbrauch bei Crysis´2? Bzw. sahen die Texturen noch besser aus als in Crysis1?

Gast
2010-03-21, 16:20:59
In Metro 2033 wird sich auch der größere Videospeicher und dessen (hoffentlich) effizientere Nutzung auszahlen. Ich sehe da mehr als schnöde +100 Prozent in 1.920x1.200+. :D

MfG,
Raff

Ich kann echt nicht verstehen, wieso alle immer von Metro reden. Das Spiel ist doch eher durchschnittlich:

http://www.gamestats.com/objects/849/849120/

Bei IGN UK hat es gerade mal ein passabel bekommen und eine 6.9 von 10:

http://uk.pc.ign.com/articles/107/1078922p1.html

Also es sieht wohl echt top aus, aber das ist doch echt nicht alles. Als Benchmark grad so geeignet, das wars aber dann schon fast. Ich finde für die realistische Einschätzung einer GPU sollten vor allem Spiele benutzt werden, die von vielen gespielt werden wie COD, BF oder WOW nur so als Beispiele.

y33H@
2010-03-21, 16:21:00
@ Nightspider

Bei Crytek gab's offiziell nur die 360-Version zu sehen, ergo abwarten.

LovesuckZ
2010-03-21, 16:21:24
Da ist auch kein MSAA an ...

Das habe ich auch nirgends geschrieben. Aber ihr habt auch keine AA Ergebnisse gemessen. Und anhand des Ergebnisses der 5850 sehe ich keinen VRAM Mangel in 1680x1050.

Undertaker
2010-03-21, 16:23:28
Bei ~40fps besteht aber auch nicht wirklich Potential für zusätzliches AA.

tombman
2010-03-21, 16:24:12
Krüsis 2 soll doch schwächere HW-Anforderungen als C1 haben, oder? Von daher ist da eher weniger zu erwarten...

Armaq
2010-03-21, 16:24:22
Ich kann echt nicht verstehen, wieso alle immer von Metro reden. Das Spiel ist doch eher durchschnittlich:

http://www.gamestats.com/objects/849/849120/

Bei IGN UK hat es gerade mal ein passabel bekommen und eine 6.9 von 10:

http://uk.pc.ign.com/articles/107/1078922p1.html

Also es sieht wohl echt top aus, aber das ist doch echt nicht alles. Als Benchmark grad so geeignet, das wars aber dann schon fast. Ich finde für die realistische Einschätzung einer GPU sollten vor allem Spiele benutzt werden, die von vielen gespielt werden wie COD, BF oder WOW nur so als Beispiele.
Das Spiel kann für den Tester nichts. Ich finde es ziemlich gut und von der Erzählweise und Geschichte an sich definitiv Oberklasse. Es hat gewisse Mängel, aber die fielen mir nicht so auf.

Gast
2010-03-21, 16:24:47
Ich finde für die realistische Einschätzung einer GPU sollten vor allem Spiele benutzt werden, die von vielen gespielt werden wie COD, BF oder WOW nur so als Beispiele.
http://extreme.pcgameshardware.de/quickpolls/87625-welche-spiele-sind-bei-vga-benches-fuer-euch-am-wichtigsten.html

Ich glaube, die meisten benutzen wir auch.

-Carsten

Gast
2010-03-21, 16:24:49
GTX480 wird genauso zu langsam für Metro 2033 mit DX11 und MSAA sein, wie HD5870 auch.

Labberlippe
2010-03-21, 16:24:59
Jaja, immer die andere sind schuld. Nvidia hat doch bereits bestätigt, dass sich Fermi verschoben hat, weil man Verbesserungen angestellt hat.

Hi

Naja da hat leider alles zusammen gepasst, gut ist das ganze dennoch nicht.
Für beide Hersteller ist so etwas immer ungut und förderlich ganz sicher nicht, wenn nVIDIA wieder das gebacken bekommt dann ist das ok.

Lästig halt keine Frage
Aber eingie glauben das man einfach so einen Grafikchip aus dem Ärmel schüftteln kann.

Beide Hersteller haben Ihre Vor und Nachteile nur wie manche hier Argumentieren, da muss man ja Angst haben eine AMD zu verbauen.

Ich pfeife auf Phys X und Cuda weil es mir in der Praxis nichts bringt, dafür bringt mir Eyefinity b.z.w deren Fähigkeiten im Multimonitor Bereich mehr als das was nVIDIA bieten kann.

Mir leuchtet es nicht ein das eine Funktion von einen anderen Hersteller als sinnlos abgestempelt weil man diese nicht selbst benötigt.

Ich sehe beide Hersteller als nahezu gleichwertig beide haben halt eine andere Gewichtung bei den Funktionen.



Gruss Labberlippe

Gast
2010-03-21, 16:25:26
Jaja, immer die andere sind schuld. Nvidia hat doch bereits bestätigt, dass sich Fermi verschoben hat, weil man Verbesserungen angestellt hat.

Nvidia hat sich für eine neue Generation Verbesserungen ausgedacht? Aber so was Abartiges, wie kommen sie nur auf solche Ideen.

Und ja, diese Verbesserungen, genauer gesagt das halten der Konsistenz in der Renderpipeline mit dem aufgesplitteten Setup, haben mehr Zeit gekostet als erwartet. Das sind genau jene 2-3 Monate bis Dezember.

Der Chip wäre im Dezember Fertig gewesen, TSMC war es aber nicht.

Spasstiger
2010-03-21, 16:27:56
Krüsis 2 soll doch schwächere HW-Anforderungen als C1 haben, oder? Von daher ist da eher weniger zu erwarten...
Crytek wird max. Details aufm PC schon so hochschrauben, dass zwei GTX 480 in FullHD mit AA voll gefordert werden. ;)
Das Global Illumination bietet jedenfalls das Potential zum Performancefresser, auch wenn man sehr gut optimierte Varianten für die Konsolen entwickelt hat (wobei die PS3 das Global Illumination nur in halber Auflösung gegenüber der Xbox 360 rendert).

Nightspider
2010-03-21, 16:28:08
Krüsis 2 soll doch schwächere HW-Anforderungen als C1 haben, oder? Von daher ist da eher weniger zu erwarten...

Das bezieht sich aber nur auf gleiche Details. Und Crysis 2 sieht auf Mittel wahrscheinlich so gut aus wie Crysis 1.

Sry 4 Offtopic

y33H@
2010-03-21, 16:28:36
Krüsis 2 soll doch schwächere HW-Anforderungen als C1 haben, oder? Von daher ist da eher weniger zu erwarten... Liegt aber mehr an der verbesserten Technik denn an abgespeckten Texturen ;)
GTX480 wird genauso zu langsam für Metro 2033 mit DX11 und MSAA sein, wie HD5870 auch. Ah ja? :rolleyes:

cR@b
2010-03-21, 16:28:49
GTX480 wird genauso zu langsam für Metro 2033 mit DX11 und MSAA sein, wie HD5870 auch.

Jo, weil die Engine von Metro suckt ;) Vergleicht lieber bei Crysis die ist wenigstens sauber programmiert!

Gast
2010-03-21, 16:30:04
http://extreme.pcgameshardware.de/quickpolls/87625-welche-spiele-sind-bei-vga-benches-fuer-euch-am-wichtigsten.html

Ich glaube, die meisten benutzen wir auch.

-Carsten

Das bestreitet ja keiner. Die Frage ist halt wie stark die einzelnen Benchmarks in das finale Rating einfließen sollten. Ich finde populärere Spiele sollten vieleicht stärker gewichtet werden, da die Funktion der Karten in diesen Spielen vieleicht für den Käufer interessanter ist als für Spiele, die nur als Benchmark herangezogen werden.

Gast
2010-03-21, 16:31:17
Ich kann echt nicht verstehen, wieso alle immer von Metro reden. Das Spiel ist doch eher durchschnittlich:




Average 8.0 ist jetzt nicht sooo schlecht.

Aber wieso alle von Metro reden?

1. Es stammt von einem Großteil des Stalker-Teams und Stalker war schon genial.

2. Die Previews machen sehr viel Lust auf mehr.

Zugegebenermaßen könnte das ganze natürlich ein Blender sein, aber ohne es gespielt zu haben kann man das auch nicht wissen, und nach irgendwelchen Kriterien muss man ja seine Spiele aussuchen.

mapel110
2010-03-21, 16:31:51
Raff Post :)

Ja 8xAA liegt den Nvidias ganz gut.
Kannst du das zum AF sagen? Ist die Qualität gleich geblieben oder schlechter?

Gast
2010-03-21, 16:33:52
Kannst du das zum AF sagen? Ist die Qualität gleich geblieben oder schlechter?


Und vor allem, kostet HQ noch immer (fast) nix.

Gast
2010-03-21, 16:34:08
Das bestreitet ja keiner. Die Frage ist halt wie stark die einzelnen Benchmarks in das finale Rating einfließen sollten. Ich finde populärere Spiele sollten vieleicht stärker gewichtet werden, da die Funktion der Karten in diesen Spielen vieleicht für den Käufer interessanter ist als für Spiele, die nur als Benchmark herangezogen werden.

Für die Käufer simd immer die Games am interessantesten die sie spielen.
Und ganz neue werden seltener gespielt.
Um so breiter die Palette um so besser.

AwesomeSauce
2010-03-21, 16:35:40
Und vor allem, kostet HQ noch immer (fast) nix.
Garantiert weniger als A.I off:freak: *scnr*

Raff
2010-03-21, 16:36:28
Garantiert weniger als A.I off:freak: *scnr*

Naja, A.I. Off ist eine Farce, es flimmert und banded ja immer noch. Wenn da was einbricht, dann weil irgendwelche Bugfixes ausgeschaltet werden ...

MfG,
Raff

LovesuckZ
2010-03-21, 16:37:12
Bei ~40fps besteht aber auch nicht wirklich Potential für zusätzliches AA.

Ja, eine GTX480 wäre mit spekulativen 52 FPS auch kein Anwärter für AA, wenn der Einbruch genauso groß wäre wie bei der 5850 in 1680x1050.
Um weiter mit den spekulativen 52 FPS und Tessellation ein bisschen zu spielen:
Die 5850 bricht um 72% (avg) bzw. 86%(min) ein. Eine 5870 würde beim selben Einbruchsverhältnis in 1920x1200 nur noch 26,37 bzw. 18,86 FPS schaffen. Wenn eine GTX480 nur um 30% mit Tessellation einbricht, hätte sie 44,2 (bzw. 35,9 FPS). Das macht die Karte dann nicht mehr 27% schneller sondern 70%.

y33H@
2010-03-21, 16:42:38
Metro 2033 ist der Show-Case-Titel für Fermi. Hier muss er herrschen, sonst ist's ein Epic Fail ;)

Gast
2010-03-21, 16:43:52
Average 8.0 ist jetzt nicht sooo schlecht.

Aber wieso alle von Metro reden?

1. Es stammt von einem Großteil des Stalker-Teams und Stalker war schon genial.

2. Die Previews machen sehr viel Lust auf mehr.

Zugegebenermaßen könnte das ganze natürlich ein Blender sein, aber ohne es gespielt zu haben kann man das auch nicht wissen, und nach irgendwelchen Kriterien muss man ja seine Spiele aussuchen.

http://www.gametrailers.com/video/review-metro-2033/63405

Ein Spiel ohne Multiplayer sollte wenigstens eine gute KI haben, aber genau das scheint ein Problem zu sein. Daher, nein danke.

AwesomeSauce
2010-03-21, 16:46:44
Metro 2033 ist der Show-Case-Titel für Fermi. Hier muss er herrschen, sonst ist's ein Epic Fail ;)
Metro 2033 scheint ziemlich Shader lastig zu sein. Wenn GF100 hier herrscht, dann auch in anderen Shader lastigen Titeln. Auch das parallele Tri-Setup sollte bei Metro 2033 einiges bewirken - zumindest optisch sehen die Models sehr Polygon reich aus (auch ohne Tessellation).
Fermi birgt einige Überraschungen - schöne und weniger schöne.
"weniger schöne" = Stromverbrauch - "schöne" wage ich nicht zu spekulieren. Zu viel Ungewissheit...

y33H@
2010-03-21, 16:54:41
Wir wollen uns mal nicht zu sehr auf die "Shader-Lastigkeit" stürzen ...

AwesomeSauce
2010-03-21, 16:59:33
Euch muss man aber auch alles aus der Nase ziehen:freak:

tombman
2010-03-21, 17:02:35
Liegt aber mehr an der verbesserten Technik denn an abgespeckten Texturen ;)

Erzählen können die viel, wenn der Tag lang ist ;)

Ich glaubs erst, wenn die Polys/Frame und die Texturschärfe gleich sind, die fps aber höher :)

Zur Not importiert man eine C1 map in den C2 Editor und checkt es :biggrin:
(falls das geht)

Raff
2010-03-21, 17:02:41
Euch muss man aber auch alles aus der Nase ziehen:freak:

Ab einem bestimmten Datum steigt die Auskunftsfreudigkeit einiger Leute hier gewiss stark an. :naughty:

MfG,
Raff

Gast
2010-03-21, 17:07:26
Also ich entnehme den unterschwelligen Andeutungen mal, dass in Metro 2033 GF100 auftrumpfen wird. Gut sollte ja auch so sein, denn das Game ist ja praktisch auf die Stärken von GF100 hinoptimiert worden, obwohl ich mir auch vorstellen könnte, dass AMD vielleicht noch über Treiberoptimierungen leistungsmäßig etwas rausholen kann.

Mit diesen FC2 Werten habe ich so meine Probleme, zumal ich auch generell finde, dass das Game doch langsam mal aus den Bencharkours verschwinden sollte. Dieser Meinung bin ich allerdings schon länger, weil dieses Game wahrscheinlich für die meisten keine Relevanz mehr hat oder gibt es da eine große und aktive Community?

y33H@
2010-03-21, 17:08:46
FC2 ist imo tot.

AwesomeSauce
2010-03-21, 17:09:04
Ab einem bestimmten Datum steigt die Auskunftsfreudigkeit einiger Leute hier gewiss stark an. :naughty:

Das hoffe ich doch sehr;)

In eurem Nvidia-Paket war offensichtlich nur eine Karte verpackt, höchstwahrscheinlich die GTX480. Kommt die GTX470 erst später? Ach, was mach ich mir vor, wenn darauf eine eindeutige Antwort folgt, fresse ich einen (Schokolade-)Besen:freak:

DrFreaK666
2010-03-21, 17:15:26
Das hoffe ich doch sehr;)

In eurem Nvidia-Paket war offensichtlich nur eine Karte verpackt, höchstwahrscheinlich die GTX480. Kommt die GTX470 erst später? Ach, was mach ich mir vor, wenn darauf eine eindeutige Antwort folgt, fresse ich einen (Schokolade-)Besen:freak:

Eine 470 könnte man imho simulieren (Taktänderung)

Mayk-Freak
2010-03-21, 17:16:10
Ein Spiel ohne Multiplayer sollte wenigstens eine gute KI haben, aber genau das scheint ein Problem zu sein. Daher, nein danke.

Multiplayer brauch ich nicht. Gameplay, Grafik, Sound und Atmosphäre stimmen. Bei Amazon konnte man Metro ja auch für ca. 23 € kaufen.

Gast
2010-03-21, 17:17:59
Eine 470 könnte man imho simulieren (Taktänderung)
Nein, dann kann man gleich schätzen und braucht nicht testen.

y33H@
2010-03-21, 17:18:53
@ DrFreaK666

Nur per BIOS wäre sinnvoll ;) SMs abschalten und so.

fizzo
2010-03-21, 17:19:46
Eine 470 könnte man imho simulieren (Taktänderung)

Mich interessiert jedoch viel mehr wie der "kleine" Lüfter (http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Alles-zu-GF100-Update-Finale-Specs-geleakt/Grafikkarte/News/bildergalerie/bildergalerie/bildergalerie/?iid=1257487) der 470 in Natura klingt und welche Temperaturen damit einhergehen....

Gast
2010-03-21, 17:22:00
Den Verbrauch der GTX 470 zu simulieren wäre auch schwer ;)

tombman
2010-03-21, 17:25:21
Ich bin gespannt, ob überhaupt SLI, oder sogar TRI-SLI Benchmarks kommen werden. Ich sag eher "nein ", da zuwenige samples :(

Gast
2010-03-21, 17:28:20
Jo, weil die Engine von Metro suckt ;) Vergleicht lieber bei Crysis die ist wenigstens sauber programmiert!

Crysis gut programmiert ? *lacht*

mapel110
2010-03-21, 17:29:01
Ich bin gespannt, ob überhaupt SLI, oder sogar TRI-SLI Benchmarks kommen werden. Ich sag eher "nein ", da zuwenige samples :(
Bei PCGH sah das jedenfalls im Video nach nur einer Karte aus?! Nicht mal 480 und 470 im Karton gewesen?!

y33H@
2010-03-21, 17:30:39
Die GTX 480 lässt sich per Schalter in eine GTX 470 umwandeln, dabei werden automatisch SMs deaktiviert und der Takt sowie die VGPU reduziert.

Bei der GTX 470 ist es umgekehrt - das ist es, was NV als OC-Feature verkaufen wird :ulol:

Gast
2010-03-21, 17:40:46
Soll das ein Scherz sein?

DrFreaK666
2010-03-21, 17:41:00
Nein, dann kann man gleich schätzen und braucht nicht testen.

afaik wurde schon einiges simuliert (CPUs, langsamere GPUs)
besser als schätzen ist es allemal

fizzo
2010-03-21, 17:41:48
Die GTX 480 lässt sich per Schalter in eine GTX 470 umwandeln, dabei werden automatisch SMs deaktiviert und der Takt sowie die VGPU reduziert.


Das ist für mich leider unbefriedigend :(

Mich interessiert jedoch viel mehr wie der "kleine" Lüfter (http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Alles-zu-GF100-Update-Finale-Specs-geleakt/Grafikkarte/News/bildergalerie/bildergalerie/bildergalerie/?iid=1257487) der 470 in Natura klingt und welche Temperaturen damit einhergehen....

Ein Schelm wer sich bei dieser Vorgehensweise von NV böses dabei denkt! An mangelder Hardware kann es IMHO nicht liegen - immerhin bekommt MSI Griechenland allein 40 Stück :ugly:

Spasstiger
2010-03-21, 17:43:46
Die GTX 480 lässt sich per Schalter in eine GTX 470 umwandeln, dabei werden automatisch SMs deaktiviert und der Takt sowie die VGPU reduziert.
Nett, lässt dann aber keine Rückschlüsse auf den GTX-470-Referenzkühler zu.

Bei der GTX 470 ist es umgekehrt - das ist es, was NV als OC-Feature verkaufen wird :ulol:
Eine Turbo-Taste aufm PCB? :freak:

LovesuckZ
2010-03-21, 17:46:14
Die GTX 480 lässt sich per Schalter in eine GTX 470 umwandeln, dabei werden automatisch SMs deaktiviert und der Takt sowie die VGPU reduziert.


Es ist zwar Sarkasmus, aber:
Ist das ernst gemeint?

DrFreaK666
2010-03-21, 17:47:46
Es ist war Sarkasmus, aber:
Ist das ernst gemeint?

Wäre nett wenn es so wäre.
Wenn man nciht die Leistung der 480 benötigt dann kann man auf die 470 umschalten, der Lüfter dreht langsamer und man spart Stromkosten

Ronny145
2010-03-21, 17:49:16
Wenn es so wäre, hätte es es wegen NDA nicht verraten oder es wäre schon lange bekannt. Ich glaube das nicht.

DrFreaK666
2010-03-21, 17:49:58
Wenn es so wäre, hätte es es wegen NDA nicht verraten oder es wäre schon lange bekannt. Ich glaube das nicht.

ich auch nicht

Gast
2010-03-21, 17:50:16
Man Leute das ist Quatsch mit Soße³!

DrFreaK666
2010-03-21, 17:52:27
so entstehen Gerüchte :wink:

Spasstiger
2010-03-21, 17:57:11
Wenn es stimmt, dann hat die PCGH wohl ein Engineering Sample oder ein speziell präpariertes Testsample bekommen. In Serie geht das Feature natürlich nicht.

Ronny145
2010-03-21, 17:58:42
Wenn es stimmt, dann hat die PCGH wohl ein Engineering Sample oder ein speziell präpariertes Testsample bekommen. In Serie geht das Feature natürlich nicht.


Du meinst jede Redaktion hat jetzt ein Engineering Sample erhalten, welches es so im Handel nicht geben wird? Auch das glaube ich nicht.

y33H@
2010-03-21, 17:58:46
Beim nächsten Mal gibt's mehr Ironie-Smileys.

Spasstiger
2010-03-21, 18:01:14
Also habt ihr auch eine echte GTX 470 in der Redaktion? :)

y33H@
2010-03-21, 18:01:53
Das habe ich nicht gesagt - und was nicht ist, kann zudem noch werden ;D Das mit dem Schalter aber war natürlich ein Joke.

master_blaster
2010-03-21, 18:02:22
Warscheinlich bezieht sich das mit dem Schalter einfach auf die Testsamples, damit nVidia Chips einspart, um hinterher mit 15 statt 12 Karten launchen zu können, ;D.

Gast
2010-03-21, 18:04:08
Ziemlich sicher noch keine GTX470 bei PCGH und auch nicht bei anderen in DE.

DrFreaK666
2010-03-21, 18:10:25
Für was gibt es NDAs??
Wäre es nicht wichtig für nv, dass Infos so schnell wie möglich erscheinen?

LadyWhirlwind
2010-03-21, 18:12:14
Für was gibt es NDAs??
Wäre es nicht wichtig für nv, dass Infos so schnell wie möglich erscheinen?

nicht wenn nachher niemand mehr deren Produkte kaufen will.

dildo4u
2010-03-21, 18:12:29
Für was gibt es NDAs??
Wäre es nicht wichtig für nv, dass Infos so schnell wie möglich erscheinen?
Es gibt viele Gründe für die Reaktionen ist das gut,weil sie in Ruhe testen können und nicht einfach flüchtig was hinschludern um Erster zu sein.

Spasstiger
2010-03-21, 18:13:04
Das NDA gibt es, damit die Redaktionen genug Zeit haben, um journalistisch hochwertige Artikel zu erstellen. Davon profitiert auch Nvidia.

DrFreaK666
2010-03-21, 18:14:06
Es gibt viele Gründe für die Reaktionen ist das gut,weil sie in Ruhe testen können und nicht einfach flüchtig was hinschludern um Erster zu sein.

ja schon.
Aber wer sich mehr Zeit lässt kann meist auch mehr Informationen bieten.
Viele wollen erstmal wissen wie schnell die Karten sind.
BQ, Lautstärke und Verbrauch kommen erst an zweiter Stelle

Gibt es eigentlich wieder Benchmark-vorgaben von nv?? (z.B. nur Dirt 2, FC2 und Metro :ugly:)

y33H@
2010-03-21, 18:16:57
Es gibt keine Vorgaben - damals wie heute nicht. Warum auch?

Botcruscher
2010-03-21, 18:21:55
Es gibt keine Vorgaben - damals wie heute nicht. Warum auch?

Damals? So wie bei der Aktion wo rein zufällig eine gewisse Anzahl an Spielen mit zufällig "empfohlenen" Einstellungen getestet und danach niemand, ganz zufällig, was gewusst haben will?

master_blaster
2010-03-21, 18:21:57
Es gibt keine Vorgaben - damals wie heute nicht. Warum auch?
Können wir dir "ein Epic Fail" oder "kein Epic Fail" entlocken?

Epic Fail = GTX 480 liegt bei den average FPS 20% unter 5870 im Benschmark-Mittel

:redface:

y33H@
2010-03-21, 18:23:05
Ihr könnt mir kein Epic Fail entlocken vs. Ihr könnt mir "kein Epic Fail" entlocken *grandiose Satzkonstruktion*

urfaust
2010-03-21, 18:26:17
@ y33H@

versteigere dein Wissen doch bei ebay

*GTX 480 - DIE WAHRHEIT*

Sofortkauf 50,- EUR // Stückzahl 500

Raff
2010-03-21, 18:27:44
Selbst wenn mal Tests da sind, gibt es nicht "DIE" Wahrheit, sondern wie immer nur Selektionen, die vom Spieleparcours und den Einstellungen abhängen. Und Vorgaben gibt's keine.

MfG,
Raff

dildo4u
2010-03-21, 18:28:53
Selbst wenn mal Tests da sind, gibt es nicht "DIE" Wahrheit, sondern wie immer nur Selektionen, die vom Spieleparcours und den Einstellungen abhängen. Und Vorgaben gibt's keine.

MfG,
Raff
Jup wird wieder genug Test's geben die Intel CPUs benchen. ;)

Gast
2010-03-21, 18:29:30
Das Teil wird schon im Schnitt 20-30% schneller werden, aber ich befürchte einen bösen Idle und Laststromverbrauch. Lüfter könnte auch ein negativer Punkt sein. Also ich denke Epic Fail wohl nicht, aber bei weitem auch keine Revolution im GPU-Bereich.

Gast
2010-03-21, 18:33:52
Ist nicht mittlerweile schon relativ klar, dass es vom Tempo her weder "Epic Win!" noch "Epic Fail!" wird, sondern eher... ähh... "Epic Meh" :confused:

Bleiben noch die Features wie AA-Modi und deren relative Qualität, AF-Modi und deren relative Qualität, ob es bei 3D-Vision-Surround Syncprobleme zwischen den Monitoren/Beamern und/oder mit der Shutterbrille gibt uswusf.

AwesomeSauce
2010-03-21, 18:39:31
Ist nicht mittlerweile schon relativ klar, dass es vom Tempo her weder "Epic Win!" noch "Epic Fail!" wird, sondern eher... ähh... "Epic Meh" :confused:
Sehe ich auch so. "Epic Meh" trifft es wohl am genausten. Weder G80, noch NV30, noch R600.

Meine Upgradephilosophie: Die neue Karte muss ca. 2x die Performance der aktuellen Karte bringen und darf dabei nicht das High-End-Modell oder irgendeine MGPU sein. HD5870 und GTX470 sind heisse Kandidaten...

Sascha1971
2010-03-21, 19:23:15
Das habe ich nicht gesagt - und was nicht ist, kann zudem noch werden ;D Das mit dem Schalter aber war natürlich ein Joke.

Ha das es keinen Schalter gibt, hast du nun veraten. Damit hast du NDA gebrochen. :biggrin:

Also kannst du uns jetzt ruhig alles veraten. ;D

mictasm
2010-03-21, 19:24:16
Selbst wenn mal Tests da sind, gibt es nicht "DIE" Wahrheit, sondern wie immer nur Selektionen, die vom Spieleparcours und den Einstellungen abhängen. Und Vorgaben gibt's keine.

MfG,
Raff
Das ist allerdings schon eine interessante Info, durftest du das posten?

Gast
2010-03-21, 19:26:36
Was ist jetzt eigentlich mit diesem XMEN-Typen, der sich noch letzte Woche über Charlie lustig gemacht hatte, sinngemäß: "Keine Ahnung, wer das Gerücht der 480 SP in die Welt gesetzt hat, aber das ist Bullshit"? Wohl doch nicht so der Insider?

DrFreaK666
2010-03-21, 19:29:07
Das ist allerdings schon eine interessante Info, durftest du das posten?

Hä? Das stimmt doch allgemein was GPUs/CPUs angeht

dildo4u
2010-03-21, 19:46:08
Das ist allerdings schon eine interessante Info, durftest du das posten?
Wenns keine Vorgaben gibt stehen die auch nicht unter NDA.:rolleyes:

Amboss
2010-03-21, 20:15:58
Jetzt mal Spaß beiseite, wann fällt das NDA bzw. ab wann ist mit ersten Tests zu rechnen?

dildo4u
2010-03-21, 20:18:00
Jetzt mal Spaß beiseite, wann fällt das NDA bzw. ab wann ist mit ersten Tests zu rechnen?
Freitag Nacht.

Bioshock
2010-03-21, 20:36:30
Freitag Nacht.

Cool, da wird durch gemacht ;) da kommt glaub auch Formel 1 :D
Bin gespannt auf die 470er.

mfg

LovesuckZ
2010-03-21, 20:37:21
Ist nicht mittlerweile schon relativ klar, dass es vom Tempo her weder "Epic Win!" noch "Epic Fail!" wird, sondern eher... ähh... "Epic Meh" :confused:


"Epic Win" wird es immer dann geben, wenn stark auf Tessellation gesetzt wird. Dort wird GTX480 wohl dann auch Head-To-Head mit der 5970 gehen. Immerhin sprechen wir hier von der ersten Generation von DX11 Tessellationhardware.
Ansonsten bleibt man im Bereich von 20% zur 5870 und ist somit ca. 60% im Durchschnitt schneller als die GTX285. Da hätte ich mir mehr erwartet. :(

Bioshock
2010-03-21, 20:45:52
60% sind aber ok.Vielmehr hat AMD doch auch net gegenüber der 4xxx serie.

Zauberer
2010-03-21, 21:07:16
"Epic Win" wird es immer dann geben, wenn stark auf Tessellation gesetzt wird. Dort wird GTX480 wohl dann auch Head-To-Head mit der 5970 gehen. Immerhin sprechen wir hier von der ersten Generation von DX11 Tessellationhardware.
Ansonsten bleibt man im Bereich von 20% zur 5870 und ist somit ca. 60% im Durchschnitt schneller als die GTX285. Da hätte ich mir mehr erwartet. :(
Sag bloß ich habe am Ende Recht, und die GTX 480 kommt wirklich mit 512 SP?
Hier waren ja viele von 480 SP und +5% über der 5870 mit Tessellation überzeugt.
Du zwar nicht, aber unglaublich was hier abgegangen ist, und noch abgeht.

Iruwen
2010-03-21, 21:16:51
Heise hat einen neuen Artikel:
http://www.heise.de/newsticker/meldung/Preise-und-Spezifikationen-der-Fermi-Grafikkarten-959845.html
Also die Teile sind definitiv Stromfresser hoch 3.


Mit einem SM mehr steigt die TDP um 45W?

Black-Scorpion
2010-03-21, 21:18:53
Weil er auch so viel weiß.
Außer Rätselraten und seine Wahrheiten steht da nichts.
Und wenn du ihm mehr vertraust wie z.B. Ail bist du selbst Schuld.

tombman
2010-03-21, 21:18:58
Derzeit überwiegt der 480sp Hype :) Man kann nur hoffen, daß es 512sp sind :)

Spasstiger
2010-03-21, 21:26:09
Mit einem SM mehr steigt die TDP um 45W?
Die 45 Watt mehr bezogen sich eigentlich auf höhere Taktraten, zumindest laut Ail.

@Zauberer unter mir: Ich denke, dass der Vorsprung je nach Anwendung zwischen -10% und +50% liegen wird. Im üblichen Spielebenchmark-Mix ca. 10-20% im Schnitt. Mit den ursprünlich spekulierten Daten (512 SPs, 1450 MHz Hot-Clock) habe ich eher Richtung +30% im Schnitt getippt.

Zauberer
2010-03-21, 21:28:31
Derzeit überwiegt der 480sp Hype :) Man kann nur hoffen, daß es 512sp sind :)
Es ist doch fast Fakt, dass die GTX 480 mit 480sp (und den Taktfrequenzen der GTX 470) unmöglich 20%+x% über der HD 5870 sein kann.

Mit 480sp sollte die GTX 480 ca. 5-10% über der 5870 sein, oder nicht?
Die GTX 470 liegt doch leicht unter (oder ca. gleich je nach Spiel und Einstellung) der HD 5870, irgendwas passt dann nicht.

Es können nur 512sp sein, oder NVidia taktet die GTX 480 jenseits von gut und böse.

Eine andere Möglichkeit gibt es nicht!

Dural
2010-03-21, 21:31:31
Fakt?!?


wennigsten kann NV mit einem GF100 Bx 512SP locker 20%+ nachreichen... 7% die 32SP + 10% GPU Takt + bis 3000MHz Speichertakt alles möglich :rolleyes:

frag mich wie das weiter gehen soll wenn die Fertigung so weiter geht... wenn es so weiter geht müsste man mit 28nm schon 5-6 Milliarden GPUs sehen und umso kleiner die Fertigung umso mehr Probleme und verzögerungen wird es geben...

tombman
2010-03-21, 21:32:48
Ich möchte an dieser Stelle an meine GTX480 Umfrage erinnern:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=479713

Vorallem auch bitte Redakteure abstimmen, die schon mit Samples zu tun hatten ;D;D;D
(y33h@ hat übrigens bei 480sp angekreuzt)

Eggcake
2010-03-21, 21:37:21
Fakt?!?



Laut Ail (wenn mich nicht alles täuscht) wurde das direkt von NV bestätigt. Kann natürlich auch ein sehr sinnvolles Täuschungsmanöver sein.

AwesomeSauce
2010-03-21, 21:37:39
http://www.abload.de/img/hwsurvkees.png (http://www.abload.de/image.php?img=hwsurvkees.png)
Wer der bösen Redakteure spielt bereits Steam-Games?:freak:

Dural
2010-03-21, 21:40:00
Laut Ail (wenn mich nicht alles täuscht) wurde das direkt von NV bestätigt. Kann natürlich auch ein sehr sinnvolles Täuschungsmanöver sein.

das die 480SP Version nur 5% vor einer 5870 ist?!? Nur so zum nach Rechnen eine 512SP Version kann Theoretisch max 7% schneller sein als die 480SP Version sein... mit selben takt natürlich...

Und diese 7% werden gar nicht eintreffen: ROP / Speicher bleibt ja gleich am ende machen die 32SP lächerliche 5% aus...

Ich glaube das ist 80% der USER hier gar nicht bewusst... Villeicht hat NV sogar den weg der 480SP Version gewählt um so grössere Stückzahlen mit der selben Leistung auszuliefern als es mit einer 512SP überhaupt möglich gewessen wäre, da es gut möglich wäre das die wenigen 512SP GPUs gar nicht so einen hohen Takt mit gemacht hätten wie es jetzt mit den 480SP möglich ist...

Spasstiger
2010-03-21, 21:45:09
Und diese 7% werden gar nicht eintreffen: ROP / Speicher bleibt ja gleich am ende machen die 32SP lächerliche 5% aus...
Die ursprünglich geplanten Taktraten waren höher als die der jetzigen GTX 480. Und dazu 512 SPs. Das reicht für 10% Vorteil.

Dural
2010-03-21, 21:47:34
es gibt keine ursprünglichen Taktraten... irgend welche schätzungen bringen einem in der MASSEN Herstelllung rein gar nichts!!!

Siehe auch das hier:


Villeicht hat NV sogar den weg der 480SP Version gewählt um so grössere Stückzahlen mit der selben Leistung auszuliefern als es mit einer 512SP überhaupt möglich gewessen wäre, da es gut möglich wäre das die wenigen 512SP GPUs gar nicht so einen hohen Takt mit gemacht hätten wie es jetzt mit den 480SP möglich ist...

AnarchX
2010-03-21, 21:50:01
Laut Gerüchten, waren es wohl 1450MHz/512SPs @ 295W und ganz am Anfang standen wohl mal ~1600MHz.
Da wird sich zeigen müssen, ob B1/2 neben 512SPs vielleicht auch eine bessere Taktbarkeit mitbringt.

LovesuckZ
2010-03-21, 21:50:38
Die 295W sind doch fake. Nicht alles glauben, was im Internet steht.

Gast
2010-03-21, 21:50:39
Kurze Zwischenfrage:
Wie wird denn eigentlich PhysX abgearbeitet? Läuft das auf einigen SIMDs parallel zu der Grafikverarbeitung oder strikt nacheinander? Falls parallel könnten ein paar Shader mehr oder weniger einen größeren Einfluss auf die Endleistung haben als den rein prozentualen Unterschied an vorhandenen Shadern.

Ronny145
2010-03-21, 21:50:59
Laut Ail (wenn mich nicht alles täuscht) wurde das direkt von NV bestätigt. Kann natürlich auch ein sehr sinnvolles Täuschungsmanöver sein.


Er war bis zum Schluss von 512 SP überzeugt, also kannst du das vergessen. Jedoch muss man doch nur mal zwischen die Zeilen lesen hier oder auch einfach nur die letzten paar Tage verfolgt haben. Mit den 480 SP sollte man sich langsam mal anfreunden. Aber wichtiger ist doch eh was am Ende dabei rauskommt.

Zauberer
2010-03-21, 21:53:19
http://www.abload.de/img/hwsurvkees.png (http://www.abload.de/image.php?img=hwsurvkees.png)
Wer der bösen Redakteure spielt bereits Steam-Games?:freak:
Wow, die GTX 480 gibt es wirklich schon im Einsatz.
http://store.steampowered.com/hwsurvey
Unter: DirectX 11 Systems (Vista/Win7 & DX 11 GPU) zu finden.

AnarchX
2010-03-21, 21:55:41
Die 295W sind doch fake. Nicht alles glauben, was im Internet steht.
Die Folie mit <300W sah nicht unbedingt nach einem Fake aus und dann gibt es noch andere Informationen die mich das glauben lassen. Jedenfalls hat man die TDP bei der 480 vor kurzem reduziert.

Kurze Zwischenfrage:
Wie wird denn eigentlich PhysX abgearbeitet? Läuft das auf einigen SIMDs parallel zu der Grafikverarbeitung oder strikt nacheinander? Falls parallel könnten ein paar Shader mehr oder weniger einen größeren Einfluss auf die Endleistung haben als den rein prozentualen Unterschied an vorhandenen Shadern.
Momentan wird zwischen Grafik und PhysX hin- und hergewechselt mit PhysX 3.0 soll es dann Concurrent Kernel Execution geben, wodurch man sich 20-40% mehr Leistung verspricht.

y33H@
2010-03-21, 21:57:09
@ tombman

Damned, daneben geklickt :usad: Bitte ändern ;D

Eggcake
2010-03-21, 21:57:51
das die 480SP Version nur 5% vor einer 5870 ist?!?

Nein, nicht das, aber egal - war ja klar dass der Satz völlig falsch verstanden wird.

Spasstiger
2010-03-21, 22:01:24
Was ist jetzt eigentlich mit den Benchmarkergebnissen aus den GF100-Preview-Folien? Wenn man gegenüber damals die Specs abgespeckt hat (von 512 SPs @ 1450 MHz auf 480 SPs @ 1400 MHz), dann werden sich die Ergebnisse so wohl nicht reproduzieren lassen, oder? Irgendjemand hat hier mal geschrieben, dass sich Benchmarks aus NV-Folien immer reproduzieren lassen und somit zuverlässig seien.

tombman
2010-03-21, 22:03:07
@ tombman

Damned, daneben geklickt :usad: Bitte ändern ;D
DU sitzt in der Falle... baby... in der FALLE :D
(entweder Lügner oder NDA-Brecher :biggrin:)