PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 [70] 71 72 73 74 75

Dural
2010-03-22, 14:26:02
Ein ordentlicher 2d-Modus ist möglich siehe 260/280/5870.

hab ich was anderes gesagt?

70Watt nie mals! aber irgend welche wunder sollte man auch nicht erwarten... so 40Watt wären OK

Exxtreme
2010-03-22, 14:26:02
wie wäre es mit zwei PC-Systeme?
Das direkte Konkurrenzprodukt ist wohl noch besser.

LovesuckZ
2010-03-22, 14:26:29
Ja, aber in der heutigen Zeit keinen gescheiten 2D-Modus. Hallo? Alleine das disqualifiziert Fermi. Und ich bin NVidia zugeneigt.

Wartet doch erstmal ab. Es ist traurig, wie schnell dauernd irgendwelche Aussagen immer als 100% genommen werden. ;D

Gast
2010-03-22, 14:26:45
Tjo, da haben der fehlende SM und der niedrige Takt Furby das Genick gebrochen :(
Mit 512sp und 1600 Shaderclock wäre die 480er dort, wo sie hätte sein sollen.

ABER: die HD5870 kostet immer noch 375€ LAGERND :)

Wenn die GTX480 also 500€ kostet, dann bekommt man folgendes an MEHR:

+ 512mb Speicher (GTA4)
+ Cuda/Phys-X (man sieht mehr in Games)
+ besseres Tesselation (schaut danach aus)
+ bessere min fps (schaut danach aus)
+ SLI > CF (falls man ein MGpu-Sys will)

Vorläufiges Fazit:

1.) Es ist nicht der Überchip geworden
2.) Aber er ist GUT GENUG geworden ;)

Die perf. Krone gehört mit 4x HD5870 allerdings weiterhin ATI. (dafür ist man in der CF-Hölle :))

Es schaut nach einem riesigen Fail aus, nach 6 Monaten die VRAM-Größe und CUDA / PhysX als Pro-Argumente liefern zu müssen. AMD hat bei den Preisen massig Luft nach unten. Die HD 5870 wurde immerhin schon vor 6 Monaten mit 330 € etwa eingeführt. Wenn's darauf ankommt, kann AMD eine derart aggressive Preispolitik betreiben, dass sie die HD 5870 für 280 € verkaufen. Dann wird's düster für nVidia.

Gast
2010-03-22, 14:27:11
Der ist die meiste Zeit auch aus. :D Das ist aber nicht der Punkt. Ich zocke die meiste Zeit mit dem PC auch nicht. Und da sehe ich nicht ein da dauerhaft einen Industrielötkolben betreiben zu müssen für lächerlichen 2D-Betrieb.

Ob eine ATI "nur" 40Watt im 2D braucht oder die neue nVidia 70 ist im Endeffekt egal. Das sind 4x bzw 7x soviel wie eine passive Matrox.
Es ist einfach peinlich dass eine 500 Euro Grafikkarte es nicht schafft ein 2D Bild anzuzeigen ohne dass ein Lüfter laufen muss. (z.b. 10 Watt 2D Kern (bzw integriert in der GPU) inkl. 64mb VRAM).

Gast
2010-03-22, 14:27:12
GTX 480 Verpackung (Rückseite) :

2 PC-Systeme empfohlen

;D;D

Demnächst werden auch Kaffetassenwärmer mitgeliefert. Da wird die Wärme dann von der GPU über ein Kabel auf den Tisch übertragen :D

Spasstiger
2010-03-22, 14:27:36
Das größte Problem sehe ich eher in der Verarsche, wenn dieses Jahr doch noch 512sp Versionen auf den Markt kommen.
Gibt mit etwas Takterhöhung auch nur 10% Performancevorteil. Und mit einem optimierten Prozess vielleicht auch einen reduzierten Stromverbrauch. So wie von der GTX 280 zur GTX 285 geht es dann halt von der GTX 480 zur GTX 485. An deiner Stelle würde ich eh warten - sofern du dich überhaupt noch am Wettrüsten beteiligen willst. Irgendwas mit 512 SPs kommt sicherlich. Vielleicht eine GTX 495 mit 2*512 SPs.

Dural
2010-03-22, 14:27:36
Das direkte Konkurrenzprodukt ist wohl noch besser.

Verbraucht immer noch deutlich mehr als ein reines low-System für Office und surfen.... erst recht mit zwei Monitoren ;)

Gast
2010-03-22, 14:27:49
Das größte Problem sehe ich eher in der Verarsche, wenn dieses Jahr doch noch 512sp Versionen auf den Markt kommen.
Ärgerlicher als diese 7% sind da doch eher das Fehlen von 3GB Karten zum Start.


Und dann gibts da noch die 2GB HD5870 OC-Versionen, die Furby vermutlich hauen werden.
(Asus Matrix sieht extrem lecker aus)
Mit 10% mehr GPU-Takt wird da wohl niemand gehauen.

tombman
2010-03-22, 14:27:57
3x GTX 480 sollte sich doch gegen ein schlechter skalierendes 4x 5870-CF behaupten können und 4x GTX 480 sind nicht ausgeschlossen: http://www.evga.com/articles/00501/
Das sind aber Sonderversionen der 285er gewesen, die sich als GTX295 melden per Schalter.
Keiner sagt, ob EVGA das mit der 480er wieder macht und vorallem WANN das passiert.
Am Ende der Lebenszeit der 480er interessiert das keinen mehr.

Trubitar hat mit 4x HD5870 (ohne OC!) X26000 geschafft, das wird sich mit 3x GTX480 ganz sicher nicht ausgehen
, wenn eine nicht mal 10000 schafft.

V2.0
2010-03-22, 14:29:01
Wenn die Fermi im Idle schon so hohe Verbrauchswerte hat, dürften die kommenden Midrange-Karten wohl auch noch deutlich über den jeweiligen ATI-Kontrahenten liegen. Und wenn sie dann bei sagen wir mal 5-10% Mehrleistung dann noch einen 20-25% höheren Last-Stromverbrauch besitzen sollten, ist das ein NoGo.

Kannst Du nicht sagen. GF100 befindet sich an den technischen Grenzen der Fertigung, eine GF104, die ungefähr so groß wie eine RV870 ist, muss viele dieser Probleme nicht haben. (kann es aber sehr wohl)

Ich sehe aber auch keine guten Grund auf GF104 zu warten. Dafür gibt es 5850/5770 heute zu kaufen.

Menace
2010-03-22, 14:30:19
Schalte den PC aus. Dann sparst du richtig viel Kohle. :)

Dann spare ich zwar Kohle, arbeite aber auch nicht mehr. Da ich ca. rund 6 Stunden am Tag mit dem PC arbeite (RAW-Konvertierung, Grafik CS4, Office, etc.) um mein Geld zu verdienen (momentan mit 2 Bildschirmen, wünshe mir aber 3) und abends noch gerne ca. 1-2 Stunde zocke (Auflösung: 1920-1200) wäre mir es wichtig eine halbwegs potente und sparsame Grafikkarte zu haben. Vielleicht schafft es ja die 470.

Dural
2010-03-22, 14:31:27
also ich würde auch keine GTX480 kaufen... paar monate später wird es eine 512SP Version mit mehr Takt geben für den selben Preis... zu 100%!!! die düfte dann locker 20% schneller sein...

Gast
2010-03-22, 14:31:56
Dann spare ich zwar Kohle, arbeite aber auch nicht mehr. Da ich ca. rund 6 Stunden am Tag mit dem PC arbeite (RAW-Konvertierung, Grafik CS4, Office, etc.) um mein Geld zu verdienen (momentan mit 2 Bildschirmen, wünshe mir aber 3) und abends noch gerne ca. 1-2 Stunde zocke (Auflösung: 1920-1200) wäre mir es wichtig eine halbwegs potente und sparsame Grafikkarte zu haben. Vielleicht schafft es ja die 470.
Das alles gibts doch schon längst zu kaufen. HD5850 oder HD5870 ;)

Gast
2010-03-22, 14:32:14
Es schaut nach einem riesigen Fail aus, nach 6 Monaten die VRAM-Größe und CUDA / PhysX als Pro-Argumente liefern zu müssen. AMD hat bei den Preisen massig Luft nach unten. Die HD 5870 wurde immerhin schon vor 6 Monaten mit 330 € etwa eingeführt. Wenn's darauf ankommt, kann AMD eine derart aggressive Preispolitik betreiben, dass sie die HD 5870 für 280 € verkaufen. Dann wird's düster für nVidia.

ATI wird mit dem Preis nicht runter gehen. Warum schrieb ich vor 2 Seiten. Was schlechteres hätte dem Käufer nicht passieren können!

Gast
2010-03-22, 14:32:57
also ich würde auch keine GTX480 kaufen... paar monate später wird es eine 512SP Version mit mehr Takt geben für den selben Preis... zu 100%!!! die düfte dann locker 20% schneller sein...

Paar Monate später ist Hochsommer. Dann kannste auch gleich nochmal paar Monate warten und Northern Islands ist draußen.

Amboss
2010-03-22, 14:35:57
dass sie die HD 5870 für 280 € verkaufen. Dann wird's düster für nVidia.
Man muss einfach sehen wie es ist: Kaum Mehrleistung, im Gegenzug eine deutlich teurere GPU (Größer, geringere Ausbeute pro Wafer etc.), aufwendigeres Platinenlayout inkl. aufwendigere Stromversorgung, aufwändiger und teurer Kühler. Jetzt kommt noch der schlechte Idle- und Last- Verbrauch hinzu. AMD hat einen großen preislichen Spielraum nach unten, Nvidia kann da nicht mitziehen. Die Perfomance hätte das Dickschiff Fermi retten müssen, hat sie aber nicht.

Gast
2010-03-22, 14:36:44
ATI wird mit dem Preis nicht runter gehen. Warum schrieb ich vor 2 Seiten. Was schlechteres hätte dem Käufer nicht passieren können!

Hier schreiben 1000 Gäste. Bitte mal einen Link zu dem, was du geschrieben hast.

Gast
2010-03-22, 14:37:45
Werden die NVidia Karten nicht gut, wird auch kein Preiskampf stattfinden. die 5870 wird weiterhin 380 Euro kosten und wenn das mit den 10-20 Prozent für die 480 stimmt, wird der Preis der 480 ca.450-500 Euro kosten. Sprich ATI hat keinen Grund mit dem Preis runter zu gehen, und NVidia braucht nicht nachziehen. So wirds leider kommen...

Hier nochmal meine Sicht der Dinge. Wer es anders sieht bitte melden.

mboeller
2010-03-22, 14:38:53
Gibt mit etwas Takterhöhung auch nur 10% Performancevorteil. Und mit einem optimierten Prozess vielleicht auch einen reduzierten Stromverbrauch. So wie von der GTX 280 zur GTX 285 geht es dann halt von der GTX 480 zur GTX 485. An deiner Stelle würde ich eh warten - sofern du dich überhaupt noch am Wettrüsten beteiligen willst. Irgendwas mit 512 SPs kommt sicherlich. Vielleicht eine GTX 495 mit 2*512 SPs.

Wieso? Ich gehe schon davon aus, das der B1/2 Fermi mit 1600-1700 Hotclock laufen wird. Was anderes wäre IMHO seltsam. 1600-1700MHz waren ja das ursprüngliche Taktziel. Also sollte das IMHO mit dem Refresh auch erreicht werden.

1650/1400 x 512/480 = +25% bzw. noch mehr aufgrund von kleineren Optimierungen beim Chip.

Gast
2010-03-22, 14:40:46
Und man muss auch beahten das TMSC noch Probleme hat. AUch nicht preisreduzierend.

AnarchX
2010-03-22, 14:42:41
Wieso? Ich gehe schon davon aus, das der B1/2 Fermi mit 1600-1700 Hotclock laufen wird. Was anderes wäre IMHO seltsam. 1600-1700MHz waren ja das ursprüngliche Taktziel. Also sollte das IMHO mit dem Refresh auch erreicht werden.

Selbst bei er 88U gab es nur 12% mehr Shadertakt nach 6 Monaten und da wurden nicht zusätzlich Einheiten erhöht und der Ausgangspunkt war auch keine TDP von 250W.
Mehr als 1,5GHz würden mich doch sehr überraschen.

OgrEGT
2010-03-22, 14:44:43
Um das Thema Stromverbrauch aus einer anderen Perspektive nochmals aufzugreifen...

Wichtig ist ein niedriger Stromverbrauch doch in erster Linie deshalb, weil die GPU nur dann auch mit leisen Kühlkonstruktionen gekühlt werden kann. Das macht für alle Hometheater/Wohnzimmerzock-PCs am meisten Sinn. Natürlich hat man auch ein gutes Gewissen der Umwelt zuliebe, aber mal ehrlich... wir reden hier von Computerzockerei auf allerhöchstem Niveau, die nun wirklich vom ökologischen Standpunkt aus bertrachtet, vollkommen irrational ist.

LovesuckZ
2010-03-22, 14:47:57
Um das Thema Stromverbrauch aus einer anderen Perspektive nochmals aufzugreifen...

Wichtig ist ein niedriger Stromverbrauch doch in erster Linie deshalb, weil die GPU nur dann auch mit leisen Kühlkonstruktionen gekühlt werden kann. Das macht für alle Hometheater/Wohnzimmerzock-PCs am meisten Sinn. Natürlich hat man auch ein gutes Gewissen der Umwelt zuliebe, aber mal ehrlich... wir reden hier von Computerzockerei auf allerhöchstem Niveau, die nun wirklich vom ökologischen Standpunkt aus bertrachtet, vollkommen irrational ist.

Grundsätzlich sollte eine GPU nicht mehr als 40-50 Watt verbrauchen.
Aber, wer sich GF100 kauft, der wird auch die entsprechenden anderen Komponenten haben - dicke CPU, dickes Motherboard, viel RAM, viele Festplatten etc. Da kommt man alleine auf bestimmt ca. 100 Watt beim IDLEN ohne Grafikkarte. Da finde ich es schon absurd, sich solch ein ungetüm hinzustellen und damit zu 90% nur zu idlen...

Gast
2010-03-22, 14:48:49
Um das Thema Stromverbrauch aus einer anderen Perspektive nochmals aufzugreifen...

Wichtig ist ein niedriger Stromverbrauch doch in erster Linie deshalb, weil die GPU nur dann auch mit leisen Kühlkonstruktionen gekühlt werden kann. Das macht für alle Hometheater/Wohnzimmerzock-PCs am meisten Sinn. Natürlich hat man auch ein gutes Gewissen der Umwelt zuliebe, aber mal ehrlich... wir reden hier von Computerzockerei auf allerhöchstem Niveau, die nun wirklich vom ökologischen Standpunkt aus bertrachtet, vollkommen irrational ist.

Ach Umweltschutz. Es geht nur um den Geldbeutel, da wird Umweltschutz nur vorgezogen als Alibi. Mir gehts ganz einfach darum im IDLE kein Geld zu verbrennen.

Gast
2010-03-22, 14:49:54
Grundsätzlich sollte eine GPU nicht mehr als 40-50 Watt verbrauchen.
Aber, wer sich GF100 kauft, der wird auch die entsprechenden anderen Komponenten haben - dicke CPU, dickes Motherboard, viel RAM, viele Festplatten etc. Da kommt man alleine auf bestimmt ca. 100 Watt beim IDLEN ohne Grafikkarte. Da finde ich es schon absurd, sich solch ein ungetüm hinzustellen und damit zu 90% nur zu idlen...

ja klar, jetzt wos nvidia nicht gebacken bekommt is der idle verbrauch plötzlich total egal. du bist ungefähr so durchschaubar wie die lügenmärchen von nvidia. "This puppy, is Fermi" ... ja eh.

BlackBirdSR
2010-03-22, 14:52:59
Ob eine ATI "nur" 40Watt im 2D braucht oder die neue nVidia 70 ist im Endeffekt egal. Das sind 4x bzw 7x soviel wie eine passive Matrox.
Es ist einfach peinlich dass eine 500 Euro Grafikkarte es nicht schafft ein 2D Bild anzuzeigen ohne dass ein Lüfter laufen muss. (z.b. 10 Watt 2D Kern (bzw integriert in der GPU) inkl. 64mb VRAM).

Leider gibt es da 2 Probleme:
1. Vista+Windows 7 mit D3D-Desktop
2. Die Physik - die sagt, dass bei so vielen Transistoren ohne Abschaltung von Taktsignal und Power eben Strom fließt. Der ist nicht ohne und trägt enorm zur Verlustleistung bei Idle bei. Hier Hand an zu legen ist nicht trivial.

Ich finde 70W auch nicht toll, muss ab eingestehen: Im Endeffekt dürfte es 80% der 470/480-Nutzer wirklich egal sein. Es stimmt wirklich, dass Monitor und Peripherie ebenfalls sehr viel brauchen und man auch weniger Gedanken an Stromkosten als Performance/Benchmarks verschwendet. Das mag für Mainstream und Low-End anders aussehen, aber da sind die Fermi-Karten auch noch nicht auf dem Tisch.

Exxtreme
2010-03-22, 14:55:53
Grundsätzlich sollte eine GPU nicht mehr als 40-50 Watt verbrauchen.
Aber, wer sich GF100 kauft, der wird auch die entsprechenden anderen Komponenten haben - dicke CPU, dickes Motherboard, viel RAM, viele Festplatten etc. Da kommt man alleine auf bestimmt ca. 100 Watt beim IDLEN ohne Grafikkarte. Da finde ich es schon absurd, sich solch ein ungetüm hinzustellen und damit zu 90% nur zu idlen...
Richtig. Und der Fermi macht die Sache noch schlimmer wenn die Gerüchte um den Stromverbrauch stimmen.

Gast
2010-03-22, 14:56:16
Ich bin gespannt wann die 512SP Version nachgeschoben wird. Also warum jetzt sowas kastriertes kaufen? NVidia wollte den Fermi ja mit 512SP launchen. Ich kaufe wahrscheinlich erstmal garnix und lehne mich zurück.

LovesuckZ
2010-03-22, 15:02:52
ja klar, jetzt wos nvidia nicht gebacken bekommt is der idle verbrauch plötzlich total egal. du bist ungefähr so durchschaubar wie die lügenmärchen von nvidia. "This puppy, is Fermi" ... ja eh.

Jojo. Flamegäste ahoi. :rolleyes:
Wo dort irgendwas positves steht, erkenne ich nicht. Wer sich aber mit 3 Monitoren, 2 GF100 karten, dicker CPU, 6-8GB Speicher, 2TB Plattenspeicher usw. darüber beschwert, dass eine GTX480 ca. 30 Watt mehr verbraucht, der hat sowieso den Knall nicht mehr gehört.
Mein System braucht alleine knapp 100 Watt. Klar kosten mich 30 Watt auch wieder mehr Geld am Ende des Jahres, aber ich würde mich dann selbst hinterfragen, wieso mein 130-170 Watt Rechner den ganzen Tag laufen müsste...

desert
2010-03-22, 15:03:10
Grundsätzlich sollte eine GPU nicht mehr als 40-50 Watt verbrauchen.
Aber, wer sich GF100 kauft, der wird auch die entsprechenden anderen Komponenten haben - dicke CPU, dickes Motherboard, viel RAM, viele Festplatten etc. Da kommt man alleine auf bestimmt ca. 100 Watt beim IDLEN ohne Grafikkarte. Da finde ich es schon absurd, sich solch ein ungetüm hinzustellen und damit zu 90% nur zu idlen...

Wieso nicht? Meine grafikkarte idelt auch 90 % der zeit vor sich hin. Nur wenn ich dann spiele will ich auch gute leistung haben. Mal ehrlich lovesuckz, ich bin ja auch eher nvidia zugeneigt aber was du hier die letzen 40 seiten an nvidia pr von dir gibst, geht auf keine kuhhaut.

Vor ein paar monaten war tesselation noch unwichtig und jetzt ist es plötzlich das selig machende feature, genauso 8aa perfomance und dafür lobst du csaa? Was will ich mit csaa, ich will ssaa und das für jedes spiel. Das aliasing wird auch schon mit 4 aa genug geglättet, ich will was für fiese texturen und shaderaliasing.

Tut mir leid fermi sollte eigentlich schon deutlich über 5870 liegen ansonsten hat die karte versagt und wenn es mit den 480 cores stimmen sollte, werde ich mir bestimmt keine 480gtx kaufen.

Auf verarsche habe ich überhaupt keine bock

tombman
2010-03-22, 15:03:29
Selbst wenn der 512sp nur 1500sc hat, sinds immernoch: 512/480 * 1500/1400 = +14%
Sind real vielleicht +10% mehr Leistung, und genau die fehlen dem jetzigen Furby eben.

Gast
2010-03-22, 15:04:14
http://www.fudzilla.com/content/view/18170/1/

Gast
2010-03-22, 15:04:39
Grundsätzlich sollte eine GPU nicht mehr als 40-50 Watt verbrauchen.
Aber, wer sich GF100 kauft, der wird auch die entsprechenden anderen Komponenten haben - dicke CPU, dickes Motherboard, viel RAM, viele Festplatten etc. Da kommt man alleine auf bestimmt ca. 100 Watt beim IDLEN ohne Grafikkarte. Da finde ich es schon absurd, sich solch ein ungetüm hinzustellen und damit zu 90% nur zu idlen...

Ich komme auf ca. 100 Watt im Idle. MB X38, Grafikkarte 65nm 260, Quad X3350 oced 3600 1,275VCore, 8 Gigs 2 Festplatten und 4 120er Lüfter. Dem 2D-Modus der 260 sei Dank.

Gast
2010-03-22, 15:10:10
Mir kommt das alles so halbgar rüber. So als müsste NVidia JETZT launchen. Und die 512SP Version wird dann ausgereift nachgeschoben. Nur mein Instinkt, vielleicht täusche ich mich.

boxleitnerb
2010-03-22, 15:15:05
Jojo. Flamegäste ahoi. :rolleyes:
Wo dort irgendwas positves steht, erkenne ich nicht. Wer sich aber mit 3 Monitoren, 2 GF100 karten, dicker CPU, 6-8GB Speicher, 2TB Plattenspeicher usw. darüber beschwert, dass eine GTX480 ca. 30 Watt mehr verbraucht, der hat sowieso den Knall nicht mehr gehört.
Mein System braucht alleine knapp 100 Watt. Klar kosten mich 30 Watt auch wieder mehr Geld am Ende des Jahres, aber ich würde mich dann selbst hinterfragen, wieso mein 130-170 Watt Rechner den ganzen Tag laufen müsste...

Weil ja jeder 3 Monitore und 2 Highend GPUs hat...echt jetzt, komm mal runter. Kritik ist GUT. Kritik führt idR dazu, dass sich etwas zum Positiven ändert. Kapierst du das nicht? Fühlst du dich persönlich angegriffen, wenn jemand sagt, der hohe Energieverbrauch von Fermi ist schlecht? Scheint so...
Ist ja nicht so, als wäre ein niedriger(er) 2D-Verbrauch bei NV nicht schon vorher dagewesen. So ist es ein Rückschritt und den darf man sehr wohl kritisieren - da kannst du den ganzen Tag lang meckern wie du willst.

Die Stromkosten für die 70W sind jetzt nicht die Welt, aber sie sind UNNÖTIG. AMD macht es vor, knapp 30W im idle ist möglich. Vorbildlich!

Gast
2010-03-22, 15:19:00
Lovesucks. Auch ich bin NVidia Fan der 1. Stunde. Aber bitte sehe mal ein das der 2D-Verbrauch abschreckt. Und ich bin sogar so Hardcore das ich weiter warte und mir keine 5870 hole;)

Gast
2010-03-22, 15:33:06
Und wenn ich die Speicherbandbreite der 470 sehe wird mir übel. Das könnte ein wenig knapp bemessen sein.

LovesuckZ
2010-03-22, 15:39:46
Weil ja jeder 3 Monitore und 2 Highend GPUs hat...echt jetzt, komm mal runter. Kritik ist GUT. Kritik führt idR dazu, dass sich etwas zum Positiven ändert. Kapierst du das nicht? Fühlst du dich persönlich angegriffen, wenn jemand sagt, der hohe Energieverbrauch von Fermi ist schlecht? Scheint so...

Nö. Denn mir ist es egal, wer was kauft.
Aber "persönlich angegriffen" kann sich nur jeder fühlen, der solche Unlogik in diesem Forum ertragen muss. Ein entsprechender GTX480 PC mit Monitor wird ohne Grafikkarte alleine um die 100Watt+ verbrauchen. Damit liegt der Unterschied zwischen 60 und 30 Watt nicht mehr bei 2x sondern nur noch bei 1,23x soviel. wer also 130 Watt freiwillig den ganzen Tag idlen lässt, der sollte mal nachdenken, ob dieses Scheinheilige Ökoding nicht vielleicht übertrieben ist.


Ist ja nicht so, als wäre ein niedriger(er) 2D-Verbrauch bei NV nicht schon vorher dagewesen. So ist es ein Rückschritt und den darf man sehr wohl kritisieren - da kannst du den ganzen Tag lang meckern wie du willst.

Die Stromkosten für die 70W sind jetzt nicht die Welt, aber sie sind UNNÖTIG. AMD macht es vor, knapp 30W im idle ist möglich. Vorbildlich!

AMD macht es mit 1GB vor. Vielleicht warten wir doch erstmal, ob der Unterschied zwischen der 2GB Version und 1,5Gb nicht kleiner wird. Z.B 40 zu 60 Watt. :rolleyes:
Oh und vergessen wir nicht: GF100 wird dann wohl genau 0 Watt mit Multi-Monitor mehr verbrauchen. ;D

Ich werde solch einen IDLEN-verbrauch kritisieren. Aber ich werde bestimmt nicht mit meinem 100 Watt GamerPC zum Ökotypen mutieren, nur weil ich mir eine 30 Watt statt 60 Watt idlene Karte eingebaut habe...

Grestorn
2010-03-22, 15:41:03
Nach dem aktuellen Stand würde ich wohl auch warten. Schade, dass meine zweite GTX280 abgeraucht ist, und ich momentan auf "nur einer" rumhüpfe. Aber für aktuelle Spiele reicht das, wenn man ehrlich ist, meist aus. Halt nicht mit dem gewohnen AA-Faktor.

StevenB
2010-03-22, 15:43:53
Nö. Denn mir ist es egal, wer was kauft.
Aber "persönlich angegriffen" kann sich nur jeder fühlen, der solche Unlogik in diesem Forum ertragen muss. Ein entsprechender GTX480 PC mit Monitor wird ohne Grafikkarte alleine um die 100Watt+ verbrauchen. Damit liegt der Unterschied zwischen 60 und 30 Watt nicht mehr bei 2x sondern nur noch bei 1,23x soviel. wer also 130 Watt freiwillig den ganzen Tag idlen lässt, der sollte mal nachdenken, ob dieses Scheinheilige Ökoding nicht vielleicht übertrieben ist.



AMD macht es mit 1GB vor. Vielleicht warten wir doch erstmal, ob der Unterschied zwischen der 2GB Version und 1,5Gb nicht kleiner wird. Z.B 40 zu 60 Watt. :rolleyes:
Oh und vergessen wir nicht: GF100 wird dann wohl genau 0 Watt mit Multi-Monitor mehr verbrauchen. ;D

Ich werde solch einen IDLEN-verbrauch kritisieren. Aber ich werde bestimmt nicht mit meinem 100 Watt GamerPC zum Ökotypen mutieren, nur weil ich mir eine 30 Watt statt 60 Watt idlene Karte eingebaut habe...

Ich glaube boxleitnerb geht es ums Prinzip, und da hat er recht. Es ist egal wie viele Monitore oder was für eine Hardware du hast, genau wie das gerede dann kauf dir doch ein 2 System....

Aktuelle Hardware, egal von welchem Hersteller, verbraucht im Idle immer noch zu viel Strom, und dabei ist es egal wie dick die CPU usw. alles ist.

Edit: Wenn ich die Leistung will, kaufe ich mir ein Highend PC, das rechtfertigt es aber immer noch nicht, das der PC dann ewig viel Strom frisst wenn ich nur Surfe.

derguru
2010-03-22, 15:45:47
Lovesucks. Auch ich bin NVidia Fan der 1. Stunde. Aber bitte sehe mal ein das der 2D-Verbrauch abschreckt. Und ich bin sogar so Hardcore das ich weiter warte und mir keine 5870 hole;)

auf was willst du noch warten,auf den nikolaus?,nochmal ein halbes jahr;)

LovesuckZ
2010-03-22, 15:48:03
Ich glaube boxleitnerb geht es ums Prinzip, und da hat er recht. Es ist egal wie viele Monitore oder was für eine Hardware du hast, genau wie das gerede dann kauf dir doch ein 2 System....

Aktuelle Hardware, egal von welchem Hersteller, verbraucht im Idle immer noch zu viel Strom, und dabei ist es egal wie dick die CPU usw. alles ist.

"Ums Prinzip"? Dann kaufe ich mir keinen GamerPC mit einem IDLE-Verbrauch von > 100 Watt und nutze ihn als "Standard-IDLE-Einrichtung". Eine Investition in einen kleinen NetTop mit einem Verbrauch von knapp < 30 Watt reicht für 90% der IDLE-Tätigkeiten aus. Das wäre "geht ums Prinzip".
Wie gesagt: Nur weil mein gamerPC von 160 auf 130 Watt zurückfällt, bin ich kein Ökoverfechter. Es muss jeder selbst entscheiden, ob er den Mehrverbrauch in Kauf nimmt. Und es darf jeder kritisieren. Aber dieses Ökogetue ist unerträglich.

Gast
2010-03-22, 15:50:12
auf was willst du noch warten,auf den nikolaus?,nochmal ein halbes jahr;)

Ich hab nen 22er TFT. Soooo nötig hab ich es nicht. Also warte ich weiter. ATI komm ich allein schon mit den Einstellungen nicht zurecht. Und den Fixes und dem nicht Physx. Also waaaaaarten;)

StevenB
2010-03-22, 15:53:14
"Ums Prinzip"? Dann kaufe ich mir keinen GamerPC mit einem IDLE-Verbrauch von > 100 Watt und nutze ihn als "Standard-IDLE-Einrichtung". Eine Investition in einen kleinen NetTop mit einem Verbrauch von knapp < 30 Watt reicht für 90% der IDLE-Tätigkeiten aus. Das wäre "geht ums Prinzip".
Wie gesagt: Nur weil mein gamerPC von 160 auf 130 Watt zurückfällt, bin ich kein Ökoverfechter. Es muss jeder selbst entscheiden, ob er den Mehrverbrauch in Kauf nimmt. Und es darf jeder kritisieren. Aber dieses Ökogetue ist unerträglich.

Nee ich glaube du Verstehst mich falsch.

Beispiel: Nur weil es ein Highend PC ist, muss es doch nicht zwangsläufig so sein, das der PC ewig viel Strom frisst. Egal ob ich jetzt nur Surfe, oder kurz was in Photoshop mache.

Was ich damit sagen will, das sich die Hersteller Lösungen einfallen lassen sollten, das wenn ich mit Highend Hardware mal gerade nur Surfe, das die Kiste mir nicht so viel Strom weg frisst. Aber dann wenn ich die Leistung brauche, die Leistung auch da ist.

Ehrlich gesagt habe ich Persönlich nicht so viel Lust, zuhause mehrere System stehen zu haben, eins fürs Surfen und eins fürs Spielen....

Spasstiger
2010-03-22, 15:55:07
Und wenn ich die Speicherbandbreite der 470 sehe wird mir übel. Das könnte ein wenig knapp bemessen sein.
Weshalb? Liegt zwischen der Radeon HD 5850 und der HD 5870. Und da liegt die GTX 470 auch mit ihrer Gesamtperformance und ihrer UVP. Zudem lässt der niedrige Speichertakt auf ein gutes Übertaktungspotential beim Speicher hoffen.

Gast
2010-03-22, 15:57:11
Weshalb? Liegt zwischen der Radeon HD 5850 und der HD 5870. Und da liegt die GTX 470 auch mit ihrer Gesamtperformance und ihrer UVP. Zudem lässt der niedrige Speichertakt auf ein gutes Übertaktungspotential beim Speicher hoffen.

Ist zuwenig Spasstiger. Ist zuwenig. Ich sehe schon das Grauen wenn der Speicher net hoch geht zu übertakten. Auf der 470 ist minderwertiger DDR5 verbaut.

boxleitnerb
2010-03-22, 16:00:56
"Ums Prinzip"? Dann kaufe ich mir keinen GamerPC mit einem IDLE-Verbrauch von > 100 Watt und nutze ihn als "Standard-IDLE-Einrichtung". Eine Investition in einen kleinen NetTop mit einem Verbrauch von knapp < 30 Watt reicht für 90% der IDLE-Tätigkeiten aus. Das wäre "geht ums Prinzip".
Wie gesagt: Nur weil mein gamerPC von 160 auf 130 Watt zurückfällt, bin ich kein Ökoverfechter. Es muss jeder selbst entscheiden, ob er den Mehrverbrauch in Kauf nimmt. Und es darf jeder kritisieren. Aber dieses Ökogetue ist unerträglich.

Ein Zweitrechner kostet idR mehr oder gleich viel als du durch einen geringen Stromverbrauch an Stromkosten sparen könntest.

Annahme 100W Differenz@idle, 24/7
Macht 175,20 € bei 0,20€/kWh. Ein kleiner PC mit Monitor kommt doch gut auf 500€. Bei 3 Jahren Nutzungsdauer kommste auf dasselbe raus. Und das war ein Extremfall.
Weiterhin ist die Nutzung eines Zweitrechners umständlich. Man braucht mehr Platz, hat mehr Kabelsalat, braucht Switches (wenn irgendwas nur einmal vorhanden ist). Dazu kommt noch der Umstand, wenn man mal doch mehr Leistung braucht (CPU- und/oder GPU), extra den Boliden hochzufahren. Nene, Adaptivität ist schon was Feines. Soviel Strom wie nötig aber so wenig wie möglich.

Ich muss mir von dir kein Ökogetue unterstellen lassen. Was unerträglich ist, das ist dein Opportunismus! Mit niedrigerem Stromverbrauch gehen mehrere Vorteile einher, das hat mit Öko nicht unbedingt was zu tun. Es geht um Geld (Stromkosten -> 1-2x ein nettes Essen im Jahr, Kühlerkosten -> Kartenkosten), Lautstärke (Ergonomie), Hitze (noch höherer Stromverbrauch, Aufheizen anderer Komponenten im System, u.U. geringere Lebensdauer) und letztendlich noch...Umweltbewusstsein. Wobei letzteres bestimmt kein Kriterium für mich (oder die meisten) darstellt, sondern die 3 (!) anderen Punkte, die ich davor genannt habe. Got it?

Gast
2010-03-22, 16:07:28
Ein Zweitrechner kostet idR mehr oder gleich viel als du durch einen geringen Stromverbrauch an Stromkosten sparen könntest.

Annahme 100W Differenz@idle, 24/7
Macht 175,20 € bei 0,20€/kWh. Ein kleiner PC mit Monitor kommt doch gut auf 500€. Bei 3 Jahren Nutzungsdauer kommste auf dasselbe raus. Und das war ein Extremfall.
Weiterhin ist die Nutzung eines Zweitrechners umständlich. Man braucht mehr Platz, hat mehr Kabelsalat, braucht Switches (wenn irgendwas nur einmal vorhanden ist). Dazu kommt noch der Umstand, wenn man mal doch mehr Leistung braucht (CPU- und/oder GPU), extra den Boliden hochzufahren. Nene, Adaptivität ist schon was Feines. Soviel Strom wie nötig aber so wenig wie möglich.

Ich muss mir von dir kein Ökogetue unterstellen lassen. Was unerträglich ist, das ist dein Opportunismus! Mit niedrigerem Stromverbrauch gehen mehrere Vorteile einher, das hat mit Öko nicht unbedingt was zu tun. Es geht um Geld (Stromkosten -> 1-2x ein nettes Essen im Jahr, Kühlerkosten -> Kartenkosten), Lautstärke (Ergonomie), Hitze (noch höherer Stromverbrauch, Aufheizen anderer Komponenten im System, u.U. geringere Lebensdauer) und letztendlich noch...Umweltbewusstsein. Wobei letzteres bestimmt kein Kriterium für mich (oder die meisten) darstellt, sondern die 3 (!) anderen Punkte, die ich davor genannt habe. Got it?

Du hast absolut Recht!

Amboss
2010-03-22, 16:07:29
Hat NV auch Probleme mit dem Speichercontroller und GDDR5??

Gast
2010-03-22, 16:07:53
Ein einziger Rechner geht schon nicht weil ich dann DualBoot fahren müsste. Jedesmal wenn ich surfen will rebooten? ne thx!
Da hab ich lieber meinen Linuxserver mit mehreren VMs per KVM und für jede Aufgabe das OS welches dafür perfekt geeignet ist (plus eben einen Windows Gaming PC) als so ein Frickelwerk.

AnarchX
2010-03-22, 16:12:31
Hat NV auch Probleme mit dem Speichercontroller und GDDR5??
Bei der GT 240 GDDR5 funktioniert es: http://ht4u.net/reviews/2010/amd_ati_radeon_hd5830_reloaded/index13.php
Wenn dann wohl ein GF100-exklusives Problem oder eben doch eher ein Problem mit dem Clock-Gating.

Gast
2010-03-22, 16:12:43
800? MHz. Ein Witz oder? Also einfach nur enttäuschend. Das kommt zum 2D-Verbrauch noch dazu.

Gast
2010-03-22, 16:12:47
Hatten wir schon den angeblichen Vergleich zwischen GTX470 und HD5870?
http://www.guruht.com/2010/03/gtx-470-vs-hd-5870-benchmarks-test.html

Vorallem das letzte Bild ist klasse. ;D

Gast
2010-03-22, 16:15:13
Jep. Spy vs. Spy. Die guten alten MAD-Comics

Offtopic!

Gast
2010-03-22, 16:16:38
Aber dieses Ökogetue ist unerträglich.

Dein Geschreibe ist unerträglich, weil frei von jedweder Akzeptanz, Objektivität und Ehrlichkeit; der Fermi könnte Radioaktiv strahlen und mit einem großen, feuchten Hundehaufen im Bundle ausgeliefert werden, und du würdest dies schön reden.

tombman
2010-03-22, 16:17:18
*Gnihihi*

http://www.abload.de/img/trisliscale61td.png (http://www.abload.de/image.php?img=trisliscale61td.png)

ANALyzed by tombman :cool:

Gast
2010-03-22, 16:23:35
Jep. Spy vs. Spy. Die guten alten MAD-Comics

Offtopic!

Ich meinte eher das hier. ;)

http://3.bp.blogspot.com/_9vgJ1nwu_xA/S5D_cc67M0I/AAAAAAAACVs/0ZCNv88ceZo/s400/Clipboard14.jpg

Warum nicht gleicht so:
http://i40.tinypic.com/inu7v8.gif

DrFreaK666
2010-03-22, 16:24:48
Der Balken wurde so gewählt damit sich LovesuckZ freut :wink:

Gast
2010-03-22, 16:26:49
Posting ohne wichtigen Inhalt und oder ungenügender Ausdrucksweise

Das größte Problem sehe ich eher in der Verarsche, wenn dieses Jahr doch noch 512sp Versionen auf den Markt kommen.
Allerdings. Ich werde mir auf keinen Fall einen gelaserten Fermi kaufen. Ich frage mich auch, warum sich der Launch immer wieder verzögert hat. Meine Vermutung geht dahin, daß der Yield einfach zu gering ist. Jetzt passiert denen das gleiche wir IBM mit ihrem Cell-Prozessor (PS3): Erst große Töne spucken und hinterher die eigenen Vorgaben nicht einhalten können. Damals mußte Sony reagieren, so daß jetzt alle PS3 Titel auf 7 Kerne reduziert sind:
There are eight SPEs on the chip, but only seven of them handle processing. The eighth SPE is built in as redundancy in case one of the other seven fails.
http://electronics.howstuffworks.com/playstation-three1.htm

Sollte der Fermi mit nur 480 Cores kommen, wäre das so ungefähr das Schlimmste, was passieren konnte. Denn dann müssen alle Entwickler davon ausgehen, daß auch in Zukunft in den allerwenigsten Rechnern wirklich 512 Cores verfügbar sind. Das wäre ein Debakel von unbegrenzten Ausmaßen, denn dieser 'Schönheitsfehler' läßt sich überhaupt nie wieder gut machen. Mit dieser Hypothek ist Fermi für mich quasi tot und zwar für alle Zeiten. Denn es wird niemanden geben, der eine Extrawurst für eine handvoll Leute brät, die dann tatsächlich irgendwann mal auf 512 Cores zurückgreifen können.

Ich kann das nicht glauben. Ich will das nicht glauben.

Wenn ich eine GPU mit 512 Cores plane, dann ist es doch klar, daß auf dem Die mindestens 576 Cores eingeplant werden müssen, weil der Yield sonst viel zu hoch ist.

Nein. - Ich kann das nicht glauben. Ich will das nicht glauben. Nicht schon wieder. Die PS3 war ein riesengroßer Reinfall. Jetzt nicht auch noch Fermi....

Ich würde nVidia ja jetzt aus vollem Halse auslachen - wenn es nicht so traurig wäre. Aber das ist bestimmt alles nur ein böser böser Traum. Morgen wache ich auf und es stellt sich heraus, daß ich alles nur geträumt hab.... ;)


mfg

PS: Wenn es zum äußersten kommt, kaufe ich mir für 699,-€ Schlumpf-Eis und einen großen Löffel ....das hab ich als die PS3-Specs endlich raus waren auch gemacht. :ufinger:

Menace
2010-03-22, 16:26:55
Ich meinte eher das hier. ;)


Verdammt, fiel mir nicht auf. :freak:

X.Perry_Mental
2010-03-22, 16:29:51
Ich meinte eher das hier. ;)

http://3.bp.blogspot.com/_9vgJ1nwu_xA/S5D_cc67M0I/AAAAAAAACVs/0ZCNv88ceZo/s400/Clipboard14.jpg

Warum nicht gleicht so:
http://i40.tinypic.com/inu7v8.gif
Ist auch im Original schon eine recht unübliche Darstellung eines 15%igen Unterschieds.

Edith sagt: rechnen müsste man können. Da stand ursprünglich 7%, ich habe mich verrechnet und den Wert auf 15% korrigiert.

MorPheuZ
2010-03-22, 16:29:59
Ich meinte eher das hier. ;)

http://3.bp.blogspot.com/_9vgJ1nwu_xA/S5D_cc67M0I/AAAAAAAACVs/0ZCNv88ceZo/s400/Clipboard14.jpg

Warum nicht gleicht so:
http://i40.tinypic.com/inu7v8.gif

Hier finde ich die Balken aber sehr merkwürdig... Wenn der rote Balken 638 100% sein soll, wie soll der grüne Balken mit 734 (+ ~15%) mehr als das doppelte so lang sein :rolleyes:

Gast
2010-03-22, 16:31:10
Balkenmanipulation ftw. Ich bin gespannt was PCGH so testet. CB find ich ja nicht so gut wie PCGH imho. Achso ich wünsche mir auch Frameverläufe. Und schöne Minimum, Average Werte. Und bitte bitte alle DX11 Games die es bis jetzt gibt. DANKE

grafzahl
2010-03-22, 16:31:18
Oh man hier gehts ja ab :D

An der 3DMark Leistung könnt ihr mal gar nichts festmachen. Die Karte tuckert schon recht gut nur halt mit den negativen Aspekten. Aber keine Angst Idle zwar warm aber schön leise ;)

dildo4u
2010-03-22, 16:32:56
Oh man hier gehts ja ab :D

An der 3DMark Leistung könnt ihr mal gar nichts festmachen. Die Karte tuckert schon recht gut nur halt mit den negativen Aspekten. Aber keine Angst Idle zwar warm aber schön leise ;)
Ist doch mal positiv zu hören das der Treiber nicht als erstes den 3DMurks fix bekommen hat sondern das auf Games optemiert wurde.

LovesuckZ
2010-03-22, 16:35:10
Oh man hier gehts ja ab :D

An der 3DMark Leistung könnt ihr mal gar nichts festmachen. Die Karte tuckert schon recht gut nur halt mit den negativen Aspekten. Aber keine Angst Idle zwar warm aber schön leise ;)

Wenn du schon so schön spoilerst: Multi-Monitor-betrieb und IDLE Verbrauch. Steigt er an?

grafzahl
2010-03-22, 16:39:24
Wenn du schon so schön spoilerst: Multi-Monitor-betrieb und IDLE Verbrauch. Steigt er an?

Anscheinend nicht, hat sich nichts geändert :) Bleibt aber dabei das dieser eh zu hoch ist :(

Gast
2010-03-22, 16:39:27
Grafzahl wie hoch ist denn der Verbrauch unter Last? Darf man da was sagen?

Gast
2010-03-22, 16:41:17
Balkenmanipulation ftw. Ich bin gespannt was PCGH so testet. CB find ich ja nicht so gut wie PCGH imho. Achso ich wünsche mir auch Frameverläufe. Und schöne Minimum, Average Werte. Und bitte bitte alle DX11 Games die es bis jetzt gibt. DANKE


PCGH kommt schon deshalb nicht an CB oder ht4u heran, weil sie nur noch ein Qualitäts Setting fahren. Alles wird mit 4xAA über einen kamm geschoren. Oft keine Verbrauchswerte, kein Performance Index, die Seite ist ja sowieso schon nicht besonders übersichtlich.

Das ihre Werte ausserdem nicht selten von denen anderer Seiten unterscheiden, kommt hinzu.

So nebenbei; wenn der Fermi ordentliche 8xAA Performance hinlegt, und hier vielleicht sogar besser wie der RV870 agiert, ich wette PCGH führt dann wieder 8xAA Benchmarks ein ... dann natürlich, weil so viel gemeckert wurde. :D

LovesuckZ
2010-03-22, 16:43:43
Anscheinend nicht, hat sich nichts geändert :) Bleibt aber dabei das dieser eh zu hoch ist :(

Na, dann wird aus einem Nachteil plötzlich ein Neutral. :freak:
Mal abwarten, wie sich nVidia dazu äußert.

grafzahl
2010-03-22, 16:43:48
Hab doch schon gesagt das er knapp unter der 295GTX liegt. Zahlen darf ich euch keine nennen.

Selbst von einem erhöhten Multimonitoring Takt der 5870 ist die 480 noch sehr weit entfernt.

Glaub mir ein CF Gespann braucht weniger ;)

Gast
2010-03-22, 16:44:08
PCGH zeigt bei Fermi bestimmt Frameverläufe. Ob das CB macht wird sich zeigen.

Gast
2010-03-22, 16:44:44
Ahso, danke Herr Graf.

Spasstiger
2010-03-22, 16:45:19
PCGH kommt schon deshalb nicht an CB oder ht4u heran, weil sie nur noch ein Qualitäts Setting fahren. Alles wird mit 4xAA über einen kamm geschoren.
PCGH sind fast die einzigen, die auch mal abseits vom Mainstream benchen, z.B. mit Grafik-Mods, mit ini-Tweaks, mit SSAA und mit Downsampling. Unübersichtlich ist es aber definitiv, man darf sich die Benchmarks immer aus 5-6 Kurztests zusammensuchen.

Ronny145
2010-03-22, 16:48:55
Oh man hier gehts ja ab :D

An der 3DMark Leistung könnt ihr mal gar nichts festmachen. Die Karte tuckert schon recht gut nur halt mit den negativen Aspekten. Aber keine Angst Idle zwar warm aber schön leise ;)


Dann tippe ich mal eher so 15-20% über einer HD5870. Die 5-10% scheinen ja zu niedrig gegriffen sein.

LovesuckZ
2010-03-22, 16:49:34
Selbst von einem erhöhten Multimonitoring Takt der 5870 ist die 480 noch sehr weit entfernt.


Das ist mir bewusst. Aber der Abstand sollte dann nur noch 10 oder 20 Watt betragen. Was wiederrum die "es geht ums Prinzip" Menschen frohlocken wird.
Letzte Frage: Es gibt kein Unterschied zwischen IDLE und LAST-Taktung, stimmts?

grafzahl
2010-03-22, 16:51:30
Das ist mir bewusst. Aber der Abstand sollte dann nur noch 10 oder 20 Watt betragen. Was wiederrum die "es geht ums Prinzip" Menschen frohlocken wird.
Letzte Frage: Es gibt kein Unterschied zwischen IDLE und LAST-Taktung, stimmts?

Doch einen sehr großen sogar, wenn das stimmt hat Nvidia mit allen mitteln versucht das noch in den Griff zu bekommen. Ich rechne auch so schnell nicht mit 3GB Karten diesen würden den Verbrauch nochmal steigern.

LovesuckZ
2010-03-22, 16:53:10
Doch einen sehr großen sogar

K, dann warte ich mal ab.
Will mich auch nicht soviel spoilern lassen.

y33H@
2010-03-22, 17:05:30
@ Gast

Keine 8x-MSAA-Werte.
Oft keine Verbrauchswerte, kein Performance Index, die Seite ist ja sowieso schon nicht besonders übersichtlich. Das ihre Werte ausserdem nicht selten von denen anderer Seiten unterscheiden, kommt hinzu.Das mit dem Verbrauch ist Unfug, Index ist was für n00bs und andere Saves/Szenen spucken nun mal andere Werte aus. Da CB oder 3DC jedoch teils die Saves von PCGH adaptieren, scheinen diese ja ziemlich passend zu sein =)

Gast
2010-03-22, 17:05:41
[...] wenn das stimmt [...]

Was heißt wenn das stimmt? Ich dachte du hättest die Karte? Doch nur hörensagen?

Gast
2010-03-22, 17:06:09
Also mein Hunger auf Fermi ist irgendwie passe. Aber Leute, die Hoffnung stirbt zuletzt. Das darf doch nicht die Wahrheit sein. 480SP nein Danke.

AnarchX
2010-03-22, 17:06:54
Wohl ein Vorgeschmack, wie AMD auf die Tessellationsimplementierung in Fermi reagieren wird: http://forum.beyond3d.com/showpost.php?p=1411054&postcount=4391

Gast
2010-03-22, 17:07:44
@y33H@

Bitte testet alle DX11 Games und Frameverläufe. Mehr will ich net.

grafzahl
2010-03-22, 17:08:44
Was heißt wenn das stimmt? Ich dachte du hättest die Karte? Doch nur hörensagen?

Es besteht immer noch die geringe Chance das Nvidia vielleicht beim 2D nachbessern kann und dieser noch nicht richtig läuft.

Was ich aber nicht denke.

Darum *wenn das stimmt* :)

gast
2010-03-22, 17:09:58
Dumme Frage, aber wurden die 480sp überhaupt "offiziell" bestätigt. Wenn man nämlich die angeblichen Benchs der GTX470 als Referenz nimmt, dann komme ich für eine GTX480 mit 480sp+Taktsteigerung lediglich auf in etwa ~HD5870-Niveau.

Auch dürfte imo sich der Verbrauch mit 480sp nicht derartig schlecht bemerkbar machen.

Deshalb mein Tipp: Die GTX480 hat 512sp bei 20% Advantage in Sachen Performance in Relation zur HD5870.

Gast
2010-03-22, 17:10:03
Weil wie wir ja alle wissen Maximum FPS kaschieren die Minimum Frames. Nech wahr?

cR@b
2010-03-22, 17:10:11
Naja nach den ganzen Updates macht sich in meiner Magengegend so ein unwohles Gefühl breit. Ich sag mal so, für 400.- würde ich dennoch nach den neuen Werten zuschlagen ansonsten aber nicht und den Refresh bzw. den eigentlichen 100% Fermi aussetzen. Kommen sie aber beide gleichzeitig raus (muss ja schon auch 512er geben), wird es schwierig an einen 100% Fermi ran zukommen...
Bin enttäuscht... wenn der Preis für mich nicht angemessen erscheint, tendiere ich eher zum Überspringen der Generation. Schade eigentlich...

Gast
2010-03-22, 17:10:15
@y33H@

Bitte testet alle DX11 Games und Frameverläufe. Mehr will ich net.

Dann hat er ja nicht viel zutun....

Klingone mit Klampfe
2010-03-22, 17:10:50
Doch einen sehr großen sogar, wenn das stimmt hat Nvidia mit allen mitteln versucht das noch in den Griff zu bekommen. Ich rechne auch so schnell nicht mit 3GB Karten diesen würden den Verbrauch nochmal steigern.

Ich rechne so schnell mit gar keinem "Refresh", wenn viele kein Interesse an der Erstauflage zeigen. Warten auf Godot …

Gast
2010-03-22, 17:14:40
Weil wie wir ja alle wissen Maximum FPS kaschieren die Minimum Frames. Nech wahr?

Dieses Minimum Frames Gelaber gibts auch erst seit Fermi. Thema Schönreden ;)

LovesuckZ
2010-03-22, 17:15:16
Wohl ein Vorgeschmack, wie AMD auf die Tessellationsimplementierung in Fermi reagieren wird: http://forum.beyond3d.com/showpost.php?p=1411054&postcount=4391

So, AMD versucht die Verbreitung von Tessellation zu verhindern? ;D
Ich finde diese Darstellung von der Tessellationgeschwindigkeitsdifferenz zwischen Cypress und GF100 fazinierend. Müsste nicht der selben Logik nach Juniper und Cypress gleichschnell und die GTX480 15x schneller sein?
Oder hängt die endgültige Geschwindigkeit nicht nur von der reinen Anzahl der FF-Tessellatoren hat?

Gast
2010-03-22, 17:16:46
Dieses Minimum Frames Gelaber gibts auch erst seit Fermi. Thema Schönreden ;)

Ich will Frameverläufe. Ja, da sind auch Minimum Frames zu sehen. Was nützen mir 100 Frames wenns auf 20 runter geht.

AnarchX
2010-03-22, 17:17:25
Dumme Frage, aber wurden die 480sp überhaupt "offiziell" bestätigt. Wenn man nämlich die angeblichen Benchs der GTX470 als Referenz nimmt, dann komme ich für eine GTX480 mit 480sp+Taktsteigerung lediglich auf in etwa ~HD5870-Niveau.

Dann musst du aber annehmen, dass die 470 23% langsamer wäre als die 5870, also unter einer HD5850.

Coda
2010-03-22, 17:18:21
Die Frage ist halt ob die Min-FPS so tief sind weil Speicher bei den Radeons fehlt, oder weil sie tatsächlich nicht mit dem Workload von einzelnen Frames zurechtkommen.

Im letzteren Fall wäre das für mich schon ein sogar recht deutlicher Pluspunkt für Fermi.

Gast
2010-03-22, 17:19:01
Dieses Minimum Frames Gelaber gibts auch erst seit Fermi. Thema Schönreden ;)

Das Thema min FPS stört ATI-Boys auch erst seit Fermi. Thema Panik ;)

LovesuckZ
2010-03-22, 17:20:06
Die Frage ist halt ob die Min-FPS so tief sind weil Speicher bei den Radeons fehlt, oder weil sie tatsächlich nicht mit dem Workload von einzelnen Frames zurechtkommen.

Im letzteren Fall wäre das für mich schon ein sogar recht deutlicher Pluspunkt für Fermi.

Interessant wird es in erhältlichen DX11 Spielen mit Tessellation. Dort hoffe ich auf Frameverläufe, umzu sehen, wie stark GF100 und Cypress mit Tessellation einbrechen. Aber das wird wohl auch nur ein Wunschtraum bleiben. :rolleyes:

Gast
2010-03-22, 17:20:54
Coda deswegen plädiere ich für Frameverläufe. Und das ab ner Auflösung von 1680*1050. Bitte Danke.

Gast
2010-03-22, 17:21:48
so ab 25** wird der Speicher knapp. Aber nicht bei 1680*1050.

Gast
2010-03-22, 17:23:28
Wann kommt eigentlich ein RV870-Refresh? Zeit wird's doch?

igg
2010-03-22, 17:23:52
Minimum Frames Gelaber gibts auch erst seit Fermi. Thema Schönreden
Thema Fortschritt. Dieses Stereo-Gelaber gibts auch erst seit Soundblaster XYZ

Gast
2010-03-22, 17:24:43
So, AMD versucht die Verbreitung von Tessellation zu verhindern? ;D
Ich finde diese Darstellung von der Tessellationgeschwindigkeitsdifferenz zwischen Cypress und GF100 fazinierend. Müsste nicht der selben Logik nach Juniper und Cypress gleichschnell und die GTX480 15x schneller sein?
Oder hängt die endgültige Geschwindigkeit nicht nur von der reinen Anzahl der FF-Tessellatoren hat?

"Interessant"? Er hat ganz einfach recht. Wenn man die Tesslationsgeschwindigkeit isoliert betrachtet sind Cypress und Juniper natürlich gleich schnell, GF104 ist nur halb so schnell wie GF100. Das man es in der Praxis nicht isoliert betrachten kann ist auch klar. Nichtsdestoweniger werden sich die Spieleentwickler nicht an einem Hoigh-End-Produkt orientieren können.

Die Frage ist halt ob die Min-FPS so tief sind weil Speicher bei den Radeons fehlt, oder weil sie tatsächlich nicht mit dem Workload von einzelnen Frames zurechtkommen.

Im letzteren Fall wäre das für mich schon ein sogar recht deutlicher Pluspunkt für Fermi.


Am Speicher wird es wohl kaum liegen, dann hätte NV die 16 Tesslatoren ja vollkommen umsonst. Eine extremere Tesslationsszene wie bei Drachen im Unigine-Demo findet man nirgends.

DrumDub
2010-03-22, 17:27:15
"Interessant"? Er hat ganz einfach recht. Wenn man die Tesslationsgeschwindigkeit isoliert betrachtet sind Cypress und Juniper natürlich gleich schnell, GF104 ist nur halb so schnell wie GF100. Das man es in der Praxis nicht isoliert betrachten kann ist auch klar. Nichtsdestoweniger werden sich die Spieleentwickler nicht an einem Hoigh-End-Produkt orientieren können. das argument von dave baumann ist trotzdem müll, da tesselationslevel im spiel ja angepassst werden kann.

Gast
2010-03-22, 17:27:17
Was habt ihr eigentlich mit Tesselation? Für mich sieht das nach Trueform 2 aus, wonach in einem Jahr kein Hahn mehr krähen wird.

Gast
2010-03-22, 17:27:28
Thema Fortschritt. Dieses Stereo-Gelaber gibts auch erst seit Soundblaster XYZ


Ja lol, da werden ausschließlich sehr hohe Auflösungen mit AA gebencht, die Geforce hat bekanntermaßen mehr RAM und dann kommen die NV-Fans und sprechen von den tollen Min-fps. Was für ein Quantensprung, NV hat ev. mal ein vernünftigen RAM-Management implementiert.

Coda
2010-03-22, 17:28:56
Was habt ihr eigentlich mit Tesselation? Für mich sieht das nach Trueform 2 aus, wonach in einem Jahr kein Hahn mehr krähen wird.
:facepalm:

Gast
2010-03-22, 17:28:59
Ja lol, da werden ausschließlich sehr hohe Auflösungen mit AA gebencht, die Geforce hat bekanntermaßen mehr RAM und dann kommen die NV-Fans und sprechen von den tollen Min-fps. Was für ein Quantensprung, NV hat ev. mal ein vernünftigen RAM-Management implementiert.

Was auch Zeit wurde. Vielleicht hat NVidia hier was richtig gemacht.

san.salvador
2010-03-22, 17:30:24
Was habt ihr eigentlich mit Tesselation? Für mich sieht das nach Trueform 2 aus, wonach in einem Jahr kein Hahn mehr krähen wird.
Das ist es nur, wenn die Entwickler zu dumm sind, Metro haut da auch gern daneben.
Aber überlegt eingesetzt, zB. fürs LOD, kann das einiges bringen.

S940
2010-03-22, 17:30:50
:facepalm:
Immerhin kennt er TrueForm :freak:

LovesuckZ
2010-03-22, 17:32:13
"Interessant"? Er hat ganz einfach recht. Wenn man die Tesslationsgeschwindigkeit isoliert betrachtet sind Cypress und Juniper natürlich gleich schnell, GF104 ist nur halb so schnell wie GF100. Das man es in der Praxis nicht isoliert betrachten kann ist auch klar. Nichtsdestoweniger werden sich die Spieleentwickler nicht an einem Hoigh-End-Produkt orientieren können.


Dank der Programmierbarkeit ist Tessellation dynamisch anpassbar in der Anwendung. Dies geschieht durch die Einbindung der Recheneinheiten. Mehr Rechenleistung, schneller mit Tessellation. Dazu kommt, dass GF100 Tessellation zum Frühstück verspeist. Es spielt keine Rolle, dass ein GF104 nur noch die Hälfte der Leistung erreicht. Er wird mit viel Tessellation fwahrscheinlich noch schneller sein als Cypress.
Wir können es auch in einem extrem ausdrücken: AMD's ganzes DX11 Lineup ist für Tessellation zu langsam.
Dave Baumann hat nur etwas komplett klargestellt: AMD wird mit aller Macht verhindern, dass Tessellation von Spieleentwicklern in den nächsten 6-12 Monaten in starkem Verhältnis eingesetzt werden wird. Anders ist diese Aussage nicht zu deuten.

Gast
2010-03-22, 17:33:57
Lovesucks. Unser Mann für Trueform und Tesselation. Wenn einer Fragen hat bitte an LS wenden;)

Gast
2010-03-22, 17:34:47
:facepalm:

Ja, denke ich mir hierbei auch die ganze Zeit:

http://www.pcgameshardware.de/screenshots/original/2009/09/AMD-Soldier-DirectX-11-Tessellation_l.jpg

http://www.pcgameshardware.de/screenshots/original/2009/09/AMD-Soldier-DirectX-11-Tessellation-h.jpg

Godmode
2010-03-22, 17:35:15
Was habt ihr eigentlich mit Tesselation? Für mich sieht das nach Trueform 2 aus, wonach in einem Jahr kein Hahn mehr krähen wird.

Trueform war eine Eigenentwicklung von ATI und die Entwickler wollen eher neue Technologien, die von beiden Seiten unterstützt werden. Tesselation ist da schon einen größeres Kaliber, da es zum Featureset von DX11 und OGL4? gehöhrt.

edit: Ich wollte jetzt auch schon mehrere :facepalm: machenm, entschied mich dann aber doch für die sachlichere Line, da die meisten hier eh schon fast durchdrehen.

DrFreaK666
2010-03-22, 17:35:39
Mal schauen ob es wirklich http://www.forum-3dcenter.org/vbulletin/images/smilies/upicard.gif ist.
Truform Tesselation erkennt man imho nur an "langsamen" Games wie Adventures, RPGs oder Knobelspiele :freak:
Bei Rennspiele, Shooter und ähnlich schnellen Games wird man es nur in Replays/bzw. Zwischensequenzen sehen.
Ausserdem sind Multiplattform-Spiele die größte Einnahmequelle.
Nur wenige Firmen wird Tesselation in ihre Games einfügen (IMHO!!!), das kostet einfach zu viel

Amboss
2010-03-22, 17:35:45
Anders ist diese Aussage nicht zu deuten.
Und ich behaupte, Tesselation wird bis zur nächsten Konsolengeneration keine große Rolle spielen, ein paar Benchmarks ausgenommen. Es wird nun mal primär für Konsolen entwickelt und diese sind erst recht Tesselations-Krücken.

S940
2010-03-22, 17:35:48
Dank der Programmierbarkeit ist Tessellation dynamisch anpassbar in der Anwendung. Dies geschieht durch die Einbindung der Recheneinheiten. Mehr Rechenleistung, schneller mit Tessellation. Dazu kommt, dass GF100 Tessellation zum Frühstück verspeist. Es spielt keine Rolle, dass ein GF104 nur noch die Hälfte der Leistung erreicht. Er wird mit viel Tessellation fwahrscheinlich noch schneller sein als Cypress.
Schon mal an Compute Shaders, oder PhysiX gedacht ?

So ein purer Tessellation Bench ist ja schon fürs Frühstück, aber ein Game Designer sollte auf ausgewogene Ernährung achten.

Immer nur die Tessellation Rosinchen zu futtern, führt mittelfristig zu Übergewicht und verminderter Leistungsfähigkeit :D

Gast
2010-03-22, 17:37:35
Gibts denn überhaupt schon eine Liste mit Spielen, die 2010/2011 Tessellation unterstützen?

Gast
2010-03-22, 17:39:04
Metro. Oder? Fermi wird da alles plattwalzen. Da wächst dann kein Gras mehr!

PulsarS
2010-03-22, 17:41:30
Und ich behaupte, Tesselation wird bis zur nächsten Konsolengeneration keine große Rolle spielen, ein paar Benchmarks ausgenommen. Es wird nun mal primär für Konsolen entwickelt und diese sind erst recht Tesselations-Krücken.
Das behaupte ich auch.
Habe das hier im Thread auch schon paar mal angesprochen, nur ist darauf nie jemand eingegangen...:rolleyes:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7908783#post7908783
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7910509#post7910509
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7911769#post7911769

Na ja...

Gast
2010-03-22, 17:42:40
Ja Metro ist mehr oder weniger ein Spiel für Nvidia wie sie es sich in ihren Träumen vorstellen^^

Gast
2010-03-22, 17:43:25
Ich bin schon soooo gespannt. Vielleicht wird Fermi doch keine Krücke. Dann hüpf ich aus der Hose. Abwarten...

Gast
2010-03-22, 17:44:05
Dank der Programmierbarkeit ist Tessellation dynamisch anpassbar in der Anwendung. Dies geschieht durch die Einbindung der Recheneinheiten. Mehr Rechenleistung, schneller mit Tessellation. Dazu kommt, dass GF100 Tessellation zum Frühstück verspeist. Es spielt keine Rolle, dass ein GF104 nur noch die Hälfte der Leistung erreicht. Er wird mit viel Tessellation fwahrscheinlich noch schneller sein als Cypress.
Wir können es auch in einem extrem ausdrücken: AMD's ganzes DX11 Lineup ist für Tessellation zu langsam.
Dave Baumann hat nur etwas komplett klargestellt: AMD wird mit aller Macht verhindern, dass Tessellation von Spieleentwicklern in den nächsten 6-12 Monaten in starkem Verhältnis eingesetzt werden wird. Anders ist diese Aussage nicht zu deuten.

Er reicht schon wenn GF104 "nur" so schnell oder meinetwegen knapp schneller ist als Cypress, dass sich die Spieleentwickler sicher nicht an GF100 sondern an GF104 und kleiner bzw. den AMD-Karten orientieren werden. Tesslation ist dynamisch anpassbar, davon hat man aber bisher noch bei keinem Spiel etwas gesehen AFAIK, bleibt also auch fraglich ob die Spieleentwickler das auch nutzen werden und wenn ja ob das dann bei GF100 auch noch einen optischen Vorteil bringt.

Gast
2010-03-22, 17:50:46
Mal schauen ob es wirklich http://www.forum-3dcenter.org/vbulletin/images/smilies/upicard.gif ist.
Truform erkennt man imho nur an "langsamen" Games wie Adventures, RPGs oder Knobelspiele :freak:
Bei Rennspiele, Shooter und ähnlich schnellen Games wird man es nur in Replays/bzw. Zwischensequenzen sehen.
Ausserdem sind Multiplattform-Spiele die größte Einnahmequelle.
Nur wenige Firmen wird Tesselation in ihre Games einfügen (IMHO!!!), das kostet einfach zu viel

Jawoll Trueform beim Kniffeln und Tetris. Das wollen wir sehen.

Amboss
2010-03-22, 17:53:05
http://www.computerbase.de/news/hardware/grafikkarten/2010/maerz/tsmcs_40-nm-yields_50_prozent/
interessante News zum Thema
Preissenkungen ade, es wird noch alles teurer werden.

Coda
2010-03-22, 17:55:03
Das behaupte ich auch.
Ja, du behauptest aber falsch.

Es wird natürlich seine Zeit dauern bis es Verwendung finden wird, aber der Vergleich mit TruForm hinkt so sehr das er schon gar nicht mehr laufen kann.

Die damit realisierbaren Effekte gehen weit darüber hinaus ein Model anhand der Vertexnormalen "aufzublasen", auch wenn das natürlich durch die Flexibilität auch geht.

mapel110
2010-03-22, 17:55:04
Auch nix Neues. Fermi scheint ja relativ shice zu werden, also wirds eher die Verfügbarkeit der Radeons in nächster Zeit weiter beuteln, während die Geforces in den Regalen liegen.

Gast
2010-03-22, 17:55:28
http://www.computerbase.de/news/hardware/grafikkarten/2010/maerz/tsmcs_40-nm-yields_50_prozent/
interessante News zum Thema
Jetzt wo sie die Karte in der Redaktion haben und wissen wie sie ist kommt nach Monaten der Werbung erstmals eine negative Nachricht...

Gast
2010-03-22, 17:55:37
Game Over gute Preise, welcome böse Preise. Was hab ich gesagt?

Die Welt ist schlecht.

PulsarS
2010-03-22, 17:57:38
Ja, du behauptest aber falsch.
Ja?

Es wird natürlich seine Zeit dauern bis es Verwendung finden wird, aber der Vergleich mit TruForm hinkt so sehr das er schon gar nicht mehr laufen kann.
Ich habe NIE Tesselation mit Truform vergliechen.
Da bist du wohl einem Irrtum aufgesessen...

Coda
2010-03-22, 17:58:18
Entschuldige, ich habe gedacht du hast etwas anderes gequotet.

Spasstiger
2010-03-22, 17:58:42
Was habt ihr eigentlich mit Tesselation? Für mich sieht das nach Trueform 2 aus, wonach in einem Jahr kein Hahn mehr krähen wird.
Tessellation kann man unter anderem einsetzen, um das Detaillevel von Objekten abhängig von der Entfernung stufenlos zu verändern. So kann man dafür sorgen, dass Objekte nicht plötzlich aus dem Nichts aufploppen und verhindern, dass ein Objekt kantig erscheint, egal wie nahe man rangeht. Die Tessellation in DX11 kann auch weit mehr als das, was Truform darstellt. Man kann in einem Shader festlegen, wie die Geometrie aussehen soll, die tesselliert wird. Truform rundet einfach nur die bestehende Geometrie ab und erzeugt keine neue Geometrie.

Gast
2010-03-22, 18:00:00
TSMC ist einfach mistig. Wielange brauchen die Hansel denn noch?

Schlammsau
2010-03-22, 18:00:42
Gibt es eigentlich ankündigungen bezüglich Games, die Tesselation einsetzen werden?

PulsarS
2010-03-22, 18:01:21
Entschuldige, ich habe gedacht du hast etwas anderes gequotet.
Ok, hast Recht.
Habe mir den falsche Quote ausgesucht. ;)
Nicht drauf geachtet, sorry.

Meine Aussagen, die ich verlinkt habe, stehen aber denoch. :)

mapel110
2010-03-22, 18:02:07
Gibt es eigentlich ankündigungen bezüglich Games, die Tesselation einsetzen werden?
Mit Metro2033 wars das wohl erstmal einige Zeit mit den DX11-Titeln.

Coda
2010-03-22, 18:02:39
Gibt es eigentlich ankündigungen bezüglich Games, die Tesselation einsetzen werden?
Du kannst davon ausgehen, dass so gut wie jedes Spiel das in Zukunft D3D11 verwendet auch Tesselation als Option bieten wird.

Der Aufwand hält sich stark in Grenzen, da man für Normalmaps sowieso die Höhen braucht und damit Displacement-Mapping praktisch geschenkt ist.

Die Adoption von D3D11 dürfte auch weit besser sein als bei D3D10. Erstens wegen Windows 7 und zweitens weil auch noch D3D9-Karten damit angesprochen werden können. Zudem kann jede D3D10-Engine innerhalb kürzester Zeit portiert werden, weil das Interface zu 99% identisch ist.

Gast
2010-03-22, 18:03:32
Mit Metro2033 wars das wohl erstmal einige Zeit mit den DX11-Titeln.

Echt? Wozu dann ne DX11 Karte kaufen?

Black-Scorpion
2010-03-22, 18:04:57
Stromverbrauch ist leider nicht sekundär, gerade weil die Karte auch für Forschungszwecke geplant war für Simulationen und Rekonstruktionen. Natürlich sind GPUs da immer noch wesentlich effizienter als CPUs, aber 2010 muss man von einem "highend" Produkt eben erwarten können, dass es auch energieeffizient arbeitet. Das ist in Zeiten von Klimawandel Diskussionen eben ein zentrales Thema neben der Reduzierung von CO2 Ausstoß. Nvidia entwickelt hier ganz klar in die falsche Richtung und ganz klar am Zeitgeist vorbei. Ich finde das muss man auch sagen dürfen, ohne als AMD Fanboy bezeichnet zu werden.
Das sind Amis und da erwartest du einen Beitrag zum Klimaschutz?
Oder das die auch nur den geringsten Gedanken daran verschwenden?

Ein guter Beitrag.

mapel110
2010-03-22, 18:05:04
Echt? Wozu dann ne DX11 Karte kaufen?
Weils ne schnelle DX10-Karte sein wird und vor allem weil kein ATI-Aufkleber drauf ist. :biggrin:

Schlammsau
2010-03-22, 18:05:22
Du kannst davon ausgehen, dass so gut wie jedes Spiel das in Zukunft D3D11 verwendet auch Tesselation als Option bieten wird.

Der Aufwand hält sich stark in Grenzen, da man für Normalmaps sowieso die Höhen braucht und damit Displacement-Mapping praktisch geschenkt ist.

Die Adoption von D3D11 dürfte auch weit besser sein als bei D3D10. Erstens wegen Windows 7 und zweitens weil auch noch D3D9-Karten damit angesprochen werden können. Zudem kann jede D3D10-Engine innerhalb kürzester Zeit portiert werden, weil das Interface zu 99% identisch ist.

Auch bei Konsolenports, welche ja immer mehr werden?

DrFreaK666
2010-03-22, 18:06:18
Ihr habt Dirt 2 vergessen

edit: und AVP3

Coda
2010-03-22, 18:06:36
Auch bei Konsolenports, welche ja immer mehr werden?
Naja, da wird man ja eher bei D3D9 bleiben. Wenn man den Aufwand mit D3D11 eingeht, dann ziemlich sicher.

Das D3D10/11-Interface zu verwenden ist wirklich die Hauptarbeit. Displacement-Mapping mit Tesselation implementiert man in ner Mannwoche.

dildo4u
2010-03-22, 18:07:12
Mit Metro2033 wars das wohl erstmal einige Zeit mit den DX11-Titeln.
Turbine will bei Herr der Ringe MMO nachrüsten.

Gast
2010-03-22, 18:07:15
Weils ne schnelle DX10-Karte sein wird und vor allem weil kein ATI-Aufkleber drauf ist. :biggrin:

Das ist ne 280/285 auch. Und welchen Konsolenport können die nicht mit höchsten Einstellungen darstellen? Sehs doch mit meiner 260 und Battlefield bad Company. Butterweich.

mapel110
2010-03-22, 18:07:17
Auch bei Konsolenports, welche ja immer mehr werden?
http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support
Die meisten bisherigen DX11-Titel gibts auch für Konsolen.
Das ist ne 280/285 auch. Und welchen Konsolenport können die nicht mit höchsten Einstellungen darstellen? Sehs doch mit meiner 260 und Battlefield bad Company. Butterweich.
Butterweich ist eine Frage der Auflösung und AA-Stufe.

Schlammsau
2010-03-22, 18:07:32
Wie relevant wird dann DX11 in den nächsten 1-2 Jahren sein?

Armaq
2010-03-22, 18:08:34
Insgesamt scheint es trotzdem ein ordentlicher Reinfall zu werden.
Wenn die hier verbreiteten Infos tatsächlich stimmen, dann ist Hsuang die letzten Monate an der Decke gelaufen und hat sich auf jeden herabfallen lassen, der vor 23 Uhr die Zentrale verlassen wollte.
Ich verstehe nicht, warum man das 9800-Design nicht aufgegriffen hat. Diese Monsterchips sind nunmal zu groß. Insgesamt steht uns also ein echt langweiliges 2010 ins Haus, bei dem die Messe sowas von gesungen ist.
ATI wird den Teufel tun und sich auf eine Preisschlacht einlassen, ganz einfach weil es überhaupt nicht nötig ist. Beide verkaufen jede Karte zu Mondpreisen und TSMC bleibt ratlos auf den 50% Schrott sitzen.

Coda
2010-03-22, 18:09:21
Wie relevant wird dann DX11 in den nächsten 1-2 Jahren sein?
Da niemand weiß was genau wo in Entwicklung ist an Spielen wird dir das auch keiner beantworten können.

Aber da kann man eigentlich auch selber drauf kommen.

Gast
2010-03-22, 18:09:28
@mapel

Für mich heisst es butterweich.

Schlammsau
2010-03-22, 18:11:17
http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support
Die meisten bisherigen DX11-Titel gibts auch für Konsolen.

Die hälfte so wie ich das sehe.
AvP, Metro und DiRT2.

Alle anderen nutzen keine Tesselation. Oder täusche ich mich da?

Gast
2010-03-22, 18:12:08
Wieso ich? Haben doch die ganzen AMD Fanboys gesagt, wie toll DX11 ist. ;D
Aber wir wissen ja: DX11 doesn't matter.
Wie schnell sich der Wind in diesem Forum drehen kann.

Seit wann besteht directx 11 nur aus Tessellation?

Schlammsau
2010-03-22, 18:13:18
Aber da kann man eigentlich auch selber drauf kommen.

Natürlich, ich wollte es nur von dir hören. :smile:

Da keiner weiss in welche Richtung es geht, kann ich den Hype um Tesselation im Moment noch nicht ganz nachvollziehen.

Wird eigentlich Crysis 2 Tesselation unterstützen?

Gast
2010-03-22, 18:14:27
Man sieht schon bei UBI woher der Wind weht. PC geht den Bach runter. Ist aber

------offtopic

LovesuckZ
2010-03-22, 18:14:45
Seit wann besteht directx 11 nur aus Tessellation?

Hey, wir müssen warten, wie gut der L1 Cache beim Beschleunigen von speziellen Umsetzungen hilft. :D

mapel110
2010-03-22, 18:14:58
Seit wann besteht directx 11 nur aus Tessellation?
Es ist neben ComputeShaders der Hauptbestandteil.

Spasstiger
2010-03-22, 18:15:42
Alle anderen nutzen keine Tesselation. Oder täusche ich mich da?
Stalker CoP nutzt Tessellation.

Gast
2010-03-22, 18:16:13
Ist zwar Offtopic...aber ich bin ja gespannt ob wir hier noch die 1000 seite voll bekommen bis freitag!

Schlammsau
2010-03-22, 18:16:28
Stalker CoP nutzt Tessellation.

Stimmt, hatte ich vergessen.

Bricht da ein Cypress auch so dolle ein?

Coda
2010-03-22, 18:17:20
Da keiner weiss in welche Richtung es geht, kann ich den Hype um Tesselation im Moment noch nicht ganz nachvollziehen.
Es ist einfach Nice-To-Have. Genauso wie T&L, SM 3.0, HDR mit Anti-Aliasing, D3D10.1 und alles was es sonst schon gab.

Immer die gleichen Diskussionen.

Wird eigentlich Crysis 2 Tesselation unterstützen?
Nicht bekannt, aber mich würde es bei der Technologieaffinität von Crytek nicht wirklich wundern.

Gast
2010-03-22, 18:17:34
Insgesamt scheint es trotzdem ein ordentlicher Reinfall zu werden.
Wenn die hier verbreiteten Infos tatsächlich stimmen, dann ist Hsuang die letzten Monate an der Decke gelaufen und hat sich auf jeden herabfallen lassen, der vor 23 Uhr die Zentrale verlassen wollte.
Ich verstehe nicht, warum man das 9800-Design nicht aufgegriffen hat. Diese Monsterchips sind nunmal zu groß. Insgesamt steht uns also ein echt langweiliges 2010 ins Haus, bei dem die Messe sowas von gesungen ist.
ATI wird den Teufel tun und sich auf eine Preisschlacht einlassen, ganz einfach weil es überhaupt nicht nötig ist. Beide verkaufen jede Karte zu Mondpreisen und TSMC bleibt ratlos auf den 50% Schrott sitzen.

Solange die Nachfrage das Angebot übersteigt ist es vollkommen unrealistisch auf eine Preissenkung zu hoffen. Da hätte NV noch so viele Bäume ausreisen können, solange AMD selbst nach sechs Monaten die Karten aus den Händen gerissen werden muss man froh sein wenn es zu keiner Preiserhöhung kommt. AMD wird den Tag herbei sehen an denen ihre GPUs auch endlich in Dresden von Band laufen, unfassbar welche Potential mal hier verschenken musste weil TSMC selbst über ein Jahr nach Beginn der Massenproduktion völlig überfordert ist hier ausreichend Chips zu liefern.

y33H@
2010-03-22, 18:18:46
Wird eigentlich Crysis 2 Tesselation unterstützen?Vor Ort haben sie zumindest damit rumgespielt ;)

LovesuckZ
2010-03-22, 18:21:04
Er reicht schon wenn GF104 "nur" so schnell oder meinetwegen knapp schneller ist als Cypress, dass sich die Spieleentwickler sicher nicht an GF100 sondern an GF104 und kleiner bzw. den AMD-Karten orientieren werden.

GF104 wird billiger als Cypress werden und gleichgute - vielleicht sogar bessere - Tessellationleistung ermöglich. nVidia wird also beim selben Preis immer die bessere Tessellationleistung bieten, außer AMD senkt radikal die Preise - z.B. 5870 unter 200€.


Tesslation ist dynamisch anpassbar, davon hat man aber bisher noch bei keinem Spiel etwas gesehen AFAIK, bleibt also auch fraglich ob die Spieleentwickler das auch nutzen werden und wenn ja ob das dann bei GF100 auch noch einen optischen Vorteil bringt.

Unigine nutzt es.
Mit Spielen sollte man einfach abwarten und ihnen Zeit lassen. Dank GF100 können Entwickler wesentlich mehr machen. Mit Cypress Tessellationgeschwindigkeit stellt sich eher die Frage, ob Tessellation überhaupt sinnvoll eingesetzt werden kann.

DrFreaK666
2010-03-22, 18:23:00
...
Mit Spielen sollte man einfach abwarten und ihnen Zeit lassen. Dank GF100 können Entwickler wesentlich mehr machen. Mit Cypress Tessellationgeschwindigkeit stellt sich eher die Frage, ob Tessellation überhaupt sinnvoll eingesetzt werden kann.

Tesselation ist im Vergleich zu keine, Tesselation schon sinnvoll, oder nicht?
Bei den HD5ern muss man halt mit weniger Details oder Performance leben

Iruwen
2010-03-22, 18:23:52
70 W-Lötkolben sind schon grössere Hoschis. Mit denen lötest du schon dickere Bleche zusammen. Ein Elektronik-Lötkolben frisst so rund 15-30W, also ein Bruchteil davon.

Und genau da habe ich bissl Sorgen. Es wird sich sicherlich nicht gut auf die Lebensdauer der Bauteile auswirken so eine 70W-Heizung im PC. Vor allem wenn das auf 250W hochgeht wenn man zockt.

Und sobald man den Saft selber blecht, sieht man die Sache mit anderen Augen.

Die Zahl der Leute deren SLI/CF-Systeme in Flammen aufgegangen sind hält sich meines Wissens nach in Grenzen :freak:

Gast
2010-03-22, 18:27:25
Wurde das schon gepostet?

http://www.hexus.net/content/item.php?item=23032

Gast
2010-03-22, 18:28:27
Dann musst du aber annehmen, dass die 470 23% langsamer wäre als die 5870, also unter einer HD5850.

Imo wird sich die GTX470 nicht entscheident von der HD5850 absetzen können. Und mit 480sp sehe ich die GTX480 lediglich bei Charlies 5% vor der 5870. Auch sollten sich eine TDP von 250W relativ leicht kühlen lassen und keinen Verbrauch nahe der 5970 ergeben - alles imo natürlich.

Und zwecks der min-Frames: Der 5870 geht bei 1900x1200 bei 8xAA ganz einfach in bestimmten Sequenzen der Ram aus. Trotzdem ist die Average noch immer höher als bei der GTX470. Ich sehe es ähnich wie Tombman - nämlich dass eine OC´ 2GB - 5870 der GTX480 im ein oder anderen Game ganz schön einheitzt.

Gast
2010-03-22, 18:31:54
Imo wird sich die GTX470 nicht entscheident von der HD5850 absetzen können. Und mit 480sp sehe ich die GTX480 lediglich bei Charlies 5% vor der 5870. Auch sollten sich eine TDP von 250W relativ leicht kühlen lassen und keinen Verbrauch nahe der 5970 ergeben - alles imo natürlich.

Und zwecks der min-Frames: Der 5870 geht bei 1900x1200 bei 8xAA ganz einfach in bestimmten Sequenzen der Ram aus. Trotzdem ist die Average noch immer höher als bei der GTX470. Ich sehe es ähnich wie Tombman - nämlich dass eine OC´ 2GB - 5870 der GTX480 im ein oder anderen Game ganz schön einheitzt.

Wenn es so ist wäre das EPIC FAIL. Dann hätte Nvidia die Karte stecken lassen können. i mean, 5% WTF?

DrFreaK666
2010-03-22, 18:31:59
Wurde das schon gepostet?

http://www.hexus.net/content/item.php?item=23032

alt

Gast
2010-03-22, 18:34:22
Nochmal 5%. Das muss ein Alptraum sein. Ich kann das nicht glauben. Der Verbrauch zur Mehrleistung noch dazu.

Nene.

TheBrother
2010-03-22, 18:40:28
Ist zwar Offtopic...aber ich bin ja gespannt ob wir hier noch die 1000 seite voll bekommen bis freitag!

Sicherlich wenn das auf dem Niveau weiter geht sicher.

Ich freue mich auf die ersten richtigen Reviews. Danach darf jeder nochmal Epic Fail für Nvidia oder Ati rufen und dann ist gut :D

Diese Epic Fail(erei) - Der Untergang des römischen Reiches, das war n Epic fail. ne GPU - da spricht in zwei Jahren keiner mehr drüber.

Iruwen
2010-03-22, 18:40:50
Das war mit den alten Treibern, schon mit dem 10.2 waren es knapp 8900, und mit dem 10.3 über 9100.
http://www.legitreviews.com/article/1253/6/

Sind also eher 3000 mehr Punkte.

Genau darauf bezog er sich, ATI hat später nachgelegt, warum sollte Nvidia das nicht tun. Bei einer komplett neuen Architektur sehe ich eigentlich auch eher mehr Spielraum für Performancesteigerungen als bei einer aufgewärmten.

Gast
2010-03-22, 18:40:58
Nochmal 5%. Das muss ein Alptraum sein. Ich kann das nicht glauben. Der Verbrauch zur Mehrleistung noch dazu.

Nene.

CUDA will fix it. ;D http://www.youtube.com/watch?v=VpZXhR1ibj8

DrFreaK666
2010-03-22, 18:46:43
Sicherlich wenn das auf dem Niveau weiter geht sicher.

Ich freue mich auf die ersten richtigen Reviews. Danach darf jeder nochmal Epic Fail für Nvidia oder Ati rufen und dann ist gut :D

Diese Epic Fail(erei) - Der Untergang des römischen Reiches, das war n Epic fail. ne GPU - da spricht in zwei Jahren keiner mehr drüber.

Das würde ich nicht sagen.
Eine NV30 wir immer wieder gerne als Vergleich genutz

TheBrother
2010-03-22, 18:48:03
Das würde ich nicht sagen.
Eine NV30 wir immer wieder gerne als Vergleich genutz

Ob der Vergleich gerechtgertigt ist...

LovesuckZ
2010-03-22, 18:49:21
Ob der Vergleich gerechtgertigt ist...

Ich finde schon. Der NV30 hat mit SM2.0 auch alles weggerotzt, was ihm in den Weg kam. :)

Gast
2010-03-22, 18:50:30
Ich finde schon. Der NV30 hat mit SM2.0 auch alles weggerotzt, was ihm in den Weg kam. :)

Jo ein grandioses Meisterwerk.
Einfach jeder wollte IHN haben.;)

Coda
2010-03-22, 18:50:48
Ich finde schon. Der NV30 hat mit SM2.0 auch alles weggerotzt, was ihm in den Weg kam. :)
Das ist jetzt nicht dein Ernst? :|

TheBrother
2010-03-22, 18:52:42
Viele die hier schreiben kennen auch nur Epic Fail oder PWNED dazwischen gibts wohl nichts. Das ist halt einfach nur lächerlich. Ob die beim Zähneputzen dem Zahnbelag auch immer "HAHAHA EPIC FAIL" zurufen? :D

pXe
2010-03-22, 18:53:29
Ich finde schon. Der NV30 hat mit SM2.0 auch alles weggerotzt, was ihm in den Weg kam. :)

Vor allem potentielle Käufer :D
NV30/35 war das einzige mal bei der ich eine Generation ausgesetzt hatte.


pXe

Gast23
2010-03-22, 18:53:35
Tesselation, DX11, Benchmarks und Techdemo-Shooter interessiert mich wenig.
Die meisten Spiele der letzten Jahre setzen mehr auf Spezialeffekte statt auf Gameplay. Mit diesen Spielen ist's wie mit den meisten Filmen aus Hollywood "kennste einen, kennste alle", für sowas ist mir meine Zeit zu wertvoll.

Wenn der GF104 im Vergleich zum G92 nicht deutlich mehr Leistung in DX9-Spielen mit TSSAA bietet, dann kann Nvidia ihre Heizkörper behalten.

Gast
2010-03-22, 18:54:03
CUDA will fix it. ;D http://www.youtube.com/watch?v=VpZXhR1ibj8

http://www.hardwareboard.eu/entry.php?4-Aufruf-Wir-werden-siegen!-Wir-sind-unbesiegbar

LovesuckZ
2010-03-22, 18:54:48
Das ist jetzt nicht dein Ernst? :|

War der Sarkasmus wirklich nicht erkennbar?

Gast
2010-03-22, 18:56:24
Vor allem potentielle Käufer :D
NV30/35 war das einzige mal bei der ich eine Generation ausgesetzt hatte.


pXe

lol weggerotzte Käufer. Der war gut. Ich hoffe das Fermi nicht weggerotzt wird.

Byteschlumpf
2010-03-22, 19:03:33
http://www.computerbase.de/artikel/hardware/grafikkarten/2003/kolumne_cinefx_fehlschlag_fiasko/

Ein Satz mit x: GeForceFX war wohl nix! :D

Gast
2010-03-22, 19:11:04
Die perf. Krone gehört mit 4x HD5870 allerdings weiterhin ATI. (dafür ist man in der CF-Hölle :))

Daran habe ich zweifel, CF skaliert mit >2GPUs ja nicht mal auf dem Papier besonders gut, von der gefühlten Performance will ich gar nicht reden.

Gast
2010-03-22, 19:11:57
Byteschlumpf. Warum hast du eigentlich die NVidia Elfe als Avatar? Sorry, erscheint mir nur ein bischen komisch.

LovesuckZ
2010-03-22, 19:16:36
Daran habe ich zweifel, CF skaliert mit >2GPUs ja nicht mal auf dem Papier besonders gut, von der gefühlten Performance will ich gar nicht reden.

Tri-Sli mit GTX480 sollte schneller sein als 2x 5970:
GTX 480 -> 5970 -> GTX480x2 -> 5970x2 -> GTX480x3
100% -> 125% -> 180% -> 225% -> 270%

Gast
2010-03-22, 19:17:05
Kannst Du nicht sagen. GF100 befindet sich an den technischen Grenzen der Fertigung, eine GF104, die ungefähr so groß wie eine RV870 ist, muss viele dieser Probleme nicht haben. (kann es aber sehr wohl)


GF104 sollte eher deutlich kleiner sein, ich würde auf eine Transistorenzahl knapp über G200 tippen.

Mit RV870-Größe dürfte sich fast ein 3GPC-Chip ausgehen.

Gast
2010-03-22, 19:17:31
Tri-Sli mit GTX480 sollte schneller sein als 2x 5970:
GTX 480 -> 5970 -> GTX480x2 -> 5970x2 -> GTX480x3
100% -> 125% -> 180% -> 225% -> 270%

4x5870 dürfte aber schneller sein.

tombman
2010-03-22, 19:18:23
Daran habe ich zweifel, CF skaliert mit >2GPUs ja nicht mal auf dem Papier besonders gut, von der gefühlten Performance will ich gar nicht reden.
http://www.abload.de/img/trisliscale61td.png (http://www.abload.de/image.php?img=trisliscale61td.png)
;)

LovesuckZ
2010-03-22, 19:18:47
4x5870 dürfte aber schneller sein.

Du kannst auch mit den entsprechenden Boards 4x GTX480 Karten verwenden. Wer sich für 2000€ Grafikkarten kaufen würde, der gibt auch den Mehrpreis für ein 4x SLI Board aus...

Gast
2010-03-22, 19:20:22
http://www.abload.de/img/trisliscalelvx6.png (http://www.abload.de/image.php?img=trisliscalelvx6.png)
;)

Tombman ist das gesichert? Quelle?

Gast
2010-03-22, 19:20:34
Du kannst auch mit den entsprechenden Boards 4x GTX480 Karten verwenden. Wer sich für 2000€ Grafikkarten kaufen würde, der gibt auch den Mehrpreis für ein 4x SLI Board aus...

4 x 5870 gibt es aber bald mit zwei Karten und jeweils 2GB RAM.

Byteschlumpf
2010-03-22, 19:22:04
Byteschlumpf. Warum hast du eigentlich die NVidia Elfe als Avatar? Sorry, erscheint mir nur ein bischen komisch.
Das kommt noch aus der FX-Zeit, wegen der Probleme mit der FX5800 (Performance und Lüfterlärm)! ^^

Dural
2010-03-22, 19:23:51
http://www.computerbase.de/news/hardware/grafikkarten/2010/maerz/tsmcs_40-nm-yields_50_prozent/

langsam möchte ich gerne wissen was TSMC mit 40nm so alles verhauen hat... und das nach über einem Jahr Massenherstellung!!!!!

Gast
2010-03-22, 19:25:06
http://www.computerbase.de/news/hardware/grafikkarten/2010/maerz/tsmcs_40-nm-yields_50_prozent/

Ja Dural. Ist alt. Das heisst noch schlechtere Preise.

derguru
2010-03-22, 19:26:07
4x5870 dürfte aber schneller sein.

locker,sogar bei ganz mieser skalierung;)

was alle leute mit tess nun haben,fanboys letzter halt vor der großen blamage:biggrin:

tombman
2010-03-22, 19:27:24
Tombman ist das gesichert? Quelle?
Die Quelle bin ICH- berechnet nach aktuellem Wissensstand. Die ATI-Werte sind real, die Nvidia-Werte extrapoliert
aus der üblichen TRI-SLI Skalierung und dem angeblichen Vantage X Wert der 480er.
Das Bild ist eh selbsterklärend, wobei "est." "ESTIMATED" (="geschätzt") heißt.

Nvidia gewinnt nur, wenn die 480er die 10000 in Vantage X klar hinter sich läßt, ansonsten gewinnt 4x HD5870.

Die 4x HD5870 Werte kommen vom berühmten TRUBITAR auf Youtube, die 2x HD5970 Werte kommen von Computerbase, wie auch
die 285-Sli-Skalierung.

Der Rest ist einfach :)

Bei den gefühlten fps könnte Nvidia mit 3x GTX480 aber vorne liegen :eek:
Vorallem bei echten games, da diese nicht so gut wie 3DM skalieren!

Spasstiger
2010-03-22, 19:31:59
Mit Cypress Tessellationgeschwindigkeit stellt sich eher die Frage, ob Tessellation überhaupt sinnvoll eingesetzt werden kann.
Man kann den Tessellationsgrad auch anpassen. Wenn Tessellation auf einem GF100 in Echtzeit funktioniert (inkl. Hull- und Domainshader), funktionierts zumindest mit verringertem Tessellationsgrad auch auf dem Cypress.

NV30/35 war das einzige mal bei der ich eine Generation ausgesetzt hatte.
Der NV30 hat meine Befürchtungen damals in Luft aufgelöst. Ich hatte nämlich Angst, mit der Radeon 9700 nur eine halbgare Lösung erworben zu haben. Auch wenn die Performance massiv gut war.

Gast
2010-03-22, 19:33:12
imo sollte die gtx480 auf x9850points kommen.

Gast23
2010-03-22, 19:33:46
Wer sich für 1500€ - 2000€ Grafikkarten kauft, hat wohl ganz andere Probleme.
Für das Geld kann man sich lieber ein Maßband und ein gutes Rennrad oder MTB kaufen und seine Ausdauer trainieren. Durch Ausdauertrainig steigt die reproduktive Leistungsfähigkeit deutlich mehr als durch alle Grafikkarten der Welt.

Gast
2010-03-22, 19:40:20
Wer sich für 1500€ - 2000€ Grafikkarten kauft, hat wohl ganz andere Probleme.
Für das Geld kann man sich lieber ein Maßband und ein gutes Rennrad oder MTB kaufen und seine Ausdauer trainieren. Durch Ausdauertrainig steigt die reproduktive Leistungsfähigkeit deutlich mehr als durch alle Grafikkarten der Welt.

Pah. Was nützt mir ein Rennrad wenn ich zu faul zum radeln bin.

Dural
2010-03-22, 19:42:13
das böse erwachen kommt dann noch mit 28nm... ich wette die ganzen 40nm probleme werden 28nm massiv verspäten lassen...

keine tollen aussichten für die nächsten jahre...

Gast
2010-03-22, 19:43:51
ATI steigt doch auf GF um. Dann werden Kapazitäten für NV frei.

Gast
2010-03-22, 19:44:50
Nichtsdestoweniger werden sich die Spieleentwickler nicht an einem Hoigh-End-Produkt orientieren können.

Dass schöne an Tesselation ist ja, dass man sich an keinem Produkt orientieren muss, da das ganze beliebig skalierbar ist.

Sascha1971
2010-03-22, 19:45:01
das böse erwachen kommt dann noch mit 28nm... ich wette die ganzen 40nm probleme werden 28nm massiv verspäten lassen...

keine tollen aussichten für die nächsten jahre...


Ich denke mal das so langsam die Firmen umdenken müssen.
Auch weil man irgendwann mal so schnell an die Grenzen des machbaren kommt.

tombman
2010-03-22, 19:45:30
updated:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7920920&postcount=17307

AnarchX
2010-03-22, 19:52:19
The Truth. I have seen it.
Thanks to a "certain" friend of mine who's under the NDA, i've had a quick look at nVidia FTP with pics, "reviewer's guides", drivers an most improtantly a whole plethora of the GTX470/480 benchmarks against the HD5850 and HD5870 and from what i've seen, the GTX480 beats the HD5870 easily by 25% on average. Sometimes it's 10% sometimes 50-60% but the GTX480 always wins.

They used the 10.2 ATi cats for their comparison by the way.
http://futuremark.yougamers.com/forum/showthread.php?t=125009

Mit Cat10.3 und einer weniger bevorzugenden Auswahl, würde ich bei 25% von NV, auf 10-15% real schätzen. Das wären wohl gegenüber der GTX 285 ~55% mit 4x MSAA.

Gast
2010-03-22, 19:55:13
AnarchX. Aber NVidia kann auch die Treiber verbessern. Hmm das hört sich doch nicht so schlecht an.

Spasstiger
2010-03-22, 19:55:20
Dass schöne an Tesselation ist ja, dass man sich an keinem Produkt orientieren muss, da das ganze beliebig skalierbar ist.
Eine gewisse Shaderleistung ist für die Abarbeitung der Hull- und Domainshader-Stages schon notwendig. Für die Shaderleistung einer Radeon HD 5450 wird kein Entwickler seine Tessellationsimplementierung auslegen.

Gast
2010-03-22, 19:55:35
um nochmal kurz auf 28nm zurück zu kommen hat TSMC nicht gemeint sie könnnen in 28nm erst in guten stückzahlen in 2 jahren herstellen und dadurch auch die r900 serie von ATI nicht in 28nm sondern 40nm gefertigt wird?

Gast
2010-03-22, 19:56:48
Wollen wir mal hoffen der Futuremark Typ hat Recht. Ich wünsche mir es.

Gast
2010-03-22, 19:57:08
Das wären wohl gegenüber der GTX 285 ~55% mit 4x MSAA.

*autsch* :(

tombman
2010-03-22, 19:57:19
http://futuremark.yougamers.com/forum/showthread.php?t=125009

Mit Cat10.3 und einer weniger bevorzugenden Auswahl, würde ich bei 25% von NV, auf 10-15% real schätzen. Das wären wohl gegenüber der GTX 285 ~55% mit 4x MSAA.
I don't believe it :)

Freuen würds mich trotzdem.

Spasstiger
2010-03-22, 19:59:56
Es gibt einen Fall in dem Reviewers Guide, wo der Catalyst 10.3 die Verhältnisse wieder klar zurechtbiegt. ;)

Gast
2010-03-22, 20:00:05
Seit wann besteht directx 11 nur aus Tessellation?


Beim 3D-Part schon immer (zumindest fast)

mapel110
2010-03-22, 20:00:21
Wird auch sicher solche Reviews geben, wo es so aussieht. Vielleicht noch Dark Void benchen und ab gehts. ^^

Dural
2010-03-22, 20:01:04
*autsch* :(

wie so autsch? das sind 65% plus vor einer GTX280 und der GF100 auf der GTX480 ist noch lange nicht am "Chip limit"... 32SP fehlen und mehr takt wäre bei einer besseren fertigung sicher auch noch möglich...

boxleitnerb
2010-03-22, 20:01:13
Mit +10-15% wärst du schon zufrieden, tombman? Wow, hätte ich nicht gedacht :freak:

wie so autsch? das sind 65% plus vor einer GTX280 und der GF100 auf der GTX480 ist noch lange nicht am "Chip limit"... 32SP fehlen und mehr takt wäre bei einer besseren fertigung sicher auch noch möglich...

Wäre...von wäre kommen keine Karten ins Regal. Wird jetzt schon der Refresh zum Schönreden herangezogen?

Ronny145
2010-03-22, 20:02:48
http://futuremark.yougamers.com/forum/showthread.php?t=125009

Mit Cat10.3 und einer weniger bevorzugenden Auswahl, würde ich bei 25% von NV, auf 10-15% real schätzen. Das wären wohl gegenüber der GTX 285 ~55% mit 4x MSAA.


Naja kommt drauf an welche Spiele dort getestet wurden. Die 10-15% Abzug durch den Treiber finde ich schon sehr optimistisch.

Gast
2010-03-22, 20:04:25
NVidia wird minndestens einen Treiber auf Level 10.3 rausbringen. Neue Architektur etc. Ich bin gespannt.

Dural
2010-03-22, 20:05:06
Mit +10-15% wärst du schon zufrieden, tombman? Wow, hätte ich nicht gedacht :freak:



Wäre...von wäre kommen keine Karten ins Regal. Wird jetzt schon der Refresh zum Schönreden herangezogen?

es wird nichts schön geredet... aber von den 40nm problemen hat der GF100 in sich nichts zutun! es wird ja so getan als es am GF100 und NV liege was aber ganz offensichtlich nicht der fall ist!

Gast
2010-03-22, 20:05:09
Wenn 5870/50 nicht single-highend sein soll, weiß ich auch nicht..
5870 ist High-End. 334m^2, länger als 10,5", Stromverbrauch von 188 Watt...
Das ist bestimmt nicht Performance.
Hemlock ist nur so eine Art Anormalie. High-End was langsamer als "Performance" sein kann? Das kann per Definition kein High-End sein.

ATI baut schon lang kein High End mehr. Ist halt nur schade das nVidia nicht mal das wirklich toppen kann.

Gast
2010-03-22, 20:05:21
Ich will DX11+Tesselationsbenchmarks sehen, nur das zählt. Der andere DX9/10/.1 Kram ist Schnee von Gestern und läuft schnell genug.

Dural
2010-03-22, 20:06:30
Mit +10-15% wärst du schon zufrieden, tombman? Wow, hätte ich nicht gedacht :freak:



Wäre...von wäre kommen keine Karten ins Regal. Wird jetzt schon der Refresh zum Schönreden herangezogen?

es wird nichts schön geredet... aber von den 40nm problemen hat der GF100 in sich nichts zutun! es wird ja so getan als es am GF100 und NV liege was aber ganz offensichtlich nicht der fall ist!

der GF100 ist bei der derzeitigen 40nm Qualität so gut wie gar nicht MASSEN tauglich... NV haut das ding einfach raus weil sie es müssen.

Schlammsau
2010-03-22, 20:07:09
Ich will DX11+Tesselationsbenchmarks sehen, nur das zählt. Der andere DX9/10/.1 Kram ist Schnee von Gestern und läuft schnell genug.

Crysis läuft schnell genug..... :ulol:

Gast
2010-03-22, 20:07:29
25% Vorsprung. Das war auch mindestens zu erwarten. Alles darunter wäre peinlich.

Grestorn
2010-03-22, 20:07:48
ATI baut schon lang kein High End mehr. Ist halt nur schade das nVidia nicht mal das wirklich toppen kann.

Klar, es reicht ja, zu sagen "wir bauen kein HighEnd mehr, die Konkurenz toppt ja noch nicht mal unser MidRange!". :)

HighEnd definiert sich schließlich nicht durch das, was man sagt, sondern wie eben sich die Leistung im Vergleich am Markt einordnet.

Gast
2010-03-22, 20:10:42
25% Vorsprung. Das war auch mindestens zu erwarten. Alles darunter wäre peinlich.

ja grandiose leistung ... mit alten 10.2er treibern vergleichen und mit "cherry picked" nvidia benchmarks (zweifellos typische nvidia titeln mit physix wie batman und konsorten dabei...) die werden natürlich in den review guides TUNLICHST vermeiden speiel zu benchen, bei denen die neue architektur nicht so PRIMA läuft. auch logisch.

wer diesen 25% avarage mist glaubt, der was an der birne, sorry.

Gast
2010-03-22, 20:11:16
Klar, es reicht ja, zu sagen "wir bauen kein HighEnd mehr, die Konkurenz toppt ja noch nicht mal unser MidRange!". :)

HighEnd definiert sich schließlich nicht durch das, was man sagt, sondern wie eben sich die Leistung im Vergleich am Markt einordnet.

Wie glaubst du würde sich denn ein ATI Chip mit der die-Größe verhalten?

Black-Scorpion
2010-03-22, 20:11:22
wie so autsch? das sind 65% plus vor einer GTX280 und der GF100 auf der GTX480 ist noch lange nicht am "Chip limit"... 32SP fehlen und mehr takt wäre bei einer besseren fertigung sicher auch noch möglich...
Für die Verspätung ist TSMC Schuld.
Nun auch noch am niedrigen Takt und am Verbrauch bestimmt auch noch.
Dir kommt ja auch nie in den Sinn das NV was verbockt hat.
Aber wenn ..., dann wäre... usw.
Einfach mal auf die einfache Idee zu kommen das der Chip so wie er jetzt ist schon am Limit ist, ist einfach zu viel verlangt.

Gast
2010-03-22, 20:11:27
Wenn der GF104 im Vergleich zum G92 nicht deutlich mehr Leistung in DX9-Spielen mit TSSAA bietet, dann kann Nvidia ihre Heizkörper behalten.

Mit Fermi wird TSSAA irrelevant. Mit 32 Samples wird TMSAA nicht nur schneller, sondern auch deutlich schöner sein.

Gast
2010-03-22, 20:12:00
Klar, es reicht ja, zu sagen "wir bauen kein HighEnd mehr, die Konkurenz toppt ja noch nicht mal unser MidRange!". :)

HighEnd definiert sich schließlich nicht durch das, was man sagt, sondern wie eben sich die Leistung im Vergleich am Markt einordnet.

Es ist erstmal eine Tatsache das die Chips von AMD seit dieser Aussage erheblich kleiner sind als die High-End-Chips von NV und eben in dieser Hinsicht mit NVs Performance-Chips zu vergleichen sind. Und sorry, aber wenn NV mit Fermi einen Chip mit 50% mehr Transistoren baut der dann nur knapp schneller ist, ist das nicht unbedingt eine Architektonische Meisterleistung aus meiner Sicht. Bei RV770 war es ja noch extremer, das Ding war kleiner als ein G92, schlug aber fast GT200. Effizienz ist was anderes.

Gast
2010-03-22, 20:12:06
ja grandiose leistung ... mit alten 10.2er treibern vergleichen und mit "cherry picked" nvidia benchmarks (zweifellos typische nvidia titeln mit physix wie batman und konsorten dabei...) die werden natürlich in den review guides TUNLICHST vermeiden speiel zu benchen, bei denen die neue architektur nicht so PRIMA läuft. auch logisch.

wer diesen 25% avarage mist glaubt, der was an der birne, sorry.

Und du meinst NVidia kann keinen Treiber rausbringen der Fermi pushed? Ich sage 25% war zu erwarten, alles darunter ist FAIL.

Grestorn
2010-03-22, 20:12:07
Wie glaubst du würde sich denn ein ATI Chip mit der die-Größe verhalten?

HighEnd definiert sich doch nicht durch die Chip-Größe!

boxleitnerb
2010-03-22, 20:12:19
es wird nichts schön geredet... aber von den 40nm problemen hat der GF100 in sich nichts zutun! es wird ja so getan als es am GF100 und NV liege was aber ganz offensichtlich nicht der fall ist!

der GF100 ist bei der derzeitigen 40nm Qualität so gut wie gar nicht MASSEN tauglich... NV haut das ding einfach raus weil sie es müssen.

Was zählt, ist das, was beim Kunden ankommt. Der Rest interessiert den Käufer nicht. Einen Gnadenkauf, weil TSMC verkackt hat, kann ja wohl keiner erwarten ;D

mapel110
2010-03-22, 20:12:19
Es gibt keine Benchvorgaben mehr, wenn das NDA unten ist. Die Tester dürften sich ALLES aussuchen, was auf dem Markt ist in Sachen Software.
(war an einen Gast gerichtet. Posting weg ;( )

Gast
2010-03-22, 20:12:42
TSMC einfach ein Trauerspiel ohne Ende. Man stelle sich vor der Flummi würde in Intel Prozesstechnologie gefertigt, der hätte dann vermutlich den doppelten Takt bei halbem Stromverbrauch...

Gast
2010-03-22, 20:13:17
Crysis läuft schnell genug..... :ulol:

Crysis2 steht vor der Tür, ich will wissen welche Karte die bessere ist. Daher DX11 ist Trumpf! Irgendwelche Uraltgames zählen nicht, außer vieleicht für Ati Fans die sich ärgern das falsche Produkt gekauft zu haben.

Schlammsau
2010-03-22, 20:13:28
HighEnd definiert sich doch nicht durch die Chip-Größe!

Sag das mal unserem Liebeslutscher. ;)

Ronny145
2010-03-22, 20:14:29
Und du meinst NVidia kann keinen Treiber rausbringen der Fermi pushed? Ich sage 25% war zu erwarten, alles darunter ist FAIL.


Man kann doch nur den Treiber nehmen, der zur Verfügung gestellt wird. Genauso könnten die Optimierungen bei NVIDIA schon mit drin sein. Wie sich das mit dem Treiber dann entwickelt wird sich in den nächsten Wochen/Monaten zeigen.

Gast
2010-03-22, 20:14:41
HighEnd definiert sich doch nicht durch die Chip-Größe!

Den Preis bestimmen zur Zeit die Händler. Wonach definierst du also High End?

Gast
2010-03-22, 20:15:04
25% Mehrleistung für mindestens 500 Euro. Haut hin.

Gast
2010-03-22, 20:15:28
Mit +10-15% wärst du schon zufrieden, tombman? Wow, hätte ich nicht gedacht :freak:

Äh, die Karte ist immer schneller und bringt im Minimalfall 10 % mehr Performance, aber meistens mehr + die exklusiven Features.
Da kann man nicht meckern.
Und ein schöner Speedup zum Vorgänger ist es auf jeden Fall.
Das einzige Manko neben der Power Consumption wird wohl der Preis sein. Wenn das Ding rar ist, dank beschissener Yields, dann bleibt der Bestellstatus in den Shops für die nächsten Monate rot und die Schwarzmarktpreise liegen jenseits der 500 Euro.
Ich hoffe, bei der 470 sieht es nicht ganz so übel aus. nV's Mid-Range müsste auch mal langsam gelaunched werden. Da pressierts wirklich.

Schlammsau
2010-03-22, 20:15:30
Crysis2 steht vor der Tür, ich will wissen welche Karte die bessere ist. Daher DX11 ist Trumpf! Irgendwelche Uraltgames zählen nicht, außer vieleicht für Ati Fans die sich ärgern das falsche Produkt gekauft zu haben.

Ich ärgere mich nicht im geringsten....die 213 Kröten, die ich vor 5! Monaten in meine 5850 investiert habe, waren mit Sicherheit keine Fehlentscheidung. ;)

Spasstiger
2010-03-22, 20:16:24
High End fängt heute bei ca. 300€ an, siehe auch Leonidas Umfrage auf der Startseite. Ich finde, er hat den Preispunkt ganz gut getroffen.

Gast
2010-03-22, 20:17:30
Ich ärgere mich nicht im geringsten....die 213 Kröten, die ich vor 5! Monaten in meine 5850 investiert habe, waren mit Sicherheit keine Fehlentscheidung. ;)

Ich hab dich auch garnicht gemeint. Aber man will ja wissen welche Karte DX11 besser beherrscht oder nicht?

Gast
2010-03-22, 20:17:38
HighEnd definiert sich doch nicht durch die Chip-Größe!

Du weichst aus. Mag sein das man die AMD-Karten jetzt als High-End bezeichnen kann, aber das liegt nur an der Schwäche von NV. Eine 5870 sollte normalerweise kein Gegner für einen Fermi mit >3Mrd Transistoren sein. Streamprozessoren kann man schließlich beliebig in die breite skalieren.

Gast
2010-03-22, 20:17:56
TSMC einfach ein Trauerspiel ohne Ende. Man stelle sich vor der Flummi würde in Intel Prozesstechnologie gefertigt, der hätte dann vermutlich den doppelten Takt bei halbem Stromverbrauch...
Äpfel mit Birnen vergleichen? Selbst 'n Apfel und ne Birne liegen wohl näher beisammen als ne CPU und die heutigen GPUs.

Gast
2010-03-22, 20:18:38
High End fängt heute bei ca. 300€ an, siehe auch Leonidas Umfrage auf der Startseite. Ich finde, er hat den Preispunkt ganz gut getroffen.

Hmkay, ATI baut also High End.