PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 480 und 470: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28

Fetter Fettsack
2010-05-27, 15:06:42
Strange ist auch, dass die so kurz nach der gestrigen Pressemitteilung schon einen Test haben.

Verbindungen, die andere nicht haben?

zitat von airbag
(Naja ist ja eigentlich Betrug, aber wenn man sich nicht zu doof anstellt ,kommt man damit durch, weil viele Hersteller nicht jede Karte auf Herz und NIeren prüfen)^^.

Eigentlich bezweifle ich die Sache mit dem Betrug, solange man einen adequaten Lüfter verwendet und beim Umbau keine Beschädigung verursacht. Wenn dann ein Defekt an, sagen wir, den Speicherchips auftritt, dann wäre es meiner Ansicht nach noch immer zumindest ein Gewährleistungsfall, denn man hat ja den Defekt selber nicht verschuldet (wäre wohl auch mit dem Originalkühler vorgefallen). Eine gesetzliche Vermutung, dass bei einem sachgemäßen und reversiblen Umbau eines Gerätes der Käufer sich "freibeweisen" muss, würde mir jetzt nicht einfallen.

airbag
2010-05-27, 15:11:26
Nur das bei der Gewährleistung die Beweispflicht umgekehrt ist. Nicht der Hersteller muss beweisen, dass du die Karte kaputt gemacht hast, sondern du musst beweisen, dass du sie nicht selber kaputt gemacht hast.

Wenn man es jedoch auf eigene Faust macht, ist es unwahrscheinlich, dass man es beweisen kann.
Wenn du man es jedoch von einem Händler machen lässt, bem man durch eine Rechnung oder sonstiges bekommt, ist es wahrscheinlicher.

Fetter Fettsack
2010-05-27, 15:17:43
Zumindest in Österreich muss sich der Händler in den ersten 6 Monaten freibeweisen (so es dem Wesen des Schadens nach nicht offensichtlich ist, dass der Kunde der "Uhrheber" :D ist), dann muss es der Kunde. In Deutschland wird es wohl ähnlich sein (da sich das Zivilrecht beider Staaten einigermaßen gleicht [in seinen Grundzügen]).

EDIT: Um allerdings wieder die Kurve zum Thema zu kratzen: eine gute Karte sollte eine brauchbare Mischung aus geringer Lautstärke, akzeptabler Leistung und nicht unnötig hohem Stromverbrauch darstellen. Wobei dass alles als eine Art Endergebnis zu betrachten ist, bei welchem die drei Komponenten variabel in ihrer Gewichtung sind (komunizierenden Gefäßen gleich).

hq-hq
2010-05-27, 20:24:07
offensichtlich interessiert die leutz in erster linie nur fps wie jüngst eine umfrage auf 3dcenter gezeigt hat. geringe lautstärke und stromverbrauch sowie features sind nur schmückendes beiwerk ;)

Gast
2010-05-27, 20:28:08
Vollkommen unverständlich.
Den was sind diese ominösen FPS?

Es gibt nicht das Gerät, was mehr FPS liefert. Es gibt nur das Gerät, das in Situation und Setting XY mehr FPS liefert. Es kann nicht sein, das die Leute nur die FPS wissen wollen, aber wo es nun der Fall ist, ist ihnen vollkommen wurst.

Gast
2010-05-27, 21:04:18
offensichtlich interessiert die leutz in erster linie nur fps wie jüngst eine umfrage auf 3dcenter gezeigt hat. geringe lautstärke und stromverbrauch sowie features sind nur schmückendes beiwerk ;)
Da hast du wohl etwas missverstanden...
Link?
Du meinst wohl die Umfrage zu PhysX und Cuda.
Ja, darauf legen die meisten keinen oder kaum einen Wert.

Bei Lautstärke und Stromverbrauch sieht die Lage sicherlich anders aus. ;)

Gast
2010-05-27, 22:35:10
GTX 480 BIOS auf einer GTX 470 erhöht die Leistung?

http://www.overclock.net/attachments/nvidia/155572-nibitor-fermi-support-out-joined.jpg

http://www.xtremesystems.org/forums/showpost.php?p=4408100&postcount=7

Sorkalm
2010-05-27, 22:58:38
Klar, denn die 480 hat höhere Taktraten. :rolleyes:

Aber wenn der zusätzliche Speicher angesprochen sollte, dürfts Probleme geben.

mapel110
2010-05-27, 23:02:23
Wird ja offenbar nicht. Es bleibt bei 448 SPs und 1280MB VRam. Schon erstaunlich, dass das funktioniert.

hq-hq
2010-05-27, 23:09:14
eeh, sieht nach einem hoax aus, ausserdem sind 17000P punkte für ne gtx470 mit knapp 800mhz zu wenig
815mhz waren bei mir mit 197.45 18xxx und mit 257beta 19xxxP punkte

deekey777
2010-05-31, 12:46:45
Top500 der Supercomputer: China legt kräftig zu (http://www.heise.de/newsticker/meldung/Top500-der-Supercomputer-China-legt-kraeftig-zu-1010765.html)
Gut die Hälfte der Rechenleistung des zweitplatzierten chinesischen Systems erbringen 4640 Nvidia-Tesla-Karten C2050 mit der neuen Fermi-Architektur
So viel zum Thema "Es gibt keine Teslas mit dem GF100".

OgrEGT
2010-05-31, 21:41:05
Top500 der Supercomputer: China legt kräftig zu (http://www.heise.de/newsticker/meldung/Top500-der-Supercomputer-China-legt-kraeftig-zu-1010765.html)

So viel zum Thema "Es gibt keine Teslas mit dem GF100".

Genau, denn die haben alle die Chinesen :freak:

Bucklew
2010-05-31, 22:10:40
So viel zum Thema "Es gibt keine Teslas mit dem GF100".
Natürlich gibt es Teslas, nur sicherlich nicht 100% von den 400.000, wie es manche gerne behauptet haben. Für Nvidia aber sicherlich ein sehr lohnendes Geschäft.

Schlammsau
2010-05-31, 22:13:34
Natürlich gibt es Teslas, nur sicherlich nicht 100% von den 400.000, wie es manche gerne behauptet haben. Für Nvidia aber sicherlich ein sehr lohnendes Geschäft.

Wer hat das behauptet?
Wenn ich mich recht entsinne, hat das niemand behauptet. Es steht nur die Frage im Raum, wieviel den nun wirklich von den 400000 GPUs in die Teslas gelaufen sind.

Bucklew
2010-05-31, 22:14:28
Wenn ich mich recht entsinne, hat das niemand behauptet. Es steht nur die Frage im Raum, wieviel den nun wirklich von den 400000 GPUs in die Teslas gelaufen sind.
Je mehr, je besser.

Schlammsau
2010-05-31, 22:17:37
Je mehr, je besser.

Für den Umsatz schon, für die Marktanteile eher nicht.

LovesuckZ
2010-05-31, 22:24:39
Wer hat das behauptet?
Wenn ich mich recht entsinne, hat das niemand behauptet. Es steht nur die Frage im Raum, wieviel den nun wirklich von den 400000 GPUs in die Teslas gelaufen sind.

Alleine schon, dass man 30% schätzt, zeugt von Unwissenheit. Und ratet mal, wer das war?

Ich hab doch "evtl" geschrieben oder?

Ich zweifel die 400000 verkauften GPUs doch auch gar nicht an, nur das sie nach deiner Meinung, auf Grafikkarten schon in heimischen Rechnern wergeln. ;)
JPR hat eine Schätzung basierend auf den von nVidia verkauften GPUs, die auf Teslas und GeForces verbaut werden gemacht. Zu sagen, das schon 400000 GeForces an den Mann gebracht wurden, halte ich für sehr gewagt von dir und basiert auf keiner Grundlage!

Wie hoch ist der Tesla Anteil aller Fermi basierten Grafikkarten? 30%? Wie lange werden die Teslas mit Fermi schon hergestellt und verkauft?

Bucklew
2010-05-31, 22:26:00
Für den Umsatz schon, für die Marktanteile eher nicht.
Für die einen Marktanteile gut, für die anderen schlecht. Wenn ich aber die Wahl habe meinen (gleich teuren) Chip für 500 oder 2500$ verkaufen zu können, steht mein Entschluß schnell fest.

PulsarS
2010-05-31, 22:29:27
Für die einen Marktanteile gut, für die anderen schlecht. Wenn ich aber die Wahl habe meinen (gleich teuren) Chip für 500 oder 2500$ verkaufen zu können, steht mein Entschluß schnell fest.
So siehts aus.
Man muss dann aber auch den Imageverlust im Gamermarkt inkauf nehmen.

Bucklew
2010-05-31, 22:38:58
So siehts aus.
Man muss dann aber auch den Imageverlust im Gamermarkt inkauf nehmen.
Stimmt, aber wie groß ist der Imageverlust? Ja, Fermi schluckt mehr Strom als er sollte, aber ansonsten? Ist jetzt nicht das erste Mal, dass eine neue Architektur im Vergleich zu vorher ineffizent ist. Mal schauen ob es ATI bei SI besser hinkriegt, hab da aber meine Zweifel.

Schlammsau
2010-05-31, 22:40:58
Alleine schon, dass man 30% schätzt, zeugt von Unwissenheit. Und ratet mal, wer das war?
Das war keine Schätzung, das war eher eine Frage! :mad:
Und was hat das mit den viel behaupteten 100% zu tun?????

Fetter Fettsack
2010-05-31, 22:43:13
Mal schauen ob es ATI bei SI besser hinkriegt, hab da aber meine Zweifel.

Was genau lässt dich zweifeln?

LovesuckZ
2010-05-31, 22:45:36
Wie wäre es mit Cypress.
nVidia brauchte 1 1/2 Jahre nach dem r300 um mit einer komplett umgearbeiteten Architektur aufzuschließen. Lustig, dass AMD das alles in Zeit und ohne Probleme vollbringen sollte, vorallem da AMD in Bezug auf Geometrieleistung die einfachste und simplste Lösung gewählt hat.

PulsarS
2010-05-31, 22:45:59
Stimmt, aber wie groß ist der Imageverlust? Ja, Fermi schluckt mehr Strom als er sollte, aber ansonsten? Ist jetzt nicht das erste Mal, dass eine neue Architektur im Vergleich zu vorher ineffizent ist. Mal schauen ob es ATI bei SI besser hinkriegt, hab da aber meine Zweifel.
Komm mir jetzt hier nicht mir SI. :tongue:
Ich finde diese Strategie auch nicht gut.
Und in Zeiten von Green-IT ist Stromverbrauch auch sehr wichtig.
Wobei essenziel ist die zu hohe Lautstärke der GF100-Karten.
Ich habe schon kurz eine GTX 470 gehabt, ist aber wegen der Lautstärke zurückgegangen.

Bucklew
2010-05-31, 22:48:26
Was genau lässt dich zweifeln?
r600

Und in Zeiten von Green-IT ist Stromverbrauch auch sehr wichtig.
Ich finde einen niedrigen Stromverbrauch auch grundsätzlich gut. Aber bei einer 500€ Grafikkarte? Die eh 200W zieht? Was machen da schon 10% mehr oder weniger?

Gast
2010-05-31, 22:49:19
Wie wäre es mit Cypress.
nVidia brauchte 1 1/2 Jahre nach dem r300 um mit einer komplett umgearbeiteten Architektur aufzuschließen. Lustig, dass AMD das alles in Zeit und ohne Probleme vollbringen sollte, vorallem da AMD in Bezug auf Geometrieleistung die einfachste und simplste Lösung gewählt hat.

Klar Cypress gegen GF100 ist wie NV30 gegen R300.
Alles klar.
Und bestimmt entwickelt ATI SI/NI seit GF100 Release...
Das dauert bestimmt bis 2013.;)

PulsarS
2010-05-31, 22:50:31
Was genau lässt dich zweifeln?
Viele Faktoren.
ATI wird die TDP anheben, weil Nvidia es auch tut.
SI wird nicht viel schneller als die 5000er Serie sein, bei den verfügbaren Spielen natürlich.

vorallem da AMD in Bezug auf Geometrieleistung die einfachste und simplste Lösung gewählt hat.
Aber sehr effektiv.

LovesuckZ
2010-05-31, 22:51:47
Klar Cypress gegen GF100 ist wie NV30 gegen R300.
Alles klar.
Und bestimmt entwickelt ATI SI/NI seit GF100 Release...
Das dauert bestimmt bis 2013.;)

Stimmt. nVidia hat ja auch erst am GF100 angefangen als Cypress draußen war. Deswegen die Verspätung.
Achne, die kam, weil es doch nicht so einfach ist die Geometrieabarbeitung zu parallelisieren.
Aber AMD ist sowieso besser als nVidia. Haben sie ja mit Cypress gezeigt. Also 1/8 der Leistung von einer GTX480 mit Tessellation spricht eindeutig für AMD. ;D

Fetter Fettsack
2010-05-31, 22:54:26
Ich finde einen niedrigen Stromverbrauch auch grundsätzlich gut. Aber bei einer 500€ Grafikkarte? Die eh 200W zieht? Was machen da schon 10% mehr oder weniger?

Das Problem liegt ja, wie ich finde, eher darin, dass die Chips dieser Karten dann in kleinerer Form in preislich niedrigeren Gefielden auftauchen und da macht es in der Summe gesehen doch etwas aus, wenn man dahingehend unnötig viel Energie verbrät, wiewohl man die gleiche Leistung auch bei weniger Verbrauch zustande brächte (zumindest sehe ich das so).
Sprich, die Ökonomie macht dir da einen Strich durch deine Logik.

EDIT:

vorallem da AMD in Bezug auf Geometrieleistung die einfachste und simplste Lösung gewählt hat.

Sowas finde ich nicht verwerflich, solnage, wie PulsarS schon erwähnte, die Effizienz gewahrt bleibt. Um einen hochbeliebten Autovergleich zu bemühen (jaja, Sündenfall², ich weiß ;) ), Lada Taiga haben uralt Technik, sind aber robust und geländetauglich wie sonst kaum etwas, das mit Rädern fährt. Der viel teurere und komplexere HUMMVEE ist von der im Endeffekt bestehenden Brauchbarkeit her gesehen auf dem selben Niveau (bei einem viel höheren Preis).

Daher habe ich kein Problem, wenn etwas auf die einfachste Art gelöst wird, solange es läuft und funktioniert. Muss ja nicht überall "Viel Feind', viel Ehr'" gelten ;) .

PulsarS
2010-05-31, 22:55:38
. Also 1/8 der Leistung von einer GTX480 mit Tessellation spricht eindeutig für AMD. ;D
Und bei AvP ist ATI kaum hinter Nvidia, obwohl Tess eingesetzt wird.

Deine Schallplatte hat einen Sprung.:D

Schlammsau
2010-05-31, 22:57:53
Stimmt. nVidia hat ja auch erst am GF100 angefangen als Cypress draußen war. Deswegen die Verspätung.
Achne, die kam, weil es doch nicht so einfach ist die Geometrieabarbeitung zu parallelisieren.
Aber AMD ist sowieso besser als nVidia. Haben sie ja mit Cypress gezeigt. Also 1/8 der Leistung von einer GTX480 mit Tessellation spricht eindeutig für AMD. ;D

Eigentlich schon, weil sie Tesselation nutzbar schon vor 8 Monaten angeboten haben.
Ich hab DiRT2, AvP und STALKER COP schon mit dem sagenumwobenen Tesselation *huuuu* spielen können, da hast du mit deiner GTX200 noch so richtig dumm aus der Wäsche geschaut. :)

Gast
2010-05-31, 23:02:56
Hat man keine Argumente als AMD Fanboytrollgast, wird gespammt.
Aber dazu ist ja der Gastaccount da.

Und das ständige wiederholen von Argumenten ist kein Spam?
Was zum Teufel hat 1/8 Geometrieleistung des GTX 480 mit SI zu tun?
Hatte die GTX280 gegenüber GF100 mehr?
Was sind das für Argumente?

LovesuckZ
2010-05-31, 23:08:34
Sowas finde ich nicht verwerflich, solnage, wie PulsarS schon erwähnte, die Effizienz gewahrt bleibt. Um einen hochbeliebten Autovergleich zu bemühen (jaja, Sündenfall², ich weiß ;) ), Lada Taiga haben uralt Tchnik, sind aber robust und geländetauglich wie sonst kaum etwas, das mit Rädern fährt. Der viel teurere und komplexere HUMMVEE ist von der im Endeffekt bestehenden Brauchbarkeit her gesehen auf dem selben Niveau (bei einem viel höheren Preis).

Daher habe ich kein Probelm, wenn etwas auf die einfachste Art gelöst wird, solange es läuft und funktioniert. Muss ja nicht überall "Viel Feind', viel Ehr'" gelten ;) .

Was bringt mir Effizienz, wenn es am Ende aufgrund der geringen Leistungsfähigkeit fast nutzlos ist? Schau dir AVP3 an: Dank AMD wird soviel Tessellation eingesetzt, dass man es auf Bildern sieht. Für das Spiel vollkommen belanglos. Auch Metro2033 und Stalker zeigen das selbe Bild.
Hätte nVidia den selben Weg eingeschlagen, wäre DX11 Tessellation bis zum 28nm Prozess fast vollständig von der Bildfläche verschwunden, weil es in keinem vernünftigen Rahmen einsetzbar gewesen wäre.
Nur so zum Vergleich: Eine GTX480 kann mit Tessellation doppelt soviele Dreiecke pro Sekunde erzeugen wie Cypress ohne. Eine GTX480 ist in Stone Giant (mit T auf high) schneller als eine GTX285 und in Heaven 2.1 mit Tessellation wohl auch schneller (hier fehlen mir die Daten, aber ausgehen von einem GTX260 SLI System, dürfte es der Fall sein).
Cypress dagegen bricht überall übermäßig ein. Sry, aber Effizienz bringt mir nichts, wenn es nicht spielbar bleibt.
Denn es hat schon seinen Grund gehabt, warum die Dreieckserzeugungsleistung stetig in den letzten Jahren angestiegen ist und nicht auf Cypress@Tessellationniveau verharrte.

Und das ständige wiederholen von Argumenten ist kein Spam?
Was zum Teufel hat 1/8 Geometrieleistung des GTX 480 mit SI zu tun?
Hatte die GTX280 gegenüber GF100 mehr?
Was sind das für Argumente?

Es sind wenigsten Argumente. Was dir hinter deinem Gastaccount völlig abgeht. Vorallem wenn man nichtmal erkennt, dass Cypress und GT200 den selben Front-End Aufbau besitzen und dass AMD den GT200->GF100 Weg noch gehen muss. Und dies hat bei nVidia zu Problemen geführt. Aber natürlich wissen wir, dass AMD viel besser sind, diesen Schritt zu gehen. :rolleyes:

Schlammsau
2010-05-31, 23:14:36
Was fürne verquere denke....wenn ATi Tesselation vor 8 Monaten nicht eingeführt hätte, mit dem Release der ersten DX11-fähigen Karten, hätten wir doch bis heute keine Tesselation Games. :ulol:
Oder meinst du DiRT2, AVP und Stalker wären so früh mit Tesselation Support erschienen, wenn es keine Grafikkarte am Markt gegeben hätte, die das unterstützt?
Thermi ist über 5 Monate nach dem Release von DiRT2 erschienen.

Ein wirklich ernsgemeinter Rat, streich dieses dumme Modewort ganz schnell wieder aus deinem begrenzten Wortschatz und halte die Füsse still! Ich kanns nimma lesen!

Gast
2010-05-31, 23:18:26
Es sind wenigsten Argumente. Was dir hinter deinem Gastaccount völlig abgeht. Vorallem wenn man nichtmal erkennt, dass Cypress und GT200 den selben Front-End Aufbau besitzen und dass AMD den GT200->GF100 Weg noch gehen muss. Und dies hat bei nVidia zu Problemen geführt. Aber natürlich wissen wir, dass AMD viel besser sind, diesen Schritt zu gehen. :rolleyes:

Achso ich dachte das ist alles TSMCs Schuld.
Aber wenigstens weiß jeder was hinter LZs Account abgeht...

LovesuckZ
2010-05-31, 23:18:53
Stimmt. Wir hätten aufsoviel verzichtet. Ich meine, einen runden Alienkopf, aufgeblasene Stalkerfiguren und ein bissl schöneres Wasser und schönere Fahnen in Dirt:2.
Ja, darauf hat die Welt gewartet. Wieso ist eigentlich die Wand in der ersten Szene vom AVP3 Benchmark so eindimensional? :lol:
Schon erstaunlich, dass der einzige richtige Tessellationeinsatz die Heaven Demo von AMD und Unigine war. Also die Anwendung, die von dir und den anderen niedergemacht wird, weil sie ja viel zu viel Tessellation einsetzt.
Aber wenigsten einen geringen Stromverbrauch. Macht die Spiele zwar nicht schöner aber hey, er ist so schön gering.

Die Ironie von der Geschicht selbst Cuda in Just Cause 2 bringt mehr grafische Qualität als Tessellation dank AMD.

Fetter Fettsack
2010-05-31, 23:20:42
Cypress dagegen bricht überall übermäßig ein. Sry, aber Effizienz bringt mir nichts, wenn es nicht spielbar bleibt.
Denn es hat schon seinen Grund gehabt, warum die Dreieckserzeugungsleistung stetig in den letzten Jahren angestiegen ist und nicht auf Cypress@Tessellationniveau verharrte.

Hier möchte ich aber zur Cypress'schen Ehrenrettung sagen, dass er auch nicht derart für Tesselation konzipiert wurde, wie der GF100. Wenn ATi ebenso auf dieses Steckenpferd setzt, dann kann das daraus resultierende Produkt aus der vorhin erwähnten Effizienz womöglich auch noch profitieren (etwa wenn man die Tesselationseinheiten vermehrt). Mit deiner momentanen absoluten Leistungsbewertung hast du allerdings recht, da ist der GF100 vorne.

Dass der Fortschritt in diesen Sachen wichtig und begrüßenswert ist, streite ich nicht ab, nicht, dass du wieder Verrat oder sonstwas witterst. ^^

EDIT:

Aber wenigsten einen geringen Stromverbrauch. Macht die Spiele zwar nicht schöner aber hey, er ist so schön gering.

Also ich bin für geringen Stromverbrauch, auch wenn ich dafür nicht auf höchster Auflösung spielen kann (was mit einer 4670 ohnedies nicht immer gut geht :ulol:). Außerdem beruhigt es mein heuchlerisches Gewissen.

Schlammsau
2010-05-31, 23:20:46
Stimmt. Wir hätten aufsoviel verzichtet. Ich meine, einen runden Alienkopf, aufgeblasene Stalkerfiguren und ein bissl schöneres Wasser und schönere Fahnen in Dirt:2.
Ja, darauf hat die Welt gewartet. Wieso ist eigentlich die Wand in der ersten Szene vom AVP3 Benchmark so eindimensional? :lol:
Schon erstaunlich, dass der einzige richtige Tessellationeinsatz die Heaven Demo von AMD und Unigine war. Also die Anwendung, die von dir und den anderen niedergemacht wird, weil sie ja viel zu viel Tessellation einsetzt.
Aber wenigsten einen geringen Stromverbrauch. Macht die Spiele zwar nicht schöner aber hey, er ist so schön gering.

Die Ironie von der Geschicht selbst Cuda in Just Cause 2 bringt mehr grafische Qualität als Tessellation dank AMD.

Du hast zuviel Phantasie :rolleyes:

hq-hq
2010-05-31, 23:22:12
ich glaub schon das dank ati's dx11 grakas tesse äh... gibts ein unmodisches wort... polygonaufteilung gepusht und noch einzug in z.b. avp finden konnte. wäre zumindest naheliegend find ich jetzt, oder ums modisch abzukürzen mMn

LovesuckZ
2010-05-31, 23:29:51
Hier möchte ich aber zur Cypress'schen Ehrenrettung sagen, dass er auch nicht derart für Tesselation konzipiert
wurde, wie der GF100.

Das ist keine Ehrenrettung, das sieht man. Es war eben die einfachste Möglichkeit die Anforderungen umsetzen. Leistungstechnisch sehen wir jedoch auch, was dabei herauskommt.

Wenn ATi ebenso auf dieses Steckenpferd setzt, dann kann das daraus resultierende Produkt aus der vorhin erwähnten Effizienz womöglich auch noch profitieren (etwa wenn man die Tesselationseinheiten vermehrt).


AMD muss den kompletten Chip überarbeiten. Ich sehe hier eher einen Chip, der in Tessellation schneller aber in anderen Anwendungen langsamer ist, weil man irgendwo auch sparen musste.

Also ich bin für geringen Stromverbrauch, auch wenn ich dafür nicht auf höchster Auflösung spielen kann (was mit einer 4670 ohnedies nicht immer gut geht :ulol). Außerdem beruhigt es mein heuchlerisches Gewissen.

Meine GTX480 verbraucht mit 0,875V auch nur noch ca. 160 Watt. ;)

Fetter Fettsack
2010-05-31, 23:36:42
Meine GTX480 verbraucht mit 0,875V auch nur noch ca. 160 Watt.

Ich hab bei 1,25V ~ 63Watt. Im Idle 8 Watt. ;D
Ich bin ja so stolz auf mich. :D

Das ist keine Ehrenrettung, das sieht man.

Doch, das finde ich schon. Ich stelle dabei auf die Konzeption ab. Der GF100 wurde schon von Anfang an daraufhinentwickelt, dass das beim RV800 nicht möglich war, liegt ja auf der Hand.
Aber wie du richtig sagst:
AMD muss den kompletten Chip überarbeiten.

Ob dabei deine Prognose rauskommen wird, nun, das kann ich nicht beurteilen.

LovesuckZ
2010-05-31, 23:53:35
Doch, das finde ich schon. Ich stelle dabei auf die Konzeption ab. Der GF100 wurde schon von Anfang an daraufhinentwickelt, dass das beim RV800 nicht möglich war, liegt ja auf der Hand.
Aber wie du richtig sagst:
Ob dabei deine Prognose rauskommen wird, nun, das kann ich nicht beurteilen.

Ich verstehe nicht, wieso es bei Cypress nicht möglich gewesen sein sollte. Man wusste, dass Tessellation einzug in die Pipeline erlangt und auch, wie schnell die Infrastruktur ist. Für mich sieht es viel mehr danach aus, dass AMD nicht wusste, wie sie es besser implementieren könnten. Deswegen bin ich auch auf SI bzw. NI auf 40nm gespannt.

Ansonsten nochmal zum Heaven 2.0:
Eine GTX480 ist mit Tessellation auf Extreme ca. 6,8% (GTX480 erreicht 45,4FPS, GTX285 ca. 48,7 FPS (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7966508&postcount=138)) langsamer als eine GTX285 im DX10 Modus. Das ist eine beachtliche Leistung und zeigt, dass GF100 eben für Tessellation nicht zu langsam ist.

Gast
2010-05-31, 23:58:24
AMD wollte keine Transistoren opfern ist doch klar.
Es hätte ihnen nicht geholfen, dies zu tun.

Obs jetzt oder in einem halben Jahr schlechter für Cypress aussieht ist vollkommen unwichtig, aus AMDs Sicht.
AMD hat sich überlegt das es zur HD6 reicht so durchzutunneln und dann was besseres zu bieten.

Fetter Fettsack
2010-06-01, 00:06:00
Das ist eine beachtliche Leistung und zeigt, dass GF100 eben für Tessellation nicht zu langsam ist.

Habe ich so auch nie gesagt. Nur vor einer Woche, dass er generell (Tesselation + sonstige Anforderungen) bei großer Tesselationsverbreitung wohl schon zu langsam sein wird (also in ein, zwei Jahren).

Für mich sieht es viel mehr danach aus, dass AMD nicht wusste, wie sie es besser implementieren könnten

ICh würde fast sagen, dass das eher danach aussieht, dass sie es schlicht für unökonomisch hielten, das noch beim "alten" RV800 Konzept zu realisieren.
Bei NI oder vielleicht sogar SI wäre es sicherlich sinnvoller, sich darüber Gedanken zu machen.

Gast
2010-06-01, 00:09:28
ICh würde fast sagen, dass das eher danach aussieht, dass sie es schlicht für unökonomisch hielten, das noch beim "alten" RV800 Konzept zu realisieren.
Bei NI oder vielleicht sogar SI wäre es sicherlich sinnvoller, sich darüber Gedanken zu machen.
Eben, man baut keine Karten damit sich die Kunden daran lange erfreuen.
Man baut sie und will möglichst viel Gewinn machen. Dazu zählen Testberichte im hier und jetzt. Damals gabs ja keine GF400, also hat man richtig gehandelt.

Coda
2010-06-01, 00:11:41
AMD muss den kompletten Chip überarbeiten
Das sehe ich aber gewaltig anders. Die Streamprozessoren von AMD sind derzeit eindeutig um Längen überlegen was die Energieeffizienz angeht.

Jeder der beiden Parteien hat derzeit seine Hausaufgaben zu machen. Und so wie es aussieht könnte AMD damit früher fertig sein.

Mancko
2010-06-01, 00:12:32
Für den Umsatz schon, für die Marktanteile eher nicht.
NIcht nur für den Umsatzs sondern vor allem für den Gewinn. Damit kann man sich Marktanteile wunderbar quersubventionieren, indem man im Dekstop Bereich die Konkurenz preislich unter Druck setzt.

Wenn ich die Wahl habe zwischen x verkauften Teslas und gleicher Zahl an Desktopchips - na dann weiss ich aber was mir lieber ist.

Fetter Fettsack
2010-06-01, 00:21:29
Zitat von AnarchX

Das sehe ich aber gewaltig anders. Die Streamprozessoren von AMD sind derzeit eindeutig um Längen überlegen was die Energieeffizienz angeht.

Ich möchte nur anmerken, dass ich vorhin mit meiner Zustimmung zu der betreffenden Äußerung LSs die Implementierung von Tesselationseinheiten gemeint habe, so ATi Wert darauf legt.

LieberAal
2010-06-01, 01:15:08
Ach Tesselation - dieses ganze Dre(ie)cksthema wird doch viel zu hoch gehangen. Außer im Nahfeld wird man das in Zukunft eh nit benutzen um den Polycount hochzuschrauben, weils komplett sinnlos für die Optik wäre. Im Grunde kommt Tesselation als Technologie zu spät.
Aber ich will endlich was, was die Beleuchtung verbessert. Ich will Path Tracing mit einer zeitgemäßen Polyzahl oder etwas was so aussieht, dann kauf ich auch wieder eine neue Grafikkarte. Seit den Vodoos hat sich da so erschreckend wenig getan ... ich hab schon manchmal Angst, wir sind da in eine technologische Sackgasse gerannt. Ich hab ein Auto das fährt 180 Spitze, und wenn ich es für den Preis einer Grafikkarte auf 190 aufmöbeln könnte - ich würds nicht tun, ist in meiner Gegend nämlich sinnlos. Aber das ist genau die Entwicklung die wir bei den GraKas seit _Jahren_ haben. Die machen inzwischen 500 Sachen, halt schade, dass man die nirgends fahren kann / darf. Dafür haben sie immer noch keine Airbags, keine Klima, haben noch Blattfedern und saufen jedes Jahr das Doppelte.
Also so kanns nit weitergehen NV + Ati, denk euch mal was neues aus. Ich will endlich wieder Fortschritt _sehen_, und zwar beim Zocken auf meinem Moni, nit auf dubiosen Balkenbildchen noch dubioserer "Fachzeitschriften".

Byteschlumpf
2010-06-01, 01:58:06
Fermi = Tessi
So wird das wohl von Fermi-Nutzern allzugern gesehen, da Fermi hier die höheren FPS-Werte rausholt!

Ehrlich auch wenn Tessi hübsch anzuschauen ist, habe ich mir darauf noch nie einen runtergeholt (wie es einige hier wohl zu machen scheinen)! ;)
Laut diverser Argumentationen wird Fermi somit über dessen Tesselation-Leistung definiert. Da ich mich über dieses Thema bereits ausgelassen habe und LS dies bewußt ist, möchte ich dieses einseitige DX11-Thema nicht weiter ausführen. Solange nicht genügend GPUs vorhanden sind, die für Tessi flott genug sind, wird dies eh nur sozusagen als "Schmankerl" zum Einsatz kommen! ;)

Dagegen sehe ich einen weitaus größeren Nutzen von HDR, was für eine deutlich bessere Optik sorgt und auch DX9 Karten recht gut hinbekommen. Crysis kommt auch ohne Tessi bestens aus, dafür rockt es so richtig mit HDR! :)
Leider ist Fermi da auch nicht schneller als Cypress - trotz der 3Milliarden Transistoren. :(

Coda
2010-06-01, 02:03:05
Fermi fehlt es schlicht und ergreifend brutalst an Rechenleistung. So war das Ding auf dem Reißbrett wohl auch nie ausgelegt.

NVIDIA ging wohl davon aus mit der längeren Pipeline auch >1,6Ghz auf den ALUs zu fahren und vor allem auch 512. Vom Hörensagen gab's auch Testchips die das erreichten.

Byteschlumpf
2010-06-01, 02:15:33
Fermi fehlt es schlicht und ergreifend brutalst an Rechenleistung. So war das Ding auf dem Reißbrett wohl auch nie ausgelegt.

NVIDIA ging wohl davon aus mit der längeren Pipeline auch >1,6Ghz auf den ALUs zu fahren und vor allem auch 512. Vom Hörensagen gab's auch Testchips die das erreichten.

Wenn das nicht ganze Bände spricht?
http://www.fudzilla.com/content/view/18504/40/1/9/
Fazit:

Wie erwartet verhält sich die GTX480 wie ein kleines Heizkraftwerk. Selbst bei hohen Auflösungen und hohen Einstellungen kann die HD5850 genügend Leistung für einen flüssigen Spielaufbau liefern. Die GTX480 war nicht als Grafikkarte geplant, aber durch einige Probleme bei Nvidia, mußte ein auf CUDA-spezialisiertes Design um Grafikfunktionen erweitert werden. Mit Tessellation hat diese Karte noch mehr Potential, aber bis dies wirklich massentauglich wird, hat ATI noch genügend Zeit seine Treiber zu verbessern bzw. neue Karten herauszubringen.

Coda
2010-06-01, 02:28:24
"Die GTX480 war nicht als Grafikkarte geplant"

Das halte ich wiederrum für großen Blödsinn. Fudzilla ist nun wirklich auch keine solide Quelle.

Fetter Fettsack
2010-06-01, 08:43:09
Irgendetwas wird man sich ja wohl bei dem Design gedacht haben. Ich verstehe es zwar nicht ganz, aber es gibt schlimmeres.

Was vorhin angesprochen wurde, finde ich schon interessant, nämlich, dass hier wirklich die GF100 Karten fast nur aufgrund ihrer Tesselationseinheiten als das Nonplusultra angepriesen werden. Zwar mag diese Überlegenheit stimmen, aber die Verwendbarkeit von Tesselation zum momentanen Zeitpunkt ist doch offensichtlich nicht wirkich gegeben und bis dies der Fall ist, werden schon die neueren Generationen am Markt sein (vermute ichn jetzt einfach einmal).

Was macht also einen GF100 gegenüber einer HD Radeon momentan so derart überlegen in wirklich nutzbaren (nicht nur in Benches oder in zwei, drei Spielen)?
Gute OC-Möglichkeiten?
Absolut gesehen höhere Leistungsreserven?
Die Möglichkeit CUDA zu verwenden?
Hochwertigeres AF (wobei über die Bemerkbarkeit der schlechteren Qualität des ATi AFs auch schon gestritten wird)?
Hybridmodi bzw. SSAA unter DX10/11?

EDIT: Und ja, LovesuckS, ich weiß, dass ein GF100 um einiges besser im Heaven abschneidet und auch mehr Dreiecke pro Takt erzeugen kann als der Cypress, du hast es mir schon eingebläut, Wiederholung ist nicht nötig ;) .

LovesuckZ
2010-06-01, 09:55:53
Fermi fehlt es schlicht und ergreifend brutalst an Rechenleistung. So war das Ding auf dem Reißbrett wohl auch nie ausgelegt.

Das wären gerade mal 21% mehr an Rechenleistung. Ich glaube nicht, dass dies den Unterschied zwischen "ausreichend" und "fehlt es schlicht und ergreifend brutalst an Rechenleistung" ausmacht. ;)


NVIDIA ging wohl davon aus mit der längeren Pipeline auch >1,6Ghz auf den ALUs zu fahren und vor allem auch 512. Vom Hörensagen gab's auch Testchips die das erreichten.

Ich denke, dass nVidia sich bewusst war, dass die Einschnitte in der Ausrichtung sich genauso auswirken werden. Eventuell waren sie überrascht, dass AMD überhaupt nichts in Richtung parallele Geometrieabarbeitung tun würde, so dass man dann wohl einfach mit Atombomben auf Ameisen geschossen hat.
Schlussendlich muss AMD aber diesen Weg gehen und ich sehe nicht, dass es für sie einfacher werden würde als für nVidia.

Irgendetwas wird man sich ja wohl bei dem Design gedacht haben. Ich verstehe es zwar nicht ganz, aber es gibt schlimmeres.

Was vorhin angesprochen wurde, finde ich schon interessant, nämlich, dass hier wirklich die GF100 Karten fast nur aufgrund ihrer Tesselationseinheiten als das Nonplusultra angepriesen werden. Zwar mag diese Überlegenheit stimmen, aber die Verwendbarkeit von Tesselation zum momentanen Zeitpunkt ist doch offensichtlich nicht wirkich gegeben und bis dies der Fall ist, werden schon die neueren Generationen am Markt sein (vermute ichn jetzt einfach einmal).

Was macht also einen GF100 gegenüber einer HD Radeon momentan so derart überlegen in wirklich nutzbaren (nicht nur in Benches oder in zwei, drei Spielen)?
Gute OC-Möglichkeiten?
Absolut gesehen höhere Leistungsreserven?
Die Möglichkeit CUDA zu verwenden?
Hochwertigeres AF (wobei über die Bemerkbarkeit der schlechteren Qualität des ATi AFs auch schon gestritten wird)?
Hybridmodi bzw. SSAA unter DX10/11?

EDIT: Und ja, LovesuckS, ich weiß, dass ein GF100 um einiges besser im Heaven abschneidet und auch mehr Dreiecke pro Takt erzeugen kann als der Cypress, du hast es mir schon eingebläut, Wiederholung ist nicht nötig ;) .

Cypress ist auf die selben Abarbeitungsgebiete ausgebaut wurden, die seit Jahren vorherrschen: Texturleistung, Pixelleistung und Pixelrechenleistung.
Es ist logisch, dass GF100 hier nichts besonderes bieten, immerhin liegen die Schwerpunkte auf Bereiche, die heute kaum bis nicht eingesetzt werden. Klar, wer mehr Geometrie in Spiele als unsinnig empfindet, weil Geometrie nur Mittel zum Zweck ist, der wird auch nicht verstehen, warum GF100 so designt wurde.

Gast
2010-06-01, 11:13:58
Fermi fehlt es schlicht und ergreifend brutalst an Rechenleistung. So war das Ding auf dem Reißbrett wohl auch nie ausgelegt.

NVIDIA ging wohl davon aus mit der längeren Pipeline auch >1,6Ghz auf den ALUs zu fahren und vor allem auch 512. Vom Hörensagen gab's auch Testchips die das erreichten.

??? Ähm die Benchmarks zeigen aber das Gegenteil. Sehen wir mal von synthetischen Programmen ab, die so geschrieben sind, dass die 5D Shader von Ati zu 100% ausgenutzt werden können, so liegt NV in rechenintensiven Szenen immer deutlich vorn. Wenn die GTX480 mal Performanceprobleme hat so liegt die Ursache eigentlich immer bei den TMUs.
Ati kann einfach immer weniger von der brachialen theoretischen Leistung in die Praxis umsetzen. So wie es aussieht, bekommt SI ja auch 4D Shader, ein deutliches Zeichen wohin der Weg bei Ati geht.

Gast
2010-06-01, 11:36:12
??? Ähm die Benchmarks zeigen aber das Gegenteil. Sehen wir mal von synthetischen Programmen ab, die so geschrieben sind, dass die 5D Shader von Ati zu 100% ausgenutzt werden können, so liegt NV in rechenintensiven Szenen immer deutlich vorn. Wenn die GTX480 mal Performanceprobleme hat so liegt die Ursache eigentlich immer bei den TMUs.
Ati kann einfach immer weniger von der brachialen theoretischen Leistung in die Praxis umsetzen. So wie es aussieht, bekommt SI ja auch 4D Shader, ein deutliches Zeichen wohin der Weg bei Ati geht.

Das ist schlicht falsch. Die 1600SPs bei AMD sind auch in der Praxis erheblich höher einzuschätzen als die 480 bei NV. AMD erreicht durchaus eine Auslastung von ~70% in der Praxis, das ist weit mehr als NV auch nur in der Theorie schaffen würde. Das sie diese Leistung bei Spielen nicht auf die Straße bekommen hat anderen Gründe.

Gast
2010-06-01, 11:42:35
Das wären gerade mal 21% mehr an Rechenleistung. Ich glaube nicht, dass dies den Unterschied zwischen "ausreichend" und "fehlt es schlicht und ergreifend brutalst an Rechenleistung" ausmacht. ;)



Ich denke, dass nVidia sich bewusst war, dass die Einschnitte in der Ausrichtung sich genauso auswirken werden. Eventuell waren sie überrascht, dass AMD überhaupt nichts in Richtung parallele Geometrieabarbeitung tun würde, so dass man dann wohl einfach mit Atombomben auf Ameisen geschossen hat.
Schlussendlich muss AMD aber diesen Weg gehen und ich sehe nicht, dass es für sie einfacher werden würde als für nVidia.



Cypress ist auf die selben Abarbeitungsgebiete ausgebaut wurden, die seit Jahren vorherrschen: Texturleistung, Pixelleistung und Pixelrechenleistung.
Es ist logisch, dass GF100 hier nichts besonderes bieten, immerhin liegen die Schwerpunkte auf Bereiche, die heute kaum bis nicht eingesetzt werden. Klar, wer mehr Geometrie in Spiele als unsinnig empfindet, weil Geometrie nur Mittel zum Zweck ist, der wird auch nicht verstehen, warum GF100 so designt wurde.

LovesuckZ, ich glaube dir das es nicht leicht ist für dich. Aber das Problem liegt doch in Wahrheit wie auch Coda schon sagte ganz wo anders und das zeichnete sich auch schon mit GT200 vs. RV770 ab. NVs Einheiten brauchen wesentlich mehr Transistoren, Takt und seit dieser Generation auch Leistungsaufnahme für dieselbe Leistung. Wenn man die ALUs/TMUs isoliert betrachtet ist AMD hier erheblich überlegen.

Und nein ein ordentlicher Uncore wird AMD keine Milliarde Transistoren kosten 100W Leistungsaufnahme. Es wird mit hoher Wahrscheinlichkeit schon reichen "einfach" eine Cypress zu nehmen und die Geometrieeinheiten aufzubohren um schneller plus Stromsparender als Fermi zu sein. Aber das werden wir wohl eh bald erfahren.

LovesuckZ
2010-06-01, 11:52:58
LovesuckZ, ich glaube dir das es nicht leicht ist für dich. Aber das Problem liegt doch in Wahrheit wie auch Coda schon sagte ganz wo anders und das zeichnete sich auch schon mit GT200 vs. RV770 ab. NVs Einheiten brauchen wesentlich mehr Transistoren, Takt und seit dieser Generation auch Leistungsaufnahme für dieselbe Leistung. Wenn man die ALUs/TMUs isoliert betrachtet ist AMD hier erheblich überlegen.

Was willst du sagen? nVidia ist mit Tessellation um den Faktor 8x schneller als AMD mit ihrer Rechenleistung - die ist nur ca. 2x so hoch.
Ein GT200 in 40nm würde die selbe Leistung und eine ähnliche Leistungsaufnahme bei ähnlicher Größe wie Cypress schaffen. Dafür hat sich nVidia jedoch nicht entschieden. Man kann natürlich dauernd auf Pixelberechnungsleistung oder Texturleistung verweisen. Aber dann guckt man nur auf die positven Bereiche von AMD. Das nVidia eine 8x so hohe Geometrieleistung hat, wird da gekonnt ignoriert.


Und nein ein ordentlicher Uncore wird AMD keine Milliarde Transistoren kosten 100W Leistungsaufnahme. Es wird mit hoher Wahrscheinlichkeit schon reichen "einfach" eine Cypress zu nehmen und die Geometrieeinheiten aufzubohren um schneller plus Stromsparender als Fermi zu sein. Aber das werden wir wohl eh bald erfahren.

Stimmt. Es ist einfach. Also, es ist im grunde so einfach, dass AMD es nicht mit Cypress machen wollte, weil keine Herausforderung vorhanden war. ;D
Was sollen sie denn aufbohren? Ihre Setup-Engine läuft am Anschlag. Ihr Tessellator ebenfalls. Da geht nichts mehr mit Aufbohren, weil es mit der seriellen Abarbeitung nicht weiter geht. Und das wiederum bedeutet, dass man Transistoren in Bereiche investieren muss, die jetzt entweder unzureichend oder garnicht vorhanden sind. Und mehr Transistoren bedeuten auch immer einen höhreren Stromverbrauch.

Gast
2010-06-01, 12:10:11
Was willst du sagen? nVidia ist mit Tessellation um den Faktor 8x schneller als AMD mit ihrer Rechenleistung - die ist nur ca. 2x so hoch.

Die Platte habe ich von dir jetzt sicher schon zehnmal gelesen. Davon den Transistorenaufwand abzuleiten ist natürlich Blödsinn.


Ein GT200 in 40nm würde die selbe Leistung und eine ähnliche Leistungsaufnahme bei ähnlicher Größe wie Cypress schaffen.

Ja, da fehlt halt noch DX11, sogar DX10.1. Schon mit DX10.1 ginge die Rechnung nicht mehr auf wie man an den kleinen GT21x sieht.


Stimmt. Es ist einfach. Also, es ist im grunde so einfach, dass AMD es nicht mit Cypress machen wollte, weil keine Herausforderung vorhanden war. ;D

Kannst du nicht einmal sachlich bleiben? Muss immer diese Polemik kommen? Ich habe keine Lust auf diesem Niveau zu diskutieren.


Was sollen sie denn aufbohren? Ihre Setup-Engine läuft am Anschlag. Ihr Tessellator ebenfalls. Da geht nichts mehr mit Aufbohren, weil es mit der seriellen Abarbeitung nicht weiter geht. Und das wiederum bedeutet, dass man Transistoren in Bereiche investieren muss, die jetzt entweder unzureichend oder garnicht vorhanden sind. Und mehr Transistoren bedeuten auch immer einen höhreren Stromverbrauch.

Prinzipiell richtig, und ich will auch gar nicht mehr sagen weil ich wohl eh gegen eine Wand rede. Man wird es vermutlich im Herbst ohnehin sehen. Deshalb frage ich einfach mal: Was erwartest du? Ganz ehrlich! Glaubst du das AMD an dieser Aufgabe scheitert? Glaubst du das ihnen das eine Mrd Transistoren und >100W Leistungsaufnahme kostet und sie dann trotzdem nicht schneller sind als Fermi? Oder hältst du es angesichts der aktuellen Fakten nicht doch für realistischer das sich NV mit ihren seriellen ALUs verrannt hat und diese einfach zu teuer sind? Das zeichnet sich ja nicht erst seit dieser Generation ab. Alleine mit der Geometrieleistung kann man das bei besten Willen nicht kaschieren, auch wenn du immer wieder versuchst das so darzustellen.

Schlammsau
2010-06-01, 12:11:57
Ich kühre 4:1, theoretisch 8x schneller und Tesselation zu den Unwörtern des Jahres.
Wenn theoretische Zahlen so viel Bedeutung für jemanden hat, sollte er sich mal von einem Arzt untersuchen lassen.
Von diesem 8x schneller sehen wir im Moment gar nichts. Ich denke nVidia hat es mit der Tess implementation ziemlich übertrieben in ihrer ersten DX11 Generation. Wenn diese Leistung benötigt wird, ist Fermi technisch schon wieder veraltet und es limitieren andere Bauteile.

Aber es ist schon Wahnsinn, wie man sich an dieser Zahl aufhängen kann. :rolleyes:

Gast
2010-06-01, 12:18:03
Das ist schlicht falsch. Die 1600SPs bei AMD sind auch in der Praxis erheblich höher einzuschätzen als die 480 bei NV. AMD erreicht durchaus eine Auslastung von ~70% in der Praxis, das ist weit mehr als NV auch nur in der Theorie schaffen würde. Das sie diese Leistung bei Spielen nicht auf die Straße bekommen hat anderen Gründe.

Es sind eben keine 1600SPs und genau da liegt ATIs Problem. Es sind 320 bis 1600SPs je nachdem was gerade zu berechnen ist. Außerdem hat NV durch den Taktvorteil der Shader im Vergleich umgerechnet effektiv 791SPs. In der Praxis zeigt sich eben, dass 320 bis 1600 eben sehr oft weniger als 791 sein kann. Die 70% sind bei vielen Spielen im übrigen eher ein Traumwert.

Gast
2010-06-01, 12:33:37
Selbst wenn man deine Michmädchenrechnung mit nur 50% Auslastung für rv870 annimmt, hat man die gleiche Rechenleistung wie Fermi.
Auf der anderen Seite stehen aber weniger Chipfläche und weniger Stromverbrauch für Cypress.
E
Also ich persönlich gehe davon aus, dass es für ATI machbar ist, Fermi mit SI in Sachen FPS, Stromverbrauch zu überholen.

In Sachen Tesselation wird's wohl schwer. Imo aber auch nicht so wichtig. Ich kann, wie viele hier, jetzt und in naher Zukunft keinen wesentlichen Vorteil darin sehen. Nichtsdestotrotz ist es sehr gut, dass Nvidea da so voranprescht. Denn daruch haben die Spieleentwickler mehr Möglichkeiten, die sie dann hoffentlich auch nutzen, und wir mehr Grafik.

SamLombardo
2010-06-01, 12:58:51
Prinzipiell richtig, und ich will auch gar nicht mehr sagen weil ich wohl eh gegen eine Wand rede. Man wird es vermutlich im Herbst ohnehin sehen. .

So wie es aussieht werden wir es wohl erst Anfang 2011 sehen, siehe Ati Roadmap auf der Hauptseite:redface:.

LieberAal
2010-06-01, 13:05:31
Tesselation ist doch weitgehend ein Nonsense-Feature. Wo braucht man denn bei Crysis Tesselation? Vielleicht im Umkreis von 5 Metern. Bei allem was weiter weg ist, ist die Geometrie doch fein genug aufgelöst.
Bandbreite hat man genug, jedenfalls hängt es nicht an den paar Geometriedaten, die man durch Tesselation spart. Speicherplatz auch, auf der Karte, im Hauptspeicher, auf der HD. Alles kein Thema mehr heutzutage.
Wo es mangelt: Bei der Rechenleistung. Dreiecke zu tapezieren schaut eben immer nach tapezierten Dreiecken aus. Und bei einem Kubus ändert sich durch Tesselation garnix. Schaut aus wie vor 15 jahren. Ich will vernünftiges Licht und prozedurale Texturen IM GROSSEN STIL, also als Regelfall. Und BTW wenn genug Rechenleistung da ist für sowas, kann man Schnickschnack wie Tesselation eh so nebenher erschlagen, wenn man es denn unbedingt möchte.

SamLombardo
2010-06-01, 13:07:22
nVidia hat es mit der Tess implementation ziemlich übertrieben in ihrer ersten DX11 Generation. Wenn diese Leistung benötigt wird, ist Fermi technisch schon wieder veraltet und es limitieren andere Bauteile.

Das ist nichts weiter als eine Vermutung (oder soll ich sagen Wunsch) von Dir. Also was untermauert diese pauschale Aussage?
Die Chance dass in zukünftigen games die Füllrate limitiert halte ich für geringer, als die der Geometrielimitierung, gerade im Zuge von Tesselation.

Gast
2010-06-01, 13:13:33
Tesselation ist doch weitgehend ein Nonsense-Feature. Wo braucht man denn bei Crysis Tesselation?.
Kannst es ja in Crysis 2 ausschalten, wenn du es nicht brauchst. Beziehungsweise keine ausreichende Hardware hast

Coda
2010-06-01, 13:23:47
Es sind eben keine 1600SPs und genau da liegt ATIs Problem. Es sind 320 bis 1600SPs je nachdem was gerade zu berechnen ist
Die Auslastung liegt aber in allen relevanten Workloads zwischen 3/5 und und 4/5.

??? Ähm die Benchmarks zeigen aber das Gegenteil. Sehen wir mal von synthetischen Programmen ab, die so geschrieben sind, dass die 5D Shader von Ati zu 100% ausgenutzt werden können, so liegt NV in rechenintensiven Szenen immer deutlich vorn.
Crysis ist immer noch das rechenintensivste Spiel und dort hat die HD5870 mit 2/3 der Transistoren einen Vorteil. Muss man mehr sagen?

Ja, die Auslastung durch den Rest des Chips und die Auslastung innerhalb der ALUs ist bei NVIDIA wesentlich besser. Das habe ich auch nie bestritten. Mir geht es um den Funktionsblock an sich. Dort hat NVIDIA wirklich verkackt.

Das wären gerade mal 21% mehr an Rechenleistung. Ich glaube nicht, dass dies den Unterschied zwischen "ausreichend" und "fehlt es schlicht und ergreifend brutalst an Rechenleistung" ausmacht. ;)
Ich sagte mindestens 1,6Ghz. Und ~30% mehr hätte definitiv für mehr Aufsehen gesorgt, vor allem mit moderaterem Stromverbrauch.

Gast
2010-06-01, 13:30:33
Ich sagte mindestens 1,6Ghz. Und ~30% mehr hätte definitiv für mehr Aufsehen gesorgt, vor allem mit moderaterem Stromverbrauch.
Ursprünglich wollte man mit der 512SPs Version wohl bei <GTX 285 liegen.

LovesuckZ
2010-06-01, 13:39:00
Crysis ist immer noch das rechenintensivste Spiel und dort hat die HD5870 mit 2/3 der Transistoren einen Vorteil. Muss man mehr sagen?

Ja. Die 5870 ist 50% schneller als eine GTX285 bei knapp 4-facher Rechenleistung und 50% mehr Transistoren.
Crysis ist wohl alles, aber nicht das rechenintensivste Spiel.

Mir geht es um den Funktionsblock an sich. Dort hat NVIDIA wirklich verkackt.

Sie haben es beim GT200 verkackt. GF100 hat dagegen die Rechenleistung verdoppelt, wohingegen der GT200 gegenüber dem G80 nur knapp 80% schaffte und gegenüber dem G92 ziemlich abkackte (42% mehr...).


Ich sagte mindestens 1,6Ghz. Und ~30% mehr hätte definitiv für mehr Aufsehen gesorgt, vor allem mit moderaterem Stromverbrauch.

Sie bräuchten dafür ca. 1700MHz. Das wären 15% mehr Takt als gegenüber einer GTX285 mit weniger als die Hälfte der Transistoren. Selbst AMD konnte den Takt nicht steigern.

Gast
2010-06-01, 13:54:31
Sie bräuchten dafür ca. 1700MHz. Das wären 15% mehr Takt als gegenüber einer GTX285 mit weniger als die Hälfte der Transistoren. Selbst AMD konnte den Takt nicht steigern.
Mit einem besseren 40nm Prozess wäre wohl auch AMD bei >900MHz in der Referenzversion.

Im Endeffekt hat sich NV deutlich mit der Geometrie- und Rasterleistung verschätzt, bei der Rohleistung eines GF100 hätte auch die Hälfte davon gereicht. Bei GF104 scheint man das glücklicherweise korrigiert zu haben, wo ein Tessellator auf 8 TMUs und 48SPs kommt, anstatt auf 4/32 bei GF100.
Dadurch wohl auch nur noch 2 statt 3 GPCs.

RoNsOn Xs
2010-06-01, 14:11:16
wie schauts jetzt eigtl mit der allgemeinen verfügbarkeit aus?

Schlammsau
2010-06-01, 14:31:56
Das ist nichts weiter als eine Vermutung (oder soll ich sagen Wunsch) von Dir. Also was untermauert diese pauschale Aussage?
Die Chance dass in zukünftigen games die Füllrate limitiert halte ich für geringer, als die der Geometrielimitierung, gerade im Zuge von Tesselation.
Konsolenports!

Wieso Wunsch? Ich freu mich über einen vernünftigen EInsatz von Tess, der bislang aber aublieb.

Gast
2010-06-01, 14:44:31
[QUOTE=Coda;8060385
Crysis ist immer noch das rechenintensivste Spiel und dort hat die HD5870 mit 2/3 der Transistoren einen Vorteil. Muss man mehr sagen?
[/QUOTE]
Z.b. das gecheatet wird sollte man erwähnen.

Schlammsau
2010-06-01, 15:08:31
Z.b. das gecheatet wird sollte man erwähnen.
Auch ohne AF hat sie einen riesen Vorteil! ;)

Gast
2010-06-01, 15:13:04
Auch ohne AF hat sie einen riesen Vorteil! ;)
Ohne AF, was ist das für eine Zeit heute?

Raff
2010-06-01, 15:22:16
Wer mit Supersampling-AA spielt, braucht kein AF mehr. :ulol: ;)

Natürlich ist es nur von geringer Relevanz, wie schnell eine Grafikkarte ohne AA/AF ist.

MfG,
Raff

Gast
2010-06-01, 15:55:43
Wer mit Supersampling-AA spielt, braucht kein AF mehr. :ulol: ;)

Natürlich ist es nur von geringer Relevanz, wie schnell eine Grafikkarte ohne AA/AF ist.

MfG,
Raff

Es zeigt das es nicht am AF liegt das die 5870 so gut ist, ganz einfach.

Gast
2010-06-01, 16:01:09
Falsche Zahlen bleiben falsch.
Entweder nimmt man echte Zahlen oder korrigiert die Zahlen. Ohne jeden Hinweis das zu nehmen, was zufällig die eigene Firma einige Prozent besser dastehen lässt ist falsch.

Iruwen
2010-06-01, 16:29:13
Was vorhin angesprochen wurde, finde ich schon interessant, nämlich, dass hier wirklich die GF100 Karten fast nur aufgrund ihrer Tesselationseinheiten als das Nonplusultra angepriesen werden.

Wenn du LZ mal ausblendest nicht ;) Und auch wenn er etwas übertrieben drauf rumreitet, die anderen Vorteile der GF100 wurden hier auch schon zur Genüge durchgekaut.

Coda
2010-06-01, 16:37:47
Auch ohne AF hat sie einen riesen Vorteil! ;)
Ohne AF liegt ja auch keine TMU-Limitierung mehr vor. Das ist kein Argument.

Fetter Fettsack
2010-06-01, 17:28:59
Klar, wer mehr Geometrie in Spiele als unsinnig empfindet, weil Geometrie nur Mittel zum Zweck ist, der wird auch nicht verstehen, warum GF100 so designt wurde.
Nein, ich sage, dass ich Geometrie sehr wohl für sinnvoll halte. Nur finde ich, dass man jetzt ein Feature nicht in den Himmel loben sollte, das gerade in seinen Anfängen steckt.
Also nocheinmal:

viel Geometrieleistung für Tesselation = finde ich gut

Hochjubeln der Tesselationsleistung des GF100 als Allheilmittel und alles entkräftendes "Argument" = finde ich nicht angebracht

Warum letzteres? Weil es momentan noch nichts gibt, womit man sinnvoll (!) das Feature verwenden kann. Bis dann etwa eine Flut an derartiegn Spielen auftaucht, kann ich mir nicht vorstellen, dass der GF100 noch state of the art ist.

Raff
2010-06-01, 17:43:39
Nvidias neueste Kreation ist nicht die erste mit dem Henne-Ei-Problem. Hardware-T&L, das Hype-Feature der Jahrtausendwende, wurde auch erst 2-3 Jahre später exzessiv genutzt. Das Shader Model 3 kennt ihr sicher auch. Etc.

MfG,
Raff

LovesuckZ
2010-06-01, 17:47:04
Wobei GF100 Tessellation Implementierung wesentlich leistungsstärker als das T&L der GF1 war. Man kann sogar anzweifeln, dass es bis zum nächsten kleineren Fertigungsprozeß etwas leistungsstärkeres als das geben wird.
Wenn hier also immer darauf rumgeritten wird, dass GF100 nicht für die Spiele reichen würde, dann wird dies genauso auf jede andere Grafikkarte passen, die bis zum 28nm Prozeß erscheint.

SamLombardo
2010-06-01, 17:47:44
Nvidias neueste Kreation ist nicht die erste mit dem Henne-Ei-Problem. Hardware-T&L, das Hype-Feature der Jahrtausendwende, wurde auch erst 2-3 Jahre später exzessiv genutzt. Das Shader Model 3 kennt ihr sicher auch. Etc.

MfG,
Raff


Wobei SM3.0 sehr schnell Minimalvoraussetzung wurde...Ich weiß noch dass ich damals überrascht war wie schnell es (auch hochkarätige) Spiele gab, die mit 2.0 nicht mehr liefen.

AnarchX
2010-06-01, 17:50:58
Wobei SM3.0 sehr schnell Minimalvoraussetzung wurde...Ich weiß noch dass ich damals überrascht war wie schnell es (auch hochkarätige) Spiele gab, die mit 2.0 nicht mehr liefen.
Das lag aber eher an den Konsolen mit ~SM3.0-HW, wo die Entwickler sich für den PC-Port Arbeit einsparen wollten.
Eine Konsole mit den Tessellationsfähigkeiten eines GF100 wird es in absehbarer Zeit wohl nicht geben.

mapel110
2010-06-01, 17:57:19
SM3 hat ewig gebraucht im Vergleich zu Tessellation heute. Die Radeon-User konnten sich jedenfalls verdammt lange rausreden mit ihren Ich-hab-mehr-SM2-fps.

Die Argumente waren damals fast die gleichen wie heute. Sieht man eh nicht, zu übertrieben, zu hoher Leistungsverlust etc pp.

SamLombardo
2010-06-01, 18:04:00
SM3 hat ewig gebraucht im Vergleich zu Tessellation heute. Die Radeon-User konnten sich jedenfalls verdammt lange rausreden mit ihren Ich-hab-mehr-SM2-fps.

Die Argumente waren damals fast die gleichen wie heute. Sieht man eh nicht, zu übertrieben, zu hoher Leistungsverlust etc pp.

Sicher? Ich glaube mich zu erinnern, dass die X800 Karten noch nicht zum "alten Eisen" gehört haben, als die ersten games (glaub es ging mit irgend einem Splinter Cell Teil los) SM3.0 verlangten. Das Geschrei war natürlich groß, von wegen gekauft usw....kann mich aber auch täuschen

LovesuckZ
2010-06-01, 18:06:55
In Farcry gab es HDR mit FP im Jahr 2004 und Splinter Cell 3 kam dann irgendwann im Frühling raus, wo es nur DX8 oder SM3.0 gab.

Raff
2010-06-01, 18:09:23
In Farcry gab es HDR mit FP im Jahr 2004 und Splinter Cell 3 kam dann irgendwann im Frühling raus, wo es nur DX8 oder SM3.0 gab.

Und später ein SM2-Patch. ;)

MfG,
Raff

deekey777
2010-06-01, 18:09:45
In Farcry gab es HDR mit FP im Jahr 2004 und Splinter Cell 3 kam dann irgendwann im Frühling raus, wo es nur DX8 oder SM3.0 gab.
HDR in Far Cry war vom Shadermodel unabhängig.
Und später ein SM2-Patch. ;)

MfG,
Raff
Bloß fünf Monate später.

LovesuckZ
2010-06-01, 18:12:46
HDR in Far Cry war vom Shadermodel unabhängig.


Funktioniert es auf einem rv4xx Ableger?

deekey777
2010-06-01, 18:14:37
Funktioniert es auf einem rv4xx Ableger?
Wie denn? Ihnen fehlte die Hardware. Aber HDR lässt sich in Far Cry auch mit SM2.X aktivieren.

LovesuckZ
2010-06-01, 18:16:18
Wie denn? Ihnen fehlte die Hardware. Aber HDR lässt sich in Far Cry auch mit SM2.X aktivieren.

Gab es zum damaligen Zeitpunkt SM2.x Hardware, die dies nutzen konnte?

deekey777
2010-06-01, 18:22:45
Gab es zum damaligen Zeitpunkt SM2.x Hardware, die dies nutzen konnte?
Tust du jetzt so, dass du nicht verstehst, oder verstehst du wirklich nicht, dass der Befehl \r_hdrrendering auf jeder Grafikkarte aktivierbar war, wenn diese mindestens SM 2 beherrschte und die für die in Far Cry eingesetzte Methode entsprechende Hardware aufwies? Natürlich war auf einer X800 kein HDRR in Far Cry aktivierbar, weil hier fp16-Blending fehlte.

LovesuckZ
2010-06-01, 18:23:51
Und womit unterschied sich das vom SM3.0, dass die NV40 Karten konnten und die rv420 nicht? Richtig, garnicht.
Ich weiß schon, warum ich es geschrieben. Denn es ging um Features, die die Konkurrenz nicht hatte zur damaligen Zeit.

Pirx
2010-06-01, 19:05:14
Aber noch Jahre später konnte man mit den X800 wunderbar spielen, obwohl SM3 ein ziemlich zentrales Feature war/ sein sollte. Diese Tesselation ist nur ne Randnotiz und steckt noch in den Kinderschuhen - nichts, dem man jetzt so uuunglaublich hohe Bedeutung beimessen müßte.

Gast
2010-06-01, 21:23:04
Die Auslastung liegt aber in allen relevanten Workloads zwischen 3/5 und und 4/5.

Im Schnitt ist das richtig, allerdings kann sie kurzzeitig auf 1/5 bzw. 2/5 dropen, was ein Framedrop zur Folge hat. Damit diese Framedrops nicht zu übel werden braucht Ati diese extreme Shaderleistung. Man hat hier also keine großen Reserven oder ist NV haushoch überlegen was viele glauben.


Crysis ist immer noch das rechenintensivste Spiel und dort hat die HD5870 mit 2/3 der Transistoren einen Vorteil. Muss man mehr sagen?

Die GTX480 hat über 89% mehr Shaderleistung als die GTX285, trozdem ist sie in Crysis nur 54% schneller, ich glaube somit nicht, dass dort die Shader limitieren.

Spasstiger
2010-06-01, 21:31:11
Die GTX480 hat über 89% mehr Shaderleistung als die GTX285, trozdem ist sie in Crysis nur 54% schneller, ich glaube somit nicht, dass dort die Shader limitieren.
Im Optimalfall berechnet die GTX 285 pro SP und Takt drei Floating-Point-Operationen, die GTX 480 nur zwei. Die Peak-Rechenleistung der GTX 480 ist nur um 26% größer als die der GTX 285 (1345 GFlops vs. 1089 GFlops).

Gast
2010-06-01, 21:34:49
Im Optimalfall berechnet die GTX 285 pro SP und Takt drei Floating-Point-Operationen, die GTX 480 nur zwei. Die Peak-Rechenleistung der GTX 480 ist nur um 26% größer als die der GTX 285 (1345 GFlops vs. 1089 GFlops).

Ja stimmt, dass ist mir eben auch wieder eingefallen. Allerdings steigt der Vorsprung der GTX480, wenn man von 16x auf 1x AF herunterschaltet, was wieder auf ein Limit der TMUs hindeutet.

mapel110
2010-06-02, 21:02:29
http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zotac_geforce_gtx_470_amp/#abschnitt_einleitung
Mit Triple Slot bekommt man die 470er endlich leise. Jetzt muss nur noch der Preis angemessen sein von dem Ding. Derzeit noch nicht lieferbar.

pest
2010-06-02, 21:41:29
+8% Core, +1% Mem, +8% Shader = 10% Vorsprung in manchen Games, wie die das immer machen :biggrin:

Spasstiger
2010-06-02, 21:51:49
Die Lauststärke ist aber echt beeindruckend. Man könnte fast meinen, das Teil sei passiv gekühlt. 2 dB mehr von idle zu Last kommt auch alleine schon durch das Restsystem. Die Radeon HD 5870 im Referenzdesign ist 11 dB lauter.
Und mit der Taktsteigerung ist die Zotac GTX 470 AMP! auch fast so schnell wie die HD 5870 im Computerbase-Performancerating.
Imo eine ernsthafte Alternative zur Sapphire Radeon HD 5870 Vapor-X.

+8% Core, +1% Mem, +8% Shader = 10% Vorsprung in manchen Games, wie die das immer machen :biggrin:
Es klingt zwar absurd, aber manchmal stellen sich Synergieeffekte ein, wenn Chip- und Speichertakt erhöht werden. Rundungsfehler tun ihr Übriges.

Coda
2010-06-02, 22:04:02
Im Optimalfall berechnet die GTX 285 pro SP und Takt drei Floating-Point-Operationen, die GTX 480 nur zwei. Die Peak-Rechenleistung der GTX 480 ist nur um 26% größer als die der GTX 285 (1345 GFlops vs. 1089 GFlops).
Wie oft noch Herr Spasstiger? Nein, sie kann nur 2,5. Mehr geht selbst im Optimalfall nicht.

Im Schnitt ist das richtig, allerdings kann sie kurzzeitig auf 1/5 bzw. 2/5 dropen, was ein Framedrop zur Folge hat.
Quatsch. Die Shader werden alle vorkompiliert. Die Auslastung ist eine rein statische Sache.

Ja stimmt, dass ist mir eben auch wieder eingefallen. Allerdings steigt der Vorsprung der GTX480, wenn man von 16x auf 1x AF herunterschaltet, was wieder auf ein Limit der TMUs hindeutet.
Gut das würde meine These in dem Fall wiederlegen.

Dann fehlt eben Texturleistung - wie auch immer. Sie hat zu wenig Rechenkraft um ihre Frontend wirklich auszunutzen, egal ob ALU oder TMU.

Gast
2010-06-02, 22:05:14
Eine HD 5850 ließe sich mit dem Kühlkörper wohl passiv kühlen. Geiles Teil.

Raff
2010-06-02, 22:07:00
http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zotac_geforce_gtx_470_amp/#abschnitt_einleitung
Mit Triple Slot bekommt man die 470er endlich leise. Jetzt muss nur noch der Preis angemessen sein von dem Ding. Derzeit noch nicht lieferbar.

Jo, der Kühler scheint etwas zu taugen. Wirkt etwas billig, aber das sollte im eingebauten Zustand egal sein. ;) Viel interessanter ist jedoch IMO die GTX 480 AMP, denn da kommt mehr Wärme zusammen.

MfG,
Raff

Fetter Fettsack
2010-06-02, 22:27:22
Auf HW-LuXX soll schon ein Test sein.

EDIT: Here We Go

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/15498-test-zotac-geforce-gtx-480-amp-edition.html

DrFreaK666
2010-06-02, 22:59:34
Es gibt doch schon längst eine leise GTX470
http://edel-grafikkarten.de/NVIDIA/GTX-470/GTX-470-Prolimatech-MK-13-Edition1

Schlammsau
2010-06-03, 02:15:38
Die Lauststärke ist aber echt beeindruckend. Man könnte fast meinen, das Teil sei passiv gekühlt. 2 dB mehr von idle zu Last kommt auch alleine schon durch das Restsystem. Die Radeon HD 5870 im Referenzdesign ist 11 dB lauter.
Und mit der Taktsteigerung ist die Zotac GTX 470 AMP! auch fast so schnell wie die HD 5870 im Computerbase-Performancerating.
Imo eine ernsthafte Alternative zur Sapphire Radeon HD 5870 Vapor-X.
Bei einem angepeilten Preis von knapp 400€?

Nicht wirklich oder!?

hq-hq
2010-06-03, 02:22:01
beide kosten gleich viel auch wenn die gtx470 amp! wohl bald etwas günstiger wird

meinst die vapor x is noch viel leiser ?

y33H@
2010-06-03, 02:32:01
Die VaporX müsste iirc leiser sein.

hq-hq
2010-06-03, 02:35:59
oki...hm die 2gb variante kostet von der vapor x aber auch schon wieder 450... hmhm....

Bandit3644
2010-06-03, 07:17:46
sollte es auch bald für die gtx 400 serie geben :smile:
http://www.caseking.de/shop/catalog/Grafikkarten/VGA-Kuehler-Heatpipes/Zalman-VF3000A-VGA-Kuehler-ATI-Edition::14649.html

mAxmUrdErEr
2010-06-03, 09:50:16
Gibts eigentlich noch einen anderen Hersteller neben Zotac, der 5 Jahre Garantie gibt? Für mich ist alleine das schon ein verdammt starkes Argument.

y33H@
2010-06-03, 11:03:31
@ Bandit3644

http://www.abload.de/thumb/sdc11059q8dc.jpg (http://www.abload.de/image.php?img=sdc11059q8dc.jpg)

Iruwen
2010-06-03, 11:18:08
Bei einem angepeilten Preis von knapp 400€?

Nicht wirklich oder!?

Die ist aktuell für 400€ gelistet, bei Verfügbarkeit = 0.
Dass das bei flächendeckender Verfügbarkeit nicht der finale Preis sein wird weißt du auch ganz genau...

Gibts eigentlich noch einen anderen Hersteller neben Zotac, der 5 Jahre Garantie gibt? Für mich ist alleine das schon ein verdammt starkes Argument.

Hat eVGA nicht auch ziemlich gute Garantiebedingungen?

Spasstiger
2010-06-03, 11:58:58
Es gibt doch schon längst eine leise GTX470
http://edel-grafikkarten.de/NVIDIA/GTX-470/GTX-470-Prolimatech-MK-13-Edition1
Nicht schlecht, sogar günstiger als die Zotac. Allerdings hat der Prolimatech MK-13 je nach Gehäuse Probleme mit Hitzestau. Hier hat der Powercolor-Werkskühler auf einer HD 5830 in Punkto Lautstärke und Temperaturen besser abgeschnitten als der Prolimatech:
http://www.hardwareoverclock.com/Prolimatech_MK-13_VGA-Kuehler.htm
Die Lüfter hatten zu wenig Platz zum Atmen, weil direkt darunter das Netzteil saß.

Schlammsau
2010-06-03, 12:17:33
Die ist aktuell für 400€ gelistet, bei Verfügbarkeit = 0.
Dass das bei flächendeckender Verfügbarkeit nicht der finale Preis sein wird weißt du auch ganz genau...



Hat eVGA nicht auch ziemlich gute Garantiebedingungen?

Mal abwarten wieviel sie im Endeffekt wirklich kosten soll. Ab <350€ wäre sie mMn interessant.
Vergesst nicht, es ist "nur" eine leicht übertaktete GTX470, die sich mit einer übertakteten 5870 VaporX messen lassen muss. Auch CB bescheinigt der Zotac nur eine Leistung unterhalb einer 5870 im Schnitt. Desweiteren gibt es noch die 5870 Toxic, die kaum lauter als eine VaporX sein sollte, aber nochmal deutlich schneller als diese ist.

Iruwen
2010-06-03, 12:33:47
Wenn man die GTX 470 übertaktet kommt dabei aber wahrscheinlich deutlich mehr raus als bei der 5870. Aber da man dafür keine Garantien bekommt und es am Ende Glückssache ist kann man das eh kaum vergleichen. Außerdem muss man den Mehrwert der GTX 470 in Form von Features und (wahrscheinlich) besserer Leistung in kommenden Spielen einrechnen.

Schlammsau
2010-06-03, 12:46:25
Wenn man die GTX 470 übertaktet kommt dabei aber wahrscheinlich deutlich mehr raus als bei der 5870. Aber da man dafür keine Garantien bekommt und es am Ende Glückssache ist kann man das eh kaum vergleichen. Außerdem muss man den Mehrwert der GTX 470 in Form von Features und (wahrscheinlich) besserer Leistung in kommenden Spielen einrechnen.


Wie kommst du darauf?
Eine 5870 lässt sich genauso gut übertakten, wie ein 470!
Ein bisschen mehr Spannung und man knackt die 1Ghz problemlos.

Iruwen
2010-06-03, 13:02:52
Frat sich nur wieviel FPS dabei am Ende rauskommen ;)
Ich nehme auch nicht an dass die AMP so wahnsinnig stark im Preis fallen wird, 360€ wären schon ein faires Angebot. Abgesehen von den reinen Materialkosten (GTX 470 -Standardkühler -Grundplatte +Zalmankühler, wobei der Standardkühler wahrscheinlich auch nicht gerade billig ist) muss man evtl. auch Garantien und Chipselektion einplanen.
Außerdem sind erstmal noch Reviews mit Retailversionen der Karte abzuwarten, über die Voltage steht da ja leider nichts, wenn das Review mit einer "guten" Karte gemacht wurde kann der Worst Case ja nochmal ganz anders aussehen.

Schlammsau
2010-06-03, 13:17:31
Frat sich nur wieviel FPS dabei am Ende rauskommen ;)
Ich nehme auch nicht an dass die AMP so wahnsinnig stark im Preis fallen wird, 360€ wären schon ein faires Angebot. Abgesehen von den reinen Materialkosten (GTX 470 -Standardkühler -Grundplatte +Zalmankühler, wobei der Standardkühler wahrscheinlich auch nicht gerade billig ist) muss man evtl. auch Garantien und Chipselektion einplanen.
Außerdem sind erstmal noch Reviews mit Retailversionen der Karte abzuwarten, über die Voltage steht da ja leider nichts, wenn das Review mit einer "guten" Karte gemacht wurde kann der Worst Case ja nochmal ganz anders aussehen.

Die gleiche prozentuale Steigerung wie bei ATi. ;)

Emfinde ich immer noch als zu teuer.
Die 470 im Ref-Design gibt es mittlerweile ab 299€. Eine 5870 VaporX ab 333€.
Und die VaporX ist im Schnitt "deutlich" schneller als eine 470, auch als eine AMP!
http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zotac_geforce_gtx_470_amp/3/#abschnitt_benchmarks
Unter 350€ wäre für die Zotac angebracht.

hq-hq
2010-06-03, 13:29:00
Fragt sich nur wieviel FPS dabei am Ende rauskommen ;)
Ich nehme auch nicht an dass die AMP so wahnsinnig stark im Preis fallen wird, 360€ wären schon ein faires Angebot. Abgesehen von den reinen Materialkosten (GTX 470 -Standardkühler -Grundplatte +Zalmankühler, wobei der Standardkühler wahrscheinlich auch nicht gerade billig ist) muss man evtl. auch Garantien und Chipselektion einplanen.
Außerdem sind erstmal noch Reviews mit Retailversionen der Karte abzuwarten, über die Voltage steht da ja leider nichts, wenn das Review mit einer "guten" Karte gemacht wurde kann der Worst Case ja nochmal ganz anders aussehen.

angeblich werden die ja selektiert, die sollten sich also vermutlich problemlos auf 750-800mhz gpu takt bringen lassen.

der zalman kühler kostet wahrscheinlich weniger als 10 euro mehr im einkauf.

"Und die VaporX ist im Schnitt "deutlich" schneller als eine 470, auch als eine AMP!"
vermutlich unter 4x fsaa und bei den min fps nicht. und ohne fsaa ist es ... relativ egal
und die vapor x für 333euro ist die alte ref1 ... die gabs im februar bei pixmania schon für den preis

Schlammsau
2010-06-03, 13:38:12
"Und die VaporX ist im Schnitt "deutlich" schneller als eine 470, auch als eine AMP!"
vermutlich unter 4x fsaa und bei den min fps nicht. und ohne fsaa ist es ... relativ egal

und die vapor x für 333euro ist die alte ref1 ... die gabs im februar bei pixmania schon für den preis
Mit 4xAA 100%ig!

Und die Geschichte mit den min fps find ich allgemeinen sehr kritisch.
Der kürzeste Nachladeruckler, aus welchem Grund auch immer, zieht die min fps in den Keller. Frameverläufe find ich wesentlich interessanter!

Das wäre ja zu geil.....die Ref. 1 ist nämlich noch Overvoltingfähig, die Ref.2 nicht mehr! :)

Gast
2010-06-03, 13:55:02
Emfinde ich immer noch als zu teuer.
Die 470 im Ref-Design gibt es mittlerweile ab 299€. Eine 5870 VaporX ab 333€.

410€. http://geizhals.at/deutschland/a501984.html
Das wurde dir jetzt x-mal erklärt.

Schlammsau
2010-06-03, 13:58:15
Radeon HD 5870 Vapor-X - 1 GB GDDR5 - PCI-Express 2.0
http://www.pixmania.com/de/de/5020086/art/pixmania/radeon-hd-5870-vapor-x-1.html?srcid=47&Partenaire=geizhals&CodePromo=oui
Ich verlass mich auf das was sie posten.
Irgendjemand hier hat die Karte schonmal dort bestellt, und es war wirklich eine VaporX!

Bandit3644
2010-06-03, 13:59:06
der Sommer kann kommen für die GTX 480;D
http://www.pcgameshardware.de/aid,749694/Geforce-GTX-480-Ueber-sechs-Stunden-bei-60-Grad-Celsius-im-Furmark-mit-Lueftkuehlung/Luftkuehlung/News/

Gast
2010-06-03, 14:01:29
Keine Ahnung wie darauf kommst, über geizhals ist die billigste VaporX bei pixmania bei 372€. Und da wir nicht bei fragwürdigen Händlern kaufen sparen wir diese 40€ nicht. Du kannst es ruhig machen, musst nur anderen deine Meinung nicht aufzwingen.

hq-hq
2010-06-03, 14:02:30
die alte ref1 gibts aber bei pixmania manchmal für ~335 euro, die läuft dann allerdings unter "diverse" und es steht nicht sapphire dabei sondern einfach nur vapor x ohne hersteller
vielleicht ne white box graka keine ahnung.

@schlammi wie du selbst im heaven thread siehst kann man mit ein bissl tricksen die min fps auf ein gleichbleibendes level ziehen. verläufe sind natürlich besser ^^
@schlammi vapor-x genau die mein ich ;)

Gast
2010-06-03, 14:05:05
Egal, bei diesen Bewertungen mache ich einen Bogen um diesen Laden.
Da wären mir 333€ doch zu schade.

Früher gabs auch Leute die e-bug und co toll fanden, gibt immer Leute die die miesesten Läden in den Himmel loben. Vielleicht haben sie Glück und sie bekommen da nie Ärger. Oder sie bekommen irgendwann Ärger und fragen sich warum sie diesen Shop so gelobt haben.

hq-hq
2010-06-03, 14:06:45
@Gast da kann man nur zustimmen

Schlammsau
2010-06-03, 14:08:10
die alte ref1 gibts aber bei pixmania manchmal für ~335 euro, die läuft dann allerdings unter "diverse" und es steht nicht sapphire dabei sondern einfach nur vapor x ohne hersteller
vielleicht ne white box graka keine ahnung.

@schlammi wie du selbst im heaven thread siehst kann man mit ein bissl tricksen die min fps auf ein gleichbleibendes level ziehen. verläufe sind natürlich besser ^^

Du meinst mit der höheren Prio?
Hab bei mir zwischen normaler und hoher Prio keinen Unterschied zwischen den min fps feststellen können.

Ich persönlich gebe nie was auf die min. fps, wie man zB am System von Schrotti ja sehen kann. Du weisst was ich meine!

Egal, bei diesen Bewertungen mache ich einen Bogen um diesen Laden.
Da wären mir 333€ doch zu schade.

Früher gabs auch Leute die e-bug und co toll fanden, gibt immer Leute die die miesesten Läden in den Himmel loben. Vielleicht haben sie Glück und sie bekommen da nie Ärger. Oder sie bekommen irgendwann Ärger und fragen sich warum sie diesen Shop so gelobt haben.
Auch wenn es ein Lockangebot wäre, interessiert es mich reichlich wenig!
Ich würde die Karte bestellen und abwarten, entweder man bekommt sie, oder nicht!
Wenn ich das Ding per Nachnahme bestelle, hab ich gar kein Risiko!

Und ich persönlich hab kein Problem mit dem Shop. Hab schon 2x dort eingekauft. Die Ware war immer günstig, sie wurde schnell geliefert und sie war war ordentlich verpackt.

DrFreaK666
2010-06-03, 14:11:13
Wollt ihr mal richtig viel Geld für ne Graka ausgeben?? :freak:
http://edel-grafikkarten.de/NVIDIA/GTX-480/GTX-480-Prolimatech-MK-13-Edition-Undervolted

hq-hq
2010-06-03, 14:14:32
Du meinst mit der höheren Prio?
Hab bei mir zwischen normaler und hoher Prio keinen Unterschied zwischen den min fps feststellen können.


echt nicht ? nun vielleicht nicht beim ersten mal, du müsstest einmal alle
benchszenen mit enter durchdrücken, danach läufts erst optimal.

ein min fps balken ist natürlich hmja so ne sache... aber wenn mans richtig macht kann man auf ihn bauen :freak:

Schlammsau
2010-06-03, 14:20:29
echt nicht ? nun vielleicht nicht beim ersten mal, du müsstest einmal alle
benchszenen mit enter durchdrücken, danach läufts erst optimal.

ein min fps balken ist natürlich hmja so ne sache... aber wenn mans richtig macht kann man auf ihn bauen :freak:

Mach ich immer bzw lass ich die Heaven Demo einmal komplett durchlaufen, bevor ich den Benchmark starte.

Übertaktet fast 21 min fps ist schon ok für die 5850, wie ich finde.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8060993#post8060993

Gast
2010-06-03, 14:34:52
Wenn ich das Ding per Nachnahme bestelle, hab ich gar kein Risiko!

Nachteile:
1) Teurer
2) Könnte auch nichts kommen, wär noch das Beste, wartet man sich halt zu tode.
3) Könnte irgend etwas anderes kommen, keine VaporX.
4) Könnte irgendwelche B Ware kommen.
5) Könnte die richtige VaporX kommen, aber viel Spass wenns sie nicht läuft.
6) Könnte die VaporX kaputt gehen, viel Spass beim Einschicken, bzw leg dir dann gleich neue 333€ beseite für die neue Karte.

hq-hq
2010-06-03, 14:42:09
das is echt gut dank OC, ob es wegen der polygonaufteilung in dem jahr wirklich zu so starken, oder sogar stärkeren, einbrüchen kommt wissen wir ja noch nichtmal ;)

-> bei nem offenen gehäuse ist der prolimatech mk13 vielleicht wirklich nicht schlecht. aber bei dem preis lieber gleich ein wakü block.

jo könnte sein das es wegen der nicht retail vapor x nur 6monate herstellergarantie gibt und du dich dann mit pixmania rumärgern darfst. (weil die natürlich nach 6 monaten fett draufzahlen würden )

ich hab mal 2002 oder so nen joystick bei pix gekauft... alles reibungslos gelaufen ;)

Schlammsau
2010-06-03, 14:43:02
Nachteile:
1) Teurer
2) Könnte auch nichts kommen, wär noch das Beste, wartet man sich halt zu tode.
3) Könnte irgend etwas anderes kommen, keine VaporX.
4) Könnte irgendwelche B Ware kommen.
5) Könnte die richtige VaporX kommen, aber viel Spass wenns sie nicht läuft.
6) Könnte die VaporX kaputt gehen, viel Spass beim Einschicken, bzw leg dir dann gleich neue 333€ beseite für die neue Karte.

1) Bei dem günstigen Preis, zahl ich gerne ein paar € mehr!
2) Warum zu tode warten, ich würde 1 Woche warten und dann stornieren. Wenn Stornierung nicht mehr möglich, die Paketannahme verweigern.
3) Wenn was andres drinn ist, Paket Annahme verweigern, ist dein gutes Recht, das Paket vor dem Postboten zu öffnen!
4) Was ist den B-Ware? Hab ich im Hardwaremarkt noch nie erlebt!
5) Wenn sie nicht läuft, wird sie zurückgeschickt. Funktioniert genauso wie bei andren Shops!
6) Siehe 5)

;)

Mancko
2010-06-03, 14:43:27
Auch wenn es ein Lockangebot wäre, interessiert es mich reichlich wenig!
Ich würde die Karte bestellen und abwarten, entweder man bekommt sie, oder nicht!
Wenn ich das Ding per Nachnahme bestelle, hab ich gar kein Risiko!

Und ich persönlich hab kein Problem mit dem Shop. Hab schon 2x dort eingekauft. Die Ware war immer günstig, sie wurde schnell geliefert und sie war war ordentlich verpackt.

Dann ist das Angebot aber immer noch fragwürdig und taugt nicht für einen allgemeinen Vergleich. Bei Nvidia lass ich die fragwürdigen Angebote auch weg und dort kostet eine normale 470 um die 300 Euro bei VV-Computer und anderen zzgl. Versand oder 312 Euro bei Amazon ohne jegliche Versandgebühr.
Da die AMD Karten so schlecht lieferbar sind, dünnt das das Angebot an lieferbaren Karten bei guten Händlern natürich aus aber das ist nicht das Problem des Käufers sonder das von AMD. Die 5870 kann man momentan preislich einfach nicht empfehlen. Schuld daran dürfte primär die schlechte Verfügbarkeit sein.

Schlammsau
2010-06-03, 14:51:06
das is echt gut dank OC, ob es wegen der polygonaufteilung in dem jahr wirklich zu so starken, oder sogar stärkeren, einbrüchen kommt wissen wir ja noch nichtmal ;)
Das ist doch genau das was ich immer und immer wieder sage.
Kein Mensch weiss wohin die Richtung geht. Ich denke ja das es 1-2 Jahre dauern wird, bis wir Tess Einsatz like Heaven@normal bzw. extreme vereinzelt in Gamesnsehen werden. Ich denke auch, jemand der sich heute noch für eine 5870 entscheidet, wird noch sehr lange seine freude mit ihr haben können.
Von einer katastrophalen Leistung, wie LZ immer und immer wieder wiederholt, kann keine Rede sein.

Gast
2010-06-03, 14:53:18
1) Bei dem günstigen Preis, zahl ich gerne ein paar € mehr!
2) Warum zu tode warten, ich würde 1 Woche warten und dann stornieren. Wenn Stornierung nicht mehr möglich, die Paketannahme verweigern.
3) Wenn was andres drinn ist, Paket Annahme verweigern, ist dein gutes Recht, das Paket vor dem Postboten zu öffnen!
4) Was ist den B-Ware? Hab ich im Hardwaremarkt noch nie erlebt!
5) Wenn sie nicht läuft, wird sie zurückgeschickt. Funktioniert genauso wie bei andren Shops!
6) Siehe 5)

;)
1) Dann gelten die 333€ nicht mehr.
2) Schön wenn du scharf drauf bist.
3) Röntgenaugen ahoi. Ich kann nicht sehen was drin ist, wenn der Postbote klingelt.
4) Gebraucht, vom Laster gefallen o.ä.
5) Sagst du. Ich sage, sobald du das Geld rüber gereicht hast, bist du am Arsch. Niemand versichert dir, das du dein Geld zurück bekommst, Stressfrei.
6) Siehe 5, nur schlimmer

Gast
2010-06-03, 14:54:55
Das ist doch genau das was ich immer und immer wieder sage.
Kein Mensch weiss wohin die Richtung geht. Ich denke ja das es 1-2 Jahre dauern wird, bis wir Tess Einsatz like Heaven@normal bzw. extreme vereinzelt in Gamesnsehen werden. Ich denke auch, jemand der sich heute noch für eine 5870 entscheidet, wird noch sehr lange seine freude mit ihr haben können.
Von einer katastrophalen Leistung, wie LZ immer und immer wieder wiederholt, kann keine Rede sein.
Ich denke auch, das eine 5870 vollkommen unnötig ist.
Da alles was sie braucht auch eine 4870 X2 kann, gibt es keinen Grund für die 5870.

hq-hq
2010-06-03, 14:56:13
tja... bin allerdings davon überzeugt das die auflösung ob die polygonaufteilungsleistung der cypressen ausreichend ist noch binnen diesen jahres erfolgt. entweder erleben die roten separatisten ihr blaues wunder und die grünen obliegen wie in der theorie (und techdemos/heaven), oder man rettet sich im zweiten quartal 2011 auf die südlichen inseln und erlebt ein halbes jahr "7 magere jahre" ;)

Iruwen
2010-06-03, 15:00:09
Keine Ahnung wie darauf kommst, über geizhals ist die billigste VaporX bei pixmania bei 372€. Und da wir nicht bei fragwürdigen Händlern kaufen sparen wir diese 40€ nicht. Du kannst es ruhig machen, musst nur anderen deine Meinung nicht aufzwingen.
Ich hab meine 5870 und auch andere Dinge auch bei Pixmania gekauft, problemlos. Wenn man sich die Bewertungen mal durchliest dann sind das auch häufiger Gedulds- als wirklich schwerwiegende Probleme. Ist doch klar dass der günstige Preis irgendwo herkommen muss, da bleibt kein Spielraum für tollen Service. Wer die Karte zerlegen will oder auf die Herstellergarantie baut für den ist das wurscht.

Spasstiger
2010-06-03, 17:34:22
Wer die Karte zerlegen will oder auf die Herstellergarantie baut für den ist das wurscht.
Dumm ist nur, wenn der Hersteller bei Anfragen die Verantwortung erstmal auf den Händler abwälzt. Asus z.B. verweist gerne auf den Händler statt direkt Endkundensupport zu leisten.

Iruwen
2010-06-03, 17:39:15
Sollte man dann wohl drauf achten. Oder ein paar Euro mehr ausgeben. Wie gesagt: Service kann man für den Preis nicht erwarten - aber man sollte auch nicht voraussetzen übers Ohr gehauen zu werden. Viele negative Bewertungen beziehen sich tatsächlich auf Lieferzeiten von über einer Woche bei Verfügbarkeit ab Lager. Ist wohl auch dem Kundenkreis geschuldet.

Gast
2010-06-03, 18:19:31
Garantie ist mehr als nur Service.
Wer drauf scheisst, bitte nur zu. Aber erzählt anderen nicht wie toll günstig es ist, wenn nicht erwähnt wird das man gerade 333€ für etwas ausgibt, das beim Ausfall nicht ersetz wird. Sei der Ausfall am ersten Tag oder erst 2 Jahre später, egal.

Ich wende mich logischerweise zuerst an dem, der meine Kohle gesehen hat, also der Händler.
Der Hersteller hat eh kein Bock und warum sollte der auch helfen, der hat vom Händler die Kohle, nicht von mir.
Selbst wenn der Hersteller den Schaden auf seine Rechnung begleicht, was schon sehr sehr freundlich wäre, so ist das Stress, den ich zu tragen keine Lust habe.

derguru
2010-06-03, 18:43:06
Garantie ist mehr als nur Service.
Wer drauf scheisst, bitte nur zu. Aber erzählt anderen nicht wie toll günstig es ist, wenn nicht erwähnt wird das man gerade 333€ für etwas ausgibt, das beim Ausfall nicht ersetz wird. Sei der Ausfall am ersten Tag oder erst 2 Jahre später, egal.

achja,welcher online-shop bietet denn sofortigen austausch an wenn beim produkt die 2 wochen wiederrufsrecht abgelaufen sind?ich kenne keinen.
ich kann zu pixmania nichts schlechtes sagen und ich habe sogar schon selbst den service beansprucht und es gab nichts meckern.

Schlammsau
2010-06-03, 18:52:49
Garantie ist mehr als nur Service.
Wer drauf scheisst, bitte nur zu. Aber erzählt anderen nicht wie toll günstig es ist, wenn nicht erwähnt wird das man gerade 333€ für etwas ausgibt, das beim Ausfall nicht ersetz wird. Sei der Ausfall am ersten Tag oder erst 2 Jahre später, egal.

Ich wende mich logischerweise zuerst an dem, der meine Kohle gesehen hat, also der Händler.
Der Hersteller hat eh kein Bock und warum sollte der auch helfen, der hat vom Händler die Kohle, nicht von mir.
Selbst wenn der Hersteller den Schaden auf seine Rechnung begleicht, was schon sehr sehr freundlich wäre, so ist das Stress, den ich zu tragen keine Lust habe.
Versteh ich nicht, Pixmania bietet den gleichen Service wie alle andren Shops an. Was aber sein kann, dass es ein klein wenig länger als bei andren Shops dauert. Der Hauptsitz ist ja in Frankreich!

Wie gesagt, auch ich kann nichts schlechtes von dem Shop berichten!
Ich würde, jederzeit wieder dort bestellen!

Gast
2010-06-03, 19:31:14
achja,welcher online-shop bietet denn sofortigen austausch an wenn beim produkt die 2 wochen wiederrufsrecht abgelaufen sind?ich kenne keinen.
Es geht um Garantie, nicht um sofortigen Umtausch.
Wenns schnell geht wärs schön, aber das erwartet man gar nicht. Btw ein Grund mehr zu bezahlen damit man nicht x Monate wartet.
Nein, es geht darum, ob man noch 2 Wochen, oder einer Stunde überhaupt Ersatz bekommt.

Versteh ich nicht, Pixmania bietet den gleichen Service wie alle andren Shops an. Was aber sein kann, dass es ein klein wenig länger als bei andren Shops dauert. Der Hauptsitz ist ja in Frankreich!

Wie gesagt, auch ich kann nichts schlechtes von dem Shop berichten!
Ich würde, jederzeit wieder dort bestellen!
Bis dir was passiert empfiehlst du ihn uns spammst damit mit den VaporX Kram den Geforce Review Thread zu.
Bei den Bewertungen werde ichn wir uns nicht einigen können. Klar, dir ist noch nichts, passiert, na DANN ist es ja toll, dann gilt das für JEDEN!

Iruwen
2010-06-04, 01:04:32
Klar, dir ist noch nichts, passiert, na DANN ist es ja toll, dann gilt das für JEDEN!

Du verallgemeinerst einfach andersrum, das ist kein Stück besser. Wer einiges sparen will muss sich auch der möglichen Konsequenzen bewusst sein, fertig.

hq-hq
2010-06-04, 01:25:43
Versteh ich nicht, Pixmania bietet den gleichen Service wie alle andren Shops an. Was aber sein kann, dass es ein klein wenig länger als bei andren Shops dauert. Der Hauptsitz ist ja in Frankreich!


:freak: ich seh schon du machst wieder einen auf ulkig!
so gehe er tief in sich, würde es ein produkt für 100 euro incl. versand bei pix
geben und das gleiche für 5 euro teurer bei amazon...

nach dem 1 sekündigen corona effekt in deinem kopf würdest du augenblicklich
bei amazon den patentierten one-click buy button pushen ;D

auf der anderen seite hab ich einem kumpel schon empfohlen einen 400 euro tv
bei pix zu bestellen, er war einfach deutlich günstiger als sonstwo.
sofort lieferbar gelistet, 2 wochen später kam er. pix ist oft sehr günstig.
mehr positives gibt es nicht zu sagen würd ich meinen. :freak:

aso hab ich schon erwähnt das offenbar 840mhz gpu takt bei meiner gtx470 die
kritische schwelle zum freezen darstellt. es gibt zwar keine sichtbaren
bildfehler in z.b. vantage, die gpu temp ist bei max 81°C ... aber ... es
freezt immer nach einer bestimmten zeit, je nach game/bench.

scheint als ob eine schutzfunktion greifen würde. gpu spannung erhöhen
hilft nix und über 1,087v wollte ich nicht gehen.

(81°C bei 1.087v und 841mhz ? ja 89% fanspeed und nach ca 3 min freezt es ... kann also nicht wärmer werden ;) )

RoNsOn Xs
2010-06-04, 07:36:04
egal wie viel energie du zu dir nimmst, irgendwann kannst du nicht mehr schneller laufen.

Gast
2010-06-04, 11:44:02
Du verallgemeinerst einfach andersrum, das ist kein Stück besser. Wer einiges sparen will muss sich auch der möglichen Konsequenzen bewusst sein, fertig.
Er ist sich vielleicht sogar bewusst. Das schlimme ist nur, das er es in seinen Beiträgen nicht erwähnt. Er tut so als obs keinen Hacken gäbe, als ob die 333€ dort gut angelegt wären.

Iceman346
2010-06-04, 12:43:42
Endlich eine gute GTX470 Karte: Zotac GTX470 AMP! (http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zotac_geforce_gtx_470_amp/4/#abschnitt_sonstige_messungen)

Wenn ich jetzt im Moment überlegen würde ne Grafikkarte zu kaufen käme die ganz oben auf die Liste, direkt neben der 5870 Vapor-X Rev. 2.

Angiesan
2010-06-04, 13:17:41
Jo habe ich auch schon gesehen und die ist wirklich gelungen, leider noch nicht der Preis :eek:

Damit ist die Zotac GeForce GTX 470 AMP! in allen Belangen besser als das Referenzdesign und in Sachen Kühlung sogar um Meilen voraus. Der 3D-Beschleuniger ist damit eigentlich ohne größere Überlegungen (drei freie Slots werden benötigt!) der gewöhnlichen Version vorzuziehen. Eigentlich, denn wäre da nicht der Preis. 90 Euro Aufpreis (410 Euro) verlangt Zotac für die Karte, so dass am Ende jeder selber entscheiden muss, ob ihm die Bändigung einer GeForce GTX 470 ab Werk so viel Erspartes wert ist. Gelungen ist Zotac das Unterfangen „Produktverbesserung“ auf jeden Fall.

Quelle CB Test

Schlammsau
2010-06-04, 13:19:41
Er ist sich vielleicht sogar bewusst. Das schlimme ist nur, das er es in seinen Beiträgen nicht erwähnt. Er tut so als obs keinen Hacken gäbe, als ob die 333€ dort gut angelegt wären.

Ich sehe nur einen Haken....und zwar der, des evtl etwas länger dauernden Servicefalls und Lieferzeit. Ansonsten bietet der Shop die gleichen Vor- und Nachteile wie jeder andere Shop, nur zu einem meistens günstigeren Preis!
Wie bereits schon x mal von mir und andren erwähnt die dort schonmal bestellt haben.....der Shop ist weitgehenst problemlos!

Ich habe das Gefühl du arbeitest für einen anderen Shop und versuchst Pixmania schlechter zu machen, als sie wirklich sind.

Iceman346
2010-06-04, 13:19:47
Jo habe ich auch schon gesehen und die ist wirklich gelungen, leider noch nicht der Preis :eek:

Na jo, die Karte ist ja noch nicht so richtig auf dem Markt, da ist davon auszugehen, dass die noch fallen wird.

Aber 400€ ist definitiv zu teuer, ab 350€ wäre die Zotac aber imo hochinteressant.

dildo4u
2010-06-04, 13:50:59
Na jo, die Karte ist ja noch nicht so richtig auf dem Markt, da ist davon auszugehen, dass die noch fallen wird.

Aber 400€ ist definitiv zu teuer, ab 350€ wäre die Zotac aber imo hochinteressant.
Naja eine 5870 Vapor-X Rev2 kostet auch um die 400€ und hat weniger Werks OC.

derguru
2010-06-04, 13:55:19
eine 5870 Vapor-X Rev2 kostet 333 euro (http://www.pixmania.com/de/de/5020086/art/pixmania/radeon-hd-5870-vapor-x-1.html?srcid=47&Partenaire=geizhals&CodePromo=oui) und ist auch lieferbar.

dildo4u
2010-06-04, 13:56:39
eine 5870 Vapor-X Rev2 kostet 333 euro (http://www.pixmania.com/de/de/5020086/art/pixmania/radeon-hd-5870-vapor-x-1.html?srcid=47&Partenaire=geizhals&CodePromo=oui) und ist auch lieferbar.
Das ist Rev1 ohne OC.

Rev2
http://geizhals.at/deutschland/a501984.html

Schlammsau
2010-06-04, 13:57:57
Naja eine 5870 Vapor-X Rev2 kostet auch um die 400€ und hat weniger Werks OC.

5870 VaporX Rev. 1 für 333€! (http://www.pixmania.com/de/de/5020086/art/pixmania/radeon-hd-5870-vapor-x-1.html?srcid=47&Partenaire=geizhals&CodePromo=oui)
Aber das die 5870 VaporX im Schnitt 5-10% schneller als die AMP ist, übersiehst du wohl! ;)

dildo4u
2010-06-04, 13:58:40
Aber das die 5870 VaporX im Schnitt 5-10% schneller als die AMP ist, übersiehst du wohl! ;)
Wo?CB Test ist Schrott da uraltreiber zum xmal.

Schlammsau
2010-06-04, 14:00:58
Wo?CB Test ist Schrott da uraltreiber zum xmal.

:lol:.....die 5870 ist schneller als die GTX470 im Schnitt!

Da kannste dich auf den Kopf stellen! ;)

derguru
2010-06-04, 14:01:01
wäre schön wenn die von pixmania eine rev1 wäre.
wer kauft wegen dem mickrigem oc die überteuerte karte,niemand.

dildo4u
2010-06-04, 14:04:17
:lol:.....die 5870 ist schneller als die GTX470 im Schnitt! ;)
Kommt auf die Games an die man testet PCGH hat sie auf einem Level im Performance Index.
Mix aus Anno 1404,Crysis W.,BFBC2,COD6,Dirt2,GTA4,Mass Effect 2,Metro 2033,NFS Shift und WOW.

Bei WoW,GTA4 ist die NV deutlich schneller,das sind Games die sehr populär sind aber kaum bei Grafikartentests berücksichtigt werden.

Gast
2010-06-04, 14:04:40
:lol:.....die 5870 ist schneller als die GTX470 im Schnitt!
Da kannste dich auf den Kopf stellen! ;)
Nicht schnell genug um den Aufpreis zu rechtfertigen.

Gast
2010-06-04, 14:07:13
Kommt auf die Games an die man testet PCGH hat sie auf einem Level im Performance Index.
Mix aus Anno 1404,Crysis W.,BFBC2,COD6,Dirt2,GTA4,Mass Effect 2,Metro 2033,NFS Shift und WOW.

WOW wow^^

Schlammsau
2010-06-04, 14:09:17
Kommt auf die Games an die man testet PCGH hat sie auf einem Level im Performance Index.
Mix aus Anno 1404,Crysis W.,BFBC2,COD6,Dirt2,GTA4,Mass Effect 2,Metro 2033,NFS Shift und WOW.
Die PCGH hatte schon immer die etwas nVidia-freundlicheren Ergebnisse!
Nahezu jede andere Webseite bescheinigt der 470, 5-10% weniger Leistung als die 5870. Mit dem neuen Treiber dürfte die Leistung auf 0-5% weniger zusammengeschrumpft sein. Aber dennoch immernoch unter der 5870!

Nicht schnell genug um den Aufpreis zu rechtfertigen.
Da stimme ich dir voll zu, die HD5800er Serie ist mittlerweile zu teuer!

Iruwen
2010-06-04, 14:09:39
Endlich eine gute GTX470 Karte: Zotac GTX470 AMP! (http://www.computerbase.de/artikel/grafikkarten/2010/kurztest_zotac_geforce_gtx_470_amp/4/#abschnitt_sonstige_messungen)

Wenn ich jetzt im Moment überlegen würde ne Grafikkarte zu kaufen käme die ganz oben auf die Liste, direkt neben der 5870 Vapor-X Rev. 2.

Bei der man leider die Spannung nicht ändern kann, das geht wohl nur bei der leisen Asus. Aber so überragend soll die Vapor-X was die Lautstärke angeht ja eh nicht sein.


Nahezu jede andere Webseite bescheinigt der 470, 5-10% weniger Leistung als die 5870. Mit dem neuen Treiber dürfte die Leistung auf 0-5% weniger zusammengeschrumpft sein. Aber dennoch immernoch unter der 5870!

Dafür kann man die GTX 470 noch deutlicher übertakten und dann liegt sie deutlich vorne ;) Was wohl für die meisten hier relevant sein dürfte.

Schlammsau
2010-06-04, 14:14:59
Dafür kann man die GTX 470 noch deutlicher übertakten und dann liegt sie deutlich vorne ;) Was wohl für die meisten hier relevant sein dürfte.
Das stimmt auch nicht.
Auch eine 5870 kannste um 20-30% mit Overvolting übertakten.
Wo liegt also der unterschied zwischen den beiden Karten?

Weiss nicht wo das Problem sein soll!

Raff
2010-06-04, 14:16:19
5870 VaporX Rev. 1 für 333€! (http://www.pixmania.com/de/de/5020086/art/pixmania/radeon-hd-5870-vapor-x-1.html?srcid=47&Partenaire=geizhals&CodePromo=oui)
Aber das die 5870 VaporX im Schnitt 5-10% schneller als die AMP ist, übersiehst du wohl! ;)

Wo steht auf der kacke designten Seite, dass das die erste Revision ist?

MfG,
Raff

Schlammsau
2010-06-04, 14:17:46
Wo steht auf der kacke designten Seite, dass das die erste Revision ist?

MfG,
Raff

Nirgends....hat vor ein paar Seiten nur jemand geschrieben.
Wäre ja auch naheliegend, wenn man sich den Preis betrachtet, der 65€ unter dem der Rev.2 liegt.

derguru
2010-06-04, 14:19:19
Dafür kann man die GTX 470 noch deutlicher übertakten und dann liegt sie deutlich vorne ;) Was wohl für die meisten hier relevant sein dürfte.

was interessiert takterhöhungen die man nicht für den alltag gebrauchen kann sondern nur für 2 min benchmarks.die kacken sich doch förmlich in die hose wenn man es mal länger laufen lässt;)

eine 5850 ist die karte mit echtem oc potenzial weil man ohne weiteres den chip auf 5870 takten kann und der speicher der selbe wie beim großen bruder ist,da braucht man gar nicht ein unwohles gefühl in der magengegend zu haben beim übertakten,sozusagen default.:biggrin:

Raff
2010-06-04, 15:12:38
Eh? Eine GTX 470 mit gescheiter Kühlung kann man sehr wohl guten Gewissens übertakten. Das Referenzdesign würde ich bei den heutigen 25+ Grad Außen- wie Innentemperatur aber auch nicht übertakten. X-D

MfG,
Raff

Gast
2010-06-04, 15:14:48
Für das wirkliche "gute Gewissen" sollte es aber ein PCB mit 8+6 Pin sein, denn mit Spannungserhöhung und OC wird eine GTX 470 wohl schnell die 225W sprengen.

Tarkin
2010-06-04, 15:24:16
Nvidia GeForce GTX 480/470 vs. ATI Radeon HD 5870/5850 (http://www.techspot.com/review/283-geforce-gtx-400-vs-radeon-hd-5800/)

The GeForce GTX 470 vs. Radeon HD 5850 comparison can be summed up much more easily. The Radeon HD 5850 was without a doubt the superior performer in our testing, washing away the GeForce GTX 470 in all but two games. Even when the GeForce GTX 470 hit the lead when playing Metro 2033 and S.T.A.L.K.E.R.: Call of Pripyat it was by a small 1-2 fps margin on average.

The GeForce GTX 480 is still very fast, on the expensive side, and very power hungry. The Radeon HD 5870 on the other hand is almost as fast, it's a better value per dollar, and much more fuel efficient. For those reasons alone the Radeon HD 5870 still gets our seal of approval.

und jetzt soll nochmal jemand sagen eine 470 wäre ja eh fast so schnell wie eine 5870er aber deutlich billiger und daher die bessere Karte...

Aber ich kann mir schon denken was jetzt wieder kommt :rolleyes:

und noch was interessantes:

Another surprising set of results were found when testing with Crysis Warhead. The GeForce GTX 480 was just ~3fps faster when measuring both the minimum and average frame rates which is considerably less than what we observed last time using a time demo.

Iruwen
2010-06-04, 15:31:08
Ich hab noch nicht rausgefunden wie sie es geschafft haben die Ergebnisse so aussehen zu lassen, aber "Another reason why we wish to revisit this high-end graphics card battle is to settle a belief of the green team fans that..." zeigt wohl mit welcher Intention und Präferenz das Resultat entstanden ist.

/e: krass wie sich die AMD Fanboys gleich gesammelt draufstürzen, geht sowas irgendwie per Twitter rum? :D

nagus
2010-06-04, 15:34:03
....

Aber ich kann mir schon denken was jetzt wieder kommt :rolleyes:

das kann ich dir sagen ... "aber die texturfilterung is so shice bei amd" blahblahblahblah" .... ja wenn ich buchstäblich mit der lupe suche und aus einem kaum wahrnembahren unterschied in gewissen extremsituationen und mit ungünstigen einstellungen den ultimativen MEGA Vorteil immer und immer und immer wieder bis zum erbrechen aufzuzeigen, dann lass sie doch.

derguru
2010-06-04, 15:36:39
schön zusehen das in crysis warhead ohne af gebencht wurde sonst würde wieder das cheat geschafel kommen.
die 470 ist schon ne rakete..X-D

Angiesan
2010-06-04, 15:57:12
Kommt auf die Games an die man testet PCGH hat sie auf einem Level im Performance Index.
Mix aus Anno 1404,Crysis W.,BFBC2,COD6,Dirt2,GTA4,Mass Effect 2,Metro 2033,NFS Shift und WOW.

Bei WoW,GTA4 ist die NV deutlich schneller,das sind Games die sehr populär sind aber kaum bei Grafikartentests berücksichtigt werden.
Ja darüber habe ich mich auch schon gewundert,
aber das sollte ich vielleicht nicht.

Für die 470/480er wurde extra WOW und ein paar andere Spielchen mit reingenommem und man ist es nicht leid geworden auch immer noch zu schreiben, dass Crysis den NV karten nicht liegt, aus diesem Grund ist man wohl auch hingegangen und hat den Test dann auch in DX 9 durchgeführt unter DX 10 ist der Unterschied noch mal ne Nummer größer kann ich aus eigener Erfahrung brichten.
Aber wenn ich heute Infos brauche nehm ich eh nicht mehr die PCGH obwohl ich das Ding noch im Abo habe.
Mann kann auch mal hingehen und den 5850/5870 Review Benchmark sich reinziehen und dann mit dem 480/470/465 Test vergleichen, es ist zwar mitlerweilen ein andere Prozi bei denen verbaut, der Unterschied sollte aber nicht so riesig sein.
Dort sieht man sehr schön wie die 5870 um 23% zulegt auch die anderen Karten tun dies nur die 5850 bleibt bei den gleichen FPS ??? man muss das ein Krüppelkarte sein :-) Das gleich Spiel bei GTA.Aber die 470 muss auf alle Fälle deutlich vor die 5850 uind möglichst nah an die 5870 sonst geht das gar nicht:biggrin:

dildo4u
2010-06-04, 16:09:39
Ja darüber habe ich mich auch schon gewundert,
aber das sollte ich vielleicht nicht.

Für die 470/480er wurde extra WOW und ein paar andere Spielchen mit reingenommem und man ist es nicht leid geworden auch immer noch zu schreiben, dass Crysis den NV karten nicht liegt, aus diesem Grund ist man wohl auch hingegangen und hat den Test dann auch in DX 9 durchgeführt unter DX 10 ist der Unterschied noch mal ne Nummer größer kann ich aus eigener Erfahrung brichten.

WoW und GTA4 sind nunmal wesentlich populärer als 90% der anderen Games damit tauchen sie vollkommen zu recht in den PCGH Tests auf.Selbst WOW braucht mit den neuen Schatten ordentlich Grafikpower wenn man alles maxen will.In jedem Fall zocken diese Games wesentlich mher Leute als ein Metro,Stalker und co.

Botcruscher
2010-06-04, 16:15:48
WoW und GTA4 laufen aber auch so absolut bestens. Zurück zum Thema GTX470 irgendwas für 400€ und mehr. Bei dem Preis kann man sich auch eine 480er kaufen und ne WaKü drauf schnallen.

Gast
2010-06-04, 16:20:53
WoW und GTA4 sind nunmal wesentlich populärer als 90% der anderen Games damit tauchen sie vollkommen zu recht in den PCGH Tests auf.Selbst WOW braucht mit den neuen Schatten ordentlich Grafikpower wenn man alles maxen will.In jedem Fall zocken diese Games wesentlich mher Leute als ein Metro,Stalker und co.

Ja, rate mal wie beliebt erst CS und Quake 3 noch sind. :rolleyes:

Schlammsau
2010-06-04, 16:34:53
Einigen wir uns jetzt endlich drauf.....die 470 ist Leistungstechnisch im Schnitt etwas langsamer als eine 5870. Um wieviel genau, ist von Review zu Review unterschiedlich aber langsamer ist sie auf jeden Fall. Ich finde im Schnitt 5% sind ein durchaus vertretbarer Mittelwert, auch mit dem neuen Treiber.

Die 470 AMP ist eine sehr gute Karte, wenn sie unter 350€ angeboten wird! Wenn dieser Preis erreicht wurde, kann ich sie uneingeschränkt empfehlen. Vorher nicht!

Iruwen
2010-06-04, 16:38:55
Dem kann man nur zustimmen. Weiter oben ging es allerdings um GTX 470 vs HD 5850.

Schlammsau
2010-06-04, 16:54:34
Schneller als eine 5850 ist die 470 im Schnitt auf jeden Fall!
Natürlich wird es auch Fälle geben, wo auch die 470 die Segel gegen eine 5850 streichen muss, aber wahrscheinlich genauso selten wie sie gegen eine 570 gewinnt.

Aber wie gesagt, die Zotac 470 AMP ist wenn der Preis stimmt, eine interessante Karte!
Nicht zuletzt wegen ihrer fast absloluten noisless und der verbesserten Verlustleistung unter Last.

Ist aber auch nicht wirklich ein Wunder bei diesem Monster an Kühler.

Gast
2010-06-04, 16:57:00
Ihr streitet euch hier nicht ernsthaft darüber, welche Grafikkarte 5 % schneller oder langsamer ist? In der Messtechnik ist 5 % bereits eine gängige Messungenauigkeitsgröße. :|

Schlammsau
2010-06-04, 16:59:54
Ihr streitet euch hier nicht ernsthaft darüber, welche Grafikkarte 5 % schneller oder langsamer ist? In der Messtechnik ist 5 % bereits eine gängige Messungenauigkeitsgröße. :|

In welcher Messtechnik? Bei uns in der Firma ist über 1% Messungenauigkeit zB ist in den meisten Fällen, schon nicht mehr akzebtabel und wird nicht toleriert.

hq-hq
2010-06-04, 17:02:26
@derguru ja sehr rätselhaft, mal wurde da mit 0x af, dann mit 8x af... dann mit 16x af... grad so wie's wohl grad besser in den plan gepasst hat. ist wohl nicht viel von zu halten.

derguru
2010-06-04, 17:09:10
was ist da rätselhaft,die haben settings genommen die ingame maximal einstellbar sind oder überhaupt vorhanden,wat für verschwörungstheorien. :lol:

crysis,res4 und stalker bench hat nun mal kein af-option,metro bei den settings auch nur 4af.

Wuge
2010-06-04, 17:10:26
Ich weiß ehrlich gesagt garnicht, was Ihr alle gegen den Refernzkühler habt. Idle @ < 35% unhörbar und unter Last (hab gerade 55% @ 86°C GPU) auch alles andere als unerträglich.

Klar gehts noch leiser aber will ich dafür die Abwärme im Tower haben oder nen 120iger zusätzlich installieren?

Gast
2010-06-04, 17:11:26
In welcher Messtechnik? Bei uns in der Firma ist über 1% Messungenauigkeit zB schon nicht mehr akzebtabel und wird nicht toleriert.

Ich rede von gewöhnlichen physikalischen Messungenauigkeiten, mit denen z. B. u. a. jedes handelsübliche Multimeter (in der Regel 1,5 %) behaftet ist. Kommerzielle, optimierte Präzisionsmessungen sind etwas Anderes. Wer mit Fraps misst, wird sicher mindestens 1 FPS Messungenauigkeit haben. Auf eine Nachkommastelle genau kann man nunmal nicht messen. 1 FPS macht aber bereits bei 25 FPS Durchschnitt (etwa Crysis) 4 % aus.

Bucklew
2010-06-04, 17:13:33
Ich hab noch nicht rausgefunden wie sie es geschafft haben die Ergebnisse so aussehen zu lassen, aber "Another reason why we wish to revisit this high-end graphics card battle is to settle a belief of the green team fans that..." zeigt wohl mit welcher Intention und Präferenz das Resultat entstanden ist.

/e: krass wie sich die AMD Fanboys gleich gesammelt draufstürzen, geht sowas irgendwie per Twitter rum? :D
Siehste, klappt doch. Von ATI-Fanboys für ATI-Fanboys und schon springen die Zugriffszahlen ;)

In welcher Messtechnik? Bei uns in der Firma ist über 1% Messungenauigkeit zB ist in den meisten Fällen, schon nicht mehr akzebtabel und wird nicht toleriert.
In einem Game-Benchmark 1% Messungenauigkeit? Unmöglich....

pest
2010-06-04, 17:13:52
In welcher Messtechnik? Bei uns in der Firma ist über 1% Messungenauigkeit zB ist in den meisten Fällen, schon nicht mehr akzebtabel und wird nicht toleriert.

Was hat das mit Messtechnik zu tun?

das ist ein generelles Problem der hier geführten Diskussionen, da werden Benchmarks unterschiedlichster Seiten rezitiert ohne zu wissen wie diese wirklich zustande gekommen sind.

Ich behaupte einfach mal ganz frech, das viele Seiten einen Bench max. einmal ausführen ohne die Streuung der Werte zu beurteilen
(was je nach Bench unterschiedlich ist, extremes Negativbeispiel wäre z.B. 3DMark06).

Schlammsau
2010-06-04, 17:15:49
Ich weiß ehrlich gesagt garnicht, was Ihr alle gegen den Refernzkühler habt. Idle @ < 35% unhörbar und unter Last (hab gerade 55% @ 86°C GPU) auch alles andere als unerträglich.

Klar gehts noch leiser aber will ich dafür die Abwärme im Tower haben oder nen 120iger zusätzlich installieren?

Der Kühler der Ref. 470 ist schlicht und ergreifend teils deutlich lauter als der der Ref. 5870, Bei weniger Leistung! Und das ist/sollte inakzepabel sein.

Schlammsau
2010-06-04, 17:20:15
Was hat das mit Messtechnik zu tun?

das ist ein generelles Problem der hier geführten Diskussionen, da werden Benchmarks unterschiedlichster Seiten rezitiert ohne zu wissen wie diese wirklich zustande gekommen sind.

Ich behaupte einfach mal ganz frech, das viele Seiten einen Bench max. einmal ausführen ohne die Streuung der Werte zu beurteilen
(was je nach Bench unterschiedlich ist, extremes Negativbeispiel wäre z.B. 3DMark06).

Da gebe ich dir Recht, obwohl ich es nicht weiss.
Was ich als Endverbraucher aber machen kann ist, eine "Zusammenfassung" vieler verschiedener Tests zu machen und den Mittelwert herauszufiltern.

hq-hq
2010-06-04, 17:21:21
was ist da rätselhaft,die haben settings genommen die ingame maximal einstellbar sind oder überhaupt vorhanden,wat für verschwörungstheorien. :lol:

crysis,res4 und stalker bench hat nun mal kein af-option,metro bei den settings auch nur 4af.

naja es macht es schwieriger mit anderen reviews zu vergleichen und es mutet seltsam an 8xfsaa und 0xaf... hab ich so noch nicht gesehen.

auch bei dem rest an infos wird gespart, das is halt nicht so schön

da halte ich mich lieber an andere seiten

Zatoichi
2010-06-04, 17:24:31
Der Kühler der Ref. 470 ist schlicht und ergreifend teils deutlich lauter als der der Ref. 5870, Bei weniger Leistung! Und das ist/sollte inakzepabel sein.

Und als Besitzer beider Karten sage ich zum xten male, das der 5870er Lüfter wesentlich unangenehmer vom Geräusch her ist und es sich subjektiv nichts zu den 4er Karten nimmt. Beide sind weit von leise entfernt. Und bevor jemand aus seinem Loch gekrochen kommt: auch PCS und Vapor sind NICHT unhörbar, ganz im gegenteil, die PCS nervt auch durch ihr relativ hohes Laufgeräusch unter Last.

Iruwen
2010-06-04, 17:28:08
Ist generell eine subjektive Frage, deshalb sagen Messwerte auch nicht viel aus. Ein lauteres Geräusch muss nicht zwangsläufig störender sein, lautes Rauschen ist z.B. viel weniger nervig als ein fiependes oder kreischendes Geräusch.
Die PCS+ ist alles andere als unhörbar aber für mich auch nicht nervig - ich bin von der GTX 295 aber auch einiges gewöhnt. Wer es wirklich leise haben möchte kommt um eine Wakü oder Lösungen wie den MK-13 halt nicht herum.

hq-hq
2010-06-04, 17:39:15
um nochmal auf das techspot review zu kommen.

den dark tower level hab ich grad mal laufen lassen. alles auf max, (gtx@stock)
8xAA nicht CSAA und 16xAF@HQ sowie bokeh und cuda wasser @1920x1080 -> 33.83 fps average.
supi gemacht techspot, passt.
nur ohne bokeh und cuda hab ich 41.84fps average
das findet keine erwähnung, also was soll das.
wer weiss welche geringen mittel noch verwendung fanden um die tollen frameverläufe zu "optimieren".
techspot <-> ati-fanboys
oder
techspot <-> doof

derguru
2010-06-04, 17:45:51
um nochmal auf das techspot review zu kommen.

den dark tower level hab ich grad mal laufen lassen. alles auf max, (gtx@stock)
8xAA nicht CSAA und 16xAF@HQ sowie bokeh und cuda wasser @1920x1080 -> 33.83 fps average.
supi gemacht techspot, passt.
nur ohne bokeh und cuda hab ich 41.84fps average
das findet keine erwähnung, also was soll das.
wer weiss welche geringen mittel noch verwendung fanden um die tollen frameverläufe zu "optimieren".
techspot <-> ati-fanboys
oder
techspot <-> doof

ja dann haben sie das halt verpennt und selbst mit deinem wert ist es immer noch unter 5850 niveau.

hq-hq
2010-06-04, 17:54:35
sorry, aber entweder ich mach was gscheit oder ich muss mir inkompetenz nachsagen lassen.

du tust dir keinen gefallen ergebnisse von inkompetenten verrisstestern zur argumentation heranzuziehen.
<- und mir natürlich erst recht nicht, denn das schmeckt nicht ! ;)

derguru
2010-06-04, 18:10:16
es tauchen immer wieder mal fehler in reviews auf,ist keine seltenheit.das dir das nicht in dem fall schmeckt ist klar.ich verteidige den laden nicht aber gleich von ati-fanboys zureden ist ein bissel zu viel des guten.

hq-hq
2010-06-04, 18:18:19
für mich polarisiert techspot durch inkompetenz. schreiben wir lieber über das wetter, glaube es gibt sonnenbrand

Nakai
2010-06-04, 18:37:26
Es ist ja wohl eindeutig, wie NV ihre Karten gelegt hat.

GTX470 direkt gegen die HD5850, aber mit Aussicht gegen die HD5870 zu kämpfen.

GTX480 direkt gegen die HD5870, aber natürlich die schnellste SingleGPU-Grafikkarte auf dem Markt.

Auch der Schnitt der Karten in den Reviews spricht dafür. Und klar Reviews driften auseinander.


mfg

Schlammsau
2010-06-04, 20:15:36
Wann kommt den nun endlich das Review von Lolli?

akuji13
2010-06-04, 20:24:12
Und als Besitzer beider Karten sage ich zum xten male, das der 5870er Lüfter wesentlich unangenehmer vom Geräusch her ist und es sich subjektiv nichts zu den 4er Karten nimmt.

Kann ich ebenfalls nur bestätigen.

PulsarS
2010-06-04, 21:18:00
für mich polarisiert techspot durch inkompetenz.
Das mag für uns so aussehen, hat aber schon etwas.
Ist eine Art Mainstream-Review.
Für Leute, die nichtmal AF und AA im Treiber einstellen (können).
Sondern alles, was im Spiel möglich ist.
Es gibt auch welche, die nichtmal alles auf voll im Spiel einstellen können...
Letztens selbst erlebt bei einem Arbeitskollegen. ;D
Der dachte er hätte alles in FC2 auf voll gestellt und hatte nichtmal DX10 eingestellt... :D

Und genau für solche Leute ist so ein Review perfekt. :freak:

hq-hq
2010-06-04, 22:04:41
hehe,

ja nur die schreiben
>>with the new GeForce 257.15 beta drivers, so we were expecting good things. Instead we saw the GeForce GTX 480 lagging behind the Radeon HD 5870 with a 14% average frame rate advantage.<<
da wundern sie sich schon warum jetzt die gtx480 so lahm ist und kommen nicht drauf warum
das wohl so ist. neiiin... war doch alles auf max gestellt. ich hab nix gewusst, war da was ?
wer einmal klaut, klaut wieder bzw wer einmal cheatet, der cheatet wieder - das review ist wertlos.

ne nicht wertlos, es zeigt wie man es genau nicht machen sollte !
denn wenn man schon bescheisst, dann richtig. und nicht so das es auffliegt.

Raff
2010-06-04, 22:08:29
Wann kommt den nun endlich das Review von Lolli?

Auch das wird nicht die ultimative Wahrheit enthalten. ;) Vermutlich aber interessante Werte mit hoher Pixellast und damit auch ein gutes Abschneiden der Radeon-Flotte.

MfG,
Raff

Schlammsau
2010-06-04, 22:09:55
Auch das wird nicht die ultimative Wahrheit enthalten. ;) Vermutlich aber interessante Werte mit hoher Pixellast und damit auch ein gutes Abschneiden der Radeon-Flotte.

MfG,
Raff
Ich kenne die ultimative Wahrheit schon....jetzt wird es Zeit, sie auch allen andren preiszugeben. :)

Raff
2010-06-04, 22:11:42
Lolli teilt deine Wahrheit, freu dich also auf lange Radeon-Balken und hechelnde GeForces. Ich kämpfe derweil weiter für Qualität. ;)

MfG,
Raff

Gast
2010-06-04, 22:13:04
Lolli teilt deine Wahrheit, freu dich also auf lange Radeon-Balken und hechelnde GeForces.

MfG,
Raff

Das ist wirklich letztklassig. Aber wenn man euch ähnliches vorwirft beginnt das große Heulen.

Raff
2010-06-04, 22:15:50
Frag ihn doch einfach mal.

MfG,
Raff

PS: Wer ist "euch"? Ich bin ganz allein und sehe sonst niemanden. Da sieht wieder jemand Gespenster.

Schlammsau
2010-06-04, 22:16:51
Lolli teilt deine Wahrheit, freu dich also auf lange Radeon-Balken und hechelnde GeForces.

MfG,
Raff
Ich will die echte Wahrheit, und zwar unverblümt und ungeschönt!
Und meine Meinung steht schon lange fest, dass weisst du ja.

Die GTX480 ist nicht so schnell bzw langsam, wie manche es gerne hätten.
mMn im Schnitt 10-20% vor einer 5870, bei sehr hohen Auflösungen eher unter 10%, beim DS (sprich extrem hohen Auflösungen) ihr sogar unterlegen, bei einem exorbitant hohen Stromverbrauch!
Theoretische Benchmarks mal aussen vor gelassen. ;)

Das ist die ultimative Wahrheit.

Gast
2010-06-04, 22:19:09
Frag ihn doch einfach mal.

MfG,
Raff

PS: Wer ist "euch"? Ich bin ganz allein und sehe sonst niemanden. Da sieht wieder jemand Gespenster.

Was soll ich ihn denn frage? Ob die Radeons besser liegen werden wie bei PCGH? Die Frage kann ich mir auch selbst beantworten, denn das tun sie überall.

Mit euch meine ich euch PCGH-Redakteure, das Schema ist bekannt. Dann sollte man zumindest nicht austeilen.

Raff
2010-06-04, 22:22:18
Ich sehe hier keinen PCGH-Redakteur. Ich sehe einen langjähigen 3DCenter-Spammer, der im Gegensatz zu den meisten "Gästen" verstanden hat, dass die PCGH-Redaktion zwei sehr populäre Spiele mittestet, die zufällig den GeForce-Karten gut liegen, was den Schnitt anhebt.

Die GTX480 ist nicht so schnell bzw langsam, wie manche es gerne hätten.
mMn im Schnitt 10-20% vor einer 5870, bei sehr hohen Auflösungen eher unter 10%, beim DS ihr sogar unterlegen, bei einem exorbitant hohen Stromverbrauch!
Theoretische Benchmarks mal aussen vor gelassen. ;)

So stimmt alles. :biggrin:

MfG,
Raff

hq-hq
2010-06-04, 22:22:38
der zahlungskräftige kundenkreis scheint kein problem beim "exorbitant" hohen stromverbrauch zu haben, so schreitet ati prompt zur tat: http://www.hartware.net/news_49314.html

btw, die pcgh und computerbase benchis geben doch das gleiche wieder ?

PulsarS
2010-06-04, 22:31:31
der zahlungskräftige kundenkreis scheint kein problem beim "exorbitant" hohen stromverbrauch zu haben, so schreitet ati prompt zur tat: http://www.hartware.net/news_49314.html

Und woran machst du es fest, dass die "zahlungskräitige" Kundschaft es so will?
Das ist reine Dummheit.
Ich habe es aber schon in einem anderen Thread geschrieben, dass ATI bei SI wegen Nvidia ein wenig großzügiger bei Stromverbrauch werden könnte.
Das entwickelt sich imo in die ganz falsche Richtung.
Man muss sich ja nicht unbedingt zum Affen machen, weil es der Kontrahent auch tut. :freak:

Schlammsau
2010-06-04, 22:32:51
So stimmt alles. :biggrin:

MfG,
Raff

Ich denke es sind 10-20% im Schnitt.
Es gibt dermaßen viele Games, wo die 480 gegen die 5870 abkackt*, dass es fast schon peinlich ist.
Crysis, Warhead, DiRT2, Just Cause 2 und AvP schmeisse ich hier mal in den Raum.
So eine grosse GPU und so eine dermaßen hohe Verlustleistung im Vergleich zur Konkurrenz, und dann kommen nur im Schnitt 10-20% mehr Leistung raus?
Ich bleibe dabei, die 480 (nicht 470!) ist und bleibt eine Enttäuschung!

*mit Abkacken meine ich, dass sie sich nicht nennenswert von einer 5870 absetzen kann.

mapel110
2010-06-04, 22:39:32
Bei AVP hab ich schon Benchmarks gesehen, wo die 480 doppelt so schnell ist wie eine 5870. Weiß nicht, was da abkacken heißen soll.

hq-hq
2010-06-04, 22:39:38
Und woran machst du es fest, dass die "zahlungskräitige" Kundschaft es so will?
Das ist reine Dummheit.
Ich habe es aber schon in einem anderen Thread geschrieben, dass ATI bei SI wegen Nvidia ein wenig großzügiger bei Stromverbrauch werden könnte.
Das entwickelt sich imo in die ganz falsche Richtung.
Man muss sich ja nicht unbedingt zum Affen machen, weil es der Kontrahent auch tut. :freak:

für die einen ist es dummheit, für die anderen die schnellste (single gpu) grafikkarte der welt.

nicht wegen nvidia wird der stromverbrauch stark ansteigen, wegen der transistorenanzahl.

wenn die technik nicht mehr hergibt muss man eben mit gewalt arbeiten (strukturgrösse versus transistorenanzahl)

---

hat der pcgh kritisierende gast eigentlich mal verglichen
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=9
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/15/#

Gimmick
2010-06-04, 22:43:39
Lolli teilt deine Wahrheit, freu dich also auf lange Radeon-Balken und hechelnde GeForces. Ich kämpfe derweil weiter für Qualität. ;)

MfG,
Raff

Was ist ein Lolli? =/

Schlammsau
2010-06-04, 22:44:51
Bei AVP hab ich schon Benchmarks gesehen, wo die 480 doppelt so schnell ist wie eine 5870. Weiß nicht, was da abkacken heißen soll.

Die allermeisten Benchmarks bescheinigen der 480 in AvP nur 10% mehr Leistung. Die Streuung ist extrem zwischen den Reviews!

Ich kämpfe derweil weiter für Qualität. ;)

Und ich kämpfe für Effizienz!
Da kann eine Karte noch so viele Features anbieten, wenn der Stromverbrauch nicht im Verhältniss steht ist das Fail!

hq-hq
2010-06-04, 22:45:01
ein Lolli testet in fiesen auflösungen mit ganz ganz viel antialiasing und macht ganz böses downsampling !

Gast
2010-06-04, 22:49:37
Lolli teilt deine Wahrheit, freu dich also auf lange Radeon-Balken und hechelnde GeForces. Ich kämpfe derweil weiter für Qualität. ;)

MfG,
Raff

Yupp - du schreibst auch für PCGH...



Also ich selbst hatte 5850, GTX470 und nun 5870 im Vergleich und für MICH stellt (außer vielleicht die Zotac, abgesehen vom Preis und 3-Soltkühlung) die ATI-Lösung das bessere Produkt dar!

Gründe: Ganz klar Lautstärke, und Lastverbrauch mit verbundener Temperatur. Auch der Vergleich mit 4890 hinkt gewaltig, da der Innenraum mit KEINER 4890 derartig aufheizt, als mit ner 470 (und vermutlich erst recht 480). Ergo benötigt es meiner Erfahrung entweder einer Wakü, oder einer Zotaclösung (welche imo völlig überteuert ist), um einen NV-Pedant vollständig auszureizen.



Pro NV, ganz klar PhysX. Seit meiner GTX280 möchte ich dieses Feature eigentlich nicht mehr missen! Deshalb kommt bei mir demnächst eine 9600GT zusätzlich als Zweitkarte in den Rechner,
da z.B Batman ohne PhysX nicht mehr spielbar erscheint!


Pro Ati: Mit etwas OC bewegt man sich im Schnitt locker auf GTX480-Niveau. Und dieses Mehr an Leistung kann ich bei einer ATI in den meisten Fällen OHNE Kompromisse eingehen!

Blaire
2010-06-04, 22:52:23
Ich find es immer wieder erstaunlich, das immer Kritik von Leuten kommt, die nie eine GTX480 besessen haben aber meinen sich ein Urteil erlauben können. Wollte es nur mal erwähnen, bitte weitermachen. :biggrin:

Gast
2010-06-04, 22:54:11
Ich find es immer wieder erstaunlich, das immer Kritik von Leuten kommt, die nie eine GTX480 besessen haben aber meinen sich ein Urteil erlauben können. Wollte es nur mal erwähnen, bitte weitermachen. :biggrin:

....wie bereits erwähnt - mir hat die 470 bereits gereicht!

tombman
2010-06-04, 22:54:33
So stimmt alles. :biggrin:

MfG,
Raff
Ich glaube mittlerweile auch, daß die 20%+ Geschichte sind. Könntet ihr bitte mal einen kompletten benchparcour mit neuesten Treibern zwischen HD5 und GTX4 durchführen? Da gehört dringend ein update her. (257er FW vs neuestem Cat)

hq-hq
2010-06-04, 22:54:36
bzgl avp benchmark
http://www.hardocp.com/article/2010/03/25/nvidia_fermi_gtx_470_480_sli_review/5
sieht nach mehr als 10% aus, ausser bei der gtx470, jaajaa 2560x1600 kann schon mal das genick brechen ;)

5870 @ 1000mhz und gut ist oder ? hehehe... dann macht die gtx 480 800mhz und es ist wieder nicht gut. ;)

Blaire
2010-06-04, 22:57:33
....wie bereits erwähnt - mir hat die 470 bereits gereicht!

Das hat sich irgendwie überschnitten...Stromverbrauch und Lautstärke kann man ja alles kritisieren alles richtig, aber man sollte es auch nicht übertreiben. Vor allem weil die Diskussionen sich dauernd wiederholen immer mit dem selben Ergebnis.

Schrotti
2010-06-04, 22:57:46
Ich denke es sind 10-20% im Schnitt.
Es gibt dermaßen viele Games, wo die 480 gegen die 5870 abkackt*, dass es fast schon peinlich ist.
Crysis, Warhead, DiRT2, Just Cause 2 und AvP schmeisse ich hier mal in den Raum.
So eine grosse GPU und so eine dermaßen hohe Verlustleistung im Vergleich zur Konkurrenz, und dann kommen nur im Schnitt 10-20% mehr Leistung raus?
Ich bleibe dabei, die 480 (nicht 470!) ist und bleibt eine Enttäuschung!

*mit Abkacken meine ich, dass sie sich nicht nennenswert von einer 5870 absetzen kann.

??? Häää

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=9

Ich sehe die GTX 480 eindeutig vor der 5870.

Gast
2010-06-04, 23:02:18
??? Häää

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=9

Ich sehe die GTX 480 eindeutig vor der 5870.

Erstaunlich, wie sich die 8800 GTX schlägt. So schnell wie eine HD 4870? :biggrin:

Gast
2010-06-04, 23:02:51
bzgl avp benchmark
http://www.hardocp.com/article/2010/03/25/nvidia_fermi_gtx_470_480_sli_review/5
sieht nach mehr als 10% aus, ausser bei der gtx470, jaajaa 2560x1600 kann schon mal das genick brechen ;)

5870 @ 1000mhz und gut ist oder ? hehehe... dann macht die gtx 480 800mhz und es ist wieder nicht gut. ;)

weils wieder kindisch wird - wenigstes brauchts bei der ATI kein neues Netzteil :(!

Aufgrund der Werte welche du gepostet hast - es wird peinlich hier - bye!

Schlammsau
2010-06-04, 23:05:17
??? Häää

http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=9

Ich sehe die GTX 480 eindeutig vor der 5870.

Ich nicht!
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_480/15/#abschnitt_colin_mcrae_dirt_2_dx9dx11
Es kommt wie immer auf die Seite an, die gerade bencht!
Sehe grad, das sind ja nur DX9 Benchmarks! X-D
Eine 480 liegt also doch 10-20% vor einer 5870 in Dirt2, streicht das Game von der Abkackliste.

Die Streuung ist extrem und die Wahrheit liegt irgendwo in der Mitte.
^^ Stimmt aber trotzdem!

derguru
2010-06-04, 23:10:31
hier haste unter dx11.
http://www.guru3d.com/article/asus-geforce-gtx-480-enggtx480-review/11

hq-hq
2010-06-04, 23:12:24
keine ahnung was an OC kindisch sein soll, allein bei der CPU kann ich mir an haufen kohle sparen im vergleich zum spitzenmodell !

Schlammsau
2010-06-04, 23:14:33
Wer mag kann ja mal gegentesten, mit dem neusten Treiber und einer einzelnen 480.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8052419#post8052419

Zatoichi
2010-06-05, 06:22:40
Eigentlich könnte man da ja mitmachen....Schwachsinn und Cherrys rauspicken und das ganze wie mit einer tibetischen Gebetsmühle wiederholen. Und das dann noch als "ultimative Wahrheit" verkaufen. Normaler weise nennt man so etwas Spam. Um auf dem niedrigen Niveau zu bleiben, was hier par exellenz vorherrscht, ATi kostet das hier wohl massiv Geld soviel Spammer und Marketing Leute zu beschäftigen. Weiter runter kann es doch gar nicht gehen....
Wer soll hier von was Überzeugt werden? Was ist der ganze Sinn der hinter dieser Spammerei hier steht? Soll hier wer "bekehrt" werden? Wenn man das mal hinterfragt, kann man doch nur zu dem Schluß kommen das hier nicht ernsthaft Diskutiert werden soll.
Denn wen man alles zusammen zieht, bleibt ATi nur der bessere Stromverbrauch unter Last. Die Karten sind NICHT leiser unter Last, nicht günstiger , haben weniger Features und sind auch nicht schneller. Die Filtergeschicht spiele ich bewußt nicht an und die Treiber lasse ich auch außen vor. Und nun? Kommt jetzt die Inquisition?

Vertigo
2010-06-05, 08:33:55
Eigentlich könnte man da ja mitmachen....Schwachsinn und Cherrys rauspicken und das ganze wie mit einer tibetischen Gebetsmühle wiederholen. Und das dann noch als "ultimative Wahrheit" verkaufen. Normaler weise nennt man so etwas Spam. Um auf dem niedrigen Niveau zu bleiben, was hier par exellenz vorherrscht, ATi kostet das hier wohl massiv Geld soviel Spammer und Marketing Leute zu beschäftigen. Weiter runter kann es doch gar nicht gehen....
Wer soll hier von was Überzeugt werden? Was ist der ganze Sinn der hinter dieser Spammerei hier steht? Soll hier wer "bekehrt" werden? Wenn man das mal hinterfragt, kann man doch nur zu dem Schluß kommen das hier nicht ernsthaft Diskutiert werden soll.
Denn wen man alles zusammen zieht, bleibt ATi nur der bessere Stromverbrauch unter Last. Die Karten sind NICHT leiser unter Last, nicht günstiger , haben weniger Features und sind auch nicht schneller. Die Filtergeschicht spiele ich bewußt nicht an und die Treiber lasse ich auch außen vor. Und nun? Kommt jetzt die Inquisition?
Das wirklich Witzige/Traurige an der Geschichte ist eigentlich nur, dass genau die selben Leute, die hier so sehr auf Vernunft pochen und ihre sachlichen Argumente, wie Energieeffizienz, P/L-Verhältnis usw. als die gewichtigeren ansehen, bei bisherigen und auch folgenden Grafikkartengenerationen nicht mehr auf ihren Argumenten beharren, sondern wiederum andere Vorteile der eigenen Marke preisen und andere Nachteile der "gegnerischen" Marke verteufeln. Als ATI (optional) die bessere Texturfilterung bot, war das für die ATI-Fraktion ein Killer-Feature. Heute ist das nicht mehr so wichtig und außerdem sieht man ohnehin die selten auftretenden Unterschiede nur mit der Lupe. Genau so sieht's bei Verlustleistung oder Lautstärke der Referenzkühlung aus: Ist die eigene Marke vorn (egal wie gering der Abstand ist) sind das absolute KO-Argumente, ist die eigene Marke hier schlechter, sind die Unterschiede gar nicht so groß und wichtig. Und so weiter. Immerhin ist ziemlich offensichtlich, wer einfach nur Fanboy aus Überzeugung ist und wer objektiv ist und wirklich gerade diesen und jenen Vorteil eines Herstellers für sich als ausschlaggebendes Kaufkriterium ansieht.

Bandit3644
2010-06-05, 08:45:25
Das wirklich Witzige/Traurige an der Geschichte ist eigentlich nur, dass genau die selben Leute, die hier so sehr auf Vernunft pochen und ihre sachlichen Argumente, wie Energieeffizienz, P/L-Verhältnis usw. als die gewichtigeren ansehen, bei bisherigen und auch folgenden Grafikkartengenerationen nicht mehr auf ihren Argumenten beharren, sondern wiederum andere Vorteile der eigenen Marke preisen und andere Nachteile der "gegnerischen" Marke verteufeln. Als ATI (optional) die bessere Texturfilterung bot, war das für die ATI-Fraktion ein Killer-Feature. Heute ist das nicht mehr so wichtig und außerdem sieht man ohnehin die selten auftretenden Unterschiede nur mit der Lupe. Genau so sieht's bei Verlustleistung oder Lautstärke der Referenzkühlung aus: Ist die eigene Marke vorn (egal wie gering der Abstand ist) sind das absolute KO-Argumente, ist die eigene Marke hier schlechter, sind die Unterschiede gar nicht so groß und wichtig. Und so weiter. Immerhin ist ziemlich offensichtlich, wer einfach nur Fanboy aus Überzeugung ist und wer objektiv ist und wirklich gerade diesen und jenen Vorteil eines Herstellers für sich als ausschlaggebendes Kaufkriterium ansieht.

Ihr solltet aber mal erwähnen dass es auf beide Fraktionen zutrifft, sonst leidet die Objektivität die ihr uns verkaufen wollt.

Vertigo
2010-06-05, 08:56:49
Ihr solltet aber mal erwähnen dass es auf beide Fraktionen zutrifft, sonst leidet die Objektivität die ihr uns verkaufen wollt.
Ich habe allgemein von beiden Fraktionen geschrieben. Aber gut: Ich gestehe, ich hatte nur ATI in einem Beispiel explizit genannt. Aber wenn ATI etwas besser macht, dann impliziert das zwangsläufig, dass Nvidia genau das schlechter macht. Aber genau das interessiert keinen Fanboy, Hauptsache die eigene Marke kann irgendwas besser und das ist dann das Nonplusultra. Und natürlich ist jeder, der da nicht mitzieht, nicht neutral oder objektiv sondern zwangsläufig ein Fanboy aus dem anderen Lager. Ist doch klar.

Bandit3644
2010-06-05, 09:02:53
Ich habe allgemein von beiden Fraktionen geschrieben. Aber gut: Ich gestehe, ich hatte nur ATI in einem Beispiel explizit genannt. Aber wenn ATI etwas besser macht, dann impliziert das zwangsläufig, dass Nvidia genau das schlechter macht. Aber genau das interessiert keinen Fanboy, Hauptsache die eigene Marke kann irgendwas besser und das ist dann das Nonplusultra.

Ja aber das war schon immer so und ist in anderen bereichen wie autos u.s.w. auch anzutreffen. So wirklich Objektiv ist doch nimmand. Also ich habe beide Karten und jede hat ihre Vor-und Nachteile. Einen wirklichen Sieger gibts da nicht. Aber das ist nur meine Meinung.

Vertigo
2010-06-05, 09:08:39
Ja aber das war schon immer so und ist in anderen bereichen wie autos u.s.w. auch anzutreffen. So wirklich Objektiv ist doch nimmand. Also ich habe beide Karten und jede hat ihre Vor-und Nachteile. Einen wirklichen Sieger gibts da nicht. Aber das ist nur meine Meinung.
Das ist nicht nur deine Meinung, das sehe ich auch so. Man kann natürlich sehr viele Dinge objektiv vergleichen und die Tatsachen dann subjektiv gewichten. Das ist doch völlig normal und das sollte auch jeder nach seinen eigenen Prämissen tun. Das Seltsame an einem Fanboy ist dann nur, dass sein Anforderungsprofil von Generation zu Generation zu schwanken scheint und immer mit dem Leistungsprofil des eigenen Herstellers harmoniert. Oder einfach: Das einzige Feature, was erfüllt sein muss, ist, dass das Produkt von der eigenen Lieblingsmarke stammt. So macht man sich die Entscheidung zumindest einfach.

Zatoichi
2010-06-05, 09:12:09
Ihr solltet aber mal erwähnen dass es auf beide Fraktionen zutrifft, sonst leidet die Objektivität die ihr uns verkaufen wollt.

Stop! Der gewaltige Unterschied ist aber, das dieses gespamme in den Ausmaßen nur hier auftritt. Ich lese auch den Radeon Teil, da ich immer noch eine betreibe und Infos gerne mitnehme. Da kommt zwar auch mal ein Querschläger, der wird aber von der Meute gleich geprügelt. Das was in NV Threads abgeht ist doch abnormal.

OgrEGT
2010-06-05, 10:30:01
Kann den Vorrednern nur zustimmen. Ich frage mich immer nach dem Antrieb des Fanboyismus. Ich schwanke da noch zwischen absoluter Rechthaberei, oder dem zwanghaften Verhalten, die Gegenfraktion mit allen Mitteln als rückständig darzustellen, da sie offensichtlich die falsche Wahl getroffen hat. Ob beides dazu dient Minderwertigkeitskomplexe zu kompensieren scheint offensichtlich, da diese Stellvertreterkämpfe auf dem Feld von PC Grafikkarten ausgetragen werden. Zugegebenermaßen ein Feld, welches rational betrachtet dafür in keinster Weise lohnt.

nagus
2010-06-05, 10:49:58
Eigentlich könnte man da ja mitmachen....Schwachsinn und Cherrys rauspicken und das ganze wie mit einer tibetischen Gebetsmühle wiederholen. Und das dann noch als "ultimative Wahrheit" verkaufen. Normaler weise nennt man so etwas Spam. Um auf dem niedrigen Niveau zu bleiben, was hier par exellenz vorherrscht, ATi kostet das hier wohl massiv Geld soviel Spammer und Marketing Leute zu beschäftigen. Weiter runter kann es doch gar nicht gehen....
Wer soll hier von was Überzeugt werden? Was ist der ganze Sinn der hinter dieser Spammerei hier steht? Soll hier wer "bekehrt" werden? Wenn man das mal hinterfragt, kann man doch nur zu dem Schluß kommen das hier nicht ernsthaft Diskutiert werden soll.
Denn wen man alles zusammen zieht, bleibt ATi nur der bessere Stromverbrauch unter Last. Die Karten sind NICHT leiser unter Last, nicht günstiger , haben weniger Features und sind auch nicht schneller. Die Filtergeschicht spiele ich bewußt nicht an und die Treiber lasse ich auch außen vor. Und nun? Kommt jetzt die Inquisition?

tut mir leid, dass ich dich korrigieren muss aber die Radeons sind unter last und im idle sowohl leiser (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index11.php) (mit nur geringem vorteil der 470er vs. 5850 unter idle) als auch sparsamer (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index12.php). :eek:

Megamember
2010-06-05, 11:37:17
Schön das du nochaml erwähnst das die ATis sparsamer sind als die Fermis, könnte ja irgendjemand aus dem Forum hier noch nicht mitbekommen haben, gell.
Das mit der Lautstärke ist auch kein Argument mehr bei dem Custom Designs die jetzt kommen.

Zatoichi
2010-06-05, 11:53:22
tut mir leid, dass ich dich korrigieren muss aber die Radeons sind unter last und im idle sowohl leiser (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index11.php) (mit nur geringem vorteil der 470er vs. 5850 unter idle) als auch sparsamer (http://ht4u.net/reviews/2010/sapphire_radeon_hd5870_2gb_toxic_test/index12.php). :eek:

Langsam wirds wirklich lustig. Das mit dem Strom haben wir doch gerallt. Das mit der subjektiven Lautstärke scheinbar noch nicht oder? Die Ref Karten nehmen sich nix. Die eine rauscht (4xx) die andere dröhnt (57xx). Die Lautstärke auf dem Benchtable ist schon was anderes als unter dem Tisch im Chase. BEIDE sind NICHT leise. Schwer zu verstehen oder? Das gleich gilt für die Vapor / PCS analog. Im Idle sind BEIDE nicht zu hören (wie auch die 4xx). Unter Last sind sie leiser als die stock Kühler aber auch weit entfernt von unhörbar. Witzig ist, das du die 2GByte Version erwähnst. Die ist nähmlich lauter als die "normale" Vapor und das deutlich. Gerade im Bereich laut/leise zählt mehr als irgendwo anders das subjektive. Mich stört ein Rauschen weit weniger als zum Bleistift das dröhnen der 2GB Vapor. Sone sind ein Anhaltspunkt, aber kein Totschlag Argument, da hilft dir auch kein Smily. Und bevor wieder einer aus dem berühmten Loch kommt; genannte Karten habe ich "live" gehört (Nebenjob machts möglich).