PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Asus Mars Quad-SLI!!! (= 4x GTX285 2GB) – GTX-295-Sonderversion


Seiten : 1 [2]

Schlammsau
2009-11-19, 16:57:07
Nun ja, abgesehen vom DX11-Mangel kann eine Dual-GTX-285 schon gut mit einer Radeon HD 5970 mithalten.

MfG,
Raff

:| Und was ist mit Stromverbrauch, Lautstärke, Temperatur und vor allem dem Preis? Die wird doch sicherlich ähnlich teuer wie die MARS!

Mal abgesehen davon, wird diese Dual-GTX-285, mit Sicherheit nicht an die 5970 rankommen.

Gast
2009-11-19, 17:19:13
Die Asus Mars ist wohl fast durchgehend langsamer als die Radeon HD 5970, oder? Kostet aber das Doppelte. :biggrin:

Hat aber 2GB VRAM pro Chip und dürfte in extremen Settings die 5970 zernageln. ;)

Schlammsau
2009-11-19, 17:22:40
Hat aber 2GB VRAM pro Chip und dürfte in extremen Settings die 5970 zernageln. ;)

Jo in 3000x2000 evtl.
Aber bis Dato wird glaube ich eine 5970 mit 2x 2GB den Markt "erobern".

Gast
2009-11-19, 17:25:03
:| Und was ist mit Stromverbrauch, Lautstärke, Temperatur und vor allem dem Preis? Die wird doch sicherlich ähnlich teuer wie die MARS!

Alle Punkte bis auf den Preis entfallen automatisch.
Die Dinger sind alle höllisch verschwenderisch. laut und heiß.

Höchstens der Preis ist ein Punkt. Aber nachdem selbst die 1000 Mars wie nichts weggegangen sind, trotz diverser Probleme (die Galaxy doch sicher nicht wiederholt?), sehe ich selbst darin kein Problem.

Gast
2009-11-19, 17:26:01
Jo in 3000x2000 evtl.
Aber bis Dato wird glaube ich eine 5970 mit 2x 2GB den Markt "erobern"

Auch schon vorher, es gibt ja recht viele Texturmods. Eine 2GB 5970 wird dann aber auch wieder ähnlich teuer werden.

Spasstiger
2009-11-19, 17:32:22
Hat aber 2GB VRAM pro Chip und dürfte in extremen Settings die 5970 zernageln. ;)
Das ist die Frage, denn die Radeon HD 5970 gibt sich sich auch in extremen Settings keine Blöße und lässt die normale GTX 295 dort alt aussehen. Selbst mit 4xSSAA bricht die Framerate nicht dramatisch ein.

Schlammsau
2009-11-19, 17:33:43
Alle Punkte bis auf den Preis entfallen automatisch.
Die Dinger sind alle höllisch verschwenderisch. laut und heiß.

Höchstens der Preis ist ein Punkt. Aber nachdem selbst die 1000 Mars wie nichts weggegangen sind, trotz diverser Probleme (die Galaxy doch sicher nicht wiederholt?), sehe ich selbst darin kein Problem.

Tun sie nicht, in allen diesen Punkten ist die 5970 besser.

Wie nichts weggegangen? :freak: Schon vergessen, die Karte wurde nur 1000x gebaut. Was sind 1000 Stück auf dem Weltmarkt? Hast du schon von irgendeinem deutschen seriösen User lesen dürfen, dass er eine hat oder jemanden kennt der eine hat? Die Karte war Monate lang nach der Einführung bei Geizhals als Lieferbar gelistet.

Und nochmal.....eintausend Stück für die ganze Welt. ;D

Gast
2009-11-19, 17:38:04
Tun sie nicht, in allem ist die 5970 besser.
Sie ist trotzdem grottig.
High-End ist es jedenfalls nicht, wenn unterm Schreibtisch ein Staubsauger steht. ;)
Eine ordentliche Kühlung kostet nunmal ein paar 100€.


Wie nichts weggegangen? Schon vergessen, die Karte wurde nur 1000x gebaut. Was sind 1000 Stück auf dem Weltmarkt? Hast du schon von irgendeinem deutschen seriösen User lesen dürfen, dass er eine hat oder jemanden kennt der eine hat? Die Karte war Monate lang nach der Einführung bei Geizhals als Lieferbar gelistet. Hast du schon Infos wie viele Galaxy baut?
Nein, also sei ruhig, es könnten auch nur 1000 Stück sein.
Zig Hunterttausend werden es jedenfalls nicht, Galaxy ist nicht der größte Hersteller und dieser Preisbereich an 600€ Grafikkarten ist traditionell eher der Bereich wo keine wahnwitzig große Mengen abgesetzt werden.

Spasstiger
2009-11-19, 17:41:15
Sie ist trotzdem grottig.
High-End ist es jedenfalls nicht, wenn unterm Schreibtisch ein Staubsauger steht. ;)
Eine ordentliche Kühlung kostet nunmal ein paar 100€.
Bei der Asus Mars überzeugt die Kühllösung ganz bestimmt nicht, ist deutlich lauter als jede HD 5970 und führt trotzdem in manchen Gehäusen zur Überhitzung (GPU-Temperatur über 100°C).
Die HD 5970 liegt lautstärkentechnisch in der Gegend einer GTX 285 und einer HD 4850.

Schlammsau
2009-11-19, 17:41:57
Sie ist trotzdem grottig.
Sie ist die momentan schnellste MultiGPU Grafikkarte am Markt! ;)


Hast du schon Infos wie viele Galaxy baut?
Nein, also sei ruhig, es könnten auch nur 1000 Stück sein.
Zig Hunterttausend werden es jedenfalls nicht, Galaxy ist nicht der größte Hersteller und dieser Preisbereich an 600€ Grafikkarten ist traditionell eher der Bereich wo keine wahnwitzig große Mengen abgesetzt werden.

Sei du mal ruhig, ich Frage mich.... wieso jetzt noch, wo quasi bald der Nachfolger, diese Karte absolut obsolet macht, diese Karte aufgelegt wird.

Ist Fermi doch nicht so nahe?

Gast
2009-11-19, 17:43:25
Sie ist die momentan schnellste MultiGPU Grafikkarte am Markt! ;)

Hat aber Mikroruckler wo Nvidia weniger Probleme hat. Daher ist das ein ganz großer Pluspunkt für Nvidia.

Spasstiger
2009-11-19, 17:48:17
Dass Mikroruckler bei SLI kein Problem sind, halte ich für ein Gerücht. SLI und Crossfire sind in gleichem Maße betroffen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940.

Gast
2009-11-19, 17:49:11
Hat aber Mikroruckler wo Nvidia weniger Probleme hat. Daher ist das ein ganz großer Pluspunkt für Nvidia.
Wissen nur leider nicht allzu viele. Alleine die meisten jetztigen 5970 Test haben nahezu alle versagt.

Sie ist die momentan schnellste MultiGPU Grafikkarte am Markt! ;)
Kannst du auch mal beim Thema bleiben?
Es ging eben noch um Lautsträke und Stromverbrauch. Schau nochmal in den Zitaten nach.



Sei du mal ruhig, ich Frage mich.... wieso jetzt noch, wo quasi bald der Nachfolger, diese Karte absolut obsolet macht, diese Karte aufgelegt wird.

Ist Fermi doch nicht so nahe? Galaxy ist nicht Nvidia.
Du weisst das.
Du weisst auch, das die Auflage nicht besonders hoch wird. Bzw du willst die Auflage nicht nennen.

Gast
2009-11-19, 17:50:30
Dass Mikroruckler bei SLI kein Problem sind, halte ich für ein Gerücht. SLI und Crossfire sind in gleichem Maße betroffen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=436940.

Ist kein Gerücht dies kannst du auf PCGH,Computerbase nachlesen. Aber auch in Foren wird über Crossfireprobleme berichtet: hier z.b.http://www.nvnews.net/vbulletin/showpost.php?p=2125970&postcount=12

Gast
2009-11-19, 17:53:12
Wissen nur leider nicht allzu viele. Alleine die meisten jetztigen 5970 Test haben nahezu alle versagt.


Ja,Die meisten Reviews sind miserabel im Bezug auf MultiGPU allein schon deshalb da viel zu wenig Games getestet werden oder das Problem nur im Kleingedruckten zu finden ist.

Spasstiger
2009-11-19, 17:53:45
Die Messungen, die mir von SLI- und Crossfire-Nutzern zugespielt wurden, zeigen halt, dass auch SLI massiv Mikroruckler produziert und dass es Fälle gibt, wo mit Crossfire fast keine Mikroruckler gibt. D.h. alle Aussagen in Bezug auf Mikroruckler kontra Crossfire lassen sich auch kontra SLI ummünzen.
Bei deinem Link scheint es übrigens nicht um Mikroruckler zu gehen, denn diese äußern sich nicht so krass mit Input-Lag etc. Und Fifa 10 mit Crossfire? Hier kann man bedenkenlos auch mal Crossfire deaktivieren, eine GPU reicht.

derguru
2009-11-19, 17:53:58
wie auch immer ,die karte ist total uninteressant da es nun dx11 karten gibt die auch noch schneller sind und man kann es auch nicht mit dem mars vergleichen da es damals sozusagen die premium karte war was nunmal jetzt nicht mehr der fall ist.
frag mich wozu galaxy sowas macht,damit macht man doch kein geld mehr und prestigezeit ist auch abgelaufen.
wer soll sich denn an so einer karte begeistern außer paar redakteure für die artikel.
oder galaxy ist langweilig da es von nv nichts neues gibt,sozusagen arbeitsbeschaffungsmaßnahme :lol:

Gast
2009-11-19, 17:55:33
Bei deinem Link scheint es übrigens nicht um Mikroruckler zu gehen, denn diese äußern sich nicht so krass mit Input-Lag etc. Und Fifa 10 mit Crossfire? Hier kann man bedenkenlos auch mal Crossfire deaktivieren, eine GPU reicht.

[b]Never had any microstutter and input lag with SLI. First time i see this **** with Crossfire.[/b9 There is nothing wrong with system. I reformated HDD yesterday and installed CCC 9.10. As I said with vsync ON everything is perfect, with vsync off and xfire enabled it's freaking lags, never seen **** like this. Same applies for Crysis Warhead, however Crysis has no that problem.

Gast
2009-11-19, 18:00:27
Die Messungen, die mir von SLI- und Crossfire-Nutzern zugespielt wurden, zeigen halt, dass auch SLI massiv Mikroruckler produziert und dass es Fälle gibt, wo mit Crossfire fast keine Mikroruckler gibt.

Bezweifelt auch keiner, aber die Probleme mit SLi sind weniger ausgeprägt. Nvidia hat etwas dagegen getan, Ati bis heute nicht.

Schlammsau
2009-11-19, 18:11:56
Dagegen steht aber auch diese Aussage!
Während Nvidia also seit einiger Zeit aktiv mit dem Treiber gegen Mikroruckler vorgeht (ohne diese vollends zu entfernen), scheint sich bei ATi nicht allzu viel getan zu haben. Derzeit haben die Kanadier den Vorteil, dass zwei Radeon-HD-5850-Karten eine derart hohe Leistung aufweisen, dass kaum ein Spiel in die gefährliche 30-FPS-Zone kommt.
Und mit SGSSAA soll es gar keine µR geben. Und eins könnt ihr mir glauben, mit der 5970 kannst du Warhead@Enthusiast, in 1920x1200 und 4x SGSSAA ruckelfrei geniessen. ;)
Mach das mal mit einer GTX295.

Daredevil
2009-11-19, 18:14:40
Dann nehm ich einfach 3 ATI karten, hab ich NOCH MEHR Fps und dementsprechend NOCH WENIGER µRuckler. :D

san.salvador
2009-11-19, 18:16:01
Dann nehm ich einfach 3 ATI karten, hab ich NOCH MEHR Fps und dementsprechend NOCH WENIGER µRuckler. :D
Falsch.

Gast
2009-11-19, 18:18:16
Und mit SGSSAA soll es gar keine µR geben. Und eins könnt ihr mir glauben, mit der 5970 kannst du Warhead@Enthusiast, in 1920x1200 und 4x SGSSAA ruckelfrei geniessen. ;)

Die Aussage ist falsch.

Daredevil
2009-11-19, 18:21:05
Falsch.
:rolleyes:
http://www.forum-3dcenter.org/vbulle...d.php?t=470296 (http://www.stupidedia.org/stupi/Ironie)

Schlammsau
2009-11-19, 18:23:13
Die Aussage ist falsch.

Wirklich? Stimmt es nicht, dass mit SGSSAA nicht mehr AFR gerendert wird? :confused:

Daredevil
2009-11-19, 18:26:49
Die Messungen, die mir von SLI- und Crossfire-Nutzern zugespielt wurden, zeigen halt, dass auch SLI massiv Mikroruckler produziert und dass es Fälle gibt, wo mit Crossfire fast keine Mikroruckler gibt. D.h. alle Aussagen in Bezug auf Mikroruckler kontra Crossfire lassen sich auch kontra SLI ummünzen.
Bei deinem Link scheint es übrigens nicht um Mikroruckler zu gehen, denn diese äußern sich nicht so krass mit Input-Lag etc. Und Fifa 10 mit Crossfire? Hier kann man bedenkenlos auch mal Crossfire deaktivieren, eine GPU reicht.
http://www.pcgameshardware.de/aid,696419/Radeon-HD-5850/5870-Crossfire-vs-Geforce-GTX-285-SLI-im-Test-Multi-GPU-Shootout-Update-mit-SSAA-Test/Grafikkarte/Test/

Nvidias SLI-Technologie ist ebenfalls vom Mikroruckeln betroffen, der Hersteller dämmte die Symptome jedoch mittels Treiber-Feintunings deutlich ein. Eine Empfehlung zu SLI können wir jedoch ebenfalls nicht durchgehend aussprechen - nach wie vor ist eine Single-GPU-Karte das Maß aller Dinge.


Dort sieht man unter anderem auch wie gut sich ein SLI GTX285 Gespann schlägt, wenn man nicht vergisst das die µRuckler deutlich weniger stören. ( Und deswegen die Leistung bestimmt ein wenig abnimmt. )
Und ich halte sehr viel von den PCGH Jungs, nicht zuletzt deswegen weil Raff da auch seine Finger drin hat.

Spasstiger
2009-11-19, 18:27:09
Wenn man CF-SSAA verwendet, gibts keine Mikroruckler. Aber anscheinend funktioniert das in kaum einem SPiel.

Schlammsau
2009-11-19, 18:31:34
Wenn man CF-SSAA verwendet, gibts keine Mikroruckler. Aber anscheinend funktioniert das in kaum einem SPiel.
Ok...dann nehm ich meine Aussage teilweise zurück.

Gast
2009-11-19, 19:09:43
Die 2 Quad Karten macht man mit 3x 5850 locker platt ohne mit der Wimper zu zucken ;)

Gast
2009-11-19, 19:31:39
richtig, im HWL hat der zocker mit 3x 5850 @1025/1200 + GTX260 @ PhysX in Extreme X25421 Punkte und in Performance 40012 Punkte und das alles mit einen 4.3 Ghz Corei7 :freak:

Raff
2009-11-19, 19:34:48
Wie kommt ihr alle darauf, dass der Treiber so schlau ist und immer Crossfire-AA macht? Das ist nicht so. Und den 16x-Modus kann man knicken, weil der so in Spielen nicht anwählbar ist und daher oft mit Post Processing kollidiert.

MfG,
Raff

Gast
2009-11-19, 19:37:12
richtig, im HWL hat der zocker mit 3x 5850 @1025/1200 + GTX260 @ PhysX in Extreme X25421 Punkte und in Performance 40012 Punkte und das alles mit einen 4.3 Ghz Corei7 :freak:

Wayne interessiert Vantage?

Mr. Lolman
2009-11-19, 19:39:11
Wie kommt ihr alle darauf, dass der Treiber so schlau ist und immer Crossfire-AA macht? Das ist nicht so. Und den 16x-Modus kann man knicken, weil der so in Spielen nicht anwählbar ist und daher oft mit Post Processing kollidiert.

MfG,
Raff

In Spielen kann man ja sonst auch kein SSAA anwählen, oder?

Außerdem spräche imo zumindest rein technisch nix dagegen, dass CF-SGSSAA dort funktioniert wo auch normales SGSSAA funktioniert.

Black-Scorpion
2009-11-19, 19:40:05
Ist kein Gerücht dies kannst du auf PCGH,Computerbase nachlesen. Aber auch in Foren wird über Crossfireprobleme berichtet: hier z.b.http://www.nvnews.net/vbulletin/showpost.php?p=2125970&postcount=12
Sorry
Aber was Probleme bei irgend einer ATI Karte betrifft verlasse ich mich mit Sicherheit auf keine Seite die nvnews heißt.
Das wäre genauso Blödsinn wie sich bei VW zu erkundigen wie gut der neue Ford ist.

Gast
2009-11-19, 19:46:39
Sorry
Aber was Probleme bei irgend einer ATI Karte betrifft verlasse ich mich mit Sicherheit auf keine Seite die nvnews heißt.
Das wäre genauso Blödsinn wie sich bei VW zu erkundigen wie gut der neue Ford ist.

Das ist ein Forum so wie dieses hier auch ich frage mich was du damit aussagen willst? Wirst du von A/A bezahlt um Probleme zu zerreden? Siehst du...Fanboys glaub ich auch nicht ;)

Raff
2009-11-19, 19:54:21
In Spielen kann man ja sonst auch kein SSAA anwählen, oder?

Außerdem spräche imo zumindest rein technisch nix dagegen, dass CF-SGSSAA dort funktioniert wo auch normales SGSSAA funktioniert.

Darum, was in Wunschträumen funktioniert, geht's aber nicht. ;) Es wird (leider noch) nicht so verfahren.

MfG,
Raff

Black-Scorpion
2009-11-19, 19:54:41
Das ist ein Forum so wie dieses hier auch ich frage mich was du damit aussagen willst? Wirst du von A/A bezahlt um Probleme zu zerreden? Siehst du...Fanboys glaub ich auch nicht ;)
Deine Unterstellungen kannst du dir sparen.
Und eine Seite die sich nvnews nennt ist ganz sicher nicht mit 3DC zu vergleichen.
Das gleiche gilt übrigens auch bei Problemen mit nVidia Karten wenn sie bei ati-forum besprochen werden.

Gast
2009-11-19, 20:21:41
Wayne interessiert Vantage?

sry, bei Techpowerup hab ich halt nur den vergleich gehabt was anderes wurde da ja nicht gebencht (von den Screens her).

Mr. Lolman
2009-11-19, 20:29:33
Darum, was in Wunschträumen funktioniert, geht's aber nicht. ;) Es wird (leider noch) nicht so verfahren.

MfG,
Raff

Gut muss man wohl vorerst akzeptieren. Nur gings mir eben darum festzustellen, dass es rein technisch keinen Grund dafür gibt, dass es nicht geht. Das hat nix mit Wunschträumen (:rolleyes: - muss das sein?) zu tun, sondern basiert auf logischen Überlegungen. Daraus folgernd lässt sich nämlich ebenfalls feststellen, dass keine spezifischen Spieleanpassungen erforderlich sein sollten, damit es funktioniert -> was wiederum bedeutet, dass eine gute Chance besteht, dass künftige Treiber das Problem insofern aus der Welt schaffen könnten, dass plötzlich überall CF-AA klappt. Alles klar?

Schlammsau
2009-11-19, 21:14:59
Alles in allem ist die Karte absolut sinnlos.
Wer an der Karte, mal abgesehen von den allgemeinen MGPU problemen, irgendwas gutes findet, hat nicht mehr alle Tassen im Schrank.

Raff
2009-11-19, 21:42:47
Gut muss man wohl vorerst akzeptieren. Nur gings mir eben darum festzustellen, dass es rein technisch keinen Grund dafür gibt, dass es nicht geht. Das hat nix mit Wunschträumen (:rolleyes: - muss das sein?) zu tun, sondern basiert auf logischen Überlegungen. Daraus folgernd lässt sich nämlich ebenfalls feststellen, dass keine spezifischen Spieleanpassungen erforderlich sein sollten, damit es funktioniert -> was wiederum bedeutet, dass eine gute Chance besteht, dass künftige Treiber das Problem insofern aus der Welt schaffen könnten, dass plötzlich überall CF-AA klappt. Alles klar?

Sorry, Lolli. Aber ich reagiere seit einigen Monaten jobbedingt allergisch auf "Optimismus" einige bestimmte Hersteller und Features betreffend. Eventuell könnte man ja mal Terry Makedon o. ä. darauf ansetzen. Wobei da eher nichts sinnvolles zurückkommt ...

Alles in allem ist die Karte absolut sinnlos.
Wer an der Karte, mal abgesehen von den allgemeinen MGPU problemen, irgendwas gutes findet, hat nicht mehr alle Tassen im Schrank.

Wäre das nun Sapphire gewesen, die eine 5850 X2 im eigenen Design angekündigt hätten, wärst du gewiss positiver eingestellt. ;)

MfG,
Raff

Schlammsau
2009-11-19, 21:45:37
Wäre das nun Sapphire gewesen, die eine 5850 X2 im eigenen Design angekündigt hätten, wärst du gewiss positiver eingestellt. ;)

MfG,
Raff

Nö, wenn zB Sapphire jetzt noch eine 4890X2 mit 2x2048MB vorstellen würde, würde ich genauso "schimpfen" und an deren Verstand zweifeln! Da hast du mein Wort drauf! ;)

Edit: Warum 5850 X2? Damit hätte ich kein Problem, warum auch......DX11 und alle anderen "Vorzüge".

Raff
2009-11-19, 21:46:20
Hrhr, schade, dass wir das wohl nicht mehr erfahren. :biggrin:

MfG,
Raff

Schlammsau
2009-11-19, 21:48:10
Hrhr, schade, dass wir das wohl nicht mehr erfahren. :biggrin:

MfG,
Raff

:cool:

Tu mal was sinnvolles und erklär uns mal das. :smile:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7670999#post7670999
Bug im Bench?

Gast
2009-11-19, 21:54:15
Treiberbug der erste im Jahre 2009 auf Nvidia Karten ;)

derguru
2009-11-19, 21:56:44
Treiberbug der erste im Jahre 2009 auf Nvidia Karten ;)
normal,ist ja kein "The Way It's Meant To Be Played" game.:wink:

Gast
2009-11-19, 21:58:04
normal,ist ja kein The Way It's Meant To Be Played game.:wink:

Echt? Na dann ist Ati schuld, die bremsen Nvidia absichtlich aus.

derguru
2009-11-19, 21:58:49
Echt? Na dann ist Ati schuld, die bremsen Nvidia absichtlich aus.
so schauts aus,mal von der anderen seite zur abwechslung.:rolleyes:

Daredevil
2009-11-19, 21:59:29
Jetz wird wegen Mirrors Edge und PhysX zurückgeschlagen mit DX10.1 und DX11 X-D

Gast
2009-11-19, 21:59:43
so schauts aus,mal von der anderen seite zur abwechslung.:rolleyes:

Eben drum. :) Ist ja in letzter Zeit in Mode gekommen

Gast
2009-11-19, 22:00:50
Echt? Na dann ist Ati schuld, die bremsen Nvidia absichtlich aus.

klar auf jedenfall :rolleyes:

Gast
2009-11-19, 22:47:56
Ich find's schon witzig.

Ati hat etwa ein halbes Jahr Technologie- (DX11) und Leistungsvorsprung vor Nvidia. Trotzdem werden hier von gewissen Leuten (Raff z.B.) irgendwelche 28xGTX285-MultiGPU Karten als besser als 5870 oder 5890 hingestellt, weil's eben Nvidia ist.

Die Situation war damals bei 3dfx vs. nvidia nicht viel anders. 3dfx war ein halbes Jahr zu spät mit Voodoo5500 gegen die Geforce1. Obwohl die Voodoo SSAA hatte und damit jegliche Spiele verschönern konnte, wurden GF1+2 gepusht, weil die ja das ach so tolle T&L hatten. das war dann das Ende von 3dfx.

Letztendlich ein Marketingkrieg, den nvidia klar für sich entscheiden konnte. Offensichtlich hat man das so beibehalten. Obwohl man im Moment gegenüber ati klar im Hintertreffen ist, wird an der Marketingfront (PhysX! CUDA! Wie viele Spiele unterstützen das eigentlich? 2? 3? 5?) weiter gedröhnt. Jetzt bleibt nur noch abzuwarten, was PCGH schreibt, wenn Fermi die Tradition der GTX280 fortführt und ein riesiger, heißer, ineffizienter Chip wird. Dann gibt bestimmt auch wieder CUDA den Ausschlag gegen die 5800er Reihe...??

derguru
2009-11-19, 22:53:58
Die Situation war damals bei 3dfx vs. nvidia nicht viel anders. 3dfx war ein halbes Jahr zu spät mit Voodoo5500 gegen die Geforce1. Obwohl die Voodoo SSAA hatte und damit jegliche Spiele verschönern konnte, wurden GF1+2 gepusht, weil die ja das ach so tolle T&L hatten. das war dann das Ende von 3dfx.

die voodoo 5500 war absolute grütze und mit fehlendem t&l auch zu lahm.

was will man zu der zeit mit sgsaa wenn die schon ohne zu lahm war,einzige pluspunkt waren glide support.

kann mich noch gut erinnern wie ein kumpel immer neidisch rüber schielte wo dann die ersten t&l games raus kamen wie heavy Metal: F.A.K.K.²,quake 3,vampire masquerade wo dann die voddoo keine schnitte mehr hatte.

Daredevil
2009-11-19, 22:55:50
Wo wird sie denn bitte hier besser hingestellt?
Sie wird nur nicht als kompletter nonsense hingestellt, mehr nicht.
2xGTX285@2GB sind nunmal nicht deutlich langsamer als eine HD5970, das ist Fakt und kein Wunschdenken.

Beispiel Computerbase:

Rating - 1680x1050 4xAA/16xAF
Nvidia GeForce GTX 285 100%
ATi Radeon HD 5970 : 165%

Je nach Skalierung und Einstellung kann das ganz schön fetzen, ist halt nur die Frage was so ne Galaxy 2xGTX285 kosten soll :usad:
Und wenn das Spiel weniger Mikroruckelt dann nimmt man auch mal 10-20% weniger Leistung in kauf... ;)

LovesuckZ
2009-11-19, 22:56:12
Jetzt bleibt nur noch abzuwarten, was PCGH schreibt, wenn Fermi die Tradition der GTX280 fortführt und ein riesiger, heißer, ineffizienter Chip wird. Dann gibt bestimmt auch wieder CUDA den Ausschlag gegen die 5800er Reihe...??

Hoffentlich - dank nVidia gabs wenigsten Top-Bildqualität die letzten drei Jahre. Aber sowas wird dann auch einfach verdrängt - bis AMD kommt. :lol:

derguru
2009-11-19, 23:06:45
@Daredevil

ja super gesamtrating ausgepickt mit 1680x1050 4xAA/16xAF.:up:

Daredevil
2009-11-19, 23:19:08
Was genau möchtest du mir damit nun mitteilen?
Ist das Gesamtrating böse?

Performancerating - 1920x1200
HD5970 73% schneller

Performancerating - 2560x1600
HD5970 87% schneller

Rating - 1680x1050 8xAA/16xA
HD5970 100% schneller

Rating - 1920x1200 4xAA/16xAF
HD5970 76% schneller

Rating - 1920x1200 8xAA/16xAF
HD5970 114% schneller

Rating - 2560x1600 4xAA/16xAF
HD5970 74% schneller

Allesammt nicht wirklich große Unterschiede.
Die Frage ist nun, wie gut skaliert SLI?

Ah... hier hab ich was gefunden:
http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test

Hab ich mir extra rausgepickt. :D
HD5970 vs. GTX285 SLI ( 1GB )

derguru
2009-11-19, 23:36:10
das du ein miserabeler hardware berater bist wenn du die 285gtx² nicht als nonsens betitelst und dann so ne furzauflösung uns darstellst.

1.heiß wie sau
2.stromverbrauch
3.kein dx11
4.lauter wahrscheinlich
5.kostet wahrscheinlich mehr vorallem bis die dann raus ist.
6.mit sicherheit weniger oc potenzial
7.langsamer
8.ssaa nur über zusätzlichen tool

das gilt auch für die singlegpu variante 285gtx vs.5850

Daredevil
2009-11-20, 00:01:28
Unglaublich wichtige Punkte für Enthusiasten Hardware.
Einzig und allein DX11, das OC Potential und die Geschwindigkeit ist wichtig und weißt du was noch wichtig ist? Weniger µRuckler, wie ich schon sagte, da würden viele auch gerne 10-20% Leistung aufgeben für damit es nicht Mikroruckelt. FPS sind halt nicht alles.
Das ist ne MultiGPU Enthusiasten Karte und kein AldiPC Kindergeburtstags Lösung.

Das sie zuspät kommt und nicht mehr "Up2Date" ist... Ok! Trotzdem kann die HD5970 es nur gerade mit der Dual GTX285 aufnehmen.

derguru
2009-11-20, 00:52:48
ein enthusiast kauft sich diese karte erst recht nicht und seit wann sind stromverbrauch ect. unwichtig?
das cf mehr mikroruckler als sli hat ist gefühlter bullshit,jedenfalls bis 2 gpus.
es gibt zurzeit nur ein manko und das ist der treiber.

pcgh hat ja auch eine super tolle spielauswahl, so cpu limitierter quark wie gta4 und cod gleich 2 mal oder wow mit der 5 jahre alten grafikengine.

was meinst du wie die karten abgeschnitten hätten wenn z.b. diese spiele dort im parcour wären wie stalker,risen,shattered horizon,battleforge und das sind ja jetzt nicht mal alte dinger.
naja wie auch immer:rolleyes:

Daredevil
2009-11-20, 01:04:30
PCGH hat getestet, Nvidia hat mehr Mikrorucklet > Fakt.
Ein Enthusiast kauft nach Leistung ( In Form von FPS und Bildqualität ) und nicht nach Verbrauch.
Soll ich dir sagen was passiert wäre wenn andere Spiele drin gewesen wären?
Performancerating - 1920x1200
HD5970 73% schneller als eine einzelne GTX285

Achja übrigens, die GTX285 Werte bei Computerbase sind mit dem Nvidia Treiber 185.85 vom Maigemacht worden, also rechne ruhig noch ein paar Prozente drauf.

derguru
2009-11-20, 01:13:35
Ein Enthusiast kauft nach Leistung ( In Form von FPS und Bildqualität ) und nicht nach Verbrauch.
richtig so wäre für die 285gx eh kein interesse vorhanden.
zur info mit den aufgezählten spielen ist schon eine 5870 ca. 60% schneller.(1920*1200 4AA/16AF)

werden ja demnächst sehen wie neuere spiele sich verhalten werden wie dirt 2,alien vs. predator und mit neuer engine eventuelle auch serious sam hd.:wink:

Gast
2009-11-20, 01:23:18
NVidia war schon mal im Arsch. FX5xxx. Schon vergessen? FX5800? Danach war Ati im hintertreffen. Nu is NV wieder hinten dran. Was jetzt wohl kommt?

*gähn*

N0Thing
2009-11-20, 02:23:49
Achja übrigens, die GTX285 Werte bei Computerbase sind mit dem Nvidia Treiber 185.85 vom Maigemacht worden, also rechne ruhig noch ein paar Prozente drauf.

Wieviele denn? 0,1% mehr, oder doch eher weniger?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_nvidia_geforce_19539/10/#abschnitt_performancerating

Daredevil
2009-11-20, 03:45:55
Ist heute in Mode gekommen zu wiedersprechen, oder?
Reden wir hier von Single oder MultiGPU? Ach da war ja was. :eek:

Treiberperformance?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7343945&postcount=71

Gerade beim Problembehafteten MultiGPU ändert sich immer irgendwie etwas, deswegen sind gerade da aktuelle Treiber wichtig.
Genau deshalb ist PCGH in der Hinsicht auch super, die testen nicht mit alten Schinken.

Gute Nacht :wave2:

DrFreaK666
2009-11-20, 06:13:09
Wundert mich schon, dass PCGH keine Battleforge-Werte liefert.
Daher mal ein Auszug aus Computerbase.
Da muss SLI aber schon perfekt skalieren um an diese Werte zu kommen ;D
Und das wird in Zukunft mir weiteren DX10.1/DX11-Titeln nicht anders ausehen...

http://www.abload.de/thumb/battleforgeo9fz.jpg (http://www.abload.de/image.php?img=battleforgeo9fz.jpg)

Jetzt kommt bestimmt gleich das Killerargument (8XMSAA benutzt man eh nicht) ;D

Gast
2009-11-20, 06:24:51
Was genau möchtest du mir damit nun mitteilen?
Ist das Gesamtrating böse?
*blubber*

Erstmal hast du oben natürlich den schwächsten Wert mit nur 65% plus gebracht. CPU Limitierung lässt grüssen. Das wird dann auch bestätigt, dass der Vorsprung je extremer das Setting wird, zusehends steigt.
Dann kommt noch hinzu, dass du die R5970 wenn schon mit einer GTX295 vergleichen solltest oder aber 2x R5870@CF gegen 2x GTX285@SLI, dann sieht die Sache nämlich nochmal anders aus. Eine GTX295 ist kaum mehr denn 50% schneller als eine GTX285, umgekehrt wären 2x R5870@CF wiederum 10 - 15% schneller als eine R5970.

Achja, dein PCGH Link ist ja ganz brauchbar, hat auch die GTX295 drin, welche oh Wunder dann eben doch ziemlich abgeschlagen steht. Also bitte entweder Einzelkarte gegen Einzelkarte oder SLI gegen CF....

Mr. Lolman
2009-11-20, 08:35:32
die voodoo 5500 war absolute grütze und mit fehlendem t&l auch zu lahm.

[...]
Heavy Metal: F.A.K.K.²,quake 3,vampire masquerade wo dann die voddoo keine schnitte mehr hatte.

So ein Stuss: http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2

Siehe auch meine Sig.

Dimon
2009-11-20, 08:51:51
Wundert mich schon, dass PCGH keine Battleforge-Werte liefert.
Daher mal ein Auszug aus Computerbase.
Da muss SLI aber schon perfekt skalieren um an diese Werte zu kommen ;D
Und das wird in Zukunft mir weiteren DX10.1/DX11-Titeln nicht anders ausehen...

[/URL][URL]http://www.abload.de/thumb/battleforgeo9fz.jpg (http://www.abload.de/image.php?img=battleforgeo9fz.jpg)

Jetzt kommt bestimmt gleich das Killerargument (8XMSAA benutzt man eh nicht) ;D

Dieses Spiel Skaliert auf ATI Karten besser, oder wie erklärst du dir, das die HD 4890 schneller wie die GTX285 ist?

Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet)

Ja die Nvidia Karten verlieren sehr viel an Boden wenn 8xFSAA zugeschltet wird, trotzdem ist eine GTX285 schneller wie eine HD4890....

_DrillSarge]I[
2009-11-20, 08:52:52
Das sie zuspät kommt und nicht mehr "Up2Date" ist... Ok! Trotzdem kann die HD5970 es nur gerade mit der Dual GTX285 aufnehmen.
in sinnlos-settings vielleicht. schau dir mal >1900x1200/4xAA an. darunter braucht man mit mgpu-highend (egal ob nv/ati) gar nicht benchen. (in solchen settings auch mal die single-karten vergleichen ;))
€: zugegeben, die cf-skalierung ist manchmal mehr als beschissen. doch dort wo es drauf ankommt funktioniert es meistens brauchbar. zudem reicht ne 5870 meist locker.

Raff
2009-11-20, 08:59:22
So ein Stuss: http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2

Siehe auch meine Sig.

Ich finde diese Werte viel besser: http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2-forts ;)

... aber manche werden's auch 9 Jahre später, mit dem nötigen Abstand, nicht lernen.

MfG,
Raff

Gast
2009-11-20, 10:06:53
So ein Stuss: http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2

Siehe auch meine Sig.

Die 5500 sieht dort jedenfalls kein Land gegen die Geforce2 GTS. Die 6000er ist nie rausgekommen, daher sind solche Vergleiche sinnfrei.

derguru
2009-11-20, 11:42:41
So ein Stuss: http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-heavy-metal-fakk2

Siehe auch meine Sig.
Die 5500 sieht dort jedenfalls kein Land gegen die Geforce2 GTS. Die 6000er ist nie rausgekommen, daher sind solche Vergleiche sinnfrei.

erstmal das und 2. ist der eigentliche gegenpart sogar die ultra gewesen und dann sieht es erst richtig düster aus.
aber danke für die links,das mich nur bestätigt.;D

blinder gehts gar nicht. :lol:

apropo das mit den spielen war nur ein beispiel,bei manch anderen sieht es noch düsterer aus.

Mr. Lolman
2009-11-20, 11:48:05
Die 5500 sieht dort jedenfalls kein Land gegen die Geforce2 GTS. Die 6000er ist nie rausgekommen, daher sind solche Vergleiche sinnfrei.

Bei relativ sinnfreien Settings nicht (-> 1024x768x16/noAA auf nem damals üblichen 1GHz Rechner um sage und schreibe 19% langsamer -> was in unspielbar langsamen 73.3fps avg resultiert, anstatt in übergenial flotten 90.6fps :eek: ) Mit 32bit oder 4xAA (bei besserer BQ) hingegen ist sie sehr wohl auf Augenhöhe. Ich habs auf meiner Voodoo5 5500PCI damals mit 1152x864x22 und 2xSGSSAA durchgespielt. NFS5 zB lief bei mir mit 960x720 und 4xSGSSAA.

Bei den 16bit-Benchmarks ist außerdem noch anzumerken, dass bei den Voodoos der 22bit Postfilter aktiv war, der auch ein paar % gekostet hat.


erstmal das und 2. ist der eigentliche gegenpart sogar die ultra gewesen und dann sieht es erst richtig düster aus.

Die Ultra hat in Ö damals >700€ gekostet. Die Voodoo5 hingegen <300€.


aber danke für die links,das mich nur bestätigt.;D

blinder gehts gar nicht. :lol:

Schön, dass du merkst, dass du anscheinend unter sehr selektiver Wahrnehmung leidest. Oder meintest du etwa garnicht dich? ;)

derguru
2009-11-20, 11:53:35
Die Ultra hat in Ö damals >700€ gekostet. Die Voodoo5 hingegen <300€
haha der war gut,die voodoo 5500 hatte hier um die 650 gekostet aber macht ja nichts,das weiß ich noch weil ich dabei war als mein kumpel die gekauft hatte.

rofl unter 300? wann 1 jahr später oder was?

Mr. Lolman
2009-11-20, 11:54:40
haha der war gut,die voodoo 5500 hatte hier um die 650 gekostet aber macht ja nichts.

rofl unter 300? wann 1 jahr später oder was?

Ist leider vom Dez.2000, aber trotzdem: http://web.archive.org/web/20001202043200/www.geizhals.at/?o=7&cat=gra

günstigste Voodoo5 5500: 3395,- => <250€
günstigste GF2 Ultra: 8385,- => ~610€

Es war sogar so, dass die Voodoo5 tendenziell sogar günstiger war, als die GTS...




Vom Birg gibts auf archive.org afaik noch ne ältere. Moment...
EDIT: Gibts zwar, aber da waren noch keine Ultras gelistet. Hier die erste, die ich finden konnte wos auch GF2-Ultra Karten gab: http://web.archive.org/web/20010108023200/www.birg.at/Neue-Preislisten/kw41/Inet-Grafikkarten.htm#a1

derguru
2009-11-20, 12:14:26
Es war sogar so, dass die Voodoo5 tendenziell sogar günstiger war, als die GTS...

später ja,berechtigterweise.

ok ich hab mit grütze vielleicht übertrieben(hab ich anscheinend die voodoo fanatiker aufgebracht:tongue: ) aber damit war gemeint das sie keine chance hatte,meine ati radeon 64mb die ich zu der zeit hatte war meiner meinung nach besser vorallem deshalb da sie bei 32bit kaum performance nachteile hatte.

http://alt.3dcenter.org/artikel/radeon64ddr/fakk2.php
http://alt.3dcenter.org/artikel/radeon64ddr/q3a.php

Raff
2009-11-20, 12:31:14
So kann man's auch formulieren – die Radeon war unter 16 Bit einfach zu langsam. 32 Bit brauchte daher, auch, weil das 16-Bit-Dithering äußerst gruselig aussieht. Übrigens: Wir sind mit latenter Dezenz offtopic. ;)

MfG,
Raff

Mr. Lolman
2009-11-20, 12:35:48
später ja,berechtigterweise.

Nö. Auch anfangs (wos noch garkeine Ultras gab): http://web.archive.org/web/20000623163903/www.birg.at/Neue-Preislisten/kw41/Inet-Grafikkarten.htm#a1


ok ich hab mit grütze vielleicht übertrieben aber damit war gemeint das sie keine chance hatte,meine ati radeon 64mb die ich zu der zeit hatte war meiner meinung nach besser vorallem deshalb da sie bei 32bit kaum performance nachteile hatte.

Ich hab von ner Voodoo5 5500 PCI auf ne Radeon 8500 gewechselt. Bei spielen wir Serious Sam konnte ich mich entweder für höhere Performance bei schlechterer Grafik, oder für bessere Grafik, bei gleichzeitig schwächerer Performance entscheiden. Serious Sam spielte ich auf der Voodoo5 mit 1024x768x22 und 2xSGSSAA, auf der 8500 sahs mit 1024x768x16 und 2xOGSSAA deutlich schlechter aus -> bei jedoch höherer Performance siehe auch hier: http://www.3dcenter.org/artikel/3dfx-voodoo5-6000-review/benchmarks-serious-sam-second-encounter

32bit kostete fast nichts, aber die Kantenglättung war immernoch schlechter. Erst mit 1024x768x32 und 4xOGSSAA was das Bild auf der 8500 durchgehend besser, dafür war die Performance niedriger. Ausgehend von dem Apsekt braucht man folgende Settings damit die 'bessere Grafikkarte' nicht nur bessere Performance, sondern auch bessere (oder zumindest nicht schlechtere!!) Grafik brachte (fps am Bespiel von Serious Sam:SE):

Voodoo5 5500 PCI, 1024x768x22/2xSGSSAA²: ~32fps
GF3 Ti200, 1024x768x32/4xS³: ~30.5ps
Radeon 8500, 1024x768x32/4xOGSSAA²: 17.7fps



² Polygone und Alphatests bekommen ein 2x2EER
³ Polygone bekommen ein 4x2EER, Alphatests ein 2x1EER

=> sooo schlecht wie du die Voodoo machst, war sie wirklich nicht. => v.a. wenn man mit SGSSAA gespielt hat => und für 2xSGSSAA hat die Performance eigentlich immer gereicht.



http://alt.3dcenter.org/artikel/radeon64ddr/fakk2.php
http://alt.3dcenter.org/artikel/radeon64ddr/q3a.php

Die Benchmarks sind auch korrekt, jedoch war der Celeron schon damals recht grützig und zusätzliche zogen Voodookarten zT große Vorteile aus 3DNow! Optimierungen. Ein Celeron mit ner Voodoo5 zu kombinieren, ist so ziemlich das Übelste, was man damals anstellen konnte. Ich selbst war ordentlich erstaunt, was für brachliegendes Potential ich in meiner Voodoo5 geweckt hatte, als ich von einen PII/333@416 auf einen XP1500+ gewechselt bin und hab mich dann auch ziemlich geärgert, dass ich dem Schätzchen nicht schon früher einen ordentlichen Unterbau spendiert hatte...

Übrigens: Wir sind mit latenter Dezenz offtopic. ;)

MfG,
Raff

Hm. Stimmt. :|

Spasstiger
2009-11-20, 13:09:04
Keine Voodoo-Karte, die offiziell auf dem Markt war, knackte jemals die 1000-DM-Grenze, oder? Diese Mondpreise gabs doch erst, als Nvidia zeitweise ein Monopol bei 3D-Grafikkarten hatte.

derguru
2009-11-20, 13:14:25
=> sooo schlecht wie du die Voodoo machst, war sie wirklich nicht. => v.a. wenn man mit SGSSAA gespielt hat => und für 2xSGSSAA hat die Performance eigentlich immer gereicht.

sooo schlecht mache ich die nicht, nur war sie trotzdem fast durchgängig langsamer und von einer voodoo hat man bissel mehr erwartet als hinterher zu hecheln.
Keine Voodoo-Karte, die offiziell auf dem Markt war, knackte jemals die 1000-DM-Grenze, oder? Diese Mondpreise gabs doch erst, als Nvidia zeitweise ein Monopol bei 3D-Grafikkarten hatte.
650-700DM war in etwa der Launchpreis für eine 5500.

DrFreaK666
2009-11-20, 13:37:08
Dieses Spiel Skaliert auf ATI Karten besser, oder wie erklärst du dir, das die HD 4890 schneller wie die GTX285 ist?

Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet)

Ja die Nvidia Karten verlieren sehr viel an Boden wenn 8xFSAA zugeschltet wird, trotzdem ist eine GTX285 schneller wie eine HD4890....

Ich habe dieses Spiel gewählt um meine Aussage zu unterstreichen.
Und das wird in Zukunft mir weiteren DX10.1/DX11-Titeln nicht anders ausehen...

Battleforge nutzt Dx10.1 um die Performance zu verbessern (wie andere DX10.1-Tital auch). Daher ist die 4890 schneller als eine GTX285.
Also: Die 5970 unterstützt DX11 (und damit automatisch auch DX10.1) und dürfte bei diesen Titeln viel schneller sein als eine GTX285.
Da kann SLI noch so gut skalieren wie es will.

Gast
2009-11-20, 14:33:43
launchpreis war in der schweiz ca. 400fr was damals ca. 650dm entsprach. umrechnungskurse mal wild geschätzt.

noch n zitat für lovesuckz:

http://german-bash.org/84536

Dimon
2009-11-20, 14:35:47
Ich habe dieses Spiel gewählt um meine Aussage zu unterstreichen.


Battleforge nutzt Dx10.1 um die Performance zu verbessern (wie andere DX10.1-Tital auch). Daher ist die 4890 schneller als eine GTX285.
Also: Die 5970 unterstützt DX11 (und damit automatisch auch DX10.1) und dürfte bei diesen Titeln viel schneller sein als eine GTX285.
Da kann SLI noch so gut skalieren wie es will.

Das stimmt allerdings, DX10.1 bringt einiges an Performance vorteilen, die frage stellt sich halt inwieweit diese vorteile bringen werden, wird Nvidia mit besseren treibern nacvhziehen können? Oder muss Nvidia neue Grakas mit DX11 launchen damit diese wieder konkurrenzfähig sind?

_DrillSarge]I[
2009-11-20, 14:37:58
Oder muss Nvidia neue Grakas mit DX11 launchen damit diese wieder konkurrenzfähig sind?
ja, nennt sich fermi (oder gt300 sonstwas):freak:
gibt ja 10.1 karten von nv, diese spielen aber eher in der unteren leistungsklasse.

edit: wobei man solche performancevorteile nicht alleinig an dx-techleveln festmachen sollte ;)

Gast
2009-11-20, 15:46:15
650-700DM war in etwa der Launchpreis für eine 5500.

Jup 599 DM damals hab ich damals bezahlt für die V5500

Gast
2009-11-20, 16:00:45
Jup 599 DM damals hab ich damals bezahlt für die V5500
gabs damals auch schon µ ruckler ?

Gast
2009-11-20, 16:08:39
Hoffentlich - dank nVidia gabs wenigsten Top-Bildqualität die letzten drei Jahre. Aber sowas wird dann auch einfach verdrängt - bis AMD kommt. :lol:


Dank 3Dfx hätten wir das Jahre früher haben können ;-)
Danke Nvidia ! Danke Danke Danke
Blinded by the Light !

Gast
2009-11-20, 16:16:52
Das stimmt allerdings, DX10.1 bringt einiges an Performance vorteilen, die frage stellt sich halt inwieweit diese vorteile bringen werden, wird Nvidia mit besseren treibern nacvhziehen können? Oder muss Nvidia neue Grakas mit DX11 launchen damit diese wieder konkurrenzfähig sind?
Neue Treiber - Unsinn !
Patchen von 11 auf 9.0c !!

Gelegentlich ein hübscher "Patch" , ala Ubisoft und "Assasins Creed" und
die Welt wird wieder in Ordnung sein

Gast
2009-11-20, 16:18:09
gabs damals auch schon µ ruckler ?
Nein

Gast
2009-11-20, 16:37:58
Nein

Weil es niemand je überprüft hat. ;)

Raff
2009-11-20, 17:42:33
Weil es technisch bedingt kein Mikrurockeln geben kann. Rechnen beide GPUs zeilenweise am gleichen Bild (3dfx-SLI), wird das natürlich "gleichzeitig" fertig – nämlich nur einmal, wenn beide ihre Arbeit getan haben. So entsteht gar nicht das Problem, dass einzelne Bilder (fast) gleichzeitig fertiggestellt sind, gefolgt von einer Pause, etc. Selbst die V5 6000 liefert astrein verteilte Fps. Ich hab' das sogar mal mitgefrapst, finde den Thread aber gerade nicht.

MfG,
Raff

LovesuckZ
2009-11-20, 18:30:54
Dank 3Dfx hätten wir das Jahre früher haben können ;-)
Danke Nvidia ! Danke Danke Danke
Blinded by the Light !

Jo, 3DFX gab es und nahm es wieder. Bedank dich bei denen, dass sie unfähig waren zu überleben.

Gast
2009-11-20, 18:55:17
Jo, 3DFX gab es und nahm es wieder. Bedank dich bei denen, dass sie unfähig waren zu überleben.

so klingt ein "wahrer" Fan. Boy im so impressed

LovesuckZ
2009-11-20, 19:51:10
so klingt ein "wahrer" Fan. Boy im so impressed

Ha, jetzt bin ich also schuld, dass sich 3DFX selbst zugrunde gewirtschaftet hat. :freak:
Ohman, ihr Gäste seid sowas von knuffig.

Gast
2009-11-20, 19:53:47
Neue Treiber - Unsinn !
Patchen von 11 auf 9.0c !!

Gelegentlich ein hübscher "Patch" , ala Ubisoft und "Assasins Creed" und
die Welt wird wieder in Ordnung sein
Was willst du uns mitteilen?

Gast
2009-11-21, 10:32:14
Weil es technisch bedingt kein Mikrurockeln geben kann. Rechnen beide GPUs zeilenweise am gleichen Bild (3dfx-SLI), wird das natürlich "gleichzeitig" fertig – nämlich nur einmal, wenn beide ihre Arbeit getan haben. So entsteht gar nicht das Problem, dass einzelne Bilder (fast) gleichzeitig fertiggestellt sind, gefolgt von einer Pause, etc.

Das kannst du bei NV-SLI noch heute haben: SFR. Ati konnte das früher auch mal, hat aber IIRC alles außer balkenverlängerndem AFR rausgekegelt.

Gast
2009-11-21, 14:38:51
Das kann man bei Crossfire heute noch ich zocke Crysis in DX10+ mister MOD@Enthusiast 1920x1200 SSAA+AF HQ AF in SFR dauerhaft flüssig ;)

(3xHD5850)

http://img186.imageshack.us/img186/3862/unbenanntnij.jpg (http://img186.imageshack.us/i/unbenanntnij.jpg/)

derguru
2009-11-21, 15:03:19
naja,unter dx10 ist ssaa eh nicht machtbar und tool zeigt die verschiedenen methoden an aber funktioniert hat es bei mir damals nie.

aber ich würde mich gerne vom gegenteil überzeugen.:biggrin:

Gast
2009-11-21, 15:21:46
ok syr SSAA war ja in DX9 :P

Trotzdem in DX10 msier MOD alles auf very High 4xAA 16xAF dauerhaft flüssig, SFR funzt einwandfrei ist zwar flüssig aber spielt sich komsisch AFr ist auch kein Ding fall ich nie unter 50 FPS auch wenn mal richtig wummert und sie auf 40 FPS fallen müsste ich bei 3 Karten und 40 FPS deutlich MR merken, aber davon ist 0,0 zu spühren.

Gast
2009-11-21, 15:22:22
achja, ver 1.4 funzt einwandfrei 1.3 war noch sehr bugy.

Gast
2009-11-21, 15:48:25
SFR lässt sich in Crysis garnicht forcen.

Nickolas
2009-11-21, 18:18:37
Also... wenn das ATT nicht "lügt" funktioniert SFR generell auf ATI-CF, konkret 9.11-HD4xxx. Crysis zählt allerdings nicht dazu. Dafür zeigen sich zb. Stalker oder auch UT3 nicht abgeneigt.
Liste "funkt/funkt nicht" ließe sich locker erweitern, aber egal.

Und das in ´nem NV thread. Sorry :rolleyes:

Nickolas

Gast
2009-11-24, 00:37:02
EVGA langweilt mit alter Technik und tut's Asus in anderer Weise gleich!

http://www.evga.com/blackfriday/

Alles nur noch Nepp!

Gast
2009-11-24, 00:54:38
*gähn* EVGA

wer will das noch, wenn es die deutlich überlegenen HD5970 oder HD5870 gibt?

san.salvador
2009-11-24, 02:03:10
*gähn* EVGA

wer will das noch, wenn es die deutlich überlegenen HD5970 oder HD5870 gibt?
Manche tun viel, um sich die Treiber von AMD/Ati zu ersparen.

Gast
2009-11-24, 09:19:54
Manche tun viel, um sich die Treiber von AMD/Ati zu ersparen.
Und manche viel um hier im Forum aufzufallen.
Aussagen ohne Beweiskraft gefallen mir immer am besten.

Gast
2009-11-26, 00:07:48
*gähn* EVGA

wer will das noch, wenn es die deutlich überlegenen HD5970 oder HD5870 gibt?
Ich denke auch das es viel sinniger wäre, wenn alle Hersteller absofort die Produktion aller Produkte die nicht 5870 oder 5970 heissen einstellen.

Kleine Karten wie 5850 oder noch kleiner braucht doch niemand.
Die Konkurrenz ist auch so eine Sache. Was fällt es denen einen mitspielen zu wollen, die sollen gefälligsts AMD und den Partnern den Markt überlassen.

:rolleyes:

AnarchX
2009-12-13, 18:19:12
Galaxy mit 2x GTX 285 2GiB auf einem PCB:
http://img46.imageshack.us/img46/4366/001321561.jpg (http://img46.imageshack.us/i/001321561.jpg/)

http://www.pcpop.com/doc/0/475/475732.shtml

Raff
2009-12-13, 18:20:14
Nice. Da bin ich aber mal gespannt, mit welchen Taktraten und vor allem wie stabil das Ding ackert. Die Mars verlangt im Grunde nach strenger Selektion und 1,0 Volt pro GPU ...

MfG,
Raff

tombman
2009-12-13, 19:01:06
Lecker, aber bis die nach Europa kommt, ist Fermi schon da :(
Die hätte man von 1/2 Jahr gebraucht- ich hätte gekauft ;)

Btw: 2x 8pin verstößt doch eigentlich gegen die spec, oder?

Nightspider
2009-12-13, 19:05:39
Gibts bei der Karte von Galaxy nen Unterschied zu ASUS MARS?

Und gibts überhaupt noch genug Chips, als das es sich lohnt jetzt noch sowas auf den Markt zu werfen?

In spätestens einem Monat haben wir ey die ersten Benchmarks zum GT300...dann interessiert sich niemand mehr für so ein altes überteuertes Gespann.

mapel110
2009-12-13, 19:07:20
Unterschied ist die Vram-Menge. 4 GB insgesamt, bei der MARS waren es nur 2 GB.

reunion
2009-12-13, 19:09:20
Btw: 2x 8pin verstößt doch eigentlich gegen die spec, oder?

Ja.

Gibts bei der Karte von Galaxy nen Unterschied zu ASUS MARS?


Ja, die Platine hat keine Überbreite und alles auf einem PCB. Umso interessanter wie man das kühlen will.

Unterschied ist die Vram-Menge. 4 GB insgesamt, bei der MARS waren es nur 2 GB.

Nein.

AnarchX
2009-12-13, 19:09:23
Auch die Mars hatte 2x2GiB, jedoch zwei PCBs.

Nightspider
2009-12-13, 19:12:57
Auch die Mars hatte 2x2GiB, jedoch zwei PCBs.

Ach stimmt...vllt liefert Galaxy die Karte gleich mit einem Wasserkühler aus...die Leute die sich so eine Karte kaufen haben ey meistens eine wakü.

kmf
2009-12-15, 23:12:47
[...] 2x 8pin verstößt doch eigentlich gegen die spec, oder?Möglich? Gibt aber doch passende Adapter. :D

tombman
2009-12-15, 23:49:40
Möglich? Gibt aber doch passende Adapter. :D
Als ob ich das nicht wüßte...

Gast
2009-12-20, 12:37:03
was schaffen den 2x solche in Vantage Extreme ?

StefanV
2009-12-20, 13:42:04
Vermutlich nichts, mit Stock Kühler, da sie wohl abstürzen werden...

Gast
2009-12-20, 16:49:39
Hä? wieso das den ?

y33H@
2009-12-20, 19:00:09
Weil die Mars stock verdammt hitzig sind. Abstürzen tun sie aber nicht, wenn, dann throtteln. Mit 100% und nem Lüfter dazu laufen sie aber.

desert
2009-12-20, 19:03:03
Hä? wieso das den ?

Na weil das nvidia ist und somit nur schrott. Nur ati bringt karten mit richtiger Kühlung raus. Was Stefanv betrifft einfach nichts glauben was nvida,intel und deutsche Autos betrifft.

Er hasst diese 3 Dinge und versucht ihnen immer ans bein zu pissen. Einfach nicht beachten.

StefanV
2009-12-20, 19:23:58
Hä? wieso das den ?
Weil die Kühlung der ASUS Mars (und auch nur dieser Karte) ungenügend ist, hier hat ASUS Mist gebaut.

hier ein Review (http://www.hexus.net/content/item.php?item=19875), Testberichte.de (http://www.testberichte.de/p/asus-tests/mars-gtx-285-testbericht.html).
Wenn du die entsprechende c't hast, schau mal rein, da steht drin, dass einige Benchmarks abgestürtzt sind.

Raff
2009-12-20, 19:31:55
Warum in die Ferne schweifen? Deutscher, umfrangreicher Test: http://www.pcgameshardware.de/aid,693909/Asus-Mars-GTX-295-im-Benchmark-Test/Grafikkarte/Test/

Die werkseitig konfigurierten Karten laufen nicht stabil.

MfG,
Raff

Black-Scorpion
2009-12-20, 19:54:38
Na weil das nvidia ist und somit nur schrott. Nur ati bringt karten mit richtiger Kühlung raus. Was Stefanv betrifft einfach nichts glauben was nvida,intel und deutsche Autos betrifft.

Er hasst diese 3 Dinge und versucht ihnen immer ans bein zu pissen. Einfach nicht beachten.
Weil die Mars auch so super stabil läuft.
Und ja, wer so eine Karte auf den Markt wirft verkauft Schrott.
Und den auch noch total überteuert.

Gast
2009-12-20, 20:08:29
Die werkseitig konfigurierten Karten laufen nicht stabil.

Habe ich was übersehen? In dem Artikel steht was von throtteln, nicht von abstürzen.

Gast
2009-12-20, 20:26:52
was schaffen die beiden den nun in Extreme, Tombman hat ja sicher 2 solche Dinger im SLI :ugly:

Oder 2x 295 GTX machen es auch, schaffen die mehr als X28k ?

Dural
2009-12-20, 20:45:24
die galaxy ist ja der hammer! ein richtiges kunstwerk hehe

ab wann und wo kann man die kaufen???

Gast
2009-12-20, 21:34:00
Könnte man meinen, alles ist wunderschön geordnet.
Aber was sehen meine Augen da? Eine digitale Spannungsversogung? Oje, ob das diesmal funktioniert?

Raff
2009-12-20, 22:51:46
Habe ich was übersehen? In dem Artikel steht was von throtteln, nicht von abstürzen.

Heruntertakten wegen zu großer Hitze (Throttling) ist auch nicht stabil. "Instabil" muss ja kein Freeze sein. Sobald die Karte dauerhaft wirklich gefordert wird (also möglichst kein MSAA- oder Low-Res-Pipifax), taktet sie sich irgendwann herunter. Täte sie das nicht, flöge sie ab.

MfG,
Raff

Gast
2009-12-20, 23:05:46
Ja stimmt, aber einige stellens ja so hin als ob sie abstürzen würde.
Sind sogar die selben die sonst nicht so auf Furmark wert legen.

Man könnte die Leistung der bewerten, die sie im Endeffekt bringt. Wenn sie meint sie muss sich runtertakten, dann ist sie eben nicht mehr xx% besser sondern nur noch yy%.

Dural
2009-12-20, 23:07:42
Könnte man meinen, alles ist wunderschön geordnet.
Aber was sehen meine Augen da? Eine digitale Spannungsversogung? Oje, ob das diesmal funktioniert?

wie so sollte das nicht gut gehen??? alle High-End karten haben eine digitale-stromversorgung!

Bei so einer karte gibt es eh keinen anderen weg, viel zu wenig platz!

san.salvador
2009-12-20, 23:08:12
Ja stimmt, aber einige stellens ja so hin als ob sie abstürzen würde.
Sind sogar die selben die sonst nicht so auf Furmark wert legen.

Man könnte die Leistung der bewerten, die sie im Endeffekt bringt. Wenn sie meint sie muss sich runtertakten, dann ist sie eben nicht mehr xx% besser sondern nur noch yy%.
Erhöht die Daseinsberechtigung der Karte aber auch nicht wirklich. :ugly2:

Dural
2009-12-20, 23:10:28
das teil muss ich haben :freak: die galaxy ist ein richtiges meisterwerk!!!

2x512Bit 2x4Phasen usw. auf einem PCB, ich finde das teil richtig cool!

Gast
2009-12-20, 23:10:56
Selbst wenn sie nur zu den Rekordjägern gelangt, selbst wenn sie in der Virtrine landet hat sie ihre Berechtigung.

Keine Berechtigung hätte sie nur dann, wenn sie direkt nach der Produktion in die Mülltonne kommen würde.

Dural
2009-12-20, 23:15:48
wo kann ich bestellen? :freak: :wink:

=Floi=
2009-12-21, 00:04:13
warum willst ausgerechnet du bestellen, wenn du angeblich einblick hinter das GT300 nda hast und diese karte eh am auslaufen ist.
solche karte hätte man vor 6 monaten bringen müssen.

Dural
2009-12-21, 00:11:42
für die sammlung blöde frage... ;)

sagt wer?

tombman
2009-12-21, 04:35:07
Alles ohne Fermi = alt

Ende der Durchsage ;D

Raff
2009-12-21, 12:49:32
Alles ohne Fermi = alt

Ende der Durchsage ;D

Fermi ist aber noch nicht da (und auch nicht nah).

MfG,
Raff