PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800Ultra: (P)Review-Thread


Seiten : 1 [2]

Gouvernator
2007-05-07, 15:15:44
Richtig gutes Content. Sowas hätte ich mal ganz gerne ohne Schatten und dem ganzen schnick-schnack in aktuellen Spielen.

Coda
2007-05-07, 15:50:37
Dann wart auf Crysis.

AnarchX
2007-05-10, 11:26:28
Hier nochmal eine schöne Benchmarkübersicht GTX vs Ultra, XP vs Vista:
http://img182.imageshack.us/img182/4214/2007051004ff16de992bd14jx1.gif
Quelle (http://chiphell.com/viewthread.php?tid=3879&extra=page%3D1)

dargo
2007-05-10, 12:13:39
Hier nochmal eine schöne Benchmarkübersicht GTX vs Ultra, XP vs Vista:
http://img182.imageshack.us/img182/4214/2007051004ff16de992bd14jx1.gif
Quelle (http://chiphell.com/viewthread.php?tid=3879&extra=page%3D1)
Schöne Tabelle. :)
Bestätigt aber immer noch, dass Vista (bzw. die Grakatreiber) noch nicht reif für Games ist. Teilweise zu viel Leistungsverlust.

Vertigo
2007-05-10, 12:16:30
Die 40% Mehrleistung in FEAR 25*16 MAX sind aber auf einen Rundungsfehler der fps (10:14) zurückzuführen, oder? Ich meine, soviel gibt die Spec ja nicht her ...

AnarchX
2007-05-10, 12:18:29
Die 40% Mehrleistung in FEAR 25*16 MAX sind aber auf einen Rundungsfehler der fps (10:14) zurückzuführen, oder? Ich meine, soviel gibt die Spec ja nicht her ...

Seltsamerweise kommt iXBT auch bei FEAR auf 37% bzw. 50% unter 2560x1600. :|
http://www.ixbt.com/video3/g80-10-d.shtml#p16

Vertigo
2007-05-10, 12:20:45
Seltsamerweise kommt iXBT auch bei FEAR auf 37% bzw. 50% unter 2560x1600. :|
http://www.ixbt.com/video3/g80-10-d.shtml#p16
Naja, die geben nur Prozentwerte an, keine fps. So richtig viel Klarheit verschafft mir das nicht. ;(

AnarchX
2007-05-10, 12:37:27
Der Tester von PCShow.net behauptet (http://we.pcinlife.com/thread-758454-1-1.html), dass die XFX 8800Ultra XXX mit 650/1620/1130MHz 19.999 CNY kosten soll. :eek:
Wer will kann das ja mal umrechnen... ;)

Doch nicht ganz so hoch:
Let us have a look at exactly what XFX are offering us today and see if it’s worth getting or not. After all, that is a very important question, as it does come with an RRP of around $1400 AUD in Australia or around $1000 - $1100 USD in the United States. Yep, and unless you are reading whilst rolling around in your secured money pit right now, you thought the regular 8800 Ultra was excessively expensive at $850 USD.
http://www.tweaktown.com/reviews/1093/xfx_geforce_8800_ultra_xxx_uber_performance_monster_price_tag/index.html

deekey777
2007-05-10, 13:01:31
Oh ja, allerdings. Wenn ich sowas lese:
"Then we used the hit-and-miss method and found out that forced AA did not work in Oblivion on Radeon cards, if... Catalyst A.I was disabled. (should we explain that we always disable Catalyst A.I. during quality tests in order to eliminate texture filtering optimizations and shader replacements?)"

dann frage ich mich, was für einen Sinn Reviews haben - Fps werden bei beschnittener Qualität verglichen, Qualität dann komplett unabhängig davon.


Q
Wenn ich es richtig verstehe, schalten sie AI, wenn sie die Bildqualität testen, nicht wenn es um die FPS geht. Hoffentlich.;(

dargo
2007-05-12, 16:52:28
Kommt die Preissenkung langsam in Fahrt?
http://www.alternate.de//html/product/details.html?artno=JBXKGA&artno=JBXKGA&

Noch gibt es aber nichts Offizielles seitens NV oder?

dildo4u
2007-05-13, 11:05:29
Die PCGH hat jetzt Benches mit Lost Planet im DX9 und DX10 Modus.Der große Verlust unter DX10 ist whol durch die Kombination von AA und den Softshadows zu erklären wie es z.B auch bei Fear der Fall ist.


http://www.directupload.net/images/070513/7rG7zNkz.jpg


http://www.directupload.net/images/070513/l4FiZdqF.jpg


http://www.pcgameshardware.de/?article_id=601203

The_Invisible
2007-05-13, 11:13:47
also auf höchsten details nur mit 8800gtx/ultra SLI spielbar, ich weiß schon warum ich mir ne konsole zugelegt habe ;)

mfg

Gast
2007-05-13, 11:15:18
also auf höchsten details nur mit 8800gtx/ultra SLI spielbar, ich weiß schon warum ich mir ne konsole zugelegt habe ;)
mfg

Um mit weniger Bildqualität zu spielen, gell? :rolleyes:

Undertaker
2007-05-13, 11:16:51
komisch... warum wird die gts unter dx10 langsamer, die ultra schneller? waren das gleiche treiber...?

The_Invisible
2007-05-13, 11:19:50
Um mit weniger Bildqualität zu spielen, gell? :rolleyes:

ja, wenn man im jahr nicht >1000€ alleine für grafikkarten ausgibt sicher

btw
AI default vs HQ? wieder mal sehr fair...

mfg

reunion
2007-05-13, 11:20:39
Um mit weniger Bildqualität zu spielen, gell? :rolleyes:

Lost Planet sieht auf der Xbox fantastisch aus - da könnte sich so machnes PC-Spiel eine Scheibe abschneiden.

btw
AI default vs HQ? wieder mal sehr fair...

mfg

Ja, und noch fairer ist der Vergleich mit der 7900GTX, die weder wu-AF noch AA mit FP16-HDR unterstützt.

Ich bin gespannt, wie sich ein R600 dort schlägt.

Spasstiger
2007-05-13, 11:21:16
Mich würden von Lost Planet @ DX10 noch die fps bei hohen Schattendetails und deaktiviertem AA interessieren.

komisch... warum wird die gts unter dx10 langsamer, die ultra schneller? waren das gleiche treiber...?
Es sind unterschiedliche Renderer. ;)
Vielleicht geht ja der 8800 GTS hier schon der Grafikspeicher aus.

also auf höchsten details nur mit 8800gtx/ultra SLI spielbar, ich weiß schon warum ich mir ne konsole zugelegt habe ;)
Im DX9-Modus und in 1280x720 noAA reicht eine 140€ günstige X1950 Pro 512 MB wohl locker aus.
Mehr bietet die Xbox 360 grafisch auch nicht.

Gast
2007-05-13, 11:23:38
ja, wenn man im jahr nicht >1000€ alleine für grafikkarten ausgibt sicher


Warum 1000€? Eine GTS reicht, um eine bessere Grafikqualität zu erreichen als die Xbox360 Version.
Aber das ist eben das Problem mit unfairen Vergleichen - man kann noch so oft darauf hinweisen, aber es wird immer wieder getan.

dargo
2007-05-13, 13:55:25
also auf höchsten details nur mit 8800gtx/ultra SLI spielbar, ich weiß schon warum ich mir ne konsole zugelegt habe ;)

Und wer garantiert mir, dass hier mal wieder keine beschissene Portierung uns erwartet?
Wenn du schon DX10 beurteilen willst dann warte wenigstens Crysis ab. Denn das ist ein Spiel was von vorne rein auf den PC zugeschnitten ist. Außerdem verwendet die Xbox360 afaik keine Softshadows.

Hier hast du das beste Beispiel wie unfähig die Programmierer sind (und wieder eine Portierung, wen wunderts? :rolleyes:):
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5413898&postcount=742

Vielleicht geht ja der 8800 GTS hier schon der Grafikspeicher aus.

Bei 1280x960 mit 4xMSAA? :|
Niemals! Bedenke, hier werden wieder die tollen Texturen von der Xbox übernommen.

Im DX9-Modus und in 1280x720 noAA reicht eine 140€ günstige X1950 Pro 512 MB wohl locker aus.
Mehr bietet die Xbox 360 grafisch auch nicht.
No AF nicht vergessen. :)

Edit:
Sehe ich es richtig, dass der DX10 Modus nur Softshadows bzw. SS+MSAA ermöglicht im Vergleich zu DX9? Ich lach mich gleich weg. :lol:
Die 10% mehr Performance nutzen keinem was wenn durch SS man in unspielbare Bereiche vordringt.

Hier nochmal die High-End Grafik von Lastplanet. ;D

http://www.pcgameshardware.de/screenshots/original/lostplanet013.jpg
http://www.pcgameshardware.de/screenshots/original/lostplanet021.jpg

Ja, die Autoreifen und die Ultra-High Texturen haben schon was. ;D
Nee, sorry. Aber als DX10 Vorzeigespiel ist das der größte Witz den ich je gesehen habe. Vorallem, wenn man sich die Frames anschaut.

Aber das ist eben das Problem mit unfairen Vergleichen - man kann noch so oft darauf hinweisen, aber es wird immer wieder getan.
Richtig, ich liebe diese Typen. :rolleyes:
Game anschmeißen, alle Regler auf Maximum stellen und dann rumheulen, dass die Games nicht flüßig laufen. Anstatt sich damit zu beschäftigen was da so viel Performance überhaupt frisst. Diese Zielgruppe ist dann halt bei der dausicheren Konsole besser aufgehoben.

deekey777
2007-05-13, 16:20:56
Eine kurze Zwischenfrage: Ich sehe da "A2RGB10" (bei der Auflösung). Das bleibt ja nicht auf D3D10 beschränkt, oder?

Ich glaube irgendwie, dass das Spiel wirklich eine bloße Portierung sein wird: von Xbox360 auf D3D10. Und nebenbei werden ältere Grafikkarten bzw. ältere BS per D3D9 unterstützt.

Edit:
Weniger gut ist die Tatsache, dass eine Radeon X1950 XTX für 1.280x960 samt 4x FSAA und 8:1 AF nur haarscharf ausreicht. Die Min-Fps brechen im Effektgetümmel dank fordernder Schnee-Partikeleffekte oftmals in den unspielbaren Bereich ein; die X1950 Pro erreicht entsprechend kaum spielbare Gefilde. Die Geforce 7900 GTX schlägt sich nur wacker, weil sie nicht in der Lage ist, das FP16-HDR-Rendering mit Multisampling (MSAA) kombiniert auszugeben. Sie berechnet den Benchmark folglich nur mit 8x AF.
Wie jetzt? D3D10-Grafikkarten+Vista kriegen 1010102, D3D9-Grafikkarten und XP-User FP16?

PCGH_Carsten
2007-05-13, 17:22:15
Nein, es gibt einen Detailregler für "HDR". Habe jetzt gerade nicht alles im Kopf, aber High ist FP16, Medium ist A2R10G10B10 - low: keine Ahnung.

Das alles unabhängig von Vista und DX10.

deekey777
2007-05-13, 17:23:27
Ok, Danke. :)

ASrock_User
2007-05-15, 14:40:20
Von Leadtek wird es übrigens auch eine WaKü Version der 8800 Ultra geben. Chiptakt auf 650 Mhz erhöht.

http://www.pc-treiber.net/thread.php?goto=lastpost&threadid=4560&sid=

Gruß
ASrock_USer

reunion
2007-05-15, 17:59:19
Kann es sein, dass bei G80 nicht alle Shader unified sind? Wie mir beim durchblick der R600-Tests aufgefallen ist, scheint die VS-Leistung im Vergleich zu R600 ziemlich mager zu sein. Selbst im vergleich zur alten Generation mit einer Hand voll VS ist ein G80 nur ca. doppelt so schnell. Warum? In synthetischen VS-Tests, bei denen alle Shader als VS arbeiten, müsste die Leistung doch IMHO wesentlich höher sein. Auch gab es ja schon vermehrt Indizien, dass die GS-Leistung auf G80 ebenfalls nicht so prall sein soll. Die PS-Leistung scheint allerdings über jeden Zweifel erhaben zu sein. Auch ist mir aufgefallen, dass einen 8800GTX ggü. einer GTS in punkto VS-Leistung immer nur max. um soviel schneller ist, wie es der Taktsteigerung entspricht, die zusätzlichen ALUs scheinen also keinerlei Auswirkungen zu haben. Mögliche Erklärungen?

Coda
2007-05-15, 18:00:04
Kann es sein, dass bei G80 nicht alle Shader unified sind?
Nein. Ansonsten könntest du mit Pixelshadern oder CUDA ja auch nicht alle ALUs auslasten ;)

Der Treiber kann anscheinend nur dem Chip anzeige wie viel Auslastung ein Thread ungefähr verursachen wird und anscheinend ist das bisher recht fest, d.h. Vertexthreads bekommen generell eine niedrigere Priorität, was bei fast reinem Vertex-Workload natürlich nicht gut ist.

Ich hoffe da tut sich noch was in Zukunft, vor allem die Quadros könnten die Geometrieleistung ja gut gebrauchen.

AnarchX
2007-05-15, 18:01:57
Auch ist mir aufgefallen, dass einen 8800GTX ggü. einer GTS in punkto VS-Leistung immer nur max. um soviel schneller ist, wie es der Taktsteigerung entspricht, die zusätzlichen ALUs scheinen also keinerlei Auswirkungen zu haben.

Das ist auch bei ATi so. ;) (Folie heraussuch...)

DrumDub
2007-05-15, 18:02:11
Mögliche Erklärungen? die treiber bringen es (noch) nicht...

edit: coda war schneller... :)

PCGH_Carsten
2007-05-15, 18:04:17
Das ist auch bei ATi so. ;) (Folie heraussuch...)

Nein:
http://www.pcgameshardware.de/screenshots/original/1179138083263.JPG
Bitte nicht an der Beschriftung stören - es ist der simple VS-Test, nicht der Pixel-Shader-Test.

PCGH_Carsten
2007-05-15, 18:06:06
Mögliche Erklärungen?

Hat der liebe Rys nicht auch auf B3D erklärt, dass es genauso eine Limitierung anderswo im Chip (Tri-Setup bsw. nur 1tri/2clk) sein könnte?

AnarchX
2007-05-15, 18:08:13
Nein:
http://www.pcgameshardware.de/screenshots/original/1179138083263.JPG
Bitte nicht an der Beschriftung stören - es ist der simple VS-Test, nicht der Pixel-Shader-Test.

Und was nützt dieser Vergleich ohne eine andere HD 2000 Karte, ich finde leider gerade die Folie nicht wo alle HD 2000 Karten mit ihrer Triangle Processing Rate angegeben werden.

Aber:

2900XT -> 742 MTri/sec
2600XT -> 800 MTri/sec

Fällt etwas auf?;)

edit:
Hier ist sie:
http://i9.tinypic.com/4y87hag.jpg

RV610 scheint hier wiederrum auch beschränkt zu sein, auf ein 1Tri/2Clock.

reunion
2007-05-15, 18:12:27
Nein. Ansonsten könntest du mit Pixelshadern oder CUDA ja auch nicht alle ALUs auslasten ;)


Naja, ich hatte mir das so vorgestellt, dass bsw. 32 ALUs unified sind, also mit PS/VS/GS umgehen können, und die restlichen ALUs nur mit PS umgehen können. Bei der GTs werden dann eben nur die PS-ALUs deaktiviert.


Der Treiber kann anscheinend nur dem Chip anzeige wie viel Auslastung ein Thread ungefähr verursachen wird und anscheinend ist das bisher recht fest, d.h. Vertexthreads bekommen generell eine niedrigere Priorität, was bei fast reinem Vertex-Workload natürlich nicht gut ist.

Ich hoffe da tut sich noch was in Zukunft, vor allem die Quadros könnten die Geometrieleistung ja gut gebrauchen.

Sollte das load-balancing nicht die Hardware übernehmen? Zumindest wurde mir das mal vor langer Zeit so gesagt.

Coda
2007-05-15, 18:14:38
Naja, ich hatte mir das so vorgestellt, dass bsw. 32 ALUs unified sind, also mit PS/VS/GS umgehen können, und die restlichen ALUs nur mit PS umgehen können. Bei der GTs werden dann eben nur die PS-ALUs deaktiviert.
Das ist sicherlich Käse. Das würde ja bei den kleinen Chips mit nur einem Quad dann gar nicht mehr funktionieren

Sollte das load-balancing nicht die Hardware übernehmen? Zumindest wurde mir das mal vor langer Zeit so gesagt.
Ja, aber es geht ja nur um Hinting. Aber die Theorie, dass eh das Trisetup limitiert gefällt mir eh besser.

PCGH_Carsten
2007-05-15, 18:17:16
Und was nützt dieser Vergleich ohne eine andere HD 2000 Karte, ich finde leider gerade die Folie nicht wo alle HD 2000 Karten mit ihrer Triangle Processing Rate angegeben werden.

Aber:
2900XT -> 742 MTri/sec
2600XT -> 800 MTri/sec

Du verwechselst Vertexleistung mit Tri-Setup-Rate. Ist die Vertexleistung groß genug, kann das Trisetup limitieren.

Ich wage mal zu prophezeihen, dass eine HD2600 XT trotz nominell schnellerem Trisetup nicht die Vertexleistung einer HD2900 XT erreicht.

reunion
2007-05-15, 18:17:31
Hat der liebe Rys nicht auch auf B3D erklärt, dass es genauso eine Limitierung anderswo im Chip (Tri-Setup bsw. nur 1tri/2clk) sein könnte?

Ich weiß nicht. Aber das wäre natürlich auch eine mögliche Erklärung.

PCGH_Carsten
2007-05-15, 18:17:59
Das ist sicherlich Käse. Das würde ja bei den kleinen Chips mit nur einem Quad dann gar nicht mehr funktionieren

Die SFU? ;)

Coda
2007-05-15, 18:18:26
Was möchstest du mir damit sagen?

PCGH_Carsten
2007-05-15, 18:20:01
Was möchstest du mir damit sagen?

32 aus 128 G80-ALUs sind die SFUs. Die wären auch in einem 1-Quad-Chip noch vorhanden (natürlich entsprechend weniger).

Coda
2007-05-15, 18:22:47
Die SFUs sind zusätzlich.

PCGH_Carsten
2007-05-15, 18:24:36
Die SFUs sind zusätzlich.

Sorry, falsch ausgedrückt. Was ich meinte war: In einem 128-SPU-G80 sind 32 SFU-ALUs. Da diese pro Multiprozessor vorhanden sind, wären sie auch in einem "1-Quad-Chip".

sulak
2007-05-15, 18:43:16
Ich bin gespannt, wie sich ein R600 dort schlägt.

Wirklich? Dann schau mal nach http://www.pcgameshardware.de/?article_id=601352

Das 3. Balkendiagramm zeigt Call of Juarez 1280*1024 ohne AA/AF, da zeigt sich was ein neuer Treiber bringen kann, eine GTX wurde mal mit dem FW158.22 dagegen getestet.

€: Bei Lost Planet ohne AA scheints ja fast eine CPU Bremse zu geben, siehe 2. Diagramm

Gast
2007-05-15, 19:01:07
Kann es sein, dass bei G80 nicht alle Shader unified sind? Wie mir beim durchblick der R600-Tests aufgefallen ist, scheint die VS-Leistung im Vergleich zu R600 ziemlich mager zu sein.

Vertices bestehen wenn ich nicht irre immer aus mindestens 4 Komponenten (Vec4), das dürfte der R600 Architektur entgegenkommen.

up¦²
2007-05-16, 16:21:54
Unglaubliche dicke 17245 im 06er... WinFast GeForce 8800 Ultra X2 :smile:
http://forum.coolaler.com/showpost.php?p=1766888&postcount=14
btw:coolaler und Denny/guess2098 sind bekannte OC-Fanatiker...

deekey777
2007-05-16, 16:25:11
Sorry, falsch ausgedrückt. Was ich meinte war: In einem 128-SPU-G80 sind 32 SFU-ALUs. Da diese pro Multiprozessor vorhanden sind, wären sie auch in einem "1-Quad-Chip".
Nvidia sagt, es sind 128 SFUs.

=Floi=
2007-05-20, 10:49:08
hallo
wie errechnet sich den der shader takt der ultra?

17000 punkte mit noch normaler ausrüstung das ist schon heftigst

PCGH_Carsten
2007-05-20, 12:32:35
Nvidia sagt, es sind 128 SFUs.
AMD sagt, es sind 320 Shader. :)

AnarchX
2007-05-23, 20:11:58
XFX und MSI im Kampf um die schnellste Ultra:

Nachdem MSI ihre Karte mit 660/1150MHz präsentiert hat, legt XFX bei der XXX mit 675/1667/1150MHz nach:
http://www.xfxforce.com/web/product/listConfigurationDetails.jspa?series=GeForce%26trade%3B+8800&productConfigurationId=1118128

Raff
2007-05-23, 20:33:40
Und die kostet für 2% mehr Leistung sicher 50-100€ mehr. Es scheint echt Leute zu geben, die das kaufen, weil sie nicht selbst übertakten können. :|

MfG,
Raff

AnarchX
2007-05-23, 20:36:54
Und die kostet für 2% mehr Leistung sicher 50-100€ mehr. Es scheint echt Leute zu geben, die das kaufen, weil sie nicht selbst übertakten können. :|


Oder keine Lust darauf haben, da sie in dieser Zeit mehr als eine Ultra verdienen. ;)

=Floi=
2007-05-24, 07:13:05
der satz von einem mod ist schon hart
es gibt genug vorteile so einer karte aber die will ich jetzt nicht alle aufzählen...

Gast
2007-05-24, 07:45:01
Und die kostet für 2% mehr Leistung sicher 50-100€ mehr. Es scheint echt Leute zu geben, die das kaufen, weil sie nicht selbst übertakten können. :|Nicht jeder kann es sich leisten bei einer 600-€-Grafikkarte die Garantieansprüche zu verlieren.

AnarchX
2007-05-26, 11:17:17
XFX und MSI im Kampf um die schnellste Ultra:

Nachdem MSI ihre Karte mit 660/1150MHz präsentiert hat, legt XFX bei der XXX mit 675/1667/1150MHz nach:
http://www.xfxforce.com/web/product/listConfigurationDetails.jspa?series=GeForce%26trade%3B+8800&productConfigurationId=1118128

Leadtek übertrumpft beide:
http://www.hartware.de/media/presse/6593/sml.jpg
http://www.hartware.de/media/presse/6593/tab1.png
http://www.hartware.de/media/presse/6593/tab2.png
http://www.hartware.de/press_6593.html

Lotzi
2007-05-26, 19:25:57
ist das krass was die aus den dingern rausquetschen
ich frage mich aber warum nvidia den chip mit 612 und den ram mit 1080 anfährt wenn soviel luft nach oben ist

nv hätte meiner meinung nach die ultra auf 630/2200 takten sollen

laser114
2007-05-26, 19:41:35
Leadtek übertrumpft beide:

Shadertakt?

MarcWessels
2007-05-26, 19:44:58
ist das krass was die aus den dingern rausquetschen
ich frage mich aber warum nvidia den chip mit 612 und den ram mit 1080 anfährt wenn soviel luft nach oben istVielleicht hat das Leadtek-Bios langsame Timings.

Hier nochmal die High-End Grafik von Lastplanet. ;D

http://www.pcgameshardware.de/screenshots/original/lostplanet013.jpg
http://www.pcgameshardware.de/screenshots/original/lostplanet021.jpg

Ja, die Autoreifen und die Ultra-High Texturen haben schon was. ;D
Nee, sorry. Aber als DX10 Vorzeigespiel ist das der größte Witz den ich je gesehen habe. Vorallem, wenn man sich die Frames anschaut.Mir deucht, dass diese Szene auf der 360 besser ausschaut.

Gast
2007-05-26, 22:36:10
nv hätte meiner meinung nach die ultra auf 630/2200 takten sollen

Geht nicht, je höher der GPU Takt ab Werk desto geringer wird das Verhältnis zum ShaderClock eingestellt. Das lässt sich einfach nicht kühlen wenn die SPUs auf über 1,8GHz gehen. War schon 2mal bei Dailytech glaube ich in den News, zuerst Asus und dann MSI die das "alte" Stepping des G80 schon auf 700MHz GPU hatten aber der Chip geglüht hat, die SPUs werden zu dicken Hotspots. Könnt ja das Verhältnis ausrechen, es wird immer etwas abnehmen.

@Wessel die XBox Version hat keine Softshadows und ist teilweise anders, wenn man die Demo spielt und direkt dann die PC Demo fallen einem einige Stellen auf wo Gegner fehlen oder andere Dinge geschehen.

Gast
2007-05-26, 23:50:17
Das Preis-Leistungsverhältniss ist einfach zu schlecht. Die schnellste Ultra kostet beinahe so viel, wie zwei normale GTX! Da kann man auch gleich eine GTX nehmen und das BIOS flashen oder eine pretested Karte kaufen ...

mr orange
2007-06-02, 11:21:49
und wie schauts aus, hat schon jemand eine und kann er das mit der höheren lautstärke gegenüber der gtx bestätigen?

Lotzi
2007-06-02, 13:44:39
ich kann das NICHT bestätigen siehe graka aus meiner sig

mr orange
2007-06-02, 13:58:21
hey, danke für die antwort!
meine gtx ist leider nach einer runde arma (freeze und nach reboot nur noch rote und grüne pixel im post screen) über den jordan gegangen und ich könnte mir nämlich um einen geringen aufpreis die ultra holen. :wink:

Gast
2007-06-08, 00:41:43
XFX und MSI im Kampf um die schnellste Ultra:

Nachdem MSI ihre Karte mit 660/1150MHz präsentiert hat, legt XFX bei der XXX mit 675/1667/1150MHz nach:
http://www.xfxforce.com/web/product/listConfigurationDetails.jspa?series=GeForce%26trade%3B+8800&productConfigurationId=1118128

Das ist fast schon einer Refreshkarte würdig. :eek:

http://www.bjorn3d.com/Material/revimages/video/xfx_8800_ultra_xxx/css.jpg

Die Ultra haut ganz schön rein. Wenn es ein 80/65/55nm Modell geben sollte, dann gute Nacht. :)

Gast
2007-06-08, 13:58:42
Dämlicher Linkschutz ...

Also hier hat man die XFX getestet: http://www.bjorn3d.com/read.php?cID=1111

Bei CS:S sind da Sprünge von über 20% in der Leistung zu sehen, zu einer 8800GTX.

The_Invisible
2007-06-08, 17:09:47
hat hier im forum noch keiner eine ultra?

nicht mal bei den freaks ala tombman, blaire & co habe ich eine gesehen, das gibt mir schon zu denken :D

mfg

Tjell
2007-06-08, 19:28:53
Wäre die Ultra zuerst gekommen, hätten die alle eine (oder mehrere), aber so lohnt kein Aufrüsten, der Leistungsgewinn ist zu gering.

Lotzi
2007-06-08, 19:29:32
hat hier im forum noch keiner eine ultra?

nicht mal bei den freaks ala tombman, blaire & co habe ich eine gesehen, das gibt mir schon zu denken :D

mfg



Du hast MICH vergessen...............

GG

The_Invisible
2007-06-09, 00:10:10
Du hast MICH vergessen...............

GG

:eek:

nehme alles zurück :D

mfg

up¦²
2007-06-09, 00:34:18
Die Leute haben ja Humor: die neue FX5600 :biggrin:

http://m1.freeshare.us/150fs300745.jpg
With up to 1.5GB of DDR3 memory, this is one of NVIDIA's top solution for professional graphics, the Leadtek Quadro FX5600, using a similar G80 core found on the GeForce 8800 Ultra.
http://www.hardwarezone.com/articles/view.php?cid=18&id=2286&pg=10

Hardwarezone haben phantastische Info von der Comdex, stöbern ojhnt sich!

Spasstiger
2007-06-09, 00:34:29
nicht mal bei den freaks ala tombman, blaire & co habe ich eine gesehen, das gibt mir schon zu denken :D
Von 8800 GTX SLI @ OC auf 8800 Ultra SLI @ OC aufzurüsten, ist doch sinnfrei. Zumal manche ihre GTXen wohl auch schon mehr oder weniger aufwändig in eine Wakü integriert haben.

Tjell
2007-06-09, 00:47:33
Die Leute haben ja Humor: die neue FX5600 :biggrin:
...
Wieso Humor? :confused:

up¦²
2007-06-09, 01:28:17
Wieso Humor? :confused:

Weil die olle FX5600 einer der größten Flops war, und diese FX5600 eine der besten Karten ist, die es je gab :wink:

Spasstiger
2007-06-09, 01:56:53
Weil die olle FX5600 einer der größten Flops war, und diese FX5600 eine der besten Karten ist, die es je gab :wink:
Naja, ich denke nicht, dass man sich bei der Benennung was in Richtung GeForce gedacht hat, die Quadro-Linie hat ja von der GeForce-Linie völlig entkoppelte Bezeichungen.

Btw.: Die GeForce FX 5600 war 2003 eine der meist verkauften Grafikkarten.

=Floi=
2007-06-09, 09:13:01
die 5200er wurde noch öfter verkauft aber deshalb spricht das auch nicht für die leistung...

ich finde es beeindruckent wie gut der G80 chip ist und hoffe, dass man mit dem 65nm prozess auch die 800mhz sieht und freue mich auch schon auf die 9900GT mit vollwertigem chip und gutem speicher
auch freut mich, dass der GDDR3 speicher so hoch geht (1200Mhz) und trotzdem günstig ist
hier geht NV eindeutig den besseren weg

Mumins
2007-06-09, 10:20:08
Naja, ich denke nicht, dass man sich bei der Benennung was in Richtung GeForce gedacht hat, die Quadro-Linie hat ja von der GeForce-Linie völlig entkoppelte Bezeichungen.

Btw.: Die GeForce FX 5600 war 2003 eine der meist verkauften Grafikkarten.

Da sieht man, dass Nvidias Marketing voll greift. Selbst den größten Müll verkaufen die als Top-Produkt.

=Floi=
2007-06-09, 10:45:42
das macht jedes unternehmen

Gast
2007-06-09, 11:06:43
Da sieht man, dass Nvidias Marketing voll greift. Selbst den größten Müll verkaufen die als Top-Produkt.Die FX5200 und FX5600 waren nicht für jeden "der größte Müll". Manche sind mit diesen Karten durchaus gut gefahren. Es geht nicht jedem um DX9-Spiele in hohen Auflösungen mit AA/AF. In manch anderen Punkten waren diese Karten den jeweiligen Konkurrenzprodukten durchaus überlegen.

Endorphine
2007-06-09, 11:13:53
Die FX5200 und FX5600 waren nicht für jeden "der größte Müll". Manche sind mit diesen Karten durchaus gut gefahren. Es geht nicht jedem um DX9-Spiele in hohen Auflösungen mit AA/AF. In manch anderen Punkten waren diese Karten den jeweiligen Konkurrenzprodukten durchaus überlegen. Das Problem von FX5200, GF6100, 7300LE & Co. ist mMn die oft extrem beschnittene Speicherbandbreite durch eine 64- oder gar 32-Bit Speicherschnittstelle.

Daher sind viele dieser low-cost Karten Müll. Diese extrem beschnittenen Karten kosten nämlich nur minimal weniger als die vollwertigen FX5200/7300GT etc., entwerten den ProduktNamen aber mit einer unterirdischen Performance.

Würde man den 64- und 32-Bit Versionen einen anderen Namen geben, würde sich wohl niemand beschweren. Aber es kommt eben ein Gefühl des Betrugs am Kunden 'rüber, wenn irgendwas von "GeForce 7300" drauf steht, aber eher die Performance einer GeForce 4200 erreicht wird.

Gast
2007-06-09, 11:19:15
Das Problem von FX5200, GF6100, 7300LE & Co. ist mMn die oft extrem beschnittene Speicherbandbreite durch eine 64- oder gar 32-Bit Speicherschnittstelle.Korrekt. Ich ging jetzt von einer FX5200 mit 128-bit-SI aus. Die war nur minimal teurer, bot aber deutlich mehr Leistung. Ich kann dir nur zustimmen, dass NV die 64-bit-Varianten besser FX5100 oder so nennen sollte.

Gast
2007-06-09, 14:42:56
Die Stromverschwendung kennt keine Grenzen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt_crossfire/28/#abschnitt_stromverbrauch

335W im IDLE mit 8800GTX SLI? Na dann gute Nacht!

Wer sowas kauft, muss gelinde gesagt ... bekloppt sein. Anders kann man das nun wirklich nicht mehr ausdrücken. :crazy:

=Floi=
2007-06-09, 15:58:21
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/35/#abschnitt_stromverbrauch

hier ist die 2900er noch spitzenreiter
und hier wird das gesamte system gemessen...

AnarchX
2007-06-09, 16:02:54
Wer sowas kauft, muss gelinde gesagt ... bekloppt sein. Anders kann man das nun wirklich nicht mehr ausdrücken. :crazy:

Naja, wer sich ein GTX-SLI leisten kann, dem werden wohl diese 160W gegenüber einem normalen System relativ egal sein. Zudem wer lässt sein GTX-SLI schon den großteil des Tages idlen? :D

=Floi=
2007-06-09, 16:07:52
tombman weil er immer im forum surft und dazwischen mal kurz bencht ;D *FG*

Gast
2007-06-09, 16:07:57
Viel schlimmer finde ich die Tatsache, das diese 335W im IDLE schon mit einem Core 2 Duo @ 3,46 GHz und zwei normalen GTXen erreicht wurde.

Die Ultra hat doch eine etwas höhere Corespannung, oder? Da dürfte es noch extremer ausfallen.

Wenn man dazu noch einen Quadcore nimmt, sollten die 400 W im IDLE geknackt sein und das ist mehr als bedenklich!

Wenn man den Rechner (wie ich) 15h am Tag am laufen hat, dann wären das satte 6000W jeden Tag!!! Im Jahr und bei 0,17 Cent macht das 372,3€!!! :eek:

Also vernachlässigbar ist das nicht mehr ...

The_Invisible
2007-06-09, 16:09:38
Von 8800 GTX SLI @ OC auf 8800 Ultra SLI @ OC aufzurüsten, ist doch sinnfrei. Zumal manche ihre GTXen wohl auch schon mehr oder weniger aufwändig in eine Wakü integriert haben.

schon klar, aber das würde richtige freaks nicht abhalten würde ich meinen. jedenfalls wurde früher brav von 9800pro auf 9800xt oder geforce3 auf geforce3 ti500 umgerüstet :D

mfg

dildo4u
2007-06-09, 16:10:55
@Gast
Quark der C2D ist ja whol eindeutig OC und im idle ist dadurch sicher das Speedstep nicht aktiv.

Gast
2007-06-09, 16:13:50
@Gast
Quark der C2D ist ja whol eindeutig OC und im idle ist dadurch sicher das Speedstep nicht aktiv.

Und was zum Teufel willst du uns damit sagen?

Ein 8800GTX/Ultra SLI käufer verwendet sicher zu 90% keine non-OC CPU.

Außerdem ist das keine wirklich starke Übertaktung, es gibt Modelle die packen 3,8 GHz und demnächst werden Quadcores vorherrschend sein, die dann nochmal mehr ziehen.
Es geht also nach OBEN und nicht nach unten.

The_Invisible
2007-06-09, 16:14:16
Viel schlimmer finde ich die Tatsache, das diese 335W im IDLE schon mit einem Core 2 Duo @ 3,46 GHz und zwei normalen GTXen erreicht wurde.

Die Ultra hat doch eine etwas höhere Corespannung, oder? Da dürfte es noch extremer ausfallen.

Wenn man dazu noch einen Quadcore nimmt, sollten die 400 W im IDLE geknackt sein und das ist mehr als bedenklich!

Wenn man den Rechner (wie ich) 15h am Tag am laufen hat, dann wären das satte 6000W jeden Tag!!! Im Jahr und bei 0,17 Cent macht das 372,3€!!! :eek:

Also vernachlässigbar ist das nicht mehr ...

1. ist es dem highend-user egal
2. würde ich mir von dem geld einen sparsamen surf-pc bauen
3. würde ich mir so ne graka niemals in nen pc stecker der länger als 10stunden läuft

mfg

AnarchX
2007-06-09, 16:16:35
Viel schlimmer finde ich die Tatsache, das diese 335W im IDLE schon mit einem Core 2 Duo @ 3,46 GHz und zwei normalen GTXen erreicht wurde.

Die Ultra hat doch eine etwas höhere Corespannung, oder? Da dürfte es noch extremer ausfallen.

Wenn man dazu noch einen Quadcore nimmt, sollten die 400 W im IDLE geknackt sein und das ist mehr als bedenklich!

Wenn man den Rechner (wie ich) 15h am Tag am laufen hat, dann wären das satte 6000W jeden Tag!!! Im Jahr und bei 0,17 Cent macht das 372,3€!!! :eek:

Also vernachlässigbar ist das nicht mehr ...

Dann must du halt auf die Leistung verzichten oder dir einen 2D-Surf-Rechner bauen... ;)

Gast
2007-06-09, 16:17:15
1. ist es dem highend-user egal

Ich bin Highend User und mir ist es nicht egal. Dein Vorurteil ist somit FALSCH.

würde ich mir von dem geld einen sparsamen surf-pc bauen

Toll... aber die Investitionkosten für den Zweitrechner wollen auch erst bezahlt werden und das ständige an und ausschalten kann auch ins Geld gehen, da das nicht gut für die Hardware ist.

dildo4u
2007-06-09, 16:17:30
Dann must du halt auf die Leistung verzichten oder dir einen 2D-Surf-Rechner bauen... ;)
Ebend wer Geld für ein GTX SLI hat kann sich sicher auch ein Zweit Rechner leisten.

Gast
2007-06-09, 16:20:14
Dann must du halt auf die Leistung verzichten oder dir einen 2D-Surf-Rechner bauen... ;)

Sowas hatte ich schon, aber der lohnt im Endeffekt nicht, weil man da auch ständig was neues kaufen muss. :)

Wenn mal ne Festplatte oder GraKa hinüber ist, ist man wieder Geld los, da kann man das Geld auch gleich in die Stromkosten stecken...

Ebend wer Geld für ein GTX SLI hat kann sich sicher auch ein Zweit Rechner leisten.

Und wer SLI kauft, kann sich auch ein Porsche kaufen... versteht ihr überhaupt, was ihr da schreibt? :hammer:

The_Invisible
2007-06-09, 17:37:48
Sowas hatte ich schon, aber der lohnt im Endeffekt nicht, weil man da auch ständig was neues kaufen muss. :)

Wenn mal ne Festplatte oder GraKa hinüber ist, ist man wieder Geld los, da kann man das Geld auch gleich in die Stromkosten stecken...



Und wer SLI kauft, kann sich auch ein Porsche kaufen... versteht ihr überhaupt, was ihr da schreibt? :hammer:

wer sich nen porsche leisten kann, hat auch kein problem sich nen 2. auto für den winter anzuschaffen

mfg

Undertaker
2007-06-09, 17:41:42
Und was zum Teufel willst du uns damit sagen?

Ein 8800GTX/Ultra SLI käufer verwendet sicher zu 90% keine non-OC CPU.

Außerdem ist das keine wirklich starke Übertaktung, es gibt Modelle die packen 3,8 GHz und demnächst werden Quadcores vorherrschend sein, die dann nochmal mehr ziehen.
Es geht also nach OBEN und nicht nach unten.

auch ein c2d mit oc kann sparsam sein :) (idle 600mhz @ 1,1v ;))

Gast
2007-06-09, 17:44:09
Hier mal ein kleines Rechenbeispiel:

350 W IDLE, 500 W LAST @ Highendsystem, mit Bildschirm. Davon 12h IDLE und 3h Last jeden Tag.

Macht 2080,5 KWh im Jahr. Bei 17 Cent pro KWh sind das immerhin 353,69 € jedes Jahr, nur für den Gamingrechner!

Jetzt mal zu der Sache mit dem Zweitsystem:
Zweitsystem frisst 50 W + 50 W für den Monitor, sind auch schon wieder 100 W (wer noch einen CRT betreibt, kann mit bis zu 200W rechnen!) Wenn die 12h IDLE beim Gamingrechner wegfallen und stattdessen nur hier genutzt werden, macht das erneut 1,2 KWh jeden Tag und das 74,46€ jedes Jahr, bei einem CRT sogar doppelt so viel.

Jetzt muss man aber noch die Anschaffungskosten berücksichtigen, die bei ordentlicher Leistung auch wieder im im dreistelligen Bereich liegen wird und selbst damit ist es nicht getan. Jede defekte Komponente will ausgetauscht werden, dafür gehen Versandkosten und/oder neue Produktpreise drauf.

Im ersten Jahr kommt man damit auf keinem grünen Zweig, im zweiten oder dritten Jahr würde man etwas sparen (aber nur wenn die neue Grafikkarte nicht sparsamer ist, ansonsten lohnts in den ersten 2 Jahren gar nicht!!), sofern die Komponenten halten, aber bis dahin hat man schon ne neue (und hoffentlich sparsamere) Grafikkarte im Rechner und hätte sich das alles sparen können.

Man sieht also, es ist Irrsinn, so oder so! Eine weitere Frage wäre, wo will man denn die zusätzlichen Komponenten platzieren? Es hat nicht jeder Platz genug dafür...

Ich würds ja verstehen, wenn die unter Last so stromhungrig wären, aber warum im IDLE, wo sie gar nichts tun?

wer sich nen porsche leisten kann, hat auch kein problem sich nen 2. auto für den winter anzuschaffen

Du hast nichts im geringsten verstanden.

Hier wird argumentiert: Wer sich eine oder zwei GTX anschaffen kann, kann sich auch ein Zweitsystem leisten. Warum sollte das so sein? Es ist schließlich auch nicht so, das jeder SLI User sich einen Porsche leisten könnte ...

Gast
2007-06-09, 17:45:43
auch ein c2d mit oc kann sparsam sein :) (idle 600mhz @ 1,1v ;))

KANN. Aber rechne bitte auch den Zeitaufwand mit ein.

Du musst erst einmal testen, was da überhaupt geht und in der Zeit könntest du auch was sinnvolleres tun.

Geld ist ersetzbar, Zeit niemals!!

Zudem wird sich die Masse der Highend User zum Jahresende hin sicher einen Quadcore geholt haben, womit sich das wieder relativiert...

Undertaker
2007-06-09, 17:47:19
in 65nm wird der quadcore kein massenprodukt (auch nicht im high-end) werden, in 45nm ist man wohl wieder auf 65nm dualcore niveau

Gast
2007-06-09, 17:50:52
in 65nm wird der quadcore kein massenprodukt (auch nicht im high-end)

Wie kommst du zu dieser Schlußfolgerung?
Ich hab einen, Wesker hat einen, tombman hat einen... das sind alles User, die teilweise mehr GPUs haben und das zieht sich durch alle Foren durch. Die sogenannten Highenduser die ich meine, haben also schon ihren Quad und mit der Preissenkung werden es nur noch mehr (auch durchschnittsuser).

werden, in 45nm ist man wohl wieder auf 65nm dualcore niveau

reine Spekulation.

Slipknot79
2007-06-09, 17:53:06
>Davon 12h IDLE und 3h Last jeden Tag.


Arbeitslos und dann nen Rechner laufen lassen der 500W zieht? So ein Leben hätte ich auch gern, als Arbeitsloser ein System kaufen das 500W zieht.

Gast
2007-06-09, 17:57:01
Du solltest nicht von dir auf andere schließen. Ich weiß zwar nicht, was es hier in dem Thread zu suchen hat, aber ich bin selbstständig. Ich arbeite zuhause.

Dazu passend: Strom wird zum 1.7 bis zu 34% Prozent teurer (http://portal.gmx.net/de/themen/finanzen/wirtschaft/maerkte/4140262-Strom-wird-ab-Juli-offenbar-vielfach-teurer,cc=000000194100041402621JbHTu.html).

Undertaker
2007-06-09, 18:01:40
Wie kommst du zu dieser Schlußfolgerung?
Ich hab einen, Wesker hat einen, tombman hat einen... das sind alles User, die teilweise mehr GPUs haben und das zieht sich durch alle Foren durch. Die sogenannten Highenduser die ich meine, haben also schon ihren Quad und mit der Preissenkung werden es nur noch mehr (auch durchschnittsuser).


sagen wir es so: es gibt bestimmt 15-20x soviele nutzer mit g80/r600 wie mit quadcore... nur weil es 2, 3 nutzer haben, würde ich auch 8gb ram noch nicht zur ausstattung eines high-end pcs zählen

reine Spekulation.

dazu gab es schoneinmal ein paar mehr infos... mal schauen ob ich die noch finde

=Floi=
2007-06-09, 18:14:41
für 266$ zum 22 Juli werden es aber verdammt viele leute sein

warum sollte man den stromsparmodus ausschalten wenn man übertaktet?

---
noch was zum porsche argument
genausogut könnte ich mir dafür auch 2 golf kaufen
einen 1.6er und einen 3.6er...
oder einen alten 944er für unter 5000€

Undertaker
2007-06-09, 18:18:43
für 266$ zum 22 Juli werden es aber verdammt viele leute sein

für den preis wirds in der tat zum 1. mal interessant, aber nach aktuellem stand sind wohl zum jahreswechsel, dh 5 monate später, die 45nm quads da, damit werden die 65nm quads nur für sehr kurze zeit wirklich marktrelevanz besitzen

edit: evntl gehts sogar noch fixer: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5571733&postcount=31

=Floi=
2007-06-09, 18:25:51
nein weil die teurer verkauft werden und es wird sicherlich noch 1 jahr dauern damit man eben mal wieder so günstige und gute produkte bekommt (in einem jahr ist intel kurz vor nehalem und die 45nm quad werden dann verscherbelt uu mit überarbeitetem stepping)
ich habe mich zB schon entschlossen die platform 1 mal upzugraden und jetzt dann noch ein 65nm produkt zu kaufen

Undertaker
2007-06-09, 18:27:42
nein weil die teurer verkauft werden

quelle?

=Floi=
2007-06-09, 19:32:45
warum sollte intel die "neuen" prozessoren verscherbeln?
mehr mhz und neue modelle zu höheren preisen

Slipknot79
2007-06-09, 21:50:12
Du solltest nicht von dir auf andere schließen. Ich weiß zwar nicht, was es hier in dem Thread zu suchen hat, aber ich bin selbstständig. Ich arbeite zuhause.

Dazu passend: Strom wird zum 1.7 bis zu 34% Prozent teurer (http://portal.gmx.net/de/themen/finanzen/wirtschaft/maerkte/4140262-Strom-wird-ab-Juli-offenbar-vielfach-teurer,cc=000000194100041402621JbHTu.html).



Wenn dir die Watt nicht taugen, wozu dann den Rechner 12h idle laufen lassen? Vermutlich arbeitest du drauf, ähm, in nem Arbeitsrechner ne 88GTX reinschmeissen, wo es ein Rechner zum Preis einer GTX auch tun würde. :rolleyes:

Gast
2007-06-09, 22:03:23
Wenn dir die Watt nicht taugen, wozu dann den Rechner 12h idle laufen lassen? Vermutlich arbeitest du drauf, ähm, in nem Arbeitsrechner ne 88GTX reinschmeissen, wo es ein Rechner zum Preis einer GTX auch tun würde. :rolleyes:

Es ist ein Arbeits und Spielrechner.

Wenn du die Diskussion verfolgt hättest, wäre dir aufgefallen, das es nicht lohnen würde ein Zweitsystem aufzubauen, da das keinen Einspareffekt hat. Siehe Post #342

Slipknot79
2007-06-09, 22:06:46
Es ist ein Arbeits und Spielrechner.

Wenn du die Diskussion verfolgt hättest, wäre dir aufgefallen, das es nicht lohnen würde ein Zweitsystem aufzubauen, da das keinen Einspareffekt hat. Siehe Post #342


Wo ist dann das Problem die 88GTX zu verkaufen wenn du nicht bereit bist die Folgekosten dafür zu tragen un der Spielerechner (warum auch immer) 12h idlen muss.... Es gibt übrigens Monitore mit 2 DVI-Eingängen.

Gast
2007-06-09, 22:12:43
Wo ist dann das Problem die 88GTX zu verkaufen wenn du nicht bereit bist die Folgekosten dafür zu tragen un der Spielerechner (warum auch immer) 12h idlen muss....

Wenn du mir eine gleichwertige Alternative nennst, mache ich das gerne. ;D

Ich favorisiere in der Regel eine andere Methode: Eine Karte, sofern die Leistung ausreicht. Sobald es Karten gibt, die 2560x1600 6xAA immer flüssig darstellen, bin ich zufrieden. :)

Man muss auch die anderen Folgekosten berücksichtigen: Das Netzteil ist teurer (weil größer), das wird oft unterschätzt.

Außerdem ist die Effizienz von Multi GPUs noch lange nicht da, wo sie sein könnte. Und die Karten werden maßgeblich von der CPU ausgebremst. Denn wieviele Benchmarks habt ihr gesehen, die exakt doppelt so hohe Werte lieferten?

Die Effizienz einer Karte die bis an den Rand übertaktet ist, erreicht auch schon etwa 60-70% des SLI Systems (weil dieses schlechter skaliert und sich nicht immer so hoch übertakten lässt), aber gerade in Hinblick auf DX10 ist das noch viel, viel zu wenig.

Gast
2007-06-09, 22:22:28
Es gibt übrigens Monitore mit 2 DVI-Eingängen.

Es gibt sogar welche mit drei, aber was ändert das am eigentlichen Problem? Der Bildschirm muss laufen, so oder so.

Ein Zweitsystem kostet Geld, Zeit und zusätzlichen Aufwand. Wenn das System nur <50W fressen sollte, muss man schon hochwertige Komponenten verbauen oder auf ganz alte Komponenten zurückgreifen. Das kann aber schonmal knapp werden, wenn du mal mehr machen willst, als nur Texte zu schreiben.

Außerdem sind große Bildschirme à la 24" SONY FW900 oder 30" TFTs alles andere als "sparsam".

Slipknot79
2007-06-10, 04:36:02
>Es gibt sogar welche mit drei, aber was ändert das am eigentlichen Problem? Der Bildschirm muss laufen, so oder so.

Du kannst deine Rechnung überdenken, weil du 50W angesetzt hast. Wenn du aber einen Monitor für 2 Rechner benutzt, fallt das schon mal weg.

50W für nen Rechner sind heutzutage nicht so schwer zu organisieren, ein Laptop reicht da schon und das muss nicht gleich der teuerste von allen sein.

>Es gibt sogar welche mit drei, aber was ändert das am eigentlichen Problem? Der Bildschirm muss laufen, so oder so.

Das geht noch einfacher, auf unnötige Komponenten verzichten. Hochwertig wäre etwa ein Mobo um 300EUR, braucht aber sicher mehr Strom als ein Mobo um 70EUR und das muss nicht gleich minderwertiger sein. Oder du greifst eben auf alte Komponenten zurück wie schon erwähnt wurde, was spricht gegen eine 5EUR PCI-Graka die 5W verbraucht? 60Hz schaffen auch alte Karten locker für hohe Auflösungen. Einfach mal kombinieren, altes Zeugs mit hochwertigem. Ich weiß zwar nicht was du arbeitest, aber ein Office-Rechner sollte wirklich sehr sehr lange halten.

Gast
2007-06-10, 09:40:32
Denn wieviele Benchmarks habt ihr gesehen, die exakt doppelt so hohe Werte lieferten?Eine verdoppelte Leistung ist sowieso höchstens theoretisch möglich. Aber wenn man sich auch mit 70-90 % Skalierung zufrieden gibt, kann man mit SLI wunderbar glücklich werden, wenn man die Kohle hat.

Gast
2007-06-10, 12:08:20
Du kannst deine Rechnung überdenken, weil du 50W angesetzt hast. Wenn du aber einen Monitor für 2 Rechner benutzt, fallt das schon mal weg.

Er verbraucht weiterhin Strom, nur eben an Rechner 2. Das habe ich bei meiner Rechnung berücksichtigt. ;)

50W für nen Rechner sind heutzutage nicht so schwer zu organisieren, ein Laptop reicht da schon und das muss nicht gleich der teuerste von allen sein.

Aber wo ist da das Sparpotential? Ich solle den Zweitrechner ja nutzen um Strom zu SPAREN, aber wenn ich so viel Geld darin investiere, rentiert er sich in den ersten zwei, drei Jahren gar nicht (im ersten Jahr garantiert nicht).

Ich weiß zwar nicht was du arbeitest, aber ein Office-Rechner sollte wirklich sehr sehr lange halten.

In der Theorie sollte er das. Aber da die Praxis anders aussieht und man manchmal vielleicht mehr machen will, als nur Texte zu schreiben, müsste man dann wieder den Hauptrechner hochfahren ... das kostet weitere Zeit. Ich finde das sehr unkomfortabel.

Dazu kommt noch das Problem, das man den Rechner 2 mit einem weiteren RAID-1 austatten müsste, weil man alle Daten zur Verfügung haben muss.

Undertaker
2007-06-10, 13:01:52
warum sollte intel die "neuen" prozessoren verscherbeln?
mehr mhz und neue modelle zu höheren preisen

es wird doch nicht nur high-end in 45nm geben - speziell die quads werden aufgrund der recht hohen produktionskosten mit sicherheit schnellstmöglich umgestellt - schau in die vergangenheit

AnarchX
2007-06-14, 12:51:00
Ultra-Preis wurde gesenkt - ab 557€:
http://geizhals.at/eu/?cat=gra16_512&bpmax=&asuch=8800+Ultra&sort=p

dildo4u
2007-06-14, 15:16:13
Gut hoffentlich drückt das die Preise der GTX auf ~400€.

Gast
2007-06-14, 20:15:05
Gut hoffentlich drückt das die Preise der GTX auf ~400€.

Kannst lange darauf warten. So lange es keine Konkurrenz in diesem Sektor gibt, werden die Preise weiterhin hoch bleiben.

Ich denke 420-500€ für die GTX und 500- open end für die Ultra werden und noch sehr lange begleiten.

Gast
2007-06-14, 20:29:31
Kannst lange darauf warten. So lange es keine Konkurrenz in diesem Sektor gibt, werden die Preise weiterhin hoch bleiben.



wenn man ati weiter unter druck setzen will nicht ;)

Gast
2007-06-14, 20:40:02
wenn man ati weiter unter druck setzen will nicht ;)
Die braucht nV eh im Moment nicht ernst nehmen und in naher Zukunft wahrscheinlich auch nicht. Das einzige, was etwas bringt ist strikte Kaufzurückhaltung und Geduld. Irgendwann platzt dann der Knoten. Aber für 460 € gibt es ja jetzt schon ne GTX. Schwelle wird die 450 € Marke sein, wesentlich drunter wird es wahrscheinlich erst gehen, wenn der Refresh kommt und die GTX ausverkauft wird, falls überhaupt noch vorhanden. Im Überfluss werden die scheinbar auch nicht produziert, die Verfügbarkeit ist für so ein altes Stück Hardware nicht gerade berauschend. Kann mir aber auch schlecht vorstellen, dass die einen so wahnsinnig hohen Absatz hat. Wo bleiben die ganzen Karten?

Gast
2007-06-14, 20:53:34
wenn man ati weiter unter druck setzen will nicht ;)

Wen willst du denn unter Druck setzen? Gegen eine GTX/Ultra hat ATI moment nichts entgegen zu setzen und es sieht nicht danach aus, als ändere sich das in den nächsten Monaten.

Gast
2007-06-14, 21:25:21
Wen willst du denn unter Druck setzen? Gegen eine GTX/Ultra hat ATI moment nichts entgegen zu setzen und es sieht nicht danach aus, als ändere sich das in den nächsten Monaten.

eben, und wenn man dann die GTX im preis entsprechend setzt kommt ATI unter druck.

Gast
2007-06-14, 21:44:25
Und Nvidia auch, weil so etwas Aktionäre gar nicht mögen. Das Ziel börsennotierter Unternehmen ist die Gewinnmaximierung und nicht eine unnötige Minimierung.

Tjell
2007-06-15, 00:06:22
Auch wenn es mir (preislich) nicht gefällt (viel zu preisstabil für eine fast 8 Monate alte Chipgeneration), so ist das derzeitige Preisgefüge absolut plausibel.

8800 GTS (320) ca. 240 €
8800 GTS (640) ca. 300 €
2900 XT ca. 330 €
8800 GTX ca. 450 €
8800 Ultra ca. 560 €

Die Ultra mit ihrem Premiumaufschlag mal außen vor gelassen, sind die anderen Karten etwa Ihrer Leistung entsprechend preislich aufgestellt.

AMC
2007-06-15, 00:45:49
Die Ultra mit Ihrem premiumaufschlag mal außen vor gelassen, sind die anderen Karten etwa Ihrer Leistung entsprechend preislich aufgestellt.

Jo? Dann müsste die HD2900XT aber eher so ~270 Euro kosten, dann würde es besser passen.

AMC

James Ryan
2007-06-15, 09:00:28
Die GTX wird sicherlich nicht billiger werden sondern einfach auslaufen! Das war schon bei der Gf 6800 Ultra so, bei der Gf 7800 GTX und auch bei der Gf 7900 GTX.
Bis November bleibt die Gf 8800 GTX bei ca. 470€, dann kommt der G92 und die GTX fällt weg.

MfG :cool:

dildo4u
2007-06-16, 18:06:54
XFX legt noch mal nach und bringt die whol die schnellste Ultra mit Lukü.

685MHz core, 1667MHz shader and 2.3GHz memory

http://i97.photobucket.com/albums/l217/RodneyJM/XFX%208800GTX%20Ultra%20XXX/2.jpg


http://i97.photobucket.com/albums/l217/RodneyJM/XFX%208800GTX%20Ultra%20XXX/E66009x416MhzDDR25-5-5-158800GTXult.jpg

http://i4memory.com/showthread.php?t=4108

Gast
2007-06-16, 18:10:21
Nette Karte und der Preis? :)

Wenn das Wettrennen noch so weiter geht, erreicht man bald mit einer Ultra die Leistung eines GTX-SLI Sys. ;D

dildo4u
2007-06-16, 18:13:45
Nette Karte und der Preis? :)

"We say for the time being, because XFX is already planning to release a faster version of the card that runs at 685MHz core, 1667MHz shader and 2.3GHz memory very soon. XFX tells us that this card will simply replace the current XXX Edition and will come in at the same price point"

Selber Preis wie die jetzige XXX Edition.

http://geizhals.at/deutschland/a260833.html

Gast
2007-06-16, 18:16:46
Klingt gut... das tolle an solchen Karten ist, das sie immer ihre Leistung bringen und nicht an Effizienz (wie bei SLI) verlieren. ;)

Schade das es keine Ultra mit GDDR4 gibt. Mich würde mal interessieren, ob GDDR4 bei bei gleichem Takt oder sogar 1,2 GHz langsamer wäre, als der dort verbaute GDDR3.

dildo4u
2007-06-16, 18:22:52
Hier noch ein neuer Test(15.Juni) der EVGA GeForce 8800 Ultra Superclocked.


http://sg.vr-zone.com/?i=5056&s=2

Raff
2007-06-16, 18:28:03
100 Euro mehr für 10 Prozent mehr Dampf? Die normale Ultra kostet ja "nur noch" ~555€. Wer's braucht ... 685 MHz schafft jedenfalls nicht jede Ultra.

MfG,
Raff

dildo4u
2007-06-16, 18:32:41
685 MHz schafft jedenfalls nicht jede Ultra.

MfG,
Raff
Nich? Bei xtremesystems bekommt man den Eindruck das es eigentlich keine Karten gibt die,die 700mhz nicht schaffen.Gibts vieleicht eine neue Rev?Wenn XFX Karten mit 685mhz vertickt müssen sie sich ja sicher sein das sie eine Charge G80 von Nvidia bekommen die diesen Takt sicher schaffen.

Raff
2007-06-17, 00:54:32
Nich? Bei xtremesystems bekommt man den Eindruck das es eigentlich keine Karten gibt die,die 700mhz nicht schaffen.Gibts vieleicht eine neue Rev?Wenn XFX Karten mit 685mhz vertickt müssen sie sich ja sicher sein das sie eine Charge G80 von Nvidia bekommen die diesen Takt sicher schaffen.

Bei Xtremesystems bekommt man auch den Eindruck, dass man LN2 literweise beim Aldi kaufen kann. ;)

MfG,
Raff

dildo4u
2007-06-17, 01:57:26
Ja klar ok aber sonst gibts halt kaum User aus anderen Foren die Ultras besitzen und über diese Berichten können.

Gast
2007-06-17, 04:21:24
Die XS User bleiben dir aber zu 99% einen Beweis für die 24/7 Stabilität schuldig. Besonders wenn es um Taktraten geht ...

The_Invisible
2007-06-17, 08:16:09
die paar mhz auf 700/2,4 wird man wohl noch schaffen, ist ne schönere zahl :D

das wäre dann auch ner ultra würdig

mfg

=Floi=
2007-06-17, 12:52:05
die ultra ist lauter und dürfte damit auch eine bessere kühlung haben durch den schneller drehenden lüfter

Raff
2007-06-17, 15:45:37
die ultra ist lauter und dürfte damit auch eine bessere kühlung haben durch den schneller drehenden lüfter

Eine GTX kann man bequem mit dem Rivatuner auf 100% drehen lassen, dann rauscht die genauso "toll" wie die Ultra.

MfG,
Raff

=Floi=
2007-06-17, 16:03:36
bei meiner 7950GT konnte ich den lüfter nicht regeln deshalb bin ich erst garnicht auf diese idee gekommen...
aber danke für den guten tipp

AnarchX
2007-06-17, 20:58:05
Neuste NV-GraKa trifft die älteste:
http://img162.imageshack.us/img162/3733/0005094531c0ffe8sk5.jpg (http://imageshack.us)
http://www.pcpop.com/doc/0/202/202041.shtml

Slipknot79
2007-06-17, 21:30:04
Nich? Bei xtremesystems bekommt man den Eindruck das es eigentlich keine Karten gibt die,die 700mhz nicht schaffen.Gibts vieleicht eine neue Rev?Wenn XFX Karten mit 685mhz vertickt müssen sie sich ja sicher sein das sie eine Charge G80 von Nvidia bekommen die diesen Takt sicher schaffen.


Meine schafft ned mal 620MHz :biggrin:, zwar keine Ultra, aber es gibt nicht wenige Krücken.

Gmax
2007-06-21, 00:00:22
Auch wenns hier nicht ganz hingehört:

Nachdem das Wort Tesla im Moment hip ist, benenne man doch einfach ein Produkt danach (http://www.heise.de/newsticker/meldung/91374) :rolleyes:

Tjell
2007-06-21, 00:58:07
Und warum ist "Tesla" Deiner Meinung nach hip, was natürlich NVIDIA veranlasst hat, auf diesen jenen welchen Zug aufzuspringen?

Gmax
2007-06-21, 02:01:10
Es gibt in Silicon Valley gerade ein Start Up, welches an einen elektrisch betriebenen Roadster arbeitet. Das Medieninteresse war sehr groß, nicht nur weil halb Hollywood sich einen kaufen will.

Undertaker
2007-06-21, 11:42:05
Jo? Dann müsste die HD2900XT aber eher so ~270 Euro kosten, dann würde es besser passen.

AMC

rein leistungsmäßig gesehen hat die 2900xt sogar das beste p/l aller aktuellen highend/oberes mainstream karten, wäre imho bis etwa 400€ wert - den die 8800gts schlägt sie schon deutlich (und ist, wenn die treiber passen, von der tx nicht weit weg)

Gast
2007-06-21, 11:55:53
In welcher Dimension, Undertaker?

Gast
2007-06-21, 11:58:48
ohne AA und AF ganz dolles Kino die ATI

James Ryan
2007-06-21, 12:04:11
rein leistungsmäßig gesehen hat die 2900xt sogar das beste p/l aller aktuellen highend/oberes mainstream karten, wäre imho bis etwa 400€ wert - den die 8800gts schlägt sie schon deutlich (und ist, wenn die treiber passen, von der tx nicht weit weg)

*seufz*
Wenn die Treiber passen, dann ist die HD 2900 XT vielleicht etwas näher an der GTX ran.
Dummerweise passen die Treiber immer noch nicht so richtig, also ist die HD 2900 XT immer noch auf ~ 8800 GTS/640 Niveau und damit etwas zu teuer.

Aber das alles wurde schon ca. 293572395 Mal durchgekaut nur hält sich komischerweise immer noch das Gerücht, dass die HD 2900 XT mit der GTX konkurieren könnte, wenn der Treiber (irgendwann vielleicht mal) stimmt, kein FSAA + AF genutzt wird und blablablubb...

MfG :cool:

A.Wesker
2007-06-21, 14:20:13
*seufz*
Wenn die Treiber passen, dann ist die HD 2900 XT vielleicht etwas näher an der GTX ran.
Dummerweise passen die Treiber immer noch nicht so richtig, also ist die HD 2900 XT immer noch auf ~ 8800 GTS/640 Niveau und damit etwas zu teuer.

Aber das alles wurde schon ca. 293572395 Mal durchgekaut nur hält sich komischerweise immer noch das Gerücht, dass die HD 2900 XT mit der GTX konkurieren könnte, wenn der Treiber (irgendwann vielleicht mal) stimmt, kein FSAA + AF genutzt wird und blablablubb...

MfG :cool:
schneller als die GTS ist sie in den meisten Szenarien, das kann man ihr nicht absprechen. Und die Frage ist, was verlangt ihr von den Treibern? Was soll da nicht stimmen? Bei den Treibern wird sich nur in den Spielen performancetechnisch etwas ändern, bei denen ein überproportional hoher Einbruch bei AAA zu verzeichnen ist. Das ist zb. bei Tomb Raider Anniversary der Fall und das ist auch das einzige Beispiel was ich aus meinem "GamePark" nennen kann, das diese nicht sehr schöne "Eigenschaft" mit dem Cat 7.5 aufweist.

Dann gibt es noch die Spiele, bei denen AF der XT stark zusetzt. Das sind Call of Duty 2 und Stalker. Bei Call of Duty 2 wurde die AAA Performance schon um 45 % im Vergleich zum 36er Treiber gesteigert, die AF Performance ist gleich schwach geblieben. Ich denke nicht, daß sich das mit kommenden Treibern ändern wird.

James Ryan
2007-06-21, 14:42:56
Und die Frage ist, was verlangt ihr von den Treibern?

Das musst du Undertaker fragen, ich verlange nichts von ATi.
Ich möchte nur das Gerücht aus der Welt schaffen, dass eine HD 2900 XT mit neuen Treiber (die ganz sicher bald kommen) eine GTX zersägen kann. Sowas wird einfach nicht eintreten, die 2900er wird auch nicht in die Nähe einer GTX kommen, selbst nach 100 neuen Treibern nicht. Die Perfomance ist auf GTS/640 Niveau, oder etwas darüber, aber das war es auch und dabei wird es bleiben.

MfG :cool:

Gast
2007-06-21, 14:44:46
Bei Call of Duty 2 wurde die AAA Performance schon um 45 % im Vergleich zum 36er Treiber gesteigert, die AF Performance ist gleich schwach geblieben. Ich denke nicht, daß sich das mit kommenden Treibern ändern wird.

Und ohne AAA?

A.Wesker
2007-06-21, 14:55:58
Und ohne AAA?
ebenfalls um die 40 %, die war mit dem 3.6er Treiber auch mehr als mangelhaft.

Gast
2007-06-21, 15:00:03
ebenfalls um die 40 %, die war mit dem 3.6er Treiber auch mehr als mangelhaft.

Jo, das was ich schon gesehen habe. Damit bleibt die Karte aber trotzdem nur GTS Niveau in dem Spiel.

A.Wesker
2007-06-21, 15:03:17
Jo, das was ich schon gesehen habe. Damit bleibt die Karte aber trotzdem nur GTS Niveau in dem Spiel.
bei call of duty 2 würde ich sogar sagen, daß sie mit 16xAF unter einer GTS liegt. Das ist aber auch einer der wenigen Spiele, in dem die GTS schneller ist.