PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8800Ultra: (P)Review-Thread


Seiten : [1] 2

AnarchX
2007-04-30, 18:07:40
http://img181.imageshack.us/img181/8088/8800ultraoverall1iu8.jpg
thx to hardwarezone.com

Spezfikationen:

Taktraten:

TMU/ROPs: 612MHz
Shadertakt: 1512MHz
Speichertakt: 1080MHz


768MB GDDR3 (0.83ns bei bestimmten Herstellern)
http://img119.imageshack.us/img119/7717/083nsultraim7.jpg

Theoretische Daten:

Pixelfüllrate: 14688 MPix/s
Texelfüllrate: 39168 MTex/s
arithmetische Leistung: MADD -> 387 GFLOPs, MADD+MUL -> 581 GFLOPs
Speicherbandbreite: 103,7 GB/s



Testberichte:

eng. und andere:
8800Ultra Preview @ Beareyes (http://www.beareyes.com.cn/2/lib/200705/02/20070502013.htm) Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.beareyes.com.cn%2F2%2Flib%2F200705%2F02%2F200705020 13.htm&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) (XFX XXX mit 650/1620/1130MHz)
8800Ultra Review @ Hardspell (http://www.hardspell.com/doc/hardware/36902.html) Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hardspell.com%2Fdoc%2Fhardware%2F36902.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
8800Ultra Review @ iXBT (http://www.ixbt.com/video3/g80-10.shtml) Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Fg80-10.shtml&langpair=ru%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
NVIDIA GeForce 8800 Ultra: The Shadow Warrior @ hardwarezone (http://hardwarezone.com/articles/view.php?cid=3&id=2251)
8800Ultra Review @ PCShow.net (http://www.pcshow.net/test/Testinfo.jsp?id=221988&page=1) Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcshow.net%2Ftest%2FTestinfo.jsp%3Fid%3D221988%26pa ge%3D1&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) (XFX XXX mit 650/1620/1130MHz)
NVIDIA GeForce 8800 Ultra review @ Guru3D (http://www.guru3d.com/article/Videocards/428/1/)

-http://www.firingsquad.com/hardware/nvidia_geforce_8800_ultra/
- http://enthusiast.hardocp.com/article.html?art=MTMzNiwxLCxoZW50aHVzaWFzdA==
- http://www.hexus.net/content/item.php?item=8593
- http://www.hothardware.com/Articles/NVIDIA_GeForce_8800_Ultra/
- http://techreport.com/reviews/2007q2/geforce-8800ultra/index.x?pg=1
- http://pcper.com/article.php?type=expert&aid=402
- http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/1.html
- http://legitreviews.com/article/496/1/
- http://www.anandtech.com/video/showdoc.aspx?i=2979

Sehr ausführliche Vergleichstabelle: GTX vs Ultra, XP vs Vista @ Ultra (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5480382&postcount=253)

dt. :
nVidia GeForce 8800 Ultra - Monster-Performance zu einem hohen Preis @ ComputerBase (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/)

Gast
2007-04-30, 18:14:01
http://fabu.beareyes.com.cn/2/lib/200705/02/20070502011_6.htm

Die Diagramme sind ja echt gelungen. Geniale Einteilung. (y)

dildo4u
2007-04-30, 18:14:54
Leider für die Tonne der Bericht zu schwache CPU für eine 8800Ultra und die gewählten Auflösungen 1024*768 und 1280*1024 sind für eine Ultra High End Karte ein Witz.

Super Grobi
2007-04-30, 18:16:02
Die Karte macht mich geil!

Aber kostet doch bestimmt über 800 Euro. Für 650 Euro würde ich sie sofort bestellen.

SG

Blaze
2007-04-30, 18:17:06
Nen netten Kühler hat sie ja, aber ansonsten ist sie eher überflüssig.

Und ich hab selten schlechter gestaltete Grafiken gesehen (Seite 6 u. 7), hauptsache der Balken ist soooo lang ;)

Gast
2007-04-30, 18:18:14
hmm sli funzt bei denen nicht

irgendwie merkwürdig könnt auch ein fake sein

Gast
2007-04-30, 18:27:46
Die Karte macht mich geil!

Aber kostet doch bestimmt über 800 Euro. Für 650 Euro würde ich sie sofort bestellen.

SG


Na dann halt dein Scheckbuch bereit Grobi:

699 Euro wird es sein.

Gast
2007-04-30, 18:38:56
Ist das wieder ein Gast der sich wichtig machen will oder weisst Du das? Realistisch ist er ja.

AnarchX
2007-04-30, 18:45:14
Leider für die Tonne der Bericht zu schwache CPU für eine 8800Ultra und die gewählten Auflösungen 1024*768 und 1280*1024 sind für eine Ultra High End Karte ein Witz.

Für Performance-Tests gibt es bessere Seiten, aber immerhin werden hier einige interessante Fakten über die Ultra bekannt gegeben.

Moralelastix
2007-04-30, 18:46:07
2x GTS 640 liegt doch Performance mässig locker vor der Ultra??

Funzt SLi zuverlässig unter XP?

Kira
2007-04-30, 18:52:39
rofl was n balken...

http://www.directupload.net/images/070430/temp/AbU9gPo8.jpg (http://www.directupload.net/file/d/1048/AbU9gPo8_jpg.htm)

sieht echt lustig aus... sieht sooooo viel besser aus... dabei ist es echt ein witz :)

Gast
2007-04-30, 18:53:05
2x GTS 640 liegt doch Performance mässig locker vor der Ultra??
Ja.


Funzt SLi zuverlässig unter XP?
Je nach Anwender...

Gast
2007-04-30, 18:54:35
rofl was n balken...
Der zeigt wohl das Preis-Leistungsverhältnis X-D

Gast
2007-04-30, 19:09:42
Öhm der Preis passt so wie ich es schrieb, naja am 02.05. ab 15:00 wird es euch verifiziert.

Gast
2007-04-30, 19:13:36
Die Karte macht mich geil!

Aber kostet doch bestimmt über 800 Euro. Für 650 Euro würde ich sie sofort bestellen.

SG

du weißt aber schon dass es nur ne GTX is mit mehr Takt ne

Gast
2007-04-30, 19:33:39
Öhm der Preis passt so wie ich es schrieb, naja am 02.05. ab 15:00 wird es euch verifiziert.

Kannst noch mehr sagen ? Verfuegbqrkeit?

AnarchX
2007-04-30, 19:41:56
Mal ein paar Benches, die einer Ultra würdig sind:
http://directupload.com/files/0yyzmogh2dzxmemymdku.jpg (http://directupload.com/)
http://directupload.com/files/jm2wa0mtdunqzzzmdi4c.gif (http://directupload.com/)
http://we.pcinlife.com/thread-758018-1-1.html

OCing scheint mit dem neuen Kühler auch ziemlich gut zu gehen.

dildo4u
2007-04-30, 19:44:06
Ich schätze NV gibt der GPU wesentlich mher V-Core weil einfach mal so 720Core mit Lukü waren mit der GTX nicht drinn.

Moralelastix
2007-04-30, 19:47:20
Oder halt selektierte Chips.

=Floi=
2007-04-30, 19:49:50
25% mehr chiptakt sind schon heftig :eek:
nicht schlecht

720 chiptakt
1640 mhz shadertakt
und 117gb speicherbandbreite...

TobiWahnKenobi
2007-04-30, 19:51:11
ich würde ja gern mal das bios auslesen ;) würde mich nicht wundern, wenn da irgendwas von 1,4 oder 1,45V drin stünde..


(..)

mfg
tobi

AnarchX
2007-04-30, 19:55:21
Ich schätze NV gibt der GPU wesentlich mher V-Core weil einfach mal so 720Core mit Lukü waren mit der GTX nicht drinn.

Trotzdem bleiben die Temperaturen relativ niedrig:
http://img119.imageshack.us/img119/1766/image0536c64c7ag2.jpg

Da hat NV ganze Arbeit geleistet, für 699€ sicherlich kein schlechtes Angebot.

Gouvernator
2007-04-30, 19:56:30
Mal ein paar Benches, die einer Ultra würdig sind:
http://directupload.com/files/0yyzmogh2dzxmemymdku.jpg (http://directupload.com/)
http://directupload.com/files/jm2wa0mtdunqzzzmdi4c.gif (http://directupload.com/)
http://we.pcinlife.com/thread-758018-1-1.html

OCing scheint mit dem neuen Kühler auch ziemlich gut zu gehen.

Hier sieht man sehr schön wie mit steigender Bildqualität OC kaum was bringt.

Nur 10fps durch +145mhz GPU und 640mhz Ram Takt. Dafür das die Leute solche Grafikkarten bekanntlich :biggrin: unter 2560x1600 nutzen bringt die neue Ultra-Version herzlich wenig.

Gast
2007-04-30, 19:56:51
Wenn der VCore nicht qngehoben wurde, ist das OC beachtlich.

Gast
2007-04-30, 20:00:14
Am Kuehler liegt es nicht, da das ne GTX selbst mit Wassser nicht mitmacht.

AnarchX
2007-04-30, 20:00:40
Nur 10fps durch +145mhz GPU und 640mhz Ram Takt.
Die nur 10 FPS sind aber ein Leistungsteigerung von 34%.:rolleyes:


720 chiptakt
1640 mhz shadertakt
und 117gb speicherbandbreite..

Eigentlich müssten es 1.8GHz Shaderclock bei dem OCing sein, da diese Karte schon werkseitig 1.65GHz hat:
http://img119.imageshack.us/img119/5169/image009ho9.jpg (http://imageshack.us)
;)

Gast
2007-04-30, 20:00:50
Hier sieht man sehr schön wie mit steigender Bildqualität OC kaum was bringt.
Nur 10fps durch +145mhz GPU und 640mhz Ram Takt. Dafür das die Leute solche Grafikkarten bekanntlich :biggrin: unter 2560x1600 nutzen bringt die neue Ultra-Version herzlich wenig.

Höre doch bitte auf vollkommen Unsinn zu reden.
Die Framezahl kann sich nur im ähnlichen prozentualen Maße erhöhen, wie die Taktung erhöht wurde.
Wie man am Beispiel 725/2440 sieht, erreicht man mit einer 25% Coreübertaktung und einer 35% Speicherübertaktung ca. 30% Mehrleistung.
Dabei ist es egal, ob die FPs von 10 auf 13 oder von 50 auf 65 steigen. 30% bleibt 30%. Ausschlaggebend ist alleinig der Referenzwert.

TobiWahnKenobi
2007-04-30, 20:01:34
Am Kuehler liegt es nicht, da das ne GTX selbst mit Wassser nicht mitmacht.
mit mehr saft auf der GPU macht die GTX sicher auch mehr takt mit. würde da jetzt zwar keine wakü draufschrauben, aber mit 1,35V ging sie schon ne ecke besser, als mit 1,3V - viel luft ist natürlich bedingung.


(..)

mfg
tobi

Gast
2007-04-30, 20:07:57
Verfügbarkeit, naja wer eine will bekommt eine...........muss reichen als Aussage.

reunion
2007-04-30, 20:10:06
Was sind jetzt die default Taktraten? Das OC-Potential scheint jedenfalls sehr gut zu sein, da dürfte einiges mehr an Spannung an der GPU anliegen. Wenn nV die Karte ausreichend liefern kann: Nicht schlecht. Wenn es allerdings wie bei der GTX512 nur eine Charge der besten Chips der letzte sechs Monate ist, wäre das schade.

Gast
2007-04-30, 20:14:30
Verfügbarkeit, naja wer eine will bekommt eine...........muss reichen als Aussage.

7800GTX 512MB aehnlich ?

Gast
2007-04-30, 20:14:56
Laut der nicht verständlichen Seite: 612/1500/1080 (0.8ns).

AnarchX
2007-04-30, 20:30:45
Interessant ist auch, dass die Ultra eine TDP von 175W laut BE hat, also 2W niedriger als bei der GTX(177W), bei höheren Taktraten.

Klingt mir immer mehr nach selektierten Chips, aber vielleicht konnte NV auch Fortschritte bei der Fertigung machen.

LovesuckZ
2007-04-30, 20:32:45
Eher war die TDP Angabe der 8800GTX vollkommen realitätsfern.
Techreport gibt sogar 185 Watt an. In keinem Vergleich der Stromaufnahme konnte sich die GTX im 3DModus um mehr als 20-30 Watt von der X1900XTX absetzen.

Backet
2007-04-30, 20:37:07
Naja, so berauschend sind die Werte doch auch nicht.

Ich hätte vielleicht 5 Frames mehr im Durchschnitt zu meiner übertakteten GTX!

Das lohnt nicht. und der Preis ist auch unverschämt hoch.

Super Grobi
2007-04-30, 20:43:16
Na dann halt dein Scheckbuch bereit Grobi:

699 Euro wird es sein.

Nur Bares ist wahres!

2x GTS 640 liegt doch Performance mässig locker vor der Ultra??

Funzt SLi zuverlässig unter XP?


Klar,
dafür darste für jedes Spiel stundenlang rumfummeln (neue Games! Bei alten kann man eh auf SLI verzichten, da eine Karte schon mehr als genung bietet) und dich fragen, ob SLI nun geht oder nicht! Bevor ich mir sowas nochmal antu, kauf ich gleich eine Karte mit Dampf³ und scheiss auf SLI.

SG

Sonyfreak
2007-04-30, 20:56:59
Ich finde das Kärtchen schon recht schick. Wenn ich jetzt ein paar hundert Euro zuviel auf dem Konto hätte, würde ich mir glatt 1 bzw. 2 davon holen. :tongue:

Hat die Ultra jetzt 768MB oder 1,5GB Ram?

mfg.

Sonyfreak

AnarchX
2007-04-30, 20:59:42
Hat die Ultra jetzt 768MB oder 1,5GB Ram?


Natürlich nur 768MB, bei 1.5GB müsste man auch noch die Rückseite bestücken und mit dem 0.83ns GDDR3 wäre sie sicherlich dann nicht mehr bezahlbar.;)

Sonyfreak
2007-04-30, 21:01:07
Natürlich nur 768MB, bei 1.5GB müsste man auch noch die Rückseite bestücken und mit dem 0.83ns GDDR3 wäre sie sicherlich dann nicht mehr bezahlbar.;)Da hast du wohl leider recht. Wäre dann wohl die ideale 4x4SSAA Karte gewesen. Naja danke für die Info.

mfg.

Sonyfreak

Super Grobi
2007-04-30, 21:13:48
Natürlich nur 768MB, bei 1.5GB müsste man auch noch die Rückseite bestücken und mit dem 0.83ns GDDR3 wäre sie sicherlich dann nicht mehr bezahlbar.;)

Hähm, ...
hab ich nicht vor kurzen in einer 3dc-News gelesen, das es "größere" Module gäbe und damit die 1,5 möglich, aber nicht sinnvoll wären?

SG

p.s.
sinnfrei, weil 1,5gb zuviel sind, bzw. wenn diese sinn machen würden, die GPU zu lahm wäre...

AnarchX
2007-04-30, 21:15:07
Hähm, ...
hab ich nicht vor kurzen in einer 3dc-News gelesen, das es "größere" Module gäbe und damit die 1,5 möglich, aber nicht sinnvoll wären?


Das war falsch und wurde korrigiert:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5426874#post5426874

sinnfrei, weil 1,5gb zuviel sind, bzw. wenn diese sinn machen würden, die GPU zu lahm wäre...

Bei einem möglichen Quad-SLI(Quadro-Plex-Box...) und dessen Bildqualitätsmöglichkeiten wäre es imo durchaus sinnvoll. :biggrin:

Super Grobi
2007-04-30, 21:21:05
OK,
bei Q-SLI sind 1,5gb gerade mundgerecht. Da hab ich nicht dran gedacht.

Ich will so eine Karte haben! Möglichst limitiert!

SG

dargo
2007-04-30, 21:23:55
Gibt es irgendeine logische Erklärung für den außermittig angeordenten Lüfter?
Ich komme nicht drauf was das bringen soll.

Mancko
2007-04-30, 21:44:57
Hier sieht man sehr schön wie mit steigender Bildqualität OC kaum was bringt.

Nur 10fps durch +145mhz GPU und 640mhz Ram Takt. Dafür das die Leute solche Grafikkarten bekanntlich :biggrin: unter 2560x1600 nutzen bringt die neue Ultra-Version herzlich wenig.

Also erstmal solltest du lernen Tests genauer zu lesen, analysieren und dann auch richtig zu interpretieren. Du kannst hier nicht einfach einen absoluten FPS Wert herausnehmen. Das Ganze ist im Verhältnis zu den von der GTX erreichten Ausgangswerten zu sehen.

Und dann bin ich vor allem gespannt, welche tollen Vorteile uns deine Lieblingsfirma Mitte Mai bringen wird. Ich würd das ja hier eigentlich nicht ansprechen, da das Thema die 8800Ultra von Nvidia ist und nicht was ATI/AMD mit dem R600 abliefert. Aber gerade bei so einem Fanboy wie Dir kann ich es mir nicht verkneifen. Ich habe noch zu viele von deinen Aussagen aus den anderen Threads vor Augen die wir hier auch gern noch verlinken können.
Deine Lieblingsfirma wird arge Probleme haben eine 6 Monate alte GTX zu schlagen. Die Ultra wird wohl unerreicht bleiben, sonst wären die PR Mitteilungen ja bisher auch optimistischer gewesen. Insofern bin ich gespannt was ATI Mitte Mai zeigen wird. Länger Zeit haben sie dann auch nicht mehr. Vapoware will hier nämlich niemand sehen sondern nur Tatsachen.

Ich bin gespannt wie sie das lösen wollen. Das sieht mir eher nach einem totalen Scheitern im Enthusiastenbereich aus aber warten wir mal ab.
Jedenfalls ist Nvidia gut aufgestellt mit der Ultra soviel ist mal sicher.

=Floi=
2007-04-30, 21:47:22
der lüfter zieht von hinten auch noch (kalte) luft an

erklär mit mal die rechnung mit quad sli
1. wie das gehen soll?
2. wenn schon eine 8800GTS mit 320mb einbricht warum sollten dann nicht 2 ultra @ 720mhz bei 768mb limitieren? (2,5 fache rechenpower),
da ausgerechnet der G80 sowieso schon viel ram benötigt... :rolleyes:

Die gelbe Eule
2007-04-30, 21:58:37
Schöner Bolide, da muss ATi erstmal anchlegen.

Blaire
2007-04-30, 22:01:02
Sieht schon sehr lecker aus das Kärtchen, aber die Vernunft wird diesesmal siegen. :biggrin: Zumal eine 8900GTX vieleicht auch nicht mehr soweit weg ist.

deekey777
2007-04-30, 22:12:16
Schöner Bolide, da muss ATi erstmal anchlegen.
Und warum muss ATi da noch was nachlegen? :|

Gast
2007-04-30, 22:21:18
Und warum muss ATi da noch was nachlegen? :|
Richtig ATI muss erst was aufn markt werfen

gibt schon leute die merkwürdige fragen stellen omg

Gast
2007-04-30, 22:30:24
Die Verfügbarkeit wird nicht wie bei der 78GTX 512Mb sein, wird schon besser sein. Allerdings gibt es da auch unschöne Einschränkungen, mehr am 02.05 dann.

pXe
2007-04-30, 22:54:48
Wie siehts mit dem Idle Stromverbrauch aus? Hat sich da was getan?


pXe

deekey777
2007-04-30, 22:56:25
Richtig ATI muss erst was aufn markt werfen

gibt schon leute die merkwürdige fragen stellen omg
Was soll das denn? Frage lesen, denken, antworten.
Wie siehts mit dem Idle Stromverbrauch aus? Hat sich da was getan?


pXe
Unwahrscheinlich, aber ich würde die Reviews abwarten.
PS: Die Position des Lüfter ist nicht übel.

Gast
2007-04-30, 23:07:21
Was soll das denn? Frage lesen, denken, antworten.

Unwahrscheinlich, aber ich würde die Reviews abwarten.
PS: Die Position des Lüfter ist nicht übel.du bist echt ne nummer für sich!

erstens was bis jetzt von ati zu sehen war ist der ultra klar nicht gewaschen!
zweitens ati hatt nix aufm mark was auch nur in die nähe der gts kommt ergo stimmt die aussage da muss ati nachlegen!

du bist echt sehr merkwürdig in dem bezug.

da ati ihre next gen nicht im laden hatt muss ati was aufn markt bringen ist das so schwer?

wen du schon psotest post nicht son müll wie meinen ersten qoute und sowas noch als mod muss echt nicht sein son satz ist crap.

wen du da wenigstens noch ne erläuterrung bringen würdest aber doch nicht so

deekey777
2007-04-30, 23:18:09
Also mein lieber:
Schöner Bolide, da muss ATi erstmal anchlegen.

Entweder mischst du dich nicht ein oder du beantwortest für DGE meine Frage.
Und warum muss ATi da noch was nachlegen? :|
Hast du einen Test der 8800Ultra gesehen? Ja, einen. Na gut, es gibt seit dem Release der 8800Ultra zig Tests mit übertakteten 8800GTX (die wohl nie jemand gesehen hat?). Die X1950XTX hat gegen diese nur wenige Chancen. So weit, so gut.
Da hoffentlich jeder weiß, dass in spätestens zwei Wochen die neue Generation kommt, stellt sich die berechtigte Frage, was diese Behauptung "da muss ATi erstmal nachlegen" soll. Ohne die 8800Ultra muss ATi nichts "nachlegen"? Das wäre die logische Konsequenz.
Also regt dich mal ab und schreibe langsamer.

Gast
2007-04-30, 23:31:53
Also mein lieber:


Entweder mischst du dich nicht ein oder du beantwortest für DGE meine Frage.

Hast du einen Test der 8800Ultra gesehen? Ja, einen. Na gut, es gibt seit dem Release der 8800Ultra zig Tests mit übertakteten 8800GTX (die wohl nie jemand gesehen hat?). Die X1950XTX hat gegen diese nur wenige Chancen. So weit, so gut.
Da hoffentlich jeder weiß, dass in spätestens zwei Wochen die neue Generation kommt, stellt sich die berechtigte Frage, was diese Behauptung "da muss ATi erstmal nachlegen" soll. Ohne die 8800Ultra muss ATi nichts "nachlegen"? Das wäre die logische Konsequenz.
Also regt dich mal ab und schreibe langsamer.Einmischen naja redefreiheit und das recht zur freien entfaltung ist uns ja zum glück im grundgesetz zugesichert.

Ja habe ich aber ich habe ne x1950xtx und ne gtx also kann ich selbst mit ultra taktung messen.

selbst ohne ultra muss ati da nachlegen da die 1gb xtx nicht in 2 wochen sondern erst ca in 2 monaten kommt (kommen soll).

was möchtest du nun von mir?

Blutmaul
2007-05-01, 01:31:11
Benches einer zur Ultra übertakteten 8800GTX von Xbitlab:
http://www.xbitlabs.com/news/video/display/20070430143103.html

Cubitus
2007-05-01, 02:19:01
das war bestimmt kein großes Problem, ich denke die meisten GTX ,lassen sich auf den Takt der Ultra wenn nicht sogar höher bringen.

Meine 2 GTXen packen ja schon 630/1160
mit einer Wakü für die Karten geht da bestimmt noch mehr...
Die Temperatur, mit der Standard -Lüftsteuerung der Karten beträgt 80 Grad

Für mich ist die Ultra ein reines Prestige Objekt,
das den Aufpreis nicht rechtfertigt.

Gast
2007-05-01, 02:32:18
Ist doch mal wieder typische NVidia Verarsche. Das kennen wir doch irgendwo her, Nvidia zieht den armen Nerds wieder mal das Geld aus der Tasche.

Sowas Dreistes was sich Nvidia mit dem Ding wieder mal erlaubt, das ist echt nicht mehr normal.

Die sollen sich mal ein Beispiel an ATi nehmen, die müssen nicht ums Verrecken jedesmal eine neue Karte releasen, um ja vorne zu sein. Nvidia ist ein armer Verein.

Eine Karte, die die Welt nicht braucht!

LeChuck
2007-05-01, 10:16:33
Da kann man jetzt nur hoffen das die ohnehin schon schnelle GTX noch ein wenig im Preis fallen wird. Dann werde ich zuschlagen :)

=Floi=
2007-05-01, 12:10:28
imho ist die ultra doch nur die ganz normale kleine überarbeitung (GF3->TI500 GF4600->GF4800 etc.)

deekey777
2007-05-01, 12:47:44
Ist doch mal wieder typische NVidia Verarsche. Das kennen wir doch irgendwo her, Nvidia zieht den armen Nerds wieder mal das Geld aus der Tasche.

Sowas Dreistes was sich Nvidia mit dem Ding wieder mal erlaubt, das ist echt nicht mehr normal.

Die sollen sich mal ein Beispiel an ATi nehmen, die müssen nicht ums Verrecken jedesmal eine neue Karte releasen, um ja vorne zu sein. Nvidia ist ein armer Verein.

Eine Karte, die die Welt nicht braucht!
Niemand wird gezwungen, eine 8800Ultra zu kaufen, oder?
Und bevor man diese Karte als unnötig oder Verarsche abstempelt, sollten aussagekräftige Tests abgewartet werden. Ich habe das Gefühl, dass in ihr (8800Ultra) mehr steckt und dieses "mehr" herausgeholt werden kann.

Gibt's bei nVidia eigentlich Overdrive?

dargo
2007-05-01, 12:50:29
Gibt's bei nVidia eigentlich Overdrive?
Nö. :)

Gast
2007-05-01, 12:52:43
Die sollen sich mal ein Beispiel an ATi nehmen, die müssen nicht ums Verrecken jedesmal eine neue Karte releasen, um ja vorne zu sein. Nvidia ist ein armer Verein.

Eine Karte, die die Welt nicht braucht!

Ne müssen Sie nicht? Was war das dann mit der X1900XT? Die kam kurz nach der X1800XT. Das ist Verarsche und nicht das was mit der Ultra passiert.
Die 8800GTX ist seit 6 Monaten auf dem Markt. Da ist es normal, dass irgendwann nachgelegt wird. Die X1800XT war grad mal 2 Monate richtig kaufbar und schon kam die X1900XT. Da wurde jeder X1800XT Käufer so richtig verarscht.
Aber so ist es dann, wenn man seine Termine nicht halten kann und so verspätet auf den Markt kommt.
Ich glaube du bist nur so ein Whiner, den es ankotzt, dass ATI es wahrscheinlich nicht schaffen wird vorn zu sein und Nvidia auf Grund des immensen Zeitvorteils sich ATI so zurecht legen kann, wie sie es wollen.
Es kommt ja auch nicht von Ungefährt, dass ATI Verluste macht und Nvidia Rekordgewinne in der gesamten Unternehmensgeschichte schreibt.

deekey777
2007-05-01, 12:53:09
Nö. :)
Wird Zeit einzuführen. :devil:

dildo4u
2007-05-01, 12:55:22
Es wird darauf hinauslaufen das es so gut wie keine "normale" Ultra geben wird.Ich schätze XFX und BFG werden ihre Ultra gleich mit 650mhz Core bringen und gar keine langsammere anbieten.Auch von MSI und Asus gibts ja mitlerweile schon OC Versionen von GTX Karten wär ja unsinnig wenn die dann schneller wären als die Ultra also wirds auch da keine Ultra mit 612mhz Core geben.

http://geizhals.at/deutschland/a238786.html

http://geizhals.at/deutschland/a238782.html

http://geizhals.at/deutschland/a232026.html

http://geizhals.at/deutschland/a243569.html

http://geizhals.at/deutschland/a237866.html

Gast
2007-05-01, 12:56:24
Sieht schon sehr lecker aus das Kärtchen, aber die Vernunft wird diesesmal siegen. :biggrin: Zumal eine 8900GTX vieleicht auch nicht mehr soweit weg ist.

Also von einer 8800GTX auf ne Ultra zu gehen ist ja auch Käse. Du hast ja nun eine Top Karte und mit der schon Spass gehabt. Aber wer von G7x oder R5x kommt, für den ist sie natürlich eine super Wahl, wenn er Enthusiast ist. Allerdings kann es auch sein, dass die GTX dadurch nochmal günstiger wird, dann sollte man eventuell auch zu der greifen. In jedem Fall wird es wohl sehr wahrscheinlich so sein, dass Nvidia mit der GTX und Ultra den oberen Preisbereich dominieren wird.

Bin echt mal gespannt ob die XTX kommt oder doch verschoben wurde. Das wäre dann fast 1 Jahr Nvidia High End Dominanz

AnarchX
2007-05-01, 12:58:37
Nö. :)

Inoffiziell aber schon:
http://img241.imageshack.us/img241/9484/ocyu2.png
(Und das schon ewig, ist FW66.xx für B G&E;))

dargo
2007-05-01, 13:45:37
Wird Zeit einzuführen. :devil:
Wozu? Ich kann doch selbst übertakten. ;)

Inoffiziell aber schon:
http://img241.imageshack.us/img241/9484/ocyu2.png
(Und das schon ewig, ist FW66.xx für B G&E;))
Ich dachte es geht hier um den G80. :|

AnarchX
2007-05-01, 14:03:34
Wozu? Ich kann doch selbst übertakten. ;)

Eben für die User die nicht so bewandert sind die 2 Regler zu verschieben und Stabiltätstests zu machen. ;)


Ich dachte es geht hier um den G80. :|
Und ich um die generellen Bestrebungen von NV in diese Richtung.
Aber im neuen CP fehlt diese Option AFAIK oder?

dargo
2007-05-01, 14:14:03
Aber im neuen CP fehlt diese Option AFAIK oder?
Ich habe nichtsdergleichen gefunden.

deekey777
2007-05-01, 14:36:11
Wozu? Ich kann doch selbst übertakten. ;)

Wie rückständig. :wink: :biggrin:
Das wäre bei der Ultra, die kaum schneller läuft als die 8800GTX, ein Pluspunkt, wenn diese werksmäßig bis 5-7 % übertaktet wird.

=Floi=
2007-05-01, 14:45:14
naja kommen wir jetzt nich ein bischen zu starkt OT
wenn ich die karte werksseitig mit den taktraten kaufe dann garantiert mir der hersteller 100%ige stabilität

der test kann positiv verlaufen aber wenn die karte in extremsituationen zu heiß wird kann sie trotzdem abstürzen

ich dachte gestern wäre der launchtag gewesen aber keine ati x2900xt und keine 8800ultra...

Gast
2007-05-01, 14:47:22
Ich habe nichtsdergleichen gefunden.

Ich glaub dafür muß NTune installiert sein.

yardi
2007-05-01, 15:17:17
Wann soll das Kärtchen denn hier verfügbar sein?

Gast
2007-05-01, 20:25:51
Morgen ist Paperlaunch. Mitte Mai Release.

AnarchX
2007-05-01, 20:44:56
Es scheint wohl der 0.83ns GDDR3 nicht bei allen Versionen zum Einsatz zu kommen, PCPOP zeigt eine 8800Ultra mit Referenztakt die nur 1.0ns GDDR3 verwendet:
http://www.pcpop.com/doc/0/192/192355.shtml

Und noch ein Unterschied:
Auf dieser Karte sitzt ein G80-300-A2 und nicht wie bei der XFX ein G80-450-A3.

:|

Gast
2007-05-01, 21:05:37
Ja, XFX verwendet nur bei der XXX 0.8er-RAM. Zur GPU kann ich nichts sagen.

AnarchX
2007-05-01, 21:27:14
Ja, XFX verwendet nur bei der XXX 0.8er-RAM. Zur GPU kann ich nichts sagen.

Da wird man wohl für die "wahre" Ultra mehr als 699€ zahlen müssen...

btw.

8800Ultra Review @ Hardspell (http://www.hardspell.com/doc/hardware/36902.html) Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hardspell.com%2Fdoc%2Fhardware%2F36902.html&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

Superheld
2007-05-01, 21:29:51
da steht 1600 bei den Shadern:|

AnarchX
2007-05-01, 21:31:27
da steht 1600 bei den Shadern:|

Jo, fragt sich nun was richtig ist, naja in ein paar Stunden wissen wir es. ;)

Auch hier wird von einem redesigntem G80 gesprochen, interessant...

edit: Die Seite scheint wohl gerade überrannt zu werden.

laser114
2007-05-01, 21:34:47
Auch hier wird von einem redesignten G80 gesprochen, interessant...

Also nichts selektiert, sondern man kann mit einer akzeptablen Verfügbarkeit rechnen?
Grade das 1,0 ns Speicher inm Normfall verwendet wird spricht ja auch dafür, wenn es 0,83ns-Speicher gibt...

Superheld
2007-05-01, 21:40:37
bei mir zeigt er nicht die Benchmark Bilder an;(

AnarchX
2007-05-01, 21:42:18
bei mir zeigt er nicht die Benchmark Bilder an;(

Wird wohl an ein paar Millionen Chinesen liegen, die gerade die Seite abrufen. :biggrin:

edit:
http://img511.imageshack.us/img511/843/15dd30bcb6904bfa9f74494ii6.jpg
http://img241.imageshack.us/img241/1313/870c1144585946f9b4ffb1bkp2.jpg
http://img511.imageshack.us/img511/1002/5774f2b89554478cba6e072bd8.jpg
... gibt noch mehr, aber die Site ist nun offensichtlich tot.

Die 550MHz bei der GTX sind offensichtlich ein Fehler. :|

Coda
2007-05-01, 22:27:26
Hier sieht man sehr schön wie mit steigender Bildqualität OC kaum was bringt.
Was laberst du? Genau da bringt es am meisten.

Gouvernator
2007-05-01, 22:43:29
+10 fps rechtfertigt in meinen Augen nicht den ganzen Hype drumherum.
Das bisschen OC ist nur ein kleiner Tropfen am heissen Stein - absolut nicht erwähnenswert. Da trommelt Nvidia einfach nur auf der PR Trommel und alle gucken :eek: Das ist lächerlich ehrlich.

Ich denke nicht Prozent ich sehe nur FPS Werte. Wenn eine Graka in hohen Einstellungen +25fps im Vergleich zu anderen bringt dann zählt das was. Prozentangaben interessieren mich nicht sind eher nur PR oder wissenschaftliches Geblubber.

Wirklichen Nutzen hat man als anspruchsvoller User von den neuen Ultra nicht.

Tjell
2007-05-01, 22:48:02
+10 fps rechtfertigt in meinen Augen nicht den ganzen Hype drumherum.
Das bisschen OC ist nur ein kleiner Tropfen am heissen Stein - absolut nicht erwähnenswert. Da trommelt Nvidia einfach nur auf der PR Trommel und alle gucken :eek: Das ist lächerlich ehrlich.
Da ist Marketing, welches 3dfx seinerzeit nicht im geringsten beherrschte.

Nicht die Qualität der Trommel entscheidet darüber, ob etwas gehört wird, sondern wieviele Trommeln ertönen. Das Gehörte muss dann auch nicht wahr oder wichtig sein.

sulak
2007-05-01, 22:54:23
Interessant werden doch erst die OC Versionen und die Tests, ab 650/1560 MHz fängt doch die Karte erst an zu fliegen. Frag mich wie in manchen Vorabberichten die Karte nen Skalarunit Takt von +1,8GHz erreicht hat, bei nem festen Verhältnis von 2,4 zum GPU Takt macht das 750MHz, und das dürfte sich auch mit Wasser nicht mehr Kühlen lassen.
Aber ist ja ein neuer Step im G80 (A3 nun) vieleicht geht ja was.

Gouvernator
2007-05-01, 23:00:09
Interessant werden doch erst die OC Versionen und die Tests, ab 650/1560 MHz fängt doch die Karte erst an zu fliegen. Frag mich wie in manchen Vorabberichten die Karte nen Skalarunit Takt von +1,8GHz erreicht hat, bei nem festen Verhältnis von 2,4 zum GPU Takt macht das 750MHz, und das dürfte sich auch mit Wasser nicht mehr Kühlen lassen.
Aber ist ja ein neuer Step im G80 (A3 nun) vieleicht geht ja was.


Ich verglich immer mit 720mhz Version.
Mit Wasser geht villeicht etwas aber da kann man nicht genau sagen... Meist gehen bei solchen dicken dingern meist was anderes als GPUs und Kühlung ans Limit.

sulak
2007-05-01, 23:14:22
Weis nicht mehr wo, glaube bei Anandtech war mal eine News das Asus mit dem alten G80 Stepping (A2) und OC Experimentiert hat. 630/1800 aus dem Chip gequetscht, GPU ging weiter aber ab 2GHz Skalarunit Takt war es überhaupt nicht Kühlbar also hat man das Verhältnis abgesenkt.

Warum jetzt die Ultra nur 612MHz GPU Takt haben soll und nich 650MHz (und das mit neuem Stepping)..., naja vieleicht brauch man auch nicht mehr Takt um Gleichstand mit der R600XTX zu haben. Denn zu mehr ist die Ultra ja nicht da. Bin auf den Preis gespannt, 599$-699$ eher weniger würde ich Tippen. Woher die 900$ kamen, weis der Geier, unrealistisch.

deekey777
2007-05-02, 01:04:22
http://www.ixbt.com/video3/g80-10.shtml
Wohl das erste Review der Ultra, auch wenn in Russisch.
Die Typen testen tatsächlich im HQ-Modus 8x (ich hoffe 8xQ) und Transparenz-MSAA gegen 6xAA und adaptives AA. :crazy2:

€: Hehe, das gibt Stress. Der Artikel ist weder offiziell verlinkt noch angekündigt, ein Leser hat irgendwie die richtige URL rausgefunden (was bei iXBT eigentlich nicht schwer ist, da die Artikel zu einer Grafikkarte immer nacheinander zusammenhängend gehostet werden), und der iXBT-Cheffe ist darüber nicht erfreut. ;D

Interessant sind die Werte der Ultra vs. EVGA 8800GTC OC (625/1450/1000): Dort, wo es auf die Texel- und Pixel-Füllrate ankommt, liegt die EVGA 8800GTX OC um paar Prozent vorn, kommt es eher auf die Pixelshader-Leistung (die Ultra hat ja deutlich höheren Shaderclock), liegt die Ultra vorn - und das zT sehr deutlich (siehe SC3).

cl55amg
2007-05-02, 01:10:05
Übersetzung:

http://translate.google.com/translate?u=http%3A%2F%2Fwww.ixbt.com%2Fvideo3%2Fg80-10.shtml&langpair=ru%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

Nightspider
2007-05-02, 01:17:31
Mit Hardcore Luftkühlung läuft meine 8800 GTX auch auf 650 ;D
Glaube kaum, das an dem G80 Chip etwas redesigned ist.
Zumal 612Mhz wirklich jede 8800 GTX schafft. :D

Gast
2007-05-02, 07:13:56
Ich denke nicht Prozent ich sehe nur FPS Werte. Wenn eine Graka in hohen Einstellungen +25fps im Vergleich zu anderen bringt dann zählt das was. Prozentangaben interessieren mich nicht sind eher nur PR oder wissenschaftliches Geblubber.


Höre doch endlich auf diesen Mist zu erzählen.

AnarchX
2007-05-02, 07:14:00
Mit Hardcore Luftkühlung läuft meine 8800 GTX auch auf 650 ;D
Glaube kaum, das an dem G80 Chip etwas redesigned ist.


Nur schafft die XFX XXX 720MHz mit der Defaul-Kühlung der Ultra, die doch gar nicht so Hardcore ist. ;)
Zudem ist es definitiv ein etwas anderer Core G80-450-A3.

Und nicht vergessen, dass die Ultra ein Taktverhältnis von ROP/TMUs zu Shader von 1:2,5 hat und nicht wie die GTX 1:2,34.

Also existieren doch hier schon ein paar Unterschiede.

btw.

Warum ist die Ultra bei iXBT in FEAR AA/AF 2560 50% schneller? :|

Die gelbe Eule
2007-05-02, 07:44:13
http://img224.imageshack.us/img224/267/ultrava6.th.jpg (http://img224.imageshack.us/my.php?image=ultrava6.jpg)

Wurde gerade auf der WSVG China an Zuschauer verlost, also kann die Karte gar nicht so rare sein. Immerhin existiert sie in der Öffentlichkeit ;)

AnarchX
2007-05-02, 08:20:35
NVIDIA GeForce 8800 Ultra: The Shadow Warrior @ hardwarezone (http://hardwarezone.com/articles/view.php?cid=3&id=2251)

Von der niedrigen TDP sieht man aber nichts...

Gast
2007-05-02, 08:23:51
Von der niedrigen TDP sieht man aber nichts...

Sie hat auch keine niedrige TDP als die 8800GTX.
Die Angabe der 8800GTX war nur vollkommen an der Realität vorbei.

James Ryan
2007-05-02, 08:39:53
Weiß hier jemand wann heute der "offizielle" Launch ist? 15 Uhr wie immer?
Interessant ist, dass sich die recht niedrigen Taktraten scheinbar bestätigt haben, reicht das gegen eine HD 2900 XTX? :confused:

MfG :cool:

Die gelbe Eule
2007-05-02, 08:44:41
In China war schon Launch, XFX hat sie dort persönlich vorgestellt.

Gast
2007-05-02, 08:45:32
Es wird wohl nie eine XTX im freien Handel zu kaufen geben.
AMD spricht bei der XT selbstnur vom "Preis/Leistungssieger", daher wird sich die Leistung zwischen der GTS und der GTX ansiedeln. Etwas schnelleres als die Ultra (bzw. die übertakteten GTX) wird man bis zum Ende des Jahres nicht bekommen.

SKYNET
2007-05-02, 08:55:04
imho ist die ultra doch nur die ganz normale kleine überarbeitung (GF3->TI500 GF4600->GF4800 etc.)


was war an der 4800er bitte anders als an der 4600er? NIX!!!

ausser das sie agp 8x hatte... was sie auch net schneller machte... :rolleyes:

Coda
2007-05-02, 09:49:13
Eben. An der G80 Ultra ist ja auch nichts anders ;)

Gast
2007-05-02, 10:57:12
Du weist ganz genau was er meinte ;)

AnarchX
2007-05-02, 11:46:42
http://img181.imageshack.us/img181/6258/30002885uh8.gif
http://img181.imageshack.us/img181/820/14141601ba2.gif
http://img181.imageshack.us/img181/2100/34421411zb7.gif

Zudem erreicht diese XFX XXX mit ihren 650/1620/1130MHz nach 3 Durchläufen 3DM06 Canyon Flight nur maximal 70°C:
http://img181.imageshack.us/img181/7065/68827324ls1.gif

Quelle (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcshow.net%2Ftest%2FTestinfo.jsp%3Fid%3D221988%26pa ge%3D13&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

btw.

iXBT hat wohl ihr Leck bemerkt. :D

Gast
2007-05-02, 11:50:55
+10 fps rechtfertigt in meinen Augen nicht den ganzen Hype drumherum.
Das bisschen OC ist nur ein kleiner Tropfen am heissen Stein - absolut nicht erwähnenswert. Da trommelt Nvidia einfach nur auf der PR Trommel und alle gucken :eek: Das ist lächerlich ehrlich.

Ich denke nicht Prozent ich sehe nur FPS Werte. Wenn eine Graka in hohen Einstellungen +25fps im Vergleich zu anderen bringt dann zählt das was. Prozentangaben interessieren mich nicht sind eher nur PR oder wissenschaftliches Geblubber.

Wirklichen Nutzen hat man als anspruchsvoller User von den neuen Ultra nicht.


full ack

Gast
2007-05-02, 11:52:22
Ja hier um 15:00 und AnarchX das sit doch das Bild aus der NDA Pressemail *g*

Godmode
2007-05-02, 13:38:23
Auf CB ist es heute verdammt ruhig, ich denke da kommt ein 8800 Ultra Artikel! ;)

James Ryan
2007-05-02, 13:45:25
Eben. An der G80 Ultra ist ja auch nichts anders ;)

Da wäre ich mir nicht so sicher, ich denke der G80 wurde etwas überarbeitet um mehr Takt zu ermöglichen.
Dafür spricht das "A3" statt "A2" und die deutlichen höheren Übertaktungsergebnisse.
Aber genaues werden wir wohl erst später am Tage erfahren!

MfG :cool:

Gast
2007-05-02, 13:50:33
Hi .... Ist der enorme 2D-Idle Verlust bei der A3-Revision des G80 nun behoben ?

Weiß da schon jemand etwas zu ?

MfG

Anarchy-HWLUXX
2007-05-02, 13:55:46
Hi .... Ist der enorme 2D-Idle Verlust bei der A3-Revision des G80 nun behoben ?

Weiß da schon jemand etwas zu ?

MfG


Bei Hardwarezone im Review ist davon nichts zu sehen ...

Godmode
2007-05-02, 13:56:37
Hi .... Ist der enorme 2D-Idle Verlust bei der A3-Revision des G80 nun behoben ?

Weiß da schon jemand etwas zu ?

MfG

Nein leider, irgendwo weiter oben gibts dazu ein Chart. Ich denke wir werden das nicht mehr sehen, wird wohl ne Designentscheidung gewesen sein.

LovesuckZ
2007-05-02, 13:59:20
Der hohe IDLE - Verbrauch ist kein Problem mit den Chips.
Anscheinend sträubt sich nVidia auch auf dem Desktopmarkt die Chips bezüglich Taktrate und Spannung anzupassen.

James Ryan
2007-05-02, 14:14:33
Anscheinend sträubt sich nVidia auch auf dem Desktopmarkt die Chips bezüglich Taktrate und Spannung anzupassen.

Anscheinend gibt es Probleme wegen des hohen Taktunterschiedes in der GPU von 575 zu 1350 MHz und es blieb NVIDIA gar nichts anderes übrig als den 2D-Modus fallen zu lassen.
Immerhin bot NVIDIA als erster Hersteller lange vor ATi überhaupt einen 2D-Modus an (offiziell mit der Gf FX 5800 Ultra).

MfG :cool:

Gast
2007-05-02, 14:17:14
Welche Probleme sollte es geben? Der Shadertakt ist abhängig vom Coretakt. Und da 500/1200MHz keine Probleme darstellen, hätte man bei der 8800GTX schonmal einen 2D Modus.
Ich wette, dass selbst 200/469(sollte so hinhauen) stellt keine Probleme dar.

Gast
2007-05-02, 14:18:41
Hmm und nun geht es mit zwei Verschiedenen Ultra´s los....einmal das offizielle und einmal nochmal was schnelleres auf die jeweiligen Brands bezogen.....

Godmode
2007-05-02, 14:20:23
Welche Probleme sollte es geben? Der Shadertakt ist abhängig vom Coretakt. Und da 500/1200MHz keine Probleme darstellen, hätte man bei der 8800GTX schonmal einen 2D Modus.
Ich wette, dass selbst 200/469(sollte so hinhauen) stellt keine Probleme dar.

Wenn es so einfach wäre, dann hätten sie das wohl schon längst implementiert. Immerhin wird der hohe Idle Stromverbrauch in vielen Reviews zu Recht kritisiert! Ich bin leider kein Hardwareentwickler, von daher hab ich keine Ahnung was dabei Probleme machen könnte.

Gast
2007-05-02, 14:23:08
Wenn es so einfach wäre, dann hätten sie das wohl schon längst implementiert. Immerhin wird der hohe Idle Stromverbrauch in vielen Reviews zu Recht kritisiert! Ich bin leider kein Hardwareentwickler, von daher hab ich keine Ahnung was dabei Probleme machen könnte.

ich kenne keine Usermeldungen, dass die Untertaktung im 2D Modus irgendwelche Probleme bereitet hätte - ebenso das hochtakten in den 3D Modus.
nVidia ist einfach nur Faul oder will seine Produktesegmente (Desktop <> Mobile) deutlich abgrenzen...

James Ryan
2007-05-02, 14:24:54
Eine einfache Taktabsenkung bringt verhältnismäßig wenig, in einem echten 2D-Modus müsste die GPU-Spannung auch gesenkt werden!
Und genau das scheint beim G80 Probleme zu machen, daher hat NVIDIA den 2D-Modus komplett weg gelassen.

MfG :cool:

Anarchy-HWLUXX
2007-05-02, 14:32:48
Hmm und nun geht es mit zwei Verschiedenen Ultra´s los....einmal das offizielle und einmal nochmal was schnelleres auf die jeweiligen Brands bezogen.....

Sparkle hat laut Inq neben der normalen die OCed TEC cooled version mit den hohen 650/2250 Takten ... mmmmhhhhhh ...

Gast
2007-05-02, 14:38:44
Eine einfache Taktabsenkung bringt verhältnismäßig wenig, in einem echten 2D-Modus müsste die GPU-Spannung auch gesenkt werden!
Und genau das scheint beim G80 Probleme zu machen, daher hat NVIDIA den 2D-Modus komplett weg gelassen.

MfG :cool:

Eine Spannungssenkung sollte auch keine Probleme machen, wie kommst du darauf? Die Taktabsenkung bringt schon sehr viel, halber Takt = halbe Verlustleistung.

LovesuckZ
2007-05-02, 14:56:49
Na hoffentlich herrscht nicht schon wieder ein NDA, welches erst um 20 Uhr fällt...

Henroldus
2007-05-02, 15:03:00
CB review der 8800 Ultra ist online:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/
[News]

High Quality AF: Off bei ATI Karten???
ich glaub es hackt, war das schon immer so?

DrumDub
2007-05-02, 15:03:14
Eine Spannungssenkung sollte auch keine Probleme machen, wie kommst du darauf? Die Taktabsenkung bringt schon sehr viel, halber Takt = halbe Verlustleistung. sorry, aber das ist totaler quark. siehe auch: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5434875#post5434875

Mark3Dfx
2007-05-02, 15:07:11
http://www.heise.de/newsticker/meldung/89150

dildo4u
2007-05-02, 15:12:04
So laut CB liegt die Ultra bei 699€.Also nix mit den Spekulierten 999$=999€.

LovesuckZ
2007-05-02, 15:14:17
Man sieht sehr eindeutig, dass der G80 (wahrscheinlich das gesamte Design) überhaupt nicht an der Speicherbandbreite liegt. Der Mehrgewinn bewegt sich in fast allen Fällen am Mehrtakt der Shader.

Henroldus
2007-05-02, 15:15:01
So laut CB liegt die Ultra bei 699€.
und damit im preis/leistungsindex gaanz weit hinten.
nen typische tombmankarte halt, die sonst niemand braucht ...

laser114
2007-05-02, 15:17:07
Laut Heise:

Die Lieferbarkeit bezeichnen Händler als gut.

Also heißt das nicht, das 699€ unbedingt lange bleiben...

@Henroldus: Gegen der G7x machte das ja Sinn. Und jetzt nutzt CB wahrscheinlich die bereits erhaltenen Ergebnisse der alten Karten weiter. Die werden wohl kaum alle Karten nochmal durch alle Benches schicken ... oder? Zumindest spricht der 7.1 Treiber dafür.
Und beim nächsten Update (Treiber, getestete Spiele) muss man dann halt sehen, ob der Vergleich alt <-> alt noch wichtiger als alt <-> neu ist. Denn z. Z. fehlt ja einfach noch irgendwelche Konkurrenz auf ATI-Seite.

Raff
2007-05-02, 15:17:17
CB review der 8800 Ultra ist online:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/
[News]

High Quality AF: Off bei ATI Karten???
ich glaub es hackt, war das schon immer so?

Sehr gut! Damit ist die BQ fast identisch.

Argh, Lötzinn. Komplett verlesen. Ich dachte "A.I. Off" ... Wunschdenken.

MfG,
Raff

dildo4u
2007-05-02, 15:20:50
High Quality AF: Off bei ATI Karten???
ich glaub es hackt, war das schon immer so?
Läuft der G80 nicht immer mit WUAF?Wie können die dann die ATIs ohne HQ AF benchen?

Henroldus
2007-05-02, 15:21:39
Sehr gut! Damit ist die BQ fast identisch.

MfG,
Raff
:confused:
du meinst zwischen der 7er serie und den ATI-Karten.
die 8er Serie von nvidia filtert dann aber besser(und somit teurer) und das ist doof ums mal trivial zu sagen

Gast
2007-05-02, 15:24:17
CB review der 8800 Ultra ist online:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/
[News]

High Quality AF: Off bei ATI Karten???
ich glaub es hackt, war das schon immer so?Leider nicht aber, somit haben sie endlich beide mit der bestmöglichen qualität getestet (so wie es sich gehört)!

Der preis ist schon ok. früher lagen die besten karten einer serie zu begin immer um 1200-1399 DM.

In ca 2 wochen geht sie auf 550-599 Euro ;)

Godmode
2007-05-02, 15:24:35
:confused:
du meinst zwischen der 7er serie und den ATI-Karten.
die 8er Serie von nvidia filtert dann aber besser(und somit teurer) und das ist doof ums mal trivial zu sagen

Und trotzdem ist diese Ultra teilweise mehr als zweimal so schnell wie ne X1950XTX, von der popeligen 7900GTX gar nicht erst zu reden. ;D Es wird Zeit das der R600 aufkreuzt, damit dem G80 endlich was entgegensetzt wird!

Raff
2007-05-02, 15:26:32
:confused:
du meinst zwischen der 7er serie und den ATI-Karten.
die 8er Serie von nvidia filtert dann aber besser(und somit teurer) und das ist doof ums mal trivial zu sagen

G8x-HQ und R5x0 mit A.I. Off unterscheiden sich in der AF-Qualität nur minimal. Der Unterschied liegt beim Einbruch ... eine Radeon verliert idR mehr Fps durch A.I. Off als ein G80 mit HQ.

Ich habe mich oben aber verlesen. Ich laß "A.I. Off".

MfG,
Raff

LovesuckZ
2007-05-02, 15:27:59
Und trotzdem ist diese Ultra teilweise mehr als zweimal so schnell wie ne X1950XTX, von der popeligen 7900GTX gar nicht erst zu reden. ;D Es wird Zeit das der R600 aufkreuzt, damit dem G80 endlich was entgegensetzt wird!

Und würde man bei allen Karten volle trilineare Filterung auf allen Stages einstellen, wäre die GTX sowie die Ultra nochmal deutlich weiter vorne.
Schade eigentlich, dass sich kaum eine Seite dazu traut.

Gast
2007-05-02, 15:29:05
Leider nicht aber, somit haben sie endlich beide mit der bestmöglichen qualität getestet (so wie es sich gehört)!

Der preis ist schon ok. früher lagen die besten karten einer serie zu begin immer um 1200-1399 DM.

In ca 2 wochen geht sie auf 550-599 Euro ;)

Upps verguckt dachte AI off nicht AF aber habe gerade auch gesehen das die 8800 "nur" im qualitäts modus lief und nicht High Qualiti Modus

hmmm naja egal test für die katz^^

dildo4u
2007-05-02, 15:29:35
http://www.heise.de/newsticker/meldung/89150
"Der Grafikchip arbeitet mit einer Taktfrequenz von 612 MHz und einem Shader-Takt von 1500 MHz. Den Speicher stellt Nvidia auf 1080 MHz ein. Gegenüber der bislang schnellsten Variante – GeForce 8800 GTX (500/1200/900 MHz) – bedeutet dies eine Steigerung der Taktfrequenzen um gut 20 Prozent"

:rolleyes: Heise sollte sich solche "News" sparen wenn sie kein Plan von der Materie haben.

AnarchX
2007-05-02, 15:32:04
Die Karte bei CB ging nicht so zu übertakten gut, Guru3D erreicht hingegen bei ihrem Sample 690MHz.

Superheld
2007-05-02, 15:32:43
du hast noch was überlesen

"Allerdings sind die Ultra-Karten mit 29 Zentimetern noch einmal rund zwei Zentimeter länger als GTX-Karten":P

dildo4u
2007-05-02, 15:34:19
[News]

Bit-tech Review.

http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/1.html

http://www.bit-tech.net/content_images/nvidia_geforce_8800_ultra/es4-1920-4x-16x.png

http://www.bit-tech.net/content_images/nvidia_geforce_8800_ultra/supcom-oc.png

Guru 3D Review

http://www.guru3d.com/article/Videocards/428/

Anandtech Review

http://anandtech.com/video/showdoc.aspx?i=2979

Firingsquad 8800 Ultra Performance Preview

http://firingsquad.com/hardware/nvidia_geforce_8800_ultra/

DrumDub
2007-05-02, 15:35:06
:rolleyes: Heise sollte sich solche "News" sparen wenn sie kein Plan von der Materie haben. manfred bertuch halt... der nächste fehler in dem kurzen text:
Allerdings sind die Ultra-Karten mit 29 Zentimetern noch einmal rund zwei Zentimeter länger als GTX-Karten, was in engen Gehäusen den Einbau erschwert, wenn nicht sogar unmöglich macht.


und richtig bei CB:
Das PCB ist elektrisch wie optisch von vorne bis hinten identisch mit dem einer GeForce 8800 GTX. Die Platine ist ebenso schwarz gefärbt und misst eine Länge von 28 cm. http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/3/

Mumins
2007-05-02, 15:36:42
Und trotzdem ist diese Ultra teilweise mehr als zweimal so schnell wie ne X1950XTX, von der popeligen 7900GTX gar nicht erst zu reden. ;D Es wird Zeit das der R600 aufkreuzt, damit dem G80 endlich was entgegensetzt wird!

Anno 1701, Company of Heroes und Call of Juarez mögen die Nvidia Karten aber gar nicht.

LovesuckZ
2007-05-02, 15:42:06
Company of Heroes [...] mögen die Nvidia Karten aber gar nicht.

Man muss sich nur die Minimumframes ansehen:
http://pcper.com/article.php?aid=402&type=expert&pid=7

So schlecht ist die Karte nicht.

Godmode
2007-05-02, 15:43:47
Anno 1701, Company of Heroes und Call of Juarez mögen die Nvidia Karten aber gar nicht.

Das hab ich mich auch schon gewundert! Wird AA/AF aktiviert brechen die G80 ziemlich stark ein, vor allem bei ANNO ist das recht extrem!

edit: Bei Anno brechen eigentlich alle Karte ein!

dildo4u
2007-05-02, 15:44:48
Anno 1701, Company of Heroes und Call of Juarez mögen die Nvidia Karten aber gar nicht.

Man muss um sich ein guten Eindruck zu verschaffen natürlich ein paar Reviews angucken hier sinds z.B 30 zu 8 bei den minfps.

http://www.bit-tech.net/content_images/nvidia_geforce_8800_ultra/coh-2560-0x-16x.png

http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/4.html

LovesuckZ
2007-05-02, 15:46:50
edit: Bei Anno brechen eigentlich alle Karte ein!

Sie testen mit TSAA.

Slipknot79
2007-05-02, 15:58:12
Hat schon jemand das Ultra-BIOS auf ne normale GTX geflasht? :redface:

Godmode
2007-05-02, 16:03:28
Hat schon jemand das Ultra-BIOS auf ne normale GTX geflasht? :redface:

Wüßte ich nichts, aber du kannst ja gleich mal damit anfangen!;D

Slipknot79
2007-05-02, 16:04:27
Wüßte ich nichts, aber du kannst ja gleich mal damit anfangen!;D

Bin heute etwas schüchtern :redface: , ladys first. :)

AnarchX
2007-05-02, 16:13:46
Der Tester von PCShow.net behauptet (http://we.pcinlife.com/thread-758454-1-1.html), dass die XFX 8800Ultra XXX mit 650/1620/1130MHz 19.999 CNY kosten soll. :eek:
Wer will kann das ja mal umrechnen... ;)

Razor
2007-05-02, 16:27:00
Der Tester von PCShow.net behauptet (http://we.pcinlife.com/thread-758454-1-1.html), dass die XFX 8800Ultra XXX mit 650/1620/1130MHz 20.000 CNY kosten soll. :eek:
Wer will kann das ja mal umrechnen... ;)
Derzeitiger Kurs: 1 zu 0,0956
http://waehrungen.onvista.de/snapshot.html?ID_CURRENCY_FROM=CNY&ID_CURRENCY_TO=EUR

Bei 20T sind das mal eben 1912€.
Nicht grad' realisitisch würd' ich sagen...

Mahr als 650€ dürfte das Teil nicht kosten.
Was allerdings Angebot und Nachfrage daraus machen?
Who knows...

Razor

Gast
2007-05-02, 16:31:31
Ahja wird halt ein Fehler sein.

UVP der Ultra ist ja 699$..

Gruß

AnarchX
2007-05-02, 16:41:00
UVP der Ultra ist ja 699$..


Er liegt bei $825-825, was dann etwa 699€ sind. ;)

dildo4u
2007-05-02, 16:42:42
[News]

Übertaktete GeForce 8800 Ultra von Sparkle

"Der Chiptakt beim neuen Sparkle-Ableger wurde gegenüber den Referenzdesign um 38 MHz erhöht und beträgt demzufolge 650 MHz. Der Speicher läuft anstelle von 1.080 MHz bei der „Calibre P880 ULTRA“ mit 1.125 MHz, was effektive 2.250 MHz ergibt. Den Shadertakt gibt Sparkle per Pressemitteilung allerdings nur mit 1.500 MHz an, während das Referenzdesign auf 1.512 MHz setzt. Für das Plus an weiterer Geschwindigkeit bedarf es ebenfalls einer aufgewerteten Kühllösung."

http://pics.computerbase.de/1/7/9/4/7/1.jpg

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/mai/uebertaktete_geforce_8800_ultra_sparkle/

reunion
2007-05-02, 16:44:31
NVIDIA GeForce 8800 Ultra: The Shadow Warrior @ hardwarezone (http://hardwarezone.com/articles/view.php?cid=3&id=2251)

Von der niedrigen TDP sieht man aber nichts...

Wie schon gesagt: War zu erwarten. Die Leistungsaufnahme steigt nunmal linear mit der Taktrate und quadratisch mit der Spannung. Aber immerhin hat nV ein neues Respin gemacht, sodass man den Chip wesentlich höher takten kann als noch die GTX.

AnarchX
2007-05-02, 16:44:40
@dildo4u:
Das ist doch dieser tolle(laut und extrem stromfressend) Peltier-Kühler... X-D

Henroldus
2007-05-02, 16:45:45
[News]

Übertaktete GeForce 8800 Ultra von Sparkle

"Der Chiptakt beim neuen Sparkle-Ableger wurde gegenüber den Referenzdesign um 38 MHz erhöht und beträgt demzufolge 650 MHz. Der Speicher läuft anstelle von 1.080 MHz bei der „Calibre P880 ULTRA“ mit 1.125 MHz, was effektive 2.250 MHz ergibt. Den Shadertakt gibt Sparkle per Pressemitteilung allerdings nur mit 1.500 MHz an, während das Referenzdesign auf 1.512 MHz setzt. Für das Plus an weiterer Geschwindigkeit bedarf es ebenfalls einer aufgewerteten Kühllösung."

http://pics.computerbase.de/1/7/9/4/7/1.jpg

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/mai/uebertaktete_geforce_8800_ultra_sparkle/
Tripleslotkühlung ahoi! :eek: langsam wirds krank

Coda
2007-05-02, 16:46:26
Eine Spannungssenkung sollte auch keine Probleme machen, wie kommst du darauf? Die Taktabsenkung bringt schon sehr viel, halber Takt = halbe Verlustleistung.
Das stimmt schon lange nicht mehr. Bei den neueren Prozessen seit 90nm fließt verdammt viel über Leckströme.

reunion
2007-05-02, 16:48:45
Man sieht sehr eindeutig, dass der G80 (wahrscheinlich das gesamte Design) überhaupt nicht an der Speicherbandbreite liegt. Der Mehrgewinn bewegt sich in fast allen Fällen am Mehrtakt der Shader.

Was zeigt, dass die Shaderleistung den größten Flaschenhals darstellt.

Coda
2007-05-02, 16:50:05
Was aber noch lange nichts über die Konkurenzfähigkeit dieser aussagt - weil danach klingt es schon wieder.

reunion
2007-05-02, 16:55:26
Was aber noch lange nichts über die Konkurenzfähigkeit dieser aussagt - weil danach klingt es schon wieder.

Habe ich auch nicht behauptet, das interpretiert höchstens dein Verfolgungswahn mir ggü. so. Der Grund warum ich das anmerkte, war ganz einfach, da ich das schon öfter gesagt hatte, dass G80 sehr gut mit der Shaderleitung skaliert, und dies wohl der Flaschenhals ist, woraufhin ich jedesmal kritisiert wurde, dass das Blödsinn sein, da die skalaren ALUs ja so effektiv seinen, etc.

TobiWahnKenobi
2007-05-02, 16:56:36
Eine einfache Taktabsenkung bringt verhältnismäßig wenig, in einem echten 2D-Modus müsste die GPU-Spannung auch gesenkt werden!
Und genau das scheint beim G80 Probleme zu machen, daher hat NVIDIA den 2D-Modus komplett weg gelassen.

MfG :cool:

woher weisst du das? ist das hergeleitet od. gibts dafür ne quelle?


(..)

mfg
tobi

deekey777
2007-05-02, 17:00:02
Was zeigt, dass die Shaderleistung den größten Flaschenhals darstellt.
Tut es nicht.
http://www.ixbt.com/video3/g80-10.shtml
Schaue dir einfach die Werte der 8800 Ultra und der 8800GTX OC von EVGA mit 625, 1450 und 1000 MHz an (Ultra: 612/1512/1080), da sieht man je nach Spiel, wo es drückt.

Adam D.
2007-05-02, 17:00:34
woher weisst du das? ist das hergeleitet od. gibts dafür ne quelle?


(..)

mfg
tobi
Der Fakt, dass es keinen 2D-Modus für den G80 gibt, spricht schon allein dafür, dass es schwierig ist. Zwar wollte Nvidia diesen per Treiber nachliefern, aber daran glaubt keiner mehr. Wie gesagt, irgendwas muss da mit der Karte sein ... Vielleicht verträgt der G80 keine häufigen Spannungs- und Taktratenwechsel. Sollte ja nicht allzu schwer sein, sowas per Treiber zu realisieren.

TobiWahnKenobi
2007-05-02, 17:09:14
"Der Grafikchip arbeitet mit einer Taktfrequenz von 612 MHz und einem Shader-Takt von 1500 MHz. Den Speicher stellt Nvidia auf 1080 MHz ein. Gegenüber der bislang schnellsten Variante – GeForce 8800 GTX (500/1200/900 MHz) – bedeutet dies eine Steigerung der Taktfrequenzen um gut 20 Prozent"

:rolleyes: Heise sollte sich solche "News" sparen wenn sie kein Plan von der Materie haben.

das ist ein tippfehler, der gleich verbessert wird.

Der Fakt, dass es keinen 2D-Modus für den G80 gibt, spricht schon allein dafür, dass es schwierig ist. Zwar wollte Nvidia diesen per Treiber nachliefern, aber daran glaubt keiner mehr. Wie gesagt, irgendwas muss da mit der Karte sein ... Vielleicht verträgt der G80 keine häufigen Spannungs- und Taktratenwechsel. Sollte ja nicht allzu schwer sein, sowas per Treiber zu realisieren.

meine theorie geht richtung spannungsapparat. spannungswechsel = streß! aber offizielles weiß doch keiner - alles spekus und gerüchte.

(..)

mfg
tobi

Adam D.
2007-05-02, 17:42:50
meine theorie geht richtung spannungsapparat. spannungswechsel = streß! aber offizielles weiß doch keiner - alles spekus und gerüchte.
Die Frage ist nur, warum das gerade beim G80 Probleme macht. Soweit ich weiß, war doch eine Spannungssenkung bei den alten Generationen bereits Teil des 2D-Modus'. Könnte das an der UA-Architektur liegen? Ich geb zu, ich hab kaum Ahnung von der Materie :biggrin:

Gast
2007-05-02, 18:03:00
Die Frage ist nur, warum das gerade beim G80 Probleme macht. Soweit ich weiß, war doch eine Spannungssenkung bei den alten Generationen bereits Teil des 2D-Modus'. Könnte das an der UA-Architektur liegen? Ich geb zu, ich hab kaum Ahnung von der Materie :biggrin:
Die alten Karten von nV hatten doch auch keinen richtigen "2D-Modus", sprich dass die Spannung und der Takt abgesenkt wird, oder? Beim G80 halte ich es für physikalisch unmmöglich, dass weniger Spannung per Software/Bios angelegt werden kann, da das PCB das sehr wahrscheinlich nicht hergibt. Hätte man noch einen richtigen 2D Modus implementiert, wäre die Karte teurer geworden, weniger durch Materialkosten sondern durch Entwicklung und Erprobung. Zudem hätten das die wenigsten G80 User zu würdigen gewusst. Es kommt in dieser Preisklasse auf kompromisslose Leistung und sehr gute IQ an, alles andere ist zweit bis drittrangig. Die Stromersparnis würde vielleicht bei 10 € im Jahr liegen, absolut lächerlich, selbst wenn man 2 Exemplare besitzen würde, wären's nur schlappe 20 €.

TobiWahnKenobi
2007-05-02, 18:12:56
die tickermeldung ist korrigiert ;)

Die Frage ist nur, warum das gerade beim G80 Probleme macht. Soweit ich weiß, war doch eine Spannungssenkung bei den alten Generationen bereits Teil des 2D-Modus'. Könnte das an der UA-Architektur liegen? Ich geb zu, ich hab kaum Ahnung von der Materie

tjo, NVidia ist ja ziemlich verhalten mit infos.. aber vielleicht kommt ja echt noch irgendwann die partielle abschaltung von kompletten chipteilen.. wir werden es erfahren.. FEIERABEND!


(..)

mfg
tobi

The_Invisible
2007-05-02, 18:13:44
Die alten Karten von nV hatten doch auch keinen richtigen "2D-Modus", sprich dass die Spannung und der Takt abgesenkt wird, oder? Beim G80 halte ich es für physikalisch unmmöglich, dass weniger Spannung per Software/Bios angelegt werden kann, da das PCB das sehr wahrscheinlich nicht hergibt. Hätte man noch einen richtigen 2D Modus implementiert, wäre die Karte teurer geworden, weniger durch Materialkosten sondern durch Entwicklung und Erprobung. Zudem hätten das die wenigsten G80 User zu würdigen gewusst. Es kommt in dieser Preisklasse auf kompromisslose Leistung und sehr gute IQ an, alles andere ist zweit bis drittrangig. Die Stromersparnis würde vielleicht bei 10 € im Jahr liegen, absolut lächerlich, selbst wenn man 2 Exemplare besitzen würde, wären's nur schlappe 20 €.

ach nein? ;)

mfg

Gast
2007-05-02, 18:20:43
Man muss um sich ein guten Eindruck zu verschaffen natürlich ein paar Reviews angucken hier sinds z.B 30 zu 8 bei den minfps.

http://www.bit-tech.net/content_images/nvidia_geforce_8800_ultra/coh-2560-0x-16x.png

http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/4.html

Man ist die 7900GTX schlecht. Komischerweise war die 6800Ultra auch in manchen Fällen 50% langsamer als ne X800XT PE.

Die Tradition wird sich natürlich fortsetzen.

Gast
2007-05-02, 18:33:56
und damit im preis/leistungsindex gaanz weit hinten.
nen typische tombmankarte halt, die sonst niemand braucht ...

Meinst du den Schwachsinnigen Preis/Leistungsindex der Computerbase? *g wie kann man bitte Highend Grafikkarten in 1280*1024 4xAA bewerten, da gähnt ja meine GTS mit den selben FPS einer Ultra in 90% aller Spiele (CPU Limit ahoi). Wurde das auch mit TSAA gebencht, dann ists nur noch LOL :)

dargo
2007-05-02, 18:35:15
Der Fakt, dass es keinen 2D-Modus für den G80 gibt, spricht schon allein dafür, dass es schwierig ist. Zwar wollte Nvidia diesen per Treiber nachliefern, aber daran glaubt keiner mehr. Wie gesagt, irgendwas muss da mit der Karte sein ... Vielleicht verträgt der G80 keine häufigen Spannungs- und Taktratenwechsel. Sollte ja nicht allzu schwer sein, sowas per Treiber zu realisieren.
Ich finds halt nur seltsam, dass meine GTS überhaupt keine Probleme hat zwischen 200/200Mhz und 612/900Mhz hin und her zu wechseln (mit dem Rivatuner).

Gast
2007-05-02, 18:35:58
die tickermeldung ist korrigiert ;)



tjo, NVidia ist ja ziemlich verhalten mit infos.. aber vielleicht kommt ja echt noch irgendwann die partielle abschaltung von kompletten chipteilen.. wir werden es erfahren.. FEIERABEND!


(..)

mfg
tobiGlaub ich nicht sonst könnte man so auch abgeschaltete teile wieder aktivieren

Godmode
2007-05-02, 19:07:24
Ich finds halt nur seltsam, dass meine GTS überhaupt keine Probleme hat zwischen 200/200Mhz und 612/900Mhz hin und her zu wechseln (mit dem Rivatuner).

Und hast du dabei gemessen ob der Stromverbrauch sinkt, wäre interessant?

Adam D.
2007-05-02, 19:08:01
Ich finds halt nur seltsam, dass meine GTS überhaupt keine Probleme hat zwischen 200/200Mhz und 612/900Mhz hin und her zu wechseln (mit dem Rivatuner).
Bringt das denn merkliche Vorteile? Hier fehlt dann ja der Spannungswechsel. Und ich denke, wenn das reine Taktratenwechseln spürbare Ergebnisse bringen würde, dann hätte Nvidia das bereits längst integriert.

Gast
2007-05-02, 19:27:21
Ist eine hohe Taktsenkung bei unveränderter Spannung nicht sogar schädlich? Stichwort Burnin, gehört AFAIK zu den elementaren Tests von Chips, ob sie unter Last abrauchen.

Mumins
2007-05-02, 19:55:14
Man muss um sich ein guten Eindruck zu verschaffen natürlich ein paar Reviews angucken hier sinds z.B 30 zu 8 bei den minfps.

http://www.bit-tech.net/content_images/nvidia_geforce_8800_ultra/coh-2560-0x-16x.png

http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/4.html

Da hast du natürlich Recht, aber spielbar ist es nur mit der Ultra. Deshalb tun sich die Nvidia Karten schon sehr schwer in dem Game. Vor allem die GTS, das geht ja gar nicht.

TobiWahnKenobi
2007-05-02, 20:12:02
neigt hier jemand zu übertreibungen? AFAIR ist das ein echtzeitstrategie-spiel und verglichen mit dem restlichen testfeld, machen die aktuellen NVidia-karten doch eine ausgezeichnete figur.


(..)

mfg
tobi

Henroldus
2007-05-02, 20:45:55
Meinst du den Schwachsinnigen Preis/Leistungsindex der Computerbase? *g wie kann man bitte Highend Grafikkarten in 1280*1024 4xAA bewerten, da gähnt ja meine GTS mit den selben FPS einer Ultra in 90% aller Spiele (CPU Limit ahoi). Wurde das auch mit TSAA gebencht, dann ists nur noch LOL :)
wenn du zu faul bist weiterzuscrollen kann ich dir nicht helfen:
Preis/Leistung – 1600x1200 4xAA/16xAF
ist imo durchaus ein guter anhaltspunkt
da ich gerade bei einer highendkarte TSAA einstelle wüsste ich nicht was es daran zu kritisieren gibt?

wie toll deine GTS ist, möchte hier doch keiner wissen

dargo
2007-05-02, 20:49:38
Und hast du dabei gemessen ob der Stromverbrauch sinkt, wäre interessant?
Natürlich, mit 200/200mhz bin ich ~7W über der X1900XT in 2D. Dh. ~35W Netto.

AnarchX
2007-05-02, 20:53:48
http://img130.imageshack.us/img130/5805/1178061598dfpefhgdqm11lau8.jpg (http://enthusiast.hardocp.com/image.html?image=MTE3ODA2MTU5OGRmUGVmSGdkUU1fMV8xX2wuanBn)
;D

Am 14. gibt es dann sicherlich wieder lustige Folien von beiden Seiten.

Henroldus
2007-05-02, 21:03:53
http://img130.imageshack.us/img130/5805/1178061598dfpefhgdqm11lau8.jpg (http://enthusiast.hardocp.com/image.html?image=MTE3ODA2MTU5OGRmUGVmSGdkUU1fMV8xX2wuanBn)
;D

Am 14. gibt es dann sicherlich wieder lustige Folien von beiden Seiten.
Soso, Nvidia kennt schon den Verbrauch der DAMMIT Karten :biggrin:

viking
2007-05-02, 21:06:27
;D ;D ;D ;D

Verdammtes Sch**ßteil...

Bin einfach nur auf den G90 bzw. G100 gespannt ;)

laser114
2007-05-02, 21:08:02
OMG, mit dem Stromverbrauch noch werben... ;D :(

AnarchX
2007-05-02, 21:12:53
HKEPC scheint auch eine gute Ultra erwischt zu haben, die von MSI kommt -> 705/1741/1225MHz waren möglich. (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hkepc.com%2Fbbs%2Fhwdb.php%3Ftid%3D782622%26tp%3D88 00Ultra-nvidia%26rid%3D782622&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

reunion
2007-05-02, 21:20:12
Lächerlich, dass nV den Stromverbrauch der Ultra unter der GTX ansiedelt, und dann auch noch damit wirbt, obwohl das nachgewiesenermaßen absoluter Blödsinn ist. Und das der Vergleich der TDP unterschiedlicher Hersteller (die bei nV offensichtlich irgendwer zusammengewürfelt hat) keine Sinn macht, wird an dieser Stelle nicht zum ersten male erwähnt. Die TDP der XT beträgt übrigens 200W, nicht 240W wie bei der XTX.

Gast
2007-05-02, 21:21:03
Soso, Nvidia kennt schon den Verbrauch der DAMMIT Karten :biggrin:Klar oder Denkst du das ATI den G80 nicht schon monate vor uns einschätzen könnte?

ist bei AMD gegen INTEL das gleiche das einzige was ist das beide kontrahenten erst wens zu spät ist über die power der konkurenten bescheid wissen.

AHF
2007-05-02, 21:24:23
fährt man für 699 nicht mit gts-sli besser?

AnarchX
2007-05-02, 21:24:47
Lächerlich, dass nV den Stromverbrauch der Ultra unter der GTX ansiedelt, und dann auch noch damit wirbt, obwohl das nachgewiesenermaßen absoluter Blödsinn ist.

Unter gewissen Laborbedingungen wird es sicherlich stimmen. ;)

reunion
2007-05-02, 21:28:50
Unter gewissen Laborbedingungen wird es sicherlich stimmen. ;)

Wenn man Äpfel mit Birnen vergleich bestimmt. Unter gleichen Bedingungen ist das offensichtlich nicht der Fall, wie man sehr schön an den Vergleichen der OC GTXen mit den Ultras sieht, die bei gleichen Taktraten fast exakt die gleiche Leistungsaufnahme haben.

laser114
2007-05-02, 21:33:45
Lächerlich, dass nV den Stromverbrauch der Ultra unter der GTX ansiedelt, und dann auch noch damit wirbt, obwohl das nachgewiesenermaßen absoluter Blödsinn ist.

Das sie IMHO so aus, als hätte nvidia einfach die TDP der GTX großzügig angesetzt, um jetzt toll mit Mehrleistung und sogar etwas weniger Verbrauch werben zu können. Angesichts der Negativrekordleistung insbesondere im Idle-Verbrauch eine Unverschämtheit - egal ob da ATI noch schlimmer ist oder nicht.

deekey777
2007-05-02, 21:43:31
http://img130.imageshack.us/img130/5805/1178061598dfpefhgdqm11lau8.jpg (http://enthusiast.hardocp.com/image.html?image=MTE3ODA2MTU5OGRmUGVmSGdkUU1fMV8xX2wuanBn)
;D

Am 14. gibt es dann sicherlich wieder lustige Folien von beiden Seiten.
Wann gab's denn zuletzt lustige Folien? :D
Lächerlich, dass nV den Stromverbrauch der Ultra unter der GTX ansiedelt, und dann auch noch damit wirbt, obwohl das nachgewiesenermaßen absoluter Blödsinn ist. Und das der Vergleich der TDP unterschiedlicher Hersteller (die bei nV offensichtlich irgendwer zusammengewürfelt hat) keine Sinn macht, wird an dieser Stelle nicht zum ersten male erwähnt. Die TDP der XT beträgt übrigens 200W, nicht 240W wie bei der XTX.
Wofür steht TDP nochmal?
Da hat sich Nvidia wirklich was zusammengebastelt und TDP mit dem maximalen Verbrauch wild zusammengemixt. Der maximale offizielle Verbrauch der 8800GTX liegt bei...
http://www.xbitlabs.com/articles/video/display/gf8800_11.html
According to Nvidia, the GeForce 8800 GTX doesn’t show anything extraordinary in terms of power consumption. Its power draw of 145.5W under max load is quite an expectable value for a 0.09-micron chip consisting of 681 million transistors most of which are clocked at 1.35GHz. There’s no reason to worry. As we’ve found out, the cooling system employed by Nvidia copes with that load quite successfully and with little noise.
Deren TDP liegt tatsächlich bei fast 180 W.

laser114
2007-05-02, 21:45:41
Wann gab's denn zuletzt lustige Folien? :D

Ich habe lange keine mehr gesehen, wird mal wieder Zeit. :biggrin:

Gast
2007-05-02, 22:08:12
Lächerlich, dass nV den Stromverbrauch der Ultra unter der GTX ansiedelt, und dann auch noch damit wirbt, obwohl das nachgewiesenermaßen absoluter Blödsinn ist. Und das der Vergleich der TDP unterschiedlicher Hersteller


Die Angabe von Nvida ist kein TDP sondern die maximale Leistungsaufnahme der Karte für die deren Stromversorgung ausgelegt sein muss.

Gast
2007-05-02, 22:19:08
Die Angabe von Nvida ist kein TDP sondern die maximale Leistungsaufnahme der Karte für die deren Stromversorgung ausgelegt sein muss.
Richtig und in der rechnung sind cpus, chipsaätze und die kleinsten gehäuse von oems mit einberechnet. (genau wie bei ATI) Hinzu kommt das auch mit einberechnet wurde, in welcher umgebung diese rechner zum einsatz kommen.
obs nun -10 oder +50 Grad sind aber, hauptsachen es gibt leute die über was maulen können^^

Godmode
2007-05-02, 22:39:12
HKEPC scheint auch eine gute Ultra erwischt zu haben, die von MSI kommt -> 705/1741/1225MHz waren möglich. (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hkepc.com%2Fbbs%2Fhwdb.php%3Ftid%3D782622%26tp%3D88 00Ultra-nvidia%26rid%3D782622&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

:eek: Diese Taktraten wären einer Ultra würdig! Schade das das nicht der Defaulttakt einer Ultra ist. Ich bin echt schon heiß auf die 65nm G9x, da müsste noch ein ordentliches Taktpotential drinnen sein!

Anarchy-HWLUXX
2007-05-02, 23:37:31
Bei Geizhals sind scho einige gelistet - 699€ für die Versionen mit default Takten ...

http://geizhals.at/deutschland/?cat=gra16_512&bpmax=&asuch=ultra&sort=p

Noebbie
2007-05-03, 00:06:22
Highend Grafik zum "Shiceprice", sry für die 1337-Kiddi-Formulierung, aber was anderes fällt mir dazu net ein...

Was mich schockiert, ist, dass einige hier so ne Karte, in Bezug auf den Preis, auch noch wirklich kaufen wollen...

Aber wer's hat...

AnarchX
2007-05-03, 13:29:58
Was hat denn Sparkle mit der Ultra gemacht? :|
http://img157.imageshack.us/img157/3743/546398ea81cc8cqw0.jpg (http://imageshack.us)


Mal sehen wann die Pro's im XS ihre Ultras bekommen, da dürften sicherlich einige neue Rekord aufgestellt werden (3GHz Shaderclock? ;))

Coda
2007-05-03, 13:53:07
Sie haben halt den unnötigen Käfig hinten weggelassen.

Godmode
2007-05-03, 14:05:53
Ob dieser neue Kühler wohl aus irgendwelchen Strömungsrechnungen resultiert? Irgendwie sieht er ziemlich "schräg" aus, wie ein nach oben gebogener GTX-Kühler.

up¦²
2007-05-03, 14:28:15
Befindet sich ja schon im Sturzflug: rums :tongue: 589,--
oder ist da was faul?
http://geizhals.at/eu/a254970.html

Coda
2007-05-03, 15:09:05
Ob dieser neue Kühler wohl aus irgendwelchen Strömungsrechnungen resultiert? Irgendwie sieht er ziemlich "schräg" aus, wie ein nach oben gebogener GTX-Kühler.
Evtl. das und das auch Luft "von oben" gezogen werden kann.

Vertigo
2007-05-03, 15:11:57
Ob dieser neue Kühler wohl aus irgendwelchen Strömungsrechnungen resultiert? Irgendwie sieht er ziemlich "schräg" aus, wie ein nach oben gebogener GTX-Kühler.
Dazu müßte man ihn mal ohne Abdeckung sehen. Wichtiger ist aber das Herausstehen des Lüfters - so kann mehr Luft angesaugt werden.

Moralelastix
2007-05-03, 15:14:43
Dafür haben sie dann in Kauf genommen das der Kühler aussieht wie wenn er vom LKW gefallen wär.

Hätten die nicht einfach den Lüfter ganz nach hinten über die Spannungswandler setzen können?
Mit dem gewonnen Platz hätte man schon mal die Kühlfinnen um 3-4 cm verlängern oder besser gleich welche aus Kupfer einsetzen können.

Anarchy-HWLUXX
2007-05-03, 15:46:37
Dafür haben sie dann in Kauf genommen das der Kühler aussieht wie wenn er vom LKW gefallen wär.

Hätten die nicht einfach den Lüfter ganz nach hinten über die Spannungswandler setzen können?
Mit dem gewonnen Platz hätte man schon mal die Kühlfinnen um 3-4 cm verlängern oder besser gleich welche aus Kupfer einsetzen können.

dann wär die Karte noch länger was absolut nicht gewünscht ist ...

Moralelastix
2007-05-03, 15:52:57
dann wär die Karte noch länger was absolut nicht gewünscht ist ...

Länger?
Wieso ich schrieb doch über die Spannungswandler und nicht dahinter?

So wäre die Karte auch nicht länger und würde den ganzen Platz auf dem PCB zu 100% nutzen.
Und nicht so wie jetzt den Platz daneben!



...
Auf der anderen Seite hätte NV nur für die Ultra doch auch so ne Lösung wie die ATI OEM Version bringen können(in dem Bereich gilt doch je größer desto besser?:biggrin: )?

Anarchy-HWLUXX
2007-05-03, 16:41:49
Länger?
Wieso ich schrieb doch über die Spannungswandler und nicht dahinter?

So wäre die Karte auch nicht länger und würde den ganzen Platz auf dem PCB zu 100% nutzen.
Und nicht so wie jetzt den Platz daneben!



... dann kann der Lüfter aba nicht mehr luft ansaugen - das ist doch der Witz an der Position. Bei der Breite ist das mal herzlich egal denn um ein Case zu finden das nicht mindestens 2-3cm platz hat neben den Karten muss man scho lange suchen.

Schlammsau
2007-05-03, 17:35:27
http://img130.imageshack.us/img130/5805/1178061598dfpefhgdqm11lau8.jpg (http://enthusiast.hardocp.com/image.html?image=MTE3ODA2MTU5OGRmUGVmSGdkUU1fMV8xX2wuanBn)
;D

Am 14. gibt es dann sicherlich wieder lustige Folien von beiden Seiten.

"Es ist kein großes Geheimnis, dass die komplexe G80-GPU im 90-nm-Prozess im Idle-Modus sehr viel Strom aus der Leitung zieht. Viel zu viel Strom für die Arbeit, die sie auf dem Desktop leisten muss. Bei der GeForce 8800 Ultra ist dies konsequenterweise nicht anders. Obwohl nVidia der Grafikkarte einen minimal niedrigeren Stromverbrauch als der einer GeForce 8800 GTX attestiert, messen wir das genaue Gegenteil. Unter Windows zieht die GeForce 8800 GTX mit 225 Watt (gemeint ist der ganze Testrechner) sechs Watt mehr Leistung aus der Steckdose als das ehemalige Flaggschiff mit dem Kürzel GTX.

Unter Last ist die Differenz zur GeForce 8800 GTX gar deutlich größer. Die GeForce 8800 Ultra stellt mit einem Verbrauch von 325 Watt einen neuen Negativrekord auf und liegt unangefochten an der Spitze. Die GeForce 8800 GTX zeigt sich mit einer Leistungsaufnahme von knapp unter 300 Watt um Einiges genügsamer."

@ComputerBase


......wow bin begeistert, man wird von denen wohl nur verarscht!?

reunion
2007-05-03, 17:52:23
@ComputerBase


......wow bin begeistert, man wird von denen wohl nur verarscht!?

nV hat diese ganzen Herstellerangaben was TDP und Netzteilspezifikationen, etc. betrifft längst als Marketinginstrument erkannt, und nutzt das auch schamlos aus. So benötigt eine 6800U laut nV ein stärkeres Netzteil als eine 8800Ultra, und eine 8800U hat eine niedrigere TDP als eine 8800GTX.

Gast
2007-05-03, 19:59:36
Schnellere hardware frisst grundsätzlich mehr Strom, anderfalls wird es marketingwirksam in Szene gesetzt.

Solange in 2D der Verbrauch nicht drastisch reduziert wird handelt es sich um Siliziumschrott ;D

Moralelastix
2007-05-03, 20:13:36
... dann kann der Lüfter aba nicht mehr luft ansaugen - das ist doch der Witz an der Position. Bei der Breite ist das mal herzlich egal denn um ein Case zu finden das nicht mindestens 2-3cm platz hat neben den Karten muss man scho lange suchen.

Der zusätzliche Platz für Kühlfinnen und Heatpipes würde diese kleine zusätzliche Loch locker ausgleichen. (Abgesehen davon das es sauber ausgesehen hätte.)

Im übrigen saugt auch schon der Standardkühler(GTX/GTS) von der Unterseite an.
Dort sitzen aber genau Elemente des Spannungswandlers die durch die Alugußplatte gekühlt werden. Deshalb sind die Öffnugen nicht allzu groß.

Weiter hinten hätte der Lüfter auch mehr Luft von unten ansaugen können.

Gast
2007-05-03, 21:05:34
Ist eine hohe Taktsenkung bei unveränderter Spannung nicht sogar schädlich? Stichwort Burnin, gehört AFAIK zu den elementaren Tests von Chips, ob sie unter Last abrauchen.

hö? ich glaube kaum

btw: "hohe" takt"senkung"

deekey777
2007-05-04, 11:24:45
NVIDIA GeForce 8800 Ultra 768MB (http://www.digit-life.com/articles2/video/g80-10.html)

dildo4u
2007-05-04, 11:26:12
Angeblich schon im Lager.

http://chb-compware.de/product_info.php?info=p2448_Gainward-BLISS-8800-Ultra-768-MB-GDDR3-PCI-E-retail.html

http://geizhals.at/deutschland/a254952.html


Und hier die MSI NX8800Ultra-T2D768E-HD-OC.

660MHz Core Memory : 768MB DDR3 @ 2300MHz

http://global.msi.com.tw/index.php?func=proddesc&prod_no=1207&maincat_no=130&cat2_no=136

Mr. Lolman
2007-05-04, 12:15:06
Woher kommt bei CoH eigentlich der große Unterschied zw. Ultra und GTX?

http://www.digit-life.com/articles2/video/g80-10-03.html

[dzp]Viper
2007-05-04, 12:19:37
Woher kommt bei CoH eigentlich der große Unterschied zw. Ultra und GTX?

http://www.digit-life.com/articles2/video/g80-10-03.html

Ich würde sagen, dass die da einfach irgendwie falsch gemessen haben oder nen Zahlendreher oder sonst was drin haben. Anders läßt sich das net erklären..

Henroldus
2007-05-04, 12:20:22
Woher kommt bei CoH eigentlich der große Unterschied zw. Ultra und GTX?

http://www.digit-life.com/articles2/video/g80-10-03.html
vor allem fällt die GTX hinter die X1950 XTX :|

dildo4u
2007-05-04, 12:21:34
Scheint ein Fehler zu sein und zusätzlich wird er die GTX whol nicht nochmal mit den neuen Treibern gebencht haben die Ultra dann whol schon.Könnte auch sein das mit den alten Treibern die GTX Probleme mit dem V-Ram verbrauch hatte bei dieser extremen Auflösung.

Mr. Lolman
2007-05-04, 12:21:37
Viper;5462356']Ich würde sagen, dass die da einfach irgendwie falsch gemessen haben oder nen Zahlendreher oder sonst was drin haben. Anders läßt sich das net erklären..

Das ist aber bei allen Auflösungen mit AA/AF der Fall und sie wundern sich ja selbst auch (also werdens sies wohl überprüft haben)...

Mr. Lolman
2007-05-04, 12:26:46
vor allem fällt die GTX hinter die X1950 XTX :|

Entweder schmeckt den ATis ds Spiel sehr gut, oder NV hat da ein paar Treiberprobleme. Die X1950XTX ist ja auch um fast 45% schneller als ne 7950GX2 - und das gar trotz default Treibersettings!

(und angeblich haben sie ja alle NV-Karten mit dem gleichen Treiber getestet)

dildo4u
2007-05-04, 12:26:49
Vieleicht liegts auch daran.6XAA vs 8XAA.


"Therefore, examining previous top-performing products, we have added a new HQ (High Quality) mode, which stands for:
ATI RADEON X1xxx: AA 6x + adaptive AA + AF 16x High Quality
NVIDIA GeForce 7xxx/8xxx: AA 8x + TAA (MS with gamma correction) + AF 16x

This choice is not accidental, but is a result of a compromise: on the one hand we are still close to ATI's AA 6x, on the other hand GF 7xxx doesn't support AA higher than 8x. On the third hand, I believe this AA mode is visually enough, since a naked eye won't notice any differences, considering that we are to compare 8800 at high resolutions.!

Gouvernator
2007-05-04, 12:27:09
schön nach RAM Takt gestaffelt :D

Mr. Lolman
2007-05-04, 12:28:00
"Therefore, examining previous top-performing products, we have added a new HQ (High Quality) mode, which stands for:
ATI RADEON X1xxx: AA 6x + adaptive AA + AF 16x High Quality
NVIDIA GeForce 7xxx/8xxx: AA 8x + TAA (MS with gamma correction) + AF 16x

Eher nicht. Das ist nur die HQ Einstellung, die zusätzlich zu 4xAA gebencht wurde.

/edit: Wieso benchen die Penner eigentlich AAA vs. TRMSAA? Das ist ja noch weniger vergleichbar als 6xAA vs. 8xAA (mal abgesehen davon, dass TRMSAA ja ohnehin praktisch wirkungslos ist)

dildo4u
2007-05-04, 12:30:22
Leider gibts bei digit-life kein Minfps wer weiß weil laut Bit-tech die Auflösung schon ohne AA mit min 8fps auf der 1950XTX unspielbar ist.

http://www.bit-tech.net/content_images/nvidia_geforce_8800_ultra/coh-2560-0x-16x.png

http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/4.html

Mr. Lolman
2007-05-04, 12:33:54
Leider gibts bei digit-life kein Minfps wer weiß weil laut Bit-tech die Auflösung schon ohne AA mit min 8fps auf der 1950XTX unspielbar ist.

http://www.bit-tech.net/content_images/nvidia_geforce_8800_ultra/coh-2560-0x-16x.png

http://www.bit-tech.net/hardware/2007/05/02/nvidia_geforce_8800_ultra/4.html

Wer weiss, wie genau die das getestet haben. Denn theoretisch ist ja unmöglich, dass ne X1950XTX 4x höhere min-fps bringt als ne X1900XTX...
/edit: und wenn nur ein kleiner Ruckler ist, wo man mal 8 fps hat, heisst ja auch nicht, dass das gesamte Spiel deswegen unspielbar ist. Soviel zu den min-fps...

dildo4u
2007-05-04, 12:36:22
Wer weiss, wie genau die das getestet haben. Denn theoretisch ist ja unmöglich, dass ne X1950XTX 4x höhere min-fps bringt als ne X1900XTX...
/edit: und wenn nur ein kleiner Ruckler ist, wo man mal 8 fps hat, heisst ja auch nicht, dass das gesamte Spiel deswegen unspielbar ist. Soviel zu den min-fps...
Jo stimmt da ist ein Fehler aber zumindest der Abstand 7900GTX zu 1950XTX passt.Und der avg Wert der 8800GTX und Ultra passt auch zu den Werten bei digit-life.Bei digit-life ist diese OC Version der GTX ja auch wesentlich schneller als die normale GTX was auch kein Sinn ergibt.Da stimmt dann halt nur der Wert der "normalen" GTX nicht.

Mr. Lolman
2007-05-04, 12:38:52
Jo sitmmt da ist ein Fehler aber zumindest der Abstand 7900GTX zu 1950XTX passt.Und der avg Wert der 8800GTX und Ultra passt auch zu den Werten bei digit-life.

Das Problem tritt ja erst mit aktivem AA auf. Und das ne 7900GTX schon ohne AA nur halb so flott wie ne X1950XTX ist, ist ja auch eher seltsam...

dildo4u
2007-05-04, 12:44:36
Computerbase hat das Game auch in der Auflösung gebencht und jo es stimmt da gibts ein übergebührlichen Einbruch bei 2560*1600 mit 4XAA vieleicht geht der Karte der Ram aus?Und die ATIs werden durch was anderes limitiert(Roh/Shaderleistung) so dass sich ein V-ram Mangel nicht bemerkbar macht?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/11/#abschnitt_company_of_heroes

AnarchX
2007-05-04, 12:50:53
MSI scheint die XFX Ultra 650M noch zu überbieten:
660MHz Core
Memory : 768MB DDR3 @ 2300MHz
http://global.msi.com.tw/index.php?func=proddesc&prod_no=1207&maincat_no=130&cat2_no=136

Nur fraglich ob man auch den Shadertakt erhöht hat.

deekey777
2007-05-04, 12:52:53
Eher nicht. Das ist nur die HQ Einstellung, die zusätzlich zu 4xAA gebencht wurde.

/edit: Wieso benchen die Penner eigentlich AAA vs. TRMSAA? Das ist ja noch weniger vergleichbar als 6xAA vs. 8xAA (mal abgesehen davon, dass TRMSAA ja ohnehin praktisch wirkungslos ist)
http://www.ixbt.com/video3/g80-10.shtml
Wohl das erste Review der Ultra, auch wenn in Russisch.
Die Typen testen tatsächlich im HQ-Modus 8x (ich hoffe 8xQ) und Transparenz-MSAA gegen 6xAA und adaptives AA. :crazy2:

....
Und früher haben sie mit 8xS gegen 6xMSAA getestet. Es geht ihnen wirklich nur darum, wie es mit der Leistung aussieht, wenn man die Regler nach rechts verschiebt. Unfair? Nein, wenn man den Text liet und nicht nur auf die Balken schaut.

Obwohl: Sie wissen eigentlich ganz genau, dass Transparenz-MSAA dort wirkungslos ist, wo adaptives AA ausgezeichnete Bildqualität liefert.

Mr. Lolman
2007-05-04, 12:53:41
Computerbase hat das Game auch in der Auflösung gebencht und jo es stimmt da gibts ein übergebührlichen Einbruch bei 2560*1600 mit 4XAA vieleicht geht der Karte der Ram aus?Und die ATIs werden durch was anderes limitiert(Roh/Shaderleistung) so dass sich ein V-ram Mangel nicht bemerkbar macht?

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/11/#abschnitt_company_of_heroes

Computerbase testet mit AAA/TRSSAA. Da gibts immer einen hohen Einbruch. Das kanns imo auch nicht ganz sein...

Und früher haben sie mit 8xS gegen 6xMSAA getestet. Es geht ihnen wirklich nur darum, wie es mit der Leistung aussieht, wenn man die Regler nach rechts verschiebt. Unfair? Nein, wenn man den Text liet und nicht nur auf die Balken schaut.

Hoppla. Hatte dein Post nicht gekannt. Andererseits fragt man sich warum sie dann mit TRMSAA benchen (was ja qualitativ eher sinnfrei ist)

Obwohl: Sie wissen eigentlich ganz genau, dass Transparenz-MSAA dort wirkungslos ist, wo adaptives AA ausgezeichnete Bildqualität liefert.

Lol. Ich sollte meine Postfrequenz reduzieren X-D

deekey777
2007-05-04, 12:57:33
Hoppla. Hatte dein Post nicht gekannt. Andererseits fragt man sich warum sie dann mit TRMSAA benchen (was ja qualitativ eher sinnfrei ist)



Lol. Ich sollte meine Postfrequenz reduzieren X-D
Man muss iXBT schon etwas "Nichtweitgenuggedacht"-Einstellung vorwerfen.
http://www.digit-life.com/articles2/video/g80-3.html

Mr. Lolman
2007-05-04, 13:59:27
Man muss iXBT schon etwas "Nichtweitgenuggedacht"-Einstellung vorwerfen.
http://www.digit-life.com/articles2/video/g80-3.html

Eher schon fast ne biased-Einstellung. Man sehe sich die Ausschnitte von 4xAA und Farcry an, und dann die Fullscreen Bilder. Ok, kann auch Zufall sein, dass man gerade einen Ausschnitt der Kanten nimmt, die auf NV Karten besser aussehen. Nur nach dem Test TRMSAA vs AAA glaub ich auch nicht mehr ganz daran :|

edit: andererseits ist die Kantenauswahl wiederum so mies, dass 8xAA um garnix besser aussieht als 6xAA. Also muss man ihnen wohl eher doch Unvermögen vorwerfen...

Gast
2007-05-04, 14:22:45
Ich denke, die haben den Auschnitt gewählt, weil da viele unterschiedliche Winkel vorkommen.

Blaire
2007-05-04, 18:37:34
Entweder schmeckt den ATis ds Spiel sehr gut, oder NV hat da ein paar Treiberprobleme. Die X1950XTX ist ja auch um fast 45% schneller als ne 7950GX2 - und das gar trotz default Treibersettings!

(und angeblich haben sie ja alle NV-Karten mit dem gleichen Treiber getestet)

Eine 7950GX2 ist auf SLI angewiesen wenn das Profil zu schlecht ist kann es eben zu schlechteren Ergebnissen kommen. Tomb Raider Legends sieht z.b. auf X1900 schlechter aus als auf 7900 Karten usw. vieleicht ist es dort ähnlich?

dildo4u
2007-05-05, 00:28:42
Die Ultra mit Stickstoffkühlung.Neuer Singlecard WR.

http://www.overclockingpin.com/ultra/20506%2006%20single%20ultra.jpg

Und hier das Ultra SLI da scheint ein QuadCore@ 4.8GHz schon zum limitieren.

http://www.overclockingpin.com/ultra/25k%20SLI%20ultra.jpg


http://www.xtremesystems.org/forums/showthread.php?t=143117

Mr. Lolman
2007-05-05, 01:14:27
Eine 7950GX2 ist auf SLI angewiesen wenn das Profil zu schlecht ist kann es eben zu schlechteren Ergebnissen kommen. Tomb Raider Legends sieht z.b. auf X1900 schlechter aus als auf 7900 Karten usw. vieleicht ist es dort ähnlich?

Hä, was hat die olle Kamelle TRL damit zu tun? Ne X1950XTX ist in CoH um 45% flotter als ne GX2 und um 100% flotter als ne 7900GTX. Die SLI Profil scheint also zu funktionieren...

AnarchX
2007-05-05, 10:03:22
Die Ultra mit Stickstoffkühlung.Neuer Singlecard WR.


Und hier das Ultra SLI da scheint ein QuadCore@ 4.8GHz schon zum limitieren.


http://www.xtremesystems.org/forums/showthread.php?t=143117

Wobei das ja nur ein erster Versuch sein soll.;) Wenn er sich den Ultras mal richtig annimmt werden wohl die 1GHz im SLI fallen.

Henroldus
2007-05-05, 12:52:48
Wobei das ja nur ein erster Versuch sein soll.;) Wenn er sich den Ultras mal richtig annimmt werden wohl die 1GHz im SLI fallen.
zudem sind die ultras bei 1280er auflösung ohne AA/AF natürlich reichlich unterfordert so das der kentsfield hier natürlich limitiert.

dargo
2007-05-05, 16:27:38
zudem sind die ultras bei 1280er auflösung ohne AA/AF natürlich reichlich unterfordert so das der kentsfield hier natürlich limitiert.
Mit 4880Mhz aber nur minimal. ;)

Raff
2007-05-05, 16:56:08
Mit 4880Mhz aber nur minimal. ;)

Nur 25% mehr Gesamtpunkte durch SLI lässt aber schon darauf schließen, dass die sacklahme CPU ;) limitiert.

MfG,
Raff

dargo
2007-05-05, 17:19:10
Nur 25% mehr Gesamtpunkte durch SLI lässt aber schon darauf schließen, dass die sacklahme CPU ;) limitiert.

Ähm, ich meine die Single-GPU. ;)
Dass es für SLI "G90" keine brauchbare CPU in 12x10 gibt sollte selbstverständlich sein. Dazu müßte man schon den Kentsfield mit ~10Ghz betreiben. X-D

Moralelastix
2007-05-05, 18:22:10
Jupp, oder auf die neuen Dualsockel Platinen von Intel hoffen.

dargo
2007-05-05, 19:47:34
Jupp, oder auf die neuen Dualsockel Platinen von Intel hoffen.
Das bringt dir auch nichts. Die SM2.0 und SM3.0 Tests sind weder Dualcore noch Quadcore optimiert. Man braucht bei den Tests einfach nur Ghz ohne Ende.

Moralelastix
2007-05-05, 19:51:13
Das bringt dich auch nichts. Die SM2.0 und SM3.0 Tests sind weder Dualcore noch Quadcore optimiert. Man braucht bei den Tests einfach nur Ghz ohne Ende.

Wann soll eigentlich der neue 3D Murks kommen?
Der sollte doch dann auch mit Mulitcore was anfangen können.

Gast
2007-05-05, 20:03:18
Eher schon fast ne biased-Einstellung. Man sehe sich die Ausschnitte von 4xAA und Farcry an, und dann die Fullscreen Bilder. Ok, kann auch Zufall sein, dass man gerade einen Ausschnitt der Kanten nimmt, die auf NV Karten besser aussehen. Nur nach dem Test TRMSAA vs AAA glaub ich auch nicht mehr ganz daran :|

edit: andererseits ist die Kantenauswahl wiederum so mies, dass 8xAA um garnix besser aussieht als 6xAA. Also muss man ihnen wohl eher doch Unvermögen vorwerfen...

Oh ja, allerdings. Wenn ich sowas lese:
"Then we used the hit-and-miss method and found out that forced AA did not work in Oblivion on Radeon cards, if... Catalyst A.I was disabled. (should we explain that we always disable Catalyst A.I. during quality tests in order to eliminate texture filtering optimizations and shader replacements?)"

dann frage ich mich, was für einen Sinn Reviews haben - Fps werden bei beschnittener Qualität verglichen, Qualität dann komplett unabhängig davon.


Q

Blaire
2007-05-05, 20:14:01
Hä, was hat die olle Kamelle TRL damit zu tun? Ne X1950XTX ist in CoH um 45% flotter als ne GX2 und um 100% flotter als ne 7900GTX. Die SLI Profil scheint also zu funktionieren...

Ganz einfach man sollte mal die Bildqualität vergleichen. Ati Optimiert deutlich mehr als Nvidia das ist doch kein Geheimnis mehr.

AnarchX
2007-05-07, 14:18:25
Hier gibt es einen Teaser zur NVIDIA's Human Head Demo die auf der 8800Ultra laufen soll:
http://www.youtube.com/watch?v=LIGWAYS5uRw

edit:
http://www.pcgameshardware.de/?article_id=600857

DrumDub
2007-05-07, 14:33:16
Hier gibt es einen Teaser zur NVIDIA's Human Head Demo die auf der 8800Ultra laufen soll:
http://www.youtube.com/watch?v=LIGWAYS5uRw

edit:
http://www.pcgameshardware.de/?article_id=600857 hmm... der hintegrund in dem video erinnert mich irgendwie an den kirchenhintergeund in dieser demo: http://www.daionet.gr.jp/~masa/rthdribl/index.html

evnetuell von der gleichen person gemacht?

ansonsten: schönes self-shadowing. :)