Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT: (P)Review-Thread
AnarchX
2007-10-27, 09:22:05
http://img505.imageshack.us/img505/1342/02gf8800gtzg6.jpg
Testberichte:
eng. und andere Sprache:
MSI GeForce NX8800GT 512MB Graphics Card @ TweakTown (http://www.tweaktown.com/reviews/1210/msi_geforce_nx8800gt_512mb_graphics_card/index.html)(OC-Version mit 660/950MHz)
Pre-NDA-Review @ Expreview (http://topic.expreview.com/2007-10-23/1193114539d6255.html)(Chin.)(alle Bilder als DL @ RS (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5958670&postcount=56))
Pre-NDA-Review @ PConline (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5965743&postcount=321)(Chin.)
Crysis Demo Performance Analysis inkl. 8800 GT (http://www.tweaktown.com/articles/1211/crysis_demo_performance_analysis/index.html)
NVIDIA GeForce 8800GT - Early Performance Preview@BootDaily.com (http://www.bootdaily.com/index.php?option=com_content&task=view&id=849&Itemid=51)
Nvidia GeForce 8800 GT Review @ VR-Zone (http://www.vr-zone.com/articles/Nvidia_Geforce_8800GT_Review/5369.html)
G92 takes the stage - ASUS EN8800GT 512MB video card review - ASUS EN8800 GT review@Elite Bastards (http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=482&Itemid=27)
New Nvidia GeForce 8800 GT Surprises @ THG (http://www.tomshardware.com/2007/10/29/geforce_8800_gt/)
NVIDIA GeForce 8800 GT: The Only Card That Matters @ Anandtech (http://anandtech.com/video/showdoc.aspx?i=3140)
Nvidia's GeForce 8800 GT graphics processor @ Tech-Report (http://techreport.com/articles.x/13479)
HW-Got-Frag (http://hardware.gotfrag.com/portal/story/40512/)
http://enthusiast.hardocp.com/article.html?art=MTQxMCwxLCxoZW50aHVzaWFzdA==
http://firingsquad.com/hardware/nvidia_geforce_8800_gt_performance/
http://www.guru3d.com/article/Videocards/468/1/
http://www.driverheaven.net/reviews/8800GTs/index.php
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/3073-evga-8800gt-512mb-superclocked-edition-review.html
http://www.techpowerup.com/reviews/Zotac/GeForce_8800_GT
[First review]Galaxy GeForce 8800GT 256MB @ Expreview (http://en.expreview.com/?p=64)
deutsch :
Nvidia GeForce 8800 GT (SLI) @ Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/)
http://www.pcgameshardware.de/?article_id=619124
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/oktober/ersteindruck_nvidia_geforce_8800_gt/
http://www.pcwelt.de/start/computer/grafikkarte/tests/97487/
http://www.hardtecs4u.com/reviews/2007/msi_nx8800gt/
Erwähnenswerte Versionen:
Zotac GeForce 8800 GT AMP! Edition (http://geizhals.at/deutschland/a291829.html): bisher schnellste OC-GT, andere Kühlerabdeckung, Review (http://www.driverheaven.net/reviews/8800GTs/zotac.php), Lautstärke/Temperatur (http://www.hardwareluxx.de/cms/artikel.php?action=show&id=565&seite=4)
Zotac 8800 GT 1GiB (http://www.pcgameshardware.de/?article_id=621133): 1000MHz Samsung-Speicher, oranges PCB, unter 300€
Sparkle GeForce 8800 GT Cool-pipe 3: (http://geizhals.at/deutschland/a291848.html) passiv gekühlt
Palit 8800 GT (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5980190): mit 3 Phasen-Spannungsversorgung und Dual-Slot-Kühler
Galaxy 8800 GT "Spezial-Version" (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5987209&postcount=660): 2x6-Pin-Stromversorgung, 88GT-Kühler in Dual-Slot-Form, natives HDMI, (wohl aber nicht erhältlich in Dtl.)
Gainward-Eigendesigns (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6008319&postcount=982)
- alle bei uns erhätliche Karten im Preisvergleich (http://geizhals.at/deutschland/?cat=gra16_512&bpmax=&asuch=8800+512&pixonoff=off&sort=p)
Spezfikationen:
GPU:
Bezeichnung: G92-270
Größe: 289mm²
Prozess: 65nm
Transistorenanzahl: 754 Mio.
Funktionseinheiten:
112 skalare Shader-ALUs (jeweils 1 MADD + 1 MUL)
56 TAs, 56 bi-TMUs -> 56 vollwertige TMUs
16 ROPs(8 Z, 4xMSAA in einem Takt)
256-Bit Speicherinterface (4 fach unterteilt)
256 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6025717&postcount=1124)/512MiB GDDR3 (1ns)
Taktraten:
TMU/ROPs: 600MHz
Shadertakt: 1500MHz
Speichertakt: 900MHz
Theoretische Leistungs-Daten:
Pixelfüllrate: 9600 MPix/s
Texelfüllrate: 33600 MTex/s
arithmetische Leistung: MADD -> 336 GFLOPs, MADD+MUL -> 504 GFLOPs
Speicherbandbreite: 57,6 GB/s
>Zum Vergleichen< (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/2/#abschnitt_technische_daten)
Sonstiges:
neuer Transparenz-Antialiasing Modus (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5977035&postcount=251) (Bilder (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5978330&postcount=426))
integriertes IO
VP2 -> PureVideo HD mit H.264-Beschleunigung
laser114
2007-10-27, 11:47:06
Tolle Leistung - aber der Kühler ist wohl keine Meisterleistung sondern eher ein Abfallprodukt des niedrigen Preises. Ich hoffe da gibt es andere Lösungen.
Die 256 MiB-Version ist aber noch blödsinniger als die 320-MiB-Version der 8800 GTS; aber naja, so werden die leistungsfähigeren 256-MiB-Karten der DX9-Klasse wohl wirklich noch länger beachtet
Silverbuster
2007-10-27, 12:14:37
XFX wird eine passive 8800GT auf den Markt bringen, leider gibts aber noch keine Bilder dazu.
Hvoralek
2007-10-27, 13:03:13
Testberichte:
MSI GeForce NX8800GT 512MB Graphics Card @ TweakTown (http://www.tweaktown.com/reviews/1210/msi_geforce_nx8800gt_512mb_graphics_card/index.html)(OC-Version mit 660/950MHz)Auch wenn die GT hier um 10% übertaktet ist: Dafür, dass der Test weitestgehend ohne AA und v.a. AF stattfand, wird sie hier mit der 2900XT sehr gut fertig.
seahawk
2007-10-27, 15:03:03
Mit dem Kühler nicht zu gebrauchen.
Wen interessiert der Kühler, WAKÜ ist die Lösung.
LovesuckZ
2007-10-27, 15:05:37
Warum schreibst du eigentlich noch etwas zu nVidia's Produkten, wenn durch deine - anscheinend - flamenmäßige Einstellung zur Firma sowieso nur bullshit rauskommt?
laser114
2007-10-27, 15:10:07
Mit dem Kühler nicht zu gebrauchen.
Es wird hoffentlich auch Karten mit selbstentwickelten Kühllösungen geben.
Warum schreibst du eigentlich noch etwas zu nVidia's Produkten, wenn durch deine - anscheinend - flamenmäßige Einstellung zur Firma sowieso nur bullshit rauskommt?
Das ist hier bisher der einzige „Bullshit“ (Off-Topic) schreibt bist du, alles andere sind persönliche Meinungen oder Informationen.
seahawk
2007-10-27, 15:16:21
Es wird hoffentlich auch Karten mit selbstentwickelten Kühllösungen geben.
Glücklicherweise hat sie den ochabstand der 7800/7900 geerbt, so dass es leicht ist passende Kühler zu bekommen. Sei es VF900er oder Wasserkühlblöcke für die GPU. Für jemanden der nicht umbauen will, ist warten imho ne gute Idee. Ich werde wphl eifnach den GPU-Twinplex der 7800 mit den Speicherkühlern vom VG900 verwenden, den man für die Wiederverkauf sowieso brauchen wird.
Crazy_Chris
2007-10-27, 15:18:11
http://images.tweaktown.com/imagebank/msi88gt_g_11.gif
http://www.tweaktown.com/reviews/1210/17
Die Verbrauchswerte sind eintäuschend im Vergleich.
dildo4u
2007-10-27, 15:21:11
Ist eine OC Version deshalb der Mherverbrauch. ;)
Hvoralek
2007-10-27, 15:36:22
Das ist hier bisher der einzige „Bullshit“ (Off-Topic) schreibt bist du, alles andere sind persönliche Meinungen oder Informationen.Bei manchen Leuten bringt es nichts, dagegen anzureden. Du wirst LovesuckZ von bestimmten Dingen nicht überzeugen bzw. abbringen können. Das Problem ist nur, dass er nicht, wie viele hier, eine mehr oder weniger rot bzw. grün gefärbte Brille trägt, sondern eher eine Art Kriegsbemalung.
Endorphine
2007-10-27, 15:40:29
XFX wird eine passive 8800GT auf den Markt bringen, leider gibts aber noch keine Bilder dazu. Bitte Quelle angeben/verlinken, thx.
Hvoralek
2007-10-27, 15:41:47
Völlig egal, da alle KArten gleich gemessen werden. Von der 2900 Serie wissen wir, dass sie keine LEisetreter ist, der GT ist lauter. Dazu der doch erschreckend hohe Stromverbrauch für die Klasse. Toll ist anders.Die übertaktete Version ist unter Last etwas lauter und im Leerlauf leiser als eine XT. Mit Standardtakt sollte sie unter Last etwa gleich laut sein.
reunion
2007-10-27, 15:47:22
Falls es jemanden interessiert:
http://forums.vr-zone.com/showthread.php?t=198741
8800GT PCIe x16 vs. x8
DerKleineCrisu
2007-10-27, 16:04:54
warum Testen manche nur noch ohne AA+AF ?. Um dort zu Zeigen das die AMD Graka doch nicht so schlecht ist ?. Meine nur die letzten Jahre wo " ATI " schneller war wurde auf AA/AF und Bildquali rumgeritten bei den Testseiten und nun wo sie in diesem Bereich nachholbedarf haben läßt man es unter den Tisch fallen nach dem Motto: " AA&Af braucht keiner Hauptsache die FPS stimmen " .
zum Stromverbrauch: Nicht gerade Berauschend aber im Vergleich zur Leistung und dem zu erwarteten Preis gerade noch zu Vertreten.
Mal schaun was AMD zu Wege bringt mit dem refresh Chip. Habe mal die Hoffnung das sie in der gleichen gegend ist.
Grüße
Grisu
ShinyMcShine
2007-10-27, 16:09:08
Da es ja nun doch schon einigermaßen gesicherte Informationen zur 8800GT gibt, was macht eigentlich die "neue" 8800GTS@G92? Sind hierzu auch schon weitere Infos durchgesickert.
Wenn man bedenkt, dass die schon in 16 (?) Tagen rauskommen soll...
Spasstiger
2007-10-27, 16:12:52
Hat irgendwo schon jemand den Kühler umgebaut und würde ein AC Accelero S1 passen?
seahawk
2007-10-27, 16:14:20
In einem der ersten Tests haben sie diese komische Fatalitiy Version des VF900 eingebaut.
Die übertaktete Version ist unter Last etwas lauter und im Leerlauf leiser als eine XT. Mit Standardtakt sollte sie unter Last etwa gleich laut sein.
Stimmt ,allerdings empfinde ich auch die X2900 von ATI als grenzwertig, was die Lautstärke angeht.
AnarchX
2007-10-27, 16:15:41
Da es ja nun doch schon einigermaßen gesicherte Informationen zur 8800GT gibt, was macht eigentlich die "neue" 8800GTS@G92? Sind hierzu auch schon weitere Infos durchgesickert.
Wenn man bedenkt, dass die schon in 16 (?) Tagen rauskommen soll...
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385362
G92 -> SKUs schauen. :wink:
ShinyMcShine
2007-10-27, 16:16:53
@ AnarchX:
Du hast in den Spezifikationen im Post #1 gar keine Transistorzahl eingetragen. Ich dachte, die 754Mio sind "gesichert"?
AnarchX
2007-10-27, 16:19:18
Du hast in den Spezifikationen im Post #1 gar keine Transistorzahl eingetragen. Ich dachte, die 754Mio sind "gesichert"?
Eine Tabelle, wo die TMUs falsch angegeben wurden, sind mir noch nicht sicher genug, also gibt es die hier erst, wenn sie nochmals von einer 2. Quellen verkündet werden.:wink:
ShinyMcShine
2007-10-27, 16:33:02
Leider steht zur neuen 8800GTS in Deinem anderen Thread "lediglich":
"G92-8800GTS: Dual-Slot-Kühlung, $305 MSRP, 256Bit/512MB, 128SPs, Launch: 19.11. laut diversen Quellen"
Habe gehofft, dass es schon mehr Informationen gibt (erste Daten zum Chip-/Shader-/Speichertakt), da man mit den bisherigen Performanceinformationen der 8800GT dann wohl relativ gut auf die Performance der 8800GTS@G92 schliessen könnte.
Wie man unschwer erkennen kann, bin ich relativ "spitz" auf die 8800GTS@G92.
Aber ist wohl noch zu früh. Evtl. leaken ja am Montag beim 8800GT-Launch mehr Infos...
Razor
2007-10-27, 16:33:29
Falls es jemanden interessiert:
http://forums.vr-zone.com/showthread.php?t=198741
8800GT PCIe x16 vs. x8
Was ist denn das für ein Unfug?
:confused:
Da meint doch tatsächlich jemand, dass er eine 8800GT mit PCIe 8x bencht, weil er eine 7900GT in den 2. PCIe gesteckt hat (auf 'nem n650 mobo). Und dann schreibt er da irgendwelche wirren Zahlen zusammen...
Was soll das für eine Aussage sein?
"Was passiert, wenn man auch den 2. PCIe benutzt?"
(aber natürlich nicht, wwnn man bencht!?)
Tolle 'News', echt...
Razor
Spasstiger
2007-10-27, 16:38:11
Das mit dem Kühler ist ja jetzt schon eine große Ernüchterung. Hatte ja auf eine ähnliche leise Lösung wie bei der 7800 GTX 256 MB gehofft, die war ja auch Singleslot. Und so extrem sparsam war die 7800 GTX auch nicht, richtig sparsam wurden erst die 7900er.
AnarchX
2007-10-27, 16:42:31
Das mit dem Kühler ist ja jetzt schon eine große Ernüchterung. Hatte ja auf eine ähnliche leise Lösung wie bei der 7800 GTX 256 MB gehofft, die war ja auch Singleslot. Und so extrem sparsam war die 7800 GTX auch nicht, richtig sparsam wurden erst die 7900er.
Eine Leistungsaufnahme von über 100W unter Last, wie diese OC-8800GT mit wohl höherer VGPU, hatte aber eine 7800GTX 256 auch nicht.;)
Das mit dem Kühler ist ja jetzt schon eine große Ernüchterung. Hatte ja auf eine ähnliche leise Lösung wie bei der 7800 GTX 256 MB gehofft, die war ja auch Singleslot. Und so extrem sparsam war die 7800 GTX auch nicht, richtig sparsam wurden erst die 7900er.
Stimmt jede GTX hatte bis jetzt eine angemessen lesie Kühllösung.
Aber hier geht es um eine Mainstream Karte, nicht um einen 500€ Kreuzer. ;)
Vergleich mal die GT mit einer 6800/7800/7900GT. Alles keine Leisetreter, dafür eine ordentliche Performance.
Kann es sein, dass der G92 exakt ein geshrinkter (reparierter) G80 ist und NV auf allen Karten den G80 durch den G92 ersetzt?
Spasstiger
2007-10-27, 17:02:22
Kann es sein, dass der G92 exakt ein geshrinkter (reparierter) G80 ist und NV auf allen Karten den G80 durch den G92 ersetzt?
Was soll denn am G80 defekt gewesen sein?
AnarchX
2007-10-27, 17:06:09
Kann es sein, dass der G92 exakt ein geshrinkter (reparierter) G80 ist und NV auf allen Karten den G80 durch den G92 ersetzt?
Ganz bestimmt nicht, da er 56 bzw. 64 TAs hat. ;)
Adam D.
2007-10-27, 17:13:14
Jetzt liegt es voll und ganz bei den Herstellern, andere Lüfter-Lösungen anzubieten. So ist das ja echt kein Zustand - was mich doch sehr enttäuscht.
ShinyMcShine
2007-10-27, 17:26:41
Kann es sein, dass der G92 exakt ein geshrinkter (reparierter) G80 ist und NV auf allen Karten den G80 durch den G92 ersetzt?
Der G80 hat auch ein anderes Speicherinterface als der G92...
Der G80 hat auch ein anderes Speicherinterface als der G92...
Falsch.
Die GT hat ein anderes als die GTS/GTX.
Was soll denn am G80 defekt gewesen sein?
VRAM-Bug ;D - auch wenn es gewisse G80 Fans trotz Beweise nicht glauben
VP2 - gut dass er fehlte war kein dirketer Defekt, aber soetwas gehört jetzt seit einiger Zeit zu einer Grafikkart
Idle-Stromverbrauch
Hvoralek
2007-10-27, 17:36:47
Falsch.
Die GT hat ein anderes als die GTS/GTX.Sicher? Ich würde nicht darauf wetten, dass bei G92 physisch mehr als vier ROP- Blöcke vorhanden sind.
http://geizhals.at/deutschland/a225880.html
Lieferbar.
Schade, dass Morgen keine Pakete verschickt werden. :)
laser114
2007-10-27, 17:46:04
Sicher? Ich würde nicht darauf wetten, dass bei G92 physisch mehr als vier ROP- Blöcke vorhanden sind.
Nvidia bastelt so einen großen Chip und spart dann da?
Wohl eher unrealistisch.
Hvoralek
2007-10-27, 17:57:08
Nvidia bastelt so einen großen Chip und spart dann da?
Wohl eher unrealistisch.Meinst du, man würde bei der GT von 7 von 8 Clustern freischalten, aber nur 4 von 6 ROP- Blöcken? 128 z- Tests pro Takt sollten auch für 8 C reichen, für Bandbreite kann man ggf. mit schnellem Speicher sorgen.
/edit: Und so billig werden G8x- ROPs nicht sein.
Meinst du, man würde bei der GT von 7 von 8 Clustern freischalten, aber nur 4 von 6 ROP- Blöcken?
Wer spricht von 6 ROP-Blöcken? ;)
Wenn 5 ROP-Blöcke ein 320bit SI ergeben ist doch schonmal geholfen.
Dazu schnellerer Speicher .....
Also 1,3Ghz GDDR4 + 320bit SI = 104GiB/s - die Ultra kommt mit genausoviel
Spasstiger
2007-10-27, 18:06:19
VRAM-Bug ;D
Ich glaube, das ist bei Nvidia schon lange ein Problem und vermutlich eher Treiber- als Hardwaresache. Eventuell gabs es schon zu GeForce-6800-Ultra-Zeiten das Problem, was das exzellente Abschneiden der X800 XT bei hohen Auflösungen + AA erklären würde (teilweise doppelt so schnell).
Ich hab auch damals schon festgestellt, dass meine Radeon 9700 128 MB in Extremsituationen schneller bzw. bugfreier war als eine GeForce 6800 128 MB. So hatte ich mal in einem Test mit einer Grafikdemo in 1600x1200 mit 4xAA mit der GeForce 6800 fehlende Texturen, was eine Auflösung drunter nicht so war. Die Radeon 9700 hat dagegen auch in 1600x1200 alles fehlerfrei dargestellt. Geruckelt hats auf beiden Karten.
Ich hab auch damals schon festgestellt, dass meine Radeon 9700 128 MB in Extremsituationen schneller war als eine GeForce 6800 128 MB.
Davon höre ich zum ersten Mal.
Ich kann nur sagen mit meinen letzten nV Karten hat sich der Speicher immer wieder entleert (nv35, nv40, g71)
Ich glaube, das ist bei Nvidia schon lange ein Problem und vermutlich eher Treiber- als Hardwaresache. Eventuell gabs es schon zu GeForce-6800-Ultra-Zeiten das Problem
Wie war das der G80 hat mit dem NV30 nur noch wenig zu tun?
Spasstiger
2007-10-27, 18:16:42
Wie war das der G80 hat mit dem NV30 nur noch wenig zu tun?
Die GeForce 6800 hatte den NV40 drauf. Und wenn es ein reines Softwareproblem ist, kann es ja durchaus sein, dass es bis heute mitgeschleift wurde.
Wäre das Problem nicht publik gemacht worden, würde man immer noch denken, dass es alleine etwas mit der Speichermenge zu tun, dass eben 256 MB oder 320 MB viel zu wenig sind. Niemand würde vermuten, dass da auch ein "Bug" dahintersteckt.
Auf jeden Fall hat sich in meinen Test die GeForce 6800 128 MB viel empfindlicher in VRAM-fordernden Szenen gezeigt als die Radeon 9700 128 MB. Beiden Karten habe ich 256 MB AGP Aperture Size bei 1 GB RAM zugestanden.
Es war bei den 6800ern sogar so, dass die GeForce 6800 256 MB schneller war als die 6800 GT 128 MB, obwohl die GT eine bedeutend bessere Rohleistung aufwies.
Ich vermute mal, dass bisher einfach was im Treiberkonzept nicht 100% gepasst hat. Und die GeForce-8-Architektur reagiert wohl besonders empfindlich darauf.
laser114
2007-10-27, 18:22:07
Meinst du, man würde bei der GT von 7 von 8 Clustern freischalten, aber nur 4 von 6 ROP- Blöcken? 128 z- Tests pro Takt sollten auch für 8 C reichen, für Bandbreite kann man ggf. mit schnellem Speicher sorgen.
Für Speicher der Geschwindigkeit einer 8800 Ultra braucht man dann aber schon 1620 MHz.
Und irgendwas muss ja doch in dem größeren Die stecken, wenn die Angabe stimmt hat der G92 ja auch 73 Mio. Transistoren mehr als der G80.
Preis von etwas über 240€ kommt wohl hin:
Klick (http://www.idealo.de/preisvergleich/OffersOfProduct/oesg/869277_-geforce-8800-gt-pcie-2-0-512mb-gddr3-sf-px88gt512d3-hp-sparkle.html)
Spasstiger
2007-10-27, 18:36:28
Ist schon was zu den 1-GiB-Versionen bekannt?
AnarchX
2007-10-27, 18:43:54
Crysis Demo Performance Analysis inkl. 8800 GT (http://www.tweaktown.com/articles/1211/crysis_demo_performance_analysis/index.html)
Wie war das der G80 hat mit dem NV30 nur noch wenig zu tun?
Hat er auch nicht. Nicht die Bohne. Das Speichermanagement ist allerdings eigentlich Softwaresache.
James Ryan
2007-10-27, 18:58:45
Crysis Demo Performance Analysis inkl. 8800 GT (http://www.tweaktown.com/articles/1211/crysis_demo_performance_analysis/index.html)
Die HD 2900 XT ist total chancenlos, selbst mit 1 GB VRam und OC. :eek:
Die GT schlägt sich dagegen wacker!
MfG :cool:
mapel110
2007-10-27, 18:59:34
Crysis Demo Performance Analysis inkl. 8800 GT (http://www.tweaktown.com/articles/1211/crysis_demo_performance_analysis/index.html)
Toll, nur DX9 getestet. :uclap:
Ich will einen Vergleich DX10 zwischen nvidia und ATI.
Und warum zum Geier haben die die High End ATI-Karten nicht in der hohen Auflösung gebencht?!
reunion
2007-10-27, 19:08:54
Toll, nur DX9 getestet. :uclap:
Ich will einen Vergleich DX10 zwischen nvidia und ATI.
Und warum zum Geier haben die die High End ATI-Karten nicht in der hohen Auflösung gebencht?!
Das Demo läuft in DX10 "Very High" unter aller Sau. Da hilft auch keine Quad-Core-CPU mit 8800U SLI mehr. Vermutlich hat man es deshalb nicht getestet. Hier darf noch viel Arbeit geleistet werden, was die Treiber betrifft. Oder vielleicht wird die Leistung bis zur finalen Version auch noch besser.
Und warum zum Geier haben die die High End ATI-Karten nicht in der hohen Auflösung gebencht?!
Wie wärs mal mit Lesen?
->
Since only the NVIDIA cards offer 1920 x 1200 that’s all that’s been tested here;
Spasstiger
2007-10-27, 19:12:00
Nach den Crysis-Benchmarks ist ja die 8800 GTS 320 MB nun eine denkbar schlechte Wahl. Die HD 2900 XT kurioserweise ebenfalls.
James Ryan
2007-10-27, 19:12:18
Oder vielleicht wird die Leistung bis zur finalen Version auch noch besser.
Das kann man getrost vergessen... diese Hoffnung kam bei der FarCry-Demo auch auf. ;)
Crysis braucht nunmal Power, verdientermaßen.
Würde gerne mal sehen wie die HD 2900 XT mit AA bei Crysis performt, mit meiner Gf 8800 GTS sind 2xAA kein Problem, die GT sollte das auch locker packen.
MfG :cool:
laser114
2007-10-27, 19:21:35
Gegenüber der GTX skaliert die GT in Crysis aber ziemlich gut.
reunion
2007-10-27, 19:22:40
Nach den Crysis-Benchmarks ist ja die 8800 GTS 320 MB nun eine denkbar schlechte Wahl. Die HD 2900 XT kurioserweise ebenfalls.
Abwarten was sich da noch ergibt. nV ist da sicher viel weiter, was die Treiberoptimierung betrifft, alleine schon weil da zwei nV-Leute drinnen sitzen. Der 8800GTS geht einfach der VRAM aus, was zu erwarten war.
Spasstiger
2007-10-27, 19:30:17
Gegenüber der GTX skaliert die GT in Crysis aber ziemlich gut.
Jau. Nach der Beta hab ich auch schon geahnt, dass bei Crysis die Shaderleistung maßgeblich für die Performance ist.
laser114
2007-10-27, 19:37:28
Gerade wenn Shaderleistung gefragt ist, kann da sicherlich AMD ganz gute Ergebnisse erscheinen lassen. Nur müssen die dafür sicherlich auch die Treiber optimieren...
Merkor
2007-10-27, 19:47:17
Die Lautstärke ist ja erschreckend, wenn das so stimmt! Da hilft nur Warten auf die "neue" 8800GTS oder auf Hersteller, die eigene Kühllösungen bei der GT verbauen. Ist da schon was bekannt?
Mitch O'Neil
2007-10-27, 19:49:57
Tut mir leid, aber die Lautstärke ist für mich, ausser der Heizstufe, ein Totschlag-Argument. Ich habe für einen Fön keine Verwendung in meinem PC. :frown:
laser114
2007-10-27, 19:58:15
Bekannt ist mir nichts, aber da das Layout wohl kompatibel zu alten Platinen ist und der Chip noch eine akzeptable TDP hat wird wohl auf jeden Fall bald etwas kommen.
Adam D.
2007-10-27, 20:06:18
Die Frage ist doch, was für Kühler auf dem Ding verbaut werden können. Mit 'nem gescheiten Lochabstand kann man an Silencer und co denken.
PS: So langsam gehen der HD2900XT wirklich die Argumente aus.
ShinyMcShine
2007-10-27, 20:12:53
Ich hoffe ja auf eine neue 8800GTS@G92 mit Dualslotkühler für ca. 300-320 EUR mit den folgenden Daten:
650 MHz Chiptakt
128 Streamprozessoren @ 1625 MHz Shadertakt (ergibt 624 GFLOP)
20 ROPs
13000 MPix/s Pixelfüllrate
64 TMUs und TAUs
41600 MTex/s Texelfüllrate
512 GDDR3 @ 1100 MHz mit 256 Bit Speicherinterface (ergibt 70400 MB/s Speicherbandbreite)
Was meint Ihr: (Un)realistisch?
AnarchX
2007-10-27, 20:15:04
Die Frage ist doch, was für Kühler auf dem Ding verbaut werden können. Mit 'nem gescheiten Lochabstand kann man an Silencer und co denken.
Der VF900 scheint ja zu passen, womit ja die meisten erhältlichen Kühler doch auch passen dürften?
Ich hoffe ja auf eine neue 8800GTS@G92 mit Dualslotkühler für ca. 300-320 EUR mit den folgenden Daten:
[...]
Passenden Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385362) benutzen, hier soll es eher um die 8800 GT gehen. ;)
dildo4u
2007-10-27, 20:16:50
Die Frage ist doch, was für Kühler auf dem Ding verbaut werden können. Mit 'nem gescheiten Lochabstand kann man an Silencer und co denken.
.
Der Lochabstand ist der Selbe wie bei der 7800/7900GT also passt z.B der Zalman VF 900/Fatal1ty FC-ZV9.
http://s4.directupload.net/images/071027/ct8pwuvu.jpg
http://www.zalman.co.kr/eng/product/view.asp?idx=215&code=013
http://www.zalman.co.kr/eng/product/view.asp?idx=192&code=013
http://geizhals.at/deutschland/a188995.html
Adam D.
2007-10-27, 20:17:23
Der VF900 scheint ja zu passen, womit ja die meisten erhältlichen Kühler doch auch passen dürften.
Gut, das ist doch schon mal ein Anfang :)
BTW: Was meint ihr, wie wird Nvidia die 8800GT marketing-technisch anwerden? Die Namensgebung bleibt mir weiterhin völlig schleierhaft. Gerade, wenn man mal an die 8600 denkt. Irgendwo führt das die Kürzel ad absurdum.
ShinyMcShine
2007-10-27, 20:24:15
Ich hätte auch eine 8900GT daraus gemacht. Über ein Jahr nach der Einführung der 8800er Serie hätte das doch Sinn gemacht. Aber nVidia will halt mit einem HighEnd-Produkt eine neue Serie "einläuten". Und nicht erst eine 8900er Serie aufbauen (erst 8900GT, dann GTS, dann GTX).
Darüber hinaus wäre auch "8850GT(S)" eine gute Wahl für die 8800GT (und die neue 8800GTS@G92).
laser114
2007-10-27, 20:24:17
BTW: Was meint ihr, wie wird Nvidia die 8800GT marketing-technisch anwerden? Die Namensgebung bleibt mir weiterhin völlig schleierhaft. Gerade, wenn man mal an die 8600 denkt. Irgendwo führt das die Kürzel ad absurdum.
Die Namensgebung ist wenn man sich die jetzigen Fakten betrachtet in der Tat ungünstig.
Vermutlich hatte sich Nvidia die 8800 GT selber etwas schwächer vorgestellt, gerade in Anbetracht der Tatsache dass das Modell ursprünglich mal 8700 GTS heißen sollte - und die dann wohl überraschende Meldung das der RV670 doch alle Einheiten des R600 bis auf das Speicherinterface besitzt hat die Karte schneller gemacht. ;)
Mitch O'Neil
2007-10-27, 20:28:32
Ich krieg das kalte Kotzen, wenn ich sowas sehe! Ich hab an den letzen 3 Graka(-genarationen) jeweils den Kühler ersetzt. Das ist pure Kalkulation der Hersteller. Die könnten auch ganz anders, mit Sicherheit. Aber das rechtfertigt dann vermutlich mit jeder Generation keine unmassen an Drittanbietern die versuchen die vermeintlichen Ungetüme zu bändigen.
Narredei auf hohem Niveau! Die verarschen uns mit jeder Generation auf neue, und für diese Aussage werde ich wohl in Kürze zu Staub verformt...
Spasstiger
2007-10-27, 20:35:39
Der Lochabstand ist der Selbe wie bei der 7800/7900GT also passt z.B der Zalman VF 900/Fatal1ty FC-ZV9.
Dann sollte auch der AC Accelero S1 passen, welchen ich den Zalman-Teilen klar vorziehen würde, da günstiger und mit ein bis zwei 120er-Lüftern auch besser bis deutlich in der Kühlleistung. Nur der Platzbedarf dieser Kühllösung dürfte viele abschrecken (micht nicht ;)).
Ich hätte auch eine 8900GT daraus gemacht.
Die Bezeichnung 7900 GT wäre auch schön in der Tradition der GeForce 7 gewesen. Denn die 8800 GT ist ja jetzt gegenüber der alten 8800 GTS, was die 7900 GT gegenüber der 7800 GTX war. Die-Shrink, etwas höhere Leistung, günstiger, geringerer Energiebedarf (und ein Vielfaches lauter ;)).
Adam D.
2007-10-27, 20:37:08
Die Namensgebung ist wenn man sich die jetzigen Fakten betrachtet in der Tat ungünstig.
Vermutlich hatte sich Nvidia die 8800 GT selber etwas schwächer vorgestellt, gerade in Anbetracht der Tatsache dass das Modell ursprünglich mal 8700 GTS heißen sollte - und die dann wohl überraschende Meldung das der RV670 doch alle Einheiten des R600 bis auf das Speicherinterface besitzt hat die Karte schneller gemacht. ;)
Die anfänglichen Spekulationen über den G92 waren aber auch alle relativ falsch, GX2 ist auch Geschichte - ich denke schon, dass Nvidia wusste, was sie da machen. Was jetzt am Ende rausgekommen ist, ist aber in der Tat merkwürdig.
"Nvidia(tm) today announces Geforce 8800GT(tm). Geforce 8800GT(tm) beating its big brothers for a hundred bucks less" ;)
mapel110
2007-10-27, 20:41:14
Dann sollte auch der AC Accelero S1 passen, welchen ich den Zalman-Teilen klar vorziehen würde, da günstiger und mit ein bis zwei 120er-Lüftern auch besser bis deutlich in der Kühlleistung. Nur der Platzbedarf dieser Kühllösung dürfte viele abschrecken (micht nicht ;)).
Hehe, ich hab den selben Kühler und der rockt bei meiner 7800 GT, die ab Werk übertaktet ist. Komplett passiv ohne Gehäuselüfter (nur Netzteil-Lüfter).
Einfach zu montieren ist er allerdings nicht und ein PCI-Steckplatz ging auch flöten.
Falls ich doch nicht widerstehen kann und aufrüste, ist das schon mal gut zu wissen, dass der Kühler passen sollte.
laser114
2007-10-27, 20:46:43
Die anfänglichen Spekulationen über den G92 waren aber auch alle relativ falsch, GX2 ist auch Geschichte - ich denke schon, dass Nvidia wusste, was sie da machen. Was jetzt am Ende rausgekommen ist, ist aber in der Tat merkwürdig.
Hmm, also am G92 wurde sicherlich nichts geändert. Gut möglich aber am Produkt was dabei herausgekommen ist, nämlich dieser Grafikkarte. Ich kann mir da zwei Varianten gut vorstellen:
1. Nvidia hat sich den RV670 als einen 3/4 R600 vorgestellt, wie in der Vergangenheit. Infolge dessen wollten sie eine Karte herausbringen, mit der sie mit diesem gut konkurieren können. Gegenüber einem 240-SP-Chip hätten wohl sogar 5 Cluster ausgereicht, wobei sechs mit niedrigerem Takt aber auch gingen. Als der RV670 stärker wurde, hat man sich entschieden die Clusterzahl zu erhöhen / den Takt anzuheben.
Oder 2.: Nvidia wollte die G92-7Cluster-SKU durchaus bringen, aber nur zunammen mit den neuen High-End-Karten. Durch den überraschend frühen Start des RV670, der ja ursprünglich für Anfang 08 geplant war, haben sie die Karte vorverlegt. Da sich nun aber ein Name ala 8900 GT, 9800 GT/9600 GTS o. ä. schlecht macht weil es noch keine High-End-Karten gibt, muss die 8800er-Serie dafür herhalten. Hier stellt sich allerdings die Frage, wieso die High-End-Karten noch nicht einsatzbereit sind, sofern diese auf dem G92-basieren sollten.
Gaestle
2007-10-28, 00:48:37
Die anfänglichen Spekulationen über den G92 waren aber auch alle relativ falsch, GX2 ist auch Geschichte - ich denke schon, dass Nvidia wusste, was sie da machen. Was jetzt am Ende rausgekommen ist, ist aber in der Tat merkwürdig.
"Nvidia(tm) today announces Geforce 8800GT(tm). Geforce 8800GT(tm) beating its big brothers for a hundred bucks less" ;)
Ich bin mir da noch nicht so sicher. Es wurde eine Crysis-taugliche GPU mehr oder minder angekündigt, die GTX und die Ultra schaffen aktuell den Very-High-DX10-Modus nicht so gut. Ob es nun 'ne GX2 oder was anderes ist...
Adam D.
2007-10-28, 00:56:34
Oder 2.: Nvidia wollte die G92-7Cluster-SKU durchaus bringen, aber nur zunammen mit den neuen High-End-Karten. Durch den überraschend frühen Start des RV670, der ja ursprünglich für Anfang 08 geplant war, haben sie die Karte vorverlegt. Da sich nun aber ein Name ala 8900 GT, 9800 GT/9600 GTS o. ä. schlecht macht weil es noch keine High-End-Karten gibt, muss die 8800er-Serie dafür herhalten. Hier stellt sich allerdings die Frage, wieso die High-End-Karten noch nicht einsatzbereit sind, sofern diese auf dem G92-basieren sollten.
Klingt IMO sehr plausibel :up: Ich mein, solange die weiteren G92-Varianten nicht auch noch 'nen 8800er angehängt bekommen, dürfte die Verwirrung nicht allzu groß werden. Aber da war doch was bzgl. einer neuen GTS :wink:
Ich bin mir da noch nicht so sicher. Es wurde eine Crysis-taugliche GPU mehr oder minder angekündigt, die GTX und die Ultra schaffen aktuell den Very-High-DX10-Modus nicht so gut. Ob es nun 'ne GX2 oder was anderes ist...
Die 8800GT ist absolut Crysis-tauglich nach den ersten Benches. Man darf IMO die Demo-Performance nicht überbewerten, weder Quadcores bringen was, noch scheint der Very-High-Modus nur im geringsten optimiert zu sein. Mit leichten Tweaks (die im Thread stehen) erreicht man ja schon beinahe doppelte Performance ;)
Wie auch immer: das Nvidia bald einen neuen Hammer vorstellen wird, ist absolut realistisch. Der Zeitpunkt um den Crysis-Release wäre natürlich nicht schlecht, aber sicher ist das ja noch lange nicht. Vielleicht gibt's auch erst Anfang '08 die nächsten High-End'ler.
Blaire
2007-10-28, 01:18:52
Ich bin mir da noch nicht so sicher. Es wurde eine Crysis-taugliche GPU mehr oder minder angekündigt, die GTX und die Ultra schaffen aktuell den Very-High-DX10-Modus nicht so gut. Ob es nun 'ne GX2 oder was anderes ist...
VeryHigh schaffen sie wenn man es mit der Auflösung nicht übertreibt. Aber selbst High@DX9 schaut atemberaubend schön aus wir sollten nicht übertreiben. Es wurde ja gesagt im Vorfeld das es ein Game für die Zukunft sein wird und da ist es nur verständlich das man nicht die höchsten Grafiksettings reinknallen kann.
ASUS EN8800GT/HDTP 512MB ~240€:
http://geizhals.at/deutschland/a291565.html
dargo
2007-10-28, 09:35:28
ASUS EN8800GT/HDTP 512MB ~240€:
http://geizhals.at/deutschland/a291565.html
Ja, das sieht schon deutlich besser aus. Erstmal müssen einige Hersteller ausgelistet sein (mindestens 5-7) dann geht der Preis auch in Richtung 200-210€.
Adam D.
2007-10-28, 09:51:40
Bin mal gespannt, ob Morgen wirklich einige Karten lieferbar sind. Mehr als 240€ möchte ich nicht ausgeben, bin mal gespannt, ob das klappt.
Aber erstmal das CB-Review abwarten :)
Matrix316
2007-10-28, 10:02:06
Ich warte erstmal die Finale Crysis Version ab. ;)
Was bringts jetzt die 8800GT zu kaufen und dann stellt man fest, dass Crysis doch nicht so gut läuft? Vielleicht kommen ja auch bald die anderen neuen Karten.
Ich warte erstmal die Finale Crysis Version ab. ;)
Was bringts jetzt die 8800GT zu kaufen und dann stellt man fest, dass Crysis doch nicht so gut läuft? Vielleicht kommen ja auch bald die anderen neuen Karten.
Wayne zu Crysis? ;)
Wenn ich in 2 Wochen zuschlage, dann nicht wegen Crysis oder UT3.
Nein, sondern weil ich einfach mal wieder sehe, dass ich mehr Leistung will und dass die GT mir genau das bietet.
Ich könnte natürlich auch ein halbes jahr warten, sehen wie die Preise nicht sinken und mich dann ärgern.
Adam D.
2007-10-28, 10:29:58
Ich warte erstmal die Finale Crysis Version ab. ;)
Was bringts jetzt die 8800GT zu kaufen und dann stellt man fest, dass Crysis doch nicht so gut läuft? Vielleicht kommen ja auch bald die anderen neuen Karten.
Weil da entgegen der jetztigen Benchmarks die 2900XT plötzlich extrem erstarkt und alles andere in den Boden stampft? Oder die GTS doch noch als Sieger hervorgeht? Hmm, alles nicht sehr wahrscheinlich. Momentan deutet alles darauf hin, dass die GT der legitime Nachfolger der GTS wird - von der 2900XT reden wir erst gar nicht. Für einen Preis um 220-240€ kann man IMO mit der Karte nicht viel falsch machen. Wer es leise haben will, muss halt noch ein paar Wochen warten.
James Ryan
2007-10-28, 10:41:36
Abwarten was sich da noch ergibt. nV ist da sicher viel weiter, was die Treiberoptimierung betrifft, alleine schon weil da zwei nV-Leute drinnen sitzen.
Selbst Schuld ATi kann ich da nur sagen!
Aber mal sehen wie der RV670 bei Crysis abgehen wird.
@Mitch O'Neil
Welche Karten hast du denn gehabt die einen schlechten Kühler gehabt haben?
Also meine Gf 7900 GTO und auch die jetzige 8800 GTS haben ab Werk einen perfekten Kühler verbaut gehabt.
MfG :cool:
Matrix316
2007-10-28, 10:50:36
Weil da entgegen der jetztigen Benchmarks die 2900XT plötzlich extrem erstarkt und alles andere in den Boden stampft? Oder die GTS doch noch als Sieger hervorgeht? Hmm, alles nicht sehr wahrscheinlich. Momentan deutet alles darauf hin, dass die GT der legitime Nachfolger der GTS wird - von der 2900XT reden wir erst gar nicht. Für einen Preis um 220-240€ kann man IMO mit der Karte nicht viel falsch machen. Wer es leise haben will, muss halt noch ein paar Wochen warten.
Naja, aber die 2900er und 8800 GTS/GTX Karten laufen ja auch nicht perfekt mit allen Details. Jedenfalls mit der Demo. Im Prinzip ist ja keine aktuelle Karte wirklich dafür geeignet. Deswegen warte ich (wahrscheinlich ;)) die Vollversion ab und entscheide dann, ob es sich vielleicht noch lohnt auf die anderen neuen High End Karten zu warten.
Welche Karten hast du denn gehabt die einen schlechten Kühler gehabt
Das wird eine lange Liste.
Ich sag besser welche gut waren:
-Gf3 Ti-200 von Medion
-Gf 6800nu von Gigabyte
Naja, aber die 2900er und 8800 GTS/GTX Karten laufen ja auch nicht perfekt mit allen Details. Jedenfalls mit der Demo.
Ja da werden wir die Nächste oder Übernächste Highend Generation im SLI bemühen müssen.
Adam D.
2007-10-28, 10:53:20
Naja, aber die 2900er und 8800 GTS/GTX Karten laufen ja auch nicht perfekt mit allen Details. Jedenfalls mit der Demo.
Das hab ich auch gar nicht abgestritten :D Ich rede aber von 'nem Budget von 250€. Klar kannste warten und dann für 350-5xx€ 'ne sehr starke Karte kriegen, aber der Sinn der 8800GT ist doch klasse Performance bei moderatem Preis.
ShinyMcShine
2007-10-28, 10:57:00
Aber erstmal das CB-Review abwarten :)
Ich hoffe, die haben eine Karte bekommen, um pünktlich beim Fall des NDA den Test online zu stellen! Wann fällt das NDA eigentlich? 15:00 Uhr MEZ?
Adam D.
2007-10-28, 11:00:17
Ich hoffe, die haben eine Karte bekommen, um pünktlich beim Fall des NDA den Test online zu stellen! Wann fällt das NDA eigentlich? 15:00 Uhr MEZ?
Klar, CB hatte bis jetzt immer gleich ein Review parat. Ich hab da gar keine Zweifel. Und ja, NDA dürfte wieder um 3 fällig sein - außer Nvidia verwirrt alle mit der Zeit wie mit dem Namen der 8800GT :biggrin:
Bl@de
2007-10-28, 11:18:05
hoffe mal wirklich das die zalman/arctic cooling kühlkörper passen. ansonsten ist die 8800gt leider gottes für mich gestorben. würde mein leises system komplett zerstören ... und dabei wäre sie genau die richtige karte für mich. nicht jeder braucht crysis @1600x1200 mit 8xSSAA 16XAF etc. ^^
hoffe mal wirklich das die zalman/arctic cooling kühlkörper passen.
Wie oft den noch?
Der VF900 wurde bereits angeschraubt ..... der Lochabstand ist identisch zu den 7900, 7800 und 6800 Karten. Das Ramlayout ebenfalls.
Logan
2007-10-28, 13:44:08
Um die lautstärke des lüfters mache ich mir keine sorgen, wer sich 3 jahre lange mit einer albatron 6600gt abgeschlagen hat, ist da sehr abgehärtet :ugly: Wer die karte kennt weiss sicher wie laut die ist :D
ALso die benchmarks mit der 8800 gt und cryis gefallen mir sehr, ist sehr nah an der gtx. Gibts schon dx10 benches mit crysis und der 8800 gt ?
falconch
2007-10-28, 13:55:24
Kann mir denn jemand sagen wie lang die 8800GT ist? Ist sie gleich lang wie eine 8800GTS/GTX/Ultra? Sind die länger als eine X1950XT? Ich habe hier nämlich eine X1950XT und die passt so gerade in mein Gehäuse.
James Ryan
2007-10-28, 13:59:18
Die Gf 8800 GT ist nur so lang wie eine X1950 XT, keine Sorge. ;)
MfG :cool:
ollix
2007-10-28, 14:02:34
XFX wird eine passive 8800GT auf den Markt bringen, leider gibts aber noch keine Bilder dazu. Sollte ich doch noch schwach werden... :love2:
100W passiv. Klar, ne. Und morgen ist Ostern.
falconch
2007-10-28, 14:22:22
Die Gf 8800 GT ist nur so lang wie eine X1950 XT, keine Sorge. ;)
MfG :cool:
Ok, damit wäre dann wohl alles klar :D
Warte nur noch, wie wahrscheinlich viele, auf eine andere Kühllösung. Am liebsten wäre mir die Lösung von der 8800GTS. Scheint ja nicht schlecht gewesen zu sein. Zahle auch gern ein paar Euro mehr dafür.
Endorphine
2007-10-28, 14:27:42
Sollte ich doch noch schwach werden... :love2: Genau. :D Leider hat Silverbuster aber nicht schreiben wollen, woher diese Information kommt. Und ob es diese passiv gekühlte Karte auch mit 1 GB VRAM geben wird.
Hvoralek
2007-10-28, 14:27:49
100W passiv. Klar, ne. Und morgen ist Ostern.Bei 110W TDP sind es real unter Volllast vlt. 80W oder so. Also ungefähr genau so viel wie eine 7900 GTX oder 7800 GTX. Von denen sind mir aber keine Passivversionen bekannt.
Eben. Ist illusorisch da eine solche Karte auch in einem normalen Gehäuse funktionieren müsste. Kannste vergessen.
seahawk
2007-10-28, 14:32:12
Genau. :D Leider hat Silverbuster aber nicht schreiben wollen, woher diese Information kommt. Und ob es diese passiv gekühlte Karte auch mit 1 GB VRAM geben wird.
Ein Shop in den USA (frag mich nicht welcher) listet deises Modell kurzzeitig auf seiner Website.
James Ryan
2007-10-28, 14:33:59
Ok, damit wäre dann wohl alles klar :D
Warte nur noch, wie wahrscheinlich viele, auf eine andere Kühllösung. Am liebsten wäre mir die Lösung von der 8800GTS. Scheint ja nicht schlecht gewesen zu sein. Zahle auch gern ein paar Euro mehr dafür.
Wie gesagt, am besten wäre wohl der Kühler der Gf 7900 GTX, den bekommt man auf Nachfrage bei Mad-Moxx.de! ;)
MfG :cool:
dargo
2007-10-28, 14:40:03
Ein Shop in den USA (frag mich nicht welcher) listet deises Modell kurzzeitig auf seiner Website.
Eine 1GB G8800GT? Wo?
Hvoralek
2007-10-28, 14:44:38
Eine 1GB G8800GT? Wo?Es ging glaube ich um eine passiv gekühlte.
Wobei ja eine verträgliche Aktivkühlung völlig ausreichend wäre. Bei 110W TDP wäre wohl ein Dual- Slot- Kühler sinnvoll, aber selbst mit einem Single- Slot- Kühler müsste das besser gehen (siehe 7800 GTX).
dargo
2007-10-28, 14:51:28
Bei 110W TDP wäre wohl ein Dual- Slot- Kühler sinnvoll, aber selbst mit einem Single- Slot- Kühler müsste das besser gehen (siehe 7800 GTX).
Bei ca. 80W sollte zb. auch ein Zalman VF-900 reichen. Den hat man schon bei einer ~110W X1900XT verwendet. Auch wenn in "Grenzbereichen". Beim hohen OC wird das dann wohl etwas anders aussehen.
Adam D.
2007-10-28, 14:56:41
http://www.bootdaily.com/index.php?option=com_content&task=view&id=849&Itemid=51
Weiß nicht, ob's schon gepostet wurde. Aber die 8800GT avanciert echt zu 'nem Mörderteil :biggrin:
Liszca
2007-10-28, 15:13:15
Ich hoffe ja auf eine neue 8800GTS@G92 mit Dualslotkühler für ca. 300-320 EUR mit den folgenden Daten:
650 MHz Chiptakt
128 Streamprozessoren @ 1625 MHz Shadertakt (ergibt 624 GFLOP)
20 ROPs
13000 MPix/s Pixelfüllrate
64 TMUs und TAUs
41600 MTex/s Texelfüllrate
512 GDDR3 @ 1100 MHz mit 256 Bit Speicherinterface (ergibt 70400 MB/s Speicherbandbreite)
Was meint Ihr: (Un)realistisch?
halte ich für realistisch in bezug auf mehr streamprozessoren, siehe geforce 7 generation.
laser114
2007-10-28, 16:00:03
Welche TDP hat denn die X1950 Pro?
Die gibts ja auch passiv.
dildo4u
2007-10-28, 16:04:18
Welche TDP hat denn die X1950 Pro?
Die gibts ja auch passiv.
TDP kenn ich nicht aber sie liegt knapp unter einer 7900GTX die ~ 85Watt braucht.
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/26/#abschnitt_stromverbrauch
Hvoralek
2007-10-28, 16:37:28
http://www.bootdaily.com/index.php?option=com_content&task=view&id=849&Itemid=51Wenn sich das Bild bestätigt, sollte es die GT ja wirklich sogar schon ohne AA/AF gut mit der 3870 aufnehmen können. Was mit AF und wahrscheinlich auch AA passiert, können wir uns ja denken. Wollte AMD das Ding nicht ursprünglich für $300 Listenpreis verkaufen?
Durchgehend etwa 20 W weniger im Gesamtsystem als die GTS scheint sich ja zu bestätigen. Also unter Last etwa gleich viel wie eine 7900 GTX, im Leerlauf etwa 10 W mehr.
Aber irgendwie liegen die GTS und GTX hier teilweise zu dicht aneinander (CoH, WiC, Quake Wars).
Welche TDP hat denn die X1950 Pro?
Die gibts ja auch passiv.Wie? Was? Wo? :eek:
dildo4u
2007-10-28, 16:40:09
Wie? Was? Wo? :eek:
http://geizhals.at/deutschland/a241004.html
http://geizhals.at/deutschland/a240360.html
Wie? Was? Wo? :eek:
Sehe ich auch gerade zum ersten Mal. :)
Aber nur die 256MB Variante:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/passiv_radeon_x1950_pro_club3d/
Das ist aber eher semipassiv. Ohne Luftstrohm wird das Ding sicher zu heiß.
Das ist aber eher semipassiv. Ohne Luftstrohm wird das Ding sicher zu heiß.
Was ist zu heiß?
Die X1900XT werden doch selbst aktiv locker 90°C + warm.
reunion
2007-10-28, 16:45:05
TDP kenn ich nicht aber sie liegt knapp unter einer 7900GTX die ~ 85Watt braucht.
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_x1950_pro/26/#abschnitt_stromverbrauch
Na, sie liegt schon deutlich darunter: 65W
http://www.xbitlabs.com/articles/video/display/radeon-x1650xt_4.html#sect0
Und das ist schon ziemlich grenzwertig. Eine Karte, die real 85W braucht kann man IMHO kaum passiv kühlen.
Was ist zu heiß?
So das sie absemmelt. 90°C unter Last sind kein Problem für eine GPU.
Eine Karte, die real 85W braucht kann man IMHO kaum passiv kühlen.
Selbst die passive XFX 7900GT, die nur mit 48W heizt http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html#sect0 wird recht warm. http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_xfx_geforce_7950_gt_570m_extreme/22/#abschnitt_temperatur
Adam D.
2007-10-28, 16:52:29
Ich hab mir nochmal versucht ein Bild der zukünftigen Modelle zu machen. Sagen wir, die 8800GT löst die GTS ab und die neue GTS löst die GTX ab, dann laufen (bis auf die Ultra) alle 90nm-Produkte aus und werden durch Karten in 65nm ersetzt. Gleichzeitig gibt es aber kein neues Namensschema. Ergo könnten weitere G92-Modelle 8900GTS/GTX heißen und deutlich über dem Niveau der 8800er liegen. Wirklich Sinn macht das aber nicht :usad:
BTW: http://geizhals.at/deutschland/a291563.html Schlagt zu :ulol:
reunion
2007-10-28, 16:56:50
Das ist aber eher semipassiv. Ohne Luftstrohm wird das Ding sicher zu heiß.
Unterschätzt den Kühler nicht. Das Ding ist ein AC Accelero S1, welcher im PCGH-Test eine X1950pro unter Last auf 75°C kühlte, der Standardkühler ist kaum besser.
BTW: http://geizhals.at/deutschland/a291563.html Schlagt zu :ulol:
Ich nimm lieber die http://geizhals.at/deutschland/a291565.html
Auch wenn Asus nie der Billigste Anbieter ist. :)
seahawk
2007-10-28, 17:43:01
Bei einer passiven Kühllösung ist die Hohe Temparatu je notwendig, weil durch die fehlenden aktive Kühlung einen hohes Delta benötigt wird. So gesehen wird sie sich immer näher am MAximum bewegen, als einen aktive, was aber egal ist, solnage man nicht OC machen will und man nicht in den kritischen Bereich kommt.
Spasstiger
2007-10-28, 17:47:49
Das ist aber eher semipassiv. Ohne Luftstrohm wird das Ding sicher zu heiß.
Laut PCGH reicht aber der Accelero S1 für die Passivkühlung einer X1950 Pro aus, gegenüber den ab Werk passiv gekühlten Karten erzielt man einen Temperaturvorteil von rund 20°C.
Nur dürfte die 8800 GT noch ein wenig mehr Abwärme raushauen als die X1950 Pro. Ich tippe mal auf ca. 100 Watt unter 3DMark-Last.
andre87
2007-10-28, 17:54:20
hmm sind ja irgendwie immernoch keine 8800GT gelistet, ausser 2 stück oder so...
AnarchX
2007-10-28, 17:57:11
Ich tippe mal auf ca. 100 Watt unter 3DMark-Last.
Das sollte eine Default-GT eher nicht erreichen, hier liegt ja schon eine 8800 GTS. Würde 80-90W tippen, was auch nicht passiv tauglich ist.
Naja, ich hoffe doch auf eine Palit/XpertVision GeForce 8800 GT Super 1024MiB mit einem von Palit/Gainward selbstdesignten Dual-Slot-Kühler für 220-240€ Mitte November. :D
Spasstiger
2007-10-28, 17:59:55
Naja, ich hoffe doch auf eine Palit/XpertVision GeForce 8800 GT Super 1024MiB mit einem von Palit/Gainward selbstdesignten Dual-Slot-Kühler für 220-240€ Mitte November. :D
Eventuelle 1-GiB-Versionen sehe ich eher bei 300€.
AnarchX
2007-10-28, 18:07:09
Eventuelle 1-GiB-Versionen sehe ich eher bei 300€.
512MB 1ns GDDR3 sollten AFAIK bei etwa $50 liegen, womit man bei $299 wäre und Palit kann auf Grund des besonderen Verhältnisses zu NV meist Preise bieten die konkurrenzlos sind.
Wobei ich erwähnen sollte, dass ich im Zusammenhang mit einer 8800 GT 1GiB etwas von GDDR2 gehört hatte, aber keine Ahnung welcher AIB...
James Ryan
2007-10-28, 18:23:48
Wobei ich erwähnen sollte, dass ich im Zusammenhang mit einer 8800 GT 1GiB etwas von GDDR2 gehört hatte, aber keine Ahnung welcher AIB...
War das nicht Gainward?
Wie dem auch sei, 1 GB VRam macht wohl eher für die G92-GTS Sinn.
MfG :cool:
Die Diskussion um die Kühler verwirrt mich gerade etwas :) .
Wie ist denn der Zalman VF-900 im Vergleich zu den 2-Slot-Kühllösungen der GTS/GTX und im Vergleich zum Standardkühler einzuschätzen?
Ich will mir nämlich ne 8800GT kaufen, allerdings keinen Föhn in den PC bauen.
Reicht der VF-900 für diese Karte? Ich will nicht übertakten.
Grüße
Sky
AnarchX
2007-10-28, 18:28:01
Wie dem auch sei, 1 GB VRam macht wohl eher für die G92-GTS Sinn.
Wie man an so manchem Bench sieht, limitiert doch die Speichermenge schon die relativ starke GPU der GT, in Zukunft könnte es wohl schlimmer werden.
Zu einem vernünftigen Preis sollte man doch die 1GiB in Betracht ziehen, wenn man entsprechende Einstellungen wählen will oder die Karte länger benutzen will.
dargo
2007-10-28, 18:34:36
Wie man an so manchem Bench sieht, limitiert doch die Speichermenge schon die relativ starke GPU der GT, in Zukunft könnte es wohl schlimmer werden.
Zu einem vernünftigen Preis sollte man doch die 1GiB in Betracht ziehen, wenn man entsprechende Einstellungen wählen will oder die Karte länger benutzen will.
Bei einer G8800GT gehen die 512MB noch. Erst bei 2 GTs, sprich SLI halte ich 1GB Versionen für sehr sinnvoll.
LovesuckZ
2007-10-28, 18:35:56
Wieso?
dargo
2007-10-28, 18:40:02
Weil man dann halt ca. 180% der GTX Leistung hat, sich aber der Vram bei SLI nicht addiert. Dh. die 512MB könnten schon oft die "brachiale" Leistung bremsen.
LovesuckZ
2007-10-28, 18:41:18
Das geschieht auch schon bei der GT. Warum reichen also bei ihr 512mb, jedoch bei SLI nicht?
Das geschieht auch schon bei der GT. Warum reichen also bei ihr 512mb, jedoch bei SLI nicht?
Irgendwann muss man einen Schlussstrich ziehen.
Oder machen auf einer 8600GT 1GiB viel Sinn?
dargo
2007-10-28, 18:51:23
Das geschieht auch schon bei der GT. Warum reichen also bei ihr 512mb, jedoch bei SLI nicht?
Ich sehe das aus folgender Perspektive - wenn ich ~180% Leistung einer GTX habe investiere ich diese in höhere Auflösung und/oder mehr Antialiasing. Dadurch steigt natürlich der Vram Bedarf. Und da werden 512MB schon oft knapp. Bei einer GT kann ich logischerweise nicht die Settings wie mit 2 GTs fahren. Also brauche ich auch nicht so viel Vram.
Mal davon abgesehen halte ich schon die 512MB bei einer GT etwas zu wenig. Aber, bei dem Preis ist es zu verkraften. :wink:
LovesuckZ
2007-10-28, 18:51:53
Speicher kann man im Grunde nie genug haben. Aber warum bei einer 8800GT 512mb reichen würden und diese in einem SLI Verbund unterdimensioniert wären, verstehe ich nicht.
BvB123
2007-10-28, 18:54:04
Weil man mit SLI höhere Auflösungen, höheren Detailgrad und oder mehr AA/AF benutzen kann. Dadurch steigt natürlich der Vram bedarf ganz gut an.
Gruß bvb
Speicher kann man im Grunde nie genug haben. Aber warum bei einer 8800GT 512mb reichen würden und diese in einem SLI Verbund unterdimensioniert wären, verstehe ich nicht.
Weil das ganze auch eine Geldfrage ist.
GeneralHanno
2007-10-28, 18:55:52
auf jeden fall sollte klar sein, dass 256mb für die 8800GT sehr knapp bemessen sind.
auf jeden fall sollte klar sein, dass 256mb für die 8800GT sehr knapp bemessen sind.
Ja das wissen wir von der verkrüppelten GTS.
Aber eine 256MiB GT sollte unter 200€ wildern.
dargo
2007-10-28, 19:01:50
Speicher kann man im Grunde nie genug haben. Aber warum bei einer 8800GT 512mb reichen würden und diese in einem SLI Verbund unterdimensioniert wären, verstehe ich nicht.
Wie soll ich das anders erklären? :ugly:
Folgende Situation:
Fall 1: 1x G8800GT 512MB im Game X in Settings X = 50fps (Vrambedarf von 500MB)
Fall 2: 2x G8800GT 2x 1024MB im Game X in Settings X = 90fps (Vrambedarf von 500MB)
Jetzt würde ich im zweiten Fall die Settings hochschrauben, sprich Auflösung und/oder AA Stufe. Schließlich brauche ich keine 90fps. Also:
Fall 3: 2x G8800GT 2x 1024MB im Game X in Settings Y = 60fps (Vrambedarf von 700MB)
Da sich bei SLI der Vram nicht addiert würde man im dritten Fall mit zwei 512MB GTs auf <30fps fallen da einfach der Vram ausgeht und ausgelagert werden muss. Ist es so verständlicher? :)
Denke, das Nvidia mit der 8800 GT den Vram-Bug des G80 beseitigt hat, wie anders will man sich den großen Vorsprung einer 8800GT mit 512MB gegenüber einer 8800GTS in besonders hohen Auflösungen und Settings erklären. Sogar an die 8800GTX kommt die GT nah ran. Nein, der Vram-Bug ist ein G80 und kein Treiberproblem, ansonsten hätte Nvidia diesen Fehler längst gefixt. Sofern der Speicher schnell gelert wird, sind sogar 256MB unter Umständen absolut ausreichend. Wir werden sehen!
AnarchX
2007-10-28, 19:02:12
Speicher kann man im Grunde nie genug haben. Aber warum bei einer 8800GT 512mb reichen würden und diese in einem SLI Verbund unterdimensioniert wären, verstehe ich nicht.
Weil unter SLI(AFR) sich im Gegensatz zu den anderen Leistungszahlen die Speichermenge nicht (theoretisch) addiert. Das solltest du eigentlich wissen.
btw.
http://i20.tinypic.com/2d6vds3.jpg
:D
GeneralHanno
2007-10-28, 19:07:37
loool auf dem bild steht die angebliche RV670 performence!
dargo
2007-10-28, 19:09:21
Denke, das Nvidia mit der 8800 GT den Vram-Bug des G80 beseitigt hat, wie anders will man sich den großen Vorsprung einer 8800GT mit 512MB gegenüber einer 8800GTS in besonders hohen Auflösungen und Settings erklären. Sogar an die 8800GTX kommt die GT nah ran. Nein, der Vram-Bug ist ein G80 und kein Treiberproblem, ansonsten hätte Nvidia diesen Fehler längst gefixt. Sofern der Speicher schnell gelert wird, sind sogar 256MB unter Umständen absolut ausreichend. Wir werden sehen!
Oh man, schon wieder dieser Blödsinn mit dem Vram-Bug. Ich fasse es nicht. :uhammer:
Bitte informiere dich erstmal und plappere nicht einfach alles nach!
Dass, die GT so nah an der GTX liegt liegt einfach an der hohen Rohleistung und hat rein gar nichts mit irgendwelchem Vram-Bug zu tun. Die Games die getestet wurden scheinen ganz einfach die 512MB Vram nicht zu "sprengen", so einfach ist das.
Kommt ein Game zum Einsatz, dass zb. 700MB Vram in Settings X benötigt wird auch die G8800GT 512 stark einbrechen.
laser114
2007-10-28, 19:09:31
Und es soll sogar die GDDR4-Variante sein. Fragt sich nur was getestet wurde, und wie natürlich.
btw.
http://i20.tinypic.com/2d6vds3.jpg
:D
:D
btw.
Was hat es eigentlich mit PureVideo HD auf sich?
Das musste man doch bei nv extra kaufen?
Weil unter SLI(AFR) sich im Gegensatz zu den anderen Leistungszahlen die Speichermenge nicht (theoretisch) addiert. Das solltest du eigentlich wissen.
btw.
http://i20.tinypic.com/2d6vds3.jpg
:D
Wenn das stimmen sollte auf dem Bild, dann ist das absolut kein GRund sich zu freuen, sondern eher zum weinen für ATI, das würde mir sehr leid tun für die!!
Oh man, schon wieder dieser Blödsinn mit dem Vram-Bug. Ich fasse es nicht. :uhammer:
Bitte informiere dich erstmal und plappere nicht einfach alles nach!
Dass, die GT so nah an der GTX liegt liegt einfach an der hohen Rohleistung und hat rein gar nichts mit irgendwelchem Vram-Bug zu tun. Die Games die getestet wurden scheinen ganz einfach die 512MB Vram nicht zu "sprengen", so einfach ist das.
Kommt ein Game zum Einsatz, dass zb. 700MB Vram in Settings X benötigt wird auch die G8800GT 512 stark einbrechen.
Das wage ich zu bezweifeln. Es gibt genügend Tests, das der Vram Bug alle G80 Pedants betrifft, nur das die kleine 8800GTS ziemlich schnell voll ist und so der Fehler sichtbar wird (bei Wiki gibts einen interessannte Artikel zum Vram-Bug sowie nützliche Links zum Thema), Nvidia hat nach drei TReiberversionen noch immer nicht den Bug behoben, weil er halt nicht in Software sondern eher in Hardware vorliegt vielleicht?
GeneralHanno
2007-10-28, 19:14:51
ich würde NIE einem bench vertrauen, der unter ominösen umständen (keine angaben zu den testbedingungen) auf einer VERKAUFSPACKUNG (!!!) gedruckt wurde. ich glaube eher, man möchte möglichst viele 8800GT verkaufen, bevor der RV670 offiziell vorgestellt wird.
Vram Bug G80:
Nvidia reagierte und versprach einen Treiber, der das Problem lösen sollte. Dieser verzögerte sich jedoch mit der Begründung, dass ein „Problem of complex nature“ vorliegt. Ende August stellte dann Nvidia ohne weitere Ankündigung den Beta-Treiber ForceWare 163.44 bereit, dem viele Internet-Magazine unterstellten, er löse das VRAM-Problem. Dies geschah meist auf Grundlage eigener Tests, nachdem sich die Geforce 8800 GTS mit 320 MB in getesteten Spielen deutlich schneller wurde, die Geforce 8800 GTS mit 640 MB allerdings keine Unterschiede zeigte. Wie jedoch Nvidia auf Nachfrage mitteilte ist in diesem Treiber der Fehler nicht behoben, die Leistungssteigerungen seien auf Änderungen zurückzuführen, die den VRAM-Bug etwas abschwächten. So wurde die Speicherkompression überarbeitet, wodurch beim Speicherüberlauf nicht mehr so viel Leistung verloren geht. Außerdem würden in Stalker die Texturen anders verwaltet, was dortige Leistungssteigerungen erkläre. Laut dem Technical Marketing Analyst Nvidias, James Wang, wird der nächste offizielle Treiber die Fehler im Speichermanagement beheben. [2] Mittlerweile sind zwei weitere offizielle Treiberversionen erschienen und der VRAM-Bug ist noch nicht behoben
AnarchX
2007-10-28, 19:18:49
@GeneralHanno
Glauben soll man diesem auch nicht (scheinen übrigens Stalker und CoH zu sein), aber ich finde es durchaus lustig bzw. dreist.:D
Aber das Design des Leadtek Aufklebers hat imo etwas:
http://img504.imageshack.us/img504/4089/e9apvlmv8.th.jpg (http://img504.imageshack.us/my.php?image=e9apvlmv8.jpg)
... wenn man diesen auch nur mal zum Einbau zu sehen bekommt.
dargo
2007-10-28, 19:19:16
Das wage ich zu bezweifeln. Es gibt genügend Tests, das der Vram Bug alle G80 Pedants betrifft, nur das die kleine 8800GTS ziemlich schnell voll ist und so der Fehler sichtbar wird (bei Wiki gibts einen interessannte Artikel zum Vram-Bug sowie nützliche Links zum Thema), Nvidia hat nach drei TReiberversionen noch immer nicht den Bug behoben, weil er halt nicht in Software sondern eher in Hardware vorliegt vielleicht?
Zeige mir einen Beweis, dass ein Vram-Bug existiert. Und ich möchte keinen Text lesen sondern nachvollziehbare Benches sehen.
Zeige mir einen Beweis, dass ein Vram-Bug existiert. Und ich möchte keinen Text lesen sondern nachvollziehbare Benches sehen.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/
unter Update
Was steht da, Stalker und Company of Heroes?
Zeige mir einen Beweis, dass ein Vram-Bug existiert. Und ich möchte keinen Text lesen sondern nachvollziehbare Benches sehen.
Die Beweise wurden dir bereits zig mal vorgekaut.
Was steht da, Stalker und Company of Heroes?
Genau! einfach vergrößern und schon wirds deutlich ,-)
AnarchX
2007-10-28, 19:23:30
Zeige mir einen Beweis, dass ein Vram-Bug existiert. Und ich möchte keinen Text lesen sondern nachvollziehbare Benches sehen.
Hast du wirklich damals die Benches verpasst, wo dieser aufgefallen ist?
Hier mal etwas, 88GTS 320 in CoD hinter einer 7900GS in 1600x1200 4xAA/16xAF, obwohl sie es locker mit der X1900 XT 256 aufnehmen sollte, die 256er 8600er schlagen sich hier auch sehr schlecht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/12/#abschnitt_call_of_duty_2
dargo
2007-10-28, 19:27:37
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/august/forceware_16344_vram-bug_g8x/
unter Update
Das kenne ich schon. Das ist für mich überhaupt kein Beweis. Schließlich sehe ich da keine Angaben zum Vram-Bedarf in den getesteten Games. Ich möchte außerdem die GTS 640 und/oder GTX 768 sehen. Und komme mir nicht damit, bei diesen Karten kommt ein Vram-Bug viel später zu stande weil mehr Vram vorhanden ist. Ich kann auch ohne Probleme den Vram meiner 640MB GTS sprengen, zb. mit unkomprimierten Texturen von Quake 4 oder Doom3.
Also der Aufkleber auf der Leadtek Verpackung ist schon dreist, sollten diese Angaben nicht stimmen oder später irgendwann mal stark abweichen (Treiberupdate), so könnte AMD doch Leadtek diesbezüglich wegen Verleumdung verklagen, oder?
Eher wegen unlauterem Wettbewerb abmahnen. Aber wer kennt schon alle Gesetze in allen möglichen Ländern. Die Verpackung bei uns kann ja ohne das Ding sein, wer weiss.
xL|Sonic
2007-10-28, 19:33:00
Beschleunigt die 8800GT eigentlich alle HD Formate von Filmen? Also H.264 und VC-1?
AnarchX
2007-10-28, 19:36:02
Beschleunigt die 8800GT eigentlich alle HD Formate von Filmen? Also H.264 und VC-1?
Ja, aber bei VC-1 wohl immernoch nicht die 1. Stufe.
Mehr dazu findest du hier, da sie den gleichen VP2 wie GF8600/8500 hat:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/bericht_avivo_hd_purevideo_hd_vergleich/
dargo
2007-10-28, 19:41:25
Hast du wirklich damals die Benches verpasst, wo dieser aufgefallen ist?
Hier mal etwas, 88GTS 320 in CoD hinter einer 7900GS in 1600x1200 4xAA/16xAF, obwohl sie es locker mit der X1900 XT 256 aufnehmen sollte, die 256er 8600er schlagen sich hier auch sehr schlecht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8600_gts_sli_8600_gt/12/#abschnitt_call_of_duty_2
Die Benches von CB kommen mir eh etwas merkwürdig vor. In CoD2 reichen 256MB auf keinem Fall aus, zumindest nicht in 1600x1200 4xAA/16xAF mit max. Details. Auch nicht bei ATI.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356137&highlight=folgen
Es sei denn, CB hat eine sehr "sparsame" Timedemo verwendet was den Vram-Bedarf angeht. Und ohne einen Frameverlauf kann man eh nicht viel aus den fps. bei CB ableiten.
Ich will ja nicht abstreiten, dass es mit bestimmten Games ein Speichermanagment-Problem bei der 320MB GTS mit früheren Treibern gab. Schließlich sind mit neueren Treibern die fps. gestiegen. Für einem Vram-Bug der auf fehlerhafte Hardware zurückzuführen ist habe ich bis heute keinen Beweis gesehen.
Godmode
2007-10-28, 19:42:07
@GeneralHanno
Glauben soll man diesem auch nicht (scheinen übrigens Stalker und CoH zu sein), aber ich finde es durchaus lustig bzw. dreist.:D
Aber das Design des Leadtek Aufklebers hat imo etwas:
http://img504.imageshack.us/img504/4089/e9apvlmv8.th.jpg (http://img504.imageshack.us/my.php?image=e9apvlmv8.jpg)
... wenn man diesen auch nur mal zum Einbau zu sehen bekommt.
Ein schwarzes PCB, wie bei der GTX, GTS würde das ganze noch abrunden!
reunion
2007-10-28, 19:44:12
Zeige mir einen Beweis, dass ein Vram-Bug existiert. Und ich möchte keinen Text lesen sondern nachvollziehbare Benches sehen.
Tja, wie schon mehrmals gesagt, man kann natürlich alles bestreiten, auch wenn es schon so offensichtlich ist, dass es wohl selbst ein Blinder sehen würde. Die 8600GTS fällt in dem Bench von AnarchX übrigens sogar hinter eine 7600GT zurück.
Die Benches von CB kommen mir eh etwas merkwürdig vor. In CoD2 reichen 256MB auf keinem Fall aus, zumindest nicht in 1600x1200 4xAA/16xAF mit max. Details. Auch nicht bei ATI.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=356137&highlight=folgen
Es sei denn, CB hat eine sehr "sparsame" Timedemo verwendet was den Vram-Bedarf angeht. Und ohne einen Frameverlauf kann man eh nicht viel aus den fps. bei CB ableiten.
Ich will ja nicht abstreiten, dass es mit bestimmten Games ein Speichermanagment-Problem bei der 320MB GTS mit früheren Treibern gab. Schließlich sind mit neueren Treibern die fps. gestiegen. Für einem Vram-Bug der auf fehlerhafte Hardware zurückzuführen ist habe ich bis heute keinen Beweis gesehen.
Nagut, ob es ein Software-, oder Hardwarefehler ist, lässt sich natürlich schwer beurteilen. Wäre es ein Softwarefehler, wäre es zumindest seltsam, dass deren Beseitigung bis heute nicht gelungen ist.
AnarchX
2007-10-28, 19:45:10
Für einem Vram-Bug der auf fehlerhafte Hardware zurückzuführen ist habe ich bis heute keinen Beweis gesehen.
Davon habe ich jedenfalls auch nicht gesprochen, imo ist es eher ein Treiber-Problem, dessen Beiseitigung sich auf Grund der Situation Vista+XP und eben anderen Problemen mit der neuen Architektur etwas hinzieht.
Dass es Besserungen gab, wurde ja auch desöfteren berichtet/beobachtet.
dargo
2007-10-28, 19:48:57
Tja, wie schon mehrmals gesagt, man kann natürlich alles bestreiten, auch wenn es schon so offensichtlich ist, dass es wohl selbst ein Blinder sehen würde.
Das war doch klar, dass du gleich hier auftauchst. Liefere mir erstmal nachvollziehbare Beweise für einen Hardware-Fehler. Von dem ganzen Nachgeplappere habe ich langsam die Schnauze voll.
Ich weiß, was ich selber teste. Und wenn du der Meinung bist, dass es ein Hardwarefehler ist dann bin ich mal auf deine Erklärung gespannt warum es diesen "Vram-Bug" nicht in jedem Spiel gibt?
reunion
2007-10-28, 19:50:39
Das war doch klar, dass du gleich hier auftauchst. Liefere mir erstmal nachvollziehbare Beweise für einen Hardware-Fehler. Von dem ganzen Nachgeplappere habe ich langsam die Nase voll.
Ich weiß, was ich selber teste. Und wenn du der Meinung bist, dass es ein Hardwarefehler ist dann bin ich mal auf deine Erklärung gespannt warum es diesen "Vram-Bug" nicht in jedem Spiel gibt?
Ich habe nie gesagt, dass es ein Hardwarefehler ist. Doch bis vor wenigen Minuten hast du jegliche Existenz des VRAM-Bugs vehement bestritten.
Die_Allianz
2007-10-28, 19:51:59
darf ich euch bitten, die G80 Diskussion nicht hier zu führen. wäre nett
ist wirklich OT
AnarchX
2007-10-28, 20:03:24
darf ich euch bitten, die G80 Diskussion nicht hier zu führen. wäre nett
ist wirklich OT
Im Endeffekt geht es ja auch darum, wie ausreichend die 512MiB der GT sind.
Wobei man sich natürlich nicht zu weit hiervon entfernen sollte!
Aber am sichersten wird wohl eine 1GiB GT sein. :D
GeneralHanno
2007-10-28, 20:12:15
stichwort: 2900xt 1GiB vs 512MiB
wie groß war der unterschied ? 2% ?
macht euch mal keine zu großen hoffnungen, dass sich 1GiB lohnen werden.
dargo
2007-10-28, 20:13:06
Im Endeffekt geht es ja auch darum, wie ausreichend die 512MiB der GT sind.
Wobei man sich natürlich nicht zu weit hiervon entfernen sollte!
Aber am sichersten wird wohl eine 1GiB GT sein. :D
Ich freue mich schon auf die "Vram-Bug" Beschwerden bei einer G8800GT 256. :rolleyes:
stichwort: 2900xt 1GiB vs 512MiB
wie groß war der unterschied ? 2% ?
macht euch mal keine zu großen hoffnungen, dass sich 1GiB lohnen werden.
Bitte erspare uns das. Beschäftige dich lieber mit dem Vram-Bedarf in bestimmten Games und Settings. :rolleyes:
AnarchX
2007-10-28, 20:15:07
Ich freue mich schon auf die "Vram-Bug" Beschwerden bei einer G8800GT 256. :rolleyes:
Wenn sie deutlich hinter einer X19x0/7900/2900 256MB liegt, sind diese auch berechtigt. ;)
seahawk
2007-10-28, 20:17:23
Ich sehe das aus folgender Perspektive - wenn ich ~180% Leistung einer GTX habe investiere ich diese in höhere Auflösung und/oder mehr Antialiasing. Dadurch steigt natürlich der Vram Bedarf. Und da werden 512MB schon oft knapp. Bei einer GT kann ich logischerweise nicht die Settings wie mit 2 GTs fahren. Also brauche ich auch nicht so viel Vram.
Mal davon abgesehen halte ich schon die 512MB bei einer GT etwas zu wenig. Aber, bei dem Preis ist es zu verkraften. :wink:
Gut aber es bleibt die Frage, ob sich ein GT-SLI system gegenüber einer zukünftigen GTX rechnet. Die könnte fast 80% der Lesitung für nur 20-30% mehr Leistungsaufnahme als eine einzelne GT bieten.
dargo
2007-10-28, 20:29:36
Gut aber es bleibt die Frage, ob sich ein GT-SLI system gegenüber einer zukünftigen GTX rechnet. Die könnte fast 80% der Lesitung für nur 20-30% mehr Leistungsaufnahme als eine einzelne GT bieten.
Ich würde grundsätzlich eine einzelne Karte mit der Leistung von zwei G8800GTs dem SLI-Gespann vorziehen. Schon alleine um sich das SLI "Gefrickele" zu sparen. Das Problem ist nur, dass momentan keiner die Pläne von NV irgendwie kennt was schnellere GPUs auf G92 Basis angeht.
Das Auge
2007-10-28, 20:31:59
Im Endeffekt geht es ja auch darum, wie ausreichend die 512MiB der GT sind.
Wobei man sich natürlich nicht zu weit hiervon entfernen sollte!
Aber am sichersten wird wohl eine 1GiB GT sein. :D
Natürlich wäre die etwas sicherer, aber so oft wie die meisten Leute hier ihre Grafikkarten wechseln, dürfte das ziemlich wurscht sein. Bis ein Spiel wirklich 1GB benötigt um akzeptabel zu laufen sind wir doch schon längst wieder 2-3 Generationen weiter ;)
Überhaupt: "Für die Zukunft" kaufen hat sich noch nie gelohnt, wird sich nie lohnen.
Wenn das stimmen sollte auf dem Bild, dann ist das absolut kein GRund sich zu freuen, sondern eher zum weinen für ATI, das würde mir sehr leid tun für die!!
Ich habe eigentlich noch keine Grakapackung gehabt, auf denen die Konkurrenz indirekt bloßgestellt wird, höchsten die Vorgängergeneration des Herstellers. Ist das Packungslayout offiziell?
Aber war sowieso klar, dass Amd nicht konkurrenzfähig ist bzw. sein wird, bevor der R700 rauskommt. Der R600 und seine Derivate sind scheiße und werden scheiße bleiben im Vergleich zur nV-Konkurrenz.
Die machen doch nur noch Schadensbegrenzung. Wenn da nicht ein finanzielles Wunder passiert, dann werden die auch kein R700 mehr entwickeln, jedenfalls nicht fertig, da sie vorher bankrott sind.
Das Auge
2007-10-28, 21:02:44
Die machen doch nur noch Schadensbegrenzung. Wenn da nicht ein finanzielles Wunder passiert, dann werden die auch kein R700 mehr entwickeln, jedenfalls nicht fertig, da sie vorher bankrott sind.
So ganz unrecht hast du da nicht. Wenn nicht ein kleines Wunder passiert, sehe ich NV in absehbarer Zukunft alleine im High-End-Sektor.
AMD könnte das ganze durchaus zu teuer werden und nur noch maximal mid-Range anbieten. Schaun mer mal, ich fänds schade. Wird ja langweilig wenn dann jeder ambitionierte Zocker nur noch NV im Rechner hat.
Langweilig nicht. Aber teuer wirds dann.
The_Invisible
2007-10-28, 21:06:22
Also der Aufkleber auf der Leadtek Verpackung ist schon dreist, sollten diese Angaben nicht stimmen oder später irgendwann mal stark abweichen (Treiberupdate), so könnte AMD doch Leadtek diesbezüglich wegen Verleumdung verklagen, oder?
die balken gabs schon seit eh und je auf den packungen.
btw
für den vram bug rennt die 320mb gts aber gut: http://www.tweaktown.com/articles/1211/2/page_2_benchmark_results/index.html
auf gleicher höhe mit der 1gb xt
mfg
So ganz unrecht hast du da nicht. Wenn nicht ein kleines Wunder passiert, sehe ich NV in absehbarer Zukunft alleine im High-End-Sektor.
AMD könnte das ganze durchaus zu teuer werden und nur noch maximal mid-Range anbieten. Schaun mer mal, ich fänds schade. Wird ja langweilig wenn dann jeder ambitionierte Zocker nur noch NV im Rechner hat.
So wie jetzt schon großteils.
Amd könnte das nicht nur zuteuer werden, sonder vielleicht sogar finanziell unmöglich sein.
Die CPU Entwicklung ist ja auch nicht gerade billig, denke mal, dass die Priorität hat.
P.S:
Hast dich doch auch von deiner HD2900 getrennt, oder?
Konnte dich nicht wirklich in der Praxis überzeugen?
Hvoralek
2007-10-28, 21:07:44
btw.
http://i20.tinypic.com/2d6vds3.jpg
:DBin ich der einzige, der 10 - 35% Vorsprung bei einem dermaßen voreingenommenen "Test" ziemlich wenig findet? Es sollte eigentlich kein Problem sein, zwei oder drei Stellen zu finden, in denen eine GT mit AF einen RV670 wesentlich klarer schlägt. Es sei denn, der wird doch stärker als gedacht.
Das Problem ist nur, dass momentan keiner die Pläne von NV irgendwie kennt was schnellere GPUs auf G92 Basis angeht.Die werden wir ja wahrscheinlich Mitte Nov. kennenlernen. Und wer sich davor eine GT kauft, ist selbst schuld.
dargo
2007-10-28, 21:08:19
So ganz unrecht hast du da nicht. Wenn nicht ein kleines Wunder passiert, sehe ich NV in absehbarer Zukunft alleine im High-End-Sektor.
AMD könnte das ganze durchaus zu teuer werden und nur noch maximal mid-Range anbieten. Schaun mer mal, ich fänds schade. Wird ja langweilig wenn dann jeder ambitionierte Zocker nur noch NV im Rechner hat.
Du hast Intel in 2008 vergessen. ;)
Wobei sich erstmal zeigen muss was Intel drauf hat.
AnarchX
2007-10-28, 21:10:30
Bin ich der einzige, der 10 - 35% Vorsprung bei einem dermaßen voreingenommenen "Test" ziemlich wenig findet?
Nein, die 10% bei Stalker sind ziemlich lächerlich, wenn man sich bei CB anschaut, dass eine 88GTX mit AF fast doppelt so schnell ist wie eine 29XT. ;)
Hvoralek
2007-10-28, 21:17:12
Nein, die 10% bei Stalker sind ziemlich lächerlich, wenn man sich bei CB anschaut, dass eine 88GTX mit AF fast doppelt so schnell ist wie eine 29XT. ;)Wie gesagt: Entweder hat Leadtek ungeschickt gemessen oder RV670 bringt noch ein paar Überraschungen. Oder sie haben einfach AA/AF vergessen :ugly:
Du hast Intel in 2008 vergessen. ;)
Wobei sich erstmal zeigen muss was Intel drauf hat.Larrabee kommt doch erst Anfang 2009, oder? Es bleibt auch abzuwarten, inwieweit das Ding für 3D- Grafik nutzbar ist, High- End wird es aber mit 1 TFLOPS dann wohl nicht mehr sein.
Das Auge
2007-10-28, 21:21:37
Hast dich doch auch von deiner HD2900 getrennt, oder?
Konnte dich nicht wirklich in der Praxis überzeugen?
Teils, teils. Das was ich mit der Karte gezockt hab (Bioshock und Stalker) lief schon gut, mein einziger echter Kritikpunkt wäre die Lautstärke (Strom naja...die 10 oder 20 Euro mehr im Jahr sind mir wurscht).
Ich sag mal so: Wenn die GT nicht erscheinen würde, würde ich die XT behalten. Aber die GT ist einfach in jeder Hinsicht besser (außer Lautstärke, da tun die sich wohl nicht viel), also warum nicht schnell noch die XT loswerden, solange es noch Knete für die gibt und ich ohne draufzuzahlen oder sogar mnit etwas Gewinn umrüsten kann?
Die werden wir ja wahrscheinlich Mitte Nov. kennenlernen. Und wer sich davor eine GT kauft, ist selbst schuld.
Nicht unbedingt, s.o. Wer jetzt noch natürlich auf einem alten Eisen unterwegs ist, der sollte warten, keine Frage.
edit: quote gefixt
Sollte die 8800GT nicht endlich DisplayPort bringen? Warum sehe ich davon nichts auf den Bildern? Schweinerei! :mad: Womit sollen die örli Adopter ihre Bildschirme füttern?
Die Sachte mit der Verpackung erinnert mich an das Biest, das ATi in der Spucke hatte. :smile:
=Floi=
2007-10-28, 21:38:27
amd kann es sich garnicht leisten das highend segment zu vernachlässigen. Dort sind die margen wesentlich höher und auch das prestige ist erheblich wichtiger für die ganze serie. AMD braucht eben hier ein bischen länger bugs zu fixen und architekturen zu verbessern! Für den R600 erwartete man eben spiele die mehr auf shaderpower setzen und bestimmte andere dinge, aber das trat dann eben nicht ein und deshalb ist es jetzt so wie es ist...
barbe
2007-10-28, 21:39:29
Die Diskussion um die Kühler verwirrt mich gerade etwas :) .
Wie ist denn der Zalman VF-900 im Vergleich zu den 2-Slot-Kühllösungen der GTS/GTX und im Vergleich zum Standardkühler einzuschätzen?
Ich will mir nämlich ne 8800GT kaufen, allerdings keinen Föhn in den PC bauen.
Reicht der VF-900 für diese Karte? Ich will nicht übertakten.
Grüße
Sky
Die selbe Thematik würde mich auch interessieren! Was meint ihr?
dildo4u
2007-10-28, 21:41:28
Der Zalman VF900 ist für eine 7900GTX freigegeben viel mher als die wird die 8800GT nicht verbrauchen von daher passt das.
K4mPFwUr$t
2007-10-28, 21:41:52
was bringt dir bitte ein display port heut zutage? reden wir in 2-3 jahren nochmal drüber :rolleyes:
bis dahin sollte ein adapter vollends reichen.
zum thema ATI/AMD und abstieg bzw. ausstieg aus dem high end markt.
ich glaube kaum das es wirklich so eintreffen sollte. oder fertigt nVidia heute nur noch midrage weil die GF5 und 6 nicht so der hit waren (besonders die FX serie *grusel*).
jeder hat mal ein tief, aber wenn es auf längere zeit anhält hat das folgen.
ob diese nur relativ gering sind oder doch stärker auf den markt auswirken kann man meist nur recht spät sagen.
AnarchX
2007-10-28, 21:42:10
Sollte die 8800GT nicht endlich DisplayPort bringen?
Das Layout ist jedenfalls dafür vorbereitet, also liegt es an den AIBs.
BvB123
2007-10-28, 21:51:14
Morgen ist der Launch oder?!
dildo4u
2007-10-28, 21:52:15
Morgen ist der Launch oder?!
Jap aber mit Reviews die sich ans NDA halten würd ich nich vor 15Uhr rechnen.
desert
2007-10-28, 21:57:23
der ticker auf www.alternate.de sagt noch 17 stunden und 3 minuten um 21.57 Uhr am 28.10.2007.
also wie immer 15.00 uhr;)
reunion
2007-10-28, 23:14:23
Wenn das stimmen sollte auf dem Bild, dann ist das absolut kein GRund sich zu freuen, sondern eher zum weinen für ATI, das würde mir sehr leid tun für die!!
Soll das ernst gemeint sein? Wenn Leadtek von nur 10-35% Leistungsvorsprung im Vergleich zu RV670 spricht, kann man wohl eher davon ausgehen, dass es ziemlich knapp wird. Diese 10-35% hätten sich wohl selbst bei einem NV30 im Vergleich zu R300 finden lassen, wenn man lange genug gesucht hätte.
Aber ich finde es sowieso witzig, dass Leadtek RV670, anstatt dem offiziellen Marketingnamen draufschreibt; kein Schwein weiß wer oder was ein RV670 sein soll.
Hvoralek
2007-10-28, 23:22:02
Aber ich finde es sowieso witzig, dass Leadtek RV670, anstatt dem offiziellen Marketingnamen draufschreibt; kein Schwein weiß wer oder was ein RV670 sein soll.Vlt. wollen sie einfach sicher gehen. AMD ändert ja den Marketingnamen gerne mal kurzfristig :D
LovesuckZ
2007-10-28, 23:23:11
Soll das ernst gemeint sein? Wenn Leadtek von nur 10-35% Leistungsvorsprung im Vergleich zu RV670 spricht, kann man wohl eher davon ausgehen, dass es ziemlich knapp wird.
Ist die 8800GT schneller als die 8800GTS? :rolleyes:
Die gelbe Eule
2007-10-28, 23:28:18
http://www.vr-zone.com/articles/Nvidia_Geforce_8800GT_Review/5369.html
VR-Zone hat auch schon mal die Hände aufgelegt.
derguru
2007-10-28, 23:30:42
sogut wie sicher auch wenn es hier nur ein beispiel ist.
http://img514.imageshack.us/img514/1848/crysis1920vf7.jpg
und jetzt kommen die vram idioten eyyy die 320mb gts hat ja die selben werte wie die 640mb:)
theorie interessiert keinen nur die praxis zählt:)
LovesuckZ
2007-10-28, 23:37:36
Immerhin haben sie nette Graphen:
http://resources.vr-zone.com/floppyimage/8800gt/ut31920.jpg
http://resources.vr-zone.com/floppyimage/8800gt/3dm05.jpg
Mal sehen, ob es überhaupt Karten mit Default Taktraten geben werde...
laser114
2007-10-28, 23:37:39
0,1 fps mehr als die GTX. Sicherlich nicht viel, aber das müsste dann ja an den Texturadressierern liegen?
reunion
2007-10-28, 23:39:02
Ist die 8800GT schneller als die 8800GTS? :rolleyes:
Nur weil nV nichts an der Architektur geändert hat, muss das ja nicht auch auf Rv670 zutreffen.
derguru
2007-10-28, 23:39:56
nee an der messtoleranz:) scheisse 0,1fps ja das liegt an der luft:)
LovesuckZ
2007-10-28, 23:40:35
Nur weil nV nichts an der Architektur geändert hat, muss das ja nicht auch auf Rv670 zutreffen.
Darum ging es nicht. Einfach nochmal lesen.
laser114
2007-10-28, 23:40:39
nee an der messtoleranz:) scheisse 0,1fps ja das liegt an der luft:)
Das auch, aber selbst bei gleichen Ergebnisse müsste es an den TAs liegen, den theoretischen Daten entsprechend. ;)
Nightspider
2007-10-28, 23:42:16
sogut wie sicher auch wenn es hier nur ein beispiel ist.
http://img514.imageshack.us/img514/1848/crysis1920vf7.jpg
und jetzt kommen die vram idioten eyyy die 320mb gts hat ja die selben werte wie die 640mb:)
theorie interessiert keinen nur die praxis zählt:)
Wie ist das möglich, das die 8800 GT schneller ist als eine 8800 GTX ? Die hat doch weniger Shader, kleineres SI und weniger Speicher oder ?
Nur der Takt ist doch geringfügig höher oder ? :eek:
derguru
2007-10-28, 23:44:32
es kann eigentlich nur wegen dem takt sein in alles anderem ist die gtx eigentlich überlegen soweit ich weis.
GanjaBob
2007-10-28, 23:47:25
mit was für taktraten hat vr-z gebencht? irgendwie komm ich grad bei denen nicht drauf ... :rolleyes: :wink:
derguru
2007-10-28, 23:49:11
mit der ino karte auf standart takt von chip und speicher also 600/900
=Floi=
2007-10-28, 23:50:55
MTexel/Sek
600*2*28=33600 GT
575*2*32=36800 GTX
damit dürfte selbst die GTS fast immer schneller sein und die ultra und die GTX dürften morgen (inoffiziell) auslaufen
Hvoralek
2007-10-28, 23:52:13
600*2*28=33600 GT
575*2*32=36800 GTX
damit dürfte selbst die GTS fast immer schneller sein und die ultra und die GTX dürften morgen (inoffiziell) auslaufenDie neue GTS kommt doch erst im Nov.
derguru
2007-10-28, 23:54:08
Die neue GTS kommt doch erst im Nov.
am 19. um genau zu sein:)
Wenn die GT schon so schnell is, des muss dann ja ein Höllenteil werden...
Preis?
derguru
2007-10-29, 00:01:05
das ist interessant,da geht ja noch einiges:)
http://img340.imageshack.us/img340/3356/ocoi8.jpg
und hier zeigt die gtx noch was sie kann wenn die mal lust hat:)
mal was für die vram spezies:)
http://img89.imageshack.us/img89/3954/crysisaaqd3.jpg
Spasstiger
2007-10-29, 00:02:30
MTexel/Sek
600*2*28=33600 GT
575*2*32=36800 GTX
Diese Rechnung macht keinen Sinn.
Entweder du rechnest rein bilinear, dann gillt:
8800 GT: 600 MHz * 56 (TAs) = 33,6 Gigatexel/s
8800 GTX: 575 MHz * 32 (TAs) = 18,4 Gigatexel/s
(8800 GTS (G80): 500 * 24 = 12 Gigatexel/s)
Oder du rechnest trilinear bzw. mit 2:1 bi-AF:
8800 GT: 600 MHz * 56/2 = 16,8 Gigatexel/s
8800 GTX: 575 MHz * 32 = 18,4 Gigatexel/s
(8800 GTS (G80): 500 * 24 = 12 Gigatexel/s)
Bei 16:1 tri-AF hat man noch:
8800 GT: 600 * 56/32 = 1,05 Gigatexel/s
8800 GTX: 575 * 32/16 = 1,15 Gigatexel/s
(8800 GTS (G80): 500 * 24/16 = 0,75 Gigatexel/s)
Nightspider
2007-10-29, 00:08:51
und hier zeigt die gtx noch was sie kann wenn die mal lust hat:)
mal was für die vram spezies:)
http://img89.imageshack.us/img89/3954/crysisaaqd3.jpg
Das der Unterschied wirklich so groß ausfallen kann hätte ich nicht gedacht.
Bei anderen Spielen gab es auch bei hohen Auflösungen und noch höherem AA keinen Einbruch der 8800 GT ????
Was hat das zu bedeuten ? Ist der Grafiktreiber der 8800 GT nicht optimiert ?
LovesuckZ
2007-10-29, 00:09:39
Vielleicht geht ja einfach der Speicher aus...
derguru
2007-10-29, 00:14:09
der vram ist bei den einstellungen 100% über der 512 mb und da haben die alten karten mit 640mb und mehr vorteile.aber ich würde nicht viel drum geben da es immer noch viel zulangsam ist zum spielen.die rohleistung finde ich viel wichtiger.
und bei den anderen spielen die du meinst wo kein einbruch zusehen war ist es wahrscheinlich so das der ram nicht vollbelegt ist,wie bei den meisten spielen.
Das der Unterschied wirklich so groß ausfallen kann hätte ich nicht gedacht.
Bei anderen Spielen gab es auch bei hohen Auflösungen und noch höherem AA keinen Einbruch der 8800 GT ????
Was hat das zu bedeuten ? Ist der Grafiktreiber der 8800 GT nicht optimiert ?
Äh....Schau mal auf die Auflösung und dazu ists Crysis.
Aber die Karte rennt doch ordentlich, wenn ich das mal richtig gelesen habe mit den 250€ dann wird das wohl wieder ein unlösbarer fall für ATI.
Die gelbe Eule
2007-10-29, 00:21:27
Ich würd mir bei 1920x1200 keine Sorgen machen oder habt Ihr alle einen 27"-30" Monitor? Falls ja, dann kauft Euch zwei 8800GT, weil 1.000€ habt Ihr ja eh schon für den Monitor bezahlt ;)
Alle anderen freuen sich über Max Details und viel AA unter 1280x1024.
derguru
2007-10-29, 00:23:26
Ich würd mir bei 1920x1200 keine Sorgen machen oder habt Ihr alle einen 27"-30" Monitor? Falls ja, dann kauft Euch zwei 8800GT, weil 1.000€ habt Ihr ja eh schon für den Monitor bezahlt ;)
Alle anderen freuen sich über Max Details und viel AA unter 1280x1024.
das denke ich auch bis 1680*1050 ist gt einfach optimal alles andere wie gtx usw. wäre geld verschwendung.
Nightspider
2007-10-29, 00:30:34
Äh....Schau mal auf die Auflösung und dazu ists Crysis.
Aber die Karte rennt doch ordentlich, wenn ich das mal richtig gelesen habe mit den 250€ dann wird das wohl wieder ein unlösbarer fall für ATI.
Es geht ja nicht darum das es so niedrig an sich ist sondern, das sie so viel niedriger sind als mit ohne AA. Der Unterschied ist extrem und der Verhältnis zwischen GT zu GTX kippt extrem zur GTX nur durch 4 AA.
Hier das habe ich eben erstellt:
http://bildupload.sro.at/a/images/8800%20GT.jpg
Mstrmnd
2007-10-29, 00:38:29
Es geht ja nicht darum das es so niedrig an sich ist sondern, das sie so viel niedriger sind als mit ohne AA. Der Unterschied ist extrem und der Verhältnis zwischen GT zu GTX kippt extrem zur GTX nur durch 4 AA.
Hier das habe ich eben erstellt:
http://bildupload.sro.at/a/images/8800%20GT.jpg
AA frisst zusätzlich VRAM und wenn der Unterschied zwischen 4AA und kein AA hier genau den Sprung über die Grenze bedeutet, dann sind die Zahlen sehr logisch.
Die gelbe Eule
2007-10-29, 00:38:32
Die Auflösung ist wayne. Kaum jemand spielt in dem Bereich und dafür ist die Karte auch nicht gedacht. Was vor kurzem noch 12*10 Standard war, kann nicht mal eben 19*12 werden.
LovesuckZ
2007-10-29, 00:38:35
Speicher.
Superheld
2007-10-29, 00:39:51
Crysis wurde mit Medium Einstellungen getestet:|
Nightspider
2007-10-29, 00:41:03
Die Auflösung ist wayne. Kaum jemand spielt in dem Bereich und dafür ist die Karte auch nicht gedacht. Was vor kurzem noch 12*10 Standard war, kann nicht mal eben 19*12 werden.
Ist klar. Die Sache ist nur die, das ich auf meinem CRT noch mind. 1600*1200 und oft auch 2048*1536 fahre und bald auf einem TFT 1920*1200 fahren will.
Nightspider
2007-10-29, 00:41:28
Crysis wurde mit Medium Einstellungen getestet:|
Link ?
Superheld
2007-10-29, 00:50:10
wenn die Screenshots stimmen
http://www.vr-zone.com/articles/Nvidia_Geforce_8800GT_Review/5369-7.html
Die bricht ja noch mehr ein mit AA u. AF wie der R600...lol
http://www.vr-zone.com/articles/Nvidia_Geforce_8800GT_Review/5369-11.html
derguru
2007-10-29, 02:46:17
ja aber nur wegen der speicherbandbreite. die ati brechen immer ein egal was die bandbreite sagt:)
AnarchX
2007-10-29, 07:14:08
G92 takes the stage - ASUS EN8800GT 512MB video card review - ASUS EN8800 GT review (http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=482&Itemid=27)
Superheld
2007-10-29, 07:19:32
net schlecht
seahawk
2007-10-29, 07:32:31
Sorry, aber 1900x1200 mit 4XAA + 16XAF ist ein Setting für das eine Karete der 240 Euro-Preisklasse einfach nicht gedacht ist. Es ist keine High-End-Karte, sondern eine Performancekarte.
AnarchX
2007-10-29, 07:40:29
Zotac 8800GT AMP! 700/1700/2000MHz, mit angepasstem Kühler:
http://img86.imageshack.us/img86/2929/20071029df40e92d5b516dfxu4.jpghttp://img86.imageshack.us/img86/8148/200710296167b9de1ad886fih8.jpg
Na ja, der Vram schein die Achilles-Ferse der 8800 GT zu sein, sobald dieser voll ist, bricht die Karte mächtig ein. Eine 1GB GT währe wohl die Karte schlechthin, mal sehen....
barbe
2007-10-29, 08:45:04
Was genau wurde bei dem Zotac AMP Lüfter angepasst? Sieht der nicht genauso aus wie Referenz?
Simon
2007-10-29, 08:58:11
Na ja, der Vram schein die Achilles-Ferse der 8800 GT zu sein, sobald dieser voll ist, bricht die Karte mächtig ein. Eine 1GB GT währe wohl die Karte schlechthin, mal sehen....
Irgendwo hab ich eine Aussage von Nvidia gesehen, dass einige Hersteller auch Karten mit 1GB RAM bringen. Aber davon ist bis jetzt nix zu sehen ;(
Henroldus
2007-10-29, 09:03:29
Na ja, der Vram schein die Achilles-Ferse der 8800 GT zu sein, sobald dieser voll ist, bricht die Karte mächtig ein. Eine 1GB GT währe wohl die Karte schlechthin, mal sehen....
Die VRAM-menge ist bei jeder Karte die Achillesferse :|, wenn sie mehr als vollausgelastet wird(also Texturen ausgelagert werden müssen), deswegen gibt es Karten in verschieden Preisklassen mit unterschiedlichen Speicherbestückungen.
AnarchX
2007-10-29, 09:09:33
Was genau wurde bei dem Zotac AMP Lüfter angepasst? Sieht der nicht genauso aus wie Referenz?
Die Abdeckung wurde völlig verändert um wohl einen problemlosen Betrieb bei diesen Taktraten zu ermöglichen.
btw.
New Nvidia GeForce 8800 GT Surprises @ THG (http://www.tomshardware.com/2007/10/29/geforce_8800_gt/)
Die 754M nochmal bestätigt und der Lautstärke-Test sieht doch auch nicht schlecht aus. ;)
Die Abdeckung wurde völlig verändert um wohl einen problemlosen Betrieb bei diesen Taktraten zu ermöglichen.
btw.
New Nvidia GeForce 8800 GT Surprises @ THG (http://www.tomshardware.com/2007/10/29/geforce_8800_gt/)
Die 754M nochmal bestätigt und der Lautstärke-Test sieht doch auch nicht schlecht aus. ;)
Laut thg ist die 8800GT stets leiser als 8800GTS/GTX :O
http://www.tomshardware.com/2007/10/29/geforce_8800_gt/page13.html#noise_level
dreas
2007-10-29, 09:21:12
Von den Overclocking-Ergebnissen bin ich allerdings etwas enttäuscht!
Da geht meine GTS ev. doch noch nicht in Rente
AnarchX
2007-10-29, 09:24:43
Von den Overclocking-Ergebnissen bin ich allerdings etwas enttäuscht!
Es ist halt nur ein Singleslot-Kühler und die wohl gerade so nötige Spannung(1.05V).;)
Ordentlicher Dual-Slot-Kühler bzw. gleich WaKü und schon sollten 1.1V+ und 750MHz+ wohl kein Problem sein...
barbe
2007-10-29, 09:40:30
Die Abdeckung wurde völlig verändert um wohl einen problemlosen Betrieb bei diesen Taktraten zu ermöglichen.
btw.
New Nvidia GeForce 8800 GT Surprises @ THG (http://www.tomshardware.com/2007/10/29/geforce_8800_gt/)
Die 754M nochmal bestätigt und der Lautstärke-Test sieht doch auch nicht schlecht aus. ;)
Ah, danke. Jetzt bin ich mir schon fast sicher sie zu kaufen ;D
Laut thg ist die 8800GT stets leiser als 8800GTS/GTX :O
http://www.tomshardware.com/2007/10/29/geforce_8800_gt/page13.html#noise_level
Huch, na wenn das stimmt, dann ist sie MEIN!
Mal ne ganz andere Frage: Warum gibt esschon si viele Seiten mit veröffentlichten Review und warum lassen sich unsere deutschen Seiten noch Zeit? (immerhin dürfte die Zeitverschiebung nicht der Grund sein), also wo ist der Hacken?
AnarchX
2007-10-29, 09:56:00
Mal ne ganz andere Frage: Warum gibt esschon si viele Seiten mit veröffentlichten Review und warum lassen sich unsere deutschen Seiten noch Zeit? (immerhin dürfte die Zeitverschiebung nicht der Grund sein), also wo ist der Hacken?
Das NDA läuft nach wievor 15:00Uhr unserer Zeit aus, aber wie immer halten sich einige nicht daran.;)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.