PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 9: 9800GTX und GX2 Teil 2


Seiten : 1 2 3 [4] 5

AnarchX
2008-02-28, 12:28:54
Warum haben wir eigentlich noch keinen Speku-Thread für GT200?
Gibt es doch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=398955

Nur ist die 9800 GTX so entäuschend, dass der Blick gleich immer auf den Nachfolger fällt.:D

Gast
2008-02-28, 13:58:37
http://img524.imageshack.us/img524/5430/9800gtxpower4e0646acvm2.png (http://imageshack.us)

http://www.expreview.com/news/hard/2008-02-28/1204190728d7963.html

Also wohl doch etwas an den 168W dran, trotz der eher ernüchternen Taktraten.:|

Pff, 38W mehr als eine 8800GTS bei nur 28W höherer TDP? Na Mahlzeit.

puntarenas
2008-02-28, 14:01:45
Irgendwas kann da aber nicht stimmen, wo sollen denn 21W Mehrverbrauch im Idle herkommen.

Bekommt der Speicher so viel mehr Voltage?

Gast
2008-02-28, 14:05:15
Da ruht sich Nvidia wohl etwas zu sehr auf ihren Vorteil gegenüber Ati aus, allerdings war es in der Vergangenheit nicht schon immer so gewesen das der Nachfolgechip noch nie so der binger gewesen ist, wenn ich da zb. an den 6800Gt gegeüber dem 7800GTX denke.

Gast
2008-02-28, 14:19:45
Davon kann man doch eigentlich stark ausgehen, oder nicht? :|
Wann war es denn nicht der Fall? Jedenfalls bei aktuelleren Generationen.
(Uh, ich ahne schon, dass ich gleich bestimmt haufenweise Beispiele bekomme ...)

wenn du es so willst :D
G70: die 7800GT kam erst reichlich später

puntarenas
2008-02-28, 14:39:59
Also ich finde schon irgendwie irritierend, dass alle "Informationen" und "erneuten Bestätigungen" auf das Kärtchen bei expreview zurückzugehen scheinen. Hoffen wir mal, dass die sich nicht eine geflashte GTS andrehen lassen haben, vielleicht eine alte Designstudie aus dem NVidia-Keller, als man noch Triple-SLI im Auge hatte :D

...und NEIN, ich will einfach nicht glauben, dass die Karte derart grottig für GTX-Verhältnisse ausfällt.

Coda
2008-02-28, 15:07:03
Wenn ich mir die Verlustleistung der G8800Ultra so anschaue dann frage ich mich welcher Honk die TDP dieser mit 17xW festgelegt hat.
Total System!

Gast
2008-02-28, 15:14:53
...und NEIN, ich will einfach nicht glauben, dass die Karte derart grottig für GTX-Verhältnisse ausfällt.
Immerhin wird das die letzte NV GTX sein, die wir sehen werden, wenn beim nächsten Mal die Bezeichnung gewechselt wird. :)

MEDIC-on-DUTY
2008-02-28, 15:17:01
Eigentlich wurde schon fast alles gesagt: Pausenfüller, Refreshmonster, Stromfresser. In der oder anderer Reihenfolge.

Über den Sommer müssen wir uns noch retten, dann gibt es wieder Abhilfe für den überfüllten Geldbeutel der HighEnd-Akteure.

Bis dahin schlagen wir uns durch mit Verspätungen, Bananen-Software, Update-Wahn, XP-Downgrade, angeblichen DX10-Titeln, fehlenden Schnittstellen, der Frage warum Apple immer in den 18:00 Uhr Nachrichten vor der Politik kommt und Spekulationen über Releasetermine.

Und eine neue Grafikkarte solls richten?

Ne nicht mit mir: ich geh skaten - geiles Wetter, nette Mädels und der Biergarten is auch schon offen...

AnarchX
2008-02-28, 16:02:56
GPU
 Core clock: 673 MHz
 Voltage: 1.2 V ± 12 mV
 Package size: 37.5 mm × 37.5 mm 1148-pin flip-chip ball grid array (FCBGA)

Board
 Twelve layers printed circuit board (PCB)
 PCI Express 2.0 or PCI Express ×16 system interface
 Physical dimensions: 4.376 inches × 10.50 inches, dual slot
 Board power dissipation: 168 W (maximum)
 High-bandwidth digital content protection (HDCP) support
 AT88SC0808C of the Atmel CryptoMemory family, using 2-wire serial interface

Connectors
 DVI-I connector
 Second DVI-I connector
 7-pin mini-DIN HDTV-out connector

Internal Connectors and Headers
 Dual NVIDIA SLI™ 26-pin edge connector
 Dual 6-pin PCI Express power connector
 Single 2-pin SPDIF audio input connector
 4-pin fan connector
http://forums.vr-zone.com/showthread.php?t=241261&page=3

Hmmm... nicht mehr als die 8800 GTS 512, da wird wohl der Speicher (billiger Qimonda?) nicht ganz unschudlig am hohen Verbrauch sein.
Aber generell zeigt sich wieder, dass NV wohl einfach nicht mehr leisten möchte.:|

James Ryan
2008-02-28, 16:33:15
Wäre hoch interessant ob man auf eine Gf 8800 GTS/512 einfach ein Gf 9800 GTX-Bios flashen könnte, um bspw. die Stromsparfuntkionen zu nutzen.

Ich denke mal, meine Gf 8800 GTS/640 bleibt doch noch etwas im PC, da die Gf 9800 GTX einfach nicht deutlich schneller ist! Schade! :(

MfG :cool:

reunion
2008-02-28, 16:40:56
Aber generell zeigt sich wieder, dass NV wohl einfach nicht mehr leisten möchte.:|

Woran zeigt sich denn das?

Gast
2008-02-28, 16:42:06
um bspw. die Stromsparfuntkionen zu nutzen.

Dazu brauchst du aber auch Vista, ein nforce Brett mit nv GPU .....

Blacksoul
2008-02-28, 16:58:01
Aber generell zeigt sich wieder, dass NV wohl einfach nicht mehr leisten möchte.:|

Müssen sie ja auch nicht, wie es scheint.


t.b.d

Ailuros
2008-02-28, 17:40:27
Ist anzunehmen, dass diese legendäre "B-Revision" nochmal in den Markt kommt, vielleicht schon mit der "echten" 9800GTX oder gibt es voraussichtlich noch einen Shrink Mitte des Jahres, um entspannter bis zum Herbst durchzukommen?

Wenn ich mir die specs der 9800GTX ueberdenke, dann kann ich gut verstehen warum sie zu einer B-revision von G92 greifen. Selbst wenn GF-Next tatsaechlich Ende Sommer ankommen sollte, kann man mit dem Zeug ziemlich gut das untere Performance/oberes Mainstream Segment des Markts decken.

Uebrigens AnarchX hast Du 55nm erwaehnt?

http://forum.beyond3d.com/showpost.php?p=1133587&postcount=110

Ich glaube RV670 ist auf 55GP (bin mir aber nicht sicher); RV770 bzw. G92b duerften auf 55GC sein.

dargo
2008-02-28, 22:44:45
Total System!
Das weiß ich Coda. :)
Mir gings eher darum:

G8800Ultra = 17xW TDP
G9800GTX = 168W TDP

Expreview.com haben beim Gesamtsystem aber bei der Ultra real 54W mehr gemessen als bei der GTX. Da kann doch irgendwas mit den TDP-Vergaben bei NV nicht so ganz stimmen. :|
Vor dem NT sind es immer noch >40W Netto Unterschied (bei ~80% NT-Effizienz).

Wenn ich mir die specs der 9800GTX ueberdenke, dann kann ich gut verstehen warum sie zu einer B-revision von G92 greifen. Selbst wenn GF-Next tatsaechlich Ende Sommer ankommen sollte, kann man mit dem Zeug ziemlich gut das untere Performance/oberes Mainstream Segment des Markts decken.

Das macht durchaus Sinn. Wieviel kann man aber von 55nm erwarten. Sind damit 800Mhz Coretakt drin?

Wobei, wenn man es sich genauer überlegt - GT200 soll ja ein DX10.1 Chip werden. Alle anderen (unter High-End) werden nur mit DX10.0 GPUs bedient? :|
Da passt doch irgendwas nicht.

nomadhunter
2008-02-28, 23:38:55
Wobei, wenn man es sich genauer überlegt - GT200 soll ja ein DX10.1 Chip werden. Alle anderen (unter High-End) werden nur mit DX10.0 GPUs bedient? :|
Da passt doch irgendwas nicht.
Anfang 09 gibt es bestimmt irgendeine kleines Modell. Wahrscheinlich 1/4 GT200 oder so.

Ailuros
2008-02-29, 05:23:00
Das macht durchaus Sinn. Wieviel kann man aber von 55nm erwarten. Sind damit 800Mhz Coretakt drin?

Es kommt auf die Toleranz des benutzen 55nmXX Prozess an. Unter normalen Umstaenden sollten 20% mehr Takt kein Problem sein.

Wobei, wenn man es sich genauer überlegt - GT200 soll ja ein DX10.1 Chip werden. Alle anderen (unter High-End) werden nur mit DX10.0 GPUs bedient? :|
Da passt doch irgendwas nicht.

Soll ja; ob er es wirklich auch ist waere eine sehr gute Frage.

Gast
2008-02-29, 12:16:46
http://resources.vr-zone.com//newspics/Feb08/29/9800vs3870x2.jpg

http://www.vr-zone.com/articles/GeForce_9800_GX2%2C_9800_GTX_%26_3870_X2_Compared/5614.html

Gast
2008-02-29, 12:24:33
Naja immer diese 3DMark Kacke.

Aber schön zu sehen, wie NV den Vorsprung weiter ausbauen kann. :)

Undertaker
2008-02-29, 12:43:25
Interessant wäre in dem Diagramm noch die 8800GTS - die sollte praktisch gleichauf liegen, was die 9800GTX zu Preisen über 300€ witzlos machen würde...

Sven77
2008-02-29, 13:00:01
das macht meine GTS auch.. mal wieder ohne AA und Filter, also nicht wirklich interessant

puntarenas
2008-02-29, 13:06:41
Wenn die Spezifikationen so wie geleakt zutreffen, dann kann die Karte über die Leistungsschiene auch nicht mehr überraschen, egal wieviele 3DMarks mit unterschiedlichen Prozessoren noch veröffentlicht werden.

Trotzdem besteht ein Fünkchen Hoffnung, dass ein hübsches Produkt auf den Markt kommt:

- 2D-Modus mit Spannungsabsenkung
- Audioausgabe über HDCP
- Preis unter 300€
- eine Tafel Schokolade in der Packung :)
- Lösen einer fiesen Treiberblockade der 8800er :(

Gast
2008-02-29, 13:12:54
- 2D-Modus mit Spannungsabsenkung
Ne, dann würde Hybrid SLI keinen Sinn mehr machen. ;)

- Lösen einer fiesen Treiberblockade der 8800er
Was ist denn mit dem neuen Treibern? Die 60% Treiber sind doch schon draussen, die geringere Bandbreite als bei der GTX spielt also keine so große Rolle mehr. :)

puntarenas
2008-02-29, 13:16:28
Ich dachte eher daran, dass die 8800er bewusst klein gehalten werden und erst ab der 9800er-Serie der G92 von der Leine gelassen wird, also zum Wundertreiber nochmal was obendrauf und exklusiv. Das ist natürlich Quatsch, wenngleich nicht völlig undenkbar, zum Beispiel Intel hat ja auch schon treiberseitig identische Chipsätze um Features beschnitten und in verschiedenen Preisregionen verkauft.

Ich nehm trotzdem lieber die Schokolade. :)

Gast
2008-02-29, 13:39:22
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/februar/gefaelschte_benchmarks_gt200_umlauf/

Gast
2008-02-29, 13:42:26
War doch klar oder?
Ich glaube auch nicht, dass Nvidia bei Sample-Karten die eigene Vendor-ID ändert und die ist immer noch 10DE (und nicht G0DE).

puntarenas
2008-02-29, 13:43:20
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/februar/gefaelschte_benchmarks_gt200_umlauf/
Es gibt einen schicken Thread ganz allein für GT200: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=398955

Gast
2008-02-29, 15:21:36
Naja immer diese 3DMark Kacke.

Aber schön zu sehen, wie NV den Vorsprung weiter ausbauen kann. :)

lol die X2 ist doch da die schnellste :rolleyes:

PCGH_Carsten
2008-02-29, 15:30:58
Das weiß ich Coda. :)
Mir gings eher darum:

G8800Ultra = 17xW TDP
G9800GTX = 168W TDP

Expreview.com haben beim Gesamtsystem aber bei der Ultra real 54W mehr gemessen als bei der GTX. Da kann doch irgendwas mit den TDP-Vergaben bei NV nicht so ganz stimmen. :|
Eine gute TDP bemißt sich nach der Energieaufnahme bei Volllast aller Einheiten. Und da hat die 9800GTX zumindest mal 32 Textur-filterAdressierungseinheiten mehr.

Coda
2008-02-29, 15:55:39
Und da hat die 9800GTX zumindest mal 32 Texturfilter mehr.
Hat sie nicht, nur 64 statt 32 Adresseinheiten.

GeneralHanno
2008-02-29, 15:56:05
textur-ADRESSIERER ;)

€dit: da war einer ne sekunde schneller :D

Hvoralek
2008-02-29, 16:59:19
lol die X2 ist doch da die schnellste :rolleyes:m 3DMark stehen R6xx auch besser da als in der Praxis. Da liegt eine 2900XT auf 8800- GTX- Niveau.

Gast
2008-02-29, 17:24:36
lol die X2 ist doch da die schnellste :rolleyes:
Ziehen wir 30% bei der X2 wegen den Mikrorucklern ab, dann nochmal 20% weil AMD bei 3DMark deutlich stärker als in der Realität ist, .... und schon fegt eine 9600GT die 3870X2 vom Platz. :)

Anarchy-HWLUXX
2008-02-29, 17:26:42
Ziehen wir 30% bei der X2 wegen den Mikrorucklern ab, dann nochmal 20% weil AMD bei 3DMark deutlich stärker als in der Realität ist, .... und schon fegt eine 9600GT die 3870X2 vom Platz. :)
Und lesen mer mal was Futuremark selbst zu 3DMark schreibt dann vergleichen wir niemals unterschiedliche GPUs miteinanderr - Wirklich Nie.

PCGH_Carsten
2008-02-29, 18:13:18
Hat sie nicht, nur 64 statt 32 Adresseinheiten.
Selbstverständlich - war in Eile.
Allerdings können dadurch auch die Filter mehr Abwärme produzieren.

AnarchX
2008-02-29, 18:17:04
Selbstverständlich - war in Eile.
Allerdings können dadurch auch die Filter mehr Abwärme produzieren.
Nur scheint aber nicht die ALU-Leistung nicht auszureichen um für genügend Texturkoordinaten zu sorgen und somit TF und TAs maximal auszulasten.;)

PCGH_Carsten
2008-02-29, 23:52:20
Nur scheint aber nicht die ALU-Leistung nicht auszureichen um für genügend Texturkoordinaten zu sorgen und somit TF und TAs maximal auszulasten.;)
Und nu? ;)

Gast
2008-03-01, 05:09:27
Ziehen wir 30% bei der X2 wegen den Mikrorucklern ab, dann nochmal 20% weil AMD bei 3DMark deutlich stärker als in der Realität ist, .... und schon fegt eine 9600GT die 3870X2 vom Platz. :)
Das selbe gilt dann auch für die GX2 :P

Moralelastix
2008-03-01, 09:42:43
NVIDIA's shady trick to boost the GeForce 9600GT
http://www.techpowerup.com/reviews/NVIDIA/Shady_9600_GT/1.html

NV is also scheinbar am Cheaten oder das is ein Geforce 9 "Feature".

AnarchX
2008-03-01, 10:00:08
NVIDIA's shady trick to boost the GeForce 9600GT
http://www.techpowerup.com/reviews/NVIDIA/Shady_9600_GT/1.html

NV is also scheinbar am Cheaten.
Nein, W1zzard ist einfach unfähig seine Testplattform vernünftig zu konfigurieren.

Grestorn
2008-03-01, 10:03:03
NVIDIA's shady trick to boost the GeForce 9600GT
http://www.techpowerup.com/reviews/NVIDIA/Shady_9600_GT/1.html

NV is also scheinbar am Cheaten.

Mein Gott. Was hat das bitte mit Cheaten zu tun?

Langsam nervt mich dieses Schmutzwerfen. Es ist Ewigkeiten her, dass nVidia oder ATI absichtlich gecheatet hat. Beide haben inzwischen ihre Lektion erlernt und wissen, dass sie sich damit mehr schaden als nützen.

Also lasst doch einfach diese haltlosen Behauptungen!

Moralelastix
2008-03-01, 10:03:56
@AnarchX
Wie meinste das?

@Grestorn
Wenn NV laut deiner Aussage weiß wie schnell sowas nach hinten los geht wieso haben sie es dann nicht gleich pubik gemacht oder auch nur auf die Mails reagiert?

AnarchX
2008-03-01, 10:12:41
@ AnarchX

Wie meinste das?

LinkBoost ist ein uraltes Feature, was es schon in anderer Form seit nForce4 gibt und da stellt sich die Frage warum W1zzard es gerade auf seiner Testplattform aktiviert hatte und warum er überhaupt einen übertakteten PCIe hatte, imo wurde da doch geschludert und nun soll NV schuld sein, weil er die Karte übertaktet hat.:rolleyes:

Moralelastix
2008-03-01, 10:23:08
Wahrscheinich läuft das ganze eher unter "Kostensenkungs Feature".

So wie schon diese Lüfterdrehzahl Geschichte.

Ailuros
2008-03-01, 10:32:04
Wahrscheinich läuft das ganze eher unter "Kostensenkungs Feature".

So wie schon diese Lüfterdrehzahl Geschichte.

Was fuer Kosten soll denn der Quark genau ersparen? Lies mal genau nach was in nTuner unter "tune system" genau steht.

Moralelastix
2008-03-01, 10:37:58
ntune? hab hier keins installiert... aber den PCIe Bus kann man doch bei so ziemlich allen Chipsätzen übertakten.

Grestorn
2008-03-01, 11:05:57
@Grestorn
Wenn NV laut deiner Aussage weiß wie schnell sowas nach hinten los geht wieso haben sie es dann nicht gleich pubik gemacht oder auch nur auf die Mails reagiert?

Nochmal die Frage: Wo wird da gecheatet? Wird irgendwo Performance zu Lasten von Bildqualität oder sonst irgendwelcher Nachteile erkauft?

Ailuros
2008-03-01, 11:07:40
ntune? hab hier keins installiert... aber den PCIe Bus kann man doch bei so ziemlich allen Chipsätzen übertakten.

Dass man es kann stimmt schon; es bleibt aber stets im "use at your own risk" Bereich. Nur weil irgend ein Depp sein System nicht richtig behandeln kann heisst es gar nichts; das einzige Problem ist dann eben dass Du dem Quark sofort glauben schenken willst. Haettest Du mit nTune je herumgespielt wuerdest Du wahrscheinlich auch wissen was genau und wie uebertaktet wird wenn man es der Applikation ueberlaesst.

Aber packen wir es woanders zuerst an: warum waere jeglicher IHV so daemlich und wuerde eine GPU mit X Frequenz verkaufen und im Treiber eine Funktion verstecken die die Frequenz um Y% erhoeht?

AnarchX
2008-03-01, 11:07:46
PCGH Exklusiv: Preview der Geforce 9800GTX (http://www.pcgameshardware.de/aid,634265/PCGH_Exklusiv_Preview_der_Geforce_9800GTX/)

Fragt sich nur ob, diese Specs wirklich final sind...;)

Gast
2008-03-01, 11:09:51
Was soll darin nicht final sein? Alles deutet darauf hin.
Aber NV könnte zur Not noch eine 9800Ultra herbeizaubern.

GeneralHanno
2008-03-01, 11:44:23
und was soll die ultra so tolles haben? noch mehr core-takt ;D;D
mehr als 0,83ns GDDR3 gibts nunmal nicht!

€dit: zumindestens wäre eine ultra mit 1GiB-0,83ns-GDDR3 denkbar. aber warum? man will ja schließlich auch die GX2 verkaufen ...

Gast
2008-03-01, 11:47:30
Ja warum nicht mehr Core und Shadertakt? Der G92 ist noch nicht am Limit.
Am Speicher kann man auch noch drehen, 1100Mhz sind ein Witz, da mit 0,83ns 1200Mhz innerhalb der Spezifikation liegen.

Gast
2008-03-01, 11:48:34
Ach es gab auch Gerüchte, das NV die GX2 fallen lässt, wegen Problemen. ;)

Raff
2008-03-01, 11:59:51
Naja, eine Ultra mit 800+ MHz Core-Takt (daran scheitert kaum ein G92) und 1,2 GHz GDDR3 (1024 MiB) wäre deutlich potenter als diese Mist-GTX. Die Shaderleistung allein dürfte da oft etwas herausschlagen. Ich persönlich ging davon aus, dass schon die 9800 GTX derartige Werte haben wird ... aber noch ist ja nicht das letzte Wort gesprochen.

MfG,
Raff

Nakai
2008-03-01, 12:28:49
Ach es gab auch Gerüchte, das NV die GX2 fallen lässt, wegen Problemen. ;)

Würde ich nicht sagen. Eine HD3870X2 ist nicht oft wirklich so schnell, wie man es erwarten würde.
Man könnte auch alle Kräfte auf den GT200 konzentrieren, anstatt auf diesen Dualmist.


Naja, eine Ultra mit 800+ MHz Core-Takt (daran scheitert kaum ein G92) und 1,2 GHz GDDR3 (1024 MiB) wäre deutlich potenter als diese Mist-GTX.

NV würde niemals so einen Chip rausbringen. NV geht nicht so ans Limit.
Leider kein 1,2Ghz GDDR3 oder GDDR4, das ist was mich wirklich nervt.


mfg Nakai

Raff
2008-03-01, 13:55:02
NV ging schon oft ans Limit: Ti-4600, 5800 Ultra, 6800 Ultra – allesamt Karten, die mit selektierten GPUs ankamen und sich kaum noch übertakten ließen.

Der Unterschied heute: NV muss nicht, da sie fast jedes Marktsegment dominieren ... leider.

MfG,
Raff

nomadhunter
2008-03-01, 13:57:36
Man könnte auch alle Kräfte auf den GT200 konzentrieren, anstatt auf diesen Dualmist.
NV konzentriert schon seit G80 die meiste Kraft auf GT200 und was halt danach kommen wird (G100 und so). Die wenigen Veränderungen, die man an G92 ggü. G80 vorgenommen hat, dürften nur einen kleinen Teil von NVs Entwicklern beschäftigt haben und eine Dualkarte dürfte sich vom Entwicklungsaufwand her auch in Grenzen halten.

Gast
2008-03-01, 13:58:48
Man könnte auch alle Kräfte auf den GT200 konzentrieren, anstatt auf diesen Dualmist.
Das sind verschiedene Abteilungen.
Das GT200 Entwicklerteam kann nicht mal eben die Leute vom GX2 Projekt bekommen. ;)

puntarenas
2008-03-01, 14:01:05
Das sind verschiedene Abteilungen.
Das GT200 Entwicklerteam kann nicht mal eben die Leute vom GX2 Projekt bekommen. ;)
Wieso nicht, heraus kommt dann vielleicht ein Single-Chip - Triple-PCB-Design :D

GeneralHanno
2008-03-01, 14:06:18
also wenn es eine 9800 ultra gibt, dann sicher nicht zusammen mit der GTX sondern nur in einem fall:

- der R700/RV770 kommt sehr früh (Q2) und läuft gut
- der GT200 verschiebt sich nach hinten (Q4)
- launchzeitpunkt: kurz vor dem R700/RV770 (störtaktik :D)

für den fall könnte nvidia als zwischenschieber noch ne 9800ULTRA bringen ...

puntarenas
2008-03-01, 14:10:30
(...)
für den fall könnte nvidia als zwischenschieber noch ne 9800ULTRA bringen ...
Macht Sinn, durch die 9600GT wüten sie bereits in Preisregionen der HD3800er und darüber hat ATI nur eine (unbeliebte) Dual-Chip-Lösung.

NVidia kann in aller Ruhe abwarten und im Zweifelsfall reagieren. Allerdings würde es trotzdem nicht schaden, die GTX ein klein wenig näher ans Limit zu treiben, nur ein klein wenig...

Hvoralek
2008-03-01, 14:12:50
Langsam nervt mich dieses Schmutzwerfen. Es ist Ewigkeiten her, dass nVidia oder ATI absichtlich gecheatet hat. Beide haben inzwischen ihre Lektion erlernt und wissen, dass sie sich damit mehr schaden als nützen.Hältst Du das Verhalten der ersten 169er- Treiber für Zufall? Dass ausgerechnet speziell auf Crysis optimiert Treiber dort Bugs produzieren, die durch Verzicht auf Details die Leistung steigern, und dass das gerade mit der Vorstellung neuer Karten zusammenfällt, wäre zumindest ein seltsamer Zufall.

NV ging schon oft ans Limit: Ti-4600, 5800 Ultra, 6800 Ultra – allesamt Karten, die mit selektierten GPUs ankamen und sich kaum noch übertakten ließen.Nicht zu vergessen die 7800 GTX 512.

AnarchX
2008-03-01, 14:17:43
Allerdings würde es trotzdem nicht schaden, die GTX ein klein wenig näher ans Limit zu treiben, nur ein klein wenig...
Man will halt nicht den AIBs das Geschäft mit den Werk-OC-Versionen vermiesen. ;)

Mal sehen was G92-B bringt, die Verwendung von Einsteiger-GDDR5 mit z.B. 1.8GHz würde ja einen ordentlich Bandbreitensprung bedeuten. :D

GeneralHanno
2008-03-01, 14:20:30
irgendwie bin ich etwas skeptisch, was den einsatz von GDDR5 auf einer GF9xxx angeht ... aber lassen wir uns überraschen ;)

Grestorn
2008-03-01, 14:23:59
Hältst Du das Verhalten der ersten 169er- Treiber für Zufall? Dass ausgerechnet speziell auf Crysis optimiert Treiber dort Bugs produzieren, die durch Verzicht auf Details die Leistung steigern, und dass das gerade mit der Vorstellung neuer Karten zusammenfällt, wäre zumindest ein seltsamer Zufall.

nVidia hatte es nicht nötig zu cheaten. Man versuchte den Treiber zu optimieren, dabei passieren auch schon mal Fehler.

Versetzt Euch doch mal in die Lage der Entwickler: Ein sichtbarer Cheat für ein paar Prozent Leistungssteigerung bringt nur negative Folgen für den Anbieter.

Gast
2008-03-01, 14:37:50
Mal sehen was G92-B bringt, die Verwendung von Einsteiger-GDDR5 mit z.B. 1.8GHz würde ja einen ordentlich Bandbreitensprung bedeuten. :D

Sollte dann aber auch mehr oder bessere ROPs haben, sonst bringt das nicht besonders viel!

dargo
2008-03-01, 15:14:19
Naja, eine Ultra mit 800+ MHz Core-Takt (daran scheitert kaum ein G92) und 1,2 GHz GDDR3 (1024 MiB) wäre deutlich potenter als diese Mist-GTX. Die Shaderleistung allein dürfte da oft etwas herausschlagen.
Deutlich potenter? Glaube ich kaum. Dann wäre das Verhältnis Rohleistung zur Speicherbandbreite noch schlimmer.

AnarchX
2008-03-01, 15:15:20
Sollte dann aber auch mehr oder bessere ROPs haben, sonst bringt das nicht besonders viel!
Wäre zwar besser, ist aber wohl eher zu bezweifeln, höchstens der Takt wird wohl etwas steigen, wenn NV den Performance-Prozess nutzt.

Aber Bandbreite allein sollte auch schon etwas bringen:
http://www.pcgameshardware.de/?menu=browser&article_id=634265&image_id=783406
88GTS512 vs Sim-98GTX
- 3.8% mehr GPU-Leistung
- 13% mehr Bandbreite
=> 10% mehr Avg-FPS, 9% mehr Min-FPS

;)

Coda
2008-03-01, 15:17:24
Es ist Ewigkeiten her, dass nVidia oder ATI absichtlich gecheatet hat.
Nö ist es nicht. ATI spart definitiv beim R6xx-AF.

dargo
2008-03-01, 15:20:04
Sollte dann aber auch mehr oder bessere ROPs haben, sonst bringt das nicht besonders viel!
Von mehr ROPs beim G92 kann man sich wohl verabschieden. Wenn aber der G92-B in 55nm 850Mhz Coretakt möglich machen sollte wäre so ein 1,6-1,8Ghz Vram gar nicht mal verkehrt.

Spasstiger
2008-03-01, 15:24:45
Wäre zwar besser, ist aber wohl eher zu bezweifeln, höchstens der Takt wird wohl etwas steigen, wenn NV den Performance-Prozess nutzt.

Aber Bandbreite allein sollte auch schon etwas bringen:
http://www.pcgameshardware.de/?menu=browser&article_id=634265&image_id=783406
88GTS512 vs Sim-98GTX
- 3.8% mehr GPU-Leistung
- 13% mehr Bandbreite
=> 10% mehr Avg-FPS, 9% mehr Min-FPS

;)
Bekanntermaßen verhungert der G92 ja an der zu geringen Speicherbandbreite, also ist die beste Tuningmöglichkeit schnellerer Speicher.
Wie ist das jetzt eigentlich mit GDDR4? Samsung hat ja einen Exklusivvertrag mit AMD/ATI, was GDDR4 angeht, oder? Gibts sonst keine Hersteller von GDDR4-Speicher? Hynix, Micron?

dargo
2008-03-01, 15:25:11
Wäre zwar besser, ist aber wohl eher zu bezweifeln, höchstens der Takt wird wohl etwas steigen, wenn NV den Performance-Prozess nutzt.

Aber Bandbreite allein sollte auch schon etwas bringen:
http://www.pcgameshardware.de/?menu=browser&article_id=634265&image_id=783406
88GTS512 vs Sim-98GTX
- 3.8% mehr GPU-Leistung
- 13% mehr Bandbreite
=> 10% mehr Avg-FPS, 9% mehr Min-FPS

;)
Da hier die GPU-Leistung miterhöht wurde würde ich eher aufpassen. Die ~4% mehr dürften voll durchschlagen. Ich könnte wetten von den 13% mehr Bandbreite kommen nicht mal 50% an.

Bekanntermaßen verhungert der G92 ja an der zu geringen Speicherbandbreite, also ist die beste Tuningmöglichkeit schnellerer Speicher.

Nein, das stimmt einfach nicht. Und PCGH bestätigt das auch mit dem UT3 Benchmark. In dieser Timedemo bei 1680x1050 4xMSAA/8xAF skaliert der Speicher mit 1:0,46 bei einer Erhöhung der Bandbreite um 13%. Erhöht man die Bandbreite weiter nimmt die Skalierung logischerweise auch wieder ab.

Edit:
Vielleicht zum besseren Verständnis. Nach meiner Rechnung kommen bei 13% höherer Bandbreite 46% von den 13% an. Dabei habe ich die Erhöhung der GPU-Leistung schon abgezogen.

AnarchX
2008-03-01, 15:36:08
Wie ist das jetzt eigentlich mit GDDR4? Samsung hat ja einen Exklusivvertrag mit AMD/ATI, was GDDR4 angeht, oder? Gibts sonst keine Hersteller von GDDR4-Speicher? Hynix, Micron?
GDDR4 wurde von Samsung und ATi entwickelt, wohlmöglich passen die Specs einfach nicht zu NVs Architektur. Neben Samsung bietet aber auch Hynix GDDR4 an.

Aber es kann auch eine rein politische Entscheidung sein...

GDDR4 werden wir aber mit sehr hoher Wahrscheinlichkeit nicht mehr bei NV sehen.

Aber für eine möglichen Sommer-Release von RV770 und G92-B sollte GDDR5 doch möglich sein:
http://img528.imageshack.us/img528/4716/gddr5pu0.png
(Hynix)

Immerhin sind ja zum Start Samsung, Hynix und Qimonda dabei, sodass die Preise recht schnell fallen sollten.

Grestorn
2008-03-01, 15:42:12
Nö ist es nicht. ATI spart definitiv beim R6xx-AF.

Aber doch nur mit AI, oder? Das tut nVidia ja auch auf "Quality".

Dass man AI nicht ohne Nachteile abschalten kann, ist ja eine andere, alte Diskussion.

Spasstiger
2008-03-01, 15:42:56
Ist fraglich, ob GDDR5 wirklich so schnell verbaut wird. GDDR4 ist ja schon eine ganze Weile am Markt aber bis heute ist die Verbreitung nur auf wenige Graka-Modelle beschränkt.
1,6 bis 2,5 GHz Speichertakt wären aber natürlich nett.

AnarchX
2008-03-01, 15:43:36
Aber doch nur mit AI, oder? Das tut nVidia ja auch auf "Quality".

Dass man AI nicht ohne Nachteile abschalten kann, ist ja eine andere, alte Diskussion.
Laut Raff hat das Abschalten von AI ab R600 keine Wirkung mehr auf die Filteroptimierungen.

Gast
2008-03-01, 15:51:50
Ist fraglich, ob GDDR5 wirklich so schnell verbaut wird. GDDR4 ist ja schon eine ganze Weile am Markt aber bis heute ist die Verbreitung nur auf wenige Graka-Modelle beschränkt.
Ob es daran liegt, das NV keins verbaut? Oder das bei den meisten AMD Karten GDDR3 ausreicht und entsprechend verbaut wird, besonders weil es deutlich billger ist?

Ich würde sagen: Anscheinend ist GDDR4 tot, es ist wird jetzt seit längerer Zeit angeboten, der Nachfolger könnte jetzt langsam einschlagen, wenn NV darauf setzt sieht es auch deutlich rosiger aus.

Nur schade für die ganzen 256bit Schreihälse, denn für ein breiteres SI besteht dann kein Bedarf.

dargo
2008-03-01, 15:56:52
Nur schade für die ganzen 256bit Schreihälse, denn für ein breiteres SI besteht dann kein Bedarf.
Wie bitte? Für den GT200 könnten selbst 2Ghz GDDR5 bei einem 256Bit SI schon zu wenig sein. Ich weiß nicht ob 2,5Ghz GDDR5 sofort lieferbar sein wird und der Preis dürfte auch nicht gerade niedrig angesetzt sein. Kurz - für den GT200 ist ein SI >256Bit dringend nötig.

Gast
2008-03-01, 16:01:20
Wie bitte? Für den GT200 könnten selbst 2Ghz GDDR5 bei einem 256Bit SI schon zu wenig sein. Ich weiß nicht ob 2,5Ghz GDDR5 sofort lieferbar sein wird und der Preis dürfte auch nicht gerade niedrig angesetzt sein. Kurz - für den GT200 ist ein SI >256Bit dringend nötig.
Wenn der GT200 maximal doppelt so viele Transistoren hat, wie ein G92, dann ist das schon echt viel, wenn er nicht gerade in 45nm daherkommt.
Also doppelte Leistung, doppelte Bandbreite, passt doch, was willst du noch?
In der Vergangenheit hat sich die Bandbreite immer langsamer erhöt als die Rechenleistung vom Chip.

reunion
2008-03-01, 16:04:56
Laut Raff hat das Abschalten von AI ab R600 keine Wirkung mehr auf die Filteroptimierungen.

Dafür kostet es aber sehr viel Leistung.

nomadhunter
2008-03-01, 16:04:57
Wie bitte? Für den GT200 könnten selbst 2Ghz GDDR5 bei einem 256Bit SI schon zu wenig sein. Ich weiß nicht ob 2,5Ghz GDDR5 sofort lieferbar sein wird und der Preis dürfte auch nicht gerade niedrig angesetzt sein. Kurz - für den GT200 ist ein SI >256Bit dringend nötig.
Mehr als 2,5 GHz wird kaum nötig sein, und wenn entsprechende Chips im Q2'08 auf den Markt kommen sollen, dann sollte es kein Problem sein, sie Anfang Q4'08 einzusetzen, zudem GT200 eine absolute High-End-Karte wird (600$+ erwarte ich für das Topmodell, und für das kleinere Modell (vielleicht 3/4) wird auch 2GHz-RAM reichen). Mehr als 256bit würde ich nur im absoluten Notfall (GDDR5-Produktion verzögert sich stark, 2,5GHz-Chips sind extrem teuer) erwarten.

dargo
2008-03-01, 16:10:00
Wenn der GT200 maximal doppelt so viele Transistoren hat, wie ein G92, dann ist das schon echt viel, wenn er nicht gerade in 45nm daherkommt.
Also doppelte Leistung, doppelte Bandbreite, passt doch, was willst du noch?
In der Vergangenheit hat sich die Bandbreite immer langsamer erhöt als die Rechenleistung vom Chip.
1. Doppelte Leistung bei doppelt so vielen Transistoren bei einer GPU die ~zwei Jahre später als der G80 erscheint wäre aber etwas mager.
2. Afaik soll der GT200 2,5 mal so viele Transistoren haben wie der G80.
3. G80 = 86,4GB/s, mit 2Ghz GDDR5 und 256Bit SI kommst du auf 128GB/s, also knapp unter 50% mehr. Ich würde beim GT200 von mindestens 140GB/s ausgehen.

nomadhunter
2008-03-01, 16:23:21
3. G80 = 86,4GB/s, mit 2Ghz GDDR5 und 256Bit SI kommst du auf 128GB/s, also knapp unter 50% mehr. Ich würde beim GT200 von mindestens 140GB/s ausgehen.
Wieso 2GHz? Dass das bei 256bit knapp wird, ist schon klar. 2,5 GHz ist aber schon für Q2/08 angekündigt (GT200 wohl Anfang Q4, frühestens Ende Q3) und liefert 160GB/s. Wenn bei der Produktion von 2,5 GHz-GDDR5 also nicht alles falsch läuft, reichen 256bit. Auch ein etwas höherer Preis ist bei einer derart teuren Karte nicht dramatisch.

dargo
2008-03-01, 16:26:33
Wann wurde so etwas schon praktiziert? Ich meine, dass ein IHV den schnellstmöglichen GDDR direkt nach der Veröffentlichung verbaut hat? Ich denke, die Kosten dafür sind einfach zu hoch. Und beim GT200 werden wir wohl schon mit 1GB Vram rechnen müssen.

AnarchX
2008-03-01, 16:28:16
Wann wurde so etwas schon praktiziert? Ich meine, dass ein IHV den schnellstmöglichen GDDR direkt nach der Veröffentlichung verbaut hat?
NV30/5800Ultra... :D

y33H@
2008-03-01, 16:28:35
@ nomadhunter

Bleibt die Frage, ob die größeres SI (386 oder 512 Bit) nicht billiger ist als 2.5 GHz GDDR5?
NV30/5800Ultra
Das war doch die mit dem großen SI und der ach so leisen Kühlung, welche die 97Pro so in Bedrängnis brachte^^

cYa

AnarchX
2008-03-01, 16:31:50
Ein PCB auf hohe Frequenzen auszulegen ist sicherlich auch nicht wirklich unkritisch und so aufwendig war das GTX/Ultra-PCB mit 12 Layern wohl auch nicht.

Ich würde auch eher von vielleicht 320Bit @ <=2GHz ausgehen, mit 1280MB, die man dank 1024MBit Chips auf 10 Chips unterbekommt.

laser114
2008-03-01, 16:31:57
NV30/5800Ultra... :D

Der war von der Größe des Speicherinterface im Verhältnis zum Chip auch genauso daneben wie der G92... :hammer:

Gast
2008-03-01, 16:32:46
1. Doppelte Leistung bei doppelt so vielen Transistoren bei einer GPU die ~zwei Jahre später als der G80 erscheint wäre aber etwas mager.
2. Afaik soll der GT200 2,5 mal so viele Transistoren haben wie der G80.
3. G80 = 86,4GB/s, mit 2Ghz GDDR5 und 256Bit SI kommst du auf 128GB/s, also knapp unter 50% mehr. Ich würde beim GT200 von mindestens 140GB/s ausgehen.
1. Wirklich? Der G80 hatte nunmal bereits zu viele Transistoren, deshalb musste alles aus dem Chip raus, zb NVIO oder VP. Und dennoch war G80 ein Chip am Limit, zuvor waren die Chips nicht derart am Limit.
2. Ich ging von der Basis G92 aus.
3. Reicht doch, oder ist jetzt zum ersten Mal Bandbreite so viel wichtiger? Früher ging es auch mit 50% mehr Bandbreite erheblich mehr Leistung zu erreichen. Ein G92 braucht eh weniger Bandbreite als ein G80, von dem solltest du als Vergleich eine 8800GTS 512 nehmen, die gerade mal 62080 MB/s bietet, also sind das mal eben 106% mehr.

dargo
2008-03-01, 16:35:03
NV30/5800Ultra... :D
Ja, ok. GDDR2 war aber afaik schon großflächig verbreitet, auch wenn nur mit geringeren Taktfrequenzen. Beim GDDR5 würde man gleich einen neuen Speicher und dazu den schnellsten nehmen müssen. Zu dieser Zeit hatte ATI auch einen Ass in der Hand. NV hat noch versucht zu retten was nicht mehr zu retten war. :D

laser114
2008-03-01, 16:36:25
Ja, ok. GDDR2 war aber afaik schon großflächig verbreitet, auch wenn nur mit geringeren Taktfrequenzen.

Welcher Chip sollte denn GDDR2 genutzt haben? ATI hatte AFAIK komplett auf DDR gebaut und die Geforce-4-Karten nutzten auch kein GDDR2...

nomadhunter
2008-03-01, 16:38:40
Bleibt die Frage, ob die größeres SI (386 oder 512 Bit) nicht billiger ist als 2.5 GHz GDDR5?
384bit kostet an 3 Stellen: Die GPU ist größer/teurer, das PCB wird aufwendiger und größer (12 statt 8 Chips) und man muss 1,5 mal so viel Speicher verbauen (oder sich auf 768MB beschränken, das kann ich mir aber nicht vorstellen). Für 2,5 GHz muss man dagegen "nur" etwas mehr für den schnelleren Speicher und ein dafür geeignetes PCB ausgeben.

Wenn dann könnte ich mir noch 320bit@2GHz vorstellen. Da reichen 10 Chips / 1280 MiB. Trotzdem glaube ich, dass, wenn die GDDR5-Produktion nach Plan verläuft, 2,5GHz@256bit die günstigste Lösung sein wird.

AnarchX
2008-03-01, 16:39:04
Welcher Chip sollte denn GDDR2 genutzt haben? ATI hatte AFAIK komplett auf DDR gebaut und die Geforce-4-Karten nutzten auch kein GDDR2...

Ja, ATis erster Schritt in Richtung GDDR2 war die 9800Pro 256MB.

Ein Problem war damals aber auch, dass GDDR2 ziemlich hohe Spannungen brauchte und somit abartig heiß wurde, hier hingegen kann wohl GDDR5 punkten, da er mit 1.5V antritt, wo wir bei 1ns GDDR3 schon bei ~2V sind.;)

dargo
2008-03-01, 16:43:01
2. Ich ging von der Basis G92 aus.

Warum denn? Der G92 hat sogar Schwierigkeiten an einen G80 mit entsprechenden Settings zu kommen. G92 hat nichts anders als Kostenersparnis gebracht.


3. Reicht doch, oder ist jetzt zum ersten Mal Bandbreite so viel wichtiger? Früher ging es auch mit 50% mehr Bandbreite erheblich mehr Leistung zu erreichen. Ein G92 braucht eh weniger Bandbreite als ein G80, von dem solltest du als Vergleich eine 8800GTS 512 nehmen, die gerade mal 62080 MB/s bietet, also sind das mal eben 106% mehr.
Wie gesagt, ich ziehe keine Vergleiche zum G92. Denn dieser ist nichts anderes als ein günstigerer G80 der selbst Probleme hat dessen Performance zu erreichen. Die G9800GTX kommt übrigens auf 70,04GB/s.

Gast
2008-03-01, 16:43:36
da er mit 1.5V antritt, wo wir bei 1ns GDDR3 schon bei ~2V sind.;)
Dafür steigen die Ströme an. ;)

Gast
2008-03-01, 16:46:31
Warum denn? Der G92 hat sogar Schwierigkeiten an einen G80 mit entsprechenden Settings zu kommen. G92 hat nichts anders als Kostenersparnis gebracht.

Ganz einfach:
Der G92 ist die neue Basis. Es fehlt im nur an Einheiten, Takt und Bandbreite.
Der G92 ist mehr als nur kostenoptimiert, wie ich geschrieben habe funktioniert ein G80 als Basis nur sehr bedingt, der G80 war überm Limit, weil alles gefehlt hat.

dargo
2008-03-01, 16:50:29
Ganz einfach:
Der G92 ist die neue Basis. Es fehlt im nur an Einheiten, Takt und Bandbreite.

Neue Basis für was? Für den GT200? Ich meine Ail hätte mal gesagt, dass der GT200 sich kaum am G8x/G9x orientieren würde was den GPU-Aufbau angeht.

nomadhunter
2008-03-01, 16:51:00
@Gast: Von was für einem komischen Limit redest du die ganze Zeit?

y33H@
2008-03-01, 16:51:01
@ nomadhunter

PCB und Chipanzahl sind klar, ich meinte nur, ob dieser Aufwand gesamt teurer ist mit 512 Bit und
GDDR3 als wie gehabt 256 Bit und sau teurer (hier setzte ich an) GDDR5, der genug Takt macht?

@ Gast

G80 und G92 sind technisch doch praktisch gleich, nur die das bei der Texturierung gibts beim G92 ein 1:1 Verhältnis.
Von den weiteren angeblichen Optimierungen habe ich bisher noch nichts bemerkt ...

cYa

Gast
2008-03-01, 16:54:25
Neue Basis für was? Für den GT200? Ich meine Ail hätte mal gesagt, dass der GT200 sich kaum am G8x/G9x orientieren würde was den GPU-Aufbau angeht.
Was soll NV denn machen?
Die Architektur steht, nur die Menge, den Takt und das Verhältnis der Einheiten kann NV noch ändern.
G92 hat nunmal mehr Transistoren, auch wenn nicht jeder Leistung bringt und NV wird nicht schon wieder alles aus dem Chip werfen.

G92 ist schneller, es mangelt nur an Takt.

nomadhunter
2008-03-01, 16:55:01
Bei 512bit bräuchstest du für die gleiche Banbreite 1,25GHz-GDDR3. Ich glaub nicht, dass der so billig ist (das muss er aber sein, denn eine 512bit-GPU und ein 512bit-PCB sind sicher nicht billig) und GDDR4 ist bei NV ja wohl kein Thema mehr.

Gast
2008-03-01, 16:57:47
@Gast: Von was für einem komischen Limit redest du die ganze Zeit?
G80 hat 681M Transistoren, ein ganzer Haufen, die Die Size ist enorm, wie auch die Abwärme.
NV war scchon übern Limit mit dem G80, musste also sehen was raus kommt, wie zb VP und NVIO, mehr TAUs oder eine bessere Bandbreitenausnutzung hätte man auch gerne verbaut aber das hätte den Rahmen gesprengt.

dargo
2008-03-01, 16:58:58
Was soll NV denn machen?
Die Architektur steht, nur die Menge, den Takt und das Verhältnis der Einheiten kann NV noch ändern.
G92 hat nunmal mehr Transistoren, auch wenn nicht jeder Leistung bringt und NV wird nicht schon wieder alles aus dem Chip werfen.

G92 ist schneller, es mangelt nur an Takt.
Du meinst also der GT200 wird einfach nur ein doppelter G92? :confused:
Wie soll das denn gehen, wenn schon ein G92GTX eine TDP von 168W aufweist? Der GT200 soll laut Ail ebenfalls in 65nm erscheinen.

Gast
2008-03-01, 16:59:16
PCB und Chipanzahl sind klar, ich meinte nur, ob dieser Aufwand gesamt teurer ist mit 512 Bit und
GDDR3 als wie gehabt 256 Bit und sau teurer (hier setzte ich an) GDDR5, der genug Takt macht?
GDDR5 wird nicht sauteuer werden. Schonmal weil beide IHVs darauf setzen.

dargo
2008-03-01, 17:02:02
G80 hat 681M Transistoren, ein ganzer Haufen, die Die Size ist enorm, wie auch die Abwärme.

Dann warte erstmal die Die-Größe vom GT200 ab. :tongue:


NV war scchon übern Limit mit dem G80, musste also sehen was raus kommt, wie zb VP und NVIO, mehr TAUs oder eine bessere Bandbreitenausnutzung hätte man auch gerne verbaut aber das hätte den Rahmen gesprengt.

Wofür? An Bandbreite hat es dem G80 sicherlich nicht gefehlt.

Gast
2008-03-01, 17:02:18
Du meinst also der GT200 wird einfach nur ein doppelter G92? :confused:
Wie soll das denn gehen, wenn schon ein G92GTX eine TDP von 168W aufweist? Der GT200 soll laut Ail ebenfalls in 65nm erscheinen.
Das meine ich, bzw ich kann es nicht glauben, das NV wirklich eine Verdoppelung realisiert. Eine weniger starke Einheitenerhöhung erscheint mir logischer.
Deshalb glaube ich auch mehr an 55nm und einem Erscheinen Ende 2008.

Gast
2008-03-01, 17:03:05
Wofür? An Bandbreite hat es dem G80 sicherlich nicht gefehlt.
Kein Wunder, wo NV da mit der Brechstange ans Problem ging. ;)

nomadhunter
2008-03-01, 17:10:23
G80 hat 681M Transistoren, ein ganzer Haufen, die Die Size ist enorm, wie auch die Abwärme.
NV war scchon übern Limit mit dem G80, musste also sehen was raus kommt, wie zb VP und NVIO, mehr TAUs oder eine bessere Bandbreitenausnutzung hätte man auch gerne verbaut aber das hätte den Rahmen gesprengt.
Was für ein Limit? Gibt es ein Naturgesetz, das besagt, dass ein Chip beim Überschreiten von 480mm² Die-Größe plötzlich funktionsunfähig wird? Wenn du danach gehst, dann wird GT200 weit über deinem "Limit" sein. Bei >=1,7 Milliarden Transistoren @ 55nm sind >=500mm² zu erwarten.

Was soll NV denn machen?
Die Architektur steht, nur die Menge, den Takt und das Verhältnis der Einheiten kann NV noch ändern.
Wirklich? Eine völlig neue Architektur (wie NV40, G80) erwarte ich auch nicht. Nach fast 2 Jahren Entwicklungszeit seit G80 dürfte NV aber zumindest deutliche Verbesserungen an einigen Stellen vorgenommen haben (vielleicht wie bei G70 ggü. NV40).

@dargo: 65nm? Hat Ailuros nicht immer von 55nm gesprochen? 65nm wären doch Irsinn (>600mm²), zumal 55nm bis Ende Q3/Anfang Q4 absolut ausgereift sein sollte.

y33H@
2008-03-01, 17:11:24
@ nomadhunter

1.25 GHz GDDR3 oder GDDR4 sind ja kaum ein Problem und wohl auch nicht wirklich sooo teuer. Wenn ich allerdings sehe, wieviel ATI durch den Die-Shrink und den Umstieg auf 256 Bit einsparen konnte, dann muss ich sagen, für 512 Bit sieht es entweder düster aus oder es kommt ein Bandbreiten Monster ohne gleichen zu krankhaft hohen Preis. 256 Bit und schneller GDDR5 scheinen mir doch die praktikablere Lösung zu sein.

Ob nV und ATI direkt auf GDDR5 gehen? Hmmmm

cYa

Captain Future
2008-03-01, 17:15:34
Ja, ok. GDDR2 war aber afaik schon großflächig verbreitet, auch wenn nur mit geringeren Taktfrequenzen.
Nein, FX5800/U war die erste Karte mit DDR2-Speicher.

Gast
2008-03-01, 17:16:14
Was für ein Limit?
Abwärme, kühlbarkeit
Produktionskosten, dank vielen Transistoren die laufen müssen und der großen Die-Size


Wirklich? Eine völlig neue Architektur (wie NV40, G80)NV war nicht neu.


Nach fast 2 Jahren Entwicklungszeit seit G80 dürfte NV aber zumindest deutliche Verbesserungen an einigen Stellen vorgenommen haben (vielleicht wie bei G70 ggü. NV40).Diese Verbesserungen laufen bei NV40 -> G70 darauf hinaus:
Kleinere Fertigung, deshalb mehr mögliche Transistoren, deshalb schneller und oben drauf neue Treiberoptimierungen.

reunion
2008-03-01, 17:31:50
@dargo: 65nm? Hat Ailuros nicht immer von 55nm gesprochen? 65nm wären doch Irsinn (>600mm²), zumal 55nm bis Ende Q3/Anfang Q4 absolut ausgereift sein sollte.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6314891&postcount=732

GeneralHanno
2008-03-01, 17:37:49
die effizienz ( also leistung pro transitor) wird wohl beim GT200 zunehmen. Ail sagte ja, es wird kein schlichter verbreiterter G80/G92, sondern ein redesign. aber an den "grundpfeilern" der architektur (eigene shaderdomain, skalarprozessoren, ROP&SI-kopplung, ...) wird man festhalten.

Raff
2008-03-01, 17:45:32
Laut Raff hat das Abschalten von AI ab R600 keine Wirkung mehr auf die Filteroptimierungen.

Es sieht anders aus (das "Flimmerbanding" ist bei einer anderen A.I.-Stufe leicht versetzt), aber es wird immer gespart, ja. Das ist der Stand vom Launch des R600 und kurz danach. Beim RV670 sieht's auf den ersten Blick genauso aus.

Wo das hier so zur Sprache kommt ... ich check das mal genauer mit dem Catalyst 8.2 auf meiner HD 3850. Ist aber offtopic hier. ;)

MfG,
Raff

dargo
2008-03-01, 17:57:09
@dargo: 65nm? Hat Ailuros nicht immer von 55nm gesprochen? 65nm wären doch Irsinn (>600mm²), zumal 55nm bis Ende Q3/Anfang Q4 absolut ausgereift sein sollte.
Zuerst ja, dann wieder nicht. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6314891&postcount=732

Abwärme, kühlbarkeit
Produktionskosten, dank vielen Transistoren die laufen müssen und der großen Die-Size

Öhm:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=Geforce+8800GTX&asd=on&filter=+Liste+aktualisieren+&pixonoff=off

LovesuckZ
2008-03-01, 18:00:07
Das ist der Abverkauf einer Produktionslinie, deren Käuferkreis mit den neuen Karten fast vollständig abgenommen hat.

y33H@
2008-03-01, 18:34:56
*vertippt*

Liszca
2008-03-01, 21:52:16
gerade für ATi wäre es einfacher auf schnelleren GDDR4 zu setzten. zumal der RV770 eventuell schon ende Q2 kommen soll, findest du nicht, das wäre mit GDDR5 etwas knapp.

mit dem PCIe-swich on die bzw onpackage bin ich mir nicht ganz sicher. gabs dazu nicht auch mal ne mitteilung oder ähnliches ...

Reunion hat glaube ich recht bezüglich des gddr5 speicher recht, bin mir sicher sowas schonmal gelesen zu haben. außerdem glaube ich dass es nicht sonderlich aufwändig ist eine weitere Gddrstufe zu unterstützen, verglichen mit dem aufwand für der sonst noch anfällt beim anordnen der transistoren.

Hvoralek
2008-03-02, 00:47:13
Deutlich potenter? Glaube ich kaum. Dann wäre das Verhältnis Rohleistung zur Speicherbandbreite noch schlimmer.Gerade Du meinst doch immer, D8P hänge gar nicht soo extrem an der Bandbreite. Dann müsste so ein 800/2000/1200- Chip doch ganz viel versprechend aussehen (Hat etwa das gleiche Rohleistungs- Bandbreiten- Verhältnis wie eine GTS512).

Der war von der Größe des Speicherinterface im Verhältnis zum Chip auch genauso daneben wie der G92... :hammer:Das SI war für einen High- End- Chip der Zeit nicht so pralle. Allerdings war damals auch der ganze Chip nicht so pralle :wink:

Captain Future
2008-03-02, 10:00:36
Das SI war für einen High- End- Chip der Zeit nicht so pralle. Allerdings war damals auch der ganze Chip nicht so pralle :wink:
Die Bandbreite war völlig ausreichend für die Leistung des Chips. NV30 hatte andere Probleme.

laser114
2008-03-02, 11:09:12
Das SI war für einen High- End- Chip der Zeit nicht so pralle. Allerdings war damals auch der ganze Chip nicht so pralle :wink:

Nö, das war er auch nicht, er hatte definitiv noch andere Schwächen. Aber hier ging es ja um das SI.

Die Bandbreite war völlig ausreichend für die Leistung des Chips. NV30 hatte andere Probleme.

Die Bandbreite war OK, aber um die zu erreichen braucht man diesen super teuren GDDR2-Speicher, weil das SI unterdimensioniert war. Und um den Punkt geht es doch, wenn wir in die Zukunft schauen und überlegen, welches SI für GT200 oder wie das Ding auch immer heißt braucht - oder einfach nur um über die 9800 GTX zu diskutieren.

Gast
2008-03-02, 11:12:04
Ich sehe immer noch nicht den Grund, warum eine Bandbreiten Verdoppelung für den GT200 zu wenig ist.

dargo
2008-03-02, 11:12:22
Gerade Du meinst doch immer, D8P hänge gar nicht soo extrem an der Bandbreite. Dann müsste so ein 800/2000/1200- Chip doch ganz viel versprechend aussehen (Hat etwa das gleiche Rohleistungs- Bandbreiten- Verhältnis wie eine GTS512).

Zur GTS ja, ich meinte das Verhältnis zur neuen GTX.

Gast
2008-03-02, 11:28:53
Ich sehe immer noch nicht den Grund, warum eine Bandbreiten Verdoppelung für den GT200 zu wenig ist.
Weil Dargo sich einen neuen Knaller wie den G80 zum Launchzeitpunkt wünscht und seine Traumkarte in der Phantasie eben nirgends nur "doppelt so dick" ist. :)

GeneralHanno
2008-03-02, 11:44:31
wenn nvidia den early-z algo weiter optimiert, dann müsste die doppelte bandbreite locker ausreichen. zudem wird CSAA sicher weiter optimiert, was bekanntlich nicht so viel bandbreite braucht ;)

außerdem (so meine vermutung) steigt die arithmetik leistung stärker als die textur-leitung.

daher würde bei 2,5fachem transistorencount und 3 facher leistung (im vergleich zum G80) vermutlich auch "nur" die doppelte bandbreite ausreichen ;)

nomadhunter
2008-03-02, 13:44:27
Wieso mehr als das Doppelte? Im Vergleich zur 8800 GTX sind die hier immer wieder rumfliegenden 160 GB/s (2,5GHz@256bit, 2GHz@320bit, ...) sogar weniger als das Doppelte!

Gast
2008-03-02, 13:54:03
Im Vergleich zum G92, der bei weniger Bandbreite das selbe leistet.

dargo
2008-03-02, 14:25:30
Im Vergleich zum G92, der bei weniger Bandbreite das selbe leistet.
Er leistet eben nicht das Selbe. Du vergleichst falsche Settings. In den Settings wo ein G92 das Selbe oder gar etwas mehr leistet limitiert nicht die Bandbreite bzw. kaum. Der G92 ist in diesen Settings nur schneller weil er auch höher getaktet ist.

Hvoralek
2008-03-02, 14:27:14
Zur GTS ja, ich meinte das Verhältnis zur neuen GTX.Seit wann findest Du das Bandbreiten- Rohleistungs- Verhältnis der 9800 GTX (Das immerhin schon besser ist als das der GTS 512) denn "schlimm"?

dargo
2008-03-02, 14:48:11
Seit wann findest Du das Bandbreiten- Rohleistungs- Verhältnis der 9800 GTX (Das immerhin schon besser ist als das der GTS 512) denn "schlimm"?
Schau mal hier: :wink:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6320419&postcount=805

Darauf ging ich ein.

G9800GTX = 675/1,1Ghz
"gewünschte" G9800GTX = 800+/1,2Ghz

y33H@
2008-03-02, 15:10:00
Vll dreht nV ja noch am Takt, wie Raff sagt, so wie die GTX nun kommt, wird sie von fast jeder GTS/512 OC geschlagen.
Und aufgrund der Bandbreite und nur 512 Mb wischt eine 88GTX sowieso mit ihr den Boden wenns richtig zur Sache geht :D

Ich sehe das so wie Raff - vll kommt ein G92-Ultra.

cYa

GeneralHanno
2008-03-02, 15:17:58
eine G92-ULTRA gibt es nur, wenn bedarf besteht, also Ati eine schnellere singel-gpu als die 3870 zu bieten hat ... und danach sieht es gerade weniger aus ;)

y33H@
2008-03-02, 15:52:39
@ GeneralHanno

Ich sagte ja auch "vll" ;)

Im Übrigen habe ich mir mal Gedanken gemacht, die GF8 machen doch 27er Sprünge GPU/Shader/VRAM(?) Somit läuft eine 9800GTX bei angebenen 675/1688/1100 real nur mit 675/1674/1080. Denn wenn der Wert (zB per OC mit dem Rivatuner) etwa zwischen 26*27 (702) und 27*27 (729) liegt (der Takt fällt real offensichtlich immer auf den next kleineren 27er Multi), landet man real bei 702 MHz. Das ist schon eine krude Sache. Und praktisch fallen dann die Werte der 98GTX geringer aus, als die Angaben vor gaukeln^^

Was mich umso mehr bestärkt, aktuell eine EVGA 88Ultra KO zum Zocken in meinem Rechner zu haben :D

cYa

Captain Future
2008-03-02, 16:06:09
GF8 ...
vs.

...9800GTX...

y33H@
2008-03-02, 16:17:33
Die G92 machen 27er Sprünge, die G8x aber auch, die G94 aber 25er (PCIe/4). Ich habe mich blöd ausgedrückt *grummel*

cYa

StefanV
2008-03-02, 16:29:18
Die 9600GT macht wohl 25er Sprünge...

Gast
2008-03-02, 16:41:28
Die 9600GT macht wohl 25er Sprünge...

Jo, ist an den PCIe Takt gekoppelt (PCIe/ 4).

y33H@
2008-03-02, 16:56:17
Wie man bei techpowerup (http://www.techpowerup.com/reviews/NVIDIA/Shady_9600_GT/1.html) sieht, sind es 25er Sprünge via PCIe Takt/4, ja *damned*
Bei den G92 sind es aber 27er Sprünge wie die 88GT zeigt - man man ist das undurchsichtig ...

cYa

dargo
2008-03-02, 16:58:39
Wie man bei techpowerup (http://www.techpowerup.com/reviews/NVIDIA/Shady_9600_GT/1.html) sieht, sind es 25er Sprünge via PCIe Takt/4, ja *damned*
Bei den G92 sind es aber 27er Sprünge wie die 88GT zeigt - man man ist das undurchsichtig ...

Nö, beim G92 sinds auch 25-er wenn die 600Mhz der GT und 650Mhz der GTS exakt passen. :D
Die G80GTS hat 27-er Sprünge, deswegen auch die 513Mhz Coretakt.

GeneralHanno
2008-03-02, 17:05:55
So wies scheint:

G80 - interner taktgeber mit 27Mhz
G92 - interner taktgeber mit 25Mhz
G94 - externer taktgeber (PCIe/4) mit 25Mhz

€dit: weis jmd. wie das beim G84/86 und bei G98 aussieht ?

y33H@
2008-03-02, 17:10:34
Eine 88GT/512 hat real laut Rivatuner 600 MHz Core, das wären 25*4, VRAM bei 900 MHz, also 25*36, allerdings 1512 (27*56) MHz Shader.
Es sieht so aus, als ob alle G9x den 25er Multi für den Core und VRAM nutzen, aber den 27er für die Shader - oder ich übersehe etwas.

Warum geht dann aber der Coretakt bei OC des PCIe Taktes nicht auch nach oben?

EDIT Imo so:

G80 - interne 27 Mhz für alles
G92 - interne 25 Mhz für Core/VRAM, Shader aber 27 MHz
G94 - externe 25 Mhz für Core/VRAM, Shader aber 27 MHz

cYa

Hvoralek
2008-03-02, 17:21:06
EDIT Imo so:

G80 - interne 27 Mhz für alles
G92 - interne 25 Mhz für Core/VRAM, Shader aber 27 MHz
G94 - externe 25 Mhz für Core/VRAM, Shader aber 27 MHzGibt es dafür Hinweise (abgesehen davon, dass es bei allen anderen so ist)?

y33H@
2008-03-02, 17:31:42
@ GeneralHanno

Bei einem G84 (hier eine 8600GT) scheint alles an einen 27er Multi gekoppelt:

http://www.hartware.de/media/reviews/737/gt_rivatuner.jpg
Bild von hartware.de

EDIT
Core 27*20
Shader 27*44
VRAM 27*26

cYa

GeneralHanno
2008-03-02, 17:31:51
Bisher hieß es immer der Shadertakt hänge am Coretakt (direkt!) über einen internen Multiplikator ...

Besizt RAM eigentlich einen internen (auf dem speicherchip) oder externen (der speicherkontroler) taktgeber?

y33H@
2008-03-02, 17:52:24
Joa, normal klebt der Shader-Takt imo theoretisch via 2.5 Multi am Core-Takt - bei einer GT/512 sind aber 600*2.5 nur 1500 MHz (zeigt GPU-Z ab),
nicht die (vom Rivatuner) ausgelesen 1512 MHz. Die 675/1688 der 98GTX fallen auch in dieses Raster (675*2.5= 1678.5) Puh ...

cYa

Gast
2008-03-02, 17:55:06
Der Shadertakt ist völlig Variabel, den Multi kann man frei verändern wie man möchte.

y33H@
2008-03-02, 18:05:30
Der Shadertakt ist völlig Variabel, den Multi kann man frei verändern wie man möchte.
In wie weit denn? 27er Sprünge macht der Shadertakt bei den G8x und dem G92 ja - wo kommen die dann her bei freiem Multi? Der Shadertakt ist intern wohl entkoppelt vom Core Takt, aber via OC Tools wird immer ein 2.5 Multi angelegt, wenn ich das richtig sehe.

cYa

Gast
2008-03-02, 19:52:43
Mit Rivatuner kann man den Shadertakt zumindest beim G80 (innerhalb des 54Mhz-Rasters) völlig unabhängig vom Coretakt einstellen. Es muss aber ein Verhältnis von mindestens 2:1 Shader/Core sein, also z.B. 702/1404 Core/Shadertakt.

Anarchy-HWLUXX
2008-03-03, 10:40:57
9800GX2 Wasserkühler :

http://www.webshop-innovatek.de/assets/s2dmain.html?http://www.webshop-innovatek.de/00000094271139704/000000942713b3501/50142494350d3d711/5309759a530bfea01.html

Der Preis ist einfach realitätsfremd, und nebenbei schaut das Teil alles andere als hochqualitativ aus -> Oberfläche, hässliche Schrauben ...

Mal schaun was Aqua-Computer, EK und die anderen so hinbasteln

y33H@
2008-03-03, 13:44:02
Sieht auch wie ein verformtes Stück Gußeisen ausm Schmelzofen^^
Anderseits ist dadurch klar, wie die GX2 unter der riesigen (unötigen?) Abdeckung aussieht.
Das beide GPUs zueinander zeigen ... mir erschließt sich der Sinn iwie nicht.

cYa

Anarchy-HWLUXX
2008-03-03, 13:53:40
Anderseits ist dadurch klar, wie die GX2 unter der riesigen (unötigen?) Abdeckung aussieht.
Das beide GPUs zueinander zeigen ... mir erschließt sich der Sinn iwie nicht.

cYa


Die Platinen wurden schon genau gezeigt - aufgeklappt und von beiden seiten ;)

Wieso zeigen die GPUs zueinander ? Statt zwei kleiner Lüfter und kleiner Kühler hatz man jetzt einen riesigen Radiallüfter der 100% der Luft durch den Kühler ballert ... und die abdeckung ist laut Fudzie aus Metall.

Nebenbei schaut das Teil endgeil aus :eek:

Gast
2008-03-03, 13:53:53
Die inno Alu Dinger kannst du eh das Klo runter spülen. ;)

Anarchy-HWLUXX
2008-03-03, 13:55:38
Die inno Alu Dinger kannst du eh das Klo runter spülen. ;)
Dann hassu Kloverstopfung :usad:


Ich denk mal Aqua-Computer wird da was hübsches bastlen ;D

Gast
2008-03-03, 14:47:36
Ja die üblichen Verdächtigen werden etwas bringen:)
EK, Watercool, Alphacool, DangerDen

Der Rest will mal wieder mit Alu oder mit Alu/Kupfer locken. .(

y33H@
2008-03-03, 15:15:16
@ Anarchy-HWLUXX

Ich kenne nur das Schema-Bild, aber keine reale augeklappte GX2 ... Link? :)

Klar, so kloppt man einen fetten Lüfter zwischen rein, nur ob das halt effektiver ist als das Design der X2? Einfach die Chips nebeneinander flanschen und nen riesen Kühler drauf. Wobei die ja lustigerweise einmal einen Alu- und einmal einen Kupferblock nutzen. Ich behaupte mal der Block der zweiten GPU ist deswegen aus Kupfer, weil die Luft die da durch strömt, bereits erwärmt ist, mit Kupfer erzielt man bei gleicher Lufttemp/Druck ja ein paar Grad weniger. Bin echt mal gespannt, das Teil final in den Händen zu halten ...

cYa

Gast
2008-03-03, 15:18:29
Link? :)
Die Meldung ist doch uralt. ;)
http://en.expreview.com/2008/01/28/geforce-9800-gx2-dismantled/#more-235

y33H@
2008-03-03, 15:27:14
Hmmpf, ein Bild davon hab ich schon mal gesehen ... seltsam, wo ich doch bald jeden Tag bei expreview vorbei surfe :confused:
Eines ist aber klar, die geben sich bei der WLP und den Pads genauso wenig Mühe wie bei der 88GT *kotz*
HF mit den Temps ... bei der 88GT, die ich da hatte, brachte AS5 satte 5° und die Drehzahl ging hörbar runter.

http://www.abload.de/thumb/88gt_xkhler_bhwa1.jpg (http://www.abload.de/image.php?img=88gt_xkhler_bhwa1.jpg)

cYa

Gast
2008-03-03, 15:35:02
Was heißt mühe geben, bei dem Anblick frage ich mich ernshaft, was die mit den Pads gemacht haben?

Ich habe diese Pads als extrem klebend in Erinnerung. :(

Gast
2008-03-03, 15:35:07
Sind die spekulierten Daten der 9800 GTX nun eigentlich offiziell?

y33H@
2008-03-03, 15:40:13
@ Gast

Kleben tun diese Dinger verdammt gut, nur wenn einmal der Kühler unten war, kann man die imo praktisch vergessen, die zerfetzen ziemlich. Ich bevozuge ohnehin WLP auf den Chips, allerdings muss man dann meist mit Schleifpapier ran. Wobei die Zalman VRAM mit AS5 auch so gut kleben wie mit dem doppelseitigen Klebeband.

Imo sind die Specs nicht offiziel.

cYa

Gast
2008-03-03, 15:43:22
Also können wir noch hoffen dass die finalen Taktraten mehr als nur die schlappen 10% á la PCGH dazuaddieren.
Etwas Speicherausbau wäre auch fein.

Slipknot79
2008-03-03, 18:27:08
Ist anhand der Daten der GX2 abzusehen, ob die GX2 schneller sein wird als 2 x 88GTX in hohen Auflösungen und ev mit AA und AF?

y33H@
2008-03-03, 18:30:43
Eine einzelne GX2-GPU hat mehr Shaderpower, aber weniger Rohleistung und eine deutlich geringere Speicherbandbreite und weniger VRAM als eine 88GTX. Die GX2 liegt zwischen GT-SLI und GTS-SLI und somit ab 1680*1050 hinter 88GTX-SLI. Genau das gleiche Spielchen wie non-SLI ;)

cYa

Hvoralek
2008-03-03, 18:31:18
Ist anhand der Daten der GX2 abzusehen, ob die GX2 schneller sein wird als 2 x 88GTX in hohen Auflösungen und ev mit AA und AF?Das Teil sollte noch einen Tick langsamer sein als zwei GTS 512. Also mit AA erst recht langsamer als zwei 8800 GTX. Ohne AA dürfte sie einen Tick schneller sein, solange der Speicher reicht.

(del)
2008-03-03, 20:07:01
Es gibt schon ein Benchmark von der 9800GX2.
Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/maerz/benchmark_geforce_9800_gx2_nforce_790i/)

y33H@
2008-03-03, 20:47:24
Mit nem Uralt-Treiber auf einem noch nicht finalen Nforce 790i Ultra und unbekannten GPU-Taktraten, vll war sogar SLI aus (bei 13k wäre das möglich)^^

cYa

Gast
2008-03-03, 21:10:11
Bin ich der Einzige, der mit den 3DMark Ergebnissen null anfangen kann?

y33H@
2008-03-03, 21:13:57
Die sagen aufgrund von MoBo/Treiber/SLI/Takt nix aus - außer CPU-Score^^
Außer vll, dass die ganze Geschichte, so wie sie da getestet wurde, alles andere als ausgereift ist.

cYa

AnarchX
2008-03-04, 12:58:46
9800 GTS? (http://www.xtremesystems.org/forums/showthread.php?t=179317)

Gast
2008-03-04, 13:03:20
9800 GTS? (http://www.xtremesystems.org/forums/showthread.php?t=179317)


8800GTS512?

laser114
2008-03-04, 13:23:45
Bisschen viele Produkte in einem bisschen zu engen Raum...

Anarchy-HWLUXX
2008-03-04, 13:45:12
9800 GTS? (http://www.xtremesystems.org/forums/showthread.php?t=179317)
Asus hat auch 6800GT mit 128MB gebastelt und die 6800GE die ein GT PCB und eine non-GT GPU hatten ...

James Ryan
2008-03-04, 13:55:56
9800 GTS? (http://www.xtremesystems.org/forums/showthread.php?t=179317)

Hmm, quasi eine Gf 8800 GTS mit niedrigeren Taktraten.

MfG :cool:

Gast
2008-03-04, 14:20:52
Hmm, quasi eine Gf 8800 GTS mit niedrigeren Taktraten.

MfG :cool:

Ja und das nennt man dann GF9800GTS.

AnarchX
2008-03-04, 16:28:15
http://img410.imageshack.us/img410/7737/20080304a98e18df677c525zt8.jpg (http://imageshack.us)
http://img292.imageshack.us/img292/2065/2008030415e797373e42996dq4.jpg (http://imageshack.us)
http://img134.imageshack.us/img134/999/2008030470d0f9df70c64cdvs1.jpg (http://imageshack.us)
http://img411.imageshack.us/img411/2384/2008030461a97e7d4ba4740vu0.jpg (http://imageshack.us)
http://img186.imageshack.us/img186/5161/20080304cd2f8d1bc9da5baun9.jpg (http://imageshack.us)

Mit der Stromversorgung sollte ja noch einiges möglich sein... :eek:

K4mPFwUr$t
2008-03-04, 16:32:09
so gesehen also nur eine 8800GTS hardcore OC version? ;)

laser114
2008-03-04, 16:32:26
675/1688/1100 wirkt da etwas unglaubwürdig, ja.
Stehen die finalen Taktraten denn schon fest...? ;)

dildo4u
2008-03-04, 16:35:01
Da bin ich ja wirklich sher auf die OC Versionen gespannt wenn man überlegt wie hoch die Hersteller schon bei der 8800GTS gegangen sind.

http://geizhals.at/deutschland/?a=305247&t=alle&plz=&va=nachnahme&vl=de&v=l#filterform

Gast
2008-03-04, 16:39:19
warum ist die 9800GTX jetzt länger als die 8800 ?

y33H@
2008-03-04, 17:06:26
Weil das Teil durchgehend eine dreiste Aktion ist ... länger, langsamer, weniger Speicher - nur halt sparsamer und kühler.

cYa

K4mPFwUr$t
2008-03-04, 17:11:55
wenn die karte wirklich länger sein sollte, max 1mm.
mir scheinen die beiden PCBs gleich groß.

ansonsten kann ich mich mehr oder minder y33h@ anschließen. die GPU rohleistung ist höher, aber bei den settings die man mit einer high end karte normalerweise fährt bremst einfach nur die niedrige bandbreite (warum kein GDDR4?) und der magere ausbau an VRAM.

AnarchX
2008-03-04, 17:12:58
@y33H@
Nicht dreist, sondern extraordinary (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6308578&postcount=538)... ;D

PHuV
2008-03-04, 17:18:40
Hat jemand schon gelesen? Heise - Zwei Grafikchips auf einer Grafikkarte (http://www.heise.de/newsticker/meldung/104484)


Der Preis für die in Sandwichtechnik aufgebaute Karte soll anfänglich bei 699 Euro liegen und nach einigen Wochen auf 599 Euro sinken.


Finde ich etwas heftig für so wenig Mehrleistung. :eek:

K4mPFwUr$t
2008-03-04, 17:20:52
da fällt mir nur eins ein ... :ulol2:

über 200% preis einer GTS und kaum mehr leistung als eine 88U und das auch nur von der rohleistung der GPU.

aber was zeichnet einen echten fanboy aus? er würde sowas schön reden und als gerechtfertigt ansehen. alle die das nicht tuen haben einen gesunden menschenverstand ;)

crux2005
2008-03-04, 17:50:23
warum ist die 9800GTX jetzt länger als die 8800 ?

das Foto trügt
die 9800GTX sollte gleich lang wie die 8800GTX sein ;)

Mit der Stromversorgung sollte ja noch einiges möglich sein... :eek:

aufjeden :eek::eek:

dildo4u
2008-03-04, 17:50:52
Scheint auch auf der Cebit noch ein NDA für die finalen Specs der 9800GX2 zu geben.

http://www.hexus.tv/show/2008/03/EVGA_reveals_9800_GX2_to_HEXUS_tv_at_CeBIT_2008/

4711
2008-03-04, 17:54:54
wirklich wahr,man kann nur beten das die mit den zwei Karten richtig auf die Schnauze fallen!

Gast
2008-03-04, 18:06:36
Mit der Stromversorgung sollte ja noch einiges möglich sein... :eek:
Allerdings.
Was ist da für RAM drauf? Ich kanns nicht erkennen. :)

AnarchX
2008-03-04, 18:08:13
BJ08, also 0.83ns GDDR3 von Samsung.

Scheint auch auf der Cebit noch ein NDA für die finalen Specs der 9800GX2 zu geben.

http://www.hexus.tv/show/2008/03/EVGA_reveals_9800_GX2_to_HEXUS_tv_at_CeBIT_2008/

Nein:
http://img292.imageshack.us/img292/2643/cebit204693a497aac3.jpg (http://imageshack.us)
... bzw. Inno hält sich nicht dran. :D

K4mPFwUr$t
2008-03-04, 18:59:42
eigentlich müsste es lauten

128 x2 US
512MB
256bit SI

oder hat etwa jede GPU 1GB VRAM?

GeneralHanno
2008-03-04, 19:07:18
nein natürlich nicht. das ist halt marketing verarsche ;)

K4mPFwUr$t
2008-03-04, 19:09:50
dann darf man sich erst recht fragen was man mit einer graka anfangen soll die threoretisch weit über 88U niveau liegen sollte die nur magere 512MB hat? BQ sprich AA/AF kann man doch kaum ausfahren.

aber eins steht fest, nV macht sich mit der taktik unter den leuten mit etwas ahnung nicht viel freunde.

LovesuckZ
2008-03-04, 19:17:44
dann darf man sich erst recht fragen was man mit einer graka anfangen soll die threoretisch weit über 88U niveau liegen sollte die nur magere 512MB hat? BQ sprich AA/AF kann man doch kaum ausfahren.

Natürlich. Keinen Quatsch erzählen.


aber eins steht fest, nV macht sich mit der taktik unter den leuten mit etwas ahnung nicht viel freunde.

Stimmt, die müssen ja das Produkt kaufen. :rolleyes:

eigentlich müsste es lauten

128 x2 US
512MB
256bit SI

oder hat etwa jede GPU 1GB VRAM?

Bis auf den Speicher ist es alles richtig. Durch AFR verdoppelt sich nunmal alles in Theorie.

Gast
2008-03-04, 19:58:44
BQ sprich AA/AF kann man doch kaum ausfahren.

AF kann man damit locker, wie mit jeder 8800 ausfahren.

Anarchy-HWLUXX
2008-03-04, 21:38:33
Also Optisch ist die GTX mal wieder endgeil, wenn nur die Performance stimmen würd :usad:

Na ja, abwarten wie der Preis wird ...

Gast
2008-03-05, 00:25:49
Wenn das Potential ausgenutzt wird (per OC), dann sieht die Performance auch gut aus.

Anarchy-HWLUXX
2008-03-05, 00:30:52
Wenn das Potential ausgenutzt wird (per OC), dann sieht die Performance auch gut aus.
Mal wieder nen vergleich der keiner ist - man muss OC vs. OC oder non-OC vs. non-OC hernehmen

Und da sollten die abstände wohl mehr oder minder identisch bleiben solang die GTX nicht übelst gut selektierte GPUs bekommt.

Gast
2008-03-05, 00:46:06
Mal wieder nen vergleich der keiner ist - man muss OC vs. OC oder non-OC vs. non-OC hernehmen

Doch das ist ein Vergleich.
Hätte ich wohl noch erwähnen sollen, aber OC bei beiden Seiten ist doch selbsterständlich. :)

Also jetzt die lange Version von dem vorherigen Post:
Die neue GTX müsste ein gewaltiges OC Potential haben, während die alte GTX vielleicht 10% beim Chip schafft. :)

James Ryan
2008-03-05, 07:31:15
Mit der Stromversorgung sollte ja noch einiges möglich sein... :eek:

Ich kann mir beiliebe nicht vorstellen, dass der Referenztakt wirklich nur 675 MHz für den Core betragen soll! Die Stromversorgung ist ja für 800 bis 850 MHz gut! :eek:

MfG :cool:

Paul Brain
2008-03-05, 10:23:42
da fällt mir nur eins ein ... :ulol2:

über 200% preis einer GTS und kaum mehr leistung als eine 88U und das auch nur von der rohleistung der GPU.

aber was zeichnet einen echten fanboy aus? er würde sowas schön reden und als gerechtfertigt ansehen. alle die das nicht tuen haben einen gesunden menschenverstand ;)
Nein, ich bin kein Fanboy. Und mir taugen die Aussichten bzgl. Speicherbandbreite auch überhaupt nicht. Aber: Der Preis steigt normalerweise nicht nur linear mit der Leistung; bis zu einem gewissen Punkt vielleicht, aber High-End war immer schon außergewöhnlich teuer.
Ist ja bei den CPUs nicht anders: Da zahlst Du auch nicht in EUR/GHz; das Preis-/Leistungsverhältnis wird mit zunehmender Leistung immer schlechter sein.

Also so wie's aussieht wird die GTX nix für mich: Schwacher Coretakt, schwache Speicherbandbreite und trotzdem eine TDP von 170W?!? WTF?!?
Was müssen dann erst die OC-Versionen verbraten, dagegen ist eine 8800Ultra ja nix!
Ich glaub fast, ich hol mir eine 8800GTS Black Pearl; die sollt mein Netzteil noch verkraften, und irgendwann im Herbst gibts dann ja endlich eine echte, neue Generation... Jetzt auf aktuelles High-End zu setzen bringt offensichtlich gar nix, außer daß man sich in etwa einem halben Jahr ärgert... ;)

4711
2008-03-05, 11:41:21
yep hab ich jetzt auch gerade gemacht,der hat mir nun doch meine zweite Ultra abgelaabert und hab nun ne pretested GTS 750/1800 für 250 Ocken drinn,das wird wohl ausreichen bis was anständiges kommt,egal was fürn Hersteller.

Gast
2008-03-05, 12:36:00
Ich kann mir beiliebe nicht vorstellen, dass der Referenztakt wirklich nur 675 MHz für den Core betragen soll! Die Stromversorgung ist ja für 800 bis 850 MHz gut! :eek:

MfG :cool:

Natürlich, das sieht man ja auch auf den ersten Blick wofür die Stromversorgung ausgelegt ist.

GeneralHanno
2008-03-05, 13:18:22
glaubt ihr, die 9800GTS hat 8 oder 7 cluster?

AnarchX
2008-03-05, 13:22:31
glaubt ihr, die 9800GTS hat 8 oder 7 cluster?

Laut GPU-Z sind es nur 7, was das ganze noch absurder macht. Imo erlaubt man sich da wohl nur einen Scherz.

Unter der 9800GTX wird sich wohl die GT einfinden mit ihren spekulierten 7C, 650/1625/1000MHz, also wohl eine OC-88GT mit HybridPower-Support.

Gast
2008-03-05, 14:10:09
Das ist ja urpeinlich. Die 9800GTX erliegt der alten 8800GTX.

Superheld
2008-03-05, 16:41:55
GeForce 9800 GX2 im Kurztest

http://www.hardware-aktuell.com/viewtest.php?article=42&seite=1

y33H@
2008-03-05, 16:55:58
Toll, wie üblich nur der Schwan*mark - da ist die 98GTX toll ... aber auch nur da^^

cYa

dildo4u
2008-03-05, 17:23:38
GeForce 9800 GX2 im Kurztest

http://www.hardware-aktuell.com/viewtest.php?article=42&seite=1
20% vor der Ultra und ca 27% vor der GTX aber ist natürlich fraglich ob der Bench bei 1280 mal 768 selbst mit AA und AF schon vollkommen Grafiklimitiert ist.

Gast
2008-03-05, 17:26:33
Das ist ja urpeinlich. Die 9800GTX erliegt der alten 8800GTX.
Hat auch Vorteile. Ich habe meine 8800 GTX seit Dezember 2006. Und bis jetzt ist noch nicht wirklich was schnelleres rausgekommen.
Bin mal gespannt, ob sich die Entwicklung beim G200 und seinen Nachfolgern fortsetzt. Da lässt sich gut Geld sparen. :D

Hvoralek
2008-03-05, 18:29:37
20% vor der Ultra und ca 27% vor der GTX aber ist natürlich fraglich ob der Bench bei 1280 mal 768 selbst mit AA und AF schon vollkommen Grafiklimitiert ist.Die 3D- Tests sollten weitestgehend CPU- unabängig sein. Das Gesamtergebnis ist allerdings zum Test von GraKaen ungeeignet, weil da die CPU- Punkte eingerechnet werden.

Warum lassen die den Test nicht in den üblichen 1280x1024 laufen? Dann hätte man wenigstens die Punkte in den 3D- Tests mit anderen vergleichen können.

dildo4u
2008-03-05, 18:37:41
Warum lassen die den Test nicht in den üblichen 1280x1024 laufen? Dann hätte man wenigstens die Punkte in den 3D- Tests mit anderen vergleichen können.

"Bei den Benchmarks gab es leider Seitens des Herstellers einige Einschränkungen. Der Testbildschirm konnte leider nur eine maximale Auflösung von 1280 mal 768 Pixel, was zur Folge hat, dass hier eine Prozessorlimitation in Kraft treten wird. Um dem entgegen zu wirken, haben wir die Qualitätseinstellungen drastisch erhöht. So kommt 16-faches Anisotropic-Filtering, sowie 4-faches Anti-Aliasing"

Hvoralek
2008-03-05, 18:45:46
"Bei den Benchmarks gab es leider Seitens des Herstellers einige Einschränkungen. Der Testbildschirm konnte leider nur eine maximale Auflösung von 1280 mal 768 Pixel, was zur Folge hat, dass hier eine Prozessorlimitation in Kraft treten wird. Um dem entgegen zu wirken, haben wir die Qualitätseinstellungen drastisch erhöht. So kommt 16-faches Anisotropic-Filtering, sowie 4-faches Anti-Aliasing"Dadurch sind ihre Werte nur leider ziemlich unbrauchbar. Wenn sie schon die Auflösung nehmen mussten, hätten sie wenigstens die SM2- und SM3- Werte der Vergleichskarten in den Einstellungen veröffentlichen können.

Gast
2008-03-05, 18:57:41
Nvidia macht mit der GF9 wieder mal alles richitg.
Die 9800 erhöht den Abstand zu AMD weiter, die 9600 macht die kleinen 38XX sinnlos, jetzt fehlt noch eine 9400. :)

Hvoralek
2008-03-05, 19:02:28
Nvidia macht mit der GF9 wieder mal alles richitg.
Die 9800 erhöht den Abstand zu AMD weiter, die 9600 macht die kleinen 38XX sinnlos, jetzt fehlt noch eine 9400. :)Wo siehst Du bei er 9800GTX/ GX2 ggü. der 3870/X2 einen größeren Abstand als bei der 8800 Ultra ggü. der 2900XT? Ob bei D8P alles nach Plan gelaufen ist, kann man sicherlich bezweifeln. Und bei der Namensgebung macht man ganz bestimmt nicht "alles richtig".

Gast
2008-03-05, 19:08:30
?
Gegen die 38XX gewinnt schon die 9600, die 9800GX2 ist schneller als die 8800Ultra, wo ist jetzt AMD? Die können nicht mal mit der Mittelklasse mithalten.

Hvoralek
2008-03-05, 19:34:15
Gegen die 38XX gewinnt schon die 9600 [...]Gerade mal so eben bei wohl etwa gleichen Produktionskosten. Wo ist da jetzt der Vorteil? Zumal der Füllratenmangel der R6xxer nach und nach an Bedetung verlieren wird, sodass man bei mittelfristigen Planungen mit einer noch nur gleich schnellen 3870 wahrscheinich besser bedient ist.

die 9800GX2 ist schneller als die 8800Ultra, wo ist jetzt AMD?Und wo "erhöht [die 9800] den Abstand zu AMD weiter"? Die GX2 liegt sicherlich nicht weiter vor einer X2 als die 8800 Ultra vor einer 2900XT, wenn man nicht noch erheblich an der SLI- Effizienz arbeitet. Bei Einchipkarten verliert man mit der enttäuschenden 9800 GTX sogar etwas gegenüber der 8800 Ultra, wohingegen AMD mit der 3870 zumindest einen Tick schneller ist als mit 2900XT. Auch hier bleibt Nvidia vorne, aber mit einem kleineren Vorsprung.

Gast
2008-03-05, 20:02:27
Und wo "erhöht [die 9800] den Abstand zu AMD weiter"? Die GX2 liegt sicherlich nicht weiter vor einer X2 als die 8800 Ultra vor einer 2900XT
Die 2900XT ist wayne.

Heute steht da die 9800GX2 und die 3870X2, ja da ist NV besser als noch mit einer 8800Ultra positiniert, so schwer zu verstehen?

reunion
2008-03-05, 20:09:59
?
Gegen die 38XX gewinnt schon die 9600,

Wo denn? Ohne AF ist die 9600 klar hinten und mit AF bestenfalls Gleichstand. Und das wird sich in Zukunft wohl kaum in Richtung 9600 verschieben.


Gerade mal so eben bei wohl etwa gleichen Produktionskosten.

Seit wann erreicht man mit einem 25% größeren Die gleiche Produktionskosten?

Hvoralek
2008-03-05, 20:12:32
Die 2900XT ist wayne.

Heute steht da die 9800GX2 und die 3870X2, ja da ist NV besser als noch mit einer 8800Ultra positiniert, so schwer zu verstehen?Noch besser als mit der 8800 Ultra gegen was? Die Ultra ist langsamer als die X2, da gibt es keinen Vorsprung auszubauen, sondern erst einmal einen zu erobern. Der Abstand GX2 -> X2 wird wahrscheinlich kleiner ausfallen als der 8800 Ultra ->2900XT/ 3870. Wo also baut Nvidia etwas aus?

Seit wann erreicht man mit einem 25% größeren Die gleiche Produktionskosten?Im älteren 65- nm- Prozess werden Ausbeute/ Waferkosten etwas besser sein als in 55 nm. Auch die Platine/ Kühler der 3870 dürften etwas teurer sein.

Nakai
2008-03-05, 20:18:31
Seit wann erreicht man mit einem 25% größeren Die gleiche Produktionskosten?

Niedrigerer Stromverbrauch ergo kleinere Stromversorgung. Und dann wäre da noch GDDR3-Speicher.

Heute steht da die 9800GX2 und die 3870X2, ja da ist NV besser als noch mit einer 8800Ultra positiniert, so schwer zu verstehen?

Weder HD3870X2 noch 9800GX2 sind wirklich toll.
Beides eine Verzweiflungstat hoch 10.

Nvidia macht mit der GF9 wieder mal alles richitg.
Die 9800 erhöht den Abstand zu AMD weiter, die 9600 macht die kleinen 38XX sinnlos, jetzt fehlt noch eine 9400.

Was Ail so meinte, dann ist genau das nicht der Fall.
Der G92 scheint ein Fehlschlag zu sein, wenn die 9800GTX nicht höher taktet aks 675Mhz. Der Shrink auf 65Nm war wohl nicht so toll, vorallem wenn man damit den G80 schlagen wollte, was bisher nicht geschehen ist.
Die 9600GT ist wirklich eine sehr gute Karte, da stimm ich zu. An einer HD3870 kommt sie leider noch nicht ganz ran. Vll bringt NV ne GTS-Version mal raus, die wird bestimmt sehr nett werden. ;)


mfg Nakai

AnarchX
2008-03-05, 20:21:26
Wo denn? Ohne AF ist die 9600 klar hinten und mit AF bestenfalls Gleichstand.

Naja, ob es wirklich so klar ist. (http://www.hardware.fr/articles/705-14/dossier-geforce-9600-gt-radeon-hd-3650.html)
Vorallem, wenn man sich am Preis der 3870 orientiert, so bekommt man hier doch schon eine OC-Version der 9600GT, die mit ~8% mehr GPU-Leistung und gut 10% mehr Bandbreite daherkommt.

Und das G8x/G9x Design wird ebenfalls von sinkender Tex-Last profitieren können. ;)

Vll bringt NV ne GTS-Version mal raus, die wird bestimmt sehr nett werden. ;)


Oder eine GeForce 9700 :D:
NVIDIA GeForce 9950 (GF 9800 + GF 9300)
NVIDIA GeForce 9850 (GF 9700 + GF 9300)
NVIDIA GeForce 9750 (GF 9600 + GF 9300)
NVIDIA GeForce 9650 (GF 9500 + GF 9300)
NVIDIA GeForce 9550 (GF 9400 + GF 9300)
NVIDIA GeForce 9450 (GF 9300 + GF 9300)
NVIDIA GeForce 9900 (GF 9800 + GF 9200)
NVIDIA GeForce 9800 (GF 9700 + GF 9200)
NVIDIA GeForce 9700 (GF 9600 + GF 9200)
NVIDIA GeForce 9600 (GF 9500 + GF 9200)
NVIDIA GeForce 9500 (GF 9400 + GF 9200)
NVIDIA GeForce 9400 (GF 9300 + GF 9200)
NVIDIA GeForce 9880 (GF 9800 + GF 8200)
NVIDIA GeForce 9780 (GF 9700 + GF 8200)
NVIDIA GeForce 9680 (GF 9600 + GF 8200)
NVIDIA GeForce 9580 (GF 9500 + GF 8200)
NVIDIA GeForce 9480 (GF 9400 + GF 8200)
NVIDIA GeForce 9400 (GF 9300 + GF 8200)
NVIDIA GeForce 8700 (GF 8600 + GF 8200)
NVIDIA GeForce 8600 (GF 8500 + GF 8200)
NVIDIA GeForce 8500 (GF 8400 + GF 8200)
... kann sich natürlich hier auch nur um Mobile-GPUs handeln, wobei dann es eigentlich dann GF9x00M sein müssten. :|

Gast
2008-03-05, 20:27:16
Was nützt ne AMD X² wenn ich in Cod4 10 FPS habe....was nützen mir 20000 Punkte im Quarkmark mit 800/1800 wenn inGame mit AA der Ofen aus ist..was nützt mir ne Graka wo der Hersteller einen Zettel draufpappt "bitte nicht anfassen"
Von den anderen Feinheiten der X² Karten mal abgesehn,die Fertigbauhersteller können die NV X² nicht verbauen,muß der Kunde machen,das Ding reißt beim Transport das Mobo in Stücke,usw. usw.
Und der Schrott wird gekauft werden und die Herren lachen sich kaputt.
Der Kunde ist doff.

reunion
2008-03-05, 20:29:08
Und das G8x/G9x Design wird ebenfalls von sinkender Tex-Last profitieren können. ;)

Wie kommst du darauf? Ein G8x/G9x hat Tex-Füllrate im Überfluss, ein sinken der Tex-Last im Verhältnis zur ALU-Last wird ihnen nichts nützen im Gegensatz zu einem R6xx.

AnarchX
2008-03-05, 20:36:26
Wie kommst du darauf? Ein G8x/G9x hat Tex-Füllrate im Überfluss, ein sinken der Tex-Last wird ihnen nichts nützen im Gegensatz zu einem R6xx.
Filtern ist die eine Sache, aber irgendwo müssen ja erstmal die Texturkoordinaten herkommen und das geschieht wohl bei G8x/G9x in den ALUs, die durch sinkenden Tex-Anteil, dann eben auch weniger zu tun haben und für andere Berechnungen frei sind:
http://forum.beyond3d.com/showpost.php?p=1131624&postcount=8

reunion
2008-03-05, 20:41:17
Filtern ist die eine Sache, aber irgendwo müssen ja erstmal die Texturkoordinaten herkommen und das geschieht wohl bei G8x/G9x in den ALUs, die durch sinkenden Tex-Anteil, dann eben auch weniger zu tun haben und für andere Berechnungen frei sind:
http://forum.beyond3d.com/showpost.php?p=1131624&postcount=8

Das wird höchstens minimale Auswirkungen haben IMO. Ein RV670 hat eine arithmetische Rechenleistung auf dem Niveau der schnellsten Single-Chip-Karten von NV. Eine weitere Verlagerung der Last in Richtung ALU wird einem RV670 sicher eher zu gute kommen als einem G94 der kaum mehr als die Hälfte dieser Leistung aufbieten kann.

LovesuckZ
2008-03-05, 20:41:44
Was Ail so meinte, dann ist genau das nicht der Fall.
Der G92 scheint ein Fehlschlag zu sein, wenn die 9800GTX nicht höher taktet aks 675Mhz. Der Shrink auf 65Nm war wohl nicht so toll, vorallem wenn man damit den G80 schlagen wollte, was bisher nicht geschehen ist.

Muss man sie schlagen? Will man sie überhaupt schlagen? :confused:


Die 9600GT ist wirklich eine sehr gute Karte, da stimm ich zu. An einer HD3870 kommt sie leider noch nicht ganz ran. Vll bringt NV ne GTS-Version mal raus, die wird bestimmt sehr nett werden. ;)


Na, die 9600gt ist auch nicht der Konkurrent der 3870. Der Stromverbrauch von ca. 30 Watt unter Last, die die 3870 zieht, spricht Bände.

Das wird höchstens minimale Auswirkungen haben IMO. Ein RV670 hat eine arithmetische Rechenleistung auf den Niveau der schnellsten Single-Chip-Karten von NV. Eine weitere Verlagerung der Last in Richtung ALU wird einem RV670 sicher eher zu gute kommen als einem G94 der kaum mehr als die Hälfte dieser Leistung aufbieten kann.

Nur wird man es nie ausspielen können, da das ineffiziente Design einen Strich durch die Rechnung macht.

reunion
2008-03-05, 20:47:32
Muss man sie schlagen? Will man sie überhaupt schlagen? :confused:

Bei einer "9800GTX" sollte man das schon erwarten können.

Na, die 9600gt ist auch nicht der Konkurrent der 3870. Der Stromverbrauch von ca. 30 Watt unter Last, die die 3870 zieht, spricht Bände.


Messungen hinter dem Netzteil geben nicht die Realität wieder.


Nur wird man es nie ausspielen können, da das ineffiziente Design einen Strich durch die Rechnung macht.

Doch. Die Rechenleistung eines RV670/R600 liegt durchaus auf dem Niveau eines G80/G92, sie liegt nicht darüber wie man das aufgrund der Rohleistung vermuten könnte. Das wurde von mehreren Leuten die das in der Praxis getestete haben angegeben. Erst Coda hat sich kürzlich dazu geäußert.

Coda
2008-03-05, 20:53:57
Jo stimmt ja auch. Arithmetisch ist RV670 nicht so schlecht. Aber ich bin eben nicht so ganz optimistisch was die weitere Steigerung von Arith betrifft...

deekey777
2008-03-05, 20:58:34
Das wird höchstens minimale Auswirkungen haben IMO. Ein RV670 hat eine arithmetische Rechenleistung auf dem Niveau der schnellsten Single-Chip-Karten von NV. Eine weitere Verlagerung der Last in Richtung ALU wird einem RV670 sicher eher zu gute kommen als einem G94 der kaum mehr als die Hälfte dieser Leistung aufbieten kann.
Du ziehst einen Umkehrschluss, wo es keinen gibt. Die fehlende Tex-Leistung lässt sich nicht über die Erhöhung der Rechenlast ersetzen.
Insbesondere wenn die Anwender die anisotrope Filterung längst entdeckt haben, was das real geforderte ALU:Tex-Verhälnis noch weiter in Richtung Tex verschiebt.
...

Nur wird man es nie ausspielen können, da das ineffiziente Design einen Strich durch die Rechnung macht.
Belegst du irgendwann diese Behauptung?

Nakai
2008-03-05, 21:30:57
Na, die 9600gt ist auch nicht der Konkurrent der 3870. Der Stromverbrauch von ca. 30 Watt unter Last, die die 3870 zieht, spricht Bände.

Stromverbrauch ist kein Kriterium für Konkurrenz. Der Preis ist es.

Muss man sie schlagen? Will man sie überhaupt schlagen?

War die Frage ernst gemeint?
War eine 7800GT nicht schneller als eine 6800Ultra?
Bei einer höheren Generation mit demselben Suffix sollte man eine schnellere Karte erwarten...


mfg Nakai

LovesuckZ
2008-03-05, 21:45:16
Doch. Die Rechenleistung eines RV670/R600 liegt durchaus auf dem Niveau eines G80/G92, sie liegt nicht darüber wie man das aufgrund der Rohleistung vermuten könnte. Das wurde von mehreren Leuten die das in der Praxis getestete haben angegeben. Erst Coda hat sich kürzlich dazu geäußert.

Die schlussendliche Rechenleistung der rv670 liegt auf dem Niveau der 8800GT. An eine 8800GTX, Ultra bzw. GTS-512 kommt man nicht heran.
Die einzigen zwei Anwendungen, in der man einen Sieg sieht, ist die von AMD geschriebende und Rainbow Six:Vegas.

Jake Dunn
2008-03-05, 22:14:57
Was nützt ne AMD X² wenn ich in Cod4 10 FPS habe....was nützen mir 20000 Punkte im Quarkmark mit 800/1800 wenn inGame mit AA der Ofen aus ist..was nützt mir ne Graka wo der Hersteller einen Zettel draufpappt "bitte nicht anfassen"

Und der Schrott wird gekauft werden und die Herren lachen sich kaputt.
Der Kunde ist doff.

Hast du eine 3870 X2? Dann mach doch mal Pic`s, Benchmarks von COD4 mit 10FPS,ich hatte die X2 selbst und hatte nichtmal bei CRYSIS all High,auf 1920 im ICE-Level 10FPS.
Typischer Gast-Spam :rolleyes:

P.S. meld dich an oder hast du (noch) keine Eier ;D


@T Ich bin gespannt auf die GX2 :)

reunion
2008-03-05, 22:53:34
Die schlussendliche Rechenleistung der rv670 liegt auf dem Niveau der 8800GT. An eine 8800GTX, Ultra bzw. GTS-512 kommt man nicht heran.
Die einzigen zwei Anwendungen, in der man einen Sieg sieht, ist die von AMD geschriebende und Rainbow Six:Vegas.

Nope, in sehr arithmetiklastigen Anwendungen lag ein R6xx schon immer sehr gut und durchaus auf dem Niveau einer 8800GTX. Nur wird das halt in der Praxis kaum wo gefordert. Ein Beispiel ist auch der "Perlin Noise"-Test aus dem 3dmark:

http://b.imagehost.org/0205/06_perlin.gif

In the “Perlin Noise” test the realistic clouds that are changing in real time are generated by means of a pixel shader that contains 447 mathematic instructions and 48 texture lookups. So, this test shows how well the GPU can work with long shaders (the Shader Model 3.0 specification requires support for 512-intruction-long shaders).

Just according to expectations, Radeon HD 2900 XT managed to find itself on the first place in this test: with mathematic instructions exceeding the amount of texture lookups by the factor of 10, the R600 architecture feels itself very good here.

http://www.xbitlabs.com/articles/video/display/r600-architecture_21.html

|MatMan|
2008-03-05, 23:07:04
Eine weitere Verlagerung der Last in Richtung ALU wird einem RV670 sicher eher zu gute kommen als einem G94 der kaum mehr als die Hälfte dieser Leistung aufbieten kann.
Sicherlich wird sich das TEX:ALU Verhältnis mehr in Richtung ALU verschieben, relative TEX-Leistung ja, aber sicherlich nicht absolute TEX-Leistung. Wenn jetzt schon die Füllrate limitiert (wer will denn ohne AF spielen?), dann limitiert sie mindestens genauso in zukünftigen Spielen bei Rx6xx, ganz unabhängig von der ALU-Last. Wo jetzt hier der Vorteil für Rx6xx sein soll, erschließt sich mir nicht.

Gast
2008-03-06, 00:05:34
Sicherlich wird sich das TEX:ALU Verhältnis mehr in Richtung ALU verschieben, relative TEX-Leistung ja, aber sicherlich nicht absolute TEX-Leistung. Wenn jetzt schon die Füllrate limitiert (wer will denn ohne AF spielen?), dann limitiert sie mindestens genauso in zukünftigen Spielen bei Rx6xx, ganz unabhängig von der ALU-Last. Wo jetzt hier der Vorteil für Rx6xx sein soll, erschließt sich mir nicht.
Weil die R(V)6xx-Chips dann mehr aufschließt? Man kann TEX hinter ALU "verstecken".

Ailuros
2008-03-06, 05:29:11
Nope, in sehr arithmetiklastigen Anwendungen lag ein R6xx schon immer sehr gut und durchaus auf dem Niveau einer 8800GTX. Nur wird das halt in der Praxis kaum wo gefordert. Ein Beispiel ist auch der "Perlin Noise"-Test aus dem 3dmark:


http://www.xbitlabs.com/articles/video/display/r600-architecture_21.html

Der Perlin noise test hat sowieso ein paar fragliche Aspekte und nein nicht weil ATI hier besser abschlaegt. Was passiert denn nun wohl wenn man dynamisches branching anlegt und dazu in einem handgemeisterten synthetischen Test wie der von Damien wo keiner der IHVs Zugang dazu hat?

http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=fr_de&url=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F671-5%2Fati-radeon-hd-2900-xt.html

Du willst doch "viele" Instruktionen oder?

Das wird höchstens minimale Auswirkungen haben IMO. Ein RV670 hat eine arithmetische Rechenleistung auf dem Niveau der schnellsten Single-Chip-Karten von NV. Eine weitere Verlagerung der Last in Richtung ALU wird einem RV670 sicher eher zu gute kommen als einem G94 der kaum mehr als die Hälfte dieser Leistung aufbieten kann.

Wenn Du vorsichtig genug den Link oben durchliest, wird es schnell offensichtlich dass man auf beiden Seiten Schwaechen und Staerken finden kann was Arithmetik generell betrifft, nur sind die Staerken von G8x/9x praxisnaher zu dem was normalerweise benutzt wird. In heutigen Spielen mit hoeherer arithmetik koennen sich RV6x0 eher in sehr wenigen Ausnahmen behaupten.

Geht es jetzt um Spiele der Zukunft, sowohl 3870 als auch 9600GT liegen auf nur "high" (ohne AA/AF), 1280*1024 bei <27fps Durchschnitt in Crysis. Oder hast Du vielleicht den Eindruck dass stinknormales (default) brilinear auf beiden irgendwo einen besonderen Unterschied machen soll?

=Floi=
2008-03-06, 10:45:42
warum schneidet der G92 so schlecht ab im vergleich mit dem G80, obwohl dieser mehr shaderleistung hat?

K4mPFwUr$t
2008-03-06, 10:46:38
bandbreite und weniger VRAM. ansonsten ist ja die GPU leistungstärker.

AnarchX
2008-03-06, 10:57:11
http://babelfish.altavista.com/babelfish/trurl_pagecontent?lp=fr_de&url=http%3A%2F%2Fwww.hardware.fr%2Farticles%2F671-5%2Fati-radeon-hd-2900-xt.html

Du willst doch "viele" Instruktionen oder?

Tipp:
Bei BeHardware gibt es meist die Hardware.fr Tests in Englisch:
http://www.behardware.com/articles/671-5/ati-radeon-hd-2900-xt.html

=Floi=
2008-03-06, 11:18:06
ach mist
ich meinte im zusammenhang mit der reinen arithmetik
http://b.imagehost.org/0205/06_perlin.gif
hier sollte doch der G92 gut über dem G80 sein O_o

_flx
2008-03-06, 11:20:11
wie kommst du darauf das es ne G92-GTS ist?

oder hab ich was verpasst und X-bit labs hat die 512/GTS schon im mai 2007 gebenched http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/ugly/uglyparanoid.gif?!

AnarchX
2008-03-06, 11:20:15
Das ist ein Test vom April und folglich eine G80-GTS. ;)

Hiermal etwas atkuelles mit G94 und G92:
http://techreport.com/articles.x/14168/4 OC-9600GT...

=Floi=
2008-03-06, 11:40:19
hey danke, dann hat sich das ja erledigt und ich muß demnächst wohl doch zu 8800GTS512 greifen

Ailuros
2008-03-06, 11:46:31
Den Perlin noise test in 3dfart haette man auch locker mit <PS3.0 entwickeln koennen von dem was ich damals gehoert hatte.

=/>PS3.0 perlin noise waere eher so was: http://www.imgtec.com/powervr/insider/demos/water_demo.asp

4711
2008-03-06, 12:35:40
Hast du eine 3870 X2? Dann mach doch mal Pic`s, Benchmarks von COD4 mit 10FPS,ich hatte die X2 selbst und hatte nichtmal bei CRYSIS all High,auf 1920 im ICE-Level 10FPS.
Typischer Gast-Spam :rolleyes:

P.S. meld dich an oder hast du (noch) keine Eier ;D


@T Ich bin gespannt auf die GX2 :)

Warum haste denn verkauft?
Ich hab sie gestern auch in Aktion gesehen unter COD4 und bin dann mit einer NV nach Hause..ich glaube es waren noch nicht mal 10 FPS unter COD4 absolut uninteressant.
Ich glaube Du solltest mal in deine Hose schauen.
Und vergiß deine Benschmarkers,beim Gamen kommt Licht ins Dunkle.

Jake Dunn
2008-03-06, 13:13:54
Warum haste denn verkauft?
Ich hab sie gestern auch in Aktion gesehen unter COD4 und bin dann mit einer NV nach Hause..ich glaube es waren noch nicht mal 10 FPS unter COD4 absolut uninteressant.
Ich glaube Du solltest mal in deine Hose schauen.
Und vergiß deine Benschmarkers,beim Gamen kommt Licht ins Dunkle.

Ich hab die Karte abgegeben,da in CRYSIS MGPU einfach sch... läuft (bei NV u. ATI) meine anderen Games schafft auch eine Single Graka.
COD4 machte keine prob. unter Xp bei mir (aber das Game interessiert mich nach dem SP nicht mehr).

laser114
2008-03-06, 13:54:37
9800GTX will hit the market in March 25 (http://en.expreview.com/2008/03/06/9800gtx-will-hit-the-market-in-march-25/)

Gast
2008-03-06, 14:12:00
Der Preis sollte den einer GTS 512 nicht wirklich überragend übertreffen.

Wiederum nur miese 512MB?

X.Perry_Mental
2008-03-06, 14:16:08
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6125&Itemid=1

9800GTX mit 768MB, also 384Bit SI?