Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - 8800 GT - Performance D3D10 in 65nm im Oktober?


Seiten : 1 2 3 [4] 5

Gast
2007-10-19, 08:20:27
Eine Die-Size von 289mm². ;)


Du weißt nicht wie die SPs genau aussehen und was sonst noch am Chip verändert wurde. AiL hat ja schon angedeutet, die ALUs aufgehort wurden. Und ALUs sind teuer. Und wenn man diese jetzt tatsächlich unabhängig von der TMU-Zahl skalieren kann, kostet das auch Transistoren. Möglich ist vieles. Abwarten leutet die Devise.

reunion

Ailuros
2007-10-19, 08:30:38
Eine Die-Size von 289mm². ;)

90nm-->65nm = -50%
484/2 = 242mm^2

So ganz genau haut das nie hin, aber wie dem auch sei setzt eine solche These auch voraus dass fast keine Aenderungen im core vorgenommen wurden. Frag mich jetzt bloss nicht wieviel die size jegliche einnehmen koennte, darueber hab ich keine Ahnung aber bis zur finalen Ankuendigung werden wir mit dem die size auch nicht besonders weisser.


Von Dual sollte man sich doch langsam für Endkunden-HighEnd verabschieden, erst recht nachdem man die Die-Size von 289mm² erfahren hat und eben diese Sache, (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=380832) die NV momentan massiv pusht.


Hmmm touche; triple SLi hab ich total vergessen und nahezu 3 TFLOPs mit dual chip boards zu erreichen waere Schwachsinn was den Stromverbrauch betrifft.


Imo sind die ~800MHz der Takt der High-End-SKU -> 8 Cluster -> ~50 GTex, die mir auch nicht nur einmal untergekommen sind.

Und die "neue" GTS soll eine GT mit hoeherer Frequenz sein? 24*800MHz ergibt fast die doppelte Fuellrate einer heutigen GTS. Ist das nicht irgendwie viel?

seahawk
2007-10-19, 08:34:16
Nicht im Hinblick auf UT07 ?

MadManniMan
2007-10-19, 08:44:32
Nur 16TMUs?

Die brutale Texel-Power des G80 hat ihn doch gerade in AF so stark gemacht - wie soll diese Stärke aufrecht erhalten bleiben?

Ailuros
2007-10-19, 08:45:16
Nicht im Hinblick auf UT07 ?

Hmmm falls es tatsaechlich 24 TMUs sein sollten, macht dann eher eine solche Masche dann Sinn:

GT= 24*600
GTS= 24*700
GTX= 32*800

Ich kann trotzdem schwer verdauen dass NV zuerst einen deaktivierten chip veroeffentlicht und dann spaeter den vollwertigen chip.

Ailuros
2007-10-19, 08:49:38
Nur 16TMUs?

Die brutale Texel-Power des G80 hat ihn doch gerade in AF so stark gemacht - wie soll diese Stärke aufrecht erhalten bleiben?

Die Frage ist nur dann gueltig falls die TMUs auf G92 = G80 sind.

seahawk
2007-10-19, 08:49:44
Gerüchte sagen, dass die A2 Rev. nicht so toll war und die erste Charge schlechte Yields hatte. Die Topmodelle sollen wohl ne andere Rev. werden und kommen daher später. A2 war aber gut genug für die GT.

Wobei eine Reduktion der TMUs (mit Änderungen an diesen) denkbar ist. Ich erwarte nur, dass mehr TMUs in G92 schlummern als 16.

Ailuros
2007-10-19, 08:57:48
Gerüchte sagen, dass die A2 Rev. nicht so toll war und die erste Charge schlechte Yields hatte. Die Topmodelle sollen wohl ne andere Rev. werden und kommen daher später. A2 war aber gut genug für die GT.

Es gab tatsaechlich Geruechte ueber Probleme mit zu hohen Taktraten, aber irgendwas stimmt hier nicht.

Probleme tauchen schon bei A1 auf, A2 ist normalerweise Produktions-silizium afaik.

MadManniMan
2007-10-19, 08:58:57
Die Frage ist nur dann gueltig falls die TMUs auf G92 = G80 sind.

Habe ich was verpaßt und die TMUs vom G80 sind veraltet?

seahawk
2007-10-19, 09:02:07
Es gab tatsaechlich Geruechte ueber Probleme mit zu hohen Taktraten, aber irgendwas stimmt hier nicht.

Probleme tauchen schon bei A1 auf, A2 ist normalerweise Produktions-silizium afaik.

Wie ich es vertanden habe ist A2 gut genung für GT und GTS (wohl mehr GT Chips als GTS Chips) für noch höhere Taktungen soll die Ausbeute schelcht gewesen sein. Ich habe schon mehrmals gehört, dass NV mit 65nm TSMC nicht so glücklich war. Ob das was mit der Vergabe von G92 auch an andere Foundries zu tun hat ?

Gast
2007-10-19, 09:23:33
http://www.computerbase.de/forum/showthread.php?t=334277

und


http://www.hardware-infos.com/news.php?news=1482

16 (8800GT) vs 48 (8800GTS), wie wird sich das wohl auswirken?

Winter[Raven]
2007-10-19, 09:38:44
Wie jetzt G96 oder G92?

Gast
2007-10-19, 09:46:17
http://www.computerbase.de/forum/showthread.php?t=334277

und


http://www.hardware-infos.com/news.php?news=1482

16 (8800GT) vs 48 (8800GTS), wie wird sich das wohl auswirken?

Es sind wenn dann sicher doppel-TMUs, also 48 vs. 32 bei höherem Takt der 8800GT.

reunion

robbitop
2007-10-19, 09:47:42
Ist die Frage, wie das Programm das auslesen will. Ein MT-Füllratentest muss her.
Bei der DIE-Größe klingen 16 TMUs sehr sehr unwahrscheinlich. Warum sollte man da TMUs gekürzt haben? Das kostet sogar noch zusätzlich Ressourcen. Das Ding wird schon seine 56 bi Samples pro Takt haben mit 7 Clustern.

Gast
2007-10-19, 09:50:50
Bei der DIE-Größe klingen 16 TMUs sehr sehr unwahrscheinlich. Warum sollte man da TMUs gekürzt haben? Das kostet sogar noch zusätzlich Ressourcen.

Wer sagt das diese nicht bloß deaktiviert sind und ein voller G92 32 TMUs (64bi Samples), und 192SPs hat? Die 8800GT hat ja auch nur ein 256-bit ST mit 4 ROP-Cluster.

reunion

MadManniMan
2007-10-19, 10:00:04
doppel-TMUs

Was soll das sein?

AnarchX
2007-10-19, 10:13:20
Was soll das sein?

Quad-TMUs(4 Texturadressierer) mit 8 Texturfiltern (bisherige GPUs hatten ein 1:1 Verhätnis), was kostenloses 2x bi-AF bzw. tri-Filterung ermöglicht.

Anarchy-HWLUXX
2007-10-19, 10:13:29
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3700&Itemid=1


Äääääähhhh ... ja wie denn nu :|

robbitop
2007-10-19, 10:20:05
Naja 16 Doppel-TMUs sind immerhin noch 32 bi samples pro Takt. Das ist für ne 200 EUR Karte in der heutigen Zeit genug TMUs. Gerade wo UE3 und CoD4 schon zeigen, dass Aritmetik immer wichtiger wird.

Die gelbe Eule
2007-10-19, 10:26:36
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3700&Itemid=1


Äääääähhhh ... ja wie denn nu :|

NV führt bestimmt wieder alle an der Nase herum ;)

Showtime
2007-10-19, 10:53:48
NV führt bestimmt wieder alle an der Nase herum ;)

Ich denke eher, die Foxconn Mitarbeiter sind genauso verwirrt, wie die Leute hier im Forum, es sind ja schließlich auch nur Menschen ;). Daher Tippfehler.

seahawk
2007-10-19, 11:14:20
Wenn NV nun aber die TMUs aufgebretzelt hätte ,dass sie auch fp-Texturen ohne loop filtern könnten, dann wären es genug, auch für die Zukunft.

Spasstiger
2007-10-19, 11:38:41
Vielleicht sind es ja auch 28 TMUs und 28 TAs, also ein 1:1-Verhältnis wie beim G84. Gegenüber dem R600 reicht das, die 8800 GT muss ja in ihrer Preisklasse nicht unbedingt die AF-Effizienz des G80 erreichen.

robbitop
2007-10-19, 11:42:31
Wenn NV nun aber die TMUs aufgebretzelt hätte ,dass sie auch fp-Texturen ohne loop filtern könnten, dann wären es genug, auch für die Zukunft.
Können die Tri TMUs doch. 16xFP16 bi Samples oder 16xFX8 tri Samples.

Gast
2007-10-19, 11:51:03
Können die Tri TMUs doch. 16xFP16 bi Samples oder 16xFX8 tri Samples.

Scherzkeks. Sie können keine FP-Texturen ohne Loop filtern. Jede TF schafft ein FX8 bi-Sample pro Takt oder eine FP-Textur alle zwei Takte.

reunion

MadManniMan
2007-10-19, 11:51:15
Vielleicht sind es ja auch 28 TMUs und 28 TAs, also ein 1:1-Verhältnis wie beim G84. Gegenüber dem R600 reicht das, die 8800 GT muss ja in ihrer Preisklasse nicht unbedingt die AF-Effizienz des G80 erreichen.

...es sieht doch aber dämlich aus, wenn die 8800 GT zumeist über der GTS 320 liegt und dann bei ... was weiß ich ... STALKER mit 16*AF auf einmal hinterherbrezelt :|

robbitop
2007-10-19, 11:54:09
Scherzkeks. Sie können keine FP-Texturen ohne Loop filtern. Jede TF schafft ein FX8 bi-Sample pro Takt oder eine FP-Textur alle zwei Takte.

reunion
Die G80 TMUs schaffen das was ich beschrieben habe.


So that's 32 pixels per clock (ppc) of INT8 bilinear 2xAF, or 32ppc of FP16 bilinear, or 16ppc of FP16 2xAF, or 16ppc of FP32 bilinear per cycle, out of the combined texture hardware across the chip, giving you a few rates to ponder as we talk about the rest. We'll get back to fetch and filter performance later in the article.

Der G80 hat, wir erinnern uns, 32 Tri TMUs.

3DoMan
2007-10-19, 11:55:56
...es sieht doch aber dämlich aus, wenn die 8800 GT zumeist über der GTS 320 liegt und dann bei ... was weiß ich ... STALKER mit 16*AF auf einmal hinterherbrezelt :|

Na ja, der Unterschied zwischen 8 und 16AF ist eher gering. Mir reichen 8AF kombiniert mit 4fach MSA.
Sollte die 8800 GT mit diesen Settings schneller sein als meine jetzige 8800GTS, vollziehe ich auf jeden Fall den Wechsel, da mir der 2D Stromverbrauch meiner 8800GTS gehörig gegen den Strich geht. Die 65nm 8800GT müsste unter 3D und erst recht unter 2D deutlich weniger Saft ziehen. Bedenkt man, das mein Rechner zu 80% unter 2D läuft, wird sich der Umstieg lohnen.

Gast
2007-10-19, 11:58:44
Die G80 TMUs schaffen das was ich beschrieben habe.

Seahawk schrieb das sie FP-Texturen ohne Loop filtern können sollen, und das können sie entgegen deinen Antwort "Können die Tri TMUs doch" - nicht. Klar, wenn man jetzt Haarspalten will, könnte man durch die eingesparten Addresierungseinheiten auch immer zwei TFUs zu einer TMU zusammenfassen, dann können sie genau das, was du beschrieben hast. Nur ändern das nichts daran, dass die effektive Füllrate mit FP-texturen halbiert wird, da faktisch immer mindestens tri gefiltert wird.

reunion

seahawk
2007-10-19, 12:02:39
Ich meinte eben auch 16 FP32 bi bei 16TMUs

MadManniMan
2007-10-19, 12:04:04
Na ja, der Unterschied zwischen 8 und 16AF ist eher gering. Mir reichen 8AF kombiniert mit 4fach MSAA.

1) Du verstehst sicher, daß es in der Diskussion um das große Ganze, nicht um Dich oder mich geht ;)

2) Der optische Unterschied zwischen 8* und 16* ist vielleicht nicht überdeutlich, wohl aber sichtbar. Dementsprechend wird auch der Performancevorteil von 8* gegenüber 16* sichtbar, aber nicht deutlich sein.
Will heißen, ist die
- GT generell schneller, als die 320 GTS
- die 320 GTS unter hohen AF-Settings plötzlich flinker, als die GT,
so trifft das auf 8* wie 16* AF zu.

robbitop
2007-10-19, 12:04:23
Ich habe gesagt, dass die Tri-TMUs das können. Keine falsche Aussage. QED.
Dass das die TFU Fillrate senkt, brauchst du mir nicht zu sagen. ;)
Worauf ich hinauswill: Füllrate ist genug da. Aritmetik wird immer wichtiger.

J0ph33
2007-10-19, 12:05:37
ich schätze die 8800GT wird sich ggü. der 8800GTS(alt) ähnlich verhalten wie die X1950PRO ggü. der X1800XT...mitunter langsamer, mitunter auch deutlich schneller...jedoch gibt es ja nicht umsonst eine neue 8800GTS, die dann wohl wieder überall in Front sein wird...

Coda
2007-10-19, 12:06:31
Wenn NV nun aber die TMUs aufgebretzelt hätte ,dass sie auch fp-Texturen ohne loop filtern könnten, dann wären es genug, auch für die Zukunft.
Ich hab schonmal erklärt, dass FP-Texturen nicht wichtig sind und es auch nicht werden in der D3D10-Generation.

AnarchX
2007-10-19, 12:07:19
Worauf ich hinauswill: Füllrate ist genug da. Aritmetik wird immer wichtiger.

Dem enstsprechend ist das Ratio bei der GT auch 1:2.5 und somit höher als auf 88GTS/GTX und den G84-SKUs.
Und bei G92GTX würde ich gar noch mehr erwarten, vielleicht 1:3 (800:2400MHz).

Gast
2007-10-19, 12:10:56
Worauf ich hinauswill: Füllrate ist genug da. Aritmetik wird immer wichtiger.

Richtig, und damit zeigt sich ein weiteres Mal, dass die AMD-Karten in Zukunft aufholen werden.

reunion

robbitop
2007-10-19, 12:15:49
Das zeigt die UE3 und CoD4 aktuell ja. Allerdings hat R600 nicht mehr Shaderleistung als die G80 (effektiv).

AnarchX
2007-10-19, 12:16:19
Richtig, und damit zeigt sich ein weiteres Mal, dass die AMD-Karten in Zukunft aufholen werden.


Da zeigt aber BioShock D3D9 -> D3D10 etwas anderes.
Sicher wird es diese Tendenz geben, aber nicht so stark wie es in den R6xx-SKUs ausgeprägt ist (bis ~40 FLOPs pro Texel vs ~14 bei der 8800GTX).

deekey777
2007-10-19, 12:19:27
Naja 16 Doppel-TMUs sind immerhin noch 32 bi samples pro Takt. Das ist für ne 200 EUR Karte in der heutigen Zeit genug TMUs. Gerade wo UE3 und CoD4 schon zeigen, dass Aritmetik immer wichtiger wird.
Und wenn man zB mit achtfacher oder gar sechzehnfacher anisotroper Filterung spielt?

robbitop
2007-10-19, 12:22:20
Und wenn man zB mit achtfacher oder gar sechzehnfacher anisotroper Filterung spielt?
wenn man 32 bi Samples pro Takt bei nem 256 bi SI hat, ist das schon immerhin das Doppelte einer R600. Für 200 EUR absolut ok.

AnarchX
2007-10-19, 12:25:20
wenn man 32 bi Samples pro Takt bei nem 256 bi SI hat, ist das schon immerhin das Doppelte einer R600. Für 200 EUR absolut ok.
In der Theorie, imo arbeiten doch R6xx-TMUs dank riesigem Cache doch etwas effizienter.

Aber wie schon gesagt, warum sollte man soviel brach liegen lassen, bei einem 289mm² Die? ;)
Höhere SKUs haben dann immernoch eine Exitenzberechtigung durch ein breiteres SI und mehr Takt (die 600/1500MHz der 88GT werden ja schon bei 1.05V erreicht!) und eben dem 8. Cluster.

Und vielleicht geht es ja NV um wirkliche "Performance-Leistung" wie man sie gewohnt ist, auch in HW-Gräbern wie Crysis...

LovesuckZ
2007-10-19, 12:27:08
Nur ändern das nichts daran, dass die effektive Füllrate mit FP-texturen halbiert wird, da faktisch immer mindestens tri gefiltert wird.
reunion

Wir hatten diese Diskussion schonmal. Fakt ist, dass es bei nVidia unter Verwendung von FP-Texturen bei bilinearer Filterung keine Halbierung der Texturleistung stattfindet. Und ob dazu Loops verwendet werden oder nicht, spiel am Ende überhaupt keine Rolle.

robbitop
2007-10-19, 12:28:39
In der Theorie, imo arbeiten doch R6xx-TMUs dank riesigem Cache doch etwas effizienter.

Nein.

Gast
2007-10-19, 12:31:25
Da zeigt aber BioShock D3D9 -> D3D10 etwas anderes.

Leicht erklärbar: Der D3D9-Pfad ist ein Xbox-Port. Und da Xenos auch ein relativ hohes ALU/TEX-Verhältnis hat, ist das natürlich relativ rechenleistungsintensiv. Der D3D10-Pfad entstand unter Mithilfe von Nvidia (es gab AFAIK sogar einen exklusiv-Download auf der nV-Homepage), die natürlich die Stärken ihrer Architektur ggü. der Konkurrenz zur Geltung bringen wollten.


Sicher wird es diese Tendenz geben, aber nicht so stark wie es in den R6xx-SKUs ausgeprägt ist (bis ~40 FLOPs pro Texel vs ~14 bei der 8800GTX).

Sieh dir die UT3-Demo an, bei keiner Karte limitiert dort wesentlich die Texelfüllrate, sie Reihen sich genau so ein, wie man es aufgrund der arithmetischen Leistung vermuten würde. Und in Zukunft wird sich diese Tendenz sicher nicht abschwächen. Natürlich sieht es mit 16xAF und ful-tri (noch) anders aus, aber wohin die Reise geht, sollte klar sein.

reunion

reunion

Gast
2007-10-19, 12:31:27
Eine Die-Size von 289mm². ;)
Und die Transistoren-Anzahl.


Q

AnarchX
2007-10-19, 12:32:42
Nein.
Wie nein?
Ich meinte nicht damit, dass 16-R6xx-TMUs > 16 NV-Doppel-TMUs, sondern an sich die erbrachte Leistung, sodass hier eben kein deutlicher Faktor 2 mehr dazwischen steht.


Sieh dir die UT3-Demo an, bei keiner Karte limitiert dort wesentlich die Texelfüllrate, sie Reihen sich genau so ein, wie man es aufgrund der arithmetischen Leistung vermuten würde. Und in Zukunft wird sich diese Tendenz sicher nicht abschwächen. Natürlich sieht es mit 16xAF und ful-tri (noch) anders aus, aber wohin die Reise geht, sollte klar sein.

Epic sprach in Interviews von einer höheren Last auf der Texturfüllrate, die ich in der Full mit allen Effekten erwarte.

Gast
2007-10-19, 12:35:56
Aber wie schon gesagt, warum sollte man soviel brach liegen lassen, bei einem 289mm² Die?

Weil man auch die teureren GPUs mit voll aktiviertem Chip verkaufen will.

reunion

Coda
2007-10-19, 12:36:21
Wie nein?
Er hat schon recht. Wenn du keine dependant texture-fetches machst ist der Cache eigentlich egal, weil sehr gut vorhersehbar ist wo die nächsten Texel herkommen. Daher bringt G8x seine Texelleistung schon sehr gut auf die Straße.

Cache ist für GPUs im Allgmeinen nicht so sehr wichtig.

Winter[Raven]
2007-10-19, 12:39:31
Leicht erklärbar: Der D3D9-Pfad ist ein Xbox-Port. Und da Xenos auch ein relativ hohes ALU/TEX-Verhältnis hat, ist das natürlich relativ rechenleistungsintensiv. Der D3D10-Pfad entstand unter Mithilfe von Nvidia (es gab AFAIK sogar einen exklusiv-Download auf der nV-Homepage), die natürlich die Stärken ihrer Architektur ggü. der Konkurrenz zur Geltung bringen wollten.

Ohh... bitte unterlasse sowas... Kann man es Nvidia verübeln ihre DEV und Hardware Homeworks zu erledigen? Wer sowas wie die R2xxx Reihe abliefert, braucht sich auch nicht zu wundern wenn die AAA Spiele nunmal mit dem Devsupport von Nvidia gemacht werden.

Bei dir ist aber sowieso alles was Nvidia tut == Böse....

Gast
2007-10-19, 12:43:17
Epic sprach in Interviews von einer höheren Last auf der Texturfüllrate, die ich in der Full mit allen Effekten erwarte.

Wir werden sehen. Da müsste sich ja schon einiges ändern, wenn man sich die Demo ansieht.

;5947513']Ohh... bitte unterlasse sowas... Kann man es Nvidia verübeln ihre DEV und Hardware Homeworks zu erledigen? Wer sowas wie die R2xxx Reihe abliefert, braucht sich auch nicht zu wundern wenn die AAA Spiele nunmal mit dem Devsupport von Nvidia gemacht werden.

Bei dir ist aber sowieso alles was Nvidia tut == Böse....

Bitte was? Habe ich irgendetwas daran kritisiert? Das war eine rein sachlicher Beitrag, wenn du damit nicht klar kommst, dann ignoriere mich.

reunion

Gast
2007-10-19, 12:48:27
Wir hatten diese Diskussion schonmal. Fakt ist, dass es bei nVidia unter Verwendung von FP-Texturen bei bilinearer Filterung keine Halbierung der Texturleistung stattfindet. Und ob dazu Loops verwendet werden oder nicht, spiel am Ende überhaupt keine Rolle.

Ich habe auch nie gegenteiliges behauptet.

reunion

Gast
2007-10-19, 12:55:07
Der G80 hat, wir erinnern uns, 32 Tri TMUs.
Nicht 32 TAUs und 64 BiLERPs?

Gast
2007-10-19, 12:57:34
Ich hab schonmal erklärt, dass FP-Texturen nicht wichtig sind und es auch nicht werden in der D3D10-Generation.
Auch nicht, wenn noch mehr Leute auf die Idee kommen, HDR-Ping-Pong zu spielen, wie Crytek mit dem Far-Cry-Patch?

Gast
2007-10-19, 12:59:12
Richtig, und damit zeigt sich ein weiteres Mal, dass die AMD-Karten in Zukunft aufholen werden.

reunion
Meinst du denn, da wird ausschließlich schön unabhängiger vektorcode verwendet?

Gast
2007-10-19, 13:00:39
In der Theorie, imo arbeiten doch R6xx-TMUs dank riesigem Cache doch etwas effizienter.

Wie groß ist der Cache des G80 noch gleich? (Tipp: CUDA-Docs)

LovesuckZ
2007-10-19, 13:01:21
Ich habe auch nie gegenteiliges behauptet.
reunion

Dann solltest du dir deine Postings besser nochmal ansehen:

Klar, wenn man jetzt Haarspalten will, könnte man durch die eingesparten Addresierungseinheiten auch immer zwei TFUs zu einer TMU zusammenfassen, dann können sie genau das, was du beschrieben hast. Nur ändern das nichts daran, dass die effektive Füllrate mit FP-texturen halbiert wird, da faktisch immer mindestens tri gefiltert wird.

reunion

Bei AMD halbiert sich die "effektive Füllrate" unter Einbezug von trilinearer Filterung schon bei "normalen" Texturen. Aus dieser Sicht könnte die Karte auch keine FP16 Texturen ohne Loop mit "mindestens tri" filtern.

Gast
2007-10-19, 13:02:28
. Natürlich sieht es mit 16xAF und ful-tri (noch) anders aus, aber wohin die Reise geht, sollte klar sein.

reunion
Ja, aber mit sicherheit nicht zum LowQ-Gaming (also MIT 16xAF und full-Tri).

AnarchX
2007-10-19, 13:03:00
http://img98.imageshack.us/img98/7073/88gtinut3mu4.jpg
http://img205.imageshack.us/img205/1809/692205oy5.jpg
http://publish.it168.com/2007/1019/20071019008603.shtml

... wobei wohl etwas cpu-limitiert.

Gast
2007-10-19, 13:06:54
Leicht erklärbar: Der D3D9-Pfad ist ein Xbox-Port. Und da Xenos auch ein relativ hohes ALU/TEX-Verhältnis hat, ist das natürlich relativ rechenleistungsintensiv. Der D3D10-Pfad entstand unter Mithilfe von Nvidia (es gab AFAIK sogar einen exklusiv-Download auf der nV-Homepage), die natürlich die Stärken ihrer Architektur ggü. der Konkurrenz zur Geltung bringen wollten.

Und wieso denkst du, dass sich das in Zukunft ändern wird?

Winter[Raven]
2007-10-19, 13:07:34
Bitte was? Habe ich irgendetwas daran kritisiert? Das war eine rein sachlicher Beitrag, wenn du damit nicht klar kommst, dann ignoriere mich.


Was soll an deinem Beitrag sachlich sein? Du wirfst Nvidia vor, ATI mit ihrem Engagement bei der Entwicklung des Spiels ausgebremst zu haben... auf Basis welchen Wissens weißt du das?

Nur weil ein Spiel dem WIMTBP - Programm gehört, heißt es nicht, "lass uns ATI ausbremsen" ... Schließlich wollen die Devs an dem Spiel Geld vedienen und das tut man sicherlich nicht, wenn man sich auf einen Hersteller konzentriert... aber Nvidia hat bestimmt was springen lassen als Schadensersatz, gelle?

seahawk
2007-10-19, 13:11:15
Hm, GTX Niveau ? Mit 16 TMUs / ROPs ?

Gast
2007-10-19, 13:13:05
Nun müsst man nochmal das selbe mit AA sehen. Haste da evtl. was @AnarchX?
Aber sonst schon klasse leistung.

Drunky
2007-10-19, 13:17:27
Foxconn und Lavalys enthüllen Daten der GeForce 8800 GT
http://www.heise.de/newsticker/meldung/97638

AnarchX
2007-10-19, 13:18:22
Nun müsst man nochmal das selbe mit AA sehen. Haste da evtl. was @AnarchX?
Aber sonst schon klasse leistung.

Nein, scheint es nur diesen einen Bench zu geben und bei IT168.com lässt sich auch nichts finden. Naja, Auflösung ist ziemlich niedrig und eben wohl kein AF noch AA, sodass hier es in der Demo primär auf Shaderpower ankommt, wo die GT sich eben mit ihren 500 wohl leicht bessere GFLOPs als bei G8x entsprechend einordnet.

Gast
2007-10-19, 13:22:55
Dann solltest du dir deine Postings besser nochmal ansehen:



Bei AMD halbiert sich die "effektive Füllrate" unter Einbezug von trilinearer Filterung schon bei "normalen" Texturen. Aus dieser Sicht könnte die Karte auch keine FP16 Texturen ohne Loop mit "mindestens tri" filtern.

Wie schon gesagt, ich habe nie was anderes behauptet. Das ist reine Haarspalterei. R600 verliert durch FP16 keine Leistung, G80 schon wenn mind. tri gefiltert wird. Dafür sind die R600-TMUs keine "doppel-TMUs", können also nur 1bi Sample pro Takt pro TMU. Deshalb gibt es kein gratis tri/2x bi AF.

reunion

Gast
2007-10-19, 13:23:56
http://img156.imageshack.us/img156/7217/ut3tf7.jpg
... wobei wohl etwas cpu-limitiert.

Was willst du jetzt damit bezwecken?

reunion

dildo4u
2007-10-19, 13:27:38
Naja immerhin kann man erkennen das sich die 8800GT deutlich von der GTS absetzt.Und mal was anders als 3DMurks ;)

Gast
2007-10-19, 13:30:16
Was willst du jetzt damit bezwecken?

reunion
Es zeigt, wo man die 8800GT in den für diese Range angedachten Einstellungsbereich einordnen kann. Dass der Test nicht sonderlich viel Aussagekraft hat, ist klar. Aber es sind kleine Hinweise.

Gast
2007-10-19, 13:30:43
;5947623']Was soll an deinem Beitrag sachlich sein? Du wirfst Nvidia vor, ATI mit ihrem Engagement bei der Entwicklung des Spiels ausgebremst zu haben... auf Basis welchen Wissens weißt du das?

Nur weil ein Spiel dem WIMTBP - Programm gehört, heißt es nicht, "lass uns ATI ausbremsen" ... Schließlich wollen die Devs an dem Spiel Geld vedienen und das tut man sicherlich nicht, wenn man sich auf einen Hersteller konzentriert... aber Nvidia hat bestimmt was springen lassen als Schadensersatz, gelle?

Ich werfe überhaupt niemanden irgendetwas vor. Der einzige, der hier irgendwelche Gedankenkonstrukte aufstellt, bist du. Offensichtlich hast du ziemliche Probleme dabei Texte richtig zu interpretieren. Gehe bitte in Zukunft nicht mehr auf meine Beträge ein.

reunion

Gast
2007-10-19, 13:31:16
Es zeigt, wo man die 8800GT in den für diese Range angedachten Einstellungsbereich einordnen kann. Dass der Test nicht sonderlich viel Aussagekraft hat, ist klar. Aber es sind kleine Hinweise.

Oh, tausend mal sorry. Ich habe die 8800GT nicht bemerkt. :)

reunion

AnarchX
2007-10-19, 13:38:42
Naja immerhin kann man erkennen das sich die 8800GT deutlich von der GTS absetzt.Und mal was anders als 3DMurks ;)
Deutlich ist zwar etwas anderes, aber schon eine entsprechende Tendenz.

Oh, tausend mal sorry. Ich habe die 8800GT nicht bemerkt. :)

Hab es mal angepasst, sodass man es leichter erkennt.:D

Gast
2007-10-19, 13:42:38
Deutlich ist zwar etwas anderes, aber schon eine entsprechende Tendenz.
Immerhin über 10%. Und das bei quasi CPU-Limit. Find ich gar nicht mal so übel ;)

Gast
2007-10-19, 13:44:03
Deutlich ist zwar etwas anderes, aber schon eine entsprechende Tendenz.

Sagt leider auch nichts über die TMU-Anzahl aus. Gerade bei der Demo geht es hauptsächlich um die Rechenleistung, und da spielt die GT mit den 112SPs bei 1.5Ghz natürlich vorne mit.

reunion

Spasstiger
2007-10-19, 13:45:02
Interessieren würden mich mal Benches in Oblivion mit HDRR, 4xMSAA und 16:1 AF und in Stalker mit 16:1 AF. Beides bei mindestens 1680x1050.

horn 12
2007-10-19, 13:45:58
die GT wird der GTX nur OHNE AA/AF wirklich gefährlich werden, so wie die HD 2900XT in etwa. Unter AA/AF wird die Karte etwa auf GTS Level liegen, denn wie dumm wäre NV wenn die Karte eine Konkurrenz zur GTX wäre unter Anwendung von AA/AF.
Nvidia muss ja ZUERST die G80 Chips beiseite bringen,-/ ausverkaufen (Was ATI ja schon begonnen hat mit der 2900XT und Pro)
und dies vergessen hier wohl die Allermeisten!
Denke bis Jänner/ Februar wird uns die GTX/ Ultra sicherlich bleiben und der Ausverkauf wird nun bald (Anfang Novmeber) beginnen, für jene welche hohe Leistung MIT AA und AF haben wollen.
Alle anderen greifen zur GT und haben etwa die GTX Leistung aber OHNE AA/AF.

AnarchX
2007-10-19, 13:46:52
Doch noch die Quelle gefunden und noch einen weiteren Vergleich:
http://img205.imageshack.us/img205/1809/692205oy5.jpg
http://publish.it168.com/2007/1019/20071019008603.shtml
... aber leider auch keine höheren Settings.

Hvoralek
2007-10-19, 13:46:55
http://img98.imageshack.us/img98/7073/88gtinut3mu4.jpg
... wobei wohl etwas cpu-limitiert.Wenn die GT mit 16 TMUs und 14xVec8 schneller ist als eine GTX, müsste diese Stelle schon extrem arithmetiklastig sein. Warum schneidet aber dann die 2900XT so schlecht ab und die 2600XT so gut? Die Taktraten der GTS640 sind auch etwas seltsam und deren Leistung irgendwie zu niedrig im Verhältnis zur hier niedriger getakteten GTS 320.

Dieses Diagramm wirkt auf mich etwas dubios. Wäre schön, wenn es stimmt, aber ich wäre da erst einmal vorsichtig.

Naja, 10 Tage noch, dann wissen wir es sicher.

Spasstiger
2007-10-19, 13:48:25
Bei der GTX wird es keinen großartigen Ausverkauf geben. Die Karten werden allmählich auslaufen, aber nicht weiter im Preis sinken.

Gast
2007-10-19, 13:50:08
Und wieso denkst du, dass sich das in Zukunft ändern wird?

Weil Rechenleistung immer wichtiger wird. Diese Tendenz zeigt sich schon seit Jahren und lässt sich auch objektiv nachweisen. Auch nV erhöht bei G92 ja nicht ohne Grund das ALU/TEX-Verhältnis.

reunion

Gast
2007-10-19, 13:57:40
Es hat doch kein Mensch gesagt, dass die GT die GTX angreifen soll. Ist doch schon so recht erfreulich, dass sie sich wohl irgendwie ordentlich dazwischen einordnet - auch mit Qualitäts-Einstellungen.

Der Launch ist aber durch 2 Sachen interessant: erstens finale Angaben zur GT und endlich handfeste Infos zur 3800er-Serie :D

robbitop
2007-10-19, 14:09:25
Nicht 32 TAUs und 64 BiLERPs?
Ja, Carsten das auch. Ist eine Frage der Betrachtungsweise.

deekey777
2007-10-19, 14:39:08
Weil Rechenleistung immer wichtiger wird. Diese Tendenz zeigt sich schon seit Jahren und lässt sich auch objektiv nachweisen. Auch nV erhöht bei G92 ja nicht ohne Grund das ALU/TEX-Verhältnis.

reunion
Ich wiederhole mich nochmal:
Und wenn man zB mit achtfacher oder gar sechzehnfacher anisotroper Filterung spielt?

Gast
2007-10-19, 14:42:14
Ja, Carsten das auch. Ist eine Frage der Betrachtungsweise.
IMO nicht. Eine Tri-TMU ist "nativ" trilinear, d.h. sie erfährt (bis auf Caching-Vorteile usw.) keine Beschleunigung durch eine minderwertigere Filterung.

Gast
2007-10-19, 14:56:46
Weil Rechenleistung immer wichtiger wird. Diese Tendenz zeigt sich schon seit Jahren und lässt sich auch objektiv nachweisen. Auch nV erhöht bei G92 ja nicht ohne Grund das ALU/TEX-Verhältnis.

reunion
Das gilt ja schon für die genannten Spiele vs. ältere Titel und damit unterstreichst du ja dein Argument. Beim Übergang auf den DX10-Modus nimmst du aber das hier als Ausrede her:
"die natürlich die Stärken ihrer Architektur ggü. der Konkurrenz zur Geltung bringen wollten."
Und das meine ich: Wieso sollte sich das in Zukunft ändern?

Ich sehe es eher so: Sobald die PS3-Titel und -Portierungen mehr ins Rollen kommen, wird der Vorteil den die Radeons aktuell durch die vielen Xbox-360-Ports haben, schrumpfen.

Dass GITG auf einmal TWIMTBP wegfegen wird, halte ich für eher unwahrscheinlich.

seahawk
2007-10-19, 14:59:10
Ich wiederhole mich nochmal:

Dann kauft man keine Performance-Karte, wenn man mit so hohe Qualitätseinstellungne spielen möchte.

Gast
2007-10-19, 15:00:16
Ja, Carsten das auch. Ist eine Frage der Betrachtungsweise.
Übrigens: Ich weiß, dass ich hier eine fest IP-Adresse habe und anhand derer leicht zu identifizieren bin. Ich würde mich allerdings darüber freuen, wenn du deine Mod-Rechte nicht dazu mißbrauchen würdest, Roger Schütt.

Gast
2007-10-19, 15:01:45
Ich wiederhole mich nochmal:

Ich habe deinen Beitrag schon gelesen. Ändert aber nichts daran, dass die ALU-Ops deutlich stärker zunehmen. AF gibt es schon lange.

reunion

deekey777
2007-10-19, 15:09:13
Ich habe deinen Beitrag schon gelesen. Ändert aber nichts daran, dass die ALU-Ops deutlich stärker zunehmen. AF gibt es schon lange.

reunion
Das Eine hat mit dem Anderen nichts zu tun. Denn das theoretische Verhältnis von ALU-Ops zu TEX-Ops eines PS-Codes verliert seine Gültigkeit unter praktischen Bedingungen, wenn der Spieler das Spiel spielt. Bioshock hat 4xAF auf High oder so, D3-Spiele haben 8xAF, wenn man auf High spielt. Und anisotrope Filterung verlangt je nach Wunschgrad mehrere Takte.
Wobei ich mir nicht sicher bin, wieweit dies für Spiele gilt, die Deferred-Shading nutzen.

F5.Nuh
2007-10-19, 15:10:35
Werden die 512Mb nicht limitieren, es gibt schon einige spiele den 512 MB nicht mehr reichen.

Sollte man sich jetzt wirklich keine GTS oder GTX holen? was sind denn die vorteile der 8800gt ausser der preis?

Leider geht vieles unter in diesem Thread. Würde mich über eine Antwort sehr freuen.

Coda
2007-10-19, 15:11:04
Deferred-Shading hat mit der Texturfilter-Performance nichts am Hut.

AnarchX
2007-10-19, 15:14:00
Werden die 512Mb nicht limitieren, es gibt schon einige spiele den 512 MB nicht mehr reichen.
Eigentlich nicht, wenn man es nicht mit xS-AA und anderen Einstellungen übertreibt.

Aber wenn du willst kannst du sicherlich bei einigen Herstellern auch 1GB-Versionen kaufen. ;)


Sollte man sich jetzt wirklich keine GTS oder GTX holen? was sind denn die vorteile der 8800gt ausser der preis?

Niedrigerer Verbrauch und Video-Prozessor für HD-Beschleunigung.

Gast
2007-10-19, 15:16:40
Das gilt ja schon für die genannten Spiele vs. ältere Titel und damit unterstreichst du ja dein Argument. Beim Übergang auf den DX10-Modus nimmst du aber das hier als Ausrede her:
"die natürlich die Stärken ihrer Architektur ggü. der Konkurrenz zur Geltung bringen wollten."
Und das meine ich: Wieso sollte sich das in Zukunft ändern?

Ich sehe es eher so: Sobald die PS3-Titel und -Portierungen mehr ins Rollen kommen, wird der Vorteil den die Radeons aktuell durch die vielen Xbox-360-Ports haben, schrumpfen.

Dass GITG auf einmal TWIMTBP wegfegen wird, halte ich für eher unwahrscheinlich.

Damit magst du durchaus recht haben. Dennoch wird auch die PS3 diese Entwicklung höchstens verzögern, aber nicht aufhalten können. Rechenleistung kann einfach wesentlich flexibler eingesetzt werden, als FF-Einheiten. Und damit wird auch weiterhin die ALU-Leistung stärker zulegen.

reunion

Gast
2007-10-19, 15:18:34
Damit magst du durchaus recht haben. Dennoch wird auch die PS3 diese Entwicklung höchstens verzögern, aber nicht aufhalten können. Rechenleistung kann einfach wesentlich flexibler eingesetzt werden, als FF-Einheiten. Und damit wird auch weiterhin die ALU-Leistung stärker zulegen.

reunion
Bestreitet doch keiner - nur wenn Ati die Entwickler-Education weiter so verpennt, haben sie selbst schuld, wenn sie so schlecht dastehen.

Gast
2007-10-19, 15:20:11
Das Eine hat mit dem Anderen nichts zu tun. Denn das theoretische Verhältnis von ALU-Ops zu TEX-Ops eines PS-Codes verliert seine Gültigkeit unter praktischen Bedingungen, wenn der Spieler das Spiel spielt. Bioshock hat 4xAF auf High oder so, D3-Spiele haben 8xAF, wenn man auf High spielt. Und anisotrope Filterung verlangt je nach Wunschgrad mehrere Takte.
Wobei ich mir nicht sicher bin, wieweit dies für Spiele gilt, die Deferred-Shading nutzen.

Das ist schon klar - 16x tri AF kostet im schlimmsten Fall 32 Takte für eine bi TMU. Deshalb haben wir ja auch nach wie vor Chips mit einem ALU/TEX-Verhältnis von vielleicht 3:1 bis 4:1 und nicht >20:1, wie es bei vielen aktuellen Spielen schon der Fall ist.

reunion

Gast
2007-10-19, 15:21:36
Bestreitet doch keiner - nur wenn Ati die Entwickler-Education weiter so verpennt, haben sie selbst schuld, wenn sie so schlecht dastehen.

Ich bestreite das auch nicht.

reunion

Coda
2007-10-19, 15:22:39
Damit magst du durchaus recht haben. Dennoch wird auch die PS3 diese Entwicklung höchstens verzögern, aber nicht aufhalten können. Rechenleistung kann einfach wesentlich flexibler eingesetzt werden, als FF-Einheiten. Und damit wird auch weiterhin die ALU-Leistung stärker zulegen.
Gute Materialien brauchen auch weiterhin viele hochaufgelöste Texturlagen. Und es werden immer mehr. ALU-Leistung bringt auch nichts wenn die Ausgangsdaten nicht da sind.

ATI hat es da mit R6xx eindeutig übertrieben und das seh nicht nur ich so.

Und das "flexible Nutzung" ist in dem Zusammenhang auch sehr komisch. Texturen sind Texturen und Berechnungen sind Berechnungen. Das eine ersetzt das andere nicht.

Gast
2007-10-19, 15:26:32
Gute Materialien brauchen auch weiterhin viele hochaufgelöste Texturlagen. Und es werden immer mehr. ALU-Leistung bringt auch nichts wenn die Ausgangsdaten nicht da sind.

ATI hat es da mit R6xx eindeutig übertrieben und das seh nicht nur ich so.


Auch das bestreite ich nicht.

reunion

Ri*g*g*er
2007-10-19, 15:33:27
Mhm,

die 512 MB Ram finde ich auch nicht gerade viel.

Wenn mal Battlefield 2 spielt (was ja schon etwas älter ist) dann hat man in einer Auflösung von 1920 x 1200 und 2 AA auf einiges Maps volle 512 MB verbraten.
Also reicht das dort schon nicht mehr aus.

Ich hätte mir ja schon lange ne GTX bestellt aber wie ich mein Glück kenne steht dann morgen der Nachfolger davon mit 1 Gig und 25-30 % schneller im Regal *G*

Deshalb warte ich jetzt den Launch noch ab und schau mal was die sich noch einfallen lassen vor allem auch ATI.

512 MB Ram auf der Grafikkarte hab ich nun fast 2 Jahre eigentlich hab ich beim Wechsel immer verdoppelt:

16 -> 32 -> 64 -> 128 -> 256 -> 512 -> 1 Gig ?

Angeblich soll Unreal Tournament 3 in der Vollversion Grafikspeicher nicht nur zum Frühstück verspeisen.

Tja warten wir´s ab.

Gruss
Ri*g*g*er

LovesuckZ
2007-10-19, 15:34:30
Wie schon gesagt, ich habe nie was anderes behauptet. Das ist reine Haarspalterei. R600 verliert durch FP16 keine Leistung, G80 schon wenn mind. tri gefiltert wird. Dafür sind die R600-TMUs keine "doppel-TMUs", können also nur 1bi Sample pro Takt pro TMU. Deshalb gibt es kein gratis tri/2x bi AF.


Der G80 hat auch keine "Doppel TMUs", er kann nur nicht genauso viele Texturen adressieren, wie gefiltert werden.
Er verliert ebenso wie der r600 keine Leistung beim Einsatz von FP Texturen.

seahawk
2007-10-19, 15:43:36
Ne 8800GT wendet sich sicher nicht an Leute, die 1920 x 1200 und AA + AF zocen wollen, schon vom PReis her nicht. Bis 1280x1024 wird sie aber mit bis zu 4XAA+8xAF sicher ausreichende Leistungen auf dem Niveau zwischen der heutigen 8800GTS und GTX bringen. Für 220-240 Euro ist das völlig ok.

Wer mehr will oder braucht muss halt auf die stärkeren Varianten von G92 warten.

Gast
2007-10-19, 15:45:16
Der G80 hat auch keine "Doppel TMUs", er kann nur nicht genauso viele Texturen adressieren, wie gefiltert werden.


Wenn du so willst. "Doppelt-TMU" ist ja nur eine Bezeichnung für genau den von dir beschriebenen Umstand.


Er verliert ebenso wie der r600 keine Leistung beim Einsatz von FP Texturen.

Falsch.

reunion

LovesuckZ
2007-10-19, 15:57:59
Falsch.
reunion

Beweise das mal.

Coda
2007-10-19, 16:15:12
Er hat schon recht. Mit FP16-Texturen hat G80 nur noch den halben Durchsatz an Samples.

LovesuckZ
2007-10-19, 16:16:48
Er hat schon recht. Mit FP16-Texturen hat G80 nur noch den halben Durchsatz an Samples.

Nur bei trilinearer Filterung - wie auch der r600.

Coda
2007-10-19, 16:19:54
Es gibt auf jeden Fall einen Unterschied, ich will ihn mir jetzt aber nicht schon wieder überlegen. R6xx erhält seine Samplerate bei bilinearen FP16-Samples, G8x nicht, soweit ich weiß.

Die ganze Diskussion geht mir aber sowieso auf die Nerven, weil es total irrelevant ist. FP16-Texturen sind nicht maßgeblich für die Leistung von Spielen relevant. Auch nicht in absehbarer Zukunft.

reunion
2007-10-19, 16:34:32
Beweise das mal.

Warum sollte ich zehnmal das gleiche schreiben? Ich habe dir schonmal gesagt, ich muss nicht das letzte Wort haben. Für R600 ist er völlig irrelevant, ob FX8 oder FP16 gefiltert wird, er hat immer dieselbe Füllrate bi, tri, oder anisotrop. G80 schafft dann nurnoch halb soviele tri oder anisotrop Samples (bi bleibt gleich, aber auch nur wegen den fehlenden TAUs). Akzeptiere dies, oder lass es bleiben.

Gast
2007-10-19, 16:41:02
*gähn*
http://www.beyond3d.com/images/reviews/r600-arch/bench-filter-4x4-bilinear.png

reunion
2007-10-19, 16:43:10
*gähn*
http://www.beyond3d.com/images/reviews/r600-arch/bench-filter-4x4-bilinear.png

Kannst du lesen?

G80 schafft dann nurnoch halb soviele tri oder anisotrop Samples (bi bleibt gleich, aber auch nur wegen den fehlenden TAUs).

Gast
2007-10-19, 16:45:23
Kannst du lesen?
Bist du egozentrisch? Wer sagt, dass sich das auf dich bezieht?

Es sollte lediglich diese leidige Diskussion abkürzen.

reunion
2007-10-19, 16:47:43
Bist du egozentrisch? Wer sagt, dass sich das auf dich bezieht?

Es sollte lediglich diese leidige Diskussion abkürzen.

Das wirst du aber damit IMHO sicher nicht erreichen.

Gast
2007-10-19, 16:55:07
Das wirst du aber damit IMHO sicher nicht erreichen.
Ich glaube, Lovesuckz kann das Diagramm schon lesen und auch richtig interpretieren. Dort zeigt sich ja, dass es dem R600 weitgehend egal ist, was er filtert. Bei tri halbieren sich all diese Werte - beim G80 halbieren sich nicht alle Werte.

horn 12
2007-10-19, 18:03:32
@seahawk

Du hast vollkommen Recht.
Die GT wird als Ausgleich kommen und als Ersatz der GTS 320/640 gefahren, da dort die 2900XT immer besser zum Zuge kommt. Somit will man der 2900XT/ PRO hier den Hahn zudrehen, und dem RV670 Paroli bieten.
Fakt ist auch dass die 2900XT immer besser in Schuss kommt,- vor allem auch mit AKTIVEM AA/ 16AF.
Da wird die GT nun die Position einnehmen und die neue GTS in etwa die Performance der GTX mit AA/AF.

Gast
2007-10-19, 19:02:18
Jo, das Ding kommt immer besser in Schwung. Irgendwann 2011 wird sie die 88GTS voll versägen, bestimmt.

F5.Nuh
2007-10-19, 19:36:36
@seahawk

Du hast vollkommen Recht.
Die GT wird als Ausgleich kommen und als Ersatz der GTS 320/640 gefahren, da dort die 2900XT immer besser zum Zuge kommt. Somit will man der 2900XT/ PRO hier den Hahn zudrehen, und dem RV670 Paroli bieten.
Fakt ist auch dass die 2900XT immer besser in Schuss kommt,- vor allem auch mit AKTIVEM AA/ 16AF.
Da wird die GT nun die Position einnehmen und die neue GTS in etwa die Performance der GTX mit AA/AF.

Tut mir leid wenn ich wieder dumm frage, aber wo wird hier was von einer neuen gts in stärke des jetzigen gtx besprochen? wann soll sie ca. kommen, wie teuer? wieviel MB? und wirklich schneller als die jetzige gtx? will dieses jahr noch aufrsüten, daher die ganzen fragen.

Gast
2007-10-19, 20:11:10
@seahawk

Du hast vollkommen Recht.
Die GT wird als Ausgleich kommen und als Ersatz der GTS 320/640 gefahren, da dort die 2900XT immer besser zum Zuge kommt. Somit will man der 2900XT/ PRO hier den Hahn zudrehen, und dem RV670 Paroli bieten.
Fakt ist auch dass die 2900XT immer besser in Schuss kommt,- vor allem auch mit AKTIVEM AA/ 16AF.
Da wird die GT nun die Position einnehmen und die neue GTS in etwa die Performance der GTX mit AA/AF.

Zeigmal Bitte nen paar tests. Oder stamm des aus deim Märchenbuch?

Gast
2007-10-19, 20:39:07
wo kommt denn die ati 2900xt in fahrt? sehe ich nix von.nicht träumen bitte:)

ChristianTHB
2007-10-19, 23:09:00
wo kommt denn die ati 2900xt in fahrt? sehe ich nix von.nicht träumen bitte:)
Optimismus an falscher Stelle :biggrin:
Aber wer weiß...vielleicht kommt er ja noch - der ATi Überdrüber-Treiber ;):biggrin:

Gast
2007-10-19, 23:10:36
Der kommt bestimmt im gleichen Monat wie der nVidia G80 Stromspar-Treiber :D

Ailuros
2007-10-20, 05:38:31
Der kommt bestimmt im gleichen Monat wie der nVidia G80 Stromspar-Treiber :D

Der G80 "Stromspar-Treiber" scheint aber ausgezeichnet zu sein im Vergleich zum R600 "Stromverschwendungs-Treiber", ueberhaupt wenn man ein Stromverbrauch/Leistungs-Verhaeltnis zur Hand nimmt.

Ailuros
2007-10-20, 05:41:05
Zeigmal Bitte nen paar tests. Oder stamm des aus deim Märchenbuch?

Es gab mehr als nur gesunde Leistungssteigerungen und ja auch mit AA in den neuesten Catalyst-Treibern. Schneller als eine GTS wurde das Ding zwar nie, aber bei dem Preis der 2900XT ist es auch kein besonderes Problem.

mirp
2007-10-20, 06:50:41
Tut mir leid wenn ich wieder dumm frage, aber wo wird hier was von einer neuen gts in stärke des jetzigen gtx besprochen? wann soll sie ca. kommen, wie teuer? wieviel MB? und wirklich schneller als die jetzige gtx? will dieses jahr noch aufrsüten, daher die ganzen fragen.

Viel bekannt ist noch nicht.

Die G92er 8800 GTS soll am 19. November vorgestellt werden, 128 SP besitzen und CNY2299 (~305 USD) kosten.

G92-8800GTS am 19.Nov für $305? (http://news.expreview.com/2007-10-16/1192531381d4181.html)

8900GTS und GTX würden irgendwie mehr Sinn machen, wenn sie zu diesen Datum kommen...

Slipknot79
2007-10-20, 11:33:19
Bei der GTX wird es keinen großartigen Ausverkauf geben. Die Karten werden allmählich auslaufen, aber nicht weiter im Preis sinken.


Bezweifle ich, sonst wird das nix mit Tri-SLI.

laser114
2007-10-20, 12:23:17
Der G80 "Stromspar-Treiber" scheint aber ausgezeichnet zu sein im Vergleich zum R600 "Stromverschwendungs-Treiber", ueberhaupt wenn man ein Stromverbrauch/Leistungs-Verhaeltnis zur Hand nimmt.

Aber nicht im Idle-Modus. Da reguliert AMD eindeutig stärker runter.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/2

Und in dem Punkt könnte nvidia theoretisch ansetzen.

mapel110
2007-10-20, 14:17:15
Kann man ja selbst mittels Rivatuner auch, zumindest den Takt absenken im 2D, was schon einiges bringt. Sehe ich auch hier selbst bei meiner 7800 GT PreOC XFX (Gottseidank lebt sie noch), die ich neuerdings komplett passiv kühle.

F5.Nuh
2007-10-20, 14:26:02
Viel bekannt ist noch nicht.

Die G92er 8800 GTS soll am 19. November vorgestellt werden, 128 SP besitzen und CNY2299 (~305 USD) kosten.

Danke erstmal für die antwort, wird man sie dan bestellen können hier in deutschland? und wird sie auch "nur" 512 MB haben? habe mein system nun fast komplett, fehlt nur noch die graka (z.Z. übergang eine 7900gs)

Ailuros
2007-10-20, 15:09:50
Aber nicht im Idle-Modus. Da reguliert AMD eindeutig stärker runter.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/2

Und in dem Punkt könnte nvidia theoretisch ansetzen.

8800GTX vs. 2900XT

233 vs. 229W ergibt einen Unterschied von 1,7% in 2D; wobei:

59C vs. 71C (+17%)

47,5 vs. 48,5db (mit einem merkwuerdigen peak von bruellenden 58db)

An Deiner Stelle wuerde ich ein so laecherliches Prozentual erstmal gar nicht erwaehnen, noch mehr unter dem Licht der anderen Resultate und dem Stromverbrauch/Leistungsverhaeltnis....

Moment die 2900XT ist ja sowieso 8800GTS Konkurrenz, ergo danke fuer den Link :P

laser114
2007-10-20, 18:00:54
8800GTX vs. 2900XT

233 vs. 229W ergibt einen Unterschied von 1,7% in 2D

Naja, die prozentuale Rechnung ist ja beim Gesamtverbrauch des Systems nicht sehr sinnvoll.
Außerdem wollte ich zeigen, dass die 2900 XT stärker heruntergeregelt wird als die 8800er-Karten. Und das ist bei einer Absenkung um 122 Watt gegenüber 81 Watt bei der 8800 Ultra wohl der Fall.

Moment die 2900XT ist ja sowieso 8800GTS Konkurrenz, ergo danke fuer den Link :P

Daran ändert das natürlich wenig, klar.

Mumins
2007-10-20, 18:22:06
Aber nicht im Idle-Modus. Da reguliert AMD eindeutig stärker runter.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_sapphire_radeon_hd_2600_xt_x2/2

Und in dem Punkt könnte nvidia theoretisch ansetzen.

Ich kann meine Karte auf 0,8V und 300/300 runtertakten, also könnte ATI auch ansetzen, also ist das Argument Humbug.

laser114
2007-10-20, 18:36:45
Ich kann meine Karte auf 0,8V und 300/300 runtertakten, also könnte ATI auch ansetzen, also ist das Argument Humbug.

Tja, und wieso wird es nicht offiziell gemacht?
Reicht im Idle-Modus ja schließlich aus.

mirp
2007-10-20, 20:38:24
Danke erstmal für die antwort, wird man sie dan bestellen können hier in deutschland? und wird sie auch "nur" 512 MB haben? habe mein system nun fast komplett, fehlt nur noch die graka (z.Z. übergang eine 7900gs)Die Meldung stammt von einer chinesischen Seite, deshalb ist der Preis so ungewöhnlich angegeben. In Deutschland wird es die sicher auch geben, falls die Karte so erscheint. Zur Speichermenge und Breite des Speicherbuses gibt es noch keine Angaben.

Gast
2007-10-20, 22:06:44
Viel bekannt ist noch nicht.

Die G92er 8800 GTS soll am 19. November vorgestellt werden, 128 SP besitzen und CNY2299 (~305 USD) kosten.

WUT? Dann wäre sie auf GTX Niveau, wenn die 8800GT mit 96SP und 600MHz schon an die "alte" 8800GTS640 Anschluß findet. G84 TMUs und ein paar Feintunings=Lecker.

Gast
2007-10-20, 22:12:37
Ich habe eine dumme Frage:

Kann ich die 8800 GT auch in einem älteren Mainboard ohne PCIe 2 Slot betreiben?

laser114
2007-10-20, 22:16:52
Ja, sollte gehen.

Mumins
2007-10-20, 22:34:33
Tja, und wieso wird es nicht offiziell gemacht?
Reicht im Idle-Modus ja schließlich aus.

Das frag ich mich auch.

Ailuros
2007-10-21, 12:24:42
Tja, und wieso wird es nicht offiziell gemacht?
Reicht im Idle-Modus ja schließlich aus.

Weil sich keiner besonders darum schert und das Treiberteam sich nicht unbedingt momentan damit beschaeftigen muss, da es keine mobilen GPUs auf G80 basierend momentan gibt; zumindest in diesem Markt waere eine solche Anpassung eine absolute Notwendigkeit.

Ich hab nach der G80 Veroeffentlichung oefters gemeckert dass es die hybriden modi nicht gibt; nachdem sie endlich kamen und ich meine Meinung bei B3D ausdrueckte dass ich die Dinger zwar haben wollte ihre Nutzbarkeit trotz allem begrenzt ist, waren ein paar Kerle dann gleich wieder beleidigt.

Beide IHVs - und ja ohne Aussnahmen - sollten endlich schnallen dass wenn man eine fette Summe fuer eine GPU ausgiebt, dass man dann auch dementsprechend hohe Ansprueche hat.

Je nach Perspektive sind entweder wir als Verbraucher zu pingelig oder ein paar Kerle in den Treiberteams einfach zu faul. Pick your poison ;)

mapel110
2007-10-21, 12:30:52
Die 2D-Taktraten und Spannungen sind doch im Grakabios veranckert, oder hat sich da was geändert?

nvidia müsste also für jede XY-Karte angepasste 2D-Taktraten und Spannungen hinterlegen. Dafür wäre ich auch zu faul.

reunion
2007-10-21, 12:34:31
Das lässt sich problemlos über Software anpassen. Also zumindest die Taktraten. Bei der Spannung hat nV wohl irgendwo gespart, denn diese kann man AFAIK gar nicht verändern ohne Mod.

nvidia müsste also für jede XY-Karte angepasste 2D-Taktraten und Spannungen hinterlegen. Dafür wäre ich auch zu faul.

Tolles Argument. Zum Glück ist AMD dafür (noch?) nicht zu faul.

mapel110
2007-10-21, 12:41:26
Tolles Argument.
tja, derzeit liest der Treiber wohl einfach das Grakabios aus und verwendet diese Taktraten.

Jetzt hinterlege du mal eine Datenbank im Treiber, so dass das Bios quasi überflüssig wird.
Man hat ja nur 8400, 8500, 8600, 8800 und OC und DDR3 und DDR2-Modelle, 256 und 512MB etc pp. Viel Spaß beim Tippen. Da könnte ich mir auch sinnvollere Tätigkeiten vorstellen.

Tolles Argument. Zum Glück ist AMD dafür (noch?) nicht zu faul.
Es geht darum, es im Treiber hinterlegen zu müssen. Bios anpassen bei jeder XY-Herstellerkarte und dieses auslesen ist nunmal deutlich praktikabler. Und ATI macht das bestimmt nicht anders.

Ailuros
2007-10-21, 12:42:04
Das lässt sich problemlos über Software anpassen. Also zumindest die Taktraten. Bei der Spannung hat nV wohl irgendwo gespart, denn diese kann man AFAIK gar nicht verändern ohne Mod.

Insgesamt ist der Unterschied nicht allzu gross. Ich hab durch RT auf 300MHz heruntergetaktet und den Luefter auf 1950rpm gedreht; der Gewinn ist irgendwo 2-3C. Was den Stromverbrauch betrifft keine Ahnung ich kann das Zeug nicht nachmessen.

Tolles Argument. Zum Glück ist AMD dafür (noch?) nicht zu faul.

Dafuer sind sie fuer andere Bereiche gleich so faul oder sogar noch fauler. Wieviel Zeit glaubst Du wuerden sie brauchen einen hybriden MS/SSAA modus und pures SSAA in die Treiber einzubauen?

reunion
2007-10-21, 12:49:59
tja, derzeit liest der Treiber wohl einfach das Grakabios aus und verwendet diese Taktraten.

Jetzt hinterlege du mal eine Datenbank im Treiber, so dass das Bios quasi überflüssig wird.
Man hat ja nur 8400, 8500, 8600, 8800 und OC und DDR3 und DDR2-Modelle, 256 und 512MB etc pp. Viel Spaß beim Tippen. Da könnte ich mir auch sinnvollere Tätigkeiten vorstellen.


Du musst ja nicht bei jedem Chip oder gar bei jedem der unzähligen Versionen eines Chips andere Taktraten anlegen. AMD taktet AFAIK alle (zumindest mir bekannten) R6XX-Modelle mit 2D-Modus auf 500/500 und 1V Spannung. Und das bringt schon einiges, genau justieren kann es sich dann noch immer der User selbst, wenn er will.

Es geht darum, es im Treiber hinterlegen zu müssen. Bios anpassen bei jeder XY-Herstellerkarte und dieses auslesen ist nunmal deutlich praktikabler. Und ATI macht das bestimmt nicht anders.

Warum passt man dann das Bios nicht einfach bei jeder Karte einmalig an?

Insgesamt ist der Unterschied nicht allzu gross. Ich hab durch RT auf 300MHz heruntergetaktet und den Luefter auf 1950rpm gedreht; der Gewinn ist irgendwo 2-3C. Was den Stromverbrauch betrifft keine Ahnung ich kann das Zeug nicht nachmessen.


Naja, ein bisschen was bringt das schon. Besser wäre natürlich eine Spannungsanpassung.


Dafuer sind sie fuer andere Bereiche gleich so faul oder sogar noch fauler. Wieviel Zeit glaubst Du wuerden sie brauchen einen hybriden MS/SSAA modus und pures SSAA in die Treiber einzubauen?

Diese Hybrid-Modi sind doch auch bei nV nur noch ein Überbleibsel aus der Zeit, als man keine MSAA-Modus >4x hatte.

Gast
2007-10-21, 13:10:23
Da die AIBs sowieso ihre BIOSse an die jeweiligen OC-Versionen selbst anpassen, können die ja auch die Anpassungen für die gesenkten 2D-Takte selbst übernehmen.

Ich sehe absolut keinen Grund, warum das an Nvidia hängen sollte - das BIOS ist nicht so eine komplexe und hochgeheime Sache wie der Treiber.

Gast
2007-10-21, 13:12:11
Diese Hybrid-Modi sind doch auch bei nV nur noch ein Überbleibsel aus der Zeit, als man keine MSAA-Modus >4x hatte.
Das ist doch kein Gegenargument. Genausogut könnte ich sagen, dass das runtertakten in 2D noch ein Überbleibsel aus der Zeit ist, als es noch keine vernünftigen Stromspartechniken auf Einheiten-Ebene gab (und ein Eingeständnis, dass man ein grobes Lecktstromproblem hat).

reunion
2007-10-21, 13:14:56
Das ist doch kein Gegenargument. Genausogut könnte ich sagen, dass das runtertakten in 2D noch ein Überbleibsel aus der Zeit ist, als es noch keine vernünftigen Stromspartechniken auf Einheiten-Ebene gab (und ein Eingeständnis, dass man ein grobes Lecktstromproblem hat).

Natürlich, das sollte auch kein Gegenargument sein, sondern nur eine Anmerkung, dass es heute IMHO sinnvollere Möglichkeiten gibt Leistungsreserven zu verpulvern als mittels SSAA. Aber ich weiß schon, dass viele in SSAA noch immer sowas wie einen heiligen Gral sehen. Und prinzipiell sind optimale Features natürlich immer zu begrüßen.

Gast
2007-10-21, 13:19:44
Natürlich, das sollte auch kein Gegenargument sein, sondern nur eine Anmerkung, dass es heute IMHO sinnvollere Möglichkeiten gibt Leistungsreserven zu verpulvern als mittels SSAA. Aber prinzipiell sind optimale Features natürlich immer zu begrüßen.
Eben - für Crysis dürfte sich SSAA zwar erübrigen, aber was soll ich in älteren Spielen mit Fps jenseits der 100er-Marke? Da ist alles, was BQ bringt, sinnvoll, egal ob es effizientere Methoden gäbe.

Merke: Nichts ist größere Verschwendung, als bezahlte Leistungsfähigkeit nicht nutzen zu können.

seahawk
2007-10-21, 14:21:34
Trotzdem hat ein neidriger Verbrauch im Idle einen effektiven Vorteil für jeden Kunden, während die Hybridenmodi nut für eine absolute Minderheit relevant ist.

dargo
2007-10-21, 14:29:31
Natürlich, das sollte auch kein Gegenargument sein, sondern nur eine Anmerkung, dass es heute IMHO sinnvollere Möglichkeiten gibt Leistungsreserven zu verpulvern als mittels SSAA. Aber ich weiß schon, dass viele in SSAA noch immer sowas wie einen heiligen Gral sehen. Und prinzipiell sind optimale Features natürlich immer zu begrüßen.
Du wirst lachen. Genau dieser "Überbleibsel" ist unter anderem der Grund warum meine nächste Karte ebenfalls von NV sein wird. Da muss AMD/ATI schon deutlich mehr bieten als irgendwo einen Leistungszuwachs von ~10% gegenüber gleichwertiger NV Karte um mich umzustimmen. ;)

James Ryan
2007-10-21, 15:10:03
nvidia müsste also für jede XY-Karte angepasste 2D-Taktraten und Spannungen hinterlegen. Dafür wäre ich auch zu faul.

Komisch dass NVIDIA im Desktopbereich von der Geforce FX bis zur Gf 7900 GTX genau dafür nicht zu faul war bzw. angefangen hat, bei Consumer-Grafikkarten einen 2D-Modus anzubieten.
Bei der G8x-Reihe muss irgendwas in die Richtung kaputt sein bzw. nicht so funktionieren wie es sollte.
Ich bin mir ziemlich sicher dass die G9x Karten wieder ganz normal einen 2D- und 3D-Modus haben werden.

MfG :cool:

Raff
2007-10-21, 15:14:42
Du wirst lachen. Genau dieser "Überbleibsel" ist unter anderem der Grund warum meine nächste Karte ebenfalls von NV sein wird. Da muss AMD/ATI schon deutlich mehr bieten als irgendwo einen Leistungszuwachs von ~10% gegenüber gleichwertiger NV Karte um mich umzustimmen. ;)

Full Ack. CFAA ist dank Informationsvernichtung kein Ersatz für SSAA, auch wenn es ähnlich mies läuft. ;) Die Hybridmodi sowie flimmerfreies AF (R600 spart immer, R5x0 nicht) sind schlagkräftige Argumente, die mich just zu einer GTX und keiner 2900 Pro greifen ließen.

MfG,
Raff

mapel110
2007-10-21, 15:15:29
Komisch dass NVIDIA im Desktopbereich von der Geforce FX bis zur Gf 7900 GTX genau dafür nicht zu faul war
Sie haben das damals doch auch schon nicht im Treiber hinterlegt, sondern jeder Hersteller hatte das im Bios festgelegt. Schon damals gabs ja tausende Varianten der Chips.

James Ryan
2007-10-21, 15:30:19
Sie haben das damals doch auch schon nicht im Treiber hinterlegt, sondern jeder Hersteller hatte das im Bios festgelegt. Schon damals gabs ja tausende Varianten der Chips.

NVIDIA hat das immer im Bios festgelegt. :|
Der Treiber hatte damit nichts zu tun.
Verstehe ehrlich gesagt das Problem nicht, NVIDIA muss eh für jede Karte ein Bios programmieren, den 2D-Takt einzustellen ist eine Sache von Sekunden.
Es liegt nicht an Faulheit von NVIDIA, eher am G80, da ist was kaputt.

MfG :cool:

=Floi=
2007-10-21, 15:41:27
es gibt aber ausnahmen, wo zwar ein sparmodus aktiv wird, aber es werden _nicht_ die taktraten gesenkt! z.B. bei der 7950GT und imho gab es noch das ein oder andere modell
ich brauche keinen sparmodus sondern einen 50% breiteren G80 mit 192 sp @ 65nm @ 850mhz

James Ryan
2007-10-21, 15:43:37
es gibt aber ausnahmen, wo zwar ein sparmodus aktiv wird, aber es werden _nicht_ die taktraten gesenkt! z.B. bei der 7950GT und imho gab es noch das ein oder andere modell

Die Gf 6800 GT fällt mir da noch ein.
Dort wurde aber auch im Bios hinterlegt, dass bei 350 MHz die Spannung gesenkt wird.

MfG :cool:

Gast
2007-10-21, 20:01:13
Bei der G8x-Reihe muss irgendwas in die Richtung kaputt sein bzw. nicht so funktionieren wie es sollte.
Vermutlich waren Sie mit dem Takt zu niedrig und da haben WQXGA-Bildschirme die Grätsche gemacht. Ein bissel probieren und Takt über 300 MHz lassen helfen aber.

RoNsOn Xs
2007-10-21, 20:13:16
Die Gf 6800 GT fällt mir da noch ein.
Dort wurde aber auch im Bios hinterlegt, dass bei 350 MHz die Spannung gesenkt wird.

MfG :cool:

das war doch nur bei einer 6800le so. bei der gt gabs das net mehr afaik

mapel110
2007-10-21, 20:14:55
das war doch nur bei einer 6800le so. bei der gt gabs das net mehr afaik
Doch, die GT senkte die Spannung auf 1.1 Volt, wenn mich mein Gedächtnis nicht täuscht. Standard waren glaube 1.3 Volt.

Godmode
2007-10-21, 20:28:27
Könntet ihr bitte wieder zum Thema zurückkehren 8800GT? Hier laufen schon wieder einige Diskussionen, die völlig OT sind.

edit: hoffentlich gibts morgen wieder Neuigkeiten, dann könnt ihr ja wieder freudig Spekulieren!

RoNsOn Xs
2007-10-21, 20:31:29
Doch, die GT senkte die Spannung auf 1.1 Volt, wenn mich mein Gedächtnis nicht täuscht. Standard waren glaube 1.3 Volt.

aber die gt müsste doch schon einen standardtakt von 350mhz auch im 2d-betrieb haben :confused:

AnarchX
2007-10-21, 21:48:05
http://img139.imageshack.us/img139/2135/msigeforce8800gta167919fb1.jpg

Der Name ist wohl nun doch langsam gesichert.

Godmode
2007-10-21, 21:51:18
Sehr verwirrend! Ich bin äußerst gespannt auf das neue Namensschema. Momentan kann ich mir nicht wirklich vorstellen warum diese Karte unter der 8000 Serie läuft? Wird eventuell die gesamte G9x Linie in die 8000 Serie eingegliedert?

LovesuckZ
2007-10-21, 21:53:34
Sehr verwirrend! Ich bin äußerst gespannt auf das neue Namensschema. Momentan kann ich mir nicht wirklich vorstellen warum diese Karte unter der 8000 Serie läuft? Wird eventuell die gesamte G9x Linie in die 8000 Serie eingegliedert?

Das Problem wird wohl sein, dass ein neues Namensschema auch eine neue High-End Karte benötige.

reunion
2007-10-21, 21:57:34
Das Problem wird wohl sein, dass ein neues Namensschema auch eine neue High-End Karte benötige.

Das wusste man aber auch schon vorher. Bleibt die Frage wo ist die neue High-End-Karte? G92 ist es nicht, wenn man diese Logik weiter verfolgt, denn sonst hätte man diese neue High-End-Karte ja.

laser114
2007-10-21, 22:04:47
Hmm:
http://www.techpowerup.com/downloads/811/TechPowerUp_GPU-Z_v0.0.9.html

Added info for GeForce 8800 GT

Mann, kann doch nicht sein dass die NDAs immer noch so gut halten, wenn die schon so im Umlauf ist... :|

alpha-centauri
2007-10-21, 22:22:31
Ab wann gibts karten in DE?

Spasstiger
2007-10-21, 22:32:43
Mann, kann doch nicht sein dass die NDAs immer noch so gut halten, wenn die schon so im Umlauf ist... :|
GPU-Z zeigt nicht die TMU-Anzahl an und die 112 SPs gelten ja schon als gesichert. Somit kann GPU-Z auch nicht mehr Aufschluss liefern als das was eh schon bekannt ist.

HOT
2007-10-21, 22:47:33
Angesichts der Tatsache, dass die 8800GT wohl nur 16 TMUs und 16 ROPs hat, ist die Einordnung trotz der höheren Shaderleistung schon korrekt.
Everest zeigt auch nur gleiche Texelfüllrate wie Pixelfüllrate an: http://www.hardware-infos.com/img/startseite/g92_16TMUs.png.
Ich denke, dass der G92 in Wirklichkeit 32 TMUs hat, diese aber für die neue GTS aufgehoben werden.

AnarchX
2007-10-21, 22:52:35
Everest zeigt auch nur gleiche Texelfüllrate wie Pixelfüllrate an: http://www.hardware-infos.com/img/startseite/g92_16TMUs.png.

Weil die Everest-Macher keine Ahnung haben von GraKas und immernoch an ROP=TMUs bzw. Renderpipelines denken und das wurde schon längst im Thread geklärt. ;)

Hvoralek
2007-10-21, 23:02:29
Habe ich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5946673#post5946673) einen Scherz nicht verstanden? Ich ging jetzt tatsächlich von 7 Arithmetik- und 4 Texturblöcken aus :confused:

Wobei es wirklich sinnvoll wäre, die relative Arithmetikleistung gegenüber G80 zu erhöhen. Wenn man das beim GT- G92 getan hat, wird das aber auch für gröeren gelten: Dann würde ich eher mit z.B. 10*2Vec8- Einheiten und 6 Texturblöcken für die größeren Modelle rechnen.

Hm. 10*2*8*3 * 2000MHz = 960 GFLOPS...

AnarchX
2007-10-21, 23:13:55
Habe ich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5946673#post5946673) einen Scherz nicht verstanden? Ich ging jetzt tatsächlich von 7 Arithmetik- und 4 Texturblöcken aus :confused:.
Er spekuliert doch hier auch nur, imo.

Und ehrlich gesagt bezweifele ich, dass das G8/9x Design es erlaubt, dass man in einem Cluster einfach die TMUs deaktivieren kann und dieser dann noch funktionert, nicht umsonst hat man ja diesen Clusteraufbau bzw. spricht von einem solchen. (Bei R6xx sind ja auch die SPs inaktiv, wenn man deren zugehörige TU deaktiviert laut Baumann).


Wobei es wirklich sinnvoll wäre, die relative Arithmetikleistung gegenüber G80 zu erhöhen. Wenn man das beim GT- G92 getan hat, wird das aber auch für gröeren gelten: Dann würde ich eher mit z.B. 10*2Vec8- Einheiten und 6 Texturblöcken für die größeren Modelle rechnen.
10/6 = ? :|

Ich sagte ja auch von Anfang an, dass man gegen RV670 eine entsprechende arithmetische Leistung benötigt. Und die scheint man nun mit einem 1:2.5-Verhältnis und eben 112SPs zu erreichen, die hohe Tex-Power ist halt ein Nebeneffekt, aber warum sollte man hier noch massig RnD hineinstecken um hier den Chip weiter zu kastrieren bzw. wenn man schon einen 290mm² Die hat, von diesem nicht möglichst viel aktiv zu nutzen.

Naja, in 7 Tagen oder weniger werden wir ja mehr wissen...

Nightspider
2007-10-21, 23:20:33
Nochmal ne allgemeine Frage, kann es sein das die 8800 GT aka G92 fast so schnell wird wie meine 8800 GTX ?

Lohnt es sich da seine 8800 GTX zu verscherbeln um kurzzeitig auf ne GT für wenig Geld umzusteigen und im Januar-März dann ne 9800 GTX oder ähnliches zu kaufen ?

deekey777
2007-10-21, 23:24:21
...
Und ehrlich gesagt bezweifele ich, dass das G8/9x Design es erlaubt, dass man in einem Cluster einfach die TMUs deaktivieren kann und dieser dann noch funktionert, nicht umsonst hat man ja diesen Clusteraufbau bzw. spricht von einem solchen. (Bei R6xx sind ja auch die SPs inaktiv, wenn man deren zugehörige TU deaktiviert laut Baumann).
...
Das ist nicht einfach deren "zugehörige" TU, schließlich arbeiten alle 80 SPs im Cluster an einem einzigen Thread und nicht an vier Threads je 20 SPs.
Ich konnte das Posting nicht finden, aber es wurde vor mindestens 6 Monaten mutmaßt, dass ein möglicher Schritt wäre, die TMUs und ROPs zu einem Cluster zusammenzuführen.

J0ph33
2007-10-21, 23:24:25
Nochmal ne allgemeine Frage, kann es sein das die 8800 GT aka G92 fast so schnell wird wie meine 8800 GTX ?

Lohnt es sich da seine 8800 GTX zu verscherbeln um kurzzeitig auf ne GT für wenig Geld umzusteigen und im Januar-März dann ne 9800 GTX oder ähnliches zu kaufen ?

ich glaubs nicht, die 8800GTX wird sicher nicht von einer 8800GT geschlagen, außer da wo shaderleistung radikal limitiert vielleicht...

Majestic
2007-10-21, 23:35:09
ich glaubs nicht, die 8800GTX wird sicher nicht von einer 8800GT geschlagen, außer da wo shaderleistung radikal limitiert vielleicht...

Warum nicht? Zu Zeiten des G7x wurde die 7800GTX durch die 7900GT leistungsmäßig eingeholt und die 7950GT war noch ne Ecke schneller.

laser114
2007-10-21, 23:38:27
Warum nicht? Zu Zeiten des G7x wurde die 7800GTX durch die 7900GT leistungsmäßig eingeholt und die 7950GT war noch ne Ecke schneller.

Die Karte heißt aber nicht 8900 GT sondern 8800 GT, und nvidia wird dafür wohl einen Grund haben...

Majestic
2007-10-21, 23:41:59
Die Karte heißt aber nicht 8900 GT sondern 8800 GT, und nvidia wird dafür wohl einen Grund haben...

Wie sie letztendlich heißt ist doch egal. Scheinbar nehmen die GT und neue GTS ja die Rolle eines Refreshes ein. Oder warum sollte man die Anzahl der Einheiten sonst nach oben hin korrigieren?

AnarchX
2007-10-21, 23:44:20
Die Karte heißt aber nicht 8900 GT sondern 8800 GT, und nvidia wird dafür wohl einen Grund haben...

Man will in der Steam-Survey ganz nach oben mit der "NVIDIA GeForce 8800"... ;D

centurio81
2007-10-21, 23:57:33
Nochmal ne allgemeine Frage, kann es sein das die 8800 GT aka G92 fast so schnell wird wie meine 8800 GTX ?

Lohnt es sich da seine 8800 GTX zu verscherbeln um kurzzeitig auf ne GT für wenig Geld umzusteigen und im Januar-März dann ne 9800 GTX oder ähnliches zu kaufen ?

Ne, das würde ich mal kaum annehmen..
Ne GTX wird immernoch das Maß aller Dinge sein..

dildo4u
2007-10-21, 23:58:52
Abwarten die 8800GT sollte sich wesentlich besser OC lassen als eine A2 GTX.

mapel110
2007-10-22, 00:04:07
Abwarten die 8800GT sollte sich wesentlich besser OC lassen als eine A2 GTX.
scheint so zu sein, aber dann bleibt immernoch die Frage, wie frei werden die Boardhersteller bei der Wahl der Taktfrequenzen sein?!

HOT
2007-10-22, 06:52:46
Weil die Everest-Macher keine Ahnung haben von GraKas und immernoch an ROP=TMUs bzw. Renderpipelines denken und das wurde schon längst im Thread geklärt. ;)
Da irrst du dich denke ich. Beim G80 stehen die Werte auch korrekt da. Dass man beim G92 plötzlich gleiche Texel- wie Pixelfüllrate angibt, muss einen Grund haben.

Spasstiger
2007-10-22, 07:44:59
Da irrst du dich denke ich. Beim G80 stehen die Werte auch korrekt da.
Weil da die korrekten Werte bekannt sind und in der Datenbank hinterlegt wurden.

Ne, das würde ich mal kaum annehmen..
Ne GTX wird immernoch das Maß aller Dinge sein..
Die Ultra nicht vergessen. Die kann immerhin mit dem schnellsten Speicher aller GeForce-8-Karten auftrumpfen.

AnarchX
2007-10-22, 08:11:56
Da irrst du dich denke ich. Beim G80 stehen die Werte auch korrekt da.

Nein, auch hier rechnet er die Tex-Fill anhand der ROP-Anzahl aus.
Ist es so schwer einfach mal Google zu bemühen, bevor man irgend welchen BS behauptet? :rolleyes:

Die gelbe Eule
2007-10-22, 09:22:42
8800GT Benchmarks (http://forums.vr-zone.com/showthread.php?t=197188)

http://img139.imageshack.us/img139/2135/msigeforce8800gta167919fb1.jpg

Vertigo
2007-10-22, 09:27:32
8800GT Benchmarks (http://forums.vr-zone.com/showthread.php?t=197188)

http://img139.imageshack.us/img139/2135/msigeforce8800gta167919fb1.jpg
Welches Spiel ist S.C.C.T.? Warum ist die 8800GT dort so viel besser?

seahawk
2007-10-22, 09:28:14
Orndet sich wie erwartet ein. Wobei ich genre Benches in niedrigeren Auflösungen sehen würde.

Die gelbe Eule
2007-10-22, 09:29:22
Welches Spiel ist S.C.C.T.? Warum ist die 8800GT dort so viel besser?

Splinter Cell Conflict Theory

[dzp]Viper
2007-10-22, 09:29:39
Welches Spiel ist S.C.C.T.? Warum ist die 8800GT dort so viel besser?

SCCT müsste Splinter Cell: Chaos Theory sein

Vertigo
2007-10-22, 09:33:13
Achso, Splinter Cell. :biggrin::redface:

Aber warum ist die GT gerade dort soviel besser im Vergleich zu den anderen Benchmarks? Hier ist sie ja klar schneller als eine GTX, was sonst nicht so ist. Bug? Balken im Diagramm vertauscht? :uponder:

Gast
2007-10-22, 09:40:01
Achso, Splinter Cell. :biggrin::redface:

Aber warum ist die GT gerade dort soviel besser im Vergleich zu den anderen Benchmarks? Hier ist sie ja klar schneller als eine GTX, was sonst nicht so ist. Bug? Balken im Diagramm vertauscht? :uponder:

Der Abstand zwischen GTX und Ultra ist viel zu groß, da stimmt definitiv was nicht. Aber AFAIK sind die Benchs schon alt und deren Echtheit ist zumindest anzuzweifeln.

reunion

AnarchX
2007-10-22, 09:40:53
Die Benches sind doch schon Asbach (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5912218&postcount=1). Ich vermute, dass hier wohl verschiedene Testsysteme im Einsatz waren oder soetwas.

btw.
Eine kleine Spielerei (http://img148.imageshack.us/slideshow/player.php?id=img148/4462/11930396830ah.smil) mit Imageshack. :D

Henroldus
2007-10-22, 10:28:17
btw.
Eine kleine Spielerei (http://img148.imageshack.us/slideshow/player.php?id=img148/4462/11930396830ah.smil) mit Imageshack. :D
na wenn das mal nicht von Apples iPhoto-Diashow kopiert ist :D

AnarchX
2007-10-22, 11:17:12
%NVIDIA_G92.DEV_0611.1% = nv4_NV3x, PCI\VEN_10DE&DEV_061

NVIDIA_G92.DEV_0611.1 = "NVIDIA GeForce 8800 GT"
http://www.tcmagazine.com/comments.php?shownews=16506&catid=3

Gast
2007-10-22, 11:57:24
Geforce 8800GT doesn’t support DX 10.1: http://www.fudzilla.com/index.php?option=com_content&task=view&id=3741&Itemid=1

Gast
2007-10-22, 12:00:27
Offensichtlich verwendet nV nicht nur im High-End die gleichen Name wie zuletzt.

Geforce 8400GS / D8M pictured:

http://www.fudzilla.com/images/stories/2007/October/d8mpic.jpg

http://www.fudzilla.com/index.php?option=com_content&task=view&id=3743&Itemid=1

reunion

Gast
2007-10-22, 13:00:22
Warum? Warum machen sie das? Ich versteh es einfach nicht :usad:

Gast
2007-10-22, 15:14:15
immerhin wird man die alle an dem großbeworbenen pcie 2.0 erkennen

Zockerfrettchen
2007-10-22, 15:32:39
So, dann kloppt euch mal wieder wie diese Ergebnisse zu bewerten sind^^
http://forums.vr-zone.com/showthread.php?t=197188

Ich finds doch recht beeindruckend, sie wird dann wohl langsamer als eine GTX, jedoch etwas schneller als eine 2900XT, mal sehen was da noch mit ocen geht, hat ja keinen besonders schnellen Takt für 65nm, vielleicht ist aber auch die Vcore so niedrig angesetzt das kaum noch was drinne ist. Wenn man dann allerdings die AA Werte der Nvidia Karten im Gegensatz zu momentanen ATI Karten sieht sollte einem die Entscheidung leicht fallen. Abzuwarten ist die AA Leistung der neuen ATI Karten, sollen ja deutlich weniger einbrechen.
Ich würde sagen: Abwarten, Tee trinken und dann kaufen.
Mfg Zockerfrettchen

AnarchX
2007-10-22, 15:38:59
So, dann kloppt euch mal wieder wie diese Ergebnisse zu bewerten sind^^
http://forums.vr-zone.com/showthread.php?t=197188


Die sind schon 9 Tage alt und somit schon lange abgehandelt, in #1 findest du sie übrigens auch.;)

Zockerfrettchen
2007-10-22, 15:43:44
Hmm, stand heute erst im Inquirer, sorry, habe außerdem keine Lust gehabt mich durch 48 Seiten durchzustöbern:biggrin:

Spasstiger
2007-10-22, 15:50:39
Hmm, stand heute erst im Inquirer, sorry, habe außerdem keine Lust gehabt mich durch 48 Seiten durchzustöbern:biggrin:
Einfach unten auf die 1 bzw. "Erste" Klicken und schauen, welche Links schon im Startposting auftauchen. ;)

Moralelastix
2007-10-22, 16:15:31
Wird diese andere Karte (GTS mit 128 SPU) zusammen mit der GT gelauncht?

AnarchX
2007-10-22, 16:18:24
Die soll erst am 19.11. kommen.

Moralelastix
2007-10-22, 16:46:32
Thx!

TB1333
2007-10-22, 17:02:42
Wie schaut das eigentlich aus, wenns ein Hardlaunch wird?!
Heist das man kann die GT ab dem 29.Oktober bei Händlern ordern oder etwa schon vorher (oder ne Art Vorbestellung)?

Und zwar?

AnarchX
2007-10-22, 17:11:49
Und zwar?

Die Händler dürfen die Karte erst nach dem Fall des NDAs offiziell anbieten.
Aber wenn du einen Händler deines Vertrauens hast und diesen gut kennst, so kannst theoretisch schon so eine Karte z.B. am 26. in den Händen halten, wenn sie bei ihm geliefert wurde.;)

seahawk
2007-10-22, 17:14:35
Wobei ich, dass nicht tun würde, da da ein heftiger Erstagsaufschlag drauf sein dürfte. Nach dem 15.11 / 19.11 ist ein besserer Zeitpunkt zum Kauf der GT. (meine Meinung)

AnarchX
2007-10-22, 17:16:17
Würde ich auch denken, meist dauert es ja auch so lang bis alle Hersteller ihre Karten anbieten und vielleicht gibt es ja auch interessante Sonderversionen mit besserem GDDR3 bzw. besserem Kühler. ;)

up¦²
2007-10-22, 17:29:11
doppler, srry

reunion
2007-10-22, 17:35:01
In Israel ist bereits eine Karte gelistet: http://www.pandas.co.il/product_info.php?products_id=19239

1490 ILS = 259 €

TB1333
2007-10-22, 19:27:43
Die Händler dürfen die Karte erst nach dem Fall des NDAs offiziell anbieten.
Aber wenn du einen Händler deines Vertrauens hast und diesen gut kennst, so kannst theoretisch schon so eine Karte z.B. am 26. in den Händen halten, wenn sie bei ihm geliefert wurde.;)


Alles klar. Danke =)

up¦²
2007-10-22, 19:31:28
Also die $-Preise sind ja verlockend... :wink:
http://www.google.com/products?hl=en&rlz=&q=Geforce+8800GT+512MB++&um=1&ie=UTF-8

Majestic
2007-10-22, 20:04:42
Man wenn die Preise auch 1:1 umgerechnet in Deutschland gelten würden...:love2: Aber bei uns kommen wohl noch Steuern drauf, oder?

AnarchX
2007-10-22, 20:11:03
Natürlich, die Preise hier sind ohne VAT.
Aber in Dtl. würde ich auch Preise um oder knapp über 200€ erwarten, wenn die Verfügbarkeit einigermaßen stabil ist, also so ca. 3 Wochen nach Launch.

Majestic
2007-10-22, 20:15:24
Natürlich, die Preise hier sind ohne VAT.
Aber in Dtl. würde ich auch Preise um oder knapp über 200€ erwarten, wenn die Verfügbarkeit einigermaßen stabil ist, also so ca. 3 Wochen nach Launch.

Naja in anbetracht der gebotenen Leistung ist das wirklich ein Klacks... Man bin ich froh keine GTS mehr gekauft zu haben.

Spasstiger
2007-10-22, 20:24:49
Man wenn die Preise auch 1:1 umgerechnet in Deutschland gelten würden...:love2: Aber bei uns kommen wohl noch Steuern drauf, oder?
Mit Mehrwertsteuer sind 250US-$ rund 210€.

Die gelbe Eule
2007-10-22, 20:25:36
Bin gespannt welche OC Versionen uns XFX, eVGA und BFG liefern werden, so hat man zumindest eine Tendenz wo es hingehen soll. Auf Eigenkonstruktionen der Lüfter muss man vielleicht leider verzichten.

AnarchX
2007-10-22, 20:30:20
Auf Eigenkonstruktionen der Lüfter muss man vielleicht leider verzichten.
Wieso?

Im Gegensatz zur 8800GTS/GTX/U, denke ich doch dass es hier auch besser geht - Dual-Slot und dies sicherlich einige AIBs auch wahrnehmen.

110W TDP und Single-Slot sind imo doch schon etwas grenzwertig, auch wenn ich denke dass NV hier das Bestmögliche versucht zu erzielen.

Spasstiger
2007-10-22, 20:31:56
Glaubt eigentlich irgendjemand ernsthaft an die 16 TMUs? Ich denke, dass man die Cluster wie beim G80 belassen hat und eben sieben Stück davon verwendet. Anders lassen sich die guten Benchmarks auch mit AA und AF wohl kaum erklären.

dildo4u
2007-10-22, 20:33:46
Glaubt eigentlich irgendjemand ernsthaft an die 16 TMUs? Ich denke, dass man die Cluster wie beim G80 belassen hat und eben sieben Stück davon verwendet. Anders lassen sich die guten Benchmarks auch mit AA und AF wohl kaum erklären.
Sonst bräuchte es ja auch keine neue GTS. ;)

mapel110
2007-10-22, 20:34:12
ah, langsam zeichnet sich ab, was passieren wird. Zumindest sinkt die 640er GTS im Preis. Die sind jetzt unter 300 € gefallen. Den Preis hab ich vorher noch nicht gesehen.

Spasstiger
2007-10-22, 20:37:34
Die sind jetzt unter 300 € gefallen.
Wenn man bedenkt, dass es die vor 4 oder 5 Monaten kurzzeitig sogar mal für 280€ neu gab. ;)
Aber jetzt scheint ATI wirklich ernsthaft zu kontern und Nvidia will preislich konkurrenzfähig bleiben. Anders kann ich mir dieses Sonderangebot 8800 GT nicht erklären.

laser114
2007-10-22, 20:37:48
Bei den Datenkann man aber fast die GTS streichen, nur bei der Speicherbandbreite hinkts zur GTX. Bei 7 G80-Clustern:

- 97,2 % der ALU-Performance der 8800 GTX
- 91,3 % der Bandbreite der 8800 GTX
- und eben zwei Dritteln der Speicherbandbreite
- und etwas weniger Speicher

(Ausgehend von 600/1500/900)

Wobei gerade bei den Preisen dann ruck zuck mit schnellerem Speicher annähernd GTX-Performance erreicht werden kann.

Wer braucht dann eine neue GTS?

Die gelbe Eule
2007-10-22, 20:38:43
Glaubt eigentlich irgendjemand ernsthaft an die 16 TMUs? Ich denke, dass man die Cluster wie beim G80 belassen hat und eben sieben Stück davon verwendet. Anders lassen sich die guten Benchmarks auch mit AA und AF wohl kaum erklären.

Wenn sie Everest schon ausliest, dann passt das. Komischerweise waren sie immer die schnellsten und sichersten für solche Informationen. Hier kann keiner nachweisen woher sie stammen, aber sie sind halt immer echt.

*edit*

Auch hier wird man bestimmt 1GB Versionen sehen, Gainward ahoi.

Spasstiger
2007-10-22, 20:40:31
Wer braucht dann eine neue GTS?
Vielleicht löst die neue GTS ja leistungsmäßig die 8800 GTX ab und als High-End-Produkt verbleibt für dieses Jahr die 8800 Ultra während die 8800 GTX nur noch wegen Triple-SLI ein paar Abnehmer finden wird.

AnarchX
2007-10-22, 20:45:57
Glaubt eigentlich irgendjemand ernsthaft an die 16 TMUs?
Die Frage ist wie soll das überhaupt funktionieren? SPs und TMUs sind ja logisch verbunden in diesen Clustern.

Und zudem: NV soll solch tiefgreifenden Änderungen durchgeführt haben und hat dann nichtmal geschafft D3D10.1 vollständig zu implementieren? :|

Imo ist es nicht mehr als ein G80@65nm mit ein paar Verbesserungen aus G84/86(mal TA=TF ausgenommen) inkl. eben VP2 und eben etwas logik für DP.


Aber jetzt scheint ATI wirklich ernsthaft zu kontern und Nvidia will preislich konkurrenzfähig bleiben.
Ehrlich gesagt sehe ich keine wirkliche Chance für den RV670 im Punkt Leistung dem G92 gefährlich zu werden, ATi wird wohl über den Preis kämpfen müssen mit ihren 194mm²
Wobei NV ja der optische Shrink auf 55nm auch offen steht...


Anders kann ich mir dieses Sonderangebot 8800 GT nicht erklären.
Ich vermute, dass man eben wirkliche Performance-Leistung bieten will, eben auch für Games wie Crysis, die Meßlatte etwas höher legen und da will NV wohl keine unzufriedenen Kunden.


Wobei gerade bei den Preisen dann ruck zuck mit schnellerem Speicher annähernd GTX-Performance erreicht werden kann.

Wer braucht dann eine neue GTS?
Kommt drauf an was für eine GTS du meinst, die 7C-G80-V. oder die G92-V.?

reunion
2007-10-22, 20:55:50
Glaubt eigentlich irgendjemand ernsthaft an die 16 TMUs? Ich denke, dass man die Cluster wie beim G80 belassen hat und eben sieben Stück davon verwendet. Anders lassen sich die guten Benchmarks auch mit AA und AF wohl kaum erklären.

32 bi Samples sollten mehr als genug sein, ein G80 hängt heute IMHO hauptsächlich an der Rechenleistung. Ich halte das durchaus für möglich. Auch ROP-Anzahl und Bandbreite sprechen für weniger TMUs.

Die Frage ist wie soll das überhaupt funktionieren? SPs und TMUs sind ja logisch verbunden in diesen Clustern.


Es gab schon oft Gerüchte bzw. Überlegungen, dass nV die TMUs an die ROPs, und nicht mehr an die ALUs binden könnte. Und bei 16 ROPs würde das mit den 16 TMUs ja passen. Auch die Speicherbandbreite spricht dafür. Und AiL sagte ja, dass es bei G9x möglich sein soll, ALU und TMU-Anzahl unabhängig zu skalieren, wobei ich nicht weiß, ob er da nur spekuliert hat.

AnarchX
2007-10-22, 21:04:34
Es gab schon oft Gerüchte bzw. Überlegungen, dass nV die TMUs an die ROPs, und nicht mehr an die ALUs binde könnte. Und bei 16 ROPs würde das mit den 16 TMUs ja passen.
Und was soll dann der volle G92 haben?
384Bit -> 24 ROPs -> 24 D-TMUs, wo man schon über 800MHz braucht um an die Tex-Fill der 88U heranzukommen?:|

Auch die Speicherbandbreite spricht dafür.
Oder sie ist das Argument/Mittel um eben die 8800 GT entsprechend einzuordnen neben den ROPs.

Bald werden wir es erfahren, aber mir sieht es doch auch anhand der Benches nach 7-"G80"-Clustern aus.

laser114
2007-10-22, 21:04:36
Kommt drauf an was für eine GTS du meinst, die 7C-G80-V. oder die G92-V.?

Ich meinte den fehlenden Produktplatz zwischen 8800 GTX und GT, da ist es egal welche. ;)
Wenn die 8800 GTS wiederrum die 8800 GTX ersetzen sollte wäre das möglich - das ist nvidia beim Namensschema aber endgültiger durchgeknallt.

dildo4u
2007-10-22, 21:06:52
das ist nvidia beim Namensschema aber endgültiger durchgeknallt.


Warum? 8800GT --> new GTS --> Ultra.

AnarchX
2007-10-22, 21:09:01
Wenn die 8800 GTS wiederrum die 8800 GTX ersetzen sollte wäre das möglich - das ist nvidia beim Namensschema aber endgültiger durchgeknallt.

Vielleicht so:
8800 GT (G92GT) ~ 6800GS, wenn auch etwas stärker als diese Im Verhältnis

G92GTS und G92GTX ~ -Leistung 7800GT/GTX und das wird auch durch einen entsprechenden Namen verdeutlicht


Warum? 8800GT --> new GTS --> Ultra.
Wenn die new-G92-GTS 8C hat und genauso taktet wie die 8800GT, dann hat die 8800Ultra nicht unbedingt mehr einen großen Vorteil um ihren Preis zu rechtfertigen.

laser114
2007-10-22, 21:10:55
Warum? 8800GT --> new GTS --> Ultra.

Und wieso quetscht du die Karte in die 8800er-Serie? Kann ich selbst aus Marketinggründen nicht nachvollziehen....

In deinem Fall hätte NVIDIA hätte auch eine G80 8900 GTX sich ausdenken können (irgendwo auf 8800-Ultra-Level), und die zwei neuen G92-Karten 8900 GTS und 8900 GT nennen können. Das tun sie aber nicht, die Namensgebung der 8800 GT darf wohl inzwischen als bestätigt angesehen werden.

Wenn man mal aber bedenkt, das die Karte wohl früher mal 8700 GTS heißen sollte ... oder ob das eine Fehlinformation war? Es hieß ja immer nvidia changes...


Edit: @AnarchX: Ja, OK ... das ginge.

dildo4u
2007-10-22, 21:11:47
Wenn die new-G92-GTS 8C hat und genauso taktet wie die 8800GT, dann hat die 8800Ultra nicht unbedingt mehr einen großen Vorteil um ihren Preis zu rechtfertigen.
Naja die Ultra hatte schon immer ein extra Aufschlag.Ich glaub 200-300-400€ sollten passen.

laser114
2007-10-22, 21:12:40
Naja die Ultra hatte schon immer ein extra Aufschlag.Ich glaub 200-300-400€ sollten passen.

Das geht aber nur solange, wie der G80 das Topmodell darstellt. Bei einem 8-Cluster-G92 wird das dann schwieriger...

reunion
2007-10-22, 22:03:14
http://forum.donanimhaber.com/m_18561572/tm.htm

[dzp]Viper
2007-10-22, 22:05:46
Ich bin ja echt mal gespannt wie die Dinger sich übertakten lassen werden....

Tigershark
2007-10-22, 22:06:11
http://forum.donanimhaber.com/m_18561572/tm.htm

Krasse Türgenseide?
Krass....was sagt uns das? Dass die Spekus hier weitgehend zutreffen? Kann jemand türkisch? Sonst versteh ich nur die technischen Daten und die sind ja nix neues... odeR?

Moralelastix
2007-10-22, 22:21:09
http://forum.donanimhaber.com/m_18561572/tm.htm

Getürkt?

kiwit
2007-10-22, 22:45:08
Der ganze 8800GT Hype könnte am Ende ein böses erwachen geben.:rolleyes: Bin ja mal gespannt auf seriöse Benchmarks...:wink:

Henroldus
2007-10-22, 23:50:24
Der ganze 8800GT Hype könnte am Ende ein böses erwachen geben.:rolleyes: Bin ja mal gespannt auf seriöse Benchmarks...:wink:
der schlimmste Fall wäre eine Performance knapp unter GTS 640 Niveau was uns der Name ja suggeriert, das aber zu einem günstigen Preis und mit geringem Stromverbrauch (auf wiedersehen 700W+ Netzteile :wave2: )

Henroldus
2007-10-22, 23:51:12
Getürkt?
;D
You made my day

mike49
2007-10-23, 00:09:49
Krasse Türgenseide?


Getürkt?


;D
You made my day

Und ich find's einfach nur erbärmlich :(

Muß das denn wirklich sein und dann auch noch auf diesem Kindergarten-Niveau... :|

Coda
2007-10-23, 00:55:15
Ach komm. 2. und 3. sind doch ganz lustig. 1. fand ich auch etwas daneben ;)

Don Vito
2007-10-23, 01:30:24
Fakt ist...
solnage offiezielle Benchmarks von "Privat-Usern" nicht online sind ist alles Speku
Dir Rohleistung mag ja super sein...
Aber dennoch könnte sie einbrechen wie die 2900er wenn es um Qualitätssettings geht, wie AA und AF

Allerdings bleibt dies abzuwarten...könnte natürlich auch sein daß sie wirklich Power hat und dank der kleineren Bauweise noch die GTX mit OC schlägt (was ich mir fast nicht vorstellen kann, aber möglich ist doch alles;))

=Floi=
2007-10-23, 02:07:21
die 8800GT bricht schon alleine wegen der nahen G80 architektur nicht ein. Warum sollte sie das? Die karte wird höchstens duch ihren speicherdurchsatz eingebremmst.

seahawk
2007-10-23, 06:58:30
Viper;5957587']Ich bin ja echt mal gespannt wie die Dinger sich übertakten lassen werden....

700MHZ, 1GHZ MEM, 1.6-1.7GHZ Shader ohne Voltmod im einem guten Fall.

Gast
2007-10-23, 08:29:29
Und was soll dann der volle G92 haben?


Mal sehen ob es überhaupt einen vollen G92 gibt. Ich sehe nach wie vor keinen Sinn darin, die Lebenszeit der teuren G80-Chips künstlich zu verlängern, wenn man mit G92 schon einen wesentich potenteren und billiger herzustellenden Chip hat. Am 29. kommt offensichtlich nur die 8800GT, dann kommt irgendwann im November die neue 8800GTS auf G80-Basis. Alles weitere wird man sehen müssen.


384Bit -> 24 ROPs -> 24 D-TMUs, wo man schon über 800MHz braucht um an die Tex-Fill der 88U heranzukommen?:|


Die Tex-Füllrate einer 8800U ist hoch genug. Für mehr bräuchte man wohl auch deutlich mehr Bandbreite und damit ein 512-bit SI, wenn man nicht sehr hoch getakteten GDDR4 verwenden kann. Es ist wohl wesentlich sinnvoller gerade für die Zukunft, die arithmetische leistung kräftig zu erhöhen.


Oder sie ist das Argument/Mittel um eben die 8800 GT entsprechend einzuordnen neben den ROPs.

Bald werden wir es erfahren, aber mir sieht es doch auch anhand der Benches nach 7-"G80"-Clustern aus.

Für mich ist die Leistungsdifferenz zwischen dieser 8800GT und dem möglichen High-End-Modell nach wie vor zu klein. Wenn man schon eine 7 Cluster 8800GT mit 512MB VRAM um knapp über 200€ bekommt, wer soll dann noch für einen 8 Cluster Chip mit etwas höheren Taktraten >500€ zahlen? Zumal man die 8800GT sicher gut übertakten kann. Die niedrigere TMU-Anzahl wäre ein möglicher Abgrenzungspunkt, der nicht nur die Luft zum High-End erhöht, sondern auch zur Bandbreite und ROP-Anzahl passt, sowie der neuen 8800GTS auf G80-Basis mit ebenfalls 7 Clustern wieder einen Sinn gibt. Denn umsonst wird man diese neue GTS wohl nicht einführen.

reunion

Ailuros
2007-10-23, 08:30:13
Fakt ist...
solnage offiezielle Benchmarks von "Privat-Usern" nicht online sind ist alles Speku
Dir Rohleistung mag ja super sein...
Aber dennoch könnte sie einbrechen wie die 2900er wenn es um Qualitätssettings geht, wie AA und AF

Allerdings bleibt dies abzuwarten...könnte natürlich auch sein daß sie wirklich Power hat und dank der kleineren Bauweise noch die GTX mit OC schlägt (was ich mir fast nicht vorstellen kann, aber möglich ist doch alles;))

Mit einem guten OC (=/>15%) koennte es durchaus sein dass sie in manchen Faellen verdammt nahe an die GTX herankommt, aber im Durchschnitt will ich es ernsthaft bezweifeln.

Eine nuechterne Erwartung waere dass das 512MB Modell etwas hoeher liegen koennte als die heutige GTS.

seahawk
2007-10-23, 08:32:45
Mal sehen ob es überhaupt einen vollen G92 gibt. Ich sehe nach wie vor keinen Sinn darin, die Lebenszeit der teuren G80-Chips künstlich zu verlängern, wenn man mit G92 schon einen wesentich potenteren und billiger herzustellenden Chip hat. Am 29. kommt offensichtlich nur die 8800GT, dann kommt irgendwann im November die neue 8800GTS auf G80-Basis. Alles weitere wird man sehen müssen.
.
.
.
Für mich ist die Leistungsdifferenz zwischen dieser 8800GT und dem möglichen High-End-Modell nach wie vor zu klein. Wenn man schon eine 7 Cluster 8800GT mit 512MB VRAM um knapp über 200€ bekommt, wer soll dann noch für einen 8 Cluster Chip mit etwas höheren Taktraten >500€ zahlen? Zumal man die 8800GT sicher gut übertakten kann. Die niedrigere TMU-Anzahl wäre ein möglicher Abgrenzungspunkt, der nicht nur die Luft zum High-End erhöht, sondern auch zur Bandbreite und ROP-Anzahl passt, sowie der neuen 8800GTS auf G80-Basis mit ebenfalls 7 Clustern wieder einen Sinn gibt. Denn umsonst wird man diese neue GTS wohl nicht einführen.

reunion

Keine Sorge selbst mit regulärem OC wird die GT nicht an die neue GTS und GTX rankommen. Diese sind eben auch übertaktbar, während die GT ohne Vmod eben recht limitiert ist. (10% mehr nicht)

Ailuros
2007-10-23, 08:46:08
Die Tex-Füllrate einer 8800U ist hoch genug. Für mehr bräuchte man wohl auch deutlich mehr Bandbreite und damit ein 512-bit SI, wenn man nicht sehr hoch getakteten GDDR4 verwenden kann. Es ist wohl wesentlich sinnvoller gerade für die Zukunft, die arithmetische leistung kräftig zu erhöhen.

These:

32*800MHz = 25,6 GTexels/s (+39% 8800GTX)
1,2GHz GDDR4@384bit = 115,2 GB/s (+33% 8800GTX)

Du kannst von mir aus auch schnelleren Speicher in die These schieben, aber es wuerde nur den Preis unnoetig erhoehen. Die Frage ist wieso man ein 512bit SI brauchen wuerde wenn GDDR4 in gesunden Mengen und bei logischen Preisen verfuegbar ist.

Für mich ist die Leistungsdifferenz zwischen dieser 8800GT und dem möglichen High-End-Modell nach wie vor zu klein. Wenn man schon eine 7 Cluster 8800GT mit 512MB VRAM um knapp über 200€ bekommt, wer soll dann noch für einen 8 Cluster Chip mit etwas höheren Taktraten >500€ zahlen? Zumal man die 8800GT sicher gut übertakten kann. Die niedrigere TMU-Anzahl wäre ein möglicher Abgrenzungspunkt, der nicht nur die Luft zum High-End erhöht, sondern auch zur Bandbreite und ROP-Anzahl passt, sowie der neuen 8800GTS auf G80-Basis mit ebenfalls 7 Clustern wieder einen Sinn gibt. Denn umsonst wird man diese neue GTS wohl nicht einführen.

Woher kommt denn wieder diese Einleuchtung genau?

1. Die 8800GT/256MB kommt mit einem MSRP von =/>$199, wobei das 512MB Modell an die $279 reichen wird.

2. High-end G92 hat nach internen Angaben etwa 8800GTX+50%; wo genau ist der "kleine" Unterschied Deiner Meinung nach, wenn die 512MB 8800GT immer noch hinter der 8800GTX liegt?

3. Wenn man mit ~$250 eine Leistung zwischen 8800GTS und GTX bekommt, dann wird es auch Verbraucher geben die $450-500 bezaehlen werden um 2*8800GT-Leistung in den Rechner zu bekommen.

AnarchX
2007-10-23, 09:55:49
nVidia - 8800 GT - Performance D3D10 in 65nm im Oktober? - Teil 2 (s. #1!) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5958312#post5958312)

Gast
2007-10-23, 09:56:42
Keine Sorge selbst mit regulärem OC wird die GT nicht an die neue GTS und GTX rankommen. Diese sind eben auch übertaktbar, während die GT ohne Vmod eben recht limitiert ist. (10% mehr nicht)

Mit 7 Cluster und deutlich höheren Taktraten würde die 8800GT die neue GTS klar schlagen, da braucht man kein Hellseher zu sein, um das zu wissen. Die niedrigere TMU-Anzahl wäre deshalb IMHO durchaus eine plausible Möglichkeit, um die Rangordnung wieder herzustellen.

reunion