Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil2]


Seiten : 1 2 3 [4] 5 6

Psychopat
2008-05-02, 13:08:39
Eine große Die-Fläche heisst nur, das man kein hochwertiges Kühlermaterial verwenden muss (mit hoher Wärmeleitfähigkeit, also Cu), weil der Wärmetransport vom Chip zum Kühler besser geht. Die Wärmemenge bleibt aber die gleiche, und die musst du irgendwie mit einem Luftstrom vom Kühler wegbringen.

Ich hab auch schon überlegt ob ein großer Die Vorteile bei der Kühlung bringen könnte, also ob das ein Grund für 65nm vs 55nm sein kann. Ich glaube aber wenn, dann sehr marginal.
Also, wegen der besseren Wärmeleitung vom Chip zum Kühler kann der Kühler verglichen mit einem kleineren Chip, bei gleicher Chiptemperatur heisser sein. Das gibt eine effektivere Kühlung, wegen einem höheren Temperaturdelta zwischen Kühler und Luft.
Aber wie gesagt, viel sollte das nicht ausmachen. Da bringen Sachen wie Vaporchamber oder Heatpipes wesentlich mehr.

The_Silent_One
2008-05-02, 13:25:01
wie soll denn die wärmemenge die gleiche bleiben, wenn sich die zahl der arbeitenden einheiten (transistoren) vergrößert?

durch die größere fläche ist natürlich ein besserer wärmeaustausch möglich, aber das relativiert sich durch die zusätzliche wärme der hinzugekommenen transistoren.

Gast
2008-05-02, 13:28:08
Und da dies sicherheitshalber unter 65nm über die Bühne geht, kommt nunmal da ein entsprechend großer Die heraus, bei dem man eben nicht hoffen und bangen muss, das er die viel zu hoch gesteckte Taktprojektion schafft und somit auch sein Leistungsziel.

Nur weil ein Chip in einem modernen Fertigungsprozess hergestellt wird muss er noch lange nicht mit "viel zu hoch gesteckte Taktprojektion" kämpfen. Ein GT200 in 55nm hätte immerhin nur gut 71% der Fläche des gleichen Chips in 65nm und müsste deshalb ja noch lange nicht höher takten als der 65nm Pendant.

reunion

Psychopat
2008-05-02, 13:34:20
Mit gleicher Wärmemenge meine ich, dass über 200 Watt mit 600mm² immer noch über 200 Watt sind. Also das eine größere Die-Fläche nichts daran ändert, dass der Lüfter über 200 Watt abführen muss.
Ich habe theoretisch verglichen, ob ein Chip bei gleichbleibender Wattzahl Vorteile bei der Kühlung hat, wenn er eine grössere Fläche besitzt. Wieviel Watt das dann sind ist für die Überlegung irrelevant.

MEDIC-on-DUTY
2008-05-02, 14:34:20
Seit der 7800GTX. 5800U und auch 6800U waren alles andere als leise.

Wenn die Lautstärke wie bei der 88er ausfällt ist alles in Butter.

Nightspider
2008-05-02, 14:57:51
Die neue Generation soll wieder effiziente Stromsparmaßnahmen besitzen oder mit anderen Worten, sich wieder weit heruntertakten können oder gar einen zusätzlichen Idle-Chip besitzen.

Dank den Fortschritten bei Hybrid-SLI dürfte es kein Problem sein, auf einer Karte 2 Chips fliegend wechseln zu lassen.

Um die Lautstärke der Karte würde ich mir auch keine Sorgen machen, die letzten Kartengenerationen waren immer relativ leise.

Notfalls hat man ja noch seine Wakü :tongue:

Unyu
2008-05-02, 15:08:54
Ja also High-End Karten kaufen und dann per Referenz Lukü kühlen geht mal gar nicht. :tongue:

Hvoralek
2008-05-02, 15:33:55
Rechne nicht, der RV770 wird weitaus schneller werden als angenommen. Aber besser BTT und wir warten gemütlich ab.Wenn Du sagst, dass eine kommende AMD- Karte der absolute Überflieger wird, glaube ich das natürlich glatt :|

woher nehmen manche Leuet überhaupt das die DIE größer wird wie beim G80 ? (Bilder, Fakten ?)
selbst das war ja schon nen riesen Ding, und jetzt noch größer? :|
Was für ne Graka wird den das bitte?

Und wenn das Ding wirklich soviel frisst, dann gute Nacht.Es gibt es hier zwei wahrscheinlich ziemlich gut informierte Leute, die knapp unter 600 mm² angedeutet bzw. sogar genannt haben. Wobei ich, wenn die Taktraten wirklich ähnlich hoch wie bei G92 sind, sogar noch von 200W oder etwas mehr real unter Volllast ausgehe. Das braucht eine GX2 aber auch schon.

Winter[Raven]
2008-05-02, 16:29:56
Nunja, für die Leitungs die der G200 mitbringt, relativieren sich die Watt...

GeneralHanno
2008-05-02, 16:44:13
exakt, letztlich zählt performence/watt und hierfür ist eine große die (neue+breite architektur) mit moderaten taktraten + niedrigen spannungen bestens geeignet ;)

und wem alles über 100W aus prinzip zu viel ist (egal wie viel leistung dahinter steckt), der muss eben auf den mainstream oder performence chip warten ...

Gast
2008-05-02, 17:34:49
Hatten wir das gleiche Spielchen nicht schon vor dem R600 Launch?

MfG :cool:

Klar, aber hast du je gesehen, daß Fanboys rational argumentieren?
Es wird genauso ablaufen wie bei R600, Gehype ohne Ende und das Ergebniss wird sehr ernüchternd sein.

K4mPFwUr$t
2008-05-02, 18:15:30
jup, so wird es ablaufen.
wobei dank AMD ja auch mehr der trend nach der massentauglichen karte geht, bestes beispiel RV670. denke mal hier wird man das selbe auffahren und als highend lösung wieder eine X2 ala R700.

Nakai
2008-05-02, 18:27:32
jup, so wird es ablaufen.
wobei dank AMD ja auch mehr der trend nach der massentauglichen karte geht, bestes beispiel RV670. denke mal hier wird man das selbe auffahren und als highend lösung wieder eine X2 ala R700.

Da ich nun ne 7900GTO hab, kann ich nun ohne Probleme pro ATI labern.;D;)

Also ich würde die Specs vom RV770 nicht glauben, die gerade rumschwirren.
Aber um die 250mm² wird der RV770 schon haben und daher mehr als halb so klein wie der GT200 sein.

Der RV770 wird auf jeden Fall nicht so schnell werden, wie manche hier denken.
Er wird wohl um die 850 Millionen Transistoren haben, und damit kann man nicht soviel anstellen.

Also erstmal werden die ROPs verbessert, in dem man die Z-Füllrate vll vervierfacht. 8xMSAA kostenlos.
Nach meiner Meinung bleiben es 16 TMUs, wobei mit jeweils 2 TFs und 2 TAs.
Und dann hängt man noch 80SPs ran, welche noch etwas höher getaktet sind.

Der Chip taktet mit 900Mhz und die Shader mit 1,25Ghz.
Dann kommt man auf knapp 1TFLOPs.
Ergo etwa HD3870X2-Niveau.


mfg Nakai

AnarchX
2008-05-02, 18:29:50
Also erstmal werden die ROPs verbessert, in dem man die Z-Füllrate vll vervierfacht. 8xMSAA kostenlos.

Also doch eDRAM? ;D

Nakai
2008-05-02, 18:33:03
Also doch eDRAM? ;D

Natürlich nicht kostenlos(mein Fehler;D), ich meinte eher, dass es nur ein Takt braucht.
Wozu hat man denn die letzte Gen auf 8xMSAA optimiert?


mfg Nakai

K4mPFwUr$t
2008-05-02, 18:33:35
hatte eDRAM nicht nur 4xMSAA for free ermöglicht? ;)

aber wenn der RV770 halb so groß sein sollte oder wohl angenommen werden darf, hat er schonmal den großen vorteil von besseren yields. wo der GT200 seine schwierigkeiten haben wird, als monster DIE ;) natürlich neben der geringeren ausbeute pro waver.

AnarchX
2008-05-02, 18:39:05
Natürlich nicht kostenlos(mein Fehler;D), ich meinte eher, dass es nur ein Takt braucht.

Wenn dann 4xMSAA in einem Takt, 8x ist doch etwas zu hoch gegriffen.
Aber AFAIK wird es wohl erstmal nur eine doppelte Z-Fill gegenüber R6xx sein.

hatte eDRAM nicht nur 4xMSAA for free ermöglicht? ;)

Kommt ganz auf die Größe und Geschwindigkeit des eDRAM an.
Aber sollte ja nur ein Scherz am Rande sein.:D

dargo
2008-05-02, 18:42:28
aber wenn der RV770 halb so groß sein sollte oder wohl angenommen werden darf, hat er schonmal den großen vorteil von besseren yields. wo der GT200 seine schwierigkeiten haben wird, als monster DIE ;) natürlich neben der geringeren ausbeute pro waver.
Wie kommt ihr eigendlich drauf der RV770 würde mit dem GT200 konkurrieren?

GeneralHanno
2008-05-02, 18:52:45
*hust*

250mm² vs 600mm²

K4mPFwUr$t
2008-05-02, 18:59:31
@dargo
hab ich das geschrieben?
zumal muss der RV770 mehr oder minder gegen den GT200 antretten und zwar im doppelpack ala R700 ;)

Gast
2008-05-02, 19:05:29
Natürlich nicht kostenlos(mein Fehler;D), ich meinte eher, dass es nur ein Takt braucht.
Wozu hat man denn die letzte Gen auf 8xMSAA optimiert?


mfg Nakai
Ist das jetzt schon optimieren, wenn durch den langen Umweg über die Shader die letztendliche Anzahl der Samples nicht mehr so ins Gewicht fällt, weil die Latenz den größten Teil der Zeit beansprucht? ;)

Unyu
2008-05-02, 19:10:24
zumal muss der RV770 mehr oder minder gegen den GT200 antretten
Warum muss er?
Er kann auch gegen eine G92b im Doppelpack antreten, dann hat es der GT200 schön ruhig da oben. ;D

dargo
2008-05-02, 19:10:38
zumal muss der RV770 mehr oder minder gegen den GT200 antretten und zwar im doppelpack ala R700 ;)
Auf dem Papier vielleicht, oder bei schönen bunten Balken. In der Praxis ist CF keine Konkurrenz für eine Single-GPU-Lösung.

K4mPFwUr$t
2008-05-02, 19:37:43
das sehen wir vieleicht so dargo, aber AMD bzw. ATI hat sich anders entschieden ;)
und die PR abteilung sorgt dafür das es die leute kaufen, weist ja schöne große zahlen.

Unyu
2008-05-02, 19:54:04
Ja 2 GPUs müssen ja besser als eine sein. ;)
Am Ende steht AMD mit dem CF im Marketing besser da als Nvidia. ;D

Nakai
2008-05-02, 19:54:51
Wünschenswert isses für die doch. Wer weiß, vll schaffen sie es endlich wieder?;)

(ne, wohl eher nicht^^)


mfg Nakai

Blaire
2008-05-02, 22:20:46
Danke für die Quelle. Wenn das stimmt, dann wärs doch nen Brett ;) Naja, aber auch "nur" unter SLI

Dann ist mit einer GT200 eventuell 1920x1200 VeryHigh mindestens drin. Wäre doch auch extrem nice.;)

Blaire
2008-05-02, 22:21:52
30fps sind unter SLI aber ned spielbar wegen den Mikrorucklern.

Nicht pauschalisieren es tritt ja nicht immer auf, wenn man die 30fps Marke erreicht.

mapel110
2008-05-02, 22:32:29
Nicht pauschalisieren es tritt ja nicht immer auf, wenn man die 30fps Marke erreicht.
Bei AFR sollte es das doch immer, oder?

Blaire
2008-05-02, 22:38:16
Bei AFR sollte es das doch immer, oder?

Kommt auf die jeweilige Situation an. 30fps fühlen sich nicht immer unrund an...(Crysis gab es Levels die liefen mit 30fps gut, andere wiederum weniger gut (Minenlevel), auch 40 oder 50fps können sich unrund anfühlen (z.b.bei Jericho war es extrem schlimm...) Man kann das eben nicht pauschalisieren ist wirklich unterschiedlich , aber wenn dann ist es natürlich störend.

Ailuros
2008-05-03, 01:20:34
hatte eDRAM nicht nur 4xMSAA for free ermöglicht? ;)

So "frei" ist das Zeug nun auch wieder nicht auf Xenos.

Wenn dann 4xMSAA in einem Takt, 8x ist doch etwas zu hoch gegriffen.
Aber AFAIK wird es wohl erstmal nur eine doppelte Z-Fill gegenüber R6xx sein.

Die eigentliche Schwaeche liegt nicht nur bei single cycle 2xMSAA. Etwas flexibrere ROPs waeren durchaus wuenschenswert.

***edit: als "GT200" wird das Ding am Ende doch nicht vorgestellt....

AnarchX
2008-05-03, 01:50:50
***edit: als "GT200" wird das Ding am Ende doch nicht vorgestellt....

G100? Unwinder setzt ja im aktuellen RT-Release GT200 und G100 gleich, für welche diese Version Support mit sich bringt.

Ailuros
2008-05-03, 01:58:36
G100? Unwinder setzt ja im aktuellen RT-Release GT200 und G100 gleich, für welche diese Version Support mit sich bringt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6475939&postcount=911

GeneralHanno
2008-05-03, 09:18:39
eventuell könnte nvidia den GT200 soagr G90 nennen und dann als 9900GTX verkaufen ... reichlich dämlich, aber möglich ;D

AnarchX
2008-05-03, 09:47:57
Nachdem sich die Gerüchte halten, dass es wohl nur bei D3D10 bleibt, wäre das wohl gar nicht so verkehrt. X-D

Gast
2008-05-03, 09:54:59
yeep,LuserG100 wäre dann der passende Name.

Gast
2008-05-03, 10:00:48
genau wie ich schon mal sagte,der erste ist ne Gurke und die Granate kommt zum Weinachtsgeschäft,die Politik kennt man ja mittlerweile.
Vieleicht fallen sie mal so richtig auf die Schnauze,hoffendlich bringt ATI ne Single Granate dann können die sich ihre Abzocke sonst wo hin stecken.

Gast
2008-05-03, 11:01:08
genau wie ich schon mal sagte,der erste ist ne Gurke und die Granate kommt zum Weinachtsgeschäft,die Politik kennt man ja mittlerweile.
Vieleicht fallen sie mal so richtig auf die Schnauze,hoffendlich bringt ATI ne Single Granate dann können die sich ihre Abzocke sonst wo hin stecken.


Du kennst doch das Spielchen. Wenns mal in der HW-Abteilung nicht so läuft bei Nv dann macht halt die PR-Abteilung Überstunden.

Schau mal zurück wie lang das gedauert hat bis der letzte Depp erkannt hat wie überlegen der R300 gegenüber dem NV25 bzw NV30 bzw. NV35 war. Die ganzen Möchtegern-Meinungsführer hier haben sich fleißig weiter ihre GF4600 Karten gekauft.

Gast
2008-05-03, 11:14:03
http://www.xtremesystems.org/forums/showpost.php?p=2960815&postcount=174

Odal
2008-05-03, 12:02:04
hm boykottiert nvidia absichtlich DX10.1 oder bringt das nix?

Gast
2008-05-03, 12:10:39
Die ganzen Möchtegern-Meinungsführer hier haben sich fleißig weiter ihre GF4600 Karten gekauft.

Vielleicht weil sie weiterhin einwandfrei gefilterte Texturen sehen wollten und nicht diese ATi Texturfilter-Grütze??

Gast
2008-05-03, 12:11:15
hm boykottiert nvidia absichtlich DX10.1 oder bringt das nix?

dann gute nacht nvidia.

Gast
2008-05-03, 12:12:58
dann gute nacht nvidia.

Was ist denn das für ein dämlicher Kommentar?
Zunächst ist es einmal die Leistung, die zählt, und da hat Nvidia alle Trümpfe in fer Hand. Gute Nacht AMD.

Odal
2008-05-03, 12:28:01
na über die leistung das GT200 im Vergleich mit R700 basierten karten ist ja noch nicht wirklich was bekannt...

Das NVidia beim G92 chip kein DX10.1 reinbastelte da komm ich ja irgendwie noch mit aber das selbst der GT200 nur DX10 bekommen soll find ich schon etwas merkwürdig

Gast
2008-05-03, 12:37:50
na über die leistung das GT200 im Vergleich mit R700 basierten karten ist ja noch nicht wirklich was bekannt...

Das NVidia beim G92 chip kein DX10.1 reinbastelte da komm ich ja irgendwie noch mit aber das selbst der GT200 nur DX10 bekommen soll find ich schon etwas merkwürdig


Steht evtl. im Zusammenhang mit der Aussage eines ATI-Ingenieurs, der behauptete, Nvidia müsste den grundlegenden Aufbau ihrer TMUs ändern um DX 10.1 zu unterstützen. Dies ist wahrscheinlich schon wieder eine Design entscheidung, die man nicht so einfach umwerfen kann. Vielleicht ist sind TMUs, die das unterstützen auch ungleich teurer als die TMUs von Nvidia. Nichts genaues weiss man nicht.

Denke, wenn dass das dann die PR-Abteilung wieder gerade bügeln wird: "Was wir nicht haben braucht man auch nicht weil wir sind der Marktführer..."

Unyu
2008-05-03, 12:38:00
GT200 vs R700 ist unfair. Saubere Frames vs Mikroruckler.

Was soll D3D10.1 bringen außer Marketing?

Gast
2008-05-03, 12:38:07
Wurde doch gerade erklärt: Nvdia hat kein 10.1 nötig, weil die leistungsmässig eh alles wegfegen werden, was von AMD kommt.

Kennt man doch aus der Geschichte:

die GF4 brauchte kein PS1.4 weil sie ohnehin der Radeon 8500 überlegen war und ein R300 brauchte kein SM2.x, weil die GFFX eine DX9-Krücke war.

Gast
2008-05-03, 12:39:01
^^ war an Odal gerichtet.

GeneralHanno
2008-05-03, 12:39:37
naja leistungstechnisch vermutlich nur halb so schlimm wenn DX10.1 fehlen würde (wehe einer kommt mit AC: trotz DX10.1 ist die 8800GT immer noch schneller als die 3870 und auch sonst funktionieren die gforce-AA-hacks ganz ordentlich ...)

aber für marketing natürlich ein grober schnitzer (die x800 war extrem schnell, aber das featureset brach ihr das genick)

mapel110
2008-05-03, 12:41:20
Außerdem spielt D3D10 ganz allgemein immernoch eine kleine Rolle auf dem Spielemarkt. Dank Vistaflopp sowieso.

tombman
2008-05-03, 12:43:25
GT200 vs R700 ist unfair. Saubere Frames vs Mikroruckler.

Nicht unbedingt, Rx7xx sollen ja angeblich 2 gpus sein, die sich zum System hin aber als einer melden. Sprich 100% transparent :eek:

Gast
2008-05-03, 12:43:32
mit ziemlich grosser sicherheit wird die gt200 ein totaler reinfall werden.

1.kein dx10.1
2.totale unterschätzung der konkurenz,die wird wohl schneller als angenommen.
3.eine doppelte gtx leistung wäre nichts mehr besonderes
4.errinnert mich an die zeit der geforce 5 reihe

Gast
2008-05-03, 12:45:38
mit ziemlich grosser sicherheit wird die gt200 ein totaler reinfall werden.

1.kein dx10.1
2.totale unterschätzung der konkurenz,die wird wohl schneller als angenommen.
3.eine doppelte gtx leistung wäre nichts mehr besonderes
4.errinnert mich an die zeit der geforce 5 reihe


So ein Schmarn. Die Karte wird 1. von Feaks gekauft und 2. ist sie die Werbung für die kleinen Karten.

Winter[Raven]
2008-05-03, 12:45:51
mit ziemlich grosser sicherheit wird die gt200 ein totaler reinfall werden.

1.kein dx10.1
2.totale unterschätzung der konkurenz,die wird wohl schneller als angenommen.
3.eine doppelte gtx leistung wäre nichts mehr besonderes
4.errinnert mich an die zeit der geforce 5 reihe

1. Glasskugel bei Aldi im Angebot?
2. Ganz blöd gefragt, was denkst du wie weit ein Unternehmen ohne R&D kommt? AMD scheint da nicht gerade viel davon zubetreiben....
3. Sehe 1
4. Sehe 3

Gast
2008-05-03, 12:49:13
aber für marketing natürlich ein grober schnitzer (die x800 war extrem schnell, aber das featureset brach ihr das genick)


Zu x800 zeiten war das Fetaureset kein grosses Problem, ATIs Probleme begannen erst mit der starken Verzögerung ihres SM3 Parts X18xx.

Gast
2008-05-03, 12:49:25
;6476420']1. Glasskugel bei Aldi im Angebot?
2. Ganz blöd gefragt, was denkst du wie weit ein Unternehmen ohne R&D kommt? AMD scheint da nicht gerade viel davon zubetreiben....
3. Sehe 1
4. Sehe 3

klar glaskugel wie alles was in dem fred steht

mapel110
2008-05-03, 12:49:30
Nicht unbedingt, Rx7xx sollen ja angeblich 2 gpus sein, die sich zum System hin aber als einer melden. Sprich 100% transparent :eek:
Das glaube ich erst, wenn ichs sehe. Allerdings spricht der eher stiefmütterliche Support für CF dafür, dass es solch eine Lösung geben könnte. Dann macht schließlich die ganze Profilfrickelei keinen Sinn mehr.

Unyu
2008-05-03, 12:50:51
Nicht unbedingt, Rx7xx sollen ja angeblich 2 gpus sein, die sich zum System hin aber als einer melden. Sprich 100% transparent :eek:
So angeblich wie:
"Mirostov Kilrovsky's überlegene AA-Lösung namens Spectral-AA."
;D

gamingforce
2008-05-03, 12:51:42
na über die leistung das GT200 im Vergleich mit R700 basierten karten ist ja noch nicht wirklich was bekannt...

Das NVidia beim G92 chip kein DX10.1 reinbastelte da komm ich ja irgendwie noch mit aber das selbst der GT200 nur DX10 bekommen soll find ich schon etwas merkwürdig


wenn das stimmt, dann ist der Gt200 wirklich ein G92.

Die gelbe Eule
2008-05-03, 12:53:34
Oder wir sehen dieses ja noch einen Refresh zum Herbst mit 10.1.
Übrigens ist eine doppelte 8800GTX Leistung was besonderes, da man sie nun auf einer Karte bekommt.

Grestorn
2008-05-03, 12:58:47
Wobei mir vollkommen unklar ist, wie das gehen soll, dass zwei unabhängige GPUs zum System hin Transparent wie eine erscheinen soll.

Und wenn es keine unabhängigen GPUs sind, dann kann man auch gleich von doppelt so vielen Recheneinheiten usw. in einer einzelnen GPU reden.

Gast
2008-05-03, 13:03:09
Oder wir sehen dieses ja noch einen Refresh zum Herbst mit 10.1.
Übrigens ist eine doppelte 8800GTX Leistung was besonderes, da man sie nun auf einer Karte bekommt.
Was machen denn die SLI User? Für die ist es dann ja ganz langweilig. 600€ für die gleiche Leistung ausgeben? oder 1200€ für die 4fache Leistung? Dann steckt man lieber das Geld in Quad SLI mit GX2 kommt aufs gleiche raus und ist billiger.

Nene, GT200 muss schon ziemlich schnell werden auf jeden Fall so viel schneller das man Crysis unter 2600x1600@4xAA zocken kann, eventuell auch mit 8xAA. Eine GTX liefert da nur ganz ohne AA ca. 15-20 FPS. 50 FPS mit 4xAA wäre ganz schöne Steigerung. Davon kann man glaube auch realistisch ausgehen.

LovesuckZ
2008-05-03, 13:05:27
Wenn nVidia schon jegliche physikalische Gesetze umgehen können, dann könnten die doch gleich andere Produkte entwicklen als Grafikchips. :rolleyes:

Gast
2008-05-03, 13:11:03
Wenn nVidia schon jegliche physikalische Gesetze umgehen können, dann könnten die doch gleich andere Produkte entwicklen als Grafikchips. :rolleyes:
Das müssen sie aber können. Die sind ja keine Beamten oder sowas das man sie für nichts bezahlt. Die MÜSSEN sich was einfallen lassen damit das neue was kann was das alte nicht kann.

reunion
2008-05-03, 13:11:35
http://www.xtremesystems.org/forums/showpost.php?p=2960815&postcount=174

Na hoffentlich stimmt das nicht, sonst muss man wohl weitere zwei Jahre mit unsauberen MSAA und Hacks leben.

Außerdem spielt D3D10 ganz allgemein immernoch eine kleine Rolle auf dem Spielemarkt. Dank Vistaflopp sowieso.

Würde nV endlich auch mal mit D3D10.1-Hardware antanzen, dann müsste D3D10 auch keine Rolle spielen oder wäre womöglich gar nicht existent. Denn sämtliche andere Hersteller haben ohnehin schon D3D10.1-Hardware im Portfolio.

Gast
2008-05-03, 13:11:38
Was machen denn die SLI User? Für die ist es dann ja ganz langweilig. 600€ für die gleiche Leistung ausgeben? oder 1200€ für die 4fache Leistung? Dann steckt man lieber das Geld in Quad SLI mit GX2 kommt aufs gleiche raus und ist billiger.

Nene, GT200 muss schon ziemlich schnell werden auf jeden Fall so viel schneller das man Crysis unter 2600x1600@4xAA zocken kann, eventuell auch mit 8xAA. Eine GTX liefert da nur ganz ohne AA ca. 15-20 FPS. 50 FPS mit 4xAA wäre ganz schöne Steigerung. Davon kann man glaube auch realistisch ausgehen.
SLi ist keine vollwertige Alternative zu Single GPU. Es ist eher ein Appetitmacher was imit zukünftigen Karten möglich ist. Zu deiner "realistischen" Steigerung, naja. Kannst ja, wenn nV nicht deine Wünsche erfüllt, mal selbst in die Entwicklung gehen und den zeigen wie man einen richtigen Chip entwickelt. Scheinst es ja zu können. ;D
Außerdem muss nV gar nix. Doppelte Performance einer GTX wäre fantastisch und selbst SLi-User könnten/müssten umsteigen, falls sie in der Lage sind die Mikroruckler wahrzunehmen. Und Amd sehe ich nicht als Konkurrenz mehr an, die nV unter Zugzwang setzen könnte bzw. in Bedrängnis bringen könnte. Also wird der Kunde nehmen müssen, was er geboten bekommt und fertig.

Die gelbe Eule
2008-05-03, 13:12:01
Was machen denn die SLI User? Für die ist es dann ja ganz langweilig. 600€ für die gleiche Leistung ausgeben? oder 1200€ für die 4fache Leistung? Dann steckt man lieber das Geld in Quad SLI mit GX2 kommt aufs gleiche raus und ist billiger.

Nene, GT200 muss schon ziemlich schnell werden auf jeden Fall so viel schneller das man Crysis unter 2600x1600@4xAA zocken kann, eventuell auch mit 8xAA. Eine GTX liefert da nur ganz ohne AA ca. 15-20 FPS. 50 FPS mit 4xAA wäre ganz schöne Steigerung. Davon kann man glaube auch realistisch ausgehen.

Die kaufen sich zwei und bekommen 4fache 8800GTX Leistung, kaufen sich drei, bekommen 6fache 8800GTX Leistung. Ich glaube das sollte reichen als Argument. Die GX2 wird garantiert langsamer als eine GT200 sein, wie sollte man sonst diese Karte preislich darüber ansiedeln?

Und ganz ehrlich, welcher TFT schafft nativ diese Auflösung? Nur 30 Zöller. Werden die wenigsten haben, SLi aber eher.

LovesuckZ
2008-05-03, 13:15:37
Na hoffentlich stimmt das nicht, sonst muss man wohl weitere zwei Jahre mit unsauberen MSAA und Hacks leben.

Wieso? nVidia entwickelt keine Spiele. :rolleyes:

Würde nV endlich auch mal mit D3D10.1-Hardware antanzen, dann müsste D3D10 auch keine Rolle spielen oder wäre womöglich gar nicht existent. Denn sämtliche andere Hersteller haben ohnehin schon D3D10.1-Hardware im Portfolio.

Genau, D3D10 wäre nichtmehr existent. Klar, gab ja auch bis aus SIS keinen, der D3D10 Hardware anbot.
Hat Intel eigentlich schon 10.1 Hardware in Portfolio?

reunion
2008-05-03, 13:22:59
Wieso? nVidia entwickelt keine Spiele. :rolleyes:


Aktuelle Renderingtechniken benötigen eben meist die Z-Subsamples für sauberes MSAA. Und die gibts nur mit D3D10.1. Beispiele dazu gibt es mittlerweile dutzende.


Genau, D3D10 wäre nichtmehr existent. Klar, gab ja auch bis aus SIS keinen, der D3D10 Hardware anbot.

Ich bezweifel das einer HD2xxx mehr als die Treiberunterstützung für D3D10.1 fehlt. Aber okay, darüber kann man sich streiten. Jedenfalls gibt es sowohl von S3, als auch von IMG D3D10.1 Designs.


Hat Intel eigentlich schon 10.1 Hardware in Portfolio?

Von Intel gibt es soweit ich weiß noch nicht mal D3D10-Hardware (zumindest ist man die Treiber AFAIK noch immer schuldig). Zukünftige IPGs von Intel werden allerdings auf IMG-Designs setzen und damit voll D3D10.1 kompatibel sein. Siehe zB: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=410647

Gast
2008-05-03, 13:23:23
Die kaufen sich zwei und bekommen 4fache 8800GTX Leistung, kaufen sich drei, bekommen 6fache 8800GTX Leistung. Ich glaube das sollte reichen als Argument. Die GX2 wird garantiert langsamer als eine GT200 sein, wie sollte man sonst diese Karte preislich darüber ansiedeln?

Und ganz ehrlich, welcher TFT schafft nativ diese Auflösung? Nur 30 Zöller. Werden die wenigsten haben, SLi aber eher.
Die grosse Auflösung dient nur der veranschaulichung der Leitungsfähigkeit. Es ist vollkommen egal wieviele User so ein Display besitzen, hauptsache man bestätigt das NEU besser als ALT ist. Und wie besser, entscheidet die hypotetische Auflösung +AA. Du lannst heute nicht mehr mit grossen FPS Zahlen anrücken weil die CPus nicht annähernd mithalten. Deshalb gibts diese Monstereinstellungen. Ich hoffe es wird bald SSAA an der Reihe sein oder grosse MSAA Zahlen denn sonst kann sich niemand mehr von der Vorgängergeneration absetzen. Die PC Spiele werden ja nicht mehr und nicht besser um mit Grafikkarten dafür zu werben.

Sorkalm
2008-05-03, 13:25:10
Von Intel gibt es soweit ich weiß noch nicht mal D3D10-Hardware (zumindest ist man die Treiber AFAIK noch immer schuldig).

Heute ging der finale DirectX-10-Treiber für G965 und G35 raus:
http://www.computerbase.de/news/treiber/grafikkarten/2008/mai/intels_directx-10-treiber/

Das ist aber schon wieder ziemlich Off-Topic. Das Featureset von Intel-IGPs interessiert Intel wahrscheinlich selber kaum, solange keine andere Marketingabteilung daraus Gewinn schlagen kann...

Der Treiber kommt doch auch nur, weil ab 1. Juli Microsoft für das Vista-Premium-Logo DirectX-10-Fähigkeit voraussetzt.

LovesuckZ
2008-05-03, 13:28:05
Aktuelle Renderingtechniken benötigen eben meist die Z-Subsamples für sauberes MSAA. Und die gibts nur mit D3D10.1. Beispiele dazu gibt es mittlerweile dutzende.

Und was hat das mit deiner Aussage zu tun? :rolleyes:


Ich bezweifel das einer HD2xxx mehr als die Treiberunterstützung für D3D10.1 fehlt. Aber okay, darüber kann man sich streiten. Jedenfalls gibt es sowohl von S3, als auch von IMG D3D10.1 Designs.

Jeder Hersteller wird den Weg gehen, den er für richtig hält. Aber es ist schon lustig zu lesen, dass heutzutage Features über Leistung gehen. Das war vor 5 Jahren noch vollkommen anders. ;D


Von Intel gibt es soweit ich weiß noch nicht mal D3D10-Hardware (zumindest ist man die Treiber AFAIK noch immer schuldig).

nVidia und Intel halten über 80% des Marktes. Dann wird sich 10.1 eben nicht durchsetzen. Da aber 10.0 ebenso nicht gerade auf dem siegreichen Ast sitzt, wird man wohl erst mit dem Vistanachfolger eben auch die Möglichkeiten von 10.1 voll sehen können.

Die gelbe Eule
2008-05-03, 13:38:27
Die grosse Auflösung dient nur der veranschaulichung der Leitungsfähigkeit. Es ist vollkommen egal wieviele User so ein Display besitzen, hauptsache man bestätigt das NEU besser als ALT ist. Und wie besser, entscheidet die hypotetische Auflösung +AA. Du lannst heute nicht mehr mit grossen FPS Zahlen anrücken weil die CPus nicht annähernd mithalten. Deshalb gibts diese Monstereinstellungen. Ich hoffe es wird bald SSAA an der Reihe sein oder grosse MSAA Zahlen denn sonst kann sich niemand mehr von der Vorgängergeneration absetzen. Die PC Spiele werden ja nicht mehr und nicht besser um mit Grafikkarten dafür zu werben.

Ehrlich gesagt Blödsinn. Was bringen mir extrwme Settings wenn ich sie eh nicht nutzen möchte oder kann? Hybrid SLi sowie das Powersaving ist neu und auch gerne gesehen. MSAA oder SSAA muss man auch nicht fordern, wir haben es ja bereits. Und nicht immer sieht man es. Nicht die Filter zählen, sondern die Menge der Polygonen die man rendert. Hier muss also das Spiel mehr fürs Auge bieten und Crysis setzt hier nunmal einen Maßstab, welcher mit Very High erstmal bewältigt werden muss. AA und AF muss jeder für sich selbst aussuchen können, weil hier wertet man optisch nur das vorhandene auf, man bekommt nicht neue Optik dazu.

GeneralHanno
2008-05-03, 13:42:20
und wenn etwas auf 2560*1600 flüssig läuft, dann läuft es auch auf 1280*800+2x2xOGSSAA flüssig ;D

Nicht die Filter zählen, sondern die Menge der Polygonen die man rendert

und was bringen mir die polygone, wenn der rest des biles matschig ist und wie sau flimmert?

Odal
2008-05-03, 13:43:53
Steht evtl. im Zusammenhang mit der Aussage eines ATI-Ingenieurs, der behauptete, Nvidia müsste den grundlegenden Aufbau ihrer TMUs ändern um DX 10.1 zu unterstützen. Dies ist wahrscheinlich schon wieder eine Design entscheidung, die man nicht so einfach umwerfen kann. Vielleicht ist sind TMUs, die das unterstützen auch ungleich teurer als die TMUs von Nvidia. Nichts genaues weiss man nicht.

Denke, wenn dass das dann die PR-Abteilung wieder gerade bügeln wird: "Was wir nicht haben braucht man auch nicht weil wir sind der Marktführer..."

Ja sowas in der Art würde zumindest Sinn ergeben. Denn wenn man die Architektur grundlegend ändern muß läuft man entweder Gefahr das man viel zu spät ist und die Konkurenz nicht schläft, oder man einen Rohrkrepirer wie die GeFroschFX reihe produziert.

Könnte es vielleicht sein das das G80 Design doch nicht so "uber" ist und eher eine Sackgasse? Das es zwar ziemlich performant ist aber eben nicht sonderlich flexible was erweiterungen anbelangt. Ähnlich dem R300 von der Performance her ein Hammer Chip aber ATI dümpelte bis zum R520 rum um irgendwie die Architektur zu verändern...und selbst das war ja noch nicht das Ziel (siehe R580 derivate)

Unyu
2008-05-03, 13:45:31
Nicht die Filter zählen, sondern die Menge der Polygonen die man rendert. Hier muss also das Spiel mehr fürs Auge bieten und Crysis setzt hier nunmal einen Maßstab, welcher mit Very High erstmal bewältigt werden muss.
Crysis ohne SSAA sieht hässlich aus. Soviel zu den vielen Polygonen. :rolleyes:

reunion
2008-05-03, 13:49:29
Und was hat das mit deiner Aussage zu tun? :rolleyes:


Denk scharf nach dann findest du einen Zusammenhang. Du schaffst das. Bin ich mir sicher.


Jeder Hersteller wird den Weg gehen, den er für richtig hält. Aber es ist schon lustig zu lesen, dass heutzutage Features über Leistung gehen. Das war vor 5 Jahren noch vollkommen anders. ;D

Die Situation war vor 5 Jahren auch ganz anders.


nVidia und Intel halten über 80% des Marktes. Dann wird sich 10.1 eben nicht durchsetzen. Da aber 10.0 ebenso nicht gerade auf dem siegreichen Ast sitzt, wird man wohl erst mit dem Vistanachfolger eben auch die Möglichkeiten von 10.1 voll sehen können.

Wie schon editiert, Intels zukünftige IPGs werden auf IMG-Designs setzen und damit voll D3D10.1 kompatibel sein.

LovesuckZ
2008-05-03, 13:50:00
Könnte es vielleicht sein das das G80 Design doch nicht so "uber" ist und eher eine Sackgasse? Das es zwar ziemlich performant ist aber eben nicht sonderlich flexible was erweiterungen anbelangt. Ähnlich dem R300 von der Performance her ein Hammer Chip aber ATI dümpelte bis zum R520 rum um irgendwie die Architektur zu verändern...und selbst das war ja noch nicht das Ziel (siehe R580 derivate)

Gather4 unterstützt AMD anscheinend schon seit den r520 Karten. Dazu kommt das freiprogrammierbare AA der r6xx Karten - was flexible ist, aber in der jetzigen Form einfach zuviel Leistung frisst.

LovesuckZ
2008-05-03, 13:54:30
Denk scharf nach dann findest du einen Zusammenhang. Du schaffst das. Bin ich mir sicher.

Ich bin nicht der Meinung, dass nVidia jede Engine auf dieser Welt selbst schreibt. Aber ich habe auch nicht soviel Insiderwissen wie du. :rolleyes:


Die Situation war vor 5 Jahren auch ganz anders.


Echt? Shadermodel 2.x gegen 1.4. Oder SM3.0 gegen SM2.0. Sieht für mich exakt nachdem aus, was wir heute haben.
Hoffentlich hast du dir einen NV4x gekauft. ;)


Wie schon editiert, Intels zukünftige IPGs werden auf IMG-Hardware setzen und damit voll D3D10.1 kompatibel sein.

Und wenn Intel es nicht anbietet? Wenn IMG keine weiteren Abnehmer finden?
Es gibt immer Designs, die sind besser als der Marktführer. Aber das ist keine Garantie, dass es sich letzlich durchsetzt.

Die gelbe Eule
2008-05-03, 14:00:05
Crysis ohne SSAA sieht hässlich aus. Soviel zu den vielen Polygonen. :rolleyes:

In welcher Auflösung musst Du es denn spielbar haben mit SSAA? MSAA kostet ja schon einiges, aber SSAA ist ne ganze Ecke heftiger.
Ihr solltet mal vom "Maßstab" Crysis wegkommen, weil es keine Referenz für NV oder ATi ist, wer wo wie am besten performt. Crysis liegt fast schon auf der Pyramide bei erscheinen der GT200. De facto muss später erstmal jeder eine GT200 kaufen, den 24er-30er TFT dazu und freut sich dann, 1.500€ für ein Spiel an Hardware verballert zu haben, damit es endlich läuft.
Sry, aber wenn man so denken muss, kann man sich auch ne PS3 zum Launchtag kaufen ohne mit der Wimper zu zucken. Findet man nur so seinen Seelenfrieden? 3DMark macht es ja nicht anders, bloß alles neu kaufen, weil was bei uns ruckelt, ruckelt noch schlimmer woanders.

reunion
2008-05-03, 14:03:30
Ich bin nicht der Meinung, dass nVidia jede Engine auf dieser Welt selbst schreibt. Aber ich habe auch nicht soviel Insiderwissen wie du. :rolleyes:

Das habe ich auch nicht behauptet. Ließ nochmal.


Echt? Shadermodell 2.x gegen 1.4. Oder SM3.0 gegen SM2.0. Sieht für mich exakt nachdem aus, was wir heute haben.

Die NV3X-Serie war schon mit SM2.0 überfordert. SM2X war in der Praxis faktisch nutzlos. Bei den anderen Dingen geben ich dir recht.


Hoffentlich hast du dir einen NV4x gekauft. ;)

Hatte ich. Und zwar eine 6600GT. Die X700 war aber auch nicht wirklich eine Alternative.


Und wenn Intel es nicht anbietet? Wenn IMG keine weiteren Abnehmer finden?
Es gibt immer Designs, die sind besser als der Marktführer. Aber das ist keine Garantie, dass es sich letzlich durchsetzt.

Ja schon klar - wenn die Welt untergeht ist es natürlich blöd. Sonst hat man es als Kunde eigentlich selbst in der Hand.

Unyu
2008-05-03, 14:06:44
Ihr solltet mal vom "Maßstab" Crysis wegkommen
Du hast das Thema wieder erwärmt. ;)

Ich habe nur geschrieben, was man von vielen Polygonen halten kann.
Oblivion mit MSAA sieht trotz weniger Polygonen besser aus und läuft füssiger.

Gast
2008-05-03, 14:11:08
Ehrlich gesagt Blödsinn. Was bringen mir extrwme Settings wenn ich sie eh nicht nutzen möchte oder kann? Hybrid SLi sowie das Powersaving ist neu und auch gerne gesehen. MSAA oder SSAA muss man auch nicht fordern, wir haben es ja bereits. Und nicht immer sieht man es. Nicht die Filter zählen, sondern die Menge der Polygonen die man rendert. Hier muss also das Spiel mehr fürs Auge bieten und Crysis setzt hier nunmal einen Maßstab, welcher mit Very High erstmal bewältigt werden muss. AA und AF muss jeder für sich selbst aussuchen können, weil hier wertet man optisch nur das vorhandene auf, man bekommt nicht neue Optik dazu.

Also Crysis kannst du doch bei 1280x1024 schon jetzt zocken ob VeryHigh oder High aber ohne AA. Ich würde es am liebsten in 8xS sehen oder noch mehr. Und 2560x1600@4xAA FPS in Tests geben dir eine Antwort ob du das kannst oder nicht. Denn die meisten Tester sind zu blöd auch mal 8xS oder 16xS einzuschalten.

Bei dir fällt eine gewisse Anspruchslosigkeit auf. Du hast kein Wunsch die Spiele in möglichst guter Qualität zu spielen. Bist so wie mein Freund der kein Unterschied zwischen AA und kein AA sieht.


In meiner Glaskugel steht übrigens das mit Crysis für ein paar Jährchen die Grafik stagnieren wird, so das die Hersteller gezwungen werden auf mehr AA in ältern Spielen zu setzten oder überhaupt auf mehr Funktionen und viele AA Varianten. Die CPU Leistung gibt höhere FPS einfach nicht her und Spielefirmen machen Spiele die meistens "auch so" laufen.

LovesuckZ
2008-05-03, 14:11:59
Das habe ich auch nicht behauptet. Ließ nochmal.

Na hoffentlich stimmt das nicht, sonst muss man wohl weitere zwei Jahre mit unsauberen MSAA und Hacks leben.
Würde nV endlich auch mal mit D3D10.1-Hardware antanzen, dann müsste D3D10 auch keine Rolle spielen oder wäre womöglich gar nicht existent. Denn sämtliche andere Hersteller haben ohnehin schon D3D10.1-Hardware im Portfolio.

Dann schreibe dochmal bitte, wie du es gemeint hast. ;)


Die NV3X-Serie war schon mit SM2.0 überfordert. SM2X war in der Praxis faktisch nutzlos. Bei den anderen Dingen geben ich dir recht.


Reden wir über Leistung oder reden wir über Features? AMDs jetzige 10.1 Hardware ist überfordert mit 10.0 und AA. SIS und IMG Käufer werden wohl kaum wirklich AA aktivieren. Was bringt es also, dass mehrere Designs mit 10.1 existieren, wenn schlussendlich die Leistung entscheident ist?

Die gelbe Eule
2008-05-03, 14:12:32
Das Thema ist die ganze Zeit heiß und es ist leider wie 3DMark auf alternate, nur die Punkte zählen. Spiele sind nunmal der Zeit voraus, damit die Engine auch verkauft werden kann. Manche MMOs brauchen 2-3 Jahre Entwicklungszeit und wenn da einer mit der Crytek Engine antanzt, kräht keiner mehr was mal der G92 konnte oder nicht, aber das Spiel flutscht dann an allen Ecken und Enden mit einer 100€ Karte.

Also Crysis kannst du doch bei 1280x1024 schon jetzt zocken ob VeryHigh oder High aber ohne AA. Ich würde es am liebsten in 8xS sehen oder noch mehr. Und 2560x1600@4xAA FPS in Tests geben dir eine Antwort ob du das kannst oder nicht. Denn die meisten Tester sind zu blöd auch mal 8xS oder 16xS einzuschalten.

Bei dir fällt eine gewisse Anspruchslosigkeit auf. Du hast kein Wunsch die Spiele in möglichst guter Qualität zu spielen. Bist so wie mein Freund der kein Unterschied zwischen AA und kein AA sieht.


In meiner Glaskugel steht übrigens das mit Crysis für ein paar Jährchen die Grafik stagnieren wird, so das die Hersteller gezwungen werden auf mehr AA in ältern Spielen zu setzten oder überhaupt auf mehr Funktionen und viele AA Varianten. Die CPU Leistung gibt höhere FPS einfach nicht her und Spielefirmen machen Spiele die meistens "auch so" laufen.

Klar kann ich, aber was würde mich das kosten? Ich habe einen Anspruch, doch Wunschdenken und Portemonaie sind eben zweierlei. Ich sehe sehr wohl den Unterschied mit und ohne AA, gerade auf meinem LCD TV ist es sinnfrei es nicht zuzuschalten, weil es kaum kostet.
16xAF, 4x(MS)AA und HQ sind immer an, nie darunter. Was nicht läuft, wird nicht gekauft, ich muss nicht alles spielen, weil so 10 Titel in 6 Monaten kosten auch mal 450€.
Die Hersteller können nur auf das setzen, was offiziell im Treiber vorhanden ist. Mischmodi bei ATi und NV sind da eben nur mit nhancer zu fahren, was aber kaum der Ottonormaluser bedienen würde.

Hvoralek
2008-05-03, 14:20:26
Nicht pauschalisieren es tritt ja nicht immer auf, wenn man die 30fps Marke erreicht.Das müsste von der CPU- Last abhängen: Wenn die CPU für einen Frame mindestens genauso braucht wie die GraKa, dürfte es keine Mirkoruckler geben; wenn die CPU deutlich schneller fertig ist, ziemlich heftige.

Nicht unbedingt, Rx7xx sollen ja angeblich 2 gpus sein, die sich zum System hin aber als einer melden. Sprich 100% transparent :eek:Das sind uralte Gerüchte zum urprünglichen R7xx.

Gather4 unterstützt AMD anscheinend schon seit den r520 Karten.Wäre mit neu. Meinst Du Fetch 4 (seit R580)?

LovesuckZ
2008-05-03, 14:22:42
Wäre mit neu. Meinst Du Fetch 4 (seit R580)?

Ja.

Winter[Raven]
2008-05-03, 15:01:07
Wieso? nVidia entwickelt keine Spiele.


Natürlich tut Nvidia dies in einem ganz bestimmten Rahmen. Crysis ist nur ein Beispiel wo Nvidia die Hand mit anlegte... :)

Gast
2008-05-03, 15:17:22
Wirklich kein d3d10.1? Wenn das wirklich so ein Monster wird, dann darf das nicht fehlen wie ich finde. Man stelle sich vor die Karte wird wieder 1-2 Jahre High-End bleiben. Was für eine Technologiebremse wäre das.

dargo
2008-05-03, 15:19:48
Wirklich kein d3d10.1? Wenn das wirklich so ein Monster wird, dann darf das nicht fehlen wie ich finde. Man stelle sich vor die Karte wird wieder 1-2 Jahre High-End bleiben. Was für eine Technologiebremse wäre das.
Vielleicht will NV einfach von DX10.0 direkt auf DX11? In ca. zwei Jahren wäre das durchaus machbar denke ich. Ich würde es aber auch schade finden wenn der GT200 kein DX10.1 bieten würde.

Gast
2008-05-03, 15:22:22
Wirklich kein d3d10.1? Wenn das wirklich so ein Monster wird, dann darf das nicht fehlen wie ich finde. Man stelle sich vor die Karte wird wieder 1-2 Jahre High-End bleiben. Was für eine Technologiebremse wäre das.

Tja; die wenigen Spielehersteller, die es noch für sinnvoll halten würden - bei fehlender Unterstützung von DX10.1 seitens nVidia - DX10.1 in ihre Spiele zu integrieren, werden dann halt noch gekauft.

Somit ist DX10.1 ziemlich tot. Schade drum. War ein nettes Feature.

gamingforce
2008-05-03, 15:34:00
einfach geil, ich wette 100:1 das es ne Flinte wird dieser GT200 ;D

Gast
2008-05-03, 15:45:55
flinte?

Gast
2008-05-03, 15:50:22
Tja; die wenigen Spielehersteller, die es noch für sinnvoll halten würden - bei fehlender Unterstützung von DX10.1 seitens nVidia - DX10.1 in ihre Spiele zu integrieren, werden dann halt noch gekauft.

Somit ist DX10.1 ziemlich tot. Schade drum. War ein nettes Feature.


Na der werden doch schon die ersten Fanboy Geschütze in Stellung gebracht, für den Fall das Nvidia kein 10.1 unterstützt.

Gast
2008-05-03, 15:52:02
http://www.abload.de/img/nvidiagt200chipjfx.jpg (http://www.abload.de/image.php?img=nvidiagt200chipjfx.jpg)

Sorkalm
2008-05-03, 15:55:00
flinte?

Er meinte wohl Finte.

Wobei ich aber nicht sehe, zu welcher Reaktion AMDs der führen sollte? Große Chips entwickeln die aktuell doch eh nicht...

GeneralHanno
2008-05-03, 16:00:12
http://www.abload.de/img/nvidiagt200chipjfx.jpg (http://www.abload.de/image.php?img=nvidiagt200chipjfx.jpg)

gehört eher in den GF9 thread ;)

welche "nummern" haben die 8800GT, 8800GTS, 9800GTX und GX2?

deekey777
2008-05-03, 16:02:40
gehört eher in den GF9 thread ;)

welche "nummern" haben die 8800GT, 8800GTS, 9800GTX und GX2?
Sieh dir den Namen dieses Fotos an. :biggrin:

Odal
2008-05-03, 16:07:31
Wirklich kein d3d10.1? Wenn das wirklich so ein Monster wird, dann darf das nicht fehlen wie ich finde. Man stelle sich vor die Karte wird wieder 1-2 Jahre High-End bleiben. Was für eine Technologiebremse wäre das.

Ja eben, nicht das das für die Käufer unbedingt ein must-to-have ist.....aber es bremst natürlich die verwendung des höheren techlevels in spielen....

somit kann man dann selbst zum erscheinen der DX11 GPUs noch nicht vom DX10.1 profitieren....

ich fand es damals aus entwiclungssicht auch schade das die R420/80 serie kein SM3 unterstützte auch wenn ich immer wieder sagte das es für den käufer keinen wirklichen unterschied macht

Also entweder ist die G80 Architektur zu unflexible das ein aufboren zuviele potentielle Probleme mit sich bringen würde, oder NVidia boykottiert wirklich bewusst DX10.1

Die gelbe Eule
2008-05-03, 16:13:16
NV streut doch eh wieder Fehlinfos und bis zur Computex können wir eh noch warten.

Gast
2008-05-03, 16:13:55
Na der werden doch schon die ersten Fanboy Geschütze in Stellung gebracht, für den Fall das Nvidia kein 10.1 unterstützt.

Bekommst du Angst, oder was soll der dämliche Kommentar?


Also entweder ist die G80 Architektur zu unflexible das ein aufboren zuviele potentielle Probleme mit sich bringen würde, [...]

Welche andere logische Erklärung sollte es sonst geben?

Odal
2008-05-03, 16:27:15
Welche andere logische Erklärung sollte es sonst geben?

NVidia schenkt sich ne Designänderung da sie ATI bzgl. Marktdurchdringung nicht als Konkurenten sieht bzw. der Rest vom Marketing erledigt wird?

Aquaschaf
2008-05-03, 16:28:16
http://www.abload.de/img/nvidiagt200chipjfx.jpg (http://www.abload.de/image.php?img=nvidiagt200chipjfx.jpg)

Man sieht doch sofort dass das "G92-400-A2" Photoshop entstammt.

Gast
2008-05-03, 16:30:45
Bekommst du Angst, oder was soll der dämliche Kommentar?


Jetzt mach mal halblang. Das hat nicht mit Angst zu tun wenn man dein Postingverhalten und die Intention, welche relativ offensichtliche hinter deinen Aussagen steckt, beurteilt. Also ruhig Blut, bitte...

AnarchX
2008-05-03, 16:41:45
Man sieht doch sofort dass das "G92-400-A2" Photoshop entstammt.
Diese GPU ist doch auf jeder GTS512 zu finden.

GeneralHanno
2008-05-03, 16:43:36
NV streut doch eh wieder Fehlinfos und bis zur Computex können wir eh noch warten.

hier ist der nächste thermin für (fehl-)informationen ;)

http://www.theinquirer.net/gb/inquirer/news/2008/05/02/nvidia-throws-party

Die gelbe Eule
2008-05-03, 16:51:00
Kommt auf die Leaks an, aber ob da wirklich schon ein Sample gezeigt wird?

Gast
2008-05-03, 17:30:25
Welche andere logische Erklärung sollte es sonst geben?
Zum Beispiel dass man dann alle Produkte auf 10.1 umstellen müsste, weil man ja "zugegeben" hätte, dass es was bringt.

reunion
2008-05-03, 19:27:34
Dann schreibe dochmal bitte, wie du es gemeint hast. ;)


Ich verstehe zwar nicht was daran unklar sein sollte aber bitte: Man braucht die Z-Subsamples für ordentliches MSAA in heute üblichen Renderingtechniker. Ohne diese und damit ohne D3D10.1 müssen wir uns eben mit unzureichenden Hacks herumschlagen. So war das gemeint, und so habe ich es auch gesagt, ganz einfach.


Reden wir über Leistung oder reden wir über Features? AMDs jetzige 10.1 Hardware ist überfordert mit 10.0 und AA.

Das ist doch absoluter Schmarren. D3D10 ist nicht langsamer als D3D9, sondern höchstens schneller. Bei D3D10.1 natürlich ebenso. Gather4 ist ein gutes Beispiel wie man hier deutlich Leistung gewinnen kann. Natürlich stets bei gleicher Optik.

LovesuckZ
2008-05-03, 19:59:08
Ohne diese und damit ohne D3D10.1 müssen wir uns eben mit unzureichenden Hacks herumschlagen. So war das gemeint, und so habe ich es auch gesagt, ganz einfach.


Äh? Und wieso sollten wir 2 Jahre warten? :|
Du hast ganz klar gegen nVidia geshootet. Die haben aber überhaupt nichts damit zu tun, dass 10.1 eingesetzt werden kann.

Die gelbe Eule
2008-05-03, 22:09:26
Das ist doch absoluter Schmarren. D3D10 ist nicht langsamer als D3D9, sondern höchstens schneller. Bei D3D10.1 natürlich ebenso. Gather4 ist ein gutes Beispiel wie man hier deutlich Leistung gewinnen kann. Natürlich stets bei gleicher Optik.

du kannst gar nicht DX9 mit DX10 vergleichen, da beides auf verschiedenen OS läuft. Und hier ist auch die Spaßbremse.

Gast
2008-05-03, 22:19:44
du kannst gar nicht DX9 mit DX10 vergleichen, da beides auf verschiedenen OS läuft. Und hier ist auch die Spaßbremse.
Und unter Vista gibt es kein DX9? Wenn du schon klugscheißen willst dann informiere dich wenigstens vorher.
DX10 ist nicht kompatibel zu DX9.

Die gelbe Eule
2008-05-03, 23:08:52
Und wer braucht bitte DX9 unter Vista, wenn er doch bei XP bleiben kann? Deinen Ton kannst Dir auch mal überdenken, weil als Reg kannst Dir das nicht erlauben!

gamingforce
2008-05-03, 23:26:47
Ich brauch DX9 unter Vista 64 Bit und alle anderen auch noch.

XP ist am Ende und haben nurnoch die Benchmark Freaks die jeden Punkt brauchen, sonst macht alles Vista besser wie XP und ich hoffe der Support hört bald auf für das XP:cool:

PrefoX
2008-05-03, 23:40:26
Ich brauch DX9 unter Vista 64 Bit und alle anderen auch noch.

XP ist am Ende und haben nurnoch die Benchmark Freaks die jeden Punkt brauchen, sonst macht alles Vista besser wie XP und ich hoffe der Support hört bald auf für das XP:cool:
besser wie, geht erstmal gar nicht, denn wenn es WIE etwas ist, kann es nicht besser sein. Wenn dann bitte besser ALS :mad:

K4mPFwUr$t
2008-05-03, 23:40:38
alles besser? vista ist das neue ME :ulol:

@Die gelbe Eule
es gibt genug leute die nicht nur DX10 only titel spielen :rolleyes:

Botcruscher
2008-05-03, 23:45:24
Am Ende von was? Vista brauchen eben nur die Benchmarkfreaks für den 3d-fart. Die sollen lieber Vista endlich sterben lassen. Aber nö, lieber 180Mio in die Werbung stecken. Für ein System das keiner haben will... Vista ist noch nicht mal ME2.0, damals haben die OEMs nicht nach dem Vorgänger geschrien.

Beim derzeitigen Siechtum von DX10 könnte NV auch auf 10.1 verzichten. Was zählt ist Grundspeed in DX9. Dank DX9-Konsolen und der Schwäche von ATI lohnt sich eine extra Investition nicht wirklich.


@Die gelbe Eule
es gibt genug leute die nicht nur DX10 only titel spielen :rolleyes:

Welche Titel sollten das sein?;D Und nein, der Blödmark ist kein Spiel.:D

K4mPFwUr$t
2008-05-03, 23:51:43
eigentlich meinte ich damit was anderes. die leute die vista haben, werden sicherlich nicht nur den DX10.0 pfad nutzen.
alte klassiker bieten ja keinen DX10.0 support an.

den 3d murks als spiel zu verdächtigen ist schon sehr gewagt ;D

Hvoralek
2008-05-04, 00:17:57
alte klassiker z.b. die kein DX10 anbieten.
den 3d murks als spiel zu verdächtigen ist schon sehr gewagt ;DEr meinte, glaube ich, was für D3D10- only- Titel es gibt.

Gast
2008-05-04, 00:27:48
XP ist am Ende
Echt?
Habe ich noch gar nicht gemerkt. :cool:

ich hoffe der Support hört bald auf für das XPIch hoffe ich wache gleich auf und Vista war nur ein böser Traum.

Gast
2008-05-04, 00:35:22
Crysis ohne SSAA sieht hässlich aus. Soviel zu den vielen Polygonen. :rolleyes:

Kann ich bestätigen. Mit 8xS oder gar 16xS wäre ein Traum...leider gibt es das derzeit nur als Diashow bzw.ungenügend Bildraten. Aber vieleicht kann GT200 SLI es spielbar machen.

Gast
2008-05-04, 05:03:41
@gamingforce: XP ist immer noch das Betriebssystem Nummero uno für most Gamers da viele keine DX10 Karte besitzen. Und laut Microsoft wird es noch sehr lange supportet. Sinnloses geflame von dir. @Gast: Ich hoffe ich wache auf und kann endlich ne GT200/R700 in meinen Patschehändchen halten. @Topic: Ich will Fakten, Fakten, Fakten. Adios Amigos

4711
2008-05-04, 07:51:43
Kann ich bestätigen. Mit 8xS oder gar 16xS wäre ein Traum...leider gibt es das derzeit nur als Diashow bzw.ungenügend Bildraten. Aber vieleicht kann GT200 SLI es spielbar machen.

http://www.abload.de/thumb/crysis2008-05-0317-3h4k.png (http://www.abload.de/image.php?img=crysis2008-05-0317-3h4k.png)

sind 36FPS den Rest hat Fraps beim Drucken geklaut.
2xAA mit TSSAA und 16AF
Treiber ist natürlich der *74er wieder.

Ailuros
2008-05-04, 09:26:51
Ich bin nicht die geringste Ahnung ob "GF-Next" nun doch 10.1 unterstuetzt oder nicht. Wie man es auch verdreht ist es natuerlich nicht optimal wenn es nicht 10.1 unterstuetzen sollte.

CJ murmelte auf B3D dass NV dafuer die TMUs umkrempeln muesste, was zwar ausserordentlich merkwuerdig klingt, aber falls es stimmen sollte ist der Aufwand letztendes wahrscheinlich nicht so klein wie manche bisher dachten.

Was jetzt den unendlichen Crysis-Kaugummi betrifft: wenn ein Spiel unbedingt jegliche Form von Supersampling braucht damit man die unendliche Gruselei loswird, dann ist etwas am Spiel faul. Ich weiss dass ich fuer den Kommentar wahrscheinlich wieder gelyncht werde, aber ich hab meine eigenen Vorstellungen wie man die Resourcen eines Systems verschwenden koennte und auch was gute Bildqualitaet betrifft.

Unyu
2008-05-04, 09:31:33
2xAA mit TSSAA und 16AF
2xAA != 16xS :rolleyes:

Ailuros
2008-05-04, 09:51:41
2xAA != 16xS :rolleyes:

Ist zwar verdammt OT, aber 2xRGSS ist um einiges effektiver als 2xOGSS. Geht es jetzt nur um alpha Texturen dann ist der Abstand von 2xTSAA (2xRGSS) gar nicht mehr so gross im Vergleich zu (Vollbild) 4xOGSS.

Unyu
2008-05-04, 09:59:45
Mag sein, aber dieses Bild sieht einfach nur gruselig aus.
Ich kann mir schon vorstellen, wie es bei Bewegung flimmert...

Außerdem bei 16xS kann man doch auch TAA einwerfen. :confused:

robbitop
2008-05-04, 10:43:56
Was jetzt den unendlichen Crysis-Kaugummi betrifft: wenn ein Spiel unbedingt jegliche Form von Supersampling braucht damit man die unendliche Gruselei loswird, dann ist etwas am Spiel faul. Ich weiss dass ich fuer den Kommentar wahrscheinlich wieder gelyncht werde, aber ich hab meine eigenen Vorstellungen wie man die Resourcen eines Systems verschwenden koennte und auch was gute Bildqualitaet betrifft.
Crysis und AA ist das gleiche leidige Thema wie alle heutigen Spiele. MSAA geht nur mit irgendwelchen Hacks und darunter leidet die BQ.
Crysis nutzt einen Z-First-Pass. Und bedingt durch irgendwelche R2T Spielereien und den Z-First-Pass bekommt man nur einen gemittelten Z-Wert für alle MS-Samples pro Pixel. Dass das AA dann "falsch" aussieht, ist eine klare Konsequenz.
Und wie immer würde eine anständige D3D10.1 Implementation dem Spuk ein Ende bereiten. Bedingt durch die hohe Polygonanzahl und dem AA-Problem leidet Crysis natürlich besonders m Flimmern. Ich denke allerdings, dass die Polygonzahl von Crysis noch nicht das sinnvolle Ende der Fahnenstange ist. Noch zu viele Dinge sind noch blockig statt abgerundet.
Lieber sollten man an einem guten dynamischen LOD arbeiten, was von Frame zu Frame bsw nach Z-Wert stufenlos ein anderes LOD-Level für jedes Objekt generiert. So hätte man nicht mehr diese Flimmerprobleme, nichts würde im Hintergrund einfach so verschwinden oder einfach zu grob aussehen. Aber ein dynamisches LOD wäre vermutlich sau teuer, aber eine sinnvolle Möglichkeit. Nicht alles muss brutal durch massenweise Samples erschlagen werden. Oft ist gar nicht mehr genug "Pixel-Platz" für genug Kontrastabstufungen weit entfernter Objekte vorhanden. Dann flimmerts nämlich. Sind die Objekte dann weniger detailiert, flimmert's nicht mehr.
Achja und ich will funktionierendes TMAA für Crysis.

Inwiefern siehst du eigentlich eine Ressourcenverschwendung bei Crysis?
Content kann oftmals darüber hinwegtäuschen, was wirklich gerechnet werden muss. Hinzu kommt das Gesetz des sinkenden Grenzertrages, nachdem jede Verbesserung immer weniger sichtbar wird und jede gute Verbesserung immer teurer wird.
Wenn ich mir anschaue, was bei Crysis alles an aritmetischen Berechnungen allein im Renderteil anfällt, habe ich weniger die Ansicht, dass Crysis verschwendet.
Es ist einfach nur seiner Zeit voraus. Mit schönem Kontent und weniger Berechnungsaufwand bekommt man sicher auch schöne Dinge hin, die vieleicht 80% so gut aussehen. (wie auch immer man das quantisieren möchte)
Aber die letzten 20% erkauft man sich eben teuer. So ist das immer in Natur und Technik.

Ich persönlich bin auch mehr der Freund vom "billigen hinfaken" von Effekten. Das kostet weitaus weniger Rechenleistung und sieht dennoch gut aus. Bsp sind Max Payne 2 und Half Life 2.
Die bestechen mit Kontent und gut hingefakten Effekten. Aber wenn man genauer hinschaut, sieht man den Trug dann schon.

reunion
2008-05-04, 11:00:03
Zwar leicht OT, aber ich denke doch interessant.
Auch wenn er darin schon den Untergang von AMD prophezeit. Sehr ausführliches Interview mit Nvidias David Kirk über CUDA, CPUs und GPUs:
http://www.bit-tech.net/hardware/2008/04/30/david-kirk-interview/1

4711
2008-05-04, 11:02:43
so ist das da kannste reinknallen was Du willst,ich hatte schon 4x4 etc.ändern tut sich nix an der Qualli, und die FPS ändern sich auch nur bei "reinem" Mulisampling>unspielbar,aber am Aussehen tut sich dann genau sowenig.

Coda
2008-05-04, 14:38:21
CJ murmelte auf B3D dass NV dafuer die TMUs umkrempeln muesste, was zwar ausserordentlich merkwuerdig klingt, aber falls es stimmen sollte ist der Aufwand letztendes wahrscheinlich nicht so klein wie manche bisher dachten.
Wieso merkwürdig? Für Gather4 muss man auf jeden Fall was an den TMUs ändern.

so ist das da kannste reinknallen was Du willst,ich hatte schon 4x4 etc.ändern tut sich nix an der Qualli, und die FPS ändern sich auch nur bei "reinem" Mulisampling>unspielbar,aber am Aussehen tut sich dann genau sowenig.
D3D9 oder D3D10?

4711
2008-05-04, 16:51:02
ich muß mal neu installieren,hab zwar den Mod deinst.aber da kann was nicht stimmen,kann nicht sein das die GX2 Gurke hier ratzfatz 16xS laden tut :D die müßte sich da eigendlich totrödeln.
Also hier reagiert das Spiel überhaupt nicht auf zb.8xSQ weder in DX9 noch in DX10 weder im Aussehen noch in den FPS

Gast
2008-05-04, 22:10:08
Wieso merkwürdig? Für Gather4 muss man auf jeden Fall was an den TMUs ändern.
Könntest du das bitte erklären? Eine Bi-TMU sammelt doch eh vier Werte zum Filtern.

Coda
2008-05-05, 00:16:43
Naja, man muss es implementieren und deshalb die TMUs ändern. Ich habe ja nicht gesagt dass der Aufwand groß ist. Das kommt aber wiederrum drauf an wie die Dinger genau aufgebaut sind. Man muss eigentlich wirklich nur einen Bypass um die Filterlogik bauen.

Tarkin
2008-05-05, 17:42:45
http://forums.vr-zone.com/showthread.php?t=271801

55nm TSMC process
Single chip with "dual G92b like" cores
330-350mm2 die size
900M+ transistors
512-bit memory interface
32 ROP
192SP (24X8)
6+8 Pin
550~600W PSU min
9900GTX SLI runs Crysis 2560x1600 VH 4XAA smoothly
GDDR3 memories
10.5" long
Dual slot TM71 cooler from Coolermaster
TDP up to 240W
P651 PCB

LovesuckZ
2008-05-05, 17:49:44
Fake.
Aber die Zeichnung ist toll.

Adam D.
2008-05-05, 17:51:15
Hmm, wie kann das der GT200 sein? Allein schon der Prozess und die Größe des Dies widerspricht doch allen Spekulationen davor :|

Gosh
2008-05-05, 18:15:13
Fake.


Und warum,meine Oma kann auch Fake rufen ?

The_Silent_One
2008-05-05, 18:23:33
die zeichnung könnte durchaus stimmen :D

glaube auch, dass die specs nicht stimmen, wobei ich den zuvor gemeldeten specs auch nicht unbdingt trauen würde, weil nv es ja mit dem g80 geschafft hat, was vollkommen falsches an infos zu verbreiten...

crux2005
2008-05-05, 18:27:10
Und warum,meine Oma kann auch Fake rufen ?

wegen der die size

Gast
2008-05-05, 18:43:40
Und warum,meine Oma kann auch Fake rufen ?

Deine Oma könnte auch solch eine Liste anfertigen. ;)

Die gelbe Eule
2008-05-05, 18:43:44
Der G92 hat mit 65nm 754M Transis in 330mm², also sollten 900M Transis mit 55nm locker da reinpassen. Verhältnis passt bis auf 1% genau.

K4mPFwUr$t
2008-05-05, 19:15:02
bisher ging man doch meist von 65nm aus und nicht 55nm :|

mapel110
2008-05-05, 19:23:18
bisher ging man doch meist von 65nm aus und nicht 55nm :|
So wirds auch kommen. Das entspricht schließlich dem Vorgehen von nvidia in den letzten Jahren, mit dem sie sehr erfolgreich waren.

Die gelbe Eule
2008-05-05, 19:29:54
Gibt es denn soviel schlechtes über 55nm zu berichten? Da man ja den G92b auch in 55nm neu aufsetzt, hier aber schon mit Vorsicht bei der 9800Gt hantiert, sollte bei selktiven GT200 Chips 55nm kein Problem darstellen. Es wird natürlich viele wurmen das die Lieferbarkeit mal wieder mies sein wird, aber das Produkt wäre trotzdem am Markt. Was wohl die GT200 GTS kosten wird? ...

AnarchX
2008-05-05, 19:32:58
Da wurde doch nur wieder aus China abgeschrieben:
http://we.pcinlife.com/thread-928491-1-1.html
... und Edison gibt am Ende einen dezenten Hinweis.;)

Hvoralek
2008-05-05, 19:36:32
Hmm, wie kann das der GT200 sein? Allein schon der Prozess und die Größe des Dies widerspricht doch allen Spekulationen davor :|Anscheind hat Nvidia ja vor Kurzem ihre Codenamen wieder einmal durchgerührt. Dieses knapp 600 mm² große Ding, das wir hier als GT 200 kennen, erscheint wohl unter einer anderen Bezeichnung. Womöglich heißt jetzt etwas GT200, was vorher einen anderen Namen hatte :confused:

Dieses wäre eher ein geshrinkter und aufgebohrter G92. 32 ROPs, 8*3*Vec8- MADD+MUL und dann wohl 64 TMUs - Da bin ich bei nur etwa 900 Mio. Transistoren etwas skeptisch. Und bekommt man an einen 330- mm²- Chip überhaupt die Kontakte für ein 512- bit- SI dran?

Ich denke auch, wenn es so einen Chip geben und er bald erscheinen würde, hätte man davon schon einmal zumindest irgendetwas öffentlich gehört. Andererseits: Ist eigentlich sicher, dass G92b ein 1:1- Shrink ist?

Gast
2008-05-05, 19:37:34
Da wurde doch nur wieder aus China abgeschrieben:
http://we.pcinlife.com/thread-928491-1-1.html
... und Edison gibt am Ende einen dezenten Hinweis.;)

Auf deutsch?

Spasstiger
2008-05-05, 19:38:04
9900GTX SLI runs Crysis 2560x1600 VH 4XAA smoothly
Unwahrscheinlich mit "nur" 900 Mio. Transistoren und G92-like-Architektur.

AnarchX
2008-05-05, 19:39:11
Andererseits: Ist eigentlich sicher, dass G92b ein 1:1- Shrink ist?
Warum sollte NV sich mehr Aufwand machen, als G92 mal schnell optisch für eine B-Revision zu shrinken?

Die gelbe Eule
2008-05-05, 19:41:38
Wie weit ist NV eigentlich mit Dualchips oder setzt man weiterhin auf Dual PCB Package?

mrt
2008-05-05, 20:03:38
Man setzt weiterhin auf Singlechip High-End, nur für Zwischenlösungen gibts GX2 Karten und die werden wohl auf das bisherige Design setzen.

Die gelbe Eule
2008-05-05, 20:16:50
Es gibt ja auch Dualchip on Die.

mrt
2008-05-05, 20:20:08
Du meinst on package. Das würde sich für Nvidia kaum rentieren bei dem bisherigen Weg den sie gehen. Bei AMD gibt es ja auch nur die Bestrebungen, weil man keine Monsterdice mehr fertigen (lassen) will.

Hvoralek
2008-05-05, 22:21:24
Warum sollte NV sich mehr Aufwand machen, als G92 mal schnell optisch für eine B-Revision zu shrinken?Vlt. braucht man etwas Schnelleres. Wenn reunion richtig liegt und man durch einen Shrink keinen höheren Taktraten schaffen sollte, wird man es nicht mit RV770 aufnehmen können. Selbst "nur" 50% mehr als RV670 würde zumindest eine deutliche Taktsteigerung erfordern (es sei denn, man verwendet viel AF und zugleich wenig oder kein AA).

LovesuckZ
2008-05-05, 22:40:12
AMD erreicht jetzt 800MHz. nVidia ist offiziell noch bei 675. Warum sollte nVidia nicht mehr MHz erreichen?

Die gelbe Eule
2008-05-05, 22:44:13
Weil Nvidia nicht viel mehr braucht, ATi muss schon so hoch um die Texturleistung zu steigern.
700Mhz sollten aber fallen mit der GTX, reicht.

Gast
2008-05-05, 22:45:24
AMD erreicht jetzt 800MHz. nVidia ist offiziell noch bei 675. Warum sollte nVidia nicht mehr MHz erreichen?


Warum takten sie dann nicht auf 800mHz????

AnarchX
2008-05-05, 22:48:57
Wobei bei AMD der Schritt von 65nm auf 55nm nicht unbedingt viel gebracht hat.

Naja, mal sehen für was NV G92B verwenden wird, primär würde ich da doch den mobilen Einsatz für die 9800M und eine niedrigere BOM für die 9800GT.

Gast
2008-05-05, 22:49:01
Weil Nvidia nicht viel mehr braucht, ATi muss schon so hoch um die Texturleistung zu steigern.
700Mhz sollten aber fallen mit der GTX, reicht.



Selten einen so dermaßen bescheidenen Satz gelesen. Kein Hersteller der wirtschaftliche interessen verfolgt verzichtet auf fast kostenlose Leistungserhöhung.

K4mPFwUr$t
2008-05-05, 22:49:44
der yield zu liebe, die wenigsten werden wohl 800Mhz schaffen ohne den Vgpu wert stark zu erhöhen ;)

deekey777
2008-05-05, 22:49:47
Weil Nvidia nicht viel mehr braucht, ATi muss schon so hoch um die Texturleistung zu steigern.
700Mhz sollten aber fallen mit der GTX, reicht.
Abgesehen davon, dass die 9800GTX einen Shadertakt von 1675 MHz hat, braucht NV für bestimmte Taktdomains einen höheren Takt (zB um den Dreiecksdurchsatz zu erhöhen, obwohl sie eher hier das Problem fixen, der Dispatcher könnte auch schneller laufen etc).

Hvoralek
2008-05-05, 22:49:59
AMD erreicht jetzt 800MHz. nVidia ist offiziell noch bei 675. Warum sollte nVidia nicht mehr MHz erreichen?Weil untertschiedliche Architekturen sich unterschiedlich gut takten lassen. Solche Vergleiche sind nur innerhalb einer Architektur sinnvoll, und zwar bei möglichst ähnlichen Chips: AMDs 55- nm- Modelle takten nicht höher als baugleiche 65- nm- Chips. Da ist der Gedanke nicht fernliegend, dass Nvidia das auch nicht schaffen wird. Oder zumindest nicht den Mehrtakt, den sie für RV770 bräuchten.

AnarchX
2008-05-05, 22:58:08
Oder zumindest nicht den Mehrtakt, den sie für RV770 bräuchten.
Nur ist es momentan noch offen, ob NV überhaupt Mehrtakt benötigt, immerhin ist G92 bis zu 50% schneller als eine 3870 in praktischen Szenarien. Und RV770 in diesem Maß laut AMD wohl auch nur schneller.

LovesuckZ
2008-05-05, 23:14:48
Weil untertschiedliche Architekturen sich unterschiedlich gut takten lassen.

Da die 9800GTX Karten sich jedoch noch deutlich höher takten lassen und viele Partner mit mindesten 720MHz auf den Markt sind, sieht man doch sehr schön, dass noch Reserven vorhanden sind.

Nur ist es momentan noch offen, ob NV überhaupt Mehrtakt benötigt, immerhin ist G92 bis zu 50% schneller als eine 3870 in praktischen Szenarien. Und RV770 in diesem Maß laut AMD wohl auch nur schneller.

Gibt es dafür eine Quelle?

Gast
2008-05-06, 00:13:07
fuad und n haufen andere "kenner" ;) ich denke das ist auch realistisch, in vielen fällen wird sie damit sogar eine x2 schlagen!

Die gelbe Eule
2008-05-06, 00:22:28
Sie muss eine X2 schlagen, gerade weil diese eh unter 300€ ist.

MikBach
2008-05-06, 00:25:20
Nur ist es momentan noch offen, ob NV überhaupt Mehrtakt benötigt, immerhin ist G92 bis zu 50% schneller als eine 3870 in praktischen Szenarien. Und RV770 in diesem Maß laut AMD wohl auch nur schneller.
Ich bin zwar nicht der Speku-Spezialist, aber die 50% sollte der RV770 locker erreichen.
Mit Quallisettings (AA und AF) sollten auch 100% drin sein, wenn die bisherigen Specs so mehr oder weniger stimmen.
Der Engpass liegt ja bei den TMUs. Und hier wurde ja anscheinend gebessert.

Hvoralek
2008-05-06, 01:37:36
Da die 9800GTX Karten sich jedoch noch deutlich höher takten lassen und viele Partner mit mindesten 720MHz auf den Markt sind, sieht man doch sehr schön, dass noch Reserven vorhanden sind.Natürlich werden Reserven eingeplant. Was ist daran neu?

Coda
2008-05-06, 04:02:57
Es gibt ja auch Dualchip on Die.
Das haben wir schon seit der Riva TNT.

Gast
2008-05-06, 08:31:17
Vlt. braucht man etwas Schnelleres. Wenn reunion richtig liegt und man durch einen Shrink keinen höheren Taktraten schaffen sollte, wird man es nicht mit RV770 aufnehmen können. Selbst "nur" 50% mehr als RV670 würde zumindest eine deutliche Taktsteigerung erfordern (es sei denn, man verwendet viel AF und zugleich wenig oder kein AA).

Diese "Vermutung" kam nicht von ungefähr. TSMC gab bei der Vorstellung des 55nm Prozesses selbst bekannt das man damit 10-20% weniger Energieverbrauch "without any reduction in gate switching speed." erreicht. Diese Formulierung kam mir damals schon seltsam vor. Kein Wort von höheren Schaltgeschwindigkeiten. Die Unbekannte ist hier der 55nm-Performance-Prozess "CG" von TSMC. AMDs bisherige 55nm Chips setzen noch auf den alten GP Prozess.

Da die 9800GTX Karten sich jedoch noch deutlich höher takten lassen und viele Partner mit mindesten 720MHz auf den Markt sind, sieht man doch sehr schön, dass noch Reserven vorhanden sind.


3870-Karten bekomme ich auch mit 850Mhz von den Boardherstellern, das ist kein Argument. Reserven sind immer vorhanden.

reunion

GeneralHanno
2008-05-06, 08:37:03
ich denke tatsächlich, dass nvidia den G92 als referenz höher getaktet hätte, wenn Ati stärker gewesen wäre. aber ich denke 2 sachen sollten klar sein:
- niedrigere taktraten = bessere yield
- alle chips haben mind. 10% reserve -> es gibt immer OC karten zu kaufen ...

Gast
2008-05-06, 08:47:25
- niedrigere taktraten = bessere yield


Und wie kommst du darauf? Es gibt ohnehin immer auch niedriger getaktete Modelle mit denen man die Yields möglichst maximiert. Und selektieren muss man sowieso. Der einzige für mich zumindest ansatzweise nachvollziehbare Punkt wäre eine niedrigere Ausfallwahrscheinlichkeit dank niedrigerer Taktraten. Doch ob man dafür 10-20% Leistung und damit mindestens auch eben so viel Verkaufspreis opfert halte ich für arg fragwürdig.

reunion

Die gelbe Eule
2008-05-06, 15:12:12
Keiner weiß hier wirklich was ein Chip kostet, nur den bekommen die Hersteller. Man wird kaum eine GPU höhergetaktet bringen, um dann die komplette Karte wegen einem Ausfall tauschen zu müssen. Ob es bestimmte gute Wochen gibt wo GPUs gut gehen, wäre interessant herauszufinden.

LovesuckZ
2008-05-06, 15:43:07
3870-Karten bekomme ich auch mit 850Mhz von den Boardherstellern, das ist kein Argument. Reserven sind immer vorhanden.
reunion

Diese 9,7% gibt es bei der 8800GT von jedem Hersteller.
9,7% gibt es auch bei der 9800GTX von Herstellern. Es liegt massig Takt brach bei den G92 Karten.
Und nVidia plant bestimmt keine 125Mhz als Reserve ein.

Gast
2008-05-06, 15:54:34
Der Stromverbrauch steigt exponentiell mit Takt und Spannung.

Klar gibt es immer Reserven. Doch zu welchem Preis? Man muss einfach das richtige Mittelmaß zwischen Stromverbrauch und benötigter Leistung finden.

Coda
2008-05-06, 15:59:32
Und wie kommst du darauf?
Da gibt's nichts mit "darauf kommen". Das ist so. Man hat bei höheren Taktraten natürlich eine niedrigere Ausbeute weil sich weniger Chips dafür eignen.

mictasm
2008-05-06, 16:05:13
Natürlich immer auf den im Design geplanten Takt bezogen...

Gast
2008-05-06, 16:22:35
Da gibt's nichts mit "darauf kommen". Das ist so. Man hat bei höheren Taktraten natürlich eine niedrigere Ausbeute weil sich weniger Chips dafür eignen.

Na was du nicht sagst. Nur ist das doch völlig egal wenn ich eine 8800GT weiter mit 600Mhz verkaufen kann. Die 9800GTX könnte man mit mehr Takt jedenfalls deutlich hochpreisiger verkaufen. Und selektieren muss man sowieso. Ich sehe keinen Grund warum man sich das entgehen lassen sollte, wenn es denn möglich wäre.

reunion

K4mPFwUr$t
2008-05-06, 17:10:52
Der Stromverbrauch steigt exponentiell mit Takt und Spannung.

Klar gibt es immer Reserven. Doch zu welchem Preis? Man muss einfach das richtige Mittelmaß zwischen Stromverbrauch und benötigter Leistung finden.
falsch!

doppelter takt = x2 verlustleistung
doppelte voltage = x4 verlustleistung

Gast
2008-05-06, 17:35:46
falsch!

doppelter takt = x2 verlustleistung
doppelte voltage = x4 verlustleistung


Die Rechnung kannst du durch den hohen Anteil der Leckströme inzwischen knicken.

Coda
2008-05-06, 17:37:10
Dadurch wird es nur noch mehr. Der Takt hat auf die Leckströme auf jeden Fall keinen Einfluss.

AnarchX
2008-05-06, 17:59:48
NVIDIA 9900 series of graphics specifications

9900GTX 240SP 80TMU 32ROP 512MC 1G frequencies 625/1500/2200 6 +8 Pin (Recommended Power 550 W)

9900GTS 192SP 64TMU 28ROP 448MC 896M frequency 600/1500/2000
http://www.pczilla.net/BBS/LeaDBBS/a/a.asp?B=1&ID=491

GeneralHanno
2008-05-06, 18:08:58
http://www.pczilla.net/BBS/LeaDBBS/a/a.asp?B=1&ID=491

ich kenn die quelle zwar nicht, aber die daten an sich klingen sehr logisch ...

LovesuckZ
2008-05-06, 18:20:36
Hm, wieso sollte die GTX ein schlechteres Shaderratio haben als die GTS?

Odal
2008-05-06, 18:22:33
http://www.pczilla.net/BBS/LeaDBBS/a/a.asp?B=1&ID=491


die daten der GTX und GTS klingen etwas weit hergeholt

AnarchX
2008-05-06, 18:27:08
die daten der GTX und GTS klingen etwas weit hergeholt
In welchen Punkten?
Sicher sind sie in wenigen Punkten zweifelhaft, aber deutlich realistischer als Dual-Die-Spinnereien und ähnliches.:D

Die gelbe Eule
2008-05-06, 18:31:09
Die 9900GTS ist sehr Interessant, könnte sogar ein GTX SLi gefährden mit OC. Muss sie nur noch 300€ kosten ^^

GeneralHanno
2008-05-06, 18:42:20
über die taktraten wird sowieso erst später entschieden ;)

Gast
2008-05-06, 18:42:51
nur das sie knapp das doppelte kosten wird,lol 300 davon kannste träumen:)

Odal
2008-05-06, 18:49:32
In welchen Punkten?
Sicher sind sie in wenigen Punkten zweifelhaft, aber deutlich realistischer als Dual-Die-Spinnereien und ähnliches.:D

faktisch fast nen doppelter G92 88GTS mit ähnlichen taktraten
glaube ich mal nicht das das so unter einen hut zu bringen ist....

und selbst wenn dann wäre es bei einem nur "50%" schnelleren RV770 (im vergleich zum vorgänger) "etwas" overkill....selbst wenn da ne dual GPU karte von AMD kommt....

nvidia zeigt doch mit der bisherigen 9er serie das man schon irgendwie die kunden möglichst ausquetschen will.....(konkurenz ist nicht stark genug)

Nightspider
2008-05-06, 18:50:32
MC ist wohl das SI ... wofür steht MC ?

Die gelbe Eule
2008-05-06, 18:51:19
600€ für ne GTS? Dann müsste ja die GTX über 750€ kosten. Ich glaube kaum das man in diese Regionen möchte. Sollte wie angenommen die Karte in 55nm produziert werden und so in geringen Stückzahlen verkauft, ja dann würde ich mir eine Ultra für 750€ vorstellen können. Bis Juli wird die GX2 locker unter 350€ sinken und vielleicht sogar zum Kampfpreis abverkauft werden, wie bei den Vorgängern auch.

Gast
2008-05-06, 18:52:08
MC = Memory Controller?

K4mPFwUr$t
2008-05-06, 18:53:18
jup genau MC = memory controller

denke mal die GTX wird in den errsten tagen wieder richtig viel kosten, also bis 700€ und dann in den nächsten wochen nach dem launch auf 600€ fallen. mehr halte ich auf dauer für unrealistisch.

AnarchX
2008-05-06, 18:53:58
faktisch fast nen doppelter G92 88GTS mit ähnlichen taktraten
glaube ich mal nicht das das so unter einen hut zu bringen ist....

Naja, vergiss nicht das eine TDP von ~250W herumschwirrt.
Wie schon mal erwähnt ist es langsam für NV Zeit einen signifikanten Performance-Sprung zu machen und dass eben nicht allein für die GeForce-Produktfamilie.;)


MC = memory controller

Odal
2008-05-06, 18:59:10
ja und ein TDP von 250Watt halte ich für unrealistisch...

G80 und G92 waren schon stromfresser aber das sind ja regelrecht noch waisenknaben dagegen...

sowas muss leise und effizient kühlbar sein und auch mit einer typischen netzteilsituation zurechtkommen...ganz zu schweigen das man sich dann die luft für SLI spielerein und multi GPU karten nimmt

nv muss eben keinen signifikanten performancesprung machen leistung gibts seit dem G80 nur häppchenweise

und wenn sie an gewinnmaximierung interessiert sind (und das sind sie wohl) werden sie das beibehalten

Unyu
2008-05-06, 19:03:36
ja und ein TDP von 250Watt halte ich für unrealistisch...
R600 hat doch auch eine 250W TDP und verbraucht am Ende 160W.

Odal
2008-05-06, 19:15:25
R600 hat doch auch eine 250W TDP und verbraucht am Ende 160W.

der hatte ein TDP von 215Watt was aber auch schon jenseits von gut und böse war

dargo
2008-05-06, 23:31:51
nur das sie knapp das doppelte kosten wird,lol 300 davon kannste träumen:)
Unsinn, die GTS wird ohne den "schlechte_Verfügbarkeit_Händler_Aufschlag ;)" weit unter 400€ kosten.

Hvoralek
2008-05-06, 23:43:06
Unsinn, die GTS wird ohne den "schlechte_Verfügbarkeit_Händler_Aufschlag ;)" weit unter 400€ kosten.Sicher? GT200 ist ja nochmal ein Stück größer als G80, und eine G80- GTS lag afair lange bei etwa 350€.

Die gelbe Eule
2008-05-06, 23:49:21
Von der es aber extra zwei Versionen gab. Es kommt noch darauf an wann das Tapeout war und wie der Prozees für NV läuft, dann könnten zumindest von der GTS viele abfallen.

dargo
2008-05-06, 23:58:11
Sicher? GT200 ist ja nochmal ein Stück größer als G80, und eine G80- GTS lag afair lange bei etwa 350€.
Nun, von den Daten her (Link von AnarchX) würde ich jetzt davon ausgehen, dass die G9900GTS in etwa die Leistung einer G9800GX2 bringt (natürlich ohne die Nachteile von SLI und den zu kleinen Vram). Als SLI-Effizienz nehme ich einfach mal 85% im Durchschnitt.
Eigendlich müsste die neue GTS etwas langsamer sein, ich habe da aber noch Ails Behauptung im Hinterkopf - der GT200 sieht auf dem ersten Blick nicht nach einem "Monster" aus, aber auf den zweiten. Ich würde also hier davon ausgehen, dass die Effizienz etwas zugenommen hat.

War beim G80 der Dollar so schwach wie heute?

Das einzige was mich etwas irritiert ist - sollten die Daten wirklich stimmen ist die GTS Einiges weniger "kastriert" als es noch der Fall beim G80 war. Danach richtet sich natürlich auch der Preis.

Die gelbe Eule
2008-05-07, 00:34:41
Aufgrund des fast gleichen Taktes und nur etwas geringeren Anzahl an Shadern/TMUs/ROPs, dürfte sie durch das bessere Speicherinterface, dem größeren physikalischen RAM sowie dem Vorteil gegenüber der SLi Effizienz leicht darüber liegen. 400€ für ne GTS sind dann fair, die GX2 ist dann wohl bei 350€ angelangt.

Coda
2008-05-07, 00:41:01
der GT200 sieht auf dem ersten Blick nicht nach einem "Monster" aus, aber auf den zweiten.
Fast 600mm². Ich sag's immer wieder. Falls das stimmt ist das der größte Consumer-Chip der Geschichte.

NVIDIA muss dazu einen sehr guten Grund haben.

Die gelbe Eule
2008-05-07, 00:46:46
Kann man da mit 55nm nicht 2 Cores unterbringen?

MikBach
2008-05-07, 00:56:45
Fast 600mm². Ich sag's immer wieder. Falls das stimmt ist das der größte Consumer-Chip der Geschichte.

NVIDIA muss dazu einen sehr guten Grund haben.
Und der wäre?
Außer Dual GPU?

Coda
2008-05-07, 01:00:09
Performance? Ganz einfach.

Kann man da mit 55nm nicht 2 Cores unterbringen?
Was wollte ihr immer mit euren 2 Cores? Das ergibt einfach keinen Sinn. Alle GPUs sind inherent Multi-Core. Schon immer.

Slipknot79
2008-05-07, 01:04:13
>War beim G80 der Dollar so schwach wie heute?

Nein, laut meinen USA-Modellbaubestellungen :rolleyes: vom 29.10.06 und 29.11.06 lag der € bei 1,2523762$ bzw. 1,2998020$

MikBach
2008-05-07, 01:13:01
Performance? Ganz einfach.


Was wollte ihr immer mit euren 2 Cores? Das ergibt einfach keinen Sinn. Alle GPUs sind inherent Multi-Core. Schon immer.
Das beantwortet in keinster Weise meine Frage.
Die Cores sind mir egal, es geht mir um 2 physikalisch vorhandene GPUs.

Die gelbe Eule
2008-05-07, 02:09:43
Ich denke auch das 2 physikalische Cores einfacher herzustellen sind, als ein komplexes 600mm² Viech. Man würde ja auf einem Wafer nur die Hälfte herausbekommen und wenn da der Yield beschissen ist ...

Coda
2008-05-07, 02:35:23
Kann man da mit 55nm nicht 2 Cores unterbringen?
Das beantwortet in keinster Weise meine Frage.
Die Cores sind mir egal, es geht mir um 2 physikalisch vorhandene GPUs.
Dann wäre nicht 575mm² durchgesickert, sondern 2x300 oder ähnliches. Das Ding wird mit ziemlicher Sicherheit ein Chip.

=Floi=
2008-05-07, 03:57:51
575mm² wären übrigens fast 24mmX24mm kantenlänge.
Der G80 und der G92 sind auch nicht gerade unkomplex und klein und trotzdem preiswert und massenhaft herzustellen. Ich möchte auch nochmal an eine 7950gx2 für 150€ erinnern.

Odal
2008-05-07, 08:12:57
Performance? Ganz einfach.


die frage lautet dann aber warum?

[] der gt200 ist generell ein ziemlicher rohrkrepierer von der effezienz her und muß so "breit" sein

[] nvidia weiß mehr als wir und der Rv770 und die multigpu lösung wird einfach eine extrem harte nuss

[] nvidia will ati/amd endgültig den rest auf dem gpu markt geben (Kartellbehörde?)


Was wollte ihr immer mit euren 2 Cores? Das ergibt einfach keinen Sinn. Alle GPUs sind inherent Multi-Core. Schon immer.

ich denke mal sie meinen keine pixelpipelines, streamprozessoren oder anderweitig geklonte gpu"teile" sondern eine komplett geklonte gpu ohne das noch etwas drangestrickt ist

AnarchX
2008-05-07, 08:21:13
die frage lautet dann aber warum?


Weil GT200 schon seit langem geplant ist, vielleicht auch als Gegner gegen den ursprünglichen R700, der sich zusammen mit dem 45nm Prozess verschob.

Laut deiner Argumentation wäre die 8800 GTX ebenso sinnlos gewesen für NV, aber trotzdem kam sie auf den Markt.

Aber wie schon gesagt gibt es nicht nur GeForce, sondern auch andere Märkte wie Tesla, wo schon seit längerem eine 1 TFLOP GPU versprochen ist, die auch unter DP noch entsprechenden Durchsatz haben soll.

Gast
2008-05-07, 08:24:55
575mm² wären übrigens fast 24mmX24mm kantenlänge.

Ich verstehe ohnehin nicht wie das noch profitabel sein kann. Selbst bei sehr guten Yieldraten um die 80% (was bei einem solchen Monster vermutlich eh unrealistisch ist) bekommt man damit aus einer 300mm Wafer kaum mehr als 60 funktionierende Chips heraus. Eine 300mm 65nm Wafer bei TSMC kostet laut Arnu AFAIK um die 10.000$. Damit würden nur die Produktionskosten pro Die mindestens bei 166$ liegen.


Der G80 und der G92 sind auch nicht gerade unkomplex und klein und trotzdem preiswert und massenhaft herzustellen.

G80 war aber auch alles andere als billig. Erst jetzt wo er abverkauft wird sinkt der Preis natürlich rapide. G92-Karten sind für ihr Die von immerhin 324mm² allerdings tatsächlich verdammt günstig zu kaufen.

Ich möchte auch nochmal an eine 7950gx2 für 150€ erinnern.

Die 7950GX2 ist geradezu lachhaft klein selbst im Vergleich zu einem G80.

reunion

GeneralHanno
2008-05-07, 10:35:19
wenn man die entwicklungskosten zu den fertigungskosten hinzurechnet, dann merkt man schnell, dass high-end chips nicht besonders profitabel sind (erst nach längerer zeit).

sie dienen (wie schon der G80, G70) dazu, ein gutes image für die kleineren mainstream und entry chips zu schaffen, weil man da die dicke kohle machen kann ...

außerdem spekuliere ich mal, dass der Gt200 relativ lange am markt bleiben wird und vll erst 2 jahre später von einem "echten" neuen high-end chip abgelöst wird (so wie beim G80). daher muss der GT200 auch noch "reserven" für AMDs R700 und R800 haben ...

€dit: die yield erhöht man durch den verkauf der GTS versionen, die in allen möglichen "problemfeldern" beschnitten sind: rops/mc, shader+TUs, takt ...

mapel110
2008-05-07, 10:39:12
Ich möchte auch nochmal an eine 7950gx2 für 150€ erinnern.
Das war ein Abverkauf von Altmetall und nicht "preiswert hergestellt".

Gast
2008-05-07, 10:47:24
http://www.hartware.de/news_44725.html

dargo
2008-05-07, 10:53:32
Fast 600mm². Ich sag's immer wieder. Falls das stimmt ist das der größte Consumer-Chip der Geschichte.

NVIDIA muss dazu einen sehr guten Grund haben.
Ja, mit Monster meinte ich eigendlich die Leistung und nicht die Die-Size, deswegen auch die "".

Was mich mal interessieren würde - fallen eigendlich die Preise der Wafer mit der Zeit oder sind die relaiv konstant?

http://www.hartware.de/news_44725.html
Die haben auch nur alles abgeschrieben. Bei 900 Mio. Transistoren wäre das Ding niemals knapp 600mm" groß.

Odal
2008-05-07, 11:00:59
http://www.hartware.de/news_44725.html


Rund 900 Millionen Transistoren und 32 ROPs sind weitere vermeintliche Daten der kommenden GeForce. Beeindruckend ist auch die angepriesene Leistung: Crysis soll mit zwei 9900 GTX in 2560x1600 im "very high"-Modus und vierfacher Kantenglättung flüssig spielbar sein. Die Leistungsaufnahme der 9900 GTX soll bei stolzen 240 Watt liegen.

das glauben die doch wohl selbst nicht....

a) wären 2G92 mehr als 900Mio Transistoren
b) würden die nicht reichen um Crysis in 2560x1600 very high und 4xAA flüssig zu spielen
c) 240 watt lol

Neo4096
2008-05-07, 11:05:25
Jetzt wird mir auch klar, warum Nvidia Hybrid Power entwickelt hat. Wenn der GT200 240W unter Volllast zieht wird es Idle wohl auch einen neuen Rekordwert geben. Da kommt ihnen Hybrid Power gerade recht.

dargo
2008-05-07, 11:09:06
c) 240 watt lol
So "lol" klingt das gar nicht. Ich könnte mir sogar vorstellen, dass dies die einzige Wahrheit ist. Die 240W sind natürlich TDP.

Gast
2008-05-07, 11:17:44
Der GT200 wird genauso eine Dual-GPU-Lösung wie der R700. Ich würde sagen, er besteht aus zwei G92b-Cores auf einem Chip ähnlich wie bei Intels Quadcore-CPUs.

K4mPFwUr$t
2008-05-07, 11:21:42
der GT200 wird ein single chip, der R700 dagegen setz sich aus zwei RV770 zusammen.

Gast
2008-05-07, 11:33:10
der GT200 wird ein single chip, der R700 dagegen setz sich aus zwei RV770 zusammen.

Wohl eher nicht.

http://www.hartware.de/news_44725.html

dargo
2008-05-07, 11:36:00
Wohl eher nicht.

http://www.hartware.de/news_44725.html
Wie oft willst du noch diesen Quatsch verlinken?

Gast
2008-05-07, 11:38:43
Das ist kein Quatsch, ihr werdet schon sehen.

Gast
2008-05-07, 11:43:15
die frage lautet dann aber warum?

[] der gt200 ist generell ein ziemlicher rohrkrepierer von der effezienz her und muß so "breit" sein


Von Effizienz kann man bei nV sprechen, nicht bei ATI ^^
Denk daran, dass die ALUs eine sehr hohe Auslastung haben, und ihre theoretische maximale Rechenleistung in ca. 90% der Fälle erreichen.
Beim roten Banner ist da noch sehr viel Aufholbedarf, denn die theoretische maximale Rechenleistung wird hier quasi nie erreicht werden mit dem Design, da die Auslastung misserabel im vgl. ist.

Gast
2008-05-07, 11:45:13
Die haben auch nur alles abgeschrieben. Bei 900 Mio. Transistoren wäre das Ding niemals knapp 600mm" groß.

Alle Angaben unter 1Mrd. Transistoren sind Humbug, da GT200 breiter von der Architektur her ist als G80.

Hvoralek
2008-05-07, 11:47:15
Wie oft willst du noch diesen Quatsch verlinken?Ich möchte noch einmal daran erinnern, dass Nvidia ihre Codenamen wieder einmal durchgerührt haben soll. Dieses 600- mm²- Ding, um das es hier geht (und das sich für eine GX2 schon allein durch den Stromverbrauch disqualifizieren dürfte; eine Platine mit 500W TDP möchte sicher niemand), wird wohl nicht als "GT200" erscheinen. Dafür vlt. etwas anderes.

Odal
2008-05-07, 11:53:28
Von Effizienz kann man bei nV sprechen, nicht bei ATI ^^
Denk daran, dass die ALUs eine sehr hohe Auslastung haben, und ihre theoretische maximale Rechenleistung in ca. 90% der Fälle erreichen.
Beim roten Banner ist da noch sehr viel Aufholbedarf, denn die theoretische maximale Rechenleistung wird hier quasi nie erreicht werden mit dem Design, da die Auslastung misserabel im vgl. ist.


moment das liegt aber nicht an einer "schlechten" architektur sondern eher an einer "zukunftsarchitektur" die alu leistung wird noch nicht in dem maße gefordert wie sie vorhanden wäre...deswegen limitiert texturleistung
aber die zeit bleibt nicht stehen....

Man kann einmal argumentieren das das Design miserabel ist oder das die entsprechende Software noch nicht da ist.

Die gelbe Eule
2008-05-07, 11:59:07
GT200 wäre auch ein zu hoher Sprung von G9x. Irgendwas mit G100 ist wohl angebrachter.

Hvoralek
2008-05-07, 12:11:02
GT200 wäre auch ein zu hoher Sprung von G9x. Irgendwas mit G100 ist wohl angebrachter.Der ursprüngliche G100 ist/ war wohl der erste D3D11- Chip. Warum man den Zwischenschieben dann G(T)200 nennt/ nannte, weiß man wohl höchstens bei Nvidia.

Mal sehen, vlt. gibt es ja auch mal wieder ein komplett neues Namensschema. Wäre dann ja erst das vierte in drei Jahren :rolleyes:

K4mPFwUr$t
2008-05-07, 12:20:36
@Die gelbe Eule
seit wann sagt der codename was über die leistung aus?
hat der G98 auch mehr leistung als ein G92?

der GT200 ist eindeutig eine zwischenlösung, es werden wohl noch weitere folgen bis DX11 bereit steht.

dargo
2008-05-07, 12:21:05
Ich möchte noch einmal daran erinnern, dass Nvidia ihre Codenamen wieder einmal durchgerührt haben soll. Dieses 600- mm²- Ding, um das es hier geht (und das sich für eine GX2 schon allein durch den Stromverbrauch disqualifizieren dürfte; eine Platine mit 500W TDP möchte sicher niemand), wird wohl nicht als "GT200" erscheinen. Dafür vlt. etwas anderes.
Ich frage mich gerade was da noch zwischen den GT200 bzw. das erwartete Monster und den G92b passt? Kommt da etwa doch noch ein "Mittelding" in sogar 55nm?

Die gelbe Eule
2008-05-07, 12:22:46
Eine 9800 gibt es ja, platz nach oben für eine 9900 wäre möglich, aber wenn das Teil irgendwie Next Gen ist, auch sinnfrei.
Doch schaut man sich den Terminus an 5800>5900, 6800>nichts, 7800>7900, 8800>nichts, passt es perfekt.

Odal
2008-05-07, 12:29:15
Ich frage mich gerade was da noch zwischen den GT200 bzw. das erwartete Monster und den G92b passt? Kommt da etwa doch noch ein "Mittelding" in sogar 55nm?


selbst wenn der GT200 praktisch ein verdoppelter G92 wäre (was ich nicht glaube) und der G92b ein G92 in 55nm und gesteigerter taktrate
so wird im "potentiellen" fall des GT200 dieser sicher niedriger getaktet sein (ausbaute,spannungssenkung->verbrauch+abwärme) somit ist die luft gar nicht soooo groß

das Highend Segment krankt doch eher daran das sich alles recht dicht drängt.....

zwischen 88gts 512 und 98gtx liegt praktisch nicht viel unterschied
zwischen 88gt und 88gts liegt kein großer unterschied
und die 88ultra setzt sich von der 88gts auch nicht soooo weit ab

wirklich high end kaufen derzeit doch derzeit nur freaks
alle anderen schlagen bei produkten von 130-170€ zu und sind nicht so weit weg von der spitze

sollte mal wieder wirklich was einschlagen was sich gut vom rest absetzen kann wird der ein oder andere da sicher eher bereit sein was locker zu machen

auch wenn er dafür etwas in die tasche greifen muß

dargo
2008-05-07, 12:32:24
das Highend Segment krankt doch eher daran das sich alles recht dicht drängt.....

zwischen 88gts 512 und 98gtx liegt praktisch nicht viel unterschied
zwischen 88gt und 88gts liegt kein großer unterschied
und die 88ultra setzt sich von der 88gts auch nicht soooo weit ab

wirklich high end kaufen derzeit doch derzeit nur freaks

Das letzte mir bekannte High-End wurde ab November 2006 ausgeliefert.

Odal
2008-05-07, 12:42:11
die 88ultra gabs vor nem jahr..ist die kein highend?
die 88gtx wurde dann letzten herbst durch die 88GT und 88GTS weitesgehend ersetzt (billiger zu produzieren fast ähnliche leistung bei normalen einstellungen)
da es noch nix wirklich besseres gibt ist das alles noch highend
zumindest war das so bis zum erscheinen der GX2 deren daten auf dem papier ja durchaus gut sind (die nachteile kennt halt nicht jeder)
aufgrund der nachteile von multi GPU karten lass ich in meiner betrachtung diese erstmal immer aussen vor

Highend definiert doch lediglich eine bestimmte Leistungsklasse und nicht ein spezifisches Produkt...wenn bestimmte Produkte durch änlich leistungsfähige aber billiger zu fertigende (und zu kaufende) ersetzt wird sind diese dennoch im highend bereich

das wir nur häppchenweise bedeint werden liegt eben an der abzockmentalität von großen unternehmen
die wollen natürlich möglichst kasse machen
solang es so funktioniert werden die das auch nicht ändern....

nur derzeit haben sie sich selbst zuviel konkurenz im mittelpreisbereich gemacht...aber das können sie sich leisten weil das GPU design keine Entwicklungskosten mehr erwirtschaften muß und nur noch recycled wird

Hvoralek
2008-05-07, 12:43:00
Ich frage mich gerade was da noch zwischen den GT200 bzw. das erwartete Monster und den G92b passt? Kommt da etwa doch noch ein "Mittelding" in sogar 55nm?Wenn der am stärksten abgespeckte GT200 tatsächlich nur etwa 15 - 20% hinter dem High- End- Modell liegt (8 statt 10 Cluster und 7 statt 8 ROP- Blöcke bei fast gleichen Taktraten) und das wiederunm die Erwartungen erfüllen kann, also mindestens doppelte G80- Leistung (nicht G80- SLI!) liefert, müsste die GTS zumindest etwa 1,7- fache G80- Leistung liefern. G92b wird wohl ungefähr G80- Leistung liefern, da würde dann also eine ziemliche Lücke klaffen. Ich denke schon, dass man noch irgendetwas dazwischensetzen wird, sei es nun eine GT200- GT, eine G92b- GX2 oder einen eigenen Performancechip [Das ist G92b 9 Monate nach G92 und RV670 nicht mehr], was wirklich ein etwas verbreiterter G92b sein könnte. Das würde dann in Nvidias letztes Namensschema ganz gut passen mit dem Ding als "D10P", GT200 als "D10E" und G92b als "D10M".

Winter[Raven]
2008-05-07, 15:10:13
moment das liegt aber nicht an einer "schlechten" architektur sondern eher an einer "zukunftsarchitektur" die alu leistung wird noch nicht in dem maße gefordert wie sie vorhanden wäre...deswegen limitiert texturleistung
aber die zeit bleibt nicht stehen....

Man kann einmal argumentieren das das Design miserabel ist oder das die entsprechende Software noch nicht da ist.

Sorry, aber dieses Argument zieht nicht. Was hat es ATI bis jetzt gebracht eine "zukunftsarchitektur" zu haben?

Zu dem Zeitpunkt wo die neuen Techniken zum Einsatz kommen ist Nvidia mit dem >= Featurepack dabei, ist schneller und preiswerter.

Coda
2008-05-07, 15:22:27
ich denke mal sie meinen keine pixelpipelines, streamprozessoren oder anderweitig geklonte gpu"teile" sondern eine komplett geklonte gpu ohne das noch etwas drangestrickt ist
Das macht man ganz sicher nicht aus einem einzigen Die. Ergibt absolut überhaupt keinen Sinn.

Man würde sich damit sämtliche Fertigungsprobleme eines einzigen riesigen Chips mit keinen Vorteilen ggü. zwei Chips einhandeln.

moment das liegt aber nicht an einer "schlechten" architektur sondern eher an einer "zukunftsarchitektur" die alu leistung wird noch nicht in dem maße gefordert wie sie vorhanden wäre...
Wie oft wollt ihr das Märchen noch wiederholen? R6xx hat effektiv keine höhere ALU-Leistung als eine vergleichbare G8x-Karte.

Und ja, die 240W TDP kommen bei der vorraussichtlichen Größe und 65nm sehr gut hin. Das hat eine GX2 aber auch schon.

Gast
2008-05-07, 16:43:23
moment das liegt aber nicht an einer "schlechten" architektur sondern eher an einer "zukunftsarchitektur" die alu leistung wird noch nicht in dem maße gefordert wie sie vorhanden wäre...

Das ist Quatsch, denn es liegt an der Architektur. Die Vec5 ALUs können keine voneinander abhängigen Operationen verarbeiten, im worst-case arbeiten alle ALUs nur skalar, also mit einem fünftel ihrer Rechenkraft. Und das ist architekturbedingt!

deekey777
2008-05-07, 16:45:46
http://www.nordichardware.com/news,7712.html

Die 240 SPs, 32 ROPs und 512bit-SI werden wahrscheinlicher und wahrscheinlicher.

Das ist Quatsch, denn es liegt an der Architektur. Die Vec5 ALUs können keine voneinander abhängigen Operationen verarbeiten, im worst-case arbeiten alle ALUs nur skalar, also mit einem fünftel ihrer Rechenkraft. Und das ist architekturbedingt!

Das sind keine Vec5-ALUs.

GeneralHanno
2008-05-07, 16:54:52
http://www.nordichardware.com/news,7712.html

Die 240 SPs, 32 ROPs und 512bit-SI werden wahrscheinlicher und wahrscheinlicher.

das sind bisher auch die "stimmigsten" gerüchte, und mit knapp 600mm² diesize passt das auch ...

Gast
2008-05-07, 16:59:49
Das sind keine Vec5-ALUs.

Was denn sonst?

Der_Korken
2008-05-07, 17:01:32
Was denn sonst?

Vec1+1+1+1+1-ALUs

GeneralHanno
2008-05-07, 17:12:17
die diskussion, was die ALUs des R600 können /bzw nicht können haben wir doch schon 100 mal gehabt ...

hinweis am rande: wir sind hier im GT200 thread ...

The_Silent_One
2008-05-07, 17:12:47
waren das nicht vec4+1 alus?

aber ist wieder weit OT...