PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : [1] 2 3 4 5 6 7 8

DrumDub
2008-05-15, 14:39:44
GT200 - Zusammenfassung aktueller Gerüchte/Spekulationen:

GPU-Codename: GT200, teilweise auch G100
Fertigungsprozess: 65nm
Die-Size: 575mm²
Transitorenanzahl: >1Mrd. (laut NV (http://www.golem.de/0804/58955.html))

GPU-Aufbau:
- 512-Bit, 32 (?) ROPs
- 10 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten (Fähigkeiten noch unbekannt) -> 80 TMUs, 240SPs(Bestätigung? (http://www.marketwatch.com/news/story/nvidias-picture-brighter-stock-price/story.aspx?guid=%7BB82E0D80-25BB-49F2-9BE3-A50EFD3E8CEC%7D))

mögliches PCB-Design:
http://img232.imageshack.us/img232/5411/9900gtxside48db423adh7.jpg (http://imageshack.us)
http://www.vr-zone.com/articles/GeForce_9900_GTX_Card_Design_Exposed/5763.html
STEP-File zum selber anschauen: http://www.mediafire.com/?gem3dcyjd9y

möglicher Kühler:
http://img232.imageshack.us/img232/2015/129478612vohbe6.jpg (http://imageshack.us)
http://diy.pconline.com.cn/graphics/news/0805/1294786.html

SKUs:
- intern D10U-300 und -200
- Handelname: GeForce GTX 280 und 260 (http://www.hkepc.com/?id=1165&fs=c1n) (engl. (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html))
- GTX 280: 240W TDP, 1GiB GDDR3
- GTX 260: 896MiB GDDR3/28ROPs, weitere Deaktivierung wie 192SPs/64TMUs sehr wahrscheinlich
- Launch: 18 Juni 2008 (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html)

spekulierte Leistung:
- flüssige Darstellung von Crysis in 2560x1600 Very High 4xAA (http://we.pcinlife.com/thread-926798-1-1.html) durch ein GT200 (GTX 280?) SLI ( ~ 3-fache 8800 GTX Leistung)
- QX9650 OC + GT200 soll mehr als 13.000 Punkte in 3DMark Vantage unter Performance (http://we.pcinlife.com/thread-933395-1-1.html)(1280x1024 1xAA/AF) erzielen (~ etwas über 8800 GTX SLI Leistung)
(Anmerkung: PHK ist bekannt für zutreffende Leaks seit einigen Jahren.)

Zusammenfassung der Spekus vom User AnarchX, 15.05.08: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6503768#post6503768

MEDIC-on-DUTY
2008-05-15, 14:43:45
Dank an DrumDub für Teil 3.

Kurzer Anknüpf-Wiederholungs-Post:


Wenn beide GTX heißen sollen, dann fehlen ja noch GTS Versionen.


Evtl. wird es Aufgrund der neuen Namesgebung keine GTS mehr geben, sondern nur noch eine GT Serie, was durchaus Sinn machen würde. Zurück zu klaren Linien ohne GS, GTO, GTS usw. Zähler sind innerhalb einer Klasse einfacher zu differenzieren als für jede Karte eine eigene Klasse zu schaffen.

Nur dürfte die kleine GTX mehr Bumbs haben als so manche Topkarte von ATI. "Spekulation ;)*

Hvoralek
2008-05-15, 14:48:51
Evtl. wird es Aufgrund der neuen Namesgebung keine GTS mehr geben, sondern nur noch eine GT Serie, was durchaus Sinn machen würde. Zurück zu klaren Linien ohne GS, GTO, GTS usw. Zähler sind innerhalb einer Klasse einfacher zu differenzieren als für jede Karte eine eigene Klasse zu schaffen.Wie soll das dann aussehen? GTX2xx --> High- End (GT200)
GTX1xx --> Performance (G92b)
GT2xx --> Mainstream (G94[b?])
GT1xx--> Value (G98)

:|

Adam D.
2008-05-15, 14:50:04
Wieso? Jedenfalls ein Schritt in Richtung mehr Klarheit, als was wir jetzt bei NV haben.

Die "2" soll wohl darauf hindeuten, dass es die 2. Generation US-Architektur von Nvidia ist.
Find ich absolut nicht. GTX 280 und 260 wirkt irgendwie überhaupt nicht auf mich. Und was wird dann mit den Performance-, MidRange- und Lowcost-Produkten? Kriegen die ein GTS und GT davor gesetzt?

AnarchX
2008-05-15, 14:51:21
@Hvoralek
Naja, G9x gehört nicht zur 2nd Gen US-Architektur. ;)

Im Endeffekt wird wohl die GeForce 9 Serie erst 2009 völlig ersetzt werden.

Bei Value könnte ich mir eher GeForce GS vorstellen.

Find ich absolut nicht. GTX 280 und 260 wirkt irgendwie überhaupt nicht auf mich. Und was wird dann mit den Performance-, MidRange- und Lowcost-Produkten? Kriegen die ein GTS und GT davor gesetzt?
9900 GTX/GTS hättest du wohl für GT200 besser befunden?

Sorkalm
2008-05-15, 14:51:45
Vielleicht ist auch GTX die Serie, so dass jetzt alles aus der 10. Generation das GTX als Kürzel bekommen...

MEDIC-on-DUTY
2008-05-15, 14:54:26
Wie soll das dann aussehen? GTX2xx --> High- End (GT200)
GTX1xx --> Performance (G92b)
GT2xx --> Mainstream (G94[b?])
GT1xx--> Value (G98)

:|

So oder so ähnlich:

Enthusiast
GX2 (neu)
GTX 280

Performance:
GTX 260
GT 180

Midrange:
GT 160
GT 140
Lowend:
GT 120

usw.

Adam D.
2008-05-15, 14:55:30
9900 GTX/GTS hättest du wohl für GT200 besser befunden?
Hab ich doch gar nicht gesagt, ich hab vor ein paar Seiten schon mal geschrieben, dass eine Einordnung des GT200 ins aktuelle Schema völlig absurd wäre. Nur finde ich diese neue Lösung eben nicht befriedigend.

AnarchX
2008-05-15, 14:55:45
Vielleicht ist auch GTX die Serie, so dass jetzt alles aus der 10. Generation das GTX als Kürzel bekommen...

GTX für jeden! ;D

Mag ich nicht glauben, es wird wohl eher so aussehen:

GeForce 'Leistungsklasse' 'US-Generation''Leistungsindikator'

Bei letzerem wird wohl die "80" exklusiv für die GTX-Serie sein und bei GT? und GS? wird es wohl nur 60 und 40 geben, wie es schonmal die alte Bezeichnungsspeku angedeutet hat.

Hab ich doch gar nicht gesagt, ich hab vor ein paar Seiten schon mal geschrieben, dass eine Einordnung des GT200 ins aktuelle Schema völlig absurd wäre. Nur finde ich diese neue Lösung eben nicht befriedigend.
Aber was wäre ein besseres Bezeichnungsschema?

Hvoralek
2008-05-15, 14:58:55
Naja, G9x gehört nicht zur 2nd Gen US-Architektur. ;)

Im Endeffekt wird wohl die GeForce 9 Serie erst 2009 völlig ersetzt werden.

Bei Value könnte ich mir eher GeForce GS vorstellen.D.h. also, erst einmal gibt es dieses neue Namensschema parallel zum alten? Und wird das dann nur für diese eine Generation verwendet, oder könnte z.B. G100 dann als "GTX 3xx/ 4xx" o.ä. auftauchen?

Wenn das so weiter geht, ist bald allein schon Nvidias Namensgebung ein Boykottgrund :D

AnarchX
2008-05-15, 15:00:55
D.h. also, erst einmal gibt es dieses neue Namensschema parallel zum alten? Und wird das dann nur für diese eine Generation verwendet, oder könnte z.B. G100 dann als "GTX 3xx/ 4xx" o.ä. auftauchen?


Oder NV benennt die aktuellen Karten eben in GeForce ... 1xx um.;)

Adam D.
2008-05-15, 15:02:39
Aber was wäre ein besseres Bezeichnungsschema?
Schwer zu sagen, wenn sie so Dinge wie GSO und GTO endlich mal rausnehmen würden, wäre Geforce T ("Ten") >XX< z.B. eine Lösung. Klingt zwar 'n bissl nach 'nem Roboter, aber so könnte man zumindest das alte Schema, an das man sich ja gewohnt hat, teils beibehalten. Die Frage ist nur, ob "T" aussagekräftig genug wäre. "X" kann man schlecht verwenden.

Nur die Vorstellung, dass eine "Kack-Karte" irgendwann Geforce GT140 heißt ... also ich weiß ja nicht :|

Die gelbe Eule
2008-05-15, 15:08:09
Ist denn der Name so wichtig, wenn die Leistung stimmt? Ein Auto das Königsei CCC heißt, würde demnach auch keiner kaufen ;)

Hvoralek
2008-05-15, 15:14:50
Oder NV benennt die aktuellen Karten eben in GeForce ... 1xx um.;)Ah ja, das wäre plausibel. Dann könnte man das Schema zumindest einige Zeit beibehalten. Wenn sie sich dann noch endlich mal für eine Chipnamensgebung entscheiden könnten, wäre ja alles in Butter :wink:

Don Vito
2008-05-15, 15:22:53
Nvidia has dared to make a drastic move in its naming convention. According to several sources close to the company, the new flagship chip codenamed GT200 and D10U-30 and D10U-20 will end up with Geforce GTX 280 brand for the faster card.

There will be one more branded as Geforce GTX 260 and this would be the one that many believed will be branded as Geforce 9900GT.

The launch is scheduled for the 25th week of the year and it should take place between 16th and 20th of June. The name comes after Roy Tailor the Vice President of The way its meant to be played said that Nvidia’s names got a bit to complicated

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7306&Itemid=34

Gast
2008-05-15, 16:36:25
Ist da ein SLI brückenchip auf der Karte ??
Links bei den Anschlüssen?
Ist damit vielleicht SLI auf CF-brettern mölglich?

K4mPFwUr$t
2008-05-15, 16:38:42
glaube ich eher nicht, da nur die GTS version darüber verfügt
*mich auf die bilder aus XS.org bezieh*

AnarchX
2008-05-15, 16:43:29
glaube ich eher nicht, da nur die GTS version darüber verfügt
*mich auf die bilder aus XS.org bezieh*

Welche GTS-Version?
Auf den Bildern war beidesmal die gleiche Karte zu sehen, die sich nur überlagert hat.

Die Bilder von VR-Zone verwenden auch das vom Leaker angebotene File, aber eben in korrekter Darstellung. ;)

Wobei der Kühler ja nicht ganz zu der Speicheranordnung auf dem PCB passt...



SLI für CF-Boards ist natürlich mehr als zu bezweifeln, immerhin will NV Chipsets verkaufen. ;)

pest
2008-05-15, 16:44:42
GT200 + QX9650 OC (don`t know exactly CPU frequency) = over 13000 in 3D Mark Vantage in Performance Mode. Source? Once again PHK from PCinlife


..

AnarchX
2008-05-15, 16:45:37
Oha, nun weiß ich was in der Zusammenfassung fehlt...

K4mPFwUr$t
2008-05-15, 16:49:14
@AnarchX
achso, garnicht gewusst.
nun bin ich schlauer :biggrin:

wenn das so ist, wäre ja ein SLI chip vieleicht garnicht so verkehrt.
so könnte man sich den umweg über die northbridge sparen und auch bei CF boards SLI anbieten.

Die gelbe Eule
2008-05-15, 17:01:05
Die 13k P_Marks im Vantage lesen sich doch sehr klasse, da die CPU eh kaum Auswirkung hat. Somit wäre die GT200 3x schneller als eine OC 8800 GTS oder 40% schneller als 8800GT 1024MB SLi, womit man sie ja eher vergleichen könnte. Summa summarum, mehr als doppelte Leistung eines 8800GTX Gespanns.

pest
2008-05-15, 17:42:29
Die 13k P_Marks im Vantage lesen sich doch sehr klasse, da die CPU eh kaum Auswirkung hat. Somit wäre die GT200 3x schneller als eine OC 8800 GTS oder 40% schneller als 8800GT 1024MB SLi, womit man sie ja eher vergleichen könnte. Summa summarum, mehr als doppelte Leistung eines 8800GTX Gespanns.

:confused: 13k wären doch nur etwas besser als 8800GTX SLI
schreibst du ja selbst, 40% schneller als 8800GT SLI, also kann se nicht 3x so schnell wie ne 8800GTS 512 sein...wenn die Angaben stimmen

Die gelbe Eule
2008-05-15, 17:57:25
Ich hatte 8800GT 1024MB SLi, aber mit 725/1.800/1.000 laufen und kam auf knappe 8k Punkte.

pest
2008-05-15, 18:00:01
ich hab mir nur den letzten Post im Thread angeschaut und da hat Vega ~7.3k mit QX9650 OC + 8800GTX OC

Nightspider
2008-05-15, 18:05:16
Unter extremen Einstellungen dürfte der Unterschied noch größer werden und sicherlich zum Faktor 3 tendieren.

pest
2008-05-15, 18:08:04
Unter extremen Einstellungen dürfte der Unterschied noch größer werden und sicherlich zum Faktor 3 tendieren.

Wie es in Spielen ausschaut ist nochmal de ganz andere Geschichte ;)

Nightspider
2008-05-15, 18:09:00
Wie es in Spielen ausschaut ist nochmal de ganz andere Geschichte ;)

Würd ich nicht behaupten...

Sterems
2008-05-15, 18:10:53
Würd ich nicht behaupten...
Und warum nicht?

Die X2900 ging beim 3d mark auch immer voll ab...

pest
2008-05-15, 18:12:53
Würd ich nicht behaupten...

kommt immer auf's Spiel und die Situation an. Meine 8800GT ist im 3DMark06 mehr als doppelt so schnell wie meine alte X1900XT,
aber in Games variiert das zwischen 30-100% Mehrleistung.

Die gelbe Eule
2008-05-15, 18:13:10
Die GTX reagiert komischerweise anders im Vantage als die G9X.

K4mPFwUr$t
2008-05-15, 18:19:39
der G92 hat mehr shaderpower bzw. mehr rohleistung, allerdings weist er weniger bandbreite und VRAM auf als der G80.

und beim 3d murks machen sich die beiden letzten dinge nicht so bemerkbar, wie in spielen.

GeneralHanno
2008-05-15, 18:43:51
wenn ich mir die neuen namen so angucke GTX 280 und GTX 260, dann würde ich sagen: back to the roots.

so wie damals, als Ti für high-end und MX für mainstream stand. und die zahl dahinter (früher halt 4200, 4400, 4600) gibt dann den performenceunterschied an ;)

Gast
2008-05-15, 19:58:00
krasse neue namen ich werde ganz feucht:)

MEDIC-on-DUTY
2008-05-15, 20:00:29
Es gab doch mal vor ein paar Wochen diesen Fake-Screenshot aus 3DMark 06 bei dem angeblich 19 - 21.000 Punkte erreicht wurden. Angesichts der 13.000 in Vantage eigentlich eine realistische Hausnummer, wenn man mal die schlechte Photoshoparbeit beiseite lässt und 1280*1024 als gegeben annimmt.

Eigentlich sollte nV für uns hier eine Sonderpreisregelung einführen, so wie hier die Werbetrommel gerührt wird ;)

Fetza
2008-05-15, 20:12:01
Nochmal kurz zur namensgebung, wenn die wirklich bei ihrem geistlosen gtx 280 und gtx 260 bleiben, sollten sie die marketingabteilung gleich ganz schließen. Erstens wirkt es finde ich überhaupt nicht und zweitens klingt es nach den 8xxx und 98xx einfach nur nach rückschritt.

Ich fänd einen zweitnamen, nach geforce viel interessanter - zb geforce cheesypoo gtx für das high-end produkt und geforce cheesypoo gts für den untere high-end produkt.

MEDIC-on-DUTY
2008-05-15, 20:13:13
Nochmal kurz zur namensgebung, wenn die wirklich bei ihrem geistlosen gtx 280 und gtx 260 bleiben, sollten sie die marketingabteilung gleich ganz schließen. Erstens wirkt es finde ich überhaupt nicht und zweitens klingt es nach den 8xxx und 98xx einfach nur nach rückschritt.

Ich fänd einen zweitnamen, nach geforce viel interessanter - zb geforce cheesypoo gtx für das high-end produkt und geforce cheesypoo gts für den untere high-end produkt.

Dann machst doch gleich so wie Apple: iForce One oder iForce Air :D

Gaestle
2008-05-15, 22:06:02
Wenn das Namensschema so geändert wird, wie spekuliert, wozu braucht es dann noch das "GTX" im Namen? Das könnte doch auch wegfallen.
Also nur:
GF 280
GF 260
GF 240

GF 180
GF 160
GF 140

Allerdings wären das zuwenig Modelle pro Baureihe.

Hvoralek
2008-05-15, 22:14:21
Wenn das Namensschema so geändert wird, wie spekuliert, wozu braucht es dann noch das "GTX" im Namen? Das könnte doch auch wegfallen.
Also nur:
GF 280
GF 260
GF 240

GF 180
GF 160
GF 140

Allerdings wären das zuwenig Modelle pro Baureihe.Man hätte pro Generation Platz für bis zu neun Leistungsklassen mit jeweils bis zu neun Modellen. Das sollte auch noch reichen.

Gast
2008-05-15, 22:18:15
ich hab mir nur den letzten Post im Thread angeschaut und da hat Vega ~7.3k mit QX9650 OC + 8800GTX OC


jo und wieso sollten 13k dann nicht faktor 3 entsprechen?

Sorkalm
2008-05-15, 22:26:11
Man hätte pro Generation Platz für bis zu neun Leistungsklassen mit jeweils bis zu neun Modellen. Das sollte auch noch reichen.

Wieso nicht alle drei Zeichen nutzen? Ist zwar ein allgemeiner Trend das hinten noch mindestens eine 0 stehen muss (wenn nicht sogar mehrere), aber theoretisch ist das auch Verschwendung.

Gaestle
2008-05-15, 22:39:09
Man hätte pro Generation Platz für bis zu neun Leistungsklassen mit jeweils bis zu neun Modellen. Das sollte auch noch reichen.

Ja, mal sehen.
Die neun Modelle schöpft NV bei der jetzigen 9er Serie aus (siehe Produktportifolio auf 3DC-Startseite)... Aber vielleicht kommen ja noch 5en dazu (siehe Sorkalm).

Gast
2008-05-15, 22:44:48
Die 13k P_Marks im Vantage lesen sich doch sehr klasse, da die CPU eh kaum Auswirkung hat. Somit wäre die GT200 3x schneller als eine OC 8800 GTS oder 40% schneller als 8800GT 1024MB SLi, womit man sie ja eher vergleichen könnte. Summa summarum, mehr als doppelte Leistung eines 8800GTX Gespanns.

Die ollen GX2er kommen alle über 11000....das Ding ist viel zu laaahm und zu teuer!

MEDIC-on-DUTY
2008-05-15, 22:56:41
Die ollen GX2er kommen alle über 11000....das Ding ist viel zu laaahm und zu teuer!

Ein wirklich sehr qualifizierter Post. :rolleyes: GX2 ist was für SLI-Kiddies. Für eine SingleChipLösung wäre dieser Wert eine gute Hausnummer. 2x 88er GTX schafft bis dato keine Karte in diesem Segment. Von lahm kann hier keine Rede sein und so teuer wie die 88er GTX zur Einführung wird sie auch nicht werden. 499,- gehen für so eine Karte zum Release voll i.O.

BTW: Wann wird dieser zusehens praxisfremde Benchmark endlich von der Bildfläche verschwinden?

=Floi=
2008-05-15, 23:14:21
wobei der 3dmark ja nicht wirklich etwas aussagt. Wenn es danach gehen würde, wäre ati auch vorne (ohne AA)
Es ist ein leistungsindikator, aber eben auch ein sehr begrenzter

Hvoralek
2008-05-16, 00:56:14
Wieso nicht alle drei Zeichen nutzen? Ist zwar ein allgemeiner Trend das hinten noch mindestens eine 0 stehen muss (wenn nicht sogar mehrere), aber theoretisch ist das auch Verschwendung.Mit dem Ansatz würde man doch alle nutzen: 1. Ziffer: Generation, 2. Ziffer: Leistungsklasse, 3. Ziffer: genaues Modell (Dann hätte man eben pro Generation max. 9*9 bzw. 10*9 Modelle). Aber das sollte wie gesagt eigentlich reichen. Bei G8x kommt man vlt. insgesamt über neun Modelle (Ebenso sicher auch mit NV4x), aber nicht in einem einzelnen Marktsegment. Zumal es möglich und wohl sinnvoll wäre, bei gegebenen 3 oder 4 Marktsegmenten jedes davon mit zwei oder drei Ziffern zu belegen.

Mal am Bsp. von G8x/9x
Generation: Überall "1"
Leistungsklasse: High- End 8/9, Performance 6/7, Mittelklasse 4/5, Value 2/3

Die einzelnen Modelle hätte man dann nach dem Schema z.B. so benennen können:
8800 Ultra: 186
8800 GTX: 184
8800 GTS 640: 168
8800 GTS 320: 162

8600 GTS: 146
8600 GT: 144
8500 GT: 124
8400 GS: 122

8800 GT: 174
8800 GTS 512: 176
8800 GS: 170 [Marketing ftw] oder 164 [leistungsgereicht]

9800 GTX: 192 [Marketing ftw] oder 183 [leistungsgerecht]
9800 GX2: 194 [Es zählen Balken, keine Mikroruckler :wink:]
9600 GT: 172
9600 GSO: 171 [Marketing ftw] oder 165 [leistungsgereicht]

Sorkalm
2008-05-16, 00:58:46
Das Problem ist bei dem Schema halt, dass du wirklich jede Grafikkarte exakt einordnen musst. ;)

Das Problem kann man sich mit einer x800er und x600er-Serie oder eine GTX- und einer GT-Serie ersparen. Ob die 7800 GS schneller als eine 7600 GT liegt halt im Auge des Betrachters.

K4mPFwUr$t
2008-05-16, 01:00:55
dieses schema findet man ja auch bei AMD und intel.
scheint sich am ende wohl doch durch zusetzen.

aber im endeffekt geben erfahrene leute auf sollche schemas eh wenig.

Hvoralek
2008-05-16, 01:09:19
Das Problem ist bei dem Schema halt, dass du wirklich jede Grafikkarte exakt einordnen musst. ;)

Das Problem kann man sich mit einer x800er und x600er-Serie oder eine GTX- und einer GT-Serie ersparen. Ob die 7800 GS schneller als eine 7600 GT liegt halt im Auge des Betrachters.Im Prinzip nicht genauer als jetzt. Man könnte auch schlicht die jetzige zweite Ziffer beibehalten und das Kürzel a.E. durch eine dritte Ziffer ersetzen:

8800 Ultra: 188
8800 GTX: 186
8800 GTS 640: 184
8800 GTS 320: 182

8600 GTS: 164
8600 GT: 162
8500 GT: 154
8400 GS: 142

8800 GT: 185
8800 GTS 512: 187
8800 GS: 180 [Wenn 18x voll ist, kann man auf 19x ausweichen]

9800 GTX: 284
9800 GX2: 288
9600 GT: 266
9600 GSO: 264

Und schon hast Du genauso bescheuerte Verhältnisse wie jetzt.

Anarchy-HWLUXX
2008-05-16, 03:12:14
Wie kommt ihr eigentlich darauf die alten Karten mit dem neuen Schema zu versehen ? Is doch klar das das net klappt :rolleyes:

AnarchX
2008-05-16, 08:15:56
Glaube ich eigentlich auch nicht, man wird die GeForce9-Familie noch mit den schon bekannten G96/G92/G94-SKUs (teils schon 55nm) auffüllen, während GTX 200 vorerst die neueste Generation und das High-End bei NV symbolisiert und erst gegen 2009 Ableger bekommt.

pest
2008-05-16, 08:17:33
War aber auch fast klar das sie neue Namen vergeben, der Leistungsabstand zur 9800GTX ist viel zu groß

Dadi
2008-05-16, 08:40:54
FInd die Namen ok. :D
Kanns kaum erwarten, 18 Juni ists soweit. :D

MEDIC-on-DUTY
2008-05-16, 08:49:19
Wie kommt ihr eigentlich darauf die alten Karten mit dem neuen Schema zu versehen ? Is doch klar das das net klappt :rolleyes:

Glaube ich auch nicht, dass nV jetzt nach dem 8x to 9x Debakel noch einmal für diese GPUs ein Namensreview durchzieht. Es kommt eine neue Serie mit neuem Namesranking, beginnend mit der HighEnd-Lösung und nachfolgenden Performance- und Budgetkarten. Alles andere wäre eine Farce.

Schlammsau
2008-05-16, 09:07:42
Glaube ich auch nicht, dass nV jetzt nach dem 8x to 9x Debakel noch einmal für diese GPUs ein Namensreview durchzieht. Es kommt eine neue Serie mit neuem Namesranking, beginnend mit der HighEnd-Lösung und nachfolgenden Performance- und Budgetkarten. Alles andere wäre eine Farce.
Also will nV mit dem GT200 eine neue Generation starten?

Gast
2008-05-16, 09:09:24
Es ist überhaupt nicht gewollt dass man die Leistungsfähigkeit anhand der Namensgebung genau einordnen kann. Da würde man sich ja schön ins Knie schiessen. Wer soll den dann ganze GS Modelle kaufen???

AnarchX
2008-05-16, 09:12:47
Es ist überhaupt nicht gewollt dass man die Leistungsfähigkeit anhand der Namensgebung genau einordnen kann. Da würde man sich ja schön ins Knie schiessen. Wer soll den dann ganze GS Modelle kaufen???

Naja, GS verkauft sich ja meist eh im Zusammenhang mit einem Komplettsystem.

Und NV ist momentan auch unglücklich über die verwirrende Namenssituation:
http://www.engadget.com/2008/05/07/nvidia-to-simplify-product-range-as-it-courts-consumers/

Gast
2008-05-16, 09:18:34
Naja, GS verkauft sich ja meist eh im Zusammenhang mit einem Komplettsystem.

Und NV ist momentan auch unglücklich über die verwirrende Namenssituation:
http://www.engadget.com/2008/05/07/nvidia-to-simplify-product-range-as-it-courts-consumers/


Du glaubst doch nicht ernsthaft dass das nicht Methode hat. Und dass Nvidia sagt, dass sie das Namensschema ändern wollen, hat nix mit einer folgenden besseren Vergleichbarkeit der Produkte zu tun sondern ehern damit dass ihnen so langsam die 4 stelligen Zahlen ausgehen

James Ryan
2008-05-16, 09:19:06
Also will nV mit dem GT200 eine neue Generation starten?

Könnte daher kommen, dass der GT200 eine neue Generation ist. ;D

MfG :cool:

MEDIC-on-DUTY
2008-05-16, 09:45:08
Du glaubst doch nicht ernsthaft dass das nicht Methode hat. Und dass Nvidia sagt, dass sie das Namensschema ändern wollen, hat nix mit einer folgenden besseren Vergleichbarkeit der Produkte zu tun sondern ehern damit dass ihnen so langsam die 4 stelligen Zahlen ausgehen

Gerade für die Budgetkarten wäre es ein Imagemitnahmeeffekt, wenn nV z.B. das "GT" auch für diese Karten verwenden und das Gewirr um GS, GSO usw. streichen würde. Denn eines ist doch klar: Es soll eine Vergleichbarkeit zu ATI geschaffen werden und das möglichst im positiven Sinne auch im umsatzstarken Mittelfeld.

Eine Änderung nur wegen der Zähler macht keinen Sinn. Es würde der Zusatznutzen fehlen.

Gast
2008-05-16, 10:07:26
Gerade für die Budgetkarten wäre es ein Imagemitnahmeeffekt, wenn nV z.B. das "GT" auch für diese Karten verwenden und das Gewirr um GS, GSO usw. streichen würde. Denn eines ist doch klar: Es soll eine Vergleichbarkeit zu ATI geschaffen werden und das möglichst im positiven Sinne auch im umsatzstarken Mittelfeld.

Eine Änderung nur wegen der Zähler macht keinen Sinn. Es würde der Zusatznutzen fehlen.

Ja schön, wird ja zum Teil auch so gemacht. Funktioniert aber nicht dauerhaft.
Die Kürzel durchblickt ein normal Consumer eh nicht. Die vermitteln eher den Eindruck was besonderes in der Hand zu haben. Es werden auch nicht umsonst ständig wechselnde Bezeichnungen verwandt.

GeneralHanno
2008-05-16, 10:33:25
naja bei nvidia hat man sich wohl gedacht: logo, wir könnten den GT200 als 9900 vermarkten und somit die ganze G9x reihe pushen (high-end pusht entry ...), aber dann hätte man das problem nur verschoben:

wie soll nvidia die GT200-mainstreamgeneration (vll zu weihnachten) nennen? GF10600? viel zu lang ... und wie macht man dem kunden klar, dass die "GF10600" der mainstreamchip der "GF9900" ist?

also macht nvidia nägeln mit köpfen:
GT200 ist eine neue architektur generation und daher gibts einen komplett neuen namen. der mainstream heißt dann eben GTS 280/260/240 und entry eben GS 260/240

wenn nvidia tatsächlich ein neues und sauberes namensschema bringt (y)(y)

gamingforce
2008-05-16, 10:52:31
mhhh Fud sagt der Gt200 wird am 18 Junu gelauncht :|

ich denke das dauert noch paar Monate :confused:

Adam D.
2008-05-16, 10:56:50
mhhh Fud sagt der Gt200 wird am 18 Junu gelauncht :|

ich denke das dauert noch paar Monate :confused:
AiL hatte schon vor einigen Wochen angedeutet, dass der Launch bald erfolgen wird, das scheint sich jetzt zu bestätigen.

gamingforce
2008-05-16, 10:58:43
glaub ich noch nicht dran, das was auf dem Papier steht wird gelauncht, aber ob man die karten kaufen kann ?

Adam D.
2008-05-16, 11:03:43
glaub ich noch nicht dran, das was auf dem Papier steht wird gelauncht, aber ob man die karten kaufen kann ?
Was spricht dagegen? Die Diskussion hatten wir schon 100x, keiner der beiden IHVs kann sich nochmal einen Paper-Launch à la NV40/R520 leisten, deshalb wird's dazu auch nicht mehr kommen.

Gast
2008-05-16, 11:05:05
Angeblich launchen beide auch erst Mitte/Ende Juni weil erst da entsprechende Stückzahlen im Handel sind.

Eine Situation wie beim 8800GT möchte Nvidia auch vermeiden.

Gast
2008-05-16, 11:18:10
Eine knappe Verfügbarkeit zum Launch lässt sich nicht vermeiden, weil da die Nachfrage am größten ist und erst mit steigender Zahl verkaufter Karten abnimmt.

gamingforce
2008-05-16, 11:18:56
mhh kA, ich würd sagen die launchen die udn schicken ein paar in den Umlauft damit sie nicht vom Thron gestossen werden vom RV770.
Also so denk ich mir das, ein paar Hardwareseite werden ein Produkt bekommen damit die Karte trotzdem ganz oben steht und nicht der ATI ganz allein gehört.

könnte doch sein oder nicht?

Gast
2008-05-16, 11:23:34
Nein das kann nicht sein. Ich vermute mal stark du hast die letzten 1,5 Jahre verschlafen!

Gast
2008-05-16, 11:24:31
Könnte daher kommen, dass der GT200 eine neue Generation ist. ;D

MfG :cool:

Klarr!
Naja die DAU Falle wird wieder zuschnappen wie beim G92 ;D

Psychopat
2008-05-16, 11:29:30
Um oben stehen zu bleiben reicht nVidia vermutlich die GX2.

Gast
2008-05-16, 11:31:02
Ich frage mich echt, ob GT200 wirklich schon eine echte neue Generation ist. Oder sagen wir es so, ob er der Chip ist der bisher auf November spekuliert wurde.
Oder nV geht wieder den Weg wie beim NV40-G70. Man verbessert die bestehende Architektur und verbreitert sie, aber ein Technologie Sprung wie vom G70 auf G80 wird es evtl nicht sein. Ist GT200 nur ein weiterer Zwischenschieber für "G100", der mal NV60 hieß?

Ist ja nur noch ein Monat hin ;)

gamingforce
2008-05-16, 11:40:05
Nein das kann nicht sein. Ich vermute mal stark du hast die letzten 1,5 Jahre verschlafen!

nein ich war eher wach:

G80= keine GTX Karten verfügbar oder waren Defekt durch fehlende Spannungswandler (oder falsche) erst 2 Monate später war die so richtig verfügbar

8800GT= das selbe Spiel, viel karten abgefackelt dann nach langer zeit sind welche gekommen mit einem Spanungswandler mehr und die funzen

8800GTS 1GB= bis heute noch keine da


also ich glaub du bist der der geschlafen hat.

MEDIC-on-DUTY
2008-05-16, 11:43:19
Ja schön, wird ja zum Teil auch so gemacht. Funktioniert aber nicht dauerhaft.
Die Kürzel durchblickt ein normal Consumer eh nicht. Die vermitteln eher den Eindruck was besonderes in der Hand zu haben. Es werden auch nicht umsonst ständig wechselnde Bezeichnungen verwandt.

Ich möchte auch mal behaupten, dass ein "normal Consumer" sich auch keine Zusatzgrafikkarte kauft und beginnt seinen Rechner aufzuschrauben, sondern eher zu einem Komplettpaket greift. Ein "normal Consumer" kennt dann evtl. einen Kollegen, Freund etc. bei dem er sich Rat holen wird.

Jede Karte hat eine Zielgruppe, die auch ein gewisses Preisniveau wiederspiegelt. Die Interpretation des Namens liegt dabei im Auge des Betrachters. Der Preis hingegen bedarf keiner Erklärung.

Ein wenig Hirn sollte man beim Kauf eines PCs voraussetzen dürfen. Ein Auto kauft man sich schließlich auch nicht "nur" nach der Modellnummer.

Hvoralek
2008-05-16, 12:19:01
Wie kommt ihr eigentlich darauf die alten Karten mit dem neuen Schema zu versehen ? Is doch klar das das net klappt :rolleyes:Das ist ein Entwurf, wie so ein Schema prinzipiell aussehen könnte/ sollte. Da ist es sinnvoller, es einmal für bekannte Modelle durchzuspielen, als sich auch noch zu überlegen, was für einzelne GT200- Modelle und -ableger noch kommen könnten. Natürlich wird Nvidia die alten Karten nicht mehr umbenennen. Obwohl: Warum eigentlich nicht, z.B. die 55- nm- Ableger? Platz dafür wäre ("1xx") und so könnte man noch einmal alten Wein in neuen Schläuchen verkaufen.

Um oben stehen zu bleiben reicht nVidia vermutlich die GX2.Gegen einen RV770.

ShadowXX
2008-05-16, 12:47:14
nein ich war eher wach:

G80= keine GTX Karten verfügbar oder waren Defekt durch fehlende Spannungswandler (oder falsche) erst 2 Monate später war die so richtig verfügbar

Hmmm...komisch, dann muss ich mir mein 8800GTX die ich eine Woche nach Launch hatte wohl nur eingebildet haben...

Anarchy-HWLUXX
2008-05-16, 12:50:21
Angeblich launchen beide auch erst Mitte/Ende Juni weil erst da entsprechende Stückzahlen im Handel sind.

Eine Situation wie beim 8800GT möchte Nvidia auch vermeiden.
Eine knappe Verfügbarkeit zum Launch lässt sich nicht vermeiden, weil da die Nachfrage am größten ist und erst mit steigender Zahl verkaufter Karten abnimmt.

Wire reden hier von ner Karte die Wohl 500+ beim Launch kosten wird ... da ist die nachfrage scho generell viel kleiner.

Das ist ein Entwurf, wie so ein Schema prinzipiell aussehen könnte/ sollte. Da ist es sinnvoller, es einmal für bekannte Modelle durchzuspielen, als sich auch noch zu überlegen, was für einzelne GT200- Modelle und -ableger noch kommen könnten. Natürlich wird Nvidia die alten Karten nicht mehr umbenennen. Obwohl: Warum eigentlich nicht, z.B. die 55- nm- Ableger? Platz dafür wäre ("1xx") und so könnte man noch einmal alten Wein in neuen Schläuchen verkaufen.



Bei den 55nm Modellen wäre das gerade noch im bereich des möglichen - ich denk allerdings deise werden weiterhin die GF9 bezeichnung tragen ...


Wieso se direkt mit 280 startenh ? Na weil 180 irgendwie mickrig aussieht, wirklich.

Gast
2008-05-16, 13:14:41
Springt NV denn dieses Mal auf den DirectX10.1-Zug auf ? Immerhin ist es ja nun eine neue Generation von Graka und die sollte ja nun zukunftsorientiert sein.

Gast
2008-05-16, 13:19:18
Ich möchte auch mal behaupten, dass ein "normal Consumer" sich auch keine Zusatzgrafikkarte kauft und beginnt seinen Rechner aufzuschrauben, sondern eher zu einem Komplettpaket greift. Ein "normal Consumer" kennt dann evtl. einen Kollegen, Freund etc. bei dem er sich Rat holen wird.

Jede Karte hat eine Zielgruppe, die auch ein gewisses Preisniveau wiederspiegelt. Die Interpretation des Namens liegt dabei im Auge des Betrachters. Der Preis hingegen bedarf keiner Erklärung.

Ein wenig Hirn sollte man beim Kauf eines PCs voraussetzen dürfen. Ein Auto kauft man sich schließlich auch nicht "nur" nach der Modellnummer.

So so. Laut einer britschen Studie kaufen sich ca. 1/3 aller deutschen Käufer ein Fahrzeug ohne es je probegefahren zu sein. Also mehr oder weniger nach dem Namen.

Gerade in Komplettsystemen kommen oft aberwitzige Bezeichnungen für die verbauten Grafikeinheiten zum Einsatz. Dass der "Normalkonsument" seine Kaufentscheidung auch daran ausrichtet und nicht so umfassend informiert ist wie die hier anzutreffenden "Nerds" ist offensichtlich.


..
Jede Karte hat eine Zielgruppe, die auch ein gewisses Preisniveau wiederspiegelt. Die Interpretation des Namens liegt dabei im Auge des Betrachters. Der Preis hingegen bedarf keiner Erklärung.
..


Was du hiermit ausdrücken wolltest musst du mal näher darlegen... Imho im Zusammenhang ziemlich unverständlich.

crux2005
2008-05-16, 13:51:19
Springt NV denn dieses Mal auf den DirectX10.1-Zug auf ? Immerhin ist es ja nun eine neue Generation von Graka und die sollte ja nun zukunftsorientiert sein.

ich denke nicht, wieso auch

GeneralHanno
2008-05-16, 13:52:22
es gab ja die gerüchte, nvidia müsste für DX10.1 ihre TMUs umdesignen und der aufwand stehe in keinem verhältnis zum nutzen aus DX10.1

Adam D.
2008-05-16, 14:04:00
Springt NV denn dieses Mal auf den DirectX10.1-Zug auf ? Immerhin ist es ja nun eine neue Generation von Graka und die sollte ja nun zukunftsorientiert sein.
Tja, das ist eine der Fragen, die wohl weiterhin offen sind. Ich persönlich fände es peinlich, wenn es wieder bei DX10 bleiben sollte.

Gast
2008-05-16, 14:17:18
es gab ja die gerüchte, nvidia müsste für DX10.1 ihre TMUs umdesignen und der aufwand stehe in keinem verhältnis zum nutzen aus DX10.1

Definiere doch bitte mal diesbezüglich Aufwand und Nutzen.

ShadowXX
2008-05-16, 14:43:37
Definiere doch bitte mal diesbezüglich Aufwand und Nutzen.
Mit Kosten verbundener Aufwand vs. wir sind auch ohne 10.1 schneller.....

Aber erst mal sehen ob den wirklich keine 10.1 "drinne" ist (wobei ich es fast vermute).

mictasm
2008-05-16, 14:56:35
[...] und so teuer wie die 88er GTX zur Einführung wird sie auch nicht werden. 499,- gehen für so eine Karte zum Release voll i.O.


Ist das wirklich bestätigt? Wäre ja echt genial!


nein ich war eher wach:

G80= keine GTX Karten verfügbar oder waren Defekt durch fehlende Spannungswandler (oder falsche) erst 2 Monate später war die so richtig verfügbar


Ich habe seltsamerweise in der ersten Woche nach Release 2 Stück beim Händler um die Ecke kaufen können (mit der Bauteiländerung) für 599€/Stück. Und seitdem rennen sie hier...

Es wird wirklich Zeit für etwas kräftiges Neues!

Gruß,

MIC

MEDIC-on-DUTY
2008-05-16, 15:26:45
So so. Laut einer britschen Studie kaufen sich ca. 1/3 aller deutschen Käufer ein Fahrzeug ohne es je probegefahren zu sein. Also mehr oder weniger nach dem Namen.

Firmenwagen eingerechnet? Dann glaube ich das gerne, andernfalls würde das auf Grafikkarten bezogen bedeuten, dass der Teil der die Karten im Sack kauft, eh zu "blöde" oder zu "reich" wäre sich entsprechende Informationen zu beschaffen. Da hilft auch keine gute Bezeichnung.


Gerade in Komplettsystemen kommen oft aberwitzige Bezeichnungen für die verbauten Grafikeinheiten zum Einsatz. Dass der "Normalkonsument" seine Kaufentscheidung auch daran ausrichtet und nicht so umfassend informiert ist wie die hier anzutreffenden "Nerds" ist offensichtlich.

Kann man so stehen lassen. Wobei ich mich gerade bei den Aldi-Kisten frage, ob diese Bezeichnungen jetzt vom Hersteller oder Aldi an den Start gebracht werden...


Was du hiermit ausdrücken wolltest musst du mal näher darlegen... Imho im Zusammenhang ziemlich unverständlich.
Damit meinte ich, dass die Bezeichnung im Budgetbereich weniger entscheident sein dürfte als der Preis.

MEDIC-on-DUTY
2008-05-16, 15:39:21
Ist das wirklich bestätigt? Wäre ja echt genial!


Nein, offiziell bestätigt nicht - nur Gerüchteküche. In den ersten Tagen wird der Preis sicherlich von den Händlern über die 500 getrieben. Danach wohl wieder knapp unter 500 verharren. Je nach dem wie die Verfügbarkeit ist und was ATI treibt.

Gast
2008-05-16, 16:18:39
Ich gehe schon davon aus, dass DX 10.1 unterstützt wird.

deekey777
2008-05-16, 17:24:58
http://forum.beyond3d.com/showpost.php?p=1162888&postcount=1020
I got the 240 streamprocessors confirmed today for GT200. As well as the 512-bit memory interface and 1GB memory.

Gast
2008-05-16, 17:47:58
als ob das jetzt was überraschendes wäre

GeneralHanno
2008-05-16, 17:50:08
nein, aber wenn CJ sagt "confirmed" dann kann man speku abhaken und das als gesetzt sehen ;)

AnarchX
2008-05-16, 17:51:52
Interessant auch, dass HKEPC ihren Artikel entfernt hat.:D

GeneralHanno
2008-05-16, 18:02:32
Interessant auch, dass HKEPC ihren Artikel entfernt hat.:D

was stand denn da drinn?

AnarchX
2008-05-16, 18:04:34
was stand denn da drinn?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6503207&postcount=1439
Oder die engl. Übersetzung:
http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html
;)

Wird wohl jemanden oder beide gestört haben...

Gast
2008-05-16, 18:42:53
400-450€ lässt man sich den Spass gerne kosten. Mit doppelter Speicherbandbreite geht auch in Highend Auflösungen die Post ab, die ROPs konnten ja in manchen Fällen bisher limitieren, aber der Chip hat Breitreifen nun *g
Fehlt nur noch die Verfügbarkeit, denn die Specs sind ein Traum.

Coda
2008-05-16, 18:50:28
Das Verhältnis ROPs/Bandbreite hat sich nicht geändert.

Gast
2008-05-16, 19:17:05
Es ist aber "mehr" von beidem vorhanden, ergo mehr Leistung/Reserven. +30% in 1920*1200er Auflösung ist drin.

Gast
2008-05-16, 20:15:07
http://forum.beyond3d.com/showpost.php?p=1162888&postcount=1020
Beunuhigend finde ich, dass in diesem Thread folgendes steht:
- Kein DX10.1
- DX11 Chip kommt in Q1/09

Das finde ich alles etwas merkwürdig.

http://forum.beyond3d.com/showpost.php?p=1162889&postcount=1021

LovesuckZ
2008-05-16, 20:17:14
Beunuhigend finde ich, dass in diesem Thread folgendes steht:
- Kein DX10.1
- DX11 Chip kommt in Q1/09

Das finde ich alles etwas merkwürdig.


Er hat keine Quellen -> alles Spekulationen. Bis jetzt weiß niemand, was der GT200/100/whatever wirklich kann.

tombman
2008-05-16, 20:20:54
http://forum.beyond3d.com/showpost.php?p=1162888&postcount=1020
Strr-ike! :up:

Passen auch gut zum pcb Schemabild ;)

So macht das Spaß, doppelte G80 GTX power ;)

Die gelbe Eule
2008-05-16, 20:23:02
Ich finde das nicht beunruhigend, da nichtmal DX10 irgendwo Sinn macht, was möchte man schon mit DX10.1? Die Performance wäre zwar nun da, aber lange nicht für alle.

reunion
2008-05-16, 20:39:52
Ich finde das nicht beunruhigend, da nichtmal DX10 irgendwo Sinn macht, was möchte man schon mit DX10.1? Die Performance wäre zwar nun da, aber lange nicht für alle.

Das einzige was hier keinen Sinn macht ist dein Beitrag. Würden endlich alle Hersteller D3D10.1 unterstützen dann könnte man auch wieder auf vernünftiges AA hoffen. Richtig, D3D10 braucht niemand, wenn er D3D10.1 haben kann. Denn merkte: Ein höhere Tech-Level ist bei gleicher Optik niemals langsamer, sondern höchstens schneller. Die Aussage das DX10 nirgendwo Sinn macht ist schon alleine deshalb falsch.

Die gelbe Eule
2008-05-16, 20:48:25
Danke für den x-ten Flame. Was haben alle Hersteller von D3D10.1 wenn es kaum bis gar keine Applikation gibt die es nutzt? Wie lange gibt es DX10 seitens der Hersteller und wieviele Spiele haben davon profitiert? AA wird natürlich mit den neuen Karten eh toll werden, weil mehr Power unterm Arsch vorhanden ist. Wen interessieren da noch alte Karten ...

mapel110
2008-05-16, 20:49:36
Erstmal muss die ganze G80-G94/Radeon2xxx-Userschaft bedient werden. Dann können Entwickler über DX10.1 nachdenken.
(Bei den Chip-Codenamen kann ich mir überhaupt nichts mehr merken...)

Trotzdem stimme ich zu, wenn das neue nvidia-Flagschiff kein 10.1 unterstützt, wäre das sehr traurig seitens nvidia.
Damit würde wohl 10.1 zu dem Shader 1.4 von damals.

Gast
2008-05-16, 20:56:22
Wenn NV 10.1 hätte und ATI nicht wären es die selben Leute die sich genau darüber am meisten aufregen würden. Aber so haben sie es nicht, also ist es nicht so schlimm.

LovesuckZ
2008-05-16, 21:01:54
Wenn NV 10.1 hätte und ATI nicht wären es die selben Leute die sich genau darüber am meisten aufregen würden. Aber so haben sie es nicht, also ist es nicht so schlimm.

Nein, das sind AMD User. Aber die benutzen heute auch das SM3.0. :P

Gast
2008-05-16, 21:02:52
Wenn NV 10.1 hätte und ATI nicht wären es die selben Leute die sich genau darüber am meisten aufregen würden. Aber so haben sie es nicht, also ist es nicht so schlimm.

wo du recht hast, hast du recht

K4mPFwUr$t
2008-05-16, 21:10:25
@LovesuckZ
damals hat SM3.0 weniger sinn gemacht als heute.
die GF6 war einfach zu schwach auf der brust um brauchbare FPS @ SM3.0 zu zaubern.
vom spielesupport erst garnicht zu sprechen. und am ende hat es die X800XT user auch nicht gestört das sie nur SM2.0b hatten :rolleyes:

Die gelbe Eule
2008-05-16, 21:10:27
Bin gespannt wieviele von den Schreihälsen eh die Karten nicht kaufen werden, weil wieder irgendein Aufkleber nicht richtig geil ist, das PCB grün oder sonstwas.

Grestorn
2008-05-16, 21:12:00
Es wäre definitiv eine Enttäuschung, wenn kein 10.1 unterstützt werden würde. Da gibt's kein deuteln, und wer das runterspielt ist in der Tat nicht wirklich objektiv.

Ob es allerdings schon ein Grund ist, die neue Karte links liegen zu lassen, steht auf einem ganz anderem Blatt. Das muss jeder für sich selbst entscheiden.

reunion
2008-05-16, 21:12:48
Danke für den x-ten Flame.


Danke für den x-ten völlig sinnlosen und einfach nur falschen Beitrag.


Was haben alle Hersteller von D3D10.1 wenn es kaum bis gar keine Applikation gibt die es nutzt?

Ohne Hardware gibt es keine Software.


Wie lange gibt es DX10 seitens der Hersteller und wieviele Spiele haben davon profitiert?

Auch hier wieder das klassische Henne-Ei-Problem.


AA wird natürlich mit den neuen Karten eh toll werden, weil mehr Power unterm Arsch vorhanden ist.

Ja, AA mittels Hack, das bei jeder zweiten Kante nicht greift. Für vernünftiges AA benötigen immer mehr Spiele die Z-Subsamples, und die bekommt man nur mit D3D10.1.

K4mPFwUr$t
2008-05-16, 21:17:19
@reunion
die hardware für DX10 ist vorhanden, nur gibt es kaum vorteile (von performancevorteile gegenüber DX9 erst garnicht zu sprechen). und nur weil die hardware verfügbar/nicht verfügbar ist (oftmals arbeiten spieleschmiede mit teils unveröffentlichten modellen) kann man nicht sagen das der DX10 renderpfad gut oder schlecht ist.

so gesehen wird einfach alles nur auf die hardware geschoben, eine schöne einfache ausrede ;)

LovesuckZ
2008-05-16, 21:22:45
@LovesuckZ
damals hat SM3.0 weniger sinn gemacht als heute.
die GF6 war einfach zu schwach auf der brust um brauchbare FPS @ SM3.0 zu zaubern.
vom spielesupport erst garnicht zu sprechen. und am ende hat es die X800XT user auch nicht gestört das sie nur SM2.0b hatten :rolleyes:

Richtig. Schlussendlich wird man die Vorteile von 10.1 sehen und benutzen - mit der nächsten Grafikschnitstellenversion.
Ich finde es nur lustig, wie plötzlich 10.1 so wichtig sein sollte, wenn noch nichtmal Vista und 10.0 sich durchsetzen konnten.

Nazar
2008-05-16, 21:30:36
Ich finde es lustig, dass man wirklich der Meinung sein kann, dass Fortschritt nichts bringt!
Die Grundfrage sollte doch sein, macht DX 10.1 etwas schlechter!
Wenn man darauf mit nein antworten kann, dann ist doch jegliche Aussage dagegen sinnlos!
Und dann sollte auch klar sein, wenn es dann sogar Verbesserungen verspricht und der Hersteller quasi Richtungsweisen ist im Punkto Einführung einer neuen/besseren Technik ist(Dank der Marktführerschafft im Gamingsektor was Grafikhardware angeht), dies ein Schritt in die falsche Richtung ist.

Gast
2008-05-16, 21:33:13
Ich finde es lustig, dass man wirklich der Meinung sein kann, dass Fortschritt nichts bringt!
Die Grundfrage sollte doch sein, macht DX 10.1 etwas schlechter!
Wenn man darauf mit nein antworten kann, dann ist doch jegliche Aussage dagegen sinnlos!
Und dann sollte auch klar sein, wenn es dann sogar Verbesserungen verspricht und der Hersteller quasi Richtungsweisen ist im Punkto Einführung einer neuen/besseren Technik (Dank der Marktführerschafft im Gaminsektor was Grafikhardware angeht) ist, dies ein Schritt in die falsche Richtung ist.


richtig und alles andere was geplappert wird "dx10.1 wäre unwichtig blabla"kommt und kann nur von fanboys kommen.

K4mPFwUr$t
2008-05-16, 21:36:09
der punkt ist einfach, wenn die spieleentwickler noch nichtmal einen DX10 renderpfad anbieten oder dieser recht mies läuft (bestes beispiel CoH:OF @ DX10 läuft im vergleich zu DX9 mies) dann braucht man nicht an DX10.1 zu denken.

der schritt der erstmal kommen muss, ist die verbreitung von vista + SP1 (das wird schwer) und eine gesunde grundbasis für DX10. ist beides nicht gegeben, entwickelt man nur für eine randgruppe. so schlimm es auch klingen mag, es ist nunmal so. und die entwickler fügen die DX10.1 pfade auch nicht in ihrer freizeit und unendgeldlich durch.

Gast
2008-05-16, 21:36:50
DX10.1 ist deswegen wichtig, weil man als DX10 User endlich auch gescheites AA haben will.

K4mPFwUr$t
2008-05-16, 21:39:48
was bringt dir das gescheite AA wenn die meisten spiele keinen brauchbaren DX10 pfad anbieten, wo es große optische unterschiede gibt oder eine brauchbare performance anbieten.

das nächste große problem ist, das man vista haben muss und vor allem SP1.
letzteres ist nichts weiteres als eine beta, viele programme verweigern den dienst oder machen anderseitig probleme. im grunde genommen ist die userbase für DX10.1 verschwenderisch gering.

Sorkalm
2008-05-16, 21:41:50
Also wer Vista hat (z. B. weil er DX10-Spiele nutzen wollte), hat wohl auch SP1. Ich nutze das auch seit Ende Februar, als es versehentlich freigegeben wurde (64-Bit-Version) ohne Probleme. Das ist nun wirklich kein Argument...

Gast
2008-05-16, 21:42:38
der punkt ist einfach, wenn die spieleentwickler noch nichtmal einen DX10 renderpfad anbieten oder dieser recht mies läuft (bestes beispiel CoH:OF @ DX10 läuft im vergleich zu DX9 mies) dann braucht man nicht an DX10.1 zu denken.

der schritt der erstmal kommen muss, ist die verbreitung von vista + SP1 (das wird schwer) und eine gesunde grundbasis für DX10. ist beides nicht gegeben, entwickelt man nur für eine randgruppe. so schlimm es auch klingen mag, es ist nunmal so. und die entwickler fügen die DX10.1 pfade auch nicht in ihrer freizeit und unendgeldlich durch.


bla bla,ist ja nicht so das bei dx10.1 die performance weiter in den keller geht als bei dx10,eher das gegenteil passiert und dazu noch mit besserer bildqualität.als ob vista nutzer nicht auch schon sp1 drauf haben,spar dir ausreden für was anderes:)

K4mPFwUr$t
2008-05-16, 21:43:18
@Sorkalm
oha, du als einzelner nutzer der mal keine probleme mit SP1 hat schließt automatisch auf alle vista user? sehr gewagt :rolleyes:

@gast
bla bla, du mich auch.
bevor du nicht mal ein kommentar sinnvoll einleiten kannst, brauche ich dich auch nicht groß weiter zu beachten ;).
ich spare mir keine ausreden, es ist fakt das die userbasis recht klein ist, besonders wo SP1 das neue sorgenkind auf dem markt ist.

selbst crytek sieht für die nähere zeit kein DX10.1 support vor und das obwohl sie gerne neue sachen probieren bzw. die grenzen austesten.

wenn du mit dem gedanken spielst ich sei ein fanboy, denn kannste gleich stecken lassen ;)

Die gelbe Eule
2008-05-16, 21:44:33
Von mir aus kann es bereits DX11 geben, ich hätte davon als Anwender gar nichts. Meine Spiele die ich habe laufen in DX9 besser als in DX10. Es gibt nun seit geraumer Zeit Quadcores und nicht wirklich hat man was davon bisher gehabt und die nahe Zukunft sieht ähnlich aus. Davon ab ist es scheißegal ob nun AMD oder NV im Rechner drin ist, außer AC gibt es noch nichts mit D3D10.1 und das nichtmal mehr offiziell. In der Vergangenheit hatten wir sehr oft die Strategien das man ein gewisses DX nicht braucht und ich gehe jede Wette ein, alle AMD User die nun DX10.1 unbedingt beim GT200 haben wollen, haben bestimmt damals auch DX9 verteufelt, wo DX8.1 ja gereicht hatte bei ATi.
Vielleicht kann mir ja jemand Andwendungen zeigen die in Entwicklung sind und mit D3D10.1 wunderprächtig laufen. Ich kenne bisher gar keine, auch wenn AMD jetzt schon die Hardware dazu am Markt hat.

Achja, hab vergessen das die meisten eh auf Vista scheißen und mit XP gibt es kein DX10, noch ein DX10.1. Wie soll man also etwas anbieten, wenn keiner die Plattform dazu nutzen möchte?

Gast
2008-05-16, 21:47:33
@Sorkalm
oha, du als einzelner nutzer der mal keine probleme mit SP1 hat schließt automatisch auf alle vista user? sehr gewagt :rolleyes:



gewagt?einzig gewagte ist dein gespame ohne jegliche argumente:)

Sorkalm
2008-05-16, 21:49:53
@Sorkalm
oha, du als einzelner nutzer der mal keine probleme mit SP1 hat schließt automatisch auf alle vista user? sehr gewagt :rolleyes:

Ich wüsste nicht von speziellen SP1-Problemen, daher sehe ich jetzt auch keinen Grund das nicht zu installieren...
Natürlich heißt das nicht, dass das jeder installiert, aber wenn es dafür gratis mehr Leistung bringt (Assasin's Creed) und/oder schönere Bilder (AA!) werden das wohl einige machen.

Enthusiasten sowieso. ;)

reunion
2008-05-16, 21:51:59
der punkt ist einfach, wenn die spieleentwickler noch nichtmal einen DX10 renderpfad anbieten oder dieser recht mies läuft (bestes beispiel CoH:OF @ DX10 läuft im vergleich zu DX9 mies) dann braucht man nicht an DX10.1 zu denken.

der schritt der erstmal kommen muss, ist die verbreitung von vista + SP1 (das wird schwer) und eine gesunde grundbasis für DX10. ist beides nicht gegeben, entwickelt man nur für eine randgruppe. so schlimm es auch klingen mag, es ist nunmal so. und die entwickler fügen die DX10.1 pfade auch nicht in ihrer freizeit und unendgeldlich durch.

Diese Argumentation ist doch völlig fehl am Platz. Warum muss sich erstmal D3D10 durchsetzen, bevor man an 10.1 denken darf? Würde nV endlich D3D10.1 bieten dann könnte man womöglich auf D3D10 verzichten und gleich völlig auf D3D10.1 umsteigen. Das würde dann auch Fortschritt bedeuten ohne auf vernünftiges AA verzichten zu müssen.

selbst crytek sieht für die nähere zeit kein DX10.1 support vor und das obwohl sie gerne neue sachen probieren bzw. die grenzen austesten.


Gerade in Crysis wäre ein D3D10.1-Pfad dringend angebracht, da MSAA einfach nur mies aussieht.

Meine Spiele die ich habe laufen in DX9 besser als in DX10.

Bei besserer Optik.

Hvoralek
2008-05-16, 21:53:58
@LovesuckZ
damals hat SM3.0 weniger sinn gemacht als heute.
die GF6 war einfach zu schwach auf der brust um brauchbare FPS @ SM3.0 zu zaubern.
vom spielesupport erst garnicht zu sprechen. und am ende hat es die X800XT user auch nicht gestört das sie nur SM2.0b hatten :rolleyes:Dazu kann ich nur reunion von oben zitieren: "Ein höhere Tech-Level ist bei gleicher Optik niemals langsamer, sondern höchstens schneller", mit zwei Einschränkungen, die ich sehe: Schlechterer Treiber (bei D3D10.0 vs. 10.1 nicht zu erwarten) und NV3x in DX9.

selbst crytek sieht für die nähere zeit kein DX10.1 support vor und das obwohl sie gerne neue sachen probieren bzw. die grenzen austesten.Mal sehen, wie lange sie bei der Position bleiben, wenn Nvidia auch 10.1 liefert - oder AMD ihnen mehr Geld bietet.

LovesuckZ
2008-05-16, 21:55:22
Diese Argumentation ist doch völlig fehl am Platz. Warum muss sich erstmal D3D10 durchsetzen, bevor man an 10.1 denken darf? Würde nV endlich D3D10.1 bieten dann könnte man womöglich auf D3D10 verzichten und gleich völlig auf D3D10.1 umsteigen.

Wer hindert die Entwickler und AMD 10.1 zu pushen?
Und ja, 10.0 ist deswegen wichtig, weil mindesten 75% des Marktes nur 10.0 ist.

Gast
2008-05-16, 21:58:30
Wer hindert die Entwickler und 10.1 zu pushen?
Und ja, 10.0 ist deswegen wichtig, weil mindesten 75% des Marktes nur 10.0 ist.


im ernst das weis du nicht?ohman naivität wird hier groß geschrieben.

und wenn es nur 10% marktanteile hätte,ist noch lange kein grund:)

K4mPFwUr$t
2008-05-16, 22:07:38
gewagt?einzig gewagte ist dein gespame ohne jegliche argumente
typisch gast, selber spamen und andere als spamer bezeichnen ;)

Ich wüsste nicht von speziellen SP1-Problemen, daher sehe ich jetzt auch keinen Grund das nicht zu installieren...
Natürlich heißt das nicht, dass das jeder installiert, aber wenn es dafür gratis mehr Leistung bringt (Assasin's Creed) und/oder schönere Bilder (AA!) werden das wohl einige machen.

Enthusiasten sowieso.
das es probleme mit dem vista SP1 und diverser software gibt, ist nichts neues. schau einfach mal die newsmeldung bezüglich SP1 in letzter zeit an.

wie gesagt, du schließt von dir automatisch auf alle. darin liegt das problem.

Diese Argumentation ist doch völlig fehl am Platz. Warum muss sich erstmal D3D10 durchsetzen, bevor man an 10.1 denken darf? Würde nV endlich D3D10.1 bieten dann könnte man womöglich auf D3D10 verzichten und gleich völlig auf D3D10.1 umsteigen. Das würde dann auch Fortschritt bedeuten ohne auf vernünftiges AA verzichten zu müssen.
warum sich DX10 erstmal richtig durchsetzen muss? weil DX10 vista ist und vista DX10 ist.
vista hat keine besonders hohe verbreitung. viele leute die auch eine DX10 fähig grafikkarte besitzen, nutzen noch XP. das hindert die entwicklung ungemein.

und jetzt DX10 gänzlich links liegen zu lassen kann es auch nicht sein, siehe lovesuckz kommentar. es ist eine ganz einfache ausrede den DX10 modus nicht zu optimieren weil er "veraltet" ist. obwohl ein ganz großer teil der spielekundschaft nur über DX10.0 fähig HW verfügt.

und ob der GT200 nun DX10.1 anbietet oder nicht kann mir mehr oder minder egal sein.
wenn er es hat, ist es etwas zukunftssicherer, wenn nicht ist es kein weltuntergang.

Mal sehen, wie lange sie bei der Position bleiben, wenn Nvidia auch 10.1 liefert - oder AMD ihnen mehr Geld bietet.
klar alles schmierung, AMD wechselt jetzt einfach mal um 180° ihre vorgehensweise.
und wo sie gerade knapp bei kasse sind fördern sie DX10.1 titel, ganz besonders crysis :rolleyes:
erlich gesagt glaube ich nicht daran und halte es für die nächste zeit für nicht relevant.

Gast
2008-05-16, 22:09:35
und ich gehe jede Wette ein, alle AMD User die nun DX10.1 unbedingt beim GT200 haben wollen, haben bestimmt damals auch DX9 verteufelt, wo DX8.1 ja gereicht hatte bei ATi.
Habe ich was verpasst?
ATI war mit DX9 Karten eher da wie NV. Wenn du schon Klugscheißen willst dann wenigstens richtig.
Außerdem war DX8.1 bei ATI PS1.4 und das hatte NV (PS1.3) auch nicht bei DX8.1.

LovesuckZ
2008-05-16, 22:11:40
und ob der GT200 nun DX10.1 anbietet oder nicht kann mir mehr oder minder egal sein.
wenn er es hat, ist es etwas zukunftssicherer, wenn nicht ist es kein weltuntergang.


10.1 ist ja nicht zukunftssicherer, sondern nur kompartibler zum AA. Aber solange wie Vista ein Schattendasein fristet, wird sich auch 10.0/1 nicht durchsetzen.

Gast
2008-05-16, 22:15:33
10.1 ist ja nicht zukunftssicherer, sondern nur kompartibler zum AA. Aber solange wie Vista ein Schattendasein fristet, wird sich auch 10.0/1 nicht durchsetzen.


nur aa ist gut lol,dann bleibt doch gleich bei dx9,wozu dann dx10

Sterems
2008-05-16, 22:16:12
10.1 ist ja nicht zukunftssicherer, sondern nur kompartibler zum AA. Aber solange wie Vista ein Schattendasein fristet, wird sich auch 10.0/1 nicht durchsetzen.
Und wenn Nvidia nicht auf Dx 10.1 setzt passiert da sowieso nichts....;)

LovesuckZ
2008-05-16, 22:17:28
Und wenn Nvidia nicht auf Dx 10.1 setzt passiert da sowieso nichts....;)

Wieso? nVidia entwickelt keine Spiele. Jeder Entwickler kann einen zusätzlichen 10.1 Pfad einbauen. Und wer Hilfe braucht, könnte mal bei AMD nachfragen. Irgendwer wird sich schon um die Einbindung kümmern.

Sorkalm
2008-05-16, 22:18:36
das es probleme mit dem vista SP1 und diverser software gibt, ist nichts neues. schau einfach mal die newsmeldung bezüglich SP1 in letzter zeit an.

Sofern nichts über Pfingsten (nicht da) kam, sollte ich das eigentlich bemerkt haben. Ich wüsste da aber immer noch nichts, abgesehen von dem RMS-Problem, was keinen Endkunden betreffen sollte.

Gast
2008-05-16, 22:20:00
Wieso? nVidia entwickelt keine Spiele. Jeder Entwickler kann einen zusätzlichen 10.1 Pfad einbauen. Und wer Hilfe braucht, könnte mal bei AMD nachfragen. Irgendwer wird sich schon um die Einbindung kümmern.


naivchen das sieht man ja gerade bei AC wo der pfad raus genommen wurde,klaaaaaar der hat fehler verusacht,siiiicher dat:)

Gast
2008-05-16, 22:21:57
@LovesuckZ
damals hat SM3.0 weniger sinn gemacht als heute.
die GF6 war einfach zu schwach auf der brust um brauchbare FPS @ SM3.0 zu zaubern.


Nein, die GF6 war da schnell genug, sie war ja unter SM3 nicht langsamer als unter SM2.

Sterems
2008-05-16, 22:22:18
Wieso? nVidia entwickelt keine Spiele. Jeder Entwickler kann einen zusätzlichen 10.1 Pfad einbauen. Und wer Hilfe braucht, könnte mal bei AMD nachfragen. Irgendwer wird sich schon um die Einbindung kümmern.

Ja bei Nvidia würde sich der entwickler drum kümmern.;)Bei AMD/ATI ist das eine ganz andere geschichte.Nvidia promotet doch zu 95 % denn Spiele Markt.Ein Ati Logo gabs zum letzten mall bei Will rock.

http://youtube.com/watch?v=mHbrnsA0ltU

War damals ziemlich geil das game......:D:up:

PS:Das war glaub ich das einzigste Spiel wo >Ati get in the game vorkamm.<

K4mPFwUr$t
2008-05-16, 22:30:15
Nein, die GF6 war da schnell genug, sie war ja unter SM3 nicht langsamer als unter SM2.
so ein unsinn, die GF6 war einfach zu lahm um SM3.0 mit seinen ganzen effekten in brauchbare FPS bereiche zu befördern.

[QOUTE=sterems]
Ja bei Nvidia würde sich der entwickler drum kümmern.Bei AMD/ATI ist das eine ganz andere geschichte.Nvidia promotet doch zu 95 % denn Spiele Markt.Ein Ati Logo gabs zum letzten mall bei Will rock.

http://youtube.com/watch?v=mHbrnsA0ltU

War damals ziemlich geil das game......
[/WOUTE]
wird sicherlich ein grund sein warum die abverkäufe nicht so optimal laufen, obwohl die 3850/3870 durch aus ok ist. der große anteil (worunter ich leute aus dem forum eher weniger zähle) lässt sich halt beeindrucken von sollchen promotion. wenn man nicht viel ahnung mit der ganzen materie hat, macht das doch einen posetiven eindruck wenn bei jeden 2-3 game so ein nV logo erstmal im intro auftaucht :rolleyes:

Hvoralek
2008-05-16, 23:02:27
klar alles schmierung, AMD wechselt jetzt einfach mal um 180° ihre vorgehensweise.
und wo sie gerade knapp bei kasse sind fördern sie DX10.1 titel, ganz besonders crysis :rolleyes:
erlich gesagt glaube ich nicht daran und halte es für die nächste zeit für nicht relevant.Ich nehme auch an, dass eher Nvidia D3D10.1- Hardware bieten wird. Und ja, ich finde es schon zumindest seltsam, dass Crytek sich ständig an einen der IHVs dranhängt (auf der Far- Cry- DVD prangte z.B. noch ein ATI- Logo, ebenso bei früheren Crysispräsentationen), dabei auch mal schlagartig die Seiten wechselt und natürlich ständig genau das erzählt, was "ihr" jeweiliger Hersteller gerade hören möchte. Mich würde z.B. mal interessieren, ob und wieweit die AA- Probleme in Crysis (die gibt es noch, oder?) in einem D3D10.1- Pfad behoben werden könnten.

so ein unsinn, die GF6 war einfach zu lahm um SM3.0 mit seinen ganzen effekten in brauchbare FPS bereiche zu befördern.Um SM3 sinnvoll zu nutzen, musste man auch nicht jeden neuen Pups nutzen. Davon, dass manches mit SM3 einfacher/ schneller umzusetzen ist als mit SM2, hätte auch NV4x gut profitieren können.

Ailuros
2008-05-17, 01:06:55
http://forum.beyond3d.com/showpost.php?p=1162888&postcount=1020

LOL Das Zeug hatte ich schon am 14.02 per e-mail.

Ich nehme auch an, dass eher Nvidia D3D10.1- Hardware bieten wird. Und ja, ich finde es schon zumindest seltsam, dass Crytek sich ständig an einen der IHVs dranhängt (auf der Far- Cry- DVD prangte z.B. noch ein ATI- Logo, ebenso bei früheren Crysispräsentationen), dabei auch mal schlagartig die Seiten wechselt und natürlich ständig genau das erzählt, was "ihr" jeweiliger Hersteller gerade hören möchte. Mich würde z.B. mal interessieren, ob und wieweit die AA- Probleme in Crysis (die gibt es noch, oder?) in einem D3D10.1- Pfad behoben werden könnten.

Papperlappap...Crytek hat einfach die bessere Unterstuetzung bei NVIDIA gefunden und nein ich meine keine Schmiergelder oder aehnlichen Bloedsinn. ATI hatte viel versprochen damals aber am Ende dann doch keine besondere Unterstuetzung geliefert. Mit fetten Reden kommt man in meinem Dorf nicht besonders weit hm?

Ja natuerlich koennte Crytek einen 10.1 Pfad schreiben, aber wenn es sich wieder um einen Pfad handelt der ihre fehlenden Optimierungen zurechtbiegen soll und dann fuers Marketing "D3D10.1 Pfad" genannt wird wie in der Vergangenheit der "SM3.0 Pfad" dann nein danke.

Um SM3 sinnvoll zu nutzen, musste man auch nicht jeden neuen Pups nutzen. Davon, dass manches mit SM3 einfacher/ schneller umzusetzen ist als mit SM2, hätte auch NV4x gut profitieren können.

Haette Crytek von Anfang nicht fuer jedes Licht einen ganzen Pass gebraucht, dann waere auch jeglicher zusaetzlicher SM2.0_extended bzw. SM3.0 Pfad in FC vielleicht sogar ueberfluessig gewesen.

deekey777
2008-05-17, 01:15:06
...



Haette Crytek von Anfang nicht fuer jedes Licht einen ganzen Pass gebraucht, dann waere auch jeglicher zusaetzlicher SM2.0_extended bzw. SM3.0 Pfad in FC vielleicht sogar ueberfluessig gewesen.
Es wären aber höchstens 2 Lichter mit SM 2 möglich, mit SM2X dagegen bis zu drei und SM3 bis zu vier. Aber ein SM2X-Pfad und ein SM3-Pfad waren natürlich Augenwischerei.

Nightspider
2008-05-17, 01:16:09
Nunja, da das Shadermodel 4.1 so oder so für Crysis 2 genutzt wird und dafür in die CryEngine 2 (oder 2.5) eingebaut wird, wäre es denkbar das CryTek einen Pfad mit einem der nächsten Patches bringt...schlecht wärs ja nicht und CryTek hat ein Ruf zu verlieren. :rolleyes:

Ailuros
2008-05-17, 01:26:08
Es wären aber höchstens 2 Lichter mit SM 2 möglich, mit SM2X dagegen bis zu drei und SM3 bis zu vier. Aber ein SM2X-Pfad und ein SM3-Pfad waren natürlich Augenwischerei.

Ich dachte sie hatten nach dem SM3.0 Pfad noch einen SM2.0_b fuer R4x0 nachgeliefert oder?

Nunja, da das Shadermodel 4.1 so oder so für Crysis 2 genutzt wird und dafür in die CryEngine 2 (oder 2.5) eingebaut wird, wäre es denkbar das CryTek einen Pfad mit einem der nächsten Patches bringt...schlecht wärs ja nicht und CryTek hat ein Ruf zu verlieren. :rolleyes:

Ich hab nicht die blasseste Ahnung warum das aliasing so extrem in Crysis ist, aber wenn 10.1 wirklich das Problem loesen wuerde klingt es mir verdammt unwahrscheinlich dass Crytek nicht nachliefern wuerde.

deekey777
2008-05-17, 01:38:56
Ich dachte sie hatten nach dem SM3.0 Pfad noch einen SM2.0_b fuer R4x0 nachgeliefert oder?
Das war doch eine lustige Sache: Als die Artikel über "Far Cr + SM3 + NV40" kamen, wo der R420 nur wegen seiner hohen Füllrate mithalten konnte, sollen die Kanadier böse reagiert haben und etwas später gab's Artikel, wo Far Cry mit SM 3 und SM 2X (damals noch 2.B) getestet wurde. Der (später zurückgezogene) Patch 1.2 beinhaltete beide Paths. Mit dem Patch 1.3 wurde SM2.B in SM2.X geändert.
Worauf ich aber hinauswollte: Crytek, Shaderpfade und das zweimal verkaufte Pferd. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=158013) Für mich eines der Highlights dieses Forums. iXBT hat auch etwas geschrieben: http://www.digit-life.com/articles2/gffx/fc12.html und http://www.digit-life.com/articles2/gffx/fc12-2.html

...
Ich hab nicht die blasseste Ahnung warum das aliasing so extrem in Crysis ist, aber wenn 10.1 wirklich das Problem loesen wuerde klingt es mir verdammt unwahrscheinlich dass Crytek nicht nachliefern wuerde.
Es liegt an dem verwendeten "Z-First-Pass" (die Szene wird zuerst in einen Tiefen-Buffer geschrieben, dumm nur, dass man daraus nicht lesen kann, darum soll ein gemittelter Wert verwendet werden). Es gibt einen Artikel von Crytek, wo sie beschreiben, warum das AA so problematisch in Crysis ist.
http://ati.amd.com/developer/gdc/2007/D3DTutorial_Crytek.pdf

=Floi=
2008-05-17, 02:17:36
zitat
LOL Das Zeug hatte ich schon am 14.02 per e-mail.

das ist ja nichts schlechtes und somit sind diese daten wohl schon fix. Ich denke die karte wird ihre erwartungen schon erfüllen können und ist ein würdiger nachfolger der 8800er

Ailuros
2008-05-17, 02:31:00
Es liegt an dem verwendeten "Z-First-Pass" (die Szene wird zuerst in einen Tiefen-Buffer geschrieben, dumm nur, dass man daraus nicht lesen kann, darum soll ein gemittelter Wert verwendet werden). Es gibt einen Artikel von Crytek, wo sie beschreiben, warum das AA so problematisch in Crysis ist.
http://ati.amd.com/developer/gdc/2007/D3DTutorial_Crytek.pdf

Deferred shading aka MRTs. Dazu hilft wohl momentan doch nur 10.1 so wie es aussieht. Uhmm auf welchen tauben Ohren hockt nochmal AMD?

Gast
2008-05-17, 09:37:38
Hier ist ein Artikel über DX10.1 und AA: http://www.theinquirer.net/gb/inquirer/news/2007/11/16/why-dx10-matters

Sorry, aber wenn das der GT200 nicht kann, was bringt er dann? Ich war ja sehr enthusiastisch, aber sollte sich das bewahrheiten warte ich noch auf den R700. Bei vergleichbarer Performance fände ich den dann interessanter, gerade wegen AA.

Für kein AA in hohen Auflösungen tuts ansonsten auch ein G92.

mictasm
2008-05-17, 09:53:21
Ich sehe die Problematik bei der DX10(.1) Unterstützung eher bei der Vista-Verbreitung als bei der Hardware.

Schlammsau
2008-05-17, 10:06:08
Vista fristet mittlerweile auch kein Schattendasein mehr! Sind nicht schon mehr als 30% auf Vista umgestiegen!?

GeneralHanno
2008-05-17, 10:18:11
ich denke einen guten überblick was vista angeht, bietet die aktuelle steam umfrage. wie viel prozent vista sind da vertreten?

zum flimmern bei crysis:
sehr hohe polygonzahl + viele shader ;) gegen shaderflimmern hilft aber nur FSSSAA ...

Schlammsau
2008-05-17, 10:22:18
ich denke einen guten überblick was vista angeht, bietet die aktuelle steam umfrage. wie viel prozent vista sind da vertreten?

zum flimmern bei crysis:
sehr hohe polygonzahl + viele shader ;) gegen shaderflimmern hilft aber nur FSSSAA ...

STEAM vertraue ich nicht, denke mal das hat man hier mitbekommen!

GeneralHanno
2008-05-17, 10:34:43
STEAM vertraue ich nicht, denke mal das hat man hier mitbekommen!

deine umfragen sind für spieleentwickler (die natürlich eine marktanalyse machen, um eine verteilungskurve der rechenpower zu erstellen) unbrauchbar, da das 3dc ein absolutes freak forum ist. die steam umfragen (von der 38xx erkennung mal abgesehen) halte ich da schon am brauchbarsten ...

hier kommt vista auf knapp 20% und xp auf 80% ...

K4mPFwUr$t
2008-05-17, 10:40:14
@schlammsau
traue keiner statistik, die dir nicht in den kram passt.
allerdings halte ich steam auch nicht für die optimale umfrageplatzform was vista angeht.
grund es gibt kaum steamspiele die DX10 anbieten und somit einfließen.
die jenigen die eh nur cs1.6, css und co spielen brauchen zwangsweiße kein vista.

aber troz allem hat vista ein schattendasein, der anteil ist einfach verschwenderisch gering.
selbst viele firmen warten auf windows 7, im grunde genommen ist vista imho nur eine beta und überbrücker zu windows 7.

The_Invisible
2008-05-17, 10:45:47
@schlammsau
traue keiner statistik, die dir nicht in den kram passt.
allerdings halte ich steam auch nicht für die optimale umfrageplatzform was vista angeht.
grund es gibt kaum steamspiele die DX10 anbieten und somit einfließen.
die jenigen die eh nur cs1.6, css und co spielen brauchen zwangsweiße kein vista.

aber troz allem hat vista ein schattendasein, der anteil ist einfach verschwenderisch gering.
selbst viele firmen warten auf windows 7, im grunde genommen ist vista imho nur eine beta und überbrücker zu windows 7.

aha, auf windows7 springen alle sofort ohne nachdenken auf aber mit vista war man skeptisch, sehr logisch...

mfg

K4mPFwUr$t
2008-05-17, 10:48:49
@The_Invisible
aus vista wurden viele sachen gestrichen, ist ein grund warum keiner wirklich zu vista wechseln möchte.

übrigends musst du dich nicht rechtfertigen das du vista gekauft hast oder es bis aufs blut verteidigen :rolleyes:

nun BTT

GeneralHanno
2008-05-17, 11:05:04
es gibt durchaus analysten die sagen, dass vista langfristig zwischen den beiden "riesen" XP und windows 7 "zerquetscht" werden wird ... aber das ist langsam off topic.

fakt ist, dass spieleentwickler in den nächsten 1-2 jahren auf einen DX9 pfad nicht verzichten können ...

deekey777
2008-05-17, 11:25:17
Deferred shading aka MRTs. Dazu hilft wohl momentan doch nur 10.1 so wie es aussieht. Uhmm auf welchen tauben Ohren hockt nochmal AMD?
Es ist kein Deferred Rendering, aber es geht in diese Richtung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6182478#post6182478
Vielleicht kennst du jemanden, der diesen Artikel hat: "Real-time Atmospheric
Effects". Öffentlich sind nur Präsentationen zu finden (ich glaube, ich habe die Vollversion irgendwo, kann sie aber nicht finden). In diesem Artikel steht gleich auf der ersten Seite, was sie machen und welche Probleme das mit sich bringt.
Zu deinem Einwand:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6248340#post6248340

Gast
2008-05-17, 12:18:26
Jeder vernünftige Spieleentwickler der nicht Lowend-Spiele produziert setzt jetzt auf Vista und DX10. Wieso?

- Alle neuen PCs werden mi Vista ausgeliefert
- Vista hat schon jetzt eine hohe Verbreitung

Dass Vista am Start nicht so erfolgreich ist liegt an:
- Der Stabilität von XP (XP user lassen sich so lange Zeit mit Vista wie die Win 2000 User damals mit XP; aber da die meisten noch Win 98/ME hatten fiel das nicht so sehr auf)
- Dem neu erstarkten MacOS X

AnarchX
2008-05-17, 12:26:47
Am Horizont scheint es wohl schon weitere Ableger zu geben:
GT200 GT206 iGT206 iGT209 GT212 GT214 GT216 GT218
http://forum.beyond3d.com/showpost.php?p=1163221&postcount=1073

Ailuros
2008-05-17, 14:14:39
Es ist kein Deferred Rendering, aber es geht in diese Richtung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6182478#post6182478
Vielleicht kennst du jemanden, der diesen Artikel hat: "Real-time Atmospheric
Effects". Öffentlich sind nur Präsentationen zu finden (ich glaube, ich habe die Vollversion irgendwo, kann sie aber nicht finden). In diesem Artikel steht gleich auf der ersten Seite, was sie machen und welche Probleme das mit sich bringt.
Zu deinem Einwand:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6248340#post6248340


Ich sagte Deferred shading nicht rendering, anders auch MRTs bzw multiple render targets genannt. Ich dachte das Zeug aehnelt dem hier:

http://www.imgtec.com/powervr/insider/demos/mrt_demo.asp

dargo
2008-05-17, 14:15:22
Hier ist ein Artikel über DX10.1 und AA: http://www.theinquirer.net/gb/inquirer/news/2007/11/16/why-dx10-matters

Sorry, aber wenn das der GT200 nicht kann, was bringt er dann? Ich war ja sehr enthusiastisch, aber sollte sich das bewahrheiten warte ich noch auf den R700. Bei vergleichbarer Performance fände ich den dann interessanter, gerade wegen AA.

Seit wann ist CF gegen Single-GPU vergleichbar?

Gast
2008-05-17, 14:22:01
Seit wann ist CF gegen Single-GPU vergleichbar?

seit cf auf einer karte gebaut werden,seit da:)

deekey777
2008-05-17, 14:28:15
Ich sagte Deferred shading nicht rendering, anders auch MRTs bzw multiple render targets genannt. Ich dachte das Zeug aehnelt dem hier:

http://www.imgtec.com/powervr/insider/demos/mrt_demo.asp
http://www.beyond3d.com/content/articles/19/
Deferred Rendering or Deferred Shading or Deferred Lighting?
The term deferred rendering is used to describe a number of related techniques; they all share a deferment stage but differ in what portion of the pipeline is deferred. This article only defers the lighting portion of the pipeline, all other parts can be done in what ever way you like, and the only requirement is that the G-Buffers are filled prior to the lighting stage. Deferred Shading is typically where the actual surface shader execution is deferred, this is the model presented by UNC Pixel Plane project [4].

Chris Lux
2008-05-17, 14:31:03
Ich sagte Deferred shading nicht rendering, anders auch MRTs bzw multiple render targets genannt.
deferred shading ist nicht MRT! MRTs nutzt man im deferred shading zu implementieren.

dargo
2008-05-17, 14:31:44
seit cf auf einer karte gebaut werden,seit da:)
Lol, als ob das ein Vorteil wäre. :D

Ailuros
2008-05-17, 14:52:31
deferred shading ist nicht MRT! MRTs nutzt man im deferred shading zu implementieren.

Ich mach den gleichen Fehler oefters, womoeglich weil ich jedesmal wenn ich deferred shading hoere an MRTs denke. Danke auf jeden Fall.

Frage: da in dem whitepaper two channel RT erwaehnt wird (fuer fog), heisst dass jetzt dass dieses scene depth based rendering auch MRTs verwendet oder nicht?

Gast
2008-05-17, 15:02:01
Wenn man den Beyond3D Thread liest, bekommt man immer mehr das Gefühl das nV den ersten DX10.1 Chip erst im Januar 2009 bringt mit dem Refresh des GT200... oder es ganz sein lässt, was ich mir aber nicht vorstellen kann.
GT200 = Tesla2 (64Bit Genauigkeit usw). aber DX10.1...

tombman
2008-05-17, 15:07:37
10.1 geht mir persönlich am AA vorbei...

Bevor das ordentlich genutzt wird sind wir zwei Generationen weiter.

Die sollen erstmal DX10 ordentlich nutzen und nicht ständig wie ein "Zuckerl" behandeln, was irgendwie im Nachhinein dazugepatcht wird, nur um sagen zu können "wir haben DX10!!!1112" :rolleyes:

:)

InsaneDruid
2008-05-17, 15:09:36
seit cf auf einer karte gebaut werden,seit da:)

Solange das Frametimeproblem bei AFR nicht behoben wird ist SLI/CF überhaupt keine Option, ob nun auf einer Karte oder nicht.

Hohe FPS Zahlen ohne gefühlte Verbesserung kann man sich auch mit Photoshop malen. Bringt genausoviel.

Don Vito
2008-05-17, 15:11:49
Was kann DX10.1 besser als DX10?

Ronny145
2008-05-17, 15:13:13
10.1 geht mir persönlich am AA vorbei...

Bevor das ordentlich genutzt wird sind wir zwei Generationen weiter.



Wo keine Hardware, da keine Software. NVIDIA würde eine DX 10.1 Software Verbreitung bremsen.

K4mPFwUr$t
2008-05-17, 15:16:53
@ronny145
das ist unsinn. es gab ja damals auch eine SM3.0 entwicklung ohne das ATI vorerst SM3.0 angeboten hatte :rolleyes:

@don vito
es soll diverse AA probleme lösen und die performance verbessern.
nur würde ich es tausend mal lieber begrüßen wenn einige devs besser proggrammieren würden bzw. optimieren. da wäre DX10.1 nur ein grund dies nicht zu tuen, weil man es sich ganz einfach machen kann.

tombman
2008-05-17, 15:20:13
zu tuen
:uhammer:
http://conjd.cactus2000.de/showverb.php?verb=tun

Nvidia hat offenbar genug Macht .1 content zu verhindern, siehe AC ;D

Ohne Nvidia wird wohl kaum wer großartig in Richtung .1 proggn...

Ronny145
2008-05-17, 15:26:06
@ronny145
das ist unsinn. es gab ja damals auch eine SM3.0 entwicklung ohne das ATI vorerst SM3.0 angeboten hatte :rolleyes:


Ich denke das kann man nicht ganz vergleichen. Jetzt haben wir die performance, umso bedauerlicher wäre ein fehlendes DX10.1 nun. Die Entwickler müssten auf NVIDIA unnötig Rücksicht nehmen, das bremst die Entwicklung. Schon alleine die ganzen Spiele die im TWIMTBP Programm stehen, da kannst du dir ja vorstellen, dass NVIDIA dann über eine DX10.1 Unterstützung nicht erfreut wäre. Das bremst in gewisser Weise also sehr wohl. Siehe Assassins creed.

AnarchX
2008-05-17, 15:27:20
@ronny145
das ist unsinn. es gab ja damals auch eine SM3.0 entwicklung ohne das ATI vorerst SM3.0 angeboten hatte :rolleyes:

NV hatte aber auch einen entsprechenden Marktanteil, ATis D3D10.1 HW ist eher spärlich verbreitet.

es soll diverse AA probleme lösen und die performance verbessern.
nur würde ich es tausend mal lieber begrüßen wenn einige devs besser proggrammieren würden bzw. optimieren. da wäre DX10.1 nur ein grund dies nicht zu tuen, weil man es sich ganz einfach machen kann.
Das hat nichts mit "einfach machen" zu tun, sondern unter D3D10 ist das Auslesen der benötigen Samples schlich nicht möglich bzw. nicht ohne größere/problematische Hacks.
Eigentlich hätten diese Anforderungen schon in 10.0 gehört.

Coda
2008-05-17, 15:28:18
@ronny145
das ist unsinn. es gab ja damals auch eine SM3.0 entwicklung ohne das ATI vorerst SM3.0 angeboten hatte :rolleyes:
Aber nichts wesentliches.

reunion
2008-05-17, 15:39:47
@ronny145
das ist unsinn. es gab ja damals auch eine SM3.0 entwicklung ohne das ATI vorerst SM3.0 angeboten hatte :rolleyes:


Wo denn? Die SM3-Spiele bevor ATi SM3 angeboten hatte konnte man an einer Hand abzählen und waren zudem meist nicht mehr als einfache Pass-Reduktionen.

Das hat nichts mit "einfach machen" zu tun, sondern unter D3D10 ist das Auslesen der benötigen Samples schlich nicht möglich bzw. nicht ohne größere/problematische Hacks.
Eigentlich hätten diese Anforderungen schon in 10.0 gehört.

Wäre wohl auch in 10.0 gekommen, wenn NV es unterstützen würde.

deekey777
2008-05-17, 15:40:10
Aber nichts wesentliches.
Splinter Cell 3 (ist aber ein Grenzfall, da Ubisoft erwartete, dass der R520 Ende Mai kommt, also einige Wochen nach dem Spiel).

reunion
2008-05-17, 15:45:30
Was kann DX10.1 besser als DX10?

Bitteschön:

http://img230.imageshack.us/img230/1456/56342428cg4.png
http://img230.imageshack.us/img230/1865/43549145rv8.png

http://www.teamati.com/DirectX%2010_1%20White%20Paper%20v0.4.pdf

Coda
2008-05-17, 15:50:44
Splinter Cell 3 (ist aber ein Grenzfall, da Ubisoft erwartete, dass der R520 Ende Mai kommt, also einige Wochen nach dem Spiel).
Da wurde auch nur statisches branching verwendet. Das hätten sie auch schon mit SM2 haben können, wäre ATI nich so blöd gewesen es in R4xx nicht zu implementieren.

K4mPFwUr$t
2008-05-17, 15:50:46
Wo denn? Die SM3-Spiele bevor ATi SM3 angeboten hatte konnte man an einer Hand abzählen und waren zudem meist nicht mehr als einfache Pass-Reduktionen.
um die heutigen titel mit DX10.1 abzuzählen braucht man nur 1 finger.

Wäre wohl auch in 10.0 gekommen, wenn NV es unterstützen würde.
die schuld sehe ich eher bei MS, nicht immer ist NV daran schuld.

PS: man merkt schnell das du ein ATI fanboy bist :rolleyes:


http://conjd.cactus2000.de/showverb.php?verb=tun
müssen wir uns auf HW luxx foren und computerbase nivau herab lassen?

reunion
2008-05-17, 15:57:25
um die heutigen titel mit DX10.1 abzuzählen braucht man nur 1 finger.


Genau das ist das Problem. Deshalb benötigt es mehr Hardware.


die schuld sehe ich eher bei MS, nicht immer ist NV daran schuld.

PS: man merkt schnell das du ein ATI fanboy bist :rolleyes:


Man merkt schnell das du keine Ahnung hast. MS muss sich auf den kleinsten gemeinsamen Nenner festlegen. Oder hätte man dem G80 lieber wegen dieses Features die D3D10-Kompatibilität verwähren sollen?

müssen wir uns auf HW luxx foren und computerbase nivau herab lassen?

Auf solche Fehler hingewiesen zu werden ist ja wohl sehr nett und zuvorkommend. Oder müssen wir uns auf ..... Niveau herab lassen?

Da wurde auch nur statisches branching verwendet. Das hätten sie auch schon mit SM2 haben können, wäre ATI nich so blöd gewesen es in R4xx nicht zu implementieren.

Dyn. Branching war mangels Hardware die daraus Vorteile erzielt wohl kaum sinnvoll.

K4mPFwUr$t
2008-05-17, 16:01:59
Genau das ist das Problem. Deshalb benötigt es mehr Hardware.
genau das ist das problem, deshalb benötigt es mehr vista mit SP1.
im grunde genommen fängt hier schon das problem an. wieviele leute haben DX10 fähig hardware und nutzen weiterhin XP?

Man merkt schnell das du keine Ahnung hast. MS muss sich ein kleinsten gemeinsamen Nenner festlegen. Oder hätte MS den G80 lieber wegen dieses Features die D3D10-Kompatibilität verwähren sollen?
und du bist der allwissende oder?

Auf solche Fehler hingewiesen zu werden ist ja wohl selbstverständlich. Oder müssen wir uns auf ..... Niveau herab lassen?
das hat nichts mit selbstverständlich zu tuen, so was ist einfach nur milimeterfickerei sich wegen jeden kleinsten fehler einen auf oberlehrer zu machen.

Coda
2008-05-17, 16:02:24
Dyn. Branching war mangels Hardware die daraus Vorteile erzielt wohl kaum sinnvoll.
Was hat das damit zu tun? :|

Gast
2008-05-17, 16:03:59
Nvidia hat offenbar genug Macht .1 content zu verhindern, siehe AC ;D



lol, aber zu blöd die HW dafür zu bringen :rolleyes:

reunion
2008-05-17, 16:05:47
und du bist der allwissende oder?


Nein, aber gewisse Zusammenhänge die dich offenbar überfordern sind mir schon noch klar.

Was hat das damit zu tun? :|

Naja, wenn du dich beschwerst das nur statischen Branching verwendet wurde. Was anderes war wohl kaum sinnvoll.

AnarchX
2008-05-17, 16:36:14
http://img372.imageshack.us/img372/2097/gtx200seriesspecnnfx571jq6.png (http://imageshack.us)
http://forum.donanimhaber.com/m_23295300/tm.htm

reunion
2008-05-17, 16:37:40
Damit ist D3D10.1 wohl endgültig abgeblasen.

GeneralHanno
2008-05-17, 16:41:04
50% more gaming performence = 1,5x GX2 ???

K4mPFwUr$t
2008-05-17, 16:41:45
@reunion
es sind doch nur gerüchte und keine konkreten angaben seitens NV :conf:

@GeneralHanno
kann man wohl annehmen, da die GX² offizell das flagschiff von NVs 1. USA gen ist.

w0mbat
2008-05-17, 16:42:00
Nur 50% schneller als eine 8800GTX? Das kann doch nicht sein, oder?

GeneralHanno
2008-05-17, 16:42:31
vll kann ja jemand den langen text aus der quelle mal übersetzen ;)

Coda
2008-05-17, 16:44:09
Naja, wenn du dich beschwerst das nur statischen Branching verwendet wurde. Was anderes war wohl kaum sinnvoll.
Ich beschwer mich, dass ATi bei R4xx kein statisches branching implementiert hat, obwohl das mit SM2 möglich gewesen wäre.

Das ist aber jetzt langsam mal alter Tobak.

Damit ist D3D10.1 wohl endgültig abgeblasen.
Bitte nicht :usad:

Was meine Quellen bisher gezwitschert haben die mit den restlichen Specs bisher auch recht hatte ist es aber noch nich so ganz ausgeschlossen.

Sorkalm
2008-05-17, 16:46:08
@reunion
es sind doch nur gerüchte und keine konkreten angaben seitens NV :conf:

Eine Formulierung wie "Full Microsoft DirectX 10 Support" klingt aber ziemlich wie aus der Hand des Nvidia Marketings.

AnarchX
2008-05-17, 16:50:29
Was meine Quellen bisher gezwitschert haben die mit den restlichen Specs bisher auch recht hatte ist es aber noch nich so ganz ausgeschlossen.
Die ALUs sollen ja laut NV schon bei G9x/G8x 10.1 fähig sein, wozu es auch eine Folie gab, aber es mangelt wohl wie schon oft spekuliert an den TMUs.

Ist Gather4 nicht eigentlich so etwas wie PCF oder ist letzteres nur ein Anwendungsbeispiel für Gather4?

reunion
2008-05-17, 16:53:16
Die ALUs sollen ja laut NV schon bei G9x/G8x 10.1 fähig sein, wozu es auch eine Folie gab, aber es mangelt wohl wie schon oft spekuliert an den TMUs.

Ist Gather4 nicht eigentlich so etwas wie PCF oder ist letzteres nur ein Anwendungsbeispiel für Gather4?

Gather4 geht wesentlich weiter als PCF:
http://www.beyond3d.com/content/reviews/2/4

Außerdem ist PCF in D3D10 AFAIK ohnehin Pflicht.

dargo
2008-05-17, 16:53:17
http://img372.imageshack.us/img372/2097/gtx200seriesspecnnfx571jq6.png (http://imageshack.us)
http://forum.donanimhaber.com/m_23295300/tm.htm
Wie darf man das mit den +50% verstehen? Sind etwa die SPs bis zu 50% effizienter? :eek:

w0mbat
2008-05-17, 16:54:42
[...]
@GeneralHanno
kann man wohl annehmen, da die GX² offizell das flagschiff von NVs 1. USA gen ist.

Die GX2 hatte aber 256SP, also können die 50% nicht "trough 240SP" kommen. Deshalb ist für mich hier die 1st Gen ganz klar der G80 mit seinen 128SP.

Entweder der GT200 ist nur 50% schneller als der G80 (was ich nicht glaube), oder die +50% beziehen sich auf die Leistung der SP.

Nakai
2008-05-17, 16:56:19
50% more gaming performence = 1,5x GX2 ???

Wahrscheinlich...damit würde man etwa auf doppelte Geforce 8800Ultra-Performance stehen.
Natürlich wird das Ding nicht so Speicherlimitiert sein wie die GX2.


mfg Nakai

€:
Es steht aber auf der Folie, dass es 50% mehr durch die 240 SPs sind.
Also 50% mehr als 9800GTX-FLOPs, ergo knapp bei 1TFLOP.
Die werden wohl bei 1,3Ghz getaktet sein.

tombman
2008-05-17, 16:59:30
das hat nichts mit selbstverständlich zu tuen, so was ist einfach nur milimeterfickerei sich wegen jeden kleinsten fehler einen auf oberlehrer zu machen.
Das ist ja das Tragische: es ist kein kleiner Fehler, das ist ein Monsterfehler, wenn man eines der grundlegendsten Verben so dermaßen falsch schreibt, daß es weh tut.
Du solltest dankbar für den Hinweis sein, weil sich jeder Arbeitgeber übergeben muß, wenn er sowas liest ;) Aber ok, ist ja deine Allgemeinbildung :rolleyes:
==

Hmm, was meinen die mit 50% schneller als vorher? 240sp wären allein schon von der Anzahl her mehr als 50% schneller als 128sp. Oder meinen die die Effizienz jedes einzelnen sp? Das wäre natürlich geil :D

Ich will nicht nur 50% mehr power, ich will 100% mehr :(

horn 12
2008-05-17, 17:00:35
Also in etwa:
HD-4870XT 55 bis 60% und das Flagschiff GTX-280 dann 100%
Aber da stimmt der Preis der NV Karte bei weitem nicht!:mad:
Wird wohl auf dies hinauslaufen: 250 gegen 550 Euro.

Sorkalm
2008-05-17, 17:05:08
Die werden wohl bei 1,3Ghz getaktet sein.

Doch so ein verdammt niedrigerer Takt?

GeneralHanno
2008-05-17, 17:06:12
also ich würde eigentlich so 1500mhz erwarten. aber aufgund der enormen chipbreite muss man ja irgendwo sparen ;)

dargo
2008-05-17, 17:06:55
Ich will nicht nur 50% mehr power, ich will 100% mehr :(
Für nur 50% mehr Performance ist das Ding viel zu fett. Wenn sich die +50% nur auf die SP-Effizienz beziehen hätte das Ding schon bei 1500Mhz Shadertakt beachtliche ~1,6TFlops.

Sorkalm
2008-05-17, 17:06:58
also ich würde eigentlich so 1500mhz erwarten. aber aufgund der enormen chipbreite muss man ja irgendwo sparen ;)

1,5 GHz haben ja schon die Streamprozessoren der G80 in 90 Nanometern geschafft, und der G80 ist ja nun auch ziemlich breit...

K4mPFwUr$t
2008-05-17, 17:07:22
@horn12
bei highend hat der preis auch nicht nie richtig gestimmt.
das selbe wie beim auto, für die letzten Km/h oder PS bezahlt man nunmal am meisten.

@tombman
wenn ich so manchen beitrag von dir lese, tut mir auch einiges weh und ich muss mich öfters übergeben. aber belassen wir es dabei :rolleyes:

pest
2008-05-17, 17:14:14
Entweder der GT200 ist nur 50% schneller als der G80 (was ich nicht glaube), oder die +50% beziehen sich auf die Leistung der SP.

das kleine Wörtchen "through" bedeutet das die 50% durch Erhöhung der Shaderanzahl entstehen soll

w0mbat
2008-05-17, 17:15:46
das kleine Wörtchen "through" bedeutet das die 50% durch Erhöhung der Shaderanzahl entstehen soll

Dann wäre die Aussage aber das der GT200 nur 50% schneller als der G80 ist, was man wohl ausschließen kann.

Gast
2008-05-17, 17:18:45
Dann wäre die Aussage aber das der GT200 nur 50% schneller als der G80 ist, was man wohl ausschließen kann.
das würde hinhauen ca.50% schneller als eine 8800gtx,für wird es nicht reichen gerade in hohen auflösungen nicht.

tombman
2008-05-17, 17:19:19
@tombman
wenn ich so manchen beitrag von dir lese, tut mir auch einiges weh und ich muss mich öfters übergeben. aber belassen wir es dabei :rolleyes:
Aber sicher nicht bzgl der Rechtschreibung, und nur darum gings- aus deinem Mund tuet das dann wohl ein Kompliment sein ;D
==

Nur 50% mehr und 500€ paßt echt nicht zusammen, das würde ATI ja mit dem halben Preis auch erreichen...

pest
2008-05-17, 17:20:41
wieso? ich stell mir nen G92 mit 240SP + 512Bit vor, dann passen die >2xG80 GTX schon

Gast
2008-05-17, 17:22:07
Dann wäre die Aussage aber das der GT200 nur 50% schneller als der G80 ist, was man wohl ausschließen kann.


Warum????Das währe auf GX2 Niveau, wenn man eine 8800Ultra als Basis nimmt.

Welche Daten gelten eigentlich als gesichert?????

Gast
2008-05-17, 17:26:22
2 8800gtx haben viel mehr bandbreite als eine gt200,daher vermute ich das bei hohen auflösungen die gt200 nichtdie 2 8800gtx knackt.

dargo
2008-05-17, 17:30:41
2 8800gtx haben viel mehr bandbreite als eine gt200,daher vermute ich das bei hohen auflösungen die gt200 nichtdie 2 8800gtx knackt.
Aha, und woher weißt du wie effizient der GT200 mit seiner Speicherbandbreite umgeht? Sind 2 7900GTX auch schneller als eine G8800GTX? ;)

Nightspider
2008-05-17, 17:33:39
2 8800gtx haben viel mehr bandbreite als eine gt200,daher vermute ich das bei hohen auflösungen die gt200 nichtdie 2 8800gtx knackt.

Allerdings hat der GT200 effektiv 50-100% mehr Speicher, da er wohl nicht so verschwenderisch damit umgeht wie der G80 :P

Wenn der GT200 240 SP hat und der G80 nur 128 brauch doch gar keiner erst davon auszugehen, das die Geforce GTX 280 nur 50% schneller ist als eine 8800 Ultra ;)

Ich könnte mir gut vorstellen das NV den Effizienz der Shader erhöht hat. 50% stellt dann sicherlich das optimalste im Optimum dar, was nur unter bestimmten Bedingungen in bestimmten Spielen zutrifft.

Aber vllt konnte NV tatsächlich die effektive Effizienz um 20-30% erhöhen...

Sie hatten ja schließlich 2 Jahre Zeit dafür...

Gast
2008-05-17, 17:33:40
Aha, und woher weißt du wie effizient der GT200 mit seiner Speicherbandbreite umgeht? Sind 2 7900GTX auch schneller als eine G8800GTX? ;)


langjährige erfahrung,siehste doch wie nv mit der speicherbandbreite umgeht,oder meinste es wird ein wunder geschehen:)

Gast
2008-05-17, 17:35:15
Allerdings hat der GT200 effektiv 50-100% mehr Speicher, da er wohl nicht so verschwenderisch damit umgeht wie der G80 :P

Wenn der GT200 240 SP hat und der G80 nur 128 brauch doch gar keiner erst davon auszugehen, das die Geforce GTX 280 nur 50% schneller ist als eine 8800 Ultra ;)

Ich könnte mir gut vorstellen das NV den Effizienz der Shader erhöht hat. 50% stellt dann sicherlich das optimalste im Optimum dar, was nur unter bestimmten Bedingungen in bestimmten Spielen zutrifft.

Aber vllt konnte NV tatsächlich die effektive Effizienz um 20-30% erhöhen...

Sie hatten ja schließlich 2 Jahre Zeit dafür...


was ist denn das für eine rechnung? 240sp aber wie kommst du drauf das 2 8800gtx nur 128sp haben?hehe mach mal 2:)

dargo
2008-05-17, 17:38:03
langjährige erfahrung,siehste doch wie nv mit der speicherbandbreite umgeht,oder meinste es wird ein wunder geschehen:)
Ein G92 arbeitet schon sparsamer mit seiner Bandbreite als der G80. Wer weiß ob NV dies beim GT200 nicht noch weiter ausbauen konnte.

Nightspider
2008-05-17, 17:38:40
was ist denn das für eine rechnung? 240sp aber wie kommst du drauf das 2 8800gtx nur 128sp haben?hehe mach mal 2:)

Biiiiiiiiiep, falsch. Hinsetzen und nochmal lesen !

Gast
2008-05-17, 17:40:33
Ein G92 arbeitet schon sparsamer mit seiner Bandbreite als der G80. Wer weiß ob NV dies beim GT200 nicht noch weiter ausbauen konnte.


klar kann sein aber ich glaubs nicht,und dein vergleich mit dem"Sind 2 7900GTX auch schneller als eine G8800GTX?" hinkt ein bissel.die gtx hat auch absolut nicht mit der 7900gtx gemeinsam im gegensatz zur gt200 wo eigentlich nur alles verdoppelt wurde und finito.

Nakai
2008-05-17, 17:43:24
Also ich versuch zu entschlüsseln.

Die 2te Generation Nvidias Unified Shader Architektur liefert 50% mehr Spieleperformance durch 240 Shadereinheiten als die erste Generation.

Dass heißt, die 50% mehr Spieleperformance werden nur durch mehr Shadereinheiten bewerkstelligt.
Die Frage ist, worauf bezieht sich dieses Paper? Auf welchen Vorgänger bezieht es sich?

Das Paper verwirrt mich. Wie kann man von höherer Spieleperformance sprechen, wenn man sich nur auf die Shader bezieht. Ebenso wird ein vergleich zum Vorgänger gemacht.
Ich meine es so, dass die Leistung 50% höher ist, bei gleichem Takt.
Das würde passen, da der Takt auch noch erhöht ist und da der Chip bestimmt nicht durch Speicher limitiert sein wird.

128*3*1,52= 583 GFLOPs
240*3*1,52 = 1094GFLOPs
Wäre 87,5% höhere Rohleistung zur 8800Ultra.

Ich könnte mir gut vorstellen das NV den Effizienz der Shader erhöht hat. 50% stellt dann sicherlich das optimalste im Optimum dar, was nur unter bestimmten Bedingungen in bestimmten Spielen zutrifft.


NV untertreibt meistens. Die 50% werden sich bestimmt etwa um die 80% auswirken und dann passt das wieder.
Es ist einfach total komisch geschrieben. Wie kann man von besserer Effizienz schreiben, wenn man die Anzahl der Shader miteinbezieht und diese mit der Spieleperformance in Verbindung bringt?

Minimum wird 50% Vorteil bei gleichem Takt sein. Normal etwa an die 80%.


mfg Nakai

Gast
2008-05-17, 17:55:40
128*3*1,52= 583 GFLOPs
240*3*1,52 = 1094GFLOPs
Wäre 87,5% höhere Rohleistung zur 8800Ultra.

mfg Nakai


ok,und jetzt mach die rechnung mit der speicherbandbreite und dann siehste,TATA:)

dargo
2008-05-17, 18:00:57
klar kann sein aber ich glaubs nicht,und dein vergleich mit dem"Sind 2 7900GTX auch schneller als eine G8800GTX?" hinkt ein bissel.die gtx hat auch absolut nicht mit der 7900gtx gemeinsam im gegensatz zur gt200 wo eigentlich nur alles verdoppelt wurde und finito.
Wenn da nicht das "eigendlich" wäre.

Gast
2008-05-17, 18:01:47
Wenn da nicht das "eigendlich" wäre.

spar dir solche sätze damit kommste nicht weit:)

Gast
2008-05-17, 18:01:53
240sp Bei 1200mHz wären 50% mehr Leistung, gesehen zur Ultra. 50% mehr als die GX2 ist fast unmöglich, dazu sind zu hohe Taktraten nötig. 1,6gHz sind da doch zu Praxisfern für 240SP.

Auch hat der andere gast recht, eine Ultra hat gut 100gb/sek. eine GTX280 hätte so 130gb/sek, also da stimmt wohl was nicht so ganz.

mapel110
2008-05-17, 18:06:51
Auch hat der andere gast recht, eine Ultra hat gut 100gb/sek. eine GTX280 hätte so 130gb/sek, also da stimmt wohl was nicht so ganz.
130 GB/s wären immernoch etwa doppelt so viel, wie ein G92 hat. Zusammen mit weiteren bandbreitensparenden Maßnahmen kann das schon hinkommen.

Gast
2008-05-17, 18:08:29
240sp Bei 1200mHz wären 50% mehr Leistung, gesehen zur Ultra. 50% mehr als die GX2 ist fast unmöglich, dazu sind zu hohe Taktraten nötig. 1,6gHz sind da doch zu Praxisfern für 240SP.

Auch hat der andere gast recht, eine Ultra hat gut 100gb/sek. eine GTX280 hätte so 130gb/sek, also da stimmt wohl was nicht so ganz.


so schauts aus,man kann davon ausgehen das eine gt200 ca. so schnell ist wie 2*9800gtx,aber nie und nimmer so so schnell in hohen auflösungen wie 2 8800gtx,da fehlt wiederum die bandbreite und das kann man auch nicht mit bissel speichereffizienz wieder gut machen wie manche von träumen:)
jetzt habe ich den kindern die träume geraubt,mist:)

dargo
2008-05-17, 18:16:50
spar dir solche sätze damit kommste nicht weit:)
Weiter als mit dem 150% G8800GTX-Blödsinn.

Nakai
2008-05-17, 19:06:32
ok,und jetzt mach die rechnung mit der speicherbandbreite und dann siehste,TATA:)

Anforderungen an die Speicherbandbreite steigen nicht so schnell an.


mfg Nakai

Gast
2008-05-17, 19:21:47
Wozu hab ich mir ne 63A CEE Wandsteckdose setzen lassen?
Ich will ordendliche Power NV Karte mit richtig Dampf:D

Gast
2008-05-18, 12:08:57
Basically, it is a reworked G8x/G9x. By the way, these rumours all lack one important piece of information about the chip that I'm sure will surprise you..

Hmm, der steht unter NDA - klingt aber durchaus interessant.

Gast
2008-05-18, 12:17:07
@schlammsau
traue keiner statistik, die dir nicht in den kram passt.
allerdings halte ich steam auch nicht für die optimale umfrageplatzform was vista angeht.
grund es gibt kaum steamspiele die DX10 anbieten und somit einfließen.
die jenigen die eh nur cs1.6, css und co spielen brauchen zwangsweiße kein vista.

aber troz allem hat vista ein schattendasein, der anteil ist einfach verschwenderisch gering.
selbst viele firmen warten auf windows 7, im grunde genommen ist vista imho nur eine beta und überbrücker zu windows 7.
zu deiner info, firmen warten nicht primär auf windows 7, sondern sehen schlichtwegs keinen grund auf vista umzusteigen. windows 7 wurde damals als grund vorgehalten, mit den neuen gerüchten über den gleichhohen speicherbedarf usw. ist es als vista-ersatz wieder in vergessehnheit geraten.

MEDIC-on-DUTY
2008-05-18, 13:15:08
XP ist reif für eine Frischzellenkur und erwartet einen würdigen Nachfolger. Vista kann optisch überzeugen, aber die innere Stabilität und Qualität fehlt. Ich hoffe sehr, dass sich ein Umstieg auf Vista Reloaded wirklich lohnt.

Back to topic:

Bzgl. DX. Soll das etwas bedeuten, dass der GT200 ohne DX10.1 daherkommt, oder ist "Full MS DX10 Support" als grundlegende DX 10.x Kompatibilität zu vertehen?

LovesuckZ
2008-05-18, 13:34:36
Basically, it is a reworked G8x/G9x. By the way, these rumours all lack one important piece of information about the chip that I'm sure will surprise you..

Hmm, der steht unter NDA - klingt aber durchaus interessant.

Ah well, it probably won't surprise the likes of you. It is a "step back" in a certain way - not that GT200 would be any worse than it's predecessors, but I'm intrigued why nVidia made such a design decision.

http://forum.beyond3d.com/showpost.php?p=1163527&postcount=1112

Gehen wir davon aus, dass er wirklich Informationen hätte: Der einzige "step back" läge in der hohen Recheneinheitentaktung.
Sollte das stimmen, könne man annehmen, dass nVidia nicht nur die Einheiten fast verdoppelt hätte, sondern auch zusätzlich 2 MADD hinzugefügt hätte. Somit hätte man fast doppelte Rechenleistung bei halbierten Takt.

tombman
2008-05-18, 13:57:23
ALso wenn das Teil nicht mindestens 50% schneller als eine GTX ist, dann ist es ein totaler Fehlschlag.

K4mPFwUr$t
2008-05-18, 13:59:24
es wird schon mehr als +50% sein.
es geht ja das gerücht um das man gegenüber der jetzigen karten die effizent der SP um +50% gesteigert hat. dazu kommt es ja noch das der GT200 scheinbar über 240SP von denen besitzt.
auch die bandbreite ist ja durch das 512bit SI gewachsen.

LovesuckZ
2008-05-18, 13:59:26
ALso wenn das Teil nicht mindestens 50% schneller als eine GTX ist, dann ist es ein totaler Fehlschlag.

Natürlich wird sie mindesten 50% schneller sein. Wenn AMD zwischen 50 - 100% mit 33% zusätzlichen Transistoren erreicht, wird es auch bei nVidia mit ca. 60% schaffen.

Gast
2008-05-18, 14:01:01
ALso wenn das Teil nicht mindestens 50% schneller als eine GTX ist, dann ist es ein totaler Fehlschlag.


bei dem preis wäre das kein fehlschlag sondern eine katastrophe,das wäre ja der ladenhüter nr1.

Gast
2008-05-18, 14:07:16
Natürlich wird sie mindesten 50% schneller sein. Wenn AMD zwischen 50 - 100% mit 33% zusätzlichen Transistoren erreicht, wird es auch bei nVidia mit ca. 60% schaffen.

amd haben ja auch die besseren ingenieure,das wird ja wohl keiner bezweifeln ausser man ist fanboy:)

Moralelastix
2008-05-18, 14:07:53
bei dem preis wäre das kein fehlschlag sondern eine katastrophe,das wäre ja der ladenhüter nr1.

Zusätzlich zu dem möglicherweise fehlenden DX10.1 der absolute Flop!

Gast
2008-05-18, 14:09:48
bei dem preis wäre das kein fehlschlag sondern eine katastrophe,das wäre ja der ladenhüter nr1.
50% wären schon ne Hausnummer. Außerdem, was gibt es für Alternativen? Amd? - fraglich ob die momentan in der Lage sind eine schneller Karte als nV zu bringen. Und die GX2 aka Mikroruckel-SLi ist auch keine Alternative. 50% sind auf jeden Fall in der Praxis spürbar, aber ich glaube, daß die Performancesteigerung des GT200 Topmodells höher liegt wird.

K4mPFwUr$t
2008-05-18, 14:15:26
amd haben ja auch die besseren ingenieure,das wird ja wohl keiner bezweifeln ausser man ist fanboy
thade bist du es? das AMD die besseren leute hat sah man ja beim R600 ganz gut :rolleyes:

Zusätzlich zu dem möglicherweise fehlenden DX10.1 der absolute Flop! gleich NV boykotieren weil sie kein DX10.1 anbieten, wäre schon der weltuntergang :rolleyes:

Gast
2008-05-18, 14:20:28
thade bist du es? das AMD die besseren leute hat sah man ja beim R600 ganz gut :rolleyes:



hmm,nvbug?,hmm speicherverwaltung?hmm 4AA?hmmmm8AA?hmm ich will erst gar nicht alte kamellen von grafikkarten auspacken wo nv verkackte:)

K4mPFwUr$t
2008-05-18, 14:24:36
mit einer wand auch bekannt als fanboy braucht man über sowas nicht diskutieren :rolleyes:
denn so ein fanboy sieht nur seine marke als das non plus ultra an, alles andere ist nur dreck.

Gast
2008-05-18, 14:26:42
mit einer wand auch bekannt als fanboy braucht man über sowas nicht diskutieren :rolleyes:
denn so ein fanboy sieht nur seine marke als das non plus ultra an, alles andere ist nur dreck.

sprich nicht von dir selber:)es ist einfach so,für nv ist effizienz ein fremdwort,das war schon immerso und die sind ja auch nicht belehrbar.

K4mPFwUr$t
2008-05-18, 14:34:45
ich bin kein fanboy wie mancher hier :rolleyes:
ATI ist mit dem R600 auch ineffient gefahren.

aber scheinbar willst du nicht wahrhaben das NV einen highend chip auf dem markt wirft und ATI einen values chip. das fängt bei der anderen zielgruppe an und endet im preis.

Gast
2008-05-18, 14:42:32
ich bin kein fanboy wie mancher hier :rolleyes:
ATI ist mit dem R600 auch ineffient gefahren.

aber scheinbar willst du nicht wahrhaben das NV einen highend chip auf dem markt wirft und ATI einen values chip. das fängt bei der anderen zielgruppe an und endet im preis.


wie du vom thema ausweichst,wer hat denn hier irgendwas von nv highend und ati value erzählt?ich nícht:)

als fanboy ist das wie mit süchtigen,die merken es selbst garnicht mehr:)

und wer zum teufel ist dieser thade?

Raff
2008-05-18, 14:44:44
Don't feed the guest!

MfG,
Raff