PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15

Demirug
2005-06-16, 09:46:25
Was ist denn so anders an einer asymetrischen Skallierung als an einer symetrischen für 3DM05?

Der 3DM05 ist scheinbar in der Lage VertexLeistung sehr gut in Punkte umzusetzten. Skaliert man die Vertexleistung im kleineren Masse als die Pixel Leistung hätten die Pixelpipelines noch Luft.

Das Trisetup könnte limitieren? Das klingt aber nach einem ungünstigen Designflaschenhals.

In entsprechenden Extremsituationen bekommt man jede Einheit des Chips zum limitieren.

Demirug
2005-06-16, 09:51:41
Richtig, G70 hat 60% mehr Füllrate bei 43% mehr VS-Leistung, ich glaube jedoch trozdem nicht, dass sich das beim 3dmark auswirkt.

NV40: 6400MPixel/s ~5000 Punkte
G70: 10320MPixel/s ~7700 Punkte

Wie man sieht, skaliert G70 annähernd linear mit der steigenden Füllrate. Deshalb rechne ich nicht mit einer Vorteil für R520 aufgrund der höheren VS-Power.

Default läuft der Bench ohne aufwendige Filter. Daher sollte hier die Rechenleistung die Füllrate dominieren. Daher ist die Frage ob die Punkte auch mit der Rechenleistung der PS linear skalieren?

reunion
2005-06-16, 10:07:04
+50 Vertexpower und nicht +100% (siehe voriger Post).

Von dem abgesehen; Gedankensporn (und nur mal so weil diese Debatte ueber den 3dfart wirklich nichts wert ist):

X850XT PE = 8320 MPixels/s = ~6200 Punkte

(6 VS * 520MHz / 4 = 780MTris/sec, 16 SIMD channels @ 520MHz)

2*6600GT = 8000 MPixels/s = ~ 6000 Punkte

(6 VS * 500MHz / 4 = 750MTris/sec, 16 SIMD channels @ 500MHz)

7800 GTX = 10320 MPixels/sec = ~ 7800 Punkte

(8 VS * 430MHz / 4 = 860MTris/sec, 24 SIMD channels @ 430MHz)

G70 hat 29% mehr Fuellrate wie NV43@SLi, wieso macht die extra VS Power hier nichts aus?

Zweite Frage: wehr froehlich rechnen will fuer Spekulationen sollte vom R420 score ausgehen; 10.4 vs. 8.3 sind nur +25%.....bon apetit ;)


Bitte nicht SM2.0- mit SM3.0-Karten vermischen.
NV40 gewinnt durch den SM3-Modus >500 Punkte.

TheGood
2005-06-16, 10:10:02
Könnte jemand mal die Daten zur 7800 von den online Shops posten. die haben ja wohl genau gestimmt, oder weshalb hätte nvidia die shops anweisen sollen diese wieder zu entfernen??

reunion
2005-06-16, 10:10:08
Default läuft der Bench ohne aufwendige Filter. Daher sollte hier die Rechenleistung die Füllrate dominieren. Daher ist die Frage ob die Punkte auch mit der Rechenleistung der PS linear skalieren?

Höchstwarscheindlich nein.

Aber auf was willst du hinaus?
Dass G70 eine überproportional gestiegen PS-Performance hat?

Winter[Raven]
2005-06-16, 10:14:45
Höchstwarscheindlich nein.

Aber auf was willst du hinaus?
Dass G70 eine überproportional gestiegen PS-Performance hat?

Blättere doch paar Seiten zurück, Ailuros machte da kleine Anmerkung auf >50% Steigerung der Rechenleistung ... :)

Das wäre überproportional, oder?

Demirug
2005-06-16, 10:18:11
Höchstwarscheindlich nein.

Aber auf was willst du hinaus?
Dass G70 eine überproportional gestiegen PS-Performance hat?

Da man in dem einen Shop ja was von Doppelte so schnell lesen konnte muss ja irgendwas nicht linear mit der Anzahl der Einheiten skalieren.

Ich weiss natürlich das diese "Doppelt so schnell" Sprüche immer kommen aber bisher gab es auch immer eine Möglichkeit das auch mit einem Beispiel zu zeigen.

Ich darf ja nur mit bereits öffentlich Informationen arbeiten

reunion
2005-06-16, 10:30:06
']Blättere doch paar Seiten zurück, Ailuros machte da kleine Anmerkung auf >50% Steigerung der Rechenleistung ... :)

Das wäre überproportional, oder?

>50% ist logisch, entspräche ja exakt der Pipeline- und Taktsteigerung.

reunion
2005-06-16, 10:30:47
Da man in dem einen Shop ja was von Doppelte so schnell lesen konnte muss ja irgendwas nicht linear mit der Anzahl der Einheiten skalieren.

Ich weiss natürlich das diese "Doppelt so schnell" Sprüche immer kommen aber bisher gab es auch immer eine Möglichkeit das auch mit einem Beispiel zu zeigen.

Ich darf ja nur mit bereits öffentlich Informationen arbeiten

Danke, das reicht mir als Antwort. :D

reunion
2005-06-16, 10:31:44
INQ:
New driver for Geforce 7800GTX emerges: 77.62 is the name (http://www.the-inquirer.net/?article=23977)
Geforce 7800GTX, G70 to be available at launch (http://www.the-inquirer.net/?article=23976)

Demirug
2005-06-16, 10:33:50
>50% ist logisch, entspräche ja exakt der Pipeline- und Taktsteigerung.

nVidia geht bei den 6800 Ultras von 425 MHz aus da diese auch so verkauft werden.

Coda
2005-06-16, 10:43:04
+50 Vertexpower und nicht +100% (siehe voriger Post).Ist es nicht 6x420Mhz="2520" gegen 8x650Mhz="5200" + effizientere ATi VS?

q@w
2005-06-16, 10:48:57
Bitte nicht SM2.0- mit SM3.0-Karten vermischen.
NV40 gewinnt durch den SM3-Modus >500 Punkte.
Bitte nicht SM3 mit DST verwechseln. =)

DST ist unabhängig vom verwendeten Shadermodel - auch ATi könnte es anbieten, wenn sie denn wollten (und bereit wären, die Transistoren dafür zu investieren.

reunion
2005-06-16, 10:50:25
Bitte nicht SM3 mit DST verwechseln. =)

DST ist unabhängig vom verwendeten Shadermodel - auch ATi könnte es anbieten, wenn sie denn wollten (und bereit wären, die Transistoren dafür zu investieren.


Was ist DST?

Coda
2005-06-16, 10:51:55
Depth Stencil Texture, hat was mit den Schatten zu tun.

reunion
2005-06-16, 10:53:47
Depth Stencil Texture, hat was mit den Schatten zu tun.


Und dadurch ist der NV40 im "SM3-Modus" schneller?

Coda
2005-06-16, 10:58:00
Er dürfte dadurch allgemein etwas Performance gewinnen, das ist eigentlich unabhängig vom Shaderlevel.

Demirug
2005-06-16, 11:05:18
Im SM3 Modus ist ein dynamischer Branch drin. Der hat aber zumindestens mit den ursprünglichen Treiber nichts gebracht. Sogar eher gebremst. Before jemand fragt ich habe replacments reingebaut.

Ich bin mir allerdings nicht mehr ganz sicher ob die Wahl von SM2 nicht auch automatisch DST deaktiviert.

deekey777
2005-06-16, 11:22:29
DST ist auch was nVidia-Eigenes, ohne DST (http://www.elitebastards.com/page.php?pageid=10599&head=1&comments=1) bricht die NV40 in 3D 2005 gewaltig ein.

Coda
2005-06-16, 11:23:11
Dabei must du aber bedenken, dass die Optimierungen im Treiber wohl davon ausgehen dass DST verwendet wird ;)

deekey777
2005-06-16, 11:25:32
Dabei must du aber bedenken, dass die Optimierungen im Treiber wohl davon ausgehen dass DST verwendet wird ;)

Selber schuld? :D

Ist aber ein Fehler seitens FM.

Gast
2005-06-16, 11:57:09
INQ:
New driver for Geforce 7800GTX emerges: 77.62 is the name (http://www.the-inquirer.net/?article=23977)
Geforce 7800GTX, G70 to be available at launch (http://www.the-inquirer.net/?article=23976)

jetzt nur noch auf den ati launch warten,unabhänige tests lesen und für eine karte entscheiden

gibs schon fakten wann agp karten kommen,beim launch wohl nicht was traurig ist.nicht das wir monate auf agp warten müssen denn dann ist der lanch eher ein witz

robbitop
2005-06-16, 12:58:09
Der 3DM05 ist scheinbar in der Lage VertexLeistung sehr gut in Punkte umzusetzten. Skaliert man die Vertexleistung im kleineren Masse als die Pixel Leistung hätten die Pixelpipelines noch Luft.

Somit scheint 3DM05 ein gewisses Gleichgewicht zu bevorzugen.
Das könnte bedeuten, dass die Pipes im G70 effizienter geworden sind aber dank asymetrischer Skallierung das Ganze nicht wirklich viel bringt.

Fadl
2005-06-16, 13:01:53
jetzt nur noch auf den ati launch warten,unabhänige tests lesen und für eine karte entscheiden

gibs schon fakten wann agp karten kommen,beim launch wohl nicht was traurig ist.nicht das wir monate auf agp warten müssen denn dann ist der lanch eher ein witz

Warum das? Sollte man sich nicht langsam eingestehen das AGP keine Zukunft mehr hat? Es ist ein Wunder das(wenn sie denn kommen) überhaupt noch AGP Karten der Topmodelle produziert werden.

Godmode
2005-06-16, 13:04:12
Warum das? Sollte man sich nicht langsam eingestehen das AGP keine Zukunft mehr hat? Es ist ein Wunder das(wenn sie denn kommen) überhaupt noch AGP Karten der Topmodelle produziert werden.

Die Leute die sich jetzt(1 Jahr zurück) noch ein AGP System gekauft haben wollen vielleicht in Zukunft irgendwann noch einmal die Graka aufrüsten und ich denke es sind nicht zu wenige die noch ein AGP System haben.

Ailuros
2005-06-16, 13:05:25
Ist es nicht 6x420Mhz="2520" gegen 8x650Mhz="5200" + effizientere ATi VS?

Ich hab die Tris/sec so ausgerechnet wie sie normalerweise ausgerechnet werden und ich meinte auch im Vergleich zwischen G70 und R520.

Ailuros
2005-06-16, 13:08:26
Eben, also wäre für den natürlich rein hypotetischen Fall, dass R520 im 3dmark05 deutsch schneller wäre als G70, mit einer höheren Füllrate von R520 zu rechnen. Und nicht mit mehr VS-Performance.

So gesehen sagt der 3dmark also sehrwohl was über die Performance bei "realen" Spielen aus, und um nichts anderes ging es mir. Es limitiert ab einer gewissen VS-Leistung die Füllrate.

Nein. Eine X800XTPE ist in realen Spielen um einiges schneller als NV43@SLi; zwar eine Limitierung eines dual-board configs aber es spricht eben nicht gerade fuer den synthetischen Test.

Gast
2005-06-16, 13:13:25
Warum das? Sollte man sich nicht langsam eingestehen das AGP keine Zukunft mehr hat? Es ist ein Wunder das(wenn sie denn kommen) überhaupt noch AGP Karten der Topmodelle produziert werden.

realitätsfremd hm

ich hab ein a64 3500,1gb ram,x800pro agp warum sollte ich auf pcie wechseln,wäre z.z komplett sinnfrei

reunion
2005-06-16, 13:15:00
Nein. Eine X800XTPE ist in realen Spielen um einiges schneller als NV43@SLi; zwar eine Limitierung eines dual-board configs aber es spricht eben nicht gerade fuer den synthetischen Test.


NV43 profitiert hier außerdem vom "SM3-Modus".

Gast
2005-06-16, 13:15:42
Die Leute die sich jetzt(1 Jahr zurück) noch ein AGP System gekauft haben wollen vielleicht in Zukunft irgendwann noch einmal die Graka aufrüsten und ich denke es sind nicht zu wenige die noch ein AGP System haben.

95% des gesamten pc marktes besteht aus agp ,pcie ist ne minderheit und es wird noch sehr lang dauern ehe pcie sich voll durchsetzt

Ailuros
2005-06-16, 13:17:29
Bitte nicht SM2.0- mit SM3.0-Karten vermischen.
NV40 gewinnt durch den SM3-Modus >500 Punkte.

Ach Du liebe Zeit, dann spekulier halt auf 7800+500 oder mehr, es macht mir auch keinen besonderen Unterschied.

Nochmal entkoppelt Euch von dem oeden 3dmark. Es gibt guten Grund dass hochgeschaetzte Entwickler von einem der beiden nicht besonders aus den Socken gerissen wurden und dabei sind Konspirations-theorien und angebliche "Schmiergelder" total irrelevant.

Ob und wann sich das jetzt dieses Jahr ausspielen wird kann ich natuerlich nicht wissen.

Winter[Raven]
2005-06-16, 13:21:40
@ Ailuros

FULLACK! :top:

//Edit:

Wäre ja auch nichts neues wenn ATI mit ihrem R520 in 3DMurks schneller wäre, das war ATI mit der R3xx Reihe schon immer ... sich aber auf dem Bench aufzuziehen ist genauso als würde man versuchen zusagen ob in 4 Monaten es regnen oder schnein wird... :crazy2:

Ailuros
2005-06-16, 13:22:41
NV43 profitiert hier außerdem vom "SM3-Modus".

Macht 3dmark aber "glaubwuerdiger" oder was?

Noch 5 Tage Geduld bitte.

reunion
2005-06-16, 13:28:24
Macht 3dmark aber "glaubwuerdiger" oder was?


Ich gewisser Weise: Ja. :D


Noch 5 Tage Geduld bitte.


Ich glaube dir ja. =)
Deine Anspielungen sind ja kaum noch zu übersehen.

Mir geht es auch nicht darum zu beurteilen, welche Karte jetzt besser sein wird, dazu fehlen mir die Informationen.

Alles was ich in den letzten paar Seiten von mir gegeben haben, bezieht sich auf die Aussage von Demirug, dass ein 3dmark-Wert keine Relevanz bei echten Spielen hat.

Godmode
2005-06-16, 13:29:39
Es gibt guten Grund dass hochgeschaetzte Entwickler von einem der beiden nicht besonders aus den Socken gerissen wurden und dabei sind Konspirations-theorien und angebliche "Schmiergelder" total irrelevant.
nicht wissen.


Hat denn schon wer was gesagt über die NextGen Chips auser Epic?

vosmic
2005-06-16, 13:29:47
http://www.xtremesystems.org/forums/showthread.php?t=65919
Ich hoffe, dass der Link hier noch nich gepostet wurde.
Jetzt abgesehen von den Benchmurksergebnissen mal ein paar Bilder der Karte in aktion...

Ailuros
2005-06-16, 13:34:27
Mir geht es auch nicht darum zu beurteilen, welche Karte jetzt besser sein wird, dazu fehlen mir die Informationen.

Beide werden Vor- und Nachteile haben. Nehmen wir an dass der Durchschnitts-gamer keine besondere Unterschiede in Spielen sehen kann, dann ist aber ATI's Ziel was die Entwickler betrifft aber nicht unbedingt erreicht worden. Fuer was genau brachten sie nun SM3.0? Fuer den Endverbraucher weil sie bis gestern darueber trommelten wie "nebensaechlich" es ist?

Alles was ich in den letzten paar Seiten von mir gegeben haben, bezieht sich auf die Aussage von Demirug, dass ein 3dmark-Wert keine Relevanz bei echten Spielen hat.

Und er hat auch Recht und ueberhaupt fuer diese Version vom 3dmark. Kommende Spiele werden fast gar nichts mit dem Quark zu tun haben und schon gar nicht mit so uebertriebener Vertex-last. Die Zukunft liegt eher im "bump-mapping" Bereich als dieser falschen Einschaetzung.

Ailuros
2005-06-16, 13:35:26
Hat denn schon wer was gesagt über die NextGen Chips auser Epic?

ATI und andere ISVs.

SKYNET
2005-06-16, 13:36:24
alt?
http://www.xtremesystems.org/forums/showthread.php?t=65919

Gast
2005-06-16, 13:37:41
Geschwindigkeit im HighEnd ist für die Masse völlig egal. Stimmt das Lineup nicht, bringt der Gewinn des Schwanzmarks oder sonstiger Benchmarks gar nichts wie ATI bei den Verkaufszahlen von DX9 Karten feststellen musste.

Im Moment sitzt ganz klar Nvidia am längeren Hebel.

Ailuros
2005-06-16, 13:40:28
Geschwindigkeit im HighEnd ist für die Masse völlig egal. Stimmt das Lineup nicht, bringt der Gewinn des Schwanzmarks oder sonstiger Benchmarks gar nichts wie ATI bei den Verkaufszahlen von DX9 Karten feststellen musste.

Im Moment sitzt ganz klar Nvidia am längeren Hebel.

Geschwindigkeit im high end ist fuer die Masse eben nicht egal. Ganz im Gegenteil spielt hier der Faktor mindshare mit.

Beide IHVs werden schoen bloed sein, wenn sie jetzt versuchen ihre neu Boliden mit 3dmark, Doom3, HL2 usw. zu vermarkten. Ich erwarte ein paar AAA Titel die sehr bald veroeffentlicht werden und mit denen wird man die neue Produkte auch besser vermarkten koennen.

reunion
2005-06-16, 13:45:30
']

Wäre ja auch nichts neues wenn ATI mit ihrem R520 in 3DMurks schneller wäre, das war ATI mit der R3xx Reihe schon immer ... sich aber auf dem Bench aufzuziehen ist genauso als würde man versuchen zusagen ob in 4 Monaten es regnen oder schnein wird... :crazy2:


Woher kommt überhaupt die Erkenntnis, dass R520 schneller ist im 3dmark05 als G70?

vosmic
2005-06-16, 13:47:46
alt?
http://www.xtremesystems.org/forums/showthread.php?t=65919
Nur mal ein paar Postings weiter über Deinem gucken :smile:
Zu langsam :P

Winter[Raven]
2005-06-16, 13:48:42
Woher kommt überhaupt die Erkenntnis, dass R520 schneller ist im 3dmark05 als G70?

Keine Ahnung ... schätzen ist doch noch erlaubt, schlißlich sind wir im Spuku-Fread *gg* :cool:

//EDIT:

~10 Seiten vorher war glaub ich sogar von unseren Guru's geschrieben, wer schneller rechnen wird wenn es um 3DMurck geht;)

q@w
2005-06-16, 13:54:44
Ich bin mir allerdings nicht mehr ganz sicher ob die Wahl von SM2 nicht auch automatisch DST deaktiviert.
Bei nV - ja.
Ist auch optisch zu sehen an den Schatten. Ich hatte da mal einen kleinen Vergleich im Technologieforum gemacht.

Allerdings kann man weiterhin PS2.A benutzen - die erlauben DST mit PCF (wobei der Haken im Murks IIRC eher für PCF steht, als für DST). So könnte man einen reinen Vergleich haben, was SM3 nun wirklich bringt - allerdings eben nicht ggü. SM2.0. :)

q@w
2005-06-16, 13:58:45
Woher kommt überhaupt die Erkenntnis, dass R520 schneller ist im 3dmark05 als G70?
Aus der mathematisch bewiesenen Tatsache, daß ~600 > 430.
Der Rest ergibt sich, wenn man den Murks05 mal genauer anschaut.

q@w
2005-06-16, 13:59:40
Ich erwarte ein paar AAA Titel die sehr bald veroeffentlicht werden und mit denen wird man die neue Produkte auch besser vermarkten koennen.
Stalker und SeSam2?

Gast
2005-06-16, 14:00:38
Geschwindigkeit im high end ist fuer die Masse eben nicht egal. Ganz im Gegenteil spielt hier der Faktor mindshare mit.

Beide IHVs werden schoen bloed sein, wenn sie jetzt versuchen ihre neu Boliden mit 3dmark, Doom3, HL2 usw. zu vermarkten. Ich erwarte ein paar AAA Titel die sehr bald veroeffentlicht werden und mit denen wird man die neue Produkte auch besser vermarkten koennen.

Wie erklärst du dann die im Vergleich zu Nvidia schlechten Verkaufszahlen obwohl die X8xx XT/XT PE schneller waren in diversen Benchmarks?

Winter[Raven]
2005-06-16, 14:01:00
Quake 4? :D

Wie erklärst du dann die im Vergleich zu Nvidia schlechten Verkaufszahlen obwohl die X8xx XT/XT PE schneller waren in diversen Benchmarks?

PR Maschine ... "Shader 3.0, MUST HAVE", bzw. würdest du als User der nicht bei jedem Refresh oder neuer Generation eine neue Graka kauft, eine Karte wählen die aus der "technologischer" Sicht nicht das gelbe vom ei ist?

Gast
2005-06-16, 14:05:43
Wie erklärst du dann die im Vergleich zu Nvidia schlechten Verkaufszahlen obwohl die X8xx XT/XT PE schneller waren in diversen Benchmarks?

exclusiv verträge mit destop herstellern

Godmode
2005-06-16, 14:07:56
Kann mir wer sagen warum nur Benches vom Mark gezeigt werden und nie welche anderen?

SKYNET
2005-06-16, 14:09:34
Wie erklärst du dann die im Vergleich zu Nvidia schlechten Verkaufszahlen obwohl die X8xx XT/XT PE schneller waren in diversen Benchmarks?


weil die leute das kaufen was die bessere BQ und technik bietet, und das bekommt man halt meistens bei NV. ;D

warum sollte ich mir veraltete technik in rechner packen wenn ich das neuste vom neuen haben kann, und es dabei noch nichtmal langsamer ist ausser maximal im framecounter? :|

q@w
2005-06-16, 14:17:10
Wie erklärst du dann die im Vergleich zu Nvidia schlechten Verkaufszahlen obwohl die X8xx XT/XT PE schneller waren in diversen Benchmarks?
Auch wenn's keiner mehr hören kann: Bei den kleinen Modellen konnten die OEMs Sachen wie ShaderModel 3.0 usw. draufschreiben, im Mid-Range war die 6600GT bei guter Leistung WEIT vor der X700 verfügbar und im High-End war bis zur X850 eigentlich nur eine schlechte Lieferbarkeit vorhanden.

Gast
2005-06-16, 14:23:59
weil die leute das kaufen was die bessere BQ und technik bietet, und das bekommt man halt meistens bei NV. ;D

|

das ist seit ati mit r300 kam vorbei

Winter[Raven]
2005-06-16, 14:27:11
das ist seit ati mit r300 kam vorbei

Pro NV:

+ Etwas besseres AF, hab kein Flimmern auf meiner Ultra!
+ Technik AHOI, schon seit NV3x Reihe.
+ SSAA

Contra:
+ MSAA nicht gamma correct .... until G70 ;D

Jetzt nicht auf Leistung, KühleR/Lüfter oder Treiber bezogen... :)

wuzetti
2005-06-16, 14:27:48
Nochmal entkoppelt Euch von dem oeden 3dmark. Es gibt guten Grund dass hochgeschaetzte Entwickler von einem der beiden nicht besonders aus den Socken gerissen wurden und dabei sind Konspirations-theorien und angebliche "Schmiergelder" total irrelevant.

R5x0? ;D

Gast
2005-06-16, 14:31:05
']Pro NV:

+ Etwas besseres AF, hab kein Flimmern auf meiner Ultra!
+ Technik AHOI, schon seit NV3x Reihe.
+ SSAA

Contra:
+ MSAA nicht gamma correct ....

Jetzt nicht auf Leistung, KühleR/Lüfter oder Treiber bezogen... :)

überhaupt nicht überzeugend aber versuchs nicht weiter denn die nv is nicht besser

SKYNET
2005-06-16, 14:35:41
überhaupt nicht überzeugend aber versuchs nicht weiter denn die nv is nicht besser


technologisch ist NV in jeder hinsicht besser, da sie alles können was die ATIs können und dadrüber hinnaus noch mehr.
selbst gamma korrigiertes AA können sie(zwar nur per A-tuner etc. aber das ist ladde, NV kann es).

Winter[Raven]
2005-06-16, 14:37:09
selbst gamma korrigiertes AA können sie(zwar nur per A-tuner etc. aber das ist ladde, NV kann es).

Reg-key?

SKYNET
2005-06-16, 14:38:12
']Reg-key?


gibbet?

Gast
2005-06-16, 14:38:32
technologisch ist NV in jeder hinsicht besser, da sie alles können was die ATIs können und dadrüber hinnaus noch mehr.
selbst gamma korrigiertes AA können sie(zwar nur per A-tuner etc. aber das ist ladde, NV kann es).

nv is in keiner hinsicht besser was man an der spieleleistung sieht

Winter[Raven]
2005-06-16, 14:40:11
gibbet?

Meinst du den Regestry-Eintrag mit dem das GKAA Emuliert wird?

SKYNET
2005-06-16, 14:40:20
nv is in keiner hinsicht besser was man an der spieleleistung sieht


zeig mir ein spiel das mit ner 6800U unspielbar wäre, wo es dann nicht auch mit ner x800xtpe unspielbar wäre... :P

SKYNET
2005-06-16, 14:40:59
']Meinst du den Regestry-Eintrag mit dem das GKAA Emuliert wird?


nö, einfach nur per a-tuner.

Gast
2005-06-16, 14:42:23
']
+ Technik AHOI, schon seit NV3x Reihe.

Gesamtgeshen war die Technik des NV3x fürn Popo.
Technik ist ein Mix aus Features und Performance. Schlieslich sind es die GPU-Designer(Techniker), die über die Features und Performance entscheiden.

Merke, Technik bedeutet nicht nur Features...

Winter[Raven]
2005-06-16, 14:43:09
zeig mir ein spiel das mit ner 6800U unspielbar wäre, wo es dann nicht auch mit ner x800xtpe unspielbar wäre... :P

Don't feed the trolls, Sky! Lay back and relax :), Earl Gray?

*Computer eine Tasse Earl Gray* ;D

Exxtreme
2005-06-16, 14:44:51
OK Leute, kehrt bitte zum Thema zurück. =)

SKYNET
2005-06-16, 14:49:02
']Don't feed the trolls, Sky! Lay back and relax :), Earl Gray?

*Computer eine Tasse Earl Gray* ;D


ja, hat mit den gästen eh kein zweck...

gerne, ohne zucker bitte. =)

(del676)
2005-06-16, 14:50:07
']Pro NV:
+ MSAA nicht gamma correct .... until G70 ;D

wirklich Gammakorrekt oder nur Gamma X.Y korrekt?

Winter[Raven]
2005-06-16, 14:53:57
Nvidia meint:

- Gamma correct antialiasing

#Enables gamma correct antialiasing (AA).
· On results in a better color calculation, which helps reduce jaggies and maintains the highest level of color reproduction of 3D images.

seahawk
2005-06-16, 15:16:17
Ich weiß, nur hat G70 eben auch mehr VS-Power.

Ja, aber er hat nur 33% mehr Vertexpower im Vergleich zu 50% mehr Füllrate.

seahawk
2005-06-16, 15:22:37
Wie erklärst du dann die im Vergleich zu Nvidia schlechten Verkaufszahlen obwohl die X8xx XT/XT PE schneller waren in diversen Benchmarks?

- Verfügbarkeits Porbleme und Featuredefizit. Bis vor kurzem auch fehlende SLI Option.

Sunrise
2005-06-16, 16:02:39
+50 Vertexpower und nicht +100% (siehe voriger Post).

Von dem abgesehen; Gedankensporn (und nur mal so weil diese Debatte ueber den 3dfart wirklich nichts wert ist):

X850XT PE = 8320 MPixels/s = ~6200 Punkte

(6 VS * 520MHz / 4 = 780MTris/sec, 16 SIMD channels @ 520MHz)

2*6600GT = 8000 MPixels/s = ~ 6000 Punkte

(6 VS * 500MHz / 4 = 750MTris/sec, 16 SIMD channels @ 500MHz)

7800 GTX = 10320 MPixels/sec = ~ 7800 Punkte

(8 VS * 430MHz / 4 = 860MTris/sec, 24 SIMD channels @ 430MHz)

G70 hat 29% mehr Fuellrate wie NV43@SLi, wieso macht die extra VS Power hier nichts aus?

Zweite Frage: wehr froehlich rechnen will fuer Spekulationen sollte vom R420 score ausgehen; 10.4 vs. 8.3 sind nur +25%.....bon apetit ;)
Kleine Korrektur:

X850XT PE -> R480 -> 540 MHz -> 8640 MPixels/sec -> ~5.800-6.000 Punkte

PS:
Man mag von 3DMark05 übrigens halten was man will, ist er doch für geleakte Infos immer wieder zu gebrauchen. Diente er in diesem konkreten Fall nämlich schonmal als "ungefähre" Einschätzung des G70 (basierend auf mehreren Konstanten des NV40 im Verhältnis zu 3DMark05) und das bereits seit mehreren Monaten. Indikativ für die effektive Spiele-Leistung mag das natürlich nicht sein, jedoch könnte man ebensogut mit einem Würfel werfen oder ins "Blaue" raten, was der Glaubwürdigkeit auch nicht unbedingt zuträglich ist. Insofern ist mir der 3DMark deutlich lieber, als sich z.B. irgenwelchen "absolut nichtssagenden" FPS-Werten einzelner "Engines" zu widmen.

ShadowXX
2005-06-16, 16:15:19
Kleine Korrektur:

X850XT PE -> R480 -> 540 MHz -> 8640 MPixels/sec -> ~5.800 Punkte

PS:
Man mag von 3DMark05 übrigens halten was man will, ist er doch für geleakte Infos immer wieder zu gebrauchen. Diente er in diesem konkreten Fall nämlich schonmal als "ungefähre" Einschätzung des G70 (basierend auf mehreren Konstanten des NV40 im Verhältnis zu 3DMark05) und das bereits seit mehreren Monaten. Indikativ für die effektive Spiele-Leistung mag das natürlich nicht sein, jedoch könnte man ebensogut mit einem Würfel werfen oder ins "Grüne" raten, was der Glaubwürdigkeit auch nicht unbedingt zuträglich ist. Insofern ist mir der 3DMark deutlich lieber, als sich z.B. irgenwelchen "absolut nichtssagenden" FPS-Werten einzelner "Engines" zu widmen.

Man kann damit aber nur die Leistung des G70 beim 3D05 einschätzen.....wesentlich sinnvoller wäre ein reihe Tests über verschiedene Games.

Und dort am besten welche von den neueren....die alten Sachen spiegeln einfach nicht mehr die kommenden Games wieder.
(Anders gesagt....alle Games die nicht in einem gewissen mindestmass mindstens PS2.0 benutzen sind IMHO nicht geeignet die Leistungsfähigkeit sowohl des r520 noch des G70 darzustellen.)

Sunrise
2005-06-16, 16:18:54
Man kann damit aber nur die Leistung des G70 beim 3D05 einschätzen.....wesentlich sinnvoller wäre ein reihe Tests über verschiedene Games.
Natürlich, darauf kommt es mir ja auch an. Nur da wir vorab kaum andere Infos hatten (und wir somit auch nicht aussuchen können, was sinnvoll ist oder nicht), wird man damit wohl arbeiten müssen. Und es reicht auch bis zu einem gewissen Punkt aus, zumindest um ihn ganz grob einschätzen zu können.

Diskutator
2005-06-16, 16:39:39
Beide werden Vor- und Nachteile haben. Nehmen wir an dass der Durchschnitts-gamer keine besondere Unterschiede in Spielen sehen kann, dann ist aber ATI's Ziel was die Entwickler betrifft aber nicht unbedingt erreicht worden. Fuer was genau brachten sie nun SM3.0? Fuer den Endverbraucher weil sie bis gestern darueber trommelten wie "nebensaechlich" es ist?



Und er hat auch Recht und ueberhaupt fuer diese Version vom 3dmark. Kommende Spiele werden fast gar nichts mit dem Quark zu tun haben und schon gar nicht mit so uebertriebener Vertex-last. Die Zukunft liegt eher im "bump-mapping" Bereich als dieser falschen Einschaetzung.

Naja, du brüllst nicht schlecht rum :eek: , aber die Aussage von ATi hat für 2004/2005 völlig gepaßt, wer brauchte da schon SM3.0?

SM3.0 kommt aber 2006 in grossen Schritten und 2006 werden die 95% AGP User auch auf PCI Express aufrüsten, zu mind. ein grosser Anteil.

Diskutator
2005-06-16, 16:41:35
weil die leute das kaufen was die bessere BQ und technik bietet, und das bekommt man halt meistens bei NV. ;D

warum sollte ich mir veraltete technik in rechner packen wenn ich das neuste vom neuen haben kann, und es dabei noch nichtmal langsamer ist ausser maximal im framecounter? :|

Ob du was erzaehlst oder in China ein Sack Reis umfällt! Who cares! :P Fanboy-Gelaber!

Godmode
2005-06-16, 17:16:09
Naja, du brüllst nicht schlecht rum :eek: , aber die Aussage von ATi hat für 2004/2005 völlig gepaßt, wer brauchte da schon SM3.0?


Es geht aber auch darum, dass die Devs das schon benützen und damit spielen könnnen!

LovesuckZ
2005-06-16, 17:20:13
Naja, du brüllst nicht schlecht rum :eek: , aber die Aussage von ATi hat für 2004/2005 völlig gepaßt, wer brauchte da schon SM3.0?


Entwickler?
Aber wir wissen doch, dass ATi user HDR-L und SM3.0 nicht verwenden werden.
Unnuetz, zu langsam und mit SM2.0 koenne man alles ebenso gut machen.

Crushinator
2005-06-16, 17:26:25
Ob du was erzaehlst oder in China ein Sack Reis umfällt! Who cares! :P Fanboy-Gelaber!
Warum kann ich mein lautes HUSTEN bloß nicht unterdrücken? Nicht daß hier aus Verwarnungen schneller mehr wird als einem lieb ist.

Diskutator
2005-06-16, 17:38:43
Warum kann ich mein lautes HUSTEN bloß nicht unterdrücken? Nicht daß hier aus Verwarnungen schneller mehr wird als einem lieb ist.
Du könntest ja auch mal zur Freude vieler, die Leute verwarnen die nur Müll erzählen! Oder ;) Das sogg. Fanboy-Symdrom! Das wäre sehr Nett!

aths
2005-06-16, 17:44:00
wirklich Gammakorrekt oder nur Gamma X.Y korrekt?Wahrscheinlich für Gamma 2,2.

q@w
2005-06-16, 17:46:51
Naja, du brüllst nicht schlecht rum :eek: , aber die Aussage von ATi hat für 2004/2005 völlig gepaßt, wer brauchte da schon SM3.0?

SM3.0 kommt aber 2006 in grossen Schritten und 2006 werden die 95% AGP User auch auf PCI Express aufrüsten, zu mind. ein grosser Anteil.
Vorsicht - verkenne niemals die Macht unsere Foren-Orakels. =)

BTW, wer alle 2004 erschienenen Games mit vollen Details spielen wollte, brauchte einen nV40 (teilw. auch SM3 ;) ).
Und mit reduzierten Details kann ich auch auf einer Graka von vor zwei Jahren noch prima zocken. :P

q@w
2005-06-16, 17:48:04
Du könntest ja auch mal zur Freude vieler, die Leute verwarnen die nur Müll erzählen! Oder ;) Das sogg. Fanboy-Symdrom! Das wäre sehr Nett!
Oh-oh... Glashaus, Steine, Nase, eigene, Spiegel usw. mal als kleine Stichpunkte.

pF3NG
2005-06-16, 18:37:55
']@ Ailuros

FULLACK! :top:

//Edit:

Wäre ja auch nichts neues wenn ATI mit ihrem R520 in 3DMurks schneller wäre, das war ATI mit der R3xx Reihe schon immer ... sich aber auf dem Bench aufzuziehen ist genauso als würde man versuchen zusagen ob in 4 Monaten es regnen oder schnein wird... :crazy2:
Regnen Eindeutig ;D

Crushinator
2005-06-16, 18:57:17
Du könntest ja auch mal zur Freude vieler, die Leute verwarnen die nur Müll erzählen! Oder ;) Das sogg. Fanboy-Symdrom! Das wäre sehr Nett!
Es gilt als Fakt, daß subjektives Empfinden und die dadurch möglicherweise entstandenen Falschaussagen keine Regelverletzungen darstellen, denn ansonsten liefen wir ja Gefahr, daß ich 80% der Beiträge aus diesem und anderen Unterforen entfernen oder bestrafen könnte, weil sie entweder meine eigene Meinung oder die absolute Wahrheit nicht wiederspiegeln. Nun versuche diese Worte bitte auf Dich zu übertragen, und wenn noch weitere Fragen entstanden sein sollten, möchtest Du sie im geeigneteren Teil (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=35) des Forums stellen, denn das Fortführen unseres Dialogs ist hier nicht mehr im Rahmen des Topic. :)

Black-Scorpion
2005-06-16, 19:08:13
BTW, wer alle 2004 erschienenen Games mit vollen Details spielen wollte, brauchte einen nV40 (teilw. auch SM3 ;) ).

Die Aussage halte ich für sehr übertrieben.

Quasar
2005-06-16, 19:12:36
Die Aussage halte ich für sehr übertrieben.
Stimmt, ein nV44 hätte auch genügt, wenn man sich das Gefummel in den .ini-Dateien oder Treiber oder Registry hätte antun wollen, und FP-Blending über die Shader simulieren.
Ansonsten halt nV43. ;)

edit:
Zur Erklärung. Um die genannte Forderung zu erfüllen, genügt bereits ein einziges Spiel, welches ein einziges Feature bietet, welches die Bildqualität hebt, welches nicht auf einem anderen als einem nV4x-Chip zu haben ist.
Diese Aussage ist also mitnichten übertrieben.

reunion
2005-06-16, 19:20:16
GeForce 7800 GTX Features and Benefits:

Next-generation superscalar GPU architecture

Delivers up to 2x the shading power of previous generation products taking gaming performance to extreme levels.

Microsoft® DirectX® 9.0 Shader Model 3.0 support

Ensures top-notch compatibility and performance for all DirectX® 9 applications, including Shader Model 3.0 titles.

NVIDIA® CineFX™ 4.0 engine

Delivers advanced visual effects at unimaginable speeds. Full support for Microsoft® DirectX® 9.0 Shader Model 3.0 enables stunning and complex special effects. Next-generation shader architecture with new texture unit design streamlines texture processing for faster and smoother gameplay.

64-bit floating point texture filtering and blending

Based on the OpenEXR technology from Industrial Light & Magic (http://www.openexr.com/), NVIDIA’s 64-bit texture implementation delivers state-of-the-art high dynamic-range (HDR) visual effects through floating point capabilities in shading, filtering, texturing, and blending.

128-bit studio-precision computation

128-bit studio-precision computation through the entire pipeline prevents image defects due to low precision and ensures the best image quality for even the most demanding applications.

NVIDIA® Intellisample™ 4.0 technology

The industry’s fastest antialiasing delivers ultrarealistic visuals, with no jagged edges, at lightningfast speeds. Visual quality is taken to new heights through a new rotated grid sampling pattern, advanced 128 Tap sample coverage, 16x anisotropic filtering, and support for transparent supersampling and multisampling.

NVIDIA® SLI™ technology

Delivers up to 2x the performance of a single GPU configuration for unparalleled gaming experiences by allowing two graphics cards to run in parallel. The must-have feature for performance PCI Express graphics, SLI dramatically scales performance on over 60 top PC games.

256-bit memory interface

Delivers more memory bandwidth and efficiency to power the latest games and applications at blazing speeds.

NVIDIA® UltraShadow™ II technology

Enhances the performance of bleeding-edge games, like id Software’s DOOM 3, that feature complex scenes with multiple light sources and objects.

NVIDIA® PureVideo™ technology

The combination of high-definition video processors and NVIDIA DVD decoder software deliver unprecedented picture clarity, smooth video, accurate color, and precise image scaling for all video content to turn your PC into a high-end home theater.

(Feature requires supported video software.)

Adaptable programmable video processor

PureVideo’s programmable technology adapts to new video encoding formats as they are developed to provide a future-proof video solution. (Feature requires supported video software.)

High-definition MPEG-2 and WMV hardware acceleration

Smoothly playback all MPEG-2 and WMV video including WMV-HD with minimal CPU usage so the PC is free to do other work.

Advanced motion adaptive deinterlacing

Smoothes video and DVD playback on progressive displays to deliver a crisp, clear picture that rivals high-end home theater systems. (Feature requires supported video software.)

Video scaling and filtering

High-quality scaling and filtering technology delivers a clear, clean image at any window size, including full-screen HDTV resolutions up to 1080i.

Video color correction

Color temperature correction makes actors’ faces appear natural, rather than washed out and pale, when playing videos on LCD and CRT displays. Display gamma correction ensures videos are not too dark, overly bright, or washed out regardless of the video format or display. (Feature requires supported video software.)

Integrated HDTV encoder

Provides world-class TV-out functionality up to 1080i resolution.

NVIDIA® ForceWare™ Unified Driver Architecture (UDA)

Delivers a proven record of compatibility, reliability, and stability with the widest range of games and applications. ForceWare ensures the best out-of-box experience for every user and delivers continuous performance and feature updates over the life of NVIDIA GeForce GPUs. Includes full support for PCI Express and AGP.

OpenGL 2.0 optimizations and support

Ensures top-notch compatibility and performance for all OpenGL applications. NVIDIA® nView® multi-display technology

Advanced technology provides the ultimate in viewing flexibility and control for multiple monitors.

NVIDIA® Digital Vibrance Control™ (DVC) 3.0 technology

Allows the user to adjust color controls digitally to compensate for the lighting conditions of their workspace, in order to achieve accurate, bright colors in all conditions.

PCI Express support

Designed to run perfectly with the next-generation PCI Express bus architecture. This new bus doubles the bandwidth of AGP 8X delivering over 4 GB/sec. in both upstream and downstream data transfers.

Dual 400MHz RAMDACs

Blazing-fast RAMDACs support dual QXGA displays with ultra-high, ergonomic refresh rates –up to 2048x1536@85Hz.

Dual DVI support

Able to drive the industry’s largest and highest resolution flat-panel displays.


http://www.sbs.o.se/default.asp?artnr=7800GTXspakle

Black-Scorpion
2005-06-16, 19:23:24
Stimmt, ein nV44 hätte auch genügt, wenn man sich das Gefummel in den .ini-Dateien oder Treiber oder Registry hätte antun wollen, und FP-Blending über die Shader simulieren.
Ansonsten halt nV43. ;)
Das konnte ich mir fast denken das so eine Antwort kommt. ;)

PS. Deine gewünschten Test im ATI Thread sind fertig.

Quasar
2005-06-16, 19:25:53
PS. Deine gewünschten Test im ATI Thread sind fertig.
Merci!

Hellfire-Torrod
2005-06-16, 20:29:19
[i]GeForce 7800 GTX Features and Benefits:

IS das absicht das die Specs nun schon von Shops geleakt werden?

Ansonsten lässt es sich gut lesen, RSX lässt grüßen.

Demirug
2005-06-16, 20:39:40
IS das absicht das die Specs nun schon von Shops geleakt werden?

Ansonsten lässt es sich gut lesen, RSX lässt grüßen.

Das ist das Problem wenn man am gleichen Tag an dem man Launcht auch schon verkaufen will.

Hellfire-Torrod
2005-06-16, 20:43:56
Das ist das Problem wenn man am gleichen Tag an dem man Launcht auch schon verkaufen will.

Wobei hier ein anderer fakter eine größere rolle Spielt: Verkaufen kann.
Wenn ich mich recht erinnere behandelte man das Thema vor einem guten jahr noch recht Stiefmütterlich. Scheinen also gute nachrichten zu sein was die baldige verfügbarkeit angeht. Oder modernes Marketing. Wir werden es sehen...

Ich könnte mir gut vorstellen das die lager von Nvidia schon bis zur decke mit G70 Chips gefüllt sind.

reunion
2005-06-16, 20:44:52
Delivers up to 2x the shading power of previous generation products taking gaming performance to extreme levels.


Sieht nach 3 ALUs pro Pipeline aus.

ShadowXX
2005-06-16, 20:45:39
Delivers up to 2x the shading power of previous generation products taking gaming performance to extreme levels.


Mal sehen was davon "rüberkommt" in Games....


NVIDIA® CineFX™ 4.0 engine

Delivers advanced visual effects at unimaginable speeds. Full support for Microsoft® DirectX® 9.0 Shader Model 3.0 enables stunning and complex special effects. Next-generation shader architecture with new texture unit design streamlines texture processing for faster and smoother gameplay.


Neue TMUs ??


64-bit floating point texture filtering and blending

Based on the OpenEXR technology from Industrial Light & Magic (http://www.openexr.com/), NVIDIA’s 64-bit texture implementation delivers state-of-the-art high dynamic-range (HDR) visual effects through floating point capabilities in shading, filtering, texturing, and blending.


Ich schätze aber mal, das es bei 16FP Filtern & Blendern bleiben wird, oder?
Oder meinen Sie nur den 64bbp Buffer.


The industry’s fastest antialiasing delivers ultrarealistic visuals, with no jagged edges, at lightningfast speeds.


Marketing ist doch was schönes......


Visual quality is taken to new heights through a new rotated grid sampling pattern, advanced 128 Tap sample coverage, 16x anisotropic filtering, and support for transparent supersampling and multisampling.


Bin mal gespannt, wie das "transparent supersampling and multisampling" wird und funktioniert.


NVIDIA® PureVideo™ technology

The combination of high-definition video processors and NVIDIA DVD decoder software deliver unprecedented picture clarity, smooth video, accurate color, and precise image scaling for all video content to turn your PC into a high-end home theater.

(Feature requires supported video software.)

Adaptable programmable video processor

PureVideo’s programmable technology adapts to new video encoding formats as they are developed to provide a future-proof video solution. (Feature requires supported video software.)

High-definition MPEG-2 and WMV hardware acceleration

Smoothly playback all MPEG-2 and WMV video including WMV-HD with minimal CPU usage so the PC is free to do other work.


Der 2.te versuch....vielleicht klappts ja diesmal auf "allen" Chips...

reunion
2005-06-16, 20:50:17
Marketing ist doch was schönes......


Das hier ist mein Favorit:

NVIDIA® ForceWare™ Unified Driver Architecture (UDA)

Delivers a proven record of compatibility, reliability, and stability with the widest range of games and applications. ForceWare ensures the best out-of-box experience for every user and delivers continuous performance and feature updates over the life of NVIDIA GeForce GPUs. Includes full support for PCI Express and AGP.

Das Wort scheint wohl gerade in Mode zu kommen - und wenn man keine Unified Shader Architekur hat, bringt man eben eine Unified Driver Architektur. :D
Die Mehrheit merkt sowieso keine Unterschied.

Xmas
2005-06-16, 21:00:57
Sieht nach 3 ALUs pro Pipeline aus.
24*3 > 2*(16*2). Und da steht "up to".

Demirug
2005-06-16, 21:02:38
Das hier ist mein Favorit:

NVIDIA® ForceWare™ Unified Driver Architecture (UDA)

Delivers a proven record of compatibility, reliability, and stability with the widest range of games and applications. ForceWare ensures the best out-of-box experience for every user and delivers continuous performance and feature updates over the life of NVIDIA GeForce GPUs. Includes full support for PCI Express and AGP.

Das Wort scheint wohl gerade in Mode zu kommen - und wenn man keine Unified Shader Architekur hat, bringt man eben eine Unified Driver Architektur. :D
Die Mehrheit mehr sowieso keine Unterschied.

UDA ist schon sehr alt. Das gibt es schon seit die Treiber Detonator heisen oder soagr noch länger.

Demirug
2005-06-16, 21:03:53
24*3 > 2*(16*2). Und da steht "up to".

Ja, aber der Faktor ist falsch.

ShadowXX
2005-06-16, 21:07:19
Das hier ist mein Favorit:

NVIDIA® ForceWare™ Unified Driver Architecture (UDA)

Delivers a proven record of compatibility, reliability, and stability with the widest range of games and applications. ForceWare ensures the best out-of-box experience for every user and delivers continuous performance and feature updates over the life of NVIDIA GeForce GPUs. Includes full support for PCI Express and AGP.

Das Wort scheint wohl gerade in Mode zu kommen - und wenn man keine Unified Shader Architekur hat, bringt man eben eine Unified Driver Architektur. :D
Die Mehrheit mehr sowieso keine Unterschied.

Die Dinger werden AFAIK schon ziemlich lange als "Unified Driver Architecture" bezeichnet....das ist nicht wirklich neues.

Insgesamt ist vieles aus der Produktbeschreibung des nv40 per copy&paste übernommen worden.

Bis auf den dezenten hinweis daruf, das es neue TMUs geben könnte und das mit dem Transparent AA ist da nichts neues bei...falls ich nicht noch was übersehen haben.

Naja...ok...das mit dem up to 2xShaderpower....AiL hatte sowas in der Richtung ja im Thread schon angedeutet.

Wenigstens reden Sie tatsächlich nur vom Shaderpower und nicht von der Gesamtleistung.

Coda
2005-06-16, 21:10:48
Marketing ist doch was schönes......Das Multisampling ist bei nV wirklicht etwas schneller als bei ATi, weil erst beim Scanout gemischt wird. Dafür wird auch mehr Speicher verbraucht.

ShadowXX
2005-06-16, 21:14:38
Das Multisampling ist bei nV wirklicht etwas schneller als bei ATi, weil erst beim Scanout gemischt wird. Dafür wird auch mehr Speicher verbraucht.

Es ging mir mehr um die "etwas" überzogene Darstellung...

reunion
2005-06-16, 21:15:36
Ja, aber der Faktor ist falsch.


Also keine "vollwertige ALU"?
(Ja, ich weiß, dass du darauf keine Antwort geben kannst).

Quasar
2005-06-16, 21:15:51
Ja, aber der Faktor ist falsch.
Ja, komisch. Ausnahmsweise mal tiefgestapelt...

Ich biete "7x schneller als die vorherige Generation" X-D

Sunrise
2005-06-16, 21:20:50
Das Wort scheint wohl gerade in Mode zu kommen - und wenn man keine Unified Shader Architekur hat, bringt man eben eine Unified Driver Architektur. :D
Ob du es glaubst oder nicht, die UDA-Architektur der Treiber bei NV (die es schon seit Ewigkeiten gibt, angefangen mit den Detonatoren) war einer der Gründe, warum diverse PC-Anbieter ihre Fertig- bzw. Komplett-PCs in der Vergangenheit immer mit NV-Karten bestückt hatten. Zeitersparnis und Problemlosigkeit bei der Installation spart(e) so manchem Hersteller bares Geld und Nerven.

aths
2005-06-16, 22:18:14
Sieht nach 3 ALUs pro Pipeline aus.Wie kommst du darauf??

Angenommen der Takt von 430 MHz stimmt, und der neue Chip hat 24 statt 16 Pixelpipes. Das macht (24*430)/(16*400)=1,6125. Bis zu "up to 2x" fehlt also nur noch 2/1,6125 = 1,24... also 24% mehr Shaderleistung pro Pipe. Das sieht mir nicht nach 3 ALUs aus.

reunion
2005-06-16, 22:28:50
Wie kommst du darauf??

Angenommen der Takt von 430 MHz stimmt, und der neue Chip hat 24 statt 16 Pixelpipes. Das macht (24*430)/(16*400)=1,6125. Bis zu "up to 2x" fehlt also nur noch 2/1,6125 = 1,24... also 24% mehr Shaderleistung pro Pipe. Das sieht mir nicht nach 3 ALUs aus.


Stimmt, hab mich verrechnet. :redface:

Xmas
2005-06-16, 23:06:15
Ja, aber der Faktor ist falsch.
Welcher Faktor? Das "up to 2x"? Ja, dürfte in manchen Situationen wohl mehr sein.

Ailuros
2005-06-17, 00:54:25
Naja, du brüllst nicht schlecht rum :eek: , aber die Aussage von ATi hat für 2004/2005 völlig gepaßt, wer brauchte da schon SM3.0?

SM3.0 kommt aber 2006 in grossen Schritten und 2006 werden die 95% AGP User auch auf PCI Express aufrüsten, zu mind. ein grosser Anteil.

Erstens bruelle ich nicht und zweitens erwarte ich den gleichen Respekt den ich anderen auch liefere.

Drittens wenn man es in 2004/5 nicht brauchte dann haette man es auch so kurz vor WGF2.0 gleich weglassen koennen. Und viertens bevor ich noch jeglichen Unsinn weiterlese ich hab eine bessere Beziehung zu ATI als sich manche nur erwuenschen koennten.

Ailuros
2005-06-17, 00:57:25
Mehr OPs und weniger Bubbles *hust*

deekey777
2005-06-17, 01:39:25
Erstens bruelle ich nicht und zweitens erwarte ich den gleichen Respekt den ich anderen auch liefere.

Drittens wenn man es in 2004/5 nicht brauchte dann haette man es auch so kurz vor WGF2.0 gleich weglassen koennen. Und viertens bevor ich noch jeglichen Unsinn weiterlese ich hab eine bessere Beziehung zu ATI als sich manche nur erwuenschen koennten.

Ach komm, gib zu, du bist ein... Äh, irgendwie kann ich es mir nicht merken: Die Grünen sind die Fanboys, und die Roten sind die Fanatiker? X-D

Natürlich brauchte man 2004/05 keine SM 3.0 fähige Grafikkarte, wenn man schon eine R420/R423 bzw. R480/R481 hat...
Der kommende Dienstag könnte sehr lustig werden. Hoffentlich wird auch erklärt, daß die 7800 3D Marks in 3D Mark 2005 völlig in Ordnung sind.

stickedy
2005-06-17, 01:47:19
Und warum braucht man jetzt plötzlich eine SM3.0 Karte?

deekey777
2005-06-17, 01:50:50
Und warum braucht man jetzt plötzlich eine SM3.0 Karte?

Meinst du jetzt gleich? Also meine 9800Pro hat noch einige gute Tage vor sich, sprich man braucht keine, so lange man mit der gebotenen Leistung zufrieden sit.

stickedy
2005-06-17, 02:00:55
SM3.0 bedeudet nicht zwangsläufig eine höhere Leistung!
ATI hat vor einem Jahr behauptet, dass man kein SM 3.0 braucht, jetzt braucht man es plötzlich doch, obwohl WGF 2.0 vor der Tür steht...

Das widerspricht sich...

SKYNET
2005-06-17, 02:01:50
SM3.0 bedeudet nicht zwangsläufig eine höhere Leistung!
ATI hat vor einem Jahr behauptet, dass man kein SM 3.0 braucht, jetzt braucht man es plötzlich doch, obwohl WGF 2.0 vor der Tür steht...

Das widerspricht sich...


klar, weil sie gemerkt haben das sich SM3.0 besser verkauft, darum "brauch" man es auf einmal natürlich. ;D

mapel110
2005-06-17, 02:08:56
SM3.0 bedeudet nicht zwangsläufig eine höhere Leistung!
ATI hat vor einem Jahr behauptet, dass man kein SM 3.0 braucht, jetzt braucht man es plötzlich doch, obwohl WGF 2.0 vor der Tür steht...

Das widerspricht sich...
Was steht vor der Tür? Erstmal kommen nocheinmal SM3-Chips nach R520/G70. Also mindestens ein Jahr dauerts sicher noch bis zum ersten WGF-Chip.
Meinst du jetzt gleich? Also meine 9800Pro hat noch einige gute Tage vor sich, sprich man braucht keine, so lange man mit der gebotenen Leistung zufrieden ist...
... und den dadurch gebotenen Effekten.

r3ptil3
2005-06-17, 02:27:56
klar, weil sie gemerkt haben das sich SM3.0 besser verkauft, darum "brauch" man es auf einmal natürlich. ;D

Nein, ATI wusste natürlich schon wann der richtige Zeitpunkt für Shader Model 3.0 ist und das ist für ATI wohl jetzt! ATI hat ja ständig kontakt mit fast allen Spieleherstellern dadurch wussten sie wann mehrere Spiele mit Shader Model 3.0 kommen würden und das war wohl 2005, sodurch konnten sie beim R420 sparen was positive auswirkungen im finanziellen Berreich hat wegen der Entwicklung. Jetzt kann ATi halt mit Shader Model 3.0 werben nächstes Jahr wohl mit WGF2.0 gleich wie auch Nvidia.

SKYNET
2005-06-17, 02:30:12
dadran liegt es wohl kaum... weil wo ATI mit dem R300 kam waren PS2.0 spiele noch in WEITER ferne.
das ist einfach nur marketing, weil ohne PS3.0 = keine großen verkäufe

Ailuros
2005-06-17, 02:32:44
Ach komm, gib zu, du bist ein... Äh, irgendwie kann ich es mir nicht merken: Die Grünen sind die Fanboys, und die Roten sind die Fanatiker? X-D

Natürlich brauchte man 2004/05 keine SM 3.0 fähige Grafikkarte, wenn man schon eine R420/R423 bzw. R480/R481 hat...
Der kommende Dienstag könnte sehr lustig werden. Hoffentlich wird auch erklärt, daß die 7800 3D Marks in 3D Mark 2005 völlig in Ordnung sind.

Zwei Worte: bessere Vermarktung und Entwickler.

In diesem Markt muss man nicht nur schneller sein, sondern auch zumindest gleich so viele Features unterstuetzen wie die Konkurrenz, im Idealfall sogar noch mehr.

Zum Rest des "indirekten" Scherzes, ich bin wohl nur ein fanboy wenn ich die eine Seite unterstuetze oder?

Was nun den 3dfart betrifft: ich will ja R520 gerne 10K Punkte goennen, aber falls der finale score doch nicht so hoch sein sollte, werde ich mich wohl nicht verstecken wollen in der absehbaren Zukunft. Das heisst jetzt gar nichts was die wahre Leistung in diesem Benchmark betrifft. Weder fuer R520 noch fuer G70.

r3ptil3
2005-06-17, 02:39:42
dadran liegt es wohl kaum... weil wo ATI mit dem R300 kam waren PS2.0 spiele noch in WEITER ferne.
das ist einfach nur marketing, weil ohne PS3.0 = keine großen verkäufe

Ja natürlich auch wegen dem marketing das Ziel ist es ja die Karten zu verkaufen! Aber eben auch das mit dem R300 war klug seit daher gabs bis jetzt wohl keine Neuentwicklung so spart man an Entwicklungskosten.

Ailuros
2005-06-17, 02:43:03
Nein, ATI wusste natürlich schon wann der richtige Zeitpunkt für Shader Model 3.0 ist und das ist für ATI wohl jetzt! ATI hat ja ständig kontakt mit fast allen Spieleherstellern dadurch wussten sie wann mehrere Spiele mit Shader Model 3.0 kommen würden und das war wohl 2005, sodurch konnten sie beim R420 sparen was positive auswirkungen im finanziellen Berreich hat wegen der Entwicklung. Jetzt kann ATi halt mit Shader Model 3.0 werben nächstes Jahr wohl mit WGF2.0 gleich wie auch Nvidia.

Damit Spiele mit SM3.0 in 2005 kommen, werden sie wohl auch nicht weniger als 2 Jahre zuvor unter Entwicklung liegen oder? Geht es darum HW zu praesentieren wenn Entwickler mit gewisser SW ankommen oder Entwickler anzureizenz eigene HW als Entwicklungs-Platform zu benutzen? Fuer den zweiten Fall ist wohl R520 fuer 2005/6 etwas spaet dran.

Welches WGF2.0 genau? Nicht vor Ende 2006 wenn nicht gleich Anfang 2007.

Ailuros
2005-06-17, 02:46:09
Ja natürlich auch wegen dem marketing das Ziel ist es ja die Karten zu verkaufen! Aber eben auch das mit dem R300 war klug seit daher gabs bis jetzt wohl keine Neuentwicklung so spart man an Entwicklungskosten.

Ich bin mir sicher dass das R420 Konzept entstand um Entwicklungskosten zu minimalisieren und nicht weil ihnen die Resourcen ausgingen mit der Anhaeufung diverser anspruchsvoller Projekte wie Xenos. Ratschlag: plauder mal mit einem der engineers privat; sie geben normalerweise meistens Antworten wenn man sich nur dazu wagt und auch die richtigen Fragen stellt.

r3ptil3
2005-06-17, 02:52:23
Ich bin mir sicher dass das R420 Konzept entstand um Entwicklungskosten zu minimalisieren und nicht weil ihnen die Resourcen ausgingen mit der Anhaeufung diverser anspruchsvoller Projekte wie Xenos. Ratschlag: plauder mal mit einem der engineers privat; sie geben normalerweise meistens Antworten wenn man sich nur dazu wagt und auch die richtigen Fragen stellt.

Ja beim R420 bin ich gleicher Meinung!
Wie sollte ich den kontakt mit den Engineers aufnehmen? oder ist das als Scherz gemeint?

aths
2005-06-17, 03:28:23
Natürlich brauchte man 2004/05 keine SM 3.0 fähige Grafikkarte, wenn man schon eine R420/R423 bzw. R480/R481 hat... Wenn man die (spärlichen) "SM3-Effekte" nicht brauchte, dann ja.

Der kommende Dienstag könnte sehr lustig werden. Hoffentlich wird auch erklärt, daß die 7800 3D Marks in 3D Mark 2005 völlig in Ordnung sind.Könnte auf Vertexshader-Limitierung hinweisen, wobei viele Spiele eher Texturfüllraten- denn Vertexshader-limitiert sind. In welcher Auflösung läuft der 3DM05 standardmäßig? Welche Auflösung fährt die Zielgruppe eines G70 in ihren Spielen?

aths
2005-06-17, 03:31:14
Nein, ATI wusste natürlich schon wann der richtige Zeitpunkt für Shader Model 3.0 ist und das ist für ATI wohl jetzt! ATI hat ja ständig kontakt mit fast allen Spieleherstellern dadurch wussten sie wann mehrere Spiele mit Shader Model 3.0 kommen würden und das war wohl 2005, sodurch konnten sie beim R420 sparen was positive auswirkungen im finanziellen Berreich hat wegen der Entwicklung. Jetzt kann ATi halt mit Shader Model 3.0 werben nächstes Jahr wohl mit WGF2.0 gleich wie auch Nvidia.ATI wusste, wann der richtige Zeitpunkt für SM3 war: 2004. Sie haben dafür ja den R400 entwickelt. ATI wusste aber auch, dass natürlich ebenso die Performance wichtig ist. Das bot ihr R400-Design leider nicht. Ehe sie zwar die Features, aber nicht die Rohleistung liefern, haben sie das Projekt gecancelt und den R300 in verbreiterter und leicht überarbeiteter Architektur neu aufgebacken. So eine Blamage wie sie sich NV mit dem NV30 leistete, wollte sich ATI bei der R400-Generation ersparen.

Dass NV es mit dem NV40 geschafft hatte, sowohl Features als auch die Performance zu liefern, hat ATI dazu bewegt, umso härter am R520 zu arbeiten. Allerdings war zum NV40-Release die Entwicklung der R520-Architektur schon sehr weit gediehen. ATI ist sich aber darüber im Klaren, dass sie sich nach dem R420 nicht noch einmal zurücklehnen und auf eine Architektur aus dem Jahre 2002 verlassen können, wird für den Nachfolger vom Überbrückungschip namens R420 also von Beginn an entsprechend geplant haben.

Was ATI zu SM3 sagt kann man ungefähr so ernst nehmen wie die Werbesprüche seitens Nvidia.

Als ATI den Pixelshader 1.4 vorzuweisen hatte, eine ganze Generation weiter als Nvidias 1.1 bzw. 1.3, hat man seitens Nvidia gesagt man kenne keine Grafiken vom R200 die eine GeForce3 nicht ebenso oder sogar noch schöner rendern könne, und die Entwickler würden den Programmierstil ihrer Pixelshader-Version bevorzugen. Das galt natürlich nur so lange bis CineFX draußen war. Farb-Berechnungen bei GeForce3 und 4: 9 Bit, R200: 16 Bit. Dazu die beiden Phasen die im PS 1.4 möglich waren – diese Vorteile wurden vom NV-Marketing einfach totgeschwiegen. Bei CineFX war plötzlich das 32-Bit-Format der angeblich große Bringer, ebenso die praktisch unbegrenzt vielen Phasen im Pixelshader ...

Und so redete ATI 2004 eben davon, wie unwichtig SM3 sei, und dass ihre Karte ebenso alles rendern könnte. So reden die jeweils Betroffenen aber nicht aus innerer Überzeugung, sondern weil sie nichts besseres an Hardware anzubieten haben.


Mit SM3 ist eine effizientere Programmierung möglich, man kann also gerade bei langen Shadern diese in weniger Takten abarbeiten. Schon deshalb ist 2004 nicht zu früh für SM3 gewesen.

r3ptil3
2005-06-17, 03:49:16
ATI wusste, wann der richtige Zeitpunkt für SM3 war: 2004. Sie haben dafür ja den R400 entwickelt. ATI wusste aber auch, dass natürlich ebenso die Performance wichtig ist. Das bot ihr R400-Design leider nicht. Ehe sie zwar die Features, aber nicht die Rohleistung liefern, haben sie das Projekt gecancelt und den R300 in verbreiterter und leicht überarbeiteter Architektur neu aufgebacken. So eine Blamage wie sie sich NV mit dem NV30 leistete, wollte sich ATI bei der R400-Generation ersparen.

Dass NV es mit dem NV40 geschafft hatte, sowohl Features als auch die Performance zu liefern, hat ATI dazu bewegt, umso härter am R520 zu arbeiten.

Als ATI den Pixelshader 1.4 vorzuweisen hatte, eine ganze Generation weiter als Nvidias 1.1 bzw. 1.3, hat man seitens Nvidia gesagt man kenne keine Grafiken vom R200 die eine GeForce3 nicht ebenso oder sogar noch schöner rendern könne, und die Entwickler würden den Programmierstil ihrer Pixelshader-Version bevorzugen. Das galt natürlich nur so lange bis CineFX draußen war. Ebenso redete ATI 2004 davon, wie unwichtig SM3 sei, und dass ihre Karte ebenso alles rendern könnte. So reden die jeweils Betroffenen aber nicht aus innerer Überzeugung, sondern weil sie nichts besseres an Hardware anzubieten haben.


Mit SM3 ist eine effizientere Programmierung möglich, man kann also gerade bei langen Shadern diese in weniger Takten abarbeiten. Schon deshalb ist 2004 nicht zu früh für SM3 gewesen.

2004 kam bis auf Far Cry kein Spiel auf dem Markt das Shader Model 3.0 unterstützte, ja schon klar Marketing ist wichtig aber wäre Shader Model 3.0 2004 so wichtig dann hätte ATI wohl Shader Model 3.0 gebracht doch das haben sie nicht! In sachen Leistung ist der R420 ja teilweise schneller oder gleichschnell im Vergleich zum NV40 mit aktiviertem Shader Model 3 (beim NV40 natürlich), das kommt wohl vom hohen Takt aber es ist ja ein Positiver Punkt für ATI das so hohe Taktraten möglich sind! NV40 musste ja mit dem NV40 vorallem wegen dem verpatzen NV30 kommen, so war es nicht schlimm für ATI als Konkurrent vom NV40 einen Shader Model 2 Chip zu bringen da der Ruf dank des R300 sehr gut war! Natürlich war es 2004 nicht zu früh für Shader Model 3.0 aber auch nicht tragisch wenn ein Chip das nicht hat vorallem bei einem Chip der vorher deutlich den Konkurrenten geschlagen hatte.

aths
2005-06-17, 03:58:16
2004 kam bis auf Far Cry kein Spiel auf dem Markt das Shader Model 3.0 unterstützte, ja schon klar Marketing ist wichtig aber wäre Shader Model 3.0 2004 so wichtig dann hätte ATI wohl Shader Model 3.0 gebracht doch das haben sie nicht! Weil sie es nicht konnten. Sie standen vor der Wahl: Features oder Performance.

Das ist ein Punkt wo deutlich wird, dass ATI weniger Entwicklungsressourcen als Nvidia hat. Während Nvidia für jedes noch so dünne Marktsegment einen eigenen Chip entwickelt und durchs Tape-Out bringt, verlässt sich ATI auf wenige Grund-Chips, weil das billiger ist. Im Zuge der PCIe-Entwicklung setzten sie zu spät auf AGP-Kompatibilität – weil sie nicht die Mittel hatten, rechtzeitig den Konverterchip zu entwickeln (und keine Lust, einfach Nvidias HSI-Bridge zu kaufen.)

ATI entwickelt in großen Generationsprüngen (wobei R420 keine neue Generation ist), bei Nvidia gibts die Verbesserungen meistens stückweise, was für die Vermarkung besser, in der Entwicklung allerdings teurer ist.

Bei SLI war Nvidia vorne dran, bei "TurboCache" war Nvidia vorne dran. ATI entwickelt hier nur hinterher. Nicht weil sie diese Features für sinnlos hielten, sondern weil sie nicht die Mittel haben, das alles gleichzeitig zu entwickeln.

Auch beim Marketing merkt man das. 2005 bekamen mit nach langfristiger Anmeldung Rene Fröleke. Bei NV bekam ich nach kurzfristiger Anmeldung als Extrawurst ("3Dcenter" war am Tag vorher schon dran gewesen, leider ohne mich) noch einen Termin und sprach mit Adam Foat und einem Techniker, dessen Name mir leider entfallen ist. Bei ATI waren einfach nicht genügend Leute anwesend als dass sie so etwas hätten ermöglichen können. (Wirklich neues erfuhr man natürlich weder von ATI noch von Nvidia. Die CeBit ist halt eine Werbeveranstaltung.) Auf der CeBit 2004 bekam 3DCenter bei ATI übrigens gar keinen Mann zu sprechen. Wohl nicht aus Unhöflichkeit, sondern weil die Personaldecke etwas dünner ist.

ATI hat natürlich exzellente Ingenieure, und die können erstaunlichen Leistung zeigen wie seit R100 jede neue Generation neu unter Beweis stellte: R200 mit Pixelshader 1.4, R300 als erster DX9-Chip, der sogar selbst in der kleinen Version als Radeon 9600 tatsächlich DirectX9-Spiele flüssig rendern kann – inklusive AA und AF. Dem hatte Nvidia einfach nicht entgegenzusetzen, die NV30-Generation gilt unter Spielern ingesamt als eine einzige Peinlichkeit. Den R420 möchte ich aus technologischer Sicht aber eine Enttäuschung nennen. ATI hat auf die Features nicht verzichtet weil man sie noch nicht brauchen könnte, sondern weil man sie nicht mit der gewünschten Leistung realisieren konnte. So entschied man sich für die Wiederverwertung des bestehenden SM2-Designs und beauftragte die Marktetingabteilung, dies noch als Vorteil ("fat-low") anzupreisen.

In sachen Leistung ist der R420 ja teilweise schneller oder gleichschnell im Vergleich zum NV40 mit aktiviertem Shader Model 3 (beim NV40 natürlich), das kommt wohl vom hohen Takt aber es ist ja ein Plus von ATI das so hohe Taktraten möglich sind! NV40 musste ja mit dem NV40 vorallem wegen dem verpatzen NV30 bringen, so war es nicht schlimm für ATI als Konkurrent vom NV40 einen Shader Model 2 Chip zu bringen da der Ruf dank des R300 sehr gut war!Bezogen auf das, was der R420 beschleunigen kann, ist er zweifelsohne sehr schnell. Das Problem ist, dass er die für viele neuartige Grafikeffekte nötigen Berechungen nicht in dem Maße beschleunigen kann, wie der NV40 das mit SM3 und seinen speziellen FP16-Optimierungen für Texturfilterung und Alphablending bietet.

Dass ATI mit dem R520 einen exzellenten Chip vorlegt ist für mich keine Frage des Glaubens, sondern der Erwartung.

Ailuros
2005-06-17, 04:05:25
Ja beim R420 bin ich gleicher Meinung!
Wie sollte ich den kontakt mit den Engineers aufnehmen? oder ist das als Scherz gemeint?

Nur bin ich nicht der gleichen Meinung anscheinend und Du hast den Sarkasmus uebersehen...

Ueberhaupt kein Scherz; einfach ein PM auf einem messageboard schicken. Mit etwas Glueck bekommt man schon eine Antwort.

Ailuros
2005-06-17, 04:14:42
2004 kam bis auf Far Cry kein Spiel auf dem Markt das Shader Model 3.0 unterstützte, ja schon klar Marketing ist wichtig aber wäre Shader Model 3.0 2004 so wichtig dann hätte ATI wohl Shader Model 3.0 gebracht doch das haben sie nicht! In sachen Leistung ist der R420 ja teilweise schneller oder gleichschnell im Vergleich zum NV40 mit aktiviertem Shader Model 3 (beim NV40 natürlich), das kommt wohl vom hohen Takt aber es ist ja ein Positiver Punkt für ATI das so hohe Taktraten möglich sind! NV40 musste ja mit dem NV40 vorallem wegen dem verpatzen NV30 kommen, so war es nicht schlimm für ATI als Konkurrent vom NV40 einen Shader Model 2 Chip zu bringen da der Ruf dank des R300 sehr gut war! Natürlich war es 2004 nicht zu früh für Shader Model 3.0 aber auch nicht tragisch wenn ein Chip das nicht hat vorallem bei einem Chip der vorher deutlich den Konkurrenten geschlagen hatte.

Ein AAA Spiel braucht heute mehr als 2-3 Jahre um entwickelt zu werden. Alle Spiele mit einem SM3.0 path in 2005/2006 wurden dann auf welcher Platform entwickelt? Das Thema ist nicht WANN man SM3.0 braucht sondern WER. Die Antwort ist hier die Entwickler bzw. ISVs. High end Features auf high end GPUs koennen bei deren Vorstellung meistens dem Verbraucher egal sein, einem Entwickler eben nicht, ueberhaupt wenn ihm gewisse Features das Leben leichter machen.

***edit: R300 kam uebrigens 9 Monate frueher an als ΝV30. Und das Konzept vom NV40 wurde ~Anfang 2002 aufgenommen.

Ailuros
2005-06-17, 04:25:57
Dass ATI mit dem R520 einen exzellenten Chip vorlegt ist für mich keine Frage des Glaubens, sondern der Erwartung.

Tatsaechlich. Nur wuerde ich (wie manche andere) eine Wiederholung von der R300/NV30 Relation nicht erwarten.

ATI war es von Anfang an bewusst dass der Pegel in Sachen Leistung schon mit dem R420 sehr hoch gelegt wurde; doppelt so viel Leistung und SM3.0 zur gleichen Zeit liegt im Bereich des unmoeglichen.

r3ptil3
2005-06-17, 04:38:58
Tatsaechlich. Nur wuerde ich (wie manche andere) eine Wiederholung von der R300/NV30 Relation nicht erwarten.

ATI war es von Anfang an bewusst dass der Pegel in Sachen Leistung schon mit dem R420 sehr hoch gelegt wurde; doppelt so viel Leistung und SM3.0 zur gleichen Zeit liegt im Bereich des unmoeglichen.

Das hat Nvidia aber geschafft da ja eben wie schon erwähnt das Projekt NV40 schon 2002 angefangen hat und ATi das eigentlich mit dem R300 auch so änhlich machte! Vor einiger Zeit hatte Nvidia und ATI doch beschlossen die Grafikkarten-Entwicklung ein wenig zu verlangsamen, das trat aber beim NV40 - R420 noch nicht ein oder?

mapel110
2005-06-17, 04:48:54
Das hat Nvidia aber geschafft da ja eben wie schon erwähnt das Projekt NV40 schon 2002 angefangen hat und ATi das eigentlich mit dem R300 auch so änhlich machte! Vor einiger Zeit hatte Nvidia und ATI doch beschlossen die Grafikkarten-Entwicklung ein wenig zu verlangsamen, das trat aber beim NV40 - R420 noch nicht ein oder?
Also Nvidia hat ganz offensichtlich nicht auf ATI gewartet und gleich einen SM3-Chip rausgebracht. :D
Ich glaube, das kann man wohl ins Reich der Märchen verlegen, diese angebliche Absprache. Das Einzige, was sich geändert hat ist, dass m$ viel in Directx reingepackt hat, sodass die IHVs und vorallem die ISVs mal etwas längerfristig planen können.
So sehe ich das zumindest. Wirklich verlangsamt haben beide ihre Bemühungen imo nicht.

Ailuros
2005-06-17, 07:19:05
Das hat Nvidia aber geschafft da ja eben wie schon erwähnt das Projekt NV40 schon 2002 angefangen hat und ATi das eigentlich mit dem R300 auch so änhlich machte! Vor einiger Zeit hatte Nvidia und ATI doch beschlossen die Grafikkarten-Entwicklung ein wenig zu verlangsamen, das trat aber beim NV40 - R420 noch nicht ein oder?

Es kam NIE zu einer Vereinbarung und ich hab auch nie etwas von solch einem Treffen gehoert, ausser natuerlich Fuad's Geblubber. In die gleiche Kategorie dieses Bloedsinns gehoert auch die These dass NVIDIA Architektur A oder B storniert hat.

Beide IHVs hatten einen sehr konkreten Plan seit es ihnen Anfang 2002 klar wurde dass mit WGF2.0 so bald nichts mehr wird.

ATI = SM2.0 --> SM2.0_extended --> SM3.0
NVIDIA = SM2.0_extended --> SM3.0

Haette ATI nicht den "Ur-R400" storniert haette es nie eine SM2.0_extended bzw. R420/480 gegeben.

Als NVIDIA NV40 im letzten Jahr vorstellten, machten sie es klar dass sie vorhaben SM3.0 ueber ~3 Jahre zu erhalten im low-end Markt.

Das Einzige, was sich geändert hat ist, dass m$ viel in Directx reingepackt hat, sodass die IHVs und vorallem die ISVs mal etwas längerfristig planen können.

Gleiches wird auch fuer WGF2.0 gelten. Es soll auch 4-5 Jahre aushalten.

Quasar
2005-06-17, 11:28:51
Ich hoffe nur, daß der Unterschied in Games nicht zu groß ausfallen wird - sonst werden die Foren wieder uneträglich zu visitieren sein. 'Gekauft' hier, 'Cheat' dort usw. usf.

Mir wäre es am liebsten, wenn beide möglichst eng zusammen lägen (vom Murks mal abgesehen - und ehrlich, wenn ich die Möglichkeit hätte, einen einzigen Benchmark an irgendeiner Messe-Maschine laufen zu lassen, ich würde auch den Murks nehmen - aber lieber die Feature- als die Game-Tests) und das möglichst ohne größere Ausreisser nach oben oder unten.

Dann könnte man ganz nach Treiber- und Bildqualität kaufen (und denjenigen, der zuviel gespart hat, ordentlich 'abstrafen').

Diskutator
2005-06-17, 12:11:02
Tatsaechlich. Nur wuerde ich (wie manche andere) eine Wiederholung von der R300/NV30 Relation nicht erwarten.

ATI war es von Anfang an bewusst dass der Pegel in Sachen Leistung schon mit dem R420 sehr hoch gelegt wurde; doppelt so viel Leistung und SM3.0 zur gleichen Zeit liegt im Bereich des unmoeglichen.
Da lehnst du dich aber weit aus dem Fenster! Ich denke ATI wird viele mit dem R520 sehr überraschen! Ich schätze das wird ähnlich laufen wie bei Crossfire! Mal abwarten und überhaupt ist in der IT alles möglich!

Demirug
2005-06-17, 12:13:18
Da lehnst du dich aber weit aus dem Fenster! Ich denke ATI wird viele mit dem R520 sehr überraschen! Ich schätze das wird ähnlich laufen wie bei Crossfire! Mal abwarten und überhaupt ist in der IT alles möglich!

Wie bei Crossfire? Also keinen R520 mehr im Jahre 2005 a.D?

Und was ist an Crossfire überraschend? IMHO ist das eine schlechte SLI Kopie entstanden aus reiner Verzweiflung. Ich sage nur FPGA.

reunion
2005-06-17, 12:16:45
INQ: Geforce 7800, G70 to get its Ultra: After R520 launch (http://www.the-inquirer.net/?article=24008)

Diskutator
2005-06-17, 12:20:31
INQ: Geforce 7800, G70 to get its Ultra: After R520 launch (http://www.the-inquirer.net/?article=24008)

Schön zu lesen die "Märchen-Geschichte" von Fudo, aber wie bei jedem Märchen steckt auch hier ein bissel Wahrheit drin, Mal schaun wie es tatsächlich kommen wird!

Ailuros
2005-06-17, 12:31:56
Da lehnst du dich aber weit aus dem Fenster! Ich denke ATI wird viele mit dem R520 sehr überraschen! Ich schätze das wird ähnlich laufen wie bei Crossfire! Mal abwarten und überhaupt ist in der IT alles möglich!

Sie haben sich selber nicht damit ueberrascht; wieviel ich mich aus dem Fenster lehne werden wir ja schon sehen.

Winter[Raven]
2005-06-17, 12:31:58
Schön zu lesen die "Märchen-Geschichte" von Fudo, aber wie bei jedem Märchen steckt auch hier ein bissel Wahrheit drin, Mal schaun wie es tatsächlich kommen wird!

Wieso "Märchen"? Würde mich nicht wundern wenn es so wirklich kommt, das kennen wir doch schon aus der Vergangenheit...

X800XT vs. 6800 ultra ... X800PE vs. GF6800 Ultra Extreme ... ;D

Gast
2005-06-17, 12:35:33
']

X800XT vs. 6800 ultra ... X800PE vs. GF6800 Ultra Extreme ... ;D
Hä?
Hab ich was verpasst?
Wo kann ich bei Nvidia über eine GF6800 Ultra Extreme nachlesen?
Bei ATI finde ich die X800XT PE, die GF6800 Ultra Extreme kann ich nirgendwo auf der NV Homepage finden. *grübel*

Ailuros
2005-06-17, 12:36:10
INQ: Geforce 7800, G70 to get its Ultra: After R520 launch (http://www.the-inquirer.net/?article=24008)

Nur wird die angebliche "Ultra" vielleicht G80 heissen und die Antwort darauf R580. Fuer 2006 dann eher.

Wieviel Luftraum hat NVIDIA einen 6 quad chip@110nm hoeher als 430MHz zu takten?

Ich habe nichts von einer Ultra diesmal gehoert.

Gast
2005-06-17, 12:37:58
Nur wird die angebliche "Ultra" vielleicht G80 heissen und die Antwort darauf R580. Fuer 2006 dann eher.

Wieviel Luftraum hat NVIDIA einen 6 quad chip@110nm hoeher als 430MHz zu takten?

Ich habe nichts von einer Ultra diesmal gehoert.

Angeblich ist ein G70 schon auf 500/1350 übertaktet worden. Ob mit fettem Kühler oder Voltmod kA.

Ailuros
2005-06-17, 12:38:23
Schön zu lesen die "Märchen-Geschichte" von Fudo, aber wie bei jedem Märchen steckt auch hier ein bissel Wahrheit drin, Mal schaun wie es tatsächlich kommen wird!

Ich wundere mich ob Fuad nur "Maerchen" fuer G70 erzaehlt oder auch fuer R520. ;D :|

Winter[Raven]
2005-06-17, 12:38:38
Guckst du hier: http://www.evga.com/products/moreinfo.asp?pn=256-A8-N346-AX

Die EE war nie "offiziell" von Nvidia veröffentlich worden, aber einge EE's waren doch zukaufen...

Ailuros
2005-06-17, 12:40:34
Angeblich ist ein G70 schon auf 500/1350 übertaktet worden. Ob mit fettem Kühler oder Voltmod kA.

Wer zum Henker redet hier ueber Uebertaktungen? Oder willst Du mir weissmachen dass NVIDIA oder jeder andere IHV uebertaktete Produkte verkaufen wird. Die Taktrate fuer G70 ist 430MHz.

Winter[Raven]
2005-06-17, 12:42:22
@ Ailuros

Ich sag nur NV40 mit 425 Mhz ;)

Ailuros
2005-06-17, 12:47:35
']@ Ailuros

Ich sag nur NV40 mit 425 Mhz ;)

Ja bei spaeteren Revisionen von NV40, aber obwohl die Taktrate erhoeht wurde waren und sind es nach wie vor 6800Ultras und nicht 6800Ultra Ultra oder was auch immer.

Bei G70 scheint das hoechst geplante Modell 7800GTX zu sein; schaffen sie es jetzt nach 6 Monaten wie oben nochmal 20-30MHz dazuzuquetschen macht es auch keinen besonderen Unterschied was die Leistung betrifft und schon gar nicht den Quatsch der Fuad hier wieder vorschlaegt.

Ach ja G70 wird um X Prozent theoretisch lahmer sein als R520 und 25MHz mehr Takt wird das Problem loesen oder wie?

Gast
2005-06-17, 12:50:06
Die EE war nie "offiziell" von Nvidia veröffentlich worden, aber einge EE's waren doch zukaufen...
Ach so...
Overclocking vom Werk, wie die Bravos bei Powercolor.
Naja, die 6800 Ultra Extreme (vom Werk übertaktete Karte) mit einer officiellen X800XT PE zu vergleichen, finde ich ein bisschen vermessen.
Wers nötig hat...

SKYNET
2005-06-17, 12:55:06
In welcher Auflösung läuft der 3DM05 standardmäßig? Welche Auflösung fährt die Zielgruppe eines G70 in ihren Spielen?


1024 vs. 1600

Gast
2005-06-17, 12:55:21
Wer zum Henker redet hier ueber Uebertaktungen? Oder willst Du mir weissmachen dass NVIDIA oder jeder andere IHV uebertaktete Produkte verkaufen wird. Die Taktrate fuer G70 ist 430MHz.

Warum so gereizt? Du hast doch danach gefragt, wieviel Luft Nvidia beim G70 noch haben könnte. Sofern die 500/1350 nicht feuchte Fanboy Träume sind und die Werte nicht nur auf ein ausgesuchtes Testsample zurückgehen, kann man durchaus von ein paar MHz mehr für 'normale' Serienkarten ausgehen.

Was vielleicht doch noch zu einer Ultra führen könnte ist, dass die 7800er nur ein SingleSlot Design ist. Bei DualSlot Kühlung könnte ich mir durchaus 470 bis 500MHz vorstellen. So eine Lösung erwarte ich allerdings auch nur von den Kartenherstellern, nicht von Nvidia selber. Grossartig anders hat man es bei der X850XT PE ja auch nicht gehandhabt.

SKYNET
2005-06-17, 13:00:36
Nur wird die angebliche "Ultra" vielleicht G80 heissen und die Antwort darauf R580. Fuer 2006 dann eher.

Wieviel Luftraum hat NVIDIA einen 6 quad chip@110nm hoeher als 430MHz zu takten?

Ich habe nichts von einer Ultra diesmal gehoert.


bezweifel ich, ich schätze mal das NV dann anfang august den G70(G75?) in 0.09µ und deutlich mehr takt vorstellen wird.
evtl. ist da dann sogar noch mehr drinne als nur mehr takt, evtl. noch 2 zusätzliche quads? :|

Ailuros
2005-06-17, 13:01:36
Warum so gereizt? Du hast doch danach gefragt, wieviel Luft Nvidia beim G70 noch haben könnte. Sofern die 500/1350 nicht feuchte Fanboy Träume sind und die Werte nicht nur auf ein ausgesuchtes Testsample zurückgehen, kann man durchaus von ein paar MHz mehr für 'normale' Serienkarten ausgehen.

Was vielleicht doch noch zu einer Ultra führen könnte ist, dass die 7800er nur ein SingleSlot Design ist. Bei DualSlot Kühlung könnte ich mir durchaus 470 bis 500MHz vorstellen. So eine Lösung erwarte ich allerdings auch nur von den Kartenherstellern, nicht von Nvidia selber. Grossartig anders hat man es bei der X850XT PE ja auch nicht gehandhabt.

Fettgedrucktes nochmal lesen und bedenken ob es was mit dem zu tun hat was Vendors eventuell anrichten werden; solange die Vendors dafuer garantieren ist es ihr Bier. Hoechstes Modell fuer G70 ist die 7800GTX@430MHz in 4 Tagen von heute und die Unterlagen fuer die Veroeffentlichung kursieren schon seit einiger Zeit.

Die Taktrate von X850XT PE wurde von ATI selber festgesetzt und war nicht eine Vendor Initiative ala BFG OC "X" GPU.

wuzetti
2005-06-17, 13:02:27
bezweifel ich, ich schätze mal das NV dann anfang august den G70(G75?) in 0.09µ und deutlich mehr takt vorstellen wird.
evtl. ist da dann sogar noch mehr drinne als nur mehr takt, evtl. noch 2 zusätzliche quads? :|

kann ich was von dem zeug haben, das du rauchst? ;D ;D ;D

Ailuros
2005-06-17, 13:03:20
bezweifel ich, ich schätze mal das NV dann anfang august den G70(G75?) in 0.09µ und deutlich mehr takt vorstellen wird.
evtl. ist da dann sogar noch mehr drinne als nur mehr takt, evtl. noch 2 zusätzliche quads? :|

Schoen. Jetzt hat man mal wieder in der Geruechtekueche den RSX mit dem G70 verwechselt. Scharfes Nachdenken bringt dich sicher dazu was ich gerade meinte und warum RSX sein tapeout erst Ende Sommer haben wird nach Plan.

***edit: PS3 soll in etwa 9 Monaten vorgestellt werden afaik. Sagt Dir das was bezueglich tape-out und Massenproduktion oder nicht?

SKYNET
2005-06-17, 13:03:36
Warum so gereizt? Du hast doch danach gefragt, wieviel Luft Nvidia beim G70 noch haben könnte. Sofern die 500/1350 nicht feuchte Fanboy Träume sind und die Werte nicht nur auf ein ausgesuchtes Testsample zurückgehen, kann man durchaus von ein paar MHz mehr für 'normale' Serienkarten ausgehen.



keine fanboy träume, lese mal auf XS.org dann weißt du mehr als der normalsterbliche. =)
und sind kei8ne ausgesuchten samples sondern 2 serienkarten ohne ES auf dem DIE. :cool:

Demirug
2005-06-17, 13:04:22
Schoen. Jetzt hat man mal wieder in der Geruechtekueche den RSX mit dem G70 verwechselt. Scharfes Nachdenken bringt dich sicher dazu was ich gerade meinte und warum RSX sein tapeout erst Ende Sommer haben wird nach Plan.

IMHO hat sich Sony von nVidia zusichern lassen das sie beim Launch der PS3 die stärkste nVidia GPU haben werden...

Ailuros
2005-06-17, 13:06:35
IMHO hat sich Sony von nVidia zusichern lassen das sie beim Launch der PS3 die stärkste nVidia GPU haben werden...

Und es wird auch so sein. Das Thema ist hier dass der PC G70 Nachfolger in 90nm nicht vor Anfang 2006 praktisch erscheinen kann.

Crushinator
2005-06-17, 13:08:07
bezweifel ich, ich schätze mal das NV dann anfang august den G70(G75?) in 0.09µ und deutlich mehr takt vorstellen wird.
evtl. ist da dann sogar noch mehr drinne als nur mehr takt, evtl. noch 2 zusätzliche quads? :|
Unwahrscheinlicher geht's IMHO kaum. Wenn man schon was G70-artiges für 90 nm in der Schublade hätte, würde es mehr Sinn ergeben, ihn gleich in Massenproduktion zu geben und darauf zu achten, daß die in 110 nm gefertigten nicht all zu sehr die Lager füllen, weil dann wohl kaum einer mehr einen G70 auf 110 nm kaufen würde, wenn er auf High-End aus ist.

SKYNET
2005-06-17, 13:11:52
Unwahrscheinlicher geht's IMHO kaum. Wenn man schon was G70-artiges für 90 nm in der Schublade hätte, würde es mehr Sinn ergeben, ihn gleich in Massenproduktion zu geben und darauf zu achten, daß die in 110 nm gefertigten nicht all zu sehr die Lager füllen, weil dann wohl kaum einer mehr einen G70 auf 110 nm kaufen würde, wenn er auf High-End aus ist.


warum? gibt ja soooo viele leute die sich nur das modell unterhalb der top karte kaufen, weil die GTX würde ja ganz schnell um 100-120€ fallen, weil die ultra dann deren stelle einnimmt.

und wenn nur die ultra dann in 0.09µ gefertigt wird, bleibt den leuten ja praktisch nix über als entweder 500€+ für selbige auszugeben, oder 380-420€ für die GTX, die dann aber nur 0.11µ hat. =)

Ailuros
2005-06-17, 13:18:43
warum? gibt ja soooo viele leute die sich nur das modell unterhalb der top karte kaufen, weil die GTX würde ja ganz schnell um 100-120€ fallen, weil die ultra dann deren stelle einnimmt.

und wenn nur die ultra dann in 0.09µ gefertigt wird, bleibt den leuten ja praktisch nix über als entweder 500€+ für selbige auszugeben, oder 380-420€ für die GTX, die dann aber nur 0.11µ hat. =)

Du beschreibst eben nur den Nachfolger von G70, der vielleicht G80 heissen koennte, eben wegen dem Herstellungsprozess.

reunion
2005-06-17, 13:18:54
Update bei nV-News:

3dmark05
1600x1200 4AA 8AF
5XXX.
awesome!
a single 6800U gets 2600 while SLI 6800U's get 4800.
And sth big!

http://www.nvnews.net/vbulletin/showthread.php?t=52064

7800U will be a dual-core on-chip SLI thing.(90nm from IBM)16pipelines +16pipelines

http://www.nvnews.net/vbulletin/showpost.php?p=632102&postcount=58

So far,R520 based on old technics from TSMC is kinda furnace.
And if the frequency of it is 700Mhz,it will consume 200W.

http://www.nvnews.net/vbulletin/showpost.php?p=632118&postcount=64

SKYNET
2005-06-17, 13:20:21
ich glaube nicht, das erst der nachfolger in 0.09µ gefertigt wird...
aber ich lasse mich da gerne überraschen.

Ailuros
2005-06-17, 13:23:03
ich glaube nicht, das erst der nachfolger in 0.09µ gefertigt wird...
aber ich lasse mich da gerne überraschen.

Du kannst eventuell auch mal ne PM lesen ;)

Crushinator
2005-06-17, 13:26:40
warum? gibt ja soooo viele leute die sich nur das modell unterhalb der top karte kaufen, weil die GTX würde ja ganz schnell um 100-120€ fallen, weil die ultra dann deren stelle einnimmt.
Es würde nV mehr Gewinn bringen, wenn sie gleich den 90nm Chip in großen Massen Produzieren würden und den Abstand zu einem G70@110nm ggf. nur per Takt zu realisieren. Je kleiner das DIE desto günstiger der Wafer.
und wenn nur die ultra dann in 0.09µ gefertigt wird, bleibt den leuten ja praktisch nix über als entweder 500€+ für selbige auszugeben, oder 380-420€ für die GTX, die dann aber nur 0.11µ hat. =)
Keine Firma mit wirtschaftlichen Interessen würde erst einen 110nm Tape-Out eines so teuren Chips fahren, um kurz darauf noch einen zu fahren, der den vorigen in den Schatten stellt, um dann auch noch vom ersten größere Massen zu produzieren. Sorry, es ergibt für mich keinen Sinn. ;(

SKYNET
2005-06-17, 13:27:04
Du kannst eventuell auch mal ne PM lesen ;)


ja, habe ich schon.

thx :smile:

Ailuros
2005-06-17, 13:28:34
Update bei nV-News:

3dmark05
1600x1200 4AA 8AF
5XXX.
awesome!
a single 6800U gets 2600 while SLI 6800U's get 4800.
And sth big!

http://www.nvnews.net/vbulletin/showthread.php?t=52064

7800U will be a dual-core on-chip SLI thing.(90nm from IBM)16pipelines +16pipelines

http://www.nvnews.net/vbulletin/showpost.php?p=632102&postcount=58

So far,R520 based on old technics from TSMC is kinda furnace.
And if the frequency of it is 700Mhz,it will consume 200W.

http://www.nvnews.net/vbulletin/showpost.php?p=632118&postcount=64

*seufz* :|

Gast
2005-06-17, 13:28:49
Es würde nV mehr Gewinn bringen, wenn sie gleich den 90 nm Chip in großen Massen Produzieren würden und den Abstand zu einem G70@110nm ggf. nur per Takt zu realisieren. Je kleiner das DIE desto günstiger der Wafer.

Keine Firma mit Wirtschaftlichen Interessen würde erst einen 110nm Tape-Out eines so teuren Chips fahren, um kurz darauf noch einen zu fahren, der den vorigen in den Schatten stellt, um dann auch noch vom ersten größere Massen zu produzieren. Sorry, es ergibt für mich keinen Sinn. ;(

Wenn man jetzt noch die Probleme von TSMC mit 90nm dazunimmt, wird es vor 2006 eh nichts mehr mit G70@90nm werden.

Ailuros
2005-06-17, 13:38:57
Wenn man jetzt noch die Probleme von TSMC mit 90nm dazunimmt, wird es vor 2006 eh nichts mehr mit G70@90nm werden.

Welche Probleme mit low-k 90nm bei TSMC? :|

NVIDIA entschied sich fuer 90nm etwa ein Halbjahr spaeter als ATI, weil sie eben G70 schon auf 110nm geplant hatten.

robbitop
2005-06-17, 13:43:59
Neue TMUs ??

Ich glaube eher fast, dass nun die Texturkoordinaten nicht mehr durch die ALU durchgeschliffen wird sondern "aussenrum". Somit blockiert eine T-Op wie auch beim R3xx/4xx die ALU nicht mehr für einen Takt.
Ist aber auch nur so ein Gedanke..

Sieht nach 3 ALUs pro Pipeline aus.

Ich denke eher, dass man evtl was an den Crossbars und vieleicht (!!) sogar an der Funktionalität der ALUs geändert hat. Oft kann man beide ja nicht auslasten, da beide im NV40 nur eingeschränkte Funktionen besitzen.

robbitop
2005-06-17, 13:45:27
Welche Probleme mit low-k 90nm bei TSMC? :|

NVIDIA entschied sich fuer 90nm etwa ein Halbjahr spaeter als ATI, weil sie eben G70 schon auf 110nm geplant hatten.
Und aus Abscheu vor Risiko. Sie wollten gleich hohe Verfügbarkeit ohne Stress mit Kinderschuhproblemen mit einem relativ neuen Prozess (naja zumindist die Aufgabe für diesen Prozess ist relativ neu). Seit NV30 hat man ja genug von sowas und geht möglichst auf Nummer Sicher.

seahawk
2005-06-17, 13:49:48
Nur wird die angebliche "Ultra" vielleicht G80 heissen und die Antwort darauf R580. Fuer 2006 dann eher.

Wieviel Luftraum hat NVIDIA einen 6 quad chip@110nm hoeher als 430MHz zu takten?

Ich habe nichts von einer Ultra diesmal gehoert.

Es soll Luft geben. Weniger beim Chiptakt, aber bei anderen, wechselbaren Komponenten. ;)

seahawk
2005-06-17, 13:53:59
Unwahrscheinlicher geht's IMHO kaum. Wenn man schon was G70-artiges für 90 nm in der Schublade hätte, würde es mehr Sinn ergeben, ihn gleich in Massenproduktion zu geben und darauf zu achten, daß die in 110 nm gefertigten nicht all zu sehr die Lager füllen, weil dann wohl kaum einer mehr einen G70 auf 110 nm kaufen würde, wenn er auf High-End aus ist.

Den Plan gibt es schon lange bei NV. Allerdings gibt es einige Gründe, warum man den Weg jetzt nicht geht. Das reicht vom RSX, über schlechte Erfahrungen mit einem neuen Prozess, bis zu sehr guten Ergebnissen im bekannten Prozess. Und es bleibt eine Preisfrage.

Ailuros
2005-06-17, 13:59:38
Und aus Abscheu vor Risiko. Sie wollten gleich hohe Verfügbarkeit ohne Stress mit Kinderschuhproblemen mit einem relativ neuen Prozess (naja zumindist die Aufgabe für diesen Prozess ist relativ neu). Seit NV30 hat man ja genug von sowas und geht möglichst auf Nummer Sicher.

...und natuerlich war/ist 110nm um einiges "billiger" was Resourcen betriftt.

Ailuros
2005-06-17, 14:00:34
Es soll Luft geben. Weniger beim Chiptakt, aber bei anderen, wechselbaren Komponenten. ;)

Ja aber fuer RSX. Ist schon das dritte mal heute ;)

Crushinator
2005-06-17, 14:06:27
Den Plan gibt es schon lange bei NV. Allerdings gibt es einige Gründe, warum man den Weg jetzt nicht geht. Das reicht vom RSX, über schlechte Erfahrungen mit einem neuen Prozess, bis zu sehr guten Ergebnissen im bekannten Prozess. Und es bleibt eine Preisfrage.
Ich bestreite ja auch keinen Plan, nur ihre durchführung in diesem Jahr noch, womöglich sogar im August. ;)

Hauwech
2005-06-17, 14:09:01
Auch wenn es vielleicht nur eine wilde Spekulation ist und einige hier anscheinend mehr wissen, zumindest halte ich persönlich eine 7800Ultra in 110nm für theoretisch machbar und zwar mit Hilfe von DualSlot Kühlung.
Nicht nur der von Skynet angesprochene OC Versuch bei XS.org sondern eben die SingleSlot Kühlung der 7800GTX bringen mich darauf. So wie ich das gelesen habe, ging das anscheinend mit 'stock cooling', nicht schlecht wie ich finde.

SingleSlot Kühlung für so einen Chip finde ich schon eine tolle Leistung. Anscheinend hat sich das eigene Kühlerteam gelohnt. Ailuros hat natürlich Recht, dass die Werte einer X850XT PE von ATI selber festgelegt wurden, allerdings müssen ja auch entsprechende Tests gefahren worden sein um dahin zu gelangen. Das gleiche gilt für jeden IHV. Testen, testen, testen.

Die 430MHz des G70 müssen ja nicht dem wirklichen Maximum entsprechen, wirtschaftliche Gründe spielen ja auch eine grosse Rolle. Wenn wir mal ehrlich sind, so viele holen sich eine Ultra oder XT PE ja auch nicht und beide sind ja mehr oder weniger nur Prestigeobjekte.

Was kann es also schaden, da noch eine Ultra, sei es auch nur in begrenzten Stückzahlen vor Weihnachten, seitens Nvidia * nachzulegen?

edit: *Natürlich nur dann, wenn der R520 den G70 ziemlich deutlich schlagen sollte.

Coda
2005-06-17, 14:14:31
Ist inzwischen eigentlich bekannt geworden, warum das Ding gerade "G70" heißt?

Hellfire-Torrod
2005-06-17, 14:16:44
Ist inzwischen eigentlich bekannt geworden, warum das Ding gerade "G70" heißt?

Weils gut klinkt? und weil nv47<Nv48 , NV50 nicht fertig.

Winter[Raven]
2005-06-17, 14:18:19
Ist inzwischen eigentlich bekannt geworden, warum das Ding gerade "G70" heißt?

G-Punkt? ... ahh ... ;D

seahawk
2005-06-17, 14:20:00
Ja aber fuer RSX. Ist schon das dritte mal heute ;)

Nein, nicht für RSX. Es gibt bereits lauffähige Samples dieser "Ultras".

Ailuros
2005-06-17, 14:20:04
Was kann es also schaden, da noch eine Ultra, sei es auch nur in begrenzten Stückzahlen vor Weihnachten, seitens Nvidia nachzulegen?

Garantiert nicht. Die Frage ist nur ob es sich dann auch wirklich lohnt wenn dann nach kurzer Zeit eine 90nm Variante erscheinen wird.

Sehr viel hoeher als 550MHz wird der G70 Nachfolger nicht getaktet sein IMHO. Unzaehlige Modelle mit nur marginalen Leistungs-Unterschieden zu veroeffentlichen macht auch nicht unbedingt wirtschaftlich Sinn, ueberhaupt wenn man extravagante Kuehlungsloesungen wie bei 110nm braucht.

Ailuros
2005-06-17, 14:22:00
Nein, nicht für RSX. Es gibt bereits lauffähige Samples dieser "Ultras".

Lauffaehige samples oder uebertaktungs-Uebungen? Quelle? Wenn ich jetzt von dem Kerl von nvnews hoere, spar Dir die Muehe.

DrumDub
2005-06-17, 14:27:16
Ich denke eher, dass man evtl was an den Crossbars und vieleicht (!!) sogar an der Funktionalität der ALUs geändert hat. Oft kann man beide ja nicht auslasten, da beide im NV40 nur eingeschränkte Funktionen besitzen. das klingt zumindest sehr logisch. wahrscheinlich können jetzt beide shaderunits in einer pipe alle operationen zur selben zeit ausführen, so dass diese limitierung des nv40 wegfällt.

seahawk
2005-06-17, 14:28:13
Sagen wir Übertaktungsübungen bei IHVs.

Ailuros
2005-06-17, 14:36:27
Sagen wir Übertaktungsübungen bei IHVs.

Ich hab schon seit einer Ewigkeit Leistungsnummern von solchen Uebungen mit NV40, single board und SLi.

Ailuros
2005-06-17, 14:37:08
das klingt zumindest sehr logisch. wahrscheinlich können jetzt beide shaderunits in einer pipe alle operationen zur selben zeit ausführen, so dass diese limitierung des nv40 wegfällt.


:biggrin:

Hellfire-Torrod
2005-06-17, 14:41:09
Es is keine speku, sieht aber nett aus

http://pic.digital-info.net/autumn/7800GTX/007.jpg

hungry?

Hauwech
2005-06-17, 14:45:07
Garantiert nicht. Die Frage ist nur ob es sich dann auch wirklich lohnt wenn dann nach kurzer Zeit eine 90nm Variante erscheinen wird.

Sehr viel hoeher als 550MHz wird der G70 Nachfolger nicht getaktet sein IMHO. Unzaehlige Modelle mit nur marginalen Leistungs-Unterschieden zu veroeffentlichen macht auch nicht unbedingt wirtschaftlich Sinn, ueberhaupt wenn man extravagante Kuehlungsloesungen wie bei 110nm braucht.

Ehrlich gesagt gehe ich persönlich vom G70@90 nicht vor Ende Q1/2006 aus, kann natürlich auch falsch liegen. Sie haben zwar gesagt, dass man im Q4/2005 ein paar Produkte in 90nm produzieren will, aber wann genau weiss nur Nvidia. Vom Tapeout zum Regal dauert es ja auch einige Zeit (durchschnittlich 100 Tage afaik) und sagen wir mal 6 bis 9 Monate vom G70 Launch sind zumindest für mich nicht gerade eine kurze Zeit.

Eine extravagante Kühllösung muss es imho eigentlich auch nicht sein sofern nicht mit Corespannungserhöhung gearbeitet werden muss. Zumindest kann ich mir vorstellen, dass das Kükoteam verschiedene Varianten ausprobiert hat und vielleicht auch einige, nur für die 7800GTX wohlgemerkt, überdimensionierte Kühllösungen in der Schublade 'rumliegen'.

Naja, wir werden sehen was passiert :)

DrumDub
2005-06-17, 14:48:58
:biggrin: strike! :D

Demirug
2005-06-17, 14:51:59
strike! :D

Aber kein Homerun.

DrumDub
2005-06-17, 15:03:58
Aber kein Homerun. na, immerhin. danns scheints wohl doch etwas komplizierter zu sein. aber die richtung stimmt wohl schon mal...

reunion
2005-06-17, 16:11:28
*seufz* :|


Ich weiß. :D

r3ptil3
2005-06-17, 16:15:20
Ich wundere mich ob Fuad nur "Maerchen" fuer G70 erzaehlt oder auch fuer R520. ;D :|

Wahrscheinlich ist ihm jetzt der G70 wichtiger weil er in 5Tagen vorgestellt wird im gegensatz zum R520!

ShadowXX
2005-06-17, 16:23:39
Wahrscheinlich ist ihm jetzt der G70 wichtiger weil er in 5Tagen vorgestellt wird im gegensatz zum R520!

Das war wohl anders gemeint, als du es verstanden hast......

aths
2005-06-17, 16:31:21
Ist inzwischen eigentlich bekannt geworden, warum das Ding gerade "G70" heißt?Meine Vermutung: Die haben mit den 40-er Nummern geaast und merkten, für den Refresh ist nicht mehr genug Platz. Was nun, sprach das Huhn? Lassen wir uns für den Treiber erst mal einen Platzhalter einfallen für die GeForce 7xxx, sagen wir G70, und dann sehen wir weiter.

reunion
2005-06-17, 16:35:28
Das ist ein Punkt wo deutlich wird, dass ATI weniger Entwicklungsressourcen als Nvidia hat. Während Nvidia für jedes noch so dünne Marktsegment einen eigenen Chip entwickelt und durchs Tape-Out bringt, verlässt sich ATI auf wenige Grund-Chips, weil das billiger ist. Im Zuge der PCIe-Entwicklung setzten sie zu spät auf AGP-Kompatibilität – weil sie nicht die Mittel hatten, rechtzeitig den Konverterchip zu entwickeln (und keine Lust, einfach Nvidias HSI-Bridge zu kaufen.)

ATI entwickelt in großen Generationsprüngen (wobei R420 keine neue Generation ist), bei Nvidia gibts die Verbesserungen meistens stückweise, was für die Vermarkung besser, in der Entwicklung allerdings teurer ist.

Bei SLI war Nvidia vorne dran, bei "TurboCache" war Nvidia vorne dran. ATI entwickelt hier nur hinterher. Nicht weil sie diese Features für sinnlos hielten, sondern weil sie nicht die Mittel haben, das alles gleichzeitig zu entwickeln.


Man sollte dabei auch nicht vergessen, dass ATi seit dem R300 praktisch ein zweites Design parallel herentwickelt. Hat man ja schon bei 3dfx gesehen, dass soetwas nicht gerade optimal ist. :D

Und auch das XBox/Gamecube-Projekt von ATi verschlingt mit Sicherheit mehr Ressourcen als der PS3-Chip von nV, bei dem im wesentlichen einfach nur ein G70 verwendet wird.

aths
2005-06-17, 16:43:46
das klingt zumindest sehr logisch. wahrscheinlich können jetzt beide shaderunits in einer pipe alle operationen zur selben zeit ausführen, so dass diese limitierung des nv40 wegfällt.Auch beim NV40 können beide Shader Units gleichzeitig arbeiten. Sonst hätte man es sich sparen können, zwei Units einzubauen.

robbitop
2005-06-17, 16:45:25
na, immerhin. danns scheints wohl doch etwas komplizierter zu sein. aber die richtung stimmt wohl schon mal...
Und die kam von mir :D

robbitop
2005-06-17, 16:47:34
Auch beim NV40 können beide Shader Units gleichzeitig arbeiten. Sonst hätte man es sich sparen können, zwei Units einzubauen.
korrekt. Aber er meinte, dass das nun immer geht.

aths
2005-06-17, 16:51:38
korrekt. Aber er meinte, dass das nun immer geht.Das kann (je nach Shader) gar nicht immer gehen.

DrumDub
2005-06-17, 16:51:45
Auch beim NV40 können beide Shader Units gleichzeitig arbeiten. Sonst hätte man es sich sparen können, zwei Units einzubauen. habe ich was anderes geschrieben? lies mein posting noch mal... ;)

@robbitop
jau. :)

ich bin dann aber auch erst richtig drauf gekommen, weil ich mir noch mal aths "inside nv40" artikel angesehen habe...

DrumDub
2005-06-17, 16:54:44
Das kann (je nach Shader) gar nicht immer gehen. ich zitier mal aus deinem artikel: Die R300 Units können alle mathematischen Operationen ausführen, außerdem gibt es eine zusätzliche Unit alleine für Textur-Operationen, während vom NV40 die Unit Nummer 1 und Nummer 2 jeweils auf bestimmte Operationen limitiert sind. http://www.3dcenter.de/artikel/nv40_technik/index2.php

Crushinator
2005-06-17, 17:07:54
Das kann (je nach Shader) gar nicht immer gehen.
Aber zu irgendwas muß es ja was taugen 2 vollwertige ALUs einzubauen. Branchoptimierung? Oder nur Verminderung von worst case Fällen, wo keine Parallelverarbeitung möglich war?

aths
2005-06-17, 17:14:56
ich zitier mal aus deinem artikel: http://www.3dcenter.de/artikel/nv40_technik/index2.phpZwei wirklich komplette Alles-ALUs einzubauen, ergibt auch keinen Sinn. Ich schlage vor, noch ein paar Tage zu warten.

aths
2005-06-17, 17:18:49
Aber zu irgendwas muß es ja was taugen 2 vollwertige ALUs einzubauen. Branchoptimierung? Oder nur Verminderung von worst case Fällen, wo keine Parallelverarbeitung möglich war?Parallel? Inwiefern? Die Pixelpipe ist doch ne Pipe :) Das Quad läuft schön durch die Pipe. Da immer mehrere Quads in der Pipe sind, ist da schon was parallel, aber nicht pro Quad und Takt. "Full-speed"-Branching im Pixelshader erwarte ich erst bei WGF2-Hardware.

seahawk
2005-06-17, 17:32:30
Ehrlich gesagt gehe ich persönlich vom G70@90 nicht vor Ende Q1/2006 aus, kann natürlich auch falsch liegen. Sie haben zwar gesagt, dass man im Q4/2005 ein paar Produkte in 90nm produzieren will, aber wann genau weiss nur Nvidia. Vom Tapeout zum Regal dauert es ja auch einige Zeit (durchschnittlich 100 Tage afaik) und sagen wir mal 6 bis 9 Monate vom G70 Launch sind zumindest für mich nicht gerade eine kurze Zeit.



Der erste 90nm Chip von NV wird keine High-End-Produkt sein. :smile:

DrumDub
2005-06-17, 17:33:55
Zwei wirklich komplette Alles-ALUs einzubauen, ergibt auch keinen Sinn.
Ich schlage vor, noch ein paar Tage zu warten. ok. ich denke mal, eine sinnvolle erweiterung wirds aber schon sein...

robbitop
2005-06-17, 17:47:16
Zwei wirklich komplette Alles-ALUs einzubauen, ergibt auch keinen Sinn. Ich schlage vor, noch ein paar Tage zu warten.
Worauf sollen wir warten? NV wird solche Details sicher nicht öffentlich so einfach preisgeben.

aths
2005-06-17, 19:16:14
Man sollte dabei auch nicht vergessen, dass ATi seit dem R300 praktisch ein zweites Design parallel herentwickelt. Hat man ja schon bei 3dfx gesehen, dass soetwas nicht gerade optimal ist. :D

Und auch das XBox/Gamecube-Projekt von ATi verschlingt mit Sicherheit mehr Ressourcen als der PS3-Chip von nV, bei dem im wesentlichen einfach nur ein G70 verwendet wird.Woher nimmst du diese Sicherheit? Oder anders gesagt, ich kann derzeit jedenfalls nicht abschätzen, wie aufwändig die jeweiligen Entwicklungen sind.

Quasar
2005-06-17, 19:31:47
das klingt zumindest sehr logisch. wahrscheinlich können jetzt beide shaderunits in einer pipe alle operationen zur selben zeit ausführen, so dass diese limitierung des nv40 wegfällt.
Das wäre prima :)

aths
2005-06-17, 19:39:57
Das wäre prima :)Das wäre Transistorverschwendung.

robbitop
2005-06-17, 19:54:38
Das wäre Transistorverschwendung.
Das kann man so oder so sehen. Es gibt genug Fälle, in denen beide NV40 SUs ausgelastet wären. Hier wäre es Transistorverschwendung, da man in diesem Moment keinen Nutzen daraus zieht. In anderen Momenten fallen aber gerade keine 2x MUL4 oder andere passenden Kombinationen an. Hier liegt dann eine SU brach. Dann wäre es wieder sinnvoll. Eine Erweiterung der SUs wäre IMO eine ganz gute Möglichkeit relativ günstig an mehr aritmetische Leistung zu kommen.

aths
2005-06-17, 19:57:44
Das kann man so oder so sehen. Es gibt genug Fälle, in denen beide NV40 SUs ausgelastet wären. Hier wäre es Transistorverschwendung, da man in diesem Moment keinen Nutzen daraus zieht. In anderen Momenten fallen aber gerade keine 2x MUL4 oder andere passenden Kombinationen an. Hier liegt dann eine SU brach. Dann wäre es wieder sinnvoll. Eine Erweiterung der SUs wäre IMO eine ganz gute Möglichkeit relativ günstig an mehr aritmetische Leistung zu kommen.Habe ich denn dagegen was gesagt?

Quasar
2005-06-17, 20:11:14
Das wäre Transistorverschwendung.
Ein kaputter PVP, Tonemapping, das nicht geht und vor allem die Schaltkreise zur Reduzierung des trilinearen Filters - DAS sind verschwendete Transistoren.

Gast
2005-06-17, 20:42:44
vor allem die Schaltkreise zur Reduzierung des trilinearen Filters -

was nur sehr sehr wenig transistoren kosten dürfte.

robbitop
2005-06-17, 20:48:13
Ein kaputter PVP, Tonemapping, das nicht geht und vor allem die Schaltkreise zur Reduzierung des trilinearen Filters - DAS sind verschwendete Transistoren.
Nur konnte man das in der Entwicklung nicht vorrausehen.

---
Relativ zu seinem Featureset und seiner Performance ist der NV40 schon verdammt Transistoreffizient.

aths
2005-06-17, 20:49:25
Ein kaputter PVP, Tonemapping, das nicht geht und vor allem die Schaltkreise zur Reduzierung des trilinearen Filters - DAS sind verschwendete Transistoren.Das eine muss das andere ja nicht ausschließen.

reunion
2005-06-17, 21:07:36
Woher nimmst du diese Sicherheit? Oder anders gesagt, ich kann derzeit jedenfalls nicht abschätzen, wie aufwändig die jeweiligen Entwicklungen sind.


Die aktuell bekannten Daten des RSX decken sich eins zu eins mit dem des G70@90nm. Selbst wenn noch zurzeit unbekannte Dinge integriert wurden, erscheint der Aufwand nicht gerade riesig.

Für R500 konnte ATi eine völlig andere Architektur als zurzeit im Desktopsegment angewendet parallel entwickeln bzw. größtenteils neu entwickeln.

Und auch wenn über den Nintendo-Chip momentan noch fast gar nichts bekannt ist, so wird dieser auf jeden Fall ebenfalls Ressourcen verschlingen.

Absolut sicher bin ich mir natürlich nicht - beweisen kann ich es auch nicht (wie auch?), es erscheint mir allerdings nach dem aktuellen Stand der Dinge mehr als wahrscheinlich, dass ATi hier deutlich mehr Arbeit investieren musste, was sich natürlich negativ auf das Destopsegment auswirkt.

ShadowXX
2005-06-17, 21:13:47
Die aktuell bekannten Daten des RSX decken sich eins zu eins mit dem des G70@90nm. Selbst wenn noch zurzeit unbekannte Dinge integriert wurden, erscheint der Aufwand nicht gerade riesig.

Für R500 konnte ATi eine völlig andere Architektur als zurzeit im Desktopsegment angewendet parallel entwickeln bzw. größtenteils neu entwickeln.

Und auch wenn über den Nintendo-Chip momentan noch fast gar nichts bekannt ist, so wird dieser auf jeden Fall ebenfalls Ressourcen verschlingen.

Absolut sicher bin ich mir natürlich nicht - beweisen kann ich es auch nicht (wie auch?), es erscheint mir allerdings nach dem aktuellen Stand der Dinge mehr als wahrscheinlich, dass ATi hier deutlich mehr Arbeit investieren musste, was sich natürlich negativ auf das Destopsegment auswirkt.

Beim Hollywood (der BigN Chip) würde ich von einer Weiterentwicklung des Dolphin ausgehen, da Nintendo klipp und klar gesagt hat, das er Abwärtskompatibel zum GC sein wird (also die/der/das Revolution).

Das sollte "relativ" gesehen nicht sooooo viel Resourcen geschluckt haben. (zumindest im verhältnis zum r500).

Und auch beim r500 wissen wir nicht, wie weit er sich wirklich vom r400 unterscheidet....und der r400 war wohl auch schon Fertig.

Ich gehe davon aus, das ATI ganz genau wusste, worauf Sie sich dabei einlassen....auch "Auslastungstechnisch".

Gast
2005-06-17, 21:26:33
Das stimmt doch gar nicht, keine folgende Konsolengeneration die kompatibel zur alten Generation war, wurde durch dieses Feature ausgebremmst oder war nicht weiter entwickelt als sie hätte sein können.

Sprich: Abwärtskompatiblität ist kein muss, das eine neue Generation "ähnlich" der alten sein muss.

Ein guter Softwareemulator tuts auch, und die Rechenpower ist immer vorhanden gewesen. Zumal wer könnte besser einen Emulator schreiben als die Hardwareentwickler selbst ;)

Der Revolution Grafik Chip wird wohl dem R500 oder einem der Desktopchips ähneln müssen. Ob in abgespeckter oder erweiterter Form...

reunion
2005-06-17, 21:27:54
Beim Hollywood (der BigN Chip) würde ich von einer Weiterentwicklung des Dolphin ausgehen, da Nintendo klipp und klar gesagt hat, das er Abwärtskompatibel zum GC sein wird (also die/der/das Revolution).

Das sollte "relativ" gesehen nicht sooooo viel Resourcen geschluckt haben. (zumindest im verhältnis zum r500).


Naja, es ist ein weiteres Design, welches man zusätzlich teils erheblich auf bohren/weiterentwickeln musste. Auf jedenfall hat es nichts mit der R300 oder R400 Architektur gemeinsam.



Und auch beim r500 wissen wir nicht, wie weit er sich wirklich vom r400 unterscheidet....und der r400 war wohl auch schon Fertig.


Wie weit R400 war, weiß niemand, wie dieser aussah, weiß ebenfalls niemand.
Jedenfalls war R400 wohl sicherlich nicht als Zwei-Chip-Variante mit eDRAM gedacht. Da steckt IMHO ebenfalls einiges an Ressourcen drin.


Ich gehe davon aus, das ATI ganz genau wusste, worauf Sie sich dabei einlassen....auch "Auslastungstechnisch".

Natürlich, allerdings glaube ich nicht, dass sich ATi gedacht hat, dass nV nach dem nV3x-Debakel so schnell wieder Anschluss findet.

reunion
2005-06-17, 21:29:30
Der Revolution Grafik Chip wird wohl dem R500 oder einem der Desktopchips ähneln müssen. Ob in abgespeckter oder erweiterter Form...

Nein:

ATI is working with Nintendo on their future console Revolution. Why the developing team of the Revolution VPU has no connections with the other teams at ATI?

Richard Huddy: It would be very handy for ATI to share this information around between its various groups – but doing so would undermine the relationships that we have with the individual console companies. It’s important to Microsoft that it they suggest or request a feature in their graphics chips for their console that this doesn’t automatically mean that Nintendo get that for free too. And of course, it applies the other way round too, Nintendo need to be able to make their hardware design without fear that it could simply be copied by Microsoft. No console company would work with us without these rules.

http://www.gamestar.de/magazin/specials/hardware/26071/7.html

ShadowXX
2005-06-17, 21:37:48
Das stimmt doch gar nicht, keine folgende Konsolengeneration die kompatibel zur alten Generation war, wurde durch dieses Feature ausgebremmst oder war nicht weiter entwickelt als sie hätte sein können.

Sprich: Abwärtskompatiblität ist kein muss, das eine neue Generation "ähnlich" der alten sein muss.

Ein guter Softwareemulator tuts auch, und die Rechenpower ist immer vorhanden gewesen. Zumal wer könnte besser einen Emulator schreiben als die Hardwareentwickler selbst ;)

Der Revolution Grafik Chip wird wohl dem R500 oder einem der Desktopchips ähneln müssen. Ob in abgespeckter oder erweiterter Form...

Zusätzlich zu dem von reunion:

Darum drucksen MS und Sony auf die Frage zur Abwärtskompatibilität immer so extrem rum.....Sony sagt momentan lieber gar nix konkretes dazu und MS widerspricht sich mit jeder neuen Meldung selbst.

Die PS2 ist zur PS1 nur Abwärtskompatibel, weil sie als Einzelchip (Quasi eine PS1-On-A-Chip) nochmal auf dem PS-Board vorhanden ist.....nicht weil die PS2 soviel Power hat diese mal eben nebenbei zu Emulieren.

ShadowXX
2005-06-17, 21:40:54
Wie weit R400 war, weiß niemand, wie dieser aussah, weiß ebenfalls niemand.
Jedenfalls war R400 wohl sicherlich nicht als Zwei-Chip-Variante mit eDRAM gedacht. Da steckt IMHO ebenfalls einiges an Ressourcen drin.


Es muss mindestens so weit fertig gewesen sein, das ATI erkannte, das es zu langsam ist.....Und das erkennt man IMO wohl frühenstens im Simulator, nachdem das eigentliche Design schon steht.


Natürlich, allerdings glaube ich nicht, dass sich ATi gedacht hat, dass nV nach dem nV3x-Debakel so schnell wieder Anschluss findet.

Für so Blauäugig halte ich ATI nicht...speziell da Sie wohl auch wussten, das nV schon am nv40 arbeitet (immerhin seit 2002).

robbitop
2005-06-17, 21:52:34
Ich glaube nicht, dass ATI so viel Kapazität besitzt, um an 3 verschiedenen Architekturen für den PC gleichzeitig zu arbeiten (neben den Chipsätzen und den Handy Chips).

PR Leute sagen viel wenn der Tag lang ist. R420 war ja auch "NextGen".
Man kann vieles zurechtdrehen.

reunion
2005-06-17, 22:10:57
Ich glaube nicht, dass ATI so viel Kapazität besitzt, um an 3 verschiedenen Architekturen für den PC gleichzeitig zu arbeiten (neben den Chipsätzen und den Handy Chips).

PR Leute sagen viel wenn der Tag lang ist. R420 war ja auch "NextGen".
Man kann vieles zurechtdrehen.

Man sieht ja, dass bei ATi aktuell überhaupt nichts weitergeht.
Crossfire wurde notdürftig von E&S übernommen, Hypermemory kam verdammt spät, die Mainboard-Chipsätze sind auch eher schlecht - als recht; Innovationen sucht man vergebens.

Seit R300 kam bei ATi gelinde gesagt nichts mehr im Desktopsegment.

robbitop
2005-06-17, 22:37:17
Man sieht ja, dass bei ATi aktuell überhaupt nichts weitergeht.
Crossfire wurde notdürftig von E&S übernommen, Hypermemory kam verdammt spät, die Mainboard-Chipsätze sind auch eher schlecht - als recht; Innovationen sucht man vergebens.

Seit R300 kam bei ATi gelinde gesagt nichts mehr im Desktopsegment.
Etwas radikal ausgedrückt. Aber technologisch kam tatsächlich nichts mehr von ATI. Deren Glück, dass der Innovationsdruck nicht sooo schnell im Gamemarkt ist. Eine Architektur von vor 3 Jahren bringt heute noch immer keine echten Nachteile mit sich.

Man muss jedoch bedenken, dass R400, R500, R520 und R600 seit dem in Entwicklung sind/waren. Das zieht schon einiges an Kapazität.

Gast
2005-06-17, 22:41:03
Natürlich, allerdings glaube ich nicht, dass sich ATi gedacht hat, dass nV nach dem nV3x-Debakel so schnell wieder Anschluss findet.

ich würde nicht sagen dass sie gerade schnell wieder anschluss gefunden haben.

Gast
2005-06-17, 22:42:41
Darum drucksen MS und Sony auf die Frage zur Abwärtskompatibilität immer so extrem rum.....Sony sagt momentan lieber gar nix konkretes dazu
Kutaragi hat doch bei der PS3 Vorstellung gesagt, dass die PS3 abwärtskompatibel zur PS1/PS2 sein wird..

robbitop
2005-06-17, 22:54:20
ich würde nicht sagen dass sie gerade schnell wieder anschluss gefunden haben.
Knapp 5 Monate nach NV30 kam NV35. Knapp 1,5 Jahre nach NV30 kam NV40. Ich finde, für einen Reinfall, ging das schon recht flott.

Ailuros
2005-06-18, 00:54:27
Die aktuell bekannten Daten des RSX decken sich eins zu eins mit dem des G70@90nm. Selbst wenn noch zurzeit unbekannte Dinge integriert wurden, erscheint der Aufwand nicht gerade riesig.

Für R500 konnte ATi eine völlig andere Architektur als zurzeit im Desktopsegment angewendet parallel entwickeln bzw. größtenteils neu entwickeln.

Und auch wenn über den Nintendo-Chip momentan noch fast gar nichts bekannt ist, so wird dieser auf jeden Fall ebenfalls Ressourcen verschlingen.

Absolut sicher bin ich mir natürlich nicht - beweisen kann ich es auch nicht (wie auch?), es erscheint mir allerdings nach dem aktuellen Stand der Dinge mehr als wahrscheinlich, dass ATi hier deutlich mehr Arbeit investieren musste, was sich natürlich negativ auf das Destopsegment auswirkt.

Ihr muesst die Resourcen fuer eine gewisse Generation globaler ansehen als nur auf eine Loesung konzentrieren. Nimm mal die gesamte dx9.0 Aera und ja die Consolen inklusive und sag mir dann welcher der beiden IHVs mehr Resourcen verschwendet hat und warum.

Microsoft hat die APIs seit dx9.0 so eingerichtet, dass IHVs auch den Luxus fuer bessere Planung was die Zukunft begrifft haben koennen.

Xenos ist ATI's quasi geplatzter R400/alter WGF2.0 Vorschlag und dazu laesst er technisch gesehen nach meinem Geschmack auf viel zu viel zu wuenschen uebrig, egal ob jetzt unified oder nicht. Haette Xenos einen vollen PPP gehabt dann haette ich Grund genug gehabt ihnen den Hut abzunehmen; RSX ist auch nichts besonderes ueberhaupt was advanced HOS betrifft. In der Zwischenzeit werden die beiden IHVs eben mit bloeden floating point Leistungsnummern herumwerfen und aus damit.

Was wirklich revolutionaeres haben weder/noch geliefert; ich muss aber zugeben dass Xenos ziemlich interessant ist als Architektur ueberhaupt als Studie fuer Techno-freaks. Das 8. Wunder der Leistung ist es aber auch wieder nicht.

Ailuros
2005-06-18, 01:05:22
Ich glaube nicht, dass ATI so viel Kapazität besitzt, um an 3 verschiedenen Architekturen für den PC gleichzeitig zu arbeiten (neben den Chipsätzen und den Handy Chips).

PR Leute sagen viel wenn der Tag lang ist. R420 war ja auch "NextGen".
Man kann vieles zurechtdrehen.

~2700 Angestellte weltweit wenn ich mich nicht irre und NV ist auf 2200 steckengeblieben? (ehrliche Frage). Kein Wunder die Margen sehen so gut aus bei NV ;)

Hauwech
2005-06-18, 11:43:23
~2700 Angestellte weltweit wenn ich mich nicht irre und NV ist auf 2200 steckengeblieben? (ehrliche Frage). Kein Wunder die Margen sehen so gut aus bei NV ;)

ATI ist aber noch in ein paar anderen Märkten als Nvidia tätig. Da müsste man mal sehen, wieviel wirklich im Grafikbereich arbeiten. :)

Sailor Moon
2005-06-18, 11:54:28
Hi,

habe gerade mal die Spezfikationen hier gelesen:

http://www.mwave.com/mwave/specHR/pdf/AA35630.pdf

• 1 Dual Link TMDS DVI Connector
• 1 Single Link TMDS DVI Connector

Das wäre wirklich super, hoffentlich stimmt das. Bei ATI glaube ich aus der Erfahrung der letzten Jahre, dass selbst die R520 Boards weiter nur SingleLink DVI haben. Ebenso frage ich mich, ob man sich bei ATI endlich mal dazu durchringen kann, vernünftige Interpolationseinstellungen per Treiber zu ermöglichen. Insofern freue ich mich auf den G70, da mag der R520 auch noch so fix sein; denn diese beiden Features werden bei ATI wohl wieder fehlen.

Gruß

Denis

Gast
2005-06-18, 12:13:30
ATI ist aber noch in ein paar anderen Märkten als Nvidia tätig. Da müsste man mal sehen, wieviel wirklich im Grafikbereich arbeiten. :)

1. das und 2. ist Nvidia eifriger dabei wenn es darum geht bestehende Lösungen einfach ein klein wenig zu verändern und auf anderen Märkten unterzubringen.

Beispiele:
NV20/25 sind zu 90% NV2A
G70 bzw. Nachfolger wird zu 80% RSX sein.
MCP in der xbox = MCP für nForce1 und 2.
GF4MX aufwärts und ähnliches finden wir dann im GoForce usw...

Das wird man auch weiterhin beobachten können. Nvidia konzentriert sich ganz stark auf bestimmte Märkte und versucht zwischen diese soviel Synergien wie nur möglich aus den eigenen Produktreihen zu schöpfen.
Das machen sie meiner Meinung nach besser als ATI und sie haben auch sehr viel weniger Baustellen. Bei ATI hab ich die Befürchtung, dass gerade die 2 Konsolen Deals enorm Ressourcen binden.
In Umsatz und Gewinn wurde ATI gerade wieder von Nvidia überholt. Ich glaube dass Nvidia für seine Kernmärkte mehr Ressourcen hat als ATI auf Grund weniger Baustellen.

Ronny145
2005-06-18, 12:36:07
Ich weiß nicht ob das schon gepostet wurde:
http://www.forumdeluxx.de/forum/showpost.php?p=2007982&postcount=1
http://www.digital-info.net/vbb/showthread.php?p=24916#post24916

Unten sieht man wieder eine neue Punktzahl im 3dmark05. Die 9030 Punkte sollen mit 508/1370 gebencht sein. Darunter 13960 Punkte mit Sli.

robbitop
2005-06-18, 12:58:55
Ich weiß nicht ob das schon gepostet wurde:
http://www.forumdeluxx.de/forum/showpost.php?p=2007982&postcount=1
http://www.digital-info.net/vbb/showthread.php?p=24916#post24916

Unten sieht man wieder eine neue Punktzahl im 3dmark05. Die 9030 Punkte sollen mit 508/1370 gebencht sein. Darunter 13960 Punkte mit Sli.
SLI scheint mit dem G70 bei 3DM05 nicht wirklich gut zu skallieren. Sieht mir nach einem Flaschenhals aus bei 3DM05.

Hauwech
2005-06-18, 13:05:58
SLI scheint mit dem G70 bei 3DM05 nicht wirklich gut zu skallieren. Sieht mir nach einem Flaschenhals aus bei 3DM05.

Bin ich blind oder steht irgendwo mit welchem Treiber das gemacht wurde? Mit späteren Treibern geht bestimmt noch mehr.

dildo4u
2005-06-18, 13:06:32
Ich weiß nicht ob das schon gepostet wurde:
http://www.forumdeluxx.de/forum/showpost.php?p=2007982&postcount=1
http://www.digital-info.net/vbb/showthread.php?p=24916#post24916

Unten sieht man wieder eine neue Punktzahl im 3dmark05. Die 9030 Punkte sollen mit 508/1370 gebencht sein. Darunter 13960 Punkte mit Sli.
Also die karte ist nicht das Problem wenn eine schon auf 9000 kommt das SLI ergebniss war ja auch mit OC karten.Unglaublich das da ein FX57 schon limitiert.

Hier gibt übrigenz endlich mal ein direkten längen Vergleich zum 6800GT/Ultra PCB http://pic.digital-info.net/autumn/7800GTX/Preview/005.jpg

Quasar
2005-06-18, 13:07:39
Canyon Flight skaliert (mit einem "l") doch ganz gut. Hier sehen wir vermutlich das, was Ailuros schon seit etlichen Seiten versucht zu verklickern. ;)

Schaut mal Return to Proxicon an - ~38% Zuwachs zeugen IMO von einer 'interessanten und spielenahen' Programmierung des "Gamer's Benchmark.

Warum, warum nur läßt keine Sau die Feature-Tests mal mitlaufen???

Ronny145
2005-06-18, 13:14:18
Also die karte ist nicht das Problem wenn eine schon auf 9000 kommt das SLI ergebniss war ja auch mit OC karten.Unglaublich das da ein FX57 schon limitiert.


Ein FX57 limitiert auf keinen Fall. Die CPU ist sehr unwichtig im 3dmark05.

dildo4u
2005-06-18, 13:15:32
Ein FX57 limitiert auf keinen Fall. Die CPU ist sehr unwichtig im 3dmark05.
Warum hats dann keine 18000 Punkte wenn eine karte mit dem selben takt schon auf 9000 kommt?Bei einem 7800SLI braucht ma schon ohne ende cpu power ich warte erstmal ab bis einer der extrem ocer ein 3.2GHZ A64 oder ein 5GHZ P4 damit laufen lässt..

Gast
2005-06-18, 13:16:40
Also die karte ist nicht das Problem wenn eine schon auf 9000 kommt das SLI ergebniss war ja auch mit OC karten.Unglaublich das da ein FX57 schon limitiert.

Hier gibt übrigenz endlich mal ein direkten längen Vergleich zum 6800GT/Ultra PCB http://pic.digital-info.net/autumn/7800GTX/Preview/005.jpg

Noch länger als die schon zu lange 6800?! Gibt es denn schon Pics einer AGP-Version? Würde mich interessieren, ob hier zwei Stromanschlüsse benötigt werden.

Ronny145
2005-06-18, 13:26:34
Warum hats dann keine 18000 Punkte wenn eine karte mit dem selben takt schon auf 9000 kommt?


Also 18000 Punkte sind schonmal gar nicht möglich. Eine Verdopplung der Geschwindigkeit wird praktisch nie erreicht. Schau dir einfach ein paar Tests an. Das ein FX57 limitiert kann nicht sein. In games kann das anders aussehen.

Gast
2005-06-18, 13:28:06
Warum hats dann keine 18000 Punkte wenn eine karte mit dem selben takt schon auf 9000 kommt?Bei einem 7800SLI braucht ma schon ohne ende cpu power ich warte erstmal ab bis einer der extrem ocer ein 3.2GHZ A64 oder ein 5GHZ P4 damit laufen lässt..

Aus der Quelle geht aber nicht eindeutig hervor, ob die SLI-Config auf Standardtakt lief oder auch OC war. Ich tippe auf ersteres. Um wenn man bei der Single-Variante@Standardtakt von ca. 7700 bis 7800 Punkten ausgeht, sind 13900 Punkte schon sehr überzeugend (~80%-Leistungssteigerung).

dildo4u
2005-06-18, 13:29:14
Also 18000 Punkte sind schonmal gar nicht möglich. Eine Verdopplung der Geschwindigkeit wird praktisch nie erreicht. Schau dir einfach ein paar Tests an. Das ein FX57 limitiert kann nicht sein. In games kann das anders aussehen.
also 80-90% sinds schon durch sli jedenfalls beim 6800U SLI

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/sli_pruefstand/8/#abschnitt_3dmark05

dildo4u
2005-06-18, 13:31:41
Aus der Quelle geht aber nicht eindeutig hervor, ob die SLI-Config auf Standardtakt lief oder auch OC war. Ich tippe auf ersteres. Um wenn man bei der Single-Variante@Standardtakt von ca. 7700 bis 7800 Punkten ausgeht, sind 13900 Punkte schon sehr überzeugend (~80%-Leistungssteigerung).
Ne das sli war auch oc wenn man von dem bild ausgeht

http://pic.digital-info.net/autumn/7800GTX/Preview/020.jpg

Tjo wenn das wirklich so sein sollte wird kein normal streblicher sich eine cpu leisten können die ein 7800SLI ausnutzt muss man halt alle Games in 1600*1200 4XAA zocken damit sich das lohnt.*g*Dann bringts auch nix wenn der R520 Schneller wäre.Oder man muss sich halt eine neue Auflösung zum Benchen suchen z.B 1280*1024 als minimum.

Quasar
2005-06-18, 13:52:14
Ach ja: Wenn die ohne Verrenkungen sogar im SLi auf 500MHz Core geht - *lecker*
Allein der Gewinn an Texelfüllrate läge ja schon beinahe auf dem Niveau der Gesamtleistung einer GF4 Ti4200.