PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15

Leonidas
2005-05-19, 17:10:29
Es gibt keinen GDDR3 in diesen Taktregionen. Ergo unwahrscheinlich.


Wieso? Infineon geht bis auf 400 MHz runter.


Aber wenn 700 MHz stimmen, dann hat der Grafikchip zwingend nur ein 128bit Interface.

SKYNET
2005-05-19, 17:12:18
Ich bin ziemlich überzeugt davon, das der G70 die "Antwort" auf den x850xt/pe darstellt / darstellen soll.


rofl, der G70 würde die x850xtpe gnadenlos vernichten.
ich glaube nicht das es NV bestreben ist, den "neuen" chip gegen einen alten von ATI antreten zu lassen, weil dann würden sie eingestehn das sie langsamer dastehn als das konkurenz produkt. ;)

SKYNET
2005-05-19, 17:15:43
ATi strebt AFAIK über 650Mhz an.



intel strebte auch 5GHz an und rausgekommen ist nur heiße luft... im wa(h)rsten sinne des wortes. ;D

ich denke, ATI wird massivst probleme mit der wärme entwicklung bekommen wenn sie solch einen takt anstreben. :eek:

Coda
2005-05-19, 17:15:55
G70 ist mit Sicherheit nicht "very familar" zu G70: Denn G70/NV40 haben nix mit unified Pipes zu tun.Du meinst wohl RSX. Und auf der PS3 Präsentation stand nix von unified shadern.

ich denke, ATI wird massivst probleme mit der wärme entwicklung bekommen wenn sie solch einen takt anstreben.Quark. Mit 90nm und 16 Pipelines geht das locker.

Falls dieses nur auf Consolen begrenzt waere, wuerde ich zustimmen. Da sich aber der SONY/NVIDIA auf mehr als nur die Console bezieht, hat er zur gleichen Zeit Vor- und Nachteile denn so wie ich SONY's normale Politik kenne, greifen sie meistens zu exklusiven Vertraegen wenn sie erstmal IP lizenzieren. SONY war sicher keine leichte Nuss zu knacken und dass NVIDIA es geschafft hat einen deal bei denen zu landen, deutet mir nicht unbedingt auf eine Situation wo alles rosig fuer NV sein wird.Sony hat aber auch Hilfe gebraucht. So nen Design stampft man nicht ohne gehöriges Know-How kurz aus dem Boden. Und der PS2 Grafikchip war nicht gerade komplex.

SKYNET
2005-05-19, 17:22:33
Quark. Mit 90nm.... geht das locker.
.


sagten auch die leute von intel....
rausgekommen ist dabei sowas:
http://www.rome1.de/cms/images/stories/space/guide/atompilz.jpg


;D

robbitop
2005-05-19, 17:22:56
Aber wenn 700 MHz stimmen, dann hat der Grafikchip zwingend nur ein 128bit Interface.
So sieht es derzeit aus. GDDR3 würde wie gesagt bei so niedrigen Taktraten weder vom Preis noch von der Verfügbarkeit Sinn machen.

reunion
2005-05-19, 17:48:06
ich denke, ATI wird massivst probleme mit der wärme entwicklung bekommen wenn sie solch einen takt anstreben. :eek:


Ich gehe davon aus, dass ATi wesentlich weniger Probleme mit der Wärmeentwicklung haben wird als nV.

seahawk
2005-05-19, 17:58:21
Ich gehe davon aus, dass ATi wesentlich weniger Probleme mit der Wärmeentwicklung haben wird als nV.

Nicht unbedingt.

Die Frage ist ob ATI nicht langsam in Zugzwang kommt. Ein Launch in duie Hauptferienzeit auf der Nordhalbkugel erscheint mir ziemlich ungünstig.

Also Juni oder Sept. imho.

pF3NG
2005-05-19, 18:24:47
sagten auch die leute von intel....
rausgekommen ist dabei sowas:
http://www.rome1.de/cms/images/stories/space/guide/atompilz.jpg


;D


;D ;D ;D

Jops kann man für ATi/nV nur hoffen, dass net solche hohen Leckströme auftreten.

Coda
2005-05-19, 18:56:19
sagten auch die leute von intel....
rausgekommen ist dabei sowas:Bei AMD aber nicht. Und wie gut der TSMC 90nm Prozess ist wird sich noch herausstellen.

Man muss auch beachten dass bei einem Grafikchip im Gegensatz zu CPUs eh immer fast alle Transistoren schalten pro Takt, daher werden Leckströme da keinen großen Unterschied machen.

stav0815
2005-05-19, 19:25:33
;D ;D ;D

Jops kann man für ATi/nV nur hoffen, dass net solche hohen Leckströme auftreten.
... welche bei GPUs in der Regel unproblematischer sind da sich die Chips massivst unterscheiden.

wuzetti
2005-05-19, 19:54:31
jetzt spekulier ich hier auch noch mal bissl durch die gegend:

1) es fehlt in den geleakten nv-spezifikationen noch ein ultra modell. dieses wird knapp oberhalb von 450 mhz getaktet und wird mit 700 mhz speicher daherkommen. von da her find ich die steigerungen in bezug auf quads, bandbreite und was auch immer gar nicht so übel. bis jetzt wurde hier immer 6800 Ultra gegen das neue GTX modell verglichen und das passt meiner meinung nach nicht.

2) R520 ist ein 16 pipe design und taktet irgendwo zwischen 650 und 700 mhz. die wird man auch brauchen, um nv paroli bieten zu können.

ati kann sich 1) auch denken und möchte nv auf allen linien nicht nur paroli bieten sondern auch schlagen, ohne wieder ein Xirgendwas pe modell bringen zu müssen, das man so gut wie nicht kaufen kann. daher muss man hier und dort noch was drehen und hat vielleicht immer noch zu wenig ressourcen frei, da zu viel davon noch im R500 projekt festsitzen.

wenns nicht hinkommt, auch recht. dann schlagt mich ruhig ;D

Coda
2005-05-19, 19:56:17
Die GTX angeblich das Ultra Modell darstellen.

wuzetti
2005-05-19, 20:02:34
Die GTX angeblich das Ultra Modell darstellen.

steht wo? ehrliche frage, ich weiss es wirklich nicht bzw. habs nicht gesehen.

Godmode
2005-05-19, 20:04:25
Ich könnte mir vorstellen dass GTX GT Xtreme bedeutet, und man hat nach oben hin noch eine Ultra frei, sollte die Leistung GTX nicht reichen!

r3ptil3
2005-05-19, 20:16:09
Ich könnte mir vorstellen dass GTX GT Xtreme bedeutet, und man hat nach oben hin noch eine Ultra frei, sollte die Leistung GTX nicht reichen!

wäre mal sicherlich sehr klug

ShadowXX
2005-05-19, 20:21:33
rofl, der G70 würde die x850xtpe gnadenlos vernichten.
ich glaube nicht das es NV bestreben ist, den "neuen" chip gegen einen alten von ATI antreten zu lassen, weil dann würden sie eingestehn das sie langsamer dastehn als das konkurenz produkt. ;)

Ich bin inzwischen auch etwas "zurückgerudert".....trotzdem sehe ich (zumindest wenn die Specs stimmen) in der G70 nicht wirklich einen "Gegenchip" zur r520, sondern einfach einen nv40 Nachfolger, welcher wohl besser verfügbar sein wird.

Dir 600MHz Speichertakt stören mich enorm.....denn ATI würde es dann reichen einfach mit 700MHz anzukommen und der G70 verliert in sehr vielen interesanten Benchmarks (z.B. bei den prestiegeträchtigen HDR Games und Sie hätten auch mehr Luft für AA in höhen Auflösungen).

ShadowXX
2005-05-19, 20:25:57
wäre mal sicherlich sehr klug

Das mag zwar klug sein, aber ich hasse sowas.

ATI kontert dann die GTX Ultra mit der r520 xt pe Deluxe...und wird haben noch ein paar Karten mehr, die kaum Endkunden erreichen und fast nur Testern zur Verfügung stehen.....

reunion
2005-05-19, 20:26:51
Dir 600MHz Speichertakt stören mich enorm.....denn ATI würde es dann reichen einfach mit 700MHz anzukommen und der G70 verliert in sehr vielen interesanten Benchmarks (z.B. bei den prestiegeträchtigen HDR Games und Sie hätten auch mehr Luft für AA in höhen Auflösungen).


Wie kommst du darauf, dass ATi besseren Speicher zur verfügung hat?
Wenn nV beim G70 tatsächlich nur 600Mhz GDDR3 RAM einsetzt, hat das schon seine Gründe.

ShadowXX
2005-05-19, 20:40:41
Wie kommst du darauf, dass ATi besseren Speicher zur verfügung hat?
Wenn nV beim G70 tatsächlich nur 600Mhz GDDR3 RAM einsetzt, hat das schon seine Gründe.

Weil ich annehme, das die r520 später kommen wird als G70 und ATI deshalb wohl auf schnelleren Speicher zugreifen kann....ich vermute sogar, das das der Hauptgrund für die dauernden Verzögerungen der Präsentation ist.

ATI will erst dann präsentieren, wenn Sie sicher sind, dass Sie dann auch 1-2 Monate später zumindest die Topmodelle mit 700MHz Speicher ausrüsten kann....(wie immer IMO)

Weil wenn Sie ebenfalls nur 600MHz Speicher benutzen wollten, dann könnten Sie auch jetzt vorstellen (bzw. hätten Sie auch zum angedachten Termin vorstellen können und hätten nicht extra die MVP r480 vorziehen müssen)...Speicher für 600MHz sollte genug vorhanden sein.

Demirug
2005-05-19, 20:45:16
Wie kommst du darauf, dass ATi besseren Speicher zur verfügung hat?
Wenn nV beim G70 tatsächlich nur 600Mhz GDDR3 RAM einsetzt, hat das schon seine Gründe.

Raum für ein Model oberhalb der GTX?

SKYNET
2005-05-19, 20:48:35
Bei AMD aber nicht. Und wie gut der TSMC 90nm Prozess ist wird sich noch herausstellen.

Man muss auch beachten dass bei einem Grafikchip im Gegensatz zu CPUs eh immer fast alle Transistoren schalten pro Takt, daher werden Leckströme da keinen großen Unterschied machen.


AMD wollte ja auch nicht solch ein hohen takt verwirklichen.

Jesus
2005-05-19, 21:03:10
Dumme OT Frage, hatte der RSX eigentlich schon sein Tapeout, oder weiss man wieder mal nichts?

Edit: Oder gar nicht wirklich von NV? Guckst du hier:

PlayStation 3, I think, is going to be cheaper to develop for than the corresponding period of PS2 development. I know that's a fairly contentious statement to make, but there's a very good reason for that. When we announced the collaboration with NVIDIA, we just talked about them making a chip - actually, they don't make anything, they're a designer, and the RSX contains an NVIDIA-designed part, which gives us fantastic GPU capabilities. But what it also gives us, and this is actually the most important bit of it, is all the toolchain and CG pipeline that comes with it, which is a very well understood development pipeline in the PC community - and, yes, in the Xbox community, frankly.

:confused:

http://www.gamesindustry.biz/content_page.php?aid=9051

Demirug
2005-05-19, 21:22:27
Jesus, es gibt seit ~2 Monaten ein Devkit. Allerdings ist nicht sicher wie viele original PS3 Chips dort schon verbaut sind.

RSX ist von nVidia und Sony gemeinsam entwickelt worden und wird von Sony prdouziert werden. Der größte Teil stammt allerdings aus einem nVidia "next gen" Chip. Das Interface zum Cell Chip könnte aber von Sony kommen.

Jesus
2005-05-19, 21:25:49
Jesus, es gibt seit ~2 Monaten ein Devkit. Allerdings ist nicht sicher wie viele original PS3 Chips dort schon verbaut sind.

Hm, in dem Interview sagt er es gäbe seit ca. 5 Monaten eins, die GPU allerdings erst vor kurzem.

Demirug
2005-05-19, 21:27:03
Hm, in dem Interview sagt er es gäbe seit ca. 5 Monaten eins, die GPU allerdings erst vor kurzem.

Also wenn ich mich nicht verhört habe hat Epic das Kit erst seit zwei Monaten.

ShadowXX
2005-05-19, 21:27:33
Raum für ein Model oberhalb der GTX?

Für die Zeit nach dem release des r520....


AMD wollte ja auch nicht solch ein hohen takt verwirklichen.


Ich glaube nicht das AMD was dagegen hätte, wenn Sie den A64 mit 3.5GHz oder höher takten könnten....(zum jetzigen Zeitpunkt)

SKYNET
2005-05-19, 21:29:39
Für die Zeit nach dem release des r520....



Ich glaube nicht das AMD was dagegen hätte, wenn Sie den A64 mit 3.5GHz oder höher takten könnten....(zum jetzigen Zeitpunkt)


3GHz wäre für AMD ohne probleme möglich derzeit.
aber bringt ihnen ja nix, intel schleicht hinterher... AMD macht es genau so das sie immer ein tick vorsprung haben. :smile:

Ronny145
2005-05-19, 21:30:32
Ich glaube nicht das AMD was dagegen hätte, wenn Sie den A64 mit 3.5GHz oder höher takten könnten....(zum jetzigen Zeitpunkt)


Warum? Es reicht doch wenn die CPUs schon schneller sind. Dann hat man später mehr Luft nach oben. Es wird immer nur kleine Sprünge in der Taktfrequenz geben.

Coda
2005-05-19, 21:32:25
AMD wollte ja auch nicht solch ein hohen takt verwirklichen.Der Vergleich hinkt trotzdem. Die Leckströme sind bei GPUs fast kein Thema.

ShadowXX
2005-05-19, 21:37:08
3GHz wäre für AMD ohne probleme möglich derzeit.
aber bringt ihnen ja nix, intel schleicht hinterher... AMD macht es genau so das sie immer ein tick vorsprung haben. :smile:

Ist zwar völlig OT:

Wenn ich AMD wäre und die möglichkeit hätte ohne Probs einen Chip mit sagen wir 3.2 oder sogar 3.4 GHz auf den Markt zu bringen, würde ich dieses tun....selbst bei kleinen Stückzahlen, da Sie damit jeden Intel in Grund und Boden stampfen könnten.
Er reicht doch dabei, das diese Benchmarks auf irgendwelchen HW-Seiten erscheinen...

Ich schätze allerdings, das dies momentan einfach nicht möglich ist...selbst eine 3GHz kann AMD wohl nicht ganz so einfach aus dem Ärmel schütteln....

Gerade bei den A64 sind 500MHz mehr eine ganze Latte, das ist nunmal kein P4, der auf solche hohen Taktfrequenzen ausgelegt ist...AMD schreitet nicht umsonst seit knapp einem Jahr auf 2.4-2.6 GHz herum.
Das einzige was Sie machen ist immer wieder neue Cores rausbringen, die dann aber (bis auf die ganz neuen jetzt) nie an die Taktfrequenzen der 130nm CPUs rankamen.

Und nein...ich bin auch kein Intel-Freund und hab selbst einen A64. (Auf der anderen Seite hab ich auch nix gegen Intel)

@Ronny145
es wäre doch egal...wie schon vorher gesagt, AMD dreht sich seit knapp einem Jahr bei den Taktfrequenzen im Kreis. Ein richtiger "Stärkebeweis" würde nicht wirklich schaden.
(OK die DCs sind schon klasse....aber Leider an meinem Geldbeutel vorbei Designed (zumindest in relation zu den Taktfrequenzen))

wuzetti
2005-05-19, 21:39:01
Weil wenn Sie ebenfalls nur 600MHz Speicher benutzen wollten, dann könnten Sie auch jetzt vorstellen (bzw. hätten Sie auch zum angedachten Termin vorstellen können und hätten nicht extra die MVP r480 vorziehen müssen)...Speicher für 600MHz sollte genug vorhanden sein.

was lässt dich glauben, dass sie nur wegen dem speicher nicht vorstellen? es gibt IMO jede menge andere gründe, die genauso plausibel sind. ich könnte mir an dieser stelle genauso vorstellen, dass der 90nm prozess noch etwas braucht, bis er die gewünschten taktraten mit der gewünschten ausbeute ausspuckt.

ShadowXX
2005-05-19, 21:52:20
was lässt dich glauben, dass sie nur wegen dem speicher nicht vorstellen? es gibt IMO jede menge andere gründe, die genauso plausibel sind. ich könnte mir an dieser stelle genauso vorstellen, dass der 90nm prozess noch etwas braucht, bis er die gewünschten taktraten mit der gewünschten ausbeute ausspuckt.

Es ist für mich mit das plausibelste....ich behaupte nicht, das ich nicht falsch liegen kann. Es passt eben in mein "Bild".

Zumindest die z.Zt. vielleicht geringe Ausbeute/schlechte Taktergebnisse würde Sie nicht abhalten....Sie haben inzwischen genug Zeit bis zur Vorstellung und noch mehr Zeit bis zur Kaufbarkeit...und bei der x800xt/pe hat Sie die schlechte Ausbeute und die nicht so gute Taktbarkeit (wenige High-End-Chips) auch nicht abgehalten diese vorzustellen....

Wenn SIe allerdings relativ Zeitnah auch verfügbare Karten liefern wollen (egal welche mengen jetzt im High-End-Bereich), dann brauchen Sie entsprechenden Speicher....600MHz Speicher sollte genug vorhanden sein.....

Warum verschieben Sie also dauernd den Launch?

(Davon abgesehen glaube ich nicht mehr an wirkliche Probleme bei 90nm in Form von schlechter Ausbeute....über die Taktbarkeit können wir "reden", aber für viele Pros und normale XTs sollte es reichen...und so viele XT/PEs brauchen Sie auch nicht)

P.S.
nebenbei....die XBox 360 kommt doch mit 700MHz GDDR3 Speicher als Hauptspeicher...vielleicht gibts da einen Deal, das ATI was von der "Bestellung" mit "abbekommt" für ihre Desktopkarten....

dildo4u
2005-05-19, 21:59:16
"Now let's move on to NVIDIA's RSX; the RSX is very similar to a PC GPU in that it features a 256-bit connection to 256MB of local GDDR3 memory (operating at 700MHz). Much like NVIDIA's Turbo Cache products, the RSX can also render to any location in system memory, giving it access to the full 256MB of system memory on the PS3 as well."

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2423

reunion
2005-05-19, 22:00:50
P.S.
nebenbei....die XBox 360 kommt doch mit 700MHz GDDR3 Speicher als Hauptspeicher...vielleicht gibts da einen Deal, das ATI was von der "Bestellung" mit "abbekommt" für ihre Desktopkarten....


Die Xbox 360 kommt bestenfalls Ende des Jahres, da sieht es in punkto 700Mhz GDDR3 Speicher natürlich schon besser aus.

ATi benötigt den Speicher aber jetzt.

ShadowXX
2005-05-19, 22:03:53
Die Xbox 360 kommt bestenfalls Ende des Jahres, da sieht es in punkto 700Mhz GDDR3 Speicher natürlich schon besser aus.

ATi benötigt den Speicher aber jetzt.

Wenn ATI dir Karte erst im August vorstellt und dabei anstrebt diese 1-2 Monate später zu verkaufen, dann brauchen Sie den Speicher doch erst in 4-5 Monaten.

Und die Produktion der XBox 360 wird bestimmt auch nicht erst im November gestartet....

reunion
2005-05-19, 22:12:20
Wenn ATI dir Karte erst im August vorstellt und dabei anstrebt diese 1-2 Monate später zu verkaufen, dann brauchen Sie den Speicher doch erst in 4-5 Monaten.


Eine Meldung einer unbekannten Seite reicht noch lange nicht mich zu überzeugen. ;)


Und die Produktion der XBox 360 wird bestimmt auch nicht erst im November gestartet....


Da ist natürlich was dran.

wuzetti
2005-05-19, 22:19:12
Es ist für mich mit das plausibelste....ich behaupte nicht, das ich nicht falsch liegen kann. Es passt eben in mein "Bild".
ok
Zumindest die z.Zt. vielleicht geringe Ausbeute/schlechte Taktergebnisse würde Sie nicht abhalten....Sie haben inzwischen genug Zeit bis zur Vorstellung und noch mehr Zeit bis zur Kaufbarkeit...und bei der x800xt/pe hat Sie die schlechte Ausbeute und die nicht so gute Taktbarkeit (wenige High-End-Chips) auch nicht abgehalten diese vorzustellen....
wenn ich mich recht erinnere, hat meister orton ja selber gesagt dass sie genau das in zukunft nicht mehr haben wollen und so wie bei der 9700 PRO 1-2 monate nach vorstellung volle verfügbarkeit gewährleisten wollen. er würde schön als lügner dastehen wenn jetzt wieder dasselbe drama wie bei X800 passiert, oder?
Wenn SIe allerdings relativ Zeitnah auch verfügbare Karten liefern wollen (egal welche mengen jetzt im High-End-Bereich), dann brauchen Sie entsprechenden Speicher....600MHz Speicher sollte genug vorhanden sein.....

Warum verschieben Sie also dauernd den Launch?"
dafür gibt es wie oben genannt einige mögliche gründe, die auch sinn machen würden. ob's allerdings stimmt, ist natürlich eine andere frage. Dave Baumann hat bei B3D ähnliche andeutungen (bissl schrauben hier, bissl fine-tunen dort) gemacht und der ist für gewöhnlich gut informiert.
(Davon abgesehen glaube ich nicht mehr an wirkliche Probleme bei 90nm in Form von schlechter Ausbeute....über die Taktbarkeit können wir "reden", aber für viele Pros und normale XTs sollte es reichen...und so viele XT/PEs brauchen Sie auch nicht)
ich habe von der kombination beider faktoren gesprochen. schon vergessen, wie es NV mit 130nm low-k bei NV30 ergangen ist, obwohl man das schlecht vergleichen kann? ich schätze die dinge unheimlich komplex und in der folge sehr zeitintensiv ein und von da her machen 1-3 monate verzögerung nicht die welt aus, wenn man dafür alle ziele erreicht. und ich schätze diese ziele sehr ehrgeizig ein.

Gast
2005-05-19, 22:34:09
Wenn ATI dir Karte erst im August vorstellt und dabei anstrebt diese 1-2 Monate später zu verkaufen, dann brauchen Sie den Speicher doch erst in 4-5 Monaten.


Und wenn genau das der Fall ist wird Nvidia seinen G70 Refresh auf 0.09 mit genau dem selben Speicher launchen.
Die Verzögerung bei ATI macht überhaupt keinen Sinn.
Ich bleibe dabei. Der Speicher ist nicht das Problem sondern der Prozess bzw. der Chip.
Nvidia hat ganz bewusst kein Ultra Modell genannt.
Bitte jetzt keiner mit dem GTX Modell kommen. Wer glaubt, dass dies die Ultra sein wird, der ist naiv. Nvidia hat seine Ultra ganz bewusst weggelassen.
1. weil es beim Speicher hinkt und 2. weil sie den R520 sehen wollen.
Nvidia weiss sehr genau, dass wenn sie mit 0.11 es schaffen am R520 dran zu bleiben, dass sie dann mit 0.09 deutlich vorn liegen werden, vor allem in Shaderintensiven Applikationen.

robbitop
2005-05-19, 22:52:53
"Now let's move on to NVIDIA's RSX; the RSX is very similar to a PC GPU in that it features a 256-bit connection to 256MB of local GDDR3 memory (operating at 700MHz). Much like NVIDIA's Turbo Cache products, the RSX can also render to any location in system memory, giving it access to the full 256MB of system memory on the PS3 as well."

http://www.anandtech.com/tradeshows/showdoc.aspx?i=2423
Das passt so gar nicht zu den Angaben in der Präsentation. Hat Anand sich da vieleicht verguckt?(256 Bit DDR)

dildo4u
2005-05-19, 22:53:57
Das passt so gar nicht zu den Angaben in der Präsentation. Hat Anand sich da vieleicht verguckt?(256 Bit DDR)
Der R500 soll Laut Anand auch 256bit haben.

Coda
2005-05-19, 22:59:04
Das ist definitiv Quatsch.

dildo4u
2005-05-19, 23:00:59
Das ist definitiv Quatsch.
Zumindest der RSX muss eigentlich ein 256Bit interface haben sonst verpufft die Ganze power der 2mal 6800U ja.

Gast
2005-05-19, 23:14:59
Zumindest der RSX muss eigentlich ein 256Bit interface haben sonst verpufft die Ganze power der 2mal 6800U ja.
256MB GDDR3 VRAM @700MHz 22.4GB/s

Das sind die offiziellen Angaben.


Konsolenfreund

Coda
2005-05-19, 23:20:30
Zumindest der RSX muss eigentlich ein 256Bit interface haben sonst verpufft die Ganze power der 2mal 6800U ja.Das hab ich auch nicht kapiert, aber die Informationen bisher sagen etwas anderes.
Vor allem HDR dürfte mit 22GB/s unmöglich sein, falls es wirklich kein eDRAM gibt.

r3ptil3
2005-05-19, 23:41:19
Wird man beim G70 mit aktiviertem HDR auch Anti-Aliasing aktivieren können? (da jetzt wohl die leistung reichen sollte)

Coda
2005-05-20, 00:05:57
HDR ist nicht vom Chip sondern von der Bandbreite limitiert. Und da sich da nicht viel ändert denke ich nicht dass MSAA für FP Rendertargets möglich wird.

ShadowXX
2005-05-20, 09:39:09
Und wenn genau das der Fall ist wird Nvidia seinen G70 Refresh auf 0.09 mit genau dem selben Speicher launchen.
Die Verzögerung bei ATI macht überhaupt keinen Sinn.
Ich bleibe dabei. Der Speicher ist nicht das Problem sondern der Prozess bzw. der Chip.
Nvidia hat ganz bewusst kein Ultra Modell genannt.
Bitte jetzt keiner mit dem GTX Modell kommen. Wer glaubt, dass dies die Ultra sein wird, der ist naiv. Nvidia hat seine Ultra ganz bewusst weggelassen.
1. weil es beim Speicher hinkt und 2. weil sie den R520 sehen wollen.
Nvidia weiss sehr genau, dass wenn sie mit 0.11 es schaffen am R520 dran zu bleiben, dass sie dann mit 0.09 deutlich vorn liegen werden, vor allem in Shaderintensiven Applikationen.

Im Prinzip gebe ich dir recht......aber ich sehe den G70@90nm nicht mehr in diesem Jahr, sondern eher ende Q1/06.

Ich gehe auch nicht davon aus, das man den G70 so extrem weit vor dem r520 kaufen können wird (vielleicht ein Monat eher).

Zum dem mit der Ultra: Ja, diese Theorie könnte durchaus hinkommen, das nV nach dem launch des r520 nochmal eine GTX Ultra mit schnellerem Speicher rausbringt.

Auch wenn ich finde, das dieses Verhalten etwas Kindisch ist....ATI wird dann nämlich ebenfalls mit irgendeiner Hyper-Duper-Reviewerkarte "kontern" (ganz blöd sind die bei ATI auch nicht).

Mann hats doch beim Launch der r420/nv40-Karten gesehen.....nV kommt mit ner Ultra, ATI kontert mit der XT-PE und nV schmeisst dann eine nie erwerbare (ofiziell gesehen) Ultra Extreme hinterher.
Wenn diese die XT-PE dann tatsächlich geschlagen hätte, hätte es mich nicht gewundert wenn ATI nochmal ne XT-PE-Deluxe hoch 3 an die Reviewer verteilt hätte.

Gast
2005-05-20, 10:18:22
Das hab ich auch nicht kapiert, aber die Informationen bisher sagen etwas anderes.
Vor allem HDR dürfte mit 22GB/s unmöglich sein, falls es wirklich kein eDRAM gibt.

Vielleicht machen sies ja ganz anders? (Zumindest auf der PS3)

Was most of what we saw really just showing off the graphics capabilities - stretching the RSX graphics part rather than the Cell chip? The assumption is that Cell is there for complex physics and AI...

You're right; obviously Cell allows you to do complex collisions, physics, dynamics, simulations, all of those things. Though, the Getaway demo was a good example of how you can have a living city brought to life as a result. Although it was pretty graphics, most of that power was actually Cell-based.

The Doc Ock head - the Alfred Molina head - is actually more of a Cell demo than it is a graphics demo, because we're calculating hugely complicated light sources in real-time on the Cell, even to the point where we calculate the angle at which light enters the skin, the way that the light is then coloured by your blood, and the way that it is then reflected back out. It's something called transmission. Skin is hugely complicated - if I put my finger over a light, for example, you can see that the light is coming through my skin. We were simulating that - emulating, simulating, kind of a fine line - we were simulating that on the Doc Ock head demo.

So that's really pushing the Cell rather than the graphics chipset?

Yeah. Those are really hardcore maths problems which the Cell is really good at solving.

It's not just the RSX that drives the graphical quality, then - the Cell can also really be used to improve the graphics

reunion
2005-05-20, 12:45:43
INQ hat die Meldung des G70 in 90nm schon wieder zurückgezogen:

THE MISERY OF THE SITH is finally revealed. Nvidia G70 is finally undressed and we spotted some details here.
Despite what we said before, the chip is 110 nanometres but will shift to 90 nanos later this year or early next year. It's clocked to 430MHz for the core and 1400MHz memory. Its 24 pipelines part has 38.4 GB/s bandwidth, 10.32Bps Fill rate and capable of 860 Millions of vertices in second.

It's DirectX 9 capable, SM 3.0 and Open GL 2.0 capable, you will need 400 W PSU for single card and for SLI you need 500 W with 12 V and rating of 34A.

Nvidia will have three variants of the card GTX, GT and vanilla. It could be worse. It could be cochineal.

The original launch date was 22nd of June but we are sure Nvidia will change it now when it's leaked. To show you that those details are genuine we can confirm with two pictures here and here.

We asked around our usually talkative sources and they confirmed the information is genuine. [So why didn't you get it first, Fudo? Ed.]

Nvidia G70 or should we say Geforce 7800 GTX is now naked and ATI now knows more then it ever did. What's faster G70 or R520 that's a hard question to answer right now. µ


Nur das man mit 38.4GB/s Bandbreite nicht auf 1400Mhz RAM Takt kommt, hat FUAD immernoch nicht begriffen. :D

http://www.the-inquirer.net/?article=23362

DrumDub
2005-05-20, 12:49:00
da hat fuad mal wieder was zusammengewürfelt. also entweder hat die karte 700mhz speicher oder 38,4 gb/s bandbreite. beides zusammen geht nicht, da man ja bekanntlich bei 700mhz 44,8 gb/s an bandbreite hat. :rolleyes:

Quasar
2005-05-20, 13:03:19
Oder sie hat ein 219,42 Bit breites Speicherinterface. :confused: :lol:

deekey777
2005-05-20, 13:15:18
Oder sie hat ein 219,42 Bit breites Speicherinterface. :confused: :lol:

Man weiß ja nie... ;(

robbitop
2005-05-20, 13:21:01
Zumindest der RSX muss eigentlich ein 256Bit interface haben sonst verpufft die Ganze power der 2mal 6800U ja.
Zusätzlich darf RSX ja noch das XDR Interface vom Cell mitnutzen (ergo 22GB/s +15GB/s read + 20GB/s write = (max) 55GB/s )

Coda
2005-05-20, 15:13:18
Fragt sich nur für was. Ich denke das ist dann eher für Geometriedaten usw. :|

Demirug
2005-05-20, 15:16:08
Fragt sich nur für was. Ich denke das ist dann eher für Geometriedaten usw. :|

Im Prinzip alles. Der RSX kann auch an jede Speicherstelle rendern. Würde mich nicht wundern wenn man sogar direkt auf den SDRAM einer einzelnen SPU zugreifen kann. Zum Beispiel für Videotexturen.

Coda
2005-05-20, 15:17:25
Das ist natürlich nett. Aber so einfach für den Framebuffer beide Speicherinterfaces kombinieren geht wohl schlecht.

Demirug
2005-05-20, 15:24:55
Das ist natürlich nett. Aber so einfach für den Framebuffer beide Speicherinterfaces kombinieren geht wohl schlecht.

Das die Flexibilität so weit geht bezweifle ich auch.

Gast
2005-05-20, 15:26:27
Im Prinzip alles. Der RSX kann auch an jede Speicherstelle rendern. Würde mich nicht wundern wenn man sogar direkt auf den SDRAM einer einzelnen SPU zugreifen kann. Zum Beispiel für Videotexturen.
Das wurde von Sony ja schon indirekt so erzählt. Die GPU kann die Daten einer SPU direkt nutzen, z.B. als Videotextur. HDTV Monitore in 3D Umgebungen werden somit war, wie auch schon in einem Video zu sehen war.


Konsolenfreund

Gast
2005-05-20, 15:30:06
Das ist natürlich nett. Aber so einfach für den Framebuffer beide Speicherinterfaces kombinieren geht wohl schlecht.
Das denke ich auch. Gibt es denn sonst keine Möglichkeit HDR mit AA zu erreichen? Ein neue Methode, die weniger Bandbreite nutzt? Ich kann mir ehrlich gesagt nicht vorstellen, dass Sony auf echtes HDR verzichten will.


Konsolenfreund

Demirug
2005-05-20, 15:32:57
Das wurde von Sony ja schon indirekt so erzählt. Die GPU kann die Daten einer SPU direkt nutzen, z.B. als Videotextur. HDTV Monitore in 3D Umgebungen werden somit war, wie auch schon in einem Video zu sehen war.


Konsolenfreund

Das eine setzt das andere nicht zwingend vorraus. Es ist durchaus möglich das die Daten vom SPU Speicher erst in einen der beiden Hauptspeicher koppiert werden müssen bevor RSX darauf zugreifen kann. Im wesentlichen hängt dies davon ab ob die RSX den SPU Speicher in iherer Memorymap überhaupt sehen kann.

Coda
2005-05-20, 15:37:24
Es geht ja gar nicht um HDR mit AA, sondern erstmal nur um HDR. Das ist mit 22GB/s schon schlecht genug zu machen.

Jesus
2005-05-20, 15:44:18
Es geht ja gar nicht um HDR mit AA, sondern erstmal nur um HDR. Das ist mit 22GB/s schon schlecht genug zu machen.

Dass es (sehr gut) geht kann man in mehreren Demos sehen, und es wurde auch von mehreren Leuten bestätigt. Trotzdem würde mich die Geschichte sehr intressieren. Btw. OT :rolleyes:

Gast
2005-05-20, 15:46:52
Das eine setzt das andere nicht zwingend vorraus. Es ist durchaus möglich das die Daten vom SPU Speicher erst in einen der beiden Hauptspeicher koppiert werden müssen bevor RSX darauf zugreifen kann. Im wesentlichen hängt dies davon ab ob die RSX den SPU Speicher in iherer Memorymap überhaupt sehen kann.
Ja, aber das meine ich irgendwo mitbekommen zu haben, dass direkt aus dem SPU Speicher abgegriffen werden kann vom RSX. Daher auch der extreme Einfluss des Cells auf die Grafik, weil es halt die Daten ohne Umweg über den XDR-Speicher mit in den RSX gestreamt werden kann. Daher auch die 33GB/s Verbindung zwichen GPU und CPU/XDR Speicher, was ja mehr ist, als der XDR Speicher alleine überhaupt liefern kann.

Es geht ja gar nicht um HDR mit AA, sondern erstmal nur um HDR. Das ist mit 22GB/s schon schlecht genug zu machen.
Ich würde mir wünschen, dass Sony und nVidia das irgendwie anders gelöst haben, denn ohne HDR wäre es eine kleine Entäuschung.


Konsolenfreund

Jesus
2005-05-20, 16:18:28
nochmal OT:

Since that interview with David Kirk conducted by Zenji Nishikawa contains so little words from Kirk that it's almost dedicated to technical illustration for readers and speculation by Nishikawa, I have little to add to what Mikage's post. Kirk says nothing about specifics about RSX, but only about how this RSX-CELL system works. Anyway here's a bit more descriptive version of the latter half of the article -

David Kirk: SPE and RSX can work together. SPE can preprocess graphics data in the main memory or postprocess rendering results sent from RSX.

Nishikawa's speculation: for example, when you have to create a lake scene by multi-pass rendering with plural render targets, SPE can render a reflection map while RSX does other things. Since a reflection map requires less precision it's not much of overhead even though you have to load related data in both the main RAM and VRAM. It works like SLI by SPE and RSX.

David Kirk: Post-effects such as motion blur, simulation for depth of field, bloom effect in HDR rendering, can be done by SPE processing RSX-rendered results.

Nishikawa's speculation: RSX renders a scene in the main RAM then SPEs add effects to frames in it. Or, you can synthesize SPE-created frames with an RSX-rendered frame.

David Kirk: Let SPEs do vertex-processing then let RSX render it.

Nishikawa's speculation: You can implement a collision-aware tesselator and dynamic LOD by SPE.

David Kirk: SPE and GPU work together, which allows physics simulation to interact with graphics.

Nishikawa's speculation: For expression of water wavelets, a normal map can be generated by pulse physics simulation with a height map texture. This job is done in SPE and RSX in parallel.

Wie wärs mit nem RSX/PS3 Speku Thread? :rolleyes:

Coda
2005-05-20, 16:36:59
Dass es (sehr gut) geht kann man in mehreren Demos sehen, und es wurde auch von mehreren Leuten bestätigt. Trotzdem würde mich die Geschichte sehr intressieren. Btw. OTIch habe noch kein Demo gesehen wo man eindeutig sagen kann das es "echtes" HDR ist, d.h. der Dynamikumfang war nicht sehr groß.

Ich würde mir wünschen, dass Sony und nVidia das irgendwie anders gelöst haben, denn ohne HDR wäre es eine kleine Entäuschung.Es gibt keine andere Lösung. HDR bedeutet auf jeden Fall das man ein FP Rendertarget braucht.

Jesus
2005-05-20, 16:40:29
Ich kann leider kein japanisch, aber vielleicht hat das ja was damit zu tun?

Titel: Practical implementation of High Dynamic Range rendering:

http://www.watch.impress.co.jp/game/docs/20050519/ps3_r10.jpg :rolleyes:

http://www.watch.impress.co.jp/game/docs/20050519/ps3_r.htm

Ich habe noch kein Demo gesehen wo man eindeutig sagen kann das es "echtes" HDR ist, d.h. der Dynamikumfang war nicht sehr groß.

hier siehts schon recht nett aus wie ich finde:

http://www.watch.impress.co.jp/game/docs/20050519/ps3_r20.jpg

Im zugehörigen Video sieht man auch wie langsam die Detailstruktur der Mauer im Vordergrund sichtbar wird.

Coda
2005-05-20, 16:47:08
Das wäre ja ein Bloom Fake und somit kein HDR.

Jaja es sieht so aus, aber darum geht's mir ja grad gar nicht. Es gibt ja auch noch andere Sachen wie Tone Mapping und der Blue Shift bei sehr dunklen Szenen etc.

Gast
2005-05-20, 16:50:39
hier siehts schon recht nett aus wie ich finde:

http://www.watch.impress.co.jp/game/docs/20050519/ps3_r20.jpg

Im zugehörigen Video sieht man auch wie langsam die Detailstruktur der Mauer im Vordergrund sichtbar wird.
Das ist abegefilmt, oder? Bei abgefilmten Sachen muss man aufpassen, denn die Kameras verändern ja die Blende, wenn sich die Helligkeit des Bild ändert. Sowas sieht dann nach HDR aus, auch durch überbelichtete Teile des Bilds, aber um sicher zu sein, sollte man diesbzgl. eigentlich nur directfeed Videos bewerten.


Konsolenfreund

Jesus
2005-05-20, 17:01:24
Das ist abegefilmt, oder? Bei abgefilmten Sachen muss man aufpassen, denn die Kameras verändern ja die Blende, wenn sich die Helligkeit des Bild ändert. Sowas sieht dann nach HDR aus, auch durch überbelichtete Teile des Bilds, aber um sicher zu sein, sollte man diesbzgl. eigentlich nur directfeed Videos bewerten.


Konsolenfreund

Stimmt aber er spricht bei der Szene auch von Zitat: "beautiful high dynamic range rendering" :)

Gast
2005-05-20, 17:05:13
Stimmt aber er spricht bei der Szene auch von Zitat: "beautiful high dynamic range rendering" :)
Jetzt bleibt nur die Frage wie das realisiert wird, wenn die Bandbreite bei der herkömmlichen Methode nicht reicht.

DrumDub
2005-05-20, 17:06:47
Das ist abegefilmt, oder? Bei abgefilmten Sachen muss man aufpassen, denn die Kameras verändern ja die Blende, wenn sich die Helligkeit des Bild ändert. Sowas sieht dann nach HDR aus, auch durch überbelichtete Teile des Bilds, aber um sicher zu sein, sollte man diesbzgl. eigentlich nur directfeed Videos bewerten.


Konsolenfreund

nene is schon hdr, ob fake oder nicht, mag ich nicht beurteilen. sieht man sehr schön in dem video: http://xfersf05.ign.com/%5E2009405125/movies/streamingmovies.ign.com/docroot/ps3/article/614/614842/sonycon_demos_getaway_wmvlow.wmv?position=front

und hier gibts nochmal bessere bilder aus dem demo: http://media.ps3.ign.com/media/748/748448/imgs_1.html

Coda
2005-05-20, 17:50:45
Es ist etwas das wie HDR aussieht. Was anderes ist fast unmöglich ;)

DrumDub
2005-05-20, 17:58:47
Es ist etwas das wie HDR aussieht. Was anderes ist fast unmöglich ;) ich find auf jeden fall, dass es geil aussieht, egal ob das fake hdr ist oder nicht. :)

Gast
2005-05-20, 18:05:22
Nochmal was von Heise zum Thema. http://www.heise.de/newsticker/meldung/59742

128bit beim RSX - wie geht das?


Konsolenfreund

Coda
2005-05-20, 18:07:28
Das ist mit Sicherheit auf die interne Präzision bezogen. Heise schreibt auch nur Marketing ab.

nVidia hat schon beim NV30 damit geworben *gähn*

Vor allem 16 Bytes per Pixel bei 22GB/s :ulol3:

Das ist ein schlechter Scherz. 64bit HDR ist ja schon unwahrscheinlich genug...

Gast
2005-05-20, 18:08:15
nene is schon hdr, ob fake oder nicht, mag ich nicht beurteilen. sieht man sehr schön in dem video: http://xfersf05.ign.com/%5E2009405125/movies/streamingmovies.ign.com/docroot/ps3/article/614/614842/sonycon_demos_getaway_wmvlow.wmv?position=front

und hier gibts nochmal bessere bilder aus dem demo: http://media.ps3.ign.com/media/748/748448/imgs_1.html
Ok, das ist directfeed und sieht wirklich sehr gut aus. Also selbst wenn es kein echtes HDR sein sollte, sieht es absolut genial aus.

http://ps3media.ign.com/ps3/image/article/616/616976/the-getaway-ps3-20050519100623263.jpg

Konsolenfreund

DrumDub
2005-05-20, 18:08:34
Nochmal was von Heise zum Thema. http://www.heise.de/newsticker/meldung/59742

128bit beim RSX - wie geht das?


Konsolenfreund da gehts aber um den r500. :confused:

Coda
2005-05-20, 18:10:04
Weiter unten nicht.

Gast
2005-05-20, 18:10:18
Das ist mit Sicherheit auf die interne Präzision bezogen. Heise schreibt auch nur Marketing ab.

nVidia hat schon beim NV30 damit geworben *gähn*
Klar, Heise ist wirklich nicht kompetent was das Thema angeht. Mag sein, dass das wieder nur so eine komische Rechnung ist, die nichts aussagt. Jedenfalls würde ich gerne wissen wie Sony dieses "HDR" realisiert, wobei ich glaube, dass wir das nicht so schnell erfahren werden.


Kf

DrumDub
2005-05-20, 18:16:14
Weiter unten nicht. jo, hab ich auch grad bemerkt. also kann rsx lt. heise defintiv echtes hdr... demnach wird das techdemo von getaway 3 wohl auch echtes hdr zeigen... die frage ist nur, wie geht das bei dieser speicheranbindung...

Coda
2005-05-20, 18:16:45
Wie gesagt, Heise blubbert Marketing nach. Das geht definitiv nicht. (Außer man hat noch eDRAM oder ähnliches was nicht erwähnt wurde)

Gast
2005-05-20, 18:18:23
Wie gesagt, Heise blubbert Marketing nach. Das geht definitiv nicht. (Außer man hat noch eDRAM oder ähnliches was nicht erwähnt wurde)
Das wäre natürlich ne Möglichkeit. Sony hat ja beim Gs schon Erfahrung sammlen können. Wieso aber sollte man das verschweigen?


Kf

DrumDub
2005-05-20, 18:19:24
Das wäre natürlich ne Möglichkeit. Sony hat ja beim Gs schon Erfahrung sammlen können. Wieso aber sollte man das verschweigen?


Kf eben. sie wären ja schön blöd nen "feature" zu verschweigen, was die konkurrenz auch hat...

Demirug
2005-05-20, 18:24:46
Warum soll HDR nicht gehen?

Wenn man den Overdraw gegen 0 drückt reicht die Bandbreite.

3D-profi
2005-05-20, 18:29:34
eben. sie wären ja schön blöd nen "feature" zu verschweigen, was die konkurrenz auch hat...

Und wenn die RSX GPU ein deffered Renderer ist wo Bandbreite einegspart
wird??

Gast
2005-05-20, 18:43:49
Und wenn genau das der Fall ist wird Nvidia seinen G70 Refresh auf 0.09 mit genau dem selben Speicher launchen.
Die Verzögerung bei ATI macht überhaupt keinen Sinn.
Ich bleibe dabei. Der Speicher ist nicht das Problem sondern der Prozess bzw. der Chip.
Nvidia hat ganz bewusst kein Ultra Modell genannt.
Bitte jetzt keiner mit dem GTX Modell kommen. Wer glaubt, dass dies die Ultra sein wird, der ist naiv. Nvidia hat seine Ultra ganz bewusst weggelassen.
1. weil es beim Speicher hinkt und 2. weil sie den R520 sehen wollen.
Nvidia weiss sehr genau, dass wenn sie mit 0.11 es schaffen am R520 dran zu bleiben, dass sie dann mit 0.09 deutlich vorn liegen werden, vor allem in Shaderintensiven Applikationen.

Hahahaha, selten so laut gelacht! Der G70 wird weggeblasen!
Selbst wenn die grünen Monster eine GTX Ultra Turbo launchnen würden, kämen sie NIE an die Leistung ran. Da der r520 über ...Pipes verfügt und mit ...MHZ getacktet ist, sehe ich da keine Chancen!

Ups NDA Sternchen :)

SKYNET
2005-05-20, 18:59:30
Hahahaha, selten so laut gelacht! Der G70 wird weggeblasen!
Selbst wenn die grünen Monster eine GTX Ultra Turbo launchnen würden, kämen sie NIE an die Leistung ran. Da der r520 über ...Pipes verfügt und mit ...MHZ getacktet ist, sehe ich da keine Chancen!

Ups NDA Sternchen :)


och nö, bist du etwa das kiddie aus P3D über das, ich mich schon mit nen paar leuten amüsiert habe? :|

der R520 wird nämlich garnix ausser nen aufgeborter R300 mit nen bissl mehr takt als der R4x0 und SM3.0 support.

dat wars.

Gast
2005-05-20, 19:14:51
Warum soll HDR nicht gehen?

Wenn man den Overdraw gegen 0 drückt reicht die Bandbreite.
Wenn Du sowas schreibst werde ich ganz hibbelig. - Ich frage mal so: Hältst Du das ernsthaft für möglich? :D


Konsolenfreund

Gast
2005-05-20, 19:33:34
Und wenn die RSX GPU ein deffered Renderer ist wo Bandbreite einegspart
wird??
:| Hat dich Demirug direkt über dir schon geschrieben. ;)

Kf

Demirug
2005-05-20, 19:42:26
Um den Overdraw auf 0 zu drücken braucht man aber keinen DR. Sondern lediglich einen Z-Pass. Wenn der RSX die verbesserte Z-Performance von seinen PC Kollegen hat bringt das sogar mehrfach etwas.

Was die Bandbreite angeht so braucht man bei 0 Overdraw 2*8 Byte pro Pixel. Einmal schreiben und wieder einlesen. Das sind 15 MB für einen 1280*768 Frame (ohne AA). Bei 60 FPS also lediglich 900 MB. Da bleibt noch massenhaft bandbreite übrig.

Coda
2005-05-20, 20:29:02
Mhm so gerechnet mag das ja hinkommen, aber bei Alphablending usw. ist einiges im Argen oder?

Ok, man wird fast alles in einem Pass rendern können mit dem RSX.

Gast
2005-05-20, 20:30:01
Um den Overdraw auf 0 zu drücken braucht man aber keinen DR. Sondern lediglich einen Z-Pass. Wenn der RSX die verbesserte Z-Performance von seinen PC Kollegen hat bringt das sogar mehrfach etwas.

Was die Bandbreite angeht so braucht man bei 0 Overdraw 2*8 Byte pro Pixel. Einmal schreiben und wieder einlesen. Das sind 15 MB für einen 1280*768 Frame (ohne AA). Bei 60 FPS also lediglich 900 MB. Da bleibt noch massenhaft bandbreite übrig.
Ah, so geht das. Ich dachte erst wirklcih an einen DR und das von nvidia. :flöt:

Kf

Gast
2005-05-20, 20:32:38
Der r520 hatte zu diesem Termin vielleicht "ein" Tapeout....von dem niemand weiss, wie gut das Ergebniss war. Es ist nicht mal 100%tig sicher, ob es wirklich das Tapeout des r520 war und nicht vielleicht doch das des r500 (es wurde eben nur vermutet, das es sich um ein Tapeout des r520 handelte.....ausserdem gabs schon mehrfach Gerüchte, das es inzwischen schon "mehere" Tapeouts des r520 gab)

Die Vorhersage für das Erscheinen des r520 lagen (vor den gesammelten verstellungsverschiebungen) schon bei Herbst 2005.....

Nach diesen ganzen Verschiebungen kann man wohl mit käuflicher Verfügbarkeit erst im Spätherbst (November) rechnen....(alles IMO natürlich)

Ich gehe von August aus!

Demirug
2005-05-20, 20:34:18
Mhm so gerechnet mag das ja hinkommen, aber bei Alphablending usw. ist einiges im Argen oder?

Ok, man wird fast alles in einem Pass rendern können mit dem RSX.

Ja, Alpha Blending kostet extra aber da ist ja noch Luft.

Coda
2005-05-20, 20:36:04
Und wieso ist dann NV40 beim PC mit HDR schon so hoffnungslos überfordert? :|

Demirug
2005-05-20, 20:38:20
Und wieso ist dann NV40 beim PC mit HDR schon so hoffnungslos überfordert? :|

Die interne Bandbreite ist da ein häufiges Problem.

Coda
2005-05-20, 20:40:20
Auch mit dem MRT Verfahren?

Ich mein es wird doch immer geredet dass die GPUs viel zu Bandbreitenlimitiert sind. Und mit HDR kann's doch nicht besser werden? :|

Demirug
2005-05-20, 20:43:46
Auch mit dem MRT Verfahren?

Da ist das Problem kleiner.Aber wenn du Alphablendig brauchst geht das leider nicht wie ich inzwischen herausfinden musste.

Ein weiteres Problem in Verbindung mit HDR ist ja das meist noch ein aufwendiges Postprocessing hinzu kommt. Das kostet natürlich auch noch Leistung.

Natürlich hängt man an der Bandbreite aber IMHO wird sich das bei der PS3 in so fern verbessern das man da viel mehr rechnet und weitgehend auf Singlepass rendering setzt.

Gast
2005-05-20, 20:47:54
Da ist das Problem kleiner.Aber wenn du Alphablendig brauchst geht das leider nicht wie ich inzwischen herausfinden musste.

Ein weiteres Problem in Verbindung mit HDR ist ja das meist noch ein aufwendiges Postprocessing hinzu kommt. Das kostet natürlich auch noch Leistung.

Natürlich hängt man an der Bandbreite aber IMHO wird sich das bei der PS3 in so fern verbessern das man da viel mehr rechnet und weitgehend auf Singlepass rendering setzt.

Das wird es aber schon eher bei der Xbox2 geben, bitte nicht vergessen!

Coda
2005-05-20, 20:48:50
Was wird es bei der XBox 360 schon eher geben? :|

Demirug
2005-05-20, 21:12:17
Das wird es aber schon eher bei der Xbox2 geben, bitte nicht vergessen!

Warum nur bei der XBox 360?

Shaderlänge ist für die CineFX Technik kein Problem und bei den Geforce Karten ja sowieso nur künstlich durch den Treiber limitiert.

reunion
2005-05-20, 21:24:30
G70 soll 7800 Punkte beim 3DMark 05 erreichen:

http://www.the-inquirer.net/?article=23392

Gast
2005-05-20, 21:34:30
G70 soll 7800 Punkte beim 3DMark 05 erreichen:

http://www.the-inquirer.net/?article=23392

is auch das mindeste

Demirug
2005-05-20, 21:43:58
G70 soll 7800 Punkte beim 3DMark 05 erreichen:

http://www.the-inquirer.net/?article=23392

Der hat aber mal wieder 700MHz der Speicher.

Ronny145
2005-05-20, 21:46:01
G70 soll 7800 Punkte beim 3DMark 05 erreichen:

http://www.the-inquirer.net/?article=23392


Ui, das ist wenig. Ne X850XT schafft schon über 7000 Punkte. Und dort steht:

The 6800 Ultra scores around 4400 marks normally so effectively, a G70 should beat a 6800 Ultra SLI.



Also meine 6800GT mit default Takt schafft schon 5000 Punkte. Und das ein 6800 Ultra Sli System langsamer sein soll kann ich mir nicht vorstellen.

reunion
2005-05-20, 21:46:24
Der hat aber mal wieder 700MHz der Speicher.


Das ist ja das lustige. :D
Alle sprechen von 1.4Ghz GDDR3 RAM und 38.4GB/s Bandbreite.
Dass das nicht möglich ist scheint niemanden aufgefallen zu sein.

Allerdings denke ich, dass man sich auf das geleakte nV-Dokument verlassen kann:

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=11640&stc=1

Demirug
2005-05-20, 21:55:15
reunion, der Kommentar war genau in diese Richtung gemeint.

Wobei ich glaube das die Fillrate die dort angegeben wird hinter den Shadern gemessen ist und nicht der "echten" Fillrate entspricht.

Gast
2005-05-20, 21:56:11
gibs infos ob die ersten modelle gleich in agp kommt, falls nein echt schlecht von nv

reunion
2005-05-20, 21:58:36
Wobei ich glaube das die Fillrate die dort angegeben wird hinter den Shadern gemessen ist und nicht der "echten" Fillrate entspricht.

430 x 24 = 10.32 MPixel/s :confused:

Demirug
2005-05-20, 22:00:49
430 x 24 = 10.32 MPixel/s :confused:

600 * 16 = 9.6 MP/s

Quasar
2005-05-20, 22:01:03
JA, aber kommen die auch alle durch die ROPs?

edit:
War an reunion gerichtet.

DrumDub
2005-05-20, 22:08:52
600 * 16 = 9.6 MP/s speichertakt x rops? :confused:

Demirug
2005-05-20, 22:11:04
speichertakt x rops? :confused:

Ja, Die ROPs laufen bei nVidia in der Clockdomain des Speichercontrollers

reunion
2005-05-20, 22:11:57
600 * 16 = 9.6 MP/s

Okay, und was soll mir das jetzt sagen? :D

\\Edit: Ohh. :idea:

reunion
2005-05-20, 22:16:31
Ui, das ist wenig. Ne X850XT schafft schon über 7000 Punkte. Und dort steht:



Ohne Übertaktung?

DrumDub
2005-05-20, 22:18:17
Ja, Die ROPs laufen bei nVidia in der Clockdomain des Speichercontrollers sehr interessant. gilt das dann auch für ati? die haben doch 2 rops pro pipe, oder?

Ronny145
2005-05-20, 22:19:40
Ohne Übertaktung?


edit: achso, ne übertaktet schon.
http://www.forum-3dcenter.net/vbulletin/showpost.php?p=3046814&postcount=1121

Eine PE sollte da aber noch ein bisschen mehr schaffen.

Demirug
2005-05-20, 22:22:58
sehr interessant. gilt das dann auch für ati? die haben doch 2 rops pro pipe, oder?

Die haben jeweils eine ROP welche 2 Samples pro Pixel kann. Das ist bei nVidia aber auch so.

In welcher Clockdomain die bei ATI aber laufen kann ich nicht sagen weil ATI sich dazu nicht geäusert hat. Da sie aber keine Crossbar zwischen Shader und ROPs haben spielt das soweso nur eine untergeordente Rolle.

Coda
2005-05-20, 22:25:00
Könnten beim G70 nicht sowieso auch 16 ROPs reichen?

reunion
2005-05-20, 22:28:19
edit: achso, ne übertaktet schon.
http://www.forum-3dcenter.net/vbulletin/showpost.php?p=3046814&postcount=1121

Eine PE sollte da aber noch ein bisschen mehr schaffen.


Dacht ichs mir doch. :cool:

Ein A64 mit 2.8Ghz und einem R480 mit 653Mhz/642Mhz halte ich doch für ziemlich extrem übertaktet. ;)

Wieviel Punkte bringt beim 3dmark eigendlich die SM3.0 Funktionalität?

Coda
2005-05-20, 22:29:09
Nicht sehr viel AFAIK.

DrumDub
2005-05-20, 22:33:08
Nicht sehr viel AFAIK. jupp. da das meiste ja auch über 2.b läuft.

Demirug
2005-05-20, 22:34:11
Könnten beim G70 nicht sowieso auch 16 ROPs reichen?

Bei nVidia sollten immer 16 ROPs reichen solange sie ein 256 Bit Speicher Interface haben.

Ronny145
2005-05-20, 22:34:31
Dacht ichs mir doch. :cool:

Ein A64 mit 2.8Ghz und einem R480 mit 653Mhz/642Mhz halte ich doch für ziemlich extrem übertaktet. ;)

Wieviel Punkte bringt beim 3dmark eigendlich die SM3.0 Funktionalität?


Die CPU macht beim 3dmark05 so gut wie nichts aus. Eine PE ist mit 540/590 getaktet. Wieviel würde die erreichen? An die 7000 Punkte bestimmt auch schon. Deswegen finde ich die angeblichen 7800 Punkte nicht berauschend. Also 1000 Punkte mehr als das Topmodell von Ati im Moment. Ein bisschen mehr hätte ich da schon erwartet.

mapel110
2005-05-20, 22:35:47
jupp. da das meiste ja auch über 2.b läuft.
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance_report/11/#abschnitt_sm_2_0_vs_sm_3_0
Die CPU macht beim 3dmark05 so gut wie nichts aus. Eine PE ist mit 540/590 getaktet. Wieviel würde die erreichen? An die 7000 Punkte bestimmt auch schon. Deswegen finde ich die angeblichen 7800 Punkte nicht berauschend. Also 1000 Punkte mehr als das Topmodell von Ati im Moment. Ein bisschen mehr hätte ich da schon erwartet.
afaik schafft eine 6800 Ultra ca 5500 Points. Da find ich 7800 für den Nachfolger nicht schlecht.

reunion
2005-05-20, 22:35:58
jupp. da das meiste ja auch über 2.b läuft.

3dmark05 unterstützt SM2.b?

dildo4u
2005-05-20, 22:36:12
Die CPU macht beim 3dmark05 so gut wie nichts aus. Eine PE ist mit 540/590 getaktet. Wieviel würde die erreichen? An die 7000 Punkte bestimmt auch schon. Deswegen finde ich die angeblichen 7800 Punkte nicht berauschend. Also 1000 Punkte mehr als das Topmodell von Ati im Moment. Ein bisschen mehr hätte ich da schon erwartet.
ca 5800 http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/6/#abschnitt_3dmark05

reunion
2005-05-20, 22:37:18
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance_report/11/#abschnitt_sm_2_0_vs_sm_3_0


Naja, immerhin 500 Punkte, SM2.b scheint keine Vorteile zu bringen.

Coda
2005-05-20, 22:37:38
Bei nVidia sollten immer 16 ROPs reichen solange sie ein 256 Bit Speicher Interface haben.Ja, Logisch irgendwie :rolleyes:

Demirug
2005-05-20, 22:37:56
Der 3d Mark hängt ja sehr an der Vertexleistung. Ich vermute mal das da nVidia beim G70 kaum zugelegt hat weil es für "normale" Spiele ja durchaus ausreicht.

DrumDub
2005-05-20, 22:43:31
3dmark05 unterstützt SM2.b? ja.

DrumDub
2005-05-20, 22:45:22
Naja, immerhin 500 Punkte, SM2.b scheint keine Vorteile zu bringen. woran siehte das? die x700er sind da wohl nicht zum vergleich geiegnet. immerhin ist da auch die x700 xt langsamer als die x700 pro... das passt nicht. das gibts nen problem.

DrumDub
2005-05-20, 22:47:23
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance_report/11/#abschnitt_sm_2_0_vs_sm_3_0
oh... damit nehme ich alles zurück und behaupte das gegenteil. :redface:

edit: aber das kann ja auch nicht stimmen. ich komm ja schon mit ner x800xl bei 430/525 auf 5100 im 3dmark05.

reunion
2005-05-20, 22:48:36
woran siehte das? die x700er sind da wohl nicht zum vergleich geiegnet. immerhin ist da auch die x700 xt langsamer als die x700 pro... das passt nicht. das gibts nen problem.


Sorry, aber ich verstehe die Frage nicht, man sieht doch ganz deutlich, dass keine der ATi Karten durch den SM2.b-Modus im Vergleich zum SM2.0-Modus profitiert.

DrumDub
2005-05-20, 22:59:20
Sorry, aber ich verstehe die Frage nicht, man sieht doch ganz deutlich, dass keine der ATi Karten durch den SM2.b-Modus im Vergleich zum SM2.0-Modus profitiert. hab weiter unten geguckt. bei den karten. mein fehler. dennoch können die werte nicht stimmen. siehe mein edit oben.

Quasar
2005-05-20, 23:05:38
hab weiter unten geguckt. bei den karten. mein fehler. dennoch können die werte nicht stimmen. siehe mein edit oben.
Guckst du hier:
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance_report/8/
(weiter unten)

Ronny145
2005-05-20, 23:07:05
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance_report/11/#abschnitt_sm_2_0_vs_sm_3_0
afaik schafft eine 6800 Ultra ca 5500 Points. Da find ich 7800 für den Nachfolger nicht schlecht.
Auf die 6800 Ultra, und die Konkurrenz? Das ist doch nicht unwichtig. Und die PE ist relativ deutlich schneller als so eine 6800 Ultra.
ca 5800 http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/6/#abschnitt_3dmark05
Schau mal auf das Testdatum, da klärt sich alles. Die 6800 Ultra schafft dort 49XX Punkte. Das schaffen mittlerweile die GTs.

dildo4u
2005-05-20, 23:10:41
Auf die 6800 Ultra, und die Konkurrenz? Das ist doch nicht unwichtig. Und die PE ist relativ deutlich schneller als so eine 6800 Ultra.

Schau mal auf das Testdatum, da klärt sich alles. Die 6800 Ultra schafft dort 49XX Punkte. Das schaffen mittlerweile die GTs.Ja und?Treiber Optemierung halt.Eine X850XT hat da nicht zugelegt die Treiber sind schon am limit ansonsten gibt mal ein aktuelle link.

Ronny145
2005-05-20, 23:34:04
Ja und?Treiber Optemierung halt.Eine X850XT hat da nicht zugelegt die Treiber sind schon am limit ansonsten gibt mal ein aktuelle link.


Naja, relativ aktuell ist der Test zwar. Ein bisschen mehr kanns aber schon sein.

http://www.digital-daily.com/video/R481/index03.htm

Hmm, dann wäre das ein Unterschied von 1500-2000 Punkten. So toll finde ich die Steigerung trotzdem nicht.

DrumDub
2005-05-21, 00:09:07
Guckst du hier:
http://www.computerbase.de/artikel/software/2004/3dmark05_der_performance_report/8/
(weiter unten) ah so... scrollen ist doch manchmal genz nützlich.

SKYNET
2005-05-21, 01:18:43
Ohne Übertaktung?


natürlich nicht, ohne OC macht ne x850xtpe grademal 5600-5900pkt.

SKYNET
2005-05-21, 01:22:38
Naja, relativ aktuell ist der Test zwar. Ein bisschen mehr kanns aber schon sein.

http://www.digital-daily.com/video/R481/index03.htm

Hmm, dann wäre das ein Unterschied von 1500-2000 Punkten. So toll finde ich die Steigerung trotzdem nicht.


ich schon, wenn man bedenkt das es "nur" nen refresh ist.

Ailuros
2005-05-21, 02:34:23
Falls beide IHVs R520/G70 nur mit besseren 3dmark scores vermarkten wollen, wird es wohl sowieso fuer viele viel zu langweilig werden. Gleiches gilt auch fuer HL2 bzw. Doom3-Leistung (wie oft kann man das Zeug ueberhaupt durchspielen?)

Normalerweise muesste es ein paar AAA-Titel geben die eine Aufruestung der Mehrzahl der high end Gamer auch schmackhaft machen wuerde. Wird jetzt etwa zur gleichen Zeit mit R520 z.B. Spiel X veroeffentlicht, wo diese einen satten Leistungs-unterschied im Vergleich zu vorigen GPUs zeigen kann, wird man die Dinger auch viel besser vermarkten koennen.

Ailuros
2005-05-21, 02:46:29
ich schon, wenn man bedenkt das es "nur" nen refresh ist.

Die Leistungssteigerung zwischen NV40 und G70 duerfte irgendwo bei =/<50% liegen. Vergleichsmaessig waere es in etwa der Unterschied zwischen einer 6800GT und 6800LE.

mapel110
2005-05-21, 02:56:26
Die Leistungssteigerung zwischen NV40 und G70 duerfte irgendwo bei =/<50% liegen. Vergleichsmaessig waere es in etwa der Unterschied zwischen einer 6800GT und 6800LE.
Wenn man nur vom Takt ausgeht und nicht annimmt, dass der Chip doch ein paar Optimierungen drin hat, die doch mehr als nur ein paar Prozent bringen.
Ich bin da noch optimistisch, dass sich da etwas getan hat.
Auf die 6800 Ultra, und die Konkurrenz? Das ist doch nicht unwichtig. Und die PE ist relativ deutlich schneller als so eine 6800 Ultra.

Derzeit wissen wir noch gar nicht, wie viel Steigerung ATI zustande bringt.
Sie habens wesentlich schwieriger ihre ohnehin sehr hohe Füllrate noch weiter aufzustocken.

Ailuros
2005-05-21, 03:12:23
Derzeit wissen wir noch gar nicht, wie viel Steigerung ATI zustande bringt.
Sie habens wesentlich schwieriger ihre ohnehin sehr hohe Füllrate noch weiter aufzustocken.

Genau.

Stimmen jetzt alle meine bisherigen Spekulationen, dann:

16*540 = 8640
16*650 = 10400 (+20%)

590*64 = 37760
700*64 = 44800 (+19%)

----------------------------

16*400 = 6400
24*430 = 10320 (+61%)

550*64 = 35200
700*64 = 44800 (+27%)

Natuerlich kommt noch hinzu dass die neuen NV4x's wohl genauso Bandbreiten-limitiert sein werden wie R420/480.

mapel110
2005-05-21, 03:32:29
Genau.

Stimmen jetzt alle meine bisherigen Spekulationen, dann:

16*540 = 8640
16*650 = 10400 (+20%)

590*64 = 37760
700*64 = 44800 (+19%)

----------------------------

16*400 = 6400
24*430 = 10320 (+61%)

550*64 = 35200
700*64 = 44800 (+27%)

Natuerlich kommt noch hinzu dass die neuen NV4x's wohl genauso Bandbreiten-limitiert sein werden wie R420/480.
:love3: sehr schön in Zahlen gepackt. Und das mit der Bandbreite wollte ich noch reineditieren, aber hab keine gute Formulierung gefunden. :redface:

SKYNET
2005-05-21, 03:36:28
Genau.

Stimmen jetzt alle meine bisherigen Spekulationen, dann:

16*540 = 8640
16*650 = 10400 (+20%)

590*64 = 37760
700*64 = 44800 (+19%)

----------------------------

16*400 = 6400
24*430 = 10320 (+61%)

550*64 = 35200
700*64 = 44800 (+27%)

Natuerlich kommt noch hinzu dass die neuen NV4x's wohl genauso Bandbreiten-limitiert sein werden wie R420/480.

6800U hat 425MHz, also 6800M füllrate. =)

Ailuros
2005-05-21, 07:30:09
6800U hat 425MHz, also 6800M füllrate. =)

Offiziell auf jeden Fall nicht; mit welcher Frequenz ein jeder Vendor liefert (und auch dafuer garantiert) ist sein Bier.


http://www.leadtek.com/3d_graphic/winfast_px6800_ultratdh_2.html

http://www.evga.com/products/moreinfo.asp?pn=256-P2-N377-AX

http://www.xfxgraphics.com/web/product/listSpecifications.jspa?seriesId=41

usw.

Ronny145
2005-05-21, 08:49:02
natürlich nicht, ohne OC macht ne x850xtpe grademal 5600-5900pkt.


Mein link nicht gesehen? Mit neuesten Treibern kann eine PE über 6000 Punkte schaffen.

Gast
2005-05-21, 09:12:22
Wen interessieren 3dMark05 Punkte? Mit 2x 6600GT schafft man auch knapp die 7000 Grenze, aber sind die Karten deswegen schneller in Spielen als die 6800GT oder X800XT???

Gast
2005-05-21, 09:28:36
Die Leistungssteigerung zwischen NV40 und G70 duerfte irgendwo bei =/<50% liegen. Vergleichsmaessig waere es in etwa der Unterschied zwischen einer 6800GT und 6800LE.

Nein!

Ein Refresh bringt max. 25%!
Das sind grüne Träume!

dildo4u
2005-05-21, 09:29:50
Nein!

Ein Refresh bringt max. 25%!
Das sind grüne Träume!
Ein refresh bringt bei den roten maximal gar nix siehe X800XT X850XT

Gast
2005-05-21, 09:31:07
Wenn man nur vom Takt ausgeht und nicht annimmt, dass der Chip doch ein paar Optimierungen drin hat, die doch mehr als nur ein paar Prozent bringen.
Ich bin da noch optimistisch, dass sich da etwas getan hat.

Derzeit wissen wir noch gar nicht, wie viel Steigerung ATI zustande bringt.
Sie habens wesentlich schwieriger ihre ohnehin sehr hohe Füllrate noch weiter aufzustocken.

Mappel,

das stimmt nicht und zahlreiche Usererfahrungen und Vergleichstest bestätigen das auch.

Die X850 XT PE ist schneller als 6800!
Der G70 wird nicht schneller sein können als R520.

110nm (G70) gegen 90nm (R520) = Höherer Grundtakt für R520

Quasar
2005-05-21, 09:33:50
Mappel,

das stimmt nicht und zahlreiche Usererfahrungen und Vergleichstest bestätigen das auch.

Die X850 XT PE ist schneller als 6800!
Der G70 wird nicht schneller sein können als R520.

110nm (G70) gegen 90nm (R520) = Höherer Grundtakt für R520
Wie --- "das stimmt nicht"?
Wo gibt es denn zahlreiche Usererfahrungen und Vergleichstests zum G70:confused:

Gast
2005-05-21, 09:33:58
Ein refresh bringt bei den roten maximal gar nix siehe X800XT X850XT

Das meinte ich doch gar nicht!

Dieser Refresh war auch eher ein Produktionsrefresh hinsichtlich der geringen Ausbeute!

Ähnliches hat doch der NV40 auch durchlebt!

Beide hatten Ihre ERSTVERSIOn unter Wettbewerbsruck rausbringen müssen, das erklärte doch die schlechte Verfügbarkeit am Anfang!

Bei dem R520 wird das anders laufen, auch der G70 wird schneller verfügbar sein, after the Launch, aber es ändert nichts an der Tatsache, das der G70 ein Refrsh ist mit 24 Pipes und der R520 ein BEUES Design ist mit xx Pipes.

Gast
2005-05-21, 09:34:30
Wie --- "das stimmt nicht"?
Wo gibt es denn zahlreiche Usererfahrungen und Vergleichstests zum G70:confused:


Quasar,

lesen !!!!!

Ich meinte 6800 gegen X850!

Gast
2005-05-21, 09:36:09
Quasar,

lesen !!!!!

Ich meinte 6800 gegen X850!

Erst im nächsten Absatz sprach cih den möglichen Performanceunterschied an und der bezieht sich NUR auf NM! 110 gegen 90!

Demirug
2005-05-21, 09:37:49
Mappel,

das stimmt nicht und zahlreiche Usererfahrungen und Vergleichstest bestätigen das auch.

Die X850 XT PE ist schneller als 6800!
Der G70 wird nicht schneller sein können als R520.

110nm (G70) gegen 90nm (R520) = Höherer Grundtakt für R520

Nach dieser Logik könnte ein Athlon 64 niemals schneller sein als ein Pentium 4.

Neben dem Takt spielt die Anzahl und der Aufbau der Pixelprozessoren eine mindestens genau so große Rolle. Zu guter letzt dann auch noch der Usecase.

Gast
2005-05-21, 09:39:00
Nach dieser Logik könnte ein Athlon 64 niemals schneller sein als ein Pentium 4.

Neben dem Takt spielt die Anzahl und der Aufbau der Pixelprozessoren eine mindestens genau so große Rolle. Zu guter letzt dann auch noch der Usecase.


Das bezwifel ich doch gar nicht, aber du könntest ruhig bestätigen das bei 90nm mehr vom Core möglich ist! Das ist true!

Ausserdem kannst du den Aufbau CPU AMD nicht VPU ATI&NVIDIA) vergleichen!

Quasar
2005-05-21, 09:42:55
Quasar,
lesen !!!!!
Ich meinte 6800 gegen X850!
mapel110 sprach in deinem Quote gar nicht von ATi oder irgendwas - nur vom G70. Wieso sagst du dann, es stimme nicht und führst als Beleg auch noch zahlreiche Usererfahrungen und Vergleichstests an?
Erst im nächsten Absatz sprach cih den möglichen Performanceunterschied an und der bezieht sich NUR auf NM! 110 gegen 90!
Ich bin doch gar nicht auf deinen Vergleich 90 vs. 110 nm eingegangen - vielleicht solltest du lieber mal lesen, auf was du antwortest, anstatt das von mir zu verlangen.

Demirug
2005-05-21, 09:44:40
Das meinte ich doch gar nicht!

Dieser Refresh war auch eher ein Produktionsrefresh hinsichtlich der geringen Ausbeute!

Ähnliches hat doch der NV40 auch durchlebt!

Beide hatten Ihre ERSTVERSIOn unter Wettbewerbsruck rausbringen müssen, das erklärte doch die schlechte Verfügbarkeit am Anfang!

Bei dem R520 wird das anders laufen, auch der G70 wird schneller verfügbar sein, after the Launch, aber es ändert nichts an der Tatsache, das der G70 ein Refrsh ist mit 24 Pipes und der R520 ein BEUES Design ist mit xx Pipes.

Nein, es ist kein neues Design. Das wurde von Personen die gute Kontakte zu ATI haben mehrfach bestätigt. Der R520 ist eine neue Evolutionsstufe des R420. ATI hatte aufgrund der Designarbeiten für den R500 gar nicht die Kapazität ein neues Design für den R520 zu entwickeln.

Die ursprüngliche Idee war es ja schon mit der R4XX Serie XBox und PC auf einen nenner zu bringen. Allerdings war man bei ATI wohl nicht mit der Leistung dieser neuen Architektur zufrieden was dann zu den beiden Notlösungen R420 und R520 führte und einem neuen Versuch der Zusammenführung mit R600.

Gast
2005-05-21, 09:47:24
mapel110 sprach in deinem Quote gar nicht von ATi oder irgendwas - nur vom G70. Wieso sagst du dann, es stimme nicht und führst als Beleg auch noch zahlreiche Usererfahrungen und Vergleichstests an?

Ich bin doch gar nicht auf deinen Vergleich 90 vs. 110 nm eingegangen - vielleicht solltest du lieber mal lesen, auf was du antwortest, anstatt das von mir zu verlangen.

Ach Quasar,

ist ja gut! ;) Vieleicht solltest du es einfach dabei belassen!
Diese Diskussion bringt doch nix, du weißt genau was ich gemeint hatte, aber ist schon okay :) !

Ich meinte mit meiner Antwort ganz klar die Performance-Unterschiede zwischen 6800 und X850, das ist unmissverständlich zu lesen!

Die möglichen Vorteile einer 90nm Produktion sind schlüssig und bezogen sich ausschliesslich NUR auf den Grundtakt!

Thats fact!

Demirug
2005-05-21, 09:48:30
Das bezwifel ich doch gar nicht, aber du könntest ruhig bestätigen das bei 90nm mehr vom Core möglich ist! Das ist true!

Ausserdem kannst du den Aufbau CPU AMD nicht VPU ATI&NVIDIA) vergleichen!

Warum sollte ich das nicht vergleichen können? Man kann sowohl CPU wie auch GPUs entweder auf hohe Taktraten oder auf hohe Leistung pro Takt hin designen.

Ein besserer Prozess ist natürlich immer von Vorteil. Allerdings sagt die größe nicht alles über die Güte eines Prozess aus.

Quasar
2005-05-21, 09:53:00
Ich meinte mit meiner Antwort ganz klar die Performance-Unterschiede zwischen 6800 und X850, das ist unmissverständlich zu lesen!

Und warum wirfst du dann mapel110 vor, seine Aussage stimme nicht und werde durch zahlreiche Usererfahrungen und Vergleichstests widerlegt?

Sorry, aber wenn du dir ein wenig mehr Zeit nehmen würdest, um den Bezug zwischen irgendwelchen Quotes und deiner Aussage zu prüfen, würden solche "Mißverständnisse" ganz leicht zu vermeiden sein. :)

Gast
2005-05-21, 09:55:30
Nein, es ist kein neues Design. Das wurde von Personen die gute Kontakte zu ATI haben mehrfach bestätigt. Der R520 ist eine neue Evolutionsstufe des R420. ATI hatte aufgrund der Designarbeiten für den R500 gar nicht die Kapazität ein neues Design für den R520 zu entwickeln.

Die ursprüngliche Idee war es ja schon mit der R4XX Serie XBox und PC auf einen nenner zu bringen. Allerdings war man bei ATI wohl nicht mit der Leistung dieser neuen Architektur zufrieden was dann zu den beiden Notlösungen R420 und R520 führte und einem neuen Versuch der Zusammenführung mit R600.

Lieber Demirug,

du kannst mir eines glauben, das stimmt nicht und ist eine "Ente".

Wenn das so wäre, wie angeblich Personen behaupten die über gute Kontakte zu ATI verfügen, warum ist dann beim R420 Refresh nicht SM3.0 mit reingekommen?

Schau dir mal die Specs vom R500 (XBOX2) nochmal ganz genau an! ;)
Und frage dich dann, mal warum es nichts mit SFR zu tun haben kann, bezüglich Mischen von MVPU-VGAs bei ATI. Könnte es sein das MVPU erst mit R520 grundsätzlich möglich wird ? ;) und NUR aus einem bestimmten Grund der R420 auch im MVPU Modus laufen kann!

Alles in allem denke ich, hast du bezüglich der verschieden Deignteams bei ATI etwa übersehen.

Grüsse :)

Gast
2005-05-21, 09:57:19
Und warum wirfst du dann mapel110 vor, seine Aussage stimme nicht und werde durch zahlreiche Usererfahrungen und Vergleichstests widerlegt?

Sorry, aber wenn du dir ein wenig mehr Zeit nehmen würdest, um den Bezug zwischen irgendwelchen Quotes und deiner Aussage zu prüfen, würden solche "Mißverständnisse" ganz leicht zu vermeiden sein. :)

Stmmt! Sorry! Ändert aber nichts an meinem angesprochenen Beitag! Die Aussage war korrekt, aber in Zukunft werde ich aufpassen, wo ich auf den Button "zitieren klicke! :P

Quasar
2005-05-21, 09:59:46
:up: Prima - deine Aussagen als solches sind hinsichtlicht der X850/6800 ja auch richtig. Sicherlich ist erstere in den meisten Fällen flotter unterwegs.

Gast
2005-05-21, 10:02:55
:up: Prima - deine Aussagen als solches sind hinsichtlicht der X850/6800 ja auch richtig. Sicherlich ist erstere in den meisten Fällen flotter unterwegs.

Jo,

Ich denke ehrlich, das der G70 alle Erwartungen bezüglich mehr Performance im Vergleich zum NV40 einhalten wird, die Frage die ich mir nur stelle ist, wie hoch wird der Performance-Unterschied "NETTO" ausfallen bezüglch höhere Core-MHz aufgrund 90nm im Vergleich zu 110nm!

Demirug
2005-05-21, 10:09:29
Lieber Demirug,

du kannst mir eines glauben, das stimmt nicht und ist eine "Ente".

Wenn das so wäre, wie angeblich Personen behaupten die über gute Kontakte zu ATI verfügen, warum ist dann beim R420 Refresh nicht SM3.0 mit reingekommen?

Weil das Transitorbuget entweder für SM3 oder für 4 Pixelprozessoren gereicht hat. ATI hat sich dann für Speed und gegen Features entschieden.

Schau dir mal die Specs vom R500 (XBOX2) nochmal ganz genau an! ;)
Und frage dich dann, mal warum es nichts mit SFR zu tun haben kann, bezüglich Mischen von MVPU-VGAs bei ATI. Könnte es sein das MVPU erst mit R520 grundsätzlich möglich wird ? ;) und NUR aus einem bestimmten Grund der R420 auch im MVPU Modus laufen kann!

Ich weiss zwar nicht auf was du hinaus möchtest aber die Art wie ATI das Multikarten Problem lösst ist relativ Hardware unabhängig. Würde auch noch mit dem R300 funktionieren. Derzeit darf ich da allerdings nicht in die Details gehen.

Alles in allem denke ich, hast du bezüglich der verschieden Deignteams bei ATI etwa übersehen.

Grüsse :)

Es gibt zwei GPUs Teams und weiter?

Gast
2005-05-21, 10:18:59
Es gibt zwei GPUs Teams und weiter?

Schonmal nicht schlecht, aber es gibt noch ein Team, welches nur xxx im Kopf hat, mehr darf ich auch nicht sagen ;) und aus deren Hand kommt der der 5'er!

A.Wesker
2005-05-21, 10:38:11
eine 6800 Ultra schafft
@ 512/1256 --> 7200
@ 450/1200 --> 6400
3dmarks 05

also find ich den sprung auf 8,5k ganz ok und das @ 430 MHz coretakt.
durch neue treiber werden die 9k dann auch sehr schnell fallen.

Ronny145
2005-05-21, 10:44:23
eine 6800 Ultra schafft
@ 512/1256 --> 7200
@ 450/1200 --> 6400
3dmarks 05

also find ich den sprung auf 8,5k ganz ok und das @ 430 MHz coretakt.
durch neue treiber werden die 9k dann auch sehr schnell fallen.


Waren das nicht 7800 Punkte?

A.Wesker
2005-05-21, 10:48:22
Waren das nicht 7800 Punkte?
SLI schaffte zu beginn auch nur ca 7500 punkte und eine 6800 Ultra ca 5000. deshalb halte ich 8,5-9k auf jeden fall für realistisch auf standardtakt.

der G70 ist mit nicht ausgereiften treibern und auf standardtakt um einiges schneller als eine 6800 u @ über 500 MHz core.

Quasar
2005-05-21, 10:51:53
Wenn der G70 "nur" ein Speedbump des nV40 wird, wird es in den Treibern nicht mehr soo viel zu holen geben, als wenn man eine neue Architektur oder neue "Tricksereien" gibt einführt.

A.Wesker
2005-05-21, 10:54:21
Wenn der G70 "nur" ein Speedbump des nV40 wird, wird es in den Treibern nicht mehr soo viel zu holen geben, als wenn man eine neue Architektur oder neue "Tricksereien" gibt einführt.
naja, wenn man sich die 9800 pro vor 1,5 jahren anschaut und jetzt...
da hat sich vorallem im 3dmark 2003 einiges getan.

Quasar
2005-05-21, 10:57:35
naja, wenn man sich die 9800 pro vor 1,5 jahren anschaut und jetzt...
da hat sich vorallem im 3dmark 2003 einiges getan.
Den Schritt haben wir ja bei der nV4x-Architektur bereits hinter uns.

SKYNET
2005-05-21, 11:10:37
Offiziell auf jeden Fall nicht; mit welcher Frequenz ein jeder Vendor liefert (und auch dafuer garantiert) ist sein Bier.


http://www.leadtek.com/3d_graphic/winfast_px6800_ultratdh_2.html

http://www.evga.com/products/moreinfo.asp?pn=256-P2-N377-AX

http://www.xfxgraphics.com/web/product/listSpecifications.jspa?seriesId=41

usw.

doch, alle PCIe haben 425MHz ist auch offiziel von NV. :tongue:

SKYNET
2005-05-21, 11:11:57
Mappel,

das stimmt nicht und zahlreiche Usererfahrungen und Vergleichstest bestätigen das auch.

Die X850 XT PE ist schneller als 6800!
Der G70 wird nicht schneller sein können als R520.

110nm (G70) gegen 90nm (R520) = Höherer Grundtakt für R520


jaund, mehr takt aber weniger pipes.... wo liegt da nun dein problem? :|

SKYNET
2005-05-21, 11:15:54
Lieber Demirug,

du kannst mir eines glauben, das stimmt nicht und ist eine "Ente".

Wenn das so wäre, wie angeblich Personen behaupten die über gute Kontakte zu ATI verfügen, warum ist dann beim R420 Refresh nicht SM3.0 mit reingekommen?

Schau dir mal die Specs vom R500 (XBOX2) nochmal ganz genau an! ;)
Und frage dich dann, mal warum es nichts mit SFR zu tun haben kann, bezüglich Mischen von MVPU-VGAs bei ATI. Könnte es sein das MVPU erst mit R520 grundsätzlich möglich wird ? ;) und NUR aus einem bestimmten Grund der R420 auch im MVPU Modus laufen kann!

Alles in allem denke ich, hast du bezüglich der verschieden Deignteams bei ATI etwa übersehen.

Grüsse :)


dir ist schon klar das demirug NDA infos hat?
und das diese infos sind von denen wir derzeit noch träumen, und wenn er sagt das stimmt soweit(halt der wink mit dem zaunpfahl) dann wirds wohl auch mit großer wahrscheinlichkeit so sein.

ShadowXX
2005-05-21, 11:24:45
Genau.

Stimmen jetzt alle meine bisherigen Spekulationen, dann:

16*540 = 8640
16*650 = 10400 (+20%)

590*64 = 37760
700*64 = 44800 (+19%)

----------------------------

16*400 = 6400
24*430 = 10320 (+61%)

550*64 = 35200
700*64 = 44800 (+27%)

Natuerlich kommt noch hinzu dass die neuen NV4x's wohl genauso Bandbreiten-limitiert sein werden wie R420/480.

Das Problem an diesem Beispiel ist allerdings das der G70 nur eine Bandbreite von 38,4GB/s hat und nicht 44,8GB/s....

Also gerade mal 9% mehr Bandbreite gegenüber einer "normalen" nv40Ultra....wobei sehr viele Ultras sowieso schon mit 600MHz Speichertakt arbeiten.
(steht so übrigens auch in den News und auf der Folie von nV ist es auch vermerkt (die Bandbreite))

Der G70 wird es schwer gegen den r520 haben, falls ATI schon mit 700MHz Speicher kommt.....

IMHO hätte der G70 schon Februar/März käuflich erwerbbar sein müssen, um ihn als gelungen zu bezeichenen.
Dafür das er 1 Jahr nach dem nv40 rauskommt, bietet er meiner Meinung nach zu wenig mehrspeed.

Noch viel stärker unter dem Gesichtspunkt, das bis zu den WGF2.0-Karten nix mehr grossartig neues kommt....

Ich bin ja normalerweise nicht so pessimistisch und die meisten Aussagen des/der Gastes/Gäste sind natürlich nicht ganz so ernst zu nehmen, aber in RL-Benchmarks (also ausserhalb des synthetischen Zeugs) erwarte ich vom G70 höchsten 15-20% mehrperformance.
Ein klassicher Refresh IMHO, aber dafür kommt er eigentlich zu spät.

Quasar
2005-05-21, 11:44:25
Wenn ich mir mal so überlege, wie der nV40 mit dem R480 mithält (oder auch nicht, je nach Perspektive) und wie sich das bei Einsatz von AA ändert und wie sich das bei Einsatz von AF ändert, denke ich, daß ein großer Teil der zusätzlichen Füllrate bei nV besser "genutzt" werden kann, als bei ATi.
*hint*

Adam D.
2005-05-21, 11:45:10
Ein Refresh mit 8 zusätzlichen Pipes, höherem Chip- und Speicher-Takt...Ich nenne das mal eine gute Leistung. R420 --> R480 ist in meinen Augen ein Refresh, der G70 ist schon ein starker Refresh. Ich gehe von ca. 30% Mehrleistung aus, dass finde ich nicht schlecht. Wenn die Karten gut verfügbar sind und nicht allzu viel mehr kosten als die NV40, dann ist doch alles glatt gelaufen und der Sinn des Refreshs ist voll erfüllt :)

BTW:

Q: One more question: R520 or G70?
Tim Sweeny: *laugh* G70, for sure!

Hier (http://dmode.datamachine.net/sweeneyinterview.html) das Interview!

Und wenn ich jetzt noch wüsste, wofür die Grafikkarte Füllrate braucht ;D

Gast
2005-05-21, 12:05:09
dir ist schon klar das demirug NDA infos hat?
und das diese infos sind von denen wir derzeit noch träumen, und wenn er sagt das stimmt soweit(halt der wink mit dem zaunpfahl) dann wirds wohl auch mit großer wahrscheinlichkeit so sein.

Ich habe auch NDA Infos!!

Quasar
2005-05-21, 12:15:15
Und wenn ich jetzt noch wüsste, wofür die Grafikkarte Füllrate braucht ;D
Um beim AF nicht mehr so stark einzubrechen.

Adam D.
2005-05-21, 12:18:18
Um beim AF nicht mehr so stark einzubrechen.
Dann bekommen wir hoffentlich endlich winkelunabhängiges AF =)

dildo4u
2005-05-21, 12:22:30
Dann bekommen wir hoffentlich endlich winkelunabhängiges AF =)
Mit Sicherheit nich wenn man mit ATI(Optemierungstechnisch) mithalten will.

Gast
2005-05-21, 12:24:14
Mit Sicherheit nich wenn man mit ATI(Optemierungstechnisch) mithalten will.

Deine Flamerei geht wieder mal derbe auf die Nerven!

Adam D.
2005-05-21, 12:24:41
Mit Sicherheit nich wenn man mit ATI(Optemierungstechnisch) mithalten will.
Dachte ich mir schon. Aber was meint Quasar dann damit, dass man es besser nutzt als ATi? Ich mein, 24xAF ist sinnlos. Oder meint er es so, dass 4xAF sozusagen schon kostenlos ist? :confused:

Deine Flamerei geht wieder mal derbe auf die Nerven!
Wer nervt hier? :rolleyes:

Coda
2005-05-21, 12:26:19
Ich habe auch NDA Infos!!Warum glaube ich das nur nicht :uconf:

DrumDub
2005-05-21, 12:34:17
doch, alle PCIe haben 425MHz ist auch offiziel von NV. :tongue: quelle? auf der nvidia-website steht bei der 6800u was von ner fillrate von 6,4 billion texels/s: http://www.nvidia.com/page/geforce_6800.html

das hat nichts mit nv40 oder nv45 zu tun. was die boardvendors machen, ist natürlich ihre sache, wie ailuros schon sagte.

Quasar
2005-05-21, 12:35:27
Dachte ich mir schon. Aber was meint Quasar dann damit, dass man es besser nutzt als ATi? Ich mein, 24xAF ist sinnlos. Oder meint er es so, dass 4xAF sozusagen schon kostenlos ist? :confused:
Ich meine damit, daß aktuell der nV40 bei AF stärker einbricht (resp. mehr durch die Optimierungen gewinnt). Und da AF nur in geringem Maße von der Bandbreite abhängt, würde eine Steigerung der Füllrate bei gleichbleibender Speicherbandbreite zunächst mal dem AF zugute kommen.
ATi hat da weniger Potential, da deren AF auch so schon weniger einbricht, noch von mehr Füllrate bei gleicher Bandbreite zu profitieren.

Kurz:
ATi ist aktuell stärker bandbreitenlimitiert als nV.

Sunrise
2005-05-21, 12:36:30
Wenn ich mir mal so überlege, wie der nV40 mit dem R480 mithält (oder auch nicht, je nach Perspektive) und wie sich das bei Einsatz von AA ändert und wie sich das bei Einsatz von AF ändert, denke ich, daß ein großer Teil der zusätzlichen Füllrate bei nV besser "genutzt" werden kann, als bei ATi.
*hint*

Darf ich mal eine gewisse Person direkt zitieren ? "Da sagst du uns nichts Neues" ;)

Die G70-Infos (diejenigen, die früher an die Öffentlichkeit kamen) sind jedenfalls - sollte sich NV nicht wieder umentscheiden - ziemlich sicher und passen absolut zusammen.

PS: HardSpell spricht seit neuestem von 500MHz Kerntakt und das kommt dann definitiv nichtmehr hin. Diese Daten sind IMHO absolut sinnfrei und je nach Modell wird es wohl (daher auch der Zahlendreher) 600MHZ / 700 MHz GDDR3 geben.

SKYNET
2005-05-21, 12:37:14
Ich habe auch NDA Infos!!


das sagen sie alle... :rolleyes:

SKYNET
2005-05-21, 12:38:40
Mit Sicherheit nich wenn man mit ATI(Optemierungstechnisch) mithalten will.


aber evtl. bekommen wir ja endlich, den schon langersehnten ein/aus schalter für sämtliche optimierungen. =)

Adam D.
2005-05-21, 12:39:22
Ich meine damit, daß aktuell der nV40 bei AF stärker einbricht (resp. mehr durch die Optimierungen gewinnt). Und da AF nur in geringem Maße von der Bandbreite abhängt, würde eine Steigerung der Füllrate bei gleichbleibender Speicherbandbreite zunächst mal dem AF zugute kommen.
ATi hat da weniger Potential, da deren AF auch so schon weniger einbricht, noch von mehr Füllrate bei gleicher Bandbreite zu profitieren.

Kurz:
ATi ist aktuell stärker bandbreitenlimitiert als nV.
Danke für die Aufklärung :)

Coda
2005-05-21, 12:40:42
aber evtl. bekommen wir ja endlich, den schon langersehnten ein/aus schalter für sämtliche optimierungen. =)nVidia soll beim G70 lieber mal das flimmer AF beseitigen. Ansonsten könnte es meine nächste Karte auch R520 heißen.

Sunrise
2005-05-21, 12:45:50
nVidia soll beim G70 lieber mal das flimmer AF beseitigen. Ansonsten könnte es meine nächste Karte auch R520 heißen.

Das wird sogar ziemlich sicher der Fall sein, wenn ich ATIs Aussagen richtig deute.

Demirug
2005-05-21, 12:46:23
BTW:

Q: One more question: R520 or G70?
Tim Sweeny: *laugh* G70, for sure!

Und wen Rage3d gefragt hätte wäre die Antwort R520 gewesen.

Coda
2005-05-21, 12:47:14
Das wird sogar ziemlich sicher der Fall sein, wenn ich ATIs Aussagen richtig deute.Was wird sicher der Fall sein? :|
Warum sollte ATi etwas über nVidias AF zu sagen haben?

SKYNET
2005-05-21, 12:48:17
quelle? auf der nvidia-website steht bei der 6800u was von ner fillrate von 6,4 billion texels/s: http://www.nvidia.com/page/geforce_6800.html

das hat nichts mit nv40 oder nv45 zu tun. was die boardvendors machen, ist natürlich ihre sache, wie ailuros schon sagte.


das 425MHz bios, ist offiziel von NV.

auch hat die NV45 seit es sie gibt 425MHz. ;)
und JEDER hersteller, hat (minmum) 425MHz core beim NV45. :tongue:

SKYNET
2005-05-21, 12:50:42
nVidia soll beim G70 lieber mal das flimmer AF beseitigen. Ansonsten könnte es meine nächste Karte auch R520 heißen.


wo liegt dein problem? schaltest halt einfach SS zu wenns dich stört. =)

eQ
2005-05-21, 12:52:21
Ich weis nicht ob ihr das schon gelesen habt :)

Quelle: Link (http://www.theinquirer.net/?article=23325)


It turns out that the G70, also known as the Geforce series 7, is going to be a very similar chip to the just announced Playstation 3 chip.

Nicht der gleiche, da die PC Version kein eDRAM hat.


Nvidia is still keeping quiet about the final spec of the chip but we know it's a 90 nanometre chip and that it's likely that it will have at least 10MB of cache memory. ATI's Xbox 360 chip has exactly the same 10MB as you need to have enough buffer to render HDTV picture quality games. That's what the new consoles are all about.

Scheint so, dass der G70(PS3) auch 10MB eDRAM hat.

The Playstation 3 chip runs at 550MHz

PC Versionen könnten höher getacktet sein(Spekulation: 700Mhz könnten ereicht werden).

Coda
2005-05-21, 12:52:23
1. SS braucht viel zu viel Leistung. Wie soll ich das bei 1600x1200 bitte benützen?
2. Kann nVidia ihr scheiß unterfiltering nur für Performance auch bleiben lassen. Wenn "optimieren", dann wenigstens so wie ATi wo man es nicht sieht.
Vor allem hatte nV mal das deutlich bessere AF. Was ist damit bloß passiert?

Die Winkelabhängigkeit wäre mir ja noch relativ egal. Aber das flimmern nervt mich richtig derb.

Und das hat auch nichts mit dem LOD Clamp zu tun, das Problem existiert unabhängig davon.

DrumDub
2005-05-21, 12:53:08
das 425MHz bios, ist offiziel von NV.

auch hat die NV45 seit es sie gibt 425MHz. ;)
und JEDER hersteller, hat (minmum) 425MHz core beim NV45. :tongue:
:ulol: na ja, kannst ja behaupten was du willst, aber es stimmt einfach nicht:

http://www2.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JAXE04&#tecData
http://www.fortknox.de/cat3.php?art=72130
http://secure.nurtec.de/cgi-bin/nurtec/D2287006.html?mv_pc=geiz
http://www3.atelco.de/8d8rHs_L-sZHJY/1/articledetail.jsp?aid=4487&agid=394&adp=0

Sunrise
2005-05-21, 12:56:12
Was wird sicher der Fall sein? :|

Dass du eher zur R520 greifen wirst.

A.Wesker
2005-05-21, 12:57:16
:ulol: na ja, kannst ja behaupten was du willst, aber es stimmt einfach nicht:

http://www2.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JAXE04&#tecData
http://www.fortknox.de/cat3.php?art=72130
http://secure.nurtec.de/cgi-bin/nurtec/D2287006.html?mv_pc=geiz
http://www3.atelco.de/8d8rHs_L-sZHJY/1/articledetail.jsp?aid=4487&agid=394&adp=0
die taktraten werden von den aufgelisteten shops falsch angegeben. der NV45 hat definitiv 425 MHz Coretakt

Sunrise
2005-05-21, 13:00:14
Ich weis nicht ob ihr das schon gelesen habt :)

PC Versionen könnten höher getacktet sein(Spekulation: 700Mhz könntetn ereicht werden).

1. Den INQ bitte nicht wörtlich nehmen. Detailinfos bieten sie, aber auch nur dann, wenn man fähig ist, zwischen den Zeilen zu lesen.

2. Da hast du etwas verwechselt. Solche Takte bei dieser Komplexität sind wahrscheinlich erst mit 65nm möglich. Zudem sind RSX und G70 nicht identisch.

DrumDub
2005-05-21, 13:06:16
die taktraten werden von den aufgelisteten shops falsch angegeben. der NV45 hat definitiv 425 MHz Coretakt ja, ne, is klar. deshalb stehen die auch auf den herstellerseiten mit 400mhz:
WinFast PX6800 Ultra TDH: http://www.leadtek.com.tw/eng/3d_graphic/specification.asp?pronameid=175&lineid=1&act=2
Gainward PowerPack! Ultra/2600PCX DV-DVI-DVI: http://www.gainward.de/new/products/pcx/ultra_2000/comparison.html

wie gesagt, es gibt auch ultra modelle mit 425 oder sogar 450mhz takt, aber das obliegt den boardvendors und ist keine vorgabe von nv selbst.

A.Wesker
2005-05-21, 13:11:21
ja, ne, is klar. deshalb stehen die auch auf den herstellerseiten mit 400mhz:
WinFast PX6800 Ultra TDH: http://www.leadtek.com.tw/eng/3d_graphic/specification.asp?pronameid=175&lineid=1&act=2
Gainward PowerPack! Ultra/2600PCX DV-DVI-DVI: http://www.gainward.de/new/products/pcx/ultra_2000/comparison.html
kauf sie dir und du wirst sehen, sie haben alle 425 MHz, hatte schon genug in der hand...

DrumDub
2005-05-21, 13:12:55
kauf sie dir und du wirst sehen, sie haben alle 425 MHz, hatte schon genug in der hand... und wieso bietet gainward dann extra noch modelle mit 400+ mhz an?

Coda
2005-05-21, 13:14:50
Dass du eher zur R520 greifen wirst.Es gibt noch keine handfesten Informationen zum R520, insofern ist die Aussage purer Blödsinn.

reunion
2005-05-21, 13:14:59
Wenn ich mir mal so überlege, wie der nV40 mit dem R480 mithält (oder auch nicht, je nach Perspektive) und wie sich das bei Einsatz von AA ändert und wie sich das bei Einsatz von AF ändert, denke ich, daß ein großer Teil der zusätzlichen Füllrate bei nV besser "genutzt" werden kann, als bei ATi.
*hint*


Jap, wenn du jetztigen Spekulationen stimmen, wird ATi den Füllratevorteil verlieren, allerdings wird auch nV den Technologievorteil verlieren.

dildo4u
2005-05-21, 13:15:06
und wieso bietet gainward dann extra noch modelle mit 400+ mhz an?
Die haben 450 AFIK

A.Wesker
2005-05-21, 13:17:36
und wieso bietet gainward dann extra noch modelle mit 400+ mhz an?
die 6800 Ultra GS hat 430 MHz coretakt bzw 450 MHz beim coolfx

Coda
2005-05-21, 13:19:46
Es gibt definitiv Karten mit nur 400Mhz. Das ist auch die Mindestvorgabe von nVidia.

A.Wesker
2005-05-21, 13:20:12
Es gibt definitiv Karten mit nur 400Mhz. Das ist auch die Mindestvorgabe von nVidia.
aber nur AGP karten

Coda
2005-05-21, 13:21:12
Nein eben nicht. Die Hersteller werden sicher nicht mit weniger Takt werben :rolleyes:

A.Wesker
2005-05-21, 13:21:48
Nein eben nicht.
dann sag mal welche 400 MHz coretakt haben

Coda
2005-05-21, 13:22:22
WinFast PX6800 Ultra TDH: http://www.leadtek.com.tw/eng/3d_gr...&lineid=1&act=2
Gainward PowerPack! Ultra/2600PCX DV-DVI-DVI: http://www.gainward.de/new/products...comparison.html

DrumDub
2005-05-21, 13:23:26
die 6800 Ultra GS hat 430 MHz coretakt bzw 450 MHz beim coolfx das habe ich auch nicht bestritten. siehe link oben. die ohne gs aber eben nicht. die läuft nur mit 400mhz.

reunion
2005-05-21, 13:24:40
2. Kann nVidia ihr scheiß unterfiltering nur für Performance auch bleiben lassen. Wenn "optimieren", dann wenigstens so wie ATi wo man es nicht sieht.
Vor allem hatte nV mal das deutlich bessere AF. Was ist damit bloß passiert?

Die Winkelabhängigkeit wäre mir ja noch relativ egal. Aber das flimmern nervt mich richtig derb.

Und das hat auch nichts mit dem LOD Clamp zu tun, das Problem existiert unabhängig davon.


ACK, das hat mich bei meinem Umstieg zur 6600GT auch gewundert, nachdem viele Berichte (auch auf 3DC) behaupteten das AF des NV40 sein besser als das des R420.

In der Praxis hat man starkes flimmern und deutlich sichtbare Optimierungen.

A.Wesker
2005-05-21, 13:25:54
das habe ich auch nicht bestritten. siehe link oben. die ohne gs aber eben nicht. die läuft nur mit 400mhz.
gerade die habe ich vor kurzem erst verbaut --> 425 MHz
weiter hatte ich eine Asus, 2xPov und eine XFX verbaut --> alle 425/1100


hier das Bios der Gainward non GS, geöffnet mit dem nibitor

http://home.arcor.de/jodee3/gainwardbios.JPG

Coda
2005-05-21, 13:31:49
Komisch ist der Unterschied zwischen 2D und 3D Takt. Aber nun gut, dann glaub ich dir das mal.

A.Wesker
2005-05-21, 13:33:29
Komisch ist der Unterschied zwischen 2D und 3D Takt. Aber nun gut, dann glaub ich dir das mal.
jo der 2d takt ist 400/1100 und im 3dmodus ist sie dann mit 425/1100 getaktet.

Sunrise
2005-05-21, 13:34:00
Es gibt noch keine handfesten Informationen zum R520, insofern ist die Aussage purer Blödsinn.

Coda, man kann enstprechende "Kritik" auch netter rüberbringen. Und da ich bei dir momentan keinen Grund für weitere Ausführungen erkennen kann, lassen wir es dabei.

Coda
2005-05-21, 13:36:33
1. Hat niemand ohne NDA handfeste Informationenen, auch wenn sie es uns glauben machen wollen.
2. Werden die die eine NDA unterzeichnet haben nichts sagen.
3. Kannst du nicht darüber mutmaßen was ich kaufen werde wenn sie mal erschienen ist. Ich bin weder ein ATi noch ein nVidia Fanboy.

SKYNET
2005-05-21, 13:41:47
:ulol: na ja, kannst ja behaupten was du willst, aber es stimmt einfach nicht:

http://www2.alternate.de/html/shop/productDetails.html?showTechData=true&artno=JAXE04&#tecData
http://www.fortknox.de/cat3.php?art=72130
http://secure.nurtec.de/cgi-bin/nurtec/D2287006.html?mv_pc=geiz
http://www3.atelco.de/8d8rHs_L-sZHJY/1/articledetail.jsp?aid=4487&agid=394&adp=0


ich wusste das es kommt... darum vorgesorgt:
asus: http://www.gamepc.com/labs/view_content.asp?id=6800upcie&page=2
club3d: http://www.hardwareluxx.de/cms/artikel.php?action=show&id=164
gigabyte: http://www.firingsquad.com/print_article.asp?current_section=Hardware&fs_article_id=1544
irgentwas japanisches: http://review.gzeasy.com/graphics/2005-04-06/graphics_1044_8.html

tombman hatte die asus(mal 2 versteht sich) im im übrigen schon, ebenfalls 425Mhz, PoV hat auch 425MHz(hab ich selber) sowie albatron(kumpel)...
darfst also nicht nach dem gehn was auf den hersteller seiten steht oder in den shops, sondern nach dem was die karten haben wenn du sie aus dem karton nimmst, und das ist definitiv 425MHz. :tongue:
wäre ja sonst auch zweckentfremdet wenn du 2x ultra hast, sie aber nicht im SLI laufen weil unterschiedlichen takt. X-D

die taktraten werden von den aufgelisteten shops falsch angegeben. der NV45 hat definitiv 425 MHz Coretakt


danke. :)

Coda
2005-05-21, 13:42:37
Naja im SLi soll man ja auch gleiche BIOS und Hersteller benützen :rolleyes:

SKYNET
2005-05-21, 13:44:17
ja, ne, is klar. deshalb stehen die auch auf den herstellerseiten mit 400mhz:
WinFast PX6800 Ultra TDH: http://www.leadtek.com.tw/eng/3d_graphic/specification.asp?pronameid=175&lineid=1&act=2
Gainward PowerPack! Ultra/2600PCX DV-DVI-DVI: http://www.gainward.de/new/products/pcx/ultra_2000/comparison.html

wie gesagt, es gibt auch ultra modelle mit 425 oder sogar 450mhz takt, aber das obliegt den boardvendors und ist keine vorgabe von nv selbst.


junge, kapier es endlich, was auf den hersteller seiten steht oder in den shops... oder in china fällt nen sack reis um.
die karten werden definitiv ALLE mit min. 425MHz core ausgeliefert.

Coda
2005-05-21, 13:44:54
Ich glaube ausgeliefert werden sie mit 0Mhz :D

SKYNET
2005-05-21, 13:45:25
und wieso bietet gainward dann extra noch modelle mit 400+ mhz an?


weil das + bei gayward immer bei den golden sample steht. :P


Es gibt definitiv Karten mit nur 400Mhz. Das ist auch die Mindestvorgabe von nVidia.


nur AGP, PCIe 425MHz.

SKYNET
2005-05-21, 13:49:58
gerade die habe ich vor kurzem erst verbaut --> 425 MHz
weiter hatte ich eine Asus, 2xPov und eine XFX verbaut --> alle 425/1100


hier das Bios der Gainward non GS, geöffnet mit dem nibitor

http://home.arcor.de/jodee3/gainwardbios.JPG


tadaaaa, danke danke. :massa:

@ DrumDub, und nun erwarte ich einen kniefall von dir mit fett "sorry". :P

Sunrise
2005-05-21, 13:51:56
1. Hat niemand ohne NDA handfeste Informationenen, auch wenn sie es uns glauben machen wollen.
2. Werden die die eine NDA unterzeichnet haben nichts sagen.
3. Kannst du nicht darüber mutmaßen was ich kaufen werde wenn sie mal erschienen ist. Ich bin weder ein ATi noch ein nVidia Fanboy.

Ich unterlasse es, dich in Zukunft direkt zu quoten. Mit dir scheint von "nicht-Fanboy" zu "nicht-Fanboy" ein objektives Gespräch (ohne Stammtisch-Äußerungen) nicht möglich zu sein. Weder kennen wir uns, noch weißt du, welche Infos ich habe.

Dies ist ein Speku-Forum und ich glaube nicht, dass du einschätzen kannst, was ich weiß und was nicht. Das gleiche gilt im Übrigen für mich auch. Es wird aber wohl doch erlaubt sein, davon auszugehen (hinsichtlich deiner Äußerungen), dass du auf Qualität - anstatt auf Speed - wertlegst ?
Wenn diese Vermutung falsch war, dann war sie falsch ;)

Coda
2005-05-21, 13:52:56
Bis auf das AF ist die Qualität bei nVidia ja besser. Wenn sie das jetzt auch noch in den Griff bekommen ist doch alles gut :rolleyes:

Zumindest wird ATi zu FP32 gezwungen. Mal sehen was sie mit dem Rest machen...

DrumDub
2005-05-21, 13:58:07
junge, kapier es endlich, was auf den hersteller seiten steht oder in den shops... oder in china fällt nen sack reis um.
die karten werden definitiv ALLE mit min. 425MHz core ausgeliefert. ich glaubs erst wenn ich es sehe, dass alle nv45 mit 425mhz laufen... aber egal.

Demirug
2005-05-21, 14:02:25
1. Hat niemand ohne NDA handfeste Informationenen, auch wenn sie es uns glauben machen wollen.
2. Werden die die eine NDA unterzeichnet haben nichts sagen.
3. Kannst du nicht darüber mutmaßen was ich kaufen werde wenn sie mal erschienen ist. Ich bin weder ein ATi noch ein nVidia Fanboy.

Heute kann man selbst Daten unter NDA nicht mehr trauen.

ShadowXX
2005-05-21, 14:11:05
ich glaubs erst wenn ich es sehe, dass alle nv45 mit 425mhz laufen... aber egal.

90% der XFX AGP 6800Ultras laufen sogar mit 425/1200......

Ich kenne insgesamt 10 Leute mit einer AGP 6800Ultra (Marken sind quer durch den Garten)...unter 425/1100 läuft da keine, die meisten haben sogar mehr Memtakt.

(Wohlgemerkt keine davon ist OC'ed....alles "Werkseinstellung")

Und genau aus diesem Grund finde ich den G70 auch etwas schwach für einen Chip der 1 Jahr nach dem nv40 auf den Markt kommt.


Heute kann man selbst Daten unter NDA nicht mehr trauen.

Für/wegen die/der suche nach leaks/Informanten??

A.Wesker
2005-05-21, 14:14:33
ich glaubs erst wenn ich es sehe, dass alle nv45 mit 425mhz laufen... aber egal.

weitere beispiele:

Gigabyte 6800 Ultra PCIe

http://home.arcor.de/jodee3/gigabyte.JPG


Leadtek 6800 Ultra PCIe

http://home.arcor.de/jodee3/leadtek6800ubios.JPG


sollte als beweis reichen. es haben alle 425 coretakt!

Gast
2005-05-21, 14:21:03
Ein Refresh mit 8 zusätzlichen Pipes, höherem Chip- und Speicher-Takt...Ich nenne das mal eine gute Leistung. R420 --> R480 ist in meinen Augen ein Refresh, der G70 ist schon ein starker Refresh. Ich gehe von ca. 30% Mehrleistung aus, dass finde ich nicht schlecht. Wenn die Karten gut verfügbar sind und nicht allzu viel mehr kosten als die NV40, dann ist doch alles glatt gelaufen und der Sinn des Refreshs ist voll erfüllt :)

BTW:

Q: One more question: R520 or G70?
Tim Sweeny: *laugh* G70, for sure!

Hier (http://dmode.datamachine.net/sweeneyinterview.html) das Interview!

Und wenn ich jetzt noch wüsste, wofür die Grafikkarte Füllrate braucht ;D

1. 30% mehrleistung ist schlecht

2. tim sweeny hat eine vertrag mit nv was soll der sonst antworten als "nv karten sind so geil"

DrumDub
2005-05-21, 14:25:32
und hier der gegenbeweis von nvidia selber, dass eben nicht alle 6800u pcie mit 425mhz laufen:

http://img133.echo.cx/img133/5004/nvbios9re.gif (http://www.imageshack.us)

link zum bios-file: http://www.mvktech.net/index.php?option=com_remository&Itemid=26&func=fileinfo&parent=folder&filecatid=447

Ronny145
2005-05-21, 14:27:43
Aber keine wird mit 400 ausgeliefert. Schau mal auf den Hersteller und das Datum.

DrumDub
2005-05-21, 14:34:39
Aber keine wird mit 400 ausgeliefert. Schau mal auf den Hersteller und das Datum. ja, das scheint zu stimmen. bin mal alle bios-files auf der website von http://www.mvktech.net durchgegangen und nur dieses eine von nvidia selbst war mit 400mhz getaktet.
die frage bleibt halt, ob es jemals ein vorgabe für 425mhz von nvidia selbst gegeben hat... die boardvedors haben sich wohl ausnahmslos auf 425mhz festgelegt.

SKYNET
2005-05-21, 14:38:55
und hier der gegenbeweis von nvidia selber, dass eben nicht alle 6800u pcie mit 425mhz laufen:

http://img133.echo.cx/img133/5004/nvbios9re.gif (http://www.imageshack.us)

link zum bios-file: http://www.mvktech.net/index.php?option=com_remository&Itemid=26&func=fileinfo&parent=folder&filecatid=447


von oktober 2004... :rolleyes:
da gabs noch nichtmal ne PCIe ultra....


ja, das scheint zu stimmen. bin mal alle bios-files auf der website von http://www.mvktech.net durchgegangen und nur dieses eine von nvidia selbst war mit 400mhz getaktet.
die frage bleibt halt, ob es jemals ein vorgabe für 425mhz von nvidia selbst gegeben hat... die boardvedors haben sich wohl ausnahmslos auf 425mhz festgelegt.


lalala.... wer wohl recht hatte *sing* lalala.... *sing* :P

Coda
2005-05-21, 16:16:08
von oktober 2004...
da gabs noch nichtmal ne PCIe ultra....Öh. Die BIOS Version war wohl schon vor Auslieferung fertig.

Außerdem glaube ich schon dass es die Karten da schon gab.

Gast
2005-05-21, 19:04:06
Naja im SLi soll man ja auch gleiche BIOS und Hersteller benützen :rolleyes:

Tja, aber nicht bei ATIs MVPU! :) Da ist das wurscht! so sollte es auch sein!

Coda
2005-05-21, 19:06:26
Ich glaube kaum dass das im Zielkundekreis von SLi/MVP eine große Rolle spielt.

Ailuros
2005-05-21, 19:56:44
Das Problem an diesem Beispiel ist allerdings das der G70 nur eine Bandbreite von 38,4GB/s hat und nicht 44,8GB/s....

Das Problem ist eher dass in den geleakten Specs zwar 38.4 GB/sec drinsteht, aber auch zur gleichen Zeit 1400 GDDR3. Welcher der beiden ist jetzt der Tippfehler genau?

AFAIK soll G70 700MHz GDDR3 und so stets auch bei meinem Zeug drin; falls es falsch sein sollte dann ist es natuerlich nicht mein Fehler.

Nichtdestominder aber wuerde ich an Deiner Stelle nach dem Paradoxen der Geschichte suchen und nachdenken welche der Beiden genau mehr Sinn macht (und ja es ist auch nicht das erste Mal dass ich darauf deute).



Also gerade mal 9% mehr Bandbreite gegenüber einer "normalen" nv40Ultra....wobei sehr viele Ultras sowieso schon mit 600MHz Speichertakt arbeiten.
(steht so übrigens auch in den News und auf der Folie von nV ist es auch vermerkt (die Bandbreite))

Der G70 wird es schwer gegen den r520 haben, falls ATI schon mit 700MHz Speicher kommt.....

IMHO hätte der G70 schon Februar/März käuflich erwerbbar sein müssen, um ihn als gelungen zu bezeichenen.
Dafür das er 1 Jahr nach dem nv40 rauskommt, bietet er meiner Meinung nach zu wenig mehrspeed.

Noch viel stärker unter dem Gesichtspunkt, das bis zu den WGF2.0-Karten nix mehr grossartig neues kommt....

Ich bin ja normalerweise nicht so pessimistisch und die meisten Aussagen des/der Gastes/Gäste sind natürlich nicht ganz so ernst zu nehmen, aber in RL-Benchmarks (also ausserhalb des synthetischen Zeugs) erwarte ich vom G70 höchsten 15-20% mehrperformance.
Ein klassicher Refresh IMHO, aber dafür kommt er eigentlich zu spät.

Siehe oben.

Ailuros
2005-05-21, 20:00:00
wo liegt dein problem? schaltest halt einfach SS zu wenns dich stört. =)

Hilft nichts da es mit dem AF-Algorithmus verbunden ist. Mit der "Klammer" geht das meiste jedoch schon weg.

***edit: das einzige was Supersampling im Fall vom Textur-Flicker-Problem anrichten wird, ist die "problematische MIPmap" um -0.5 (bei 2xSSAA) oder -1.0 (bei 4xSSAA) in die weitere Ferne verschieben. Das Problem geht nicht weg, egal ob high quality AF oder supersampling. Es wird um einiges besser wenn man entweder einen positiven LOD einsetzt (bis zu +0.5 noch akzeptabel) oder eben die "Klammer" durgehend benutzt.

Die Klammer zwingt sozusagen die Applikation keine negativen LOD unter "0" zu benutzen, und so sollte es auch sowieso sein. Was jetzt so merkwuerdig am AF-Algorithmus ist seitdem die Winkel-abhaengigkeit implementiert wurde, kann ich natuerlich nicht wissen, aber es sieht nach einem reinen Algorithmischen Fehler aus und kein (reines) HW-Problem.