PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

Ziggi Stardust
2005-02-25, 21:13:42
MATROX? Sie sind keine Aktiengesellschaft, die müssen nicht an die Dividende denken, da kann man noch einsame Entscheidungen im Warroom treffen. Ich hatte sowieso das Gefühl, das Matrox mit der Parhelia wieder im Unterhaltungssektor mitmischen wollte, sie war ja auch sehr ambitioniert. Nur leider war sie nicht allzu gut gelungen, und leider ist ihr auch noch der Riesenbrocken R300 auf den Schädel gedonnert. Das war doch damals auch eine Überraschung für alle, einschließlich NVIDIA. Matrox hat sicher viel Geld in die Entwicklung gesteckt, das gibt man doch nicht einfach nach dem ersten Anlauf wieder auf? Nicht vergessen, es gab Zeiten, da war eine Matrox das Beste was es gab auf dem Markt – für Spieler. Nur so ein Gedanke.

reunion
2005-02-25, 21:34:24
Unwahrscheinlich das es sich um eine PVR handelt ist es schon....aber wohl nicht völlig unmöglich.

Einer der PVR-Gurus (dessen Name mir gerade nicht einfällt) meinte AFAIR einmal, das die Sache mit der Series 5 noch nicht zu 100% vom Tisch ist......

Allerdings wäre AiL dann wohl schon längst in Erscheinung getreten oder hätte in anderen Threads schon was in diese Richtung erzählt....

Es ist mit Sicherheit eine Karte von Ati und nV, und da die Seite als äußerst ATi freundlich gilt wäre alles andere als einen ATi Karte eine rießen Überraschung. Oder glaubt hier irgendjemand das ein dritter Hersteller in der Lage ist 40.000 3dmark-Punkte zu erreichen und damit Ati und nV derart zu übertrumpfen?

Da man auf dem Bild nur eine Karte sieht bleiben für mich nur zwei Möglichkeiten, Fake oder R520.

reunion
2005-02-25, 21:42:45
MATROX? Sie sind keine Aktiengesellschaft, die müssen nicht an die Dividende denken, da kann man noch einsame Entscheidungen im Warroom treffen. Ich hatte sowieso das Gefühl, das Matrox mit der Parhelia wieder im Unterhaltungssektor mitmischen wollte, sie war ja auch sehr ambitioniert. Nur leider war sie nicht allzu gut gelungen, und leider ist ihr auch noch der Riesenbrocken R300 auf den Schädel gedonnert. Das war doch damals auch eine Überraschung für alle, einschließlich NVIDIA. Matrox hat sicher viel Geld in die Entwicklung gesteckt, das gibt man doch nicht einfach nach dem ersten Anlauf wieder auf? Nicht vergessen, es gab Zeiten, da war eine Matrox das Beste was es gab auf dem Markt – für Spieler. Nur so ein Gedanke.

Wenn man sich ansieht wieviel Ressourcen, sowohl finanziell als auch menschlich, ATi und nV haben und wieviel Matrox hat, dann kann man Matrox eigendlich zu 99% ausschließen.

Coda
2005-02-25, 21:54:50
Was auch immer es ist, mir wäre eine 3. Partei lieber als nVidia oder ATi

-error-
2005-02-25, 22:08:51
Was auch immer es ist, mir wäre eine 3. Partei lieber als nVidia oder ATi

Hmm ne, 2 reichen. Dann müssen die Spieleentwickler noch die anderen Grafikchispätze unterstützen, außerdem wüsste der Kunde dann wirklich nicht mehr, was er kaufen sollte.

-error-
2005-02-25, 22:11:52
Und ich glaube, dass das ein PR-Gag von ATI gewesen ist. Für genug Aufsehen haben sie ja jetzt gesorgt, genau das wollte man.

FlashBFE
2005-02-25, 22:39:46
Hmm ne, 2 reichen. Dann müssen die Spieleentwickler noch die anderen Grafikchispätze unterstützen, außerdem wüsste der Kunde dann wirklich nicht mehr, was er kaufen sollte.

Das ist doch nicht dein Ernst, oder? Es gibt nicht umsonst Shaderstandards sowie DirectX und OpenGL.

Die Spiele kriegen nur spezielle Optimierungen, weil NV/ATI Beratungsteams kostenlos zu den Spieleproduzenten (mit den vielversprechendsten Spielen) geschickt werden, die dort die Entwickler beraten und Tipps beim Programmieren geben, wie nun die Software am besten auf dem jeweiligen Chip läuft.

Kleinere Grafikunternehmen können sich das zwar nicht leisten, aber wenn sie die definierten Standards performant umsetzen, dann hätten die Spielentwickler keine zusätzlichen Probleme.

Edit: Und dass der Kunde sich nicht entscheiden könnte, ist ja nun der Oberhammer :biggrin: .

Coda
2005-02-25, 22:42:59
Hmm ne, 2 reichen. Dann müssen die Spieleentwickler noch die anderen Grafikchispätze unterstützen, außerdem wüsste der Kunde dann wirklich nicht mehr, was er kaufen sollte.Unterstützen? Direct3D und OpenGL funktionieren für alle Karten genau gleich.

In der Zukunft lassen sich Shader sowieso nur noch generisch optimieren, da kann man nich viel spezifisch optimieren.

Vielfalt ist immer gut. Und der DAU weiß sowieso nicht was er kaufen soll.

Ziggi Stardust
2005-02-25, 23:29:58
Wenn man sich ansieht wieviel Ressourcen, sowohl finanziell als auch menschlich, ATi und nV haben und wieviel Matrox hat, dann kann man Matrox eigendlich zu 99% ausschließen.
Hmm, guck mal wie lange von Matrox nichs mehr gekommen ist, was wirklich Ressourcen gekostet haben könnte. Während NVIDIA und ATI sich gegenseitig aufreiben, mit Produktionsschwierigkeiten und neuen Generationen, XBOX, PS3 und Chipsets beschäftigt sind, kann man bei denen im stillen Kämmerlein langfristig den großen Coup planen und sich auf eine Generation konzentrieren, ohne Hektik und völlig unbehelligt, aufbauend auf die Erfahrungen mit der Parhelia. Ohne Druck von Konkurenten, Presse, Softwareentwicklern oder Aktionären. Halte ich nicht zu 99 % für ausgeschlossen – das spart jede Menge an Ressourcen. Ein Beispiel, guck Dir mal an wie weit es Logitech gegenüber M$ gebracht hat. Ich erwarte jetzt nicht das Selbe von Matrox, aber das Kräfteverhältnis war zu Beginn sicher noch ungünstiger für Logitech, als das Jetzige von Matrox. Soweit ich weiß, ist die ehemals kleine schweizer Hinterhof-Bastelstube (was Eingabegeräte betrifft) an M$ inzwischen mit Volldampf vorbeigezogen. :) Aber es muß nicht Matrox sein. Ich will nur deutlich machen, daß es nicht absolut unwahrscheinlich ist.
Hmm ne, 2 reichen. Dann müssen die Spieleentwickler noch die anderen Grafikchispätze unterstützen, außerdem wüsste der Kunde dann wirklich nicht mehr, was er kaufen sollte.
Kann ich nicht nachvollziehen. Konkurrenz wird der Branche sicher nicht schaden, wieso auch? Die Kunden bekommen von irgendwen schon gesagt, was gerade angesagt ist, da mache ich mir keine Sorgen. Und was die Softwarehäuser anbelangt: Entweder muß wirklich für jeden Chip optimiert werden, aber das kümmert mich peripher als Kunde, oder sie kehren wieder zu einem einheitlichen Pfad zurück – auch nicht verkehrt. Nicht vergessen, durch einen dritten Spieler käme natürlich auch wieder mehr Geld in die Branche, jeder Chiphersteller wird ja auch weiter versuchen, möglichst guten Support zu bieten. Ich sehe das jedenfalls nur positiv. :)
Und ich glaube, dass das ein PR-Gag von ATI gewesen ist. Für genug Aufsehen haben sie ja jetzt gesorgt, genau das wollte man.
Ich glaube NVIDIA kann man ziemlich sicher ausschließen, das paßt nicht zu der Seite. Ich dachte auch erst an ATI, aber so oft (schon fast penetrant) wie er jetzt ATI schon verneint hat, glaube ich daran nicht mehr! Wenn man sich die Zitate, die ich gepostet habe, mal unbefangen durchliest, muß man zu dem Schluß kommen, daß ein DRITTER gemeint ist! Deutlicher kann er es gar nicht mehr sagen, ohne es wörtlich zu sagen! Er erwähnt ja sogar die neue ATI-Karte, und sagt, daß sie es nicht ist. Nochmal:
Well you see you are sucked into the ATI hype. I never said in the first post the GFX in the test rig was ATI. Solche harten Worte von jemanden der, der nur für ATI Werbung machen möchte?
There will indeed be a 512 meg card showing up very soon and for those of you going to Dallas for the lan event you will be in for some nice surprises.Hier bestätigt er sogar, daß ATI dort eine Karte vorstellt, und das hat er geschrieben, bevor das klar war und von ATI selbst mitgeteilt wurde! Ein NDA brechen, um dann wenig später wieder alles abzustreiten? I never said in the first post the GFX in the test rig was ATI. Und laß mal den Satz auf Dich wirken:
I know there are a million and one questions …Ist das nicht ein Bißchen dick aufgetragen, für nur eine Karte, von der sowieso jeder meint zu wissen, welche es ist? :O … but I cant answer them for legal reasons, I will say, there are good times ahead in 2005. Für mich ziemlich eindeutig eine zu grundsätzliche Aussage, für einen Grafikchip, von dem man nicht mal weiß, wie er sich gegen NVIDIA schlägt. Heißt für mich, 2005 wird sich einiges tun auf dem Markt, es kommt nämlich ein Unerwarteter dazu! :O

TheCounter
2005-02-25, 23:39:07
Da er eine NDA unterzeichnet hat wird er kaum zugeben das die Karte von ATi ist und wird auch versuchen das Gegenteil zu schreiben. Vlt. hat ihn auch ATi schon kontaktiert und gesagt er soll das ganze mehr in Richtung eines Drittherstellers treiben ;)

Wer weis...

-error-
2005-02-26, 01:34:58
Ich meinte das so. Nehmen wir mal es gäbe nur einen Grafikchipsatz, dann würde die Spielentwickler es wesentlich leichter haben (bei der Programmierung) und das Spiel würde auch viel schneller ablaufen, es reicht wenn sich 2 Firmen bekriegen, die Preise fallen ganz bestimmt nicht, ein dritter Hersteller muss erstmal auf das Niveou der beiden Giganten kommen - das wird NIE passieren NIE.
Dafür sind sie zu etabliert und praktisch unangreifbar.

Sieht man doch an XGI, die sollten es lieber ganz lassen, als sinnlos Geld in die Entwicklung von Chips zu stecken, wenn die noch nichtmal ordentliche Treiber hinbekommen, dass man sowas überhaupt auf den Markt schmeißt, ist schon ziemlich dreißt!

Ailuros
2005-02-26, 02:50:15
Hmm, guck mal wie lange von Matrox nichs mehr gekommen ist, was wirklich Ressourcen gekostet haben könnte. Während NVIDIA und ATI sich gegenseitig aufreiben, mit Produktionsschwierigkeiten und neuen Generationen, XBOX, PS3 und Chipsets beschäftigt sind, kann man bei denen im stillen Kämmerlein langfristig den großen Coup planen und sich auf eine Generation konzentrieren, ohne Hektik und völlig unbehelligt, aufbauend auf die Erfahrungen mit der Parhelia. Ohne Druck von Konkurenten, Presse, Softwareentwicklern oder Aktionären. Halte ich nicht zu 99 % für ausgeschlossen – das spart jede Menge an Ressourcen. Ein Beispiel, guck Dir mal an wie weit es Logitech gegenüber M$ gebracht hat. Ich erwarte jetzt nicht das Selbe von Matrox, aber das Kräfteverhältnis war zu Beginn sicher noch ungünstiger für Logitech, als das Jetzige von Matrox. Soweit ich weiß, ist die ehemals kleine schweizer Hinterhof-Bastelstube (was Eingabegeräte betrifft) an M$ inzwischen mit Volldampf vorbeigezogen. Aber es muß nicht Matrox sein. Ich will nur deutlich machen, daß es nicht absolut unwahrscheinlich ist.

Die Chancen dass ein kleiner Spieler je rechtzeitig mit einem wahren konkurrenzfaehigen high end Design auf den Markt kommt sind minimal und schon gar nicht Matrox. Erstens haben sie auch nicht die Resourcen dazu und den fehlts sehr stark an Personal.

Bei der finanziellen Situation bei Matrox gibt es ja nicht mal den Willen fuer solch ein Projekt.

Und der Vergleich von dem was Logitech liefert mit hochkomplizierten GPUs ist auch nicht das beste Beispiel.

Ziggi Stardust
2005-02-26, 03:08:10
Die Chancen dass ein kleiner Spieler je rechtzeitig mit einem wahren konkurrenzfaehigen high end Design auf den Markt kommt sind minimal und schon gar nicht Matrox. Erstens haben sie auch nicht die Resourcen dazu und den fehlts sehr stark an Personal.

Bei der finanziellen Situation bei Matrox gibt es ja nicht mal den Willen fuer solch ein Projekt.

Und der Vergleich von dem was Logitech liefert mit hochkomplizierten GPUs ist auch nicht das beste Beispiel.
Ist halt ein Beispiel, dafür finde ich es eigentlich ganz brauchbar. :)
Wenn jeder Unternehmer so denken würde, dann würden die Engländer heute noch den Welthandel mit Segelschiffen beherrschen.

BodyLove
2005-02-26, 06:19:42
Es ist mit Sicherheit eine Karte von Ati und nV, und da die Seite als äußerst ATi freundlich gilt wäre alles andere als einen ATi Karte eine rießen Überraschung. Oder glaubt hier irgendjemand das ein dritter Hersteller in der Lage ist 40.000 3dmark-Punkte zu erreichen und damit Ati und nV derart zu übertrumpfen?

Da man auf dem Bild nur eine Karte sieht bleiben für mich nur zwei Möglichkeiten, Fake oder R520.

Was mich etwas stört ist, dass selbst ein SLI System mit 2 6800Ultras und einer FX-55 gerade so an 30k schnuppern, da soll eine Grafikkarte kommen, die hier 40k schaffen soll? :|

wuddu
2005-02-26, 08:05:00
in Verbund mit ´nem FX55 reicht AFAIK auch EINE X850XT_PE für ~30K@3dK01!

Godmode
2005-02-26, 09:30:04
Wann soll die Karte eigentlich gezeigt werden? heute oder morgen?

Coda
2005-02-26, 10:20:08
dann würde die Spielentwickler es wesentlich leichter haben (bei der Programmierung)Nö. Weil eh alle gleich programmiert werden.

Sieht man doch an XGI, die sollten es lieber ganz lassen, als sinnlos Geld in die Entwicklung von Chips zu stecken, wenn die noch nichtmal ordentliche Treiber hinbekommen, dass man sowas überhaupt auf den Markt schmeißt, ist schon ziemlich dreißt!ATi hatte am Anfang auch beschissene Treiber.

Ailuros
2005-02-26, 11:53:30
Ist halt ein Beispiel, dafür finde ich es eigentlich ganz brauchbar. :)
Wenn jeder Unternehmer so denken würde, dann würden die Engländer heute noch den Welthandel mit Segelschiffen beherrschen.

In jedem anderem Markt sind die Faktoren auch tolerabel. Im PC GPU Markt mit so feister Konkurrenz von zwei Giga-IHVs und einem Markt der sich schneller als jeder andere bewegt eben nicht.

Zeig mir einen chip der Vergangenheit von 1998 bis heute von den "anderen" IHVs der nicht nur um einiges zu spaet ankam, sondern es fehlte meistens auch irgend etwas. Am Angang von 3D wo alle IHVs relativ klein waren bestanden auch andere Chancen, aber heutzutage sind ATI/NVIDIA zu solchen Giganten gewachsen mit etwa 2200 Angestellten zumindest jeder und man gibt hunderte von Mio $ fuer die Entwicklung jeder Produkt-linie aus.

Intel koennte unter Umstaenden mit besserer HW und besseren Treibern sich vielleicht mal in den standalone desktop Bereich wagen; es besteht aber kein besonderer Grund fuer sie, da sie sowieso mit ihrem integrierten Zeug die meisten Einheiten verkaufen.

ATi hatte am Anfang auch beschissene Treiber.

Welcher Anfang genau? ATI kam auch nicht gestern auf den Markt und so schlecht waren ATI's Treiber nie. Es gab Zeiten wo sich ATI ueber desktop gaming nicht allzu viel scherte, aber sie haben auch fett im OEM segment verkauft. Nur als NVIDIA langsam ATI's OEM Anteile angriff, kam die letztere zum Gegenangriff.

Du kannst ja gerne auch heute noch eine Radeon oder Rage Fury gegen eine equivalente SiS Loesung aus den Jahren 1999/2000 stellen mit den damaligen Treibern.

reunion
2005-02-26, 13:51:32
Wann soll die Karte eigentlich gezeigt werden? heute oder morgen?

Wie kommst du darauf das die Karte heute oder morgen "gezeigt" werden soll?

TheCounter
2005-02-26, 14:05:34
Wie kommst du darauf das die Karte heute oder morgen "gezeigt" werden soll?

Er meint nicht den vermutlichen R520 sondern die X850XT-PE mit 512MB.

EDIT:

Tja, er hat ihn doch gemeint ;D

Godmode
2005-02-26, 14:30:25
Wie kommst du darauf das die Karte heute oder morgen "gezeigt" werden soll?

Ich dachte das nette Teil wird eben auf dieser Overclocker Party vorgestellt ;) Ka warum ich darauf gekommen bin!

ShadowXX
2005-02-26, 14:35:07
Er meint nicht den vermutlichen R520 sondern die X850XT-PE mit 512MB.

Ich Frage mich aber auch, warum ATI ihm einfach mal eine r520 zum Testen "zustecken" sollte....

Wenn ATI jetzt schon anfangen würde die r520 Samples so grosszügig unter Testwilligen zu verteilen, hätten wir IMO schon mehr infos als diese eine Quelle.

Jesus
2005-02-26, 14:38:50
Auf jeden Fall ist es gut und wohl wesentlich schneller als alles was es derzeit gibt (inkl. nv SLI) wenn man den Zahlen glauben darf :)

Razor
2005-02-26, 14:40:02
Auf jeden Fall ist es gut und wohl wesentlich schneller als alles was es derzeit gibt (inkl. nv SLI) wenn man den Zahlen glauben darf :)Was sollte einen dazu bringen, solch unsinnigen Zahlen zu 'glauben'?
:confused:

Razor

nagus
2005-02-26, 15:02:19
Was sollte einen dazu bringen, solch unsinnigen Zahlen zu 'glauben'?
:confused:

Razor

gegenfrage: was sollte zardon dazu bringen "unsinnige" (oder falsche) zahlen zu verbreiten? das schadet ihm doch nur wenn sich heraustellt, dass das alles ein riesiger schwindel war. ich denke nicht, dass er sowas riskiert.

die frage ist nicht ob es sich um einen prototyp einer r520 handelt, die frage ist, wann wir mehr sehen :)

TheCounter
2005-02-26, 15:49:07
gegenfrage: was sollte zardon dazu bringen "unsinnige" (oder falsche) zahlen zu verbreiten? das schadet ihm doch nur wenn sich heraustellt, dass das alles ein riesiger schwindel war. ich denke nicht, dass er sowas riskiert.

Es würde nichtnur ihm schaden sondern auch seiner Seite, er ist ja der Inhaber von driverheaven.net.

Ich denke schon das die Zahlen real sind. Ich tippe jedenfalls auf einen R520 Prototypen (Dürfte ja nichtmehr lange bis zur Vorstellung dauern, dann dürfte die NDA auch auslaufen).

Kann mir gut vorstellen das ATi dem ganzen zugestimmt hat um die Aufmerksamkeit auf sich zu ziehen. Geschafft hat das Zardon zumindest :)

dildo4u
2005-02-26, 17:34:29
Noch ein paar pics zum ATI OC event mit der X850XT mit 512MB

http://www.xtremesystems.org/forums/showthread.php?p=731469#post731469

Ziggi Stardust
2005-02-26, 18:19:16
In jedem anderem Markt sind die Faktoren auch tolerabel. Im PC GPU Markt mit so feister Konkurrenz von zwei Giga-IHVs und einem Markt der sich schneller als jeder andere bewegt eben nicht.

Zeig mir einen chip der Vergangenheit von 1998 bis heute von den "anderen" IHVs der nicht nur um einiges zu spaet ankam, sondern es fehlte meistens auch irgend etwas. Am Angang von 3D wo alle IHVs relativ klein waren bestanden auch andere Chancen, aber heutzutage sind ATI/NVIDIA zu solchen Giganten gewachsen mit etwa 2200 Angestellten zumindest jeder und man gibt hunderte von Mio $ fuer die Entwicklung jeder Produkt-linie aus.

Intel koennte unter Umstaenden mit besserer HW und besseren Treibern sich vielleicht mal in den standalone desktop Bereich wagen; es besteht aber kein besonderer Grund fuer sie, da sie sowieso mit ihrem integrierten Zeug die meisten Einheiten verkaufen.

Sehe ich nicht so kategorisch wie Du. Wie ich es mir im Falle von Matrox vorstellen könnte, habe ich ja schon weiter oben geschrieben. Übrigens wird ja XGI sowieso 2007 der Marktführer sein! ;) In dem Markt steckt jede Menge Geld und er ist mit zwei quasi Duopolisten viel zu rar beackert. Gerade in diesem rasanten Markt ist man vor Überraschungen nicht sicher. Siehe 3DFX, sie haben den Markt beherrscht, ihre eigene Schnittstelle Glide hatte das potential zum Standard und wurde breit unterstützt. Und wo sind sie jetzt? Geschluckt! Was wäre eigentlich, wenn Microsoft sich entscheiden würde, Grafikchips zu bauen? Mal was ganz verrücktes! :) Sie haben genug Geld, sie kaufen jetzt schon Blaupausen für ihre Konsolen (also quasi Know-how), haben also auch einen Bedarf und, besonders vorteilhaft, sie formulieren auch, was so ein Chip können muß. ;)

reunion
2005-02-26, 21:10:43
Was sollte einen dazu bringen, solch unsinnigen Zahlen zu 'glauben'?
:confused:

Razor

Wenn Zardon behauptet er hat eine Karte die solche Zahlen ermöglicht dann stimmt das auch. Er ist mit Sicherheit nicht so blöd den Ruf von sich- und seiner Webseite aufs Spiel zu setzten. Die Frage ist nur um welche Karte es sich handelt und wann wir sie zu gesicht bekommen.

Ailuros
2005-02-27, 03:06:14
Sehe ich nicht so kategorisch wie Du. Wie ich es mir im Falle von Matrox vorstellen könnte, habe ich ja schon weiter oben geschrieben.

Vorstellen und traeumen kann ich persoenlich auch vieles. Die Realitaet ist aber ganz was anderes. Wo ist denn all die Jahre ein zeitiger und konkurrenzfaehiger 3D chip von Matrox den ich verpasst habe?

Übrigens wird ja XGI sowieso 2007 der Marktführer sein! ;)

Das soll wohl ein Scherz sein oder?

In dem Markt steckt jede Menge Geld und er ist mit zwei quasi Duopolisten viel zu rar beackert. Gerade in diesem rasanten Markt ist man vor Überraschungen nicht sicher.

Beispiele und bitte schoen nett dokumentierte seit zumindest 2000. Eintagsfliegen und ein Millioenchen verkauften Einheiten im besten Fall. :|

Siehe 3DFX, sie haben den Markt beherrscht, ihre eigene Schnittstelle Glide hatte das potential zum Standard und wurde breit unterstützt.

3dfx hatte einen Vorrang von ca. 2 Jahren und dann ging es bergab als man die sowieso nicht allzu grossen Prozentuale im OEM noch dazu verlor. Wer war zu den Zeiten das Lieblings-Kind im OEM Markt?

Und wo sind sie jetzt? Geschluckt! Was wäre eigentlich, wenn Microsoft sich entscheiden würde, Grafikchips zu bauen?

Mach mir keine Angst. Microsoft ist schlau genug und lizenziert Technologie von den beiden grossen IHVs fuer ihre Consolen; ist auch um einige Male billiger als eine gesamte Entwicklungsabteilung fuer Grafik-chips.

Mal was ganz verrücktes! :) Sie haben genug Geld, sie kaufen jetzt schon Blaupausen für ihre Konsolen (also quasi Know-how), haben also auch einen Bedarf und, besonders vorteilhaft, sie formulieren auch, was so ein Chip können muß. ;)

Du hast wirklich eine sehr merkwuerdige Vorstellung was den Grafik-Markt betrifft. Traeumen oder glauben darf natuerlich jeder was er will, aber die Realitaet dort draussen beweisst momentan ganz was anderes. Selbst SONY griff nach all den Jahren zu einer Grafik-Lizenz von NVIDIA, obwohl sie selber eine Grafik-abteilung haben.

wuddu
2005-02-27, 09:14:10
was mir eigentlich wenig logisch erscheint ist folgendes: wenn der r520 nix weiteres ist, als ein Abklatsch ala´ R420 incl. SM3.0-Aufsatz, welcher ja dann wohl trotzdem wieder einiges an Entwicklungskosten verschlungen hat, um dann im nächsten Jahr den R6xx@WGF2.0 herauszubringen - macht imo keinen Sinn, da mit dem R520 in diesem Zeitraum wohl relativ wenig Geld verdient werden kann - selbst wenn er denn wirklich ähnlich schnell ist, als 6800U@SLI.

Deshalb meine Frage: Ist es denn völlig undenkbar, daß der R520 voll WGF2.0- und SM3.0-fähig ist und der R6xx denn nix anderes als ein Speed-Upgrade darstellt. Ähnlich war ja ATI´s Strategie bereits beim R300.

Razor
2005-02-27, 09:53:39
Wenn Zardon behauptet er hat eine Karte die solche Zahlen ermöglicht dann stimmt das auch. Er ist mit Sicherheit nicht so blöd den Ruf von sich- und seiner Webseite aufs Spiel zu setzten. Die Frage ist nur um welche Karte es sich handelt und wann wir sie zu gesicht bekommen.Jetzt bist Du schon der Dritte, der solch einen Müll behauptet.
Ein Name heißt für mich noch lange nicht 'Fakt'...

Einige hier sind wirklich zu gutgläubig... da zählt offenbar kein 'wissen' sondern mehr das 'wunschglauben'.

Razor

Razor
2005-02-27, 09:54:33
Es würde nichtnur ihm schaden sondern auch seiner Seite, er ist ja der Inhaber von driverheaven.net.

Ich denke schon das die Zahlen real sind. Ich tippe jedenfalls auf einen R520 Prototypen (Dürfte ja nichtmehr lange bis zur Vorstellung dauern, dann dürfte die NDA auch auslaufen).

Kann mir gut vorstellen das ATi dem ganzen zugestimmt hat um die Aufmerksamkeit auf sich zu ziehen. Geschafft hat das Zardon zumindest :)Mal ein paar Fragen zum Nachdenken:

- was soll mir ein 'Score' von 40T im Murks01 sagen? Sagenhafte CPU-Power? Wen interessierts?

- warum nicht ein einziger Wert, mit dem man wirklich was anfangen kann?

- warum diese Geheimniskrämerei, wenn's doch mehr oder minder halboffiziell ist?

Also ich halte das für einen riesen Fake, welcher mit dem "guten Namen" einer recht renomierten (aber ATI orientierten) Site unterfüttert wird. Vermutlich wird dann igendwann kommen... "OK, war eine R520, aber mit einem CPU-Unterbau der heute nicht so ganz üblich ist!"... und schon ist die jetzige 'Ente' legalisiert.

Diese Zahl sagt ABSOLUT NICHTS aus.
Das Ganze ist vermutlich nur ein PR-Gag seitens ATI...

Razor

-error-
2005-02-27, 10:39:18
Vielleicht ein Dualcore? Oder ein Opteron stark übertaktet?

ShadowXX
2005-02-27, 11:00:03
Mal ein paar Fragen zum Nachdenken:

- was soll mir ein 'Score' von 40T im Murks01 sagen? Sagenhafte CPU-Power? Wen interessierts?

- warum nicht ein einziger Wert, mit dem man wirklich was anfangen kann?

- warum diese Geheimniskrämerei, wenn's doch mehr oder minder halboffiziell ist?

Also ich halte das für einen riesen Fake, welcher mit dem "guten Namen" einer recht renomierten (aber ATI orientierten) Site unterfüttert wird. Vermutlich wird dann igendwann kommen... "OK, war eine R520, aber mit einem CPU-Unterbau der heute nicht so ganz üblich ist!"... und schon ist die jetzige 'Ente' legalisiert.

Diese Zahl sagt ABSOLUT NICHTS aus.
Das Ganze ist vermutlich nur ein PR-Gag seitens ATI...

Razor

Oder er sagt einfach gar nichts mehr und in spätestens 2 Monaten kann sich sowieso keiner mehr so genau daran erinneren....

Und wenn ihn dann doch noch mal jemand darauf anspricht, wars eben ein r520.....das Gegenteil kann ihm doch sowieso keiner Beweisen.

Wie Razor schon erwähnte......wenn das wenigstens 3DMark05 Ergebnisse wären...aber so. Wer zum Teufel würde eine Super-Duber-Neue-GraKa heutzutage mit dem 3DMurks2001 testen??

Ich hab übrigens gerade mit einen anderen Prototypen von was ganz anderem einen ganz tollen Score von 60000 in einem 3DMark erziehlt....jetzt beweis mir mal das Gegenteil, abseits von "sowas bekommst du ja gar nicht, du bist ja nicht Zardon etc..."
(Und wenn jemand möchte Fake ich ihm sogar noch ein paar verdammt echtaussehende Ergebnisstabellen)

TheCounter
2005-02-27, 11:41:40
Von mir ein paar ganz einfache Antworten zum Nachdenken ;)

Mal ein paar Fragen zum Nachdenken:

- was soll mir ein 'Score' von 40T im Murks01 sagen? Sagenhafte CPU-Power? Wen interessierts?

3DMark 2001SE ist nicht nur alleine von der CPU abhängig sondern auch von der Grafikkarte. Zeig mir bitte einen P4 mit 4,3GHz der die 40k knackt. Wieso verwenden die meisten wohl einen extrem übertakteten FX-55 um bis auf >40k zu bekommen?

- warum nicht ein einziger Wert, mit dem man wirklich was anfangen kann?

Weist du was NDA bedeutet?

- warum diese Geheimniskrämerei, wenn's doch mehr oder minder halboffiziell ist?

Nochmal: Weist du was NDA bedeutet? Und halboffiziell ist da garnix.

Diese Zahl sagt ABSOLUT NICHTS aus.
Das Ganze ist vermutlich nur ein PR-Gag seitens ATI...

Razor

Oder es ist ein Hammer wie damals der R300 :)

Wir werden es sehen ;)

@Desire

3DMark2001 dürfte genau 0,0% von Dual Core profitieren da es nicht drauf hin optimiert ist ;)

Ein Opteron wurde nicht verwendet (Wieso auch? Wieso nicht ein FX-55?). Es wurde ein P4 verwendet.

wuddu
2005-02-27, 11:45:16
imo kam der Score mit einem P4EE@4.3GHZ zustande. Also nix mit Dualopteron o.ä.. Zum Vergleich: Ein P4EE@4.7GHZ und einer X800XT_PE@800x740 erreicht ~36500Points. Dies war auch der beste Wert, welcher bis dahin mit ´nem P4 gebencht wurde.

BodyLove
2005-02-27, 11:46:50
Von mir ein paar ganz einfache Antworten zum Nachdenken ;)



3DMark 2001SE ist nicht nur alleine von der CPU abhängig sondern auch von der Grafikkarte. Zeig mir bitte einen P4 mit 4,3GHz der die 40k knackt. Wieso verwenden die meisten wohl einen extrem übertakteten FX-55 um bis auf >40k zu bekommen?
Das Problem ist, kann man mit nur einer High-End-Grafikkarte diese 40k schaffen? Selbst 2x6800U mit einer FX-55 unübertaktet schafft vielleicht gerade noch so die 30k. Da kann imho auch eine HighEndGPU nicht viel ändern.

Und ohne eine Taktangabe der CPU ist es eh belanglos, sich über die GPU den Kopf zu zerbrechen.

TheCounter
2005-02-27, 11:56:27
Das Problem ist, kann man mit nur einer High-End-Grafikkarte diese 40k schaffen? Selbst 2x6800U mit einer FX-55 unübertaktet schafft vielleicht gerade noch so die 30k. Da kann imho auch eine HighEndGPU nicht viel ändern.

Und ohne eine Taktangabe der CPU ist es eh belanglos, sich über die GPU den Kopf zu zerbrechen.

Machbar ist das sicher (Man denke nur mal an die >9000 Punkte im 3DMark2005 mit einer X850XT-PE), frägt sich nur wieviel Leistung das Teil hat und worauf es optimiert ist.

Nur durch eine starke CPU kann man auch in 3DMark2001 keine >40k erreichen (Außer vlt. ein FX-55 3,5+ GHz)?. Oder hab ich was verpasst? Wenn ja bitte Link zum Projekt, danke :)

q@h
2005-02-27, 12:16:23
Weist du was NDA bedeutet?
Non Disclosure Agreement. :) Das ist schon etwas anderes, als Partial Disclosure Agreement - so wie's offenbar hier gehandhabt worden sein könnte.

3DMark2001 dürfte genau 0,0% von Dual Core profitieren da es nicht drauf hin optimiert ist ;)

Mir würde da direkt und schnell was einfallen, wie man sehr effizient einer Grafikkarte mit einer zweiten CPU auf die Sprünge helfen könnte - und dafür reicht der Treiber. Funktionalität ist bereits vorhanden.

Der Nature-Test ist limitiert durch die Animation der Blätter - hier wurde in der Vergangenheit bereits viel dranrumgecheatet (auch wenn das demnächst wohl wieder herausgenommen wird).
Dazu hat ATi doch vor einiger Zeit in einem Interview von einer Technik gesprochen, wie man die Vertexshader der GPU durch die CPU entlasten kann. Dies hilft vielleicht nur in extremen Fällen, aber wenn ich eh einen kompletten Kern faul rumstehen habe, kann ich da genauso gut auch ein paar Vertices berechnen lassen.

Demirug
2005-02-27, 12:21:19
Ja, die Blätteranimation hatte ich auch im Verdacht. Da kann die CPU wirklich helfen.

TheCounter
2005-02-27, 12:31:13
Mir würde da direkt und schnell was einfallen, wie man sehr effizient einer Grafikkarte mit einer zweiten CPU auf die Sprünge helfen könnte - und dafür reicht der Treiber. Funktionalität ist bereits vorhanden.

Der Nature-Test ist limitiert durch die Animation der Blätter - hier wurde in der Vergangenheit bereits viel dranrumgecheatet (auch wenn das demnächst wohl wieder herausgenommen wird).
Dazu hat ATi doch vor einiger Zeit in einem Interview von einer Technik gesprochen, wie man die Vertexshader der GPU durch die CPU entlasten kann. Dies hilft vielleicht nur in extremen Fällen, aber wenn ich eh einen kompletten Kern faul rumstehen habe, kann ich da genauso gut auch ein paar Vertices berechnen lassen.

Könnte man dadurch soviele FPS gewinnen? Ist eigentlich bekannt wie der Nature Test durch eine höher getaktete CPU skaliert?

Ein DualCore P4 mit >4,3GHz pro Core... ist sowas überhaupt möglich? Dürfte der Stromverbrauch nicht extrem hoch sein? Und welche Boards verkraften sowas?

Coda
2005-02-27, 12:47:17
DualCore hilft einem bei 3DMark 2001 (!) rein gar nix.

Ich frag mich wirklich was es soll eine neue Highend Karte mit einem komplett CPU limitierten Benchmark zu testen.

Tarkin
2005-02-27, 12:49:58
http://www.firingsquad.com/hardware/ati_x850xt_512mb_prev/

bzgl. X850 512MB ...

"While ATI has now officially demonstrated their 512MB technology, that doesn’t mean you’ll be able to go out and buy a 512MB X850 XT tomorrow. As of right now, ATI has no official plans to introduce a 512MB card to the public.

We put the words “official” in bold font because ATI hasn’t exactly nailed down their final plans for this board. You just may seem them produce a 512MB card, or they may not. Yesterday’s demonstration was considered a “technology preview” of what is to come (hint: think next generation product) and what ATI is capable of doing today. 512MB graphics cards are being shipped to game developers however, and will be used in the production of upcoming games, particularly those from Ubisoft and Valve Software."

... beruhigend ;) ... anders hätte IMO eine x850 mit 512MB auch keinen Sinn. Somit wäre ein baldiger Release der R520 wieder "logischer" (das wäre IMO nicht der Fall gewesen, hätte ATi X850 Karten mit 512MB für den Massenmarkt released.)

BodyLove
2005-02-27, 12:57:20
Machbar ist das sicher (Man denke nur mal an die >9000 Punkte im 3DMark2005 mit einer X850XT-PE), frägt sich nur wieviel Leistung das Teil hat und worauf es optimiert ist.

Nur durch eine starke CPU kann man auch in 3DMark2001 keine >40k erreichen (Außer vlt. ein FX-55 3,5+ GHz)?. Oder hab ich was verpasst? Wenn ja bitte Link zum Projekt, danke :)

Ich will eigentlich eher dahinhinaus, dass 2x6800Ultras es nicht schaffen, mit Grafikpower auf die 40k zu kommen, wie soll dann ein einzelner R520 es schaffen?

Wollte dir einige Compares anbieten, aber ich komm nicht ins ORB rein. :|

dildo4u
2005-02-27, 13:09:43
Leider erkennt man nicht sonderlich viel.


http://img213.exs.cx/img213/9277/img1917compressed0do.jpg

Schon merkwürdig gearde bei HL2 hätte ich nicht an eine steigerung gedacht und warum wird nich lieber 3Dc eingebaut damit es auch auf 256MB karten schneller Läuft?

Jesus
2005-02-27, 13:12:25
Ich will eigentlich eher dahinhinaus, dass 2x6800Ultras es nicht schaffen, mit Grafikpower auf die 40k zu kommen, wie soll dann ein einzelner R520 es schaffen?

Fortschritt? :rolleyes:

robbitop
2005-02-27, 13:15:07
wann ist denn nun diese Vorstellung?

q@h
2005-02-27, 13:15:12
Leider erkennt man nicht sonderlich viel.


http://img213.exs.cx/img213/9277/img1917compressed0do.jpg

Schon merkwürdig gearde bei HL2 hätte ich nicht an eine steigerung gedacht und warum wird nich lieber 3Dc eingebaut damit es auch auf 256MB karten schneller Läuft?

In 1600x1200 mit 6xAA? Doch, da dürfte so einigen Games der Speicher knapp werden. UT2004 bestimmt auch, oder Painkiller.

ShadowXX
2005-02-27, 14:10:56
DualCore hilft einem bei 3DMark 2001 (!) rein gar nix.

Ich frag mich wirklich was es soll eine neue Highend Karte mit einem komplett CPU limitierten Benchmark zu testen.

Wenn der GraKa-Treiber teile der Berechnung für die Blätteranimation an den "ruhenden" CPU-Core abgibt wohl schon......

ATI hat sowas ja scheinbar in ihren Treibern schon implementiert.....

ShadowXX
2005-02-27, 14:12:16
wann ist denn nun diese Vorstellung?

Die von der x850xt/pe mit 512MB? Die wahr wohl schon.

Die Karte von Z. soll gar nicht vorgestellt werden......

Razor
2005-02-27, 18:53:09
Vielleicht ein Dualcore? Oder ein Opteron stark übertaktet?Ja, solch eine Konstellation würde Sinn machen!
Die GraKa hätte da nur wenig Einfluß...

Razor

Razor
2005-02-27, 19:01:19
Von mir ein paar ganz einfache Antworten zum Nachdenken ;)Sorry, aber nachdenken musste ich da bei Dir nicht wirklich...

3DMark 2001SE ist nicht nur alleine von der CPU abhängig sondern auch von der Grafikkarte. Zeig mir bitte einen P4 mit 4,3GHz der die 40k knackt. Wieso verwenden die meisten wohl einen extrem übertakteten FX-55 um bis auf >40k zu bekommen?Weil das Dingens hoffnungslos CPU-limitiert ist und der FX (mit großem Chache und 64Bit-Architektur) besser damit klar kommt? Interessiert nicht wirklich... klar brauchs 'ne GraKa, aber es ist heutzutage fast irrelevant, welche...

Weist du was NDA bedeutet?
Nochmal: Weist du was NDA bedeutet? Und halboffiziell ist da garnix.Klar, NDA, aber trotzdem etwas bringen.
Und dann noch mit dem Murks01.
Toll...

Aber ja, gerade WEIL der Murks01 NICHTS aussagt, wird auch NICHTS damit gebrochen!
Super, echt...

Glaubst Du das echt?

Oder es ist ein Hammer wie damals der R300 :)Weils im Murks01 40T schafft?
Ganz sicher nicht...

Wir werden es sehen ;)Klar, wir sind ja (hoffentlich) nicht blind.

Razor

Razor
2005-02-27, 19:06:47
(das wäre IMO nicht der Fall gewesen, hätte ATi X850 Karten mit 512MB für den Massenmarkt released.)Wieso das?
Sowohl NV4x, als auch R420 ist "512MB capable"...

Das ist absolut nichts besonderes dran und es liegt ausschließlich an den Herstellern, ob die so etwas 'wollen', oder nicht... weil dann tun sie es einfach, gell?

Razor

Ziggi Stardust
2005-02-27, 19:07:49
Vorstellen und traeumen kann ich persoenlich auch vieles. Die Realitaet ist aber ganz was anderes. Wo ist denn all die Jahre ein zeitiger und konkurrenzfaehiger 3D chip von Matrox den ich verpasst habe?
Du hast den G400 (http://www.heise.de/ct/99/13/060/) verpaßt.

Das soll wohl ein Scherz sein oder?

Von mir schon, aber wohl nicht von XGI, die das zur Vorstellung ihrer letzten Grafikchipfamilie als Ziel anvisier(t)en. Es sollte Dir zeigen, daß nicht nur ich kleines Licht es für möglich hält, den Grafikkartenmarkt von hinten aufzurollen.

Beispiele und bitte schoen nett dokumentierte seit zumindest 2000. Eintagsfliegen und ein Millioenchen verkauften Einheiten im besten Fall. :|

Was? Verstehe nicht, was Du da von mir haben willst. Habe ich aber sowieso nicht. Übrigens ist das hier die Spekulations-Ecke, über das, worüber hier gesprochen wird, gibt es oft nichts Schriftliches. ;)

3dfx hatte einen Vorrang von ca. 2 Jahren und dann ging es bergab als man die sowieso nicht allzu grossen Prozentuale im OEM noch dazu verlor. Wer war zu den Zeiten das Lieblings-Kind im OEM Markt? ATI? Sag’s mir.

Mach mir keine Angst. Microsoft ist schlau genug und lizenziert Technologie von den beiden grossen IHVs fuer ihre Consolen; ist auch um einige Male billiger als eine gesamte Entwicklungsabteilung fuer Grafik-chips.

Kurzfristig sicher, aber die Nachteile einer solchen Abhängigkeit sind Dir bestimmt auch nicht verborgen geblieben, Du weißt was ich meine – NV2A und so … Ich bin jedenfalls für jeden weiteren Hersteller dankbar, der im Revier der zwei Großen wildert!

Du hast wirklich eine sehr merkwuerdige Vorstellung was den Grafik-Markt betrifft. Traeumen oder glauben darf natuerlich jeder was er will, aber die Realitaet dort draussen beweisst momentan ganz was anderes. Selbst SONY griff nach all den Jahren zu einer Grafik-Lizenz von NVIDIA, obwohl sie selber eine Grafik-abteilung haben.
Ich rede nicht von der Realität und auch nicht von der Vergangenheit, sondern von der näheren Zunkunft, und die kennst Du vermutlich ebensowenig wie ich!:)

LovesuckZ
2005-02-27, 20:14:27
Es würde nichtnur ihm schaden sondern auch seiner Seite, er ist ja der Inhaber von driverheaven.net.


Die Seite hat wohl mit dem schlechtesten Ruf im Internet.
Was soll ihr also noch schaden?!

zeckensack
2005-02-27, 20:56:15
Wieso das?
Sowohl NV4x, als auch R420 ist "512MB capable"...

Das ist absolut nichts besonderes dran und es liegt ausschließlich an den Herstellern, ob die so etwas 'wollen', oder nicht... weil dann tun sie es einfach, gell?

RazorTheoretisch ja, praktisch müssten die Herren Boardhersteller dann aber womöglich eigene Platinenlayouts entwickeln, damit mehr Speicherchips draufpassen. Und das machen die äußerst ungern, weil's ja Geld kostet.
Wenn dagegen ein Referenz-Layout mit fetter Speicherbestückung existiert, dann kommen solche Karten auch auf den Markt. Siehe Radeon 9800Pro/256MiB.

TheCounter
2005-02-27, 21:07:30
Die Seite hat wohl mit dem schlechtesten Ruf im Internet.
Was soll ihr also noch schaden?!

So schlecht kann der Ruf nicht sein. Ich hab zumindest noch nix drüber gehört und bin auch schon etwas länger regelmäßiger Besucher dort.

LovesuckZ
2005-02-27, 21:25:56
So schlecht kann der Ruf nicht sein. Ich hab zumindest noch nix drüber gehört und bin auch schon etwas länger regelmäßiger Besucher dort.

Dann musst du auch mal auf andere Seiten gehen.
Driverheaven wird nicht umsonst als ATiheaven bezeichnet.

TheCounter
2005-02-27, 21:41:11
Dann musst du auch mal auf andere Seiten gehen.
Driverheaven wird nicht umsonst als ATiheaven bezeichnet.

Und weiter? Viele andere Seiten sind Nvidia, AMD oder Intel freundlich...

Also was soll das ganze? Nur weil die Seite vlt. ATi freundlich ist soll das ganze gleich ein Fake sein?

Erstmal abwarten bis der R520 vorgestellt wird und alle die was drüber wissen auch was sagen dürfen.

mapel110
2005-02-27, 23:06:08
Wäre gut, wenn die Postings mehr enthalten würden als Anfeindungen gegenüber Personen. Danke.

reunion
2005-02-28, 01:06:48
Jetzt bist Du schon der Dritte, der solch einen Müll behauptet.
Ein Name heißt für mich noch lange nicht 'Fakt'...

Einige hier sind wirklich zu gutgläubig... da zählt offenbar kein 'wissen' sondern mehr das 'wunschglauben'.

Razor


Warum sollte er lügen?

reunion
2005-02-28, 01:08:23
wann ist denn nun diese Vorstellung?

Das wird von Zardon nicht erwähnt.

seahawk
2005-02-28, 07:59:00
http://www.firingsquad.com/hardware/ati_x850xt_512mb_prev/

bzgl. X850 512MB ...

"While ATI has now officially demonstrated their 512MB technology, that doesn’t mean you’ll be able to go out and buy a 512MB X850 XT tomorrow. As of right now, ATI has no official plans to introduce a 512MB card to the public.

We put the words “official” in bold font because ATI hasn’t exactly nailed down their final plans for this board. You just may seem them produce a 512MB card, or they may not. Yesterday’s demonstration was considered a “technology preview” of what is to come (hint: think next generation product) and what ATI is capable of doing today. 512MB graphics cards are being shipped to game developers however, and will be used in the production of upcoming games, particularly those from Ubisoft and Valve Software."

... beruhigend ;) ... anders hätte IMO eine x850 mit 512MB auch keinen Sinn. Somit wäre ein baldiger Release der R520 wieder "logischer" (das wäre IMO nicht der Fall gewesen, hätte ATi X850 Karten mit 512MB für den Massenmarkt released.)

Ne X850XT 512MB wird man momentan wohl nicht auf den Markt bringen, weil der Preis in keinem Verhältnis zur Leistungssteigerung stehen würde.

robbitop
2005-02-28, 08:12:45
klingt für mich nach einem ziemlich plumpen PR Gag. ...naja wer's nötig hat...

BodyLove
2005-02-28, 10:10:43
Nur durch eine starke CPU kann man auch in 3DMark2001 keine >40k erreichen (Außer vlt. ein FX-55 3,5+ GHz)?. Oder hab ich was verpasst? Wenn ja bitte Link zum Projekt, danke :)

Jo, heute schaffte ichs dann. http://service.futuremark.com/compare?2k1=8416673
http://service.futuremark.com/compare?2k1=8326459

Dummerweise lässt sich keiner finden, der nicht auch die Grafikkarte übertaktet. (Verständlicherweise). Aber es gab einige Compares, wo die Grafikkarte "nur" bis 688/622 übertaktet wurde, wo man fast 40k erreichte. Hier war die CPU (Fx-55) aber mit 3300Mhz nicht so hoch übertaktet, wie der beim erst plazierten.

http://service.futuremark.com/compare?2k1=8334690

Ich finde der 3dmark01 zeigt auch bei solchen CPU-Giganten noch immer eine stärkere CPU-Abhängigkeit, als eine GPU-Abhängigkeit.

gedi
2005-02-28, 11:50:43
Ich finde der 3dmark01 zeigt auch bei solchen CPU-Giganten noch immer eine stärkere CPU-Abhängigkeit, als eine GPU-Abhängigkeit.

umso erstaunlicher ist imo das Ergebnis: 40K@P4EE!

Botcruscher
2005-02-28, 11:55:46
Ne X850XT 512MB wird man momentan wohl nicht auf den Markt bringen, weil der Preis in keinem Verhältnis zur Leistungssteigerung stehen würde.


Geld hat man. ;)

Ailuros
2005-02-28, 13:16:11
Du hast den G400 (http://www.heise.de/ct/99/13/060/) verpaßt.

Eben nicht:

http://www.firingsquad.com/hardware/g400/default.asp


Von mir schon, aber wohl nicht von XGI, die das zur Vorstellung ihrer letzten Grafikchipfamilie als Ziel anvisier(t)en. Es sollte Dir zeigen, daß nicht nur ich kleines Licht es für möglich hält, den Grafikkartenmarkt von hinten aufzurollen.

Mit dem Mist den sie bis jetzt praesentierten, sollte man wirklich jeglichen verrueckten Marketing-stunt bezweifeln. Bei moeglichen zukuenftigen robusten Veroeffentlichungen kann es durchaus sein dass sie sich im budget/mainstream Markt langsam einen Marktanteil abschneiden koennen, aber von voller Konkurrenz mit ATI/NVIDIA oder sogar high end sollte selbst vom kommenden XG45 nicht die Rede sein. Marktfuehrerschaft? INTEL ist der eigentliche Marktfuehrer wenn es zu Grafik kommt und verkauften Einheiten.

Was? Verstehe nicht, was Du da von mir haben willst. Habe ich aber sowieso nicht. Übrigens ist das hier die Spekulations-Ecke, über das, worüber hier gesprochen wird, gibt es oft nichts Schriftliches. ;)

Ich bekam ein Beispiel; namlich G400. Dass an dem Ding bei Vorstellung ein anstaendiger OGL Treiber fehlte, sollte wohl nicht zaehlen. Es fehlte eben etwas und Matrox hat auch nicht gerade die Uebermengen von den Dingern verkauft. Der Erfolg war ja so "gross" dass man bis zu Parhelia gar nichts mehr von den Kerlen sah...

Wo sind die konkurrenzfaehigen Veroeffentlichungen der Vergangenheit und NEIN hier hat es absolut NICHTS mit Spekulationen zu tun.

ATI? Sag’s mir.

Bingo.

Kurzfristig sicher, aber die Nachteile einer solchen Abhängigkeit sind Dir bestimmt auch nicht verborgen geblieben, Du weißt was ich meine – NV2A und so … Ich bin jedenfalls für jeden weiteren Hersteller dankbar, der im Revier der zwei Großen wildert!

Kein Einwand. Nur reviert zur Zeit eben keiner der eine besondere Drohung darstellen koennte und mir ist auch keiner momentan bewusst. Alles nur im niedrigsten Leistungsbereich und mit Verkaufszahlen die nie ueber die 1-2% des Marktanteils je gestiegen sind.

Ich rede nicht von der Realität und auch nicht von der Vergangenheit, sondern von der näheren Zunkunft, und die kennst Du vermutlich ebensowenig wie ich!:)

Dann vermutest Du eben falsch.

Ailuros
2005-02-28, 13:19:27
Ne X850XT 512MB wird man momentan wohl nicht auf den Markt bringen, weil der Preis in keinem Verhältnis zur Leistungssteigerung stehen würde.

Es steht was in dem FS Link ueber 6xAA/1600 und Doom3 als Beispiel. Ich will nur hoffen dass hier nicht ultra quality gemeint ist.

r@w
2005-02-28, 15:06:12
Theoretisch ja, praktisch müssten die Herren Boardhersteller dann aber womöglich eigene Platinenlayouts entwickeln, damit mehr Speicherchips draufpassen. Und das machen die äußerst ungern, weil's ja Geld kostet.
Wenn dagegen ein Referenz-Layout mit fetter Speicherbestückung existiert, dann kommen solche Karten auch auf den Markt. Siehe Radeon 9800Pro/256MiB.Also 'rühmt' sich ATI damit, ein Referenz-Design für eine 512MB-Variante entwickelt zu haben?
Ist das üblich, so etwas zu tun?
Hmmm...

Und die 9800 mit 256MB halte ich für absolut nichts besonderes...

Razor

r@w
2005-02-28, 15:06:52
Warum sollte er lügen?Weil er Geld oder 'Naturalien' dafür bekommt?
Keine Ahnung!

Sag' Du es mir...

Razor

TheCounter
2005-02-28, 15:19:59
Also 'rühmt' sich ATI damit, ein Referenz-Design für eine 512MB-Variante entwickelt zu haben?
Ist das üblich, so etwas zu tun?
Hmmm...

Was bringt es jetzt eine solche Karte zu launchen wo man doch in 1-2 Monaten wohl den R520 vorstellen wird?

Lieber noch warten und dann gleich einen R520 mit 512MB holen (Meine X850XT wird verkauft :D).

Ziggi Stardust
2005-02-28, 16:43:31
Eben nicht:

http://www.firingsquad.com/hardware/g400/default.asp

Hmm?
The Millennium … keep the "image quality" crown. … Out of the current crop of 3D accelerators, the G400 has the distinction of being the only chipset that supports EMBM. The other chipsets of the current crop, such as the ATI Rage 128, 3dfx's Voodoo3, and nVidia's TNT2 support a different technique of bump mapping called emboss bump mapping. Emboss bump mapping, also known as multi-pass alpha blending, however, is an inferior method of bump mapping when compared with EMBM.
Das dort übertaktete Ultras verwendet wurden und nichtmal die MAX-Version der Millennium, ist Dir wohl nicht aufgefallen?
Mit dem Mist den sie bis jetzt praesentierten, sollte man wirklich jeglichen verrueckten Marketing-stunt bezweifeln. Bei moeglichen zukuenftigen robusten Veroeffentlichungen kann es durchaus sein dass sie sich im budget/mainstream Markt langsam einen Marktanteil abschneiden koennen, aber von voller Konkurrenz mit ATI/NVIDIA oder sogar high end sollte selbst vom kommenden XG45 nicht die Rede sein. Marktfuehrerschaft? INTEL ist der eigentliche Marktfuehrer wenn es zu Grafik kommt und verkauften Einheiten.
Warum so harsche Worte? Das sie nicht sofort mit der ersten Generation alles richtig machen, darf doch nicht gleich als Scheitern bis in alle Ewigkeit gedeutet werden. INTEL ist nur Marktführer, wenn Du die ganzen Büro-Rechner dazu zählst, auf denen nie eine 3D-Anwendung laufen wird.

Ich bekam ein Beispiel; namlich G400. Dass an dem Ding bei Vorstellung ein anstaendiger OGL Treiber fehlte, sollte wohl nicht zaehlen. Es fehlte eben etwas und Matrox hat auch nicht gerade die Uebermengen von den Dingern verkauft. Der Erfolg war ja so "gross" dass man bis zu Parhelia gar nichts mehr von den Kerlen sah...
Fast nur Polemik. :( Übrigens gibt doch Matrox gar keine Verkaufszahlen raus?

Wo sind die konkurrenzfaehigen Veroeffentlichungen der Vergangenheit und NEIN hier hat es absolut NICHTS mit Spekulationen zu tun.
Alle paar Jahre kommt mal ein überraschend leistungsstarker Grafik-Chip: Voodoo 1 (davor war übrigens die Matrox Mystic sehr angesagt), R300 … nur um zwei Beispiele zu nennen. Es gab Überraschungen in der Vergangenheit, und es wird sie (hoffentlich) auch weiterhin geben.

Bingo.

Was hab’ ich jetzt gewonnen?

Kein Einwand. Nur reviert zur Zeit eben keiner der eine besondere Drohung darstellen koennte und mir ist auch keiner momentan bewusst. Alles nur im niedrigsten Leistungsbereich und mit Verkaufszahlen die nie ueber die 1-2% des Marktanteils je gestiegen sind.

Jetzt zählt also der Marktanteil von INTEL plötzlich nicht mehr? :| Wenn jemand mit einem attraktiven Produkt auf dem Markt erscheint (dem Schnellsten, was man für Geld und gute Worte bokommt), schmilzen die Anteile von NVIDIA und ATI schneller als ein Schneeball in der Hölle. ;)
Dann vermutest Du eben falsch.
Dafür ein herzhaftes aber herzliches :lol:

-error-
2005-02-28, 23:57:28
Wird ATI etwas mehr, als die 512MB-Edition der X850XT PE zeigen?

Vielleicht 2 x 850XT PEs im AMR-Modus?

Oder stellt man die R520 vor, was eher unwarscheinlich ist?

TheCounter
2005-03-01, 00:10:09
Wird ATI etwas mehr, als die 512MB-Edition der X850XT PE zeigen?

Vielleicht 2 x 850XT PEs im AMR-Modus?

Oder stellt man die R520 vor, was eher unwarscheinlich ist?

Das Festival ist doch schon wieder vorbei. AMR wirds wohl doch erst mit dem R520 geben (Oder vielleicht noch später?). Vlt. wird ja vom R520 was auf der Cebit gezeigt obwohl ich da noch nicht ganz dran glaube.

seahawk
2005-03-01, 07:54:16
Es steht was in dem FS Link ueber 6xAA/1600 und Doom3 als Beispiel. Ich will nur hoffen dass hier nicht ultra quality gemeint ist.

Natürlich weird man den Unterschied in solchen Fällen spüren, nur ob das die IHVs bewegt solche Karten auf den MArkt zu werfen ? Der MArkt für diese KArten dürfte sehr klein sein.

Ailuros
2005-03-01, 14:02:09
Hmm?
The Millennium … keep the "image quality" crown. … Out of the current crop of 3D accelerators, the G400 has the distinction of being the only chipset that supports EMBM. The other chipsets of the current crop, such as the ATI Rage 128, 3dfx's Voodoo3, and nVidia's TNT2 support a different technique of bump mapping called emboss bump mapping. Emboss bump mapping, also known as multi-pass alpha blending, however, is an inferior method of bump mapping when compared with EMBM.
Das dort übertaktete Ultras verwendet wurden und nichtmal die MAX-Version der Millennium, ist Dir wohl nicht aufgefallen?

Wann wurde die MAXX veroeffentlicht? Von dem abgesehen wie sieht es mit dem OGL ICD bei Vorstellung der G400 aus?

EMBM hatte ein grausames Schicksal (bedauernd tatsaechlich); sobald es von der Mehrzahl der Karten unterstuetzt wurde, wurde es von Pixel Shader ueberrannt. Aendert aber trotzdem nicht viel an all dem obrigen.

Warum so harsche Worte? Das sie nicht sofort mit der ersten Generation alles richtig machen, darf doch nicht gleich als Scheitern bis in alle Ewigkeit gedeutet werden.

SiS veroeffentlich Grafik-karten fast jedes Jahr schon seit 1998. XGi mag eine quasi neue Firma sein, aber dennoch ein Abschlag der vorigen SiS Grafik-Abteilung. Nix da von "erstem Versuch". Die Geschichte ist 7 Jahre alt und die Treiber und Textur-qualitaet war schon immer weniger als zufriedenstellend.

INTEL ist nur Marktführer, wenn Du die ganzen Büro-Rechner dazu zählst, auf denen nie eine 3D-Anwendung laufen wird.
Fast nur Polemik. :( Übrigens gibt doch Matrox gar keine Verkaufszahlen raus?

INTEL mein Herr ist der groesste Semikonduktor Hersteller ueberhaupt. Fuer was jeglicher verkaufte Grafik-chip benutzt wird, sollte egal sein. Was Verkaufszahlen betrifft, ist Intel (leider) Marktfuehrer.

Verkaufszahlen von Matrox? Bei Analysen werden sie meistens zu den "restlichen" IHVs gezaehlt. Die Prozentuale kannst Du Dir ja selber nachschlagen.

Alle paar Jahre kommt mal ein überraschend leistungsstarker Grafik-Chip: Voodoo 1 (davor war übrigens die Matrox Mystic sehr angesagt), R300 … nur um zwei Beispiele zu nennen. Es gab Überraschungen in der Vergangenheit, und es wird sie (hoffentlich) auch weiterhin geben.

Die zweite Ueberraschung kam aber nur weil NVIDIA quasi Mist gebaut hat und kam dazu noch von einem der grossen IHVs, nahmlich ATI. Irgend eine andere nennenswerte "Ueberraschung" seit der Voodoo1 im high end Bereich von einem der "Kleinen" IHVs?


Jetzt zählt also der Marktanteil von INTEL plötzlich nicht mehr? :| Wenn jemand mit einem attraktiven Produkt auf dem Markt erscheint (dem Schnellsten, was man für Geld und gute Worte bokommt), schmilzen die Anteile von NVIDIA und ATI schneller als ein Schneeball in der Hölle. ;)

Intel hatte bisher kein Interesse und wird wohl auch keins in der absehbaren Zukunft haben fuer PC standalone Produkte? Warum auch? Sie verkaufen ihr Zeug ohnehin schon gut genug. Es koennte dennoch durchaus in der weniger absehbaren Zukunft vorkommen dass es quasi zu einer Konkurrenz zwischen z.B. NVIDIA und Intel kommen koennte, aber das nur weil GPUs den CPUs immer naeher ruecken werden (und auch umgekehrt). Das ist aber ein ganz anderes Kapitel und da muessen wohl die Grafik-IHVs in der Zukunft sehr vorsichtige Entscheidungen treffen, damit sie sich nicht die Finger verbrennen.

Dafür ein herzhaftes aber herzliches :lol:

Behalte den Link zu diesem Thread fuer die naechsten paar Jahre nach Belieben. Falls Du einen wahren "dritten" Spieler sehen wirst der ATI/NVIDIA tatsaechlich zu Schwierigkeiten bringen koennte, kannst Du mich dann nochmal daran erinnern. Ziemlich einfach.

robbitop
2005-03-01, 14:09:43
Naja XGI wird mittelfristig schon bessere Renderer als SIS hervorbringen.
Sie haben nun ein anderes Budget, andere Zielstellungen und mehr R&D.
Vor XG50 werden wir davon IMO aber noch wenig sehen.

Ich gebe AiL im Übrigen Recht. Es wird mittelfristig keinen 3. Big Player mehr geben. Die beiden IHVs haben zu viel Macht, zuviel Geld, zuviel Marktanteil, Image, R&D, Know How und Vorsprung in Allem. ATI hatte zu R100/R200/R300 Zeiten diese Mängel alle nicht.
XGI und S3 werden IMO bestenfalls gute Midrange Produkte bauen. Alles andere ist betriebswirtschaftlicher Schwachsinn/Träumerei/Fiktion oder gar ein Wunder ;)

auch R300 wurde nicht "aus dem Hut" gezaubert. Wenn man die Hintergrundkenntnisse nicht hat, kann man das jedoch nur schwer abwägen/beurteilen

Ailuros
2005-03-01, 14:13:40
Natürlich weird man den Unterschied in solchen Fällen spüren, nur ob das die IHVs bewegt solche Karten auf den MArkt zu werfen ? Der MArkt für diese KArten dürfte sehr klein sein.

Fuer professionelle Anwendungen (man wandelt halt eine normale desktop GPU in eine profi-Graka durch tweaking SW), koennten sie vielleicht schon einen Nutzen momentan finden. Gut genug fuer einen selbst begrenzten release muss das nicht unbedingt sein.

Leicht OT: ich fragte mich uebrigens schon stets ob man die Skalierung der Geometrie durch SLi auch bei professionellen Anwendungen ausnutzen kann. Wenn ja dann duerften die Unkosten eines SLi Systems mit zwei 512MB NV4x immer noch geringer sein, als eine volle 512MB Quadro. Speicher ist hier wohl egal, wird ja nicht durch SLi verdoppelt. Falls man aber bis zu 85% mehr Geometrie kommt und man tatsaechlich alle 12 VS momentan ausnutzen kann durch den Treiber, wird es wohl selbst die grosse Realizm schwer haben dagegen anlaufen zu koennen.

robbitop
2005-03-01, 14:18:36
Fuer professionelle Anwendungen (man wandelt halt eine normale desktop GPU in eine profi-Graka durch tweaking SW), koennten sie vielleicht schon einen Nutzen momentan finden. Gut genug fuer einen selbst begrenzten release muss das nicht unbedingt sein.

Leicht OT: ich fragte mich uebrigens schon stets ob man die Skalierung der Geometrie durch SLi auch bei professionellen Anwendungen ausnutzen kann. Wenn ja dann duerften die Unkosten eines SLi Systems mit zwei 512MB NV4x immer noch geringer sein, als eine volle 512MB Quadro. Speicher ist hier wohl egal, wird ja nicht durch SLi verdoppelt. Falls man aber bis zu 85% mehr Geometrie kommt und man tatsaechlich alle 12 VS momentan ausnutzen kann durch den Treiber, wird es wohl selbst die grosse Realizm schwer haben dagegen anlaufen zu koennen.

Der Geometrieprozessor der "großen" Realism hat doch nur 8xVS Units...
Die P20 internen VS Units werden deaktiviert, sobald der Geometrieprozessor zum Einsatz kommt. Und da NV40 schon sehr effiziente MIMD VS Units besitzt, behaupte ich mal, dass schon ein einzelner NV40 an die große Realism herankäme oder zumindist nah heran.

Ailuros
2005-03-01, 14:30:18
Naja XGI wird mittelfristig schon bessere Renderer als SIS hervorbringen.
Sie haben nun ein anderes Budget, andere Zielstellungen und mehr R&D.
Vor XG50 werden wir davon IMO aber noch wenig sehen.

Robbi,

Das schon, aber mir geht es hier eher um den high end Bereich. XGi hat zwar mit der Volari-Linie eine volle Produkt-Pallette (was wohl eher selten ist bei "Kleinen"), aber von wahrem high end kann man hier leider nicht reden.

Du zumindest verstehst zumindest sehr gut, was es heisst wenn ATI/NVIDIA gigantische render-farms oder jegliche sonstliche Tools einsetzen (egal ob fuer Chip-Entwicklung oder Treiber-Schnickschnack), wieviel Kohle diese heutzutage in die Entwicklung einer Produkt-Pallette werfen und wieviele respins/tapeouts sich diese fuer jeden chip eigentlich erlauben.

XGi dachte selber dass selbst XG45 high end sein wird. Nicht nur gibt es hier wieder eine Verspaetung, aber unter dem Licht der anderen SM3.0 mainstream Veroeffentlichungen (siehe NV43), sahen sie selber schnell ein, dass mehr als mainstream nicht am Ende herauskommen wird.

Vom normalen Marketing-Geblubber und oeffentlichen Aussagen abgesehen, ich fordere Dich mal auf zu versuchen eine "off-the-record" Q&A mit einem engineer der "Kleinen" auszufuehren. Falls er ehrlich genug sein will, wird er Dir dann in etwa sagen wie man genau entwickelt und wie man bugs ausbuegelt durch den Entwicklungs-Prozess. Die Realitaet ist dann eher erschuetternd nackt und da hilft selbst das beste engineering-Talent nicht viel.

Aufbauen kann man sich theoretisch schon in diesem Markt unter Umstaenden, aber eine konstante Veroeffentlichung von stabilen Produkten mit robusten Treibern ueber mehrere Generationen ist dann doch eine Vorraussetzung. Und selbst dann kann man eher versuchen mit niedrigen Preisen den mainstream/budget Markt anzugreifen. Die rapiden Preisreduktionen von XGi und/oder S3 fuer ihre letzten Produkte, sprechen fuer sich.

**edit: typos/syntax errors

robbitop
2005-03-01, 14:36:38
Robbi,

Das schon, aber mir geht es hier eher um den high end Bereich. XGi hat zwar mit der Volari-Linie eine volle Produkt-Pallette (was wohl eher selten ist bei "Kleinen"), aber von wahrem high end kann man hier leider nicht reden.

Du zumindest verstehst zumindest sehr gut, was es heisst wenn ATI/NVIDIA gigantische render-farms oder jegliche sonstliche Tools einsetzen (egal ob fuer Chip-Entwicklung oder Treiber-Schnickschnack), wieviel Kohle diese heutzutage in die Entwicklung einer Produkt-Pallette werfen und wieviele respins/tapeouts sich diese fuer jeden chip eigentlich erlauben.

XGi dachte selber dass selbst XG45 high end sein wird. Nicht nur gibt es hier wieder eine Verspaetung, aber unter dem Licht der anderen SM3.0 mainstream Veroeffentlichungen (siehe NV43), sahen sie selber schnell ein, dass mehr als mainstream nicht am Ende herauskommen wird.

Vom normalen Marketing-Geblubber und oeffentlichen Aussagen abgesehen, ich fordere Dich mal auf zu versuchen eine "off-the-record" Q&A mit einem engineer der "Kleinen" auszufuehren. Falls er ehrlich genug sein will, wird er Dir dann in etwa sagen wie man genau entwickelt und wie man bugs ausbuegelt durch den Entwicklungs-Prozess. Die Realitaet ist dann eher erschuetternd nackt und da hilft selbst das beste engineering-Talent nicht viel.

Aufbauen kann man sich theoretisch schon in diesem Markt unter Umstaenden, aber eine konstante Veroeffentlichung von stabilen Produkten mit robusten Treiber immer mehrere Generationen ist dann doch eine Vorraussetzung. Und selbst dann kann man eher versuchen mit niedrigen Preisen den mainstream/budget Markt anzugreifen. Die rapiden Preisreduktionen von XGi und/oder S3 fuer ihre letzten Produkte, sprechen fuer sich.

1.XG45 = SIS345 :) Und noch scheint das SIS und das Trident Team unabhängig voneinander an 2 Designs zu arbeiten (mainstream und mobile). Was für eine Verschwendung. Ich gehe davon aus, dass man diese irgendwann neu strukturieren wird. Ab dann könnte es einen Aufschwung geben.

2. ein Interview mit XGI und S3 sind auf der CeBIT geplant. Aber ob ich einen Ingenieur befragen darf, bezweifle ich leider :(

3. konstant wäre es möglich, dauert aber. S3 würde ich es eher zutrauen als XGI. Weniger Altlasten, moderneres Design, scheinbar bessere Ingenieure.

Ailuros
2005-03-01, 14:41:06
Der Geometrieprozessor der "großen" Realism hat doch nur 8xVS Units...
Die P20 internen VS Units werden deaktiviert, sobald der Geometrieprozessor zum Einsatz kommt. Und da NV40 schon sehr effiziente MIMD VS Units besitzt, behaupte ich mal, dass schon ein einzelner NV40 an die große Realism herankäme oder zumindist nah heran.

Die Leistungszahlen die ich bei der Realizm Vorstellung sah, sahen eher danach aus als ob 3DLabs einen sehr hohen Pegel angelegt hat. Ob sich da was daran geaendert hat, weiss ich nicht.

Relevantes PR-Geblubber (aber nur fuer Realizm100):

http://www.3dlabs.com/press/detail.asp?ref=89&prreg=17

Was die specs betrifft, ich blicke sowieso nicht mit dem dual VPU + VSU Quark (Realizm800) ganz durch und schon gar nicht mit den hier angegebenen Zahlen:

http://www.3dlabs.com/products/product.asp?prod=293&page=6

Der einzige Anhaltspunkt bei dem Realizm800 vielleicht doch am Ende gewinnen koennte, steckt vielleicht im folgenden Satz:

Orthogonal, compiler friendly SIMD array throughout pipeline allowing compilers to deliver optimal performance.

Ailuros
2005-03-01, 14:45:30
1.XG45 = SIS345 :) Und noch scheint das SIS und das Trident Team unabhängig voneinander an 2 Designs zu arbeiten (mainstream und mobile). Was für eine Verschwendung. Ich gehe davon aus, dass man diese irgendwann neu strukturieren wird. Ab dann könnte es einen Aufschwung geben.

Verschwendung nicht unbedingt. XGi hat es tatsaechlich geschafft einen Dell deal zu landen fuer notebooks.

2. ein Interview mit XGI und S3 sind auf der CeBIT geplant. Aber ob ich einen Ingenieur befragen darf, bezweifle ich leider :(

Fuer S3 zumindest, koennte es vielleicht eine Moeglichkeit geben, dass Du irgendwo durchdringen kannst, aber nicht fuer oeffentliches Material. Ueber PM.

robbitop
2005-03-01, 14:48:56
Verschwendung nicht unbedingt. XGi hat es tatsaechlich geschafft einen Dell deal zu landen fuer notebooks.


Mit einem Chip, den Trident schon 2 Jahre lang fertig hatte.
Dafür haben sie kein brauchbares Portfolio.

BTW: Infos sind immergut, nur leider nur 1/2 soviel wert, wenn man sie nicht veröffentlichen kann :)

TheCounter
2005-03-02, 00:28:32
http://www.driverheaven.net/showpost.php?p=562147&postcount=126

Interessanter Post...

mapel110
2005-03-02, 00:37:56
http://www.driverheaven.net/showpost.php?p=562147&postcount=126

Interessanter Post...

It's basically an R420 derivative (R3xx) with addons.

autsch, das wäre wohl bitter, wenn SM3 praktisch ein "Software-Hack" wäre auf R520. :(
Aber ich will mal hoffen, dass der Satz nicht ganz so ernst gemeint ist.

Godmode
2005-03-02, 00:57:38
Dass ATI aus so hohe Taktraten kommt, bezweifle ich immer noch!

Botcruscher
2005-03-02, 01:00:24
Wird der R520 auf der Cbit vorgestellt? oder erst wieder im Mai wie der R420.

Ailuros
2005-03-02, 02:36:57
http://www.driverheaven.net/showpost.php?p=562147&postcount=126

Interessanter Post...

Der Herr soll bei ATI gearbeitet haben? Reinigungspersonal? Also entschuldigt bitte, erstmal sind die jenigen die Bescheid wissen gesetzlich ueber NDAs gebunden und sind nicht so bloed und posten solche Daten ueber's Netz bis die NDA auslauft und zweitens machte diese Specliste und das zusaetzliche sinnlose Gelabere nicht unbedingt Sinn.

robbitop
2005-03-02, 08:22:09
der Name R520 surgeriert eine solche Lösung schon etwas. Denn ein SM3 Design, welches nicht aus R400 hervorgeht sondern aus R300, ist schwierig auf SM3 zu bringen. Eher als Checkbox. Aber eigentlich ist das nicht der Stil von ATI. We'll see....

seahawk
2005-03-02, 08:24:02
Dazu fällt mir eigentlich das Interview mit ATI in der aktuellen PCGH ein. Dort sagt ATI, dass sie nicht erwarten, dass SM3.0 in der nächsten Zeit relevante Bedeutung erreicht. Lediglich Dynamic Branching könnte stärker genutzt werden. Darin sehen sie einen Sinn. Alles andere liese sich effektiver und besser über SM2.0 reralsieren. Ich fragte mich da schon, ob R520 = SM2.0b + Dynamic Branching und nicht volles SM3.0.

ShadowXX
2005-03-02, 08:52:06
Dazu fällt mir eigentlich das Interview mit ATI in der aktuellen PCGH ein. Dort sagt ATI, dass sie nicht erwarten, dass SM3.0 in der nächsten Zeit relevante Bedeutung erreicht. Lediglich Dynamic Branching könnte stärker genutzt werden. Darin sehen sie einen Sinn. Alles andere liese sich effektiver und besser über SM2.0 reralsieren. Ich fragte mich da schon, ob R520 = SM2.0b + Dynamic Branching und nicht volles SM3.0.

Es wird schon "volles" SM3.0 sein....allles andere kann sich ATI nicht erlauben.

Aber ich habe langsam das Gefühl, das das SM3.0 in weiten teilen beim r520 wohl doch ein Checklisten-Feature sein wird.

Ich hoffe das ATI die Verbreitung/Benutzung von SM3.0 nicht unterschätzt.
Es ist ja schön und gut, wenn ATI meint/sagt, dass man das alles genausogut mit SM2.0 darstellen kann, die Devs aber trotzdem lieber gleich in SM3.0 programmieren da es weniger Aufwand ist.

Ich sage nur SC3....ich glaub langsam das ATI gegenüber UBI eingeschnappt war, da diese zuerst den SM3.0 Pfad programmiert haben und dieses dazu noch auf eine weise, das selbst ATIs Leute bei UBI (Dev-Support) nicht mehr so recht wussten wie man das Vernünftig (aufwandsmässig) auf SM2.0 umsetzen konnte....

Und es sind meherer Titel mit SM3.0 kurz vor der Veröffentlichung...AoE3, Brother in Arms, FEAR.....

@Robbitop:
lt. den Ati-Treibern gehört der r520 doch zur r300-Family.

StefanV
2005-03-02, 09:29:22
http://www.driverheaven.net/showpost.php?p=562147&postcount=126

Interessanter Post...

ATI HyperMemory (the core will support Hypermemory which probably will only be used in the lower end versions of the core).

Wann begreifen die endlich, das das völliger schwachsinn ist!!
Wann begreifen die endlich, das Hyper Memory das ist, was AGP Texturing hätte werden sollen?!
Wann begreifen die endlich, das Hyper Memory auch bei High End Karten Sinn macht?! (nämlich dann, wenn der Karte der Speicher ausgeht).

crusader4
2005-03-02, 10:04:13
Stefan, ganz ruhig - tief durchatmen.

Ich halte die Angaben für nicht glaubwürdig. Erstmal wäre er auch nach seinem Ausscheiden aus der Firma verpflichtet Stillschweigen darüber zu bewahren was er erfahren hätte, sonst kann das ziemlich dumm für ihn ausgehen.
Was mich dann bei seinen Angaben stutzig gemacht hat: Warum sollte ATI Truform in Hardware wieder einführen? Es gibt keine wichtigen Spiele die nach dem 1. Versuch der Einführung Unterstützung dafür bekommen haben.
Ich kann mir außerdem nicht vorstellen, das ein R420 mit zusätzlichen Transistoren für SM3 noch mit vernünftigen Taktraten hergestellt werden kann, das es noch eine Leistungssteigerung gibt. Von der benötigten Kühllösung ganz zu schweigen. Ich denke man wird sich da schon etwas mehr einfallen lassen haben.

Edit: Mal von den Speichertaktraten ganz zu schweigen. ATI kann nicht einfach sagen "Wir wollen 900MHz-Chips". Die sind da abhängig vom Speicherhersteller. Und da bisher nicht mal was von den angekündigten 800MHZ-GDDR3-Chips zu sehen ist, halte ich es für schlicht unmöglich.

Edit 2: Hab grad nachgeschaut, Samsung bietet GDDR3 mit maximal 700MHz offiziell an. Damit ist es noch unwahrscheinlicher, das sie Massen an Chips mit 900MHz an ATI liefern können.

Eine Sache noch: Vor einigen Seiten in diesem Thread kam die (leider ignorierte) Frage auf, ob R520 auch noch auf AGP erscheinen soll. Mich würde interessieren, was ihr so dazu denkt.

Grüße, Crusader

robbitop
2005-03-02, 10:13:06
AFAIK kann jeder PCI-E Grafikkarte dynamisch auf den Arbeitsspeicher auslagern. Nur wird dies bei low cost neuerdings vermarktet. Wobei im NV44 durch das L1/L2 Cache Subsystem eine sehr gute Grundlage dafür da ist.

ATI hat IMO keine Wahl beim R520. R500 wäre vieleicht zu langsam gewesen. Also musste man R300 nochmals aufbohren (denn wer entwickelt schon grundlos parallel 2 Designs?). Somit muss die Firma natürlich auch zu ihrem Produkt stehen (...SM2 reicht aus tralalala..). Da würde jeder IHV in dieser Situation machen.

seahawk
2005-03-02, 11:05:34
Was micht halt an dem Interview mt AATI stört ist, dass sie nicht sagen, dass heute SM3.0 unwichtig ist, sondern, dass auch auf längere Sicht einzig und allein Dynamic Branching Sinn aus dem SM3.0 Feature Paket Sinn macht macht.

Es wäre imho durchaus denkbar, dass ATI SM3.0 abgesehen von Dynamic Branching wirklich nur als kaum performantes Checklistenfeature einbaut und weiterhin zur Nutzung von SM2.0 + Dynamic Branching rät. Wenn nicht R520 sogar nur SM2.0b + Dynamic Branching ist. Der X950XT Name, könnte durchaus in diese Richtung deuten.

Evlt. lassen sich durch solche Lösungen Transistoren sparen, so dass eine handselektierte 600MHZ PE Version denkbar ist. Evtl. kann man für diese sogar entsprechenden 800MHZ RAM in geringsten Mengen zu utopischen Preisen bekommen. Im Endeffekt hätte man so eine optimale Reviierwerkarte. :D Lange Balken wären garantiert.

robbitop
2005-03-02, 11:07:34
man kann immer kostensparend Designs bauen, die am besten zur aktuellen Situation passen. Das ist aber innovationsbremsend und parasitär IMO. Ich hoffe, dass sich das noch ändert. Erst die HW dann die SW.

Coda
2005-03-02, 11:09:22
Ich halte static branching für sehr viel wichtiger (siehe SC3)
Das vereinfacht die Programmierung deutlich.

ShadowXX
2005-03-02, 11:29:40
Ich halte static branching für sehr viel wichtiger (siehe SC3)
Das vereinfacht die Programmierung deutlich.

ATI wird das anpreisen, was Sie mit dem r520 besser unterstützen....wobei mir dabei nicht ganz klar warum statisches Branching schlechter laufen sollte als dynamisches....


Wenn nicht R520 sogar nur SM2.0b + Dynamic Branching ist.


Dafür bräuchte ATI aber schon wieder eine "neue" SM2.0x-Version, da dynamisches Branching eigentlich zum SM3.0 gehört.

Demirug
2005-03-02, 11:33:15
Der R520 hat SM3 und zwar vollständig.

SM2+Dynamic Branching wird kein IHV den Entwicklern vorschlagen weil es dafür keinen Compiler gibt.

TheCounter
2005-03-02, 12:18:43
Der R520 hat SM3 und zwar vollständig.

Also hat er es entweder vollständig oder garnicht? Na dann wird er es sicher haben. Frägt sich nurnoch wie die Performance aussieht und was noch alles reinkommt.

Vorstellung dürfte ja nichtmehr lange hin sein, so 2-3 Monate (Mai vlt.?)?. Das warten nervt ;)

robbitop
2005-03-02, 12:23:33
Also hat er es entweder vollständig oder garnicht? Na dann wird er es sicher haben. Frägt sich nurnoch wie die Performance aussieht und was noch alles reinkommt.

Vorstellung dürfte ja nichtmehr lange hin sein, so 2-3 Monate (Mai vlt.?)?. Das warten nervt ;)

wieso? hast du nicht eine X850? Die dürfte doch sensationell schnell sein... warten kann man in der Branche immer. IMO sollte so eine High End Karte auch mal ein paar Jährchen halten.

r@w
2005-03-02, 12:27:53
IMO sollte so eine High End Karte auch mal ein paar Jährchen halten.Na ja... HighEnd-Karten 'halten' meist NIE ein paar Jahre, gell?
Und 'HighEnd' bleiben sie max 1/2 Jahr... wenn man Glück hat.
:D

Aber Dir muss ich das wohl nicht erzählen...

Razor

Aquaschaf
2005-03-02, 12:43:04
"Meist nie"... ist das kein Widerspruch? In recht vielen Spielen reicht es heute selbst noch mit einer 9700 Pro für hohe Auflösungen mit AA. Wenn man sich eine Highend-Karte nicht nur kauft weil man in Benchmarks am allerschnellsten sein möchte kann man die meines Erachtens schon 1,5-2 Jahre behalten ohne große Abstriche machen zu müssen.

robbitop
2005-03-02, 12:48:14
Na ja... HighEnd-Karten 'halten' meist NIE ein paar Jahre, gell?
Und 'HighEnd' bleiben sie max 1/2 Jahr... wenn man Glück hat.
:D

Aber Dir muss ich das wohl nicht erzählen...

Razor

R300 ;)

TheCounter
2005-03-02, 12:58:23
wieso? hast du nicht eine X850? Die dürfte doch sensationell schnell sein... warten kann man in der Branche immer. IMO sollte so eine High End Karte auch mal ein paar Jährchen halten.

Ja ich hab ne X850XT, aber die könnte ich dann wieder schnell verkaufen und mir nen R520 zulegen um den Verlust gering zu halten.

Mir gehts da eher um SM3.0 da jetzt einige Entwickler meinen schnell SM3.0 pushen zu müssen und dann z. B. SM2.0 ganz auslassen (Nicht auf aktuelle, weitverbreitete HW optimieren; Ubisoft ;)).

Und bevor ich nun die Karte 2 Jahre behalte und dann für 500EUR neukaufen muss mach ichs lieber so ;)

Ailuros
2005-03-02, 13:17:41
Die obrige Spec-liste kursiert uebrigens schon seit einiger Zeit ueber's Netz. Den Bloedsinn mit FP32 blending/texturing hat Demirug schon frueher betont und von einem PPP wuerde ich auch nichts erwarten.

Wann begreifen die endlich, das das völliger schwachsinn ist!!
Wann begreifen die endlich, das Hyper Memory das ist, was AGP Texturing hätte werden sollen?!
Wann begreifen die endlich, das Hyper Memory auch bei High End Karten Sinn macht?! (nämlich dann, wenn der Karte der Speicher ausgeht).

Wann geht Dir denn der Speicher aus theoretisch mit 256MB on-board? Noch mehr wenn es sich um 512MB Karten handelt.

Crusader,

Right on spot :up:

robbitop
2005-03-02, 13:24:10
Wann geht Dir denn der Speicher aus theoretisch mit 256MB on-board? Noch mehr wenn es sich um 512MB Karten handelt.



selbst wenn der lokale VRAM ausgeht, swapt jede PEG konforme Grafikkarte automatisch auf den Arbeitsspeicher.

Coda
2005-03-02, 13:27:37
Mir gehts da eher um SM3.0 da jetzt einige Entwickler meinen schnell SM3.0 pushen zu müssen und dann z. B. SM2.0 ganz auslassen Ich würde Ubisoft eher zutrauen, dass sie nicht SM 3.0 pushen wollten sondern die Entwicklungskosten gering gehalten haben.
Aber mit ner roten Brille ist das natürlich anders :rolleyes:

Demirug
2005-03-02, 13:27:55
selbst wenn der lokale VRAM ausgeht, swapt jede PEG konforme Grafikkarte automatisch auf den Arbeitsspeicher.

automatisch? Wer erzählt den sowas?

Demirug
2005-03-02, 13:42:26
Mal was anderes: bei den AGP Radeons nagelt der Treiber bei bis zu 1GB host ram AGP aperture auf 64MB fest, bei =/>1GB host ram auf 128MB AFAIK. Wie genau sieht es mit der Speicherverwaltung bei PCI-E Varianten aus?

***edit: um es klarer zu machen, limitiert der Treiber bei PCI-E auch die "system memory" Menge (je nach host ram Menge)?

AFAIK ist das mit PCIe alles etwas dynamischer machbar. Der Treiber kann da theoretisch jederzeit etwas umdisponieren.

Demirug
2005-03-02, 13:43:52
aha..gut zu wissen, dass es nicht so ist. Habe ich mal gelesen. Quelle müsste ich suchen. Ist ne Weile her.

Vielleicht in Verbindung mit WGF? Da wurde das mal als erwünschtes Feature aufgeführt.

reunion
2005-03-02, 13:54:34
Wenn nicht R520 sogar nur SM2.0b + Dynamic Branching ist. Der X950XT Name, könnte durchaus in diese Richtung deuten.


ATi hat bereits mehrmals bestätigt das R520 SM3.0 unterstützten wird.
Außerdem hat Demirug dazu bereits einen Eintrag im Treiber gefunden AFAIK.


Evlt. lassen sich durch solche Lösungen Transistoren sparen, so dass eine handselektierte 600MHZ PE Version denkbar ist.

R520 wird in 90nm lowk gefertigt, das dürfte einen deutliche Taktsteigerung im Vergleich zum R420 bringen. Ich rechne mit mindestens 650mhz.

seahawk
2005-03-02, 13:58:36
650MHZ, beri mehr Quads und SM3.0 ?? Das kann ich nicht ganz glauben. Sollten sie bei 4 Quads bleiben, dann evtl. ...

robbitop
2005-03-02, 14:02:04
die Bandbreite reicht eh nicht für mehr Quads und mehr Takt.
Außerdem gab es mal eine Anspielung dass R520 von der DIE Fläche kleiner sein soll als R420. We'll see...

reunion
2005-03-02, 14:09:55
die Bandbreite reicht eh nicht für mehr Quads und mehr Takt.


Eben, deshalb wird man auch vermutlich bei 4 Quads bleiben.


Außerdem gab es mal eine Anspielung dass R520 von der DIE Fläche kleiner sein soll als R420. We'll see...

Was ja nicht wirklich eine Überraschung ist, laut ATi erspart man sich durch 90nm 50% Die Fläche. D.h. selbst mit doppelt sovielen Transistoren wäre man nicht größer als R420.

Ailuros
2005-03-02, 14:12:48
Eben, deshalb wird man auch vermutlich bei 4 Quads bleiben.



Was ja nicht wirklich eine Überraschung ist, laut ATi erspart man sich durch 90nm 50% Die Fläche. D.h. selbst mit doppelt sovielen Transistoren wäre man nicht größer als R420.

Hoechstwahrscheinlich nach allen Anzeigen wird es wohl so sein. Einen Leistungschub wird es wohl schon bringen, aber nicht zum Grad wo es viele erwarten.

Gaestle
2005-03-02, 14:14:11
Wenn Crusader Recht hat und die Gratulation von AiLuros zutrifft, erwarte ich eine Art R420 mit SM3. Nicht von der Architektur her, aber bezüglich der Leistung.


Grüße

edit: Falls ein "ominöser" NV48 besser taktbar sein sollte, braucht's dann wohl keinen NV47 mit den spekulierten 6Quads.

TheCounter
2005-03-02, 14:14:56
Ich würde Ubisoft eher zutrauen, dass sie nicht SM 3.0 pushen wollten sondern die Entwicklungskosten gering gehalten haben.
Aber mit ner roten Brille ist das natürlich anders :rolleyes:

Das hat nichts mit einem speziellen Grafikkartenhersteller zu tun sondern es geht da ums Prinzip (Wenn ich ne GF FX hätte würde ich mich da auch beschweren, hätte ich dann ne grüne Brille auf?).

Das mit den Entwicklungskosten ist imo schwachsinn. Wieso wurde dann für die PS2 Version extra ein großes Team (!!) abgestellt das diese Version extra mit neuen Grafikeffekten entwickelt hat (... die sogar die SM1.1 PC Version alt aussehen lassen ;)).

Laut Ubisoft wollten sie ja die beste Optik haben und da diese ganzen Effekte ja nicht mit SM2.0 möglich sein sollen (Laut Ubisoft) hat man dann SM3.0 genommen. ;D

mapel110
2005-03-02, 14:26:41
Das hat nichts mit einem speziellen Grafikkartenhersteller zu tun sondern es geht da ums Prinzip (Wenn ich ne GF FX hätte würde ich mich da auch beschweren, hätte ich dann ne grüne Brille auf?).

Das mit den Entwicklungskosten ist imo schwachsinn. Wieso wurde dann für die PS2 Version extra ein großes Team (!!) abgestellt das diese Version extra mit neuen Grafikeffekten entwickelt hat (... die sogar die SM1.1 PC Version alt aussehen lassen ;)).

Laut Ubisoft wollten sie ja die beste Optik haben und da diese ganzen Effekte ja nicht mit SM2.0 möglich sein sollen (Laut Ubisoft) hat man dann SM3.0 genommen. ;D

Es könnte sein, dass für die PS2-Version ein anderes Budget festgelegt wurde als für die PC-Version. =)

Ich denke, Konsolenspiele verkaufen sich besser, dann kann man da auch mehr Geld in die Entwicklung stecken.

Gaestle
2005-03-02, 14:30:21
Öhm, ich dachte zu dem Thema gäb's schon drei Threads?

reunion
2005-03-02, 14:31:37
edit: Falls ein "ominöser" NV48 besser taktbar sein sollte, braucht's dann wohl keinen NV47 mit den spekulierten 6Quads.


Nach aktuellen Gerüchten ist NV48 nichts anderes als ein NV40 +Bridge +512MB RAM. ;)

ShadowXX
2005-03-02, 14:32:42
Es könnte sein, dass für die PS2-Version ein anderes Budget festgelegt wurde als für die PC-Version. =)

Ich denke, Konsolenspiele verkaufen sich besser, dann kann man da auch mehr Geld in die Entwicklung stecken.

Gehe ich auch von aus....die XBox und PC-Version hatten wohl ein gemeinsames Budget.

Als zum Schluss noch etwas Geld/Zeit übrig war, haben Sie überlegt was man damit am effektivsten anstellen kann, wenn man möglichst viele neue Eye-Candys mit reinbringen will und kam zum Schluss, dass dies wohl am ehesten mit SM3.0 erreicht werden kann.

ShadowXX
2005-03-02, 14:34:16
Nach aktuellen Gerüchten ist NV48 nichts anderes als ein NV40 +Bridge +512MB RAM. ;)

Dafür gibts aber inzwischen auch genug "Gegenbeweise"...einfach mal in den dazugehörigen Thread gucken.

Das mit "NV40 +Bridge +512MB RAM" war wohl eher ein Schnellschuss/Vermutung von Heise,INQ und CB.

Ailuros
2005-03-02, 14:35:58
Wenn Crusader Recht hat und die Gratulation von AiLuros zutrifft, erwarte ich eine Art R420 mit SM3. Nicht von der Architektur her, aber bezüglich der Leistung.

R420 und R520 haben die noch getrennten Einheiten gemeinsam (was bei Xenon nicht der Fall ist). Leistung wird im Vergleich zur R420 analog zur Takt- und Bandbreiten-steigerung im Durchschnitt wohl sein (falls all dieses stimmen sollte).


edit: Falls ein "ominöser" NV48 besser taktbar sein sollte, braucht's dann wohl keinen NV47 mit den spekulierten 6Quads.


Rechne mal nach...

angenommen R520 = 650*16 = 10400 MPixels/sec

Wie willst Du NV48 auf 600 oder mehr MHz bringen?

Hingegen macht die "NV47" Theorie mehr Sinn, denn:

angenommen 400*24 = 9600 MPixels/sec

Muss nicht stimmen, aber ich kann mir momentan nichts anderes vorstellen.

TheCounter
2005-03-02, 14:42:02
Es könnte sein, dass für die PS2-Version ein anderes Budget festgelegt wurde als für die PC-Version. =)

Ich denke, Konsolenspiele verkaufen sich besser, dann kann man da auch mehr Geld in die Entwicklung stecken.

Das ist für mich aber kein Grund. Der zusätzliche SM2.0 Pfad hätte sicher nur einen Bruchteil dessen gekostet was die extra PS2 Version gekostet hat (Vorrausgesetzt man hat fähige Programmierer ;)). Bleibt auch noch die Aussage mit der "besten Optik"...

Wenn wir schon dabei sind lassen wir bei neueren Games dann halt auch gleich SM2.0 und SM3.0 aus und implementieren lieber WGF2.0 Shader aus "Kostengründen" ;)

ShadowXX
2005-03-02, 14:42:11
R420 und R520 haben die noch getrennten Einheiten gemeinsam (was bei Xenon nicht der Fall ist). Leistung wird im Vergleich zur R420 analog zur Takt- und Bandbreiten-steigerung im Durchschnitt wohl sein (falls all dieses stimmen sollte).




Rechne mal nach...

angenommen R520 = 650*16 = 10400 MPixels/sec

Wie willst Du NV48 auf 600 oder mehr MHz bringen?

Hingegen macht die "NV47" Theorie mehr Sinn, denn:

angenommen 400*24 = 9600 MPixels/sec

Muss nicht stimmen, aber ich kann mir momentan nichts anderes vorstellen.

Bräuchte der nv47 für diese Rechnung dann aber nicht auch 24Rops....oder stehe ich da gerade auf einem Schlauch?

Weil die meisten gehen beim nv47 ja von einem 24Pipe/16Rop-Chip aus.....

ShadowXX
2005-03-02, 14:45:49
Das ist für mich aber kein Grund. Der zusätzliche SM2.0 Pfad hätte sicher nur einen Bruchteil dessen gekostet was die extra PS2 Version gekostet hat (Vorrausgesetzt man hat fähige Programmierer ;)). Bleibt auch noch die Aussage mit der "besten Optik"...

Wenn wir schon dabei sind lassen wir bei neueren Games dann halt auch gleich SM2.0 und SM3.0 aus und implementieren lieber WGF2.0 Shader aus "Kostengründen" ;)

Budgets werden aber meistens vorher festgelegt....und erhöhungen genemigen die meisten Chefs ungern.

Ich würde das auch klarer getrennt sehen, da die verschiedene Version ja auch an verschiedene Teams abgegeben wurden.

Die PC-Version ist meines erachtens mehr ein "Abfallprodukt" der XBox-Version.
Und das wir überhaupt SM3.0 haben und nicht nur SM1.1 liegt vielleicht sogar daran, das die Programmierer langeweile hatten....

Gaestle
2005-03-02, 14:46:08
Rechne mal nach...

angenommen R520 = 650*16 = 10400 MPixels/sec

Wie willst Du NV48 auf 600 oder mehr MHz bringen?

Hingegen macht die "NV47" Theorie mehr Sinn, denn:

angenommen 400*24 = 9600 MPixels/sec

Muss nicht stimmen, aber ich kann mir momentan nichts anderes vorstellen.

Ich verstehe, aber
SM3 = komplett 32Bit mehr Transistoren
SM3 = sicher auch bei den Shadern selbst mehr Transistoren

=> Könnte der Taktsprung nicht kleiner ausfallen?

Mann muss natürlich die Entwicklung interne Effizienz beachten, aber momentan kann NV eben deshalb etwa 100MHz Taktunterschied ausgleichen.
Wenn ATi auch NV-ähnliche Rechenwerk(e) einbaut, brauchen sie ja bestimmt nochmal mehr Trasis als für ein R300-Rechenwerk

Vielleicht reichen NV am Ende 480-500MHz?

Grüße

Gaestle
2005-03-02, 14:49:37
Bräuchte der nv47 für diese Rechnung dann aber nicht auch 24Rops....oder stehe ich da gerade auf einem Schlauch?

Weil die meisten gehen beim nv47 ja von einem 24Pipe/16Rop-Chip aus.....


ROPs scheinen nicht mehr das entscheidende Merkmal zu sein. EIne 6GT mit 4 ROP's ist ja auch schneller als 'ne 8-ROP 68LE und relativ nahe an 'ner 12ROP 68nu dran.

Arithmetische Leistung ist wohl inzwischen wichtiger.

Grüße

Ailuros
2005-03-02, 14:53:42
Ich verstehe, aber
SM3 = komplett 32Bit mehr Transistoren
SM3 = sicher auch bei den Shadern selbst mehr Transistoren

low-k 130nm --> low-k 90nm = +50% mehr die-Flaeche.

=> Könnte der Taktsprung nicht kleiner ausfallen?

Wieso nicht, wenn es moeglich ist?

Mann muss natürlich die Entwicklung interne Effizienz beachten, aber momentan kann NV eben deshalb etwa 100MHz Taktunterschied ausgleichen.

Sagt wer?

Vielleicht reichen NV am Ende 480-500MHz?

500*16 = 8000 MPixels/sec (+25% Fuellrate zu 6800U)
400*24 = 9600 MPixels/sec (+50% Fuellrate zu 6800U)

Wird tatsaechlich R520 auf ~650MHz liegen (4 quads), welche der obrigen Loesungen hat da bessere Chancen zu konkurrieren?

mapel110
2005-03-02, 14:58:27
Das ist für mich aber kein Grund. Der zusätzliche SM2.0 Pfad hätte sicher nur einen Bruchteil dessen gekostet was die extra PS2 Version gekostet hat (Vorrausgesetzt man hat fähige Programmierer ;)). Bleibt auch noch die Aussage mit der "besten Optik"...


Es dürfte wohl getrennte Budgets gegeben haben. Dann erübrigt sich dein Argument mit dem "Bruchteil", was ja auch nur eine Vermutung deinerseits ist.

Fähige Programmierer haben sie wohl, Splinter Cell ist technisch/optisch/spielerisch gesehen eines der besten Games auf dem Markt.

Zur besten Optik gehören auch halbwegs spielbare Frameraten bei üblichen Auflösungen. Wäre wohl mit sm2 schwierig geworden im eye-candy mode.

reunion
2005-03-02, 15:00:14
low-k 130nm --> low-k 90nm = +50% mehr die-Flaeche.


+100% mehr Die Fläche ;)

Gaestle
2005-03-02, 15:00:32
Sagt wer?


Die üblichen Benchmarks. Wenn die Effizienz irrelevant wäre, sollte ein 68ultra etwa 20-25% hinter eine X800XT liegen. Weil 400MHz vs. 500MHz ... Der Rückstand ist aber (laut 3dcenter-Artikel) deutlich geringer.

Außerdem:
Natürlich wird die DIE-Fläche in 90nm geringer, aber die reine Transistorenanzahl ist doch AFAIK nicht irrelevant, oder?

Glaubst DU wirklich an 650MHz???

Grüße

Ailuros
2005-03-02, 15:01:08
ROPs scheinen nicht mehr das entscheidende Merkmal zu sein. EIne 6GT mit 4 ROP's ist ja auch schneller als 'ne 8-ROP 68LE und relativ nahe an 'ner 12ROP 68nu dran.

Arithmetische Leistung ist wohl inzwischen wichtiger.

Grüße

So lange AA nicht eingeschaltet ist ja, wobei AA Leistung nach einer gewissen Aufloesung egal sein sollte fuer mainstream Loesungen.

Uebrigens sind bei der 6800nonU alle 16 ROPs aktiv, bei der 6800LE keine Ahnung (ich kann's herausfinden aber bin zu faul dazu).

http://www.techreport.com/reviews/2004q3/geforce-6600gt/index.x?pg=5
http://www.techreport.com/reviews/2004q3/geforce-6600gt/index.x?pg=10

Ein theoretischer "NV47" wuerde aber trotz allem wohl nicht mehr als 16 ROPs haben, bei 24 SIMD Kanaelen.

reunion
2005-03-02, 15:10:22
Die üblichen Benchmarks. Wenn die Effizienz irrelevant wäre, sollte ein 68ultra etwa 20-25% hinter eine X800XT liegen.


Ist eine Graka die du um 20% übertaktest wirklich um 20% schneller?
Im übrigen hat einen X800XT einen geringeren Speichertakt als eine 6800U.

Die Effizienz ist sicher nicht irrelevant, nur wird diese beim NV40 oft überschätzt. Zum einen geht R420 nicht selten die Bandbreite aus, und zum anderen glauben viele +10% mehr Takt ist gleich +10% mehr Leistung.

TheCounter
2005-03-02, 15:12:55
Zur besten Optik gehören auch halbwegs spielbare Frameraten bei üblichen Auflösungen. Wäre wohl mit sm2 schwierig geworden im eye-candy mode.

Halbwegs spielbar ist es aber nichtmal auf ner GF6800U mit den Eyecandy's (1280x1024), zumindest sind die min. FPS sehr weit unten ;)

Die Effekte lassen sich ja bei bedarf einzeln abschalten, also wieso nicht das ganze auch auf SM2.0-Basis zur Verfügung stellen? Ich glaube nicht das es schlechter aussehen würde. Wie es mit dem Speed aussieht werden wir wohl nie erfahren, da kann man nur schätzen.

Da es aber selbst auf SM3.0 Karten nicht wirklich flüssig spielbar ist (Außer vlt. in 800x600?) erübrigt sich auch dein Arugment mit den halbwegs spielbaren Frameraten ;)

Ich glaube wir sind schon wieder im OT-Bereich ;)

reunion
2005-03-02, 15:20:51
Die R420 gewinnt allerdings nur in Füllratenlimitierten Settings mit deutlichem Abstand [...]


Was heute bei 90% der Anwendungen der Fall ist.
Allerdings kann er diese natütlich nur ausspielen wenn auch die Bandbreite reicht.


Die Effizienz des NV4x ist nur bei aritmetik sehr hoch. Und da aritmetik heutzutage noch kein allzugroßer Flaschenhals in der Praxis ist, sieht man davon noch nichts.

Shadermark ect. zeigen davon recht wenig.

TheCounter
2005-03-02, 15:21:09
Float HDR ist kein SM30 Effekt;

Das ist mir bekannt. Weswegen ich auch extra Eyecandy geschrieben habe.

die letzten Messungen die ich gesehen habe was Splinter Cell 3 und 2xAA/8xAF in 1280 betraf, waren es ~32fps fuer SM3.0/6800U (kein HDR) und ~37fps fuer SM1.1/X800XT PE.

32FPS durchschnitt oder min. FPS? Wobei ich von max. Details ausgegangen bin, also auch HDR.

Mantikor
2005-03-02, 15:24:34
@reunion: Ich glaube, dass gaestle von einer X800 XT-PE geredet hat.

reunion
2005-03-02, 15:31:17
@reunion: Ich glaube, dass gaestle von einer X800 XT-PE geredet hat.

Kann sein. Allerdings ging es mit auch mehr um den zweiten Teil.

1.) Hat NV40 im gegensatz zum R420 ein recht ausgewogenes Verhältnis Füllrate/Speicherbandbreite. Kann also seine Füllrate fast immer voll ausspielen.

2.) Steigt die Leistung keinesfalls linear mit der Taktrate.

robbitop
2005-03-02, 15:31:38
Was heute bei 90% der Anwendungen der Fall ist.
Allerdings kann er diese natütlich nur ausspielen wenn auch die Bandbreite reicht.



Shadermark ect. zeigen davon recht wenig.

1. Nur wenn viel AF im Spiel ist.
2. Bandbreite ist bei AF und/oder mehreren Texturschichten unwichtiger als sonst. Denn bis der entgültige Farbwert des Pixels errechnet ist, dauert es eh mehrere Takte. Bis dahin kommen die Texturcaches zum Einsatz.


3.IIRC war eine NV40 @400MHz einer R420 @520MHz soziemlich ebenbürtig. Und stellt man den SM3 Mode im Shadermark ein, dann gibts nochmal ein paar Frames mehr. Ähnliches Spiel mit FP16. (u.A. dank der kostenfreien Vektor Renormalisierung bei PP)

TheCounter
2005-03-02, 15:32:45
durchschnittliche FPS, und jetzt willst du dann noch behaupten, dass 5 fps mehr (37 fps der XT PE) viel besser spielbar seien und die min-fps auf Radeons sowieso weit höher liegen, was?!

Es geht mir nicht um einen speziellen Grafikkartenhersteller, wie oft denn noch? Dir ist bekannt das es auch noch andere SM2.0 Grafikkarten gibt außer denen von ATi?

@Ailuros

Hast du das mit Fraps gemessen? Also einmal die Demo durchgespielt und dabei den Benchmarkmodus von Fraps laufen gelassen? Würde das auch gerne mal bei mir testen (Verschiedene Settings).

Ailuros
2005-03-02, 15:37:08
Was heute bei 90% der Anwendungen der Fall ist.
Allerdings kann er diese natütlich nur ausspielen wenn auch die Bandbreite reicht.

Doom3, Far Cry, HL2, SC3 oder weiss der Henker was noch sind alles andere als rein GPU-limitiert. Eher eine merkwuerdige Kombination von gleichzeitiger CPU und GPU Limitierung, wobei man der CPU Limitierung erst in 1600 mit AA/AF entgehen kann. Da spielt sich natuerlich die hoehere PS- und/oder AF Fuellrate besser aus. Aber einen analogen Unterschied was die Leistung betrifft im Vergleich zur hoeheren Fuellrate einer X800XT PE ist es immer noch nicht.

32FPS durchschnitt oder min. FPS? Wobei ich von max. Details ausgegangen bin, also auch HDR.

Macht doch keinen Sinn wenn ich 2xAA/8xAF Leistung auf beiden Karten vergleichen will (weil eben wie bekannt eben AA+HDR auf NV40 nicht geht). Natuerlich durchschnittliche Leistung und der Vergleich ist sowieso ungleich, da der SM1.1 zum SM3.0 sowieso schon Unterschiede hat.

Schaltet man AA bei NV40 aus und HDR ein, kann ich es mit was genau auf einer R420 vergleichen?

reunion
2005-03-02, 18:45:01
INQ: ATI R520 board codename is Raptor (http://www.the-inquirer.net/?article=21541)

seahawk
2005-03-02, 18:52:08
Die brauchen dringend mal Frischluft. Das kann man ja nicht mehr lesen...

Razor
2005-03-02, 18:59:07
Die brauchen dringend mal Frischluft. Das kann man ja nicht mehr lesen...Ähm...
"...while its little Raptor Fudo will end up..."
*grunz*

Razor

P.S.: das andere ist wirklich zu OT... ;)
Nur soviel: bis vor kurzem hab' ich's auch noch so gemacht und erstaunt war ich selber über den Fakt, dass mich die 6800LE in toto weniger (!) gekostet hat, als seinerzeit die zur Voodoo2 dazu gekauften TNT...

Ziggi Stardust
2005-03-02, 20:51:16
Wann wurde die MAXX veroeffentlicht? Von dem abgesehen wie sieht es mit dem OGL ICD bei Vorstellung der G400 aus?

EMBM hatte ein grausames Schicksal (bedauernd tatsaechlich); sobald es von der Mehrzahl der Karten unterstuetzt wurde, wurde es von Pixel Shader ueberrannt. Aendert aber trotzdem nicht viel an all dem obrigen.

Der von mir verlinkte Test auf Heise ist etwa 1–2 Tage nach dem Artikel auf firingsquad das letzte Mal aktualisiert worden, da war die MAX also schon verfügbar (plus Benchmarks in openGL). Und das die Technik bei Anderen erst später Anwendung fand, spricht ja nicht gerade gegen die exponierte Stellung des G400. Aber lassen wir es an dieser Stelle gut sein. Wir drehen uns im Kreis, und irgendwie habe ich das komische Gefühl, daß Du dich in Deinem Standpunkt, vor Erscheinen dieses 40.000plus-Chips (ob von ATI oder wem auch immer) sowieso nicht mehr bewegen wirst. ;) Stören wir den Thread nicht weiter mit dieser Sache, die letztendlich nur von harten Fakten in der Zukunft beantwortet werden kann. Mal sehen, vielleicht läßt sich der ein oder andere Satz in 12 Monaten wirklich nochmal, mit dem zeitlichen Abstand, schmunzelnd zitieren …

nagus
2005-03-03, 11:51:21
könnten wir bitte beim thema bleiben?
danke

Ziggi Stardust
2005-03-03, 12:10:11
könnten wir bitte biem thema bleiben?
danke
nagus, nichts Neues von Zardon? Warum kommt da nichts mehr?

Ailuros
2005-03-03, 12:28:45
Wir drehen uns im Kreis, und irgendwie habe ich das komische Gefühl, daß Du dich in Deinem Standpunkt, vor Erscheinen dieses 40.000plus-Chips (ob von ATI oder wem auch immer) sowieso nicht mehr bewegen wirst. ;) Stören wir den Thread nicht weiter mit dieser Sache, die letztendlich nur von harten Fakten in der Zukunft beantwortet werden kann. Mal sehen, vielleicht läßt sich der ein oder andere Satz in 12 Monaten wirklich nochmal, mit dem zeitlichen Abstand, schmunzelnd zitieren …

Ein bisschen Lektuere von einem professionellen Analysten was den profi-Markt betrifft:

http://users.otenet.gr/~ailuros/JPR.ppt

Seite 10 und Zitat:

OEM presence declining
Continued focus on custom-fit solutions for large customers

robbitop
2005-03-03, 19:13:13
R300 Thread hier posten *split*

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=208544&page=4&pp=20

nagus
2005-03-03, 20:54:15
nagus, nichts Neues von Zardon? Warum kommt da nichts mehr?

weil er eine NDA unterzeichnet hat und vermutlich schon zu viel verraten hat. es ist aber offensichtlich: er hat einen R520 prototypen. wenn man alle seine posts in diesem thread betrachtet, gibts nur die eine logische schlussfolgerung.

fjhflsdkfsdklf
2005-03-05, 14:47:46
weil er eine NDA unterzeichnet hat und vermutlich schon zu viel verraten hat. es ist aber offensichtlich: er hat einen R520 prototypen. wenn man alle seine posts in diesem thread betrachtet, gibts nur die eine logische schlussfolgerung.

Nein,

es gibt keinen Prototypen mit NDA!

Im übrigen finde ich es sehr erstaunlich wie schön sich einige hier den NV40 reden, hahahaha, würde ich auch machen, bei dem Schrottpreis

Hörnchen
2005-03-05, 15:57:09
Genau, die verlangen ja so wahnsinnig viel mehr als ATI und von daher: Stimmt, für das was der NV40 kann, ist das wirklich Schrottpreisniveau. In den meisten Situationen ca. gleich gut wie der R480 und kann wesentlich mehr. So gesehen eine Frechheit das ATI noch so viel Geld für eine Nur-schnell-und-kann-wenig-Karte verlangt wo ja jetzt unmittelbar der R520 vor der Tür steht und alles wegrul0rt....


Achtung: Wer Ironie und Sarkasmus nicht findet, darf beide behalten.

wuddu
2005-03-05, 18:03:09
OT: was kann der NV40 mehr ? Kaffee kochen ? Eher wohl nicht - aber die Vorhersage der Lottozahlen wäre imo nicht schlecht - aber nicht mal des packt se. Was se hat ist SM3.0 - tolles Feature, braucht derzeit nur noch kein Schwein. Da ist mir doch Uralttechnik ala X800XTPE lieber, wo die min._Frames nicht so in den Keller fallen und ein noch immer überlegenes AA als Standart gilt.

hmx
2005-03-05, 18:24:04
Jemand der SC3 in voller Qualität spielen will braucht SM3. Und es werden demnächst wohl andere Spiele folgen. Aber naja hauptsache das mit den Sinnlose Feutures die zu Lebzeiten keiner braucht bei jeder Gelegenheit nachplappern...

G???ast
2005-03-05, 19:01:36
Jemand der SC3 in voller Qualität spielen will braucht SM3. Und es werden demnächst wohl andere Spiele folgen.

Jo, 2-3 Stück. Wenn das mal kein Grund zum nen NV40 kaufen ist.....

Für manche hier ist das ja ein gefundenes Fresschen, weil SC3 nun ohne SM2 daherkommt. Als ob das Game ne Killerapp wäre...

Coda
2005-03-05, 19:08:44
Warum sollten die "Min FPS" bei nV viel schlechter sein, bzw wo ist der Beleg dafür?

hmx
2005-03-05, 19:08:47
@ G???ast
Du tust ja gerade so als ob der NV40 sonst grottenlangsam ist. Und es gibt einige, die ihre Karte auch mal etwas länger behalten wollen.

-error-
2005-03-05, 19:28:53
Glaubt ihr auch, dass die R520 kurz nach der Release verfügbar ist?

Immerhin wird sich die Ausbeute ja dramatisch ehöhen, dank 0.9µ richtig?

Dann hängt die Verfügbarkeit ja eigendlich nur wiedermal von den der Verfügbarkeit der Speicherchips ab.

900mhz (Realtakt) klingen vielleicht uneralistisch, aber ATI kann doch erst die ganze Power über hohe Speichergeschwindigkeiten auspielen? Bei Nvidia ist ja die Taktung der GPUs wichtiger.

mapel110
2005-03-05, 19:34:57
Glaubt ihr auch, dass die R520 kurz nach der Release verfügbar ist?

Immerhin wird sich die Ausbeute ja dramatisch ehöhen, dank 0.9µ richtig?

Dann hängt die Verfügbarkeit ja eigendlich nur wiedermal von den der Verfügbarkeit der Speicherchips ab.

900mhz (Realtakt) klingen vielleicht uneralistisch, aber ATI kann doch erst die ganze Power über hohe Speichergeschwindigkeiten auspielen? Bei Nvidia ist ja die Taktung der GPUs wichtiger.

1. Weiss keiner, siehe weitere Antworten.
2. Ausbeute hängt auch von der Komplexität des Chips ab (bleibt wohl nicht beim R420-Design. :ugly:). Ausserdem will man ja auch ein bestimmtes Ziel bei den Taktraten erreichen.
3.Das mit den Speicherchips bei der aktuellen Generation war nur eine (falsche) Vermutung seitens Inquirer.
4.Ist eher umgekehrt (zumindest beim R420). ATI braucht mehr Chiptakt um auf Leistung zu kommen. Beim Speicher wirds wohl die wenigsten Unterschiede zwischen R520 und nvidia-refresh geben.

wuddu
2005-03-05, 19:47:17
@hmx

hatte selbst ne Ultra und ohne den Framecounter bemühen zu müssen, fiel mir z.B. in FC die Framerate@1280x1024@4xaa+8xaf zu sehr in den Keller. S.h. es ruckelte ab und an. Selbiges Problem@DTM_RD2. Zudem erkennt man z.B. in F1 99-02 AFAIK schon einen Unterschied zwischen ATI´s aa und NV´s aa.

@all

Ich will hiermit nicht den NV40 schlecht machen - ist imo eine echt gute GraKa! Allerdings kotzt es mich an, wenn die R4xx-Serie dermaßen durch den Kakao gezogen wird, nur weil sie SM3.0 nicht unterstützt. Sie IST und das muß jedem NV-Fanboy klar sein, ne verdammt schnelle Karte, auf der derzeit bis auf HDR@FC JEDEN Effekt in hohen, s.h. spielbaren Framerates darstellen kann.

Coda
2005-03-05, 19:56:35
Es geht ja nicht nur darum ob sie alles darstellen kann, sondern auch wie einfach es zu machen ist.

hmx
2005-03-05, 20:01:27
@hmx

hatte selbst ne Ultra und ohne den Framecounter bemühen zu müssen, fiel mir z.B. in FC die Framerate@1280x1024@4xaa+8xaf zu sehr in den Keller. S.h. es ruckelte ab und an. Selbiges Problem@DTM_RD2. Zudem erkennt man z.B. in F1 99-02 AFAIK schon einen Unterschied zwischen ATI´s aa und NV´s aa.

@all

Ich will hiermit nicht den NV40 schlecht machen - ist imo eine echt gute GraKa! Allerdings kotzt es mich an, wenn die R4xx-Serie dermaßen durch den Kakao gezogen wird, nur weil sie SM3.0 nicht unterstützt. Sie IST und das muß jedem NV-Fanboy klar sein, ne verdammt schnelle Karte, auf der derzeit bis auf HDR@FC JEDEN Effekt in hohen, s.h. spielbaren Framerates darstellen kann.


Was hast du denn für eine CPU? Bei mir gingen an einigen Stellen auch die Frames ziemlich nach unten. Aber das waren CPU-Limitierte stellen, da es jetzt mit einer schnelleren CPU nicht mehr passiert. Ich zieh die r4xx Serie eigendlich nie durch den kakao. Aber ich reagiere mdarauf wenn andere immer dieses Totschlag Argument von wegen "SM3 ist unnütz" bringen ohne Begründung.

-error-
2005-03-05, 20:26:38
@hmx

Zudem erkennt man z.B. in F1 99-02 AFAIK schon einen Unterschied zwischen ATI´s aa und NV´s aa.



Ja, aber auch das bessere AF sieht man bei F1 99-02 recht gut.

Jesus
2005-03-05, 21:13:52
4.Ist eher umgekehrt (zumindest beim R420). ATI braucht mehr Chiptakt um auf Leistung zu kommen. Beim Speicher wirds wohl die wenigsten Unterschiede zwischen R520 und nvidia-refresh geben.

eh nein, die Topmodelle hängen allesamt extrem am Speicher.

Ja, aber auch das bessere AF sieht man bei F1 99-02 recht gut.

stimmt, bei ATI flimmerts weniger :)

asdfasdfasdf
2005-03-05, 21:27:38
Genau, die verlangen ja so wahnsinnig viel mehr als ATI und von daher: Stimmt, für das was der NV40 kann, ist das wirklich Schrottpreisniveau. In den meisten Situationen ca. gleich gut wie der R480 und kann wesentlich mehr. So gesehen eine Frechheit das ATI noch so viel Geld für eine Nur-schnell-und-kann-wenig-Karte verlangt wo ja jetzt unmittelbar der R520 vor der Tür steht und alles wegrul0rt....


Achtung: Wer Ironie und Sarkasmus nicht findet, darf beide behalten.


LOL und was bitte bringt mit SM3.0?? null komma nix. spiele die solche features wirklich ausreizen sind noch jahre entfernt.

Coda
2005-03-05, 21:30:55
Inwiefern kann man eine frei programmierbare Einheit "ausreizen"?

Das es jetzt schon gewisse Anwendungen für SM 3.0 gibt zeigen doch Far Cry und SC3.

Static Branching im PixelShader macht die Shaderverwaltung sehr viel einfacher.

dildo4u
2005-03-05, 21:31:40
LOL und was bitte bringt mit SM3.0?? null komma nix. spiele die solche features wirklich ausreizen sind noch jahre entfernt.
ca.3 wochen dann kommt SC3.

Jesus
2005-03-05, 21:33:58
ca.3 wochen dann kommt SC3.

was aber ebenfalls wieder kein gutes Vorzeigebeispiel für SM3 ist, wie alle anderen bisherigen auch :)

deekey777
2005-03-05, 21:33:59
ca.3 wochen dann kommt SC3.

Sag doch sowas nicht. ;(
Und im Mai kommt der R520 und ownt alles.

dildo4u
2005-03-05, 21:37:23
was aber ebenfalls wieder kein gutes Vorzeigebeispiel für SM3 ist, wie alle anderen bisherigen auch :)
Man hat deutlich bessre Grafik Ubisoft kann nix dafür das der NV40 zu lahm bei hoher auflösung dafür ist wenn der R520 bei 1280 mit 4XAA(wenn überhaupt in verbindung mit HDR möglich) mehr als 30fps im schnitt dann Gratuliere ich ati voher nicht.

http://cerberus.gamershell.com/screenshots/4114/161535_full.jpg

http://cerberus.gamershell.com/screenshots/4114/161536_full.jpg


http://cerberus.gamershell.com/screenshots/4114/161540_full.jpg

http://cerberus.gamershell.com/screenshots/4114/161541_full.jpg



Nur Geil das ist echte Next Generation keine Kompromisse wie bei HL2 oder Doom3 Geniale Texturen und sher guter echtzeit schatten geparrt mit dem besten Bumpmapping das es gibt.

http://cerberus.gamershell.com/screenshots/4114/161967_full.jpg

http://cerberus.gamershell.com/screenshots/4114/161969_full.jpg

TheCounter
2005-03-05, 21:53:32
Wobei die Schatten wieder so einen äußerst komischen Rand haben wie bei Farcry die Shadowmaps/Volumetric Shadows. Die UE3 bekommt das richtig gut hin (Wohl durch einen Blur-Filter?). An was liegt das eigentlich das die Schatten bzw. der Rand der Schatten so extrem komisch aussehen/aussieht?

Ansonsten ist SC3 bei weitem kein SM3.0 Vorzeigebeispiel da man diese Effekte optisch auch mit SM2.0 hätte machen können.

Die UE3 (Dieses Monat gibts wohl neues Bild-/Videomaterial auf der GDC) könnte man schon eher als Vorzeigebeispiel ansehen.

EDIT:

Woher kommen diese komischen Blockartefakte auf dem Boden (Letzter Screenshot)?

dildo4u
2005-03-05, 21:56:39
Ansonsten ist SC3 bei weitem kein SM3.0 Vorzeigebeispiel da man diese Effekte optisch auch mit SM2.0 hätte machen können.
?
Ja is aber nicht so von daher wer das game sofort in voller Pracht zocken will braucht eine SM3.0 Fähige karte hätte wäre wenn bringt mir nix sorry.

Coda
2005-03-05, 21:56:44
Wie gesagt es geht nicht darum _ob_ man es mit SM 2.0 machen könnte
Es ist mit SM 3.0 nur unheimlich einfacher. Entwickler haben meistens keinen Bock mehr sich mit Hacks rumzuschlagen, wenn man eine saubere Lösung hat.

Bestimmte Features von SM 3.0 hätten eigentlich schon in SM 2.0 sein müssen, ich denke da hat sich nur ATi schon damals quergestellt (Stichwort static branching)

mapel110
2005-03-05, 21:57:08
Die UE3 (Dieses Monat gibts wohl neues Bild-/Videomaterial auf der GDC) könnte man schon eher als Vorzeigebeispiel ansehen.

Warum? Glaubst doch nicht ernsthaft, dass man die UE3-Effekte nicht auch mit SM2 hinbekommen kann?!

TheCounter
2005-03-05, 22:00:13
Warum? Glaubst doch nicht ernsthaft, dass man die UE3-Effekte nicht auch mit SM2 hinbekommen kann?!

Weil die UE3 unter anderem von Grund auf drauf aufgebaut ist? Neben SM2.0 (Läuft ja erst ab SM2.0 Karten) natürlich. Was es bei der UE3 bringt werden wir sehen.

Wer kann mir nun erklären wieso die Schatten (Der Rand) so komisch aussehen?

Coda
2005-03-05, 22:00:33
Warum? Glaubst doch nicht ernsthaft, dass man die UE3-Effekte nicht auch mit SM2 hinbekommen kann?Theoretisch kann man wirklich fast jeden SM 3.0 Effekt mit SM 2.0 erzeugen. Ausgenommen dynamische loops z.B.

Aber wie gesagt werden Spiele die jetzt mit SM 3.0 begonnen werden nur noch in Ausnahmefällen SM 2.0 Support bekommen, weil das den ganzen Code um einiges komplexer machen würde beim Shadermanagement.

Wenn man eine High-End Karte nur für jetzt kauft, dann ist R420 wohl noch zu gebrauchen, aber dann sollte man auch im nächsten Jahr eine neue anschaffen (wobei man jetzt ja schon die Auswirkungen von SM 3.0 spürt)

LovesuckZ
2005-03-05, 22:44:18
Ansonsten ist SC3 bei weitem kein SM3.0 Vorzeigebeispiel da man diese Effekte optisch auch mit SM2.0 hätte machen können.


"optisch" ginge es auch mit der CPU.
SM3.0 ist für den Entwickler eine Vereinfachung seiner Arbeit.
Man kann ihm keine Vorwürfe machen, wenn er keine Lust haette seine (hoch-)komplexen Shader mit deutlichem Aufwand auf nur einen "beschränkten"* Markt umzuschreiben.

*Bezieht sich auf Aussagen von einigen, dass bestimmte Effekte bzw. Shadermodelle nur dann verwendet werden sollen, wenn diese auch leistungstechnisch wiedergegeben werden können (somit faelle alles bis hinauf zur X800SE raus).

TheCounter
2005-03-06, 02:48:38
*Bezieht sich auf Aussagen von einigen, dass bestimmte Effekte bzw. Shadermodelle nur dann verwendet werden sollen, wenn diese auch leistungstechnisch wiedergegeben werden können (somit faelle alles bis hinauf zur X800SE raus).

Bei Parallax Mapping wäre das nicht der Fall. Selbst eine R9700/9800 np/pro sollte das noch mit gutem Speed hinbekommen (In Doom 3 liefs sehr gut). Also mir gehts zumindest so das Parallax Mapping den größten Unterschied ausmacht.

nv-dollars
2005-03-06, 09:26:58
Man kann ihm keine Vorwürfe machen, wenn er keine Lust haette seine (hoch-)komplexen Shader mit deutlichem Aufwand auf nur einen "beschränkten"* Markt umzuschreiben.


Hallo,

ich bin erstaunt, welche Thesen hier aufgestellt werden.

Es wurden nur alleine in Deutschland in....
2004: 6 Mio Grafikkarten....
2005: 2,5 Mio Grafikkarten....

...verkauft, die SM2.0 NUR unterstützen!

Da müssen einige NV$$$$ gerollt sein, damit mann diesen Markt ausser acht läßt.

Demirug
2005-03-06, 10:19:17
Hallo,

ich bin erstaunt, welche Thesen hier aufgestellt werden.

Es wurden nur alleine in Deutschland in....
2004: 6 Mio Grafikkarten....
2005: 2,5 Mio Grafikkarten....

...verkauft, die SM2.0 NUR unterstützen!

Da müssen einige NV$$$$ gerollt sein, damit mann diesen Markt ausser acht läßt.

Habe ich was verpasst? Läuft SC3 auf diesen Karten etwa nicht?

BerndJazz
2005-03-06, 12:22:05
Hallo,
auch wenn das hier jetzt langsam OT wird hab ich doch mal ein paar Fragen.
Ist es denn icht eher so das im Moment diese "hochentwickelten" Shader für SM 3.0 eher eine Entwicklung für einen "beschränkten" Markt sind, besonders wenn man HDR nutzen will?
Welche Karten von Nvidia sind in der Lage SM 3.0 inklusive aller Optionen(insbesondere HDR) wirklich spielbar auf den Bildschirm zu bringen?
Und wie ist das mit den SM 3.0 der ersten Generation von Nvidia? Die hatten, soweit ich mich erinnere keine besonders gute Leistung mit SM 3.0. Können die die anderen Optionen des SM 3.0 Modells von SC:CT schnell genug darstellen?
Besteht also nicht die Gefahr das auch viele Nvidianutzer hier auf bessere Grafik verzichten müssen und nur der "kleine" elitäre Kreis der Nutzer von Nvidia Highendkarten der neuesten Generation etwas davon hat?
Hat UBIsoft jetzt wirklich den Kunden einen Gefallen getan der diese große Aufregung und gelegentliche Hähme rechtfertigt?
Ist es nichr eher bedenklich daß dieser "Krieg" der beiden Grafikkartengiganten immer häufiger Nachteile in Spielen bei der einen oder anderen Seite der User verursacht? Und anstatt diesen "Krieg" auf der Endkundenebene fortzusetzen sollte man eigentlich gemeinsam erkennen das dies auf lange Sicht keinem Kunden nutzt.

Abgesehen davon muß ich sagen(Achtung!=ab hier persönlichr Geschmack) daß ich die Begeisterung über die Grafik von SC:CT nicht ganz teilen kann. Das Gesamtkonzept sagt mir nicht sehr zu und ist stellenweise echt gruselig(überzogene und unangebrachte Glanzeffekte, Fishers Gesicht, Wasserdarstellung um nur einige zu nennen)
Und ausserdem scheidet HDR ohne AA für mich als zu nutzende Option sowieso aus, ich bin überzeugter AA-Nutzer. Das hat mir schon SC2 fast vermießt.
Ansonsten schon mal danke für hilfreiche Antworten.
MfG

BerndJazz

Coda
2005-03-06, 12:52:18
HDR hat rein gar nichts mit SM 3.0 zu tun.

Die Radeon können das nur nicht weil sie keinen FP ROPs haben.

hmx
2005-03-06, 12:53:00
Man kann ja auch zum Bespiel auf HDR verzichten und alle anderen SM3-Effekte trotzdem anschalten. Dass ein Spiel mit allen Details nur auf Highendkarten flüssig läuft ist doch nicht besonderes.

TheCounter
2005-03-06, 13:03:53
Die Radeon können das nur nicht weil sie keinen FP ROPs haben.

Können schon (Im allgemeinen), aber es ist schwerer es zu programmieren als auf einem nV4x.

BerndJazz
2005-03-06, 13:07:45
@Coda

Danke, aber ich wollte eigentlich nicht wissen warum die Radeons kein HDR können, sondern welche Nvidias HDR in SC:CT spielbar darstellen können.

@hmx
ja, schon klar. Aber welche Nvidias kommen denn jetzt mit SM 3.0 auch ohne HDR gut genug klar?

MfG

BerndJazz

LovesuckZ
2005-03-06, 13:08:38
@hmx
ja, schon klar. Aber welche Nvidias kommen denn jetzt mit SM 3.0 auch ohne HDR gu genug klar?


kurz und bündig:
Jede.

TheCounter
2005-03-06, 13:11:31
@hmx
ja, schon klar. Aber welche Nvidias kommen denn jetzt mit SM 3.0 auch ohne HDR gut genug klar?

MfG

BerndJazz

Wenn du nur SM3.0 ohne Zusatzeffekte aktiviert hast, dann jede (Außer vlt. die 6200). Ansonsten würd ich mal sagen ab einer GF6800GT ums wirklich flüssig zu spielen.

ShadowXX
2005-03-06, 13:13:40
@Coda

Danke, aber ich wollte eigentlich nicht wissen warum die Radeons kein HDR können, sondern welche Nvidias HDR in SC:CT spielbar darstellen können.

@hmx
ja, schon klar. Aber welche Nvidias kommen denn jetzt mit SM 3.0 auch ohne HDR gut genug klar?

MfG

BerndJazz

SM3.0 ohne HDR sollten zumindest die 6800GTs und Ultras ohne Probleme schaffen (selbst mit 2xAA/8xAF bei 1280x1024)*.
Ohne AA sollten sehr wahrscheinlich auch 6600Gts bei 1024x768 noch genug Frames liefern.

HDR würde ich erst bei Ultras dazuschalten, dann aber mit der Auflösung bei 1024x768 bleiben.

Und nur um es nochmal zu sagen HDR hat im Prinzip nix mit SM3.0 zu tun.


*zumindest bei mir (6800Ultra) funktioniert es mit 4xAA/8XAF mit allen SM3.0-Effekten in 1280x1024 ganz gut.

BerndJazz
2005-03-06, 13:14:56
@LovesuckZ + TheCounter + ShadowXX

danke, das waren doch mal eindeutige Antworten.

MfG

BerndJazz

Coda
2005-03-06, 13:17:31
Danke, aber ich wollte eigentlich nicht wissen warum die Radeons kein HDR können, sondern welche Nvidias HDR in SC:CT spielbar darstellen können.Kann man das nicht freundlicher sagen?

Vor allem weil ich davon ausging, dass man wusste das HDR in SC3 eigentlich den kompletten Leistungsabfall produziert.

BerndJazz
2005-03-06, 13:19:34
Hallo, das mit HDR und SM 3.0 ist mir soweit schon klar, aber SM 3.0 soll doch auch dabei helfen HDR performancemäsig auf die Sprünge und zum Durchbruch zu helfen. Oder vertue ich mich da?

MfG

BerndJazz

Jesus
2005-03-06, 13:19:46
kurz und bündig:
Jede.

Wohl kaum ohne Kompromisse, wenn man sich mit den High-End Karten im 30fps Bereich befindet...

Coda
2005-03-06, 13:20:23
Warum das denn? Jeder SM 2.0 Shader als SM 3.0 Shader kompiliert wird schneller sein, somit ist diese Aussage reiner FUD.

Sieht man ja an SC3, trotz SM 3.0 ist das Spiel nicht langsamer (ohne HDR, das wie gesagt nichts damit zu tun hat).

BerndJazz
2005-03-06, 13:21:15
@Coda

Sorry, sollte wirklich nicht unfreundlich sein. Wollte mich nur kurz fassen.
Also nichts für ungut

MfG

BerndJazz

Jesus
2005-03-06, 13:22:23
Warum das denn? Jeder SM 2.0 Shader als SM 3.0 Shader kompiliert wird schneller sein, somit ist diese Aussage reiner FUD.

Wieso sollte ein SM2 Shader im SM3 Profil kompiliert plötzlich schneller werden ?

Coda
2005-03-06, 13:23:03
Weil man weniger Instructions braucht (arbitary swizzle, etc.).

Jesus
2005-03-06, 13:24:51
Weil man weniger Instructions braucht. (arbitary swizzle)

Heisst aber nicht automatisch dass der Shader schneller wird. Ein Sprung etc braucht auch Zeit, und kann genauso gut in die Hose gehen.

Coda
2005-03-06, 13:25:34
Ich rede ja auch nicht von Sprüngen. Siehst du das ist das Problem, du redest hier wehement gegen SM 3.0 ohne von der Materie Ahnung zu haben.

Jesus
2005-03-06, 13:32:10
Ich rede ja auch nicht von Sprüngen. Siehst du das ist das Problem, du redest hier wehement gegen SM 3.0 ohne von der Materie Ahnung zu haben.

Dann schreib mir doch mal einen Shader der diesen Geschwindigkeits "Boost" erzielt, wenn du so viel "Ahnung" hast, oder zeig mir einen in nem aktuellen Spiel.

(Btw. arbitrary swizzlen kann der nv30 auch)

Coda
2005-03-06, 13:33:43
Ja kann er, aber ich rede von PS 2.0 Shadern nicht PS 2.x

Wenn du Beispiele willst dann lad dir den Shadermark runter - da sind fast sämtliche Shader im SM 3.0 Profil schneller (und niemals langsamer), obwohl sie das gleiche machen.

Es ging ja auch nur um die Aussage "SM 3.0 ist auf der GeForce 6 nicht brauchbar", was einfach Schwachsinn ist. Gerade static branching macht es den Entwicklern einfacher und das kann sie sehr schnell.

Jesus
2005-03-06, 13:38:37
Es ging ja auch nur um die Aussage "SM 3.0 ist auf der GeForce 6 nicht brauchbar", was einfach Schwachsinn ist.

Hab ich das gesagt ? :rolleyes:
Ich finde es nur komisch dass es nach so kurzer Zeit schon Sachen gibt die wirklich nicht mehr optimal laufen, trotz teuerester High End Hardware (PF, Riddick, SC3).
Vielleicht ist das Verhältnis von Effekten, Machbarkeit und Geschwindigkeit dank SM3 etwas aus den Fugen geraten ? (bezogen auf die akutelle HW)

Coda
2005-03-06, 13:41:24
SC3 läuft doch wunderbar mit SM 3.0, was erzählst du denn da? HDR hat wie schon 100 mal gesagt nichts damit zu tun.

Vielleicht ist das Verhältnis von Effekten, Machbarkeit und Geschwindigkeit dank SM3 etwas aus den Fugen geraten ?Mitnichten. Das macht den Entwicklern die Verwaltung von Effekten sehr viel einfacher, weil man nur wenige Shader braucht ohne Geschwindigkeit zu opfern.

Bei Vertexshadern wird das sogar von ATi empfohlen, ich habe ehrlich gesagt keine Ahnung warum sie das damals nicht in die Pixelshader integriert haben. (ehrlich gesagt ging ich auch immer davon aus, sonst hätte ich das schon viel früher ins Feld geführt)

Meine kleine Engine erzeugt z.B. dynamisch Shader welche zwei verschiedene Lichtberechnungen enthalten. Eine für DOT3 Lightmaps und eine für dynamisches Licht. Ich setze einfach eine Konsante je nachdem was ich haben will.

Ansonsten müsste ich jeden Shader mindestens doppelt erzeugen und verwalten.

Ailuros
2005-03-06, 13:54:07
SC3 laeuft generell (egal welcher verwendeter rendering path) viel zu langsam fuer das was der Spieler am Ende auf seinen Bildschirm bekommt IMO.

Von dem abgesehen momentan werden sowieso keine wahren SM3.0-Effekte in Spielen benutzt, nur meistens spezielle paths um Leistung zu steigern.

PowerVR's Cloth animation demo benutzt dynamic branching, loops und vertex texturing und wenn ich mich nicht irre kommt das Resultat auf eine verrueckt hohe Instruktions-Anzahl (irgendwo knapp unter der 100K Grenze alles mitberechnet). Eine NV40 animiert das Ding aber immer noch mit rund um die 100fps, weil es sich eben um einen 64*64 grid handelt.

Da wo ich aths Recht gebe, ist dass viel zu viele SM3.0 entweder grandios unterschaetzen oder um einiges ueberschaetzen. Weiterhin sollte man nochmal daran erinnern dass SM3.0 eine quasi-Vorschwelle fuer Shaders in WGF2.0 sind. Es sollte keinem entgehen dass all die SM3.0 Faehigkeiten eine absolute Vorraussetzung fuer zukuenftige WGF2.0-Komplianz sein wird.

LovesuckZ
2005-03-06, 14:13:57
Wohl kaum ohne Kompromisse, wenn man sich mit den High-End Karten im 30fps Bereich befindet...

Der selbe Shader oder deutlich komplexere, die aufgrund der Beschraenkung der R420 Technologie dort nichtmal ausgeführt werden können?

Marbleearth
2005-03-06, 14:33:17
hi wann kommen den die neuen grafikkartengenerationen von NVidia/ATI raus? weil bräuchte jetzt ne neue Graka und wär schon scheiße wenn die dann in nem Monat nur noch halb so teuer ist weil die neuen Karten den Preis drücken...

mapel110
2005-03-06, 14:36:51
hi wann kommen den die neuen grafikkartengenerationen von NVidia/ATI raus? weil bräuchte jetzt ne neue Graka und wär schon scheiße wenn die dann in nem Monat nur noch halb so teuer ist weil die neuen Karten den Preis drücken...

Vorstellung bei Beiden wohl im Mai/June. zur Lieferbarkeit kann keiner was sagen, das muss sich erst zeigen.

Coda
2005-03-06, 14:45:32
Im Mai wird zumindest die neue von ATi vorgestellt, was nVidia macht steht noch in den Sternen.

Ailuros
2005-03-06, 15:29:05
Im Mai wird zumindest die neue von ATi vorgestellt, was nVidia macht steht noch in den Sternen.

Die Projektion im letzten Jahr war noch optimistischer als diese. Selbst die obrige Projektion sollte im Bereich des "wenn alles nach Plan laeuft" stehen (weisst Du ja besser als ich ;) ).

Coda
2005-03-06, 16:00:34
Aber einen Paperlaunch im Mai sollte es schon geben :D

xL|Sonic
2005-03-06, 16:04:13
Theoretisch kann man wirklich fast jeden SM 3.0 Effekt mit SM 2.0 erzeugen. Ausgenommen dynamische loops z.B.

Aber wie gesagt werden Spiele die jetzt mit SM 3.0 begonnen werden nur noch in Ausnahmefällen SM 2.0 Support bekommen, weil das den ganzen Code um einiges komplexer machen würde beim Shadermanagement.

Wenn man eine High-End Karte nur für jetzt kauft, dann ist R420 wohl noch zu gebrauchen, aber dann sollte man auch im nächsten Jahr eine neue anschaffen (wobei man jetzt ja schon die Auswirkungen von SM 3.0 spürt)

Und warum entwickelt man dann für die PS2 eine Version, die dem der XBox und PC Version grafisch überlegen ist, wenn es nur um PS1.1 geht?
Die PS2 ist bekanntermaßen nicht leicht zu programmieren, von daher glaube ich nicht wirklich daran. NV hat einfach genug Geld mit ins Spiel gebracht und fertig war der SM3.0 Deal.

TheCounter
2005-03-06, 16:05:30
In sachen NVIDIA:

http://www.beyond3d.com/#news20937

Well, from an architecture standpoint we’re just still at the beginning of shader model 3.0. And we need to give the programmers out there some time to continue to really learn about that architecture. So in the spring refresh what you’ll see is a little bit faster versions...

If you look at when we go to 90, my guess will be is we’ll have one or two products this year going from 90 in the second half

Mit 90 ist hier 90nm gemeint ;)

Coda
2005-03-06, 16:06:51
Und warum entwickelt man dann für die PS2 eine Version, die dem der XBox und PC Version grafisch überlegen ist, wenn es nur um PS1.1 geht?Uhm, weil die PS2 ein ewig großer Markt ist? Und wo ist die dem PC überlegen (mit SM 3.0)?

mapel110
2005-03-06, 16:08:42
In sachen NVIDIA:

http://www.beyond3d.com/#news20937

Well, from an architecture standpoint we’re just still at the beginning of shader model 3.0. And we need to give the programmers out there some time to continue to really learn about that architecture. So in the spring refresh what you’ll see is a little bit faster versions...

If you look at when we go to 90, my guess will be is we’ll have one or two products this year going from 90 in the second half

Mit 90 ist hier 90nm gemeint ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2789941#post2789941
Guten Morgen. :)

xL|Sonic
2005-03-06, 16:12:06
Uhm, weil die PS2 ein ewig großer Markt ist? Und wo ist die dem PC überlegen (mit SM 3.0)?

Hat die PC Version mit SM1.1 sowas wie Parallax Mapping(und ich sprach von SM1.1)?

Gegenfrage. Seit wann ist der PC Sektor so ein großer Markt, dass man dort extra noch etwas neues machen muss, wenn es doch mit der Portierung der Xbox version viel billiger geht.
Der Markt gibt das sicher nicht her und rechtfertigt es erst recht nicht nur auf SM3.0 zu setzen, es sei denn eine gewisse Firma hat dort noch in ihre Finger im Spiel mit ihrem Geld.

Coda
2005-03-06, 16:13:37
Man hat halt in kurzer Zeit die PC Version noch etwas aufgepeppt, da wäre aber mit SM 2.0 lang nicht soviel drin gewesen.

Was redest du immer von einer Firma? ATi bringt doch demnächst genauso einen SM 3.0 Chip.

xL|Sonic
2005-03-06, 16:15:09
Man hat halt in kurzer Zeit die PC Version noch etwas aufgepeppt, da wäre aber mit SM 2.0 lang nicht soviel drin gewesen.

Ich denke du überschätzt SM3.0 viel zu sehr.
Einer Firma geht es um Gewinnmaximierung und es wäre billiger gekommen einen reinen Xbox Port zu nehmen.
Alles was zusätzlich gemacht wird kostet Zeit, Ressourcen und Geld.

Derzeit gibt es aber keine andere Firma außer Nvidia, die derzeit nutzen aus SM3.0 bei Spielen zieht und dieses Feature vermarkten MUSS, weil die Karten sonst im direkten Vergleich zu den Radeons i.d.R. zu langsam sind in den Eye Candy Modes.

mapel110
2005-03-06, 16:15:21
Hat die PC Version mit SM1.1 sowas wie Parallax Mapping(und ich sprach von SM1.1)?

Gegenfrage. Seit wann ist der PC Sektor so ein großer Markt, dass man dort extra noch etwas neues machen muss, wenn es doch mit der Portierung der Xbox version viel billiger geht.
Der Markt gibt das sicher nicht her und rechtfertigt es erst recht nicht nur auf SM3.0 zu setzen, es sei denn eine gewisse Firma hat dort noch in ihre Finger im Spiel mit ihrem Geld.

Der Pixelshader 1.1 Pfad ist wohl grösstenteils von der Xbox übernommen. Die PC-Version erfordert so oder so mehr Arbeit. Stichwort Texturen, andere Steuerung etc pp und wenn dann das Budget noch was hergibt, aber nicht mehr soviel, dass man eye Candy noch mit sm2 kostengünstig und schnell hinbekommt, nimmt man eben sm3.

Coda
2005-03-06, 16:17:14
Ich denke du überschätzt SM3.0 viel zu sehr.Uhm nein. Wir wissen hier im Forum sehr genau wozu SM 3.0 bei SC3 gebraucht wird. Es wären 65536*3 SM 2.0 Shader um das ganze genauso nachzubilden.

Kannst du im DX9 SDK unter Static Branching alles nachlesen.

Wenn soviel Geld von nV geflossen sein soll, warum ist es dann nicht "The Way it's Meant to be Played"?

Ailuros
2005-03-06, 16:35:32
Wenn soviel Geld von nV geflossen sein soll, warum ist es dann nicht "The Way it's Meant to be Played"?

Beide IHVs werden sehr schnell verleugnen dass irgendwelche Summen bei den ISVs einfliessen, fuer entweder TWIMTBP oder GITG. Wenn es auch so waere, wuerden IHVs ziemlich schnell Bankrott gehen.

TheCounter
2005-03-06, 16:37:40
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=2789941#post2789941
Guten Morgen. :)

Und? War doch in nem anderen Thread ;)

q@h
2005-03-06, 16:41:00
Und warum entwickelt man dann für die PS2 eine Version, die dem der XBox und PC Version grafisch überlegen ist, wenn es nur um PS1.1 geht?
Ist die Frage wirklich ernst gemeint?

Nun, folgendes Szenario:
Du hast ein Game (Leveldesign, Art, Sound usw. stehen) und willst es auf mehreren Plattformen vermarkten. Nun programmierst du für Konsole 1, die sich fundamental von Konsole 2 unterscheidet, eine separate Version. Du sagtest ja selbst, daß es ein großer Aufwand ist, für die PS2 zu programmieren.
Dann programmierst du für die zweite Konsole ebenfalls eine Version. Praktischerweise (und von MS sicherlich nicht ganz ungewollt) bietet diese Konsole die Möglichkeit, ohne großen Aufwand auf den PC zu portieren.
Du tust das.

Nun hast du ein Problem - dein Game ist zwar für drei Plattformen fertig, aber auf der zweiten Konsole bereits so dicht am Limit, daß du keine zusätzlichen Effekte mehr für diese Version verkraften kannst. Der PC hingegen braucht solcherlei Effekte, damit man sich gegen die Konkurrenz bei den Bewertern der Spielezeitschriften behaupten kann und eine Chance auf hohe Wertungen hat.

Woher nimmst du nun diese Effekte?
Möglichkeit a:
Du programmierst zusätzlich zu deinen beiden (PC zähle ich mal zu Konsole zwei hinzu) vorhandenen Versionen noch eine dritte Engine, die Shadermodel 2.0 unterstützt und aus den vielen Kombinationsmöglichkeiten (die Anzahl dieser wurde ja schon mehrfach wiedergegeben) und Passes der Ursprungsversion immer die richtige Auswahl trifft im Hinblick auf das optische Endergebnis und die Limitierungen, die das Shadermodel 2.0 hat, trifft. Inklusive Debugging, Beta-Testing usw. usf. der kompletten neuen Engine im gesamten Spiel.

Möglichkeit b:
Du programmierst eine Version, wo du im großen und Ganzen mit drei (soviel waren's glaube ich) Shadern auskommst, die alle Möglichkeiten der Kombination der 1.1-Shader ausschöpfen. Dazu noch ein optionales Framebuffer-Format für HDR.

Letzteres wird im Gegensatz zu SM2.0 übrigens auch der min. Techlevel von min. einer, möglicherweiese zwei der Next-Gen Konsolen neben dem PC-High End diverser Hersteller sein, so daß Investitionen in diese Art der Programmierung keine kurz-, sondern langfristige Erträge abwerfen.

Jesus
2005-03-06, 16:46:51
Uhm, weil die PS2 ein ewig großer Markt ist? Und wo ist die dem PC überlegen (mit SM 3.0)?

Vielleicht nicht ganz mit SM3, aber ebenbürtig und teilw. besser (heat and water distortion, refraction and geo-texturing=parallax mapping)) ohne dieses(bis auf HDR), im Gegensatz zum PC oder Xbox mit SM1.1.

siehe auch hier http://www.splintercell.com/uk/splintercellchaostheory/screenshots-ps2.php

hier gibts ein PS2 DevDiary Video:

http://www.gamingnewz.de/index.php?seite=download&id=361#

xL|Sonic
2005-03-06, 16:53:13
Du redest von Spielemagazinen....meinst du nicht, dass die Ausklammerung von SM2.X dort als negativ angekreidet wird und viele vielleicht von ihrer Kaufentscheidung zurückschrecken, wenn sie sehen, dass das Spiel auf einer 4 Jahre alten Konsole (PS2) besser aussieht als auf einem High-End-PC, der über keine SM3.0 fähige Karte verfügt.
Und da nicht gerade wenig User über SM2.X fähige Hardware verfügen werden sich da sicher viele user nicht gerade daran erfreuen, vorallem wenn man dann noch mit bekommt, dass es wahrscheinlich sogar möglich gewesen wäre die gleiche Qualität auch auf ihrer Hardware zu bekommen (ganz egal wie, hauptsache es würde diese option geben).
Wenn du nun aber mehr Eye-Candy über SM2.X ins Spiel bringst, steigen die Entwicklungskosten, aber du hast dann wieder die Möglichkeit der besseren Vermarktung, folglich bringt dir das Produkt wieder mehr Geld, weil die Leute dann zu der Version greifen, die besser aussieht (fast jeder der nen PC hat, hat auch eine PS2 und wenn die PS2 Version besser aussieht, dann greife ich doch zur PS2 Version und nicht zur PC-Version)

Coda
2005-03-06, 16:54:48
Uhm das Geo Texturing sieht in dem Screenshot sehr danach aus als würde da einfach entsprechende Geometrie erzeugt oder benützt.

Jesus
2005-03-06, 16:58:46
Uhm das Geo Texturing sieht in dem Screenshot sehr danach aus als würde da einfach entsprechende Geometrie erzeugt oder benützt.

video (http://www.gamingnewz.de/index.php?seite=download&id=361#) anschauen :)

Tortenheber
2005-03-06, 17:49:09
Du redest von Spielemagazinen....meinst du nicht, dass die Ausklammerung von SM2.X dort als negativ angekreidet wird und viele vielleicht von ihrer Kaufentscheidung zurückschrecken, wenn sie sehen, dass das Spiel auf einer 4 Jahre alten Konsole (PS2) besser aussieht als auf einem High-End-PC, der über keine SM3.0 fähige Karte verfügt.
Und da nicht gerade wenig User über SM2.X fähige Hardware verfügen werden sich da sicher viele user nicht gerade daran erfreuen, vorallem wenn man dann noch mit bekommt, dass es wahrscheinlich sogar möglich gewesen wäre die gleiche Qualität auch auf ihrer Hardware zu bekommen (ganz egal wie, hauptsache es würde diese option geben).
Wenn du nun aber mehr Eye-Candy über SM2.X ins Spiel bringst, steigen die Entwicklungskosten, aber du hast dann wieder die Möglichkeit der besseren Vermarktung, folglich bringt dir das Produkt wieder mehr Geld, weil die Leute dann zu der Version greifen, die besser aussieht (fast jeder der nen PC hat, hat auch eine PS2 und wenn die PS2 Version besser aussieht, dann greife ich doch zur PS2 Version und nicht zur PC-Version)

Und was ist, wenn die Hochrechnungen ergeben, dass mit SM2.x der, in diesem Fall, erhebliche Mehraufwand nicht wieder reinkommt? Der wesentlich geringe Mehraufwand mit SM3.0 sich aber rechnet?

Wie sieht es mit anderen Features wie LAN und Mehrspielermodus im Internet aus? Sound? Playermods? Mehr Features evtl. via Patch falls sich das Spiel als Verkaufsknaller entpuppt?

Nicht jeder schaut nur auf Grafik wenn er spielt. Wenn es nur danach gehen würde, dann dürften viele Spieler "ältere" Spiele ja gar nicht mehr anfassen weil die Grafik ja so schlecht ist, egal ob sie "damals" Spass gemacht haben.

xL|Sonic
2005-03-06, 18:00:54
Wieviele Leute haben denn eine SM3.0 fähige Karte und wieviele eine SM2.X fähige?

Demirug
2005-03-06, 18:06:55
Wieviele Leute haben denn eine SM3.0 fähige Karte und wieviele eine SM2.X fähige?

Und wie viele wissen überhaupt nicht was sie haben?

LovesuckZ
2005-03-06, 18:10:14
Wieviele Leute haben denn eine SM3.0 fähige Karte und wieviele eine SM2.X fähige?

Wieviel davon sind keine FX Karten?
Wieviel davon können mehr als 64 a- ops und 32 t- ops in einem Shader ausführen?
Wieviel davon sind leistungstechnisch in der Lage, das SM2.x vernünftig zu verwenden?

Schonmal daran gedacht, dass diese Entwicklung gefördert wurde vom Spieler?

Coda
2005-03-06, 18:11:46
Hm, das mit den Kacheln kann kein parallax mapping sein, dafür sind die Tiefeninformationen viel zu hochfrequentig. Dafür müsste man schon eine Art Raytracing im PixelShader machen und das ist unmöglich auf der PS2.

Das Bambuszeug sieht aber sehr danach aus, trotzdem frage ich mich wie das auf der PS2 geht ohne dependant texture reads.

Leider kommt man ja nicht an die PS2 API legal ran, das würde ich mir gerne mal anschauen.

mapel110
2005-03-06, 18:13:21
Wieviel davon sind keine FX Karten?

Wieviel davon sind leistungstechnisch in der Lage, das SM2.x vernünftig zu verwenden?


:| Ich dachte, die 5200 würde gewaltig dazu betragen, SM2-(only)-Spiele früher zu sehen?! Frag aths. :)

Wieviele Leute haben denn eine SM3.0 fähige Karte und wieviele eine SM2.X fähige?

Wie viele Leute haben denn eine sm1.1 fähige Karte und wie viele eine sm2.x fähige?

Demirug
2005-03-06, 18:21:29
:| Ich dachte, die 5200 würde gewaltig dazu betragen, SM2-(only)-Spiele früher zu sehen?! Frag aths. :)

Und die neuen Intel Chipssätze noch mehr. Das Todband was den Minlevel angeht ist aber sehr lang. Für HL2 hatte man ja sogar noch einen DX6 Karten Support eingeplannt.

Jesus
2005-03-06, 18:23:41
Hm, das mit den Kacheln kann kein parallax mapping sein, dafür sind die Tiefeninformationen viel zu hochfrequentig. Dafür müsste man schon eine Art Raytracing im PixelShader machen und das ist unmöglich auf der PS2.

Das Bambuszeug sieht aber sehr danach aus, trotzdem frage ich mich wie das auf der PS2 geht ohne dependant texture reads.

Leider kommt man ja nicht an die PS2 API legal ran, das würde ich mir gerne mal anschauen.

hier gibts was intressantes

https://playstation2-linux.com/download/p2lsd/ps2_normalmapping.pdf

ist zwar eher allgemein für Normal mapping, aber vielleicht gibts ja ein paar Einblicke :) (habs noch nicht gelesen)

Coda
2005-03-06, 18:24:56
Normalmapping ist ja kein Problem, DOT3 kann die PS2 ja.

Man muss halt alles mit extrem vielen Passes machen, weil die PS2 ja nichtmal Multi Texturing kann. Dafür hat sie für ihr Alter eine brachiale Füllrate und Speicherbandbreite.

Allerdings muss man für Parallax Mapping irgendwie vom Framebuffer Daten lesen können und abhängig von diesen eine Textur samplen. Falls das geht sag ich nix mehr ;)

Tortenheber
2005-03-06, 18:43:30
Wieviele Leute haben denn eine SM3.0 fähige Karte und wieviele eine SM2.X fähige?

Wie viele SM2.x fähige Karten werden überhaupt zum Spielen benutzt?

Wenn du danach gehst, müsstest du Nvidia auf den Knien für die FX5200 danken. Ohne die würde SM2.x fähige Hardware lange nicht so verbreitet sein denn selbst da eine 9 am Anfang steht, Karten <9500 sind _keine_ SM2.0/SM2.x Karten auch wenn sie sich auch sehr gut verkauft haben. Nur mit ATI's Hoffnung/Plänen auf die wahnsinnig starke und vor allem schnelle Verbreitung von PCIE wären noch lange nicht so viele SM2.x, aufpassen!! _fähige_ Karten verkauft worden.

urbi
2005-03-06, 21:06:31
Blablabla der R520 wird wohl nicht vor Juli kommen. So wie es aussieht. Naja hoffentlich gibt es bald die ersten Benchmarks dann glaube ich auch wieder. :P

Ailuros
2005-03-07, 06:42:35
Und die neuen Intel Chipssätze noch mehr. Das Todband was den Minlevel angeht ist aber sehr lang. Für HL2 hatte man ja sogar noch einen DX6 Karten Support eingeplannt.

Wird eigentlich Intel's Zeug WGF1.0 schaffen oder nicht?

Demirug
2005-03-07, 07:18:39
Wird eigentlich Intel's Zeug WGF1.0 schaffen oder nicht?

Solange nicht die entgültigen Daten vorliegen ist das nicht zu 100% sicher. Allerdings sieht derzeit alles danach aus. In welche Gruppe sie bezüglich des Desktopmodels dann kommen steht noch auf einem Blatt.

reunion
2005-03-09, 13:50:25
INQ mal wieder:

ATI R520 Fudo goes AGP (http://www.the-inquirer.net/?article=21699)

mapel110
2005-03-09, 13:53:05
INQ mal wieder:

ATI R520 Fudo goes AGP (http://www.the-inquirer.net/?article=21699)
Na hoffentlich stimmt das. Unwahrscheinlich ists ja nicht, gerade weil man PCIe-Boards noch nicht allzulange kaufen kann (speziell für AMD-Prozzies).

mrt
2005-03-09, 13:57:20
INQ mal wieder:

ATI R520 Fudo goes AGP (http://www.the-inquirer.net/?article=21699)

Ich glaube eher das eine Kartenhersteller das Planen und nicht explizit ATI.
Außer vielleicht die Mainstream-Versionen.

DrumDub
2005-03-09, 14:01:09
INQ mal wieder:

ATI R520 Fudo goes AGP (http://www.the-inquirer.net/?article=21699)

na ja, sollte ja wohl auch kein problem sein mit rialto...

Ailuros
2005-03-10, 09:27:02
Solange nicht die entgültigen Daten vorliegen ist das nicht zu 100% sicher. Allerdings sieht derzeit alles danach aus. In welche Gruppe sie bezüglich des Desktopmodels dann kommen steht noch auf einem Blatt.

IMHO sollte WGF1.0 zumindest VS HW vorraussetzen und auch einen SW T&L faehigen Treiber. Es ist zwar eben das was Intel eigentlich momentan fehlt, aber ohne beides finde ich es fuer die heutige Standards eigentlich laecherlich (ueberhaupt das zweite).

ShadowXX
2005-03-10, 09:38:31
IMHO sollte WGF1.0 zumindest VS HW vorraussetzen und auch einen SW T&L faehigen Treiber. Es ist zwar eben das was Intel eigentlich momentan fehlt, aber ohne beides finde ich es fuer die heutige Standards eigentlich laecherlich (ueberhaupt das zweite).

Leider wird sich MS bestimmt nicht mit Intel anlegen (siehe auch das Schw**zeinziehen bei 64Bit gegenüber Intel...wenn man die Pressemitteilungen von MS über das neue 64Bit-XP so liesst hat man nämlich das Gefühl, das Intel die x86-64Bit CPUs "erfunden" haben bzw. die ersten damit am Markt waren)....

Also werden Sie solange die Specs "runterschrauben", bis Intels Extreme Graphics (ha, ha, ha) WGF1.0 genügen.

TheCounter
2005-03-11, 15:21:35
Neues von Fuad ;)

ATI has two more R5XX cards (http://www.theinquirer.net/?article=21744)