PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12

Gortha
2004-04-16, 14:06:20
Da kann ich Betareverse nur zustimmen,

warum sollten sie die neue R-Generation mit einem Chip
bei release repräsentieren, der keine Chance gegen den 16-
Röhren NV40 hätte!?
Dahinter steckt keine Logik.

Mal so gesehen, warum das V8-Coupe von NVidia(NV40 16 pipe) nicht mit
seinem sportlichen Turbo-Diesel-Limousine schlagen(R420 "nur" 12 pipe)!
Das wäre eine wesentlich größere Blamage für NVidia, als
wenn "nur" der High-End R420 mit 16 pipes den NV40
schlagen könnte.:asshole:

Klingt für mich möglich...

Grüsse
Gortha

Ailuros
2004-04-16, 14:10:38
Es ist auch nicht unmöglich, dass sogar die 16 Pipe Variante gerade mal gleichzieht oder nur knapp vor der 6800Ultra liegt.

Wenn ich wuesste was fuer eine Leistung die einfache 6800 haben koennte, waere eine fruezeitige Vorhersage wohl eher moeglich.

betasilie
2004-04-16, 14:12:50
Original geschrieben von Ailuros
Wenn ich wuesste was fuer eine Leistung die einfache 6800 haben koennte, waere eine fruezeitige Vorhersage wohl eher moeglich.
Auf die 6800er bin ich auch mal gespannt.

Aber kannst Du mir mal erklären, wie von der 6800er die Leistung der ATI-16P-Karten ableiten willst? :gruebel:

ow
2004-04-16, 14:13:03
.

thop
2004-04-16, 14:14:45
Ich denke nV und ATI wissen relativ gut über die neuen Karten des anderen Bescheid. Zum einen durch Industriespionage und zum anderen da beide teilweise die selben Partner/Kunden/etc. haben und da wird mit Sicherheit auch mal ein bisschen geplappert.

Für mich kann es wie gesagt nur 2 Gründe geben warum ATI diesmal so relativ still ist. Man hat einen dicken Trumpf in der Hand (so in die Richtung 512bit Speicheranbindung) oder man übt sich schon Mal in Demut.

Ailuros
2004-04-16, 14:14:49
Original geschrieben von betareverse
Auf die 6800er bin ich auch mal gespannt.

Aber kannst Du mir mal erklären, wie von der 6800er die Leistung der ATI-16P-Karten ableiten willst? :gruebel:

Weil ich schon etwas ueber die X800PRO vielleicht weiss? ;)

Ailuros
2004-04-16, 14:17:56
Original geschrieben von ow
Weil sie keinen Chip zum Releasen haben, der den NV40 schlagen kann?


Zum Vergleich:
Warum haette NV zum NV30 Release keinen Chip praesentieren sollen, der den R300 so richtig platt gemacht haette?
Steckte da Logik dahinter?

NV30 kam 9 Monate spaeter durch die Herstellungsprozess-probleme.

Was zum Henker hat das eine mit dem anderen zu tun?

NV30 kam in sehr begrenzter Quantitaet und wurde so schnell wie moeglich durch NV35 abgeloest.

WEGA
2004-04-16, 14:18:28
Original geschrieben von Ailuros
Weil ich schon etwas ueber die X800PRO vielleicht weiss? ;)

na dann sag mal, wie gut die PRO im vergleich zum nv40 is ;) so ganz vieleicht

Demirug
2004-04-16, 14:18:48
Original geschrieben von Ailuros
Wenn ich wuesste was fuer eine Leistung die einfache 6800 haben koennte, waere eine fruezeitige Vorhersage wohl eher moeglich.

Meinst du das jetzt relative zur Ultra? Also so in der Art das die non ultra 75% der Ultra bringt?

Die 75% sind jetzt natürlich willkürlich gewählt.

Ailuros
2004-04-16, 14:20:01
So verrueckt bin ich nicht :P

Aber ich hab mit gewisse Vorbehaltungen aus einem Grund wenn das helfen koennte.

ow
2004-04-16, 14:20:31
.

Ailuros
2004-04-16, 14:21:37
Original geschrieben von Demirug
Meinst du das jetzt relative zur Ultra? Also so in der Art das die non ultra 75% der Ultra bringt?

Die 75% sind jetzt natürlich willkürlich gewählt.

Ich hab Daten fuer die 12 SIMD Variante vom X800. Da wuerde es mir mehr helfen zu wissen was die 6800 leistet um zu einer Schaetzung zu kommen was 16 vs 16 SIMDs betrifft.

Gast
2004-04-16, 14:23:09
Original geschrieben von ow
Es geht hier lediglich um einen Vergleich, denn Logik ist bei Chip-Releases wahrlich Fehl am Platz (zumindest in der Form wie es hier suggeriert wird).

Es ergibt sich eben nicht aus Logik, dass der R420 schneller sein muss als ein NV40, nur weil er spaeter kommt.

Es steckt immer Logik dahinter. Bloß hier im Speku-Forum sind einfach nicht alle Fakten vorhanden, um hinter die logischen Schlußfolgerungen zu kommen.

TheCounter
2004-04-16, 14:24:16
Hmm, mal ne frage, was bräuchte die Radeon X800 Pro (12 Pipes) damit sie in etwa die gleiche Performance einer GeForce 6800U hat? Ist das überhaupt möglich?

LovesuckZ
2004-04-16, 14:24:59
Original geschrieben von Ailuros
Ich hab Daten fuer die 12 SIMD Variante vom X800. Da wuerde es mir mehr helfen zu wissen was die 6800 leistet um zu einer Schaetzung zu kommen was 16 vs 16 SIMDs betrifft.

Können wir nicht von theoretischen 75% ausgehen, wenn es es sich um den selben Chip mit dem selben Coretakt handeln?

Ailuros
2004-04-16, 14:25:53
Original geschrieben von ow
Es geht hier lediglich um einen Vergleich, denn Logik ist bei Chip-Releases wahrlich Fehl am Platz (zumindest in der Form wie es hier suggeriert wird).

Es ergibt sich eben nicht aus Logik, dass der R420 schneller sein muss als ein NV40, nur weil er spaeter kommt.

Er kommt spaeter weil ATI Resourcen fuer die XBox2 investieren musste und die Entwicklungszeit fuer den R420 sehr begrenzt war (siehe R400/500 Dingsda).

Waere bei NVIDIA alles nach Plan gelaufen dann waeren sie noch frueher am Laufband gewesen als die Konkurrenz, und hier ist der Wechsel zu IBM auch nicht ganz so unbeteiligt wohl gewesen.

Zum zweiten Paragraph stimme ich schon zu; wenn ATI eine Chance hat etwas mehr Leistung zu liefern dann nur Dank hoeherer Taktraten und von dem haengt wohl vieles letztenendes ab.

LovesuckZ
2004-04-16, 14:26:11
Original geschrieben von TheCounter
Hmm, mal ne frage, was bräuchte die Radeon X800 Pro (12 Pipes) damit sie in etwa die gleiche Performance einer GeForce 6800U hat? Ist das überhaupt möglich?

Bei der selben effizienz wäre es ein Coretakt von 533,3Mhz.

Demirug
2004-04-16, 14:27:12
Original geschrieben von LovesuckZ
Können wir nicht von theoretischen 75% ausgehen, wenn es es sich um den selben Chip mit dem selben Coretakt handeln?

Nur wenn gleichzeitig auch die Bandbreite auf 75% reduziert wird.

TheCounter
2004-04-16, 14:28:51
Original geschrieben von LovesuckZ
Bei der selben effizienz wäre es ein Coretakt von 533,3Mhz.

Ah, thx :)

Jetzt ist nur die Frage wie effizient der Chip denn ist... komisch das bisher nicht wirklich viele Infos durchgesickert sind.

Ailuros
2004-04-16, 14:29:59
Original geschrieben von LovesuckZ
Können wir nicht von theoretischen 75% ausgehen, wenn es es sich um den selben Chip mit dem selben Coretakt handeln?

Nein wieso?

Einfach: angenommen 6800 ist ausser der SIMD Anzahl gleich in Taktraten und Speicher mit der Ultra, muss die 75% Theorie nicht unbedingt stimmen. Es steht mehr Bandbreite in dem Fall zur gegebenen Fuellrate zur Verfuegung, was aber nur jetzt meine eigene Schaetzung ist.

Genauso hab ich das Gefuehl dass X800PRO und die einfache 6800 ein um einiges besseres Preis/Leistungs Verhaeltnis haben werden als die ueberteuren 16 SIMD Mega-boliden.

Ailuros
2004-04-16, 14:31:48
Original geschrieben von LovesuckZ
Bei der selben effizienz wäre es ein Coretakt von 533,3Mhz.

Zu einfach dargestellt. Vorsicht Bandbreite....

LovesuckZ
2004-04-16, 14:34:19
Original geschrieben von Ailuros
Zu einfach dargestellt. Vorsicht Bandbreite....

Hm, 400 (NV40)/550 |= 533,3 (X800pro)/550?

Das mit der Bandbreite: Wenn wir davon ausgehen, dass die 6800 mit 400/412 MHz kommt, inwieweit sollte sich die effektivitaet des X800pro dadurch ergeben?

Gortha
2004-04-16, 14:34:29
Original geschrieben von ow
Weil sie keinen Chip zum Releasen haben, der den NV40 schlagen kann?


Zum Vergleich:
Warum haette NV zum NV30 Release keinen Chip praesentieren sollen, der den R300 so richtig platt gemacht haette?
Steckte da Logik dahinter?

Überleg doch mal, es ist durchgesickert, dass der ATI-Chip
auch 16 pipes hat, nehmen wir zumindest an.

Mal angenommen, wenn selbst der R420 mit 16^aktiven pipes
den den NV40 mit 16 aktiven Pipes nicht schlagen könnte,
wäre es doch dumm von ATi einen !noch! langsameren Chip,
nämlich den mit nur 12 aktiven Pipes gegen die 6800 Ultra
antreten zu lassen.

NVidea hatte damals echt einfach keinen besseren Chip,
Punkt.
Aber Ati hat ihn, oder glaubst du wirklich, das Ati es
nicht schafft bis zum 26. auch nur einen einzigen R420
in die Finger zu bekommen, bei dem alle 16 Pipes
funktionsfähig sind?

Grüsse
Gortha

Demirug
2004-04-16, 14:35:37
Original geschrieben von Ailuros
Nein wieso?

Einfach: angenommen 6800 ist ausser der SIMD Anzahl gleich in Taktraten und Speicher mit der Ultra, muss die 75% Theorie nicht unbedingt stimmen. Es steht mehr Bandbreite in dem Fall zur gegebenen Fuellrate zur Verfuegung, was aber nur jetzt meine eigene Schaetzung ist.

Genauso hab ich das Gefuehl dass X800PRO und die einfache 6800 ein um einiges besseres Preis/Leistungs Verhaeltnis haben werden als die ueberteuren 16 SIMD Mega-boliden.

Was mir noch einfällt. Es ist ja auch nicht bekannt wie sich das wegfallen eines Quads auf die Early-Z Leistung auswirkt und ob man auch bei den VS reduiziert.

Ailuros
2004-04-16, 14:41:07
Original geschrieben von LovesuckZ
Hm, 400 (NV40)/550 |= 533,3 (X800pro)/550?

Das mit der Bandbreite: Wenn wir davon ausgehen, dass die 6800 mit 400/412 MHz kommt, inwieweit sollte sich die effektivitaet des X800pro sich ergeben?

Ich meinte nur dass man beides mitberechnen muss.

HOT
2004-04-16, 14:43:12
Interessant wäre auch, ob die VS direkt an die PPs gebunden sind, d.h. dass man einen PP im "Bundle" mit 2 VS bekommt. Dann hätte die 16Pipe Version ja lächerliche 8 VS Einheiten im R300 format. Und das auch noch mit wahrscheinlich höherem Takt. Aua :D
Na ja, in der Praxis wird man eine so gewaltige Geometrieleistunge sowieso nicht brauchen bzw. wird sich wohl nicht auswirken.

betasilie
2004-04-16, 14:50:50
Original geschrieben von Ailuros
Weil ich schon etwas ueber die X800PRO vielleicht weiss? ;)
Das habe ich mir schon gedacht, aber ich wollte die Bestätigung. :)

betasilie
2004-04-16, 14:52:09
Original geschrieben von ow
Weil sie keinen Chip zum Releasen haben, der den NV40 schlagen kann?


Zum Vergleich:
Warum haette NV zum NV30 Release keinen Chip praesentieren sollen, der den R300 so richtig platt gemacht haette?
Steckte da Logik dahinter?
Original geschrieben von betareverse
Kann natürlich passieren. Es ist auch nicht unmöglich, dass sogar die 16 Pipe Variante gerade mal gleichzieht oder nur knapp vor der 6800Ultra liegt. Wenn dieser Fall eintritt, hat ATI bis zum R500 erstmal die Arschkarte gezogen.

Allerdings sprechen die Indizien imho für ein anderes Szenario. ATI will am 26. lediglich die 12 Pipe Karte vorstellen. Wenn diese wirklich viel langsamer wäre, als die 6800Ultra, würde das einen Imgageschaden bedeuten, weil dann ATIs derzeit schnellste Karte in Sachen Performance nicht mit der 6800Ultra konkurrieren könnte. ATI weiß mittlerweile, dass es für alle Leitungssegmente wichtig ist, mit der schnellsten HighEnd-Karte werben zu können.

Nun wird ATI mit Sicherheit auch schon R420er mit 16Pipes haben, weil sie ja bekanntlich aus der gleichen Produktion kommen, wie der 12Pipe Chip. Selbst wenn ATI nur kleine Mengen an 16Pipe Chips liefern könnte, würden sie imo auch diese am 26. vorstellen, um NV nicht über längere Zeit den Thron im Highendbereich alleine zu überlassen, für den Fall, dass der 12-Pipe R420 zu weit abgeschlagen von der 6800Ultra ist.

Ich quote mich mal selber, da Du mein Posting schienbar übersehen hast. :)

Ailuros
2004-04-16, 14:52:59
Original geschrieben von Demirug
Was mir noch einfällt. Es ist ja auch nicht bekannt wie sich das wegfallen eines Quads auf die Early-Z Leistung auswirkt und ob man auch bei den VS reduiziert.

Und sicher noch mehr...

DrumDub
2004-04-16, 14:53:52
Original geschrieben von ow
Es ergibt sich eben nicht aus Logik, dass der R420 schneller sein muss als ein NV40, nur weil er spaeter kommt.

aber umgekehrt heisst es nicht, dass der r420 langsamer ist und sich deshalb verzögert (falls er das überhaupt tut).

Ailuros
2004-04-16, 14:54:41
Original geschrieben von HOT
Interessant wäre auch, ob die VS direkt an die PPs gebunden sind, d.h. dass man einen PP im "Bundle" mit 2 VS bekommt. Dann hätte die 16Pipe Version ja lächerliche 8 VS Einheiten im R300 format. Und das auch noch mit wahrscheinlich höherem Takt. Aua :D
Na ja, in der Praxis wird man eine so gewaltige Geometrieleistunge sowieso nicht brauchen bzw. wird sich wohl nicht auswirken.

Kann sein aber dann wohl eher wenn die VS Einheiten unabhaengig sind und es sich nicht um einen array handelt (ie 2 VS units pro quad).

HOT
2004-04-16, 14:58:22
Original geschrieben von Ailuros
Kann sein aber dann wohl eher wenn die VS Einheiten unabhaengig sind und es sich nicht um einen array handelt (ie 2 VS units pro quad).

Also eine Art VP zum PP :D

Ich meine, unlogisch wäre es nicht. Aber eine gewisse Unabhängigkeit muss ja doch da sein; denn sonst würde ja eine Radeon9800SE nicht von allen 4 Vertexshadern profitieren (oder tut sie das sogar garnicht?).

deekey777
2004-04-16, 15:20:06
ATI to launch X800 PRO on 4th of May
X800XT to follow in two weeks

The Inc. (http://www.theinq.net/?article=15377)

:...(

"...
As for the specs, the R420PRO or should we call it X800PRO will be clocked at 475 MHz, 25 MHZ higher then we suggested since yields are better, while the memory will be clocked at 900MHz as we suggested before.

Everything is packed into 180 millions of transistors and the card has 12 pipelines as we suggested. The R420XT, Radeon X800XT will be higher clocked card with 16 pipelines which came as a huge surprise to us.

This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.

This means that you should be able to buy one on the 4th of May but let's wait and see if ATI can deliver on that day.

Faster Radeon X800XT will come just after E3..."

Godmode
2004-04-16, 15:35:34
[SIZE=1]Original geschrieben von deekey777

This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.



Also das ist das schlechteste was sie machen können, warum warten sie nicht einfach noch ein paar Tage länger und stellen gleich die XT vor? Wenn die jetzt zuerste die Pro vorstellen denken sicher viele DAUs dass ATI viel schlechter ist als NV. Naja vielleicht haben sie doch ein paar Probleme mit der 16 Pipe Version @ TSMC

Quasar
2004-04-16, 15:38:40
Original geschrieben von Stefan Payne
nein, das E steht für Enhanced DRAM und ist AFAIK eine Entwicklung von Mosys, grobgesagt ist das DRAM mit SRAM kombiniert.

Das e steht aber für embedded-DRAM.

PS: sorry 4 klugscheißing, in diesem Fall ist der Unterschied zwischen eDRAM und EDRAM gewaltig, letzteres saß AFAIK auf PS2 SIMMS...

EDORAM hiess es.
Klugsh1c3 4 Life!


Original geschrieben von LovesuckZ
Bei der selben effizienz wäre es ein Coretakt von 533,3Mhz.

Ja, aber die Effizienz soll ja angeblich bei nV mittlerweile besser sein als bei ATi.


Meine Spekulation:
- Design auf 4 Quads ausgelegt, allerdings nur der Ausbeute wegen. Das Teil kommt mit 12 Pipes auf den Markt.
- Diese zwölf Pipes könnten aber noch einige Verbesserungen enthalten. Denkbar wären da ebenfalls zwei Recheneinheiten pro Pipe, TriTMUs oder 3-4 MSAA-Einheiten pro ROP, evtl. auch was in der Richtung "24x0"...
- Takt wird max +20% des nV40U sein.

ow
2004-04-16, 15:44:04
.

aths
2004-04-16, 15:49:59
Original geschrieben von robbitop
ja man wird ATi kalt erwischen. Vor Allem aus technologischer Sicht. Denn FP16 Texturfilterung, ein adaptiver 64bit FB,Inwiefern adaptiv?

StefanV
2004-04-16, 15:50:52
Original geschrieben von Quasar
EDORAM hiess es.
Klugsh1c3 4 Life!
Das ging nur nach Hinten los, bei dir :P

EDRAM ist was ganz anderes als EDO-DRAM.

EDO-DRAM hat verbesserte Ausgangspuffer, so daß sie beim lesen schneller sind, EDRAM hingegen ist DRAM mit einer 'kleinen' Portion SRAM, welches laut Werbung den L2 Cache ersetzen sollte...

Google hilft bei so alten Schinken auch nicht wirklich weiter...

PS: die c't hats irgendwann mal getestet, auf einem Opti Chipsatz für 486er, muss wohl anno 94 gewesen sein...

EDO-DRAM, aka Enhanced Data Out(put?) DRAM kam erst etwas später, leider gabs EDRAM nie wirklich zu kaufen...

aths
2004-04-16, 15:53:52
Original geschrieben von robbitop
och wenn man sich die Pipelines, die Ausführungseinheiten den VP und die FP16 Units mal anschaut, ist da einiges gemacht worden am NV40. Der NV40 bringt massenhaft neue Technik. Imo ein Sprung wie ihn damals die GF3 brachte. In meinem Artikel behaupte ich ja, dass der NV40 die Tür in die "neue Welt" öffnet, welche da auf SM 4.0 setzt. In einigen Bereichen sind sie schon an SM 4.0 dran. Noch etwas Geschraube, und einige Performance-Upgrades, und wir haben den Über-Chip, der uns echte NexGen-Spiele beschert (Unreal-3-Engine mit allen Optionen auf Max, und das in Außenleveln :))

ow
2004-04-16, 15:54:38
.

aths
2004-04-16, 15:57:42
Original geschrieben von TheCounter
Hmm, mal ne frage, was bräuchte die Radeon X800 Pro (12 Pipes) damit sie in etwa die gleiche Performance einer GeForce 6800U hat? Ist das überhaupt möglich? Mehr Units pro Pipe, und / oder mehr Takt. Angenommen, jede Pipe wird mit einem MAD verstärkt, und sie schaffen irgendwie 500 MHz. Dann kann ich mir vorstellen, dass eine 12-Version die 6800 U überbietet.

LovesuckZ
2004-04-16, 15:57:48
/edit: egal...

ow
2004-04-16, 15:58:34
.

aths
2004-04-16, 15:59:29
Original geschrieben von Demirug
Was mir noch einfällt. Es ist ja auch nicht bekannt wie sich das wegfallen eines Quads auf die Early-Z Leistung auswirkt und ob man auch bei den VS reduiziert. Demirug stellt wieder mal die richtigen Fragen =)

Das steht schon auf meiner Liste, mal anzuhorchen. Aber erst warte ich auf gewisse andere Antworten.

aths
2004-04-16, 16:01:07
Original geschrieben von Quasar
- Diese zwölf Pipes könnten aber noch einige Verbesserungen enthalten. Denkbar wären da ebenfalls zwei Recheneinheiten pro Pipe, TriTMUs oder 3-4 MSAA-Einheiten pro ROP, evtl. auch was in der Richtung "24x0"...12 trilineare TMUs bei einem 256-Bit-Interface? No way.

Quasar
2004-04-16, 16:02:00
Original geschrieben von Stefan Payne
Das ging nur nach Hinten los, bei dir :P


Nö, denn EDO-RAM sass auf auf PS/2-Simms und nicht, wie du sagtest, EDRAM.

Quasar
2004-04-16, 16:08:03
Original geschrieben von aths
12 trilineare TMUs bei einem 256-Bit-Interface? No way.

Oooch, wieso nicht?

- Wieviel mehr Bandbreite braucht denn eine Tri-TMU im Vergleich zu einer Bi-TMU, wenn man gut cached?

- Wie hoch war nochmal der GDDR3-RAM auf der 6800U spezifiziert?

- Wieviele TMUs müssten denn bei der Radeon für trilinear gefilterte Texturen versorgt werden im Vergleich zur GeForce?


Von unten nach oben:
- 12 zu 8, 50% mehr.
- 600MHz, sind schonmal ~9% mehr Bandbreite, bei 650MHz wären's schon 18%.
- keine Ahnung, aber ein (großer?) Teil dieses Mehrbedarfs könnte sicherlich abgefangen werden.

Winter[Raven]
2004-04-16, 16:08:04
This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.

Also wenn die wirklich 475 mhz druff hat, dann tut mir aber ATI Leit *eg*, den damit würden sie wirklich nur gegen die 6800 NON Ultra antretten.

Aber 4 Mai ...... :O

Da läuft sicherlich was falsch bei ATI.

deekey777
2004-04-16, 16:13:16
Original geschrieben von Winter[Raven]
Also wenn die wirklich 475 mhz druff hat, dann tut mir aber ATI Leid *eg*, den damit würden sie wirklich nur gegen die 6800 NON Ultra antretten.

Aber 4 Mai ...... :O

Da läuft sicherlich was falsch bei ATI.

Aber 2 Wochen später geht die Post richtig ab.
:bäh2: :fuck:

Odal
2004-04-16, 16:14:04
Original geschrieben von deekey777
ATI to launch X800 PRO on 4th of May
X800XT to follow in two weeks

The Inc. (http://www.theinq.net/?article=15377)

:...(
......

:cop: FUAD :cop:

WEGA
2004-04-16, 16:14:43
dafür wird die PRO bestimmt schön billig

deekey777
2004-04-16, 16:15:02
Original geschrieben von Odal
:cop: FUAD :cop:

Das ist schon klar.

DrumDub
2004-04-16, 16:23:11
Original geschrieben von ow
Natuerlich nicht.:D
Seit wann kann man Logik (oder auch nicht-Logik) einfach so umdrehen??

Dass der R420 spaeter kommt heisst weder, dass er schneller noch dass er langsamer sein muss als der NV40.
Es existiert einfach kein logischer Zusammenhang zwischen dem Erscheinungsdatum eines Chips und seiner Geschwindigkeit.

hehe... jo. interessant wird sein, ob jetzt ati versucht auf biegen und brechen mit der x800xt schneller als die 6800u zu sein, um dann, mit fatalen konsequenzen für den high-end-markt, nicht in vernünftigen stückzahlen am markt zu sein. das wäre dann wohl ein phyrrus-sieg.

Odal
2004-04-16, 16:24:54
Original geschrieben von deekey777
Das ist schon klar.

... so wie sich das liesst hat Ati kalte Fuesse bekommen und bessert gerade bei ihrem chip nach der ja schon ewig fertig ist :D

mal im ernst...wenns die dinger am praesentationstag beim haendler geben wuerde koennte man sich die praesentation sparen weil alle welt schon weiss was sie leisten :D

so ein schwachfug......

mitunter werden sie bei 4 pipes weniger und "nur" 475 mhz chiptakt klar den kuerzeren ziehn gegen den NV40
ich glaub kaum das das so laufen soll....

LovesuckZ
2004-04-16, 16:26:31
Original geschrieben von Odal
mal im ernst...wenns die dinger am praesentationstag beim haendler geben wuerde koennte man sich die praesentation sparen weil alle welt schon weiss was sie leisten :D
so ein schwachfug......

Wenn ATi genug karten zur verfügung haette, dann könnten sie auch nächste Woche schon den Launch vollziehen.
Man kann daher ausgehen, dass die Karten frühsten 2 Wochen nach dem Launch im laden stehen werden...

aths
2004-04-16, 16:28:30
Original geschrieben von Quasar
Oooch, wieso nicht?

- Wieviel mehr Bandbreite braucht denn eine Tri-TMU im Vergleich zu einer Bi-TMU, wenn man gut cached?Wenn man gut cacht? Da kannst du cachen, bis zu schwarz wirst. Man braucht weniger als die doppelte Bandbreite, aber bereits bei 8x1 bilinear kann man ein 256-Bit-Interface gut auslasten. Und du willst damit 12x1 tri befeuern ... :eyes:
Original geschrieben von Quasar
- Wie hoch war nochmal der GDDR3-RAM auf der 6800U spezifiziert?550 MHz?
Original geschrieben von Quasar
- Wieviele TMUs müssten denn bei der Radeon für trilinear gefilterte Texturen versorgt werden im Vergleich zur GeForce?Die Hälfte? Dafür würde jede TMU entsprechend Bandbreite brauchen? Eine tri-TMU, die bandbreitensparend mit 8 Samples filtert (und nicht mit der 4x4-Methode) ist doch spürbar größer, als eine bilineare. Lohnt das, wenn man ansonsten nette bilineare "Optimierungen" einbauen kann?
Original geschrieben von Quasar
- keine Ahnung, aber ein (großer?) Teil dieses Mehrbedarfs könnte sicherlich abgefangen werden. Und wie konkret?

Odal
2004-04-16, 16:32:43
Spekulation:

das mit dem 5. Mai koennte stimmen, allerdings zeigt dort Ati ueberraschenderweise gleich den 16 pipe R420 und eine 2. praesentation wirds nicht geben
der 16 pipe wird mit 550Mhz laufen (kaum verfuegbar und sehr teuer sein wegen der ausbaute) und schon eher ein gegner fuer die 6800u

sagen wir 500 weil 550 schon arg viel waer

DrumDub
2004-04-16, 16:34:26
Original geschrieben von Quasar
Nö, denn EDO-RAM sass auf auf PS/2-Simms und nicht, wie du sagtest, EDRAM.

wie kannst du ausschliessen, dass es auch EDRAM auf ps/2 gab, obwohl natürlich EDO-RAM auf ps/2 nach der einführung des pentium der standard wurde?

BodyLove
2004-04-16, 16:36:09
Original geschrieben von aths
Original geschrieben von Quaser
- Wie hoch war nochmal der GDDR3-RAM auf der 6800U spezifiziert?
550 MHz?


Scheint nicht sicher zu sein. Einige behaupten, die Karten wären von Haus aus auf 550 Mhz übertaktet. Ursprünglich ausgelegt auf 500Mhz. Andere meinen zu glauben, die Speicher seien für 600Mhz ausgelegt.

Ist es möglich, dass man auch beim Retailkauf so unterschiedliche Speicher eingebaut bekommt? 1,6 ns? 2ns?

Quasar
2004-04-16, 16:44:16
Vorweg, ich habe nicht den Eindruck, daß du wirklich auf das eingehst, was ich geschrieben habe...

Original geschrieben von aths
Wenn man gut cacht? Da kannst du cachen, bis zu schwarz wirst. Man braucht weniger als die doppelte Bandbreite, aber bereits bei 8x1 bilinear kann man ein 256-Bit-Interface gut auslasten. Und du willst damit 12x1 tri befeuern ... :eyes:
a) Ja, cachen. Wenn ich z.B. einen L2-Texturcache habe, in den "eine Menge" Textur reingeht, aus dem dann die TMUs ihre jeweiligen L1-Caches befüllen, ist dieser Teil schonmal recht weit weg vom Speicherinterface zum lokalen VRAM. Da kriegt man dann mittels Bursting und Kompression sicherlich eine bessere Auslastung hin, als wenn munter 16 Bi-TMUs ankommen und alle einzeln ihre Requests senden.

b) In der Realität wird daraus aber eher ein 4x1 Trilinear. Ich denke nicht, das heutzutage noch die bilineare Füllrate eine realistische Kenngröße für die Leistung(sfähigkeit) eines Chips ist.

c) Ja, ich würde das evtl. wollen. Kommt drauf an, wieviel Transistor-Spielraum mir der Rest des Designs für Texturierung läßt. Wieviel mehr Transistoren brauchen 16 Bi-TMUs als 12 Tri-TMUs? Wieviel vom erhöhten Bandbreitenbedarf letzterer kann ich abfangen, wenn ich die gesparten Transistoren in Cache stecke?

Original geschrieben von aths
550 MHz?
Nicht, mit wieviel er getaktet war, sondern wie hoch der RAM spezifiziert war.
IIRC hatte THG ein Foto, auf dem 1,6ns entspr. 600MHz (http://www.samsung.com/Products/Semiconductor/common/product_list.aspx?family_cd=GME1001) zu sehen waren.

Original geschrieben von aths
Die Hälfte? Dafür würde jede TMU entsprechend Bandbreite brauchen? Eine tri-TMU, die bandbreitensparend mit 8 Samples filtert (und nicht mit der 4x4-Methode) ist doch spürbar größer, als eine bilineare. Lohnt das, wenn man ansonsten nette bilineare "Optimierungen" einbauen kann?
Die Hälfte? Zwei Drittel (12 vs. 8) kämen da m.E. schon eher hin.
Ob es sich lohnt ist die Frage, die wir beantwortet kriegen, wenn wir mal eine GPU mit solchen TMUs im Einsatz sehen. Dann können wir anhand eines Beispiels sehen, wie effizient diese Art von TMU im realen Einsatz ist.

Original geschrieben von aths
Und wie konkret?
s.O. intelligentes oder zumindest effizientes Caching z.B...

BodyLove
2004-04-16, 16:44:49
Original geschrieben von Odal
Spekulation:
sagen wir 500 weil 550 schon arg viel waer

Sieht man eigentlich nicht den Zusammenhang zwischen der Verspätung des R420 und dem Release des NV40?

Imho versucht ATI nun, wie NV damals beim NV30, mit Takt mit dem NV40 gleichzuziehen. Es ist daher für mich denkbar, dass der R420 mit 550Mhz daherkommt. Egal welche Ausbeute. Und auch egal wie weit verfügbar. Hauptsache kauflich erwerbbar.

Quasar
2004-04-16, 16:45:36
Original geschrieben von BodyLove
550 MHz?


Scheint nicht sicher zu sein. Einige behaupten, die Karten wären von Haus aus auf 550 Mhz übertaktet. Ursprünglich ausgelegt auf 500Mhz. Andere meinen zu glauben, die Speicher seien für 600Mhz ausgelegt.

Ist es möglich, dass man auch beim Retailkauf so unterschiedliche Speicher eingebaut bekommt? 1,6 ns? 2ns? [/SIZE][/QUOTE]

Die 500MHz kommen von dem roten, nackten Board, welches im Vorfeld mal die Runde machte. Da war in der Tat 2ns RAM verbaut.

LovesuckZ
2004-04-16, 16:55:33
Original geschrieben von Quasar
Scheint nicht sicher zu sein. Einige behaupten, die Karten wären von Haus aus auf 550 Mhz übertaktet. Ursprünglich ausgelegt auf 500Mhz. Andere meinen zu glauben, die Speicher seien für 600Mhz ausgelegt.


Bei der Karte von Hardocp.com war ein Aufkleber, der dem Speicher 500MHz zu sicherte.
Ausserdem macht es irgendwie keinen Sinn, den Speicher nur auf 550MHz zu takten, wenn er eigentlich für 600Mhz spezifiziert ist...

/edit: ild (http://www.hardocp.com/image.html?image=MTA4MTc0NzQ0ODZxTE1PbWV1dFNfMV84X2wuanBn)

Quasar
2004-04-16, 17:01:14
Guck' dir das Foto von THG an und dann den Link, den ich oben gepostet habe.

P.S.:
Guck' dir mal die Karte an, die [H] gehabt hat. Muss eine der allerersten gewesen sein, da wurde ja noch manuell dran rumgelötet...

Odal
2004-04-16, 17:01:18
Original geschrieben von LovesuckZ
Bei der Karte von Hardocp.com war ein Aufkleber, der dem Speicher 500MHz zu sicherte.
Ausserdem macht es irgendwie keinen Sinn, den Speicher nur auf 550MHz zu takten, wenn er eigentlich für 600Mhz spezifiziert ist...

doch das macht sinn... wenn nicht genuegend schneller DDR3 (der auch bezahlbar bleibt) fuer den massenmarkt da ist...

was wird wohl ein DAU sagen wenn im review mit 600 getaktet wird und er aber nur 550 auf der karte hat?

aths
2004-04-16, 17:08:32
Original geschrieben von Quasar
Vorweg, ich habe nicht den Eindruck, daß du wirklich auf das eingehst, was ich geschrieben habe...
Man rechnet grob, dass jede TMU pro BF-Sample ca. 3 Samples aus dem Cache kriegt, und eins nachgeladen werden muss. (Im Durchschnitt.) Das ist schon mal ein ganz gutes Hit-Miss-Ratio. Um das deutlich zu steigern wäre erheblicher Aufwand nötig, und zudem kann man lediglich noch um maximal 1 Sample pro Takt besser werden.

Wieso 4x1 trilinear? (Mit 4x4 meinte ich den Filterkernel. Was meinst du hier?)

Bilineare Füllrate mag für einen Spieler, der mit TF (bzw. TF-AF) spielt, nicht wichtig sein. Pixelshader greifen gerne mal auf bilineare Samples zu.

12 Tri-TMUs würde ich vom Transistorcount teurer einschätzen, als 16 bi-TMUs.

12 tri-TMUs würden vor allem pro Takt mehr Bandbreite wollen, als 16 bilineare. Der NV40 kann bei 32-Bit-Rendering mit Z-Buffer pro Takt keine 16 Pixel rendern, höchstens 12, weil vorher die Bandbreite ausgeht.

Ein R420-Design mit 16 Pipes ist offenbar auch geplant. Das verschlimmerte das Missverhältnis nur noch.

Original geschrieben von Quasar
s.O. intelligentes oder zumindest effizientes Caching z.B... Wie willst du den Cache effizienter, gar intelligenter machen?

reunion
2004-04-16, 17:09:13
Original geschrieben von Winter[Raven]
Also wenn die wirklich 475 mhz druff hat, dann tut mir aber ATI Leit *eg*, den damit würden sie wirklich nur gegen die 6800 NON Ultra antretten.



Und?
Mehr will man ja auch nicht, die XT muss logischerweiße gegen die U antreten, und mit 475/450 wird man die 6800nonU mit vielleicht 350/400 sicherlich bezwingen...

Aber 4 Mai ...... :O

Da läuft sicherlich was falsch bei ATI.

Die Karte soll zumindest laut :cop:FUAD:cop: ab den 4. Mai bereits im Laden stehn, bin gespannt wann der NV40 erhältlich ist...

LovesuckZ
2004-04-16, 17:14:10
Original geschrieben von reunion
Und?
Mehr will man ja auch nicht, die XT muss logischerweiße gegen die U antreten, und mit 475/450 wird man die 6800nonU mit vielleicht 350/400 sicherlich bezwingen...


Na, das ist ja ein fairer Vergleich.
Ich bezweifel ganz stark, dass diese Pro gegen die 6800 nU antreten soll. Wenn ja, dann sehe ich persönlich für die XT Variante, die wohl bei 500MHz liegen wird, schwarz...

Winter[Raven]
2004-04-16, 17:14:32
vielleicht 350/400 sicherlich

Die NONULTRa taktet mit den selben mhzzahlen wie auch die Ultra.

Gast
2004-04-16, 17:16:12
Je mehr ich darüber nachdenke, desto mehr bin ich davon überzeugt, daß der R420 über ein optional einsetzbare 512-Bit Speicheranbindung verfügt. Was dann die Firmen wie Asus, Msi usw. draus machen, sprich die GPU mit 256-Bit oder 512-Bit ansprechen ist dann, ebenso wie das Angebot (also der Preis) ihr Problem.
Denn warum ist denn MSI uhrplötzlich auf den Ati-Zug aufgesprungen - nur um ´ne 9800pro und/oder einen R420 welcher im Endeffekt für den Endkunden die schlechtere Wahl ist, anbieten zu können (???) - wohl kaum.
Und laut Ati ist PS3.0 Unterstützung vor DX10 nicht wirklich interressant. DX10-Launch vermutlich imo Ende 2005 - ob man NV solange den Vortritt lassen will? Never ever...

thop
2004-04-16, 17:17:09
Also das verstehe ich nicht. Die Karte wird am 4.Mai gelauncht und ist am selben Tag im Laden zu finden? Finde ich sehr dubios, dann müsste die Karte ja langsam bei den Großhändlern (ich rede von den wirklich großen Großhändlern) eintrudeln, oder zumindest müssten die genaueste Specs haben (und eigentlich auch Benchmarks), denn blind ordern die sicher nicht gleich ein paar Tausend ATI Karten.

Der Launch muss einfach früher kommen.

reunion
2004-04-16, 17:19:26
Original geschrieben von LovesuckZ
Na, das ist ja ein fairer Vergleich.

Warum?
Beide haben "nur" 12pipes und weniger Takt...


Ich bezweifel ganz stark, dass diese Pro gegen die 6800 nU antreten soll.

Warum?

Wenn ja, dann sehe ich persönlich für die XT Variante, die wohl bei 500MHz liegen wird, schwarz...

Und nochmal warum? :D
Die XT-Version hat ja nichtnur mehr Takt, sondern auch 25% mehr Pipes (eben genau wie beim NV40)

reunion
2004-04-16, 17:20:53
Original geschrieben von Winter[Raven]
Die NONULTRa taktet mit den selben mhzzahlen wie auch die Ultra.

Ist das eine Vermutung oder hast du dafür eine Quelle?

Winter[Raven]
2004-04-16, 17:31:31
Original geschrieben von reunion
Ist das eine Vermutung oder hast du dafür eine Quelle?

Wirst schon sehn ;)

Wieso sollte Nvidia die Nonultra nochmal in mhz beschneiden wenn sie ehe nur über 12 Pipis hat?

Unlogisch.

aths
2004-04-16, 17:33:57
Original geschrieben von Winter[Raven]
Wieso sollte Nvidia die Nonultra nochmal in mhz beschneiden wenn sie ehe nur über 12 Pipis hat?Um die Ausbeute noch weiter zu steigern?

thop
2004-04-16, 17:34:21
Weil die 6800U dann keiner kauft. Selber Takt, nur 4 Pipes weniger aber erheblich günstiger? Ich denke so wirs nicht kommen.

fizzo
2004-04-16, 17:35:14
Original geschrieben von Winter[Raven]
Wirst schon sehn ;)

Wieso sollte Nvidia die Nonultra nochmal in mhz beschneiden wenn sie ehe nur über 12 Pipis hat?

Unlogisch.

wegen der ausbeute?! so koennen mehr gpu`s "wiederverwertet" werden!

edit: zu spaet:(

Winter[Raven]
2004-04-16, 17:35:42
Original geschrieben von aths
Um die Ausbeute noch weiter zu steigern?

Ist schon richtig ATHS ;). Aber Nvidia muss auch auf die Konkurenz aufpassen.

Ich bleibe bei 400 mhz.

reunion
2004-04-16, 17:36:19
Original geschrieben von aths
Um die Ausbeute noch weiter zu steigern?

Logischerweise =)
Außerdem wird sicherlich auch der Speicher deutlich niedriger takten...

-error-
2004-04-16, 17:36:51
Steht der Preis der 6800nonUltra jetzt eigendlich mit 350€ fest?

reunion
2004-04-16, 17:38:00
Original geschrieben von Winter[Raven]
Ist schon richtig ATHS ;). Aber Nvidia muss auch auf die Konkurenz aufpassen.

Ich bleibe bei 400 mhz.

Glaube ich nicht, würde NV auch die nonU mit 400mhz rausbringen, müsste man jeden Chip der diese 400mhz nicht erreicht entsorgen, man bringt normalerweise immernoch eine niedriger getaktete Karte...

Winter[Raven]
2004-04-16, 17:40:45
Original geschrieben von reunion
Glaube ich nicht, würde NV auch die nonU mit 400mhz rausbringen, müsste man jeden Chip der diese 400mhz nicht erreicht entsorgen...

Nö, sollte Nvidia immer noch den Vertrag haben nur für den Chip zuzahlen, der auch Optimal läuft ist der Abfall nicht das Problem von NV ... ^^.

BodyLove
2004-04-16, 17:41:24
Original geschrieben von Winter[Raven]
Die NONULTRa taktet mit den selben mhzzahlen wie auch die Ultra.

Leo sagt ja schon, dass bei der NonUltra karte anfangs nur ddr1 eingesetzt werden. DDR1 Speicher, welches 550Mhz verträgt ist zu teuer. 400Mhz DDR1 Speicher werden es wohl sein. Dazu 300 - 400Mhz Coretakt.

reunion
2004-04-16, 17:42:51
Original geschrieben von Winter[Raven]
Nö, sollte Nvidia immer noch den Vertrag haben nur für den Chip zuzahlen, der auch Optimal läuft ist der Abfall nicht das Problem von NV ... ^^.

Würde man diesen Vertrag immernoch haben (also nur für die funktionsfähigen Chips bezahlen) dann würde man aber keine 12-pipe Version herausbringen ;)

//edit: Außerdem wären Chips die keine 400mhz schaffen ja auch funktionsfähig...

seahawk
2004-04-16, 17:53:26
Hmm, wenn ich mir die Daten des Inquirer ansehe, dann riecht es für mich immer mehr nach RV3XX x X.

Jetzt ist die Frage in wie weit sie da Verbesserungen drinne haben. Hier-Z läuft ja beim RV360 mit 4 Pipes nicht. Könnten sie es so anpassen, dass es mit 12 und 16 funktioniert ?? Oder wird es nur bei der 16 er funktionieren. Von den bisherigen Erfahrungen mit ATI würde ich vermuten, dass es bei der 12 Pipe Version möglicherweise nicht voll funktioniert.

Bei den Taktraten halte ich 500 Mhz für die realisierbare Obergrenze. Der RV360 schafft mit 75 Millionen Transistoren und low-k 500Mhz. Mich würde es überraschen wenn man diesen Wert mit mehr als doppelt so vielen Transistoren deutlich überbieten könnte, da es sich im Endeffekt um den gleichen Prozess handelt.

Wobei ich es für die XT nicht ausschliessen würde, da ich in letzter Zeit komische Sachen über die Kühlkonstruktion der X800XT gehört habe.

seahawk
2004-04-16, 17:54:55
Original geschrieben von BodyLove
Leo sagt ja schon, dass bei der NonUltra karte anfangs nur ddr1 eingesetzt werden. DDR1 Speicher, welches 550Mhz verträgt ist zu teuer. 400Mhz DDR1 Speicher werden es wohl sein. Dazu 300 - 400Mhz Coretakt.

Muss nicht, durch die fehlenden Pipes sinkt auch der Bedarf nach Bandbreite. Und eine Bandbreitenlimitierung wäre in Vergleichstests sicherlich besser, da die KArte dann erst mit hohen Auflösungen und AA+AF Stufen einbrechen würde. Diese sind aber für den Käuferkreis weniger entscheidend.

LovesuckZ
2004-04-16, 17:58:54
Original geschrieben von reunion
Warum?
Beide haben "nur" 12pipes und weniger Takt...

Wir brauchen einen Sarkasmus Smiley :)

Warum?

Die Karte bewege sich mit diesen Daten fast auf 6800U Niveau. Entweder ATi ist sich sicher, dass die Effektivitaet des r420 nicht besser ist und man daher höhere Taktraten benötigt oder die Meldung ist falsch.


Und nochmal warum? :D
Die XT-Version hat ja nichtnur mehr Takt, sondern auch 25% mehr Pipes (eben genau wie beim NV40)

Nvidia hat eine neue, noch unbekannte Karte für Juni angekündigt.ATi muss also das klare Ziel mit der XTVersion verfolgen mindesten 10 - 20% schneller zu sein, um nicht durch einen "Refreshchip" überrascht zu werden. Daher sehe ich die Positionierung der X800 Pro bei der 6800U und nicht der einfachen Variante.

LovesuckZ
2004-04-16, 18:00:40
Original geschrieben von aths
Um die Ausbeute noch weiter zu steigern?

Und gleichzeitig vier Pipelines (ein Quad?) abstellen, die funktionstüchtig wären?

WEGA
2004-04-16, 18:00:43
Original geschrieben von seahawk
Hmm, wenn ich mir die Daten des Inquirer ansehe, dann riecht es für mich immer mehr nach RV3XX x X.

Jetzt ist die Frage in wie weit sie da Verbesserungen drinne haben. Hier-Z läuft ja beim RV360 mit 4 Pipes nicht. Könnten sie es so anpassen, dass es mit 12 und 16 funktioniert ?? Oder wird es nur bei der 16 er funktionieren. Von den bisherigen Erfahrungen mit ATI würde ich vermuten, dass es bei der 12 Pipe Version möglicherweise nicht voll funktioniert.

Bei den Taktraten halte ich 500 Mhz für die realisierbare Obergrenze. Der RV360 schafft mit 75 Millionen Transistoren und low-k 500Mhz. Mich würde es überraschen wenn man diesen Wert mit mehr als doppelt so vielen Transistoren deutlich überbieten könnte, da es sich im Endeffekt um den gleichen Prozess handelt.

Wobei ich es für die XT nicht ausschliessen würde, da ich in letzter Zeit komische Sachen über die Kühlkonstruktion der X800XT gehört habe.

rv360 ist nicht r300 ...

reunion
2004-04-16, 18:03:01
Original geschrieben von LovesuckZ
Wir brauchen einen Sarkasmus Smiley :)


ACK =)


Die Karte bewege sich mit diesen Daten fast auf 6800U Niveau. Entweder ATi ist sich sicher, dass die Effektivitaet des r420 nicht besser ist und man daher höhere Taktraten benötigt oder die Meldung ist falsch.


Oder man will einfach schneller sein als NV und taktet die Karte deswegen höher :D



Nvidia hat eine neue, noch unbekannte Karte für Juni angekündigt.ATi muss also das klare Ziel mit der XTVersion verfolgen mindesten 10 - 20% schneller zu sein, um nicht durch einen "Refreshchip" überrascht zu werden. Daher sehe ich die Positionierung der X800 Pro bei der 6800U und nicht der einfachen Variante.

ATI hat auch eine neue Karte im Juni, nämlich den R423(also die PCIe-Version des R420 und mehr wird der NV45 zumindest laut den Gerüchten auch nicht sein), der wird sicherlich auch die ein oder anderen verbesserungen bringen...

BodyLove
2004-04-16, 18:04:53
Original geschrieben von seahawk
Muss nicht, durch die fehlenden Pipes sinkt auch der Bedarf nach Bandbreite. Und eine Bandbreitenlimitierung wäre in Vergleichstests sicherlich besser, da die KArte dann erst mit hohen Auflösungen und AA+AF Stufen einbrechen würde. Diese sind aber für den Käuferkreis weniger entscheidend.

eine 400/400 halte ich eigentlich für ausgeschlossen. Ansonsten hast du natürlich recht.

TheCounter
2004-04-16, 18:06:37
Hmm, mal ne Spekulation:

Was ist wenn ATI einfach nur wartet um genug Karten bereitzuhaben, da ja die Karte am selben Tag wie die Präsentation erhältlich sein soll.

Das wär doch auch ne Möglichkeit.

Da gibts einfach zu viele Möglichkeiten :D

seahawk
2004-04-16, 18:08:27
@ Wega

Trotzdem funktioniert es bei RV360 nicht richtig.

LovesuckZ
2004-04-16, 18:09:25
Original geschrieben von reunion
Oder man will einfach schneller sein als NV und taktet die Karte deswegen höher :D

Dann können sie auch gleich die XT version gegen die 6800nU stellen...
Der Kosten-Nutzen Faktor ist nicht gegeben eine 6800U konkurenzfähige Karte für 100€ weniger anzubieten.

ATI hat auch eine neue Karte im Juni, nämlich den R423(also die PCIe-Version des R420 und mehr wird der NV45 zumindest laut den Gerüchten auch nicht sein), der wird sicherlich auch die ein oder anderen verbesserungen bringen...

Nein. Die XT scheint schon der "Refreshchip" zu sein (spätere verfügbarkeit). Nvidia will im Juni eine karte mit 512MB bringen und kann dementsprechend an der Taktschraube drehen. Dagegen denke ich nicht, dass der R423 verändere Taktraten habe werden. Das selbe gilt natürlich auch für eine PCI-E Karte nach der Juni Karte, wenn diese nicht schon der NV45 wäre.

deekey777
2004-04-16, 18:11:01
Zu der Lieferbarkeit der X800Pro: Als die 9800XT präsentiert wurde, war sie auch zumindest in den USA nahezu sofort verfügbar.
Zu den Taktraten: Die müssen doch einfach hoch sein, sonst gibt es keinen "sehbaren" Fortschritt.

seahawk
2004-04-16, 18:14:51
Ich denke dass der NV45 nicht soweit entfernt ist.

Sagen wir Massenverfügbarkeit von PCI-EX Boards im Juni oder Juli und was wäre das besser als ne neue PCI-EX Karte, die schneller ist als die schnellste AGP Variante. Außerdem dürfte sich mit der PCI-EX Version das Problem der Spannungsversorgung lindern.

Ich vermute die oftmals berichteten 475mhz für den NV 40 dürfte der angestrebte Sign-off Speed des NV45 sein.

Bis dahin dürfte auch ausreichend schneller GDDR3 Speicher verfügbar sein.

reunion
2004-04-16, 18:22:58
Original geschrieben von LovesuckZ
Dann können sie auch gleich die XT version gegen die 6800nU stellen...
Der Kosten-Nutzen Faktor ist nicht gegeben eine 6800U konkurenzfähige Karte für 100€ weniger anzubieten.

Warum?
Wenn die PRO schneller ist als die NV40nonU und um den gleichen Preis angeboten wird, dann muss NV eben billiger werden...

//Edit: Ich glaube einfach nicht das man eine Karte mit nur 450mhz Speichertakt gegen die 6800U stellt...

Nein. Die XT scheint schon der "Refreshchip" zu sein (spätere verfügbarkeit).


Nein, die XT-basiert auf dem selben Chip wie die PRO, du vergisst das bei den bisherigen Gerüchten immer vom Retail-launch gesprochen wird, was nicht bedeutet das die Karten nicht gleichzeitig vorgestellt werden, der NV40 nonU könnte auf früher erhältlich sein als die U-Version, wer weiß?


Nvidia will im Juni eine karte mit 512MB bringen und kann dementsprechend an der Taktschraube drehen. Dagegen denke ich nicht, dass der R423 verändere Taktraten habe werden. Das selbe gilt natürlich auch für eine PCI-E Karte nach der Juni Karte, wenn diese nicht schon der NV45 wäre.

Man wird sehen...

Gast
2004-04-16, 18:55:31
Original geschrieben von deekey777
Zu der Lieferbarkeit der X800Pro: Als die 9800XT präsentiert wurde, war sie auch zumindest in den USA nahezu sofort verfügbar.


Blöder Vergleich,die 9800XT ist nur eine getunte 9800Pro.

deekey777
2004-04-16, 19:04:37
Original geschrieben von Gast
Blöder Vergleich,die 9800XT ist nur eine getunte 9800Pro.

Mitdenken!
Die X800Pro wird am 26.4.04 (oder auch am 4.5) präsentiert - man spricht hier von einem Releaselounch! Der Vergleich zu der 9800XT ist mehr als zutreffend, da auch sie sofort lieferbar war.

WEGA
2004-04-16, 19:14:05
eigendlich müssen die ATIs schneller werden als nv40. die müssen den nachteil der fehlenden ps 3.0 und vs3.0 ausbügeln. sonst kauft die ja kein mensch. dann müsste r420 schon sehr billig sein und nach den gerüchten sind die teuerer als NV.

ich könnt es mir auch nicht vorstellen

launch bitte mit a ;)

Gast
2004-04-16, 19:56:28
Original geschrieben von WEGA
eigendlich müssen die ATIs schneller werden als nv40. die müssen den nachteil der fehlenden ps 3.0 und vs3.0 ausbügeln. sonst kauft die ja kein mensch. dann müsste r420 schon sehr billig sein und nach den gerüchten sind die teuerer als NV.

ich könnt es mir auch nicht vorstellen

launch bitte mit a ;)

Sie müssen nix ausbügeln,wenn PS 3.0 wirklich wichtig wäre,hätten sie es auch eingebracht.

Bei ATI sitzen die schlauen Köpfe aber manche halten sich hier für oberschlau.

WEGA
2004-04-16, 19:59:30
Original geschrieben von Gast
Sie müssen nix ausbügeln,wenn PS 3.0 wirklich wichtig wäre,hätten sie es auch eingebracht.

Bei ATI sitzen die schlauen Köpfe aber manche halten sich hier für oberschlau.

ja ja, du redest dich so einfach. registrier dich lieber mal

Black-Scorpion
2004-04-16, 20:14:50
Original geschrieben von WEGA
eigendlich müssen die ATIs schneller werden als nv40. die müssen den nachteil der fehlenden ps 3.0 und vs3.0 ausbügeln. sonst kauft die ja kein mensch. dann müsste r420 schon sehr billig sein und nach den gerüchten sind die teuerer als NV.

ich könnt es mir auch nicht vorstellen

launch bitte mit a ;)
Du glaubst doch nicht wirklich das die "normalen" Kunden etwas mit PS/VS 3.0 anfangen können.
Die schauen höchstens ob es eine DX9 Karte ist.
Und das sind sie beide.

Godmode
2004-04-16, 20:16:29
Original geschrieben von Gast
Sie müssen nix ausbügeln,wenn PS 3.0 wirklich wichtig wäre,hätten sie es auch eingebracht.

Bei ATI sitzen die schlauen Köpfe aber manche halten sich hier für oberschlau.

Wenn sie so schlau gewesen wären wie du meinst, hätten sie den R400 nicht canceln müssen.

StefanV
2004-04-16, 20:17:38
Original geschrieben von bans3i
Wenn sie so schlau gewesen wären wie du meinst, hätten sie den R400 nicht canceln müssen.

Vielleicht haben sie den R400 auch gecancelt, weil sie irgendwann eingesehen haben, daß er zu ergeizig ist oder nur Schrott wird?? :eyes:

AlfredENeumann
2004-04-16, 20:20:00
Original geschrieben von thop

Finde ich sehr dubios, dann müsste die Karte ja langsam bei den Großhändlern (ich rede von den wirklich großen Großhändlern) eintrudeln, oder zumindest müssten die genaueste Specs haben (und eigentlich auch Benchmarks), denn blind ordern die sicher nicht gleich ein paar Tausend ATI Karten.




Würde reichen wenn die Karten beim Distributoren Lagern.
Es dauert einen Tag bis die beim Großhändler sind und einen weiteren bis dei Dinger im Einzelhandel zu finden sind, wobei die größeren Retail-Deals bevorzugt werden.

Aber in den Preislisten sind die NV und die ATI Karten nicht aufgetaucht. Auf jedenfall nicht bei Ingram und nicht bei Actebis.

deekey777
2004-04-16, 20:22:09
Verzeihung, aber was soll dieses "ha ha, der R420 hat keinen PS3.0 Support"?

AlfredENeumann
2004-04-16, 20:23:08
Original geschrieben von seahawk
Hmm, wenn ich mir die Daten des Inquirer ansehe, dann riecht es für mich immer mehr nach RV3XX x X.



Denke eher umgekehrt. Weil dann könnte man eh nichts mehr ändern und würde so früh wie möglich Launchen.

WEGA
2004-04-16, 20:25:27
Original geschrieben von Anonym_001
Du glaubst doch nicht wirklich das die "normalen" Kunden etwas mit PS/VS 3.0 anfangen können.
Die schauen höchstens ob es eine DX9 Karte ist.
Und das sind sie beide.

is schon klar, dass man zum spielen die nächsten 2 jahre kein ps3.0 brauchen wird

deekey777
2004-04-16, 20:28:10
Original geschrieben von WEGA
is schon klar, dass man zum spielen die nächsten 2 jahre kein ps3.0 brauchen wird

Es ist auch klar, dass die erst die nächste Generation der Grafikkarten Shader 3.0 Spiele schnell darstellen werden.

WEGA
2004-04-16, 20:29:53
Original geschrieben von deekey777
Es ist auch klar, dass die erst die nächste Generation der Grafikkarten Shader 3.0 Spiele schnell darstellen werden.

also wenn ich die unreal3 @ nv40 techdemo sehe *g* :D

Godmode
2004-04-16, 20:33:07
Original geschrieben von Stefan Payne
Vielleicht haben sie den R400 auch gecancelt, weil sie irgendwann eingesehen haben, daß er zu ergeizig ist oder nur Schrott wird?? :eyes:

Ja, stimmt, ist auch sicherlich schlau gewesen vorher mit dem R400 aufzuhören, um einem NV30 Debakel aus dem weg zu gehen.

Ich meinte das war unschlau dass die Ziele für den R400 zu hoch gesteckt waren, hab ich etwas blöd ausgedrückt.

Gast
2004-04-16, 20:35:26
@Stefan Payne

imo weil er den Kosten-Leistungsfaktor des R420 nicht erreicht hat.

Godmode
2004-04-16, 20:35:40
Original geschrieben von bans3i
Ja, stimmt, ist auch sicherlich schlau gewesen vorher mit dem R400 aufzuhören, um einem NV30 Debakel aus dem weg zu gehen.

Ich meinte das war unschlau dass die Ziele für den R400 zu hoch gesteckt waren, hab ich etwas blöd ausgedrückt.

*Doppel Post

Fadl
2004-04-16, 20:43:28
http://www.rage3d.com/board/showthread.php?s=&threadid=33753558

Was sagt ihr dazu?

Kann natürlich auch alles unfug oder irreführung sein. Aber demnach hat ATI scheinbar eine echte Antwort auf NVidia...

Gortha
2004-04-16, 20:52:56
Meinst du den Ausgangspost!?

Gast
2004-04-16, 20:55:39
*Flameposting editiert*

BodyLove
2004-04-16, 21:05:41
Nein, er meint wohl die Aussage, das ATI eine Karte besitzt, die mit dem NV40 mithalten kann, wenn nicht sogar überholen.

Gast
2004-04-16, 21:10:11
um genauer zu sein: X800Pro in etwa paar 6800U - X800XT a part of its own.

Fadl
2004-04-16, 21:14:33
Original geschrieben von Gortha
Meinst du den Ausgangspost!?

Ich meine im wesentlichen 2-3 Aussagen von Membern die scheinbar ein NDA von ATI unterschrieben haben aber dennoch interessantes von sich geben wie:
"Fair enough, but, im have a hunch that people would want to grab an ATi card when all flavours are ready. Also, i too think its silly to go out and buy something asap. Best to wait a little bit before one goes out and buys. ITs good to see all the reviews and such so that you can get a better understanding on whats going on. The last thing you wanna do is to grab something and then realize that its not as good as the other choice at hand"

und dazu passend:

"It's called knowing what ATI's upcoming babies can do. It's also called having signed an NDA so we can't reveal more"

Am besten einfach den gesammten Thread lesen.

Hellfire-Torrod
2004-04-16, 21:14:48
hm, 4. Mai also.... (http://www.theinquirer.net/?article=15377)

Demirug
2004-04-16, 21:21:14
Selbst wer eine NDA unterschrieben hat dürfte im Moment über keine opjektiven Performanceangaben verfügen.

reunion
2004-04-16, 21:21:16
Original geschrieben von deekey777
Everything is packed into 180 millions of transistors

Jetzt lese ich es erst, 180mio Transitoren?
Bin gespannt ob es jetzt auch so wie beim NV40 wird und die Transistorenanzahl ständig steigt...

NV40 150mio-->175mio-->210mio-->220mio-->222mio
R420 160mio-->180mio....
:???:

seahawk
2004-04-16, 21:26:58
Original geschrieben von AlfredENeumann
Denke eher umgekehrt. Weil dann könnte man eh nichts mehr ändern und würde so früh wie möglich Launchen.

Na, auch aus X RV360 einen Chip mit 180 Millionen Transistoren zu machen dürfte nicht wirklich einfach sein. Ich glaube nicht, dass es so einfach ist.

Für ein völlig neues Design reicht es imho nicht, also wird was bekanntes die Basis gewesen sein.

aths
2004-04-16, 21:36:54
Original geschrieben von Gast
Sie müssen nix ausbügeln,wenn PS 3.0 wirklich wichtig wäre,hätten sie es auch eingebracht. Wenn ATI die Ressourcen für die Entwicklung gehabt hätten, hätten sie etwas dem Shader Model 3.0 vergleichbares auch gebracht.

LovesuckZ
2004-04-16, 21:42:38
Original geschrieben von BodyLove
Nein, er meint wohl die Aussage, das ATI eine Karte besitzt, die mit dem NV40 mithalten kann, wenn nicht sogar überholen.

ATi muss auch schneller sein.
Ein Gleichstand unter DX9 mit FP24 gleicht einer Niederlage.

aths
2004-04-16, 21:46:54
Original geschrieben von LovesuckZ
Und gleichzeitig vier Pipelines (ein Quad?) abstellen, die funktionstüchtig wären? Natürlich nicht? Man nimmt die "kaputten" Chips, wo nur 1 Quad betroffen ist, und die z. B. noch 350 MHz schaffen ... und gewinnt die Kundschaft über den Preis. Nehme ich mal an.

Gast
2004-04-16, 21:51:20
Original geschrieben von LovesuckZ
ATi muss auch schneller sein.
Ein Gleichstand unter DX9 mit FP24 gleicht einer Niederlage.

Wayne,die Leute interessiert so Technikblabla nicht,ATI hat die bessere Bildqualität mit AA und das immernoch.

NV hat sogar die AF Qualität verschlechtert,was soll an der Technik so toll sein.

Quasar
2004-04-16, 21:53:33
Original geschrieben von Gast
Wayne,die Leute interessiert so Technikblabla nicht,ATI hat die bessere Bildqualität mit AA und das immernoch.

NV hat sogar die AF Qualität verschlechtert,was soll an der Technik so toll sein.

Das AA sieht bei nV besser aus, ebenso das AF, selbst nachdem es verschlechtert wurde. Dazu die vermuteten Technologischen Nachteile.

Wenn ATi nicht 8xRGMSAA und verbessertes AF bringt, stimme ich LS zu.

LovesuckZ
2004-04-16, 21:54:40
Original geschrieben von Gast
Wayne,die Leute interessiert so Technikblabla nicht,ATI hat die bessere Bildqualität mit AA und das immernoch.


Was hat AA mit der Genauigkeit unter DX9 zu tun? Den Leuten wird es spätesten dann interessieren, wenn Nvidia es ausschlachtet. 128Bit klingt eben besser als 96bit und dazu noch ein paar Vergleichbilder und ATi hat ein Problem.
Siehe doch jetzt das mit Farcry und SM3.0. Denkst du wirklich die meisten werden checken, dass der Shot vom SM2.0 eigentlich eher nach PS1.1 oder so aussieht? Sie sagen "boah, geil" und wollen unebdingt SM3.0 haben...

AlfredENeumann
2004-04-16, 22:35:49
Original geschrieben von seahawk
Na, auch aus X RV360 einen Chip mit 180 Millionen Transistoren zu machen dürfte nicht wirklich einfach sein. Ich glaube nicht, dass es so einfach ist.

Für ein völlig neues Design reicht es imho nicht, also wird was bekanntes die Basis gewesen sein.


Dert Chip ist fertig und man kann da auch nix mehr dran ändern.
Das was vom Prinzip her jetzt läuft ist die Massenproduktion, Sichten und das Verteilen auf die AIB´s.

Fadl
2004-04-16, 22:43:47
Original geschrieben von Quasar
Das AA sieht bei nV besser aus, ebenso das AF, selbst nachdem es verschlechtert wurde. Dazu die vermuteten Technologischen Nachteile.

Wenn ATi nicht 8xRGMSAA und verbessertes AF bringt, stimme ich LS zu.

Hmm, also ich finde das AA bei ATI sieht etwas besser aus. Ist aber vielleicht auch Geschmacksache :)

Gast
2004-04-16, 22:45:51
Original geschrieben von Fadl
Hmm, also ich finde das AA bei ATI sieht etwas besser aus. Ist aber vielleicht auch Geschmacksache :)

Ne ist keine Geschmacksache,ATIs AA ist besser.

Mehrpack
2004-04-16, 22:48:45
Original geschrieben von bans3i
Ja, stimmt, ist auch sicherlich schlau gewesen vorher mit dem R400 aufzuhören, um einem NV30 Debakel aus dem weg zu gehen.

Ich meinte das war unschlau dass die Ziele für den R400 zu hoch gesteckt waren, hab ich etwas blöd ausgedrückt.

hi,
nunja sowas kann man nicht wirklich von vornherein abschätzen.
man begingt und irgendwann kann es zu einem punkt kommen, wo man merkt das das was man gerne möchte einfach heute noch nicht möglich ist.
man hat dann eben die wahl, es trotzdem versuchen und auf die "schnauze" fliegen oder es aufgeben und "plan" b auf die beine stellen.

vielleicht war ja eine der gründe die sie gemerkt haben, das es vielleicht mit der fertigungstechnologie noch nicht soweit ist, wie sie es gerne gehabt hätten.
vielleicht wäre ja der r400 fast genauso gross oder grösser geworden wie nv40 von der anzahl der transitoren.

ich denke man kann nicht wirklich sagen, was da genau "schlau" gewesen wäre und ist.
denn niemand kann ja die zukunft vorraus sagen und so kann man nie wirklich "schlaue" entscheidungen machen.
es kann nur geschätzt werden und hoffen das die entscheidung die man getroffen hat eine gute ist und sein wird.

Mehrpack

-error-
2004-04-16, 22:49:25
Das AF ist sowohl bei Nvidia als auch bei ATI Mist! Wenn man EgoShooter spielt kann einem das ja noch egal sein, aber die Winkelabhängigkeit der AF stört bei Rennspielen extrem!

[dzp]Viper
2004-04-16, 22:54:26
hm gerade bei rennspielen ist es nicht so schlimm - man hat da nicht so viele (eher sehr wenige) schräge flächen...

Wo es eher auffällt, ist bei langsamen Spielen mit guter Landschaftsdarstellung. (z.b. Gothic2)
Da gibt es massig schräge Flächen die dann eben nicht so gut gefiltert werden wie die gerade flächen

Gast
2004-04-16, 23:29:36
ob die Verzögerung des Releases vielleicht hiermit zusammenhängen kann:

http://legitreviews.com/reviews/atiinterview0404/index.html

deekey777
2004-04-16, 23:54:23
Original geschrieben von Gast
ob die Verzögerung des Releases vielleicht hiermit zusammenhängen kann:

http://legitreviews.com/reviews/atiinterview0404/index.html

Inwieweit?

Gast
2004-04-17, 00:05:39
Treibertechnisch - der soll ja voller neuer Inovationen sein. Eigentlich genau richtig für nen Release einer neuen GPU-Generation. Vielleicht auch, da ja jetzt die Performance des NV40 bekannt ist, um durch gezieltes Tuning die X800Pro im Vergleich zur 6800Ultra relativ gut aussehen zu lassen.

-error-
2004-04-17, 00:13:35
Original geschrieben von [dzp]Viper
hm gerade bei rennspielen ist es nicht so schlimm - man hat da nicht so viele (eher sehr wenige) schräge flächen...

Wo es eher auffällt, ist bei langsamen Spielen mit guter Landschaftsdarstellung. (z.b. Gothic2)
Da gibt es massig schräge Flächen die dann eben nicht so gut gefiltert werden wie die gerade flächen

Dann schau dir mal die Leitblanke an ;) In anderen Rennspielen ist das noch sehr viel schlimmer
http://www.forumdeluxx.de/gallery/data/500/8054mbwr_pc_2004-04-17_00-00-30-53.jpg

Winter[Raven]
2004-04-17, 00:14:03
Treibertechnisch - der soll ja voller neuer Inovationen sein. Eigentlich genau richtig für nen Release einer neuen GPU-Generation. Vielleicht auch, da ja jetzt die Performance des NV40 bekannt ist, um durch gezieltes Tuning die X800Pro im Vergleich zur 6800Ultra relativ gut aussehen zu lassen.


Naja, es gibt derzeit Gerüchte darüber, dass der NV40 mit den nächsten Treibern 25-33% zulegen wird, nein ohne Chetas oder ähnliches, derzeit soll der Treiber extrem schlecht mit 16 Pipes zurecht kommen.

Gast
2004-04-17, 00:21:41
Ich denke primär ans Overdrive-Feature. Meiner Meinung verwenden sie einige Samples um sich die Temperaturentwicklung anzusehen, um dann auszuloten was denn max. machbar wäre, um noch immer auf der sicheren Seite zu sein. Wenn sie bereits mit den ersten Treibern anfangen zu cheaten, dann (imo) disqualifizieren sie sich und ihre GPU gleich mit.

Ailuros
2004-04-17, 02:20:39
Original geschrieben von Winter[Raven]
Naja, es gibt derzeit Gerüchte darüber, dass der NV40 mit den nächsten Treibern 25-33% zulegen wird, nein ohne Chetas oder ähnliches, derzeit soll der Treiber extrem schlecht mit 16 Pipes zurecht kommen.

In typischem NVIDIA-nisch heisst dass bitteschoen bis zu 25-33% und das dann wohl in Applikationen die mir mal wieder relativ gleichgueltig sind....*hust*.

Natuerlich werden zukuenftige Treiber gesunde Leistungssteigerungen zeigen, aber ich hoerte auch von magischen 60% in der Vergangenheit, also bitte Prozente zuerst sehen und dann kann ich selber so :O reagieren.

[dzp]Viper
2004-04-17, 03:32:43
Original geschrieben von Powerd by ATI
Dann schau dir mal die Leitblanke an ;) In anderen Rennspielen ist das noch sehr viel schlimmer
http://www.forumdeluxx.de/gallery/data/500/8054mbwr_pc_2004-04-17_00-00-30-53.jpg

also ich sehe da nix an der leitplanke :kratz2:
eher, an den flächen neben der straße - die so schräg sind....

betasilie
2004-04-17, 09:10:43
Original geschrieben von Winter[Raven]
Naja, es gibt derzeit Gerüchte darüber, dass der NV40 mit den nächsten Treibern 25-33% zulegen wird, nein ohne Chetas oder ähnliches, derzeit soll der Treiber extrem schlecht mit 16 Pipes zurecht kommen.
Solche Gerüchte giebt es immer. ... :dozey:

WeyounTM
2004-04-17, 09:40:28
Original geschrieben von Ailuros
Natuerlich werden zukuenftige Treiber gesunde Leistungssteigerungen zeigen, aber ich hoerte auch von magischen 60% in der Vergangenheit, also bitte Prozente zuerst sehen

Wieder einmal weise gesprochen, Ailuros :up: ! Der Glaube an "neue Wundertreiber" (egal von wem) stirbt wohl nie gänzlich aus.

LovesuckZ
2004-04-17, 09:47:17
Original geschrieben von Yosh
Wieder einmal weise gesprochen, Ailuros :up: ! Der Glaube an "neue Wundertreiber" (egal von wem) stirbt wohl nie gänzlich aus.

Doch, aber einige sind ja auch mit einer doppelten leistungststeigerung nicht zu frieden :|

reunion
2004-04-17, 09:47:24
Original geschrieben von Quasar
Das AA sieht bei nV besser aus

Das ist definitiv falsch, die Kantenglättung ist beim 4x Modus bei beiden ebenbürtig nur bietet ATI als Sahnehäubchen eben noch einen gammawert von 2.2 im gegensatz zu nV mit Standartmäßigen 1.0. Gegen den 6x Modus von ATI hat dann NV schlicht überhaupt nichts entgegenzusetzen...

mayo
2004-04-17, 10:31:55
Original geschrieben von reunion
Das ist definitiv falsch, die Kantenglättung ist beim 4x Modus bei beiden ebenbürtig nur bietet ATI als Sahnehäubchen eben noch einen gammawert von 2.2 im gegensatz zu nV mit Standartmäßigen 1.0. Gegen den 6x Modus von ATI hat dann NV schlicht überhaupt nichts entgegenzusetzen...

Du solltest beachten, dass Nvidia im Gegensatz zu ATI immernoch Supersampling anbietet, was bei Alpha Texturen unerlässlich ist. Der geringe Vorteil, den die Gammakorrektur bringt wird dadurch mehr als ausgeglichen.

edit: sicherlich wird ATIs r420 beim FSAA auch noch nachlegen und vielleicht neu Modi bieten. Ich glaube irgendwann haben die sowas angedeutet, als sie auf das fehlende Supersampling FSAA angesprochen wurden.
Dann muss natürlich nochmal abgewägt werden.

Tarkin
2004-04-17, 11:06:16
http://www.rage3d.com/board/showthread.php?threadid=33753558&perpage=30&pagenumber=2

Exxtreme wrote:

"A little birdie told me some things about the R420. I cannot tell you more but don't be afraid. You will be surprised about its performance. "

Komm schon .... raus mit der Sprache!!! ;)

thop
2004-04-17, 11:07:44
:w00t: :w00t:

Exxtreme verheimlicht uns Infos?

:w00t: :w00t:

aths
2004-04-17, 11:08:12
Original geschrieben von Winter[Raven]
Naja, es gibt derzeit Gerüchte darüber, dass der NV40 mit den nächsten Treibern 25-33% zulegen wird, nein ohne Chetas oder ähnliches, derzeit soll der Treiber extrem schlecht mit 16 Pipes zurecht kommen. Nah. Das Triangle Setup (genauer gesagt, der Early-Z-Output) wirft die neuen Quads immer in die Quadpipelines, die am wenigsten ausgelastet sind. Das scheint mir doch eher Hardware- als Treiberfeature zu sein. Vielleicht kann die Bandbreitennutzung etwas optimiert werden, aber allgemein 22-33% mehr? Daran glaube ich nicht.

Afaik hatten die Review-Samples 600 MHz RAM, während die Kauf-Version den RAM nur auf 550 MHz taktet. Insofern wäre weniger Leistung zu erwarten, als aktuelle Benchmarks zeigen.

Exxtreme
2004-04-17, 11:08:18
Original geschrieben von Tarkin
http://www.rage3d.com/board/showthread.php?threadid=33753558&perpage=30&pagenumber=2

Exxtreme wrote:

"A little birdie told me some things about the R420. I cannot tell you more but don't be afraid. You will be surprised about its performance. "

Komm schon .... raus mit der Sprache!!! ;)
My mouth is locked and i have lost the key. ;(

aths
2004-04-17, 11:09:35
Original geschrieben von reunion
Das ist definitiv falsch, die Kantenglättung ist beim 4x Modus bei beiden ebenbürtig nur bietet ATI als Sahnehäubchen eben noch einen gammawert von 2.2 im gegensatz zu nV mit Standartmäßigen 1.0. Gegen den 6x Modus von ATI hat dann NV schlicht überhaupt nichts entgegenzusetzen... Standardmäßig, bitte.

NV *könnte* 4x RGMSAA kombiniert mit 2x2 SSAA anbieten, und hätte einen Modus mit 'ner EER von 8x8. Der aktuelle inoffizielle 16x scheint aber aus irgendwelchen Gründen OGMSAA zu nehmen. Das ist natürlich blöd.

mayo
2004-04-17, 11:12:35
Original geschrieben von Exxtreme
My mouth is locked and i have lost the key. ;(

Achtung, hier kommt der Schlüsseldienst. :bäh:

Tarkin
2004-04-17, 11:14:57
Original geschrieben von Exxtreme
My mouth is locked and i have lost the key. ;(

war ja klar...

PM?

thop
2004-04-17, 11:15:08
Ich hab in den Forumsregeln gelesen dass teasen ohne Info mit Smileyverbot nicht unter 2 Wochen bestraft wird ;(

Gast
2004-04-17, 11:36:47
Original geschrieben von Winter[Raven]
Naja, es gibt derzeit Gerüchte darüber, dass der NV40 mit den nächsten Treibern 25-33% zulegen wird, nein ohne Chetas oder ähnliches, derzeit soll der Treiber extrem schlecht mit 16 Pipes zurecht kommen.

ich denke man kann davon ausgehen das sicher noch performance vorallem im in pixelshadern drin ist. Wieviel genau hängt wahrscheinlich auch von den shadern selber ab aber potential ist sicher da

Gast
2004-04-17, 11:42:15
Original geschrieben von mayo
Du solltest beachten, dass Nvidia im Gegensatz zu ATI immernoch Supersampling anbietet, was bei Alpha Texturen unerlässlich ist. Der geringe Vorteil, den die Gammakorrektur bringt wird dadurch mehr als ausgeglichen.

edit: sicherlich wird ATIs r420 beim FSAA auch noch nachlegen und vielleicht neu Modi bieten. Ich glaube irgendwann haben die sowas angedeutet, als sie auf das fehlende Supersampling FSAA angesprochen wurden.
Dann muss natürlich nochmal abgewägt werden.

Alpahatest :bonk: , nicht nur Alpha. Oder braucht das Gras bei Frarcry und bei Ut2003/4 Supersampling?

LovesuckZ
2004-04-17, 11:43:05
Original geschrieben von Exxtreme
My mouth is locked and i have lost the key. ;(

Bist du so "glaubenswürdig" wie Hellbinder?
http://www.beyond3d.com/forum/viewtopic.php?p=259902#259902

Sry, dann musste jetzt mal sein.

Gast
2004-04-17, 11:43:49
Original geschrieben von aths
Standardmäßig, bitte.

NV *könnte* 4x RGMSAA kombiniert mit 2x2 SSAA anbieten, und hätte einen Modus mit 'ner EER von 8x8. Der aktuelle inoffizielle 16x scheint aber aus irgendwelchen Gründen OGMSAA zu nehmen. Das ist natürlich blöd.


Vielleicht gibts eindach kein RGSSAA, und die SS Modi sind ausserdem eh grottenhaft langsam

Aquaschaf
2004-04-17, 11:53:30
RGSSAA gibts ja auch nicht, es ist nur so dass 8xAA eine Kombination aus 2x2OGSSAA und 2x2OGMSAA ist. Obwohl der NV40 auch 2x2RGMSAA könnte.

Exxtreme
2004-04-17, 11:56:07
Original geschrieben von LovesuckZ
Bist du so "glaubenswürdig" wie Hellbinder?
http://www.beyond3d.com/forum/viewtopic.php?p=259902#259902

Sry, dann musste jetzt mal sein.
Stimme ich zu. :D Ich habe niemals den Anspruch erhoben "glaubwürdig" bei Gerüchten zu sein. :D

zeckensack
2004-04-17, 12:35:23
Original geschrieben von Exxtreme
My mouth is locked and i have lost the key. ;( Then you'd better not run around bragging, pal :)
*wonders...*

Exxtreme
2004-04-17, 12:58:39
Original geschrieben von zeckensack
Then you'd better not run around bragging, pal :)
*wonders...*
You know, the people love some teasing. :D :D :D

Godmode
2004-04-17, 13:04:27
Murks Score wäre mal interessant vom R420.

Ailuros
2004-04-17, 13:08:44
Wenn ich meine persoenliche "Pandora's box" ueber gewisse Leute aufmachen wuerde, dann wuerde einiges faules zum Vorschein kommen.

Nein ich meine keine der User natuerlich hier und ich erwaehne selten Zeug uebere andere Leute, wenn sie nicht anwesend sind und sich daher nicht verteidigen koennen.

Fuer mich persoenlich ist es keineswegs ein negativer Aspekt wenn jemand eine gewisse Bevorzugung hat; die Mehrzahl von uns haben sowieso eine.

Wenn es aber soweit kommt, dass man die Konkurrenz oder deren Produkte bei jeder Moeglichkeit versucht in ein schlechtes Licht zu stellen und das mit Absicht und es nie schafft Vorteile anzuerkennen wo auch immer diese auftauchen, dann wird das Ganze eigentlich laecherlich. Mit solchem Kinderkram gewinnt man keinen Respekt von der Mehrheit, eher das Gegenteil.

Entschuldigt das OT, aber manche Leute gehen mir extrem auf die Nerven.

Gast
2004-04-17, 13:16:52
Original geschrieben von Ailuros
Wenn ich meine persoenliche "Pandora's box" ueber gewisse Leute aufmachen wuerde, dann wuerde einiges faules zum Vorschein kommen.

Nein ich meine keine der User natuerlich hier und ich erwaehne selten Zeug uebere andere Leute, wenn sie nicht anwesend sind und sich daher nicht verteidigen koennen.

Fuer mich persoenlich ist es keineswegs ein negativer Aspekt wenn jemand eine gewisse Bevorzugung hat; die Mehrzahl von uns haben sowieso eine.

Wenn es aber soweit kommt, dass man die Konkurrenz oder deren Produkte bei jeder Moeglichkeit versucht in ein schlechtes Licht zu stellen und das mit Absicht und es nie schafft Vorteile anzuerkennen wo auch immer diese auftauchen, dann wird das Ganze eigentlich laecherlich. Mit solchem Kinderkram gewinnt man keinen Respekt von der Mehrheit, eher das Gegenteil.

Entschuldigt das OT, aber manche Leute gehen mir extrem auf die Nerven.

zustimm

Gruß an Bansei,odal

Ailuros
2004-04-17, 13:18:59
Original geschrieben von Yosh
Wieder einmal weise gesprochen, Ailuros :up: ! Der Glaube an "neue Wundertreiber" (egal von wem) stirbt wohl nie gänzlich aus.

Ist es wirklich eine Sache der Weisheit? Einfache Logik basiert auf dem was offiziell bekannt ist, hilft immer.

Beispiel:

Alter Thread bei B3D als Referenz:

http://www.beyond3d.com/forum/viewtopic.php?p=168630#168630

Und dann demalion's sehr guter Post hier:

http://www.beyond3d.com/forum/viewtopic.php?t=11577&start=160

Ich zitiere:

This isn't a cut and dry comparison, if these descriptions are accurate. The NV4x pipeline seems to have more potential throughput (that can be delivered frequently and easily, unlike NV3x), but the R3xx pipeline, to my understanding, still seems to have cases where it can output a higher IPC.

Also, from some discussion (from one of the reviews? Extremetech maybe?) nVidia proposes that they developed the compiler concurrent to the NV4x pipeline (and, the way it reads, modified its design based on compiler observations), so it doesn't seem feasible that these possibilities are significantly underutilized. Which is not to say that the compiler can't improve, just that a general case performance increase doesn't seem to be likely.

***edit: sehr getroffene Bemerkungen IMHO.

Godmode
2004-04-17, 13:31:06
Original geschrieben von Gast
zustimm

Gruß an Bansei,odal

Warum ich?? hab ich was falsches gesagt, weil mich der 3D-Mark Score interessieren würde, um mal etwas vergleichen zu können? Kläre mich bitte auf, was ich falsch gemacht habe.

mfg

Demirug
2004-04-17, 13:36:43
Die Murks punkte dürften recht schlecht für einen Vergleich zu gebrauchen sein. ;)

thop
2004-04-17, 13:39:27
Demirug: Wegen Murks oder wegen R420/NV40? :|

Godmode
2004-04-17, 13:39:45
Original geschrieben von Demirug
Die Murks punkte dürften recht schlecht für einen Vergleich zu gebrauchen sein. ;)

Achso das wusste ich nicht, wollte niemanden blos stellen. Dachte nur das der R420 sicherlich auch ein sehr hohes Ergebnis haben wird.

Gast
2004-04-17, 13:46:49
Ich glaube die Aussage von Demirug zum 3DMark war eher allgemein zu sehen und weniger im speziellen. Der 3DCenter-Leser sollte sich einfach nicht mehr von einer 3Dmark-zahl blenden lassen.

BodyLove
2004-04-17, 13:49:11
Der 3dmark ist doch jetzt zudem geworden, was es sein sollte. Ein Benchmark, welches nahezu unabhängig der CPU ein Wert ausspuckt. Wir wissen jetzt, dass ein nv40 doppelt so schnell sein könnte, wenn die CPU nicht limitieren würde.

Demirug
2004-04-17, 13:52:19
Original geschrieben von thop
Demirug: Wegen Murks oder wegen R420/NV40? :|

Beides. ;)

Das der Murks an anderes Leistungsprofil als Spiele hat dürfte ja inzwischen jeder gemerkt haben. Aus diesem Grund kann man aus dem Wert der am Ende auf dem Bildschirm erscheint nicht ableiten wie gut eine Karte in einem Spiel sein wird.

Was nun R420/NV40 angeht da geht es mir wie Exxtreme aber selbst da muss ich wieder an einen anderen Post von mit erinneren: "Es gibt noch keine objektiven R420 Benchs"

Gast
2004-04-17, 13:53:12
Und warum ist die NV40 in manchen Spielen mehr als doppelt so schnell wie der NV38. Es gibt einfach andere wichtigere und aussagekräftigere Benchmarks als den 3Dmark:

Spiele für die praktische Anwendung
Shadermark zur PS-Analyse
usw.

Gast
2004-04-17, 13:57:17
Original geschrieben von Demirug
Beides. ;)

Das der Murks an anderes Leistungsprofil als Spiele hat dürfte ja inzwischen jeder gemerkt haben. Aus diesem Grund kann man aus dem Wert der am Ende auf dem Bildschirm erscheint nicht ableiten wie gut eine Karte in einem Spiel sein wird.

Was nun R420/NV40 angeht da geht es mir wie Exxtreme aber selbst da muss ich wieder an einen anderen Post von mit erinneren: "Es gibt noch keine objektiven R420 Benchs"

Das bedeutet wohl, dass die Speks des R420 gut auf dem Papier aussehen und ATI wohl auch schon ein paar Benchs gezeigt hat bei dem dieser schneller als der NV40 ist. Also viel Papierkram und Marketing.

Was am Ende rauskommt werden erst Reviews (vor allem auf 3DCenter-knutsch) zeigen.

Gast
2004-04-17, 14:15:56
Original geschrieben von BodyLove
Der 3dmark ist doch jetzt zudem geworden, was es sein sollte. Ein Benchmark, welches nahezu unabhängig der CPU ein Wert ausspuckt. Wir wissen jetzt, dass ein nv40 doppelt so schnell sein könnte, wenn die CPU nicht limitieren würde.

Hm nein.
Auch wenn nVidia jetzt mal im Murks führt, ist der Murks immer noch daß, was er die ganze Zeit schon war: Murks. Kein Dev, der noch ein letztes bißchen Verstand neben Flags und MOVs übrig hat, würde sein Game so proggen, wie es die FM-Jungs getan haben.
Wenn ich reine Graka-Leistung haben will, nehme ich 'nen Füllraten-Test, 'nen Shadertester oder den Archmark. Wozu soll ich mir da mit 400MB die HDD vollmüllen und dafür auch noch Geld bezahlen?

Ich wette, ein P2-400 mit nV40 ist da drin auch schneller, als ein P4-3GHz mit R9700p.
Welches ist wohl der bessere Spiele-PC?

;Q

Gast
2004-04-17, 15:06:49
X800 PRO/R420 Pro


Chiptakt 474 MHz

Speichertakt 900 MHz :D

This card is meant to fight Geforce 6800 non Ultra - the one with 12 pipelines and should be in retail as soon as ATI launches it.

This means that you should be able to buy one on the 4th of May but let's wait and see if ATI can deliver on that day.


http://www.theinquirer.net/?article=15377


Everything is packed into 180 millions of transistors and the card has 12 pipelines as we suggested. The R420XT, Radeon X800XT will be higher clocked card with 16 pipelines which came as a huge surprise to us.


Faster Radeon X800XT will come just after E3, and soon after the 14th of May we are told. I cannot remember if I said this before, but the R420 is chip based on R300 marchitecture and you can clearly see this from its 96 bit precision support and lack of PS 3.0.

thop
2004-04-17, 15:08:59
schon 3 ma gespostet im thread :zzz:

gedi
2004-04-17, 15:11:24
die Meldung ist doch schon relativ alt (naja 1 Tag; OK)

Gast
2004-04-17, 15:11:32
Original geschrieben von thop
schon 3 ma gespostet im thread :zzz:

ATI unterstützt PS 3.0 ;D

LovesuckZ
2004-04-17, 15:13:08
Original geschrieben von Gast
ATI unterstützt PS 3.0 ;D

*eg* nein, aber du solltest einen Englischkurs unterstuetzen *eg*

Demirug
2004-04-17, 15:13:13
Original geschrieben von Gast
ATI unterstützt PS 3.0 ;D

Nein, tut ATI nicht.

Gast
2004-04-17, 15:13:57
Original geschrieben von Demirug
Nein, tut ATI nicht.

doch mit dem R500 ;D

Demirug
2004-04-17, 15:21:25
Original geschrieben von Gast
doch mit dem R500 ;D

Wenn dieser nicht auch wieder zugunsten eines R520 gecanncelt wird.

Ich wollte ürsprunglich ja ein "(noch)" einfügen.

betasilie
2004-04-17, 15:38:28
Original geschrieben von Quasar
Das AA sieht bei nV besser aus, ebenso das AF, selbst nachdem es verschlechtert wurde. Dazu die vermuteten Technologischen Nachteile.

Wenn ATi nicht 8xRGMSAA und verbessertes AF bringt, stimme ich LS zu.
ATIs AA ist erheblich besser, als das vom NV40! :) Das 4*AA arbeitet etwas schöner und das 6*AA, welches wichtig für Leute ist, die keine 1600*1200 auf ihrem Darstellungsgerät fahren können, ist unangreifbar für NV.

NVs AF ist etwas schöner, als das von ATI, aber nur minimal. Im Endeffekt muss man aber bei NV ganz klar von einem Rückschritt sprechen was das AF angeht.

Exxtreme
2004-04-17, 16:17:56
Original geschrieben von Gast
Es gibt einfach andere wichtigere und aussagekräftigere Benchmarks als den 3Dmark:

Spiele für die praktische Anwendung
Shadermark zur PS-Analyse
usw.
Sehe ich nicht so. Man muss sich immer vor Augen halten was man überhaupt gemessen hat. Einfach zu sagen, daß der 3DMark nix taugt weil eh' nicht repräsentativ, halte ich persönlich für falsch.

Gast
2004-04-17, 16:20:30
Original geschrieben von betareverse
ATIs AA ist erheblich besser, als das vom NV40! :) Das 4*AA arbeitet etwas schöner und das 6*AA, welches wichtig für Leute ist, die keine 1600*1200 auf ihrem Darstellungsgerät fahren können, ist unangreifbar für NV.
Ja, ATi ist toll!

Original geschrieben von betareverse
NVs AF ist etwas schöner, als das von ATI, aber nur minimal. Im Endeffekt muss man aber bei NV ganz klar von einem Rückschritt sprechen was das AF angeht.
Ja, nVidia ist scheisse.

;Q,
der nun, da beta Recht bekommt, seine Ruhe hat. :eyes:

betasilie
2004-04-17, 16:35:58
Original geschrieben von Gast
Ja, ATi ist toll!


Ja, nVidia ist scheisse.

;Q,
der nun, da beta Recht bekommt, seine Ruhe hat. :eyes:
Tolle Art zu diskutieren.

Hast Du keine Argumente mehr pro-NV oder wieso wirst Du so ausfallend? Ich jedenfalls bin nicht abgeneigt eine 6800Ultra zu kaufen, nur lass ich mir von dir nicht erzählen, dass NV beim AA mit ATI auf einer Augenhöhe ist. Ebenfalls wäre es wirklich lächerlich, wenn Du ernsthaft behauptest, dass NVs AF z.Zt. ein trifftigen Argument für NV darstellt.

Gast
2004-04-17, 16:39:45
Original geschrieben von betareverse
Tolle Art zu diskutieren.

Hast Du keine Argumente mehr pro-NV oder wieso wirst Du so ausfallend? Ich jedenfalls bin nicht abgeneigt eine 6800Ultra zu kaufen, nur lass ich mir von dir nicht erzählen, dass NV beim AA mit ATI auf einer Augenhöhe ist. Ebenfalls wäre es wirklich lächerlich, wenn Du ernsthaft behauptest, dass NVs AF z.Zt. ein trifftigen Argument für NV darstellt.

Betareverse, deine Art der Diskussion beschränkt sich auf gebetsmühlenartiges Wiederholen immer derselben zwei Sachen:
-Far Cry läuft nicht mit 8xAA in 1024 und höher.
-4xAA reicht in 1280 nicht für aktuelle Games, es muss 6xAA sein.

Endlos lang wieder und wieder dieselben langweiligen Dinge zu repetieren - sorry, aber dafür ist mir meine Zeit zu schade.

Ich habe zur Kenntnis genommen, daß dich dies am nV40 stört und lasse es gut sein. Was hätte ich davon, dich von etwas anderem zu überzeugen?
In diesem Sinne ist meine Aussage zu verstehen... Viel Spaß noch. EOD für mich.

;Q

betasilie
2004-04-17, 16:46:39
Original geschrieben von Gast
Betareverse, deine Art der Diskussion beschränkt sich auf gebetsmühlenartiges Wiederholen immer derselben zwei Sachen:
-Far Cry läuft nicht mit 8xAA in 1024 und höher.
-4xAA reicht in 1280 nicht für aktuelle Games, es muss 6xAA sein.

Endlos lang wieder und wieder dieselben langweiligen Dinge zu repetieren - sorry, aber dafür ist mir meine Zeit zu schade.

Ich habe zur Kenntnis genommen, daß dich dies am nV40 stört und lasse es gut sein. Was hätte ich davon, dich von etwas anderem zu überzeugen?
In diesem Sinne ist meine Aussage zu verstehen... Viel Spaß noch. EOD für mich.

;Q
Tja, dann sei dir mal gesagt, dass ich meine Argumente leider so oft stupide wiederholen werde, wie Du den Leuten erzählen willst, dass NV das besser AA hat, oder dass NVs AF wirklich besser ist, als ATIs Lösung.

Was das AF von NV angeht, wären für dich mal folgende Links interessant, um deine Aussagen mal zu überdenken:
http://www.hardocp.com/image.html?image=MTA4MTc0NzQ0ODZxTE1PbWV1dFNfM181X2wuanBn
http://www.3dcenter.org/artikel/nv40_benchmarks/index9.php
http://www20.tomshardware.com/graphic/20040414/geforce_6800-44.html


Ich weiß was dich an meiner Art zu diskutieren stört. ;) Ist schon blöd, wenn man einen Spiegel vorgehalten bekommt, gell?

Gast
2004-04-17, 16:58:07
Original geschrieben von betareverse
Tja, dann sei dir mal gesagt, dass ich meine Argumente leider so oft stupide wiederholen werde, wie Du den Leuten erzählen willst, dass NV das besser AA hat, oder dass NVs AF wirklich besser ist, als ATIs Lösung.

Was das AF von NV angeht, wären für dich mal folgende Links interessant, um deine Aussagen mal zu überdenken:
http://www.hardocp.com/image.html?image=MTA4MTc0NzQ0ODZxTE1PbWV1dFNfM181X2wuanBn
http://www.3dcenter.org/artikel/nv40_benchmarks/index9.php
http://www20.tomshardware.com/graphic/20040414/geforce_6800-44.html


Ich weiß was dich an meiner Art zu diskutieren stört. ;) Ist schon blöd, wenn man einen Spiegel vorgehalten bekommt, gell?

Da scheinst du etwas mißverstanden zu haben, wenn du das wirklich denkst. Ich werde daran arbeiten, meine Formulierung zu verbessern, um sie verständlicher zu machen.

Danke für deine Links. Der 3DC-Link zeigt eindeutig, daß selbst das miese AF der 6800 noch immer besser ist, als das, was ATi auf diesem Feld zuwege bringt.
[H]ardOCPs Screenshots zeigen am Fuße der Treppe selbst bei der 6800 deutlich schärfere Details - vermutlich geschuldet der reduziert-trilinearen Filterung.
Tomshardware sagt:"The pattern of the 6800 U seems much clearer than that of the 9800XT then."
Wieso du diesen Link gepostet hast, der i.Ü. keinerlei Zusatzinfos zum 3dc-Link bietet, ist mir schleierhaft.

Die Formulierung mit dem Spiegel kannst du dir allerdings sparen - billige Provokationen sind dem Punktekonto nicht sehr zuträglich.

;Q

betasilie
2004-04-17, 17:07:30
Original geschrieben von Gast
Da scheinst du etwas mißverstanden zu haben, wenn du das wirklich denkst. Ich werde daran arbeiten, meine Formulierung zu verbessern, um sie verständlicher zu machen.

Danke für deine Links. Der 3DC-Link zeigt eindeutig, daß selbst das miese AF der 6800 noch immer besser ist, als das, was ATi auf diesem Feld zuwege bringt.
[H]ardOCPs Screenshots zeigen am Fuße der Treppe selbst bei der 6800 deutlich schärfere Details - vermutlich geschuldet der reduziert-trilinearen Filterung.
Tomshardware sagt:"The pattern of the 6800 U seems much clearer than that of the 9800XT then."
Wieso du diesen Link gepostet hast, der i.Ü. keinerlei Zusatzinfos zum 3dc-Link bietet, ist mir schleierhaft.
Man sieht, dass es lediglich leicht Vorteile oder garkeine für NV gibt in Sachen AF-Qualität. Wer so drauf rumreitet und da große Unterschiede sieht, der outet sich imho als Fanboy.

Zum Thema AA habe ich mal keine Links reingepackt, um die Sache nicht zu sehr in lächerlichen zu schieben.

Original geschrieben von Gast
Die Formulierung mit dem Spiegel kannst du dir allerdings sparen - billige Provokationen sind dem Punktekonto nicht sehr zuträglich.
;Q
Das war keine Provokation, sondern schlicht die Wahrheit.

Es ist sehr seltsam, dass Du ab einem bestimmten Punkt in einer Diskussion immer übermäßig emotional reagierst.

EOD, weil es wohl das beste ist, und weil ich grillen will. ;)

Sphinx
2004-04-17, 17:13:05
Erm - wartet doch ab was der R420 / R423 bringen wird an neuem AF,AA...

Danach dürft ihr euch die köppe einhauen.


Fakt ist : Da noch kein R420/R423 vorgestellt ist muss man ja die aktuell verfügbaren vs NextGen vergleichen. Und wenn Nvidia hier was verbessert hat ist es doch gut - und es bleibt abzuwarten inwiefern es dann beim R4xx wird.

Jegliche Diskussionen sind eh für die Tonne was die R3xx Kann oder der NV3x.


Auch wenn dies der normal Fall währ - Erst dann wissen wir welches Produkt besser ist... :

R3xx vs NV3x AA vs AF
----------------
und NV4x vs R4xx AA vs AF


Vergleiche zwischen älteren Generationen sind eh für die Tonne. Und ich wette es wird auch keine Benches geben die R4xx vs NV3x aufzeigen only... sondern man wird direkt mit dem NV4x vergleichen...

Gast
2004-04-17, 17:18:42
Original geschrieben von betareverse
Man sieht, dass es lediglich leicht Vorteile oder garkeine für NV gibt in Sachen AF-Qualität. Wer so drauf rumreitet und da große Unterschiede sieht, der outet sich imho als Fanboy.

Zum Thema AA habe ich mal keine Links reingepackt, um die Sache nicht zu sehr in lächerlichen zu schieben.


Das war keine Provokation, sondern schlicht die Wahrheit.

Es ist sehr seltsam, dass Du ab einem bestimmten Punkt in einer Diskussion immer übermäßig emotional reagierst.

EOD, weil es wohl das beste ist, und weil ich grillen will. ;)

Siehst du, betareverse, es ist, wie ich sagte: Du gibst erst Ruhe, wenn du entweder recht bekommen hast, oder dein Diskussionsfeind (so muss man wohl sagen) irgendwann keine Lust mehr hat.
Mit deinen letzten paar Postings hast du nur zu gut bewiesen, daß ich nicht "ausfallend", wie du schriebst, geworden bin, sondern schlicht die Wahrheit geschrieben habe.

Viel Spaß beim Grillen. =)
;Q

Gast
2004-04-17, 17:20:58
Unterhaltet euch vernünftig !

Es geht hier nur um blöde Grafikkarten und nicht um was wichtiges.

Thowe
2004-04-17, 18:02:51
Original geschrieben von Gast
...

Die Formulierung mit dem Spiegel kannst du dir allerdings sparen - billige Provokationen sind dem Punktekonto nicht sehr zuträglich.

;Q


Das ist wohl leider wahr.

Also lieber Beta

:nono:

etwas feiner bitte!


PS: Viel Spass beim grillen!

gedi
2004-04-17, 18:13:56
@all

wie wahrscheinlich sind eigentlich die veröffentlichten Spezifikationen der X800-Serie?

also

X800SE = 128-Bit <-> 8Pipelines
X800Pro = 256-Bit <-> 12Pipelines
XD800XT = 256-Bit <-> 16 Pipelines

bisher war es afaik bei Ati so, daß das Speicherinterface bei z.B. 9800-Serie (und jetzt wahrscheinlich imo auch beim X800) immer das gleiche war, allerdings sich bei Se, Pro, XT in der Anzahl der Pipelines und und Takt unterschieden haben.

@ the impaler Exxtreme

a bird told me, that you´ve found the key ;)

WEGA
2004-04-17, 18:26:55
die angaben glaub ich sind ziemlich sicher.

Gast
2004-04-17, 18:38:10
Warum reden jetzt alle vom 4 Mai,wurde die Vorstellung vom 26 April um ein paar Tage verschoben ?

gedi
2004-04-17, 18:44:16
seltsam! Ich mag deiner Aussage gerne glauben schenken - allerdings machen diese Spezifikationen für mich wenig Sinn. Für mich sehen die Spezifikationen eher nach einer X300, X600 und X800 aus. Wobei bei der X300 SE (und bei der X300 generell wohl imo nur TSOP-Speicher) wohl nur 64-Bit Speicheranbindung anliegen. Für die X800Se sehe ich doch eher 256-Bit und 8 Pipelines. Denn sonst wären imo zwangsläufig speziell die X600-Karten zu wahren "Krücken" (dumm ausgedrückt - entschuldige bitte) abgestempelt und im OEM-Segment nimmer viel zu holen. Eine Reinkernation der 9500er-Serie tut, Performace-Krone hin oder her, immer noch Not. Denn eine X600XT mit 128-Bit Interface bei 16Pipelines macht imo wenig Sinn.

WEGA
2004-04-17, 18:46:55
das ienzigste was an deineer liste nicht stimmt ist der name XD800XT

das heißt x800xt

gedi
2004-04-17, 18:49:55
UUPS, verschrieben - entschuldige :)


Eine Frage hätte ich noch - wie gut wären ~100FPS im Pixelshader 2.0Test von 3DMurks03 im Vergleich zum NV40?

Gast
2004-04-17, 19:29:33
Original geschrieben von gedi
Eine Frage hätte ich noch - wie gut wären ~100FPS im Pixelshader 2.0Test von 3DMurks03 im Vergleich zum NV40?

Naja auf Leonidas Rechner macht die NV40U ja 61FPS, müste man an der Taktschraube des NV Geräts mal drehen und schauen welche Werte dann rauskommen.
100FPS des R420 wären ~2,5x Leistung der R9800XT, müsten sie in der Architektur noch mehr PS Power eingebaut haben, alleinige Taktsteigerung reicht dafür ja nicht aus.

Gast
2004-04-17, 19:31:00
Nvidia hat ja ne knappe Verdoppelung in diesem Benchmark hinbekommen ;)

Demirug
2004-04-17, 19:42:40
Original geschrieben von Gast
Nvidia hat ja ne knappe Verdoppelung in diesem Benchmark hinbekommen ;)

Was bei der Vorlage (NV38) die sie hatten auch wirklich keine grosse Kunst war.

Aquaschaf
2004-04-17, 20:37:18
Original geschrieben von Gast
100FPS des R420 wären ~2,5x Leistung der R9800XT, müsten sie in der Architektur noch mehr PS Power eingebaut haben, alleinige Taktsteigerung reicht dafür ja nicht aus.

Doppelte Zahl identischer Pixelprozessoren @475MHZ... macht man damit eine kleine Milchmädchenrechnung käme man theoretisch auf ungefähr 2,3fache Leistung der 9800XT. Ob das was mit der Realität zu tun hat ist eine andere Frage ;)

seahawk
2004-04-17, 20:54:43
Original geschrieben von Aquaschaf
Doppelte Zahl identischer Pixelprozessoren @475MHZ... macht man damit eine kleine Milchmädchenrechnung käme man theoretisch auf ungefähr 2,3fache Leistung der 9800XT. Ob das was mit der Realität zu tun hat ist eine andere Frage ;)

:D

BodyLove
2004-04-17, 21:47:38
Original geschrieben von Gast
Hm nein.
Auch wenn nVidia jetzt mal im Murks führt, ist der Murks immer noch daß, was er die ganze Zeit schon war: Murks. Kein Dev, der noch ein letztes bißchen Verstand neben Flags und MOVs übrig hat, würde sein Game so proggen, wie es die FM-Jungs getan haben.
Wenn ich reine Graka-Leistung haben will, nehme ich 'nen Füllraten-Test, 'nen Shadertester oder den Archmark. Wozu soll ich mir da mit 400MB die HDD vollmüllen und dafür auch noch Geld bezahlen?

Ich wette, ein P2-400 mit nV40 ist da drin auch schneller, als ein P4-3GHz mit R9700p.
Welches ist wohl der bessere Spiele-PC?

;Q

ACK. Nur wollte ich damit nur ausdrücken, dass ohne eine CPU-Limitierung die Graka wohl tatsächlich immer doppelt so schnell sein könnte. Die Test die du nennst, sind zwar natürlich besser, aber imho hat der 3dmark eine gewisse Daseinsberechtigung, selbst für User dieses Forums.

Nur kann man jetzt nicht mehr sagen, dass wenn man im 3dmark anständige FPS bekommt, man auch alle Spiele mit guten FPS spielen kann. Beim 3dmark01 war dies vielleicht anders.

TomatoJoe
2004-04-17, 22:29:48
wann wird die ati nochmal vorgestellt?

WEGA
2004-04-17, 22:30:24
Original geschrieben von seahawk
:D

also sagst du, dass die pro besser is als die nv40 ultra .. hmm ;)

seahawk
2004-04-17, 22:41:13
Original geschrieben von WEGA
also sagst du, dass die pro besser is als die nv40 ultra .. hmm ;)

Ich sage gar nichts :D

Demirug
2004-04-17, 22:51:49
Original geschrieben von WEGA
also sagst du, dass die pro besser is als die nv40 ultra .. hmm ;)

Ihr habt falsch gerechnet.

Pro:

von 8 auf 12 = * 1,5
von 412MHZ auf 475MHz = 1,15

macht zusammen 1,72

XT:

von 8 auf 16 = * 2
von 412MHZ auf 500MHz (Mein Tipp wer sich errinnert) = 1,21

macht zusammen 2,42

Rechne ich jetzt den NV40 gegen kommt man auf folgendes:

Unter der Annahme das sich die Shaderleistung pro Shaderkanal nicht verändert hat kann man davon ausgehen das der NV40 etwa die 1,4 fache Rechenleistung pro Pipe hat (hat jemand ausgerechnet). Damit würden die 400 MHz eines NV40 560 MHz eines R420 entsprechen. Bei der Fillrate sieht es natürlich anders aus. Die Fillrate ist aber auch mit der Bandbreite gekoppelt und da wird es wohl auch keine allzu grossen unterschiede geben. IMHO bleibt die Sache also weiterhin spannend.

WEGA
2004-04-17, 23:03:08
klingt realistisch. aber die 10800xt hat bestimmt mehr MHz :D und die 9800xt hat doch nur mit OD 415 MHz. normal hat die doch so 380 oder 390.

Gast
2004-04-17, 23:14:41
Nur wenn der X800 wirklich die selbe Shaderleistung pro Kanal ausgiebt wie die R9800XT, hies es nicht das ATI ein paar Extras beim R420 eingebaut hat ? (Wovon man eigentlich ausgehen sollte...)

Winter[Raven]
2004-04-17, 23:15:13
Wega, zum wivieltem Male den noch, der R420 XT wird nicht über 500 mhz rauskommen, was ist daran so schwer zuverstehen, oder willst du auf Grund deines "Fanatismus" es einfach nicht war haben, dass ATi auch nur Menschen sind und genauso mit den Problemen kämpft wie Nvidia?

Wenn Demirug schon sagt er erwartet nicht mehr mal 500mhz rauskommen kann, ich würde auf Ihn hören.

gedi
2004-04-17, 23:15:55
...A PS2.0 3dmark 2003 test would have been nicer, since it essentially is entirely GPU based. And based off of the 4x performance increase he stated, we're looking at a score of 100 FPS for the PS 2.0 test in 3dmark 2003!

(Quelle: www.elook.com.cn)

WEGA
2004-04-17, 23:21:05
Original geschrieben von Winter[Raven]
Wega, zum wivieltem Male den noch, der R420 XT wird nicht über 500 mhz rauskommen, was ist daran so schwer zuverstehen, oder willst du auf Grund deines "Fanatismus" es einfach nicht war haben, dass ATi auch nur Menschen sind und genauso mit den Problemen kämpft wie Nvidia?

Wenn Demirug schon sagt er erwartet nicht mehr mal 500mhz rauskommen kann, ich würde auf Ihn hören.

naja, 25MHz mehr als die pro schient mir etwas wenig

und nein, ich hab noch niemals ne ati gehabt nur nv. soviel zum fanatismus

Demirug
2004-04-17, 23:22:37
Original geschrieben von Gast
Nur wenn der X800 wirklich die selbe Shaderleistung pro Kanal ausgiebt wie die R9800XT, hies es nicht das ATI ein paar Extras beim R420 eingebaut hat ? (Wovon man eigentlich ausgehen sollte...)

Die extras waren zu dem Zeitpunkt im Gespräch als es noch 8 extreme Pipelines waren. Gerade weil man sich nur zu einem schäbige 2.B Profil aufrafen konnte erwarte ich da ehrlich gesagt keine grossen Änderungen.

Gast
2004-04-17, 23:25:36
Also ich gehe davon aus, das ATI die Taktrate der X800XT an den NV40U anpasst, damit man als Performance König dasteht, dann quängeln auch nicht die Marketing Leute.
Je niedriger sie takten "müssen" desto mehr Chips können verkauft werden, vergesst die Wirtschaftlichkeit nicht (per OD kann man ja noch etwas zulegen).
Interessanter ist doch, ob und wo sich die beiden neuen Chips unterscheiden werden. Auf AF/AA beziehe ich mich nicht, eher auf Shaderlastige Spiele (und theoretische Benchmarks).

Winter[Raven]
2004-04-17, 23:26:26
we're looking at a score of 100 FPS for the PS 2.0 test in 3dmark 2003!


Soll das ein Scherz sein? NV40 erreicht ja 192 FPS beim PS2.0 Test ...

Intressant wäre zuwissen auf welches Modell diese sich bezieht.

Black-Scorpion
2004-04-17, 23:27:12
Original geschrieben von WEGA
klingt realistisch. aber die 10800xt hat bestimmt mehr MHz :D und die 9800xt hat doch nur mit OD 415 MHz. normal hat die doch so 380 oder 390.
9800pro - 380MHz
9800XT - 412MHz

Gast
2004-04-17, 23:29:17
Original geschrieben von Demirug
Gerade weil man sich nur zu einem schäbige 2.B Profil aufrafen konnte erwarte ich da ehrlich gesagt keine grossen Änderungen.

D.h. du bist der Meinung, ATI ruht sich auf den Lohrbeeren aus ? Oder Unterschätzten gar den NV40, da er sich ja sehr vom NV3X Unterscheidet...

WEGA
2004-04-17, 23:34:44
Original geschrieben von Anonym_001
9800pro - 380MHz
9800XT - 412MHz

ah danke xD und auf wieviel kommt die XT mit OD?

Demirug
2004-04-17, 23:38:53
Original geschrieben von Gast
D.h. du bist der Meinung, ATI ruht sich auf den Lohrbeeren aus ? Oder Unterschätzten gar den NV40, da er sich ja sehr vom NV3X Unterscheidet...

Das hat nichts mit Ausruhen zu tun. Das ist ein Personalproblem. Mit nur 2 Teams kann man nicht an 3 Projekten gleichzetig arbeiten ohne das eines darunter leidet.

Etwas unterschätz haben sie den NV40 möglicherweise auch. nVidia hat ja Gerüchte über den Transitorcount gestreut. Ich gehe mal davon aus das sich ATI nachdem sie was von 175M Transitoren gehört haben sich gesagt haben das sie in die gleiche Menge soviel R3XX Technik reinpacken wie möglich und dann einfach mit brutaler Gewahlt gewinnen. Den das nVidia aufgrund der Technologischen Ziele (SM3) bei gleicher Transitorenmenge nicht mithalten könnte dürfte ATI klar gewesen sein.

deekey777
2004-04-17, 23:49:25
Original geschrieben von WEGA
ah danke xD und auf wieviel kommt die XT mit OD?

Je nach Temperatur knapp über 430 MHz oder so (mit dem allerletzten Treiber).

Gast
2004-04-17, 23:51:03
Also ist bei ATI die "Intel" Taktik angesagt, MHz bis der Kühler wegschwimmt ;)

Kurz noch zum "Rechenwerk" von vorheriger Seite:
im reinen PS2.0 Test des 3DMark2003 liegt die NV40U um das 3fache vor der FX5950U und der R9800XT, also zeigt sich hier die "Effiziens" die Aths in seinem Artikel angesprochen hat. (Die FPS ist in diesem Test konstant, Leonidas Testsystem ist schwächer als das von Beyond3D, trotzdem selbes Ergebnis der NV40U, und da der 60er Treiber "approved" ist kann man NV keine Cheaterei vorwerfen). Sehe ich das richtig ^^

Demirug
2004-04-18, 00:11:59
Original geschrieben von Gast
Also ist bei ATI die "Intel" Taktik angesagt, MHz bis der Kühler wegschwimmt ;)

Selbst mit dem besten Kühler gibt es eine Obergrenze über die man nicht kommtn weil der Chip einfach nicht für mehr entwickelt wurde.

Kurz noch zum "Rechenwerk" von vorheriger Seite:
im reinen PS2.0 Test des 3DMark2003 liegt die NV40U um das 3fache vor der FX5950U und der R9800XT, also zeigt sich hier die "Effiziens" die Aths in seinem Artikel angesprochen hat. (Die FPS ist in diesem Test konstant, Leonidas Testsystem ist schwächer als das von Beyond3D, trotzdem selbes Ergebnis der NV40U, und da der 60er Treiber "approved" ist kann man NV keine Cheaterei vorwerfen). Sehe ich das richtig ^^

Die letzten Treiber wurden trotz Austausch-Shader für den PS 2.0 Test approved. Wobei solche Austauschshader ja nicht zwingend einen Cheat darstellen. Nutzt nVidia aber auch beim 2.0 Test nur den normalen Shadercompiler kann es gut sein das sie sogar noch ein paar FPS verschenkt haben. Ich traue aufgrund von dem was ich gesehen haben dem Shadercompiler nicht so ganz was das finden der optimalen Lösung angeht.

Quasar
2004-04-18, 00:19:03
Original geschrieben von Demirug
Die letzten Treiber wurden trotz Austausch-Shader für den PS 2.0 Test approved.

Wirklich? Ich dachte, für 3DMark03 v.340 sei entweder der 52er oder 53er FW zugelassen - der 56er aber eben nicht...?

Gast
2004-04-18, 00:28:57
Original geschrieben von Demirug
Ich traue aufgrund von dem was ich gesehen haben dem Shadercompiler nicht so ganz was das finden der optimalen Lösung angeht.

D.h. eine "faire" Vergleichbarkeit zur R420 ist nur schwer gegeben (mal abgesehen von der Precision Differenz).
Naja vieleicht tüftelt ATI ja auch noch was an ihren Treibern, laut dieser Meldung is da was ominöses im kommen. http://shortnews.stern.de/shownews.cfm?id=513010&u_id=320908

Demirug
2004-04-18, 00:30:05
Original geschrieben von Quasar
Wirklich? Ich dachte, für 3DMark03 v.340 sei entweder der 52er oder 53er FW zugelassen - der 56er aber eben nicht...?

OK, das "letzten Treiber" war missverständlich. Ich meinte den letzten zugelassen (52.16). Für den gibt es ebene den besagten Zusatz:

The 52.16 drivers have 3DMark03 specific optimization for the Pixel Shader 2.0 test and that score is solely comparable between nvidia cards.

Demirug
2004-04-18, 00:31:43
Original geschrieben von Gast
D.h. eine "faire" Vergleichbarkeit zur R420 ist nur schwer gegeben (mal abgesehen von der Precision Differenz).
Naja vieleicht tüftelt ATI ja auch noch was an ihren Treibern, laut dieser Meldung is da was ominöses im kommen. http://shortnews.stern.de/shownews.cfm?id=513010&u_id=320908

ATI hat ja auch einen Shadercompiler im Treiber. Wahrscheinlich sogar schon länger als nVidia. Der ist aber auch nicht immer perfekt.

Godmode
2004-04-18, 01:45:41
Was finden eigentlich alle so schlimm am manuellen Shadertausch?? Also wenn die Bildqualität nicht gesenkt wird, kann ich das nur willkommen heißen!

NV oder ATI wird sicher besser Bescheid wissen, wie man die GPUs füttern muss damit sie effektiv arbeiten.

Sowas kann man von den Devs nicht erwarten! OK, kompetente Leute wie Demirug wissen schon wie man die Shader schreiben muss, damit sie schnell abgearbeitet werden, naja und für die, die es nicht wissen gibts ja sicher Devsupport von ATI und NV.

Wie schauts eigentlich mit den Shader-Hochsprachen aus, bezüglich Nachoptimierung? Ist der Compiler ausgereift, oder muss man immer wieder den Assambler Code des Shaders nachbearbeiten um mehr Geschwindigkeit rauszuholen?

Sphinx
2004-04-18, 02:29:18
Original geschrieben von bans3i
Was finden eigentlich alle so schlimm am manuellen Shadertausch?? Also wenn die Bildqualität nicht gesenkt wird, kann ich das nur willkommen heißen!

NV oder ATI wird sicher besser Bescheid wissen, wie man die GPUs füttern muss damit sie effektiv arbeiten.

Sowas kann man von den Devs nicht erwarten! OK, kompetente Leute wie Demirug wissen schon wie man die Shader schreiben muss, damit sie schnell abgearbeitet werden, naja und für die, die es nicht wissen gibts ja sicher Devsupport von ATI und NV.


^^ Dafür gibt es Tools

Ailuros
2004-04-18, 06:19:32
Original geschrieben von Demirug
Das hat nichts mit Ausruhen zu tun. Das ist ein Personalproblem. Mit nur 2 Teams kann man nicht an 3 Projekten gleichzetig arbeiten ohne das eines darunter leidet.

Etwas unterschätz haben sie den NV40 möglicherweise auch. nVidia hat ja Gerüchte über den Transitorcount gestreut. Ich gehe mal davon aus das sich ATI nachdem sie was von 175M Transitoren gehört haben sich gesagt haben das sie in die gleiche Menge soviel R3XX Technik reinpacken wie möglich und dann einfach mit brutaler Gewahlt gewinnen. Den das nVidia aufgrund der Technologischen Ziele (SM3) bei gleicher Transitorenmenge nicht mithalten könnte dürfte ATI klar gewesen sein.

Ich hab in der Zwischenzeit herausgefunden, dass mehr als nur ein Konkurrent wusste was hinter der 175M Verwirrung steckte.

Ich bin mir immer noch nicht sicher, ob der XT tatsaechlich nur an die 180M oder doch an die 200M reicht. Im zweiten Fall spielten im relativen Sinn beide IHVs ein sehr merkwuerdiges Katzen-Maus Spiel....

Quasar
2004-04-18, 08:12:28
Original geschrieben von bans3i
Was finden eigentlich alle so schlimm am manuellen Shadertausch?? Also wenn die Bildqualität nicht gesenkt wird, kann ich das nur willkommen heißen!


Dieses "Wenn" trifft aber leider viel zu selten ein. Das ist ja das Problem.

ShadowXX
2004-04-18, 10:12:15
Original geschrieben von Ailuros
Ich hab in der Zwischenzeit herausgefunden, dass mehr als nur ein Konkurrent wusste was hinter der 175M Verwirrung steckte.

Ich bin mir immer noch nicht sicher, ob der XT tatsaechlich nur an die 180M oder doch an die 200M reicht. Im zweiten Fall spielten im relativen Sinn beide IHVs ein sehr merkwuerdiges Katzen-Maus Spiel....

Wenn diesem so wäre, stellt sich allerdings wirklich die Frage, ob der r420 wirklich "nur" ein 4xIrgendetwas (bzw. 3xIrgendetwas) Chip ist.

Oder nur als Basis von der r3x0 ausgegangen wurde und doch ein paar der verworfenen r400 sachen mit drin sind...anders geasgt...vielleicht haben SIe ja tatsächlich auch noch verbesserungen an den Shadern bzw. ROP-Pipes vorgenommen (z.B. wie nV ein Crossbar (oder wie man das auch nennt) zwischen Shader-Einheiten und Rop-Einheiten).

Pipes unnd Takt sind ja inzwischen fast unwichtig beim vergleich zwischen den beiden geworden (r420/nv40, speziell wenn die XT dann wirklich 200Mios hat)...

Interessant ist eigentlich nur noch, ob ATI die Effektivität ihrer Shader steigern konnte und diese auf oder über dem niveau des nv40 liegen.

Bei AA/AF gehe ich persönlich nicht von weltbewegenden Veränderungen aus (viiiiiieleicht 8XMSAA, sonst aber nix....bei AF glaube ich, das es bleibt, da ich nicht mehr an den XMas-Mann glaube)

Demirug
2004-04-18, 10:27:21
Original geschrieben von ShadowXX
Oder nur als Basis von der r3x0 ausgegangen wurde und doch ein paar der verworfenen r400 sachen mit drin sind...anders geasgt...vielleicht haben SIe ja tatsächlich auch noch verbesserungen an den Shadern bzw. ROP-Pipes vorgenommen (z.B. wie nV ein Crossbar (oder wie man das auch nennt) zwischen Shader-Einheiten und Rop-Einheiten).

Eine Crossbar würde beim R420 wahrscheinlich nicht viel bringen. Ohne Branching gibt es ja das Problem mit ungleichmässig auftauchenden Quads nicht.

reunion
2004-04-18, 10:30:18
Original geschrieben von Quasar
Dieses "Wenn" trifft aber leider viel zu selten ein. Das ist ja das Problem.

Außerdem täuscht man damit eine höhere Leistung vor als man tatsächlich erreicht, da man in Spielen ja auch nicht alle Shader austauschen kann...

ShadowXX
2004-04-18, 10:32:06
Original geschrieben von Demirug
Eine Crossbar würde beim R420 wahrscheinlich nicht viel bringen. Ohne Branching gibt es ja das Problem mit ungleichmässig auftauchenden Quads nicht.

stimmt....sollte ja auch nur ein Beispiel sein, dass man auch abseits von "mehr mehr mehr" bzw. "höher höher höher" etwas machen kann.

Was wären denn deiner Meinung nach sinnvolle verbesserungen, die ATI einbauen könnte (2te FPU??)??

Demirug
2004-04-18, 11:00:17
Original geschrieben von ShadowXX
stimmt....sollte ja auch nur ein Beispiel sein, dass man auch abseits von "mehr mehr mehr" bzw. "höher höher höher" etwas machen kann.

Was wären denn deiner Meinung nach sinnvolle verbesserungen, die ATI einbauen könnte (2te FPU??)??

Eine 2te FPU würde die Rechenleistung natürlich schon steigern. Nur wäre das Kosten/Nutzen nicht unbedingt das beste. Erschwerend kommt hinzu das solche Massnahmen die Pipelinelänge und damit auch das Timeing verändern. Ich gehe wie gesagt davon aus das ATI mit Brute Force arbeitet. Der daraus entstehende Fillrate Vorteil könnte ihnen bei vielen aktuellen Spielen sogar die Performancekrone zurück bringen. Wenn meine Prognose aber bis zu diesem Punkt stimmt wird ATI je mehr gerechnet wird boden verlieren.

LovesuckZ
2004-04-18, 11:04:00
Original geschrieben von Demirug
Ich gehe wie gesagt davon aus das ATI mit Brute Force arbeitet. Der daraus entstehende Fillrate Vorteil könnte ihnen bei vielen aktuellen Spielen sogar die Performancekrone zurück bringen.

Sollte nicht ebenfalls wie bei nvidia der verfügbare Speicher limitieren?
Sollten die Geruechte wahr sein, dass ATi die XT Variante mit 475MHz+ bringen werde, dann haetten sie ein noch schlechteres Verhältnis als Nvidia.
Könnte es dann auch nicht passieren, dass XT und Pro in vielen Anwendungen eigentlich die selbe leistung erbringen?

ShadowXX
2004-04-18, 11:14:30
Original geschrieben von Demirug
Eine 2te FPU würde die Rechenleistung natürlich schon steigern. Nur wäre das Kosten/Nutzen nicht unbedingt das beste. Erschwerend kommt hinzu das solche Massnahmen die Pipelinelänge und damit auch das Timeing verändern. Ich gehe wie gesagt davon aus das ATI mit Brute Force arbeitet. Der daraus entstehende Fillrate Vorteil könnte ihnen bei vielen aktuellen Spielen sogar die Performancekrone zurück bringen. Wenn meine Prognose aber bis zu diesem Punkt stimmt wird ATI je mehr gerechnet wird boden verlieren.

Hmmm....tja, dass ist schade...und bestätigt auch das was ich befürchte.

Nur über Brute Force ist IMHO die falsche Lösung bis zum r500....aber scheinbar hat ATI zuwenig R&D um mit der r420-Reihe was anderes auf die Beine zu stellen...

Wenn Sie nicht noch irgenetwas aus dem Hut zaubern, wirds diese Runde wohl mal wieder eine nV, die in meinem Rechner ihren Dienst versieht...

Hat ATI bis jetzt überhaupt noch nichts an die Devs durchsickern lassen???? (Wobei das dann wohl mit NDA versehen ist und du sowieso nichts sagen dürftest...)

Demirug
2004-04-18, 11:22:59
Original geschrieben von LovesuckZ
Sollte nicht ebenfalls wie bei nvidia der verfügbare Speicher limitieren?
Sollten die Geruechte wahr sein, dass ATi die XT Variante mit 475MHz+ bringen werde, dann haetten sie ein noch schlechteres Verhältnis als Nvidia.
Könnte es dann auch nicht passieren, dass XT und Pro in vielen Anwendungen eigentlich die selbe leistung erbringen?

Die XT sollte ja etwas schnelleren Speicher als die Pro bekommen. Bei der Pro spricht man ja von 450MHz. Bei der XT geht man ja von GDDR3 aus und der fängt erst bei 500MHz an.

Natürlich muss man auch bei ATI mit Bandbreiten Problemen rechnen. Das war ja einer der gründen für das "könnte". Wenn die gerüchte Stimmen sollte die Fillrate ATI zum Beispiel bei UT die Krone zurückbringen aber es könnte durchaus die Bandbreite zum Flaschenhals werden.

Demirug
2004-04-18, 11:25:02
Original geschrieben von ShadowXX
Hmmm....tja, dass ist schade...und bestätigt auch das was ich befürchte.

Nur über Brute Force ist IMHO die falsche Lösung bis zum r500....aber scheinbar hat ATI zuwenig R&D um mit der r420-Reihe was anderes auf die Beine zu stellen...

Wenn Sie nicht noch irgenetwas aus dem Hut zaubern, wirds diese Runde wohl mal wieder eine nV, die in meinem Rechner ihren Dienst versieht...

Hat ATI bis jetzt überhaupt noch nichts an die Devs durchsickern lassen???? (Wobei das dann wohl mit NDA versehen ist und du sowieso nichts sagen dürftest...)

Nur die DEVs die ATI als wichtig erachtet bekommen vorab Infos und auf dieser Liste stehe ich nicht weit genug oben. Aber wie du schon sagst wenn ich was hätte dürfte ich es sowieso nicht öffentlich machen.

Quasar
2004-04-18, 12:26:44
Original geschrieben von reunion
Außerdem täuscht man damit eine höhere Leistung vor als man tatsächlich erreicht, da man in Spielen ja auch nicht alle Shader austauschen kann...

Ich für meinen Teil habe eigentlich _nur_ von Games gesprochen. Und da kann man vielleicht nicht alle Shader, aber doch die kritischsten austauschen.

zeckensack
2004-04-18, 12:40:03
Original geschrieben von Quasar
Ich für meinen Teil habe eigentlich _nur_ von Games gesprochen. Und da kann man vielleicht nicht alle Shader, aber doch die kritischsten austauschen. Das ist ja schön und gut für Leute, die die Karte und das Spiel schon haben, aber du musst auch anerkennen, dass es irreführend ist für Leute die sich über eine Karte (nicht! in Bezug auf ein spezielles Spiel) informieren wollen, bevor sie sie kaufen.

Pech ist generell auch, wenn man Spiele spielen will, die nicht "nachbearbeitet" wurden, aus welchen Gründen auch immer.

Quasar
2004-04-18, 12:47:02
Jo - nur warum sollte man von einem einzelnen Game auf die Allgemeinheit schließen?