PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : und ati doch mit 16 pipes! :-)


superior
2004-04-08, 17:56:44
die xt version des r420 wird wohl 16 pipes haben!


http://www.pcgames.de/?article_id=303000

Quasar
2004-04-08, 17:58:36
Ui, dann sind die "extreme-Pipelines" aber wohl doch extrem zusammengestrichen oder der Takt niedriger als vermutet.

DrumDub
2004-04-08, 17:59:49
Original geschrieben von Quasar
Ui, dann sind die "extreme-Pipelines" aber wohl doch extrem zusammengestrichen oder der Takt niedriger als vermutet.

wartens wir ab. könnte ja auch die xt version sein...

Quasar
2004-04-08, 18:01:19
Steht doch da, daß es die XT-Version wird.

Allerdings steht dann noch ATis Aussage im Raum, man erreiche in Sachen Vertex- und Pixelleistung das doppelte der R350.

Das wäre ein 12-Pipe-Design bei 500MHz oder eben.... *shrugs*

reunion
2004-04-08, 18:03:33
Original geschrieben von Quasar
Steht doch da, daß es die XT-Version wird.

Allerdings steht dann noch ATis Aussage im Raum, man erreiche in Sachen Vertex- und Pixelleistung das doppelte der R350.

Das wäre ein 12-Pipe-Design bei 500MHz oder eben.... *shrugs*

Vielleicht ist ja die XT-Version schon eine Art Vorgezogener Refreshchip (soll ja erst einen Monat später kommen als die pro Version), also eine Reaktion auf den vermutlich starken NV40, und da ATI nicht mit Features Punkten kann, muss man eben um jeden Preis schneller sein als NV. Aufjedenfall wären 16-pipes mit den schon öfters erwähnten 600mhz Chiptakt selbst ohne extreme Pipes die dreifache R360 Leistung...

Quasar
2004-04-08, 18:28:35
Von nVidia hört man, daß sie mit mehr als einem 12-Pipe R420 gerechnet haben - und sie sind sich trotzdem ziemlich sicher, das Ding in die Tasche stecken zu können.

Wishnu
2004-04-08, 18:35:44
Original geschrieben von Quasar
Von nVidia hört man, daß sie mit mehr als einem 12-Pipe R420 gerechnet haben - und sie sind sich trotzdem ziemlich sicher, das Ding in die Tasche stecken zu können.

Das würde ich an deren Stelle auch behaupten...warten wir lieber mal ab... ;)

dildo4u
2004-04-08, 18:41:49
bin gespannt obs ati schafft bei der xt mit 16 pipes im gegensatz zur nv40 ohne einen 2 stromanschluss klar kommt NV scheint diesmal wirklich voll auf brute force zu setzen hoffentlich zeigt sich ati da intelligenter

WEGA
2004-04-08, 18:42:06
ich will endlich die karten haben und ordendlcihe benches sehen :/

LovesuckZ
2004-04-08, 18:42:53
Wie unsere Redaktion aus gut unterrichteten Kreisen erfahren hat, wird Ati noch im Frühjahr eine Next-Generation-Grafikkarte mit 16 Pipelines auf den Markt bringen. Damit legen die Kanadier eine hohe Messlatte für die Next-Generation-Grafikkarte von Nvidia,[...]

"Frühjahr"? Bald ist schon Sommer und "hohe Messlatte"? Sollte der Chip dann nicht vor der Praesentation der Nvidiakarte kommen?
Nunja, was tut man nicht alles für Hits...

(del676)
2004-04-08, 18:46:31
d.h. im Klartext:

ati hat (wohl in Panik) schon einen Refresh Chip des Refresh Chips (r420) des 360 (also des refresh chips des r300) parat? ;D

d.h. wiederrum das der r4(wie wennen wir ihn?) r440? eventuell dann doch relativ interessant werden könnte

also schneller als nv, 6xAA (hoffentlich besseres AF), dann wär noch die leistungsaufnahme interessant ....

d.h. dann werd ich vielleicht doch keinen r420 bestellen sondern auf den r440(?) warten ...

edit: obwohl die effizenz des (imho) schnell zusammengeschusteren 16 pipes designs abzuwarten wäre (?)

betasilie
2004-04-08, 18:46:47
Original geschrieben von Quasar
Von nVidia hört man, daß sie mit mehr als einem 12-Pipe R420 gerechnet haben - und sie sind sich trotzdem ziemlich sicher, das Ding in die Tasche stecken zu können.
Jo, wie Wishnu schon sagte; beide Firmen werden erstmal öffentlich den Sieger mimen, denn wer auch immer unterlegen sein, die Negativschlagzeilen kommen dann schon früh genug. ;)

Ich gehe auch mal davon aus, dass ATI den NV40 unterschätzt hat und jetzt versucht das sinkende Schiff mit der 16P-XT-Version des R420 zu retten, wenn der R420 nur 12Pipes hat und tatsächlich kurze Zeit später ein 16-Pipe-Chip kommt. :gruebel:

Quasar
2004-04-08, 18:54:24
beta, wishnu:

Wenn nV schon vor Wochen davon Wind bekommen hatte, daß der next-Gen Chip von ATi (wenn man ihn denn so nennen will) 16 Pipes hat und entsprechend leistungsstark wird, werden sie zumindest ihre Ultra-Version versucht haben, dem anzupassen.


Problematisch wird's nur, falls der R420 erstmal wirklich nur mit 12 Pipes kommt und dem nV40 unterlegen sein sollte. Den Image-Verlust wieder auszubügeln mit einem Refresh halte ich für wenig sinnvoll - dann lieber gleich the real thing bringen.

WEGA
2004-04-08, 18:56:42
ich schätze mal der *r440* ;) wird auf dem niveau der nv40 sein

betasilie
2004-04-08, 18:58:14
Original geschrieben von Quasar
Problematisch wird's nur, falls der R420 erstmal wirklich nur mit 12 Pipes kommt und dem nV40 unterlegen sein sollte. Den Image-Verlust wieder auszubügeln mit einem Refresh halte ich für wenig sinnvoll - dann lieber gleich the real thing bringen.
Hmm, ATI könnte einen unterlegenen 12Pipe-Chip durch den Kartenpreis attraktiv machen. Beeser als kein neuer Chip. Und wirklich langsam wäre so ein R420 mit 12 Pipes und entsprechender Taktung bestimmt nicht.

Wenn sie überhaupt keine Karte bringen, um auf das Flagschiff in Form eines Refreshchips mit 16Pipes zu warten, wäre das imho fatal.

(del676)
2004-04-08, 19:00:17
hmm eine 16 pipes, *fuck dreh den vmem höher* gddr3 speicher mit 2 molexs und einer wakü damit der chip verdammtnochmal endlich im heissgeliebten 3dquark03 gleichziehen kann?

*duck* :D

edit:
hmmm wenn ich von den theoretischen daten und gerüchten ausgehe und eine dau rechnung mach:

r420 (12 pipes): 10000 3dmarks
nv40 (16 pipes): 12500 3dmarks

und ich das bei ati hochrechne (10000 *16/12) kommt man auf nv40 schlagende 13333 3dmarks *duck* :lolaway:

Godmode
2004-04-08, 19:01:52
Wir müssten einfach wissen wie effektiv die "Pipes" des NV40 sind und natürlich den Takt. Aber wenn Quasar meint das Nvidia mit 16 ATI-Pipes gerechnet hat, dann w3rden sie wohl ein derartig starkes Produkt liefern.

Naja in spätestens 5 Tagen wissen wir sowiso was gespielt wird :)

edit: von in die Tasche stecken würde ich trotzdem absehen, ich denke wenn NV40 wirklich schneller als R420 @ 16 Pipes ist, dann nur minimal

Demirug
2004-04-08, 19:02:16
16 Pipes? Ach die 9800 MAXX kommt also doch noch? :)

WEGA
2004-04-08, 19:03:50
Original geschrieben von bans3i
Wir müssten einfach wissen wie effektiv die "Pipes" des NV40 sind und natürlich den Takt. Aber wenn Quasar meint das Nvidia mit 16 ATI-Pipes gerechnet hat, dann w3rden sie wohl ein derartig starkes Produkt liefern.

Naja in spätestens 5 Tagen wissen wir sowiso was gespielt wird :)

lol, er schreibt jetzt schon ne nv40 in seine sig

vieleicht ist das auch nur eine marketigstrategie ATI seits. erst schwächere grakas teuer bringen udn almälcih mit den richtigen sachen nachrücken

:-?

Winter[Raven]
2004-04-08, 19:04:20
Original geschrieben von Ulukay
hmm eine 16 pipes, *fuck dreh den vmem höher* gddr3 speicher mit 2 molexs und einer wakü damit der chip verdammtnochmal endlich im heissgeliebten 3dquark03 gleichziehen kann?

*duck* :D

Kommt dir das irgendwie bekannt vor?

So NV30? .... Da musste ja Nvidia auch DDR2 und den FlowFX verbauen. Nicht das sich die Geschichte wiederholt. *eg*

Godmode
2004-04-08, 19:05:01
Original geschrieben von Demirug
16 Pipes? Ach die 9800 MAXX kommt also doch noch? :)

;D ;D ;D

Warum den nicht 2 * 360 GPUs = R420 :)

Godmode
2004-04-08, 19:07:04
Original geschrieben von WEGA
lol, er schreibt jetzt schon ne nv40 in seine sig

vieleicht ist das auch nur eine marketigstrategie ATI seits. erst schwächere grakas teuer bringen udn almälcih mit den richtigen sachen nachrücken

:-?

Es ist für mich fast sicher das ich NV40 kaufe, weil ich mich schon extreem freue Shader 3.0 zu progen :)

Da müsste er schon ur langsam sein, dass ich mir dieses Teil engehen liese :)

WEGA
2004-04-08, 19:07:17
Original geschrieben von bans3i
;D ;D ;D

Warum den nicht 2 * 360 GPUs = R420 :)

r420 hat 12 pipelines ;)

betasilie
2004-04-08, 19:11:06
Original geschrieben von WEGA
lol, er schreibt jetzt schon ne nv40 in seine sig


Wer? Edit: Ahso, der bans3i

Original geschrieben von WEGA
vieleicht ist das auch nur eine marketigstrategie ATI seits. erst schwächere grakas teuer bringen udn almälcih mit den richtigen sachen nachrücken
Ich halte sowas durchaus für möglich.

Demirug
2004-04-08, 19:13:08
Original geschrieben von WEGA
lol, er schreibt jetzt schon ne nv40 in seine sig

vieleicht ist das auch nur eine marketigstrategie ATI seits. erst schwächere grakas teuer bringen udn almälcih mit den richtigen sachen nachrücken

:-?

Sowas würde aber viel böses Blut geben weil sich dann doch einge schwer verarscht vorkommen würden.

Godmode
2004-04-08, 19:14:34
Könnt ihr euch vorstellen von wem PC-Games-Hardware diese News hat? Ist ja ziehmlich exklusiv! Direkt von ATI?

edit: aber es ist ein guter Zug diese Info jetzt rauszugeben, da man dadurch viele Leute abhält sich NV40 zu kaufen, da man ja wirklich nicht weiss wie gut der R4xx mit 16 Pipes ist

betasilie
2004-04-08, 19:16:00
Original geschrieben von Demirug
Sowas würde aber viel böses Blut geben weil sich dann doch einge schwer verarscht vorkommen würden.
Imho ist Understatement ein völlig legitimes Mittel die Konkurrenz zu beeinflussen.

Und wo sollte es böses Blut geben? ATI hat doch offiziell keine Daten bekannt gegeben.

WEGA
2004-04-08, 19:16:21
oder verarscht die pc-games uns?

betasilie
2004-04-08, 19:16:21
Original geschrieben von bans3i
Könnt ihr euch vorstellen von wem PC-Games-Hardware diese News hat? Ist ja ziehmlich exklusiv! Direkt von ATI?
Aus Taiwan wahrscheinlich. ;)

Gast
2004-04-08, 19:18:33
Vielleicht präsentieren sie ja den 16er gleich mit, zu kaufen ist er halt erst Ende Mai. Dann interessiert es niemanden mehr, dass vielleicht ursprünglich nur der 12er geplant war.

Mich würde mal der Transistoren-Count des 16er gegenüber dem 12er mit 160 Mio. interessieren. Dann könnte man mal wieder über Stromverbrauch usw. spekulieren.

Ist doch super, dass die gleich noch einen 16er bringen, dann kann man sich den 12er wahrscheinlich zu einem zuckersüßen Preis kaufen. Vielleicht wird das ja die neue 9800Pro beim Preis-Leistungsverhältnis?!

Godmode
2004-04-08, 19:20:41
Original geschrieben von Gast
Vielleicht präsentieren sie ja den 16er gleich mit, zu kaufen ist er halt erst Ende Mai. Dann interessiert es niemanden mehr, dass vielleicht ursprünglich nur der 12er geplant war.

Mich würde mal der Transistoren-Count des 16er gegenüber dem 12er mit 160 Mio. interessieren. Dann könnte man mal wieder über Stromverbrauch usw. spekulieren.

Ist doch super, dass die gleich noch einen 16er bringen, dann kann man sich den 12er wahrscheinlich zu einem zuckersüßen Preis kaufen. Vielleicht wird das ja die neue 9800Pro beim Preis-Leistungsverhältnis?!

Es soll ja der selbe Chip sein nur das beim 12 ein Quad @ 4 Pipes deaktiviert ist. Die Selektion der Chips dauert anscheinend seine Zeit und bis es genug R4xx mit 16 Pipes gibt das braucht halt seine Zeit. Das haben sie zumindest in PCGH gesagt ob das dann stimmt ist halt ne andere Frage

Demirug
2004-04-08, 19:20:48
Original geschrieben von betareverse
Imho ist Understatement ein völlig legitimes Mittel die Konkurrenz zu beeinflussen.

Und wo sollte es böses Blut geben? ATI hat doch offiziell keine Daten bekannt gegeben.

Ich meinte wenn sie erst die schwachen Karten teuer verkaufen und dann gleich (weniger als 2 Monate) darauf was wesentlich stärkeres nachschieben. Die meisten die sich ie schwächere Karte gekauft haben würden sich dann wohl schwer ärgern.

betasilie
2004-04-08, 19:39:22
Original geschrieben von Demirug
Ich meinte wenn sie erst die schwachen Karten teuer verkaufen und dann gleich (weniger als 2 Monate) darauf was wesentlich stärkeres nachschieben. Die meisten die sich ie schwächere Karte gekauft haben würden sich dann wohl schwer ärgern.
Achso meinst Du das.

:gruebel: Also wenn es so kommt, dann sollte ATI den 12Pipe-Chip auch dementsprechend zum folgenden 16Pipe-Chip preislich platzieren. Alles andere wäre sicherlich unfein und NV hat die NV30->NV35-Gesichte imo sichtbar geschadet. ... Ich denke ATI wird die Kunden in der Hinsicht nicht veräppeln. Auch wenn ATI härtere Bandagen im Marketingkampf angelegt hat, um zu NV aufschließen zu können, so unfeine Geschichten traue ich ATI z.Zt. nicht zu.

WEGA
2004-04-08, 19:53:40
http://www.xbitlabs.com/news/video/display/20040408100025.html

Sources familiar with the company’s roadmap revealed Thursday, the 8th of April, that the 420/R423 graphics processors will have 16 rendering pipelines

LovesuckZ
2004-04-08, 19:54:49
Original geschrieben von betareverse
Alles andere wäre sicherlich unfein und NV hat die NV30->NV35-Gesichte imo sichtbar geschadet.

Hm, komisch, niemand redet davon...

Ich denke ATI wird die Kunden in der Hinsicht nicht veräppeln.

Letzten 6 MOnate geschlafen? ATi "veräppelt" ihre Kunden vorne und hinten. Bald auch mit einer "Radeon 9550", die den Namen in keinster Weise gerecht wird...

Auch wenn ATI härtere Bandagen im Marketingkampf angelegt hat, um zu NV aufschließen zu können, so unfeine Geschichten traue ich ATI z.Zt. nicht zu.

ShadowXX sagte das mal so schoen: nV und ATI wollen beide unser bestes.......unser Geld.
Klar sind beide PR-Maschinen und was es sa sonst noch so gibt gleichermassen "Bad Guys".
Wer das nicht sieht oder sehen will ist IMO Blauäugig...

LovesuckZ
2004-04-08, 19:56:02
Original geschrieben von WEGA
http://www.xbitlabs.com/news/video/display/20040408100025.html


ATI Technologies’ chip known as R420 will be called RADEON X800 PRO and is likely to be launched on the 26th of April, 2004.

Nun, launch jetzt am/beim/auf 26.

ice cool69
2004-04-08, 20:36:59
Alles in allem interessiert mich diese Generation herzlich wenig, finde beide Karten nicht sonderlich interessant, da sind R500 und NV50 deutlich interessanter!

Die jetzige Generation wird sich wohl kaum von der alten Generation unterscheiden außer in der Performance.
Noch am ehesten die neue NV40 aber die muss ja in mehrerer Hinsicht nachlegen: Shaderperformance und Antialiasing

ATI sollte sich auf Bruteforce und Anisotropen Filter konzentrieren.

Glaube kaum dass einer den anderen deutlich zu schlagen vermag.

ShadowXX
2004-04-08, 21:06:14
Original geschrieben von ice cool69
Glaube kaum dass einer den anderen deutlich zu schlagen vermag.

Zu diesem Satz ein full ack....

Jede der beiden wird hier und da mal schneller, mal langsamer als der andere sein...also genauso wie jetzt auch schon.

Für mich sind beide nur Speed (und vielleicht Feature*) Updates...

(*damit meine ich nicht die Pixelshader, sondern solche sachen wie AA / AF)

nV hat ihr Packet hübscher verpackt (PS3.0) und ATI spielt "never touch a running system" und wirft ein "nur" ein paar Brikets nach...

Mal sehen was das jeweilige Marketing daraus bastelt....


P.S.
wenn dieses so eintrifft, hat das Marketing von nV natürlich den Vorteil der PS3.0-Keule...

seahawk
2004-04-08, 21:06:38
R420 hat in der X800 Version 12 aktive Pipes. Wobei man mit dem Begriff Pipes vorsichtig sein sollte.

Exxtreme
2004-04-08, 21:06:58
Original geschrieben von ice cool69
Alles in allem interessiert mich diese Generation herzlich wenig, finde beide Karten nicht sonderlich interessant, da sind R500 und NV50 deutlich interessanter!

Sehe ich ähnlich. Zwar reizen mich beide Chips sehr doch jetzt wäre zumindest für mich ein schlechter Zeitpunkt um sich die Teile zu holen. Im Herbst nämlich rüste ich die gesamte Kiste wieder auf und jetzt noch eine AGP-GraKa kaufen? :|

reunion
2004-04-08, 21:12:38
Original geschrieben von Ulukay
r420 (12 pipes): 10000 3dmarks
nv40 (16 pipes): 12500 3dmarks


:lol: Selbst der R360 erreicht auf dem gleichen System auf dem der NV40 getestet wurde angeglich 7200Punkte mit anviesierten 600mhz würde selbst der R3x0 mit 8Pipes 10K locker erreichen, mit 12 Pipes wäre man bei 15K, mit 16 schon bei 20K :naughty:

reunion
2004-04-08, 21:14:33
Original geschrieben von WEGA
lol, er schreibt jetzt schon ne nv40 in seine sig

vieleicht ist das auch nur eine marketigstrategie ATI seits. erst schwächere grakas teuer bringen udn almälcih mit den richtigen sachen nachrücken

:-?

Wer sagt denn das es überhaupt einen 12Pipe R420 geben wird?

reunion
2004-04-08, 21:16:50
Original geschrieben von bans3i
Könnt ihr euch vorstellen von wem PC-Games-Hardware diese News hat? Ist ja ziehmlich exklusiv! Direkt von ATI?


definitiv nicht, hätten sie das von ATI müssten sie eine NDA unterschreiben und dürften deshalb soetwas nicht verbreiten...

Exxtreme
2004-04-08, 21:17:08
Original geschrieben von reunion
Wer sagt denn das es überhaupt einen 12Pipe R420 geben wird?
Ich könnte mir das vorstellen:

RadeonX 800 Pro -> 12 Pipes
RadeonX 800 XT -> 16 Pipes

Würde IMHO auch zu ATi passen.

reunion
2004-04-08, 21:20:18
Original geschrieben von WEGA
http://www.xbitlabs.com/news/video/display/20040408100025.html

Sources familiar with the company’s roadmap revealed Thursday, the 8th of April, that the 420/R423 graphics processors will have 16 rendering pipelines

:kratz: Also nix 12pipe R420?!

Sunrise
2004-04-08, 21:21:36
Wo ihr grade so schön dabei seid ;)
[H]ard|OCP

ATI Pipelines:
Rumors are flying, but here is a bit of fact for you. ATI's next-gen part, codenamed "R420," will in fact be a full 16 pipeline VPU. You can take that to the bank, put it in your pipe and smoke it, or do whatever you want to do with it.
Zusätzlich! [fasten your seatbelts]

http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg

Sieht (wenn es denn stimmt) wirklich genial aus das Teil. :)

Börk
2004-04-08, 21:28:46
Original geschrieben von seahawk
Wobei man mit dem Begriff Pipes vorsichtig sein sollte.
Wenn Aufbau der GPU seit dem r3xx nichts verändert wurde, dann kann man auch noch ruhig von Pipes sprechen.

Demirug
2004-04-08, 21:31:31
Original geschrieben von ice cool69
ATI sollte sich auf Bruteforce und Anisotropen Filter konzentrieren.

Die Effizienz der Pixelprozessoren weiter zu steigern wäre durchaus auch keine schlechte Idee.

reunion
2004-04-08, 21:32:24
Original geschrieben von Sunrise
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg


Sieht ziemlich "echt" aus...
Stellt sich nurnoch die Frage wie schnell der Propeller den Dreht ;)

betasilie
2004-04-08, 21:35:59
Original geschrieben von Sunrise

http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg

Sieht (wenn es denn stimmt) wirklich genial aus das Teil. :)
Jo! Sieht ziemlich kühl aus und das PCB wirkt auch sehr aufgräumt. Wenn die echt ist ... :up:

reunion
2004-04-08, 21:37:16
Original geschrieben von burk23
Wenn Aufbau der GPU seit dem r3xx nichts verändert wurde, dann kann man auch noch ruhig von Pipes sprechen.

ACK, wenn gegenüber dem R3x0 nichts verändert wurde dann kann man auch schon ziemlich gut auf die Leistung schließen. Was dann bei verdoppelung der Pipeanzahl plus ca. 40% mehr Chiptakt und sonstiger kleinerer Verbesserung ca. 3 x R360 Leitung entsprechen würde...

Demirug
2004-04-08, 21:40:31
Das NV40 Bild bitte im NV40 Thread diskutieren.

Demirug
2004-04-08, 21:42:15
Original geschrieben von reunion
ACK, wenn gegenüber dem R3x0 nichts verändert wurde dann kann man auch schon ziemlich gut auf die Leistung schließen. Was dann bei verdoppelung der Pipeanzahl plus ca. 40% mehr Chiptakt und sonstiger kleinerer Verbesserung ca. 3 x R360 Leitung entsprechen würde...

Und wo nimmst du den Speicher dafür her?

reunion
2004-04-08, 21:45:41
Original geschrieben von Demirug
Und wo nimmst du den Speicher dafür her?

Naja, dafür bräuchte man dann mindestens 1ghz Taktfrequenz oder ein 512-bit Speicheranbindung @500mhz :flöt:

ShadowXX
2004-04-08, 21:49:41
Original geschrieben von Demirug
Und wo nimmst du den Speicher dafür her?

da wo auch nV ihren Speicher für ihre 16Pipes herholt???

Und jetzt sag nicht, das da bei nV ja was ganz anderes ist.

Entweder sind beide bei 16Pipe Bandbreitenlimitiert oder keine...(ersters trifft wohl eher zu).

(Oder hast du das mehr auf die 3x360 Leistung bezogen..)

Quasar
2004-04-08, 21:53:18
Original geschrieben von Exxtreme
Würde IMHO auch zu ATi passen.

Eigentlich eher nicht, da die XTs sich bislang nur über den Takt abgesetzt haben.

reunion
2004-04-08, 21:54:13
Original geschrieben von Quasar
Eigentlich eher nicht, da die XTs sich bislang nur über den Takt abgesetzt haben.

ACK, deshalb glaube ich auch nicht an einen 12-pipe R420...

Demirug
2004-04-08, 21:56:15
Original geschrieben von ShadowXX
da wo auch nV ihren Speicher für ihre 16Pipes herholt???

Und jetzt sag nicht, das da bei nV ja was ganz anderes ist.

Entweder sind beide bei 16Pipe Bandbreitenlimitiert oder keine...(ersters trifft wohl eher zu).

(Oder hast du das mehr auf die 3x360 Leistung bezogen..)

Ich meinte das 3*R360.

Zudem glaube ich an eine Pipeverdoppelung und 40% mehr Takt erst wenn ich es sehe.

Und jetzt nicht mit dem R300 kommen. Das war ein Pipesplit und keine echte verdoppelung.

betasilie
2004-04-08, 21:58:36
Original geschrieben von Quasar
Eigentlich eher nicht, da die XTs sich bislang nur über den Takt abgesetzt haben.
Kennst Du noch die alten 9500er? ;)

Exxtreme
2004-04-08, 21:59:18
Original geschrieben von Demirug
Und wo nimmst du den Speicher dafür her?
512 Bit Speicherinterface? ;D

Demirug
2004-04-08, 22:00:47
Original geschrieben von Exxtreme
512 Bit Speicherinterface? ;D

Also doch eine 9800 MAXX?

betasilie
2004-04-08, 22:01:14
Original geschrieben von Exxtreme
512 Bit Speicherinterface? ;D
Das PCB will ich sehen. :freak:

reunion
2004-04-08, 22:01:57
Original geschrieben von Demirug
Also doch eine 9800 MAXX?

:idea: Stimmt, das wäre eine möglichkeit...

//Edit:...aber das würde ja bedeuten dass es überhaupt keinen R420 gibt wenn man einfach 2xR360 nimmt, also doch irgendwie unrealistisch.

betasilie
2004-04-08, 22:02:39
Original geschrieben von Demirug
Also doch eine 9800 MAXX?
Denkst Du das ernsthaft an oder machst Du den Witz nur gerne öfter? :gruebel:

WEGA
2004-04-08, 22:05:52
nv50 lol, möchte mal wissen wievie stromanschlüsse der brauchen wird. aber bis nv50 und r500 kommen glaub ich das dauert noch ne zeit ;)

StefanV
2004-04-08, 22:05:57
Original geschrieben von Demirug
Also doch eine 9800 MAXX?

Hm, 9800 MaXX on Chip??

PS: das wird wirklich so geschrieben, siehe maXXman und meinereiner als Besitzer einer Rage 128 PRO MaXX ;)

betasilie
2004-04-08, 22:07:22
Original geschrieben von reunion
...aber das würde ja bedeuten dass es überhaupt keinen R420 gibt wenn man einfach 2xR360 nimmt, also doch irgendwie unrealistisch.
Du kannst die beiden Chips ja auf ein die packen. ;)

ShadowXX
2004-04-08, 22:08:03
Na, wenns denn wirklich 16Pipes werden sollten, glaube ich auch nicht mehr an 600MHz....wohl eher <=500MHz...

Viel ausser den zusaätzlichen 8 Pipes (und was denn da noch so zugehört) könnn Sie dann aber wohl nicht in die 175Mio Transis reingepackt haben...wird dann wohl bei 6xMSAA und dem "alten" AF bleiben..

Vielleicht ist es ja eine 9800MAXX auf einem Die;D ;D

//edit: sehe gearde, das beta 1 Min. vor mir die gleiche idee hatte...

//edit2: wie war das noch mal mit der machbarkeitsstudie von Sapphire??? *eg*

reunion
2004-04-08, 22:10:34
Original geschrieben von betareverse
Du kannst die beiden Chips ja auf ein die packen. ;)

Ja, aber 2xR360 wären wesentlich mehr als 160 Mio Transitoren ;)

Quasar
2004-04-08, 22:11:22
Da hat wohl wieder einer zuviel bei Sapphire auf der CeBIT gelauscht...
Die haben auch jedem erzählt, daß ihr Dualie lauffähig wäre. X-D

Demirug
2004-04-08, 22:11:45
Original geschrieben von betareverse
Denkst Du das ernsthaft an oder machst Du den Witz nur gerne öfter? :gruebel:

ATI hat alle notwendige Teile um sowas wirklich zu machen.

Letzten Endes wird es allerdings von bestimmten Faktoren abhängen was wir wirklich als 16 Pipeline Karte presentiert bekommen.

betasilie
2004-04-08, 22:11:55
btw, die "Doppelchip on one die Lösung" wäre jedenfalls in der Entwicklung recht kostengünstig gewesen. Dann noch ein paar Optimerungen und fertig ist der Rohpowerchip.

Kann mal bitte jemand sein NDA brechen! Ich will jetzt wissen was abgeht. X-D

reunion
2004-04-08, 22:12:43
Original geschrieben von WEGA
nv50 lol, möchte mal wissen wievie stromanschlüsse der brauchen wird. aber bis nv50 und r500 kommen glaub ich das dauert noch ne zeit ;)

Durch PCIe mit dem man ja bis zu 75W direkt vom Slot ziehen kann dürfte man wohl auch beim R500/NV50 mit max. 2 Stromanschlüssen auskommen :naughty:

WEGA
2004-04-08, 22:13:39
(doppelchip) das glaub ich nciht. sowas wäre uns shcon längst als gerücht bei inquirer um die ohren geflogen. außerdem wer würde denn sowas kaufen?? also ich nicht

Quasar
2004-04-08, 22:13:53
Original geschrieben von reunion
Ja, aber 2xR360 wären wesentlich mehr als 160 Mio Transitoren ;)

Kommt drauf an, wie man zählt... :D

Der 2D-Teil wird sicherlich nicht doppelt aktiv sein, ebenso div. Bereiche für Video- und DVD-Beschleunigung.

betasilie
2004-04-08, 22:14:30
Original geschrieben von Demirug
ATI hat alle notwendige Teile um sowas wirklich zu machen.

Letzten Endes wird es allerdings von bestimmten Faktoren abhängen was wir wirklich als 16 Pipeline Karte presentiert bekommen.
Ich habe schon bei deinem ersten Posting mit dem MAXX kurz gegrübelt, weil Du ja eigentlich selten "rumspaßt" ;), aber es dann doch als Witz abgetan.

Demirug
2004-04-08, 22:14:53
Original geschrieben von Quasar
Da hat wohl wieder einer zuviel bei Sapphire auf der CeBIT gelauscht...
Die haben auch jedem erzählt, daß ihr Dualie lauffähig wäre. X-D

Ich war doch gar nicht auf der CeBIT.

Es gibt lauffähige Quad R300 Karten. OK das sind Industriekarten die nur an einem PCI Bus hängen und auch verdammt teuer sind aber sie laufen.

Für das Busproblem hat ATI eine passende Bridge. Im Zweifelsfall könnten sie das ganze damit sogar als 2 PCB Variante bauen.

betasilie
2004-04-08, 22:14:57
Original geschrieben von WEGA
(doppelchip) das glaub ich nciht. sowas wäre uns shcon längst als gerücht bei inquirer um die ohren geflogen. außerdem wer würde denn sowas kaufen?? also ich nicht
Wieso nicht?

WEGA
2004-04-08, 22:17:29
Original geschrieben von betareverse
Wieso nicht?

2 alte chips zusammenbasteln und das als neu verkaufen?? die machen sich ja selbst kaput, wenn die sowas machen würden.

is ne irrsinnige idee und war auch nur ein witz von ihm ...

reunion
2004-04-08, 22:18:22
Original geschrieben von betareverse
Wieso nicht?

Zu teuer, zu ineffizient, zu viel Leistungsaufnahme,...
Man braucht sich ja nur die Volari V8 Duo anschauen und schon findet man genug Argumente X-D

Nein, ich halte soetwas auch für unrealistisch...

ShadowXX
2004-04-08, 22:18:26
Original geschrieben von WEGA
(doppelchip) das glaub ich nciht. sowas wäre uns shcon längst als gerücht bei inquirer um die ohren geflogen. außerdem wer würde denn sowas kaufen?? also ich nicht

vielleicht war das selbst INQ zu "Fantastisch"...also so ungewöhnlich, das selbst Sie meinten, das würde nie und nimmer jemand glauben...

Manchmal sind die naheliegensten Dinge die, án die man nicht denkt..

betasilie
2004-04-08, 22:19:26
Original geschrieben von WEGA
2 ate chips zusammenbasteln und das als neu verkaufen?? die mahcen sich ja selbst kaput, wenn die sowas amchen würden.

is ne irrsinnige idee udn war auch nur ein witz von ihm ...
Es zählt doch nur was am Ender auskommt. :ratlos: Ob sie einen normalen 16-Pipe-Chip machen, oder ein Dualchiplösung onDie ist doch Wurst. Dass sich vom Technolgielevel nichts großartig tut, war doch klar.

Demirug
2004-04-08, 22:21:17
Original geschrieben von reunion
Zu teuer, zu ineffizient,...
Man braucht sich ja nur die Volari V8 Duo anschauen und schon findet man genug Argumente X-D

Nein, ich halte soetwas auch für unrealistisch...

Volari kann nur AFR. Die R3XX beherschen das Aufteilen eines Frames in Tiles welche einzelnen Chips zugeordnet werden. Gibt zwar auch keine 100% aber in allem was Pixel limitiert ist funktioniert das ganze recht brauchbar.

betasilie
2004-04-08, 22:22:14
Original geschrieben von reunion
Zu teuer, zu ineffizient, zu viel Leistungsaufnahme,...
Man braucht sich ja nur die Volari V8 Duo anschauen und schon findet man genug Argumente X-D

Nein, ich halte soetwas auch für unrealistisch...
Ich rede jetzt nicht von zwei Chips auf einem PCB, sondern von zwei Chips auf einem die.

Und die Volari sollte man nun wirklich nicht als Paradebsp. bringen. :biggrin:

ShadowXX
2004-04-08, 22:22:24
Original geschrieben von reunion
Zu teuer, zu ineffizient, zu viel Leistungsaufnahme,...
Man braucht sich ja nur die Volari V8 Duo anschauen und schon findet man genug Argumente X-D

Nein, ich halte soetwas auch für unrealistisch...

Nicht 2 Chips auf einem PCB...sondern quasi 2 Chips auf einem Die....

Im Prinzip das umgedrehte vom RV360 (also nicht halbieren der Einheit...sondern verdoppeln)

WEGA
2004-04-08, 22:22:54
Original geschrieben von ShadowXX
vielleicht war das selbst INQ zu "Fantastisch"...also so ungewöhnlich, das selbst Sie meinten, das würde nie und nimmer jemand glauben...

Manchmal sind die naheliegensten Dinge die, án die man nicht denkt..

nien sowas kann ich nicht glauben. ich binn noch am überlegen und warte auf die ersten benches udn ergebnisse ob ich mir nv40 oder r420 kaufen werde. aber wenn die so nen "pfusch" (gott behüte) veranstalten würden würde ich ohne zu überlegen nv40 kaufen

=) ;)

betasilie
2004-04-08, 22:24:43
Ich weiß auch nicht. Ich mach jetzt eine Pause, weil mein Kopf brummt.

Falls jemand im privaten Rahmen sein NDA bzgl. des R420 brechen will, einfach eine PM an betareverse. =)

Demirug
2004-04-08, 22:24:57
Original geschrieben von ShadowXX
Nicht 2 Chips auf einem PCB...sondern quasi 2 Chips auf einem Die....

Im Prinzip das umgedrehte vom RV360 (also nicht halbieren der Einheit...sondern verdoppeln)

Man könnte auch zwei DIEs auf einem Träger montieren.

reunion
2004-04-08, 22:25:27
Original geschrieben von Demirug
Volari kann nur AFR. Die R3XX beherschen das Aufteilen eines Frames in Tiles welche einzelnen Chips zugeordnet werden. Gibt zwar auch keine 100% aber in allem was Pixel limitiert ist funktioniert das ganze recht brauchbar.

Also das gleiche Verfahren wie die Voodoo-Karten?
Dann wäre das ganze schon intressanter...
Vielleicht hat man ja wirklich beinahe alle Resorcen in den R500 gesteckt und bringt einfach 2xR300?!
Damit hätte man auch das Problem mit der begrenzten Speicherbandbreite nicht...

Godmode
2004-04-08, 22:26:45
Hat den ATI wirklich so extremen Personal Mangel?

reunion
2004-04-08, 22:26:58
Original geschrieben von ShadowXX
Nicht 2 Chips auf einem PCB...sondern quasi 2 Chips auf einem Die....

Im Prinzip das umgedrehte vom RV360 (also nicht halbieren der Einheit...sondern verdoppeln)

jaja, schon klar nur würde das nichts ändern außer das die Platine kleiner wird...

betasilie
2004-04-08, 22:27:17
Original geschrieben von Demirug
Man könnte auch zwei DIEs auf einem Träger montieren. ?-) :schmor: ?-)
Oh man, das wäre acuh sehr gut möglich.

betasilie
2004-04-08, 22:31:45
Original geschrieben von bans3i
Hat den ATI wirklich so extremen Personal Mangel?
Du musst das mal von der Seite sehen: So eine Dualchiplösung wäre performant, besonders durch den Bandbreitenvorteil und es muss ja nicht zwingend heißen, dass keine Optimierungen an den einzelnen Cores stattgefunden haben.

Außerdem, die personellen Resourcen, die ATI dabei gespart hätte, würden in den R500 fließen und dann lege ich mich fest, dass der R500 eine absolute Granate wird, ohne dass der R420 von der Leistung eine Enttäuschung werden muss.

reunion
2004-04-08, 22:34:50
Original geschrieben von betareverse
Du musst das mal von der Seite sehen: So eine Dualchiplösung wäre performant, besonders durch den Bandbreitenvorteil und es muss ja nicht zwingend heißen, dass keine Optimierungen an den einzelnen Cores stattgefunden haben.

Außerdem, die personellen Resourcen, die ATI dabei gespart hätte, würden in den R500 fließen und dann lege ich mich fest, dass der R500 eine absolute Granate wird, ohne dass der R420 von der Leistung eine Enttäuschung werden muss.

Ja, aber es wäre auch teuer, würde eine extrem hohe Leistungsaufnahme haben und dadurch ein relativ komplexes PCB erforden...

WEGA
2004-04-08, 22:37:11
das tema is zum diskutieren vielciht ganz lustig aber wir wissen doch alle dass ati schon einen anständigen neuen chip gemacht hat ;)

StefanV
2004-04-08, 22:37:38
Original geschrieben von bans3i
Hat den ATI wirklich so extremen Personal Mangel?

nein, aber XBox2 und den GC2 an den Hacken ;)

Godmode
2004-04-08, 22:45:39
Original geschrieben von Stefan Payne
nein, aber XBox2 und den GC2 an den Hacken ;)

schei.. Konsolen :)

Quasar
2004-04-08, 22:48:05
Original geschrieben von reunion
Also das gleiche Verfahren wie die Voodoo-Karten?

Voodoos haben in Zeilen (oder Zeilengruppen) aufgeteilt.

WEGA
2004-04-08, 22:49:23
schaut mal mein avatar. das is ein r420

sieht das dual aus?

Quasar
2004-04-08, 22:52:28
Nö, eher nach Fake.

WEGA
2004-04-08, 22:53:13
Original geschrieben von Quasar
Nö, eher nach Fake.

möglich


z-z-z so ein dualschwachsinn is ja rufschädigung für ati ...

Godmode
2004-04-08, 23:07:44
Was bringen sie dann beim Refresh? Das ganze in 110 Nm und mehr Takt?

StefanV
2004-04-08, 23:10:09
Original geschrieben von Quasar
Voodoos haben in Zeilen (oder Zeilengruppen) aufgeteilt.

Richtig, die Dual R300 arbeiten AFAIK mit Tiles.

Der R300 ist AFAIK ein TBIR ;)

Ailuros
2004-04-08, 23:45:48
Die Anzahl der SIMD Kanaele waere IMHO ausschlaggebend was Leistung in Shader-limitierten Applikationen betrifft zwischen verschiedenen Karten, wenn die SIMDs identisch oder fast identisch waeren.

Wenn's nicht klar genug ist, gibt es keinen Grund der einen 8*SIMD chip abhalten koennte 12K Punkte bei 3dmark2k3 zu landen.

Was 512bit busse betrifft: spekulieren wir schon ueber Material was 2006/7 betrifft oder was? ;)

Ailuros
2004-04-08, 23:47:53
Original geschrieben von Stefan Payne
Richtig, die Dual R300 arbeiten AFAIK mit Tiles.

Der R300 ist AFAIK ein TBIR ;)

Da muss ich Dich enttaeuschen in dem Sinn sind alle Architekturen tile oder chunck based seit der originalen Voodoo.

Aehnlicher falscher Eindruck wie mit HSR: dieses ist so alt oder aelter als der stinknormale Z-buffer.

Gast
2004-04-09, 00:50:40
Original geschrieben von reunion
Vielleicht ist ja die XT-Version schon eine Art Vorgezogener Refreshchip (soll ja erst einen Monat später kommen als die pro Version), also eine Reaktion auf den vermutlich starken NV40, und da ATI nicht mit Features Punkten kann, muss man eben um jeden Preis schneller sein als NV. Aufjedenfall wären 16-pipes mit den schon öfters erwähnten 600mhz Chiptakt selbst ohne extreme Pipes die dreifache R360 Leistung...

6 Setzen, was bitte schön hat der NV40 an Features??? Wenn du PS3.0 meinst kann ich nur müde lachen.

Gast
2004-04-09, 00:55:14
Original geschrieben von bans3i
Es ist für mich fast sicher das ich NV40 kaufe, weil ich mich schon extreem freue Shader 3.0 zu progen :)

Da müsste er schon ur langsam sein, dass ich mir dieses Teil engehen liese :)

Lol, du meinst wirklich es gäbe da einen SICHTBAREN Unterschied, lachwech, träum weiter !

Ailuros
2004-04-09, 00:57:10
Original geschrieben von reunion
Vielleicht ist ja die XT-Version schon eine Art Vorgezogener Refreshchip (soll ja erst einen Monat später kommen als die pro Version), also eine Reaktion auf den vermutlich starken NV40, und da ATI nicht mit Features Punkten kann, muss man eben um jeden Preis schneller sein als NV. Aufjedenfall wären 16-pipes mit den schon öfters erwähnten 600mhz Chiptakt selbst ohne extreme Pipes die dreifache R360 Leistung...

Hier gilt genau das gleiche wie mit dem NV40 "alt/neu" Quatsch: man kommt zu solchen Aenderungen nicht in letzter Minute.

Und dass NVIDIA beim NV40 auf PS/VS3.0 setzen wird, war ATI wohl schon seit langem bekannt. Falls da die Spionage nicht gut genug gearbeitet hat, dann waren sie zumindest mir der Vorstellung vom NV30 darueber sicher.

Ailuros
2004-04-09, 00:59:47
Original geschrieben von Gast
Lol, du meinst wirklich es gäbe da einen SICHTBAREN Unterschied, lachwech, träum weiter !

Genauso wenig wie mit SM4.0.

Ergo heisst dass dann wohl dass die Shader vom R500 voellig nutzlos sein werden, keinen Unterschied in Leistung oder Bildqualitaet bringen werden.

LOCHFRASS
2004-04-09, 02:57:37
Original geschrieben von WEGA
2 alte chips zusammenbasteln und das als neu verkaufen?? die machen sich ja selbst kaput, wenn die sowas machen würden.

is ne irrsinnige idee und war auch nur ein witz von ihm ...

Was soll daran irrsinnig sein? Bei 3dfx hats schließlich auch geklappt, die haben einfach den alten Banshee/Avenger-Core genommen, dem 32 Bit Rendering und den T-Buffer verpasst und als VSA 100 verkauft. :freak:

Godmode
2004-04-09, 10:34:50
Original geschrieben von Gast
Lol, du meinst wirklich es gäbe da einen SICHTBAREN Unterschied, lachwech, träum weiter !

Was heißt da einen Sichtbaren unterschied? Ich bin Hobbyprogrammierer und will einfach ein Paar 3.0 Shader programmieren. Und es wird sehr wohl Shader geben die man mit 2.0 nicht machen kann.

ShadowXX
2004-04-09, 10:49:34
Original geschrieben von LOCHFRASS
Was soll daran irrsinnig sein? Bei 3dfx hats schließlich auch geklappt, die haben einfach den alten Banshee/Avenger-Core genommen, dem 32 Bit Rendering und den T-Buffer verpasst und als VSA 100 verkauft. :freak:

Da kannst du sogar eine Generation vorher als Beispiel nehmen...

Der Voodoo3, war im Prinzip nur ein hochgetakteter Voodoo2 mit 2D-Teil und ein paar Deatilverbesserungen...

Also im Prinzip was ähnliches wie der r420 jetzt (ok die ähnlichkeit bezieht sich in diesem Fall mehr auf wiederverwertung...)

Quasar
2004-04-09, 10:55:01
Original geschrieben von Gast
Lol, du meinst wirklich es gäbe da einen SICHTBAREN Unterschied, lachwech, träum weiter !

:lolaway:
Ja, genau. Warum machen wir nicht weiterhin alles über konventionelles Multi-Pass-Multi-Texturing?

BTW, versuch' mal, in OpenGL eine 4096x4096-Textur mit einem PS2.0-only-Chip zu addressieren.

ShadowXX
2004-04-09, 10:55:24
Original geschrieben von bans3i
Was heißt da einen Sichtbaren unterschied? Ich bin Hobbyprogrammierer und will einfach ein Paar 3.0 Shader programmieren. Und es wird sehr wohl Shader geben die man mit 2.0 nicht machen kann.

Ich hoffe allerdings, das das nicht der einzige Grund bleibt, warum man sich einen nv40 kaufen sollte....

Wenn man AiLs Spekus so hört und nV tatsächlich das AF in der Quali runtergefahreen hat und "nur" 4xRGMSAA bietet, dann gibt es nämlich bald nur noch die PS3.0 als Kaufargument...

(Und bevor jemand mit einer rosaroten ATI-Brille kommt....ich hab im Abstimmungsthread damals "Egal, ich kauf den schnelleren" gewählt....mir ist es Piep und Schnurz-Egal was für ein Herstellerlogo auf meiner Karte bzw. ion meinen Treibern erscheint...unnd wenn XGI jetzt plötzlich ein Monsterchips rausbringt (der auch wirklich gut ist), kaufe ioh den....
Langsam hoffe ich da der PVR5 wirklich kommt und das hoffentlich bald....
Ich glaube, dass beide (ATI/nV) mal einen ordentlichen dämpfer brauchen....)

Ailuros
2004-04-09, 11:11:24
Langsam hoffe ich da der PVR5 wirklich kommt und das hoffentlich bald....
Ich glaube, dass beide (ATI/nV) mal einen ordentlichen dämpfer brauchen....)

Waere IP Lizenzierung kein Nachteil fuer den PC graphics standalone Markt, sondern ein Vorteil wie z.B. im PDA/mobile Markt, dann wuerde das Ganze vielleicht ganz anders aussehen.

Ailuros
2004-04-09, 11:13:53
Original geschrieben von ShadowXX
Da kannst du sogar eine Generation vorher als Beispiel nehmen...

Der Voodoo3, war im Prinzip nur ein hochgetakteter Voodoo2 mit 2D-Teil und ein paar Deatilverbesserungen...

Also im Prinzip was ähnliches wie der r420 jetzt (ok die ähnlichkeit bezieht sich in diesem Fall mehr auf wiederverwertung...)

Im relativen Sinn ist die Geschichte aber auch nicht so anders bei NVIDIA, wenn man sich die Grundsaetze der Technologien zwischen NV3x und NV4x genauer anschaut.

ShadowXX
2004-04-09, 11:16:40
Original geschrieben von Ailuros
Im relativen Sinn ist die Geschichte aber auch nicht so anders bei NVIDIA, wenn man sich die Grundsaetze der Technologien zwischen NV3x und NV4x genauer anschaut.

Jo...das hatte ich auch in einem der beiden anderen Threads (nv40 oder r420 Speku) erwähnt...

Beides sind nüchtern betrachtet Speedupgrades, wobei nV nur noch den PS3.0 mitgenommen hat, da es wohl nicht soviel aufwand bedeutete...

Gast
2004-04-09, 11:38:18
Original geschrieben von bans3i
Was heißt da einen Sichtbaren unterschied? Ich bin Hobbyprogrammierer und will einfach ein Paar 3.0 Shader programmieren. Und es wird sehr wohl Shader geben die man mit 2.0 nicht machen kann.

Ja klar und nachts ist es kälter als draussen!

Gast
2004-04-09, 12:10:55
Original geschrieben von Quasar
:lolaway:
Ja, genau. Warum machen wir nicht weiterhin alles über konventionelles Multi-Pass-Multi-Texturing?

BTW, versuch' mal, in OpenGL eine 4096x4096-Textur mit einem PS2.0-only-Chip zu addressieren.

Ja und eine unkomprimierte 4096x4096 tga Textur (oder funzt DXT mit OGL ?) braucht schon mal 64MB Speicher. Dementsprechend würd man nichteinmal mit 256MB eine Skybox ohne AGP Texturing hinbekommen. Und für (generierte) 4096² Texturen (z.B. Surface Textur bei Farcry) reicht in d3d auch PS2.0 wie man sieht...

BTW wer sich schon Texturcreation befasst hat, wird wissen, dass im Normalfall für selbst kreierte, (also keine gerenderten Landschaftsoberflächentexturen à la Bryce) normale Oberflächen 512x512 Pixel reichen, während man für komplexere mit max. 1024² arbeitet. Oder man ist so verschwenderisch wie die Fritzen bei UT2k3 und produziert noch grössere, aber dafür unscharfe Texturen*. Ausserdem kann ich mir vorstellen, dass eine horizontaleTextur (Boden), auf 4x 1024² aufgeteilt, sogar mehr Sinn hat, als eine 2048², da so nicht immer die ganze Textur im graKaspeicher gehalten werden muss. Und auf ein Sipel was vernünftige 1024² Pixel Wandtexturen hat wart ich immer noch, vielleicht auch deswegen, weil es wirtschaftlicher ist mit Detailtexturen zu arbeiten.

*von wegen contentcreation: Eine 20MPixel Digicam wär natürlich auch nett, sofern man die Texturen nicht prozedural bastelt, was man auch erst mal draufhaben muss,
und in Zeiten des Layerpaintings werden die Texturen eher sogar kleiner als grösser, da man kleine Unregelmässigkeiten (damit die Textur nicht so gekachelt wirkt) viel besser mit einem neuen Layer bewerkstelligen kann, als mit einer grösseren Textur, die eben diese Unregelmässigkeit schon eingebaut hat.

Bla bla bla, usw usf, eigentlich wollt ich nur Zeigen dass 4096 Texturen unter OpenGL keine besondere Relevanz haben werden. (Es sei denn eine Farcryähnliche OpenGL Engine wird released)

Mr. Lolman
2004-04-09, 12:22:35
Ich war der Gast :madman:

Tarkin
2004-04-09, 12:38:54
http://images.anandtech.com/reviews/video/ATI/RX800.jpg

Update April 9, 2004: We just received confirmation that X800 Pro will run on 12 pipelines, Radeon X800 XT will run on 16 pipelines and Radeon X800 SE will run on 8. It is important to note that all three of these chips are based on the same R420/R423 core. ATI could have an overclocker'ss/softmodder s dream with the X800 Pro and SE derivaties! This also comes as somewhat of a surprise since original leaked ATI documents claimed R420 would utilize 8 "Extreme" pipelines.

:jumping:

Quasar
2004-04-09, 12:43:59
Original geschrieben von Gast
Bla bla bla, usw usf, eigentlich wollt ich nur Zeigen dass 4096 Texturen unter OpenGL keine besondere Relevanz haben werden. (Es sei denn eine Farcryähnliche OpenGL Engine wird released)

Gaynau.... HL2 und zusammengesetzte Texturen... :|


Nur hilfts auch nichts, ständig davon zu sprechen (und noch Gäste zu verlachen), man könne mit 3.0-Shadern nichts machen, was man mit 2.0-Shadern nicht auch hinbekommen würde...

Wozu überhaupt GPUs? Kann ich doch auch alles per x87-FPU errechnen lassen - in zigfach höherer Präzision. :bonk:

_Darum_ geht's, die 4096er-Textur war nur ein Beispiel.

Mr. Lolman
2004-04-09, 13:15:50
HL2? Ist das nicht DX?

betasilie
2004-04-09, 13:20:17
Original geschrieben von Mr. Lolman
HL2? Ist das nicht DX?
Beides, afaik.

(del676)
2004-04-09, 13:24:09
Original geschrieben von Tarkin

Update April 9, 2004: We just received confirmation that X800 Pro will run on 12 pipelines, Radeon X800 XT will run on 16 pipelines and Radeon X800 SE will run on 8. It is important to note that all three of these chips are based on the same R420/R423 core. ATI could have an overclocker'ss/softmodder s dream with the X800 Pro and SE derivaties! This also comes as somewhat of a surprise since original leaked ATI documents claimed R420 would utilize 8 "Extreme" pipelines.

:jumping:

warum auch ned, das hat sich ja nix neues mehr das defekte pipes deaktiviert werden und als einwandfreier chip verkauft werden kann

eventuell hat man glück wenn man ne pro erwischt mit 4 intakten deaktivieren pipes (was ich gerade am anfang aber ned glaube) ;)

Demirug
2004-04-09, 13:24:57
Original geschrieben von betareverse
Beides, afaik.

Beim letzten bekannten Stand war es nur DirectX. So wie die Engine arbeitet kann ich mir eine OpenGL Lösung zwar vorstellen allerdings gibt es da eine Lücke bei den DX8.1 Karten von ATI.

Demirug
2004-04-09, 13:26:44
Original geschrieben von Ulukay
warum auch ned, das hat sich ja nix neues mehr das defekte pipes deaktiviert werden und als einwandfreier chip verkauft werden kann

eventuell hat man glück wenn man ne pro erwischt mit 4 intakten deaktivieren pipes (was ich gerade am anfang aber ned glaube) ;)

Wenn ich ATI wäre hätte ich bei einem solchen Design entsprechende Sperr-Dioden im Chip.

Mr. Lolman
2004-04-09, 13:34:35
Warum? Eine 12 Pipe Karte die man vielleicht mit 16 Laufen lassen kann,verkauft sich sicher viel besser, als eine wo diese Möglichkeit nicht gegeben ist.

Vielleicht haut ATI am Anfang auch so 200 Stück einwandfrei funzende 16 Pipe Kärtchen als 12 Pipe Version raus, um ein paar Moddingerfolgsmeldungen zu provozieren. Selbst wenn dann ATi 12 Pipe chip geringfügig langsamer wär als der NV40, wär die Modmöglichkeit ein Kaufgrund. Wieso sollte man sich das mit Sperrdioden verbauen?

Winter[Raven]
2004-04-09, 13:38:17
Selbst wenn dann ATi 12 Pipe chip geringfügig langsamer wär als der NV40 [/SIZE]

Du willst hier doch nicht etwa Spekulieren der 16piper ird schneller? .... *eg*

Gast
2004-04-09, 13:57:46
@Demirug, Sperrdioden einzubauen bringt ja nichts, weil man ja garnicht weiß ob die Pipes nun funktionsfähig sind, oder nicht.

Der wörst case wäre dann ja, daß man ein funzendes quad durch hardwaredioden deaktiviert und ein zweites quad nicht einwandfrei funzt.
So müßte man eine pro variante als se verhschleudern.

Oder meinst du dioden auf dem pcb (anstatt im die) ?
Denn auf dem PCB kann man ja einiges dran rumlöten, und dioden sind schneller überbrückt als ein widerstand ausgetauscht ^^

Demirug
2004-04-09, 14:10:15
Original geschrieben von Gast
@Demirug, Sperrdioden einzubauen bringt ja nichts, weil man ja garnicht weiß ob die Pipes nun funktionsfähig sind, oder nicht.

Der wörst case wäre dann ja, daß man ein funzendes quad durch hardwaredioden deaktiviert und ein zweites quad nicht einwandfrei funzt.
So müßte man eine pro variante als se verhschleudern.

Oder meinst du dioden auf dem pcb (anstatt im die) ?
Denn auf dem PCB kann man ja einiges dran rumlöten, und dioden sind schneller überbrückt als ein widerstand ausgetauscht ^^

Nach dem Test, der ja noch mit dem DIE auf dem Wafer gemacht wird, weiss man welche Pixelprozessoren funktionieren und welche nicht.

Zu dem Zeitpunkt ist es dann auch noch sehr einfach möglich vorhandene Sperrdioden zu aktivieren.

betasilie
2004-04-09, 14:11:19
Original geschrieben von Gast
@Demirug, Sperrdioden einzubauen bringt ja nichts, weil man ja garnicht weiß ob die Pipes nun funktionsfähig sind, oder nicht.

Der wörst case wäre dann ja, daß man ein funzendes quad durch hardwaredioden deaktiviert und ein zweites quad nicht einwandfrei funzt.
So müßte man eine pro variante als se verhschleudern.

Oder meinst du dioden auf dem pcb (anstatt im die) ?
Denn auf dem PCB kann man ja einiges dran rumlöten, und dioden sind schneller überbrückt als ein widerstand ausgetauscht ^^
Sehe ich auch so. Wenn auf dem die Sperrdioden zum Einsatzkommen, muss man sich vorher entscheiden und Sinn und Zweck ist ja nicht nicht Einheiten genrell abzuschalten, sondern nachträglich, um die Ausbeute zu erhöhen.

betasilie
2004-04-09, 14:12:28
Original geschrieben von Demirug
Zu dem Zeitpunkt ist es dann auch noch sehr einfach möglich vorhandene Sperrdioden zu aktivieren.
Ist das jetzt Theorie oder wird das in so einer Form schon irgendwo praktiziert?

Wie würde dann nachträglich diese Sperrdioden aktiviert werden?

... und btw: Ich sehe es so wie Lolman. Eine modbarer 12P-Karte wäre verkaufsfördernd.

mrdigital
2004-04-09, 14:17:42
die Chips werden noch vor dem Verpacken getestet, siehe Intel und der feste Multiplikator, die wissen zum Produktionszeitunkt auch noch nicht, mit welchem Multi die CPU laufen wird, das wird erst vor dem Verpacken festgelegt (man könnte es auch mit einem kleinen ROM im Chip lösen, das nur einmal beschrieben werden kann, bzw. nur wenn man direkten Zugang zum Die hat)

ShadowXX
2004-04-09, 14:26:07
Vielleicht wirds ja auch nur "runs like 16,12,8 Pipelines"....

Demirug
2004-04-09, 14:35:58
Original geschrieben von betareverse
Ist das jetzt Theorie oder wird das in so einer Form schon irgendwo praktiziert?

Wie würde dann nachträglich diese Sperrdioden aktiviert werden?

... und btw: Ich sehe es so wie Lolman. Eine modbarer 12P-Karte wäre verkaufsfördernd.

Bei Speicherchips macht man das schon lange so.

Zum aktivieren gibt es zwei Möglichkeiten. Entweder wird mit einem Lasser eine entsprechend dafür vorgesehen Stelle durchtrennt oder man nutzt ein kleines EPROM Feld dafür. Die Programmierkontakte müssen dafür nicht mal nach aussen geführt werden wenn man das mit den Test-probes gleich miterledigt. Nachdem der Chip dann mal auf dem Träger montiert ist gibt es keine Möglichkeit das wieder Rückgängig zu machen. OK mit entsprechedem Werkzeug schon aber das hat kein normalstreblicher.

Verkaufsfördernd sicherlich aber wie viel ärger ist damit dann auch verbunden? Wie viele 9500 gingen wieder zurück an die Händler weil der Mod nicht funktioniert hat?

Börk
2004-04-09, 14:44:03
Original geschrieben von betareverse
... und btw: Ich sehe es so wie Lolman. Eine modbarer 12P-Karte wäre verkaufsfördernd.
Naja, dann würden aber weniger "echte" 16 Pipe -Karten verkauft werden. Was ja auch nicht sehr sinnvoll ist. Ausser man hat definitiv zu wenige 16er Chips, dann kann man durch modbare Chips die High-End freaks befriedigen...

LovesuckZ
2004-04-09, 14:51:15
Original geschrieben von betareverse
... und btw: Ich sehe es so wie Lolman. Eine modbarer 12P-Karte wäre verkaufsfördernd.

So ein Quatsch.
Gehen wir von den selben Taktraten aus, so ist ein Chip, der in der Herstellung gleich teuer ist, aber für deutlich mehr verkauft werden kann, profitabler. Sollte ATi nochmal auf die Idee kommen den Freakz die Option hoffen zu halten ihre Karten zu modden, so schneiden sie sich ganz klar ins eigene Fleisch.
Den Preis der normalen Version kann man dann auch nicht mehr nach oben anpassen, was dazu führt, dass die Nachfrage für die XT Version deutlich nächlaesst und dies zur Preisreduzierung führt, wodurch wieder die unteren Karten unattraktiver werden usw.

betasilie
2004-04-09, 14:51:26
Original geschrieben von Demirug
Bei Speicherchips macht man das schon lange so.

Zum aktivieren gibt es zwei Möglichkeiten. Entweder wird mit einem Lasser eine entsprechend dafür vorgesehen Stelle durchtrennt oder man nutzt ein kleines EPROM Feld dafür. Die Programmierkontakte müssen dafür nicht mal nach aussen geführt werden wenn man das mit den Test-probes gleich miterledigt. Nachdem der Chip dann mal auf dem Träger montiert ist gibt es keine Möglichkeit das wieder Rückgängig zu machen. OK mit entsprechedem Werkzeug schon aber das hat kein normalstreblicher.

Verkaufsfördernd sicherlich aber wie viel ärger ist damit dann auch verbunden? Wie viele 9500 gingen wieder zurück an die Händler weil der Mod nicht funktioniert hat?
Danke für die Info zum Thema.

Nun, den Ärger haben die Händler und das Kratzt ATI glaube ich nicht so sehr. Die 9500er war ja auch nicht die letzte Karte dieser Art, bei der 9800SE war das doch auch so, afaik.

Original geschrieben von burk23
Naja, dann würden aber weniger "echte" 16 Pipe -Karten verkauft werden. Was ja auch nicht sehr sinnvoll ist. Ausser man hat definitiv zu wenige 16er Chips, dann kann man durch modbare Chips die High-End freaks befriedigen...
Da hast Du schon recht. Es dürften nicht wirklich viele modbare 12P-Chips im Umlauf sein. Das ganze sollte eher als mögliche Aufwertung vom ambitionierten Kunden gesehen werden, ohne zu große Wahrscheinlichkeit auf Erfolg. ... ATI hat da ja schon Erfahrung und daher denke ich mal, dass sie die Konsequenzen abschätzen können.

Gast
2004-04-09, 14:53:58
Wie kann es eigentlich sein,das die beiden Hersteller fast zur gleichen Zeit,ihre Karten vorstellen ?

Super Grobi
2004-04-09, 14:57:03
Schade das hier seitenlang nur über die pipels diskutiert wird :-( .

Hat den keiner infos über die Taktungen?

Gruss
SG

Black-Scorpion
2004-04-09, 15:00:46
Solange nichts offizelles von den Herstellern kommt gib es nur Spekulationen darüber.
Denn die Leute die es schon wissen dürfen es nicht sagen (NDA).

'edit' Rechtschreibung

ShadowXX
2004-04-09, 15:01:45
Original geschrieben von Super Grobi
Schade das hier seitenlang nur über die pipels diskutiert wird :-( .

Hat den keiner infos über die Taktungen?

Gruss
SG

Ich würde ihn zumindest nicht sooooo hoch ansetzen...

Quasar
2004-04-09, 15:15:45
Original geschrieben von Mr. Lolman
HL2? Ist das nicht DX?

Hm, schade. Wieder zu undeutlich formuliert. :(

Was ich mit dem Bezug zu HL2 meinte, war, daß man dort mehrere Texturen zu einer Großen verknüpft hat, IIRC.

Was ich damit wiederum meine, ist, daß man gar nicht so unendlich hoch aufgelöste Displays braucht, um Nutzen aus 4096er-Texturen ziehen zu können.

Was ich damit wiederum meine, ist, daß, auch wenn eine Firma sich entschieden hat, ein bestimmtes Feature in einer bestimmten Graka-Generation _nicht_ anzubieten, dieses Feature noch lange nicht nutzlos sein muss.

Was ich damit wiederum meine, ist, daß man nicht gleich großkotzig loströten sollte, PS3.0 brächten nichts, nur weil man selbst ad hoc nichts damit anzufangen weiß.

Gast
2004-04-09, 15:24:32
Wie kann es eigentlich sein,das die beiden Hersteller fast zur gleichen Zeit,ihre Karten vorstellen ?

betasilie
2004-04-09, 15:26:06
Original geschrieben von Gast
Wie kann es eigentlich sein,das die beiden Hersteller fast zur gleichen Zeit,ihre Karten vorstellen ?
Was verwundert dich daran?

Mrs. Lolman
2004-04-09, 17:39:11
Original geschrieben von Quasar
Hm, schade. Wieder zu undeutlich formuliert. :(

Was ich mit dem Bezug zu HL2 meinte, war, daß man dort mehrere Texturen zu einer Großen verknüpft hat, IIRC.

Was ich damit wiederum meine, ist, daß man gar nicht so unendlich hoch aufgelöste Displays braucht, um Nutzen aus 4096er-Texturen ziehen zu können.


Naja, es waren ziemlich viele Features relativ nutzlos, die NV (teils auch ATi) angeboten hat. Aber mit diesen Features trieben sie die GraKa Entwicklung voran, und gaben den Leuten immer das Gefühl etwas besonderes zu haben (Ö man geile G2 Techdemos - das kann deine V5 nicht. Dass dann in Spielen die V5 tw.besser ausgesehen hat - FSAA , eh schon wissen - ist jetzt eh schon wieder viel zu sehr OT), also doch nicht nutzlos.

Ich behaupte auch nicht das PS3.0 nutzlos ist. Es ist m.E. ca. so toll wie PS1.4 ggü PS1.1-1.3, um aber bei den Texturen zu bleiben, was für einen Sinn hat das aus mehreren Texturen eine Grosse zu basteln? Ausser das das Mapping für die LevelDesigner einfacher wird. Wenn das jetzt eine Bodentextur ist, liegt die gesamte Textur komplett im GraKaspeicher (inkl Mipmaps), sofern, man "nah" genug ist. Wenn das 4 kleine Texturen wären, müsste eben nur die 'nahe Textur' kopmplett im Speicher liegen, während von den anderen, weiter entfernten, Texturen nur Teile(Mipmaps) benötigt werden. Ist natürlich bei 512² noch ziemlich wurscht. Wenn man mit 1024² Texturen arbeitet, würde ich,statt einer 2048² lieber 4 1024²er Texturen nehmen, und die Schnittpunkte im Leveldesign einarbeiten. Für ein bisschen mehr CPU Power, liesse sich im Extremfall wohl 50% Texturspeicher einsparen (mal völlig ungeachtet dessen, dass wohl nicht nur die Böden, welche u.U sogar DXT komprimiert sind, texturiert sind), wobei Farcryähnliche Surfacemaps (Layereigenschaften, werden in eine Textur gespeichert) momentan das einzig sinnvolle Anwendungsgebiet für grosse Texturen sind, IMO..

Quasar
2004-04-09, 17:52:45
Original geschrieben von Mrs. Lolman
Ich behaupte auch nicht das PS3.0 nutzlos ist.
Dann haben wir ja dieselbe Meinung, toll! :up:

Original geschrieben von Mrs. Lolman
[...]um aber bei den Texturen zu bleiben,[...]
Die Texturen waren ein Beispiel. =)

Börk
2004-04-09, 18:34:51
Das die Radeon Karten nur 2048*2048 Texturen benutzen können ist ja auch der Grund, warum die größeren SSAA Modi nur bis maximal 1024*768 nutzbar sind. Von daher wäre 4096*4096 schon sinnvoll, wenn man zu Hybriden-Modi greifen wollte. Welche ja immer mal wieder von Fans alter Games herbeigesehnt werden.
Wäre ja auch für Games mit vielen Alphatexturen sinnvoll...

-error-
2004-04-09, 18:37:17
Währe nicht ein 512Bit Interface für 16Pipelines angebracht? Das währe doch dann der limitierende Faktor oder?

aths
2004-04-09, 18:53:54
Original geschrieben von seahawk
R420 hat in der X800 Version 12 aktive Pipes. Wobei man mit dem Begriff Pipes vorsichtig sein sollte. Wieso sollte man da mit dem Begriff "Pipeline" vorsichtig sein?

Original geschrieben von Powerd by ATI
Währe nicht ein 512Bit Interface für 16Pipelines angebracht? Das währe doch dann der limitierende Faktor oder? "Wäre" bitte ohne h schreiben. Danke.

aths
2004-04-09, 19:04:11
Original geschrieben von Gast
Ja und eine unkomprimierte 4096x4096 tga Textur (oder funzt DXT mit OGL ?)S3TC funzt :)

Sunrise
2004-04-09, 19:12:24
Zu der Möglichkeit, die "Karten" zu modden:

Auf den ersten Blick ist das schön und gut, war sehr beliebt und auch teilweise erfolgreich (Pipes).

Da wir die ganzen Fakten aber noch nicht mit Sicherheit wissen (offiziell bestätigt), können wir auch schlecht darauf schließen, ob es denn überhaupt Sinn macht (Speicherbandbreite).
[Spekulation]
DDR1 = SE - ersetzt wohl die R300/R350/R360 - Reihe
GDDR3 = Pro und XT

DDR1 - 8Pipe - (konservativ ) - 2.86ns - 350MHz - 22.4GB/s
GDDR3 - 12Pipe - (konservativ ) - 2.00ns - 500MHz - 32.0GB/s
GDDR3 - 16Pipe - (konservativ ) - 1.60ns - 600MHz - 38.0GB/s
GDDR3 - 16Pipe - (möglich.....) - 1.40ns - 700MHz - 44.8GB/s
GDDR3 - 16Pipe - (inyourdreams) - 1.20ns - 800MHz - 51.2GB/s
[Spekulation]

Was auch immer ATI für Speicher nimmt, wird es doch recht schwer werden, hier "vernünftig" zu modden. Denn keine Karte sollte auch nur ansatzweise (mit AA/AF) die Leistung einer echten Anderen erreichen.

LovesuckZ
2004-04-09, 19:20:53
Sunrise,
so was man liest, sind die 600MH Speicher nicht konservative sondern eher das zur Zeit maximalste vernünftig lieferbare.

Sunrise
2004-04-09, 19:23:57
Original geschrieben von LovesuckZ
Sunrise,
so was man liest, sind die 600MH Speicher nicht konservative sondern eher das zur Zeit maximalste vernünftig lieferbare. Es geht um die Karten in diesem Fall, und JA du hast Recht, deshalb steht bei 700MHz auch "möglich" <- aber ich halte alles über 600MHz schon für sehr unwahrscheinlich.

Gast
2004-04-09, 19:49:59
PS 3.0 hat den nicht zu unterschaetzenden Vorteil das es relativ leicht ohne Aufwand gegenueber PS 2.0/x umzusetzen ist was man von PS 1.1-1.3 gegenueber PS 1.4 nicht gerade behaupten kann. Am Anfang ist vielleicht noch ein wenig Handarbeit erforderlich aber das duerfte sich recht schnell legen. Vielleicht ist der NV40 noch nicht potent genug um PS 3.0 schon vernuenftig auszunutzen, das Update (NV 48?) schon eher.

Wenn DX-Next ein wenig spaeter kommt sehe ich auch nicht gerade gross als Nachteil an. Vielleicht koennen wir dadurch mal erleben das relativ viele bis fast alle optionalen Features von DX9 in Hardware umgesetzt und dementsprechend auch von Spieleherstellern ausgenutzt werden.

(del676)
2004-04-09, 20:03:17
wär ein treiberseitiger shader 2.0 -> shader 3.0 converter möglich?

Godmode
2004-04-09, 20:05:51
Original geschrieben von Ulukay
wär ein treiberseitiger shader 2.0 -> shader 3.0 converter möglich?

In Demirugs Artikel über Shader 3.0 steht schon sowas in der Art drinnen!

Demirug
2004-04-09, 20:06:13
Original geschrieben von Ulukay
wär ein treiberseitiger shader 2.0 -> shader 3.0 converter möglich?

Im Prinzip ja. Nur so funktioniert das nicht.

Ein Treiber übersetzt ja immer von API-Shadersprache in seinen eigenen Shadercode. Es macht also keinen Sinn erst von 2.0 auf 3.0 zu übersetzten und dann in den Hardwareshadercode.

Wenn der Treiber also 2.0 Shader übersetzt kann er dabei natürlich versuchen dinge zu finden die er mit der 3.0 fähigen Hardware im Hintergrund schneller ausführen könnte als mit einer reinen 2.0 Hardware.

aths
2004-04-09, 21:26:52
Original geschrieben von LovesuckZ
Sunrise,
so was man liest, sind die 600MH Speicher nicht konservative sondern eher das zur Zeit maximalste vernünftig lieferbare. Das maximale, nicht das maximalste :) ("Maximal" ist bereits maximal, und damit nicht mehr steigerbar.)

Und ja, an 800 MHz RAM in den jetzt kommenden Highend-Versionen glaube ich auch nicht. Die Stückzahlen sind einfach noch nicht da.

betasilie
2004-04-09, 22:59:50
Original geschrieben von aths
"Wäre" bitte ohne h schreiben. Danke.
Hey, überlass mir den Job für ein npaar Wochen und ich mach die Ehre. X-D

betasilie
2004-04-09, 23:02:31
Original geschrieben von LovesuckZ
Sunrise,
so was man liest, sind die 600MH Speicher nicht konservative sondern eher das zur Zeit maximalste vernünftig lieferbare.
Entscheide ich; entweder maximalste, vernünftige oder lieferbare groß schreiben. :kicher:

Und btw, es heist Mhz und das fällt einem Dau wie miir bei 2,5 promille uaf. ;)

Ailuros
2004-04-10, 03:00:49
Und btw, es heist Mhz und das fällt einem Dau wie miir bei 2,5 promille uaf.

tstststs wenn Du schon korrigieren musst, dann mach es auch richtig: MHz :P

LOCHFRASS
2004-04-10, 04:44:36
Original geschrieben von Sunrise
Was auch immer ATI für Speicher nimmt, wird es doch recht schwer werden, hier "vernünftig" zu modden. Denn keine Karte sollte auch nur ansatzweise (mit AA/AF) die Leistung einer echten Anderen erreichen.

Wenigstens würde es AF praktisch 4 free geben.

Dunkeltier
2004-04-10, 05:54:15
Original geschrieben von Sunrise
Wo ihr grade so schön dabei seid ;)

Zusätzlich! [fasten your seatbelts]

http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg

Sieht (wenn es denn stimmt) wirklich genial aus das Teil. :)

:love2: :love2: :love2:

Wenn das Teil auch nur halb soviel leistet wie wonach es aussieht, will ich es haben. BTW, laute Lüfter stören mich eh nicht mehr, habe ja jetzt 'ne WaKü. Und oh geil, 2x DVI's. Hoffentlich heizt die Karte im 2D-Modus nicht allzu stark, wäre sonst doch sehr schade.

MadManniMan
2004-04-10, 13:20:58
Hm, ohne jetzt wirklich eure Euphorie bremsen zu wollen:
Auch wenn der neue Radiallüfter einen wesentlich sinnigeren Eindruck hinterläßt, als es der Radau-Yen-Sun vom NV30U tat, aber irgendwie sind die Rotorblätter immernoch nicht allzu groß... :|

Gast
2004-04-10, 16:04:30
Wenn es tatsächlich 512bit!!!!!!!!!!!!1111111111 Boards geben sollte, dann wohl eher im Highest End(So wie der P4 EE*eg*) als totale Brute Force. Vielleicht als 512MB Version exclusiv für PCIe:
R423 Ultra Pro Extendet Nitro Edition:D: 16Pipes@600Mhz; 512MB GDDR3 Speicher @ 600Mhz@ 512bit Interface
Radeon X800 XT : 16Pipes @ 500Mhz; 256MB GDDR3 Speicher @ 800Mhz @ 256bit Interface
Radeon X800 Pro : 12Pipes @ 550Mhz; 256MB GDDR3 Speicher @ 700Mhz @ 256bit Interface
Radeon X800 SE : 8 Pipes @ 500Mhz; 256MB GDDR3 Speicher @ 500Mhz @ 256bit Interface

Godmode
2004-04-10, 16:08:36
Original geschrieben von Gast
Wenn es tatsächlich 512bit!!!!!!!!!!!!1111111111 Boards geben sollte, dann wohl eher im Highest End(So wie der P4 EE*eg*) als totale Brute Force. Vielleicht als 512MB Version exclusiv für PCIe:
R423 Ultra Pro Extendet Nitro Edition:D: 16Pipes@600Mhz; 512MB GDDR3 Speicher @ 600Mhz@ 512bit Interface
Radeon X800 XT : 16Pipes @ 500Mhz; 256MB GDDR3 Speicher @ 800Mhz @ 256bit Interface
Radeon X800 Pro : 12Pipes @ 550Mhz; 256MB GDDR3 Speicher @ 700Mhz @ 256bit Interface
Radeon X800 SE : 8 Pipes @ 500Mhz; 256MB GDDR3 Speicher @ 500Mhz @ 256bit Interface

ja klar und warum nicht gleich noch 16 Pipes dazu, dann haben wir 32 und ownen alles weg :lol:

-error-
2004-04-10, 16:46:31
Wozu bringt ATI eigendlich die X800 SE die sogar schneller als die 9800XT ist?

Dann stauen sich doch zu sehr die Preise im unteren Preisegment, kann ich irgendwie nicht ganz nachvollziehen.

aths
2004-04-10, 16:47:30
Original geschrieben von LOCHFRASS
Wenigstens würde es AF praktisch 4 free geben. Gutes AF kann es eigentlich nie "praktisch for free" geben, es sei denn, man arbeitet heftig CPU-limitiert. AF frisst Füllrate, und damit Füllrate "erzeugt" werden kann, braucht es auch kräftig Bandbreite.

LovesuckZ
2004-04-10, 16:50:30
Original geschrieben von Powerd by ATI
Wozu bringt ATI eigendlich die X800 SE die sogar schneller als die 9800XT ist?
Dann stauen sich doch zu sehr die Preise im unteren Preisegment, kann ich irgendwie nicht ganz nachvollziehen.

Zur Überbrückung bis der RV380 kommt. Man erhöht am Anfang die Ausbeute, da man die fehlerhaften nicht wegschmeißen brauch. Später ist dann die Ausbeute so hoch, dass die paar kaputten kein problem mehr darstellen.
Über wirtschaftlichen Sinn und Zweck dieser Methode lässt sich natuerlich herzlich diskutieren.

reunion
2004-04-10, 16:51:08
Original geschrieben von Powerd by ATI
Wozu bringt ATI eigendlich die X800 SE die sogar schneller als die 9800XT ist?

Dann stauen sich doch zu sehr die Preise im unteren Preisegment, kann ich irgendwie nicht ganz nachvollziehen.

Besser wenig Geld mit kaputten Chips verdienen als gar keines...

aths
2004-04-10, 16:56:26
Original geschrieben von seahawk
R420 hat in der X800 Version 12 aktive Pipes. Wobei man mit dem Begriff Pipes vorsichtig sein sollte.
Original geschrieben von aths
Wieso sollte man da mit dem Begriff "Pipeline" vorsichtig sein?Huh?

MadManniMan
2004-04-11, 02:08:06
Original geschrieben von Powerd by ATI
Wozu bringt ATI eigendlich die X800 SE die sogar schneller als die 9800XT ist?

Dann stauen sich doch zu sehr die Preise im unteren Preisegment, kann ich irgendwie nicht ganz nachvollziehen.

Rate mal, warum die Radeon 9800 Pro so billig geworden ist? ;)

9800ProZwerg
2004-04-11, 13:50:17
[B]Radeon X800 SE : 8 Pipes @ 500Mhz; 256MB GDDR3 Speicher @ 500Mhz @ 256bit Interface

Laut neuester Info wird die X800SE nur ein 128Bit Speicher Interface haben! Damit wird sie nicht schneller als die 9800XT!

Godmode
2004-04-11, 15:56:41
Original geschrieben von 9800ProZwerg
Laut neuester Info wird die X800SE nur ein 128Bit Speicher Interface haben! Damit wird sie nicht schneller als die 9800XT!

Quelle?

WEGA
2004-04-11, 16:53:51
http://www.ati-news.de/HTML/news.shtml

http://www.gzeasy.com/