PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 6800Ultra vs X800XT?


D3v!L
2005-04-26, 20:59:20
Hallo. Bin neu hier im Forum. Habe vor mir am Montag einige Computerteile zu kaufen. Allerdings hat der Computerladen in dem ich mir die Teile kaufen wollte leider die GeForcw 6800Ultra nicht mehr auf lager und wird sie auch nicht mehr so schnell bekommen. Allerdings haben sie noch die X800XT. Meine Frage: Ist die X800XT viel schlechter als die 6800Ultra oder sind die gleich schnell oder ist die ATI sogar noch schneller?
Bin eigendlich Hauptsächlich ein zocker und da will ich schon was gutes für mein Geld haben. Wenn es einen großen Unterschied gibt, werde ich lieber warten.

Vielen Dank schonmal im Vorraus

Coda
2005-04-26, 21:01:42
Ungefähr gleich schnell, die X800XT hat aber keine PixelShader 3.0
Dürfte im Moment aber noch nicht relevant sein...

dildo4u
2005-04-26, 21:02:37
Ungefähr gleich schnell, die X800XT hat aber keine PixelShader 3.0
Dürfte im Moment aber noch nicht relevant sein...
Bei SplinterCell3 ist es relevant für MAX Details.

Mantikor
2005-04-26, 21:02:43
Die Karten nehmen sich kaum was. Wenn du die Karte noch länger behalten willst, dann rate ich dir eine 6800GT zu holen (ist für 300 Euro einfach P/L-technisch besser) und wenn nicht, dann ruhigen Gewissens die X800XT zu kaufen.

Mfg der Mantikor

D3v!L
2005-04-26, 21:08:39
OK. thx. Das einzige was mir auch zudenke gegeben hat war das die XT keine PixelShader 3.0 hat. Aber dafür ist die XT wiederrum 50€ billiger. Werde mich dann dort noch einwenig beraten lassen. Wollte nur mal die Meinung anderer wissen. THX nochmal.

Kladderadatsch
2005-04-26, 21:56:48
wenn du die xt 50 euro billiger als die ultra bekommst, dürfte der fall wohl klar sein.
laut den benchmarks von cb ist die ultra mittlerweile irgendwie nurnoch in d3 schneller; sonst führt durchgehend die xt. (wenn auch nur knapp)

Master of Puppetz
2005-04-26, 22:47:21
Außerdem dürfte bei der XT noch eher Übertaktungspotential vorhanden sein als bei der Ultra.

D3v!L
2005-04-26, 22:55:34
OK. Dann werde ich mir die X800XT zulegen. Danke für die Hilfe.

Gast
2005-04-26, 22:59:45
Die XT ist auch bei den allermeisten Spielen schneller. Also greif zu! :)

SKYNET
2005-04-26, 23:54:36
Außerdem dürfte bei der XT noch eher Übertaktungspotential vorhanden sein als bei der Ultra.


falsch, genau umgedreht.

ShadowXX
2005-04-27, 09:35:41
wenn du die xt 50 euro billiger als die ultra bekommst, dürfte der fall wohl klar sein.
laut den benchmarks von cb ist die ultra mittlerweile irgendwie nurnoch in d3 schneller; sonst führt durchgehend die xt. (wenn auch nur knapp)

Komisch.....laut dem hier http://www.computerbase.de/artikel/hardware/grafikkarten/2005/club3d_radeon_x850_xt/15/ ist es genau andersherum. (auch von CB)

6800Ultra knapp vor x800xt....und die Messungen für nV wurden auch noch mit dem "relativ" langsamen 66.93 gemacht.
Mit einem 71.89 oder sogar 76.44 wäre der Abstand wohl sogar deutlicher.

Gast
2005-04-27, 09:49:37
falsch, genau umgedreht.

Beweise!!!! Das will ich sehen!

Gast
2005-04-27, 09:52:48
Komisch.....laut dem hier http://www.computerbase.de/artikel/hardware/grafikkarten/2005/club3d_radeon_x850_xt/15/ ist es genau andersherum. (auch von CB)

6800Ultra knapp vor x800xt....und die Messungen für nV wurden auch noch mit dem "relativ" langsamen 66.93 gemacht.
Mit einem 71.89 oder sogar 76.44 wäre der Abstand wohl sogar deutlicher.

Zwischen 92 und 94 FPS ist kein Unterschied! Mit dem 76.44 kommt 1FPS ontop, wenn du das als "sogar deutlicher" bezeichnest*ggg* LOL.

Mr. Lolman
2005-04-27, 09:57:50
Komisch.....laut dem hier http://www.computerbase.de/artikel/hardware/grafikkarten/2005/club3d_radeon_x850_xt/15/ ist es genau andersherum. (auch von CB)

6800Ultra knapp vor x800xt....und die Messungen für nV wurden auch noch mit dem "relativ" langsamen 66.93 gemacht.
Mit einem 71.89 oder sogar 76.44 wäre der Abstand wohl sogar deutlicher.

Dann nehmt nicht immer nur Computerbase her. (Komischerweise müssen die immer herhalten wenns darum geht, wie flott NV ist :|)

Es gibts noch:

www.hardocp.com
www.firingsquad.com
www.anandtech.com
www.techreport.com
www.driverheaven.net
www.tomshardware.de
www.xbitlabs.com
www.digit-life.com

onkel2003
2005-04-27, 10:04:47
schon wegen PixelShader 3.0
würde ich in moment keine ATI Karte kaufen.

SplinterCell3 ist der Anfang.

momentan hat ATI nur glück weil sie weit verbreitet sind.
daher machen die game hersteller noch da mit.
um ein zusparen wird es aber nicht lange dauern das PixelShader 3.0 standard wird.
Und ATI die koffer packen kann

Die ATI karten sind gut und schnell , von mir aus schneller wie vergleichbare NV karten.

aber ATI hat kein PixelShader 3.0 / und SLI.
daher sind sie momentan auf kein guten Stand.

Anstelle ATI Mio in HL2 steckt, und dies nur für werbung, sollten sie sich gedanken machen, um ihre hardware.

ShadowXX
2005-04-27, 10:10:26
Zwischen 92 und 94 FPS ist kein Unterschied! Mit dem 76.44 kommt 1FPS ontop, wenn du das als "sogar deutlicher" bezeichnest*ggg* LOL.

Ich hab mit dem 76.44 mehr als 1FPS im Durchschnitt mehr....so um die 5-6FPS triffts besser (im Benchmarkmix).

Es ging auch nicht darum zu sagen das die 6800Ultra 10xschneller ist, sondern das ganze bezog sich auf den Satz "laut den benchmarks von cb ist die ultra mittlerweile irgendwie nurnoch in d3 schneller; sonst führt durchgehend die xt".

Und das entsprach nicht den von Ihn angeführten Resultaten auf CB.

Um nix mehr und nix weniger ging es.

@Mr. Lolman
Es ist vollkommen normal, das sich die Tests im I-Net teilweise stark unterscheiden....wenn ich suche finde ich Tests, wo eine 68U eine x850xt-pe wegfegt und genauso Tests wo eine x800pro eine 68U in Grund und Boden rammt.

Die Wahrheit liegt meistens irgendwo dazwischen.....ich würde eine x800xt und eine 6800U von der Performance im normalen Durchschnitt auf eine Stufe stellen.

P4RH3li4
2005-04-27, 12:34:17
Vorteile der ATI:
=============
- Geringfügig! bessere AA Qualität.
- 6x AA schneller als nVidia 8x und trotz "geringerer" Zahl mindestens genauso gute oder bessere Kantenglättung (Betonung liegt auf "Kante").
- Schnelles AF (ist allerdings optimiert!)
- Meist (nicht immer!) schneller unter aktuellen DirectX Titeln

Nachteile:
========
- Keiner weiß wie "wichtig" Shader Modell 3 in Zukunft sein wird.
(Splinter Cell - CT ist allerdings ein schlechtes Beispiel da ein 2.0 Pfad fehlt und damit wären die Unterschiede mit Sicherheit geringer)
- nVidias 8x glättet Alpha-Texturen besser
- Die "Grünen" haben immer noch Vorteile unter OpenGL Titeln.

SLI sehe ich nicht als Nachteil für ATI. Erstens lohnt es sich nur für Highend und man braucht PCI-E dafür (viele haben noch AGP únd dann braucht man garnicht über SLI zu sprechen). Zweitens kommt ATI in den nächsten Monaten mit AMR/MVR und das soll ja höchstwahrscheinlich auch für R420 basierende Karten verfügbar sein.

D3v!L
2005-04-27, 12:54:22
Da bin ich ja dann jetzt mal ganz schön in der Zwickmühle ^^

Die einen sagen ATI ist besser und die andren sagen Nvidia ist besser. ich wollte ja von anfang an ne 6800U allerdings ist die Lieferzeit bei meinem Computer Laden zulange (3-4Wochen oder länger).

Grund: Da Nvidia zu teuer sei und keine die Karten kauft. Deshalbt hatten sie nur wenige davon. Komisch ist aber das wenn sie keiner kauft sie jetzt keine mehr haben ^^

Nacher kommt ein Nachbar vorbei und wir werden dann mal so von alle Computer geschäften in meine nähe die HPs abklappern und mal schaun was ich mir dann zulege.

Kladderadatsch
2005-04-27, 12:57:23
aber die tatsache, dass du die ati 100dm billiger bekommst, als die 6800ultra, erleichert die sache nach wie vor;)

MarcWessels
2005-04-27, 14:20:09
Nimm ne 6800GT und laß sie mit Ultra-Takt laufen - fertig.

Und wa sdie angeblich höhere Geschwindigkeit der X800XT angeht: Mit welchen Treibertricks denn bitte (AI an/aus/mittel?) Die meisten Revies verraten ja noch nichtmal, was genau sie in den Panels eingestellt haben.

Grund: Da Nvidia zu teuer sei und keine die Karten kauft. Deshalb hatten sie nur wenige davon. Komisch ist aber das wenn sie keiner kauft sie jetzt keine mehr haben ^^

*lol* Tolles Verkaufspersonal.

tombman
2005-04-27, 14:21:36
6800 gt/ultra.

Warum? Weil im Laufe von 2005 und ganz sicher auch 2006 immer mehr Titel rauskommen, die ps 3.0 verlangen um alle Details darstellen zu können, ob das technisch gebraucht wird oder nicht, es WIRD einfach so vorgeschrieben.

2004 hätte man noch x800 sagen können, aber 2005++ wäre man sehr blöd eine Karte ohne 3.0 zu kaufen.

eXodia
2005-04-27, 15:25:57
Gib die 50€ mehr für ne fette + schnelle 6800Ultra aus!!!!!!!!!
Nimm ne 6800Ultra: take it

A.Wesker
2005-04-27, 15:29:23
die 6800 ultra bekommt man schon für ca 340-350 eur, warum dann noch die langsamere x800xt nehmen?

P4RH3li4
2005-04-27, 15:52:21
Gib die 50€ mehr für ne fette + schnelle 6800Ultra aus!!!!!!!!!
Nimm ne 6800Ultra: take it
Ich mag vieleicht altmodisch sein, aber genau das "fette" schreckt mich an der 6800 Ultra ab. Eine X800XT ist halt Singleslot, billiger, leiser und nicht viel langsamer, aber wenn es verständlicherweise SM3 sein soll warum keine Geforce 6800GT? Die gibts doch auch schon recht günstig, ich finde das Preis-/Leistungsverhältnis sogar besser als bei der nur 50MHz schnelleren Ultra.

P4RH3li4
2005-04-27, 15:56:10
die 6800 ultra bekommt man schon für ca 340-350 eur, warum dann noch die langsamere x800xt nehmen?
Es gibt auch Situationen wo die X800XT schneller ist, aber du hast recht.

Edit: Upsi Doppelpost. :redface:

Gast
2005-04-27, 15:57:44
jetzt kauft mena keine high karten mehr,im juni werden die neuen vorgestellt und auch sehr bald verfügbar sein....die sind dann wieder doppelt so schnell wie ne x800 xt

also spar dir dein geld noch etwas und dann bekommst du ne viel besser karte

Gast
2005-04-27, 15:58:33
Es gibt auch Situationen wo die X800XT schneller ist, aber du hast recht.

Edit: Upsi Doppelpost. :redface:

ähm ja in 80% aller games sind ati karten schneller,d3d games

onkel2003
2005-04-27, 16:01:22
jetzt kauft mena keine high karten mehr,im juni werden die neuen vorgestellt und auch sehr bald verfügbar sein....die sind dann wieder doppelt so schnell wie ne x800 xt

also spar dir dein geld noch etwas und dann bekommst du ne viel besser karte
richtig, oder warten noch 12 monate dann kommen wieder neue karten.
an besten natürlich noch 18 monate warten den die karten werden top, oder besser 24 monate ;D die müssen ja granate werden.

das prob ist was ist heute. :cool: .

ich würde keine ultra kaufen sondern wenn die 6800GT, die reicht erst mal noch weit, und hat ein guten wiederverkaufswert.
bei der ultra haste nicht viel mehr leistung bei deutlichen verlust beim wiederverkauf.
es sei die karte wird mal wieder grade rar, dann kann man schnell auch gewinn machen.

eXodia
2005-04-27, 16:01:44
jetzt kauft mena keine high karten mehr,im juni werden die neuen vorgestellt und auch sehr bald verfügbar sein....die sind dann wieder doppelt so schnell wie ne x800 xt

also spar dir dein geld noch etwas und dann bekommst du ne viel besser karte

doppelt so schnell......????? Nie!!!!!!!
Kauf dir ne modernere und schnellere 6800U :biggrin:

P4RH3li4
2005-04-27, 16:09:42
jetzt kauft mena keine high karten mehr,im juni werden die neuen vorgestellt und auch sehr bald verfügbar sein....die sind dann wieder doppelt so schnell wie ne x800 xt
Die erste Hälfte ist richtig, grundsätzlich bekommt man wohl im Sommer die neuen Highend-Karten von ATI und nVidia zum gleichen Preis der jetzigen Highend Karten und die Preise für X800XT und Geforce 6800 Ultra fallen.
Wenn man so lange warten kann...
Das die "neuen" aber doppelt so schnell werden und sehr bald verfügbar sind halte ich aber für ein Gerücht. ;)

A.Wesker
2005-04-27, 16:10:24
ähm ja in 80% aller games sind ati karten schneller,d3d games
die x850 XE PE vllt, aber net die x800XT ;)

Chief o Hara
2005-04-27, 16:14:21
jetzt kauft mena keine high karten mehr,im juni werden die neuen vorgestellt und auch sehr bald verfügbar sein....die sind dann wieder doppelt so schnell wie ne x800 xt

also spar dir dein geld noch etwas und dann bekommst du ne viel besser karte

Doppelt so schnell und sehr bald verfügbar? Leihst du mir mal bitte deine Kristallkugel?

Würde die 6800Gt empfehlen. Wir reden hier immerhin von High End Karten, die im Normalfall eine ganze Weile ausreichen sollte. Da sollte man meiner Meinung nach doch eher auf etwas fortschrittlichere Modelle setzen. Die Perfomanceunterschiede sind ja nicht unbedingt gewaltig, also wohl nicht ganz so relevant wie in anderen Vergleichen. Wäre dazu nich interessant zu wissen, wie lange das gute Stück halten soll. Ist ein Unterschied ob ein HW Begeisterter der jedes Jahr aufrüstet eine solche Frage stellt, oder ein Schüler der sein Geburtstagsgeld zusammenkratzt um mal High End zu genießen.
An diesem Thread ist mir übrigens gerade positiv aufgefallen, dass bisher auf die üblichen Stammtischargumente pro/contra SM 3.0 verzichtet wurde und dass sogar in einem potentiellen Flamethread wie diesem hier.

Wishnu
2005-04-27, 16:15:28
schon wegen PixelShader 3.0
würde ich in moment keine ATI Karte kaufen.

SplinterCell3 ist der Anfang.

momentan hat ATI nur glück weil sie weit verbreitet sind.
daher machen die game hersteller noch da mit.
um ein zusparen wird es aber nicht lange dauern das PixelShader 3.0 standard wird.
Und ATI die koffer packen kann



Es wird noch eine ganze Weile dauern, bis SM3 bei den Spielern Standard wird. Und solange wird es keine wirklich wesentliche Rolle spielen, das ist das Gesetz des MArktes (außer vielleicht einem kleinen Eyecandie hier und da). :)

dargo
2005-04-27, 18:14:38
6800 gt/ultra.

Warum? Weil im Laufe von 2005 und ganz sicher auch 2006 immer mehr Titel rauskommen, die ps 3.0 verlangen um alle Details darstellen zu können, ob das technisch gebraucht wird oder nicht, es WIRD einfach so vorgeschrieben.

2004 hätte man noch x800 sagen können, aber 2005++ wäre man sehr blöd eine Karte ohne 3.0 zu kaufen.
Naja, so pauschal kann man das auch nicht sagen. Wenn ich mir eine Grafikkarte kaufe will ich jetzt Leistung haben und nicht erst in 2006.

Es hängt auch davon ab, wie lange man die Karte behalten will. Ich bin von einer G6800GT@Ultra auf die X800XL umgestiegen und bin mehr als zufrieden.

Bei der Geforce haben mich so einige Sachen gestört - stark flimmernde Texturen, schlechteres AA (vor allem bei Autorennen (Weitsicht) sehr deutlich zu sehen), schlechter Treibersupport, um mal ein paar Sachen zu nennen. Und ich würde mir heute wieder eine X800XL oder schneller kaufen, auch wenn ATI kein SM3.0 bietet. Wenns mich irgendwann stört dann wird halt die X800XL verkauft und ein R520 gekauft. So einfach ist das. Ist ja nicht so, daß man für die X800XL in zb. einem Jahr nichts mehr bekommt.

Außerdem wird man 2006 über eine G6800Ultra nur noch lachen können. Dann ist sie mit heutiger G6600GT oder R9800Pro vergleichbar.

doppelt so schnell......????? Nie!!!!!!!
Wieso das denn ???
Ich gehe sogar davon aus, daß das Spitzenmodel vom R520 mindestens 100% schneller ist wie die X850XT.

Daß dies in 1024x768 nicht der Fall ist sollte jedem klar sein. Aber bei 1600x1200 6xAA/16xAF dürfte es kein Problem sein.

wuddu
2005-04-27, 20:55:53
vielleicht kann dieses Fazit deine Entscheidung beeinflussen: http://www.computerbase.de/artikel/hardware/grafikkarten/2005/af-optimierungen_lupe/15/#abschnitt_fazit

Chief o Hara
2005-04-28, 14:18:27
Wieso das denn ???
Ich gehe sogar davon aus, daß das Spitzenmodel vom R520 mindestens 100% schneller ist wie die X850XT.

Daß dies in 1024x768 nicht der Fall ist sollte jedem klar sein. Aber bei 1600x1200 6xAA/16xAF dürfte es kein Problem sein.

Auch an dich die Frage:
Wie kommst du darauf? Glaubst du ATI fügt SM 3.0 und 4 zusätzliche Quads in einem Rutsch hinzu und führt gleich wenn sie schonmal dabei sind ein min 384bit breites Speicherinterface hinzu? Da wäre ich dann mal auf die Preisgestsltung gespannt ;) Will ja nicht ausschließen, dass es eine solche Leistungssteigerung geben wird, aber trotzdem finde ich deine Schätzungen ziemlich gewagt.

Wer solche Aussagen in den Raum stellt sollte sie meiner Meinung nach auch begründen immerhin hat hier jmd. vor ziemlich viel Geld zu investieren und möchte dementsprechend anständig beraten werden.

Honka
2005-04-28, 14:30:13
Es wird noch eine ganze Weile dauern, bis SM3 bei den Spielern Standard wird. Und solange wird es keine wirklich wesentliche Rolle spielen, das ist das Gesetz des MArktes (außer vielleicht einem kleinen Eyecandie hier und da). :)

Ich glaube nicht, dass es noch eine Weile dauern wird bis SM3 Standard wird bei Spielen !
Spiele wie Far Cry (Patch), Splinter Cell und S.T.A.L.K.E.R. (wohl auch) unterstützen jetzt schon SM3 !
Ich vermute mal, dass bei der Unreal Engine 3 hauptsächlich das SM3.0 zum Einsatz kommt, sieht also schlecht aus für alle ....... Besitzer.

Man wird sehen ! ;)

Mr. Lolman
2005-04-28, 14:31:20
Will ja nicht ausschließen, dass es eine solche Leistungssteigerung geben wird, aber trotzdem finde ich deine Schätzungen ziemlich gewagt.

Bis jetzt haben sies noch immer geschafft...

SKYNET
2005-04-28, 14:37:24
Vorteile der ATI:
=============
- Geringfügig! bessere AA Qualität.
- 6x AA schneller als nVidia 8x und trotz "geringerer" Zahl mindestens genauso gute oder bessere Kantenglättung (Betonung liegt auf "Kante").
- Schnelles AF (ist allerdings optimiert!)
- Meist (nicht immer!) schneller unter aktuellen DirectX Titeln

Nachteile:
========
- Keiner weiß wie "wichtig" Shader Modell 3 in Zukunft sein wird.
(Splinter Cell - CT ist allerdings ein schlechtes Beispiel da ein 2.0 Pfad fehlt und damit wären die Unterschiede mit Sicherheit geringer)
- nVidias 8x glättet Alpha-Texturen besser
- Die "Grünen" haben immer noch Vorteile unter OpenGL Titeln.

SLI sehe ich nicht als Nachteil für ATI. Erstens lohnt es sich nur für Highend und man braucht PCI-E dafür (viele haben noch AGP únd dann braucht man garnicht über SLI zu sprechen). Zweitens kommt ATI in den nächsten Monaten mit AMR/MVR und das soll ja höchstwahrscheinlich auch für R420 basierende Karten verfügbar sein.

1. stimmt
2. liegt wohl dadran das beim 8x nur 4xAA mit SS kombiniert wird, die gesammt BQ ist mit 8xSA bei NV besser.
3. stimmt, noch mehr als bei NV optimiert.
4. nur die AGP version, die PCIe version der 6800U hat 25MHz mehr coretakt.
5. sehr wichtig... in zukunft zumindest
6. siehe 2.
7. wäre auch schlimm, wenns nicht so wäre.
8. ja mal sehn was ATI da bringt.

Chief o Hara
2005-04-28, 14:45:37
Bis jetzt haben sies noch immer geschafft...

Ja genauso wie Nvidia zB: zwischen NV10&NV15, NV20&25, NV30&Nv35 oder ATI beim Übergang R300/R350 die Leistung verdoppeln konnten. Diesmal wurde die Leistung der Chips zwar teilweise mehr als verdoppelt, aber 1. ist das bestimmt nicht die Regel und 2. gehört dazu auch ein doppelt so schnelles Speicherinterface oder zumindest ein paar ausgeklügelte Tricks um das zu erreichen, sonst hat man nicht viel davon.

Mumins
2005-04-28, 14:46:06
Hol dir ne Gainward 6800GT GoeslikeHell. Die hat Ultra Taktraten garantiert und kostet 350€. Dann holste noch nen Silencer oder Zalman, der Doppellüfter ist glaub unerträglich.
http://www.geizhals.at/deutschland/a127964.html

Ne ULtra gibts von BFG für 399€.
http://www.geizhals.at/deutschland/a110213.html

dargo
2005-04-28, 16:04:21
Auch an dich die Frage:
Wie kommst du darauf? Glaubst du ATI fügt SM 3.0 und 4 zusätzliche Quads in einem Rutsch hinzu und führt gleich wenn sie schonmal dabei sind ein min 384bit breites Speicherinterface hinzu? Da wäre ich dann mal auf die Preisgestsltung gespannt ;)
Das Speicherinterface wird sicherlich bei 256Bit bleiben. Aber ich möchte dich noch daran erinnern, als der R300 rausgekommen ist. Damals hat auch Niemand mit einem 256 bittigem Speicherinterface gerechnet. Ja, sogar NVIDIA hat es für überflüssig gehalten und sich dann mit dem NV30 lächerlich gemacht.

Und ich habe mir eine R9700Pro damals fast direkt nach dem Erscheinen gekauft. Und sie hat 430€ damals gekostet, also durchaus bezahlbar. Heutige High-End Grakas liegen auch auf dem Preisniveau.

Außerdem handelt es sich bei dem R520 nicht um einen Refreshchip sondern um einen komplett neuen Chip. Deswegen halte ich eine Leistungsverdoppelung in hoher Auflösung und hoher AA/AF Stufe praktisch für garantiert.

Woher die Leistung kommen soll ? Nun, es gibt immer was an der Pro/Mhz Leistung zu verbessern.
Laut Gerüchten soll eine Pipe des R520 bis 50% mehr leisten als eine des R420. Sind natürlich alles Spekulationen, wir werden sehen.

Chief o Hara
2005-04-28, 17:37:55
Das Speicherinterface wird sicherlich bei 256Bit bleiben. Aber ich möchte dich noch daran erinnern, als der R300 rausgekommen ist. Damals hat auch Niemand mit einem 256 bittigem Speicherinterface gerechnet. Ja, sogar NVIDIA hat es für überflüssig gehalten und sich dann mit dem NV30 lächerlich gemacht.

Naja ein Beispiel gegen ein halbes Dutzend Beispiele meinerseits. Außerdem war der R300 ja noch nicht einmal der erste Consumer Chip mit einem 256bit Interface(Stichwort Parhelia)

Und ich habe mir eine R9700Pro damals fast direkt nach dem Erscheinen gekauft. Und sie hat 430€ damals gekostet, also durchaus bezahlbar. Heutige High-End Grakas liegen auch auf dem Preisniveau.

Ich erinnere mal an die Situation bei Einführung der X800XT PE.

Außerdem handelt es sich bei dem R520 nicht um einen Refreshchip sondern um einen komplett neuen Chip. Deswegen halte ich eine Leistungsverdoppelung in hoher Auflösung und hoher AA/AF Stufe praktisch für garantiert.

Ja schön es ist ein neues Design, aber das war ja auch schließlich nötig, da die R300/R420 Architektur ziemlich ausgereizt ist. Zumindest featuremäßig.

Woher die Leistung kommen soll ? Nun, es gibt immer was an der Pro/Mhz Leistung zu verbessern.
Laut Gerüchten soll eine Pipe des R520 bis 50% mehr leisten als eine des R420. Sind natürlich alles Spekulationen, wir werden sehen.

Ja und was genau wollen sie denn ändern um eine derart gewaltige Leistungssteigerung zu erzielen? Du bringst nichts konkretes und sprichst dann von einer garantierterten Verdopplung. Klingt irgendwa nach Inquirer. Wann wurde denn zuletzt eine derartige Effizienzsteigerung erreicht? Glaub doch nicht alles, was auf irgendwelchen Seiten kursiert. Wenn das so einfach wäre, würden sich die Hersteller da nicht so schwer tun.
Nimm bitte nicht so Worte wie "garantiert" in den Mund wenn nichts handfestes dahinter steckt. Mit solchen leeren Worten verunsichert sich du den Threadersteller im Endeffekt nur unnötig.

dargo
2005-04-28, 18:08:17
Außerdem war der R300 ja noch nicht einmal der erste Consumer Chip mit einem 256bit Interface(Stichwort Parhelia)

Und ? Was möchtest du mir damit sagen ?
Mir is es völlig egal wie das Speicherinterface ausgelegt ist. Wichtig ist was hinten rauskommt, und die Leistung des Parhelia war wohl nicht so berauschend.


Ich erinnere mal an die Situation bei Einführung der X800XT PE.

Für den viel zu hohen Preis des R420 war alleine die schlechte Verfügbarkeit/Ausbeute verantwortlich (genauso bei dem NV40).


Ja und was genau wollen sie denn ändern um eine derart gewaltige Leistungssteigerung zu erzielen? Du bringst nichts konkretes und sprichst dann von einer garantierterten Verdopplung. Klingt irgendwa nach Inquirer.

Ja, bin ich denn ein ATI-Mitarbeiter ???


Wann wurde denn zuletzt eine derartige Effizienzsteigerung erreicht? Glaub doch nicht alles, was auf irgendwelchen Seiten kursiert.
Ich glaube es nicht, es ist alles eigene Erfahrung. ;)
Beim Umstieg von der Geforce TI4200 auf R9700Pro - Leistungssteigerung bis 350% (hohe Auflösung und AA/AF).
R9800Pro --> G6800GT@Ultra = 100% und mehr Leistungssteigerung bei 1280x1024 4xAA/8xAF (natürlich je nach Spiel).
Genauso bei R9800Pro --> X800XL.
Bei 1600x1200 4xAA/16xAF sieht es noch extremer aus.

TB1333
2005-04-28, 18:44:11
jetzt kauft mena keine high karten mehr,im juni werden die neuen vorgestellt und auch sehr bald verfügbar sein....die sind dann wieder doppelt so schnell wie ne x800 xt


Das stimmt aber nur, wenn man nach nVidias (nicht mehr ganz aktueller) Aussage geht, alle 12Monate die Leistung ihrer VGA-Karten zu verdoppeln.

Chief o Hara
2005-04-29, 14:09:28
Und ? Was möchtest du mir damit sagen ?
Mir is es völlig egal wie das Speicherinterface ausgelegt ist. Wichtig ist was hinten rauskommt, und die Leistung des Parhelia war wohl nicht so berauschend.

Ich wollte damit ausdrücken, dass das 256Bit Interface des R300 keine derart weltbewegende Neuheit war. Das Tolle an der Sache war für ATI nur, dass NV sich da verkalkuliert hat und die Parhelia kein unterteiltes Speicherinterface hatte und somit relativ ineffizient arbeitete.


Für den viel zu hohen Preis des R420 war alleine die schlechte Verfügbarkeit/Ausbeute verantwortlich (genauso bei dem NV40).

Ja also. Wer garantiert dir denn jetzt , dass es diesmal anders ein wird? Arbeitest du etwa zufällig bei TSMC? Merkst du endlich worauf ich hinaus will?


Ja, bin ich denn ein ATI-Mitarbeiter ???

Wie ich oben geschrieben habe. Leere Worte und nichts dahinter. Wenn du nichts darüber weißt, warum schreibst du es dann und nennst dazu noch derart hohe Zahlen?


Ich glaube es nicht, es ist alles eigene Erfahrung. ;)
Beim Umstieg von der Geforce TI4200 auf R9700Pro - Leistungssteigerung bis 350% (hohe Auflösung und AA/AF).

Zeig mir dazu bitte mal unabhängige Benches. Wer weiß wie du gebenched hast. Außerdem vergleichst du hier ein Mittelklassemodell mit einer absoluten High End Karte. Außerdem gab es schon unzählige Threads in denen festgestellt wurde, dass man eine TI4200 ungefähr mit einer 9500Pro vergleichen kann(abgesehen natürlich vom Techlevel) Willst du jetzt etwa behaupten, dass eine 9700Pro 3,5x so schnell wie ne 9500Pro ist?

Dir ist schon klar, dass man das AF des R300 nicht mit dem AF des NV25 vergleichen kann oder?
Wenn du 4xAA+8 R3X0-AF gegen 4xS+8 NV2XAF vergleichst, ist es wohl klar, dass der R300 derartig schneller ist, aber diese Benchmarkbedingungen kann man wohl kaum fair nennen, da es hier zu erheblichen Unterschieden in der Bildqualität kommt.
Bench mal ohne den ganzen Krempel, verwende ne 4600 statt der 4200 und erzähl mir nochmal, dass die 9700Pro doppelt so schnell ist.
Informier dich erstmal über deine eigene HW bevor du hier sowas verzapfst.

R9800Pro --> G6800GT@Ultra = 100% und mehr Leistungssteigerung bei 1280x1024 4xAA/8xAF (natürlich je nach Spiel).
Genauso bei R9800Pro --> X800XL.
Bei 1600x1200 4xAA/16xAF sieht es noch extremer aus.

Habe doch schon mehrmals geschrieben, dass es bei dieser Generation eine enorme Leistungssteigerung gab, obwohl mehr als 100% wohl kaum möglich sind, da dazu wohl kaum genügend Bandbreite vorhanden ist(NV35-->NV40 kann man wohl als Sonderfall betrachten). Desweiteren ist der Übergang R3X0 auf R420, wohl kaum mit dem anstehenden Übergang zum R520 vergleichen.

Es steht dir natürlich frei meine Behauptung mit sauber dokumentierten Testergebnissen von seriösen Seiten zu widerlegen. Habe leider keine aktuelle Karte zur Hand um selbst irgendetwas nachzumessen.


Es wäre übrigens mal nett wenn du konkrete Fakten nennen würdest und nicht ständig irgendwelche Fantasiezahlen.
Du behauptest ständig Dinge und wenn ich dann nachhake, kannst du sie nie eindeutig begründen und machst auf mich irgendwie den Eindruck, als verbreitest du hier nur Halbwissen. Alleine schon die Art wie du ne ne TI4200 gegen ne 9700Pro benchst lässt bei mir Zweifel aufkommen ob du die fachliche Kompetenz besitzt um derartige Vorhersagen für die Zukunft zu treffen. Wenn sich schon unsere Gurus hier mit sowas zurückhalten, wie kommst du dann auf die Idee, dass du hier irgendwelche Garantien abgeben kannst?
Wie willst du auf diese Weise den Threadstarter sinnvoll beraten?

dargo
2005-04-29, 15:48:53
Ja also. Wer garantiert dir denn jetzt , dass es diesmal anders ein wird? Arbeitest du etwa zufällig bei TSMC? Merkst du endlich worauf ich hinaus will?

Wer garantiert dir, daß es nicht so sein wird ?
Daß es besser geht sieht man an der Verfügbarkeit des R430/R480. ;)

Aber ich frage mich ernsthaft was diese Frage überhaupt soll ?
Völlig am Thema vorbei. Hier ging es um die Leistung des R520 und nicht um seine Verfügbarkeit.


Dir ist schon klar, dass man das AF des R300 nicht mit dem AF des NV25 vergleichen kann oder?
Wenn du 4xAA+8 R3X0-AF gegen 4xS+8 NV2XAF vergleichst, ist es wohl klar, dass der R300 derartig schneller ist, aber diese Benchmarkbedingungen kann man wohl kaum fair nennen, da es hier zu erheblichen Unterschieden in der Bildqualität kommt.
Bench mal ohne den ganzen Krempel, verwende ne 4600 statt der 4200 und erzähl mir nochmal, dass die 9700Pro doppelt so schnell ist.
Informier dich erstmal über deine eigene HW bevor du hier sowas verzapfst.

1. Wie willst du dann sonst zwei unterschiedliche Grafikkarten vergleichen ?
Solange ich beim AF keinen nenneswerten Unterschied sehen kann ist es mir völlig egal ob der eine Optimierungen verwendet oder nicht. Wie gesagt, für mich zählt die Leistung die hinten rauskommt.

2. Wer lesen kann ...
Beim Umstieg von der Geforce TI4200 auf R9700Pro - Leistungssteigerung bis 350% (hohe Auflösung und AA/AF).



Habe doch schon mehrmals geschrieben, dass es bei dieser Generation eine enorme Leistungssteigerung gab, obwohl mehr als 100% wohl kaum möglich sind, da dazu wohl kaum genügend Bandbreite vorhanden ist(NV35-->NV40 kann man wohl als Sonderfall betrachten). Desweiteren ist der Übergang R3X0 auf R420, wohl kaum mit dem anstehenden Übergang zum R520 vergleichen.

Dann schau dir mal meine Diagramme an.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=165745
In Farcry zb. ist die G6800GT@Ultra ~110% schneller wie eine R9800Pro in 1280x1024 4xAA/8xAF. Also sollte eine G6800GT dann bei ca. 100% liegen.


Es steht dir natürlich frei meine Behauptung mit sauber dokumentierten Testergebnissen von seriösen Seiten zu widerlegen. Habe leider keine aktuelle Karte zur Hand um selbst irgendetwas nachzumessen.

Es wäre übrigens mal nett wenn du konkrete Fakten nennen würdest und nicht ständig irgendwelche Fantasiezahlen.
Du behauptest ständig Dinge und wenn ich dann nachhake, kannst du sie nie eindeutig begründen und machst auf mich irgendwie den Eindruck, als verbreitest du hier nur Halbwissen. Alleine schon die Art wie du ne ne TI4200 gegen ne 9700Pro benchst lässt bei mir Zweifel aufkommen ob du die fachliche Kompetenz besitzt um derartige Vorhersagen für die Zukunft zu treffen. Wenn sich schon unsere Gurus hier mit sowas zurückhalten, wie kommst du dann auf die Idee, dass du hier irgendwelche Garantien abgeben kannst?
Wie willst du auf diese Weise den Threadstarter sinnvoll beraten?
Genau das habe ich befürchtet. Besorge dir erstmal eine aktuelle High-End Grafikkarte. Dann können wir weiter darüber diskutieren.
Ich habe eher das Gefühl - du versucht hier krankhaft die neuen High-End Grakas nur schlecht zu machen was überhaupt nicht der Fall ist.

Chief o Hara
2005-04-29, 16:45:42
Wer garantiert dir, daß es nicht so sein wird ?
Daß es besser geht sieht man an der Verfügbarkeit des R430/R480. ;)

Aber ich frage mich ernsthaft was diese Frage überhaupt soll ?
Völlig am Thema vorbei. Hier ging es um die Leistung des R520 und nicht um seine Verfügbarkeit.

Es geht darum, dass du behauptest hast die neue Generation wäre bald verfügbar. Da der R480 nichts weiter ist, als ein unveränderter Refreshchip der nur dazu dient die Ausbeute zu erhöhen ist es jawohl nicht verwunderlich, dass dieser besser verfügbar ist :rolleyes:

1. Wie willst du dann sonst zwei unterschiedliche Grafikkarten vergleichen ?
Solange ich beim AF keinen nenneswerten Unterschied sehen kann ist es mir völlig egal ob der eine Optimierungen verwendet oder nicht. Wie gesagt, für mich zählt die Leistung die hinten rauskommt.

Dir schon, anderen vielleicht nicht, also sind die einzig wirklich unumstößlich aussagekräftigen Benches die ohne die ganzen Qualifeatures, aber du weißt ja sicher besser als alle anderen wie man bencht.

Das diese wenig sinnvoll sind, gebe ich gerne hinzu.
Fakt ist, dass es absolut nichts besonderes daran ist, wenn ein Chip auf Kosten von Bildqualität schneller wird. Du hast hier Äpfel und Birnen verglichen.

2. Wer lesen kann ...

Ach was denkst du denn woraus ich geschlossen haben, dass du die beiden Karten mit AF&AA gestestet hast? :rolleyes:

Dann schau dir mal meine Diagramme an.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=165745
In Farcry zb. ist die G6800GT@Ultra ~110% schneller wie eine R9800Pro in 1280x1024 4xAA/8xAF. Also sollte eine G6800GT dann bei ca. 100% liegen.

Die Diagramme werde ich mir morgen sicher mal genauer ansehen, wenn ich mehr Zeit habe, aber eigentlich wären mir wie gesagt Benches von seriösen Seiten, da du ja oben schon bewiesen hast, wieviel du von solchen Dingen verstehst.
Wenn du doch so eindeutig Recht hast, sollte es doch für dich kein Problem sein, aus der Flut von Vergleichen einen zu finden, der deine Behauptungen untermauert.


Genau das habe ich befürchtet. Besorge dir erstmal eine aktuelle High-End Grafikkarte. Dann können wir weiter darüber diskutieren.
Ich habe eher das Gefühl - du versucht hier krankhaft die neuen High-End Grakas nur schlecht zu machen was überhaupt nicht der Fall ist.

Meine Güte zeig mir ein Beitrag von mir, indem ich behaupte die neue Karten wären schlecht. Das die neue Generation recht gelungen ist und eine beeindruckende Leistungssteigerung vorweisen kann, will ich sicherlich nicht bestreiten. Fakt ist nur, dass du Behauptungen über den R520 aufgestellt hast ohne irgendwas über ihn zu wissen und bisher konntest du immernoch nichts gehaltvolles vorweisen, ausser ein paar Behauptungen und unfaire Benchmarkergebnisse. Sobald ich dann nachhake wirfst du mir entweder was vor, weichst aus oder zuckst mit den Schultern.

Du hast behauptet, der R520 wäre garantiert gut verfügbar, 2mal so schnell und gut und gerne 50% effizienter, aber du bist nicht in der Lage mir glaubwürdig zu erklären woher du das wissen willst. Keiner weiß genaues über ATIs nächsten Chip, also wie kannst du dabei das Wort "garantiert" in den Mund nehmen. Groß herumtönen und herumspekulieren kann jeder.

Ja sicher besitze ich keinen NV40/R420 um selbst du benchen, genausowenig wie du einen R520 Prototypen besitzt um mit Sicherheit zu wissen, dass dieser 2mal so schnell sein wird. DEr Unterschied ist, dass ich mir zur aktuellen Generation soviele Infos besorgen kann wie ich will und sie auch bei Bedarf bei Freunden in Aktion erleben darf, während du absolut keine Möglichkeit hast auch nur in die Nähe einer R520 Graka zu kommen.

dargo
2005-04-29, 17:31:14
Es geht darum, dass du behauptest hast die neue Generation wäre bald verfügbar.

Zeige mir bitte wo ich das behauptet haben soll.


Da der R480 nichts weiter ist, als ein unveränderter Refreshchip der nur dazu dient die Ausbeute zu erhöhen ist es jawohl nicht verwunderlich, dass dieser besser verfügbar ist :rolleyes:

Richtig, beim R480. Der R430 ist aber in 0,11 µm gefertigt. Auch wenn die X700 Serie in 0,11 µm schon gefertigt ist, ist der R430 auch eine kleine Herausforderung. Der Chip ist um einiges komplexer.
Und auf den R300 haben wir auch nicht so lange gewartet wie auf den R420.


Dir schon, anderen vielleicht nicht, also sind die einzig wirklich unumstößlich aussagekräftigen Benches die ohne die ganzen Qualifeatures, aber du weißt ja sicher besser als alle anderen wie man bencht.

Das diese wenig sinnvoll sind, gebe ich gerne hinzu.
Fakt ist, dass es absolut nichts besonderes daran ist, wenn ein Chip auf Kosten von Bildqualität schneller wird. Du hast hier Äpfel und Birnen verglichen.

Dann ist jeder Test im Netz zb. der R420 gegen den NV40 ein Vergleich zwischen Äpfel und Birnen. Denn beide unterscheiden sich in der AA/AF Qualität. Ich frage dich aber nochmal - wie soll man denn die neuen Grafikkarten vergleichen. Man hat nur die Möglichkeit die AA/AF Stufe bei beiden Herstellern gleich einzustellen. Wie die Optimierungen der beiden Hersteller dann standardmässig sind ist zwar nicht egal, aber man muss es so nehmen wie es ist. Es kann doch nicht sein, daß ich erstmal diverse Tools installieren muss um die einzelnen Optimierungen abzuschalten. Und wie gesagt, wenn ich keinen Qualitätsunterschied mit bloßen Auge erkennen kann dann ist das für mich in Ordnung.


Die Diagramme werde ich mir morgen sicher mal genauer ansehen, wenn ich mehr Zeit habe, aber eigentlich wären mir wie gesagt Benches von seriösen Seiten, da du ja oben schon bewiesen hast, wieviel du von solchen Dingen verstehst.
Wenn du doch so eindeutig Recht hast, sollte es doch für dich kein Problem sein, aus der Flut von Vergleichen einen zu finden, der deine Behauptungen untermauert.

Wenn du so einen auf schlau machst, wieso machst du nicht ein paar Benches. Achja stimmt, du hast ja keinen R420/NV40. :P ;)
Und ich werde jetzt mit Sicherheit nicht Benches für dich im Netz aussuchen. Das kannst du genauso gut. Außerdem weiss ich wovon ich rede und muss das keinem beweisen. Wenn du meinst, daß das alles Mist ist was ich hier sage dann beweise mir doch das Gegenteil. ;)



Du hast behauptet, der R520 wäre garantiert gut verfügbar, 2mal so schnell und gut und gerne 50% effizienter, aber du bist nicht in der Lage mir glaubwürdig zu erklären woher du das wissen willst. Keiner weiß genaues über ATIs nächsten Chip, also wie kannst du dabei das Wort "garantiert" in den Mund nehmen. Groß herumtönen und herumspekulieren kann jeder.

Auch hier möchte ich dich bitten mir zu zeigen wo ich das behauptet haben soll. Ich sags ja, wer lesen kann ...


Ja sicher besitze ich keinen NV40/R420 um selbst du benchen, genausowenig wie du einen R520 Prototypen besitzt um mit Sicherheit zu wissen, dass dieser 2mal so schnell sein wird. DEr Unterschied ist, dass ich mir zur aktuellen Generation soviele Infos besorgen kann wie ich will und sie auch bei Bedarf bei Freunden in Aktion erleben darf, während du absolut keine Möglichkeit hast auch nur in die Nähe einer R520 Graka zu kommen.
[Klugscheissermodus /an]
Ganauso wenig wie du. :P
[Klugscheissermodus /aus]

Chief o Hara
2005-04-30, 16:01:55
Zeige mir bitte wo ich das behauptet haben soll.

Sorry an dieser Stelle hab ich dich mit dem Gast verwechselt.

Richtig, beim R480. Der R430 ist aber in 0,11 µm gefertigt. Auch wenn die X700 Serie in 0,11 µm schon gefertigt ist, ist der R430 auch eine kleine Herausforderung. Der Chip ist um einiges komplexer.


Wo ist der R430 den komplexer? Der ist nichts weiter als ein simpler Die Shrink ohne low-k. Der eigentliche High End Chip ist der R480 und der wird weiterhin in 130nm gefertigt. Dazu gibt es auch einen schönen Artikel hier beim 3dc ;)


Dann ist jeder Test im Netz zb. der R420 gegen den NV40 ein Vergleich zwischen Äpfel und Birnen. Denn beide unterscheiden sich in der AA/AF Qualität. Ich frage dich aber nochmal - wie soll man denn die neuen Grafikkarten vergleichen. Man hat nur die Möglichkeit die AA/AF Stufe bei beiden Herstellern gleich einzustellen. Wie die Optimierungen der beiden Hersteller dann standardmässig sind ist zwar nicht egal, aber man muss es so nehmen wie es ist. Es kann doch nicht sein, daß ich erstmal diverse Tools installieren muss um die einzelnen Optimierungen abzuschalten. Und wie gesagt, wenn ich keinen Qualitätsunterschied mit bloßen Auge erkennen kann dann ist das für mich in Ordnung.

Ja sicher sind solche Vergleiche schwer, aber es ist doch ein Unterschied ob ich das AF von NV40 mit dem des R420 vergleiche oder ob ich es mit dem AF des NV2X vergleiche. Die ersten beiden verwenden starke Optimierungen, während letzterer "Bilderbuch" AF bietet. Ist das denn nun so schwer zu verstehen worauf ich hinaus will? Wenn du da keinen Unterschied siehst ist das ok. Ich würde ihn wohl auch kaum erkennen, aber das heißt noch lange nicht, dass es allen so geht.

Wenn du so einen auf schlau machst, wieso machst du nicht ein paar Benches. Achja stimmt, du hast ja keinen R420/NV40. :P ;)

Tut mir Leid, dass ich derzeit keinen Bedarf für eine High End Karte habe, aber du bist ja der coole Oberchecker mit deiner High End Karte. Wie kann ich es nur wagen jetzt noch zu argumentieren :rolleyes:
Wüsste nicht, was die Tatsache das ich keine High End Karte besitze an meinen Argumenten ändert, aber wenn einem nichts sinnvolles mehr einfällt wühlt man halt im Dreck.

Und ich werde jetzt mit Sicherheit nicht Benches für dich im Netz aussuchen. Das kannst du genauso gut. Außerdem weiss ich wovon ich rede und muss das keinem beweisen. Wenn du meinst, daß das alles Mist ist was ich hier sage dann beweise mir doch das Gegenteil. ;)

Ich habe keine Behauptungen aufgestellt, also warum soll ich da irgendetwas beweisen?

Auch hier möchte ich dich bitten mir zu zeigen wo ich das behauptet haben soll. Ich sags ja, wer lesen kann ...

Ersteres: siehe oben
zum Zweiten:

Woher die Leistung kommen soll ? Nun, es gibt immer was an der Pro/Mhz Leistung zu verbessern.
Laut Gerüchten soll eine Pipe des R520 bis 50% mehr leisten als eine des R420. Sind natürlich alles Spekulationen, wir werden sehen.



[Klugscheissermodus /an]
Ganauso wenig wie du. :P
[Klugscheissermodus /aus]

Ja und genau deshalb wage ich, im Gegensatz zu dir, keine Prognosen über den R520. Wenn du noch nicht einmal verstehst auf was ich hinaus will, dann solltest du dir den Klugscheissermodus sparen. Meine Intention war ja wohl mehr als eindeutig.

dargo
2005-04-30, 17:06:40
Wo ist der R430 den komplexer? Der ist nichts weiter als ein simpler Die Shrink ohne low-k. Der eigentliche High End Chip ist der R480 und der wird weiterhin in 130nm gefertigt. Dazu gibt es auch einen schönen Artikel hier beim 3dc ;)

Sorry, aber die X700 Serie hat ca. 120 Mio. Transistoren und 8Pipes. Die X800XL ca. 160Mio. Transistoren und 16Pipes. Wenn das beim kleineren Fertigunsprozess nicht mit Risiken verbunden ist dann weiß ich auch nicht mehr.
Dann erkläre mir mal bitte wieso ATI die X850XT nicht im 0,11 µm fertigt ?
Sie ist genauso aufgebaut wie die X800XL, nur mit höheren Taktraten.
Anscheinend ist es doch nicht so einfach in 0,11 µm eine GPU zu zaubern die problemlos mit 520Mhz aufwärts arbeitet. ;)



Ja sicher sind solche Vergleiche schwer, aber es ist doch ein Unterschied ob ich das AF von NV40 mit dem des R420 vergleiche oder ob ich es mit dem AF des NV2X vergleiche. Die ersten beiden verwenden starke Optimierungen, während letzterer "Bilderbuch" AF bietet. Ist das denn nun so schwer zu verstehen worauf ich hinaus will? Wenn du da keinen Unterschied siehst ist das ok. Ich würde ihn wohl auch kaum erkennen, aber das heißt noch lange nicht, dass es allen so geht.

Du beißt dich irgendwie die ganze Zeit beim Vergleich zwischen der TI4200 und R9700Pro fest.
Ich weiß, daß das AF der TI besser war. Aber ich kann nur das vergleichen was ich im CP einstellen kann. Wenn die Qualität des AF beim R300 schlechter war kann ich doch nichts für. Ich kann nur das vergleichen was ich einstellen kann. Und da waren bis 350% Unterschied, das kann man drehen wie man will. Ob der Vergleich fair ist ist ne andere Sache.


Tut mir Leid, dass ich derzeit keinen Bedarf für eine High End Karte habe, aber du bist ja der coole Oberchecker mit deiner High End Karte. Wie kann ich es nur wagen jetzt noch zu argumentieren :rolleyes:
Wüsste nicht, was die Tatsache das ich keine High End Karte besitze an meinen Argumenten ändert, aber wenn einem nichts sinnvolles mehr einfällt wühlt man halt im Dreck.

Was soll ich dir noch dazu sagen ? Du willst es einfach nicht wahr haben.
Teste doch einfach eine R9800Pro und eine X800XL/XT bei gleichem System zb. bei deinem bekannten in 1280x1024 4xAA/16xAF (neue Games) und dann sage mir nochmal, daß da kein Unterschied von ca. 100% vorhanden ist.

zum Zweiten:
Woher die Leistung kommen soll ? Nun, es gibt immer was an der Pro/Mhz Leistung zu verbessern.
Laut Gerüchten soll eine Pipe des R520 bis 50% mehr leisten als eine des R420. Sind natürlich alles Spekulationen, wir werden sehen.
Bitte genau lesen. :)

Chief o Hara
2005-04-30, 17:38:02
Sorry, aber die X700 Serie hat ca. 120 Mio. Transistoren und 8Pipes. Die X800XL ca. 160Mio. Transistoren und 16Pipes. Wenn das beim kleineren Fertigunsprozess nicht mit Risiken verbunden ist dann weiß ich auch nicht mehr.

Im ersten Teil hast du Recht, da ich dich offentsichtlich falsch verstanden habe. Dachte du wolltest behaupten der R430 wäre komplexer als der R420. So gesehen stimmt natürlich deine Aussage.

Dann erkläre mir mal bitte wieso ATI die X850XT nicht im 0,11 µm fertigt ?
Sie ist genauso aufgebaut wie die X800XL, nur mit höheren Taktraten.
Anscheinend ist es doch nicht so einfach in 0,11 µm eine GPU zu zaubern die problemlos mit 520Mhz aufwärts arbeitet. ;)


Das hängt damit zusammen, dass bei dem verwendeten 110nm Fertigungsprozess kein low-k zum Einsatz kommt. Deswegen sind die ist der R430 nicht so taktfreudig wie sein großer Bruder. Der Die Shrink dient allein der Kostensenkung und verbesser natürlich auch die Verfügbarkeit.
Ab 90nm soll ja wieder low-k zur Herstellung der nächsten Generation verwendet werden.

Du beißt dich irgendwie die ganze Zeit beim Vergleich zwischen der TI4200 und R9700Pro fest.
Ich weiß, daß das AF der TI besser war. Aber ich kann nur das vergleichen was ich im CP einstellen kann. Wenn die Qualität des AF beim R300 schlechter war kann ich doch nichts für. Ich kann nur das vergleichen was ich einstellen kann. Und da waren bis 350% Unterschied, das kann man drehen wie man will. Ob der Vergleich fair ist ist ne andere Sache.

Dann sind wir uns doch einig. Verstehe bloß nicht, dass du diese Benches nicht einfach weggelassen hast, sondern sie als Beweis für die Leistungssteigerung von einer zur nächsten Generation verwendet hast, was eben nicht korrekt ist, da hier eindeutig Bildquali geopfert wurde. Das dabei ein derart großer Unterschied entsteht glaube ich dir aufs Wort.

In diesem Fall wäre, wie gesagt, ein Vergleich ohne Qualifeatures wohl der einzig faire, auch wenn dieser natürlich bei der Einführung der 9700Pro unrealistisch gewesen währe. Da der R300 und der NV25 nun jedoch schon etwas älter sind, macht so ein Vergleich nun eher Sinn und da wirste wohl kaum auf eine Leistungssteigerung von 100% kommen.

Bitte genau lesen. :)

Und diese Spekulationen kannst du immernoch nicht begründen, also warum schreibst du so etwas in einem Kaufberatungsthread? Über das kann man ja sicher lang und breit diskutieren, aber eben nicht in diesem Forum.

dargo
2005-04-30, 17:50:55
Und diese Spekulationen kannst du immernoch nicht begründen, also warum schreibst du so etwas in einem Kaufberatungsthread? Über das kann man ja sicher lang und breit diskutieren, aber eben nicht in diesem Forum.
Meine Güte, sorry, daß ich etwas im Kaufberatungsforum spekuliert habe. :rolleyes:

Es ist immer noch ein Forum und kein Gesetzbuch. Im Endeffekt muss der Theadstarter selbst entscheiden was er kaufen möchte. Ich gebe nur Tipps.

Es ist ja nicht so, daß ich ihm eine Pistole an den Kopf halte und befehle dies und das zu kaufen. Wenn nicht bringe ich ihn um. :|

In diesem Sinne ... :)

Chief o Hara
2005-04-30, 18:44:41
Meine Güte, sorry, daß ich etwas im Kaufberatungsforum spekuliert habe. :rolleyes:

Es ist immer noch ein Forum und kein Gesetzbuch. Im Endeffekt muss der Theadstarter selbst entscheiden was er kaufen möchte. Ich gebe nur Tipps.

Es ist ja nicht so, daß ich ihm eine Pistole an den Kopf halte und befehle dies und das zu kaufen. Wenn nicht bringe ich ihn um. :|

In diesem Sinne ... :)


Nicht gleich persönlich nehmen. Halte es bloß für nicht besonders sinnvoll, da es eher verwirrend als hilfreich ist. Zumindest solange bis die NDAs fallen. Ob der Threadstarter solange warten will/soll... :rolleyes:
Wie sollen ihm Spekulationen ohne Grundlage bei seiner Kaufentscheidung helfen? Sicher wird die nächste Generation die Alte überflügeln, aber ob man darauf warten soll, kann zu diesem Zeitpunkt wohl keiner von uns beurteilen.

EOD?

dargo
2005-04-30, 18:57:08
Nicht gleich persönlich nehmen. Halte es bloß für nicht besonders sinnvoll, da es eher verwirrend als hilfreich ist. Zumindest solange bis die NDAs fallen. Ob der Threadstarter solange warten will/soll... :rolleyes:

Ich habe mich schon beruhigt. ;D :)
Übrigens, ich habe auch nirgendwo empfohlen auf den R520 zu warten. Denn ich erwarte verbreitete Verfügbarkeit nicht vor Ende 2005.

EOD?
:confused:

Chief o Hara
2005-04-30, 19:31:23
Ich habe mich schon beruhigt. ;D :)
Übrigens, ich habe auch nirgendwo empfohlen auf den R520 zu warten. Denn ich erwarte verbreitete Verfügbarkeit nicht vor Ende 2005.

:confused:

Ging eher um den Kontext dieser OT Diskussion und ja ich weiß, dass du diese Diskussion nicht begonnen hast.

EOD = End Of Discussion