PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Der Countdown läuft bei ATI!!!


chemistry
2005-09-23, 09:19:12
Also Leute...der Countdown hat begonnen. Auf der Website zählt eine Uhr die Zeit bis zur Vorstellung der neuen Karten runter.

http://www.ati.com/

ab heute noch 11 Tage ;D

lg Chemi

Oliver_G
2005-09-23, 09:23:20
Vor 20 Minuten hat der CD doch bei 12 Stunden angefangen :/

Lord Helmchen
2005-09-23, 10:37:39
Vor 20 Minuten hat der CD doch bei 12 Stunden angefangen :/

Ha ha ha !

Kompliment ! Du siehst aus wie Wolfgang Petri auf dem Foto, Das ist Wahnsinn, haha

Aber Cool,
der Countdown, noch 11 Tage, freue mich ganz besonders auch auf ATI's AVIVO, da ich viel mit Videobearbeitung am PC mache und mit dem bisherigen Bild nicht zufrieden war bei der Wiedergabe.

ATI ruules !

Super-S
2005-09-23, 10:44:20
;) Meine einzigste Karte die ich je von ATI hatte war eine 9800se , ansonsten nur Nvidia. Die nächste wird auf jedenfall ne ATI. Bin von Bildquali echt überzeigt.....

:) Ich freu mich auf den R520, Unreal Engine 3 ....ich komme !!!!! ;D



ps. hab mir schon nen Kredit bei der Citybank reserviert für die Karte (Spass)

Poweraderrainer
2005-09-23, 10:55:56
Ha ha ha !

Kompliment ! Du siehst aus wie Wolfgang Petri auf dem Foto, Das ist Wahnsinn, haha


lol - schonma waynes world gesehen? :biggrin:

ich hoffe es dauert nicht mehr allzu lang..aber auf irgendwelche termine etc kann man eh nichts geben. launch und markteintritt sagen ja fast eh nie etwas über die reale verfügbarkeit aus.

Radeonator
2005-09-23, 11:05:39
Ist euch die komische Formal da gar nicht aufgefallen?

Was soll das d/t=v ist das : Tag geteilt durch zeit = ?

deekey777
2005-09-23, 11:08:11
Ist euch die komische Formal da gar nicht aufgefallen?

Was soll das d/t=v ist das : Tag geteilt durch zeit = ?

Distance / Time = Velocity.


Egal...

Zwei Sachen:
Das Schreiben in Großbuchstaben ist nach Gewohnheitsrecht dem Schreien gleichzusetzen.
Der Thread ist unnötig, denn es gibt schon einen Thread zum R520, wo schon gestern auf den Countdown hingewiesen wurde.

Coda
2005-09-23, 11:15:56
Ich freu mich auf den R520, Unreal Engine 3 ....ich komme !!!!! ;DWas das angeht würde ich vor allem Shader-Performance-Benchmarks abwarten. Du könntest überrascht werden.

MiHinz
2005-09-23, 11:17:26
Ich freu mich auch schon auf die Karte, wenn sie nicht übertrieben teuer ist, werd ich wohl dann auch wechseln zu PCI Express und A64!!!

SKYNET
2005-09-23, 12:25:51
Was das angeht würde ich vor allem Shader-Performance-Benchmarks abwarten. Du könntest überrascht werden.


ja, auf die bin ich auch gespannt, ich denke das es das gleiche spiel wird wie bei 6800U vs. X850XTPE, die ultra macht die XTPE ja in shaderlastigen games ganz locker platt!

genauso wirds wohl mit der G70 vs. R520 laufen. =)

Anarchy-HWLUXX
2005-09-23, 12:35:28
:) Ich freu mich auf den R520, Unreal Engine 3 ....ich komme !!!!! ;D



Ömmm ... dir is aba klar das bis zur UE3 scho der nachfolger von G70 und R520 innen Regalen stehen ?

Oblivion
2005-09-23, 12:45:00
ja, auf die bin ich auch gespannt, ich denke das es das gleiche spiel wird wie bei 6800U vs. X850XTPE, die ultra macht die XTPE ja in shaderlastigen games ganz locker platt!

Und mit welcher Sicherheit? :|

Mr. Lolman
2005-09-23, 12:48:11
ja, auf die bin ich auch gespannt, ich denke das es das gleiche spiel wird wie bei 6800U vs. X850XTPE, die ultra macht die XTPE ja in shaderlastigen games ganz locker platt!


:lol: Wo zB?

Lord Helmchen
2005-09-23, 13:22:10
ja, auf die bin ich auch gespannt, ich denke das es das gleiche spiel wird wie bei 6800U vs. X850XTPE, die ultra macht die XTPE ja in shaderlastigen games ganz locker platt!

genauso wirds wohl mit der G70 vs. R520 laufen. =)

Nachts ist es kälter als draussen, aber nur wenn die Sonne scheint und es um halb 4 Uhr regnet.
Die 6800U ist einer X850XT Pe in allem Benchmarks und so gut wie in allen Spielen, untelegen
Amen

deekey777
2005-09-23, 13:32:03
Are you fat or what?
Was das angeht würde ich vor allem Shader-Performance-Benchmarks abwarten. Du könntest überrascht werden.

Steht hier irgendwas von (aktuellen) Spielen? So langsam sollte doch ein Lichtlein im Dunkeln aufgehen, daß die 7800er mehr Shaderpower haben könnte.

Ha ha ha !

Kompliment! Du siehst aus wie Wolfgang Petri auf dem Foto. Das ist Wahnsinn, haha.

...

Ein Dau...
Und das von jemandem, der Lord Helmchen als Avatar hat und auch so heißt... ;(

MartinRiggs
2005-09-23, 13:37:59
ja, auf die bin ich auch gespannt, ich denke das es das gleiche spiel wird wie bei 6800U vs. X850XTPE, die ultra macht die XTPE ja in shaderlastigen games ganz locker platt!

genauso wirds wohl mit der G70 vs. R520 laufen. =)

Wenn man von dir die Signatur sieht dann weiß man schon das man dein Gerede ignorieren sollte!!!!
:hammer: :hammer:

Aber ich freue mich für alle 7800 User, NV will doch zum Start der X1800 nen Wundertreiber rausbringen der viel Performance bringt, frohes Flimmern :biggrin:

BvB123
2005-09-23, 13:41:10
Wenn man von dir die Signatur sieht dann weiß man schon das man dein Gerede ignorieren sollte!!!!
:hammer: :hammer:

Aber ich freue mich für alle 7800 User, NV will doch zum Start der X1800 nen Wundertreiber rausbringen der viel Performance bringt, frohes Flimmern :biggrin:
Wo haste denn den Quark her?


Außerdem ist das Flimmern schon beseitigt worden...

MartinRiggs
2005-09-23, 13:46:18
Das es beseitigt wurde weiß ich vielleicht kommt es aber wieder?
Oder es gibt nen neuen Quality-Bug :biggrin:
Quelle
Guckst du (http://www.ati-news.de/HTML/news.shtml)
Ob es stimmt weiß ich natürlich nicht, ist aber nicht allzuweit hergeholt.

Raff
2005-09-23, 13:46:37
5. Oktober also ...
Naja, Nvidia muss IMHO keine Angst haben. Mit dem Taktpotenzial des G70 und den 80er-Treibern hat man gleich 2 Asse in der Hand, um zu kontern. Hoffentlich macht Ati es den Grünen nicht zu einfach ...

MfG,
Raff

Die gelbe Eule
2005-09-23, 13:48:19
95% der Marktschreier hier werden sich eh nicht eine Karte vom Schlage X1800XT leisten können, aber hauptsache gut gebrüllt.

Trollen, Fanboygelame, nennt es wie ihr wollt ...

Lord Helmchen
2005-09-23, 13:57:49
ich kaufe mir ne x1800XT vielleicht sogar die "PE" sollte die kommen,
GARANTIERT !

up¦²
2005-09-23, 13:58:21
*Partytime*
ATI to throw wild R520 briefing in Ibiza (http://www.theinquirer.net/?article=26409)

BTW, Jetzt versteh ich Sander S. :tongue:

Franzmann-Jan
2005-09-23, 14:12:05
Ist die Veranstaltung auf Ibiza nicht schon heute?

Lüncht mich wenn ich Falsch liege :rolleyes:

Super-S
2005-09-23, 14:15:17
Was das angeht würde ich vor allem Shader-Performance-Benchmarks abwarten. Du könntest überrascht werden.^

Darüber mache ich mir keine Sorgen.... Ein 6800U Sli System konnte die Engine bei der Präsentation ja Ganz flüssig darstellen.

;) Da ich sonst nur NV-Karten hatte bis auf eine Ausnahme, "glaube" ich schon das der 520 gut performen wird.

ps. Ich bin auch der Meinung das die X850XT der 6800U in allen Belangen überlegen ist. Ich Meine nicht das Featureset !!!

Benches allermöglichen Sites sagen dies auch aus.

Die gelbe Eule
2005-09-23, 14:20:07
*Partytime*
ATI to throw wild R520 briefing in Ibiza (http://www.theinquirer.net/?article=26409)

BTW, Jetzt versteh ich Sander S. :tongue:

Koks, Nutten und Champagner?

Bald bekommen Refreshchips noch ihren eigenen Stern auf dem Walk of Fame ...

Mr. Lolman
2005-09-23, 14:21:43
Wo haste denn den Quark her?


Außerdem ist das Flimmern schon beseitigt worden...


Bei einem einzigen Treiber...

Die gelbe Eule
2005-09-23, 14:28:12
Bei einem einzigen Treiber...

Der aber auch in der Performance in keinster Weise den anderen nachsteht ...

bardh
2005-09-23, 14:30:29
ich kaufe mir ne x1800XT vielleicht sogar die "PE" sollte die kommen,
GARANTIERT !


lol....wayne?

Naja das mit Ibiza finde ich etwas blöde, was hat eine Vorstellung einer Grafikkarte in Ibiza zu suchen, eher irgendwo in Osteuropa oder gleich in Amerika.

Radeonfreak
2005-09-23, 14:30:47
Was mich mal interressiert.

Die sicher fantastisch aussehenden Demos für die Karten müssten doch auch auf meiner 7800 GTX laufen, oder ?

Coda
2005-09-23, 14:32:06
Darüber mache ich mir keine Sorgen.... Ein 6800U Sli System konnte die Engine bei der Präsentation ja Ganz flüssig darstellen.Ich meinte eher in die andere Richtung *hust*

Man darf nicht vergessen, dass G70 und R520 ungefähr die gleiche Füllrate haben. ATi hat den Taktvorteil des R4xx vs. NV4x beim R520 nicht mehr.

Die sicher fantastisch aussehenden Demos für die Karten müssten doch auch auf meiner 7800 GTX laufen, oder ?Eigentlich schon, nur hat ATi schon ein paar mal mit irgendwelchen komischen Texturformaten da einen Riegel vorgeschoben.

Gandharva
2005-09-23, 14:42:43
Der aber auch in der Performance in keinster Weise den anderen nachsteht ...

und dessen flimmerfix zu 100% in jedem kommenden final-treiber enthalten sein wird.

ich will endlich ein review der neuen karten sehen :\

Super-S
2005-09-23, 14:56:34
Ich meinte eher in die andere Richtung *hust*

Welche Richtung meintest du denn ? ...Ich kenne mich mit Füllraten und so nicht aus. :) Vielleicht kannst du es mir Verständlich und kurz erklären.

Meinst du das der R520 nicht gerade gut Performen wird was die UE3 angeht?

mindfaq
2005-09-23, 15:26:18
Wenn es um Shaderperformance geht, könnte es für den R520 alles andere als rosig aussehen...
Das ist für die meisten heutigen Spiele noch nicht so wichtig, in Zukunft wird es wohl anders aussehen.

Adam D.
2005-09-23, 15:27:20
Oh, am 5. hab ich Geburtstag. Ich als Nvidia-Jünger wünsche mir jetzt natürlich ein Geburtstagsgeschenk von Nvidia, bezogen auf die Performance des R520 ;D (Spaß xD)

SKYNET
2005-09-23, 15:56:47
:lol: Wo zB?


da:
http://www.3dcenter.de/artikel/geforce_7800_gt/bench2.php

auch hier:
http://www.3dcenter.de/artikel/geforce_7800_gt/bench4.php

und dort ebenso:
http://www.3dcenter.de/artikel/geforce_7800_gt/bench8.php

die einzigen games die halt richtig shader nutzen, und genau da sacken die ATI karten immer zusammen... :lol:

aths
2005-09-23, 16:00:13
Das Schreiben in Großbuchstaben ist nach Gewohnheitsrecht dem Schreien gleichzusetzen. Genau. Wäre das mein Forum, wäre der Thread gleich geschlossen worden (aus Prinzip.) Hab den Titel mal korrigiert. Was in VERSALIEN zu schreiben, sieht so brüllig aus. Eigentlich müsste es auch ATHS heißen, aber aths ist einfach augenfreundlicher.

curson
2005-09-23, 16:02:58
Koks, Nutten und Champagner?

Bald bekommen Refreshchips noch ihren eigenen Stern auf dem Walk of Fame ...


Warum soll der r520 ein refresh chip sein? Soweit ich weiß ist's ne komplett neue Entwicklung. Die Dataildaten die bisher durchgesickert sind sprechen doch auch eine andere Sprache. :confused:

Warum soll ATI keine Marketingparty geben? :rolleyes:
Finde da Verarschen á la die power der 3 bei weitem sinnloser.
Sind doch auch nur Menschen, gönn denen doch ihren Spass!
Bin jedenfalls gespannt auf die "Partieberichterstattung".

dargo
2005-09-23, 16:05:55
Wenn es um Shaderperformance geht, könnte es für den R520 alles andere als rosig aussehen...
Das ist für die meisten heutigen Spiele noch nicht so wichtig, in Zukunft wird es wohl anders aussehen.
In Zukunft gibts auch schnellere Grafikkarten. ;)
Man kauft sich eine Grafikkarte für heutige Games und nicht für welche die in 1-2 Jahren erscheinen.

Das ist genauso so ein Unfug wie es damals mit dem NV40 war. Auch da hieß es - Jeder muss die haben wegen SM3.0 .
Bis heute sehe ich kaum Games dafür. Und der Nachfolger (G70) ist schon länger da.

Oder wie weit meinst du es mit der Zukunft ?

Mr. Lolman
2005-09-23, 16:05:59
die einzigen games die halt richtig shader nutzen, und genau da sacken die ATI karten immer zusammen... :lol:

Gaynow und Farcry, BF2, Hl² nutzen keine Shader. :lol:

SKYNET
2005-09-23, 16:07:09
Gaynow und Farcry, BF2, Hl² nutzen keine Shader. :lol:


nicht so massiv wie die 3 genannten. :tongue:

Mr. Lolman
2005-09-23, 16:16:12
nicht so massiv wie die 3 genannten. :tongue:

Sicher? Ich glaub nicht, dass bei D³ und Riddick die Shader so reinhauen. Das dürften eher die Shadowvolumes sein. Fear hab ich mir noch nicht angekuckt...

Außerdem kommts aber auch sehr aufs Testsys und die Settings an. Ich kann dir Benchmarks raussuchen, wo ATi bei D³ leicht schneller ist (mit AA) bei Fear ca. gleich schnell und bei Riddick auch kaum langsamer.

Und im Shadermark 2.1 ist eine 6800 Ultra im Durchschnitt auch langsamer als eine x850xt pe.

SKYNET
2005-09-23, 16:19:00
Sicher? Ich glaub nicht, dass bei D³ und Riddick die Shader so reinhauen. Das dürften eher die Shadowvolumes sein. Fear hab ich mir noch nicht angekuckt...

Außerdem kommts aber auch sehr aufs Testsys und die Settings an. Ich kann dir Benchmarks raussuchen, wo ATi bei D³ leicht schneller ist (mit AA) bei Fear ca. gleich schnell und bei Riddick auch kaum langsamer.

Und im Shadermark 2.1 ist eine 6800 Ultra im Durchschnitt auch langsamer als eine x850xt pe.

mhhh... :|


DEMIRUG! *schrei* wir brauchen hier mal deine meinung b.z.w. wissen! :redface:

PingpiN
2005-09-23, 16:19:59
da:
http://www.3dcenter.de/artikel/geforce_7800_gt/bench2.php

auch hier:
http://www.3dcenter.de/artikel/geforce_7800_gt/bench4.php

und dort ebenso:
http://www.3dcenter.de/artikel/geforce_7800_gt/bench8.php

die einzigen games die halt richtig shader nutzen, und genau da sacken die ATI karten immer zusammen... :lol:
Denk doch erstmall nach bobby das sind Opengl Benchmarks ,da ist ATi bekantlich ein Stück langsamer. :rolleyes:Sowas ist unnötiges rumprollen wieso kriegt mann bei sowas keine verwarnung. :P
Ich kann dir auch was raussuchen. =)
http://www.3dcenter.de/artikel/geforce_7800_gt/bench5.php

Coda
2005-09-23, 16:20:05
Sicher? Ich glaub nicht, dass bei D³ und Riddick die Shader so reinhauen. Das dürften eher die Shadowvolumes sein. Fear hab ich mir noch nicht angekuckt...D3 ist ganz sicher nicht Shaderlimitiert. Bei Riddick weiß ich es nicht. Der Standard-Pixelshader davon hat grad mal 22 Befehle, wovon sehr 7 Texture-Fetches sind.

Ich denke also mal das die Rechenbefehle alle parallel zu den Texture-Fetches laufen und somit nur diese limtieren.

Oblivion
2005-09-23, 16:32:19
*Partytime*
ATI to throw wild R520 briefing in Ibiza (http://www.theinquirer.net/?article=26409)

BTW, Jetzt versteh ich Sander S. :tongue:

FUAD GOES TO IBIZA ;D
-------
allzuviel darf man sich anscheinend net davon erwarten ...

up¦²
2005-09-23, 17:00:38
Freu mich drauf :whisper:

The_Invisible
2005-09-23, 20:09:07
Sicher? Ich glaub nicht, dass bei D³ und Riddick die Shader so reinhauen. Das dürften eher die Shadowvolumes sein. Fear hab ich mir noch nicht angekuckt...

Außerdem kommts aber auch sehr aufs Testsys und die Settings an. Ich kann dir Benchmarks raussuchen, wo ATi bei D³ leicht schneller ist (mit AA) bei Fear ca. gleich schnell und bei Riddick auch kaum langsamer.

Und im Shadermark 2.1 ist eine 6800 Ultra im Durchschnitt auch langsamer als eine x850xt pe.

angesichts der taktratenunterschiede steht ein NV4x Chip aber wesentlich besser da. das der R4xx chip nicht der beste wurf von ATI war wird wohl keiner bestreiten wollen, aber es hat anscheinend gereicht (bis zum jetzigen R520)

mfg

Mr. Lolman
2005-09-23, 20:13:15
angesichts der taktratenunterschiede steht ein NV4x Chip aber wesentlich besser da. das der R4xx chip nicht der beste wurf von ATI war wird wohl keiner bestreiten wollen, aber es hat anscheinend gereicht (bis zum jetzigen R520)

mfg

Der NV4x frißt bei gleichem Takt auch viel mehr Strom als der R4xx. Also ist das imo kein Argument...

tokugawa
2005-09-23, 21:15:47
ps. Ich bin auch der Meinung das die X850XT der 6800U in allen Belangen überlegen ist. Ich Meine nicht das Featureset !!!


"Alle Belange" <-> "Ich meine nicht das Featureset"

Wenn du nicht das Featureset inkludierst, sind das nicht mehr "alle Belange".

Im Übrigen ist "einzigster/einzigste" ebenfalls grammatikalischer Humbug...


Egal. Wie kommt eigentlich die Diskrepanz von 11 Tagen? Ich dachte so ein Launch bedeutet immer auch das Ende der NDAs?

Oder ist das mal eine superexklusive Party ohne Aufhebung der NDAs?


Wenn ich an Ibiza denk, kommen mir als erstes immer deutsche Urlauber und Proleten in den Sinn. Ich weiß nicht, der Reiz der Insel geht bei mir gegen Null, aber das ist nur meine Meining :)

acrowley23
2005-09-23, 21:33:08
;) Meine einzigste Karte die ich je von ATI hatte war eine 9800se , ansonsten nur Nvidia. Die nächste wird auf jedenfall ne ATI. Bin von Bildquali echt überzeigt.....

:) Ich freu mich auf den R520, Unreal Engine 3 ....ich komme !!!!! ;D



ps. hab mir schon nen Kredit bei der Citybank reserviert für die Karte (Spass)


für mich gilt R580 ich komme....
Viel länger als ein Quartal(+ in 2006) wirds wohl nicht dauern
Mit allem was ATI nicht mehr zum r520 geschafft hat.

Und dann am besten sofort mit 512mb Ram.

Die gelbe Eule
2005-09-23, 21:50:31
FUAD GOES TO IBIZA ;D
-------
allzuviel darf man sich anscheinend net davon erwarten ...

Doch, er wird seine X1800XT-Fuad Edition mit 32 Pipes im Gepäck haben, wenn er wiederkommt. Irgendwo muss er die Gläubigen bei der Stange halten :lol:

aths
2005-09-24, 08:39:47
Der NV4x frißt bei gleichem Takt auch viel mehr Strom als der R4xx. Also ist das imo kein Argument...Wieso nicht? Soll NV jetzt zaubern können?

Oblivion
2005-09-24, 08:40:38
Der NV4x frißt bei gleichem Takt auch viel mehr Strom als der R4xx. Also ist das imo kein Argument...

Find ich schon ...

Edit: aths war schneller

Razor
2005-09-24, 09:17:25
Wenn ich an Ibiza denk, kommen mir als erstes immer deutsche Urlauber und Proleten in den Sinn. Ich weiß nicht, der Reiz der Insel geht bei mir gegen Null, aber das ist nur meine Meining :)Der ich mich zu 100% anschließe...
Sorry für OT!
:(

Razor

stav0815
2005-09-24, 09:45:32
Der NV4x frißt bei gleichem Takt auch viel mehr Strom als der R4xx. Also ist das imo kein Argument...
ein Unterschied von einigen Millionen Transistoren is da auch dabei!
auch nVidia kann die Physikalischen Gesetze nicht aushebeln

tombman
2005-09-24, 10:20:12
ich bin ja gespannt was ATI macht wenn nivida den quadro Monsterkühler nimmt und eine 550mhz core 7800 ultra auf den Markt haut :naughty:

Coda
2005-09-24, 10:22:14
Das wäre ja noch das kleinere Übel für ATi...

tombman
2005-09-24, 10:31:22
Nur um beweisen, daß die quadro 4500er wirklich mit 550mhz core rennt ;)

The main part of the Quadro FX 4500 core works at 550MHz, which the GeForce 7800 GTX chip works at 430MHz. The vertex processor unit of both solutions works at the same frequency of 470MHz.
http://www.xbitlabs.com/articles/cpu/display/opteron-ws_9.html

Nvidia will die core clocks der professionellen Lösungen ja immer verheimlichen, gelingt nur eben nie lange ;D

Leider rennt der "vertex core" auch "nur" auf 470, wie bei den 7800ern, aber die pixel shader Leistung von 550mhz x 24p will ich von ATI mal sehen :cool: (ähmm, das wären dann wieviel ATI mhz? 825? ;D)

tombman
2005-09-24, 10:34:04
Das wäre ja noch das kleinere Übel für ATi...
Und was wäre das größere? :whistle:

Coda
2005-09-24, 10:39:48
Und was wäre das größere? :whistle:Wirst schon sehen :D

Auf dem Bild steht übrigens was von 10.8GTexel/s was eigentlich eher auf 450Mhz bei der Quadro schließen lässt. nVIDIA untertreibt ja nicht absichtlich.

Mr. Lolman
2005-09-24, 10:42:53
Wieso nicht? Soll NV jetzt zaubern können?
Nicht zaubern. Aber der Takt is ja völlig wurscht. Man kauft die Karten ja nicht taktbereinigt, sondern im Auslieferungszustand. Und da braucht ATi trotz deutlich höheren Takt auch nicht mehr Strom. Also kanns dem Anwender völlig egal sein, wie hoch seine GraKa getaktet ist. (im Ggs zu P4EE und AMD64)

Coda
2005-09-24, 10:48:01
Das ist korrekt. Allerdings hat R520 nicht mehr mehr Shadercycles pro Takt zur Verfügung als G70 und ich glaube darauf wollte er hinaus.

aths
2005-09-24, 10:50:53
Nicht zaubern. Aber der Takt is ja völlig wurscht. Man kauft die Karten ja nicht taktbereinigt, sondern im Auslieferungszustand. Und da braucht ATi trotz deutlich höheren Takt auch nicht mehr Strom. Also kanns dem Anwender völlig egal sein, wie hoch seine GraKa getaktet ist. (im Ggs zu P4EE und AMD64)Wieso ist das bei der Graka egal, bei der CPU aber nicht?

Coda
2005-09-24, 10:53:19
Weil der P4 deutlich mehr Strom braucht als der A64. R420 aber nicht mehr als NV40.

Lord Helmchen
2005-09-24, 11:23:39
TombmaN:
wenn Nvidia ne Super Sonder Mini 2000St. Edition rausbringt, lol

(del)
2005-09-24, 11:47:10
ja, auf die bin ich auch gespannt, ich denke das es das gleiche spiel wird wie bei 6800U vs. X850XTPE, die ultra macht die XTPE ja in shaderlastigen games ganz locker platt!
Platt? Welche Spiele sind denn SO shaderlastig? Q gegen AI_off?

SKYNET
2005-09-24, 12:06:01
Und was wäre das größere? :whistle:


ein plötzlich aus dem nix auftauchender treiber, der eine flimmerfreie BQ bietet und dennoch 10-60% schneller ist als die treiber davor... =)

Coda
2005-09-24, 12:07:35
Nein.

Winter[Raven]
2005-09-24, 12:09:12
8 Quad? ;D

Mr. Lolman
2005-09-24, 12:09:14
Nein.

Dann spann uns nicht länger auf die Folter :naughty:

Coda
2005-09-24, 12:18:57
:tongue:

(del)
2005-09-24, 12:20:35
die einzigen games die halt richtig shader nutzen, und genau da sacken die ATI karten immer zusammen... :lol:
Doom3-Engine. Ne ist klar :crazy2: Bei FEAR seh ich nicht so richtig wo da eine 68u eine X850 PLATT macht. Ergo: Fanboygelabber. Wie immer :rolleyes:

Mr. Lolman
2005-09-24, 12:24:57
:tongue:

Ach sag schon. Schliesslich will ich mir das Teil ja (vielleicht) kaufen. :D

SKYNET
2005-09-24, 12:32:31
Doom3-Engine. Ne ist klar :crazy2: Bei FEAR seh ich nicht so richtig wo da eine 68u eine X850 PLATT macht. Ergo: Fanboygelabber. Wie immer :rolleyes:


stimmt, in 1600*1200 4xAA/8xAF ~ 21 frames für die ultra, und 17 frames für die x850xtpe sind ja kein unterschied... blos knapp 24% mehr für die 6800U, und dann noch ne "alte" ultra mit 400/550 und nicht ne neue die ALLE 425/550 haben. :lol:

Coda
2005-09-24, 12:37:39
ATi hat bei manchen Shadern auch manchmal Vorteile, es ist wirklich nicht generell so, dass NV4x schneller ist.

Mr. Lolman
2005-09-24, 12:50:48
stimmt, in 1600*1200 4xAA/8xAF ~ 21 frames für die ultra, und 17 frames für die x850xtpe sind ja kein unterschied... blos knapp 24% mehr für die 6800U, und dann noch ne "alte" ultra mit 400/550 und nicht ne neue die ALLE 425/550 haben. :lol:

Ist doch beides nicht mehr Spielbar. Auf nem AMD System beträgt der Unterschied bei spielbaren 1280x1024 4xAA/8xAF gerade mal 10%. Und dabei sind die Treibereinstellungen immernoch nicht vergleichbar...

Außedem hab ich schon Benchamkrs gesehen wo Ati tatsächlich sogar leicht schneller ist in D³. Leider find ich die nicht mehr :tongue:

SKYNET
2005-09-24, 13:02:58
Leider find ich die nicht mehr :tongue:


warum wohl nicht... X-D

Mr. Lolman
2005-09-24, 13:24:23
warum wohl nicht... X-D

Reicht dir das fürs Erste?

http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7762.png

http://www.driverheaven.net/reviews/AIWX800AGP/flashers/doom3top.jpg

Coda
2005-09-24, 13:28:29
Das liegt daran, dass nVIDIAs bandwidth-reduction Zeug nicht mehr richtig funktioniert in 2048x1536 bei NV4x. G70 hat dieses Problem nicht mehr...

Mr. Lolman
2005-09-24, 13:33:27
Das liegt daran, dass nVIDIAs bandwidth-reduction Zeug nicht mehr richtig funktioniert in 2048x1536 bei NV4x. G70 hat dieses Problem nicht mehr...


Stimmt, sieht man gut bei 2048/4xAA:
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7743.png

Aber auch bei 1600x1200 ist der NV Vorsprung schon zu gering, als dass man da noch großartig weiterdiskutieren bräuchte...
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7733.png

(del)
2005-09-24, 13:38:32
stimmt, in 1600*1200 4xAA/8xAF ~ 21 frames für die ultra, und 17 frames für die x850xtpe sind ja kein unterschied... blos knapp 24% mehr für die 6800U, und dann noch ne "alte" ultra mit 400/550 und nicht ne neue die ALLE 425/550 haben. :lol:
Ja sorry. Ich sah nur die +4 FPS halt. Und die 21fps mit welchen Du garantiert spielst :rolleyes: Der größte "Balkenunterschied" fiel mir bei spielbaren 35 zu 40 fps, also 14.3%. Find ich auch nicht wenig, aber an sich eh alles egal, weil die wirklich erwähnenswerten Unterschiede sich erst in unspielbaren Auflösungen zeigen. Oder?

So oder so scheint es mir, daß Du ein echtes Problem zu haben scheinst =) Ob man das jetzt als Fanboygelabber oder als Gebashe bezeichnet, spielt nicht so die Rolle. Solche Verhaltensmuster legen sich meistens (nicht immer) langsam im "Führerscheinalter", aber bis dahin geht das dem reiferen Umfeld halt auf den Keks. Da wir aber alle dadurch mußten halt ich Dir halt die Daumen, daß Du Deine Phase so schnell es geht meisterst, "Raupe" ;)

Pirx
2005-09-24, 13:51:47
für mich gilt R580 ich komme....
Viel länger als ein Quartal(+ in 2006) wirds wohl nicht dauern
Mit allem was ATI nicht mehr zum r520 geschafft hat.

Und dann am besten sofort mit 512mb Ram.
Jo, dann werde ich wohl auch mal wieder zuschlagen, glaube aber, daß es länger dauert.

Aber erst mal sehen, was der R520 denn nun genau ist und wie er performt.

WEGA
2005-09-24, 14:08:25
Ja sorry. Ich sah nur die +4 FPS halt. Und die 21fps mit welchen Du garantiert spielst :rolleyes: Der größte "Balkenunterschied" fiel mir bei spielbaren 35 zu 40 fps, also 14.3%. Find ich auch nicht wenig, aber an sich eh alles egal, weil die wirklich erwähnenswerten Unterschiede sich erst in unspielbaren Auflösungen zeigen. Oder?

So oder so scheint es mir, daß Du ein echtes Problem zu haben scheinst =) Ob man das jetzt als Fanboygelabber oder als Gebashe bezeichnet, spielt nicht so die Rolle. Solche Verhaltensmuster legen sich meistens (nicht immer) langsam im "Führerscheinalter", aber bis dahin geht das dem reiferen Umfeld halt auf den Keks. Da wir aber alle dadurch mußten halt ich Dir halt die Daumen, daß Du Deine Phase so schnell es geht meisterst, "Raupe" ;)

der is 24 oder so *g*

A.Wesker
2005-09-24, 14:18:56
Aber auch bei 1600x1200 ist der NV Vorsprung schon zu gering, als dass man da noch großartig weiterdiskutieren bräuchte...
http://images.anandtech.com/graphs/nvidia%20geforce%207800%20gtx_06220580647/7733.png

die Werte stimmen nicht mit der Realität überein, da die der X850 XT PE zu hoch sind ( mehr als 36 FPS ist da net drin ) und die der 6800 Ultra zu niedrig -> ca 55 FPS. zu den angeblichen 54 FPS des G70 braucht man nichts zu sagen, da er dort normal 70 FPS + schafft.

Grestorn
2005-09-24, 14:34:45
die Werte stimmen nicht mit der Realität überein, da die der X850 XT PE zu hoch sind ( mehr als 36 FPS ist da net drin ) und die der 6800 Ultra zu niedrig -> ca 55 FPS. zu den angeblichen 54 FPS des G70 braucht man nichts zu sagen, da er dort normal 70 FPS + schafft.
Der Wert stimmt ziemlich genau. In 1600x1200 4xAA erhalte ich mit einer Single 7800GTX 55,4 fps in der Timedemo 1.

Mr. Lolman
2005-09-24, 14:37:12
die Werte stimmen nicht mit der Realität überein, da die der X850 XT PE zu hoch sind ( mehr als 36 FPS ist da net drin ) und die der 6800 Ultra zu niedrig -> ca 55 FPS. zu den angeblichen 54 FPS des G70 braucht man nichts zu sagen, da er dort normal 70 FPS + schafft.

Wer weiss welche Timedemo die gebencht haben...

Außerdem glaubst du wohl selbst nicht, dass in den Settings eine 6800 Ultra um 50% schneller sein soll als ne x850xtpe :rolleyes:

Mumins
2005-09-24, 14:46:58
die Werte stimmen nicht mit der Realität überein, da die der X850 XT PE zu hoch sind ( mehr als 36 FPS ist da net drin ) und die der 6800 Ultra zu niedrig -> ca 55 FPS. zu den angeblichen 54 FPS des G70 braucht man nichts zu sagen, da er dort normal 70 FPS + schafft.

Du kannst auch nicht dein system mit dem hier benutzten vergleichen. Im übrigen ist seit ATI auch Shaderreplacement in Doom3 betreibt, der Unterschied zwischen einer 6800Ultra und X850XT PE nurmehr sehr gering.
Ich hab in der Timedemo knapp 40 FPS, Karte läuft auf 540/590.

(del)
2005-09-24, 15:07:48
die Werte stimmen nicht mit der Realität überein
Die Werte stimmen mit der Realität überein.

(del)
2005-09-24, 15:11:54
der is 24 oder so *g*
Ich habs geahnt :rolleyes:

Coda
2005-09-24, 15:12:24
Meiner is größer - Ne, meiner is größer - Stimmt ja gar nicht - Stimmt ja wohl :rolleyes:

A.Wesker
2005-09-24, 15:13:40
Die Werte stimmen mit der Realität überein.
meine 7800 GTX erreicht bei 1600x1200 4AA/16AF 72 FPS und dieses Ergebnis ist nicht CPU-Limitiert, da die CPU in Doom 3 wenn man AA hinzuschaltet keine Rollte mehr spielt. Mit der X850XTPE und einem P-M @ 3,0 GHz waren bei diesen Einstellungen gerade mal 38 FPS drin!

Mr. Lolman
2005-09-24, 15:23:52
dieses Ergebnis ist nicht CPU-Limitiert, da die CPU in Doom 3 wenn man AA hinzuschaltet keine Rollte mehr spielt.

In dem Fall hat Leo eine sehr langsame 7800GTX gebencht: http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/bench2.php

Ronny145
2005-09-24, 15:27:03
meine 7800 GTX erreicht bei 1600x1200 4AA/16AF 72 FPS und dieses Ergebnis ist nicht CPU-Limitiert, da die CPU in Doom 3 wenn man AA hinzuschaltet keine Rollte mehr spielt. Mit der X850XTPE und einem P-M @ 3,0 GHz waren bei diesen Einstellungen gerade mal 38 FPS drin!


Du hast einen P-M 3200 Mhz. Also hast du null fps Unterschied, wenn du mit 2500 Mhz benchst?

Blaire
2005-09-24, 15:38:36
Du kannst auch nicht dein system mit dem hier benutzten vergleichen. Im übrigen ist seit ATI auch Shaderreplacement in Doom3 betreibt, der Unterschied zwischen einer 6800Ultra und X850XT PE nurmehr sehr gering.
Ich hab in der Timedemo knapp 40 FPS, Karte läuft auf 540/590.

Gering? Das hatte ich schon mit meiner 6800 Ultra Karte 44 fps mit Standardtakt und sogar mit HQ!
Achte vor allem mal auf die Minimumfps gegen Ende der Timedemo wo der letzte Gegner auftaucht, da brach damals die X800XTPE auf 13 fps ein, wogegen die 6800 Ultra nicht unter 24 fps fiel.

PingpiN
2005-09-24, 15:48:40
Wie lange wollen wir denn noch über die *alte* Generation diskutieren?
Wenn Ati denn R520 balt Launcht sind X800-NV 40 Karten Geschichte.

(del)
2005-09-24, 16:03:06
Gering? Das hatte ich schon mit meiner 6800 Ultra Karte 44 fps mit Standardtakt und sogar mit HQ!
Achte vor allem mal auf die Minimumfps gegen Ende der Timedemo wo der letzte Gegner auftaucht, da brach damals die X800XTPE auf 13 fps ein, wogegen die 6800 Ultra nicht unter 24 fps fiel.
Ja damals schon, aber jetzt nicht mehr. Du verstehst. Wir sind jetzt paar Cats weiter.

(del)
2005-09-24, 16:08:58
meine 7800 GTX erreicht bei 1600x1200 4AA/16AF 72 FPS
Grestorns nicht. Welche Sau interessiert, daß Du mehr FPS als Grestorn hast? Innerhalb eines Tests ist der Vergleich ok. Es sei denn Du möchtest sagen, daß die Tester extrem pro ATI geschummelt haben. Dann muß Lolman jetzt nur die Quellen nennen und dann können wir uns darüber auslassen welche Amateure da am Werke waren...

(del)
2005-09-24, 16:12:43
Meiner is größer - Ne, meiner is größer - Stimmt ja gar nicht - Stimmt ja wohl :rolleyes:
Ja sowas in der Art ;) Der Test ist kacke, weil ATI zuviel FPS und NV zuwenig FPS hat. Und das ist nicht meine Realität. Ja logo. Was willst Du da antworten? :rolleyes:

Blaire
2005-09-24, 16:17:39
Ja damals schon, aber jetzt nicht mehr. Du verstehst. Wir sind jetzt paar Cats weiter.

Kommt schon hin, was Mumins sagt. Zaubern kann Ati ja auch nicht.

http://www.firingsquad.com/hardware/catalyst_5.6/images/d3h1600.gif

(del)
2005-09-24, 16:55:53
Kommt schon hin, was Mumins sagt. Zaubern kann Ati ja auch nicht
Ja was Mumins sagt stimmt schon :) Ich seh auch jetzt grad, daß Du von X800 und der 6800ultra gesprochen hast :| Zaubern kann ATI nicht, aber sie konnten id zum Teil zeigen, daß man Shader auch für ATI vernünftig schreiben kann. Mit der Doom3-Engine performt ATI aber so oder so schlechter. Keine Frage. Daraus ergibt sich aber noch lange nicht das Bild, welches Skynet gerne malen würde oder die FPS die alleine Wesker hinbekommt.

Nach dem im Vergleich peinlichen "NV35" und der darauf folgenden massiven Entwicklung der Hardware (in die richtige Richtung!), sollte NV sich vielleicht endlich mal der imho katastrophalen "Treiberlage" widmen. Der 77.77 scheint da ein kleines Lichtblick zu sein. Für nicht-G70 :( Nach Jahren NV hab ich mich Anfang des Jahres schweren Herzens :) für eine mit R360 statt für die 6600GT entschieden, also für weniger Leistung, aber dafür für den Cat5.x und gegen das ewige NV-Getrickse :mad: Wenn sich da weiter nichts ändert wird es nächstes Jahr wieder eine ATI werden. Datenblatt des Chips und die FPS der Top5 Spiele sind für mich nicht alles. In diesem Sinne, EOD.

Black-Scorpion
2005-09-24, 17:05:07
Nur gut das D³ eines der schlechten Beispiele zum benchen ist.
Dort wird nicht die Leistung der Hardware sonder die Leistung der Programmierer des Treibers gezeigt. :rolleyes:
Gillt natürlich für beide.

Ich verweise als Beispiel mal auf den Post.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2267933&postcount=157

Mumins
2005-09-24, 17:12:39
Gering? Das hatte ich schon mit meiner 6800 Ultra Karte 44 fps mit Standardtakt und sogar mit HQ!
Achte vor allem mal auf die Minimumfps gegen Ende der Timedemo wo der letzte Gegner auftaucht, da brach damals die X800XTPE auf 13 fps ein, wogegen die 6800 Ultra nicht unter 24 fps fiel.

Hab grad nochmal gebencht, am Schluß gehts bei mir auf 18FPS runter.

Raff
2005-09-24, 17:16:45
Man sollte IMHO nicht unterschätzen, wie sich der große Cache des Pentium-M auf die Fps in Doom III wirkt. Angeblich profitiert die Engine sehr stark davon, da eine Menge zwischengelagert wird -- das dürfte sich gerade auf die Minimum-Fps auswirken.

Aber: Topic? Wartet doch einfach ab. Nur schnelle CPUs und vor allem verfügbare Karten bringen Licht ins Dunkel ...

MfG,
Raff

Winter[Raven]
2005-09-24, 17:18:31
@ Raff

Nicht nur angeblich, warte Q4 ab... mehr darf ich ned sagen.

Raff
2005-09-24, 17:19:57
Yep, genau daher habe ich diese Info (PCGH). ;) Nur weiß ich eben nicht, ob Doom III ebenso empfindlich darauf reagiert. Vielleicht nicht ganz so stark, man weiß ja nie ...

MfG,
Raff

SKYNET
2005-09-24, 17:30:07
schon Q3 reagiert extrem auf cache. =)

3200+ 2.0GHz 1024kb vs. 3200+ 2.2GHz 512kb ~ der 1024kb ist 5% schneller bei Q3. :)

Spasstiger
2005-09-27, 00:21:31
Man sollte IMHO nicht unterschätzen, wie sich der große Cache des Pentium-M auf die Fps in Doom III wirkt. Angeblich profitiert die Engine sehr stark davon, da eine Menge zwischengelagert wird -- das dürfte sich gerade auf die Minimum-Fps auswirken.

Aber: Topic? Wartet doch einfach ab. Nur schnelle CPUs und vor allem verfügbare Karten bringen Licht ins Dunkel ...

MfG,
Raff

Jupp, die Doom-3-Engine soll beim subjektiven Spielfluss sehr von größerem CPU-Cache profitieren, was an der Art liegt, wie die Stencil-Shadows berechnet werden. Bei Quake 4 soll dieser Effekt noch stärker ins Gewicht fallen.

Franzmann-Jan
2005-09-27, 00:30:51
Woran liegt es dann, dass die A64 in Doom3 trotzdem Perfomancevorteile gegenüber der 600er Serie vom Pentium4 haben?