PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 vs. G70


Seiten : [1] 2

Demirug
2005-10-02, 22:36:44
Viel Spass beim tippen.

Winter[Raven]
2005-10-02, 22:40:22
NV und ATI können sich die Benches teilen, einer ist hier schneller, der andere dort ... diese Generation auslassen.

Horimoto
2005-10-02, 22:42:55
R520 wird sich absetzetn können, denke ich.
~20-30%

Botcruscher
2005-10-02, 22:44:30
[x] Bratwurst aka S3 macht sie alllllllllllllllllllllllllllllllllllle nieder


EDIT:

Wo bleibt das offizielle Flamme-Forum! :biggrin:

Ronny145
2005-10-02, 22:44:59
[X] R520 kann sich leicht absetzen

Ich bin schon gespannt ob ich richtig liege.

A.Wesker
2005-10-02, 22:49:38
die 7800 GTX bleibt führend (die Geforce 7 auf jedenfall)

RLZ
2005-10-02, 22:49:52
Wäre das nicht eher was für die Spielwiese? :biggrin:
Wer wieviel Leistung bringt ist mir eigentlich egal. Hauptsache die Leistung und/oder Bildqualität pro Euro verbessert sich mal wieder.

deekey777
2005-10-02, 22:49:54
[x] R520 vernichtet alles.
Warum? AVIVO. :biggrin:

sth
2005-10-02, 22:58:24
[X] R520 kann sich leicht absetzten

<vermutung> ATI wird den Takt gerade so hoch schrauben das es reicht um den G70 in einigen wichtigen Benches zu schlagen. Die Karten werden dadurch keine wirklichen Übertaktungswunder werden, aber ein bisschen Spielraum wird noch sein. </vermutung>

sulak
2005-10-02, 22:58:43
Sollte sich FEAR nicht als vercodete Krücke heraustellen ist das der entscheidenste Benchmark ATM auf dem Spielemarkt.
Gefolgt von Splinter Cell3 (da kommen feine HDR benchens ^^) denke ich sinds die "shaderlastigsten" Games die die Zukunft weisen, dazu BF2 mit seinem Hunger nach Texturespeicher.
512MB vs. 256MB @1600x1200 4xAA (ohne TSAA aber mit Gammakorrektur) + 16xwinkelAF in HQ und das äquivalent von ATI

Da sehe ich den G70 minimal vorne was man halt so bisher lesen konnte, hier wie drüben bei Beyond3d.

Alles andere ist die Sahne auf dem Kuchen ;)

P.S.: HL2 und Doom3 schaue ich mir nicht an, da man bei beiden "sich eingekauft" hat...

Blaze
2005-10-02, 23:08:44
[x] G70 ownt alles in Grund und Boden. :P

Kein Bock schon wieder was neues zu kaufen... :rolleyes:

Adam D.
2005-10-02, 23:11:49
[X] R520 kann sich leicht absetzen

Ich denke, dass ATi jetzt durch die große Verspätung den R520 so hoch getaktet hat, dass er den G70 schläft. Alles andere wäre auch peinlich.

mapel110
2005-10-02, 23:11:56
[x] G70 macht knapp das Rennen (Wenn Speichermenge oder Speicherbandbreite nicht den größten Einfluss haben)

Lightning
2005-10-02, 23:14:35
Ich tippe sowohl von den Features als auch von der Leistung her auf ein ungefähres Unentschieden.

Aber mehr als ein Tipp ist es wirklich nicht. In ein paar Tagen werden wir definitiv schlauer sein. ;)

Die gelbe Eule
2005-10-02, 23:14:59
Der R520 wird leicht über dem G70 sein, aber nur in 3DM05 =)

Coda
2005-10-02, 23:16:34
Der R520 wird leicht über dem G70 sein, aber nur in 3DM05 =)Hm ne, der höhere Speichertakt wird ihm schon helfen.

MiamiNice
2005-10-02, 23:18:05
G70 bleibt der ungeschlagene King of the Hill

Coda
2005-10-02, 23:19:30
G70 bleibt der ungeschlagene King of the HillDas ist genauso unrealistisch als das R520 alles vernichtet...

Winter[Raven]
2005-10-02, 23:21:31
Coda ist back ... ;D

Pirx
2005-10-02, 23:22:13
Viel Spass beim tippen.
Wie ist deine Meinung?:ulol:


Me hat getippt R520 setzt sich leicht ab.

Die gelbe Eule
2005-10-02, 23:22:45
Ich hoffe er setzt sich ab, damit NV nachlegt. Somit wäre ATI am Arsch :P

Coda
2005-10-02, 23:24:24
Ich hoffe er setzt sich ab, damit NV nachlegt. Somit wäre ATI am Arsch :PnVIDIA wird wenn es sein muss wohl mindestens ein leichtes Upgrade beim Speichertakt und dem GPU-Takt bringen. Nicht umsonst heißt das Topmodel derzeit wohl nicht "Ultra".

Lightning
2005-10-02, 23:24:32
Hm ne, der höhere Speichertakt wird ihm schon helfen.

Nun, in dieser Umfrage geht es aber doch nicht um die finalen Karten, sondern um die Chips, wenn ich das richtig verstanden habe. Evtl. zieht nVidia ja relativ schnell mit dem Speichertakt nach.

Die gelbe Eule
2005-10-02, 23:25:57
nVIDIA wird wenn es sein muss wohl mindestens ein leichtes Speedgrade beim Speicher und der GPU bringen. Nicht umsonst heißt das Topmodel derzeit wohl nicht "Ultra".

Schnellerer Speicher wäre ja kein Thema und 486MHz GPU ist ja mittlerweile eh überall Top Modell.

Coda
2005-10-02, 23:28:13
486Mhz sind immerhin 16% mehr Texelfüllrate als X1800XT. Ich denke wirklich nicht, dass nVIDIA in große Bedrängnis kommt.

deekey777
2005-10-02, 23:31:09
nVIDIA wird wenn es sein muss wohl mindestens ein leichtes Upgrade beim Speichertakt und dem GPU-Takt bringen. Nicht umsonst heißt das Topmodel derzeit wohl nicht "Ultra".

Ich wollte mein Posting editieren und ähnliches schreiben, ließ es aber: Es geht um jetzt und nicht darum, was kommen kann oder wird.

Wenn nVidia eine 7800Ultra veröffentlicht, kommt wohl kurz danach eine XI800XT PE. Doch dann würde ATi die Puste ausgehen, denn nVidia hat da noch ein Kürzel: Ultra EE. :biggrin:

Die gelbe Eule
2005-10-02, 23:31:10
Sie warten doch eh nru darauf. NV hatte ha vorgelegt, diesmal war ATI langsamer. Wie ja andere sagten, wäre es blödsinn, den R580 nachzuschieben. Aber wenn NV nachlegt, müssten sie reagieren.
Der 7800gtx ist ja net grade "neu".

Coda
2005-10-02, 23:32:53
Ich wollte mein Posting editieren und ähnliches schreiben, ließ es aber: Es geht um jetzt und nicht darum, was kommen kann oder wird.

Wenn nVidia eine 7800Ultra veröffentlicht, kommt wohl kurz danach eine XI800XT PE. Doch dann würde ATi die Puste ausgehen, denn nVidia hat da noch ein Kürzel: Ultra EE. :biggrin:Mit dem Unterschied, dass nVIDIA die GTX für High-End-Verhältnisse noch lang nicht am Limit laufen lässt, ATi die X1800XT mit recht hoher Sicherheit aber schon.

Für die Füllrate eines 486Mhz G70 brauchen sie immerhin 730Mhz. Das schaffen sie eher nicht.

Die gelbe Eule
2005-10-02, 23:34:57
Ihr wollt eh nicht wissen wie weit die den X1800XT auf Ibiza geprügelt haben oder?

856MHz GPU / 1880MHz RAM

Coda
2005-10-02, 23:36:21
Mit ner Cascade bekomm ich ne G70 auch auf 570Mhz. Und jetzt?

deekey777
2005-10-02, 23:37:06
Mit dem Unterschied, dass nVIDIA die GTX für High-End noch lang nicht am Limit laufen lässt, ATi die X1800XT mit recht hoher Sicherheit aber schon.

Für die Füllrate eines 486Mhz G70 brauchen sie immerhin 730Mhz. Das schaffen sie eher nicht.

Ich glaube, die Kalifornier werden nur dumm grinsen und gar nichts tun, die haben es einfach nicht nötig.

Die gelbe Eule
2005-10-02, 23:37:23
Also der 3DM05 Wert ist noch net raus, aber er liegt unter 13k, für die OC-Karte.

Coda
2005-10-02, 23:38:21
Ich glaube, die Kalifornier werden nur dumm grinsen und gar nichts tun, die haben es einfach nicht nötig.Ja, dumm grinsen tun sie im Moment. Aber wegen was anderem *hust*

mapel110
2005-10-02, 23:40:45
nVIDIA wird wenn es sein muss wohl mindestens ein leichtes Upgrade beim Speichertakt und dem GPU-Takt bringen. Nicht umsonst heißt das Topmodel derzeit wohl nicht "Ultra".
Ich glaube, wenn das Spitzenmodell von ATI ohnehin nur geringe Verfügbarkeit erreicht, brauchen sie gar nichts zu tun.

Mcdave
2005-10-02, 23:41:38
Gleichstand.

(...wäre zudem schön, wenn der R520 auch für AGP erscheinen würde).

Blaze
2005-10-02, 23:43:32
nVIDIA wird wenn es sein muss wohl mindestens ein leichtes Upgrade beim Speichertakt und dem GPU-Takt bringen. Nicht umsonst heißt das Topmodel derzeit wohl nicht "Ultra".

Es wird keine Ultras mehr geben, NV hat doch selbst gesagt dass das mit der 6800U ein Ende hatte und auch zukünftige Topmodelle das Kürzel GTX tragen werden.

Ich glaube (und hoffe) da kommt erstmal nix neues mehr...

Die gelbe Eule
2005-10-02, 23:47:04
Weil sonst wieder umrüsten müsstest ;)

Ailuros
2005-10-02, 23:48:29
Wo kann ich Gleichstand waehlen? :biggrin: (und nein "unentschieden" qualifiziert dafuer nicht).

Blaze
2005-10-02, 23:49:23
Weil sonst wieder umrüsten müsstest ;)

Wenn wirklich ne Karte mit 512MB kommt...ohwei... :D

A.Wesker
2005-10-02, 23:51:18
Es wird keine Ultras mehr geben, NV hat doch selbst gesagt dass das mit der 6800U ein Ende hatte und auch zukünftige Topmodelle das Kürzel GTX tragen werden.

Ich glaube (und hoffe) da kommt erstmal nix neues mehr...
warum? die karten können nicht schnell genug sein. von mir aus kann jeden monat eine neue + schnellere karte erscheinen.

sulak
2005-10-02, 23:53:10
Ja aber man hat die NV40 ja auch net Übertaktet bis zum Heizofen...
Sie haben einfach die Klappe gehalten und 1Jahr später mit der G70 geOwnt *g

€: Wobei ne 512MB GTX Extreme @ 550/1400 meinem System gut stünde ^^

Wechselbalg
2005-10-02, 23:54:58
Hmm. Die Frage ist alleine schwierig, weil ja nicht alleine die Geschwindigkeit das ganze bestimmen wird, sondern auch Features.

Ich würde tippen, dass Ati sich da weil sie wissen wie hoch die Latte liegt mit etwas Mühe leicht absetzen kann, was aber vermutlich nicht von langer Dauer ist.

Blaze
2005-10-02, 23:55:06
warum? die karten können nicht schnell genug sein. von mir aus kann jeden monat eine neue + schnellere karte erscheinen.

Jo dann viel Spaß mit dem Verlust den du machen würdest wenn du wirklich jeden Monat ne schnellere Karte kaufen müsstest ;)

Die gelbe Eule
2005-10-02, 23:56:08
Tombman würde das auch gerne mitmachen, verrückte gibts genug.

A.Wesker
2005-10-02, 23:57:12
Jo dann viel Spaß mit dem Verlust den du machen würdest wenn du wirklich jeden Monat ne schnellere Karte kaufen müsstest ;)
man bräuchte kein SLI, wenn jede graka solch einen leistungsschub ergibt wie eine 6800 Ultra/7800 GTX und somit hält sich der verlust in grenzen.

Blaze
2005-10-02, 23:59:35
man bräuchte kein SLI, wenn jede graka solch einen leistungsschub ergibt wie eine 6800 Ultra/7800 GTX und somit hält sich der verlust in grenzen.

Ja und am besten wöchentlich solche Releases....aufwachen Albert :D

A.Wesker
2005-10-03, 00:01:36
Ja und am besten wöchentlich solche Releases....aufwachen Albert :D
wöchentl. bzw. monatl. ist ein bisl übertrieben, aber jede 3 monate wäre schon praktisch, solange es für den P-M noch kein SLI gibt ^^

Blaze
2005-10-03, 00:03:08
wöchentl. bzw. monatl. ist ein bisl übertrieben, aber jede 3 monate wäre schon praktisch, solange es für den P-M noch kein SLI gibt ^^

Wird kommen (zumindest P-M SLI) ... das mit den 3 Monaten kannst knicken ;)

r3ptil3
2005-10-03, 00:06:41
[X] R520 kann sich leicht absetzten

hätte mir gut vorstellen können, was passiert wäre, hätte jemand anderes diesen Thread eröffnet...

Blaze
2005-10-03, 00:08:30
hätte mir gut vorstellen können, was passiert wäre, hätte jemand anderes diesen Thread eröffnet...

Wer denn? :D

Gibt genug Leute bei denen ich mich das hätte vorstellen können ;)

LovesuckZ
2005-10-03, 00:14:00
Da es zur Produkteinführung nur die X1800 XL zu kaufen gaebe, nach dem was ich mitbekommen habe, wird der G70 immer noch der attraktivere Chip sein.
Wie es dann im November aussieht, wird sich am Mittwoch entscheiden, aber den Kampf GT gegen XL scheint wohl die Nvidia Karte (deutlich) zu gewinnen, da ich nicht davon ausgehe, dass die XL von Anfang an "nur" 333€ kosten werde.

SKYNET
2005-10-03, 00:41:34
ich werfe mal nen paar zahlen für F.E.A.R in 1600x1200 4xAA/16xAF in die runde
26fps vs. 30fps vs. 42fps.

viel spass beim raten was wo zu gehört. :biggrin:


[edit] wers richtig hat bekommt nen lutscher, natürlich zur selbstabholung bei mir! =)

Blaze
2005-10-03, 00:43:29
ich werfe mal nen paar zahlen für F.E.A.R in 1600x1200 4xAA/16xAF in die runde
26fps vs. 30fps vs. 42fps.

viel spass beim raten was wo zu gehört. :biggrin:

NV40U vs. R520 vs. G70GTX ? :D

3dzocker
2005-10-03, 00:44:01
ist doch ganz einfach:

Ti4200-GTX-R520

was bedeutet, ich brauch noch keine neue GraKa :D

tschau

Blaze
2005-10-03, 00:45:11
ist doch ganz einfach:

Ti4200-GTX-R520

was bedeutet, ich brauch noch keine neue GraKa :D

tschau

Bei ner Ti4200 wären es wohl 2,6 :ugly:

Winter[Raven]
2005-10-03, 00:45:17
26fps vs. 30fps vs. 42fps.
7800 GT vs. R520 vs. GTX?

Blaze
2005-10-03, 00:46:19
']26fps vs. 30fps vs. 42fps.
7800 GT vs. R520 vs. GTX?

Nein soviel Unterschied ist das nicht zwischen der GT und der GTX.

Ich glaub meins war richtig, also her mit deinem Lutscher ;D

SKYNET
2005-10-03, 00:46:30
mhhh, kleiner tipp: es ist KEINE NV4x oder G70 in form der 7800GT dabei!

Blaze
2005-10-03, 00:48:18
Also die 42 FPS sind die GTX
Die 30 sind...der R520

Aber die 26? X850XT PE? :|

sulak
2005-10-03, 00:48:42
R520 + G70GTX + R580 ^^

oder gar

R520 + G70GTX + G7X

http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/bench4.php

Blaze
2005-10-03, 00:53:34
Los Skynet sag an... :P

Winter[Raven]
2005-10-03, 00:53:42
R520 vs. GTX vs. Ultra

SKYNET
2005-10-03, 00:55:45
R520 + G70GTX + G7X

http://www.3dcenter.org/artikel/nvidia_g70_benchmarks/bench4.php


lolli können sie an der reeperbahn abholen, termin nach absprache! =)

sulak
2005-10-03, 00:57:29
;D

Wie weit ist die GTX denn übertaktet um 12FPS draufzupacken?

Winter[Raven]
2005-10-03, 00:59:19
Was wäre dir lieber? 32 Pipes? bei >500 Mhz?

Ronny G.
2005-10-03, 01:04:57
Ich kann es vielleicht schlecht einschätzen, habe mich recht wenig mit dem neuen Ati chip beschäftigt, nur so auszüge gelesen.
Aber der ATI chip wird es bestimmt schwer haben, sich abzusetzen.

Ati hat immer und immer wieder auf dem R300 aufgebaut und weiter optimiert bis zur X850, die schließlich das ende einleutete.
Nun sollte ATI nen völlig neuen Leistungstärkeren chip entwickeln damit sie wieder nachziehen können, nur scheint genau das daß problem zu sein.
Denn sie brauchen einfach zu lange, Monat um Monat zieht ins Land, die ganzen Highend verwöhnten Kunden ziehen nach und nach aus dem Ati lager ab um sich bei Nvidia einzudecken.
Nvidia freut sich und brauch nichtmal ne "ultra" nachzulegem weil laut NV einfach keine annähernde Konkurenz bestand hat, der Gegner fehlt schlicht und einfach, und das zu unserer Zeit!
Scheinbar liegt ATI inoffiziel in echten schwierigkeiten, denn es kann sich keiner heutzutage leisten den Wettbewerb zu vernachlässigen, und somit Gewinnrückgang zu verzeichnen.

Bin bloß bald der Meinung das es langsam ernst wird, denn wenn der neue 520er Ati chip da ist, wird NV bereits die nächsten Kohlen ins feuer legen können.
Wahrscheinlich ist bei NV zwangsurlaub angesagt wenn es so weiter geht.
Irgendwie merkt man wo das Knowhow steckt, leider, denn so steht der Markt still.

Wir werden sehen was wird.

sulak
2005-10-03, 01:05:59
Naya einen Wechsel auf 90mn mit weiteren 2 Quads und dann noch 70MHz draufpacken halte ich bissl für Overkill, der Speicher muss ja brennen um die Quads am laufen zu halten, eher wieder 430MHz um bissl Luft wie jetzt beim erscheinen des R580 zu haben, aber das ist der falsche Thread ^^

Thanatos
2005-10-03, 01:08:55
Also ich denke mal dass der G70 leicht schneller sein wird.

Denn in der aktuellen PCGH steht das der R520 nur 16 Pipes haben soll, wen ich das noch richtig weis.

Wenn ja ist das doch etwas wenig. ich hab da eher so an 24 gedacht........

sulak
2005-10-03, 01:18:25
Macht ja nix, wenn der Takt stimmt, dann kommts in etwa hin mit der Rohleistung.
Was wichtiger ist, zumindest gehen davon einige aus, ist die Tatsache das der G70 mehr hm ich sag mal Shader-Berechnungen durchführen kann pro Takt, weil er dafür 2 Einheiten hat.

Deswegen "soll" der R580 (Refresh des R520) ja auch 3 Einheiten bekommen, ob man noch was am Takt drehen kann/muss bleibt abzuwarten, kalt wirds im Winter sicher nicht ^^

StefanV
2005-10-03, 01:40:52
R520 wird alles in Grund und Boden stampfen :devil: :devil:

deekey777
2005-10-03, 01:46:26
R520 wird alles in Grund und Boden stampfen :devil: :devil:

Diese Wahlmöglichkeit gibt es aber nicht.

Coda
2005-10-03, 01:48:43
Diese Wahlmöglichkeit gibt es aber nicht.Richtig, die Möglichkeit gibt es in zweierlei Hinsicht nicht ;)

deekey777
2005-10-03, 01:49:16
Richtig, die Möglichkeit gibt es in zweierlei Hinsicht nicht ;)

Das war jetzt gaymein. ;(

SKYNET
2005-10-03, 01:56:48
R520 wird alles in Grund und Boden stampfen :devil: :devil:

musst du nicht deine pillen nehmen? ;D ;)

Blaze
2005-10-03, 02:09:34
R520 wird alles in Grund und Boden stampfen :devil: :devil:

Warum wusste ich (bzw. wir alle) dass ausgerechnet du das sagen musst? :D

Trotzdem: Nein :tongue:

Ailuros
2005-10-03, 02:18:38
lolli können sie an der reeperbahn abholen, termin nach absprache! =)

Mit welchem Treiber waere wohl die angebrachtere Frage...

misterh
2005-10-03, 02:21:36
lass mich auch mal raten

X1800XT - 7800GTX - XG60

richtig Skynet?

Aber nein kein blurr. :biggrin:

MadManniMan
2005-10-03, 02:21:39
Ich hab mal ganz oben gewählt, damit die ganze Sache wieder ausgeglichener aussieht - denn worauf basieren denn eure "Meinungen"?
Auf welcher Grundlage kann man denn Meinungen in einem solchen Zusammenhang überhaupt ernst nehmen? Ich bin zutiefst erschüttert, daß es immernoch Leute gibt, die entgegen besseren Wissens Nonsense verbreiten.

Die, die tatsächlich schon was wissen, sollen entweder ganz offen ihr NDA brechen und nicht stets und ständig Salz in die Wunden streuen, oder aber gänzlich ihre Klappen halten.

sulak
2005-10-03, 02:27:23
Die, die tatsächlich schon was wissen, sollen entweder ganz offen ihr NDA brechen und nicht stets und ständig Salz in die Wunden streuen, oder aber gänzlich ihre Klappen halten.

Was für Wunden?

Ist das nicht das Spekulationsforum? Ist doch OK wenn sie unter NDA stehen und diese wahren wollen, aber mit drumherum Tips&Fragen doch etwas preisgeben.
Viele beziehen sich auf das was sie im Web gelesen haben und dann zieht halt jeder seine Schlüsse, so kommts zu Spekulationen ^^

mapel110
2005-10-03, 02:29:29
Ich hab mal ganz oben gewählt, damit die ganze Sache wieder ausgeglichener aussieht - denn worauf basieren denn eure "Meinungen"?
Auf welcher Grundlage kann man denn Meinungen in einem solchen Zusammenhang überhaupt ernst nehmen? Ich bin zutiefst erschüttert, daß es immernoch Leute gibt, die entgegen besseren Wissens Nonsense verbreiten.

Die, die tatsächlich schon was wissen, sollen entweder ganz offen ihr NDA brechen und nicht stets und ständig Salz in die Wunden streuen, oder aber gänzlich ihre Klappen halten.
Ach Manni, wir sind hier im Spekulationsforum. :smile:

Die Taktraten des R520 sind ja schon offiziell bekannt. Die Schnelligkeit des Speichers auch und Andeutungen in Sachen Architektur gabs auch schon zur Genüge. Da lässt sich schon etwas abschätzen. :)

deekey777
2005-10-03, 02:33:47
Spekulationsforum ist nicht gleich "Wünsch-Dir-Was"-Forum, besonders wenn es um die Spekulation über die Performance geht.
Und so lange man nicht den Quatsch von VR-Zone oder hkepc mit 24/32 Pipes glaubt, sollte man zu einer vernünftigen Spekulation über die Performance kommen.

Sighfreak
2005-10-03, 02:41:00
Gott!!! ist das mal wieder eine bescheuerte Umfrage ! :eek:

Was soll der Scheiss???

Ist euch so verflucht langweilig??????

Warum wartet ihr nicht einfach, bis der Scheiss raus ist, und guckt dann einfach, was Sache ist, anstatt immer diese total stumpfsinnigen Spekulationen im Voraus?

Da sieht man mal wieder, wie doof der Mensch doch ist, wenn ihm zu wohl ist :|

deekey777
2005-10-03, 02:48:14
Gott!!! ist das mal wieder eine bescheuerte Umfrage ! :eek:

Was soll der Scheiss???

Ist euch so verflucht langweilig??????

Warum wartet ihr nicht einfach, bis der Scheiss raus ist, und guckt dann einfach, was Sache ist, anstatt immer diese total stumpfsinnigen Spekulationen im Voraus?

Da sieht man mal wieder, wie doof der Mensch doch ist, wenn ihm zu wohl ist :|

Mal an die frische Luft gehen? Kamillentee? Den Ton etwas mäßigen?

MadManniMan
2005-10-03, 02:49:09
Was für Wunden?

Ist das nicht das Spekulationsforum? Ist doch OK wenn sie unter NDA stehen und diese wahren wollen, aber mit drumherum Tips&Fragen doch etwas preisgeben.
Viele beziehen sich auf das was sie im Web gelesen haben und dann zieht halt jeder seine Schlüsse, so kommts zu Spekulationen ^^

Problematisch wirds, wenn Leute mit Hintergrundinformationen bewußt Informationen streuen, die nur provozieren - die Diskussion mag unterhaltsam anzuschauen sein, der tatsächliche Wert des Ganzen liegt dafür irgendwie unterm Bauchnabel.

Ach Manni, wir sind hier im Spekulationsforum. :smile:

Die Taktraten des R520 sind ja schon offiziell bekannt. Die Schnelligkeit des Speichers auch und Andeutungen in Sachen Architektur gabs auch schon zur Genüge. Da lässt sich schon etwas abschätzen. :)

Ist ja alles richtig, schätzen kann man ja auch - nur verkennen die meisten hier den Zweck des Threads! Er sollte vor Augen führen, mit welche blödsinnigen Argumenten zur Sache gegangen wird. Man kann wohl davon ausgehen, daß wir hier in etwa ein Ergebnis sehen, das der "Glaubenfrage" und der "Glaubensfrage SE" nahe kommt.

Mein Gott bin ich grad gereizt, ist ja ätzend.

deekey777
2005-10-03, 02:54:57
Problematisch wirds, wenn Leute mit Hintergrundinformationen bewußt Informationen streuen, die nur provozieren - die Diskussion mag unterhaltsam anzuschauen sein, der tatsächliche Wert des Ganzen liegt dafür irgendwie unterm Bauchnabel.

Bisher habe ich das im R520-Thread noch nie erlebt, daß irgendwelche Infos von Leuten, die mehr wissen, gepostet wurden, um zu provozieren. Nur der Typ von hkepc nervte, aber die Gast-Funktion wurde hier ja abgeschaltet.


Ist ja alles richtig, schätzen kann man ja auch - nur verkennen die meisten hier den Zweck des Threads! Er sollte vor Augen führen, mit welche blödsinnigen Argumenten zur Sache gegangen wird. Man kann wohl davon ausgehen, daß wir hier in etwa ein Ergebnis sehen, das der "Glaubenfrage" und der "Glaubensfrage SE" nahe kommt.
Man muß ja nicht jedes Posting lesen. Doch einige Postings hier sind beinahe Spam.

Mein Gott, bin ich grad gereizt, ist ja ätzend.
Bist du nicht, wenn du so vernünftig diskutierst. :)

Ailuros
2005-10-03, 02:55:28
Mal an die frische Luft gehen? Kamillentee? Den Ton etwas mäßigen?

Ich hasse Kamillentee :biggrin:

Problematisch wirds, wenn Leute mit Hintergrundinformationen bewußt Informationen streuen, die nur provozieren - die Diskussion mag unterhaltsam anzuschauen sein, der tatsächliche Wert des Ganzen liegt dafür irgendwie unterm Bauchnabel.

Nervenkitzel so kurz vor der Veroeffentlichung wird es sowieso geben.

SKYNET
2005-10-03, 03:14:07
Mit welchem Treiber waere wohl die angebrachtere Frage...


82.03 =)

Tomcat70
2005-10-03, 03:34:48
lol, ich will umändern von "leicht absetzen" auf das letzte , hehehehehe
http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-3.jpg

MadManniMan
2005-10-03, 03:37:08
Nervenkitzel so kurz vor der Veroeffentlichung wird es sowieso geben.

Irgendwie bin ich von Natur aus geneigt, die Infomationen einiger vermeintlicher Insider höher zu schätzen, als die anderer, obgleich keine Indizien pro oder contra der jeweiligen Glaubwürdigkeit sprechen ;)

Und deekey - danke, meine Fähigkeit zur Selbsreflektion ist heut irgendwie beeinträchtigt, man sollte den Studienärger nicht ins Internet mitnehmen, schließlich kann ich hier entspannen =)

MadManniMan
2005-10-03, 03:39:52
Ich komm grad aus dem Staunen nicht mehr raus!

Tomcat zeigt, was für Informationen dieses Subforum benötigt - und ich hab grad beschlossen, entgegen aller Vernunft bald wieder in ein Desktopsystem zu investieren :usweet:

Tomcat70
2005-10-03, 03:44:15
Ich komm grad aus dem Staunen nicht mehr raus!

Tomcat zeigt, was für Informationen dieses Subforum benötigt - und ich hab grad beschlossen, entgegen aller Vernunft bald wieder in ein Desktopsystem zu investieren :usweet:

hihi :D

Ailuros
2005-10-03, 04:06:58
82.03 =)

Dann stimmt an den Zahlen was nicht....

MadManniMan
2005-10-03, 04:07:24
hihi :D

Ja, lach nur ;( Bezahl das mal mit Bafög, wo unterm Strich 100 €us bei rauskommen :D

SKYNET
2005-10-03, 04:08:12
Dann stimmt an den Zahlen was nicht....


k.a. für die zahlen lege ich meine hand auch net ins feuer... aber kommt von einer sonst immer SEHR zuverlässigen quelle! =)

Tomcat70
2005-10-03, 04:14:18
Ja, lach nur ;( Bezahl das mal mit Bafög, wo unterm Strich 100 €us bei rauskommen :D

sorry, wollt dich nicht vor den kopf stossen ;)

Ailuros
2005-10-03, 04:17:06
k.a. für die zahlen lege ich meine hand auch net ins feuer... aber kommt von einer sonst immer SEHR zuverlässigen quelle! =)

Dann schau Dir mal die Leistung bei xbit labs an und die Treiberversion dort an....

Blaze
2005-10-03, 04:23:23
Also wenn ich das hier (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg) sehe muss ich mir das lachen wirklich verkneifen... :rolleyes:

Gerade in FEAR soll die so extrem abgehen? Glaub ich nicht ;)

Edit: Auch noch n schöner Tippfehler drin... links in der Tabelle steht oben wo eigentlich XT stehen soll XL :tongue:

Aber wenn das wirklich stimmt was drin steht kann sie HDR+AA ... fragt sich bloß wie schnell :ugly:

Karümel
2005-10-03, 09:17:31
(X)R520 kann sich leicht absetzten

"Muß" eigentlich schon so sein, weil ATI die Karte später auf den Markt schmeißt und eine langsamer Karte können die sich eigentlich nicht erlauben.

Obwohl, kommt darauf an wie ATI und NVidia in der nächsten Runde Ihre Treiber "optimieren" ;D

LovesuckZ
2005-10-03, 09:57:22
Also wenn ich das hier (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg) sehe muss ich mir das lachen wirklich verkneifen... :rolleyes:


512 mb gegen 256mb Speicher.
Aber für 549€ ist die Karte auch über 100€ teurer als die GTX.
Schlimmer sieht es bei der XL aus, die sich kaum absetzen kann, aber ebenfalls 100€ mehr kosten wird.

MikBach
2005-10-03, 10:29:17
@Demi

geht es hier nur um Speed oder das Gesamtpaket (Speed, Features, BQ...)?

Wenn nur Speed:
[X]Unentschieden

Wenn Gesamtpaket:
[X]R520 vernichtet alles.

Habe noch nicht gevotet und warte auf Antwort. :)

Demirug
2005-10-03, 10:33:03
@Demi

geht es hier nur um Speed oder das Gesamtpaket (Speed, Features, BQ...)?

Wenn nur Speed:
[X]Unentschieden

Wenn Gesamtpaket:
[X]R520 vernichtet alles.

Habe noch nicht gevotet und warte auf Antwort. :)

Das musst du für dich selbst entscheiden. Gerade beim Gesamtpaket hat ja sowieso jeder anderer Preferencen.

Monger
2005-10-03, 10:36:42
Viel Spass beim tippen.

Du machst diesen Poll doch nur, weil du ganz genau die Antwort weißt, oder? :D


[x] r520 vernichtet ALLES

Ist zwar völlig unrealistisch, aber wer weiß ?!?
Ich hoffe vorallem darauf, dass ATI ein paar Features hat die die Bildqualität deutlich heben. Es ist ja nicht abwegig, dass der r520 mindestens das bietet was im Catalyst 5.9 versteckt ist, und das scheint ja gar nicht uninteressant zu sein...

Sowieso: mit verbesserter Bildqualität wäre nVidia derzeit am allereinfachsten zu schlagen. Der r520 wäre dann vielleicht nicht schneller, würde aber aufgrund seiner Features ausser Konkurrenz laufen.

Demirug
2005-10-03, 10:38:43
Du machst doch diesen Poll doch nur, weil du ganz genau die Antwort weißt, oder? :D

Nein, den dafür bräuchte ich unabhängie Benchmarks. Aber die habe ich nicht.

Monger
2005-10-03, 10:40:16
Nein, den dafür bräuchte ich unabhängie Benchmarks. Aber die habe ich nicht.

Aso. Ich hab schon gedacht, du würdest wiedermal unter NDA stehen, und hättest schon längst eine Testkarte bei dir rumfahren ;)

Demirug
2005-10-03, 10:41:14
Aso. Ich hab schon gedacht, du würdest wiedermal unter NDA stehen, und hättest schon längst eine Testkarte bei dir rumfahren ;)

Testkarten laden im Testlabor und das ist definitive nicht bei mir.

dr_mordio
2005-10-03, 10:48:26
r520 kann sich leicht absetzen. vorallem in der BQ. und das zählt für mich mehr, als die pure leistung.

MfG
Alex

MikBach
2005-10-03, 10:54:02
r520 kann sich leicht absetzen. vorallem in der BQ. und das zählt für mich mehr, als die pure leistung.

Sehe ich auch so. Nur ist bei mir die BQ so wichtig, dass ich für:
[x]R520 vernichtet alles.. vote.

mrt
2005-10-03, 10:58:39
Ich nehm Unentschieden mal für Ausgeglichen her.
G70 wird wohl der schnellste bleiben, R520 wird dafür die bessere BQ haben.

MikBach
2005-10-03, 11:09:52
G70 wird wohl der schnellste bleiben,
Laut den Folien sieht das aber anders aus..
Als ich die deutliche Überlegenheit bei FEAR gesehen habe, dachte ich, dass ATI Verarschung betreibt und 6xMSAA gegen 8xS gebencht hat. Dies ist aber nicht der Fall. :eek:

R520 wird dafür die bessere BQ haben.
Und bessere Features...
Deswegen ist der R520 auf jeden Fall überlegen. Wie sehr...das muss jeder für sich entscheiden.

BTW was spricht noch für den G70?

Hakim
2005-10-03, 11:49:21
Am besten wäre wenn beide karten ähnlich gut wären.

A.Wesker
2005-10-03, 11:56:55
Laut den Folien sieht das aber anders aus..
Als ich die deutliche Überlegenheit bei FEAR gesehen habe, dachte ich, dass ATI Verarschung betreibt und 6xMSAA gegen 8xS gebencht hat. Dies ist aber nicht der Fall. :eek:

Und bessere Features...
Deswegen ist der R520 auf jeden Fall überlegen. Wie sehr...das muss jeder für sich entscheiden.

BTW was spricht noch für den G70?
daß man schon seit monaten alles in hohen auflösungen +AA/AF zocken konnte. der R520 wird wie der G70 in den nächsten games dafür aber nicht mehr schnell genug sein.

Ronny145
2005-10-03, 11:58:05
BTW was spricht noch für den G70?

Der Preis warscheinlich.

Coda
2005-10-03, 11:59:02
Laut den Folien sieht das aber anders aus..
Als ich die deutliche Überlegenheit bei FEAR gesehen habe, dachte ich, dass ATI Verarschung betreibt und 6xMSAA gegen 8xS gebencht hat. Dies ist aber nicht der Fall. :eek:Ich denke mal dass da der Speicher limitiert beim G70.

BTW was spricht noch für den G70?Shaderleistung und Füllrate. Außerdem könnte nVIDIA womöglich doch noch winkelunabhängiges AF anbieten, damit dürfte der wohl größte Vorteil von R520 fallen.

mrt
2005-10-03, 11:59:48
Laut den Folien sieht das aber anders aus..
Als ich die deutliche Überlegenheit bei FEAR gesehen habe, dachte ich, dass ATI Verarschung betreibt und 6xMSAA gegen 8xS gebencht hat. Dies ist aber nicht der Fall.

Gut nur sind das PR-Folien und wie die Ergebnisse in FEAR zustande gekommen sind wissen wir auch nicht.
Der G70 hat den Füllratenvorteil auf seiner Seite, zudem hat er wohl auch noch die höhere Shaderleistung. Der R520 hat vor allem hochgetakteten Speicher und den kann nVIDIA auch verbauen, wenn sie wollen. Daher G70 wird der schnellere bleiben, wenn sein muss dann in einer gtx EE was auch immer Version.

Was die Features angeht, da seh ich den R520 auch im Vorteil, obwohl dies in unabhängigen Tests noch bestätigt werden muss.

MikBach
2005-10-03, 12:01:31
daß man schon seit monaten alles in hohen auflösungen +AA/AF zocken konnte.
:|
Geschichtsschreiber?
Ich mein jetzt für die Zukunft...
Wenn sich jemand bald eine Graka zulegen wollte, ist er mit R520 deutlich besser bedient, oder siehst du das anders?

der R520 wird wie der G70 in den nächsten games dafür aber nicht mehr schnell genug sein.
Glaskugel?

PingpiN
2005-10-03, 12:01:35
Ich Tippe auf gleichstant.Werd mir ne X1600 kaufen auch wenn sie langsamer ist als das gegenstück von Nvidia.Ich brauch AVIVO. :biggrin:

Fruli-Tier
2005-10-03, 12:03:28
Ich nehm Unentschieden mal für Ausgeglichen her.
G70 wird wohl der schnellste bleiben, R520 wird dafür die bessere BQ haben.
So ähnlich denke ich mir das auch.

MikBach
2005-10-03, 12:04:38
Shaderleistung und Füllrate.
Kann ich mir nichts für kaufen...
Was interessiert, sind (Spiele)Benchmarks. :)

Außerdem könnte nVIDIA womöglich doch noch winkelunabhängiges AF anbieten, damit dürfte der wohl größte Vorteil von R520 fallen.
Die Hoffnung stirbt ja bekanntermassen zuletzt. :wink:
Aber ich lass mich gerne überraschen. :)

Was denkst du Coda, kann der G70 winkelunabhängig per Hardware?

LovesuckZ
2005-10-03, 12:04:47
Wenn sich jemand bald eine Graka zulegen wollte, ist er mit R520 deutlich besser bedient, oder siehst du das anders?


Begruendung?

StefanV
2005-10-03, 12:09:21
@Demi

geht es hier nur um Speed oder das Gesamtpaket (Speed, Features, BQ...)?

Wenn nur Speed:
[X]Unentschieden

Wenn Gesamtpaket:
[X]R520 vernichtet alles.

Habe noch nicht gevotet und warte auf Antwort. :)
Genau daran dachte ich als ich mein erstes Posting in diesem Thread verfasste :)

Speed ist nunmal nicht alles...

Winter[Raven]
2005-10-03, 12:12:56
Genau daran dachte ich als ich mein erstes Posting in diesem Thread verfasste :)

Speed ist nunmal nicht alles...

Interessant wie sich die FanATIker jetzt um 180° gedreht haben in Ihrer Ansicht... RESPEKT!

MikBach
2005-10-03, 12:13:09
Begruendung?
Siehe meine anderen Posts in dem Thread, oder brauchst du eine Zusammenfassung?

Kladderadatsch
2005-10-03, 12:13:49
bei 625 mhz core- und 750 mhz speichertakt wird wohl ati das rennen machen. aber nv ist da wohl offensichtlich in der besseren lage- wenn die erst einmal ihre taktraten hochschrauben, hinkt ati wieder hinterher. also alles wie immer;)

wird der r580 bereits mehr als 20 pipes haben?

SKYNET
2005-10-03, 12:14:09
Genau daran dachte ich als ich mein erstes Posting in diesem Thread verfasste :)

Speed ist nunmal nicht alles...


ach, nun auf einmal... :rolleyes:

ich sage nur R4x0 vs. NV4x, immer wieder toll zusehn wie sich gewisse leute was zurecht biegen. :lol:

Demirug
2005-10-03, 12:14:45
Und bessere Features...

Du weißt was ATI dich wissen lassen will...

MikBach
2005-10-03, 12:15:02
wird der r580 bereits mehr als 20 pipes haben?
Ich denke nicht, einfach mehr ALUs.

MikBach
2005-10-03, 12:16:23
Du weißt was ATI dich wissen lassen will...
Hehe,
ich denke nicht dass AVIVO ein Gespenst ist... :)

Mr. Lolman
2005-10-03, 12:16:33
ach, nun auf einmal... :rolleyes:

ich sage nur R4x0 vs. NV4x, immer wieder toll zusehn wie sich gewisse leute was zurecht biegen. :lol:

Was hat den der NV4x für BQ Vorteile? HDR ohne AA? OGSAA?

LovesuckZ
2005-10-03, 12:18:40
Siehe meine anderen Posts in dem Thread, oder brauchst du eine Zusammenfassung?

Ja, gerne.

Demirug
2005-10-03, 12:20:44
Hehe,
ich denke nicht dass AVIVO ein Gespenst ist... :)

Davon sprach ich ja gar nicht. Allerdings ist bei den Hardwarecodes auch bei ATI schon mal auch merkwürdiges passiert.

Ich sprach eigentlich von den Dingen die nicht auf den Folien stehen.

Coda
2005-10-03, 12:21:34
Kann ich mir nichts für kaufen...
Was interessiert, sind (Spiele)Benchmarks. :) Korrekt. Aber auch da sehe ich bis auf den Speichertakt keinen großen Vorteil für R520.

Die Hoffnung stirbt ja bekanntermassen zuletzt. :wink:
Aber ich lass mich gerne überraschen. :)

Was denkst du Coda, kann der G70 winkelunabhängig per Hardware?Schwer zu sagen. Noch "winkelabhängieres" kann er auf jedenfall, was nicht ausschließt dass die TMU da auch noch ins positive hin konfigurierbar ist.

Hehe,
ich denke nicht dass AVIVO ein Gespenst ist... Avivo wird nur viele auch einfach nicht interessieren - mich eingeschlossen.

SKYNET
2005-10-03, 12:22:09
Was hat den der NV4x für BQ Vorteile? HDR ohne AA? OGSAA?


HDR, SSAA, SM3.0....

MikBach
2005-10-03, 12:22:28
Ja, gerne.
Extra für dich: :)

- AVIVO
- 6XTSAA
- Winkelunabhängigkeit (bei NV ungewiss)
- AA + HDR

Coda
2005-10-03, 12:26:34
Also ich bin mit 4xRG auch zufrieden, die Kanten sind gut genug gelättet um nicht aufzufallen.

Was für mich wirklich ausschlaggebend wäre, ist dass R520 wu AF hat. Wenn nVIDIA da aber nachzieht werd ich mir wohl einfach eine 2. GTX statt ner X1800XT holen ;)

sulak
2005-10-03, 12:27:57
Extra für dich: :)

- 6XTSAA
- Winkelunabhängigkeit (bei NV ungewiss)


Das sind aber keine Tatsachen...

6x TSAA steht so nicht in der Folie, da muss man prüfen ob das einfach zu aktivieren ist oder das Spiel es extra unterstützen muss, zumal es wohl ein HL2 Zaun ist ^^

Die Winkelunabhängigkeit sieht mehr nach einem Rechteck aus denn einem Kreis was es dann sein sollte ^^ 45° Winkel sind sehr spitz auf dem Miniscreen, abwarten.

Coda
2005-10-03, 12:28:46
6x TSAA steht so nicht in der Folie, da muss man prüfen ob das einfach zu aktivieren ist oder das Spiel es extra unterstützen muss, zumal es wohl ein HL2 Zaun ist ^^Es kann sein, dass bei ATi das TSAA etwas mehr einbricht, aber selbst R300 kann es.

Die Winkelunabhängigkeit sieht mehr nach einem Rechteck aus denn einem Kreis was es dann sein sollte ^^ 45° Winkel sind sehr spitz auf dem Miniscreen, abwarten.Das ist normal, das war bei nV-Karten vor NV40 auch so.

MikBach
2005-10-03, 12:30:17
Korrekt. Aber auch da sehe ich bis auf den Speichertakt keinen großen Vorteil für R520.
Shaderleistung ist nicht alles. Sie muss in der Praxis auch gut umsetzbar sein.
Siehe FX.

Schwer zu sagen. Noch "winkelabhängieres" kann er auf jedenfall, was nicht ausschließt dass die TMU da auch noch ins positive hin konfigurierbar ist.
Ausschliessen darf man es nicht, jedoch wären dafür wahrscheinlich weitere Transis notwendig.
Lassen wir uns überraschen. Ich denke es ist sinnlos weiter darüber zu diskutieren. Falls NV bald winkelunabhängig bringt, wäre es sicherlich von Vorteil. So müssen wir erstmal davon ausgehen, dass NV es nicht kann...
zumindest bis sie das Gegenteil bewiesen haben. :)

Avivo wird nur viele auch einfach nicht interessieren - mich eingeschlossen.
Echt? Da denke ich aber anders. Das Multimedia-Wohnzimmer ist stark im kommen.
Für mich ist es ein tolles Feature, auch wenn es nichts mit 3d zu tun hat.

Hauwech
2005-10-03, 12:30:41
Im Zeifelsfall wird Nvidia eine GTX2, GTXE, GTXU oder sonstwas nachschieben. Hoeher takten und schnelleren Speicher verbauen ist zumindest fuer den G70 kein Problem imho. Quadro Karten lassen gruessen und einige Hersteller zeigen, dass es auch so moeglich ist (zB XFX).

Wie die Sache mit der Bildqualitaet aussieht, muessen erst unabhaengige Tests zeigen. Solche Testbilder sagen gar nichts aus, sehen aber soweit ganz gut aus und sind definitiv ein Pluspunkt fuer ATI. Ob sie sich denn bewahrheiten muss man sehen.

Speedmaessig eher Gleichstand. Mal G70 vorne, mal R520.

BQmaessig im Moment auf jeden Fall ein + fuer ATI allerdings basierend auf PR-FOLIEN!

Featuremaessig schwer zu sagen, im Moment auch ein leichtes + fuer ATI.

A.Wesker
2005-10-03, 12:32:06
:|
Geschichtsschreiber?
Ich mein jetzt für die Zukunft...
Wenn sich jemand bald eine Graka zulegen wollte, ist er mit R520 deutlich besser bedient, oder siehst du das anders?

Glaskugel?

glaskugel: Nein

damit die neuen games (fear, Quake 4 , Prey in 1920x1200 spielbar sind) bedarf es schon eine ordentliche portion an mehrleistung (ca 30%-50%) und daran glaube ich mit 16 pp nicht.

"Wenn sich jemand bald eine Graka zulegen wollte, ist er mit R520 deutlich besser bedient, oder siehst du das anders?"

um das beurteilen zu können, bräuchte ich die glaskugel :>

MikBach
2005-10-03, 12:33:51
HDR, SSAA,
Akzeptiert, wobei auf einem NV40 eher für Vorführungszwecke brauchbar, da bei neuen Spielen keine ausreichende Performance, ausserdem kein AA bei FP16-HDR.

SM3.0....
SM3.0 bringt per se keine bessere BQ.
Oder hast du Besipiele?

Coda
2005-10-03, 12:33:52
Shaderleistung ist nicht alles. Sie muss in der Praxis auch gut umsetzbar sein.
Siehe FX.Ich meinte praxisrelevante Shaderleistung. G70 hat immerhin ~2x soviel wie NV4x obwohl nur 1,5x soviel Füllrate da ist.

Ausschliessen darf man es nicht, jedoch wären dafür wahrscheinlich weitere Transis notwendig.nVIDIA hat bei sowas eigentlich noch nie an Transistoren gespart.

Echt? Da denke ich aber anders. Das Multimedia-Wohnzimmer ist stark im kommen.
Für mich ist es ein tolles Feature, auch wenn es nichts mit 3d zu tun hat.Ich habe meinen PC aber nicht im Wohnzimmer stehen und werde es auch nicht tun. Und wenn dann will ich da sicher keine dröhnende X1800XT.

SM3.0 bringt per se keine bessere BQ.
Oder hast du Besipiele?Die Devs werden nach R520 für SM2.0 keine vollwertigen Fallbacks mehr anbieten. Viel zu viel Aufwand.

MikBach
2005-10-03, 12:34:43
"Wenn sich jemand bald eine Graka zulegen wollte, ist er mit R520 deutlich besser bedient, oder siehst du das anders?"

um das beurteilen zu können, bräuchte ich die glaskugel :>
Dafür brauchst keine Glaskugel. Schau dir das Gesamtpaket an...:)

A.Wesker
2005-10-03, 12:36:42
Dafür brauchst keine Glaskugel. Schau dir das Gesamtpaket an...:)
solang die ergebnisse + BQ direkt von ati kommen sind diese nicht haltbar, oder glaubst du an die folien von nVidia?

Demirug
2005-10-03, 12:41:00
Die Devs werden nach R520 für SM2.0 keine vollwertigen Fallbacks mehr anbieten. Viel zu viel Aufwand.

Ein Wort: INTEL

Ja, als Entwickler müsste man Intel eigentlich hassen. Aber hass ist so desktruktiv.

Coda
2005-10-03, 12:41:40
Fallbacks ja. Aber nicht vollwertig.

Demirug
2005-10-03, 12:41:40
Dafür brauchst keine Glaskugel. Schau dir das Gesamtpaket an...:)

Das kann er doch gar nicht.

MikBach
2005-10-03, 12:44:28
Ich meinte praxisrelevante Shaderleistung. G70 hat immerhin ~2x soviel wie NV4x obwohl nur 1,5x soviel Füllrate da ist.
Und trotzdem ist der R520 anscheinend schneller in FEAR, wo massig Shaderleistung gebraucht wird.

nVIDIA hat bei sowas eigentlich noch nie an Transistoren gespart.
Dein Wort in Nvidias Ohr.


Ich habe meinen PC aber nicht im Wohnzimmer stehen und werde es auch nicht tun. Und wenn dann will ich da sicher keine dröhnende X1800XT.
Es wird auch leise Versionen (Silencer, Zalman) geben... :wink:
Mag ja sein, dass es für dich nicht wichtig ist, zur Zeit sehe ich das ähnlich.
Nur sind aus meinem Bekanntenkreis schon einige scharf auf die neue Generation von ATI und das HAUPSÄCHLICH wegen AVIVO. Die haben aber auch Beamer/Plasma/Rückpro.

Winter[Raven]
2005-10-03, 12:47:42
MikBach

Komm mal wieder von deinem Hyperzweig mal wieder auf den Boden der Tatsachen, wie Demirug schon mehrmals geschrieben hat, handelt es sich bei den Folien um Marketing. Warte die unabhänigen Tests an und poste nicht wieder irgendwelche Behauptungen die du nicht belegen kannst...!

Coda
2005-10-03, 12:49:20
Es wird auch leise Versionen (Silencer, Zalman) geben... :wink:
Mag ja sein, dass es für dich nicht wichtig ist, zur Zeit sehe ich das ähnlich.
Nur sind aus meinem Bekanntenkreis schon einige scharf auf die neue Generation von ATI und das HAUPSÄCHLICH wegen AVIVO. Die haben aber auch Beamer/Plasma/Rückpro.Ich will passiv im Wohnzimmer und das ist dann eine X1300XT. Da mag AVIVO ja sinnvoll sein, aber bei einer High-End 3D-Grafikkarte geht es mir echt am A**** vorbei.

Überhaupt ist Avivo auch hauptsächlich Hype. nVIDIAs Videoprozessor ist auch frei programmierbar und dürfte das meiste genauso können mit einem Treiberupdate.

MikBach
2005-10-03, 12:49:47
']MikBach

Komm mal wieder von deinem Hyperzweig mal wieder auf den Boden der Tatsachen, wie Demirug schon mehrmals geschrieben hat, handelt es sich bei den Folien um Marketing. Warte die unabhänigen Tests an und poste nicht wieder irgendwelche Behauptungen die du nicht belegen kannst...!
Dann werd mal konkret, ich bin bodenständig. :D
Was passt dir nicht?

PS wir sind hier im Spekuforum. :wink:

Coda
2005-10-03, 12:51:06
Das Fear durchgängig doppelt so schnell auf R520 als auf G70 ist ist ausgeschlossen.

Ich nehme an man hat solange die Auflösung hochgedreht bis man ans 256MiB Speicherlimit stieß. Schon klar, dass der G70 dann einbricht.

Blaze
2005-10-03, 12:53:51
Das Fear durchgängig doppelt so schnell auf R520 als auf G70 ist ist ausgeschlossen.

Ich nehme an man hat solange die Auflösung hochgedreht bis man ans 256MiB Speicherlimit stieß. Schon klar, dass der G70 dann einbricht.

Endlich mal einer ders kapiert hat... ;)

MikBach
2005-10-03, 12:54:05
Ich will passiv im Wohnzimmer und das ist dann eine X1300XT. Da mag AVIVO ja sinnvoll sein, aber bei einer High-End 3D-Grafikkarte geht es mir echt am A**** vorbei.
Wenn man aber noch am Beamer zocken will..? :wink:


Überhaupt ist Avivo auch hauptsächlich Hype. nVIDIAs Videoprozessor ist auch frei programmierbar und dürfte das meiste genauso können mit einem Treiberupdate.
Was NV nicht alles kann...
Winkelunabhängig, AVIVO,... interessant.
Woher nimmst du die Sicherheit?
Solang NV es nicht beweist, ist es nur Speku.
AVIVO von ATI ist definitiv KEINE Speku. Die Winkelunabhängigkeit auch, wie es aussieht.

Solange Nvidia nicht bewisen hat, dass sie es auch drauf haben, können sie erstmal nichts... :D

MikBach
2005-10-03, 12:57:30
Das Fear durchgängig doppelt so schnell auf R520 als auf G70 ist ist ausgeschlossen.

Ich nehme an man hat solange die Auflösung hochgedreht bis man ans 256MiB Speicherlimit stieß. Schon klar, dass der G70 dann einbricht.
Die Auflösung ist doch 1600x1200, also recht üblich...

Klar, dass ATI nicht in allen Szenen von Fear doppelt so schnell wie NV ist...


Mal 1,2 Mal, mal 2,8 Mal so schnell... :D
Scherz. :)

Redneck
2005-10-03, 13:00:23
[X] vernichtet alles

,weil ich sehr viele DVDs auf meinem Monitor ansehe (selten am Fernseher)

a) großen Wert auf gute Qualtiät bei der Videowiedergabe lege (Avivo)
b) gespannt bin auf die ups/downscale Möglichkeiten von Avivo (gut um
größere TFTs in ihrer nativen Auflösung zu betreiben, wenn z.B. lediglich
Material in PAL Auflösung vorliegt)
c) HDMI mitbringt und ich somit hoffentlich gut gerüstet bin für HDTV
d) ich erstaunt bin über die bisher verbreitete performance (hätte nicht damit gerechnet.... ich war dem Pipeline Wahn verfallen ;-) )
e) trotz all der genannten goodies der Hunger auf Strom gemäßigt ausfallen "soll"

Für mich ist entscheidend , welche Performance die Karte bringt, wenn ich sie
vom Karton in den Rechner gesteckt habe..... Punkt.
Mir ist völlig egal, daß viele NV Anhänger Belege vorlegen koenen, daß
die GTX overclocked schneller ist als "X1800whatsoever" (ich übertakte
keine EUR 450-500 Karte.... jedenfalls nicht am Anfang Ihres Lebenszyklusses ;-)

----------------------------------------------------------------------
was ich schlecht finde :

a) den preis
b) das die karte so spät kommt (warte schon so lange um damit mein neues
System zu bestücken)

-----------------------------------------------------------------------

Gruß

Redneck
2005-10-03, 13:15:36
']Interessant wie sich die FanATIker jetzt um 180° gedreht haben in Ihrer Ansicht... RESPEKT!

Nur , diese Karte wird Speed UND Bildqualität bringen (gehe mal davon aus
, daß dem Marktgeschrei auch etwas folgt).
Wat nu ?

Achso... ich vergaß.... NV wird einfach schnellere Bausteine auf die Karten löten
und schon hat man Ati in beiden Punkten wieder eingeholt %-)

dargo
2005-10-03, 13:22:06
Das Fear durchgängig doppelt so schnell auf R520 als auf G70 ist ist ausgeschlossen.

Ich nehme an man hat solange die Auflösung hochgedreht bis man ans 256MiB Speicherlimit stieß. Schon klar, dass der G70 dann einbricht.
Wieso geht man immer davon aus, daß es eine X1800XT mit 512MB war ?
Zumindest hier (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg) kann ich nichts zur Speicherausstattung der X1800XT rauslesen.
Oder übersehe ich was ?

Blaze
2005-10-03, 13:36:37
Wieso geht man immer davon aus, daß es eine X1800XT mit 512MB war ?
Zumindest hier (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg) kann ich nichts zur Speicherausstattung der X1800XT rauslesen.
Oder übersehe ich was ?

Weil die 256er noch weniger Chancen hätte ich Fear irgendwas zu reissen, von daher wirds schon die 512er gewesen sein.

dargo
2005-10-03, 13:45:32
Weil die 256er noch weniger Chancen hätte ich Fear irgendwas zu reissen, von daher wirds schon die 512er gewesen sein.
Aha, was macht dich denn so sicher ?
Hast du schon eine X1800XT bei dir im Rechner ? ;)

Xmas
2005-10-03, 13:51:40
Wieso geht man immer davon aus, daß es eine X1800XT mit 512MB war ?
Zumindest hier (http://www.techpowerup.com/reviews/ATI/R5XX/images/X1800-1.jpg) kann ich nichts zur Speicherausstattung der X1800XT rauslesen.
Oder übersehe ich was ?
Weil man im allgemeinen mit den besseren Ergebnissen wirbt.

deLuxX`
2005-10-03, 13:53:20
Ist doch logisch, dass auf einem solchen PR-Papierchen natürlich die dickste Karte zum benchen genommen wird, oder?

Die Leute hier im Thread sollten mal einen kühlen Kopf bewahren und einen Schritt weg vom Geschehen gehen um das Ganze etwas nüchterner zu betrachten.

-deLuxX`

dargo
2005-10-03, 13:54:41
Weil man im allgemeinen mit den besseren Ergebnissen wirbt.
Wenn ATI wirklich eine X1800XT 512MB gegen eine G7800GTX 256MB antreten liess, war das die größte Verarsche seitens ATI.

Edit:
Aber mal was anderes.
Die getestete X1800XT soll bei Painkiller (Expansion) knapp 20% und bei Farcry (Regullator) knapp über 30% schneller sein wie eine G7800GTX.

Wie hoch ist der Grafikspeicherbedarf bei den beiden Games in 1600x1200 4xAA/8xAF ???
Ich glaube kaum, daß der über 256MB liegt.

MikBach
2005-10-03, 13:58:02
Wenn ATI wirklich eine X1800XT 512MB gegen eine G7800GTX 256MB antreten liess, war das die größte Verarsche seitens ATI.
Warum das?
Dann hätten sie die stärkste ATI gegen die stärkste NV gebencht.
Wo ist die Verarsche?

deLuxX`
2005-10-03, 13:58:48
Wenn sie das gleiche kosten würde nicht.

Wenn das Wörtchen wenn nicht wär, wär mein Vater Millionär, gelle? :tongue:

-deLuxX`

Jesus
2005-10-03, 14:01:01
kommt das ding morgen raus? :eek:

deLuxX`
2005-10-03, 14:02:38
Offizieller Launch ist am 5.10.
Verfügbar soll die X1800XT aber anscheindend erst ab dem 5.November sein. Mehr oder weniger Paperlaunch also.

-deLuxX`

dargo
2005-10-03, 14:04:56
Warum das?
Dann hätten sie die stärkste ATI gegen die stärkste NV gebencht.

Nicht wirklich. Bis die X1800XT mit 512MB verfügbar ist wird es sicherlich eine G7800GTX mit 512MB geben. ;)


Wo ist die Verarsche?
Weil F.E.A.R anscheinend in 1600x1200 4xAA/8xAF mehr als 256MB Vram braucht, deswegen.

MikBach
2005-10-03, 14:10:56
Nicht wirklich. Bis die X1800XT mit 512MB verfügbar ist wird es sicherlich eine G7800GTX mit 512MB geben. ;)
Ich finde es zwar auch nicht die feine englische Art, imo hätten sie die 256MB-Version nehmen sollen.
Wenn sie aber schon eine 512MB-Version in den Händen haben...
Gibt es schon eine 512MB-G70?
Ich denke nicht, also vergleicht man die 2 besten zum Test erhältlichen Karten.
Nvidia hätte ja zum Test eine 512MB-Version bringen können. Wer hindert sie daran?

Blaze
2005-10-03, 14:13:13
Aha, was macht dich denn so sicher ?
Hast du schon eine X1800XT bei dir im Rechner ? ;)

Warum preist ATi die 512MB denn so groß an wenn sie nachher doch nur mit 256 benchen? :|

Sie wollen zeigen was ihre stärkste Karte im Vergleich zum G70 kann...und das ist nunmal die 512er Variante ;)

Xmas
2005-10-03, 14:14:10
Da dieser "Test" von ATI vorgenommen wurde, können sie natürlich eigene Karten nehmen, die noch einen Monat nicht verfügbar sein werden.

dargo
2005-10-03, 14:15:42
Gibt es schon eine 512MB-G70?

Zu kaufen zwar noch nicht, aber im NV-Labor bestimmt.

Black-Scorpion
2005-10-03, 14:17:18
Wenn ATI wirklich eine X1800XT 512MB gegen eine G7800GTX 256MB antreten liess, war das die größte Verarsche seitens ATI.
Was kann ATI dafür das nVidia keine 512MB Karte hat? ;)

Und du glaubst doch nicht wirklich das nVidia das nicht genauso gemacht hätte.

Ailuros
2005-10-03, 14:18:34
Was kann ATI dafür das nVidia keine 512MB Karte hat? ;)

Und du glaubst doch nicht wirklich das nVidia das nicht genauso gemacht hätte.

Kann jemand mal so aus Ulk die pre-release NV30 Marketing Papiere von NV ausgraben?

MikBach
2005-10-03, 14:20:53
Kann jemand mal so aus Ulk die pre-release NV30 Marketing Papiere von NV ausgraben?
Lieber nicht, sonst lachen wir uns noch alle tod... ;D

PS du willst doch nicht die Missgeburt NV30 mit einem G70 oder R520 vergleichen? :)

LovesuckZ
2005-10-03, 14:26:35
- AVIVO

Ist das nicht das Gegenstueck für Purevideo? Warten wir doch erstmal Ergebnisse ab, auch nach dem 8x.xx Treiber.

- 6XTSAA

Dafür gibt es bei nVidia die reinrassigen SS Modien, zwar nur OG - Muster, aber immerhin.

- Winkelunabhängigkeit (bei NV ungewiss)

Der einzige richtige und kaufentscheidene Punkt. Da gebe ich dir recht und hoffe, dass nVidia nachzieht, entweder per Treiber oder mit der naechsten Generation.

- AA + HDR

Wie bei AVIVO sollte man hier erstmal richtige Test abwarten. Im schlimmsten Fall kann es sich nur um ein Checkbox - Feature handeln, aehnlich der Shaderleistung unter DX9 des NV3x.

/edit: Ausserdem sollte man immer beachten, dass es am Mittwoch nur die XL zu kaufen gibt, die preislich bei 450€ liegt, aber nur das Gegenstueck zur GT darstellt (Taktrate 500/500). Es wird interessant, ob die 512MB version der XT überhaupt am 5. November in Deutschland erhaeltlich sein werde oder auch mit den X1600 Karten auf den Markt kommt.

dargo
2005-10-03, 14:30:57
Die getestete X1800XT soll bei Painkiller (Expansion) knapp 20% und bei Farcry (Regullator) knapp über 30% schneller sein wie eine G7800GTX.

Wie hoch ist der Grafikspeicherbedarf bei den beiden Games in 1600x1200 4xAA/8xAF ???
Kann mir niemand diese Frage beantworten ?

Blaze
2005-10-03, 14:32:09
ATi hätte es machen müssen wie NV: Gleich zum Launch die stärkste Karte anbieten...an jedem Tag den es länger dauert bis die Karte im Handel ist werden die Leute den G70 kaufen weil sie schlichtweg kein Bock mehr haben auf den Karnevalsverein zu warten :tongue:

MikBach
2005-10-03, 14:37:42
Ist das nicht das Gegenstueck für Purevideo? Warten wir doch erstmal Ergebnisse ab, auch nach dem 8x.xx Treiber.
Kann der G70 H.264? :wink:
Das Gegenstück ist es keinesfalls...

Dafür gibt es bei nVidia die reinrassigen SS Modien, zwar nur OG - Muster, aber immerhin.
Wer braucht den noch SSAA, wenn man TAA hat, wo die Bandbreite nicht so extrem leidet, wie beim SSAA?
Und wie du schon richtig bemerkt hast ist ordered grid nicht das Wahre..



Wie bei AVIVO sollte man hier erstmal richtige Test abwarten. Im schlimmsten Fall kann es sich nur um ein Checkbox - Feature handeln, aehnlich der Shaderleistung unter DX9 des NV3x.
Zaubern kann ATI auch nicht...
Wenn AA mit HDR geht, ist es wahrscheinlich langsam...

Ailuros
2005-10-03, 14:57:50
Lieber nicht, sonst lachen wir uns noch alle tod... ;D

PS du willst doch nicht die Missgeburt NV30 mit einem G70 oder R520 vergleichen? :)

Nein keinesfalls; nur um zu erinnern was kreatives marketing anstellen kann.

reunion
2005-10-03, 15:02:50
Außerdem könnte nVIDIA womöglich doch noch winkelunabhängiges AF anbieten, damit dürfte der wohl größte Vorteil von R520 fallen.

Davon wird seit der NV4x-Veröffentlichung debattiert, bis jetzt kam schlicht nichts dabei raus. Könnte G70 winkelunabhängiges AF, würde nV dies zumindest durch eine versteckten Schalter anbieten. Denn damit würde man sicherlich deutlich mehr Kunden für sich gewinnen können. ATi-Karten könnte man ja weiterhin mit dem winkelanhängigen-AF Vergleichen.

seahawk
2005-10-03, 15:10:07
Die R520 schlägt den G70 um bis zu über 90%.

dildo4u
2005-10-03, 15:12:27
Die R520 schlägt den G70 um bis zu über 90%.
Mit einer X1800XT mit 512mb dürften solche Späße wie 2560*1500 mit 4XAA mit 9 zu 17fps kein Problem sein wenn man sie gegen ein GTX mit 256mb antreten lässt.

A.Wesker
2005-10-03, 16:07:10
Kann mir niemand diese Frage beantworten ?
die werte sind denk ich mal reine wunschvorstellungen seitens des produzierer, wie es bei folien nunmal so ist :>

256 MB reichen locker aus (auch für höhere auflösungen)

Blaire
2005-10-03, 16:12:08
die werte sind denk ich mal reine wunschvorstellungen seitens des pruduzierer, wie es bei folien nunmal so ist :>

256 MB reichen locker aus (auch für höhere auflösungen)

Da gabs doch auch in der letzten PCGH einen Test drüber, momentan machen 512MB kaum einen Sinn.

Hakim
2005-10-03, 16:20:02
Ich halte nix vom PR benchs....NV sagt auch ständig bis zu 3 mal schneller blabla...erst unabhänige benchs zeigen was sache ist.

Blaze
2005-10-03, 16:26:34
Da gabs doch auch in der letzten PCGH einen Test drüber, momentan machen 512MB kaum einen Sinn.

Außer bei CoD2...obwohl das bis zur Final hoffentlich auch noch gefixt wird.

A.Wesker
2005-10-03, 16:36:44
Außer bei CoD2...obwohl das bis zur Final hoffentlich auch noch gefixt wird.
hm das kann ich net bestätigen.. habe auf 1920x1200 2AA/16AF HQ min 40 FPS.

Blaze
2005-10-03, 16:40:16
hm das kann ich net bestätigen.. habe auf 1920x1200 2AA/16AF HQ min 40 FPS.

P-M Power ;)

Hab 1280x1024 -4xAA/8xAF- min. FPS von 25... :down:

Blaire
2005-10-03, 16:43:53
Außer bei CoD2...obwohl das bis zur Final hoffentlich auch noch gefixt wird.

Selbst wenn der Unterschied bei diesem Setting messbar ist, spielbar ist er derzeit auf keinen Fall. ;) Vieleicht mit der nächsten Generation. :D

Ronny145
2005-10-03, 16:44:14
hm das kann ich net bestätigen.. habe auf 1920x1200 2AA/16AF HQ min 40 FPS.

Wie willst du das bestätigen? Da müsstest du jetzt noch eine GTX mit 512 MB einbauen und testen. Das wird aber schwer. Bei amdzone hatten die eine XL mit 512 MB, das macht eine Menge aus in der Demo.

A.Wesker
2005-10-03, 16:45:05
Wie willst du das bestätigen? Da müsstest du jetzt noch eine GTX mit 512 MB einbauen und testen. Das wird aber schwer. Bei amdzone hatten die eine XL mit 512 MB, das macht eine Menge aus in der Demo.
was von amdzone zu halten ist, weiß denk ich mal jeder :;>

dildo4u
2005-10-03, 16:46:12
Wie willst du das bestätigen? Da müsstest du jetzt noch eine GTX mit 512 MB einbauen und testen. Das wird aber schwer. Bei amdzone hatten die eine XL mit 512 MB, das macht eine Menge aus in der Demo.
Beta Demo genau wie die Fear demo da würde ich noch abwarten.

Ronny145
2005-10-03, 16:48:44
Beta Demo genau wie die Fear demo da würde ich noch abwarten.

Das ist mir schon klar.

@A.Wesker: War klar das die Ausrede kommt. Du kannst deswegen immernoch nichts bestätigen, ohne 512 MB Karte zum Vergleich.

tombman
2005-10-03, 17:56:13
ich werfe mal nen paar zahlen für F.E.A.R in 1600x1200 4xAA/16xAF in die runde
26fps vs. 30fps vs. 42fps.

viel spass beim raten was wo zu gehört. :biggrin:


[edit] wers richtig hat bekommt nen lutscher, natürlich zur selbstabholung bei mir! =)

7800GTX-X1800XT-7800"ULTRA" :cool:

MikBach
2005-10-03, 18:17:49
7800GTX-X1800XT-7800"ULTRA" :cool:
7800GTX-7800"ULTRA"-X1800XT :D

Würde ja in etwa mit den 90% übereinstimmen, die der R520 in Fear schneller sein soll. :wink:

dargo
2005-10-03, 18:18:37
die werte sind denk ich mal reine wunschvorstellungen seitens des produzierer, wie es bei folien nunmal so ist :>

256 MB reichen locker aus (auch für höhere auflösungen)
Dann könnte doch eine X1800XT mit "nur" 256MB getestet worden sein (die Werte mal außen vorgelassen) oder ?

sulak
2005-10-03, 18:32:18
Wenns denn eine gibt mit 256MB gibt, die taucht ja in den Dokumenten leider nicht auf, aber ne X1800XL gegen ne G7800GT ist mal interessant, die Karten gleichen sich ja.

dargo
2005-10-03, 18:39:00
Wenns denn eine gibt mit 256MB gibt, die taucht ja in den Dokumenten leider nicht auf, aber ne X1800XL gegen ne G7800GT ist mal interessant, die Karten gleichen sich ja.
Doch, es gibt auch eine X1800XT mit 256MB.
http://www.techpowerup.com/reviews/ATI/R5XX/images/x1800.jpg

aths
2005-10-03, 18:40:39
Demirug, von dir hätte ich eine differenzierte Fragestellung erwartet. Beide Chips haben ihre jeweiligen Stärken. Falls der neue AF-Modus im R520 was taugen sollte, interessiert mich z. B. nicht, ob der G70 in Benchmarks vorne liegt.

Sunrise
2005-10-03, 18:45:43
Demirug, von dir hätte ich eine differenzierte Fragestellung erwartet. Beide Chips haben ihre jeweiligen Stärken. Falls der neue AF-Modus im R520 was taugen sollte, interessiert mich z. B. nicht, ob der G70 in Benchmarks vorne liegt.

Das geht mir ähnlich.

MikBach
2005-10-03, 18:46:20
Demirug, von dir hätte ich eine differenzierte Fragestellung erwartet. Beide Chips haben ihre jeweiligen Stärken.
Da muss ich dir Recht geben, ich war auch bisschen irritiert:
@Demi

geht es hier nur um Speed oder das Gesamtpaket (Speed, Features, BQ...)?

Wenn nur Speed:
[X]Unentschieden

Wenn Gesamtpaket:
[X]R520 vernichtet alles.


Falls der neue AF-Modus im R520 was taugen sollte, interessiert mich z. B. nicht, ob der G70 in Benchmarks vorne liegt.
Naja, ein Krücke darf der R520 auch mit perfektem AF nicht sein, was ich aber nicht glaube...

Jesus
2005-10-03, 18:51:54
Demirug, von dir hätte ich eine differenzierte Fragestellung erwartet. Beide Chips haben ihre jeweiligen Stärken. Falls der neue AF-Modus im R520 was taugen sollte, interessiert mich z. B. nicht, ob der G70 in Benchmarks vorne liegt.

Er wird schon seine Gründe haben... :rolleyes:

MikBach
2005-10-03, 18:55:51
Er wird schon seine Gründe haben... :rolleyes:
Worauf willst du hinaus?
Demi wollte es bestimmt recht einfach machen. Nur ist für einige hier die Frage zu unpräzise, andere kommen jedoch mit der Fragestellung zurecht...

Coda
2005-10-03, 18:57:34
Was NV nicht alles kann...
Winkelunabhängig, AVIVO,... interessant.Winkelunabhängigkeit kann sein. Es ist nur für mich nur wahrscheinlich, dass es NV4x kann.

Der Videoprozessor ist frei programmierbar, da er verschiedene Codecs verarbeiten kann. Sowas verdrahtet man nicht in HW.

Überhaupt: Was hindert mich momentan daran mit einer nVIDIA-Karte auf einem Beamer zu spielen? Das fehlen von HDMI?

deekey777
2005-10-03, 19:01:09
Demirug, von dir hätte ich eine differenzierte Fragestellung erwartet. Beide Chips haben ihre jeweiligen Stärken. Falls der neue AF-Modus im R520 was taugen sollte, interessiert mich z. B. nicht, ob der G70 in Benchmarks vorne liegt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3535990&postcount=10133

Er wollte nur, daß wir den R520-Thread nicht zumüllen.
...

Überhaupt: Was hindert mich momentan daran mit einer nVIDIA-Karte auf einem Beamer zu spielen? Das fehlen von HDMI?
Wenn der Rechteinhaber dies explizit wünscht.

Coda
2005-10-03, 19:05:30
Es gibt momentan keine API um von einer Applikation HDMI anzufordern, es kann nur sein, dass der Beamer kein DVI hat. Ich kenn mich da nicht aus, ist das häufig der Fall?

MikBach
2005-10-03, 19:07:55
Winkelunabhängigkeit kann sein. Es ist nur für mich nur wahrscheinlich, dass es NV4x kann.
Schade nur, dass wir seit über einem Jahr nichts davon gesehen haben...
Was verleitet dich also zu dieser Annahme?

Der Videoprozessor ist frei programmierbar, da er verschiedene Codecs verarbeiten kann. Sowas verdrahtet man nicht in HW.

Überhaupt: Was hindert mich momentan daran mit einer nVIDIA-Karte auf einem Beamer zu spielen? Das fehlen von HDMI?
Kann der G70 auch H.264?

MadManniMan
2005-10-03, 19:09:20
Demis Intention war sarkastisch und alles andere als ernst gemeint - nur, weil man nicht von ihm gewohnt ist, heißt es nicht, daß er keinen Humor hätte :|

Coda
2005-10-03, 19:10:45
Es gibt momentan keine API um von einer Applikation HDMI anzufordern, es kann nur sein, dass der Beamer kein DVI hat. Ich kenn mich da nicht aus, ist das häufig der Fall?

Schade nur, dass wir seit über einem Jahr nichts davon gesehen haben...
Was verleitet dich also zu dieser Annahme?Die zu perfekte Blume mit den genauen Abstufungen und dass der Treiber auf "High Performance" sogar noch auf 90° Winkelabhängigkeit umschalten kann.

Kann der G70 auch H.264?Sagt dir "frei programmierbar" etwas? Er kann mindestens einen Teil davon übernehmen, wenn nicht alles.

Demirug
2005-10-03, 19:16:23
Demirug, von dir hätte ich eine differenzierte Fragestellung erwartet. Beide Chips haben ihre jeweiligen Stärken. Falls der neue AF-Modus im R520 was taugen sollte, interessiert mich z. B. nicht, ob der G70 in Benchmarks vorne liegt.

Wenn du den Ursprung des Threads kennen würdest wäre dir wahrscheinlich die auch die stark simplifizierte Fragestellung verständlich.

Es ging gestern Nacht lediglich darum die Eskalation genau dieser simplifizierte Frage in dem anderen Thread zu verhinden. Da aber wohl denoch bei einigen Bedarf nach dieser Eskalation bestand habe ich diese mit dem Poll in einen anderen Kanal umgeleitet.

MikBach
2005-10-03, 19:25:35
Die zu perfekte Blume mit den genauen Abstufungen und dass der Treiber auf "High Performance" sogar noch auf 90° Winkelabhängigkeit umschalten kann.
Ist höchstens ein Indiz, aber noch lange kein Beweis.

Sagt dir "frei programmierbar" etwas? Er kann mindestens einen Teil davon übernehmen, wenn nicht alles.
Frei programmierbar bedeutet aber auch langsam...

deekey777
2005-10-03, 19:31:02
Es gibt momentan keine API um von einer Applikation HDMI anzufordern, es kann nur sein, dass der Beamer kein DVI hat. Ich kenn mich da nicht aus, ist das häufig der Fall?

Zur Zeit sind die Grafikkarten HDCP-frei, man kann ggf. auch auf die analogen Ausgänge wie VGA oder YUV oder RGB... ausweichen. Man kann auch einen HD-LCD Fernseher mittels DVI->HDMI Kabels locker an eine Grafikkarte anschliessen, so lange der Fernseher nicht zu blöd dafür ist (sprich er verhält sich wie ein PC-Monitor).

Ob das auch für die Zukunft gibt, ist sehr fraglich, siehe Premiere HD: Wer den Premiere HD Receiver nicht an einen Fernseher mit dem HD ready Logo anschließt, wird bei einem Film aus Hollywood entweder nur PAL oder einen schwarzen Bildschirm in 1080i sehen.
Und jetzt kann man sich ein Bild für den PC machen: Wenn irgendwann HD-DVD oder Bluray-Laufwerke kommen, wird auch die nötige Abspielsoftware erscheinen, und hier kommt die Rechteverwaltung ins Spiel, wie der Film in voller HD-Auflösung ausgegeben werden darf: nur über digital+HDCP, nur digital oder digital und analog. Wer eine Grafikkarte mit HDCP hat, ist mit einem Bein auf der sicheren Seite, doch er braucht auch einen Monitor, der mit HDCP umgehen kann.

Coda
2005-10-03, 19:31:38
Ist höchstens ein Indiz, aber noch lange kein Beweis.Ich hab auch nirgends behauptet, dass es sicher ist.

Frei programmierbar bedeutet aber auch langsam...Nö. Die Prozessoren haben schon Befehle die direkt auf Videoverarbeitung maßgeschneidert sind. Auch der ATi-Prozessor ist frei programmierbar. Eigentlich legt ATi hier genauso wie mit den anderen Sachen auch nur nach und vermarket es als großartige Neuigkeit.

MikBach
2005-10-03, 19:34:27
Ich hab auch nirgends behauptet, dass es sicher ist.
Das kommt aber so rüber...:)

Nö. Die Prozessoren haben schon Befehle die direkt auf Videoverarbeitung maßgeschneidert sind. Auch Avivo ist frei programmierbar.
Prozessor ist nicht gleich Prozessor und das weisst du genau.
Dedizierte Hardware ist immer schneller. Ich weiss nicht, wie die VPs genau funktionieren, du etwa...?

Coda
2005-10-03, 19:37:01
Das kommt aber so rüber...Du solltest mal deine Faboyatitüde ablegen, dann wirst du es so verstehen wie es da steht.

Prozessor ist nicht gleich Prozessor und das weisst du genau.
Dedizierte Hardware ist immer schneller. Ich weiss nicht, wie die VPs genau funktionieren, du etwa...?Ja, nVIDIA hat dazu mal Papers gebracht.

Nein, ich bin mir ganz sicher, dass ATi kein festverdrahtetes H.264 auf dem Chip hat. Das ist völlig unlogisch die Transistor-Resourcen an einen Codec zu verschwenden, obwohl man ansonsten alles beschleunigen könnte.

Selbst DVD-Player haben heutzutage programmierbare Chips.

MikBach
2005-10-03, 19:41:07
Ja, nVIDIA hat dazu mal Papers gebracht.
Interessant...
Und das glaubst du auch alles?

Nein, ich bin mir ganz sicher, dass ATi kein festverdrahtetes H.264 auf dem Chip hat. Das ist völlig unlogisch die Transistor-Resourcen an einen Codec zu verschwenden, obwohl man ansonsten alles beschleunigen könnte.
Ich behaupte auch nicht, dass der H.264 fest verdrahtet ist, sondern ein paar Funktionen, die den H.264 beschleunigen/beschönigen, die der G70 vielleicht nicht hat...

Coda
2005-10-03, 19:42:37
Interessant...
Und das glaubst du auch alles?Eh ja, weil es wie gesagt unlogisch ist sowas fest zu verdrahten. http://graphics.tomshardware.com/graphic/20040414/images/vp-overview.jpg

Aber da es ein nVIDIA-Chip ist kann ich dich eh nicht vom Gegenteil überzeugen.

deekey777
2005-10-03, 19:43:00
Ich zitiere mal Dave Baumann:
The question on H.264 support is how much can be supported - NVIDIA say that Pure Video are basically programmable units, but that would give them a finite capacity. Can Pure Video on current units support as much of the H.264 pipeline as Avivo can? It'll be interesting to test the CPU utilisation of them both.
http://www.beyond3d.com/forum/showpost.php?p=573350&postcount=501

Man sollte etwas abwarten.

Coda
2005-10-03, 19:45:45
Genau das sollte die Frage sein: Welcher Videoprozessor denn nun schneller ist, nicht welcher mehr unterstützt. Wobei mir das mit Dual Core eh egal ist, da läuft auch H.264 flüssig komplett in Software.

MikBach
2005-10-03, 19:47:34
Eh ja, weil es wie gesagt unlogisch ist sowas fest zu verdrahten. http://graphics.tomshardware.com/graphic/20040414/images/vp-overview.jpg

Aber da es ein nVIDIA-Chip ist kann ich dich eh nicht vom Gegenteil überzeugen.
Natürlich kannst du mich davon überzeugen, nur musst du dafür zumindest Indizien haben, Beweise wären besser. :)

Aber Deekey hat es ja schon angedeutet...

MikBach
2005-10-03, 19:49:01
Genau das sollte die Frage sein: Welcher Videoprozessor denn nun schneller ist, nicht welcher mehr unterstützt.
Wer mehr unterstützt, sollte auch schneller sein, oder wann war Software schneller als Hardware?

Coda
2005-10-03, 19:49:32
Würdest du bitte auf den Link klicken. Und klar, nVIDIA verarscht die ganze Welt damit...

Wer mehr unterstützt, sollte auch schneller sein, oder wann war Software schneller als Hardware?Habe ich dir gerade nicht erklärt, dass gängige DVD-Player auch programmierbarre HW haben?
Der Befehlssatz ist natürlich auf Videoencoding und Decoding ausgelegt. ATi wird H.264 mit Sicherheit nicht fest verdrahtet haben.

MikBach
2005-10-03, 19:53:18
Würdest du bitte auf den Link klicken. Und klar, nVIDIA verarscht die ganze Welt damit...
Wie beim VP beim NV40?
Möglich... :D

Habe ich dir gerade nicht erklärt, dass gängige DVD-Player auch programmierbarre HW haben?
Klar haben sie das. Die Frage ist nur, wie gut sie mit neuen Technologien zurecht kommen...
Ist je na Prozessor unterschiedlich.

Der Befehlssatz ist natürlich auf Videoencoding und Decoding ausgelegt.
Das sagt gar nichts aus.

Coda
2005-10-03, 19:55:35
Wie beim VP beim NV40?
Möglich... :D Das ist kein Argument, weil er bei den Midrange-Chips und beim G70 sehr gut funktioniert.

Klar haben sie das. Die Frage ist nur, wie gut sie mit neuen Technologien zurecht kommen...
Ist je na Prozessor unterschiedlich.Man sollte nicht vergessen dass nV auch auf diesem Gebiet schon mehr Erfahrung gesammelt hat als ATI.

Und selbst wenn, die Beschleunigung von G70 für H.264 auf modernen CPUs sollte locker für flüssiges abspielen ausreichen. Who cares?

MikBach
2005-10-03, 20:01:57
Das ist kein Argument, weil er bei den Midrange-Chips und beim G70 sehr gut funktioniert.
Ach, kein Argument. Nur weil Nvidia uns damals verarscht hat, ist es kein Argument, oder wie?

Man sollte nicht vergessen dass nV auch auf diesem Gebiet schon mehr Erfahrung gesammelt hat als ATI.
Zeiten ändern sich... :D
Im Ernst, der VP von Nv ist zwar sehr gut, aber man kann es sicherlich toppen.

Und selbst wenn, die Beschleunigung von G70 für H.264 auf modernen CPUs sollte locker für flüssiges abspielen ausreichen. Who cares?
Ja super...
Ausreden dass die CPU es eh schafft gelten nicht. Die Frage ist wer ist besser/schneller. :)

Coda
2005-10-03, 20:04:29
Ach, kein Argument. Nur weil Nvidia uns damals verarscht hat, ist es kein Argument, oder wie?Es ist wohl ein Unterschied ob man eine Folie erfindet zu einem nicht vorhandenen Bauteil einer Karte, oder man einen HW-Fehler eingestehen muss.

Ja super...
Ausreden dass die CPU es eh schafft gelten nicht. Die Frage ist wer ist besser/schneller. :)Mag ja sein, aber nach deiner Sichtweiße ist sowieso schon erledigt wer gewonnen hat. Man sollte die Dinge etwas kritischer sehen. ATi tut so als hätten sie das Rad neu erfunden...

MikBach
2005-10-03, 20:15:19
Es ist wohl ein Unterschied ob man eine Folie erfindet zu einem nicht vorhandenen Bauteil einer Karte, oder man einen HW-Fehler eingestehen muss.
Hast du die Folie schon vollständig verifiziert?
Das denke ich nicht. Deswegen solltest du dir auch keine Urteile darüber erlauben.
Die Folien vom VP beim NV40 waren auch echt. Steht oft noch auf der Verpackung drauf....

Mag ja sein, aber nach deiner Sichtweiße ist sowieso schon erledigt wer gewonnen hat. Man sollte die Dinge etwas kritischer sehen. ATi tut so als hätten sie das Rad neu erfunden...
Was heisst hier meine Sichtweise?
Ich sehe die Dinge kritisch. ATI hat das Rad bestimmt nicht neu erfunden und wie gesagt ist der VP bei Nvidia sehr gut, nur vielleicht ist der VP von ATI besser...? :wink:

Demirug
2005-10-03, 20:31:16
Ach Jungs diese Videoprozessoren hat weder nVidia noch ATI erfunden. Diese Dinger gibt es eigenständige Chips für Set-Top Boxen usw. schon länger.

Und ja die werden programmiert da es im Prinzip nichts anderes als schnelle Signalprozessoren für Integer Berechnungen sind meist mit einer Einheit für schnelles FFT. Bei den sogenannten Medien Prozessoren findet man dann in der Regel auch gleich noch die ganzen IOs die man so braucht (DVI, TV, Ton, usw) mit im gleichen Chip.

Black-Scorpion
2005-10-03, 20:48:51
Man sollte die Dinge etwas kritischer sehen. ATi tut so als hätten sie das Rad neu erfunden...
Kritisch und einseitig scheint bei dir das selbe zu sein.

Und Ati hat das Rad bestimmt nicht neu erfunden.

Aber du stellst den VP so dar als ob das eine Glanzleistung von nVidia war.
Meinst du ernsthaft das die das Ding erfunden haben?

Und ob nVidia darin wirklich mehr Erfahrung wie ATI hat ist die andere Frage.

MikBach
2005-10-03, 20:50:06
Ach Jungs diese Videoprozessoren hat weder nVidia noch ATI erfunden. Diese Dinger gibt es eigenständige Chips für Set-Top Boxen usw. schon länger.
Hat ja niemand behauptet.
In kleineren Strukturgrössen lassen diese sich auch recht einfach integrieren.

Und ja die werden programmiert da es im Prinzip nichts anderes als schnelle Signalprozessoren für Integer Berechnungen sind meist mit einer Einheit für schnelles FFT. Bei den sogenannten Medien Prozessoren findet man dann in der Regel auch gleich noch die ganzen IOs die man so braucht (DVI, TV, Ton, usw) mit im gleichen Chip.
Und was sagt mir das jetzt über die H.264-Fähigkeiten aus...? :rolleyes:

Demirug
2005-10-03, 20:55:02
Und was sagt mir das jetzt über die H.264-Fähigkeiten aus...? :rolleyes:

Das man die Dinger im Prinzip für jeden Codec programmieren kann. Das Problem dabei ist aber immer die Leistung. Also welche Auflösung bekommt man bei welcher Bildfrequenz gesichert dekodiert. Je komplexer der Codec desto kleiner werden diese Werte und irgendwann macht es halt einfach keinen Sinn mehr das von dem Videoprozessor machen zu lassen. Über das Leistungsvolumen ihrere Videolösungen schweigen sich aber nVidia wie auch ATI sehr beharlich aus.

MikBach
2005-10-03, 21:02:00
Das man die Dinger im Prinzip für jeden Codec programmieren kann. Das Problem dabei ist aber immer die Leistung. Also welche Auflösung bekommt man bei welcher Bildfrequenz gesichert dekodiert. Je komplexer der Codec desto kleiner werden diese Werte und irgendwann macht es halt einfach keinen Sinn mehr das von dem Videoprozessor machen zu lassen.
Das ist DER Punkt.
Deswegen kann ich auch solche Verallgemeinerungen, wie von Coda (sorry:() nicht akzeptieren.


Über das Leistungsvolumen ihrere Videolösungen schweigen sich aber nVidia wie auch ATI sehr beharlich aus.
Und das zurecht, denn die Hadrware-Leistung dürfte echten DVD-Playern recht unterlegen sein.

aths
2005-10-03, 21:09:23
Du solltest mal deine Faboyatitüde ablegen, dann wirst du es so verstehen wie es da steht.Mit Mikbach zu diskutieren ist ermüdend. Er fordert laufend Beweise und hat selbst keine anzubieten.

Mag ja sein, aber nach deiner Sichtweiße ist sowieso schon erledigt wer gewonnen hat. Man sollte die Dinge etwas kritischer sehen. ATi tut so als hätten sie das Rad neu erfunden...Sichtweise. Ich habe dir ca. 3 PMs dazu geschrieben.

Natürlich tut ATI so, als würde der Chip totale Neuheiten bringen. Ist bei Nvidia ja auch nicht anders.

aths
2005-10-03, 21:13:58
Naja, ein Krücke darf der R520 auch mit perfektem AF nicht sein, was ich aber nicht glaube...Der R520 kann kein perfektes AF. Vom Gesamtpaket vernichtet er den G70 keineswegs, ATI bringt aber einen Chip der mit dem G70 gut mithalten kann.

MikBach
2005-10-03, 21:14:02
Mit Mikbach zu diskutieren ist ermüdend. Er fordert laufend Beweise und hat selbst keine anzubieten.
Du aber... :rolleyes:

Natürlich tut ATI so, als würde der Chip totale Neuheiten bringen. Ist bei Nvidia ja auch nicht anders.
Wer hätte das gedacht... :)

MikBach
2005-10-03, 21:17:10
Der R520 kann kein perfektes AF.
Der NV20 auch nicht wirklich...

Vom Gesamtpaket vernichtet er den G70 keineswegs, ATI bringt aber einen Chip der mit dem G70 gut mithalten kann.
Zur Zeit sieht es aber mehr als nur mithalten aus... :D

aths
2005-10-03, 21:17:42
Du aber... :rolleyes: Gelegentlich habe ich Infos, die ich nicht offiziell habe. Nebenbei weiß ich sogar, was die Shader-Befehle ddx und ddy machen, die der R520 ja auch beherrscht.

MikBach
2005-10-03, 21:19:09
Gelegentlich habe ich Infos, die ich nicht offiziell habe. Nebenbei weiß ich sogar, was die Shader-Befehle ddx und ddy machen, die der R520 ja auch beherrscht.
OT:
und daran willst dich jetzt aufziehehen?
Nicht die feine englische Art... :)

aths
2005-10-03, 21:22:04
Der NV20 auch nicht wirklich...Kann er es denn unwirklich? Der NV20 kann nach meinen Informationen bessere anisotrope Filterung als R520.

Zur Zeit sieht es aber mehr als nur mithalten aus... :DDas hängt davon ab, welche Benchmarks man zu Rate zieht. Mehr dazu gibts jetzt von meiner Seite noch nicht.

aths
2005-10-03, 21:23:26
OT:
und daran willst dich jetzt aufziehehen?
Nicht die feine englische Art... :)Dein Diskussionsstil auch nicht. In der absoluten Art, und ohne dass du das bieten kannst, was du von anderen forderst, ist es ermüdend.

MikBach
2005-10-03, 21:25:47
Kann er es denn unwirklich? Der NV20 kann nach meinen Informationen bessere anisotrope Filterung als R520.
Die legst du wonach fest?
Die AF-Blume?
Oder wie?

Das hängt davon ab, welche Benchmarks man zu Rate zieht. Mehr dazu gibts jetzt von meiner Seite noch nicht.
Ich warte ja auch auf die Benchmarks... :D

MikBach
2005-10-03, 21:27:38
Dein Diskussionsstil auch nicht. In der absoluten Art, und ohne dass du das bieten kannst, was du von anderen forderst, ist es ermüdend.
Ansichtsache.. :)
Ich versuche nach den Fakten zu gehen, aber das ist hier OT... :wink:

Die gelbe Eule
2005-10-03, 21:32:53
Man wird auch sehen, ob hier und da die Mehrperformance, wenn die X1800XT denn da ist, berechtigt den 549€ Preis zu bezahlen.

In den U.S.A. ist die GTX schon auf 420$ runter und auch hier gibt es sie vereinzelt für 400€. Die XL wird natürlich locker über 400€ kosten ...

Weiterhin hat ATI im Moment nichts neues im 200-350€ Segment zu bieten, da wird sich die 7800GT bald alleine sehr wohl fühlen. Das die X850 Preise fallen werden, hängt ganz von 1800PRO und LE ab, wann die kommen mögen.

aths
2005-10-03, 21:35:56
Die legst du wonach fest?
Die AF-Blume?
Oder wie?Nach meinen bisheringen Infos.

Ansichtsache.. :)
Ich versuche nach den Fakten zu gehen, aber das ist hier OT... :wink:Du bewertest die (teilweise prinzipiell nur lückenhaft zu bekommenden) Fakten so, dass ein dir genehmes Ergebnis herauskommt. Wenn keine Fakten vorliegen, muss man sich mit Vermutungen weiterhelfen. Dafür ist jeder mehr oder weniger anfällig, dass du von einigen Seiten hier (und in anderen Threads) in Kritik stehst, deutet auf einen besonders starken Faktenfilter hin.

LordDeath
2005-10-03, 21:38:01
warum machen ati und nvida denn soviel aufwand in diese videoprozessoren? hätten die das nicht einfach über normale pixelshader (oder vielleicht auch vertexshader) lösen können?

MikBach
2005-10-03, 21:40:12
Du bewertest die (teilweise prinzipiell nur lückenhaft zu bekommenden) Fakten so, dass ein dir genehmes Ergebnis herauskommt. Wenn keine Fakten vorliegen, muss man sich mit Vermutungen weiterhelfen.
Das könnte ich dir auch anhaften.
Das war dein Untertgang bei der FX.
Nichts wissen, aber den grossen Macker makieren...
Damals hast du verloren und das weisst du genau...
Also labber jetzt nicht von Fakten.


Dafür ist jeder mehr oder weniger anfällig, dass du von einigen Seiten hier (udn in anderen Threads) in Kritik stehst, deutet auf einen besonders starken Faktenfilter hin.
:lol:

Die gelbe Eule
2005-10-03, 21:44:14
OT:

Sich mit einem Mod anlegen ist mehr als dumm, aber naja ...

aths
2005-10-03, 21:58:23
warum machen ati und nvida denn soviel aufwand in diese videoprozessoren? hätten die das nicht einfach über normale pixelshader (oder vielleicht auch vertexshader) lösen können?Dekodierung von Datenströmen ist ein anderes Aufgabengebiet als das Shading von Pixeln. Die Video-Engine vom NV40 kostet nur ein paar Millionen Transistoren und macht den Kohl auch nicht mehr fett.

MikBach
2005-10-03, 21:59:55
OT:

Sich mit einem Mod anlegen ist mehr als dumm, aber naja ...
Warum?
Jeder ist hier gleich. =)
Es kommt nicht auf die Anzahl der Posts usw. an...

MikBach
2005-10-03, 22:05:11
Dekodierung von Datenströmen ist ein anderes Aufgabengebiet als das Shading von Pixeln.
Das ist durchaus korrekt. Wobei man mit Shadern die Videowiedergabe aufwerten kann.

Die Video-Engine vom NV40 kostet nur ein paar Millionen Transistoren und macht den Kohl auch nicht mehr fett.
Da hast du wohl Recht. Deshalb kann die Video-Engine nicht mit der R520-Engine mithalten...