PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R520 schon Anfang 2005?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42

Gast
2005-07-16, 04:55:23
R520 hat eine Dual-Slot Kühlung, laut dem Inquirer.

Ailuros
2005-07-16, 09:38:37
Fuad sagte respin *yippyyyyyyyy* ;D

aths
2005-07-16, 09:40:14
doch man könnte ordentliches AF mit akzeptablen leistungseinbußen anbieten.Das könnte man schon immer.

Wenn die Leistung für 16x oder 8x nicht reicht, nimmt man halt 4x oder zur Not 2x. Denn was ist nun besser: Irgendwo auch mal 16x, dafür an anderen Stellen nur 2x (scharf gegen unscharf) oder lieber gleichmäßige Texturschärfe (bzw. Unschärfe) im gesamten Bild?

mapel110
2005-07-16, 09:58:43
In der Ct steht: Man kann aber davon ausgehen, dass die Kalifornier eine Ultra-Version mit höheren Taktraten folgen lassen, sobald ATI den Konkurrenz-chip R520 präsentiert. Nach jüngsten Informationen wird dies aber erst im September geschehen.

Aber was Grafikkarten angeht, ist die Ct ja nicht so gut informiert.

Gast
2005-07-16, 10:02:01
Schonmal was von Mipmap Banding gehört... bei 4xAF kann man bei ner GF7800GTX mehrere Bugwellen ausmachen, selbst mit nem LOD+0,5 schiebt man ne Breitseite vor sich her.

ATI hat halt länger an den Filtertricks gearbeitet, deswegen fällt es da insgesammt nicht so auf, die verwischen einfach besser.

aths
2005-07-16, 10:04:42
Schonmal was von Mipmap Banding gehört... bei 4xAF kann man bei ner GF7800GTX mehrere Bugwellen ausmachen, selbst mit nem LOD+0,5 schiebt man ne Breitseite vor sich her.

ATI hat halt länger an den Filtertricks gearbeitet, deswegen fällt es da insgesammt nicht so auf, die verwischen einfach besser.ATI rechnet ungenauer, damit findet eine gewisse "Verwischung" statt.

Ailuros
2005-07-16, 10:21:44
In der Ct steht: Man kann aber davon ausgehen, dass die Kalifornier eine Ultra-Version mit höheren Taktraten folgen lassen, sobald ATI den Konkurrenz-chip R520 präsentiert. Nach jüngsten Informationen wird dies aber erst im September geschehen.

Aber was Grafikkarten angeht, ist die Ct ja nicht so gut informiert.

Der zweite Teil duerfte aber erstmal stimmen; NVIDIA wird IMO aber den 90nm Nachfolger etwa vor Weihnachten oder etwas spaeter vorstellen. ***

Es gibt einen neuestem newsblurb vom INQ der ueber 800MHz@110nm spricht. INQ wird in letzter Zeit von NV massenhaft verar***t. Ich musste gerade so lachen dass ich fast vom Sessel fiel :D

***edit: um das etwas genauer zu machen....vor einiger Zeit gab es Michael Hara's Aussage bei B3D. Dort hiess es dass es einen schnelleren NV4x geben wird im Fruehling und einen weiteren noch etwas schnelleren NV4x@90nm im Herbst. Wenn aus Fruehling Sommer wurde, dann ist es auch ziemlich logisch dass aus Herbst auch Winter wird. Der letztere ist als Konkurrenz fuer R580 gedacht IMO und nicht zu R520. Besondere Probleme gegen R520 zu konkurrieren wird der G70 sowieso nicht haben.

Tomcat70
2005-07-16, 10:46:49
Fuad sagte respin *yippyyyyyyyy* ;D

wie? was? wann? was haben wir alle verpasst? details?

Ailuros
2005-07-16, 10:52:30
wie? was? wann? was haben wir alle verpasst? details?

Nachdem er in einem vorigen newsblurb von "3 tape-outs" sprach, ist "re-spin" ein willkommener Zusatz :D

Eigentlich sind es nur 2 re-spins, aber will wollen ja nicht pingelig sein oder? :| :D

Quasar
2005-07-16, 11:26:57
AFAIK, R520 = 128 thread= 6 Bank(16 ALU per bank)

So, no more piepeline from ATI since R5XX series.
Ein doppelter Xenos? Nein, ich glaube nicht. Da wäre man ja ohne ROP-Logik schon bei locker 400M Transistoren.

Obwohl, schön wär's... :)

deekey777
2005-07-16, 16:25:47
R520 hat eine Dual-Slot Kühlung, laut dem Inquirer.

Nvidia's G71 is also dual slot (http://www.theinq.com/?article=24661)

Kann mir jemand erklären, worum es da genau gayt?

reunion
2005-07-16, 16:30:55
Nvidia's G71 is also dual slot (http://www.theinq.com/?article=24661)

Kann mir jemand erklären, worum es da genau gayt?


The "Faster G70", which is how the G71 is being called internally now, targets almost insane clock speeds. We have learned that several boards achieved a clock speed of 800MHz, which just goes to prove that tweaks being done in 110nm G71 core will make R520 tremble, and force ATI to respond with its 32-pipe R580 as soon as possible.

Noch Fragen? :D

http://img347.imageshack.us/img347/7087/17pk.jpg

http://news.mydrivers.com/pages/20050708095648_19214.htm

Ich denke nicht, dass nV noch einen neuen Core - speziell im High-End Bereich - in 110nm herstellen wird.
Wenn, dann kommt ein etwas höher getakteter G70.

TheCounter
2005-07-16, 16:34:36
The "Faster G70", which is how the G71 is being called internally now, targets almost insane clock speeds. We have learned that several boards achieved a clock speed of 800MHz, which just goes to prove that tweaks being done in 110nm G71 core will make R520 tremble, and force ATI to respond with its 32-pipe R580 as soon as possible.

Glaubt der Typ das eigentlich wirklich selber? 800MHz Chiptakt...?

Am besten noch bei 24 Pipes, und das alles in 110nm? Dann kann der R520 mit 32Pipes und >600MHz ja locker kommen :rolleyes:

r3ptil3
2005-07-16, 16:35:39
Glaubt der Typ das eigentlich wirklich selber? 800MHz Chiptakt...?

Am besten noch bei 24 Pipes, und das alles in 110nm? Dann kann der R520 mit 32Pipes und >600MHz ja locker kommen :rolleyes:

800Mhz wären unmöglich, das wären fast doppelt soviel wie beim G70.

seahawk
2005-07-16, 16:42:52
Da wäre ich doch jetzt fast vom Stuhl gefallen. Man ist der gut...

Horimoto
2005-07-16, 16:46:14
800Mhz wären unmöglich, das wären fast doppelt soviel wie beim G70.
800MHz...........wie wollen di das kühlen? reicht da ein dualslot hp kühler mit ultra-silent lüfter? Wohl kaum. das ist so, wie deren spekulationen über die GT, 24PP und 335MHz core, was sich schliesslich als falsch erwiesen hat (20PP, 400MHz)
Die 7800u wird, so denke ich mal, mit ~550MHz Core und 700MHz RAM, 512MB, kommen, im 110nm.

seahawk
2005-07-16, 16:59:51
Bei der GT wäre ich mir nicht sicher. Und die Ultra wird keine 550MHz haben - eher 500Mhz.

Horimoto
2005-07-16, 17:38:26
Bei der GT wäre ich mir nicht sicher. Und die Ultra wird keine 550MHz haben - eher 500Mhz.
Ich denke schon dass die Ultra mehr als 500 haben wird. 500 sind schon mit einer GTX zu erreichen, Gainward wird sicherlich eine mit 500 im gepäck haben. Also muss es eine noch schnellere geben, wie ich vermute mit 550MHz.
Und bei der GT ist es doch nahezu offizell, oder? PoV hat das rausgeplappert, oder?

Black-Scorpion
2005-07-16, 18:21:27
Ich denke schon dass die Ultra mehr als 500 haben wird. 500 sind schon mit einer GTX zu erreichen, Gainward wird sicherlich eine mit 500 im gepäck haben. Also muss es eine noch schnellere geben, wie ich vermute mit 550MHz.
Und bei der GT ist es doch nahezu offizell, oder? PoV hat das rausgeplappert, oder?
Wenn man sich den Thread im nVidia Forum ansieht würde ich gerade der Firma nichts glauben was Taktangaben betrifft. ;)

Gast
2005-07-16, 20:58:11
Wenn man sich den Thread im nVidia Forum ansieht würde ich gerade der Firma nichts glauben was Taktangaben betrifft. ;)
Da steht severel boards, was soviel wie einige Karten heißt. Also manche lassen sich wohl so hoch takten. Es wurde nicht behauptet, daß die Serie so hoch taktet und mit welchen mitteln dieser Takt erreicht wurde, steht auch nicht da. Wenn man hier den Hals aufreißt, und sich über Texte lustig macht, sollte man ihn vorher wenigstens richtig verstanden haben. :rolleyes:

Gast
2005-07-16, 21:01:19
Da steht severel boards, was soviel wie einige Karten heißt. Also manche lassen sich wohl so hoch takten. Es wurde nicht behauptet, daß die Serie so hoch taktet und mit welchen mitteln dieser Takt erreicht wurde, steht auch nicht da. Wenn man hier den Hals aufreißt, und sich über Texte lustig macht, sollte man ihn vorher wenigstens richtig verstanden haben. :rolleyes:
Hmm, wollte nicht Dich zitieren, war ein Versehen.

Gast
2005-07-16, 22:34:03
800MHz - net mahl mit KoKü!

dildo4u
2005-07-16, 22:38:18
800MHz - net mahl mit KoKü!

http://www.vr-zone.com.sg/Shamino/g70/11915.JPG

http://www.vr-zone.com/?i=2420&s=1

r3ptil3
2005-07-16, 22:39:45
http://www.vr-zone.com.sg/Shamino/g70/11915.JPG



! Aber trotzdem dürfte die 7800 Ultra niemals 800Mhz core-takt haben.

r3ptil3
2005-07-16, 23:27:47
R520(?) 40k in 3D Mark01?

http://www.driverheaven.net/showthread.php?t=68684

sieht aber ein wenig nach X850 XT aus wegen dem Speicherkühler...

[dzp]Viper
2005-07-16, 23:31:26
R520(?) 40k in 3D Mark01?

http://www.driverheaven.net/showthread.php?t=68684

sieht aber ein wenig nach X850 XT aus wegen dem Speicherkühler...

die quelle is eigentlich ziemlich serios oder? (Driverheaven)

aber 3dmark01.. hm... 03 wäre interessanter ^^

r3ptil3
2005-07-16, 23:34:18
Viper']die quelle is eigentlich ziemlich serios oder? (Driverheaven)

aber 3dmark01.. hm... 03 wäre interessanter ^^

Ja, ist eh nur noch CPU Limitiert der 01.

Gast
2005-07-16, 23:35:31
Ich nehm alles zurück, 810MHz! Verrückt :ucrazy2:

mapel110
2005-07-16, 23:38:45
R520(?) 40k in 3D Mark01?

http://www.driverheaven.net/showthread.php?t=68684

sieht aber ein wenig nach X850 XT aus wegen dem Speicherkühler...
Ist doch steinalt und wurde hier auch eben zum entsprechenden Zeitpunkt gepostet.

r3ptil3
2005-07-16, 23:43:18
@mapel110
sry nicht gewusst.

X900 @Hardwareschotte
http://www.hardwareschotte.de/preise.php3?catid=1100081

Adam D.
2005-07-17, 00:07:45
Glaube nicht, dass das Teil X900 heißen wird. Der Sprung ist einfach zu groß, sollte ja nicht nur ein Refresh sein.
Oder der R520 ist so schlecht, dass sich eine höhere Namensgebung nicht lohnt X-D Auch unwahrscheinlich --> Marketing :rolleyes:

Blaze
2005-07-17, 00:11:33
Wird bestimmt nicht Xsonstwas heissen, ich denk mal die überlegen sich nen neuen Namen :)

r3ptil3
2005-07-17, 00:42:16
Denke zwar auch das ein anderer Name kommt, vielleicht XI800, XI700!

Ailuros
2005-07-17, 01:38:14
Ich hoffe dass ihr endlich mitbekommen habt, dass G71 eine mainstream GPU der G7x Reihe sein wird.

Was nun die 800MHz mit der G70 betrifft, es ist zwar echt, nur eben mit einer ziemlich exotischen Kuehlungsloesung erreicht.

Damit hat sich INQ gleich zwei mal in einem newsblurb ins Bein geschossen ;)

SKYNET
2005-07-17, 03:03:59
650MHz sind beim G70 mit dualslot-kühler und mehr v-core(0.1V) sicher möglich.
15600M füllrate. ;D

Ailuros
2005-07-17, 04:12:18
650MHz sind beim G70 mit dualslot-kühler und mehr v-core(0.1V) sicher möglich.
15600M füllrate. ;D

RSX sollte eine Anzeige sein; ueberhaupt mit 700MHz GDDR3.

Gast
2005-07-17, 07:59:56
Ich nehm alles zurück, 810MHz! Verrückt :ucrazy2:Hää? Was nimmst Du zurück, zitiere mal bitte die Stelle. :confused:
Ich nehme jedenfalls gar nix zurück. ;)

Gast
2005-07-17, 09:16:31
Zitat:
Zitat von Gast
800MHz - net mahl mit KoKü!





http://www.vr-zone.com/?i=2420&s=1

Du brauchst auch nix zurücknehmen, ich war nur der Annahme verfallen, dass der G70 auch mit Kokü keine 800MHz packt und wurde eines besseren belehrt :uup:
Halte aber auch 650MHz @ default für deutlich zu hoch gegriffen :conf:

Gast
2005-07-17, 09:19:05
http://www.vr-zone.com.sg/Shamino/g70/11915.JPG

http://www.vr-zone.com/?i=2420&s=1
Von mir aus kann der G70 auch 1500 Mhz haben...
Bei der miserablen BQ will ich das Teil nicht mal geschenkt. :P

Diskutator
2005-07-17, 18:32:45
Wird bestimmt nicht Xsonstwas heissen, ich denk mal die überlegen sich nen neuen Namen :)
Stimmt!

Coda
2005-07-17, 18:37:09
Sag mal Diskutator, von welcher Quelle wirst du eigentlich so verarscht? :D

nagus
2005-07-17, 19:10:25
http://www.elitebastards.com/forum/viewtopic.php?t=11166

Tomcat70
2005-07-17, 19:48:19
ich sehe keinen sinnvollen grund der gegen die zu erwartende bezeichnung X900 bzw. X950 spricht. aber ich lass mich auch gern von einem netten neuen namen überraschen, hauptsache der inhalt ist gut :D ich freu mich schön langsam auf die r520-karten.

r3ptil3
2005-07-17, 19:49:25
Es hiess auch mal das die jetztigen X800 Karten vielleicht 9900 heissen würden, was aber nichts daraus wurde.

Tomcat70
2005-07-17, 19:53:14
Es hiess auch mal das die jetztigen X800 Karten vielleicht 9900 heissen würden, was aber nichts daraus wurde.


vielleicht wirds Z1000 oder XX10...........ehrlichgesagt hab ich null ahnung, der name spielt für mich ohnehin eine sehr untergeordnete rolle.

Gast
2005-07-17, 20:16:47
also said,heard from a computer graphics company,ATI's new generation GPU(R520) will support multithreading(128) at best,doubled the threads of R500.ATI's vice-president and engineering principal Robert Feldstein emphasized to computer graphics companies,supporting multithreading is a very important and pivotal design for R520.

gut gut

Gast
2005-07-17, 21:15:40
Is doch wieder Marketing Blub, das GPU´s schon immer Paralell mehrere Aufgaben abgearbeitet haben is doch klar.
Was soll überhaupt die Zahl da, 128-tap für AF ^^

Coda
2005-07-17, 23:19:51
Das ist nicht mal Marketing sondern FUD.

Tomcat70
2005-07-18, 14:22:31
wieder mal was zum lesen:


R520 frequency goes to 700+ MHz

http://www.theinquirer.net/?article=24698

Gast
2005-07-18, 14:27:24
frühestens ende september naja dafür wird die karte dann auch gut *zu meiner 7800gtx schau*

Coda
2005-07-18, 15:05:22
wieder mal was zum lesen:


R520 frequency goes to 700+ MHz

http://www.theinquirer.net/?article=24698Bräuchten sie auch um schneller als G70 zu sein. Ich will nur nicht die Kühllösung sehen - NV30 lässt grüßen.

Gast
2005-07-18, 15:12:52
wieder mal was zum lesen:
R520 frequency goes to 700+ MHz
http://www.theinquirer.net/?article=24698

Hmmm, habe bisher eigentlich stillschweigend angenommen, dass ATIs R520 um einiges schneller ist als nVidias 7800er. Wenn an der Meldung allerdings wirklich was drann sein sollte, dann gibt mir das doch zu denken. ATI würde den Takt wohl kaum so hoch ziehen, wenn man die 7800 auch mit 600MHz schlagen könnte. Mir scheint, die werden genau den Takt bringen um nVidia im 3dMark05 knapp zu schlagen. Wenn das 700+ MHz sein müssen...

Gast
2005-07-18, 15:17:49
Bräuchten sie auch um schneller als G70 zu sein. Ich will nur nicht die Kühllösung sehen - NV30 lässt grüßen.
Unsinn. Wie kommst Du zu so einem Falme? :|

Gast
2005-07-18, 15:20:33
Hmmm, habe bisher eigentlich stillschweigend angenommen, dass ATIs R520 um einiges schneller ist als nVidias 7800er. Wenn an der Meldung allerdings wirklich was drann sein sollte, dann gibt mir das doch zu denken. ATI würde den Takt wohl kaum so hoch ziehen, wenn man die 7800 auch mit 600MHz schlagen könnte. Mir scheint, die werden genau den Takt bringen um nVidia im 3dMark05 knapp zu schlagen. Wenn das 700+ MHz sein müssen...
Wieso? Mit 16Pipes und in 90nm ist so ein Takt (650-700Mhz) durchaus zu erwarten und nichts besonderes.

Coda
2005-07-18, 15:23:38
Unsinn. Wie kommst Du zu so einem Falme? :|Weil das Ding nunmal nur 16 Pipelines haben wird - und diese Info kommt direkt von ATi.

G70: 430Mhz*24 = 10,3 GTexel/s
R520: x*16 = 10,3 GTexel/s <=> x = 645Mhz

Und das ist nur die Füllrate. Die Shader-Leistung dürfte pro Clock*Pipeline eh schlechter sein. Ist heute aber wohl noch nicht so relevant.

Wenn sie also wirklich schneller sein wollen, sollten es schon 700+ Mhz sein. Ich bezweifle aber dass sich solche Taktraten vernünftig kühlen lassen.

seahawk
2005-07-18, 15:26:31
wieder mal was zum lesen:


R520 frequency goes to 700+ MHz

http://www.theinquirer.net/?article=24698

Hey, der hat ja mal etwas richtig. :up:

Gast
2005-07-18, 15:26:46
Wieso? Mit 16Pipes und in 90nm ist so ein Takt (650-700Mhz) durchaus zu erwarten und nichts besonderes.

Mag ja sein, aber wenn der R520 den 7800er auch bei 500MHz schlagen würde, hätte man sich die 700+ MHz-Version für später aufgespart.
Wenn ich jetzt noch bedenke, dass nVidia recht einfach den Takt des G70-Designs hochschrauben kann, dann scheint ATI weitere Leistungssteigerungen nur über eine breitere oder effizientere Architektur realisieren zu können. Schätze 2005 geht klar an nVidia.

seahawk
2005-07-18, 15:27:55
Weil das Ding nunmal nur 16 Pipelines haben wird - und diese Info kommt direkt von ATi.

G70: 430Mhz*24 = 10,3 GTexel/s
R520: x*16 = 10,3 GTexel <=> x = 645Mhz

Wenn sie also wirklich schneller sein wollen, sollten es schon 700+ Mhz sein

Und man sollte die 7800 Ultra nicht vergessen.

24*500 = 12 GTexel/s

da braucht ne R520 750MHz.

Coda
2005-07-18, 15:30:35
Rrrichtig. Und wenn nVIDIA dann noch auf die 32 Pipelines Idee kommt *scnr*

Nur schade dass G70 so einen verflucht schlechten anisotropen Filter hat :(

BodyLove
2005-07-18, 15:31:30
Weil das Ding nunmal nur 16 Pipelines haben wird - und diese Info kommt direkt von ATi.


Fakt? Oder Spekulation?

Coda
2005-07-18, 15:32:27
Fakt

[dzp]Viper
2005-07-18, 15:32:47
Weil das Ding nunmal nur 16 Pipelines haben wird - und diese Info kommt direkt von ATi.


Quelle?

Ich liebe solche haltlosen Behauptungen... :|
Ich bitte dich bei solchen Behauptungen Quellen anzugeben sonst bringt so ein Beitrag nichts! Danke

Coda
2005-07-18, 15:35:32
ATi-Engineers auf der Computex. Siehe Ailuros Post hier im Thread.

Die ganzen 24/32 und unified Geschichten sind FUD.

[dzp]Viper
2005-07-18, 15:37:14
ATi-Engineers auf der Computex. Siehe Ailuros Post hier im Thread.

Die ganzen 24/32 und unified Geschichten sind FUD.

bitte link - ich kenne den thread mit 279 seiten nicht auswendig - du kannst dich ja aber hoffentlich noch errinnern wo er es ca. gepostet hat.

Danke

Gast
2005-07-18, 15:37:14
coda was redest du nur den ganzen tag,der r520 hat 24 pipes

Coda
2005-07-18, 15:38:31
Nein hat er nicht. Und auch FUAD scheint das langsam mitzubekommen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3254077&postcount=5451

[dzp]Viper
2005-07-18, 15:41:51
Nein hat er nicht. Und auch FUAD scheint das langsam mitzubekommen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3254077&postcount=5451

sry Ailuros is zwar ein netter Member, aber er weiß auch nicht alles - und offiziell ist garnichts solange nicht von den Entwicklern direkt kommt.

Ich sag nur Marketing...

(was jetzt nicht heißt, dass er keine 16 hätte - es ist nur eben nichts bestätigt.. garnichts....)

DrumDub
2005-07-18, 15:44:23
Viper']sry Ailuros is zwar ein netter Member, aber er weiß auch nicht alles - und offiziell ist garnichts solange nicht von den Entwicklern direkt kommt.

Ich sag nur Marketing...

(was jetzt nicht heißt, dass er keine 16 hätte - es ist nur eben nichts bestätigt.. garnichts....) die hoffnung stirbt zuletzt. ;)

dildo4u
2005-07-18, 15:44:56
Viper']sry Ailuros is zwar ein netter Member, aber er weiß auch nicht alles - und offiziell ist garnichts solange nicht von den Entwicklern direkt kommt.

Ich sag nur Marketing...

(was jetzt nicht heißt, dass er keine 16 hätte - es ist nur eben nichts bestätigt.. garnichts....)
Hast du das Posting überhaupt gelesen?

Coda
2005-07-18, 15:45:28
Es steht dir zu daran zu zweifeln, aber dann sollte man sich auch mal überlegen ob man Inquirer als vertrauenswürdiger einstuft.

Und überhaupt: Warum sollte ATI aus Marketinggründen behaupten das es nur 16 Pipelines sind?

[dzp]Viper
2005-07-18, 15:46:55
Hast du das Posting überhaupt gelesen?

ja -steht nur, dass Ailuros von einem Engineer was gehört hat.... sry aber wenn die unter NDA stehen, dann labern die auch mal gerne schnell mist ;)

Aber so wie es Coda gesagt hat, ist es nicht offizielles...

[dzp]Viper
2005-07-18, 15:47:30
Es steht dir zu daran zu zweifeln, aber dann sollte man sich auch mal überlegen ob man Inquirer als vertrauenswürdiger einstuft.


tu ich das? nö

dildo4u
2005-07-18, 15:49:01
Viper']

Aber so wie es Coda gesagt hat, ist es nicht offizielles...
Warum sollte man sonst die Karre auf 700mhz pumpen und ihr einen Dual Slot Kühler verpassen.?

Gast
2005-07-18, 15:49:49
Weil das Ding nunmal nur 16 Pipelines haben wird - und diese Info kommt direkt von ATi.

G70: 430Mhz*24 = 10,3 GTexel/s
R520: x*16 = 10,3 GTexel/s <=> x = 645Mhz

Und das ist nur die Füllrate. Die Shader-Leistung dürfte pro Clock*Pipeline eh schlechter sein. Ist heute aber wohl noch nicht so relevant.

Wenn sie also wirklich schneller sein wollen, sollten es schon 700+ Mhz sein. Ich bezweifle aber dass sich solche Taktraten vernünftig kühlen lassen.
Deine Rechnung stimmt, diesen Teil habe ich nciht anzweifeln wollen. Aber wieso sind 700Mhz in 90nm mit 16Pipes nicht kühlbar?

[dzp]Viper
2005-07-18, 15:52:45
Warum sollte man sonst die Karre auf 700mhz pumpen und ihr einen Dual Slot Kühler verpassen.?

achso - jetzt is inquire aufeinmal vertrauenswürdig oder wie? :D :D


(P.S. ich glaube selber an 16 pipes und ca. 650+ mhz + dualslotkühlung... Aber man soll nicht sagen, dass es offiziell von ATI ist, wenn es eben nicht offiziell von ATI ist sondern nur durch Kontakte von Kontakten ;) )

Gast
2005-07-18, 15:52:54
Deine Rechnung stimmt, diesen Teil habe ich nciht anzweifeln wollen. Aber wieso sind 700Mhz in 90nm mit 16Pipes nicht kühlbar?

Klar sind die Kühlbar, aber man fragt sich halt schon, ob man seinen seinen Fön bei Ebay versteigern soll oder nicht...

BodyLove
2005-07-18, 15:54:47
Warum sollte man sonst die Karre auf 700mhz pumpen und ihr einen Dual Slot Kühler verpassen.?

Warum sollte das stimmen? Ich glaube ja auch daran, dass sie 16Pipes haben wird, aber die "Infos" die wir hier haben, sind alles (leider) nur Spekulationen.

Gast
2005-07-18, 15:55:11
Klar sind die Kühlbar, aber man fragt sich halt schon, ob man seinen seinen Fön bei Ebay versteigern soll oder nicht...
Ist doch Unsinn. Solange die die-Größe, Tranistorenanzahl und Spannung nicht bekannt ist, sind Aussagen zur Kühllösung absolute Raterei oder Flamerei.

dildo4u
2005-07-18, 15:58:10
Warum sollte das stimmen? Ich glaube ja auch daran, dass sie 16Pipes haben wird, aber die "Infos" die wir hier haben, sind alles (leider) nur Spekulationen.
ATI ging schon immer eher über den Takt um Leistung zu erzielen das wird insgesammt billiger für ATI weil halt auch die Kleinen versionen nur 16pipes haben halt mit weniger takt 500 oder 600 mhz.

The GAST
2005-07-18, 16:01:06
Ich finde hier im Forum gibt es Leute die ATI einfach zu sehr unterschätzen. Auch wenn die Karte nur 16 Pipelines haben sollte, wer sagt denn das dies ein Nachteil ist? Wisst ihr etwa schon über die Arschitektur des R520 bescheid??? Es könnte doch durchaus sein, das die R520 Pipelines so effektiv arbeiten, dass diese den G70 in keinem Falle fürchten müssen. Viele hier haben sich schon bei den Spekulationen über den R420 gewaltig geirrt,also akzeptiert doch einfach, dass ihr genauso unwissend seit wie alle Anderen.

Ich für meinen Teil, vertraue ATI und bin mir sicher das sie mit dem R520 ein tolles Produkt bringen werden.

BodyLove
2005-07-18, 16:02:37
Es ist wahrscheinlicher, das es 16Pipes haben wird, ja. Aber es ist eben noch nichts Handfestes. Die Anzeichen deuten eher auf einen 16Pipe-Takt-Monster hin.

Gast
2005-07-18, 16:03:09
Ist doch Unsinn. Solange die die-Größe, Tranistorenanzahl und Spannung nicht bekannt ist, sind Aussagen zur Kühllösung absolute Raterei oder Flamerei.
Klar, deswegen ist das ja auch ein Spekulationsthread. Vom Gefühl her erwarte ich halt, dass hohe Transistorenzahl und hohe Taktrate auch viel Abwärme bedeuten. Da ATI wohl auf eine Dual-Slot-Kühlung setzt scheint auch in die gleiche Richtung zu deuten. Zugegebenermaßen heißt das alles NICHT, dass die Karte laut wird. Ein Stromsparwunder wirds aber wohl nicht werden... und "große" GPU-Kühlsysteme waren bisher selten günstig und leise zugleich.

BodyLove
2005-07-18, 16:07:37
Das es eine DualSlot-Kühllösung besitzt, fände ich mal gar nicht so schlimm.Solange die Abwärme, wie bei den Silencern, "rausgepustet" wird, begrüße ich so eine Lösung sogar.

Gast
2005-07-18, 16:14:22
was ich garnicht verstehn kann ist das die extremen nv fans hier im thread streiten wie die kesselflicker obwohl sie eh nichts anderes kaufen außer nv karten .

wenn ich bayernfan bin häng ich ja auch nicht im fc köln forum rum

Tomcat70
2005-07-18, 16:18:57
was ich garnicht verstehn kann ist das die extremen nv fans hier im thread streiten wie die kesselflicker obwohl sie eh nichts anderes kaufen außer nv karten .

wenn ich bayernfan bin häng ich ja auch nicht im fc köln forum rum

ehe, jo das ist mir auch nicht ganz klar, denke mal die lieben es unruhe zu stiften und zu bashen und flamen wie es irgendwie nur erträglich ist.

wenns ihnen gefällt......

naja, wer weiss, vielleicht wird der r520 so gut das sie dann selber einen kaufen :D

Quasar
2005-07-18, 16:21:31
Ich frage mal vorsichtig: Was versteht ihr unter Pipeline? :D

deekey777
2005-07-18, 16:23:44
was ich garnicht verstehn kann ist das die extremen nv fans hier im thread streiten wie die kesselflicker obwohl sie eh nichts anderes kaufen außer nv karten .

wenn ich bayernfan bin häng ich ja auch nicht im fc köln forum rum

Ich habe seit über 2 Seiten bisher keinen einzigen "nVidia-Fan" hier gesehen. Und Coda traue ich mehr Objektivität zu als vielen, vielen Usern.
Zum Thema selbst: Ich glaube, es war aths, der sagte, daß wenn der R520 langsamer als der G70 wird, dafür aber einen vernünftig kosten wird, so könnte dieser bzw. auf dem R520 basierenden Radeon die besseren Grafikkarten werden. Wo ist das Problem? Und Dual-Slot Kühlung ist doch kein Problem, wenn sie mit Hirn umgesetzt wird, siehe X850XT/XT PE bzw. X800XL 512 MB. Oder gubt es so viele User hier, die den benachbarten PCI-Slot nutzen?
Was ATi versauen könnte, ist die Texturenfilterung, obwohl dafür keinen Grund gibt.

reunion
2005-07-18, 16:23:53
Ich will nur nicht die Kühllösung sehen - NV30 lässt grüßen.

Es ist zu früh darüber zu spekulieren IMHO.
600-700Mhz sollten möglich sein - auch ohne "Staubsauger".
Immerhin sollte die Transistorenanzahl relativ niedrig sein im Vergleich zum G70. Außerdem hat man den wesentlich fortschrittlicheren Herstellungsprozess.

deekey777
2005-07-18, 16:25:16
Ich frage mal vorsichtig: Was versteht ihr unter Pipeline? :D

Genau das ist hier die Frage. Auch die Taktangaben der VPU sind seit dem G70 alles andere als einfach so hinnehmbar.

reunion
2005-07-18, 16:25:49
Mag ja sein, aber wenn der R520 den 7800er auch bei 500MHz schlagen würde, hätte man sich die 700+ MHz-Version für später aufgespart.


Blödsinn.
Niemand verschenkt Leistung.

reunion
2005-07-18, 16:28:20
Und man sollte die 7800 Ultra nicht vergessen.

24*500 = 12 GTexel/s

da braucht ne R520 750MHz.

Bis jetzt ist eine 7800U reine Spekulation.

Hellfire-Torrod
2005-07-18, 16:29:16
Blödsinn.
Niemand verschenkt Leistung.

AUßer es dient der möglichkeit, mehr funktionsfähige chips produzieren zu können.

Gast
2005-07-18, 16:31:25
Ich finde hier im Forum gibt es Leute die ATI einfach zu sehr unterschätzen. Auch wenn die Karte nur 16 Pipelines haben sollte, wer sagt denn das dies ein Nachteil ist? Wisst ihr etwa schon über die Arschitektur des R520 bescheid??? Es könnte doch durchaus sein, das die R520 Pipelines so effektiv arbeiten, dass diese den G70 in keinem Falle fürchten müssen. Viele hier haben sich schon bei den Spekulationen über den R420 gewaltig geirrt,also akzeptiert doch einfach, dass ihr genauso unwissend seit wie alle Anderen.

Ich für meinen Teil, vertraue ATI und bin mir sicher das sie mit dem R520 ein tolles Produkt bringen werden.

Denke ich auch, man kann die Pipelines heutzutage nicht mehr in die selbe Schublade stecken.

Weiß eigentlich irgendjemand über R520 und GDDR4 unterstützung bescheid?

reunion
2005-07-18, 16:31:26
Viper']Quelle?

Ich liebe solche haltlosen Behauptungen... :|
Ich bitte dich bei solchen Behauptungen Quellen anzugeben sonst bringt so ein Beitrag nichts! Danke


Er hat 16 Pipelines, definitv.
Das sollte schon lange klar sein - wenn man INQ nicht alles glaubt.

reunion
2005-07-18, 16:32:58
Warum sollte man sonst die Karre auf 700mhz pumpen und ihr einen Dual Slot Kühler verpassen.?


Warum sollte man das nicht tun, wenn es möglich ist?

reunion
2005-07-18, 16:36:30
Das es eine DualSlot-Kühllösung besitzt, fände ich mal gar nicht so schlimm.Solange die Abwärme, wie bei den Silencern, "rausgepustet" wird, begrüße ich so eine Lösung sogar.


Auch beim G70 wird man den nächsten Slot unter der Karte nicht verwenden können. Eine Dual-Slot-Kühlung hat im diesem Sinne also keine Nachteile.

reunion
2005-07-18, 16:38:14
AUßer es dient der möglichkeit, mehr funktionsfähige chips produzieren zu können.

Die verkauft man dann halt als non-XT.

Hellfire-Torrod
2005-07-18, 16:41:03
Die verkauft man dann halt als non-XT.

K stimmt, Ati style eben

Ronny145
2005-07-18, 16:54:20
Er hat 16 Pipelines, definitv.
Das sollte schon lange klar sein - wenn man INQ nicht alles glaubt.

Dann wird das wohl so sein. Und wenn doch nicht, erinnere ich dich an deine Aussage :biggrin:

xL|Sonic
2005-07-18, 16:59:05
Wie sieht das dann bei Low-End und Mid-Range aus bei ATI?
Wird da nur der Takt runtergeschraubt oder wieder pipes deaktiviert?
Ich meine es dürfte doch schwer werden für ATI, wenn man wirklich nur 16 Pipes hat auch in den anderen Segmenten Nvidia Parolie zu bieten, weil NV ja immer locker die Möglichkeit hat mit den Pipes über ATI zu bleiben und dementsprechend nen niedrigeren Takt zu fahren.
Das ist in meinen Augen alles auf sehr wackligen Beinen gebaut was ATI da scheinbar vor hat.

Gast
2005-07-18, 17:26:18
Es ist zu früh darüber zu spekulieren IMHO.
600-700Mhz sollten möglich sein - auch ohne "Staubsauger".
Immerhin sollte die Transistorenanzahl relativ niedrig sein im Vergleich zum G70. Außerdem hat man den wesentlich fortschrittlicheren Herstellungsprozess.

Die Frage ist doch, wann der Zeitpunkt da ist damit ein Fertigungsprozess wesentlich fortschrittlicher ist als der andere.
Wenn die Yields und das thermische Verhalten scheisse sind, dann nützt auch der neuere Fertigungsprozess nichts.
Der NV30 sollten doch nun wirklich für alle eine Lehre gewesen sein.

Die Verspätung des R520 deutet jedenfalls eher auf Probleme bei der Fertigung hin. Ursprünglich sollte das Teil mal deutlich vor Nvidia auf dem Markt sein. Jetzt ist es anders herum und jeder Monat spätet bringt ATI schon deshalb in die PRedullie, weil Nvidia genau diese Option (kleinerer Fertigungsprozess) noch offen hat. Zudem ist der G70 sehr clever aufgebaut. Die ständigen internen Taktsprünge müssen die Leistungsaufnahme erheblich reduziert haben. Bei der X800XL war von einem super thermischen Verhalten des 0.11er Prozess bei TSMC noch nix zu merken.
Beim G70 mit 140 Mio Transistoren mehr als die X800XL kommt die Sache nun ans laufen. Da spielt das Design also auch eine ganz gehörige Portion mit.


Auch beim G70 wird man den nächsten Slot unter der Karte nicht verwenden können. Eine Dual-Slot-Kühlung hat im diesem Sinne also keine Nachteile.

Das stimmt. Der Slot unter der Graka soltle freibleiben nur bedeutet das ja auch, dass Nvidia neben der Option kleinerer Fertigungsprozess auch noch die Option Dual Slot Kühlung offen hat. Was das für das Taktverhalten des G70 bedeutet, kann sich ja jeder selbst ausmalen. Da werden dann 500MHZ und mehr möglich. Wenn ATi also vorn vorneherein auf Dual Slot Kühlung setzt, dann sollte der R520 aber möglichst schneller als der G70 sein und zwar minimum 15% im Schnitt, ansonsten wirds haarig.
Das kostet Nvidia doch ein lächeln einen fetten Kühler zu verpflanzen und als 7800Ultra nachzuschieben. Anschließend kann man dann zum Jahresende noch die 0.09er Variante starten.

Das wird noch echt interessant werden. Wenn ATI aber bei 16 Pipes bleibt ohne nennenswert höherer Pro Takt Leistung, müsste man sich schon fragen, ob sie beim NV30 nicht zugesehen haben was passiert ist.

Iwan
2005-07-18, 17:35:27
Blödsinn.
Niemand verschenkt Leistung.

wieso hat nv dann noch nicht eine ultra-version mit >500mhz gelauncht?

seahawk
2005-07-18, 17:38:12
Rrrichtig. Und wenn nVIDIA dann noch auf die 32 Pipelines Idee kommt *scnr*

Nur schade dass G70 so einen verflucht schlechten anisotropen Filter hat :(

Ich vermute, dass die das fixen. Das waäre für die GL serie an Profikarten einfach verherend.

seahawk
2005-07-18, 17:42:49
Bis jetzt ist eine 7800U reine Spekulation.

Naja, aber wie könnte eine 512MB 7800 wohl genannt werden, wenn auch der Chip höher getaktet wird und sie eine Antwort auf eine XT PE von ATI sein soll.

Ich denke diese Option ist (wenn man die Übertaktbarkeit des G70s sieht und die verwendete Kühllösung betrachtet) einfach zu offensichtlich.

seahawk
2005-07-18, 17:49:42
Wie sieht das dann bei Low-End und Mid-Range aus bei ATI?
Wird da nur der Takt runtergeschraubt oder wieder pipes deaktiviert?
Ich meine es dürfte doch schwer werden für ATI, wenn man wirklich nur 16 Pipes hat auch in den anderen Segmenten Nvidia Parolie zu bieten, weil NV ja immer locker die Möglichkeit hat mit den Pipes über ATI zu bleiben und dementsprechend nen niedrigeren Takt zu fahren.
Das ist in meinen Augen alles auf sehr wackligen Beinen gebaut was ATI da scheinbar vor hat.

Mal ne wilde Spekualtion :

ATI :

XT PE : 16 Pipes ca. 700mhz
XT : 16 Pipes ca 620-650 Mhz
PRO : 12 Pipes 600-650 Mhz
SE : 8 Pipes 550-650 MHz

NV :

7800Ultra : 24 Pipes ca. 500Mhz
7800 GTX : 24 Pipes 430 Mhz
7800 GT : 20 Pipes @ 400-430 Mhz (oder 24 Pipes @ ca. 350 Mhz)
7800 : 16 Pipes @ 350-400 Mhz (nur übergangsweise auf Basis des G70)

Horimoto
2005-07-18, 17:57:20
Mal ne wilde Spekualtion :

ATI :

XT PE : 16 Pipes ca. 700mhz
XT : 16 Pipes ca 620-650 Mhz
PRO : 12 Pipes 600-650 Mhz
SE : 8 Pipes 550-650 MHz

NV :

7800Ultra : 24 Pipes ca. 500Mhz
7800 GTX : 24 Pipes 430 Mhz
7800 GT : 20 Pipes @ 400-430 Mhz (oder 24 Pipes @ ca. 350 Mhz)
7800 : 16 Pipes @ 350-400 Mhz (nur übergangsweise auf Basis des G70)
Könnte sein, nur denke ich eher an 16US, oder sogar 24.
Oder, wie nannte ATi diese MegaPP nochmal, PP+ oder so? Die etwa 1.4 fache Leistung einer noamrlen bringt, das würde dann auch 16PP erklären.

Coda
2005-07-18, 18:18:19
Ich vermute, dass die das fixen. Das waäre für die GL serie an Profikarten einfach verherend.Im Profibereich zählt der Texturefilter überhaupt nicht. Schau dir mal AF der Wildcats an, dagegen ist das von R200 vorbildhaft...

tokugawa
2005-07-18, 18:40:28
Im Profibereich zählt der Texturefilter überhaupt nicht. Schau dir mal AF der Wildcats an, dagegen ist das von R200 vorbildhaft...

Kommt natürlich auf den "Profibereich" an. Das ist nicht nur Offline-Rendering.

Auch Visualisierung (Medizinische Visualisierung, Informations-Visualisierung), Virtual Environments/Virtual Reality, sowie die Echtzeitgrafikforschung sind "Profi-Bereiche", und bei denen ist Bildqualität schon wichtig (speziell bei letzterem, wo ich tätig bin).

Und da verwenden wir ja sogar "Consumer-Hardware", also nicht die Profi-Karten sondern die "Gamer" Karten, da unsere Forschung schließlich letztendlich auch irgendwann in Spielen landen wird.

Gast
2005-07-18, 19:10:38
Hmm, je schneller ich einen Transistor takte desto mehr Verlustwärme produziert er doch.
Nun setzt man das mal im Vergleich zu mehr Transistoren bei geringerem Takt an, was käme denn da raus?
Wir sind im Speku Forum da geht alles *g Denke das ATI da ein Problem mit der Abwärme bekommt, bei allen Firmen sieht man ja das 0,09µ SOI und was weis der Geier alles es einfach nicht bringt, wenn man zu hoch taktet, wirds einfach heiß.

Der R520 muss wie der G70 mit 600+MHz Speicher auskommen, was anderes gibts nicht, und sollte man am Bandbreitenfresser R420 nix gedreht haben, bringts nix den Chip massiv zu takten, der Schacht is einfach dicht.
Kann mir nicht vorstellen das bei einer X850XTPE noch was geht, wenn man nur den Chip auf 600+MHz prügelt und den Speicher nicht anfasst. Hat jmd OC Ergebnisse dafür?

Wen interessiert denn HEUTE Shaderperformance, wenn man höher als 6xAA fahren will in 1600x1200 *g
Dafür wird die Karte doch gebaut, kein "normalo" brauch die Karte um in 1280x1024 4xAA/16AF zu spieln. Es geht beim "Supermodell" nur um die lange Nase, und die ist immer noch durch massig Füllrate zu bekommen (solange der Speicher nicht bremmst...)

Coda
2005-07-18, 19:18:08
Kommt natürlich auf den "Profibereich" an. Das ist nicht nur Offline-Rendering.

Auch Visualisierung (Medizinische Visualisierung, Informations-Visualisierung), Virtual Environments/Virtual Reality, sowie die Echtzeitgrafikforschung sind "Profi-Bereiche", und bei denen ist Bildqualität schon wichtig (speziell bei letzterem, wo ich tätig bin).

Und da verwenden wir ja sogar "Consumer-Hardware", also nicht die Profi-Karten sondern die "Gamer" Karten, da unsere Forschung schließlich letztendlich auch irgendwann in Spielen landen wird.Ja eben, der typische Kundenkreis der eine Quadro kauft macht doch 3D-Modelling da ist AF nicht wichtig.

Das der Texturfilter des G70 eine Frechheit ist habe ich ja nicht bestritten, trotzdem wird nVIDIA wegen den Quadros daran nichts ändern imho.

r3ptil3
2005-07-18, 22:28:50
http://www.gamezoom.de/artikel/show/0,162843,1,11547.html

Die Gute Nachricht gleich vor Weg, noch vor Ende August werden wir die neuen ATI Grafikkarten zu Gesicht bekommen.
Die zweite Gute Neuigkeit, der neue R520 wird mit mindestens 600 MHz Takt am Markt erscheinen –wir rechnen sogar mit einer 680-700 MHz-Version.

Gast
2005-07-18, 22:31:31
schaut mal was computerbase den öffentlichkeit für einen quark verkauft, nv karten mit 800 mhz auweia

http://www.computerbase.de/news/hardware/grafikkarten/2005/juli/mhz-gefluester_ati_nvidia/

das schlimme an solchen news ist das kids das glauben und weiter erzählen

Coda
2005-07-18, 22:37:46
Es geht ja um G71, das ist der Mainstreampart von nVIDIA. Aber auch dann finde ich das noch etwas übertrieben, auch wenn 700+ Mhz für Mainstream in 90nm durchaus möglich sind.

wir rechnen sogar mit einer 680-700 MHz-Version.Wie gesagt, das muss ATi auch ;)

Gast
2005-07-18, 22:38:03
schaut mal was computerbase den öffentlichkeit für einen quark verkauft, nv karten mit 800 mhz auweia

http://www.computerbase.de/news/hardware/grafikkarten/2005/juli/mhz-gefluester_ati_nvidia/

das schlimme an solchen news ist das kids das glauben und weiter erzählen

steht doch dort das es nur eine blöde Speku vom Inq ist!

Demirug
2005-07-18, 22:38:11
schaut mal was computerbase den öffentlichkeit für einen quark verkauft, nv karten mit 800 mhz auweia

http://www.computerbase.de/news/hardware/grafikkarten/2005/juli/mhz-gefluester_ati_nvidia/

das schlimme an solchen news ist das kids das glauben und weiter erzählen

G71 ist ja nur ein abgespekter G70 und nachdem man ja schon einen G70 auf 800 MHz geprügelt hat liegt das durchaus im bereich des möglichen. Allerdings würde ich nicht davon ausgehen das man einen 800 MHz G71 zu kaufen bekommen wird.

Gast
2005-07-18, 22:41:32
der g70 hat ca 400 dann hat das speepgrade nicht 800 mhz also echt leute

Coda
2005-07-18, 22:42:32
Ließt du was wir schreiben? G71 ist die Mainstreamvariante mit weniger Pipelines.

Gast
2005-07-18, 22:43:31
mainstreamkarten mit 800 mhz von nv,ja natürlich

Coda
2005-07-18, 22:44:39
Und wir sagten auch, dass das vielleicht möglich ist wir es aber wir es auch nicht glauben.

700Mhz werden es aber schon werden in 90nm.

Quasar
2005-07-18, 22:46:26
G71 ist ja nur ein abgespekter G70 und nachdem man ja schon einen G70 auf 800 MHz geprügelt hat liegt das durchaus im bereich des möglichen. Allerdings würde ich nicht davon ausgehen das man einen 800 MHz G71 zu kaufen bekommen wird.
Wobei das vermutlich, da der Screenshot, den ich kenne, ausm 3DMark ist, nur die geometric clock domain ist.

deekey777
2005-07-19, 00:03:06
mainstreamkarten mit 800 mhz von nv,ja natürlich

Etwas Weiterbildung wäre nicht schlecht: Seit dem G70 kann man nicht so einfach die MHz-Zahl angeben, ohne genau zu sagen, was mit diesem Takt läuft.

mike49
2005-07-19, 01:53:59
Wobei das vermutlich, da der Screenshot, den ich kenne, ausm 3DMark ist, nur die geometric clock domain ist.

Bleiben dann aber immer noch > 750MHz Core-Takt bei einem Delta von 40MHz

Ailuros
2005-07-19, 02:10:54
Viper']sry Ailuros is zwar ein netter Member, aber er weiß auch nicht alles - und offiziell ist garnichts solange nicht von den Entwicklern direkt kommt.

Ich sag nur Marketing...

(was jetzt nicht heißt, dass er keine 16 hätte - es ist nur eben nichts bestätigt.. garnichts....)

Ich kann leider nichts bestaetigen, da ich jegliche "off the record" Aussage von jeglicher zuverlaessige Quelle aus als solche behandeln muss. Wenn eine solge Aussage aber von einem der Vaeter von R520 unterschrieben wurde (und das vor einiger Zeit), dann ist es fuer mich eine sichere Tatsache.

Sonst darf natuerlich jeder glauben was er will. Time is on my side :P

***edit: das mit den Entwicklern hab ich glatt uebersehen...seit Maerz 2005 waren R520/G70 Prototypen bei mehreren grossen ISVs erhaeltlich. Die erste (da es sich um pre-production samples handelte und vor dem letzten re-spin war auf 575MHz getaktet).

Ailuros
2005-07-19, 02:31:36
a) Bis jetzt gab es noch keine offizielle Andeutung, Angabe oder was auch immer von NVIDIA was eine sogenannte "Ultra" betrifft, ausser natuerlich dem INQ Quatsch.

Nochmal: Hara sagte auf B3D einige Zeit vor der Veroeffentlichung von G70, dass im Fruehling eine etwas schnellere Version von NV40 geplant ist und im Herbst dann eine weitere etwas schnellere Version auf 90nm.

Aus Fruehling wurde Sommer und ergo wird wohl aus Herbst dann Winter oder anders rund um Weinachten 2005 fuer die 90nm GXX.

Einen hoeher getakteten G7x@110nm zwischendrin? Der Punkt wo dieser keinen Sinn macht ist dass sich NVIDIA einige Muehe gemacht hat einen single slot design mit dynamischen Taktraten zwischen den Einheiten zu bauen, damit das 302M Monstrum keinen industriellen Luefter als Kuehlungsloesung und verrueckt hohen Stromverbrauch haben wird.

Es stehen noch einige Wochen vor der R520 Vorstellung/Verfuegbarkeit und nein man kann die Wochen nicht auf einer Hand zaehlen.

b) 700MHz ja aber.....R580 soll etwa zur gleichen Zeit mit GXX@90nm erscheinen oder etwas spaeter. Pumpt man jetzt schon R520 auf theoretische 700MHz oder hoeher, bleiben nur die extra OPs fuer R580 als Leistungsteigerung uebrig? 700MHz core mit 600MHz GDDR3 oder eben eher:

R520@620MHz (16/1/1/1), 600MHz GDDR3
R580@7x0MHz (16/1/3/1), 700MHz GDDR3

Das hier ist ein quote von einem Analysten der von Wavey auf B3D gepostet wurde:

ATI held a desktop stack teach-in to reiterate that it believes the release of its R520 is still on time and will be available in September. ATI also believes that its other high-end product is on schedule for an end of year release. Crossfire shipments are expected to ship to the channel in back half of July and ramp in August which should help ASPs as dual-GPU systems ship.

xL|Sonic
2005-07-19, 03:27:38
Ich denke, ATI braucht aufjedenfall 700Mhz um überhaupt die 7800GTX schlagen zu können. Wenn der R580 nicht mehr Pipes hat, dann kann ATI das doch gleich vergessen, weil sie doch niemals mit nem G70 @90nm konkurrieren könnten.

mapel110
2005-07-19, 03:39:40
weil sie doch niemals mit nem G70 @90nm konkurrieren könnten.
dafür wird ja auch R580 zuständig sein.

Bei den derzeitigen CPU- und Bandbreitenlimitierungen dürfte sicherlich jeder eine Rechtfertigung finden, die eine oder andere GPU zu bevorzugen. :)

Ailuros
2005-07-19, 03:54:09
Ich denke, ATI braucht aufjedenfall 700Mhz um überhaupt die 7800GTX schlagen zu können. Wenn der R580 nicht mehr Pipes hat, dann kann ATI das doch gleich vergessen, weil sie doch niemals mit nem G70 @90nm konkurrieren könnten.

Arithmetische Leistung soll ja auf R520 eigentlich leiden. Warum genau wenn ich mit den Nummern herumspiele kann ich mir immer noch nicht vorstellen, ausser das Ding ist tatsaechlich nicht ueber 8 MADDs pro Takt faehig.

Das heisst aber auch wieder nicht dass R520 ohne Vorteile sein wird, wenn ATI da optimiert hat wo sie noch etwas Zusatz brauchten.

Ein Beispiel waeren die ROPs und die stencil spezifischen Optimierungen; habe sie hier aufgeholt ist es:

G70 = 16 * 430 vs. R520 = 16 * =/>620

Ein weiteres Feld waere Vertex Shader throughput:

G70 = 860 MVertices/s vs. R520 =/> 1240 MVertices/s

usw.

Gast
2005-07-19, 04:11:04
Ich denke, ATI braucht aufjedenfall 700Mhz um überhaupt die 7800GTX schlagen zu können. Wenn der R580 nicht mehr Pipes hat, dann kann ATI das doch gleich vergessen, weil sie doch niemals mit nem G70 @90nm konkurrieren könnten.

falsch,die 7800gtx zu schlagen wird kein problem da sie nur minimal schneller als die letzte generation.

Ailuros
2005-07-19, 04:17:41
falsch,die 7800gtx zu schlagen wird kein problem da sie nur minimal schneller als die letzte generation.

ROFL....dass der Unterschied zwischen R520 und R480 kleiner sein wird als bei G70 vs. NV40 ist natuerlich nur Nebensache :D

mapel110
2005-07-19, 04:26:02
ROFL....dass der Unterschied zwischen R520 und R480 kleiner sein wird als bei G70 vs. NV40 ist natuerlich nur Nebensache :D
Hab ich auch schon vorhergesagt, siehe Signatur von Diskutator. :)

seahawk
2005-07-19, 07:34:41
a) Bis jetzt gab es noch keine offizielle Andeutung, Angabe oder was auch immer von NVIDIA was eine sogenannte "Ultra" betrifft, ausser natuerlich dem INQ Quatsch.

Nochmal: Hara sagte auf B3D einige Zeit vor der Veroeffentlichung von G70, dass im Fruehling eine etwas schnellere Version von NV40 geplant ist und im Herbst dann eine weitere etwas schnellere Version auf 90nm.

Aus Fruehling wurde Sommer und ergo wird wohl aus Herbst dann Winter oder anders rund um Weinachten 2005 fuer die 90nm GXX.

Einen hoeher getakteten G7x@110nm zwischendrin? Der Punkt wo dieser keinen Sinn macht ist dass sich NVIDIA einige Muehe gemacht hat einen single slot design mit dynamischen Taktraten zwischen den Einheiten zu bauen, damit das 302M Monstrum keinen industriellen Luefter als Kuehlungsloesung und verrueckt hohen Stromverbrauch haben wird.

Es stehen noch einige Wochen vor der R520 Vorstellung/Verfuegbarkeit und nein man kann die Wochen nicht auf einer Hand zaehlen.

b) 700MHz ja aber.....R580 soll etwa zur gleichen Zeit mit GXX@90nm erscheinen oder etwas spaeter. Pumpt man jetzt schon R520 auf theoretische 700MHz oder hoeher, bleiben nur die extra OPs fuer R580 als Leistungsteigerung uebrig? 700MHz core mit 600MHz GDDR3 oder eben eher:

R520@620MHz (16/1/1/1), 600MHz GDDR3
R580@7x0MHz (16/1/3/1), 700MHz GDDR3

Das hier ist ein quote von einem Analysten der von Wavey auf B3D gepostet wurde:

Ailuros, ich denke, dass NV bei Bedarf eine 7800Ultra auf Basis des G70@110nm nachschieben wird. Diesesmal kann man die Leistungskrone holen, und die PArtner werden darauf drängen. (Alternativ ist es auch möglich, dass NV den Boardpartnern erlaubt höher getaktete G70 mit eigener Kühllung als Ultra zu vermarkten).

Die 700Mhz halte ich momentan beim R520 für möglich, und zwar als niemals wirklich verfügbare XT PE (reviewer edition). Beim R580 würde man dann die XT so takten und sie wäre auch verfügbar. (Während man die XT PE gegen 750 Mhz treibt). ATI ist sehr auf die Leistungskrone fixiert.

Die massenverfübaren R520 werden allerdings in dem von Dir beschreibenen Taktbereich liegen.

g70@90nm soll ja momentan "very well" sein.

q@w
2005-07-19, 10:56:45
Bleiben dann aber immer noch > 750MHz Core-Takt bei einem Delta von 40MHz
Ja, für einen 0,09µ Mid-Range Chip, der vermutlich ein ausgesuchtes Sample darstellt, bei weiß Gott was für einer Kühlung.

Wo lag der OC-Record für eine 6600GT (0,11µ) noch gleich? Sind doch bestimmt auch 600-650 MHz mit NO2/Kompressor.

Da halte ich ein Delta von 100 MHz für einen feineren Prozess schon für das Mininum dessen, was man erwarten kann.

reunion
2005-07-19, 11:29:38
wieso hat nv dann noch nicht eine ultra-version mit >500mhz gelauncht?


Wieso geht jeder davon aus, dass nV noch einen Ultra-Version mit >500Mhz launchen wird?

micki
2005-07-19, 11:34:58
Wieso geht jeder davon aus, dass nV noch einen Ultra-Version mit >500Mhz launchen wird?
1. seit der gf2 gibt es immer ne ultra version falls es nötig war ati in performance zu schlagen, afaik
2. es gab oft ultra versionen die lange nicht verfügbar waren auf dem markt, aber trotzdem in den reviews dann nv die schnellste graka zusprachen
3. die g70 lässt sich wohl gut hochtakten
4. was für ne wahl hat nv falls der r520 die zZ schnellste nv-karte schlägt?

MfG
micki

mapel110
2005-07-19, 12:00:23
1. seit der gf2 gibt es immer ne ultra version falls es nötig war ati in performance zu schlagen, afaik
2. es gab oft ultra versionen die lange nicht verfügbar waren auf dem markt, aber trotzdem in den reviews dann nv die schnellste graka zusprachen
3. die g70 lässt sich wohl gut hochtakten
4. was für ne wahl hat nv falls der r520 die zZ schnellste nv-karte schlägt?

MfG
micki
2. Beispiele?
4. Noch weitere 2-3 Monate zu warten, bis man 0.09-Chip loslassen kann.

Ailuros
2005-07-19, 12:04:57
Ailuros, ich denke, dass NV bei Bedarf eine 7800Ultra auf Basis des G70@110nm nachschieben wird. Diesesmal kann man die Leistungskrone holen, und die PArtner werden darauf drängen. (Alternativ ist es auch möglich, dass NV den Boardpartnern erlaubt höher getaktete G70 mit eigener Kühllung als Ultra zu vermarkten).

Die Alternative ist schon da; BFG OC ist schon mit 460MHz verfuegbar. Ihr spekuliert ueber quasi 3 refreshes innerhalb von etwa 6 Monaten. Logischerweise lohnt sich es nicht.

Die 700Mhz halte ich momentan beim R520 für möglich, und zwar als niemals wirklich verfügbare XT PE (reviewer edition). Beim R580 würde man dann die XT so takten und sie wäre auch verfügbar. (Während man die XT PE gegen 750 Mhz treibt). ATI ist sehr auf die Leistungskrone fixiert.

11GTexels sind eben noch bandbreiten-limitierter mit 600MHz GDDR3 als 10GTexels/s.


g70@90nm soll ja momentan "very well" sein.

Spricht aber eher dafuer dass dieses die angebliche "Ultra" sein wird. Haette ich wenigstens in einem Papierfranzen, roadmap Bildchen oder was auch immer eine "Ultra" gesehen oder davon gehoert (ausser dem albernen Geblubbere von Fuad) wuerde ich es auch leichter glauben koennen.

seahawk
2005-07-19, 12:11:35
Ich glaube auch nicht an eine Refresh für eine G70 Ultra. Das wären wenn selektierte G70 Chips, die man mit einer Doppelslotkühlung und evtl. mehr Spannung auf mehr Takt prügeln wird. Ich glaube auch nicht, dass NV dies gegenwärtig plant. Nur wenn ATI eine XT PE (reviewers Edition) Nummer bringt, dann könnte ich mir eine solche Ultra vorstellen.

Der nächste neue Chip wird der Shrink sein. .

(Zum Thema ATI. Bandbreite ist für manche Anwendungen nicht so relevant ;) )

seahawk
2005-07-19, 12:13:19
Wieso geht jeder davon aus, dass nV noch einen Ultra-Version mit >500Mhz launchen wird?

Ich gehe davon aus, dass sie können, wenn sie müssen. :smile:

micki
2005-07-19, 12:14:39
2. Beispiele?
5800U

4. Noch weitere 2-3 Monate zu warten, bis man 0.09-Chip loslassen kann.
ja klingt durchdacht "lassen wir der konkurenz 2-3monate an der krone, anstatt mit ein paar U exemplaren in der presse als die schnellsten zu gelten" ;)

Ailuros
2005-07-19, 12:15:29
1. seit der gf2 gibt es immer ne ultra version falls es nötig war ati in performance zu schlagen, afaik

Trotzdem keine Garantie.

2. es gab oft ultra versionen die lange nicht verfügbar waren auf dem markt, aber trotzdem in den reviews dann nv die schnellste graka zusprachen

6800 Ultra Extreme gewann aber die Leistungskrone auch nicht unbedingt im Vergleich zu X800XT PE.

3. die g70 lässt sich wohl gut hochtakten

Kein Zweifel; nur der Speicher spielt eben nicht immer so toll mit, ausser man greift zu exotischen Kuehlungsloesungen.

4. was für ne wahl hat nv falls der r520 die zZ schnellste nv-karte schlägt?

Die gleiche wie bei NV40 vielleicht? Wie schlecht hat sich die gesamte NV4x Linie bis jetzt verkauft? Hat momentan NVIDIA das Problem oder ATI?

micki
2005-07-19, 12:44:33
Trotzdem keine Garantie.
6800 Ultra Extreme gewann aber die Leistungskrone auch nicht unbedingt im Vergleich zu X800XT PE.
das hängt vom benchmark ab, die haben sich nen guten schlagabtausch gegeben, my2c€nt.



Kein Zweifel; nur der Speicher spielt eben nicht immer so toll mit, ausser man greift zu exotischen Kuehlungsloesungen.
ach, nv wird es schon schaffen ein paar speicherchips für die presseexemplare zusammenzukratzen.



Die gleiche wie bei NV40 vielleicht? Wie schlecht hat sich die gesamte NV4x Linie bis jetzt verkauft? Hat momentan NVIDIA das Problem oder ATI?
es geht nicht um den jetzigen moment, denn wie du sehen kannst, gibt es keine U version. aber wenn der r520 nun den g70 plätten sollte, wäre es von NV schlecht, wenn sie nicht wenigstens auf dem papier zurückschlagen könnten. falls der r520 nicht an den g70 rankommt, dann kommt auch keine U version heraus, wozu auch?

MfG
micki

Gast
2005-07-19, 12:53:41
warum höre ich hier laufend das ati erstmal an den g70 rankommen muß ?
die karte ist ein ganz schwaches speepupdate und sowas von minimal schneller als die 6800ultra das sich ein umsteig kein bißchen lohnt.
in vielen spielen ist der g70 grad mal so schnell wie die x850xt.

wie pcgh schon sagte,der g70 lohnt sich nur wenn man min. 1600 auglösung spielt darunter schmeißt man sein geld aus dem fenster

Ailuros
2005-07-19, 13:02:18
das hängt vom benchmark ab, die haben sich nen guten schlagabtausch gegeben, my2c€nt.

Dabei wurden aber eher mit der Zeit 6800U's mit 425MHz aufgelegt, anstatt dass man noch dick damit extra geworben hat.

ach, nv wird es schon schaffen ein paar speicherchips für die presseexemplare zusammenzukratzen.

Wann ist denn sowas passiert, dass ich es verpasst habe?


es geht nicht um den jetzigen moment, denn wie du sehen kannst, gibt es keine U version. aber wenn der r520 nun den g70 plätten sollte, wäre es von NV schlecht, wenn sie nicht wenigstens auf dem papier zurückschlagen könnten. falls der r520 nicht an den g70 rankommt, dann kommt auch keine U version heraus, wozu auch?

Wieso geht Ihr Kerle staendig davon aus dass G70 von der R520 unbedingt geplaettet werden wird? Es wird ohne Zweifel Stellen geben wo der eine oder andere chip seine eigenen Vorteile haben wird; aber trotz allem hat Euch schon jemand mal gesagt dass ein hoeherer Takt nicht immer ein Heilmittel fuer jegliche Schwaechen sein koennte?

Beispiel waeren die ROPs zwischen R4xx und NV4x; wieso steht ATI mit stenciling und/oder MRTs nicht besser da als die Konkurrenz obwohl der Unterschied der Taktrate eigentlich ziemlich gross ist? Ist in diesem Beispiel die Loesung fuer ATI nur die Taktrate nach oben zu schieben oder waere es doch besser wenn man die Effizienz zuerst erhoeht?

Die ROPs sind auch ein merkwuerdiges Beispiel; hat hier tatsaechlich ATI optimiert, dann werden sie wohl diesmal hier einen Vorteil haben; sonst was den Rest der Einheiten betrifft, hat NVIDIA mehr Einheiten was ihnen auch die Notwendigkeit von extravaganten Taktraten erspart.

Hat uebrigens R520 ALUs mit aehnlichen Faehigkeiten wie beim NV40, sind sie tatsaechlich was shader-lastige Situationen betrifft ziemlich schlecht dran; da rettet auch eine >700MHz Taktrate gar nichts mehr. Entwickler haben auf jeden Fall seit Maerz dieses Jahres nichts hoffnung-erregendes erwaehnt.

Gabbabytes
2005-07-19, 13:06:08
warum höre ich hier laufend das ati erstmal an den g70 rankommen muß ?
die karte ist ein ganz schwaches speepupdate und sowas von minimal schneller als die 6800ultra das sich ein umsteig kein bißchen lohnt.
in vielen spielen ist der g70 grad mal so schnell wie die x850xt.

wie pcgh schon sagte,der g70 lohnt sich nur wenn man min. 1600 auglösung spielt darunter schmeißt man sein geld aus dem fenster

Dem kann ich mich voll und ganz anschließen.
Es kommt immer drauf an, was man machen möchte.
Ich kenne jetzt schon Leute, die sich 2x 7800GTX verpflanzen wollen.
Aber wozu?
Damit man bei voller Auflösung mit vollem AF/AA von 60fps auf 90fps kommt?
Bedenkt man die Kosten und den Stromverbrauch samt Geräuschkulisse... dann bringt mich das nur zu einem Fazit:
Blödsinn.

Gerade für Leute, die einen 17 oder 19" TFT haben und sowieso nie über 1280x1024 kommen, reicht heute eine 6800GT für unter 250€.

Ailuros
2005-07-19, 13:06:25
warum höre ich hier laufend das ati erstmal an den g70 rankommen muß ?
die karte ist ein ganz schwaches speepupdate und sowas von minimal schneller als die 6800ultra das sich ein umsteig kein bißchen lohnt.
in vielen spielen ist der g70 grad mal so schnell wie die x850xt.

wie pcgh schon sagte,der g70 lohnt sich nur wenn man min. 1600 auglösung spielt darunter schmeißt man sein geld aus dem fenster

Wenn Du jetzt glaubst dass R520 massive Leistungsspruenge im Vergleich zu R480 bringen wird, bist Du genauso naiv wie alle anderen die Hoffnung als letzte sterben lassen.

Weniger als 1600 ist auch Bloedsinn fuer jegliches heutige high end.

xL|Sonic
2005-07-19, 13:07:06
dafür wird ja auch R580 zuständig sein.

Bei den derzeitigen CPU- und Bandbreitenlimitierungen dürfte sicherlich jeder eine Rechtfertigung finden, die eine oder andere GPU zu bevorzugen. :)


Ja aber womit soll denn der R580 gegen nen G70 @ 0,09µ punkten?
1000Mhz Coretakt?
Ich meine wenn der G70 @ 0,09µ wirklich so geht und vielleicht auch Taktraten von 600-700Mhz erreicht, dann muss ATI doch zwangsläufig was beseres bringen, also mehr Pipes.

Ailuros
2005-07-19, 13:10:16
Dem kann ich mich voll und ganz anschließen.
Es kommt immer drauf an, was man machen möchte.
Ich kenne jetzt schon Leute, die sich 2x 7800GTX verpflanzen wollen.
Aber wozu?
Damit man bei voller Auflösung mit vollem AF/AA von 60fps auf 90fps kommt?
Bedenkt man die Kosten und den Stromverbrauch samt Geräuschkulisse... dann bringt mich das nur zu einem Fazit:
Blödsinn.

Gerade für Leute, die einen 17 oder 19" TFT haben und sowieso nie über 1280x1024 kommen, reicht heute eine 6800GT für unter 250€.


Wer >500 euro fuer eine GPU oder doppelt so viel fuer ein SLi System ausgeben will, wird wohl nicht gerade geizig beim Bildschirm werden.

***edit:

was man bezahlt bekommt man auch....

http://www.anandtech.com/video/showdoc.aspx?i=2451&p=8

1600+4xAA
G70= R480+35% oder NV40+91%
G70@SLi= R480+93% oder NV40@SLi + 43%

http://www.anandtech.com/video/showdoc.aspx?i=2451&p=14

usw usw.

Ailuros
2005-07-19, 13:15:44
Ja aber womit soll denn der R580 gegen nen G70 @ 0,09µ punkten?
1000Mhz Coretakt?
Ich meine wenn der G70 @ 0,09µ wirklich so geht und vielleicht auch Taktraten von 600-700Mhz erreicht, dann muss ATI doch zwangsläufig was beseres bringen, also mehr Pipes.

Eher weniger als 600MHz fuer den letzteren. Du scheinst zu vergessen dass es 6 quads sind.

Nochmal im R580 wird die Anzahl der OPs erhoeht; kombiniert mit einer um einiges hoehere Taktrate, reicht das dann auch logischerweise aus.

micki
2005-07-19, 13:17:50
Dabei wurden aber eher mit der Zeit 6800U's mit 425MHz aufgelegt, anstatt dass man noch dick damit extra geworben hat.

jap, haut kaum jemand bemerkt außer dass jede kleine homepage nen bench und bericht davon hatte... http://www.3dcenter.de/artikel/nv40_benchmarks/


Wann ist denn sowas passiert, dass ich es verpasst habe?
5800U konnte man kaum kaufen, gab es aber von nv mit guter speicherbestückung für alle die benches veröffentlicht haben.




Wieso geht Ihr Kerle staendig davon aus dass G70 von der R520 unbedingt geplaettet werden wird? Es wird ohne Zweifel Stellen geben wo der eine oder andere chip seine eigenen Vorteile haben wird; aber trotz allem hat Euch schon jemand mal gesagt dass ein hoeherer Takt nicht immer ein Heilmittel fuer jegliche Schwaechen sein koennte?

Beispiel waeren die ROPs zwischen R4xx und NV4x; wieso steht ATI mit stenciling und/oder MRTs nicht besser da als die Konkurrenz obwohl der Unterschied der Taktrate eigentlich ziemlich gross ist? Ist in diesem Beispiel die Loesung fuer ATI nur die Taktrate nach oben zu schieben oder waere es doch besser wenn man die Effizienz zuerst erhoeht?

Die ROPs sind auch ein merkwuerdiges Beispiel; hat hier tatsaechlich ATI optimiert, dann werden sie wohl diesmal hier einen Vorteil haben; sonst was den Rest der Einheiten betrifft, hat NVIDIA mehr Einheiten was ihnen auch die Notwendigkeit von extravaganten Taktraten erspart.

Hat uebrigens R520 ALUs mit aehnlichen Faehigkeiten wie beim NV40, sind sie tatsaechlich was shader-lastige Situationen betrifft ziemlich schlecht dran; da rettet auch eine >700MHz Taktrate gar nichts mehr. Entwickler haben auf jeden Fall seit Maerz dieses Jahres nichts hoffnung-erregendes erwaehnt.
wann lernt ihr nicht-kerle mal richtig zu lesen anstatt reinlesen zu wollen was in eurem kopf rumschwirrt?

aber wenn der r520 nun den g70 plätten sollte
esta es el subjuntivo... möglichkeitsform... gleich dahinter steht auch.


falls der r520 nicht an den g70 rankommt,
wieso gibt es dazu keinen artikel? ;)

nimm's mir nicht übel, aber du bist du sehr auf fanboys eingeschossen *hehe*

MfG
micki

BlackArchon
2005-07-19, 13:24:58
...
Gerade für Leute, die einen 17 oder 19" TFT haben und sowieso nie über 1280x1024 kommen, reicht heute eine 6800GT für unter 250€.
Solche pauschalen Aussagen finde ich zum kotzen. Ich hab einen 17" TFT mit 1280x1024. Ich spiele nicht oft, aber wenn, dann will ich höchstmögliche Qualität. 8xS AA (bei HQ) kannst du mit der 6800 GT bei halbwegs aktuellen Spielen vergessen, von 16x AA oder 4x4 SSAA ganz zu schweigen. Da lohnt sich schon eine 7800 GTX, die sogar einigermaßen günstig wird, wenn man seine alte 6800 GT verkauft.

Gast
2005-07-19, 13:29:42
Ja aber womit soll denn der R580 gegen nen G70 @ 0,09µ punkten?
1000Mhz Coretakt?
Ich meine wenn der G70 @ 0,09µ wirklich so geht und vielleicht auch Taktraten von 600-700Mhz erreicht, dann muss ATI doch zwangsläufig was beseres bringen, also mehr Pipes.
Es kommt nicht auf die bloße Menge der Pipes an! Das sagt wenig aus. Kan gut sein, dass ATIs 16 Pipe Chip taktnormalisiert schneller ist als der G70.

Gabbabytes
2005-07-19, 13:34:34
Solche pauschalen Aussagen finde ich zum kotzen. Ich hab einen 17" TFT mit 1280x1024. Ich spiele nicht oft, aber wenn, dann will ich höchstmögliche Qualität. 8xS AA (bei HQ) kannst du mit der 6800 GT bei halbwegs aktuellen Spielen vergessen, von 16x AA oder 4x4 SSAA ganz zu schweigen. Da lohnt sich schon eine 7800 GTX, die sogar einigermaßen günstig wird, wenn man seine alte 6800 GT verkauft.

Naja, du hast viell. andere Ansprüche als die meisten anderen Leute, die ich kenne.
Früher gab es kein AA und als Hersteller ging über immer höhere FPS-Zahlen, um die Ware an den Mann zu bringen.
Nun gibt es AA/AF und die Hersteller pushen die Zahlen vor der x, damit man ein noch tolleres Bild hat oder meint, es zu haben.
Im Grunde merkt man im Eifer des Gefechts ej nicht, ob 4x AA oder 8x AA an ist. Und wenn du so schon so auf Bildqualität achtest... warum dann nur in 1280x1024? Reicht es zu keinem 20" TFT? :tongue:

EDIT: Und für die meisten Leute lohnt es sich eben nicht, alle 3/4 Jahr 500€ für eine Graka auszugeben.

seahawk
2005-07-19, 13:37:29
Es kommt nicht auf die bloße Menge der Pipes an! Das sagt wenig aus. Kan gut sein, dass ATIs 16 Pipe Chip taktnormalisiert schneller ist als der G70.
Meinst Du jetzt

a) 16 AT-Pipes @ 430Mhz > 24 NV-Pipes @ 430 Mhz

oder

b) 1 ATI Pipe @ 430 Mhz > 1 NV Pipe @ 430 Mhz

a) ganz sicher nicht
b) evtl. denkbar

Winter[Raven]
2005-07-19, 13:38:06
Eher weniger als 600MHz fuer den letzteren. Du scheinst zu vergessen dass es 6 quads sind.

Nochmal im R580 wird die Anzahl der OPs erhoeht; kombiniert mit einer um einiges hoehere Taktrate, reicht das dann auch logischerweise aus.

um was? mit dem G70 gleich zuziehen oder zu überholen? Glaube kaum das der G70 @ 0.9µ dem R580 so leicht machen wird *gg*

seahawk
2005-07-19, 13:39:08
Naja, du hast viell. andere Ansprüche als die meisten anderen Leute, die ich kenne.
Früher gab es kein AA und als Hersteller ging über immer höhere FPS-Zahlen, um die Ware an den Mann zu bringen.
Nun gibt es AA/AF und die Hersteller pushen die Zahlen vor der x, damit man ein noch tolleres Bild hat oder meint, es zu haben.
Im Grunde merkt man im Eifer des Gefechts ej nicht, ob 4x AA oder 8x AA an ist. Und wenn du so schon so auf Bildqualität achtest... warum dann nur in 1280x1024? Reicht es zu keinem 20" TFT? :tongue:

EDIT: Und für die meisten Leute lohnt es sich eben nicht, alle 3/4 Jahr 500€ für eine Graka auszugeben.

Es lohnt sich aber durchaus für Leute, die nur alle 2 Jahre eine Graka kaufen. Ich spiele auch nur in 1280 (jetzt oft auch nur in 1024), aber meine 9700pro wird von einer neuen Highendkarte abgelöst.

Weil die im Endeffekt nicht teurer sind, als ein jährlicher Kauf von Midrange.

Coda
2005-07-19, 13:39:38
Das ist ja schön und gut, trotzdem hat die 7800GTX einiges mehr Leistung als eine 6800Ultra. Weil sich das für dich nicht lohnt, weil andere Dinge limitieren hast du Pech gehabt und wird auch beim R520 nicht anders aussehen. Eine GPU macht nunmal nur die Grafikpipeline schneller und nicht das ganze System.

Ailuros
2005-07-19, 13:40:29
5800U konnte man kaum kaufen, gab es aber von nv mit guter speicherbestückung für alle die benches veröffentlicht haben.

Man konnte NV30 generell schlecht finden und das nicht wegen des Speichers. Gab es samples mit schnellerem Speicher die nie erhaeltlich waren?

wann lernt ihr nicht-kerle mal richtig zu lesen anstatt reinlesen zu wollen was in eurem kopf rumschwirrt?

esta es el subjuntivo... möglichkeitsform... gleich dahinter steht auch.

Woher kommt die Ultra-Idee ueberhaupt? Gibt es ausser Fuad/INQ irgend etwas anderes wo es erwaehnt wurde?

wieso gibt es dazu keinen artikel?

Weil Entwickler unter NDA stehen vielleicht? Sweeney aeusserte sich schon, wie diese eher karge Aussage empfangen wurde, ist ja bekannt.

nimm's mir nicht übel, aber du bist du sehr auf fanboys eingeschossen *hehe*

Ich nehme nie was uebel. Das einzige was mir stinkt ist dass ich von dem was ich weiss nur einen sehr kleinen Bruchteil oeffentlich erwaehnen darf. Waerst Du in meinen Schuhen wuerde sich Dein Kopf genauso schnell drehen wie meiner, wenn man die konstante Reproduktion von Fuad-Mist lesen muss.

Von dem abgesehen hoere ich aeusserst gerne auf jegliche Spekulation die Sinn machen koennte. Fuad-Quark gehoert leider aeusserst selten dazu und dann nur aus purem Dummen-glueck.

seahawk
2005-07-19, 13:40:40
']um was? mit dem G70 gleich zuziehen oder zu überholen? Glaube kaum das der G70 @ 0.9µ dem R580 so leicht machen wird *gg*

Nein, um auch ohne astronomsiche Taktsteigerung einem G70@90nm einen Kampf liefern zu können.

Gast
2005-07-19, 13:41:06
hatte vorher ne x800pro und jetzt ne 7800gtx,spürbar läuft nichts schneller und das bei ner verdopplung der pipes.

was bringen 24 pipes wenn der der chip nichts drauf hat,mieses Af und kein speed

Ailuros
2005-07-19, 13:42:03
Es kommt nicht auf die bloße Menge der Pipes an! Das sagt wenig aus. Kan gut sein, dass ATIs 16 Pipe Chip taktnormalisiert schneller ist als der G70.

Eher das ganz grobe Gegenteil.

seahawk
2005-07-19, 13:43:00
Eher das ganz grobe Gegenteil.

Ach komm theoretisch denkbar wäre es. So wie ein 32Pipe R520, eben. :D

Coda
2005-07-19, 13:43:07
hatte vorher ne x800pro und jetzt ne 7800gtx,spürbar läuft nichts schneller und das bei ner verdopplung der pipes.

was bringen 24 pipes wenn der der chip nichts drauf hat,mieses Af und kein speedVerdopplung ist falsch. Es sind nur anderhalb so viele, außerdem ist der Takt geringern.

Im Prinzip hat sich die Texel-Füllrate von 8800 auf 10500 erhöht. Wer sich so ein Upgrade kauft und viel erwartet ist ja auch selbst schuld.

Die ALU Leistung ist allerdings deutlich höher und sollte in Zukunft durchschlagen.

BlackArchon
2005-07-19, 13:43:34
Naja, du hast viell. andere Ansprüche als die meisten anderen Leute, die ich kenne.
Früher gab es kein AA und als Hersteller ging über immer höhere FPS-Zahlen, um die Ware an den Mann zu bringen.
Nun gibt es AA/AF und die Hersteller pushen die Zahlen vor der x, damit man ein noch tolleres Bild hat oder meint, es zu haben.
Im Grunde merkt man im Eifer des Gefechts ej nicht, ob 4x AA oder 8x AA an ist. Und wenn du so schon so auf Bildqualität achtest... warum dann nur in 1280x1024? Reicht es zu keinem 20" TFT? :tongue:

EDIT: Und für die meisten Leute lohnt es sich eben nicht, alle 3/4 Jahr 500€ für eine Graka auszugeben.
Wenn ich die Wahl zwischen einer 7800 GTX für ~150 Euro und einem 20" TFT für 700 Euro habe, wähle ich die 7800 GTX.

seahawk
2005-07-19, 13:44:09
Verdopplung ist falsch. Es sind nur anderhalb so viele, außerdem ist der Takt geringern.

Im Prinzip hat sich die Füllrate von 8800 auf 10500 erhöht. Wer sich so ein Upgrade kauft und viel erwartet ist ja auch selbst schuld.

Vor allem, wenn man bedenkt wie sehr die 7800GTX mit der CPU skaliert.

deekey777
2005-07-19, 13:50:53
hatte vorher ne x800pro und jetzt ne 7800gtx,spürbar läuft nichts schneller und das bei ner verdopplung der pipes.

was bringen 24 pipes wenn der der chip nichts drauf hat,mieses Af und kein speed

Auch mit HDR? ;)
Verdopplung ist falsch. Es sind nur anderhalb so viele, außerdem ist der Takt geringern.

Im Prinzip hat sich die Texel-Füllrate von 8800 auf 10500 erhöht. Wer sich so ein Upgrade kauft und viel erwartet ist ja auch selbst schuld.

Die ALU Leistung ist allerdings deutlich höher und sollte in Zukunft durchschlagen.

Irgendwie scheinen das viele nicht zu verstehen, nicht einmal ich.

Ailuros
2005-07-19, 13:54:28
Ach komm theoretisch denkbar wäre es. So wie ein 32Pipe R520, eben. :D

Hier nochmal die originale Aussage:

Kan gut sein, dass ATIs 16 Pipe Chip taktnormalisiert schneller ist als der G70.

Dass duerfte heissen dass R520/4 quads@430MHz schneller sein muessten als G70/6 quads@430MHz.

Damit ATI mit 4 quads@=/>650MHz auf quasi Gleichstand mit 6 quads@430MHz/G70 kommt, muesste erstmal quad = quad sein, und das eben auf das was hinten rauskommt bezogen.

seahawk
2005-07-19, 13:54:39
Bei eine mWechsel von X800PRo zu 7800GTX ist eine Verdoppelung der Pipes (12 -> 24), beim Wechsel von X800XT eine Erhöhung um 150% (16 -> 24)

Coda
2005-07-19, 13:57:56
Ups ganz übersehen. Naja dann hat er aber wirklich unrecht, außer er spielt in 1024x768 oder hat ne ziemlich alte CPU.

Ailuros
2005-07-19, 13:58:26
Irgendwie scheinen das viele nicht zu verstehen, nicht einmal ich.

NV40= 4 quads@425MHz
G70= 6 quads@430MHz
----------------------------
+50% mehr quads oder 1.5x mehr Einheiten

ALU-Leistung G70 vs. NV40= =/>2x

Geht es jetzt?

seahawk
2005-07-19, 13:59:17
Dass duerfte heissen dass R520/4 quads@430MHz schneller sein muessten als G70/6 quads@430MHz.

Damit ATI mit 4 quads@=/>650MHz auf quasi Gleichstand mit 6 quads@430MHz/G70 kommt, muesste erstmal quad = quad sein, und das eben auf das was hinten rauskommt bezogen.

Sagen wir mal R520 wäre @ 430Mhz 30% langsamer als G70 @ 430Mhz, G70 hat aber 50% mehr Pipes. Könnte man dann behaupten, dass er taktnormalisiert pro Quad schneller wäre. ;D

Ailuros
2005-07-19, 14:04:24
Sagen wir mal R520 wäre @ 430Mhz 30% langsamer als G70 @ 430Mhz, G70 hat aber 50% mehr Pipes. Könnte man dann behaupten, dass er taktnormalisiert pro Quad schneller wäre. ;D

Du weisst genau dass das obrige albern ist. Nimm ein Spiel dass keinen SM3.0 path hat und vergleiche eine X800XL mit einer G70.

reunion
2005-07-19, 14:13:05
Eher weniger als 600MHz fuer den letzteren. Du scheinst zu vergessen dass es 6 quads sind.

Nochmal im R580 wird die Anzahl der OPs erhoeht; kombiniert mit einer um einiges hoehere Taktrate, reicht das dann auch logischerweise aus.

Sehe ich nicht so. Dass die Anzahl der OPs erhöht wird, ist ja ganz nett, doch bei einer überwältigenden Mehrzahl der Spiele, limitiert nach wie vor die Füllrate. Und da kann man bei gleichen Fertigungsprozess, aber 50% weniger Pipelines wohl kaum durch den Takt gleichziehen.

reunion
2005-07-19, 14:15:45
Es kommt nicht auf die bloße Menge der Pipes an! Das sagt wenig aus. Kan gut sein, dass ATIs 16 Pipe Chip taktnormalisiert schneller ist als der G70.

Nicht, wenn jede Pipeline nur eine TMU hat.
Denn dann fehlt schlicht die Füllrate.

reunion
2005-07-19, 14:19:35
Woher kommt die Ultra-Idee ueberhaupt? Gibt es ausser Fuad/INQ irgend etwas anderes wo es erwaehnt wurde?


Bedenke: Die Ultra taktet mit 800Mhz.


Weil Entwickler unter NDA stehen vielleicht? Sweeney aeusserte sich schon, wie diese eher karge Aussage empfangen wurde, ist ja bekannt.


Sweeneys Aussage war in dem Zusammenhang wertlos IMHO.

Ailuros
2005-07-19, 14:26:07
Sehe ich nicht so. Dass die Anzahl der OPs erhöht wird, ist ja ganz nett, doch bei einer überwältigenden Mehrzahl der Spiele, limitiert nach wie vor die Füllrate. Und da kann man bei gleichen Fertigungsprozess, aber 50% weniger Pipelines wohl kaum durch den Takt gleichziehen.


Rein theoretische Frage: was wenn R580 mehr als 8 MADDs/clk z.B. behandeln kann?

reunion
2005-07-19, 14:26:45
Es geht ja um G71, das ist der Mainstreampart von nVIDIA. Aber auch dann finde ich das noch etwas übertrieben, auch wenn 700+ Mhz für Mainstream in 90nm durchaus möglich sind.



Unwarscheidlich.

reunion
2005-07-19, 14:27:39
Rein theoretische Frage: was wenn R580 mehr als 8 MADDs/clk z.B. behandeln kann?


Was ändert das an der Füllrate?
Shaderpower limitiert nicht, vermutlich auch beim R520 nicht.

Ailuros
2005-07-19, 14:31:23
Bedenke: Die Ultra taktet mit 800Mhz.

Soll ich das Zeug jetzt eventuell ernst nehmen? Jemand hat mit einer exotischen Kuehlungsloesung eine G70 aufgepumpt die auf verrueckt niedrige minus C Temperaturen fuehrt und der INQ hat daraus seinen netten Bloedsinn erweitert.

Sweeneys Aussage war in dem Zusammenhang wertlos IMHO.

Eben nicht. G70 ist tatsaechlich ueber 2x schneller als NV40 in UE3. Dass UE3 noch meilenweit vor einer Veroeffentlichung liegt ist ja klar, aber mit was haette er denn die boards testen sollen? Mit UT2004 oder UT1 vielleicht?

reunion
2005-07-19, 14:32:43
Die Frage ist doch, wann der Zeitpunkt da ist damit ein Fertigungsprozess wesentlich fortschrittlicher ist als der andere.
Wenn die Yields und das thermische Verhalten scheisse sind, dann nützt auch der neuere Fertigungsprozess nichts.
Der NV30 sollten doch nun wirklich für alle eine Lehre gewesen sein.


Bei NV30 war das ganze wesentlich komplizierter, dieser war ursprünglich für 130nm lowk geplant. Logisch, dass, nachdem man auf den "normalen" 130nm Prozess zurückgehen musste, der Stromverbauch höher war, als erwartet.

reunion
2005-07-19, 14:34:48
Dann wird das wohl so sein. Und wenn doch nicht, erinnere ich dich an deine Aussage :biggrin:

Von mir aus. :)

Ailuros
2005-07-19, 14:35:48
Was ändert das an der Füllrate?
Shaderpower limitiert nicht, vermutlich auch beim R520 nicht.

Beide IHVs stimmen ueberein dass die Zukunft in hoeherer ALU-Leistung liegt.

Wenn Du GPUs der Zukunft nur mit der Fuellrate beurteilen willst, dann ist es natuerlich eine andere Geschichte.

reunion
2005-07-19, 14:36:14
[...] und zwar als niemals wirklich verfügbare XT PE (reviewer edition).


Im Gegensatz zur "Ultra Exxtreme" wurde sie wenigstens verkauft.

Coda
2005-07-19, 14:37:11
nVIDIA braucht das Ding offensichtlich nicht, machbar wäre es ja wohl durchaus gewesen.

reunion
2005-07-19, 14:39:17
Soll ich das Zeug jetzt eventuell ernst nehmen?

Nein, natürlich nicht.

reunion
2005-07-19, 14:42:15
Beide IHVs stimmen ueberein dass die Zukunft in hoeherer ALU-Leistung liegt.


Das wurde auch schon vor über zwei Jahren behauptet, bis jetzt sehe ich nicht viel davon.


Wenn Du GPUs der Zukunft nur mit der Fuellrate beurteilen willst, dann ist es natuerlich eine andere Geschichte.

Ich will die GPUs nicht nur nach der Füllrate beurteilen, man muss sie zurzeit (leider?) hauptsächlich an der Füllrate messen. - Es sein denn, man besitzt eine GFFX.

Oder kennst du nur ein heutiges Spiel, bei welchen der G70 aufgrund der höheren Shaderpower punktet? Ich nicht.

Black-Scorpion
2005-07-19, 14:43:40
nVIDIA braucht das Ding offensichtlich nicht, machbar wäre es ja wohl durchaus gewesen.
Offensichtlich habe sie die doch gebraucht um den längsten zu haben.
Zu mehr war die Karte ja wohl nie gedacht.

Im Gegensatz zur XT-PE die zwar später aber auf dem Markt kam und erhältlich ist.
Deshalb kann seahawk sich diese Bemerkung auch sparen.

Winter[Raven]
2005-07-19, 14:44:34
Was ändert das an der Füllrate?
Shaderpower limitiert nicht, vermutlich auch beim R520 nicht.

Hoffentlich irrst du dich nicht was die Shaderpower angeht ....

Coda
2005-07-19, 14:44:49
Auch die Ultra-Extreme hätte die X850 XT PE bei rein füllratenlastigen Spielen nicht geschlagen, deshalb war es unsinnig das Ding noch zu bringen inho.

Hoffentlich irrst du dich nicht was die Shaderpower angeht ....Ich freu mich ja schon auf die ersten UE3 Benchmarks *scnr*

Oder kennst du nur ein heutiges Spiel, bei welchen der G70 aufgrund der höheren Shaderpower punktet? Ich nicht.BF2 vielleicht? Bin ich mir aber auch nicht sicher...

mapel110
2005-07-19, 14:45:53
Oder kennst du nur ein heutiges Spiel, bei welchen der G70 aufgrund der höheren Shaderpower punktet? Ich nicht.
Nö, das meiste sieht nach Bandbreitenproblemen und CPU-Limits aus.
siehe anandbenches bei 2048er Auflösung.

dildo4u
2005-07-19, 14:46:04
Oder kennst du nur ein heutiges Spiel, bei welchen der G70 aufgrund der höheren Shaderpower punktet? Ich nicht.
Splinter cell 3 im SM3.0 modus gewinnt überproportional viel. 60%

http://pc.watch.impress.co.jp/docs/2005/0622/nvidia_3.jpg

DrumDub
2005-07-19, 14:48:40
Oder kennst du nur ein heutiges Spiel, bei welchen der G70 aufgrund der höheren Shaderpower punktet? Ich nicht. oh doch. die spiele gibts:
http://www.xbitlabs.com/articles/video/display/geforce-7800_5.html
http://www.xbitlabs.com/articles/video/display/geforce-7800_11.html
http://www.xbitlabs.com/articles/video/display/geforce-7800_10.html

micki
2005-07-19, 14:49:07
Man konnte NV30 generell schlecht finden und das nicht wegen des Speichers. Gab es samples mit schnellerem Speicher die nie erhaeltlich waren?

ich frage mich so langsam wieso du hier die ganze zeit auf dem speicherzeug rumreitest, ich hatte in meiner anfangspost über die Ultra karten nie sowas erwähnt.
aber rein logisch, je schneller der speicher der samples war, desto seltener sind sie natürlich, auf meine gf2U mußte ich über 2monate warten als ich sie damals bestellte.



Woher kommt die Ultra-Idee ueberhaupt? Gibt es ausser Fuad/INQ irgend etwas anderes wo es erwaehnt wurde?

das ist keine idee, sondern speulation, die rührt daher, das man mittels logischen menschenverstandes versucht anzeichen und erfahrungen zu deuten (natürlich jeder für sich)


Weil Entwickler unter NDA stehen vielleicht? Sweeney aeusserte sich schon, wie diese eher karge Aussage empfangen wurde, ist ja bekannt.

das betraf deinen artikel zu "der r520 plättet den g70", ich hatte ja auch die gegenteilige annahme gemacht, wofür es von dir aber nicht extra langen post, was mich verwundert.


Ich nehme nie was uebel. Das einzige was mir stinkt ist dass ich von dem was ich weiss nur einen sehr kleinen Bruchteil oeffentlich erwaehnen darf. Waerst Du in meinen Schuhen wuerde sich Dein Kopf genauso schnell drehen wie meiner, wenn man die konstante Reproduktion von Fuad-Mist lesen muss.

wärst du in meinen schuhen, wäre dir gerade ziemlich heiß darin ;).. naja, wenn wir die schuhe tauschen würden, würdest du womöglich mehr oder weniger wissen als jetzt und dementsprechend deinen kopf auch vielleicht in die gegenrichtung drehen ;)


Von dem abgesehen hoere ich aeusserst gerne auf jegliche Spekulation die Sinn machen koennte. Fuad-Quark gehoert leider aeusserst selten dazu und dann nur aus purem Dummen-glueck.
da du nicht alles wissen kannst, was die leute wissen die andere spekulationen rausbringen als du sie raushaust, kannst du auch nicht alles objektiv beurteilen, ob es sinn macht, denn wenn du wüstest wie es sein wird, hättest du bei ati und nv ein nda unterschrieben und dürftest hier garnichts dazu sagen ;)
ich bleibe dabei, dass nv ne bessere version rausbringt falls die r520grakas schneller als die g70-grakas sein werden, man kann die g70 zZ gut um einige mhz übertakten und schlechte erhältlichkeit hat nv bei der U version nicht sonderlich abgehalten.

MfG
micki

Ailuros
2005-07-19, 14:51:11
Das wurde auch schon vor über zwei Jahren behauptet, bis jetzt sehe ich nicht viel davon.

Damals kamen auch die dementsprechenden Erweiterungen in die Entwicklung der GPUs, die erst jetzt veroeffentlicht wurden und werden.


Ich will die GPUs nicht nur nach der Füllrate beurteilen, man muss sie zurzeit (leider?) hauptsächlich an der Füllrate messen. - Es sein denn, man besitzt eine GFFX.

Battlefield2, Splinter Cell Chaos Theory usw. und natuerlich auch eine Anzahl von kommenden Spielen.

Oder kennst du nur ein heutiges Spiel, bei welchen der G70 aufgrund der höheren Shaderpower punktet? Ich nicht.

Siehe oben und die absehbare Zukunft. Wer wird sich eine R520/G70 fuer HL2 und Doom3 genau kaufen?

reunion
2005-07-19, 14:53:20
oh doch. die spiele gibts:
http://www.xbitlabs.com/articles/video/display/geforce-7800_5.html


Hier ist die 7800GTX nirgends auch nur 50% schneller, als eine 6800U.
Was ja weniger ist, als die Füllratensteigerung, von fast 60%.


http://www.xbitlabs.com/articles/video/display/geforce-7800_10.html


Hier das gleiche.


http://www.xbitlabs.com/articles/video/display/geforce-7800_11.html


Hier ist der G70 zwar fast doppelt so schnell, wie ein NV40, doch der R480 schlägt beide. Bug?

Coda
2005-07-19, 14:59:00
So einzelne Beispiele zu betrachten ist immer schwierig. Man weiß ja nicht wo der Bottleneck jetzt genau ist.

Ich vermute jedenfalls dass es nicht die Pixelshader sind...

reunion
2005-07-19, 14:59:28
BF2 vielleicht? Bin ich mir aber auch nicht sicher...


Dort erreicht man die überproportionale Steigerung vermutlich auch nur aufgrund einiger "Optimierungen", welche man beim NV40 vorsichtshalber entfernt hat.

dildo4u
2005-07-19, 15:00:40
Dort erreicht man die überproportionale Steigerung vermutlich auch nur aufgrund einiger "Optimierungen", welche man beim NV40 vorsichtshalber entfernt hat.
Unsinn das mit dem Langsammer werden ist ein Gerücht das noch in keinem test bestätigt wurde. hatte den 77.30 77.50 und den 77.72 mit BF2 Laufen die FPS waren 100% Gleich.

DrumDub
2005-07-19, 15:00:48
Hier ist die 7800GTX nirgends auch nur 50% schneller, als eine 6800U.
Was ja weniger ist, als die Füllratensteigerung, von fast 60%.

Hier das gleiche.

Hier ist der G70 zwar fast doppelt so schnell, wie ein NV40, doch der R480 schlägt beide. Bug? du musst schon auf die richtigen werte gucken. ;) fsaa/af außen vor lassen... die x8x0er spielen bei der betrachtung keine rolle. und sc3 läuft auf den x8x0ern nur mit sm 1.1. bei cmr mal auf die minfps achten bei 1024x768 (cpu limitierung). sowieso ist 1024x768 hier nur interssant.

Coda
2005-07-19, 15:00:59
Das kannst du genausowenig sagen wie dass es in Colin die Pixelshader sind. BF2 verwendet durchaus einige Shader.

Vor allem hat die 7800GTX ja genug Texelleistung, was soll die AF-Optimierung da noch groß bringen im Praxisfall?

Ailuros
2005-07-19, 15:01:23
ich frage mich so langsam wieso du hier die ganze zeit auf dem speicherzeug rumreitest, ich hatte in meiner anfangspost über die Ultra karten nie sowas erwähnt.
aber rein logisch, je schneller der speicher der samples war, desto seltener sind sie natürlich, auf meine gf2U mußte ich über 2monate warten als ich sie damals bestellte.

NV30 wurde mit 500MHz Speicher gebencht und nicht mehr und solche samples wenn auch selten waren tatsaechlich kaufbar. Du hast vorgeschlagen dass man eine G70"Ultra" mit schnellerem Speicher fuer Benchmarks bereit legen koennte und ich fragte wo es je der Fall wahr. Es war nie bis jetzt der Fall dass ich mich daran erinnern kann.


das ist keine idee, sondern speulation, die rührt daher, das man mittels logischen menschenverstandes versucht anzeichen und erfahrungen zu deuten (natürlich jeder für sich)

Und was wenn ich persoenlich nach Fakten gehe, die aber der Oeffentlichkeit nicht zugaenglich sind?


das betraf deinen artikel zu "der r520 plättet den g70", ich hatte ja auch die gegenteilige annahme gemacht, wofür es von dir aber nicht extra langen post, was mich verwundert.

Welchen Artikel?


wärst du in meinen schuhen, wäre dir gerade ziemlich heiß darin ;).. naja, wenn wir die schuhe tauschen würden, würdest du womöglich mehr oder weniger wissen als jetzt und dementsprechend deinen kopf auch vielleicht in die gegenrichtung drehen ;)

Diese alberne Wortspielerei fuehrt zu gar nichts. Du weisst ganz genau was ich meinte.


da du nicht alles wissen kannst, was die leute wissen die andere spekulationen rausbringen als du sie raushaust, kannst du auch nicht alles objektiv beurteilen, ob es sinn macht, denn wenn du wüstest wie es sein wird, hättest du bei ati und nv ein nda unterschrieben und dürftest hier garnichts dazu sagen ;)

Ich weiss genau wie weit ich gehen kann und wo ich halt machen muss. Bis jetzt war es noch nie ein Problem.

ich bleibe dabei, dass nv ne bessere version rausbringt falls die r520grakas schneller als die g70-grakas sein werden, man kann die g70 zZ gut um einige mhz übertakten und schlechte erhältlichkeit hat nv bei der U version nicht sonderlich abgehalten.

MfG
micki

Bis jetzt ist nichts solches geplant, das ist der Unterschied. Fuad wird von NV systematisch ver****t, er kommt mit einem Haufen Quark an und das Publikum glaubt eben das was im passt. Nichts dagegen; aber ich werde auf jeden Fall nicht von launch parties herausgeschmissen.

reunion
2005-07-19, 15:01:33
Splinter cell 3 im SM3.0 modus gewinnt überproportional viel. 60%


Entspricht fast eins zu eins der Füllratensteigerung.
Und ich wette, dass nV im Zweifelsfall etwas aufrundet. ;)

reunion
2005-07-19, 15:04:40
Unsinn das mit dem Langsammer werden ist ein Gerücht das noch in keinem test bestätigt wurde. hatte den 77.30 77.50 und den 77.72 mit BF2 Laufen die FPS waren 100% Gleich.


Bei mir ist das flimmern in BF2 mit dem 77.72 jedenfalls weg - glaub es, oder nicht.
Und mehr als 60% schneller ist eine 7800GTX auch da nicht.

reunion
2005-07-19, 15:06:13
du musst schon auf die richtigen werte gucken. ;) fsaa/af außen vor lassen... die x8x0er spielen bei der betrachtung keine rolle. und sc3 läuft auf den x8x0ern nur mit sm 1.1. bei cmr mal auf die minfps achten bei 1024x768 (cpu limitierung). sowieso ist 1024x768 hier nur interssant.

Ich sehe trotzdem keine Leistungssteigerung, welche über der Füllratenzunahme liegt.

Coda
2005-07-19, 15:07:35
Entspricht fast eins zu eins der Füllratensteigerung.
Und ich wette, dass nV im Zweifelsfall etwas aufrundet. ;)Die Füllratensteigerung kann gar nicht 1 zu 1 durchschlagen bei kaum erhöhtem Speichertakt.

Bei Doom 3 hat sich ja kaum was getan und das lechzt nach Füllrate.

reunion
2005-07-19, 15:08:23
Vor allem hat die 7800GTX ja genug Texelleistung, was soll die AF-Optimierung da noch groß bringen im Praxisfall?


Wenn sie nichts bringen würde, hätte man sie nicht eingebaut.
So wie ich das sehe, limitiert eben fast ausschließlich die Füllrate.

Coda
2005-07-19, 15:10:01
Tut sie nicht aus sehr ersichtlichen Gründen (1100->1200 Speicher)

Bei den langen SC3 Shadern muss die verbesserte ALU des G70 durchschlagen, ansonsten hätte sich das nVIDIA auch sparen können.

Ailuros
2005-07-19, 15:10:33
Bei mir ist das flimmern in BF2 mit dem 77.72 jedenfalls weg - glaub es, oder nicht.
Und mehr als 60% schneller ist eine 7800GTX auch da nicht.

Morgen wird ein besserer Tag sein IMO ;)

Ailuros
2005-07-19, 15:11:59
Wenn sie nichts bringen würde, hätte man sie nicht eingebaut.
So wie ich das sehe, limitiert eben fast ausschließlich die Füllrate.

Keine Schlussvolgerungen ziehen, bevor es vollstaendig dokumentiert wird, dass es sich tatsaechlich um absichtliche Optimierungen handelt.

reunion
2005-07-19, 15:13:20
Die Füllratensteigerung kann gar nicht 1 zu 1 durchschlagen bei kaum erhöhtem Speichertakt.


Warum nicht?


Bei Doom 3 hat sich ja kaum was getan und das lechzt nach Füllrate.

Dann limitiert eben auch noch was anderes. Wie z.B. die Bandbeite, oder die ROPs,...

Ailuros
2005-07-19, 15:13:28
Wenn sie nichts bringen würde, hätte man sie nicht eingebaut.
So wie ich das sehe, limitiert eben fast ausschließlich die Füllrate.

Probier mal zwei quads einfach abzuschalten und vergleiche mit bisher bekannten NV40 Resultaten, aber bitte nicht in Doom3 ;)

Ailuros
2005-07-19, 15:14:11
Dann limitiert eben auch noch was anderes. Wie z.B. die Bandbeite, oder die ROPs,...

Die CPU und die ROPs.

reunion
2005-07-19, 15:15:01
Morgen wird ein besserer Tag sein IMO ;)

Ich hoffe. ;)

reunion
2005-07-19, 15:15:44
Probier mal zwei quads einfach abzuschalten und vergleiche mit bisher bekannten NV40 Resultaten, aber bitte nicht in Doom3 ;)


Würde ich, wenn ich einen G70 hätte.

Ailuros
2005-07-19, 15:26:35
Würde ich, wenn ich einen G70 hätte.

Die Steigerung in ALU-limitierten Situationen liegt in diesem Fall bei ~2x.

reunion
2005-07-19, 15:30:11
Die Steigerung in ALU-limitierten Situationen liegt in diesem Fall bei ~2x.


Ich weiß, nur sieht man davon im Spielealltag eben nichts.
Kein Spiel legt höher zu, als es der Füllratensteigerung entspricht.
Einzige logische Erklärung: Die Füllrate limitiert.

micki
2005-07-19, 15:34:05
NV30 wurde mit 500MHz Speicher gebencht und nicht mehr und solche samples wenn auch selten waren tatsaechlich kaufbar. Du hast vorgeschlagen dass man eine G70"Ultra" mit schnellerem Speicher fuer Benchmarks bereit legen koennte und ich fragte wo es je der Fall wahr. Es war nie bis jetzt der Fall dass ich mich daran erinnern kann.

jo, wenn man lang genug warten wollte, verfügbarkeit war garnicht gut.


Und was wenn ich persoenlich nach Fakten gehe, die aber der Oeffentlichkeit nicht zugaenglich sind?
1. dann dürftest du das hier nichtmal andeuten dass du solche fakten weißt (sofern du ein nda unterschrieben hast, die einzig legale möglichkeit an die daten zu kommen afaik)
2. dürftest du dein wissen nicht anwenden um spekulationen und faud zu korrigieren (im falle von einem nda)
3. wäre es irgendwie lächerlich wenn du hier jedem vorhalten würdest "eure spekulationen sind falsch", nur weil die die spekulieren es garnicht besser wissen können.




Welchen Artikel?

den langen text unter dem quote



Diese alberne Wortspielerei fuehrt zu gar nichts. Du weisst ganz genau was ich meinte.
und das du nicht weißt, was ich weiß, und deswegen ich mehr wissen haben könnte als du über die "fakten", ist wohl auch klar, oder?



Ich weiss genau wie weit ich gehen kann und wo ich halt machen muss. Bis jetzt war es noch nie ein Problem.

dann frag ich mich wieso du so anspringst nur weil ich meine meinung äußere, dass eventuell, möglicherweise, vielleicht nv noch was in der rückhand hat, falls der r520 besser als der g70 sein sollte. da muss kein spruch kommen wie "Wieso geht Ihr Kerle staendig davon aus dass G70 von der R520 unbedingt geplaettet werden wird?" ich hab doch nur ne annahme gemacht, was ist daran so schlimm? ich hab doch auch die gegenannahme gemacht.


Bis jetzt ist nichts solches geplant, das ist der Unterschied. Fuad wird von NV systematisch ver****t, er kommt mit einem Haufen Quark an und das Publikum glaubt eben das was im passt. Nichts dagegen; aber ich werde auf jeden Fall nicht von launch parties herausgeschmissen.
ich dachte du meinst fud (also dünnpfif von seiten der hersteller an ein paar schreihälse), emm... wer ist faud? the INQ ?
zudem verarsch ich niemanden, wenn ich meine meinung äußere, weil ich hier im spekulationsbereich bin, da darf ich mal meine wagen annahmen äußern, denn sogar der topic zeig wie wenig wahr annahmen sein müssen... afang 2005 ;)

MfG
micki

Coda
2005-07-19, 15:34:16
(430*24)/(425*16) = 50%. Wie kommst du eigentlich auf 60%?

Und es ist immer eine gewisse Ineffizienz vorhanden die eine lineare Skalierung verhindert. Die SC3 Benchmarks lassen sich garantiert nicht nur durch die Füllratensteigerung erklären.

Ailuros
2005-07-19, 15:36:35
Ich weiß, nur sieht man davon im Spielealltag eben nichts.
Kein Spiel legt höher zu, als es der Füllratensteigerung entspricht.
Einzige logische Erklärung: Die Füllrate limitiert.

Nochmal den Wert einer solchen Steigerung wirst Du nicht in Spielen wie Doom3/HL2 oder dergleichen sehen. Dieser Vorteil wird sich konstant immer mehr ausspielen mit der Zeit.

Damit ich nicht falsch verstanden werde. Ein NV40 User hat es momentan tatsaechlich nicht absolut noetig eine G70 zu kaufen, ueberhaupt wenn das System nur eine 3200 CPU z.B. hat. Sobald die CPU Preise aber fallen und mehr und mehr neue shader-lastige Spiele erscheinen, wird sich so eine Aufruestung dann eher lohnen.

Ailuros
2005-07-19, 15:51:23
jo, wenn man lang genug warten wollte, verfügbarkeit war garnicht gut.

ergo?


1. dann dürftest du das hier nichtmal andeuten dass du solche fakten weißt (sofern du ein nda unterschrieben hast, die einzig legale möglichkeit an die daten zu kommen afaik)
2. dürftest du dein wissen nicht anwenden um spekulationen und faud zu korrigieren (im falle von einem nda)

Weil Du persoenliche Erfahrung von solchen Situationen hast?

3. wäre es irgendwie lächerlich wenn du hier jedem vorhalten würdest "eure spekulationen sind falsch", nur weil die die spekulieren es garnicht besser wissen können.

Die Neben-effekte der Demokratie.


und das du nicht weißt, was ich weiß, und deswegen ich mehr wissen haben könnte als du über die "fakten", ist wohl auch klar, oder?

Tolle Logik. Du weisst aber besser als ich dass dieses nicht der Fall ist.


dann frag ich mich wieso du so anspringst nur weil ich meine meinung äußere, dass eventuell, möglicherweise, vielleicht nv noch was in der rückhand hat, falls der r520 besser als der g70 sein sollte.

Wo gab es einen "Ansprung" oder selbst einen indirekten Angriff?

da muss kein spruch kommen wie "Wieso geht Ihr Kerle staendig davon aus dass G70 von der R520 unbedingt geplaettet werden wird?" ich hab doch nur ne annahme gemacht, was ist daran so schlimm? ich hab doch auch die gegenannahme gemacht.

Hab ich jemand verboten seine Meinung zu aeussern? Wenn der obrige Satz als indirekte Beleidigung empfangen wurde dann ist es nicht mein Problem.


ich dachte du meinst fud (also dünnpfif von seiten der hersteller an ein paar schreihälse), emm... wer ist faud? the INQ ?

Der Trottel der bei Inquirer schreibt. :D

zudem verarsch ich niemanden, wenn ich meine meinung äußere, weil ich hier im spekulationsbereich bin, da darf ich mal meine wagen annahmen äußern, denn sogar der topic zeig wie wenig wahr annahmen sein müssen... afang 2005 ;)

Nochmal von Anfang an: das 7800 Ultra Geruecht stammt vom Inquirer; in der Mehrzahl der Faelle kommt die Annahme einer "Ultra" von diesem newsblurb; sonst gab es in NV's Papierkram bis jetzt nie eine "Ultra" sondern nur GTX als hoechstes Modell.

Und nochmal verweise ich auf Michael Hara/NVIDIA Aussagen vor dem G70 launch auf B3D. Der naechste "refresh" kommt auf 90nm.

Gabbabytes
2005-07-19, 16:06:01
Wenn ich die Wahl zwischen einer 7800 GTX für ~150 Euro und einem 20" TFT für 700 Euro habe, wähle ich die 7800 GTX.

Die Quelle möchte ich auch haben, die eine 7800er für 150€ verkauft ;D

Gast
2005-07-19, 16:38:52
Bei mir ist das flimmern in BF2 mit dem 77.72 jedenfalls weg - glaub es, oder nicht.
Und mehr als 60% schneller ist eine 7800GTX auch da nicht.

Das selbe wird auch für den R520 gelten, er ist genauso limitiert in BF2 wie die 7800GTX, nur in SplinterCell erwarte ich Realitätsnahe Benchmarks, welche Architektur bei den Shadern her am schnellsten und/oder effizientesten ist, alle anderen Spiele sind Füllraten oder CPU limitiert.
Wobei man ja CPU Limits umgehen kann in dem man logischerweise die Auflösung und das AA raufdreht, was wieder nur mit Füllrate zu meistern ist.
Shaderperformance zu messen wird noch interessant bis langweilig werden *g

micki
2005-07-19, 16:47:01
Weil Du persoenliche Erfahrung von solchen Situationen hast?

zum glück nicht, aber ich kenne jemanden der diese negativen erfahrungen mit nem konsolenhersteller hat. das NDA hat er nicht gebrochen, aber ne klausel darin macht ihn für ziemlich viel verantwortlich was nicht in seiner macht/kontroller stand. (edit: nicht im nda selbst, sondern in einem vertrag über ein spiel)


Tolle Logik. Du weisst aber besser als ich dass dieses nicht der Fall ist.

das nehme ich mir nicht raus es zu behaupten, auch wenn das der spekulationsforumbereich ist. ich weiß ja nicht wieviel du weißt.



Wo gab es einen "Ansprung" oder selbst einen indirekten Angriff?

anspringen im sinne von "darauf reagieren"
das fand statt als ich sagte, dass der r520 den g70 plätten könnte. auf die gegenteilige annahme die ich im nächsten satz machte hast du nicht so reagiert.



Hab ich jemand verboten seine Meinung zu aeussern? Wenn der obrige Satz als indirekte Beleidigung empfangen wurde dann ist es nicht mein Problem.

nein hast du nicht, wirkt nur komisch wenn du soviel text zur berichtigung einer spekulation schreibst, von jemanden der es wohl nicht wissen kann.




Nochmal von Anfang an: das 7800 Ultra Geruecht stammt vom Inquirer; in der Mehrzahl der Faelle kommt die Annahme einer "Ultra" von diesem newsblurb; sonst gab es in NV's Papierkram bis jetzt nie eine "Ultra" sondern nur GTX als hoechstes Modell.
nochmal zum mitschreiben, das war meine persönlich annahme, ich hab sie nicht von dritten, auch wenn ich das später mal irgendwo gelesen habe, ich hab es mir ganz alleine ersponnen.


Und nochmal verweise ich auf Michael Hara/NVIDIA Aussagen vor dem G70 launch auf B3D. Der naechste "refresh" kommt auf 90nm.
chip-refresh oder produkt-refresh?
denn das neue produkt "blabla Ultra" kann ruhig den selben chip benutzen, falls also ein chip-refresh gemeint war, kann das trotzdem hinkommen.

MfG
micki

zeckensack
2005-07-19, 18:07:54
Deutsch für Griechen, Sprach-Historik:
anspringen im sinne von "darauf reagieren"Wenn ein Auto-Motor startet, sagt man "Er springt an". Bzw (häufiger) wenn man versucht ihn zu starten, aber es nicht geht, sagt man "er springt nicht an".

Dieses "Anspringen" wurde in die Umgangssprache übertragen. Wenn jemand "[auf etwas] anspringt", dann heißt das dass er plötzlich stark reagiert.

Ailuros
2005-07-19, 18:20:59
chip-refresh oder produkt-refresh?
denn das neue produkt "blabla Ultra" kann ruhig den selben chip benutzen, falls also ein chip-refresh gemeint war, kann das trotzdem hinkommen.

Da die libraries zwischen 110nm und 90nm nicht allzu verwandt sind, braucht man etwas mehr Aufwand als mit G70. 90nm garantiert aber eine um X% hoehere Taktrate ohne dass man extravaganten Kuehlungsloesungen braucht und zu hohem Stromverbrauch kommt.

In dem Fall wird eben nicht derselbe chip benutzt oder anders es ist kein einfach hoeher getakteter G70 sondern ein neuer chip der vielleicht sogar einen anderen Codenamen intern traegt und auch einen anderen finalen Namen bekommen koennte. Namensgebung ist aber tatsaechlich unwichtig in diesem Fall.

Wo der Unterschied ist? Die "Ultra" die meistens vorgeschlagen wird, ist angeblich ein dual slot design mit >500MHz und immer noch auf 110nm. Das obrige passt nicht mit diesem hier zusammen und nein es ist auch nicht das "Gleiche".

zum glück nicht, aber ich kenne jemanden der diese negativen erfahrungen mit nem konsolenhersteller hat. das NDA hat er nicht gebrochen, aber ne klausel darin macht ihn für ziemlich viel verantwortlich was nicht in seiner macht/kontroller stand. (edit: nicht im nda selbst, sondern in einem vertrag über ein spiel)

Hat nichts mit dem Fall hier zu tun.

Ailuros
2005-07-19, 18:22:17
Deutsch für Griechen, Sprach-Historik:
Wenn ein Auto-Motor startet, sagt man "Er springt an". Bzw (häufiger) wenn man versucht ihn zu starten, aber es nicht geht, sagt man "er springt nicht an".

Dieses "Anspringen" wurde in die Umgangssprache übertragen. Wenn jemand "[auf etwas] anspringt", dann heißt das dass er plötzlich stark reagiert.

Merci monsieur ;)

micki
2005-07-19, 18:23:31
Dieses "Anspringen" wurde in die Umgangssprache übertragen. Wenn jemand "[auf etwas] anspringt", dann heißt das dass er plötzlich stark reagiert.
hab ich was anderes behauptet?

micki
2005-07-19, 18:27:47
Da die libraries zwischen 110nm und 90nm nicht allzu verwandt sind, braucht man etwas mehr Aufwand als mit G70. 90nm garantiert aber eine um X% hoehere Taktrate ohne dass man extravaganten Kuehlungsloesungen braucht und zu hohem Stromverbrauch kommt.

In dem Fall wird eben nicht derselbe chip benutzt oder anders es ist kein einfach hoeher getakteter G70 sondern ein neuer chip der vielleicht sogar einen anderen Codenamen intern traegt und auch einen anderen finalen Namen bekommen koennte. Namensgebung ist aber tatsaechlich unwichtig in diesem Fall.

Wo der Unterschied ist? Die "Ultra" die meistens vorgeschlagen wird, ist angeblich ein dual slot design mit >500MHz und immer noch auf 110nm. Das obrige passt nicht mit diesem hier zusammen und nein es ist auch nicht das "Gleiche".

*kopfkratz*
und was hat das ganze damit zu tun dass ich spekuliere dass nv eine ultra ausführung rausbringen könnte auf basis des g70 die lediglich höcher getaktet ist (was ich seit dem ersten posting hier (heute) die ganze zeit sage?


Hat nichts mit dem Fall hier zu tun.
ich weiß, aber ich hielt es für unfreundlich deine frage nicht zu beantworten, deswegen tat ich das.

MfG
micki

zeckensack
2005-07-19, 18:50:34
hab ich was anderes behauptet?Nein :)
Ich wollte nur noch erklären woher das kommt, weil ich glaube dass es dann leichter zu merken ist.
Außerdem weiß AiL jetzt, was er sagen muss wenn im Winter seine Auto-Batterie leer ist :ugly:

micki
2005-07-19, 19:13:21
Außerdem weiß AiL jetzt, was er sagen muss wenn im Winter seine Auto-Batterie leer ist :ugly:
das was jeder sagt "ich glaube die cpu der boardelektronik hat die übertaktung nicht gemocht"

MfG
micki

Quasar
2005-07-19, 21:55:59
Morgen wird ein besserer Tag sein IMO ;)
Meinst du, es wird helfen?

Quasar
2005-07-19, 22:02:41
Da die libraries zwischen 110nm und 90nm nicht allzu verwandt sind, braucht man etwas mehr Aufwand als mit G70. 90nm garantiert aber eine um X% hoehere Taktrate ohne dass man extravaganten Kuehlungsloesungen braucht und zu hohem Stromverbrauch kommt.

Ist X zweistellig? Vermutlich. Ist X größer als 15%? Vielleicht. Ist X etwa ein Viertel oder mehr? Hm....

deekey777
2005-07-19, 23:48:20
Morgen wird ein besserer Tag sein IMO ;)

Morgen soll das SDK R6: Raven Shield erscheinen, doch einen Zusammenhang sehe ich nicht....


Oder doch 77.76?

Ailuros
2005-07-20, 08:40:17
*kopfkratz*
und was hat das ganze damit zu tun dass ich spekuliere dass nv eine ultra ausführung rausbringen könnte auf basis des g70 die lediglich höcher getaktet ist (was ich seit dem ersten posting hier (heute) die ganze zeit sage?



Kann sein dass Du es als Kleinigkeit empfindest oder unwichtig, aber der Unterschied ist ziemlich gross. NV40->G70 war ein die-shrink; ein 90nm chip eben nicht.

Ailuros
2005-07-20, 08:43:04
Nein :)
Ich wollte nur noch erklären woher das kommt, weil ich glaube dass es dann leichter zu merken ist.
Außerdem weiß AiL jetzt, was er sagen muss wenn im Winter seine Auto-Batterie leer ist :ugly:

Ganz OT: aber komischerweise versagen meine Auto-batterien meistens im Sommer. Einen wahren Winter (ausser dass es regnet und hoellisch stark windet) gibt es hier sowieso nicht..... :P :D

Ailuros
2005-07-20, 08:46:59
Ist X zweistellig? Vermutlich. Ist X größer als 15%? Vielleicht. Ist X etwa ein Viertel oder mehr? Hm....

Die Gedanken ueber den SONY Vertrag wurden ja schon erwaehnt bis jetzt. Falls hier nichts im Weg steht, koennte man schon =/>550MHz (a la RSX) erwarten.

micki
2005-07-20, 09:01:25
Kann sein dass Du es als Kleinigkeit empfindest oder unwichtig, aber der Unterschied ist ziemlich gross. NV40->G70 war ein die-shrink; ein 90nm chip eben nicht.
in bezug auf meine aussagen empfinde ich es sogar OT.

MfG
micki

Gast
2005-07-21, 13:11:06
R520

1.350M
2.clock 620 or above/1200
3.90nm low-K( not even produced R520 yet untill problem get solved.)

Gast
2005-07-21, 13:14:52
R520

1.350M
2.clock 620 or above/1200
3.90nm low-K( not even produced R520 yet untill problem get solved.)

ok and now pics and battlefield 2 benchmarks please :D

boxleitnerb
2005-07-22, 08:20:43
http://vr-zone.com/?i=2487&s=1

3 Prozent Yields bei 24 Pipes. Wenn das stimmt, scheint sich ATI gehörig verrechnet zu haben. Ich hoffe nur, dass es nicht stimmt oder dass sie das noch hinkriegen.

Diskutator
2005-07-22, 08:44:24
Bräuchten sie auch um schneller als G70 zu sein. Ich will nur nicht die Kühllösung sehen - NV30 lässt grüßen.
DUALSLOT, so wie bei der X850 - Flüsterleise und ohne Flimmern!
:eek:

Quasar
2005-07-22, 09:17:13
Seit wann flimmern Kühllösungen? Oder meinst du Hitzeflimmern, weil der Kern so heiß wird?

deekey777
2005-07-22, 11:09:50
DUALSLOT, so wie bei der X850 - Flüsterleise und ohne Flimmern!
:eek:

Daß die Dual-Slot Kühlung der X850XT flüsterleise sein soll, halte ich für ein Gerücht: Zwar habe ich noch nie eine X850XT arbeiten hören, aber ich traue einigen objektiven Testern.

Winter[Raven]
2005-07-22, 11:38:44
DUALSLOT, so wie bei der X850 - Flüsterleise und ohne Flimmern!
:eek:

Dann frage ich mich wieso die X850 bei einem Bekannten "deutlich" zuhören ist? Erwähnungswert wäre vielleicht auch, das sein Gehäuse gedämmt ist, in dem Sinne wurde er enttäuscht, war er doch als ATI Freak immer begeistert.

[Spaß]P.S. Flimmern? meinst du die Tarnvorichtung des Kühlers versagt, so das es hin und her flimmert? :biggrin:
[/spaß]

DrumDub
2005-07-22, 11:53:51
http://vr-zone.com/?i=2487&s=1

3 Prozent Yields bei 24 Pipes. Wenn das stimmt, scheint sich ATI gehörig verrechnet zu haben. Ich hoffe nur, dass es nicht stimmt oder dass sie das noch hinkriegen. die meldung macht keinen sinn.

TheCounter
2005-07-22, 11:58:46
Daß die Dual-Slot Kühlung der X850XT flüsterleise sein soll, halte ich für ein Gerücht: Zwar habe ich noch nie eine X850XT arbeiten hören, aber ich traue einigen objektiven Testern.

Sowohl der Lüfter von ner X850XT/PE als auch von einer GF6800GT/U ist je nach Hersteller laut bis extrem laut. Wirklich leise ist aber keiner.

Ohne meine WaKü hätte ich die X850XT-PE warscheinlich wieder rausgeschmissen, die hat man selbst durch die geschlossene Zimmertür gehört.

mapel110
2005-07-22, 11:59:13
die meldung macht keinen sinn.
ATI scheint diese Seiten gut im Griff zu haben, was das (falsche) Gerüchte streuen angeht. :)

ShadowXX
2005-07-22, 12:05:11
ATI scheint diese Seiten gut im Griff zu haben, was das (falsche) Gerüchte streuen angeht. :)

Oder nV.......

seahawk
2005-07-22, 12:40:18
ATI scheint diese Seiten gut im Griff zu haben, was das (falsche) Gerüchte streuen angeht. :)

Oder wie man Meldungen streut, so dass die eigenen FUAD Gerüchte nicht zum eigenen Nachteil werden. :biggrin:

Ailuros
2005-07-22, 14:00:03
die meldung macht keinen sinn.

Eben. Denn es gab nie eine >4 quad R520 oder R580.

Gast
2005-07-22, 19:51:28
Seit wann flimmern Kühllösungen?
Er sagte doch ohne flimmern. :confused: