PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI R520 GPUs Ende Sept!


Tarkin
2005-09-05, 12:04:40
ATI R520 GPUs to come in 3Q

http://www.digitimes.com/news/a20050905A6033.html

ATI has informed its clients in Taiwan that it will gradually begin volume shipments of its R-series GPUs, including the R520, RV530, RV515 and RV505 by the end of the third quarter. R-series GPUs are fabricated at Taiwan Semiconductor Manufacturing Company (TSMC), using a 90nm processing technology, according to the sources.

In addition, ATI has begun to design an R-series GPU, the R516, for the entry-level graphics card market. However, the R516 will be built with a 90nm process at United Microelectronics Corporation (UMC), instead of TSMC, the source noted.

Most graphics card makers in Taiwan expected the delayed launch of ATI Technologies’ R520 GPUs to boost their sales in the fourth quarter of this year and help them recover part of the losses they incurred in the first half, according to sources at makers.

Gast
2005-09-05, 12:24:07
ATI R520 GPUs to come in 3Q

http://www.digitimes.com/news/a20050905A6033.html

ATI has informed its clients in Taiwan that it will gradually begin volume shipments of its R-series GPUs, including the R520, RV530, RV515 and RV505 by the end of the third quarter. R-series GPUs are fabricated at Taiwan Semiconductor Manufacturing Company (TSMC), using a 90nm processing technology, according to the sources.

In addition, ATI has begun to design an R-series GPU, the R516, for the entry-level graphics card market. However, the R516 will be built with a 90nm process at United Microelectronics Corporation (UMC), instead of TSMC, the source noted.

Most graphics card makers in Taiwan expected the delayed launch of ATI Technologies’ R520 GPUs to boost their sales in the fourth quarter of this year and help them recover part of the losses they incurred in the first half, according to sources at makers.

Da steht nur Volumeshipments Ende des 3. Quarals also Ende September.
Das sind aber nur die GPUs. Die müssen noch auf die Boards und die Boards müssen in den Markt.
Deswegen würde ich hier für den Endkunden eher von Ende Oktober sprechen.

Super Grobi
2005-09-05, 12:31:43
Boaaaaaaaaa,
bis ende Okt noch? Dann wird es die Karten ja erst im Dez. zu "normalen" Preisen geben....

SG

Raff
2005-09-05, 12:38:01
Überrascht das jemanden nach den Verspätungen? Hauptsache, da tut sich mal was. Und hoffentlich hat man auch wirklich etwas, das nVIDIA Paroli bieten kann.

MfG,
Raff

SKYNET
2005-09-05, 12:42:49
Und hoffentlich hat man auch wirklich etwas, das nVIDIA Paroli bieten kann.




ja, ne X950XTPEUEGAMMAPLUSSPEZIAL version mit trippleslot kühlung und 750MHz bei leichter v-core erhöhung.... natürlich gibt es davon nur 10 karten weltweit die nur testern zugänglich sind.... hauptsache der balken ist länger.... aber das spiel kennen wir ja schon. ;)

Raff
2005-09-05, 12:50:52
Prestige ist alles. Hauptsache, es existiert eine Karte, die nV die Stirn bieten kann, dann verkaufen sich die kleineren gleich doppelt gut.

Aber: War es nicht nV mit der "Ultra Extreme", die eine Hand voll Testobjekte über dem normalen 6800U-Niveau rauswarfen? ;)

MfG,
Raff

Gast
2005-09-05, 12:53:37
Aber: War es nicht nV mit der "Ultra Extreme", die eine Hand voll Testobjekte über dem normalen 6800U-Niveau rauswarfen? ;)

MfG,
Raff
So ist es. Nvidia hat als erstes begonnen Scheinkarten für Benchmarks zu stellen. Offiziel auf der HP gibt es diese ja nicht. ;)

Coda
2005-09-05, 13:01:14
Prestige ist alles. Hauptsache, es existiert eine Karte, die nV die Stirn bieten kann, dann verkaufen sich die kleineren gleich doppelt gut.

Aber: War es nicht nV mit der "Ultra Extreme", die eine Hand voll Testobjekte über dem normalen 6800U-Niveau rauswarfen? ;)

MfG,
RaffTrotz guter X800 Ergebnisse verkaufen sich die X700 aber nicht so prächtig.

Es ist zwar richtig, dass das Highend zieht, aber die Leistung der Midrange-Karten ist dann doch auch wichtig.

Xmas
2005-09-05, 13:13:42
ja, ne X950XTPEUEGAMMAPLUSSPEZIAL version mit trippleslot kühlung und 750MHz bei leichter v-core erhöhung.... natürlich gibt es davon nur 10 karten weltweit die nur testern zugänglich sind.... hauptsache der balken ist länger.... aber das spiel kennen wir ja schon. ;)
Wie wärs, wenn du dich mit deinen provokativen Beiträgen mal ein bisschen zurückhälst? Ich glaube kaum dass du in einer Position bist, konkrete Aussagen über die Leistungsfähigkeit der kommenden Produkte von ATI machen zu können.

Gast
2005-09-05, 13:22:45
Trotz guter X800 Ergebnisse verkaufen sich die X700 aber nicht so prächtig.

Es ist zwar richtig, dass das Highend zieht, aber die Leistung der Midrange-Karten ist dann doch auch wichtig.

Hi, ich kann nur von mir ausgehen, ich wollte mir auch erst eine X700pro mit 128mb kaufen (~110euro) werde jetzt aber eine X800 GT mit 256MB kaufen (~150).

Die GT erarchte ich für sehr sinnvoll, im Schnitt fast doppelt so schnell wie eine X700pro kostet aber nur paar Euro mehr, vorher musste man ja für das "nächstebeste" über 200 Euro hinlegen.

Dass R520 und Kollegen demnächst kommen freut mich, auch wenn ich mir keine kaufen werde, mich interessieren hauptsächlich die Artikel und die BQ :)

SKYNET
2005-09-05, 13:25:30
Prestige ist alles. Hauptsache, es existiert eine Karte, die nV die Stirn bieten kann, dann verkaufen sich die kleineren gleich doppelt gut.

Aber: War es nicht nV mit der "Ultra Extreme", die eine Hand voll Testobjekte über dem normalen 6800U-Niveau rauswarfen? ;)

MfG,
Raff


die UE karten waren von gayward und XFX(?), nicht von NV... zumindest nicht offiziel. ;D

Fetza
2005-09-05, 13:26:02
Hi,

mir persönlich kommt der späte release absolut passend, meine 6800gt reicht mir noch, und wenn der r520 kommt gibts dann den wechsel auf pci-express.

Gruss

Fetza

MartinRiggs
2005-09-05, 13:35:42
Na ja ich freu mich schon wenn Bewegung in den Markt kommt.
Ich war mit meinen Radeon immer sehr zufrieden, was ich von den Geforce nicht behaupten kann.
@Skynet
Wenn ich deine Signatur lese dann pack ich mich nur an den Kopf, woher willst du wissen das die R520 Karten laut wie Flugzeuge sind bzw. Heizlüfter ersetzen :confused:

deekey777
2005-09-05, 13:37:03
die UE karten waren von gayward und XFX(?), nicht von NV... zumindest nicht offiziel. ;D

Nein, nicht offiziell, rein zufällig tauchte diese als "Antwort" zu Launch der X800XT PE auf...
http://www.tecchannel.de/technologie/komponenten/402312/
Ist ja fast wie mit dem nicht funktionierenden VP der NV40: Damit wurde beworben, aber irgendwie ist er doch nicht da.

Xmas
2005-09-05, 14:31:37
Diskussionen zu Eingriffen der Moderation haben stets nur im "über die Webseite und das Forum" (http://www.forum-3dcenter.org/vbulletin/forumdisplay.php?f=35) stattzufinden. Kommentare im jeweilig moderierten Thread sind unerwünscht.

Hübie
2005-09-05, 14:49:41
ja, ne X950XTPEUEGAMMAPLUSSPEZIAL version mit trippleslot kühlung und 750MHz bei leichter v-core erhöhung.... natürlich gibt es davon nur 10 karten weltweit die nur testern zugänglich sind.... hauptsache der balken ist länger.... aber das spiel kennen wir ja schon. ;)

;D Beide nehmen sich da nix...
Abwarten und Tee schlürfen. Bin gespannt wie ein Flitzebogen :)


bye Hübie

Gast
2005-09-05, 14:58:36
So ist es. Nvidia hat als erstes begonnen Scheinkarten für Benchmarks zu stellen. Offiziel auf der HP gibt es diese ja nicht. ;)


nö, die ultra extreme war eine reine erfindung einiger kartenhersteller (imo gainward, aber noch andere) und nicht von nvidia, und von diesen wenigen herstellern waren sie auch vorhanden.

tombman
2005-09-05, 15:07:50
Naja, rein rechnerisch sind 600core *16p ned so toll, aber das kann auch täuschen. Jedenfalls kann Nvidia sofort locker mit 550core auftrumpfen wenn es nötig wird, denn soviel schaffen ja auch die quadro 4500 Karten mit Monsterlüfter ;)

Black-Scorpion
2005-09-05, 15:12:36
nö, die ultra extreme war eine reine erfindung einiger kartenhersteller (imo gainward, aber noch andere) und nicht von nvidia, und von diesen wenigen herstellern waren sie auch vorhanden.
Das war wohl nix.
Die wurde von nVidia vorgestellt und war keine Erfindung von irgendwelchen Herstellern.

---
ATI versucht mit der neuen X800 XT Platinum Edition (Codename R420), NVIDIAs drei Wochen altes Flaggschiff GeForce 6800 Ultra auszustechen. Doch überraschend zaubert NVIDIA eine noch schnellere Extreme-Version aus dem Hut.
---
Quelle: http://www.tecchannel.de/technologie/komponenten/402312/

---
Am 3. Mai 2004 - einen Tag vor dem offiziellen Launch der ATI-X800-Serie - enthüllte NVIDIA gleich zwei neue Grafikchips und erweitert damit das bestehende Produktportfolio. Trotz mit Abstand bester Performance des vor drei Wochen vorgestellten GeForce 6800 Ultra bietet NVIDIA ein neues Top-Modell mit dem Namen GeForce 6800 Ultra Extreme an.
---
Quelle: http://www.tecchannel.de/technologie/komponenten/402312/index5.html

SKYNET
2005-09-05, 15:12:53
;D Beide nehmen sich da nix...
Abwarten und Tee schlürfen. Bin gespannt wie ein Flitzebogen :)


bye Hübie


hab ich auch nicht behauptet... weil wenn die 950XTEMGAULTRASUPERBLABLABLA version die 7800GTX schlägt, schiebt NV das 550/1400 monster nach, schon wars das mit dem thema... ;)

Gast
2005-09-05, 15:31:39
hab ich auch nicht behauptet... weil wenn die 950XTEMGAULTRASUPERBLABLABLA version die 7800GTX schlägt, schiebt NV das 550/1400 monster nach, schon wars das mit dem thema... ;)
Und konnterst Ati wieder Omg immer das gleiche Spiel.

Marc-
2005-09-05, 15:44:58
Naja, rein rechnerisch sind 600core *16p ned so toll, aber das kann auch täuschen. Jedenfalls kann Nvidia sofort locker mit 550core auftrumpfen wenn es nötig wird, denn soviel schaffen ja auch die quadro 4500 Karten mit Monsterlüfter ;)

Jo. und ati kann relativ zügig mehr und mehr karten mit 24 pipes nachschieben, da der produktionsprozess sich vermutlich ja auch verbessern wird. Und das bei gegebenen Taktfrequenzen... also ich sehe da ganz gute aussichten was die konkurenzfaehigkeit von ati mit den neuen karten angeht. Dürfte auch allen zugutekommen, weil sich das vermutlich auch schnell über einen preiskampf entwickelt, wohingegen nvidia momentan das privileg der preisdiktatur noch nutzen kann.

SKYNET
2005-09-05, 15:47:54
nö, ATI hat diesmal nicht viel spielraum...

550MHz x 24 pipes = 13200M füllrate
750MHz x 16 pipes = 12000M füllrate

mehr dürfte bei ATI nicht drinne sein, und selbst die 750MHz sind schon SEHR hoch angesetzt, eher dürfte bei 700 schluss sein.

deekey777
2005-09-05, 15:47:55
Jo. und ati kann relativ zügig mehr und mehr karten mit 24 pipes nachschieben, da der produktionsprozess sich vermutlich ja auch verbessern wird. Und das bei gegebenen Taktfrequenzen... also ich sehe da ganz gute aussichten was die konkurenzfaehigkeit von ati mit den neuen karten angeht. Dürfte auch allen zugutekommen, weil sich das vermutlich auch schnell über einen preiskampf entwickelt, wohingegen nvidia momentan das privileg der preisdiktatur noch nutzen kann.

Was für 24 Pipes? Die gibt es nicht, und wird es nie geben.

tombman
2005-09-05, 15:59:49
Was für 24 Pipes? Die gibt es nicht, und wird es nie geben.

Soll R580 nicht 24p haben?

I.ü. denke ich, daß sich ATI und Nvidia ned viel nehmen werden in der ulta high end performance... reißen sich ja eh beide die Haxen aus ;)

reunion
2005-09-05, 16:06:17
Soll R580 nicht 24p haben?


Nein.

reunion
2005-09-05, 16:08:47
Naja, rein rechnerisch sind 600core *16p ned so toll, aber das kann auch täuschen. Jedenfalls kann Nvidia sofort locker mit 550core auftrumpfen wenn es nötig wird, denn soviel schaffen ja auch die quadro 4500 Karten mit Monsterlüfter ;)

Manche R480-Chips schaffen auch über 600Mhz, was noch lange nicht bedeutet, dass ATi auch solche Taktraten garantiert.
Realistisch dürften wohl eher 475-500Mhz für eine mögliche "Ultra" sein IMO.

deekey777
2005-09-05, 16:09:32
Soll R580 nicht 24p haben?

I.ü. denke ich, daß sich ATI und Nvidia ned viel nehmen werden in der ulta high end performance... reißen sich ja eh beide die Haxen aus ;)

Nein, den zZ bekannten "Informationen" nach nicht, aber mit stark gesteigerten Shaderleistung. Doch auch die "nur" 600 MHz sollte man auch aus dem Kopf werfen, eher sind es 650 MHz, wenn nicht mehr, für das stärkste Model. Für einen 7800GT Gegner sind die 600MHz zumindest von der Füllrate her ausreichend.

Xmas
2005-09-05, 18:10:52
nö, ATI hat diesmal nicht viel spielraum...

550MHz x 24 pipes = 13200M füllrate
750MHz x 16 pipes = 12000M füllrate

mehr dürfte bei ATI nicht drinne sein, und selbst die 750MHz sind schon SEHR hoch angesetzt, eher dürfte bei 700 schluss sein.
Und die Füllrate ist deiner Meinung nach der einzige Faktor, der über die reale Leistungsfähigkeit entscheidet? Mal zum Vergleich: 1600x1200 @ 100fps sind gerade mal 192 MPixel/s. Es gibt massenhaft Möglichkeiten, trotz geringerer Füllrate mehr fürs Geld zu bieten.

Gast
2005-09-05, 18:11:45
wie schnell wird in etwa der RV530 denn sein ,
die performance einer X850 PRO !
wird der RV530 wohl locker schlagen können , trotz des 128 bit Speicherinterfaces ,
Welche Meinung habt ihr diesbezüglich ?

Labberlippe
2005-09-05, 18:32:53
ja, ne X950XTPEUEGAMMAPLUSSPEZIAL version mit trippleslot kühlung und 750MHz bei leichter v-core erhöhung.... natürlich gibt es davon nur 10 karten weltweit die nur testern zugänglich sind.... hauptsache der balken ist länger.... aber das spiel kennen wir ja schon. ;)

Hi

Erkläre mir bitte warum ATI einen Fön plötzlich bringen soll.
Bis jetzt gibt es wieder nur Gerüchte und vermutungen.
Ich kann mich noch gut an den Stromstecker der 9700er errinner wo die Karte gleich schlecht geredet wurde und als Hitzemonster deklariert wurde.

Abwarten bis die Karte vorgestellt wird, dann erst kann man schellen aus teilen.

Gruss Labberlippe

Gast
2005-09-05, 18:56:01
Und die Füllrate ist deiner Meinung nach der einzige Faktor, der über die reale Leistungsfähigkeit entscheidet? Mal zum Vergleich: 1600x1200 @ 100fps sind gerade mal 192 MPixel/s. Es gibt massenhaft Möglichkeiten, trotz geringerer Füllrate mehr fürs Geld zu bieten.

Ich denke ihm ginges eher darum aufzuzeigen, das der Spitzenplatz der "fastest GPU on Planet" von NV relativ einfach zurück geholt werden kann, sollte die Spezial Variante der R520 Karten die G70GTX Karten schlagen.

Man sieht doch in heutigen Spielen ist Füllrate und CPU Power immer noch alles sind. Der R580 wird klar stärker aber eben nicht beim "Pixel-Texel-Werfen"...

Und was soll der R520 mehr fürs Geld bieten? 8xAA Mahlzeit, nicht wirklich ein weiter Sprung, und höhere AA Modi fallen raus da die Speicherbandbreite ausgeht.

Irgendwo ist glaube ich einfach schluss was man einer GPU alles mitgeben kann und was sie in "spielbare" Leistung umsetzen kann, und wir reden hier über die TOP Performer nicht über die Mainstream Produkte, wo das Geld verdient wird.

Hübie
2005-09-05, 23:39:04
Und genau deswegen sage ich doch: Abwarten und Bier trinken :smile:
Ich zermatsch mir da net die Birne drüber... Das Kind wird schon geschaukelt :D


bye Hübie

deekey777
2005-09-05, 23:48:19
Und die Füllrate ist deiner Meinung nach der einzige Faktor, der über die reale Leistungsfähigkeit entscheidet? Mal zum Vergleich: 1600x1200 @ 100fps sind gerade mal 192 MPixel/s. Es gibt massenhaft Möglichkeiten, trotz geringerer Füllrate mehr fürs Geld zu bieten.

Doch wie willst du einem Dau* erklären, daß es andere Faktoren gibt, wenn dieser mit Slogans wie "konkurrenzlose Füllrate" bombardiert wird?


*Skynet ist hier nicht gemeint.

Xmas
2005-09-06, 00:22:33
Ich denke ihm ginges eher darum aufzuzeigen, das der Spitzenplatz der "fastest GPU on Planet" von NV relativ einfach zurück geholt werden kann, sollte die Spezial Variante der R520 Karten die G70GTX Karten schlagen.
Was aber, wenn es dazu keine Spezial-Variante braucht? Diese Möglichkeit kann man nicht kategorisch ausschließen, erst recht nicht anhand irgendwelcher Füllraten.

Man sieht doch in heutigen Spielen ist Füllrate und CPU Power immer noch alles sind. Der R580 wird klar stärker aber eben nicht beim "Pixel-Texel-Werfen"...

Und was soll der R520 mehr fürs Geld bieten? 8xAA Mahlzeit, nicht wirklich ein weiter Sprung, und höhere AA Modi fallen raus da die Speicherbandbreite ausgeht.

Irgendwo ist glaube ich einfach schluss was man einer GPU alles mitgeben kann und was sie in "spielbare" Leistung umsetzen kann, und wir reden hier über die TOP Performer nicht über die Mainstream Produkte, wo das Geld verdient wird.
Man kann noch eine ganze Menge tun, allem voran die Effizienz erhöhen. Effizientere Z/Stencil-Rejection, effizienteres Batching, effizienteres AF, effizientere Kompression, effizientere Caches, schnellere Vertex Shader, mehr Bandbreite effizient genutzt – der G70 ist doch nicht perfekt. NV40 erreichte mit weniger Füllrate auch R420, wieso sollte das beim R520 nicht möglich sein? Ich weiß nicht, wie es kommen wird, aber ich sehe noch keinen Grund, hier eine Möglichkeit auszuschließen.

Radeonator
2005-09-06, 07:06:02
Wann jibbet dann erste Benches und RefBoards von Sapphire?
Gebt doch mal die Specs für das neue Flagschiff biddö :)

Oki:

16Pipes / 500 - 1200 und 600 - 1400 ?

Majestic
2005-09-06, 17:44:24
Die Karte auf Basis des R520 sollen laut CB übrigens "Radeon X1800" heißen, falls das noch niemand gepostet hat :)
http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/september/r520_radeon_x1800/

Sonyfreak
2005-09-06, 19:19:09
Ich bin auch schon sehr gespannt, was für eine Karte ATI diesmal aus dem Hut zaubert. Von der letzen Serie war ich ja nicht so ganz überzeugt aber die neue Serie scheint wieder besser zu gelingen. Es wird interessant sein, ob ATI diesmal wirklich nochmal mit 16 pipes an den Start geht.

mfg.

Sonyfreak

Hakim
2005-09-07, 14:23:46
16 pipes!!! Wie sieht es mit Vertex shader aus? Immer noch 6? Also wenn das stimmen sollte müssen die ja extrem viel an der Effizienz gearbeitet haben. Sonst muss man ja extrem hochtakten um gleich zu ziehen.

iam.cool
2005-09-07, 15:35:45
Ich denke ihm ginges eher darum aufzuzeigen, das der Spitzenplatz der "fastest GPU on Planet" von NV relativ einfach zurück geholt werden kann, sollte die Spezial Variante der R520 Karten die G70GTX Karten schlagen.

Man sieht doch in heutigen Spielen ist Füllrate und CPU Power immer noch alles sind. Der R580 wird klar stärker aber eben nicht beim "Pixel-Texel-Werfen"...

Und was soll der R520 mehr fürs Geld bieten? 8xAA Mahlzeit, nicht wirklich ein weiter Sprung, und höhere AA Modi fallen raus da die Speicherbandbreite ausgeht.

Irgendwo ist glaube ich einfach schluss was man einer GPU alles mitgeben kann und was sie in "spielbare" Leistung umsetzen kann, und wir reden hier über die TOP Performer nicht über die Mainstream Produkte, wo das Geld verdient wird.


Dir ist schon klar das theoretische- und efektive Füllrate weit auseinander liegen oder? Ich zieh als beispiel mal die 6800er heran, an rohleistung ist sie na X800XT in füllrate überlegen die Radeon brringts efektiv aber auf mehr Füllrate da sie besser beim verwerfen ist und auch grösstenteils wirklich nur benötigte Sachen die Füllratte bealasten.

Die pure Rohleistung sagt immer nur bedingt was über die wirkliche Leistung aus, entscheident ist wie efektiv die Karte die vorhandenen recourcen nutzt und in Leistung umsetzt - das mehr nicht immer gleich mehr ist solte spätestens seit P4/A64 klar sein.

Gast
2005-09-07, 17:43:21
Dir ist schon klar das theoretische- und efektive Füllrate weit auseinander liegen oder? Ich zieh als beispiel mal die 6800er heran, an rohleistung ist sie na X800XT in füllrate überlegen die Radeon brringts efektiv aber auf mehr Füllrate da sie besser beim verwerfen ist und auch grösstenteils wirklich nur benötigte Sachen die Füllratte bealasten.



verwechselst du da nicht was? an füllratenrohleistung ist die x800XT der 6800u doch ziemlich stark überlegen. am ende ist der vorsprung dennoch deutlich kleiner als man erwarten würde (was wohl in erster linie der besseren ausnutzung der bandbreite auf NV4x+-chips gegenüber ihren ATI-pendants zu verdanken ist)

Lubi
2005-09-07, 19:34:00
Da bin ich mal gespannt ob der R520 so effizient arbeitet wie viele denken!

Er wird von einigen als hochoptimierter effizient arbeitender Grafikchip gehandelt

Cya Lubi

iam.cool
2005-09-08, 14:56:35
verwechselst du da nicht was? an füllratenrohleistung ist die x800XT der 6800u doch ziemlich stark überlegen. am ende ist der vorsprung dennoch deutlich kleiner als man erwarten würde (was wohl in erster linie der besseren ausnutzung der bandbreite auf NV4x+-chips gegenüber ihren ATI-pendants zu verdanken ist)


oh, stimmt schon da war mein Gehirn wohl mal wieder auf "stand by", gleiche anzahl an Pipes + höherer Takt muss ja mehr Füllrate erggeben :redface:

Gast
2005-09-09, 20:22:51
Was ist das denn für ein Witz? Ne "High-End-Karte" der neuesten Generation mit 16 Piplines???

Noch vor einiger Zeit war ATI mit Karten wie der 9700 Pro durchaus NV überlegen, aber seitdem ein Rückschlag nach dem anderen. NV verbauen seit einem Jahr den Shader 3.0, den man sogar in jeder Low-Cost mitbekommt. SLI unterstützt NV auch schon eine Ewigkeit. Und jetzt dieser Witz, gerademal das Shadermodel 3.0 kommt als Neuerung in der neuesten ATI Generation. Und dafür noch eine monatelange Verspätung. Na die nächste Generadtion bringt dann vielleicht ja 24 Piplines ;) und NV läuft mit 64 Pipes und Unifield-Shadern (Shader 4.0)

Ich werde mir die 7800 GT sofot ordern sobald die verfügbar ist, denn selbst die wird 20 Pipes haben.

MikBach
2005-09-09, 20:30:41
Was ist das denn für ein Witz? Ne "High-End-Karte" der neuesten Generation mit 16 Piplines???

Ich werde mir die 7800 GT sofot ordern sobald die verfügbar ist, denn selbst die wird 20 Pipes haben.
Pipes sind unwichtig. Die Füllrate ist wichtig.
Und diese hängt nun eben auch vom Takt ab.
Ausserdem ist auch die Shaderleistung wichtig.
Abwarten und Tee trinken. Bald sind wir schlauer.

Winter[Raven]
2005-09-09, 20:32:33
Füllrate wird aber nicht mehr so wichtig sein, es wird sich auf Arithmetik verlagern, und da ist NV derzeit Lichtjahre voraus, und das wird sich mit dem R520 nicht ändern.

MikBach
2005-09-09, 20:44:48
']Füllrate wird aber nicht mehr so wichtig sein, es wird sich auf Arithmetik verlagern, und da ist NV derzeit Lichtjahre voraus, und das wird sich mit dem R520 nicht ändern.
Lichtjahre?
Das einige gleich so übertreiben müssen.
Du hast schon Recht, dass NV zur Zeit vorn ist, aber Lichtjahre sind es sicherlich nicht.
Siehe auch hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=247034

Was den R520 betrifft, kannst du mir mal deine Glaskugel leihen? Ich hätte da vielleicht Verwendung für... :D

Gast
2005-09-09, 20:50:23
Pipes sind unwichtig. Die Füllrate ist wichtig.
Und diese hängt nun eben auch vom Takt ab.
Ausserdem ist auch die Shaderleistung wichtig.
[/QUOTE]

Wie errechnet sich Füllrate, wenn die Pipes unwichtig wären? ;)

LovesuckZ

Gast
2005-09-09, 20:53:08
Da steht nur Volumeshipments Ende des 3. Quarals also Ende September.
Das sind aber nur die GPUs. Die müssen noch auf die Boards und die Boards müssen in den Markt.
Deswegen würde ich hier für den Endkunden eher von Ende Oktober sprechen.
NO!!!

Winter[Raven]
2005-09-09, 20:54:20
Lichtjahre?
Das einige gleich so übertreiben müssen.
Du hast schon Recht, dass NV zur Zeit vorn ist, aber Lichtjahre sind es sicherlich nicht.
Siehe auch hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=247034

Was den R520 betrifft, kannst du mir mal deine Glaskugel leihen? Ich hätte da vielleicht Verwendung für... :D

Warte doch die kommenden Spiele ab, sei nicht so ungeduldig. G70 als auch R520 sind Chips für kommende Games und nicht die von 2 Jahren ... :biggrin:

MikBach
2005-09-09, 21:10:34
Wie errechnet sich Füllrate, wenn die Pipes unwichtig wären? ;)

LovesuckZ
Ich meinte damit, dass eine Pauschalaussage a la 20 Pipes sind immer besser als 16 nicht haltbar ist, weil es eben auch vom Takt abhängt.

PS Sorry, dass ich mich nicht präzise genug ausgedrückt habe, aber heute bin ich klein wenig neben der Spur. :redface:

MikBach
2005-09-09, 21:13:53
']Warte doch die kommenden Spiele ab, sei nicht so ungeduldig.
Das habe ich letztes Jahr auch über SM3 in Verbindung mit Kaufempfehlungen für den NV40 gehört...
']
G70 als auch R520 sind Chips für kommende Games und nicht die von 2 Jahren ... :biggrin:
Ist ja schön und gut, aber woran willst du es festmachen?
Theorie?

edit: Rechtschreibung. :redface:

MikBach
2005-09-09, 21:15:44
NV hat nur Bugs auf Ihren Karten und hat einen CHEAT auf der derzeitigen G70!
:confused:
Welcher Cheat soll es denn sein?
Dass mit neuer Hardware auch ein paar Bugs dabei sind, ist relativ normal.

moep_moep
2005-09-09, 22:12:32
hmm warten wir doch einfach ab wie es im Endeffekt ausgehen wird :)

Wobei ich den R520 in Thema Kühlung kritisch sehe ......... sollte er wicklich mit den angestrebten MHZ auf den Markt kommen :(

MikBach
2005-09-09, 22:27:43
NO!!!
Was NO?

Winter[Raven]
2005-09-09, 23:17:11
hmm warten wir doch einfach ab wie es im Endeffekt ausgehen wird :)

Wobei ich den R520 in Thema Kühlung kritisch sehe ......... sollte er wicklich mit den angestrebten MHZ auf den Markt kommen :(

Braucht jemand einenen neuen Fön? Oder Kaffemaschine? Der sollte zum R520 greifen!

Und nein, das ist mein voller Ernst!

MikBach
2005-09-09, 23:19:16
']Braucht jemand einenen neuen Fön? Oder Kaffemaschine? Der sollte zum R520 greifen!

Und nein, das ist mein voller Ernst!
Kannst du mir bitte deine R520-Karte zum Testen zuschicken?
Wäre echt nett, dann brauche ich nicht so lange zu warten... :D

HajottV
2005-09-10, 09:26:46
']Braucht jemand einenen neuen Fön? Oder Kaffemaschine? Der sollte zum R520 greifen!

Und nein, das ist mein voller Ernst!

Muß das sein?

Jörg

moep_moep
2005-09-10, 10:50:50
naja wenn ich mir die Bilder ansehe:

http://www.ati-news.de/Bilder/News/ATI/r520front.jpg

http://www.ati-news.de/Bilder/News/ATI/r520grose.jpg


Wie war das noch mit der BIG MAC Werbung ? ....... 20 % mehr für begrenzte Zeit ? :D

Gast
2005-09-10, 14:33:14
@mik_bach
ja richtig und heute hat man die ersten vorteil mir sm3
nicht nur splinter_cell3 oder far cry mit hdr
nein jetzt hat auch noch aoeIII eine deutlich bessere grafik

Black-Scorpion
2005-09-10, 15:32:26
Und was hat HDR mit SM3 zu tun?

rpm8200
2005-09-10, 23:46:55
naja wenn ich mir die Bilder ansehe:

http://www.ati-news.de/Bilder/News/ATI/r520grose.jpg


Wie war das noch mit der BIG MAC Werbung ? ....... 20 % mehr für begrenzte Zeit ? :D

Was bitte sollen diese (nebenbei unnötig grossen) Bilder zeigen bzw. beweisen? Der Arctic Cooling Silencer is nu mal ne 2-Slot Lösung (gibts für NV und ATI!), dafür wird die Wärme auch ausserhalb des Case entsorgt und das ganze auch ziemlich leise.

Btw.: Ist denn schon irgendwo durchgesickert welche Kühlung der neue R520 haben wird?

Winter[Raven]
2005-09-10, 23:59:22
Ja, keinen AC-S! Dafür Dualslot mit dem Lüfter den man von X850 PE kennt, mit einem einigem Unterschied, das dieser schneller dreht und damit auch lauter ausfallt.

rpm8200
2005-09-11, 00:11:53
Ahja, Danke. Meine Frage: Was spricht gegen Dual-Slot? Hoerte sich bei moep_moep so an als wäre das ein riesen Nachteil? IMHO doch ein Vorteil wenn die Wärme direkt ausm Case geht oder?

Winter[Raven]
2005-09-11, 00:27:17
Dagegen ist nichts auszusetzen :) Finde ich sogar besser als Singelslot, wobei die 7800GTX mich sehr positiv überraschaht hat.

Nur geht ATI mit dem R520 bis jetzt ans Technisch machbare und das wird leider einen Tribut fordern, und das sind unsere Trommelfelder.

Labberlippe
2005-09-11, 02:17:12
']Dagegen ist nichts auszusetzen :) Finde ich sogar besser als Singelslot, wobei die 7800GTX mich sehr positiv überraschaht hat.

Nur geht ATI mit dem R520 bis jetzt ans Technisch machbare und das wird leider einen Tribut fordern, und das sind unsere Trommelfelder.

Hi

Hast Du die Karte schon in der Hand gehabt?
Hast Du die Karte gesehen.
Konntest Du überhaupt das ganze schon wirklich selbst begutachten?

oder gibst Du nur Deine Vermutungen von Höhren und sagen bekannt und bitte komm nicht mit NDA daher.

Übrigens, nVIDIA hatte bis jetzt immer die Grösse.
Ich denke da mal an die FX Serie oder 4600er welche auch nicht wirklich klein waren.

Gruss Labberlippe

moep_moep
2005-09-11, 09:24:09
meine Anspielung galt net der Kühlung ;) ...... sondern der "gewachsenen" Platine :D

Darf man hier net mal nen Scherz machen ohne das alle gleich in die Luft gehen ? O.o

Winter[Raven]
2005-09-11, 10:39:19
Hi

Hast Du die Karte schon in der Hand gehabt?
Hast Du die Karte gesehen.
Konntest Du überhaupt das ganze schon wirklich selbst begutachten?

oder gibst Du nur Deine Vermutungen von Höhren und sagen bekannt und bitte komm nicht mit NDA daher.

Übrigens, nVIDIA hatte bis jetzt immer die Grösse.
Ich denke da mal an die FX Serie oder 4600er welche auch nicht wirklich klein waren.

Gruss Labberlippe

Wie Demirug schon mehrmals hingewiesen hat, wird ein langes PCB nicht einfach so aus Spaß verwendet! In dem Sinne würde ich dir empfehlen dich mal zu informieren wieso NV schon seit GF 4600 ti so lange PCB's verwendet.

Auf der GC gab es einen R520 zu begutachte, nicht für die Öffentlichkeit aber für andere. Wobei mit der verbautem Lüfter nimmand wirlich zufrieden sein sollte!

Oblivion
2005-09-15, 18:46:49
Und was hat HDR mit SM3 zu tun?

Ein Feature dass SM3 von SM2 unterscheidet

deekey777
2005-09-15, 19:04:04
Ein Feature dass SM3 von SM2 unterscheidet

Nein.
Die NV40/G70 hat einige zusätzliche HW-Features, die die HDR-Implementierung vereinfachen. :biggrin:

Oblivion
2005-09-15, 19:09:44
Nein.
Die NV40/G70 hat einige zusätzliche HW-Features, die die HDR-Implementierung vereinfachen. :biggrin:

Ach ...

ich lass das mit SM3 und SM2 - so und so passts net, immer falsch :( - ich werd mal ne genaue Beschreibung der UNterschiede im I-net suchen und dann mach ich euch alle fertig *lol* ;D

333bpm
2005-09-15, 23:48:39
Die 1800Xt Version wird anscheinend der Hammer.

Hier ein Zitat aus den 3dcenter-news:

" News des 15. September 2005

Aus Fernost gibt es ein paar erste Performance-Werte zu ATIs R520 HighEnd-Grafikchip, auch wenn sich diese derzeit nur auf zwei Messungen im 3DMark05 beschränken. So soll eine R520 XL ("Radeon X1800 XL") mit 500/500 MHz und 16 Pipelines 7000 3DMarks erreicht haben, eine R520 XT ("Radeon X1800 XT") mit 650/700 MHz und 16 Pipelines 8600 3DMarks. Dies sind exzellente Werte, denn im Vergleich erreicht eine GeForce 7800 GTX mit 430/600 MHz und 24 Pipelines derzeit runde 7650 3DMarks. Überraschend ist zudem, daß ATI beim Speichertakt der R520 XT bis ans obere Ende der Vorgaben geht und gleich 700-MHz-Speicher einsetzt, welcher derzeit nocht ziemlich teuer sein dürfte. Inwiefern das auf den Kartenpreis abfärbt - auch eingedenk der bei der XT verbauten 512 MB Speicher - bleibt zu beobachten. "

Coda
2005-09-15, 23:56:21
Man darf nicht vergessen, dass die R520 deutlich mehr Vertex-Power hat als G70. Das hilft im 3DMark 05 ziemlich, in Spielen aber fast gar nicht.

ch werd mal ne genaue Beschreibung der UNterschiede im I-net suchen und dann mach ich euch alle fertig *lol* Hier bitte: http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/assemblylanguageshaders/pixelshaders/pixelshaderdifferences.asp?frame=true

Nur geht ATI mit dem R520 bis jetzt ans Technisch machbare und das wird leider einen Tribut fordern, und das sind unsere Trommelfelder.Du meinst wohl Trommelfelle :D

Neomi
2005-09-16, 00:04:15
Ach ...

ich lass das mit SM3 und SM2 - so und so passts net, immer falsch :( - ich werd mal ne genaue Beschreibung der UNterschiede im I-net suchen und dann mach ich euch alle fertig *lol* ;D

Hier hast du die Unterschiede:
http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/reference/assemblyshaderlanguage/assemblyshaderlanguage.asp

Und nun bin ich gespannt... ;)

SentinelBorg
2005-09-16, 00:50:13
Mit 700 Mhz Speicher würde die 7800GTX auch noch einige Punkte mehr erringen. Und wie schon gesagt, ist 3DMark05 durch die Vertexshaderlastigkeit der Tests Heimspiel für die ATIs. Zudem ist 430/600 bei der GTX ja das Minimum. Fast jeder Hersteller bietet da serienmässig schon mehr und selbst dann ist noch einiges an Spielraum vorhanden, während die X1800XT ja scheinbar schon am Limit kratzt (Lüfterlautstärke?).

Fazit: Die Karte scheint konkurrenzfähig zur Nvidia-Palette zu sein, aber nicht überragend schneller. Aber das ist ja eigentlich auch das Mindeste, dafür dass sie noch nicht einmal am Markt ist.
Interessanter finde ich da die Frage der angebotenen Technologien (TSAA, HDR?) und die Bildqualität.

Sentinel

deekey777
2005-09-16, 00:56:06
Eure Links sind veraltet: http://msdn.microsoft.com/library/en-us/directx9_c/directx/graphics/reference/AssemblyShaderLanguage/AssemblyShaderLanguage.asp

:biggrin:

Kladderadatsch
2005-09-16, 07:58:55
zu dem 3dmark05-wert:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3474764&postcount=1415

da hat der g70 wohl doch das größere potential.

MartinRiggs
2005-09-16, 10:37:52
Aber der 3d-Mark Wert ist und wird weiterhin total Banane sein da er nicht annähernd was mit realen Spielen zu tun hat. Ansonsten müssten wir ja alle ne 7800 GTX oder X1800 XT haben um überhaupt spielen zu können.

Mumins
2005-09-16, 10:44:32
zu dem 3dmark05-wert:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3474764&postcount=1415

da hat der g70 wohl doch das größere potential.

Der Wert sagt einen Scheiß, ne 6800Ultra hat auch ähnliche Werte wie ne X850XT PE und wird zu 80% von der ATI Karte zerlegt.

Majestic
2005-09-16, 10:48:16
Aber der 3d-Mark Wert ist und wird weiterhin total Banane sein da er nicht annähernd was mit realen Spielen zu tun hat. Ansonsten müssten wir ja alle ne 7800 GTX oder X1800 XT haben um überhaupt spielen zu können.

Eben... ATI wird die Dau´s und Halbdaus´s nur wieder fantastisch klingenden Zahlen beeindrucken, genau wie das NV beim Launch des G70 gemacht hat. Letztendlich ist es bei beiden nur ne Kundenverarsche wie immer.. :D

Majestic
2005-09-16, 11:22:33
Der Wert sagt einen Scheiß, ne 6800Ultra hat auch ähnliche Werte wie ne X850XT PE und wird zu 80% von der ATI Karte zerlegt.

Einen Unterschied gibt es. Die XT-PE und die Ultra haben beide 16pp und die ATI konnte nur auf Grund ihres wesentlich höheren Taktes Punkten...Bei den neuen Karten wird das etwas anders aussehen.

syronth
2005-09-16, 17:46:17
ATi wird ne 24 Pipeline-Version eh "nachschieben", daß ist so sicher wie das Amen in der Kirche. Ich graue mich nur von den ganzen Abarten mit 4, 8, 12, 16, 24 Pipeline-Grakas mit x/y-Taktraten, damit ja auch kein einziger Chip in die Tonne wandern muss. Achja, eine 20er wäre auch noch drin.

deekey777
2005-09-16, 17:49:08
ATi wird ne 24 Pipeline-Version eh "nachschieben", daß ist so sicher wie das Amen in der Kirche. Ich graue mich nur von den ganzen Abarten mit 4, 8, 12, 16, 24 Pipeline-Grakas mit x/y-Taktraten, damit ja auch kein einziger Chip in die Tonne wandern muss. Achja, eine 20er wäre auch noch drin.

Poste die Quelle für diese Behauptung.

Coda
2005-09-16, 17:49:51
ATi wird ne 24 Pipeline-Version eh "nachschieben", daß ist so sicher wie das Amen in der Kirche.Da bist du auf dem Holzweg. Weder R520 noch R580 liegen als 6 Quad Design vor.

Annihilator
2005-09-17, 13:47:44
16 pipes!!! Wie sieht es mit Vertex shader aus? Immer noch 6? Also wenn das stimmen sollte müssen die ja extrem viel an der Effizienz gearbeitet haben. Sonst muss man ja extrem hochtakten um gleich zu ziehen.


16 pixel und 8 vertex einheiten. :)

Raff
2005-09-17, 14:11:17
Mich persönlich erinnert der R520 "XT" irgendwie etwas an den NV30. Vielleicht überrascht von der Performance des G70 musste ATi stark an der Taktschraube drehen. 650 MHz ist für 4 Quads schon sehr hoch -- und man hat damit praktisch die gleiche Füllrate wie die 51% langsamer getaktete 7800GTX mit 6 Quads.

Nun, die 5800 Ultra kam mit einem kupfernen Staubsauger, der die Ohren der Betroffenen nicht wirklich schonte. Bleibt zu hoffen, dass ATi da wirklich etwas Besseres liefert. Und dass der R580 vielleicht mit mehr Quads mehr Potenzial bringt ...

Und dass SM3.0 bei ATi schnell genug ist, nicht zu vergessen.

MfG,
Raff

Winter[Raven]
2005-09-17, 14:24:57
Für dden R580 ist die Zeit abgelaufen um da noch mehr quads hinzufügen zu können. R520 als auch R580 sind auf 4 Quads ausgelegt, mehr werden es nicht.

miller
2005-09-17, 14:54:11
http://www.hardwareanalysis.com/content/article/1813.1/

wurden die benches schon gepostet? wenn ja, dann sorry ;)

aber da schauts ned so rosig aus :/

Raff
2005-09-17, 14:58:57
Mal ehrlich: Die bisherigen Benchmarks sind alle für die Tonne, wenn sich kein Mensch die BQ ansieht und die Ergebnisse nachvollziehbar der Öffentlichkeit präsentiert! Nachher bietet der R520 16x winkelunabhängiges AF und bricht deshalb so ein?

MfG,
Raff

Annihilator
2005-09-17, 15:00:35
Mal ehrlich: Die bisherigen Benchmarks sind alle für die Tonne, wenn sich kein Mensch die BQ ansieht und die Ergebnisse nachvollziehbar der Öffentlichkeit präsentiert! Nachher bietet der R520 16x winkelunabhängiges AF und bricht deshalb so ein?

MfG,
Raff


glaubst du wohl selber nicht? der R520XT hat weniger füllrate als eine GTX, und somit würde er deutlich mehr einsacken wenn er winkelunabhängiges AF hätte. =)

Raff
2005-09-17, 15:01:22
650 * 16 ist sogar geringfügig mehr als 430 * 24. ;)

MfG,
Raff

eXodia
2005-09-17, 15:03:50
650 * 16 ist sogar geringfügig mehr als 430 * 24. ;)

MfG,
Raff

Er hat ja von der X1800XT gesprochen, die taktet mit 600, was wiederum etwas weniger ist als 24x430 ;)

GrUß

Annihilator
2005-09-17, 15:05:31
Er hat ja von der X1800XT gesprochen, die taktet mit 600, was wiederum etwas weniger ist als 24x430 ;)

GrUß


ich wollte es grade sagen. ;)

Raff
2005-09-17, 15:08:27
Hm, ok. :D Aber 7% weniger Füllrate ist auch kein riesen Unterschied. Füllrate ist sowieso schon lange nicht mehr alles ...

MfG,
Raff

rm-zocker
2005-09-17, 15:12:53
http://www.hardwareanalysis.com/content/article/1813.1/

wurden die benches schon gepostet? wenn ja, dann sorry ;)

aber da schauts ned so rosig aus :/

ohoh wenn diese benchmark ergebnisse wirklich zutreffen, wird es ati sicher schwer haben. dann könnte ich auch verstehen warum nvidea es bei der gtx belässt und die höher getaktete version gestrichen hat.

naja erstmal abwarten

StefanV
2005-09-17, 15:30:52
']
Auf der GC gab es einen R520 zu begutachte, nicht für die Öffentlichkeit aber für andere. Wobei mit der verbautem Lüfter nimmand wirlich zufrieden sein sollte!
Ach, war der verbaute Lüfter wirklich schlechter als die Turbinen, die nV auf ihren Referenzmodellen einsetzt?!

Oder hast du nur gehört, das er nicht so ganz schön sein soll?! X-D

Annihilator
2005-09-17, 15:30:52
Hm, ok. :D Aber 7% weniger Füllrate ist auch kein riesen Unterschied. Füllrate ist sowieso schon lange nicht mehr alles ...

MfG,
Raff


bei AF ist füllrate aber nunmal alles... so wie bei AA bandbreite das A&O ist. ;)

Adam D.
2005-09-17, 15:32:56
Ich warte geduldig auf die offizielle Vorstellung, vorher glaub ich gar nix mehr.

Ich hätte da aber nochmal 'ne Frage: Raven schrieb, dass es zu spät sei für den R580 sei, um nochwas an der Anzahl der Quads zu verändern.
Fällt so eine Entscheidung mit der Anzahl der Quads ganz am Anfang der Entwicklung, oder bastelt man erst einmal am Chip herum, um dann rausfinden, mit welcher Konfiguration er am besten läuft bzw. am besten ausgereizt wird?

Annihilator
2005-09-17, 15:33:53
Ach, war der verbaute Lüfter wirklich schlechter als die Turbinen, die nV auf ihren Referenzmodellen einsetzt?!

Oder hast du nur gehört, das er nicht so ganz schön sein soll?! X-D


turbinen? du hattest noch keine GTX oder? :|

also untersteh dich, nur ansatzweise über die lüfter der referenzkarten zu quatschen!

StefanV
2005-09-17, 15:37:27
Mal ehrlich: Die bisherigen Benchmarks sind alle für die Tonne, wenn sich kein Mensch die BQ ansieht und die Ergebnisse nachvollziehbar der Öffentlichkeit präsentiert! Nachher bietet der R520 16x winkelunabhängiges AF und bricht deshalb so ein?

MfG,
Raff

Eben _DAS_ ist ein gewaltiges Fragezeichen, das uns bisher keiner beantwortet hat.

Die Frage ist wirklich, wie die Qualitätsfeatures (und der Rest, sprich Videobeschleunigung and so on) geworden sind und was sie uns im Altag nutzen...

StefanV
2005-09-17, 15:43:47
turbinen? du hattest noch keine GTX oder? :|

also untersteh dich, nur ansatzweise über die lüfter der referenzkarten zu quatschen!
Du hattest wohl noch keine 5800 und 5900, was?!

Auch sollen die nV40 Karten recht laut gewesen sein, mit Referenzkühler, von daher...

The_Invisible
2005-09-17, 15:49:49
Eben _DAS_ ist ein gewaltiges Fragezeichen, das uns bisher keiner beantwortet hat.

Die Frage ist wirklich, wie die Qualitätsfeatures (und der Rest, sprich Videobeschleunigung and so on) geworden sind und was sie uns im Altag nutzen...

ja klar, ATI hat so schon zu kämpfen das sie mit dem G70 mithalten können und dann machen sie wahrscheinlich auch noch alle optimierungen raus, träum weiter ;D

nach 4 erfolgreichen serien bei nvidia (geforce 1-4) glaubte auch keiner das die FX schlechter sein könnte als die ATI's, aber es war mal eben so, warum sollte es jetzt nicht umgekehrt sein? ein design ändert man halt nicht so schnell wie manche hier denken

mfg

mbee
2005-09-17, 15:53:28
Du hattest wohl noch keine 5800 und 5900, was?!

Auch sollen die nV40 Karten recht laut gewesen sein, mit Referenzkühler, von daher...


Aber die GTX sind (selbst bei SLI) flüsterleiste. Und das mit einem Single-Slot-Design: Das ist es doch im Moment, was bei einem Vergleich zählt. Bei meiner X800 XT PE hingegen, konnte man damals meinen, ein Jet mache sich gerade zum Start bereit ;)

Annihilator
2005-09-17, 15:55:04
doch hatte ich, immer das jeweilige top model der jeweiligen serie... und die NV3x waren die einzigen, die wirklich hörbare lüfter hatten(um nicht zu sagen nervige).
und die NV40 karten waren sicher nicht so laut wie viele immer sagten, zumal sie nicht hochfrequent waren sondern eher ein dumpfes tiefes geräusch machten, das man nur wargenommen hat wenn absolut nix anderes geräusche macht... fenster war auf oder leise musik gehört ~ schon unhörbar.

und du hattest nehme ich zumindest an, keine dieser karten?!

Annihilator
2005-09-17, 15:58:09
Aber die GTX sind (selbst bei SLI) flüsterleiste. Und das mit einem Single-Slot-Design: Das ist es doch im Moment, was bei einem Vergleich zählt. Bei meiner X800 XT PE hingegen, konnte man damals meinen, ein Jet mache sich gerade zum Start bereit ;)


ich habe bei einem feund eine X850XTPE verbaut, ich dachte mir fallen die ohren ab! so schlimm wie meine damalige 5800U. ;(

Winter[Raven]
2005-09-17, 16:14:55
@ SP

Hatte 5800 Ultra, ja SEHR LAUT, hatte 5900 Ultra die war noch annehmbar, habe 6800 Ultra ist leiser als 5900 Ultra, habe auch 7800 GTX höre ich nichts aus dem Gehäuse sogar bei Sli ... so ?

Anstelle von Hören solltest du selber die NV Chips mal antesten und dann mitreden, sonst bitte raushalten wenn du keine Ahnung hast!

R520 hat eine Lüftersteuerung, in 3D wird diese aber zum Hurican...

P.S. Ja X850 PE, ~ Lautstärke einer 5800 Ultra, sogar durch verschlossene Türen zuhören, so any questions?

Coda
2005-09-17, 17:21:39
Aber die GTX sind (selbst bei SLI) flüsterleiste.Nur im 2D-Betrieb. Wenn man die nen Weilchen unter 3D laufen lässt hört man sie auch.

dargo
2005-09-17, 17:34:38
R520 hat eine Lüftersteuerung, in 3D wird diese aber zum Hurican...

Was macht dich denn so sicher ?

Franzmann-Jan
2005-09-17, 17:35:54
']@ SP

Hatte 5800 Ultra, ja SEHR LAUT, hatte 5900 Ultra die war noch annehmbar, habe 6800 Ultra ist leiser als 5900 Ultra, habe auch 7800 GTX höre ich nichts aus dem Gehäuse sogar bei Sli ... so ?

Anstelle von Hören solltest du selber die NV Chips mal antesten und dann mitreden, sonst bitte raushalten wenn du keine Ahnung hast!

R520 hat eine Lüftersteuerung, in 3D wird diese aber zum Hurican...

P.S. Ja X850 PE, ~ Lautstärke einer 5800 Ultra, sogar durch verschlossene Türen zuhören, so any questions?

Natürlich WinterRaven.... :rolleyes:

Der Lüfter der X850 dreht unmanipuliert maximal bis zu 18%. Da willst du mir erzählen, dass es durch einer Tür zu hören. Aber gut ist ja auch nur ne ATI nach deiner Meinung. Ich gebe zwar zu, dass die 7800 GTX ein wenig ruhiger läuft als die X850, aber sie als Fön respektiv NV30 abzustempeln ist echt ein Witz

StefanV
2005-09-17, 17:54:01
']
R520 hat eine Lüftersteuerung, in 3D wird diese aber zum Hurican...

Dumm nur, das die ATIs eine Temperaturabhängige Lüftersteuerung haben :devil:

Winter[Raven]
2005-09-17, 18:33:24
Sagen wir so, wer zuletzt lacht, der lacht am besten!!!!!!!!!!

Mumins
2005-09-17, 18:40:23
Aber die GTX sind (selbst bei SLI) flüsterleiste. Und das mit einem Single-Slot-Design: Das ist es doch im Moment, was bei einem Vergleich zählt. Bei meiner X800 XT PE hingegen, konnte man damals meinen, ein Jet mache sich gerade zum Start bereit ;)

Ja klar, nur war die X800XT PE immer noch weit leiser als die 6800Ultra, die war unerträglich laut.
Nur weil diesmal Nvidia nen vernünftigen Kühler gebaut hat, braucht man hier nicht ATI verteufeln.
Zumal die meisten eh nen anderen Kühler draufsetzen.

The_Invisible
2005-09-17, 18:51:15
doch hatte ich, immer das jeweilige top model der jeweiligen serie... und die NV3x waren die einzigen, die wirklich hörbare lüfter hatten(um nicht zu sagen nervige).
und die NV40 karten waren sicher nicht so laut wie viele immer sagten, zumal sie nicht hochfrequent waren sondern eher ein dumpfes tiefes geräusch machten, das man nur wargenommen hat wenn absolut nix anderes geräusche macht... fenster war auf oder leise musik gehört ~ schon unhörbar.

und du hattest nehme ich zumindest an, keine dieser karten?!

hö, also mein 6800Gt standard lüfter war (für mich) nicht auszuhalten, da musste schnellstens ein Zalman her, der ist leise (Aber auch nur 5V)

mfg

Annihilator
2005-09-17, 19:52:45
hö, also mein 6800Gt standard lüfter war (für mich) nicht auszuhalten, da musste schnellstens ein Zalman her, der ist leise (Aber auch nur 5V)

mfg


sorry, kann immer nur vom b.z.w. fürs topmodell sprechen, mainstream karten kommen mir nicht in meine rechner. :redface:

mbee
2005-09-17, 20:09:18
Ja klar, nur war die X800XT PE immer noch weit leiser als die 6800Ultra, die war unerträglich laut.
Nur weil diesmal Nvidia nen vernünftigen Kühler gebaut hat, braucht man hier nicht ATI verteufeln.
Zumal die meisten eh nen anderen Kühler draufsetzen.

Wo zum Teufel verteufle ich ATI? ;)
Fakt ist nunmal: Meine X800 XT PE war sehr viel lauter als meine zwei GTXen es nun im SLI-Betrieb sind und ich bin gottfroh darüber.
Was die R520-Karten angeht, kann hier wohl eh noch keiner sagen, wie laut oder leise die sind. Mir gehen lediglich diese blödsinnigen Vergleiche in diesem Thread auf den Zeiger: Die R520-Karten werden sich an den GTX-Karten messen lassen müssen, was die Lautstärke betrifft. Nicht anderes habe ich geschrieben.

mbee
2005-09-17, 20:14:21
Nur im 2D-Betrieb. Wenn man die nen Weilchen unter 3D laufen lässt hört man sie auch.

Da drehen meine allerdings auch nach längerer Zeit kaum hörbar weiter auf bzw. kann ich das Geräusch keinesfalls mit meiner alten XT PE vergleichen, die wirklich um einiges lauter bzw. dann die primäre Geräuschquelle in der ganzen Kiste war.

Coda
2005-09-17, 20:14:33
Dumm nur, das die ATIs eine Temperaturabhängige Lüftersteuerung haben :devil:nVIDIA auch. Und unter welchen Umständen wird der Chip wohl heiß?

Da drehen meine allerdings auch nach längerer Zeit kaum hörbar weiter auf bzw. kann ich das Geräusch keinesfalls mit meiner alten XT PE vergleichen, die wirklich um einiges lauter bzw. dann die primäre Geräuschquelle in der ganzen Kiste war.Hm das ist nicht gut. Naja solang's keine FX 5800 ist :D

Majestic
2005-09-17, 20:21:08
Habt ihr Probleme ;) Ich emfand den Referenzlüfter meiner GF6800GT auch nicht als sooo laut... Da war ich von meiner FX5950U anderes gewöhnt *rofl* Der Referenzlüfter meiner X800XL ist ungefähr auch dem gleichen Level wie der der GF6800GT. Sollte der Lüfter einer X800XT-PE nicht so extrem leise gewesen sein... Hab noch so einige Reviews in erinnerung

Black-Scorpion
2005-09-17, 20:25:15
nVIDIA auch. Und unter welchen Umständen wird der Chip wohl heiß?

Für mich ist das eine Temp abhängige Steuerung.
Ist das bei nVidia auch so?

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=22035

mbee
2005-09-17, 20:27:02
Habt ihr Probleme ;) Ich emfand den Referenzlüfter meiner GF6800GT auch nicht als sooo laut... Da war ich von meiner FX5950U anderes gewöhnt *rofl* Der Referenzlüfter meiner X800XL ist ungefähr auch dem gleichen Level wie der der GF6800GT. Sollte der Lüfter einer X800XT-PE nicht so extrem leise gewesen sein... Hab noch so einige Reviews in erinnerung


Ich kann nur aus eigener Erfahrung sprechen und fand das Teil höllisch laut (im Gegensatz zur 9800 XT, die ich zuvor drin hatte). Zur Lautstärke der letzten NV-Karten kann ich außer zur GTX auch nichts sagen, da ich nach der GF3 (die damals auch sehr leise war) nur ATI-Karten hatte.
Die XT PE war zumindest im 3D-Betrieb nach wenigen Augenblicken so laut wie die 2 GTXen es nach dem Einschalten des PCs sind, wenn sie kurz mit voller Drehzahl laufen, die im Betrieb bei mir nie erreicht wird bzw. wesentlich darunter bleibt.

Coda
2005-09-17, 20:34:39
Für mich ist das eine Temp abhängige Steuerung.
Ist das bei nVidia auch so?Das weiß ich nicht. Auf jedenfall dreht der Lüfter erst nach ner Weile nach und nach hoch und nicht gleich wenn man in den 3D Modus geht, also muss es temperaturgesteuert sein.

mbee
2005-09-17, 20:39:54
Bislang kommt man an die Temperatursteuerung der GTX AFAIK nicht dran: Auch im BIOS steht bei allen Modi (2D/Low3D/High3D) 100%. Dass es aber keine 100% sind, merkt man recht schnell, wenn man z.B. mit Winfox mal manuell auf 100 (echte) Prozent stellt. Das ist dann auch recht ohrenbetäubend ;)

Ich würde schätzen, die Karte dreht erst wesentlich später, d.h. bei viel höheren Temperaturen als die X800/X850 voll auf.

dargo
2005-09-17, 21:00:12
Bei NV gibt es keine temperaturgesteuerte Lüfterregelung. Es gibt nur 2D und 3D. Zumindest war es so beim NV40.

StefanV
2005-09-17, 21:16:51
Das weiß ich nicht. Auf jedenfall dreht der Lüfter erst nach ner Weile nach und nach hoch und nicht gleich wenn man in den 3D Modus geht, also muss es temperaturgesteuert sein.
NV hat AFAIK 2 Stufen: 2D/3D, ATi ein paar mehr, gleich 'out of the box'.

mindfaq
2005-09-17, 21:20:36
Vielleicht war es beim NV40 so, der Lüfter der GTX ist auf jeden Fall temperaturgesteuert.

Coda
2005-09-17, 21:22:48
NV hat AFAIK 2 Stufen: 2D/3D, ATi ein paar mehr, gleich 'out of the box'.Beim G70 auf keinen Fall. Der Lüfter zieht nicht auf einmal auf Fullspeed.

mbee
2005-09-17, 21:23:37
NV hat AFAIK 2 Stufen: 2D/3D, ATi ein paar mehr, gleich 'out of the box'.

Im BIOS sind es 3 bei der GTX (3D, 3D reduziert, 2D), die aber alle auf 100% stehen (die keine 100% sind komischerweise).
In diese "Stufen" fällt auch die Taktung des Cores.
Allerdings hat Coda recht: Auch bei mir drehen die Karten bei Beanspruchung leicht auf (was keinesfalls Full Speed ist), da muss also noch was sein.
Dieses "etwas" muss wohl auch vom Treiber ansprechbar sein:
Als ich noch eine einzelne GTX hatte, hat diese kurz nach dem Einschalten von voller Drehzahl auf die reduzierte heruntergeregelt. Im SLI-Betrieb machen das die Karten erst, wenn der Treiber initialisiert wird.

mindfaq
2005-09-17, 22:03:56
Kennt jemand von euch vielleicht ein Tool außer Leadtek WinFox 2.0 mit dem man den Lüfter zwingen kann mit den richtigen 100% zu drehen ?

Ja, ihr habt richtig verstanden, ich will den Lüfter nicht runterregeln, sondern hochregeln. Er soll immer mit maximaler Geschwindigkeit laufen.
Der Rivatuner kann das nicht.

Warum kein WinFox 2.0 ? Das Programm gefällt mir einfach nicht. Viel zu überladen und klickibunti.

Was ich mir davon erhoffe ? Naja, meine Gehäuselüfter sind eh um einiges lauter als die GTX es je sein wird, von daher kann der Lüfter ruhig schneller drehen.
Vielleicht bringts mir ja ein paar Mhz mehr Takt und wenn nicht, läuft die Karte wenigstens kühler.