PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 3 4 5 6 7 8 [9] 10 11 12 13 14

LovesuckZ
2004-05-27, 15:55:37
Original geschrieben von kami
Eine GeForce FX. ;D

*zonk*

Geforce 6800.
Erster Test (maschinell übersetzt) (http://world.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&url=http%3a%2f%2fwww.pcpop.com%2farticle%2f2004%2f917%2f1.shtml)
Bis auf die 128MB Ram scheint die Karte verdammt attraktiv zu sein.

ow
2004-05-27, 15:56:18
Original geschrieben von Gast
Man sollte schon 2 Kabelstränge benutzen, damit alles in den Specs liegt. In der Praxis wird auch einer ausreichen, aber dann nicht rumheulen wenn ein Kabel kockelt.:finger:


Ein Kabel ist auch innerhalb der Specs.

kami
2004-05-27, 16:00:59
Original geschrieben von LovesuckZ
*zonk*

Geforce 6800.
Erster Test (maschinell übersetzt) (http://world.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&url=http%3a%2f%2fwww.pcpop.com%2farticle%2f2004%2f917%2f1.shtml)
Bis auf die 128MB Ram scheint die Karte verdammt attraktiv zu sein.

Schade auf dem Kühler steht FX drauf. X-D

DrumDub
2004-05-27, 16:04:00
Original geschrieben von ow
Ein Kabel ist auch innerhalb der Specs.

jupp. schließlich sind es die molexbuchsen/stecker, bei denen im bezug auf den stromfluss einen grenzwert eingehalten werden muss. wobei nen schlechtes y-kabel schon dazu führen kann, das sich das kabel und buchse/stecker verabschieden.

ow
2004-05-27, 16:16:10
Original geschrieben von DrumDub
jupp. schließlich sind es die molexbuchsen/stecker, bei denen im bezug auf den stromfluss einen grenzwert eingehalten werden muss. wobei nen schlechtes y-kabel schon dazu führen kann, das sich das kabel und buchse/stecker verabschieden.


Man braucht ja kein Y-Kabel.
Es gibt auch Kabelstraenge an NTs, an denen 2 Molex-Stecker sitzen.

Gast2k4
2004-05-27, 16:43:56
Nachdem mich der Preis der Club3D Geforce 6800 non-ultra mit 290€ überrascht hatte, frage ich mich welche technischen Daten das Referenz-Board des 6800 non-ultra besitzt, da ich unterschiedliche Sachen lese. 12 oder 8 Pipelines? An sich wars das schon, ach ja, die Club3D wird GDDR 3 haben, nicht schlecht ;).

kami
2004-05-27, 16:45:01
Original geschrieben von Gast2k4
Nachdem mich der Preis der Club3D Geforce 6800 non-ultra mit 290€ überrascht hatte, frage ich mich welche technischen Daten das Referenz-Board des 6800 non-ultra besitzt, da ich unterschiedliche Sachen lese. 12 oder 8 Pipelines? An sich wars das schon, ach ja, die Club3D wird GDDR 3 haben, nicht schlecht ;).

Die normale 6800er hat 12 Pipelines.

Tjell
2004-05-27, 16:51:57
Club-3D GeForce 6800 Series Information:
GeForce 6800 Ultra, 16 Rendering Pipelines, Core/Mem. Clock ~400MHz/1.1GHz, 256MB GDDR3, 256-bit
GeForce 6800 GT, 16 Rendering Pipelines, Core/Mem. Clock 350MHz/1GHz, 256MB GDDR3, 256-bit
GeForce 6800, 12 Rendering Pipelines, Core/Mem. Clock 325/700Mz, 128MB DDR, 256-bit


Quelle:
http://www.hartware.de/press_1973.html

Gast2k4
2004-05-27, 16:56:08
Oki, thx. Kann leider nicht mehr finden wo ich es mit den 8 Pipelines gelesen hatte, dürfte sowieso nicht stimmen :D.

Winter[Raven]
2004-05-27, 21:12:38
Original geschrieben von LovesuckZ
*zonk*

Geforce 6800.
Erster Test (maschinell übersetzt) (http://world.altavista.com/babelfish/trurl_pagecontent?lp=zh_en&url=http%3a%2f%2fwww.pcpop.com%2farticle%2f2004%2f917%2f1.shtml)
Bis auf die 128MB Ram scheint die Karte verdammt attraktiv zu sein.

Ist interessant, man bekommt ungefähr die Leistung eines R420 Pro, aber das 100€ billiger :O

Die R420 Pro im Sandwitch zwischen der 6800NO und der 6800GT, der R420XT zwischen 6800 Ultra und der 6800ultra EE.

Derzeit scheinen aber wirklich alle Flagen bei NV auf Angriff stehen.

dildo4u
2004-05-27, 21:17:49
Original geschrieben von Winter[Raven]
Ist interessant, man bekommt ungefähr die Leistung eines R420 Pro, aber das 100€ billiger :O

Die R420 Pro im Sandwitch zwischen der 6800NO und der 6800GT, der R420XT zwischen 6800 Ultra und der 6800ultra EE.

Derzeit scheinen aber wirklich alle Flagen bei NV auf Angriff stehen. hä? mal wieder die grüne brille auf ungefähr die leistung der R420pro is aber nicht die hälfte http://www.pcpop.com/popimages/2004-5-26-19-5-58-3606.gif

LovesuckZ
2004-05-27, 21:19:14
Original geschrieben von dildo4u
hä? mal wieder die grüne brille auf ungefähr die leistung der R420pro is aber nicht die hälfte http://www.pcpop.com/popimages/2004-5-26-19-5-58-3606.gif

*hust*
Dafür gibt es die Karten mit 256MB.

[dzp]Viper
2004-05-27, 21:19:15
Also die Werte der X800 Pro sind im vergleich zu anderen Reviews irgendwie ziemlich niedrig :|
Ausserdem sind mit Aquamark und quake und Splintercell fast nur spiele/benchmarks dabei, die schon allgemein auf NV karten besser laufen.
Ich hätte gerne noch Benchmarks von anderen spielen gesehen die nicht so "alt" sind... Z.b. Painkiller und co.

naja erstmal noch mehr reviews abwarten :) Anhand eines Reviews sollte man sich nicht unbedingt ein Bild machen ;)

Langsam tauchen ja die anderen 6800er karten auf :)

LovesuckZ
2004-05-27, 21:20:21
Original geschrieben von [dzp]Viper
Also die Werte der X800 Pro sind im vergleich zu anderen Reviews irgendwie ziemlich niedrig :|


Beschwere dich bei Ati, dass der offizielle Treiber langsamer als der Beta ist...

dildo4u
2004-05-27, 21:21:05
Original geschrieben von LovesuckZ
*hust*
Dafür gibt es die Karten mit 256MB.
aber 256mb bringt bei UT garantiert nicht die von Bule Raven gepriesene ungefähre leistung einer X800pro

LovesuckZ
2004-05-27, 21:23:28
Original geschrieben von dildo4u
aber 256mb bringt bei UT garnatiert nicht die von Bule Raven gepriesene ungefähre leistung einer X800pro

Noe, aber man ist nicht ~100% langsamer.
Und immer bedenken, dass die Karte 100€/$ weniger kostet und damit für viele attraktiver ist als eine X800pro oder 6800GT.

Sphinx
2004-05-27, 21:26:10
Original geschrieben von LovesuckZ
Beschwere dich bei Ati, dass der offizielle Treiber langsamer als der Beta ist...

Dazu gibt es einige Aussagen das sie den ShaderCompiler aus Optimierungsgründen/und Qulitests in dem offiziellem Cat4.5 nicht integriert haben.

Müst ich mal suchen wo das stand.

Gast
2004-05-27, 21:27:01
Das Ziel der GF6800 is ja sicher nicht in 1600er Auflösung die 100fps Marke zu brechen...

Mehr Leistung als die alte Generation hat sie sicher, mal schaun wie die Preise sind und was ATI im 200-300€ Preissegment platziert.
Is auf jedenfall ne gute Mainstream Karte die zeigt, was die neue Generation (egal welcher Hersteller) zu Leisten vermag.

[dzp]Viper
2004-05-27, 21:32:28
ah ich bin gespalten - 6800GT oder x800pro :schmor:

Zum glück warte ich noch bis ende Juni :)

LovesuckZ
2004-05-27, 21:33:35
Original geschrieben von [dzp]Viper
ah ich bin gespalten - 6800GT oder x800pro :buzz:
Zum glück warte ich noch bis ende Juni :)

Bis dahin kann man ja noch Vorteile für die X800pro suchen *eg*

[dzp]Viper
2004-05-27, 21:36:27
Original geschrieben von LovesuckZ
Bis dahin kann man ja noch Vorteile für die X800pro suchen *eg*

naja die karten nehmen sich nicht wirklich viel. Übertakten kann man sie beide sicher super (bei der Pro schon bestätigt und bei der GT sind über 400 mhz core sicher auch locker drin)

Der eine is mal da schneller und der andere mal da...
Ich warte noch ein paar reviews ab und bis ende Juni haben bestimmt auch beide nochmals neue Treiber nachgelegt und ich entscheide mich erst einen Tag bevor ich in den onlineshop gehe :D

Winter[Raven]
2004-05-27, 22:10:58
Original geschrieben von dildo4u
hä? mal wieder die grüne brille auf ungefähr die leistung der R420pro is aber nicht die hälfte http://www.pcpop.com/popimages/2004-5-26-19-5-58-3606.gif

Ja Ja ... du suchst immer nur "DAS" Bildchen raus wo ATI vorne liegt, gelle?

Noe, aber man ist nicht ~100% langsamer.
Und immer bedenken, dass die Karte 100€/$ weniger kostet und damit für viele attraktiver ist als eine X800pro oder 6800GT.

Jop, meine Meinung. Paar Prozent weniger aber 150€ Billiger, das nenn ich schon als "ANGEBOT".

dildo4u
2004-05-27, 22:14:24
das ist für mich das einzige relvante da relativ neue game Q3 und 3Dmark intersieren ein dreck auf karten im jahre 2004 mal gucken wies bei Farcry aussehen würde

BodyLove
2004-05-27, 22:22:41
Kann es eigentlich sein, dass die GF6800 mit soviel weniger takt und Bandbreite, so gut abschneiden kann? Irgendwie komisch.

dildo4u
2004-05-27, 22:24:20
Original geschrieben von BodyLove
Kann es eigentlich sein, dass die GF6800 mit soviel weniger takt und Bandbreite, so gut abschneiden kann? Irgendwie komisch. das meiste ist whol sehr cpu limitiert selbst in sher hohen auflösungen

[dzp]Viper
2004-05-27, 22:26:08
Original geschrieben von BodyLove
Kann es eigentlich sein, dass die GF6800 mit soviel weniger takt und Bandbreite, so gut abschneiden kann? Irgendwie komisch.

16 pipes bei der 6800GT vs 12 pipes bei der x800pro ;)

dildo4u
2004-05-27, 22:28:00
Original geschrieben von [dzp]Viper
16 pipes bei der 6800GT vs 12 pipes bei der x800pro ;) er meint whol den 6800non nix

BodyLove
2004-05-27, 22:30:09
Original geschrieben von [dzp]Viper
16 pipes bei der 6800GT vs 12 pipes bei der x800pro ;)

klar. aber die GF6800nU hat doch nur 325mhz bei 12Pipes. Dazu nur 350Mhz Speichertakt und trotzdem hält er den Speed des X800pros mit.

Original geschrieben von dildo4udas meiste ist wohl sehr cpu limitiert selbst in sehr hohen auflösungen.
Die Unterschiede sind aber eher Sprunghaft und weit differenziert. >10FPS.

MadMan2k
2004-05-27, 22:30:27
Original geschrieben von Winter[Raven]
Jop, meine Meinung. Paar Prozent weniger aber 150€ Billiger, das nenn ich schon als "ANGEBOT".
wohl eher 80€ bei einem Kurs von 1€ : 1.21$

[dzp]Viper
2004-05-27, 22:33:53
Original geschrieben von BodyLove
klar. aber die GF6800nU hat doch nur 325mhz bei 12Pipes. Dazu nur 350Mhz Speichertakt und trotzdem hält er den Speed des X800pros mit.


Die Unterschiede sind aber eher Sprunghaft und weit differenziert. >10FPS. [/SIZE]

man sollte anhand von so wenigen Benchmarks nicht gleich das komplette Leistungfazit ziehen...

UT2003 zeigt schon eindrucksvoll, dass der unterschied in modernen spielen etwas größer sein wird als in quake3 oder aquamark03 ;)
Darum rate ich euch, nicht nach diesen Test sofort ein Fazit zu ziehen...

BodyLove
2004-05-27, 22:36:22
Original geschrieben von [dzp]Viper
man sollte anhand von so wenigen Benchmarks nicht gleich das komplette Leistungfazit ziehen...

UT2003 zeigt schon eindrucksvoll, dass der unterschied in modernen spielen etwas größer sein wird als in quake3 oder aquamark03 ;)
Darum rate ich euch, nicht nach diesen Test sofort ein Fazit zu ziehen...

Yo. Warten wir mal ab, wie es ausschaut. aber falls der GF6800nU sich doch so gut schlägt, speziell zu dem Preis, dann kann man sich nur den Hut ziehen.

Gast
2004-05-27, 22:45:12
wie sehen eigentlich die Werte aus, wenn man unter gleichen Bedingungen testet?
Es ist zwar schön hier einen selektiv ausgewählten Benchmark Screenshot zu sehen aber mich würde mal interessieren ob auch hier die Einstellungen beim FIltering unterschiedlich sind.

ATIs Filtering ist auf jeden Fall schlechter. Und sogar wenn beide ihre Optimierungen an haben aus dem einfachen Grund, weil ATI sehr viel agressiver optimiert und auch weniger Präzision bringt.

Radeonator
2004-05-28, 08:14:42
Natürlich profitiert UT2k3/k4 von 256MB. Sobald die Auflösung hoch geht und quality eingesetzt wird, limitiert weniger die CPU als die GPU. Natürlich müssen die Quality settings über die ini vorgenommen werden, damit dieser Fall eintritt...

reunion
2004-05-28, 09:08:50
Original geschrieben von Winter[Raven]
Ist interessant, man bekommt ungefähr die Leistung eines R420 Pro, aber das 100€ billiger :O


Mit den Cat. 4.6 wird sich das ändern :naughty:



Die R420 Pro im Sandwitch zwischen der 6800NO und der 6800GT, der R420XT zwischen 6800 Ultra und der 6800ultra EE.



Die 6800U EE gibt es nicht und das weisst du auch ;)

dildo4u
2004-05-28, 14:31:26
http://www.hardwareluxx.de/story.php?id=390

gesalzene preise Elsa bringt 6800 128mb für 425$

nitram
2004-05-28, 14:35:19
Hallo,

Seit gestern sind bei Digitec, einem Online-Anbieter aus der Schweiz ein halbes Dutzed Gainward 6800 Karten gelistet: http://www.digitec.ch

6800 non nix mit 128 MB Ram sind um Fr. 600 (~ 400 Euro)
6800 GT mit 256 MB Ram um Fr. 750.- (~500 Euro)
und die 6800 Ultra mit Fr. 930.- (600 Euro) gelistet.

Vergleich ATI X800 ~ Fr. 650 (~ 430 Euro)

Ich hoffe nicht dass das die endgültige Preise sind! Sonst ist nix mit 299 Euro 6800 non Ultra


Martin

nitram
2004-05-28, 14:41:11
Hallo,

Seit gestern sind bei Digitec, einem Online-Anbieter aus der Schweiz ein halbes Dutzed Gainward 6800 Karten gelistet: http://www.digitec.ch

6800 non nix mit 128 MB Ram sind um Fr. 600 (~ 400 Euro)
6800 GT mit 256 MB Ram um Fr. 750.- (~500 Euro)
und die 6800 Ultra mit Fr. 930.- (600 Euro) gelistet.

Vergleich ATI X800 ~ Fr. 650 (~ 430 Euro)

Ich hoffe nicht dass das die endgültige Preise sind! Sonst ist nix mit 299 Euro 6800 non Ultra


Martin

MarcWessels
2004-05-28, 14:47:25
Lustige Preisgestaltung... *g*

VooDoo7mx
2004-05-28, 15:16:00
Club-3D GeForce 6800 für 297€

http://www.geizhals.at/deutschland/a100579.html

Winter[Raven]
2004-05-28, 15:34:56
Original geschrieben von reunion
Mit den Cat. 4.6 wird sich das ändern :naughty:
Die 6800U EE gibt es nicht und das weisst du auch ;)

Ich aknn genauso Argumentieren und die nächsten Forceware anführen :P. Ehrlich gesagt ist bei NV mit dem NV40 noch deutlich mehr Luft nach oben was zusteigern

Das die Catalyst schon seit dem R3xx ausgelutscht sind weisst du auch.

reunion
2004-05-28, 16:15:10
Original geschrieben von Winter[Raven]
Ich aknn genauso Argumentieren und die nächsten Forceware anführen :P. Ehrlich gesagt ist bei NV mit dem NV40 noch deutlich mehr Luft nach oben was zusteigern

Das die Catalyst schon seit dem R3xx ausgelutscht sind weisst du auch.

Und das der Cat. 4.5beta deutlich mehr Leistung bringt als der offizielle Cat 4.5 weisst du auch?

deekey777
2004-05-28, 16:18:36
Original geschrieben von reunion
Und das der Cat. 4.5beta deutlich mehr Leistung bringt als der offizielle Cat 4.5 weisst du auch?

Sag doch so etwas nicht so direkt. :D

Winter[Raven]
2004-05-28, 16:21:04
Und das der Cat. 4.5beta deutlich mehr Leistung bringt als der offizielle Cat 4.5 weisst du auch?

Du meinst die ~20% in PS shader? Ich bezweifele dass diese "~20%" du nochmal sehn wirst ... ich will das wort "cheat" nicht schreiben, kann mir kaum vorstellen dass von den wir nach der WHQL was von diesen sehn werden.

Quasar
2004-05-28, 16:21:15
Ja, der Beta-Cat ist ziemlich fix.
Mal sehen, was von dessen Inhalten es durch die WHQL-Tests schafft. ;)

reunion
2004-05-28, 16:26:31
Original geschrieben von Winter[Raven]
Du meinst die ~20% in PS shader? Ich bezweifele dass diese "~20%" du nochmal sehn wirst ... ich will das wort "cheat" nicht schreiben, kann mir kaum vorstellen dass von den wir nach der WHQL was von diesen sehn werden.

Original geschrieben von Quasar
Ja, der Beta-Cat ist ziemlich fix.
Mal sehen, was von dessen Inhalten es durch die WHQL-Tests schafft. ;)

Was soll das bedeuten?
Gibt es irgendeinen Cheat in diesem Treiber der mir entgangen ist?

Radeonator
2004-05-28, 16:37:57
Original geschrieben von reunion
Was soll das bedeuten?
Gibt es irgendeinen Cheat in diesem Treiber der mir entgangen ist?

Abwarten und Tee rauchen, 20% aus nix ist eher unwarscheinlich ;)

Zudem kommt die release ForceWare, lasst euch überraschen... :D

aths
2004-05-28, 17:04:17
Original geschrieben von reunion
Und das der Cat. 4.5beta deutlich mehr Leistung bringt als der offizielle Cat 4.5 weisst du auch? Die R420-Architektur beinhaltet offenbar noch einige kleinere Updates, von denen ich bislang nichts wusste. Derzeit sammle ich noch Infos. In einigen Tagen könnte es ein erstes Update auf 3DC zu lesen geben.

MarcWessels
2004-05-28, 17:09:26
Original geschrieben von Winter[Raven]
Ich aknn genauso Argumentieren und die nächsten Forceware anführen :P. Ehrlich gesagt ist bei NV mit dem NV40 noch deutlich mehr Luft nach oben was zusteigern

Das die Catalyst schon seit dem R3xx ausgelutscht sind weisst du auch.

Er meint den Shadercompiler aus den 4.5er Betas und die führen nunmal zu deutlichen Leistungssteigerungen beim R420...

LovesuckZ
2004-05-28, 17:09:30
Original geschrieben von aths
Die R420-Architektur beinhaltet offenbar noch einige kleinere Updates, von denen ich bislang nichts wusste. Derzeit sammle ich noch Infos. In einigen Tagen könnte es ein erstes Update auf 3DC zu lesen geben.

Laut siric (?) aus dem Beyond3d.com Forum, sei der Shadercompiler für laengere Shader verbessert worden. Die Steigerungen sollten bei allen r3xx Karten auftreten.

MarcWessels
2004-05-28, 17:10:59
Original geschrieben von LovesuckZ
Laut siric (?) aus dem Beyond3d.com Forum, wurde der Shadercompiler für laengere Shader verbessert. Die Steigerungen sollten bei allen r3xx Karten auftreten.

Echt? Na, dann sollte jemand mit R3xx doch mal die Final 4.5er und die Betas gegeneinander messen.

Crushinator
2004-05-28, 17:27:58
Original geschrieben von LovesuckZ
Laut siric (?) aus dem Beyond3d.com Forum, sei der Shadercompiler für laengere Shader verbessert worden. Die Steigerungen sollten bei allen r3xx Karten auftreten. sireric heißt er (Sir Eric) und schrieb, daß es nur Shader betreffen sollte, die mehr als 10 Slots beinhalten, wobei man von keiner generellen Steigerung reden sollte, weil auch der beste Compiler unparallelisierbare Dinge nicht besser auf eine SIMD-Hardware verteilen könne.

MarcWessels
2004-05-28, 18:12:02
Wie sieht's eigentlich mit der Emulatorgeschwindiglkeit beim NV40 aus?

Ist nämlich für mich ein wichtiger Punkt, weil ich viele C64, Amiga, PC-Engine, SNES usw. -Emus benutze. Anand hatte mal den NV3x gegen den R3xx gebencht und der ATI-Chip war oftmals mehr als doppelt so schnell wie der NV3x.

Gast
2004-05-28, 18:12:47
Hi, ich wollte nur mal schnell was erfragen:

Ich wollte mir zu meinem Geburtstag mitte Juni eine GeForce 6800 (Non-Ultra) wünschen.
Dumm nur dass bisher keine Exemplare ausgeliefert wurden und keiner so eine Karte hat.
Deswegen meine Frage:
Wird die GeForce 6800 bis mitte Juni in Deutschland erhältlich sein?

PS: Der Hersteller ist mir egal.

Danke im Vorraus.

dildo4u
2004-05-28, 18:14:06
Original geschrieben von Gast
Hi, ich wollte nur mal schnell was erfragen:

Ich wollte mir zu meinem Geburtstag mitte Juni eine GeForce 6800 (Non-Ultra) wünschen.
Dumm nur dass bisher keine Exemplare ausgeliefert wurden und keiner so eine Karte hat.
Deswegen meine Frage:
Wird die GeForce 6800 bis mitte Juni in Deutschland erhältlich sein?

PS: Der Hersteller ist mir egal.

Danke im Vorraus. eher nich zu erst kommt whol die 6800U dann die GT und danach erst die 6800

Winter[Raven]
2004-05-28, 18:30:43
Original geschrieben von Gast
Hi, ich wollte nur mal schnell was erfragen:

Ich wollte mir zu meinem Geburtstag mitte Juni eine GeForce 6800 (Non-Ultra) wünschen.
Dumm nur dass bisher keine Exemplare ausgeliefert wurden und keiner so eine Karte hat.
Deswegen meine Frage:
Wird die GeForce 6800 bis mitte Juni in Deutschland erhältlich sein?

PS: Der Hersteller ist mir egal.

Danke im Vorraus.

Muss angenommen werden, irgend ein Futzi von Nvidia meinte alle Modelle würden ~Mitte juni in Massen zukaufen sein.

Showtime
2004-05-28, 18:41:56
Original geschrieben von dildo4u
eher nich zu erst kommt whol die 6800U dann die GT und danach erst die 6800

Stand nicht irgendwo vor ein paar Tagen, dass erst 6800U und non Ultra, und danach die GT kommt?
@Gast
Lass dir doch einfach das Geld dafür schenken, dann kaufst du dir die Karte, sobald sie erhältlich ist. Oder du wartest sogar noch ein bisschen, damit der Preis fällt :)

Radeonator
2004-05-28, 19:04:59
Original geschrieben von MarcWessels
Wie sieht's eigentlich mit der Emulatorgeschwindiglkeit beim NV40 aus?

Ist nämlich für mich ein wichtiger Punkt, weil ich viele C64, Amiga, PC-Engine, SNES usw. -Emus benutze. Anand hatte mal den NV3x gegen den R3xx gebencht und der ATI-Chip war oftmals mehr als doppelt so schnell wie der NV3x.

Erstmal sind urmel alte tests nicht representativ und zweitens bruachts bei emulatoren selten PS2.0 Shader ;D

Die meisten Emus sind btw auf nVidia HW entwickelt worden, sollte deine Frage eigentlich beantworten.

Jedoch hatte ich auch mit meiner 9500Pro kaum Probleme mit emulatoren (nur mit Projekt64 liefen ein paar der treiber net so pralle)

MarcWessels
2004-05-28, 19:13:09
Original geschrieben von Radeonator
Die meisten Emus sind btw auf nVidia HW entwickelt worden, sollte deine Frage eigentlich beantworten.


Hmmmm... wie gesagt waren die Frameraten auf den NV3x deutlich geringer als auf R3xx - hatte wohl irgendwas mit dem Framebufferthroughput zu tun wenn ich mich recht erinner.

Naja, so oder so brauch ich jetzt im Moent grad wohl keine neue Karte zu kaufen weil ich auf'm Amiga-Trip bin. :D

Gast
2004-05-28, 20:04:17
Original geschrieben von Showtime
Stand nicht irgendwo vor ein paar Tagen, dass erst 6800U und non Ultra, und danach die GT kommt?
@Gast
Lass dir doch einfach das Geld dafür schenken, dann kaufst du dir die Karte, sobald sie erhältlich ist. Oder du wartest sogar noch ein bisschen, damit der Preis fällt :)

Mal schauen, ist auf jeden Fall ein Gedanke wert. Vielen Danke nochmal an euch. :) :) :)

Gas3t
2004-05-29, 11:36:29
Sieht so aus, als würde ATI nicht die 800Pro gegen die 6800GT antreten lassen wollen, sondern die 800XT (ohne PE) - welche etwas niedriger als die 800XT PE getaktet ist:

http://www.theinquirer.net/?article=16206

Hellfire-Torrod
2004-05-29, 12:08:47
Original geschrieben von Gas3t
Sieht so aus, als würde ATI nicht die 800Pro gegen die 6800GT antreten lassen wollen, sondern die 800XT (ohne PE) - welche etwas niedriger als die 800XT PE getaktet ist:

http://www.theinquirer.net/?article=16206

:cop: :cop: Fuad :cop: :cop:

Naja, lag ja irgendwie auf der hand das es eine normale xt geben wird, aber gegen die GT?!...naja

dildo4u
2004-05-29, 15:55:50
http://www.hardwareluxx.de/story.php?id=393

MSI 6800U für 630€!

Gast
2004-05-29, 16:09:00
Original geschrieben von Hellfire-Torrod
:cop: :cop: Fuad :cop: :cop:

Naja, lag ja irgendwie auf der hand das es eine normale xt geben wird, aber gegen die GT?!...naja

:cop: Hellfire :cop:

LovesuckZ
2004-05-29, 17:33:58
Original geschrieben von Gas3t
Sieht so aus, als würde ATI nicht die 800Pro gegen die 6800GT antreten lassen wollen, sondern die 800XT (ohne PE) - welche etwas niedriger als die 800XT PE getaktet ist:

http://www.theinquirer.net/?article=16206

Eher kann ATi nicht genug X800XT PE liefern und wird es bei einer "normalen" XT belassen. Gegen eine 6800GT konkurieren? Unwahrscheinlich, denn dann müsste die X800pro ins <300$ Segment abrutschen.

dildo4u
2004-05-29, 17:35:36
Original geschrieben von LovesuckZ
Eher kann ATi nicht genug X800XT PE liefern und wird es bei einer "normalen" XT belassen. Gegen eine 6800GT konkurieren? Unwahrscheinlich, denn dann müsste die X800pro ins <300$ Segment abrutschen. Oder die GT in die 500€ klasse was ich bei über 600€ für die 6800U mittlerweile für wahrscheinlich halte leider

Hellfire-Torrod
2004-05-29, 17:39:25
Original geschrieben von Gast
:cop: Hellfire :cop:

:chainsaw: Gast :chainsaw:

Die GT teurer zu machen währe blödsinn, da sie Leistungstechnisch nicht mit der normalen XT mithalten würde.....der vergleich gt und pro währe da schon realistischer. Denk mal eher das die XTPE dan von den OEM`s und den herstellern so behandelt wird wie die 6800 Ultra "extreme" .

Fadl
2004-05-29, 17:48:19
Wenn ATI angibt der Preis für die XT PE soll um 499$ kosten dann ist dem so. Genauso die Preise der NVidia Karten.
Was am Anfang passiert ist einfach nur Abzocke. Die Preise werden sich schon einpendeln.
Und warum sollte die X800 Pro nicht gegen die 8600GT positioniert sein. Der Preis ist der gleiche und die Leistung ist auch ähnlich.

Gast
2004-05-29, 17:58:31
Es werden dauernd angekündigt aber keine ist verfügbar :( :cryl: :bawling:
Ich will endlich eine GT haben .. :...( :...( :...(

Uller
2004-05-29, 18:03:41
Also dass die GT in der 400 Euro Klasse spielt ist ja wohl klar:
http://www.geizhals.at/eu/a102253.html

Meine Meinung zum Thema:
Ati will Nvidia performancemäßig in jeder Klasse übertrumpfen:
-> X800 Pro vs. 6800
-> X800 XT vs. 6800 GT
-> X800 XT PE vs. 6800 Ultra

(Ich rede hier nur von Performance, nicht von Bildqualität ;))

Dies würde heißen, dass die X800 in die 300 Euro Klasse gesteckt wird, was der Preisentwicklung in den USA nach durchaus realistisch scheint.

dildo4u
2004-05-29, 18:08:39
Original geschrieben von Uller
Also dass die GT in der 400 Euro Klasse spielt ist ja wohl klar:
http://www.geizhals.at/eu/a102253.html

Meine Meinung zum Thema:
Ati will Nvidia performancemäßig in jeder Klasse übertrumpfen:
-> X800 Pro vs. 6800
-> X800 XT vs. 6800 GT
-> X800 XT PE vs. 6800 Ultra

(Ich rede hier nur von Performance, nicht von Bildqualität ;))

Dies würde heißen, dass die X800 in die 300 Euro Klasse gesteckt wird, was der Preisentwicklung in den USA nach durchaus realistisch scheint. mit geizhals brauchst du nicht kommen weil keien karten verfügbar sind und wenn doch werden sie teurer

Fadl
2004-05-29, 18:17:30
Wer für eine GT mehr als 400€ ausgibt gehört geschlagen.
Ich sehe den Preis bei Verfügbarkeit eher deutlich unter 400€

robbitop
2004-05-29, 18:18:51
wenn ATi die Preise anpasst, dann kann es gern so hinkommen dass die XT gegen die GT antritt. Vorher ist egal, was ATi meint.

dildo4u
2004-05-29, 19:41:58
in der neuen PCGH 7/2004 wo die X800pro gegen die 6800GT antritt werden beide Karten mit 420-450€ angegeben Die GT liegt im schnitt mit 8% vorne in 1600*1200 mit 4XAA und 8XAF mit optemierungen PCGH meint man solle die karten mit optemierungen vergleichen da man zwar die stage optemierung bei den ati karten deaktivieren kann aber nicht den Bi AF filter auf Tri stellen kann

LovesuckZ
2004-05-29, 19:42:45
Original geschrieben von dildo4u
in der neuen PCGH wo die X800pro gegen die 6800GT antritt werden beide karte mit 420-450€ angegeben Die GT liegt im schnitt mit 8% vorne in 1600*1200 mit 4XAA und 8XAF

Kannst du sagen, wie gut die 6800NU abschneidet?

dildo4u
2004-05-29, 19:44:39
Original geschrieben von LovesuckZ
Kannst du sagen, wie gut die 6800NU abschneidet? haben sie leider nicht mit im test nur in der fakten tabelle da wird die 6800nU mit 350-370€ angegeben bie 325chip 12 pipes

Gast
2004-05-29, 20:03:14
Original geschrieben von Uller
Also dass die GT in der 400 Euro Klasse spielt ist ja wohl klar:
http://www.geizhals.at/eu/a102253.html

Meine Meinung zum Thema:
Ati will Nvidia performancemäßig in jeder Klasse übertrumpfen:
-> X800 Pro vs. 6800
-> X800 XT vs. 6800 GT
-> X800 XT PE vs. 6800 Ultra

(Ich rede hier nur von Performance, nicht von Bildqualität ;))

Dies würde heißen, dass die X800 in die 300 Euro Klasse gesteckt wird, was der Preisentwicklung in den USA nach durchaus realistisch scheint.

Der Vergleich is Quatsch,die Pro schlägt mit 4xAA 8xAF sogar die Ultra.
Bei ATI bekommt man viel mehr fürs Geld

LovesuckZ
2004-05-29, 20:05:13
Original geschrieben von Gast
Bei ATI bekommt man viel mehr fürs Geld

Bevormundung, Lügen, Vertuschungen. Alles inbegriffen *eg*

Gast
2004-05-29, 20:05:37
Original geschrieben von dildo4u
in der neuen PCGH 7/2004 wo die X800pro gegen die 6800GT antritt werden beide Karten mit 420-450€ angegeben Die GT liegt im schnitt mit 8% vorne in 1600*1200 mit 4XAA und 8XAF mit optemierungen PCGH meint man solle die karten mit optemierungen vergleichen da man zwar die stage optemierung bei den ati karten deaktivieren kann aber nicht den Bi AF filter auf Tri stellen kann

ohman in solchen Einstellungen ist die Pro sogar schneller als die Ultra,ihr glaubt auch alles was.

Gast
2004-05-29, 20:12:32
Schaut euch diesen Test an,da seht wer hier cheatet

http://www.digit-life.com/articles2/gffx/nv40-rx800-2-p1.html

achtet auf die Farcry Tests

MarcWessels
2004-05-29, 20:49:12
*gääähn*

Sphinx
2004-05-29, 21:08:49
Original geschrieben von dildo4u
Oder die GT in die 500€ klasse was ich bei über 600€ für die 6800U mittlerweile für wahrscheinlich halte leider


Die GT liegt in der 480-500 Euro *Einführungspreis also "knapp" oberhalb der x800Pro Preisklasse.

Sollten die angegebenen Preise(günstigsten) bei Geizhals als eine ungefähren Richtung wahr sein.


*Die Preise dieser Karten wird sich bestimmt in den nächsten 3-4 Monaten stabilisieren aber mit mehr als -50Euro sollte man nicht rechnen wenn überhaupt ~Rein Spekulativ...

Gast
2004-05-29, 21:11:02
Original geschrieben von Sphinx
Die GT liegt in der 480-500 Euro *Einführungspreis also "knapp" oberhalb der x800Pro Preisklasse.

Sollten die angegebenen Preise(günstigsten) bei Geizhals als eine ungefähren Richtung wahr sein.


*Die Preise dieser Karten wird sich bestimmt in den nächsten 3-4 Monaten stabilisieren aber mit mehr als -50Euro sollte man nicht rechnen wenn überhaupt ~Rein Spekulativ...

http://www.geizhals.at/deutschland/a102253.html

wenn du nach geizhals gehts liegt die GT aber bei 400€ wo du geguckt hast is die 6800U

dildo4u
2004-05-29, 21:12:18
^
Das war ich

Sphinx
2004-05-29, 21:14:20
Original geschrieben von Gast
http://www.geizhals.at/deutschland/a102253.html

wenn du nach geizhals gehts liegt die GT aber bei 400€ wo du geguckt hast is die 6800U

Hatte zumindest vor kurzem ~ nur die von Gainward gelistet bekommen. Deswegen die Spekulative Preiklassen Analyse...

betasilie
2004-05-29, 22:35:42
Original geschrieben von Sphinx
*Die Preise dieser Karten wird sich bestimmt in den nächsten 3-4 Monaten stabilisieren aber mit mehr als -50Euro sollte man nicht rechnen wenn überhaupt ~Rein Spekulativ...
Imho werden die Karten schon nach 4-6 Wochen nach der ersten Verfügbarkeitswelle in Deutschland um 50€ fallen!

dildo4u
2004-05-29, 23:01:50
Original geschrieben von LovesuckZ
Kannst du sagen, wie gut die 6800NU abschneidet? so nach dem ich die zeitung noch mal gründlich durch gegangen bin Hab ich doch noch ein test einer Leadtek A400TDH 6800nU gefunden leider keine detalierten Benches aber ich geb mal das Fazit wieder

"Die preislichen Konkurrtenten 9800XT und FX5950U hält die Leadtek gut in schach und liegt meist 20-80% in front.Ausnahem:Bei UT2004 geht ihr angesichts der niedrigen speicherbandbreite etwas die Puste aus;
Bei Halo und Farcry liegt der 6800 ungefähr gleich auf mit der 9800XT.
Gegenüber der 6800GT verliert sie bis zu 40%"

K29!ll3r
2004-05-31, 15:21:56
Ab wieviel € kann man eine 6800 Ultra nicht mehr als überteuert bezeichnen?
Kann's kaum erwarten auf den Bestell-Button zu klicken...

reunion
2004-05-31, 15:22:51
Original geschrieben von K29!ll3r
Ab wieviel € kann man eine 6800 Ultra nicht mehr als überteuert bezeichnen?
Kann's kaum erwarten auf den Bestell-Button zu klicken...

Ich schätzte bei der Ultra wird man schon mit 500€ rechnen müssen.
Der empfohlene verkaufspreis von NV liegt jedenfalls bei 499$.

Wenn ich du wäre würde ich allerdings auf die GT warten, die Karte ist nur geringfügig niedriger getaktet, hat nur eine Stromanschluss, eine ein Slot Kühlung und wird um 399$ erhältlich sein.

Torian.cc
2004-05-31, 18:38:29
Ich habe diesesmal auch das Gefühl, daß Performance-Unterschiede zwischen 6800 Ultra und 6800 GT (oder vielleicht sogar nU) geringer ausfallen, als es noch bei Geforce FX 5900 Ultra und nU der Fall war!

MfG
Tori

K29!ll3r
2004-05-31, 18:54:27
Dann zieh ich die GT auch noch in Betracht...

Aber wieviel wäre denn für die ein guter Preis?? Ich hab keine Lust, einen Premiumpreis zu zahlen...

LovesuckZ
2004-05-31, 18:59:39
Original geschrieben von Torian.cc
Ich habe diesesmal auch das Gefühl, daß Performance-Unterschiede zwischen 6800 Ultra und 6800 GT (oder vielleicht sogar nU) geringer ausfallen, als es noch bei Geforce FX 5900 Ultra und nU der Fall war!

Leistungstechnisch ist der Unterschied zwischen 6800U und 6800GT sowieso 5900U und 5900NU (256MB) der selbe.

Gast
2004-05-31, 19:10:45
Mal noch so ne Frage:

Bringt es was noch zu warten und dann vielleicht eine bessere Karte ala 6800 oder X800 zu kaufen oder jetzt noch eine, leicht veraltete, 9800 Pro zu kaufen?
Hab nämlich keine Lust mehr als 300€ zu blechen und dann ist die Mehrleistung nicht so extrem.

System: Athlon XP 3200+, 512 MB DDR400, NForce2
Bringt da eine 6800 (z.B. NonUltra) noch einen großen Vorteil oder reicht eine 9800 Pro?
PS: Ich spiel nie höher als 1024*768, stelle aber gern mal AA und AF an.
Die Graka sollte aber schon für Doom3, HL2 und co. geeignet sein.

Uller
2004-05-31, 22:14:35
Aus dem Beyond 3D Forum von Ante P., welcher verantwortlich ist für nordichardware.com:

(kurze Vorgeschichte: nordichardware.com hatte in ihrem 6800 Ultra Review einen nVidia-Treiber Version 65.04 - die meisten hielten das für einen Tippfehler)


dan2097
Do you mean newer than the 65xx drivers you seemed to have? You know the ones you used to show that Nvidias future drivers would be more comaptable with glsl. (although it still failed something like 40% of the tests IIRC) Did any other site get those drivers, I would of thought some would do driver performance comparisons

Ante P
it's an earlier revision number but it's a later build (sometimes nvidia tend to do that)

65.04 sucks goat balls when it comes to performance, though it seemed to have nailed features and functionality allright

the reason I'm waiting for it is partially because 61.11 didn't work with the trilinear optimizations toggle but also because this new driver is supposed to have more features and really improved performance (updated unified compiler tech for NV40 apparently) etc.

but also because I have some retail boards coming in and it just so happens that nvidia has asked these partners not to send out board unless their partners can be absolutely certain that reviewrs will wait for the next driver set before they publish anything

oh well, we'll soon see

gee what fun to redo all these tests again

Kurz zusammengefasst:
65.04 hatte bisher schlechte Performance, aber viele Features. Der neue Treiber wird zwar eine niedrigere Versionsnummer haben aber wesentlich schneller sein.
NVidia hält außerdem die Retail-Boards ihrer Partner zurück, damit die nächsten Tests erst mit den neuen Treibern gemacht werden.
-> Nvidia macht den 6800ern Feuer unter dem Arsch
-> gute Neuigkeiten ;)

dildo4u
2004-05-31, 22:26:30
http://www.xtremesystems.org/forums/showthread.php?postid=459329#post459329 hier mal eine 6800U mit extremer kühlung 600mhz chip

LovesuckZ
2004-05-31, 22:35:32
NV45 von anandtech.com (http://www.anandtech.com/showimage.html?u=http://images.anandtech.com/reviews/shows/computex/2004/prelim/IMG_6187.jpg)

Was ist das für ein Stromanschluss?
Ansonsten sei die Karte mit 450MHz Coreclock getaktet und habe den selben Speicher (550MHz).

Exxtreme
2004-05-31, 22:38:45
Original geschrieben von LovesuckZ
NV45 von anandtech.com (http://www.anandtech.com/showimage.html?u=http://images.anandtech.com/reviews/shows/computex/2004/prelim/IMG_6187.jpg)

Was ist das für ein Stromanschluss?
Ansonsten sei die Karte mit 450MHz Coreclock getaktet und habe den selben Speicher (550MHz).
340V Starkstromanschluss. :D

Neee, Spass. Da sieht für mich so aus wie der Stromanschluss auf der R9700Pro. Sprich, Floppystecker.

LovesuckZ
2004-05-31, 22:40:02
Original geschrieben von Exxtreme
Neee, Spass. Da sieht für mich so aus wie der Stromanschluss auf der R9700Pro. Sprich, Floppystecker.

Bei Anandtech.com steht, dass dieser kein normaler Anschluss sei...

StefanV
2004-05-31, 22:46:18
Original geschrieben von LovesuckZ
NV45 von anandtech.com (http://www.anandtech.com/showimage.html?u=http://images.anandtech.com/reviews/shows/computex/2004/prelim/IMG_6187.jpg)

Was ist das für ein Stromanschluss?
Ansonsten sei die Karte mit 450MHz Coreclock getaktet und habe den selben Speicher (550MHz).

Schaut wie ein WTX Aux Anschluss aus :bonk:

LovesuckZ
2004-05-31, 22:53:28
Das Haar sieht einfach nur genial aus:

http://bbs.gzeasy.com/uploads/post-1-1086010155.jpg

Bevor jetzt jemand meckert: 6800U mit 4AA/8QAF!

/edit: http://bbs.gzeasy.com/index.php?showtopic=173298&st=0

MuLuNGuS
2004-06-01, 08:44:56
@Exxtreme


wenn schon starkstromanschluß dann bitte mit 400V ;)

aber interressant ist der anschluß schon, hat NV da noch einiges in petto?

robbitop
2004-06-01, 11:32:17
ich bin mal gespannt ob die XT auch an die 399EUR der GT rankommt

wenn nicht, dann ist egal ob ATi meint es sei der Gegenpart zur GT.

Winter[Raven]
2004-06-01, 11:34:05
Original geschrieben von robbitop
ich bin mal gespannt ob die XT auch an die 399EUR der GT rankommt

wenn nicht, dann ist egal ob ATi meint es sei der Gegenpart zur GT.

Ehe nicht, dann müsste man die Pro nach unten schieben, das wird aber in nächster Zeit ned passieren.

DrumDub
2004-06-01, 11:36:12
Original geschrieben von LovesuckZ
Bei Anandtech.com steht, dass dieser kein normaler Anschluss sei...

die aufklärung gibts doch schon bei anandtech: http://www.anandtech.com/showdoc.html?i=2068

der r423 kommt mit dem gleichen anschluss.

DrumDub
2004-06-01, 13:34:46
Original geschrieben von LovesuckZ
Das Haar sieht einfach nur genial aus:

http://bbs.gzeasy.com/uploads/post-1-1086010155.jpg

Bevor jetzt jemand meckert: 6800U mit 4AA/8QAF!

/edit: http://bbs.gzeasy.com/index.php?showtopic=173298&st=0

hier siehts noch geiler aus, wie ich finde:

http://bbs.gzeasy.com/uploads/post-1-1086001652.jpg

Gast
2004-06-01, 13:48:03
Haare bewegen sich extrem unrealistisch,hab ihr noch nie Haare Unterwasser gesehn ?

Gast2k4
2004-06-01, 14:12:35
Hey Leute,

könntet ihr mir sagen wann es die Geforce 6800 zu kaufen geben wird? Hab echt kein Bock mehr zu warten, will mir endlich einen neuen Rechner zusammenbasteln...

DrumDub
2004-06-01, 14:32:20
Original geschrieben von Gast2k4
Hey Leute,

könntet ihr mir sagen wann es die Geforce 6800 zu kaufen geben wird? Hab echt kein Bock mehr zu warten, will mir endlich einen neuen Rechner zusammenbasteln...

voraussichtlich ende diesen monats.

Gast2k4
2004-06-01, 15:31:07
Original geschrieben von DrumDub
voraussichtlich ende diesen monats.


Was? Ende des Monats, ist ja noch lange :( !

LovesuckZ
2004-06-01, 15:54:01
Original geschrieben von Gast
Haare bewegen sich extrem unrealistisch,hab ihr noch nie Haare Unterwasser gesehn ?

Schon mal'ne Meerjungfrau unter Wasser gesehn?

Godmode
2004-06-01, 16:27:35
Schade das es keine High Quality Bilder sind!

DrumDub
2004-06-01, 16:39:33
Original geschrieben von bans3i
Schade das es keine High Quality Bilder sind!

was soll das sein? :|

betasilie
2004-06-01, 17:34:08
Original geschrieben von DrumDub
was soll das sein? :|
Ich finds auch nicht so toll. Ein bischen trist die Demo.

DrumDub
2004-06-01, 17:37:07
Original geschrieben von betareverse
Ich finds auch nicht so toll. Ein bischen trist die Demo.

na ja, in bewegung siehts garantiert geil aus. auf jeden fall besser als das blöde piratenschiff. wobei da das wasser ziemlich beeindruckend ist.

betasilie
2004-06-01, 17:40:50
Original geschrieben von DrumDub
na ja, in bewegung siehts garantiert geil aus. auf jeden fall besser als das blöde piratenschiff. wobei da das wasser ziemlich beeindruckend ist.
Keine Frage. In Bewegung könnte die kleine Nixe mehr beeindrucken. :)

Mal schauen, ob ich die Nixe oder Ms.Future bald in Echtezit betrachten darf.

Godmode
2004-06-01, 17:46:48
Original geschrieben von DrumDub
was soll das sein? :|

Diese Biler oben sind komprimierte JPGs und diese sind Verlustbehaftet!! Ich hab ein PNG Bild von der Nixe in einer auflösung von 2xxx*2xxx und das sieht viel besser aus!

DrumDub
2004-06-01, 17:59:15
Original geschrieben von bans3i
Diese Biler oben sind komprimierte JPGs und diese sind Verlustbehaftet!! Ich hab ein PNG Bild von der Nixe in einer auflösung von 2xxx*2xxx und das sieht viel besser aus!

ah so. ich schick dir grad mal nen pn.

Gast
2004-06-01, 19:51:30
Zum NV45...
Denke dass ist der Grund, warum es keine 6800UE seitens NVidia gibt, die Takterhöhung die imo drin ist, für den PCI-E Chip aufsparen, und es den Herstellern überlassen etwas äquivalentes zu bringen.
Gar nicht mal schlecht um "Daus" vorzugaukeln, das PCI-E mehr Speed bringt, vieleicht springt ATI auch auf den Zug auf...

Gast
2004-06-01, 19:56:56
http://www.anandtech.com/showdoc.html?i=2068

Nix mit NV45 native PCI-Express, ist ne normale NV40 mit Bridge Chip, aber der neue Connector onboard is net.
Und kein Alleingang, da ATI ihn auch nutzt.

Torian.cc
2004-06-01, 22:13:50
nVidia zeigt sich irgendwie immer ziemlich einfallslos, wenn es um Tech-Demos geht :(

Also ich finde die neue ATI Tech-Demo auch um längen goiler (Ruby, oder wie das Mäuschen heißt...)!!

MfG
Tori

Godmode
2004-06-01, 22:31:20
Original geschrieben von Torian.cc
nVidia zeigt sich irgendwie immer ziemlich einfallslos, wenn es um Tech-Demos geht :(

Also ich finde die neue ATI Tech-Demo auch um längen goiler (Ruby, oder wie das Mäuschen heißt...)!!

MfG
Tori

Seit Ruby gabs von ATI noch nie was Menschliches. Bei der R300 Serie gab es so nen Affen IIRC.

Bei Nalu wurde halt alles auf einen Char(Haare, Haut,...) gesetzt und bei Ruby gibts noch ne Umgebung. Ist alles Ansichtssache, dem einen gefällt das besser, dem anderen das andere :)

InsaneDruid
2004-06-01, 23:28:17
Meint du VOR Ruby? Bitte nich die gute
Rachel (http://www2.ati.com/misc/demos/ATI-8500-Rachel-Demo-v1.1.exe) vergessen! :)

http://www.ati.com/developer/images/2517-5396.jpg

Gast
2004-06-02, 00:34:03
Ich habe jetzt nicht alle Seiten gelsen aber welche Karte wird jetzt besser sein nv40 oder der 420 ??

betasilie
2004-06-02, 00:59:26
Original geschrieben von Gast
Ich habe jetzt nicht alle Seiten gelsen aber welche Karte wird jetzt besser sein nv40 oder der 420 ??
Beide ungefähr gleich gut. Warte auf HL2 und DoomIII Benchmarks oder kauf nach Preis.

Quasar
2004-06-02, 06:51:50
Original geschrieben von Gast
Ich habe jetzt nicht alle Seiten gelsen aber welche Karte wird jetzt besser sein nv40 oder der 420 ??

Definiere "Besser".

MarcWessels
2004-06-02, 15:38:32
Können die nVidia-Karten eigentlich als niedrigste Bildwiederholrate 50hz oder sind die auch wie ATI auf 56hz beschränkt?

Einige Amiga-. und C64-Spiele gibt es nämlich nur als PAL-Versioenn und die laufen auf NTSC-Maschinen (oder Emulatoren) unerträglich schnell; natürlich hört sich der Sound auch albern an mit 20% "+" an Speed. :/

Bleibt mir bislang nur 100hz x 2 (=50fps), doch dabei gibt es leider Gottes verwischtes Scrolling statt des von den beiden Geräten bekannte scharfe und flüssige Scrolling... :(

Fadl
2004-06-02, 17:12:38
Hier die MSI Karte mit neuem Kühler

http://gfx.turtled.com/n/36000/36572_2b.jpg

Iceman346
2004-06-02, 17:15:06
Original geschrieben von Fadl
Hier die MSI Karte mit neuem Kühler

http://gfx.turtled.com/n/36000/36572_2b.jpg

Mmh, also bisher gefällt mir die Asus mit der "simplen Eleganz" am besten.

Tjell
2004-06-02, 17:22:15
Original geschrieben von Fadl
Hier die MSI Karte mit neuem Kühler

http://gfx.turtled.com/n/36000/36572_2b.jpg

LOL

Man nehme den Aufkleber ab und denke sich den zweiten Stromanschluß weg, dann könnte es auche eine Ati sein.

Naja, Hauptsache das Ding wird ähnlich beeindruckend kühlstark und leise zugleich wie seinerzeit das TwinFlowFX.

Gast
2004-06-02, 19:03:07
weiß man schon wann die Karte von MSI kommt?
Gibt es da 2Versionen von MSI von der Ultra??

MarcWessels
2004-06-02, 19:09:27
Original geschrieben von MarcWessels
Können die nVidia-Karten eigentlich als niedrigste Bildwiederholrate 50hz oder sind die auch wie ATI auf 56hz beschränkt?

Hallo? Hier sind doch auch NV3x-User...

ow
2004-06-02, 19:12:48
Original geschrieben von MarcWessels
Hallo? Hier sind doch auch NV3x-User...


Ist mir bislang nicht gelungen (Win98, FX5600, Det 60.irgendwas). Unter 60Hz gin es nicht. Aber da kriegt man ja eh Augenkrebs davon.:D;)

LovesuckZ
2004-06-02, 19:58:18
Wundertreiber #0815 (http://www.theinquirer.net/?article=16313)

WE NOW HAVE CONFIRMATION that Nvidia's wonder driver should arrive sometime tomorrow.
Apparently this will make this card faster then the red boys offer and might bring the long lost performance crown back to Nvidia.

Go nvidia, go Nvidia!

Gast
2004-06-02, 20:37:23
Also langsam wird der NV40 doch meinen Erwartungen gerecht!
NVidia GOGOGOGOGO

Tjell
2004-06-02, 20:38:22
Original geschrieben von Gast
weiß man schon wann die Karte von MSI kommt?
Gibt es da 2Versionen von MSI von der Ultra??

Wie mittlerweile bei jeder neuen Chipgeneration werden die Karten der ersten Wochen allesamt im Referenzdesign ausgeliefert.

Mit herstellerspezifischen Karten ist nach meiner Erfahrung frühestens ca. 1 Monat später zu rechnen.

[dzp]Viper
2004-06-02, 20:40:36
Original geschrieben von LovesuckZ
Wundertreiber #0815 (http://www.theinquirer.net/?article=16313)

WE NOW HAVE CONFIRMATION that Nvidia's wonder driver should arrive sometime tomorrow.
Apparently this will make this card faster then the red boys offer and might bring the long lost performance crown back to Nvidia.

Go nvidia, go Nvidia!

wie jedes mal das gleiche

bei jeder neuen generation sollen die nächsten treiber die wundertreiber sein die die grafikkarte nochmal 30% schneller werden lassen soll :D
Den Spruch habe ich zu oft von NV gehört, als dass ich da noch was drauf verwetten würde ;)

Aber mal sehen vielleicht bringts ja doch was :)

MarcWessels
2004-06-02, 20:44:23
Original geschrieben von ow
Ist mir bislang nicht gelungen (Win98, FX5600, Det 60.irgendwas). Unter 60Hz gin es nicht. Aber da kriegt man ja eh Augenkrebs davon.:D;)

Schade - muß ich Apidya weiterhin mit verwischtem Scrolling spielen. :/

MarcWessels
2004-06-02, 20:45:39
Original geschrieben von LovesuckZ
Wundertreiber #0815 (http://www.theinquirer.net/?article=16313)

WE NOW HAVE CONFIRMATION that Nvidia's wonder driver should arrive sometime tomorrow.
Apparently this will make this card faster then the red boys offer and might bring the long lost performance crown back to Nvidia.

Go nvidia, go Nvidia!

"Lost performance crown"? Hm? Bei gleichen Voraussetzungen (Sprich: Optimierungen hüben wie drüben) ist der NV40 doch sowieso schon schneller als der R420...

VooDoo7mx
2004-06-02, 21:05:28
Original geschrieben von LovesuckZ
Wundertreiber #0815 (http://www.theinquirer.net/?article=16313)

WE NOW HAVE CONFIRMATION that Nvidia's wonder driver should arrive sometime tomorrow.
Apparently this will make this card faster then the red boys offer and might bring the long lost performance crown back to Nvidia.

Go nvidia, go Nvidia!

Auch wenn ich es selber ziemlich kuhl finden würde...

:cop:FUAD:cop:

Aber beim Inquerer, werden die neuen Treiber schon mit dem legendären 20er Detos verglichen, die damals NV einfach zum R200 Launch rausgezaubert hat, um den R200 teilweise alt aussehen zu lassen. :D

aber am Lustigsten finde ich diese Aussage:

Our source told us that the original driver that the press benchmarked back in April when the chip was launched was roughly 30 per cent slower then the hardware is capable of.

Also wenn das auch nur zum Teil stimmen sollte...

Original geschrieben von MarcWessels
"Lost performance crown"? Hm? Bei gleichen Voraussetzungen (Sprich: Optimierungen hüben wie drüben) ist der NV40 doch sowieso schon schneller als der R420...

Sehe ich auch so... nur werden sie jetzt noch schneller sein.

Torian.cc
2004-06-02, 21:08:21
Ich glaube ja auch, daß aufgrund der neuen NV40-Technik noch ein bissl Performance aus den Treibern rauszukitzeln ist, aber wenn sich nVidia mit der neuesten ForceWare tatsächlich die Performance-Krone wiederholen will, kann das doch sicherlich wieder nur auf Kosten der Qualität gehen...., hier und dort wird noch ein bischen "optimiert" (ok, gecheatet triffts besser!), und schon sehen einige Benchmarks viiiiel besser aus..., im Gegensatz zum Spiel selbst :(

Hoffen wir mal, daß das diesesmal nicht der Fall ist!

MfG
Tori

Uller
2004-06-02, 21:13:30
Ich bin auch ganz zuversichtlich was die neuen Treiber angeht - hoffe dass damit Nvidia in FarCry stark aufholt aber auch anderweitig besser wird.
Habe mir schließlich bei zwei Shops eine 6800 GT bestellt ;)
Das muss sicher auch nicht auf Kosten der Qualität gehen, bei einem neuen Chipdesign ist meistens noch sehr viel rauszuholen durch Treiber.

Winter[Raven]
2004-06-02, 21:34:04
Original geschrieben von [dzp]Viper
wie jedes mal das gleiche

bei jeder neuen generation sollen die nächsten treiber die wundertreiber sein die die grafikkarte nochmal 30% schneller werden lassen soll :D
Den Spruch habe ich zu oft von NV gehört, als dass ich da noch was drauf verwetten würde ;)

Aber mal sehen vielleicht bringts ja doch was :)

Wieso?

Hat Nvidia zuviel versprochen mit den Treibern für die NV3x Serie? Ich mein ~100% zugelgt spricht ja für sich selbst.

dildo4u
2004-06-02, 21:38:43
Original geschrieben von Winter[Raven]
Wieso?

Hat Nvidia zuviel versprochen mit den Treibern für die NV3x Serie? Ich mein ~100% zugelgt spricht ja für sich selbst. für mich wärn ein versprechen für den full tri schalter für den wunder treiber und das es die karten endlich mal zu kaufen gibt 100mal wichtiger

StefanV
2004-06-02, 21:39:43
Original geschrieben von Winter[Raven]
Wieso?

Hat Nvidia zuviel versprochen mit den Treibern für die NV3x Serie? Ich mein ~100% zugelgt spricht ja für sich selbst.

Ja und zu welchem Preis?

LovesuckZ
2004-06-02, 21:42:55
Original geschrieben von Stefan Payne
Ja und zu welchem Preis?

ca. 0,5c/min

Gast
2004-06-02, 21:45:57
Original geschrieben von Stefan Payne
Ja und zu welchem Preis?

Für OpenGL:
Wird man an Doom3 sehen, ob es etwas gekostet hat, da JC meint die neuen Treiber sind flott enough...

Gast
2004-06-02, 21:58:50
Endlich ist der russische IXBT Artikel zur Filterqualität der neuen Grafikkartengeneration auch in gutem English erschienen

http://www.digit-life.com/articles2/gffx/nv40-rx800-3.html

lssuckz
2004-06-03, 00:07:16
Edit by Thowe: Unwichtig

Showtime
2004-06-03, 00:50:20
Wieso sollte Performancesteigerung nur durch Cheats möglich sein? Wieso sollte man nVidia weniger vertrauen als ATi? Wieso schreibst du einfach irgendeinen Unsinn ohne Grundlage?
Inquirer ist meiner Meinung nach übrigens besser als sein Ruf.

robbitop
2004-06-03, 09:51:38
der NV40 ist eine neue Architektur. Da sind durch Treiber immer 20-30% mehr drin. (war bisher immer so).
Der R420 hingegen ist treiberseitig schon voll optimiert, da es ja nur ein etwas größerer R300 ist.

DrumDub
2004-06-03, 11:11:54
Original geschrieben von MarcWessels
"Lost performance crown"? Hm? Bei gleichen Voraussetzungen (Sprich: Optimierungen hüben wie drüben) ist der NV40 doch sowieso schon schneller als der R420...

kommt aufs spiel an.

DrumDub
2004-06-03, 11:14:41
Original geschrieben von robbitop
der NV40 ist eine neue Architektur. Da sind durch Treiber immer 20-30% mehr drin. (war bisher immer so).
ja.


Der R420 hingegen ist treiberseitig schon voll optimiert, da es ja nur ein etwas größerer R300 ist.
nein: http://www.3dcenter.de/artikel/2004/06-01.php

robbitop
2004-06-03, 12:20:33
hui die sincos Funktion wurde verschnellert...
bis auf ein paar Feinheiten ist es ein R300. Und die Feinheiten treten sehr selten im Chip auf.

Uller
2004-06-03, 12:23:57
Der R420 ist aber noch nicht sehr effizient, aufgrund des Speichercontrollers. -> auch hier besteht noch Optimierungspotential

robbitop
2004-06-03, 12:42:31
ich bezweifle dass man da was mit dem Treiber dran drehen kann (auch wenn er programmierbar ist).
aber ich lasse ich gern eines Besseren belehren

MuLuNGuS
2004-06-03, 14:02:22
selbst wenn der treiber nur 10% bringen würde wäre das schon nicht schlecht.

mir gefallen die ATIs zwar auch ganz gut aber irgendwie wird die 6800GT immer interessanter, wenn sie dann noch auf das niveau einer ultra oder meinetwegen etwas darunter zu übertakten ist bin ich mit dieser karte dabei.

alles was mir dann noch fehlt ist ein athlon 64 der sich gut auf reale 2,7GHz übertakten läßt.
vielleicht geht ja bei den neueren Northwood A64 3400+ 512kb @2,4GHz noch einiges :D

Hakkerstiwwel
2004-06-03, 14:49:16
Original geschrieben von robbitop
1.der NV40 ist eine neue Architektur. Da sind durch Treiber immer 20-30% mehr drin. (war bisher immer so).
2.Der R420 hingegen ist treiberseitig schon voll optimiert, da es ja nur ein etwas größerer R300 ist.

1. wo kommen die 20-30% her? Entweder ein trade-off gegen IQ (hoffentlich nicht), oder Shaderoptimierungen. Letzteres ist an sich Begruessenswert, laeuft aber fuerchte ich auf handgeschriebene Optimierungen (wie beim nV3x) fuer die haupsaechlich gebenchten Games heraus. Obschon dies an sich kein Problem ist, bleiben zwei Fragezeichen:
? wie sieht es mit kleineren Titeln aus
? wann werden wir den ersten Treiber mit 100MB sehen, oder laufen als Konsequenz die Optimierungen fuer die 3er Reihe aus
2. FACK, ausser dass der 4.4 gezeigt hat dass es trotzdem noch moeglich war nach mehr als einem Jahr noch was zu erreichen. Evtl nutzt Ati ja auch mal die Zeit um in OGL noch was zu unternehmen.

Quasar
2004-06-03, 14:53:08
...oder Shadercompiler-Optimierungen für die neue Architektur.
Wobei ich da 20% ausser in Spezialfällen für ziemlich optimistisch halte.

Demirug
2004-06-03, 15:20:36
Original geschrieben von Quasar
...oder Shadercompiler-Optimierungen für die neue Architektur.
Wobei ich da 20% ausser in Spezialfällen für ziemlich optimistisch halte.

Der Shadercompiler muss nur aus einem 6 Takt Shader einen Takt rauspressen. Ich kenne da sogar einen in Farcry wo das geht. Der Compiler im Treiber hat bisher ein bestimmtes Problem übersehen.

robbitop
2004-06-03, 15:29:10
@Hakkerstiwwel
das siehst du etwas engstirnig.
Ersteinmal bringt ein neuer Shadercompiler mehr Leistung.
und weiterhin ist der Treiber ja zur Steuerung der Hardware und da die nicht ganz ausgereift sind, wenn eine Architektur neu ist, bringen neue Treiber in diesem Stadium meist mehr performance.

Was du sagtest gilt erst ab einem bestimmten Reifegrad.

@Quasar
bei der R3xx/420 bringt der Compiler im 4.5beta fast 20%
bei der NV3x brachte er fast 100%
beim NV4x kann man sicher keine Steigerung wie beim NV3x erwarten...aber wenn man dual issue besser ausnutzt (bessere Sortierung) könnte es durchaus Steigerungen geben

ShadowXX
2004-06-03, 15:36:29
Original geschrieben von MuLuNGuS
selbst wenn der treiber nur 10% bringen würde wäre das schon nicht schlecht.

mir gefallen die ATIs zwar auch ganz gut aber irgendwie wird die 6800GT immer interessanter, wenn sie dann noch auf das niveau einer ultra oder meinetwegen etwas darunter zu übertakten ist bin ich mit dieser karte dabei.

alles was mir dann noch fehlt ist ein athlon 64 der sich gut auf reale 2,7GHz übertakten läßt.
vielleicht geht ja bei den neueren Northwood A64 3400+ 512kb @2,4GHz noch einiges :D

Cool...haben Intel und AMD jetzt zusammen eine CPU entwickelt???

Du meintest wohl Newcastle....

Aber 2,4GHz haben doch erst der 3800+ bzw. sein FX-53 counterpart???

SKYNET
2004-06-03, 16:04:47
Original geschrieben von ShadowXX
Cool...haben Intel und AMD jetzt zusammen eine CPU entwickelt???

Du meintest wohl Newcastle....

Aber 2,4GHz haben doch erst der 3800+ bzw. sein FX-53 counterpart???

nein, der 3400+ newcastle hat auch 2.4GHz

ShadowXX
2004-06-03, 16:18:39
Original geschrieben von SKYNET
nein, der 3400+ newcastle hat auch 2.4GHz

Der 3700+ Newcastle(SC) hat 2,4GHz, nicht der 3500+...

//Edit:
ich rede hier von den echten 939er Newcastles, nicht von den verkappten Clawhammer "Newcastles".

//edit2:
hab ausserdem mal eben nachgeguckt..auch der 754 3400+ hat nur 2,2GHz

siehe auch:
http://www.hardtecs4u.de/reviews/2004/amd_athlon64_3400/index2.php

Tjell
2004-06-03, 16:20:35
Original geschrieben von MuLuNGuS
mir gefallen die ATIs zwar auch ganz gut aber irgendwie wird die 6800GT immer interessanter, wenn sie dann noch auf das niveau einer ultra oder meinetwegen etwas darunter zu übertakten ist bin ich mit dieser karte dabei.

Super. Ich höre schon wieder die Leute motzen, wenn die Karte keine Mehrleitung verträgt oder nach einem halben Jahr Bildfehler proudiert bzw. abraucht. Kommt mir irgendwie von vielen Ati-Usern bekannt vor, die ihre Graka unbedingt aufdrehen mußten.

Hallo? Schon gehört, daß die GTs nicht den Test für die Taktung als Ultra gepackt haben? Das Übertakten kann man gerne bei späteren Produktions-Steppings der GPUs mit wesentlich kleinerem Risiko eingehen, das aber bei den Karten der ersten Chip-Steppings zu machen ist reiner Irrsinn.

Hakkerstiwwel
2004-06-03, 16:53:33
@ robotopp
mit den Jahren wird man etwas skeptischer bei vollmundigen Ankuendigungen. Falls die Realitaet gutes bringt, lasse ich mich gerne positiv ueberraschen. Die grossen Compiler optimierungen kamen in der Vergangenheit idr nicht kurz nach dem Release des Chips, sondern erst nach einiger Zeit. Deshalb erst mal abwarten, und die Euphorie etwas einbremsen.

betasilie
2004-06-03, 17:08:12
Original geschrieben von Tjell
Super. Ich höre schon wieder die Leute motzen, wenn die Karte keine Mehrleitung verträgt oder nach einem halben Jahr Bildfehler proudiert bzw. abraucht. Kommt mir irgendwie von vielen Ati-Usern bekannt vor, die ihre Graka unbedingt aufdrehen mußten.

So ein Quatsch. Meine 9700 läuft im Dauerbetrieb bei 390/330 und das schon seit langer, langer Zeit.

Ich kenne Leute, deren unübertakteten Karten (NV und ATI) sind abgeraucht und ich kenne Leute mit geOCten Karten (ATI und NV), die über lange zeiträume ohne Defekte funktionieren.

robbitop
2004-06-03, 17:10:37
trotzdessen ist es nunmal so dass aus neuen Architekturen bisher IMMER noch einiges ohne BQ Verlust herauszuholen war und bei älteren eben nicht mehr ;)
Wenn der speedup nicht im nächsten Treiber kommt, dann im übernächsten.
Bei der FX gab es 2 solcher Treiber : 44.03 und 5x.xx
beide brachten enorme Performancezuwächse.

Gast
2004-06-03, 17:18:31
Original geschrieben von robbitop
trotzdessen ist es nunmal so dass aus neuen Architekturen bisher IMMER noch einiges ohne BQ Verlust herauszuholen war und bei älteren eben nicht mehr ;)
Wenn der speedup nicht im nächsten Treiber kommt, dann im übernächsten.
Bei der FX gab es 2 solcher Treiber : 44.03 und 5x.xx
beide brachten enorme Performancezuwächse.

reunion
2004-06-03, 17:20:51
(Keine Ahnug ob das schon gepostet wurde...

MSI NX6800U-T2D256:

http://gfx.turtled.com/n/36000/36572_2b.jpg

...erinnert irgendwie an die ATI-Kühlung.

Hakkerstiwwel
2004-06-03, 17:23:22
Original geschrieben von robbitop
trotzdessen ist es nunmal so dass aus neuen Architekturen bisher IMMER noch einiges ohne BQ Verlust herauszuholen war und bei älteren eben nicht mehr ;)

Cat 3.9 PS fuer den R(V) 2x0
Cat 4.4 PS2.0 fuer den R(V)3x0
beide waren bei diesen Releases auch nicht mehr die Juengsten, was eigentlich deine These ein bisschen widerspricht

LovesuckZ
2004-06-03, 17:26:42
Original geschrieben von Hakkerstiwwel
Cat 3.9 PS fuer den R(V) 2x0
Cat 4.4 PS2.0 fuer den R(V)3x0
beide waren bei diesen Releases auch nicht mehr die Juengsten, was eigentlich deine These ein bisschen widerspricht

ATi hat sich Zeit gelassen.
Wenn man sieht, dass sie jetzt erst anfangen ihren Shadercompiler für längere Shader (ab 10 Anweisungen) zu optimieren, spricht dies Baende, dass Nvidia zu weit entfernt von ihnen war.

robbitop
2004-06-03, 17:33:47
ATi hatte das auch nicht nötog

btw schicke Kühlung!! MSI sind die Einzigen die ne vernünftgie zustande bekommen...aber das war auch beim NV3x so.

Fadl
2004-06-03, 17:38:19
Hat jemand schonmal folgendes ausprobiert: http://www.tommti-systems.com/main-Dateien/TOOLS/fc11_fix.rar

Soll bei FarCry NVidia Karten auf dem R300 Pfad laufen lassen.
Vielleicht kann das ja mal einer testen der eine 6800 hat :)

Hauwech
2004-06-03, 18:01:25
Original geschrieben von Tjell
Super. Ich höre schon wieder die Leute motzen, wenn die Karte keine Mehrleistung verträgt oder nach einem halben Jahr Bildfehler produziert bzw. abraucht. Kommt mir irgendwie von vielen Ati-Usern bekannt vor, die ihre Graka unbedingt aufdrehen mußten.

Wer uebertakten moechte kann es gerne auf eigenes Risiko tun, sofern er nicht zB eine Gaywart kauft. Das Motzen hilft, wenn die uebertaktete Karte dann kaputt ist, die Schuld auf den Hersteller zu schieben anstatt sich selber fuer seine eigene Bloedheit zu beschuldigen. :D Gilt nicht fuer alle, aber viele...


Hallo? Schon gehört, daß die GTs nicht den Test für die Taktung als Ultra gepackt haben? Das Übertakten kann man gerne bei späteren Produktions-Steppings der GPUs mit wesentlich kleinerem Risiko eingehen, das aber bei den Karten der ersten Chip-Steppings zu machen ist reiner Irrsinn.

Muss nicht unbedingt sein.
a) Downlabeling as market requires gibt es ja auch noch. Es kaufen mit 1000%iger Sicherheit zB mehr Leute Karten fuer 400$ als Karten fuer 550$.
b) Es kann schon das erste Stepping perfekt sein was die Taktbakeit angeht aber dennoch andere Fehler enthalten.
c) Ein neueres Stepping an sich kann "besser" sein aber wenn zB die Charge Wafer eher schlecht sind war es das fuer die Uebertaktbarkeit.
d) Weiterhin muss man ja auch noch die verwendeten Bauteile neben Chip und Speicher beruecksichtigen denn auch da gibt es Schwankungen in der Qualitaet und Verarbeitung.

Tjell
2004-06-03, 18:49:38
Original geschrieben von betareverse
So ein Quatsch. Meine 9700 läuft im Dauerbetrieb bei 390/330 und das schon seit langer, langer Zeit.

Gratuliere.

Ich habe ferner nicht behauptet, daß vor allem Ati-Karten "abrauchen". Ich beziehe mich mit der expliziten Nennung von Ati-Karten nur auf den Umstand, daß ganz grob geschätzt ca. 70 % aller Posts "Meine Karte produziert Bildfehler" von Ati-Usern gestartet wurden, die auf Deubelkommraus unbedingt OC mußten.

Original geschrieben von Hauwech
Muss nicht unbedingt sein.
a) Downlabeling as market requires gibt es ja auch noch. Es kaufen mit 1000%iger Sicherheit zB mehr Leute Karten fuer 400$ als Karten fuer 550$.
b) Es kann schon das erste Stepping perfekt sein was die Taktbakeit angeht aber dennoch andere Fehler enthalten.
c) Ein neueres Stepping an sich kann "besser" sein aber wenn zB die Charge Wafer eher schlecht sind war es das fuer die Uebertaktbarkeit.
d) Weiterhin muss man ja auch noch die verwendeten Bauteile neben Chip und Speicher beruecksichtigen denn auch da gibt es Schwankungen in der Qualitaet und Verarbeitung.

Richtig. Nur sollte man in seinem eigenen Interesse nicht gerade eine GT aus der Zeit kurz nach Markteinführung kaufen, um sie auf Ultra-Niveau zu pushen und dann zu glauben/hoffen, daß die das schon abkann.

Bei OC-Vorhaben lieber dann doch ein späteres Stepping abwarten.

Quasar
2004-06-03, 19:00:56
Original geschrieben von robbitop
@Quasar
bei der R3xx/420 bringt der Compiler im 4.5beta fast 20%
bei der NV3x brachte er fast 100%
beim NV4x kann man sicher keine Steigerung wie beim NV3x erwarten...aber wenn man dual issue besser ausnutzt (bessere Sortierung) könnte es durchaus Steigerungen geben

Na, die 20% glaube ich erst, wenn ich sie sehe. Robert von AMD InSight sagte, er habe im offiziellen Cat4.6 (den er schon testen konnte) keine derartigen Gewinne festgestellt.
Ob er nun auf R420 oder R360 testete, weiß ich nicht.

Entweder diese 20% sind auf sehr tönernen Füßen erreicht, oder.... *eg*

Ebenso denke ich nicht, daß außer in Ausnahmefällen (schrieb ich IIRC auch) auch nV auf ehrlichem Wege kaum 100% Zuwachs beim Shadercompiler hatte.

Klar sollte noch Spielraum für den nV40 drin sein, insgesamt denke ich aber nicht viel mehr als 5-10% - Games hängen i.d.R. nicht rein am Shaderspeed.

robbitop
2004-06-03, 19:20:03
über diesen Robert kann ich ein paar Liedchen singen (oder besser gesagt Raff) aber das ist eine andere Geschichte...

Tja muss ich mal Raff konsultieren, der müsste Cat 4.6 auch haben (auch betatester).

Aber beim NV40 ist durch das sehr komplexe Dualissue auf jeden Fall noch gut was drin.

LovesuckZ
2004-06-03, 20:04:47
Original geschrieben von Quasar
Na, die 20% glaube ich erst, wenn ich sie sehe.


http://www.hardware.fr/marc/x800.gif

http://www.beyond3d.com/forum/viewtopic.php?p=290917#290917

Ebenso denke ich nicht, daß außer in Ausnahmefällen (schrieb ich IIRC auch) auch nV auf ehrlichem Wege kaum 100% Zuwachs beim Shadercompiler hatte.

Nun, geschafft hat man es beim NV3x mit dem Shadercompiler. Selbst Halo hat mit über 60% (vom 45.23 zum 52.70) einen deutlichen Leistungsanstieg gezeigt, trotz durchgaengiger reduzierter Genauigkeit.

- Games hängen i.d.R. nicht rein am Shaderspeed.

Halo, Farcry, TR:6.

MarcWessels
2004-06-03, 23:12:13
Original geschrieben von Tjell
Richtig. Nur sollte man in seinem eigenen Interesse nicht gerade eine GT aus der Zeit kurz nach Markteinführung kaufen, um sie auf Ultra-Niveau zu pushen und dann zu glauben/hoffen, daß die das schon abkann.

Bei OC-Vorhaben lieber dann doch ein späteres Stepping abwarten.

So'n Quark...

Quasar
2004-06-03, 23:32:03
Original geschrieben von LovesuckZ
http://www.hardware.fr/marc/x800.gif

http://www.beyond3d.com/forum/viewtopic.php?p=290917#290917



Nun, geschafft hat man es beim NV3x mit dem Shadercompiler. Selbst Halo hat mit über 60% (vom 45.23 zum 52.70) einen deutlichen Leistungsanstieg gezeigt, trotz durchgaengiger reduzierter Genauigkeit.



Halo, Farcry, TR:6.

Vom der Grafik sehe ich als halbwegs nachvollziehbare Tests nur den 3DMark03, und der bringt ~10% (im PS2.0 ~15%).
Ich kenne aber ehrlich gesagt keinen brauchbaren Far Cry- oder TRAOD-Benchmark, der FPS-Werte in den hier dargestellten Höhen ausspucken würde - wie gesagt, ich bleibe skeptisch.

HALO hat bei mir in Sachen PS2.0 gerade einmal ein Drittel hinzugewonnen - weit entfernt von 100%.

HALO, Far Cry und TRAOD sind mitnichten _rein shaderlimitiert_.

Tjell
2004-06-04, 00:33:46
Original geschrieben von MarcWessels
So'n Quark...

1. Du hast auch eine sehr fundierte Meinung.
2. Ist das, was ich sagte, nicht von der Hand zu weisen.
3. Mach doch was Du willst.

SKYNET
2004-06-04, 07:27:40
Original geschrieben von ShadowXX
Der 3700+ Newcastle(SC) hat 2,4GHz, nicht der 3500+...

//Edit:
ich rede hier von den echten 939er Newcastles, nicht von den verkappten Clawhammer "Newcastles".

//edit2:
hab ausserdem mal eben nachgeguckt..auch der 754 3400+ hat nur 2,2GHz

siehe auch:
http://www.hardtecs4u.de/reviews/2004/amd_athlon64_3400/index2.php

boah, du n00b.

clawhammer:

1.8GHz - 3000+ - SC - S754
2.0GHz - 3200+ - SC - S754
2.2GHz - 3400+ - SC - S754
2.4GHz - 3700+ - SC - S754

newcastle:

1.8GHz - 2800+ - SC - S754
2.0GHz - 3000+ - SC - S754
2.2GHz - 3200+ - SC - S754
2.4GHz - 3400+ - SC - S754
2.2GHz - 3500+ - DC - S939
2.4GHz - 3800+ - DC - S939

und die CG sind ALLE echte newcastles.

[edit] vertippt :D

SKYNET
2004-06-04, 07:31:44
Original geschrieben von Tjell
Super. Ich höre schon wieder die Leute motzen, wenn die Karte keine Mehrleitung verträgt oder nach einem halben Jahr Bildfehler proudiert bzw. abraucht. Kommt mir irgendwie von vielen Ati-Usern bekannt vor, die ihre Graka unbedingt aufdrehen mußten.

Hallo? Schon gehört, daß die GTs nicht den Test für die Taktung als Ultra gepackt haben? Das Übertakten kann man gerne bei späteren Produktions-Steppings der GPUs mit wesentlich kleinerem Risiko eingehen, das aber bei den Karten der ersten Chip-Steppings zu machen ist reiner Irrsinn.

ah-ja, also bisher sind mir noch keine NV karten bekannt die ohne v-mod durchs übertakten gestorben sind....

nebenbei dürfte jede GT als ultra laufen, sind nur 50/50 unterschied, und ich kann dir sagen warum überhaupt die GT gekommen ist, war ja eigentlich erst geplant nur dei 6800U und die 6800 zu bringen, damit man einen gegenspieler zur x800pro hat, und die wird von der GT mächtig zerissen in so ziemlich allen games.

StefanV
2004-06-04, 07:38:12
Original geschrieben von Tjell
Gratuliere.

Ich habe ferner nicht behauptet, daß vor allem Ati-Karten "abrauchen". Ich beziehe mich mit der expliziten Nennung von Ati-Karten nur auf den Umstand, daß ganz grob geschätzt ca. 70 % aller Posts "Meine Karte produziert Bildfehler" von Ati-Usern gestartet wurden, die auf Deubelkommraus unbedingt OC mußten.

Sorry, aber bei solchen Aussagen muss ich mir erstmal an den Kopf fassen.

Besonders dann, wenn die Karten übertaktet wurde, beim rest ist nicht sicher, ob sie überhaupt in einem einigermaßen gut durchlüfteten Gehäuse saßen.

Sowas ist einfach nur pech, das auf den Hersteller zu schieben ist absolut inkorrekt...

Oder schiebst du die Schuld auf VW, wenn du den 1,8T auf 250PS prügelst und der nach 50.000km die Grätsche macht?!

Bei übertakteten Karten das ableben jener auf den Chiphersteller oder den Kartenhersteller zu schieben ist für mich absolut unverständlich!!

StefanV
2004-06-04, 07:39:05
Original geschrieben von SKYNET
ah-ja, also bisher sind mir noch keine NV karten bekannt die ohne v-mod durchs übertakten gestorben sind....

Liegt vielleicht darin, daß die NV Karten 'besser' sind, zumindest in den Hirnen der Leute, genau wie bei AMD und Intel :eyes:

LovesuckZ
2004-06-04, 07:41:17
Original geschrieben von Quasar
Vom der Grafik sehe ich als halbwegs nachvollziehbare Tests nur den 3DMark03, und der bringt ~10% (im PS2.0 ~15%).

Leider gibt es bis jetzt keinen Vergleich des normalen mit dem beta Treiber.

Ich kenne aber ehrlich gesagt keinen brauchbaren Far Cry- oder TRAOD-Benchmark, der FPS-Werte in den hier dargestellten Höhen ausspucken würde - wie gesagt, ich bleibe skeptisch.

Das sind meiner erachtens auch nur PS2.0 Shader aus dem Spiel.

HALO hat bei mir in Sachen PS2.0 gerade einmal ein Drittel hinzugewonnen - weit entfernt von 100%.

Meine 5800 legte wie gesagt 60% zu...

HALO, Far Cry und TRAOD sind mitnichten _rein shaderlimitiert_.

Waere dies so, sollte eine 5900 nicht auf dem Niveau einer 9600XT sein.

SKYNET
2004-06-04, 07:45:19
Original geschrieben von Stefan Payne
Liegt vielleicht darin, daß die NV Karten 'besser' sind, zumindest in den Hirnen der Leute, genau wie bei AMD und Intel :eyes:

qualitativ sind sie besser, weil bei meinen NV karten ist nicht einfach der ram ohne jede belastung etc. vom PCB gefallen, und es war ne BBA :/

StefanV
2004-06-04, 07:48:18
Original geschrieben von SKYNET
qualitativ sind sie besser, weil bei meinen NV karten ist nicht einfach der ram ohne jede belastung etc. vom PCB gefallen, und es war ne BBA :/

:rofl:

Vielleicht wars ja auch einfach nur pech oder ein Montagsmodell :eyes:

Oder aber, du hast irgendeinen anderen Fehler gemacht...

MuLuNGuS
2004-06-04, 08:01:29
@ShadowXX

absolut richtig,

kommt wohl daher das ich vorher im intelthreat gelesen hatte..:D:D:D

Quasar
2004-06-04, 08:02:25
Original geschrieben von LovesuckZ
Waere dies so, sollte eine 5900 nicht auf dem Niveau einer 9600XT sein.

Gegenthese:
Wäre dies nicht so, dürfte ich keinen FPS-Unterschied zwischen meinem P3 und dem P4-3GHz Testsystem messen können, oder?

MuLuNGuS
2004-06-04, 08:15:23
jau,

noch einmal etwas offtopic..

hier noch einmal ein ausschnitt der 3DC news vom 1.6.


In Japan ist laut PC Watch ein Athlon 64 3400+ mit Newcastle-Core aufgetaucht. Der bisherige Athlon 64 3400+ mit Clawhammer-Core kam noch mit 2.2 GHz und 1 MB Level2 Cache an, der neue Athlon 64 3400+ mit Newcastle-Core hat dagegen gleich 2.4 GHz und dafür eben nur 512 kB Level2 Cache. Da AMD beide gleich-gerateten Prozessoren üblicherweise zum ähnlichen Preis anbietet, empfiehlt sich hier sehr stark der Athlon 64 3400+ mit Newcastle-Core, da der kleinere Cache nur geringe Performance-Verluste mit sich bringt, der höhere Takt aber ein deutlich höheres Performance-Plus.

ShadowXX
2004-06-04, 08:18:50
Original geschrieben von SKYNET
boah, du n00b.

clawhammer:

1.8GHz - 3000+ - SC - S754
2.0GHz - 3200+ - SC - S754
2.2GHz - 3400+ - SC - S754
2.4GHz - 3700+ - SC - S754

newcastle:

1.8GHz - 2800+ - SC - S754
2.0GHz - 3000+ - SC - S754
2.2GHz - 3200+ - SC - S754
2.4GHz - 3400+ - SC - S754
2.2GHz - 3500+ - DC - S939
2.6GHz - 3800+ - DC - S939

und die CG sind ALLE echte newcastles.

Du hast PN....

http://www.hardtecs4u.com/reviews/2004/amd_sockel939/index3.php

http://www.hardtecs4u.de/reviews/2004/amd_athlon64_3400/index2.php

Gast
2004-06-04, 08:23:22
Original geschrieben von LovesuckZ
Leider gibt es bis jetzt keinen Vergleich des normalen mit dem beta Treiber.



Das sind meiner erachtens auch nur PS2.0 Shader aus dem Spiel.



Meine 5800 legte wie gesagt 60% zu...



Waere dies so, sollte eine 5900 nicht auf dem Niveau einer 9600XT sein.

Jeder Bench auf eine FX*.* ist aufgrund des Cheats von PS 2.0 auf 1.x bei Farcry ungültig bei nv-Karten.

Da gibt es auch nichts dran zu rütteln!

SKYNET
2004-06-04, 08:40:05
Original geschrieben von Stefan Payne
:rofl:

Vielleicht wars ja auch einfach nur pech oder ein Montagsmodell :eyes:

Oder aber, du hast irgendeinen anderen Fehler gemacht...

bei sowas mache ich keine fehler, meine hardware behandel ich wie rohe eier, eher noch vorsichtiger.

SKYNET
2004-06-04, 08:40:30
Original geschrieben von ShadowXX
Du hast PN....

http://www.hardtecs4u.com/reviews/2004/amd_sockel939/index3.php

http://www.hardtecs4u.de/reviews/2004/amd_athlon64_3400/index2.php

und du antwort ;D

Hakkerstiwwel
2004-06-04, 08:43:29
Original geschrieben von Gast
Jeder Bench auf eine FX*.* ist aufgrund des Cheats von PS 2.0 auf 1.x bei Farcry ungültig bei nv-Karten.

Da gibt es auch nichts dran zu rütteln!

Definiere Cheat. Dass FC keine PS2.0 auf Fx Karten benutzt liegt wohl nicht am Treiber, sondern eher am Spiel.

MuLuNGuS
2004-06-04, 08:47:41
@ShadowXX

was willste damit jetzt sagen??


der 3400+ 754 Clawhammer hat 1MB + 2,2GHz

der 3400+ 754 Newcastle hat 512KB + 2,4GHz

hardtecs4u:

* Erläuterung zu den Athlon 64 Prozessoren im Sockel 754: Die Modelle 2800+ und 3000+ gibt es nur mit 512 kByte Level2 Cache und das Modell 3700+ nur mit 1 MB Level2 Cache. Die Modelle 3200+ und 3400+ gibt es dagegen sowohl mit 1 MB als auch mit 512 kByte Level2 Cache, wobei letztere dann immer jeweils 200 MHz mehr Takt haben.

und nu?

Peter_Graeber
2004-06-04, 08:57:24
"und die CG sind ALLE echte newcastles"
...Wir haben zwei FX-53 im CG Stepping, die ClawHammer sind. Die CG Cores können also auch auf ClawHammer zum Einsatz kommen.

"der 3400+ 754 Newcastle hat 512KB + 2,4GHz"
..hier ist mir bislang definitiv ein Besitzer eines solchen Musters bekannt, welches sich mit 2.4 GHz Takt als 3400+ meldet. Sieht also so aus, dass AMD auch im Sockel 754 ggf. versucht von den ClawHammer und 1 MB Cache weg zu kommen.

Beim 754 wirkt das Modell-Rating derzeit etwas absurd.

[dzp]Viper
2004-06-04, 09:14:28
Original geschrieben von SKYNET
qualitativ sind sie besser, weil bei meinen NV karten ist nicht einfach der ram ohne jede belastung etc. vom PCB gefallen, und es war ne BBA :/

denkst du das ist normalzustand bei ATI karten? :eyes:

ich kann mir auch schwerlich vorstellen, dass der RAM "einfach so" von der karte fällt... sorry aber das kann ich dir nicht glauben ;)

ow
2004-06-04, 09:21:34
Original geschrieben von [dzp]Viper
denkst du das ist normalzustand bei ATI karten? :eyes:

ich kann mir auch schwerlich vorstellen, dass der RAM "einfach so" von der karte fällt... sorry aber das kann ich dir nicht glauben ;)

Das kann bei sehr schlechten und/oder gealterten Loetstellen schon vorkommen sollte aber eine absolute Ausnahme sein. Da liegt dann ein Produktionsfehler vor.

Tjell
2004-06-04, 09:42:10
Original geschrieben von Stefan Payne
Sorry, aber bei solchen Aussagen muss ich mir erstmal an den Kopf fassen.

Besonders dann, wenn die Karten übertaktet wurde, beim rest ist nicht sicher, ob sie überhaupt in einem einigermaßen gut durchlüfteten Gehäuse saßen.

Sowas ist einfach nur pech, das auf den Hersteller zu schieben ist absolut inkorrekt...

Ich weiß nicht, wo Du liest, daß ich unterstelle, Ati sei Schuld daran, daß ihre (übertakteten) Karten abrauchen.

Der Grund für das Versagen der Karte sitzt meiner Meinung nach VOR dem Computer.

Es ist halt nur so, daß scheinbar ein Hype entstanden ist, dem anscheinend nicht wenige Ati-Karten-Besitzer nachgefolgt sind - mit dem Ergebnis, daß ihre Graka ins EDV-Nirvana entschwunden ist.

Vielleicht, aber auch nur vielleicht, sind diese Defekte auf einen kleineren "Sicherheitsspielraum" alias "ungefährliches Übertaktungspotenzial" seitens Ati zurückzuführen.

Oder hat jemand eine andere Idee, warum im Verhältnis der Grafikkarten-Defekte Ati führt? (Mutmaßung meinerseits aufgrund der Verhältnisse Ati vs NVidia bei solchen Posts in Foren).


P.S. Ich überlasse es gern jedem selbst, sich eine Grafikkarte für 350 € oder mehr zu kaufen, diese zu übertakten und dann eben dadurch zu schrotten, so daß man dann für mind. 700 DM (!) Müll besitzt.

Anscheinend geht es solchen Leuten dann echt zu gut - erstens weil sie sich für teuer Geld eine Grafikkarte leisten können und zweitens auch noch, daß sie damit leben können, diese im wahrsten Sinne des Wortes zu verheizen.

Oder sie sind Arschlöcher und behaupten beim Händler, daß die Grafikkarte "irgendwie" kaputtgegangen sei, um sie ersetzt zu bekommen.
:chainsaw:

Sphinx
2004-06-04, 10:25:16
Also ich weiß nicht ich weiß nicht - meine komponenten laufen und liefen immer im Übertakteten zustand...

...entweder liegt es daran das ich ohne Wasserkühlung Übertakte und/oder das ich nur soweit "übertakte" was die Luftkühlung hergibt. Aber Abgeraucht ist Seid Jahren nie etwas. Das Gehäuse hat schon eine gewisse Wärmestrahlung ,) aber soetwas müste das abrauchen in dem Sinne doch nur beschleunigen ,) welches nun seid mittlerweilen 2 Jahren nicht der Fall ist oder war...

[dzp]Viper
2004-06-04, 11:03:56
Original geschrieben von ow
Das kann bei sehr schlechten und/oder gealterten Loetstellen schon vorkommen sollte aber eine absolute Ausnahme sein. Da liegt dann ein Produktionsfehler vor.

aber dass dann ohne ein zutun der rambaustein "einfach so" abfällt? also ich weiss nicht... dann müsste der regelrecht am "seidenen faden" gehangen haben...
Und so ein Rambaustein ist ja auch nicht an nur einer stelle gelötet...

naja egal

ich finde nur, dass man nicht von einer extremen ausnahme gleich auf alle karten schliessen sollte...

StefanV
2004-06-04, 11:10:03
Original geschrieben von Sphinx
Also ich weiß nicht ich weiß nicht - meine komponenten laufen und liefen immer im Übertakteten zustand...

...entweder liegt es daran das ich ohne Wasserkühlung Übertakte und/oder das ich nur soweit "übertakte" was die Luftkühlung hergibt. Aber Abgeraucht ist Seid Jahren nie etwas. Das Gehäuse hat schon eine gewisse Wärmestrahlung ,) aber soetwas müste das abrauchen in dem Sinne doch nur beschleunigen ,) welches nun seid mittlerweilen 2 Jahren nicht der Fall ist oder war...

Es liegt vermutlich daran, daß du mehr Wissen über die HW hast und genauer und besser weißt, wie wo wann was akzeptabel ist.

Das tun die meisten nicht, die übertakten nur, egal, ob die Karte zu heiß wird oder was auch immer...

StefanV
2004-06-04, 11:15:07
Original geschrieben von Tjell
Ich weiß nicht, wo Du liest, daß ich unterstelle, Ati sei Schuld daran, daß ihre (übertakteten) Karten abrauchen.

Der Grund für das Versagen der Karte sitzt meiner Meinung nach VOR dem Computer.

Es ist halt nur so, daß scheinbar ein Hype entstanden ist, dem anscheinend nicht wenige Ati-Karten-Besitzer nachgefolgt sind - mit dem Ergebnis, daß ihre Graka ins EDV-Nirvana entschwunden ist.

Vielleicht, aber auch nur vielleicht, sind diese Defekte auf einen kleineren "Sicherheitsspielraum" alias "ungefährliches Übertaktungspotenzial" seitens Ati zurückzuführen.

Oder hat jemand eine andere Idee, warum im Verhältnis der Grafikkarten-Defekte Ati führt? (Mutmaßung meinerseits aufgrund der Verhältnisse Ati vs NVidia bei solchen Posts in Foren).


P.S. Ich überlasse es gern jedem selbst, sich eine Grafikkarte für 350 € oder mehr zu kaufen, diese zu übertakten und dann eben dadurch zu schrotten, so daß man dann für mind. 700 DM (!) Müll besitzt.

Anscheinend geht es solchen Leuten dann echt zu gut - erstens weil sie sich für teuer Geld eine Grafikkarte leisten können und zweitens auch noch, daß sie damit leben können, diese im wahrsten Sinne des Wortes zu verheizen.

Oder sie sind Arschlöcher und behaupten beim Händler, daß die Grafikkarte "irgendwie" kaputtgegangen sei, um sie ersetzt zu bekommen.
:chainsaw:

Ah, ok, das kam irgendwie nicht so recht rüber oder ich habs falsch verstanden...

Sogesehen hast du natürlich völlig recht, wobei ich hier (http://www.motor-talk.de/showthread.php?s=&forumid=19&threadid=307686&perpage=15&pagenumber=1) (ganz unten) was zum Thema 'Servicewüste Deutschland' schrieb...

PS: das mehr 9700er und ev. 9800er übern Jordan gegangen sind, mag z.B. daran liegen, daß die Verbreitung von 9700 und 9800 etwas besser als bei den FX5800 und FX5900ern ist...

StefanV
2004-06-04, 11:17:52
Original geschrieben von [dzp]Viper
aber dass dann ohne ein zutun der rambaustein "einfach so" abfällt? also ich weiss nicht... dann müsste der regelrecht am "seidenen faden" gehangen haben...
Und so ein Rambaustein ist ja auch nicht an nur einer stelle gelötet...

naja egal

ich finde nur, dass man nicht von einer extremen ausnahme gleich auf alle karten schliessen sollte...

Naja, 'einfach so' nicht, aber vielleicht mit Voltmod, wenn man dem Speicher ordentlich saft gibt :eyes:

Sphinx
2004-06-04, 11:22:19
Original geschrieben von Stefan Payne PS: das mehr 9700er und ev. 9800er übern Jordan gegangen sind, mag z.B. daran liegen, daß die Verbreitung von 9700 und 9800 etwas besser als bei den FX5800 und FX5900ern ist...

Habe mir dasselbe auch gedacht. Von meinem bekanntenkreis Online wie Reallife besitzen alle mehr oder weniger eine Ati Karte und nur einen kenn ich der ne FX58ooUltra sein eigen nennt.

LovesuckZ
2004-06-04, 11:23:28
Original geschrieben von Quasar
Gegenthese:
Wäre dies nicht so, dürfte ich keinen FPS-Unterschied zwischen meinem P3 und dem P4-3GHz Testsystem messen können, oder?

Skaliert die 5900XT dann besser mit der CPU als die 9600XT? Wenn nicht, dann beweißt das doch nur, dass beide Karten durch die CPU gebremst werden.

Tjell
2004-06-04, 11:28:29
Original geschrieben von Stefan Payne
...was zum Thema 'Servicewüste Deutschland' schrieb...


Zustimm.



Ob anderer Leute Grafikkarten durch OC abrauchen kann mir völlig egal sein. Solange diese Leute nicht unrechtmäßig auf Garantie pochen - und das scheint ja immer mehr "in Mode" zu sein. *grrr*

robbitop
2004-06-04, 11:31:29
in Meinem Bekanntenkreis gibts kein ATi Karten.
Haben alle NVIDIA.

Tjell
2004-06-04, 11:32:37
Original geschrieben von LovesuckZ
Skaliert die 5900XT dann besser mit der CPU als die 9600XT? Wenn nicht, dann beweißt das doch nur, dass beide Karten durch die CPU gebremst werden.

Noch schlimmer:
Verschiedene GPUs der verschiedenen Hersteller skalieren unterschiedlich bei verschiedenen CPUs. :D

Beispiel:
Eine FX5900 skaliert auf einem AthlonXP anders als auf einem A64 als auf einem P4 als auf... und wiederum anders skaliert z.B. eine 9800 auf ...

Mir fällt jetzt kein Link zum Thema ein, aber Leistungs-Skalierung ist immer wieder mal auch Teil der Tests in der Zeitschrift PCGH.

Tjell
2004-06-04, 11:35:28
Original geschrieben von robbitop
in Meinem Bekanntenkreis gibts kein ATi Karten.
Haben alle NVIDIA.

Sieht bei mir genauso aus.

*sing* "Where have all the Ati's gone... la lala laa lala laa"

:idea:

*ocl*
(nicht ernstgemeinte Antwort)



[edit]
Mist, jetzt treibe ich den Thread auch off-topic, dabei wollte ich das doch garnicht.

robbitop
2004-06-04, 11:40:52
tjoar und von den NV Karten ist bisher noch keine aus meinem Bekanntenkreis abgeraucht und das sollten an die 20 sein.

jetzt wissen wir also wozu die großen PCBs und die RAMkühlung gut ist

(meine Radeonsamples waren immer ungesund heiss)

just my 2 cents

LovesuckZ
2004-06-04, 11:47:25
Original geschrieben von Stefan Payne
PS: das mehr 9700er und ev. 9800er übern Jordan gegangen sind, mag z.B. daran liegen, daß die Verbreitung von 9700 und 9800 etwas besser als bei den FX5800 und FX5900ern ist...

Den "absoluten" Wert interessiert bei dieser Betrachtung keinem.

ow
2004-06-04, 12:10:07
Original geschrieben von [dzp]Viper
aber dass dann ohne ein zutun der rambaustein "einfach so" abfällt? also ich weiss nicht... dann müsste der regelrecht am "seidenen faden" gehangen haben...
Und so ein Rambaustein ist ja auch nicht an nur einer stelle gelötet...

naja egal

ich finde nur, dass man nicht von einer extremen ausnahme gleich auf alle karten schliessen sollte...


Wie ich schon sagte: es liegt dann ein Produktionsfehler vor. Sogenannte kalte Loetstellen zeigen bisweilen solche Eigenschaften: schlechter elektrischen Kontakt und mechanische Haftung. Dazu braucht nur waehrend des Loetens die Temp. des Lotes zu niedrig.

Verallgemeinern kann man sowas auf keinen Fall, da hast du recht.

ShadowXX
2004-06-04, 12:17:55
Original geschrieben von MuLuNGuS
@ShadowXX

was willste damit jetzt sagen??

der 3400+ 754 Clawhammer hat 1MB + 2,2GHz

der 3400+ 754 Newcastle hat 512KB + 2,4GHz

hardtecs4u:

* Erläuterung zu den Athlon 64 Prozessoren im Sockel 754: Die Modelle 2800+ und 3000+ gibt es nur mit 512 kByte Level2 Cache und das Modell 3700+ nur mit 1 MB Level2 Cache. Die Modelle 3200+ und 3400+ gibt es dagegen sowohl mit 1 MB als auch mit 512 kByte Level2 Cache, wobei letztere dann immer jeweils 200 MHz mehr Takt haben.

und nu?

Das es dann etwas unlogisch wäre, wenn der 3700+ im 754 auch nur 2,4Ghz hätte.....

Verstehst du was ich meine???

Der 3700+ 754 Newcastle hat definitv "nur" 2.4Ghz, deshalb kann ich mir nicht vorstellen, das der 3400+ Newcastle ebenfalls 2.4GHz hat....

Falls doch, ist die Namensbezeichnung von AMD im 754 Bereich Schrott...

Hier mal aus dem Test von Hardtecs4U:

. gibt es keine. Der neue Athlon 64 3400+ taktet mit 2.2 GHz realem Prozessortakt und verfügt über volle 1 MB L2 Cache. Dieser letzte Hinweis mag von daher interessant sein, da der Athlon 64 3000+ lediglich 512 KB L2 Cache zur Seite gestellt bekam.

http://www.hardtecs4u.com/reviews/2004/amd_athlon64_3400/index2.php

DrumDub
2004-06-04, 12:44:10
Original geschrieben von ShadowXX
Der 3700+ 754 Newcastle hat definitv "nur" 2.4Ghz, deshalb kann ich mir nicht vorstellen, das der 3400+ Newcastle ebenfalls 2.4GHz hat....

Falls doch, ist die Namensbezeichnung von AMD im 754 Bereich Schrott...


so siehts aus:

http://techreport.com/reviews/2004q2/athlon64-3800/models.gif

MarcWessels
2004-06-04, 15:26:11
Original geschrieben von Tjell
1. Du hast auch eine sehr fundierte Meinung.
2. Ist das, was ich sagte, nicht von der Hand zu weisen.
3. Mach doch was Du willst.

Doch doch - und zwar ist komplett alles von der Hand zu weisen.

1.Eine Grafikkarte raucht nicht einfach so wegen des Overclocking ab! Bevor sie dazu überhaupt in der Lage wäre, würde sie Bildfehler en masse produzieren und dann das Spiel einfrieren lassen.

2.Natürlich sind (theoretisch!) auf GT-Karten nur Chips, die die nVidia-Prüfung für die Ultra-Taktfrequenzen nicht bestanden haben. Dort geht es aber wiederum NICHT darum, daß die Chips abrauchen würden wenn man sie mit Ultra-Frequenzen betreiben würde, sondern um Bildfehler und/oder Abstürze in einem DURCHSCHNITTLICH BELÜFTETEN Endkundengehäuse, denn die Graka-Hersteller egehn nicht davon aus, daß jeder User hübsch optimal sein System aufgeräumt und mit Gehäuselüftern bestückt hat.

3.Selbst ein vom Besitzer vorgenommener Voltmod, der sich im Rahmen der Sopannungsunterschiede zwischen verschiedenen Grakaherstellern befindet, führt NICHT zum Tod der Grafikkarte (allenfalls zu einer Verringerung der Lebensdauer von beispielsweise 12 auf 8 Jahre), wird die Spannungserhöhung allerdings übertrieben, machts direkt beim Einschalten *KCCHHHZ!*, im Betrieb hingegen haben wir bei etwas zu hohen Spannungen wieder die o.b. Effekte, sprich Bildfehler (bei gröberer Überspannung sogar auf dem Desktop) mit nachfolgendem Einfrieren von Spielen.

4.Jemand, dessen übertaktete Karte nach beispielsweise anderthalb Jahren über den Jordan geht, darf selbstverständlich (moralisch gesehen) die Herstellergarantie in Anspruch nehmen denn seine Karte hatte offenbar einen Fehler, der auch ohne Übertaktung zum Ausfall geführt hätte!

5.Mit der Drohung, daß beim Übertakten die Garantie verfalle, wollen sich Graka- und CPU-Hersteller vor den unter Punkt 3 beschriebenen *KCCHHHZ!*-Fällen schützen.


Aber viel Spaß bei Deinen Spenden an AMD wenn Du beispielsweise Deinen hochgegangenen 2GHz-Athon@2200MHz wegen Deines schlechten Gewissens NICHT reklamierst... ;D

Tjell
2004-06-04, 16:11:50
Original geschrieben von MarcWessels
1.Eine Grafikkarte raucht nicht einfach so wegen des Overclocking ab! Bevor sie dazu überhaupt in der Lage wäre, würde sie Bildfehler en masse produzieren und dann das Spiel einfrieren lassen.

Man, man, man. Dann fange ich halt an, Erbsen zu zählen...

"Abrauchen" habe ich plakativ als Wort dafür verwendet, daß die Grafikkarten zumindest Bildfehler produzieren, und dabei meine ich dann die dauerhaft bleibenden.

Doch doch - und zwar ist komplett alles von der Hand zu weisen.

Auch bezüglich späterer GPU-Steppings...
Ich stelle fest, Du bist ein sehr aufmerksamer Leser. LOL

Zu 2.
Richtig. Aber was willst Du damit aussagen?

Zu 3. bis 5.
Danke, jetzt weiß ich zumindest, was ich von Dir zu halten habe. Solche Leute wie Du mit dieser Einstellung sind echt... lassen wir das.

Ich habe daher keine Lust Dir anhand von technisch fundierten Artikeln zum Thema Voltmod und/oder Overclocking die Absurdität Deiner Aussagen aufzuzeigen. Mach Dich selber schlau, oder belasse es bei Deiner "Wahrheit". Mir wurscht.

Vielleicht hat ja jemand anderes hier im Forum Lust, Dir das zu erklären!?



Und zu meinem übertakteten AthlonXP:
Ich bin mir eines Risikos absolut bewußt, gehe es bewußt ein und würde, wenn die CPU versagt, auch nicht unberechtigt Garantie fordern. Ja, ich bin so blöd.

Aber ich bin nicht so blöd, das mit meiner teuren Grafikkarte zu veranstalten um dann später beim Händler das Unschuldslamm zu spielen.

Das wäre genau so, als ob Du bei einem Neuwagen den Motor aufbohrst und dann bei Versagen Materialschwäche des Motors bei Auslieferung des Autos vorwirfst.

DrumDub
2004-06-04, 16:28:20
tjell

ack!

hast ne pn.

MarcWessels
2004-06-04, 16:42:08
Ihr habt's beide nicht gecheckt aber egal...

Naja, zu Deiner Frage bezüglich "Punkt 2" sage ich Dir noch was: Was ich damit sagen will? Das liegt doch auf der Hand. Da der Hersteller, wie oben beschrieben, bei seinen Prüfungen von einem durchschnittlich belüfteten Gehäuse ausgeht, wird der Chip in einem optimal belüfteten gehäuse ohne Probleme und Bildfehler mit Ultra-Taktfrequenzen laufen.

Die allgemein zu erwartende Lebensdauer einer Graka wird in einem perfekt durchlüfteten Gehäuse und mit WaKü-bestückter GPU sogar höher sein als die einer im Defaultzustand betriebenen Graka, die in einem schlecht belüfteten Gehäuse und Standardkühlkörper schwitzen muß.

Tjell
2004-06-04, 16:58:45
Jedes bewußte Überschreiten von vom Hersteller vorgegebenen Grenzen führt automatisch zu Garantieverlust. Völlig berechtigt.

Wie Du es schon beschreibst, ist jeder PC verschieden gut gekühlt. Aber kann es denn Aufgabe einer Garantie sein, auf jeden Fall spezifisch einzugehen? Nein.

Darum noch einmal: feste Spielregeln für alle!

Und bezeichne besser nicht mich und andere, die sich an diese Spielregeln halten implizit als dumm sondern freue Dich lieber darüber, denn sonst würden alle so handeln, ihre Technik außerhalb der Spezifikationen zu betreiben und auf Garantie zu pochen.

Dann jedoch würde es die landläufig auch "Kulanz" genannte Nettigkeit der Händler und Hersteller bei solchen Fällen mit Sicherheit nicht mehr geben, sondern diese würden dann das hier machen: :deal: = "Pech gehabt, Schlaumeier."

MarcWessels
2004-06-04, 17:09:18
Tjo, wäre mir schnurz, weil mir noch niemals etwas durch's Übertakten kaputtgegangen ist. Zwei Graka war schon bei Lieferung defekt; eine Ti4600 und eine Radeon 9700Pro.

DrumDub
2004-06-04, 17:12:31
Original geschrieben von MarcWessels
Tjo, wäre mir schnurz, weil mir noch niemals etwas durch's Übertakten kaputtgegangen ist. Zwei Graka war schon bei Lieferung defekt; eine Ti4600 und eine Radeon 9700Pro.

geht mir genauso. durch übertakten ist mir noch nix abgeraucht. dennoch weiß ich, wenn mir eine übertaktete hardware abraucht, dass ich keinen anspruch auf garantie habe, eben weil ich jenen nicht innerhalb der spezifikationenn betrieben habe. das ist dann dein mein pech und ich muss mir halt neue hardware kaufen.

Hakkerstiwwel
2004-06-04, 17:24:43
1. wer uebertaktet betreibt seine Graka ausserhalb der Spezifikation und ist falls das Teil abraucht selber schuld. Ich ziehe es vor eine High End zu kaufen, und die mit Standardtakt zu betreiben, bis anfaengt mit ruckeln, und erst danach, wenn die Karte eh alt genug ist zu uebertakten um einen Neukauf noch etwas herauszzuzoegern
2. @marc wessels
schon mal ueberlegt dass der Chip sich nach und nach verabschiedet ohne vorher Anzeichen zu geben (Stichwort Elektronenmigration beim NWSDS)

robbitop
2004-06-04, 17:29:53
hm ich denk mal wer seine VPU übertaktet, wird die auch beim Händler wieder einschicken wie ein Unschuldslamm. Sind meist ja mehrere 100EUR. Ist bei den Meisten hier sicher Doppelmoral. Gibt leider nur sehr wenige Leute die wirklich ehrlich sind was das angeht. Und die jeniger haben sicher auch das Geld dazu.

Hakkerstiwwel
2004-06-04, 17:43:28
Original geschrieben von robbitop
hm ich denk mal wer seine VPU übertaktet, wird die auch beim Händler wieder einschicken wie ein Unschuldslamm. Sind meist ja mehrere 100EUR. Ist bei den Meisten hier sicher Doppelmoral. Gibt leider nur sehr wenige Leute die wirklich ehrlich sind was das angeht. Und die jeniger haben sicher auch das Geld dazu.
Wenn ich das Geld nicht habe eine Komponente zu ersetzen die eigentlich hervorragend funktioniert, und die Funktion derer Komponente aus Spaß aufs Spiel setze, nenne ich das eher Dummheit.

MuLuNGuS
2004-06-04, 18:21:50
javerflixtundzugenähtnocheinmal:D


wieso bietet alternate dann einen Newcastle 754 3400+ 512kb mit 2400MHZ aaaaaaannnnnnn??????

http://www3.alternate.de/html/nodes_info/hida39.html

irrtum..schnipp..errm...tippfehler?
hat leo sich denn auch geirrt in den news die er am 1.juni schrieb??

nochmal hardtecs4u

Insgesamt vier neue Modelle stellt AMD heute offiziell vor, wobei es sich beim Athlon 64 3700+ um eine mit 2.4 GHz taktende Variante mit 1 MB L2-Cache für den Sockel 754 handelt.

nun was sagt uns das?
der 3700+ für den 754 ist ein klauhammer..pardon, Clawhammer mit 1MB L2-Cache!!

so siehts aus:
http://www.hardtecs4u.de/reviews/2004/amd_sockel939/index3.php

@ShadowXX
ich möchte nicht behaupten das die 754 bezeichnungen irgendwie toll sind.

p.s. HURTZ!

ironMonkey
2004-06-04, 18:33:13
A64 3200+ hat auch 2,2GHz beim Newcastle, der Clawhammer hat "nur" 2GHz aber dafür 1mb L2 Cache( was eh kaum was bringt), der 3400er Newcastle müsste dann 2,4 GHz haben.



Gruß

Ähdid: Schreibfehler

MuLuNGuS
2004-06-04, 18:35:02
ja vovon zum geier red ich denn die ganze zeit...lol:D:D

ironMonkey
2004-06-04, 18:37:09
Original geschrieben von MuLuNGuS
ja vovon zum geier red ich denn die ganze zeit...lol:D:D

:w00t:

Tjell
2004-06-04, 19:15:48
Original geschrieben von MarcWessels
Tjo, wäre mir schnurz, weil mir noch niemals etwas durch's Übertakten kaputtgegangen ist. Zwei Graka war schon bei Lieferung defekt; eine Ti4600 und eine Radeon 9700Pro.

Glück gehabt? Wie auch immer...

Original geschrieben von Hakkerstiwwel
1. wer uebertaktet betreibt seine Graka ausserhalb der Spezifikation und ist falls das Teil abraucht selber schuld. Ich ziehe es vor eine High End zu kaufen, und die mit Standardtakt zu betreiben, bis anfaengt mit ruckeln, und erst danach, wenn die Karte eh alt genug ist zu uebertakten um einen Neukauf noch etwas herauszzuzoegern
2. @marc wessels
schon mal ueberlegt dass der Chip sich nach und nach verabschiedet ohne vorher Anzeichen zu geben (Stichwort Elektronenmigration beim NWSDS)
Volle Zustimmung.

Original geschrieben von Hakkerstiwwel
Wenn ich das Geld nicht habe eine Komponente zu ersetzen die eigentlich hervorragend funktioniert, und die Funktion derer Komponente aus Spaß aufs Spiel setze, nenne ich das eher Dummheit.
Volle Zustimmung.

Also ehrlich, wer sich ein so teures Stück Hardware kauft, das schon von Grund auf so schnell ist wie aktuelle Grafikkarten, sollte doch nicht, wenn er es sich nicht leisten kann, genau dieses edle Teil durch Betreiben außerhalb der gewährleisteten (Garantie-)Grenzen aufs Spiel zu setzen. Sich im Schadensfall dann am Händler/Hersteller durch einen kostenlosen Ersatz gütlich zu tun ist schlicht und ergreifend asozial, weil es auf Kosten der übrigen (ehrlichen) Käufer geht.

Uller
2004-06-04, 22:14:29
Kann man hier auch mal wieder zum Thema kommen?
Ich meine...
@Tjell &Co: solche seitenlangen Beiträge sind ja schön und gut, passen aber überhaupt nicht zum Thema und langweilen auch ansonsten eigentlich jeden.
Wer übertakten will der tut es, wer sich nicht traut, der lässt es.
Punkt aus.

robbitop
2004-06-04, 22:20:51
ich habe bisher noch nix kapputgemacht =) und dann zurückgeschickt (wegen oc)
aber ich wüsst nich ob ich und viele andere so ehrlich sind. Sicher könnt ich das wie viele andere hier behaupten...aber ich habe keine Lust auf Doppelmoral.

Die Versuchung bei 400EUR haben oder nicht haben ist für denke ich mal ~90% der Leute hier zu groß..besonders wegen Geldmangel. Da kannst du sagen was du willst.
Vermutlich hast du ein vernünftiges Einkommen wenn du das so siehst. Aber ein Schüler spart 1/2 Jahr für ne Grafikkarte und dann scheissen die meisten wohl auf Ehrlichkeit.

MarcWessels
2004-06-05, 00:53:05
Original geschrieben von Hakkerstiwwel 2. @marc wessels
schon mal ueberlegt dass der Chip sich nach und nach verabschiedet ohne vorher Anzeichen zu geben (Stichwort Elektronenmigration beim NWSDS)

Das verwechselst Du was. Das "Northwood Sudden Death Syndrome" tritt nicht durch´'s Übertakten und auch nicht wegen der daraus entstehenden Temperatursteigerung auf, sondern wegen einer, für die 130nm-Strukturen, zu hoch gewählten Spannung! Höher als 1,7V sollte man dort nicht gehen... Die CPU's gingen im Falle dieser "Krankheit" auch innerhalb weniger Wochen über den Jordan.

Und was das Ruckeln angeht: Ich kenn kaum halbwegs neue Spiele, die nicht ruckeln - daher wird immer übertaktet.

Aber OnTopic-> Wo gibt's ne Voltmod-Anleitung für die NV40-Karten? :D

SKYNET
2004-06-05, 02:11:37
Original geschrieben von [dzp]Viper
denkst du das ist normalzustand bei ATI karten? :eyes:

ich kann mir auch schwerlich vorstellen, dass der RAM "einfach so" von der karte fällt... sorry aber das kann ich dir nicht glauben ;)

lol, meinst du das sauge ich mir aus den fingern ? meinst du ich schicke meine karte umsonst zur RMA ?


der piss ärgert mich richtig, weil mit jeden tag verliert ne 9800pro an wert :(

naja, verkaufe ich se meinem alten für 200€ ;D

SKYNET
2004-06-05, 02:15:12
Original geschrieben von ow
Wie ich schon sagte: es liegt dann ein Produktionsfehler vor. Sogenannte kalte Loetstellen zeigen bisweilen solche Eigenschaften: schlechter elektrischen Kontakt und mechanische Haftung. Dazu braucht nur waehrend des Loetens die Temp. des Lotes zu niedrig.

Verallgemeinern kann man sowas auf keinen Fall, da hast du recht.

bezogs auchnet auf alle karten, weil bisher ist mir nur meine bekannt, aber von NV karten habe ich sowas halt nochnie gehört, und ich bin warscheinlich in mehr foren unterwegs als der rest hier ;)

und ne ATI kommt mir erst wieder in frage wenn sie PS3.0 support bieten, also die nächste generation, aber nur wenn NV dann langsamer ist.

SKYNET
2004-06-05, 02:17:21
Original geschrieben von DrumDub
so siehts aus:

http://techreport.com/reviews/2004q2/athlon64-3800/models.gif

veraltet !

siehe ganz unten
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1086008748

Tjell
2004-06-05, 03:04:30
Original geschrieben von Uller
Kann man hier auch mal wieder zum Thema kommen?
Ich meine...
@Tjell &Co: solche seitenlangen Beiträge sind ja schön und gut, passen aber überhaupt nicht zum Thema und langweilen auch ansonsten eigentlich jeden.
Wer übertakten will der tut es, wer sich nicht traut, der lässt es.
Punkt aus.

Wen es interessiert, liest es, wen es langweilt liest weiter. *buff* :scatter:

Zum Thema:
Weiß jemand noch was genaueres zu den neuen Mutmaßungen weiterer Treiber-"Optimierungen" von NVidia?

Da wurde doch letztens was vermeldet!?

ShadowXX
2004-06-05, 09:57:44
Original geschrieben von SKYNET
veraltet !

siehe ganz unten
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1086008748

Du beziehst dich auf das hier oder:


3400 trifft 2400 (Athlon 64 3400+ Newcastle)

Der Athlon 64 3400+ wurde bisher nur mit Clawhammer Kern, 1 MiB L2 Cache und 2200 MHz eingeführt.
Still und heimlich kommen nun auch langsam3400+er mit Newcastle Kern auf dem Markt. Dieser hat nur 512 KiB L2 Cache, aber 2400 MHz Takt unterm Deckel.


Das letztere wäre allerdings ziemlich merkwürdig, da der 3700+ für den 754 definitiv 2.4Ghz hat und der 3800+ für den 939 2.4GHz hat. (Das kannst du wirklich auf allen Testseiten nachlesen).

AMD wird wohl keine 2 identischen Prozessoren (also den 3400+ und den 3700+) als verschiedene verkaufen...

Ich glaube die Tabelle von DrumDrub trifft schon ganz gut...

dildo4u
2004-06-05, 10:01:28
Original geschrieben von ShadowXX
Du beziehst dich auf das hier oder:



Das letztere wäre allerdings ziemlich merkwürdig, da der 3700+ für den 754 definitiv 2.4Ghz hat und der 3800+ für den 939 2.4GHz hat. (Das kannst du wirklich auf allen Testseiten nachlesen).

AMD wird wohl keine 2 identischen Prozessoren (also den 3400+ und den 3700+) als verschiedene verkaufen...

Ich glaube die Tabelle von DrumDrub trifft schon ganz gut... ähm AMD rechnet wegen dem dual cahnnel ram beim 939 chip 100 rating punkte dazu der 3700 auf dem 754 kann ja kein Dual cahnnel bringt lau PCGH 0-6.6% mher leistung und das genügt den Prozzi höher zu bewerten amd lässt verschiedene benches laufen und entscheidet dann welches rating ein prozzi entspricht

ShadowXX
2004-06-05, 10:09:54
Original geschrieben von SKYNET
veraltet !

siehe ganz unten
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1086008748

Und hier noch mal was von Planet3dNow:


Neue Athlon 64 Modelle und Sockel 939 vorgestellt
16:10 - Autor: mtb][sledgehammer

Auf der in Taipeh (Taiwan) stattfindenden Computex hat AMD vier neue Modelle der Athlon 64 Prozessorfamilie vorgestellt: den Athlon 64 FX-53 sowie die Athlon 64 Modelle 3500+, 3700+ und 3800+. Im Detail unterscheiden sich die neuen Prozessormodelle wie folgt:

http://www.planet3dnow.de/news_images/s939.png



Und ich glaube nicht, das AMD dem 3800+ 400 Gummipunkte mehr gibt, nur weil er einen DC hat...(gegenüber einem 2.4 512KB 754er)

Bzw. einem 939 mit 2.2GHz 512 nur für das DC 100 Punkte mehr gibt, obwohl er gleichzeitig 200MHz weniger hat (der 3500+)

Das würde das Rating mehr als ad absurdum führen...

Winter[Raven]
2004-06-05, 10:10:06
Hallo?

Wenn ihr über AMD quatschen wollt, geht in den Protzi-Forum!

Würde ein Mod hier bissel säubern?

THX

ShadowXX
2004-06-05, 10:12:39
Original geschrieben von dildo4u
ähm AMD rechnet wegen dem dual cahnnel ram beim 939 chip 100 rating punkte dazu der 3700 auf dem 754 kann ja kein Dual cahnnel bringt lau PCGH 0-6.6% mher leistung und das genügt den Prozzi höher zu bewerten amd lässt verschiedene benches laufen und entscheidet dann welches rating ein prozzi entspricht

ES geht hietr nicht um den 3700 zu 3800, sondern um den 3400 zum 3700 bzw. 3800.

ShadowXX
2004-06-05, 10:23:44
Original geschrieben von Winter[Raven]
Hallo?

Wenn ihr über AMD quatschen wollt, geht in den Protzi-Forum!

Würde ein Mod hier bissel säubern?

THX

Sorry...hatte sich etwas mehr ausgeweitet als geplant...hätte auch nichts dagegen, wenn das A64 zeug in einen anderen Thread in Prozessor-Forum kommt...

Zum Topic:

Laut HW-Elektronik solls die AOpen ab Kalenderwoche 24 geben...und das ist doch ab Montag, oder??? (Hab gerade keinen Kalender mit Kalenderwochenangabe)

MuLuNGuS
2004-06-05, 10:48:13
errm jo,


vielleicht hätte ich gar nicht erst davon anfangen sollen..

ok, wo waren wir hier noch stehengeblieben?

gibts die 6800GT eigentlich schon irgendwo zu kaufen?

ist der angebliche neue supertreiber schon draußen?

dildo4u
2004-06-05, 12:45:11
http://www.nvnews.net/vbulletin/showthread.php?t=29518

ein kleiner erfahrungs bericht eines stolzen 6800U besitzers hat noch ein paar treiber probs mit Farcry
und hat mal einer die genaue länge des Boards ich dachte die Karte ist nur ca.3cm länger als eine 9800 aber auf dem bild

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=6189


Kommts mir eher wie 5 vor

K29!ll3r
2004-06-05, 12:49:30
Hier in der Schweiz sind mehrere Gainward Karten offenbar bei einem Shop verfügbar.

Man findet sie hier: http://www.toppreise.ch/index.php?k3=873&o=ba&SID=bd7f43a39496b9c1aef2a8b8b8a9484d

Es steht "lieferbar ab 3.6.04"

ow
2004-06-05, 12:50:20
Original geschrieben von dildo4u

ich dachte cie Karte ist nur ca.3cm länger als eine 9800 aber auf dem bild

[

Laut deinem Bild ist sie das auch.

dildo4u
2004-06-05, 12:52:30
Original geschrieben von ow
Laut deinem Bild ist sie das auch. für mich schwer abzuschätzen brauche genaue werte weil die karte sonst mit meiner Wakü pumpe zusammen trifft die 6800GT wird ja das selbe Board haben oder?

dildo4u
2004-06-05, 15:08:59
No HDTV in Geforce 6800


"If you’re counting on HDTV working on your spanky new 6800, you’re out of luck: it has been confirmed this morning by Derek Perez of NVIDIA that the both the core and the existing reference board have no capacity to support an HDTV signal"

http://www.warp2search.net/modules.php?name=News&file=article&sid=18326