PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread


Seiten : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14

dildo4u
2004-05-16, 12:09:54
Original geschrieben von robbitop
@dildo
da hast du ja mal eine ganz neue Info für uns, danke ;)

Man kann auch einfach mit v1.0 zocken, wo ist das Problem?
Wenn man eben mehr performance braucht, geht das natürlich zulasten der BQ. Wo soll der Speed herkommen?
Muss jeder selbst wissen, welchen Weg er nimmt. naja wenn man z.B multiplayer zockt ist man gezwungen den neusten patch drauf zu haben und dann muss man mit der BQ leben es sei den man will jedesmal das spiel neu installiren

(del676)
2004-05-16, 12:11:10
Original geschrieben von robbitop
die Aussage ist korrekt imo, er hat es ja in keinster Relation zu einer Karte eines anderen IHV gesetzt.

Ich kann dem nur zustimmen, FC läuft einwandfrei ;)

juhu
es sieht scheisse aus, es performt scheisse, aber "alles is in butter" :eyes:

wart - dann könnt ich doch software render aktivieren - is auch alles in butter

Tesseract
2004-05-16, 12:14:03
Original geschrieben von MarcWessels
eine höhere Auflösung wiederum wichtiger als AA denn damit verbessert man die Details in der Entfernung.


das ist aber nur bedingt miteinander vergleichbar

höhere auflösung geht natürlich immer mit einer "allgemeinverbesserung" einher und ist damit dem AA in der gesammtquallitätssteigerung überlegen
das hat aber seinen preis

für "eine stufe höhere auflösung" (zB auf die von dir erwähnte, "kaum bessere" 1280er) bekommt man im normfall schon gutes AA plus einen recht hohen AF grad
ich weiß nicht wie es bei dir steht, aber DAS halte ich dann schon für einen sehr deutlich sichtbaren quallitätsgewinn


und wenn der monitor an seine dastellbarkeitsgrenze kommt (bei meinem 19"er alles über 1600x1200; bei vielen anderen, schlechteren monitoren schon vorher) degradiert die höhere auflösung im prinzip sogar zu einem OGSS

aths
2004-05-16, 12:32:23
Original geschrieben von Tesseract
für "eine stufe höhere auflösung" (zB auf die von dir erwähnte, "kaum bessere" 1280er) bekommt man im normfall schon gutes AA plus einen recht hohen AF grad
ich weiß nicht wie es bei dir steht, aber DAS halte ich dann schon für einen sehr deutlich sichtbaren quallitätsgewinnSo ist es. Wenn erst mal eine gewisse "Feinkörnigkeit" erreicht wurde, ist weitere Auflösungssteigerung zu teuer im Vergleich zu dem, was Antialiasing und anistrope Filterung bieten.

InsaneDruid
2004-05-16, 12:38:40
Zumal FSAA auch für die entfernten Details hilfreich ist, nämlich um deren Flimmern zu unterbinden.

robbitop
2004-05-16, 12:40:45
nö, sieht nicht scheisse aus.
Zumal man wie gesagt mit V 1.0 spielen darf.

Gut Multiplayer...aber im Multiplayer kommts imo eh nicht so auf die ganzen Effekte an, da man sich dort viel mehr auf die Gegner konzentriert (siehe UT und Quake wo die alle effekte ausstellen).

Sphinx
2004-05-16, 12:47:13
Original geschrieben von robbitop
nö, sieht nicht scheisse aus.
Zumal man wie gesagt mit V 1.0 spielen darf.

Gut Multiplayer...aber im Multiplayer kommts imo eh nicht so auf die ganzen Effekte an, da man sich dort viel mehr auf die Gegner konzentriert (siehe UT und Quake wo die alle effekte ausstellen).

^^ Weil sie glauben das sie mit >2oo FPS der King sind... (Das sind Kiddys). Was in MP zählt ist Ping * Pong * Ping Pong * Ping... ,)

Und dann wundern sie sich noch das daß Spiel auf dauer zulangweilig wird. :)

robbitop
2004-05-16, 13:06:02
du kannst mir nicht erzählen, dass du bei nem Multiplayer ständig auf Grafik achtest. Der normale Mann ist nicht "multitaskingfähig". Und wenn du gewinnen willst, dann konzentrierst dich eben auf den Gegner. Besonders bei schnellen Spielen wie UT2004 nehme ich die schicke Grafik zB kaum noch wahr, da keine Zeit dafür bleibt.
Und du bist tot wenns ruckelt ;)

Ich sage nicht, dass ich das so mache, aber ich kanns mir vorstellen, ich bin eher der Single Player typ.

Ich behaupte einfach mal, dass es beim Multiplayer kaum auffällt, zumal der Multiplayermode von FC nicht soo doll ist.

Tesseract
2004-05-16, 13:55:32
Original geschrieben von robbitop
du kannst mir nicht erzählen, dass du bei nem Multiplayer ständig auf Grafik achtest. Der normale Mann ist nicht "multitaskingfähig".

und du kannst mir nicht erzählen das du zB wärend dem gehen nicht sprechen kannst
oder wärend dem schreiben nichts hörst
oder wärend dem atmen nichts siehst

natürlich hat man einen eindruck von der grafik, auch wenn man sich auf anderes (zb gameplay) konzentriert


zum zählen der farbzwischenstufen beim AA wirst du wohl nicht kommen, aber kommt's auf das wirklich an? :D

robbitop
2004-05-16, 14:08:09
dein Vergleich hinkt.
Das eine hat was mit dem vegetativen Nervensystem zu tun, das ist autonom und das andere mit dem ZNS, welches koordiniert werden muss.
Und da du auch nur dort optimal scharf siehst wo du hinschaust und das unter Druck (viele Gegner) auch machen musst, schaust du meist auf die Gegner. Da bleibt kaum zeit zum Bestaunen oder traurig sein über 2-3 fehlende PS Effekte.
Aber jedem das Seine.
Ihr habt schon recht.
Aber ich bin zumindist zufrieden :D

(del676)
2004-05-16, 14:11:12
während dem autofahren bemerke ich aber unterschiede - obs alles verschneit is oder ob hochsommer is

da konzentriere ich mich aber trotzdem auch auf die strasse

Tesseract
2004-05-16, 14:21:51
Original geschrieben von robbitop
dein Vergleich hinkt.

der vergleich hinkt überhaupt nicht

das sind alles beispiele für "natürliches multitasking"

deine aussage mit der fehlenden multitaskingfähigkeit bezieht sich höchstens auf, sagen wir mal, den konzentrationsschwerpunkt

daher auch das beispiel mit den AA-zwischenstufen: zählen erfordert abstraktes denken und damit aufmerksamkeit, dazu wirst du - wie du richtig gesagt hast - nicht kommen

aber das flimmern der pixeltreppen nimmt man auch wahr wenn man sich nicht primär darauf konzentriert

Quasar
2004-05-16, 14:26:07
Ich denke, unterbewußt nimmt man es schon wahr, selbst wenn es nur peripher gesehen wird und nur an wenigen Stellen im Bild auftritt.

Das war auch der Grund, warum ich das langsam AF der GF3/4 immer als deutlich besser, als das sämtlicher anderen Chips empfunden habe, ohne das konkret an bestimmten Punkten festmachen zu können.

robbitop
2004-05-16, 14:27:37
ja ok war zu radikal beschrieben aber ihr wisst was ich meine. Wenn man die Grafikpracht geniesst merkt man das deutlicher als wenn man unter Druck steht.

DanMan
2004-05-16, 14:39:49
Original geschrieben von robbitop
ja ok war zu radikal beschrieben aber ihr wisst was ich meine. Wenn man die Grafikpracht geniesst merkt man das deutlicher als wenn man unter Druck steht.
War unglücklich ausgedrückt. Gemeint hat er wohl, dass man sich eben nur auf eine Sache konzentrieren kann, wenn man die richtig machen will. Man kann mit den Augen nicht 2 Dinge gleichzeitig fixieren.
Beim Vergleich von Tesseract waren immer mehrere Sinne/Organe im Spiel - kann man also nur schwer vergleichen.

robbitop
2004-05-16, 14:42:29
jepp

MarcWessels
2004-05-16, 15:39:00
Original geschrieben von robbitop
du kannst mir nicht erzählen, dass du bei nem Multiplayer ständig auf Grafik achtest. Der normale Mann ist nicht "multitaskingfähig". Und wenn du gewinnen willst, dann konzentrierst dich eben auf den Gegner. Besonders bei schnellen Spielen wie UT2004 nehme ich die schicke Grafik zB kaum noch wahr, da keine Zeit dafür bleibt.

Schon mal was von unbewußter Wahrnehmung gehört?

Die Details helfen dem menschlichen Gehirn auch beim räumlichen Sehen, so daß der Spielerfolg mit gescheiten Details sogar höher ist, als bei rgendwelchen einfarbigen Flächen.

Und glaub mir, ich nehme sogar den Unterschied zwischen keinem AF und 16xAF bei UT wahr - bei MOHAA erst Recht, bei Jedi Knight ebenso...etc etc.

MarcWessels
2004-05-16, 15:41:35
Original geschrieben von Tesseract
für "eine stufe höhere auflösung" (zB auf die von dir erwähnte, "kaum bessere" 1280er) bekommt man im normfall schon gutes AA plus einen recht hohen AF grad
ich weiß nicht wie es bei dir steht, aber DAS halte ich dann schon für einen sehr deutlich sichtbaren quallitätsgewinn

NOCH ein Grund, niemals ein TFT zu kaufen.

robbitop
2004-05-16, 15:43:16
helfen tut das gar nicht.
Wenn du die Texturen reduzierst, wirken die Gegner stärker im Kontrast ect.
Ich bin kein Multiplayer aber ein Kumpel von mir ist einer der besten UT2004 Spieler in der deutschen Liga. Und der meint wenn man da gut sein will, müssn alle Effekte aus.
Das nicht nur wegen der Flüssigkeit, sondern auch wegen des Faktors des Ablenkens...er meint da zählen ms.
Ich kann das nicht kommentieren, da ich sowas nicht wirklich mache, aber es muss ja was dran sein, wenns die besten Spieler so machen. Klingt auch irgendwo logisch.
Aber Leute die Diskussion ist ziemlich abgedriftet.

Und das mit dem "unterbewusst" haben wir ein paar Posts zuvor schon geklärt ;)

MadManniMan
2004-05-16, 15:54:04
STFU Marc ;( All your Monitor are belong tu TFT!

Robbi: $hic3 Profis :freak: Das sind die gleichen, die - würden sie denn joggen - beim Joggen aufs Rauchen verzichten würden. Oder beim Autofahren aufs Essen.

Nee, sowas is langweilig - :schlag:

BlackBirdSR
2004-05-16, 15:55:13
Original geschrieben von MarcWessels
Schon mal was von unbewußter Wahrnehmung gehört?

Die Details helfen dem menschlichen Gehirn auch beim räumlichen Sehen, so daß der Spielerfolg mit gescheiten Details sogar höher ist, als bei rgendwelchen einfarbigen Flächen.

Und glaub mir, ich nehme sogar den Unterschied zwischen keinem AF und 16xAF bei UT wahr - bei MOHAA erst Recht, bei Jedi Knight ebenso...etc etc.

ist bei quake3 auch so
niedrige Auflösung und alles aufs absolute minimum.
Blaue Gegner heben sich eben besser von einem orangen matsch ab, als vor strukturierten Texturen.

reunion
2004-05-16, 16:00:07
Original geschrieben von VooDoo7mx
Wieso ist doch alles in Butter.

Mit dem 56.72 läuft Fart Cry einwandfrei auf der NV3X Serie.


Ja, in schlechterer Qualiät und trozdem um einiges langsamer als vergleichbare Radeon-Karten, alles in Butter :bonk:

robbitop
2004-05-16, 16:07:46
ogott kann das rumgetrolle mal aufhören?
Bei manchen hier denkt man echt, sie seien noch in der Grundschule..

Tesseract
2004-05-16, 16:25:17
Original geschrieben von robbitop
Wenn du die Texturen reduzierst, wirken die Gegner stärker im Kontrast ect.


das hängt sehr vom speziellen einzelfall ab würde ich sagen

zB ist es klar, dass blaue gegner im roten matsch besser sichtbar sind als zB rote auf rot

aber das eine gleichfarbige rote fläche besser sein soll als eine rot-dunkelrot-körnige (ev. gekachelte) textur wage ich sehr stark zu bezweifeln

so können zB entfernungen/geschwindigkeiten wesentlich besser abgeschätzt werden und dergleichen

nur darf halt keine reizüberflutung stattfinden (oder keine gräser und ähnliches das sichtfeld blockieren ;))
sprich: im bunten detailreichtum verlieren sich ebenso bunte models eben wieder

Original geschrieben von robbitop
Ich bin kein Multiplayer aber ein Kumpel von mir ist einer der besten UT2004 Spieler in der deutschen Liga. Und der meint wenn man da gut sein will, müssn alle Effekte aus.


bei UT2k4 ist es ja schon alleine deswegen wichtig damit man die optimale "laufruhe" hat
wirklich weich wird das spiel sowieso erst mit der übernachsten pc-generation laufen - wenn überhaupt
siehe q3

viele progamer werden auch deswegen vermutlich auf low-res und low-details spielen - weil sie sich nicht umgewöhnen können/wollen obwohl die performance dazu schon vorhanden wäre (zB bei q3)

Radeonator
2004-05-16, 22:56:33
Mal was anderes : Doch net so günstig wie angekündigt:

Die keinste 6800er wird 300 Euro aufwärts kosten, die gt ab 390 aufwärts...meine Herren, ich will nur ne graka keinen kompletten neu Rechner !

(del676)
2004-05-16, 23:00:54
Original geschrieben von Radeonator
Mal was anderes : Doch net so günstig wie angekündigt:

Die keinste 6800er wird 300 Euro aufwärts kosten, die gt ab 390 aufwärts...meine Herren, ich will nur ne graka keinen kompletten neu Rechner !

???

wenn der rechner ~3000€ kostet darf die graka doch wohl 500 kosten

BodyLove
2004-05-16, 23:02:40
Original geschrieben von Radeonator
Mal was anderes : Doch net so günstig wie angekündigt:

Die keinste 6800er wird 300 Euro aufwärts kosten, die gt ab 390 aufwärts...meine Herren, ich will nur ne graka keinen kompletten neu Rechner !

Bzw. Umgekehrt. Wenn der Rechner 300€ kosten soll, dann soll man zur fx5200 greifen.

Radeonator
2004-05-16, 23:13:17
Ne is klar...wollt oder könnt ihr nicht verstehen ? Ich tendiere stark zum ersteren...

Ne is klar...3000Euro für nen Rechner. Das trifft wohl auf etwa 5%-10% der User zu. Standart ist bei ca 1000-1500 Euro,(wenn überhaupt) da die meisten Leute keine Dukaten sh1c3n können oder sponsored bei Mum&Dad sind, sondern selbst für ihr Geld arbeiten.

Nachdem die geschätzten Preise für die "kleinen" ein gutes stück tiefer waren finde ich es nicht wirklich günstig. (btw hat da nix von 500 und auch nix von 3000 gestanden) Man zahlt nur leider nen dicken Batzen an Vater Staat :(

High end ja, Enthusiast nein 4 m3!

(del676)
2004-05-16, 23:14:14
alleine meine hdds&controller waren teurer als 1500€ :eyes:

Godmode
2004-05-16, 23:16:15
Original geschrieben von Ulukay
alleine meine hdds&controller waren teurer als 1500€ :eyes:

Welche Controller hast du drinnen? SCSI? SATA?

(del676)
2004-05-16, 23:17:15
Original geschrieben von bans3i
Welche Controller hast du drinnen? SCSI? SATA?

zur zeit nur nen 8 kanal 3ware pata

Radeonator
2004-05-16, 23:18:12
Original geschrieben von Ulukay
alleine meine hdds&controller waren teurer als 1500€ :eyes:

Toll geprotzt...:wayne:

BodyLove
2004-05-16, 23:22:05
Original geschrieben von Radeonator
Toll geprotzt...:wayne:

du hast ihn aber auch dazu eingeladen.;)

Gast
2004-05-17, 09:31:17
Original geschrieben von Tesseract
das hängt sehr vom speziellen einzelfall ab würde ich sagen

zB ist es klar, dass blaue gegner im roten matsch besser sichtbar sind als zB rote auf rot

aber das eine gleichfarbige rote fläche besser sein soll als eine rot-dunkelrot-körnige (ev. gekachelte) textur wage ich sehr stark zu bezweifeln

so können zB entfernungen/geschwindigkeiten wesentlich besser abgeschätzt werden und dergleichen

nur darf halt keine reizüberflutung stattfinden (oder keine gräser und ähnliches das sichtfeld blockieren ;))
sprich: im bunten detailreichtum verlieren sich ebenso bunte models eben wieder



bei UT2k4 ist es ja schon alleine deswegen wichtig damit man die optimale "laufruhe" hat
wirklich weich wird das spiel sowieso erst mit der übernachsten pc-generation laufen - wenn überhaupt
siehe q3

viele progamer werden auch deswegen vermutlich auf low-res und low-details spielen - weil sie sich nicht umgewöhnen können/wollen obwohl die performance dazu schon vorhanden wäre (zB bei q3)
Sehe ich genauso. Man war schlicht gezwungen Details in Quake 3 abzuschalten, um auf ein spielbares FPS-Niveau zu kommen, bzw. später dann konstant mindestens 125 FPS zu gewährleisten. Manche abgeschalteten Effekte verbessern natürlich die Trefferquote, zum Beispiel wird gern vertexlight genommen um den Gegner in dunklen Bereichen besser sehen zu können. Aber pauschal zu sagen, je weniger Details im Spiel dargestellt werden, desto besser spielt man ist Unfug! Kontrastreiche Gegner lassen sich mit Hilfe von OSP auch bei hohen Details realisieren und wie schon gesagt, manche Details sind nützlich, zum Beispiel ist es einfacher die Position des Gegners im Raum zu bestimmen wenn er einen Schatten wirft.
Mir sind einige wirklich gute Quaker bekannt, keiner von denen hat alles abgeschaltet. Und mindestens einer spielt sogar mit maximalen Details und zweifachen AA und AF.
Selbst in der Progamer-Szene ist nicht einfach "alles aus", als Beispiel nenne ich mal den (Ex-)Spieler "Makaveli". Er spielte mit picmip 3 anstatt 5, was zulässig und deutlich detailärmer gewesen wäre.
Und nicht zuletzt bezieht ein Spiel, auch ein Multiplayer-Spiel, seine Faszination auch aus der Grafik - die ich bei Quake 3 im Internet-Duell genieße.

betasilie
2004-05-17, 13:58:12
Original geschrieben von Ulukay
alleine meine hdds&controller waren teurer als 1500€ :eyes:
http://www.mainzelahr.de/smile/genervt/doh.gif

Gast
2004-05-17, 14:08:30
Original geschrieben von betareverse
http://www.mainzelahr.de/smile/genervt/doh.gif

:balla: 300GB und externer IDE Raidcontroller kosten max 250€...

Ulukay, hast du 2TB Festplattenplatz, oder einfach nur teuer eingekauft?

deekey777
2004-05-17, 16:56:26
Falls das jemanden interessiert:
Winhelpline (http://www.winhelpline.info/news/index.php?show=singlenews&id=10533)

Microsoft hat eine neue Version von DirectX in der neuen Build des SP2 für Windows XP eingebunden.

(del676)
2004-05-17, 17:59:07
Original geschrieben von Gast
:balla: 300GB und externer IDE Raidcontroller kosten max 250€...

Ulukay, hast du 2TB Festplattenplatz, oder einfach nur teuer eingekauft?

6x http://geizhals.at/a27213.html
1x http://geizhals.at/a60310.html

die platten schon vor imho 1,5jahren - also da wars etwas teurer
dann noch 2 60er barracuda4s 3 40er maxtor d740x und 2 wd 74gb raptoren

;D

Gast
2004-05-17, 18:02:45
Wozu braucht man soviel Speicherplatz, wenn man fragen darf? (Ich selbst wüsste/vermute da schon was, will aber niemandem hier was unterstellen ;D )

(del676)
2004-05-17, 18:18:23
Original geschrieben von Gast
Wozu braucht man soviel Speicherplatz, wenn man fragen darf? (Ich selbst wüsste/vermute da schon was, will aber niemandem hier was unterstellen ;D )

bis vor 1 jahr hatte ich 1 gb downloadlimit - nun 4gb - da kannst viel vermuten :eyes: (ich lebe in einem internetmässigen entwicklungsland)

ich hab nur jede cd (egal ob game oder audio) als image auf der pladde

dildo4u
2004-05-17, 18:56:45
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/mai/gainwards_geforce_6800_ultra/


http://www.computerbase.de/picture/news/7741/1.jpg

"Zusätzlich spendiert Gainward der Karte einen erhöhten Chiptakt von 450 MHz und auch der Speichertakt ist mit 1200 MHz etwas außerhalb der Spezifikationen, die eigentlich Taktraten von 400 und 1100 MHz vorsehen"

robbitop
2004-05-17, 19:10:22
450MHz ist aber nicht sonderlich doll..500MHz wären schon eher nett..ich hoffe das Coole Bios hat wieder erhöte Spannungen ^^

betasilie
2004-05-17, 19:11:25
Original geschrieben von robbitop
450MHz ist aber nicht sonderlich doll..
Jo, 450MHzm mit WaKü ist irgendwie lächerlich.

Kein Wunder, dass es offiziell keine Extreeme Edition geben wird.

ShadowXX
2004-05-17, 21:44:51
Original geschrieben von betareverse
Jo, 450MHzm mit WaKü ist irgendwie lächerlich.

Kein Wunder, dass es offiziell keine Extreeme Edition geben wird.

Die Wasserkühlung würde ich nicht zu hoch Bewerten...die PowerPack! Ultra/2600 Golden Sample (man sind das lange Namen) von Ihnen hat 430MHz GPU und 1150 MHz Ram...und die hat ne "normale" Luftkühlung...

robbitop
2004-05-17, 21:46:48
naja das Teil macht mit Luftkühlung meist über 450MHz.
Mit Wakü und etwas mehr Spannung sind 500MHz kein Problem imo.

ShadowXX
2004-05-17, 21:54:48
Original geschrieben von robbitop
naja das Teil macht mit Luftkühlung meist über 450MHz.
Mit Wakü und etwas mehr Spannung sind 500MHz kein Problem imo.

Das war eher auf betas EE-Einwand gemüntzt...

In der Form von..."für 450 bräuchte man die Wasserkühlung gar nicht unbedingt"....

robbitop
2004-05-17, 22:18:39
weiss ich, ich wollt dir nur zustimmen ;)

Loknar
2004-05-18, 11:55:47
laut Gainward hat die GF6800 GT auch nur 12 Rendering Pipes. war das eigentlich so schon bekannt ?

AUßerdem haben die 2 verschiedene Ultra Varianten aufgeführt. einmal mit 400 Mhz und einmal mit 450 Mhz.
komisch.

Falls ihr das alles schon wußtet, vergesst einfach was ich hier geschrieben hab

quelle:

http://www.gainward.de/new/products/productguide/Product_Guide_6_5.zip

Uller
2004-05-18, 13:59:48
Die GT auch nur 12 Pipelines? *runterlad*
Das mit der Ultra mit 400 und 450 Mhz ist halt die wassergekühlte Variante, aber dass die GT nur 12 Pipelines hat wären HOT NEWS!
Damit fiele die GT in der getesteten Version vom Tisch.
Fragt sich nur ob das ein Fehler ist oder ob das stimmt.

Godmode
2004-05-18, 14:26:12
Original geschrieben von Ulukay
6x http://geizhals.at/a27213.html
1x http://geizhals.at/a60310.html

die platten schon vor imho 1,5jahren - also da wars etwas teurer
dann noch 2 60er barracuda4s 3 40er maxtor d740x und 2 wd 74gb raptoren

;D

Was ist den das für eine Slotform beim Controller? Ist das ne Serverschnittstelle? Wie PCI sieht das ja nicht gerade aus!!

q w/o Keks
2004-05-18, 14:30:00
Original geschrieben von Uller
Die GT auch nur 12 Pipelines? *runterlad*
Das mit der Ultra mit 400 und 450 Mhz ist halt die wassergekühlte Variante, aber dass die GT nur 12 Pipelines hat wären HOT NEWS!
Damit fiele die GT in der getesteten Version vom Tisch.
Fragt sich nur ob das ein Fehler ist oder ob das stimmt.

Für einen Tippfehler haben sie's zu oft drin. Oder der PDF-Praktikant war besoffen.

;Q

betasilie
2004-05-18, 16:28:23
Original geschrieben von ShadowXX
Die Wasserkühlung würde ich nicht zu hoch Bewerten...die PowerPack! Ultra/2600 Golden Sample (man sind das lange Namen) von Ihnen hat 430MHz GPU und 1150 MHz Ram...und die hat ne "normale" Luftkühlung...
Und wieso haut man dann ein WaKü drauf, die eigentlich garnicht notwendig ist?

MechWOLLIer
2004-05-18, 18:01:12
Original geschrieben von betareverse
Und wieso haut man dann ein WaKü drauf, die eigentlich garnicht notwendig ist?

Halt um die Poweruser anzulocken die KArte so zu kaufen, obwohl man das mit einer Lukü wohl auch immer geschafft hätte.
Oder halt die Daus die dann denken, boah geil, ne Wakü....

BodyLove
2004-05-18, 19:19:39
Original geschrieben von betareverse
Und wieso haut man dann ein WaKü drauf, die eigentlich garnicht notwendig ist?

Um eine gewisse Exklusivität aufzubauen und dem Kunden die Gewissheit zu geben, dass man viel weiter übertakten kann, als es via Lukü möglich ist. Das dadurch die Garantie ausfällt, darüber wird nicht gesprochen.;)

MarcWessels
2004-05-18, 20:53:19
Warum sollte die Garantie verfallen? Gainward fordert den Kunden doch zum Übertakten auf.

BodyLove
2004-05-18, 22:20:28
Wo?

MarcWessels
2004-05-19, 03:46:55
Na, Gainwar wirbt doch bei den Golden Samples damit, daß sie eine höhere Taktfrequenz als die Mitbewerber garantieren und darüber hinaus.

BodyLove
2004-05-19, 11:38:07
haben sie doch. 450Mhz. Ich kann mir nicht vorstellen, dass Gainward zusätzlich sagt, dass man weiter übertakten solle. Afaik ist es immer auf eigene Gefahr und unterliegt nicht der Gewährleistung.

dildo4u
2004-05-19, 20:38:12
http://www.giga.de/index.php?storyid=84262

Bei giga ist heut um 21:00 ein Mitarbieter von Nvidia zu gast und wird die GF6800U präsentieren

wer giga nicht im TV emfängt kann sich auch den dsl stream reinziehen
http://www.giga.de/features/live/

LovesuckZ
2004-05-19, 20:39:51
Uhrzeit?

/edit: Danke.

tRpii
2004-05-19, 20:43:37
Danke für die Info dildo4u, da bin ich ja mal gespannt.

Mr. Lolman
2004-05-19, 20:49:58
Original geschrieben von dildo4u
http://www.giga.de/index.php?storyid=84262

Bei giga ist heut um 21:00 ein Mitarbieter von Nvidia zu gast und wird die GF6800U präsentieren

wer giga nicht im TV emfängt kann sich auch den dsl stream reinziehen
http://www.giga.de/features/live/

So ein Zufall, da läuft ja auch der ATi Chat :D

LovesuckZ
2004-05-19, 21:15:39
Interessant:
350 Watt netzteil mit einem String an 2 Stecker reicht.
400MHz ist eine conservative Einführung, möglich waeren bis 520MHz.
Videoprozessor soll sich neben dem SM3.0 auch auf den kleinen Karten befinden!
Benchen mit Optimierungen sei solange okay, wie man sie auch ausschalten koenne. Sollte dies nicht gehen, sei dies nicht in ordnung, sagte Jens Neuschäfer

LordDeath
2004-05-19, 21:22:03
ja, dass mit dem videoprozessor find ich geil! hoffentlich sind die einsteigerkarten diesmal auch schneller als die der vorgängerserie. da hät ich für meine ti 4200 endlich nen geilen nachfolger!

dildo4u
2004-05-19, 21:22:44
Original geschrieben von LovesuckZ
Interessant:
350 Watt netzteil mit einem String an 2 Stecker reicht.
400MHz ist eine conservative Einführung, möglich waeren bis 520MHz.
Videoprozessor soll sich neben dem SM3.0 auch auf den kleinen Karten befinden! Naja er sagt 520mhz mit wakü 440-450mhz mit normaler Lukü

LovesuckZ
2004-05-19, 21:23:49
Original geschrieben von dildo4u
Naja er sagt 520mhz mit wakü 440-450mhz mit normaler Lukü

Ja, aber es ist erstaunlich das dies geht.

dildo4u
2004-05-19, 21:26:54
Original geschrieben von LovesuckZ
Ja, aber es ist erstaunlich das dies geht.

fragt sich nur ob dann wieder das jetzt empfholene 350Watt netzeil in extrem situationen ausreicht also die lezte tech demo is ja mher als schwach ich kann nix besonders an dem wasser finden man kann nicht mal ein bissel durchgucken

Fadl
2004-05-19, 21:32:30
Fragt sich ob es nicht nur Marketing geblubber ist denn selbst die Gainward mit Wakü kommt nur mit 450MHz. Warum dann nicht mit 500?

Ist nun der doppelslot Kühler doch Standard für die Ultra?
Dann waren viele Bilder aus Taiwan von Ultra Karten mit dem GT Kühler wohl nicht wirklich die endgültige Konfiguration.

VooDoo7mx
2004-05-19, 21:33:30
Interessant, interessant...

Ich gucke gerade Giga und es gibt jetzt endlich 100% bestätigte, knallharte Fakten.

- GeForce6800 Ultra 2Slot Kühlung
- GeForce6800 GT 1Slot Kühlung
- Netzteilempfehlung seitens nVidia 350Watt für 6800 Ultra
- Stromversorgung für 6800 Ultra an beide Stromstecker auch über einen Strang absolut problemlos mögllich.
- 6800GT definitiv mit 16 Pipes
- 6800GT nur einen Stromstecker
- 6800GT und 6800Ultra haben das gleiche Boardlayout
- nVidia taktet die Ultra sehr konserativ. 520Mhz seien beim NV40 mit 0,13µ problemlos möglich
- Auch unterste Value Karte der GeForce6 Serie mit Sahder 3.0 und Videoprozessor
- Namen der Value/Mainstreamkarten: 6200&6400

Außerdem sprach der Nvidia.Onkel auch von Optimierungen. Diese seien immer gut, so lange man diese deaktivieren kann. nVidida will per default immer die maximalste Qualität bieten.----> offizieller WHQL Treiber per default mit tirlinear optimisations off. Der 61.11er war also erst einmal nur für Vergleiche zur Radeon X800XT gedacht um gleiche Bedingungen zu schaffen.

LordDeath
2004-05-19, 21:34:22
Original geschrieben von Fadl
Fragt sich ob es nicht nur Marketing geblubber ist denn selbst die Gainward mit Wakü kommt nur mit 450MHz. Warum dann nicht mit 500?

Ist nun der doppelslot Kühler doch Standard für die Ultra?
Dann waren viele Bilder aus Taiwan von Ultra Karten mit dem GT Kühler wohl nicht wirklich die endgültige Konfiguration.

was du dort gesehen hast, waren die referenzdesigns von nvidia, die nicht jeder hersteller annehmen wird. asus, msi oder alle anderen großen hersteller werden eigene layouts mit eigenen kühllösungen anbieten!

Gast
2004-05-19, 21:43:32
Original geschrieben von VooDoo7mx
Interessant, interessant...

Ich gucke gerade Giga und es gibt jetzt endlich 100% bestätigte, knallharte Fakten.

- GeForce6800 Ultra 2Slot Kühlung
- GeForce6800 GT 1Slot Kühlung
- Netzteilempfehlung seitens nVidia 350Watt für 6800 Ultra
- Stromversorgung für 6800 Ultra an beide Stromstecker auch über einen Strang absolut problemlos mögllich.
- 6800GT definitiv mit 16 Pipes
- 6800GT nur einen Stromstecker
- 6800GT und 6800Ultra haben das gleiche Boardlayout
- nVidia taktet die Ultra sehr konserativ. 520Mhz seien beim NV40 mit 0,13µ problemlos möglich
- Auch unterste Value Karte der GeForce6 Serie mit Sahder 3.0 und Videoprozessor
- Namen der Value/Mainstreamkarten: 6200&6400

Außerdem sprach der Nvidia.Onkel auch von Optimierungen. Diese seien immer gut, so lange man diese deaktivieren kann. nVidida will per default immer die maximalste Qualität bieten.----> offizieller WHQL Treiber per default mit tirlinear optimisations off. Der 61.11er war also erst einmal nur für Vergleiche zur Radeon X800XT gedacht um gleiche Bedingungen zu schaffen.

Im Mediamarkt kommt den gepralle vielleicht an aber nicht hier,kauf dir deine NV und gut.

LovesuckZ
2004-05-19, 21:45:10
War interessant, wenn auch nicht so informativ.
Schade, dass nicht die Optimierungsfrage gestellt wurde...

Fadl
2004-05-19, 21:46:40
Viel neues kam leider nicht bei rum. Mich hätte interessiert wann die Karten denn nun genau in Deutschland erhältlich sein werden. Oder habe ich diese Aussage verpasst?

LovesuckZ
2004-05-19, 21:49:29
Nein, aber in 2 - 3 Monaten kannst du die Notebooks mit GF6 chips kaufen :)
Ich denke spätesten Ende Juni.

Fadl
2004-05-19, 21:50:37
Ich kaufe doch kein PC Notebook :)

Ende Juni...das ist noch eine lange Zeit.

VooDoo7mx
2004-05-19, 21:58:02
Original geschrieben von Gast
Im Mediamarkt kommt den gepralle vielleicht an aber nicht hier,kauf dir deine NV und gut.

Was zum Teufel ist gepralle? :kratz:
Was für einen Sinn hat dieses Posting?

Gast
2004-05-19, 22:12:00
Original geschrieben von VooDoo7mx
Was zum Teufel ist gepralle? :kratz:
Was für einen Sinn hat dieses Posting?

Wer 350 Watt so abartig groß schreibt hat nur eines im Sinn,er will NV besser darstellen als sie sind.
Einige posten hier wir Marktschreier aber gaaaanz ruhig ihr jungen Leute ihr müßt hier nix verkaufen.

Fadl
2004-05-19, 22:28:22
falsches forum

Torian.cc
2004-05-19, 23:08:15
Original geschrieben von Gast
Wer 350 Watt so abartig groß schreibt hat nur eines im Sinn,er will NV besser darstellen als sie sind.
Einige posten hier wir Marktschreier aber gaaaanz ruhig ihr jungen Leute ihr müßt hier nix verkaufen.

Hm, ich glaube wohl eher, daß er darauf hinweisen wollte, daß vorige Meldungen, die da hießen, ein 480 Watt-Netzteil wäre Minimum, nicht ganz korrekt waren.
Und da bei vielen ATI-Usern ja die happige Netzteil-Anforderung der 6800 der Hauptgrund war, "drauf-los-zu-bashen", ist dieses Manko ja nun difinitiv entkräftet, oder!?

Und Deine aufbrausende Reaktion auf sein Posting lässt mich darauf schließen, daß es Dich irgendwie zu stören scheint, daß nVidia ähnlich niedrige Anforderungen an die Stromversorgung stellt, wie ATI.....

Könnte natürlich auch einfach sein, daß Du VooDoo7mx nicht magst (obwohl ich mir nicht vorstellen kann, warum - aber bei Gästen weiss man nie...<- sorry, aber diese Anonymität wird von manchen derbst missbraucht!).

MfG
Tori

P.S.: Für den Angriff im letzten Absatz entschuldige ich mich schon im Voraus!
Ausserdem : Anonymität <- so richtig? ;)

Radeonator
2004-05-19, 23:11:51
Original geschrieben von Gast
Wer 350 Watt so abartig groß schreibt hat nur eines im Sinn,er will NV besser darstellen als sie sind.
Einige posten hier wir Marktschreier aber gaaaanz ruhig ihr jungen Leute ihr müßt hier nix verkaufen.

Nee, schon gut...ganz ruhig brauner...

Es wurde blos viel rumgeheult das man ein 480WATT Netzteil brauchen würde, deshalb hat er die 350WATT nochmals hervorgehoben. Ist gar nicht schwer zu verstehen und tut auch nicht weh ;)

btw. Selbst Netzteile über 500WATT kosten derzeit im günstigsten Falle um die 40 Euro...durchgemessen und für gut befunden z.B. das hier : http://62.8.212.99/catalog/images/big/PIX/CC454.jpg

550WATT - 44Euro

Ach ja, jedem selbst überlassen was er kauft, nur ist dies nunmal der nV40 Thread,vielleicht denkt du mal darüber nach ?

ShadowXX
2004-05-20, 12:55:01
Außerdem sprach der Nvidia.Onkel auch von Optimierungen. Diese seien immer gut, so lange man diese deaktivieren kann. nVidida will per default immer die maximalste Qualität bieten.----> offizieller WHQL Treiber per default mit tirlinear optimisations off. Der 61.11er war also erst einmal nur für Vergleiche zur Radeon X800XT gedacht um gleiche Bedingungen zu schaffen.



Falls dieser Teil wirklich so eintrifft, kaufe ich eine nV....und wenn es nur aus Prinzip ist...

MarcWessels
2004-05-20, 15:34:54
Was heißt "trinlieanre Optimierungen" off? Nur den Schalter auf Quality um die Brilinearität loszuwerden oder "High Quality", was im PCGH-Test (Treiber 60.72) nochmals bis zu 7 % Geschwindigkeits kostete?

LovesuckZ
2004-05-20, 15:36:35
Original geschrieben von MarcWessels
Was heißt "trinlieanre Optimierungen" off? Nur den Schalter auf Quality um die Brilinearität loszuwerden oder "High Quality", was im PCGH-Test (Treiber 60.72) nochmals bis zu 7 % Geschwindigkeits kostete?

Der Unterschied zwischen "High" und "High Quality" soll an der behandlung der Stages liegen, sagt Nvidia. Ob's stimmt, wer weiß.

reunion
2004-05-20, 15:50:52
Original geschrieben von VooDoo7mx
- nVidia taktet die Ultra sehr konserativ. 520Mhz seien beim NV40 mit 0,13µ problemlos möglich


Und warum taktet NV die Karte dann nicht höher anstatt wieder auf bri-filterung umzusteigen? Sorry, aber das halte ich für reines Marketing...

[dzp]Viper
2004-05-20, 15:53:28
die 520 Mhz halte ich auch für sehr sehr sehr sehr sehr sehr optimistisch X-D
Ich kann mich an keine Reviewkarte errinnern, die mehr als 470 mhz geschafft hat :D

Der NV man hat halt wieder schönes Marketinggeplapper losgelassen. Man sollte dem ganzen nicht zu viel glauben schenken ;)
Wenn einer von ATI dagewesen wäre, hätte sich das auch alles so schön blumig angehört :D

Thowe
2004-05-20, 16:06:05
Die meisten Netzteile sind Blendwerk, ich will jetzt hier keine Diskussion über gute und schlechte Netzteile vom Zaun brechenm, nur soviel: Viele Billig-PCs werden mit 300W Netzteile ausgeliefert, die nicht selten schon bei 50% Last anfangen "unsaubere Spannungen" zu liefern.

Ein wirklich gutes 300W Netzteil reicht durchaus die 6800 mitsamt eine Athlon64 XP3400+ mit 1GB RAM zu betreiben. So ist das nicht.

Wer z.B. ein Antec PurePower 380W Netzteil hat, der braucht sich so oder so keine Sorgen machen. Egal ob NV nun 450W oder was auch immer sagt.

Ich kann mich an einen Test erinnern, wo ein billiges 550W Netzteil schon bei 250W Last abgeraucht ist, vieles ist da tatsächlich Schall und im wahrsten Sinne des Wortes - Rauch.

Black-Scorpion
2004-05-20, 16:08:57
@VooDoo7mx
Wenn schon dann so schreiben wie es gesagt wurde.
Ich habe es im Stream gesehen.
Die 480Watt wurden von NV genannt und dann auf 350Watt geändert.
Und was die Übertaktbarkeit bis zu 520MHz betrifft, wurde extra von einer anderen Kühlung (Wasser) gesprochen.
Also nicht alles so drehen wie es einem am besten gefällt.

dildo4u
2004-05-20, 16:13:13
http://www.pcpop.com/popimages/2004-5-20-19-4-55-7349.jpg

erster bench der 6800 ohne Ultra und ohne GT leider nur 3Dmark03 für 12pipes und nur DDR1 ram echt gutes ergebniss

[dzp]Viper
2004-05-20, 16:18:59
Original geschrieben von Anonym_001

Und was die Übertaktbarkeit bis zu 520MHz betrifft, wurde extra von einer anderen Kühlung (Wasser) gesprochen.
Also nicht alles so drehen wie es einem am besten gefällt.

ah gut - dann sollte der, der es in dem thread sagt, auch richtig zitieren ;)

Black-Scorpion
2004-05-20, 16:26:05
Original geschrieben von [dzp]Viper
ah gut - dann sollte der, der es in dem thread sagt, auch richtig zitieren ;)
:???:

dildo4u
2004-05-20, 18:01:34
http://www.hardwareluxx.de/story.php?id=336
Leadtek Winfast A400TDH

http://www.hardwareluxx.de/akaspar/news/leadtek/leadtek_a400tdh_karte.jpg

Ist die 6800 nicht die GT!

Gast
2004-05-20, 18:16:58
Original geschrieben von dildo4u
http://www.hardwareluxx.de/story.php?id=336
Leadtek Winfast A400TDH

http://www.hardwareluxx.de/akaspar/news/leadtek/leadtek_a400tdh_karte.jpg

Ist die 6800 nicht die GT!

Sieht ja mal nett aus :)

LovesuckZ
2004-05-20, 18:47:29
Kühler sieht wenigsten vernünftiger aus als bei der Ultra Variante.

Hellfire-Torrod
2004-05-20, 19:15:16
Naja, der selbe wie bei der Ultra, nur um einiges flacher. Irgendwie gefällen mir diese Leadtek-designs seid der 5950ultra nicht mehr....:|

LovesuckZ
2004-05-20, 19:16:15
Original geschrieben von Hellfire-Torrod
Naja, der selbe wie bei der Ultra, nur um einiges flacher.

Ja, aber der Kühlkoerper "haengt" nicht mehr in der Luft...

Hellfire-Torrod
2004-05-20, 19:35:58
Original geschrieben von LovesuckZ
Ja, aber der Kühlkoerper "haengt" nicht mehr in der Luft...

Wie, der hing in der luft?!

Sieht für mich einfach nur aus wie eine flache variante der Ultra......!

MarcWessels
2004-05-21, 10:11:09
http://www.pegasoft.cz/show_novinku.php?id=15369

So, nun würde mich interessieren, wie FarCry damit auf'm NV40 performed und aussieht! :)

deekey777
2004-05-21, 11:44:20
Original geschrieben von MarcWessels
http://www.pegasoft.cz/show_novinku.php?id=15369

So, nun würde mich interessieren, wie FarCry damit auf'm NV40 performed und aussieht! :)

Da hat wohl jemand die DX9.0c Beta aus SP 2 herausgefiltert. ;)

DanMan
2004-05-21, 15:04:31
Original geschrieben von MarcWessels
http://www.pegasoft.cz/show_novinku.php?id=15369

So, nun würde mich interessieren, wie FarCry damit auf'm NV40 performed und aussieht! :)
Nicht unbedingt anders, da der SM3 Patch von CryTech noch fehlt.

reunion
2004-05-21, 15:07:34
Original geschrieben von DanMan
Nicht unbedingt anders, da der SM3 Patch von CryTech noch fehlt.

IMO unterstützt der Patch 1.1 bereits PS3.0?!

DanMan
2004-05-21, 15:26:50
Original geschrieben von reunion
IMO unterstützt der Patch 1.1 bereits PS3.0?!
Habs grad überprüft: hast recht. :X
Die neue dt. Version sogar ohne Patch.
- Improved shader speed (up to two times faster) for NVidia Geforce FX cards on very high settings
- Fixed fog bug with NVidia drivers
- Added support for NVidia NV40 chipset
- Fixed realtime shadows from blended trees
- Made improvements to lighting shaders on very high settings
- Fixed bug with lake reflections
- Added support fro PS3.0 shader profile

kami
2004-05-21, 15:28:34
Glaube kaum, dass der NV40 dann PS 3.0 benutzt, da er immer noch über die Device ID als NV3X erkannt wird.

ice cool69
2004-05-21, 17:13:50
Mann, der Patch für Far Cry wäre für miche in Grund mir die GF6800Ultra/GT zu kaufen, hoffe die bringen den bald raus!

ice cool69
2004-05-21, 17:21:10
Mich würde interessieren pb die 520 MHz bei Wasserkühlung garantiert werden. Wenn ja dann ist die Ultra gekauft!!!

Edit: Ich hab ne Wasserkühlung, deshalb ;)

IC-Burn
2004-05-21, 19:15:39
Wenn je die 510 MhZ garantiert werden würde ich mir die Kaufen weil die X800XT kaum zum Overclocken gehen denn der Chip is schon voll am ende was den Takt angeht :-(

MarcWessels
2004-05-21, 19:19:21
Original geschrieben von kami
Glaube kaum, dass der NV40 dann PS 3.0 benutzt, da er immer noch über die Device ID als NV3X erkannt wird.

Hmmm - wenn ich mir da Screenies angucke, werden aber offenbar nicht überall dieselben Shader verwendet wie beim NV3x.

@Ice Cool
Yo - ich hol mir auch die Ultra. :D Aprospos Overclocking: Weiß man schon, wie man die 6800U voltagemoddet? Für die X800 gibt's ja schon ne Anleitung (ist dieslebe Methode wie schon bei den Karten ab 9700Pro aufwärts)...

MarcWessels
2004-05-21, 19:20:05
Original geschrieben von IC-Burn
Wenn je die 510 MhZ garantiert werden würde ich mir die Kaufen weil die X800XT kaum zum Overclocken gehen denn der Chip is schon voll am ende was den Takt angeht :-(

Dem fehlt nur ne Packung Spannung. ;)

IC-Burn
2004-05-21, 20:42:47
@MarcWessels

Kann sein aber ich mach an keiner Karte für 500€ ein VoltMod :bäh:

dildo4u
2004-05-22, 01:11:10
http://www.theinquirer.net/?article=16024

Geforce Ultra Extreme won't air-cool at 450 MHz

so wies aussieht is Nvidia nicht in der lage chips zu liefern die mit Lukü 450mhz schaffen nur gainward mit ihrer wakü ist in der lage auf 450 zu takten Also gibt auch keine
6800U EE

VooDoo7mx
2004-05-22, 02:23:54
Sagt mal, wie dumm mus man denn eigentlich sein, um auch noch den Müüll vom Inquirer zu glauben...

Es gibt genügend Hardwaresites die mit der 6800UE beliefert wurden.
Wenn man mal einen Blick auf die normalen 6800U Reviews wirft, lässt sich auch leicht erkennen, dass alle Karten die 450Mhz mit stock-Kühlung packen.

Aber lierber dildo, was willst du uns jetzt eigentlich damit sagen? Laut nVidida gibt es die 6800UE gar nicht und ich kenn keinen Boardhersteller der eine anbieten will.

Wieso also jetzt nochmal so einen Staub um nichts aufwirbeln?

Sphinx
2004-05-22, 06:48:01
Original geschrieben von VooDoo7mx
Es gibt genügend Hardwaresites die mit der 6800UE beliefert wurden.


Dann hast du immer noch nicht verstanden wieso Nvidia diese an die Reviewsites verschickt hat...

Sphinx
2004-05-22, 06:51:59
Original geschrieben von kami
Glaube kaum, dass der NV40 dann PS 3.0 benutzt, da er immer noch über die Device ID als NV3X erkannt wird.


Sie wird nicht als NV3x erkannt. Nach letztem Wissensstand :

Quelle: http://www.tomshardware.com/graphic/20040414/geforce_6800-46.html

PS: Und an der Bildqualität muss da Nvidia oder CryTek noch wirklich was bereissen - sonst sieht´s wirklich traurig aus...

Bezogen auf letztes Bild...


This comparison shows that the 6800 U doesn't simply run in the same mode as the FX 5950 U. The different reflections of the light on the two NV cards can be attributed to a different light model, as the next comparison will show.

r@h
2004-05-22, 08:22:03
Original geschrieben von Sphinx
Sie wird nicht als NV3x erkannt. Nach letztem Wissensstand :

Quelle: http://www.tomshardware.com/graphic/20040414/geforce_6800-46.html

PS: Und an der Bildqualität muss da Nvidia oder CryTek noch wirklich was bereissen - sonst sieht´s wirklich traurig aus...

Bezogen auf letztes Bild... Tjo... wäre nicht das erste mal, dass sich THG irrt, oder ?
;-)

Das letzte Bild deutet doch wohl eher darauf hin, dass dort der Treiber vielleicht etwas vermurkst, denn die gezeigte Differenz (ich meine das Bildchen von FX5950) ist ja wohl keine Quali-Reduzierung oder Präzisionsveränderung, sondern schlicht und ergreifend falsch.

Die anderen Bilder lassen darauf schlieen, dass der NV40 EINDEUTIG den NV3x-Renderpfad benutzt...

Sollen doch die lieben Reviewer mal die DX9c-Beta installieren und doch mal schaun', ob uns CryTec da vereimert hat, oder der DX9c(NV40)Support doch schon da ist.

Einfach Patch 1.1 für FC und DX9c druf' und schon sollte es SM3.0-Unterstützung geben.

Na ja, schaun' wir mal, ob das irgendwer hinbekommt...
:D

Razor

r@h
2004-05-22, 08:23:01
Original geschrieben von Sphinx
Dann hast du immer noch nicht verstanden wieso Nvidia diese an die Reviewsites verschickt hat... Weil es die von Gainward, BFG und noch 'nem anderen Hersteller geben wird ?
:???:

Razor

dildo4u
2004-05-22, 09:26:56
Original geschrieben von r@h
Weil es die von Gainward, BFG und noch 'nem anderen Hersteller geben wird ?
:???:

Razor nö nur von gainward mit wakü die andere würde gerne aber nvidia kann halt keine chips liefern die das mit Grantie schaffen das gegteil kann nicht bewiesen werden hab auch noch keine 6800UEE karte gelistet gesehn


"BGF, Gainward and XFX.

Only these three can actually clock there cards to 450MHz or even more but it seems that Nvidia can not get them chips that can run that high"

r@h
2004-05-22, 09:32:00
Original geschrieben von dildo4u
nö nur von gainward mit wakü die andere würde gerne aber nvidia kann halt keine chips liefern die das mit Grantie schaffen das gegteil kann nicht bewiesen werden hab auch noch keine 6800UEE karte gelistet gesehnWeder dieser 'Fakt', noch das Gegenteil davon kann bewiesen werden.
Dass Gainward zumindest eine mit 430MHz (luftgekühlt) und eine mit mindestens (!) 450MHz (wassergekühlt) heraus bringt, scheint hingegen Fakt.
Original geschrieben von dildo4u
"BGF, Gainward and XFX.

Only these three can actually clock there cards to 450MHz or even more but it seems that Nvidia can not get them chips that can run that high" Sagte TI... und was ich von dieser 'Quelle' halte, sollte hier bekannt sein...
(zumal die Formulierung "it seems" für sich sprechen sollte ;-)

Razor

r@h
2004-05-22, 09:32:41
Was angedenk der Reviews mit 450MHz NV40'ern ja im übrigen auch glatt gelogen ist...

dildo4u
2004-05-22, 09:34:43
Original geschrieben von r@h
Weder dieser 'Fakt', noch das Gegenteil davon kann bewiesen werden.
Dass Gainward zumindest eine mit 430MHz (luftgekühlt) und eine mit mindestens (!) 450MHz (wassergekühlt) heraus bringt, scheint hingegen Fakt.
Sagte TI... und was ich von dieser 'Quelle' halte, sollte hier bekannt sein...
(zumal die Formulierung "it seems" für sich sprechen sollte ;-)

Razor jo wie gesagt zur zeit scheint gainward die einzige firma zu sein die das anbieten kann aber auch nur mit Wakü schon ein biseschen amr schade das ATI nicht auch an die reviewer karten rausgeschickt hat die OC sind und so nie auf den markt kommen also 600mhz mit Lukü oder so

dildo4u
2004-05-22, 09:37:02
Original geschrieben von r@h
Was angedenk der Reviews mit 450MHz NV40'ern ja im übrigen auch glatt gelogen ist... review karte sind meist ausgewhälte chips die sich sher gut OC lassen weil das auch heufig mit getestet wird und mher punkte bei der bewertung bringt bei der ein oder anderen seite nur in mengen schients die chips auch nicht zu geben

r@h
2004-05-22, 09:39:12
Original geschrieben von dildo4u
jo wie gesagt zur zeit scheint gainward die einzige firma zu sein die das anbieten kann aber auch nur mit Wakü schon ein biseschen amr schade das ATI nicht auch an die reviewer karten rausgeschickt hat die OC sind und so nie auf den markt kommen also 600mhz mit Lukü oder so Hast Du nicht in den Reviews gelesen, wie 'hoch' sich der R420 takten ließ.
Das Design scheint da am Ende.

Und die NV40 mit 450MHz (und Luftkühlung) waren real, oder willst Du das negieren ?
:???:

Razor

P.S.: Klar, dass bei beiden (!) mit effizienter Wasser- oder gar Trockeneis-/Kompressor-Kühlung mehr drin sein sollte. Aber das ist hier nicht das Thema. Vergiß einfach vorerst diese sinnlos-Meldung vom TI !

r@h
2004-05-22, 09:41:19
Original geschrieben von dildo4u
review karte sind meist ausgewhälte chips die sich sher gut OC lassen weil das auch heufig mit getestet wird und mher punkte bei der bewertung bringt bei der ein oder anderen seite nur in mengen schients die chips auch nicht zu geben Dass die 'Extreme' Chips natürlich quasi 'handverlesen' sind (selbstredend produktionsseitig), ist klar. Aber in dieser typischen TI-Meldung steht ja was anderes, oder ?

Razor

nggalai
2004-05-22, 09:46:36
Original geschrieben von dildo4u
jo wie gesagt zur zeit scheint gainward die einzige firma zu sein die das anbieten kann aber auch nur mit Wakü schon ein biseschen amr schade das ATI nicht auch an die reviewer karten rausgeschickt hat die OC sind und so nie auf den markt kommen also 600mhz mit Lukü oder so Du willst gar nicht wissen, wie viele (oder wenige) X800 XT-Karten in Europa zum Presse-Launch rumgereicht wurden. Von daher gesehen sieht's fast so aus, als ob ATI das von dir geforderte gemacht hat. Wenn man etwas böse sein möchte.

93,
-Sascha.rb

LovesuckZ
2004-05-22, 09:48:06
Original geschrieben von nggalai
Du willst gar nicht wissen, wie viele (oder wenige) X800 XT-Karten in Europa zum Presse-Launch rumgereicht wurden.

Hm, 2 soll es für England gegeben haben.
Wieviel waren es denn?

Quasar
2004-05-22, 09:53:18
Original geschrieben von r@h
Dass Gainward zumindest eine mit 430MHz (luftgekühlt) [...]

Um sich mal die "Differenzen" zu verdeutlich, zwischen denen wir hier hin und her diskutieren: Diese 30 MHz entsprechen von der Pixelfüllrate her einer kompletten GeForce256.

Der Unterschied zwischen regulären NV40U und R420XT wäre in etwa die Pixelfüllrate einer R9600XT!!

nggalai
2004-05-22, 09:55:39
Original geschrieben von LovesuckZ
Hm, 2 soll es für England gegeben haben.
Wieviel waren es denn? Nicht viel mehr. Kann man an einer Hand abzählen (genaue Zahl darf ich nicht nennen), und wurden dann von Redaktion zu Redaktion verschickt. Für mich ist die XT eine Reviewer- und PR-Karte, nichts weiter. Das war bei den 6800ern (Ultra) "etwas" anders.

93,
-Sascha.rb

dildo4u
2004-05-22, 10:24:00
Original geschrieben von nggalai
Nicht viel mehr. Kann man an einer Hand abzählen (genaue Zahl darf ich nicht nennen), und wurden dann von Redaktion zu Redaktion verschickt. Für mich ist die XT eine Reviewer- und PR-Karte, nichts weiter. Das war bei den 6800ern (Ultra) "etwas" anders.

93,
-Sascha.rb naja zu sehn is aber im handel von beiden karten noch nix nur ein X800pro bekomnmt sogar schon in god old germany zu kaufen wo bleibt der Nvidia gegenpart 6800GT?Vielicht ist 16pips für da sigment vieleicht doch zu aufwendig und zu teuer für NV

r@h
2004-05-22, 10:42:14
Original geschrieben von dildo4u
naja zu sehn is aber im handel von beiden karten noch nix nur ein X800pro bekomnmt sogar schon in god old germany zu kaufen wo bleibt der Nvidia gegenpart 6800GT?Vielicht ist 16pips für da sigment vieleicht doch zu aufwendig und zu teuer für NV Der 'Gegenpart' ist da ja wohl eher die 6800nU, oder ?

Und dass die 'GT' erst später kommt, ist ja nun auch kein Geheimnis...
Willst wohl einfach ein bissl rumbashen !
:D

Razor

dildo4u
2004-05-22, 10:45:21
Original geschrieben von r@h
Der 'Gegenpart' ist da ja wohl eher die 6800nU, oder ?

Und dass die 'GT' erst später kommt, ist ja nun auch kein Geheimnis...
Willst wohl einfach ein bissl rumbashen !
:D

Razor der gegen part soll eine karte sein die nur 350 chip hat und 128mb DDR1 speicher? fakt ist X800pro hat 399$ 6800GT auch 399$ also für mich der direkte gegen part auch leistungs technich sind die karten recht nahe beieinander die ATI kann immer hin 125MHZ mher chip takt in die wagschale werfen

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2096.png

r@h
2004-05-22, 10:55:18
Original geschrieben von dildo4u
der gegen part soll eine karte sein die nur 350 chip hat und 128mb DDR1 speicher? fakt ist X800pro hat 399$ 6800GT auch 399$ also für mich der direkte gegen part auch leistungs technich sind die karten recht nahe beieinander die ATI kann immer hin 125MHZ mher chip takt in die wagschale werfen

http://images.anandtech.com/graphs/radeon%20x800%20pro%20xt_05040480526/2096.png Sag mal, dildo, ist diese ganze Optimierungs-Geschichte irgendwie an Dir vorbei gegangen ?
Oder was soll jetzt gerade ein solch im höchsten Maße anzuzweifelde Bench, den Du da gepostet hast ?
:???:

Razor

r@h
2004-05-22, 10:57:03
ausserdem 'vermisse ich hier 'irgendwie' den Vergleichswert zum 6800nU... ;)

LovesuckZ
2004-05-22, 11:02:13
Die Werte der Reviewer sind nicht repräsentativ, solange der naechste offizielle Treiber von ATi nicht veröffentlicht wird. Der ausgelieferte "Beta 4.5" hat einen aktuelleren (Shader-)Compiler, wodurch die Karten vorallen in shaderlaestigen Anwendungen schneller sind (ca. 1000 Punkte im 3DMark2003 ~8500 zu ~9500).

reunion
2004-05-22, 11:03:04
Original geschrieben von r@h
Sag mal, dildo, ist diese ganze Optimierungs-Geschichte irgendwie an Dir vorbei gegangen ?
Oder was soll jetzt gerade ein solch im höchsten Maße anzuzweifelde Bench, den Du da gepostet hast ?
:???:

Razor

Daran wird man aber nichts ändern können, ATI wird wohl definitiv kein fulltri filterung mehr anbieten und damit wirst du mit diesen vergleich leben müssen...

dildo4u
2004-05-22, 11:04:46
Original geschrieben von r@h
ausserdem 'vermisse ich hier 'irgendwie' den Vergleichswert zum 6800nU... ;)

naja wie gesagt das mit der optemierung muss noch geklärt werden aber auch so slebst du musst einsehen das eine karte mit 12pipes und 350mhz und nur 700mhz speicher nicht der gegen part zu 12pipes 475mhzchip und 900mhz speicher sein kann Nvidia setzt halt auf mher leistung pro mhz mit 16piepes bei 350mhz ati halt mit 12 bei 475mhz und da treffen sich die karten irgendwo von der leistung optemierung hin oder her so lange das bild mit AF ich zocken immer mit AF nicht schlechter ist als bei meiner alten 9700pro sind mir die optemierungen egal

reunion
2004-05-22, 11:06:45
Original geschrieben von LovesuckZ
Die Werte der Reviewer sind nicht repräsentativ, solange der naechste offizielle Treiber von ATi nicht veröffentlicht wird. Der ausgelieferte "Beta 4.5" hat einen aktuelleren (Shader-)Compiler, wodurch die Karten vorallen in shaderlaestigen Anwendungen schneller sind (ca. 1000 Punkte im 3DMark2003 ~8500 zu ~9500).

Bei NV bekommt man aktuell auch nur irgendeinen 50er treiber auf der Homepage also ist der 60.72 genauso ein beta treiber, wodurch die NV40 Werte genausowenig repräsentativ sind...

r@h
2004-05-22, 11:07:47
Original geschrieben von reunion
Daran wird man aber nichts ändern können, ATI wird wohl definitiv kein fulltri filterung mehr anbieten und damit wirst du mit diesen vergleich leben müssen... Erzähl Du mir nicht, was ich 'muss'...
:D

Für mich heißt dies lediglich, dass man derzeit nicht vergleichen kann !

Razor

reunion
2004-05-22, 11:08:46
Original geschrieben von r@h
Erzähl Du mir nicht, was ich 'muss'...
:D

Für mich heißt dies lediglich, dass man derzeit nicht vergleichen kann !

Razor

Und du glaubst das sich das ändern wird? Ich nicht...

r@h
2004-05-22, 11:09:11
Original geschrieben von reunion
Bei NV bekommt man aktuell auch nur irgendeinen 50er treiber auf der Homepage also ist der 60.72 genauso ein beta treiber, wodurch die NV40 Werte genausowenig repräsentativ sind... Na dann 'darfst' Du ja mal auf den echten Treiber gespannt sein...
:D

Razor

r@h
2004-05-22, 11:09:32
Original geschrieben von reunion
Und du glaubst das sich das ändern wird? Ich nicht... Dein Problem...

Razor

LovesuckZ
2004-05-22, 11:09:56
Original geschrieben von reunion
Bei NV bekommt man aktuell auch nur irgendeinen 50er treiber auf der Homepage also ist der 60.72 genauso ein beta treiber, wodurch die NV40 Werte genausowenig repräsentativ sind...

Lese nochmal.
Der offizielle CAT4.5 entspricht nicht dem "getesten" Beta 4.5, da er älter ist. Die Werte, die die Seiten ermittelt haben, sind also nicht repräsentativ für die Leistung, welche die Leute mit dem letzten offiziellen Treiber erhalten, der die neuen Karten unterstuetzt!

reunion
2004-05-22, 11:11:50
Original geschrieben von LovesuckZ
Lese nochmal.
Der offizielle CAT4.5 entspricht nicht dem "getesten" Beta 4.5, da er älter ist. Die Werte, die die Seiten ermittelt haben, sind also nicht repräsentativ für die Leistung, welche die Leute mit dem letzten offiziellen Treiber erhalten, der die neuen Karten unterstuetzt!

Achso, da hast du natürlich recht, allerdings wird sich das ja ändern sobald der nächste treiber verfügbar ist...

r@h
2004-05-22, 11:11:55
Original geschrieben von dildo4u
...optemierung hin oder her so lange das bild mit AF ich zocken immer mit AF nicht schlechter ist als bei meiner alten 9700pro sind mir die optemierungen egal Kann ich mir gut vorstellen...
...schließlich muss ich ja gerade am eigenen Leibe erfahren, was sich ATI unter 'AF' vorstellt !
:D

Razor

P.S.: hatte ich echt schon lange verdrängt... so schnell kann das gehen... ;)

r@h
2004-05-22, 11:13:32
Original geschrieben von reunion
Achso, da hast du natürlich recht, allerdings wird sich das ja ändern sobald der nächste treiber verfügbar ist... Hoffentlich...
...läßt sich dann die Stage-'Optimierung' auch wieder abschalten...
:D

Razor

reunion
2004-05-22, 11:16:17
Original geschrieben von r@h
Dein Problem...

Razor

Seltsamerweise hattes du keine Probleme damit als NV mit der 50er Treiber auf der Nv30-Serie nurnoch bri erlaubte zu vergleichen, wenn das ATI macht sind sie natürlich nichtmehr vergleichbar...


:chainsaw:

r@h
2004-05-22, 11:33:33
Original geschrieben von reunion
Seltsamerweise hattes du keine Probleme damit als NV mit der 50er Treiber auf der Nv30-Serie nurnoch bri erlaubte zu vergleichen, wenn das ATI macht sind sie natürlich nichtmehr vergleichbar...Wus ?

Ich gehörte damals zu den Vertretern, die 'Bri' mit der Optimierung seitens ATI gerechtfertigt haben... und war dabei lange nicht der einzige. Und 'witzig' fand ich das nun überhaupt nicht !

"Bri ist Scheiße, aber zumindest wird's damit zu ATI's Lösung 'vergleichbarer' !"
(was zumindest bis zum X800 galt)

Was meinst Du eigentlich, wie ich die Winkelabhängigkeit des NV40 finde ?
:???:

Aber vermutlich ist Dir auch das entfallen...

Razor

MadManniMan
2004-05-22, 11:33:46
Razor, warum sollten die GT und die Pro nicht die direkten Konkurrenten sein? :|

Man schaue sich nur einmal die Rohdaten an:


Chip Füllrate Bandbreite

68UE 7,2GPix/s 35,2GB/s
68U 6,4GPix/s 35,2GB/s
98XT 8,3GPix/s 35,8GB/s

68GT 5,6GPix/s 32,0GB/s
98Pro 5,7GPix/s 28,8GB/S

68 3,9GPix/s 22,4GB/s
98SE 3,6GPix/s 25,6GB/s


In ihren 3 "Segmenten" nehmen die sich jeweil wohl nicht sehr viel.

Warum also dein Ausspruch, dies sei "Gebash", wenn dir diese Zahlen hier auch schon vorher bewußt waren (wovon ich ausgehe)?

r@h
2004-05-22, 11:38:09
Original geschrieben von MadManniMan
Razor, warum sollten die GT und die Pro nicht die direkten Konkurrenten sein? :|

Man schaue sich nur einmal die Rohdaten an:

<snap>

In ihren 3 "Segmenten" nehmen die sich jeweil wohl nicht sehr viel.

Warum also dein Ausspruch, dies sei "Gebash", wenn dir diese Zahlen hier auch schon vorher bewußt waren (wovon ich ausgehe)? Kannst Du mir mal erklären, was bitte die Rohdaten mit der Real-World-Performance zu tun haben sollen ?
:???:

Razor

P.S.: und dann schaun' wir noch mal kurz auf das Thread-Thema... :eyes:

dildo4u
2004-05-22, 11:41:36
Original geschrieben von r@h
Kannst Du mir mal erklären, was bitte die Rohdaten mit der Real-World-Performance zu tun haben sollen ?
:???:

Razor

P.S.: und dann schaun' wir noch mal kurz auf das Thread-Thema... :eyes: axo ja stimm hier darf nur NV gehuldigt werden :massa: also nich alles so ganz ernst nehmen was razor hier von sich gibt :D

Demirug
2004-05-22, 11:43:21
Original geschrieben von MadManniMan
Razor, warum sollten die GT und die Pro nicht die direkten Konkurrenten sein? :|

<snip>

In ihren 3 "Segmenten" nehmen die sich jeweil wohl nicht sehr viel.

Warum also dein Ausspruch, dies sei "Gebash", wenn dir diese Zahlen hier auch schon vorher bewußt waren (wovon ich ausgehe)?

Rohdaten zu vergleichen ist wie bei Autos nur auf die PS Angabe zu achten.

Dummerweise bringen die Chips die Papierleistung unterschiedlich gut auf die "Strasse". Aus diesem Grund macht man ja benchmarks.

MadManniMan
2004-05-22, 11:43:43
Original geschrieben von r@h
Kannst Du mir mal erklären, was bitte die Rohdaten mit der Real-World-Performance zu tun haben sollen ?
:???:

Junge, jeder Honk weiß, daß Chips mit ähnlichen Architekturen und ähnlichen Taktungen zwangsläufig im selben Performancesegment spielen. Und Demi, es geht um grobe Angaben - für die Details sind Benches zuständig.

EOD.

Original geschrieben von r@h
P.S.: und dann schaun' wir noch mal kurz auf das Thread-Thema... :eyes:

Lenk nicht ab. Jemand sagt, GT und Pro seien die Konkurrenten und fragst, warum er denn bitte rumbasht?!?

(del676)
2004-05-22, 12:51:53
Original geschrieben von MadManniMan
Junge, jeder Honk weiß, daß Chips mit ähnlichen Architekturen und ähnlichen Taktungen zwangsläufig im selben Performancesegment spielen. Und Demi, es geht um grobe Angaben - für die Details sind Benches zuständig.

EOD.

MATROX PARHELIA
:eyes:

MadManniMan
2004-05-22, 13:07:21
Original geschrieben von Ulukay
MATROX PARHELIA
:eyes:


Original geschrieben von MadManniMan
...daß Chips mit ähnlichen Architekturen...

ow
2004-05-22, 13:09:54
???
Wo haben denn die Architekturen von NV und ATi eine Ähnlichkeit?

kami
2004-05-22, 13:10:28
Original geschrieben von MadManniMan


R420 und NV40 sind sich aber nicht wirklich ähnlich. :)

Exxtreme
2004-05-22, 13:11:38
Original geschrieben von ow
???
Wo haben denn die Architekturen von NV und ATi eine Ähnlichkeit?
Beide sind 16x1. ;D ;D ;D

LovesuckZ
2004-05-22, 13:12:46
Original geschrieben von Exxtreme
Beide sind 16x1. ;D ;D ;D

AGP.

(del676)
2004-05-22, 13:44:31
Original geschrieben von MadManniMan


ja und nv40 und r420 sind ja viel ähnlicher :eyes:

wie definierst du ähnlich?

256mb ram und agp interface?

Gast
2004-05-22, 13:44:39
Jetzt zieht Manni nicht so auf. Klar haben beide Chips unterschiedliche Architektren, aber warum sollte man die Rohdaten nicht doch vergleichen können, wenn man ja anhand bekannter Benchmarks sich ohnehin schon ungefähr ein Bild der tatsächlichen Leistungsfähigkeit von nicht erschienen Chips machen kann.

Gas3t
2004-05-22, 13:44:45
Die Vergleichbarkeit ist durch den empfohlenen Verkaufspreis gegeben:

800SE = 299$
6800 = 299$

800Pro = 399$
6800GT = 399$

800XT = 499$
6800Ultra = 499$

6800UE = Preis und Verfügbarkeit seitens NVidia nicht offiziell.

Sphinx
2004-05-22, 14:31:45
Original geschrieben von r@h
Tjo... wäre nicht das erste mal, dass sich THG irrt, oder ?
;-)

Das letzte Bild deutet doch wohl eher darauf hin, dass dort der Treiber vielleicht etwas vermurkst, denn die gezeigte Differenz (ich meine das Bildchen von FX5950) ist ja wohl keine Quali-Reduzierung oder Präzisionsveränderung, sondern schlicht und ergreifend falsch.

Die anderen Bilder lassen darauf schlieen, dass der NV40 EINDEUTIG den NV3x-Renderpfad benutzt...

Sollen doch die lieben Reviewer mal die DX9c-Beta installieren und doch mal schaun', ob uns CryTec da vereimert hat, oder der DX9c(NV40)Support doch schon da ist.

Einfach Patch 1.1 für FC und DX9c druf' und schon sollte es SM3.0-Unterstützung geben.

Na ja, schaun' wir mal, ob das irgendwer hinbekommt...
:D

Razor

Ein immer noch nicht gefixter Treiber oder Patch der dann einen realen NV4x Pfad nutzt vielleicht ?

The image quality of the GeForce 6800 Ultra did not improve with the newer driver. Probably, this won't change until the next game patch. The image quality of the X800 cards is practically identical to that of the Radeon 9800XT - impeccable.

Quelle: http://www20.tomshardware.com/graphic/20040504/ati-x800-37.html

Warten wir ab diese "kleinigkeiten" denn "bald" gefixt werden. Und wann kommt überhaupt der DX9.0c Patch ?

DanMan
2004-05-22, 15:53:56
Original geschrieben von Gas3t
Die Vergleichbarkeit ist durch den empfohlenen Verkaufspreis gegeben.
So wird bei CPUs auch nicht verglichen. Da werden die aktuell verfügbaren Topmodelle aufeinander losgelassen. Und da weder von der XT noch von der UE was zu sehen ist, und die ersten erhältlich Karten die Pro und die Ultra sein werden kann man genauso gut diese 2 auf eine Stufe stellen.

Und zum Thema Brilinear: Die jüngst entdeckte Optimierung gibts bei ATI schon seit Cat3.4 oder so laut ATI persönlich. Nvidia hat sich nur nicht so geschickt beim verstecken dieser angestellt und sind deshalb glaich aufgeflogen.

reunion
2004-05-22, 19:30:22
PCGH hat eine Leadtek A400 TDH (Geforce 6800nonU) im Testlabor die mit 335/350 takten soll, keine Ahnung ob das schon bekannt ist...

http://www.pcgames.de/?article_id=314540

LovesuckZ
2004-05-22, 19:31:44
Nein, noch nicht.

Winter[Raven]
2004-05-22, 20:03:05
Dat ist aber etwas "wenig" die Galaxy GF 6800 NU läuft mit 365/350.

VooDoo7mx
2004-05-22, 20:13:02
Gibts irgendwo schon nen Review zu einer 6800?

Hmm also ne 6800 mit 256MB und ViVo und das zu einen vernünftigen Preis(300€) wäre für mich ne Alternative zur 6800GT, die mir doch etwas zu teuer scheint.

MadManniMan
2004-05-22, 20:14:27
Original geschrieben von Gast
Jetzt zieht Manni nicht so auf. Klar haben beide Chips unterschiedliche Architektren, aber warum sollte man die Rohdaten nicht doch vergleichen können, wenn man ja anhand bekannter Benchmarks sich ohnehin schon ungefähr ein Bild der tatsächlichen Leistungsfähigkeit von nicht erschienen Chips machen kann.

Danke :up:

Nur, wenn man es will, versteht man auch den Grundgedanken hinter meiner Aussage.

:bier:

Original geschrieben von Gas3t
Die Vergleichbarkeit ist durch den empfohlenen Verkaufspreis gegeben (...)

Und das kommt noch dazu!
Sicherlich gibt es den Teil der Leute, denen eh der Preis sowas von scheißegal ist, daß das Topmodell des einen ruhig für 10% mehr Leistung 40% mehr kosten kann (Zahlen in keinem aktuellen Zusammenhang), aber das Gros der Leute hier in Deutschland hat gewiß andere Sorgen, als daß man sich nicht ein Preislimit setzen würde.

Winter[Raven]
2004-05-22, 20:33:33
Ups ... da hba ich was falsch erzählt.

Die taktet wirklich nur mit 325/350 mhz. :O

Und erreicht bei 3D Mark 2003 ~92xx Punkte auf einem P4 mit 3.4 ghz.

dildo4u
2004-05-22, 20:43:11
Original geschrieben von Winter[Raven]
Ups ... da hba ich was falsch erzählt.

Die taktet wirklich nur mit 325/350 mhz. :O

Und erreicht bei 3D Mark 2003 ~92xx Punkte auf einem P4 mit 3.4 ghz. link?

http://www.pcpop.com/popimages/2004-5-20-19-4-55-7349.jpg

ich hab bis jetzt nur das von eine 6800NU gesehen und sollte nicht 350chip für die karte vorgesehen sein?

Winter[Raven]
2004-05-22, 20:47:23
Hier:

Intel Pentium4 3.4E GHz [800MHz FSB]
ASUS P4P800 [865PE]
Apacer DDR400 1GB [512MB*2]
Seagate Barracuta V 60GB
Xingu 400W Power Supply

Motherboard Driver:
Intel Chipset Inf 5.1.0.1008
GPU Dirver:
NVIDIA Forceware 61.11 without WHQL
OS:
Windows XP + SP1


Quelle: http://www.pcpop.com/news/2004/5/12106.shtml

//EDIT:

http://www.pcpop.com/popimages/2004-5-21-18-1-55-7349.gif

http://www.pcpop.com/popimages/2004-5-21-18-21-56-7972.jpg

dildo4u
2004-05-22, 20:53:15
Original geschrieben von Winter[Raven]
Hier:



Quelle: http://www.pcpop.com/news/2004/5/12106.shtml

//EDIT:

http://www.pcpop.com/popimages/2004-5-21-18-1-55-7349.gif

http://www.pcpop.com/popimages/2004-5-21-18-21-56-7972.jpg

naja leider keine WHQL treiber der läuft mit bi AF und Aquamark und 3Dmakr03 testen mit 4XAniso :abgel:

LovesuckZ
2004-05-22, 21:04:32
Original geschrieben von dildo4u
naja leider keine WHQL treiber der läuft mit bi AF und Aquamark und 3Dmakr03 testen mit 4XAniso :abgel:

:???:
Aquamark testet auf jeder Hardware mit 4xbiAF. ja, my god. Dann sollse den 60.85 nehmen, der zwar nicht langsamer, aber dann ein WHQL Zertifikat hat...

Winter[Raven]
2004-05-22, 21:05:16
hmmm, wieso beschwerst du dich jetzt? ATI filtert auch bri und?

dildo4u
2004-05-22, 21:16:22
Original geschrieben von Winter[Raven]
hmmm, wieso beschwerst du dich jetzt? ATI filtert auch bri und? naja speed is doch da warum bi filtern damit könnte nvidia überlegenheit demonstieren BQ+Speed ausserdem kanns noch mher optemierungen beim 3Dmakr03 geben der treiber wurde noch nicht von futuremark überprüft

Hellfire-Torrod
2004-05-22, 21:44:39
http://www.pcpop.com/popimages/2004-5-21-17-17-46-3717.jpg

WTF?

Sockelgrafikkarten oder Sampel für die Boardhersteller?

Thowe
2004-05-22, 21:51:38
Original geschrieben von Hellfire-Torrod
http://www.pcpop.com/popimages/2004-5-21-17-17-46-3717.jpg

WTF?

Sockelgrafikkarten oder Sampel für die Boardhersteller?

Weder noch, das eine ist sozugagen eine ganz normale antistatische Kunststoffpalette für ICs wie eben GPUs/CPUs etc. Die Karte ist halt noch unbestückt, sprich das nackte Board.

VooDoo7mx
2004-05-22, 21:52:31
Am besten gar nicht mehr diesen Schmonz kommentieren den dildo4u von sich gibt.

Nicht nur dass es extrem schwer zu lesen und zu verstehen ist, nein ist auch absoluter Nonsens.

Gas3t
2004-05-22, 22:00:32
Original geschrieben von DanMan
So wird bei CPUs auch nicht verglichen. Da werden die aktuell verfügbaren Topmodelle aufeinander losgelassen. Und da weder von der XT noch von der UE was zu sehen ist, und die ersten erhältlich Karten die Pro und die Ultra sein werden kann man genauso gut diese 2 auf eine Stufe stellen.


Es sagt auch niemand etwas dagegen, dass zu testen, was zur Verfügung steht. Vom Standpunkt des Kunden, der sich eine GraKa kaufen möchte (und nicht wissen will, was theoretisch möglich ist) ist die Betrachtung der offiziellen Verkaufspreise verbunden mit der jeweiligen Leistung wohl am wichtigsten. Sprich man möchte 399$ ausgeben, also vergleicht man zunächst die 800XT gegen die 6800Ultra. Wie letztendlich der tatsächliche Verkaufspreis ausfällt ist zunächst eine andere Sache und läßt sich erst zu gegebenen Zeitpunkt herausfinden.

Thowe
2004-05-22, 22:01:08
Original geschrieben von VooDoo7mx
Am bsten gar nicht mehr diesen Schmonz kommentieren den dildo4u von sich gibt.

Nicht nur dass es extrem schwer zu lesen und zu vertejen ist, nein ist auch absoluter Nonsens.

Ab besten erst gar nichts sagen, wenn man nicht in der Lage ist dies sauber zu tun.

dildo4u
2004-05-22, 22:02:32
Original geschrieben von Thowe
Ab besten erst gar nichts sagen, wenn man nicht in der Lage ist dies sauber zu tun. soll wohl eher noch ein zusätzlicher hieb in meine richtung sein

Exxtreme
2004-05-22, 22:03:05
Original geschrieben von VooDoo7mx
Am bsten gar nicht mehr diesen Schmonz kommentieren den dildo4u von sich gibt.

Nicht nur dass es extrem schwer zu lesen und zu vertejen ist, nein ist auch absoluter Nonsens.
LOL, das sagt der Richtige.

VooDoo7mx
2004-05-22, 22:09:02
Original geschrieben von Exxtreme
LOL, das sagt der Richtige.

Schön, dass du einen Tippfehler meinerseits mit dem extrem miserablen Deutsch von dildo auf eine Stufe setzt.

Thowe
2004-05-22, 22:09:13
Original geschrieben von dildo4u
soll wohl eher noch ein zusätzlicher hieb in meine richtung sein

Nein, in seine.

dildo4u
2004-05-22, 22:10:51
Original geschrieben von Thowe
Nein, in seine. schon klar ich meinte ja auch ihn mit anderen worten er hat mit absicht falsch geschrieben als anspielung

Jagdpanther
2004-05-22, 22:53:30
Bei MSI ist die 6800 Ultra bereits angeführt.

Lüfter scheint die Standardausführung zu sein.

Also scheint mal keine "Sonne" mehr.

Spiele Bundle is ja recht ordentlich (wenn man das meisste net schon hätte) :-( .


MSI (http://www.msicomputer.com/product/p_spec.asp?model=NX6800_Ultra-T2D256&class=vga)

Winter[Raven]
2004-05-23, 00:26:38
Komisch, entweder MSI ist noch nicht mit ihrem Kühldesign fertig, oder es ist mir ein PR Design. Man kennt ja das MSI zu NV35 Zeiten auch erst die karten mit dem Referenzdesign ausgeliefert haben.

Laut MSI zum NV40 Lunch, wird es ein eigened Design geben, da gabs ein netten Satz in der NV40 Ankündigung.

Fadl
2004-05-23, 00:39:32
Original geschrieben von Winter[Raven]
Laut MSI zum NV40 Lunch, wird es ein eigened Design geben, da gabs ein netten Satz in der NV40 Ankündigung.

Wo findet denn das NV40 lunch statt und was wird dort aufgetischt :)

Auf einen evtl. abweichenden Kühler seitens MSI bin ich aber auch gespannt.

Winter[Raven]
2004-05-23, 00:42:02
Ups, habe es in der Zukunftsform gepostet ... sorry :).

Laut MSI zum NV40 Lunch, wird es ein eigened Design geben, da gabs ein netten Satz in der NV40 Ankündigung.

Ich meinte ehe:

Zum NV40 Lunch, gab es von MSI die NV40 Ankündigung, man meinte das Kühldesign wäre leiser und für höhere Taktung geeignet.

Fadl
2004-05-23, 00:45:24
Original geschrieben von Winter[Raven]
Ups, habe es in der Zukunftsform gepostet ... sorry :).



Ich meinte ehe:

Zum NV40 Lunch, gab es von MSI die NV40 Ankündigung, man meinte das Kühldesign wäre leiser und für höhere Taktung geeignet.

Ich meinte eigentlich eher das du "lunch" geschrieben hast :)

SKYNET
2004-05-23, 03:04:10
Original geschrieben von IC-Burn
@MarcWessels

Kann sein aber ich mach an keiner Karte für 500€ ein VoltMod :bäh:


pussy...

ist jawohl sooooooooooo ladde ob bei ner 100€ karte, bei ner 300€ karte oder 500€ karte... mod ist mod, und wennse abraucht raucht se ab.

misterh
2004-05-23, 03:35:56
Original geschrieben von SKYNET
pussy...

ist jawohl sooooooooooo ladde ob bei ner 100€ karte, bei ner 300€ karte oder 500€ karte... mod ist mod, und wennse abraucht raucht se ab.

Wenn du zuviel Geld hast, dann tu das. :)

IC-Burn
2004-05-23, 09:11:41
@ SKYNET


Ich geb dir gleich mal Pussy :asshole:


Da muss ich misterh Recht geben mach was du willst.
Aber Laber net so ein Dreck....
----------------------------------------------------



Ich Denke das ich mir die 6800U von Leadtek hole die is net so Teuer wie der Rest un wegen der Kühlung is mir e egal weil meine wakü druf kommt.

ShadowXX
2004-05-23, 11:50:27
Mal als Frage:

Was waren denn bis jetzt empfehlenswerte Kartenbauer bei nV??
(damit ist jetzt MSI, Club 3D, AOpen, Gainward, etc. gemeint)

Bei ATI wars ja (fast) egal, von wem man sich die Karte gekauft hat.

Gibt es also einen besonders schlechten Kartenhersteller bzw. einen besonders guten bei nV??

Ich frage nur, da man wohl zuerst Karten nur übers I-Net bekommt und ich mich bei den Kartenherstellern für nV-Chips nicht so auskenne (was schmonk ist und was nicht)...

P.S.
momentan habe ich die Club3D und die Leadtek in die nähere Wahl gezogen....

Thowe
2004-05-23, 12:36:50
Könnten gewisse Herren aufhören hier Pussy-Spielchen zu treiben, hier wird diskutiert, wer jemanden anmachen will, der soll auf die Straße gehen und dort nach P. ausschau halten.

r@h
2004-05-23, 15:48:16
Original geschrieben von Gast
Jetzt zieht Manni nicht so auf. Klar haben beide Chips unterschiedliche Architektren, aber warum sollte man die Rohdaten nicht doch vergleichen können, wenn man ja anhand bekannter Benchmarks sich ohnehin schon ungefähr ein Bild der tatsächlichen Leistungsfähigkeit von nicht erschienen Chips machen kann. Kann man eben nicht... das ist ja der Punkt.

Man könnte sogar schon fast soweit gehen, dass bisher ALLE Benchies für'n anus waren und unter 'kontrollierten' Bedingungen wiederholt werden sollten, um eben eine tatsächliche Vergleichbarkeit (wenn so etwas möglich sein sollte) zu gewährleisten.

Razor

P.S.: manni hat nur Pech gehabt, mit einer völlig an der Realität vorbei gehenden Argumentation zu vesuchen, vom eigentlich Punkt abzukommen... ;)

r@h
2004-05-23, 15:49:54
Original geschrieben von Gas3t
Die Vergleichbarkeit ist durch den empfohlenen Verkaufspreis gegeben:

<snappel>Nein.
Wir reden hier von vergleichbaren Leistungsklassen... nicht von vergleichbaren Preisklassen.

Razor

r@h
2004-05-23, 15:52:46
Original geschrieben von Sphinx
Ein immer noch nicht gefixter Treiber oder Patch der dann einen realen NV4x Pfad nutzt vielleicht ?Nein, einfach die DX9c-Beta auf einem System mit NV40 und FC1.1 installieren und einfach mal das Spiel starten. Mehr sollte nicht notwendig sein...
Original geschrieben von Sphinx
Quelle: http://www20.tomshardware.com/graphic/20040504/ati-x800-37.html

Warten wir ab diese "kleinigkeiten" denn "bald" gefixt werden. Und wann kommt überhaupt der DX9.0c Patch ? Willst Du es nicht verstehen ?
:???:

Der NV40 (i.e. SM3.0) Pfad braucht DX9c !
Mann, mann, mann...

Razor

r@h
2004-05-23, 15:57:22
Original geschrieben von DanMan
Und zum Thema Brilinear: Die jüngst entdeckte Optimierung gibts bei ATI schon seit Cat3.4 oder so laut ATI persönlich. Nvidia hat sich nur nicht so geschickt beim verstecken dieser angestellt und sind deshalb glaich aufgeflogen. Man sollte auch erwähnen, dass die "Bri"-Optimierung bei nVidia mit ALLEN Modellen der FX-Serie kam (also schon mit FX5800). Bei ATI hingegen ist's nur der RV360 gewesen und eben jetzt beim R420. In einer Preisklasse der RV360 (noch DX8-Klasse) schaut eben keiner auf die BQ... behaupte ich mal... ;)

Razor

Sphinx
2004-05-23, 16:08:36
Original geschrieben von r@h
Nein, einfach die DX9c-Beta auf einem System mit NV40 und FC1.1 installieren und einfach mal das Spiel starten. Mehr sollte nicht notwendig sein...
Willst Du es nicht verstehen ?
:???:

Der NV40 (i.e. SM3.0) Pfad braucht DX9c !
Mann, mann, mann...

Razor

Aha sind solche Fehler nicht ein Resultat aus der Verwendung von FP16 vs FP24/FP32 anzusehen...

Edit : Wann soll denn DX9.0c erscheinen ?

Um mal vom herbeiersehnten PS3.0 Gebrauch abzusehen... Was rendert die NV3x Series in diesem Link ? Und dafür exisitiert ein spezieller NV3x Pfad...

Mir geht es darum das solche "Kleinigkeiten" Gravierender sind wenn ich "morgen" mir eine GF68oo Ultra zulegen sollte als die BRI Filterungsdiskussionen - "Ich sehe dich als "ÜBELST BQ" an"...

Verstehst du den Zusammenhang.

Gast
2004-05-23, 16:36:28
Original geschrieben von Sphinx
Aha sind solche Fehler nicht ein Resultat aus der Verwendung von FP16 vs FP24/FP32 anzusehen...Nicht, dass ich wüsste...
Hast Du denn Belege dafür ?

Fakt ist, dass CryTec diese 'Fehler' erst eingebaut hat, mit diesem Patch dann aber auch die SM3.0-Unterstützung bereit gestellt wurde, die magels DX9c aber noch nicht zu aktivieren war...
Original geschrieben von Sphinx
Edit : Wann soll denn DX9.0c erscheinen ?Im neuesten Beta-SP2 für WinXP ist es schon enthalten (und dort als 'final' gekennzeichnet ;-).
Wann M$ dies nun via separatem DL auf dem Markt zu bringen gedenkt ?
Keine Ahnung !
Frag' M$...
:D
Original geschrieben von Sphinx
Um mal von herbeiersehnten PS3.0 Gebrauch abzusehen... Was rendert die NV3x Series in diesem Link ? Und dafür exisitiert ein spezieller NV3x Pfad...Könntest Du die Frage nochmal stellen ?

Falls Du die Existenz des NV3x-Pfad im allgemeinen meinst, frag' hier bitte CryTec, warum sie so etwas gemacht haben. Mir hat die Performance unter FC1.0 vollkommen ausgereicht...
Original geschrieben von Sphinx
Mir geht es darum das solche "Kleinigkeiten" Gravierender sind wenn ich "morgen" mir eine GF68oo Ultra zulegen sollte als die BRI Filterungsdiskussionen - "Ich sehe dich als "ÜBELST BQ" an"...Wie jetzt ?
Du willst diesen Murks, den CryTec da veranstaltet hat, jetzt auf die gesamte Real-World beziehen ?
Kann doch wohl nicht Dein ernst sein, oder ?
:???:

Wenn DX9c da ist (entweder jetzt aus dem SP2-Beta oder eben später via offiziellen M$-DL), dann hat sich dieses 'Problem' (welches aufgrund der noch-nicht-Verfügbarkeit des NV40 ja eigentlich keines ist) in Luft aufgelöst. Und auch Du wirst dann erkennen, dass Du hier aus 'ner Mücke einen Elefanten gemacht hast.
Original geschrieben von Sphinx
Verstehst du den Zusammenhang. Nein, beileibe nicht.

Razor

P.S.: Wenn man diese 'häßlichen' Shader-Optimierungen für die NV3x in der Version 1.1 los werden will, einfach die 'Shaders1.pak' löschen (vorher aber bitte auf 'very high' stellen ;-) und in den 'Cache'-Unterverzeichnissen unter "<prog-dir>\Shaders\HWScripts\Declarations" den kompletten Inhalt löschen.

Gast
2004-05-23, 16:58:16
Original geschrieben von r@h
Nein.
Wir reden hier von vergleichbaren Leistungsklassen... nicht von vergleichbaren Preisklassen.

Razor

Das sagst du. Dann wirst du aber nie auf einen Nenner kommen, da sich die Leistung der Karten einfach zu unterschiedlich verhält (je nach Spiel, Einstellung usw.). Deswegen wird sich der Käufer nach den Preisen, und was bei diesen an Leistung geboten wird, richten.

seahawk
2004-05-23, 17:01:13
Original geschrieben von ShadowXX
Mal als Frage:

Was waren denn bis jetzt empfehlenswerte Kartenbauer bei nV??
(damit ist jetzt MSI, Club 3D, AOpen, Gainward, etc. gemeint)

Bei ATI wars ja (fast) egal, von wem man sich die Karte gekauft hat.

Gibt es also einen besonders schlechten Kartenhersteller bzw. einen besonders guten bei nV??

Ich frage nur, da man wohl zuerst Karten nur übers I-Net bekommt und ich mich bei den Kartenherstellern für nV-Chips nicht so auskenne (was schmonk ist und was nicht)...

P.S.
momentan habe ich die Club3D und die Leadtek in die nähere Wahl gezogen....

Ich würde bei NV immer als erstes MSI nennen. Da habe ich nur gute Karten gesehen. Gainward ist gut aber leider etwas zu teuer. Bei Aopen und Albatron macht man nichts verkehrt, man muss sich aber vorher über den verwendeten Kühler genau informieren.

Den test kennst Du von ATI. (ASUS; Gigabyte, ..)

Gast
2004-05-23, 17:27:19
Original geschrieben von r@h
Man sollte auch erwähnen, dass die "Bri"-Optimierung bei nVidia mit ALLEN Modellen der FX-Serie kam (also schon mit FX5800). Bei ATI hingegen ist's nur der RV360 gewesen und eben jetzt beim R420. In einer Preisklasse der RV360 (noch DX8-Klasse) schaut eben keiner auf die BQ... behaupte ich mal... ;)

Razor

RV360 = 9600XT = DX8?

Gast
2004-05-23, 18:20:43
bullshit

Gast
2004-05-23, 18:23:33
ehm ihr bezieht euch immer noch auf diese bilder die NVidia da mal bei der 6800 Präsentation bereitgestellt hat ?

Das angeblich FarCry imt PS3.0 darstellen sollte und sich dann aber als vergleich ihrer alten KArte mit PS1.1 ( FX) und der neuen mit PS2.0 war ?

Wenn ja dann viel spass :)


auf jeden fall wird die Performance der 6800 beim nächsten ´patch einen zweistelligen Prozentschritt nach unten machen wenn dann auch diese Karten mit PS2.0 laufen werden.

IC-Burn
2004-05-23, 19:33:24
@ gast


Ohh man wieder so einer ........

Wen du kein plan von Grakas hast dan halte dich auch raus un labert net


EXRTA NOCH MA FÜR DICH


Kuck mir ma das genu an das is kein PS2.0 sondern PS3.0 hättest du dir das giga video oder das von der 6800 Präsentation genauer angekuckt !!! Ich weiß es meine XT hat 2.0 un das is net so wie mit 3.0 !!


Un der Satz

"zweistelligen Prozentschritt nach unten machen wenn dann auch diese Karten mit PS2.0 laufen werden"


Ohh man !!! ... Also ein Game leuft mit PS2.0 aber die Karte hat PS3.0 dann is es trozdem schneller weil der PS3.0 viel leichter den PS2.0 rechen kann !!!!!

Gast
2004-05-23, 19:38:23
Original geschrieben von IC-Burn
@ gast



Ohh man !!! ... Also ein Game leuft mit PS2.0 aber die Karte hat PS3.0 dann is es trozdem schneller weil der PS3.0 viel leichter den PS2.0 rechen kann !!!!!

vielleicht hätte er jemanden fragen sollen der sich damit auskennt :)

rofl

ShadowXX
2004-05-23, 20:07:31
Original geschrieben von seahawk
Ich würde bei NV immer als erstes MSI nennen. Da habe ich nur gute Karten gesehen. Gainward ist gut aber leider etwas zu teuer. Bei Aopen und Albatron macht man nichts verkehrt, man muss sich aber vorher über den verwendeten Kühler genau informieren.

Den test kennst Du von ATI. (ASUS; Gigabyte, ..)

Danke...

Dann werd ich mal auf die ersten Preise von MSI warten....

MarcWessels
2004-05-23, 21:15:51
In der c't werden sie auch sicherlich wieder die verschiedenen Karten von Gainward, MSI und Co gegeneinanderstellen. Dabei geht's u.a. ja auch um die Geschwindigkeit denn nicht jede Karte ist gleichschnell.

MarcWessels
2004-05-23, 21:17:13
Original geschrieben von Gast
Wann M$ dies nun via separatem DL auf dem Markt zu bringen gedenkt ?
Keine Ahnung !
Frag' M$...
:D

Man kann's schon downloaden (wenn auch nicht bei MS)... :)

Sphinx
2004-05-24, 06:36:11
Original geschrieben von r@h
Nein, einfach die DX9c-Beta auf einem System mit NV40 und FC1.1 installieren und einfach mal das Spiel starten. Mehr sollte nicht notwendig sein...


Damit du dann eventuell einsehen wirst das durch den reinen Einsatz von PS 3.0 die NV40 langsamer laufen wird als sonst... (PS2.)? *ja die vöglein zwitschern wieder !sehe es als spekulation meinerseits an!

Original geschrieben von r@h
Willst Du es nicht verstehen ?
:???:


Ich verstehe das die Gesamte NV Familie Probleme mit der FarCry Engine hat (NV3x + NV4x). Qualitätstechnisch = "Bildqualität"

Original geschrieben von r@h
Der NV40 (i.e. SM3.0) Pfad braucht DX9c !
Mann, mann, mann...

Razor

Um es höflich Auszudrücken - Zur Verständniss : Diese groben Rasterungen auf der Lichtquelle(Als Bsp. welches THG hier zeigt...) würde mich mehr Stören als die Diskussionen um Bri vs Tri <- Nur um meinen Standpunkt als Spieler mal klarzustellen... .Und bitte sage mir nicht das dieser Fehler durch den Einsatz der DX9.0c Runtimes gefixt wird...

Grestorn
2004-05-24, 06:48:41
Original geschrieben von Sphinx
Um es höflich Auszudrücken - Zur Verständniss : Diese groben Rasterungen auf der Lichtquelle(Als Bsp. welches THG hier zeigt...) würde mich mehr Stören als die Diskussionen um Bri vs Tri <- Nur um meinen Standpunkt als Spieler mal klarzustellen... .Und bitte sage mir nicht das dieser Fehler durch den Einsatz der DX9.0c Runtimes gefixt wird...

Ich weiß ja nicht, wie oft es noch wiederholt werden muss, damit Du es auch verstehst:

Die Fehler in der Darstellung von FC werden *nicht* durch Mängel der nVidia Grafikkarten oder deren Treiber verursacht, sondern durch Änderungen in FC selbst, die in Version 1.1 eingeführt wurden.

1.0 zeigt die Mängel nicht, und deswegen ist jegliche Diskussion über "nVidia kommt mit FC nicht klar" völlig überflüssig. Dass Du ständig darauf herumreitest zeigt doch nur, wie verzweifelt Du nach Gründen suchst, den Dir verhassten Hersteller niederzumachen.

Es íst völlig klar, dass es eine FC Version geben wird, die optisch auf NV40 mindestens die selbe Qualität erreichen wird wie auf R3xx oder R4xx. Über die Performance lässt sich zum jetzigen Zeitpunkt noch absolut gar keine Aussage treffen.

Lasst FC bis es so weit ist doch endlich in Frieden ruhen!

Sphinx
2004-05-24, 06:58:09
Nochmals für dich : Ich verstehe das die Gesamte NV Familie Probleme mit der FarCry Engine hat (NV3x + NV4x). Qualitätstechnisch = "Bildqualität"

^^ Damit meine ich nicht nur die NV4x.

Ok vielleicht hätte ich ab FC1.1 erwähnen sollen (welches ich selbstverständlich weiß und dies eventuell durch ein weiteres CryTekPatch behoben wird wer weiß...) aber bitte mit FC1.0 ist ein Performanceverlust hinzunehmen bei Korrekter BQ der NV3x...

Edit : Ich mißbrauch FC um es zu veraunschaulichen Solche Bugs stören "mich mehr" - als Bri/Tri. Verstanden damit du den Zusammenhang meiner Postings mitverfolgen kannst.

Grestorn
2004-05-24, 07:01:08
Original geschrieben von Sphinx
Ok vielleicht hätte ich ab FC1.1 erwähnen sollen (welches ich selbstverständlich weiß und dies eventuell durch ein weiteres CryTekPatch behoben wird) aber bitte mit FC1.0 ist Performanceverlust hinzunehmen...

Ja und? Dass die NV3x mit FC massive Probleme hat, ist bekannt.

Welche Performance die NV40 mit FC 1.0 hat ist schlicht unbekannt, da es keinen Treiber gibt, der sowohl mit der NV40 als auch mit FC 1.0 arbeitet.

Sphinx
2004-05-24, 07:03:29
Hab was editiert in meinem oberen Posting ^^

Edit : Ich mißbrauch FC um es zu veraunschaulichen Solche Bugs stören "mich mehr" - als Bri/Tri. Verstanden damit du den Zusammenhang meiner Postings mitverfolgen kannst.

Es geht nur um eine Standpunkt Diskussion.

Grestorn
2004-05-24, 07:12:58
Original geschrieben von Sphinx
Ich mißbrauch FC um es zu veraunschaulichen Solche Bugs stören "mich mehr" - als Bri/Tri. Verstanden damit du den Zusammenhang meiner Postings mitverfolgen kannst.

Völlig klar. Wenn sich herausstellen sollte, dass der NV40 mit FC und anderen Spielen dauerhaft derartige Probleme hätte, würde er sich völlig disqualifizieren.

Aber ist es nicht noch etwas früh, jetzt einen solchen Schluss zu ziehen?

Am Anfang kam die R9700Pro absolut nicht klar mit Gothic2 (Bug im Treiber, der durch eine Einstellung in Gothic2 umgangen werden konnte, was aber unglaublich viel Performance kostet). Deswegen habe ich damals die 9700Pro meiner Freunding gegeben und mir selbst ne FX5900 geholt. Inzwischen ist das gefixt (so weit ich weiß). So etwas kommt immer wieder vor und sollte einer Karte nicht über Gebühr angelastet werden (wenn es behoben wird).

Sphinx
2004-05-24, 07:19:03
Original geschrieben von grestorn
Am Anfang kam die R9700Pro absolut nicht klar mit Gothic2 (Bug im Treiber, der durch eine Einstellung in Gothic2 umgangen werden konnte, was aber unglaublich viel Performance kostet). Deswegen habe ich damals die 9700Pro meiner Freunding gegeben und mir selbst ne FX5900 geholt. Inzwischen ist das gefixt (so weit ich weiß). So etwas kommt immer wieder vor und sollte einer Karte nicht über Gebühr angelastet werden (wenn es behoben wird).

Die Diskussion ist selbstverständlich verfrüht auf die NV4x Bezogen - alleine dadurch das *SPEKULATION* ja die Vögel wieder... * DX9.0c 3|4 Qurtal 2004... erscheinen soll Also in einem Zeitrahmen von Jetzt ab 3Monaten (Sept.) ->Max. 6 Monaten (Dez.). klingt auch logisch da es noch keine 100% erwerblichen GF6800Ultras aufgetaucht sind.

VooDoo7mx
2004-05-24, 16:58:05
Original geschrieben von grestorn
Ich weiß ja nicht, wie oft es noch wiederholt werden muss, damit Du es auch verstehst:

Die Fehler in der Darstellung von FC werden *nicht* durch Mängel der nVidia Grafikkarten oder deren Treiber verursacht, sondern durch Änderungen in FC selbst, die in Version 1.1 eingeführt wurden.

1.0 zeigt die Mängel nicht, und deswegen ist jegliche Diskussion über "nVidia kommt mit FC nicht klar" völlig überflüssig. Dass Du ständig darauf herumreitest zeigt doch nur, wie verzweifelt Du nach Gründen suchst, den Dir verhassten Hersteller niederzumachen.

Es íst völlig klar, dass es eine FC Version geben wird, die optisch auf NV40 mindestens die selbe Qualität erreichen wird wie auf R3xx oder R4xx. Über die Performance lässt sich zum jetzigen Zeitpunkt noch absolut gar keine Aussage treffen.

Lasst FC bis es so weit ist doch endlich in Frieden ruhen!

Super! Besser hätte ich es nicht ausdrücken können! :up:
Ich frag mich warum immer wieder Fart Cry ins Spiel gebracht wird.

1.Gibt es bis heute keine NV40 Karte in Deutschland zu kaufen.
2.Gibt es noch keinen offiziellen Treiber von nVidia für den NV40
3.Gibt es noch keinen offiziellen DX9c Download
4.Far Cry 1.2 ist noch nicht erschienen

Wenn all diese Punkte eingetreten sind und Fart Cry läuft dann immer noch so unzufriedenstellend wie jetzt auf dem NV40, dann, ja dann kann man berechtigt über den NV40 wettern.
Alles andere sehe ich nur als Spam und Realitsverlust des jeweiligen Autor des jeweiligen Posts.

r@w
2004-05-24, 17:17:15
Original geschrieben von Sphinx
Die Diskussion ist selbstverständlich verfrüht auf die NV4x Bezogen - alleine dadurch das *SPEKULATION* ja die Vögel wieder... * DX9.0c 3|4 Qurtal 2004... erscheinen soll Also in einem Zeitrahmen von Jetzt ab 3Monaten (Sept.) ->Max. 6 Monaten (Dez.). klingt auch logisch da es noch keine 100% erwerblichen GF6800Ultras aufgetaucht sind. Du meinst also, dass es noch 3 Monate dauert, bis NV40'er erscheinen ?
Na ja, ist wohl eher Wunschdenken, was ?
:D

Und by the way... DX9c scheint mit dem SP2 für WinXP zu kommen. Und das wiederum würde eine Verfügbarkeit im nächsten Monat (Juni) suggerieren. DAS ist dann vermutlich auch etwas realistischer, als Q3/4 (eigentlich noch dieses Jahr ;-)... nämlich Q2/2004.

Auf jeden Fall ist DX9c schon 'final' im gerade erst kürzlichst verfügbaren RC vom WinXP SP2.
Und ich hoffe inständig, dass die Leutz hier wissen, was 'final' bedeutet...
;D

Razor

P.S.: hab' für heute genug getan... werd' mich hier mal vom Acker machen.
...von der Arbeit selbstredend ;)

r@w
2004-05-24, 17:18:36
Original geschrieben von VooDoo7mx
4.Far Cry 1.2 ist noch nicht erschienenDas wird es wohl auch nicht brauchen...
;-)

Razor

P.S.: so, nu' aber :weg:

ice cool69
2004-05-25, 02:02:59
Sobald der Far Cry Shader 3.0-Patch draußen ist will doch keiner mehr das Game in der 2.0-Version mehr spielen.

Naja wie auch immer, ich hoffe der NV40 kann von der Performance her mit ATI gleichziehen, dann kauf ich mir eben diesen NV40, ansonsten warte ich auf die nächste Generation.

deekey777
2004-05-25, 10:55:29
Original geschrieben von ice cool69
Sobald der Far Cry Shader 3.0-Patch draußen ist will doch keiner mehr das Game in der 2.0-Version mehr spielen.

Naja wie auch immer, ich hoffe der NV40 kann von der Performance her mit ATI gleichziehen, dann kauf ich mir eben diesen NV40, ansonsten warte ich auf die nächste Generation.

Der Patch mit dem NV40 Pfad ist doch schon draussen - nur lässt DX9.0c auf sich warten. Darum gibt es auch Unterschiede zum R300 Pfad, da Stellen, die mit PS 3.0 gerendert/berechnet werden sollten, scheinbar mit PS 1.1 berechnet werden, was zu den Ähnlichkeiten mit dem NV30 (Patch 1.1!) führt.

Nachtrag: Eine 6800 lässt auch etwas auf sich warten. ;)

Nachtrag Nr. 2: Irgendwie scheint die Crytec GmbH selbst nicht zu wiseen, was sie tut. In der Readme des Patch 1.1 steht deutlich, dass dieser die NV 40 Unterstützung und die damit verbundene PS 3.0 Unterstützung mit sich bringt. Der am Mittwoch erschenende Patch 1.2 bringt wieder den PS 3.0 Support (und virtuelles DM) für die HW, die das SM 3.0 unterstützt.

Leslie Nielson ist :verd:

robbitop
2004-05-25, 11:16:50
warum hat es noch niemand mit der beta von DX9.0c ausprobiert?

deekey777
2004-05-25, 11:35:36
Original geschrieben von robbitop
warum hat es noch niemand mit der beta von DX9.0c ausprobiert?

Hat man schon (keine Ahnung, wer es war oder wer es gepostet hat - es war aber ein Guru oder ein Mod - steht auch irgendwo in diesem Thread), einen sichtbaren Unterschied soll es aber nicht geben. Da aber die DX9.0c Beta jetzt "frei" verfügbar ist, braucht man eine 6800 Ultra (und FC selbst). Vielleicht traut sich niemand.

ow
2004-05-25, 11:41:13
Original geschrieben von robbitop
warum hat es noch niemand mit der beta von DX9.0c ausprobiert?

Weil's illegal ist?

Exxtreme
2004-05-25, 11:46:11
Original geschrieben von ow
Weil's illegal ist?
Ich glaube, das ist nicht der Grund warum die Leute es nicht ausprobieren. Ich teste diese Beta aber auch nicht weil ich keine Lust habe ggf. neu formatieren zu müssen weil diese Beta vielleicht irgendwas zerschiesst. Und Reparaturmöglichkeiten bei Windows sind schlicht nicht vorhanden.

deekey777
2004-05-25, 11:46:37
Original geschrieben von ow
Weil's illegal ist?

Wenn man erwischt wird, schon. :D
Im Ernst: Im zZ aktuellesten SP 2 RC (oder so) ist DX9.0c (final?) schon drin, und am Mittwoch wird schon der SP 2 RC 2 zum Download angeboten. Wie gesagt, nur die 6800er fehlt.

Gas3t
2004-05-25, 14:05:30
Infos zum neuen FarcryPatch:

http://www.farcryfiles.com/news/Far_Cry_Patch_12_Details;9783

Soll wohl am Mittwoch erscheinen.

Kakarot
2004-05-25, 14:05:55
Original geschrieben von deekey777
Wie gesagt, nur die 6800er fehlt.
http://www.vr-zone.com/?i=837&s=1

Gas3t
2004-05-25, 14:09:09
Original geschrieben von Gas3t
Infos zum neuen FarcryPatch:

http://www.farcryfiles.com/news/Far_Cry_Patch_12_Details;9783

Soll wohl am Mittwoch erscheinen.

Sehe gerade, dass die Liste schon etwas älter ist und am Mittwoch erstmal eine Ankündigung erfolgen soll:

http://www.driverheaven.net/#article_13841

deekey777
2004-05-25, 20:51:37
Overview MSI GeForce NX6800 Ultra 256MB TV VIVO DVI AGP Video Card (http://www.adosystems.net/msi6800.html)

Currently priced at: $610.00

LovesuckZ
2004-05-25, 21:16:33
http://www.beyond3d.com/forum/viewtopic.php?t=12744

Gast
2004-05-25, 21:19:04
Original geschrieben von LovesuckZ
http://www.beyond3d.com/forum/viewtopic.php?t=12744

"This BIOS is for GeForce 6800Ultra, P201, Dual DVI-I, TV-out, 425/550 board. Please note that NV don't warrant to run over 400MHz."

Overlocking.

Winter[Raven]
2004-05-25, 23:11:43
@ LOVE

Du warst schneller ^^... wollt grad das selbe posten.

Interessant, 420 mhz für den NV40 ... :)

Hab ich nicht mal Prophezeit ein neues Bios für eine gewisse Höhertaktung würde kommen?

Fadl
2004-05-25, 23:30:55
Original geschrieben von Winter[Raven]
@ LOVE

Du warst schneller ^^... wollt grad das selbe posten.

Interessant, 420 mhz für den NV40 ... :)

Hab ich nicht mal Prophezeit ein neues Bios für eine gewisse Höhertaktung würde kommen?

Dieses Bios wird nicht durch die Garantie abgedeckt. Also ist es wohl auch nicht wirklich offiziell.

nggalai
2004-05-25, 23:47:46
Original geschrieben von Fadl
Dieses Bios wird nicht durch die Garantie abgedeckt. Also ist es wohl auch nicht wirklich offiziell. Doch--ist für die AIB, welche höher getaktete NV40 vertreiben wollen, z.B. weil sie eine eigene Kühllösung verwenden. NVIDIA übernimmt einfach keine Garantie, weil halt die ausgelieferten Chipsets nicht auf > 400MHz spezifiziert sind.

Ob's dabei um die Ultra, Non-Ultra oder GT geht, ist allerdings eine andere Frage. ;)

93,
-Sascha.rb

Fadl
2004-05-26, 10:55:57
Original geschrieben von nggalai
Doch--ist für die AIB, welche höher getaktete NV40 vertreiben wollen, z.B. weil sie eine eigene Kühllösung verwenden. NVIDIA übernimmt einfach keine Garantie, weil halt die ausgelieferten Chipsets nicht auf > 400MHz spezifiziert sind.

Ob's dabei um die Ultra, Non-Ultra oder GT geht, ist allerdings eine andere Frage. ;)

93,
-Sascha.rb

Mal abwarten welcher Hersteller ihre Karten höher takten lässt. Ist das Bios eigentlich schon irgendwo zu bekommen?

Die Asus Karte wird wohl darauf verzichten. Denn ihr Kühler scheint nun doch nur ein single Slot zu sein wie diese Bilder von Hartware.de zeigen:

http://gfx.turtled.com/n/36000/36493_2b.jpg

Damit wäre Asus wohl der erste Hersteller der einen anderen(flacheren) Kühler bei den Ultra Modellen verbaut.

Eine gezeigte Innovision hat jedenfalls den Referenz Kühler verbaut. Siehe:

http://gfx.turtled.com/n/36000/36493_1b.jpg

Winter[Raven]
2004-05-26, 11:00:52
Das von dir gepostete Bild von ASUS ist eine 6800 GT ;). Für die Ultra verwendet ASUS 2 Slot Ding.

Fadl
2004-05-26, 11:05:35
Original geschrieben von Winter[Raven]
Das von dir gepostete Bild von ASUS ist eine 6800 GT ;). Für die Ultra verwendet ASUS 2 Slot Ding.

Dann ist das bei Hartware.de falsch angegeben. Wundert mich jedoch das Asus dann scheinbar die Ultra Platine verwendet(und dafür dann bestimmt extra kassieren will).
Wo sieht man denn die Asus Ultra Karte?

Winter[Raven]
2004-05-26, 11:10:24
Musst mal suchen, ich hab kein Link derzeit, aber der Kühler sieht genauso aus wie auf der GT nur etwas "höher".

Loknar
2004-05-26, 11:40:13
ein paar neue Infos von Gainward:

This is to inform you that we will start shipping all GeForce 6800, 6800 GT and 6800 Ultra products right after COMPUTEX beginning/middle of June. As allocation is pretty tight in June/July/August please place your orders NOW.



Our Ultra/2600 “Golden Samples” (6800 Ultra) is almost sold out in June/July.



Due to the pre-order situation and tight allocation we are forced to increase pricing in June/July.

All orders placed in May will be accepted at current pricing.

Gainward Europe GmbH
Bussardstraße 5
82166 Gräfelfing / München

+49 89 89 899 - 0
+49 89 89 839 196 Fax

robbitop
2004-05-26, 11:56:38
nein die 1-Slotkarte ist DEFINITIV eine Ultra ...schaut mal wieviele Stromstecker sie hat ;)

DrumDub
2004-05-27, 11:20:17
Trotz anderslautender Meldung wurden die Taktraten aber seltsamerweise nicht automatisch verringert. Ein problemloser Betrieb war danach nicht mehr möglich. Der Grafikbenchmark 3DMark03 stürzte zum Beispiel schon beim ersten Test ab. Dabei sollte das verwendete AeroCool AeroPower II+ 450 Watt Netzteil absolut ausreichend sein. Außerdem wurde wie gefordert auch der eine Stromanschluss mit einem sonst nicht verwendeten Strang direkt mit dem Netzteil verbunden.
http://www.hartware.net/review_400_12.html

also ist der zweite stromanschluss definitiv notwending, damit die 6800u richtig funktioniert.

robbitop
2004-05-27, 12:12:55
jap das schon aber es genügt ein Strang am NT -> Y-Kabel.
Das Design des Boards ist einfach so ausgelegt.

Gast
2004-05-27, 14:12:58
Original geschrieben von robbitop
jap das schon aber es genügt ein Strang am NT -> Y-Kabel.
Das Design des Boards ist einfach so ausgelegt.

Man sollte schon 2 Kabelstränge benutzen, damit alles in den Specs liegt. In der Praxis wird auch einer ausreichen, aber dann nicht rumheulen wenn ein Kabel kockelt.:finger:

deekey777
2004-05-27, 14:56:10
Hoffentlich noch nicht gepostet.
PCGH-Testlabor: neue MSI-Flaggschiffe (http://www.pcgames.de/?article_id=315982)

Und was soll dieser Post? Ganz einfach: Definitiv keine "Ein-Slot"-Kühlung bei der MSI NX(?) 6800 Ultra (siehe Bilder). Schade!

reunion
2004-05-27, 15:10:04
Original geschrieben von deekey777
Hoffentlich noch nicht gepostet.
PCGH-Testlabor: neue MSI-Flaggschiffe (http://www.pcgames.de/?article_id=315982)

Und was soll dieser Post? Ganz einfach: Definitiv keine "Ein-Slot"-Kühlung bei der MSI NX(?) 6800 Ultra (siehe Bilder). Schade!

Auch MSI kann keine Wunder vollbringen, ich glaube kaum das irgendein Hersteller die 6800U mit einer halbwegs leisen Ein-Slot Kühlung bringen wird könne...

kami
2004-05-27, 15:12:16
Ein Slot wohl nicht - recht leise ist sie allerdings wohl schon lt. Leo.

Tjell
2004-05-27, 15:41:00
Quatsch mit Soße.

Die ersten Karten der FX5900 waren auch auf Basis des 2-Slot-Designs hergestellt worden.

Die "echte" MSI NX6800er werden mit einigen Wochen Verzögerung mit typischem roten PCB und sicher einer leisen MSI-eigenen Kühllösung auf den Markt kommen.

Ich weiß doch noch, wie ich enttäuscht ich die ersten grünen 5900er abwarten mußte, bis endlich die MSI mit ihrer hervorragenden Kühllösung daherkam.

[dzp]Viper
2004-05-27, 15:45:03
Original geschrieben von reunion
Auch MSI kann keine Wunder vollbringen, ich glaube kaum das irgendein Hersteller die 6800U mit einer halbwegs leisen Ein-Slot Kühlung bringen wird könne...

doch - es gibt eine - ASUS
Die ASUS 6800 ultra ist im 1 slot design. Ob sie leise oder laut ist, kann man aber noch nicht sagen :ratlos:

LovesuckZ
2004-05-27, 15:50:07
Original geschrieben von [dzp]Viper
doch - es gibt eine - ASUS
Die ASUS 6800 ultra ist im 1 slot design. Ob sie leise oder laut ist, kann man aber noch nicht sagen :ratlos:

Gainward benutzt beim NV40U den selben Kühler wie bei den kleineren Karten, jedenfalls sah es danach auf der Messe in Asien so aus.

Welche Karte koennte dies sein:

http://www.pcpop.com/popimages/2004-5-24-13-8-26-5800.jpg

Kühler ist mist, da zu klein (Blatt) und zu hoch (2Slot).

kami
2004-05-27, 15:53:02
Eine GeForce FX. ;D