Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread NV40 (war: NV40 am 14. April)
Seiten :
1
2
3
4
[
5]
6
7
8
9
10
Demirug
2004-04-06, 21:53:07
Original geschrieben von thop
Flyby sollte aber nicht CPU limitiert sein :| Das ist mir alles zu verdächtig.
Alles ist an einer bestimmten Stelle CPU-Limitiert. Es gibt Spezialtreiber um dieses Limit zu finden.
Also bei 1600x1200x4AAx8AF CPU limitiert? :o :| Nur noch eine Woche dann wissens wir :)
Exxtreme
2004-04-06, 21:55:32
Original geschrieben von thop
Exxtreme: :???:
Nix capiché?
Der Flyby-Bench an sich ist weder richtig GPU-, noch CPU-limitiert. Wenn du aber die Auflösung und/oder Qualitätsnichtverringerungsfeatures (was für eine Wortkreation X-D) einschaltest dann wird der Benchmark zunehmend GPU-limitiert. Die Spitzen, an denen der Benchmark nicht GPU-limitiert ist, fallen weg.
Demirug
2004-04-06, 22:02:30
Original geschrieben von thop
Also bei 1600x1200x4AAx8AF CPU limitiert? :o :| Nur noch eine Woche dann wissens wir :)
Nein, sonst müsste der Balken ja in etwas genau so lang sein wie bei dem Ergebniss ohne AA und AF.
Aber das 1024 und 1280 Ergebniss (ohne AA/AF) sieht nach CPU Limitierung aus.
Demirug
2004-04-06, 22:08:45
Das ganze sieht in Summe doch sehr realistisch aus. Mit 16 Textursample pro Takt wird man von einer 6800 etwa die doppelte Fillrate wie von einer 9800 XT erwarten können. UT ist shadertechnisch so anspruchsloss das hier nur die Fillrate und Bandbreite zählt. Solange die Bandbreite reicht um die TMUs unter Dampf zu halten wird eine 6800 eine 9800 leicht um längen schlagen.
NV40 ist eben wohl primär ein Speedupgrade des NV35. Vom Shadermodel 3 war man ja nicht mehr soweit entfernt und hat es eben gleich mitgenommen.
robbitop
2004-04-06, 22:30:19
ah und was ist mit der Granularität, der Burzsize der Caches und den Tempregistern?
sheggy
2004-04-06, 22:36:52
also irgendwie komisch. Guckt doch mal genau hin. zwischen allen Auflösungen gibt es bei kein AF und kein AA so gut wie kein unterschied. Also kannse praktisch in 1600*1200 genauso schnell spielen wie in 1024*768. Normalerweise gibt es da einen unterschied wie ebbe und flut.
Falls das aber echte Werte sein sollten, was ich eher bezweifle, dann bin ich vom nv40 enttäuscht, da er nichtmal doppelt so schnell wie die 9800XT in Spielen zu sein scheint.
Exxtreme
2004-04-06, 22:40:52
Original geschrieben von sheggy
also irgendwie komisch. Guckt doch mal genau hin. zwischen allen Auflösungen gibt es bei kein AF und kein AA so gut wie kein unterschied. Also kannse praktisch in 1600*1200 genauso schnell spielen wie in 1024*768. Normalerweise gibt es da einen unterschied wie ebbe und flut.
CPU-Limitierung ahoi. Das Teil hat soviel Füllrate, daß diese CPU die GraKa selbst bei 1600x1200 nicht versorgen kann.
Original geschrieben von sheggy
Falls das aber echte Werte sein sollten, was ich eher bezweifle, dann bin ich vom nv40 enttäuscht, da er nichtmal doppelt so schnell wie die 9800XT in Spielen zu sein scheint.
CPU-Limitierung again.
Demirug
2004-04-06, 22:41:00
Original geschrieben von robbitop
ah und was ist mit der Granularität, der Burzsize der Caches und den Tempregistern?
Bei dem was UT an Schading betreibt spielen die Tempregister keine Rolle. Die Burstsize sollte bei einem NV40 und R3XX ebenfalls identisch sein. Beide nutzen ein 256 Bit Bus. Die Granularität (es sind hier ja nur die TMUs interesant) ist bei beiden ebenfalls gleich.
UT sagt eben recht wenig über die echte Leistung eines Chips aus.
Winter[Raven]
2004-04-06, 22:43:42
Was ich doch interessant finde, ist die rechte untere ecke, da scheint man ein LOGO(?) wegradiert zuhaben, den man sieht deutlich die unterbrechung des schwarzen Randes.
*grübel*
LovesuckZ
2004-04-06, 22:46:50
Original geschrieben von ShadowXX
bei Beyond3D gehen sie auch eher von einem fake aus...
Da die 9800XT zwischen 1024*768 zu 1600*1200 bei 4AA/8QAF nur geringfügig langsamer wird-> Fake.
Sunrise
2004-04-06, 22:49:37
Original geschrieben von Winter[Raven]
Was ich doch interessant finde, ist die rechte untere ecke, da scheint man ein LOGO(?) wegradiert zuhaben, den man sieht deutlich die unterbrechung des schwarzen Randes.
*grübel*
Gutes Auge. Ich hatte mich vorhin schon gefragt, warum der äußere Rahmen unten rechts nicht komplett schließt. Bei genauerem hinschauen sieht man eindeutig, dass etwas rechteckiges fehlt.
Original geschrieben von LovesuckZ
Da die 9800XT zwischen 1024*768 zu 1600*1200 bei 4AA/8QAF nur geringfügig langsamer wird-> Fake.
Ist mir auch schon aufgefallen.
Zuerst habe ich gedacht, dass die 9800 vielleicht dsa AA zurückschaltet, aber das kann ja nicht sein, bei 256 MB, ausserdem wären dann die Ergebnisse sicherlich nicht 100% gleich.
Ergo muss es sich tatsächlich um einen fake handeln...
(del676)
2004-04-06, 23:13:44
hängt von der verwendeten Map ab, Flyby Inferno wird sicher ned so schnell sein :freak:
Ailuros
2004-04-07, 01:06:50
Original geschrieben von Quasar
Sorry, wenn ich jetzt gerade dich als Aufhänger mißbrauche, Ailuros, aber immer dieses "Takt für Takt" geht mir mittlerweile ein wenig auf die Nerven.
Ich kaufe doch keinen Takt, ich kauf ein Produtk mit einer (mir hoffentlich bekannten) Leistung. Der Takt spielt dabei eigentlich eher eine untergeordnete Rolle.
Sinnvoll kann man PS2.0 (und auch andere) Leistung IMO eher pro EURO oder ggf. noch pro Watt messen.
(Ich gebe ja zu, es macht schon Spaß, die Takteffizienz auszubaldowern, aber wirklich sinnvoll ist's halt nicht)
Das Problem ist dass ich die genaue Taktraten noch nicht weiss.
Wie dem auch sei sieht es nicht so aus als ob beide chips grosse Unterschiede in Taktraten haben werden; ich wuerde irgendwo =/>500MHz schaetzen. Gibt es aber einen Fall wo A = 600MHz und B= 500MHz, dann hat (A) in den vorerwaehnten Faellen natuerlich einen Vorteil. Der Haken ist natuerlich dass mir 600MHz als unwahrscheinlich erscheinen bei derartiger Komplexitaet.
Pro Watt waere unfair zur einen Seite IMHO ;)
Ailuros
2004-04-07, 01:09:07
Original geschrieben von LovesuckZ
Falsch. Der NV40 sollte von seiner erhöhten Funktionalitaet profitieren.
Wieso?
ShadowXX
2004-04-07, 07:56:42
Original geschrieben von Ailuros
Wieso?
"könnte" wäre wohl besser...
Ailuros
2004-04-07, 08:41:38
Original geschrieben von ShadowXX
"könnte" wäre wohl besser...
Aendert auch nichts.
Exxtreme
2004-04-07, 09:18:58
Original geschrieben von Ailuros
Wieso?
Es könnte nur dann funktionieren wenn Nvidia Shaderreplacement betreibt und PS2.0-Shader durch optimierte PS3.0-Shader ersetzt. Ansonsten kann ich mir kaum vorstellen, daß das funktionieren könnte.
Original geschrieben von Ailuros
Pro Watt waere unfair zur einen Seite IMHO ;)
Wieso unfair? Wenn die Ingenieure von Firma X es hinbekommen, konkurrenzfähige Leistung bei, sagen wir, 66% Leistungsaufnahme hinzubekommen, haben sie offenbar irgendwas besser gemacht.
Was allerdings irgendwie sinnlos wäre (und auch unfair) sind die Ultra/XT-Varianten. Was da an Überspannung und exorbitanter Kühlung reingehauen wird, ist wirklich ziemlich realitätsfern.
;Q
StefanV
2004-04-07, 11:04:09
Original geschrieben von Gast
Wieso unfair? Wenn die Ingenieure von Firma X es hinbekommen, konkurrenzfähige Leistung bei, sagen wir, 66% Leistungsaufnahme hinzubekommen, haben sie offenbar irgendwas besser gemacht.
Nujo, dann würd nur jeder nV Fan rumheulen, daß man ATI biased ist *eg*
ATI hats bisher irgendwie immer hinbekommen, die kühleren Chips zu designen :|
Demo ohne Keks
2004-04-07, 11:04:25
Original geschrieben von Exxtreme
Es könnte nur dann funktionieren wenn Nvidia Shaderreplacement betreibt und PS2.0-Shader durch optimierte PS3.0-Shader ersetzt. Ansonsten kann ich mir kaum vorstellen, daß das funktionieren könnte.
Nein, Shaderreplacements brauchst du nur wenn du die mathematische Funktion des Shaders veränderts. nVidia macht das aus dem Grund gerne weil ihere Hardware was die Rechenleistung der Grundoperationen (MUL, ADD) unausgewogen ist. nVidia hat meist eine MUL Dominanz. Aus diesem Grund ersetzt man eine Formel gerne durch eine gleichwertige die aber mehr Mulitplikationen nutzt.
Beim 1:1 Umsetzten eines 2.0 Shaders auf 3.0 bleibt als einziges Mittel zur Performancesteigerung das dynamische Branching. Enthält ein Shader entsprechende Compareanweisungen lässt sich das ganz leicht automatisch machen. Ich werde mal schauen ob ich ein gutes Beispiel finde.
ShadowXX
2004-04-07, 11:26:32
Original geschrieben von Demo ohne Keks
Nein, Shaderreplacements brauchst du nur wenn du die mathematische Funktion des Shaders veränderts. nVidia macht das aus dem Grund gerne weil ihere Hardware was die Rechenleistung der Grundoperationen (MUL, ADD) unausgewogen ist. nVidia hat meist eine MUL Dominanz. Aus diesem Grund ersetzt man eine Formel gerne durch eine gleichwertige die aber mehr Mulitplikationen nutzt.
Beim 1:1 Umsetzten eines 2.0 Shaders auf 3.0 bleibt als einziges Mittel zur Performancesteigerung das dynamische Branching. Enthält ein Shader entsprechende Compareanweisungen lässt sich das ganz leicht automatisch machen. Ich werde mal schauen ob ich ein gutes Beispiel finde.
Aber doch nur, wenn der Shadercode zu Laufzeit compiliert wird...wenn er nur als PS2.0 Code vorliegt (fest reincompiliert), müsste man die Shader ersetzen...oder??
Demirug
2004-04-07, 13:06:40
Original geschrieben von ShadowXX
Aber doch nur, wenn der Shadercode zu Laufzeit compiliert wird...wenn er nur als PS2.0 Code vorliegt (fest reincompiliert), müsste man die Shader ersetzen...oder??
Man kann auch noch den 2.0 Assemblercode der entsprechenden Mux Anweisungen enthält in einen Shader der Branching nutzt umbauen. Alles was man dafür tun muss ist ein Abhängigkeitsbau aufbauen und diesen dann nach solchen Möglichkeiten durchsuchen. Das ist eigentlich sehr einfach.
Ailuros
2004-04-07, 13:49:05
Original geschrieben von Gast
Wieso unfair? Wenn die Ingenieure von Firma X es hinbekommen, konkurrenzfähige Leistung bei, sagen wir, 66% Leistungsaufnahme hinzubekommen, haben sie offenbar irgendwas besser gemacht.
Oder sie haben bewusst da an Transistoren gespart, die sie als weniger wichtig bei der Entwicklung empfanden. ATI's AF Winkel-abhaengiger Algorithmus ist ein Beispiel.
Hier wurden Transistoren gespart; ist "besser" also nicht eher relativ?
Es war eigentlich ein Schuss Sarkasmus, nur weil ich das Gefuehl habe dass NV40 mehr Strom verbrauchen wird. Es ist aber KEIN Grund fuer mich persoenlich NV40 nicht zu bevorzugen.
Angenommen ich will X Leistung/Qualitaet um meine Ansprueche zu decken, dann ist es mir persoenlich wurscht ob ich diese mit sagen wir mal 100 oder 120W als Beispiel erreiche.
Um nochmal auf das Takt fuer Takt Dingsda zurueckzukommen: R3xx war zweifellos bei gleichen Taktraten effizienter als die Konkurrenz ueberhaupt bei PS2.0. Wenn ich jetzt bezweifle dass im Fall wo z.B. NV40/R420 beide ~500MHz Taktrate haben, der erste keinen besonderen Vorteil mit nur PS2.0 haben koennte, dann sehe ich beim besten Willen keine fehlerhafte Logik und ja Stromverbrauch ist irrelevant.
ShadowXX
2004-04-07, 13:52:55
Original geschrieben von Ailuros
Oder sie haben bewusst da an Transistoren gespart, die sie als weniger wichtig bei der Entwicklung empfanden. ATI's AF Winkel-abhaengiger Algorithmus ist ein Beispiel.
Hier wurden Transistoren gespart; ist "besser" also nicht eher relativ?
Es war eigentlich ein Schuss Sarkasmus, nur weil ich das Gefuehl habe dass NV40 mehr Strom verbrauchen wird. Es ist aber KEIN Grund fuer mich persoenlich NV40 nicht zu bevorzugen.
Angenommen ich will X Leistung/Qualitaet um meine Ansprueche zu decken, dann ist es mir persoenlich wurscht ob ich diese mit sagen wir mal 100 oder 120W als Beispiel erreiche.
Um nochmal auf das Takt fuer Takt Dingsda zurueckzukommen: R3xx war zweifellos bei gleichen Taktraten effizienter als die Konkurrenz ueberhaupt bei PS2.0. Wenn ich jetzt bezweifle dass im Fall wo z.B. NV40/R420 beide ~500MHz Taktrate haben, der erste keinen besonderen Vorteil mit nur PS2.0 haben koennte, dann sehe ich beim besten Willen keine fehlerhafte Logik und ja Stromverbrauch ist irrelevant.
ack...wenn ich mir einen High-End-Chip kaufe und dafür sowieso schon viel zuviel Geld ausgebe, achte ich auf alles Mögliche, aber bestimmt nicht den Stromverbrauch...
Erst recht würde ich deswegen keinen der beiden Bevorzugen...
ShadowXX
2004-04-07, 14:15:59
Original geschrieben von Demirug
Man kann auch noch den 2.0 Assemblercode der entsprechenden Mux Anweisungen enthält in einen Shader der Branching nutzt umbauen. Alles was man dafür tun muss ist ein Abhängigkeitsbau aufbauen und diesen dann nach solchen Möglichkeiten durchsuchen. Das ist eigentlich sehr einfach.
Dies setzt dann aber wohl sehr gute und durchdachte Treiber vorraus...
naja, im Treiberbasteln hat nV ja genug Erfahrung und da die Architektur nicht völlig neu ist, können dann wohl auch Erkenntnisse aus dem nv3x mit einfliessen...
Dann setze ich also auch den Treiber mit auf die Liste der Besonders zu beachtenden Dinge bei den nV reviews...
Zu den Stromverbrauchsdingen (ShadowXX, Ailuros, Stefan Payne):
Wenn sich der Unterschied bei vergleichbarer Leistung bei ein paar Watt bewegt, wie z.B. bei der FX5950 und der R9800p mit 256MB DDR2-RAM, dann sehe ich das so, wie ihr.
Wenn ich aber sehen, daß ein Chip resp. eine Karte sagen wir 50% mehr Leistungsaufnahme hat, dann muss ich mich schon fragen, ob da die Einsparungen des anderen möglicherweise nicht doch sinnvoll gewesen sind.
Um die Kinder mal beim Namen zu nennen, wenn R420 bei 100W dieselbe (nahezu) Leistung bringt, wie der nV40 mit 150W (wie ja spekuliert wird aufgrund einer theoretischen Rechnung), dann ist das für mich auch ein Grund, nV zuu kritisieren. Es sind ja nicht nur 50W mehr, die "reingehen", sondern auch 50W mehr, die irgendwie an die Umgebung abgegeben werden müssen....
Was mich zu einer anderen Speku bringt. =)
Gesetzt den Fall, beide haben ~110-120W zum verbraten, was spräche im Falle des nV40-Bildes mit den zwei Stromanschlüssen, welches im Internet rumgeistert, dagegen, wenn nV sich sagte "wir belasten die billigen 400W-Netzteile in High-End Systemen schon bis an die Grenze, wir machen jetzt alles komplett auf der Karte und nehmen über den AGP gar keine (bzw. minimal mögliche) Leistung auf und decken alles über die beiden Stromanschlüsse?
So könnte man auf 2x65W (abzgl. Reserven von je ca. 10W für zusätzlich ans gleiche Kabel angeschlossene HDDs oder so) für eine Summe von etwa 110W kommen..
Nur mal so als Idee...
Zu den Stromverbrauchsdingen (ShadowXX, Ailuros, Stefan Payne):
Wenn sich der Unterschied bei vergleichbarer Leistung bei ein paar Watt bewegt, wie z.B. bei der FX5950 und der R9800p mit 256MB DDR2-RAM, dann sehe ich das so, wie ihr.
Wenn ich aber sehen, daß ein Chip resp. eine Karte sagen wir 50% mehr Leistungsaufnahme hat, dann muss ich mich schon fragen, ob da die Einsparungen des anderen möglicherweise nicht doch sinnvoll gewesen sind.
Um die Kinder mal beim Namen zu nennen, wenn R420 bei 100W dieselbe (nahezu) Leistung bringt, wie der nV40 mit 150W (wie ja spekuliert wird aufgrund einer theoretischen Rechnung), dann ist das für mich auch ein Grund, nV zuu kritisieren. Es sind ja nicht nur 50W mehr, die "reingehen", sondern auch 50W mehr, die irgendwie an die Umgebung abgegeben werden müssen....
Was mich zu einer anderen Speku bringt. =)
Gesetzt den Fall, beide haben ~110-120W zum verbraten, was spräche im Falle des nV40-Bildes mit den zwei Stromanschlüssen, welches im Internet rumgeistert, dagegen, wenn nV sich sagte "wir belasten die billigen 400W-Netzteile in High-End Systemen schon bis an die Grenze, wir machen jetzt alles komplett auf der Karte und nehmen über den AGP gar keine (bzw. minimal mögliche) Leistung auf und decken alles über die beiden Stromanschlüsse?
So könnte man auf 2x65W (abzgl. Reserven von je ca. 10W für zusätzlich ans gleiche Kabel angeschlossene HDDs oder so) für eine Summe von etwa 110W kommen..
Nur mal so als Idee...
;Q
[dzp]Viper
2004-04-07, 14:54:18
Für mich ist stromverbrauch z.b. nicht irrelevant, da ich meine stromrechnung selberbezahle und nicht mehr bei meinen Eltern wohne ;)
Aber ich denke doch, dass beide Karten sich im 2D betrieb stark runtertakten werden und somit die Leistungsaufnahme deutlich fallen wird.
ironMonkey
2004-04-07, 14:59:51
Einen Sinn kann ich bei 2 Anschlüßen nicht sehen, weil ich kann nicht mehr Ampere auf die Karte jagen als das Kabel vom NT durchlässt, könnte ja aver auch gut sein das Der Chip ne extra versorung bekommt und der 2te für den rest der Karte zustandig ist.
R420 dürfte max. so 100 Watt verbauchen
NV40 dürfte max. so 110 Watt verbrauchen
Wobei das ja schon eine Steigernung von 25 Watt währe bei beiden.
Sowas wie Quiet'n Cool währe nich schlecht.
Gruß
reunion
2004-04-07, 15:04:56
Original geschrieben von ironMonkey
Einen Sinn kann ich bei 2 Anschlüßen nicht sehen, weil ich kann nicht mehr Ampere auf die Karte jagen als das Kabel vom NT durchlässt
Doch kann man :)
Ein Stecker erlaubt max. 5A, mit 2 Steckern hätte man schon 10A...
R420 dürfte max. so 100 Watt verbauchen
NV40 dürfte max. so 110 Watt verbrauchen
Aha, und wie kommt man auf sowas? :naughty:
Sowas wie Quiet'n Cool währe nich schlecht.
Soetwas gibt es ja schon lange bei Grakas =)
DrumDub
2004-04-07, 15:07:58
interessantes aus dem b3d-forum zur beteiligung ehemaliger 3dfx mitarbeiter am nv40:
DaveBaumann
Senior Member
I talked to Emmett and he did have input some into NV25 and more in NV30, but it seems like the texture and shading engine of NV40 is pretty much his puppy.
http://www.beyond3d.com/forum/viewtopic.php?t=11309&postdays=0&postorder=asc&start=4
Demirug
2004-04-07, 15:08:44
In der Regel ist nicht das Kabel der Engpass sondern die Kontakte der Stecker. Aufgrund der Tatsache das es eben nur eine Steckverbindung ist gibt es da ein Limit was man an Strom über eine solche Verbindung verantworten kann bevor die Kontakte abrauchen.
Molex Stecker als solches sind für 6,5A zugelassen. Ich weiss jetzt aber nicht welche Vorgaben es für die Stecker an PC Netzteilen gibt. IIRC hat Zecki mal was von 5A gesagt.
betasilie
2004-04-07, 15:09:05
Original geschrieben von ironMonkey
Einen Sinn kann ich bei 2 Anschlüßen nicht sehen, weil ich kann nicht mehr Ampere auf die Karte jagen als das Kabel vom NT durchlässt, ...
Ein Kabel, bzw. ein Stecker kann genug Strom fließen lassen, aber die Leiterbahnen auf der Platine nicht. Daher werden NV40-Karten zwei Anschlüssen haben.
Mir ist das übrigens Wurst. Ich kaufe mir die schnellste Karte. 10 Watt mehr oder weniger machen den Kohl auch nicht fett.
ShadowXX
2004-04-07, 15:10:56
Original geschrieben von [dzp]Viper
Für mich ist stromverbrauch z.b. nicht irrelevant, da ich meine stromrechnung selberbezahle und nicht mehr bei meinen Eltern wohne ;)
Aber ich denke doch, dass beide Karten sich im 2D betrieb stark runtertakten werden und somit die Leistungsaufnahme deutlich fallen wird.
Gerade weil ich meine Stromrechnung selber bezahle ist mir der Verbrauch egal....ich belaste nur mich damit (Geldlich gesehen) und ich wollte diese Karte dann ja auch haben...
(Glücklicherweise verdiene ich genug Geld...)
@Q:
Ja...kritisieren ist auch völlig ok....aber nur deshalb (zu hoher Stromverbrauch) würde ich die Karte, welche ich kaufen möchte, dann nicht kaufen....
Ich wäre auch dafür, das sich ATI/nV mal gedanken um den Stromverbrauch machen würden...(Intel auch...)
Glücklicherweise fahre ich kein Auto...spart auch ne Menge;D (und vielleicht kann ich mich ja auch irgendwann überwinden mit dem Rauchen aufzuhören...)
MadManniMan
2004-04-07, 15:50:10
BTW zum Thema Stromverbrauch: gibt es irgendwelche Rechner für die aktuelen GFX? Oder Übersichten/Artikel, nach denen man grob seine Verlustleistung berechnen kann?
Winter[Raven]
2004-04-07, 16:24:47
@ATHS
Wie lange wirst du für eine NV40 Version des aTuner brauchen ? *eg*
robbitop
2004-04-07, 16:32:44
ich denk nicht lang.
Sind sicher nur ein paar andere Register einträge. Das Debuggen wird sicher seine Zeit dauern..
Winter[Raven]
2004-04-07, 16:40:28
Nvidia hat den Preis für den NV40 angesetzt und dieser beläuft sich auf 499$. Umgerechnet wären so um die ~440€. GOIL sag ich nur.
x-dragon
2004-04-07, 16:42:29
Original geschrieben von Winter[Raven]
Nvidia hat den Preis für den NV40 angesetzt und dieser beläuft sich auf 499$. Umgerechnet wären so um die ~440€. GOIL sag ich nur. Hast du auch eine Quelle? Oder muss die anononym bleiben? :)
Winter[Raven]
2004-04-07, 16:43:55
Bitteschön ... :)
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2004/04/07&pages=A7&seq=43
Habe zu heutigem $ zu € Kurs mal umgerechnet und das wären ja 411 € für den NV40 ? ... *umfall*
ShadowXX
2004-04-07, 16:58:48
Original geschrieben von Winter[Raven]
Bitteschön ... :)
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2004/04/07&pages=A7&seq=43
Habe zu heutigem $ zu € Kurs mal umgerechnet und das wären ja 411 € für den NV40 ? ... *umfall*
Schade nur, dass die Preise so nicht weitergegeben werden (gilt für ATI nd NV).
Für Europa werde die Preise immer Extra festgesetzt...wird hier also 499Euro sein...(mit Glück...Europäer zahlen eher mehr).
Ich würde bei den ersten verfügbaren Karten durchaus mit 550Euro rechnen (wieder: ATI und nV)
MadManniMan
2004-04-07, 17:00:17
Original geschrieben von Winter[Raven]
Nvidia hat den Preis für den NV40 angesetzt und dieser beläuft sich auf 499$. Umgerechnet wären so um die ~440€. GOIL sag ich nur.
Wie die anderen schon sagten sind weniger denn 499€ leider unrealistisch, da wir immer mehr zahlten, als die Amis :(
Interessanterweise wird in der Quelle der RV380 mit 0.11-micron Herstellungsprozeß angeben. Ursprünglich waren dies doch 0.13-micron?!
Werden bei der Angaben in US$ die Steuer berücksichtigt? Meines Erachtens nicht!
Gortha
2004-04-07, 17:02:55
Ich würde niemals Knapp 1000 DMark für eine Grafikarte
ausgeben... soviel gibt man ja noch nichtmal für Mainboard
und CPU zusammen aus. (Manche Fanatiker/Idioten schon... ich weiss)
Teuerste Karte die ich mir jemals gekauft hatte war ne
Diamond TNT 2 Ultra (V770 Ultra) für 450 DM ... auch total
überteuert.
Was die mit den Grakas machen ist einfach nur Wucher.
Jetzt hab ich ne popelige 9500np (Club3D) auf ne 9700er
getweakt. Und das für damals läpische 135 €uronen.
Sowas nenn ich ein !gutes! Preis/Leistungs-Verhältnis.
Trotz allem brauch ich auch ne neue GraKa.... :sulkoff:
Ich werde meine Kaufentscheidung zwischen NV40 oder R420
nicht am Stromverbrauch oder PS3.0 oder nicht PS3.0
oder "schnellste" Karte festmachen, sondern ich werde die
Karte kaufen, die mir bei noch "guter" Leistung (FarCry alle Details,
höheres LOD als Standard absolut Flüssig, Ø 70 FPS, min 40 FPS)
das bessere Preis/Leistungs-Verhältnis liefert.
Grüsse
Gortha
ShadowXX
2004-04-07, 17:06:11
Original geschrieben von Gast
Werden bei der Angaben in US$ die Steuer berücksichtigt? Meines Erachtens nicht!
stimmt...meistens sind das Preise ohne Steuer...wie siehts aus Raven: waren die Preise mit oder ohne Steuer???
Weil, wenn Sie ohne Steuer waren, werden es wohl eher 600Euro werden...(ATI und nV)
Winter[Raven]
2004-04-07, 17:07:56
Original geschrieben von ShadowXX
stimmt...meistens sind das Preise ohne Steuer...wie siehts aus Raven: waren die Preise mit oder ohne Steuer???
Weil, wenn Sie ohne Steuer waren, werden es wohl eher 600Euro werden...(ATI und nV)
Na so Teuer wird der Nv40 oder R420 nun auch wieder nicht. ~500€ ist Realistisch.
550€ werdens wohl werden, trotz gutem € Kurs.
DrumDub
2004-04-07, 17:10:47
Original geschrieben von Winter[Raven]
Na so Teuer wird der Nv40 oder R420 nun auch wieder nicht. ~500€ ist Realistisch.
kommt halt drauf an, obs die nv-ultra bzw. ati-xt variante ist, oder die "normalen". erstere werden am anfang eher bei 550-600€ liegen, letztere natürlich darunter.
ironMonkey
2004-04-07, 17:12:30
US Preise sind immer ohne Steuer.
W
Gruß
Winter[Raven]
2004-04-07, 17:14:47
@ DrumDub
Die 499$ beziehen sich auf die Ultra Version ;). Die Normale Version wird 399$ kosten.
Edit by Thowe: "Rechtschreibfehler korrigiert, 1 Punkt aufs Konto für das verwenden des Wortes "Dumm".
Auf Inq gabs gerade zu lesen dass zu jedem der zwei Molex Stecker des NV40 ein eigener Kabelstrang vom Netzteil gehen muss, auf dem auch kein anderes Gerät hängen darf :o :o Vermutlich wird also für viele Leute auch gleich ein neues Netzteil fällig sein.
ironMonkey
2004-04-07, 17:20:01
Jo, das währe der Hammer, die Karte müsste dann wohl wirklich um die 150 Watt brauchen.
Gruß
(del676)
2004-04-07, 17:25:32
Original geschrieben von thop
Auf Inq gabs gerade zu lesen dass zu jedem der zwei Molex Stecker des NV40 ein eigener Kabelstrang vom Netzteil gehen muss, auf dem auch kein anderes Gerät hängen darf :o :o Vermutlich wird also für viele Leute auch gleich ein neues Netzteil fällig sein.
mein 550W NoiseBlocker freut sich schon
Die Stadtwerke auch :asshole:
betasilie
2004-04-07, 17:27:39
Original geschrieben von Winter[Raven]
@ Drumdumm
Die 499$ beziehen sich auf die Ultra Version ;). Die Normale Version wird 399$ kosten.
Da steht aber:
aiming to penetrate the high-end market of around US$499
Also von wegen die kann keine 550 oder 600€ kosten. :nono:
betasilie
2004-04-07, 17:29:01
Original geschrieben von thop
Auf Inq gabs gerade zu lesen dass zu jedem der zwei Molex Stecker des NV40 ein eigener Kabelstrang vom Netzteil gehen muss, auf dem auch kein anderes Gerät hängen darf :o :o Vermutlich wird also für viele Leute auch gleich ein neues Netzteil fällig sein.
Und ich wurde neulich ausgelacht, dass mein 450Watt beQuiet überdimensioniert ist. X-D
Original geschrieben von ironMonkey
Jo, das währe der Hammer, die Karte müsste dann wohl wirklich um die 150 Watt brauchen.
Gruß Das wäre der Hammer – ohne h.
Original geschrieben von Winter[Raven]
@ Drumdumm
Die 499$ beziehen sich auf die Ultra Version ;). Die Normale Version wird 399$ kosten. Das sind vielleicht Angaben von NV, aber die Boardhersteller dürfen nehmen, was sie wollen, und die Groß- und Einzelhändler ebenfalls. Je besser der NV40 wird, desto mehr wird man bezahlen müssen.
Winter[Raven]
2004-04-07, 18:33:42
Hab gerade bei B3D was von NV40 und Peletier Körper als Kühlung gelesen, wofür auch der 2te Molexstecker bebraucht wird .....
Wäre das vorstellbar oder Schwachsinn ?
Demirug
2004-04-07, 18:39:43
Original geschrieben von Winter[Raven]
Hab gerade bei B3D was von NV40 und Peletier Körper als Kühlung gelesen, wofür auch der 2te Molexstecker bebraucht wird .....
Wäre das vorstellbar oder Schwachsinn ?
Da wurde wieder fleisiges Gerüchtmixen betrieben. Da wurden Dinge die nicht zusammengehören und dazu auch noch falsch verstanden wurden zusammengeworfen.
Nachfragen zwegloss ich werde nicht in die Details gehen.
(del676)
2004-04-07, 18:56:00
lol
ich glaube ned das jemand peltierkühler verbaut solange man auf luftkühlung setzt ;)
StefanV
2004-04-07, 18:58:36
Original geschrieben von Ulukay
ich glaube ned das jemand peltierkühler verbaut solange man auf luftkühlung setzt ;)
Du nicht, ich schon.
robbitop
2004-04-07, 19:16:46
bei ~30W und einem verdammt großem Luftkühler und einem richtig dimensioniertem Peltier hätte das vieleicht Sinn. Nicht aber bei ~100W. Um die ganze Abwärme wegzupumpen braucht man ein sehr großes Peltier, da der Wirkungsgrad nur bei ~50% liegt. Also 150-200W Peltier (viel spass mit dem Netzteil!!), die sind meist für 15-16V gebaut..also mit 12V ansteuern..hat es weniger Leitung.
Dann das Kondenswasser ect...oh gott Kosten/Nutzenverhältnis ist bei einem Peltier einfach nur grottenschlecht. Hier brächte man schon eine verdammt gute Wasserkühlung, damit das Sinn machen würde.
Man darf die 100W der VPU abführen und dann noch die 200W vom Peltier..macht 300W...na danke (super Idee Stefan ;))
TheCounter
2004-04-07, 19:28:31
Hmm.. 150 Watt? Ob da mein gutes 353 Watt Enermax Netzteil noch mitmacht? Hab keine lust schon wieder ein Netzteil zu kaufen, das Enermax hat 60EUR gekostet und habs ja erst vor kurzem gekauft. Wirds eigentlich offizielle Zahlen zum Verbrauch der Karten geben? Ansonsten bleibt meine R9800np noch nen paar jährchen drin :)
robbitop
2004-04-07, 19:40:12
Enermax Netzteile haben allgemein eine 5V Schwäche (gibt aber Mods im Internet)..frage mich warum die Dinger immernoch gekauft werden :)
Winter[Raven]
2004-04-07, 20:01:22
The war is over. (http://nvidia.owns.it/) http://www.nvnews.net/vbulletin/images/smilies/owned.gifhttp://www.nvnews.net/vbulletin/images/smilies/rofl.gif
StefanV
2004-04-07, 20:08:35
Original geschrieben von Winter[Raven]
The war is over. (http://nvidia.owns.it/) http://www.nvnews.net/vbulletin/images/smilies/owned.gifhttp://www.nvnews.net/vbulletin/images/smilies/rofl.gif
Tolle Website, vorallendingen, da der Source auch direkt auf nV hinweist, aber seht selbst:
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML>
<HEAD>
<TITLE>nVIDIA > ATi</TITLE>
<META NAME="keywords" CONTENT="nVIDIA owns ATi">
<META NAME="description" CONTENT="nVIDIA owns ATi">
<SCRIPT>
<!--
if(top!=self)
top.location.href=self.location.href;
//--->
</SCRIPT>
</HEAD>
<!-- frames -->
<FRAMESET ROWS="100%,*" FRAMEBORDER="no" FRAMESPACING="0">
<FRAME NAME="REDIRECTION_MAIN" SRC="http://flek0.fake.hu/nvidiaownsit.html" MARGINWIDTH="0" MARGINHEIGHT="0" SCROLLING="auto" FRAMEBORDER="0">
<FRAME NAME="AD_BOTTOM" SRC="/ad.html" MARGINWIDTH="0" MARGINHEIGHT="0" SCROLLING="auto" FRAMEBORDER="0">
</FRAMESET>
<NOFRAMES>
Click <a href="http://flek0.fake.hu/nvidiaownsit.html">here</a> to enter the nVIDIA owns ATi website.
</NOFRAMES>
</HTML>
CrazyIvan
2004-04-07, 20:37:23
@ SP
Wo genau siehst Du da nen Hinweis auf nV???
ShadowXX
2004-04-07, 20:50:01
Original geschrieben von CrazyIvan
@ SP
Wo genau siehst Du da nen Hinweis auf nV???
Er meinte wohl eher dieses hier
Click <a href="http://flek0.fake.hu/nvidiaownsit.html">here</a> to enter the nVIDIA owns ATi website.
StefanV
2004-04-07, 20:58:56
Original geschrieben von CrazyIvan
@ SP
Wo genau siehst Du da nen Hinweis auf nV???
Sorry, war ironisch gemeint.
Meinte eher, daß es auf der Website keinen Hinweis gibt, daß die Seite von nV stammt.
Gast2k4
2004-04-07, 21:05:22
Hi Leute,
ich hab mir heute die PCGH gekauft und da stand auf dem Cebit folgendes, dass vielleicht ein bisschen Aufsehen erregt:
Zitat:
-Nvidia zeigte den Nv40 nur ausgewählten Journalisten und wollte verhindern dass wie letztes Jahr geheime Informationen an die Öffentlichkeit kommen...
Da PCGH mitllerweile eine Stillhaltevereinbarung unterschrieben hat, können wir diese durchgesickerten kommentieren bla bla bla...
Es ist allerdings ganz OFFENSICHTLICH, dass viele veröffentlichen Inormationen falsch und lediglich der Profilierungssucht (Anm. von mir: Oha :O ) bestimmter Autoren entsprungen sind. Eins hat Nvidia immerhin selbst klar gesagt. 13/14 April wird der Nv40 offiziell vorgestellt.
Ganz schön frech die Jungs da, wenn man bedenkt dass bei ihrem letzten Nv40 Report folgendes stand:
Als Grundlage dienen uns Artikel, die auf Webseiten geschätzter Kollegen wie www.3dcenter.de usw. erschienen sind.
Naja, eigentlich wollte ich damit nur sagen, dass der Nv40 wohl doch nicht so ist, wie die Gerüchte, die man im Internet lesen kann, ist .
zu PCGH braucht man eigentlich nichts weiter zu sagen, das Heft ist gespickt mit Fehlern und Halbwissen. Und gewisse Leute sind nicht kretikfähig.
Aber das ist bei anderen Zeitschriften viel schlimmer..bis auf c't und ein paar andere sind die halt für die Massen gedacht
Demirug
2004-04-07, 21:15:05
Gast2k4, was soll die PCGH den machen? Wenn sie eine Testkarte wollen müssen sie den Wisch unterschreiben. Sobald die Unterschrift aber auf dem Papier ist dürfen sie nicht mal mehr ihere eigenen älteren Artikel zum Thema NV40 kommentieren. Den jeder Kommentar würde ab diesem Zeitpunkt eine richtige Information über den NV40 enthalten.
Demirug
2004-04-07, 21:17:40
Original geschrieben von Gast
zu PCGH braucht man eigentlich nichts weiter zu sagen, das Heft ist gespickt mit Fehlern und Halbwissen. Und gewisse Leute sind nicht kretikfähig.
Aber das ist bei anderen Zeitschriften viel schlimmer..bis auf c't und ein paar andere sind die halt für die Massen gedacht
Bei Grafikkarten hat die c't nun auch nicht gerade den echten Durchblick.
Quasar
2004-04-07, 21:43:52
Original geschrieben von Gast
Interessanterweise wird in der Quelle der RV380 mit 0.11-micron Herstellungsprozeß angeben. Ursprünglich waren dies doch 0.13-micron?!
Bei ATi ist der Value-Chip schon fast traditionell der Technologieträger, was Chipherstellung angeht, siehe RV360 & RV200. Man traut seinen Designtools offenbar keine wirklich komplexen Chips auf 'neuen' Prozessen zu.
Original geschrieben von aths
Das wäre der Hammer – ohne h.
Hammer ohne h? Ammer? Was soll das denn sein?
Original geschrieben von aths
Das sind vielleicht Angaben von NV, aber die Boardhersteller dürfen nehmen, was sie wollen, und die Groß- und Einzelhändler ebenfalls. Je besser der NV40 wird, desto mehr wird man bezahlen müssen.
Wollen wir mal hoffen, wenn die Angaben von nV sind, daß sich das nicht nur auf den Chip bezieht :freak:
reunion
2004-04-07, 22:00:03
Original geschrieben von Quasar
Bei ATi ist der Value-Chip schon fast traditionell der Technologieträger, was Chipherstellung angeht, siehe RV360 & RV200. Man traut seinen Designtools offenbar keine wirklich komplexen Chips auf 'neuen' Prozessen zu.
Den Desigertools ist ist es wohl ziemlich egal welchen Fertigungsprozess man verwendet, man traut TSMC offenbar nicht mehr zu, was nach der NV30 Schlappe allerdings irgendwie verständlich ist. Außerdem wird der r420 eh mit 130nm lowk gefertigt, 110nm wäre wohl doch etwas übertrieben ;)
Intressant ist das ganze trozdem, ursprünglich wurde ja nur beim LowEndChip RV370 von 110nm gesprochen, nach dieser Quelle soll jetzt auch der Midragechip RV380 mit 110nm gefertigt werden?
@Demi
von Grafikkarten hat kein Printmagazin Ahnung, doch viele tun so als hätten sies.
Ist schon erbärmlich mit welcher Qualifikation man so ein Geld verdienen kann. Und dann bedient man sich günstigen Gastauthoren, da die eigene Quallifikation für anspruchsvolle Themen nicht genügt. Ist halt fürs Volk..
Aber mal abseits der Grafikkarten ist dem Heise Verlag mit der c't doch ein gutes Printmagazin gelungen.
robbitop
2004-04-07, 22:10:32
Hammer ohne h: Ammer :D
ja mit 110nm kann man die kleinen günstig herstellen und hoch takten. Und da die Mainstream Chips recht inkomplex sind, dürften die Yields entsprechend sein.
Original geschrieben von Gortha
Ich würde niemals Knapp 1000 DMark für eine Grafikarte
ausgeben... soviel gibt man ja noch nichtmal für Mainboard
und CPU zusammen aus. (Manche Fanatiker/Idioten schon... ich weiss)
Teuerste Karte die ich mir jemals gekauft hatte war ne
Diamond TNT 2 Ultra (V770 Ultra) für 450 DM ... auch total
überteuert.
Was die mit den Grakas machen ist einfach nur Wucher.
Bei der TNT 2 Ultra geb ich Dir Recht, beim Rest nicht.
Voodoo 2 SLI kostete auch beim Erscheinen im März 1998 1200 DM, also sind die Preise für Spitzengrafikleistung sozusagen stabil geblieben. :D
Original geschrieben von robbitop
Hammer ohne h: Ammer :D
ja mit 110nm kann man die kleinen günstig herstellen und hoch takten. Und da die Mainstream Chips recht inkomplex sind, dürften die Yields entsprechend sein.
Und stromsparender dürften die Mainstream-Chips sowieso sein.
Vielleicht finde ich dann endlich nen günstigen und ansprechenden Ersatzt für meine 9500Pro (9600TX) :)
betasilie
2004-04-07, 23:24:04
Original geschrieben von Quasar
Bei ATi ist der Value-Chip schon fast traditionell der Technologieträger, was Chipherstellung angeht, siehe RV360 & RV200. Man traut seinen Designtools offenbar keine wirklich komplexen Chips auf 'neuen' Prozessen zu.
:eyes: Und NV hat sich wohl zuviel zugetraut, wie das NV30-Desaster zeigt. ... Scheinbar geht ATI in der Hinsicht den richtigen Weg, jedenfalls zeigt das die Vergangenheit.
Original geschrieben von Quasar
Hammer ohne h? Ammer? Was soll das denn sein?
:lolaway:
Ich bin vor allem gespannt wieviel Strom der R420 verbraucht. Falls der NV40 wirklich erheblich mehr Strom verbraucht möchte ich mindestes auch 25% mehr Leistung sehen.
Original geschrieben von betareverse
:eyes: Und NV hat sich wohl zuviel zugetraut, wie das NV30-Desaster zeigt. ... Scheinbar geht ATI in der Hinsicht den richtigen Weg, jedenfalls zeigt das die Vergangenheit.
Ich glaube kaum, das eine einzige VPU-Generation hier sonderlich representativ ist.
Dennoch finde ich das Vorgehen von ATI sehr schlüssig. Erstmal mit den kleineren Chips austesten wie gut ein neuer Prozess funktioniert um dann die großen komplexen Chips nachzuschieben. Allerdings ist hier halt immer das Risiko gegeben, dass die für den Absatz so wichtigen Mainstream und Low Cost Produkte nicht so laufen wie sie sollten, falls doch mal was schief geht.
Aber naja ein gewisses Risiko ist natürlich immer gegeben...
Original geschrieben von thop
:lolaway:
Ich bin vor allem gespannt wieviel Strom der R420 verbraucht. Falls der NV40 wirklich erheblich mehr Strom verbraucht möchte ich mindestes auch 25% mehr Leistung sehen.
Schade, dass hier einige ATI-Fans den Stromverbrauch als das einzige Argument PRO Ati benutzen.
Ewig auf einer noch nicht einmal bestätigten Sepkulation rumzureiten finde ich leicht unsinnig. Ich gehe auch davon aus, dass der NV40 allein wegen seiner ihm nachgesagten Die-Size mehr Strom verbrauchen wird als der weniger Komplexe Chip von ATI. Aber dafür hat er evtl. auch mehr zu bieten, wer weiss...
Deswegen schiesst euch hier nicht auf einzelne Spekus ein, das bringt alles nicht...
P.S.: Zur Zeit bin ich übrigens auch noch eher ATI zugeneigt, allerdings versuche Dinge recht objektiv zu sehen und hab mich nicht auf eine einzige Firma verschrieben.
EDIT: Sry, habs ganz vergessen...
Original geschrieben von burk23
Fanatiker
Das möchte ich mir aber verbitten! :nono:
Wenn der NV40 schneller ist als der R420 dann bin ich nur bereit ihn zu kaufen wenn der gesteigerte Stromverbruch im Verhältnis zur zusätzlichen Performance steht. Ich hab nämlich keine Lust ein Heizkraftwerk in meinen Rechner zu bauen. Ganz zu schweigen von der Stromrechnung. Das ist IMO ein Trend in die ganz falsche Richtung und da mach ich einfach nicht mit!
Das selbe gilt natürlich für den R420. Sollte der aber erheblich(!) weniger Strom verbrauchen würde ich mich trotzdem für ihn entscheiden, wenn er nicht mehr als 25% langsamer ist.
betasilie
2004-04-08, 00:06:45
Original geschrieben von burk23
Dennoch finde ich das Vorgehen von ATI sehr schlüssig. Erstmal mit den kleineren Chips austesten wie gut ein neuer Prozess funktioniert um dann die großen komplexen Chips nachzuschieben. Allerdings ist hier halt immer das Risiko gegeben, dass die für den Absatz so wichtigen Mainstream und Low Cost Produkte nicht so laufen wie sie sollten, falls doch mal was schief geht.
Aber naja ein gewisses Risiko ist natürlich immer gegeben...
Man weiß halt nie, ob tsmc wirklich rechtzeitg in der Lage ist solche Mhz-Tranistoren-Monster überhaupt in ausreichenden Stückzahlen zu fertigen. Dann lieber sorgfältig ein Layout für die großen Chips entwickeln, dessen Funktion in Sachen Thermik und Leckströme anhand von echten TSMC-Samples überprüft werden kann. Und TSMC kann aus diesen Testwerten dann ggf. auch noch was lernen und den Fertigungsprozess verbessern.
Bei weniger komplexen Chips würde ich das Risiko als relativ klein Einstufen.
Original geschrieben von burk23
Ich glaube kaum, das eine einzige VPU-Generation hier sonderlich representativ ist.
Da hast Du schon nicht unrecht. ;)
Original geschrieben von thop
Das möchte ich mir aber verbitten! :nono:
Wenn der NV40 schneller ist als der R420 dann bin ich nur bereit ihn zu kaufen wenn der gesteigerte Stromverbruch im Verhältnis zur zusätzlichen Performance steht. Ich hab nämlich keine Lust ein Heizkraftwerk in meinen Rechner zu bauen. Ganz zu schweigen von der Stromrechnung. Das ist IMO ein Trend in die ganz falsche Richtung und da mach ich einfach nicht mit!
Das selbe gilt natürlich für den R420. Sollte der aber erheblich(!) weniger Strom verbrauchen würde ich mich trotzdem für ihn entscheiden, wenn er nicht mehr als 25% langsamer ist.
Sry, habs korrigiert.
Sicherlich hast du Recht und der Stromverbrauch ist ein wirkliches Argument, aber man hat halt immer so das Gefühl, dass sich die Leute auf beiden Seiten immer die positiven Argumente zurechtlegen. Und da gerade im Bereich des Strombedarfs noch überhaupt nichts feststeht sollte man sich nicht darauf versteifen....
Winter[Raven]
2004-04-08, 00:09:43
@ betareverse
Wir wissen nicht ob Nvidia bei TSMC oder bei IBM fertigen lässt;) Vielleicht bei beiden um den Markt mit dem NV40 zu überschwämen ?
betasilie
2004-04-08, 00:11:15
Original geschrieben von burk23
Sry, habs korrigiert.
Sicherlich hast du Recht und der Stromverbrauch ist ein wirkliches Argument, aber man hat halt immer so das Gefühl, dass sich die Leute auf beiden Seiten immer die positiven Argumente zurechtlegen. Und da gerade im Bereich des Strombedarfs noch überhaupt nichts feststeht sollte man sich nicht darauf versteifen....
Und wenn der NV40 mehr Watt verbraucht, wen störts, wenn die Leistung stimmt?
Wer Hunderte von €uronen für eine GraKa ausgibt und dann auf 20Watt guckt widerspricht sich. :zweifel: Sorry thop, aber da kann ich dir echt nicht folgen.
Original geschrieben von betareverse
Man weiß halt nie, ob tsmc wirklich rechtzeitg in der Lage ist solche Mhz-Tranistoren-Monster überhaupt in ausreichenden Stückzahlen zu fertigen. Dann lieber sorgfältig ein Layout für die großen Chips entwickeln, dessen Funktion in Sachen Thermik und Leckströme anhand von echten TSMC-Samples überprüft werden kann. Und TSMC kann aus diesen Testwerten dann ggf. auch noch was lernen und den Fertigungsprozess verbessern.
Bei weniger komplexen Chips würde ich das Risiko als relativ klein Einstufen.
Ja ich schätze das Risiko schon als relativ klein ein. Aber wenn ein Design im Mainstream-Markt nicht so richtig funktioniert, dann hat es durchaus viel schlimmere Folgen.
Falls was im High-Markt nicht gut läuft kann man immer noch selektieren und ein paar einzelne Chips in stark beschränkter Stückzahl verkaufen. Das ist durchaus nicht optimal, aber man kan sich trotzdem noch einigermaßen halten, siehe NVidia. Wäre bei NVidia bei der FX 5200 was schief gelaufen hätte es wohl schlimmere Folgen gehabt.
Allerdings hast du Recht, die Warscheinlichkeit, dass die so nen "popelig" kleinen Chip nicht hinkriegen ist halt recht gering...
betasilie
2004-04-08, 00:14:20
Original geschrieben von Winter[Raven]
@ betareverse
Wir wissen nicht ob Nvidia bei TSMC oder bei IBM fertigen lässt;) Vielleicht bei beiden um den Markt mit dem NV40 zu überschwämen ?
Das wäre für beide nicht unproblematisch, jedenfalls wenn sie ihre Highend-Chips bei zwei Herstellern fertigen lassen würden, den afaik müsste das Design im Detail extra angepasst werden für die unterschiedlichen Hersteller.
betasilie
2004-04-08, 00:17:50
Original geschrieben von burk23
Ja ich schätze das Risiko schon als relativ klein ein. Aber wenn ein Design im Mainstream-Markt nicht so richtig funktioniert, dann hat es durchaus viel schlimmere Folgen.
Falls was im High-Markt nicht gut läuft kann man immer noch selektieren und ein paar einzelne Chips in stark beschränkter Stückzahl verkaufen. Das ist durchaus nicht optimal, aber man kan sich trotzdem noch einigermaßen halten, siehe NVidia. Wäre bei NVidia bei der FX 5200 was schief gelaufen hätte es wohl schlimmere Folgen gehabt.
Allerdings hast du Recht, die Warscheinlichkeit, dass die so nen "popelig" kleinen Chip nicht hinkriegen ist halt recht gering...
Keine Frage, wenn im Mainstreammarkt der Wurm drin wäre, könnte man das als Desaster bezeichnen.
Ich denke aber mal NV und ATI können das Risiko abschätzen.
Ein weiter Vorteil ist natürlich auch der günstigere Preis bei kleineren Chips, der im wichtigen Mainstreamsegment ordentlich zu Buche schlagen sollte.
Jo ich red ja auch nicht von von 20W. Ich mein so Verhältnisse wie 150W zu 90W. Das summiert sich. Dabei gehts mir gar nicht mal ums Geld, sondern um die Wärme die ja auch irgendwo hin muss (und zwar ins Zimmer). Nicht jeder hat ne Wakü :( Und mehr Wärme bedeutet ohne Wakü: Lärm.
Ausserdem gehts mir auch ums Prinzip. Ich hätte lieber sowas wie einen C3 der Grafikchips, als eine Prescott Graka. Das ist ein Schritt in eine Richtung die mir nicht gefällt!
Ich pläderie für mehr Effizienz als rohe Gewalt! :) Nur ist das halt (noch) nicht gefragt. Der schnellste gewinnt, egal wie. Ich prophezeie dass sich das ändern wird. Stichwort: 3-Liter Graka ;D
betasilie
2004-04-08, 00:22:26
Original geschrieben von thop
Jo ich red ja auch nicht von von 20W. Ich mein so Verhältnisse wie 150W zu 90W. Das summiert sich. Dabei gehts mir gar nicht mal ums Geld, sondern um die Wärme die ja auch irgendwo hin muss (und zwar ins Zimmer). Nicht jeder hat ne Wakü :( Und mehr Wärme bedeutet ohne Wakü: Lärm.
Ausserdem gehts mir auch ums Prinzip. Ich hätte lieber sowas wie einen C3 der Grafikchips, als eine Prescott Graka. Das ist ein Schritt in eine Richtung die mir nicht gefällt!
Ich pläderie für mehr Effizienz als rohe Gewalt! :) Nur ist das halt (noch) nicht gefragt. Der schnellste gewinnt, egal wie. Ich prophezeie dass sich das ändern wird. Stichwort: 3-Liter Graka ;D
Das hat sich aber erst so angehört, als ob dir die 20W auf der Stromrechnung weh tun würden. ;)
Und der Verbauchswahnsinn wird sich nicht großartig ändern, solange nicht nahezu Fotorealismus in Echtzeit möglich ist. ... Also so in 8-10 Jahren? :biggrin:
Doch ich denke da wird sich was tun. Wenn du das mal hochrechnest dann sind wir in 5 Jahren bei 300W für ne Graka oder wie? ;) Das kanns ja nicht sein.
betasilie
2004-04-08, 00:33:10
Original geschrieben von thop
Doch ich denke da wird sich was tun. Wenn du das mal hochrechnest dann sind wir in 5 Jahren bei 300W für ne Graka oder wie? ;) Das kanns ja nicht sein.
Ok, die Steigung der Kurve wird abnehmen, aber imho wird sie weiter nach oben zeigen.
Ich verstehe einige hier nicht. Zum einen anscheinend bereit sein einen High bis Highest End Chip haben zu wollen und zum anderen den Stromverbrauch anzukreiden wo es noch ueberhaupt nicht feststeht wieviel sie letztendlich verbrauchen werden. Ich wuerde auch gerne Porsche fahren aber bitte nur mit 5 Liter Normalbenzin oder noch besser Diesel Verbrauch oder wie? Soll nicht der DeltaChrome nur so 10Watt oder so verbrauchen? Oder war es ein anderer Chip? Dann halt den nehmen und mit der gebotenen Leistung zufrieden sein.
Ausserdem, wie lange daddelt ihr denn so durchschnittlich am Tag wo dann volle Leistung da sein muss?
Laerm kann durch eine Wakue klasse entschaerft werden, keine Frage, auch kosten sie heutzutage nicht mehr die Welt und sind fuer den Hausgebrauch auch schon recht gut. Nur das ist das Problem, sie kostet halt Geld. Selberbasteln ist vielleicht billiger aber nicht jeder kann es oder will es und die mitgelieferten von Gainward sind halt richtig teuer.
Bleibt noch das Problem der Waermeabfuehrung. Aus dem Gehaeuse sollte eigentlich kein Problem sein aber mit den entsprechendn Komponenten wird es recht schnell warm im Zimmer. Kein Problem, fuer so etwas gibt es Fenster oder wenn man die Moeglichkeit hat, kuehlere Raeume. Das die Waermeabgabe bei PC Komponenten mit der Zeit immer weiter steigt ist doch schon lange kein Geheimnis mehr. Das ist genauso ueberraschend wie Weihnachten jedes Jahr, hat keiner mit gerechnet, ja ja... Einsparungen durch Shrinks werden mit der Zeit auch wieder mit mehr Transistoren aufgefressen. Ein Teufelskreis...
Entweder C3 und passende Komponenten kaufen und auf max Details und mindestens 16x12 mit 2345AA und 23764 AF verzichten oder ein Notebook kaufen oder den PC ganz abschaffen oder in den sauren Apfel beissen sich aber dann nicht beschweren.
Das zB Intel auch anders kann zeigen sie mit dem Pentium M nur lassen sie es sich fuerstlich bezahlen, von der Verfuegbarkeit von Pentium M geeigneten Boards mal ganz abgesehen. ATI und nVidia koennten vielleicht auch den Verbrauch von ihren Chips erheblich senken nur wer will das bezahlen? Die Mehrkosten bekommst du niemals wieder rein und gerade im Grakamarkt der sich so schnell veraendert ist es, egal ob fuer ATI oder nVidia, ein zu grosses finanzielles Risiko, da hilft auch das tollste Marketing nichts, es sei denn sie wuerden zu Intel gehoeren....
Effizienz kann es auch auf hohem Niveau geben. Ich hab aber den Eindruck dass man sich aber überhaupt nicht darum bemüht. Ist natürlich auch einfacher gesagt als getan, da so wertvolle Zeit im Leistungswettlauf verloren geht.
Ich jedenfalls würde mehr Geld für einen kühleren und stromsparenderen Chip ausgeben. Natürlich nicht in der 500€ Klasse, aber so in der 300€ Klasse würd ich 50€ mehr hinlegen wenns dafür ein bissl kühler (evtl. passiv?) geht, bei gleicher Leistung wie die normale 300€ Karte.
Aber das wird jetzt wohl ein wenig OT :)
WeyounTM
2004-04-08, 05:50:54
Original geschrieben von MadMan2k
PS: setzt dem Mergewahn ein Ende!
In diesem Falle: full ack. Ist manchmal echt schwieriger, einen ewig langen Thread durchzukauen als mehrere (nicht Dutzende!) kleinere.
:schleich:
WeyounTM
2004-04-08, 07:26:02
Original geschrieben von thop
Ausserdem gehts mir auch ums Prinzip. Ich hätte lieber sowas wie einen C3 der Grafikchips, als eine Prescott Graka. Das ist ein Schritt in eine Richtung die mir nicht gefällt!
Dem kann ich mich nur vollkommen anschliessen. Es wird Zeit, dass die Industrie mal von ihrem Stromverbrauch-Wahn herunterkommt. Stattdessen multiplizieren sich die Stromanschlüsse auf der Graka :bonk:!
robbitop
2004-04-08, 07:55:17
ich sage nur wer das eine will muss das andere mögen.
Bei Grafikkarten gibt es 3 Märkte mit 3 Unterschiedlichen Zielgruppen. Leistung um jeden Preis in der High End Klasse (naja Midrange und Low Cost noch). Wer maximal Leistung um jeden Preis will kauft hier. Hier geht es eben darum, die schnellste Karte zu besitzen. Was nützen einem 10W weniger, wenn der Konkurrent dadurch die Benches gewinnt. Leute die auf viel Leistung, aber nicht um jeden Preis somit weniger Verlustleistung stehen, sind eben in der Minderheit -> Pech gehabt.
In Natur und Technik gibt es eben das Gesetz des abnehemenden Ertrages bei gleichbleibendem Aufwand. Und wenn man Leistung um jeden Preis will, dann steigt die Verlustleistung expotential. So ist das nunmal. Gibt ja auch inzwischen für Geforce Karten einen Silcenr der die Wärme gleich raus befördert.
Und wer eben wirklich strom sparen will, solle sich bitte eine 9600 oder Delta Chrome kaufen. Die sind noch schnell genug und verbrauchen wenig. Die High End Karten schlucken nun mal. Es hat keinen Zweck sich darüber aufzuregen, weil es heutzutage nunmal um den Performancethron geht.
Original geschrieben von Winter[Raven]
Bitteschön ... :)
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2004/04/07&pages=A7&seq=43
Habe zu heutigem $ zu € Kurs mal umgerechnet und das wären ja 411 € für den NV40 ? ... *umfall*
Aufgrund höherer Lohnnebenkosten in Deutschland, durchschnittlich größerem Einkommmen der Bevölkerung und höherer Steuersätze verbietet sich ein einfaches Umrechnen über den Dollarkurs.
Der niedrige Dollarkurs ist zwar preislich positiv für Europäer allerdings schwächt das die ohnehin kategorisch höheren Preise nur ab. Billiger als in den USA wirds aber nicht werden. Nur eben billiger als wenn der Dollarkurs höher wäre. Ich rechne mit gut 500 Euro für die Top-Modelle. Zu Beginn werden es wohl um die 550 Euro sein.
AlfredENeumann
2004-04-08, 09:45:11
Original geschrieben von burk23
Schade, dass hier einige ATI-Fans den Stromverbrauch als das einzige Argument PRO Ati benutzen.
Komisch. Das gleiche gab es als die ersten R300 Karten auf den Markt kamen. Da haben auch alle über den zusätzlichen Stromanschluß gelässtert.
Aber wo wir gerade dabei sind.
Wer sagt denn das ATI nicht auch 2 Stecker hat?
Ailuros
2004-04-08, 09:48:29
Jetzt mal zu einem anderem Thema; Qualitaet:
Der Vorsprung in AF Qualitaet wird bei dieser Runde eigentlich fraglich sein was NVIDIA betrifft (starke Winkelabhaengigkeit und immer noch brilinear), ausser es handelt sich um verbuggte fruehe Treiber, aber ich hab guten Grund dieses zu bezweifeln.
ATI behaelt nach wie vor den Vorsprung was MSAA Qualitaet betrifft.
Und ich poste es nur weil es von mehr als drei verschiedenen Quellen kommt und es sowieso zum Vorschein in ein paar Tagen kommt.
robbitop
2004-04-08, 09:51:59
mutmaße ich mal ;)
ATi sollte dank "nur" 160Mio Transistoren und lowk was den Verbrauch anbelangt gut darunter liegen.
Aber ich gehe ausnahmesweise mal von einer großen Platine bei ATi aus.
Denn bisher hatten sie ja nur niedrigetaktete RAMs im Einsatz. Das ändert sich ja nun, und damit die Signalflanken nicht zusammenbrechen wird das PCB eben komplexer und länger =)
robbitop
2004-04-08, 09:54:35
naja in nem Interview mit NV war die Rede von neuen Coolbits. Damit gibts AF Deto 4x.xx like (Speku meinerseits..die Rede war von Maximaler Qualität).
Man ist eben nur einen schritt wie ATI gegangen, die weniger Arbeit beim AF verrichten und den dummen reviewern das scheinbar egal war. Warum sollte man sich einen Nachteil verschaffen?
LovesuckZ
2004-04-08, 10:02:28
Original geschrieben von Ailuros
Der Vorsprung in AF Qualitaet wird bei dieser Runde eigentlich fraglich sein was NVIDIA betrifft (starke Winkelabhaengigkeit und immer noch brilinear), ausser es handelt sich um verbuggte fruehe Treiber, aber ich hab guten Grund dieses zu bezweifeln.
War abzusehen. Dank den blinden reviewer und den unzähligen Fanatikern, die das AF "schön" (im wahrsten Sinnde des Wortes) geredet haben, verschob sich das Augenmark mehr auf die AA Qualitaet. Nun, Nvidia geht den selben Weg. Und wehe, ein reviewer kritisiert dies, nachdem er ATi fast 2 Jahre damit durchkommen ließ!
ATI behaelt nach wie vor den Vorsprung was MSAA Qualitaet betrifft.
6xRGMS gegen 8RGMS? Oder schafft Nvidia nur ein 4RGMS Muster?
Und wie sieht es mit Supersampling (?) AA aus? Auch mit einen RG Muster?
LovesuckZ
2004-04-08, 10:03:25
Original geschrieben von robbitop
ATi sollte dank "nur" 160Mio Transistoren und lowk was den Verbrauch anbelangt gut darunter liegen.
Wenn die Geruechte stimmen, dass die XT Version bei ca. 600MHZ liegen soll, dann wird sich der Stromverbrauch auch irgendwo bei über 100 Watt einpendeln...
deekey777
2004-04-08, 10:04:22
Falls noch nicht gepostet: Hier ist ein Artikel (http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx) über die Shader 3.0 von Microsoft höchst persönlich.
robbitop
2004-04-08, 10:16:23
@LS
wird wohl "nur" ein 4xRG
ausserdem darfst du die Gammacorrektur nicht vergessen, die ATi hat (NV wohl nicht). Imo sieht man den Unterschied kaum, aber er ist da.
Naja trotzdem hauen 210Mio Transistoren bei FSG statt Black Diamond ordendlich aufs Leistungsaufnahmekonto. Dann noch 500-550MHz...da werden ein paar mehr W als bei ATi rauskommen, denke ich.
Es gibt eh kaum Reviewer, die man als wirklich kompetent bewerten könnte, das Schlimme ist, dass die dümmsten die exklusiv Samples bekommen. Ich finde Leo sollte die bekommen und testen.
ShadowXX
2004-04-08, 10:24:21
Original geschrieben von Ailuros
Jetzt mal zu einem anderem Thema; Qualitaet:
Der Vorsprung in AF Qualitaet wird bei dieser Runde eigentlich fraglich sein was NVIDIA betrifft (starke Winkelabhaengigkeit und immer noch brilinear), ausser es handelt sich um verbuggte fruehe Treiber, aber ich hab guten Grund dieses zu bezweifeln.
Wenns stimmt, wird aths das gar nicht mögen....
Bei den Coolbits ist die Frage, ob sich nVs Kommentar dazu vielleicht nur auf das BriLineare Filtering bezog (also das Freischalten des normalen Tri-Filterings)
@robbitop:
ich gehe auch eher von "nur" 4xRGMSAA aus...und wieder mit zuschaltbaren OGSS Anteilen...schätze das Sie ihre vorhanden AA Technik nur etwas Aufgebohrt haben...
Aber in ca. 6 Tagen wissen wir mehr...
robbitop
2004-04-08, 10:29:21
wenn NV die schwach winkeladaptive AF Hardware rausgenommen hat, wird das leider so sein.
Wird man sehen müssen, es wäre schade drum, denn das AF meiner FX möchte ich wirklich nicht missen.
Ist schon schwach: die Karten werden immer schneller, nur um mehr Bilder/sek zu bekommen aber man entwertet die BQ...nur wegen irgendwelchen Balkendiagrammen der oberflächlichen inkompetenten, vor Halbwissen (wenn überhaupt) strotzdenden Reviewern.
reunion
2004-04-08, 10:34:04
Original geschrieben von robbitop
ATi sollte dank "nur" 160Mio Transistoren und lowk was den Verbrauch anbelangt gut darunter liegen.
ACK, dieses lowk Verfahren scheint wahre Wunder zu bewirken, man braucht sich ja nur die 9600XT anzuschauen, die troz 500mhz Chiptakt und auch immerhin 75 mio Transitoren nur max. 25W benötigt.
LovesuckZ
2004-04-08, 10:36:31
Original geschrieben von robbitop
Ist schon schwach: die Karten werden immer schneller, nur um mehr Bilder/sek zu bekommen aber man entwertet die BQ...nur wegen irgendwelchen Balkendiagrammen der oberflächlichen inkompetenten, vor Halbwissen (wenn überhaupt) strotzdenden Reviewern.
Nein, die Ansprüche werden groeßer, wenn das Markteing sitzt. Siehe doch zum Beispiel das AF und AA beim r300. Jeder sagte doch (auch die Reviewer mit 180° Fächen), dass AF waere kaum schlechter als das der Konkurenz und durch das AA mehr als ausgeglichen.
Nvidia wurde durch das Cheaten beim AF von ATi klar benachteiligt und haben eben diesen Umstand selbst sich angenommen. Wir sehen ja, wohin das führt. Und ich hatte schon früher die Befürchtung, dass man ebenfalls auf ein "richtiges" winkelabhaengiges Verfahren um steigen wird.
Die Frage wird nun sein, ob es annehmbar ist...
reunion
2004-04-08, 10:37:18
Original geschrieben von Ailuros
Der Vorsprung in AF Qualitaet wird bei dieser Runde eigentlich fraglich sein was NVIDIA betrifft (starke Winkelabhaengigkeit und immer noch brilinear), ausser es handelt sich um verbuggte fruehe Treiber, aber ich hab guten Grund dieses zu bezweifeln.
Naja, solange ATI am AF nichts verbessert wäre dass für NV nicht schlimm, problematisch wäre es nur wenn ATI die winkelabhängigkeit abgelegt hat...
Exxtreme
2004-04-08, 10:37:36
Original geschrieben von robbitop
wenn NV die schwach winkeladaptive AF Hardware rausgenommen hat,
Bitte! Diese leichte Winkelabhängigkeit hat nicht mit Adaptivität zu tun. Jegliche Form des AF ist adaptiv aber nicht in der Form winkeladaptiv wie viele denken.
Ailuros
2004-04-08, 10:38:39
"Nur" gammakorrektur und "nur" ein 6*6 Grid im Vergleich zu R3xx.
Ich weiss dass ihr das EER Gewarkel nicht besonders gern habt, aber theoretisch braucht man ~1600*1200 mit 4*4 um den EER von 6*6 in 1024*768 zu erreichen.
Zum Thema AF: es war kein Zufall dass ich von "boomerangs" gewarnt habe und dass zwischen den Linien seit einiger Zeit. Natuerlich geht es auch anders und Winkel-abhaengigkeit ist eine eher doofe extra "Adaptivitaet", aber es sollten sich so manche Gedanken machen dass IHVs stets versuchen ihr Bestes zu tun in einem gewissen Zeitraum. Fuer manches gibt es dann eben genug Zeit und HW Platz und fuer anderes wiederum nicht.
Ich will ehrlich hoffen dass es sich beim NV40 nicht um HW-Ersparnisse handelt, sondern um reine SW Optimierungen.
LovesuckZ
2004-04-08, 10:39:22
Original geschrieben von reunion
ACK, dieses lowk Verfahren scheint wahre Wunder zu bewirken, man braucht sich ja nur die 9600XT anzuschauen, die troz 500mhz Chiptakt und auch immerhin 75 mio Transitoren nur max. 25W benötigt.
Aehm, bezweifel ich. Ansonsten hat man beim Platinendesign sehr geschlampt. Wenn man sich die Messungen (okay...) bei Tomshardwareguide (http://www.tomshardware.com/graphic/20040405/gddr3-11.html) anguckt, liegt ein NV36 mit GDDR3 fast auf dem Niveau einer 9600XT beim Gesamtverbrauch des Systems.
Ailuros
2004-04-08, 10:41:19
Original geschrieben von LovesuckZ
Aehm, bezweifel ich. Ansonsten hat man beim Platinendesign sehr geschlampt. Wenn man sich die Messungen (okay...) bei Tomshardwareguide (http://www.tomshardware.com/graphic/20040405/gddr3-11.html) anguckt, liegt ein NV36 mit GDDR3 fast auf dem Niveau einer 9600XT beim Gesamtverbrauch des Systems.
Sorry fuer's OT, aber Du hast PM.
robbitop
2004-04-08, 10:50:38
bekomme ich auch eine? ;)
aber der NV36 ist tatsächlich sehr stromsparend.
die Nonultraversion könnte man glatt mit einer GF3 verwechseln =). Der Kühler ist extrem klein, leise und hat eine geringe Oberflächte, trotz 425MHz Chiptakt.
Was bei der FX5700U so viel Leistung aufnimmt ist der RAM.
IBM hat eben einen recht guten Fertigungsprozess, allerdings noch immer mit FSG.
bei THG ist immernoch eine Differenz von 9 W zw den beiden Karten. Allerdings hat die FX höher getakteten RAM, aber da GDDR3 nimmt sich das nicht soo viel, und die VPU ist doch komplexer als die des RV360. Dafür ist letzterer 25MHz höher getaktet.
LowK macht mit Sicherheit einiges aus. Die 9600XT hat bei 100MHz mehr als die 9600PRO soziemlich den gleichen Verbrauch. Und im Prinzip kann man nur die beiden vergleichen
Winter[Raven]
2004-04-08, 10:58:54
Nvidia wird wohl das selbe Verfahren verwenden wie ATi für AA nur denke ich werden sie die Gammakorrektur rauslassen soviel bringt diese nun auch wieder nicht und man spart Transitoren.
War abzusehen. Dank den blinden reviewer und den unzähligen Fanatikern, die das AF "schön" (im wahrsten Sinnde des Wortes) geredet haben, verschob sich das Augenmark mehr auf die AA Qualitaet. Nun, Nvidia geht den selben Weg. Und wehe, ein reviewer kritisiert dies, nachdem er ATi fast 2 Jahre damit durchkommen ließ!
Das wird so sein, ich sehe es schon: Zitat: "Nvidia senkt mit der neuen Generation der Hardware die AF Qualität zu seinen Vorgängern, dafür gibt's unsererseits Punktabzug und eine Ohrfeige für Nvidia."
Da geht wieder das gebashe einiger Fanatiker los.
Aber ich nehme an das AF wird auf dem Höhe des NV30 und NV35 bleiben, anderes kann ich mir einfach nicht vorstellen, bei Ati wird es wohl auch beim bekanntem vom R3xx bleiben.
Gaestle
2004-04-08, 11:19:27
Original geschrieben von reunion
Naja, solange ATI am AF nichts verbessert wäre dass für NV nicht schlimm, problematisch wäre es nur wenn ATI die winkelabhängigkeit abgelegt hat...
Naja, da kann man geteilter Meinung sein. Bei mir steht eine neue GraKa an, und ich wollte eigentlich NV (obwohl die - bei den derzeit erwerbbaren Karten - bei den für mich relevanten Games bei fast gleichem Preis etwas langsamer sind), und zwar deswegen, weil mir für meinen Geschmack AF wichtiger scheint als AA.
Ich finde es schon von ATi zum :kotz: , dass das AF so extrem winkelabhängig ist und man das vor allem bei entsprechenden Shots auch extrem deutlich sieht. Wenn NV jetzt diesbezüglich nachzieht, dann .... ja was ist dann eigentlich ... *hmpf*.... dann finde ich das zum doppel- :kotz: !!
Ich werde mir auf jeden Fall den GammaChrome mal näher ansehen, oder mal schauen was Serie5 (und deren Treiber) bringt.
'Tschuldigung, aber das musste sein.
Grüße
Quasar
2004-04-08, 11:25:07
Original geschrieben von robbitop
[...]aber der NV36 ist tatsächlich sehr stromsparend.[...]
Glaub ich dir gern, aber anscheinend wird das Ding trotzdem bedeutend wärmer:
Schau dir einfach mal die Monster-Heatpipe an, die Gainward auf ihre SilentFX 5700 non-ultra packt und dagegen das Mickerding (hier positiv gemeint), welches die R9600 Ultimates von Sapphire kühlt...
robbitop
2004-04-08, 11:30:03
tut mir leid Quasar aber du machst den selben blöden Fehler wie SP damals. Nämlich von Kühlkörpern auf die Leistungsaufnahme schliessen.
Die 9800PRO von ATi hat auch nen sehr kleinen Kühlkörper die 59xx Serie nicht. Beide haben sehr ähnliche Leistungsaufnahmen.
Ich schätze dass die ATi Chips generell höhere Temperaturen abkönnen. Somit wird der Kühlkörper und auch der Chip SEHR HEISS relativ gesehn zur Luft und dank sehr hoher Differenz sinkt der Kühlwiderstand, was den Kühlkörper dazu bringt, die Verlustleistung vollständig abzubauen.
Ist nur ne Theorie...
btw wir haben damals bei seijin eine 5900 @475MHz Chiptakt problemlos ohne Lüfter auf der HP kühlen können. Ganz normale Gehäusebelüftung und die Temperaturen waren sehr gut.
Quasar
2004-04-08, 11:30:40
Original geschrieben von Winter[Raven]
Das wird so sein, ich sehe es schon: Zitat: "Nvidia senkt mit der neuen Generation der Hardware die AF Qualität zu seinen Vorgängern, dafür gibt's unsererseits Punktabzug und eine Ohrfeige für Nvidia."
Vielleicht wird's ja auch Reviews geben, die schreiben:Mit nVidias neustem Geniestreich, dem nV40, hat man auch in Kalifornien die Zeichen der Zeit erkannt, die der derzeitige Marktführer für nicht-integrierte Lösungen gesetzt hat: Performance um jeden Preis!
Wir begrüßen es daher ausserordentlich, daß man endlich auch beim nV40 jene hervorragend leistungsschonende AF-Adaptivität einsetzt, um für die eingesparten Transistoren den Chiptakt um 10MHz nach oben zu prügeln.
Davon hat man in jedem Game etwas (nämlich den Längeren [Balken]) anstatt nur bei wenigen Winkeln, die sowieso nur Nerds und nVidioten wahrnehmen können.
Danke also an ATi, daß man nVidia auf den Pfad der Tugend führte und die Leistung, die wir alle so lieben, ermöglicht hat.
Wer weiß, vielleicht kommt ja mit DX-Next ein bahnbrechendes Qualitätsfeatures namens "bilinearer Texturfilter" verbindlich zum Einsatz.
Wir freuen uns schon drauf!
robbitop
2004-04-08, 11:32:34
ein solcher Author sollte einen IQ unter der zulässigen höchstgeschwindigkeit Innerorts haben, sorry.
Quasar
2004-04-08, 11:34:56
Original geschrieben von robbitop
tut mir leid Quasar aber du machst den selben blöden Fehler wie SP damals. Nämlich von Kühlkörpern auf die Leistungsaufnahme schliessen.
Die 9800PRO von ATi hat auch nen sehr kleinen Kühlkörper die 59xx Serie nicht. Beide haben sehr ähnliche Leistungsaufnahmen.
Nein, ich mache wenn schon, dann einen anderen Fehler. Ich beurteile die Bemühungen von Gainward und Sapphire, einen stabilen Betrieb ihres Produktes im abgeschlossenen Gehäuse eines handelsüblichen PC zu garantieren.
Zweitens: Ich schließe nicht auf die Leistungsaufnahme, sondern auf deren Abgabe, welche man bei Gainward offenbar so einschätzt, dass man dafür einen deutlich größeren Kühler braucht.
BTW, erinnere dich an den Test des MR-VGA Kühlers für die FX5800U - wie groß war das Ding nochmal?
[dzp]Viper
2004-04-08, 11:36:31
Original geschrieben von robbitop
tut mir leid Quasar aber du machst den selben blöden Fehler wie SP damals. Nämlich von Kühlkörpern auf die Leistungsaufnahme schliessen.
Die 9800PRO von ATi hat auch nen sehr kleinen Kühlkörper die 59xx Serie nicht. Beide haben sehr ähnliche Leistungsaufnahmen.
Ich schätze dass die ATi Chips generell höhere Temperaturen abkönnen. Somit wird der Kühlkörper und auch der Chip SEHR HEISS relativ gesehn zur Luft und dank sehr hoher Differenz sinkt der Kühlwiderstand, was den Kühlkörper dazu bringt, die Verlustleistung vollständig abzubauen.
Ist nur ne Theorie...
btw wir haben damals bei seijin eine 5900 @475MHz Chiptakt problemlos ohne Lüfter auf der HP kühlen können. Ganz normale Gehäusebelüftung und die Temperaturen waren sehr gut.
genau falschherum - der NV3x hält gerade hohe temperaturen aus - z.b. waren manche nv35 karten mal locker bei 90-100°C unter 3d :o
Quasar
2004-04-08, 11:37:20
Original geschrieben von robbitop
btw wir haben damals bei seijin eine 5900 @475MHz Chiptakt problemlos ohne Lüfter auf der HP kühlen können. Ganz normale Gehäusebelüftung und die Temperaturen waren sehr gut.
Immer diese edits...
"Sehr gute" Temperaturen? Sehr niedrig oder sehr hoch?
Außerdem gibt es einen Unterschied zwischen solchen Modding-Projekten und einer Karte, die serienmäßig so angeboten wird. Bei letzterer muss der Hersteller vom worst-case ausgehen - nämlich dass nur das Netzteil das Gehäuse irgendwie durchlüftet (und es dabei womöglich noch gedämmt ist).
Quasar
2004-04-08, 11:37:56
Original geschrieben von robbitop
ein solcher Author sollte einen IQ unter der zulässigen höchstgeschwindigkeit Innerorts haben, sorry.
Warum? Geiz ist Geil - Geschwindigkeit ist Geil. :eyes:
Endorphine
2004-04-08, 11:41:54
ROFL Quasar.
Ailuros,
könntest du mal eine kleine Zusammenfassung zu deinen bisher gemachten Aussagen zum NV40 posten? Insbesondere aus Original geschrieben von Ailuros
"Nur" gammakorrektur und "nur" ein 6*6 Grid im Vergleich zu R3xx.
Ich weiss dass ihr das EER Gewarkel nicht besonders gern habt, aber theoretisch braucht man ~1600*1200 mit 4*4 um den EER von 6*6 in 1024*768 zu erreichen.
Zum Thema AF: es war kein Zufall dass ich von "boomerangs" gewarnt habe und dass zwischen den Linien seit einiger Zeit. Natuerlich geht es auch anders und Winkel-abhaengigkeit ist eine eher doofe extra "Adaptivitaet", aber es sollten sich so manche Gedanken machen dass IHVs stets versuchen ihr Bestes zu tun in einem gewissen Zeitraum. Fuer manches gibt es dann eben genug Zeit und HW Platz und fuer anderes wiederum nicht.
Ich will ehrlich hoffen dass es sich beim NV40 nicht um HW-Ersparnisse handelt, sondern um reine SW Optimierungen. werde ich nicht so recht schlau.
Der NV40 bietet also 6×6 EER multisample AA und Gammakorrektur? Was will man denn noch mehr? Wenn man dann wahlweise noch Supersampling dazuschalten kann wüsste ich ehrlich gesagt nicht, was man daran noch verbessern könnte. Wenn der 6×-Modus passt wird sicher auch der 4× und 2× Modus in Ordnung sein.
Das AF wird also stark winkelabhängig? :puke: Brilinear würde ich ja schon am liebsten abschalten... Das wäre wirklich schade. Dann habe ich nämlich irgendwie gar keinen Grund mehr, noch auf die kleineren PCI-E Versionen des NV40 zu warten. Da kann ich auch bei ATI bleiben und mir einen R423 kaufen. Der hat wenigstens normalbreite TF Mipmapübergänge...
Mich würde mal interessieren, wieso noch jemand nVidia kaufen sollte, wenn die Karten aller Wahrscheinlichkeit nach für die gleiche Leistung mehr Strom aufnehmen, ein gleich schlechtes AF wie ATI bieten und dabei teurer sind als die ATI-Konkurrenz im selben Sektor. Da könnte nVidia ja nur noch mit den überlegenen XFree86-Treibern punkten, toll. :no:
Quasar
2004-04-08, 11:47:41
Original geschrieben von Endorphine
Der NV40 bietet also 6×6 EER multisample AA
Hat er was von _MS_AA gesagt? ;)
Original geschrieben von Endorphine
Das AF wird also stark winkelabhängig? :puke: Brilinear würde ich ja schon am liebsten abschalten...
Ackackackackackackackackackackackack!
Original geschrieben von Endorphine
Mich würde mal interessieren, wieso noch jemand nVidia kaufen sollte, wenn die Karten aller Wahrscheinlichkeit nach für die gleiche Leistung mehr Strom aufnehmen, ein gleich schlechtes AF wie ATI bieten und dabei teurer sind als die ATI-Konkurrenz im selben Sektor. Da könnte nVidia ja nur noch mit den überlegenen XFree86-Treibern punkten, toll. :no:
Oder mit mehr Leistung allgemein. Aber ich vermute _exxtrem_ stark, daß es sich beim AF um eine Software-Geschichte handelt.
MadManniMan
2004-04-08, 11:58:22
Que,
yeah - ein SW-seitiger Grund wair toll, aber ich glaub nicht dran.
Im Nachhinein frage ich mich wirklich, warum es nicht einfach mal ein paar
HINWEISE
seitens NV das doch bessere AF betreffend anstelle von ständiger BQ-Verschlechterungen im Zuge neuer Treiber gab.
Einige machen es sich echt zu leicht mit dem Kritisieren :ratlos:
robbitop
2004-04-08, 11:59:06
@Quasar
wir hatten ~60°C bei Vollast (diverse spiele probiert).
Die Argumentation mit der 9800 hast du ausgelassen. Warum haben die so kleine Kühlkörper??
Leistungsaufnahme = Verlustleistung (die 0,0x% sind zu vernachlässigen)
Und wenn du schon dazu kommst von Kühlkörpern auf die Verlustleistung zu schliessen, dann schau dir auch bitte die 5700NU an.
P.S. unsere 5700U war damals übrigens sehr kühl. Der Speicher hats halt ausgemacht.
Wir haben damals NV30 auch gut mit dem kleinen Revoltek kühlen können und es gibt ein Set von ich-bin-leise.de ...
diese Kühlkörper waren irgendwie...naja ...quark..
StefanV
2004-04-08, 11:59:13
Original geschrieben von Quasar
BTW, erinnere dich an den Test des MR-VGA Kühlers für die FX5800U - wie groß war das Ding nochmal?
Der MR Kühler hat ja auch 'nen ordentlichen Lüfter mit ordentlichem Durchsatz, der nV30 Kühler hat nur mehr Oberfläche, wirklich Luft bewegen tut der Lüfter bei dem Krach nicht so recht...
Endorphine
2004-04-08, 11:59:45
Original geschrieben von Quasar
Hat er was von _MS_AA gesagt? ;) OMFG, bitte kein SS+MS Mix, um mit ATI mithalten zu können :...(. Nicht, dass ich was gegen Supersample AA hätte, aber es frisst einem die Haare vom Kopf, da man für aktuelle Spiele dann eine 400+ EUR Graka anschaffen muss, um es nutzen zu können. :(
Ich hoffe doch inständig auf MSAA-Modi auf R300-Niveau. Mit Gammakorrektur. Sonst ist NV erst mal für mich gestorben und ich bleibe bei ATI. Tolle Treiber und weniger winkelabhängiges AF hin oder her, ich hab' mich jetzt so an gutes 2× und 4× AA gewöhnt, dass ich da keinen Abstieg mitmachen werde. Original geschrieben von Quasar
Oder mit mehr Leistung allgemein. Aber ich vermute _exxtrem_ stark, daß es sich beim AF um eine Software-Geschichte handelt. Wenn NV diesen Müll nicht aus den Treibern entfernt, sondern sogar noch ausbaut, um an's Cheatniveau von ATI heranzukommen habe ich genau 0,0 Nutzen davon, wenn's nur in Software implementiert ist.
Ich mag keine Grafikkarte kaufen weil die Treiber einer anderen Grafikkarte Scheisse sind (XFree86 bei ATI), ich will eine Entscheidung treffen mit dem Bewusstsein, mich für eine meinen Anforderungen entsprechend überlegene Lösung entschieden zu haben.
LovesuckZ
2004-04-08, 12:04:33
Original geschrieben von Quasar
Aber ich vermute _exxtrem_ stark, daß es sich beim AF um eine Software-Geschichte handelt.
Funktioniert dies überhaupt?
StefanV
2004-04-08, 12:05:40
Original geschrieben von robbitop
Die Argumentation mit der 9800 hast du ausgelassen. Warum haben die so kleine Kühlkörper??
1. soo klein sind die Dinger nicht.
2. auf dem 9800 PCB gibts noch die Regler und den Speicher, die ordentlich warm werden.
3. soo winzig ist der Kühler der 9800 nicht, der hat schon ordentlich Oberfläche und auch der Luftdurchsatz des Quirls ist recht ordentlich...
Etwa doppelt so viel, wie bei dem Mist, der auf der FX5800 NU sitzt und noch mehr als bei dem bescheuerten Yen Sun Teil, das auf der 5800U sitzt...
StefanV
2004-04-08, 12:09:08
Original geschrieben von LovesuckZ
Funktioniert dies überhaupt?
Wenn mans im Hardware implementiert, sicher *eg*
reunion
2004-04-08, 12:13:49
Original geschrieben von LovesuckZ
Aehm, bezweifel ich. Ansonsten hat man beim Platinendesign sehr geschlampt. Wenn man sich die Messungen (okay...) bei Tomshardwareguide (http://www.tomshardware.com/graphic/20040405/gddr3-11.html) anguckt, liegt ein NV36 mit GDDR3 fast auf dem Niveau einer 9600XT beim Gesamtverbrauch des Systems.
Hmm, sehr seltsame Werte, warum braucht man dann einen externen Stromanschluss wenn die Leistungsaufnahme nur minimal höher ist als die der 9600XT. Außerdem hat nicht sogar die 5700 nonU einen ext. Stromanschluss?
Also alle Leistungsaufnahmewerte die ich kenne kommen von PCGH und da benötigt eine 5700U (ohne GDDR3) 60W und eine 9600XT 25W, außerdem kommt eine 9800XT auch mit weniger (80W) aus als eine FX5950U (100W) also noch ein Widerspruch?!?!
Quasar
2004-04-08, 12:21:03
Original geschrieben von robbitop
Die Argumentation mit der 9800 hast du ausgelassen. Warum haben die so kleine Kühlkörper??
Leistungsaufnahme = Verlustleistung (die 0,0x% sind zu vernachlässigen)
Und wenn du schon dazu kommst von Kühlkörpern auf die Verlustleistung zu schliessen, dann schau dir auch bitte die 5700NU an.
P.S. unsere 5700U war damals übrigens sehr kühl. Der Speicher hats halt ausgemacht.
Wir haben damals NV30 auch gut mit dem kleinen Revoltek kühlen können und es gibt ein Set von ich-bin-leise.de ...
diese Kühlkörper waren irgendwie...naja ...quark..
1.) Offenbar, weil ATi im Betrieb eine Temperatur des Kühlkörpers spezifiziert hat, die höher als die gewünschte Kükö-Temp bei nV liegt. Möglich wäre auch, daß die nV3x stärker unter sog. Hot-Spots leiden, als die R3xx.
Dazu wird bei ATi (default) der Speicher nicht mitgekühlt, bei nV hingegen schon. (s. unten FX5700nu)
Des Weiteren:
R9800p vs. FX5900 von Asus: PCI-1 mit Voodoo2 (inaktiv) bestückt. 10 Minuten Fablemark laufen lassen und schon gab's Pixelfehler auf der Radeon. Die FX wurde zwar knallheiß (~112° IIRC), lief aber stabil und ohne Fehler 30 Minuten weiter (dann habe ich abgebrochen).
Ergo: Design der R9800p dichter am Limit.
2.) Das bestreitet doch keiner, aber Wärmeabgabe ist nicht dasselbe wie Verlustleistung. Hier wirkt auch mit, wie gut ich die Wärme mit welchem Material wieder von der Quelle wegbekomme.... so hat z.B. cu im Vergleich zu al die Eigenschaft, Wärme besser zu leiten, aber man bekommt die Wärme auch schlechter wieder vom cu weg (also WÜ von Quelle zu cu = gut, WÜ von cu zu Luft != gut).
3.) Hier kommen wir wieder zu oben genanntem: nV36u vs. nV36nu. Was ist der große Unterschied ausser den/dem ~12% Chiptaktunterschied?
Speicher.
Beim Ultra wird der DDR2-RAM aktiv mitgekühlt, daher Monsterkühler.
Beim non-Ultra dagegen TSOP-RAM mit niedriger Frequenz, der nicht gekühlt wird. Chipkühler dem angepasst.
3a.)
Wie ich schon sagte: Modding-Projekte sind nicht dasselbe, wie eine Serie, für die der Hersteller immerhin auch die Garantie übernehmen muss. Diese sollte auch unter Worst-Case Bedingungen stabil laufen. Ich hoffe, in der nächsten Zeit die Gelegenheit zu haben, dies zu illustrieren.
Quasar
2004-04-08, 12:23:17
Original geschrieben von reunion
Hmm, sehr seltsame Werte, warum braucht man dann einen externen Stromanschluss wenn die Leistungsaufnahme nur minimal höher ist als die der 9600XT. Außerdem hat nicht sogar die 5700 nonU einen ext. Stromanschluss?
Also alle Leistungsaufnahmewerte die ich kenne kommen von PCGH und da benötigt eine 5700U (ohne GDDR3) 60W und eine 9600XT 25W, außerdem kommt eine 9800XT auch mit weniger (80W) aus als eine FX5950U (100W) also noch ein Widerspruch?!?!
Nein, die non-Ultra hat keinen Stromanschluss ausser dem AGP. Außerdem solltest du die Unterschied zwischen DDR2 und GDDR3-VErsion mal begucken - da liegt der Hund begraben.
Nochmal außerdem ;) muss nicht zwangsläufig die Leistungsaufnahme, sondern es kann evtl. auch die Stromstärke oder Spannungsstabilität eine Rolle spielen, warum man über "extern" geht.
LovesuckZ
2004-04-08, 12:23:42
Original geschrieben von reunion
Hmm, sehr seltsame Werte, warum braucht man dann einen externen Stromanschluss wenn die Leistungsaufnahme nur minimal höher ist als die der 9600XT.
Speicher. Die Karten haben einen fast 200MHZ hoeher getakteten Speicher. Dazu kommt eben das komplexe Platinendesign.
Inwieweit man für die 475 GDDR3 Speicher auch einen externen Stromanschluss benötigt sollte man auch klären.
Außerdem hat nicht sogar die 5700 nonU einen ext. Stromanschluss?
Nein.
Also alle Leistungsaufnahmewerte die ich kenne kommen von PCGH und da benötigt eine 5700U (ohne GDDR3) 60W und eine 9600XT 25W, außerdem kommt eine 9800XT auch mit weniger (80W) aus als eine FX5950U (100W) also noch ein Widerspruch?!?!
Wie gesagt, THG und Computerbase.de scheinen die Werte zu widerlegen.
Und wenn die 9600XT wirklich nur 25Watt verbrauche, warum wird dann so ein Aufstand um den Deltachrome gemacht?
reunion
2004-04-08, 12:24:29
Original geschrieben von robbitop
Es gibt eh kaum Reviewer, die man als wirklich kompetent bewerten könnte, das Schlimme ist, dass die dümmsten die exklusiv Samples bekommen. Ich finde Leo sollte die bekommen und testen. ´
Ich denke das ist volle Absicht das die dümmsten die exklusiv-Samples bekommen. Denn die Benchen einfach bereits optimierte Anwendungen ala 3dmark, ohne BQ-Vergleiche, ohne irgendein kommentar welches Verfahren besser ist(also einfach 4x vs. 4x), eben ohne Hirn. Und dadurch werden keine Cheats aufgedeckt und keiner mekert blöd rum das die eine Karte mehr Leistungsaufnahme hat oder das das AA beim einem viel schlechter aussieht. Einfach sinnlos die fps abschreiben, was will man mehr als Grakahersteller? ;)
Quasar
2004-04-08, 12:26:58
Original geschrieben von LovesuckZ
Wie gesagt, THG und Computerbase.de scheinen die Werte zu widerlegen.
Und wenn die 9600XT wirklich nur 25Watt verbrauche, warum wird dann so ein Aufstand um den Deltachrome gemacht?
Stop! Wir haben mit Leistungsmessung bisher keine 9600XT bei Computerbase.de gehabt, IIRC. Nur R9600p und dazwischen liegt der 0,13µ-lowk-Prozess. Möglicherweise macht der viel aus!
robbitop
2004-04-08, 12:28:12
@Reunion
ja der GDDR2 schluckt ordentlich Leistung.
hier mal eine 5700NU
http://www.geizhals.at/img/pix/80451.jpg
@SP
naja ich hab ne 9800 hier, der Kühlkörper sieht klein aus.
Aber wie Quasar mal sagte, kühlt NV den Speicher mit, ich denke das ist der Knackpkt
@Quasar
ja NV hat einfach eine andere Kühlphilosophie als ATi.
Ich finde gerade deshalb kann man einfach nicht auf die Abwärme vom Kühler schliessen.
Sagmal wie teuer ist so ein Messgerät für Verlustleistung?
Quasar
2004-04-08, 12:31:17
Original geschrieben von robbitop
Sagmal wie teuer ist so ein Messgerät für Verlustleistung?
20-30EUR, IIRC.
Sind allerdings nur für den Hausgebrauch und du misst alles, inkl. der Verluste im Netzteil mit.
AGP-Extender gibt's AFAIK ab 1000EUR aufwärts (und die sollen des öfteren mal beim messen draufgehen).
StefanV
2004-04-08, 12:38:07
Original geschrieben von Quasar
Stop! Wir haben mit Leistungsmessung bisher keine 9600XT bei Computerbase.de gehabt, IIRC. Nur R9600p und dazwischen liegt der 0,13µ-lowk-Prozess. Möglicherweise macht der viel aus!
öhm, ist dir schonmal aufgefallen, daß unterschiedliche Karten eine (tlw. deutlich) unterschiedliche Leistungsaufnahme besitzten??
Also ich spreche hier von Bereichen um die 20W differenz...
z.B.
FX5900XT von MSI -> ~45W
FX5900XT von PNY -> ~70W
FX5900XT von GBT -> ~54W
Quelle: PCGH, 05/04.
BTW: diese PCGH 'beweist' auch, daß 'meine Vorstellung eines guten Kühlers' zutrifft, siehe die MSI -> leiseste und kühlste im Test...
reunion
2004-04-08, 12:44:56
Original geschrieben von LovesuckZ
Speicher. Die Karten haben einen fast 200MHZ hoeher getakteten Speicher.
Ja, ich meinte aber die GDDR3 Version...
Dazu kommt eben das komplexe Platinendesign.
Was daran liegt dass man eben mehr Strom benötigt.
Und wenn die 9600XT wirklich nur 25Watt verbrauche, warum wird dann so ein Aufstand um den Deltachrome gemacht?
Keine Ahnung, allerdings wird das mit einen AGP-Extender in 3D gemessen, und da die 9600XT sonst keine Stromzufuhr hat wüsste ich nicht was man da falsch machen könnte...
Quasar
2004-04-08, 12:45:05
Original geschrieben von Stefan Payne
öhm, ist dir schonmal aufgefallen, ...
Mir ist bekannt, daß die Leistungsaufnahme unterschiedlicher Karten schwanken kann, natürlich.
Wobei ich 66% Zuwachs (MSI -> PNY) ad hoc mal für ein wenig, sagen wir, unexemplarisch halte, zumal ich nicht weiß, was die PCGH wie getestet hat. *shrugs*
@Quasar
full Ack, wenn man PCGH als Quelle angibt kannst du auch gleich THG oder Gamestar angeben.
Wer viel misst, misst oft Mist. Und wenn man misst, sollte man vieleicht die passenden Quallifikationen haben und eine Fehlerbetrachtung durchführen
@SP
diese Unterschiedlichen Werte kommen mir sehr suspekt vor
Quasar
2004-04-08, 12:52:00
Leg' mir nix in den Mund.... X-D
Gegen die PCGH habe ich nix und es arbeiten, AFAIK durchaus fähige Leute da (in Bezug auf Grakas jedenfall deutlich fähiger, als die Dinosaurier bei der c't).
Ich kann nur leider nicht die Methoden nachvollziehen (da ich das entsprechende Heft nicht besitze), deshalb kann und will ich nichts zu dieser Messung sagen.
naja ich sehe da keine Fehlerbetrachtung. Sowas gehört dazu wenn man eine Messung macht. Schöne bunte Balken sehe ich.
Ok du hast Recht, von den Printmagazinen bekommt man nichts Besseres über Grafikkarten. Aber im Land der Blinden ist der Einäugige König.
StefanV
2004-04-08, 12:58:21
Original geschrieben von Quasar
Leg' mir nix in den Mund.... X-D
Gegen die PCGH habe ich nix und es arbeiten, AFAIK durchaus fähige Leute da (in Bezug auf Grakas jedenfall deutlich fähiger, als die Dinosaurier bei der c't).
Ich kann nur leider nicht die Methoden nachvollziehen (da ich das entsprechende Heft nicht besitze), deshalb kann und will ich nichts zu dieser Messung sagen.
Per Referenzgraka wurde samt AGP Extender die Leistungsaufnahme des Systems gemessen, dann wurde die AUfgenommene Leistung mit einem Strommessgerät (von Satron) getestet.
Allerdings wurde der UT Antalus Flyby getestet sowie Windows Destkop bei 1024x768, 60Hz :|
PS: da hätte man auch mit max MSAA und AF testen sollen, denke ich :|
reunion
2004-04-08, 13:00:11
Original geschrieben von robbitop
ja NV hat einfach eine andere Kühlphilosophie als ATi.
Ich finde gerade deshalb kann man einfach nicht auf die Abwärme vom Kühler schliessen.
Sorry, aber das halte ich für Schwachsinn. Beide Hersteller müssen garantieren das die Karte mit dem verwendeten Kühlkörper stabil läuf. Das die ATI-Karten mehr hitze vertragen glaube ich auch nicht, immerhin werden ja beide aus Silizium gefertigt, außerdem sind die NV Karten ja auch nicht gerade kühl. Für mich bleiben deshalb nur zwei Möglichkeiten, entweder die NV-Karten benötigen einfach mehr Saft und deshalb auch mehr Kühlung, oder NV ist nicht in der Lage die einzelnen Gruppen im Die ordentlich zu verteilen wodurch Hotspots entstehen...
robbitop
2004-04-08, 13:06:05
Hotspots wären eine Möglichkeit.
Das mit dem Silizium ist imo kein echtes Argument.
Im Halbleiterbereicht gibt es soo unterschiedliche Angaben für Temperaturen für Chips. Lass es 5-10° Differenz sein, schon kann ein kleinerer oder leiserer Kühlkörper die Energie besser abführen. Aber es liegt wie bereits besprochen auch an der RAMKühlung. Das sind nochmal mind +20W.
Zur Leistungsaufnahme: es ist nachgewiesen, dass FX59xx und R9800xx sich nicht viel nehmen ;)
Der große Unterschied war nur sobald ein IHV DDR2 einsetzte, der andere nicht
Quasar
2004-04-08, 13:07:40
Original geschrieben von Stefan Payne Per Referenzgraka wurde samt AGP Extender die Leistungsaufnahme des Systems gemessen, dann wurde die AUfgenommene Leistung mit einem Strommessgerät (von Satron) getestet.
Also auch "nur" eine Differenzmethode, nur das man hier die Grundlast genauer eingegrenzt hat.
Was an Variablen bleibt, ist die unterschiedliche Systemlast bei unterschiedlichen Grakas (welches war denn die Referenzkarte?)...
So kann z.B. eine Matrox G550 in UT2003 schon die CPU zu etlichen HALT-zyklen zwingen, was wiederum auf die Vergleichbarkeit Auswirkungen hat.
Original geschrieben von Endorphine
ROFL Quasar.
Ailuros,
könntest du mal eine kleine Zusammenfassung zu deinen bisher gemachten Aussagen zum NV40 posten? Insbesondere aus werde ich nicht so recht schlau.
Der NV40 bietet also 6×6 EER multisample AA und Gammakorrektur? Was will man denn noch mehr? Eine Brille? :schleich: Ail sprach beim MSAA imo vom R300, nicht vom NV40.
Endorphine
2004-04-08, 13:50:43
Original geschrieben von aths
Eine Brille? :schleich: Ail sprach beim MSAA imo vom R300, nicht vom NV40. Ich lese jetzt einfach mal zwischen deinen Zeilen (*Browserfenster kleiner mach*), dass der NV40 ein MSAA unter R300-Niveau bietet. Schade. ;(
Winter[Raven]
2004-04-08, 13:59:39
Original geschrieben von Endorphine
Ich lese jetzt einfach mal zwischen deinen Zeilen (*Browserfenster kleiner mach*), dass der NV40 ein MSAA unter R300-Niveau bietet. Schade. ;(
Falsch gelesen ;D
MadManniMan
2004-04-08, 14:06:22
Original geschrieben von Winter[Raven]
Falsch gelesen ;D
...weil? :| Irgendwie kommt von dir immer Zweifelhaftes/Provokantes. Warum?
Winter[Raven]
2004-04-08, 14:09:25
Original geschrieben von MadManniMan
...weil? :| Irgendwie kommt von dir immer Zweifelhaftes/Provokantes. Warum?
Weil ich es für dich nochmal gern wiederhole, der VN40 wird ein Grid haben wie ATI.
nur darf/kann ich dir leiner die Quelle nicht nennen.
Was heißt hier Provokant ? Ich bin nicht provokanter unterwegs als einfaar Leute die man nicht als Fanatiker oder Fanboy's nennen darf.
Endorphine
2004-04-08, 14:26:20
Wenn die Gammakorrektur fehlt ist das AA trotzdem nicht dem AA des R300 ebenbürtig.
robbitop
2004-04-08, 14:29:41
in der Theorie schon, in der Praxis brauchst du aber eine Lupe um das zu belegen ;)
Quasar
2004-04-08, 14:32:36
Auch in der Theorie nicht. Wenn ATi wirklich Gamma 2.2 verwendet, wirkt diese Korrektur nur auf Displays mit Gamma 2.2 korrekt.
Auf anderen Displays kann das Ganze sogar negative Effekte haben.
Aber gut, ich bin was AA angeht, sowieso eine anspruchslose Natur.
Winter[Raven]
2004-04-08, 14:35:05
Original geschrieben von robbitop
in der Theorie schon, in der Praxis brauchst du aber eine Lupe um das zu belegen ;)
Hab ich ja auch gesagt, aber hay alles was ich sage ist laut MadManniMan zweifelhaft.
betasilie
2004-04-08, 14:41:40
Original geschrieben von robbitop
in der Theorie schon, in der Praxis brauchst du aber eine Lupe um das zu belegen ;)
Naja, an vielen Stellen siehst Du den Unterschied kaum bis garnicht, aber es gibt durchaus Kanten, die stark von der Gammakorrektur profitieren.
MadManniMan
2004-04-08, 14:48:51
Original geschrieben von Winter[Raven]
Weil ich es für dich nochmal gern wiederhole, der VN40 wird ein Grid haben wie ATI.
Bingo, er wird ein neues Grid von ATi haben.
Original geschrieben von Winter[Raven]
Was heißt hier Provokant ? Ich bin nicht provokanter unterwegs als einfaar Leute die man nicht als Fanatiker oder Fanboy's nennen darf.
Findest du das gut? Outest du dich damit als - pardon - nVidiot?
:ratlos:
Endorphine
2004-04-08, 14:49:57
Original geschrieben von robbitop
in der Theorie schon, in der Praxis brauchst du aber eine Lupe um das zu belegen ;) Der Unterschied ist imho sehr gross, auch wenn viele das in der NV40-Euphorie nicht wahrhaben wollen. Die Gammakorrektur sorgt imo erst so richtig dafür, dass MSAA wirklich wirkt. Insbesondere bei <6× AA ist der Effekt sehr stark.
Ich habe mich jetzt einfach an das R300-AA gewöhnt und möchte von diesem Qualitätslevel nicht mehr absteigen. Ich hätte jetzt zusätzlich gern wieder NV-Treiber, ein TF ohne Qualitätsreduktion sowie AF nach klassischer NV-Spielart. Das ganze dann in einem PCI-Express NV4x für 200 EUR und 4×2 Pipelines bei >450 MHz. Dazu bitte 256 MiB GDDR3-SDRAM für niedrigere Leistungsaufnahme.
Ich bin mal gespannt, ob eher ATI oder NV meine Ansprüche befriedigen können. Soooo viel verlange ich da imo eigentlich nicht.
MadManniMan
2004-04-08, 14:49:58
Original geschrieben von Winter[Raven]
Hab ich ja auch gesagt, aber hay alles was ich sage ist laut MadManniMan zweifelhaft.
Ich habe hier grad zwei TFTs vor mir stehen und ich kann mich kaum mehr erinnern, wies mit meinem CRT war, aber bei 2*MS empfinde ich die Gamma-Anpassung auch schonmal als Nachteil. Ab 4*RGMS wiegt sich das jedoch wieder auf, das Bild wird besser.
Winter[Raven]
2004-04-08, 14:55:17
Bingo, er wird ein neues Grid von ATi haben.
Gut das du hier im Spekuforum bist ^^. Ich würd darauf nicht wetten.
Aber hai, sind ja nur noch 6 Tage ... *eg*
Quasar
2004-04-08, 14:58:07
Ich habe noch ein Interview mit ein paar nVidia-Fuzzies im Hinterkopf, wo behauptet wurde, das AA-Grid des nV30 sei "non-rectangular".....
robbitop
2004-04-08, 15:03:40
hm ich habs mal testen dürfen (schon ein paar Mal) und ich brauchte zumindist die Zoomfunktion um ein klein wenig mitzubekommen...
seahawk
2004-04-08, 15:18:38
Könnt ihr euch nicht mal zurücklehnen. In 6 Tagen werdet ihr alle wissen, was der NV40 kann. Und wenig später was der R420 kann.
Und Ende April wissen wir, dass sich nichts geändert hat. :D
Endorphine
2004-04-08, 15:25:07
Original geschrieben von seahawk
Könnt ihr euch nicht mal zurücklehnen. In 6 Tagen werdet ihr alle wissen, was der NV40 kann. Und wenig später was der R420 kann.
Und Ende April wissen wir, dass sich nichts geändert hat. :D Du meinst also, dass nVidia dann wieder den Markt in der Hand hat und eiskalt mit der Macht eines absolutistischen Kaisers regiert? X-D
Original geschrieben von Quasar
Ich habe noch ein Interview mit ein paar nVidia-Fuzzies im Hinterkopf, wo behauptet wurde, das AA-Grid des nV30 sei "non-rectangular"..... Die Aussage betraf afaik 6xS und/oder 8xS.
Original geschrieben von betareverse
Naja, an vielen Stellen siehst Du den Unterschied kaum bis garnicht, aber es gibt durchaus Kanten, die stark von der Gammakorrektur profitieren. Hängt eher vom Wiedergabegerät ab. Es sind Monitore denkbar, wo das "gammakorrekte" Downfilering grundsätzlich mehr stört, als nützt.
Quasar
2004-04-08, 15:35:39
Original geschrieben von aths
Die Aussage betraf afaik 6xS und/oder 8xS.
IIRC hatte der Interviewer dummerweise vergessen, seine Frage _genauer_ zu stellen. Da war's für die Leute einfach, einen ihnen passenden AA-Modus herauszupicken.
Aber Ack. Die Antwort bezog sich im Nachhinein betrachtet eindeutig auf xS-AA.
robbitop
2004-04-08, 15:39:10
ich finde die Gammakorrektur auch nicht soo wichtig
Nunr noch 5 Tage ... so langsam müsste jetzt aber auch mal was handfestes leaken :gruebel:
Winter[Raven]
2004-04-08, 16:01:50
Wieso 5 Tag ... :kratz:
Ich spekuliere mal du wirst was Handfestes erst am 14 sehn ..................................... *eg*
VooDoo7mx
2004-04-08, 17:09:31
Original geschrieben von Winter[Raven]
Wieso 5 Tag ... :kratz:
Ich spekuliere mal du wirst was Handfestes erst am 14 sehn ..................................... *eg*
Wieso nicht am 13.? Meinst du, dass man in Europa neurdings nicht mehr auf amerikanischen Internetseiten lesen kann?
Ailuros
2004-04-08, 17:11:56
Original geschrieben von Winter[Raven]
Weil ich es für dich nochmal gern wiederhole, der VN40 wird ein Grid haben wie ATI.
nur darf/kann ich dir leiner die Quelle nicht nennen.
Was heißt hier Provokant ? Ich bin nicht provokanter unterwegs als einfaar Leute die man nicht als Fanatiker oder Fanboy's nennen darf.
Stell Dir sicherheitshalber einen Besen bereit; ich wuensch Dir dann in ein paar Tagen guten Appetit. So provokant :P
Winter[Raven]
2004-04-08, 17:13:00
Naja soweit ich mitbekommeh habe findet die Präsentation am 13 April um 8.00 PM statt, jetzt musst du 9 Stunden dazurechnen und das wäre schon der 14 ^^.
Ailuros
2004-04-08, 17:15:30
Uebrigens um Missverstaendnissen zu entgehen, der maximale grid den ich meine, bezieht sich ausschliesslich auf reines MSAA.
Original geschrieben von betareverse
Naja, an vielen Stellen siehst Du den Unterschied kaum bis garnicht, aber es gibt durchaus Kanten, die stark von der Gammakorrektur profitieren.
und wiederum auch viele bei denen es eher negativ ist. Das gleicht sich dann wieder aus. Die Gamma Correctur ist nun wirklich nebensächlich. Das Featrue macht nun wirklich keinen Ausschlag. Die Sample-Anzahl und die Anordnung des Abtastmusters sind entscheiden und natürlich der Speed. Der NV40 soll angeblich mit seinem AA verdammt wenig Performance verlieren. Ich bin gespannt. 4x RG reicht mir bereits.
Ailuros
2004-04-08, 17:19:04
Original geschrieben von Gast
und wiederum auch viele bei denen es eher negativ ist. Das gleicht sich dann wieder aus. Die Gamma Correctur ist nun wirklich nebensächlich. Das Featrue macht nun wirklich keinen Ausschlag. Die Sample-Anzahl und die Anordnung des Abtastmusters sind entscheiden und natürlich der Speed. Der NV40 soll angeblich mit seinem AA verdammt wenig Performance verlieren. Ich bin gespannt. 4x RG reicht mir bereits.
Es sieht bis jetzt nicht so aus als ob er weniger als andere moegliche Loesungen verliert. Bei naechster Generation chips und ein N Prozentual mehr Bandbreite, ist dieses auch zu erwarten.
Mir reicht nichtmal ein 6*6 grid in hohen Aufloesungen; kommt aber wiederum drauf an was man fuer einen Bildschirm hat. Bei meinem uralten vorigen Bildschirm war mir 4*4 auch genug.
Stell Dir vor ich hab nicht mal einen LCD monitor....
***edit: danke Stef :)
LovesuckZ
2004-04-08, 17:20:48
Original geschrieben von Gast
Der NV40 soll angeblich mit seinem AA verdammt wenig Performance verlieren. Ich bin gespannt. 4x RG reicht mir bereits.
Nunja, auch der NV35 verliert von 2AA auf 4AA in vielen Spiele "wenig Performance"...
Was mich eher interessiert, ob gleichzeitig auch RGSSAA Modien vorhanden sind.
StefanV
2004-04-08, 17:22:26
Original geschrieben von Ailuros
Stell Dir ich hab nicht mal einen LCD monitor....
Hm, streich das stell dir, schaut etwas hübscher aus oder setz ein vor hinter dir, dann gehts auch ;)
Demirug
2004-04-08, 17:23:58
Selbst mit einer perfekten Kompression kann MSAA niemals "4free" sein. Es skaliert mindestens der Anzahl der Kantenpixel.
Das ist auch der Grund warum der NV35 von 2xAA auf 4xAA wenig verliert. Die Kompression ist gleich gut und von 2xAA auf 4xAA kommen kaum neue Kantenpixel hinzu.
Ailuros
2004-04-08, 17:32:54
Original geschrieben von LovesuckZ
Nunja, auch der NV35 verliert von 2AA auf 4AA in vielen Spiele "wenig Performance"...
Was mich eher interessiert, ob gleichzeitig auch RGSSAA Modien vorhanden sind.
Von den hybriden modi hab ich nichts gehoert, aber ich koennte mir gut vorstellen, dass man hier leicht >4*4 erreichen kann.
Gibt es irgendwelche Erfahrungswerte oder Tests oder Studien wo man sehen kann welche Monitore besser oder schlechter mit der Gamma Korrektur zurechtkommen?
Doofe Frage: Kann man mit einem LCD/TFT eigentlich hoeher als die native Aufloesung oder geht das nicht?
@Doofe Frage
nein das geht nicht, die aufloesung ist beim tft natuerlich durch die pixelanzahl begrenzt, und wenn das nur 1280 auf der horizontalen sind dann geht die aufloesung nicht hoeher als 1280...
Black-Scorpion
2004-04-08, 17:56:30
Original geschrieben von Gast
Doofe Frage: Kann man mit einem LCD/TFT eigentlich hoeher als die native Aufloesung oder geht das nicht?
Nein.
Endorphine
2004-04-08, 18:16:34
Man könnte die höhere Auflösung vor der Wandlung in ein DVI-Signal auf die kleinere physikalische herunterskalieren, ebenso wie man niedrigere Auflösungen hochskaliert. Das "geht" also schon, nur ist es imo ziemlich sinnfrei.
Edit: Oder obwohl ... das wäre ja dann Supersample AA. Hmm... :grübel: Kann man wohl drüber streiten.
Is ja doof, da stecke ich mein Geld lieber in einen CRT der auch mal 1600 x 1200 und hoeher kann. Ein TFT der sowas kann ist mir das eindeutig zu teuer. Fuer ca. 600 Euro kriege ich ja schon einen 22" Moni von Iilyama der dann, wenn es die Graka in Zukunft zulaesst, vernuenftige Wiederholraten bringt. Ausserdem kann ich mit dem dann zumindest als Spielerei auch schon mal Digi-TV mit voller Aufloesung antesten. 600 Euro klingt zwar viel aber ich behalte meine Monitore aber auch ueber 5 bis 6 Jahre.
Bei den Grakas konnte man ja ueber die letzten Jahre die Spielaufloesung von 640x480 auf mittlerweile anscheinend 1024x768 sehen. Werden der NV40 und der R420 das noch hoeher schrauben koennen oder ist 'nur' die ausreichende Leistungsfaehigkeit im Bereich 4AA+4AF (oder hoeher?) in 1024x768 angedacht? 1280x960 waere auch schoen :)
MarioK
2004-04-08, 20:18:51
Original geschrieben von Endorphine
Man könnte die höhere Auflösung vor der Wandlung in ein DVI-Signal auf die kleinere physikalische herunterskalieren, ebenso wie man niedrigere Auflösungen hochskaliert. Das "geht" also schon, nur ist es imo ziemlich sinnfrei.
Edit: Oder obwohl ... das wäre ja dann Supersample AA. Hmm... :grübel: Kann man wohl drüber streiten.
OT:
hab mich auch gefragt:
man hat FC in 800 x 600 no AA, das wird auf TFT mit 1600x1200 hochinterpoliert,
was kriegt mann dann super AA (Texturen werden geglatet) oder blur ??
wie wirkt sich AF drauf ???
seahawk
2004-04-08, 20:26:20
Original geschrieben von Endorphine
Du meinst also, dass nVidia dann wieder den Markt in der Hand hat und eiskalt mit der Macht eines absolutistischen Kaisers regiert? X-D
Nö. Aber mehr sage ich noch nicht :D
Endorphine
2004-04-08, 20:34:25
Original geschrieben von MarioK
OT:
hab mich auch gefragt:
man hat FC in 800 x 600 no AA, das wird auf TFT mit 1600x1200 hochinterpoliert,
was kriegt mann dann super AA (Texturen werden geglatet) oder blur ??
wie wirkt sich AF drauf ??? Wenn die Rasterung des Bildes in einer niedrigen Auflösung erfolgt erhält man durch Höherskalierung des Bildes auch keine neuen zusätzlichen Informationen. Im besten Fall ist die Interpolation also einfach nur unscharf. AF hat in dem Fall keinen Einfluss auf die Qualität der Interpolation. AF wirkt ja genau wie vorher nur auf die Pixel des Rasterbildes mit der niedrigen Auflösung.
Bildqualitätsgewinne hast du immer nur dann wenn das Bild (oder Teile davon) von einer höheren Auflösung auf eine niedrigere herunterskaliert wird. Dann fließen in einen dargestellten Pixel mehr Informationen ein als wenn man das Bild direkt in der Auflösung gerastert hätte.
Das Prinzip kann man sich einfach mit einer Extremüberlegung erschließen: Wenn du eine Landschaft fotografierst und deine Kamera das ganze Bild in nur vier Pixel auflöst kannst du hinterher aus diesen riesigen vier Pixeln (2×2) auch mit einer Skalierung auf 2048×1536 das ursprüngliche Bild nicht wieder herstellen. Die Information ist einfach nicht da. Wenn du dagegen in 2048×1536 fotografierst und dann auf 640×480 herunterskalierst hast du mit einem guten Skalierungsfilter (z. B. bikubisch) und einer unscharfen Maske ein wirklich großartiges Bild, das deutlich besser aussieht als eines, welches direkt in 640×480 aufgenommen wurde.
Von hoher physikalischer Rasterauflösung herunterskalieren: :up:
Von niedriger physikalischer Rasterauflösung heraufskalieren: :down:
Edit: Ich merke gerade, dass der Vergleich mit der digitalen Fotografie etwas blöd gewählt ist und nur in Grenzen mit 3D-Renderbeschleunigung im Rechner vergleichbar ist. Bitte nicht hauen. ;)
Winter[Raven]
2004-04-08, 21:13:13
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg
1 SLotlösung und soll leise sein.
Wie war das mit Dustbuster2, ihr lieben Atianer? ;D
Quasar
2004-04-08, 21:17:27
tststs, wer hat das denn schon wieder geleakt....?
Dual DVI! :up:
Der Lüfter sitzt auch neben der GPU, g00t. :up:
betasilie
2004-04-08, 21:47:01
Original geschrieben von Winter[Raven]
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg
1 SLotlösung und soll leise sein.
Wie war das mit Dustbuster2, ihr lieben Atianer? ;D
Sieht wirklich schön und leise aus. Und das PCB ist wirklich sehr auber aufgebaut. :up:
reunion
2004-04-08, 21:49:48
Original geschrieben von betareverse
Und das PCB ist wirklich sehr auber aufgebaut. :up:
Das liegt dann allerdings an den 2 Stromanschlüssen durch die man sich eine aufwendigen Spannungswandler ersparen kann, dafür benötigt man 2 eigene Sträbge vom Netzteil...
betasilie
2004-04-08, 22:08:34
Original geschrieben von reunion
Das liegt dann allerdings an den 2 Stromanschlüssen durch die man sich eine aufwendigen Spannungswandler ersparen kann, dafür benötigt man 2 eigene Sträbge vom Netzteil...
Ist doch super, imo.
egdusp
2004-04-08, 22:10:34
Original geschrieben von reunion
Das liegt dann allerdings an den 2 Stromanschlüssen durch die man sich eine aufwendigen Spannungswandler ersparen kann, dafür benötigt man 2 eigene Sträbge vom Netzteil...
Da gibt es unterschiedliche Meinungen. Bisher hat nur TI von 2 getrennten Strängen gesprochen. Es kann auch sein, dass die Kontakte der kritische Punkt sind und ein Kabelstrang ausreicht.
mfg
egdusp
Godmode
2004-04-08, 22:16:22
Original geschrieben von Winter[Raven]
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg
1 SLotlösung und soll leise sein.
Wie war das mit Dustbuster2, ihr lieben Atianer? ;D
Sieht nicht schlecht aus, man merkt schon was das ausmacht wenn ein Hersteller seinen Chip ordnungsgemäß Produzieren kann und ihn nicht so hochprügeln muss wie den NV30 :)
ShadowXX
2004-04-08, 22:35:01
Original geschrieben von bans3i
Sieht nicht schlecht aus, man merkt schon was das ausmacht wenn ein Hersteller seinen Chip ordnungsgemäß Produzieren kann und ihn nicht so hochprügeln muss wie den NV30 :)
Rein vom äusseren macht Sie ganz gut was her....
Original geschrieben von Winter[Raven]
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg
1 SLotlösung und soll leise sein.
Wie war das mit Dustbuster2, ihr lieben Atianer? ;D
Gibts dazu nun eine Quelle, oder ist das reine Erfindung?!
Super Grobi
2004-04-08, 22:43:01
Wau... sieht die GEIL aus....
jetzt fehlen mir nur noch die Technischen Daten + Benchmark Ergebnisse + Preis und Shop wo ich die bestellen kann "ggg"
Gruss
SG
betasilie
2004-04-08, 22:46:24
Original geschrieben von Gast
Gibts dazu nun eine Quelle, oder ist das reine Erfindung?!
Das Pic ist, wenn es echt ist, wovon ich ausgehe, ein Leak. ;)
Quasar
2004-04-08, 22:49:17
Guckt mal genau auf das Bild:
[GeForce 6800 Ultra]
.... da fehlt doch nicht etwa ein "FX" X-D
Godmode
2004-04-08, 22:50:06
http://www.pcinpact.com/images/bd/news/9389.jpg
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg
vergleich die beiden mal! Hinten beim Stromstecker ganz gleich und die Linien auf dem PCB stimmen mit dem Kühler überein
edit: und noch viele weitere Übereinstimmungen!
entweder echt oder ne "verdammt gute" Fälschung
Demirug
2004-04-08, 22:51:41
Original geschrieben von Quasar
Guckt mal genau auf das Bild:
[GeForce 6800 Ultra]
.... da fehlt doch nicht etwa ein "FX" X-D
Tja, die Karten brauchen wohl kein "FX" mehr um schnell zu sein.
betasilie
2004-04-08, 22:52:00
Original geschrieben von egdusp
Da gibt es unterschiedliche Meinungen. Bisher hat nur TI von 2 getrennten Strängen gesprochen. Es kann auch sein, dass die Kontakte der kritische Punkt sind und ein Kabelstrang ausreicht.
mfg
egdusp
Ich geh ganz sicher davon aus, das man keine zwei Stränge braucht solange kein absolutes billig NT verwendet wird. NV wird einfach eine solche empfehlung ausgesprochen haben.
Imho sind auch die Stifte nicht der Schwachpunkt, sondern es wurde einfach so gehandelt, um das PCB entsprechend clean aufzubauen.
Wieviel Stromsärke verträgt der große Molex nochmal? 7A?
Edit: Obwohl, dass wird ja doch knapp mit den 7A.
dildo4u
2004-04-08, 22:54:44
Original geschrieben von Quasar
Guckt mal genau auf das Bild:
[GeForce 6800 Ultra]
.... da fehlt doch nicht etwa ein "FX" X-D naja fx war bei vorheriegen karten auch nicht gerade ein qualitäts hinweis schon gut das nvidia bewusst darauf verzichtet
ShadowXX
2004-04-08, 22:57:45
Original geschrieben von Quasar
Guckt mal genau auf das Bild:
[GeForce 6800 Ultra]
.... da fehlt doch nicht etwa ein "FX" X-D
Hatte doch schon anandtech geschieben, dass Sie auf das FX verzichten werden...
Demirug
2004-04-08, 23:10:15
Original geschrieben von betareverse
Ich geh ganz sicher davon aus, das man keine zwei Stränge braucht solange kein absolutes billig NT verwendet wird. NV wird einfach eine solche empfehlung ausgesprochen haben.
Imho sind auch die Stifte nicht der Schwachpunkt, sondern es wurde einfach so gehandelt, um das PCB entsprechend clean aufzubauen.
Wieviel Stromsärke verträgt der große Molex nochmal? 7A?
Edit: Obwohl, dass wird ja doch knapp mit den 7A.
Also die ATX Netzteilspezification sagt das ein AMP 61314-1 Kontakt (oder vergleichbar) mit einer 18 AWG Leitung benutzt werden muss. Besagter Kontakt wird von AMP bei einer 18 AWG Leitung mit 6A getestet.
Original geschrieben von Quasar
Guckt mal genau auf das Bild:
[GeForce 6800 Ultra]
.... da fehlt doch nicht etwa ein "FX" X-D Nö: http://www.hartware.net/news_36098.html
betasilie
2004-04-08, 23:18:15
*doppelt*
betasilie
2004-04-08, 23:29:46
Original geschrieben von Demirug
Also die ATX Netzteilspezification sagt das ein AMP 61314-1 Kontakt (oder vergleichbar) mit einer 18 AWG Leitung benutzt werden muss. Besagter Kontakt wird von AMP bei einer 18 AWG Leitung mit 6A getestet.
Dann sollten wirklich zwei Stecker notwenig sein.
btw, wie hoch das die Last auf dem AGP-Port sein?
StefanV
2004-04-08, 23:31:28
Original geschrieben von betareverse
Dann sollten wirklich zwei Stecker notwenig sein.
btw, wie hoch das die Last auf dem AGP-Port sein?
~45W, maximal.
Demirug
2004-04-08, 23:33:39
Original geschrieben von Stefan Payne
~45W, maximal.
Ja, aber um das wirklich rauszuholen braucht man eine heftigen Spannungswandler
StefanV
2004-04-08, 23:38:20
Original geschrieben von Demirug
Ja, aber um das wirklich rauszuholen braucht man eine heftigen Spannungswandler
Nagut, dann etwas genauer ;)
~6A/3,3V (~20W)
~2A/5V (~10W)
~1A/12V (~12W)
betasilie
2004-04-08, 23:38:33
Also müsste eine Molex und der AGP-Port in Kombination ~100W schaffen.
Also vom optischen sieht die wirklich gut und auch nicht übermäßig laut aus, eine positive Überraschung! :up: Mit den 2 Kabelsträngen bin ich aber immer noch nicht einverstanden, muss erst mal schauen ob ich überhaupt noch 2 freie hab X-D
Original geschrieben von betareverse
Also müsste eine Molex und der AGP-Port in Kombination ~100W schaffen.
was ja schon vorher klar war.
Auszugehen ist davon, dass die Karte Pro Stecker ca. 50W* zieht und den Rest per AGP. Der Leistungsbedarf dürfte sich also im Bereich von 100-140W bewegen...
*mehr nicht, da an jedem Kabelstrang ja noch ne HDD oder nen DVD Laufwerk dranhängen können muss...
Ailuros
2004-04-09, 00:06:11
Original geschrieben von Winter[Raven]
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg
1 SLotlösung und soll leise sein.
Wie war das mit Dustbuster2, ihr lieben Atianer? ;D
Wenn nur die reference-boards die nach aussen geschickt wurden auch so toll aussehen wuerden.
Aber ja ich will ernsthaft hoffen, dass dieses nicht nur ein Marketing-Bildchen ist.
Von single slotloesungen hoer ich schon seit einiger Zeit.
Sphinx
2004-04-09, 00:48:38
Ich will endlich PCI-E... - es lohnt sich immo nicht mehr für mich ,(
da musst du dir dann neues board+cpu kaufen - nur wegen der graka?
Ailuros
2004-04-09, 08:53:02
Original geschrieben von WEGA
da musst du dir dann neues board+cpu kaufen - nur wegen der graka?
Kann sein dass er im Laufe dieses Jahres genauso wie ich eine groessere Aufruestung plant.
Sphinx
2004-04-09, 09:09:20
Bingo
@ Wega : Ich hab nen PIV 3.06/533 RAMBUS System. Ich brauch auch neuen Speicher ,)
reunion
2004-04-09, 10:37:12
Original geschrieben von betareverse
Also müsste eine Molex und der AGP-Port in Kombination ~100W schaffen.
Man kann mit einem Stromanschluss max. 127W schaffen. 42W vom AGP-Port und 85W vom Stecker...
Original geschrieben von reunion
Man kann mit einem Stromanschluss max. 127W schaffen. 42W vom AGP-Port und 85W vom Stecker...
Nein, der Stecker schafft keine 85 Watt.
Ein stecker schafft maximal 5A, das macht bei 12V 60 Watt.
Der ganze Kabelstrang verträgt 6A, sprich ca. 70 Watt.
Und da man davon ausgehen muss, dass noch andere Geräte an dem Kabel hängen werden wohl maximal 55W über den Stecker fließen. Deswegen halte ich es auch durchaus nicht für unrealistisch, dass die beiden Next-Gen Chips beide mit 2 Steckern kommen...
StefanV
2004-04-09, 10:56:04
Original geschrieben von burk23
Nein, der Stecker schafft keine 85 Watt.
Ein stecker schafft maximal 5A, das macht bei 12V 60 Watt.
Der ganze Kabelstrang verträgt 6A, sprich ca. 70 Watt.
Und da man davon ausgehen muss, dass noch andere Geräte an dem Kabel hängen werden wohl maximal 55W über den Stecker fließen. Deswegen halte ich es auch durchaus nicht für unrealistisch, dass die beiden Next-Gen Chips beide mit 2 Steckern kommen...
(5x12)+(5x5) = 85W :|
Quasar
2004-04-09, 10:59:09
Original geschrieben von Gast
Nö: http://www.hartware.net/news_36098.html
Also doch - das "FX" fehlt... X-D
Original geschrieben von Stefan Payne
(5x12)+(5x5) = 85W :|
Der molex Stecker läuft doch ausschliesslich über 12V, so habe ich das zumindest in Erinnerung....
StefanV
2004-04-09, 11:06:30
Original geschrieben von burk23
Der molex Stecker läuft doch ausschliesslich über 12V, so habe ich das zumindest in Erinnerung....
hm, da hast du vermutlich irgendwas durcheinander gebracht, denke ich :|
robbitop
2004-04-09, 11:13:05
@Quasar
ist doch keine Neuigkeit mehr oder? :)
Quasar
2004-04-09, 11:13:46
Jetzt nicht mehr, oder?
Sphinx
2004-04-09, 11:24:10
,) TheINQ:
"At the CTS Exhibition in Birmingham, UK yesterday, we learned that some of Nvidia's manufacturing partners are not expecting to deliver any GeForce 6800 products to their distributors and resellers for three to four months.
This is shockingly longer than we expected, and if it's true, rather longer than we think is reasonable as Nvidia is set to launch its GeForce 6800 Ultra in just a few days.
If the information provided to our sources is correct, then it'll be July or August before Nvidia fanboys will be able to see the Way Nvidia thinks It's Meant To Be Played.
ATI says that its target is to deliver product onto retail shelves within thirty days of a product launch."
LovesuckZ
2004-04-09, 11:28:41
Von wem ist die Meldung? Fuad?
robbitop
2004-04-09, 11:29:39
seit Tagen nichtmehr Quasar ;)
hört sich nicht glaubwürdig an.
Seit dem NV30 Debakel stellen die immer 1 Monat vor Verfügbarkeit vor
ShadowXX
2004-04-09, 11:31:56
Original geschrieben von Sphinx
,) TheINQ:
"At the CTS Exhibition in Birmingham, UK yesterday, we learned that some of Nvidia's manufacturing partners are not expecting to deliver any GeForce 6800 products to their distributors and resellers for three to four months.
This is shockingly longer than we expected, and if it's true, rather longer than we think is reasonable as Nvidia is set to launch its GeForce 6800 Ultra in just a few days.
If the information provided to our sources is correct, then it'll be July or August before Nvidia fanboys will be able to see the Way Nvidia thinks It's Meant To Be Played.
ATI says that its target is to deliver product onto retail shelves within thirty days of a product launch."
Glaube nicht das nV sich das nach dem nv30 trauen würde...
Demirug
2004-04-09, 11:34:36
Original geschrieben von Sphinx
,) TheINQ:
"At the CTS Exhibition in Birmingham, UK yesterday, we learned that some of Nvidia's manufacturing partners are not expecting to deliver any GeForce 6800 products to their distributors and resellers for three to four months.
This is shockingly longer than we expected, and if it's true, rather longer than we think is reasonable as Nvidia is set to launch its GeForce 6800 Ultra in just a few days.
If the information provided to our sources is correct, then it'll be July or August before Nvidia fanboys will be able to see the Way Nvidia thinks It's Meant To Be Played.
ATI says that its target is to deliver product onto retail shelves within thirty days of a product launch."
Merkwürdig. Ich habe vor etwas zwei Wochen gehört das viele AIBs nur noch auf die Chips von nVidia warten. nVidia wollte ja angeblich auch keine Paperlaunchs mehr machen. Irgendwas passt da also nicht zusammen.
Quasar
2004-04-09, 11:37:02
Original geschrieben von robbitop
seit Tagen nichtmehr Quasar ;)
hört sich nicht glaubwürdig an.
Seit dem NV30 Debakel stellen die immer 1 Monat vor Verfügbarkeit vor
Seit zwei Tagen (gestern. heute drei), und da war's halt noch eine unbestätigte Spekulation.... IMO schon ein Unterschied.
Ailuros
2004-04-09, 11:37:45
Ich hab gestern von einer anderen Quelle gehoert, dass die Verfuegbarkeit fuer NV40 fuer den Anfang sehr gering sein soll.
Aber das macht schon einen Unterschied zum INQ newsblurb.
robbitop
2004-04-09, 11:43:15
naja ich hab da schon die " 6800 - Aufkleber" bei anand im Netz gesehn..gut hätte auch ein fake sein könn o_O
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.