PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X850 PE PCI Express Praxisbericht


bliblölL
2005-01-19, 18:56:15
Hi,

ich habe ein ASUS Radeon XPRESS 200 MB mit RS480 und einer X850PE PCI Express in einem Tower. AMD Athlon 4000+ mit 1GB RAM.

Zur Grafikkarte:

Sehr Leise, Sehr Schnell und ich bin quasi baff von der Leistung.

X850 PE in der Praxis.

HL2 und Farcry sehen spitzenmässig aus, ich habe alle Features auf Max gestellt und erlebe Performance wie ich sie noch nie erlebt habe.
Die Bild-Qualität ist der Hammer!

Was mich am meisten begeistert ist der stabile Lauf des Systems auch nach Stunden Hardcor-Gaming, so ich tauche jetzt wieder ab, ich muss noch die Combine-Truppen killen! :)

Cougar
2005-01-19, 19:00:59
Jo, is halt nen Highend sys, ging mir ähnlich obwohl meine Graka nich absolut highend is (von 9600 auf 6800 GT 128mb)

MSABK
2005-01-19, 19:23:17
Wo hast du die karte her?

pipiopopl
2005-01-19, 19:53:35
Wo hast du die karte her?

Aus einer Schachtel ;)

q@h
2005-01-19, 20:45:13
Hi,

ich habe ein ASUS Radeon XPRESS 200 MB mit RS480 und einer X850PE PCI Express in einem Tower. AMD Athlon 4000+ mit 1GB RAM.

Zur Grafikkarte:

Sehr Leise, Sehr Schnell und ich bin quasi baff von der Leistung.

X850 PE in der Praxis.

HL2 und Farcry sehen spitzenmässig aus, ich habe alle Features auf Max gestellt und erlebe Performance wie ich sie noch nie erlebt habe.
Die Bild-Qualität ist der Hammer!

Was mich am meisten begeistert ist der stabile Lauf des Systems auch nach Stunden Hardcor-Gaming, so ich tauche jetzt wieder ab, ich muss noch die Combine-Truppen killen! :)
Machen die 20/30MHz mehr im Vergleich zur XTPE wirklich so einen gewaltigen Unterschied?

Ansonsten:
Wie schaut's mit dem Lüfter aus? Regelt der direkt bei 3D hoch? Einblasend oder ausblasend? Läuft die Karte mit verminderter Leistung an bzw. bootet sie überhaupt, wenn man den Stromstecker nicht dranmacht?

Tarkin
2005-01-19, 20:53:21
Hi,

ich habe ein ASUS Radeon XPRESS 200 MB mit RS480 und einer X850PE PCI Express in einem Tower. AMD Athlon 4000+ mit 1GB RAM.

Zur Grafikkarte:

Sehr Leise, Sehr Schnell und ich bin quasi baff von der Leistung.

X850 PE in der Praxis.

HL2 und Farcry sehen spitzenmässig aus, ich habe alle Features auf Max gestellt und erlebe Performance wie ich sie noch nie erlebt habe.
Die Bild-Qualität ist der Hammer!

Was mich am meisten begeistert ist der stabile Lauf des Systems auch nach Stunden Hardcor-Gaming, so ich tauche jetzt wieder ab, ich muss noch die Combine-Truppen killen! :)

??? was ist das bitte für ein ASUS Board? Auf der Website von Asus finde ich kein Board mit dem Radeon Xpress 200 Chipsatz...

plplplplu
2005-01-19, 21:24:20
Machen die 20/30MHz mehr im Vergleich zur XTPE wirklich so einen gewaltigen Unterschied?

Ansonsten:
Wie schaut's mit dem Lüfter aus? Regelt der direkt bei 3D hoch? Einblasend oder ausblasend? Läuft die Karte mit verminderter Leistung an bzw. bootet sie überhaupt, wenn man den Stromstecker nicht dranmacht?

Der Lüfter bleibt konstant bei 3D, regelt aber runter bei 2D!

Das Lüftergeräusch ist eigentlich kaum zu vernehmen, es hat sich gelohnt das ATI bei diesem Design die Abwärme nach draussen leitet und einen grossen Lüfter draufgepackt hat.

Die Karte bootet nicht, wenn die Stromversorgung ab ist.

dutchislav
2005-01-19, 21:38:20
Was mit nicht ganz eingehen will

is die X850 PE jt um so vieles schneller gegenüber der X800Xt PE???
Die X850 PE is ja nur um ein "paar" MHz höher getaktet, oder wie sehe ich das?
Oder is dan neues chip drinnen und was weiß ich

besitze ne 6800gt @ 420/1200 ....

macht das spielerisch gesehen so viel unterschied

:confused:

dildo4u
2005-01-19, 21:39:19
Was mit nicht ganz eingehen will

is die X850 PE jt um so vieles schneller gegenüber der X800Xt PE???
Die X850 PE is ja nur um ein "paar" MHz höher getaktet, oder wie sehe ich das?
Oder is dan neues chip drinnen und was weiß ich

besitze ne 6800gt @ 420/1200 ....

macht das spielerisch gesehen so viel unterschied

:confused:

Exakt http://www.computerbase.de/artikel/hardware/grafikkarten/2004/ati_radeon_x850_xt_platinum_edition/

pliplipliplu
2005-01-19, 21:43:35
Was mit nicht ganz eingehen will

is die X850 PE jt um so vieles schneller gegenüber der X800Xt PE???
Die X850 PE is ja nur um ein "paar" MHz höher getaktet, oder wie sehe ich das?
Oder is dan neues chip drinnen und was weiß ich

besitze ne 6800gt @ 420/1200 ....

macht das spielerisch gesehen so viel unterschied

:confused:

Ein paar Benchmarks aus dem Web:
http://www.games-more.de/00000095b51422b01/00000095b60bd7209/00000095c20ded501/

ATI Radeon X850 XT-PE


ATI bringt mit zwei neuen 3D-Prozessoren Schwung in den PCI-Express-Markt.

Am 1.12 hat ATI zwei neue Chipsätze vorgestellt, welche ATI den Vorsprung im PCI-Express-Markt
bringen soll. Den R340 und den R480. Beide sind im Wesentlichen Vertigungsoptimierte Varianten
der bekannten X800-Serie (R423), die gerade im Endkundenmarkt relativ schlecht verfügbar war.
Was die grundlegenden Features angeht, sind nicht wirklich Neuigkeiten zu vermelden. Die Chips
unterstützen wie ihre Vorgänger KEIN Shader Modell3 (Nvidia unterstützt diesen). Grafikkarten mit
Shader Modell3 von ATI sind erst Anfang nächstes Jahr zu erwarten dann kommen nämlich (angeblich)
R5xx Chips. Die R430 Chips werden vorerst mit X800 und X800xt Karten genutzt während der R480 Chip für das neue Flagschiff X850XT-PE (PE-Platinum Edition), ca:520 Euro, und X850XT, ca:460 Euro, genutzt wird!
Benchmark Ergebnisse:
alle Ergebnisse in 1600x1200 4xFSAA + 8:1 AF

GeForce 6800 Ultra X800XT-PE X850XT-PE

Half-Life2 52,2 Fps 70,8 Fps 73,7 Fps

Far cry 1.3 Ausenlevel 39,4 Fps 52,0 Fps 54,5 Fps

Doom III 43,9 Fps 37,6 Fps 40,7 Fps

NFS Underground 2 Demo 41,5 Fps 46,3 Fps 49,0 Fps

Man könnte also sagen das sie die schnellste, bis auf in Doom III und in eventuell auch Quake4, ist.
Ich weiß nicht ob sie die schnellere in Quake4 sein wird aber ich denke mal nicht denn Quake4 basiert ja auf Doom III Engiene und das Nvidia die Doom III Engiene besser beherrscht zeigen die Ergebnisse! Ich möcht betonen das für die Tests ein Athlon 64 4000+, Nforce4 Ultra, 2x 512MB DDR400, Cat. 4.12 und Forceware 67.02 benutzt wurde! Auf Deutsch High High High END.

pliplipliplu
2005-01-19, 21:49:16
Ich installiere gerade Realstorm Benchmark 2004 und werde die Ergebnisse gleich POSTEN!

dutchislav
2005-01-19, 21:50:07
Tja, hört sich nicht übel an ... aba in meinen Augen eher ein wenig Geldmacherei - kommt darauf an, ob dieses Teil mal verfügbar sein wird, im gegensatz zu den alten XT-PEs :tongue:

aber für mich kein grund, meine super tolle 6800gt herzugeben *g

Hellfire-Torrod
2005-01-19, 21:58:23
Der R480 ist eigendlich nur ein R420 mit größerer ausbäute. So sieht es jedenfalls aus, denn schon jetzt gibt es verhältnismäßig mehr 850er zu "kaufen" als 800er. Denn die 800er gabs nicht tröpfchenweise nach 1 1/2 monaten zu kaufen.

pliplipliplu
2005-01-19, 22:01:42
Der R480 ist eigendlich nur ein R420 mit größerer ausbäute. So sieht es jedenfalls aus, denn schon jetzt gibt es verhältnismäßig mehr 850er zu "kaufen" als 800er. Denn die 800er gabs nicht tröpfchenweise nach 1 1/2 monaten zu kaufen.

Nein,

Der R480 ist ein überarbeitetes Design und wurde wie bei den anderen so optimiert das auch eine SINNVOLLE Massenproduktion möglich ist.

Die Verfügbarkeit ist gen. zur Zeit schlecht bei beiden Herstellern.

pliplipliplui
2005-01-19, 22:06:04
Ich installiere gerade Realstorm Benchmark 2004 und werde die Ergebnisse gleich POSTEN!

Hier die ersten Results:

Raymarks: 3099
Max FPS: 42,6

System mit 512MB und wie im ersten Teil beschrieben

Ich muss die Settings im MB nochmal checken, da es so ist wie der Auslieferungszustand war, da ist noch nix feingetunt, eine lange Nacht wird das heute!

Hellfire-Torrod
2005-01-19, 22:30:28
Nein,

Der R480 ist ein überarbeitetes Design und wurde wie bei den anderen so optimiert das auch eine SINNVOLLE Massenproduktion möglich ist.

Die Verfügbarkeit ist gen. zur Zeit schlecht bei beiden Herstellern.

Die überarbeitungen bestenen aber nur darin, eine höhere ausbäute zu bekommen. Dazu kommt noch nativ PCIe. Der rest ist R420. Die paar MHZ sind nur dazu, das Produkt wenigstens ein bischen als refresh aussehen zu lassen. Punkt. :D

deekey777
2005-01-19, 22:40:54
Die überarbeitungen bestenen aber nur darin, eine höhere ausbäute zu bekommen. Dazu kommt noch nativ PCIe. Der rest ist R420. Die paar MHZ sind nur dazu, das Produkt wenigstens ein bischen als refresh aussehen zu lassen. Punkt. :D


Der R480 ist der Nachfolger des R423. ;)

pliplipliplu
2005-01-19, 22:41:26
Die überarbeitungen bestenen aber nur darin, eine höhere ausbäute zu bekommen. Dazu kommt noch nativ PCIe. Der rest ist R420. Die paar MHZ sind nur dazu, das Produkt wenigstens ein bischen als refresh aussehen zu lassen. Punkt. :D

Naja,

ich gebe dir ja RECHT das es so aussieht auf den ersten Blick, aber wenn du diese leise superflinke X850 PE mal in deinem Sytem hast wirst du es verstehen.

Sicherlich, der Unterschied zur X800XT ist mehr maginal, aber die FPS-Anhänger wollen ja immer 3-4 FPS mehr und rauchen sich dann dabei eine fette Punkte-Tüte*gggg :) "Punkt" ;) und freuen sich Ihres FPS- Lebens.

Da ist die Entwicklung seit einigen Monaten ja hingegangen.

Es hat doch niemanden wirklich gejuckt wie laut oder wieviel Strom die NEUEN Grakas verbrauchten, ob so kleinigkeiten wie VP auch 100% das machen was sie machen sollten?! Ist doch egal :)

Ich teste das Syetm jetzt mal durch und lass es dich gerne wissen was so alles passiert.

Update:

Im Vergleich zur 9800XT hat die X850PE schon einen bedeutenden Vorteil, der Lüfter jault nicht immer auf wenn ich Hard-"cora" zocke und das macht Spaß!

Grüsse

plplplpliplu
2005-01-20, 08:34:47
Hi,

das System ist heute Nacht komplett gelaufen, einige Demos hatte ich durchlaufen lassen um das Verhalten des Lüfters und der Gesamt-Temp. nach einem Dauereinsatz zu überprüfen.

Das Ergebnis ist vielversprechend, keine Ausfälle und der Lüfter schnurrt noch genauso wie beim Einschalten.

Die heisse Luft wird optimal nach hinten durch das Gehäuse rausgeblasen (Gehäuse in der der mächtige Lüfter steckt von der Grafikkarte).

Tarkin
2005-01-20, 09:23:05
Hi,

das System ist heute Nacht komplett gelaufen, einige Demos hatte ich durchlaufen lassen um das Verhalten des Lüfters und der Gesamt-Temp. nach einem Dauereinsatz zu überprüfen.

Das Ergebnis ist vielversprechend, keine Ausfälle und der Lüfter schnurrt noch genauso wie beim Einschalten.

Die heisse Luft wird optimal nach hinten durch das Gehäuse rausgeblasen (Gehäuse in der der mächtige Lüfter steckt von der Grafikkarte).

Ich hab nirgendwo im Internet etwas über ein ASUS Board mit Radeon Xpress Chipsatz finden können... kannst du vielleicht ein paar Fotos schießen um deine Behauptungen zu untermauern?

Bitte verzeih mir meine Skepsis, aber ich finde es höchst merkwürdig, dass bis dato nirgendwo etwas über ein ASUS Radeon Xpress Board zu lesen war... und plötzlich taucht jemand im 3dCenter Forum als "Gast" auf, der behauptet, so ein Board (zu Testzwecken, oder wie auch immer) bekommen zu haben... sieht nicht gerade glaubwürdig aus IMO.

VooDoo7mx
2005-01-20, 11:12:22
Ich installiere gerade Realstorm Benchmark 2004 und werde die Ergebnisse gleich POSTEN!

ROTOFL

Auch wenns nur mal wieder nen lustiger Gast-Fake ist...

Ich versteheden Aufriss um so eine Karte nicht.
Gerade mal 1 Frame mehr @ 1280x1024 4xAA 8xAF bei Far Cry, im Gegensatz zur X800XTPE sprechen Bände.

Ich werfe ATi Tool an, schiebe 2 Regler nach oben und habe auch ne imaginäre X850XT PE. Jucha!


Und desweiteren hat Dildo nicht unrecht. EIn R489 ist Technologie aus dem Jahre 2002, um ein zigfaches hochgepusht. Ob nun löblich oder nicht, dieses Konzept scheint aufzugehen.

aths
2005-01-20, 12:37:19
Nachhilfe gefällig!

[...]

Ich habe ja noch nichteinmal 3DMark drauf, das kommt morgen alles drauf, wenn mein Kumpel mit der CD da war!Nachhilfe: Der 3DMark eignet sich nicht, um die Grafikleistung in Bezug auf Spieletauglichkeit zu testen.

tombman
2005-01-20, 13:22:57
Auf Deutsch High High High END.

Immer noch keine Chance gegen SLI ;)

Hast_Leser
2005-01-20, 13:56:21
Immer noch keine Chance gegen SLI ;)


Schau mal hier, du bist mit deinem SLI-System, es sei dir und deinem Stromlieferanten gegönnt, sicher gut dabei

http://www.silenthardware.de/forum/lofiversion/index.php/t7805.html

tombman
2005-01-20, 14:00:38
Schau mal hier, du bist mit deinem SLI-System, es sei dir und deinem Stromlieferanten gegönnt, sicher gut dabei

http://www.silenthardware.de/forum/lofiversion/index.php/t7805.html

SLI is das schnellste was es gibt, nix da mit "gut dabei" :D

deekey777
2005-01-20, 14:11:36
Nachhilfe: Der 3DMark eignet sich nicht, um die Grafikleistung in Bezug auf Spieletauglichkeit zu testen.


Darf ich dich verbessern? 3D2005 mißt die Leistung in 3D2005. :D

Tigerchen
2005-01-20, 16:01:41
SLI is das schnellste was es gibt, nix da mit "gut dabei" :D

Das schnellste zu haben ist doch völlig out. Tigerchen wird in Zukunft nur noch auf langsam getaktete Komponenten setzen die aber aus diesen relativ wenigen Mhz das Maximum an Leistung zu einem moderaten Preis herausholen. Über SLI und Mantafahrer mit Fuchsschwanz kann ich nur milde lächeln. Aber jedem das Seine....

Hellfire-Torrod
2005-01-20, 21:02:41
Bekommen wir den nun irgendwann mal ein paar Screenshots oder pics von dem sys?

Coda
2005-01-20, 22:34:30
Also Tombman hat mit aktuellen Treibern soweit ich weiß noch bei jedem Spiel SLi aktivieren können.
Zumindest bei Riddick funktioniert es, was HardOCP ja schonmal nicht dazu zählt.

Quasar
2005-01-20, 22:47:57
Ich installiere gerade Realstorm Benchmark 2004 und werde die Ergebnisse gleich POSTEN!
Wozu? Das ist ein CPU-Benchmark...

edit:
Bin schon gespannt, welches Review eines Sample-Boards sich des Realstorm2004-Benches befleissigen wird *eg*

edit2:
http://www.realstorm.com/benchmark.html

edit3:
Wow, 1382 Raymarks bei max. 17,36fps - mit meiner Riva128 PCI. Gratulation, deine X850 PE PCIe ist damit knapp zweieinhalbmal so schnell... :lol:

Coda
2005-01-20, 23:30:49
Aber natürlich die Jungs von http://www.hardocp.com´können natürlich nicht auf das fundierte Wissen von Tombman zurückgreifenAnscheinend nicht.
HardOCP ist nicht gerade für Fachkompetenz berühmt, aber bitte...

Doc_Nitro
2005-01-21, 01:04:53
-.SLI ist der letzte Schrott!
-Warum:
-Nicht alle Spiele funktionieren

FAST ALLE, wenn man weiß wie ;) (coolbits 2 + fw 71.20++)



Hm wieder eine Bestätigung keine NVidia zu kaufen, da das wohl nur Deppen sind und keine Ahnung haben wie man ein vernünftiges Produkt auf den Markt bringt was läuft wie es soll. Vielleicht solltest Du Dich mal bei NVidia bewerben ;D

Ein Produkt wird out of the Box mit aktuellen Treibern bewertet und nicht andersrum. Als Kunde ist das nämlich nicht meine Aufgabe! Ausserdem ist ne Auflösung von 1600x1200 absolut Praxisfremd, da die wenigsten in dieser Auflösung zoggen. Meines Erachtens sind das nur irgendwelche Zwangsneurosen ein Spiel in dieser Auflösung zu zoggen um damit in den Stats zu protzen.

bardh
2005-01-21, 01:33:50
ich find SLi schon ziemlich geil aber hat auch noch sehr viele probleme , trotzdem muss erwähnt werden das ATI mit den X800/ X850 karten noch gut nachkommt wen man diverse direct x benchmarks anschaut! und zu der technologie des R423/R480 chips sind die schon ziemlich besser als der R300, der nv40 ist auch grunsätzlich "nur" eine weiterentwicklung die mit pixel shader 3 und so noch aufgepusht wird, ATI hätte auch schon auf Pixel Shader 3 setzen können jedoch wollen sie das noch für den R5** aufheben um aller welt mitzuteilen was für exzellene neuigkeiten der chip beinhaltet! also betrachtet man jetzt die bildqualität von den X800/X850 karten und den 6*** karten ist da nicht wirklich ein grosser unterschied bis auf HDR , doch jetzt kommen auch mal spiele mit 3DC und das sieht auch ziemlich gut aus! und zu far cry und HDR , seht mal hier mit einer x800 gemacht - http://www.directupload.net/show_image.php?d=141&n=u7p766h4.jpg
vergleicht mal dieses bild mit einem anderen bild das hdr unterstüztz kein wirklicher unterschied! es ist möglich das man auch bei den x800 karten hdr aktivieren kann, jedoch muss man da noch ein paar kleine befehle ändern!

Quasar
2005-01-21, 09:16:42
Okay,

VORSCHLAG! Wem kann ich Bilder vom SYS schicken?
Email bitte, mache ich moin!

To Benedikt,

dann lies woanders!
www.imageshack.us

edit:
Oh - und bitte auch Screenshots vom Realstorm2004. :devil:

MarcWessels
2005-01-21, 09:34:03
ich find SLi schon ziemlich geil aber hat auch noch sehr viele probleme , trotzdem muss erwähnt werden das ATI mit den X800/ X850 karten noch gut nachkommt wen man diverse direct x benchmarks anschaut!!

Soso, welche denn? :confused: :rolleyes:

Es stimmt, daß es im Netz einige Frameratenwerte gibt, die auf nVidia-Seite unter aller Sau sind. Wenn man sich dann aber mal die Mühe macht, sich die Ursache anzuschauen, stellt man in 99,99% aller Fälle fest, daß


1.Mehr als offensichtlich die Bildwiederholfrequenz per CP fest eingestellt wurde oder

2.ein zu alter Treiber eingesetzt wurde (da sei vor allen Dingen HL2 genannt).


Gegen ein SLI-nVidia-Setup hat aber so oder ein eine 850er PE nicht den Hauch einer Chance.

Hauwech
2005-01-21, 10:20:29
Hm wieder eine Bestätigung keine NVidia zu kaufen, da das wohl nur Deppen sind und keine Ahnung haben wie man ein vernünftiges Produkt auf den Markt bringt was läuft wie es soll. Vielleicht solltest Du Dich mal bei NVidia bewerben ;D

Ein Produkt wird out of the Box mit aktuellen Treibern bewertet und nicht andersrum. Als Kunde ist das nämlich nicht meine Aufgabe! Ausserdem ist ne Auflösung von 1600x1200 absolut Praxisfremd, da die wenigsten in dieser Auflösung zoggen. Meines Erachtens sind das nur irgendwelche Zwangsneurosen ein Spiel in dieser Auflösung zu zoggen um damit in den Stats zu protzen.

Genau, und die 64bit von deinem AMD kannst du ja auch schon out of the box mit aktueller Software ohne Tricks und Probleme benutzen, gell?

BlackArchon
2005-01-21, 10:20:51
Realstorm 2004 wird bestimmt richtig geil schnell mit einer X850XT PE! Megafettkrassgeil!

Tigerchen
2005-01-21, 14:16:12
Genau, und die 64bit von deinem AMD kannst du ja auch schon out of the box mit aktueller Software ohne Tricks und Probleme benutzen, gell?

Darum wird ein A64 auch immer im 32 Bit Modus gebencht wenn er direkt mit einem INTEL verglichen werden soll.

SLI ist eine Extrawurst für Freaks. Schon die Erlangung 2er 6800GT oder Ultra ist kaum möglich. 9 Monate nach Vorstellung sind die Karten am Markt so gut wie nicht verfügbar. Und der ganze Zirkus bis das Ganze mal gescheit läuft und die Kosten drumherum vom Netzteil bis zum 1600x1200 Bildschirm (die meisten haben wohl keinen) kann man bei näherer Betrachtung kaum gut finden.

Der Begriff SLI impliziert den Gedanken daß es mit dem Dazustecken einer 2.ten Karte wie weiland bei den Voodoo's getan ist. Nvidia weiß aber ganz genau daß es eben nicht so einfach ist und zumindest derzeit, 7 Monate nach der Vorstellung, gerade mal von Profis wie Tombman gehandhabt werden kann. Marktreife würde ich so einer Bastlerlösung nicht attestieren.

Grestorn
2005-01-21, 15:07:25
Schon die Erlangung 2er 6800GT oder Ultra ist kaum möglich. 9 Monate nach Vorstellung sind die Karten am Markt so gut wie nicht verfügbar. Falsch, die PCIe Versionen sind offiziell erst im Herbst vorgestellt worden (NV45). Und der ganze Zirkus bis das Ganze mal gescheit läuft und die Kosten drumherum vom Netzteil bis zum 1600x1200 Bildschirm (die meisten haben wohl keinen) kann man bei näherer Betrachtung kaum gut finden. Das mit dem 1600x1200 ist ein Mythos. Komisch, wenn eine andere Grafikkarte viel Leistung bringt, sagt keiner "brauch ich nicht, ist ja nur bei 1600 sinnvoll!".
Es gibt genügend Spiele, die SLI gut ausnützen können, auch in 1280x1024.

Der Begriff SLI impliziert den Gedanken daß es mit dem Dazustecken einer 2.ten Karte wie weiland bei den Voodoo's getan ist. Nvidia weiß aber ganz genau daß es eben nicht so einfach ist und zumindest derzeit, 7 Monate nach der Vorstellung, gerade mal von Profis wie Tombman gehandhabt werden kann. Marktreife würde ich so einer Bastlerlösung nicht attestieren. Über diesen Satz wird sich tombman aber freuen :)

SLI ist nicht vor 7 Monaten vorgestellt worden. Da gab es bestenfalls die ersten Gerüchte. Vorgestellt wurde es irgendwann im November.

Mit Bastlerlösung hat es auch nicht viel zu tun. Im Moment gibt es nur ein Problem, und das sind die Treiber. Insbesondere bei der Konfigurierbarkeit von SLI. Warum nVidia diese einfache Sache nicht in den Griff bekommt, verstehe ich allerdings überhaupt nicht.

mjs
2005-01-21, 15:43:53
Also, für mich ist das (SLi) im Moment auch nichts.

Ich habe zwar ein 450Watt Netzteil und einen BigTower, aber dieser ist von anno 2000 und hat keine Lüftereinbauplätze auf Höhe der GPU/CPU!

Weiter liefert mein Levicom Markennetzteil (450XPL-B) nur 16A auf +12Volt

Lt. Asus sollte das Netzteil auf der +12V Leitung mindestens:

17A für 2x 6600GT
20A für 2x 6800GT
25A für 2x 6800Ultra :eek:

liefern.

@Tigerchen

Klar ist das alles etwas anspruchsvoller,

-wuchtige 2 Slot Kühler pro Grafikkarte (mal breiter, mal schmaler)
-SLi Mainboards mit zu geringen 3cm (MSI) und etwas besseren 5cm (ASUS) Abstand zw. den PCIe x16 Slots
-bei der 6800GT im SLi Modus teilw. 8 °C mehr Umgebungstemp. nahe der GPU
-derzeit noch kleinere Problemchen mit den Treibern...

Aber es als Bastellösung zu bezeichnen? -Da bist du jetzt aber übers Ziel hinausgeschossen!

Gerade hier im 3D Center tummeln sich genug Freaks (ich zähle mich mal dazu :wink: )!
Ich behaupte mal JEDER der weit über 1000€ für SLi locker macht, weiß was er zu beachten hat -und was er mitbringen muß!

Ich sehe keine großen Hürden! (für Profis)

Zum Thema "Voodoo² SLI" -ich habe zwei Stück! (im Schrank liegen...)
Ein Spiel gabs tatsächlich, welches unter SLI nicht ging!
Mein damaliges Lieblingsadventure "Gabriel Knight 3" lief nur mit einer Karte auf groben 800x600 Pixel beschränkt... :frown:

hmx
2005-01-21, 16:04:12
Also, für mich ist das (SLi) im Moment auch nichts.

Ich habe zwar ein 450Watt Netzteil und einen BigTower, aber dieser ist von anno 2000 und hat keine Lüftereinbauplätze auf Höhe der GPU/CPU!

Weiter liefert mein Levicom Markennetzteil (450XPL-B) nur 16A auf +12Volt

Lt. Asus sollte das Netzteil auf der +12V Leitung mindestens:

17A für 2x 6600GT
20A für 2x 6800GT
25A für 2x 6800Ultra :eek:

liefern.

@Tigerchen

Klar ist das alles etwas anspruchsvoller,

-wuchtige 2 Slot Kühler pro Grafikkarte (mal breiter, mal schmaler)
-SLi Mainboards mit zu geringen 3cm (MSI) und etwas besseren 5cm (ASUS) Abstand zw. den PCIe x16 Slots
-bei der 6800GT im SLi Modus teilw. 8 °C mehr Umgebungstemp. nahe der GPU
-derzeit noch kleinere Problemchen mit den Treibern...

Aber es als Bastellösung zu bezeichnen? -Da bist du jetzt aber übers Ziel hinausgeschossen!

Gerade hier im 3D Center tummeln sich genug Freaks (ich zähle mich mal dazu :wink: )!
Ich behaupte mal JEDER der weit über 1000€ für SLi locker macht, weiß was er zu beachten hat -und was er mitbringen muß!

Ich sehe keine großen Hürden! (für Profis)

Zum Thema "Voodoo² SLI" -ich habe zwei Stück! (im Schrank liegen...)
Ein Spiel gabs tatsächlich, welches unter SLI nicht ging!
Mein damaliges Lieblingsadventure "Gabriel Knight 3" lief nur mit einer Karte auf groben 800x600 Pixel beschränkt... :frown:

Ui, aber 16A auf +12V ist aber echt wenig für ein 450W NT.

Tigerchen
2005-01-21, 18:04:00
Falsch, die PCIe Versionen sind offiziell erst im Herbst vorgestellt worden (NV45). Das mit dem 1600x1200 ist ein Mythos. Komisch, wenn eine andere Grafikkarte viel Leistung bringt, sagt keiner "brauch ich nicht, ist ja nur bei 1600 sinnvoll!".
Es gibt genügend Spiele, die SLI gut ausnützen können, auch in 1280x1024.

SLI ist nicht vor 7 Monaten vorgestellt worden. Da gab es bestenfalls die ersten Gerüchte. Vorgestellt wurde es irgendwann im November.

Mit Bastlerlösung hat es auch nicht viel zu tun. Im Moment gibt es nur ein Problem, und das sind die Treiber. Insbesondere bei der Konfigurierbarkeit von SLI. Warum nVidia diese einfache Sache nicht in den Griff bekommt, verstehe ich allerdings überhaupt nicht.

Es bleibt dabei 9 Monate nach Vorstellung der 6800 Ultra sollen Ende Januar GF6800 Ultra für PCIe endlich in den Handel gelangen.
http://www.theinquirer.net/?article=20641
Stramme Leistung. SLI wird gehypt ohne daß man überhaupt Karten dafür liefern kann! Da greift man sich wirklich an den Kopf.

Wer prollt denn ständig mit mit 1600x1200 Benches rum? Und für 1280 braucht man tatsächlich keine so exorbitant teure Lösung.

Es gibt hier einen Artikel auf 3DCenter der belegt daß SLI am 28 Juni 2004 vorgestellt wurde.

Es ist und bleibt eine Bastlerlösung. Manche Karten sind noch nicht mal mechnisch kompatibel mit manchen Mainboards (Quelle: PCGH). Ich will ja gar nicht die Kompetenz einiger Selberbauer hier in Frage stellen. Mit viel Geduld und Registrytricksereien ist das sicher zu schultern. Für mich sieht aber ein marktreifes Produkt etwas anders aus. Hier ist wohl ein unüberbrückbarer Dissens zwischen SLI-Fans und mir. Kann ich auch nicht ändern. ;(

Die Treiberfrage ist auch nicht gelöst wie du schon bemerkt hast.

Coda
2005-01-21, 18:06:38
Tigerchen du würdest mit fast definitiver Sicherheit anders Argumentieren wenn ATi SLi hätte und nVidia nicht...

Tigerchen
2005-01-21, 18:18:21
Tigerchen du würdest mit fast definitiver Sicherheit anders Argumentieren wenn ATi SLi hätte und nVidia nicht...

Mit Sicherheit nicht. Erinnere dich wie ich gegen die FX-Serie gewettert habe. Gegen die nV40 Serie hab ich dagegen absolut nichts. Ein gutes Produkt und im Falle 6600GT sogar ein absoluter Preis/Leistungssieger.

Ich nehme mir die Freiheit nicht jeder Hype hinterherrennen zu müßen. Das schmeckt dir wohl nicht.

Coda
2005-01-21, 18:59:21
SLi ist nur leider kein Hype, die Technik funktioniert doch wunderbar, nur weil du keine großen Auflösungen brauchst und der Treiber noch ganz nicht fertig ist, tzz.

Es gibt zumindest rein logisch keine Ursache warum es in den bisher unterstützen Spielen geht und in anderen nicht.

LairD
2005-01-21, 19:06:59
Es gibt zumindest rein logisch keine Ursache warum es in den bisher unterstützen Spielen geht und in anderen nicht.

Hm viell. funktionierts bei den nicht unterstützten Spielen nicht, weil sie nicht unterstützt werden.

Tarkin
2005-01-21, 22:20:15
und ich warte immer noch auch screenshots ;)

Mr. Lolman
2005-01-21, 22:43:27
Wie auch immer. In manchen Dingen hat der Gast sicher nicht unrecht. Beide Seiten sind einfach zu sehr auf ihre Meinung versteift...


SLI ist zwar nicht unnötig und eine einzelne x850 ist sicher nicht immer schneller, aber es gibt halt leider noch einige Anwendungen wo SLI nicht fehlerfrei funzt. Wo es tw. sogar bremst. Und der leistungsmässige Zusatznutzen ist dann halt dementsprechend bei SLI kompatiblen Spielen zu suchen. Nichts desto trotz ists ziemlich unwahrscheinlich, dass irgendeine SingleGPU Karte dieses Jahr noch 11000 3dmarks05 schafft.


BTW: Vielleicht wurde ausser dem höheren Takt wirklich was geändert, für die X850XTPE (und wenns nur Treiberoptimierungen sind):

http://www.forum-3dcenter.de/vbulletin/showthread.php?t=188400&highlight=x850xt

Mr. Lolman
2005-01-21, 22:47:27
Und wenn eine Firma das Highend vernachlässigt, geht sie pleite (3dfx

Ui, das hätt ich lieber überlesen. (Welche 3dfx Karten waren zum Erscheinungszeitpunkt kein Highend?)

aths
2005-01-21, 22:50:54
Ui, das hätt ich lieber überlesen. (Welche 3dfx Karten waren zum Erscheinungszeitpunkt kein Highend?)Voodoo Rush, Voodoo Banshee* (wurde von Voodoo2 SLI übertroffen, in einigen Spielen auch von einer normalen Voodoo2!!), Voodoo3 2000 (preiswert und schnell, aber kein High End), Voodoo4 4500*. Voodoo5 5500 war imo kein Highend in jeder Beziehung. Die 6000-er wurde nur in zweistelligen Stückzahlen verkauft und war defakte nicht verfügbar.

* Banshee und 4500 hatte ich selbst und war sehr zufrieden.

aths
2005-01-21, 22:55:50
Wie auch immer. In manchen Dingen hat der Gast sicher nicht unrecht. Beide Seiten sind einfach zu sehr auf ihre Meinung versteift...


SLI ist zwar nicht unnötig und eine einzelne x850 ist sicher nicht immer schneller, aber es gibt halt leider noch einige Anwendungen wo SLI nicht fehlerfrei funzt. Wo es tw. sogar bremst. Und der leistungsmässige Zusatznutzen ist dann halt dementsprechend bei SLI kompatiblen Spielen zu suchen. Nichts desto trotz ists ziemlich unwahrscheinlich, dass irgendeine SingleGPU Karte dieses Jahr noch 11000 3dmarks05 schafft.Der 3DMark ist für mich kein Argument. Doom3 in hoher Auflösung wäre für mich ein Argument.

Nun gehöre ich zu denen, die wahrscheinlich auf die nächste Generation warten (NV48) und dann mit einer Single-Board-Lösung Doom3 ebenfalls in hohen Auflösungen sehr flüssig spielen können. Doch mit SLI gehts schon heute.

Fadl
2005-01-21, 23:00:45
Nach meiner Rechnung wird es um nur 3 db lauter.


Meinen Ohren nach ist es aber deutlich lauter mit 2 Karten im Rechner ;)

aths
2005-01-21, 23:06:49
Meinen Ohren nach ist es aber deutlich lauter mit 2 Karten im Rechner ;)Das hängt immer davon ab. Meine Rechnung geht vom Rauschen aus, und wenn man zwei Rauschquellen hat, wird ja ein Teil der Leistung auch wieder rausmaskiert. Hinzu kommt aber, und das ist entscheidend, dass es ungefähr der zehnfachen Energie bedarf, damit wir etwas als doppelt so laut empfinden.

Wenn die beiden Karten so viel Hitze absondern, dass im PC andere temperaturgeregelte Lüfter ebenfalls höher drehen, steigt auch die Lautstärke um mehr als 3 db.

Meine Ti 4600 wurde ja zweitweise von einer passiven Radeon 9600 abgelöst, und der PC wurde insgesamt deutlich leiser, allerdings nicht so leise wie erhofft. Der neuere PC ist ein gutes Stück leiser als der alte, und die aktiv gekühlte 5900 XT kaum zu hören, das möchte ich jetzt auch nicht mehr anders. Der nächste PC soll auf jeden Fall noch leiser werden. Lautstärke nervt prinzipiell, darin sehe ich das Hauptproblem. Mit einer zweiten Grafikkarte sollte es in einem lüftungsmäßig gut gebautem PC wie gesagt nur 3 db lauter werden.

Mr. Lolman
2005-01-21, 23:09:23
Voodoo Rush, Voodoo Banshee* (wurde von Voodoo2 SLI übertroffen, in einigen Spielen auch von einer normalen Voodoo2!!), Voodoo3 2000 (preiswert und schnell, aber kein High End), Voodoo4 4500*. Voodoo5 5500 war imo kein Highend in jeder Beziehung. Die 6000-er wurde nur in zweistelligen Stückzahlen verkauft und war defakte nicht verfügbar.

* Banshee und 4500 hatte ich selbst und war sehr zufrieden.

ja aber das waren ja bis auf die Banshee (imo trotz SLI HighEnd, da SLI damals ja noch viel freakiger war, als heute) und die Voodoo5 5500 (imo genauso Highend, da T&L tw. sogar bremsend wirken konnte, und die Karten der Konkurrenz v.A. durch kaum nutzbare/genutzte Features und hohen fps in Q3a fastest glänzten) waren alle von dir genannten Karten Zwischenlösungen, die die Produktpalette ergänzten. Sie waren nie als imageträchtige Vorzeigeware gedacht..

Quasar
2005-01-21, 23:15:25
Gast - wann kommen denn nun die Screenshots vom Realstorm2004 oder von der Karte?

Nochmal zur Erinnerung:
www.imageshack.us
=))

Hauwech
2005-01-21, 23:19:44
Darum wird ein A64 auch immer im 32 Bit Modus gebencht wenn er direkt mit einem INTEL verglichen werden soll.

SLI ist eine Extrawurst für Freaks. Schon die Erlangung 2er 6800GT oder Ultra ist kaum möglich. 9 Monate nach Vorstellung sind die Karten am Markt so gut wie nicht verfügbar. Und der ganze Zirkus bis das Ganze mal gescheit läuft und die Kosten drumherum vom Netzteil bis zum 1600x1200 Bildschirm (die meisten haben wohl keinen) kann man bei näherer Betrachtung kaum gut finden.

Der Begriff SLI impliziert den Gedanken daß es mit dem Dazustecken einer 2.ten Karte wie weiland bei den Voodoo's getan ist. Nvidia weiß aber ganz genau daß es eben nicht so einfach ist und zumindest derzeit, 7 Monate nach der Vorstellung, gerade mal von Profis wie Tombman gehandhabt werden kann. Marktreife würde ich so einer Bastlerlösung nicht attestieren.


Wo schrieb ich was von benchen gegen Intel? Kann man 64bit out of the box nutzen, ja oder nein?

Natürlich kann er Linux einsetzen, zum Spielen aber bestimmt nicht so prickelnd und ich glaube ehrlich gesagt nicht, dass er eine X800XT PE für Linux drinstecken hat.

X800 XT / PE gibts es wie Sand am Meer?

Komisch, ich habe mich ein wenig schlau gemacht und einen Eizo F930 für 120€ bekommen. Etliche andere hier aus dem Forum mit einem Tipp von Panasonic einen IBM P260 oder so. Ja, sind CRTs aber bei den 1600er TFT Preisen kann man das wohl verschmerzen. Bleibt noch das Netzteil. Ja, das ist teurer, funktionokelt aber höchstwahrscheinlich auch ein paar Jährchen, relativiert sich also.

Und von wegen Bastler und mechanische Inkompatibilitäten: Baut Nvidia seit neuestem Grafikkarten oder Mainboards? Wenn dann sind hier die Karten- und/oder Mobohersteller schuld.

Ob ich nun mehr oder weniger Monate auf eine Singlekarte warten muss oder auf 2, ist doch latte. Das galt/gilt für beide, so what?

Nicht ganz ausgereift würde ich es nicht nennen. Nvidia hat was neues gewagt und normalerweise sollte es auf Anhieb funktionieren. Erwartet man eigentlich, ist aber nicht gegeben und Nvidia ist beileibe keine Ausnahme wo es anders funktioniert als gedacht. Ist keine Entschuldigung, aber nur Nvidia als Buhmann dastehen zu lassen ist auch Käse.

aths
2005-01-21, 23:27:27
ja aber das waren ja bis auf die Banshee (imo trotz SLI HighEnd, da SLI damals ja noch viel freakiger war, als heute) und die Voodoo5 5500 (imo genauso Highend, da T&L tw. sogar bremsend wirken konnte, und die Karten der Konkurrenz v.A. durch kaum nutzbare/genutzte Features und hohen fps in Q3a fastest glänzten) waren alle von dir genannten Karten Zwischenlösungen, die die Produktpalette ergänzten. Sie waren nie als imageträchtige Vorzeigeware gedacht..Banshee hat nur eine TMU. In Spielen, die zwei TMUs nutzen konnte, war die Banshee der Voodoo2 (und der TNT2, Ausnahme Glide-Spiele) gnadenlos unterlegen.

Voodoo3 war eine Banshee mit 2 TMUs und soweit ich weiß minimalen Änderungen im Combiner. Na toll. Voodoo3 brachte die V2-SLI-Leistung. V3 hätte es auch in SLI-Varianten geben sollen, SLI-fähig war der Chip jedenfalls, mindestens bis in 4-er Konfigurationen soweit ich informiert bin. Stell dir einfach die Leistung von 2x Voodoo3 vor, das wäre angesichts damaliger recht simpler Rendertechniken wohl mit etwa 80% Effizienz möglich gewesen. Dann würde ich trotz der technischen Nachteile noch guten Gewissens von Highend sprechen können.

Es war imo ein Fehler, den VSA-100 zu entwickeln, und damit dem Rampage Entwicklungsressourcen zu rauben. 3dfx hätte den Avanger in einer SLI-Variante rausbringen sollen, und den Rampage rechtzeitig (vor der GeForce3) releasen müssen. Rampage SLI hätte dann einer GF3 das Wasser reichen können – mindestens.

Voodoo5 5500 bietet extrem gutes Antialiasing, und natürlich Glide-Support. Für meine Ansprüche und bevorzugten Spiele schlägt sie damit auch eine GF2 Ultra um Längen. Trotzdem: Kein AF, kein EMBM (ok, hatte GF2 auch nicht), kein Dot3 BM. Für das damalige "hier und jetzt" noch ok. Doch einen Anspruch auf auch technologische Führung konnte 3dfx schon seit der Zeit in der NV die TNT hatte, nicht mehr ernsthaft erheben. Ohne ernsthaftes Bemühen um technologische Führerschaft auf mehr als einem Feld (war ja nur Antialiasing im Falle der Voodoo5) verliert man natürlich mehr und mehr Kunden.

Insofern hoffe ich, dass auch ATI in Zukunft mehr Anstrengungen zeigt, aktuelle Features zu implementieren. Hier und jetzt reicht SM2 völlig aus. Das ist damit ok für Preis und Leistung einer X700. Nicht ok ist das aus meiner Sicht für ein 16-Pipe-Geschoss á la X800 und X850. ATI profitiert noch immer vom guten Image, den sie beim R300 zurecht erworben haben. Nüchtern betrachtet ist die SM2-Technik dem Highend-Segment nicht mehr würdig.

StefanV
2005-01-21, 23:34:53
Insofern hoffe ich, dass auch ATI in Zukunft mehr Anstrengungen zeigt, aktuelle Features zu implementieren.
Und ich hoffe, das nV endlich mal gute Karten braucht, ohne allzuviel Ballast, mit Features, die dem Kunden auch wirklich nutzen und nicht nur auf dem Papier schön anzusehen sind...

Wobei nV bei den Spannungsreglern der aktuellen Karten irgendwie ins Klo gegriffen hat...

aths
2005-01-21, 23:38:42
Und ich hoffe, das nV endlich mal gute Karten braucht, ohne allzuviel Ballast, mit Features, die dem Kunden auch wirklich nutzen und nicht nur auf dem Papier schön anzusehen sind...Was soll bei den aktuellen NV-Karten featuremäßig "Ballast" sein?

Wobei nV bei den Spannungsreglern der aktuellen Karten irgendwie ins Klo gegriffen hat...NV oder der Boardhersteller?

Quasar
2005-01-21, 23:43:32
Was soll bei den aktuellen NV-Karten featuremäßig "Ballast" sein?
Alles > ATi.
Wobei, ich hätte auch nichts dagegen, wenn ATi mal auf die überflüssigen Schnickschnacksachen verzichten würde und einfach mal eine schnelle Gamerkarte bringen würde, bei der nicht die Hälfte der Transistoren die Hälfte der Zeit nur gelangweilt Däumchen dreht.



NV oder der Boardhersteller?
Im Zweifelsfall immer nV, denn nV = evil.

StefanV
2005-01-22, 00:02:34
NV oder der Boardhersteller?

NV, da die ja fürs Referenzdesign verantwortlich sind und die Boardhersteller die fast ausnahmslos übernehmen, ohne jegliche Änderungen.

Somit ist nV auch für den Bestückungsplan zuständig...

StefanV
2005-01-22, 00:04:49
Nach meiner Rechnung wird es um nur 3 db lauter.


Richtig, 'nur' doppelt so laut...

Mr. Lolman
2005-01-22, 00:17:23
*doppelpost*

Mr. Lolman
2005-01-22, 00:17:27
Richtig, 'nur' doppelt so laut...

Leider nicht ganz. Nur doppelte Leistung. Doppelter Schalldruck sind 6dB und doppelte Lautstärke 10dB.

aths
2005-01-22, 00:25:52
NV, da die ja fürs Referenzdesign verantwortlich sind und die Boardhersteller die fast ausnahmslos übernehmen, ohne jegliche Änderungen.

Somit ist nV auch für den Bestückungsplan zuständig...Ist gesichert dass gewisse Probleme daraus resultieren, dass NVs Vorgaben falsch waren, oder könnte es auch daran liegen, dass viele Boardhersteller bei Cent-Komponenten zu ähnlich spezifizierter, aber minderwertigerer Billigware griffen, wie in der Vergangenheit immer wieder mal vorgekommen?

Richtig, 'nur' doppelt so laut...Seit wann bedeutet 3 db doppelte Lautstärke?

Auf eine Frage bist du noch nicht eingegangen:Was soll bei den aktuellen NV-Karten featuremäßig "Ballast" sein?

ironMonkey
2005-01-22, 00:46:37
Ist gesichert dass gewisse Probleme daraus resultieren, dass NVs Vorgaben falsch waren, oder könnte es auch daran liegen, dass viele Boardhersteller bei Cent-Komponenten zu ähnlich spezifizierter, aber minderwertigerer Billigware griffen, wie in der Vergangenheit immer wieder mal vorgekommen?

Dann muss NV mehr Spielraum lassen, der PC Sektor ist doch eh dafür bekannt das nur das billigste verbaut wird, also viel werden hier die Hersteller eh nicht sparen können, wenn sie für 10 Elkos 23 statt 25 Cent zahlen.

aths
2005-01-22, 01:24:21
Dann muss NV mehr Spielraum lassen, der PC Sektor ist doch eh dafür bekannt das nur das billigste verbaut wird, also viel werden hier die Hersteller eh nicht sparen können, wenn sie für 10 Elkos 23 statt 25 Cent zahlen.Soweit ich weiß, war es auch keine große Ersparnis, Karten wie die GF2 MX mit absoluten Billigwandlern auszustatten, so dass das Bild schon bei 1024x768 schön hässlich unscharf wurde. Haben trotzdem viele Hersteller gemacht.

StefanV
2005-01-22, 08:50:32
Soweit ich weiß, war es auch keine große Ersparnis, Karten wie die GF2 MX mit absoluten Billigwandlern auszustatten, so dass das Bild schon bei 1024x768 schön hässlich unscharf wurde. Haben trotzdem viele Hersteller gemacht.
Was du meinst, ist der RF Filter, das sind keinerlei 'Wandler', das sind nur ein paar Kondensatoren und Spulen, eventuell noch ein paar Transistoren und Widerstände...

StefanV
2005-01-22, 08:53:33
Ist gesichert dass gewisse Probleme daraus resultieren, dass NVs Vorgaben falsch waren, oder könnte es auch daran liegen, dass viele Boardhersteller bei Cent-Komponenten zu ähnlich spezifizierter, aber minderwertigerer Billigware griffen, wie in der Vergangenheit immer wieder mal vorgekommen?

Es ist eher davon auszugehen, das die Hersteller sich an die von nV spezifizierten Bauteile halten, wenn sie denn die Boards noch selbst produzieren, da es nicht unbedingt einfach ist, 'mal eben' 'nen anderen Spannungsregler zu verbauen, aber das hatten wir irgendwo mal...

Fakt ist jedenfalls, das nV Mist gebaut haben muss, da die 6600 _ALLER HERSTELLER_ abgrauchen...

HockleXX
2005-01-22, 10:32:56
Sagen wir so, die Spannungswandler sind bei den 6600 nicht die besten ;)

Gas.t
2005-01-22, 10:44:37
Es ist eher davon auszugehen, das die Hersteller sich an die von nV spezifizierten Bauteile halten, wenn sie denn die Boards noch selbst produzieren, da es nicht unbedingt einfach ist, 'mal eben' 'nen anderen Spannungsregler zu verbauen, aber das hatten wir irgendwo mal...

Fakt ist jedenfalls, das nV Mist gebaut haben muss, da die 6600 _ALLER HERSTELLER_ abgrauchen...


nein das ist kein Fakt.
es halten sich nur wenige hersteller an nvidias vorgaben zur bestückung, das ist das problem.

LairD
2005-01-22, 11:36:35
nein das ist kein Fakt.
es halten sich nur wenige hersteller an nvidias vorgaben zur bestückung, das ist das problem.

Dann sollte nVidia aber ganz schnell dafür sorgen das ihre Vorgaben eingehalten werden,oder an Hersteller die sich nicht an die Vorgaben halten keine Chips mehr verkaufen.
Denn es ist sicher nicht positiv für das Image,wenn Karten frühzeitig abrauchen und viele werden die Schuld,für die abgerauchte Karte,nvidia geben und nicht dem Hersteller der Graka.

Aber ich glaube nicht daran,das die Hersteller eigenmächtig zu schlechte Bauteile verwendet haben.Denn der Hersteller muss ja davon ausgehen,das nvidia dahinter kommt,gerade wenn von diesen Karten bes. viele kaputt gehen.
und ob der Hersteller dann nochmal Chips von nvidia kriegt,bezweifel ich.

Hauwech
2005-01-22, 11:56:18
Ich dachte Nvidia hatte seit bzw mit der FX Serie so ein Qualitätskontrollprogramm für die Kartenhersteller eingeführt?

ShadowXX
2005-01-22, 13:06:27
Denn es ist sicher nicht positiv für das Image,wenn Karten frühzeitig abrauchen und viele werden die Schuld,für die abgerauchte Karte,nvidia geben und nicht dem Hersteller der Graka.


Warum?

Wenn ich eine Karte bei Hersteller XYZ Kaufe und diese raucht ab, dann würde ich nie auf die Idee kommen die Schuld bei nV oder ATI zu suchen, sondern dieses immer dem Hersteller der Karte in die Schuhe schieben.

Wir alle kaufen keine Karten bei nV oder ATI (ok, bei ATI gibts da ausnahmen), sondern immer beim jeweiligen Karten-Hersteller, welcher auch als einziger verantwortlich für irgendwelche Defekte ist.

Woran es nun liegt, das scheinbar so viele 6600 abrauchen, weiss hier genau keiner.
Ich glaube auch nicht das ein "Referenzdesign" so akribisch genau vorschreibt, welche Spannungswandler, Kondensatoren usw. genau benutzt werden müssen, sondern eher vorgibt, was das jeweilige Bauteil als mindestspezifikation haben muss. Aber bestimmt steht da nicht bei, das die Bauteile von Hersteller xyz sein müssen.

Und das die Boardhersteller im Mid/Low-Range bereich lieber 2cent weniger ausgeben als ein besserees Bauteil zu benutzen, ist nicht erst seit der 6600 bekannt.

Viel von der hohen "abrauch"-quote kommt wohl auch daher, das diese Boards in viel grösseren Stückzahlen als die High-Ends verkauft werden....von oc-ing mal abgesehn...

Coda
2005-01-22, 13:14:41
ok, bei ATI gibts da ausnahmenDie werden soweit ich weiß auch von Sapphire gefertigt :)

StefanV
2005-01-22, 13:27:01
Ich glaube auch nicht das ein "Referenzdesign" so akribisch genau vorschreibt, welche Spannungswandler, Kondensatoren usw. genau benutzt werden müssen, sondern eher vorgibt, was das jeweilige Bauteil als mindestspezifikation haben muss. Aber bestimmt steht da nicht bei, das die Bauteile von Hersteller xyz sein müssen.

Doch, bei Spannungsreglern und ähnlichem wird sowas vorgeschrieben bzw muss so sein, da diese Teile eine bestimmte Pin Belegung haben müssen und auf eine bestimmte Verschaltung entsprechend reagieren müssen, die müssen spezifiziert sein (z.B: U43 auf einer 9700 rev 1.1 IOR3037 A).

Bei Kondensatoren und anderen passiven Bauteilen hast du allerdings recht, da wird nicht der Hersteller vorgegeben, da wird nur '470µF, 10V' vorgegeben

Wir alle kaufen keine Karten bei nV oder ATI (ok, bei ATI gibts da ausnahmen), sondern immer beim jeweiligen Karten-Hersteller, welcher auch als einziger verantwortlich für irgendwelche Defekte ist.


Das ist eben das Problem, die DInger werden nur von 'ner Hand voll Herstellern gefertigt, früher wars durchaus anders...

LairD
2005-01-22, 13:27:25
Warum?

Wenn ich eine Karte bei Hersteller XYZ Kaufe und diese raucht ab, dann würde ich nie auf die Idee kommen die Schuld bei nV oder ATI zu suchen, sondern dieses immer dem Hersteller der Karte in die Schuhe schieben.

Wir alle kaufen keine Karten bei nV oder ATI (ok, bei ATI gibts da ausnahmen), sondern immer beim jeweiligen Karten-Hersteller, welcher auch als einziger verantwortlich für irgendwelche Defekte ist.

Woran es nun liegt, das scheinbar so viele 6600 abrauchen, weiss hier genau keiner.
Ich glaube auch nicht das ein "Referenzdesign" so akribisch genau vorschreibt, welche Spannungswandler, Kondensatoren usw. genau benutzt werden müssen, sondern eher vorgibt, was das jeweilige Bauteil als mindestspezifikation haben muss. Aber bestimmt steht da nicht bei, das die Bauteile von Hersteller xyz sein müssen.

Und das die Boardhersteller im Mid/Low-Range bereich lieber 2cent weniger ausgeben als ein besserees Bauteil zu benutzen, ist nicht erst seit der 6600 bekannt.

Viel von der hohen "abrauch"-quote kommt wohl auch daher, das diese Boards in viel grösseren Stückzahlen als die High-Ends verkauft werden....von oc-ing mal abgesehn...

1.
jo wir alle kaufen keine Karten von nvidia oder ati,aber wieviele der User die sich nicht in solchen Foren wie 3dcenter rumtreiben wissen das?

2.
Genau nvidia gibt eine Mindestspezifikation vor und an diese haben sich die Hersteller zu halten.
Das nvidia nicht vorschreibt von welcher Firma die komponenten sein müssen,ist klar,aber diese Komponenten müssen trotzdem die Mindestspezifikation erfüllen.

3.
Und auch wenn die Karten in höheren Stückzahlen verkauft werden,ist das keine Entschuldigung das sie teilweise fehlerhaft sind.
Wäre ja noch schöner wenn ati oder nvidia die hohen Fehlerquoten damit begründen würden.

4.
Also für mich persönlich hat das schon einen Imageschaden bei nvidia bewirkt.
Ich kaufe nun mal nicht gerne bei Firmen wo Probleme mit Produkten in grösserem Umfang auftreten.
Macht auf mich keinen bes. guten Eindruck.
Auch wenn es nicht nvidias Schuld ist.

Majestic
2005-01-22, 13:54:09
Fakt ist jedenfalls, das nV Mist gebaut haben muss, da die 6600 _ALLER HERSTELLER_ abgrauchen...

Jo der großer böse "grüne Riese" ist wieder Schuld an allem Unheil..... P.S. Gibt es eigendlich auch Beweise dafür das NV dran Schuld ist....;D Sorry for OT.... :D Irgendwie wird es immer geschafft jeden Thread weg vom Thema zu bringen ;)

Was für Temps hat die Karte eigendlich so im 2D/3D? Der Lüfter/Kühler müßte ja wesentlich effektiver sein.....Und ist die X850 nur eigendlich "AMR ready" oder nicht?

Jesus
2005-01-22, 14:13:37
Jo der großer böse "grüne Riese" ist wieder Schuld an allem Unheil..... P.S. Gibt es eigendlich auch Beweise dafür das NV dran Schuld ist....;D Sorry for OT.... :D Irgendwie wird es immer geschafft jeden Thread weg vom Thema zu bringen ;)


Was ist wahrscheinlicher ? Dass alle Hersteller zufällig denselben Fehler machen, oder das NV da etwas zu schwammig spezifiziert hat ?

StefanV
2005-01-22, 14:14:20
Gibt es eigendlich auch Beweise dafür das NV dran Schuld ist....;D
Gibt es eigentlich auch Beweise dafür, das nV nicht schuld ist??

Fakt ist jedenfalls das _ALLE_ 6600GTs betroffen sind, von _ALLEN_ Herstellern.

Schwer vorstellbar, das so viele Hersteller den gleichen Fehler machen, findest nicht auch??

Tigerchen
2005-01-22, 14:26:50
Wie auch immer. In manchen Dingen hat der Gast sicher nicht unrecht. Beide Seiten sind einfach zu sehr auf ihre Meinung versteift...


SLI ist zwar nicht unnötig und eine einzelne x850 ist sicher nicht immer schneller, aber es gibt halt leider noch einige Anwendungen wo SLI nicht fehlerfrei funzt. Wo es tw. sogar bremst. Und der leistungsmässige Zusatznutzen ist dann halt dementsprechend bei SLI kompatiblen Spielen zu suchen. Nichts desto trotz ists ziemlich unwahrscheinlich, dass irgendeine SingleGPU Karte dieses Jahr noch 11000 3dmarks05 schafft.


BTW: Vielleicht wurde ausser dem höheren Takt wirklich was geändert, für die X850XTPE (und wenns nur Treiberoptimierungen sind):

http://www.forum-3dcenter.de/vbulletin/showthread.php?t=188400&highlight=x850xt

3DMark besitzt für mich keinerlei Relevanz. Ich habe den 2003er einmal laufen llassen und der 2005 interessiert mich ebenfalls nicht. Meinst du es ist Zufall daß ich niemals im Benchmarkforum bin? Mein nächster Rechner muß leise sein und leicht zu warten. Da stört die 3D-Mark Krone eher.

Tigerchen
2005-01-22, 14:30:10
Warum?

Wenn ich eine Karte bei Hersteller XYZ Kaufe und diese raucht ab, dann würde ich nie auf die Idee kommen die Schuld bei nV oder ATI zu suchen, sondern dieses immer dem Hersteller der Karte in die Schuhe schieben.

Wir alle kaufen keine Karten bei nV oder ATI (ok, bei ATI gibts da ausnahmen), sondern immer beim jeweiligen Karten-Hersteller, welcher auch als einziger verantwortlich für irgendwelche Defekte ist.

Woran es nun liegt, das scheinbar so viele 6600 abrauchen, weiss hier genau keiner.
Ich glaube auch nicht das ein "Referenzdesign" so akribisch genau vorschreibt, welche Spannungswandler, Kondensatoren usw. genau benutzt werden müssen, sondern eher vorgibt, was das jeweilige Bauteil als mindestspezifikation haben muss. Aber bestimmt steht da nicht bei, das die Bauteile von Hersteller xyz sein müssen.

Und das die Boardhersteller im Mid/Low-Range bereich lieber 2cent weniger ausgeben als ein besserees Bauteil zu benutzen, ist nicht erst seit der 6600 bekannt.

Viel von der hohen "abrauch"-quote kommt wohl auch daher, das diese Boards in viel grösseren Stückzahlen als die High-Ends verkauft werden....von oc-ing mal abgesehn...

Hohe Stückzahlen gabs auch bei anderen Grafikkarten. Daran liegt es nicht.

Tigerchen
2005-01-22, 14:34:36
Ist gesichert dass gewisse Probleme daraus resultieren, dass NVs Vorgaben falsch waren, oder könnte es auch daran liegen, dass viele Boardhersteller bei Cent-Komponenten zu ähnlich spezifizierter, aber minderwertigerer Billigware griffen, wie in der Vergangenheit immer wieder mal vorgekommen?

Seit wann bedeutet 3 db doppelte Lautstärke?

Auf eine Frage bist du noch nicht eingegangen:

Wo hast du die db her?
Die Lautstärke steigt von 3,3 auf 4,1 Sone. Das ist schon recht rauschig oder?

Quasar
2005-01-22, 14:38:51
Wo hast du die db her?
Die Lautstärke steigt von 3,3 auf 4,1 Sone. Das ist schon recht rauschig oder?

Sone sind aber linear, so daß die empfundene Lautstärke nur um ~1/4 gestiegen ist, oder?

Quasar
2005-01-22, 14:45:38
Gibt es eigentlich auch Beweise dafür, das nV nicht schuld ist??
Gibt es Beweise dafür, daß nV schuld ist? Steht auf den abrauchenden Bauteilen "(c) by nVidia" drauf oder sowas?
Wenn die GPU abraucht*, ist nV schuld.
Bei ansonsten ordnungsgemäß operierendem Umfeld


Fakt ist jedenfalls das _ALLE_ 6600GTs betroffen sind, von _ALLEN_ Herstellern.
Das ist so lustig, das will ich mal für die Nachwelt per Quote erhalten.

Du meinst also, daß ALLE 6600GTs abrauchen? X-D

Quasar
2005-01-22, 14:48:36
Das ist eben das Problem, die DInger werden nur von 'ner Hand voll Herstellern gefertigt, früher wars durchaus anders...
Richtig - und früher waren noch verschiedene andere Dinge anders. Manche Länder hatten 'nen Kaiser, Frauen durften nicht wählen, Staatshaushalte waren fast ausgeglichen und die Signalqualität verschiedener Grafikkarten (vornehmlich nV-basierten) war suboptimal. Laut c't-Messungen hat sich zumindest letzteres deutlich zum positiven gewandelt.

Vielleicht wäre also ein g'rüttelt Maß an Differenzierung nicht schlecht?

Tigerchen
2005-01-22, 14:50:11
Wo schrieb ich was von benchen gegen Intel? Kann man 64bit out of the box nutzen, ja oder nein?

Natürlich kann er Linux einsetzen, zum Spielen aber bestimmt nicht so prickelnd und ich glaube ehrlich gesagt nicht, dass er eine X800XT PE für Linux drinstecken hat.

X800 XT / PE gibts es wie Sand am Meer?

Komisch, ich habe mich ein wenig schlau gemacht und einen Eizo F930 für 120€ bekommen. Etliche andere hier aus dem Forum mit einem Tipp von Panasonic einen IBM P260 oder so. Ja, sind CRTs aber bei den 1600er TFT Preisen kann man das wohl verschmerzen. Bleibt noch das Netzteil. Ja, das ist teurer, funktionokelt aber höchstwahrscheinlich auch ein paar Jährchen, relativiert sich also.

Und von wegen Bastler und mechanische Inkompatibilitäten: Baut Nvidia seit neuestem Grafikkarten oder Mainboards? Wenn dann sind hier die Karten- und/oder Mobohersteller schuld.

Ob ich nun mehr oder weniger Monate auf eine Singlekarte warten muss oder auf 2, ist doch latte. Das galt/gilt für beide, so what?

Nicht ganz ausgereift würde ich es nicht nennen. Nvidia hat was neues gewagt und normalerweise sollte es auf Anhieb funktionieren. Erwartet man eigentlich, ist aber nicht gegeben und Nvidia ist beileibe keine Ausnahme wo es anders funktioniert als gedacht. Ist keine Entschuldigung, aber nur Nvidia als Buhmann dastehen zu lassen ist auch Käse.

Den AMD64 kauft man sich als 32 Bit CPU genau wie die Intels. Der 64 Bit Modus ist eben da. Wenn dann die WinXP 64 Bit Edition kommt kann man es nutzen. Einfach so. Out of the box. Keine Schraube mußt du lösen. Keine Extrahardware verbauen, auf keine Spannungswerte achten. Das ist ein ganz anderer Schuh als SLI.

Wo habe ich was von X800XT/PE von Sand am Meer geschrieben? Von der Verfügbarkeit aktueller ATI-Produkte bin ich noch mehr enttäuscht als bei nVidia. Wie kommst du auf das Thema?

Kauf du dir mal deinen gebrauchten, gut abgehangenen CRT. Ich wechsel bestimmt nicht mehr um ein SLI-System zu rechtfertigen. Meine Augen haben mir den Wechsel auf TFT jedenfalls gedankt. Das ist wichtiger.

Ist es nicht egal wer jetzt für die mechanischen Probleme bei verschiedenen Boards verantwortlich ist? Fakt ist daß es die Probleme gibt. Also noch was wo man dran denken muß. Eure Leidensfähigkeit ist auch irgendwie beeindruckend.;D

Tigerchen
2005-01-22, 14:52:28
Sone sind aber linear, so daß die empfundene Lautstärke nur um ~1/4 gestiegen ist, oder?

Ich finde Sone sinniger. Und vor allem einfacher. Alles über 4 Sone ist einfach zu laut. Eigentlich schon alles über 3 Sone. Aber ich will mich da nicht zum alleinigen Maßstab machen.

Tigerchen
2005-01-22, 14:54:26
Gibt es Beweise dafür, daß nV schuld ist? Steht auf den abrauchenden Bauteilen "(c) by nVidia" drauf oder sowas?
Wenn die GPU abraucht*, ist nV schuld.
Bei ansonsten ordnungsgemäß operierendem Umfeld


Das ist so lustig, das will ich mal für die Nachwelt per Quote erhalten.

Du meinst also, daß ALLE 6600GTs abrauchen? X-D

Glaub ich nicht. Er meint natürlich daß alle Hersteller mit den selben Problemen zu kämpfen haben. Frag Alfred E. Neumann.

Quasar
2005-01-22, 14:55:09
Ich finde Sone sinniger. Und vor allem einfacher. Alles über 4 Sone ist einfach zu laut. Eigentlich schon alles über 3 Sone. Aber ich will mich da nicht zum alleinigen Maßstab machen.

Schön und gut, aber nichtsdestotrotz sind 4,1 Sone ggü. 3,3 Sone keine Verdopplung der Lautstärke, oder?

BTW, IMO ist alles über 0,0 Sone suboptimal.

Quasar
2005-01-22, 14:56:22
Glaub ich nicht. Er meint natürlich daß alle Hersteller mit den selben Problemen zu kämpfen haben. Frag Alfred E. Neumann.

Wieso schreibt er's dann nicht, wenn er es so meint? ;)

Garage
2005-01-22, 15:05:03
Schön und gut, aber nichtsdestotrotz sind 4,1 Sone ggü. 3,3 Sone keine Verdopplung der Lautstärke, oder?



Nein, keine Verdoppelung, aber doch schon ein ganzes Stück lauter. Sone ist ggü. dBA wesentlich sinniger, weil 4 Sone sind doppelt so laut wie 2 Sone, 50 dBa aber nicht doppelt so laut wie 25 dBa.
Der Unterschied zwischen 3.3 ggü 4.1 ist sehr deutlich wahrnehmbar.

aths
2005-01-22, 16:37:19
[COLOR="#000088"]
Wo hast du die db her?Hab das mit einem Professor besprochen, der dann meinte, 3 dB.

Die Lautstärke steigt von 3,3 auf 4,1 Sone. Das ist schon recht rauschig oder?Wie wurde das gemessen?

aths
2005-01-22, 16:39:22
Nein, keine Verdoppelung, aber doch schon ein ganzes Stück lauter. Sone ist ggü. dBA wesentlich sinniger, weil 4 Sone sind doppelt so laut wie 2 Sone, 50 dBa aber nicht doppelt so laut wie 25 dBa.Deshalb rechnet man in der Verstärkertechnik mit dB, weil die logarithmische Skalierung dort sinniger ist, als lineare.

Angenommen, 100 Meter Kabel dämpfen das Signal um 1 dB. Wie stark ist die Dämpfung bei 300 Meter? 3 dB. Solche einfachen Rechnungen gehen bei einer linearen Maßeinheit nicht.

Tigerchen
2005-01-22, 19:11:47
Deshalb rechnet man in der Verstärkertechnik mit dB, weil die logarithmische Skalierung dort sinniger ist, als lineare.

Angenommen, 100 Meter Kabel dämpfen das Signal um 1 dB. Wie stark ist die Dämpfung bei 300 Meter? 3 dB. Solche einfachen Rechnungen gehen bei einer linearen Maßeinheit nicht.

Beim messen der Lautstärke eines PC's hat sich in letzter Zeit Sone immer mehr durchgesetzt. Das du da wieder was dran auszusetzen hast verstehe ich nicht.

Gemessen hat die PCGH Ausgabe 2/05 Seite 49.

Fadl
2005-01-22, 19:18:15
@aths

ich habe 2 6800GT im Rechner und höre schon sehr deutlich den Unterschied zu nur einer GT. Ob das wirklich nur 3db sind kann ich natürlich nicht messen aber subjektiv kommt es mir vor als müssten es mehr als nur 3db sein.
Ich würde schon behaupten das die Angabe von Tigerchen mit 3,3 zu 4,1 Sone der Wahrheit nahe kommt.

Piffan
2005-01-23, 13:40:47
Die Lautstärke von zwei Karten kann durchaus höher sein als nur 3 db oberhalb einer einzelnen. Denn man geht bei dieser zu simplen Rechnung von der Annahme aus, dass es zwei eigenständige Schallquellen sind.

Tatsächlich gibts aber ne Verkoppelung und das Mitschwingen von Platine und Gehäuseteilen. Je na Schwingungslage (durch Unwuchten der Lüfter z.B) kommt es zur Verstärkung oder teilweisen Auslöschung, möglich und sehr lästig sind Schwebungen, die für ein Schwanken der Lautstärke und des Klangspektrums sorgen.....

Auf alle Fälle ist die Akustik extrem komplex (Siehe Aufwand der Autohersteller, um Fahrzeuge leise zu bekommen) und die Sache kommt meistens anders als man dachte....

Bei vernünftiger Bauweise der Kühler/Lüfter glaube ich aber dennoch, dass zwei Grakas im Endeffekt bei geschlossenem Gehäuse nicht nennenswert mehr Prott machen als nur eine. Gerade im Highend- Bereich werden die Gehäuselüfter und das Netzteil wohl eher für einen Geräuschteppich sorgen, der die Grakas bedeutungslos werden lässt......

Ehe man sich über die Lautstärke einzelner Grakas aufregt, sollte man sich eher über den Stromdurst und der generellen Lautstärke von Gesamt- Systemen unterhalten. So richtig leise bekommt man es nur bei optimaler Luftführung oder kompletter Wasserkühlung, die das Netzteil einbezieht....

Ich denke, das HighEnd- Freaks sich kaum einen Kopf über ein paar lausige db machen, solange die Performance ok. ist. Sind halt Kunden, die auf andere Dinge achten als der Betreiber eines Wohnzimmer- Pcs....(nach Leo: Wohnzimmer Pc's oder so ähnlich)

Hauwech
2005-01-23, 15:28:30
Den AMD64 kauft man sich als 32 Bit CPU genau wie die Intels. Der 64 Bit Modus ist eben da. Wenn dann die WinXP 64 Bit Edition kommt kann man es nutzen. Einfach so. Out of the box. Keine Schraube mußt du lösen. Keine Extrahardware verbauen, auf keine Spannungswerte achten. Das ist ein ganz anderer Schuh als SLI.

Wo habe ich was von X800XT/PE von Sand am Meer geschrieben? Von der Verfügbarkeit aktueller ATI-Produkte bin ich noch mehr enttäuscht als bei nVidia. Wie kommst du auf das Thema?

Kauf du dir mal deinen gebrauchten, gut abgehangenen CRT. Ich wechsel bestimmt nicht mehr um ein SLI-System zu rechtfertigen. Meine Augen haben mir den Wechsel auf TFT jedenfalls gedankt. Das ist wichtiger.

Ist es nicht egal wer jetzt für die mechanischen Probleme bei verschiedenen Boards verantwortlich ist? Fakt ist daß es die Probleme gibt. Also noch was wo man dran denken muß. Eure Leidensfähigkeit ist auch irgendwie beeindruckend.;D


Ich erinnere mal an die CnQ Problemchen, die nicht sehr weit verbreitete Möglichkeit, 4 x 512 MB mit 200MHz anzusprechen (wie wird das ganz mit 4 x 1GB aussehen?), das längere Fehlen von XP64 überhaupt zur Nutzung von 64Bit und kostenlos wird es mit Sicherheit auch nicht sein. Ob da alles so reibungslos läuft muss sich auch noch erst beweisen, Treibergeschichten noch gar nicht berücksichtigt.

Da sind die "Probleme" mit SLI gar nichts gegen. So viel zur Leidensfähigkeit. ;)

Damit das nicht in den falschen Hals gerät: Ich habe nichts gegen AMD. Die K8 CPUs sind klasse. Ja, ich besitze auch einen AMD, nen 1700er Palomino mit SD-RAM :D, der dieses Jahr von einem AMD64 abgelöst wird wenn Windows XP64 verfügbar ist.

Tigerchen
2005-01-23, 19:36:16
Ich erinnere mal an die CnQ Problemchen, die nicht sehr weit verbreitete Möglichkeit, 4 x 512 MB mit 200MHz anzusprechen (wie wird das ganz mit 4 x 1GB aussehen?), das längere Fehlen von XP64 überhaupt zur Nutzung von 64Bit und kostenlos wird es mit Sicherheit auch nicht sein. Ob da alles so reibungslos läuft muss sich auch noch erst beweisen, Treibergeschichten noch gar nicht berücksichtigt.

Da sind die "Probleme" mit SLI gar nichts gegen. So viel zur Leidensfähigkeit. ;)

Damit das nicht in den falschen Hals gerät: Ich habe nichts gegen AMD. Die K8 CPUs sind klasse. Ja, ich besitze auch einen AMD, nen 1700er Palomino mit SD-RAM :D, der dieses Jahr von einem AMD64 abgelöst wird wenn Windows XP64 verfügbar ist.

Die DDR Probleme haben nun gar nichts mit "Out of the box zu tun" und sie sind auch nicht AMD-only. DDR400 ist eben am Rande des technisch Vertretbaren. Wie gesagt, ein anderes Thema.

Ansonsten scheinst du dichja ziemlich an SLI zu klammern. Viel Spaß dabei.

Coda
2005-01-23, 20:43:41
wie wird das ganz mit 4 x 1GB aussehen?Genau gleich, die größe ist nicht das Problem, sondern der Bus.

Wobei 4 Speichersticks mit nem 939 Board keine Problem sein dürfte.

Hauwech
2005-01-23, 21:27:46
Die DDR Probleme haben nun gar nichts mit "Out of the box zu tun" und sie sind auch nicht AMD-only. DDR400 ist eben am Rande des technisch Vertretbaren. Wie gesagt, ein anderes Thema.

Ansonsten scheinst du dichja ziemlich an SLI zu klammern. Viel Spaß dabei.


Nö, ich klammere mich nicht an SLI. Falls du dir mal die Mühe machst und meinen ersten Post als Antwort zu dem 'tollen lesenswerten Post' ;) von Doc_Nitro lesen würdest, könnstet du vielleicht feststellen, dass er selber mit seinem A64 auch nur "Deppen" und deren Hype hintergelaufen ist und sich selbst vielleicht mal bei AMD bewerben sollte. Schade, hatte gehofft, dass jemand dies erkennt.

Die ganzen Posts von wegen unausgereift, Bastlerlösung, sonstige Probleme kann man genauso gut, wie hoffentlich gezeigt, auch auf andere Sachen (A64) anwenden. Soviel zu out of the box, FriedeFreudeEierkuchen, Null Problemo und so.

Scheint aber viele nicht zu interessieren, anscheinend weil es nicht Nvidia und somit Evil ist...

Ich hoffe es ist jetzt klar geworden, dass ich mich nicht an SLI klammere sondern das ich solche tollen Posts nicht wirklich liebe. :)

plplplplplu
2005-01-24, 06:56:21
Richtig - und früher waren noch verschiedene andere Dinge anders. Manche Länder hatten 'nen Kaiser, Frauen durften nicht wählen, Staatshaushalte waren fast ausgeglichen und die Signalqualität verschiedener Grafikkarten (vornehmlich nV-basierten) war suboptimal. Laut c't-Messungen hat sich zumindest letzteres deutlich zum positiven gewandelt.

Vielleicht wäre also ein g'rüttelt Maß an Differenzierung nicht schlecht?

Bin mal wieder hier in meinem Revier (Thread)!

Habe mir jetzt mal die Mühe gemacht und mir den ganzen Thread ausgeduckt und mitgenommen auf die Toilette, als MORGEN-LEKTÜRE!

Ich habe köstlich lachen müssen, aber auch einige Meinungen gefunden die in meine Richtung gehen, ich hatte schon gedacht der grüne Virus wäre ausgebrochen.

Fotos von meinem Demo-Rechner kann ich aufgrund von NDA nicht rausgeben, erst wenn das ASUS-Board offiz. ist gibt es Bilder, Versprochen!

Mich würde nun mal einiges interessieren:

1. Wie hoch ist eigentlich der Anteil an Kindern hier im Forum (11-14 Jahre)?
2. Wird bei Auslieferung einer 6800'er ein TÜTCHEN mit Bewusstseins
erweiternden Drogen mitgeliefert?

Ein paar externe Wiederlegungen habe ich auch gefunden, da eigene Meinungen, wie einge Antworten hier gut verdeutlichen, in's lächerliche gezogen werden.

Hier mal ein Beispiel!

Zu Tombman Referenskühler 6800'er - Meinung: Der Referenzkühler der 6800 ist "Top of the World."

Zitat: http://www.chip.de/artikel/c_artikelunterseite_11772657.html?tid1=14941&tid2=24380

...Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich. Board-Hersteller sollten deshalb das Nvidia-Design verwerfen und ein leiseres Kühldesign für die Grafikkarte entwickeln....
Zitat Ende!

Ich hoffe, das einige hier des "googlens" noch mächtig sind und nicht alles glauben was so manch einer hier behauptet!

Dieser Thread zeigt aber ganz deutlich wie weit einige schon gekommen sind im Bezug auf Wahrnehmungen und Meinungen von Proukten die sie selber verwenden.

Zu guter Schluss noch ein TOP-AKTUELLER Link zu einem Thread, den ich wärmstens empfehlen kann im Bezug auf Strapazierung der Lachmuskeln.

http://www.forum-hardtecs4u.com/yabbse/index.php?board=22;action=display;threadid=30802;start=20

Ist Henry = Tombman? ;) Kleiner Scherz!

MechWOLLIer
2005-01-24, 08:02:44
Zu Tombman Referenskühler 6800'er - Meinung: Der Referenzkühler der 6800 ist "Top of the World."
Zitat: [url]htt
...Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich. Board-Hersteller sollten deshalb das Nvidia-Design verwerfen und ein leiseres Kühldesign für die Grafikkarte entwickeln....
Zitat Ende!

Soweit ich weiß hatte Chip eine defekte Lüftersteuerung abbekommen, so dass der Referenzkühler immer mit 12V betrieben wurde. Dann ist klar, dass er so laut ist. Dies ist imo bei einigen Testexemplaren passiert, die auch immer direkt ausgetauscht wurden.

Der Referenzkühler ist wirklich nicht schlecht, auch wenn ich ihn nicht als den besten der Welt abtuen möchte, da er dafür zu laut ist.
Dennoch, er ist erträglich (nicht störend) und kühlt recht gut.

Bandit666
2005-01-24, 09:19:29
Fotos von meinem Demo-Rechner kann ich aufgrund von NDA nicht rausgeben, erst wenn das ASUS-Board offiz. ist gibt es Bilder, Versprochen!


Warum haste dann am 19ten schon den Thread aufgemacht?


Mich würde nun mal einiges interessieren:

1. Wie hoch ist eigentlich der Anteil an Kindern hier im Forum (11-14 Jahre)?

Dich eingeschlossen?



2. Wird bei Auslieferung einer 6800'er ein TÜTCHEN mit Bewusstseins
erweiternden Drogen mitgeliefert?

Ein paar externe Wiederlegungen habe ich auch gefunden, da eigene Meinungen, wie einge Antworten hier gut verdeutlichen, in's lächerliche gezogen werden.

Hier mal ein Beispiel!

Zu Tombman Referenskühler 6800'er - Meinung: Der Referenzkühler der 6800 ist "Top of the World."


Wer lesen kann ist klar im Vorteil.Der Referenzkühler von Nvidia ist sehr stark und kühlt am besten von allen Luftkühler......von der Lautstärke sehen wir hier ab.
Soll ich Tombman jetzt für dich Maulwurf zitieren?


Zitat: http://www.chip.de/artikel/c_artikelunterseite_11772657.html?tid1=14941&tid2=24380

...Was für die Karte weniger gut lief, war die anschließende Lüftergeräuschmessung, bei der sich eine Lautheit von 8,2 sone respektive 54,8 dB(A) ergab. Diese Werte sind im deutlich hörbaren Bereich. Board-Hersteller sollten deshalb das Nvidia-Design verwerfen und ein leiseres Kühldesign für die Grafikkarte entwickeln....
Zitat Ende!

lag an einer defekten Lüftersteuerung.Ende.


Ich hoffe, das einige hier des "googlens" noch mächtig sind und nicht alles glauben was so manch einer hier behauptet!

Wer im Glashaus sitzt...............


Dieser Thread zeigt aber ganz deutlich wie weit einige schon gekommen sind im Bezug auf Wahrnehmungen und Meinungen von Proukten die sie selber verwenden.

Zu guter Schluss noch ein TOP-AKTUELLER Link zu einem Thread, den ich wärmstens empfehlen kann im Bezug auf Strapazierung der Lachmuskeln.

http://www.forum-hardtecs4u.com/yabbse/index.php?board=22;action=display;threadid=30802;start=20

Ist Henry = Tombman? ;) Kleiner Scherz!

Was willst du eigentlich hiermit bezwecken......zum Threadthema kannst oder willst du nix sagen......warum biste dann hier....ich werte das als Spam.


mfg

StefanV
2005-01-24, 10:00:00
Soweit ich weiß hatte Chip eine defekte Lüftersteuerung abbekommen, so dass der Referenzkühler immer mit 12V betrieben wurde. Dann ist klar, dass er so laut ist. Dies ist imo bei einigen Testexemplaren passiert, die auch immer direkt ausgetauscht wurden.

Der Referenzkühler ist wirklich nicht schlecht, auch wenn ich ihn nicht als den besten der Welt abtuen möchte, da er dafür zu laut ist.
Dennoch, er ist erträglich (nicht störend) und kühlt recht gut.
Die Referenzkühler von nV sind einfach nur Müll.


Das Radialdesign ist einfach nur shit, da man dafür recht hoch drehende Lüfter braucht, um einen brauchbaren Luftstrom zu erzeugen, die ATI Version (große Lüfter), ist da wesentlich sinniger...

Grestorn
2005-01-24, 10:11:23
Die Referenzkühler von nV sind einfach nur Müll.Mal ganz grundsätzlich zu der Art und Weise zu diskutieren im Netz:

Wer es nötig hat, etwas als "Müll", "Schrott" oder "Shice" zu bezeichnen, nur weil er es nicht so gut wie etwas anderes findet, sollte sich mal über seine Wertmaßstäbe Gedanken machen.

Es gibt Dinge, die sind in der Tat objektiv Schrott, da in der Praxis einfach nicht zu verwenden, z.B. die ersten NV1 Karten waren, sogar wie sie neu auf dem Markt waren, nur Schrott. Aber etwas, das - subjektiv oder objektiv - irgendwelche Nachteile hat, sonst aber gut funktioniert, kann per Definition kein "Müll" sein.

So etwas regt mich auf und führt dazu, dass ich Postings bestimmter User schon von vornherein mit entsprechender Abneigung lese. Und das ist auch nicht im Interesse dieser User, die ja ihre Meinung an den Mann bringen wollen.

aths
2005-01-24, 10:21:52
[COLOR="#000088"]
Beim messen der Lautstärke eines PC's hat sich in letzter Zeit Sone immer mehr durchgesetzt. Das du da wieder was dran auszusetzen hast verstehe ich nicht.Im Gegensatz zu deiner blauen Posting-Farbe habe ich an der Sone-Maßeinheit nichts auszusetzen. Durch meinen Hintergrund als Elektrotechniker bin ich allerdings eher mit dB vertraut und denke / rechne in dB.

Bandit666
2005-01-24, 10:54:48
Die Referenzkühler von nV sind einfach nur Müll.


Das Radialdesign ist einfach nur shit, da man dafür recht hoch drehende Lüfter braucht, um einen brauchbaren Luftstrom zu erzeugen, die ATI Version (große Lüfter), ist da wesentlich sinniger...

Für mich sind jap. Autos auch Müll.Und?

Die X800 müsste, wenn sie genausoviel Abwärme wie der NV40 erzeugen würde, auch einen schnell drehenden Lüfter mit viel db nutzen.

Der Lüfter der 6800u ist einfach der stärkste...egal was hier gepostet wird.Und genau darum ging es in Tombmans Post!
Könnt oder wollt ihr nicht verstehen?

mfg

Tigerchen
2005-01-24, 14:09:38
Nö, ich klammere mich nicht an SLI. Falls du dir mal die Mühe machst und meinen ersten Post als Antwort zu dem 'tollen lesenswerten Post' ;) von Doc_Nitro lesen würdest, könnstet du vielleicht feststellen, dass er selber mit seinem A64 auch nur "Deppen" und deren Hype hintergelaufen ist und sich selbst vielleicht mal bei AMD bewerben sollte. Schade, hatte gehofft, dass jemand dies erkennt.

Die ganzen Posts von wegen unausgereift, Bastlerlösung, sonstige Probleme kann man genauso gut, wie hoffentlich gezeigt, auch auf andere Sachen (A64) anwenden. Soviel zu out of the box, FriedeFreudeEierkuchen, Null Problemo und so.

Scheint aber viele nicht zu interessieren, anscheinend weil es nicht Nvidia und somit Evil ist...

Ich hoffe es ist jetzt klar geworden, dass ich mich nicht an SLI klammere sondern das ich solche tollen Posts nicht wirklich liebe. :)

Du kannst nicht Probleme dadurch wegdiskutieren indem du auf Probleme irgendwo anders auf der Welt hinweist. Ich halte das für sinnfrei.

Tigerchen
2005-01-24, 14:13:24
Im Gegensatz zu deiner blauen Posting-Farbe habe ich an der Sone-Maßeinheit nichts auszusetzen. Durch meinen Hintergrund als Elektrotechniker bin ich allerdings eher mit dB vertraut und denke / rechne in dB.

Dann sollten wir doch möglichst Sone verwenden. Es soll einige Leute auf der Welt geben die keine Elektrotechniker sind.

StefanV
2005-01-24, 14:22:24
Die X800 müsste, wenn sie genausoviel Abwärme wie der NV40 erzeugen würde, auch einen schnell drehenden Lüfter mit viel db nutzen.

Der Lüfter der 6800u ist einfach der stärkste...egal was hier gepostet wird.Und genau darum ging es in Tombmans Post!
Könnt oder wollt ihr nicht verstehen?

mfg
1. der Unterschied zwischen x800 und 6800 ist nicht soo groß.
2. man kann auch einfach 'nen größeren Lüfter kombiniert mit mehr Fläche nutzen, um eine bessere Kühlleistung zu bekommen, bestes Beispiel: Zalman CNPS-7000 vs CNPS-7700.

3. Toll und somit auch der lauteste, wer will schon 'ne Turbine im Rechner haben?!

PS: siehe Kühlung der x850 XT, die ist auch sehr leise, bei einer 'Hochleistungsgraka', du siehst also, das laute Lüfter alles andere als Nötig sind, wenn man 'nen intelligentes Kühlerdesign nutzt.

Das die NV Lösung Mist ist, hat z.B. auch Robbitop schonmal erwähnt, im Vergleich zwischen der nV Stock Kühlung einer FX5800 und des winzigen Revoltek...

Hauwech
2005-01-24, 15:28:38
Du kannst nicht Probleme dadurch wegdiskutieren indem du auf Probleme irgendwo anders auf der Welt hinweist. Ich halte das für sinnfrei.


Will ich auch gar nicht. Treiberprobleme sind auf jeden Fall vorhanden, stimmt und ist ein Fakt. Wunder gibt es von keinem IHV auf Anhieb. Nur wie man mit den gegebenen Problemen umgeht, das ist der Punkt der mich stört.

Bandit666
2005-01-24, 15:32:12
1. der Unterschied zwischen x800 und 6800 ist nicht soo groß.
2. man kann auch einfach 'nen größeren Lüfter kombiniert mit mehr Fläche nutzen, um eine bessere Kühlleistung zu bekommen, bestes Beispiel: Zalman CNPS-7000 vs CNPS-7700.

3. Toll und somit auch der lauteste, wer will schon 'ne Turbine im Rechner haben?!

PS: siehe Kühlung der x850 XT, die ist auch sehr leise, bei einer 'Hochleistungsgraka', du siehst also, das laute Lüfter alles andere als Nötig sind, wenn man 'nen intelligentes Kühlerdesign nutzt.

Das die NV Lösung Mist ist, hat z.B. auch Robbitop schonmal erwähnt, im Vergleich zwischen der nV Stock Kühlung einer FX5800 und des winzigen Revoltek...

Sicher ist das teil der Geforce laut.Es sagt ja keiner das Gegenteil.Nur die Kühlleistung ist sehr gut.

Stimmt.Der Zalman ist und bleibt im Moment einfach die Nummer eins für mich.

mfg

StefanV
2005-01-24, 15:58:03
Sicher ist das teil der Geforce laut.Es sagt ja keiner das Gegenteil.Nur die Kühlleistung ist sehr gut.

DAs wage ich mal ganz stark zu bezweifeln, denn der Kühler der 5800 und 5900 war alles andere als gut, der war nur verdammt laut.

Bandit666
2005-01-24, 16:00:38
Ich meinte den der Gefo6!*fg*

mfg

Coda
2005-01-24, 16:02:15
Wie genau messt ihr das denn?
Auf die Temperaturanzeigen kann man sich ja schließlich nicht verlassen :D

Wäre wohl eher was für's Spekulationsforum.

Bandit666
2005-01-24, 16:06:41
Kombination aus Hand und Infrarotterm.!

MechWOLLIer
2005-01-24, 16:14:08
Die Referenzkühler von nV sind einfach nur Müll.
Das Radialdesign ist einfach nur shit, da man dafür recht hoch drehende Lüfter braucht, um einen brauchbaren Luftstrom zu erzeugen, die ATI Version (große Lüfter), ist da wesentlich sinniger...
Geschmackssache:)

ZUgegeben, der Radiallüfter hat den Nachteil, dass er hoch drehen muss, aber ATI schafft es teilweise auch nicht das zu verhingern ohne Radiallüfter. So habe ich einige X800XT Karten gehöhrt die unter Last keinen Deut leiser waren als der Referenzkühler meiner Geforce 6800Ultra.

arcanum
2005-01-24, 17:00:36
ist das ganze hier nicht ein wenig OT geraten? für sli pro/contra sollte ein eigener thread eröffnet werden. ausserdem klammern sich hier einige ziemlich an das thema, obwohl sie von SLI nix halten.

ps. ich finde es auch doof, wenn sich jemand was besseres leisten kann als ich :P

tombman
2005-01-24, 18:37:38
Und genau darum ging es in Tombmans Post!
Könnt oder wollt ihr nicht verstehen?

mfg

Sie wollen nicht- weil ich tombman bin ;) (thx btw)

Bitte vergleicht ned immer die ATi Lösung mit der von nvidia, denn

1.) das sind ANDERE chips mit anderer Hitzeaustrahlung
2.) im SLI ist alles anders. Da hast du so gut wie keinen Platz, dh die Umgebungsluft ist schon bis zu 50 grad heiß, da muß das Kühlerdesign auch anders sein.

Sicher kann man auch noch einen besseren Kühler entwickeln, aber mir gefällt (bis auf die Lautstärke) die Kühlleistung ausgesprochen gut. Sogar die Spannungswandler hinten werden noch mitgekühlt die zb beim silencer "krepieren".

Mr. Lolman
2005-01-24, 18:55:19
Der 3DMark ist für mich kein Argument. Doom3 in hoher Auflösung wäre für mich ein Argument.


3DMark besitzt für mich keinerlei Relevanz. Ich habe den 2003er einmal laufen llassen und der 2005 interessiert mich ebenfalls nicht. Meinst du es ist Zufall daß ich niemals im Benchmarkforum bin? Mein nächster Rechner muß leise sein und leicht zu warten. Da stört die 3D-Mark Krone eher.


Leutens. Die 11k 3dmarks sollten ja nur einen Leistungsindex darstellen. Obwohl, ne Karte die bei D³ irsinnig flott ist, und im 3dmark langsam würd ich wohl auch nicht haben wollen.


(Allerdings, wenn nur der 3dmark langsam wär, und alle anderen Shaderspiele super laufen, hätt ich wohl auch kein Problem damit :biggrin: )

aths
2005-01-25, 02:46:11
[COLOR="#000088"]
Dann sollten wir doch möglichst Sone verwenden. Es soll einige Leute auf der Welt geben die keine Elektrotechniker sind.Wieso "wir" – es gibt eben auch Elektrotechniker die lieber die dB-Einheit verwenden. Und das ganz ohne blaue Postingfarbe.

SKYNET
2005-01-25, 02:50:10
bin kein gelernter elektro-fuzzy und nutze auch lieber dB als Sone.

crusader4
2005-01-25, 10:52:10
Jungs, ihr streitet euch um Weizenmehl und Vollkornmehl :biggrin:. Klar gibt es Unterschiede, aber letztendlich ist und bleibt beides Mehl.

Das Sone entsteht direkt aus dem Phon (Lautstärkepegel), weil man die Empfindung, das die Lautstärke verdoppelt wurde, auch in einer Verdopplung der Maßzahl ausdrücken wollte.
Das Phon wiederum stammt direkt aus der dB-Skala (Schalldruckpegel) unter Berücksichtigung menschlicher Wahrnehmungseigenschaften.
Alles ist direkt ineinander umwandelbar. Man benötigt lediglich das Fletcher-Munson-Diagramm (Isophone) um von dB nach Phon zu kommen.

Dann schnappt man sich die Formel: N=10^(-1,2)*(10^(Ln/20))^0,6 wobei Ln der Lautstärkepegel in Phon und N die resultierende Lautheit in Sone ist.
Bei einer Frequenz von 1kHz heißt das: 1 Sone entspricht 40 Phon entspricht 40dB.

Zum Thema: Der Gast könnte mal ein Bild der Grafikkarte posten, bis dahin stehe ich den gemachten Angaben sehr skeptisch gegenüber.

Grüße, Crusader

Tigerchen
2005-01-25, 16:30:04
Wieso "wir" – es gibt eben auch Elektrotechniker die lieber die dB-Einheit verwenden. Und das ganz ohne blaue Postingfarbe.


Es gibt gute Gründe die dagegen sprechen. Hier gehts weiter:


http://www.forum-3dcenter.org/vbulletin/showthread.php?t=201287