Archiv verlassen und diese Seite im Standarddesign anzeigen : OMG! Quad-SLI!
tombman
2006-01-06, 01:12:01
http://www.slizone.com/object/slizone_quadsli.html
http://www.dell.com/html/us/products/ces/index.htm
Und das beste: es rennt auf Sockel 775 ;) Mein Presler hat sich gerade bepißt ;)
Das KANN ATI nicht schlagen ;)
hehe frag mich nur wo da die käuferschicht steckt ^^
derfarmer
2006-01-06, 01:18:35
Aber ich dachte Dell wollte auf AMD umstellen oder habe ich da was verpasst? :biggrin:
Trotzdem brutal wenn die das auf die Beine stellen... :eek: ! Die Kiste sieht ja wohl echt geil aus aber ich will nicht wissen wie laut es ist! :|
tombman wäre sicher einer der käufer ;)
derfarmer
2006-01-06, 01:20:54
Nur die Frage ist jetzt auch wird das nur für Dell gefertigt oder wird das für die allgemeinheit gemacht! Weil bis jetzt sieht es ja so aus als wäre das war von Dell selber und nicht für den Massenmarkt gemacht :rolleyes: :confused: !
Tjell
2006-01-06, 01:20:55
Was sind denn das für Grafikkarten-Ungetüme?? :ucrazy4:
"Dual 1GB NVIDIA GeForce 7800 SLI Graphics Cards"?? Klingt wie eine taktmäßige Sonderform der 7800er-Chips und sieht ähnlich aus wie eine der Quadro FX4500-Varianten (doppelstöckig).
Der Dell-PC ist mal ein absoluter Leistungskracher. Etwas für reiche Individualisten... aber geil. :cool:
tombman
2006-01-06, 01:21:19
damit ist auch eines klar, da im Dell offiziell der 955 XE eingesetzt wird und ein nforce chipset verwendet wird ist es nur eine Frage der Zeit bis alle jetzigen nforce 775 mobos presler unterstützen --> yippie ;)
Das KANN ATI nicht schlagen ;)
brauchen sie auch nicht. ist doch eh nur wieder sowas extrem teures, weils sich eh niemang kaufen wird. weils niemand braucht.
tombman
2006-01-06, 01:27:46
brauchen sie auch nicht. ist doch eh nur wieder sowas extrem teures, weils sich eh niemang kaufen wird. weils niemand braucht.
Die performance Krone ist die performance Krone ist die performance Krone ;)
dildo4u
2006-01-06, 01:27:49
brauchen sie auch nicht. ist doch eh nur wieder sowas extrem teures, weils sich eh niemang kaufen wird. weils niemand braucht.
Für den 32zoll TFT den du dazu kaufen kannst brauchste aber ne Maschine die 2500*1500 Flüssig hinbekommt bei Fear musste das schon sowas in der Richtung dein eigen nennen. ;)
Thanatos
2006-01-06, 01:28:43
brauchen sie auch nicht. ist doch eh nur wieder sowas extrem teures, weils sich eh niemang kaufen wird. weils niemand braucht.
Rate mal warum sich tombman so freut :D:ulol:
tombman
2006-01-06, 01:31:55
Ein 24" Sony CRT mit 2304x1440 reicht doch dafür locker aus...gibts bei ebay um unter 500€... alles kein Problem ;)
Blaire
2006-01-06, 01:32:21
Die performance Krone ist die performance Krone ist die performance Krone ;)
Ja aber funzt das auch mit 4x512MB Karten? :biggrin: Mit DualSlot könnte das bissl eng werden. :(
Tjell
2006-01-06, 01:36:52
Ja aber funzt das auch mit 4x512MB Karten? :biggrin: Mit DualSlot könnte das bissl eng werden. :(
Mit Einbußen im Vergleich zu diesem Aufbau hier sicher, sobald die Treiber für Quad-SLI da sind. Warum mit Einbußen? Wie will man die SLI-Anschlüsse miteinander vergleichbar verbinden können (es kommt übrigens ein S939 Mainboard mit 4 Grafik-Slots von Gigabyte)?
tombman
2006-01-06, 01:42:17
zieht euch den Video Stream rein von der CES... da kommt der auch drin vor ;)
http://video.vdat.com/playfile.asp?brand=VN&file=53814_55139.asf&stream=w
p.s: ab min. 8:30 geht los :D
tombman
2006-01-06, 01:52:20
omg, es sind tatsächlich 4x512mb drauf ... Ich flipp aus...
2GB framebuffer!!!!
Superlinearer Speed--> mehr als 4x im Vergleich zu einer cpu....
deekey777
2006-01-06, 01:54:45
omg, es sind tatsächlich 4x512mb drauf ... Ich flipp aus...
Ach doch 1x512MB. ;) Oder sharen die Grafikchips den gesamten Graifkspeicher untereinander?
PS: Das ist kein Diskussionsforum, sondern das Hilfe-Forum.
Tjell
2006-01-06, 01:55:36
omg, es sind tatsächlich 4x512mb drauf ... Ich flipp aus...
Nicht gesehen? :biggrin: Jede Etage der beiden Grafkkarten ist vom Prinzip her eine eigenständige Karte, nur daß je zwei in Sandwichbauweise verbunden sind.
Aber die Länge!!! Uuuuuhhh!
tombman
2006-01-06, 01:57:03
nochmal, es sind tatsächlich 2GB framebuffer... nvidia CEO spricht gerade ... :eek:
Sie erreichen bei FEAR 5x speed gegenüber einer Einzelkarte...
Tjell
2006-01-06, 01:57:14
Ach doch 1x512MB. ;) Oder sharen die Grafikchips den gesamten Graifkspeicher untereinander?
PS: Das ist kein Diskussionsforum, sondern das Hilfe-Forum.
Es ist aber auch kein neuer Chip. Zumindest vermutlich nicht.
Bei SLI (ob Quad oder Dual) ist immer der Speicher pro Karte/Chip mageblich. Also nach außen hin eine Grafiklösung mit 512 MB.
tombman
2006-01-06, 01:58:30
ach du shit, jetzt kommt auch Richard Garriot und ownt...
Tjell
2006-01-06, 01:58:54
Was noch fehlt sind die technischen Daten der Chips, denn die Bezeichnung ohne GT, GTX oder GTX 512 sondern stattdessen nur als "SLI" ist schon seltsam.
deekey777
2006-01-06, 02:03:23
nochmal, es sind tatsächlich 2GB framebuffer... nvidia CEO spricht gerade ... :eek:
Glaube ich erst, wenn es unabhängige Tests gibt.
Sie erreichen bei FEAR 5x speed gegenüber einer Einzelkarte...
Überrascht? Bei der Shaderpower.
ach du shit, jetzt kommt auch Richard Garriot und ownt...
Du hast doch keinen Ständer, oder? Klingt blöd, ist aber so.
tombman
2006-01-06, 02:06:06
Überrascht? Bei der Shaderpower.
Ähmm, 5x mehr speed mit 4 gpus im Vergleich zu 1 gpu selber Art....
deekey777
2006-01-06, 02:11:43
Ähmm, 5x mehr speed mit 4 gpus im Vergleich zu 1 gpu selber Art....
Bestimmt nicht unter 1024x768, sondern in höchster Auflösung und sehr hohen Einstellungen.
Als Offtopic-Witzchen nebenher: KLICK (http://www.nichtlustig.de/comics/full/020910.jpg). :D
;D :up:
€: Das Dell Gehäuse sieht nicht übel aus.
tombman
2006-01-06, 02:20:20
Bestimmt nicht unter 1024x768, sondern in höchster Auflösung und sehr hohen Einstellungen.
Und? Von 1024 redet auch keiner...
Mr. Lolman
2006-01-06, 02:32:12
Ähmm, 5x mehr speed mit 4 gpus im Vergleich zu 1 gpu selber Art....
Das will ich erst sehen, bevor ichs glaub.
tombman
2006-01-06, 02:51:50
Das will ich erst sehen, bevor ichs glaub.
nochmal, es sind tatsächlich 2GB framebuffer... nvidia CEO spricht gerade ... :eek:
Sie erreichen bei FEAR 5x speed gegenüber einer Einzelkarte...
Hm, wäre interessant zu wissen, inwiefern es möglich ist, eine Skalierung von über 100% Mehrleistung je zusätzlicher Karte zu erreichen; hast du da nähere Informationen oder ist das pures Marketinggelaber?
-huha
(del676)
2006-01-06, 02:54:49
yeah, gipfel der sinnlosigkeit - man stelle sich AFR mit 4 prerendered pics vor - mauslag ahoi
und nichtmal ich als freak würde mir 4 sauheisse karten reinpflanzen, zwei sind mir schon genug, wobei ich das "experiment sli" wohl nicht mehr so schnell wagen werde ...
nenene, ati und nvidia solln mal ein bisl intelligentere produkte auf den markt bringen und nicht die alte scheisse 5x vergolden :mad:
*derwo sich matrox zurückwünscht*
mapel110
2006-01-06, 03:22:00
Als Offtopic-Witzchen nebenher: KLICK (http://www.nichtlustig.de/comics/full/020910.jpg). :D
(Niemand ist gemeint, und eine Beleidung soll es erst recht nicht sein. Nur eine spätnächtliche Humoreinlage. Gute Nacht!)
Billige Ausreden helfen nicht immer. Für allgemeine Belustigungen, sofern sie es denn sein sollen, ist die Spielwiese da. Deswegen gibts hier dafür eine Verwarnung.
yeah, gipfel der sinnlosigkeit - man stelle sich AFR mit 4 prerendered pics vor - mauslag ahoi Die Karten rendern andererseits auch fast 4x so schnell.
Aber das mit dem mehr als 4x so schnell ist etwas arg dubios :|
dildo4u
2006-01-06, 03:51:10
Was soll das Teil kosten?Unter 4000€ wird das whol nix.
MadManniMan
2006-01-06, 04:00:31
Aber das mit dem mehr als 4x so schnell ist etwas arg dubios :|
Guck Dir die Legende auf dem Bildchen mal genau an ;)
Da werden munter Auflösungen, Bezugsgrößen und Einstellungen durcheinandergeworfen - geschicktes Marketing, mehr nicht.
Komm wieder runter tombi, erst lesen, dann verstehen dann sabber ;)
doom1
2006-01-06, 07:40:10
Gibt es das auch in einem Gehäuse für Erwachsene?
Wenn man "max" fps vergleicht, sind da auch statistische Streu-Effekte drin. Solche Benches sagen nichts. Vergleiche von min fps sind ohnehin interessanter.
BlackBirdSR
2006-01-06, 08:50:24
Wenn man "max" fps vergleicht, sind da auch statistische Streu-Effekte drin. Solche Benches sagen nichts. Vergleiche von min fps sind ohnehin interessanter.
Da diese in vielen Fällen zusätzlich durch die CPU bestimmt werden, kann man das nicht machen.
Der Performancegewinn aus dieser Sicht wäre viel zu gering, als dass man jemand zur Ausgabe vonüber tausend Euro bewegen könnte :tongue:
Wenn man "max" fps vergleicht, sind da auch statistische Streu-Effekte drin. Solche Benches sagen nichts. Vergleiche von min fps sind ohnehin interessanter.
Kann ich nur zustimmen. Bei der "Einheit" fps wird ein nicht unwesentlicher Zeitraum ( 1s) zur Messung benutzt.
Wesentlich genauer wäre der minimale oder maximale zeitliche Abstand zwischen zwei Bildern, wobei aber andere Einflüsse nicht mehr kompensiert werden.
Ziemlich blöd das Ganze.
The_Invisible
2006-01-06, 09:05:13
Bestimmt nicht unter 1024x768, sondern in höchster Auflösung und sehr hohen Einstellungen.
wer sich das ding zulegt und in 1024 zockt kann sich gleich einliefern lassen...
btw 32AA soll ja möglich sein, wie das wohl performnt :D
mfg
gisbern
2006-01-06, 09:54:18
da kann man sich ja bald seinen eigenen pixar-film in realtime rendern.
Omnicron
2006-01-06, 10:50:35
Quad SLI is designed to power 30" monitors at 2560x1600. It is designed for you to turn it ALL on: 32X antialiasing, 16x anisotropic filtering!
32xAA bei 2560x1600 ? :ugly:
Zaffi
2006-01-06, 10:53:58
da kann man sich ja bald seinen eigenen pixar-film in realtime rendern.
konnte man das laut NV nicht schon bei der Ankündigung der GF 2 GTS ? ;D
Ich meine der CEO hätte damals was von Vergleichbarkeit zu "Toy Story" gemurmelt...siehe auch
"Pixar vs. NVidia marketing - NVidia made some marketing statements about their newest GeForce 2 GTS graphics accelerator putting us closer to the point of Pixar level animation on our PCs. While not entirely false, the statement did provoke a Pixar employee, who made the comparison that Pixar level animation requires bandwidth of 96GBps, while the AGP bus can handle only a mere 1GBps. Never fear, however. According to Moore's Law, PC graphics subsystems will be able to handle more bandwidth than that (128GBps) in a mere 12.5 years."
Quelle: geek.com
;D ;D ;D
Ailuros
2006-01-06, 10:55:35
yeah, gipfel der sinnlosigkeit - man stelle sich AFR mit 4 prerendered pics vor - mauslag ahoi
Zur Redundanz und Uebertreibung stimme ich voll zu.
Was jetzt das obrige betrifft will ich bezweifeln dass die GPUs in etwa so frames bearbeiten:
GPU1 = frame 1, GPU2= frame2, GPU3= frame3, GPU4= frame4, GPU1 = frame 5 usw.
Es ist zwar eine einfache Illustration AFR zu erklaeren, aber nach dieser Masche wird im Grunde nicht gerendert. Es duerfte um einiges komplizierter sein.
Viel Hoffnung das man auf Einzelheiten kommt gibt es nicht.
----------------------------------------------------
Selbst wenn solch ein System in FEAR ueber die 100fps Grenze reiten sollte (1600 + 4xAA/16xAF), stoesst der generelle Aufbau und der Preis schon ueber die Grenzen der Laecherlichkeit. Im Profi-Markt aber - wo Unkosten weniger wichtig sind - kann ATI (vorruebergehend?) erstmal absagen und 3DLabs braucht dringend etwas um gegen solches Zeug konkurrieren zu koennen.
Ailuros
2006-01-06, 10:58:35
wer sich das ding zulegt und in 1024 zockt kann sich gleich einliefern lassen...
btw 32AA soll ja möglich sein, wie das wohl performnt :D
mfg
Womoeglich genauso beschissen wie 16x SLi-AA. Die Sample-Plazierung ist ja sowieso fuer die Tonne bei 16x SLi.
Ailuros
2006-01-06, 11:03:36
konnte man das laut NV nicht schon bei der Ankündigung der GF 2 GTS ? ;D
Ich meine der CEO hätte damals was von Vergleichbarkeit zu "Toy Story" gemurmelt...siehe auch
"Pixar vs. NVidia marketing - NVidia made some marketing statements about their newest GeForce 2 GTS graphics accelerator putting us closer to the point of Pixar level animation on our PCs. While not entirely false, the statement did provoke a Pixar employee, who made the comparison that Pixar level animation requires bandwidth of 96GBps, while the AGP bus can handle only a mere 1GBps. Never fear, however. According to Moore's Law, PC graphics subsystems will be able to handle more bandwidth than that (128GBps) in a mere 12.5 years."
Quelle: geek.com
;D ;D ;D
Er sagte bald. Bei der Busbandbreite von 32x lanes ist Toy Story gar nicht mehr so weit entfernt. Nur eben nicht mit Pixar's (hauseigenem patentierten) 64x stochastic SSAA und 64x temporal AA/motion blur.
Bumsfalara
2006-01-06, 11:18:43
Tut mir leid, das jetzt mal als Unwissender einzuwerfen, aber:
Warum machen die sinnlose Sachen wie 32xAA bei extrem hohen Auflösungen aber nur so ein verdammt geringes AF? 16AF sieht zwar schon gut aus, aber da sollte doch noch mehr gehen. Vielleicht ist das von der Technik her auch gar nicht möglich im SLI, aber trotzdem find ich das ein bissel störend, weil Maximale Bildqualität ist das immer noch nicht.
Versteh ich irgendwie nicht.
Undertaker
2006-01-06, 11:26:40
ich weiß ja nicht wie es euch geht, aber alles über 4aa sehe ich sowieso nicht mehr als weitere qualitätssteigerung... :|
Ailuros
2006-01-06, 11:34:44
Tut mir leid, das jetzt mal als Unwissender einzuwerfen, aber:
Warum machen die sinnlose Sachen wie 32xAA bei extrem hohen Auflösungen aber nur so ein verdammt geringes AF? 16AF sieht zwar schon gut aus, aber da sollte doch noch mehr gehen. Vielleicht ist das von der Technik her auch gar nicht möglich im SLI, aber trotzdem find ich das ein bissel störend, weil Maximale Bildqualität ist das immer noch nicht.
Versteh ich irgendwie nicht.
SLi-AA sind quasi hybride mode; der Supersampling-Anteil in 32x duerfte bei 8x sample SSAA liegen. Kombiniert man das jetzt mit AF, bekommst Du um einiges mehr Texturenschaerfe als mit 16xAF.
Die_Allianz
2006-01-06, 12:16:18
ich kann mir beim besten willen nicht vorstellen, wie sie diesen aneinenandergetoasteten high-end-chips kühlen wollen?
Bzw ich möchte so ein teil nicht hören wenn es neben mir steht.
Für wasserkühler sehe ich eigentlich auch keine chance. Ist doch viel zu eng aneinander
Thanatos
2006-01-06, 12:26:04
ich kann mir beim besten willen nicht vorstellen, wie sie diesen aneinenandergetoasteten high-end-chips kühlen wollen?
Bzw ich möchte so ein teil nicht hören wenn es neben mir steht.
Für wasserkühler sehe ich eigentlich auch keine chance. Ist doch viel zu eng aneinander
Also mein Wasserkühler ist vielleicht 2-2,5cm hoch. Ich glaube kaum, dass er damit höher ist als der Standard Luftkühler.
Bandit666
2006-01-06, 14:21:22
Die GTX braucht ja net soviel Kühlung wie z.B. die 6800er Reihe! Der orig. kühler reicht da schon.
Ich frage mich aber wozu AA bei einer Auflösung von 2500 und mehr Pixeln? Da sieht man doch eh keinen Kanten mehr ,oder? :biggrin:
Quad-SLi ist lustig, aber kaufen wird es kaum einer. Also wenn dann sind es 0,5% aller HighEnd-Systeme auf dem Desktopmarkt. Wow!
So langsam kommen die CPUs in Zugzwang.....die Grakapower steigt exorbitant an, und die CPU kommen nicht hinterher.
Aber wie Tomb schon treffend sagte: "Die performance Krone ist die performance Krone ist die performance Krone"
:biggrin: :biggrin:
mfg
mapel110
2006-01-06, 14:45:12
So langsam kommen die CPUs in Zugzwang.....die Grakapower steigt exorbitant an, und die CPU kommen nicht hinterher.
Das Trauerspiel haben wir schon seit mehr als 3 Jahren. Seit 2001/2002 gehts nurnoch kleckerchenweise hoch bei der CPU-Power.
dildo4u
2006-01-06, 14:48:30
ich weiß ja nicht wie es euch geht, aber alles über 4aa sehe ich sowieso nicht mehr als weitere qualitätssteigerung... :|
8XS ist 4XAA deutlich überlegen z.b GTA:SA sieht ganz anderes aus mit 8XS.
dildo4u
2006-01-06, 14:49:47
Ich frage mich aber wozu AA bei einer Auflösung von 2500 und mehr Pixeln? Da sieht man doch eh keinen Kanten mehr ,oder? :biggrin:
mfg
Auf einem 32zoll TFT als 82cm sieht man schon Kannten.
Ich frag mich warum die auf der Maschine nich UT2007 gezeigt haben sondern dieses billig aussehende Online Game?
Was mich noch interesieren würde wie sieht das Kühlkoncept der CPU aus und was für ein Netzteil hat das Ding.
Das Trauerspiel haben wir schon seit mehr als 3 Jahren. Seit 2001/2002 gehts nurnoch kleckerchenweise hoch bei der CPU-Power.Selbst mit steigender CPU-Leistung wäre das der Fall gewesen, da man Grafikhardware weitaus besser mit der Chipfläche skalieren kann.
Man muss nun eben versuchen mit Dual Core gegenzusteuern oder Algorithmen ganz auf die GPUs zu verlagern.
8XS ist 4XAA deutlich überlegen z.b GTA:SA sieht ganz anderes aus mit 8XS.Das sieht "so anders" aus, weil das brutale Flimmern wegen fehlenden Mips etwas geglättet wird. Das kannst du nicht auf den generellen Fall übertragen.
dildo4u
2006-01-06, 14:54:43
Das sieht "so anders" aus, weil das brutale Flimmern wegen fehlenden Mips etwas geglättet wird. Das kannst du nicht auf den generellen Fall übertragen.
Mir gings aber auch z.B um die Zäune usw.
Ja. Das selbe Problem. Und Alphatesting kann man auch mit AAA oder TSSAA glätten.
Das 8xS-Muster ist für Kantenglättung auf jedenfall nicht sehr viel besser als das normale 4x-Muster.
dildo4u
2006-01-06, 15:03:53
Ja. Das selbe Problem. Und Alphatesting kann man auch mit AAA oder TSSAA glätten.
Das 8xS-Muster ist für Kantenglättung auf jedenfall nicht sehr viel besser als das normale 4x-Muster.
Kann sein ich hatte mit meiner 6800GT halt nur 8XS für ältere Games und das hat mich überzeugt und ich weiß auch nicht was am ATI AA so viel besser sein soll zumindest das normale 4XAA überzeugt nicht wirklich.
Es ist natürlich auch Geschmackssache. Von der reinen Polygonkantenglättung ist ATIs 6xAA gleich gut wie NVs 8xS bei deutlich geringerem Performanceverlust.
Mir gefallen die Hybridmodi auch viel besser als 6xMSAA und ich nutze sie auch, wenn die Leistung da ist. Auch wenn Supersampling mittlerweile nicht mehr so dringend nötig ist, da es ja Transparenz-/Adaptive-AA gibt.
(del676)
2006-01-06, 15:14:08
Ja. Das selbe Problem. Und Alphatesting kann man auch mit AAA oder TSSAA glätten.
Das 8xS-Muster ist für Kantenglättung auf jedenfall nicht sehr viel besser als das normale 4x-Muster.
dafür hast du neben der leicht besseren kanten
und viel besseren AT, aber auch bessere texturen
ich spiel wow lieber mit 16xSLI AA anstatt 4xMSAA + SSTRAA
(läuft auf manchen maps auch wesentlich besser)
wahh ich will das game haben was das mädel da zoggt^^
wie heißt das?
AAA hilft aber nicht bei "normalen" Texturen sondern nur bei Alphatesting afaik
Richtig - Bei normalen Texturen hilft Mipmapping X-D
dafür hast du neben der leicht besseren kanten
und viel besseren AT, aber auch bessere texturen
ich spiel wow lieber mit 16xSLI AA anstatt 4xMSAA + SSTRAA
(läuft auf manchen maps auch wesentlich besser)Das mag ja sein. Trotzdem verpulvert Supersampling deutlich zuviel Leistung für den optischen Gewinn. Ein anständiges AF und ein 8xSGMSAA + 8xSGSSAA auf Polygone mit Alphatest wäre sehr viel sinnvoller ;)
SKYNET
2006-01-06, 16:52:11
ich würds ja mal gerne, mit 4 anderen karten testen... :redface:
(del676)
2006-01-06, 16:54:01
Das mag ja sein. Trotzdem verpulvert Supersampling deutlich zuviel Leistung für den optischen Gewinn. Ein anständiges AF und ein 8xSGMSAA + 8xSGSSAA auf Polygone mit Alphatest wäre sehr viel sinnvoller ;)
wenn du meinst
es gibt aber nun mal KEINE andere verfügbare möglichkeit die qualität noch weiter zu erhöhen ohne supersampling zu nutzen :rolleyes:
und wie gesagt, trssaa kostet teilweise MEHR leistung als normales SS - ka warum
Gouvernator
2006-01-06, 17:01:19
Nochmal zu 32xAA und 2500x1600. Ich habe mit FLATOUT und UT2003 in 2400x2300 gespielt sowohl auf ATI als auch mit Nvidia und kann euch sagen das bei dieser Auflösung 2xAA VÖLLIG ausreichend ist. Bei Nvidia konnte man sogar 16xAA einschalten - das bringt aber nur minimale Verbesserung , denn Kanten die schon durch wahnsinnig hohe Auflösung kaum sichtbar sind sind durch 2xAA vollständig eliminiert.
Viel mehr bringt da AF was , z.B. in Gothic 2 2000x1700 bei 6xAA, 16xAF sieht man null Kanten und null Texturflimmern. Man merkt dafür Unschärfe bei Texturen z.B. auf dem Feldweg. Man wünscht sich dann keine Kantenglättung sondern extrem scharfes und winkelunabhängiges AF etwa wie jetziges nur hoch 10.
und wie gesagt, trssaa kostet teilweise MEHR leistung als normales SS - ka warumWahrscheinlich wird dadurch auch Vertexleistung verbraten, das ist aber immer noch nicht geklärt.
(del676)
2006-01-06, 17:13:23
Wahrscheinlich wird dadurch auch Vertexleistung verbraten, das ist aber immer noch nicht geklärt.
sollte dass dann nicht auf die cpu schlagen?
Demirug
2006-01-06, 17:20:10
sollte dass dann nicht auf die cpu schlagen?
Nicht zwingend. Es ist denkbar das es über Instanceing gelöst wurde. Dann macht es für die CPU kleinen Unterschied. Aber selbst wenn nicht im Treiber sollte der merhaufwand sehr gering sein.
Salat
2006-01-06, 17:37:56
wahh ich will das game haben was das mädel da zoggt^^
wie heißt das?
Auto Assault von NCSoft
tombman
2006-01-06, 17:54:22
Komm wieder runter tombi, erst lesen, dann verstehen dann sabber ;)
Natürlich hab ich die Manipulation mit max fps usw sofort erkannt, trotzdem kein Grund das pic nicht zu posten, schließlich saugt nicht jeder den stream ;)
Gipsel
2006-01-06, 17:57:39
Hat schon mal einer von Euch das Innere der Kiste gesehen?
Hier mal der Kühler für die CPU:
http://139.30.40.11/renegade-heatsink.jpg
und ein wenig mehr rausgezoomt:
http://139.30.40.11/renegade-inside.jpg
Sieht wohl mit dem Stromverbrauch doch recht übel aus, 'nen 65nm DualCoreP4 auf 4.26GHz zu takten.
Die_Allianz
2006-01-06, 18:07:19
das sind aber doch 2 gtx 512, oder? trotzdem dürfte der CPU-Kühler ähnlich aussehen, das tun die bei dell immer
dildo4u
2006-01-06, 18:08:12
Hat schon mal einer von Euch das Innere der Kiste gesehen?
Hier mal der Kühler für die CPU:
http://139.30.40.11/renegade-heatsink.jpg
und ein wenig mehr rausgezoomt:
http://139.30.40.11/renegade-inside.jpg
Sieht wohl mit dem Stromverbrauch doch recht übel aus, 'nen 65nm DualCoreP4 auf 4.26GHz zu takten.
Alle Kühler in den neuen BTX Dell PCs sehen so aus.
Tjell
2006-01-06, 18:09:56
Hat schon mal einer von Euch das Innere der Kiste gesehen?
Hier mal der Kühler für die CPU:
http://139.30.40.11/renegade-heatsink.jpg
und ein wenig mehr rausgezoomt:
http://139.30.40.11/renegade-inside.jpg
Sieht wohl mit dem Stromverbrauch doch recht übel aus, 'nen 65nm DualCoreP4 auf 4.26GHz zu takten.
Geiles Teil: Der Kühler zieht scheinbar Außenluft direkt mit nem 120er Lüfter zur CPU.
StefanV
2006-01-06, 18:17:29
Alle Kühler in den neuen BTX Dell PCs sehen so aus.
Das ist aber 'nen ATX Rechner.
chemistry
2006-01-06, 18:21:25
Die performance Krone ist die performance Krone ist die performance Krone ;)
Na toll.....als nächstes packt ATI dann 8GPU's in einen Rechner...wieder Performancekrone???
Oder was ist, wenn man einen Servercluster mit 2000 CPU's hat?
Ich denke, man darf hier nicht Quantität vor Qualität stetzen!!!!!
lg
tombman
2006-01-06, 18:22:55
Also ich finde das Design ned schlecht im Inneren..
Gipsel
2006-01-06, 18:27:36
Geiles Teil: Der Kühler zieht scheinbar Außenluft direkt mit nem 120er Lüfter zur CPU.
Da sind wohl eher 2 Lüfter dran verbaut.
Tjell
2006-01-06, 18:38:10
Da sind wohl eher 2 Lüfter dran verbaut.
Durchaus möglich. Man sieht es ja nicht.
Scose
2006-01-06, 18:48:15
Dazu kann ich nur eins sagen. Pervers! Und das in jeder Beziehung :)
Die_Allianz
2006-01-06, 19:18:23
Also ich finde das Design ned schlecht im Inneren..
naja ich hatte auch mal nen dell mit so nem plaste-teil überm cpu kühler. das teil war aber derart klapprig gefertigt, das es gerumpelt hat als hätte man ne katze da drin eingeperrt!
Vielleicht haben sie es aber seit dem verbessert.
Das thermische problem ist meiner meinung nach nicht zu vernachlässigen. was alleine ein 955 EE verheizt durftest du ja selbst schon erleben...
da muss schon ein ordentlicher tornado durchs gehäuse ziehen
saaya
2006-01-06, 20:42:38
dinge die die welt nicht braucht... nur 16 lanes, nicht 32, 4 karten auf engstem raum... 2 von den karten in sli sind mit dem uebertaktetem pressler schon cpu limitiert... das ist der groesste schwachsinn den ich je gesehen hab...
Mit den richtigen Settings kriegt man eigentlich jedes Spiel graka-limitiert...
AnarchX
2006-01-06, 21:06:12
Als HDD gehört da noch ein Gigabyte I-Ram II - Raid hinein... :ueye:
Man kann aber sagen das die Grafikleistung hier ziemlich gut mit dem Geld skaliert. Anders als bei den CPUs wo zwischen einem 800€ teuren A FX und einem 1/5 so teuren A64 bei weitem nicht so ein weltbewegender Unterschied besteht.
mofhou
2006-01-06, 21:29:49
Das da oben sind aber die falschen Bilder, so sieht der xps innen aus:
http://www.pcper.com/images/reviews/195/caseopen_2.jpg
Bild von www.pcper.com
tombman
2006-01-06, 21:40:54
ALso das dürfte ja dann eindeutig die "meiner is länger" Karte sein ;D;D
naja ich hatte auch mal nen dell mit so nem plaste-teil überm cpu kühler. das teil war aber derart klapprig gefertigt, das es gerumpelt hat als hätte man ne katze da drin eingeperrt!Naja, ich habe auch so einen Dell, aber er ist der ruhigste Desktop in vergleich zu den PCs von meinen Freunden .
Ich muss aber sagen, dass ich keine Dual Core 4,xx GHz Extreme Ultra Edition CPU mit Super Giga CPU - Lüfter habe sondern nur einen P4 Northwood mit einer viel kleineren Passiven Kühlung ;)
Dürfte auch nicht der leichteste Tower werden, bei dem Kühler ;D
deekey777
2006-01-06, 23:36:29
Wie sind eigentlich die einzelnen 7800GTX 512 miteinander verbunden?
VoodooMaster
2006-01-06, 23:43:41
Beachtliche Power, der Tower ist hot.
Wie sind eigentlich die einzelnen 7800GTX 512 miteinander verbunden?
2x sli-bridge
deekey777
2006-01-06, 23:54:19
2x sli-bridge
So blind bin ich nicht. Ich meinte 2 einzelne 7800GTX, denn die zweite hängt ja einfach an der anderen fest, die wiederum im PEG steckt.
Die_Allianz
2006-01-07, 00:11:01
So blind bin ich nicht. Ich meinte 2 einzelne 7800GTX, denn die zweite hängt ja einfach an der anderen fest, die wiederum im PEG steckt.
genau das hab ich mich auch schon gefragt.? Es ist ja so: 2 stecken wie gesagt im PEG, zwei sind huckepack drauf. jeweils die 2 im huckepack und die zwei gesteckten sind mit ner bridg verbunden. da muss aber noch was sein
ZapSchlitzer
2006-01-07, 00:20:06
Ich kann es mir nur so erklären , dass beide Karten (einmal die im PEG und die, die Huckepack drauf ist) untereinander verbunden sind. Immerhin konnte man ja nicht zwischen beide Karten sehen!
RyoHazuki
2006-01-07, 00:25:29
ich hab mir jetzt den ganzen Thread nicht durchgelesen und ich weiss auch nicht ob dies hier schon angesprochen wurde...
Jedenfalls frage ich mich welche CPU diese 4 GPU´s ausreitzt? Solange die Grafiktreiber auch nicht "wirklich" auf mehrere Core´s umgestellt sind, sehe ich hier nur Schwarz. Mega Grafikleistung, und ne CPU die das nicht verwalten kann.
Irgendwie gehen die entwicklungen von Grafik und CPU aneinander vorbei.
Bei CPU´s soll es die Paralelität werden, was aber bei GPU´s "derzeit" eh nicht der fall ist, da zwei 3D Anwendungen eh kaum von jemandem verwendet werden.
Ich finde es schon lächerlich das nun die die Höchste leistung nun bei den GPU´s liegen. Bei den CPU´s geht es lächerlich schleppend vorran.
Gipsel
2006-01-07, 00:35:43
Das da oben sind aber die falschen Bilder, so sieht der xps innen aus:
http://www.pcper.com/images/reviews/195/caseopen_2.jpg
Was Du verlinkt hast sind die Bilder aus einer nVidia-Präsentation. Das andere ist wirklich ein geöffneter XPS Renegade (Bilder stammen von anandtech (http://www.anandtech.com/tradeshows/showdoc.aspx?i=2664&p=2)). Erkennt man deutlich an der anderen Lackierung des Gehäuses (die Flammen jeweils links unten in der Ecke der beiden Bilder). Dell setzt da offensichtlich andere Karten ein, als nVidia in der Präsentation gezeigt hat.
Sieht man auch in diesem Bild:
http://139.30.40.11/renegade-caseopen.jpg
-=CHICKEN=-
2006-01-07, 01:56:02
Fein! auch wenn es sich die wenigsten leisten können, wird es doch einige geben, die es sich holen und "glücklich" werden :)
wenn ich genügend öcken hätte, würde ich es mir auch leisten (mit dem passenden 30" display)
leider kann ich die leute nur teilweise verstehen, die immer wieder behaupten, das so was total überflüssig ist.
klar, bei geringen auflösungen bringts nix aber wenns mal über die 2xxxer auflösung geht (was ja so gedacht ist), wird auch quad-SLI bei den neusten spielen ganz schön ins schwitzen kommen.
Die CPUs werden wohl , wenn sie nicht bald mal nen kräftigen schub bekommen, wirklich mal ein ganz schöner flaschenhals werden, wobei ja die jetzigen ausweichmöglichkeiten (dieses CPU-flaschenhalses) ja nur auf höhere auflösungen bzw. bessere qualität begrenzt sind (oder auch multicore-CPUs).
wir dürfen aber nicht vergessen das wir bald die PPU bekommen, die der CPU ja tatkräftig unter die arme greifen wird. wenn die PPU wirklich 30x so viele objekte berechnen kann und ein spiel in der höchsten qualistufe die PPU komplett ausreizen wird, möchte ich nicht wissen wie groß der GPU-flaschenhals dann wieder sein wird (auch bei quad-SLI)
stellt euch mal vor, die GPU müsste jetzt plötzlich 30x mehr schatten berechnen (durch die PPU), dazu noch die ganzen lichtberechnungen (auch 30x so viele) usw. (natürlich nur in "extrem-situationen")!
damit würde auch ein quad-SLI-system anfangen zu "kotzen", und das wohl schon bei der 1600er auflösung! :biggrin:
also ich find quad-SLI absolut "daseins-berechtigt" und freue mich für die, die es sich leisten bzw. gebrauchen (die, mit den großen displays) können! :cool:
Razor
2006-01-07, 04:10:47
naja ich hatte auch mal nen dell mit so nem plaste-teil überm cpu kühler. das teil war aber derart klapprig gefertigt, das es gerumpelt hat als hätte man ne katze da drin eingeperrt!
Vielleicht haben sie es aber seit dem verbessert.
Das thermische problem ist meiner meinung nach nicht zu vernachlässigen. was alleine ein 955 EE verheizt durftest du ja selbst schon erleben...Offenbar hast Du einfach nur mal eine schlechte Erfahrung gemacht... und versuchst nun auf alles zu schließen?
Wir setzen eigentlich (nahezu ;-) ausschließlich DELL-System in unseren Standorten ein, weil sie einfach folgende Eigenschaften mitbringen:
- schnelle Lieferzeiten
- perfekter Service
- zuverlässig & leise
Ob jetzt gerade der letzte Punkt bei diesem System zutreffen mag, mag mal dahin gestellt sein, aber ich vermute einfach mal, dass dieses System gar nicht leise sein will/sein kann. Aber das sind die schon fast stoisch stabilen Server-Systeme bei DELL auch bei weitem nicht. Aber eines ist sicher: die Kühlung wird in jedem Fall ausreichend, wenn nicht gar überdimensiniert sein (wie bei DELL üblich)!
Und 'klappern' tut da garantiert überhaupt nix.
Tat es noch nie...
Nicht destro trotz halte ich es hier mit Ulukay: des Teil ist der totale Hirnriß^10!
Und das solche Leute wie Tombman darauf abfahren, war ebenso klar...
...nicht nur einfach zu durchschauen, sondern schlicht und ergreifend 'billig'!
Diejenigen, die des Denkens mächtig sind, werden wohl verstehen, was ich meine.
Und, ach ja @Tombman: Der Stream hat nicht einmal 100MB... die meisten Updates für Games sind größer.
(interessant: der Strem hat eine 'Gültigkeit' von genau einem Tag ;-)
-
Der Markt wird derzeit genauso geschröpft, wie zu Zeiten der gf2u und man setzt noch einmal kräftig einen drauf. Aber er wird wieser zusammen brechen, wie seinerzeit zu Zeiten der gf3, was unmittelbar bevor stehen dürfte. Insofern wird jetzt von "den Großen" noch einmal orgendlich bei denen 'gemelkt', die das mit sich machen lassen und dann ist Schluß.
Offenbar scheint es einige hier ja überhaupt nicht zu stören, dass ein System, was gerade eben noch hoch aktuell war, nun durch ein doppelt so leistungsfähiges ersetzt wird... und ich spreche hier nicht von 7800GTX256 -> DELL 'Monster'... nein... denn die 7800GTX256 gehören ja schon laaaaaange zum alten Eisen! Selbst die 7800GTX256SLI kann man nun getrost in die Tonne kloppen, da ja die 7800GTX512 da ist, die alleine schon fast die Performance des SLI-Gespanns erreicht und im SLI das gute alte doppel-dingens in Grund und Boden tritt.
Aber all das hilft nix, wenn zum Ende des Monats auch das Vergangenheit sein wird!
:D
Razor
Razor
2006-01-07, 04:23:09
Irgendwie gehen die entwicklungen von Grafik und CPU aneinander vorbei.
Bei CPU´s soll es die Paralelität werden, was aber bei GPU´s "derzeit" eh nicht der fall ist, da zwei 3D Anwendungen eh kaum von jemandem verwendet werden.Nich ganz.
Wenn man diesen ganzen Müll hier als Design-Studie versteht...
(meinestwegen auch als großen Feldtest von Möglichkeiten ;-)
...dann wird einiges klar.
Zukünftige Betriebssysteme werden voll-grafische Oberflächen haben. Werden im prinzip auf dem Desktop das darstellen müssen, was auch in Games gezeigt wird, was die 3D-Rechenleistung angeht. Nebenbei sollen aber auch noch Games ablaufen können, wie auch andere Anwendungen. Bedenkt mann man dann noch die Möglichkeiten holographischer Darstellung und kalkuliert diese mit ein, wird es haarig.
Das, was man heute mit einigen wenigen Einheiten macht, ist schlicht und ergreifend lachhaft, wenn man bedenkt, was heute schon in Großrechner-Bereichen eingestezt wird. Da heißt es "massive Parallelität", aber auch "Unversalität". Und gleiches zeichnet sich hier im CPU, wie auch im GPU-Bereich ab...
Und diesen Gedankengang muss man nur ein wenig weiter denken...
Razor
tombman
2006-01-07, 05:02:38
Und das solche Leute wie Tombman darauf abfahren, war ebenso klar...
...nicht nur einfach zu durchschauen, sondern schlicht und ergreifend 'billig'!
Diejenigen, die des Denkens mächtig sind, werden wohl verstehen, was ich meine.
Deine flameversuche allein sind alles was hier ´billig´ist...
Der Markt wird derzeit genauso geschröpft, wie zu Zeiten der gf2u und man setzt noch einmal kräftig einen drauf. Aber er wird wieser zusammen brechen, wie seinerzeit zu Zeiten der gf3, was unmittelbar bevor stehen dürfte. Insofern wird jetzt von "den Großen" noch einmal orgendlich bei denen 'gemelkt', die das mit sich machen lassen und dann ist Schluß.
Der große ANALyst hat gesprochen :rolleyes:
Selbst die 7800GTX256SLI kann man nun getrost in die Tonne kloppen, da ja die 7800GTX512 da ist, die alleine schon fast die Performance des SLI-Gespanns erreicht und im SLI das gute alte doppel-dingens in Grund und Boden tritt.
Schwachsinn^10. Eine 512er hat keine Chance gegen zwei 256er...
(und bitte komm jetzt ned mit cpu limitierten benchmarks daher, wir erkennen die sowieso sofort, also laß es ...)
p.s. und ich finde es schmeichelhaft, daß du offensichtlich meine Person 'brauchst' um Quad-SLi schlechtzureden :naughty:
deekey777
2006-01-07, 11:26:33
So blind bin ich nicht. Ich meinte 2 einzelne 7800GTX, denn die zweite hängt ja einfach an der anderen fest, die wiederum im PEG steckt.
CES 2006 - Day 2: Blu-ray/HD-DVD, PureVideo H.264, Viiv, Centrino Duo and a lot more (http://www.anandtech.com/tradeshows/showdoc.aspx?i=2665)
Up Close and Personal with NVIDIA's Quad-SLI
Weitere Klarheiten beseitigt. :D
chemistry
2006-01-07, 11:47:16
Offenbar hast Du einfach nur mal eine schlechte Erfahrung gemacht....................
................................Aber all das hilft nix, wenn zum Ende des Monats auch das Vergangenheit sein wird!
:D
Razor
Ich schließe mich deiner völlig an. Genau das meinte ich auch damit, dass im hier die Qualität nur durch Quantität geschlagen wird.
Und ausserdem ist die aktuelle Marktentwicklung ja sowieso Irrsinn - spätestens alle 6 Monate kommt wieder ein Produkt auf den Markt, dass den aktuellen Platzhirschen mit doppelter Leistung enttrohnt, und dabei wird gleich der Preis mal um ein paar hundert Dollar nach oben geschraubt, weils ja genug Deppen gibt, die da mitmachen. Obwohl die Leistung, die wie bei dem Dell System ja überhaupt keine Relevanz zu den vorhandenen Anwendungen hat. Völlig Pervers!
Deiner Meinung zu Dell kann ich mich auch völlig Anschließen. Diesen Service und diese Zuverlässigkeit sucht seinesgleichen! Also bitte redet mit, wenn ihr auch eine Ahnung davon habt. Und nicht, weil das Notebook blabla bei Dell ja um 100€ mehr kostet als im Onlineshop XY. Wenns um einen Defekt geht, werdet ihr sehen, was ich meine.
LG
dildo4u
2006-01-07, 16:21:54
Ich kann mir einfach nicht Vorstellen wie die 3 Oberen Chips genug Luft bekommen sollen bin mal Gespannt ob mann damit auch im Sommer bei 30° Zocken kann.
http://images.anandtech.com/reviews/tradeshows/2006/ces/day2/quadsli_sm.jpg
Die 6800 Ultra hatten auch nicht mehr Platz im SLi. Ein Dell-Rechner läuft auch bei 30° stabil, da kannst du sicher sein ;)
dildo4u
2006-01-07, 16:27:49
Die 6800 Ultra hatten auch nicht mehr Platz im SLi. Ein Dell-Rechner läuft auch bei 30° stabil, da kannst du sicher sein ;)
Lies dir mal hier das Fazit durch bin da immer noch Skeptisch.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7800_gtx_512_sli/24/#abschnitt_fazit
Tjell
2006-01-07, 16:41:32
Hey geil! Das fällt mir erst jetzt auf!
Bei der ASUS Extreme N7800GT DUAL funktioniert die eine Karte mit zwei Grafikchips, wie ich bisher weiß, nur auf einem Mainboard mit dem NForce4-SLI-Chipsatz.
Mit dieser neuen Grafikkarte, nennen wir sie 7800 GTX 512 SLI, reicht einer Karte jedoch ein PCI-Ex16-Slot. Meine Vermutung: Da eine solche Karte laut Anandtech aus einer "Master-" und einer "Tochter-"Ebene besteht und scheinbar spezielle zusätzliche Schaltkreise für diesen internen SLI-Betrieb aufweist, wird es sicher möglich sein, eine einzige dieser Karten auch auf Mainboards zu betreiben, die nur eine PCI-Ex16-Slot haben.
Damit wäre SLI nicht mehr auf den SLI-Chipsatz beschränkt! =)
Ja da ist wohl ein PCIe-Switch drauf verbaut. Ist nichts besonderes, steigert nur die Kosten.
Lies dir mal hier das Fazit durch bin da immer noch Skeptisch.
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_7800_gtx_512_sli/24/#abschnitt_fazitDas wird genau so im professionellen Bereich mit Quadros verbaut. Das hat stabil zu sein.
Tjell
2006-01-07, 17:03:56
Ja da ist wohl ein PCIe-Switch drauf verbaut. Ist nichts besonderes, steigert nur die Kosten.
Das besondere ist: es wäre die erste SLI-Grafikkarten-Kombo, die auf einem Mainboard mit nur einem Grafikslot läuft.
mapel110
2006-01-07, 17:17:23
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=271114
H.264-Diskussion geht da weiter!
dildo4u
2006-01-07, 20:30:32
"I finally found the Dell.
It looks pretty nice. I did some benchmarking as well. It can max out FEAR (Maximum computer, maximum graphics) at maximum 30" resolution goodness.
min: 36
avg: 45
max: 119"
Auflösung war 2500*1600
http://www.xtremesystems.org/forums/showpost.php?p=1221142&postcount=38
http://www.bit-tech.net/news/2006/01/06/dell_quad_sli_spy_shots/
Gouvernator
2006-01-07, 20:35:30
Das ist wahrscheinlich nur ein einziges Spiel das irgendwie davon profitiert. IMHO der Aufwand ist zu gross dafür, es grenzt schon an Wahnsinn.
Tjell
2006-01-07, 20:40:52
Ziehen die Grafikkarten da etwa Strom von außerhalb?? Man achte auf die zwei dicken schwarzen Kabel:
http://www.bit-tech.net/content_images/news_images/quad-sli-back.jpg
NACHTRAG
Ja, tun sie. :ugly:
We looked at the back of the system, and weren't surprised when we saw external power connectors going into each of the two pairs of cards.
dildo4u
2006-01-07, 21:00:11
Der 10000€ PC auf AMD Basis gefällt mir besser man müsste halt nur die Karten aus dem Dell system da verbaun.:eek:
http://www.pcwelt.de/news/hardware/126915/index.html
Tjell
2006-01-07, 21:12:01
Der 10000-Euro Rechner ist ein Muskelprotz, der vor Kraft kaum laufen kann - viel zu unausgeglichen setzen die Verantwortlichen fast alles nur ein, um möglichst "groß und teuer" in die Liste schreiben zu können.
Hauptsache zwei Doppelkern-Opterons, dafür aber nur eine Terratec Aureon Soundkarte. :ulol3:
Marc-
2006-01-07, 21:18:31
wenn ich ehrlich bin, verstehe ich den ganzen hype um diese dell/NV marketing gag nicht wirklich aus mehreren gruenden:
1. Dass quad sli bei treiberseitiger unterstützung problemlos moeglich ist war spaetestens seit der dual gt von asus klar, auch nach der vorstellung des quad pci-e boards von gigabyte und den tests bei thg.
2. Warum bitte hat man denn die daughterboard loesung gewaehlt anstatt der wesentlich effektiveren und benutzer- und kuehlungdfreundlicheren lösung a la asus dual gt? Vermutlich nur deshalb weils einfach nicht um eine tatsächlich sinnige effeziente loesung geht, sondern weils einfach "monstermaessiger" aussieht, für eben genau die clientel die angesprochen werden soll, die das geld nicht aus sinngruenden legen, sondern um sich das teil staendig anzuschauen, zu benchen und sich darauf was zu pellen. Einen anderen sinn kann man neutral betrachtet kaum sehen.
3. die option diese master/daughter kombination auf einem nicht sli board einzusetzen (sofern es denn gehen sollte, das ist wohl auch eine frage des treiberseitigen supports, was wiederum an nv liegt), ist wohl auch ein sehr schwaches argument fuer diesen hype. Diejenigen die an sli und weitergehendem interessiert sind, haben wohl kein problem damit den mehrpreis für ein solches sli board gegen den eher kleinen aufpreis gegenueber normalen ultra boards zu zahlen. Selbst der preis für ein komplett neues mobo ist wohl in relation zu dem preis EINER solcher sli karte mehr als vernachlässigbar.
4. Wenn ich mir die leistung von fear selbst unter einer solchen overkill kombi ansehe, dann kann ich nur sagen, das dieses spiel fuer das gebotene einfach grottenschlecht programmiert worden ist. Das dann mit einem solchen overkill an hitze, strom und geld auszugleichen halte ich für absolut nicht nachvollziehbar. Zumal bei solchen auflösungen wohl auch das geuebteste auge kaum unterschiede wahrnehmen wird, abgesehen davon, das es sehr schwierig wird an derlei grossen monitoren an denen man das koennte zu zocken, sofern man nicht vorhat sich einige meter vom moni wegzusetzen beim spielen (und wer bitte moechte das?).
Alles in allem sehe ich in dieser geschichte wenig neues, und ausserdem wenig wichtiges für 99,99% aller (auch hardcore) computernutzer und gamer.
Der 10000-Euro Rechner ist ein Muskelprotz, der vor Kraft kaum laufen kann - viel zu unausgeglichen setzen die Verantwortlichen fast alles nur ein, um möglichst "groß und teuer" in die Liste schreiben zu können.
Hauptsache zwei Doppelkern-Opterons, dafür aber nur eine Terratec Aureon Soundkarte. :ulol3:
Cool. Den werd' ich gewinnen und hier für 9.000€ verkaufen. :)
Gibt's Interessenten? :D
Hauptsache zwei Doppelkern-Opterons, dafür aber nur eine Terratec Aureon Soundkarte. :ulol3:Was heißt hier "nur". Das Ding kostet 140€. X-Fi ist nicht für alle Dinge das Maß.
Tjell
2006-01-07, 22:34:21
@Coda
Leistungsmäßig, und das meine ich nicht nur auf Spiele bezogen, gibt es im Consumer-Marktsegment derzeit keine bessere Soundkarte als die X-Fi.
StefanV
2006-01-07, 23:12:15
@Coda
Leistungsmäßig, und das meine ich nicht nur auf Spiele bezogen, gibt es im Consumer-Marktsegment derzeit keine bessere Soundkarte als die X-Fi.
Soweit ich weiß, taugen die X-Fis nur für Games, wenn man astreinen Klang haben will, greift man meist zu Terratec...
Thomas Gräf
2006-01-08, 00:03:08
Tjo, die Standard Aussagen wie 512mb auf Graka sind Sinnlos, und DualChip
GPU Bords können gar nicht Marktfähig sein werden wohl langsam
brökeln.
Was die US Strategen nicht mehr mit Physik hinkriegen, das wird
mit Materialeinsatz ausgeglichen.
Wen das wundert der hat die Welt verpennt.
Wen das ärgert der kann ja mithelfen das Rad der Geschichte
weiterzuderehen...
grs
th
Soweit ich weiß, taugen die X-Fis nur für Games, wenn man astreinen Klang haben will, greift man meist zu Terratec...
Auch DVD-Audio und über USB und beides?
*aufdersuchenachalternativenzuraudigynx*
Q
Mit den richtigen Settings kriegt man eigentlich jedes Spiel graka-limitiert...
Hmm,GTASAnAndreas kriegst du nicht einmal mit einer GTX limitiert.Es sei denn,man taktet die CPU dermaßen herunter...
Ich schließe mich deiner völlig an. Genau das meinte ich auch damit, dass im hier die Qualität nur durch Quantität geschlagen wird.
Und ausserdem ist die aktuelle Marktentwicklung ja sowieso Irrsinn - spätestens alle 6 Monate kommt wieder ein Produkt auf den Markt, dass den aktuellen Platzhirschen mit doppelter Leistung enttrohnt, und dabei wird gleich der Preis mal um ein paar hundert Dollar nach oben geschraubt, weils ja genug Deppen gibt, die da mitmachen. Obwohl die Leistung, die wie bei dem Dell System ja überhaupt keine Relevanz zu den vorhandenen Anwendungen hat. Völlig Pervers!
Deiner Meinung zu Dell kann ich mich auch völlig Anschließen. Diesen Service und diese Zuverlässigkeit sucht seinesgleichen! Also bitte redet mit, wenn ihr auch eine Ahnung davon habt. Und nicht, weil das Notebook blabla bei Dell ja um 100€ mehr kostet als im Onlineshop XY. Wenns um einen Defekt geht, werdet ihr sehen, was ich meine.
LG
Du übertreibst ein bisschen.
Das einzige mal wo der Nachfolger eine ca.100%ge Steigerung gegenüber seinem Vorgänger erbrachte war von NV35 auf NV40.OK,vielleicht noch 6800U auf 7800GTX256 und da waren über 12Monate dazwischen.
Sowas gelang meines Wissens danach nicht mehr,und schon garnicht alle 6Monate.Im besten Fall 12Monate,wenn nichts verzögert.
Hallo,
Was mich mal interessieren würde:Wird der PCIe-Slot für Datenaustausch der Karten genutzt oder läuft alles über die Bridges+Main/Daughterboardconnections?
tombman
2006-01-08, 01:56:41
das geile an dieser neuen Lösung ist, daß praktisch jeder core mit jedem verbunden ist-> schöne Aufteilung der Last.
p.s. wobei die Lebensspanne dieses Quad-SLI sehr kurz ist... 2x G71 werden wohl noch langsamer sein, aber 2x G80 sicher schneller... also mehr als dieses Jahr kann das Teil unmögich dominieren. Und wenn es dann auc nur ausschließlich für Dell pcs oder mobos läuft kann man es vergessen. Würde nur Sinn machen, wenn das Teil auch im Retail auftaucht und offiziell mit einem Nvidia Treiber unterstützt wird. Dann hätte man für dieses Jahr praktisch ausgesorgt ;)
TheFallenAngel
2006-01-08, 02:15:54
Soweit ich weiß, taugen die X-Fis nur für Games, wenn man astreinen Klang haben will, greift man meist zu Terratec...
...und greift damit zu schlechten treibern, unfähigen support und muß mit freezes/abstürzen leben...
spreche dabei nicht nur aus eigener erfahrung....
Kommt wohl aufs System an, ich habe solche Probleme mit ner X-Fi nicht.
Ich rechne übrigens bei G80 nichtmal mit soviel mehr Leistung, da DX10 auch sehr viel Die-Fläche verschluckt für die Features.
dildo4u
2006-01-08, 03:09:55
Ich rechne übrigens bei G80 nichtmal mit soviel mehr Leistung, da DX10 auch sehr viel Die-Fläche verschluckt für die Features.
Ich finde der NV40 hat beweisen das sich das nicht Ausschließt wesentlich mher Perfromance plus alle Featuers.
nVIDIA hatte zu SM3 nicht viel mehr einzubauen (eigentlich nur Vertex-TMUs und dyn. branching in den Pixelshadern) und außerdem war NV3x eh verkorkst.
DX10 ist einiges mehr.
MadManniMan
2006-01-08, 04:41:16
Natürlich hab ich die Manipulation mit max fps usw sofort erkannt, trotzdem kein Grund das pic nicht zu posten, schließlich saugt nicht jeder den stream ;)
Und dann rumpflaumen, daß jemand das "superskalare" Dingens (oder was auch immer) nicht erkennen würde? Und erstmal von 5facher Leistung trällern? Muß ich Dich zitieren oder gibst Du zu, daß Du Dich grad rausredest? :D
BTW @Razorle: (schön, Du wieder da zu sein!) wieviel hatte Deine GF3 vor (inzwischen fast) 5 Jahren gekostet, über deren "Unsinn" ich mir damals bei 3DConcept den Mund fusselig geflamt hab? X-D
Und zu der Kühllösung - sehe ich das richtig, daß da Radiallüfter die "Luft" (wenn mans dann noch so nennen kann) aus dem kleinen Spalt zwischen den einzelnen Karten und dem Rand der Kühllösung ziehen sollen? :ugly:
Mei, ich will ne Wärmebildkameraaufnahme vom Betrieb dieses (fürs Gemeinwohl völlig unnützen, da für effiziente Entwicklungen nix bei raus kommt) Ungeheuers sehen...
mapel110
2006-01-08, 07:49:23
wenn ich ehrlich bin, verstehe ich den ganzen hype um diese dell/NV marketing gag nicht wirklich aus mehreren gruenden:
1. Dass quad sli bei treiberseitiger unterstützung problemlos moeglich ist war spaetestens seit der dual gt von asus klar, auch nach der vorstellung des quad pci-e boards von gigabyte und den tests bei thg.
2. Warum bitte hat man denn die daughterboard loesung gewaehlt anstatt der wesentlich effektiveren und benutzer- und kuehlungdfreundlicheren lösung a la asus dual gt? Vermutlich nur deshalb weils einfach nicht um eine tatsächlich sinnige effeziente loesung geht, sondern weils einfach "monstermaessiger" aussieht, für eben genau die clientel die angesprochen werden soll, die das geld nicht aus sinngruenden legen, sondern um sich das teil staendig anzuschauen, zu benchen und sich darauf was zu pellen. Einen anderen sinn kann man neutral betrachtet kaum sehen.
3. die option diese master/daughter kombination auf einem nicht sli board einzusetzen (sofern es denn gehen sollte, das ist wohl auch eine frage des treiberseitigen supports, was wiederum an nv liegt), ist wohl auch ein sehr schwaches argument fuer diesen hype. Diejenigen die an sli und weitergehendem interessiert sind, haben wohl kein problem damit den mehrpreis für ein solches sli board gegen den eher kleinen aufpreis gegenueber normalen ultra boards zu zahlen. Selbst der preis für ein komplett neues mobo ist wohl in relation zu dem preis EINER solcher sli karte mehr als vernachlässigbar.
4. Wenn ich mir die leistung von fear selbst unter einer solchen overkill kombi ansehe, dann kann ich nur sagen, das dieses spiel fuer das gebotene einfach grottenschlecht programmiert worden ist. Das dann mit einem solchen overkill an hitze, strom und geld auszugleichen halte ich für absolut nicht nachvollziehbar. Zumal bei solchen auflösungen wohl auch das geuebteste auge kaum unterschiede wahrnehmen wird, abgesehen davon, das es sehr schwierig wird an derlei grossen monitoren an denen man das koennte zu zocken, sofern man nicht vorhat sich einige meter vom moni wegzusetzen beim spielen (und wer bitte moechte das?).
Alles in allem sehe ich in dieser geschichte wenig neues, und ausserdem wenig wichtiges für 99,99% aller (auch hardcore) computernutzer und gamer.
1. Jo, brandneu ist es nicht.
2. Externe Netzteile sucken und da hätte man dann wohl besonders kräftige(obendrein 2) mitliefern müssen. Da ists billiger und komfortabler, 1 fettes Netzteil zu verbauen und die Karten im Gehäuse zu versorgen.
3. Jo, aber es geht halt.
4. High End macht für High End User Sinn und das war schon immer so. Ohne AA/AF konnte eine 4600er auch mit einer Radeon 9700 Pro mithalten oder war gar schneller.
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_ut2003_a.php
Wer auf AA/AF keinen Wert legte, brauchte nicht aufrüsten.
Ich rechne übrigens bei G80 nichtmal mit soviel mehr Leistung, da DX10 auch sehr viel Die-Fläche verschluckt für die Features.
Wie soll denn auch soviel mehr Leistung rauskommen?! Die Bandbreite steigt ja nicht sonderlich. Ich denke schon, dass QuadSLI 7800 GTX vorallem lange von der größeren Bandbreite profitieren wird und schneller als 2x G80 sein wird.
StefanV
2006-01-08, 11:02:37
4. High End macht für High End User Sinn und das war schon immer so. Ohne AA/AF konnte eine 4600er auch mit einer Radeon 9700 Pro mithalten oder war gar schneller.
http://www.3dcenter.org/artikel/r9500+9700_vs_gffx5800/zj_bench_ut2003_a.php
Wer auf AA/AF keinen Wert legte, brauchte nicht aufrüsten.
ABer auch nur weil die CPU in dem Review shit ist und weil das Game, das du verlinkt hast, eh äußerst stark an der CPU Leistung hängt...
mapel110
2006-01-08, 11:10:21
ABer auch nur weil die CPU in dem Review shit ist und weil das Game, das du verlinkt hast, eh äußerst stark an der CPU Leistung hängt...
Schau dir die anderen Games dort an, da siehts nicht besser aus. Und UT2003 war damals iirc das fordernste Spiel.
btw Wenn man das miese AF bei ATI miteinbezieht, bekommen die Benchmarks gleich einen ganz anderen Eindruck. Man hätte da wohl besser nvidia mit 2x oder 4x AF benchen sollen.
Jedenfalls kommts immer auch auf die Ansprüche an, die man an Bldqualität stellt und da bringt QuadSLI anscheinend noch mal etwas.
StefanV
2006-01-08, 11:15:42
Schau dir die anderen Games dort an, da siehts nicht besser aus. Und UT2003 war damals iirc das fordernste Spiel.
btw Wenn man das miese AF bei ATI miteinbezieht, bekommen die Benchmarks gleich einen ganz anderen Eindruck. Man hätte da wohl besser nvidia mit 2x oder 4x AF benchen sollen.
Jedenfalls kommts immer auch auf die Ansprüche an, die man an Bldqualität stellt und da bringt QuadSLI anscheinend noch mal etwas.
Schau dir mal aktuellere Games an und nicht so a alten Shit!
Das die TI4600 mit der 9700 PRO mithalten kann, kann nur bei CPU Limitierten Situationen vorkommen und/oder wenn die TI4600 weniger Arbeit verrichten muss als die 9700 PRO.
Also wenn ich mir die Balken so anschaue, dann MUSS da 'ne CPU Limitierung vorliegen, egal wie du es sehen willst...
Hmm,GTASAnAndreas kriegst du nicht einmal mit einer GTX limitiert.Es sei denn,man taktet die CPU dermaßen herunter...
mit 4x4SSAA bestimmt (und GTA:SA braucht das um flimmerfrei zu sein ;) )
OK,aber wie aktiviere ich SSAA?
Im RivaTuner sehe ich nur das normale 8xS,welches ja nur 2FachSSamplinganteil hat,und 16x.Das ist doch aber kein echtes 8xSSAA,oder doch?
Ailuros
2006-01-09, 03:27:46
Ich rechne übrigens bei G80 nichtmal mit soviel mehr Leistung, da DX10 auch sehr viel Die-Fläche verschluckt für die Features.
Im Vergleich zu SM3.0? Was wird denn Grossartiges von D3D10 ausser dem Geometry Shader vorrausgesetzt, das viel Flaeche verschlucken wuerde?
Wuerden wir jetzt von einem USC reden (bin mir noch nicht so sicher fuer G80), koennten theoretisch zumindest quasi "All-Zweck" ALUs (PS/VS/GS) die Arbeit erledigen.
Ailuros
2006-01-09, 03:34:12
Also wenn ich mir die Balken so anschaue, dann MUSS da 'ne CPU Limitierung vorliegen, egal wie du es sehen willst...
Eine CPU Limitierung (obwohl die CPU von Dell uebertaktet wurde) wird es wohl schon geben. Aber wer zum Henker wuerde mit so einem suendteuren und ueberstarken System in 1024*768 ohne AA/AF spielen. Eher >1600*1200 mit 4xMSAA/16xAF und in diesem Fall und ueberhaupt in den neuesten Spielen, limitiert die CPU dann wohl auch nicht mehr.
Von welcher Aufloesung und mit welchen settings sind die Balken genau?
Ailuros
2006-01-09, 03:37:43
OK,aber wie aktiviere ich SSAA?
Im RivaTuner sehe ich nur das normale 8xS,welches ja nur 2FachSSamplinganteil hat,und 16x.Das ist doch aber kein echtes 8xSSAA,oder doch?
1*2 (2xSSAA)
2*1 (2xSSAA)
2*2 (4xSSAA)
4*4 (16xSSAA)
....sind alle SSAA modi in Rivatuner und 4xS, 6xS, 8xS, 8x und 16x sind die hybriden MS/SSAA modi die zur Verfuegung stehen. Es gibt keinen 8xSSAA Modus im Treiber; nur 2x, 4x, 16x OGSS.
Im Vergleich zu SM3.0? Was wird denn Grossartiges von D3D10 ausser dem Geometry Shader vorrausgesetzt, das viel Flaeche verschlucken wuerde?Verdammt viel, glaub mir. Ich will jetzt nicht das SDK zerpflücken um alles aufzuführen.
StefanV
2006-01-09, 10:32:00
Im Vergleich zu SM3.0? Was wird denn Grossartiges von D3D10 ausser dem Geometry Shader vorrausgesetzt, das viel Flaeche verschlucken wuerde?
schau mal hier (http://forum-3dcenter.de/vbulletin/showthread.php?t=266358&highlight=SDK) (beachte insbesondere die Postings von Demirug und Coda).
Coda erwähnte mal was von einigen zusätzlichen Texturformaten, die unmengen an Transistoren verbraten und noch einige andere Dinge, die sein müssen...
StefanV
2006-01-09, 10:39:20
Eine CPU Limitierung (obwohl die CPU von Dell uebertaktet wurde) wird es wohl schon geben. Aber wer zum Henker wuerde mit so einem suendteuren und ueberstarken System in 1024*768 ohne AA/AF spielen. Eher >1600*1200 mit 4xMSAA/16xAF und in diesem Fall und ueberhaupt in den neuesten Spielen, limitiert die CPU dann wohl auch nicht mehr.
Von welcher Aufloesung und mit welchen settings sind die Balken genau?
Unreal Tournament 2003
MaxQuality 1024x768x32 ohne AA/AF
Pentium 4 Northwood 2.53 GHz · i845PE · 512 MB DDR-RAM
Unreal Tournament 2003
MaxQuality 1280x960x32 ohne AA/AF
Pentium 4 Northwood 2.53 GHz · i845PE · 512 MB DDR-RAM
Also hier ists wirklich kein Wunder, das die TI4600 nicht schneller ist, denn erstens haben wir 'nen Game, das äußerst stark an der CPU hängt und zweitens haben wir hier 'nen recht lahmes Indell System...
Aber das ist ja nix neues, das High End Karten hier auf einem recht lahmen Mid/Low End Rechner getestet werden X-D
Ailuros
2006-01-09, 11:54:48
[/i]
Also hier ists wirklich kein Wunder, das die TI4600 nicht schneller ist, denn erstens haben wir 'nen Game, das äußerst stark an der CPU hängt und zweitens haben wir hier 'nen recht lahmes Indell System...
Aber das ist ja nix neues, das High End Karten hier auf einem recht lahmen Mid/Low End Rechner getestet werden X-D
Ach Ihr plaudert ueber NV25 und andere Antiquitaeten....ich dachte es geht um den quad-SLi Graph wo quad-SLi mit single GPU verglichen wird.
Ailuros
2006-01-09, 12:12:03
Verdammt viel, glaub mir. Ich will jetzt nicht das SDK zerpflücken um alles aufzuführen.
Brauchst Du im Grunde auch nicht. Reine Hypothese wobei ich Xenos als Basis nehme (weil sie eben eine bekanntere Konstante momentan ist im Vergleich zur Konkurrenz). Angenommen R600 hat in etwa doppelt so viel Einheiten und ergo auch fast doppelt so hohe chip-Komplexitaet fuer theoretisch doppelt so hohe Leistung wie Xenos. Mit dem Zusatz der >SM3.0 Vorraussetzungen entfaellt wohl logischerweise ein Prozentual der Leistung duch die Investition fuer D3D10 Komplianz, aber dass das End-resultat nur marginal schneller sein sollte als Xenos klingt mir als verheerend.
Zoroaster
2006-01-09, 12:13:33
[/i]Also hier ists wirklich kein Wunder, das die TI4600 nicht schneller ist, denn erstens haben wir 'nen Game, das äußerst stark an der CPU hängt und zweitens haben wir hier 'nen recht lahmes Indell System...
Aber das ist ja nix neues, das High End Karten hier auf einem recht lahmen Mid/Low End Rechner getestet werden X-DAha, der Test ist von letzter Woche, oder wie?:|
Brauchst Du im Grunde auch nicht. Reine Hypothese wobei ich Xenos als Basis nehme (weil sie eben eine bekanntere Konstante momentan ist im Vergleich zur Konkurrenz). Angenommen R600 hat in etwa doppelt so viel Einheiten und ergo auch fast doppelt so hohe chip-Komplexitaet fuer theoretisch doppelt so hohe Leistung wie Xenos. Mit dem Zusatz der >SM3.0 Vorraussetzungen entfaellt wohl logischerweise ein Prozentual der Leistung duch die Investition fuer D3D10 Komplianz, aber dass das End-resultat nur marginal schneller sein sollte als Xenos klingt mir als verheerend.Xenos ist ja auch schon langsamer als momentane PC-GPUs wenn mich nicht alles täuscht.
Ich rechne bei ATi mit 128 ALUs und 32 TMUs. Bei nVIDIA weiß man ja nicht ob es ein Unified-Shader wird, aber ich denke schon.
StefanV
2006-01-09, 14:16:21
Aha, der Test ist von letzter Woche, oder wie?:|
Selbst damals wars Nicht so ganz High End...
Als Bretter gabs z.B. i850E Bretter (teuer) oder aber die 865er gabs damals schon, beide sind deutlich schneller als das Testsystem...
Oder aber man hätte einen AMD Rechner nehmen können, just 4 testing...
Aber es sollte klar sein, das dieses Game eher an der CPU denn der GraKa hängt, somit sind aussagen wie 'die TI4600 konnte damals recht gut mithalten, wenn man auf AF/FSAA verzichtete' eher an den Haaren herbeigezogen...
Ailuros
2006-01-09, 14:32:56
Xenos ist ja auch schon langsamer als momentane PC-GPUs wenn mich nicht alles täuscht.
ATI behauptet selber dass es langsamer sein soll als R520, aber auch nur wenn man deren verkorkste FLOP Rechnerei folgt.
Ich rechne bei ATi mit 128 ALUs und 32 TMUs. Bei nVIDIA weiß man ja nicht ob es ein Unified-Shader wird, aber ich denke schon.
4:1 ALU-TEX ratio? Das will ich erstmal bezweifeln. Wenn sich etwas bei der bisherigen 3:1 Logik aendern sollte, dann klingt mir 3:2 eher wahrscheinlicher.
reunion
2006-01-09, 14:51:35
4:1 ALU-TEX ratio? Das will ich erstmal bezweifeln. Wenn sich etwas bei der bisherigen 3:1 Logik aendern sollte, dann klingt mir 3:2 eher wahrscheinlicher.
Du solltest bedenken, dass die ALUs auch die VS-Arbeiten erledigen müssen.
4:1 ALU-TEX ratio? Das will ich erstmal bezweifeln. Wenn sich etwas bei der bisherigen 3:1 Logik aendern sollte, dann klingt mir 3:2 eher wahrscheinlicher.Das ALU-Ratio wird in die höhe schießen in den nächsten Jahren, das sagt ATi selber. 4:1 ist das Minimum für R600. Für mehr TMUs ist einfach keine Bandbreite mehr da.
paul.muad.dib
2006-01-09, 15:18:43
Der 10000€ PC auf AMD Basis gefällt mir besser man müsste halt nur die Karten aus dem Dell system da verbaun.:eek:
http://www.pcwelt.de/news/hardware/126915/index.html
Für knackigen Raumklang sorgt die Terratec Aureon 7.1 Universe
Warum haben sie keine X-Fi genommen?
Bumsfalara
2006-01-09, 16:13:33
Warum haben sie keine X-Fi genommen?
Weil die Xfi gelinde gesagt einen beschissenen Klang hat für ihren Preis...
deekey777
2006-01-09, 16:40:58
Xenos ist ja auch schon langsamer als momentane PC-GPUs wenn mich nicht alles täuscht.
Aber ein sauschneller Mittelklasse-Chip. X-D
Mr. Lolman
2006-01-09, 17:20:36
Aber es sollte klar sein, das dieses Game eher an der CPU denn der GraKa hängt, somit sind aussagen wie 'die TI4600 konnte damals recht gut mithalten, wenn man auf AF/FSAA verzichtete' eher an den Haaren herbeigezogen...
Dazu passend: http://www.anandtech.com/video/showdoc.aspx?i=1683&p=1
Jo, aber dafür liefert die GF4 hier eine AF-Qualität, die selbst ein R520 nicht bieten kann, also ist der reine fps-Vergleich Quatsch.
Tjell
2006-01-09, 19:57:48
Jo, aber dafür liefert die GF4 hier eine AF-Qualität, die selbst ein R520 nicht bieten kann, also ist der reine fps-Vergleich Quatsch.
So eine Aussage wird hier schnell zum Bumerang, weil einige hier sicher wieder sagen werden, daß man die "Optimierungen" von ATI ja sowieso nicht sieht und deshalb das schon in Ordnung geht mit dem Vergleich. :rolleyes:
(del676)
2006-01-09, 20:02:54
eins weiss ich auch, wenn die X1900 XT in ~1600 4xAA16xAF in etwa gleich schnell ist wie mein (256mb) GTX SLI system und dabei nicht lauter ist als die beiden karten jetzt ist eine ati bestellt. (ausserdem will ich sli langsam wieder aus dem rechner haben)
wenn nvidia zu dumm ist gscheide* AF qualität zu bieten sollen sie von mir aus verrecken.
*: mindestens gleich gute qualität wie eine gleichwertige karte eines anderen herstellers
wenn nvidia zu dumm ist gscheide* AF qualität zu bieten sollen sie von mir aus verrecken.Hehe. nVIDIA ist nicht zu dumm, wie man an der GeForce 4 sieht. Sie sind eher so schlau und opfern Bildqualität für FPS, weil den DAU ja eh nichts anderes interessiert ;)
Was die Performance von der X1900XT betrifft: Nö sie wird nicht so schnell sein, schon gar nicht in alten Spielen. Wo sie was reißen könnte ist in FEAR o.ä. was viel Shaderleistung braucht.
(del676)
2006-01-09, 20:22:20
is doch gut, in alten games brauch ich keine 300fps
und gscheides AF bringt in allen Games was
"Alt" ist relativ. Die meisten neuen Spiele sind auch noch Füllratenlimitiert.
saaya
2006-01-09, 20:25:43
r580 scheint ja ne r520 mit den gleichen 3fach ausgefuehrten shader/pixel prozis pro pipe zu sein wie rv530.
die 1600pro ist genau so schnell getaktet wie ne 1300pro, 500/400, hat aber die dreifachen shader/pixel prozis.
und was bringts?
in 3dmark2003 einen 20% boost
in 3dmark 2005 einen 35% boost
in den meisten spielen liegt der boost aber nur so bei 20% so weit ich weiss...
300% pixel/shader prozis, 20% mehr performence... ich versteh echt nicht was sich ati dabei gedacht hat :confused:
mit den transistoren haette man viel sinnvolleres machen koennen glaub ich...
Halt mal, halt mal. Die X1600Pro hat auch nen verbesserten Speichercontroller usw.
saaya
2006-01-09, 20:27:24
Halt mal halt mal. Die X1600Pro hat auch nen verbesserten Speichercontroller und mehr Ramtakt.
speicher kontroller, naja, sie hat den ringbus controller... ob das so viel bringt...
speicher und core takt sind identische von der 1300pro und der 1600pro so weit ich weiss
Ja das bringt soviel. In UT2004 z.B. kann die Pixelshaderperformance gar nichts ausrichten, aber der Unterschied ist trotzdem da.
Und nein, man kann mit den Transistoren nichts anderes mehr machen. Das Problem ist dass die TMUs sich nicht mehr sättigen lassen. Das ALU-TMU Ratio wird immer höher werden.
Und ALUs brauchen gar nicht so viel Transistoren. R580 hat grad mal 20-30% mehr Die-Fläche für 48 statt 16 davon.
saaya
2006-01-09, 20:30:18
Ja das bringt soviel. In UT2004 z.B. kann die Pixelshaderperformance gar nichts ausrichten, aber der Unterschied ist trotzdem da.
also glaubst du das liegt am ringbus controller?
nicht an anderen vpu tweaks?
hmmm kan man die shader prozzies nicht auch fuer andere sachen missbrauchen?
Lass doch bitte das Ringbus weg. Das ist Marketing-Gedöns. Wahrscheinlich fehlt bei der X1300 auch noch irgendwelches HyperZ-Zeug und andere bandbreitensparende Maßnahmen.
Man wird zu immer mehr Arithmetik in Shadern übergehen. Viel ALU-Leistung ist eigentlich auch gar nicht so schlecht, man kann viele tolle Sachen damit machen.
StefanV
2006-01-09, 20:42:37
Die x1300 ist ein übles Kastrat der x1600, da hat man einfach alles entsorgt, was man nicht gebraucht hat.
Statt 5 VS bei der x1600 z.B. nur noch 2, den Rest kennen wir ja schon.
Es ist auch davon auszugehen, das man noch weitere Dinge beschnitten hat.
deekey777
2006-01-09, 20:44:33
Die x1300 ist ein übles Kastrat der x1600, da hat man einfach alles entsorgt, was man nicht gebraucht hat.
Statt 5 VS bei der x1600 z.B. nur noch 2, den Rest kennen wir ja schon.
Es ist auch davon auszugehen, das man noch weitere Dinge beschnitten hat.
Die X1300 kann gar nicht eine kastrierte X1600 sein.
Mal allgemein was zum Ringbus, weil das manche anscheinend nicht verstehen:
Der Ringbus ist eine Transistorsparmaßnahme. Ein klassischer Crossbar ist eine konfigurierbare Punkt-zu-Punkt Verbindung zwischen allen Eingängen und Ausgängen. Es geht nicht schneller.
Der neue Speichercontroller vom R520 ist aus anderen Gründen besser, wahrscheinlich vor allem wegen feinerer einstellbarem Load-Balancing an die Einheiten.
paul.muad.dib
2006-01-09, 22:27:58
Weil die Xfi gelinde gesagt einen beschissenen Klang hat für ihren Preis...
Echt, die Tester überschlagen sich doch vor Lob...
Außerdem steht ja oben, dass der Preis keine Rolle spielen soll. Da die Hardware gesponsort wurde, vermute ich eher, dass Terratec da bereitwilliger war.
paul.muad.dib
2006-01-09, 22:32:35
So eine Aussage wird hier schnell zum Bumerang, weil einige hier sicher wieder sagen werden, daß man die "Optimierungen" von ATI ja sowieso nicht sieht und deshalb das schon in Ordnung geht mit dem Vergleich. :rolleyes:
Die Optimierungen sieht man bei Spielen, die "schiefe" Winkel haben. Bei einem "rechteckigen" Spiel vie Jedi Knight dürfte das doch dann optisch und performancemässig keinen großen Unterschied machen.
Um nicht falsch verstanden zu werden: Ich finde die Optimierungen zum kotzen. Z.B. in Gothic 2 ist GPU-Leistung im Überflusss vorhanden. Und trotzdem ist Texturematsch neben scharfen Texturen, nur weil der Winkel sich leicht unterscheidet.
(del676)
2006-01-09, 22:44:56
Die Optimierungen sieht man bei Spielen, die "schiefe" Winkel haben. Bei einem "rechteckigen" Spiel vie Jedi Knight dürfte das doch dann optisch und performancemässig keinen großen Unterschied machen.
Um nicht falsch verstanden zu werden: Ich finde die Optimierungen zum kotzen. Z.B. in Gothic 2 ist GPU-Leistung im Überflusss vorhanden. Und trotzdem ist Texturematsch neben scharfen Texturen, nur weil der Winkel sich leicht unterscheidet.
genau dasselbe problem habe ich mit meinem superdollen1337slikraffl
leistung³³³³ vorhanden - aber nicht benutzbar
beispiel: will scharfe texturen in wow - nicht richtig möglich da winkelabhängig
da denkt man sich - irgendwie muss ich den Overkill an leistung doch in grafikqualität umsetzen können ... ja idealerweise wärs wohl ein AA modus mit SS anteil (was anderes ist ja nicht verfügbar) - tja blöd nur dass diese modi nicht mit den "glow" effekten funzen -> und wieder is man angeschissn
nu hab ich 90fps in 1600x1200 4xAA 16xAF einem game in dem ich 35 brauche ... und habe keine möglichkeit das in Qualität umzusetzen
tja blöd nur dass diese modi nicht mit den "glow" effekten funzenHm? Ich wüsste nicht warum.
Hydrogen_Snake
2006-01-09, 22:49:19
"Alt" ist relativ. Die meisten neuen Spiele sind auch noch Füllratenlimitiert.
Ich finde jemand sollte auf der MAIN Site erstmal die 4x256MB in 4x512MB ändern!
(del676)
2006-01-09, 22:49:50
Hm? Ich wüsste nicht warum.
ich auch ned, is aber so
ich auch ned, is aber so
Für 8xS in Wow muss man erst im Spiel zb. 2xAA einschalten, wenn man dann im Treiber 8xS forciert, wird das auch im Spiel übernommen. Nur wenn im Spiel 1xAA aktiviert ist, funktioniert es nicht.
(del676)
2006-01-09, 22:54:23
dann hab ich noch immer 70fps - und in vielen winkeln nur ~4xAF statt 16x ;)
Was ist mit 16xS?
Das ist ja auf 256MB-Karten nicht mehr drin auf 1600x1200. Da wird dann automatisch auf 8xS runtergeschaltet.
Stimmt, das sind ja 230MiB Framebuffer X-D
(del676)
2006-01-09, 23:04:23
Was ist mit 16xS?
16xS verbessert die Texturqualität aber nicht so stark wie 8xS zu 0x oder?
edit: seh grad dass es sich sowieso erledigt hat X-D
(del676)
2006-01-09, 23:36:17
Für 8xS in Wow muss man erst im Spiel zb. 2xAA einschalten, wenn man dann im Treiber 8xS forciert, wird das auch im Spiel übernommen. Nur wenn im Spiel 1xAA aktiviert ist, funktioniert es nicht.
mit dem tip hab ichs mal bei 1280x960 und 16xAF -1 LOD und 32x SLI AA versucht, sieht soweit mal ganz gut aus, eventuell bekomm ich den overkill an ps doch irgendwie auf die straße
edit: ok 32x SLI AA is doch etwas zuviel, mit 16x SLI AA (alter modus, als 2x2 SS Anteil) gehts ganz ok, auch in Orgrimmar
saaya
2006-01-10, 15:23:56
omg quad sli!
omg doppelt so teueres system mit doppeltem stromverbrauch fuer 0-25% mehr leistung!
wow, das will ich auch! :rolleyes:
das halte ich fuer genauso sinnvoll wie diese msi mxm sli karte...
Android
2006-01-10, 16:08:02
Die performance Krone ist die performance Krone ist die performance Krone ;)
Mein Penis ist mein Penis <ist> mein Penis länger ?? ;)
Quad-SLI ist Schwachsinn, Schwachsinn und nochmals Schwachsinn.
Wer hat hier alles en 30 Zoll TFT ??
Wer hat hier alles en 24 Zoll TFT ??
Wer hat nen 24 Zoll CRT mit 40 Kilo ??
Wer hat hier ne CPU die das SLI-Gespann nicht ausbremsen würde ?? (Jetzt kommt mir nicht mit dem Presler, der bremst immernoch bei 4 GPU`s)
Wer glaubt, dass DirectX9 keinen Nachfolger mehr bekommt ?? (ich hoffe mal keiner)
Richtig es gibt eine Käuferschicht für solche Systeme. Nur ist diese derart gering, dass es ausser einer höheren Auflösung und AA nichts anderes in Spielen zu sehen geben wird. Denn man könnte natürlich 4 GPUs auch anders in Spielen auslasten ;)
Ich verstehe diese Bemerkungen nicht. Quad SLI macht für diesen 30" der da dazu gehört sehr wohl Sinn. Und Leute die sich sowas kaufen denen ist Geld und Strom doch scheiß egal ;)
Wer glaubt, dass DirectX9 keinen Nachfolger mehr bekommt ??Wäre auch komisch, da die SDK Dokumentation für DX10 schon publik ist X-D
Android
2006-01-10, 16:32:19
Wäre auch komisch, da die SDK Dokumentation für DX10 schon publik ist X-D
:uidea:
Blaire
2006-01-19, 17:57:17
http://accessories.dell.com/sna/ProductDetail.aspx?sku=320-4570&c=ca&l=en&cs=CADHS1&category_id=6171&first=true&page=productlisting.aspx
DELL
Dual 256MB Nvidia GeForce 7800 GTX with SLI Technology
$449.001 :D
tombman
2006-01-19, 18:31:01
http://accessories.dell.com/sna/ProductDetail.aspx?sku=320-4570&c=ca&l=en&cs=CADHS1&category_id=6171&first=true&page=productlisting.aspx
DELL
Dual 256MB Nvidia GeForce 7800 GTX with SLI Technology
$449.001 :D
Das ist sicher ned der Preis für die DUAL... da habens was verhaut ;)
Weil wenn das stimmt hol ich mir einen XPS und verkaufs auf ebay ;)
Blaire
2006-01-19, 18:32:59
Ich glaube die haben sich vertan der Preis ist viel zu günstig. Die meinen sicher DUAL DVI oder sowas.
reunion
2006-01-19, 20:06:49
Hehe. nVIDIA ist nicht zu dumm, wie man an der GeForce 4 sieht. Sie sind eher so schlau und opfern Bildqualität für FPS, weil den DAU ja eh nichts anderes interessiert ;)
Traurig, dass man soetwas als schlau bezeichnen kann.
(del676)
2006-01-19, 20:56:14
Traurig, dass man soetwas als schlau bezeichnen kann.
traurig wenn du meinst eine firma sei wie robin hood X-D
reunion
2006-01-19, 21:03:42
traurig wenn du meinst eine firma sei wie robin hood X-D
Wenn du schon einen Beitrag quotest, solltest du dir wenigstens die Mühe geben, den Inhalt zu verstehen.
Wenn ich es traurig finde, dass es zweifelsfrei schlau ist, dass man BQ für fps opfert, dann wird mir da wohl hoffentlich jeder zustimmen.
Wenn ich es traurig finde, dass es zweifelsfrei schlau ist, dass man BQ für fps opfert, dann wird mir da wohl hoffentlich jeder zustimmen.Leider gibt es genug Leute die den Systemleistung-Schalter im NV-Treiber auf "Hohe Leistung" gestellt haben. Nicht unbedingt im 3dcenter, aber guck dich ma in anderen (Hardware-)Foren um. ;)
Auch in Hardwarezeitungen hab ich schon Sätze gelesen, wie "Der beste Kompromiss aus Bildqualität und Performance ist die Einstellung "Quality""
(del676)
2006-01-19, 21:23:39
Wenn du schon einen Beitrag quotest, solltest du dir wenigstens die Mühe geben, den Inhalt zu verstehen.
Wenn ich es traurig finde, dass es zweifelsfrei schlau ist, dass man BQ für fps opfert, dann wird mir da wohl hoffentlich jeder zustimmen.
traurig dass ich das nicht sofort so verstanden habe :)
Leider gibt es genug Leute die den Systemleistung-Schalter im NV-Treiber auf "Hohe Leistung" gestellt haben. Nicht unbedingt im 3dcenter, aber guck dich ma in anderen (Hardware-)Foren um. ;)Hm? Gerade im 3DCenter sollten die meisten HQ bevorzugen.
Hm? Gerade im 3DCenter sollten die meisten HQ bevorzugen.Ja, deshalb schrieb ich ja, dass die Leute, die Hohe Leistung nutzen, nicht unbedingt im 3dcenter anzutreffen sind. ;)
Ach hohe Leistung, sorry. Das ist für mich zu krank um es zu realisieren ;)
-> http://www.forumdeluxx.de/forum/showpost.php?p=2588862&postcount=20 ;D ;D ;D
ich habe auf leistung
gibt sicherlich paar fps mehr oder ?
Was ist denn schlechter wenn man es auf max. leistung macht? Ich sehe da keinen Unterschied!
;D ;D ;D
reunion
2006-01-19, 22:52:51
Leider gibt es genug Leute die den Systemleistung-Schalter im NV-Treiber auf "Hohe Leistung" gestellt haben. Nicht unbedingt im 3dcenter, aber guck dich ma in anderen (Hardware-)Foren um. ;)
Ganz so extrem ist es hier zum Glück nicht. Doch trotzdem schielen viele Leute selbst hier hauptsächlich auf die Balken.
Bandit666 @work
2006-01-20, 11:40:30
Das kenne ich auch aus meinem Bekanntenkreis. Da stellen die selbsternannten "Overclocker" auch alles auf höchste Leistung!
Nachdem ich ihnen gezeigt habe das dies nur marginale Punkte mehr in 3dmark bringt, aber die BQ drastisch leidet, haben sie es eingesehen.
Ich bin aber kein Missionar, von daher soll jeder selbst seine Einstellung setzen. Es gibt wirklich Leute die sehen keinen Unterschied zw. HL und HQ!
Ist halt so.
mfg
Bzw. sie wollen es nicht sehen. So blind kann man nicht sein.
Es gibt auch Leute denen auch eine gute Story wichtiger ist,als die GFX.
Mein Bruder z.B. wenn er ein Spiel spielt nimmt er die Welt um sich herum nicht wahr(verschlingt die Story),geschweige irgendweilche Optimierungen.
Armaq
2006-03-23, 16:26:42
Tjo. Ich sehe zwar den Unterschied zwischen den verschiedenen Modi, aber lasse mich lieber von der Spielwelt fangen, als permanent auf die IQ zu achten.
(del676)
2006-03-23, 16:36:39
Es gibt auch Leute denen auch eine gute Story wichtiger ist,als die GFX.
Mein Bruder z.B. wenn er ein Spiel spielt nimmt er die Welt um sich herum nicht wahr(verschlingt die Story),geschweige irgendweilche Optimierungen.
andere optimieren VORHER auf beste IQ/Performance und gehen dann erst auf das Game ein ;)
AnarchX
2006-03-23, 17:11:39
Die DUAL-GTX bei DELL für 399€ scheint mir eine normale 7800GTX mit seltsamen Layout zu sein....
Wenn es aber wirklich ein Dual-Karte wäre :eek:
Thanatos
2006-03-23, 17:53:24
Die DUAL-GTX bei DELL für 399€ scheint mir eine normale 7800GTX zu sein mit seltsamen Layout zu sein....
Wenn es aber wirklich ein Dual-Karte wäre :eek:
Ja, ne dual 7800gs für AGP und die Welt wäre in ordnung :usweet:
Mein Penis ist mein Penis <ist> mein Penis länger ?? ;)
Quad-SLI ist Schwachsinn, Schwachsinn und nochmals Schwachsinn.
Wer hat hier alles en 30 Zoll TFT ??
Ich ;)
Android
2006-03-24, 15:09:45
Ich ;)
Glückwunsch. Aber du stimmst mir wohl zu, dass du damit eher zu einer kleinen Gruppe gehörst, oder ?
Und wie ich das einschätze ist die Gruppe noch kleiner, als die der SLI-Nutzer.
:ucrazy4: :D
Thanatos
2006-03-24, 19:02:39
Glückwunsch. Aber du stimmst mir wohl zu, dass du damit eher zu einer kleinen Gruppe gehörst, oder ?
Und wie ich das einschätze ist die Gruppe noch kleiner, als die der SLI-Nutzer.
:ucrazy4: :D
Die Gruppe mag zwar schon klein sein, aber deswegen Quad-SLI als absolut sinnbefreit darzustellen ist auch ned richtig.
Hätte ich zuviel Geld übrig würde ich mir sowas auch kaufen :)
Sailor Moon
2006-03-24, 23:48:18
Glückwunsch. Aber du stimmst mir wohl zu, dass du damit eher zu einer kleinen Gruppe gehörst, oder ?
Sie wächst stetig ;-) - allerdings käme ich nicht auf die Idee, mir hier ein Quad-SLI einzubauen. Eine Karte muß reichen. Für ein Spiel zwischendurch langts dicke.
Android
2006-03-25, 15:53:21
Sie wächst stetig ;-) - allerdings käme ich nicht auf die Idee, mir hier ein Quad-SLI einzubauen. Eine Karte muß reichen. Für ein Spiel zwischendurch langts dicke.
Ist doch klar das sie stetig wächst. Heute ist ja auch ein 19Zoll TFT bezahlbar. Das sah vor einigen Jahren ganz anders aus. ;)
Mir gehts eigentlich nur um den Sinn von Quad SLI. Der Wertverlust ist bei vier Karten gleich viermal so gross. Also wenn Quad-SLI irgendwann überhaupt Sinn macht, dann fast immer nur am Anfang einer neuen DirectX-Version. Wenn man sich Quad-SLI also direkt bei der Einführung von DirectX10 holt könnte man es viel damit begründen, dass Featureseitig nicht viel passiert und die Leistung ein paar Generationen übersteht.
Aber wenn man sich jetzt Quad-SLI auf DirectX9-Basis holt bleibt das für mich sinnfrei. Aber wenn man natürlich nen 30Zoll TFT hat und in ein paar Monaten wieder Quad-SLI holt, weil man nicht weiss wohin mit dem Geld, meinetwegen. :| ;D
Ich würde sagen, die Zukunft wird auf 30" und Multiprozessoren, wie auch immer, gehen. Ich habe bei Eldar Scrolls IV die doppelte (von Nvidia versprochene) Performance bei dieser Auflösung.
Und wer mal vor einem 30"-Monitor gesessen ist, will nichts mehr anderes.
Heute ist doch auch schon 19" fast Standard, und daß hätte man sich mit seinem kleinen 14" Monitor auch nicht träumen lassen.
Ob die Lösung nun TFT oder sonstwas ist, der Darstellungsbereich wird auf alle Fälle wachsen, da bin ich mir sicher, und bald haben wir unser Holodeck ;) .
Schaut mal, wie oft die Firmen tönen, daß es noch sooo lange brauchen wird, bis man eine bestimmte HW ausreizt, The Eldar Scrolls ist der beste Beweis, daß die Spieleindustrie die HW-Ansprüche nach oben treibt, und ich muß sagen, wenn ich mir TES so ansehe, bin ich nicht traurig drum ;) .
Aber ich glaube, erst wenn Nvidia die GPUs so auf einen Sockel sortiert wie es die Prozessorhersteller planen (Dual/Quad-Core), wird es preisgünstiger werden und auch eine entsprechende Massenabnahme geben. Quad-SLI wird für die sein, die sichs leisten.
zappenduster
2006-04-01, 14:41:57
Mein Penis ist mein Penis <ist> mein Penis länger ?? ;)
Quad-SLI ist Schwachsinn, Schwachsinn und nochmals Schwachsinn.
Wer hat hier alles en 30 Zoll TFT ??
Wer hat hier alles en 24 Zoll TFT ??
Wer hat nen 24 Zoll CRT mit 40 Kilo ??
Wer hat hier ne CPU die das SLI-Gespann nicht ausbremsen würde ?? (Jetzt kommt mir nicht mit dem Presler, der bremst immernoch bei 4 GPU`s)
Wer glaubt, dass DirectX9 keinen Nachfolger mehr bekommt ?? (ich hoffe mal keiner)
Richtig es gibt eine Käuferschicht für solche Systeme. Nur ist diese derart gering, dass es ausser einer höheren Auflösung und AA nichts anderes in Spielen zu sehen geben wird. Denn man könnte natürlich 4 GPUs auch anders in Spielen auslasten ;)
ich hab zwar nur nen 23" lcd aber selbst 1920x1200 ist kein zuckerschlecken auf heutiger "normaler" hardware vorallendingen wenn man auf agp setzt warum also beim umstieg auf pci-e nur kleckern und nicht klotzen ?
die frage ist ja auch warum nicht jetzt quad sli mainboard mit 1 karten und dann im abstand von 6 monaten jeweils eine weitere karte zukaufen die dann nur noch die haelfte kostet ?
das ist aber alles nur solange von intresse wie diese karten/boards/treiber im normalen markt erscheinen wenn sie dem oem markt vorbehalten bleiben dann pustekuchen...
BTW @Razorle: (schön, Du wieder da zu sein!) wieviel hatte Deine GF3 vor (inzwischen fast) 5 Jahren gekostet, über deren "Unsinn" ich mir damals bei 3DConcept den Mund fusselig geflamt hab? X-D
Tjo... und Du hast NICHT Recht behalten, wie die Realität dann ja zeigte!
:D
Die gf3 war DER Quantensprung bei den GPU's und hat erstmals das Thema Bildqualität von der richtigen Seite angepackt... 32Bit-Rendering war kein Problem mehr und den ersten 'echten' trilinearen anisotropen Filter gab es noch dazu.
Die Karte hat satte 2 Jahre in meinem Rechner überdauert und mich locker über die gf4-Serie hinweg sehen lassen. Und das für gerade mal 879 Märkerchen... ja DM! Wäre also heute so 450€.
Und wenn man sich jetzt mal anschaut, was noch vor kurzem eine 7800GTX gekostet hat, die jetzt locker von 'ner 300€ 7900GT geplättet wird (welche zudem sehr viel 'kühler ist und noch viiiiiel Potential nach oben hat ;-), dann kann man schon sagen, dass sich die Zeiten geändert haben.
Diejenigen, die sich ein SLI-System auf Basis von 7800'ern zugelegt haben, tun mir irgendwie leid...
...aber vermutlich trifft es ja keine "Armen", gell?
;)
Noch etwas: die gf3 sollte eigentlich mit dem ursprünglichen gf2u-Preis in den Markt treten... 1499 Märkers oder eben 770€. DAS wäre doch ein Hammer gewesen. Aber das was hier heute abgeht, kann man nur noch als schlechten Witz ansehen... dieser Quad-SLI-Unfug ist nun wirklich das Allerletzte (noch schwachsinniger, als es SLI selber schon ist) und reine Abzocke par excelence.
Klar ist das nur meine Meinung... aber ich bin frohen Mutes, dass es wohl doch auch noch andere gibt, die der logischen Betrachtung und eines wirtschaftlichen Blickes mächtig sind... die eben nicht glauben, dass MTV, jede Woche mal eben 50T und mehr für das Aufmotzen irgendeiner Schrottkarre ausgibt.
Aber das würde hier wohl zu weit führen...
Razor
P.S.: auch ich finde es prächtig, Dich hier wieder mal posten zu 'sehen'!
:up:
Mr. Lolman
2006-04-04, 14:35:55
Naja Quantensprung war die GF3 BQ-mässig sicher keiner. 2xRGMSAA und 2xAF? Da hatte ja meine Voodoo5 noch ne bessere BQ. :biggrin:
http://accessories.dell.com/sna/ProductDetail.aspx?sku=320-4570&c=ca&l=en&cs=CADHS1&category_id=6171&first=true&page=productlisting.aspx
DELL
Dual 256MB Nvidia GeForce 7800 GTX with SLI Technology
$449.001 :DDas ist sicher ned der Preis für die DUAL... da habens was verhaut ;)
Weil wenn das stimmt hol ich mir einen XPS und verkaufs auf ebay ;)
Kostet jetzt wohl 'korrekte' 699...
Razor
Naja Quantensprung war die GF3 BQ-mässig sicher keiner. 2xRGMSAA und 2xAF? Da hatte ja meine Voodoo5 noch ne bessere BQ. :biggrin:
Das einzige, was bei der Vodoo besser war, war das AA.
Welches zudem ab 4x schlicht unbrauchbar war...
Es gab damals NICHTS vergleichbares von anderen IHV's!
Und in anbetracht der Technologie-'Haltbarkeit', waren die 450 für 2 Jahre, mehr als gerechtfertigt...
(OK, in den letzten 3 Monaten der Nutzung wurde es 'dünn'... ;-)
Razor
Tjo. Ich sehe zwar den Unterschied zwischen den verschiedenen Modi, aber lasse mich lieber von der Spielwelt fangen, als permanent auf die IQ zu achten.
Für mich gehört beides zusammen...
Die beste Spielewelt mach keinen Spaß, wenn die BQ leidet... merke ich immer wieder besonder krass beim Filme-Schauen... alte SciFis, die ich früher unglaublich gerne schaute, kann ich mir heut' nicht mehr antun, weil die Darstellung einfach ein Witz ist. Genauso geht es mir aber, wenn man perfekte Visualisierung 'bestaunen' darf, aber die Story fehlt und die Schauspieler besser Straßen fegen... oder ins horizontale Gewerbe hätten wechseln sollen.
Klar, IQ ohne 'Feeling' geht genauso wenig.
Razor
Mr. Lolman
2006-04-04, 14:45:46
Das einzige, was bei der Vodoo besser war, war das AA.
Welches zudem ab 4x schlicht unbrauchbar war...
Es gab damals NICHTS vergleichbares von anderen IHV's!
Und in anbetracht der Technologie-'Haltbarkeit', waren die 450 für 2 Jahre, mehr als gerechtfertigt...
(OK, in den letzten 3 Monaten der Nutzung wurde es 'dünn'... ;-)
Razor
Naja das ein oder andere Spiel konnte man schon mit 4xAA spielen. z.B.
http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3254832&postcount=214 oder http://www.forum-3dcenter.de/vbulletin/showpost.php?p=4064460&postcount=83
Und relativ bald kam da dann die Radeon 8500. Tw. zwar flotter als ne Ti500 aber trotzdem zulangsam, wenn man bei Serious Sam bspw. 32bit 4xAA brauchte um nicht schlechtere Qualität als auf der Voodoo5 mit 22bit und 2xAA zu bekommen.
Die Performance war in den Settings überigens ziemlich ähnlich. ;)
Komm mir nicht mit dem R200-Schrott.
Die BQ war da ja wirklich unter aller... egal.
Razor
P.S.: ...ist echt ein wenig OT, das Thema, gell? ;)
Mr. Lolman
2006-04-04, 14:58:11
Komm mir nicht mit dem R200-Schrott.
Die BQ war da ja wirklich unter aller... egal.
Ja solang man kein SSAA verwendete, und/oder Spiele mit (über)scharfen Texturen spielte, hast du recht.
Razor
P.S.: ...ist echt ein wenig OT, das Thema, gell? ;)
Hm, stimmt :rolleyes:
Naja Quantensprung war die GF3 BQ-mässig sicher keiner. 2xRGMSAA und 2xAF? Da hatte ja meine Voodoo5 noch ne bessere BQ. :biggrin:
GeForce 3 kann schon 8xAF.
Ja solang man kein SSAA verwendete, und/oder Spiele mit (über)scharfen Texturen spielte, hast du recht.
Bei weitem nicht nur in solchen Situatuationen.
GeForce 3 kann schon 8xAF.
Wohl wahr...
Nur war 4xAF performance-seitig schon mit Vorsicht zu genießen, 8x nahezu unbrauchbar.
Und die gf4-Serie machte es dank 'kaputtem' AF performance-seitig auch nicht viel besser.
Erst die gf5-Serie brachte hier ganz erhebliche Besserung.
Überhaupt war die gf5-Generation hinsichtlich BQ schon fast das NonPlusUltra...
...wenn man man mal von der 'kleinen' SM2-performance-Schwäche abgesehen hat.
(aber hier das Thema M$, XBox1 und 'Rache' wieder aufleben zu lassen, halte ich für falsch ;-)
Und diese ganze "Balken-Hechelei" machte es fortan nur noch schlimmer.
Womit wir dann auch wieder beim Thema wären...
nVidia sollte sich jetzt endlich mal wieder auf seine Wurzeln konzentrieren , auf die BQ achten und nicht "Verschlimmbesserungen" im immer höhere Performance-Gefilde jagen. Wenn der G80 in dieser Hinsicht nicht besser wird, dann war die 7900GT meine letzte nVidia-Karte... und wenn ATI nicht umgehend etwas an der 'verträglichkeit' Ihrer Produkte arbeitet, dann bleibe auch die bei mir aussen vor.
Razor
Nur war 4xAF performance-seitig schon mit Vorsicht zu genießen, 8x nahezu unbrauchbar.
Ach, und das 4xSSAA der Voodoo 5 war brauchbarer? Das ich nicht lache.
Mr. Lolman
2006-04-04, 16:49:16
Ach, und das 4xSSAA der Voodoo 5 war brauchbarer? Das ich nicht lache.
In 800x600 so gut wie immer. Ein paar Spiele gingen mit 1024x768. Unreal war sogar mit 1280x960 flüssig.
Ja aber nicht mehr zu GeForce-3-Zeiten du Witzbold.
Mr. Lolman
2006-04-04, 18:15:47
Ja aber nicht mehr zu GeForce-3-Zeiten du Witzbold.
Kommt aufs Spiel draufan, du Witzbold.
Ruhig Jungs, ich will nicht, daß Ihr beide gebannt werdet, fänd ich schade.
Die gf3 war DER Quantensprung bei den GPU's und hat erstmals das Thema Bildqualität von der richtigen Seite angepackt... 32Bit-Rendering war kein Problem mehr und den ersten 'echten' trilinearen anisotropen Filter gab es noch dazu.
Die Karte hat satte 2 Jahre in meinem Rechner überdauert und mich locker über die gf4-Serie hinweg sehen lassen. Und das für gerade mal 879 Märkerchen... ja DM! Wäre also heute so 450€.
Also ich fand, daß meine GF3 ein großer Fehlkauf war, die Ti4400 hat dagegen sehr lange bei mir gehalten.
Der Fehlkauf war halt, dass ziemlich rasch die viel bessere GeForce 4 nachgeliefert wurde, was im Prinzip ja nur ein Die-Shrink mit einigen kleinen Fixes war (siehe G71 vs. G70@550Mhz ;) )
Hab mich auch darüber aufgeregt, weil ich ne GeForce 3 Ti 500 gekauft hab damals idiotischerweise.
Ach, und das 4xSSAA der Voodoo 5 war brauchbarer? Das ich nicht lache.
Vollkommen klar!
In 800x600 so gut wie immer. Ein paar Spiele gingen mit 1024x768. Unreal war sogar mit 1280x960 flüssig.
Na klasse...
EOL, oder?
:D
Also ich fand, daß meine GF3 ein großer Fehlkauf war, die Ti4400 hat dagegen sehr lange bei mir gehalten.
Tjo... so unterscheiden sich die Ansichten.
Die gf3 war mit Abstand die beste Kaufentscheidung im meiner (sehr langen ;-) GraKa-Historie!
Der Fehlkauf war halt, dass ziemlich rasch die viel bessere GeForce 4 nachgeliefert wurde, was im Prinzip ja nur ein Die-Shrink mit einigen kleinen Fixes war (siehe G71 vs. G70@550Mhz ;) )
Hab mich auch darüber aufgeregt, weil ich ne GeForce 3 Ti 500 gekauft hab damals idiotischerweise.
Ti500?
Das war dann aber schon reichlich spät...
Und die gf4-Serie brachte nicht nur 'fixes', sondern auch weitere Bug (siehe AF).
Mal davon abgesehen, dass die gf4 technologisch keinen deut in Richtung Featureset gegangen war...
(siehe G71 vs. G70@550Mhz ;) )
;D
Razor
So... und nun wieder back @ topic!
Bezugnehmend auf meinen vorherigen Post zum Thema "Quad-SLI"...
Tjo... und Du hast NICHT Recht behalten, wie die Realität dann ja zeigte!
:D
Die gf3 war DER Quantensprung bei den GPU's und hat erstmals das Thema Bildqualität von der richtigen Seite angepackt... 32Bit-Rendering war kein Problem mehr und den ersten 'echten' trilinearen anisotropen Filter gab es noch dazu.
Die Karte hat satte 2 Jahre in meinem Rechner überdauert und mich locker über die gf4-Serie hinweg sehen lassen. Und das für gerade mal 879 Märkerchen... ja DM! Wäre also heute so 450€.
Und wenn man sich jetzt mal anschaut, was noch vor kurzem eine 7800GTX gekostet hat, die jetzt locker von 'ner 300€ 7900GT geplättet wird (welche zudem sehr viel 'kühler ist und noch viiiiiel Potential nach oben hat ;-), dann kann man schon sagen, dass sich die Zeiten geändert haben.
Diejenigen, die sich ein SLI-System auf Basis von 7800'ern zugelegt haben, tun mir irgendwie leid...
...aber vermutlich trifft es ja keine "Armen", gell?
;)
Noch etwas: die gf3 sollte eigentlich mit dem ursprünglichen gf2u-Preis in den Markt treten... 1499 Märkers oder eben 770€. DAS wäre doch ein Hammer gewesen. Aber das was hier heute abgeht, kann man nur noch als schlechten Witz ansehen... dieser Quad-SLI-Unfug ist nun wirklich das Allerletzte (noch schwachsinniger, als es SLI selber schon ist) und reine Abzocke par excelence.
Klar ist das nur meine Meinung... aber ich bin frohen Mutes, dass es wohl doch auch noch andere gibt, die der logischen Betrachtung und eines wirtschaftlichen Blickes mächtig sind... die eben nicht glauben, dass MTV, jede Woche mal eben 50T und mehr für das Aufmotzen irgendeiner Schrottkarre ausgibt.
Aber das würde hier wohl zu weit führen...
Razor
P.S.: auch ich finde es prächtig, Dich hier wieder mal posten zu 'sehen'!
:up:
... weiß ich nicht, ob das hier schon gepostet wurde.
Bei vr-zone gibt es ein paar nette Bildchen, zu dem 'echten' Renegard-System von Dell:
http://www.vr-zone.com/?i=3314&s=3
Nicht nur der vollkommen idiotische Stromverbrauch führen das Zeug ad absurdum (es wird wohl in externes Netzteil benötigt, welches 2 der 4 Grafikkarte von aussen 'füttert' ;-), sondern auch der derzeit extreme Platzbedarf:
http://members.vr-zone.com.sg/%7Eshamino/nved/45.jpg
Ih könnte Euch ja mal den Artikel anschaun'... sehr aufschlußreich!
:D
Razor
tombman
2006-04-05, 10:33:44
aaaaaaaaaaaaaaaaallllllllllllllllltttttttttttt ;)
aaaaaaaaaaaaaaaaallllllllllllllllltttttttttttt ;)
Tatsächlich?
Dann sorry...
In diesem Thread habe ich dann wohl etwas 'überlesen', gell?
Trotzdem tat es gut, das nochmal zu wiederholen!
:D
Razor
es wird wohl in externes Netzteil benötigt, welches 2 der 4 Grafikkarte von aussen 'füttert' ;-),
Nein. Ist im Boden verbaut.
Nein. Ist im Boden verbaut.
Du meinst das Netzteil des Renegard?
Klar...
Aber ich meinte das Netzteil für die beiden Kartenanschlüsse, die sich auf der Rückseite des Montrums befinden. Oder werden dann etwa Kabel vom im Boden verbauten Netzteil nach aussen und auf die Rückseite des Gehäuses geführt?
:ugly:
Razor
MadManniMan
2006-04-05, 12:38:02
Wie schön! Allet wie früor =)
deekey777
2006-04-05, 13:42:21
aaaaaaaaaaaaaaaaallllllllllllllllltttttttttttt ;)
http://www.theinq.com/?article=30774
Neu?
Wie schön! Allet wie früor =)
Hehe... jo, das hatten wir schon mal.
Allerdings ist nVidia damit ja nicht allein...
ATI schafft es nicht, die irrsinnige Abwärme in den Griff zu bekommen (X1900) und nVidia bastelt wohl demnächst an nem Octa-SLI. Dann bekommen die Grafikkarten auch endlich ein eigenes Gehäuse... samt Stromgenerator!
:D
http://www.theinq.com/?article=30774
Neu?
Jo... ist dann genauso alt... siehe den von mir verlinkten Artikel.
Hier mal der Link direkt zu den Bildchen:
http://www.vr-zone.com/?i=3314&s=4
(nur eine Seite weiter... ;)
Der Artikel ist wohl vom 10. März... hier im Forum wirklich uuuuuuurrrrrraaaaallt!
;D
Sehr viel mehr als die Grafikkarten gehen in so'n Teil aber auch nicht rein!
Aber wozu braucht es denn auch irgendwelche sonstigen Kärtchen, gell?
Razor
mapel110
2006-04-14, 03:13:16
http://www.theinquirer.net/?article=30962
bissl was neues ...
Geforce 7950 GTX 2 by May
Blaire
2006-04-14, 19:05:44
http://www1.atelco.de/6AQ9RAMP3FbklM/1/articledetail.jsp?aid=6968&agid=554&adp=5
QuadSLI Karten sofort lieferbar :D
Blaze
2006-04-14, 19:07:35
http://www1.atelco.de/6AQ9RAMP3FbklM/1/articledetail.jsp?aid=6968&agid=554&adp=5
QuadSLI Karten sofort lieferbar :D
Nun ist die Frage, hol ich mir nächste Woche 2 einzelne GTXen oder lieber EINE GX2 :confused:
mapel110
2006-04-14, 19:10:02
http://www1.atelco.de/6AQ9RAMP3FbklM/1/articledetail.jsp?aid=6968&agid=554&adp=5
QuadSLI Karten sofort lieferbar :D
Nachteile
schwer
volle Baulänge
benötigt 900W-Netzteil
:ucoffee:
Nun ist die Frage, hol ich mir nächste Woche 2 einzelne GTXen oder lieber EINE GX2 :confused:
2 GTXse sind jedenfalls schneller als eine GX2. Und wenn du nicht aufrüsten willst auf Quad, dann würd ich auch die einzelnen Karten bevorzugen.
Blaze
2006-04-14, 19:10:55
benötigt 900W-Netzteil
:ucoffee:
Ja, 2 Stück, ich brauch erstmal nur eine :D
Edit:
Ausgeträumt ->
HDTV-Adapter, benötigt 900Watt Netzteil - volle Baulänge, Verkauf nur in Verbindung mit einem ATELCO komplett-PC !!!
2 GTXse sind jedenfalls schneller als eine GX2. Und wenn du nicht aufrüsten willst auf Quad, dann würd ich auch die einzelnen Karten bevorzugen.
True...aber auch mindestens 200 € billiger als 2 einzelne GTXen ;)
Blaire
2006-04-14, 19:11:59
Bei computerbase.de steht das Atelco die Karten wohl nur in Verbindung mit einem Komplett PC vertickt.
Blaze
2006-04-14, 19:14:24
Bei computerbase.de steht das Atelco die Karten wohl nur in Verbindung mit einem Komplett PC vertickt.
Jep, hab ich auch oben zitiert.
Ärgerlich...für die die sie sich kaufen wollen (tombi und du :D)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.