Archiv verlassen und diese Seite im Standarddesign anzeigen : Kolumne: Wir brauchen SLI
Leonidas
2004-11-08, 05:22:40
Link:
http://www.3dcenter.org/artikel/2004/11-08.php
Kladderadatsch
2004-11-08, 07:27:02
insgesamt guter artikel- blos finde ich pro und konta, bzw. kontra etwas zu einseitig beleuchtet.
man müsste erwähnen, dass sli mit 6800gt/ultra karten absolut überteuert ist. das argument, dass man dafür schneller fährt, als mit einer x800 zählt bei diesem aufpreis nun wirklich nicht. - warum keine ati, wenn die für weniger geld mehr leistung bringt und heute absolut ausreicht (und bald auch eine sli-ähnliche technik bieten soll). "heute", bald muss aufgerüstet werden. und an dieser stelle sind dann die mainstream-karten bestens geeignet.
mit gt/ultra hat man auch zu zeiten des nv50 mit überteuerten preisen zu rechnen, bzw. man kann sie nicht ausschließen. ob es sich mit den preisen des euro/performance zu dieser zeit deckt, ist ein risiko, dass der käufer ganz bestimmt nicht eingehen muss.
Wenn keiner den ersten Schritt macht, wird die Dual-Lösung für den Normalverbraucher immer unerschwinglich bleiben.
was daran unerschwinglich ist, sind die preise der karten. und diese werden durch sli bestimmt nicht billiger.
generell ist es natürlich richtig, diese technik, bzw. dieses wagnis zu unterstützen. aber imho ist die noch zu unausgereift. (nur 2 karten des gleichen typs, ganz zu schweigen von den eventuellen inkompatibilitäten/problemen, welche jetzt noch garkeiner abschätzen kann).
insgesamt guter artikel- blos finde ich pro und konta, bzw. kontra etwas zu einseitig beleuchtet.
man müsste erwähnen, dass sli mit 6800gt/ultra karten absolut überteuert ist. das argument, dass man dafür schneller fährt, als mit einer x800 zählt bei diesem aufpreis nun wirklich nicht. - warum keine ati, wenn die für weniger geld mehr leistung bringt und heute absolut ausreicht (und bald auch eine sli-ähnliche technik bieten soll). "heute", bald muss aufgerüstet werden. und an dieser stelle sind dann die mainstream-karten bestens geeignet.
mit gt/ultra hat man auch zu zeiten des nv50 mit überteuerten preisen zu rechnen, bzw. man kann sie nicht ausschließen. ob es sich mit den preisen des euro/performance zu dieser zeit deckt, ist ein risiko, dass der käufer ganz bestimmt nicht eingehen muss.
was daran unerschwinglich ist, sind die preise der karten. und diese werden durch sli bestimmt nicht billiger.
generell ist es natürlich richtig, diese technik, bzw. dieses wagnis zu unterstützen. aber imho ist die noch zu unausgereift. (nur 2 karten des gleichen typs, ganz zu schweigen von den eventuellen inkompatibilitäten/problemen, welche jetzt noch garkeiner abschätzen kann).
Ganz RICHTIG!
Da nv aber nichts anderes derzeit zu erzählen hat freuen sich grünen immer über einseitige Berichterstattung!
Sie (ATHS&co.) vergessen auch gänzlich die andere Seite zu erwähnen und den wichtigen technischen Hintergrund, warum ATI "SLI" Lösungen nicht so wie grün realisiert!
BTW, Immerhin ist eine X800 XT PE immer noch schneller und stabiler als 2 * 6800 Ultra!
Einige Fakten zur X800TX PE:
Um 60% Billiger!
Keine Latenz!
Kein Gehäuseumbau von nöten!
Kein zweites Netzteil erforderlich!
Ausgereift gegenüber SLI!
Vergessen?????
ATI als Marktführer wird sicherlich eine Lösung im 2'ten Halbjahr präsentieren, aber eine Lösung die ohne Verbindung der Grafikkarten auskommt, d.h. PCI Express 100% kompatibel und ausgereift!
Sicherlich zeigt nv hier das sowas möglich ist, aber extra eine Kolumne aufzumachen mit dem Titel: Wir brauchen SLI halte ich für sehr FANBOY-MÄSSIG bei den jetzigen Preisen und der angebotenen Lösung, völlig unakzeptabel!
Wer bitteschön ist so bescheuert und kauft sich jetzt 2 *6800Ultra mit SLI wenn in spät. 6 Monaten von beiden!!!!! NEUE Harware rauskommt die deutlich überlegen ist?????
Es ist doch jedem hier klar das ATI und nv in 2004 nur eine Vorahnung davon gegeben haben wo es 2005 hingeht!
(del676)
2004-11-08, 08:09:06
anstatt sich das durchzulesen, und sich dazu etwas zu denken, wir sofort (ati "fanboymässig") wieder die 0815 (ati is eh schneller) masche durchgezogen und die verfasser als nvidia fanboys bezeichnet
sehr freundliches verhalten
nggalai
2004-11-08, 08:11:22
anstatt sich das durchzulesen, und sich dazu etwas zu denken, wir sofort (ati "fanboymässig") wieder die 0815 (ati is eh schneller) masche durchgezogen und die verfasser als nvidia fanboys bezeichnet
sehr freundliches verhalten
Und wie schon bei den anderen Kolumnen, auch hier nochmals:
Das ist kein Artikel, kein Vergleichstest, keine Reportage per se. Das ist eine Kolumne.
93,
-Sascha.rb
Kladderadatsch
2004-11-08, 08:15:42
anstatt sich das durchzulesen, und sich dazu etwas zu denken, wir sofort (ati "fanboymässig") wieder die 0815 (ati is eh schneller) masche durchgezogen und die verfasser als nvidia fanboys bezeichnet
sehr freundliches verhalten
zu fanboy: ich hab selbst eine 6800 und kaufe das, was jeweils schneller ist.punkt
zu unfreundlich: ich denke, der thread existiert nicht nur dazu, um zu schreiben, wie toll der artikel doch ist, sondern um kritik loszuwerden. und ich finde, die kolumne beschränkt sich zu sehr, eigentlich fast ausschlieslich, auf pro-sli, indem er ein paar contra-sli-argumente entkräftet- es entsteht der eindruck, sli ist die perfekte lösung.
ich hoffe auch für nvidia, dass sie wieder auf einen grünen ast kommen. aber um das zu schaffen, sollten sie sich von atis konservativität vielleicht doch ein bisschen was abschneiden...
:-)
Ich habe bewußt das Wort FANBOY in meinem Kommentar reingesetzt um eure Antworten abzuwarten!
Volltreffer, anstatt sich auf die wesentlichen Kritik-Punkte die today gegen einen Kauf von SLI zu konzentrieren kommen nur WISCHIE_WASCHIE Antworten*ggg*
Los, legt mal los!
Wo bitteschön macht es Sinn SLI heute zu realisieren!
Sollen wir jetzt noch Beta-Tester spielen????
Das schreiben im übrigen andere Foren ber SLI, für meinen Geschmack wesentlich strukturierter und durchdacht!
http://www.planet3dnow.de/vbulletin/showthread.php3?s=&threadid=185746
Zitat:
Hi,
ich möchte als Ziel n paar Argumente für und gegen Nvidias SLI sammeln. Mit n bissl Glück sieht das dann irgendwann aus wie ne Erörterung
Ne, im Ernst: Für den Normaluser, also den, der halt spielt, aber nich zwingend bencht, welche Vor- und Nachteile hat es?
Zum einen könnte man ja direkt mit Erscheinen der SLI- fähigen- Karten (6600GT, 6800, 6800GT, 6800Ultra, evtl. folgene) in Kombination mit nem Mainboard mit Nvidias NForce4 SLI oder VIAs K8T890Pro ein wirklich schnelles System aufbauen.
Laut Angaben von Nvidia kann damit die Performance um 80% gesteigert werden, ein Wert, der natürlich völlig theoretisch ist- in der Realität bleiben 40-70% übrig.
Hier ne kleine (die aktuellste afaik) Tabelle zu SLI:
Schade dass 6800 nicht mitspielen durfte, wäre interessant gewesen, wie sie sich gegen die 6600GT schlägt. Natürlich auch kein Far Cry, was bestimmt auch interessieren dürfte...
Nun gut, um mal im theoretischen zu bleiben: Vor- und Nachteile des SLI.
Sammeln wir mal (fortlaufend, wird ergänzt)
PRO:
Massiv erhöhte Performance
Nachrüstbar
Einfaches System
Gut, das ist eigentlich alles selbsterklären. Eins zur Nach-/Aufrüstbarkeit, man könnte z.B. jetzt dann eine 6800 kaufen, und wenn die zu langsam wird einfach ne zweite dazu. Flutsch, ist die Geschwindigkeit signifikant erhöht
CONTRA:
Teuer
Erhöhter Stromverbrauch
Erhöhte Lautstärke (luftgekühlt)
Flexibilitätseinschränkung
Großer Platzverbrauch (weniger Steckkarten)
Auch hier, eigentlich in sich logisch. Zur Flexibilitätseinschränkung, man muss eben ein SLI- fähiges Mainboard haben (bzw. kaufen) und ist auf die selbe Grafikkarte beschränkt
Nehmen wir an, Person A hat sich entschlossen, im Dezember ein Nforce4- Mainboard (stellvertretend) zu kaufen und holt sich ne 6800 dazu.
Nach einem Jahr bemerkt er ein Ruckeln in Spiel X. Also holt er sich Informationen, was jetzt passend wäre- und schluckt erstmal.
Er könnte jetzt entweder eine weitere 6800 holen (allerdings gebraucht, die gibt's ja nimmer) oder alternativ ne ganz neue Karte- ATI hat da grad was ganz neues...die ist ja noch schneller als zwei 6800, aber dann wäre ja die Anschaffung des NForce4 unnötig gewesen... hmm, was denn nun? Verkaufen der 6800 oder Zukauf einer weiteren?
Ich denke, ihr seht alle das Problem an meiner kleinen Geschichte.
Diesen ersten Thread werde ich aktuell halten, also Links mit Benches, Vor- und Nachteile (ihr erinnert euch, ihr sollt mir helfen) und dergleichen.
Also, abschließende Frage: Werdet ihr SLI kaufen- und warum?
edits:
Hier ein theoretisches Bild, wie das aussehen könnte
Review bei anandtech
Golem hats am 3.11. gebracht: auch ATI baut an SLI (reim *g*)
Da es nicht ganz klar geworden zu sein scheint: Wasserkühlung ist montierbar! Siehe das Bild drei Zeilen drüber, zwischen den Karten ist genug Platz für einen Flachkühler, beispielsweise den von wassergekuehlt. Natürlich werden die Monsterpreis- Kühler von AC und Inno auch darauf passen, der von Alphacool wohl auch
__________________
Mein System
Punish my heaven- lyric mp3
Just know this:
Never (ever)
Never (never)
The meek and the wrong
The weak and the frail
Were never ever built to last
Were never ever built to last
Lethe
Brauche Hilfe bei nem neuartigen Casemod
Geändert von Kamui am 03.11.2004 um 13:24
Diesen Beitrag einem Moderator melden | Direktlink | IP: Gespeichert
16.10.2004 18:11
p4z1f1st
Grand Admiral
Special
Registriert seit: Apr 2003
Wohnort: Dietzenbach
Beiträge: 3531
also, ich hab ma NICHT gevotet, da ich selber net weiß was gemacht werden sollte.....
Pro und Contra haste ja schon aufgelistet.....und so alles in allem seh ich SLI dem Tod entgegenlaufen......KEIN MENSCH braucht sowas und deine Geschichte ist genau der knackpunkt.....die neue NV/ATI-Karte wird ganz sicher faste genauso schnell wie 2x 6800er sein (ma so provosorisch gesagt)....dafür wird sie aber evenutell z.B. DX10 können, oder den neuen OpenGL-standard, etc.....und die Karten werden sicher nicht soviel Strom saugen wie 2 6800 (also, welches model es genau ist, ist egal....es geht um das gesamtbild)....daher wäre der nF4-kauf schwachsinn....also, der nF4-SLI-board-kauf....ein normales hat natürlich sinn....
wenn mir andere sachen einfallen, poste ich wieda
__________________
System
|| AMD Athlon64 3200+ - Winchester - 2400MHz @ 1.525V
|| MSI K8N Neo2 Platinum
|| Leadtek GeForce6800-Ultra @ 475 / 1260MHz
|| GSkill PC4400 2x512MB @ 240MHz / 2.5-3-3-10-1T
|| Hitachi DeskStar 7k250 - sATA 80GByte
|| Creative Audigy2-ZS
|| OCZ Powerstream 520Watt @ 3.45V / 5.25V / 12.75V
3DMark01SE --- 3DMark03 --- 3DMark05 --- AquaMark3
Doom3 Timedemo1 --- UT2004 Benchmark --- ScienceMark2
SuperPI - 1M / 2M / 4M / 8M --- SiSoft Sandra - CPU Arithmetic
SiSoft Sandra - Memory Bandwidth --- SiSoft Sandra - CPU-MultiMedia
(del676)
2004-11-08, 08:40:46
zu fanboy: ich hab selbst eine 6800 und kaufe das, was jeweils schneller ist.punkt
zu unfreundlich: ich denke, der thread existiert nicht nur dazu, um zu schreiben, wie toll der artikel doch ist, sondern um kritik loszuwerden. und ich finde, die kolumne beschränkt sich zu sehr, eigentlich fast ausschlieslich, auf pro-sli, indem er ein paar contra-sli-argumente entkräftet- es entsteht der eindruck, sli ist die perfekte lösung.
ich hoffe auch für nvidia, dass sie wieder auf einen grünen ast kommen. aber um das zu schaffen, sollten sie sich von atis konservativität vielleicht doch ein bisschen was abschneiden...
von dir hab ich auch garned geredet :)
Quasar
2004-11-08, 08:41:24
Von Quantum3D gab es aber auch eine Voodoo2 SLI auf einem Board, allerdings hatte jede Voodoo2 dort nur einen TexelFX-Chip (so dass das Board insgesamt zwei Pipelines à einer TMU hatte).
Mag sein, daß es sowas auch gegeben hat - das Ding kenne ich nicht.
Die Quantum Obsidian2 X24 SBSLI die ich kenne, hat sechs Prozessoren - zwei Pixel- und vier Texeldinger.
Mark3Dfx
2004-11-08, 08:59:30
insgesamt guter artikel- blos finde ich pro und konta, bzw. kontra etwas zu einseitig beleuchtet.
man müsste erwähnen, dass sli mit 6800gt/ultra karten absolut überteuert ist.
was daran unerschwinglich ist, sind die preise der karten. und diese werden durch sli bestimmt nicht billiger.
Erinnern wir uns bitte was am Anfang eine V2 24MB SLI Kombo gekostet hat!
Ich seh es wie aths in seinem Artikel, der Preise für SLI fähige Boards werden dank das nF4 rasch fallen und so besteht immer eine
"günstigere Aufrüstoption" ala 2x 6600GT oder 6800 usw.
Tobias123
2004-11-08, 09:17:46
Also dieses mal kann ich der Meinung des Authors absolut nicht zustimmen....
Es stimmt zwar, dass man in der Zukunft kaum um SLI herumkommen wird (sowohl im GPU, als auch CPU-Bereich), aber die NVidia-SLI-Lösung auch nur in irgendeiner Form in Benchmarks mit aufzunehmen finde ich einfach nur Unsinn. Im Gegenteil: Diese Marketing-Lösungen (ich habe den längsten Balken) sollten generell nicht so große Beachtung finden... Wen interessiert es, wie schnell ein PentiumEE ist, wenn er nicht verfügbar ist? Wen interessiert es, wie schnell eine Ultra/XT-PE ist, wenn man sie nicht kaufen kann (bzw. konnte... im Mai wurden die Karten getestet). Und wen interessiert es ernsthaft, wie schnell die NVidia-SLI-Lösung ist, wenn man hierfür einen absolut unvernünftigen Aufwand (Netzteil, Board, Stromverbrauch, Hitzeentwicklung, Lautstärke...) betreiben muss.
Bzw. was mich wirklich ärgert ist die Tatsache, dass diese SLI-Diskussion überhaupt geführt wird... Es gibt so viele andere Sachen über die, nach meiner Meinung nach, intensiver geredet werden sollte.
Wieso gibt es nicht mal eine Kolumne bzgl. des Shimmering-Problems von GF6-Karten? Da werden doch deutlich mehr LEute angesprochen als bei dieser SLI-Geschichte. Ich musste meine 6800GT wieder gegen eine ATI umtauschen, da die Bildqualität (ohne Optimierungen) absolut unangemessen für eine High-End-Grafikkarte war... Überall im Netz gibt es Diskussionen bzgl. dieses Themas, aber keine größere Seite (wie 3DCenter) schreibt auch nur ein Sterbenswörtchen darüber... Statt die Wesentlichen Sachen zu behandeln, werden hier (nach meiner Meinung) relativ unrelevante Dinge bevorzugt... Was nützt mir SLI-Speed bei einer Bildqualität unterhalb der letzten Generation (egal ob ATI oder NVidia)...
Also ich konnte es kaum fassen, dass meine ehemalige GT so ein Rückschritt in Schen Bildqualität war... Gerade auf 3DCenter gibt es diese Parolen wie z.B. "wir wollen die volle Filterung" usw... Es ist mir ein Rätsel, warum dann diese Shimmer-Geschichte nicht weiter untersucht wird aber stattdessen nur positive Dinge bei NVidia angesprochen werden....
Schade... aber das ist mir alles zu inkonsistent...
Also dieses mal kann ich der Meinung des Authors absolut nicht zustimmen....
Es stimmt zwar, dass man in der Zukunft kaum um SLI herumkommen wird (sowohl im GPU, als auch CPU-Bereich), aber die NVidia-SLI-Lösung auch nur in irgendeiner Form in Benchmarks mit aufzunehmen finde ich einfach nur Unsinn. Im Gegenteil: Diese Marketing-Lösungen (ich habe den längsten Balken) sollten generell nicht so große Beachtung finden... Wen interessiert es, wie schnell ein PentiumEE ist, wenn er nicht verfügbar ist? Wen interessiert es, wie schnell eine Ultra/XT-PE ist, wenn man sie nicht kaufen kann (bzw. konnte... im Mai wurden die Karten getestet). Und wen interessiert es ernsthaft, wie schnell die NVidia-SLI-Lösung ist, wenn man hierfür einen absolut unvernünftigen Aufwand (Netzteil, Board, Stromverbrauch, Hitzeentwicklung, Lautstärke...) betreiben muss.
Bzw. was mich wirklich ärgert ist die Tatsache, dass diese SLI-Diskussion überhaupt geführt wird... Es gibt so viele andere Sachen über die, nach meiner Meinung nach, intensiver geredet werden sollte.
Wieso gibt es nicht mal eine Kolumne bzgl. des Shimmering-Problems von GF6-Karten? Da werden doch deutlich mehr LEute angesprochen als bei dieser SLI-Geschichte. Ich musste meine 6800GT wieder gegen eine ATI umtauschen, da die Bildqualität (ohne Optimierungen) absolut unangemessen für eine High-End-Grafikkarte war... Überall im Netz gibt es Diskussionen bzgl. dieses Themas, aber keine größere Seite (wie 3DCenter) schreibt auch nur ein Sterbenswörtchen darüber... Statt die Wesentlichen Sachen zu behandeln, werden hier (nach meiner Meinung) relativ unrelevante Dinge bevorzugt... Was nützt mir SLI-Speed bei einer Bildqualität unterhalb der letzten Generation (egal ob ATI oder NVidia)...
Also ich konnte es kaum fassen, dass meine ehemalige GT so ein Rückschritt in Schen Bildqualität war... Gerade auf 3DCenter gibt es diese Parolen wie z.B. "wir wollen die volle Filterung" usw... Es ist mir ein Rätsel, warum dann diese Shimmer-Geschichte nicht weiter untersucht wird aber stattdessen nur positive Dinge bei NVidia angesprochen werden....
Schade... aber das ist mir alles zu inkonsistent...
Guten morgen Tobias,
Sehr guter Beitrag!
Mal schaun wie es nun bei einigen "S(C)HIMMERT"!
Quasar
2004-11-08, 09:46:55
Du meinst also, man solle nur halbwegs verfügbare Karten 'gegeneinander' antreten lassen? Also X800 Pro gegen 6800GT?
Find' ich prinzipiell ok - aber wo beginnt 'ausreichende Verfügbarkeit'? Ich wette, es gibt genug rote und grüne Jungs, die dir auf Anhieb erzählen wollen, 'ihr' Spitzenmodell sei dort-und-dort bei Geizhals als lieferbar gelistet... ;)
Zu deinem Shimmering-Problem:
UT2004 habe ich mir jetzt mal angeschaut, da gibt es im Asbestos-Level, den auch Ailuros in seinem Review beanstandet hat, ein schwach sichtbares Mip-Band. Die neueren Treiber scheinen da wohl Abhilfe geschaffen zu haben.
In Painkiller muss ich mich leider erst noch in den Level durchballern, wo das Video entstanden ist (c5l1?) und BF1942 habe ich nicht.
mapel110
2004-11-08, 10:01:21
LOL
aus irgendeinem Grund hab ich so eine Kolumne erwartet. ;D
"Freunde einer Mittelklasse-Karte können sowieso nicht den Anspruch geltend machen, in jedem Fall alle zuschaltbaren Grafikeffekte zu sehen, und so ist die Limitierung auf Shader Model 2.0 bei den aktuellen ATI Mainstream-Karten noch kein ernster Hinderungsgrund."
Die 5200 wird hochgejubelt, weil es endlich DX9 im low-cost-Bereich gibt, und hier sagt man quasi, ist ja nicht schlimm, SM2.0 im mid range zu bringen. Karten sind eh in dem Segment für SM3.0 zu lahm.
Find ich schon verdammt grün. :(
CONTRA:
Teuer
Erhöhter Stromverbrauch
Erhöhte Lautstärke (luftgekühlt)
Flexibilitätseinschränkung
Großer Platzverbrauch (weniger Steckkarten)
Auch hier, eigentlich in sich logisch. Zur Flexibilitätseinschränkung, man muss eben ein SLI- fähiges Mainboard haben (bzw. kaufen) und ist auf die selbe Grafikkarte beschränkt
Sämtliche Gegenargumente scheren einen High End User einen Dreck!
Labberlippe
2004-11-08, 10:04:21
Hi
Ich wüsste eigentlich nicht wieso man SLI unbedingt schlecht reden sollte.
Nur sehe ich einfach das Problem daran, das im moment SLI im MidRange bereich nichts bringt, da 2 Karten nicht mehr performance bringen als eine HighEnd Karte.
Natürlich ist das ein nettes Feature, nur sollte man nicht vergessen, das die Mainboards mit 2x PCI E Steckplätzen teuer sind.
B: Man 2 HighEnd Karten braucht die einiges am NT abziehen, womit wieder in die andere HW investiert werden muss.
Ich würde es eher lässiger finden, wenn man versucht per Zusatzchip FSAA und AF zu steigern.
Quasi die Haupt GPU übernimmt das Rendering und ein Zusatzchip kümmert sich nur um FSAA/AF.
*Ein bischen umformuliert. :-D
Gruss Labberlippe
mapel110
2004-11-08, 10:12:32
Hi
Ich wüsste eigentlich nicht, das man SLI unbedingt schlecht reden sollte.
Nur sehe ich einfach das Problem daran, das auch im MidRange SLI nicht bringt, da 2 Karten nicht performance bringen als eine HighEnd Karte.
im Mid Range sehe ich das genauso.
Wenn man SLI nutzen möchte, muss man jetzt ein teures SLI Mobo kaufen und später eben die zweite mid Range Karte zu einem günstigeren Preis.
Beispiel:
Mobo 200 €
Graka 200 €
später nächste Graka 100 €
-----
500 €
Man kanns aber auch anders lösen. Jetzt eine Mid Range Karte kaufen und nicht auf ein speziellen Mobo angewiesen sein und später diese Mid Range Karte verkaufen und gegen eine günstiger gewordene ehemalige High End Karte tauchen.
Beispiel:
Mobo 100 €
Graka 200 €
Graka wieder verkaufen -70 €
Ehemalige High End Karte kaufen 300 €
---
530 €
zweite Lösung hätte den Vorteil, das es keine Ineffiziensprobs durch SLI hätte und somit die bessere Lösung darstellt.
Somit sehe ich keinen Sinn im Mid Range für dieses Feature. :)
Exxtreme
2004-11-08, 10:13:49
IMHO ist diese Kolumne stark pro-SLI und betrachtet die Sache viel zu einseitig. Aths sieht IMHO leider nur Nachteile in der Renderingineffizienz. Viele andere Nachteile dieser Lösung werden einfach nicht erwähnt. Da wären z.B. ein spürbar höherer Stromverbrauch und daraus resultierende Hitzeentwicklung. Ein gutes Netzteil kostet mehr und man muss auch höheren Aufwand treiben um die entstehende Wärme abzuführen. Wenn man nicht vorher vorgesorgt hat, ist ein einfaches Einstecken einer zweiten Karte nicht so einfach drin. Speziell wenn man zwei Ultras betreiben will. Und ein spezielles Motherboard braucht man auch noch dazu.
Gut, man kann jetzt argumentieren, daß wenn sich einer eine Ultra holt, daß er auch das Knowhow und Geld hat um für sowas vorzusorgen. Die Nachteile ausserhalb des Renderings sollte man IMHO aber trotzdem erwähnen. Denn dann sieht's mit der Effizienz noch schlechter aus.
Das Dualgespann Voodoo2 der Götter von 3dfx mit der Hinterhoflösung von nvidia zu vergleichen ist Blasphemie! ;D
So sehr ich das Ziel begrüße, die Umsetzung ist desaströs. Zwei Netzteile, Mig-19 Turbinenlautstärke, extra Mainboards.
Damals einfach eine erhältliche! Voodoo gekauft, in ein ganz gewöhliches Motherboard reingesteckt und Unreal in 1024 angeschmissen; am nächsten morgen beim Arzt den Kiefer wieder einrenken lassen :D
Exxtreme
2004-11-08, 10:55:34
So sehr ich das Ziel begrüße, die Umsetzung ist desaströs. Zwei Netzteile, Mig-19 Turbinenlautstärke, extra Mainboards.
Naja, zwei Netzteile braucht man zwar nicht aber selbst mit einem 400W Netzteil wird's knapp.
Und ja, die 3dfx'sche Lösung hatte damals nicht die Nachteile, die der NV40 in der Praxis jetzt hat.
deekey777
2004-11-08, 10:58:40
Das wichtigste und zZ einzige Gegenargument ist und bleibt: SLI ist von nVidia. :P
Der Rest wie Mehrverbrauch+höhere Wärmeentwicklung, höhere Anschaffungskosten, höhere Stromkosten sind doch keine Gegenargumente, sondern ein notwendiges Übel, welches mit Freude für jedes weitere Frame in Kauf genommen wird.
SLI scheint zu funktionieren und das ziemlich gut. Klar, es ist unflexibel, aber kann man nVidia vorwerfen, dass es zB nicht mit einer R420 funktioniert? Nein. Dass es aber nicht in einem Mischbetrieb NV45+NV43 funktioniert, kann man schon, muss man aber nicht.
Alles in einem ist SLI cool, nur braucht man richtige Grafikkarte dafür. ;D
Cadmus
2004-11-08, 11:07:25
Naja, zwei Netzteile braucht man zwar nicht aber selbst mit einem 400W Netzteil wird's knapp.
Und ja, die 3dfx'sche Lösung hatte damals nicht die Nachteile, die der NV40 in der Praxis jetzt hat.
Ich weiß zwar nicht, wie es damals bei der V² mit der Mehrleistung war, aber ich halte 60-70% bei den Geforce 6 Karten für eindeutig zuwenig. Zumal vor kurzem in den News stand, dass eine 6800 GT zwei 6600 GT immernoch in den Schatten stellt. Also, wer braucht SLI?
Labberlippe
2004-11-08, 11:17:39
Das wichtigste und zZ einzige Gegenargument ist und bleibt: SLI ist von nVidia. :P
Der Rest wie Mehrverbrauch+höhere Wärmeentwicklung, höhere Anschaffungskosten, höhere Stromkosten sind doch keine Gegenargumente, sondern ein notwendiges Übel, welches mit Freude für jedes weitere Frame in Kauf genommen wird.
SLI scheint zu funktionieren und das ziemlich gut. Klar, es ist unflexibel, aber kann man nVidia vorwerfen, dass es zB nicht mit einer R420 funktioniert? Nein. Dass es aber nicht in einem Mischbetrieb NV45+NV43 funktioniert, kann man schon, muss man aber nicht.
Alles in einem ist SLI cool, nur braucht man richtige Grafikkarte dafür. ;D
Hi
Aber genau das Argument mit Stromkosten, bringt es auf den Punkt.
Klar es wird sicher genug Käufer geben, dennen dieser Punkt egal.
Keine Frage, dann ist SLI für diese Käuferschicht ideal.
Nur SLI als die Lösung hinzustellen ist in meine Augen nicht sinnvoll.
Gruss Labberlippe
Quasar
2004-11-08, 11:34:20
Hi
Aber genau das Argument mit Stromkosten, bringt es auf den Punkt.
Klar es wird sicher genug Käufer geben, dennen dieser Punkt egal.
Keine Frage, dann ist SLI für diese Käuferschicht ideal.
Nur SLI als die Lösung hinzustellen ist in meine Augen nicht sinnvoll.
Gruss Labberlippe
Kennst du das Review der xBitLabs/Digit-Life bezgl. des Stromverbrauchs? Ultra und XPTE nehmen auch deutlich mehr Leistung mehr auf, als sie in FPS umsetzen können.
Das Problem hat SLI nicht allein.
StefanV
2004-11-08, 11:39:46
Naja, zwei Netzteile braucht man zwar nicht aber selbst mit einem 400W Netzteil wird's knapp.
Und ja, die 3dfx'sche Lösung hatte damals nicht die Nachteile, die der NV40 in der Praxis jetzt hat.
Naja, ich würd schon eher ein ATX 12V 2.0 NT nehmen, die man daran erkennen kann, das sie 2 12V Schinen haben, eine 'CPU 12V' und einhe 'I/O 12V', beide etwa gleich stark (etwa 17A)...
Wie dem auch sei:
SLI halte ich für einen netten Marketing Gag, bei Workstations mag das auch Sinn machen, um gegen die 3DLabs Armada bestehen zu können.
Nur als 'normaler Enduser' halte ich SLI für weniger sinnig...
Das allzusehr hochzuloben, das halte ich ebenfalls für falsch...
Die SLI Bretter hingegen haben durchaus ihre Berechtigung, z.B. mit 2 X300 GraKas drin, so das man 4 Schirme dran klemmen kann.
Nur kann man dazu auch die Bretter mit einem 'PCI AGP' nutzen...
Ergo als Office Rechner z.B. für Bildbearbeitung und Co sind die Bretter ganz nett, oder aber um den 2. PEG Slot als 'normalen' Slot zu missbrauchen und da einen RAID Controller mit x8 Connector reinzustecken...
Alles in allem ist SLi schon ganz nett, nur es zu Hypen ist völlig daneben...
deekey777
2004-11-08, 11:41:21
Hi
Aber genau das Argument mit Stromkosten, bringt es auf den Punkt.
Klar es wird sicher genug Käufer geben, dennen dieser Punkt egal.
Keine Frage, dann ist SLI für diese Käuferschicht ideal.
Nur SLI als die Lösung hinzustellen ist in meine Augen nicht sinnvoll.
Gruss Labberlippe
Wie gesagt, ist es eine Kolumne und kein wissenschaftlicher Artikel - es gibt keine falschen oder richtigen Meinungen, sondern nur die Meinung des Verfassers.
Heute und morgen ist SLI noch nicht notwendig, sondern eher etwas, was man nicht braucht, aber haben will. Was aber nicht heisst, dass es übermorgen nicht sinnvoller wäre, lieber ein Grafikkartenverbund einzusetzen als eine einzelne Grafikkarte, die zwar die gleiche Leitung bringt, aber wirtschaftlich gesehen viel teurer ist.
tombman
2004-11-08, 12:01:09
also diesmal stimme ich ahts zu-- spiegelt ziemlicg genau meine Meinung wider.
Und diese ganzen Strom-Hitze-Kosten basher sollte man ignorieren, ich hör´da höchstens Neid raus, ned mehr.
Wo SLI für mich keinen Sinn macht, ist 2 x Midrange = high end.
Denn man ist besser beraten seine Midrange Karte zu verkaufen und gleich EIN high end Modell zu nehmen, wenn man mehr Leistung will.
Rechenbespiel: (geschätzt, MR = midrange, HE = high end)
sli mobo 170€
1x HE 500€
später 1x MR (ehemals HE) dazu 250€ (ebay)
_____________________________________
gesamt 920€
Also 920€ um die selbe Leistung wie zukünftiges HE zu erreichen mit wahrscheinlich weniger features. (das neue HE wird ja ned nur schneller sondern auch featurereicher)
Oder:
Normales Mobo: 140€
1x HE 500€
ehemals HE (jetzt MR) verkaufen -250€ (ebay bei NP von 300€ :D)
künftiges HE kaufen 500€
_________________________________________
gesamt 890€
Also 890€ für die selbe Leistung wie unser SLI Freund ABER mit neuen features da neueste Technik :D
Und wenn man noch mögliche Mehrkosten für neues Netzteil, eventuell Gehäuselüfter dazurechnet kommt siehts für SLI ned so rosig aus.
Fazit: die Option "später eine 2t dazu" find ich ned sinnvoll.
SLi hat eigentlich nur den Sinn JETZIGES high-end nochmal um Faktor 1.5 bis 2 zu steigern und somit die neuesten games in sehr hohen Auflösungen mit AA zu gamen.
Viele neue games haben gar keine Möglichkeit mehr AA zu forcen weil sie diese deppaten full-screen-effects-to-texture rendern und dann entweder gar kein AA zeigen oder Massenhaft Fehler produzieren. Da bleibt dann nur mehr als Ausweg 2048x1536 zu fahren um kein AA erträglich zu machen. (hab gestern versucht auf der 6800 4x super sampling bei DTM 2 zu forcen --> nix da, nur scheiß Fehler. MOHPA genauso, da warens zwar keine Fehler aber trotzdem kein AA)
Und der trend Richtung "wir pissen auf AA" seitens der developer nimmt bedenkliche Ausmaße an.
Dh, sehr hohe Auflösungen werden immer wichtiger, da braucht man eben SLi und entsprechenden Monitor.
Gesamtfazit: SLi nur für den Uber-high-end (;D) Bereich interessant.
mapel110
2004-11-08, 12:06:28
viel text
Sehr schön ausgeführt! Sehe ich genauso, wie man schon auf Seite 1 des Threads lesen kann. :)
minimum
2004-11-08, 12:07:10
zum artikel bezogen:
3Dfx
"Die zuletzte releaste Voodoo5 konnte weder EMBM noch Dot3 Bumpmapping, noch hatte sie anisotrope Filterung anzubieten."
Soso, nun schauen wir mal bei der GF2GTS nach ob die das konnte.
DOT3: Beep - nö !
Anisotrope Filterung - weis ich gerade nicht, aber wenn lang die Leistung sowieso nicht um es zu nutzen.
Die Kyro II kontne den ganzen Mist, aber auf mehr als einen damaligen Achtungserfolg kam sie auch nicht (und wenn sie schon immer PowerVR XY ankündigen: releast das ding auch !).
=die Voodoo 5 war nciht veraltet als sie rauskam, sie war cnith mehr fortschrittlich, aber zeitgemäß. Sinst würde die Karte nach fast 5 Jahren wohl kaum noch irgendwo Erwähnung finden.
Der Rampage wäre genial geworden, eine neue Ära an der nVidia zu kauen gehabt hätte (und das wussten sie wohl...)
SLI
ist nicht schlecht, wahnsinnige Leistung steckt da drin.
Nur sind die nVidia-Chips, mit ihrem Shader 3.0 den keiner braucht,
ein bißchen fettleibig im Stromverbrauch.
Zwei X700 wären immernoch sehr schnell und einigermaßen sparsam.
Aber ich denke das der Mehraufwand an Material in keinem Bezug zu rLeistung steht und absolut nicht gerechtfertigt ist.
Baut einfach einen guten Chip und ihr müsst keine 2 08-15 auf einem Board vereinen. Warum hat niemand den Tieled Renderer weiterentwickelt ?
mapel110
2004-11-08, 12:12:32
zum artikel bezogen:
3Dfx
"Die zuletzte releaste Voodoo5 konnte weder EMBM noch Dot3 Bumpmapping, noch hatte sie anisotrope Filterung anzubieten."
Soso, nun schauen wir mal bei der GF2GTS nach ob die das konnte.
DOT3: Beep - nö !
Anisotrope Filterung - weis ich gerade nicht, aber wenn lang die Leistung sowieso nicht um es zu nutzen.
Die Kyro II kontne den ganzen Mist, aber auf mehr als einen damaligen Achtungserfolg kam sie auch nicht (und wenn sie schon immer PowerVR XY ankündigen: releast das ding auch !).
=die Voodoo 5 war nciht veraltet als sie rauskam, sie war cnith mehr fortschrittlich, aber zeitgemäß. Sinst würde die Karte nach fast 5 Jahren wohl kaum noch irgendwo Erwähnung finden.
Der Rampage wäre genial geworden, eine neue Ära an der nVidia zu kauen gehabt hätte (und das wussten sie wohl...)
SLI
ist nicht schlecht, wahnsinnige Leistung steckt da drin.
Nur sind die nVidia-Chips, mit ihrem Shader 3.0 den keiner braucht,
ein bißchen fettleibig im Stromverbrauch.
Zwei X700 wären immernoch sehr schnell und einigermaßen sparsam.
Aber ich denke das der Mehraufwand an Material in keinem Bezug zu rLeistung steht und absolut nicht gerechtfertigt ist.
Baut einfach einen guten Chip und ihr müsst keine 2 08-15 auf einem Board vereinen. Warum hat niemand den Tieled Renderer weiterentwickelt ?
Geforce2 konnte 2xAF, kyro2 auch
Wie gesagt, Stromverbrauch find ich uninteressant.
Ich würde mich da auch speziell Tombman anschliessen und sagen, dass SLI nur für denjenigen in Frage kommt, der jetzt sofort 2 High End Grakas im Verbund haben will und nicht später erst nachrüstet.
Wie gesagt, später gibts neue Generation mit selben Speed, aber mehr Features.
Labberlippe
2004-11-08, 12:15:03
Wie gesagt, ist es eine Kolumne und kein wissenschaftlicher Artikel - es gibt keine falschen oder richtigen Meinungen, sondern nur die Meinung des Verfassers.
Heute und morgen ist SLI noch nicht notwendig, sondern eher etwas, was man nicht braucht, aber haben will. Was aber nicht heisst, dass es übermorgen nicht sinnvoller wäre, lieber ein Grafikkartenverbund einzusetzen als eine einzelne Grafikkarte, die zwar die gleiche Leitung bringt, aber wirtschaftlich gesehen viel teurer ist.
Hi
Ich frage mich ob SLI Übermorgen dann notwendig ist.
Die Technik geht so oder so weiter.
Ich sage ja das SLI im High End Segment etwas bringt und jeder der auf die Stromleistung pfeift, wird auch SLI implementieren. (Geldbeutel vorrausgesetzt.)
Ich persönlich bin halt der Meinung das SLI nicht die Lösung ist.
Das hat nichts mit Neid (Ja Tomban Dein Statement ist heir gemeint) oder gebashe zu tun.
Jeder setzt halt seine Prioritäten anders.
Ich würde es eher vernünftiger halten wenn im schlimmsten Fall 2 GPus auf einen Board sind.
Einer macht die Texturen der andere Konzentriert sich eben auf FSAA.
(Ja ich weiss wohl, das dieses nicht wirklich möglich ist.)
Natürlich wäre bei diesen Schema auch die Stromleistung höher.
Was rauskommt werden wir ja sehen, mal gucken mit welchen Ideen die Hersteller uns noch überraschen.
Aber mit irgendwas muss ja mal angefangen werden.
Gruss Labberlippe
tombman
2004-11-08, 12:15:05
Geforce2 konnte 2xAF, kyro2 auch
Wie gesagt, Stromverbrauch find ich uninteressant.
Ich würde mich da auch speziell Tombman anschliessen und sagen, dass SLI nur für denjenigen in Frage kommt, der jetzt sofort 2 High End Grakas im Verbund haben will und nicht später erst nachrüstet.
Wie gesagt, später gibts neue Generation mit selben Speed, aber mehr Features.
das "später Nachrüsten" würd nur Sinn machen wenn einem gerade das Geld für 2x HE fehlt und man in 1 bis 3 Monaten die 2te HE Karte dazukaufen will (jedenfalls deutlich VOR dem release der nächsten Generation), aber sonst fällt mir kein Grund mehr ein ;D
Thowe
2004-11-08, 12:15:58
Kennst du das Review der xBitLabs/Digit-Life bezgl. des Stromverbrauchs? Ultra und XPTE nehmen auch deutlich mehr Leistung mehr auf, als sie in FPS umsetzen können.
Das Problem hat SLI nicht allein.
Eben, man könnte dank SLI durchaus Systeme aufbauen, die im Stromverbrauch einer Single-Karte deutlich überlegen sind und unterm Strich doch das gleiche leisten. Im Prinzip wäre das auch der Weg leisere Grafikkarten zu produzieren.
Was für Prozessoren gilt, gilt für Grafikkarten genau so und tendenziell sogar noch eher.
Keine Grafikkarten-Hersteller kann sich mitlerweile mehr ernsthaft leisten, das er jedes Jahr ein neuen Grafikchip auf den Markt bringt. Die Entwicklungskosten stehen eben nicht in der Relation zu den einnahmen. Hier wird alleine dieser Umstand diktieren, dass andere Lösungen herhalten müssen und hier ist eine Multichip-Architektur in der ein oder anderen Form sicherlich eine denkbare Lösung.
Chipstrukturen sind eben nicht beliebig verkleinerbar und dadurch höher taktbar, die Ausbeute steigt eben nicht bei erhöhter Komplexität. Neue Verfahren sind unglaublich teuer zu etablieren, ein Umstand, den zuletzt AMD sehr schmerzlich beim A64 gemerkt hat und lange Zeit kaum einen Chip "ausbeuten" konnte, der mehr als 1000 Mhz gepackt hätte und das Unternehmen fast in den Konkurs trieb.
Sicherlich, zu bezahlen wäre dieser Wahnsinn, doch wer ist bereit für seine nächste Grafikkarte 5000,- Euro zu bezahlen? Immer vorrausgesetzt das die Anzahl der verkauften HighEnd-Karten nicht sinkt und auch der Midrange-Bereich noch gut in gleiche preislicher Relation bedient wird.
Was nun das Netzteil angeht, die GT verbraucht 55W, die Ultra 72W, wenn ich das richtig in Erinnerung habe. Ein HighEnd-System mit A64-3800, 2GB RAM, 2x Festplatte, optische Laufwerke etc. wird somit einen maximalen Verbrauch von etwa 300-330W haben, sofern nicht übertaktet. Dafür braucht man kein ach so tolles und teures Netzteil, ein wirklich gutes 400W Netzteil sollte da bequem reichen und auch von der Verlustleitungs, durch einen effizient genutzten Wirkungsgrad, eben nicht viel mehr verbrauchen als ein "Standardnetzteil", das mir eben immer gerne so viele empfehlen wollen. Wen es interessiert, die tollen NoName 550W Netzteile verpuffen rund 150W als Abwärme, weil sie nie in einem Bereich gefahren werden, wo der Wirkungsgrad wirklich effizient ist.
Also bevor jemand erzählen will, das SLI ihn arm macht durch den erhöhten Stromverbrauch, soll derjenige mir mal bitte sagen, was für ein Netzteil er denn im Rechner hat. Ich glaube ich könnte so manch einen vorrechnen, wie sie wirklich Geld sparen könnten, wenn sie einfach mal über ein gutes Netzteil nachdenken.
Ausserdem gilt immer, die beste Lösung ist für mich die, die mein Geldbeutel zuläßt. Wer also meint das die X800 die beste Lösung für ihn ist - greift zu und wer meint, das eine SLI GF6800U das beste für ihn ist - greift zu. Wer es immer noch nicht rafft, das sind unterschiedliche Märkte die bedient werden sollen und SLI macht in gewissen "Nieschenbereiche" durchaus einen horrenden Sinn. Immer dann, wenn der PC ein Werkzeug und kein Spielzeug ist.
Jedem das Seine und wer anderen das mies reden will, der ist nur eines, neidisch. Aber das wird wohl keiner zugeben können, im Sinne von wollen. Keine Angst, niemand zwingt euch dazu dies zu sein, erfreut euch einfach an euren eigenen Balken, egal wie kurz oder lang er auch ist und vor allem, werdet doch einfach glücklich damit, ihr braucht niemanden etwas zu beweisen, oder?
tombman
2004-11-08, 12:19:54
...erfreut euch einfach an euren eigenen Balken, egal wie kurz oder lang er auch ist...
MUAHAAHAHHA :D:D
mapel110
2004-11-08, 12:23:32
ihr braucht niemanden etwas zu beweisen, oder?
Doch, wir müssen hier Aussagen des Artikels relativieren. Ist ja schliesslich eine äusserst, subjektive Meinung eines Users, der obendrein Kontakte zu diesem IHV hat. :)
Naja, zwei Netzteile braucht man zwar nicht aber selbst mit einem 400W Netzteil wird's knapp.
Und ja, die 3dfx'sche Lösung hatte damals nicht die Nachteile, die der NV40 in der Praxis jetzt hat.
Von welcher Praxis sprichst du ?
Hat jemand schon ERFAHRUNGEN mit einem SLI PC, duerhaftes Spielen.
Wie stabil läuft das System at home im 8 Stunden Dauerbetrieb???
Fragen über Fragen die diese Komumne eigentlich beantworten sollte, bevor mann danach schreit!
:-)
Gaestle
2004-11-08, 12:57:22
@aths:
Eine Frage:
Für den Midrange-Bereich empfiehlst Du selten unverblümt die X700XT zu kaufen. Begründung: 6 Vertex-Shader +besser AA-Leistung, AA sieht besser aus, "nur" SM2.0 ist nicht schlimm
Nun sehe ich dies aber als 180°-Wende bezüglich vorherigen Meiningen:
- 6 Vertex-Shader braucht derzeit und die nächsten Jahre kein Mensch im Privatsektor (stammt AFAIR von Dir)
- Midrange ist für AA sowieso zu schwach
- NV hat das Abtastmuster verbessert und bekommt jetzt ATi-Quali hin
- SM3.0 kann Speed bringen
Warum empfiehlst Du plötzlich die X700XT? Ich möchte Dir keine grüne Brille unterstellen, aber bislang fand ich Deine Argumente pro Technologie immer sehr deutlich aber auch sehr schlüssig. Nur bei diese unverblümten Empfehlung habe ich den Verdacht, dass Du Dich ein wenig selbst aus der Schusslinie nehmen willst, auch für den Preis, etwas zu sagen, von dem Du nicht überzeugt bist...
*frag*
Grüße
reunion
2004-11-08, 12:59:20
Von welcher Praxis sprichst du ?
Hat jemand schon ERFAHRUNGEN mit einem SLI PC, duerhaftes Spielen.
Nein, weil aktuell weder NV-PCIe karten die SLi beherrschen noch ein entsprechendes Mainboard zu kaufen sind.
Quasar
2004-11-08, 13:01:10
Soso, nun schauen wir mal bei der GF2GTS nach ob die das konnte.
DOT3: Beep - nö !
Anisotrope Filterung - weis ich gerade nicht, aber wenn lang die Leistung sowieso nicht um es zu nutzen.
Die Kyro II kontne den ganzen Mist, aber auf mehr als einen damaligen Achtungserfolg kam sie auch nicht (und wenn sie schon immer PowerVR XY ankündigen: releast das ding auch !).
=die Voodoo 5 war nciht veraltet als sie rauskam, sie war cnith mehr fortschrittlich, aber zeitgemäß. Sinst würde die Karte nach fast 5 Jahren wohl kaum noch irgendwo Erwähnung finden.
Der Rampage wäre genial geworden, eine neue Ära an der nVidia zu kauen gehabt hätte (und das wussten sie wohl...)
SLI
ist nicht schlecht, wahnsinnige Leistung steckt da drin.
Nur sind die nVidia-Chips, mit ihrem Shader 3.0 den keiner braucht,
ein bißchen fettleibig im Stromverbrauch.
Zwei X700 wären immernoch sehr schnell und einigermaßen sparsam.
Aber ich denke das der Mehraufwand an Material in keinem Bezug zu rLeistung steht und absolut nicht gerechtfertigt ist.
Baut einfach einen guten Chip und ihr müsst keine 2 08-15 auf einem Board vereinen. Warum hat niemand den Tieled Renderer weiterentwickelt ?
Komisch, meine GF2u kann Dot3 - scheinst du gerade mit EMBM zu verwechseln, oder? ;)
Und AF kann sie auch - zwar nur 2xAF, aber immerhin. Und soviel Performance kostete das nichtmal - 20 - 25% IIRC. ;)
Bezgl. der 'fettleibigen' Leistungsaufnahme: Lies' dir mal den xBit/Digit-Life-Artikel über den Stromverbrauch durch. ;)
Quasar
2004-11-08, 13:04:31
Gaestle,
6 Vertex-Shader kann man gut gebrauchen, wenn man einen langen e-penix für 3DMarks vortäuschen will. Und eben in CAD/CAM-Anwendungen, aber das widerspricht teilw. ja schon wieder dem Privatsektor.
Die knapp bemessenen ROPs finde ich bei der 6600 da schon schlimmer, denn immerhin schlägt die angekündigte Mid-Range das alte High-End (R9800, FX5900) teilweise schon - und etwas AA ist sicherlich auch oft drin.
Exxtreme
2004-11-08, 13:05:56
Und diese ganzen Strom-Hitze-Kosten basher sollte man ignorieren, ich hör´da höchstens Neid raus, ned mehr.
Mir ging es mitnichten darum SLI zu bashen. Ich finde nur, daß man sowas nicht unerwähnt lassen sollte.
karx11erx
2004-11-08, 13:13:52
Ich frage mich, wozu man die Rechenleistung einer GF 6800-SLI-Konfig überhaupt brauchen sollte. Um Doom 3 in 1600x1200 mit 150 fps spielen zu können? Sorry, so gut war das Spiel wirklich nicht. Oder dann STALKER? Ich denke, mir reichen 60 fps Average, und nächstes Jahr bringt ATi die nächste Kartengeneration heraus (und NVidia wird wohl nicht untätig zuschauen).
Spätestens 2006 ist DX 9 out, da wird dann wieder neue Hardware fällig.
Wer da über 1000 € nur für eine GF SLI-Lösung ausgeben will (geeignetes Netzteil und Mobo noch gar nicht eingerechnet), der hat entweder schon alles, oder braucht immer die neueste Schwanzverlängerungs-Hardware. :D
Bevor ichs vergesse: Die Radeon-GPUs sind von Haus aus schon immer Multichip-fähig, ATi hat bloß noch nie ne Consumer-Lösung draus gebastelt.
Quasar
2004-11-08, 13:27:49
Ich frage mich, wozu man die Rechenleistung einer GF 6800-SLI-Konfig überhaupt brauchen sollte.
Dann gehörst du offensichtlich nicht zur Zielgruppe. ;)
Es gibt z.B. auch noch höhere Auflösungen als 1600x1200, es gibt HDR und es gibt natürlich neben den Supersampling-AA Modi auch Games, die auch einfach "so" in hohen Auflösungen nicht flüssig (genug) für den Geschmack mancher laufen.
Ausserdem gibt es noch die Möglichkeit, die Rechenkraft zu nutzen, ohne damit bunte Bilder auf den Bildschirm zu werfen.
deekey777
2004-11-08, 13:28:03
Ich frage mich, wozu man die Rechenleistung einer GF 6800-SLI-Konfig überhaupt brauchen sollte. Um Doom 3 in 1600x1200 mit 150 fps spielen zu können? Sorry, so gut war das Spiel wirklich nicht. Oder dann STALKER? Ich denke, mir reichen 60 fps Average, und nächstes Jahr bringt ATi die nächste Kartengeneration heraus (und NVidia wird wohl nicht untätig zuschauen).
Spätestens 2006 ist DX 9 out, da wird dann wieder neue Hardware fällig.
Wer da über 1000 € nur für eine GF SLI-Lösung ausgeben will (geeignetes Netzteil und Mobo noch gar nicht eingerechnet), der hat entweder schon alles, oder braucht immer die neueste Schwanzverlängerungs-Hardware. :D
Bevor ichs vergesse: Die Radeon-GPUs sind von Haus aus schon immer Multichip-fähig, ATi hat bloß noch nie ne Consumer-Lösung draus gebastelt.
Warum verbindest du mit SLI nur die heute verfügbaren Grafikkarten? aths sprach doch davon, dass SLI für die Zukunft eine Lösung ist.
Frage@all: Was ist SLI? Ist es nur ein Verbund zweier Grafikkarten, oder doch eine Technologie? Wenn man nicht zu eng sieht, dann könnte man sagen, dass auch eine Multichipgrafikkarte eine Art SLI-Lösung darstellt.
deekey777
2004-11-08, 13:31:38
Mir ging es mitnichten darum SLI zu bashen. Ich finde nur, daß man sowas nicht unerwähnt lassen sollte.
Natürlich, SLI kostet prinzipiell immer mehr, als es bringt: Die Kosten sind immer mehr als doppelt so hoch, während die Leistung niemals doppelt so hoch sein kann...
Es wird schon darauf eingegangen, aths erwartet aber auch, dass der Leser auch etwas logisch denken kann.
Oder sind wir hier ComputerBild@3D-Center? ;D
Exxtreme
2004-11-08, 13:37:35
Es wird schon darauf eingegangen, aths erwartet aber auch, dass der Leser auch etwas logisch denken kann.
Oder sind wir hier ComputerBild@3D-Center? ;D
Die Kosten sind eigentlich MEHR als doppelt so hoch. Du musst nämlich noch für die richtige Infrastruktur sorgen um SLI überhaupt/stabil betreiben zu können.
(del676)
2004-11-08, 13:44:01
Die Kosten sind eigentlich MEHR als doppelt so hoch. Du musst nämlich noch für die richtige Infrastruktur sorgen um SLI überhaupt/stabil betreiben zu können.
wenn du von der aktuellen situation sprichst ja, wenn wir eine graka mit 2 gpus ansehen siehts wieder anders aus
Mir ging es mitnichten darum SLI zu bashen. Ich finde nur, daß man sowas nicht unerwähnt lassen sollte.
Es blieb auch nicht unerwähnt.
Zitat:
"Natürlich, SLI kostet prinzipiell immer mehr, als es bringt: Die Kosten sind immer mehr als doppelt so hoch, während die Leistung niemals doppelt so hoch sein kann. Das ist aber kein wirklich stichhaltiges Argument gegen diese Technik."
Eben, man könnte dank SLI durchaus Systeme aufbauen, die im Stromverbrauch einer Single-Karte deutlich überlegen sind und unterm Strich doch das gleiche leisten. Im Prinzip wäre das auch der Weg leisere Grafikkarten zu produzieren.
Was für Prozessoren gilt, gilt für Grafikkarten genau so und tendenziell sogar noch eher.
Keine Grafikkarten-Hersteller kann sich mitlerweile mehr ernsthaft leisten, das er jedes Jahr ein neuen Grafikchip auf den Markt bringt. Die Entwicklungskosten stehen eben nicht in der Relation zu den einnahmen. Hier wird alleine dieser Umstand diktieren, dass andere Lösungen herhalten müssen und hier ist eine Multichip-Architektur in der ein oder anderen Form sicherlich eine denkbare Lösung.
Hallo lieber Thowe,
Ich weiss nicht warum du behauptest kein Grafikkarten-Hersteller könne es sich nicht mehr leisten jedes Jahr einen NEUEN Chip zu entwickeln.
Arbeitest du bei einem ??
Dem muss ich wiedersprechen.
Beispiel:
ATI hatte im Dezember 2003 die 9800XT rausgebracht, basierend auf 9700, ein paar Monate später kam die X800 basierend auf 9800XT. Jetzt kommt bald die XXX und in 6 Monaten soll ja der nächste Chip basierend auf der XXX oder der X800 XT kommen.
Trotz dieser ganzen Entwicklungen ist der Gewinn hingegen zu anderen sehr hoch gewesen und im Vergleich zu den Jahren davor auch immer STABIL geblieben!
Thema lautlose Grafik:
Einige Partner von ATI, Sapphire zB. haben sogar eine 9800Pro 256MB als PASSIV-Lösungen entwickelt!
Lautlose Grafik exestiert bereits!
Stromverbrauch:
no comment*g*, da noch keine Boards oder geschweige den der andere in den aktuellen Midrange-Produkten dieses Feature unterstützt kann mann hier nur wenig zu sagen.
Fazit:
Es kann ja niemand was dazu wenn andere mit Ihren Chips keine Gewinne mehr erwirtschaften, das ist der LAUF der DINGE!
Memo:
Irgendwo hatte ich etwas bezüglich 4-Schirm-Lösung hier gelesen als Grund für SLI!
Hierzu sei gesagt, dass 4-Schirm-Lösungen ausschliesslich im CAD-Bereich Ihre Berechtigung finden. Weiterhin gibt es von Matrox eine 4-Schirm Lösung zu kaufen.
Alles in allem ist SLI, bzw. der Grundgedanke sicherlich eine Überlegung wert und wird aber eine REINE NISCHENLÖSUNG sein und bleiben!
Moderne Hardware wie zB. die X800 XT PE bieten reichlich Leistung für heutige Anwendungen, dies gilt im übrigen auch für künftige VGA-Karten.
Viele Grüsse
Thowe
2004-11-08, 14:07:52
Warum verbindest du mit SLI nur die heute verfügbaren Grafikkarten? aths sprach doch davon, dass SLI für die Zukunft eine Lösung ist.
Frage@all: Was ist SLI? Ist es nur ein Verbund zweier Grafikkarten, oder doch eine Technologie? Wenn man nicht zu eng sieht, dann könnte man sagen, dass auch eine Multichipgrafikkarte eine Art SLI-Lösung darstellt.
Ich für meinen Teil würde in diesem Fall das sehen, was die meisten damit verbinden, die Zusammenschaltung zweier Karten/Chips um eine deutliche Mehrleistung zu erzielen. Die Technik des Wies, die würde ich hier eher sekundär bewerten.
Im Moment mag SLI nicht derart die Rolle spielen, aber ich möchte jeden einfach mal an das "Desaster" Prescott erinnern und dem damit beschleunigten Umschwenken von Intel auf DualCore Technologie. Viele haben mit dem Prescott sich eine Mehrleistung bei weniger Stromverbrauch versprochen und was unterm Strich blieb, war der Versuch den Takt zu erhöhen bei der Verschlimmbesserung der derzeitigen Architektur. So wurde das Wunderkind zum schwarzen Schaf in der Familie und Intel versucht wohl nur noch das beste aus dem teuren Design zu konservieren.
Intel kann sich solche Erkenntnisse leisten, AMD, NVIDIA und ATI aber nicht.
Man sollte vielleicht mehr zwischen Multikarten und Multichiplösung unterscheiden.
Eine Multikartenlösung wird immer ein Nischenprodukt bleiben. Multichiplösung sind dagegen unproblematisch, weil es den meisten egal ist, was auf der Karte jetzt eigentlich drauf ist.
Kommen wird das allerdings erst im Consumermarkt, wenn sie die Probleme mit der Speicherverwaltung wirklich im Griff haben, die Fertigungstechnik ausgereizt ist, aber man trotzdem unbedingt mehr Leistung braucht, und wenn ein Kostenvorteil dadurch entsteht (genau das wird sehr hart).
Ich seh für mich persönlich da erst eine brauchbare Lösung drin, wenn ich mit der Abwärme Wasser kochen kann. ;D
Tobias123
2004-11-08, 14:23:42
Letztendlich wurde es ja hier schon öfter geschrieben, aber keiner hat darauf geachtet: Der Artikel spricht die ZUKUNFT an... Ja klar, in Zukunft kann SLI, wie auch immer, durchaus sinnvoll sein...
Was ich aber nicht verstehe (verstehen will) ist die Tatsache, dass man nun NVidia diesbezüglich "loben" soll?!?
Es ist doch immer wieder das gleiche Spiel: Bisher war jede NVidia-Karte von den Features her den entsprechenden Gegenstücken von ATI überlegen. Auch eine GF-FX konnte auf dem Papier mehr als eine Radeon9800....
- Aber wie war das denn? Konnte man bei der TNT1 32Bit vernünftig nutzen? Antwort: Nein, zu langsam
- Funktionierte das neue Dot3-BumpMapping auf einer GF2? Antwort: Nur in Demos - in Spielen zu langsam
- Was brachte AGP bzgl. dem Riva128 - Antwort: absolut nichts
- Was bringt HDR bei der GF6? - Antwort: Eindeutig bessere Optik, aber zum Spielen zu langsam
- ...
Wie man es dreht, die NVidia-Karten haben die tollsten und neusten Features...
Aber was bringt es letztendlich dem Käufer? Außer einem unbegründeten ruhigem Gewissen etwas "zukunftstaugliches" gekauft zu haben? - Absolut nichts... Man könnte sich als Wegbereiter für neue Technologien sehen und sich auf die Schulter klopfen. Mehr nicht.
Es gab so gut wie nie ein neues Feature, welches in der ersten Version auch nur ansatzweise brauchbar war....
Nach meiner Meinung kann man das auch auf SLI übertragen... Wenn es so weit kommt, dass aktuelle Spiele auf einer Ultra ruckeln sollten, wird es bereits neue Mid-Range-Karten geben, welche den Kauf einer zweiten "veralteten" Karte relativieren....
Gleiches gilt für SM3.0.... Klar wird es genutzt werden, aber PixelShader4.0 ist schon auf dem Weg und wird zwingend vorrausgesetzt wenn man neuere Windows-Versionen nutzen möchte....
Wenn man schon mehrere Jahre (jahrzehnte) Computer-Erfahrung mitbringt, wird man ernüchternd feststellen, dass man immer die HW kaufen sollte, die einem jetzt, heute und hier die erwünschte Leistung/Qualität liefert, die man erwartet hat.
Und SLI ist für 99.99% der Enduser momentan einfach Unsinn, da eine Karte mehr als genügend Leistung bietet. Ist es einmal nicht mehr der Fall, wird man lieber zu einer moderneren Karte greifen, statt sich eine zweite Karte zu kaufen...
seahawk
2004-11-08, 14:31:12
Das Problem für den normalen User ist doch,dass er sich sofort ein SLI-Board kaufen muss. Kauft er heute z.B. eine 6800GT reicht die Leistung in normalen Settings locker 6-9 Monate. Kriegt er dann noch ne andere 6800GT neu gekauft ??
Paßt ein entsprechend schneller CPU dann noch auf sein SLI-Board, da man den beiden GPUs ja auch eine entsprechend starke CPU dazu geben muss.
Für mich ist SLI heute nur ein Marketinggag für die 3DMark-Jünger.
Wenn sich die Produktzyklen der Hersteller von CPUs und GPUs aml verlangsamen, dann wird es auch für die Mehrheit der User sinnvoll.
Man sollte vielleicht mehr zwischen Multikarten und Multichiplösung unterscheiden.
Eine Multikartenlösung wird immer ein Nischenprodukt bleiben. Multichiplösung sind dagegen unproblematisch, weil es den meisten egal ist, was auf der Karte jetzt eigentlich drauf ist.
Kommen wird das allerdings erst im Consumermarkt, wenn sie die Probleme mit der Speicherverwaltung wirklich im Griff haben, die Fertigungstechnik ausgereizt ist, aber man trotzdem unbedingt mehr Leistung braucht, und wenn ein Kostenvorteil dadurch entsteht (genau das wird sehr hart).
Ich seh für mich persönlich da erst eine brauchbare Lösung drin, wenn ich mit der Abwärme Wasser kochen kann. ;D
Hallo RLZ,
sehr GUTER PUNKT!
Der aktuelle 9100IGP PRo Chipsatz von ATI ist meines Wissens nach der einizige der das kann im Mainboardbereich, das bedeutet, das die integrierte Grafik nicht ausgeschaltet werden muss wenn der User eine AGP-Karte nachrüstet!
Dann können mit dieser problemlosen Lösungen bis zu 3 Monitore angesprochen werden.
Bezüglich der Speicherproblematik möchte ich hiermal auf den Punkt Hypermemory zu sprechen kommen, den ja ATI gerade für dieses Problem entwickelt hat.
Was ist Hypermemory:
Bei Hypermemory wird vom Systemspeicher immer soviel Speicher für die Grafikkarte bereitgestellt (bis max 128MB vom Systemspeicher, wie aktuell benötigt wird. dieses passiert entgegen zum anderen nicht STATISCH sondern temporär!
Diese Technologie wird bei PCI Express verwendet und hat den Vorteil von 4GB/sec. Datenübertragung.
Viele Grüsse
Thowe
2004-11-08, 14:40:18
Hallo lieber Thowe,
Ich weiss nicht warum du behauptest kein Grafikkarten-Hersteller könne es sich nicht mehr leisten jedes Jahr einen NEUEN Chip zu entwickeln.
Arbeitest du bei einem ??
Dem muss ich wiedersprechen.
Nein, ich arbeite weder bei NV noch bei ATI, aber das ändert auch nichts daran, das die Kosten für die Chipentwicklung im allgemeinen explosionshaft steigen und die Gewinne hier nicht mitziehen können. Deshalb versuchen Hersteller wie NV und ATI eben im Massenmarkt mit mehr "Komponenten" Fuß zu fassen um überhaupt in Zukunft eine Überlebungschance zu haben. Der Consumerbereich wird immer wesentlicher für sie und deshalb wird man auch hier Märkte bedienen und die Frage bleibt, kann man dabei den Prestige-Markt weiterhin bedienen.
Ein Beispiellink (http://www.eetimes.de/semi/news/showArticle.jhtml?articleID=47205120), aber dennoch gibt es viele Quellen die das durchaus belegen. Kleinere Strukturen, höhere Dichte und mehr Funktionen (unabhängig von IP und den damit verbundenen Probleme) bedeuten eben auch immer ein deutliches Plus an Entwicklungskosten. Der Marktabsatz müsste im gleichen Verhältnis steigen, damit dies finanzierbar ist. Die Idee ist in etwa so bescheiden, wie die, eine Seifenblase auf Heissluftballongröße aufzublasen. Sorry, aber es gibt marktwirtschaftliche und physische Gesetze die man nicht so einfach umgehen kann.
Thema lautlose Grafik:
Einige Partner von ATI, Sapphire zB. haben sogar eine 9800Pro 256MB als PASSIV-Lösungen entwickelt!
Das ist so nicht richtig, der Kühler kam komplett von Zalman, den Sapphire bei der Ultimate Edition verwendete. Das Problem dabei war nur, das die Karte in einem Silentsystem eben überhitzte, es muss also dabei eine gute Gehäusekühlung vorliegen, damit dieses Konzept greifen kann. Aber es gibt mitlerweile durchaus Lösungen, wie z.B. der Kühler von AeroCool, die dies bedingt ermöglichen. Aber ein Luftstrom der die Konvektion anregt muss zwingend im Gehäuse gegeben sein.
... Stromverbrauch:
no comment*g*, da noch keine Boards oder geschweige den der andere in den aktuellen Midrange-Produkten dieses Feature unterstützt kann mann hier nur wenig zu sagen.
Fürs Board ansich kann man einfach rund 10W an Mehrverbrauch ansetzen, sprich dieser steigt von rund 30W auf 40W, dazu addiert man den Verbrauch der Karte. Das ist zwar noch kein Messwert, dürfte aber in der Praxis in etwa aufkommen.
Fazit:
Es kann ja niemand was dazu wenn andere mit Ihren Chips keine Gewinne mehr erwirtschaften, das ist der LAUF der DINGE!
Das ist ziemlicher Blödsinn, unterm Strich nehmen sich die Highend Karten von ATI und NV alle nicht viel. Es gibt Unterschiede auf technologischer Natur oder eben welche bei der Geschwindigkeit. Wer hier massive Unterschiede sieht, der sollte einfach seine rosarote Brille absetzen und sich mit der Realität konfrontieren. Wer allerdings meint das es "In" ist den Konkurrenten zu baschen, der sollte sich fragen, ob seine Zeit tatsächlich derart wertlos ist, das er diese derart verschwenden kann oder aber sein Ego derart begrenzt ist, das er dies als Bestätigung braucht. Ich für meinen Teil denke, man kann die Zeit durchaus sinniger nutzen, notfalls mal den Bürgersteig fegen, immer noch sinniger als stupider Flamewar und wer seinem Ego dienen will, es gibt genügend Arbeit auf freiwilliger Basis bei den Sozialdiensten. Nur zu!
Memo:
Irgendwo hatte ich etwas bezüglich 4-Schirm-Lösung hier gelesen als Grund für SLI!
Hierzu sei gesagt, dass 4-Schirm-Lösungen ausschliesslich im CAD-Bereich Ihre Berechtigung finden. Weiterhin gibt es von Matrox eine 4-Schirm Lösung zu kaufen.
Alles in allem ist SLI, bzw. der Grundgedanke sicherlich eine Überlegung wert und wird aber eine REINE NISCHENLÖSUNG sein und bleiben!
4 Schirmlösungen mit 3D Power gibts quasi gar nicht. Es gibt aber auch viele Bereiche, wo eine Mehrschirmlösung ausserhalb von CAD eben Sinn macht. Ich kenne es z.B. aus den medizinischen Bereichen, die meisten Operationen in der Kardiologie brauchen das durchaus. Allerdings braucht es dafür kein SLI, hier tun addierte "normale" Karten auch.
Moderne Hardware wie zB. die X800 XT PE bieten reichlich Leistung für heutige Anwendungen, dies gilt im übrigen auch für künftige VGA-Karten.
Viele Grüsse
Es gibt Bereiche wo es kein "reichlich" gibt, immer dann wenn Zeit=Geld ist und da macht SLI einen Spagatt zwischen Leistung und Kosten. Das passt durchaus, mehr Karten als 2 würde dort auch noch Sinn machen.
Wenn ich auf meinen 20" TFT in der 1600 Auflösungen mit vollem AA und AF spielen will, egal was ich an Spiele habe, denke ich, kann mir SLI dabei auch helfen dies zu tun.
Ebensogut könnte ich auch behaupten, das 30PS bei jedem Fahrzeug ausreichend sind. Die Logik ist etwa gleich, aber der Unsinn ist deutlicher. Ausreichend ist das, was ich für mich als solches definiere und nicht das, was andere meinen als solches diktieren zu müssen.
Thowe
2004-11-08, 14:47:27
Man sollte vielleicht mehr zwischen Multikarten und Multichiplösung unterscheiden.
Eine Multikartenlösung wird immer ein Nischenprodukt bleiben. Multichiplösung sind dagegen unproblematisch, weil es den meisten egal ist, was auf der Karte jetzt eigentlich drauf ist.
Kommen wird das allerdings erst im Consumermarkt, wenn sie die Probleme mit der Speicherverwaltung wirklich im Griff haben, die Fertigungstechnik ausgereizt ist, aber man trotzdem unbedingt mehr Leistung braucht, und wenn ein Kostenvorteil dadurch entsteht (genau das wird sehr hart).
Ich seh für mich persönlich da erst eine brauchbare Lösung drin, wenn ich mit der Abwärme Wasser kochen kann. ;D
Jein, allerdings ist der Markt der Personen die sich selbst eine Grafikkarte in den Rechner einbauen auch ein "Nischenmarkt", innerhalb dieser Relation. Kostentechnisch wäre es wohl sinniger mehrere Chips auf eine Karte zu setzen, dann fällt aber auch die Option weg, das man in Zukunft "Power" nachrüstet. Beide Ideen haben vor und Nachteile und beide sind durchaus addierbar. Zum jetzigen Zeitpunkt ist es eher eine Idee für die Zukunft, die in der Gegenwart durch das Marketing des Herstellers schamlos ausgenutzt wird. Aber was solls, so werde eben Märkte heute geschaffen, von selbst sind sie ja nicht da und davon lebt unser Marktsystem.
Nein, ich arbeite weder bei NV noch bei ATI, aber das ändert auch nichts daran, das die Kosten für die Chipentwicklung im allgemeinen explosionshaft steigen und die Gewinne hier nicht mitziehen können. Deshalb versuchen Hersteller wie NV und ATI eben im Massenmarkt mit mehr "Komponenten" Fuß zu fassen um überhaupt in Zukunft eine Überlebungschance zu haben. Der Consumerbereich wird immer wesentlicher für sie und deshalb wird man auch hier Märkte bedienen und die Frage bleibt, kann man dabei den Prestige-Markt weiterhin bedienen.
Ein Beispiellink (http://www.eetimes.de/semi/news/showArticle.jhtml?articleID=47205120), aber dennoch gibt es viele Quellen die das durchaus belegen. Kleinere Strukturen, höhere Dichte und mehr Funktionen (unabhängig von IP und den damit verbundenen Probleme) bedeuten eben auch immer ein deutliches Plus an Entwicklungskosten. Der Marktabsatz müsste im gleichen Verhältnis steigen, damit dies finanzierbar ist. Die Idee ist in etwa so bescheiden, wie die, eine Seifenblase auf Heissluftballongröße aufzublasen. Sorry, aber es gibt marktwirtschaftliche und physische Gesetze die man nicht so einfach umgehen kann.
Das ist so nicht richtig, der Kühler kam komplett von Zalman, den Sapphire bei der Ultimate Edition verwendete. Das Problem dabei war nur, das die Karte in einem Silentsystem eben überhitzte, es muss also dabei eine gute Gehäusekühlung vorliegen, damit dieses Konzept greifen kann. Aber es gibt mitlerweile durchaus Lösungen, wie z.B. der Kühler von AeroCool, die dies bedingt ermöglichen. Aber ein Luftstrom der die Konvektion anregt muss zwingend im Gehäuse gegeben sein.
Fürs Board ansich kann man einfach rund 10W an Mehrverbrauch ansetzen, sprich dieser steigt von rund 30W auf 40W, dazu addiert man den Verbrauch der Karte. Das ist zwar noch kein Messwert, dürfte aber in der Praxis in etwa aufkommen.
Das ist ziemlicher Blödsinn, unterm Strich nehmen sich die Highend Karten von ATI und NV alle nicht viel. Es gibt Unterschiede auf technologischer Natur oder eben welche bei der Geschwindigkeit. Wer hier massive Unterschiede sieht, der sollte einfach seine rosarote Brille absetzen und sich mit der Realität konfrontieren. Wer allerdings meint das es "In" ist den Konkurrenten zu baschen, der sollte sich fragen, ob seine Zeit tatsächlich derart wertlos ist, das er diese derart verschwenden kann oder aber sein Ego derart begrenzt ist, das er dies als Bestätigung braucht. Ich für meinen Teil denke, man kann die Zeit durchaus sinniger nutzen, notfalls mal den Bürgersteig fegen, immer noch sinniger als stupider Flamewar und wer seinem Ego dienen will, es gibt genügend Arbeit auf freiwilliger Basis bei den Sozialdiensten. Nur zu!
[QUOTE]Memo:
Irgendwo hatte ich etwas bezüglich 4-Schirm-Lösung hier gelesen als Grund für SLI!
Hierzu sei gesagt, dass 4-Schirm-Lösungen ausschliesslich im CAD-Bereich Ihre Berechtigung finden. Weiterhin gibt es von Matrox eine 4-Schirm Lösung zu kaufen.
Alles in allem ist SLI, bzw. der Grundgedanke sicherlich eine Überlegung wert und wird aber eine REINE NISCHENLÖSUNG sein und bleiben! [QUOTE]
4 Schirmlösungen mit 3D Power gibts quasi gar nicht. Es gibt aber auch viele Bereiche, wo eine Mehrschirmlösung ausserhalb von CAD eben Sinn macht. Ich kenne es z.B. aus den medizinischen Bereichen, die meisten Operationen in der Kardiologie brauchen das durchaus. Allerdings braucht es dafür kein SLI, hier tun addierte "normale" Karten auch.
Es gibt Bereiche wo es kein "reichlich" gibt, immer dann wenn Zeit=Geld ist und da macht SLI einen Spagatt zwischen Leistung und Kosten. Das passt durchaus, mehr Karten als 2 würde dort auch noch Sinn machen.
Wenn ich auf meinen 20" TFT in der 1600 Auflösungen mit vollem AA und AF spielen will, egal was ich an Spiele habe, denke ich, kann mir SLI dabei auch helfen dies zu tun.
Ebensogut könnte ich auch behaupten, das 30PS bei jedem Fahrzeug ausreichend sind. Die Logik ist etwa gleich, aber der Unsinn ist deutlicher. Ausreichend ist das, was ich für mich als solches definiere und nicht das, was andere meinen als solches diktieren zu müssen.
Hallo Thowe,
Du behauptest viel ohne Quellenverweise!
Ich helfe dir ein bissel zum Thema Gewinn nach! Geh einfach auf eine Börsenseite und vergleiche ATI mit de(N)m anderen.
Deine Argumentation hinsichtlich der Kühlung wiederspricht sich zum Thema SLI, kannst du dir vorstellen welche Temp. erreicht wird bei bei 2 Stück 6800 Ultra in einem Gehäuse!?
4 Schirmlösungen in Krankenhäusern werden anders realisiert, zufäliigerweise kann ich da Siemens als Quellennachweis nennen die Racksysteme mit jeweils 4 PC Einheiten mit 4 Grafikkarten an Krankenhäuser aktuell liefern!
Das ist sogar Vorschrift das das System so laufen muss, hier wäre SLI fatal wenn (EIN) das Board ausfallen würde.
Alles in allem platzen deine Argumentations-Blasen gerade, nicht übel nehmen, iss halt so*g*
Viele Grüsse
Jein, allerdings ist der Markt der Personen die sich selbst eine Grafikkarte in den Rechner einbauen auch ein "Nischenmarkt", innerhalb dieser Relation..
Lieber Thowe,
ich mußte diesen Satz 3-Mal lesen um deine Meinung zu verstehen.
Du behauptest also das die gesamte IT-Distribution in der durchschnittlioch mehr als 2 Mio Grafikkarten pro Jahr verkauft werden ein "NISCHENMARKT" ist!? Sich niemand eine Karte selber einbauen kann!?
Weiterhin sind 90% der 499€ PC's mit integrierter Grafik in der das Aufrüsten einer Grafikkarte sehr viel bringt! Wieviel Marktanteil ein 499€ PC besitzt möchte ich jetzt nicht ausführen.*g*
Bitte bestätigen, ob ich dich so RICHTIG gelesen habe!
Viele Grüsse
Obwohl ich selber nVidia-User bin ist mir die Kolummne ebenfalls zu einseitig und ich bin überhaupt nicht aths Meinung. Hatte damals selber ne Voodoo2-SLI Kombo. Das war zwar ganz toll um den anderen auf der LAN die Augen rausfallen zu lassen, mehr aber als nen leeren Geldbeutel hat's mir im Endeffekt nicht unbedingt gebracht.
Jetzt fehlt nur noch ne Kolummne: "Wer braucht schon SLI?", dann wär ich wieder bezähmt ;)
Thowe
2004-11-08, 15:16:52
Hallo Thowe,
Du behauptest viel ohne Quellenverweise!
www.eetimes.com, www.eedesign.com etc. pp.
Ich helfe dir ein bissel zum Thema Gewinn nach! Geh einfach auf eine Börsenseite und vergleiche ATI mit de(N)m anderen.
Brauch ich nicht, da ich die "Gewinne" durchaus kenne. Die Angaben dort sind immer sehr mit Vorsicht zu geniessen, sie sagen nichts darüber aus, welche Kosten noch gedeckt werden müssen oder welche in naher Zukunft entstehen werden. Es geht eben nur darum, das man in solchen Statistiken besonders gut ausschaut, nichts anderes als das, was andere mit den Arbeitslosenstatistiken machen.
Deine Argumentation hinsichtlich der Kühlung wiederspricht sich zum Thema SLI, kannst du dir vorstellen welche Temp. erreicht wird bei bei 2 Stück 6800 Ultra in einem Gehäuse!?
Kann ich durchaus, das ist deutlich weniger als du denkst. Aber ich sprach ja auch im Vorfeld davon, das man durch den Einsatz zweier eher vernünftig getakteter Karten hier einen deutlich weniger Abwärmeanteil/Verlustleistung hat und solche Geschosse wie die Ultra-Karten eben ad absurdum fährt. Die würden dann in echten HighEndSystem innerhalb der Entwicklung, 3D Desing etc. Sinn machen. Wo der Rechner nicht mal das kostet, was ein Mitarbeiter der daran arbeitet im Monat an Kosten verursacht.
Ganz ab davon könnte man durch den Einsatz von Kühlern wie den NV-Silencer das Problem gleich nach draussen blasen oder aber man nimmt gleich eine Wasserkühlung, bei Rechnerkosten von ein paar tausend Euro spielt das auch keine Rolle mehr.
4 Schirmlösungen in Krankenhäusern werden anders realisiert, zufäliigerweise kann ich da Siemens als Quellennachweis nennen die Racksysteme mit jeweils 4 PC Einheiten mit 4 Grafikkarten an Krankenhäuser aktuell liefern!
Das ist sogar Vorschrift das das System so laufen muss, hier wäre SLI fatal wenn (EIN) das Board ausfallen würde.
War ja nur ein Beispiel von vielen die Mehrschirmlösungen bedürfen, aber auch hier würde SLI als redundantes System Sinn machen, wenn man SLI denn dahingehend verkaufen/erweitern will.
Alles in allem platzen deine Argumentations-Blasen gerade, nicht übel nehmen, iss halt so*g*
Viele Grüsse
Meinst du, aber das spielt dabei gar keine Rolle, es gibt immer noch die, die es tatsächlich wissen.
Thowe
2004-11-08, 15:21:21
Lieber Thowe,
ich mußte diesen Satz 3-Mal lesen um deine Meinung zu verstehen.
Du behauptest also das die gesamte IT-Distribution in der durchschnittlioch mehr als 2 Mio Grafikkarten pro Jahr verkauft werden ein "NISCHENMARKT" ist!? Sich niemand eine Karte selber einbauen kann!?
Weiterhin sind 90% der 499€ PC's mit integrierter Grafik in der das Aufrüsten einer Grafikkarte sehr viel bringt! Wieviel Marktanteil ein 499€ PC besitzt möchte ich jetzt nicht ausführen.*g*
Bitte bestätigen, ob ich dich so RICHTIG gelesen habe!
Viele Grüsse
2 Millionen verkaufter Grafikkarten bedeuten nicht, das diese von den Käufern auch verbaut wurden. Ein Großteil der Karten werden eben vom "kleinen Händler" um die Ecke in BTO Systeme verbaut.
Richtiger wäre es wohl, wenn man nur von den echte HighEnd-Geschossen ausgeht, diese werden wohl vom Großteil der Kunden selbst eingebaut, aber auch diese wird eine SLI-Lösung nicht zu überfordern wissen.
Quasar
2004-11-08, 15:22:33
Obwohl ich selber nVidia-User bin ist mir die Kolummne ebenfalls zu einseitig [...]
'Tschuldige, Kai, wenn ich grade dein Posting als Aufhänger nehme.
Es handelt sich hier um eine Kolumne - keinen objektiven Test oder dergleichen. SLI aus Sicht von aths - es kann gar nicht anders sein, als einseitig, weil per definitionem eben nur seine Sichtweise hierbei eine Rolle spielt....
Thowe
2004-11-08, 15:23:27
Obwohl ich selber nVidia-User bin ist mir die Kolummne ebenfalls zu einseitig und ich bin überhaupt nicht aths Meinung. Hatte damals selber ne Voodoo2-SLI Kombo. Das war zwar ganz toll um den anderen auf der LAN die Augen rausfallen zu lassen, mehr aber als nen leeren Geldbeutel hat's mir im Endeffekt nicht unbedingt gebracht.
Jetzt fehlt nur noch ne Kolummne: "Wer braucht schon SLI?", dann wär ich wieder bezähmt ;)
Los, schreiben :D
Aber aths hats auch nicht auf die Voodoo2 bezogen, auch hier richtig geschrieben, das die Fälle wos Sinn ergibt eher selten waren. Aber das SLI der Voodoo soll ja auch nur als Idee (weils schon mal vorhanden war und der Begriff darauf aufbaut) dienen.
Ganz RICHTIG!
Da nv aber nichts anderes derzeit zu erzählen hat freuen sich grünen immer über einseitige Berichterstattung!Das ist keine Berichterstattung, das ist eine Kolumne.
Das schreiben im übrigen andere Foren ber SLI, für meinen Geschmack wesentlich strukturierter und durchdacht!In der Kolumne kam es mir nicht so sehr auf die jetzige SLI-Lösung (mit ihren Nachteilen) an, es ging eigentlich um den Dualboard-Einsatz ansich.
www.eetimes.com, www.eedesign.com etc. pp.
Brauch ich nicht, da ich die "Gewinne" durchaus kenne. Die Angaben dort sind immer sehr mit Vorsicht zu geniessen, sie sagen nichts darüber aus, welche Kosten noch gedeckt werden müssen oder welche in naher Zukunft entstehen werden. Es geht eben nur darum, das man in solchen Statistiken besonders gut ausschaut, nichts anderes als das, was andere mit den Arbeitslosenstatistiken machen.
Kann ich durchaus, das ist deutlich weniger als du denkst. Aber ich sprach ja auch im Vorfeld davon, das man durch den Einsatz zweier eher vernünftig getakteter Karten hier einen deutlich weniger Abwärmeanteil/Verlustleistung hat und solche Geschosse wie die Ultra-Karten eben ad absurdum fährt. Die würden dann in echten HighEndSystem innerhalb der Entwicklung, 3D Desing etc. Sinn machen. Wo der Rechner nicht mal das kostet, was ein Mitarbeiter der daran arbeitet im Monat an Kosten verursacht.
Ganz ab davon könnte man durch den Einsatz von Kühlern wie den NV-Silencer das Problem gleich nach draussen blasen oder aber man nimmt gleich eine Wasserkühlung, bei Rechnerkosten von ein paar tausend Euro spielt das auch keine Rolle mehr.
War ja nur ein Beispiel von vielen die Mehrschirmlösungen bedürfen, aber auch hier würde SLI als redundantes System Sinn machen, wenn man SLI denn dahingehend verkaufen/erweitern will.
Meinst du, aber das spielt dabei gar keine Rolle, es gibt immer noch die, die es tatsächlich wissen.
Lieber Thowe,
SLI wird aber leider z.Z. nur von Highendkarten von den anderen unterstützt, im Mainstream-Bereich macht SLI soviel Sinn wie mit einem Toaster Eier kochen zu wollen!
Deine Aussagen zu Gewinnen würde ich mir Vorsicht vertreten, da wir hier von Aktienunternehmen sprechen denen du unbewußt Betrug vorwirfst!
Das würde sofort auffallen und bekannt sein, bitte lass dieses Thema als Verloren von dir stehen, da ich müde werde mich hier zu wiederholen.
Den Punkt "Kühlung" finde ich sehr spannend und weiterhin offen in unserer Diskussion, ich möchte hierzu noch erwähnen das es bereits Multi-Lösungen von Alienware gibt die sowohl ATI und die anderen berücksichtigen. Dieser Markt wird weitesgehend von Alienware beherrscht und wird sicherlich nicht durch die anderen sichtlich beeinflusst!
Im Highendbereich / entwicklerbereich (3D-Design) hat zudem keiner Lust "Betatester" zu spielen, da der Ausfall eines Rechners samt User mehrer 1.000€ am Tag kosten würde, ganz zu schweigen von den Kosten die entstehen würden bei Projektverschiebung. In diesem Bereich werden CAD-Karten verwendet und sicher kein SLI-System mit 2*6800 Ultra, es sei denn die Heizung viele aus*ggggg*
Als letzten Punkt möchte ich mir mich bei dir bedanken für die Bestätigung das dieser SLI-PC mehrer 1.000€ kosten würde, das bestaätigt meine Meinung hinsichtlich der Nische, wobei die Kühllösung das Gehäuse sprengen würde und eine Sondernafertigung hier auch erforderlich wäre.
Viele Grüsse
2 Millionen verkaufter Grafikkarten bedeuten nicht, das diese von den Käufern auch verbaut wurden. Ein Großteil der Karten werden eben vom "kleinen Händler" um die Ecke in BTO Systeme verbaut.
Richtiger wäre es wohl, wenn man nur von den echte HighEnd-Geschossen ausgeht, diese werden wohl vom Großteil der Kunden selbst eingebaut, aber auch diese wird eine SLI-Lösung nicht zu überfordern wissen.
Jaklar,
Deswegen geht es unseren Fachhändler auch so gut*g*, die derzeitige Marktverschiebung in RICHTUNG ONLINE-Handel oder Flächenmärkte wie Mediamarkt oder Tankstellen ist allg. unbestritten.
Dort werden selbstverständlich FACHKOMPETENT Grafikkarten eingebaut*g*
Der kleine Fachhändler macht gerade einmal 20% des gesamten Grafikkartenmarktes aus.
Richtig ist mit Sicherheit der Aspekt Highend, einem Highenduser ist durchaus zuzumuten zig 1.000€ auszugeben um Stand heute 30% MEHRLEISTUNG zu bekommen.
Er könnte allerding auch ein halbes Jahr warten und die gleiche bzw. bessere Leistung mit NEUSTER Pixeshader-techn. zu erwerben.
Sicherlich macht das Sinn*g*
Und wen interessiert es ernsthaft, wie schnell die NVidia-SLI-Lösung ist, wenn man hierfür einen absolut unvernünftigen Aufwand (Netzteil, Board, Stromverbrauch, Hitzeentwicklung, Lautstärke...) betreiben muss.Ja, im Moment haben wir das Problem, dass es für SLI noch keine Bridges im Handel gibt (jedenfalls weiß ich davon nicht), dass es die von NV oft mit SLI getestete 6800 U PCIe noch nicht zu kaufen gibt, dass es kaum passende Mainboards gibt, dass der Kühlaufwand steigt, auch die Lautstärke immerhin um ca. 30% usw. usf.
Doch SLI find ich per se gut. Damit die Entwicklung reift, muss überhaupt erst mal mit ihr angefangen werden.
Wieso gibt es nicht mal eine Kolumne bzgl. des Shimmering-Problems von GF6-Karten?Es gibt viele Artikel, die sich primär um den Texturfilter drehen und beklagen, dass hier wieder mal Qualität geopfert wird. Um was zum Texture Shimmering bei der GF6 zu schreiben, müsste ich erst mal eine GF6 haben – im Moment sehe ich mich allerdings nach 'ner ATI um.
"Freunde einer Mittelklasse-Karte können sowieso nicht den Anspruch geltend machen, in jedem Fall alle zuschaltbaren Grafikeffekte zu sehen, und so ist die Limitierung auf Shader Model 2.0 bei den aktuellen ATI Mainstream-Karten noch kein ernster Hinderungsgrund."
Die 5200 wird hochgejubelt, weil es endlich DX9 im low-cost-Bereich gibt, und hier sagt man quasi, ist ja nicht schlimm, SM2.0 im mid range zu bringen. Karten sind eh in dem Segment für SM3.0 zu lahm.Zur 5200 wird es vermutlich irgendwann ne extra Kolumne geben. Zu dem Widerspruch den du angesprochen hast, der resultiert aus unterschiedlichen Herangehensweisen bzw. Betrachtungswinkeln.
Thowe
2004-11-08, 15:42:34
... Deine Aussagen zu Gewinnen würde ich mir Vorsicht vertreten, da wir hier von Aktienunternehmen sprechen denen du unbewußt Betrug vorwirfst!
Iwo.
Den Punkt "Kühlung" finde ich sehr spannend und weiterhin offen in unserer Diskussion, ich möchte hierzu noch erwähnen das es bereits Multi-Lösungen von Alienware gibt die sowohl ATI und die anderen berücksichtigen. Dieser Markt wird weitesgehend von Alienware beherrscht und wird sicherlich nicht durch die anderen sichtlich beeinflusst!
Alienware hat als Hauptkunden auch solche, die einfach das "Beste" erwarten und auch bereit sind viel Geld dafür zu zahlen.
Im Highendbereich / entwicklerbereich (3D-Design) hat zudem keiner Lust "Betatester" zu spielen, da der Ausfall eines Rechners samt User mehrer 1.000€ am Tag kosten würde, ganz zu schweigen von den Kosten die entstehen würden bei Projektverschiebung. In diesem Bereich werden CAD-Karten verwendet und sicher kein SLI-System mit 2*6800 Ultra, es sei denn die Heizung viele aus*ggggg*
Wieso Betatester? Ich denke schon das NV durchaus das Potential hat hier stabile Treiber in kürzester Zeit zu liefern. Im übrigen braucht eine Karte wie die Wildcat Realizim 800 durchaus ihre 150W, also nichts weniger als die beiden Ultras.
Als letzten Punkt möchte ich mir mich bei dir bedanken für die Bestätigung das dieser SLI-PC mehrer 1.000€ kosten würde, das bestaätigt meine Meinung hinsichtlich der Nische, wobei die Kühllösung das Gehäuse sprengen würde und eine Sondernafertigung hier auch erforderlich wäre.
Viele Grüsse
HighEnd ist immer Nische, aber eben auch der Prestige-Markt. Das mit Midrange und SLI bessere Lösungen denkbar sind, ist dabei eine andere Geschichte.
IMHO ist diese Kolumne stark pro-SLI und betrachtet die Sache viel zu einseitig. Aths sieht IMHO leider nur Nachteile in der Renderingineffizienz. Viele andere Nachteile dieser Lösung werden einfach nicht erwähnt.Die meisten anderen Nachteile sind durch technischen Fortschritt in den Griff zu kriegen oder deutlich verringerbar. Das Extra-Mainboard wird aber angesprochen. Neben der Möglichkeit, zwei Highendkarten zu koppeln gehts auch darum, zwei Midend-Karten zu nutzen, hier sollte die Wärmeentwicklung nicht das große Problem sein.
Man muss sich beim Thema beschränken. Das ist ja keine Kolumne zum Thema Silent PC.
Ich weiß zwar nicht, wie es damals bei der V² mit der Mehrleistung war, aber ich halte 60-70% bei den Geforce 6 Karten für eindeutig zuwenig. Zumal vor kurzem in den News stand, dass eine 6800 GT zwei 6600 GT immernoch in den Schatten stellt. Also, wer braucht SLI?Das habe ich im Text nur zwischen den Zeilen behandelt. Klar ist die aktuelle Effizienz deutlich unter 100%.
Aber, zukünftige Architekturen (WGF lässt grüßen) werden vermutlich noch weniger gut für SLI sein. Wenn NV jetzt mit der Forschung und Entwicklung beginnt, haben wir im WGF-Zeitalter höhere Effizienz als ohne vorherige Forschung.
Thowe
2004-11-08, 15:51:53
Jaklar,
Deswegen geht es unseren Fachhändler auch so gut*g*, die derzeitige Marktverschiebung in RICHTUNG ONLINE-Handel oder Flächenmärkte wie Mediamarkt oder Tankstellen ist allg. unbestritten.
Den deutschen Fachhandel geht es deswegen so gut, weil sie meinen auf preislicher Ebene konkurrieren zu müssen und dabei vergessen, was einen Fachhandel eben vom Discounter unterscheidet. Aber das ist hier sicher nicht das Thema. Die meisten "Fachhändler" sind eh nur für 2 Jahre am Start.
Dort werden selbstverständlich FACHKOMPETENT Grafikkarten eingebaut*g*
Im echten Fachhandel, sicher. Nicht jeder traut sich das zu und wenn dort für ein paar Euro oder eben kostenlos die neue Karte eingebaut wird, warum also nicht. Es scheint mir, das du hier den Fachhandel nicht zwischen einem realen und den schlechten Beispielen unterscheiden kannst oder willst.
Der kleine Fachhändler macht gerade einmal 20% des gesamten Grafikkartenmarktes aus.
Was auch nichts darüber aussagt, welches die Kartenmärkte sind, die er primär bedient.
Richtig ist mit Sicherheit der Aspekt Highend, einem Highenduser ist durchaus zuzumuten zig 1.000€ auszugeben um Stand heute 30% MEHRLEISTUNG zu bekommen.
Es gibt Leute die geben für Chiptuning mehr Geld aus, nur um ein paar PS mehr zu haben, die sie hinterher gut im Stadtverkehr nutzen können.
Er könnte allerding auch ein halbes Jahr warten und die gleiche bzw. bessere Leistung mit NEUSTER Pixeshader-techn. zu erwerben.
Sicherlich macht das Sinn*g*
Eben dann nicht, wenn der Markt zunehmend stagnieren wird und das steht in Zukunft zu erwarten.
Iwo.
Alienware hat als Hauptkunden auch solche, die einfach das "Beste" erwarten und auch bereit sind viel Geld dafür zu zahlen.
Wieso Betatester? Ich denke schon das NV durchaus das Potential hat hier stabile Treiber in kürzester Zeit zu liefern. Im übrigen braucht eine Karte wie die Wildcat Realizim 800 durchaus ihre 150W, also nichts weniger als die beiden Ultras.
HighEnd ist immer Nische, aber eben auch der Prestige-Markt. Das mit Midrange und SLI bessere Lösungen denkbar sind, ist dabei eine andere Geschichte.
Lieber Thowe,
kleine Erinnerung:
Zitat von Thowe
www.eetimes.com, www.eedesign.com etc. pp.
Brauch ich nicht, da ich die "Gewinne" durchaus kenne. Die Angaben dort sind immer sehr mit Vorsicht zu geniessen, sie sagen nichts darüber aus, welche Kosten noch gedeckt werden müssen oder welche in naher Zukunft entstehen werden. Es geht eben nur darum, das man in solchen Statistiken besonders gut ausschaut, nichts anderes als das, was andere mit den Arbeitslosenstatistiken machen.
Zitat Ende:
Deine restliche Argumenation kommt immer mehr der Realität nahe!
Highend ist Nische, Prestige, Alienware -> Kunden die immer das BESTE wollen.
SLI im Mainstreambereich macht keinen Sinn, da eine einzelne Highendekarte immer schneller sein wird als 2* Entry oder Mainstreamkarten. Belege hierzu liefern sogar die anderen FREI HAUS!
Weiterhin ist die Lösung mit den ABGESPECKTEN Karten derzeit noch gar nicht realisiert, das wäre genauso vermessen wenn ATI behaupten würde mann könne zukünftlich 1* PCI Karte, 1* AGP - Karte und 1* PCI Express und ontop noch die integrierte IGP9100Pro in einem Mainboard gleichzeitig laufen lassen.
*g* Zur bessere Kühlung wird der PC gleich in einem Kühlschrank verbaut, somit hat der Highendgamer immer eine kalte Cola zur Hand
zum artikel bezogen:
3Dfx
"Die zuletzte releaste Voodoo5 konnte weder EMBM noch Dot3 Bumpmapping, noch hatte sie anisotrope Filterung anzubieten."
Soso, nun schauen wir mal bei der GF2GTS nach ob die das konnte.
DOT3: Beep - nö !
Anisotrope Filterung - weis ich gerade nicht, aber wenn lang die Leistung sowieso nicht um es zu nutzen.Doch, schon GF1 kann Dot3 BM, aber erst seit GF3 gibt EMBM bei NV. 2x full tri AF gibts auch seit GF1, und die Leistung dafür war da.
Die Kyro II kontne den ganzen Mist, aber auf mehr als einen damaligen Achtungserfolg kam sie auch nicht (und wenn sie schon immer PowerVR XY ankündigen: releast das ding auch !).Kyro konnte nicht nur Dot3, sondern auch EMBM. Was ich bezüglich des AF gesehen habe, war allerdings nicht berauschend. Von der Leistung bei trilinearer Filterung mal abgesehen.
=die Voodoo 5 war nciht veraltet als sie rauskam, sie war cnith mehr fortschrittlich, aber zeitgemäß. Ich war sogar mit der Voodoo4 4500 glücklich, aber nur, weil ich noch Glide-Spiele hatte.
Nur sind die nVidia-Chips, mit ihrem Shader 3.0 den keiner braucht, ein bißchen fettleibig im Stromverbrauch.Wer ist "keiner"? Ich weiß von einigen, dass sie SM3 sehr wohl brauchen :)
Zwei X700 wären immernoch sehr schnell und einigermaßen sparsam.'Ne einzelne X700 Pro würde ich mir ja gerne privat kaufen – wenns die auch für AGP gäbe.
Doch, wir müssen hier Aussagen des Artikels relativieren. Ist ja schliesslich eine äusserst, subjektive Meinung eines Users, der obendrein Kontakte zu diesem IHV hat. :)Ich habe auch zu ATI Kontakte, und kenne Chris Hook :) (ist son Marketing-Fuzzi, sowas wie Luciano Alibrandi.)
Den deutschen Fachhandel geht es deswegen so gut, weil sie meinen auf preislicher Ebene konkurrieren zu müssen und dabei vergessen, was einen Fachhandel eben vom Discounter unterscheidet. Aber das ist hier sicher nicht das Thema. Die meisten "Fachhändler" sind eh nur für 2 Jahre am Start.
Im echten Fachhandel, sicher. Nicht jeder traut sich das zu und wenn dort für ein paar Euro oder eben kostenlos die neue Karte eingebaut wird, warum also nicht. Es scheint mir, das du hier den Fachhandel nicht zwischen einem realen und den schlechten Beispielen unterscheiden kannst oder willst.
Was auch nichts darüber aussagt, welches die Kartenmärkte sind, die er primär bedient.
Es gibt Leute die geben für Chiptuning mehr Geld aus, nur um ein paar PS mehr zu haben, die sie hinterher gut im Stadtverkehr nutzen können.
Eben dann nicht, wenn der Markt zunehmend stagnieren wird und das steht in Zukunft zu erwarten.
Der Markt wird nicht stagnieren, wer das vorher sagen kann, kann auch übers Wasser laufen.
In der Zukunft wird sich allerdings das Notebook immer mehr durchsetzen, Nachweislich sind hier jedes Jahr Umsatzsprünge um die 40% zu sehen.
M9700 ist der erste Gamer-Chip gewesen mit dem ich flüssig speieln kann!
Ich selber habe ein Sony mit M11 Grafik und bin begeistert!
Dort wird SLI eh kein Thema mehr spielen! Weil das nicht realisierbar ist.
Thowe
2004-11-08, 16:02:07
SLI im Mainstreambereich macht keinen Sinn, da eine einzelne Highendekarte immer schneller sein wird als 2* Entry oder Mainstreamkarten. Belege hierzu liefern sogar die anderen FREI HAUS!
Es geht nicht um den Istzustand, sondern um den Kannzustand.
...
*g* Zur bessere Kühlung wird der PC gleich in einem Kühlschrank verbaut, somit hat der Highendgamer immer eine kalte Cola zur Hand
Der Prozessor ist immer noch die Komponente die pro mm² die meiste Abwärme liefert, hier musste man bislang nicht den Kühlschrank bemühen und bei den Grafikkarten wird es auch nicht anders sein. Der Unterschied ist hier sogar noch, das die Grafikkarte eben mit dem Verbrauch der ganzen Karte angegeben wird und hier zählt der Arbeitsspeicher, die Platine mit ihren Wandlern etc. eben auch zu. Die Bedeutung der Wärmeentwicklung ist hier im Vergleich eher gering, da man sie kontrollierter abführen kann, sofern man vernünftige Konzepte dafür bemüht.
@aths:
Eine Frage:
Für den Midrange-Bereich empfiehlst Du selten unverblümt die X700XT zu kaufen. Begründung: 6 Vertex-Shader +besser AA-Leistung, AA sieht besser aus, "nur" SM2.0 ist nicht schlimm
Nun sehe ich dies aber als 180°-Wende bezüglich vorherigen Meiningen:
- 6 Vertex-Shader braucht derzeit und die nächsten Jahre kein Mensch im Privatsektor (stammt AFAIR von Dir)
- Midrange ist für AA sowieso zu schwach
- NV hat das Abtastmuster verbessert und bekommt jetzt ATi-Quali hin
- SM3.0 kann Speed bringen
Warum empfiehlst Du plötzlich die X700XT? Ich möchte Dir keine grüne Brille unterstellen, aber bislang fand ich Deine Argumente pro Technologie immer sehr deutlich aber auch sehr schlüssig. Nur bei diese unverblümten Empfehlung habe ich den Verdacht, dass Du Dich ein wenig selbst aus der Schusslinie nehmen willst, auch für den Preis, etwas zu sagen, von dem Du nicht überzeugt bist...
*frag*
GrüßeOk das gehört eigentlich nicht zum Topic, aber soviel von mir dazu:
Midrange ist für AA keineswegs zu schwach, schon länger nicht mehr. Privat fahre ich mit der FX 5900 XT fast immer 4xS Antialiasing, hätte aber lieber ATIs 6x.
Als die 5700 mit 4 Pixelpipes (bzw. 2 DX9-Pixelshader-Pipes) und 3 VS kam, äußerte ich mich wohlwollend zur starken VS-Leistung. Es wäre traurig wenn der (vergleichsweise billige) VS irgendwann den (vergleichsweise teuren) Pixelteil limitieren würde. In einigen Spezialsituationen (z. b. beim Modelling ohne Texturen) kann man kaum genug VS-Power haben. Bei 8 Pixelpipes 6 VS zu haben ist sicher angesichts des RAM-Interfaces (nur 128 Bit DDR) übertrieben, aber lieber so als zu wenig VS (sagen wir, nur 2.)
SM3 sollte imo eine sorgfältige Überlegung sein, wenn man die Graka längere Zeit behalten will. Als Übergang zum R520 oder NV48 müsste es für die meisten eine SM2-Karte auch tun.
LovesuckZ
2004-11-08, 16:04:17
Zwei X700 wären immernoch sehr schnell und einigermaßen sparsam.
*löl*
ausgerechnet eine X700, die genausoviel Strom verbraucht...
Es geht nicht um den Istzustand, sondern um den Kannzustand.
...
Der Prozessor ist immer noch die Komponente die pro mm² die meiste Abwärme liefert, hier musste man bislang nicht den Kühlschrank bemühen und bei den Grafikkarten wird es auch nicht anders sein. Der Unterschied ist hier sogar noch, das die Grafikkarte eben mit dem Verbrauch der ganzen Karte angegeben wird und hier zählt der Arbeitsspeicher, die Platine mit ihren Wandlern etc. eben auch zu. Die Bedeutung der Wärmeentwicklung ist hier im Vergleich eher gering, da man sie kontrollierter abführen kann, sofern man vernünftige Konzepte dafür bemüht.
Kannzustand ist ein schönes wort.
Das könnte ich wie einige User schon getan auf einige Marketing-Errungenschaften der anderen beziehen.
FX5200 die erste DX9 Karte im Entrylevel, kann sie zwar nicht aber könnte!*g* oder kann sie doch nicht???
Verwirrt schaue ich mich hier um und alle NICKEN ab, sie könnte wenn sie wollte*ggggg*
Kann sie aber nicht und damit haben wir wieder den KANNZUSTAND erreicht!
Man sollte vielleicht mehr zwischen Multikarten und Multichiplösung unterscheiden.
Eine Multikartenlösung wird immer ein Nischenprodukt bleiben. Multichiplösung sind dagegen unproblematisch, weil es den meisten egal ist, was auf der Karte jetzt eigentlich drauf ist.Problematisch ist es, die entsprechende Anzahl an Leiterbahnen unterzubringen.
Thowe
2004-11-08, 16:08:54
Der Markt wird nicht stagnieren, wer das vorher sagen kann, kann auch übers Wasser laufen.
Weswegen Gartner seit Jahren pleite ist.
In der Zukunft wird sich allerdings das Notebook immer mehr durchsetzen, Nachweislich sind hier jedes Jahr Umsatzsprünge um die 40% zu sehen.
M9700 ist der erste Gamer-Chip gewesen mit dem ich flüssig speieln kann!
Ich selber habe ein Sony mit M11 Grafik und bin begeistert!
Wobei die Bedeutung der Grafikleistung hier noch geringer ist, bei den meisten Modellen scheitert es eh am vernünftig gepaarten Display. Das wird sich auch in Zukunft nicht ändern lassen, vor allem auch nicht hinsichtlich der Displaygröße in der Relation zum Gewicht/Größe des Notebooks.
Das der Notebookmarkt wächst ist nicht erst sein gestern so und auch hier wird es eine Stagnation beim Wachstum geben.
Dort wird SLI eh kein Thema mehr spielen! Weil das nicht realisierbar ist.
Das würde ich so nicht sagen, wenn die Nachfrage danach besteht, wird jemand diese auch liefern. Auch hier wäre durchaus ein Sinn innerhalb der geringeren Verlustleistung zu sehen.
Zur Erinnerung: Wenn man davon ausgeht das der Athlon 64 3000 bei 1000 Mhz nur 20W verbraucht und bei 2000 Mhz eben 60W, dann gibt dies genügend Potential über 2x20W nachzudenken um eben weniger Verbrauch=Wärme zu haben.
Thowe
2004-11-08, 16:12:53
Kannzustand ist ein schönes wort.
Das könnte ich wie einige User schon getan auf einige Marketing-Errungenschaften der anderen beziehen.
FX5200 die erste DX9 Karte im Entrylevel, kann sie zwar nicht aber könnte!*g* oder kann sie doch nicht???
Verwirrt schaue ich mich hier um und alle NICKEN ab, sie könnte wenn sie wollte*ggggg*
Kann sie aber nicht und damit haben wir wieder den KANNZUSTAND erreicht!
Definition: Der Istzustand ist bezogen auf den realen, jetzigen Zustand. Während der Kannzustand das ist, was in Zukunft sein könnte.
- Aber wie war das denn? Konnte man bei der TNT1 32Bit vernünftig nutzen? Antwort: Nein, zu langsamNicht generell, für einige Spiele wo 25 fps reichen, und wo man nur 800x600 fährt, war die TNT1 ok. Was mich nur störte war, dass NV zum Pushen von 32 Bit den 16-Bit-Modus vernachlässigte. 3dfx bot nur 16 Bit, welches aber besser aussah als bei NV.
- Funktionierte das neue Dot3-BumpMapping auf einer GF2? Antwort: Nur in Demos - in Spielen zu langsamEigentlich ist es nicht zu langsam. Allerdings erfordert Dot3-BM neuen Content, und viele Karten beherrschten kein Dot3 BM. (Natürlich bringt die GF2 mit Dot3 BM und hohe Auflösungen keine Spitzenframeraten mehr.)
- Was brachte AGP bzgl. dem Riva128 - Antwort: absolut nichtsNaja, "AGP-Grafikkarte" klingt moderner als "PCI-Grafikkarte".
- Was bringt HDR bei der GF6? - Antwort: Eindeutig bessere Optik, aber zum Spielen zu langsamFC ist das erste Spiel, und HDR Lighting wurde offenbar nachträglich raufgepappt. Würde ein Spiel gleich darauf designt, sähe es wohl anders aus.
Gleiches gilt für SM3.0.... Klar wird es genutzt werden, aber PixelShader4.0 ist schon auf dem Weg und wird zwingend vorrausgesetzt wenn man neuere Windows-Versionen nutzen möchte...."Pixelshader 4.0" wird es meines Wissens nicht geben. Longhorn setzt nur DX7-Grakas voraus, für Tier2-Effekte reicht eine DX9-Graka.
Wenn man schon mehrere Jahre (jahrzehnte) Computer-Erfahrung mitbringt, wird man ernüchternd feststellen, dass man immer die HW kaufen sollte, die einem jetzt, heute und hier die erwünschte Leistung/Qualität liefert, die man erwartet hat.Mein erstes Basic-Programm schrieb ich 1986 auf einem ZX Spectrum :)
Und SLI ist für 99.99% der Enduser momentan einfach Unsinn, da eine Karte mehr als genügend Leistung bietet. Ist es einmal nicht mehr der Fall, wird man lieber zu einer moderneren Karte greifen, statt sich eine zweite Karte zu kaufen...Meiner jahrzehntelangen Erfahrung nach ist "genügend" Leistung etwas, was lediglich durch das Portemonaie begrenzt wird.
Weswegen Garner seit Jahren pleite ist.
Wobei die Bedeutung der Grafikleistung hier noch geringer ist, bei den meisten Modellen scheitert es eh am vernünftig gepaarten Display. Das wird sich auch in Zukunft nicht ändern lassen, vor allem auch nicht hinsichtlich der Displaygröße in der Relation zum Gewicht/Größe des Notebooks.
Das der Notebookmarkt wächst ist nicht erst sein gestern so und auch hier wird es eine Stagnation beim Wachstum geben.
Das würde ich so nicht sagen, wenn die Nachfrage danach besteht, wird jemand diese auch liefern. Auch hier wäre durchaus ein Sinn innerhalb der geringeren Verlustleistung zu sehen.
Zur Erinnerung: Wenn man davon ausgeht das der Athlon 64 3000 bei 1000 Mhz nur 20W verbraucht und bei 2000 Mhz eben 60W, dann gibt dies genügend Potential über 2x20W nachzudenken um eben weniger Verbrauch=Wärme zu haben.
Gartner ist PLEITE gegangen wiel die anderen Ihren eigenen Event erfunden haben, somit erübrigt sich dieses Argument.
SLI wird im Notebookbereich keinen EINZUG erfahren weil es keinem Standart unterliegt!
Thowe
2004-11-08, 16:20:45
Gartner ist PLEITE gegangen wiel die anderen Ihren eigenen Event erfunden haben, somit erübrigt sich dieses Argument.
Seit wann gibt es Gartner Research nicht mehr, wäre mir neu das sie weg sind. Meines erachtens erzielen sie und andere Unternehmen in der Branche immer noch genügend Gewinne um bestehen zu können.
SLI wird im Notebookbereich keinen EINZUG erfahren weil es keinem Standart unterliegt!
Wenn NV morgen einen NForce für Notebooks mit SLI Anbindung vorstellt, gibt es diesen "Standard".
minimum
2004-11-08, 16:25:20
@quasar
ja, du hast recht, ich habe es mit ENBM verwechselt (ich wusste nur noch das ich sehr verwundert war warum der 3Dmark Test nicht mehr mit meienr tollen, modernen GF2Ti lief).
Gruß,
Max
Quasar
2004-11-08, 16:32:06
SLI wird im Notebookbereich keinen EINZUG erfahren weil es keinem Standart unterliegt!
MXM und AXIOM sagen dir was?
Das sind sogar zwei Standards - zwei verschiedene noch dazu. Und die sind mit Sicherheit auch nicht das, was man 'etabliert' nennt.
Deiner Logik zufolge dürfte es überhaupt keine Notebooks mit Grafikchip geben, da es keinen Standard dafür gab (gibt). ;)
Nebenbei bemerkt: Keysonic stellt hervorragend haltbare Tastaturen her - vielleicht mal eine überlegenswerte Investition, falls dich deine offenbar klemmende Shift-Taste mal nerven sollte.
LovesuckZ
2004-11-08, 16:34:04
SLI wird im Notebookbereich keinen EINZUG erfahren weil es keinem Standart unterliegt!
GeForce 6800 Go is primed for NVIDIA's Scalable Link Interface (SLI). (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD05MDUmdXJsX3BhZ2U9Nw==)
Tobias123
2004-11-08, 16:36:58
Es gibt viele Artikel, die sich primär um den Texturfilter drehen und beklagen, dass hier wieder mal Qualität geopfert wird. Um was zum Texture Shimmering bei der GF6 zu schreiben, müsste ich erst mal eine GF6 haben – im Moment sehe ich mich allerdings nach 'ner ATI um.
Moin...
Jep, das stimmt.... in vielen Artikeln wird die Bildqualität der neuen Karten angegriffen. Das ist nach meiner Meinung auch richtig so.
Alle diese häßlichen Artefakte (ausgenommen dem winkelabhängigen AF und der Gamma-Korrektur beim AA) treten aufgrund der treiberseitigen Optimierungen von ATI und NVidia auf.
Was aber ziemlich verrückt ist, ist die Tatsache, dass besonders ATI beim Erscheinen der X800'er Serie sehr viel (berechtigte) Kritik ertragen musste, da der Optimierungsgrad der ATI Treiber ein deutlich höheren Level erreicht hatte als die GF6-Forceware-Treiber.
Somit hatte die GF6 "ursprünglich" eine sichtbar bessere Bildqualität und den Leuten wurde sugeriert, dass die ATI-Karten eine schlechte Bildqualität haben.
Mit dem angeblichen Wissen, dass eine GF6800GT aufgrund der default-mäßig geringeren Optimierungseinstellungen ein besseres Bild als eine ATI macht, besorgte ich mir dann eine Galaxy6800GT. Außerdem war es ja möglich die Optimierungen komplett zu deaktivieren...
Nach ca. 2 Minuten "Spielzeit" ohne Optimierungen (!) mit meiner GT fiel mir ganz klar auf, dass die Bildqualität der hochgelobten NVidia-Karte bei weitem nicht das Niveau der alten Radeon9800 erreicht: Abgesehen von dem sichtbar (ich sage nur Freelancer) schlechteren AA, gab es überall Schimmernde-Bereiche. Das Bild war in der Bewegung extrem unruhig. Der Effekt war, unabhängig vom Spiel, oftmals so stark, dass ich mir meine Radeon9800 zurückgewünscht hätte...
Unzufrieden habe ich die GT wieder zurück gegeben und mir eine X800-XT-PE gekauft.
Die "normalen" Optimierungen waren (wie auch bei der NVidia-Karte, sofern man sie aktiviert) sofort sichtbar. Aber gut, dass wußte ich ja. Aber: Dieser Schimmer-Effekt, der mir aufgestoßen war, ist bei der ATI nicht vorhanden...
Und wenn ich dann noch die Optimierungen bei der ATI deaktiviere (ist ja kein Problem mehr dank neuer Treiber), habe ich sogar das gewohnte R9800-Bild.
Auf der GT hingegen ist es bis heute unmöglich eine anständige Bildqualität zu erhalten. Dieser Schimmer-Effekt ist teilweise so dominant, dass ich statt einer 6800er Karte wieder zu meiner alten Radeon9800 zurückgekehrt wäre, wenn die X800'er den selben Effekt gezeigt hätte.
Es ist mir einfach nur ein Rätsel, wie so viele Leute so blind sein können... Wer mit der GF6-Filterqualität (bei deaktivierten Optimierungen) zufrieden ist, kann nach meiner Meinung auch nicht 30fps von 60fps unterscheiden. Daher frage ich mich, welchen Sinn SLI bei der GF6 machen soll: Da soll doch NVidia zuerst mal die Bildqualität wieder in den Griff bekommen, bevor man aus 100Frames/Sekunde 180Frames/Sekunde per SLI macht. Über die Geschwindigkeit der GT konnte ich mich nicht beklagen... Aber was nützt einem eine Karte, die von dem Speed her so schnell ist, dass man AA und AF aktivieren kann, dafür aber die Pixel wie verrückt flimmern.
Das ist doch irgendwie verrückte Welt. Zumal man bei der Hälfte der Spiele eher die GF6-Schimmerprobleme intensiver sieht, als dass man die doppelte Framerate einer R9800 erkennt. Wo ist da die Verbesserung?
Auch 8xAA und 16xAF sieht mit Schimmer-Problem immer noch schlechter aus als 2xAA und 8xAF ohne Schimmering....
Aber vielleicht habe ich auch eine überdurchschnittlich gute Wahrnehmung......
Wie dem auch sei, die Foren sind voll mit Berichten bzgl. des Schimmer-Problems, aber keine große Web-Seite greift dieses Problem in einem Artikel auf. Und das ärgert mich.... Es ist einfach nur Unsin diesen Pixelbrei durch SLI weiter zu beschleunigen.... Deshalb finde ich es einfach nur krank die SLI Funktion bei NVidia zu loben... Die Probleme liegen ganz woanders...
Allerdings kann ich dir ansonsten natürlich zustimmen, dass SLI eine heiße Sache ist. Und genau das wolltest du (denke ich) auch mitteilen. Bezgl. SLI teile ich deine Meinung. Was ich nicht mit dir teile ist die Einstellung zu NVidia... wer die falschen Prioritäten setzt, sollte nicht gelobt werden...
:smile:
GeForce 6800 Go is primed for NVIDIA's Scalable Link Interface (SLI). (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD05MDUmdXJsX3BhZ2U9Nw==)
Schaut euch die MArktanteile an und Ihr werdet sehen das die anderen keinen Standart etablieren können.
MXM ist ein anderes Thema welches sich auf BTO Systeme im Notebookbereich bezieht. Wo der User sich entscheiden kann welche Grafik er möchte!
Dafür müssen die GPU's nur Pin to Pin kompatibel sein, welches de fakto bei den Marktführern der Fall ist.
Das hat aber nichts mit SLI zu tun!
Wo bitteschön sollte in einem Notebook eine zweite Einheit mit Grafikchip plazierzt werden?
Etwa extern? ein SLI-Stecker, jaklar, das ist deren Strategie!
*g* Der User kann quasi wie über eine Art "USB-Stecker" eine zweite Grafikkarte samt Speicher reinstecken. Ja mei da schau her*g*
Quasar
2004-11-08, 16:43:01
Moin...
Auf der GT hingegen ist es bis heute unmöglich eine anständige Bildqualität zu erhalten. Dieser Schimmer-Effekt ist teilweise so dominant, dass ich statt einer 6800er Karte wieder zu meiner alten Radeon9800 zurückgekehrt wäre, wenn die X800'er den selben Effekt gezeigt hätte.
Moin,
Da bin ich aber froh, mir nur eine 6800nu geholt zu haben - und irgendwie flimmert bei mir bislang nicht halbsoviel, wie es das bei dir getan zu haben scheint.
*schweißvonderstirnwisch*
Mit welchen Treibern hast du deine schlechten Erfahrungen gemacht?
Tobias123
2004-11-08, 16:45:02
Nicht generell, für einige Spiele wo 25 fps reichen, und wo man nur 800x600 fährt, war die TNT1 ok. Was mich nur störte war, dass NV zum Pushen von 32 Bit den 16-Bit-Modus vernachlässigte. 3dfx bot nur 16 Bit, welches aber besser aussah als bei NV.
Genau... :smile:
Deshalb hatte ich damals lieber eine Voodoo3 mit der ich bei einer hohen Performance eine vernünftige Bildqualität erhalten habe. Aber das stand in kaum einem Artikel/Testbericht. Es hieß immer, dass die TNT eine bessere Qualität bot (ja klar, in dem kaum nutzbaren 32Bit-Modus)
Naja, "AGP-Grafikkarte" klingt moderner als "PCI-Grafikkarte".
:smile:
"Pixelshader 4.0" wird es meines Wissens nicht geben. Longhorn setzt nur
Ok, zumindest wird es einen neuen Standard geben (ob dieser dann PixelShader4 heißt oder auch nicht ist ja egal), bei dem alle Grenzen aufgehoben werden.
Mein erstes Basic-Programm schrieb ich 1986 auf einem ZX Spectrum :)
1986 hatte ich schon seit 2 Jahren meinen C16 :tongue:
:smile:
Meiner jahrzehntelangen Erfahrung nach ist "genügend" Leistung etwas, was lediglich durch das Portemonaie begrenzt wird.
Damit hast du natürlich Recht... Aber es ist doch mehr ein "Kopf-Ding", als dass man den Unterschied tatsächlich spürrt...
:smile:
Tobias123
2004-11-08, 16:54:45
Moin,
Da bin ich aber froh, mir nur eine 6800nu geholt zu haben - und irgendwie flimmert bei mir bislang nicht halbsoviel, wie es das bei dir getan zu haben scheint.
*schweißvonderstirnwisch*
Mit welchen Treibern hast du deine schlechten Erfahrungen gemacht?
Hi...
Ich habe alle aktuellen Treiber (61.66 - 68.xx) ausprobiert... jeder hatte dieses Flimmern. Dass dieses Schimmering ein generelles Problem bei den GF6-Karten ist, ist es auch schon belegt worden. Dass also jemand dieses Problem hat und ein anderer nicht, ist also nicht möglich...
Insofern werden deine Pixel auch ganz gut blinken... :wink: Man braucht einfach mal eine Vergleichsmöglichkeit... Viele Leute wissen gar nicht, dass das Bild auch anders (ruhiger) aussehen kann...
Ich habe schon so oft einen auf den Deckel wegen des Schimmer-Problems bekommen, dass ich mich schon gar nicht mehr traue dieses Thema anzusprechen.
Ich kann ja einfach mal ein paar Links in den Raum werfen, ohne das Thema neu zu diskutieren:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=169238
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=172917
http://www.nvnews.net/vbulletin/showthread.php?t=35592
http://www.mitrax.de/?cont=artikel&aid=24&page=14
Das hat auch nichts mit "besserer" Schärfe usw. zu tun... eine ATI oder auch eine GF-FX ist genau so scharf, aber es tritt halt kein Schimmern auf...
Tigerchen
2004-11-08, 17:01:35
Und wie schon bei den anderen Kolumnen, auch hier nochmals:
Das ist kein Artikel, kein Vergleichstest, keine Reportage per se. Das ist eine Kolumne.
93,
-Sascha.rb
Nein.
Es ist ein trotziges "SLI ist trotzdem gut".
Und sonst gar nichts.:down:
Tigerchen
2004-11-08, 17:10:07
Wie gesagt, ist es eine Kolumne und kein wissenschaftlicher Artikel - es gibt keine falschen oder richtigen Meinungen, sondern nur die Meinung des Verfassers.
Heute und morgen ist SLI noch nicht notwendig, sondern eher etwas, was man nicht braucht, aber haben will. Was aber nicht heisst, dass es übermorgen nicht sinnvoller wäre, lieber ein Grafikkartenverbund einzusetzen als eine einzelne Grafikkarte, die zwar die gleiche Leitung bringt, aber wirtschaftlich gesehen viel teurer ist.
Übermorgen wandert die Grafik in den Chipsatz. Genau wie alles andere auch zu OnBoard mutiert ist. SLI hat keinerlei Zukunft im Homebereich.
Nein.
Es ist ein trotziges "SLI ist trotzdem gut".
Und sonst gar nichts.:down:
Nein Nein,
eine Kolumne ist das!!!
Kolumne
Unter einer Kolumne (v. lat.: columna Säule) versteht man eine regelmäßige Artikelserie in einem periodischen Druckwerk (Zeitung, Magazin), die meist von einem (seltener von mehreren) Autoren verfasst wird. Kolumnen geben oft die persönliche Meinung des Verfassers wieder.
Die Bezeichnung Kolumne stammt vom Begriff der Kolumne in der Druckersprache, der eine Textspalte bezeichnet; dies ist auch gewöhnlich der Textumfang einer "Kolumne".
Der erste Zeitungskolumnist war John Hill der am 11. März 1751 mit einer täglichen Kolumne im "London Advertiser" und der "Literary Gazette" begann. Er schrieb unter dem Pseudonym "Der Inspektor"
Viele bekannte Schriftsteller benutzten die Kolumne als Medium, sei es, bevor ihnen der Durchbruch als Schriftsteller gelang, sei es danach (da ihnen von Zeitungsverlagen lukrative Honorare angeboten werden, um den Werbeeffekt des berühmten Namens ausnützen zu können; ähnliches gilt für nicht mehr aktive Politiker).
Oft wird die Kolumne auch vom Herausgeber der Druckschrift in Form eines Editorials zur Darlegung der Blattlinie und Stellungnahme zu aktuellen Ereignissen benutzt.
Einige bekannte Kolumnisten:
Flann O'Brien
Harry Rowohlt
Dorothy Parker
Charles Krauthammer
Leider gibt es aber dien Button: Kommentieren bei dieser Kolumne, da darf mann sich nicht wundern wenn mann eine Einladung ausspricht das sie auch angenommen wird*g*
Tigerchen
2004-11-08, 17:17:41
Moin...
Jep, das stimmt.... in vielen Artikeln wird die Bildqualität der neuen Karten angegriffen. Das ist nach meiner Meinung auch richtig so.
Alle diese häßlichen Artefakte (ausgenommen dem winkelabhängigen AF und der Gamma-Korrektur beim AA) treten aufgrund der treiberseitigen Optimierungen von ATI und NVidia auf.
Was aber ziemlich verrückt ist, ist die Tatsache, dass besonders ATI beim Erscheinen der X800'er Serie sehr viel (berechtigte) Kritik ertragen musste, da der Optimierungsgrad der ATI Treiber ein deutlich höheren Level erreicht hatte als die GF6-Forceware-Treiber.
Somit hatte die GF6 "ursprünglich" eine sichtbar bessere Bildqualität und den Leuten wurde sugeriert, dass die ATI-Karten eine schlechte Bildqualität haben.
Mit dem angeblichen Wissen, dass eine GF6800GT aufgrund der default-mäßig geringeren Optimierungseinstellungen ein besseres Bild als eine ATI macht, besorgte ich mir dann eine Galaxy6800GT. Außerdem war es ja möglich die Optimierungen komplett zu deaktivieren...
Nach ca. 2 Minuten "Spielzeit" ohne Optimierungen (!) mit meiner GT fiel mir ganz klar auf, dass die Bildqualität der hochgelobten NVidia-Karte bei weitem nicht das Niveau der alten Radeon9800 erreicht: Abgesehen von dem sichtbar (ich sage nur Freelancer) schlechteren AA, gab es überall Schimmernde-Bereiche. Das Bild war in der Bewegung extrem unruhig. Der Effekt war, unabhängig vom Spiel, oftmals so stark, dass ich mir meine Radeon9800 zurückgewünscht hätte...
Unzufrieden habe ich die GT wieder zurück gegeben und mir eine X800-XT-PE gekauft.
Die "normalen" Optimierungen waren (wie auch bei der NVidia-Karte, sofern man sie aktiviert) sofort sichtbar. Aber gut, dass wußte ich ja. Aber: Dieser Schimmer-Effekt, der mir aufgestoßen war, ist bei der ATI nicht vorhanden...
Und wenn ich dann noch die Optimierungen bei der ATI deaktiviere (ist ja kein Problem mehr dank neuer Treiber), habe ich sogar das gewohnte R9800-Bild.
Auf der GT hingegen ist es bis heute unmöglich eine anständige Bildqualität zu erhalten. Dieser Schimmer-Effekt ist teilweise so dominant, dass ich statt einer 6800er Karte wieder zu meiner alten Radeon9800 zurückgekehrt wäre, wenn die X800'er den selben Effekt gezeigt hätte.
Es ist mir einfach nur ein Rätsel, wie so viele Leute so blind sein können... Wer mit der GF6-Filterqualität (bei deaktivierten Optimierungen) zufrieden ist, kann nach meiner Meinung auch nicht 30fps von 60fps unterscheiden. Daher frage ich mich, welchen Sinn SLI bei der GF6 machen soll: Da soll doch NVidia zuerst mal die Bildqualität wieder in den Griff bekommen, bevor man aus 100Frames/Sekunde 180Frames/Sekunde per SLI macht. Über die Geschwindigkeit der GT konnte ich mich nicht beklagen... Aber was nützt einem eine Karte, die von dem Speed her so schnell ist, dass man AA und AF aktivieren kann, dafür aber die Pixel wie verrückt flimmern.
Das ist doch irgendwie verrückte Welt. Zumal man bei der Hälfte der Spiele eher die GF6-Schimmerprobleme intensiver sieht, als dass man die doppelte Framerate einer R9800 erkennt. Wo ist da die Verbesserung?
Auch 8xAA und 16xAF sieht mit Schimmer-Problem immer noch schlechter aus als 2xAA und 8xAF ohne Schimmering....
Aber vielleicht habe ich auch eine überdurchschnittlich gute Wahrnehmung......
Wie dem auch sei, die Foren sind voll mit Berichten bzgl. des Schimmer-Problems, aber keine große Web-Seite greift dieses Problem in einem Artikel auf. Und das ärgert mich.... Es ist einfach nur Unsin diesen Pixelbrei durch SLI weiter zu beschleunigen.... Deshalb finde ich es einfach nur krank die SLI Funktion bei NVidia zu loben... Die Probleme liegen ganz woanders...
Allerdings kann ich dir ansonsten natürlich zustimmen, dass SLI eine heiße Sache ist. Und genau das wolltest du (denke ich) auch mitteilen. Bezgl. SLI teile ich deine Meinung. Was ich nicht mit dir teile ist die Einstellung zu NVidia... wer die falschen Prioritäten setzt, sollte nicht gelobt werden...
:smile:
Absolut richtig. Eine Kolummne über dieses üble Flimmern bei bewegten Bildern auf dem nV40 wäre angebrachter gewesen. Aber hier schweigt der Author der sonst nur so mit AF-Blümchen um sich wirft.
Absolut richtig. Eine Kolummne über dieses üble Flimmern bei bewegten Bildern auf dem nV40 wäre angebrachter gewesen. Aber hier schweigt der Author der sonst nur so mit AF-Blümchen um sich wirft.
Er brauch ja auch nichts zu sagen da er sich 100% korrekt verhält, wir kommentieren hier NUR seine Kolumne!
Es ist seine Meinung und die darf auch mal anderen WEH TUN!
So ist das! Ich finde es auch nicht angebracht das wir hier so weit ab vom Thema abgekommen sind, 6800 Bildqualität und co.
Tigerchen
2004-11-08, 17:22:02
Nein Nein,
eine Kolumne ist das!!!
Kolumne
Unter einer Kolumne (v. lat.: columna Säule) versteht man eine regelmäßige Artikelserie in einem periodischen Druckwerk (Zeitung, Magazin), die meist von einem (seltener von mehreren) Autoren verfasst wird. Kolumnen geben oft die persönliche Meinung des Verfassers wieder.
Die Bezeichnung Kolumne stammt vom Begriff der Kolumne in der Druckersprache, der eine Textspalte bezeichnet; dies ist auch gewöhnlich der Textumfang einer "Kolumne".
Der erste Zeitungskolumnist war John Hill der am 11. März 1751 mit einer täglichen Kolumne im "London Advertiser" und der "Literary Gazette" begann. Er schrieb unter dem Pseudonym "Der Inspektor"
Viele bekannte Schriftsteller benutzten die Kolumne als Medium, sei es, bevor ihnen der Durchbruch als Schriftsteller gelang, sei es danach (da ihnen von Zeitungsverlagen lukrative Honorare angeboten werden, um den Werbeeffekt des berühmten Namens ausnützen zu können; ähnliches gilt für nicht mehr aktive Politiker).
Oft wird die Kolumne auch vom Herausgeber der Druckschrift in Form eines Editorials zur Darlegung der Blattlinie und Stellungnahme zu aktuellen Ereignissen benutzt.
Einige bekannte Kolumnisten:
Flann O'Brien
Harry Rowohlt
Dorothy Parker
Charles Krauthammer
Was soll das?
Kommst du mit meinen rhetorischen Kunstgriffen nicht zurecht?
Vielleicht solltet du dich erstmal einloggen bevor du hier theoretische Abhandlungen zu Fragen formulierst die keiner gestellt hat.
Oder fehlt es an Mut?
Quasar
2004-11-08, 17:36:52
Hi...
Ich habe alle aktuellen Treiber (61.66 - 68.xx) ausprobiert... jeder hatte dieses Flimmern. Dass dieses Schimmering ein generelles Problem bei den GF6-Karten ist, ist es auch schon belegt worden. Dass also jemand dieses Problem hat und ein anderer nicht, ist also nicht möglich...
Insofern werden deine Pixel auch ganz gut blinken... :wink: Man braucht einfach mal eine Vergleichsmöglichkeit... Viele Leute wissen gar nicht, dass das Bild auch anders (ruhiger) aussehen kann...
Ich habe schon so oft einen auf den Deckel wegen des Schimmer-Problems bekommen, dass ich mich schon gar nicht mehr traue dieses Thema anzusprechen.
Ich kann ja einfach mal ein paar Links in den Raum werfen, ohne das Thema neu zu diskutieren:
[...]
Ich dachte, du hast vor Wochen bereits deine 6800 verkauft? Und wo krieg ich 68er-Treiber her?
Und dein Links kenne ich bereits, die gibst du ja in nahezu jedem deutschsprachigen Forum von dir. *gg*
Also die Geschichte mit UT2004 und Asbestos scheint gefixt - das flimmert's bei mir kaum noch im Gegensatz zu Ailuros' Screenshot im Asbestos-Level.
Bei der Painkiller-v1.4-Demo ist mir eben allerdings fast schlecht geworden. Das ist echt extrem - allerdings ist's auf meiner R9700M auch nicht besser... ;(
edit:
Vermutlich Normal-Maps, die völlig für'n Arsch sind...
Quasar
2004-11-08, 17:39:56
Absolut richtig. Eine Kolummne über dieses üble Flimmern bei bewegten Bildern auf dem nV40 wäre angebrachter gewesen. Aber hier schweigt der Author der sonst nur so mit AF-Blümchen um sich wirft.
Schreib' doch eine Kolumne diesbezüglich und reiche sie bei Leonidas ein. =)
Bezgl. SLI teile ich deine Meinung. Was ich nicht mit dir teile ist die Einstellung zu NVidia... wer die falschen Prioritäten setzt, sollte nicht gelobt werden...SLI gibts aktuell nur von NV, das heißt, ist aktuell nur von NV angekündigt. Dafür bekommen sie in der Kolumne die Blumen.
Was die Shimmering-Probleme beim NV40 angeht, bleiben die auch wenn man im Treiber die Leistungseinstellung auf "High Quality" setzt? Das wäre ein Artikel wert.
Er brauch ja auch nichts zu sagen da er sich 100% korrekt verhält, wir kommentieren hier NUR seine Kolumne!
Es ist seine Meinung und die darf auch mal anderen WEH TUN!Korrekt, die Kolumnen geben außerdem nicht die 3DC-Redaktionsmeinung wieder. Soweit es meine Zeit zulässt werde ich alle zwei Wochen meine Privatmeinung äußern. Dabei muss es nicht immer um 3D-Technik gehen.
In dieser Kolumne ging es darum, SLI in die Reihe der etablierten Parallelverarbeitungstechniken zu stellen. Ich halte meine Argumentation in diesem Kontext für stichhaltig. Die Probleme die es bei der aktuellen SLI-Implementierung gibt, interessieren mich da weniger, SLI ist möglich, und per se allen Unkenrufen zum Trotz sinnvoll. Das hatte ich da auf 11 Kilobyte ausgebreitet.
Während ich versuche, eine regelmäßige aths-Kolumne zu etablieren, bin ich sicher dass Leo auch andere Kolumnen veröffentlicht, sofern
- sie irgendwie zum 3dc-Themenbereich passen
- sie im lesbarem Deutsch vorliegen.
Ich hätte keine Probleme damit, wenn es gezielte Kontra-Kolumnen gebe. Sofern in jener gut argumentiert wird, überzeugt das die Leser vielleicht mehr als mein Geschreibsel – warum auch nicht?
Quasar
2004-11-08, 19:02:21
Was die Shimmering-Probleme beim NV40 angeht, bleiben die auch wenn man im Treiber die Leistungseinstellung auf "High Quality" setzt? Das wäre ein Artikel wert.
In der Painkiller-v1-4-Demo ja. =)
SLI gibts aktuell nur von NV, das heißt, ist aktuell nur von NV angekündigt. Dafür bekommen sie in der Kolumne die Blumen.
Was die Shimmering-Probleme beim NV40 angeht, bleiben die auch wenn man im Treiber die Leistungseinstellung auf "High Quality" setzt? Das wäre ein Artikel wert.
Naja, diese Blumen nicht zu bekommen liest sich als Fazit für mich eher als diesen Blumen als sein eigen zu nennen!
Tigerchen
2004-11-08, 19:25:50
Schreib' doch eine Kolumne diesbezüglich und reiche sie bei Leonidas ein. =)
Ich bin schlicht und ergreifend nicht neutral genug um sowas zu tun. Ich polarisiere. Und ich weiß es. Weshalb ich auch nie so was wie Moderator machen würde.
Quasar
2004-11-08, 19:27:45
Das ist doch egal! Es ist eine Kolumne, da geht es einzig um die Meinung des Schreibenden - Neutralität kann man sich Review o.ä. aufsparen.
deekey777
2004-11-08, 19:36:40
Das ist doch egal! Es ist eine Kolumne, da geht es einzig um die Meinung des Schreibenden - Neutralität kann man sich Review o.ä. aufsparen.
Was aber nicht jeder verstehen will.
Black-Scorpion
2004-11-08, 19:44:39
In dieser Kolumne ging es darum, SLI in die Reihe der etablierten Parallelverarbeitungstechniken zu stellen.
Was heist bei dir etabliert?
Es ist etabliert wenn es sich im Markt bewährt hat und eingesetzt wird.
Blacksoul
2004-11-08, 20:04:42
Die Voodoo5-6000 stellte 3dfx allerdings vor gewaltige Probleme. Obwohl viel Geld für ein Redesign des Boardlayoutes verpulvert wurde, ging insgesamt nur eine zweistellige Zahl von STB hergestellten Boards in den Handel. Quantum3D produzierte vermutlich noch einige Boards mehr, doch die 3dfx-Tocher verkaufte inzwischen nicht mehr an Normalsterbliche, sondern baute nur noch professionelle (und teure) Systeme wie die Alchemy-Serie.
Richtig in den Handel kam nie eine Voodoo 5 6000.
Die Zahl von STB ist vermutlich doch eher dreistellig.
Der Name der Quantum-Systeme ist AAlchemy.
Nur so btw:
Quantum 3D hatte afaik auch Voodoo 1-SLI-Lösungen wie bei der Voodoo2.
t.blacksoul.d
reunion
2004-11-08, 20:05:55
Was heist bei dir etabliert?
Es ist etabliert wenn es sich im Markt bewährt hat und eingesetzt wird.
Eben, obwohl SLi von Nv bereits seit einiger Zeit vorgestellt wurde kann man aktuell werder ein Dual-PCIe Board noch PCIe-SLi Karten kaufen.
LovesuckZ
2004-11-08, 20:16:12
Eben, obwohl SLi von Nv bereits seit einiger Zeit vorgestellt wurde kann man aktuell werder ein Dual-PCIe Board noch PCIe-SLi Karten kaufen.
Hoe?
6600GT Karten gibt es schon massig zu kaufen:
Zum Beispiel hier (http://www.geizhals.at/deutschland/a124539.html)
Was heist bei dir etabliert?
Es ist etabliert wenn es sich im Markt bewährt hat und eingesetzt wird.Mehr als eine TMU pro Pipe war lange Zeit etabliert (inzwischen wird das via Loopback und massig Pipes gelöst, wo wir schon beim nächsten sind) Viele Pipes zu verbauen ist auch etabliert. Warum es für alle Zeiten bei einer einzigen Karte belassen?
Tobias123
2004-11-08, 22:02:09
SLI gibts aktuell nur von NV, das heißt, ist aktuell nur von NV angekündigt. Dafür bekommen sie in der Kolumne die Blumen.
Was die Shimmering-Probleme beim NV40 angeht, bleiben die auch wenn man im Treiber die Leistungseinstellung auf "High Quality" setzt? Das wäre ein Artikel wert.
Genau so ist es.... Ich habe diesbezüglich auch schon mal Leonidas angeschrieben (vor etlichen Wochen).
Er schrieb mir als Antwort "Das ist ja interessant..." :wink:
Eben... das finde ich auch... Aber wieso zum Teufel wird das nicht mal näher untersucht. Gerade 3DCenter geht doch immer sehr vorbildlich mit der Bewertung von bildverschlechternden Features um...
Wenn man auf einer GF6 Karte den Regler auf "High Quality" setzt (so dass gleichzeitig AF und Tri Opti. deaktiviert werden) gibt es weiterhin richtiges Banding, bzw. Pixelflimmern bei AF gefilterten Texturen. Die einzige Möglichkeit dieses Problem in den Griff zu bekommen ist das manuelle Setzen des LOD-Bias Wertes mit einem Fremd-Tool. Und selbst dann kann kein optimales Ergebnis erzielt werden...
Mich hat diese Geschichte 2 Wochen in Atem gehalten, bis ich verzweifelt meine GT wieder abgegeben habe. Auf der X800 sieht das Bild einwandfrei aus...
Dieses Shimmer-Problem ist nach meiner Meinung ein echt starkes Stück... Ich kann damit leben, wenn deaktivierbare Optimierungen einen Qualitätsverlust mit sich bringen... Ich kann aber nicht damit leben, wenn ich keine vernünftige Qualität erhalte wenn alle Optimierungen deaktiviert sind...
Und letzteres trifft auf die GF6 zu...
Wie gesagt: Es gibt hunderte Berichte hierzu in verschiedenen Foren... Nicht wenige Leute haben auch deswegen auf ATI gewechselt...
Tobias123
2004-11-08, 22:08:02
Ich dachte, du hast vor Wochen bereits deine 6800 verkauft? Und wo krieg ich 68er-Treiber her?
Und dein Links kenne ich bereits, die gibst du ja in nahezu jedem deutschsprachigen Forum von dir. *gg*
Also die Geschichte mit UT2004 und Asbestos scheint gefixt - das flimmert's bei mir kaum noch im Gegensatz zu Ailuros' Screenshot im Asbestos-Level.
Bei der Painkiller-v1.4-Demo ist mir eben allerdings fast schlecht geworden. Das ist echt extrem - allerdings ist's auf meiner R9700M auch nicht besser... ;(
edit:
Vermutlich Normal-Maps, die völlig für'n Arsch sind...
Hi... ja, meine GT gibt kurz vor Ablauf der FAB-Frist (14 Tage) wieder zurück. Aber es gab schon damals die 66.xx und 68.xx Treiber. Die Dinger wurden bei den neuen NV-Karten offiziell zum Testen freigegeben... Alles erfolglos...
Auch in dem NV-Forum wird berichtet, dass selbst die neusten Treiber dieses Problem nicht lösen...
Schade eigentlich... die Galaxy war wirklich ok: leise, schnell und "günstiger" als eine XT-PE... Nunja... jetzt ist es doch wieder eine ATI und ich habe es nicht bereut... im Gegenteil.
Also extrem war übrigens noch GTA3-VC, Freelancer (davon gibt es ja ein Video), BF1942 und die Sims2.
Black-Scorpion
2004-11-08, 22:17:25
@aths
Du stellst etwas als etabliert hin was es auf dem Markt noch garnicht gibt.
Ob es sich etabliert wird der Markt zeigen.
Ob jemand SLI gut findet oder nicht ist jedem selbst überlassen.
Aber etwas als etabliert zu bezeichnen was außer nVidia (und ein paar ausgewählte) noch kein Mensch in Aktion gesehen hat ist schon reichlig seltsam.
'edit' Kleine Änderung
Wenn man auf einer GF6 Karte den Regler auf "High Quality" setzt (so dass gleichzeitig AF und Tri Opti. deaktiviert werden) gibt es weiterhin richtiges Banding, bzw. Pixelflimmern bei AF gefilterten Texturen. Diesbezüglich werde ich mal NV kontaktieren.
Doch zwei Fragen noch: Ist "Anistropic Sample Optimization" deaktivert worden? Gibt es Unterschiede im Bild, wenn man diese Option umschaltet?
@aths
Du stellst etwas als etabliert hin was es auf dem Markt noch garnicht gibt.
Ob es sich etabliert wird der Markt zeigen.Richtig. Dennoch setze ich SLI in die Reihe bereits etablierten Techniken, weil ich es für wahrscheinlich (oder zumindest wünschenswert) halte, dass sich auch SLI etabliert. Ich sehe keine prinzipiellen Unterschiede zu anderen rohleistungssteigernden Techniken, die kosten zunächst ebenfalls mehr als sie bringen, doch mit besonderen Optimierungen und Software, die die Leistung braucht, setzt es sich dann trotzdem durch. Natürlich wird sich SLI absehbar nicht an den Massenmarkt wenden. Doch wenn von den ernsthaften Spielern mit dickem Portemonaie (sagen wir, die ansonsten mindestens 300 € für eine Graka ausgeben) mal jeder 10. ein SLI-System hat, ist das doch schon was.
Aber etwas als etabliert zu bezeichnen was außer nVidia (und ein paar ausgewählte) noch kein Mensch in Aktion gesehen hat ist schon reichlig seltsam.Dass SLI etabliert wäre habe ich nicht gesagt, im Gegenteil wird die Kolumne recht deutlich: "Natürlich vermarktet Nvidia SLI jetzt so, als sei damit der Durchbruch gelungen. Das ist objektiv aber nicht so: [...]"
Quasar
2004-11-08, 22:45:31
Auch in dem NV-Forum wird berichtet, dass selbst die neusten Treiber dieses Problem nicht lösen...
Ist ja nicht so, daß es überall auftritt - wie gesagt, in UT2004 Asbestos scheint es zu 99% gefixt zu sein.
Painkiller-SP-Demo v1.4 sieht dagegen noch grausam aus - egal, ob mit oder ohne AF, egal welche Einstellung.
Hoffentlich hat People can Fly nicht die Mipmaps zu den Normals vergessen.
Colin MacLaren
2004-11-08, 23:40:04
Irgendwie erscheint mir die 2Kauf eine 6600Gt und später eine zweite" nicht wirklich sinnvoll. Wennn ich schon von vornherein weiß, daß ich diesen Weg gehen will, und das Geld für eine 6800GT nicht vefügbar habe, dann kauf ich mir die auf Rate. Der Vorteil leigt auf der Hand, während man bei der 2x6600Gt-Variant nur Mittelmaß-Performance genießen kann, später ins Lowend abrutscht und durch Kauf der zweiten Karte wieder ins Mainstream-Segment aufsteigen kann, kann man bei einer 6800GT erstmal eine ganze Weile die Vorzüge einer Highend-Karte nutzen und rutscht dann nach ca. einem Jahr nur ins Mittelmaß ab. Frnr war afaik die Performance eine 6800GT immer noch bssr als die zweier 6600GT im SLI. Bezahlt hat man hintnraus dasselbe.
dacleric
2004-11-09, 02:18:24
hier gabs ja auch das gespräch über wichtigere dinge als SLI zu sprechen..
allerdings...
für mich kommt z.B. nur Nvidia in frage da für Linux der Treiber support von ATI als quasi nicht vorhanden betrachtet werden kann. es gibt hier zwar auch schon erste versuche... aber alles doch sehr kläglich. ich denke mal das nvidia hier eine menge geld investiert.
ich kann z.b. WarCraft 3 spielen(cedega) und meine Freundin schaut Buffy aufm TV (tv-out) und ja... beide mit getrennten sound ;)
bei ati gibs nichtmal native Doom3, von tv out / allinwonder etc. möchte ich nicht lieber nicht sprechen .oO( gibs treiber für alte karten pre 8500)
Tobias123
2004-11-09, 10:50:15
Diesbezüglich werde ich mal NV kontaktieren.
Doch zwei Fragen noch: Ist "Anistropic Sample Optimization" deaktivert worden? Gibt es Unterschiede im Bild, wenn man diese Option umschaltet?
Diese Option gibt es erst in den neusten Treibern, oder?
Zumindest kenne ich diesen Schalte nicht...
Aber laut div. Foren ist es selbst mit den neusten Treiber nicht möglich das Schimmern zu unterbinden.
Kannst das Shimmern auch nicht "wegfiltern" wenn das LOD zu aggressiv gesetzt wurde. Mit den SSAA Modi gehs fast ganz weg, aber einfacher ist es das LOD manuell etwas ins positive zu verschieben, afaik war das bei den 60.72 FW noch nicht. Vieleicht war NV die Filterung die ja den Refrast von MS übertrifft zu "weich"...
Das LOD-Bias hat damit nichts zu tun. Das LOD-Bias sollte immer auf 0.0 stehen. Unterfilterung beim AF mit einem Bias zu "fixen" bringt an anderer Stelle wieder Qualitätsnachteile.
Eigentlich wurde Texturfilterung erfunden, um das Nyquist-Kriterium einzuhalten. Wenn man das absichtlich verletzt, widerspricht das dem Sinn von Texturfilterung. Es ist idiotisch, zu unterfiltern. Und es ist stark idiotisch, stark zu unterfiltern.
Habib
2004-11-09, 18:11:37
so ich hätte da mal ne frage, hoffe die war noch nicht,
gibt es denn immo mainboards mit 2x pcie 16x oder wo soll ich denn die zweite graka hinstecken ???
deekey777
2004-11-09, 23:43:43
so ich hätte da mal ne frage, hoffe die war noch nicht,
gibt es denn immo mainboards mit 2x pcie 16x oder wo soll ich denn die zweite graka hinstecken ???
"SLI"-Boards sind noch nicht verfügbar, kommen aber bald. Intel bietet zwar ein SLI-fähiges Board, aber ich schweige lieber, bevor ich was falsches erzähle.
Die nForce4 Mainboards werden 2 PEG-Steckplätze haben, in die zwar je eine PCIe Grafikkarte reinpasst, aber es sind dann 2x PCIe8x Steckplätze (die mechanische Umschaltung ist aber gut gelöst worden). Ein Test auf THG hat aber gezeigt, dass PCIe8x kein Nachteil ist.
Hier findest du mehr: NVIDIA SLI Performance Preview with MSI's nForce4 SLI Motherboard (http://www.anandtech.com/video/showdoc.aspx?i=2258)
OBrian
2004-11-10, 02:15:48
...
Wer bitteschön ist so bescheuert und kauft sich jetzt 2 *6800Ultra mit SLI wenn in spät. 6 Monaten von beiden!!!!! NEUE Harware rauskommt die deutlich überlegen ist?????
... Wer sich ein SLI-Gespann kauft oder auch nur ernsthaft mit dem Gedanken spielt, gehört meist sowieso zu den Leuten, die alle 6 Monate eine neue Grafikkarte kaufen...
Na klar ist das bescheuert, na und? Hobby eben, wenn´s keinem schadet, soll er´s machen, sag ich immer.
Hübie
2004-11-10, 15:21:57
heheheee....gute Kolumne. Qualität wie immer :biggrin: Ich persönlich werde mir auch n SLI Board kaufen (nächstes Jahr) und später wie dort erwähnt kostengünstig nachrüsten, um nicht schon wieder die Bauteile wechseln zu müssen (Board Graka etc...).
Hoffe das ATi mit Ihrer Technik schnell nachzieht, da ich ein Jünger ihrerseits bin ;)
bye Hübie
@OBrian: Was ist wenn ich dir sage, dass ich meine 9700Pro seit 2 Jahren habe und mir Anfang nächsten Jahres erst n neues Gespann kaufe? ;)
hier gabs ja auch das gespräch über wichtigere dinge als SLI zu sprechen..
allerdings...
für mich kommt z.B. nur Nvidia in frage da für Linux der Treiber support von ATI als quasi nicht vorhanden betrachtet werden kann. es gibt hier zwar auch schon erste versuche... aber alles doch sehr kläglich. ich denke mal das nvidia hier eine menge geld investiert.
ich kann z.b. WarCraft 3 spielen(cedega) und meine Freundin schaut Buffy aufm TV (tv-out) und ja... beide mit getrennten sound ;)
bei ati gibs nichtmal native Doom3, von tv out / allinwonder etc. möchte ich nicht lieber nicht sprechen .oO( gibs treiber für alte karten pre 8500)
Das kann ich nicht nachvollziehen, habe Suse Linux 9.2 laufen und keine Probleme mit der 9800Pro! Ich mag diese pauschale Anschuldigung nicht, wenn mann noch nicht einmal die Probleme auflisten kann!
Das kann ich nicht nachvollziehen, habe Suse Linux 9.2 laufen und keine Probleme mit der 9800Pro! Ich mag diese pauschale Anschuldigung nicht, wenn mann noch nicht einmal die Probleme auflisten kann!
Hi
Das ist normal, das ATI für Linux angefeindet wird, schliesslich kann man ja mit so einen tollen OS dank ATi nicht zocken. :-D
Alle dich kenne haben die nVIDIA Karten aus den Linux Rechnern verbannt.
Die Arbeiten damit und pfeifen aufs zocken.
@aths
Bist Du im Ernst der Meinung das SLI schon etabliert ist?
Ok Ich finde es nice to Have, aber aber mehr auch nicht, wenn alle Hersteller das anbieten ja, aber so ..
Gruss Labberlippe
@aths
Bist Du im Ernst der Meinung das SLI schon etabliert ist?Nein, aber ich stelle es in die Reihe der etablierten Techniken, will heißen, ich erwarte dass sich SLI etabliert. Natürlich nicht in der Breite dass das gleich Massenmarkttauglich wird.
Bei meiner Ti 4600 nervte am Ende die Begrenzung auf DX8 mehr als die nicht mehr top-aktuelle Leistung. Wäre die Ti 4600 eine DX9-Karte gewesen, hätte ich mit SLI gewünscht, aber so musste ich dann zur FX 5900 greifen.
Thowe
2004-11-11, 20:31:55
Naja, ich habe mir heute erst einmal mein MSI K8N Diamond bestellt, mal sehen wie es ist.
Naja, ich habe mir heute erst einmal mein MSI K8N Diamond bestellt, mal sehen wie es ist.
Das ist schön, ich habe nächste Woche ein MSI Board mit Radeon Xpress200 PCI Express und dann können wir gerne mal einen Vergleich machen!
perfekt!57
2004-11-19, 11:58:06
ich galube nicht, resp. bin sogar völlig sicher, dass sich sli nicht durchsetzen wird.
der grund ist heute derselbe wie in der vergangenheit: und das ist die ganz simple kosten/nutzen-rechnung.
und neben vielen anderen argumenten gibt es am ende auch noch "das der umweltverträglichkeit" (und das geht hier und zum glück "hand in hand" mit den kosten):
zwei pcb's, 2x rams, 2x alle bauteile usw. usf: das rechnet sich nicht. nicht, wenn ich ich 70, 80 oder mehr % der leistung von 2 karten in einer vereinen kann.
bin mal gespannt, "wie der markt uns das verkaufen will": 2 grakas in einem karton, "das SLI-Pack"? und sind dann die 2 karten in einem karton billiger als 2x 1 karte, weil ja ein karton, eine treiber-cd usw. gespart wurde? sicher nicht: man wird versuchen uns ander stelle zu belügen:
zwei karten in einem karton sind teurer, als zwei einzelne karten -"weil die miteinander gesprüft wurden":
ganz klar: mainstreammässig setzt sich das nicht durch.
schicke marketing-image-lösung für einige wenige am oberen ende der preisgefüges sicherlich.
"spätestes mit der nächten gpu-generationn hat der spuk ein end"e: solange die schnittstlle (PCIe 16x) nicht der flaschenhals ist/wäre (was ja nicht abzusehen ist), wird sich das nicht durchsetzen.
"spätestes mit der nächten gpu-generationn hat der spuk ein end"e: solange die schnittstlle (PCIe 16x) nicht der flaschenhals ist/wäre (was ja nicht abzusehen ist), wird sich das nicht durchsetzen.
Glaubst du wirklich, NV50 wird nicht SLI-fähig sein? ;)
Tigerchen
2004-11-24, 16:22:16
Korrekt, die Kolumnen geben außerdem nicht die 3DC-Redaktionsmeinung wieder. Soweit es meine Zeit zulässt werde ich alle zwei Wochen meine Privatmeinung äußern. Dabei muss es nicht immer um 3D-Technik gehen.
In dieser Kolumne ging es darum, SLI in die Reihe der etablierten Parallelverarbeitungstechniken zu stellen. Ich halte meine Argumentation in diesem Kontext für stichhaltig. Die Probleme die es bei der aktuellen SLI-Implementierung gibt, interessieren mich da weniger, SLI ist möglich, und per se allen Unkenrufen zum Trotz sinnvoll. Das hatte ich da auf 11 Kilobyte ausgebreitet.
Während ich versuche, eine regelmäßige aths-Kolumne zu etablieren, bin ich sicher dass Leo auch andere Kolumnen veröffentlicht, sofern
- sie irgendwie zum 3dc-Themenbereich passen
- sie im lesbarem Deutsch vorliegen.
Ich hätte keine Probleme damit, wenn es gezielte Kontra-Kolumnen gebe. Sofern in jener gut argumentiert wird, überzeugt das die Leser vielleicht mehr als mein Geschreibsel – warum auch nicht?
Tja nach den neuesten Informationen zeigt sich ja wohl daß SLI verdammt problembehaftet ist. Bestimmte Grafikkartenrevisionen laufen laut THG gar nicht. Manche Spiele wie FS 2004 laufen gar nicht und generell brauchen alle Spiele einen eigenen Treiber bzw. einen Hack der SLI freischaltet. Für ältere Spiele wird es das wohl nicht alzu oft geben. Auch bei Neuen bist du auf die Gnade von nV angewiesen. . Daß SLI machbar ist macht es ja wohl kaum zu einer etablierten Technik. Machbar ist nicht gleich sinnvoll.
Du schriebst mir einmal David Kirk würde dich ernst nehmen. Scheinbar versorgen seine Leute dich nur mit Informationen die ausreichen Werbung für nV's tolle Features wie eben SLI zu machen. Über schwer wiegende Probleme wird dir anscheinend nichts erzählt. Die dürfen dann andere aufdecken. Vielleicht wäre es mal lohnend mal darüber nachzudenken ob man immer gleich eine Hype lostreten muß wenn man nur über nicht überprüfbare Vorabinformationen verfügt. Vielleicht würden uns dann so Werbeaktionen wie diese SLI-Kolumne dann erspart bleiben.
Glaubst du wirklich, NV50 wird nicht SLI-fähig sein? ;)
Wenn du mit Fähigkeit den praktischen, "im Haus Gebrauch" meinst, dann könnte der nv50 der erste Chip sein, der dazu fähig ist.
[COLOR="#000088"]
Vielleicht würden uns dann so Werbeaktionen wie diese SLI-Kolumne dann erspart bleiben.Was SLI angeht, enthielt ich von NV nur die üblichen PR-Mails, die ich wie üblich nicht gelesen habe. Werbeaktionen würde ich erstens als solche kennzeichnen und zweitens vom Beworbenen Geld verlangen. Beides ist nicht der Fall.
Exxtreme
2004-11-24, 21:11:01
Was SLI angeht, enthielt ich von NV nur die üblichen PR-Mails, die ich wie üblich nicht gelesen habe. Werbeaktionen würde ich erstens als solche kennzeichnen und zweitens vom Beworbenen Geld verlangen. Beides ist nicht der Fall.
Naja, trotzdem ist Nvidias SLI doch nicht so toll wie ursprünglich angenommen. Es erfordert spezielle Unterstützung in Form von applikationsspezifischen Einstellungen im Treiber. Kennt der Treiber ein Spiel nicht dann ist's Essig mit SLI.
Demirug
2004-11-24, 21:22:56
Naja, trotzdem ist Nvidias SLI doch nicht so toll wie ursprünglich angenommen. Es erfordert spezielle Unterstützung in Form von applikationsspezifischen Einstellungen im Treiber. Kennt der Treiber ein Spiel nicht dann ist's Essig mit SLI.
Das stelle ich nach wie vor schwer in Frage weil...
1. Die SLI Einstellungen sind nicht direkt im Treiber sondern in einer XML Datei.
2. Im Panel gibt es einen Dialog mit dem man den SLI Modus einstellen kann. Man kommt nur derzeit scheinbar nicht ran.
Tigerchen
2004-11-25, 15:50:09
Was SLI angeht, enthielt ich von NV nur die üblichen PR-Mails, die ich wie üblich nicht gelesen habe. Werbeaktionen würde ich erstens als solche kennzeichnen und zweitens vom Beworbenen Geld verlangen. Beides ist nicht der Fall.
Dann frag ich mich auf welche Informationen du dich überhaupt stützt wenn du so eine eindeutige Pro-SLI-Kolumne auf einer sicher nicht selten gelesenen Newsseite veröffentlichst.
[COLOR="#000088"]
Dann frag ich mich auf welche Informationen du dich überhaupt stützt wenn du so eine eindeutige Pro-SLI-Kolumne auf einer sicher nicht selten gelesenen Newsseite veröffentlichst. Wiki (http://de.wikipedia.org/wiki/Kolumne) zu "Kolumne", wissen.de (http://www.wissen.de/xt/default.do?MENUID=40,156,538,547&MENUNAME=InfoContainer&OCCURRENCEID=.SL0011752955.TM01-FullContent&WissenID=QaYFmJrbuiPodlVABQEKIc2jfjemkaH58m4AQ1NnDOr7wyWwihls|-208798885252437872/182718489/6/7062/7062/7003/7003/7062/-1|-3361137819008594267/182718477/6/7062/7062/7003/7003/7062/-1|1101399448418) zu Kolumnist.
Worauf ich mich stütze, ist in der Kolumne enthalten.
Tigerchen
2004-11-25, 18:23:32
Wiki (http://de.wikipedia.org/wiki/Kolumne) zu "Kolumne", wissen.de (http://www.wissen.de/xt/default.do?MENUID=40,156,538,547&MENUNAME=InfoContainer&OCCURRENCEID=.SL0011752955.TM01-FullContent&WissenID=QaYFmJrbuiPodlVABQEKIc2jfjemkaH58m4AQ1NnDOr7wyWwihls|-208798885252437872/182718489/6/7062/7062/7003/7003/7062/-1|-3361137819008594267/182718477/6/7062/7062/7003/7003/7062/-1|1101399448418) zu Kolumnist.
Worauf ich mich stütze, ist in der Kolumne enthalten.
Selbst nach den neuesten Horrormeldungen bleibst du dabei daß wir SLI brauchen?
Thowe
2004-11-25, 19:13:55
Nur weil die jetzige Architektur der Karten/Software es noch nicht unbedingt sinnig erscheinen lässt, bedeutet das ja nicht, das es nicht in Zukunft sinnig sein kann/wird. Es gibt auch genügend Programme die nicht einen echten Vorteil aus Multi-Prozessor-Systeme ziehen können, das bedeutet ja nicht, das so ein System in jeden Fall unsinn ist. Doch Multi-GPU wird wie Multi-Prozessor sicher ein Thema in Zukunft werden (müssen). Ob auf der Karte oder mehreren Karten oder beides, das ist dann die offene Komponente. Ich für meinen Teil glaube einfach nicht, das sich die Entwicklung kosteneffizient beliebig weiter treiben lässt.
[COLOR="#000088"]
Selbst nach den neuesten Horrormeldungen bleibst du dabei daß wir SLI brauchen?Welche Horrormeldungen? Horror ist hier imo nur, dass du ständig mit der blauen Farbe deine offenbar so furchtbar wichtigen Postings markierst.
So schnelle Grafikkarten wie heute gab es noch nie. Trotzdem bastelt NV an SLI, Alienware am Video Array und ATI an AMR. Gleich drei Anläufe, um zwei Karten gemeinsam zu betreiben um die Leistung noch weiter nach oben zu treiben. Jeder Ansatz hat seine Vor- und Nachteile. Nvidias SLI hat nicht nur Vorteile, die Kolumne nennt SLI denn auch nicht etwa eine schon ausgereifte Lösung. Aber NV wird für die Vorreiterrolle gelobt, die sie gegenüber ATI (und Alienware) derzeit haben.
So schnelle Grafikkarten wie heute gab es noch nie. Trotzdem bastelt NV an SLI, Alienware am Video Array und ATI an AMR. Gleich drei Anläufe, um zwei Karten gemeinsam zu betreiben um die Leistung noch weiter nach oben zu treiben. Jeder Ansatz hat seine Vor- und Nachteile. Nvidias SLI hat nicht nur Vorteile, die Kolumne nennt SLI denn auch nicht etwa eine schon ausgereifte Lösung. Aber NV wird für die Vorreiterrolle gelobt, die sie gegenüber ATI (und Alienware) derzeit haben.
UNFUG! Im Desktop Segment hatte 3dfx bereits vor langer Zeit erfolgreich und für den Kunden einfach zu realisieren ein geniales System im Angebot gehabt.
Die Vorreiterrolle scheinst du hier in 3DCenter für die Werbung für nvidia zu übernehmen. Ich habe persönlich damit kein Problem, halte den nv43 beispielweise für sehr gelungen Chip, nur sollte das vielleicht auch dem etwas weniger kritischen Leser erklärt werden.
UNFUG! Im Desktop Segment hatte 3dfx bereits vor langer Zeit erfolgreich und für den Kunden einfach zu realisieren ein geniales System im Angebot gehabt.Wäre das heute noch immer so einfach, würde es nicht die komplizierten Lösungen geben.
*Abwink* Für die einen ist man von ATI gekauft, für die anderen von NV ...
Nein aths, darum geht es nicht. Du hättest in der Kolumne mehr über die Multichipmöglichkeiten und ihre, aus meiner Sicht absolut unvermeidlicher Notwendigkeit schreiben sollen, statt die mangelhafte Lösung eines Herstellers als die ultima ratio darzustellen.
Was ausgewogeneres, wie Thowe es schrieb zum Beispiel.
Woher dein Geld kommt, solange es moralisch und rechtlich nicht verwerflich ist, ist zweitrangig.
Demirug
2004-11-25, 21:57:43
aths, du hättest wohl noch etwas grau (alienware) dazu mischen sollen dann wäre es nicht so grün gewesen.
Tigerchen
2004-11-26, 17:07:28
Welche Horrormeldungen? Horror ist hier imo nur, dass du ständig mit der blauen Farbe deine offenbar so furchtbar wichtigen Postings markierst.
So schnelle Grafikkarten wie heute gab es noch nie. Trotzdem bastelt NV an SLI, Alienware am Video Array und ATI an AMR. Gleich drei Anläufe, um zwei Karten gemeinsam zu betreiben um die Leistung noch weiter nach oben zu treiben. Jeder Ansatz hat seine Vor- und Nachteile. Nvidias SLI hat nicht nur Vorteile, die Kolumne nennt SLI denn auch nicht etwa eine schon ausgereifte Lösung. Aber NV wird für die Vorreiterrolle gelobt, die sie gegenüber ATI (und Alienware) derzeit haben.
MORE MONEY, SAME PERFORMANCE
"It's obvious that the extra expenditure for SLI isn't buying you anything in Far Cry, especially with HDR lighting enabled. Which leads me on nicely to the question of just what SLI buys you for your money."
www.hexus.net
SLI SLOWER THAN WITH JUST ONE CARD IN HALF LIFE 2
"At 1024 x 768 you see there's basically no performance improvement with SLI enabled, and in some cases it's actually slightly slower."
www.hexus.net
MONTHS AWAY FROM AVAILABILITY
"the majority of manufacturers won't have product on the streets until the first few months of 2005. "
-> Anand Lal Shimpi, Anandtech
POOR GAME COMPATIBILITY
"At present a number of games will not run at all with SLI."
"We disapprove of the situation that SLI currently is only possible with games released by NVIDIA."
"When buying an SLI system you should note that not all games work with this mode. Without the right SLI profile in the driver the game runs only on one card with SLI activated, and sometimes even more slowly than when SLI is deactivated."
->Lars Weinand, Tom's Hardware Guide
A SERIES OF DEFECTIVE BIOS COMPONENTS
"The source of the problems turned out later to be a series of defective Bios components"
->Lars Weinand, Tom's Hardware Guide
"We did have issues with stability on our 6800 Ultra cards. NVIDIA explained that we had cards with the wrong BIOS installed, so we flashed the cards but still experienced the same crashing issues."
->Kyle Bennett, HardOCP
'LITERALLY RAINING CRASHES' - POOR DRIVERS
With the arrival of the first SLI-capable motherboards our enthusiasm was quickly dampened however. It was literally raining crashes and the lab SLI configuration with the GeForce 6800 and 6600 GT PCIe cards either could not be recognized or the computer would crash after a few seconds of error messages. Anybody who is willing to invest over $1,000 for 3D graphics on his computer will also be able to live with the risk of an occasional game or computer crash while running SLI. Waiting for the next driver update or using some kind of leaked driver in order to use SLI with a new game is not a lot of fun and will most certainly not be seen as acceptable by the group for which it is targeted
->Lars Weinand, Tom's Hardware Guide
"They are not to the level of stability that we would sign off on for your consumption."
"It did seem as through their load balancing algorithm was somewhat flawed or broken in parts of this game. While I am sure it is not simple to apply dynamic SFR to any game, it certainly should be working properly if it does try to apply it. Quite frankly I was surprised to see this issue in FarCry as NVIDIA surely knew that it would be one of the games to draw focus in almost any SLI article that you will read today."
"We still experienced the same hitching/pausing however, which can distract from gameplay. The Radeon X800Pro or X800XT-PE did not experience this problem. Hopefully this is a driver issue we will see fixed, but that is yet to be seen. Quite frankly, we find these hitches unacceptable in this particular game. It really detracts from gameplay and should not be happening on any DX9 video card"
->Kyle Bennett, HardOCP
"Moreover, in certain games such as Unreal Tournament 2004, the AFR selected by NVIDIA does not offer increased performance, quite the contrary, and in others as IL-2 Pacific Fighters it introduces graphic bugs when certain graphics settings are selected."
->Marc Prieur, Hardware.fr
NOISY
"An SLI machine is noisy, overheats and consumes an enormous amount of power."
->Julien Jay, Clubic.com
Wie ignorant muß man eigentlich sein um solche Meldungen nicht als Horrormeldungen wahrzunehmen? Das wird nie was Gescheites mit SLI. Egal ob es nun von nV, ATI, XGI oder Alienware kommt. Was da entwickelt wird ist genauso sinnvoll wie das Engagement diverser Autohersteller bei der Formel 1. Es geht darum Emotionen zu wecken um so eine emotionale Bindung an einen bestimmten Hersteller entstehen zu lassen.
Multichip mit mehreren Sockeln hat sich ja auch bei den CPU's nicht durchgesetzt (Desktop). Die CPU-Hersteller haben nun aber eine Lösung gefunden mit der der Markt wohl klarkommt. Ich denke mal auch für GPU's wird sich eine akzeptable Möglichkeit finden lassen. SLI ist keine.
Quasar
2004-11-26, 17:14:31
Wie ignorant muß man eigentlich sein um solche Meldungen nicht als Horrormeldungen wahrzunehmen? Das wird nie was Gescheites mit SLI. Egal ob es nun von nV, ATI, XGI oder Alienware kommt. Was da entwickelt wird ist genauso sinnvoll wie das Engagement diverser Autohersteller bei der Formel 1. Es geht darum Emotionen zu wecken um so eine emotionale Bindung an einen bestimmten Hersteller entstehen zu lassen.
Multichip mit mehreren Sockeln hat sich ja auch bei den CPU's nicht durchgesetzt (Desktop). Die CPU-Hersteller haben nun aber eine Lösung gefunden mit der der Markt wohl klarkommt. Ich denke mal auch für GPU's wird sich eine akzeptable Möglichkeit finden lassen. SLI ist keine.
[/COLOR]
Parallelismus hat sich auf den Grafikchips ja bereits vor geraumer Zeit durchgesetzt, eben weil Grafik einfacher parallelisierbar ist, als "CPU"-Code. Nun gehen CPUs mit HTT/Dual-Core in dieselbe Richtung, während Grafikkarten schon eine Runde weiter sind.
SLI ist lediglich der Versuch, die Grenzen aktueller Herstellungstechnik zu überwinden. "SLI-on-Chip" ist bereits seit mehreren Jahren Realität.
Tigerchen
2004-11-26, 17:31:54
Parallelismus hat sich auf den Grafikchips ja bereits vor geraumer Zeit durchgesetzt, eben weil Grafik einfacher parallelisierbar ist, als "CPU"-Code. Nun gehen CPUs mit HTT/Dual-Core in dieselbe Richtung, während Grafikkarten schon eine Runde weiter sind.
SLI ist lediglich der Versuch, die Grenzen aktueller Herstellungstechnik zu überwinden. "SLI-on-Chip" ist bereits seit mehreren Jahren Realität.
Auch ich glaube nicht daß sich das Spielchen beliebig weitertreiben läßt. Schon heute sind nicht funktionierende Pipelines deaktivierbar. Nur macht dies die Chips nicht gerade billiger. Es muß schon eine Lösung ersonnen werden um z.B. 64 Pipeline Architekturen herzustellen ohne alzu viel Silizium bei defekten Pipes zu verlieren. Ich sehe durchaus das Problem. Nur halte ich eine Lösung via SLI für groben Unfug und wirtschaftlich untragbar.
StefanV
2004-11-30, 17:04:00
Und ein weiterer Wehrmutstropfen für SLI:
Today there is still a major obstacle to getting SLI setups running: proper driver support. The graphics driver needs to support both SLI mode in general and each specific SLI-capable chipset. Right now, only the NVIDIA Detonator driver version 66.74.1, dated September 29, works for benchmarking; this version does not collect chipset information and this enables SLI to work without complaint.
samt Link (http://www20.tomshardware.com/motherboard/20041130/index-03.html)...
Also:
SLI muss auch den entsprechenden Chipsatz unterstützen, nicht nur die Karten...
aths, du hättest wohl noch etwas grau (alienware) dazu mischen sollen dann wäre es nicht so grün gewesen.Zu jenem Zeitpunkte hatte ich kaum Infos über Alienwares Video Array, welches soweit ich weiß auch nicht nur Vorteile hat.
[COLOR="#000088"]
Auch ich glaube nicht daß sich das Spielchen beliebig weitertreiben läßt. Schon heute sind nicht funktionierende Pipelines deaktivierbar. Nur macht dies die Chips nicht gerade billiger.Im Endeffekt wirds für den IHV billiger.
[COLOR="#000088"]
Wie ignorant muß man eigentlich sein um solche Meldungen nicht als Horrormeldungen wahrzunehmen? Ich lese, wenn, dann ganze Artikel und nicht nur die Zeilen die mir passen.
Das wird nie was Gescheites mit SLI. "Es wird nie ein Mensch fliegen, sagte der Bischof den Leuten." (B. Brecht)
StefanV
2004-12-01, 11:59:07
Nur halte ich eine Lösung via SLI für groben Unfug und wirtschaftlich untragbar.
Für Consumer -> durchaus
Für Workstations und ähnlcihem ists durchaus sinig, nur versagts da, wo mans braucht irgendwie am meisten :|
StefanV
2004-12-01, 14:25:21
So, mal zusammenfassen, was gegen SLi spricht:
a) http://www.hkepc.com/hwdb/r430r480-6.htm
b) http://www20.tomshardware.com/motherboard/20041130/index-03.html
c) http://forum-3dcenter.de/vbulletin/showthread.php?t=185912
Zusammengefasst:
Sli benötigt 500W Netzteile, die einzelnen GraKas (die 6800er) sind Heizöfen par excellence, die Treiber müssen das Spiel UND CHIPSATZ Unterstützen.
Mit anderen Worten:
SLI ist für Home User unbrauchbar.
und fortan waren sie gepwned!
Mit anderen Worten:
SLI ist für Home User unbrauchbar.[ ] Du hast meine Kolumne verstanden.
[x] Du hast meine Kolumne nicht verstanden.
Schade, eigentlich.
Thowe
2004-12-01, 19:09:34
[ ] Du hast meine Kolumne verstanden.
[x] Du hast meine Kolumne nicht verstanden.
Schade, eigentlich.
Wobei das auf mehrere andere auch zutreffen mag.
BeCreative
2004-12-09, 18:57:38
Super Kolumne :)
Trotzdem bin ich gegen SLI :D
Selle
2004-12-09, 19:21:59
Das stelle ich nach wie vor schwer in Frage weil...
1. Die SLI Einstellungen sind nicht direkt im Treiber sondern in einer XML Datei.
2. Im Panel gibt es einen Dialog mit dem man den SLI Modus einstellen kann. Man kommt nur derzeit scheinbar nicht ran.
Zu 2. Soll ja noch kommen :
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=188570
...Sollen wir jetzt noch Beta-Tester spielen????
Ist doch garnichtmal sooo abwegig! Technik muss erprobt werden damit sie verbessert werden kann. Wer soll das machen?? Leute die dafür bezahlt werden oder leute die dafür bezahlen?? (Forschung muss ja auch finanziert werden)
Davon mal abgesehen muss einer den schritt wagen. Wenn ATi diese Technik nur für den "Pro-Bereich" vorsieht, selber schuld. Die Technik muss vorran schreiten wenn die IHVs mal fotorealismus bieten wollen.
perfekt!57
2004-12-14, 01:02:02
Danke für die mutige Kolumne. Einige der klugen Gedankengänge haben mich nachdenklich gemacht.
ich frag mich wie viel nvidia den 3Dcenter für diesen artikel gezahlt hat?!?!
ich will SLI nich klein reden aber ich finde es ist unnötig! jetzt bringt es noch vorteile doch wenn die grakas so stark sind das sie pciex 16x ausnutzen ist es total sinnlos da es 2 8x pciex steckplätze auf den mobo sind! (werden aber als 16x bezeichnet)
außerdem sind die mobos teuerer als normale und wer kann sich schon 2 grakas der 6000er serie leisten? das mit der hitze und den netzteil hat stefan schon erzählt!
wer das geld hat kann sich sowas holen doch ich bleib der meinung das eine graka reicht!
mfg
tombman
2005-01-06, 00:37:46
1.) es werden so gut wie alle games mit SLI rennen ohne Profil...
2.) mit beta Treiber 71.20 ff + coolbits 2 hab ich bis jetzt so gut wie JEDES games im AFR Modus zum laufen gebracht, obwohl darunter viele games waren die kein Profil hatten
3.) Ja, man baucht ein fettes Netzteil und ja sie werden heiß, aber der Zielgruppe is des egal
4.) die mainboards kosten EIN WENIG mehrm vielleicht 30€
@gast über mir: es ist so scheiß egal ob die mit pci.e 16x oder 8x laufen, weil heutige games so prgrammiert sind, daß sogar LOCKER 4x pci.e ausreichen würde ohne fps Verlust...
Tigerchen
2005-01-06, 16:14:35
ich frag mich wie viel nvidia den 3Dcenter für diesen artikel gezahlt hat?!?!
ich will SLI nich klein reden aber ich finde es ist unnötig! jetzt bringt es noch vorteile doch wenn die grakas so stark sind das sie pciex 16x ausnutzen ist es total sinnlos da es 2 8x pciex steckplätze auf den mobo sind! (werden aber als 16x bezeichnet)
außerdem sind die mobos teuerer als normale und wer kann sich schon 2 grakas der 6000er serie leisten? das mit der hitze und den netzteil hat stefan schon erzählt!
wer das geld hat kann sich sowas holen doch ich bleib der meinung das eine graka reicht!
mfg
Dabei ist 6000er Klasse noch sinnfrei. Es müßen schon 6800GT oder Ultra Boliden sein und eine CPU die die erhöhte CPU-Last auffängt. Ein 3800+ ist da wohl schon als Minimum anzusehen.
StefanV
2005-01-06, 16:37:31
Und ein weiterer Wehrmutstropfen für SLI:
samt Link (http://www20.tomshardware.com/motherboard/20041130/index-03.html)...
Also:
SLI muss auch den entsprechenden Chipsatz unterstützen, nicht nur die Karten...
Dazu möcht ich noch auf die aktuelle PCGH (Ausgabe 02/05) Hinweisen, Seite 51, um genau zu sein, der Kasten der linken Seite, Kasten unten links 'Kompatiblität Geforce 6600GT'.
Kurz: es müssen 2 gleiche Karten sein, Leadtek und MSI geht nicht, dummerweise ist das aber noch keine Garantie das SLI funzt, wie die Sparkle PX43GVH beweist...
ich frag mich wie viel nvidia den 3Dcenter für diesen artikel gezahlt hat?!?!Diese Frage kann ich beantworten: Nvidia hat nichts gezahlt, noch irgendwelche Vorteile gewährt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.