PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SLI auch bei ATI - Was ist dran?


kuj0n
2004-11-02, 23:59:02
http://www.theinquirer.net/?article=19403

Heimatsuchender
2004-11-03, 00:02:17
ich habs auch schon auf mehreren seiten gelesen. ist eigentlich ganz einfach. ati muss sich was einfallen lassen. nvidia macht wieder boden gut. was mich nur wundert: diese geniale technik von 3dfx wurde jahrelang vernachlässigt. ich erinnere mich noch gut an meine zwei voodoo2 karten im sli modus. mal sehen, was draus wird.

tobife

Spasstiger
2004-11-03, 00:13:56
Hm, bis das ATI SLI (wie auch immer es heißen mag) Serienreife erreicht, gibts schon den R500. Ich frage mich, ob das "SLI" zu diesem Zeitpunkt dann noch Sinn macht?! Gut, Nvidia kann jederzeit mit SLI Produkten nachlegen, auch in der NV50/R500 Generation. Aber den aktuellen Vorsprung von Nvidia kann ATI so nicht einholen.

Huhn
2004-11-03, 00:40:03
ich halte sli für absolut sinnlos. denn
1. es ist teuer
2. man braucht spezielle mobos--> teuer
3. man braucht nen 2tes netzteil---> teuer
aber egal darum gehts nciht. ich denke eher ati wird mehr entwicklungszeit in den r500 stecken und versuchen mit einer grafikkarte die leistung der sli combo zu schaffen. damals hielt sli ja auch net ewig durch. also deke ich auf kurz oder lang wird sli wieder im boden versinken weils einfach zu teuer ist

Dancer
2004-11-03, 03:55:40
ich halte sli für absolut sinnlos. denn
1. es ist teuer
2. man braucht spezielle mobos--> teuer
3. man braucht nen 2tes netzteil---> teuer
aber egal darum gehts nciht. ich denke eher ati wird mehr entwicklungszeit in den r500 stecken und versuchen mit einer grafikkarte die leistung der sli combo zu schaffen. damals hielt sli ja auch net ewig durch. also deke ich auf kurz oder lang wird sli wieder im boden versinken weils einfach zu teuer ist

Damals hatten die Fertigungsprozesse aber nicht diese Grenzen aufzuweisen wie heute oder anders herum gesagt man hatte sie noch bei weitem nicht so ausgereizt wie heute.
Ein Grund auf SLI umzusatteln ist, dass man die Leistung deutlich erhöhen kann ohne im gleichen Maße mehr vom Herstellungsprozess abzuhängen.

Schauen wir uns die aktuellen Monster an:
R420 um die 180 Mio Transistoren
NV40 um die 220 Mio Transistoren.
Das ist die äußerste Schmerzgrenze momentan, was sich ja dann auch bei beiden in der Lieferfähigkeit niederschlägt - wobei interessanter Weise bei ATI negativer als bei Nvidia trotz sehr viel geringerer Komplexität. Hier hat Nvidia scheinbar diesmal es besser verstanden das Ganze halbwegs verträglich zu designen.

Anyway SLI bringt Nvidia einen 70 bis 90% Vorsprung ohne darauf hoffen zu müssen, dass bei TSMC oder IBM ein Wunder geschieht.
Ich sehe keinen Grund, wieso der R520 diese Grenzen in der Herstellung so dermaßen überspringen sollte. Das wird meiner Meinung nach nicht passieren. Er wird schnell aber wird er schnell genug sein das dann erhältliche Nvidia SLI Gespann zu schlagen? Ich habe da meine Zweifel. Beide werden in Zukunft an die Grenzen des Machbaren gehen bei der einzelnen HIgh End GPU. Da ist kaum Luft für große Performancevorsprünge zur Konkurenz.
Das heisst dann aber auch, dass SLI oder ähnliche Kombinationen ins Geschäft kommen und da wird zwangsläufig der verlieren, der so etwas nicht aufbieten wird. Das kann sich keiner von beiden leisten. Deshalb wird ATI handeln müssen. Bis dahin ist allerdings noch ein langer Weg. Auf den jetzigen Vorsprung von Nvidia hat das keine Auswirkung mehr. Den holt ATI vorerst nicht mehr ein.

mapel110
2004-11-03, 04:03:25
ich halte sli für absolut sinnlos. denn
1. es ist teuer
2. man braucht spezielle mobos--> teuer
3. man braucht nen 2tes netzteil---> teuer
aber egal darum gehts nciht. ich denke eher ati wird mehr entwicklungszeit in den r500 stecken und versuchen mit einer grafikkarte die leistung der sli combo zu schaffen. damals hielt sli ja auch net ewig durch. also deke ich auf kurz oder lang wird sli wieder im boden versinken weils einfach zu teuer ist

1. High end war und wird immer teuer sein, ist kein wirkliches Gegenargument
2. zweites Netzteil? Eins mit guter Leistung (400 Watt und besser) sollte ausreichen.
3. SLI hielt nicht durch, weil die Firma, die es herstellte, nicht durchhielt. :)

SLI kann schon ein Weg für die Zukunft sein, aber soweit sind wir denke ich noch nicht. Die Fertigungsprozesse haben noch für ein paar Jahre Luft IMO.

Ailuros
2004-11-03, 04:06:03
Mit einiger Wahrscheinlichkeit koennte schon was dran sein, aber dann eher als Marketing-Gegenreaktion zu NV's SLI.

ich halte sli für absolut sinnlos. denn
1. es ist teuer
2. man braucht spezielle mobos--> teuer
3. man braucht nen 2tes netzteil---> teuer
aber egal darum gehts nciht. ich denke eher ati wird mehr entwicklungszeit in den r500 stecken und versuchen mit einer grafikkarte die leistung der sli combo zu schaffen. damals hielt sli ja auch net ewig durch. also deke ich auf kurz oder lang wird sli wieder im boden versinken weils einfach zu teuer ist.

Das es teuer ist hab ich keinen Zweifel, aber wenn ich heute ein nForce4 System z.B. bauen wuerde dann wuerde ich die extra 50$ fuer ein dual-peg mobo schon hinlegen, um die Moeglichkeit eines zweiten boards zu haben.

Was Netzteile betrifft, ich hatte selber den falschen Eindruck dass Netzteile fuer solche System ueberteuer sein werden, aber es gibt momentan 510W PSUs von PC Power & Cooling mit knapp 190$, die minimal 34A (maximal 38A) vom +12V rail werfen koennen und das ist mehr als genug fuer zwei NV4x. Preise werden fuer PSUs auch schnell fallen.

Was hier wenige aber bedenken ist die Tatsache dass jeder theoretisch eine NV45 fuer einen guten Preis wieder verkaufen koennte, und diese Summe dann theoretisch fuer ein R520 board einlegen.

Das dual-peg board oder PSU wie oben geht auf jeden Fall nicht verloren. Hab ich aber fuer eine NV45 sagen wir mal 400 euro hingelegt, dann sind es fuer ein SLI System spaeter dann wohl sagen wir nochmal 300 euro.

400 + 300 = 700 euro fuer Grakas
(theoretisch high end R520) ~600 - 200 (vom NV45 Verkauf) = ~400 euro

Vorraussetzung ist natuerlich dass R520 auch frueh genug verfuegbar sein wird.

tombman
2004-11-03, 04:36:42
ich halte sli für absolut sinnlos. denn
1. es ist teuer
2. man braucht spezielle mobos--> teuer
3. man braucht nen 2tes netzteil---> teuer
aber egal darum gehts nciht. ich denke eher ati wird mehr entwicklungszeit in den r500 stecken und versuchen mit einer grafikkarte die leistung der sli combo zu schaffen. damals hielt sli ja auch net ewig durch. also deke ich auf kurz oder lang wird sli wieder im boden versinken weils einfach zu teuer ist

1.) relativ zur Leistung ist es NICHT teuer (ein Ferrari Enzo is auch "teuer")
2.) 30€ mehr für ein SLi mobo is ned der Rede wert
3.) sicher nicht, ein Markennetzteil reicht vollkommen

M@g
2004-11-03, 20:36:21
Ich seh SLI als netten Bonus und Option für Leute die wie ich gern mal bissl was feines im PC haben oder Leute die damit kein Problem haben sich SLI zu leisten. Über Sinn und Unsinn lässt sich nicht diskutieren, Geschmäcker sind schließlich verschieden und dass es was bringt is ja erwiesen und auch nur logisch.

Auserdem ist SLI in meinen Augen einfach cool, sowas kommt an, wer hat schon 2 Grakas im PC, und wie sich manche drüber Aufregen, gibt schlimmeres als etwas Deluxe im PC.

Wishnu
2004-11-03, 20:47:44
Deshalb wird ATI handeln müssen. Bis dahin ist allerdings noch ein langer Weg. Auf den jetzigen Vorsprung von Nvidia hat das keine Auswirkung mehr. Den holt ATI vorerst nicht mehr ein.

ATI hat schon vor Nvidia SLI eingesetzt. Aus den Luftleeren Raum müssen sie das also auch nicht zaubern.

Quasar
2004-11-03, 20:50:09
SLi oder SuperTiling?

Dancer
2004-11-04, 00:10:14
ATI hat schon vor Nvidia SLI eingesetzt. Aus den Luftleeren Raum müssen sie das also auch nicht zaubern.

Wann irgendwann mal etwas eingesetzt wurde spielt gar keine Rolle.
3dfx hat auch mal ein SLI Verfahren benutzt. Und? Die 3dfx Leute sitzen mehrheitlich bei Nvidia und trozdem gabs bis jetzt kein SLI oder ähnliche Technologie.

Entweder man plant es von langer Hand für ein Produkt oder eben nicht. Wenn ATI nicht mitbekommen hat, dass Nvidia an einer SLI Lösung arbeitet und sich gedacht hat die X800 Reihe wird reichen, dann garantier ich Dir wird es vor dem R520 nix mehr mit Multicore, SLI oder was weiss ich.
Entweder man sieht es für ein Design vor oder eben nicht.
Dadurch, dass ATI in letzter Minute Quasi die Paper XT-PE gelauncht hat, denke ich mal haben sie SLI oder etwas ähnliches für den R4xx nicht vorgesehen.

Somit bleib ich dabei, dass sie den Vorsprung vorerst nicht einholen können. Das werden sie wohl glaub ich abhaken müssen, da sie von Nvidia's Entscheidung SLI zu verwenden meiner Meinung nach überrascht wurden und keine Vorkehrrungen dafür für die R4xx Reihe getroffen haben.
Somit ist die Attacke mit recht großer Wahrscheinlichkeit auf den R5xx verschoben, der aber im 1. Halbjahr nicht mehr im Regal stehen wird. Fraglich ist auch, ob R5xx mit entsprechender Technologie versehen wurde, oder ob man jetzt nachbessern muss. Wenn ja, dann wirds erst den Refresh von R5xx treffen womit sich das Zeitfenster nochmehr vergrößert.
Mal eben alte Technologie ausgraben und binnen weniger Monate implementieren ist nicht. Das kannst du gleich vergessen.
Entweder sie haben frühzeitig daran gedacht oder aber nicht. Bei letzteren würde es dann eine etwas längere Durststrecke geben was das obere Segment angeht.

RLZ
2004-11-04, 00:19:17
...,denke ich mal haben sie SLI oder etwas ähnliches für den R4xx nicht vorgesehen.
Da gäbs aber von E&S Haue :deal:

Hamster
2004-11-04, 00:35:22
hat ati nicht seit jeher ihre chips multichiptauglich designt?


imo sollte es also kein problem sein, relativ schnell mit der doppelten power, wie die lösung auch immer aussehen mag, kontern können.

Ailuros
2004-11-04, 03:05:58
Multi-chip =! Multi-board.

Gigantische Unterschiede was die Treiber betrifft zwischen den beiden Methoden sehe ich eigentlich nicht, aber es ist nicht das gleiche zwei chips auf ein PCB und zwei GPUs in ein mobo einzusetzen.

ATI verwendet tatsaechlich SuperTiling seit der R300 AFAIK.

ATI hat schon vor Nvidia SLI eingesetzt. Aus den Luftleeren Raum müssen sie das also auch nicht zaubern.

SLI heute = scalable link interface =! scan line interleaving. Uebrigens hat ATI nie bis jetzt SLI (scan line interleaving) benutzt. Nur AFR bis zur MAXX und seither SuperTiling.

NVIDIA liefert skalierbare multi-GPU configs an Quantum3D seit dem Untergang von 3dfx, ergo 2001.

Ailuros
2004-11-04, 03:14:25
Wann irgendwann mal etwas eingesetzt wurde spielt gar keine Rolle.
3dfx hat auch mal ein SLI Verfahren benutzt. Und? Die 3dfx Leute sitzen mehrheitlich bei Nvidia und trozdem gabs bis jetzt kein SLI oder ähnliche Technologie.

Beweise? Wie waere es wenn ich Dir sagen wuerde dass fast das gesamte Rampage Team bei Quantum3D arbeitet? (siehe auch vorigen Post).

Entweder man plant es von langer Hand für ein Produkt oder eben nicht.

R3xx und R4xx sind skalierbar. Fuer die letztere hab ich keine Ahnung wie weit es gehen kann, aber bei R3xx waren bis zu maximal 256 chips moeglich.

simFusion6500q von Evans & Sutherland hatte 4*R300.


Wenn ATI nicht mitbekommen hat, dass Nvidia an einer SLI Lösung arbeitet und sich gedacht hat die X800 Reihe wird reichen, dann garantier ich Dir wird es vor dem R520 nix mehr mit Multicore, SLI oder was weiss ich.
Entweder man sieht es für ein Design vor oder eben nicht.
Dadurch, dass ATI in letzter Minute Quasi die Paper XT-PE gelauncht hat, denke ich mal haben sie SLI oder etwas ähnliches für den R4xx nicht vorgesehen.

Was hat ATI in letzter Minute gelauncht? Ich hab keine Ahnung woher Du das Zeug hast, aber R420 war von Anfang fuer 4 quads geplant und es wurde schon hier vor deren Vorstellung betont. Taktraten und Seltenheit sind ein anderes Bier.

Somit bleib ich dabei, dass sie den Vorsprung vorerst nicht einholen können. Das werden sie wohl glaub ich abhaken müssen, da sie von Nvidia's Entscheidung SLI zu verwenden meiner Meinung nach überrascht wurden und keine Vorkehrrungen dafür für die R4xx Reihe getroffen haben.

:rolleyes:

Somit ist die Attacke mit recht großer Wahrscheinlichkeit auf den R5xx verschoben, der aber im 1. Halbjahr nicht mehr im Regal stehen wird. Fraglich ist auch, ob R5xx mit entsprechender Technologie versehen wurde, oder ob man jetzt nachbessern muss. Wenn ja, dann wirds erst den Refresh von R5xx treffen womit sich das Zeitfenster nochmehr vergrößert.
Mal eben alte Technologie ausgraben und binnen weniger Monate implementieren ist nicht. Das kannst du gleich vergessen.
Entweder sie haben frühzeitig daran gedacht oder aber nicht. Bei letzteren würde es dann eine etwas längere Durststrecke geben was das obere Segment angeht.

Es gibt die Moeglichkeit dass sich ATI fuer einen Marketing-Schachzug entscheiden koennte um NVIDIA den Brei leicht zu verpatzen. Von grosser Verfuegbarkeit ist in dem Fall nicht besonders viel die Rede. Das Fenster gibt es aber bei ATI, ob es jetzt dazu kommt oder nicht weiss ich wirklich nicht.

Gast
2004-11-04, 09:04:39
Hmm SLI ist sicherlich keine lösung für den "kleinen Mann" ,das sind eher Highend freaks die alles ,egal um welchen preis, haben müssen.
Hier mal ne minirechnung :)

2x6800GT ca 800€ (6600er ist ja uninteressant bei sli)
Mobo 100€ mehr als ein standard

Das wären 900€ ,das wohl in 1 oder 1,5 jahren von einer Singlechip version
erreicht wird.
Mir wäre es lieber wenn ati ,wie damals beim RAGE 2 GPU´s verbauen würde
Wen ich jetzt mal eine pro hernehme mit ca 360€ und der 2te gpu nochmal die hälfte kosten würde ,wären wir bei 540 €.
Damit bräuchte keiner das mobo wechseln und keine 2 karten kaufen.
Vielelicht ginge es ja noch günstiger wenn man einfach wie bei den CPU´s Dualcore Chips herstellt,dann hat man zwar doppelte Die Fläche aber die dürfte wohl kaum größer als jetzt bei 0,13µ sein,wenn man in 0,09µ herstellt.

Nur son gedanke....

cu Billy

Wishnu
2004-11-04, 10:29:52
SLI heute = scalable link interface =! scan line interleaving. Uebrigens hat ATI nie bis jetzt SLI (scan line interleaving) benutzt. Nur AFR bis zur MAXX und seither SuperTiling.



Ich meinte eigentlich auch die MAXX. Mein Gehirn verband irgendwie 2 Chips zu SLI. ;)

Nunja, weit ist der Weg nicht bis dahin.

Zum Thema SLI und Nvidia: Ich denke mal, dass das bisher nicht auf den Markt kam, weil es dieser nicht wirklich braucht (eine 6800GT ist genauso schnell wie 2x6600GT, und 2x 6800GT ist viel zu teuer und damit nur ein Nischenprodukt). Aber heutzutage geht es ja nicht mehr darum, was gefragt ist, sondern alleine ums Prestige.

Ailuros
2004-11-04, 14:01:29
Zum Thema SLI und Nvidia: Ich denke mal, dass das bisher nicht auf den Markt kam, weil es dieser nicht wirklich braucht (eine 6800GT ist genauso schnell wie 2x6600GT, und 2x 6800GT ist viel zu teuer und damit nur ein Nischenprodukt). Aber heutzutage geht es ja nicht mehr darum, was gefragt ist, sondern alleine ums Prestige.

Teuer im Fall der GTs ist relativ; man kann heutzutage schon GTs ab 369$ finden x2 = 738$.

6800Ultra ab 534$.

6800GT SLI = ~60% + 6800U

534 * 60% = 854$

Viel halte ich von der SLI Idee immer noch nicht um ehrlich zu sein.

Tigerchen
2004-11-04, 15:58:25
Es gibt die Moeglichkeit dass sich ATI fuer einen Marketing-Schachzug entscheiden koennte um NVIDIA den Brei leicht zu verpatzen. Von grosser Verfuegbarkeit ist in dem Fall nicht besonders viel die Rede. Das Fenster gibt es aber bei ATI, ob es jetzt dazu kommt oder nicht weiss ich wirklich nicht.

Marketing!
Ich gehe auch davon aus daß ATI auch mal mit SLI in die Schlagzeilen kommen wollte. Liefern ist dann was anderes. Wie lange warten wir schon auf die Lieferbarkeit von nV's SLI?

san.salvador
2004-11-04, 16:18:05
Wird die ganze Geschichte nich furchtbar laut und warm? Ich stell mir grad zwei 6800 U SLI vor.... :eek:

deekey777
2004-11-04, 16:23:24
Marketing!
Ich gehe auch davon aus daß ATI auch mal mit SLI in die Schlagzeilen kommen wollte. Liefern ist dann was anderes. Wie lange warten wir schon auf die Lieferbarkeit von nV's SLI?



Du wartest auf nVidias SLI? :|
So lange warten wir darauf gar nicht: Man braucht passende Mainboards mit zwei PEG-Slots und 2 NV4x PCIe - diese kommen langsam.

deekey777
2004-11-04, 17:19:23
ATI's SLI brand to be called Multi Rendering (http://www.theinq.com/?article=19449)

WE MANAGED TO GET a few extra details about ATI's secret SLI programme. The Canadian based company chose Multi Rendering as the brand name for its marchitecture, to be introduced next year.
We are unsure whether ATI will stick with this name, but we know that ATI still hasn't told most of its partners about it.

Some of the VIP people even outside of ATI knew all along about this project, and ATI certainly told the investor community about its plans. It had to, since Nvidia was very noisy about its SLI technology and investors were raising many questions about ATI's next step. You also have to bear in mind that Nvidia SLI is working and performing and is soon to be shipped.

ATI may change the name in the second quarter of 2005, butfor now this is the name that it is using to tell the people that it wants to tell.

Multi Rendering is rather an ordinary name, so we suspect ATI will do better than that before launch time.


Ob das nicht zu einem Patentstreit führt?

Tigerchen
2004-11-04, 18:55:26
Du wartest auf nVidias SLI? :|
So lange warten wir darauf gar nicht: Man braucht passende Mainboards mit zwei PEG-Slots und 2 NV4x PCIe - diese kommen langsam.

Also ich warte sowieso nicht. Das war natürlich rhetorisch gemeint.
Aber wir warten nun doch schon seit Juni drauf. Und wahrscheinlich warten wir unterm Tannenbaum immer noch.

:redface:

Ailuros
2004-11-05, 01:34:02
Also ich warte sowieso nicht. Das war natürlich rhetorisch gemeint.
Aber wir warten nun doch schon seit Juni drauf. Und wahrscheinlich warten wir unterm Tannenbaum immer noch.

:redface:

Ohne die analogen motherboards und/oder chipsets koennte ich mir jederzeit ein zweites PCI-E board egal ob ATI oder NVIDIA praktisch an den Hut stecken. Macht das vielleicht Sinn?

Und es ist nicht gerade so dass bei ATI/NVIDIA in allen Faellen alles nach Ankuendigung so bald wie moeglich breit verfuegbar ist.

Gast
2004-11-05, 02:03:46
SLI ist aufjedenfall sinnvoll. Wär die 9800 pro SLI fähig gewesen hätte ich mir keine 6800 gt geholt

Lilebror
2004-11-06, 14:36:14
Also SLI bei Nvidia ?
Ich weiß nicht wie hier schon gesagt wurde, wer kann sich so einen schnik schnak denn schon leisten ? ;)
Klar so Leute gibt es immer (Leistung die keiner Brauht muss man haben)aber ob Nvidia da so unheimlich zu legt weiß ich nicht ,die mehrheit und letztlich die Leute die für den Erfolg von Nvidia und ATI sorgen sind meist die leute die sich einen Rechner bei Mediamarkt kaufen und keine Ahnung habe was eine Graka , oder eine Cpu ist!
Für die ist der Rechner ein Gehäuse was 2 Knöpfe ein DVD laufwerk und evt. einen Brenner hat.

Mal was anderes ich habe ein Netzteil was das locker vertragen würde (Enermax EG465AX-VE : 12V 33A; 5V 35A; 3,3V 35 A) aber ich sehe es trotzdem nicht ein mir ein Graka system von Nvidia ein zubauen was ungefair 160 Watt frist noch dazu jedemenge Lärm macht !
Und die Leistung von so einem System braucht sowieso keiner !
oder ?
Das wird ja immer schöner Yellow Strom oder Stawag oder was auch immer werden sich freuen !
Neuer werbe slogen von Nvidia : "Fernwärme ist out wir liefern ein Grakasystem mit dem sie gleichzeitig spielen und ihr Wohnzimmer oder Bad beheizen können, wir bieten attraktive lösungen um die Wärme ihres PC's effektif zu nutzen mit einem SLI Graka System ! "

Nee also das is mir zu dum. ;D
Da wäre ich eher für 2kern oder 2gpu Lösungen auf einer Platine .

Lilebror
2004-11-06, 14:39:22
Oder was mir gerade noch einfällt Nvidia verbessert mal ein bisschen seine effizienz die ist immer noch unter aller Sau im gegensatz zu ATI die Teilweise immer noch 20Watt unter der Verlust leistung von Nvidia Liegen.

MechWOLLIer
2004-11-06, 15:03:48
Oder was mir gerade noch einfällt Nvidia verbessert mal ein bisschen seine effizienz die ist immer noch unter aller Sau im gegensatz zu ATI die Teilweise immer noch 20Watt unter der Verlust leistung von Nvidia Liegen.
Ehm, wenn man mal die Anzahl der Transistoren vergleicht und dann den Energieverbrauch, da merkt man, dass der NV40 eine hervoragende Effizienz hat;)
und wie kommst du auf 160W? Unte Last sinds ca. 90W und bei ATI siehts nicht viel besser aus.
Also immer mal auf dem Boden der Tatsachen bleiben.

Lilebror
2004-11-06, 15:35:32
Ich meinte 160W für ein SLI system !

Godmode
2004-11-06, 19:40:38
Immer diese Sprüche von wegen Leistung, die keiner braucht! Nur weil du sie nicht brauchst heißt dass noch gar nichts!. Ich würde es wirklich genießen in 1600*1200 4xAA 16xAF oder vielleicht mit SSAA und hohen FPS zu zoggn.

Nur mein Problem ist ich habe gerade ein neues System gekauft und werde mir deshalb jetzt kein SLI zulegen, aber in 1-2 Jahren, wenn mein Rechner wieder alt ist, werde ich mir sicherlich ein SLI System kaufen, NV50 oder NV60 SLI, wenn es da SLI überhaupt noch gibt :) Oder vielleicht hat dann auch ATI schon was konkurenzfähiges im Sortiment.

Hauwech
2004-11-06, 23:03:02
Also SLI bei Nvidia ?
Ich weiß nicht wie hier schon gesagt wurde, wer kann sich so einen schnik schnak denn schon leisten ? ;)
Klar so Leute gibt es immer (Leistung die keiner Brauht muss man haben)aber ob Nvidia da so unheimlich zu legt weiß ich nicht ,die mehrheit und letztlich die Leute die für den Erfolg von Nvidia und ATI sorgen sind meist die leute die sich einen Rechner bei Mediamarkt kaufen und keine Ahnung habe was eine Graka , oder eine Cpu ist!
Für die ist der Rechner ein Gehäuse was 2 Knöpfe ein DVD laufwerk und evt. einen Brenner hat.

Mal was anderes ich habe ein Netzteil was das locker vertragen würde (Enermax EG465AX-VE : 12V 33A; 5V 35A; 3,3V 35 A) aber ich sehe es trotzdem nicht ein mir ein Graka system von Nvidia ein zubauen was ungefair 160 Watt frist noch dazu jedemenge Lärm macht !
Und die Leistung von so einem System braucht sowieso keiner !
oder ?
Das wird ja immer schöner Yellow Strom oder Stawag oder was auch immer werden sich freuen !
Neuer werbe slogen von Nvidia : "Fernwärme ist out wir liefern ein Grakasystem mit dem sie gleichzeitig spielen und ihr Wohnzimmer oder Bad beheizen können, wir bieten attraktive lösungen um die Wärme ihres PC's effektif zu nutzen mit einem SLI Graka System ! "

Nee also das is mir zu dum. ;D
Da wäre ich eher für 2kern oder 2gpu Lösungen auf einer Platine .

Meinst du das wirklich ernst oder ist das Sarkasmus?

Falls der R520 einen ähnlichen Transistorcount wie der NV40 hat und dann immer noch 20 Watt unter ihm liegt, _dann_ kannst du Nvidia Ineffizienz vorwerfen aber im Moment bestimmt nicht.

Hamster
2004-11-06, 23:09:40
Multi-chip =! Multi-board.

Gigantische Unterschiede was die Treiber betrifft zwischen den beiden Methoden sehe ich eigentlich nicht, aber es ist nicht das gleiche zwei chips auf ein PCB und zwei GPUs in ein mobo einzusetzen.

ATI verwendet tatsaechlich SuperTiling seit der R300 AFAIK.





habe NIE was von sli bei ati geschrieben. nur von doppelter power....

vielleicht solltest du mein posting noch einmal lesen :|

DH[ger]
2004-11-07, 18:07:50
Ich glaube nicht, dass sich SLI lohnt, da es glaube ich eh nur absolute 3D-Fans benutzen werden. Außerdem wird bald eh der Ramen in Sachen Stromverbrauch mit Sli gesprengt werden. Wer hat denn Lust einen PC wie ein Einfamilienhaus mit Elektrizität zu ernähren?? Ich auf jedem Fall nicht, obwohl man sich mit so einem Blockheißkraftwerk unter dem Schreibtisch bestimmt die Heizung sparen könnte. Da kann man dann das Geld für die 2.Graka und das SLI Board lieber für eine neue Graka der nächsten Generation zurücklegen. Dabei bringt es ja auch nur theoretisch 100% Leistung, in der Praxis dann nur 50-70%.

A R E S
2004-11-08, 08:39:47
Hier sind einige anscheinend echt so neidisch auf NVidia weil sie endlich mal im High End Segment was getan haben. Die meisten die hier so groß reden werden sich eh nie nen SLI system bauen, oder haben hier alle ne GeForce 6800 Ultra und wollen noch mehr Leistung? Also lasst doch NVidia und den Leuten die sich über SLI freuen die Freude. ATI zieht anscheinend eh nach, dann geht das rennen über den längsten Balken wieder los und vielleicht könnt ihr dann wenigstens wieder sagen, ihr hättet ne graka vom im mom schnellsten hersteller ;-)
Ich glaub um das gehts hier. Viele haben NV schon tot geredet und ATI in dne Himmel gelobt und jetzt hat NVIDIA im mom nen ziemlichen Sprung gemacht und ist mehr als nur konkurrenzfähig *G*

Gast
2004-11-08, 09:38:54
Meinst du das wirklich ernst oder ist das Sarkasmus?

Falls der R520 einen ähnlichen Transistorcount wie der NV40 hat und dann immer noch 20 Watt unter ihm liegt, _dann_ kannst du Nvidia Ineffizienz vorwerfen aber im Moment bestimmt nicht.


N aklar meint er das ernst. Bringt doch nichts x Transistoren zu "verbauen" wenn die Leistung am Ende nicht stimmt. Wer sagt denn, daß die alle gleichzeitig arbeiten/rechnen (können)? Wenn z.B. Transistoren für nicht arbeitende Caches, oder noch besser, Videoprozessoren "verschwendet" werden ist das doch keine Meisterleistung.

Genau so interssiert doch die Taktung. Wenn der NV40 nur mit 100 MHz laufen könnte hätte er ja ein tolles Transistor / Verbrauchs Verhältnis.


Was wirklich interessiert ist doch die "Leistung" / Verbrauch. Deswegen ist der Transisorcount überhaupt nicht aussagekräftig.

Lilebror
2004-11-08, 09:54:07
Von Neid kann zumindest bei mir nicht die rede sein aber ich finde die Kosten und die enorme Leistungs aufnahme eines SLI systems nicht vertretbar, 70% mehr Spiele Leistung mehr aber 100% mehr elektrische Leistung mehr und dieses verhältnis tritt ja auch nur mit verdammt viel glück auf, unter Umständen sind es ja nur 50 %.

Und dann möchte ich mal gerne wissen warum man bei einer Auflösung von 1600x1280 4x Kantenglättung braucht da reicht 2x doch schon locker also die 4x bruache ich nicht mal bei einer auflösung von 1280x9. . . . , den 16x AF kann ich ja noch verstehen aber selbst mit einer 6800 Ultra sollte das bei FAST jedem Spiel noch möglich sein und das würde dann immer noch weniger als die Hälfte kosten.

Lilebror
2004-11-08, 09:56:21
N aklar meint er das ernst. Bringt doch nichts x Transistoren zu "verbauen" wenn die Leistung am Ende nicht stimmt. Wer sagt denn, daß die alle gleichzeitig arbeiten/rechnen (können)? Wenn z.B. Transistoren für nicht arbeitende Caches, oder noch besser, Videoprozessoren "verschwendet" werden ist das doch keine Meisterleistung.

Genau so interssiert doch die Taktung. Wenn der NV40 nur mit 100 MHz laufen könnte hätte er ja ein tolles Transistor / Verbrauchs Verhältnis.


Was wirklich interessiert ist doch die "Leistung" / Verbrauch. Deswegen ist der Transisorcount überhaupt nicht aussagekräftig.

Genauso meine ich das ich erinnere mich da an einen Test von dem Zalman Passiv kühler selbst eine G4 t4600 hat wesenltich weniger spiele leistung als eine 9800pro und konnte trotzdem nur gerade ausreichend von einem solchen kühler gekühlt werden.

Ausserdem was bringt mir das denn wenn ich 220 mio Transistoren auf einem Grafikchip habe eine Karte bzw ein Chip mit 180 millionen Transistoren aber in Spielen eine fast identische Leistung erreicht.

A R E S
2004-11-08, 10:04:56
Was hackt ihr immer am Preis und der Verlustleistung rum, es redet ja keiner davon das es sich jeder 2 GeForce 6800 Ultra kaufen muss, mit kleineren Karten ist die Verlustleistung nicht so hoch und auch der Preis niedriger. Mir persönlich ist die verlustleistung so schnuppe, warum hackt ihr immer auf der rum ob NV da nen bißchen mehr braucht, ist doch egal oder?
Und der Preis, wenn ich daran denke was ich schon ausgegeben habe um nur nen paar PRozent besser zu werden, ist 50-70% bessere Leistung mit dem doppelten PReis nen Wahnsinn :-)

Gandharva
2004-11-08, 10:29:03
SLI ist aufjedenfall sinnvoll. Wär die 9800 pro SLI fähig gewesen hätte ich mir keine 6800 gt geholt

ich nicht. weil

1. hätte ich theoretisch mehr geld für ein passendes mobo ausgeben müssen und dadurch in etwa die mehrkosten einer 6800GT wieder egalisiert.

2. würde die sache mehr strom verbrauchen.

3. wäre der rechner dann lauter.

4. 2 x 9800pro SLI wären imho im Schnitt nicht wirklich viel schneller als eine 6800GT.

ATI und NV sollten sich lieber darauf konzentrieren kleinere fertigungstechniken zu pushen und das design der gpus energieeffizienter zu gestalten, um in naher zukunft multi-core gpus produzieren zu können. mit pci-e steht ja nun mehr als ausreichend bandbreite zur verfügung um auch die datenmenge von multicore gpus zu bewältigen.

mapel110
2004-11-08, 11:53:20
mit pci-e steht ja nun mehr als ausreichend bandbreite zur verfügung um auch die datenmenge von multicore gpus zu bewältigen.

da lag selbst nie ein Flaschenhals. Selbst die Bandbreite von AGP4x war/ist überdimensioniert.
Der Flaschenhals ist die Speicherbandbreite auf den Grakaboards selbst zu ihrem Speicher onboard.
derzeit ja ca 35 GB/s.
und derzeit dürften sich da multi-GPU-Boards überhaupt nicht rentieren.

Lilebror
2004-11-08, 12:41:31
Ich wäre aber auch mal stark dafür das die was an der effizienz arbeiten, vielleicht würde ich mich dann sogar zu einem entsprechenden SLI oder wie das dann auch immer heißen mag system überrreden lassen.
Meine Prinzipien und ausserdem mein Portmonail sagen eindeutig nein zu SLI.
Zumindest bei solchen enormen verlustleistungen und dem entsprechenden Lärmpegel , ausserdem steigt die Verlustleistung am Netzteil ja ebenfalls wenn man da auf einmal 80W mehr an elektrischer Last dran hängt.

Gast
2004-11-08, 23:01:57
@Lilebror und andere

Ich verstehe eure Argumentation nicht. Ihr findet SLI ist sh1ce, schön. Warum bastelt dann ATI auch an solch einer Lösung? Warum wird das dann nicht auch so verteufelt? Bietet die gleichen Schwachpunkte, so what?
Neues MB brauche ich auch, neue Graka auch, neues Netzteil auch, so what?

Weiterhin, es wäre weniger Verlustleistung bei jetzigen "ATI-SLI" Karten, ja. Aber wie sieht es dann mit dem R520 aus der mindestens SM3 und somit automatisch ungefähr ein Drittel mehr Transistoren mitbringt? Natürlich, der Fertigungsprozess spielt eine Rolle, ebenso das Design. Aber das er eher wesentlich weniger verbraucht als NV glaubt ihr doch auch nicht, oder?

Wer mit der Leistung heutiger HighEnd Beschleuniger zufrieden ist der braucht es nicht, klar. Wenn ich aber ca. 50-80% mehr Leistung zu eher geringen Kosten im Vergleich zu E&S Boards bekomme, warum nicht? Und ich gehe noch nicht mal ein Risiko mit Übertakten ein um noch nicht mal annähernd an eine solche Leistungssteigerung zu kommen. Auch wenn ich das Dreifache einer XTPE hinlege könnte bekomme ich nichts ausser die 100% einer einzelnen Karte. Bei NV bekomme ich aber dafür mehr Leistung als ATI mir im Moment überhaupt bieten kann.

Abärme und entsprechende Kühlung zu laut? Wozu gibt es 1. Wakü und 2. Produkte wie den Silencer den sich trotzdem auch viele Besitzer der sehr "leisen" ATI Karten draufgepappt haben? Warum verwenden so viele Hersteller die NV Referenzkühlung? Weil eigene Entwicklungen vielleicht Geld kosten könnten und nicht sicher ist das der Kunde es auch bezahlen will? Ich bin überzeugt das man, wie MSI bei der 5900er gezeigt hat, leise und vernünftige Kühllösungen entwickeln könnte, aber es kostet halt.

Ja aber, wenn ich dann mit der Leistung nicht mehr zufrieden bin und mir eine 2te Karte kaufe sind die doch veraltet! Eher nicht, ATI und NV können doch mittlerweile nicht mehr alle 12 Monate eine neue GPU + Refreshchip bringen.
Davon abgesehen, trifft das bei ATI dann nicht zu? Veralten deren Karten nicht?

Verschwendete Transistoren wie zB der Videoprozessor? Klar ist das schlecht das er nicht so funzt wie NV sich das gedacht hat, aber warum sollte es Verschwendung sein? Da gibt es hüben wie drüben Dinge die nicht so funktioniert haben wie sie sollten, bzw beworben wurden.

10 oder 20 Watt Unterschied machen den Kohl nicht fett. Wer ein Netzteil mit schlechter Effizienz hat verbrät vielleicht schon ähnlich viel mehr obwohl er eine "genügsame" ATI im Rechner hat. Schon mal daran gedacht? Da kann man schon an ganz anderen Ecken anfangen zu sparen. Wer sich über sowas aufregt müsste dann auch alle Hintergrundprogramme wie SETI oder Folding@home usw usw verteufeln.

Wer Höchstleistung haben wollte, hat schon immer überproportional viel mehr bezahlt und das ist hier auch nicht anders. So what?

Lilebror
2004-11-09, 12:51:15
Jetzt kommst du mir mit von wegen leider Kühluung auch noch mit ner wasserkühlung dann bezahlst du für dein SLI system mit mainboard , Grakas und Wasserkühlung über 1000€ aber das ist in ordnung für 70 %mehr Leistung oder was ? Klar dafür das du 70 % mehr an leistung hast ist das "relstiv" wenig für 1000 € Kauft man sich nen Pc wenn de dir dann noch den rest vom PC kaufen willst bezahlst du auf einmal 3000€ , weil zu so einem GRAKA Sytem gehört auch noch ein FX 55 und 4 gig ram so wie ein Festplatten system von WD für noch mal 400€. 3000€ überleg mal , das sind gefühlst 6000 DM und das soll in ordnung sein , achja und wo wir gerade dabei sind dann darfst du dir noch en 19er TFT kaufen für 8-900€ damit du das 6X AA bei einer Auflösung von 1600. . . . überhaubtnoch sehen kannst.

DrumDub
2004-11-09, 13:29:42
Jetzt kommst du mir mit von wegen leider Kühluung auch noch mit ner wasserkühlung dann bezahlst du für dein SLI system mit mainboard , Grakas und Wasserkühlung über 1000€ aber das ist in ordnung für 70 %mehr Leistung oder was ? Klar dafür das du 70 % mehr an leistung hast ist das "relstiv" wenig für 1000 € Kauft man sich nen Pc wenn de dir dann noch den rest vom PC kaufen willst bezahlst du auf einmal 3000€ , weil zu so einem GRAKA Sytem gehört auch noch ein FX 55 und 4 gig ram so wie ein Festplatten system von WD für noch mal 400€. 3000€ überleg mal , das sind gefühlst 6000 DM und das soll in ordnung sein , achja und wo wir gerade dabei sind dann darfst du dir noch en 19er TFT kaufen für 8-900€ damit du das 6X AA bei einer Auflösung von 1600. . . . überhaubtnoch sehen kannst.

neid? wenn leute soviel geld ausgeben wollen, dann ist das doch nicht dein problem. für die technische entwicklung können sli und andere verfahren nur von vorteil sein. warum regt man sich also darüber auf?

Funky Bob
2004-11-09, 15:29:19
Jetzt kommst du mir mit von wegen leider Kühluung auch noch mit ner wasserkühlung dann bezahlst du für dein SLI system mit mainboard , Grakas und Wasserkühlung über 1000€ aber das ist in ordnung für 70 %mehr Leistung oder was ? Klar dafür das du 70 % mehr an leistung hast ist das "relstiv" wenig für 1000 € Kauft man sich nen Pc wenn de dir dann noch den rest vom PC kaufen willst bezahlst du auf einmal 3000€ , weil zu so einem GRAKA Sytem gehört auch noch ein FX 55 und 4 gig ram so wie ein Festplatten system von WD für noch mal 400€. 3000€ überleg mal , das sind gefühlst 6000 DM und das soll in ordnung sein , achja und wo wir gerade dabei sind dann darfst du dir noch en 19er TFT kaufen für 8-900€ damit du das 6X AA bei einer Auflösung von 1600. . . . überhaubtnoch sehen kannst.


lar ist das in Ordnung, warum auch nicht? Ich sag mal so, wer das Geld hat und sich so ein System holt hat auch etwas davon! Nur weil du meinst, 70% wäre zu ineffizient um den Preis zu Rechtfertigen, heisst das ja noch lange nicht, das es deswegen überzogen oder krank ist, wenn man sich soetwas kauft, oder?

Hätte ich das Geld, würde ich es mir nun kaufen, überhaupt keine Frage, leider hab ich das geld im Moment nicht, ergo erfreue ich mich daran, das es wenigstens möglich ist.

Ich verstehe nicht, wie Leute sich über eine MÖGLICHKEIT aufregen können? Man muss das doch nciht machen, oder zwingt dich nV beim kauf einer 6800U SLI nmoch ne zweite zu kaufen? Das kannste doch auch noch in nem Jahr machen, wenn die Graka evtl. 300€ kostet und schon haste für ganze 300€ wieder eine Grafikpower, die der Nachfolgegeneration nahe kommt oder gar überlegen ist.

DH[ger]
2004-11-09, 15:41:54
Ich finde immer noch, dass SLI der größte Schwachsinn ist, den die Menschheit erfunden hat. Vielleich macht Nvidea ja auch gemeinsames Geschäft mit Ýellowstrom, oder will die Nachtspeicherheizung ersetzen. Aber wirklich viel bringen tuts nicht. Ich glaube auch nicht, das 2 6800U an die nächste Grakageneration rankommen ==>man hat unnötig Geld verballert. Krank ist vielleicht etwas hart ausgedrückt, aber jemand, der umbedingt 2 grakas haben muss und dann meint, dass er dann an die nächste Generation rankommt (die ja auch viel neuere Technologie hat), ist schon ein wenig strange. Vielleicht kann man ja bald auch PCs verkoppeln, sodass man dann direkt die ganze Nachbarschaft beheizen kann. Naja, ich bleib dann lieber bei einer Graka und kauf mir dann wenn sie nicht mehr taugt ne neue. Also, dann noch viel Spaß beim Geld verschießen :-)

Gast
2004-11-09, 20:10:45
Rechne doch mal, nächstes jahr kommt nurn refresh chip raus, den schaffst locker mit den 2 ultras, und die nächste generation, na mal ehrlich war zb die 6800 ultra doppelt so schnell wie die FX5900 Ultra? Vielleicht in far Cry, aber in den meisten games meiner meinung nach nie im leben. Also rentiert sich das schon. Und selbst wenn nciht dann verkaufst die 2 ultras und akufst dir 2 neue. Na wer sich son sys kauft, den schreckt das auch nciht ab. Keiner muss sich das kaufen, aber für die die das geld auslegen gibt es jetzt mal wieder endlich mehr leistung, das sollte gelobt werden finde ihc, wird ja keiner gezwungen sich 2 grakas zu kaufen oder?

DeX
2004-11-09, 20:23:19
habe jetzt nicht alles gelesen ...
aber würde an sich nicht dual cores die bessere lösung sein.
siehe CPU´s...
es wäre doch möglich dieses auch in der GPU welt zu vereinen ..
also ich hätte lieber eine dual graka anstat ein SLI system ...
könnte mir vorstellen das in zukunft auch hier einiges passieren kann ...

WarSlash
2004-11-09, 20:35:04
Denkbar ist es, aber du hast nicht berücktsichtig, dass die beiden GPUs sehr heißen werden und mehr Strom verbrauchen. Dann muss das Platinen Design auch noch stark geändert werden und ob das schneller ist , sei dahin gestellt.
Du hast ja nur 256 RAM für 2 GPU auf einer Karte bei SLI wären es ja schon 2x256. Bei den Dualcores ist ja das Problem, dass irgendwann ein GPU weniger gestaktet sein müsste als der anderen, allein schon wegen der Wärme. Mit 2 Grakas die immer mehr Takt haben werden, scheint dies effizenter zu sein.

Die nächste Grakageneration wird eh wieder schnell sein als 2 6800 Ultra im SLI Modus, ich rede hier von einer Karte!

stav0815
2004-11-09, 22:16:12
Die nächste Grakageneration wird eh wieder schnell sein als 2 6800 Ultra im SLI Modus, ich rede hier von einer Karte!
ich sehe bisher nur, dass erst der NV40 doppelt so schnell wurde wie meine Ti4200... die FX5950U erreichte etwa 80% mehr leistung als meine Ti.

nur so am rande ;D
ausserem müssten es dann mind. 32 Pixel Pipes auf einem Chip sein, damit kannste dann doch schon von der DIE größe her nen Topf draufstellen und Tee kochen

Wishnu
2004-11-10, 11:20:51
ich sehe bisher nur, dass erst der NV40 doppelt so schnell wurde wie meine Ti4200... die FX5950U erreichte etwa 80% mehr leistung als meine Ti.


Da kann was nicht stimmen, denn der NV40 ist garantiert nicht nur 25% schneller als die 5950U. ;)

Quasar
2004-11-10, 11:26:06
Kommt drauf an, wo und was man misst. ;)
Man kann auch eine GF2 schneller 'messen' als eine X800 XTPE.

stav0815
2004-11-10, 12:17:19
Da kann was nicht stimmen, denn der NV40 ist garantiert nicht nur 25% schneller als die 5950U. ;)
das hab ich auch ned behauptet!
ein NV40 erreicht ~150% mehr leistung als meine Ti4200...
man sollte übrigens bei meinen Prozenzahlen acht geben!

MechWOLLIer
2004-11-10, 16:01:20
aber würde an sich nicht dual cores die bessere lösung sein.
siehe CPU´s...

Neben den Nachteilen der Methode wäre das gnaze dann wohl auch das Transistormonster des Jahrtausends und wohl kaum herzustellen, und wenn doch dann viel zu teuer.
Und wie will man dann dort die ganze Abwämre abführen? Dann wäre eine Wakü sicherlich Pflicht.
Außerdem sind die GPUs nicht auf Dual Core ausgelegt, der opteron hingegen schon. So müsste man die GPU wohl größtenteils erst neu designen.

Wishnu
2004-11-10, 17:31:26
das hab ich auch ned behauptet!
ein NV40 erreicht ~150% mehr leistung als meine Ti4200...
man sollte übrigens bei meinen Prozenzahlen acht geben!

Du sprachst aber von doppelt so schnell, und das sind nur 100% Mehrleistung.
Aber egal.

Wishnu
2004-11-10, 17:35:48
Kommt drauf an, wo und was man misst. ;)
Man kann auch eine GF2 schneller 'messen' als eine X800 XTPE.

Ich gehe bei sowas immer von sinnvollen Vergleichen aus. ;)

DeX
2004-11-10, 19:25:27
natürlich müsste man die gpu anpassen.
das gnaze dann wohl auch das Transistormonster des Jahrtausends und wohl kaum herzustellen
und eben genau das soll ja der dual core verhindern. das sind ja 2 verschiedene cores. das müsste sogar kein dual core sein sondern könne 2 gpu´s getrennt auf einem board vereinen. !
das board müsste nur nen bissle grösser sein.
die 512MB kann man heute ohne probleme dort drauf packen und die 2gpus passen auch drauf.
meiner meinung nach wäre das garnicht so dumm.
das das wurde schon früher gemacht.
siehe voodoo karten.

Quasar
2004-11-10, 19:33:05
Ich gehe bei sowas immer von sinnvollen Vergleichen aus. ;)
Ich auch - deswegen ist's auch relativ unwahrscheinlich, daß eine nV40 (wenn's nicht grad auf einer 6800LE verbaut ist), nur 25% schneller als eine FX5950 sein soll.

Thanatos
2004-12-02, 18:57:01
Nur was zu der lautstärke...............


Wenn eine Graka von nvidia ungefähr 50dezibel hat, und man baut noch eine zweite rein, hat man NICHT automatisch 100dezibel X-D

Es ist halt dann nur etwas besser verteilt oder stereo, aber lauter wirds definitiv ned ;)

StefanV
2004-12-02, 19:59:54
Doch, es wird lauter, die Lautstärke verdoppelt sich, was etwa 53 Dezibel entspricht...

Gast
2004-12-02, 20:15:10
Doch, es wird lauter, die Lautstärke verdoppelt sich, was etwa 53 Dezibel entspricht...

sie verdoppelt sich nicht und ein verdoppelung ergäbe auch keine 53dB.

Gast
2004-12-02, 20:29:57
sie verdoppelt sich nicht und ein verdoppelung ergäbe auch keine 53dB.


Jein, damit es doppelt so laut wie mit 1ner Karte ist müsste man um die 4 Stück reinstopfen(3+3+3+3=12db), 10db sind ca. eine verdopplung der Lautstärke für das Menschliche Ohr.

Aber SP hat schon damit recht das sich in dem Sinne die Laustärke verdoppelt, für 3db mehr ist die doppelte Leistung nötig un das erreicht man ja mit der 2ten Karte, es ist also doppelt so laut.

JFZ
2004-12-03, 07:44:36
Doch, es wird lauter, die Lautstärke verdoppelt sich, was etwa 53 Dezibel entspricht...


Naja...doppelte (gehörte) Lautstärke von 50dB wäre 60dB.
Stimmt aber, daß durch die zweite Karte 3dB hinzukommen, eine verdoppelung der Lärmquellen verdoppelt nicht die Lautstärke. Um wirklich auf doppelte Lautstärke zu kommen müßte man aber ca. 10 Karten im Rechner haben (4 Karten wäre 56db, 8 Karten wären 59dB)...

Einigen wir uns darauf, daß es durch ne zweite Karte bestimmt nicht leiser wird ;)

...so und nu habe ich genug Haare gespalten ;D

Demirug
2004-12-31, 14:41:22
the inquirer will Erfahren haben das man für AMR Boards mit entsprechender Chipsatz unterstüzung braucht. Zu allem Überfluss scheint das auch nur bei ATI Chipsätzen gegeben zu sein.

ATI found a way to make its SLI work without this interconnection. In ATI's case, whenever it makes its SLI ready, you will just plug two graphic cards in motherboard powered with ATI chipset and it will all work without interconnection PCB or cable.

The upcoming chipset will have hardware support for dual graphic card rendering mode. It will be all done through the chipset and we guess that it will be wired in the new RS482 and RX482 chipsets. All the communication between two cards will be done through motherboard or chipset wires.

http://www.theinquirer.net/?article=20457

Asmodeus
2004-12-31, 14:57:14
...
The upcoming chipset will have hardware support for dual graphic card rendering mode. It will be all done through the chipset and we guess that it will be wired in the new RS482 and RX482 chipsets.
...


Bedeutet das nun, dass die Grafikkarten selbst keine zusätzliche AMR-Funktionalität benötigen, es theoretisch also machbar wäre, auch 2 Nvidia Karten in so einem System zum laufen zu bekommen, solange ATI diese Möglichkeit nicht künstlich sperrt?

Gruss, Carsten.

Demirug
2004-12-31, 15:08:31
Bedeutet das nun, dass die Grafikkarten selbst keine zusätzliche AMR-Funktionalität benötigen, es theoretisch also machbar wäre, auch 2 Nvidia Karten in so einem System zum laufen zu bekommen, solange ATI diese Möglichkeit nicht künstlich sperrt?

Gruss, Carsten.

IMHO muss in den Karten selbst auch schon etwas vorhanden sein was die Chip zu Chip Kommunikation aktiv unterstützt. Zudem wird man auf jeden Fall einen Treiber brauchen der die besagte Chipsatzfunktionalität nutzt.

dildo4u
2004-12-31, 15:11:39
the inquirer will Erfahren haben das man für AMR Boards mit entsprechender Chipsatz unterstüzung braucht. Zu allem Überfluss scheint das auch nur bei ATI Chipsätzen gegeben zu sein.



http://www.theinquirer.net/?article=20457
Goil AMR nur mit Schrott ATI Boards da hat sich Ati ja mal wieder schön selber ins Bein geschossen.

del_4901
2004-12-31, 15:27:07
Jein, damit es doppelt so laut wie mit 1ner Karte ist müsste man um die 4 Stück reinstopfen(3+3+3+3=12db), 10db sind ca. eine verdopplung der Lautstärke für das Menschliche Ohr.

Aber SP hat schon damit recht das sich in dem Sinne die Laustärke verdoppelt, für 3db mehr ist die doppelte Leistung nötig un das erreicht man ja mit der 2ten Karte, es ist also doppelt so laut.


Wenn ihr von Logartihmischer Einteilung keine Ahnung habt, dann rechnet in Sone und dann in db um, denn das ist alles nur feinster Schmarrn was ich hier lese.

Coda
2004-12-31, 15:28:35
Ich wüsste jetzt nicht dass die ATi Boards schrott sind...

Außerdem ist die Meldung von Inquirer :rolleyes: :rolleyes: :rolleyes:
Da bin ich schon seit einiger Zeit sehr sehr sehr vorsichtig geworden da überhaupt noch was zu glauben.

dildo4u
2004-12-31, 15:30:19
Ich wüsste jetzt nicht dass die ATi Boards schrott sind...

Außerdem ist die Meldung von Inquirer :rolleyes: :rolleyes: :rolleyes:
Da bin ich schon seit einiger Zeit sehr sehr sehr vorsichtig geworden da überhaupt noch was zu glauben.
Doch sind sie zumindest die P4 Boards die PCGH bis jetzt getestet haben.

StefanV
2004-12-31, 15:35:08
the inquirer will Erfahren haben das man für AMR Boards mit entsprechender Chipsatz unterstüzung braucht. Zu allem Überfluss scheint das auch nur bei ATI Chipsätzen gegeben zu sein.
Also ich kann da nicht erkennen, das da geschrieben steht, das das nur mit ATI CHipsätzen geht, ich sehe da nur, das erwähnt wurde, das 2 ATI Chipsätze das können, was ja nicht bedeutet, das andere Chipsätze das nicht können!!

Es könnte durchaus auch möglich sein, das das ganze in nV SLI Brettern funzt, ebenso könnte es möglich sein, das AMR 'nur' 2x 16 Lanes Slots braucht, im Full Duplex mode...

StefanV
2004-12-31, 15:35:56
Doch sind sie zumindest die P4 Boards die PCGH bis jetzt getestet haben.
Welche davon hatten 'nen AGP und welche waren PCie Chipsätze?!

Lass mich raten:
alle hatten 'nen AGP?!

dildo4u
2004-12-31, 15:36:14
Es könnte durchaus auch möglich sein, das das ganze in nV SLI Brettern funzt, ...
Ohne Bridge?

dildo4u
2004-12-31, 15:37:02
Welche davon hatten 'nen AGP und welche waren PCie Chipsätze?!

Lass mich raten:
alle hatten 'nen AGP?!
Wenn die Cpu chipsatz performance shice ist was soll sich da mit PCI-E ändern?

Black-Scorpion
2004-12-31, 15:39:47
Doch sind sie zumindest die P4 Boards die PCGH bis jetzt getestet haben.
PCGH ist auch die neutrale Instanz was Mainboards angeht.
Sorry, aber in der Beziehung lese ich lieber Reviews im Netz.

PS. Ich lese die PCGH selbst, nicht das hier einfalscher Eindruck entsteht.

dildo4u
2004-12-31, 15:41:58
PCGH ist auch die neutrale Instanz was Mainboards angeht.
Sorry, aber in der Beziehung lese ich lieber Reviews im Netz.

PS. Ich lese die PCGH selbst, nicht das hier einfalscher Eindruck entsteht.
Ich denk schon das sie ein Board mit treibern bestücken können und dann benchen.

dildo4u
2004-12-31, 15:48:12
Vor allem was bringt das alles gibts von ATI überhaupt ein High Performance A64 Chipsatz ich mein die Gamer die AMR nutzen wollen werden ja whol erher auf den A64 setzen als auf nen lahmen P4

Demirug
2004-12-31, 15:59:12
Also ich kann da nicht erkennen, das da geschrieben steht, das das nur mit ATI CHipsätzen geht, ich sehe da nur, das erwähnt wurde, das 2 ATI Chipsätze das können, was ja nicht bedeutet, das andere Chipsätze das nicht können!!

Es könnte durchaus auch möglich sein, das das ganze in nV SLI Brettern funzt, ebenso könnte es möglich sein, das AMR 'nur' 2x 16 Lanes Slots braucht, im Full Duplex mode...

Wie soll man denn den Satz: "plug two graphic cards in motherboard powered with ATI chipset and it will all work" sonst deuten?

Aufgrund der PCI-Spec muss eine Grafikkarte sogar noch funktionieren wenn nur eine der 16 Lanes physikalischen Kontakt hat. Das Problem ist die Chip zu Chip kommunikation. Ich muss aber zugeben das ich bei diesem Punkt noch nicht weit genug durch die Spec durchgestiegen bin um zu erkennen in wie weit es sich dabei um Plichtfeatures handelt. Aber selbst wenn kann man das unter Windows nicht so ohne weiteres nutzen den derzeit wird PCIe unter Windows als PCI verwaltet was bedeutet das alle zusätzlichen Features die über PCI hinausgehen (ausser der Geschwindigkeit) erst mal nicht genutzt werden können. Das würde nur funktionieren wenn ein Gerätetreiber mit dem Bustreiber über ein privates Interface kommuniziert. Die echte PCIe Unterstützung kommt erst mit Longhorn.

desperado2000
2005-01-01, 06:44:36
Hier reden so viel Leute davon das die Stromkosten durch SLI steigen.Dies ist allerdings in den USA überhaupt kein Prob da dort der Strom sehr viel billiger ist als in Dtschl.Es ist auch nicht selten das der Strom sogar billiger wird je mehr man verbraucht.
Nichtsdestotrotz es gibt wohl effektivere Methoden die Grafikleistung zu erhöhen als so ein stark Hitzeverursachendes lautes Monstrom im Zimmer stehen zu haben und sich an ca 60-80 Prozent Mehrleistung zu erfreuen(obwohl eigentlich mit nur einer Karte schon schnell genug ist )

Fruli-Tier
2005-01-01, 13:02:26
Man darf aber nicht immer von normalen Usern ausgehen. Solchen Leuten genügt freilich eine Karte, vielleicht muss es nicht einmal die letzte High End Karte sein.

Aber was ist mit denen, die sich einfach an aller möglichen Technik erfreuen wie ein Baby über einen Schnuller? Gerade für solche ist das doch der Schrei schlechthin (z.B. Tombman :smile: ). Das ist wie ein neues Spielzeug. Da geht es vielleicht weniger um die letztendliche Leistung, sonder vielmehr um die technischen Spielereien, den Drang, etwas anderes zu haben, etwas besonderes, das Plus an Leistung nimmt man als Bonus mit - na klar hat man das schon vorher im Hinderkopf.

Ausserdem muss es ja nicht einmal die schnellste Hardware sein, es ist ja auch mit bezahlbaren Komponenten möglich. Ein A64 3400, 2 6600GT und 1 GB RAM reichen auch schon um seinen Spass zu haben. Es ist einfach etwas besonderes, vielleicht grad mal so schnell wie eine GT/Ultra, aber was besonderes eben.

Ich würde für mich persönlich eher darin den Reiz an soetwas sehen. nVidia sieht das natürlich anders, höchste Leistung, um sich Marketingtechnisch so weit oben wie möglich zu platzieren. Aber es gibt auch andere Sichtweisen, nicht vergessen :wink:

Ausserdem, was ist mit professionellen Grafikanwendungen, die dürften doch auch profitieren?!

Einfach mal bissle über den Horizont hinaussehen, es gibt viele Sachen zu Ergründen :smile:

Gast
2005-01-01, 13:52:29
Hier reden so viel Leute davon das die Stromkosten durch SLI steigen.Dies ist allerdings in den USA überhaupt kein Prob da dort der Strom sehr viel billiger ist als in Dtschl.Es ist auch nicht selten das der Strom sogar billiger wird je mehr man verbraucht.
Nichtsdestotrotz es gibt wohl effektivere Methoden die Grafikleistung zu erhöhen als so ein stark Hitzeverursachendes lautes Monstrom im Zimmer stehen zu haben und sich an ca 60-80 Prozent Mehrleistung zu erfreuen(obwohl eigentlich mit nur einer Karte schon schnell genug ist )

Schön für die USA, leben wir dort oder kann ich meinen Strom von da kaufen?

Effektivere Methoden? Erzähl mal und wo gibt es die zum Preis von einem SLI System jetzt zu kaufen?
Hitze ist mit entsprechender Kühlung auch kein Problem.
Für jeden bedeutet "laut" was anderes und kann mit entsprechenden Maßnahmen gegen 0 gehen.
Wo bekommst du sonst 60-80% Mehrleistung für den Preis? Kann ich AMR oder die Via-Lösung schon kaufen? Oder dachtest du an E&S?
Die Grafikkarte kann nie schnell genug sein. Jeder empfindet "flüssig" anders und die Ansprüche sind verschieden.

StefanV
2005-01-01, 19:45:26
Wie soll man denn den Satz: "plug two graphic cards in motherboard powered with ATI chipset and it will all work" sonst deuten?
Glaubst du, das ATI einfach so rausposaunen würde, das das auch mit anderen Chipsätzen prinzipiell läuft?! ;)


Aufgrund der PCI-Spec muss eine Grafikkarte sogar noch funktionieren wenn nur eine der 16 Lanes physikalischen Kontakt hat. Das Problem ist die Chip zu Chip kommunikation. Ich muss aber zugeben das ich bei diesem Punkt noch nicht weit genug durch die Spec durchgestiegen bin um zu erkennen in wie weit es sich dabei um Plichtfeatures handelt. Aber selbst wenn kann man das unter Windows nicht so ohne weiteres nutzen den derzeit wird PCIe unter Windows als PCI verwaltet was bedeutet das alle zusätzlichen Features die über PCI hinausgehen (ausser der Geschwindigkeit) erst mal nicht genutzt werden können. Das würde nur funktionieren wenn ein Gerätetreiber mit dem Bustreiber über ein privates Interface kommuniziert. Die echte PCIe Unterstützung kommt erst mit Longhorn.
Eben, da hast du das 'Problem' bzw den Grund.

Das ganze 'hardwired' Dingens könnte ja einfach nur der Fullduplex Betrieb von 2 PCIe Slots sein, dazu ev. noch ein wenig Software sprich Chipsatztreiber, der das unterstützen muss...

MechWOLLIer
2005-01-01, 20:09:51
Glaubst du, das ATI einfach so rausposaunen würde, das das auch mit anderen Chipsätzen prinzipiell läuft?! ;)

Für den Verkauf eigener Boards wäre das sicherlich nicht gut.
Aber du solltest nicht vergessen, dass jetzt bestimmt einige Leute mit dem Kauf eines Nvidias SLI Gespanns warten würden, wenn ATI bekannt geben würde, dass AMR auch auf nicht ATI Boards läuft.
Für viele wäre dieses only ATI Chip sicherlich direkt ein K.O. Kriterium.

Shagnar
2005-01-04, 23:27:31
Oh mann... ich hab jetzt ned den ganzen Thread durchgelesen deshalb sorry falls ich was poste das schon jemand anderes gepostet hat...

Mein Senf:

ATI wirds schon hinbiegen da bin ich mir sicher. Mir ist aufgefallen wie konsequent ATI ihre Produkte reifen lässt bevor sie auf den Markt kommen damit. Wenn ich mich recht erinnern kann ist die X800-GPU nur ne "schnelle" Lösung (Da widersprich ich mir selber) weil sie mit ner XYZ-GPU (R500?) im letzten Frühjahr noch nicht so ganz zufrieden waren. jeder Zeit ihre passende Technologie, darum kommt Shadermodell 3 dann wenns schon etwas Sinn macht, und die Multi-GPU-Lösung dann wenn sie wirklich perfekt funktioniert und ein bestimmter Bedarf vorhanden ist. Schätze mal ATI wird zu gegebener Zeit was ganz Scharfes abliefern diesbezüglich und alle damit überraschen wie damals als die erste DX9 GPU das Licht der Welt erblickte. (Von diesem legendären Entwicklungsteam das dieses Jahr bestimmt wieder was feines in der Pfanne hat!) ;)

Haut mich ich hab null Plan von den Entwicklungsnamen der aktuellen GPUs! :rolleyes: