PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : OMG, SLI @ Intel-Chipsets! Die Hölle friert zu!


tombman
2007-06-08, 17:33:49
Was mir ein netter user über pm gerade mitgeteilt hat:

http://www.theinquirer.net/default.aspx?article=40123

http://img507.imageshack.us/img507/235/slionintelqy5.jpg (http://imageshack.us)

Das wird sooo geil :)

Edit: wurde angeblich von Nvidia dementiert...

Mastermind@Glückskind
2007-06-08, 18:07:25
Was mir ein netter user über pm gerade mitgeteilt hat:

http://www.theinquirer.net/default.aspx?article=40123

http://img507.imageshack.us/img507/235/slionintelqy5.jpg (http://imageshack.us)

Das wird sooo geil :)

Edit: wurde angeblich von Nvidia dementiert...
Und wenn, dann wäre das PCI-E und nicht PCI-X! :wink:

Ultron
2007-06-08, 18:11:07
Schade... :(

*wein*

wiesoo? X-(

nVidia glaubt doch nicht wirklich, sich so Sympathie zu beschaffen. Sollen sie halt einen besseren Chipsatz als Intel bauen. So haben sie es bei AMD auch gemacht, ohne Lizenzen ^^

Mastermind@Glückskind
2007-06-08, 18:26:27
wiesoo? X-(
Weil trotz allem die Enthusiasten zu SLI greifen. nVidia hat da einfach keinen Handlungsbedarf. Die Zielgruppe akzeptiert das Vorgehen schließlich.

Das Auge
2007-06-08, 22:13:22
Weil trotz allem die Enthusiasten zu SLI greifen. nVidia hat da einfach keinen Handlungsbedarf. Die Zielgruppe akzeptiert das Vorgehen schließlich.

So siehts aus. CF ist einfach nicht wirklich Konkurrenzfähig, somit hat NV quasi das Dualkarten Monopol im Enthusiastensegment.
Die Öffnung von CF für alle Hersteller ist imho daher der richtige Schritt gewesen, so setzt AMD wenigstens noch ein paar Grafikkarten mehr ab.
Wenn CF einmal so gut funzt wie SLI, es einen nhancer o.ä. dafür gibt und die entsprechenden High-End Karten dafür da sind um bei den Schwanzbenchs wieder ganz vorne zu sein, dann wird auch CF wieder von den Freaks gekauft werden.
Wenn AMD dann noch mit einem Top Chipsatz für dann schnellste CPU K10 aufwarten kann, siehts doch gar nicht mehr so schlecht aus.
Aber noch ist das reines Wunschdenken...gönnen würde ich es AMD jedenfalls, sonst seh ich die Gefahr, daß Intel/Nvidia zu viel Vorsprung erlangen und AMD komplett in den billig-Sektor gedrängt wird.

AnarchX
2007-06-09, 09:52:53
Vielleicht doch etwas dran:
http://img201.imageshack.us/img201/8980/dscf3977croppedbig2e5d2za4.jpg
http://www.hexus.net/content/item.php?item=9017

MSABK
2007-06-09, 10:03:12
Da ist aber kein SLI Logo.

The_Invisible
2007-06-09, 10:03:19
komischerweise wird das kürzel SLI nie verwendet.

mfg

Die gelbe Eule
2007-06-09, 10:06:42
Muss es ja auch nicht, weil wenn man etwas lizensiert, dann schreibt man kaum den Namen der anderen Firma drauf, sondern nutzt die Technologie, als wäre es die "eigene".

AnarchX
2007-06-09, 10:13:02
Hmmm... vielleicht doch nur soetwas wo einmalig ein Treiber beiligt mit dem es funktioniert und danach kann man den weiteren Support vergessen.

bneu
2007-06-09, 10:15:00
aber wenn intel beide standards unterstützt könnte das doch den dual-lösungen einen großen auftrieb geben und zum durchbruch verhelfen......


Oder es ist nur die Vorbereitung für die intel-grafikkarten......

Die gelbe Eule
2007-06-09, 10:23:52
Was meint Ihr was passiert, wenn Intel GPU ready ist und NV dann dort fertigen lassen kann? Das würde Kosten einsparen, sehr gute Yieldraten bedeuten und somit werden die Preise eher sinken als steigen. Man würde mehr als je zuvor für das gleiche Geld bekommen.

HOT
2007-06-09, 10:35:13
Wenn SLI wirklich von Intel lizenziert wurde, wissen wir ja auch, was der Inhalt des Deals zwischen Intel und NV war, nämlich genau das, SLI.
Wie kommt man auf so einen Quatsch, Eule? NVs Fertigungspartner ist TSMC und z.T. UMC. Die haben das KnowHow um solche Chips zu fertigen, Intel hat dieses nicht. Intel muss sich erst daran tasten und genau das tun sie mit Larabree. Das Ding hat genau nichts mit NV Technik zu tun.

=Floi=
2007-06-09, 11:02:43
ich sehe hier aber nicht wirklich mehr ein problem
NV soll einfach ein Dual 775 board bringen und dann passt das auch

StefanV
2007-06-09, 11:14:36
Was meint Ihr was passiert, wenn Intel GPU ready ist und NV dann dort fertigen lassen kann? Das würde Kosten einsparen, sehr gute Yieldraten bedeuten und somit werden die Preise eher sinken als steigen. Man würde mehr als je zuvor für das gleiche Geld bekommen.
Richtig und genau weswegen sind sie bei IBM auf die Schnauze gefallen, mit der Fertigung diverser NV4x Chips?!

Sonyfreak
2007-06-09, 11:21:36
Würde sich nVidia mit so einem Schritt nicht den Verkauf von den eigenen Chipsätzen kaputt machen? Ein großer Vorteil nForce Chipsätze ist es nunmal, dass nur diese (offiziell) SLI tauglich sind. Warum also sollte sich nVidia auf solch einen Deal einlassen. Da müsste Intel wohl einiges als Gegenleistung angeboten haben.

mfg.

Sonyfreak

Mancko
2007-06-09, 11:35:24
Würde sich nVidia mit so einem Schritt nicht den Verkauf von den eigenen Chipsätzen kaputt machen? Ein großer Vorteil nForce Chipsätze ist es nunmal, dass nur diese (offiziell) SLI tauglich sind. Warum also sollte sich nVidia auf solch einen Deal einlassen. Da müsste Intel wohl einiges als Gegenleistung angeboten haben.

mfg.

Sonyfreak

Intel wird wohl Abnahmegarantien für nForce Chipsätze gegeben haben. Ähnlich wie bei ATI damals, als Intel deren Chipsätze wegen Produktionsengpässen eingekauft hat.

Leonidas
2007-06-09, 12:50:46
Muss es ja auch nicht, weil wenn man etwas lizensiert, dann schreibt man kaum den Namen der anderen Firma drauf, sondern nutzt die Technologie, als wäre es die "eigene".


Nein. Wenn man SLI lizensiert, knallt man es groß vorn drauf. Alles andere ist nichts anderes als das VIA-Modell: Man sagt, man könnte vier Grafikkarten unterstützen - was nicht bedeutet, daß damit SLI oder CF läuft, es können halt vier Grafikkarten auf dem Board untergebracht werden, das ist alles.

HOT
2007-06-09, 12:58:28
Was mich stark daran wundert, ist, dass auch die neuen Intel Chips CF tauglisch sind. AMD scheint das nicht negativ zu sehen. Immerhin sind die Freigaben für 965i u.A. durch AMD und nicht durch ATI entschieden worden.
@Leo, es stimmt schon, es ist schon komisch, dass Intel nicht aggressiv damit wirbt.

Endorphine
2007-06-09, 13:05:28
Nein. Wenn man SLI lizensiert, knallt man es groß vorn drauf. Alles andere ist nichts anderes als das VIA-Modell: Man sagt, man könnte vier Grafikkarten unterstützen - was nicht bedeutet, daß damit SLI oder CF läuft, es können halt vier Grafikkarten auf dem Board untergebracht werden, das ist alles. Korrekt. Zumal nicht-nVidia-Chipsatz SLI ja eine echte Neuerung oder gar ein Alleinstellungsmerkmal wäre. Damit lässt sich prima werben. Es steht aber nur "Multi-GPU" und "NVIDIA dual graphics" da, nicht SLI. Und genau das ist auch gemeint: man kann mehrere Grafikkarten auf dem Board betreiben. Nicht mehr und nicht weniger.

nVidia will natürlich, dass der SLI-Kunde auch nVidia-Chipsätze kauft. Wozu also der Konkurrenz SLI-Lizenzen verkaufen.

Das SLI-Kürzel im Bild von tombman würde ich als einfachen Beschriftungsfehler werten.

HOT
2007-06-09, 13:05:44
War wohl doch ne Presseente..., siehe X38 Thread.

=Floi=
2007-06-09, 13:22:54
zitat
nVidia will natürlich, dass der SLI-Kunde auch nVidia-Chipsätze kauft. Wozu also der Konkurrenz SLI-Lizenzen verkaufen.

an einer zweiten GF8800Ultra dürfte man aber wesentlich mehr gewinn machen als an einem 680i chipsatz
hier sehe ich keine wirkliche konkurrenz auch so sind die boards nicht schlechter
der einzige grund bisher war, dass die kunkurrenz keine 2 pcie X16 slots welche auch mit jeweils 16 lanes angebunden waren hatte

Black-Scorpion
2007-06-09, 13:59:41
Einen größeren Marktanteil erreicht nVidia im Intel Markt nicht wenn sie SLI auf Intel Chipsätzen freigeben würden.
Denn das ist es was Geld bringt und nicht die paar verkauften Karten.
Das ist es auch was nVidia erreichen muß.

AnarchX
2007-06-09, 14:31:54
Wobei aber natürlich es passieren könnte, dass Intel eine SLI-Lizenz für den X38 verlangt, damit NV überhaupt eine Lizenz für die Intel-Plattformenen bekommt.

up¦²
2007-06-09, 14:59:19
Hardspell (China) durfden ins Headquarter von Gigabyte während der Computex in Taiwan und haben dieses X38 Express gesehn:
http://www.hardspell.com/pic/2007/6/8/b2bdfea2-040f-4da4-a30b-82b1a5678673.jpg
ein popliger passiver Rippenblock: fertig! :eek:
Wahrscheinlich wird nur noch über die Kohle gepokert... :wink:
Nvidia sollte eine SLI-Lizenz doch auch begrenzen/binden können: z.B. nur für den x38 und dann beim nächsten Chipset wieder verhandeln.
Pauschale SLI-lizenzen sind für Nvidia viel zu gefährlich, weil Intel sich ja selber auf die "one-GPU-lose" Zeit vorbereitet - logisch...

RainingBlood
2007-06-09, 15:07:06
kannst du mal passende, ordentliche Threadtitel erstellen? DANKE!

AnarchX
2007-06-09, 15:07:17
Hardspell (China) durfden ins Headquarter von Gigabyte während der Computex in Taiwan und haben dieses X38 Express gesehn:
http://www.hardspell.com/pic/2007/6/8/b2bdfea2-040f-4da4-a30b-82b1a5678673.jpg
ein popliger passiver Rippenblock: fertig! :eek:


Das ist aber doch nur die Southbridge.
Der X38 ist der Chip mit IHS in der Mitte und da fehlt definitiv der Kühler, der wohl nicht ganz so klein sein wird.;)

up¦²
2007-06-09, 15:10:11
Hast recht, in der Eile ganz übersehn...
Sollte in Ordnung gehn, bei Gigabyte, wahrscheinlich die besten Mobos z.Zt.

PS: die X38 werden DDR3 only und lösen die 977er ab: das wird ziemlich teures zeug...

Gast
2007-06-09, 15:36:48
PS: die X38 werden DDR3 only und lösen die 977er ab: das wird ziemlich teures zeug...

Werden sie nicht. Bitte erst informieren!!

Die meisten Boards im X38 Thread haben vollen DDR2 Support.

Mastermind@Glückskind
2007-06-09, 16:12:34
kannst du mal passende, ordentliche Threadtitel erstellen? DANKE!
Am Threadtitel gibt es überhaupt nix auszusetzen!

Gast
2007-06-09, 22:00:25
Hi,

sry leute, aber ich versteh das nicht "SLI; Die Hölle friert zu"

Kann mir das jemadn erklähren?

danke für euer Verständis

lg:
Sven bauer

Mastermind@Glückskind
2007-06-09, 23:00:22
Hi,

sry leute, aber ich versteh das nicht "SLI; Die Hölle friert zu"

Kann mir das jemadn erklähren?

danke für euer Verständis

lg:
Sven bauer
Das entscheidende hast Du weggelassen. Es geht darum, dass SLI mutmaßlich auf Intel-Chipsätzen funktionieren soll. Das ist bisher nicht der Fall und es käme in den Augen einiger einem kleinen Wunder gleich, wenn das passieren würde. :wink:

up¦²
2007-06-10, 05:26:41
BTW...
ASUS new P35 mainboard uses a Crosslinx chipset, allowing one to run crossFire at Dual 8x instead of 16x + 4x. Blitz Extreme also comes with
a new Fusion block, allowing DIY users to connect to watercooling kit
to cool the VRM, north, south bridge. Compared to other solutions, heat
dissipation can be improved by 47%.
http://www.ocworkbench.com/2007/computex/day0/p9.htm

Sternenkind
2007-06-13, 15:21:27
Was mir ein netter user über pm gerade mitgeteilt hat:

http://www.theinquirer.net/default.aspx?article=40123

http://img507.imageshack.us/img507/235/slionintelqy5.jpg (http://imageshack.us)

Das wird sooo geil :)

Edit: wurde angeblich von Nvidia dementiert...

Was wird daran so "geil" sein? Wo liegt der Sinn daran 2mal für 'ne GraKa löhnen zu müssen? :rolleyes:

Marc-
2007-06-13, 16:24:18
Was wird daran so "geil" sein? Wo liegt der Sinn daran 2mal für 'ne GraKa löhnen zu müssen? :rolleyes:
mann... du peilst auch garnix... weil du nur so die ultra l33t extrem kraazzzz power haben kannst... und nur so kannst du ueber lang oder kurz zum echten "freak" werden... sowas kannst du nicht lernen oder so... das kannst du dir nur kaufen... son echten freak kult status.

Dunkeltier
2007-06-13, 23:09:17
mann... du peilst auch garnix... weil du nur so die ultra l33t extrem kraazzzz power haben kannst... und nur so kannst du ueber lang oder kurz zum echten "freak" werden... sowas kannst du nicht lernen oder so... das kannst du dir nur kaufen... son echten freak kult status.


Na, spricht da der Neid aus uns heraus? :rolleyes: Crossfire bzw. SLI hat sehr wohl seinen Sinn, will man Computer-Spiele auf grafisch höchsten Niveau genießen. Das hat weniger etwas mit Freak sein, wie vielmehr mit qualitativen Anspruch zu tun.

Hamster
2007-06-13, 23:20:21
Na, spricht da der Neid aus uns heraus? :rolleyes: Crossfire bzw. SLI hat sehr wohl seinen Sinn, will man Computer-Spiele auf grafisch höchsten Niveau genießen. Das hat weniger etwas mit Freak sein, wie vielmehr mit qualitativen Anspruch zu tun.

es muß aber schon in einem ein kleiner freak stecken, wenn man bereit ist ~1200euro für 2 grafikkarten auszugeben ;)

Marc-
2007-06-13, 23:42:16
Na, spricht da der Neid aus uns heraus? :rolleyes: Crossfire bzw. SLI hat sehr wohl seinen Sinn, will man Computer-Spiele auf grafisch höchsten Niveau genießen. Das hat weniger etwas mit Freak sein, wie vielmehr mit qualitativen Anspruch zu tun.
das war eine leicht ueberspitzte persiflage auf das was herr tombman gerne als "freak" bezeichnet... und wenn jemand 1200,-- schleifen fuer 1-2 stufen hoehere aufloesung hinblaettert dann kann man das durchaus mit dem wort "freak" betiteln, ob man das negativ wertet oder positiv (wie herr tombman das tut, der sich selbst wohl sehr positiv als "freak" betitelt) ist jedem selbst ueberlassen. Er selbst zumindest sieht das wohl nicht als beleidigung sondern eher als auszeichnung an... aehnlich wie das wort "Speedhure". Naja... was solls? jedem das seine... ich denk nicht das da neid eine rolle spielt. Wenn ich fuer mich beschliesse, das ein computer mir soviel geld/aufwand etc nicht wert ist... worauf sollte ich neidisch sein? Andere werden vielleicht genauso mein moped als das eines freaks bezeichnen, nur da geb ich persoenlich mein geld lieber aus. Jedem das seine halt.

=Floi=
2007-06-13, 23:43:47
es gibt ja auch leute die 3000€+ netto im monat verdienen und da kann ich mir schon vorstellen,dass man auch als gelegenheitsspieler nen netten rechner hinstellt uder jemand der eben auch mit 4-8X AA einen 24" TFZ befeurn will
so extrem sehe ich das auch wieder nicht (zumal eine GTX aktuell 444€ kostet)

Gast
2007-06-14, 00:04:25
(zumal eine GTX aktuell 444€ kostet)
Ein echter Freak hat schon längst auf 2*Ultra umgesattelt =)
Und wer jetzt meint sich jetzt erst 2 GTXen zu holen, der hat etwas spät reagiert, nachdem es sie schon etliche Monate gibt.

mictasm
2007-06-14, 00:50:17
Genau, wir richtig Bekloppten haben die beiden schon in der ersten Woche der Verfügbarkeit gekauft ;)

Die Ultras lasse ich allerdings aus, will ja kein Freak sein^^

tombman
2007-06-14, 01:21:44
Genau, wir richtig Bekloppten haben die beiden schon in der ersten Woche der Verfügbarkeit gekauft ;)

Die Ultras lasse ich allerdings aus, will ja kein Freak sein^^

Ultras lasse ich auch aus, weils einfach pure Abzocke ist. 50% mehr Kosten für 10% mehr power... bei gleichem PCB und auch sonst alles gleich. Wenn die den Kühler nicht geändert hätten würde man überhaupt nicht sehen, daß es ne Ultra ist ;D

Nvidia zockt ja gerne mal ab (7800 512Mb anyone?), aber diesmal haben sie es mit der Ultra übertrieben. Ich mein, wenn sie 1Gb gehabt hätte und vielleicht 700Mhz core und 512bit SI, ja DANN wäre es zu überdenken, aber so --> nene.

Außerdem ist derzeit 8800GTX SLI sowieso schnell genug für alles, auch für die verhunzten DX10 techdemos. Überhaupt kein Grund zu wechseln derzeit...

Und ja, Marc- ist neidisch, nicht auf den Rechner, sondern auf Leute die sich in Szene setzen können mit wenigen Mitteln-> das ist die Ursache seines Neides. Er könnte nicht mal mit seinem Bike angeben wenn er es wollte- steckt nicht in ihm, und das weiß er ;)
Leute, denen ich egal bin, reagieren nicht auf mich. Sobald sie reagieren, egal ob negativ oder positiv, entdecken sie unbewußt oder bewußt etwas an mir, was sie in sich selbst sehen, egal ob sie es ablehnen oder nicht. Die größte Ablehnung ist nicht der Hass, sondern die Gleichgültigkeit.

p.s. bei SLI geht es nicht nur um 1-2 höhere Stufen der Auflösung (obwohl das auch nicht nur "nur" ist, da gehts dann um doppelte optische Auflösung etc), sondern zb auch um von 30fps weg- hin zu 60fps zu kommen.

Anarchy-HWLUXX
2007-06-14, 02:31:17
Ich mein, wenn sie 1Gb gehabt hätte und vielleicht 700Mhz core und 512bit SI, ja DANN wäre es zu überdenken, aber so --> nene.

Kostet ja nur ne ~Million nen neuen Cjip zu entwickeln den man garnichgt nötig hat ... die kosten würde man auch nie im leben wieder reinbekommen von den Yield raten usw. abgesehen, das so nen viech minimum 800+ kosten würde ist türlich auch egal ...

Was du da willst ist zeit und resourcen verschwendung zum ² - nV soll lieber weiter an der nächsten Gen arbeiten.



PS - niemand zwingt dich Highest End Hardware zu kaufen :rolleyes:

tombman
2007-06-14, 03:08:25
...Was du da willst...
"Was ich will"? Wenns nach mir gehen würde hätte sich NV die komplette Ultra sparen können ;)

Die GTX runter auf 399€ hätte AMD mal so richtig weh getan ;)

PHuV
2007-06-14, 14:46:45
Was wird daran so "geil" sein? Wo liegt der Sinn daran 2mal für 'ne GraKa löhnen zu müssen? :rolleyes:

Der Neid der Besitzlosen?

Spiel mal Stalker, Oblivion, FarCry, Gothic3, Fear etc. mit 30" auf 2560x1600, dann erkennst Du den Sinn, und willst nie mehr wieder "auf klein" spielen! :wink:

Und für diese Auflösung braucht man bei entsprechenden Einstellungen SLI.

Gast
2007-06-14, 19:36:05
Der Neid der Besitzlosen?

Spiel mal Stalker, Oblivion, FarCry, Gothic3, Fear etc. mit 30" auf 2560x1600, dann erkennst Du den Sinn, und willst nie mehr wieder "auf klein" spielen! :wink:

Und für diese Auflösung braucht man bei entsprechenden Einstellungen SLI.
Naja bei Gothic 3 funzt SLi bei mir ned so pralle. Sind zwar nur 2 X 7900GTX aber sehr dürftig das ganze, ich rede jetzt nicht von CPU limitierten Stellen. Habe auch schon mit den Bits herumgespielt aber von einem 80 % Performancegewinn bin ich da weit entfernt. SLi ist zwar an sich ganz ned, aber der doppelte Preis ist mir das nicht mehr wert. Wenn man hingegen eh zu viel Geld hat oder Gaming für jemanden das Hobby number one ist, dann kann man bedenkenlos zugreifen. Btw, bei NFSMW ist das nV SLi Profil auch scheiße, gibt einige Stellen, wo SLi anscheinend nicht rennt oder nicht richtig und die Frames spürbar einbrechen. Nach ein paar Sekunden geht's dann wieder. Habe das ganze auch nochmal mit Fraps überprüft. Von der ein auf die andere Sekunde vom ca. 50 fps runter auf 30 fps, wo es dann einige Sekunden verharrt. Passiert häufig, wenn die Polizei auftaucht und der bläuliche Slow Motion Effekt einsetzt.

tombman
2007-06-14, 21:16:25
durchsuch halt das Forum nach SLi Profilen- wirst sicher was finden. G3 ist hauptsächlich cpu limitiert...

Anarchy-HWLUXX
2007-06-14, 21:56:44
Die GTX runter auf 399€ hätte AMD mal so richtig weh getan ;)

nV würde sich damit selbst ins Bein schiessen - man verliert unmengen an Geld ohne in bedrängniss zu sein. Und "wehtun" ? Mer sind nicht auf dem Kinderspielplatz ...

Das letzte was die GraKa Hersteller wollen ist ein Hirnrissiger Preiskrieg a la Intel vs. AMD.

tombman
2007-06-14, 21:58:46
Im HIGHend gehts um Prestige, nicht um Geld...wenn sie AMD deutlich schlagen, gehen automatisch mehr lowend und midrange Karten über den Tisch...

Anarchy-HWLUXX
2007-06-14, 22:12:06
Im HIGHend gehts um Prestige, nicht um Geld...wenn sie AMD deutlich schlagen, gehen automatisch mehr lowend und midrange Karten über den Tisch...
Die GTX ist schneller als die XT und die Ultra sowieso - nV hat keinen Handlungsbedarf bei den Preisen ... inzwischen wurden se aba a bissi gesenkt auf 450/550 (Geizhals.at).

Und jetzt wiedersprichst du dir selbst - die Ultra ist unangefochten #1, und da bei Highend das Prestige zählt ist doch alles wie es sein soll ? Weiter oben schreibst du dann das man sich die Ultra hätte sparen können ...

tombman
2007-06-14, 22:14:20
Man muß es eben richtig machen. Die JETZIGE Ultra hätte man sich sparen, aber nicht DIE Ultra schlechthin. Es hätte also entweder
a.) eine SCHNELLERE Ultra geben müssen zum jetzigen Preis
b.) die jetztige Ultra zum besseren Preis...

Die aktuellen GH Preise schaue ich mir mal an jetzt...

Grestorn
2007-06-14, 22:20:17
Die GTX ist schneller als die XT und die Ultra sowieso - nV hat keinen Handlungsbedarf bei den Preisen ... inzwischen wurden se aba a bissi gesenkt auf 450/550 (Geizhals.at).

Und jetzt wiedersprichst du dir selbst - die Ultra ist unangefochten #1, und da bei Highend das Prestige zählt ist doch alles wie es sein soll ? Weiter oben schreibst du dann das man sich die Ultra hätte sparen können ...

Was hätte nVidia für einen Vorteil, den Preis der GTX zu senken? Die Enthusiasten zahlen den Preis, und die "normalos" bezahlen auch keinen reduzierten Preis sondern bleiben bei der GT oder 2900XT, da sie immer billiger bleiben werden als die GTX.

=Floi=
2007-06-25, 07:11:38
also ich bin mir sicher NV hat von den G71 chips schon ein paar verkauft
ihr tut so als ob der bereich keinen gewinn abwirft und 100% querfinanziert werden muß
nehmen wir mal den faktor 100 beim gewinn, so
braucht man nur 10 8800er kunden (GTX oder ultra) aber 1000 leute die kleinere karten kaufen
bei den 50€-100€ karten ist der gewinn wesentlich kleiner

und spätestens mit dem G92 wird der chip massentauglich
nebenbei wurde am G80 auch an nichts gespart (zB. lüfter)

Sternenkind
2007-06-25, 10:07:30
Der Neid der Besitzlosen?

Spiel mal Stalker, Oblivion, FarCry, Gothic3, Fear etc. mit 30" auf 2560x1600, dann erkennst Du den Sinn, und willst nie mehr wieder "auf klein" spielen! :wink:

Und für diese Auflösung braucht man bei entsprechenden Einstellungen SLI.

Nein ganz und gar nicht. Neid entsteht aus dem Verlangen nach etwas, ich jedoch lehne SLI & co grundsätzlich ab, weil es nichts weiter als Marketing ist und die soganannten Freaks (no offense) es nicht peilen (wollen), dass man ihnen so nicht nur einmal 600,-€ für die neuste uber GraKa aus der Tasche ziehen kann, nein man kann es gleich zweimal machen. ;) Prima! gg an die Marketingabteilung...

Von der Preis/Leistung und dem Stromverbrauch will ich gar nicht erst anfangen. Nur sehe ich die Gefahr, dass SLI für aktuelle Spiele mit gescheiten Settings zum quasi Standard wird und die User das einfach so hinnehmen. DAS kann ganz und gar nicht im Sinne der User sein.

Trice1001
2007-06-25, 10:09:07
Kann man dann CF "und" Sli auf einen Mobo Benutzen? Da es ja ein Intel chipsatz ist.
Auser mit gehackten Treibern?

tombman
2007-06-25, 10:23:32
die soganannten Freaks (no offense) es nicht peilen (wollen), dass man ihnen so nicht nur einmal 600,-€ für die neuste uber GraKa aus der Tasche ziehen kann, nein man kann es gleich zweimal machen. ;)
Weil man ja mit SLI absolut nix anfangen kann, oder wie? :uhammer:
Man bekommt auch was dafür, niemand zahlt doppelt für nichts. Wenn hohe Auflösungen für dich nichts sind, dann könntest wenigstens verstehen, daß es für andere eben viel bedeutet.

Oder sieh es so: G80 SLI = G90 Dh, man zahlt dafür SCHON JETZT die Leistung eines G90 zu haben...

Gast
2007-06-25, 11:02:07
Kann man dann CF "und" Sli auf einen Mobo Benutzen? Da es ja ein Intel chipsatz ist.
Auser mit gehackten Treibern?Zur Zeit geht SLI nur auf Nforce-Boards, während CF auf ATI- und Intel-Chipsätzen läuft. Sollte der Threadtitel wirklich zur Wahrheit werden, wird man dann auf Intel-Chipsätzen sowohl SLI als auch CF nutzen können.

Gast
2007-06-25, 11:08:19
Nein ganz und gar nicht. Neid entsteht aus dem Verlangen nach etwas, ich jedoch lehne SLI & co grundsätzlich ab, weil es nichts weiter als Marketing istDafür dass es nichts weiter als Marketing ist, hat man als Käufer aber einen ordentlichen Mehrwert durch SLI. Natürlich sind es nicht 100 % mehr Performance, aber 80+ % Mehrleistung sind durchaus die Regel, wenn man die richtigen Profile nutzt.

Für diejenigen, denen die Leistung einer High-End-Karte nicht reicht, ist SLI eine prima Möglichkeit die Performance von morgen schon heute im Rechner zu haben. Mir ist es aktuell auch zu teuer, da ich kaum noch am PC spiele, aber wo ist dein Problem, wenn sich andere Leute ein feines SLI-System zulegen um alle Spiele in hohen Auflösungen und extravaganten AA-Modi spielen zu können? Es gibt nunmal Leute, die bei ihrem Hobby keine Kompromisse eingehen wollen und wenn diese die entsprechende Kohle locker machen können, sollen sie sich doch ein SLI-System kaufen. Gönn ihnen doch einfach den Spaß.

Gast
2007-06-25, 12:36:11
Dafür dass es nichts weiter als Marketing ist, hat man als Käufer aber einen ordentlichen Mehrwert durch SLI. Natürlich sind es nicht 100 % mehr Performance, aber 80+ % Mehrleistung sind durchaus die Regel, wenn man die richtigen Profile nutzt.

Für diejenigen, denen die Leistung einer High-End-Karte nicht reicht, ist SLI eine prima Möglichkeit die Performance von morgen schon heute im Rechner zu haben. Mir ist es aktuell auch zu teuer, da ich kaum noch am PC spiele, aber wo ist dein Problem, wenn sich andere Leute ein feines SLI-System zulegen um alle Spiele in hohen Auflösungen und extravaganten AA-Modi spielen zu können? Es gibt nunmal Leute, die bei ihrem Hobby keine Kompromisse eingehen wollen und wenn diese die entsprechende Kohle locker machen können, sollen sie sich doch ein SLI-System kaufen. Gönn ihnen doch einfach den Spaß.
Solange es die Devs nicht als Standard ansehnen ist alles ok, das heißt, das Game muss mit aktueller High End Graka in 1280x1024 mit allem Schnick-Schnack bei gleichzeitigem 4xAA und 16xAF flüssig laufen. Nicht dass irgendwann SLi schon für obengenannte Auflösung zur Pflicht wird.

Sternenkind
2007-06-25, 14:29:11
Für diejenigen, denen die Leistung einer High-End-Karte nicht reicht...

Sollte sie aber, wenn nicht haben Hardware- sowie Softwarehersteller was falsch gemacht. Leider wird einem suggestiert, dass SLI das non-plus-ultra ist und Pflicht ist für jeden "Freak". Schwachsinn... aber bitte, lasst euch doch ruhig verschaukeln und euch 2mal in Tasche greifen..

tombman
2007-06-25, 14:39:41
Sollte sie aber, wenn nicht haben Hardware- sowie Softwarehersteller was falsch gemacht. Leider wird einem suggestiert, dass SLI das non-plus-ultra ist und Pflicht ist für jeden "Freak". Schwachsinn... aber bitte, lasst euch doch ruhig verschaukeln und euch 2mal in Tasche greifen..
:uhammer:

Für devs ist aber 1024x768 und 30fps genug. Das ist einfach so geplant. Wer 1920x1200 in 60fps will braucht eben SLI.

Wenn games mit einer Karte auch so rennen würden, würde SLI keiner kaufen :rolleyes:
Es geht schlicht und einfach um Ansprüche.

Softwarehersteller arbeiten nicht für freaks, sondern für die Masse, denn nur so läßt sich Kohle machen. Sie machen daher alles richtig und nix falsch. Es gibt freaks, und die haben höhere Ansprüche, also gibts SLI.

Suggeriert wird da auch nix, einfach angeboten und nachgefragt. Alles ganz easy ;)

Wenn jemand meint er kann ohne Bentley nicht fahren, dann gibts eben nen Bentley.
Oder nen Ferrari oder sonstwas.

Lern das auswendig: SLI IST NICHT SINNLOS ;D

Grestorn
2007-06-25, 14:47:45
Sollte sie aber, wenn nicht haben Hardware- sowie Softwarehersteller was falsch gemacht. Leider wird einem suggestiert, dass SLI das non-plus-ultra ist und Pflicht ist für jeden "Freak". Schwachsinn... aber bitte, lasst euch doch ruhig verschaukeln und euch 2mal in Tasche greifen..

Hättest Du recht, könnte ich mit SLI ja jedes GPU limitierte Spiel absolut ruckelfrei in der Auflösung meiner Wahl (1920x1200) mit mindestens 4xAA und 16xAF spielen.

Da dem nicht so ist und viele Spiele weiterhin GPU limitiert sind, bist Du widerlegt.

Du solltest Dir auch mal eine andere Ausdrucksweise angewöhnen. Was Schwachsinn ist und was nicht, bestimmst nicht Du. Schon eher passt der Begriff auf Dein Posting.

Undertaker
2007-06-25, 14:48:19
:uhammer:

Für devs ist aber 1024x768 und 30fps genug. Das ist einfach so geplant. Wer 1920x1200 in 60fps will braucht eben SLI.

das entspricht aber knapp dem 6x leistungsbedarf ;) mit sli kann man im schnitt evntl aus 1680x1050 bei 45fps 1920x1200 bei 60fps machen

tombman
2007-06-25, 14:51:01
das entspricht aber knapp dem 6x leistungsbedarf ;) mit sli kann man im schnitt evntl aus 1680x1050 bei 45fps 1920x1200 bei 60fps machen
War ein bischen übertrieben dargestellt ;)

Hauptsächlich ist SLI für >1600x1200, oder, bei extremer Last bzw "Unfähigkeit" der devs, die 30fps Grenze zu sprengen Richtung 60fps ;)

Zb, bei betas oder techdemos hilft SLI auch immer gut mit. (DX10 sowieso)

Sternenkind
2007-06-25, 15:45:13
:uhammer:

Für devs ist aber 1024x768 und 30fps genug. Das ist einfach so geplant. Wer 1920x1200 in 60fps will braucht eben SLI.

Wenn games mit einer Karte auch so rennen würden, würde SLI keiner kaufen :rolleyes:

Ich sehe wir sind einer Meinung, also wieso kaufst du dir dann SLI? Die "Devs" könnten Spiele besser auf Performance trimmen und würden so noch mehr Kunden erreichen als "geplant". Und du müsstest dir keine zweite Karte kaufen. Aber wenn einem die eigentliche Performance eines Spiels egal ist und man bereitwillig lieber doppelt in seine Hardware investiert, nun ja dem ist nicht mehr zu helfen. Nvidia freut sich jedenfalls über solche wie dich. ;D

Du solltest Dir auch mal eine andere Ausdrucksweise angewöhnen. Was Schwachsinn ist und was nicht, bestimmst nicht Du. Schon eher passt der Begriff auf Dein Posting.

Na Entschuldigung Herr Forumsmoralist, kommt ganz sicher wieder vor. :rolleyes:

Gast
2007-06-25, 17:43:06
Ich sehe wir sind einer Meinung, also wieso kaufst du dir dann SLI? Die "Devs" könnten Spiele besser auf Performance trimmen und würden so noch mehr Kunden erreichen als "geplant". Und du müsstest dir keine zweite Karte kaufen. Aber wenn einem die eigentliche Performance eines Spiels egal ist und man bereitwillig lieber doppelt in seine Hardware investiert, nun ja dem ist nicht mehr zu helfen. Nvidia freut sich jedenfalls über solche wie dich. ;D



Na Entschuldigung Herr Forumsmoralist, kommt ganz sicher wieder vor. :rolleyes:
Natürlich freut sich nV aber tombman & Co freut sich über die Leistungsfähigkeit von SLi auch. Warum sollte man warten, wenn man heute die Leistung braucht?
Glaube auch nicht, dass es an den Devs liegt. Die Leute wollen excellente Grafik sehen, in der noch jedes scheiß Eck gut gefiltert und geglättet sein soll.
Die Hardware ist leider nicht so leistungsfähig wie nV und Co immer suggerieren. Die macht ja teilweise schon bei ihren (Schlauch-)Techdemos schlapp.

Gast
2007-06-25, 18:41:35
Von der Preis/Leistung und dem Stromverbrauch will ich gar nicht erst anfangen.


im gegensatz zu anderer "freak-hardware" (intels extreme-editions bzw. AMDs FX oder OC-RAM) ist das preis-leistungsverhältnis mit SLI sogar verdammt gut.

Coda
2007-06-25, 18:43:44
Nein ganz und gar nicht. Neid entsteht aus dem Verlangen nach etwas, ich jedoch lehne SLI & co grundsätzlich ab, weil es nichts weiter als Marketing ist und die soganannten Freaks (no offense) es nicht peilen (wollen), dass man ihnen so nicht nur einmal 600,-€ für die neuste uber GraKa aus der Tasche ziehen kann, nein man kann es gleich zweimal machen. ;) Prima! gg an die Marketingabteilung...
Völliger Blödsinn. Nimm einen 2560x1600-Panel und schon brauchst du quasi SLI. Das sind mehr als doppelt so viele Pixel wie 1600x1200 und dafür reicht eine GTX für überall Full-Detail auch nicht immer.

Gast
2007-06-25, 19:20:31
Die "Devs" könnten Spiele besser auf Performance trimmen und würden so noch mehr Kunden erreichen als "geplant".

dann würden sie aber schlechter aussehen und damit eine schlechtere presse bekommen ;)

tombman
2007-06-25, 19:56:35
Ich sehe wir sind einer Meinung, also wieso kaufst du dir dann SLI? Die "Devs" könnten Spiele besser auf Performance trimmen
Ich will aber lieber bessere Grafik mit SLI als schlechtere Grafik ohne SLI ;)

Klar soll Grafik immer am Limit sein, nur dazu muß dann eben auch mal 30fps akzeptiert werden. Die Masse macht das ja auch, deshalb sind 99% zufrieden. Der User kann seine GTX voll ausspielen, der dev kann seine super Grafik zeigen, und der freak bekommt seine 60fps oder seine höhere Auflösung ;)

Außerdem kann man viele SPiele auch per console, ini und cfg nach oben pimpen, weit über das hinaus was der dev überhaupt geplant hat -> auch da braucht man SLI als Helfer ;) (neben abartiger cpu)

Gast
2007-06-25, 23:31:06
warum auch nicht .... ansprüche sind anders (bei jedem..)

ich verstehe ihn/sie ,
kauf dir nen großen+guten tft und schon verstehst du ihn auch

andere geben 10000 euro für ihre home cinema anlage (nur ton;))aus

er eben 3-5000€?^^ für sein pc

btw: was für ne anlage hat der tombman :D?concept e?

tombman
2007-06-25, 23:33:00
btw: was für ne anlage hat der tombman :D?concept e?
Yamaha AMP + Hifi Boxen...

=Floi=
2007-06-26, 05:03:49
du bist wohl wirklich noch ein KIND @ sternenkind ;D ;D

Sternenkind
2007-06-26, 09:03:37
So bin ich das =Floi=? Dein Beitrag hat bald mehr Smilies als Wörter... :rolleyes:

@Topic
Sicher hat SLI seine Daseinsberechtigung in bestimmten Fällen (z.B. bei _sehr_ hohen Auflösungen, richtig). Aber ich sehe einfach auch die Gefahr, dass es sich die Hersteller zu einfach machen und SLI/CF zum quasi Standard machen in Sachen "High-End". Darauf wollte ich eigentlich abzielen. :)

Grestorn
2007-06-26, 09:10:22
@Topic
Sicher hat SLI seine Daseinsberechtigung in bestimmten Fällen (z.B. bei _sehr_ hohen Auflösungen, richtig). Aber ich sehe einfach auch die Gefahr, dass es sich die Hersteller zu einfach machen und SLI/CF zum quasi Standard machen in Sachen "High-End". Darauf wollte ich eigentlich abzielen. :)

Das war aber Deinen Beiträgen nicht zu entnehmen.

Du hast vielmehr alle SLI Benutzer als Marketingopfer und Volltrottel hingestellt.

Sternenkind
2007-06-26, 09:26:39
Ich hab's überspitzt dargestellt, ja.

tombman
2007-06-26, 10:47:20
Ich hab's überspitzt dargestellt, ja.
Nicht überspitzt, sondern falsch.

tombman
2007-06-26, 10:47:55
Aber ich sehe einfach auch die Gefahr, dass es sich die Hersteller zu einfach machen und SLI/CF zum quasi Standard machen in Sachen "High-End". Darauf wollte ich eigentlich abzielen. :)
Nein, das wird nicht passieren, so dumm sind die auch ned...

Sternenkind
2007-06-26, 10:53:06
Wo meine Aussagen falsch gewesen sein sollen... erleuchte mich tombman :rolleyes:

Wieso wäre SLI/CF als "High-End" Standard dumm aus sich von Nvidia/ATI? Was besseres kann denen doch nicht passieren... Wo wir wieder beim doppelt abkassieren wären.

Grestorn
2007-06-26, 10:54:53
Wo meine Aussagen falsch gewesen sein sollen... erleuchte mich tombman :rolleyes:

Wieso wäre SLI/CF als "High-End" Standard dumm aus sich von Nvidia/ATI? Was besseres kann denen doch nicht passieren... Wo wir wieder beim doppelt abkassieren wären.

Für ATI/nVidia wäre es sicher nicht dumm. Für die Spielehersteller schon, und die bestimmen ja, mit welcher HW ihre Produkte spielbar sind.

Wenn die Spiele gut auf SLI skalieren und das auch nutzen, haben die nicht-SLI Nutzer ja keinen Nachteil deswegen.

tombman
2007-06-26, 10:59:01
Wo meine Aussagen falsch gewesen sein sollen... erleuchte mich tombman :rolleyes:

Wieso wäre SLI/CF als "High-End" Standard dumm aus sich von Nvidia/ATI? Was besseres kann denen doch nicht passieren... Wo wir wieder beim doppelt abkassieren wären.
1.) SLI user sind weder Volltrottel noch Halbtrottel ("überspitzt"...)
2.) SLI als Standard für max details wäre Selbstmord, weil SLI viel zu wenige user besitzen-> HighEnd GPU user würden sich aufregen-> beeinflussen 0815 Massenuser per Foren und Mundpropaganda, daß Spiel XYZ nicht mal auf single HighEnd GPU mit 30fps rennt --> Massenuser kauft nix --> Spiel bleibt in Regal liegen --> Verluste ohne Ende --> Flop ;)

Sternenkind
2007-06-26, 11:12:33
Muh... tombman du hast keine Phantasie! Deinen 2. Punkt kann man genauso anders herum drehen. Man muss den Leuten nur lang und intensiv genug eintrichtern, wie toll und supi SLI/CF doch ist und man es unbedingt braucht um XYZ in allen Details spielen zukönnen. Man muss auch nur die Printmedien füttern und Forumtrolle gibt es ja auch so schon genug.

Gast
2007-06-26, 16:33:55
Man muss den Leuten nur lang und intensiv genug eintrichtern, wie toll und supi SLI/CF doch ist und man es unbedingt braucht um XYZ in allen Details spielen zukönnen.Das wird bei 90 % der Leute aber ganz einfach nicht funktionieren, da sie schon im Traum nicht daran denken würden 500 € für eine Grafikkarte auszugeben. Wie soll man diese Leute dazu bringen sich gleich zwei zu kaufen?

tombman
2007-06-26, 18:24:31
Genau, jeder weiß wie geil ein ENZO Ferrari ist, deswegen können sie ihn trotzdem ned kaufen...
Also mit Geilheit allein kann man keine Wunder erzielen...

Ultron
2007-06-26, 18:45:44
Das wird bei 90 % der Leute aber ganz einfach nicht funktionieren, da sie schon im Traum nicht daran denken würden 500 € für eine Grafikkarte auszugeben. Wie soll man diese Leute dazu bringen sich gleich zwei zu kaufen?


Die Leute kaufen die Karten automatisch, wenn sie das schnellste und beste haben wollen. Dies kann 3 Gründe haben:

- damit man das beste hat (Leute mit genügend Kohle kaufen IMMER das beste, auch wenn sie es gar nicht brauchen)

- damit man damit lang zocken kann

- damit man bei > 1600x1200 immer noch > 60fps bei Highest Possible Details hat.

Wer weniger Geld ausgeben will, kauft sich halt keine 2 Karten, aber wo zum teufel ist denn das Problem?? Klar braucht man es nicht. Ein Schrank aus Echtholz braucht auch kein Mensch, genausowenig wie jeder ne Rolex oder sonst irgendeine Highend-Armbanduhr braucht.

Gast
2007-06-26, 18:57:08
Genau, jeder weiß wie geil ein ENZO Ferrari ist, deswegen können sie ihn trotzdem ned kaufen...
Also mit Geilheit allein kann man keine Wunder erzielen...
Obwohl die meisten noch 1000 € für Grakas aufbringen könnten, wenn sie es wirklich wollten. Aber die meisten sind einfach nicht geil genug auf's konsequente Gamen ohne Kompromisse. Das mit dem nicht leisten können, trifft dann eher auf Jugendliche und max. Studenten zu. So teures Equipment verpflichtet einen geradezu jeden Moment seiner Freizeit zu spielen und selbst wenn draußen herrliches Wetter ist. Es sei denn, man hat es wirklich dicke: Tagesablauf nach dem Motto: 10.00 Uhr aufstehen, Fressen bringen lassen, danach Spritztour mit dem Ferrari bis Mittags, dann Heli-Rundflug, abends zum Ausklang zocken bis spät in die Nacht, next day same procedure. Gelebt wird von Zinseinkünften. *träum*

BT
2007-06-26, 21:00:05
Yamaha AMP + Hifi Boxen...

consequent :D

wobei hifi alles sein kann, aber ich vertraue dir soweit :D

=Floi=
2007-06-26, 21:41:33
eine 8600GTS bringt ca 1/3 der leistung einer 8800GTX
mit SLI wäre das die 6fache leistung und das ist für ein spiel einfach zu viel...
(auch bringt die SLI keule nichts wenn schlecht programmiert wurde siehe diverse spiele die bei AA total wegbrechen oder HL2 was sehr gut optimiert wurde)

tombman hat es schon gesagt
man käme sich mit EINER GTX einfach verarscht vor

der markt ist da aber nicht für die masse

Gast
2007-06-27, 07:42:48
oder HL2 was sehr gut optimiert wurdeHL2 wurde nicht "gut optimiert", sondern man ließ einfach sämtliche Grafikfeatures weg, die ordentlich Leistung fressen. Das sieht man dann aber auch. HL2 hat für Besitzer von High-End-Grafikkarte rein gar nichts zu bieten.
Die Leute kaufen die Karten automatisch, wenn sie das schnellste und beste haben wollenDie meisten Leute (ja, auch "Gamer") wollen aber gar nicht das schnellste und beste, sondern einfach nur spielen. 90 % der Spieler haben gar kein Interesse an hohen AA-Modi und wissen auch gar nicht, was das ist. Gespielt wird in 1024 auf einem 5:4-TFT. ;D

Gast
2007-06-27, 08:40:43
HL2 wurde nicht "gut optimiert", sondern man ließ einfach sämtliche Grafikfeatures weg, die ordentlich Leistung fressen. Das sieht man dann aber auch. HL2 hat für Besitzer von High-End-Grafikkarte rein gar nichts zu bieten.
Die meisten Leute (ja, auch "Gamer") wollen aber gar nicht das schnellste und beste, sondern einfach nur spielen. 90 % der Spieler haben gar kein Interesse an hohen AA-Modi und wissen auch gar nicht, was das ist. Gespielt wird in 1024 auf einem 5:4-TFT. ;D
Ne Stimmt so nicht ganz, HL² oder besser die Source-Engine, hat "Anti-Aliasing", "Anisotropische Filterung", "HDR-Rendering" und coole "Shader-Effekte (wie Wasser Spiegel Effekte)".
Und man kann alles in hoher Stufe, in hohen Auflösungen, also alles max. spielen und es läuft butterweich!

Es gibt sonst keine Engine von der ich das behaubten kann.
Die Cry-Engine ist auch nicht schlecht vielleicht, aber Far-Cry ist deutlich hungriger als HL², aber HL² sieht durch die coolen Gesichter und Animationen deutlich lebendiger aus, bei Far-Cry sind es Wachsfiguren! :)

Also ich finde die Source-Engine unglaublich gut!
Vor allen Spiele wie Episode 1 oder 2 reizen die Engine weiter aus, oder besser die Engine wird immer weiterentwickelt, wo ich HL² gekauft habe war noch kein HDR-R da, aber jetzt ist es da, echt cool.
Ok, das Gleiche gilt für Far-Cry, beides sind coole Engines, aber HL² hat bis jetzt wegen den Gesichter die Nase vorn.
Ich spiele zur Zeit "Dark Mesiah of Might and Magic", das hat auch die Source-Engine, man die haben sogar coole Unterwasser Effekte eingefügt, was ich als Manko von HL² angesehen habe.
Also sie Engine wird immer besser und läuft bei mir zu mindestens butterweich!
Genial!

Grestorn
2007-06-27, 08:49:17
Ne Stimmt so nicht ganz, HL² oder besser die Source-Engine, hat "Anti-Aliasing", "Anisotropische Filterung", "HDR-Rendering" und coole "Shader-Effekte (wie Wasser Spiegel Effekte)".

All das aber prinzipiell auf dem Niveau von DX8. Was der Source-Engine insbesondere abgeht sind realistische Licht- und Schatteneffekte.

Source-basierte Spiele sehen allesamt unbeeindruckender aus als FarCry und alles was danach kam und grafisch auf der Höhe der Zeit war. Sogar die TwoWorlds Engine kann mehr, und das will was heißen.

Paul Brain
2007-06-27, 10:33:34
Ohne jetzt alles gelesen zu haben: SLi war bei Intel-Workstation-Chipsätzen immer schon "erlaubt"; einzig die Desktop-Chipsätze sind gesperrt.

HOT
2007-06-27, 10:43:42
Ohne jetzt alles gelesen zu haben: SLi war bei Intel-Workstation-Chipsätzen immer schon "erlaubt"; einzig die Desktop-Chipsätze sind gesperrt.
Nur wenn ein SLI Logo da ist... und das ist es nur bei WS Boards mit NV Chips ;).

Paul Brain
2007-06-27, 11:02:27
Nur wenn ein SLI Logo da ist... und das ist es nur bei WS Boards mit NV Chips ;).
Nö. Ob da ein Logo draufpickt oder nicht ist effektiv wurscht, der Treiber überprüft, welcher Chipsatz drinsteckt, und solangs kein Desktop-non-nV ist, wird SLi nicht deaktiviert. SLi geht selbst mit dem E7525-Chipsatz (erster WS-Chipsatz von Intel mit PCIe-Support). Und ich kenn keine Intel-Workstation mit nV-Chipsatz, sowas grausliches gibts nur bei den Opterons, weil AMD keine Chipsätze bauen kann... ;)

Matrix316
2007-06-27, 14:10:30
Siehe Bericht bei Au-Ja Dell Workstation mit Intel - SLI (leider keine Spielebechmarks ;)) http://www.au-ja.de/guide-dellws690-1.phtml

HOT
2007-06-27, 15:00:33
Nö. Ob da ein Logo draufpickt oder nicht ist effektiv wurscht, der Treiber überprüft, welcher Chipsatz drinsteckt, und solangs kein Desktop-non-nV ist, wird SLi nicht deaktiviert. SLi geht selbst mit dem E7525-Chipsatz (erster WS-Chipsatz von Intel mit PCIe-Support). Und ich kenn keine Intel-Workstation mit nV-Chipsatz, sowas grausliches gibts nur bei den Opterons, weil AMD keine Chipsätze bauen kann... ;)
ohne NV Logo kein SLI... Das entscheidet aber niemand anderes als NV. Das scheint auf WS ja auch nur mit Quattros zu gehen. Das ist schon ein Unterschied, denn bei einer 2k € teuren Karte ist SLI schon selbstverständlich irgendwo.
Zudem scheint der WS/Server Markt deine Meinung über den NForce Professional nicht zu teilen, im Gegenteil er hat einen guten Ruf. Wenn NV Chipsätze für Intel WS bringt wird der auch genutzt werden.

WEGA
2007-06-27, 19:33:27
wieso sollten sie das auch machen? crossfire wirds auch nicht mehr lange auf intel chipsätzen geben.

Paul Brain
2007-06-27, 23:05:06
ohne NV Logo kein SLI... Das entscheidet aber niemand anderes als NV. Das scheint auf WS ja auch nur mit Quattros zu gehen. Das ist schon ein Unterschied, denn bei einer 2k € teuren Karte ist SLI schon selbstverständlich irgendwo.
Zudem scheint der WS/Server Markt deine Meinung über den NForce Professional nicht zu teilen, im Gegenteil er hat einen guten Ruf. Wenn NV Chipsätze für Intel WS bringt wird der auch genutzt werden.
Und Du glaubst, der Treiber macht mit der Webcam ein Foto von dem Logo und schaltet dann SLi frei? ;D
Das geht auf Workstation-Chipsätzen auch mit Consumerkarten, zumal die eh keine Konkurrenz für die eigenen Desktop-Chipsätze darstellen.

James Ryan
2007-06-28, 10:16:10
Intel X38 ist definitiv SLI-fähig! (http://www.computerbase.de/news/hardware/chipsaetze/intel/2007/juni/intel_x38_sli-faehig/) :biggrin:
Na also, geht doch!

MfG :cool:

Gast
2007-06-28, 10:54:40
Wird auch Zeit!

Ich denke das hätte auch Marketinggründe. Intel hatte bisher keinen Dual-PCIe x16 Chipsatz im Angebot.

Hätte man vorher schon SLI erlaubt, so stünde NVIDIA in manchen Tests schlechter da, da schon x8 Slots bei einer 8800 Ultra limitieren können.

bneu
2007-06-28, 11:39:02
jetzt hätte ich nur noch gerne ein x38 board im µatx format ;-)

tombman
2007-06-28, 13:16:48
Intel X38 ist definitiv SLI-fähig! (http://www.computerbase.de/news/hardware/chipsaetze/intel/2007/juni/intel_x38_sli-faehig/) :biggrin:
Na also, geht doch!

MfG :cool:
Na geh, ich wollte das schreiben :( ;D

Naja, also friert die Hölle wohl DOCH zu :) SLI @ Intel X38 -> Yippie-Ky-Eh-Motherfucker ;)

Anarchy-HWLUXX
2007-06-28, 13:24:21
Also bis ich es net Offiziell verkündet sehe bin ich weiterhin skeptisch - is immernnoch vom Inq. die info.

Gast
2007-06-28, 13:34:56
crossfire wirds auch nicht mehr lange auf intel chipsätzen geben.Würde ich nicht sagen. AMD/ATI will doch die Produktion von Chipsätzen für Intel-CPUs einstellen, wenn ich mich recht erinnere. Dann gäbe es gar keine Möglichkeit mehr Crossfire in Verbindung mit einer Intel-CPU zu nutzen und das ist garantiert nichts, was AMD/ATI will.

HOT
2007-06-28, 14:07:53
Na geh, ich wollte das schreiben :( ;D

Naja, also friert die Hölle wohl DOCH zu :) SLI @ Intel X38 -> Yippie-Ky-Eh-Motherfucker ;)
Moaaa, Intel kann das ruhig da drauf schreiben so oft und lange sie wollen, technisch haben sie ja auch recht. Solange da aber kein NVidia SLI Logo drauf ist auf dem Board wird das nix mit SLI auf Consumer Karten. Erst von NV von sich aus sagt, 'SLI geht auf Boards mit dem Chipsatz' und in NV Treibern freigegeben wird, erst dann kann man sagen, dass SLI darauf funktioniert. Vorher nicht. Das NV SLI gegen CSI getauscht hat, ist bisher nicht mehr als ein Gerücht. Da können auch die Inq Leute von ihrem angeblichen Treiberentwickler schreiben was sie wollen... Die Aussage macht sowieso keinen Sinn, denn PCIe ist PCIe und wenn man sich an die Spezifikationen hält gibts da auch keine Schwierigkeiten die man da aus dem Weg räumen müsste... außer die Treiberidentifikation anzupassen (bestimmt höchst schwierig).

tombman
2007-06-28, 14:15:40
Wenn die SLI Treiberentwickler schon sagen, daß sie an einem Inteltreiber arbeiten, dann wird das ja wohl ned umsonst sein...

HOT
2007-06-28, 14:18:30
Wenn die SLI Treiberentwickler schon sagen, daß sie an einem Inteltreiber arbeiten, dann wird das ja wohl ned umsonst sein...
Wer weiss wer da wieder was falsch verstanden hat und um wieviele Ecken das ging... Es gibt keinen "Intel-Treiber" es gibt nur Forceware und die laufen auf allen Chipsätzen. SLI geht eben nur dort, wo es eine positive Chipsatzidentifikation gibt und fertig. Erinner dich mal an den ULi Treiber - die haben nichts anderes gemacht, als die Identifikation rauszuhacken, der lief auf allen PCIe Chipsätzen fehlerfrei und maximal schnell.

Des weiteren glaube ich nach dem 2. mal lesen, da es sich dort um ein WS Mobo handelt, dass dort eher Quattro SLI gemeint war und nicht Consumer SLI.

tombman
2007-06-28, 14:28:52
Wer weiss wer da wieder was falsch verstanden hat und um wieviele Ecken das ging... Es gibt keinen "Intel-Treiber" es gibt nur Forceware und die laufen auf allen Chipsätzen. SLI geht eben nur dort, wo es eine positive Chipsatzidentifikation gibt und fertig. Erinner dich mal an den ULi Treiber - die haben nichts anderes gemacht, als die Identifikation rauszuhacken, der lief auf allen PCIe Chipsätzen fehlerfrei und maximal schnell.

Des weiteren glaube ich nach dem 2. mal lesen, da es sich dort um ein WS Mobo handelt, dass dort eher Quattro SLI gemeint war und nicht Consumer SLI.

Naja, ist ja für mich eigentlich auch egal, denn Penryn wird auf meinem 680i mobo laufen, also ist es mir ziemlich "wayne" ob X38 mit SLI rennen wird ;)
Mehr PCi-e lanes habe ich sowieso, bin mit dem eVGA Mobo hoch zufrieden, eines der besten mobos die ich je hatte :)

Gast
2007-06-28, 14:30:40
Na geh, ich wollte das schreiben :( ;D

Naja, also friert die Hölle wohl DOCH zu :) SLI @ Intel X38 -> Yippie-Ky-Eh-Motherfucker ;)
Was wäre dieses Forum ohne Tombman?
Das wäre ja wirklich unglaublich, wenn NVidia umsetzt!

HOT
2007-06-28, 14:37:56
Naja, ist ja für mich eigentlich auch egal, denn Penryn wird auf meinem 680i mobo laufen, also ist es mir ziemlich "wayne" ob X38 mit SLI rennen wird ;)
Mehr PCi-e lanes habe ich sowieso, bin mit dem eVGA Mobo hoch zufrieden, eines der besten mobos die ich je hatte :)
Die MCP72 Bretter werden sicherlich auch ziemlich cool ;). Da bringen die sicher auch ne C75 für Intel Systeme mit raus :D

tombman
2007-06-28, 14:39:48
Die MCP72 Bretter werden sicherlich auch ziemlich cool ;). Da bringen die sicher auch ne C75 für Intel Systeme mit raus :D
Mag sein, aber wenn ich etwas hasse, dann mainboard-Wechsel ;)

Sonyfreak
2007-06-28, 14:59:24
Für alle Enthusiasten die momentan ein Mainboard mit einem 680i Chipsatz haben, gibt es eigentlich absolut keinen Grund auf einen Intel Chipsatz umzusteigen. Der 680i ist schnell und, bietet alles was man braucht, hat 2 vollwertige x16 Slots für Grafikkarten und ist voraussichtlich auch noch für den Penryn gerüstet. Warum sollte man da auf einen X38 Chipsatz umsteigen? Einzig für Neukäufer, könnte das Teil interessant werden.

mfg.

Sonyfreak

Gast
2007-06-28, 15:02:24
Intel X38 ist definitiv SLI-fähig! (http://www.computerbase.de/news/hardware/chipsaetze/intel/2007/juni/intel_x38_sli-faehig/) :biggrin:
Na also, geht doch!

Doch nur eine Ente?
Computerbase hat die Überschrift geändert in "SLI-Support des Intel X38 sehr wahrscheinlich"

HOT
2007-06-29, 08:53:57
2 PNY QuadroFX 5600 werden sicherlich mit neuen Treibern im SLI auf dem x38 laufen, aber wer will schon 6k € nur für SLI hinblättern :D.

James Ryan
2007-06-29, 14:11:02
Doch nur eine Ente?
Computerbase hat die Überschrift geändert in "SLI-Support des Intel X38 sehr wahrscheinlich"

Jep, hast Recht. Hat CB von NVIDIA einen auf den Deckel bekommen? ;)

btw, der Threadtitel ist sowas von genial, ein "echter tombman" eben! :massa:

MfG :cool:

Zauberer
2007-07-28, 15:50:02
Jep, hast Recht. Hat CB von NVIDIA einen auf den Deckel bekommen? ;)

btw, der Threadtitel ist sowas von genial, ein "echter tombman" eben! :massa:

MfG :cool:
Genau dieser und der "Die SLI-FPS-Lüge – oder warum FPS nicht genug sind ...", sind die Besten Threads, die ich in den letzten Jahren gesehen habe.
Wirklich echt genial, wieder so Tombman!

Mom... warum ist der gesperrt?
Hey was soll das?
Wir sollten mal einen pro Tombman Thread aufmachen!
So ein Voting oder so was in der Art.

Na ja, jetzt wieder on Topic, gibt es keine neuen News?
Das ist doch schon lange her, hat Intel jetzt ne SLI-Lizenz oder nicht?
Das wäre ja mal interessant es zu wissen.

AnarchX
2007-07-28, 16:16:10
Wie es scheint hat Intel nur eine Lizenz für QuadroFX-SLI.

Gast
2007-07-28, 16:40:31
Wie es scheint hat Intel nur eine Lizenz für QuadroFX-SLI.
Das macht Sinn für nV, jedenfalls in wirtschaftlicher Hinsicht.

Paul Brain
2007-07-29, 00:51:37
Wie es scheint hat Intel nur eine Lizenz für QuadroFX-SLI.
Dafür brauchen sie keine "Lizenz", damit nV ihrem eigenen Treiber sagt, daß Quadros überall SLi'n dürfen :)

tombman
2007-07-29, 22:54:45
Finds auch gemein, daß Quadros überall SLI'n dürfen :mad:

Mastermind der Bekloppte
2007-07-29, 23:19:40
Finds auch gemein, daß Quadros überall SLI'n dürfen :mad:
Umgekehrt wird ein Schuh draus. Gemein ist, dass die GF nicht überall darf. Wenn auch die Quadros nicht überall dürften, dann wäre das wirklich eine Unverschämtheit. :wink:

tombman
2007-07-29, 23:36:36
naja, da fehlte eigentlich nur der Nebensatz, den sich, dachte ich, eh jeder dazudenkt. ".. und die GF dürfen es ned..." ;)

mofhou
2007-09-20, 16:26:02
http://www.computerbase.de/news/hardware/chipsaetze/intel/2007/september/idf_skulltrail_sli/

SLI on Skulltrail ;)

Don Vito
2007-09-20, 16:36:50
lol...ist ja nur für Sockel 771....
Also eher nichts für uns

AnarchX
2007-09-20, 19:11:13
http://www.computerbase.de/news/hardware/chipsaetze/intel/2007/september/idf_skulltrail_sli/

SLI on Skulltrail ;)


... aber auch nur, da hier noch nForce 100 Chips verbaut wurden.
Nvidia hat sich in Sachen SLI-Support durch Skulltrail zu Wort gemeldet. Demnach gibt Nvidia seine Treiber nicht für Intels Chipsätze frei. Auf dem Skulltrail ist jedoch ein nForce 100 SLI Chip verbaut, der SLI ermöglicht (was immer auch ein nForce 100 SLI Chip ist). Da Nvidia im Bereich der 2-Sockel-Plattformen nicht tätig ist, sieht man darin die gute Zusammenarbeit mit Intel bestätigt. Hiermit ist es also offiziell – Skulltrail unterstützt SLI, dank der zwei auf dem Bild durch passive Kühler verdeckten nForce-Chips.


Dass diese für S.775-Boards eingesetzt werden, wird wohl NV zu vermeiden wissen. :D

Gast
2007-10-01, 11:31:01
Hallöle,

ich bring das mal wieder hoch... Gibt es schon irgendwelche Neuigkeiten zu SLI auf Intel? Ich hätt liebend gern ein X38 Board, mir kommt aber nur nVidia Grafik unter den Schreibtisch.

Ich hatte noch nie SLI (mangels entspr. Board), will mir das aber wenn möglich als Option offen halten.

Ich find's charmant, mir in ein paar Monaten einfach noch ne zusätzliche 8800gts für wenig Geld dazuzuholen anstatt wieder massiv in eine Austauschkarte zu investieren...

Danke für Info :-)

AnarchX
2007-10-01, 12:11:04
SLI @ Intel wird es wohl nur auf der Skulltrail-Plattform via nForce100 geben. Im S.775 Bereich wird dies NV vorrausichtlich nicht gestatten, da man hier ja die eigenen Chipsätze: nF780i, nF750i und nF790i in den kommenden Monaten verkaufen will.

Ich find's charmant, mir in ein paar Monaten einfach noch ne zusätzliche 8800gts für wenig Geld dazuzuholen anstatt wieder massiv in eine Austauschkarte zu investieren...

Aufrüst-SLI ist und bleibt Unsinn, ausser man bekommt die 2. Karte "geschenkt".

Gast
2007-10-01, 13:42:59
Aufrüst-SLI ist und bleibt Unsinn, ausser man bekommt die 2. Karte "geschenkt".

Ich bin ja offen für alternative Meinungen :-) Aber kannst Du mir bitte die Gründe für Deine Aussage nennen? Danke!

AnarchX
2007-10-01, 13:46:51
Ich bin ja offen für alternative Meinungen :-) Aber kannst Du mir bitte die Gründe für Deine Aussage nennen? Danke!

Ganz einfach.
Für den Verkaufspreis der alten Karte und dem Kaufpreis der 2. bekam man eigentlich bisher immer eine neue Einzelkarte, die schneller war, ein moderneres Featureset besaß, weniger verbrauchte als das SLI-Gespann und eben Out-of-Box ihre Leistung brachte und nicht auf Bit-Spielerein wie ein SLI-System angewiesen war.

Gast
2007-10-01, 13:59:25
Das ist ein sehr gutes Argument, danke!

Da wirkt der X38 schon gleich wieder viel interessanter :-)