PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : MVP: ATI schlägt zurück?


Seiten : 1 2 [3] 4

DrumDub
2005-06-03, 14:06:59
']Es schadet aber dem Kunden, weil jeder sein Ding durchdrücken will, dadurch geht die Übersicht der Qulität flöten... was soll bitte die "übersicht der qu(a)lität" sein?

dildo4u
2005-06-03, 14:07:13
Nochmal: Warum muß man denn unbedingt die ATi-Karten auf einem <insert many hypes here> Chipsatz einsetzen? Warum kann man nicht auf diesen Mainboards (mit dem o.g. Chipsatz) die Karten der Konkurrenz bzw. des Chipsatzherstellers einsetzen? Hat man davon als Verbraucher ernsthafte Nachteile? :D

Man kann sich über Sachen aufregen...
Sorry aber ich Glaub wir reden aneinander vorbei der Vorteil beim PC ist das möglichts alles zueinander Kompatibel ist wenn ich mir jetzt schon für 150€ ein Dickes SLI Board gekauft hab aber jetzt gerne ein ATI CF haben will z.B auch mit 2 R520 Karten muss man sich wieder ein neues Board kaufen obwhol man schon ein voll PCI-E Kompatibles Board hat.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2005/juni/crossfire_ati-chipsatz/

"Eben erreichte uns eine Anruf von ATi, Deutschland, in dem um Klärung der Lage gebeten wurde. Laut ATi sind die geschilderten Gerüchte und Überlegungen haltlos, da ATi zur Zeit keinerlei Energie darauf verwende, CrossFire auf andere Plattformen zu portieren.

Aktuelle Intel-Chipsätze schieden als Basis von vornherein aus, da CrossFire eine symmetrische Aufteilung der beiden PEG-Slots benötige. Auch der Betrieb auf der zwar symmetrischen Basis in Form des nVidia nForce-SLi-Chipsatzes stehe völlig außer Frage. SLI-Systeme seien relativ empfindlich, wenn es um die Auswahl der verwendeten Grafikkarten geht (gleicher Chipsatz, gleicher Hersteller, gleiche Firmware), so dass man es sich bei ATi nicht erlauben würde zu behaupten, dass CrossFire auf Mainboards mit SLI-Chipsatz funktionieren würde."

SKYNET
2005-06-03, 14:08:14
macci der mit seinem trockeneis :biggrin:

aber der kunde ist auch :crazy2:
hat mal aus fun eine 500€ ATI an die wand geworfen und ein 3Kg gewicht drauffallen lassen

@skynet

muss nichtb gleich heißen das dort Crossfire auseinandergenommen wurde, wird sich zeigen, aber glaube das bild wirds selbe sein. und ATI CF hat einfach bessere % leistung

siehe doom³ bench, teilweise fast verdopplung. und bei nV kommt net mal ansatzweise sowas raus und das spiel ist nV optimiert :|

@Winter[Raven]

wollte jetzt nicht auch nVidia ATIs 3Dc kopieren

macci weiß halt wie man mit ATI karten umzugehn hat. ;D


und CF würde auseinander genommen, jede wette.
und ich gehe auch jede wette ein das bei CB nachher das CF gespann durchgehend langsamer ist bei D3 als das ultra sli gepsann. =)

deekey777
2005-06-03, 14:09:33
Die Frage habe ich ja schonmal gestellt. Ist das dann noch Crossfire konform oder nicht?


http://www.anandtech.com/tradeshows/showdoc.aspx?i=2434&p=4
(Es gab noch mehr Bilder/Infos, ich find's aber nicht mehr.)
Das Gigabyte CrossFire Mainboard wird eine ULi-Southbridge haben. Und so einem Hersteller wie Gigabyte wird man wohl nicht in die Suppe spucken wollen. Hieß es auch nicht, daß ATi und ULi zusammenarbeiten sollen, zB wie man eine Southbridge richtig baut...
...

@Winter[Raven]

wollte jetzt nicht auch nVidia ATIs 3Dc kopieren

Ist offen für alle, und ATi macht das nur glücklicher.

K4mPFwUr$t
2005-06-03, 14:11:36
Macci wurde von ATI gesponsert, danach hat er sich das warlich vermaselt, selber schuld der freak :usweet:

der 3D Mark 03 rekord war eine Graka von ATI OC bye Macci :tongue:

Sorry aber ich Glaub wir reden aneinander vorbei der Vorteil beim PC ist das möglichts alles zueinander Kompatibel ist wenn ich mir jetzt schon für 150€ ein Dickes SLI Board gekauft hab aber jetzt gerne ein ATI CF haben will z.B auch mit 2 R520 Karten muss man sich wieder ein neues Board kaufen obwhol man schon ein voll PCI-E Kombatibles Board hat.

wie gesagt kann man nicht sagen, oder hast du schon tests gesehen die dieses 1000% wiederlegen ich nicht, daher besteht hoffnung

Winter[Raven]
2005-06-03, 14:12:14
wollte jetzt nicht auch nVidia ATIs 3Dc kopieren

3DC = OpenSource ... ;) ab WGF2.0 ehe Pflicht...

ShadowXX
2005-06-03, 14:12:45
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2434&p=4
(Es gab noch mehr Bilder/Infos, ich find's aber nicht mehr.)
Das Gigabyte CrossFire Mainboard wird eine ULi-Southbridge haben. Und so einem Hersteller wie Gigabyte wird man wohl nicht in die Suppe spucken wollen. Hieß es auch nicht, daß ATi und ULi zusammenarbeiten sollen, zB wie man eine Southbridge richtig baut...

Aber wohl nur unter der Vorraussetzung, das auf dem Karton in rieseigen Lettern ATI steht und die ULI-SB am bestem nicht mal im Handbuch erwähnt wird.

Eine andere Möglichkeit wäre, das ATI die IP der ULI-SB kauft und sie dann als "eigene" SB wiederum produzieren lässt (bzw. man labelt einfach um).
Oder klebt zumindest fette ATI-Kühlkörper auf die ULI-SB.

DrumDub
2005-06-03, 14:13:43
am besten wärs wohl, wenn sich ati und nv bezüglich der mainboardunterstützung an den grünen tisch setzen. sowas wie abrüstungsverhandlungen zwischen den vsa und su im kalten krieg... :D

ShadowXX
2005-06-03, 14:15:04
wie gesagt kann man nicht sagen, oder hast du schon tests gesehen die dieses 1000% wiederlegen ich nicht, daher besteht hoffnung

ATI hat es doch schon gesagt.

Crossfire läuft nur auf Board, die mindestens 2x8 Lanes bieten.

Da fallen die Intels und momentanen VIAs schon mal weg.

Dann wurde noch hinterhergeschoben, das man auf nV nicht Testest, da ATI diese für "zu instabil" hält.

Es wird im Endeffekt daruf hinauslaufen, das es im Treiber ein Abfrage auf das "richtige" Mainboard geben wird.....

@DrumDub

ja, das wäre ideal....aber du glaubst doch wirklich nicht, das sich diese beiden roten & grünen Kindergärten jemals zusammenraufen werden....

Igzorn
2005-06-03, 14:19:24
Hätte da mal eine rein retorische frage.

Schränkt man sich seine Geschäftsfelder nicht sehr stark ein wenn man die Grafikkarte an seinen eigenen chipsatz koppelt ? Also wenn "SLI" immer nur mit dem Hersteller eigenen chip satz möglich ist werden davon die verkaufszahlen ja auch nicht besser.

Die ATI chip sätze sind ja als recht Buggy und lahm verschriehen. Macht da sowas überhaupt sinn?

deekey777
2005-06-03, 14:20:22
ULi introduces southbridge with SATA II support (http://www.digitimes.com/mobos/a20050601PR212.html)

Ua:

"ULi claimed both of the M1695 and M1697 chips will support ATI’s CrossFire dual-card graphics technology through two PCIe x8 connections, but ATI rejected these claims for now. According to ATI, the technology is currently supported only by northbridges from the company itself since CrossFire drivers for other northbridges are not yet ready. However, ATI confirmed its intention to promote CrossFire as a sort of industry standard for dual-card graphics solutions. This actually means the company would like to see its solution supported by other chipset vendors."

reunion
2005-06-03, 14:20:24
Aber wohl nur unter der Vorraussetzung, das auf dem Karton in rieseigen Lettern ATI steht und die ULI-SB am bestem nicht mal im Handbuch erwähnt wird.

Eine andere Möglichkeit wäre, das ATI die IP der ULI-SB kauft und sie dann als "eigene" SB wiederum produzieren lässt (bzw. man labelt einfach um).
Oder klebt zumindest fette ATI-Kühlkörper auf die ULI-SB.


Wie kommt man nur auf so absurde Gedanken?
Auch heute werden die Xpress-Chipsätze größtenteils mit einer ULI-Southbridge ausgeliefert und nichts dergleichen ist realität.

Crushinator
2005-06-03, 14:21:18
Sorry aber ich Glaub wir reden aneinander vorbei der Vorteil beim PC ist das möglichts alles zueinander Kompatibel ist wenn ich mir jetzt schon für 150€ ein Dickes SLI Board gekauft hab aber jetzt gerne ein ATI CF haben will z.B auch mit 2 R520 Karten muss man sich wieder ein neues Board kaufen obwhol man schon ein voll PCI-E Kompatibles Board hat. (...)
Nein, wir reden nicht aneinander vorbei: Warum mußt Du ein Crossfire System haben, wenn Du statt 2 x R520 auch 2 x GF7800 SLI einsetzen könntest?

Der einzige Nachteil, der hier entsteht hat ATi, da sie an Dir kein Geld verdienen werden -- Das versuche ich die ganze Zeit zu sagen. ;)

reunion
2005-06-03, 14:24:17
Hätte da mal eine rein retorische frage.

Schränkt man sich seine Geschäftsfelder nicht sehr stark ein wenn man die Grafikkarte an seinen eigenen chipsatz koppelt ? Also wenn "SLI" immer nur mit dem Hersteller eigenen chip satz möglich ist werden davon die verkaufszahlen ja auch nicht besser.


Nein, da die in relation gesehen lächerliche Anzahl an Leuten mit MVP-Systemen bzw. welchen die planen sich soetwas anzuschaffen nicht ins Gewicht fällt.

dildo4u
2005-06-03, 14:25:28
Der einzige Nachteil, der hier entsteht hat ATi, da sie an Dir kein Geld verdienen werden -- Das versuche ich die ganze Zeit zu sagen. ;)
Man hat den Nachteil das wenn man maximale performance will und der R520 dem G70 überlegen ist ein auch noch ein Neues Board Kaufen muss vieleicht bietet ja ein R520 in naher zukunft ein wesentlich besseres Preis Leistungsverhältniss.

Traxx
2005-06-03, 14:32:11
Ich denke, dass MVP auch auf "SLI-Boards" läuft. Nur eben ohne Gewähr von ATI ;).

Greetings
Traxx

Igzorn
2005-06-03, 14:36:28
Ich denke, dass MVP auch auf "SLI-Boards" läuft. Nur eben ohne Gewähr von ATI ;).

Greetings
Traxx

Hoffen mir mal das sowas auch von den Hardware seiten getestet wird =)

Crushinator
2005-06-03, 14:42:27
Man hat den Nachteil das wenn man maximale performance will und der R520 dem G70 überlegen ist ein auch noch ein Neues Board Kaufen muss vieleicht bietet ja ein R520 in naher zukunft ein wesentlich besseres Preis Leistungsverhältniss.
Es ist halt fast überall so und völlig normal, wenn kein allgemeingültiger Standard für irgendwas existiert, wie in diesem Fall.

Ich beschwere mich auch seit Jahren, daß ich einen BMW V12 in keinen E32 Fünfer offiziell und zuverlässig eingebaut bekomme, obwohl er wunderbar da reinpaßt. Ich habe dadurch auch den Nachteil, daß ich die maximale Performance nicht bekomme. ;D

ShadowXX
2005-06-03, 14:46:54
Wie kommt man nur auf so absurde Gedanken?
Auch heute werden die Xpress-Chipsätze größtenteils mit einer ULI-Southbridge ausgeliefert und nichts dergleichen ist realität.

Alle ATI-Bords die ich bis jetzt gesehen habe tragen auf der SB einen Kühlkörper auf dem in großen Lettern ATI steht.....auch bei denen, wo eine ULI-SB eingesetzt wird.

Und so absurb finde ich den gedanken mit dem Umlabeln (natürlich nach Geldzahlung an ULI) wirklich nicht.....
Ist billiger als neu entwicklen.

StefanV
2005-06-03, 14:47:09
Aber das jeder sein system durchdrücken will ist weniger von Vorteil für den Verbraucher jetzt braucht man immer das passende Board zu den Karten und muss sich die wenig Ausgereiften ATI Chipsätze antun.
Bei nV brauchts 'nen Brett mit nV Chipsatz, bei ATi geht aber zu Beginn schonmal ATi und ein Intel Chipsatz, ganz im Gegensatz zu nV ;)

Hä? Verstehe ich nicht... Wenn z.B. Mercedes die Luftfederung vorstellt, wäre es erschreckend, wenn andere Autohersteller gleichziehen?
Öhm, die Luftfederung is scho a bisserl älter und kam _NICHT_ vom Stern, genau wies Kurvenlicht, Göttin lässt grüßen ;)

ShadowXX
2005-06-03, 14:49:33
Bei nV brauchts 'nen Brett mit nV Chipsatz, bei ATi geht aber zu Beginn schonmal ATi und ein Intel Chipsatz, ganz im Gegensatz zu nV ;)


Nein, geht nicht.....oder kennst du einen Intel-Chipsatz der 2x8 Lanes bietet und eine ATI-NorthBridge hat??


According to ATI, the technology is currently supported only by northbridges from the company itself since CrossFire drivers for other northbridges are not yet ready.

deekey777
2005-06-03, 14:50:16
Mit dem 66.irgendwas war ein SLI-Betrieb auch auf einem Intel-Mainboard möglich. Die Sperre ist also rein softwaremäßig.

dildo4u
2005-06-03, 14:51:05
Nein, geht nicht.....oder kennst du einen Intel-Chipsatz der 2x8 Lanes bietet und eine ATI-NorthBridge hat??
Er meint whol den von ATI selbst Entwickelten chipsatz für Intel Prozzis.

Gast
2005-06-03, 14:52:18
']Ahso, "gleiche" Zeit sind bei dir also >6 Monate? Wie schon auf der anderen Seite einige angemerkt haben, war auf der Seite der Roten NIE eine Entwicklung für MVP, und erst mit dem großem Erfolg den Nvidia in den letzten Monaten verbuchen konnte, entwickelte man bei ATI das MVP.

Hallo,

das stimmt nicht, hier ist einer der Roten! MVPU/Crossfire ist schon länger in der Entwicklung gewesen, wir haben z.B. halt ersteinmal gewartet bis wir 100% der Games unterstützen können und nicht nur 2,5 % von 3.000 Game-Titeln.

Weiterhin ist es sehr wichtig für uns, das alle X8xx-Modelle Crossfire können, X850 CF und X850Pro/XT/etc und der Gamer die frei Wahl hat.

Unsere Lösung ist wesentlich EINFACHER zu realisieren als SLI!

Grüsse

K4mPFwUr$t
2005-06-03, 15:01:53
wieso immer wir?
schitzo :|


ATI hat auch mehr modis z.b super AA

SKYNET
2005-06-03, 15:06:26
Hallo,

das stimmt nicht, hier ist einer der Roten! MVPU/Crossfire ist schon länger in der Entwicklung gewesen, wir haben z.B. halt ersteinmal gewartet bis wir 100% der Games unterstützen können und nicht nur 2,5 % von 3.000 Game-Titeln.

Weiterhin ist es sehr wichtig für uns, das alle X8xx-Modelle Crossfire können, X850 CF und X850Pro/XT/etc und der Gamer die frei Wahl hat.

Unsere Lösung ist wesentlich EINFACHER zu realisieren als SLI!

Grüsse


wir? borg? :upara:

Crossfire
2005-06-03, 15:07:33
Hallo,

der Rote hat jetzt auch einen Namen!
Crossfire!

DrumDub
2005-06-03, 15:08:59
wird das hier jetzt guerilla-marketing, oder was? :|

K4mPFwUr$t
2005-06-03, 15:12:32
scheint so drumdub

jetzt nennt sich der eine SLI, der ander Crossfire, der andere AMD und ein nächster Intel :biggrin:

Crossfire
2005-06-03, 15:14:47
wird das hier jetzt guerilla-marketing, oder was? :|

Hallo,

NEIN, I am real!

Grüsse
Crossfire

Gast
2005-06-03, 15:17:16
Öhm, die Luftfederung is scho a bisserl älter und kam _NICHT_ vom Stern, genau wies Kurvenlicht, Göttin lässt grüßen ;)
wenn schon denn schon: Goettin = oel/luftfederung

K4mPFwUr$t
2005-06-03, 15:17:27
was jetzt darauß werden wird :O

aber ATI plant mit der X900 (R520) einen 32x1 chip, der allerdings bisher nur 24x1 in betrieb hat, es wird gemunkelt das ATI die 32x1 freigeben wird wenn der G70 diesen bei 24x1 in den boden stampft

Crushinator
2005-06-03, 15:20:43
Der Gast alias Crossfire ist wirklich von ATi. Also, reißt Euch bitte zusammen!

Gast
2005-06-03, 15:24:25
Hallo,

das stimmt nicht, hier ist einer der Roten! MVPU/Crossfire ist schon länger in der Entwicklung gewesen, wir haben z.B. halt ersteinmal gewartet bis wir 100% der Games unterstützen können und nicht nur 2,5 % von 3.000 Game-Titeln.

Weiterhin ist es sehr wichtig für uns, das alle X8xx-Modelle Crossfire können, X850 CF und X850Pro/XT/etc und der Gamer die frei Wahl hat.

Unsere Lösung ist wesentlich EINFACHER zu realisieren als SLI!

Grüsse

Wenn es wesentlich einfacher zu realisieren ist als SLI, warum kommt es denn jetzt erst auf den Markt? Da eigentlich mehr oder weniger nur die neueren Games von SLI/MVP profitieren, halte ich das Argument mit 100% aller Games für Marketinggeblubber.

Für ältere Spiele reicht eine Karte meistens vollkommen aus. Bei Nvidia kann sogar sehr oft, je nach Auflösung, SSAA oder Hybridmodi ohne Probleme eingesetzt werden und es läuft trotzdem flüssig.

K4mPFwUr$t
2005-06-03, 15:26:25
echt :eek:

:massa: ATI :massa:

Quasar
2005-06-03, 15:26:46
Der Gast alias Crossfire ist wirklich von ATi. Also, reißt Euch bitte zusammen!
:confused:

Wurde auch mal langsam Zeit, das Versteckspiel zu beenden.

100% der 3D-Games - darf ich dich, Crossfire beim Worte nehmen, nachdem du erklärt hast, was genau du mit 100% meinst?

Alle Games werden beschleunigt/laufen mit SuperAA oder alle Games laufen überhaupt irgendwie?

ShadowXX
2005-06-03, 15:27:12
Er meint whol den von ATI selbst Entwickelten chipsatz für Intel Prozzis.

Glaub ich weniger, dann hätte nicht von "Intel-Chipsatz" gesprochen. Davon abgesehen hat auch nV einen eigenen Intel-Chipsatz.

Der Post von Ihm ergibt nur "Sinn" wenn er das someinte, wie ich es aufgefasst habe.

Crossfire
2005-06-03, 15:28:04
Wenn es wesentlich einfacher zu realisieren ist als SLI, warum kommt es denn jetzt erst auf den Markt? Da eigentlich mehr oder weniger nur die neueren Games von SLI/MVP profitieren, halte ich das Argument mit 100% aller Games für Marketinggeblubber.

Für ältere Spiele reicht eine Karte meistens vollkommen aus. Bei Nvidia kann sogar sehr oft, je nach Auflösung, SSAA oder Hybridmodi ohne Probleme eingesetzt werden und es läuft trotzdem flüssig.

Hallo,

eine berechtigte Frage!

Diese Aussage bezog sich mehr auf eine GRUNDSÄTZLICHE Kompatibilität von Crossfire mit gängigen 3D-Anwendungen.

Ich werde def. keine Statements über die anderen abgeben, was geht und nicht! :cool:

Grüsse
Crossfire

Der fette Elch
2005-06-03, 15:28:21
Der nächste Höhepunkt wird wohl R520 mit SM3.0 sein...

Ja in einen halben Jahr? ;)
Da hat Ati wohl sich ein Eigentor mit geschoßen jetzt so ein sinnloses Crossfire Gespann vorzustellen. Nvidia hat alle Trümpfe in der Hand und stellt am 22.6. einfach eine niedrig getaktete G70 vor und schon haben sie Ati Schachmat gesetzt. Köstlich. :D

ShadowXX
2005-06-03, 15:28:52
:confused:

Wurde auch mal langsam Zeit, das Versteckspiel zu beenden.

100% der 3D-Games - darf ich dich, Crossfire beim Worte nehmen, nachdem du erklärt hast, was genau du mit 100% meinst?

Alle Games werden beschleunigt/laufen mit SuperAA oder alle Games laufen überhaupt irgendwie?

Das wollte ich auch gerade Fragen?

Wie hat ATI die bekannten Probleme gelöst.....und darf man die Karten zurückgeben, wenn nicht 100% aller Games mit Crossfire laufen?

Crossfire
2005-06-03, 15:30:31
:confused:

Wurde auch mal langsam Zeit, das Versteckspiel zu beenden.

100% der 3D-Games - darf ich dich, Crossfire beim Worte nehmen, nachdem du erklärt hast, was genau du mit 100% meinst?

Alle Games werden beschleunigt/laufen mit SuperAA oder alle Games laufen überhaupt irgendwie?

Hallo Quasar,

am besten wäre es wenn Ihr das selber rausfindet ;)
Ihr bekommt doch ein System zum Test hier / 3DCenter?

Grüsse
Crossfire

K4mPFwUr$t
2005-06-03, 15:30:43
crossfire,

wenn du wirklich von ATI bist, kannst du mir bestätigen das R520 aka. X900 series heißen wird. der 32x1 ist aber nur 24x1 in betrieb sind und gegebenfalls freigeschaltet werden von ATi.

wenn dus nicht sagen darphst, dann kann man das verstehen :rolleyes:

DrumDub
2005-06-03, 15:31:06
Der Gast alias Crossfire ist wirklich von ATi. Also, reißt Euch bitte zusammen! also doch. (http://de.wikipedia.org/wiki/Guerilla-Marketing).. :)

Crossfire
2005-06-03, 15:36:41
crossfire,

wenn du wirklich von ATI bist, kannst du mir bestätigen das R520 aka. X900 series heißen wird. der 32x1 ist aber nur 24x1 in betrieb sind und gegebenfalls freigeschaltet werden von ATi.

wenn dus nicht sagen darphst, dann kann man das verstehen :rolleyes:

Hallo,

No Comment!

Ich möchte hier nur seriös diskutieren und sonst nichts anderes. Ich lese 3DCenter und dieses Forum schon seit längerem und finde es persönlich sehr gut hier

Grüsse
Crossfire

K4mPFwUr$t
2005-06-03, 15:37:55
war zu erwarten aber trozdem danke :uup:

€: 800. post :ujump:

Razor
2005-06-03, 15:38:26
Hallo Quasar,

am besten wäre es wenn Ihr das selber rausfindet ;)
Ihr bekommt doch ein System zum Test hier / 3DCenter? Quasar arbeitet ab und an für computerbase...
Und 3DCenter bekommt ein Testsystem?
Gut!
:D

Allerdings finde ich es schon schade, dass Du hier jetzt offenbar einen Rückzieher machst.
Oder ist SLI nicht auch "grundsätzlich" zu allen 3D-Anwendungen komaptibel?
:confused:

Wie dem auch sei, bin gespannt, wie es mit der tatsächlichen Kompatibilität der ATI Treiber zu Crossfire aussehen wird. Nicht, dass es nachher doch eher so kommt, wie seinerzeit bei der der 'maxx'-Linie, gell?

OK, ist wohl nicht vergleichbar, denke ich.
Auch wäre es schön, wenn nicht alle Sites die gleichen Benchies bringen würden...

Razor

Nicky
2005-06-03, 15:43:21
']3DC = OpenSource ... ;) ab WGF2.0 ehe Pflicht...
pc = offene Plattform, so what?
wie kann man nur immer nur die "eigene" Marke als leader ansehen? Konkurenz belebt das Geschaeft, und diese besteht nun mal aus Aktion und Reaktion. Einmal ist Hersteller n Leader und a Follower mal andersrum.
Technologisch gesehen bei den Chips ist momentan nV vorne, da man als option SM3.0, HDR benmutzen kann, bei den Multigrakasystemen ist es halt Ati da man optional sowohl ST als auch SAA als zusaetzliche Modi hat. Aber wem sag ich s, heiligs Blechle? :D

Crossfire
2005-06-03, 15:47:30
Quasar arbeitet ab und an für computerbase...
Und 3DCenter bekommt ein Testsystem?
Gut!
:D

Allerdings finde ich es schon schade, dass Du hier jetzt offenbar einen Rückzieher machst.
Oder ist SLI nicht auch "grundsätzlich" zu allen 3D-Anwendungen komaptibel?
:confused:

Wie dem auch sei, bin gespannt, wie es mit der tatsächlichen Kompatibilität der ATI Treiber zu Crossfire aussehen wird. Nicht, dass es nachher doch eher so kommt, wie seinerzeit bei der der 'maxx'-Linie, gell?

OK, ist wohl nicht vergleichbar, denke ich.
Auch wäre es schön, wenn nicht alle Sites die gleichen Benchies bringen würden...

Razor

Hallo Razer,

es ist doch besser das ich einen Rückzieher mache als Marketing zu betreiben, letztendlich ist es nicht mein Ziel gewesen hier eine ATI Message zu verbreiten.

Das mußt du verstehen das ich mich etwas zurückhalte.

Bezüglich der Benches hoff ich auch auf mehr als 3DMark! ;)

Grüsse
Crossfire

K4mPFwUr$t
2005-06-03, 15:54:13
3d mark 01/01SE/03/05 ist aber ein syntetisches bench, sprich es stammt aus keiner game engine.

3d mark kann man als richtwerd nehmen, aber um wirklich zu sehen was drin steckt, braucht man game engine basierente benchs außer ein paar ausnahmen

aber ATi und nVidia haben beide ihre stärken ...
bei ATi war es mit der X800 series deutlich zu sehen das eine große stärke bei ATi ist die weitsicht bzw. dastellung. sihe Far Cry war ein deutlicher vorsprung bei ATi, dafür war nVidia minimal besser in innenlevels. (das würde auch erklären wieso nV supported spiele meist inlevels haben @ doom³ :biggrin: )

ShadowXX
2005-06-03, 16:00:15
aber ATi und nVidia haben beide ihre stärken ...
bei ATi war es mit der X800 series deutlich zu sehen das eine große stärke bei ATi ist die weitsicht bzw. dastellung. sihe Far Cry war ein deutlicher vorsprung bei ATi, dafür war nVidia minimal besser in innenlevels. (das würde auch erklären wieso nV supported spiele meist inlevels haben @ doom³ :biggrin: )

????

Das meintest du jetzt nicht ganz so ernst, oder?

K4mPFwUr$t
2005-06-03, 16:10:29
ATI pro - Far Cry Außenlevel *klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/8/#abschnitt_far_cry)
neutral - doom³ *klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/11/#abschnitt_doom_3)

ATI pro - 3d mark 05 (snytetisch) *klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/6/#abschnitt_3dmark05)
und bei meiner X800XT kommen die werte von 5400/5500 gut hin

ShadowXX
2005-06-03, 16:15:54
ATI pro - Far Cry Außenlevel *klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/8/#abschnitt_far_cry)
neutral - doom³ *klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/11/#abschnitt_doom_3)

ATI pro - 3d mark 05 (snytetisch) *klick* (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/premiere_x850_xt_pe_agp/6/#abschnitt_3dmark05)
und bei meiner X800XT kommen die werte von 5400/5500 gut hin

Dann guck bei deinem FarCry-Link mal auf 1280x1024 4xAA/8xAF (dann sollte es definitv Graka-Limitiert sein).

Das was du da als Vorsprung siehst ist rein durch die höhere Taktrate bestimmt.....es liegt aber bestimmt nicht daran, das Outdoor ATI besser liegt und nV Indoor.

Doom3 ist auch ein schlechtes Beispiel, da hier die gesamte Programmierung der Engine dem nV-Design eher liegt (bzw. Features des Design nutzt die ATI nicht bietet bzw. nicht in dem maße bietet).

Ich könnte sehr wahrscheinlich sehr einfach Beispiele finden, wo das ganze (nV in Outdoor besser, ATI in Indoor) umgekehrt ist.

Nicky
2005-06-03, 16:17:18
@ crossfire
zitat computerbase.de
"Eben erreichte uns eine Anruf von ATi, Deutschland, in dem um Klärung der Lage gebeten wurde. Laut ATi sind die geschilderten Gerüchte und Überlegungen haltlos, da ATi zur Zeit keinerlei Energie darauf verwende, CrossFire auf andere Plattformen zu portieren.

Aktuelle Intel-Chipsätze schieden als Basis von vornherein aus, da CrossFire eine symmetrische Aufteilung der beiden PEG-Slots benötige. Auch der Betrieb auf der zwar symmetrischen Basis in Form des nVidia nForce-SLi-Chipsatzes stehe völlig außer Frage. SLI-Systeme seien relativ empfindlich, wenn es um die Auswahl der verwendeten Grafikkarten geht (gleicher Chipsatz, gleicher Hersteller, gleiche Firmware), so dass man es sich bei ATi nicht erlauben würde zu behaupten, dass CrossFire auf Mainboards mit SLI-Chipsatz funktionieren würde.

Auch von der reinen Leistungsfähigkeit seien die ATi-CrossFire-Chipsätze völlig konkurrenzfähig und auch dies sei ein weiterer Grund, sich nicht mit anderen Plattformen zu beschäftigen. In Kürze sollen dazu Benchmark-Ergebnisse veröffentlicht werden, die diese Leistungsfähigkeit unter Beweis stellen sollen.

Nun steckt aber in jedem Gerücht ein Körnchen Wahrheit und so ist es vielleicht nur eine Frage der Zeit und der Marktentwicklung, ob sich nicht Teile dieser Gerüchte doch bewahrheiten werden."

Wofuer genau steht Crossfire? Ist damit "nur" der synchrone Betrieb zweier Ati Grakas gemeint, oder ein ganzes Plattformkonzept vergleichbar zb zu Intels Centrino. Falls 2 bedeutet das dass zwei Ati Grakas im Verbund auf einer nicht einer Ati Plattform laufen (mit allen verfuegbaren Modi und ohen Treiber Hack), nur dass in diesem Falle der Name Crossfire nicht verwendet werden darf, und Ati keinen support uebernehmen wird?

crusader4
2005-06-03, 16:18:18
Hallo Crossfire,
ich habe eine Frage (vielleicht wird sie mir ja beantwortet): Werden alle R520-Karten gleich sein - also sowohl als Master als auch als Slave einsetzbar?

Ach, eine Offtopic-Kritik an ATI (ich gebe zu, wenn du nicht grad an verantwortlicher Stelle sitzt, hast du da natürlich keinen Einfluß):
Wenn der R520 fertig ist, dann haut ihn raus. Ihr verprellt euch doch mit dieser Hinhaltetaktik nur die eigenen Kunden und treibt sie in die Arme der Konkurrenz.
Ich bin dieses Marketing hin und her jedenfalls Leid. Sagt doch zumindest mal was offizielles, wann der Launch bevorsteht (Monat oder Quartal reicht doch).

Möchte mir doch Ende des Jahres nen neuen Rechner mit R520 zusammenstellen, da brauch ich Planungssicherheit. :biggrin:

Grüße, Crusader

K4mPFwUr$t
2005-06-03, 16:24:41
nur weil einer nicht warten kann :wink:

ich habe schon meine infos aus den ich ungefähre sachen raussehen kann.

1. war es nicht immer so, das kurz nach dem die ganzen fakten langsam formen anahmen,
R520 Kühler (http://www.ati-news.de/Bilder/News/ATI/R520/r520_fan.jpg)
R520 Video encoding (H.264) (http://www.ati-news.de/Bilder/News/ATI/R520/r520_computex.jpg)
Namensgebung mit technischen daten, die schon realer klingen als die ersten spekulationen

2. der R520 wurde schon hinter verschlossenen türen vorgestellt bei der alan demo.
das war auch kurz vorm lauch der X800 serie, das spricht in meinen augen für einen baldiges kommen. ATI wird ein tick später als nV seine karte rausbringen und je nach dem 24x1 oder 32x1 je nach dem wie gut der G70 ist.

das klingt wie die ganze sache bei der letzten generation. wieso sollte sie daher nicht wiederholt werden. Crossfire ist da noch eine ergänzende sache

Razor
2005-06-03, 16:28:34
Hi crossfire,
es ist doch besser das ich einen Rückzieher mache als Marketing zu betreiben, letztendlich ist es nicht mein Ziel gewesen hier eine ATI Message zu verbreiten.Nun ja...
Leider hört sich dies hier eher gegenteilig an:
das stimmt nicht, hier ist einer der Roten! MVPU/Crossfire ist schon länger in der Entwicklung gewesen, wir haben z.B. halt ersteinmal gewartet bis wir 100% der Games unterstützen können und nicht nur 2,5 % von 3.000 Game-Titeln.

Weiterhin ist es sehr wichtig für uns, das alle X8xx-Modelle Crossfire können, X850 CF und X850Pro/XT/etc und der Gamer die frei Wahl hat.

Unsere Lösung ist wesentlich EINFACHER zu realisieren als SLI! Oder sehe ich das falsch?

Schließlich stecken da gleich 3 'nette' Dinge drin:

1) ATI unterstützt 100% der Games, nVidia nur 2,5%

Dass hier offenbar Äpfel mit Birnen verglichen werden, scheint offensichtlich. So wird hier der reale und nachprüfbare Fakt der Unterstützung von Games eines nVidia SLI-Systems in Relation zu einem Wunschdenken gesetzt. Sicher würde ich mich freuen, wenn dem so wäre, nur kann ich mir beim besten Willen nicht vorstellen, dass zum Beispiel "SuperAA" zu ALLEN Games kompatibel ist, wenn dies nicht einmal beim einfachen MSAA der Fall ist (alles andere wäre bei alten Games purer Unsinn)... schon gar nicht, wenn man zum MVPU auch die Möglichkeit zählt, unterschiedliche Grafikkarten zusammen zu hängen, die sich sowohl im Takt, als auch in der Architektur unterscheiden können... hättests Du die 100% einfach weg gelassen, wäre die Aussage von Dir vielleicht nicht ganz so 'daneben' gegangen.

2) Alle X8xx-Modelle können Crossfire

Auch das ist insofern falsch, als dass es ja wohl nicht nur eine 'Master-Karte' braucht, die Crossfire lt. ATI überhaupt erst möglich machen soll (mit Abstrichen hat es eine Website sogar ohne geschafft)... sondern auch noch einen Crossfire-unterstützenden Mainboard-Chipsatz. Insbesonders beim letztem Punkt hoffe ich inständig, dass dies nicht der Fall sein wird, weil sonst das Projekt 'Crossfire' mehr zu einer Studie verkommen könnte.

Oder wäre diese Aussage eher mit einer solchen vergleichbar:
"Alle nVidia 6xxx PCIe Karten unterstützen prizipiell SLI"
:confused:

3) Crossfire ist EINFACHER zu realisieren, als SLI

Was genau soll dies bedeuten?
Jetzt bezogen auf den Endanwender oder für ATI?
Oder doch vielleicht auf die Karten-Hersteller?
Vielleicht ja auch bezogen auf die Spiele-Entwickler?

Wenn man sich folgende Voraussetzungen so anschaut, scheint ja eher das Gegenteil der Fall:
- Crossfire-unterstützende 'Master'-Karte
- Mainboard mit Crossfire-unterstützendem Mainboard-Chipsatz
- "Pass-Through"-Kabel (in hoffentlich außerordentlich guter Qualität!)

Für mich hört sich das nicht gerade 'einfach' an...

Das mußt du verstehen das ich mich etwas zurückhalte.Bezogen auf Dein ursprüngliches Kommentar hätte ich das jetzt auch gesagt... ;)
Aber seis drum.

Allerdings wäre ich schon an wirklich konkreten Informationen zu dem neuen Multi-GPU-System von ATI interessiert. Insofern hoffe ich hier auf Dich und selbstverständlich andere, damit man vielleicht doch die Möglichkeit hat, diese Technologie irgendwie einschätzen zu können.

Derzeit hört sich das Ganze einfach nach einem unglaublichen Marketing-Gag an... leider.
(vor allem das Ding mit dem Industrie-gesponsortem OC'er)

Bezüglich der Benches hoff ich auch auf mehr als 3DMark! ;)DAS hoffe ich inständig!
Sonst wird das Ganze schnell unglaubwürdig.

Und bitte 'freie' Tests zulassen... will sagen: Nur die Hardware (Mobo & 2xGraKa) und meinetwegen der Treiber wird zur Verfügung gestellt und alles andere können die Tester (mit viiiiieeeelllll Zeit ;-) selber machen... CPU, Speicher und OS selber wählen und einrichten... auch, um gleich eine Aussage über die tatsächliche Kompatibilität der Kombo (MVPU+Treiber) machen zu können.

Und wo wir schon dabei sind, gebt Quasar (und damit cb ;-) doch bitte auch ein Test-Setup, da er für seine außerordentliche Fachkompetenz und Gründlichkeit bei solchen Dingen bekannt ist.

Na... dann hoffe ich mal auf eine 'gesunde' Diskussion!

Razor

deekey777
2005-06-03, 16:30:14
Wäre es möglich, den Thread nicht unnötig zuzumüllen?

Crossfire
2005-06-03, 16:32:10
Hi,

du hast Recht.

Grüsse
Crossfire

PS: Kann ein Admin diesen angesprochen Thread bitte löschen?

Meine natürlich meinen Eintrag, den Razor angesprochen hat! ;)

K4mPFwUr$t
2005-06-03, 16:33:59
was ich bei CB.de bemängel ist die nicht grade schnellste news seite, kommt mir manchmal vor wie bild-online.

@deekey777

in welcher form :confused:

reunion
2005-06-03, 16:38:08
http://www.nvnews.net/vbulletin/showthread.php?t=51336

K4mPFwUr$t
2005-06-03, 16:41:00
http://www.nvnews.net/vbulletin/showthread.php?t=51336

typisch nVidia, omg in deren PR etage müssen nur flüchtlinge ausm kinder garten sein.

deekey777
2005-06-03, 16:46:06
http://www.nvnews.net/vbulletin/showthread.php?t=51336

;D
Aber nur wenn's echt ist, macht es Spaß, denn es ist nicht grün.




Fühlt sich da einer angesprochen?

Razor
2005-06-03, 16:50:22
Wäre es möglich, den Thread nicht unnötig zuzumüllen?@deekey777

in welcher form :confused:Verstehe ich auch nicht...
Ist doch alles on topic hier.

Razor

Razor
2005-06-03, 16:52:49
http://www.nvnews.net/vbulletin/showthread.php?t=08/15NEIN!
Nicht schon wieder solch ein Müll...
DAS ist wirklich Müll und vermutlich eher einem kranken Hirn, als irgendwelchen Marketing-Leutz entsprungen.
(einfach ignorieren bitte *grunz*)

Razor

deekey777
2005-06-03, 16:53:05
Verstehe ich auch nicht...
Ist doch alles on topic hier.

Razor
Du warst auch nicht gemeint.

Diese R520 Fragen haben hier nichts zu suchen, oder? Auch die Beschwerden, daß CrossFire zZ nur auf Mainboards mit der Northbridge von ATi funktioniert, sind sinnlos.

Crossfire
2005-06-03, 16:54:38
Jo,

leider muss ich mich nun ausklinken, ich hoffe ich kann für CB was machen, Razor weiß worum es geht - nice weekend all!

No comment*g*

Grüsse
Crossfire

Quasar
2005-06-03, 16:55:02
;D
Aber nur wenn's echt ist, macht es Spaß, denn es ist nicht grün.




Fühlt sich da einer angesprochen?
Die letzte Seite des PDFs ist nun aber wirklich gemein...

Crossfire
2005-06-03, 16:58:01
Stimmt, die letzte Seite ist hart! :) so well we will see!

Quasar
2005-06-03, 16:58:58
Gibt's vielleicht Hoffnung für meine Rage Fury MAXX - daß da noch ein Windows-Treiber nachgeschoben wird? AFR wird doch jetzt wieder aktuell.

K4mPFwUr$t
2005-06-03, 16:59:52
Razor weiß worum es geht
LOS SPRICH JUNG *razor wild durchschüttel*

spass muss sein :biggrin:

@deekey777
sowas kann man nicht vermeiden

Razor
2005-06-03, 17:02:28
Du warst auch nicht gemeint.Hatte mich auch nicht angesprochen gefühlt...

Diese R520 Fragen haben hier nichts zu suchen, oder? Auch die Beschwerden, daß CrossFire zZ nur auf Mainboards mit der Northbridge von ATi funktioniert, sind sinnlos.Bei Punkt 1 gebe ich Dir recht...
...Punkt 2 ist allerdings mehr als entscheidend.

Schließlich ist es ein Unterschied, eine performante und stabile Plattform zur Voraussetzung zu machen, als etwas völlig Neues, was nicht gerade auf eine glohreiche Vergangenheit zurück blicken kann. Zumal ja auch Intel bald Chipsätze herausbringen wird, die SLI-kompatiblel sind... und ich sehe auch absolut keinen Grund, warum andere 2x8-Lane-PCIe-Systeme nicht ATI-MVPU-komaptibel sein sollten... es sei denn, ATI will es nicht.

Oder aber, es muss doch noch etwas in den Chipsatz, was dort überhaupt nicht hingehört und eher bei der GraKa zu suchen sein sollte. Aber das ist tatsächlich REINE Spekulation... warten wir's einfach ab.

Razor

P.S.: bin grad' mit mir am Kämpfen, wie man 'glohreiche' tatsächlich schreibt... ;)

BUG
2005-06-03, 17:05:47
Gibt's vielleicht Hoffnung für meine Rage Fury MAXX - daß da noch ein Windows-Treiber nachgeschoben wird? AFR wird doch jetzt wieder aktuell...imho sehr unwarscheinlich, die meisten MAXX Karten funktionieren ja auf den neueren MoBos nichmal. :-/ War es nicht auch ne Hardware Sache die mit Windows 2K/XP nicht zurecht kommt und man nur eine GPU nutzen kann?!

cu
BUG

crusader4
2005-06-03, 17:05:53
Du warst auch nicht gemeint.

Diese R520 Fragen haben hier nichts zu suchen, oder? Auch die Beschwerden, daß CrossFire zZ nur auf Mainboards mit der Northbridge von ATi funktioniert, sind sinnlos.Ich hab das doch nur gefragt, weil hier grad ein ATI-Mitarbeiter den Thread verfolgt hat - und eine lange Antwort wäre da auch nicht nötig gewesen, die den Thread zumüllt. Zumal die Frage direkt auf MVP bezogen war, oder denkst du das diese Technologie mit Erscheinen des R520 wieder eingestampft wird?

Der Rest meines Postings war eine Anmerkung, Kritik, wie auch immer du das nennen möchtest. Darauf hätte er gar nicht eingehen müssen, das war zur Kenntnisnahme gedacht.

Also, Sorry4OT von meiner Seite. Noch viel Spaß beim Diskutieren.

Grüße, Crusader

deekey777
2005-06-03, 17:06:02
Gibt's vielleicht Hoffnung für meine Rage Fury MAXX - daß da noch ein Windows-Treiber nachgeschoben wird? AFR wird doch jetzt wieder aktuell.

Willst du Doom 3 spielen?

3) Crossfire ist EINFACHER zu realisieren, als SLI

Was genau soll dies bedeuten?
Jetzt bezogen auf den Endanwender oder für ATI?
Oder doch vielleicht auf die Karten-Hersteller?
Vielleicht ja auch bezogen auf die Spiele-Entwickler?


Ein paar Mounties haben E&S mit ein paar Baseballschlägern besucht...


Wenn man sich folgende Voraussetzungen so anschaut, scheint ja eher das Gegenteil der Fall:
- Crossfire-unterstützende 'Master'-Karte
- Mainboard mit Crossfire-unterstützendem Mainboard-Chipsatz
- "Pass-Through"-Kabel (in hoffentlich außerordentlich guter Qualität!)



Auf jeder 6600GT/6800etc schlummert SLI, das nur mit einem passenden Mainboard, passenden Chipsatz und der SLI-Connector erweckt werden kann.

Ich glaube auch, daß ATi abwarten mußte, wie nVidia SLI realisiert.

Hatte mich auch nicht angesprochen gefühlt...

...
Schließlich ist es ein Unterschied, eine performante und stabile Plattform zur Voraussetzung zu machen, als etwas völlig Neues, was nicht gerade auf eine glohreiche Vergangenheit zurück blicken kann. Zumal ja auch Intel bald Chipsätze herausbringen wird, die SLI-kompatiblel sind... und ich sehe auch absolut keinen Grund, warum andere 2x8-Lane-PCIe-Systeme nicht ATI-MVP-komaptibel sein sollten... es sei denn, ATI will es nicht.

Oder aber, es muss doch noch etwas in den Chipsatz, was dort überhaupt nicht hingehört und eher bei der GraKa zu suchen sein sollte. Aber das ist tatsächlich REINE Spekulation... warten wir's einfach ab.

Razor

P.S.: bin grad' mit mir am Kämpfen, wie man 'glorreiche(?)' tatsächlich schreibt... ;)

Wie gesagt: SLI funktinierte in einem c't Test ( ;) ) in einem Intel-Mainboard mit 66.xx Treibern. Was hat's gebracht? Nichts, da es mehr Probleme als Nutzen verursachte - darum auch die Sperre. nVidia wäre einfach blöd, die Sperre aufzuheben, nur weil SLI auf einem Intel-MoBo möglich ist, da dort 2xPEGs drauf sind. Wenn sie so weit sind, wird die Sperre aufgehoben. Das gleiche gilt auch für ATi, denn sie sind wohl nicht bereit, unfertige Treiber auf die zB nForce4 SLI Besitzer loszulassen, das wäre fatal. Klar, hier geht's auch ums Geld, denn Verkäufe eigener Chipsätze bringen auch Geld.
Ist alles Spekulation...

K4mPFwUr$t
2005-06-03, 17:10:48
@deekey777

jep, stimme ich zu. den es ist keine schande etwas länger zu brauchen und dafür durchdacht an die sache ran zu gehen. als dem endkunden eine alpha vesion vor zu legen, mit dem der kunde nicht zu frieden wird. was wieder am image nagt.

Razor
2005-06-03, 17:20:48
Willst du Doom 3 spielen?Komm... zumindest war es damals eine Frechheit, einfach den Treiber-Support für diesen Müll einzustellen. Aber das gehört einfach nicht hier hin, denn JEDER verdient eine 2. Chance!

Ein paar Mounties haben E&S mit ein paar Baseballschlägern besucht...Huh?
:confused:

Auf jeder 6600GT/6800etc schlummert SLI, das nur mit einem passenden Mainboard, passenden Chipsatz und der SLI-Connector erweckt werden kann.Das Mainboard muss passen (i.e. Chipsatz, Mainboard und Connector gehören zusammen!) und sonst nichts. Oder habe ich Dich hier jetzt falsch verstanden?

Auch würde ich NIEMALS behaupten, dass nVidia's Lösung hier jetzt wesentlich 'intelligenter' gelöst wurde. Nur traue ich eben dem "Pass-Through"-Kabel nicht so ganz über den Weg... einfach der Quali wegen. Wenn ich da noch an die V2 damals denke... *graus*... aber da ATI ja die Fertigung der Master-Karte übernehmen will, kann man davon ausgehen, dass des Kabel auch 'ordentlich' wird.

Ich glaube auch, daß ATi abwarten mußte, wie nVidia SLI realisiert.Ich vermute eher, dass ATI sehr schnell etwas "SLI-Vergleichbares" auf den Markt bringen musste... ganz egal, ob sie was in der Tasche hatten, oder nicht.

Ob dies allerdings marktreif oder überhaupt marktverträglich ist, werden wir noch sehen müssen...
...hoffentlich.

Razor

reunion
2005-06-03, 17:23:37
Ich hab das doch nur gefragt, weil hier grad ein ATI-Mitarbeiter den Thread verfolgt hat - und eine lange Antwort wäre da auch nicht nötig gewesen, die den Thread zumüllt. Zumal die Frage direkt auf MVP bezogen war, oder denkst du das diese Technologie mit Erscheinen des R520 wieder eingestampft wird?

Der Rest meines Postings war eine Anmerkung, Kritik, wie auch immer du das nennen möchtest. Darauf hätte er gar nicht eingehen müssen, das war zur Kenntnisnahme gedacht.

Also, Sorry4OT von meiner Seite. Noch viel Spaß beim Diskutieren.

Grüße, Crusader

Es sollte klar sein, dass kein ATi-Mitarbeiter einfach so irgendetwas über Next-Gen-Produkte ausplaudert.

reunion
2005-06-03, 17:25:39
Nur traue ich eben dem "Pass-Through"-Kabel nicht so ganz über den Weg... einfach der Quali wegen. Wenn ich da noch an die V2 damals denke... *graus*... aber da ATI ja die Fertigung der Master-Karte übernehmen will, kann man davon ausgehen, dass des Kabel auch 'ordentlich' wird.



Da die Signale im Gegensatz zu V2 digital übertragen werden, ist ein Qualitätsverlust ausgeschlossen.

Razor
2005-06-03, 17:32:14
Da die Signale im Gegensatz zu V2 digital übertragen werden, ist ein Qualitätsverlust ausgeschlossen.Birgt aber Synchronisationsprobleme... dafür dann vermutlich ja auch der Zusatzchip auf der 'Master'-Karte (siehe hier auch den recht eindeutigen Erfahrungen der Website mit 'ohne' ;-). Nur kann dieses Kabel die Karten nicht "im Takt" halten, insofern hier dann ja wohl der "Crossfire-Mainboard-Chipsatz" ins Spiel kommen könnte, der solcherart Steuerungen übernimmt.

Unterschiedliche Karten müssen dann allerdings auch asynchron zusammen laufen können und hier muss dann wohl der Treiber oder auch der Treiber im Kombo mit Mobo-Chipsatz und 'Steuereinhait' der Master-Karte eine art Lastverteilung vornehmen und die Ausgabe der schwächeren Karte irgendwie mit der der stärkeren überein bringen.

Hier von 'einfach' zu reden, ist wirklich hart.
Oder siehst Du das anders?
:confused:

Razor

P.S.: Um es deutlicher zu machen... mit 'Quali' meinte ich eher so etwas wie Tearing etc.

deekey777
2005-06-03, 17:38:46
Komm... zumindest war es damals eine Frechheit, einfach den Treiber-Support für diesen Müll einzustellen. Aber das gehört einfach nicht hier hin, denn JEDER verdient eine 2. Chance!


Das ist für mich eh finsteres Mittelalter.


Huh?
:confused:

Die Compositing Engine wurde wohl von E&S (http://www.es.com/)(SimFusion 5000/6000/6500) übernommen. Vielleicht auch nicht.
(Wer die Mounties (http://www.weedstoons.com/judy_mounty.gif) sind, weißt du aber? :biggrin: )


Das Mainboard muss passen (i.e. Chipsatz, Mainboard und Connector gehören zusammen!) und sonst nichts. Oder habe ich Dich hier jetzt falsch verstanden?

Nein. Das gleiche wird hoffentlich auch für ATi gelten - bis auf den Preisaufschlag für die CrossFire-Master

Auch würde ich NIEMALS behaupten, dass nVidia's Lösung hier jetzt wesentlich 'intelligenter' gelöst wurde. Nur traue ich eben dem "Pass-Through"-Kabel nicht so ganz über den Weg... einfach der Quali wegen. Wenn ich da noch an die V2 damals denke... *graus*... aber da ATI ja die Fertigung der Master-Karte übernehmen will, kann man davon ausgehen, dass des Kabel auch 'ordentlich' wird.

Hängt alles von der Compositing Engine ab, denn über das Kabel sollen die Karten eigentlich digital "kommunizieren" (so wie ich es verstanden habe, ist die CE eine Art Mixer der Bilder der Master-Karte mit der der Slave, denn die Grafikkarten an sich kommunizieren über die Northbridge miteinander).

Ich vermute eher, dass ATI sehr schnell etwas "SLI-Vergleichbares" auf den Markt bringen musste... ganz egal, ob sie was in der Tasche hatten, oder nicht.

Eher um die Performancespitze an sich zu reissen.

Ob dies allerdings marktreif oder überhaupt marktverträglich ist, werden wir noch sehen müssen...
...hoffentlich.

Razor

Marktverträglich - ohne SM3.0? Nö, nicht für mich. Aber für die Leute, die an einer Firma hängen und Geld für diese eine geringe Rolle spielt.

K4mPFwUr$t
2005-06-03, 17:42:33
Marktverträglich - ohne SM3.0? Nö
sorry aber leute die SM 3.0 als kaufentscheid sehen kann ich nicht viel abverlangen ;(

Razor
2005-06-03, 18:01:25
Das ist für mich eh finsteres Mittelalter.Jup.

Dass aber die Leutz, die sich damals dieses schei.. teure Teil geholt haben, 'leicht' vergrätzt sind, kansst Du hoffentlich schon verstehen. Nur wie gesagt... dunkelste Vergangenheit... und JEDER verdient... ich wiederhole mich... ;)

Die Compositing Engine wurde wohl von E&S (http://www.es.com/)(SimFusion 5000/6000/6500) übernommen. Vielleicht auch nicht.
(Wer die Mounties (http://www.weedstoons.com/judy_mounty.gif) sind, weißt du aber? :biggrin: )Gibt's dazu gesicherte Fakten?
Wäre sicher nicht ganz günstig für ATI, diesen Weg zu wählen...
(und nein, SO einen Mountie hab' ich noch nicht gesehen ;-)

Nein. Das gleiche wird hoffentlich auch für ATi gelten - bis auf den Preisaufschlag für die CrossFire-MasterEine weitere Einschränkung ist ja wohl auch, dass wohl keine 2 Master-Karten zusammen arbeiten können.
Zumindest macht es nicht viel Sinn!
:D

Wie gesagt, das mit der 'Master'-Karte ist schon echt hart. Viel mehr interessiert mich allerdings, wie genau hier Karten unterschiedlicher Ausprägung zusammen arbeiten können sollen...

Hängt alles von der Compositing Engine ab, denn über das Kabel sollen die Karten eigentlich digital "kommunizieren" (so wie ich es verstanden habe, ist die CE eine Art Mixer der Bilder der Master-Karte mit der der Slave, denn die Grafikkarten an sich kommunizieren über die Northbridge miteinander).Das habe ich auch so verstanden...
Nur warum sollten die Karten überhaupt 'kommunizieren'?
Vor allem... womit?
:confused:

Da bräucht's wirklich noch 'ein wenig' Hintergrund-Info, wie genau diese Technik implementiert ist.

Eher um die Performancespitze an sich zu reissen.Davon ist aber (zumindest bisher) noch rein gar nichts zu sehen...
Irgendwie würden mich hier mal vertrauenswürdige "RealWorld"-Tests interessieren.

Marktverträglich - ohne SM3.0? Nö, nicht für mich. Aber für die Leute, die an einer Firma hängen und Geld für diese eine geringe Rolle spielt....vielleicht auch eine Art 'masochisten', nicht wahr?
:biggrin:

Klar... für die, die keinen Bezug zum Geld haben, gilt eben:
"Kaufen... und zur not dann weg schmeißen."
Gell?
:up:

Razor

Razor
2005-06-03, 18:02:47
sorry aber leute die SM 3.0 als kaufentscheid sehen kann ich nicht viel abverlangen ;(Ich denke, dass deekey hier eher auf den Technologie-Unterschied zielte, denn auf den Nutzen eines einzelnen Features.

Razor

Demirug
2005-06-03, 18:07:27
:D das PDF ist richtig lustig vorallem das was man nicht sieht.

K4mPFwUr$t
2005-06-03, 18:12:41
das PDF ist richtig lustig vorallem das was man nicht sieht.
meinst wohl damit, das keine benchs drin sind wo man sieht was die schrift uns sagt.

aber auch sonst ist das PDF rotz, mit erprobt und nicht erprobt, bei SLI muss alles 1 zu 1 sein bei ATi kann es unterschiedlich sein :D

deekey777
2005-06-03, 18:14:09
Es ist der Begriff "SuperAA", der die CrossFire Technologie iV mit E&S zusammenbringt, aber auch das SuperTiling.

Warum die Grafikkarten miteinander über die Northbridge plaudern? Keine Ahnung. Ist nur ein Gedanke, dieser Artikel ist daran schuld:
http://www.techreport.com/onearticle.x/8390


(Das wichtigste ist aber das:
This board is called the P5RD2-MVP Deluxe, and it combines the ATI Radeon Xpress 200 CrossFire north bridge with the ULi VT1573 south bridge. Asus says the demo system is running a Pentium 4 670 3.8GHz, Kingston DDR2 DIMMs at 750MHz, and a pair of Radeon X850XT cards.)

sorry aber leute die SM 3.0 als kaufentscheid sehen kann ich nicht viel abverlangen ;(

So lange man SM 3.0 nicht sofort mit einer NV40* verbindet, ist die Basherei gegen SM 3.0 zum Kotzen.



(*Zwar ist die NV40 eine sehr gute Grafikkarte, doch viele nutzen wenige ihrer Schwächen als Basherei gegen SM 3.0.)

Demirug
2005-06-03, 18:25:24
meinst wohl damit, das keine benchs drin sind wo man sieht was die schrift uns sagt.

aber auch sonst ist das PDF rotz, mit erprobt und nicht erprobt, bei SLI muss alles 1 zu 1 sein bei ATi kann es unterschiedlich sein :D

Ich meine wirklich das was man nicht sieht. Das war ja mal eine Powerpoint Presentation und wir alle wissen was an Powerpoint gefährlich ist. Was aber nur wenige wissen ist das PDF nur minimal besser ist...

Razor
2005-06-03, 18:27:32
:D das PDF ist richtig lustig vorallem das was man nicht sieht.Meinst Du das hier?

If card manufacturers make bios changes mid-production run and customers want to upgrade down the road they are SOL...
compatible with what?? 80 games? doesn't sound like an entire ecosystem if you ask me...
Nvidia is so scared of CrossFire tha they are pre-launching their G70. They know their NV4x SLI platform won't cut it!
They don't deny that we have better performance, they are just complaining that we have only shown 3 games to beat them with...
glad they scknowledge that our single card beats their single card!
nvidia is rushing out news of their next-gen beacuse they are scared of CrossFire
when Nvidia was scared by R300 they rushed news of NV30 out to the masses. They promised the world and they delivered a dog. now they are making the same great promises with G70... deja vu??Cool, eh?
:biggrin:

Razor

P.S.: der Kommentator braucht da wohl noch 'nen bissi Nachhilfe, gell?

Demirug
2005-06-03, 18:30:21
Razor, Ja. Ich habe aber noch ein paar mehr gefunden.

(So customers are paying for SLI \(through unused transistors\) even if they only want to run a single card...

(Internal connector which won't connect correctly if slots are off by even a few millimetres...)

(Requires two identical graphics cards...hopefully they can find them when they want them...)

(If card manufacturers make bios changes mid-production run and customers want to upgrade down the road they are SOL...)

(compatible with what?? 80 games? doesn't sound like an entire ecosystem if you ask me...)

(Nvidia is so scared of CrossFire tha they are pre-launching their G70. They know their NV4x SLI platform won't cut it!)

(They don't deny that we have better performance, they are just complaining that we have only shown 3 games to beat them with...)

(glad they scknowledge that our single card beats their single card!)

(how is this different form their split screen method?? their aren't able to scale geometry either! )

(in the desert someone stranded will drink their own sweat...doesn't mean its any good...)

(wasted transistors, enthusiasts want leading technology, not something Nvidia slaps together)

(nvidia is rushing out news of their next-gen beacuse they are scared of CrossFire)

(when Nvidia was scared by R300 they rushed news of NV30 out to the masses. They promised the world and they delivered a dog. now they are making the same great promises with G70... deja vu??)

(1 year in and they can only support ~80 games.)

crusader4
2005-06-03, 18:35:56
Das pdf ist wirklich zu geil. Im Klartext stehen am Ende einige NV-Bash-Texte drin.

Beispiele:
So customers are paying for SLI (through unused transistors) even if they only want to run a single card...
Internal connector which won't connect correctly if slots are off by even a few millimetres...
Requires two identical graphics cards...hopefully they can find them when they want them.

Grüße, Crusader

Edit: Mist, zu spät.

Razor
2005-06-03, 18:36:58
Es ist der Begriff "SuperAA", der die CrossFire Technologie iV mit E&S zusammenbringt, aber auch das SuperTiling.Hmmm...
Wäre ja wünschenswert... nur kann ich mir beim besten Willen nicht vorstellen, dass ATI hier Profi-Systeme an den Consumer bringt. Es sei denn, die 'Master'-Karten sind SEHR teuer. Alles andere wäre wirtschaftlicher Unsinn...

Warum die Grafikkarten miteinander über die Northbridge plaudern? Keine Ahnung. Ist nur ein Gedanke, dieser Artikel ist daran schuld:
http://www.techreport.com/onearticle.x/8390Du meinst das hier?

"I asked how the cards were sharing data, and the gent pointed to the north bridge chip between the two cards."

Vielleicht ein wenig unspezifisch, oder?
Vielleicht hat das der Autor mißverstanden und der "gent" zeigte auf die CPU!
:D

(Das wichtigste ist aber das:
This board is called the P5RD2-MVP Deluxe, and it combines the ATI Radeon Xpress 200 CrossFire north bridge with the ULi VT1573 south bridge. Asus says the demo system is running a Pentium 4 670 3.8GHz, Kingston DDR2 DIMMs at 750MHz, and a pair of Radeon X850XT cards.)Und wieso ist das 'wichtig'?
:confused:

Die Vermutung, dass ein "dual-slave-mode" existiert und auch funktioniert, wollte ja nicht mal der Typ von DFI belegen... und noch 'netter' ist ja, daß die Master/Slave-Kombo ja sogar langsamer war, als die Slave/Slave-Kombo... wenn auch nicht wesentlich. Sorry, aber erst einmal möchte ich das dort Gesagte mit einem GROSSEN Fragezeichen versehen...

Und noch etwas:
" I noted, as 3DMark's Game 3 test ran, that there was some slight frame-to-frame jumpiness that seemed rather out of place..."

Razor

Alertstatus Red
2005-06-03, 18:39:59
He Crossfire, mach dass deine Firma Ein Testsystem hier am 3DC zu test Geschickt wird, denn wir benutzer und Konsumente können Beurteilen was doch das alles bringt ... ich habe seit 10 Tagen ein 6800GT von gigabyte ins meine PC, der hat der platz von 'ne 9800pro genommen weil habe das gehfül das besser ist ... bin nicht biased, aber versteht mir, ich will immer das beste, und ich orientiere mich NICHT am Marketing-geblubber, so far ... :wink:

Ein krass besoffene Alertstatus Red, Vodka rulezz... :biggrin:

Alertstatus Red
2005-06-03, 18:42:37
Ach du heiligen ... warum ist das alles blau ??

Razor
2005-06-03, 18:44:17
Razor, Ja. Ich habe aber noch ein paar mehr gefunden.Hehe...
Habe mich mit UltraEdit begnügt, da mir die professional der Firma fehlte.
Aber dann haben wir ja wohl alles zusammen getragen, gell?
:D

Razor

Quasar
2005-06-03, 18:45:20
He Crossfire, mach dass deine Firma Ein Testsystem hier am 3DC zu test Geschickt wird, denn wir benutzer und Konsumente können Beurteilen was doch das alles bringt ... ich habe seit 10 Tagen ein 6800GT von gigabyte ins meine PC, der hat der platz von 'ne 9800pro genommen weil habe das gehfül das besser ist ... bin nicht biased, aber versteht mir, ich mmmer das beste, und ich orientiere mich NICHT am Marketing-geblubber, so far ... :wink:

Ein krass besoffene Alertstatus Red, Vodka rulezz... :biggrin:
Das macht natürlich einen superguten Eindruck. Ich denke, 3dc wird sich vor allem aufgrund deines blauen Postings vor Testsystemen von ATi nicht mehr retten können... :rolleyes:

So früh am Abend schon so blau? Gerüstbauer? *SCNR*

Razor
2005-06-03, 18:45:38
Ach du heiligen ... warum ist das alles blau ??Deswegen: "[ color=#0000a0 ]...[ /color ]"

deekey777
2005-06-03, 18:56:22
Hmmm...
Wäre ja wünschenswert... nur kann ich mir beim besten Willen nicht vorstellen, dass ATI hier Profi-Systeme an den Consumer bringt. Es sei denn, die 'Master'-Karten sind SEHR teuer. Alles andere wäre wirtschaftlicher Unsinn...


Ist doch nur eine Vermutung.


Du meinst das hier?

"I asked how the cards were sharing data, and the gent pointed to the north bridge chip between the two cards."

Vielleicht ein wenig unspezifisch, oder?
Vielleicht hat das der Autor mißverstanden und der "gent" zeigte auf die CPU!
:D

Eine ähnliche Aussage gab's schon irgendwo. Da die Karten im AFR Modus liefen, so sah die Kommunikation so aus: "Mein Frame, dein Frame, mein Frame..."
:D
Die CPU macht doch den Job, oder?

Und wieso ist das 'wichtig'?
:confused:

ULi Southbridge mit einem Kühler drauf, damit's keiner merkt, - und CrossFire läuft.

Die Vermutung, dass ein "dual-slave-mode" existiert und auch funktioniert, wollte ja nicht mal der Typ von DFI belegen... und noch 'netter' ist ja, daß die Master/Slave-Kombo ja sogar langsamer war, als die Slave/Slave-Kombo... wenn auch nicht wesentlich. Sorry, aber ist einmal möchte ich das dor gesagte mit einem GROSSEM Fragezeichen versehen...


Die Slave-Slave Kombination ist eh nur "Selbstverarsche", denn sie macht keinen Sinn, man kan damit aber einen Weltrekord in 3D Mark 2005 aufstellen. Interessanterweise antwortete macci nicht auf die Frage, ob es eine Master/Slave Kombination war.

Die Master-Slave war langsamer, weil...
"The dude from DFI then swapped in a true CrossFire master card from ATI alongside one of the the X850 XT PE cards and proceeded to flash the slave card to what he said was a Radeon X800 BIOS, so it would match the CrossFire card. Both had dual-slot coolers that looked for all the world like X850 XT cards, but whatever. He then ran 3DMark for us again, this time with the video cables daisy chained as one would expect for a CrossFire config..."

Sie hatten wohl nur eine X800 CrossFire (=X800XL), diese läuft wiederrum nur mit einer X800 irgendwas. Darum war das Ergebnis langsamer. Ist nur so eine Vermutung.


...
Razor

Gast
2005-06-03, 19:02:37
Meinst Du das hier?

If card manufacturers make bios changes mid-production run and customers want to upgrade down the road they are SOL...
compatible with what?? 80 games? doesn't sound like an entire ecosystem if you ask me...
Nvidia is so scared of CrossFire tha they are pre-launching their G70. They know their NV4x SLI platform won't cut it!
They don't deny that we have better performance, they are just complaining that we have only shown 3 games to beat them with...
glad they scknowledge that our single card beats their single card!
nvidia is rushing out news of their next-gen beacuse they are scared of CrossFire
when Nvidia was scared by R300 they rushed news of NV30 out to the masses. They promised the world and they delivered a dog. now they are making the same great promises with G70... deja vu??Cool, eh?
:biggrin:

Razor

P.S.: der Kommentator braucht da wohl noch 'nen bissi Nachhilfe, gell?

Voll lächerlich Nv versucht hallt immer die besseren sachen schlecht zu machen:D

Demirug
2005-06-03, 19:02:43
CrossFire eine Bastellösung? Entscheidet selbst:

http://www.hardware.fr/medias/photos_news/00/13/IMG0013012_1.jpg (vorsicht gross)

Razor
2005-06-03, 19:05:40
Die Master-Slave war langsamer, weil...Hmmm...
Die X800 'Crossfire' hatte einen Dual-Slot-Kühler, weil sie wie eine "X850 XT PE" aussehen sollte?
Wozu?
:confused:

Und wenn zwei X850XTPE im Dual-Slave-(AFR-)Mode nicht wirklich schneller sind, als eine 'echte' X800 'Crossfire'-Kombo... macht das Ganze noch viel weniger Sinn.

Also irgendwie...

Razor

Razor
2005-06-03, 19:07:25
CrossFire eine Bastellösung? Entscheidet selbst:

http://www.hardware.fr/medias/photos_news/00/13/IMG0013012_1.jpg (vorsicht gross)*grunz*
:D

Wo ist das denn her?

Razor

Gast
2005-06-03, 19:13:51
CrossFire eine Bastellösung? Entscheidet selbst:

http://www.hardware.fr/medias/photos_news/00/13/IMG0013012_1.jpg (vorsicht gross)

Demi,

gerade du solltest doch wissen, das dieses Lautsprecher-Format / Kabel, niemals auf einer Grafikkarte seinen Platz finden kann wo 80° herschen!!!!!! *g* lol Das war bestimmt ein Test von dir ! :)
Das ist ein Fakebild!

Demirug
2005-06-03, 19:17:58
Ich glaube nicht das Damien Triolet in seinem offiziellen CrossFire Artikel Fakebilder benutzt: http://www.hardware.fr/articles/573/page2.html

EDIT: Dieser Drahttyp hält einiges aus denn haben wir auch immer in Industrieanlangen benutzt.

deekey777
2005-06-03, 19:23:37
Hmmm...
Die X800 'Crossfire' hatte einen Dual-Slot-Kühler, weil sie wie eine "X850 XT PE" aussehen sollte?
Wozu?
:confused:

Und wenn zwei X850XTPE im Dual-Slave-(AFR-)Mode nicht wirklich schneller sind, als eine 'echte' X800 'Crossfire'-Kombo... macht das Ganze noch viel weniger Sinn.

Also irgendwie...

Razor

Nicht wirklich schneller? Naja, die zur X800 irgendwas geflashte X850XT PE könnte mit dem X800XT PE Takt haben - dem CrossFire System fehlten "nur" 160 MHz beim VPU-Takt und 120 MHz beim Speicher.

Gegen den X850 Lüfter spricht dagegen nichts.

Gast
2005-06-03, 19:24:41
Ich glaube nicht das Damien Triolet in seinem offiziellen CrossFire Artikel Fakebilder benutzt: http://www.hardware.fr/articles/573/page2.html

EDIT: Dieser Drahttyp hält einiges aus denn haben wir auch immer in Industrieanlangen benutzt.

Demi,

Glauben tue ich an was anderes ;), aber nicht an einen Maschendrahtzaun auf der Crossfirekarte*gggg*.

Stell dir dat mal vor! :)

Es gibt keine Samples! Wie soll er das gemacht haben! Fooddo mein ich! Auch ein nettes Wortspile: Foooddo

md
2005-06-03, 19:28:17
hallo

ich bin was das ganze angeht nicht der typ der viel ahnung davon hat, aber ich kann mir sehr sehr gut vorstellen, dass crossfire, beliebter, schneller und zukunfstsicherer ist, als sli. desweiteren habe ich gelesen, dass man ja nur eine crossfire karte brauch um sie mit einer anderen, belibigen zu betreiben. dazu kommt auch noch, dass ati diese loesung auf nforce boards zur verfuegung stellt (meine ich gehoert zu haben). generell wusste nvidia, dass SLI sich nie richtig durchsetzten wuerde, weil es einfach viel zu teuer ist...

Demirug
2005-06-03, 19:34:58
Demi,

Glauben tue ich an was anderes ;), aber nicht an einen Maschendrahtzaun auf der Crossfirekarte*gggg*.

Stell dir dat mal vor! :)

Es gibt keine Samples! Wie soll er das gemacht haben! Fooddo mein ich! Auch ein nettes Wortspile: Foooddo

Auf der Comdex konnte man an fast alles rankommen.

Zudem habe ich auch noch andere Platinen hier rumliegen die ähnliche Drahtbrücken haben.

Quasar
2005-06-03, 19:42:21
generell wusste nvidia, dass SLI sich nie richtig durchsetzten wuerde, weil es einfach viel zu teuer ist...
Hm, und dieser Punkt unterscheidet SLi in welcher Hinsicht von CrossFire?

Alertstatus Red
2005-06-03, 19:43:03
Das macht natürlich einen superguten Eindruck. Ich denke, 3dc wird sich vor allem aufgrund deines blauen Postings vor Testsystemen von ATi nicht mehr retten können... :rolleyes:

So früh am Abend schon so blau? Gerüstbauer? *SCNR*

Na ja, ich fordere jede das 1 Liter Vodka intus hat einigermassen ein Marketingsbefreites postig hier zustande bringen, ohne ins Marketings-geblubber reinfallen... :biggrin:
Ich wahle eine produkt ahnand was programmierer mich als Argumente bringen... wenn ich als programmierer muss RTT(*) benutzen, um einigermassen FAKE-HDR bringt, und da ungefiltert, weil ich da habe keine FP Rendertarget habe, weil kein FP-Rops habe, sorry, was gibt so gross zu schönreden? Hier hat NV der bessere arbeits gemacht, auch wenn Ihre RT eher nicht HDR verspricht, eher MDR, aber ich finde, besser MDR als Fake-HDR ungefiltert, schau mal dir die DX9 SDK, wo mal benutzt RTT(*) zum einigermassen HDR oder MDR am mensch zu bringen, egal ob man Klötzen Man sieht... Ich glaub, trotz der viel Vodka, kann einigermassen doch klar bleim meine gedanken bleiben (mein Leber sei es gedankt, der Alkohol schnell abbauen kann, weiss ned um welche Preis) ohne das man muss mir diktieren was für MICGH richtig isst... I'am Not biased, i Buy what i think is better, as programmer ... :D. Sorry, ich bin halt so geworden, nicht gemacht ...:redface:

(*) Render to textures

Gast
2005-06-03, 19:52:41
Auf der Comdex konnte man an fast alles rankommen.

Zudem habe ich auch noch andere Platinen hier rumliegen die ähnliche Drahtbrücken haben.

Okay, gesetzt den Fall das ist ein Drahtbrücke, dann könnte es ja ein Engineering-Sample sein!

md
2005-06-03, 19:56:12
Hm, und dieser Punkt unterscheidet SLi in welcher Hinsicht von CrossFire?

dass man nicht 2 gleiche identische karten besitzen muss, sprich man kann eine teure karte mit einer billigeren karte betreiben

Gast
2005-06-03, 19:58:49
Okay, gesetzt den Fall das ist ein Drahtbrücke, dann könnte es ja ein Engineering-Sample sein!

Spricht imho nicht für serienreife Karten wenn mit CF geworben wird und dies nur ein Engineering-Sample sein sollte.

deekey777
2005-06-03, 20:12:21
dass man nicht 2 gleiche identische karten besitzen muss, sprich man kann eine teure karte mit einer billigeren karte betreiben

Der Aufpreis für die Compositing Engine der Master-Karte gleich alles wieder aus, man muß schließlich eine Master-Karte nachkaufen; die Karten müssen identisch sein: Da ATi keine auf dem R423 basierenden Grafikkarten mehr kenn, müssen diese in der Kombination mit der viel langsameren X800 CrossFire (=X800XL, Differenz bis zu 120/140MHz!) laufen.

Quasar
2005-06-03, 20:18:31
dass man nicht 2 gleiche identische karten besitzen muss, sprich man kann eine teure karte mit einer billigeren karte betreiben
Die günstigste SLi-fähige Karte kostete IIRC ~129EUR. Wie teuer ist aktuell (glauben wir mal den UVPs) die günstigste CrossFire-Karte?

Ich glaube, Kosten sind nicht notwendigerweise das Argument für CrossFire.
Wenn ich mir so einen Monsterrechner mit mehreren Grakas hinstellen würde, dann nicht wegen Kosten oder Speed, sonder eher wegen Bildqualität.

Gast
2005-06-03, 20:36:31
Spricht imho nicht für serienreife Karten wenn mit CF geworben wird und dies nur ein Engineering-Sample sein sollte.
Hallo,

der einzige Unterschied zur "NORMALEN" Serien Karte ist der Compositing Logic Chip und einem DMS-Eingang, neben DVI TV-Out.

Hier wurde keine NEUE Grafikkarte entwickelt, sondern nur ein Chip der den Prozessso teilt, dass Frame 1 auf der Mastercard berechnet wird und Frame 2 auf der Slave Karte berechnet wird, am Ende treffen sich Frame 1 und Frame 2 wieder und werdern durch die Verbindungseinheit (Kabel/Digital) zusammengeführt wird.

Der Treiber erkennt automatisch um welche Performance-Möglichkeiten es sich bei der Master und Slave Karte handelt, danach entscheidet er a.: Welche Frames geteilt werden und welche NICHT!

....Hoffe das war verständlich!

md
2005-06-03, 20:38:12
man kann aber nicht eine technologie, die gerade rausgekommen ist, mit einer vergleichen die es schon ueber einen jahr gibt. bis dahin sind die crossfire karten viel billiger. schaut doch mal allein die preise fuer eine 9800 pro an und die einer 5900 ultra. nvidia stellt sich das halt alles ein bisschen anders vor...

Gast
2005-06-03, 20:40:47
Der Aufpreis für die Compositing Engine der Master-Karte gleich alles wieder aus, man muß schließlich eine Master-Karte nachkaufen; die Karten müssen identisch sein: Da ATi keine auf dem R423 basierenden Grafikkarten mehr kenn, müssen diese in der Kombination mit der viel langsameren X800 CrossFire (=X800XL, Differenz bis zu 120/140MHz!) laufen.

Das sehe ich anders, ATI hat z.B. kaum einen Preisunterschied zwischen der X700Pro AGP mit Rialto-Chip und X700Pro PCI Express ohne dieser AGP Bridge.

Schaue ich mir die Preisunterschiede bei nvidia an, z.B. 6800GT AGP und 6800 GT PCI Express, sind da ca. 40 USD Preisunterschied. :) ups

ATI wird faire Preise machen!

Gast
2005-06-03, 20:48:27
Der Aufpreis für die Compositing Engine der Master-Karte gleich alles wieder aus, man muß schließlich eine Master-Karte nachkaufen; die Karten müssen identisch sein: Da ATi keine auf dem R423 basierenden Grafikkarten mehr kenn, müssen diese in der Kombination mit der viel langsameren X800 CrossFire (=X800XL, Differenz bis zu 120/140MHz!) laufen.

Naja, btw. AB X700 können alle anderen z.B ATI HD TV!, gehört zwar hier nicht rein, zeigt dir aber die Bedeutung von ATI's Strategie.

Crossfire ist nur der Anfang.

Vision:
Für einen HD TV PC benötigt mann eine HD TV fähige TV-Tuner Karte und eine VGA-Karte, die auch HD TV Signale berechnen kann.

Mit Crossfire = 5 Monitore, Unterschiedliche Signale vom Treiber!

1. Monitor: Fussball-WM 2006 in HD TV
2. Monitor: http://www.forum-3dcenter.org
3. Monitor: UT2004
4. Monitor: Mail
5. Monitor: Word

= Multimdia-Pur.

Ich sage dir, die beiden Vendors entwickeln sich sehr verschieden!
Warum wohl ist der Xpress 200 von Microsoft zertifiziert MCE, sogar als Einziger!

Das wird noch spannend werden!

Gast
2005-06-03, 20:51:35
man kann aber nicht eine technologie, die gerade rausgekommen ist, mit einer vergleichen die es schon ueber einen jahr gibt. bis dahin sind die crossfire karten viel billiger. schaut doch mal allein die preise fuer eine 9800 pro an und die einer 5900 ultra. nvidia stellt sich das halt alles ein bisschen anders vor...
Wenn die Technik schon seit einem Jahr draussen ist, warum wurde Sie dann nicht weiterentwickelt! ???? Ich denke schon das nv auch so eine Möglichkeit wie Crossfire realisieren hätte können! Das ist doch altbekannter Tabak!!

deekey777
2005-06-03, 20:55:51
HDTV fähig? Jede Grafikkarte, die 1920X1080 ausgeben kann, ist HDTV fähig, was immer das auch heissen soll.

Und der Rest? Auch nVidie beherrscht doch Multi-Monitoring, oder? Nur ist dann der Sinn des SLI kraftlos.

Für HDTV braucht man in erster Linie einen DVB-Tuner, einen guten MPEG2 oder MPEG4 Decoder, einen starken Prozessor (bei h264/MP4), guten VGA-/DVI-Ausgang...

deekey777
2005-06-03, 20:59:58
Das sehe ich anders, ATI hat z.B. kaum einen Preisunterschied zwischen der X700Pro AGP mit Rialto-Chip und X700Pro PCI Express ohne dieser AGP Bridge.

Schaue ich mir die Preisunterschiede bei nvidia an, z.B. 6800GT AGP und 6800 GT PCI Express, sind da ca. 40 USD Preisunterschied. :) ups

ATI wird faire Preise machen!

Öhm, was hat die X700 mit CrossFire zu tun?
Und die 6800GT ist billiger als die 6800GT PCIe, weil a) der Preisdruck wegen der X800XL AGP, b) der Bridgechip, c) noch sehr viele AGP-Systeme...
Woher aber der Unterschied von 40 USD in einem Euro-Land kommt, mußt du mit erklären.
Allerdings hat ATi offiziell bestätigt, daß die X800 CrossFire auch $50 teurer sein wird als ihre Sklavenschwester.

Gast
2005-06-03, 21:02:07
Die günstigste SLi-fähige Karte kostete IIRC ~129EUR. Wie teuer ist aktuell (glauben wir mal den UVPs) die günstigste CrossFire-Karte?

Ich glaube, Kosten sind nicht notwendigerweise das Argument für CrossFire.
Wenn ich mir so einen Monsterrechner mit mehreren Grakas hinstellen würde, dann nicht wegen Kosten oder Speed, sonder eher wegen Bildqualität.

Sehe ich 100% auch so! Ich finde, das gerade jetzt dieses Forum hier gefragt sind!!!!!!

Vorschlag an die Profis hier!

Jetzt kommt die 6800GT PCI E und die Ultra vom Preis runter, X800XT wird enorm vom Preis fallen, die Pro werden auch günstiger, SLI & Crossfire sind auch noch da und obendrauf bescherrt uns der Sommer auch noch G70 Launch und R520 Launch, Mörderteile mit SM3, etc. schiess - mich - tod - Features, PR-Geschrei..... :)

Ich für meinen Teil wüßte jetzt nicht was ich mir kaufen soll! Obendrei sichert mir noch Turbocache und Hypermemory zu!!....hey; alles ist super, ich reiche vollkommen aus... zum Gaming Screen ;)

Können wir nicht mal einen Chip und eine Version SM*.* für einige Zeit durchziehen...

Gast
2005-06-03, 21:08:02
Bezüglich Vorschlag: Voting: Thema: Auf welche Technologie ich aufrüsten würde, wenn ich alles aussuchen könnte!

NV40 - Technologie
R420 - Technologie

SLI
Crossfire

G70
R520

NV40 - Preiswerte Sonderangebote
R420 - Preiswerte Sonderangebote

NForce
Radeon Xpress
VIA
INTEL

Passiv -Kühlung VGA
Aktiv - Kühlung VGA

Singel-Slot VGA
Dual-Slot VGA

TV-OUT
VGA
DVI
Dual DVI



Das wäre sehr Hilfreich!

Gast
2005-06-03, 21:12:38
Allerdings hat ATi offiziell bestätigt, daß die X800 CrossFire auch $50 teurer sein wird als ihre Sklavenschwester.

Es kommt natürlich auf das Kabel an! Immerhin eine wichtige Einheit, die durchaus 40 USD kosten kann!

Gemeint war der Chip, eigentlich!

Ich glaube das es auch Crossfirekarten ohne dieses Kabel zu kaufen gibt, oder die Hersteller das einkalkulieren!

Winter[Raven]
2005-06-03, 21:16:49
Also, wenn sich schon jemand von ATI off. hier bei 3D Center rumtreibt, fehlt nur noch jemand von den "Grünen"... :D

Gast
2005-06-03, 21:19:00
']Also, wenn sich schon jemand von ATI off. hier bei 3D Center rumtreibt, fehlt nur noch jemand von den "Grünen"... :D
Find ich auch! :D

deekey777
2005-06-03, 21:20:29
Es kommt natürlich auf das Kabel an! Immerhin eine wichtige Einheit, die durchaus 40 USD kosten kann!

Gemeint war der Chip, eigentlich!

Ich glaube das es auch Crossfirekarten ohne dieses Kabel zu kaufen gibt, oder die Hersteller das einkalkulieren!

Eigentlich meinte ich alle Drei zusammen. Und sollte die Compositing Engine und die 2 extra Rendermodi tatsächlich von E&S übernommen worden sein, sollten auch die Lizenzgebühren drin sein, schließlich kann ja nicht jeder 3Dfx kaufen.
Wobei die Mainboards in etwa die Preise der nForce 4 Ultra haben.

Gast
2005-06-03, 21:20:46
[QUOTE=Gast]Es kommt natürlich auf das Kabel an! Immerhin eine wichtige Einheit, die durchaus 40 USD kosten kann!
QUOTE]

http://www.hifi-regler.de/shop/hama/hama_42134_dvi-kabel-dvi-stecker-dvi-stecker_1_8_m.php?SID=e53aaf726c4668869d50b4bbe7330833

DVI-Kabel, Single Link, DVI-Stecker/DVI-Stecker (Ausführung: analog oder digital, DVI-I

49€ von HAMA LoL, is ja Wahnsinn! :)

deekey777
2005-06-03, 21:21:36
']Also, wenn sich schon jemand von ATI off. hier bei 3D Center rumtreibt, fehlt nur noch jemand von den "Grünen"... :D

Das wäre eine tolle Sache, besonders im Support-Bereich.

Gast
2005-06-03, 21:23:02
Eigentlich meinte ich alle Drei zusammen. Und sollte die Compositing Engine und die 2 extra Rendermodi tatsächlich von E&S übernommen worden sein, sollten auch die Lizenzgebühren drin sein, schließlich kann ja nicht jeder 3Dfx kaufen.
Wobei die Mainboards in etwa die Preise der nForce 4 Ultra haben.
Okay, kann ich verstehen, aber wie wollen die in 50USD ein DVI-Kabel einkalkulieren das im VK von Hama schon 49€ kostet + CHIP und DMS???

Gast
2005-06-03, 21:24:28
Das wäre eine tolle Sache, besonders im Support-Bereich. Ist der Hersteller - Support denn so schlecht geworden??? bei den beiden ;)

Winter[Raven]
2005-06-03, 21:24:42
Also ich wäre für Jens Neuschäfer ... sehr sympatischer Mann... :D

Gast
2005-06-03, 21:25:53
']Also ich wäre für Jens Neuschäfer ... sehr sympatischer Mann... :D und Rene, auch super symphatisch!

Diskutator
2005-06-03, 21:34:54
Nabend zusammen!

Gast = Diskutator ;)

Demirug
2005-06-03, 21:47:32
Eigentlich meinte ich alle Drei zusammen. Und sollte die Compositing Engine und die 2 extra Rendermodi tatsächlich von E&S übernommen worden sein, sollten auch die Lizenzgebühren drin sein, schließlich kann ja nicht jeder 3Dfx kaufen.
Wobei die Mainboards in etwa die Preise der nForce 4 Ultra haben.

Laut dem Bild von Hardware.Fr ist die Composition Engine in eine FPGA von Xlinix. Dazu kommen dann noch Chips für den DVI-In, DVI-Out, ein DAC und ein Eprom für den FPGA.

deekey777
2005-06-03, 22:10:55
Laut dem Bild von Hardware.Fr ist die Composition Engine in eine FPGA von Xlinix. Dazu kommen dann noch Chips für den DVI-In, DVI-Out, ein DAC und ein Eprom für den FPGA.

http://www.hardware.fr/articles/573/page2.html

Ich dachte, das Bild, das du verlinkt hast, wäre eigentlich ein Mainboard...

Mit Google&Xlinix komme ich nicht weiter: Was genau machen die?
http://www.xilinx.com/ bzw. http://www.xilinx.com/technology/logic/
(Auf dem dem Chip steht Spartan.)

http://www.softdb.com/a-dsp_30_1_1.html

Doch warum heißt SuperAA gerade SuperAA?

Demirug
2005-06-03, 22:19:30
Mit Google&Xlinix komme ich nicht weiter: Was genau machen die?
http://www.xilinx.com/

FPGAs. Das sind konfigurierbare Logikchips. Diese werden benutzt wenn es sich nicht lohnt einen richtigen Chip herzustellen oder es schnell gehen muss. Der Nachteil ist die reduzierte Leistungsfähigkeit im Vergleich zu den Custom Chips. Diese großen Boxen welche zur Chipsimulation benutzt werden sind auch mit solchen FPGAs vollgestopft.

doch warum heißt SuperAA gerade SuperAA?

Wohl weil die Grundidee die gleiche wie bei E&S ist.

deekey777
2005-06-03, 22:29:24
Aber gab es einen Technologie-/Erfahrungsaustausch zw. ATi und E&S auf dem Gebiet MVP/CrossFire, aber auch insb. Compositing Engine, oder ist alles hausgemacht, und es ist nur ein Zufall?

Es wäre auch ein Verkaufsslogan: "Wir bingen die Profi-Technologie von E&S (WTF is E&S?) zu Ihnen nach Hause."

StefanV
2005-06-03, 22:35:08
CrossFire eine Bastellösung? Entscheidet selbst:

http://www.hardware.fr/medias/photos_news/00/13/IMG0013012_1.jpg (vorsicht gross)
WTH soll der ADV7123 da?! :|

Vorallendingen in der 240MHz Ausführung :|

Gast
2005-06-03, 22:35:10
Hallo,

der einzige Unterschied zur "NORMALEN" Serien Karte ist der Compositing Logic Chip und einem DMS-Eingang, neben DVI TV-Out.

Hier wurde keine NEUE Grafikkarte entwickelt, sondern nur ein Chip der den Prozessso teilt, dass Frame 1 auf der Mastercard berechnet wird und Frame 2 auf der Slave Karte berechnet wird, am Ende treffen sich Frame 1 und Frame 2 wieder und werdern durch die Verbindungseinheit (Kabel/Digital) zusammengeführt wird.

Der Treiber erkennt automatisch um welche Performance-Möglichkeiten es sich bei der Master und Slave Karte handelt, danach entscheidet er a.: Welche Frames geteilt werden und welche NICHT!

....Hoffe das war verständlich!

Ich bezog mich auf das Bild von der französichen Seite wo man einen Draht auf der Karte sehen kann, sonst nichts. Warum sollte man ein Engineering Sample mit Draht rumschicken, was halt eben unfertig und nach 'Last-Minute' Aktion aussieht, wenn die Karten nach deiner Argumentation anscheinend ohne Probleme "umgerüstet" werden können?

deekey777
2005-06-03, 22:37:39
WTH soll der ADV7123 da?! :|

Vorallendingen in der 240MHz Ausführung :|

RAMDAC vielleicht?
http://www.hardware.fr/articles/573/page2.html

StefanV
2005-06-03, 22:40:26
RAMDAC vielleicht?
http://www.hardware.fr/articles/573/page2.html
Öhm, das war mir eigentlich klar ;)
Meinereiner kennt den ADV7123 von der 8500 ;)

Demirug
2005-06-03, 23:03:47
WTH soll der ADV7123 da?! :|

Vorallendingen in der 240MHz Ausführung :|

Das es sicher Leute gibt die ein Display mir Analoganschluss an ihere Crossfirekarte anschliessen wollen ist ein DAC unvermeitlich.

Diskutator
2005-06-03, 23:24:03
Das es sicher Leute gibt die ein Display mir Analoganschluss an ihere Crossfirekarte anschliessen wollen ist ein DAC unvermeitlich.

Da fällt googelt mir spontan das ein.... ;)
http://www.delphipraxis.net/post199573.html

Demirug
2005-06-03, 23:36:31
Da fällt googelt mir spontan das ein.... ;)
http://www.delphipraxis.net/post199573.html

Und was hat das jetzt damit zu tun das ATI da einen DAC verbauen musste um sich nicht dem Zorn unzälliger Kunden auszusetzten?

Diskutator
2005-06-03, 23:41:53
Und was hat das jetzt damit zu tun das ATI da einen DAC verbauen musste um sich nicht dem Zorn unzälliger Kunden auszusetzten? :eek: Paßt dann doch alles!

deekey777
2005-06-03, 23:49:07
Öhm, das war mir eigentlich klar ;)
Meinereiner kennt den ADV7123 von der 8500 ;)

... Und laut heise online mit 400MHz.

SKYNET
2005-06-04, 00:41:00
http://www.nvnews.net/vbulletin/showthread.php?t=51336

typisch nVidia, omg in deren PR etage müssen nur flüchtlinge ausm kinder garten sein.


warum? da smeiste was in dem pdf dokument steht stimmt doch... wenn nicht sogar alles. :cool:

deekey777
2005-06-04, 00:45:47
warum? da smeiste was in dem pdf dokument steht stimmt doch... wenn nicht sogar alles. :cool:

Stimmt...

Razor, Ja. Ich habe aber noch ein paar mehr gefunden.

(So customers are paying for SLI \(through unused transistors\) even if they only want to run a single card...

(Internal connector which won't connect correctly if slots are off by even a few millimetres...)

(Requires two identical graphics cards...hopefully they can find them when they want them...)

(If card manufacturers make bios changes mid-production run and customers want to upgrade down the road they are SOL...)

(compatible with what?? 80 games? doesn't sound like an entire ecosystem if you ask me...)

(Nvidia is so scared of CrossFire tha they are pre-launching their G70. They know their NV4x SLI platform won't cut it!)

(They don't deny that we have better performance, they are just complaining that we have only shown 3 games to beat them with...)

(glad they scknowledge that our single card beats their single card!)

(how is this different form their split screen method?? their aren't able to scale geometry either! )

(in the desert someone stranded will drink their own sweat...doesn't mean its any good...)

(wasted transistors, enthusiasts want leading technology, not something Nvidia slaps together)

(nvidia is rushing out news of their next-gen beacuse they are scared of CrossFire)

(when Nvidia was scared by R300 they rushed news of NV30 out to the masses. They promised the world and they delivered a dog. now they are making the same great promises with G70... deja vu??)

(1 year in and they can only support ~80 games.)

Alles aus der PDF "Präsentation".

SKYNET
2005-06-04, 00:49:11
CrossFire eine Bastellösung? Entscheidet selbst:

http://www.hardware.fr/medias/photos_news/00/13/IMG0013012_1.jpg (vorsicht gross)


cool, gibt es die dann auch als bausatz? :|

SKYNET
2005-06-04, 00:55:21
Stimmt...



Alles aus der PDF "Präsentation".



von den "unsichtbaren" habe ich aber nicht gesprochren... ;D ;)

deekey777
2005-06-04, 00:57:42
von den "unsichtbaren" habe ich aber nicht gesprochren... ;D ;)

Das war eh ein Hilfeschrei und keine lustige nVidia-Präsentation, auf die ich warte. Eigentlich warte ich auch auf die ATis Anti-G70-Präsentation... Das wird eine lustige Zeit.

SKYNET
2005-06-04, 01:10:55
Das war eh ein Hilfeschrei und keine lustige nVidia-Präsentation, auf die ich warte. Eigentlich warte ich auch auf die ATis Anti-G70-Präsentation... Das wird eine lustige Zeit.



jupp, die foilien sind immer lustig. :biggrin:

Razor
2005-06-05, 11:01:23
dass man nicht 2 gleiche identische karten besitzen muss, sprich man kann eine teure karte mit einer billigeren karte betreibenCool!
Und damit dann die teure Karte zur billigen mutieren lassen?
Dolles Feture, echt...

Bitte nicht vergessen, dass die effizenten MVPU-Modi (und um die geht es hier ja wohl) eine Synchronität der eingesetzten Karten voraus setzen...

...sonst hätte es wahrlich keinen Sinn gemacht, eine X850XTPE zu einer X800 'irgendwas' herunter zu flashen... um ehrlich zu sein: ich verstehe noch immer nicht, was das für einen Sinn machen soll.

Egal...

....Hoffe das war verständlich!Nein, war es nicht...
Vermutlich hast Du da was durcheinander bekommen.

Razor

nagus
2005-06-05, 11:24:48
Cool!
Und damit dann die teure Karte zur billigen mutieren lassen?
Dolles Feture, echt...

Bitte nicht vergessen, dass die effizenten MVPU-Modi (und um die geht es hier ja wohl) eine Synchronität der eingesetzten Karten voraus setzen...

...sonst hätte es wahrlich keinen Sinn gemacht, eine X850XTPE zu einer X800 'irgendwas' herunter zu flashen... um ehrlich zu sein: ich verstehe noch immer nicht, was das für einen Sinn machen soll.

Egal...

Nein, war es nicht...
Vermutlich hast Du da was durcheinander bekommen.

Razor

du verstehst es nicht weil dus nicht verstehn willst.

ShadowXX
2005-06-05, 11:47:40
du verstehst es nicht weil dus nicht verstehn willst.

Er versteht es schon.....und auch richtig.

Es ist eben nicht besonders sinnig sich zu einer x800pro eine x800 Crossfire dazuzukaufen.

Noch unsinniger ist es, das eine x800xt(pe) nur mit den x800 Crossfires und nicht mit den x850 Crossfires zusammenläuft.

Und alle die gehofft haben auch einen r3x0 (oder sogar darunter) mit einer Crossfire zusammenlaufen lassen zu können wurden auch enttäuscht.

Im Prinzip hört sich das bei Crossfire im ersten Moment besser an, aber bei genaueren hingucken unterscheiden sich die "einschränkungen" die man bei der Wahl der Grakas hat nicht wesentlich zu denen von nV.

reunion
2005-06-05, 12:11:40
Es ist eben nicht besonders sinnig sich zu einer x800pro eine x800 Crossfire dazuzukaufen.


Wenn man schon eine X800pro besitzt, macht es durchaus Sinn, sich um 300€ die Leistung annähernd verdoppelt zu können IMHO.


Noch unsinniger ist es, das eine x800xt(pe) nur mit den x800 Crossfires und nicht mit den x850 Crossfires zusammenläuft.


ACK, beim Scissor-Mode ist das allerdings egal.


Und alle die gehofft haben auch einen r3x0 (oder sogar darunter) mit einer Crossfire zusammenlaufen lassen zu können wurden auch enttäuscht.


War von Anfang an klar, dass man nicht Karten mit unterschiedlichen Tech-Leveln verbinden kann.


Im Prinzip hört sich das bei Crossfire im ersten Moment besser an, aber bei genaueren hingucken unterscheiden sich die "einschränkungen" die man bei der Wahl der Grakas hat nicht wesentlich zu denen von nV.


Doch, man kann Karten von unterschiedlichen Herstellern, mit unterschiedlichen Boardlayout, mit unterschiedlichen Bios-Versionen, mit unterschiedlichen Taktraten, mit unterschiedlichen RAM-Größen und mit unterschiedlicher Pipelineanzahl miteinander verknüpfen.

Und auch wenn jetzt mit Sicherheit wieder jemand schreibt, dass das bei nV zum Teil auch gelockert werden soll bzw. dass einiges davon unter Umständen wenig Sinn macht, so kann dies doch Vorteile bringen.

Im übrigen weiß noch niemand, wann und wie weit nV das lockern wird, klar, dass nV nach der Vorstellung des flexibleren Crossfire mit irgendetwas dagegenhalten muss.

Quasar
2005-06-05, 12:52:25
War von Anfang an klar, dass man nicht Karten mit unterschiedlichen Tech-Leveln verbinden kann.
War es nicht*. Im Vorfeld hiess es ständig "flexibel" und "wir schauen, was wir machen können".

*natürlich war es erahnbar - die Fanboys wollten jedoch schon die Grafikeinheit im Chipsatz zusammen mit einer R520 nutzen können.

Doch, man kann Karten von unterschiedlichen Herstellern, mit unterschiedlichen Boardlayout, mit unterschiedlichen Bios-Versionen, mit unterschiedlichen Taktraten, mit unterschiedlichen RAM-Größen und mit unterschiedlicher Pipelineanzahl miteinander verknüpfen.

Was zu beweisen wäre - momentan haben wir lediglich Behauptungen seitens ATi. Ich sehe zwar keinen Grund, diese momentan anzuzweifeln, zumal die "Freiheit" auf Seiten der CrossFire schon dadurch eingeschränkt wird, daß diese eben nur von ATi hergestellt werden und die Boardpartner nur noch ihr Label draufpappen wollen/dürfen.
So kann man's natürlich auch machen, wenn man sagen will, man könne beliebig mixen. :)

deekey777
2005-06-05, 12:54:11
Man sollte nicht vergessen, daß es für ATi keine R423er mehr gibt, sondern nur R480 bzw. R430.
Und egal, wie sinnlos die Konfiguration X800 CF und X800XT PE ist, wer so etwas kauft/bastelt wird eine Steigerung der Leistung erfahren, das gleiche gilt für X800CF&X800Pro, auch wenn die X800CF dann mit 12 Pipes läuft.

reunion
2005-06-05, 13:51:03
*natürlich war es erahnbar - die Fanboys wollten jedoch schon die Grafikeinheit im Chipsatz zusammen mit einer R520 nutzen können.


Diese "Idee" kam von mir. :D

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3084181&postcount=119
X-D

Quasar
2005-06-05, 14:31:48
Diese "Idee" kam von mir. :D

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3084181&postcount=119
X-D
Das habe ich auf der CeBIT schon ATi gefragt... ;)

Kobolds|Er@ser
2005-06-05, 23:29:20
Mit Crossfire gelang 3DMark-Rekord (http://www.rage3d.de/index.php?id=985)

Hab es hier noch gar nicht gesehen, falls alt - sorry!

Gast
2005-06-06, 08:14:39
Er versteht es schon.....und auch richtig.

Und alle die gehofft haben auch einen r3x0 (oder sogar darunter) mit einer Crossfire zusammenlaufen lassen zu können wurden auch enttäuscht.

.
Klaro, Ati hat Unmengen R3X0 mit PeG verkauft. Hauptsache... :D

seahawk
2005-06-06, 08:53:22
Meinst Du das hier?

If card manufacturers make bios changes mid-production run and customers want to upgrade down the road they are SOL...
compatible with what?? 80 games? doesn't sound like an entire ecosystem if you ask me...
Nvidia is so scared of CrossFire tha they are pre-launching their G70. They know their NV4x SLI platform won't cut it!
They don't deny that we have better performance, they are just complaining that we have only shown 3 games to beat them with...
glad they scknowledge that our single card beats their single card!
nvidia is rushing out news of their next-gen beacuse they are scared of CrossFire
when Nvidia was scared by R300 they rushed news of NV30 out to the masses. They promised the world and they delivered a dog. now they are making the same great promises with G70... deja vu??Cool, eh?
:biggrin:

Razor

P.S.: der Kommentator braucht da wohl noch 'nen bissi Nachhilfe, gell?

Welches PDF ?

ShadowXX
2005-06-06, 09:06:14
Klaro, Ati hat Unmengen R3X0 mit PeG verkauft. Hauptsache... :D

Hey....solche Ideen kamen nicht von mir.

Ausserdem....was sind die ganze x700/x600(?)/x300 etc. Karten denn groß anderes als r3x0 und rv3x0-Chips.....

Guck dir doch mal die Foren an, was da die Leute Crossfire alles angedichtet haben.

Am besten fand ich noch das Ding mit der integrierten Grafikeinheit als zusätzliche Unterstützung zu 2 anderen Karten.

Ich frage mich wo die ganze Gäste abgelieben sind, die uns damals für "blöd" erklärt haben, als wir sagten das sowas und ähnliche spielchen (also z.B. r520 + r420) wohl nicht gehen werden.

Von ATI-Seite aus funktioniert ja nicht mal r420+r480......

Gast
2005-06-06, 09:31:06
Hey....solche Ideen kamen nicht von mir.

Ausserdem....was sind die ganze x700/x600(?)/x300 etc. Karten denn groß anderes als r3x0 und rv3x0-Chips.....

Guck dir doch mal die Foren an, was da die Leute Crossfire alles angedichtet haben.

Am besten fand ich noch das Ding mit der integrierten Grafikeinheit als zusätzliche Unterstützung zu 2 anderen Karten.

Ich frage mich wo die ganze Gäste abgelieben sind, die uns damals für "blöd" erklärt haben, als wir sagten das sowas und ähnliche spielchen (also z.B. r520 + r420) wohl nicht gehen werden.

Von ATI-Seite aus funktioniert ja nicht mal r420+r480......
r3x0 =/= rv3x0, ausserdem ist x700 ein r420 Derivat. Dass es Humbug sein duerfte noch eine x300/600 auf Crossfire zu portieren duerfte wohl klar sein, nur die Entscheidung x700 aussen vor zu lassen, ist eher ungluecklich. Diese verworfene Kombi duerfte mehr Sinn machen als die Spekulation ein R420 koennte im dual Betrieb mit einem 520er laufen.
Bedauerlich ist die Entscheidung einen R420 nicht mit einem r480 koppeln zu koennen.
Trotz allem bleibt Crossfire in der Kompatibilitaet praktischer als SLI und, selbst wenn es dir unlogisch erscheinen sollte entweder eine X800Crossfire durch eine Pro zu bremsen, oder im anderen Sinne eine XT durch dieselbe Combo etwas auszubremsen, der Besitzer der Pro oder XT erhaelt fuer einen angemessenen Mehrbetrag entsprechende Leistung

ShadowXX
2005-06-06, 09:52:55
r3x0 =/= rv3x0, ausserdem ist x700 ein r420 Derivat. Dass es Humbug sein duerfte noch eine x300/600 auf Crossfire zu portieren duerfte wohl klar sein, nur die Entscheidung x700 aussen vor zu lassen, ist eher ungluecklich. Diese verworfene Kombi duerfte mehr Sinn machen als die Spekulation ein R420 koennte im dual Betrieb mit einem 520er laufen.
Bedauerlich ist die Entscheidung einen R420 nicht mit einem r480 koppeln zu koennen.
Trotz allem bleibt Crossfire in der Kompatibilitaet praktischer als SLI und, selbst wenn es dir unlogisch erscheinen sollte entweder eine X800Crossfire durch eine Pro zu bremsen, oder im anderen Sinne eine XT durch dieselbe Combo etwas auszubremsen, der Besitzer der Pro oder XT erhaelt fuer einen angemessenen Mehrbetrag entsprechende Leistung

Ein bestitzer ein X800Pro hätte sehr wahrscheinlich mehr davon sein x800Pro zu verkaufen und von diesem Geld + dem Geld für die Crossfire einen r520 zu kaufen.
Wäre sehr wahrscheinlich sinnvoller.

Und selbst für den x800xt-Besitzer dürfte dies noch gelten.

Bei x850xt(pe) Besitzern dürfte es reine Geschmackssache sein (bzw. ob es ihnen Reicht beim Sm2.0 zu bleiben und auf SM3.0/HDR zu verzichten).

Und wenn nV jetzt tatsächlich die Restriktionen von wegen identischer Biose und Boardhersteller lockert, bleibt nicht mehr viel übrig an mehr flexibilität gegenüber ATIs Crossfire.

Um es genau zu sagen....bei nV können die Midrange-Kartenbenutzer SLI preislich angemessen benutzen (6600GT), das gibts bei ATI gar nicht (und nein, eine 12Pipe X800Pro sehe ich nicht im Midrangebereich und eine x800 mit einer x800 Crossfire zusammenzuschalten ist gegen jegliche vernunft, von den Preislichen differenzen mal ganz abgesehen).

Genauer gesagt kann ich bei SLI mir immer genau den passenden Gegenpart zu meiner Karte installieren....das ist bei ATI nur in 2 (!!) Fällen der fall (x800xl und x850xt).

Gast
2005-06-06, 10:00:16
Ein bestitzer ein X800Pro hätte sehr wahrscheinlich mehr davon sein x800Pro zu verkaufen und von diesem Geld + dem Geld für die Crossfire einen r520 zu kaufen.
Wäre sehr wahrscheinlich sinnvoller.

Und selbst für den x800xt-Besitzer dürfte dies noch gelten.).
Ab wann wird es R520 geben? Wie sieht es mit der Verfuegbarkeit aus? Wuerde es fuer den Besitzer einer 6.800Gt nicht auch mehr Sinn machen seine Gt zu verkaufen und auf G70 zu warten?

Bei x850xt(pe) Besitzern dürfte es reine Geschmackssache sein (bzw. ob es ihnen Reicht beim Sm2.0 zu bleiben und auf SM3.0/HDR zu verzichten).

Und wenn nV jetzt tatsächlich die Restriktionen von wegen identischer Biose und Boardhersteller lockert, bleibt nicht mehr viel übrig an mehr flexibilität gegenüber ATIs Crossfire.

Um es genau zu sagen....bei nV können die Midrange-Kartenbenutzer SLI preislich angemessen benutzen (6600GT), das gibts bei ATI gar nicht (und nein, eine 12Pipe X800Pro sehe ich nicht im Midrangebereich und eine x800 mit einer x800 Crossfire zusammenzuschalten ist gegen jegliche vernunft, von den Preislichen differenzen mal ganz abgesehen).

Genauer gesagt kann ich bei SLI mir immer genau den passenden Gegenpart zu meiner Karte installieren....das ist bei ATI nur in 2 (!!) Fällen der fall (x800xl und x850xt).[/QUOTE]

Quasar
2005-06-06, 10:03:37
Ob CrossFire wohl auch mit einer X800 SE laufen würde? ;)

Gast
2005-06-06, 10:08:02
Edit zu vorigem Post (sch Makros)
.

Bei x850xt(pe) Besitzern dürfte es reine Geschmackssache sein (bzw. ob es ihnen Reicht beim Sm2.0 zu bleiben und auf SM3.0/HDR zu verzichten).).
Diese Entscheidung duerfte der Besitzer der Ati Karte schon vorher getroffen haben.
.

Und wenn nV jetzt tatsächlich die Restriktionen von wegen identischer Biose und Boardhersteller lockert, bleibt nicht mehr viel übrig an mehr flexibilität gegenüber ATIs Crossfire.

Abwarten was folgt, falls nV das Versprechen haelt fack
.

Um es genau zu sagen....bei nV können die Midrange-Kartenbenutzer SLI preislich angemessen benutzen (6600GT), das gibts bei ATI gar nicht (und nein, eine 12Pipe X800Pro sehe ich nicht im Midrangebereich und eine x800 mit einer x800 Crossfire zusammenzuschalten ist gegen jegliche vernunft, von den Preislichen differenzen mal ganz abgesehen).

2 Karten mit 128bit MI und 128 MB Ram zum Preis einer (6.800Gt) mit 256/256? Inwiefern ist diese Kombination sinnvoller?

Gast
2005-06-06, 10:10:43
Ob CrossFire wohl auch mit einer X800 SE laufen würde? ;)
Laeuft eine 6.800 im Sli Betrieb?

Quasar
2005-06-06, 10:14:16
Laeuft eine 6.800 im Sli Betrieb?
Ja.

robbitop
2005-06-06, 10:32:02
war das wirklich vor dem gamecube?
Die GameCube VPU wurde von ArtX entwickelt, nicht von ATI. (auch wenn ArtX von ATI später gekauft worden ist)

robbitop
2005-06-06, 10:33:37
schließlich war der nv40 auch ne reaktion auf den r3x0. sei doch froh
Nicht alles was hinkt, ist ein Vergleich ;)

ShadowXX
2005-06-06, 10:34:07
Diese Entscheidung duerfte der Besitzer der Ati Karte schon vorher getroffen haben.


Ich glaube eher das da andere Dinge eine Rolle bei der Auswahl der Karten gespielt hat, als kühle Kalkulation.

Ich hab mich z.B. nie vor einer neuen Generation auf einen bestimten Chip festgelegt, sondern immer direkt nach der vorstellung alle für und wieder beider Chips gegeneinander abgewägt und dann gekauft.

Aber nie, weil auf dem Chip nV oder ATI draufstand.....

Bei vielen anderen sieht das allerdings oft ganz anders aus.....


2 Karten mit 128bit MI und 128 MB Ram zum Preis einer (6.800Gt) mit 256/256? Inwiefern ist diese Kombination sinnvoller?

Ich habe nicht von Sinnvoll gesprochen....aber du kannst für 150Euro um genau das aufrüsten, was du schon im Rechner hast und musst nicht das doppelte Ausgeben nur damit sich die andere Karte deinen gegebenheiten anpasst.

robbitop
2005-06-06, 10:42:42
Hallo,

das stimmt nicht, hier ist einer der Roten! MVPU/Crossfire ist schon länger in der Entwicklung gewesen, wir haben z.B. halt ersteinmal gewartet bis wir 100% der Games unterstützen können und nicht nur 2,5 % von 3.000 Game-Titeln.

Weiterhin ist es sehr wichtig für uns, das alle X8xx-Modelle Crossfire können, X850 CF und X850Pro/XT/etc und der Gamer die frei Wahl hat.

Unsere Lösung ist wesentlich EINFACHER zu realisieren als SLI!

Grüsse

Ist klar, dass ein ATI Mitarbeiter soetwas sagt. Solche Aussagen sind biased und IMO zurechtgedreht. NVIDIA würde über SLI vermutlich das Gleiche sagen. Fragt man direkt beim Hersteller wird immer alles so dargestellt, dass es für ihn am Besten aussieht :rolleyes:

Gast
2005-06-06, 10:43:26
Ich habe nicht von Sinnvoll gesprochen....aber du kannst für 150Euro um genau das aufrüsten, was du schon im Rechner hast und musst nicht das doppelte Ausgeben nur damit sich die andere Karte deinen gegebenheiten anpasst.
Falls es nicht sinnvoll ist, ist es egal ob du 150 oder 250 Eur weggibst, das Geld ist zum Fenster rausgeworfen. Wenn du deine alte 6.600Gt fuer 150 verkaufst und mit den gesparten 150 eine 6.800 Gt kaufst hast du mehr. Egal ob SLI oder Crossfire, einen reellen Mehrwert hast du in beiden Faellen nur wenn du das Resultat mit einer Single Karte nicht erreichen kannst (sei es Leistung pur, oder P/L maessig).

Gast
2005-06-06, 10:48:25
für 150+150 EUR gibt's ne 6800u. :)

ShadowXX
2005-06-06, 10:54:23
Falls es nicht sinnvoll ist, ist es egal ob du 150 oder 250 Eur weggibst, das Geld ist zum Fenster rausgeworfen. Wenn du deine alte 6.600Gt fuer 150 verkaufst und mit den gesparten 150 eine 6.800 Gt kaufst hast du mehr. Egal ob SLI oder Crossfire, einen reellen Mehrwert hast du in beiden Faellen nur wenn du das Resultat mit einer Single Karte nicht erreichen kannst (sei es Leistung pur, oder P/L maessig).

Nur das du für eine gebrauchte 6600GT keine 150Euro mehr bekommst.

Aber im Prinzip hast du recht.....es ist bei nV genauso unsinnig sich eine zweite 6600GT zu holen, wie bei ATI sich eine x800 Crossfire zu einer x800 bzw. x800Pro zu holen (IMHO natürlich). Ausser das du bei ATI mehr Geld dafür ausgibst.

Bei nV gibt es im Prinzip nur eine interesante Frage: was ist sinniger. 2x6800GT oder lieber gleich einen G70.

Wenn man jetzt eine 6800Ultra hat, wirds wohl zur Geschmackssache (ausser im G70 ist noch irgendetwas dabei, was extrem besonders ist, was ich wiederum nicht glaube).

Bei ATI lohnt sich Crossfire IMHO nur bei der x850 Crossfire + x850xt(pe).

Wobei dann immer noch die Frage bleibt, in wie weit ATI Crossfire wirklich "verkaufen" will und in wie weit das ganze nicht vielleicht doch nur ein Marketingsschachzug ist.

Die ATI-Fraktion geht ja immer noch davon aus, das die r520 spätenstens 1 Monat nach dem G70 kommt.....das wäre dann quasi gleichzeitig mit dem kaufbaren erscheinen von Crossfirekarten für die x8x0-Serie.

ATI wird dann anfangen extremen Werberummel für die r520 und deren SM3.0/HDR Fähigkeiten zu machen.....was glaubst du, was der durchschnittliche ATI-Benutzer dann eher kaufen wird??

Ernsthaft gesagt, nehme ich Crossfire für die x8x0-Karten nicht ganz so ernst....interesannt wirds wohl mit 2xr520.

Ausser....ein sehr grosses ausser....der r520 kommt doch wesentlich später, als von den meisten Erwartet (aber wenn man sowas von sich gibt, wird das ja immer gleich als Blödsinn verschrien)

Gast
2005-06-06, 11:00:16
Nur das du für eine gebrauchte 6600GT keine 150Euro mehr bekommst.

Aber im Prinzip hast du recht.....es ist bei nV genauso unsinnig sich eine zweite 6600GT zu holen, wie bei ATI sich eine x800 Crossfire zu einer x800 bzw. x800Pro zu holen (IMHO natürlich). Ausser das du bei ATI mehr Geld dafür ausgibst.

Bei nV gibt es im Prinzip nur eine interesante Frage: was ist sinniger. 2x6800GT oder lieber gleich einen G70.

Wenn man jetzt eine 6800Ultra hat, wirds wohl zur Geschmackssache (ausser im G70 ist noch irgendetwas dabei, was extrem besonders ist, was ich wiederum nicht glaube).

Bei ATI lohnt sich Crossfire IMHO nur bei der x850 Crossfire + x850xt(pe).

Wobei dann immer noch die Frage bleibt, in wie weit ATI Crossfire wirklich "verkaufen" will und in wie weit das ganze nicht vielleicht doch nur ein Marketingsschachzug ist.

Die ATI-Fraktion geht ja immer noch davon aus, das die r520 spätenstens 1 Monat nach dem G70 kommt.....das wäre dann quasi gleichzeitig mit dem kaufbaren erscheinen von Crossfirekarten für die x8x0-Serie.

ATI wird dann anfangen extremen Werberummel für die r520 und deren SM3.0/HDR Fähigkeiten zu machen.....was glaubst du, was der durchschnittliche ATI-Benutzer dann eher kaufen wird??

Ernsthaft gesagt, nehme ich Crossfire für die x8x0-Karten nicht ganz so ernst....interesannt wirds wohl mit 2xr520.

Ausser....ein sehr grosses ausser....der r520 kommt doch wesentlich später, als von den meisten Erwartet (aber wenn man sowas von sich gibt, wird das ja immer gleich als Blödsinn verschrien)
Mit dieser Aussage kann ich leben, mit dem kleinen Vorteil den SAA bei Ati noch bietet, und fuer entsprechende Liebhaber eine Kombi X800XL/Crossfire noch interessant machen kann.

ShadowXX
2005-06-06, 11:25:41
Mit dieser Aussage kann ich leben, mit dem kleinen Vorteil den SAA bei Ati noch bietet, und fuer entsprechende Liebhaber eine Kombi X800XL/Crossfire noch interessant machen kann.

Durchaus......für den einen oder anderen kann Crossfire durchaus interesannt sein, speziell wegen den SuperAA-Modi.

Das streite ich auch gar nicht ab und sehe dies auch als größtes Plus von ATI im "MVP/SLI-Wettstreit" an.

Hauwech
2005-06-06, 13:33:36
Durchaus......für den einen oder anderen kann Crossfire durchaus interesannt sein, speziell wegen den SuperAA-Modi.

Das streite ich auch gar nicht ab und sehe dies auch als größtes Plus von ATI im "MVP/SLI-Wettstreit" an.

Allerdings besitzt das imho auch nur Wert bei hohen Auflösungen. 1280x1024 dürfte die absolute Untergrenze sein wo es visuell überhaupt noch was bringt.

Grestorn
2005-06-06, 13:35:32
Allerdings besitzt das imho auch nur Wert bei hohen Auflösungen. 1280x1024 dürfte die absolute Untergrenze sein wo es visuell überhaupt noch was bringt.Widerspruch! Super-AA, also ein Supersampling Anteil, bringt in jeder Auflösung eine enorme Bildverbesserung.

Je mehr SS desto besser.

Gast
2005-06-06, 13:37:20
Allerdings besitzt das imho auch nur Wert bei hohen Auflösungen. 1280x1024 dürfte die absolute Untergrenze sein wo es visuell überhaupt noch was bringt.
?? Je geringer die Aufloesung und je groesser der Bildschirm, desto hoeher der Effekt.

ShadowXX
2005-06-06, 13:38:13
Allerdings besitzt das imho auch nur Wert bei hohen Auflösungen. 1280x1024 dürfte die absolute Untergrenze sein wo es visuell überhaupt noch was bringt.

Wie Grestorn schon sagte, das ist ein wiederspruch in sich.

AA-Modi sollen ja gerade dafür da sein auch bei niedrigeren Auflösungen schöne "Bilder" zu liefern.

Hauwech
2005-06-06, 13:49:01
Widerspruch! Super-AA, also ein Supersampling Anteil, bringt in jeder Auflösung eine enorme Bildverbesserung.

Je mehr SS desto besser.

Ich bin jetzt aber von dem MSAA Anteil ausgegangen. Das mit dem SS Anteil ist mir schon klar, allerdings bezieht sich mein Posting eher auf die Anzahl der Pixel, speziell bei einem TFT.

Um es mal extrem zu machen, bei einem 800x600 TFT kannst du noch soviel MSAA und SSAA, egal ob SG oder RG oder OG reinhauen, es sieht irgendwann einfach nicht mehr besser aus weil einfach "zu wenig" Pixel da sind. Auch bei 1024x768 wird es irgendwo eng.

Zumindest 16x12 TFTs dürften aufgrund des Preises nicht sehr verbreitet sein. Bei CRTs, dank ebay ;), könnte die Situation schon anders aussehen.

Im Endeffekt läuft es wieder auf Auflösung vs. AA/AF hinaus.

Edith: Vor allem darf man ja nicht vergessen, sofern der Unterbau einigermaßen stimmt, das Leute, die sich SLI/MVPU holen, nicht gerade in niedrigen Auflösungen spielen dürften. Hängt natürlich vom Spiel und vom Treiber ab.

Crushinator
2005-06-06, 13:57:27
Widerspruch! Super-AA, also ein Supersampling Anteil, bringt in jeder Auflösung eine enorme Bildverbesserung.
Supersampling bewirkt auch Unschärfe. Letztere ist demnach nur bedingt eine enorme Bildverbesserung.
Je mehr SS desto besser.
Meiner Meinung nach eher andersrum, sprich bloß nicht zuviel davon bitte. ;(

Grestorn
2005-06-06, 13:58:29
Ich bin jetzt aber von dem MSAA Anteil ausgegangen. Das mit dem SS Anteil ist mir schon klar, allerdings bezieht sich mein Posting eher auf die Anzahl der Pixel, speziell bei einem TFT.
Aber die "Super-AA"-Technik unterscheidet sich ja ausschließlich durch ihren Supersampling Anteil von bisherigen, reinen MSAA-Techniken.

Außerdem stimmt die Aussage auch für reines MSAA nicht. MSAA beseitigt die "Zacken" an den Polygon-Rändern.

Für die gilt: Je geringer die Auflösung, desto besser sind die Alias-Zacken zu sehen. Aber auch bei hoher Aufllösung, wenn die Zacken zugegebenermaßen beim stehenden Bild nicht mehr so deutlich - da kleiner - sind, werden sie spätestens durch die Bewegung wieder sehr auffällig: Die Zacken bewegen sich nämlich immer völlig unabhängig vom Rest des Bildes und sind für das menschliche Empfinden deswegen ein Störfaktor.

Grestorn
2005-06-06, 14:01:06
Supersampling bewirkt auch Unschärfe. Letztere ist demnach nur bedingt eine enorme Bildverbesserung.Unschärfe? Wie denn das? Wenn für das Supersampling in jeder Richtung 2er Potenzen als Faktoren (2x, 4x, 8x usw.) verwendet werden, kann es beim Downsampling doch gar nicht zu Unschärfen kommen, zumindest nicht bei OG SS (bei anderen Anordnungen mag das anders sein).

Meiner Meinung nach eher andersrum, sprich bloß nicht zuviel davon bitte. ;(Abgesehen von der Performance: Was hast Du gegen SS?

Crushinator
2005-06-06, 14:02:46
(...) Abgesehen von der Performance: Was hast Du gegen SS?
Ich hasse zu weiche Bilder. Davon bekomme ich u.A. Kopfschmerzen. ;(

Hauwech
2005-06-06, 14:11:31
Aber die "Super-AA"-Technik unterscheidet sich ja ausschließlich durch ihren Supersampling Anteil von bisherigen, reinen MSAA-Techniken.

Außerdem stimmt die Aussage auch für reines MSAA nicht. MSAA beseitigt die "Zacken" an den Polygon-Rändern.

Für die gilt: Je geringer die Auflösung, desto besser sind die Alias-Zacken zu sehen. Aber auch bei hoher Aufllösung, wenn die Zacken zugegebenermaßen beim stehenden Bild nicht mehr so deutlich - da kleiner - sind, werden sie spätestens durch die Bewegung wieder sehr auffällig: Die Zacken bewegen sich nämlich immer völlig unabhängig vom Rest des Bildes und sind für das menschliche Empfinden deswegen ein Störfaktor.

Ist schon alles richtig, allerdings spielt einer der SLI/MVPU besitzt eher nicht in niedrigen Auflösungen, es sei denn, er ist zB durch den Bildschirm, eine 'langsame' CPU limitiert oder das Spiel kann nicht mehr als zB 1280x1024.

Ja, die Zacken sind kleiner, allerdings mit steigender Auflösung nimmt doch imho der Effekt von MSAA immer mehr ab; sprich bei 16x12 und höher muss man doch eh schon mit der Lupe nach Unterschieden zwischen zB 4xAA und 6xAA suchen.

Natürlich muss die Grafikkarte wegen der höheren Auflösung mehr rechnen was allerdings für moderne Grafikkarten, ausgenommen natürlich die ganz kleinen, eigentlich kein Problem mehr darstellen sollte. Je nach Alter des Spiels langweiligen sich heutzutage doch eh schon CPU/Graka und man kann allen möglichen Krempel anschalten, und das nur mit einer Karte.

Grestorn
2005-06-06, 14:12:08
Ich hasse zu weiche Bilder. Davon bekomme ich u.A. Kopfschmerzen. ;(
Supersampling macht ein Bild nicht weich.

Ich hasse z.B. ClearType und wie die alle heißen. Die Schrift "blurt" durch diese Technik. Ich denke, diesen Effekt meinst Du.

Supersampling macht das aber nicht. Ein Text, der in doppelter Auflösung gerendert wird (also wenn der T-Strich normalerweise ein Pixel breit wäre, wird er mit 2 Pixel gerendert) und das dann wieder auf die original Auflösung downgesamplet wird, wird wieder zu einem Pixel.

Es kommen höchsten ein paar Füllpixel in gemischter Farbe hinzu, an denen der Buchstabe nicht auf die ursprüngliche Auflösung korrekt gesamplet werden konnte, also eigentlich Pixel fehlen würden. Das sollte aber bei Spielen nicht vorkommen, denn dann wäre die Lesbarkeit (ohne AA) extrem schlecht.

Kann es sein, dass Du noch die Effekte, die das Voodoo-AA auf manche Spiele hatte (da es gedreht war und deswegen in einigen Fällen die Schrift total unleserlich machte), im Kopf hast?

ShadowXX
2005-06-06, 14:18:18
Supersampling macht ein Bild nicht weich.

Ich hasse z.B. ClearType und wie die alle heißen. Die Schrift "blurt" durch diese Technik. Ich denke, diesen Effekt meinst Du.

Supersampling macht das aber nicht. Ein Text, der in doppelter Auflösung gerendert wird (also wenn der T-Strich normalerweise ein Pixel breit wäre, wird er mit 2 Pixel gerendert) und das dann wieder auf die original Auflösung downgesamplet wird, wird wieder zu einem Pixel.

Es kommen höchsten ein paar Füllpixel in gemischter Farbe hinzu, an denen der Buchstabe nicht auf die ursprüngliche Auflösung korrekt gesamplet werden konnte, also eigentlich Pixel fehlen würden. Das sollte aber bei Spielen nicht vorkommen, denn dann wäre die Lesbarkeit (ohne AA) extrem schlecht.

Kann es sein, dass Du noch die Effekte, die das Voodoo-AA auf manche Spiele hatte (da es gedreht war und deswegen in einigen Fällen die Schrift total unleserlich machte), im Kopf hast?

Das Problem bei der Sache ist nun, das das ATI-Super-AA ein RGSS ist...

Grestorn
2005-06-06, 14:21:32
Ja, die Zacken sind kleiner, allerdings mit steigender Auflösung nimmt doch imho der Effekt von MSAA immer mehr ab; sprich bei 16x12 und höher muss man doch eh schon mit der Lupe nach Unterschieden zwischen zB 4xAA und 6xAA suchen.
Wie schon geschrieben: Das gilt nur für stehende Bilder und Screenshots.

Bei Bewegung fallen die Zacken fast genauso schlimm ins Auge, wie bei der geringen Auflösung. Selbst bei 1600x1200.

Nicht umsonst verzichte ich (selbst bei meinem System) lieber auf 1600x1200 und schalte dafür MSAA ein.

HL2 bricht in einigen Szenen z.B. sogar mit SLI ein, wenn ich Supersampling (8xS) zuschalte, Da das Spiel dann intern mit 2480x1024 gerendert werden muss, und das ist auch für ein SLI System - in einigen Szenen wohlgemerkt - zu viel. Es gibt also noch viel Luft für moderne Grafikkarten und SLI Systeme. Gerade wo doch HL2 Supersampling so gut brauchen kann, gell aths? :)

Crushinator
2005-06-06, 14:27:29
(...) Kann es sein, dass Du noch die Effekte, die das Voodoo-AA auf manche Spiele hatte (da es gedreht war und deswegen in einigen Fällen die Schrift total unleserlich machte), im Kopf hast?
Nein, ich habe eher 4x SSAA auf einem GF6600 GT im Kopf.

robbitop
2005-06-06, 14:30:49
@grestorn

genügt dir der zweifache Supersamplinganteil in Richtung der Y Achse? Genügt es, um AT Flimmern und Moiré deutlich zu reduzieren? Denn es gibt immerhin keinen Oversamplinganteil in Richtung X Achse.

Grestorn
2005-06-06, 14:30:54
Nein, ich habe eher 4x SSAA auf einem GF6600 GT im Kopf.
Kannst Du das mit einem Screenshot belegen? Ich kann mir beim besten Willen nicht vorstellen, wie OGSS in der Lage sein soll, eine Unschärfe reinzubringen...

Grestorn
2005-06-06, 14:33:48
@grestorn

genügt dir der zweifache Supersamplinganteil in Richtung der Y Achse? Genügt es, um AT Flimmern und Moiré deutlich zu reduzieren? Denn es gibt immerhin keinen Oversamplinganteil in Richtung X Achse.
Es reduziert deutlich, ob es genügt hängt vom Spiel ab. Bei Gothic ist selbst bei 2x2 SS noch ein deutliches Flimmern der Vegetation sichtbar. Erst bei 4x4 ist es ruhig (aber unspielbar).

Verdoppelt 8xS in Y-Richtung? Mist, ich verwechsle das immer wieder... und mir sollte das eigentlich nicht passieren... :redface:

Gast
2005-06-06, 15:05:03
Supersampling bewirkt auch Unschärfe. Letztere ist demnach nur bedingt eine enorme Bildverbesserung.



supersampling erzeugt keine unschärfe, im gegenteil, wenn man das LOD entsprechend anpasst wird das bild sogar schärfer.

unschärfe erzeugt nur quincux und diverse performance-modi des R200

deekey777
2005-06-06, 15:15:25
supersampling erzeugt keine unschärfe, im gegenteil, wenn man das LOD entsprechend anpasst wird das bild sogar schärfer.

unschärfe erzeugt nur quincux und diverse performance-modi des R200

Ich glaub, er meinte zB das HUD kann durch das SSAA extrem weichgezeichnet werden, zB mit DX Tweakers 4xSSAA+HL2 wird das HUD extrem weich, was auf die Dauer für die augen sehr ermüdend wirkt.

Grestorn
2005-06-06, 15:31:06
Ich glaub, er meinte zB das HUD kann durch das SSAA extrem weichgezeichnet werden, zB mit DX Tweakers 4xSSAA+HL2 wird das HUD extrem weich, was auf die Dauer für die augen sehr ermüdend wirkt.Welches HUD?

Ist das evtl. ein Effekt von DX Tweaker? Ich kann nicht behaupten, überhaupt einen Unterschied im HUD zu sehen.

Wenn man mal das HUD von HL 2 auf diesen Shots (www.nhancer.com/help/AAPres.php) vergleicht, sehe ich 0 Unterschied (wobei das HL2 HUD vielleicht auch nicht so toll geeignet ist).

MarcWessels
2005-06-06, 15:33:35
Eien Zwischendurchfrage mal zum ATI MVP:

Hat es dieselben Schwierigkeiten wie nVidias SLI, also in kaum einem Spiel die Möglichkeit, mit VSyncOn zu zocken?

robbitop
2005-06-06, 15:35:11
Es reduziert deutlich, ob es genügt hängt vom Spiel ab. Bei Gothic ist selbst bei 2x2 SS noch ein deutliches Flimmern der Vegetation sichtbar. Erst bei 4x4 ist es ruhig (aber unspielbar).


Ein guter Grund, dir ein G70 (oder später G80) SLI System zu gönnen (und uns deine Erfahrungen zukommen zu lassen). ;)

Crushinator
2005-06-06, 15:39:59
Kannst Du das mit einem Screenshot belegen? Ich kann mir beim besten Willen nicht vorstellen, wie OGSS in der Lage sein soll, eine Unschärfe reinzubringen...
Sorry, hab' gerade keinen Rechner mit entsprechender Karte zur Hand. Habe aber was gefunden, was in etwa (Siehe Schrift) verdeutlicht, was ich meine:

Quelle: nVidia GeForce 6800 Ultra (NV40) Review (http://www.3dcenter.de/artikel/nv40_benchmarks/index6.php)

16 x OGSS (4x4)

http://www.3dcenter.de/images/nv40_benchmarks/aa-test_68_d3d_aa_reg0c.png

deekey777
2005-06-06, 15:41:35
Welches HUD?

Ist das evtl. ein Effekt von DX Tweaker? Ich kann nicht behaupten, überhaupt einen Unterschied im HUD zu sehen.

Wenn man mal das HUD von HL 2 auf diesen Shots (www.nhancer.com/help/AAPres.php) vergleicht, sehe ich 0 Unterschied (wobei das HL2 HUD vielleicht auch nicht so toll geeignet ist).

http://img135.exs.cx/my.php?loc=img135&image=ssaa8vi.jpg
http://img235.exs.cx/my.php?loc=img235&image=4xmsaa0dv.jpg
Bzw.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2845974&postcount=269

Oder verstehen wir unter HUD was anderes? :confused:

Ich hoffe, dieses Posting sieht nicht aus wie von einem Klugscheißer geschrieben!

reunion
2005-06-06, 16:12:24
Das Problem bei der Sache ist nun, das das ATI-Super-AA ein RGSS ist...


Dieses Problem ist maximal theoretischer Natur.

Grestorn
2005-06-06, 16:48:29
Hm. Ich kann diesen Effekt, den dieser Shot zeigt, in keinem einzigen Spiel nachvollziehen.

Und ich kann auch nicht erklären, wieso das downsampling eine solch unscharfe Schrift erzeugen sollte. Teile der Schrift sieht so aus, als wäre nur ein Pixel auf einen "halben" Pixel heruntergesamplet worden. Und warum sollte das passieren?

aths
2005-06-06, 18:32:53
Supersampling macht ein Bild nicht weich.

Ich hasse z.B. ClearType und wie die alle heißen. Die Schrift "blurt" durch diese Technik. Ich denke, diesen Effekt meinst Du. ClearType blurrt nicht. Die Ränder die ClearType erzeugt, sind "richtig". Supersampling und ClearType sind sogar einigermaßen vergleichbar, nur ClearType nutzt eben die RGB-Element-Anordnung eines üblichen LC-Monitors noch aus, um das Ergebnis zu verbessern. Normale Fonts in Spielen werden durch Supersampling oft verschandelt. Das hängt aber von der konkreten Programmierung ab, in WoW z. B. war es früher und ist es jetzt ok, beim Patch 1.3 (glaub ich) hatten die aber Mist gebaut so dass die Schrift voll unscharf war. Wenn du in Word einen Screenshot machst sagen wir mit einer Schrift mit 12 pt Größe, den gleichen Text dann auf 24 pt formatierst und den Screenshot auf 50% herunterskalierst, hast du den Supersampling-Effekt.

Grestorn
2005-06-06, 18:58:29
ClearType blurrt nicht. Die Ränder die ClearType erzeugt, sind "richtig". Supersampling und ClearType sind sogar einigermaßen vergleichbar, nur ClearType nutzt eben die RGB-Element-Anordnung eines üblichen LC-Monitors noch aus, um das Ergebnis zu verbessern. Normale Fonts in Spielen werden durch Supersampling oft verschandelt. Das hängt aber von der konkreten Programmierung ab, in WoW z. B. war es früher und ist es jetzt ok, beim Patch 1.3 (glaub ich) hatten die aber Mist gebaut so dass die Schrift voll unscharf war. Wenn du in Word einen Screenshot machst sagen wir mit einer Schrift mit 12 pt Größe, den gleichen Text dann auf 24 pt formatierst und den Screenshot auf 50% herunterskalierst, hast du den Supersampling-Effekt.
Das Prinzip von ClearType ist mir klar. Aus irgendeinem Grund versucht mein Auge das ständig schärfer zu fokussieren und auf die Dauer empfinde ich das anstrengend. Bei Spielen, auch mit SS, hatte ich dieses Problem aber noch nie.

Ich höre was Du sagst bzgl. der konkreten Programmierung... allein, es fehlt mir das Verständnis.

Was kann man denn bei einem Vektorfont falsch und richtig machen? Außer dass der Font ungeeignet (zu groß) für eine bestimme Auflösung sein kann... aber das sieht auch ohne SS scheiße aus.

aths
2005-06-06, 19:05:08
Das Prinzip von ClearType ist mir klar. Aus irgendeinem Grund versucht mein Auge das ständig schärfer zu fokussieren und auf die Dauer empfinde ich das anstrengend. Bei Spielen, auch mit SS, hatte ich dieses Problem aber noch nie.

Ich höre was Du sagst bzgl. der konkreten Programmierung... allein, es fehlt mir das Verständnis.

Was kann man denn bei einem Vektorfont falsch und richtig machen?Die Frage ist, wann der gerendert wird.

Ohne ClearType will ich nichts mehr lesen. Du kannst per PowerToy die Gamma-Korrektur fürs Downsampling ändern. http://www.microsoft.com/typography/ClearTypePowerToy.mspx

ShadowXX
2005-06-06, 19:29:51
Die Frage ist, wann der gerendert wird.

Ohne ClearType will ich nichts mehr lesen. Du kannst per PowerToy die Gamma-Korrektur fürs Downsampling ändern. http://www.microsoft.com/typography/ClearTypePowerToy.mspx

Kann es sein, das ClearType mit manchen TFTs nicht so gut "funktioniert"??

Weil bei mir siehts mit ClearType wesentlich schlechter aus als mit....es ist als wenns auseinandergezogen und dabei leicht geblurrt ist....

aths
2005-06-06, 19:52:03
Kann es sein, das ClearType mit manchen TFTs nicht so gut "funktioniert"??

Weil bei mir siehts mit ClearType wesentlich schlechter aus als mit....es ist als wenns auseinandergezogen und dabei leicht geblurrt ist....Probier das verlinkte PowerToy aus. Damit solltest du eine Einstellung finden, die auch bei dir gute Ergebnisse liefert.

sloth9
2005-06-30, 22:00:04
Sollte man die X800- u. X850-Xfire-Karten nicht komplett einstampfen?

Kommen werden sie wohl erst im Sept.; nur dann erscheint bereits der 520, dessen Xfire-Variante ja auch angedacht ist.
Und der G70 inkl. SLI ist bereits verfügbar.

Da auch die XFire-MoBos noch nicht im Handel sind, lautet mein Fazit nur:

Xfire auf X800-/X850-Basis ist Müll und Kundenverarsche, um Leute von SLI abzuhalten.

deekey777
2005-06-30, 22:06:22
Die Boards kommen Mitte Juli, die CrossFire-Grafikkarten sollen im August kommen, wie es offziell gesagt wurde. Ja, alles Kundenverarsche...

dildo4u
2005-06-30, 22:10:09
Die Boards kommen Mitte Juli, die CrossFire-Grafikkarten sollen im August kommen, wie es offziell gesagt wurde. Ja, alles Kundenverarsche...
Ohne SM3.0 ohne SSAA wo soll man die Ganze leistung von 2 X850XT denn sinnvoll verwerten in so fern ist es schon Kundenverrasche und Benchmark Hatz sonst nix meiner Meinung nach.

deekey777
2005-06-30, 22:12:41
Ohne SM3.0 ohne SSAA wo soll man die Ganze leistung von 2 X850XT denn sinnvoll verwerten in so fern ist es schon Kundenverrasche und Benchmark Hatz sonst nix meiner Meinung nach.

Ach komm jetzt, das ist doch absoluter Quatsch!
Es gibt Leute, die so etwas nicht interessiert, und sie werden sich ein CrossFire-System aufbauen.

mapel110
2005-06-30, 22:51:42
Ohne SM3.0 ohne SSAA wo soll man die Ganze leistung von 2 X850XT denn sinnvoll verwerten in so fern ist es schon Kundenverrasche und Benchmark Hatz sonst nix meiner Meinung nach.
Crossfire bietet doch diesen Qualitätsmodus mit 2xSupersampling.

dildo4u
2005-06-30, 22:52:46
Crossfire bietet doch diesen Qualitätsmodus mit 2xSupersampling.
Laut PCGH wird das SSAA nur simuliert echtes SSAA ist das auch nicht.

mapel110
2005-06-30, 22:53:24
Laut PCGH wird das SSAA nur simuliert echtes SSAA ist das auch nicht.
Der optische Eindruck soll der gleiche sein.

robbitop
2005-06-30, 23:21:37
Laut PCGH wird das SSAA nur simuliert echtes SSAA ist das auch nicht.
Das ist aber dennoch nicht korrekt.

sloth9
2005-07-01, 03:54:26
Die Boards kommen Mitte Juli, die CrossFire-Grafikkarten sollen im August kommen, wie es offziell gesagt wurde. Ja, alles Kundenverarsche...

Also habe ich Recht: Wenn ATI sagt, die GraKas kommen im August, dann werden sie en Gros im September zu erwerben sein.

Leute, die firmenunabhängig kaufen, haben dann mehr davon ihre X800 zu verticken und sich ne moderne G70 zu holen, oder sie warten einen Monat auf den R520.

ATI-Jünger werden werden IMHO eh auf den R520 warten.

Also nochmal: Wer sollte sich ein R420-Crossfire kaufen, wenn nach einem Monat der R520 mit PS3.0 erscheint, der ja durchaus so schnell wie 2 R420 ist?

Für mich ist Xfire auf R420 eine peinliche Totgeburt, die keinen Sinn ergibt; nicht so kurz vor dem Launch des R520.
ATI braucht das nur, weil sie im Moment der Benschmarklooser sind, kaufen wird das - für einen Monat - kaum einer.

mapel110
2005-07-01, 04:09:36
Der Crossfire-Launch hat imo zusammen mit dem Treiberausblick einfach nur dafür gesorgt, dass man neben dem G70 auch mal über ATI gesprochen hat. Viel mehr Sinn sehe ich in beiden Aktionen nicht.

Ailuros
2005-07-01, 04:52:41
Also nochmal: Wer sollte sich ein R420-Crossfire kaufen, wenn nach einem Monat der R520 mit PS3.0 erscheint, der ja durchaus so schnell wie 2 R420 ist?

Woher kommt denn um Gottes Willen dieses Zeug schon wieder her?

Genauso Bloedsinn wie wenn man momentan behaupten wuerde dass G70= 2*NV40. Selbst wenn man solche Faelle ausfindig machen koennte momentan, liegt das eher im bis zu Bereich. Realistischer gesehen liegt der Unterschied eigentlich bei 30-50% im Durchschnitt, und dieser ist absolut wuerdig fuer einen Refresh.

deekey777
2005-07-01, 11:04:03
Also habe ich Recht: Wenn ATI sagt, die GraKas kommen im August, dann werden sie en Gros im September zu erwerben sein.

Leute, die firmenunabhängig kaufen, haben dann mehr davon ihre X800 zu verticken und sich ne moderne G70 zu holen, oder sie warten einen Monat auf den R520.

ATI-Jünger werden werden IMHO eh auf den R520 warten.

Also nochmal: Wer sollte sich ein R420-Crossfire kaufen, wenn nach einem Monat der R520 mit PS3.0 erscheint, der ja durchaus so schnell wie 2 R420 ist?

Für mich ist Xfire auf R420 eine peinliche Totgeburt, die keinen Sinn ergibt; nicht so kurz vor dem Launch des R520.
ATI braucht das nur, weil sie im Moment der Benschmarklooser sind, kaufen wird das - für einen Monat - kaum einer.

So wie du schreibt, ist für dich alles eine peinliche Totgeburt, was von ATi kommt.
Gruß von einem ATi-Jünger...

Crushinator
2005-07-01, 11:19:31
(...) Für mich ist Xfire auf R420 eine peinliche Totgeburt, die keinen Sinn ergibt; nicht so kurz vor dem Launch des R520.
Nein, eben nicht zwingend. Wenn jemand vor hat über kurz oder lang auf Multi-Karten umzusteigen, bereits eine X800 XT oder ähnliches besitzt, das Geld aber nicht mehr ausreicht, um gleich 600,- für eine neue GraKa á la R520 hinzulegen, macht es Sinn schon mal ein MVP-Board zu kaufen und dazu ggf. eine Masterkarte vom Kaliber eines R420/R430. Wenn man damit in ähnliche Leistungsregionen kommt wie mit einer zukünftigen R520, warum nicht?

ShadowXX
2005-07-01, 11:27:59
Nein, eben nicht zwingend. Wenn jemand vor hat über kurz oder lang auf Multi-Karten umzusteigen, bereits eine X800 XT oder ähnliches besitzt, das Geld aber nicht mehr ausreicht, um gleich 600,- für eine neue GraKa á la R520 hinzulegen, macht es Sinn schon mal ein MVP-Board zu kaufen und dazu ggf. eine Masterkarte vom Kaliber eines R420/R430. Wenn man damit in ähnliche Leistungsregionen kommt wie mit einer zukünftigen R520, warum nicht?

Weil Motherboard + r480xt MasterCard wohl das gleiche wie ein r520 kosten werden??

DrFreaK666
2005-07-01, 11:30:54
Weil Motherboard + r480xt MasterCard wohl das gleiche wie ein r520 kosten werden??

Aber Motherboard + R520 ist gleich viel teuerer

Crushinator
2005-07-01, 11:32:19
Weil Motherboard + r580xt MasterCard wohl das gleiche wie ein r520 kosten werden??
Ich weiß nicht, wie Du zu dieser Schlußfolgerung kommst, wenn ich explizit von Beibehaltung der vorhandenen R4xx-Karte sprach.

MoBo + R4xx Masterkarte wird wohl kaum gleich viel Kosten wie Mobo + R5xx Masterkarte.

Gast
2005-07-01, 13:10:25
Also nochmal: Wer sollte sich ein R420-Crossfire kaufen, wenn nach einem Monat der R520 mit PS3.0 erscheint, der ja durchaus so schnell wie 2 R420 ist?



niemand soll sich das ding kaufen, das ziel der sache ist einfach in prestigeträchtigen benchmarks wieder die absolute leistungskrone zu erhalten, was aber auch nach hinten losgegangen ist, da man heute schon mehr leistung in der form von 2 g70-karten kaufen kann, crossfirekarten aber praktisch für den enduser noch nicht existieren.

MoBo + R4xx Masterkarte wird wohl kaum gleich viel Kosten wie Mobo + R5xx Masterkarte

für was brauchst du für einen R5xx ein neues board?

Crushinator
2005-07-01, 13:22:12
für was brauchst du für einen R5xx ein neues board?
Wenn Du genauer gelesen hättest, hättest Du festgestellt, daß es um eine Mainboard-Aufrüstung von Single auf Multikartenbtrieb ging. ;)

Ailuros
2005-07-01, 14:56:11
Ich behalte meine Schlussvolgerungen vor, bis ich R5xx/Crossfire gesehen habe, denn so wie R4xx kann das wohl schlecht aussehen.

Gast
2005-07-01, 15:39:04
Wenn Du genauer gelesen hättest, hättest Du festgestellt, daß es um eine Mainboard-Aufrüstung von Single auf Multikartenbtrieb ging. ;)

ich habe das so interpretiert, dass 2xR4xx crossfire gegenüber einer einzelnen R520-karte preis/leistungstechnisch vorteile haben könnte.

in dem von dir verlinkten posting ist auch von einer EINZELNEN R520-karte die rede (oder erwartest du dir 600€ für 2 r520-karten ;) )

sloth9
2005-07-01, 17:23:19
Nein, eben nicht zwingend. Wenn jemand vor hat über kurz oder lang auf Multi-Karten umzusteigen, bereits eine X800 XT oder ähnliches besitzt, das Geld aber nicht mehr ausreicht, um gleich 600,- für eine neue GraKa á la R520 hinzulegen, macht es Sinn schon mal ein MVP-Board zu kaufen und dazu ggf. eine Masterkarte vom Kaliber eines R420/R430. Wenn man damit in ähnliche Leistungsregionen kommt wie mit einer zukünftigen R520, warum nicht?

Totaler Blödsinn:

Wenn jemand eine X800 hat, braucht er a) ein neues Motherboard für Xfire und b) ne Xfire-Karte, hat dann viel Geld ausgegeben für technisch völlig veralteten Krams. Nicht vergessen: Ab September wird ATI PS3.0 für die tollste Entwicklung seit des VGA-Standards halten.

Kauft er stattdessen eine R520 einen Monat später und verscheuert seine R420 für gutes Geld, braucht er kein neues Motherboard, spart somit Geld, hat ungefähr dieselbe Performance (aber auch in Spielen, die kein Xfire unterstützen!) und hat (hoffentlich) performantes PS3.0.

Welches Gegenargument gibt es, ausser das man 1 Monat wartet?

Weniger Kosten, etwa gleiche Performance, PS3.0.

Nochmal: Es geht natürchlich um 1 R520 ggenüber 1 R420 + 1 R420 Xfire + neues MoBo.

Je mehr ich drüber nachdenke, umso lächerlicher, wirken die Argumente der Fanboys.

sloth9
2005-07-01, 17:32:34
Wenn Du genauer gelesen hättest, hättest Du festgestellt, daß es um eine Mainboard-Aufrüstung von Single auf Multikartenbtrieb ging. ;)

Eben nicht, wer auf R520 wartet, hat ja ungefähr die Leistung von 2 x R420 (weil 1 G70 = 2 G6 in vielen Spielen), braucht also zunächst kein MVP.

Später kann man natürlich noch aufrüsten.
Das Problem ist doch: 2 R420 sind nicht/kaum schneller als 1 G70/R520, haben kein PS3.0 (ein solche Investition sollte doch mehr als 1 Jahr halten imho), brauchen mehr Saft, und MVP-Boards müssen auch noch gekauft werden.
Dazu kommt, das ATI-Boards bisher die schlechtesten A64-Boards waren (USB ahoi).

Also: Xfire auf R420 ist dumm, wenn derselbe Hersteller nur einen Monat später eine Single-GraKa vorstellt, die genauso schnell, moderner (PS3.0), stromsparender und kompatibler ist als Xfire auf R420.

Bei R520-Crossfire mag es anders aussehen.

sloth9
2005-07-01, 17:36:42
So wie du schreibt, ist für dich alles eine peinliche Totgeburt, was von ATi kommt.
Gruß von einem ATi-Jünger...

Nö, finde nur das R420-MVP viel zu spät kommt, vom R520 deklassiert wird und die ATI_MoBos im Prfomance-Bereich auch zu spät kommen, die USB-Performance der aktuellen ATI-Boards katapultiert einen doch in die Chipsatz-Steinzeit, wo alles ausser Intel derb zu Wünschen übrig ließ.

sloth9
2005-07-01, 17:38:26
Woher kommt denn um Gottes Willen dieses Zeug schon wieder her?

Genauso Bloedsinn wie wenn man momentan behaupten wuerde dass G70= 2*NV40. Selbst wenn man solche Faelle ausfindig machen koennte momentan, liegt das eher im bis zu Bereich. Realistischer gesehen liegt der Unterschied eigentlich bei 30-50% im Durchschnitt, und dieser ist absolut wuerdig fuer einen Refresh.

Weil in vielen Benchmark der G70 so schnell wie 2 G6 sind, daher. Ab das auf 20% hinhaut, ist was anderes. Aber man sollte auch die Spiele berücksichtigen, die bei SLI/MVP kaum profitieren.

Gast
2005-07-01, 18:53:26
Ich weiß nicht, wie Du zu dieser Schlußfolgerung kommst, wenn ich explizit von Beibehaltung der vorhandenen R4xx-Karte sprach.

MoBo + R4xx Masterkarte wird wohl kaum gleich viel Kosten wie Mobo + R5xx Masterkarte.

Für was brauche ich noch die vorhandene R4xx Karte wenn ich einen R520 bekomme ^^

Damit fällt das Mobo weg vieleicht weg, falls nicht = Wiederverkaufswert der R4xx Karte (sollte min. 120€ und mehr bringen).

deekey777
2005-07-01, 18:55:57
Nö, finde nur das R420-MVP viel zu spät kommt, vom R520 deklassiert wird und die ATI_MoBos im Prfomance-Bereich auch zu spät kommen, die USB-Performance der aktuellen ATI-Boards katapultiert einen doch in die Chipsatz-Steinzeit, wo alles ausser Intel derb zu Wünschen übrig ließ.

Allen Herstellern steht frei, die Southbridge von ULi zu benutzen.
Bei Dual-Karten spielt der rationale Verstand eh eine zweirangige Rolle, sprich, es wird Leute geben, die sich ein CrossFire-System aufbauen werden.

sloth9
2005-07-01, 19:26:28
Allen Herstellern steht frei, die Southbridge von ULi zu benutzen.
Bei Dual-Karten spielt der rationale Verstand eh eine zweirangige Rolle, sprich, es wird Leute geben, die sich ein CrossFire-System aufbauen werden.

Nur weil es ein paar gibt, die alles kaufen, wird ATIs Vorgehen nicht sinniger.
Ich gehe trotzdem davon uas, das R420-Xfire ein Riesenflop wird - time will tell.

Btw: Wenn Du die Wahl hättest: altes MoBo + R520 o. neues MoBo + R420-Xfire, was würdest Du wählen?

sloth9
2005-07-01, 19:27:50
Allen Herstellern steht frei, die Southbridge von ULi zu benutzen.
[..]


Welche auch nicht besser ist, zumindets die bereits verbaute/erhältliche (siehe c't). Manche behaupten, eine der beiden wäre nur umgelabelt...

ShadowXX
2005-07-01, 19:49:36
Ich weiß nicht, wie Du zu dieser Schlußfolgerung kommst, wenn ich explizit von Beibehaltung der vorhandenen R4xx-Karte sprach.

MoBo + R4xx Masterkarte wird wohl kaum gleich viel Kosten wie Mobo + R5xx Masterkarte.

Bei der r5xx könntest du aber dein altes Motherboard behalten....

Crushinator
2005-07-01, 20:27:41
Bei der r5xx könntest du aber dein altes Motherboard behalten....
... und auf zukünftigen Genuß einer Xfire-R5xx Lösung vorerst verzichten. Es kommt natürlich drauf an, ob R5xx ähnliche Leistungen oder noch bessere bringen wird wie R4xx im Doppelpack. Aber auch das "wenn" sagte ich bereits.

Gast
2005-07-01, 22:06:24
... und auf zukünftigen Genuß einer Xfire-R5xx Lösung vorerst verzichten. Es kommt natürlich drauf an, ob R5xx ähnliche Leistungen oder noch bessere bringen wird wie R4xx im Doppelpack. Aber auch das "wenn" sagte ich bereits.


ich glaube dass der R520 bei der veröffentlichung auch alleine stark genug sein wird, und da brauch ich auf keinen fall ein neues mainboard ;)

sloth9
2005-07-01, 22:10:44
... und auf zukünftigen Genuß einer Xfire-R5xx Lösung vorerst verzichten. Es kommt natürlich drauf an, ob R5xx ähnliche Leistungen oder noch bessere bringen wird wie R4xx im Doppelpack. Aber auch das "wenn" sagte ich bereits.

Nö, später kann man ja immer noch eine MoBo kaufen, wenn man möchte, muss aber nicht. Wie gesagt, ich denke, Xfire auf R420 wird mächtig floppen.

reunion
2005-07-04, 18:45:58
Crossfire für X700 + X300?
http://www.hkepc.com/hwdb/atixfcracked-1.htm

seahawk
2005-07-05, 07:52:21
Sollte technisch überhgaupt kein Problem sein. Allerdings erscheint mit ein X300 SLI ziemlich sinnlos.

deekey777
2005-07-23, 01:52:38
ATI CrossFire to support Intel 955X chipsets (http://www.driverheaven.net/#news80007)

ATI Technologies has released CrossFire-compatible dual graphics card drivers to support Intel 955X chipsets, according to sources at motherboard makers. Products supporting ATI’s dual-card graphics solution, including motherboards with CrossFire-enabled 955X chipsets, are scheduled to hit the market in August, noted the makers.

First-tier motherboard makers Asustek Computer and Gigabyte Technology, as well as Intel, are gearing up to introduce new motherboards incorporating a CrossFire-enabled 955x chipset, company sources indicated.

Asustek and Gigabyte declined to comment on the report.

In addition, ATI will introduce two chipsets supporting its dual-card graphics solution, the RD400 for the Intel platform and the RD480 for the AMD edition, motherboard makers indicated.

In related news, motherboard makers have felt rising demand for under-US$60 motherboards, which already account for more than 60% of the market. In contrast, the high-end segment with unit prices of more than US$75 accounts for about 20%, the makers hinted.
Digitimes (http://digitimes.com/mobos/a20050722A6031.html) [/size]

Naja, es gibt aber einen weiteren Chipsatz, der wichtiger sein könnte, als dieser von Intel.

Crossfire
2005-07-28, 09:54:46
ATI CrossFire to support Intel 955X chipsets (http://www.driverheaven.net/#news80007)



Naja, es gibt aber einen weiteren Chipsatz, der wichtiger sein könnte, als dieser von Intel.
Hallo,
Stimmt, ist aber alles nur eine Treiberfrage! ;)
Grüsse
Crossfire

ShadowXX
2005-07-28, 10:06:46
Hallo,
Stimmt, ist aber alles nur eine Treiberfrage! ;)
Grüsse
Crossfire

Ich glaube aber kaum, das Ihr (also ATI) den nForce4 in euren Treibern freischalten werdet...

Crossfire
2005-07-28, 10:17:55
Ich glaube aber kaum, das Ihr (also ATI) den nForce4 in euren Treibern freischalten werdet...
No comment!