PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Anmerkungen zu T&L


aths
2001-10-16, 11:30:31
Einige Dinge kamen vermutlich nicht klar genug rüber. Um die entsprechende Kolumne nun ruhen zu lassen, daher kein Nachtrag-Nachtrag, sondern hier im Forum:

1) In der Theorie ist T&L praktisch, so wie auch MMX in der Theorie praktisch war.

2) Heutzutage ist T&L-Support weiter verbreitet als früher, so wie auch etliche Programme MMX unterstützen.

3) Einen entscheidenen Vorteil hat man trotzdem nur gelegentlich, ebenso wie bei MMX.

4) Unterstützung bedeutet also nicht gleich Ausnutzung.

5) Der Wirbel um das neue Feature war insofern berechtigt, da die GF256 die erste Consumer-3D-Card mit T&L war und mit ihr in diesem Markt tatsächlich eine absolute Neuerung einzog.

6) Für nicht berechtigt halte ich eben den Stellenwert, den T&L dann bekam und Aussagen wie: "Kontra: Kein T&L-Support". Der 3dmark2000 setzte wohl auch deshalb so stark auf T&L, weil die Entwickler annahmen, es würde bald sehr wichtig sein. Hier hat die zu positive Erwartungshaltung das Testergebnis verzerrt.

7) T&L an sich zieht die Bandbreite nicht hoch. Die ungeheuren Polygon-Zahlen, die mit T&L angeblich möglich sein sollten, tun das. Ohne T&L wäre die Bandbreitenanforderung bei diesen Zahlen ebenso gewaltig.

8) T&L wurde auch deshalb bedeutungsloser, weil die (schnellen AMD)-CPUs verdammt preisgünstig sind.

9) Ich führte Diskussionen mit Leuten, die sahen dass eine GTS auf einer bestimmten CPU schneller als eine Voodoo5 ist. Sie folgerten, je schneller die CPU, desto weiter würde die Schere auseinander gehen. Das war einer der Gründe, warum die Geforce im Artikel wiederholt kritisiert wurde. Es ging nicht darum, nVidia nieder zu machen, wie einige glaubten. Sondern ich habe versucht, die Geforce ein wenig zu entzaubern, die ja T&L in "unser" Marktsegment brachte.

10) T&L weder ein must-have-Feature noch völlig nutzlos. Der Nutzen wird für jeden unterschiedlich ausfallen, je nach dem, was er spielt.

11) Einigen, wie ich, sind andere Features wichtiger. Und weil das in meinen Augen eben kein Sakrileg ist, auf T&L zu verzichten (OH GOTT!! T&L braucht man doch!!) und ich diese Diskussionen um die Zukunftsfähigkeit einer Karte leid war, holte ich zum Generalschlag aus :))

StefanV
2001-10-16, 11:49:32
CPUs werden ja auch bewertet, wie sie JETZT Performen...

Wenn jemand in der EDV von zukunftssicher spricht, dann hat er wohl einen an der Waffel...

Denn morgen kann es GAAAANNZ anders kommen...

Rushman
2001-10-16, 12:19:54
Ich kann Stefan Payne nur zustimmen, es gibt kein "zukunftssicher" in der Computer Hardware. IMHO ist aths Punkt 8) einer entscheidensten Gründe für das Scheitern von T&L.

Razor
2001-10-16, 12:52:00
@aths

Finde ich gut, daß Du Deine Aussagen im Nachherein relativierst.
Weiter so !

Wenn man den Artikel gelesen hat, dann ist einem schon mal hochgestoßen, daß dies irgendwie nach einer Hetzkampagne gegen nVidia ausschaut....

Aber wie dem auch sei:
Fakt ist, daß erst jetzt Titel auftauchen (viele erst noch in der Mache), die T&L-Einheiten wirklich 'ausnutzen' könnten. Einen klitze, kleine Ausblick hatte man ja schon Max Payne. So wares die damaligen Aussagen zumindest Scheinbar nicht gerechtfertigt. Aber was wäre gewesen, wenn daraufhin nicht so dermaßen viele GF's verkauft wurden, so daß selbst ATI und Matrox nicht anders reagieren konnten, als T&L im implementieren. Die jetzige (!) Marktlage von verbreiteter T&L-Hardware läßt überhaupt erst das Erscheinen von Titeln zu, die davon auch massiv gebrauch machen...

So ist heute so 70-80% der verbreiteten Hardware in der Lage, T&L in Hardware zu unterstützen (nahezu unabhängig von der CPU). So können sich nun die Spiele-Hersteller auch darauf verlassen, daß neue Games eben auf den meisten Plattformen auch läuft.

@Stefan

Ich habe mir die gf3 zugelegt, weils sie a) ein sehr guter Performer ist und eben b) auch etwas 'Zukunftsfähigkeit mitbringt. 'Zukunftsfähigkeit' hat in der EDV sehr wohl seinen Stellenplatz, aber nicht im Bereich der Home-User...

Wer sich heute noch 'ne Kyro oder eine Voodoo zulegt, muß damit rechnen, daß es in einem halben Jahr Games geben wird, die dann eben nicht mehr 'hübsch' laufen. Bei den anderen Herstellern siehts damit besser aus. Also sollte amn soche Aussagen nicht so extrem Pauschalisieren.

Ist aber wie immer das Problem von Henne und Ei, gell ?
Wie sollen in Zukunft Features in Games angeboten werden, wenn es nicht Heute Hardware gibt, die das dann auch unterstützen kann. Klar könnte man auch in den Wind hinein entwickeln, wäre doch aber vergebene Liebesmüh, wenn's dann keine Hardware gibt, die's dann auch unterstützt.

@Rushman

Gescheitert ist T&L nie...
Ausgenutzt wurde es bisher allerdings kaum. Warten wir also noch ein bischen, und wie werden sehen, daß das schon kommen wird.

Die gfddr kam so vor 2-2,5 Jahren heraus, die Entwicklungszyklen von aufwendigen Games liegt so bei 2-3 Jahren. Also kann man doch gut daran erkennen, daß die Spiele-Designer sogar nocht etwas abgewartet haben (so'n hlabes Jahr ungefähr), bevor sie anfingen, Spiele zu entwickeln, die extensiven Gebrauch von T&L Einheiten machen würden...

***

Also, Leute, ruhig blut und noch etwas Geduld.
"Gut Ding, will Weile haben !"
;-)

In diesem Sinne

Razor

aths
2001-10-16, 18:03:06
Razor: Der Artikel versuchte auch (gerade) im Nachtrag zu erklären, dass exzessiver T&L-Gebrauch nicht allein seelig machend ist.

Ich persönlich z.B. bevorzuge angesichts heutiger Spiele eher Effekte, die füllratenlastig sind. Ich möchte endlich 4 und mehr Texturen pro Dreieck, generelles Bumpmapping, etc...

Meine Hauptkritikpunkte am VSA-100 sind: Kein Bumpmapping ausser Emboss, kein (wenigstens) 2x Loopback. Ansonsten würde ich diesen Chip für nahezu perfekt halten. (Siehe Skalierbarkeit.)

Razor
2001-10-16, 18:13:37
@aths

Allein seeligmachend ist massives T&L sicher nicht, aber zumindest eine von mehreren Möglichkeiten, mehr Detail ins Spiel zu bringen (im wahsten Sinne des Wortes ;-). Ansonsten schließe ich mich Deiner Meinung an, daß man auch anfängt, von den anderen Features massiv Gebrauch zu machen. Aber vielleicht bekommen wir das ja bald...
;-)

In diesem Sinne

Razor

Unregistered
2001-10-17, 05:38:47
Originally posted by aths
Razor: Der Artikel versuchte auch (gerade) im Nachtrag zu erklären, dass exzessiver T&L-Gebrauch nicht allein seelig machend ist.

Ich persönlich z.B. bevorzuge angesichts heutiger Spiele eher Effekte, die füllratenlastig sind. Ich möchte endlich 4 und mehr Texturen pro Dreieck, generelles Bumpmapping, etc...

Meine Hauptkritikpunkte am VSA-100 sind: Kein Bumpmapping ausser Emboss, kein (wenigstens) 2x Loopback. Ansonsten würde ich diesen Chip für nahezu perfekt halten. (Siehe Skalierbarkeit.)

keine anisotrope filterung, kein agp, miese texturkompression

hällst du vsa100 für nazezu perfekt müsste für dich ein gf3 perfekt sein, er ist nämlich 2 generation dem vsa100 voraus

Xmas
2001-10-17, 07:00:50
Originally posted by Unregistered
miese texturkompression
Interessanterweise ist gerade die Texturkompression FXTC den anderen Verfahren überlegen...
Ansonsten sehe ich den VSA-100 auch noch lange nicht als perfekt an. Das einzige was er vielleicht anderen Chips über hat ist die SLI-Fähigkeit. (Und das sage ich als V5-Besitzer)

Unregistered
2001-10-17, 08:27:28
Originally posted by Xmas

Interessanterweise ist gerade die Texturkompression FXTC den anderen Verfahren überlegen...
Ansonsten sehe ich den VSA-100 auch noch lange nicht als perfekt an. Das einzige was er vielleicht anderen Chips über hat ist die SLI-Fähigkeit. (Und das sage ich als V5-Besitzer)

von der darstellungsqualität ist sie eine katastrophe.

http://www.digit-life.com/articles/reviews3tcfxt1/index.html

Unregistered
2001-10-17, 08:56:26
Originally posted by Xmas

Interessanterweise ist gerade die Texturkompression FXTC den anderen Verfahren überlegen...
Ansonsten sehe ich den VSA-100 auch noch lange nicht als perfekt an. Das einzige was er vielleicht anderen Chips über hat ist die SLI-Fähigkeit. (Und das sage ich als V5-Besitzer)



Also SLI-faehig sind grundsaetzlich alle Chips, das ist nix besonderes.

Unregistered
2001-10-17, 14:27:09
der t&l artikel war alles andere als gut. hw t&l ist überhaupt nicht gescheitert - nächstes jahr wird es weder neue 3d games noch neue 3d-karten ohne hw t&l unterstützung geben. jetzt gibt es diese games noch (inklusive max payne - kein einziges spiel setzt hw t&l voraus!), da nun mal viele user noch tnt2 karten haben und auf diese geachtet werden muss!

Programmierer von Unreal 2:

"Two:

While the transform side of T&L has been taken advantage by plenty of games over the past couple years (since even the software emulation of it can be performed fairly quickly), the use of the lighting side has been a more recent development. Prior to decent T&L cards, asking the hardware (via an API like Direct3D or OpenGL) to do lighting calculations of any kind was often a death sentence for performance. For example, Direct3D has a large number of lighting & material state settings, and without T&L the calculations using all these settings can be horribly slow. Hence many game engines have bypassed this form of lighting and instead performed lighting manually in software using simpler calculations. This style of lighting may not look as good as the (more accurate) lighting mentioned above, but it was necessary for a long time if your game was to perform acceptably. The resulting vertices would be passed to the card in "Untransformed and Lit" form, so only the "T" in T&L was used.

But times are changing, the hardware has gotten better, and it's time we start taking advantage of it. So unlike many previous games, we are using the "L" in T&L, and very extensively. When a card is missing T&L, it's not the lack of the "T" that concerns me most as far as performance goes, it's the lack of the "L".

Three:

We are rendering a huge number of polygons. The FPSs of a couple years ago hardly ever had models that exceeded 1000 triangles or so. In contrast, plenty of our models are over 3000 triangles, and a few go as high as 5000 or more. Many of our levels are packed full of complex geometry, and there are some scenes where we're pushing the 100000 triangle barrier, with lighting, multitexture, and so on. And then there's particle effects...

When you combine all this with the fact that the CPU has to handle running a *game* in addition to the graphics, it's easy to see that we're pushing the envelope here.

Once you combine these three things together, you can see why my confidence in any non-T&L card is not all that high"

Ceiser Söze
2001-10-17, 14:52:45
Originally posted by Unregistered

Also SLI-faehig sind grundsaetzlich alle Chips, das ist nix besonderes.

Schwachsinn...

Razor
2001-10-17, 15:04:35
Könnten wir bitte das U2-Thema ins Spekulations-Forum verlegen ?

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=5410

Razor

Thowe
2001-10-17, 15:07:30
Originally posted by Razor
Könnten wir bitte das U2-Thema ins Spekulations-Forum verlegen ?

http://www.forum-3dcenter.de/vbulletin/showthread.php?s=&threadid=5410

Razor

DANKE !!!!!!!!

aths
2001-10-18, 09:45:40
Bei U2 sollte man erstmal abwarten, inwieweit Sweeny die Wahrheit sagt. Und welche Prozessoren dann üblich sind. Selbst wenn es so eintrifft - also nur mit HW T&L spielbar, dafür dann aber sehr gut - wäre es ein Spiel.

Ein Spiel im Meer von hunderten 3D-Spielen.

Und sagt damit nichts aus, ob sich ein Feature durchsetzte. Denn wenn man es auf einer Kyro2 oder Voodoo5 so spielen kann, wie UIX auf einer GTS, so sagt UIX, das eine Spiel, nichts über die allgemeine Leistung der GTS aus.

---

SLI ist natürlich nicht auf allen Karten möglich.

Unregistered
2001-10-18, 10:54:35
Originally posted by aths
Bei U2 sollte man erstmal abwarten, inwieweit Sweeny die Wahrheit sagt. Und welche Prozessoren dann üblich sind. Selbst wenn es so eintrifft - also nur mit HW T&L spielbar, dafür dann aber sehr gut - wäre es ein Spiel.

Ein Spiel im Meer von hunderten 3D-Spielen.

Und sagt damit nichts aus, ob sich ein Feature durchsetzte. Denn wenn man es auf einer Kyro2 oder Voodoo5 so spielen kann, wie UIX auf einer GTS, so sagt UIX, das eine Spiel, nichts über die allgemeine Leistung der GTS aus.

---

SLI ist natürlich nicht auf allen Karten möglich.

Die neue Unreal Engine wird locker für 10 Spiele eingesetzt, also ist es schon wichtig wie sie performt, aber wie gesagt auf meinen beiden Rechnern ist Kyro 2 im Space-Level nur leicht langsamer als die Geforce DDR, wenn die Programmierer in der Endfassung doch auf Cubemaps verzichten wird das Spiel auch auf Kyro 2 gut laufen. Ich denke aber wenn Kyro 2 weiterhin ein Nieschenprodukt bleibt werden sich die Programmierer gar nicht drum kümmern. Wie viele Kyro2 gibt es in OEM Rechnern? Ich denke 100 mal weniger als Geforce2Mx!?

p.s.

SLI ist natürlich nicht mit jeder Karte, aber mit jedem Chip möglich, ein Chip braucht gar keine SLI-Unterstützung wie der V2 gezeigt hat (da hat ein Chip die geraden, der andere die ungeraden Zeilen berechnet).

Haarmann
2001-10-18, 11:06:44
Lieber unregged,
Gerade am Anfang des Artikels sieht man den Grund, weswegen viele die FXTC mögen. Grössere Texturen sind möglich. In diesem Vergleich wird die 1:4 S3TC gegen die 1:8 FXTC gesetzt - Jedem ist klar, dass FXTC schlechter aussehen wird, weil ja die verlustbehaftete Kompression höher ist. Dafür hat man aber doppelt soviel Platz im Speicher - z.B. für höher auflösende Texturen, die ja am Anfang als Besser hingestellt werden... Ich bin vollkommen Aths Meinung, dass schöne Texturfx mehr bringen, als zuviele 3-ecke. Nimm mal Q3 als Bsp. Die Spheres sehen auch bei Hi Geo eckig aus und der Rest is bei Medium schon rund genug... Nur die Anzahl der Dreicke nimmt zu - leider am Falschen Ort offenbar - sonst sähe man ja runde Spheres am Ende.
In den Gleichen Speicher passen z.B. die 2 Texturen FXTC für ein Bumpmap einer Mauer (z.B. Sandstein ala SerSam), oder eine einfache Textur mit S3TC, oder eine halb so genaue Textur ohne TC. Was denkste sieht am Besten aus?
Ein Verfahren wird nicht schlechter, weils falsch benutzt wird...
Anisotrope Filterung brauchste eh nicht... musst nur den LOD Bias Regler benutzen und das Ergebnis sieht besser aus. Vor allem in Verbindung mit FSAA. Leider fehlt einer 2 VSA100 Karte meist die Leistung dafür - zuwenig Füllrate.

Zum Kapitel Unreal2 resp Aquanox sag ichs mal so... Erst sagten alle wie toll aufwendig Aquanox sein wird, und nun kommts wie raus?
Tim sagt immer nur so und soviele Polygone - ev sind dann zwar davon nur 10% sichtbar... Also warten wir doch mal auf die Final Version. Ev gibts ja nen 2es Aquanox Aha Erlebnis. Das hatte doch auch mal 100000 Polygone pro Szene angedroht oder hab ich da falsch gelesen?

Was Tim endlich mal einlösen sollte, ist sein Versprechen, dass seine Engine keine überflüssigen, weil unsichtbar, Polygone mehr an die 3d Karte sendet. Dann kann er wieder was sagen - vorher hat er ja noch zu tun - mit der Verbesserung seiner Engine...

Die Entwicklung bei den 3d Karten ist zZ zT auf eine gute Erkennung dieser Nutzlosen Ballast 3ecke ausgerichtet. Damit die Effizienz der Karten (die mit ca 5% eh ein Witz is (Ausnahme Kyro)) zu steigern. Dabei wärs wohl klüger und einfacher, den Ballast einfach nicht zu produzieren... Da hat der gute Tim immerhin recht.

Ich hoffe es sind zu dieser frühen Morgenstonde nicht wieder alle beim Lesen dieser Zeilen nach Schlummerland ausgewandert.

Unregistered
2001-10-18, 11:27:16
Originally posted by Haarmann

Anisotrope Filterung brauchste eh nicht... musst nur den LOD Bias Regler benutzen und das Ergebnis sieht besser aus. Vor allem in Verbindung mit FSAA. Leider fehlt einer 2 VSA100 Karte meist die Leistung dafür - zuwenig Füllrate.


Nur in Verbindung mit MFSAA, ohne dies entstehen durch einen negativen LOD-Bias unschöne flimmer-Effekte. Dazu leidet die Performance heftig unter dem Negativen LOD Bias, zumindestens bei dem Kumpel mit der V5 und auch bei meiner GF1 DDR wenn ich mit NVMax Lod-Bias weit nach unten verstelle. An anisotroper Filterung führt kein Weg vorbei, auf 3dconcept konnte man sehen dass dadurch die Texturen nicht nur schärfer werden (wie bei Lod-Bias Änderung), sondern daß gleichzeitig mehr Details (ich glaube bei 3dconcept war es ein Schriftzug auf nem Banner) zu sehen sind.

Zu Aquanox habe ich gelesen dass Aquamark mal 100000 Polygone verwenden soll, von Aquanox war nie die Rede, Aquamark ist ein Engine Stress Test, nicht vergleichbar mit dem Spiel.

"Polygone mehr an die 3d Karte sendet. Dann kann er wieder was sagen - vorher hat er ja noch zu tun - mit der Verbesserung seiner Engine..."

Ich denke dann kommt man an aufwendigen BSP-Trees nicht vorbei und in Software würde es bei so vielen Polygon zu lahm sein, deshalb unpraktikabel.

"Damit die Effizienz der Karten (die mit ca 5% eh ein Witz is (Ausnahme Kyro)) zu steigern. Dabei wärs wohl klüger und einfacher, den Ballast einfach nicht zu produzieren... Da hat der gute Tim immerhin recht."

5% bei einem Overdraw von 2, wie der bei Unreal 2 sei soll? ich komme auf 50%, wenn ich HyperZ oder sowas in der Art bei GF3 mitrechne kommt ich an weit mehr als 50%.

StefanV
2001-10-18, 11:29:26
Originally posted by Unregistered
p.s.

SLI ist natürlich nicht mit jeder Karte, aber mit jedem Chip möglich, ein Chip braucht gar keine SLI-Unterstützung wie der V2 gezeigt hat (da hat ein Chip die geraden, der andere die ungeraden Zeilen berechnet).

Wohl kaum...

Dazu muß ein Chip schon recht 'gutmütig' sein.

Schalte mal Assign IRQ to VGA Card aus, wenn sie dann noch läuft, dann KÖNNTE es möglich sein!!

Sinnvoll ist es allerdings auch nur, wenn man 'SLI' in HW löst und nicht wie 3DFX und ATI in Software...

Ceiser Söze
2001-10-18, 11:41:34
Zum Thema Multichip:
Der Chip muss durchaus für den Mehrchipbetrieb ausgelegt sein, damit er ordnungsgemäss und effizient funktioniert.
AFR hat z.B. den Vorteil, dass die Geometrielast auf beide Chips aufgeteilt wird, dafür wird der Speicher zugemüllt.
SLI ist 'etwas' weniger speicherfressend, dafür müssen beide Chips immer die gesamten Geometriedaten verarbeiten und der Texturcache wird auch nicht gerade effizient ausgenutzt.
Solche Lösungen stellen also definitiv nicht das Mass der Dinge dar.
Dann kommen noch andere Probleme hinzu, die man bei der Konzeption einer Multichip-Karte nicht vergessen sollte. Die Tücken des AGP-Bus: Wo sind die Win2k Treiber für die RageFury MAXX oder warum schafft die V5 den AGPx4 Modus nicht? Ein guter Memory-Controller ist hier Pflicht.

Interessant wäre zweifellos eine Tile-Based Multichiparchitektur. Es muss nicht zwingend ein defered Renderer sein - ein immediate wäre auch schon ok. Aber durch Tiles sollte eigentlich die gesamte Rechenlast relativ leicht gleichmässig auf zwei oder mehr Chips aufgeteilt werden können...

Unregistered
2001-10-18, 12:16:06
Originally posted by Unregistered
[B]von der darstellungsqualität ist sie eine katastrophe.


Nein, FXT1 ist auf Texturen optimiert, wie sie in Spielen vorkommen, mit vielen ineinander verschachtelten *Mustern*. Was Digit-Life (mit einem verbuggten Photoshop-Plugin, BTW) testete, waren synthetische Spezialfälle - Farbverläufe u.s.w.. In der Praxis ist FXT1 dem S3 <hust> Standard S3TC/DXTx und insbesondere der kaputten Implementation in allen GeForce-Grafikkarten weitaus überlegen.

Unregistered
2001-10-18, 12:18:05
Originally posted by Unregistered
Also SLI-faehig sind grundsaetzlich alle Chips, das ist nix besonderes.

Total falsch. Alle Chips sind z.B. AFR-fähig, für die überlegene 3dfx-SLI-Technologe braucht es aber Hardware-Unterstützung.

ow
2001-10-18, 13:22:32
Originally posted by Stefan Payne


Wohl kaum...

Dazu muß ein Chip schon recht 'gutmütig' sein.

Schalte mal Assign IRQ to VGA Card aus, wenn sie dann noch läuft, dann KÖNNTE es möglich sein!!

Sinnvoll ist es allerdings auch nur, wenn man 'SLI' in HW löst und nicht wie 3DFX und ATI in Software...



???

Also ATi hat SLI nie benutzt sonern AFR mir der MAXX.

Aber 3Dlabs nutzt auf seinem Topmodell zwei Geometrieprozessoren und 2 Rasterizer (Intense3D) im SLI-Betrieb.

Es ist fuer die Rasterizer sogar moeglich, auf den Texturspeicher des jeweils anderen zuzugreifen, so dass die Texturen nicht doppelt gespeichert werden muessen, wie bei 3dfx SLI.


SLI wie es von 3dfx verwendet wurde ist mit allen Grafikchips moeglich, nur der AGP stellt das Problem dar.

ow
2001-10-18, 13:29:58
Originally posted by Ceiser Söze
Zum Thema Multichip:
Der Chip muss durchaus für den Mehrchipbetrieb ausgelegt sein, damit er ordnungsgemäss und effizient funktioniert.



Da behaupte ich einfach mal, das dem nicht so ist. SLI kann ich mit allen Chips realisieren.


AFR hat z.B. den Vorteil, dass die Geometrielast auf beide Chips aufgeteilt wird, dafür wird der Speicher zugemüllt.
SLI ist 'etwas' weniger speicherfressend, dafür müssen beide Chips immer die gesamten Geometriedaten verarbeiten und der Texturcache wird auch nicht gerade effizient ausgenutzt.
Solche Lösungen stellen also definitiv nicht das Mass der Dinge dar.
Dann kommen noch andere Probleme hinzu, die man bei der Konzeption einer Multichip-Karte nicht vergessen sollte. Die Tücken des AGP-Bus: Wo sind die Win2k Treiber für die RageFury MAXX oder warum schafft die V5 den AGPx4 Modus nicht? Ein guter Memory-Controller ist hier Pflicht.


Memory-Controller? Was hat der denn damit zu tun?
\Das Problem der FuryMAXX und der V5 ist, dass der AGPort eben ein Port ist, also eine Punkt-zu-Punkt Verbindung mit genau 2 Endpunkten (Grafikchip-CPU).
Und nicht Punkt-zu-"Multipunkt" und auch kein Bus. Also kann immer nur ein Chip als AGP-Master laufen.

Oder ich setze ein Bridge ein, die als AGP-Master arbeitet und mehrere Chips 'verwaltet'.

[/QUOTE]

Haarmann
2001-10-18, 13:38:00
Mit ner Externen AGP Schnittstelle, die dann mehrere Rasterizer ansteuert, geht das hervorragend. Am einfachsten legt man der AGP Schnittstelle gleich noch die T+L Einheit in den Chip und tataa... fertig.
Aber ich denke nicht, dass diese 2 Rasterizer im SLI Modus arbeiten, das ist zu ineffizient für ein deratiges Setup. Da gibts schönere Lösungen.
AFR war ein netter Einfall, leider auch wieder nur dank SW T+L benutzbar - die CPU verteilt dank Treiber nun einfach die Aufgaben.
Seit langem hört man immerhin nix mehr, von den angeblichen NVidia "SLI" Karten... die waren wohl auch nur aufm Papier je vorhanden.

Mal abwarten, wer als erstes ein solches Produkt hinkriegt. Für uns Consumer meine ich. Die Wildcat is ned in meinem Preisbereich.

Ceiser Söze
2001-10-18, 13:39:13
Argh, wieso schreibe ich Memory Controller. :/
Ich meinte natürlich eine Art On-Chip Bus-Interface. Ein cleverer Ingenieur sollte so eine Multichip-Karte auch ohne externen Bridge-Chip auf die Beine stellen können.

StefanV
2001-10-18, 13:42:13
@ow

Deshalb hab ich um SLI ja auch 'SLI' genannt ;)

Was ist denn an meiner Aussage Falsch???

StefanV
2001-10-18, 14:09:12
@ow

Das Metabyte 'TNT Projekt' ist mir natürlich bekannt ;)

Legolas
2001-10-18, 14:38:33
Originally posted by ow


Da behaupte ich einfach mal, das dem nicht so ist. SLI kann ich mit allen Chips realisieren.

[/B][/QUOTE]

Nicht ganz richtig.. 'Normales' SLI, also Chip 1 alle Geraden, und Chip 2 alle ungeraden Zeilen, kann man mit etwas Aufwand wohl wirklich mit jedem Grafikchip realisieren, aber das SLI des VSA-100, läßt sich wohl nicht ohne Unterstützung des Chips selber realisieren, weil ja hier jeder Chip ein variabel breites Band von Bildschirmzeilen bearbeiten muss. Auch das Guardbandclipping sollte von Chip unterstützt werden, um unnötige Mehrarbeit zu vermeiden.

Xmas
2001-10-18, 14:40:21
Originally posted by Ceiser Söze
Interessant wäre zweifellos eine Tile-Based Multichiparchitektur. Es muss nicht zwingend ein defered Renderer sein - ein immediate wäre auch schon ok. Aber durch Tiles sollte eigentlich die gesamte Rechenlast relativ leicht gleichmässig auf zwei oder mehr Chips aufgeteilt werden können...

;D;D;D;D Dazu muss man wohl nix sagen, oder?

Originally posted by Unregistered
für die überlegene 3dfx-SLI-Technologe braucht es aber Hardware-Unterstützung.
Überlegen? Nun ja, überragende Effizienz kann man SLI nicht bescheinigen...
Aber stimmt, für SLI braucht man entweder einen gemeinsamen Speicherbereich oder einen RAMDAC, der auf beide Speicherbereiche zugreifen kann. Ansonsten können die Chips vollkommen getrennt arbeiten (wie sie es bei V2 und V5 ja auch tun).

aths
2001-10-19, 16:40:04
Mir schwebt folgendes vor:

- Tile-Architektur.

n Chips arbeiten an jeweis ca. 1/n der Fläche. Jeder Chip hat also letztlich genau einen sehr dicken Streifen zu rendern.

Wenn jeder Chip mit seinem Bereich fertig ist, meldet er das einem Controller. Der stellt die Unterschiede fest und ordnet für das nächste Frame den weniger belasteten Chips zuätzliche Tiles zu.

So dass im Lauf alle Chips etwa gleichmäßig belastet sind. Triangle Setup führt jeder Chip für sich alleine aus, klar.

So liessen sich auch 3-er oder 5-er Multichipsysteme bauen.