PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : SGI baut Supercomputer mit ATI-Grafikkarten


Aqualon
2003-07-14, 10:03:02
Artikel von heise.de:
http://heise.de/newsticker/data/jk-14.07.03-003/

---

SGI bestückt schon seine Grafik-Workstations mit PC-Grafikchips und ersetzt jetzt auch in seiner neuen Highend-Linie Onyx4 UltimateVision die betagte Infinite-Reality-Grafik durch eingekaufte Technik. Der Markt für Highend-Visualisierung ist zu begrenzt, sodass sich für SGI die inzwischen mehrere 100 Millionen US-Dollar teure Entwicklung eigener Grafikprozessoren nicht mehr lohnt. Auch die Leistungsfähigkeit von PC-Grafik ist mittlerweile den Eigenentwicklungen weit überlegen. Während InfiniteReality4 lediglich 3 Millionen Polygone/s verarbeitet, erreicht ein ATI-Grafikchip rund 10 Millionen Polygone/s (immediate mode) oder gar 75 Millionen Polygone/s bei lokal gespeicherter Geometrie (display list mode). Zudem ist die Technik programmierbare Funktionseinheiten -- so genannter Vertex- und Fragment-Shader -- für eine unbegrenzte Anzahl grafischer Effekte bei PC-Grafikchips am weitesten fortgeschritten. Dass SGI sich nicht für Nvida-Grafikchips entschied, erklärt sich wohl mit der frühen Verfügbarkeit des Radeon 9700 und dessen besserer Antialiasing-Qualität, die für großflächige Projektionen wichtig ist.

Da die Grafikkarten über 256 MByte lokalen Speicher verfügen, sind jetzt pro Pipeline nicht mehr 1 GByte, sondern nur noch rund 200 MByte lokale Texturkapazität verfügbar. Dafür ist ein Onyx4-System aber in der Lage, die Grafikleistung pro Projektionsfläche zu skalieren. Mehrere Grafikkarten beziehungsweise Grafik-Pipelines lassen sich beispielsweise verschiedenen Bereichen einer Projektionsfläche zuordnen, wodurch sich die Bildaufbaugeschwindigkeit (Füllrate) erhöht. Mehrere Pipelines kann man aber auch auf ein und dieselbe Fläche schalten, um beispielsweise höhere Antialiasing-Modi oder eine größere Textur-Kapazität etwa für das Volumen-Rendering zu erreichen. Möglich macht dies ein Compositor, der die Ausgangssignale von bis zu vier Grafikkarten zusammenführen kann. Durch Kaskadierung mehrerer Compositor lassen sich auch noch mehr Pipelines zusammenschalten. Programmierbare Shader unterstützt SGI mit OpenGL Performer 3.1.

Durch den Wechsel zu preiswerter und hochintegrierter PC-Technik ist SGI in der Lage, eine Konfiguration mit 2 CPUs (MIPS R16000) und 2 Grafik-Pipes in einem kompakten Rackmount zu Preisen ab 45.000 US-Dollar anzubieten. Eine mittlere Konfiguration mit 8 CPUs und 4 Grafikpipes liegt bei 135.000 US-Dollar und ein System mit 32 CPUs und 16 Grafikpipes listet SGI noch für unter 500.000 US-Dollar. Die maximale Standard-Konfiguration umfasst 64 Prozessoren, 32 Grafikpipes und 128 GByte Speicher. SGI betont ein gegenüber dem Vorgänger 40-mal besseres Preis-/Leistungsverhältnis, da auch die Leistung fünf Mal höher liege. SGI reagiert mit der Onyx4-Linie auf die zunehmende Konkurrenz durch Linux- oder Windows-Cluster, mit denen sich ebenfalls leistungsfähige VR-Installationen für Forschung und Produkt-Design aufbauen lassen, die aber um Größenordnungen unter den ehemals von SGI verlangten Preisen liegen. SGI weist darauf hin, dass eine Onyx4 einfacher zu administrieren sei und die Latenz-Probleme eines Clusters nicht kenne. Im Gegensatz zu einem über Ethernet vernetzten Cluster basieren die Onyx-Systeme auf einer Shared-Memory-Multiprozessor-Architektur (NUMA -- Non-Uniform Memory Access) mit einer um den Faktor 100 niedrigeren Latenz.

SGI löst außerdem seine Grafikworkstation Octane2 durch Tezro ab. Sie soll ein etwa drei Mal besseres Preis-/Leistungs-Verhältnis als die Octane2 bieten und ist mit maximal vier R16000-Prozessoren mit jeweils 4 MByte Level-2-Cache (full speed) und 700 MHz Taktgeschwindigkeit erhältlich. Die höhere Leistung verdankt sie vor allem ihrer Speicherbandbreite, die mit 3,2 GByte/s etwa drei Mal höher liegt als bei der Octane2. Als Grafik kommt nach wie vor die Vpro-V12 zum Einsatz, die Nvidias GeForce2 entspricht. SGI will sie im nächsten Jahr ebenfalls gegen einen schnelleren ATI-Chip mit programmierbaren Shadern austauschen. Tezro ist ab August zu Preisen ab 21.500 US-Dollar erhältlich. (Manfred Bertuch) / (jk/c't)

Unregestriert
2003-07-14, 10:39:56
Sehr interessant!
Aber ich glaube die Haupt Entscheidung für ati Chips liegt darin, das sie schon immer Multichip Lösungen bauen wollten.
Sozusagen als zweite Option um die Performance zu erhöhen, doch beim r200 hatten sie die agp Bridge nie fertig bekommen.

Exxtreme
2003-07-14, 10:44:28
Original geschrieben von Unregestriert
Sozusagen als zweite Option um die Performance zu erhöhen, doch beim r200 hatten sie die agp Bridge nie fertig bekommen.
Du meinst den R100. :D

Beim R200 war die Bridge schon fertig. Es ist wohl aber nicht lohnend im Consumer-Markt auf Multichip-Lösungen zu setzen.

Endorphine
2003-07-14, 11:03:31
Ich möchte mal wissen, wie SGI noch die Preise rechtfertigen möchte. Bei den Preisen von SGI lohnt es sich ja schon, die benötigte Software selbst für Linux zu schreiben (lassen) und einen x86-Cluster anzuschaffen.

Das Latenzargument ist lachhaft. Wenn es _darauf_ ankommt nimmt man natürlich kein Ethernet (:bonk: ), sondern SMP-Netze wie Myrinet.

Aqualon
2003-07-14, 11:15:13
Original geschrieben von Endorphine
Ich möchte mal wissen, wie SGI noch die Preise rechtfertigen möchte.

Das stimmt. Selbst wenn man von SGI eine gleich funktionierende Lösung bekommt, sind die Preise schon richtig gesalzen.

Ich glaub die Firma lebt auch noch mehr vom Ruf als von der Qualität der aktuellen Produkte.

Aqua

Unregestriert
2003-07-14, 11:17:26
Original geschrieben von Exxtreme
Du meinst den R100. :D

Beim R200 war die Bridge schon fertig. Es ist wohl aber nicht lohnend im Consumer-Markt auf Multichip-Lösungen zu setzen. Nö die war zu bugie nach meinen letzten infos! Aber die letzte war ja eh die fury maxx, habe ich mal in aktion gsehen aber die gf1 war besser.

robbitop
2003-07-14, 12:19:44
nicht in 32bit. Erst die GeforceDDR hat die wahre "Power" entfesselt. Vorher gnadenlose Bandbreitenlimitierung

Pathfinder
2003-07-14, 12:46:32
Original geschrieben von Unregestriert
Sehr interessant!
Aber ich glaube die Haupt Entscheidung für ati Chips liegt darin, das sie schon immer Multichip Lösungen bauen wollten.
Sozusagen als zweite Option um die Performance zu erhöhen, doch beim r200 hatten sie die agp Bridge nie fertig bekommen.

Evans&Sutherland baut bereits seit Sommer 2002 Multichip 9700er-Syteme.
http://www.es.com/news/2002+press+archive/1202a.asp

Grafik-Simulationen sollen in erster Linie realistisch wirken. Mehr noch als bei PC-Spielen hilft hier gutes AA weiter.

G.
P.

unregestriert
2003-07-14, 12:58:27
Original geschrieben von robbitop
nicht in 32bit. Erst die GeforceDDR hat die wahre "Power" entfesselt. Vorher gnadenlose Bandbreitenlimitierung Und sonst irgendetwas zu Thema :)

robbitop
2003-07-14, 13:18:42
sch*isse...falscher Thread...sorry ;)

Unregestriert
2003-07-14, 13:26:53
Original geschrieben von robbitop
sch*isse...falscher Thread...sorry ;) Naja aber passt schon hier rein :)

unregestriert
2003-07-14, 13:29:29
Original geschrieben von Pathfinder
Evans&Sutherland baut bereits seit Sommer 2002 Multichip 9700er-Syteme.
http://www.es.com/news/2002+press+archive/1202a.asp

Grafik-Simulationen sollen in erster Linie realistisch wirken. Mehr noch als bei PC-Spielen hilft hier gutes AA weiter.

G.
P. ja das auch ja der r300 :)

robbitop
2003-07-14, 13:30:09
aah stimmt ...ach sch*iss hitze

StefanV
2003-07-14, 13:58:59
Original geschrieben von unregestriert
ja das auch ja der r300 :)

:|

Und wo ist der Unterschied, ob ein GraKa Hersteller eine R300 oder R350 verbaut?? :kratz2:

nagus
2003-07-14, 15:02:45
http://news.com.com/2100-1010_3-1025324.html?tag=fd_top

Crushinator
2003-07-14, 16:56:26
Original geschrieben von Endorphine
(...) Das Latenzargument ist lachhaft. Wenn es _darauf_ ankommt nimmt man natürlich kein Ethernet (:bonk: ), sondern SMP-Netze wie Myrinet. Es geht nicht um Offline- sondern Online-Rendering bzw. RT-Visualisierung, und da gibt es weit und breit nichts zu gebrauchen außer eine Onyx mit mind. 8 CPUs. ;)

Endorphine
2003-07-14, 17:35:40
Original geschrieben von crushinator
Es geht nicht um Offline- sondern Online-Rendering bzw. RT-Visualisierung, und da gibt es weit und breit nichts zu gebrauchen außer eine Onyx mit mind. 8 CPUs. ;) Wie soll ich den Smiley jetzt auffassen? Mir will einfach kein Grund einfallen, warum man noch SGI-Maschinen anschaffen sollte bei den Preisen. Selbst wenn man durch die Software an IRIX gebunden sein sollte könnte es sich bei SGI's Preismodell schon lohnen, auf eine andere Software umzusteigen oder selbst eine zu schreiben.

Oder welche Vorteile sollten SGI Maschinen denn bieten? Die Grafikpower baut ja jetzt auch auf ATI/nVidia auf und zu MIPS vs. Intel/AMD brauch ich auch nichts zu sagen denke ich ;)

Crushinator
2003-07-14, 18:14:01
Original geschrieben von Endorphine
Wie soll ich den Smiley jetzt auffassen? Sollte heißen, wenn's keiner schafft, ähnliche Maschinen mit gleicher/besserer Leistung bzw. selbiger Problemlosigkeit und gleicher Software anzubieten, ist der SGI-Preis kein Wunder -> Es gibt nichts vergleichbares auf RT-Ebene.
Oder welche Vorteile sollten SGI Maschinen denn bieten? Die Grafikpower baut ja jetzt auch auf ATI/nVidia auf und zu MIPS vs. Intel/AMD brauch ich auch nichts zu sagen denke ich ;) Der Vorteil ist bei faktischem Monopol bei Hard- und Software für RT-Effekte im Video-Bereich zu suchen. Außerdem misse ich die von Dir genannte Kombination aus handelsüblicher Hardware, die nur einen Hauch von dem kann, was z.B. ein 32-Fach SMP Onyx4 mit 16 GrafikCores macht. Wenn es jemand zusammengebaut bekommt, wird er auch mind. 300.000 € hinblättert haben, um dann festzustellen, daß ihm nicht nur die Software sondern auch die Community neben der Spezial-Peripherie als Zubehör fehlt. Alles klar? =)

Demirug
2003-07-14, 18:35:54
Original geschrieben von crushinator
Sollte heißen, wenn's keiner schafft, ähnliche Maschinen mit gleicher/besserer Leistung bzw. selbiger Problemlosigkeit und gleicher Software anzubieten, ist der SGI-Preis kein Wunder -> Es gibt nichts vergleichbares auf RT-Ebene.

Der Vorteil ist bei faktischem Monopol bei Hard- und Software für RT-Effekte im Video-Bereich zu suchen. Außerdem misse ich die von Dir genannte Kombination aus handelsüblicher Hardware, die nur einen Hauch von dem kann, was z.B. ein 32-Fach SMP Onyx4 mit 16 GrafikCores macht. Wenn es jemand zusammengebaut bekommt, wird er auch mind. 300.000 € hinblättert haben, um dann festzustellen, daß ihm nicht nur die Software sondern auch die Community neben der Spezial-Peripherie als Zubehör fehlt. Alles klar? =)

quantum3d ???

Bei den Miltärs sind die recht beliebt.

Crushinator
2003-07-14, 19:18:50
Original geschrieben von Demirug
quantum3d ??? Ich sprach nicht von (Fulg-)Simulatoren, sondern von RT-Modelling in fast schon real wirkender Qualität für Filmproduktionen. Da können solche auf PC- womöglich auch noch Wintel-Technik basiernden Kisten (auch die von E&S) mit SMP+NUMA nicht mithalten, sind dafür "etwas" günstiger, wobei die Preise auch nicht von schlechten Eltern sind. (50k bis 150k $)
Bei den Miltärs sind die recht beliebt. Klar, sie haben ja auch andere Schwerpunkte, nämlich möglichst flüssige Simulation mit vielen nur für sie relevanten Details, günstig soll's natürlich auch sein. Ich würd' das Militär übrigens nicht gerade als gutes Beispiel nehemn, sie sind teilweise so krank und nutzen sogar Windows für Steuerungsaufgaben in Kriegschiffen (http://www.heise.de/tp/deutsch/inhalt/te/8468/1.html). Das (http://www.konradlischka.de/nhproben150.htm) hier ist auch interessant. :D

Demirug
2003-07-14, 19:32:10
Original geschrieben von crushinator
Ich sprach nicht von (Fulg-)Simulatoren, sondern von RT-Modelling in fast schon real wirkender Qualität für Filmproduktionen. Da können solche auf PC- womöglich auch noch Wintel-Technik basiernden Kisten (auch die von E&S) mit SMP+NUMA nicht mithalten, sind dafür "etwas" günstiger, wobei die Preise auch nicht von schlechten Eltern sind. (50k bis 150k $)

Filmproduktionen ??? Seit wann braucht man dafür 3d-Beschleuniger ausser für den Entwurf? Dafür reicht ein Wintel kisten mit einer "normalen" Grafikkarte vollkommen aus und der rest macht ein grosser Rechner-Cluster.

Klar, sie haben ja auch andere Schwerpunkte, nämlich möglichst flüssige Simulation mit vielen nur für sie relevanten Details, günstig soll's natürlich auch sein. Ich würd' das Militär übrigens nicht gerade als gutes Beispiel nehemn, sie sind teilweise so krank und nutzen sogar Windows für Steuerungsaufgaben in Kriegschiffen (http://www.heise.de/tp/deutsch/inhalt/te/8468/1.html). Das (http://www.konradlischka.de/nhproben150.htm) hier ist auch interessant. :D

Ich finden 16xSSAA über viele CPU voll syncron aber trotzdem beeindruckend.

Zu Windows und Steuerungsaufgaben: NT und 2K laufen da problemlos 24/7 (mit XP habe ich das nie getestet). Ich habe da Erfahrungen aus erster Hand.

Crushinator
2003-07-14, 19:44:35
Demirug,

wenn das Deine Erfahrungen sind, dann wünsche ich Dir weiterhin viel Spaß damit und beende die Diskussion hiermit.

P.S.: Man sollte sich wenigstens eine Minute mit "Special FX" in Filmproduktionen beschäftigt haben, bevor man solche Kommentare von sich gibt. ;)

Demirug
2003-07-14, 19:55:39
Original geschrieben von crushinator
Demirug,

wenn das Deine Erfahrungen sind, dann wünsche ich Dir weiterhin viel Spaß damit und beende die Diskussion hiermit.

Ich hatte Spass damit und his heute ist noch keine der Anlagen in die Luft gefolgen.

P.S.: Man sollte sich wenigstens eine Minute mit "Special FX" in Filmproduktionen beschäftigt haben, bevor man solche Kommentare von sich gibt. ;)

Also die Minute bekomme ich locker zusammen da habe ich ja schon für das Durchlesen der Renderman Anleitung ein vielfaches gebraucht.

Laut meinen Informationen arbeiten sowohl ILM wie auch Pixar mit einer Serverfarm auf X86 Basis weil man da fürs gleiche Geld einfach mehr Rechenleistung bekommt.

Aber ich lasse mich ja gerne über Neuerungen informieren.

Crushinator
2003-07-14, 20:20:15
Original geschrieben von Demirug
(...) Laut meinen Informationen arbeiten sowohl ILM wie auch Pixar mit einer Serverfarm auf X86 Basis weil man da fürs gleiche Geld einfach mehr Rechenleistung bekommt. OK, verfolge aber bitte den Thread von Anfang an, schaue Dir ein paar Firmen an, die eine oder mehrere Onyx haben und stelle dann fest, daß die Kiste primär zum Online/Echtzeit-Rendern (Vorvisualisierung) benutzt wird und nicht, um den Film endgültig zu rendern. Man möchte schließlich nicht mehrere Minuten bis Stunden warten, um die "Fehler" in der Szene zu erkennen. =)

Es steht ja wohl außer Frage, daß ein 512-Knoten Cluster auf x86-Basis schneller und teilweise günstiger endrendert als ein 32-Fach SMP Monster mit vielen "Grafikpipes". Letzteres ist ja auch nur dafür da, um einen "ausreichenden" Detailgrad möglichst in Echtzeit zu visualisieren. Wegen dieser Aufgabenteilung setzen sowohl ILM als auch Pixar neben vielen deutschen Firmen sowohl das eine als auch das andere ein.

Gast
2003-07-15, 03:23:46
Original geschrieben von crushinator
OK, verfolge aber bitte den Thread von Anfang an, schaue Dir ein paar Firmen an, die eine oder mehrere Onyx haben und stelle dann fest, daß die Kiste primär zum Online/Echtzeit-Rendern (Vorvisualisierung) benutzt wird und nicht, um den Film endgültig zu rendern. Man möchte schließlich nicht mehrere Minuten bis Stunden warten, um die "Fehler" in der Szene zu erkennen. =)

Es steht ja wohl außer Frage, daß ein 512-Knoten Cluster auf x86-Basis schneller und teilweise günstiger endrendert als ein 32-Fach SMP Monster mit vielen "Grafikpipes". Letzteres ist ja auch nur dafür da, um einen "ausreichenden" Detailgrad möglichst in Echtzeit zu visualisieren. Wegen dieser Aufgabenteilung setzen sowohl ILM als auch Pixar neben vielen deutschen Firmen sowohl das eine als auch das andere ein.

Da haste Recht.
Zwar wurden auch Cluster schon dafür eingesetzt, jedoch bekam man es mit der Software biss zum heutigen Tage nicht gebacken :(
Heisst : Für billige Serienstreifen ok, alles andere bitte mit ner SGI ;)

Gast
2003-07-15, 14:21:21
Original geschrieben von Stefan Payne
:|

Und wo ist der Unterschied, ob ein GraKa Hersteller eine R300 oder R350 verbaut?? :kratz2: hast wohl nicht alles gelesen. Aber is ging um ne agp bridge, die für den r200. Die ati nie fertig bekommen oder sie wollte es nicht! Wie auch immer, darum schrieb ich das die 9700 halt r300er sind. Von mir aus nehmen sie auch r350 wenn sie die koppeln können.

AlfredENeumann
2003-07-15, 15:39:31
Original geschrieben von Gast
hast wohl nicht alles gelesen. Aber is ging um ne agp bridge, die für den r200. Die ati nie fertig bekommen oder sie wollte es nicht! Wie auch immer, darum schrieb ich das die 9700 halt r300er sind. Von mir aus nehmen sie auch r350 wenn sie die koppeln können.


Und du hast nicht gelesen was Exxtreme geschrieben hat. Die AGP-Bridge ist fertig, und auch im Einsatz und zwar auf der All in Wonder.

ernesto.che
2003-07-15, 17:39:56
Original geschrieben von AlfredENeumann
Und du hast nicht gelesen was Exxtreme geschrieben hat. Die AGP-Bridge ist fertig, und auch im Einsatz und zwar auf der All in Wonder.

AIW - das ist noch lediglich eine Grafikkarte mit einer Tv-Karte und keine Multichiplösung :o

Quasar
2003-07-15, 18:14:00
Aber für den TV-Teil brauchte es IIRC den AGP-Bridge-Chip, da er als separates PCI-Device erkannt wird.
Und wenn der Chip ordnungsgemäß funktioniert, sollte es nur noch ein relativ kleiner Schritt zu einer Multi-GPU-Karte sein.

mapel110
2003-07-15, 18:20:29
Original geschrieben von Quasar
Aber für den TV-Teil brauchte es IIRC den AGP-Bridge-Chip, da er als separates PCI-Device erkannt wird.
Und wenn der Chip ordnungsgemäß funktioniert, sollte es nur noch ein relativ kleiner Schritt zu einer Multi-GPU-Karte sein.

vom r200 gibts doch multichiplösungen ?!

da wurden hier doch bilder von 4-fach-r200 grakas gepostet mit entsprechenden links dazu ?!

ernesto.che
2003-07-15, 18:21:36
Original geschrieben von Quasar
Aber für den TV-Teil brauchte es IIRC den AGP-Bridge-Chip, da er als separates PCI-Device erkannt wird.
Und wenn der Chip ordnungsgemäß funktioniert, sollte es nur noch ein relativ kleiner Schritt zu einer Multi-GPU-Karte sein.

Ah, thx!
Aber ist es nicht doch noch ein ganzes Stückchen schwerer, mehrer GPUs anzusteuern, als eine TV Karte?

Legolas
2003-07-15, 18:27:29
Original geschrieben von ernesto.che
Ah, thx!
Aber ist es nicht doch noch ein ganzes Stückchen schwerer, mehrer GPUs anzusteuern, als eine TV Karte?

Ein zweiter Grafikchip ist wohl aus Sicht der Bridge nix anderes wie ein TV-Tuner. Das Boardlayout ist aber wohl zweifellos komplizierer, wenn es um 2 Grafikcores geht. Das sollte aber nichtsdestotrotz unter Kontrolle zu bringen sein.

Black-Scorpion
2003-07-15, 20:32:29
Original geschrieben von ernesto.che
Ah, thx!
Aber ist es nicht doch noch ein ganzes Stückchen schwerer, mehrer GPUs anzusteuern, als eine TV Karte?

Das hat ATI doch auch schon gemacht.
http://mirror.ati.com/designpartners/media/images/furymaxxboard.jpg

ow
2003-07-15, 20:43:35
Original geschrieben von Anonym_001
Das hat ATI doch auch schon gemacht.



Das fällt unter die Kategorie: wie man es auf keinen Fall machen sollte.;) Das Prinzip ist einfach untauglich, mehr als 2 Chips gehen damit auch nicht.

Gast
2003-07-16, 13:30:31
Original geschrieben von AlfredENeumann
Und du hast nicht gelesen was Exxtreme geschrieben hat. Die AGP-Bridge ist fertig, und auch im Einsatz und zwar auf der All in Wonder. Wunderbar es ging nicht darum ob es sie gabe ich sagte nur soweit ich weis haben sie sie nicht hinbekommen oder es war nicht rentabel und der quote linkt dann r300 das war der fehler also Richtig lesen dann schlaumeiern :)