PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI arbeitet an Grafikprozessoren mit zwei Kernen


drmaniac
2006-08-08, 19:53:56
http://www.golem.de/0608/47044.html :biggrin:

hm...also nach dem R600 einen R700 Dual-Core ;) ? bzw. R800 Quadcore...


AMD Radeon X3000 Quad :D

deekey777
2006-08-08, 20:31:22
Solche News gehören in den Speku-Bereich.

Iwan
2006-08-08, 20:51:59
ich verstehe den sinn von so einer entwicklung nicht. ob ich jetz ein single-core gpu mit zB 96 alus hab oder eine dual-core mit 2 x 48 alus hab is doch egal.

AnarchX
2006-08-08, 20:56:46
GPUs sind schon lange Multicores...;)
Zudem ist soetwas eher unrentabel, da fertigt man eher einzelne GPU mit einer höheren Ausbeute und baut davon mehrere dann auf ein PCB.

ShadowXX
2006-08-08, 21:00:22
ich verstehe den sinn von so einer entwicklung nicht. ob ich jetz ein single-core gpu mit zB 96 alus hab oder eine dual-core mit 2 x 48 alus hab is doch egal.
Das einzige was mir einfällt ist das Sparen von Entwicklungskosten....es ist vermutlich billiger 2x den gleichen Die auf ein neues Die zu quetschen, als ein neues "großes" vereintes Design zu basteln.

Ich kann mir sowas allerdings höchstens für Refreshes vorstellen.....

Spasstiger
2006-08-08, 21:01:12
Evtl. sind mehrere Kerne technisch einfacher umzusetzen, immerhin ist der Transistoraufwand je Kern dann deutlich geringer. Scheint wohl eine Art Crossfire-on-Die zu werden.

AnarchX
2006-08-08, 21:01:37
Ich glaube nicht das es sich bei dem 2. Kern von dem hier gesprochen wird um noch eine GPU handeln wird.:wink:

dargo
2006-08-08, 21:02:51
Zudem ist soetwas eher unrentabel, da fertigt man eher einzelne GPU mit einer höheren Ausbeute und baut davon mehrere dann auf ein PCB.
Das würde ich schon eher begrüßen. Denn so verteilt man die Verlustleistung auf zwei GPUs. Die entstehende Wärme wäre einfacher/leiser abtransportierbar im Vergleich zur einer gleichschnellen Single-GPU Grafikkarte.

deekey777
2006-08-08, 21:15:28
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=190680
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=233432
Da gibt es einige Erklärungen zu DC&Grafikchips.

drmaniac
2006-08-08, 21:17:30
Solche News gehören in den Speku-Bereich.

wieso Speku?

ATIs Europa-Chef Peter Edinger im Gespräch mit Golem.de. Folglich will sein Unternehmen in kommenden GPU-Generationen den Stromverbrauch deutlicher im Auge behalten, und dazu auch auf mehrere Kerne in einem Grafikchip setzen.

Das ist kein Gerücht von einer News Seite die ihre Infos aus einem Forum bezogen hat in welches ein Unbekannter.... ;) Ne, das kommt von ATI selber.

Sonst müsste man alle kommenden Produkte die noch nicht da sind im Speku besprechen ;)

Move back? ;)

AnarchX
2006-08-08, 21:22:32
wieso Speku?


hm...also nach dem R600 einen R700 Dual-Core ? bzw. R800 Quadcore...


AMD Radeon X3000 Quad

Das ist Speku! :wink:
Mehr als die Aussage über die man "spekulieren" kann, hat man ja zudem auch nicht.

Winter[Raven]
2006-08-08, 21:26:22
Diese ganzen Dual GPU und die Verteilung auf seperate Chips hatten wir schon vor knapp 2 Jahren, und zwar bei Nvidia...:D

drmaniac
2006-08-08, 22:44:47
"Verkaufe meine Stargate DVD Boxen 1-7 "

ähm, 16 euro unversicherter Versandt? :D


ja, der ADM X3000 ist Speku ;) Aber das Hauptthema ist ja dualcore ;)

Avalox
2006-08-08, 23:02:50
wieso Speku?
mehrere Kerne in einem Grafikchip setzen.



Was wäre, wenn diese beiden Kerne mal nicht identisch wären, sondern unterschiedliche Funktionen haben? So könnte man ein Design schön funktional skalieren.

Winter[Raven]
2006-08-08, 23:05:22
Was wäre, wenn diese beiden Kerne mal nicht identisch wären, sondern unterschiedliche Funktionen haben? So könnte man ein Design schön funktional skalieren.

Genau das wird ja Nvidia schon seit langer Zeit nachgesagt... bzw. ging es schon damals nach der 3dfx Übername los.

StefanV
2006-08-08, 23:50:49
http://www.golem.de/0608/47044.html :biggrin:

hm...also nach dem R600 einen R700 Dual-Core ;) ? bzw. R800 Quadcore...


AMD Radeon X3000 Quad :D
An dieser stelle mag ich mal stark zweifeln, das man 2 identische COres meint...

Es ist wahrscheinlicher, das man unterschiedliche Cores meint, z.B. K8 + R600 oder was auch immer...

Hardwarefresser
2006-08-09, 18:41:49
Das Problem liegt momentan eher am Speicher. Man hat 2 Alternativen:

1.) Man packt einfach mehr Pixelpipelines in den Kern. Dadurch kann man die Leistung sehr gut steigern und im Zweifelsfall einfach welche abschalten und als billigere Karten verkaufen. Das Problem an der Sache: Die Speicherbandbreite bleibt die selbe, da man den Speicher nicht beliebig breit anbinden kann.

2.) Man packt einfach wie bei den GX2 von Nvidia 2 Karten aufeinander bzw. nebeneinander (was sich halt einfacher realisieren lässt. Vorteil: RAM-Bandbreite wird nicht geteilt. Nachteil: Man muss den doppelten Speicher verbauen, da die Daten doppelt vorhanden sein müssen.

Alle beiden Alternativen sind nicht wirklich das Wahre. Eine Alternative wäre ein shared RAM, aber ich habe keine Ahnung, ob so etwas machbar/sinnvoll wäre.

Hvoralek
2006-08-09, 19:36:06
Was wäre, wenn diese beiden Kerne mal nicht identisch wären, sondern unterschiedliche Funktionen haben? So könnte man ein Design schön funktional skalieren.Meinst Du, dass man z.B. zunächst einmal alles, was nur einmal vorhanden sein muss, auf einen Chip packt (Speichercontroller, Rasterizer, Arbiter) und dann eine variable Anzahl weiterer Chips mit TMUs, Arithmetikeinheiten und ROPs auf die Platine setzt?

Wenn man die letztgenannten Dinge noch jeweils auf eigene Dice setzt, hätte man mit den Arithmetikchips praktisch kleine Coprozessoren. Wofür ATI/ AMD sowas wohl gebrauchen könnte? :biggrin:

Wobei man für Spitzenmodelle dann schon recht viele kleine Chips bräuchte.
Wie aufwändig wäre es denn, Daten ständig zwischen denen hin- und herzuschieben?

The_Invisible
2006-08-09, 19:55:29
']Diese ganzen Dual GPU und die Verteilung auf seperate Chips hatten wir schon vor knapp 2 Jahren, und zwar bei Nvidia...:D

ja, außerdem gibts das seit gx2 7900/7950 schon schön "komprimiert". aber man stelle sich ne dualcore x1900xtx vor, ohne co2 geht da wohl nix :D

mfg

Gasthaus
2006-08-10, 00:06:38
Das Problem liegt momentan eher am Speicher. Man hat 2 Alternativen:

1.) Man packt einfach mehr Pixelpipelines in den Kern. Dadurch kann man die Leistung sehr gut steigern und im Zweifelsfall einfach welche abschalten und als billigere Karten verkaufen. Das Problem an der Sache: Die Speicherbandbreite bleibt die selbe, da man den Speicher nicht beliebig breit anbinden kann.

2.) Man packt einfach wie bei den GX2 von Nvidia 2 Karten aufeinander bzw. nebeneinander (was sich halt einfacher realisieren lässt. Vorteil: RAM-Bandbreite wird nicht geteilt. Nachteil: Man muss den doppelten Speicher verbauen, da die Daten doppelt vorhanden sein müssen.

Alle beiden Alternativen sind nicht wirklich das Wahre. Eine Alternative wäre ein shared RAM, aber ich habe keine Ahnung, ob so etwas machbar/sinnvoll wäre.

An letzteres habe ich auch gedacht,shared RAM mit zwei unabhängigen Speicheranbindungen der jeweiligen GPUs.Das dürfte doch realisierbar sein.

StefanV
2006-08-10, 01:33:13
Das Problem liegt momentan eher am Speicher. Man hat 2 Alternativen:

1.) Man packt einfach mehr Pixelpipelines in den Kern. Dadurch kann man die Leistung sehr gut steigern und im Zweifelsfall einfach welche abschalten und als billigere Karten verkaufen. Das Problem an der Sache: Die Speicherbandbreite bleibt die selbe, da man den Speicher nicht beliebig breit anbinden kann.

2.) Man packt einfach wie bei den GX2 von Nvidia 2 Karten aufeinander bzw. nebeneinander (was sich halt einfacher realisieren lässt. Vorteil: RAM-Bandbreite wird nicht geteilt. Nachteil: Man muss den doppelten Speicher verbauen, da die Daten doppelt vorhanden sein müssen.

Alle beiden Alternativen sind nicht wirklich das Wahre. Eine Alternative wäre ein shared RAM, aber ich habe keine Ahnung, ob so etwas machbar/sinnvoll wäre.
Du hast 3.) vergessen:

Man packt einfach auf jeden Chip einen mittelgroßen Framebuffer, so 16-32MiB eDRAM (oder Z-RAM) sollten langen, erstmal...

Ev auf die Xenos Art...

Ailuros
2006-08-10, 07:02:36
Keine Ahnung wieviel an Transistoren ZRAM brauchen wuerde, aber eDRAM wuerde schon geraum an Transistoren kosten. Kleine Mengen von eingebettetem Speicher sind dann wohl schon realisierbar aber dienen eher als caches (die es sowieso in kleinen Portionen auf GPUs gibt), groessere Mengen "a la Xenos" eventuell als quasi "MSAA framebuffer".

Im zweiten Fall schaetze ich dass die 10MB eDRAM auf Xenos ca. 60M Transistoren kosten (ergo kann man sich ja theoretisch groessere Mengen ausrechnen) und man braucht auch hier macro-tiling um unter allen Bedingungen 4xMSAA ins eDRAM quetschen zu koennen. Es sieht so aus dass es selbst fuer die XBox360 schwer sein wird alle Entwickler fuer macro-tiling zu ueberreden; fuer den PC wuerde es nicht unbedingt besser aussehen.

Nicht nur das, aber ATI hat oeffentlich schon mehrere Male gesagt dass eDRAM fuer PC GPUs keine Option waere.

Hübie
2006-08-10, 07:18:22
']Diese ganzen Dual GPU und die Verteilung auf seperate Chips hatten wir schon vor knapp 2 Jahren, und zwar bei Nvidia...:D

Und ATi hatte schon davor Erfahrungen damit (Siehe animated movies). 4xR200 und auch beim R300 gabs multi-VPU-Lösungen.
Und nun?

Das würde ich schon eher begrüßen. Denn so verteilt man die Verlustleistung auf zwei GPUs. Die entstehende Wärme wäre einfacher/leiser abtransportierbar im Vergleich zur einer gleichschnellen Single-GPU Grafikkarte.

Das ein Dualcore viel schwieriger zu kühlen ist, ist auch nicht ganz richtig (siehe X2, Conroe).
Wo Grafikkartenhersteller meiner Meinung nach ansetzen sollten, wären Energiesparmodi (siehe C´n´Q) und die von Ailuros´ angesprochenen Caches. Da könnte sich die Fusion mit AMD bezahlt machen.


bye Hübie
Edit: Imo ist ringbus schon ein sehr gutes Verfahren, wenn man weiter in die Zukunft schaut. Da scheint der Flaschenhals "Speicheranbindung" nicht mehr so extrem. Wenn man das in 2 "Bänke" staffelt...

Gast
2006-08-10, 08:38:55
Single-Die Multicore bei GPUs macht auf jedenfall mal keinen Sinn, wenn dann sowas wie die 7950GX2.

deekey777
2006-08-10, 11:29:02
Single-Die Multicore bei GPUs macht auf jedenfall mal keinen Sinn, wenn dann sowas wie die 7950GX2.

Wenn das Kosten reduziert, macht es schon Sinn.

Und ATi hatte schon davor Erfahrungen damit (Siehe animated movies). 4xR200 und auch beim R300 gabs multi-VPU-Lösungen.

Rage Fury Maxx. ;) :D

Winter[Raven]
2006-08-10, 11:32:50
Und ATi hatte schon davor Erfahrungen damit (Siehe animated movies). 4xR200 und auch beim R300 gabs multi-VPU-Lösungen.

Ahhh ... "Erfahrung" ist gut, schließlich war ja man als Win2k User unten durch.

Rage Fury Maxx.

Und was soll an der "toll" gewesen sein? Mit 2 Chip nichtmal an eine tnt2 bzw. voodoo3 rankommen?

Gast
2006-08-10, 11:48:30
']Ahhh ... "Erfahrung" ist gut, schließlich war ja man als Win2k User unten durch.

Und was soll an der "toll" gewesen sein? Mit 2 Chip nichtmal an eine tnt2 bzw. voodoo3 rankommen?

Hi Raven,

das mag zwar stimmen, aber die Zeiten, das eine TNT2, sprich eine heutige nv-Lösung schneller ist als eine heutige ATI-Lösung, sind längst vorbei.

Wie wäre es denn wenn wir mal die FX5200 Thematik hier mit einbringen ;) Von wegen !

Lg
Gast

deekey777
2006-08-10, 11:48:56
']

Und was soll an der "toll" gewesen sein? Mit 2 Chip nichtmal an eine tnt2 bzw. voodoo3 rankommen?
AFR.
Und seit wann geht es hier um die Performance? Du meintest doch, dass nVidia (nicht nVidia, sondern Gigabyte) seit zwei Jahren (sind noch nicht rum) eine Dual-Chip-Lösung haben.

Hübie
2006-08-12, 10:45:59
Naja ich spielte eher nicht auf die Rage Fury Maxx an, sondern auf die 4 gekoppelten R250, mit denen "finding Nemo" gerendert wurde.

Anscheinend kann ATi das - aber nicht fürs mainstream-Segment.
Crossfire ist meiner Meinung nach Momentan mist.. :mad: Naja ich hoffe es wird sich mit der X1950Pro ändern.
Dazu müssten aber noch Treiberveränderungen dazukommen.


bye Hübie
ps: Hört auf mit diesem "Aber nVidia hat ... blah blah blah und ATi hat dafür .. blah blah blah" Geplapper!

Gast
2006-08-12, 18:49:04
Wie kann man denn in 60M Transistoren ca. 80M bits unterbringen? Hab ich da die springende idee nicht? oder meintest du 10MBit? Hört mir bloß mit den mebibitkibabobytes auf :D

Gast
2006-08-14, 21:37:45
hrr hrr ich würde sagen die hauen 2 mid range chips via HT bzw ring bus zusammen verpassen jedem chip nen eRAM und verticke ndas ganze dann als über highend lösung :P

Gasthaus
2006-08-15, 00:16:28
']Diese ganzen Dual GPU und die Verteilung auf seperate Chips hatten wir schon vor knapp 2 Jahren, und zwar bei Nvidia...:D

Hier gehts aber nicht um"umständliches"SLI welches keine 100%ge Steigerung ergibt...
...mehrere Dies welche so zusammearbeiten wie ein grosses ist dann doch was anderes.

Der grosse Vorteil,wie in den 3dc-News erwähnt,man hat im Idealfall nur noch einen GPU-Core den man von low-bis high-end nutzen kann.Einfach vier selektierte Chips zusammepappen und schon hat man eine GTX,ein"gerade so"Chip wird dann ne low-end.
Die Ausbeute von mehreren kleinen DIEs ist auch viel grösser und flexibler als ein grosses DIE auch entfallen verschiedene Produktionsstrassen da es nur eine Version gibt.Zudem können im 2D-Modus drei der vier Chips abgeschaltet werden.

Gasthaus
2006-08-15, 00:26:03
Naja ich spielte eher nicht auf die Rage Fury Maxx an, sondern auf die 4 gekoppelten R250, mit denen "finding Nemo" gerendert wurde.

Anscheinend kann ATi das - aber nicht fürs mainstream-Segment.
Crossfire ist meiner Meinung nach Momentan mist.. :mad: Naja ich hoffe es wird sich mit der X1950Pro ändern.
Dazu müssten aber noch Treiberveränderungen dazukommen.


bye Hübie
ps: Hört auf mit diesem "Aber nVidia hat ... blah blah blah und ATi hat dafür .. blah blah blah" Geplapper!

Tja,wenn unmengen von Geld fliessen ist vieles möglich wie zB.bei Evans&Sutherland Flusimulatoren welche auch mehrere gekoppelte R300er u.a. einsetzten.
Ausserdem sind Sims oder Renderfarmen sehr spezialisiert und die Treiber ebenfalls,oder glaubst du teure Flugsims können es sich leisten einen solch schlechten Leistungszugewinn ala Quad-SLI in kauf zu nehmen?

Und ja,CF hört sich im Gegensatz zu SLI von der Flexibilität unterirdisch an,was nicht heisst das SLI generell problemfrei ist.

hans_wurst
2006-11-25, 13:20:17
Laut 3Dcenter ist an dem Gerücht doch was dran. Die kleineren Chips haben doch meistens nur Vorteile, insbesondere was die Produktionskosten anbelangen

Godmode
2006-11-25, 16:42:25
Es hört sich sehr interessant an! Die Frage ist wie einfach kann man diese Minichips koordinieren?

Gast
2006-11-25, 16:59:05
Wo war hier nochmal die Rede von "Minichips"?

Hvoralek
2006-11-25, 17:08:00
Laut 3Dcenter ist an dem Gerücht doch was dran. Die kleineren Chips haben doch meistens nur Vorteile, insbesondere was die Produktionskosten anbelangenMoment: Laut 3DCenter berichtet der Inq (mal wieder) davon. Das ist ein Unterschied.

Unwahrscheinlich scheint mir das allerdings nicht. Ich tippe aber weiterhin auf mindestens zwei, eher drei oder unterschiedliche Chips.

Gast
2006-11-25, 18:55:05
Jou AnarchX und Winterraven. Kann doch alles nicht so das Wahre sein was ATI bastelt... Ist ja klar... Was man allerdings gerne unter den Tisch kehrt, ist, daß SLI auch nicht wirklich prima läuft. Crossfire ebenfalls. SLI wird hier an der genau richtigen Stelle ziemlich gut erläutert :D http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5025930#post5025930

Daher gefällt mir die oldschool der RageFuryMaxx schon besser. Keine Zauberei mit Profilen, keine 2 Karten im System, keine Warterei auf den neuen Treiber der endlich merkbare Vorteile auch im Spiel XY bringt.

Ein Verbund von Kernen der sich die Arbeit per BIOS/Firmware auf der Karte immer auf die gleiche sinnvollste Art teilt und ein Treiber der es berücksichtigt. Ohne Profile und ohne einer extra Wurst in den Spielen. Für Multiprozessing hält AMD einige Techniken parat. Schön wäre es. Bleibt die "Hoffnung", daß sich sowas für Streaming-Prozessoren einfacher umsetzen läßt als für gewöhnliche CPUs.

Gast
2006-11-25, 19:02:51
Daher gefällt mir die oldschool der RageFuryMaxx schon besser. Keine Zauberei mit Profilen, keine 2 Karten im System, keine Warterei auf den neuen Treiber der endlich merkbare Vorteile auch im Spiel XY bringt.Tja, dann musst du wohl eine Rage Fury nutzen. Multi-GPU-Systeme sind heute nicht mehr so einfach zu realisieren wie früher. 3DFX hat einfach 2 Chips zusammengeschlossen und sie unterschiedliche Zeilen rendern lassen. Das geht heute nicht mehr so einfach.

Gast
2006-11-25, 19:38:48
Es behauptet auch keiner, daß man einfach zwei R600 nehmen kann die sonst auf 'normalen' Karten sitzen werden. 3dfx hat einfach 2 gleiche Chips zusammengeschaltet. Heutzutage wird man dafür eine zusätzliche Logik brauchen. Als unmöglich würde ich es nicht abtun. Jedenfalls ein besserer Weg als SLI/Crossfire.

haifisch1896
2006-11-25, 20:41:32
Verursacht sowas denn nicht mehr Aufwand beim Routing der Signalleitungen auf dem PCB?

Wenn ja, würde die vermutlich bessere Ausbeute auf den Wafern diese Kosten wieder wettmachen?

Gast
2006-11-25, 21:09:41
Verursacht. Verursacht aber in der Herstellung nicht mehr Kosten als ein SLI/Crossfire-Gespann herzustellen. Was dann hoffentlich auch an den User weitergegeben wird.
Ob es MultichipOnPCB oder MultichipOnChip ;) sein soll steht ja noch nirgendwo geschrieben. Ich glaube nicht, daß mehrere ICs verlötet werden. Ich nehme an es wird wenn denn eher so wie zB. bei X2 aussehen. Also MultichipOnChip. Oder, noch wahrscheinlicher, sowas :) http://de.wikipedia.org/wiki/Bild:Power5.jpg (Smileys zwischen den url-Tags, geil... Paßt aber irgendwie :biggrin: )

Gast
2006-11-26, 10:09:07
Ich nehme an es wird wenn denn eher so wie zB. bei X2 aussehen. Also MultichipOnChipWelchen Sinn sollte sowas ergeben? Wenn es eh nur ein Chip ist, kann man auch einfach die Anzahl der Funktionseinheiten erhöhen. Das sollte deutlich effizienter sein.

Gast
2006-11-26, 12:18:54
"Gute" Frage. Welchen Sinn hat die Bauweise eines Power5?

patermatrix
2006-11-26, 12:37:24
Welchen Sinn sollte sowas ergeben? Wenn es eh nur ein Chip ist, kann man auch einfach die Anzahl der Funktionseinheiten erhöhen. Das sollte deutlich effizienter sein.
Aus wirtschaftlicher Sicht: Höhere Ausbeute?

Gast
2006-11-26, 12:47:03
Aus wirtschaftlicher Sicht: Höhere Ausbeute?Gerade das fällt ja weg, wenn es ein einziger Chip mit mehreren Kernen sein soll. Da müsste man schon zwei Chips auf ein Package hauen, sowie es Intel beim Presler oder Kentsfield macht.

Aber auch das halte ich für die nächsten Jahre nicht für sonderlich wahrscheinlich. Warum nicht einfach die Anzahl der Funktionseinheiten erhöhen? Das ist bei GPUs einfach am effizientesten.

Die gelbe Eule
2006-11-26, 12:47:19
Ist noch zu groß, als das man zwei Kerne unterbringen könnte. Mit 45nm sehen wir vielleicht den ersten, dann passt es auch auf das PCB.

BlackBirdSR
2006-11-26, 12:48:52
Welchen Sinn sollte sowas ergeben? Wenn es eh nur ein Chip ist, kann man auch einfach die Anzahl der Funktionseinheiten erhöhen. Das sollte deutlich effizienter sein.

Man kann seinen Prozessor effizienter Skalieren. Vom very low-end hoch bis in militärisch-industrielle Bereiche. Im Zuge dessen erreicht man auch bessere Yields und hat weniger Kosten. Die ganze Produktion wird effizienter und das eingesetze Geld effektiver ausgegeben.

Auf dem Chip selbst erspart man sich erhebliche Probleme mit lokalen Hotspots und verringer Kompromisse um Takt-Signal und Treiber aufrecht zu erhalten. Signal-Latenzen werden verkürzt und Taktraten können erhöht werden.

Am Ende macht das Alles durchaus viel Sinn. Natürlich muss das Umfeld mitspielen. Aber ATI/Nvidia sind ja quasi in der glücklichen Situation, dass sie das Umfeld kontrollieren.

TheRealTentacle
2006-11-26, 15:15:48
Ich sehe da noch einen anderen grossen Vorteil: Wenn man die Gewisse Geschwindigkeit mit mit einer Generation mit dem Konkurenten mal nicht mithalten kann (z.B. durch nicht erreichbare taktraten), so packt man einfach mehr Chips mit einem geringeren Takt auf den, ich nenn ihn mal "Träger Chip". Das wäre zware teurer als das Gewollte Design, aber man könnte zumindest Mithalten.

Siehe R600, der ja Anfangs nicht mit der gewünschten Geschwindigkeit verteilt wurde. Ein so starres Design ist dann zu sehr vom Chiphersteller abhängig. Mit einem Modularen Chipverbund ist man wesendlich flexiebler.

Mann könnte so für Notebooks z.B. auch enorm viel Energie sparen. Die nicht benötigten Chips werden im Batteriebetrieb einfach abgeschaltet. Hängt das Notebook an der Steckdose hat man dann die für Spiele benötigte Leistung. Ausserdem kann man besonders stromsparende Einzelexemplare für Notbooks selektieren.

robbitop@work
2006-11-27, 09:53:18
Wäre dieses Konzept nur vorteilhaft, hätte man es schon lange umgesetzt.

Vorteile:
-einfache Skallierung, es genügt nur wenige Chipserien um über Skallierung alle Märkte zu bedienen
-weniger R&D Kosten
-Yields werden besser, da weniger Verschnitt

Nachteile:
-PCB Kosten steigen
-Packaging teurer
-effektive Skallierung ist technisch nicht einfach

Da man es sich nicht leisten kann, VRAM zu verschwenden, muss der VRAM mitskallieren. Also wäre es unerläßlich, wenn alle "Chips" auf den gleichen VRAM zugreifen können. Das würde auch ein effektives "SLI" ermöglichen, da man endlich völlig transparent für die Anwendung mit allen GPUs auf einem Bild arbeiten kann. Das ist auch nötig. Es muss immer funktionieren.

Problem ist jedoch die Anbindung der Chips untereinander. Damit keine Flaschenhälse entstehen, müßten diese mit einer ähnlichen Bandbreite angebunden sein, wie die VRAM Bandbreite. Besser mehr und besser mit viel viel kleineren Latenzen, damit das Ding nicht ins Stocken kommt. Das hieße also dann ~150 - 200 GiB/sek. Dass solche Busse möglich sind, zeigt Xenos. Jedoch müssen die Chips dann sehr nahe aneinander liegen, also auf dem gleichen Package liegen.

Es ist nicht unmöglich, aber es ist auch nicht einfach. Ich bin gespannt, ob man das so umsetzen wird.

Gast
2006-11-27, 10:19:17
Solche Spekus gabs doch schon öfters. Nie ist was draus geworden. Solange man alles in einen Chip bauen kann, tut man das auch.

Es ist kostengünstiger, 3 Chips für High, Mid und Low-End zu entwerfen und zusätzliche Modelle durch Speicheranbindung und Ausbau zu realisieren, als so einen Baukasten zu entwerfen.

Ein Argument wurde noch gar nicht erwähnt. Treiber müssen auch mit allen Chip-kominationen laufen und bei dem "gut ausgelasteten" *hust* Treiberteam bei ATI halte ich es für ausgeschlossen, dass sie sich da noch mehr Arbeit aufhalsen.

gruß mapel110

Hübie
2006-11-28, 12:07:16
Bist du gesperrt oder warst nicht angemeldet mapel110?? :D :|
In Kombination mit Energiesparfunktionen fände ich einen möglichen R600x2 sicher ne gute Idee, aber so....
Vom Treiber mal ganz abgesehen.


bye Hübie

Hvoralek
2006-11-28, 12:53:51
Bist du gesperrt oder warst nicht angemeldet mapel110?? :D :|Gesperrt ist er nicht (http://www.forum-3dcenter.org/vbulletin/member.php?u=735) (Wäre er gestern zeitlich begrenzt gesperrt gewesen, wäre er es jetzt wohl länger :biggrin: ). Wahrscheinlich einfach @work, oder?

Gast
2006-11-30, 11:44:16
Wahrscheinlich einfach @work, oder?
Jo, da isser mal wieder. Und er schwitzt. :D
(shice IP-Telefone...)

Gruß mapel110