PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : „Bestückbare Grafikkarten“, wäre das möglich? (bescheidene Idee eines Ahnungslosen)


-=CHICKEN=-
2005-08-24, 03:28:37
Sorry, wenn ich hier über ein Thema schreibe, von dem ich gar keine Ahnung habe, aber ich wollte es einfach mal loswerden.

Vorwort:
In der jetzigen Zeit, wo sich SLI/Crossfire Systeme sich vielleicht einen festen Platz erkämpfen, ist es eigentlich ziemlich offensichtlich, das die „Forderungen“ der Verbraucher schon ziemlich auseinander driften.
Die Einen brachen stets das Beste vom Besten und geben dafür bis über 1000 Euro für ein SLI/Crossfire System. Die Anderen sind mit einer 100-150 GraKa völlig zufrieden und spotten sogar über die „Geisteskranken“, die dafür über 1000 Euro ausgeben. (meiner Meinung nach sollte aber jeder das bekommen, was er möchte und sollte nicht über den anderen spotten! :ulove4: ).
Die Wirtschaft versucht natürlich den gesamten Markt abzudecken, was wir ja an der riesigen Produktvielfalt erkennen können:
Jede Firma hat gleich mehrere Varianten eines Chips und davon gibt’s dann auch wieder unterschiedliche Versionen usw. das ist für viele schon ziemlich unübersichtlich geworden und IMHO „Geldverschwendung“ beiderseits (für den Hersteller und dem Verbraucher). :ucrazy3:
Daher finde ich, das etwas „Ordnung“ auf diesem Markt nicht schaden könnte!

Meine Vorstellung:

Kurz: Die Grafikkarten sollten wie ein Mainboard aufgebaut sein. (Dualslot wird wohl unumgänglich sein, oder?)

Lang:
GPU: Also der Grafikprozessor sollte einen eigenen Sockel bekommen. Wenn man den Sockel „großzügig“ auslegt (Konzipiert), könnte man eventuell sogar 2-3 GPU-Generationen auf der gleichen Karte verwenden. Auf jeden Fall sollte aber das wechseln von z.B. einer GT zu einer GTX möglich sein!
Speicher: Wie auf dem MoBo könnte ich mir auch 2-4 Speicherbänke vorstellen, die man nach belieben bestücken kann. Es gäbe zwar verschiedene „Richtlinien“ der einzelnen Hersteller, wäre aber wohl immer noch besser als die jetzige Situation. (komplette GraKa neu kaufen). Aber so könnte man von 128 auf 256/512 MB ziemlich einfach aufrüsten ohne ne neue GraKa zu kaufen! :cool:
SLI/Crossfire: Dafür könnte man einfach Graka-MoBos mit 2 Sockel ins Rennen schicken, von denen man wahlweise nur einen oder zwei bestücken/betreiben könnte.

Somit könnte man den Markt „vereinfachen“ aber vor allem wohl „verbilligen“. Es müssten bei den „GraKa-MoBos“ lediglich noch unterschiede bei den Anschlüssen (z.B.TV in/out) oder der „Busbreite“ (z.B. Speicheranbindung 128 oder 256 Bit) gemacht werden, eventuell noch bei einigen anderen Dingen, aber ich glaube, das die Anzahl der „GraKa-MoBos“ wesentlich unterhalb der Anzahl der jetzt erhältlichen GraKas liegen würde! :)
Somit könnte jeder genau das bekommen, was er möchte, von „Low-End“ bis „Ultra-Mega-High-End“, was es im Moment noch gar nicht gibt, weil der Absatz für jedes Graka-Mobo höher ist, denn es gibt ja weniger „Sorten“.
An alle „Freaks“: Stellt euch mal vor, ihr kauf euch ein GraKa-MoBo mit 2 Sockeln, 4 Speicherbänken, und einer 512 Bit Anbindung für sagen wir mal 300 Euro. So ein Board könnte es sogar geben, denn auch die „Fast-Freaks“ („gehobene midrange“) könnten auf dieses Board zurück greifen, denn sie können es ja nur mit einer GPU und 256 MB bestücken und kommen so vielleicht auch auf etwa 500 Euro, wie für eine einzelne High-End Karte. Außerdem könnten sie es im Nachhinein nach belieben erweitern! Aber ihr „Freaks“ könnt dieses Board ja von Anfang an mit 2 GPUs und 4x256 MB bestücken und hättet ne Performance, die seines gleichen suchen würde! Eventuell sind ja auch 4 Sockel (hallo Voodoo-Fans) bzw. „SLI“ möglich. :up:
Auf jeden Fall glaube ich, das die Graka-Mobos, die gesockelten GPUs und die einzelnen GPU-Speicher-Preise noch stark fallen könnten, denn es würde ein Größerer Markt für jedes einzelne Produkt entstehen!

Leider weiß ich nicht genau, wie es mit den Latenzen und anderen Dingen steht, die eine „Versockelung“ absolut unmöglich machen könnten. Irgendeinen Haken muss es aber geben, denn sonst hätten wir so was bestimmt schon. :| ;(

Wie denkt ihr darüber? Wo ist der Haken? :confused:

EDIT/: p.s. hierbei könnte ich mir auch ein GraKa-MoBo mit PPU-Sockel vorstellen :cool:

tombman
2005-08-24, 03:51:36
der Haken is der, daß GPUs sich von Generation zu Genration zu sehr unterscheiden als das man da auf Dauer einen Sockel bauen könnte. Außerdem würde das vom Platz her gar nicht gehen, weil dann auch low-end Karten dual slot wären, was sicherlich nicht akzeptiert werden würde. (der Sockel nimmt ja Höhe weg). Mehr als 2 Sockel würden sich auch in der Länge nicht ausgehen, weil nicht jedes Gehäuse full size Karten aufnehmen kann.Dann wäre da noch die Speicherfrage- sollen die auch auf einen Sockel- ändert sich ja auch zu rasch (gddr3, gddr4, xdr usw) Ich meine im Prinzip wäre das, wie wenn man ein "mini-mainboard" in das Hauptmobo stecken wollte...not gonna happen ;)

-=CHICKEN=-
2005-08-24, 04:28:06
oh, auch noch wach :wink:
ja, das ist schon ein großer Haken.
die Generationswechsel bringen schon relativ große Veränderungen mit sich, aber wenn man das von vorn herrein berücksichtigkt, dann könnte ich mir vorstellen, das mindestens eine Folge-Generation machbar wäre (IMHO)
Bauhöhe: vielleicht kann man beim GPU-sockel ja eine ziemlich flache Variante konstruieren. Auch die Speicher könnte man relativ flach halten, indem man sie wie ICs baut, also den Riegel quer und mit 2 Steckleisten versehen.
Zugegeben, 4 GPU-Sockel sind doch "etwas" übertrieben. Man könnte sich ja wirklich nur auf max. 2 beschrenken, was normalerweise schon dicke reicht, dafür aber doch 2 GraKa-Mobos in SLI laufen lassen, was ja doch wieder 4 GPUs wären :wink:
Beim PPU müsste man schauen, wo man ihn hin quetscht :rolleyes:


findest du die "mini-mainboard in das Hauptmobo"-Idee wirklich so abwegig?

Betrachte die Situation mal aus der MoBo-Perspektive:
stell dir mal vor, die MoBos wären genau so wie GraKas aufgebaut, also hätten eine fest eingelötete CPU und fest eingelötete RAMs. das ist doch schon für fast jeden "unvorstellbar" (denk an nichts mobiles :wink: ).
Genau so "unvorstellbar" ist eigentlich auch die jetzige Grafikkarte, auf der man einfach gar nichts machen kann (wie das eben erwähnte "Anti-Mobo") ;). Daher finde ich so eine "Mini-Mainboard in das Hauptmobo"-Idee gar nicht mal so schlecht. Sie ist einfach ein wenig anders aber IMHO nicht unvorstellbar!

Daher glaube ich auch nicht, das die Generationswechsel der GPUs + Speicher so ein großes Problem darstellen, denn auf den MoBos geht es ja auch mit den CPUs + RAM, die ja auch gesockelt sind :)

EDIT/:p.s. denk bei der Sache bitte immer nur positv, weil wir dadurch eigentlich nur Vorteile hätten: mehr Leistung+Flexibilität für weniger Geld :wink: :cool:

Poweraderrainer
2005-08-24, 05:28:22
imo wird dann alles mehr kosten. weil dann darfst du nicht EINEN endkundenpreis für die karte blechen, sondern für alles nochmal extra zahlen...ich will nicht wissen, was die dann für 256 GDDR3, XDR oder sowas haben wollen...

mehr flexibilität...mag sein...auch alles viel komplizierter. es müssten neue normen rauskommen...das würde wieder alles komplizieren.

außerdem müsste es verschiedene grakaboards geben. für low end, high end midrange...wegen den zu verbauenden teilen...ist ja auch ein kostenfaktor.

im endeffekt wäre imo alles teurer als vorher bei relativ gleicher leistung^^

Ailuros
2005-08-24, 07:34:26
Waeren grosse Mengen von eDRAM nicht so suendhaft teuer zu implementieren, waere so was vielleicht schon realisierbar und das PCB auch kompatibel bis zu 2 Generationen (aber eben nicht Generation A+B sondern eher A+A und B+B).

Ich sehe aber nicht ein warum so was billiger sein sollte, ueberhaupt fuer die low-end und mainstream Maerkte.

Gast
2005-08-24, 08:38:02
Im kleineren Maße gab es das ja schon. Meine erste 3D Grafikkarte (Matrox Mystique) hatte einen freien Steckplatz, um zusätzlichen Speicher hinzufügen zu können.


Aber wie schon gesagt: das WÄRE eine realistische Möglichkeit, wenn sich nicht die gesamte Architektur alle zwei Jahre komplett ändern würde. Selbst bei CPUs sind ja Sockeländerungen nicht gerade selten, obwohl sich da die Befehlssätze deutlich langsamer verändern als bei Grafikkarten.

Nein, solange in den Markt nicht ein bißchen Ruhe eingekehrt ist, bringen aufrüstbare Grafikkarten nix. Und danach hat man wahrscheinlich keinen Bedarf mehr, seine Grafikkarte aufrüsten zu wollen... ;)

--- Monger

Gast
2005-08-24, 09:11:01
möglich wäre es

mehr nicht

Mr.Magic
2005-08-24, 09:30:46
Ein Problem das ihr komplett überseht ist, dass es extrem teuer wäre überhaupt Sockel mit der nötigen Kontaktqualität zu entwickeln und zu bauen. Alleine schon weil es bei austauschbaren Chips auch nicht langsamer sein soll als bei verlöteten Chips.

@Threadstarter
Selbst wenn es so einfach wäre wie du dir das vorstellst gäbe es dann statt den 7 Leistungsgruppen* 5+ verschiedene Boards mit den unterschiedlichen Anbindungen (128/256bit, DDR1/GDDR3, etc.)? Soll ich alle 18 Monate ein neues Board kaufen weil sich das Grafiklayout geändert hat? Warum tu' ich mir dann überhaupt den hackmack mit den Einzelkomponten an die auch alle ausgewählt werden wollen? Statt der Wahl aus ~10 Grafikkarten in meinem Leistungsbereich darf ich aus was 50?100? Komponenten wählen und selbstbauen, wo ist das ein Vorteil?

*als Beispiel NV (durch Restposten/Markteinführungen sind die Grenzen fast immer etwas schwammig, ich versuche das mit einzubeziehen, auch wenn ich mit dem Ergebnis nicht 100%-ig zufrieden bin)
- Low-End; praktisch nur arbeitstauglich - die 6200er Reihe
- Lower Medium-Range; für Bürorechner der Gelegenheitsspieler - 6600
- Medium-Range; für "anspruchslose" Spieler - 6600GT/6800LE
- Higher Medium-Range; für gehobene Ansprüche - 6800/GT
- Lower High-End; für qualitätsbewusste Spieler die zwar Leistung wollen aber nicht bereit sind für ein paar % Geschwindigkeit einen kräftigen Aufschlag zu zahlen - 6800U/7800GT)
- High-End; für denjenigen der ohne AA/AF und hohe Auflösungen nicht leben kann - 7800GTX
- Super-High-End; für Spielegenuss in maximaler Qualität - Karten aus dem High-End-Bereich im SLI-Modus

Durch die Vielfalt sollte für jeden Geldbeutel und jeden Anspruch was dabei sein. Ich möchte nicht dabei sein wenn du mal vorhast ein Auto zu kaufen...

€: Blödsinn geändert, hatte den Eröffnungspost nur überflogen und etwas falsch verstanden. Peinlich, peinlich :redface:

DerRob
2005-08-24, 09:41:39
ich denke mal, speziell beim speicher würde man da ziemliche probleme bekommen. die speichermodule auf dem mainboard haben z.b. 184 kontakte, und bieten dabei 'nur' 64bit bei ~200mhz takt. mit dualchannel kann man zwar auf 128bit kommen, muss dabei aber schon teilweise kompromisse bei den latenzen eingehen. der grafikspeicher ist mit bis zu 256bit bei teilweise schon fast 600mhz angebunden. zudem sind die speicher rund um die gpu verteilt, um das platinenlayout nicht zu aufwendig werden zu lassen, und die leitungen kurz zu halten. wenn man das ganze mit steckplätzen erreichen möchte, wird die grafikkarte wohl unverhältnismäßig teuer.
der aufwand steht wohl in keinem verhältnis zum nutzen, den man durch die modularität erreichen würde.

grandmasterw
2005-08-24, 10:02:09
6600GT is für anspruchslose Spieler? naja..

Ich seh da noch mehr Probleme:
1) Kühler montieren. Jeder von uns wär froh, weil dann keiner mit Garantieverlust drohen kann, wenn du den Kühler tauschst, aber fürn hersteller heißt das haufenweise Garantiefälle, weil die Leute zu blöd dazu sind.
2) Bauhöhe, da will ich garnet dran denken
3) Kein Hersteller hat interesse, dass das Zeug billiger wird. Wenn Hersteller A das macht, und dann alle bei ihm kaufen, würd aber Hersteller B nachziehen. Trotzdem wird sich Hersteller A hüten, damit anzufangen.

Ailuros
2005-08-24, 15:31:55
6600GT is für anspruchslose Spieler? naja..

Im Vergleich zu X850XT, 6800U oder 7800GT/GTX schon.

Ailuros
2005-08-24, 15:40:36
Lower Medium-Range; für Bürorechner der Gelegenheitsspieler - 6600

Ein Buerorechner kommt auch mit einem IGP heutzutage locker aus.

Wishnu
2005-08-24, 16:22:26
Im Vergleich zu X850XT, 6800U oder 7800GT/GTX schon.

Ich würde das "anspruchslos" durch "preisbewußt" ersetzen. :)

Mr.Magic
2005-08-24, 18:40:57
Ich weiss schon warum ich schrieb nicht hundertprozentig zufrieden mit der Liste zu sein, aber auch mit den offensichtlich fließenden Abgrenzungen sieht so ungefähr, meines Erachtens, z.Zt. die aktuelle Marktsegmentierung von NV aus ;)

@Ailuros
Es sollen sogar Gelegenheitsspieler gesichtet worden sein die sich sowas antun. Das sieht dann aber auch aus wie in den Neunzigern.

@Wishnu
Alle preisbewußten Spieler die ich kenne haben mindestens eine Vanilla 6800 zuhause (Alter 20+). Ich gehe darüber hinaus von den aktuellen Verkäufen aus, sprich nach den Preisrutschen durch die neuen Spitzenmodelle. Und es geht in der Auflistung vor allem um Menschen die sich eine 6800 leisten könnten, wenn er dann aber trotzdem lieber zu einer 6600GT greift legt er eben auch nur einen geringen Wert auf Grafikqualität. Aus meiner Sicht ist das erträgliche Mindestmaß um überhaupt ein Spiel zu starten 1280x960 mit 4xAA/2xAF. Ich will von der Grafik auch was sehen, da ist mir ein ruhiges Bild wichtiger als Effektspielereien die oft nur die miese Grafik übertünchen (sollen). Die "" sind hinzugefügt weil es um die Qualitätsextras ging und das nicht jeder so sehen muss. Es geht bei meiner Einteilung jedenfalls nicht um Kids/Jugendliche die sich nicht mehr als eine Vanilla 6600 leisten können (wenn Eltern nicht reich sind und sie noch andere Hobbies haben).

Zool
2005-08-25, 07:30:48
Einen Sockel für GraKas zu etablieren ist schon bei den Notebooks gescheitert. Da hatten mehrmals Nvidia und Ati versucht eine Art Baukastenprinzip zu etablieren. Man erinnere sich an den MXM-Versuch von Nvidia, der sich aber schnell in Luft aufgelöst hat, weil er ATI keinen Platz ließ.

http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/47479

Gast
2005-08-25, 07:53:18
ich bin von einer GF3 (1050DM :D ) auf eine 6600GT umgestiegen
die gt wird sicher nicht so lange halten
das problem der GF3 war sogar weniger der output sondern ich konnte nichts zocken weil sie kein SM3 directx etc konnte
in hl zb kein spiegelndes wasser

darum habe ich mir nun keine bessere karte mehr gekauft
das tei lhat 150€ gekostet und ist damit sicher sehr sehr günstig
mir reicht sie überall hin

aufgerüstet wird sicher erst wieder mal richtig wenn ein neuer knaller kommen sollte oder die karten WGF2.0 können und dann auf eine "6800GT" also Mid range so um die 300€

nach ca 3 jahren sind die 500€ karten doch eigentlich nichts mehr wert
neue brürokarten sind sparsamer und schneller

deshalb kaufe ich mir keine so teuren karten mehr
(auch kan nich eher aufrüsten und muss mir nicht vorwerfen die war so teur)

ram
2005-08-25, 08:40:24
GPU: Also der Grafikprozessor sollte einen eigenen Sockel bekommen. Wenn man den Sockel „großzügig“ auslegt (Konzipiert), könnte man eventuell sogar 2-3 GPU-Generationen auf der gleichen Karte verwenden. Auf jeden Fall sollte aber das wechseln von z.B. einer GT zu einer GTX möglich sein!


Es gab mit Rendition mal einen IHV, der sowas machen wollte: http://www.micron.com/news/corporate/1998-05-19_16351.html

Hamster
2005-08-25, 08:59:23
Einen Sockel für GraKas zu etablieren ist schon bei den Notebooks gescheitert. Da hatten mehrmals Nvidia und Ati versucht eine Art Baukastenprinzip zu etablieren. Man erinnere sich an den MXM-Versuch von Nvidia, der sich aber schnell in Luft aufgelöst hat, weil er ATI keinen Platz ließ.

http://www.heise.de/newsticker/result.xhtml?url=/newsticker/meldung/47479


wieso gescheitert? nur weil bisher wenige hersteller darauf anspringen? ich denke es dauert einfach eine gute zeit bis sich das durchsetzt. aber ist doch heute bei vielen drp zu sehen.

Ailuros
2005-08-25, 12:53:50
Es gab mit Rendition mal einen IHV, der sowas machen wollte: http://www.micron.com/news/corporate/1998-05-19_16351.html

Socket X betraf aber auch chips mit eDRAM. Damals haette ich aber noch externen Speicher erwartet.

Wie ich schon sagte wenn eDRAM nicht so teuer waere was Transistoren betrifft, duerfte es nicht allzu schwer sein keinen Bedarf fuer externen GPU Speicher mehr zu haben (=>32MB eDRAM + virtual memory).

-=CHICKEN=-
2005-08-25, 14:13:18
hiho,
hab eure post aufmerksam durchgelesen und mir noch ein paar gedanken dazu gemacht. mein anliegen war ja, etwas "ordnung" in markt zu bringen, damit es nicht nur übersichtlicher wird, sondern auch billiger.
bei dem billiger werden kam es mir so vor, als wenn einige nicht genau verstanden haben, worauf ich hinaus wollte (es liegt nicht an euch, sondern an meiner "bescheidenen" ausdrucksweise).
ich versuchs noch mal etwas anders zu formulieren: gehen wir mal davon aus, das sich 1 mio. leute eine graka kaufen möchten und zwischen 50 erhältliche modellen wählen können, somit würde jede graka 20000 mal gekauft werden (durchschnittlich). würde man jetzt aber die modellauswahl auf 10 reduzieren, welche aber trotzdem den gesamten markt abdecken würde, dann würden ja pro modell etwa 100000 (auch durchschnittlich), also 5 mal so viele pro modell verkauft werden. dadurch könnten die hersteller ja mehr karten pro modell produzieren, was ja nicht nur den herstellungspreis reduziert, sondern vor allem auch die entwicklungskosten (sie müssen ja nur noch 1/5 der designs entwerfen).

Das ist zwar alles eher eine "milchmädchenrechnung", könnte aber im großen und ganzen etwa zutreffen.
nach einigen überlegungen (durch eure einwände) kam ich aber leider auch zur ansicht, das die modell-vielfalt sich doch nicht so stark reduzieren würde und schon gar nicht auf 1/5.
außerdem muß ich euch zustimmen, das es vielleicht doch nicht so übersichtlich wird, wie ich es mir erhofft habe, weil man sich ja auch erst mal über die einzelnen komponenten informieren muss, was einem "normalen" PC-user wohl doch wieder auf dem "magen schlagen" würde!
daher glaube ich, das es wohl doch besser ist, das man den lowend und midrange bereich so lässt, wie er im Moment ist!

beim "ultra-highend-bereich" sehe ich das aber nach wie vor etwas anders: technich gesehen wäre es bestimmt möglich, eine graka mit 2 GPUs und 512/1024 MB Speicher, der über eine 512 bit anbindung verfügt, herzustellen aber dann würde solch eine Graka bestimmt über 1500 euro kosten.
leider wird es bestimmt nur wenige 1000 user geben, die sich solch eine karte leisten bzw. wünschen würden, aber diese paar 1000 user gibt es und können momentan leider nicht ihre wünsche erfüllen, weil solch eine GraKa wohl nie hergestellt werden wird (mangels marktes)!
daher finde ich eine "bestückbare Graka" für den highend-bereich nach wie vor sehr angebracht, denn wenn man sie so bestücken kann, das man sie auch schon für 500 euro (1GPU+256 MB) betreiben kann, dann könnte die nachfrage von wenigen 1000 auf vielleicht ein paar 100000 ansteigen und somit den weg auf dem markt finden.
falls das geschieht, können sich die wenigen 1000 "freaks" (wie oben erwähnt) ihre 1500 euro Graka zusammen setzen und wären einfach glücklich, während sich die anderen nur ihre 500 euro version zusammen setzen (gleiches GraKa-MoBo), diese aber nach belieben erweitern können!
in diesem bereich sehe ich auch kein problem, wenn es sich dabei nur um dualsslotlösungen bzw. mehrere bestückungsmöglichkeiten handelt, denn wir sind ja im highend bereich, wo sich alle "freaks" sowiso gut genug auskennen und auch nicht vor dualslot zurück schrecken werden, denn die "freaks" und "fast-freaks" sind ja nur auf performance aus!

hier noch mal meine vorstellungen:
lowend: so lassen wie es ist.
midrange: so lassen wie es ist.
highend bis "max-end" (ab 500 euro): eventuell auch noch "normale" GraKas anbieten und dazu noch die "bestückbaren GraKas" wie z.B:

Graka-MoBos:
1. 1 GPU-sockel mit 2 speicherbänken (256 bit), bis 2x256 MB bestückbar
2. 1 GPU-sockel mit 2 speicherbänken (512 bit), bis 2x256 MB bestückbar
3. 2 GPU-Sockel mit 4 speicherbänken (256 bit), bis 4x256 MB bestückbar
4. 2 GPU-Sockel mit 4 speicherbänken (512 bit), bis 4x256 MB bestückbar

Speicher:
1. 128 MB (256 Bit)
2. 256 MB (256 Bit)
3. 256 MB (512 Bit)

GPU:
jeweils die top- und die 2. schnellsten modelle in "gesockelter" form anbieten.

man könnte natürlich noch viel mehr versionen anbieten (wird man wohl auch brauchen), aber umso weniger es gibt, desto größer ist ja der markt pro modell (wie oben erwähnt).

Ich könnte mir gut vorstellen, das bei relativ wenig angebotenen versionen der markt groß genug ist, sodaß die hersteller tatsächlich diese versionen anbieten könnten und immer noch genügend gewinn einfahren, zusätzlich aber auch alle "freaks" voll auf ihre kosten bzw. wünsche kommen!

für den highend-bereich fände ich so ein vorgehen sehr angebracht!
was meint ihr dazu?

EDIT/: das problem mit den pins bei 256/512 Bit besteht weiterhin, aber vielleicht könnte man es lösen, indem man vielleicht doch nur 128 MB module, dafür aber 4/8 speicherbänke verbaut. diese dann noch wie die anfangs erwähnten ICs aufbaut, also 2 steckleisten pro riegel.
eventuell ist es vielleicht auch möglich, auf jeder seite doppelsteckleisten zu konstruieren, wodurch wir dann schon bei der 4fachen pinanzahl wären.
bleibt halt noch das problem mit den latenzen und dem platz, aber vielleicht ist es ja doch möglich.

DerRob
2005-08-25, 14:44:31
die speichergröße ist nicht so das problem, vielmehr, die speicher-'breite'. ddr-ram hat nur eine breite von 64 bit, benötigt dafür jedoch schon 184 pins. bei 256/512bit dürften da mindestens 600/1200 pins zusammen kommen. die aktuellen cpus haben momentan 775/939 pins. man müsste also bei deinem größten modell 6 cpu-sockel auf der platine unterbringen.
am ehesten wäre soetwas noch bei den lowend-grakas machbar, da die nicht so hohe ansprüche haben. dem stehen jedoch wieder die zusätzlichen kosten für die steckplätze und die module gegenüber, was die karten wieder zu teuer machen würde.

-=CHICKEN=-
2005-08-25, 15:06:47
die speichergröße ist nicht so das problem, vielmehr, die speicher-'breite'. ddr-ram hat nur eine breite von 64 bit, benötigt dafür jedoch schon 184 pins. bei 256/512bit dürften da mindestens 600/1200 pins zusammen kommen. die aktuellen cpus haben momentan 775/939 pins. man müsste also bei deinem größten modell 6 cpu-sockel auf der platine unterbringen.
am ehesten wäre soetwas noch bei den lowend-grakas machbar, da die nicht so hohe ansprüche haben. dem stehen jedoch wieder die zusätzlichen kosten für die steckplätze und die module gegenüber, was die karten wieder zu teuer machen würde.

jo, leider ist es für den lowend-bereich halt doch nicht angebracht :frown:

also wenn man die 184 pins (bei 64 bit) auf 512 bit hoch rechnet, dann kommt man auf stolze 1472 pins. mag sein, das es ein paar weniger sind, aber deine angesprochenen 1200 werden bestimmt benötigt.mit steckleisten kommt man da wohl doch nicht so weit, denn es müssten ja 4 auf jeder seite sein. aber das mit den cpu sockeln ist vielleicht ein richtig guter ansatz:
die speicherriegel müssten nach vie vor auf das GraKa-MoBo "gelegt" werden. die riegel könnte man aber tatsächlich wie die CPUs aufbauen, also das die unterseite komplett mit pins belegt ist. man kommt dadurch zwar nicht um einen "Speicher-sockel" herum, der etwas teurer sein wird, aber wir befinden uns ja im highend bereich, wo es wohl nur eine geringe rolle spielt. der platz für die pins des speicherriegels müsste dann aber wohl auch für 1200-1472 pins reichen.
sieht bestimmt lustig aus, wenn man so einen gesockelten speicherriegel vor sich liegen hat, der die gesamte unterseite voll mit pins hat :smile:

Coda
2005-08-25, 16:45:41
Das ganze funktioniert schon allein wegen den Signalen nicht. Du bekommst GDDR3 bei 700Mhz nicht durch einen Sockel. Punkt.

-=CHICKEN=-
2005-08-25, 16:58:11
ach so. schade, dann kann man das alles also quasi vergessen :frown:
nun ja, war trotzdem nicht schlecht, mal darüber diskutiert zu haben :wink:

GBWolf
2005-08-26, 12:37:53
hm, die Idee im Thread ist nicht schlecht. aber NOCH wohl nichz u machen. Wenn es denn mal umgesetzt werden sollte, dann sicher nicht als Grakalösung, sondern als eine änliche Lösung direkt auf dem Mobo wie jetzt mit CPU und Ram. Es könnte also einen Slot für CPU und GPU auf dem Mainboad sein, und eventuell von beiden die Rambänke angesprochen werden. Denn dieses 1gig Ram auf der Graka und 1 Gig Ram aufm Mobo hat keine zukunft. Dann lieber direkt den schnellen Ram aufm Mobo und teilen. Ich denke dass ist Technisch leicht umsetzbar, war ja früher nicht viel anders und imho für Hersteller und Kunden die beste Lösung.

Gruß
der Wolf

Mr.Magic
2005-08-26, 15:43:14
Technisch leicht umsetzbar? Falsch gedacht! Es wird seit Jahren daran gearbeitet einen Sockel (für Mainboards) zu erschaffen der schnelleren Speicher verkraftet. Bisher hat allerdings nichts davon auch nur annähernd Serienreife erlangt.

mAxmUrdErEr
2005-08-26, 20:44:16
austauschbare VPUs wollte doch 3dfx in ihrem rampage implementieren, nicht? *wink@3dfxgurus*

Coda
2005-08-26, 22:00:49
austauschbare VPUs wollte doch 3dfx in ihrem rampage implementieren, nicht? *wink@3dfxgurus*Öh, nein?

(del)
2005-08-26, 22:00:53
Wie denkt ihr darüber? Wo ist der Haken? :confused:
U.a. die Sockel. Ich weiß nicht wie ein Speichersockel aussehen und wieviel Pins es haben müßte um zB. über Steckkontakte 600Mhz problemlos zu übertragen. DDR667 hat ja erst 333. Obs die größte Hürde wäre, will ich nicht behaupten, aber ein Problem ist sowas schon. + all das andere was die Jungs schon aufgezählt haben :rolleyes:

(del)
2005-08-26, 22:02:58
Das ganze funktioniert schon allein wegen den Signalen nicht. Du bekommst GDDR3 bei 700Mhz nicht durch einen Sockel. Punkt.
Ja. Hätt ich mir blos erstmal alles durchgelesen :redface:

Gast
2005-08-31, 06:21:30
[QUOTE=Mr.Magic]Aus meiner Sicht ist das erträgliche Mindestmaß um überhaupt ein Spiel zu starten 1280x960 mit 4xAA/2xAF.


Deine Ansicht 66GT=Anspruchslos ist ein wenig arrogant.

Nicht Jeder,auch wenn er das geld hat, ist bereit 550EU für ne
Gainward 68U GS+einen Haufen Probs...auszugeben.

Klar ruckelt ne 66er mit 4xAA.Aber mal im Ernst,Bei deiner Mindestanforderung
muss ich davon ausgehen,das du mind. einen 21"CRT mit SONY Röhre oder
nen CAD Monitor hast!Ansonsten hast du bei 1280 mit nem zB.17"er+Lochmaske herzlich wenig vom ach so tollen AA wenig,da die Röhre
an Sich schon "glättet".

Schraub lieber das AF von schmalen 2 auf 8, davon haste viel mehr quali
und mehr frames-auch auf ner 66er!

ach so,AA ist auf TFTs vielleicht angebracht.Doch zocken auf TFTs?Geht das?
Selbst 4ms SCHMIEREN!

Schalte übrigens bei meiner Ultra wenn überhaupt 8xSS AA-nicht wegen der Kantenglättung,sondern wegen der besseren Textquali.

Gast
2005-08-31, 06:23:35
@Mr.Magic

Ooops,sorry für den Fehler!

Gast
2005-08-31, 06:27:01
...und meinte am ende "Texturqualität"

..Oh ich noob....

Mr.Magic
2005-08-31, 07:32:46
@Mr.Magic

Ooops,sorry für den Fehler!

Hä?

Was auch immer gemeint ist, ich habe zuhause weder eine 6600, noch gebe ich mich mit 1280, 4xAA und 2xAF zufrieden. Wenn schon dann 1280 mit 8xS/16xAF oder 1600 mit 4xAA/16xAF. Selbst das reicht mir nicht wirklich da ich von Bildqualität seit den Tagen der Voodoo 5 nicht genug bekommen kann. Ich kaufe sowieso generell nur das verfügbare Topmodell, da die Leistung NIE ausreicht.
1280@4x/2x als anspruchslos zu bezeichnen ist auch nicht arrogant wenn man mal richtig nachdenkt. Wir wollen uns ja schließlich verbessern und keine Zeitreise nach 2002 machen.
1024@4xAA (oder manchmal 800@4x/1024@2x) hatten qualitätsbewußte Leute vor fünf Jahren. Mit der GeForce 3 war 1024@4xAA/2xAF ein Jahr später kein Thema mehr (wenn auch nicht so schön wie bei der Voodoo). 1280@4xAA/4xAF konnte meine GF4 anno 2002 flüssig darstellen. 8xS oder zumindest 4xS (wenn auch nur kurze; später nur noch bei 1024) lief lange Zeit auf der FX flüssig (Extremfall Far Cry 1024x768@2xAA/4xAF). Die GF6 hatte 2004 endlich genug Reserven um bei den meisten Spielen 1280@8xS/16xAF (ohne Winkelabhängikeit täte es auch 8xAF) flüssig darzustellen. Als nächstes werden 7800GTX bei 1600x1200 und hohen Settings probegefahren. Wenn der anspruchsvolle Zocker also 2005 1600x1200@16xAA/16xAF verwendet ist eine Einstellung wie z.B. 1280x960@4xAA/2xAF das absolute Mindestmaß. Wenn einem eine 9800/X700/6600 reicht ist das OK, als anspruchsvoll braucht man sich aber nicht bezeichnen.

Sicher habe ich unter anderem einen 21" CRT (Samsungröhre und nicht Sony; Sony nix gut) und einen Beamer mit 100" Leinwand. Spielen an meinem lahmen 25ms 17" TFT auf privaten Lanparties ist für mich aber auch nicht weiter tragisch.

Gast
2005-09-01, 23:46:06
@Mr.Magic

21er CRT und Beamer überzeugen mich.

Wieso Samsung besser?
Kann doch nur die Elektronik sein.Meines Wissens nach wird im CAD-Bereich
zumindest mit SONY-Röhren(Streifenmaske) zwecks Schärfe gearbeitet.

Klär mich bitte auf wenn ich falsch liege.

P.S. Welche native Res. hat dein Beamer?DLP oder TFT?

Mr.Magic
2005-09-02, 05:30:22
Das mit Sony ist reine Geschmackssache. Ich persönlich mag weder Streifenmasken noch Trinitron.
Mein CRT-Monitor zickt momentan allerdings rum (manchmal unscharfes Bild) und die Garantie ist im Frühjar abgelaufen. Wenn er entgültig draufgeht sehe ich mich nach einen großen TFT im 2x"-Bereich um. Hab' keine Lust mehr mir meine Augen kaputt zu machen. Bei 1600x1200 hat er gerade mal 85Hz, das ist mir eindeutig zu wenig (weshalb ich bei Spielen lieber 1280@100Hz verwende). Mir fehlt ausserdem die Lust weiterhin so ein schweres, klobiges Monster auf dem Schreibtisch stehen zu haben.

Ist ein TFT-Beamer (Philips Monroe) mit einer nativen Auflösung von 800x600. Die Lampe ist nach ~drei Jahren bei fast 4000 Stunden. Da die maximalen 6000h sowieso kaum erreicht werden muss wohl innerhalb der nächsten 12-18 Monate was neues her. Darüber zerbreche ich mir den Kopf wenn es soweit ist ;).

Hauwech
2005-09-02, 21:46:44
Könnte nicht zusteckbarer Speicher, zB 512MB, als schneller Zwischenspeicher, im Vergleich zum Hauptspeicher bzw Festplatte, für hoch bzw höher aufgelöste Texturen als wir heute haben, genutzt werden? Im Vergleich zu PCIe oder sogar Festplatte dürfte das richtig flott sein. Ob damit Texturen on-the-fly nachgeladen werden könnten, glaube ich aber nicht.

Neben theoretisch besserer Bildqualität bringt es performancetechnisch wahrscheinlich wenig bis gar nichts. Alles nur Spekulationen aber ich bin auch nur Laie.

Wirtschaftlich wäre sowas eh nicht, ausser alle wären ohne Probleme bereit, wesentlich höhere Preise zu bezahlen. Ich bin es nicht :)