PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ich will wieder ADDON Karten!


Liszca
2002-02-17, 22:35:05
Also ich fande die sache mit den addon karten echt super (voodoo Graphics und voodoo 2)

Das könnte man doch echt mal wieder machen, die addonkarte wird iesmal allerdings als agp karte geliefert, und die 2d karte ist ne einfache pci karte, dann könnte ich mir einmal ne karte mit tv in und out kaufen, und ich brauchte sie nie wieder zu wechseln!

ein cooles feature wäre doch dann, das die addon karte die textur in den hauptspeicher der 2d karte auslagern könnte!

allerdings wäre ich gegen ein loopkabel, man sollte dies lieberst im gehäuse drinne machen, dann bräuchte man zwar 2d karten die mit einer solchen addon karte zurecht kommen aber man hätte ne bessere qualität! zudem könnte man es vielleicht als alternative anbieten ein loopkabel zu verwenden!

Ich weiss ich habe immer kaputte ideen (quadbankmemory controller, der eigentlich ein dual twinbank controller ist! oder eine kyro 2 mit eDram und lauter so kram!)

MadManniMan
2002-02-18, 01:15:11
wo kriegst du dein d*p* her? auch haben wollen !!! ;D

Liszca
2002-02-18, 02:35:16
Originally posted by MadManniMan der Rula
d*p*

Was meinst du damit ???

Com1
2002-02-18, 10:02:22
Natürlich, war eigentlich ein Super Konzept. Noch viel besser wäre es aber wenn man 2 AGP Karten parallel betreiben könnte *g*

Hmmm also wenn schon Add On, dann will ich Bitte 2 AGP Slots und verbindung ähnlich wie mit dem V2 SLI Kabel. ;D

mofa84
2002-02-18, 12:59:11
Originally posted by Liszca


Was meinst du damit ???

er meint gras.

also bitte, was soll das bringen mit 2 karten? gar nichts!
klar, man könnte einer geforce4 auch den 2D-part entziehen, und sie dann zusammen mit einer alten nvidia 2d-karte verkaufen, natürlich aber zum höheren preis als einer normalen gf4 weil man ja einen größeren produktionsaufwand hat!

also wie bitte begründest du das mit der besseren bildqualität?

außerdem kann jede agp-karte ihre texturen (in den wegen mir langsameren) mainboard-ram packen, aber man könnte genausogut auf eine gf4 oder radeon 1 gb ram packen, aber würde wohl nicht viel bringen außer dass sich das keiner leisten könnte!

Pengo
2002-02-18, 13:29:29
Bessere Bildqualität entsteht wohl durch das Pass-Through Kabel ;-)

Legolas
2002-02-18, 13:34:26
Er meint ja, daß das Signal nicht durch ein Pass Trough Kabel geschickt wird, sondern übers Mainboard.. so meint er das mit der besseren Bildqualität denk ich, wenn ich da nix falsch interpretiere

Major J
2002-02-18, 13:37:10
Originally posted by Com1
Natürlich, war eigentlich ein Super Konzept. Noch viel besser wäre es aber wenn man 2 AGP Karten parallel betreiben könnte *g*

Hmmm also wenn schon Add On, dann will ich Bitte 2 AGP Slots und verbindung ähnlich wie mit dem V2 SLI Kabel. ;D

Oder einfach 2 Chips auf einer Karte oder so. :D

mofa84
2002-02-18, 13:51:12
toll, meine grafikkarte schickt auch ihr bild über den agp, dafür brauch ich keine 2 karten!

da wäre das mit den 2 chips schon besser, da könnten sich ati und nvidia schon mal ne scheibe abschneiden von 3dfx (blos dann bitte nicht auch so wenig innovativ ;))

MadManniMan
2002-02-18, 14:25:51
ich wollen MULTI CHIP! MULTI CHIP! MUL-TI-CHIP!

...sorry, schon zu oft dem fünften element geguggelt... ;D

aber mal im ernst... DAS könntens wirklich mal wieder machen

Liszca
2002-02-18, 19:31:02
Ich dachte mir das so, da habe ich eine 2d karte mit super features im 2d bereich(tv eingang ausgang DVI usw.)

nur der 3d teil ist schrott, da könnte man dann mit addon ansetzen!

mofa84
2002-02-18, 21:31:49
Originally posted by Liszca
Ich dachte mir das so, da habe ich eine 2d karte mit super features im 2d bereich(tv eingang ausgang DVI usw.)

nur der 3d teil ist schrott, da könnte man dann mit addon ansetzen!

es gibt mittlerweile von so gut wie jedem grafikchip karten mit tv-in/out und dvi, teilweise sogar noch mit 5.1out und was es alles gibt!
und in 3d überzeugen die karten auch, also ich weiss wirklich nicht wo das problem liegt!?

Richthofen
2002-02-18, 22:43:13
was ist das wieder für eine käsige Diksussion.

2 Karten im PC - sozusagen Add On Lösung.
Sorry aber so einen Dreck will ich ganz sicher nicht.
Wozu soll ich mir 2 Karten reinbauen, die beide nen Lüfter brauchen, Strom fressen und vor allem unnütz Steckplätze blockieren.
Sorry aber das ist doch völliger Blödsinn. Dann noch 2 Treiber in Windows - super. Da gibt dann wieder ein wunderschönes Chaos.
Nö so nen Scheiss will ich ganz sicher nicht.
Ich hab damals bewusst statt einer V2 eine TNT genommen weil ich es satt hatte meinen Rechner mit solch blödsinnigen Lösungen vollzustopfen vor allem dann noch mit diesem tollen Loop Through Kabel. Das war der letzte Scheiss.
Zu V1 Zeiten hab ich es verstanden. Da begann das 3D Business erst richtig aber zu V2 Zeiten hab ich es nicht mehr eingesehen.
Mit Grauen erinner ich mich noch an den Voodoo Rush.
Gegen das Drecks Teil waren alle ATI Karten bisher der reinste Segen.
So eine Lösung bringt doch überhaupt keinen Vorteil.
Wozu so etwas machen, wenn es auch mit 1 Chip geht.

Naja und was Multichip angeht, so sehe ich auch hier nicht den Vorteil für den Nutzer.
Was soll das bitte bringen?
Man kann das Bandbreitenproblem umgehen aber wer bitte bezahlt das dann?
Die Chips werden deswegen nicht einen Cent billiger werden - nicht einen.
Im Gegenteil die Hersteller werden noch mehr verlangen.
Das kann man doch wunderbar mit der doppelten Menge RAM begründen.
Und normaler SDRAM reicht da nunmal auch nicht mehr aus.
Da muss schon schneller DDR RAM her und sowas kostet keine 1200 mehr.
Nvidia zb wird knallhart bei den Ein Chip Lösungen in der High End Klasse bei Neuerscheinen zwischen 400 und 600 Euro bleiben.
In einer Multichip Lösung wird es teurer werden obs euch passt oder nicht.
Es gibt nur noch 2 auf diesem Markt und ATI wird nen Teufel tun hier in irgendeiner weise auf Krampf nen riesen Preiskampf anzuzetteln.
Den können sie wegen ihrer finanziellen nicht gerade rosigen Lage nicht gewinnen.
Sie werden immer drunter bleiben und auch bleiben müssen aber mit Sicherheit nicht so ein Dumping machen wie die asiatischen DRAM Hersteller.
Im Gegenteil ATI ist doch froh wenn Nvidia viel Kohle verlangt. Sie müssen zwar drunter bleiben, können aber trozdem mitabsahnen.

Mutlichip Lösgungen werden schlichtweg zu teuer. Das ist einfach zu unwirtschaftlich und keiner der Hersteller hat auch nur das geringste Interesse daran, das der User hier eine vervielfachung der Leistung von einer Generation auf die nächste bekommt.
Maximal eine Steigerung um 50 bis 100%.
Sowas macht keinen SInn. Wieso den Power so schnell steigern, wenn man auch in kleineren Schritten absahnen kann.
Will sagen, wenn Multichip zum Einsatz käme, würden die Hersteller beim RAM wieder spaaren, was am ende nicht großartig Mehrleistung bedeutet. Die Preise bleiben die gleichen. Beide Firmen haben Kohle zu scheffeln und Investoren zufrieden zustellen aber mit nichten irgendwelchen besonders ambitionierten Usern hier große Sprünge in der Performance zu liefern.

Das Ganze ist reine Träumerei. Das klingt für viele vielleicht nicht verständlich aber hier gehts nur ums Geld verdienen und sonst überhaupt nix. Das ist bei Grakas genauso wie bei CPUs auch.
Das ist überhaupt überall so aber in der PC Industrie hat man sich über Jahre drauf geeinigt möglichst häufig Standarts zu wechseln -zb Slots, RAMs usw.... und möglichst Leistungstseigerungen in kleinen Sprüngen vorzunehmen.
Keiner der beiden Hersteller hätte was davon, wenn er nun auf einmal ein Produkt liefert das 5 mal oder mehr so schnell ist wie das vorherige.
Da liefert man lieber erstmal dopelt so schnell und dann wieder doppelt so schnell oder weniger usw......

Dad Ganze ist meiner Meinung nach überflüssig. Es lohnt sich nicht darüber nen Kopp zu machen.
Die werden das so machen, das es sich für sie am besten lohnt und nicht so das ihr besonders begeistert seid.
Behaltet das im Auge und schon vermeidet ihr Fehlkäufe.

Liszca
2002-02-18, 23:59:31
Ich seh schon, du hast überhaupt nichts kapiert von dem was ich gemeind hatte, aber du bist ja scheinbar eh ein nvidia fanatiker!

Hallo habe deinen thread nochmal durchgelesen, warum schreibst du immer wieder das gleiche?

MadManniMan
2002-02-19, 00:53:34
@richthofen:

findest du es nicht komisch, daß du anprangerst, daß multichiplösungen zuviel ram verschlängen? daß man damit den preis nur unnütz in die höhe triebe?

wozu, bitte wozu(außer 4*ms in 1600 ;D ) braucht ne gf4ti 128megs?

und wenn ich mir die preise der tis anschaue, dann sind die(4600 mal ausgenommen) sogar mal relativ human. aber halt! selbst ne ti4200 hat ja 128megs! und die soll fette 250€ kosten...

merkst du was?

BTW: wenn ich mich recht entsinne, hatte die v5 nicht einfach nur 2*32megs, sondern konnte effektiv so um die 46mb nutzen. weiß wer mehr dazu?

Schnitzl
2002-02-19, 00:56:54
@Richthofen: na du bist ja super drauf ....

btw:
- ich hab noch nie ne 2D-Karte mit Lüfter gesehn.
- Normalerweise haben die nicht mal nen Kühlkörper.
- Treiberchaos, so ein Quark! Selbst mit 2 Add-on-Karten klappts wunderbar
- a propos bezahlen: es gibt auch Ferrari, Bugatti, RR, Bentley usw
...das bezahlen genug Leute!

also: den Vorteil einer solchen Lösung hat man am Besten bei der Banshee gesehen:
Matrox Millenium+V2 rockt ab, Banshee kotzt ab :D

Hinzu kommt noch, dass man sich ne gute 2D-Karte mit viel Schnickschnack
kaufen kann und die nicht ständig rauswerfen muss.
(z.B. Vin/out, TV-Tuner usw)
Um mit der 3D-Leistung am Ball zu bleiben, muss man nur eine Karte wechseln,
dass kommt auf Dauer VIEL billiger
(schau mal den Wertverlust einer All-in-Wonder an!)

P.S.: ich hielt ne Voodoo auch für Müll, bis ichs mal "in action" gesehen hab,
dann gabs keine Diskussion mehr!

/Edit: @MadManniMan der Rula: hehe :) Deine Sig rockt ;) - fehlt nur noch VIA, aber beim saugen *eg*

Quasar
2002-02-19, 00:59:27
Originally posted by mofa84
...außerdem kann jede agp-karte ihre texturen (in den wegen mir langsameren) mainboard-ram packen,

AHA! Du bist also Schuld daran, daß mein RAM langsamer ist.... :D
Hör' sofort auf damit, sonst steig' ich durch die Leitung und schneid' dir deinen Afro ab! :lol:

aths
2002-02-19, 01:54:44
Paul Breitner lässt grüßen.

Richthofen, mich nervt dass du in der letzten des öfteren "kräftige" Ausdrücke benutzt. Auch wenn du keine Addon-Karten magst, warum redest du so wortgewaltig dagegen an?
BTW, Multichiplösungen sind ab einem bestimmten Leistungslevel der *günstige* Weg zu noch mehr Power. Auch nVidia wird das früher oder später einsehen. Aber dann ist es sicher etwas ganz anderes. Natürlich.

StefanV
2002-02-19, 02:15:58
Ich frage mich, was billiger ist:

2x64MB RAM mit 5ns oder 128MB RAM mit 2,5ns...

Dagegen noch 2 Chips gegen ein Chip...

Ich denke mal, daß 2x64MB die sinnigere Lösung sind, oder??

Abgesehen davon:

Das Rampage Design (2 'dumme' Chips, die nur rendern können) zu einem 'schlauen' Chip (VS, 2D Core, AGP Interface und und un)...

Ist das nicht sinniger 3x10W als eine Herdplatte von 40W auf eine Karte zu packen??

Liszca
2002-02-19, 02:18:43
@richthofen

eine multichiplösung hat ja nur 50% - 100% performancegewinn!

stimmt das bringt nichts, weil die 50% kitzelt nVidia aus dem Detonator XP heraus!
*eg*

Richthofen
2002-02-19, 02:28:22
@aths

ich bestreite gar nicht das die Hersteller früher oder später das mal probieren werden.
Aber denkt ja nicht, das ihr dann eine Graka mit dem neuesten RAM und Multichip bekommt.
Im Gegenteil die werden peinlichst darauf achten, das die Karten nicht zu schnell werden.
Wird die Leistung also mit Multichip zu hoch, dann wird eben am RAM wieder gespart oder der Chip bringt dann nicht die Leistung um das 2x Interface nutzen zu können.

Checkt es doch einfach - die Hersteller haben kein Interesse daran hier innerhalb weniger Monate monströse Produkte zu verkaufen, mit denen alles flüssig läuft was auf dem Markt ist.
Die würde sich ja so dermaßen selber ans Bein pissen.
Die werden wunderschön ihre Linie weiterfahren und in kleinen Schritten abkassieren. Da nehmen sich beide Hersteller überhaupt nix.
Die Leute kaufen das Zeug doch. Ist doch prima für die.

@Schnitzl

Falls du es noch nicht gemerkt hast.
Das ist gerade der Sinn an der Sache das du jedes mal alles neu kaufst.
Mei oh mei. Ich frage mich wovon so mancher Nachts träumt.
So ist das Geschäft. Intel bringt jetzt auch keinen Northwood 2,8 GHZ obwohl sie könnten. Auch AMD freut sich mit und geht in den selben kleinen Schritten voran.
Beide wissen, das jeder immer die Antwort hat auf ein neues Produkt. Wozu also die Entwicklung sinnlos forcieren. Das würde ja bedeuten man macht mit der Ganze P4 Serie viel weniger Geld.
Ne da verscherbeln die lieber schön in 100 MHZ Schritten.
GEnau das selbe machen auch ATI und Nvidia.
Die finden das ziemlich prima das du wenn du zb so ein ALl in Wonder Freak bist, du jedes mal eine neue All in Wonder kaufen musst, die richtig satt in den Geldbeutel schlägt.
Das ist der Sinn an dieser Geschichte.

@MadManniMan
Was menst du wohl wieso da 128 MB drauf sind.
Das kann ich dir genau sagen.
1. FSAA bis 1600 mal 1200
2. Marketing
Wobei wohl jeder weiss, das in 1600 mal 1200 mit FSAA auch die GF4 ihre Probleme hat. Aber das spielt doch keine Rolle.
Aufm Papier kann sie es und basta. So einfach ist das für die Hersteller.
Du regst sich drüber auf aba in der selben Zeit gibt es Tausende Deppen die die Kohle zahlen weil sie keinen Plan haben.
Diese Taktik in der PC Industrie gibt es nicht erst seid 2 Jahren.
Wieso wohl konnten Hersteller wie Intel und CO so eine immense Größe erlangen mit 7 Milliarden $ Umsatz im Quartal.
Na nur deshalb weil es in kleinen Schritten vorran geht und dem Kunden suggeriert wird er müsste ständig nachrüsten.

Wenn die GF4 jetzt 128 MB RAM hat, und du willst eine Multichip Lösung, dann kann ich dir sagen was ATI oder Nvidia machen.
Sie bauen einfach 256 MB rauf. Denk ja nicht sie machen Multichip und bleiben bei den 128 MB RAM. Das kannst du abhaken. Sie wollen dein Geld das ist alles und dafür ist nunmal jedes Mittel recht und am wichtigsten ist nunmal die Kunden bei der Stange zu halten und gescheiten Erneuerungsdruck aufzubauen. Das ist ein rein psychologisches Spiel.
Die Weltkonjunktur der 90er Jahre besonders in den USA wäre schon ziemlich im Arsch gewesen, wenn die IT Industrie die ohne Zweifel heute eine Motorfunktion hat, nicht so handeln würde.
Wenn die Leute nicht ständig nachrüsten und Geld ausgeben, dann gäbs einen riesen Einbruch. Die Industrie hat sich über die Jahre so aufgeblasen was Personal, Fabriken usw.. angeht. Hat man ja 2001 gesehen wie rasant es abwärts geht, wenn die Nachfrage auch nur ein bisschn sinkt. Die werden einen Teufel tun und hier in Großen Schritten vorangehen.

Ich finds ok. Die verdienen gut, die Börsen laufen auch wieder irgendwann und gut bezahlte Informatiker Jobs gibts auch.
Der einzige der bissl auf der Strecke bleibt ist der normale Sachbearbeiter bzw der Angestellte der am Schalter in irgendeiner Filliale arbeitet.
So läuft es seid Jahren und so wirds weiterlaufen.
Da könnt ihr euch wünschen was ihr wollt, das wird nix nützen. Aufregen lohnt sich nicht. Lieber aufpassen das man nix falsches kauft was unnütz ist. Dann ist alles in Butter.

Kai
2002-02-19, 02:36:38
Originally posted by Richthofen

Checkt es doch einfach - die Hersteller haben kein Interesse daran hier innerhalb weniger Monate monströse Produkte zu verkaufen, mit denen alles flüssig läuft was auf dem Markt ist.
Die würde sich ja so dermaßen selber ans Bein pissen.
Die werden wunderschön ihre Linie weiterfahren und in kleinen Schritten abkassieren. Da nehmen sich beide Hersteller überhaupt nix.
Die Leute kaufen das Zeug doch. Ist doch prima für die.

Volle Solidarität für diese mehr als wahre Analyse! ;)

Frank
2002-02-19, 10:36:01
Originally posted by Kai


Volle Solidarität für diese mehr als wahre Analyse! ;)
stimme da auch dem alten Piloten zu.

MadManniMan
2002-02-19, 11:35:10
da muß sogar ich mal meinem quasi-namensvetter rechtgeben...

nur ein wenig kritik: richthofen, bei dir verschwimmt irgendwie immer zu sehr, ob du nun etwas kritisierst, es als normales marktverhalten erkennst blablabla... du weißt, worauf ich hinaus will?

@schnitzl: danke für die blumen, aber bei chipsatzherstellern halte ich mich dezent zurück... da macht man sich zu schnell feinde ;D

Schnitzl
2002-02-19, 12:01:41
@ Richthofen: nein, ich hab keine AllinWonder :p

Also du hast immer noch ne ATI Mach64, weil du nie alles neu kaufst ?

ach ja, noch was: ich find fast schon witzig, wie deine 2 Postings sich widersprechen ;D

@ MadManni: mit der Wahrheit macht man sich oft Feinde =)

Richthofen
2002-02-19, 14:58:25
@Schnitzl

Konnt ich nicht wissen das du keine All in Wonder hast.
Ich hab das lediglich als Beispiel gebracht weil hier jemand unbedingt eine 2D Karte sich wünscht mit allen Tv, in out bzw All in Wonder Sachen, so daß er nur den 3D Teil nachrüsten muss.
Und genau das wird es nicht geben.
Und wieso das habe ich mit dem All in Wonder BSP gemeint.


@MadManniMan
Nö och kritisiere das auch nicht.
Ich find das völlig ok so.
Ich pass auf das ich mich nich übers Ohr hauen lass und seh lieber zu, das ich wie auch immer an dem ganzen Boom in der IT Industrie mitverdiene. Sei es nun später im Beruf oder durch Aktien und Optionsscheine auf solche Firmen.
Warum sollt ich es kritisieren. Ich kanns verschmerzen wenn die Hersteller in so kleinen Schritten vorgehen und abkassieren.
Ich kauf immer nur dann wenn ich für mich meine, das es Sinn macht.
Das Ganze All in Wonder Zeugs brauch ich nicht.
Ich brauche nur reine Pure Grafikkarten mit viel Power.
Trozdem hab ich keine GF3 und als Übergangslösung so eine billig GF2Ti.
Eine GF4Ti4600 wird wohl reinkommen bei mir wegen der FSAA Performance.
Aber ich sehs realistisch und weiss das die Hersteller hier auch weiterhin in kleinen Schritten vorgehen werden.
Das würde ich genauso machen. Nvidia zb ist ein 4 Milliarden Dollar Unternehmen. Die müssen halt in erster Linie mal Rendite ranholen und schliesslich hat irgendwo jeder CEO in dieser Industrie den Drang danach MS und Intel abzulösen von der Größe.
Ob das nun Larry Ellison mit Oracle oder Scott Mc Neily von Sun Microsystems ist oder irgender bei Nvidia und CO.
So ist es halt :)

Ich kann nur jedem raten zu schauen ob er etwas braucht oda nicht und am besten an dem Boom mitverdienen.
Ihr lest doch jeden Tag die ganzen News Seiten bzgl Hardware und Software runter. Immer schön schauen ob man einen Trend erkennt und dann mit Fonds oder Aktien mitverdienen.
Dann sind euch paar lausige 400 Euro für ne GF4Ti doch reichlich latte.

Hier mal ein kleines BSP:
Hätte jemand im November keine GF3Ti500 für 450 Euro gekauft, und das statt dessen in Infineon, Nokia oder AMD angelegt, hätte er heute 900 bis 1100 Euro. Bei Infineon fast ein 3faches.
Derjenige hätte doch jetzt reichlich gut Lachen gehabt oder? :)
Aus dem gespaarten Geld hätte er 900 Euro gemacht und sich nun eine GF4Ti4600 gekauft und den Rest wieder irgendwo angelegt.
Will sagen, lieber weniger von irgendwelchen Produkten träumen die sowieso nicht kommen und dafür mitkassieren und sich dann im Jahresrythmus was gönnen.

Von daher nö kritisieren tu ich es ganz sicher nicht. Ich find gut das es seid 10 Jahren so ist und Milliarden von Dollar mit sowas umgesetzt werden. Aber verrückt machen wegen irgendwelchen neuen Produkten lass ich mich ganz sicher nicht. Wenn eins gut ist kauf ich es wenn ich es brauch aber hab immer schön im Hinterkopf wieso dieses Produkt so ist wie es ist.

Die meissten finde ich sind einfach vor allem in den Foren zu jung. Da gibt es einige die entwerder Denken, sie müssten sich alles leisten können oder einige Hersteller produzieren aus Nächstenliebe.
Oder sie träumen von irgendwelchen Produkten und Specs die es auf absehbare Zeit nie so geben wird, wie zb in diesem Thread hier.

aths
2002-02-19, 16:49:04
Richthofen,

du "erlaubst" aber auch, dass sich im Forum Technik-Freaks herum treiben, denen es wirklich egal ist wie die nVidia-Aktien stehen; und den Markt von der technischen Seite betrachten? Wenn sich Leute in einem Thread zusammen finden und von neuen Specs "träumen", so musst du doch nicht unbedingt mit deiner Geldverdienen-Leier kommen. Vielleicht interessiert die hier gar nicht.

mofa84
2002-02-19, 16:59:46
Originally posted by Quasar
AHA! Du bist also Schuld daran, daß mein RAM langsamer ist.... :D


hast schon verstanden was ich gemeint hab, oder?

der normale pc-ram läuft halt mit 7 oder 6 ns und der von den meisten grakas mit mind. 5!

MadManniMan
2002-02-19, 17:51:03
@richthofen:

du mußt eben immer berücksichtigen, daß ich zB gar nicht erst soweit käme, mir irgendwelche aktien zu kaufen

ich bin froh, wenn ich mein verdammtes auto abbezahlt habe und mir immer sprit leisten kann. ich hab ja sogar schon mit dem rauchen für meinen polo aufgehört...

ich wäre tierisch froh darüber, mir irgendwann diesen sommer ne neue graka leisten zu können und daher isses mir vollkommen rille, ob nun irgendwer am schtock market sonstwas für gewinne macht, das spielt für mich - finanziell gesehen - inner höheren liga

daher hoffe ich eben, daß imgtech auf der cebit noch ne gute graka präsentieren kann, ansonsten muß ich mir dann ne 4ti4200 holen...

es geht mir genauso ums geld wie dir. nur eben auf einer LEICHT anderen stufe...

Frank
2002-02-19, 18:11:18
ich kann dem alten Piloten immer wieder nur Recht geben (zumindest jetzt hier). So läufts nun mal.

Aber Infineon find ich zu kritisch als Aktie... hätt ich höchstens zwei Tage gehabt: zur Neuemission (dummerweise muss man da auch erstmal was abbekommen)

mofa84
2002-02-19, 18:21:52
also ich muss richthofen schon großteils rechtgeben!
außerdem begründet er seine aussagen und schreibt nicht einfach "Nvidia ist scheiße, alle die ne ATi haben sind gut" (das soll jetzt keine Anspielung auf Schnitzl & Co sein!), aber langsam driftet das vom Thema ab!

Aber ich bleib dabei dass Addon-Karten tot sind und gehe sogar noch einen Schritt weiter, nämlich der Trend geht eher in die andere Richtung, auch wenn das Bastler wie uns nicht unbedingt freut!
Mittlerweile hat jedes 2. Board Onboard Sound, LAN, RAID und weiss der Teufel was, Onboard Grafik setzt sich auch immer mehr durch (gab es zwar schon '97, nur der Unterschied ist dass der S3Virge im Gegensatz zum GF2 heute damals unbrauchbar war).

Es wäre einfach Quatsch, Grafikkarten die mit viel Geld und Zeit über die Jahre zu wirklichen Alleskönnern wurden jetzt wieder zu verkrüppeln und in ihre einzelnen Bestandteile aufzuteilen!

Dann könnte man ja gleich wieder anfangen Prozessoren mit externem Cache und Co-Prozessor zu verkaufen!

Frank
2002-02-19, 18:28:38
hast Recht... die Tendenz geht eindeutig in die Richtung alles auf ein Brett zu packen. Und bei manchen Anwendungskreisen macht das durchaus auch Sinn (*an Neomagic denk*)


Es gibt auch schon SB-Live onboard... usw

Major
2002-02-19, 19:56:23
Das einzige was ich befürchte, dass irgendwann in 2Jahren die nicht nur wie jetzt so Sachen wie T&L oder Shaderenheiten auf die Grafikkarten packen, sondern immer mehr zusammenfassen.
Wie beim nForce und darauf ist hier glaub ich keiner scharf, da man ja dann wenn man eine neue CPU oder Grafikkarte oder so haben will gleiche auch den Rest mit auswechseln muss.
Hoffen wir das es so weit nicht kommt.

Aber Addonkarten sind wirklich tod.

Und Richthofen deine Post, egal in welchem Forum ich sie antreffe, gleichen sich wirklich SEHR stark , ich lese se mir nichtmal mehr wirklich durch weil ich eh weiss was drin steht und das was drinsteht mir doch stark gegen den Strich geht.
Denn es ist zwar LEIDER so wie du sagst, aber das heisst nicht das ich es gutheisse.
Denn nur weil nVidia und Co das Prinzip des Kapitalismuses gnadenlos ausnutzen ist das nicht positiv zu sehen, wohl eher negativ.
Leider will halt jeder den grösstmöglichen Gewinn, aber ob das gut ist ist doch sehr fraglich...

aths
2002-02-19, 20:08:17
Addon-Karten haben sicherlich kaum Zukunft. Doch nach dem alle großen Chiphersteller auf Defered Rendering setzen, bleibt als nächster Sprung nur noch Multichip-Technik. Man stelle sich z.B. eine duale Radeon8500 vor...

Der Speicher wird immer schneller, die Die-Strukturen werden immer kleiner, der Takt geht immer höher. Doch früher oder später wird das unrentabel. Da nimmt man dann lieber 2 Chips und doppelten Speicher in der Standardbauweise und erreicht zudem mehr Leistung. Rendering ist geradezu ideal parallelisierbar, im Gegensatz zur CPU-Technik machen mehrere GPUs auf einem Board Sinn.

Um neue Bandbreiten-Dimensionen zu erreichen, müsste man die Anbindung auf 256 Bit steigern - sehr, sehr teuer. Da lohnt es sich eher, einen "normal" getakteten DDR-RAM doppelt auszulegen. (Zumal die Verdopplung ja nur für Texturen gilt.)

AlfredENeumann
2002-02-19, 21:35:58
Originally posted by aths
Man stelle sich z.B. eine duale Radeon8500 vor...

welche bei ATI ja auch möglich ist, da sie die AGP-Bridge fertig haben und die auch gut funktioniert (siehe AIW 8500).


Originally posted by aths
Der Speicher wird immer schneller, die Die-Strukturen werden immer kleiner, der Takt geht immer höher. Doch früher oder später wird das unrentabel. Da nimmt man dann lieber 2 Chips und doppelten Speicher in der Standardbauweise und erreicht zudem mehr Leistung. Rendering ist geradezu ideal parallelisierbar, im Gegensatz zur CPU-Technik machen mehrere GPUs auf einem Board Sinn.

Um neue Bandbreiten-Dimensionen zu erreichen, müsste man die Anbindung auf 256 Bit steigern - sehr, sehr teuer. Da lohnt es sich eher, einen "normal" getakteten DDR-RAM doppelt auszulegen. (Zumal die Verdopplung ja nur für Texturen gilt.)


denke ich auch. Einen bestehendenn Chip 2 oder mehrmals auf eine Karte zu bringen dürfte günstiger sein als 18 Monate entwicklung an immer neuen Chips.

Quasar
2002-02-19, 22:19:15
Mein Reden....vor allem wenn man bedenkt, daß beim neuen Chip, der meist deutlich komplexer als der Vorgänger ist (nV15<->nV20 oder R6<->R200) nicht unbedingt auch immer ein neuer Herstellungsprozess verfügbar ist, man seine vielen Transistoren mit höherem Takt auch noch bei geringerer Ausbeute verkaufen muss.

Also: Multi-Chip rulz.

Schnitzl
2002-02-20, 15:36:41
Originally posted by Richthofen
@Schnitzl

Konnt ich nicht wissen das du keine All in Wonder hast.
Ich hab das lediglich als Beispiel gebracht weil hier jemand unbedingt eine 2D Karte sich wünscht mit allen Tv, in out bzw All in Wonder Sachen, so daß er nur den 3D Teil nachrüsten muss.
Und genau das wird es nicht geben.
Und wieso das habe ich mit dem All in Wonder BSP gemeint.
hi,
das ist mir alles klar, was du da schreibst, aber in dem Thread hier ging es
darum, mal etwas zu träumen, wie schön wäre es, wenn...
Aber nein, du platzt hier rein und pöbelst rum.
Auf meine Punkte bist du gar nicht eingegangen sondern hast nur weiter rumgepöbelt :(
Das mit der A_i_W ist zu deutlich: ich hab das als Bsp gebracht und du hast völlig unnötigerweise
geglaubt, ich hätte eine.

Ich würde mal sagen, wenn du nicht alle anderen als "prinzipiell doof" einstufst, dann gibts
- nicht so viele Mißverständnisse deinersseits
- der Ton wird besser
- mehr diskussion, weniger geflame

...just my 2 cents

MfG

Richthofen
2002-02-21, 12:27:34
@Frank

so siehts aus.
Ich gehe davon aus, das wir in ein paar Jahren Sound, CPU, Chipsatz und GPU alles auf 1 bis 2 Dies haben werden.
Latenzzeiten verringern und Kosten durch höhere Integration spaaren dürfte das Stichwort sein.
Das wird alles noch ein weilchen brauchen aber der Trend ist eindeutig.
Sogesehen ist die nForce Aktion von Nvidia nicht nur zum Geldverdienen sondern auch zum Erfahrung sammeln auf dem Gebiet da.
Der Hammer von AMD wiederum ist ein ähnliches Beispiel, allerdings eher von der CPU, Chipsatzseite.

Das dann alles kombinieren und schon haben wir 1 Chip auf dem alles ist.

@aths
Ich weiss nicht wieso die Hersteller nun unbedingt auf Multichip setzen sollen.
Es gibt noch viele andere Möglichkeiten.
Die Geschwindigkeit bei RAM Interfaces befindet sich am Anfang.
Man kann auch den RAM auf den Die verlöten als eDRAM oder eben das Interface verbreitern.
Ich glaube man wird auf diese Variante setzen bevor man an Multichip denkt.
Multichip so denke ich wird vorerst dem Businessmarkt vorbehalten bleiben zb in Rendering Farmen.
Für den privaten Konsumenten wird weiterhin die Entwicklung in kleinen Schritten vorangehen um gescheit abzukassieren und Kosten niedrig zu halten.

Frank
2002-02-21, 13:17:23
zumal man auch 2 Chips auf einen Die packen kann. Müssen ja nicht die aktuellsten sein. Aber eine normale RageFuryMaxx zb wär garantiert bei 0,13 auf einen einzigen Chip zu realisieren.

eDRam gibts auch schon seit Jahren ... siehe Neomagic und hamm gleich noch den Soundchip auch mit integriert...


Irgendwie muss das Zeug ja immer kleiner werden. Oder wie denkt ihr passt das Zeug bei StarTrek alles in einen Trikorder (schriebweise??) :eyes: :bonk: hehehe

AlfredENeumann
2002-02-21, 13:18:13
Originally posted by Richthofen


Ich weiss nicht wieso die Hersteller nun unbedingt auf Multichip setzen sollen.
Es gibt noch viele andere Möglichkeiten.
Die Geschwindigkeit bei RAM Interfaces befindet sich am Anfang.
Man kann auch den RAM auf den Die verlöten als eDRAM oder eben das Interface verbreitern.
Ich glaube man wird auf diese Variante setzen bevor man an Multichip denkt.
Multichip so denke ich wird vorerst dem Businessmarkt vorbehalten bleiben zb in Rendering Farmen.
Für den privaten Konsumenten wird weiterhin die Entwicklung in kleinen Schritten vorangehen um gescheit abzukassieren und Kosten niedrig zu halten.


ach und das ist billiger als multichip ?

Richthofen
2002-02-21, 17:43:24
Für Firmen wie Nvidia, die keine eigene Produktion haben ist das wohl deutlich billiger sonst hätten sie es schon längst anders gemacht :)
Produktionsstrassen bei TSMC mieten ist nicht gerade billig.
Vor allem kann man teuren RAM günstiger einkaufen durch die große Masse und auf der anderen Seite dem Kunden viel leichter verklickern wieso Grakas so teuer sind.
Der RAM wird eingekauft und direkt im Preis an den Kunden weitergereicht.
Bei einer Multichip variante sollte sich das schwieriger gestalten.
Es gab ein Unternehmen das dieses versucht hat im Massenmarkt.
Wo es ist wissen wir beide.
Auch ATI hat davon vorerst Abstand genommen.
Irgendwo muss das ja seine Gründe haben nicht :)

AlfredENeumann
2002-02-21, 20:22:26
Originally posted by Richthofen
Für Firmen wie Nvidia, die keine eigene Produktion haben ist das wohl deutlich billiger sonst hätten sie es schon längst anders gemacht :)
Produktionsstrassen bei TSMC mieten ist nicht gerade billig.
Vor allem kann man teuren RAM günstiger einkaufen durch die große Masse und auf der anderen Seite dem Kunden viel leichter verklickern wieso Grakas so teuer sind.
Der RAM wird eingekauft und direkt im Preis an den Kunden weitergereicht.
Bei einer Multichip variante sollte sich das schwieriger gestalten.
Es gab ein Unternehmen das dieses versucht hat im Massenmarkt.
Wo es ist wissen wir beide.
Auch ATI hat davon vorerst Abstand genommen.
Irgendwo muss das ja seine Gründe haben nicht :)

1.) Ich meinte das eDRAM
2.) ATI hat die Pläne nicht fallengelassen. Die technischen Vorraussetzungen für eine maxx-Karte sind gegeben. ATI wollte erst wieder eine Rausbringen wenn es möglich ist eine Multichip-Karte mit echte AGP4x zu betreiben, welches nun durch ATI´s AGP-Bridge möglich ist.

XP
2002-02-22, 23:33:38
Gutes Bild war damals doch sooo einfach: Mein Peacock Moni (Gott hab ihn seelig) hatte 2 Eingänge. Also 1 Eingang auf 2D Karte und den anderen auf die Voodoo (Gott hab sie seelig)...

Jaja, Voodoo - ein längst vergessener Zauber :-(

mofa84
2002-02-23, 11:19:05
Originally posted by XP
Gutes Bild war damals doch sooo einfach: Mein Peacock Moni (Gott hab ihn seelig) hatte 2 Eingänge. Also 1 Eingang auf 2D Karte und den anderen auf die Voodoo (Gott hab sie seelig)...

Jaja, Voodoo - ein längst vergessener Zauber :-(

Dafür sind Peacock-Monitor scheiße, das hebt sich dann wieder auf *eg*

Anárion
2002-02-23, 23:41:10
Originally posted by mofa84


Dafür sind Peacock-Monitor scheiße, das hebt sich dann wieder auf *eg*

*eg* Lööööööööööööööl :D