PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kommt die GeForce 8900?


MrMostar
2006-11-18, 02:50:00
Hi,

hat jemand schon Infos über den Nachfolger der 8800er irgendwo gesehen?
wird der 8900er sich wie der 7900er zum 7800er hinsichtlich Stromverbrauch, Leistung und Preis verhalten?
Wie lange war der 7800er eigentlich auf dem Markt als der 7900er rausgekommen ist?

Gruss

MiamiNice
2006-11-18, 02:55:03
Der refresh des G80 soll wohl kurz nach dem R600 kommen, aber Specs o.ä. sind mir nicht bekannt.

robbitop
2006-11-18, 10:01:49
Vom Refresh im Q1 2007 wird nur in irgendwelchen Foren gemunkelt. Ihr klingt immer alle als wüßtet ihr ziemlich genau, dass er dann kommt.
Ich tippe auf Sommer 2007 @65nm. Vorher würde es nur wenig Sinn machen, da 65 nm noch nicht reif ist und 80 nm so viel besser nicht zu sein scheint.
Bisher hat's immer bei NV ~1 Jahr bis zum Refresh gedauert. Warum sollte man im November etwas veröffentlichen, was man im Jan/Feb wieder durch einen Refresh wieder streicht? Das macht keinen Sinn.

Coda
2006-11-18, 13:26:02
Bisher hat's immer bei NV ~1 Jahr bis zum Refresh gedauert.

NV30->N35? G70->G71? Hmm?

robbitop
2006-11-18, 13:47:46
NV30->N35? G70->G71? Hmm?

NV30 hat sich auch irre verspätet (der war geplant als Spring 2002 Produkt). Aufgrund des LowK Fehlschlages durfte die Komplette Produktion neugestartet werden. Auch der Druck des enorm starken Konkurrenten zog NV35 ziemlich schnell vor. Und dennoch hat's ein halbes Jahr immerhin gedauert bis NV35 kam. (NV30 Launch November, NV35 Launch Mai)

G71 kam immerhin 9-10 Monate nach G70.

Zwischen richtigen Refreshes lag sonst immer >= 1 Jahr. Was soll das auch 2-3 Monate nach dem Launch gleich das Produkt wegzuschmeissen? Ich bleibe bei Sommer 2007.

deekey777
2006-11-18, 14:09:01
Korrigiert mich:
NV30 -> NV35: MADD+MUL -> MADD+MADD
NV40 -> G70: MADD+MUL -> MADD+MADD
G80 -> G8x: MADD+MUL -> ... :whistle:

robbitop
2006-11-18, 14:47:32
Der NV30 besaß einen Shadercore für FP16/32 der MAD/SFU beherrschte und 2x splittbare FX12 Combiner (beide MAD). Entweder das eine oder das andere Konnte genutzt werden. Im NV35 wurden die Combiner durch eine FP-MAD ALU ersetzt. Es wurden also aus einem FP MAD 2x FP MADs.
Aber ich vermute auch, dass man die Einheiten auf MAD aufbohren wird. Allerdings ist die Frage, ob das zusätzliche MUL überhaupt so vorhanden ist. Möglicherweise kann es nur für Perspektivkorrekturen verwendet werden (also eine Art MiniALU). Dann würde sich ein MAD Aufbohren wohl nicht lohnen.

Gast
2006-12-02, 14:31:57
ich glaube auch an eine recht schnelle ablöse des G80, das monster ist einfach zu teuer in der fertigung.

ähnlich wie damals die Geforce1 sehr schnell von der 2er reihe abgelöst wurde.

direkt nach dem R600-launch halte ich aber für zu früh, ich schätze etwa 1/2 jahr nach dem G80-launch.

drmaniac
2006-12-02, 16:43:07
tja. eben weil es so teuer ist wirds schnell abgelöst. Kleinere Platine, billigere Produktion, mehr verkäufe ;)

Neosix
2006-12-02, 16:50:48
um die kosten zu sparen (woher weiß man das der g80 ah so teuer ist? sehe r600 warscheinlich mit 512bit) muss man wirklich auf 65nm gehen aber das bei grafikkarten ist noch nicht soweit. von daher sehe ich n schnellen refresh eigentlich recht pessimistisch. bisher hab ich auch nichts verläsliches gehört das es da schnell was kommen wird. was logisch wäre.

cebit als nächster nv trupf presentation eignet sich ganz gut. aber zwischen presentation und dann launch können monate vergehen.

korrigiert mich wenn cih falsch liegen sollte...

Gast
2006-12-02, 17:06:52
woher weiß man das der g80 ah so teuer ist?

naja bei gerade mal ~110chips/wafer, ausbeute nicht mitgerechnet, kann man sich das eigentlich denken ;)

Neosix
2006-12-02, 19:10:12
teuer im vergleich zu was? g80 wird nicht grad für 200€ verkauft sondern 600€
denke man kann damit schlechte ausbeute gut kompensieren. besonders da man eh nur die performancekrone will. man weiß ja das die enthusiasten die es kaufen würden eh n kleiner anteil sind. geld wird wo anders gemacht. nicht mit highendkarten. das war nie so und wird nie so sein.

Gast
2006-12-02, 20:30:31
geld wird wo anders gemacht. nicht mit highendkarten. das war nie so und wird nie so sein.

och, high-end-karten haben garkeinen so kleinen anteil am umsatz, stückmäßig sind sie natürlich sehr gering.

Iwan
2006-12-02, 21:11:58
och, high-end-karten haben garkeinen so kleinen anteil am umsatz, stückmäßig sind sie natürlich sehr gering.

umsatz ist nicht gleich gewinn...

=Floi=
2006-12-02, 22:12:58
aber irgendwo stimmt es schon
wenn der G71 chip noch 50€ kostet dann wären beim g80 selbst 200€ pro chip noch möglich
und 6 monate könnte man damit auch locker überbrücken da wird nv sicherlich nichts nachschieben
wenn der umstieg auf 65nm kommt, wären es über 400 chips und noch interesannter wäre die anhebung des chiptaktes da werden wir sicherlich die 750mhz+ sehen und das wird nv sicherlich nicht so einfach herschenken

Fezi
2006-12-02, 23:17:04
sobald konkurrenzdruck besteht kommt was denke ich ..

Foxbat
2006-12-02, 23:40:04
Ich denke kurz nach dem R600 ist ein bisschen zu früh, wäre aber Marketing-technisch genial.

Gast
2006-12-02, 23:41:54
umsatz ist nicht gleich gewinn...

aber gewinn = umsatz-aufwändungen.

den gewinn auf einzelne GPUs aufzugliedern ist sinnlos, da ein großer teil der aufwändungen entwicklungskosten sind, welche aber ganzen serien von GPUs zuzuordnen sind.

robbitop
2006-12-03, 13:08:40
Zur CeBIT soll angeblich ein schnelleres G80 Modell kommen. Ich tippe auf ein G80 mit GDDR4 und leicht erhoehten Chiptaktraten. Vieleicht ja auch ein auf 80 nm geshrinkter G80 mit kaum grossen Aenderungen.

Gast
2006-12-03, 13:13:59
Korrigiert mich:
NV30 -> NV35: MADD+MUL -> MADD+MADD
NV40 -> G70: MADD+MUL -> MADD+MADD
G80 -> G8x: MADD+MUL -> ... :whistle:

Ich glaube nicht. Der G80-Cluster ist IMO in der 80er-Serie fix, es braucht lediglich die Anzahl variiert zu werden (was in Sachen Design, nicht Produktion) auch deutlich einfacher sein wird, da sie lediglich zwischen Scheduler und Crossbar gepflanzt werden müssen).


Q

Godmode
2007-01-09, 23:24:29
Ich denke wir sollten hier wieder mal weitermachen! Was denkt ihr wird der Refresh des G80 bringen?

Vielleicht wird es ja ein Schrink auf 80nm mit etwas höherem Takt und einer funktionierenden MUL? Mit der Speicherbandbreite könnte auch relativ leicht nach oben gegangen werden, womit man schnell auf 100Gb/s wäre, oder mit schnellem GDD4 noch höher.

Meine Meinung dazu, was denkt ihr?

@Mods: Könntet ihr den Thread eventuell sticky machen, damit wir ihn immer schnell finden können!

Android
2007-01-09, 23:54:00
Ich könnte drauf wetten, dass der G80 eigentlich 512Bit haben sollte. Aus Kostengründen, technischen Risiken und mangelnder Konkurrenz hat man es aber wohl erstmal mit 384Bit probiert. Was auch sein könnte: Genau wie die 8800GTS ist die GTX eine GTS der G80 512Bit Version. Es könnte also durchaus sein, dass die Ausbeute fehlerfreier Chips derart gering war, dass man kurzerhand eine Generation dazwischen geschoben hat. Währenddessen versucht man die Ausbeute der 512er zu erhöhen (gerade wegen der Fertigungstechnik) und wartet auf ATI.

Also ich vermute mal, dass Nvidia die 512Bit Version in der Schublade hat und auf die R600-Spezifikationen wartet. Sollten die Spezifikationen schon mit 512Bit beginnen, dann werden sie wohl versuchen den R600 Launch mit ihrem Schubladenprodukt zu stören. Falls keine massive Bedrohung, technisch und preislich, von ATI kommt, dann verkauft man wohl erstmal gemütlich die marktvorhandenen Produkte.

Es könnte natürlich auch ganz anders sein. Aber wer weiss das schon? ;)

Mfg
Android

Gast
2007-01-10, 00:43:03
512bit SI karte auf basis des G80 zur Cebit vorzustellen wäre zwar in sachen konkurrenz nicht schlecht, aber
a) denke nicht dass nur das SI den vorpsrung des R600 zu nichte macht
b) man müsste die GTX im Preis senken, was wohl die schmale gewinnspanne sehr belasten würde.

Stattdessen denke ich dass wir ne mainstream karte mit 256bit sehen zur Cebit alá 8600, die wird sicher weggehen wie warme semmeln falls AMD erstmal nur highend einführt. und im mai oder Juni wird dann mit G81 auf 65nm umgestellt, und etwas danach im Herbst auch von Ati


...

Sind wir im Speku Forum ? Ja.. ok gut :)

Coda
2007-01-10, 02:25:07
a) denke nicht dass nur das SI den vorpsrung des R600 zu nichte macht

Bisher ist darüber gar nichts bekannt.

Gast
2007-01-10, 06:07:26
Ich bin mir sehr sicher, das nVidia auf die schnelle keine weiterentwickelte Version des G80 rausbringt, selbst wenn ATI schneller ist.

Denn warum sollte jahrelange Forschung und Entwicklung so kurzfristig über den Haufen geworden werden? Das macht keinen Sinn! Auch aus Kostengründen nicht!

Also ein 512 bit Speicherinterface ist sehr unwahrscheinlich. nVidia hat ja gerade deshalb auf den Zwischenschritt gesetzt, weil der wohl billiger oder einfacher zu realiseren war. Den Vorteil können sie noch nutzen.

Wenn ATIs Karte schneller sein sollte, hat nVidia noch viele Möglichkeiten offen.
Sie können erstmal den Speicher auf bis zu 1,2-1,4 GHz GDDR4 upgraden, was kurzfristig möglich sein sollte, denke ich.
Dann könnte sie noch die Standardtaktraten erhöhen, z.B. von 575/900 auf 650/1400, was eigentlich locker reichen sollte um gegen eine 10-15% schnellere ATI Karte anzutreten.

Selbst wenn ATIs Karte >20 % schneller sein sollte, dann hätte nVidia immer noch die Option, alles zu kombinieren: 80nm, höherer GPU Takt und schnellerer RAM.

So ne Karte mit 700/1400 MHz wäre sicherlich locker ausreichend um gleichzuziehen. Denn auch ATI kann die Physik nicht umgehen und die Karten unendlich hoch takten ...

Das Rennen wird wohl erst wieder mit 65nm in Gang kommen, dann könnte es für nVidia tatsächlich Sinn machen, z.B. auch 1 GB samt 512 bit SI zu verbauen, weil man das Design zu diesem Zeitpunkt in der Regel sowieso nochmal überdenkt.

Was hier viele vergessen: nVidia hat es gar nicht nötig zu kontern. Wenn ATIs Karte mit 1 GB und 512 bit SI daher kommt, hat ATI ein Problem. ;)

Warum? Ganz einfach. nVidia wird über den Preis gehen können. Sie haben womöglich geringere Produktionskosten dank 256 MB pro Karte weniger und das Speicherinterfache tut sein übriges dazu. Wenn die Karte mal eben 80-100 € billiger angeboten wird, dann ist für die Kunden oft das bessere Angebot. Denn so viele bekloppte, die >500 € für eine Karte ausgeben, gibt es definitiv nicht.

seahawk
2007-01-10, 07:55:11
Es gibt viele Gerüchte die von einem G80+GDDR4 Chip (aka G81) im Frühsommer sprechen, der als 8/7 Cluster Version kommen soll. Gerüchteweise 8850 GTX und 8800GT.

Gast
2007-01-10, 07:58:25
Es gibt viele Gerüchte die von einem G80+DDR4 Chip (aka G81) im Frühsommer sprechen.

Öhm, also DDR4 gibt es nicht, schon gar nicht auf Grafikkarten. ;)

Gast
2007-01-10, 08:44:04
Warum? Ganz einfach. nVidia wird über den Preis gehen können. Sie haben womöglich geringere Produktionskosten dank 256 MB pro Karte weniger und das Speicherinterfache tut sein übriges dazu. Wenn die Karte mal eben 80-100 € billiger angeboten wird, dann ist für die Kunden oft das bessere Angebot. Denn so viele bekloppte, die >500 € für eine Karte ausgeben, gibt es definitiv nicht.

Dein zitierter beitrag hat nur einen denkfehler, erstens wird ati wohl wie nv auch zwei karten veröffentlichen mit dem r600 (die mit gts/gtx konkurieren) undzweitens werden die preise erstmal stabiel bleiben bei nv und somit dürfte dann die ati auch net viel teurer werden. Wenn man nämlich +/-500 eur für eine gtx bezahlen kann, kann man dies auch für eine r600 die evtl. ein paar eur mehr kostet, wenn sie den wirklich viel schneller ist.

Im grunde wird es so wie immer sein, die ati freunde holen sich die und die nv geneigten bleiben bzw. holen sich dann die. Die neutralen werden nur auf die performance schaun und sich dann die schnellere, oder in ihren budget passende karte holen.
Es ist doch immer das selbe spiel und immer die selbe diskussion, ati oder nv. Ist es den net immer so das der eine ne weile schnellere karten hat als der andere.

Ich für meinen teil werde meine im februar gekaufte x1900xtx noch behalten bis es refresh chips gibt von den herstellern und hole das letzte sozusagen aus meiner hardware raus die mich immerhin 560 eur gekostet hatte...

Gast
2007-01-10, 08:52:13
Dein zitierter beitrag hat nur einen denkfehler

Nö.

erstens wird ati wohl wie nv auch zwei karten veröffentlichen mit dem r600

Was ändert das an meiner Aussage:confused: Nix!

undzweitens werden die preise erstmal stabiel bleiben bei nv

Klarer Fall von: Nicht mit Marktwirtschaft beschäftigt.
Die Preise werden definitiv sinken nach dem Launch. Ganz einfach deshalb, weil dann Konkurrenz besteht und es ordentliche unterschiede für die Hersteller macht, ob sich ein ähnlich teures Produkt im Angebot haben oder billiger bzw. teurer sind ...

Denn es darf nicht vergessen werden, das generell hohe Stückzahlen im Einkauf, die also eine ordentliche Zahl im Verkauf vorraussetzt, nicht nur die Endpreise beeinflusst, sondern auch die Preise der "Einkäufer", Stichwort: Rabatte.
Es kann also durchaus sein, das es sich für ein Unternehmen mehr lohnt, 1000 Stück zu je 420 € zu verkaufen, als 1000 Stück zu 440 €, weil im ersten Fall auch der Einkaufspreis stark gesunken ist.

Wenn man nämlich +/-500 eur für eine gtx bezahlen kann, kann man dies auch für eine r600 die evtl. ein paar eur mehr kostet, wenn sie den wirklich viel schneller ist.

Nö, falsch. Ich kaufe ausnahmslos das billigere Produkt, womit deine theorie bereits widerlegt ist.

Undertaker
2007-01-10, 09:32:11
Nö, falsch. Ich kaufe ausnahmslos das billigere Produkt, womit deine theorie bereits widerlegt ist.

das ist unsinn - natürlich kann es sich ati leisten, 600€ für eine karte zu verlangen, wenn diese zb 40% schneller wäre (was wohl eher unwharscheinlich ist, aber angenommen ;))

wenn du immer die billigere karte kaufst, hast du wohl eine 8800gts... ach ne, eine x1950xtx ist ja noch billiger... ne 7600gt andererseits... oder gleich doch onboard?

fakt ist: gekauft wird nach p/l in einem zur verfügung stehenden preisrahmen, wobei eine um "nur" 100€ teurere ati-karte bei erheblich besserer leistung zu einer 500€ 8800gtx wohl sehr viel begehrter wäre

seahawk
2007-01-10, 09:46:03
Exakt ist, ist die ATI 30% schneller, kann sie auch 30% teurer sein. Die entscheidende Frage, die den Kunden aber völlig kalt lassen kann, ist wie teuer die KArte jeweils für den Hersteller ist.

Gast
2007-01-10, 09:53:03
das ist unsinn

Nein, eine Meinung ist niemals Unsinn. Sonst müsste deine nämlich noch viel mehr ... sein ;)

natürlich kann es sich ati leisten, 600€ für eine karte zu verlangen, wenn diese zb 40% schneller wäre (was wohl eher unwharscheinlich ist, aber angenommen ;))

Erstens habe ich das niemals auch nur im entferntesten geschrieben (lesen & verstehen!!!) und zweitens: Pure Spekulation.
Der Markt entscheidet darüber, nicht du.

Führen wir das ganze doch mal weiter: Es gibt eine Karte, die kostet 60000 €, ist jedoch 6500 % schneller als heutige.
Wäre somit lohnenswerter als eine Karte wie die der R600.
Aber ist das eine Garantie dafür, das sie mehr Umsatz generiert, als viele G80? Natürlich nicht, fraglich ob sich die überhaupt jemand kaufen würde...
Daran erkennst du schon, das deine Aussage so wie sie da steht, schwachsinn ist, weil das für nVidia und ATI irrelevant ist, was du behauptest.

Auch brechen dir die Käufer weg mit jedem weiteren Preissprung. Wo du noch tausender Stückzahlen im <400 € absetzen kannst, können es bei >600 nur noch hunderte sein. Nur das zählt für Gewinnorientierte Unternehmen.

wenn du immer die billigere karte kaufst, hast du wohl eine 8800gts... ach ne, eine x1950xtx ist ja noch billiger... ne 7600gt andererseits... oder gleich doch onboard?

Nö, das zeigt nur, das lesen und verstehen zwei schwierige Dinge sind, die Du noch nicht beherrschst.
Ich kaufe die billigste Karte in der gleichen Klasse.

Die Klasse definiere ich anhand der Dinge, die ich haben will.
Wenn ich DX10 wähle, wäre es folglich nur GTX oder R600.

=Floi=
2007-01-10, 10:01:21
bisher war es doch auch immer "leben und leben lassen" der beiden hersteller und durch den 3 monatigen versatz war immer einer vorne und konnte da die krone für sich verbuchen...
so eng sehe ich das ganze nicht wirklich und beide hersteller dürften da noch was in der hinterhand haben...

Undertaker
2007-01-10, 10:13:51
.

Gast
2007-01-10, 11:00:37
a) denke nicht dass nur das SI den vorpsrung des R600 zu nichte machtWelcher Vorsprung denn bitte? Gibt es irgendwo glaubhafte Benchmarks? Nein? Dann kennzeichne deine Spekulationen bitte auch als solche.

Godmode
2007-01-10, 11:39:30
Wenn sie noch 2 Cluster hinzufügen wird auch das Speicherinterface auf 512 Bit wachsen. Daher glaub ich dass sie eher nur einen Schrink machen, um damit höhere Takraten und eine bessere Ausbeute erreichen.

Gast
2007-01-10, 16:11:50
was für cluster?
du meinst wohl rop cluster

alu/tmu cluster kann man doch unabhängig davon zufügen, oder net?




ich denk es wird kein 80nm chip kommen
vll vorrübergehend eine 7800gtx512 gedächtniskarte ;)
und im spätsommen ein 65nm refresh
würde in meinen augen mehr sinn machen
ein paar monate knapp hinter zu sein macht imho nicht so viel aus(wobei das ja auch nicht sicher ist ob es so kommt)
denn einen weiteren shrink in 65wirds nicht geben wenn schon einer in 80nm kommt

Ailuros
2007-01-10, 16:27:10
Wenn sie noch 2 Cluster hinzufügen wird auch das Speicherinterface auf 512 Bit wachsen. Daher glaub ich dass sie eher nur einen Schrink machen, um damit höhere Takraten und eine bessere Ausbeute erreichen.

nagel kopf getroffen stop ;)

Fetza
2007-01-10, 16:31:32
Die Klasse definiere ich anhand der Dinge, die ich haben will.
Wenn ich DX10 wähle, wäre es folglich nur GTX oder R600.


Wenn du dx10 wählst, kannst du natürlich ne gts nehmen und nach deiner eigenen definiton wäre das dann die richtige wahl. Die gtx gegen r600 zu setzen macht so gesehen auch keinen sinn. Denn noch weiss niemand ob die beiden beschleuniger performancetechnisch auf dem selben level sind. Was der r600 bieten wird steht noch in den sternen. Direct 3d 10 hingegen geht bei allen g80 variationen.

Gast
2007-01-11, 12:57:24
Wenn du dx10 wählst, kannst du natürlich ne gts nehmen

Die steht nicht zur Auswahl.

und nach deiner eigenen definiton wäre das dann die richtige wahl.

Nein. Denn ich habe eine klare Kaufphilosophie: Keine beschnittene Hardware! Wenn dann das gleich das maximum. Damit bin ich bisher sehr gut gefahren. Einmal 500 € latzen und 2-3 Jahre glücklich sein. Bei der GTS für 400 € wäre ich mir da nicht so sicher... denn der fehlt es an VRAM (unberechenbar) und etwas an Leistung. Da investiere ich die paar Euro also lieber in mehr Leistung.

Meine letzte Errungenschaft hielt sogar 4 Jahre lang durch und so gerechnet, ist die Hardware ziemlich günstig gewesen...

Wuge
2007-01-11, 17:39:31
Wenn Du alle 2 Jahre Midrange für 250 EUR kaufst, hast Du aber im Schnitt mehr Leistung fürs gleiche Geld ;)

Ich hab mir diesmal aber auch was teuereres gegönnt (GTS), da neuer Monitor.

Eine erhebliche Leistungssteigerung könnte man schon mit schnellerem Speicher erzielen. Ich denke Shrink und dann 650 MHz ROP / 2000 MHz FP, 1400 MHz GDDR4 sollte reichen um eine satte Mehrleistung ohne grundlegende Architekturveränderung zu erreichen.

Mehr Shaderleistung wird im Moment garnicht benötigt.

A.Wesker
2007-01-11, 17:47:52
Wenn Du alle 2 Jahre Midrange für 250 EUR kaufst, hast Du aber im Schnitt mehr Leistung fürs gleiche Geld ;)

Ich hab mir diesmal aber auch was teuereres gegönnt (GTS), da neuer Monitor.

Eine erhebliche Leistungssteigerung könnte man schon mit schnellerem Speicher erzielen. Ich denke Shrink und dann 650 MHz ROP / 2000 MHz FP, 1400 MHz GDDR4 sollte reichen um eine satte Mehrleistung ohne grundlegende Architekturveränderung zu erreichen.

Mehr Shaderleistung wird im Moment garnicht benötigt.

wenn man jedes Topmodell kauft, und dieses geschickt verkauft, hat man noch mehr Leistung/€. Habe seit der 6800 Ultra (6800 Ultra AGP - 6800 Ultra PCIe - 7800 GTX - 7800 GTX 512 MB - 7900 GTX - 7950GX2 - 8800GTX) gerad mal 50 € Verlust gemacht und immer das neuste an Hardware gehabt :D. Natürlich liegt es an der 7800 GTX 512 MB, daß der Verlust nur 50 € beträgt, aber bei den anderen Grafikkarten habe ich auch net über 70 € pro Stück verloren.

Gast
2007-01-11, 19:06:06
Ich warte sehnsüchtig auf die neuen Notebook-Grafikkarten mit DirectX10 / Direct3D10. Könnt ihr mir da irgendwelche Infos geben, wann es soweit sein könnte? Vielleicht noch vor dem 65nm Refresh?

Nightspider
2007-01-11, 22:13:03
wenn man jedes Topmodell kauft, und dieses geschickt verkauft, hat man noch mehr Leistung/€. Habe seit der 6800 Ultra (6800 Ultra AGP - 6800 Ultra PCIe - 7800 GTX - 7800 GTX 512 MB - 7900 GTX - 7950GX2 - 8800GTX) gerad mal 50 € Verlust gemacht und immer das neuste an Hardware gehabt :D. Natürlich liegt es an der 7800 GTX 512 MB, daß der Verlust nur 50 € beträgt, aber bei den anderen Grafikkarten habe ich auch net über 70 € pro Stück verloren.

und wo bekommt man bitteschön eine 7950GX2 los, macht nur 50 euro verlust wenn die geforce 8 schon draußen ist ?

Gast
2007-01-13, 04:21:45
Wenn Du alle 2 Jahre Midrange für 250 EUR kaufst, hast Du aber im Schnitt mehr Leistung fürs gleiche Geld ;)

Stimmt nicht! Denn Midrange verkaufen sich schlechter (mehr Verlust beim Verkauf), wodurch weniger Geld für eine neue Karte übrig bleibt.
Zudem bezweifle ich, das du in 2 Jahren eine Midrange Karte mit der gleichen Austattung einer 8800 GTX und 768 MB für <250 € kaufen können wirst. Das dauert meist länger! Selbst jetzt ist gerade mal eine 7950 GT dafür verfügbar, die 7900 GTX ist immer noch schneller und teurer!

@und wo bekommt man bitteschön eine 7950GX2 los, macht nur 50 euro verlust wenn die geforce 8 schon draußen ist ?

ebay oder Hardwareforen. ;)
Das Prinzip ist so einfach ... die GX2 hätte man beispielweise nur 7-14 Tage vor Launch der 8800 GTX verkaufen müssen, dann da war der Preis noch ziemlich gut. ;)

Gast
2007-01-13, 10:57:32
Zudem bezweifle ich, das du in 2 Jahren eine Midrange Karte mit der gleichen Austattung einer 8800 GTX und 768 MB für <250 € kaufen können wirst. Das dauert meist länger!Im April 2004 wurde die 6800 Ultra vorgestellt. Knapp 2 Jahre später zur Cebit 2006 gab es eine 7600GT für unter 200 €, die sogar etwas schneller war und dazu noch die Features der GF7-Serie bot.

Gast
2007-01-13, 12:43:56
NV30 hat sich auch irre verspätet (der war geplant als Spring 2002 Produkt). Aufgrund des LowK Fehlschlages durfte die Komplette Produktion neugestartet werden. Auch der Druck des enorm starken Konkurrenten zog NV35 ziemlich schnell vor. Und dennoch hat's ein halbes Jahr immerhin gedauert bis NV35 kam. (NV30 Launch November, NV35 Launch Mai)

G71 kam immerhin 9-10 Monate nach G70.

Zwischen richtigen Refreshes lag sonst immer >= 1 Jahr. Was soll das auch 2-3 Monate nach dem Launch gleich das Produkt wegzuschmeissen? Ich bleibe bei Sommer 2007.
9-10 monate?nein nach 5 monaten ist der G71 rausgekommen;)

robbitop
2007-01-13, 12:47:31
Ok keine 9-10 aber 7 waren es mindestens. (Anfang August bis Anfang März)

Gast
2007-01-13, 13:45:16
9-10 monate?nein nach 5 monaten ist der G71 rausgekommen;)Öhm, die 7800GTX/256 kam im Juni 2005. Der G71 kam dann zur Cebit im März 2006. Jetzt rechne mal selbst nach. ;)

Gast
2007-01-13, 13:47:49
Ok keine 9-10 aber 7 waren es mindestens. (Anfang August bis Anfang März)Im August kam die 7800GT. Die GTX wurde schon Ende Juni vorgestellt und war auch sofort im Handel verfügbar.

Fetza
2007-01-13, 14:12:36
wenn man jedes Topmodell kauft, und dieses geschickt verkauft, hat man noch mehr Leistung/€. Habe seit der 6800 Ultra (6800 Ultra AGP - 6800 Ultra PCIe - 7800 GTX - 7800 GTX 512 MB - 7900 GTX - 7950GX2 - 8800GTX) gerad mal 50 € Verlust gemacht und immer das neuste an Hardware gehabt :D. Natürlich liegt es an der 7800 GTX 512 MB, daß der Verlust nur 50 € beträgt, aber bei den anderen Grafikkarten habe ich auch net über 70 € pro Stück verloren.

Mit dem guten gefühl - mit verlaub - die leute verarscht zu haben. Ich persönlich möchte mich nicht an leuten die vielleicht keine ahnung von der materie haben bereichern. Und du musst wohl ganz "geschickt" dir die leute raussuchen, die nicht wissen was diese hardware wirklich noch kosten darf.
Denn mit ausnahme der 7950gx2 vs 8800gtx wäre ein solcher handel zu besagten konditionen, in meinen augen schon verarsche.

greetz

Fetza

hq-hq
2007-01-13, 19:56:11
ich glaube das 1-2 monate nach dem r600 nv nachlegt, vielleicht auch notwendig.
512bit speicherinterface und noch schnellerer ram,,, ja 1150 mhz, soviel
hab ich bei meiner graka grad mal mit ddr... so wirds kommen und ich
werd froh sein mir keine 8800gtx gekauft zu haben :wink:

@Fetza -> saugeiler Avatar !