PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil2]


Seiten : 1 2 3 4 5 [6]

AnarchX
2008-05-10, 21:31:30
Es gibt gar nichts einzuschraenken. Es wird keine RV770 mit 2GB als desktop GPU geben.

Wieso nicht?
Die 3870 gibt es doch mittlerweile auch schon mit 2GiB und als FireGL/Stream-Karte wird ATi wohl auch RV770 offiziell mit 2GiB bestücken.

Die gelbe Eule
2008-05-10, 22:08:57
Sollte der RV770 nur mit GDDR5 kommen, dann garantiert nicht.

gamingforce
2008-05-10, 22:11:12
ist doch egal, 2Gb brauch keine Sau 1GB ist völlig ausreichen egal ob für NV oder ATI.

4 Vitamins
2008-05-10, 22:13:18
und ich dir das du mal raus an die Frische Luft gehst, und nicht erschrecken wenn es keine Stromanschlüsse hat und nen dicken Kühler, das nennt man Menschen.:rolleyes:

kann ich das in meine sig übernehmen?:biggrin::biggrin:;D

gruss

Nightspider
2008-05-10, 22:14:30
ist doch egal, 2Gb brauch keine Sau 1GB ist völlig ausreichen egal ob für NV oder ATI.

Leute mit SLI oder Tri-SLI brauchen bei der Leistung einer GT200-Karte aber schon eher 2 GB ;) Nicht zwingend aber besser wäre es schon...

Bei Tri-SLI steht jeder Karte dann wenigstens ~670 MB zu...

Stellt euch mal vor, jemand hat mit drei GT200-Karten ca. die 6fache G80 Power oder mehr und dümpelt mit 1GB VRam rum...na toll...wozu dann 3 Karten kaufen ?

Wenn ihr mich fragt, sollte NV beides anbieten... 1GB und 2GB-Versionen...

Die gelbe Eule
2008-05-10, 22:21:00
2GB werden nicht kommen, weil wenn, dann nur auf GX2 und da werden eh zwei 9900GTS verbaut, welche nunmal weniger VRAM haben.

Henroldus
2008-05-10, 22:25:19
heyyyy im Luxx ist auch einer der weiss schon wie der der GT200 aussehen wird ;D

http://www.abload.de/thumb/p651frontsidebv2utu.png (http://www.abload.de/image.php?img=p651frontsidebv2utu.png)

http://www.abload.de/thumb/p651backsideut6099.png (http://www.abload.de/image.php?img=p651backsideut6099.png)
und immer noch kein nativer HDMI Anschluss geschweige denn Displayport ;(
und, nein, ich bin weiterhin nicht bereit für eine neue GRAKA auch ein neues netzteil zu kaufen(Stichwort 240w), weil es der falsche Weg ist die Leistung zu steigern

Snoopy1978
2008-05-10, 22:25:29
2GB werden nicht kommen, weil wenn, dann nur auf GX2 und da werden eh zwei 9900GTS verbaut, welche nunmal weniger VRAM haben.


Von Nvidia selbst werden 2GB VRAM vielleicht nicht kommen aber die Boardpartner,allen voran EVGA und XFX zum Beispiel,werden wohl in ihren "Spezialversionen" sich da was einfallen lassen.
Epic´s Entwickler fordern ja schon seit 3 Jahren Karten mit 2-4 GB VRAM.Ich persönlich hätte nix gegen eine GTX-Version die 2 GB anbieten würde.

AnarchX
2008-05-10, 22:31:48
und, nein, ich bin weiterhin nicht bereit für eine neue GRAKA auch ein neues netzteil zu kaufen(Stichwort 240w), weil es der falsche Weg ist die Leistung zu steigern

Und was ist der richtige Weg?

Wer ~2-fache 8800 GTX Leistung nach ~20/21 Monaten will, der muss nun mal einen entsprechenden Mehrverbrauch in Kauf nehmen.

Mehr Leistung zum niedrigeren Verbrauch gibt es vielleicht mit der kleineren SKU.

Die Pro-Watt-Leistung steigt wohl auf jeden Fall.

Die gelbe Eule
2008-05-10, 22:31:51
Bisher konnte sich nichtmal 1GB durchsetzen und was hat man davon wenn Epic es fordert, aber technisch nichts bei rumkommt?

LovesuckZ
2008-05-10, 22:43:01
und, nein, ich bin weiterhin nicht bereit für eine neue GRAKA auch ein neues netzteil zu kaufen(Stichwort 240w), weil es der falsche Weg ist die Leistung zu steigern

Der andere Weg Leistung zu steigern liegt an dir: geringere Auflösung, kein AA und AF, nicht maximale Details.

Ailuros
2008-05-10, 22:57:28
Wieso nicht?
Die 3870 gibt es doch mittlerweile auch schon mit 2GiB und als FireGL/Stream-Karte wird ATi wohl auch RV770 offiziell mit 2GiB bestücken.

Muss ich wirklich mainstream desktop GPU schreiben damit jeder kapiert was ich meine oder was? Uebrigens was kostet denn genau eine FireGL mit 2GB momentan? Eben.

gamingforce
2008-05-10, 23:24:39
kann ich das in meine sig übernehmen?:biggrin::biggrin:;D

gruss

klar:biggrin:

Henroldus
2008-05-10, 23:25:40
Und was ist der richtige Weg?

Wer ~2-fache 8800 GTX Leistung nach ~20/21 Monaten will, der muss nun mal einen entsprechenden Mehrverbrauch in Kauf nehmen.

Mehr Leistung zum niedrigeren Verbrauch gibt es vielleicht mit der kleineren SKU.

Die Pro-Watt-Leistung steigt wohl auf jeden Fall.
der richtige weg wird doch momentan bei den CPUs vorgemacht:
seit dem Pentum4 gibt es keine Verbrauchssteigerung mehr.
selbst ein heutiger QUAD-Core mit einem mehrfachen an Leistung hat ein max TDP von 125W!
der Weg der parallelisierung ist also wohl günstiger als ständige taktsteigerungen.
solange dies nicht über SLI/Crossfire mit den bekannten nachteilen realisiert wird sehe ich hier auch im grafikkartenmarkt die Zukunft.
Der andere Weg Leistung zu steigern liegt an dir: geringere Auflösung, kein AA und AF, nicht maximale Details.
der durchschnittsgamer zockt seit jahren auf nem ollen 19Zöller mit 1280er Auflösung.
AA und AF verwende ich seit jahren quasi 4x/16x wenn möglich.
die Auflösungen steigen lange nicht so schnell wie gedacht: momentan findet gerade mal ein langsamer übergang auf 1680x1050 statt

gamingforce
2008-05-10, 23:27:23
Muss ich wirklich mainstream desktop GPU schreiben damit jeder kapiert was ich meine oder was? Uebrigens was kostet denn genau eine FireGL mit 2GB momentan? Eben.


nix Fire GL:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/gecube_hd_3870_2_gb_speicher/

K4mPFwUr$t
2008-05-10, 23:30:52
@Henroldus
du vergleichst äpfel mit birnen.

CPUs und GPUs sind völlig unterschiedlich.

die CPU besteht aus einen relativen kleinen logikcore. ein großen teil macht der cache aus.
beides kann man sehr gut optimieren, was der verlustleistung zugute kommt.
außerdem verfügt sowohl intel als auch AMD bessere fertigungstechnik als TSMC z.b.
eine CPU architektur bleibt relativ lange bestehen, bei GPUs sind doch teils große umbauten bei refreshes bzw. revisionen.

außerdem hast du dir mal den transistoren count angeschaut?
ein anderer grund ist, multi core. ist bei GPUs nur relativ schwer anwendbar, da hier eine extremst hohe bandbreite zwischen den GPU cores herrschen müsste.
dagegen ist die von CPU anbindungen ala HTT, FSB oder CSI verschwindent gering.

Henroldus
2008-05-10, 23:36:39
@Henroldus
du vergleichst äpfel mit birnen.

CPUs und GPUs sind völlig unterschiedlich.

die CPU besteht aus einen relativen kleinen logikcore. ein großen teil macht der cache aus.
beides kann man sehr gut optimieren, was der verlustleistung zugute kommt.
außerdem verfügt sowohl intel als auch AMD bessere fertigungstechnik als TSMC z.b.
eine CPU architektur bleibt relativ lange bestehen, bei GPUs sind doch teils große umbauten bei refreshes bzw. revisionen.

außerdem hast du dir mal den transistoren count angeschaut?
ein anderer grund ist, multi core. ist bei GPUs nur relativ schwer anwendbar, da hier eine extremst hohe bandbreite zwischen den GPU cores herrschen müsste.
dagegen ist die von CPU anbindungen ala HTT, FSB oder CSI verschwindent gering.
ja die chiparchitektur ist schon anders klar aber bei der fertigungstechnik ist TSMC mit den aktuellen 55nm schon vor AMD angekommen!
der transistorcount ist doch nur absolut interessant, meistens steigt er in den maße wie die fertigungtechnik voranschreitet.
die DIE Größe bleibt also konstant.
Es liegt also bei den IHVs eine effizientere Architektur zu entwerfen wie es Intel z.B. radikal beim Wechsel auf den Conroe vorgemacht hat

Sorry for OT aber mit der momentanen Entwicklung bin ich einfach unzufrieden :mad:
überall wird miniaturisiert, spannungen gesenkt etc, nur unsere Grakas werden immer größer und heisser

K4mPFwUr$t
2008-05-10, 23:48:44
@Henroldus
sry, aber du scheinst nicht viel ahnung zu haben. daher meine rede von apfel und birnen.

1) geringerer fertigungsprocess muss nicht gleich besser sein, er reift erst mit der zeit
2) sowohl intel als auch AMD verfügen über techniken die für verbrauchsenkungen und leistungsoptimierungen eingesetzt werden z.b. strained silicon.
3) was ist am transistoren count intressant? das scheinbar 1mrd transistoren mehr verbrauchen als ein E6600 (291millionen transtistoren)?
4) wie stellst du dir bitte eine effizente architektur vor? vergleich einfach mal die theoretische maximale leistung von aktuellen GPUs und CPUs. GPUs haben für ihre enorme leistung eine relativ gute watt/performance skala
5) ein multi-core design ist momentan einfach unmöglich würde man meinen, selbst 1024bit SI bei GDDR5 mit 2200Mhz wäre noch viel zu langsam um eine interne kommunikation nicht auszubremsen
6) apel und birnen
7) dein pech wenn dir die GPU entwicklung nicht gefällt --> greif zu values chips

so als nachtrag:
bei einer CPU ist der sheduler des OS und die app für die skalierung bzw. multi threading verantwortlich.
bei einer multi-gpu dagegen allerdings nur der treiber und nicht wirklich die app (sie muss ledeglich multi-gpu support bieten).

Gast
2008-05-10, 23:53:04
@Kampfwurst.

Die hohe Verlustleistung ensteht ja gerade durch zu wenige Transistoren die mit sehr hoher frequenz betrieben werden müssen um Leistung zu erzielen, die kommenden Chips sollten 2mrd Trans oder mehr haben, dafür halt nur 350mHz. Intel hat über die letzten 4 Jahre gesehen stark an der trans. Schraube gedreht, wie man sieht mit Erfolg.

K4mPFwUr$t
2008-05-10, 23:58:43
@gast
die leckströhme hatte ich ja noch nicht erwähnt.
der goldene mittelweg ist imho der beste weg bei CPUs.
keine zubreite und keine zuschmale archtiektur (P4 und der urpsprüngliche P5) ist optimal.
allerdings wäre der nächste schritt mit dem nehalem den transistoren count pro core wieder zu erhöhen (cache bleibt hier mal außen vor).

aber das gehört ja eigentlich nicht zum thema ;)

viel mehr ist die schlechte optimerung wie auch der löwenanteil an logiktranstistoren.
einen kleinen chip kann man viel leichter optimieren als ein monster wie es der GT200 werden könnte.

Henroldus
2008-05-11, 00:01:50
@Henroldus
sry, aber du scheinst nicht viel ahnung zu haben. daher meine rede von apfel und birnen.

1) geringerer fertigungsprocess muss nicht gleich besser sein, er reift erst mit der zeit
2) sowohl intel als auch AMD verfügen über techniken die für verbrauchsenkungen und leistungsoptimierungen eingesetzt werden z.b. strained silicon.
3) was ist am transistoren count intressant? das scheinbar 1mrd transistoren mehr verbrauchen als ein E6600 (291millionen transtistoren)?
4) wie stellst du dir bitte eine effizente architektur vor? vergleich einfach mal die theoretische maximale leistung von aktuellen GPUs und CPUs. GPUs haben für ihre enorme leistung eine relativ gute watt/performance skala
5) ein multi-core design ist momentan einfach unmöglich würde man meinen, selbst 1024bit SI bei GDDR5 mit 2200Mhz wäre noch viel zu langsam um eine interne kommunikation nicht auszubremsen
6) apel und birnen
7) dein pech wenn dir die GPU entwicklung nicht gefällt --> greif zu values chips
1)generell hab ich mit kleineren strukturgrößen kürze wege also sind höhere frequenzen möglich, die betriebsspannung sinkt wobei die leckströme problematischer werden, ein weiterer entscheidender faktor ist das material bzw die dotierung, Das ist aber Aufgabe der Auftragsfertiger
2.)SOI, Hafnium und co ich weiß
3.)es ging hier um das wachstum nicht um die absolute zahl und das gibt es auch im CPU-Bereich beim architekturwechsel und bei der coreanzahl, trotzdem hat ein quadcor ne TDP von 95W wo ein P4 schon über 100W hatte!
4.)genau das ist die aufgabe von NV,ATI und Co: wie wieviele TMUs, shading units, ROPs etc und deren verhältnis, speicherinterface, es gibt viele parameter wo man drehen kann
5.)dann muss die Parallelisierung onDIE vorangetrieben werden
6.)einen anderen vergleich gibt es mom nicht
7.)sicher bin ich hier nur Beobachter aber eine Entwicklung hinzu zu 1000W Netzteilen und TripleSLI blödsinn wird keiner auf dauer begrüssen, du etwa?

so und nu muss i ins bett :smile:

LovesuckZ
2008-05-11, 00:09:04
der richtige weg wird doch momentan bei den CPUs vorgemacht:
seit dem Pentum4 gibt es keine Verbrauchssteigerung mehr.
selbst ein heutiger QUAD-Core mit einem mehrfachen an Leistung hat ein max TDP von 125W!

125 Watt findest du toll? Eine 8800GTX verbraucht mit GPU, Platine und Speicher 178Watt TDP. Rechnest du noch Speicher und Motherboard bei der GPU hinzu, hast du kein besseres Verhältnis.
Und im Gegensatz zu einer QuadCore CPU hat man bei den GPUs fast immer die bestmöglichste Leistung.


der Weg der parallelisierung ist also wohl günstiger als ständige taktsteigerungen.
solange dies nicht über SLI/Crossfire mit den bekannten nachteilen realisiert wird sehe ich hier auch im grafikkartenmarkt die Zukunft.

Parallelsierung gibt es doch schon seit Jahren bei den GPUs.

K4mPFwUr$t
2008-05-11, 00:14:09
1)generell hab ich mit kleineren strukturgrößen kürze wege also sind höhere frequenzen möglich, die betriebsspannung sinkt wobei die leckströme problematischer werden, ein weiterer entscheidender faktor ist das material bzw die dotierung, Das ist aber Aufgabe der Auftragsfertiger
alles kosten und mal ein großes werk wie von TSMC aufzurüsten würde man abermillarden benötigen, von der dauer garnicht erst zu sprechen.

3.)es ging hier um das wachstum nicht um die absolute zahl und die gibt es auch im CPU-Bereich beim architekturwechsel und bei der coreanzahl, trotzdem hat ein quadcor ne TDP von 95W wo ein P4 schon über 100W hatte!
kann man imho nicht vergleichen (CPU vs. GPU).
würde man einen P4 nach heutiger stand der dinge fertigen, würde er sicherlich wesentlich weniger strom schlucken als damals ;) zumal die P4 architektur von anfang an auf MHz aus war.
intel hatte ja auch mit dem P4 die 10GHz schon erträumt gehabt und ist bitter böse auf die nase gefallen.

4.)genau das ist die aufgabe von NV,ATI und Co: wie wieviele TMUs, shading units, ROPs etc und deren verhältnis, speicherinterface, es gibt viele parameter wo man drehen kann
das ordne ich mehr unter "effizente performance" ein, was ich eher ursprünglich ansprechen wollte ist die watt/performance. schon krass wenn ein serverschrank mit CPGPU soviel rechenleistung hat wie ein großes CPU cluster (GPU sind dafür unflexibler und können nicht alles).

5.)dann muss die Parallelisierung onDIE vorangetrieben werden
GPUs sind seit den tagen wo "2 pipelines" in mode kamen paralelliesiert.
ein weiterer sprung ist mit unified shader architektur gelungen, so gesehen handelt es sich um viele kleine streamprozessoren. was paralleleres als eine GPU findets du nicht.

6.)einen anderen vergleich gibt es mom nicht
äpfel und birnen sollte man nicht vergleichen, so gesehen gibt es nur verschiedene architekturen für CPU und GPU die man vergleichen kann. außerdem ist der treiber ein sehr wichtiger bestandteil. oder schonmal den CPU treiber geupdatet um in app xyz 10% mehr leistung zu haben? ;)

7.)sicher bin ich hier nur Beobachter aber eine Entwicklung hinzu zu 1000W Netzteilen und TripleSLI blödsinn wird keiner auf dauer begrüssen, du etwa?
ich bin kein freund von der derzeitgen multi-gpu technologie, aber bis es eine brauchbare lösung gibt werden noch jahre ins land gehen. ATI hatte ja mit dem R700 einen revolutionären schritt vor, der scheinbar durch AMDs übernahme gekippt wurde. heut zutage fehlt einfach die technik um on-package oder on-PCB eine effizente multi-gpu lösung herbei zu zaubern ;)

so nun genug OT, bei weiteren sachen an PN.

Gast
2008-05-11, 00:14:51
@gast
die leckströhme hatte ich ja noch nicht erwähnt.
der goldene mittelweg ist imho der beste weg bei CPUs.
keine zubreite und keine zuschmale archtiektur (P4 und der urpsprüngliche P5) ist optimal.
allerdings wäre der nächste schritt mit dem nehalem den transistoren count pro core wieder zu erhöhen (cache bleibt hier mal außen vor).

aber das gehört ja eigentlich nicht zum thema ;)

viel mehr ist die schlechte optimerung wie auch der löwenanteil an logiktranstistoren.
einen kleinen chip kann man viel leichter optimieren als ein monster wie es der GT200 werden könnte.


Definiere kleinen Chip??? 5 - 10mio Transistoren, ein ARM 11 wie im Iphone?????


GT200 oder wie das Ding sich auch nennt ist ja in erster line eine Massenmarkt Einheit, weit ab von einem Transistorenmonster, da muss man auch mit der Zeit gehen. Selbst Intel hatte ja gemerkt das man nicht über den Takt alleine gehen kann.

Wenn diese Einheit wie es hier im thread steht wirklich mit einer TDP von 240Watt kommt ist das ein absolutes Armutszeugniss, die Leistung pro Watt hätte sich dann nur geringfügig verbessert, wenn man eine 8800GTX als vergleich nimmt.

K4mPFwUr$t
2008-05-11, 00:21:34
Definiere kleinen Chip??? 5 - 10mio Transistoren, ein ARM 11 wie im Iphone?????


GT200 oder wie das Ding sich auch nennt ist ja in erster line eine Massenmarkt Einheit, weit ab von einem Transistorenmonster, da muss man auch mit der Zeit gehen. Selbst Intel hatte ja gemerkt das man nicht über den Takt alleine gehen kann.

Wenn diese Einheit wie es hier im thread steht wirklich mit einer TDP von 240Watt kommt ist das ein absolutes Armutszeugniss, die Leistung pro Watt hätte sich dann nur geringfügig verbessert, wenn man eine 8800GTX als vergleich nimmt.

man kann klein unterschiedlich definieren, allerdings eignet sich ein ARM11 dazu eher weniger ;)

der GT200 als monsterchip wird wohl nur das highend segment bedienen. für die anderen sachen wie low/mid und notebook segment gibt es genug andere refreshs siehe G92b, G98 und co.

die TDP würde ich nicht zwingend als reale verlustleistung ansehen.
am besten sieht man das beim vergleich zwischen AMD und intel.
beide haben unterschiedliche methode um die TDP zu errechnen.

im grunde genommen ist die TDP nur eine richtlinie bzw. max was ein chip nur unter gewissen situation verbrauchen kann. das ganze ist nur interessant für entwickler von PCBs (sei es für graka oder ein mainboard) oder kühlerentwickler.

ob die watt/performance besser/schlechter ist liegt zu sehr an verwendeter hardware, treiber, app und settings. der G80 hatte auch anfangs nicht sollch einen abstand wie er heute zur GF7 hat. hat allerdings neben der treiberreife mehrere gründe.

Unyu
2008-05-11, 00:39:25
Auch beim selben Hersteller kann man mit der TDP nicht soooo viel aussagen.

Bsp 8800GTX mit höherer TDP als 8800Ultra, oder bei Intel ist es auch recht lustig, steckt der sparsame L2 Allendalle mit 1,6Ghz in der selben Klasse, wie die alte 3Ghz B2 Conroe Heizung.

Genau genommen besteht immer noch die Möglichkeit das GT200 weniger als die 160W des R600 verballert.

K4mPFwUr$t
2008-05-11, 00:40:35
afaik hatte der R600 auch 240W oder der kühler ;)

Unyu
2008-05-11, 00:47:23
215W TDP und den Vorteil keinen dämmenden Deckel zu haben.

240W TDP - Deckelnachteil = vergleichbare 215W TDP ohne Deckel = 160W Verbrauch. :D

Die gelbe Eule
2008-05-11, 01:14:45
Das sagt PCPOP zu den letzten Gerüchten:


Recently the network upper reaches spread it is said that were the Geforce 9,900 GTX/GTS project model design drawing, these two section D10U series product design board respectively is P651 and P65x.

Looked from the chart that, we may know Geforce 9,900 GTX/GTS all supports three group SLI, has outside 8pin to meet the power supply, in other words, the 9900GTS highest power loss is 225W (75W+150W), but 9,900 GTX may achieve 300W (75W+75W+150W), because also has a 6pin power supply. 6pin is 6.25Amps 12V, also is 75W, but 8pin is 12.5Amps 12V also is 150W.

Around all has eight to reveal saves the chip position, therefore in fable 512 reveal saves the position width is may achieve, reveals saves the capacity to be allowed to be 512M, 1G and 2G. Because 9,900 GTS reveals saves the chip position to be similar, therefore in fable 448 896M reveals saves is wrong.

Adam D.
2008-05-11, 09:57:51
Alle Gerüchte mal beiseite, aber eine auf dem GT200-Chip basierende Grafikkarte kann doch unmöglich Geforce 9900 heißen. Da scheinen entweder die ganzen Sites was durcheinander zu werfen oder Nvidia spielt wirklich ein völlig absurdes Spiel :|

Hvoralek
2008-05-11, 10:59:39
der transistorcount ist doch nur absolut interessant, meistens steigt er in den maße wie die fertigungtechnik voranschreitet.
die DIE Größe bleibt also konstant.Bei High- End- GPUs eben nicht. Schau Dir mal die Größenentwicklung hier an; für die hier erwünschte Leistungssteigerung kommt man eben oft nicht mit dem aus, was allein kleinere Fertigungstechnik ermöglicht. Dass dann der Verbrauch steigt, ist kein Wunder. Du möchtest doch nicht einmal ernsthaft daraus, dass Intel es geschafft hat, gegenüber der ziemlich misslungenen Netburstarchitektur schlagartig die Leistung und v.a. die Pro- Watt- Leistung zu steigern, folgern, dass das ja wohl bei Chips jeglicher Art immer und überall ebenso möglich sein müsse, wenn man nur wolle.

Wenn Dir weniger Leistungssteigerung bei weniger Stromverbrauch lieber wäre, kannst Du immer noch zu den nächstkleineren Modellen greifen.

reunion
2008-05-11, 13:30:44
der transistorcount ist doch nur absolut interessant, meistens steigt er in den maße wie die fertigungtechnik voranschreitet.
die DIE Größe bleibt also konstant.

R300: 218mm², 150nm
GT200: 575mm², 65nm

Das ist schon eine enorme Steigerung der Die-Size, speziell wenn man bedenkt, dass der Verkaufspreis nicht gestiegen ist, also inflationsbereinigt sogar sank.

Unyu
2008-05-11, 13:59:38
Dafür gabs damals auch nur maximal 200mm Wafer.

K4mPFwUr$t
2008-05-11, 14:20:53
und 450mm waver sind ja auch schon fast zum greifen nah.

aber es gibt wohl scheinbar keine alternative als der DIE wachstum.
oder kann man es überhaupt mit anständigen yields und verlustleistungen realisieren einen 200mm² chip auf z.b. 3870 zu beschleunigen oder sogar mehr?

Ailuros
2008-05-11, 15:38:47
nix Fire GL:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/gecube_hd_3870_2_gb_speicher/

Gut ich nehme es zurueck; den Preis fuer den nutzlosen Ueberfluss wuerde ich trotzdem gerne hoeren.

Spasstiger
2008-05-11, 16:26:58
Dafür gabs damals auch nur maximal 200mm Wafer.
Guter Einwand. Aber man muss bedenken, dass der Verschnitt bzw. die Ausbeute stark von der Chipgröße abhängt. Die Kosten pro Chip sind nicht proportional zur Chipfläche, sondern überproportional. Ein doppelt so großer Chip kostet bei einem Wafer bestimmten Durchmessers nicht doppelt soviel, sondern eher 2,5-mal soviel.
Durch größere Wafer wird erreicht, dass man einen doppelt so großen Chip auch bei ungefähr doppelten Kosten produzieren kann.

Ich hab mal die Ausnutzung der Waferfläche bei verschiedenen Chipflächen und Waferdurchmessern visualisiert, ich gehe dabei von quadratischen Chips aus:

http://www.abload.de/img/wafer_efficiency9ri.gif

Bei 575 mm² großen Chips hätte man auf einem 300-mm-Wafer eine Flächenausnutzung von ungefähr 77%. Diese Flächenausnutzung erreicht man bei einem 200-mm-Wafer mit ca. 250 mm² großen Chips.
Gleiche Flächenausnutzung bedeutet ungefähr gleiche Kosten pro Fläche. Der große Chip auf dem großen Wafer kostet in diesem Beispiel also 2,3-mal soviel (575/250) wie der kleine Chip auf dem kleinen Wafer. Würde man den großen Chip auf dem kleinen Wafer fertigen, würde er ca. 2,7-mal soviel wie der kleine Chip kosten. Der größere Wafer führt also zu einer Kostenersparnis von "nur" ca. 15%. Zumindest wenn man davon ausgeht, dass die Kosten pro Waferfläche immer gleich bleiben.

Unyu
2008-05-11, 18:14:04
Man könnte ja außen ein paar kleine Chips reinquetschen. :confused:
Bei so eine Verschnitt, wie es ein 575mm² Hammer haben wird.... oder muss auf einem Wafer eine Chip Sorte sein?

Coda
2008-05-11, 18:29:22
Immer nur eine Chipsorte, sonst kannst es ja nicht gescheit aussägen.

K4mPFwUr$t
2008-05-11, 22:17:44
außerdem wirds wohl auch schon bei der lithographie scheitern?
bzw. nur unnötig zeit und geld kosten.

Spasstiger
2008-05-11, 23:43:35
Man könnte ja außen ein paar kleine Chips reinquetschen. :confused:
Bei so eine Verschnitt, wie es ein 575mm² Hammer haben wird.... oder muss auf einem Wafer eine Chip Sorte sein?
Die Lithografiegeräte nehmen nur die Masken von einem Chiptyp auf. Vielleicht würde man die Reinheit gefärden, wenn man im laufenden Betrieb einfach mal Masken von einem anderen Typ einsetzt.

reunion
2008-05-12, 10:28:09
http://www.vr-zone.com/articles/GeForce_9900_GTX_Card_Design_Exposed/5763.html

Gast
2008-05-12, 10:57:56
Laut vr-zone kommen die 55nm Versionen später.

Hat das Vor- oder Nachteile für uns Konsumenten? Eigentlich profitiert vom 55 nm Verfahren doch nur Nvidia, weil sie weniger Material benötigen?

mapel110
2008-05-12, 11:29:34
Laut vr-zone kommen die 55nm Versionen später.

Hat das Vor- oder Nachteile für uns Konsumenten? Eigentlich profitiert vom 55 nm Verfahren doch nur Nvidia, weil sie weniger Material benötigen?
Kunde hat logischerweise weniger Abwärme bzw. Leistungsaufnahme.

AnarchX
2008-05-12, 11:35:04
Kunde hat logischerweise weniger Abwärme bzw. Leistungsaufnahme.
Nicht unbedingt, wie man auch momentan bei ATi sieht, wo 55nm gegenüber 65nm keine Vorteile in diesem Bereich brachte.

Primär bringt ein kleinerer Prozess nunmal einen kleineren Die, was für den Hersteller niedrigere Kosten bedeutet, die er an seine Kunden weitergeben kann.

Godmode
2008-05-12, 11:41:18
Die Lithografiegeräte nehmen nur die Masken von einem Chiptyp auf. Vielleicht würde man die Reinheit gefärden, wenn man im laufenden Betrieb einfach mal Masken von einem anderen Typ einsetzt.

Wie funktioniert die "Belichtung" eigentlich? Wird der ganze Wafer auf einmal belichtet, also alle Chips gleichzeitig erzeugt, oder wird Chip für Chip auf den Wafer gestanzt?

mapel110
2008-05-12, 11:44:21
Nicht unbedingt, wie man auch momentan bei ATi sieht, wo 55nm gegenüber 65nm keine Vorteile in diesem Bereich brachte.

Hä? Wo? Steh ich gerade auf dem Schlauch?!

Bei gleichen Specs und Taktraten, ist ein kleinerer Fertigungsprozess doch immer mit diesen Vorteilen ausgestattet.

Ailuros
2008-05-12, 11:52:23
Hä? Wo? Steh ich gerade auf dem Schlauch?!

Bei gleichen Specs und Taktraten, ist ein kleinerer Fertigungsprozess doch immer mit diesen Vorteilen ausgestattet.

Kommt drauf an welche Version eines Fertigungprozesses verwendet wird, wie die Voltage der finalen GPU angelegt ist usw. Ich schaetze er deutet darauf hin dass in 3D zumindest eine RV670 nicht weniger als eine G92 verbraucht.

deekey777
2008-05-12, 11:52:38
Nicht unbedingt, wie man auch momentan bei ATi sieht, wo 55nm gegenüber 65nm keine Vorteile in diesem Bereich brachte.

Primär bringt ein kleinerer Prozess nunmal einen kleineren Die, was für den Hersteller niedrigere Kosten bedeutet, die er an seine Kunden weitergeben kann.

Du hättest die "Problemkarten" angeben sollen, sonst stiftest du noch mehr Verwirrung.
Gemeint sind HD2400 vs. HD3400 und HD2600 vs. HD3600: Hier brachte der Übergang auf 55 nm außer der kleineren Die-Fläche nichts, sogar etwas Unerwünschtes wie höheren Verbrauch.

Henroldus
2008-05-12, 12:38:56
Wie funktioniert die "Belichtung" eigentlich? Wird der ganze Wafer auf einmal belichtet, also alle Chips gleichzeitig erzeugt, oder wird Chip für Chip auf den Wafer gestanzt?
pro belichtung werden mehrere chips belichtet(verkleinerte abbildung des Reticles auf dem wafer) z.B. 4x4 chips.
so wird in mehreren schritten der gesamte wafer belichtet!
die masken im belichtungstool können natürlich gewechselt werden
details darf ich hier natürlich nicht verraten ;)

Gast
2008-05-12, 12:46:21
Primär bringt ein kleinerer Prozess nunmal einen kleineren Die, was für den Hersteller niedrigere Kosten bedeutet, die er an seine Kunden weitergeben kann.

Nicht unbedingt. Die Herstellungskosten hängen wesentlich von den produzierten Stückzahlen ab, und da sind 65nm Chips klar in der Überzahl.

mapel110
2008-05-12, 12:58:06
Du hättest die "Problemkarten" angeben sollen, sonst stiftest du noch mehr Verwirrung.
Gemeint sind HD2400 vs. HD3400 und HD2600 vs. HD3600: Hier brachte der Übergang auf 55 nm außer der kleineren Die-Fläche nichts, sogar etwas Unerwünschtes wie höheren Verbrauch.
http://www.legitreviews.com/article/652/1/
Stimmen die Zahlen dort für die Standardkarten?
Dann sind die doch gar nicht vergleichbar. Anderes Chipdesign und höhere Taktraten(dadurch höchstwahrscheinlich mehr Spannung als nötig wäre, um auf selbe Chiptakte zu kommen wie die alten Chips).

GeneralHanno
2008-05-12, 16:45:24
fudzilla bestätig die aktuellen GT200 gerüchte ("without a doubt"):
- singe chip
- sehr große die
- viel leistung, viel abwärme
- 512bit SI

link:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7272&Itemid=1

tombman
2008-05-12, 16:47:09
fudzilla bestätig die aktuellen GT200 gerüchte ("without a doubt"):
- singe chip
- sehr große die
- viel leistung, viel abwärme
- 512bit SI

link:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7272&Itemid=1
Nach den Bildern des pcbs wird das auch sicher stimmen. Ist eben der echte Nachfolger der 8800GTX :)

Ich und Don Vito sind schon ganz feucht ;)

GeneralHanno
2008-05-12, 16:48:24
zudem scheinen samples verteilt zu werden (dann gibts bald auch mehr leaks)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7273&Itemid=1

Gast
2008-05-12, 16:52:46
die gt200 wird ein grossen asskick ab kriegen wenn die neusten spekus von der ati stimmen.

GeneralHanno
2008-05-12, 16:55:55
um ehrlich zu sein: ich glaube kaum, dass der RV770 den GT200 schlagen wird. aber das muss ATi auch nicht, schließlich kann ATi den RV770 günstiger anbieten als nvidia den GT200.

tombman
2008-05-12, 16:56:09
die gt200 wird ein grossen asskick ab kriegen wenn die neusten spekus von der ati stimmen.
Mit EINEM chip sicher nicht...

Don Vito
2008-05-12, 16:56:17
die gt200 wird ein grossen asskick ab kriegen wenn die neusten spekus von der ati stimmen.
Erstmal muß ATI zeigen was sie kann....
Das hieß es schon zu Erscheinen der 8800gtx...
Und NV hatte jetzt 1,5 Jahre dazwischen;)

Gast
2008-05-12, 16:57:53
Mit EINEM chip sicher nicht...

aber wenn 2 chips wie einer arbeiten:)

mictasm
2008-05-12, 16:57:53
Ich und Don Vito sind schon ganz feucht ;)

LOL ... das Teilchen wird ja noch von ein paar mehr Leuten erwartet. Endlich genug Leistung für 30"...

Coda
2008-05-12, 16:59:18
heyyyy im Luxx ist auch einer der weiss schon wie der der GT200 aussehen wird ;D

http://www.abload.de/thumb/p651frontsidebv2utu.png (http://www.abload.de/image.php?img=p651frontsidebv2utu.png)

http://www.abload.de/thumb/p651backsideut6099.png (http://www.abload.de/image.php?img=p651backsideut6099.png)
Was ist daran eigentlich so witzig? Für einen Fake halte ich das für viel zu viel Aufwand. Und falls es ein Fake ist, dann hat er zumindest die bisherigen Spekulationen beachtet. Richtige Anzahl von Speicherchips und ein großes Die.

Da ich annehme dass es stimmt ist interessant dass wieder ein NVIO drauf ist. Wohl wieder ein verbuggter Chip *hust*

tombman
2008-05-12, 17:00:37
aber wenn 2 chips wie einer arbeiten:)
Dann gibts den Weihnachtsmann wirklich ;)

Gast
2008-05-12, 17:03:39
aber wenn 2 chips wie einer arbeiten:)

Die sollen mal lieber ihre Treiber in Ordnung bringen für ihren X2 Crap

AnarchX
2008-05-12, 17:05:36
Da ich annehme dass es stimmt ist interessant dass wieder ein NVIO drauf ist. Wohl wieder ein verbuggter Chip *hust*
Bleibt nur die Frage wofür?

G9x hat ja gezeigt, dass er nicht nötig ist für Tri-SLI und auch bei SD-Frequenzen von >1.8GHz.
Aber für etwas anderes wie ein Displayport-Transmitter ist das Package aber auch deutlich zu groß.

Grestorn
2008-05-12, 17:17:20
Ich und Don Vito sind schon ganz feucht ;)

Nicht immer die Einschränkungen ... Ihr seid doch nicht die einzig Verrückten :)

Sonyfreak
2008-05-12, 17:18:57
Bleibt nur die Frage wofür?Vielleicht irgendein Synchronisationschip für SLI, der mit den bekannten Problemen aufräumt? Man wird ja noch träumen dürfen.

mfg.

Sonyfreak

mrt
2008-05-12, 17:41:59
Also so einfach einen Chip aufs PCB pflanzen und die SLI-Probleme sind passe? Ich glaube nicht ;)

tombman
2008-05-12, 17:46:56
Nicht immer die Einschränkungen ... Ihr seid doch nicht die einzig Verrückten :)
http://www.myemoticons.com/emoticon-critic/hug-and-kiss/images/group_hug.gif

:D

reunion
2008-05-12, 18:12:25
Die Karte dürfte genau so lang werden wie eine 9800GTX/GX2/8800GTX/Ultra, also 27cm:

http://www.hardware-aktuell.com/pic/801_4_GT200_Vergleich.jpg

http://www.hardware-aktuell.com/viewnews.php?article=801

Don Vito
2008-05-12, 18:22:17
Demnach also so groß wie eine 8800gtx:D

MikBach
2008-05-12, 18:29:39
Die sollen mal lieber ihre Treiber in Ordnung bringen für ihren X2 Crap
Multi-GPU ist eh Crap.
da würde ich auch nicht viel investieren...:|

tombman
2008-05-12, 19:58:28
Multi-GPU ist eh Crap.|
So generell kann man das nicht sagen, kenne genug games, wo zb Multi-Gpu eine Spielbarkeit ermöglicht, die ohne SLi nicht möglich wäre.

Ja, es gibt die Problematik der Mikroruckler, die einem die Multi-Gpu Suppe stark versalzen, deswegen ist es aber immer noch eine Suppe, nicht nichts wie bei single-Gpu :)

Skusi
2008-05-12, 20:22:12
Ne ne Single GPU ist nur ein kleinerer Teller,dafür aber gut gewürzt.:biggrin:

tombman
2008-05-12, 20:22:49
Ne ne Single GPU ist nur ein kleinerer Teller,dafür aber gut gewürzt.:biggrin:
Wichtig sind aber die Kalorien ;)

Wäre halt besser, wenn sie auch gut schmecken würden :)

Ich hoffe ja, der GT200 ist so stark, daß er zb G80 GTX SLI überflüssig macht ;)

GeneralHanno
2008-05-12, 20:30:22
ich finds ja ok, wenn sich eine "freaks" ihr SLI/CF-system zusammenstellen (z.b. aus dem G80). was mich aber "anpisst" ist der trend zu den fertigen dual-GPU karten (9800GX2 und 3870X2) um R&D für eine "ordentlich" singel-gpu zu sparen ...

Gast
2008-05-12, 20:37:27
was mich aber "anpisst" ist der trend zu den fertigen dual-GPU karten (9800GX2 und 3870X2) um R&D für eine "ordentlich" singel-gpu zu sparen ...


Da stimme ich dir zu, aber das betrifft doch nur ATI. Von Nvidia wird es demnächst wieder einen Single-GPU Kracher geben, von ATI nicht.

K4mPFwUr$t
2008-05-12, 20:39:50
wäre der GT200 nicht in einer sollchen dimension, würde auch nV eine sollche karte rausbringen ;)

aber im grunde genommen pist mich die entwicklung auch an. statt mal einen ordentlichen highend chip zu bringen, macht man lieber ne dualkarte X-(

LovesuckZ
2008-05-12, 21:19:28
Würdest du auch 600€ für den "ordentlichen High End Chip" ausgeben?

MikBach
2008-05-12, 21:23:10
Da stimme ich dir zu, aber das betrifft doch nur ATI. Von Nvidia wird es demnächst wieder einen Single-GPU Kracher geben, von ATI nicht.
Kannst du mir mal deine Glaskugel leihen?
Meine ist gerade Keller...:|

Schlammsau
2008-05-12, 21:32:27
die high end lösungen beider hersteller werden jetzt immer dualgpu lösungen sein!
Hat doch nV selber gesagt!
Und es gibt genug gerüchte, dass auch der gt200 eine dualgpu wird.

Gast
2008-05-12, 21:35:18
Würdest du auch 600€ für den "ordentlichen High End Chip" ausgeben?

da müsste aber die karte knapp 3 mal so schnell wie eine 8800gtx sein sonst ganz bestimmt nicht

MikBach
2008-05-12, 21:43:06
Und es gibt genug gerüchte, dass auch der gt200 eine dualgpu wird.
Und?
Gerüchte gibt es viele...:|

crux2005
2008-05-12, 21:57:37
immer noch nichts über die TMUs :rolleyes:
was glaubt ihr, wie viele TMUs wird er haben ?

ich glaube es werden wieder G80 like TMUs, also 2x mehr filtering als adressing units

AnarchX
2008-05-12, 22:01:35
Momentan sieht es ganz nach 10 Cluster aus, also wohl 80 TA/TMUs.

Hvoralek
2008-05-12, 22:09:05
die high end lösungen beider hersteller werden jetzt immer dualgpu lösungen sein!
Hat doch nV selber gesagt!Wann das?

Nightspider
2008-05-12, 22:13:27
Bin echt mal gespannt, wie schnell die GT200 Karte in richtig hohen Einstellungen ab 1920*1280 , 4 AA und 16 AF bis 2560*1600 ,4 AA , 16 AF abgeht.

Ich hoffe das die Karte in solchen Einstellungen 3 mal so schnell wird wie eine 8800 GTX

K4mPFwUr$t
2008-05-12, 22:24:28
@Nightspider
3 mal so schnell halte ich für übertrieben, denke faktor 2 sollte max sein.
bei faktor 3 müsste der chip bestimmt 2mrd transistoren haben.

@Schlammsau
nV hat nichts des gleichen gesagt, sowohl ATI, es ist also nichts offizelles.
außerdem gibt es mehr gerüchte die gegen einen dual chip, sogar bilder.

@LovesuckZ
die warscheinlichkeit das ich bereit wäre soviel geld für eine graka zu bezahlen wäre mit einem single chip weit aus höher als bei einem dual chip. das problem sind einfach die ganzen multi-gpu kinderkrankheiten, wären diese nicht wäre es sicherlich den meisten egal ob ein oder mehrere chips unter dem kühler sind ;)

AnarchX
2008-05-12, 22:39:41
Naja, die spekulierten Crysis 2560x1600 VH 4xAA ~30FPS @GT200 SLI wären ein Faktor 3.;)

Und GT200 hat durchaus das Potential dazu, zwar sehen die Specs auf den ersten Blick nicht danach aus, aber wenn man sich anschaut wie G94 im Vergleich zu G80 performt, sieht man doch dass das Design in höheren Skalierungstufen doch durchaus Optimierungspotential hat und hier meist etwas an Leistung verloren geht.

Nightspider
2008-05-12, 22:54:52
Träum weiter.
und
3 mal so schnell halte ich für übertrieben, denke faktor 2 sollte max sein.

Wir reden hier nicht von den Standard-Settings. Unter extremem Bedingungen war teilweise sogar der G80 bis zu 3 mal so schnell wie ein G71.

Wenns nach euch ginge würde der GT200 nach 2 Jahren Entwicklung nichtmal die doppelte Performance in "normalen Settings" (1280, 4AA / 1680, 4AA) erreichen.

Jetzt dürft ihr nochmal überlegen, was unrealistischer ist ;)

Godmode
2008-05-12, 22:59:18
Träum weiter.

Vor allem mit 8x AA könnte ich mir vorstellen, dass GT200 sogar 3 mal so schnell wie ne GTX sein kann.

Die gelbe Eule
2008-05-12, 23:07:46
Hoffentlich kommen sofort auch kleinere Ableger, wie damals GTS 320/640, welche ja eigentlich sehr gut verkauft worden sind.

Coda
2008-05-12, 23:08:16
Träum weiter.
Öh wieso? Das könnte durchaus drin sein, wenn man die Architekturverbesserungen seit G80 betrachtet.

Hvoralek
2008-05-12, 23:18:00
Hoffentlich kommen sofort auch kleinere Ableger, wie damals GTS 320/640, welche ja eigentlich sehr gut verkauft worden sind.Das kann man annehmen, allein schon, um teildefekte Chips noch loszuwerden. Es war auch schon konkret die Rede von einer Version mit 8C/ 7 ROP- Blöcken/ 896 MiB.

Die gelbe Eule
2008-05-12, 23:25:36
Die 896MB würden aber nicht passen wenn die Bilder stimmen. Ich denke eher 512MB, 1GB, 2GB wird kommen. Dann wäre der Abstand mit weniger Takt auch vorhanden, dafür müssten dann aber die 1GB auch wirklich sinnvoll werden.

AnarchX
2008-05-12, 23:34:05
Die 896MB würden aber nicht passen wenn die Bilder stimmen.
Man bestückt einfach 2 Speicherchips nicht, wie es schon bei der G80GTS geschah. ;)

Hvoralek
2008-05-12, 23:35:38
Die 896MB würden aber nicht passen wenn die Bilder stimmen. Ich denke eher 512MB, 1GB, 2GB wird kommen. Dann wäre der Abstand mit weniger Takt auch vorhanden, dafür müssten dann aber die 1GB auch wirklich sinnvoll werden.Die Bilder könnten auch einfach die vollausgebaute Version zeigen. Die hat natürlich 8 ROP- Blöcke mit 16 Speicherchips.

Coda
2008-05-12, 23:57:50
215W TDP und den Vorteil keinen dämmenden Deckel zu haben.

240W TDP - Deckelnachteil = vergleichbare 215W TDP ohne Deckel = 160W Verbrauch. :D
So ein Quatsch. Der Deckel ändert überhaupt nichts an der maximalen Verlustleistung die abgeführt werden muss.

Unyu
2008-05-13, 00:05:04
Aber an der nötigen Dimension des Kühlers bei gleicher Abwärme um den Chip auf gleicher Temperatur zu halten.

Coda
2008-05-13, 00:13:10
Nein, eben nicht.

K4mPFwUr$t
2008-05-13, 00:23:38
doch die temperatur dadurch ist höher als ohne dau-kappe + extra WLP.
schon eine schicht papp WLP wirkt wie ein isulator.
das merkt man besonders gut wenn man mal die orginal paste durch eigene austauscht.
da waren bei mir schon öfters mal 10°C weniger beim gleichen kühler drin bei last ;)

und durch den IHS und extra klecks WLP darunter verstärkt sich der effekt nur.

oder würdest du auch behauptet das die CPU nicht kühler wird wenn man den IHS entfernt und statt dessen mit guter silikonpaste die DIE direkt an den kühler presst? ;)

anddill
2008-05-13, 00:28:37
Ein IHS+ zusätzlicher Übergang ist ein zusätzlicher Wärmewiderstand. Das erhöht die notwendige Temperaturdifferenz für den gleichen Wärmefluss. Das heißt im Klartext, der Chip wird wärmer.

Raff
2008-05-13, 01:00:22
Unter extremem Bedingungen war teilweise sogar der G80 bis zu 3 mal so schnell wie ein G71.

Das ist mittlerweile die Regel (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/8/#abschnitt_spielebenchmarks). G7x war verglichen mit G80 ein übelst ineffizientes Design, das ständig am Stallen war. Ok, mit Quality-Filterung entschärfte NV das, in neuen Spielen limitiert dafür die Shaderleistung und blockiert damit alles. Entkoppelung der Einheiten und eine Unified-Architektur waren wichtige Schritte.

MfG,
Raff

Gast
2008-05-13, 08:26:51
3x so schnell wie eine G80 GTX ich hau mich gleich weg :ugly:

512 Bit SI können sie sich stecken das bringt sowieso nichts, ist doch schön für die 140 GB Bandbreite was es schon lange geben tut und trotzdem nichts bringt an Bandbreit mangelt es nicht.
Die hätten lieber DRR5 nehmen sollen der Stromsparenden ist und viel schneller, aber nööö die bauen ein 512 Bit Si was viel zu teuer ist und trotzdem nix taugt.

Die restlichen Daten sehen auch normal aus und sind zu erwarten nach so langer Zeit, G92 war ein reinfall aber die nooby habens trotzdem alle gekauft :haha:

Ich wette 10:1 das sie (wenn überhaupt) gradmal so schnell wie ne GX2 wird aber auf keinen fall schneller, gut in hohen Auflösung +AA und AF wird sie klar schneller sein aber mit sicherheit keine 3x :p

Gast
2008-05-13, 08:51:43
Öh wieso? Das könnte durchaus drin sein, wenn man die Architekturverbesserungen seit G80 betrachtet.

ALUs:
G80: 128
GT200: 240

TMUs:
G80:64
GT200: 80

ROPs/SI:
G80: 6 Cluster/384-bit
GT200: 8 Cluster/512-bit

Also das man damit eine verdreifachung der Leistung erreicht wage ich zu bezweifeln.

Grestorn
2008-05-13, 08:54:31
Toll, wie ihr alle über den GT200 bescheid wisst.

Das erinnern mich voll an den G80, über den auch alle voher total bescheid wussten... Und dann um so dümmer aus der Wäsche schauten. Oops...

Gast
2008-05-13, 09:03:42
Die neue ATI wird die erst GT200 in der Luft zerfetzen und alle die nicht warten können werden sich in den Arsch beißen,ich wette der richtige Brüller GDDR5 wird zum Jahrewechsel kommen.

Gast
2008-05-13, 09:06:38
Und diesen uralten Bockmißt GDDR3 und 512 können die sich dahin stecken wo es ganz dunkel ist.

Grestorn
2008-05-13, 09:07:33
Wäre ja schön, wenn ATI den GT200 in der Luft zerfetzen könnte. Ganz im Ernst.

In den Arsch würde ich mir deswegen ganz bestimmt nicht beißen. Warum auch? Deswegen wird der GT200 ja nicht schlechter. Und vielleicht schafft es ATI ja mal wieder für mich interessant zu werden. Auch wenn dazu noch etwas mehr als nur gute Performance gehören würde...

Gast
2008-05-13, 09:14:32
Wäre ja schön, wenn ATI den GT200 in der Luft zerfetzen könnte. Ganz im Ernst.

In den Arsch würde ich mir deswegen ganz bestimmt nicht beißen. Warum auch? Deswegen wird der GT200 ja nicht schlechter. Und vielleicht schafft es ATI ja mal wieder für mich interessant zu werden. Auch wenn dazu noch etwas mehr als nur gute Performance gehören würde...
Für mich ist das bis jetzt nur ein G80 Aufguß sonst nix

Grestorn
2008-05-13, 09:20:07
Und wie kommst Du zu dem Schluss?

Prinzipiell sind übrigens alle Grafikkarten in irgendeiner Weise ein Aufguss... einer 3dfx Voodoo nämlich.

Winter[Raven]
2008-05-13, 09:31:09
Für mich ist das bis jetzt nur ein G80 Aufguß sonst nix

Also wenn ein G80 nur ein Aufguß ist, dann weiß ich auch nicht mehr... Da haben ja alle Rxxx Chips mehr gemeinsam.

seahawk
2008-05-13, 09:32:40
Wäre ja schön, wenn ATI den GT200 in der Luft zerfetzen könnte. Ganz im Ernst.

In den Arsch würde ich mir deswegen ganz bestimmt nicht beißen. Warum auch? Deswegen wird der GT200 ja nicht schlechter. Und vielleicht schafft es ATI ja mal wieder für mich interessant zu werden. Auch wenn dazu noch etwas mehr als nur gute Performance gehören würde...

Was denn ?

Gute BQ - hat ATI bereits
moderne Feature wie DX10.1 - hat ATI bereits
regelmäßige Treibereleases - hat ATI bereits
niedriger Idle-Stromverbrauch - hat ATI bereits

Für mich ist eher NV am Zug endlich mal mit AMD/ATI gleich zu ziehen.

Grestorn
2008-05-13, 09:35:36
Was denn ?

Offenlegung und Manipulierbarkeit der Profile. Das wäre das wichtigste.

Dann auch noch eine Trennung von qualitätsneutralen Optimierungen (Shader-Replacements, CF) von den die Qualität beeinträchtigenden Optimierungen.

Damit wäre ich dann schon als Kunde praktisch gewonnen. Wenn die Performance auch noch stimmt. Denn auch bei nVidia gibt's viele Mängel, und wenn ATI die oben genannten Punkte endlich angeht, wäre ATI für mich glatt wieder attraktiver als nV.

Unyu
2008-05-13, 09:38:24
Gute BQ - hat ATI bereits
Nicht beim AF oder SSAA.

seahawk
2008-05-13, 09:40:56
Offenlegung und Manipulierbarkeit der Profile. Das wäre das wichtigste.

Dann auch noch eine Trennung von qualitätsneutralen Optimierungen (Shader-Replacements, CF) von den die qualität beeinträchtigenden Optimierungen.

Damit wäre ich dann schon als Kunde praktisch gewonnen. Wenn die Performance auch noch stimmt. Denn auch bei nVidia gibt's viele Mängel, und wenn ATI die oben genannten Punkte endlich angeht, wäre ATI für mich glatt wieder attraktiver als nV.

Stimmt das ahtte ich vergessen. Da gebe ich Dir völlig Recht.

Gast
2008-05-13, 10:00:00
GT200-GTX-Karten sollen für nur 499$ in den Handel kommen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7286&Itemid=1

reunion

James Ryan
2008-05-13, 10:06:48
Vermeintliche Bilder von GT200 Karten:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/vermeindliches_bild_gt200-karte_netz/

Sieht für mich nach einem G80 aus! ;D

MfG :cool:

Gast
2008-05-13, 10:08:29
Vermeintliche Bilder von GT200 Karten:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/vermeindliches_bild_gt200-karte_netz/

Sieht für mich nach einem G80 aus! ;D

MfG :cool:

Diese Bilder hätten wir dann das dritte Mal gepostet ...

Gast
2008-05-13, 10:10:44
Was denn ?

Gute BQ - hat ATI bereits


Nein, wird durch A.I versaut, das schlechte AF-Filtern ist nicht abschaltbar


moderne Feature wie DX10.1 - hat ATI bereits


Ein richtiger Punkt.


regelmäßige Treibereleases - hat ATI bereits


Interessiert nicht, solange die Nvidia Treiber deutlich besser sind - auch wenn sie bereits Monate alt sind.


niedriger Idle-Stromverbrauch - hat ATI bereits


Interessiert keinen Enthusiasten, außerdem verbraucht NVidia da nicht viel mehr.


Für mich ist eher NV am Zug endlich mal mit AMD/ATI gleich zu ziehen.

lol, das ist DER Brüller schlechthin.

Gast
2008-05-13, 10:33:32
Und wie kommst Du zu dem Schluss?

Prinzipiell sind übrigens alle Grafikkarten in irgendeiner Weise ein Aufguss... einer 3dfx Voodoo nämlich.
Wortglauberei
Wenn das Ding so kommt ist ein G92 mit dem SI eines G80 sonst nix und wer dafür Geld ausgibt bitteschön.
Und wenn der Preis so stimmt *500€ dann getrauen die sich bei NV noch nicht mal "Geld" für den Aufguß zu verlangen :D

Gast
2008-05-13, 10:42:20
Ob das Ding nun "G92 mit geilem SI" oder meinetwegen "Voodoo XXX" heißt, wär mir eigentlich völlig banane, solange die Leistung stimmt.

Gast
2008-05-13, 10:44:52
dann brauchst dir aber keinen GT200 kaufen,dann reicht auch eine uralt G80 GTX,denn mit dem GT200 in der Form gibt es auch erst Spaß ab 1920xx mit viel AA und wer dafür auch nur einen Cent ausgibt,dem ist nicht mehr zu helfen.

Gast
2008-05-13, 10:57:39
dann brauchst dir aber keinen GT200 kaufen,dann reicht auch eine uralt G80 GTX,denn mit dem GT200 in der Form gibt es auch erst Spaß ab 1920xx mit viel AA und wer dafür auch nur einen Cent ausgibt,dem ist nicht mehr zu helfen.
Das ist aber genau das, worauf die 24" LCD Besitzer warten. Eine SingleGPU-Karte (insbesondere kein SLI/CF), mit der sie Crysis und andere Spiele in 1920x1200 mit Qualitätseinstellungen spielen können. Und dafür gebe ich gerne Geld aus.

Wenn ich in 1440 oder tiefer spiele brauche ich schon seit 2 Jahren keine neue Graka mehr.

tombman
2008-05-13, 11:01:52
GT200-GTX-Karten sollen für nur 499$ in den Handel kommen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7286&Itemid=1

reunion

Wenn die in Euroland wieder Deppenaufschlag auf 500€ aufschlagen, dann werden Don Vito und ich aus USA importieren, soviel ist sicher- bei DEM kranken Dollarkurs wäre das sogar MIT Steuer und Transport deutlich billiger (ca 400€) ;)
(grestorn kann auch mitmachen ;))

MikBach
2008-05-13, 11:07:12
Nein, wird durch A.I versaut, das schlechte AF-Filtern ist nicht abschaltbar
Entweder spiele ich andere Spiele als ihr, oder ich bin in der letzten Zeit blind geworden.
Von ca. 15 Spielen habe ich zur Zeit eins, wo AI flimmert. Ist aber auch nicht weiter tragisch, da ich dies erst als Zuschauer mitbekomen habe.
Beeinflusst also nicht die Spielbarkeit

Interessiert nicht, solange die Nvidia Treiber deutlich besser sind - auch wenn sie bereits Monate alt sind.
Ist jetzt nicht dein Ernst, oder?
Ein Treiber, der mehrere Monate alt ist, unterstützt nicht die neuen Grakas, da die ID nicht bekannt ist.:|

tombman
2008-05-13, 11:13:11
Leute, was macht dieses Bauteil da?

http://img98.imageshack.us/img98/3029/67551307gf9.png (http://imageshack.us)

Gast
2008-05-13, 11:26:46
lol, das Bild ist wilde spinnerei so sieht der Gt200 eh nicht aus :ugly:

Dödel
2008-05-13, 11:30:01
lol, das Bild ist wilde spinnerei so sieht der Gt200 eh nicht aus :ugly:
Anscheinend weißt du iwe er aussieht, dann zeig doch mal...lol

Ernsthaft, der Chip bringt viele Vermutungen und fragen auf, evtl. das Ende der Mikroruckler

Gast
2008-05-13, 11:32:46
Anscheinend weißt du iwe er aussieht, dann zeig doch mal...lol

Ernsthaft, der Chip bringt viele Vermutungen und fragen auf, evtl. das Ende der Mikroruckler

hehe wie kommste denn auf den bock mist?weil tombman bei dem angeblichen bild was entdeckt hat?hehe,interessanter ist der preis und der soll bei 499 dollar sein.

K4mPFwUr$t
2008-05-13, 11:33:42
@dödel
wieso?
glaubst du der GT200 wird ein dual chip?
es sprechen viel mehr dinge gegen einen dual chip als gegen einen single chip.

Gast
2008-05-13, 11:34:36
Ist jetzt nicht dein Ernst, oder?
Ein Treiber, der mehrere Monate alt ist, unterstützt nicht die neuen Grakas, da die ID nicht bekannt ist.:|[/QUOTE]

Das ist mal ein Unfug es gab für die neuen Karten immer offizielle neue Treiber von Nvidia.

Aber wen du mal ins ATI Forum schaust findest du nette Threads
zb
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=414888

Frage mich auch wie man auf so was kommt es hat den Anschein das bei dir jeden zweiten Tag neu Karten raus kommen

klar der letzte offizielle Treiber für die GF8 sind ziemlich alt aber, wen man auf GF9 klickt ist der schon erheblich Frischer und unterstütze und erkennt ALLE Karten die erhältlich sind ....

Dödel
2008-05-13, 11:34:38
Und wo liegt das Problem beim Preis...
Der wird wohl in De dann 1:1 umgerechnet udn Standard-Krten werden wohl für rund 500-530 Euro zu haben sein.
Dann kommen noch die OC und Sondermodelle mit Wakü welche eben dann bis zu 700 Euro kosten können.

Dödel
2008-05-13, 11:36:05
Nicht Dualchip.
Sondern da direkt unter SLI-Brückenanschlüssen, bei Verwendung von 2 bzw 3 Karten...
Dieses Problem ist ja auch bei 2 getrennten Krten auffindbar.

Gast
2008-05-13, 11:36:09
hehe wie kommste denn auf den bock mist?weil tombman bei dem angeblichen bild was entdeckt hat?hehe,interessanter ist der preis und der soll bei 499 dollar sein.

so wie ich NV kenne, wird aus den 499 wohl eher weniger, Highend käufer wissen das.
Die GTX hat am Anfang 600 gekoset udn die Ultra 700 und die Black Perl mit Wakü über 800 €, die karte wird 100% 600€ am Anfang kosten.

MikBach
2008-05-13, 11:44:44
Das ist mal ein Unfug es gab für die neuen Karten immer offizielle neue Treiber von Nvidia.
Nein, das ist kein Unfug, sondern die Realität.

klar der letzte offizielle Treiber für die GF8 sind ziemlich alt aber, wen man auf GF9 klickt ist der schon erheblich Frischer und unterstütze und erkennt ALLE Karten die erhältlich sind ....
Ist doch ein Widerspruch in sich, was du hier ablässt. :|

Gast
2008-05-13, 11:47:56
http://www.abload.de/img/1294786_12voh.jpg
http://www.abload.de/img/1294786_13zaq.jpg
http://www.abload.de/img/1294786_140le.jpg

http://diy.pconline.com.cn/graphics/news/0805/1294786.html
Google-Übersetzung http://translate.google.de/translate?u=http%3A%2F%2Fdiy.pconline.com.cn%2Fgraphics%2Fnews%2F0805%2F1294786. html&hl=de&ie=UTF8&sl=auto&tl=de

Anarchy-HWLUXX
2008-05-13, 11:54:24
*argh* !!!!!!!11111111111

Wieso zeigen se net die unterseite vom Kühler :usad:

Man kann allerdings erkennen das an der Seite der Moni anschlüsse 4 Kontaktflächen für RAMs sind ... das passt also sicherlich nicht auf die Karte von den Renderbildchen ;)

Gast
2008-05-13, 11:56:55
ne GX2 wie goil ;D
wenn die wirklich so aussieht na dann gute Nacht Marie,jeder der ne GX2 hat weiß wie heiß das Teil links>ist Gehäuse hinten wird,da geht keine Luft raus das Ding wird da glühend heiß.

Gast
2008-05-13, 11:59:39
aber man kann sie ja auch ausziehen wie die GX2,was ein Murks.

tombman
2008-05-13, 12:10:37
Solange die nicht wenigstens die Unterseite zeigen sind diese Bilder bullshit wert...

Hvoralek
2008-05-13, 12:12:07
512 Bit SI können sie sich stecken das bringt sowieso nichts, ist doch schön für die 140 GB Bandbreite was es schon lange geben tut und trotzdem nichts bringt an Bandbreit mangelt es nicht.Auf was für Karten gibt es denn 140 GiB/s "schon lange"? Oder auch nur überhaupt?

GT200-GTX-Karten sollen für nur 499$ in den Handel kommen: http://www.fudzilla.com/index.php?option=com_content&task=view&id=7286&Itemid=1Das wäre erstaunlich günstig. Aktuelles High- End für 500$ Listenpreis ist eher selten, und dann noch bei einem Chip der Größe :|

Slipknot79
2008-05-13, 12:13:14
Wenn die in Euroland wieder Deppenaufschlag auf 500€ aufschlagen, dann werden Don Vito und ich aus USA importieren, soviel ist sicher- bei DEM kranken Dollarkurs wäre das sogar MIT Steuer und Transport deutlich billiger (ca 400€) ;)
(grestorn kann auch mitmachen ;))


Vllt mach ich da auch mit wenn ihr nix dagegen habt, wohne Nähe Wien :redface:

Distroia
2008-05-13, 12:13:52
Wenn die Google Übersetzung stimmt, sollen die ersten G200 noch in 65nm hergestellt werden. das würde dann natürlich die riesige Die Size erklären. :ugly:

Sorkalm
2008-05-13, 12:15:11
Das wäre erstaunlich günstig. Aktuelles High- End für 500$ Listenpreis ist eher selten, und dann noch bei einem Chip der Größe :|

Kommt der Preiskampf auch im High-End an?
IMHO unverständlich...

Hvoralek
2008-05-13, 12:17:54
Wenn der Babelfish Text stimmt, sollen die ersten G200 noch in 65nm hergestellt werden. das würde dann natürlich die riesige Die Size erklären. :ugly:Das wird hier eigentlich länger als ziemlich gesichert angenommen.

Kommt der Preiskampf auch im High-End an?Wenn die GT200- GTX so "langsam" wird, dass sie sich im Preiskampf mit irgendetwas anderem befindet, wäre das für Nvidia nicht so toll.

Anarchy-HWLUXX
2008-05-13, 12:18:55
ne GX2 wie goil ;D
wenn die wirklich so aussieht na dann gute Nacht Marie,jeder der ne GX2 hat weiß wie heiß das Teil links>ist Gehäuse hinten wird,da geht keine Luft raus das Ding wird da glühend heiß.


Das ist keine GX2 :rolleyes:

Distroia
2008-05-13, 12:20:05
Das wird hier eigentlich länger als ziemlich gesichert angenommen.

OK, das wusste ich nicht. Ich bin immer von 55 ausgegangen.

Sorkalm
2008-05-13, 12:22:22
Wenn die GT200- GTX so "langsam" wird, dass sie sich im Preiskampf mit irgendetwas anderem befindet, wäre das für Nvidia nicht so toll.

Der Preiskampf kann ja auch indirekt mit irgendeiner Karte geführt werden (z. B. mit der hypothetischen HD 4870 X2), die nicht ganz auf die Leistung kommt aber deutlich günstiger wäre.

Allerdings sind 499 US-Dollar doch verdammt wenig (für das Topmodel). Das sollte sich ja auch verkaufen, wenn es darunter Modelle gibt die knapp langsamer sind (zumal es den Vorteil Single-Chip hat), daher fände ich einen solchen niedrigen Preis erstaunlich.

AnarchX
2008-05-13, 12:23:02
Laut PHK@PCinlife steht der Preis noch nicht fest und er soll wohl bei 4xxx CNY liegen, was klar über $500 wären.
$499 kann ich mir bei dem schwachen Dollarkurs nicht wirklich vorstellen.:|

Sorkalm
2008-05-13, 12:24:32
Der niedrige Dollar-Kurs ist ja nochmal ein anderes Problem, der aber z. B. das US-Land in diesem Fall mal nicht interessiert.

Aber selbst im Dollar-Raum sind $499 ziemlich wenig (G80GTX startete doch bei $649, oder?).

Gast
2008-05-13, 12:25:08
Wenn die GT200- GTX so "langsam" wird, dass sie sich im Preiskampf mit irgendetwas anderem befindet, wäre das für Nvidia nicht so toll.

Ja, würde nicht unbedingt für die Leistung des Chips sprechen wenn nV das Ding so billig anbieten muss.

pest
2008-05-13, 12:28:26
wie "billig" ist dann erst die später erscheinende 55nm Variante?
Und wo liegt eigentlich der UVP der 9800GX2?

Hvoralek
2008-05-13, 12:31:39
OK, das wusste ich nicht. Ich bin immer von 55 ausgegangen.Das kann man schonmal überlesen. Irgendwie merkt man, dass der Thread hier nicht von AnarchX gestartet wurde; diese praktische Übersicht am Anfang fehlt :frown:

Der Preiskampf kann ja auch indirekt mit irgendeiner Karte geführt werden (z. B. mit der hypothetischen HD 4870 X2), die nicht ganz auf die Leistung kommt aber deutlich günstiger wäre.Normalerweise werden im absoluten High- End auch für kleine Leistungsunterschiede große Preisaufschläge verlangt (8800 Ultra, anyone?). Gibt anscheinend genug Verrückte, die sowas kaufen :wink:

Laut PHK@PCinlife steht der Preis noch nicht fest und er soll wohl bei 4xxx CNY liegen, was klar über $500 wären.Das wären dann eher 600 - 650$. Das klingt schon glaubwürdiger.

K4mPFwUr$t
2008-05-13, 12:31:40
kann man beides nicht sagen.
wie der refresh ausschaut weis niemand, man weis ja auch noch nichteinmal wie der GT200 ausschaut ;)

UVP der 9800GX2, such einfach in geizhals.at die billigste variante ;)

Nightspider
2008-05-13, 12:32:58
Wie teuer soll dann erst die GTS sein ? 400 ? :|

Kann ich mir nicht vorstellen.

Vielleicht will Nvidia aber auch, das sich jeder 2 oder gar 3 davon kauft ;D

pest
2008-05-13, 12:34:35
UVP der 9800GX2, such einfach in geizhals.at die billigste variante ;)

nee bei der Einführung in Dollar...

Dödel
2008-05-13, 12:44:12
nee bei der Einführung in Dollar...

449$

http://www.projectlan.de/news/Nvidia_9800GX2_Informationen_mehren_sich-1-1420.htm

AnarchX
2008-05-13, 12:47:48
449$

http://www.projectlan.de/news/Nvidia_9800GX2_Informationen_mehren_sich-1-1420.htm

Die Angabe war falsch bzw. wurde geändert. $599 waren es im Endeffekt, 500€ UVP bei uns

Dödel
2008-05-13, 12:54:35
Die Angabe war falsch bzw. wurde geändert. $599 waren es im Endeffekt, 500€ UVP bei uns
egal wie es wird, wir werden es rechtzeitig erfahren:D

The_Silent_One
2008-05-13, 13:12:04
@dödel: das ist aber nicht der sinn eines speku-threads ;)

war der einführungspreis der G80 GTX nicht 599$? so um den dreh könnt ich mir die GT200 GTX auch vorstellen...

Die gelbe Eule
2008-05-13, 13:55:02
Wie teuer soll dann erst die GTS sein ? 400 ? :|

Kann ich mir nicht vorstellen.

Vielleicht will Nvidia aber auch, das sich jeder 2 oder gar 3 davon kauft ;D

Ich glaube das wirst Du spätestens bei den echten Specs und dem Preis der 9800 GX2 festmachen können. Auch ob es noch einen kleinere Version geben wird mit 640MB RAM. Man hätte so den Abstand wie bei der GTX.

Dadi
2008-05-13, 15:59:35
Kann man den Stand der Dinge für einen Laien mal zusammenfassen?

Heute gabs ja die News (computerbase.de) wie es mit dem Kühlkörper aussieht.
Wie wird die Karte am Markt heißen? Mal heißts 9900er GTX, mal wirds verneint. (?)


Wieviel % soll sie stärker gegenüber einer 8800 GTX werden? (Spekulationen, Berechnungen erlaubt! ;) )

mapel110
2008-05-13, 16:04:56
Im Eingangsposting hier im Thread ist einiges zusammengefasst. 65nm-Fertigung fehlt da aber iirc noch.

Speed dürfte sich mehr als verdoppeln laut Gerüchten und den Specs, aber auch die Leistungsaufnahme wird nochmal gehörig zulegen. Leistung pro Watt steigt dabei allerdings.

GeneralHanno
2008-05-13, 16:07:17
ich mach mal ne kurze zusammenfassung der aktuellen kenntnislage:

knapp 600mm² die-size, weit über 1Mrd transistoren (relativ sicher)
65nm, später vll in 55nm
240SP und 80TMUs in 10 clustern, 32 ROPs (nicht ganz sicher)
eher moderate taktraten (z.b. 600/1500)
512bit SI (recht sicher) mit 16 chips und 1GiB GDDR3-ram
240W TDP, großer kühler mit radiallüfter (ähnlich zur 88GTX/98GTX)
verkaufsname: 9900GTX für 499$ aufwärts
es sind keine benchs bekannt, aber doppelte G80 leistung sollte machbar sein ;)

€dit: verkaufsname korrigiert

LovesuckZ
2008-05-13, 16:07:59
Speed dürfte sich mehr als verdoppeln laut Gerüchten und den Specs, aber auch die Leistungsaufnahme wird nochmal gehörig zulegen. Leistung pro Watt steigt dabei allerdings.

Was heißt gehörig? 240 gegen 178 Watt sind gerade mal 35%. Das ist klar im Rahmen und kaum kritisierungswürdig.

Ailuros
2008-05-13, 16:12:20
ich mach mal ne kurze zusammenfassung der aktuellen kenntnislage:

knapp 600mm² die-size, weit über 1Mrd transistoren (relativ sicher)
65nm, später vll in 55nm
240SP und 80TMUs in 10 clustern, 32 ROPs (nicht ganz sicher)
eher moderate taktraten (z.b. 600/1500)
512bit SI (recht sicher) mit 16 chips und 1GiB GDDR3-ram
240W TDP, großer kühler mit radiallüfter (ähnlich zur 88GTX/98GTX)
verkaufsname: 9800GTX für 499$ aufwärts
es sind keine benchs bekannt, aber doppelte G80 leistung sollte machbar sein ;)

Das groesste Dingsda hat den gleichen MSRP wie die 8800GTX bei ihrem Launch; der Rest ist mir sch****egal. Ich will endlich wissen wieviel FLOPs/ALU das Ding schafft und noch wichtiger warum.

Gast
2008-05-13, 16:20:09
ich mach mal ne kurze zusammenfassung der aktuellen kenntnislage:

verkaufsname: 9800GTX für 499$ aufwärts

kaum.

Gast
2008-05-13, 16:21:32
ich mach mal ne kurze zusammenfassung der aktuellen kenntnislage:

verkaufsname: 9800GTX für 499$ aufwärts

Sollte die Karte nicht 9900 GTX heißen ?

[fu]121Ah
2008-05-13, 16:45:37
super, wollt ihr weiter über den NAMEN spekulieren?

Winter[Raven]
2008-05-13, 16:54:55
Ich will endlich wissen wieviel FLOPs/ALU das Ding schafft und noch wichtiger warum.

Wenn man jetzt so frei interpretieren darf... von der Technik die verbaut ist muss das Dingsda ~x GFLOPS schaffen, es schafft aber um einiges mehr?

Hvoralek
2008-05-13, 18:35:00
Im Eingangsposting hier im Thread ist einiges zusammengefasst.Wo das denn? :confused:

Ailuros
2008-05-14, 08:05:07
;6499251']Wenn man jetzt so frei interpretieren darf... von der Technik die verbaut ist muss das Dingsda ~x GFLOPS schaffen, es schafft aber um einiges mehr?

Nein so war es nicht gemeint; es sieht so aus als ob die floating point Rate sich irgendwo um 1 TFLOP bewegen wird. Die Frage ist eher ob FLOP == FLOP im Vergleich zu den heutigen G8x/9x und falls nicht dann eben warum.

MEDIC-on-DUTY
2008-05-14, 09:57:05
Das ist schon ein mächtiger Blasebalk den die Karte da huckepack tragen soll. Aber bei den zu erwartenden Daten auch kein Wunder. Mal sehen, ob die Lautstärke ähnlich der 88er ausfällt, denn sonst kommt da eine WaKü drauf.

Wann meint ihr könnte ein Die-Shrink auf 55nm nach Release folgen evtl. auch mit GDDR5? Ich würde nämlich gerne mit dem Kauf warten, denn die first-buy Karten sind meist mit heißer Nadel gestrickt.

MEDIC-on-DUTY
2008-05-14, 10:11:26
Im Eingangsposting hier im Thread ist einiges zusammengefasst.

@Mod Vorschlag: Thema Teil 3 aufmachen und Zusammenfassung im ersten Post erstellen.

GeneralHanno
2008-05-14, 10:45:55
@Mod Vorschlag: Thema Teil 3 aufmachen und Zusammenfassung im ersten Post erstellen.

joar, oder teil 3 jmd starten lassen wie anarchx (oder freiwillige), der auch ordentliche zusammendfassungen anfertigt ;)

Nightspider
2008-05-14, 22:22:41
Das ist schon ein mächtiger Blasebalk den die Karte da huckepack tragen soll. Aber bei den zu erwartenden Daten auch kein Wunder. Mal sehen, ob die Lautstärke ähnlich der 88er ausfällt, denn sonst kommt da eine WaKü drauf.

Wann meint ihr könnte ein Die-Shrink auf 55nm nach Release folgen evtl. auch mit GDDR5? Ich würde nämlich gerne mit dem Kauf warten, denn die first-buy Karten sind meist mit heißer Nadel gestrickt.

Der Shrink kommt dann vllt mit GDDR5 aber vllt auch nur mit 256 Bit SI.

Außer der Chip wird durch höhere Taktraten bis zu 30% schneller und braucht unbedingt mehr bandbreite, was sehr unwahrscheinlich sein dürfte ;)

Adam D.
2008-05-14, 22:26:11
Der Shrink kommt dann vllt mit GDDR5 aber vllt auch nur mit 256 Bit SI.

Außer der Chip wird durch höhere Taktraten bis zu 30% schneller und braucht unbedingt mehr bandbreite, was sehr unwahrscheinlich sein dürfte ;)
Beim Refresh das SI zu halbieren wäre doch wirklich mehr als seltsam, oder nicht? ;)

Hvoralek
2008-05-14, 22:34:54
Beim Refresh das SI zu halbieren wäre doch wirklich mehr als seltsam, oder nicht? ;)Wenn man dafür doppelt so schnellen Speicher verwendet, passt das doch.

LovesuckZ
2008-05-14, 22:40:30
Wenn dann der doppelt so schnelle Speicher auch verfügbar ist. Wahrscheinlich hatte man diese Intention auch beim G92 gehabt. Aber leider gibt es keinen GDDR3 Speicher mit 1350Mhz...

Hvoralek
2008-05-14, 22:43:25
Wenn dann der doppelt so schnelle Speicher auch verfügbar ist. Wahrscheinlich hatte man diese Intention auch beim G92 gehabt. Aber leider gibt es keinen GDDR3 Speicher mit 1350Mhz...War der je geplant? Ich erinnere mich nicht, irgendwann mal etwas von Serien- GDDR3 unter 0,83 ns gehört zu haben.

Gast
2008-05-14, 23:07:37
Nein so war es nicht gemeint; es sieht so aus als ob die floating point Rate sich irgendwo um 1 TFLOP bewegen wird. Die Frage ist eher ob FLOP == FLOP im Vergleich zu den heutigen G8x/9x und falls nicht dann eben warum.

Was anderes wie eine höhere/tiefere Präzision kann ich mir hier aber nicht vorstellen. Oder spielst du auf Theoretische und verfügbare FLOPs an? Aka G80 und sie MADD die nur zu 1/4 verfügbar ist?

deekey777
2008-05-15, 01:05:04
Ein sehr interessanter Thread im B3DF: http://forum.beyond3d.com/showthread.php?t=48031
Dort werden einige Angaben zu den gewünschten Release-Daten von G92 sowie GT200 gemacht.
http://forum.beyond3d.com/showpost.php?p=1161556&postcount=66

I'm not aware of any roadmap in which GT200 was supposed to be available before G92 or G94. Furthermore, given a certain... something in GT200's design methodology, it would make no sense to release G9x derivatives after GT200's release (at roughly the same time, okay, that's different). And I honestly don't think G80 would have a chance in hell to hang in there at $400 with a GT200 SKU at $500 unless the latter massively underdelivers...

To me, it simply seems that G92/G98 were originally aimed at Summer 20082007 and GT200 was aimed at the December/January/February. Just like as late as February (iirc) 2006, NV thought Summer 2006 would still be realistic for G80...

AnarchX
2008-05-15, 07:53:46
[Inside] GT200 Leistung schrittweise Hinweis
In Anbetracht der jüngsten pan-Eine konstante YY RV770 Nachrichten, ich habe zu reagieren, GT200 Performance in High-Resolution leicht loswerden 9800 GX2. Unter diesem sind wir daran interessiert, in einer Bar »

QX9650 OC + GT200 Vantage = P13000 +
http://we.pcinlife.com/thread-933395-1-1.html

Gast
2008-05-15, 09:45:26
Also wenn die 3dMark Vantage Gerüchte stimmen, dann zahl ich auch 800EUR für die Karte :).

Allerdings macht es für mich keinen Sinn die als GeForce 9900 zu launchen.

Gast
2008-05-15, 09:54:21
und nicht die Kohle für den QX9650 vergessen ;D

Gast
2008-05-15, 09:55:13
jo mit 3.5 ghz bekommste die Karte nett angeschupst

Gast
2008-05-15, 10:18:45
Wieso denn? Die CPU wird doch nur für die Polygonberechnung gebraucht?

Das was die Grafikleistung frisst (Shader, Texture, AA usw.) hat mit der CPU nicht soviel zu tun. Denke der Q9450 boxed (wenn er mal da ist) müsste reichen.

Gast
2008-05-15, 10:29:35
Also wenn die 3dMark Vantage Gerüchte stimmen, dann zahl ich auch 800EUR für die Karte :).

Allerdings macht es für mich keinen Sinn die als GeForce 9900 zu launchen.
selbst schuld ;)

AnarchX
2008-05-15, 10:36:10
Vor einer neuen Generation von AMD Radeon 4800 HD Armee Yajing, NVIDIA wage nicht zu vernachlässigen, in der 18. Juni starten brandneuen GeForce GTX 200-Serie, High-End-Grafikkarte Hegemonie zu sichern.

Core-Code aus den frühen G100, der Mitte-GT200, jetzt offiziell bekannt als die D10U, was bedeutet, dass Desktop ist die 10. Version des Ultra-Grafikchip und der Name des Produkts aus dem ursprünglichen GeForce 9900 Familie, formal verändert GeForce GTX 200-Familie.

Nach Taiwan's Grafikkarte Industrie gesagt, dass die formalen Namen für die GeForce GTX 200 Familien, vor allem repräsentieren ein neues Produkt für die zweite Generation Unified Shader Rahmen, auf den Markt ein neues Bild.

Es wird davon ausgegangen, GeForce GTX 200 wird im frühen Familie mit zwei Modellen, unter Einbeziehung der GeForce GTX 260 und GeForce GTX 280, aber der Preis, Spezifikationen noch nicht bekannt gegeben.
http://hkepc.com/?id=1165&fs=c1h

Vielleicht dann GeForce GTS für Midrange/Performance und GeForce GT für die Einstiegsklasse?

MEDIC-on-DUTY
2008-05-15, 10:38:46
http://we.pcinlife.com/thread-933395-1-1.html

Schön, aber a bisserl mehr Details zu Auflösung und Co. wären sicherlich hilfreich gewesen. Aber wenn es die Demo-Standardauflösung war - Respekt.

Sorkalm
2008-05-15, 10:40:28
Das Datum (18. Juni) macht Sinn, dann gibt es das Wochenende vorher schon einmal eine Präsentationsveranstaltung. ;)

Nightspider
2008-05-15, 10:42:18
Jetzt wirds langsam interessant. Dann scheint die GeForce GTX 280 ja ungefähr im Juli zu bekommen oder ?

Der Name GeForce GTX 280 klingt gar net mal so schlecht.

MEDIC-on-DUTY
2008-05-15, 10:42:59
http://hkepc.com/?id=1165&fs=c1h

Wenn das stimmt, dann lag ich mit meiner Annahme garnicht so weit weg, dass der Name für die GT200 Karte nicht 9900 GTX sein wird. :cool:

Das Puzzel GT200 kommt langsam zum Ende.

tombman
2008-05-15, 10:59:39
oh yes, P13000+ -> 100% gekauft ;)

Das ist schneller als GTX SLI ;)

Vielleicht sogar 2 Stück davon, endlich wieder ne Männerkarte wie G80 GTX :D

crux2005
2008-05-15, 11:00:31
Schön, aber a bisserl mehr Details zu Auflösung und Co. wären sicherlich hilfreich gewesen. Aber wenn es die Demo-Standardauflösung war - Respekt.

P13000 + = Performance preset @ 1280x1024 etc.

oh yes, P13000+ -> 100% gekauft ;)

Vielleicht sogar 2 Stück davon, endlich wieder ne Männerkarte wie G80 GTX :D

will auch am besten 2, bin aber noch auf den Preis gespannt

Nightspider
2008-05-15, 11:00:51
oh yes, P13000+ -> 100% gekauft ;)

Vielleicht sogar 2 Stück davon, endlich wieder ne Männerkarte wie G80 GTX :D

Was entsprechen 13k Pkt ? ca. 2,5 facher G80 Leistung ?

Gast
2008-05-15, 11:02:04
nö gerade mal doppelt

tombman
2008-05-15, 11:04:02
Was entsprechen 13k Pkt ? ca. 2,5 facher G80 Leistung ?
Schneller als GTX SLI ist es ;)

Wieviel genau kann man jetzt noch nicht sagen, dazu bräuchte man die genauen Testdaten des Rechners...

Aber ich habe ja gesagt, daß ich mit mindestens G80 SLI Leistung rechne, und ich hatte Recht ;)

tombman
2008-05-15, 11:04:30
nö gerade mal doppelt
Mehr muß es auch nicht sein ;)

Gast
2008-05-15, 11:20:04
dann reicht auch dein G80 Sli,aber kaufen ist ja so geil

MEDIC-on-DUTY
2008-05-15, 11:25:05
dann reicht auch dein G80 Sli,aber kaufen ist ja so geil

Ne Ne, da muss schon mal wieder etwas Neues her, sonst wird der Männer-Hightech-Trieb nicht befriedigt. Sitzten doch schon seit zwei Jahren auf dem Trockenen :D

Unyu
2008-05-15, 11:25:31
Vielleicht sogar 2 Stück davon
Auf jeden Fall oder willst du deine Fans schwer schocken? ;)

Gast
2008-05-15, 11:27:07
ich warte auf ne 55er GX2,und 40 FPS reichen mir auch im mom mit der aktuellen GX2

tombman
2008-05-15, 11:27:47
dann reicht auch dein G80 Sli,aber kaufen ist ja so geil
Schon mal was von Mikrorucklern gehört? ;D

Gast
2008-05-15, 11:29:09
nö du ;D ach ja und ich schei... drauf,öhm auf die Mikrodingens.

tombman
2008-05-15, 11:30:46
nö du ;D ach ja und ich schei... drauf,öhm auf die Mikrodingens.
Dich muß Nvidia/ATi lieben ;D

Gast
2008-05-15, 11:32:59
yeep und das geile dabei ist,es ist mir noch nie aufgefallen,wahrscheinlich weil ich so indensiv ;D game... muhhaaahaaauaaa

tombman
2008-05-15, 11:34:56
yeep und das geile dabei ist,es ist mir noch nie aufgefallen,wahrscheinlich weil ich so indensiv ;D game... muhhaaahaaauaaa
Das hat andere Gründe... das fällt JEDEM auf, pcgh hat sogar ein Video davon...

Gast
2008-05-15, 11:35:14
ich warte auf ne 55er GX2,und 40 FPS reichen mir auch im mom mit der aktuellen GX2
bei Crisis mein ich.

Gast
2008-05-15, 11:36:53
Das hat andere Gründe... das fällt JEDEM auf, pcgh hat sogar ein Video davon...
ach ist doch wurscht ich find SLI einfach geil und feddisch und 2 GT200 oder wie das Ding auch immer heißen mag ab 30 FPS isses eh so gut wie weg.

tombman
2008-05-15, 11:45:48
ach ist doch wurscht ich find SLI einfach geil und feddisch und 2 GT200 oder wie das Ding auch immer heißen mag ab 30 FPS isses eh so gut wie weg.
Bei zwei Karten isses aber erst ab ca 40 bis 45fps "weg" ;)

Aber da wahrscheinlich kein game der Welt 2x GT200 unter 45fps drücken kann wäre das Problem auch so "gelöst" ;D;D

"Sieg durch Overkill" :cool:

Gast
2008-05-15, 11:50:35
sach ich doch :D
aber erstmal abwarten ob das Teil überhaupt was ist und hoffendlich ist sie anders aufgebaut wie die jetzige GX2,wenn nicht kannste erstmal das Gehäuse hinten ausschneiden,sonst bekommste die heiße Luft nett raus.

Don Vito
2008-05-15, 11:56:00
sach ich doch :D
aber erstmal abwarten ob das Teil überhaupt was ist und hoffendlich ist sie anders aufgebaut wie die jetzige GX2,wenn nicht kannste erstmal das Gehäuse hinten ausschneiden,sonst bekommste die heiße Luft nett raus.

Nur so nebenbei, wir reden hier von SLI bestehend aus 2 "Einchip" Karten und nicht von einer GX2.
Und der Aufbau für die Thermik wird wohl ähnlich wie bei den letzten Karten sein.

Nightspider
2008-05-15, 12:02:17
Aber da wahrscheinlich kein game der Welt 2x GT200 unter 45fps drücken kann wäre das Problem auch so "gelöst" ;D;D

Abwarten, was Crysis in 2560*1600, Very High, MsterCfg, 4AA, 16AF aus dem GT200-SLI macht ;D

MEDIC-on-DUTY
2008-05-15, 12:05:27
Und der Aufbau für die Thermik wird wohl ähnlich wie bei den letzten Karten sein.

Na zumindest hast im Winter immer warme Füße. :D

tombman
2008-05-15, 12:06:02
Abwarten, was Crysis in 2560*1600, Very High, MsterCfg, 4AA, 16AF aus dem GT200-SLI macht ;D
Nix da, über 1920x1200 und 4xAA brauche ich ja nicht ;)

Don Vito
2008-05-15, 12:07:45
hatte ich sowieso, da mein Kompressor direkt unterm Schreibtisch steht;).
Ist eigentlich schon was über den vor kurzen gezeigten Kühler bekannt?
Ich meine ob es nun ein Fake war.

Nightspider
2008-05-15, 12:09:30
Die sollen mal so wie auf den neuen HighEnd Mainboards Hybrid-Kühler bringen, damit wir unsere Wakü einfach hinzuschalten können. :D

Don Vito
2008-05-15, 12:15:04
Die sollen mal so wie auf den neuen HighEnd Mainboards Hybrid-Kühler bringen, damit wir unsere Wakü einfach hinzuschalten können. :D
Dafür gibt es ja Black-Paerls von EVGA.

Echte Hybridkühler...
Waren die nicht sogar auf den Prototypen der G80?
http://www.cooling-station.net/forum/viewtopic.php?t=2623

Nightspider
2008-05-15, 12:24:36
Dafür gibt es ja Black-Paerls von EVGA.

Echte Hybridkühler...
Waren die nicht sogar auf den Prototypen der G80?
http://www.cooling-station.net/forum/viewtopic.php?t=2623

Du meinst den hier ? :D

http://images.vnu.net/gb/inquirer/news/2006/09/29/g80-pictured-with-a-water-cooler/g804.jpg

Das Problem ist, das die Versionen von EVGA etc. sehr viel teurer sind.
Wenn man in Masse an jede G280 noch nen Kupferrohr, für die Wakü dranbasteln würde, wäre es längst nicht so teuer als wenn das die einzelnen Hersteller für teures Geld machen...

K4mPFwUr$t
2008-05-15, 12:27:50
sollche lösungen halte ich eher für naja. im lüftkühlmodus taugt der sicherlich was, nur bei wakü einsatz wird die effizenz mies sein. und wer dann noch nebenbei lükü verwendet kennt einfach die wirkungsweise von waküs nicht ...

aber glaube kaum das der GT200 so ein "G80 prototypen" bekommt.
eher wird es der selbe oder leicht modifizierte G80/G92 kühler sein, vieleicht mit einem stärkeren lüfter.

Nightspider
2008-05-15, 12:34:24
sollche lösungen halte ich eher für naja. im lüftkühlmodus taugt der sicherlich was, nur bei wakü einsatz wird die effizenz mies sein. und wer dann noch nebenbei lükü verwendet kennt einfach die wirkungsweise von waküs nicht ...

Na klar aber immernoch besser als an der Grafikkarte rumzubasteln und den Kühler abzunehmen oder sich gar nur auf Luftkühlung verlassen.

Ich erinner mich mal, das ich auf ner Lan im Keller bei einem Freund bei meiner 8800 GTX 104°C nach einer Lost Planet hatte ! (Danach, nicht währendessen !)
(Und es war warm aber kein Hochsommer !)

Edit:

Aber es ist klar, das so ein Hybrid-Kühler mehr als nur unwahrscheinlich ist. Aber schön wärs trotzdem ;)

Undertaker
2008-05-15, 12:44:05
Ich erinner mich mal, das ich auf ner Lan im Keller bei einem Freund bei meiner 8800 GTX 104°C nach einer Lost Planet hatte !

Autsch! Da war aber entweder Staub, ein schlecht sitzender Kühlkörper oder eine defekte Lüftersteuerung schuld, auf maximaler Drehzahl (die bei 104°C anliegen sollte) wären die Temps wohl selbst im Hochsommer niedriger gewesen...

Nightspider
2008-05-15, 12:57:50
Autsch! Da war aber entweder Staub, ein schlecht sitzender Kühlkörper oder eine defekte Lüftersteuerung schuld, auf maximaler Drehzahl (die bei 104°C anliegen sollte) wären die Temps wohl selbst im Hochsommer niedriger gewesen...

Die Karte war damals erst 3 Monate alt und noch ziemlich sauber. Die Temps waren sonst auch nie so hoch. (Ich bezweifle mal, das der Kühler auf dem Weg zur Lan verrutscht ist und auf dem Rückweg wieder in die Ausgangsposi geruscht ist ;D )

Wie gesagt, das war nach 'ner Runde Lost Planet auf den max. Settings, welche die G80 damals sehr in die Knie gezwungen haben.
Sonst waren die Temps bei mir auch nie so hoch.

Aber alleine für solche Extremsituationen wär etwas hybrides nicht schlecht. :D

Moralelastix
2008-05-15, 13:02:14
Ich hab mich immer über die kleinen Gewinde an der Seite im Guss des G80/G92(GTS) Kühlers gewundert.

Wenn man bei der G92 GTS durchschaut kann man das Kupfer der Heatpipes sehen.

Vielleicht wollte man dort noch was dranschrauben......Waküadapter?

GeneralHanno
2008-05-15, 13:17:48
das performence preset ist ja eigentlich hohn für den G200. ich will xtreme benches sehen ;)

Don Vito
2008-05-15, 13:17:52
EVGA-Karte kaufen (luftgekühlt).
Wenns dann einen zu heiß wird, einfch Lukü runter Wakü rauf.
Bei EVGA sogar ohne Garantieverlust (man muß es nur von EVGA machen lassen).

GeneralHanno
2008-05-15, 13:18:52
EVGA-Karte kaufen (luftgekühlt).
Wenns dann einen zu heiß wird, einfch Lukü runter Wakü rauf.
Bei EVGA sogar ohne Garantieverlust (man muß es nur von EVGA machen lassen).

wie, kann man etwa die karte+ kühlkörper bei EVGA einschicken und die montieren das einem (umsonst)???

Nightspider
2008-05-15, 13:19:08
EVGA-Karte kaufen (luftgekühlt).
Wenns dann einen zu heiß wird, einfch Lukü runter Wakü rauf.
Bei EVGA sogar ohne Garantieverlust (man muß es nur von EVGA machen lassen).

Wie teuer ist das Kühler-wechseln ?

Gast
2008-05-15, 13:28:23
Ist eigentlich schon was über den vor kurzen gezeigten Kühler bekannt?
Ich meine ob es nun ein Fake war.

Ich würde sagen, das war der Kühler einer G92B Karte!

Gast
2008-05-15, 13:50:52
Nur so nebenbei, wir reden hier von SLI bestehend aus 2 "Einchip" Karten und nicht von einer GX2.
Und der Aufbau für die Thermik wird wohl ähnlich wie bei den letzten Karten sein.
wenn die Karte so aussieht wie auf den Bildchen ist alles was heiß wird (und das Ding wird heiß)hinten,mit einem Minnischlitz rechts hinten und dem Lüfterausgang links hinten und da bekommste die Luft nicht raus.

AnarchX
2008-05-15, 14:05:07
Mal eine angedachte Zusammenfassung:

GT200 - Zusammenfassung aktueller Gerüchte/Spekulationen:

GPU-Codename: GT200, teilweise auch G100
Fertigungsprozess: 65nm
Die-Size: 575mm²
Transitorenanzahl: >1Mrd. (laut NV (http://www.golem.de/0804/58955.html))

GPU-Aufbau:
- 512-Bit, 32 (?) ROPs
- 10 Cluster mit je 8 TMUs und je 24 skalaren Shadereinheiten (Fähigkeiten noch unbekannt) -> 80 TMUs, 240SPs(Bestätigung? (http://www.marketwatch.com/news/story/nvidias-picture-brighter-stock-price/story.aspx?guid=%7BB82E0D80-25BB-49F2-9BE3-A50EFD3E8CEC%7D))

mögliches PCB-Design:
http://img232.imageshack.us/img232/5411/9900gtxside48db423adh7.jpg (http://imageshack.us)
http://www.vr-zone.com/articles/GeForce_9900_GTX_Card_Design_Exposed/5763.html
STEP-File zum selber anschauen: http://www.mediafire.com/?gem3dcyjd9y

möglicher Kühler:
http://img232.imageshack.us/img232/2015/129478612vohbe6.jpg (http://imageshack.us)
http://diy.pconline.com.cn/graphics/news/0805/1294786.html

SKUs:
- intern D10U-300 und -200
- Handelname: GeForce GTX 280 und 260 (http://www.hkepc.com/?id=1165&fs=c1n) (engl. (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html))
- GTX 280: 240W TDP, 1GiB GDDR3
- GTX 260: 896MiB GDDR3/28ROPs, weitere Deaktivierung wie 192SPs/64TMUs sehr wahrscheinlich
- Launch: 18 Juni 2008 (http://r800.blogspot.com/2008/05/information-leaking-radeon-hd-4800-vs.html)

Fehlt noch irgendwas?

master_blaster
2008-05-15, 14:06:52
Was denn, immernoch der Zusatzchip für's Videoout auf dem PCB?

Nightspider
2008-05-15, 14:06:59
Name Geforce GTX 280 ?

Adam D.
2008-05-15, 14:10:30
Puh, der Name wäre wirklich bitter. Dazu bitte noch eine Radeon HD4875,5XT und die Nomenklatur wird völlig absurd.

master_blaster
2008-05-15, 14:11:52
Name Geforce GTX 280 ?

Gibt es irgend einen Grund für diese Annahme? Ansonsten werfe ich mal 34535234GH GER in den Raum ...

AnarchX
2008-05-15, 14:13:49
Puh, der Name wäre wirklich bitter. Dazu bitte noch eine Radeon HD4875,5XT und die Nomenklatur wird völlig absurd.

Wieso? Jedenfalls ein Schritt in Richtung mehr Klarheit, als was wir jetzt bei NV haben.

Die "2" soll wohl darauf hindeuten, dass es die 2. Generation US-Architektur von Nvidia ist.

Gibt es irgend einen Grund für diese Annahme? Ansonsten werfe ich mal 34535234GH GER in den Raum ...
Nunja, siehe die Links: HKEPCs Industriequellen in Taiwan. ;)

Und vor langem gab es ja schonmal die Spekulation GeForce D880 für D10U-300, was in diese Richtung passt.

MEDIC-on-DUTY
2008-05-15, 14:17:17
@ AnarchX

Danke, das sollte erst einmal passen. Erweitern kann man dann immer noch. Erst mal diesen Teil hier dicht machen. Mit der Namensgebung ist zudem ein kleiner Meilenstein und ein Ende der Spekulationen darüber erreicht.

Die gelbe Eule
2008-05-15, 14:22:19
Wenn beide GTX heißen sollen, dann fehlen ja noch GTS Versionen.

Sorkalm
2008-05-15, 14:23:35
Wenn beide GTX heißen sollen, dann fehlen ja noch GTS Versionen.

Die alte "9900 GTS" wird doch jetzt die GTX 260. Man nimmt halt das bekannte Kürzel GTX als Marketingnamen.

Gast
2008-05-15, 14:26:06
Man nimmt halt das bekannte Kürzel GTX als Marketingnamen.

Ob das eine gute Idee ist? *an9800GTXdenk* :rolleyes:

MEDIC-on-DUTY
2008-05-15, 14:36:44
Wenn beide GTX heißen sollen, dann fehlen ja noch GTS Versionen.


Evtl. wird es Aufgrund der neuen Namesgebung keine GTS mehr geben, sondern nur noch eine GT Serie, was durchaus Sinn machen würde. Zurück zu klaren Linien ohne GS, GTO, GTS usw. Zähler sind innerhalb einer Klasse einfacher zu differenzieren als für jede Karte eine eigene Klasse zu schaffen.

tombman
2008-05-15, 14:38:38
Ob das eine gute Idee ist? *an9800GTXdenk* :rolleyes:

X = immer gut

Steht für eXtreme :D Wie bei Intel Cpus :) Und bei vantage :)

DrumDub
2008-05-15, 14:42:37
Hier gehts weiter mit Teil 3: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6503859#post6503859