Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil2]


Seiten : 1 2 3 4 [5] 6

Die gelbe Eule
2008-05-07, 17:18:07
Ich hab ne 9600GT in Asien gefunden, 0.8ns GDDR3 mit 1.200MHz getaktet. Ich denke sowas bekommt die 9900GTX ab. 154GB Speicherbandbreite bei 1GB wäre schon brutal ;)

AnarchX
2008-05-07, 17:19:23
Naja, die Referenz wird wohl nicht das Maximum ausnutzen, das wird dann den Boardpartnern überlassen. ;)

MEDIC-on-DUTY
2008-05-07, 18:34:17
Der ursprüngliche G100 ist/ war wohl der erste D3D11- Chip. Warum man den Zwischenschieben dann G(T)200 nennt/ nannte, weiß man wohl höchstens bei Nvidia.

Mal sehen, vlt. gibt es ja auch mal wieder ein komplett neues Namensschema. Wäre dann ja erst das vierte in drei Jahren :rolleyes:

Soweit mir bekannt war die Entwicklung des G100 bereits vor dem GT200 im Gange. Da Projektnamen i.d.R. nicht mehr im laufenden Projekt geändert werden, blieb es bei G100. Der GT200 wurde dann, als man erkannte, dass der G100 noch etwas dauern würde, dazwischen geschoben.

Den Namen 9900 GTX habe ich schon von Anfang an angezweifelt, da sich mit dem GT200 ein neues Namenschema anbieten würde und auch schon lange eines mit den drei Buchstaben im Raum steht. Auf Basis der ESA wäre auch möglich.

4 Vitamins
2008-05-07, 19:21:12
Das ist kein Quatsch, ihr werdet schon sehen.

Ich bin schon auf die "erklärungen" unsere insider gespannt, sollte das mit 2 chips stimmen:biggrin:

gruss

gbm31
2008-05-07, 19:38:45
Ich bin schon auf die "erklärungen" unsere insider gespannt, sollte das mit 2 chips stimmen:biggrin:

gruss


jo, tolle leistung, die stehen ja auch mit ihren nicks zu ihren aussagen... :|

Hvoralek
2008-05-07, 19:51:28
Ich bin schon auf die "erklärungen" unsere insider gespannt, sollte das mit 2 chips stimmen:biggrin:Du hättest eher "Insider" in Anführungszeichen setzen sollen. M.W. hat niemand hier direkten Zugang zu nicht für die Öffentlichkeit gedachten Informationen, sondern nur um einige Ecken. Ich gehe dennoch davon aus, dass es diesen 600- mm²- Chip gibt. Unter welchem Namen er dann erscheint, wird man sehen. Dass ich mir daneben/ darunter durchaus eine G92b- GX2 vorstellen könnte, habe ich ja schon einmal gesagt.

Man könnte noch überlegen, ob nicht diese 600 mm² möglicherweise die Summe der Flächen beider Dice sind. Die genaue Angabe endet aber bekanntlich auf einer 5, ist also nicht glatt durch zwei teilbar. Und eine Chipgrößenangabe mit Nachkommastellen habe ich noch nicht gesehen.


/edit:
Soweit mir bekannt war die Entwicklung des G100 bereits vor dem GT200 im Gange. Da Projektnamen i.d.R. nicht mehr im laufenden Projekt geändert werden, blieb es bei G100. Der GT200 wurde dann, als man erkannte, dass der G100 noch etwas dauern würde, dazwischen geschoben.G70 und G80 hießen anfangs auch mal NV47 und NV50. Von dem Wirrwar mit G92/D8p/D9E und G94/D9P fange ich mal gar nicht erst an.

deekey777
2008-05-07, 20:19:34
das sind bisher auch die "stimmigsten" gerüchte, und mit knapp 600mm² diesize passt das auch ...
Weil diese Daten schon von allein eine Performancesteigerung implizieren. Und die Chipmacher noch einige Flaschenhälse der G80-Architektur entfernt haben, wird der GT200 ein extremes Monster.
Wie wär's mit vollem 8xMSAA, ohne dass man sich gegenseitig die Köpfe einschlägt, warum eine HD3870 mit 8xMSAA besser steht als eine 8800GTS 512.

reunion
2008-05-07, 20:20:50
http://www.nordichardware.com/news,7712.html

Die 240 SPs, 32 ROPs und 512bit-SI werden wahrscheinlicher und wahrscheinlicher.
.

Das sollte doch schon längst geklärt sein. 10 x 3 x 8 = 240 ALUs. Und das 512-bit SI sowieso.

LovesuckZ
2008-05-07, 21:53:02
Wie wär's mit vollem 8xMSAA, ohne dass man sich gegenseitig die Köpfe einschlägt, warum eine HD3870 mit 8xMSAA besser steht als eine 8800GTS 512.

nVidia geht nicht den verschwenderischen Weg weiter. CSAA oder ein andere Verfahren wird die Zukunft gehören. 8 Samples sind overkill.

GeneralHanno
2008-05-07, 21:53:06
ein äußerst interessanter post in CB ;)

http://www.computerbase.de/forum/showthread.php?t=416410

K4mPFwUr$t
2008-05-07, 21:58:45
wenn das so kommt, ist die GT200 mich ganz schnell los.
auf diesen multi-gpu quatsch habe ich garkein bock ;(

Nightspider
2008-05-07, 22:08:09
wenn das so kommt, ist die GT200 mich ganz schnell los.
auf diesen multi-gpu quatsch habe ich garkein bock ;(

same here :(

Hvoralek
2008-05-07, 22:08:22
ein äußerst interessanter post in CB ;)

http://www.computerbase.de/forum/showthread.php?t=416410Jetzt soll es schon fertige, verpackte Platinen geben? :|

Die gelbe Eule
2008-05-07, 22:08:51
Kommt drauf an wie es umgesetzt wird. Wenn man eine GX2 endlich so verbinden könnte, daß sie 95% Effizienz hat, warum nicht? Ob Dualslot Kühler oder -karte, kommt aufs gleiche raus.
Trotzdem redet man von einer GTX und einer GX2, welche eben die Ultra darstellen könnte.

MEDIC-on-DUTY
2008-05-07, 22:16:45
ein äußerst interessanter post in CB ;)

http://www.computerbase.de/forum/showthread.php?t=416410

Interessant. Also würde die bis dato gehandelte Übergröße des Die auf zwei Kerne unter einem Dach schließen, ala C2D? Oder wie muss man sich das vorstellen?

Wobei, so ganz nehm ich Story noch nicht ab. Aber wenn die Kisten da rumstehen, ok, die brauchen 2-4 Wochen bis die in Euope sind und dann noch die Verteilung dazu gerechnet. Wenn nVidia keinen Paperlaunch hinlegen will, könnte es wiederum Sinn machen. Wer weiß, ob es auch nicht nur Sampels für die Boardhersteller sind...

K4mPFwUr$t
2008-05-07, 22:23:40
@MEDIC-on-DUTY
du meinst wohl eher Pentium D?
dort waren zwei DIE on package.

@Die gelbe Eule
wenn man die probleme mit der heutigen multi-gpu sache löst, hätte ich kein problem damit.
das fängt schon damit an, das wenn man nicht auf hardwarenaher ebene vorgeht, wieder treiber und profilabhängig ist.

zumal hat nV nicht einmal offizell angegeben das sie was gegen die mikroruckler machen wollen/können.

Unyu
2008-05-07, 22:25:06
du meinst wohl eher Pentium D?
dort waren zwei DIE on package.

Beim C2Q auch.

MEDIC-on-DUTY
2008-05-07, 22:29:28
Beim C2Q auch.

Jup, den meinte ich. Danke.

MEDIC-on-DUTY
2008-05-07, 22:35:41
@MEDIC-on-DUTY
wenn man die probleme mit der heutigen multi-gpu sache löst, hätte ich kein problem damit.
das fängt schon damit an, das wenn man nicht auf hardwarenaher ebene vorgeht, wieder treiber und profilabhängig ist.

Dann machen die womöglich auch noch 2x2 Die on package für eine GX2 ? Oh oh.

K4mPFwUr$t
2008-05-07, 22:37:33
wäre dann aber nur vista only, den XP hat nur prerender limit von 2? *grübel*

jedenfalls glaube ich daran das eine schnelle und zufriedenstellende lösung angeboten wird.

Die gelbe Eule
2008-05-07, 22:39:17
@Die gelbe Eule
wenn man die probleme mit der heutigen multi-gpu sache löst, hätte ich kein problem damit.
das fängt schon damit an, das wenn man nicht auf hardwarenaher ebene vorgeht, wieder treiber und profilabhängig ist.

zumal hat nV nicht einmal offizell angegeben das sie was gegen die mikroruckler machen wollen/können.

Doch haben sie, der HW Scheduler auf dem G80 soll weiter verbessert werden, zusätzlich noch der Treiber den Rest ausgleichen. Es wäre glaube ich komplizierter einen Chip zu entwerfen der mit ins Design einhergeht, aber vielleicht dann Probleme bereitet. So ein Respin kostet Zeit und Geld.
Die Softwarelösung war ja schon sehr gut, damit kann man gut leben, also ab in Treiber damit.

Unyu
2008-05-07, 22:42:41
Dann machen die womöglich auch noch 2x2 Die on package für eine GX2 ? Oh oh.
Yeah und dann noch 2 Karten, also 8 GPUs, macht 8 Frames Lag. :eek:

Die gelbe Eule
2008-05-07, 22:44:48
Ihr wisst doch gar nicht ob die neuen Karten im SLi microruckeln, ich glaube das ist noch spekulativer als manche Specs.

robbitop
2008-05-07, 22:45:48
Das sollte doch schon längst geklärt sein. 10 x 3 x 8 = 240 ALUs. Und das 512-bit SI sowieso.
Es geistert oft herum. Es ist sogar wahrscheinlich. Aber geklärt ist es erst, wenn es bestätgt ist. ;)
Bei 600 mm^2 wäre das allerdings nichteinmal eine Rohleistungsverdopplung eines G92. Die 9800GX2 will ja auch weggehauen werden. Womöglich verbessert man die Fähigkeiten der ALUs noch ein wenig oder erhöt die Flexibilität und damit auch die Effizienz.

nVidia geht nicht den verschwenderischen Weg weiter. CSAA oder ein andere Verfahren wird die Zukunft gehören. 8 Samples sind overkill.
8x korrekte Farb und Z-Werte wären schon noch sinnvoll. Außerdem hat man in den ROPs auch die Z-Leistung dafür. Das scheint zur Zeit nur eine Limitation diverser Caches zu sein.
Gekoppelt mit einem effizienten edge detect Tentfilter wäre das schon ein sehr guter und bezahlbarer Qualitätssprung.

ein äußerst interessanter post in CB ;)

http://www.computerbase.de/forum/showthread.php?t=416410

Klingt ein bisschen nach einem G9x Derivat. Vieleicht G92b. Allerdings habe ich noch nie was von dem Typen gehört. Die Glaubwürdigkeit steht für mich also erstmal in Frage.

Ihr wisst doch gar nicht ob die neuen Karten im SLi microruckeln, ich glaube das ist noch spekulativer als manche Specs.

Am AFR Verfahren lässt sich soviel nicht ändern. Man kann durch einen Hack eventuell Frames mit Werten aus der "Vergangenheit" verzögern und damit die Situation verbessern. Dadurch verliert man aber CPU-Zeit. (wenn man bereits auf dieser Ebene verzögert)
Es bleibt eine Frickellösung. Und ob diese theoretische On-Packagelösung wirklich massentauglich, wirtschaftlich realisierbar ist, weiß keiner von uns. Zumal an die Lösung eine hohe Anforderung gestellt wird. Die On-Package Bandbreite muss alle ca 18 Monate sich verdoppeln, damit die Nachfolgegeneration das auch nutzen kann. Da das aber ein Verdrahtungsproblem ist, skaliert man in diesem Bereich in der Entwicklung anders als es die Halbleiterentwicklung tut. Ich vermute nämlich: weitaus langsamer.

K4mPFwUr$t
2008-05-07, 22:46:03
@unyu
geht garnicht, vista kann max 4 pre-render limit. und quad SLI ist schon nicht der bringer, bei ATI konnte man dem schon etwas entgegen wirken.

@Die gelbe Eule
hast schon recht, ist alles mit kosten verbunden. nur hätte ich gerne eine lösung womit man treiber unabhängig ist, oder zumindestens fast.

beim R700 gab es ja auch anfangs die gerüchte das es sich um mehrere kleine GPUs handeln soll.
die dann über einen zentralen sheduler die aufgaben aufteilen. aber darauß scheint ja nichts gewurden zu sein, ob jetzt AMD durch die fusion schuld daran hat oder ob das projekt einfach nicht umsetzbar ist werden wir wohl nie heraus finden.

auch single-gpu neigen zu "rucklern".
es ist allgemeinbedingt das zwei output quellen noch stärker ruckeln.

aber mal schauen.

Coda
2008-05-07, 22:57:52
auch single-gpu neigen zu "rucklern".
Das kommt dann aber von der CPU. Solang die Buffer voll sind gibt's da keine solchen Ruckler.

es ist allgemeinbedingt das zwei output quellen noch stärker ruckeln.
Das hat überhaupt nichts miteinander zu tun. Erstmal verstehen woher die AFR-Ruckler genau kommen, dann weiterposten.

Hvoralek
2008-05-07, 22:58:37
Kommt drauf an wie es umgesetzt wird. Wenn man eine GX2 endlich so verbinden könnte, daß sie 95% Effizienz hat, warum nicht? Ob Dualslot Kühler oder -karte, kommt aufs gleiche raus.Ja, 95% Effizienz auch abseits von typischen Benchmarkszenarien, dazu keine Speicherredundanz mehr, kein Inputlag, keine Mikroruckler - Dann gerne auch Multi- GPU; wird man nur mit AFR kaum alles erreichen können. Davon sehen wir bei einem G8x- Ableger aber wahrscheinlich überhaupt nichts und selbst beim Ex- R700 wohl nur den Wegfall des doppelten Speichers.

Interessant. Also würde die bis dato gehandelte Übergröße des Die auf zwei Kerne unter einem Dach schließen, ala C2D? Oder wie muss man sich das vorstellen?Wie gesagt: Zu zwei identischen Chips passt nicht, dass die gehandelte Größe auf einer "5" endet.

reunion
2008-05-07, 22:58:48
Es geistert oft herum. Es ist sogar wahrscheinlich. Aber geklärt ist es erst, wenn es bestätgt ist. ;)

Es ist bestätigt. Eine bessere Quelle als AiL bekommt man für so etwas kaum.


Bei 600 mm^2 wäre das allerdings nichteinmal eine Rohleistungsverdopplung eines G92.


Das Die ist ja auch nichteinmal doppelt so groß wie ein G92 bei gleichem Fertigungsprozess. Wunder sollte man auch nicht erwarten.


Die 9800GX2 will ja auch weggehauen werden. Womöglich verbessert man die Fähigkeiten der ALUs noch ein wenig oder erhöt die Flexibilität und damit auch die Effizienz.

Eben, ohne etwas über die Fähigkeiten der ALUs zu wissen kann man wenig sagen. Die GX2 ist so oder so kein Problem, dazu ist die SLI-Effizienz zu schlecht.

Die gelbe Eule
2008-05-07, 23:01:44
Die 9600GT ist doch das Paradebeispiel, was man aus dem G9X machen kann.

Psychopat
2008-05-07, 23:05:14
Wenn das mit den 2 cores stimmt, wäre GT200 (singlechip) praktisch ein auf 55nm geshrinkter G80. Auf jeden Fall höher getaktet und wahrscheinlich mit Detailverbesserungen.

Macht für nVidia Sinn. G80 war eigentlich ziemlich perfekt ausbalanciert. Damit spart man sich die teure Fertigung und R&D eines wirklichen Highend-Chips, und geht den gleichen Weg wie ATI.
Mal ganz ehrlich: Welche Anwendung außer Crysis würde denn wirklich einen single-Monsterchip brauchen? Es gibt einfach bei der breiten Masse nicht das Verlangen nach soooo viel mehr Performance. Es gibt keine Anwendung die mit einer 110 Euro 9600GT oder einer 130 Euro 8800GT nicht in annehmbarer Qualität laufen würde. Sowas gab's eigentlich noch nie! Man könnte dem Normaluser kaum erklären, was die 700 Euro Grafikkarte denn so viel toller kann als die 8800GT für 130 Euro, mal 3DMurks ausgenommen. Und da bekommt man mit 8800GT SLI auch schön lange Balken hin, immer noch ziemlich günstig. Der Markt ist zur Zeit einfach nicht reif für einen Monsterdie um 700 Euro.

robbitop
2008-05-07, 23:10:04
Es ist bestätigt. Eine bessere Quelle als AiL bekommt man für so etwas kaum.
So gern wir alle unseren Griechen mögen, auch er hat sich schon geirrt und kann sich auch weiterhin gelegentlich irren. ;)

Seit dem die IHVs so gezielt Fehlinformationen verstreuen ist davor niemand gefeit.


Das Die ist ja auch nichteinmal doppelt so groß wie ein G92 bei gleichem Fertigungsprozess. Wunder sollte man auch nicht erwarten.
G92 ist auch relativ schlecht gepackt. Ob's am Floorplan liegt oder an der Packdichte weiß ich nicht. Ich gehe aber davon aus, dass man das beim GT200 besser hinbekommt.


Eben, ohne etwas über die Fähigkeiten der ALUs zu wissen kann man wenig sagen. Die GX2 ist so oder so kein Problem, dazu ist die SLI-Effizienz zu schlecht.
Die Effizienz von AFR ist, sofern die CPU garnicht limitiert, so schlecht nicht. Es skalieren ja alle Größen linear mit. (außer der VRAM-Größe)

Gast
2008-05-07, 23:10:09
Macht für nVidia Sinn. G80 war eigentlich ziemlich perfekt ausbalanciert. Damit spart man sich die teure Fertigung und R&D eines wirklichen Highend-Chips, und geht den gleichen Weg wie ATI.


So bescheuert wird Nvdia garantiert nicht sein.

Psychopat
2008-05-07, 23:12:44
So bescheuert wird Nvdia garantiert nicht sein.

Wieso bescheuert? Kosten Sparen ist kaum bescheuert.

Die gelbe Eule
2008-05-07, 23:13:31
SLi hat ja nun auch Szenarien, wo es unter 1920x1200 mit kleinen Karten keine Konkurrenz gibt von einer Einzelkarte, ja sogar eine X2 wird manchmal ausgestochen. Manche Spiele sehe ich wie die Formel1 oder WRC an, wer hier gut abschneidet, der verkauft auch gut "kleinere" Produkte, da die Technologieträger vieles weitergeben, halt eben nur beschnitten.

Coda
2008-05-07, 23:13:40
Man hat auch einen Ruf zu verlieren.

Die gelbe Eule
2008-05-07, 23:14:56
Und manche einen zu rehabilitieren ;)

MikBach
2008-05-07, 23:15:14
Wie gesagt: Zu zwei identischen Chips passt nicht, dass die gehandelte Größe auf einer "5" endet.
Vielleicht absichtliche Fehlinfo? :wink:

Psychopat
2008-05-07, 23:17:19
Solange ATI nicht mit nem schnelleren Chip kommt, hat nVidia nach wie vor die Performancekrone (mit dem GX2, denn den sieht der Normaluser als die Top-Karte). Ein G80 Refresh würde auch zum Namen 9900 passen. Damit wird der Ruf der 9000 Serie wenigstens ein bisschen gerettet.

Solange nVidia nicht der Markt wegbricht, können sie sich so ziemlich alles erlauben. Und so schwach wie AMD/ATI zur Zeit ist, wird nVidia auch kaum Martanteile verlieren.

Edit: mal Ernsthaft, die 9000 Serie ist doch Beweis genug das es nVidia weniger um den Ruf als um Knete geht.

Nightspider
2008-05-07, 23:22:27
Gibt es irgentwo einen ausführlichen Artikel, der die Probleme beschreibt, warum mehrere GPUs nicht als "eine" fungieren können, obwohl eine GPU ja auch auch teilweise >300 "Kernen" besteht ? Bzw. Lösungsansätze spekuliert ?

Ein Core2Quad mit 2 getrennten DualCores auf einem Package muss ja auch keinen dedizierten Ram haben.

Hvoralek
2008-05-07, 23:22:52
Vielleicht absichtliche Fehlinfo? :wink:Dann kann man die Angabe insgesamt vergessen und die einzelnen Dice könnten jede denkbare Größe haben.

Aber wie gesagt: Solange die beiden wahrscheinlich am besten Informierten hier, die Andeutungen machen können, in diesem Einzelchip übereinstimmen, halte ich das für die wahrscheinlichste Variante. Jedenfalls glaube ich eher daran als an Urlaubserlebnisse eines völlig unbekannten CB- Forenusers.

=Floi=
2008-05-07, 23:23:35
nebenbei ist auch nichts über die taktraten bekannt und hier könnte der chip auch noch erhebliches potential freisetzen. Ich denke wenn man nur die flschenhälse (beim G92 design) aufbohrt, könnte man hier noch erhebliche leistungssteigerungen generieren. Ich kann mir nicht vorstellen, dass ein nachfolgerchip nicht so viel mehr rohleistung braucht, wenn es eher an den ROPs und am speicher (größe und anbindung) scheitert.

NV wird zukünftig auch mehr shaderleistung brauchen, denn der geometrieshader und physx werden da ebenfalls ihren tribut fordern. (240spsX2,2ghz wäre schon eine verdopplung der shaderleistung gegenüber der 9800GTX und genau faktor 3 zur 8800GTX)

Coda
2008-05-07, 23:25:14
Gibt es irgentwo einen ausführlichen Artikel, der die Probleme beschreibt, warum mehrere GPUs nicht als "eine" fungieren können, obwohl eine GPU ja auch auch teilweise >300 "Kernen" besteht ? Bzw. Lösungsansätze spekuliert ?
Die Kommunikation der Arbiter-Logik zu den Kernen muss verdammt breit und schnell sein. Das kann man On-Die ohne Probleme machen, aber wenn man Signale rausführt ist das immer so eine Sache.

Zudem müsste ein Chip dann als Master und der andere als Slave arbeiten, sonst ergibt es auch keinen Sinn, d.h. es gibt viel Logik die in einem Chip verschwendet ist und zudem bei beiden breiter ausfallen muss um das überhaupt zu erlauben.

Die andere Lösung wäre einen Arbiter/Speichercontroller-Chip und dann Rasterizer-Chips dazu zu verbauen. Die Package-Verdrahtung ist dann aber auch nicht mehr billig. Unvorstellbar finde ich die Idee auf lange Sicht aber nicht.

Ein Core2Quad mit 2 getrennten DualCores auf einem Package muss ja auch keinen dedizierten Ram haben.
Das liegt daran dass sie einen externen Speichercontroller haben mit einer lächerlichen Bandbreite und über einen Bus damit verbunden sind. Das ist für GPUs absolut unbefriedigend.

Bei CPUs muss ja die Software dafür sorgen, dass sie parallel ausgeführt wird indem sie Threads verwendet und sich synchronisiert. Das muss bei einer GPU die Logik machen.

Nightspider
2008-05-07, 23:30:21
Das liegt daran dass sie einen externen Speichercontroller haben mit einer lächerlichen Bandbreite und über einen Bus damit verbunden sind. Das ist für GPUs absolut unbefriedigend.

Kommt der Speichercontroller nicht in den Nehalem rein und ist bei AMD unlängst in den Kernen verbaut ?

Coda
2008-05-07, 23:31:29
Bei Nehalem gibt's auch keine mehreren Dies mehr auf einem Package. Bei AMD hat man vor zwei Kerne zu verbauen und dann für jedes Die nur einen Speicherkanal nach außen zu führen.

Der Interconnect wäre dann Quickpath/Hypertransport. Für GPUs auch immer noch viel zu lahm. GPUs der nächsten Generation brauchen >200GB/s, da ist selbst Quickpath um Faktor 10 davon entfernt.

Da müsste man schon mit einen On-Package-Bus zwischen den Dies von 256+ Bits kommen. Ist sicher nicht unmöglich. Aber es ist halt immer eine Mischkalkulation. 3 Chips + extrem komplexes Package statt einem großen Chip. Man darf auch nicht vergessen dass Signale in den Chip mehr Energie verbraten als man denkt.

Psychopat
2008-05-07, 23:33:58
Wenn man annimmt, das nVidia gezielt Fehlinformationen streut, ist der Bericht auf cb doch die sicherste Info die es gibt. Vorrausgesetzt die Geschichte ist nicht erlogen (er postet ja Bilder seines Visas als Beweis), halte ich das für sehr gute Informationen. Er hat nämlich Sachen gesehen, die er eigentlich nicht hätte sehen dürfen.
Wenn jemand Infos über mehrere Ecken hat, dann war da wohl ein nVidia Mensch mit im Spiel, der nur das sagt was er will das andere Wissen. Das kann ja alles sein.

MikBach
2008-05-07, 23:34:28
Dann kann man die Angabe insgesamt vergessen und die einzelnen Dice könnten jede denkbare Größe haben.
Ja, so wäre es.

Aber wie gesagt: Solange die beiden wahrscheinlich am besten Informierten hier, die Andeutungen machen können, in diesem Einzelchip übereinstimmen, halte ich das für die wahrscheinlichste Variante. Jedenfalls glaube ich eher daran als an Urlaubserlebnisse eines völlig unbekannten CB- Forenusers.
Abgeshen von den Urlaubserlbnissen, habe ich mir ehrlich gesagt noch keine Meinung gebildet.
Mich würde genausewenig eine Ein-GPU-Karte überraschen, wie eine Dual-GPU-Karte.
Und was die Experten angeht, haben hier im Forum auch viele jener z.B. die FX-Serie als gar nicht so schlecht eingeschätzt, welche aber imo der absolute Tiefpunkt bei NV war.

Coda
2008-05-07, 23:36:58
Ist gerade eigentlich eine Fehde gegen Menschen mit Ahnung ausgebrochen hier? Ist Unwissenheit jetzt "cool" geworden oder was?

Die Tour finde ich absolut zum kotzen. Ich behaupte nämlich, dass diese Leute von denen du da sprichst sehr vorsichtig sind mit dem was sie so sagen. Ich weiß dass bei der FX Demirug in eine Richtung spekuliert hat die den Chip am Ende gar nicht widerspiegelte. Dann ist doch klar dass die Leistung eine andere ist.

Meine grobe Beurteilung hat komischerweise die letzten 5 Jahre immer wieder erstaunlich gepasst. U.a. habe ich immer gesagt, dass ich ein 512-Bit-SI bei R600 für total unnötig halte und habe es deshalb am Anfang wehement abgestritten. War ja wohl nicht so weit daneben.

Coda
2008-05-07, 23:45:08
Jo, mag etwas arrogant rüberkommen.

Aber was manche hier grad abziehen geht unter keine Kuhhaut mehr. Das Forum lebt von solchen Leuten und die werden grad Stück für Stück vertrieben und durch pseudo-technisches Fanboy-Geschwafel ersetzt.

Nightspider
2008-05-07, 23:47:36
Thx Coda für die Infos.

MikBach
2008-05-07, 23:48:20
Ist gerade eigentlich eine Fehde gegen Menschen mit Ahnung ausgebrochen hier? Ist Unwissenheit jetzt "cool" geworden oder was?
Ne, keinesfalls.
Nicht mißverstehen, Coda.

Die Tour finde ich absolut zum kotzen. Ich behaupte nämlich, dass diese Leute von denen du da sprichst sehr vorsichtig sind mit dem was sie so sagen. Ich weiß dass bei der FX Demirug in eine Richtung spekuliert hat die den Chip am Ende gar nicht widerspiegelte. Dann ist doch klar dass die Leistung eine andere ist.
Ich meinte eigentlich eher aths, aber die Geschichte ist schon uralt und nicht der Rede wert.
Jeder kann sich mal verspekulieren.

Nur finde ich es nicht ok, dass du andere Member als unwissend bezeichnest. Vor allem im Spekuforum sollte jeder seine Meinung sagen dürfen, ohne gleich als Holzkopf abgestempelt zu werden. :)

Coda
2008-05-07, 23:49:42
Nur finde ich es nicht ok, dass du andere Member als unwissend bezeichnest.
Habe ich nicht. Du brauchst mir nicht das Wort im Mund verdrehen.

MikBach
2008-05-07, 23:55:44
Habe ich nicht. Du brauchst mir nicht das Wort im Mund verdrehen.
Mit deiner Aussage "Ist Unwissenheit jetzt "cool" geworden oder was?" implizierst du es aber.
Aber egal. Deine Wortwahl und deine Anspielungen gehen manchmal unter die Gürtellinie und sorgen nicht gerade für ein entspanntes Diskussionsklima.
Das ist das Spekulationsforum.
Hier darf jeder seinen Senf ablassen.
Auch wenn dieser noch so abwegig wäre.

Coda
2008-05-07, 23:58:27
Mit deiner Aussage "Ist Unwissenheit jetzt "cool" geworden oder was?" implizierst du es aber.
Nein tu ich nicht. Das bezog sich darauf, dass manche einen hier noch blöd anmachen sobald man ein solides technisches Argument in Diskussionen einbringt.

Das ist das Spekulationsforum.
Hier darf jeder seinen Senf ablassen.
Auch wenn dieser noch so abwegig wäre.
Auch wenn ich dir da zustimme ist es ein Unterschied hier mit Absicht Mist zu posten wie es manche Gäste tun.

Gast
2008-05-08, 00:01:46
Mit deiner Aussage "Ist Unwissenheit jetzt "cool" geworden oder was?" implizierst du es aber.
Aber egal. Deine Wortwahl und deine Anspielungen gehen manchmal unter die Gürtellinie und sorgen nicht gerade für ein entspanntes Diskussionsklima.
Das ist das Spekulationsforum.
Hier darf jeder seinen Senf ablassen.
Auch wenn dieser noch so abwegig wäre.

Kann man dann wenigstens einen extra Thread aufmachen in dem nur Quellen mit neuen Informationen geposted werden?
In diesem Thread versuchen sich imo nur PC-Nerds mit ego-Problem zu profilieren.

Sich durch den Sumpf hier zu kämpfen ist echt öde

Slipknot79
2008-05-08, 00:18:07
*headbang* für Coda, er bringt eben die Dinge gleich auf den Punkt und das meist in seinen 2-3-Satz-Beiträgen womit da einige ein Problem haben. :cool:

|MatMan|
2008-05-08, 00:20:50
Sich durch den Sumpf hier zu kämpfen ist echt öde
ich finds teilweise zum brüllen komisch was manche Leute hier (oder im RV770 Thread) für einen Qaurk von sich geben, dazu noch mit absoluter Überzeugung, und damit meine ich nicht nur Gäste ;D

zum Thema: ich denke schon, dass es so einen Monster ~600 mm² Chip mit 512 Bit SI von nVidia gibt, nur ob wir den schon im Juli sehen ist eine andere Frage - so oder so wird sich AMD strecken müssen

Scose
2008-05-08, 01:04:47
Also zu dem anderen von Singapore...

die Story an sich kann ja durchaus der Wahrheit entsprechen, fragt sich aber nur warum Nvidia so genaue Angaben auf ein Etikett einer ansonsten grauen Schachtel pflastert?

Könnten ja bewusst falsche Angaben sein, weil wenn er sowas gesehen hat da andere sicherlich auch...

Coda
2008-05-08, 01:06:20
Oder vielleicht lügt er einfach nur weil er Aufmerksamkeit will. Wäre nicht das erste Mal im Internet das sowas passiert.

MEDIC-on-DUTY
2008-05-08, 07:40:43
da andere sicherlich auch...

Nur, das es die anderen nicht gibt. Ich haben noch keine Posts im Web dazu gefunden, die etwas änliches berichten würden.

A bisserle strange ist die Story schon. Ein Visa ist auch kein Beweis dafür, dass er ein paar Kisterl von nVidia gesehen hat. Keine Photos machen, aber aufschreiben dürfen, ne is klar.

Und dann noch die Aussage "die etwa so groß wie Grafka Kartons waren". Lol, seit wann werden denn Grafkas im Originalkarton einzeln ohne Umverpackung auf Weltreise geschickt? Damit sich jeder bedienen kann? Leute, was ne Abenteuerstroy. Musste ich auch erst zweimal lesen.

Aber eine nette Speku. :cool:

reunion
2008-05-08, 07:58:23
G92 ist auch relativ schlecht gepackt.

Nicht schlechter als sämtliche andere Chips von nv in 65nm. Auch G80 ist im Verhältnis zur Fertigungstechnologie nicht besser gepackt als G92. Keine Ahnung wo dieses Märchen herkommt. Klar erreicht AMD mit ihrem Design eine bessere Packdichte, aber das lässt sich ja nicht beliebig auf völlig andere Chips übertragen.


Die Effizienz von AFR ist, sofern die CPU garnicht limitiert, so schlecht nicht. Es skalieren ja alle Größen linear mit. (außer der VRAM-Größe)

Viele neuere Spiele haben arge Probleme mit AFR überhaupt noch zu skalieren. Prominentestes Beispiel ist sicher Crysis. Wenn es korrekt und ohne Probleme funktioniert ist die Skalierung sicher optimal, aber das ist eher die Ausnahme, denn die Regel.

4711
2008-05-08, 08:03:49
ich hab ja keine Ahnung von euren Spekulationen,aber ich hab SLI und Crysis und da es so schön viele "bunte" Mods gibt hab ich mich damit schon stundenlang befaßt,und SLI/AFR2 skaliert 1A.

reunion
2008-05-08, 08:07:41
Ist gerade eigentlich eine Fehde gegen Menschen mit Ahnung ausgebrochen hier? Ist Unwissenheit jetzt "cool" geworden oder was?


Ahnung. Hm. Wer hat Ahnung? Woran machst du fest ob jemand Ahnung hat? Unwissenheit kann durchaus "cool" sein, denn man muss sich nicht beweisen oder irgend jemanden was vormachen bzw. sich dann auch noch rechtfertigen wenn man denn falsch läge.

Die Tour finde ich absolut zum kotzen. Ich behaupte nämlich, dass diese Leute von denen du da sprichst sehr vorsichtig sind mit dem was sie so sagen. Ich weiß dass bei der FX Demirug in eine Richtung spekuliert hat die den Chip am Ende gar nicht widerspiegelte. Dann ist doch klar dass die Leistung eine andere ist.

Schema F: Ein neuer NV-Chip ist zu beginn immer prinzipiell besser, zukunftstauglicher und überhaupt in jeder Hinsicht überlegen. Ist doch völlig klar. Nachteile werden immer erst publik wenn schon der Nachfolger in der Pipeline ist. Ja, ich pauschalisiere, übertreibe - aber nach dem was man sich die letzten Jahre so anhören durfte sollte das niemanden mehr wundern.


Meine grobe Beurteilung hat komischerweise die letzten 5 Jahre immer wieder erstaunlich gepasst. U.a. habe ich immer gesagt, dass ich ein 512-Bit-SI bei R600 für total unnötig halte und habe es deshalb am Anfang wehement abgestritten. War ja wohl nicht so weit daneben.

Das war auch nicht schwer zu erraten bei den nur 16 TMUs und der Leistung. AMD hatte offensichtlich die Akzeptanz von FP16 Texturen völlig überschätzt.

ich hab ja keine Ahnung von euren Spekulationen,aber ich hab SLI und Crysis und da es so schön viele "bunte" Mods gibt hab ich mich damit schon stundenlang befaßt,und SLI/AFR2 skaliert 1A.

Mag sein das sich das mit neueren Treibern geändert hat, ich kann mich aber noch dunkel an Bechs erinnern in denen tw. nur eine SLI-Skalierung von unter 10% festgestellt wurde. Aber bei der Publicity verwundert es wenig das nV hier extra Arbeit leistet. Von problemlos out-of-the-box kann jedenfalls keine Rede sein.

GeneralHanno
2008-05-08, 08:12:35
nun allgemein ist so ein "urlaubserlebnis" für mich nicht mehr oder weniger "wert" als irgendwelche anonymen quellen, über die HWI z.b. die RV770 specs erhalten haben will ...

letzlich ist JEDES gerücht immer mit einem (hohen) unsicherheitsfaktor behaftet. gerade deshalb ist es wichtig, dass wir auch leute im forum haben, die so viel fundiertes technisches fachwissen haben, dass sie die gerüchte als mehr oder weniger realistisch abschätzen können (*eine-lanze-brech-für-qulität-statt-fanboy-gelaber*)

robbitop@work
2008-05-08, 08:53:30
Nicht schlechter als sämtliche andere Chips von nv in 65nm.
Da fällt mir nur G94 ein. Der hat eine gleich miese Packdichte, ja.

Auch G80 ist im Verhältnis zur Fertigungstechnologie nicht besser gepackt als G92.

Na aber sicher ist er das. Ich komme auf 232 mm^2 für einen G92, der eine ähnlich gute Packdichte hätte, wie der G80 (bei 65 nm).
Es sind in der Realität aber 42% mehr DIE-Size als in der Rechnung. Das muss irgendwoher kommen. Die RV630 hat immerhin eine rund 20% bessere Packdichte. Vom RV670 wollen wir gar nicht erst reden.
Warum sollte NV das nicht hinbekommen. Der 65-nm-Prozess ist nun recht ausgereift, so dass man sich etwas mehr Zeit für den GT200 nehmen konnte.
Ich fress' nen Besen, wenn die Transistoranzahl pro mm^2 so bleibt.


Keine Ahnung wo dieses Märchen herkommt. Klar erreicht AMD mit ihrem Design eine bessere Packdichte, aber das lässt sich ja nicht beliebig auf völlig andere Chips übertragen.
Ich sehe nicht, warum NV das nicht auch kann. Ich tippe fast auf einen Schnellschuss beim Floorplan.



Viele neuere Spiele haben arge Probleme mit AFR überhaupt noch zu skalieren. Prominentestens Beispiel ist sicher Crysis. Wenn es korrekt und ohne Probleme funktioniert ist die Skalierung sicher optimal, aber das ist eher die Ausnahme, denn die Regel.
Ja natürlich vorausgesetzt, dass es funktioniert. Dass AFR keine superkompatible Kompatibilität bietet, ist jedem klar.
Gab es noch kein Patch oder Treiber, der AFR für Crysis nutzbar machte?

reunion
2008-05-08, 09:16:56
Na aber sicher ist er das. Ich komme auf 232 mm^2 für einen G92, der eine ähnlich gute Packdichte hätte, wie der G80 (bei 65 nm).
Es sind in der Realität aber 42% mehr DIE-Size als in der Rechnung. Das muss irgendwoher kommen. Die RV630 hat immerhin eine rund 20% bessere Packdichte. Vom RV670 wollen wir gar nicht erst reden.
Warum sollte NV das nicht hinbekommen. Der 65-nm-Prozess ist nun recht ausgereift, so dass man sich etwas mehr Zeit für den GT200 nehmen konnte.
Ich fress' nen Besen, wenn die Transistoranzahl pro mm^2 so bleibt.


G80: 681mio Transistoren, 90nm, Die-Size: 484mm²
G92: 754mio Transistoren, 65nm, Die-Size: 324mm²

G80 -> G92 theoretisch: 484mm² x 65²/90² x 754/681 = 279.5mm²

Wenn man jetzt noch berücksichtigt das ein optimaler Shrink in der Praxis nicht möglich ist bewegt sich die Packdichte vollkommen im Rahmen.


Ich sehe nicht, warum NV das nicht auch kann. Ich tippe fast auf einen Schnellschuss beim Floorplan.

Weil sich unterschiedliche Schaltungen unterschiedlich dicht packen lassen. ATi erreichte beim R5xx-Design bsw. weit nicht die Packdichte von nV beim G7x-Design. Jetzt ist es halt umgekehrt. Ich sehe daran nicht ungewöhnliches.

DrumDub
2008-05-08, 11:02:34
Hier sind ein paar OT-Postings verschwunden. Kann in Zukunft auch passieren. Danke für die Aufmerksamkeit.

Psychopat
2008-05-08, 11:07:13
Andere Überlegung:
Nachdem nVidia die Codenamen durchwürfelt, könnte mit GT200 (die aus dem cb Forum) vielleicht aktuell der G92b gemeint sein? Auf einen G92b würden die Specs auf der Schachtel doch passen. 55nm, wieder 384bit SI, mit 128 Shadern klein genug für ne GX2.

Dann ist der ursprüngliche GT200 evtl. nach hinten verschoben, bzw. kommt falls RV770 zu stark wird. Macht doch Sinn, oder?
Ein G92b der gegenüber G92 ein 384bit SI hat und mehr ROPs, dazu in 55nm und evtl mit mehr Takt ist doch der ideale Gegenspieler für RV770.

K4mPFwUr$t
2008-05-08, 11:08:34
ob das reicht wage ich zu bezweifeln, wenn der RV770 so kommt wie vermutet.

Psychopat
2008-05-08, 11:11:09
Es wäre auf jeden Fall eine Erklärung, was der Mensch vom cb-Forum da auf der Schachtel gesehen hat.

K4mPFwUr$t
2008-05-08, 11:12:52
schön und gut was er da gesehen hat.
nur sagt das was aus bzw. er als quelle?
ich seh ihn nicht gerade als "anerkannte" oder "veertrauenswürdige" quelle an.

vieleicht war es ja auch eine andere GX2 version.
er konnte ja nur GFXXXXX erkennen.

Psychopat
2008-05-08, 11:21:43
GFXXXX ist das was auf der Schachtel stand... Steht weiter unten im cb-Thread.
Wieso sollte es nicht stimmen? Er hat den Guide bestochen, um in die Lagerhäuser zu dürfen. Da kann dann schon was rumstehen, was keiner sehen soll. Ist eigentlich leicht nachprüfbar, ob er lügt oder nicht. Er schreibt er durfte seinen Foto net mitnehmen, was standart ist auf Hafentouren. Wenn wer anders sagt, man darf da Fotos machen, ist klar das es erlogen ist. War schonmal wer in Singapur?

K4mPFwUr$t
2008-05-08, 11:46:01
oh weil er GFXXXX gesehen hat und meinte er durfte keine fotos machen, hat er recht? :ulol:

um das zu sofort zu fressen, muss man schon sehr naiv sein

PS: standard ;)

Scose
2008-05-08, 12:05:11
GFXXXX ist das was auf der Schachtel stand... Steht weiter unten im cb-Thread.
Wieso sollte es nicht stimmen? Er hat den Guide bestochen, um in die Lagerhäuser zu dürfen. Da kann dann schon was rumstehen, was keiner sehen soll. Ist eigentlich leicht nachprüfbar, ob er lügt oder nicht. Er schreibt er durfte seinen Foto net mitnehmen, was standart ist auf Hafentouren. Wenn wer anders sagt, man darf da Fotos machen, ist klar das es erlogen ist. War schonmal wer in Singapur?

Ich war schon oft in Singapore (teil meiner Familie ist vor ca. 10Jahren dahin ausgewandert).

Ich hab den Hafen mehrmals gesehen, ich war zu Besuch bei HP etc. Das mit den Foto's trifft durchaus zu, ist in Asien extremer als sonstwo.

Aber der Hafen ist dermassen gross, das man da "durch welchen Zufall auch immer" die richtige Lagerhalle mit dem richtigen Produkt auch noch gelabelt ohne Container antrifft ist ansich schon ein Wunder :D

Diese Hallen sind riesig und wenn da hauptsächlich Mainboards gelagert waren sind das unvorstellbare Stückzahlen.

MEDIC-on-DUTY
2008-05-08, 12:41:37
Aber der Hafen ist dermassen gross, das man da "durch welchen Zufall auch immer" die richtige Lagerhalle mit dem richtigen Produkt auch noch gelabelt ohne Container antrifft ist ansich schon ein Wunder :D


Nach dem Motto: Ich klingel mal, irgendwer von nVidia wird schon aufmachen ;D. Freunde, ich fress nen Schokobesen, wenn die Daten tatsächlich stimmen sollen. :D

Sonyfreak
2008-05-08, 13:23:05
Und was ist, wenn vorerst wirklich nur ein aufgebohrtet und detailverbesserter G92 mit 384bit SI und höheren Taktraten (womöglich auch noch als GX2-Variante) auf den Markt kommt, und der GT200 erst irgendwann später auf uns losgelassen wird?

mfg.

Sonyfreak

Adam D.
2008-05-08, 13:44:43
Über etwaige Verspätungen des GT200 hat man einfach noch nichts gehört und laut Ails Aussagen scheint der Release einfach bald fällig zu sein - das hindert mich daran zu glauben, dass der G92b zwischengeschoben wird (für den High-End-Sektor).

Unyu
2008-05-08, 13:47:40
Aber der Hafen ist dermassen gross, das man da "durch welchen Zufall auch immer" die richtige Lagerhalle mit dem richtigen Produkt auch noch gelabelt ohne Container antrifft ist ansich schon ein Wunder :D
"Dreimal mehr als Hamburg
Im weltgrößten Seefrachthafen Singapur wird im Vergleich zu Hamburg jährlich die dreifache Menge an Containern umgesetzt."

Oha, und in dem plauschigen Fischerhafen mal eben die richtige Halle gefunden. ;D

master_blaster
2008-05-08, 14:09:26
Über etwaige Verspätungen des GT200 hat man einfach noch nichts gehört und laut Ails Aussagen scheint der Release einfach bald fällig zu sein - das hindert mich daran zu glauben, dass der G92b zwischengeschoben wird (für den High-End-Sektor).

Vielleicht sind G92b und GT200 ja ein undderselbe Chip. Man hat ja schonmal versucht, uns in die Irre zu führen mit Kürzeln wie G9E, G92 und 8800 Ultra und 9800GTX. Bei so 'ner bunten Mischung kann mal schonmal durcheinander kommen ...

Adam D.
2008-05-08, 14:14:42
Vielleicht sind G92b und GT200 ja ein undderselbe Chip. Man hat ja schonmal versucht, uns in die Irre zu führen mit Kürzeln wie G9E, G92 und 8800 Ultra und 9800GTX. Bei so 'ner bunten Mischung kann mal schonmal durcheinander kommen ...
Der nächste Single-High-End-Chip wird das sein, was wir uns jetzt unter GT200 vorstellen. Ob das Ding jetzt G100 heißt oder GT200 ist egal, der G92b ist ein simpler Shrink für den Performance-Markt und dürfte mit der Entwicklung des GT200 nichts zu tun haben.

Gast
2008-05-08, 14:20:33
G92b=GT200=Geforce 9900GTX definitiv!

w0mbat
2008-05-08, 14:33:01
Und das ~600mm² Monster = G100?

Gast
2008-05-08, 14:35:27
naja der junge hat ja nicht nach der grafikkarte gesucht, sondern ist zufällig darauf gestoßen.
er wollte ja nur gerne mal eine IT-Halle von innen sehen.
in sofern kann es durchaus sein.
die meisten wichtigen entdeckungen wurden jeweis durch einen zufall gemacht.

und irgendeiner schrieb das es nicht geht weil die Die-size ja mit einer 5 enden soll (585 oder 575) und 5 kann man ja nicht durch 2 teilen.
kann man doch. denn ein teil der menge geht ja für die kontrolllogik drauf die die beiden "chips" miteinander verbindet. und diese gibt es nur einmal.

K4mPFwUr$t
2008-05-08, 14:35:29
für den G100 (DX11) ist es doch noch viel zu früh.

w0mbat
2008-05-08, 14:38:51
@K4mPFwUr$t: G100 kann sehrwohl noch ein DX10(.1) Chip werden, Nvidia ist ja nicht gerade für die Beständigkeit ihrer Codenamen bekannt. Oder wir nennen ihn eben GT300.

GeneralHanno
2008-05-08, 14:42:14
bei dem nameschaos beginne ich langsam zu verstehen, warum Ail immer GF-next zum 600mm² chip sagt ...

The_Silent_One
2008-05-08, 14:48:34
und irgendeiner schrieb das es nicht geht weil die Die-size ja mit einer 5 enden soll (585 oder 575) und 5 kann man ja nicht durch 2 teilen.
... was totaler unfug ist. ob die die-size nun durch 2 teilbar ist oder nicht ist dochvöllig egal. es passen schließlich auch ein paar transistoren auf einen halben mm^2.
wenn er den transistorcount meinte, wäre deine argumentation mit der kontrollogik für multi-gpu auch passend. aber bei der fläche ist es unwichtig...

K4mPFwUr$t
2008-05-08, 14:49:09
würde vieleicht erklären was GT200 heißt ... wie wäre es mit geforce try 200?

@w0mbat
der geplante DX11 chip G100 wird wohl auch DX11 bleiben.
es kann aber gut sein das man diesen zum G110 oder sonst was macht und ein umgebauter G100 DX10.1 beherrscht.

Hvoralek
2008-05-08, 14:54:49
Nach dem Motto: Ich klingel mal, irgendwer von nVidia wird schon aufmachen ;D. Freunde, ich fress nen Schokobesen, wenn die Daten tatsächlich stimmen sollen. :DWenn G92b nicht nur ein einfacher Shrink ist, sondern noch leicht aufgemöbelt, wären 6 ROP- Cluster naheliegend. Und eine GX2 auf Basis von dem Ding könnte ich mir durchaus vorstellen, s.o. Vlt. sieht das Lineup im Sommer ja wirklich so aus: GT200-GTX > GT200-GTS > G92B-GX2 > G92b-Einzelkarten [Dann evtl. mit G92b als "GT200" und GT200 als "G100"].

Jedenfalls solltest Du zur Sicherheit schon einmal bei Ailuros nachfragen, wo man eigentlich Schokobesen herbekommt :biggrin:

und irgendeiner schrieb das es nicht geht weil die Die-size ja mit einer 5 enden soll (585 oder 575) und 5 kann man ja nicht durch 2 teilen.
kann man doch. denn ein teil der menge geht ja für die kontrolllogik drauf die die beiden "chips" miteinander verbindet. und diese gibt es nur einmal.Wie ich schon sagte (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6487015&highlight=identischen+chips#post6487015), schließt die Angabe, wenn sie stimmt, zwei identische Chips aus. Zumindest bisher werden für SLI auch zwei identische Chips verwendet. Wenn man davon nun plötzlich beim Shrink eines Refreshs eines zwei Jahre alten Chips abweichen und das eigene Multi- GPU- Konzept generalüberholen würde, wäre ich wirklich erstaunt. Zumal es eine Leistung wäre, wenn man anstehende größere Änderungen an SLI so lange (wenn es schon fertige Platinen gibt, nur wenige Wochen vor Erscheinen) vollkommen hätte geheimhalten können.

für den G100 (DX11) ist es doch noch viel zu früh.Wie gesagt: Vlt. erscheint der 600- mm²- Chip, der hier bisher als "GT200" gehandelt wurde und wohl auch bis vor Kurzem so hieß, unter der (geänderten) Bezeichnung "G100". Ich würde es zumindest begrüßen, wenn Nvidia irgendwann einmal wieder ein Namensschema konsequent durchzieht.

Dass der "alte" G100 erst später erscheint, ist klar. Dann vlt. unter dem Namen "G110", "G200" oder sonstwas.

... was totaler unfug ist. ob die die-size nun durch 2 teilbar ist oder nicht ist dochvöllig egal. es passen schließlich auch ein paar transistoren auf einen halben mm^2.Ich kann mich auch hier nur wiederholen: Ich kann mich nicht erinnern, je eine Chipgrößenangabe mit Nachkommastellen gesehen zu haben. Kennst Du eine?

K4mPFwUr$t
2008-05-08, 15:08:29
lassen wir das thema codenamen lieber weg, verursacht nur verwirrung ;D

aber wenn es so kommen sollte das der neue chip, wirklich nur ein aufgemotzter G92 ist.
wieviel leistung könnte man denn erwarten gegenüber z.b. einer 9800GTX?

im grunde genommen wäre schonmal die bandbreite und VRAM menge höher als beim G92, das waren ja mit die größten kritikpunkte. ein paar ROPS mehr für die bandbreite und ein paar shader. vieleicht max ~10-20%? wäre allerdings irgendwie fade, so wenig leistungsplus nach dem ganzen stillstand im graka bereich.

aber scheinbar nimmt nV ATI/AMD garnicht mehr richtig ernst. und wenn sie doch unerwartet stark sind wird wohl was in der hinterhand gehalten.

nur ob dann das evtl. neue "highend" als GX2 gut ankommt im 3dc wage ich zu bezweifeln ;)

Hvoralek
2008-05-08, 15:16:58
lassen wir das thema codenamen lieber weg, verursacht nur verwirrung ;DDas Problem ist eben, dass man irgendwie klar machen muss, von was für einem Chip man gerade redet :wink:

aber wenn es so kommen sollte das der neue chip, wirklich nur ein aufgemotzter G92 ist.
wieviel leistung könnte man denn erwarten gegenüber z.b. einer 9800GTX?Bei einem geshrinkten G92 mit 6 ROP- Clustern, sonst ohne Veränderungen und mit 768 MiB würde ich etwa 25% über 9800 GTX erwarten; wenn der der VRAM ausgeht, natürlich wesentlich mehr.

nur ob dann das evtl. neue "highend" als GX2 gut ankommt im 3dc wage ich zu bezweifeln ;)Noch einmal: Eine GX2 auf Basis eines solchen Chips könnte ich mir als Lückenfüller unter GT200 vorstellen. Ansonsten wäre der Fortschritt natürlich wirklich lächerlich.

MEDIC-on-DUTY
2008-05-08, 15:17:26
nur ob dann das evtl. neue "highend" als GX2 gut ankommt im 3dc wage ich zu bezweifeln ;)

Ich will mal eine Multigpu-Lösung nicht verteufeln, aber nV muss die Probleme damit unbedingt in den Griff bekommen.

puntarenas
2008-05-08, 15:19:52
Ich will mal eine Multigpu-Lösung nicht verteufeln, aber nV muss die Probleme damit unbedingt in den Griff bekommen.
Stromverbrauch (dadurch auch Abwärme), Mikroruckler, Skalierung. Fehlt was?

Unyu
2008-05-08, 15:20:26
Fehlt was?
Lag.

puntarenas
2008-05-08, 15:24:35
Lag.
Danke, also Stromverbrauch, Mikroruckler, Skalierung und Lag-Problematik. Klingt nach viel Arbeit, bevor ungetrübte Multi-GPU-Freude ausbricht.

The_Silent_One
2008-05-08, 15:24:52
Ich kann mich auch hier nur wiederholen: Ich kann mich nicht erinnern, je eine Chipgrößenangabe mit Nachkommastellen gesehen zu haben. Kennst Du eine?
sind das den exakte angaben, die die hersteller da machen oder bloß gerundete, da es im grunde genommen vernachlässigbar ist, ob da nun noch 0,5mm^2 mehr oder weniger sind?

Hvoralek
2008-05-08, 15:33:44
sind das den exakte angaben, die die hersteller da machen oder bloß gerundete, da es im grunde genommen vernachlässigbar ist, ob da nun noch 0,5mm^2 mehr oder weniger sind?Die werden m.W. geschätzt (Deshalb finden sich z.T. auch leicht abweichende Angaben zu den gleichen Chips). Wie wahrscheinlich ist es denn, dass die Größe eines G92b/ GT200neu/ wasauchimmer auf genau 287,5 mm² geschätzt oder gerundet wird?

LovesuckZ
2008-05-08, 15:40:02
Wenn G92b nicht nur ein einfacher Shrink ist, sondern noch leicht aufgemöbelt, wären 6 ROP- Cluster naheliegend.

Nicht, wenn die Karte in die <200€ Bereich gehen soll. 6 Partitionen bedeutet auch einen größeren Chip bezüglich der Anbindung, eine teure Platine und mehr Speichersteine.
Dann sollte nVidia gleich auf GDDR5 setzen.

The_Silent_One
2008-05-08, 15:43:45
ach, so meinst du das...

du gehst jetzt davon aus, dass die angabe für einen einzelnen chip dann zu genau (bzw. ungewühnlich genau) bestimmt wäre. ok, dann hast du mich jetzt überzeugt ^^

Hvoralek
2008-05-08, 15:44:58
Nicht, wenn die Karte in die <200€ Bereich gehen soll. 6 Partitionen bedeutet auch einen größeren Chip bezüglich der Anbindung, eine teure Platine und mehr Speichersteine.
Dann sollte nVidia gleich auf GDDR5 setzen.Der wäre wohl immer noch kleiner als der jetzige G92, der auch unter 200€ verkauft wird. Die Kosten für die Platine können auch nicht so exorbitant sein, wenn ich mir ansehe, wie z.T. die GTS 320 oder auch R600 verschleudert wurden. Und wenn man mit RV770 konkurrieren möchte, wäre man zum einen über 200€ mit dem Spitzenmodell, zum anderen bräuchte man womöglich die Leistung.

LovesuckZ
2008-05-08, 15:48:18
Der wäre wohl immer noch kleiner als der jetzige G92, der auch unter 200€ verkauft wird. Die Kosten für die Platine können auch nicht so exorbitant sein, wenn ich mir ansehe, wie z.T. die GTS 320 oder auch R600 verschleudert wurden. Und wenn man mit RV770 konkurrieren möchte, wäre man zum einen über 200€ mit dem Spitzenmodell, zum anderen bräuchte man womöglich die Leistung.

Die Anbindung des Speichers an den Chip benötigt auch eine bestimmte Fläche. Die geshrinkte Fläche sollte mit 256bit kleiner seins als mit 384bit.
Es macht keinen Sinn, aufgrund von mehr Bandbreite gleich die ganzen Kosten zu erhöhen, wenn man auf die ZUkunft betrachtet es deutlich einfacher mit GDDR5 erreichen könnte.
R600 wurde verramscht, weil ihn niemand gekauft hat. Und die GTS-320 wurde doch als Notlösung geboren. Beides sind aber Produkte, die eigentlich nie soweit unten angesiedelt werden sollten.

Hvoralek
2008-05-08, 20:00:31
Die Anbindung des Speichers an den Chip benötigt auch eine bestimmte Fläche. Die geshrinkte Fläche sollte mit 256bit kleiner seins als mit 384bit.Ich verstehe den letzten Satz nicht. Die Fläche, die für die Anschlüsse benötigt wird, müsste vom Fertigungsprozess unabhängig sein. Natürlich wird der ganze Chip durch den Shrink kleiner (Meintest Du das? :confused:). Einen 24- ROP- G92 in 55 nm würde ich auf etwa 270 mm² schätzen. Das müsste für die Anschlüsse eines 384- bit- SIs reichen, wenn man an G71 und RV570 256 bit anbringen konnte und an R600 512 bit.

Was die Notwendigkeit angeht: Wenn jetzt schon Serienkarten davon fertig abgepackt exisiteren, dürfte das einen Hardlaunch spätestens Anfang Juni bedeuten. Mit GDDR5 wäre man erst später dran gewesen.

Aber um das noch einmal klarzustellen: Ich hege erhebliche Zweifel an der Geschichte dieses CB- Users.

Unyu
2008-05-08, 20:11:25
Einen 24- ROP- G92 in 55 nm würde ich auf etwa 270 mm² schätzen.
Wie kommst du auf diese Größe? :confused:
Ein unveränderter G92 bei 55nm müsste doch schon 280mm² groß sein.

Hvoralek
2008-05-08, 20:29:31
Wie kommst du auf diese Größe? :confused:
Ein unveränderter G92 bei 55nm müsste doch schon 280mm² groß sein.55*55 / (65*65) für das Größenverhältnis derselben Schaltung in 55 und 65nm (quadriert, weil es um eine Fläche geht). Das multipliziert mit 330mm² ergibt etwa 236mm² für einen idealen 1:1- Shrink. Dazu noch ein bisschen obendrauf, weil man einen idealen Shrink nicht schaffen wird und für die zusätzlichen ROPs, evtl. einen Keks abziehen für weniger Massetransistoren, dann komme ich auf etwa 270mm².

Psychopat
2008-05-09, 03:00:31
Wäre doch ein schöner Chip für nVidia. Ich denke die Geschichte aus dem CB-Forum stimmt, die Specs passen doch wunderbar auf den G92b. Nennt ihn nVidia halt jetzt GT200. Erscheinungstermin passt doch auch.

Edit: Was an der Geschichte aus dem CB-Forum gibt denn Grund dazu, von einem Fake auszugehen? Keine Fotos im Hafen stimmt (deswegen keine Bilder), und ein Visa hat er auch gepostet, er war also wirklich dort. Gibt es irgendwas, außer das er Glück mit dem Lagerhaus hatte, das Grund zum Zweifel gibt? Postet doch auch nicht alle Tage wer, er habe im Lagerhaus was rumliegen sehen. Ist selten, gibt es aber. Und dieser eine Fall macht halt dann schnell die Runde.

AnarchX
2008-05-09, 07:53:44
Nur weil er ein Visa hat glaubt ihr diese Räuberpistole von zufällig gefundenen losen GraKa-Kartons, mit halbvollständigen Specs aufgedruckt? ;D


Naja, da vertraue ich doch eher auf die Infos die ich seit Anfang Dezember habe und sich immmernoch mit den aktuellen Gerüchten decken.;)

MEDIC-on-DUTY
2008-05-09, 08:42:19
Edit: Was an der Geschichte aus dem CB-Forum gibt denn Grund dazu, von einem Fake auszugehen? Keine Fotos im Hafen stimmt (deswegen keine Bilder), und ein Visa hat er auch gepostet, er war also wirklich dort. Gibt es irgendwas, außer das er Glück mit dem Lagerhaus hatte, das Grund zum Zweifel gibt? Postet doch auch nicht alle Tage wer, er habe im Lagerhaus was rumliegen sehen. Ist selten, gibt es aber. Und dieser eine Fall macht halt dann schnell die Runde.[/QUOTE]

- 300 Schiffe pro Tag
- 280.000 qm Lagerfläche
- 1,2 km2 Freihandelszone und 320.000qm Handelszone
- über 370 (Twenty-foot Equivalent Unit) pro Stunde

...und er findet die richtige Palette, mit kleinen Kartons ohne Umverpackung und Labels ohne Details? ;D

Nightspider
2008-05-09, 09:03:44
- 300 Schiffe pro Tag
- 280.000 qm Lagerfläche
- 1,2 km2 Freihandelszone und 320.000qm Handelszone
- über 370 (Twenty-foot Equivalent Unit) pro Stunde

...und er findet die richtige Palette, mit kleinen Kartons ohne Umverpackung und Labels ohne Details? ;D

Nunja, ich kenn mich zwar nicht aus, aber Nv verschickt nicht nur eine Palette sondern sicherlich mehrere hundert die auf vers. Lagerhallen verteilt sind, je nachdem wo hin die Ware soll. Von daher is das gar net mal soo unrealistisch.

Gast
2008-05-09, 10:53:32
Der G92 Shrink auf 55nm wird hier wohl mit dem GT200 (G2xx) verwechselt. War klar, sobald herauskommt, dass GT200 nicht im November sondern vorzeitig kommen wird. Oder es bleibt beim alten und im November kommt der GT200 und der G92 Shrink auf 55nm war sehr erfolgreich und ersetzt die bisherige G92 Palette.
Aufjedenfall sind es 2 GPUs, wann sie kommen, sehen wir nach der Computex.

Gast
2008-05-09, 10:54:37
...und er findet die richtige Palette, mit kleinen Kartons ohne Umverpackung und Labels ohne Details? ;D

das er es gefunden haben soll, impliziert aber das er los zog um genau danach zu suchen.
das ist aber nicht der fall.
von den 8000 besuchern die diesen tag dawaren und rumgeschaut haben hat es gerade einer durch zufall gesehen und gepostet. das ist ein sehr realistischer schnitt, da ihn die anderen 7999 leute es nicht gesehen haben, da sie in anderen hallen waren.
einer hat halt immer glück und entdeckt etwas

MEDIC-on-DUTY
2008-05-09, 11:01:35
das er es gefunden haben soll, impliziert aber das er los zog um genau danach zu suchen.
das ist aber nicht der fall.
von den 8000 besuchern die diesen tag dawaren und rumgeschaut haben hat es gerade einer durch zufall gesehen und gepostet. das ist ein sehr realistischer schnitt, da ihn die anderen 7999 leute es nicht gesehen haben, da sie in anderen hallen waren.
einer hat halt immer glück und entdeckt etwas

OK, wir werden es wohl erst mit dem Release erfahren. Ich denke, das Thema können wir abhaken.

Ailuros
2008-05-09, 11:18:06
würde vieleicht erklären was GT200 heißt ... wie wäre es mit geforce try 200?

@w0mbat
der geplante DX11 chip G100 wird wohl auch DX11 bleiben.
es kann aber gut sein das man diesen zum G110 oder sonst was macht und ein umgebauter G100 DX10.1 beherrscht.

Die Wette wuerde ich heutzutage aber nicht mehr so leicht eingehen LOL :P

[fu]121Ah
2008-05-09, 11:33:25
Die Anbindung des Speichers an den Chip benötigt auch eine bestimmte Fläche. Die geshrinkte Fläche sollte mit 256bit kleiner seins als mit 384bit.
Es macht keinen Sinn, aufgrund von mehr Bandbreite gleich die ganzen Kosten zu erhöhen, wenn man auf die ZUkunft betrachtet es deutlich einfacher mit GDDR5 erreichen könnte.
R600 wurde verramscht, weil ihn niemand gekauft hat. Und die GTS-320 wurde doch als Notlösung geboren. Beides sind aber Produkte, die eigentlich nie soweit unten angesiedelt werden sollten.
die fläche für die speicheranbindung hat nicht viel mit der die grösse zu tun. das macht das package. klar müssen mehr connectors raus, aber das ist in diesem bereich eher die frage des packages und wie gut/gross/fortgeschritten alles ist.

Godmode
2008-05-09, 16:19:39
Ich hab gerade was intersantes in der aktuellen PCGH gelesen:

auf der letzten Seite steht: Worte des Monats: "Der mögliche G92-Nachfolger GT200 wird rund 200 Shader-Einheiten (G92: 128) besitzen." Quelle: Jeff Brown, Nvidia

Rund 200 deutet doch wieder eher auf 192 hin, weil für 240 hätte er wohl über 200 gesagt. Was meint ihr dazu?

Das würde dann auch zu dem Passen, was der Typ bei B3D geschrieben hat, vonwegen Specs sind nicht so heftig, aber die Leistung überzeugt, warum auch immer!

Coda
2008-05-09, 16:21:25
121Ah;6490221']die fläche für die speicheranbindung hat nicht viel mit der die grösse zu tun.
Doch tut es. Man hat nur eine begrenzte Ball-Anzahl pro Die-Fläche bei Flip-Chip.

deekey777
2008-05-09, 16:23:06
Ich hab gerade was intersantes in der aktuellen PCGH gelesen:

auf der letzten Seite steht: Worte des Monats: "Der mögliche G92-Nachfolger GT200 wird rund 200 Shader-Einheiten (G92: 128) besitzen." Quelle: Jeff Brown, Nvidia

Rund 200 deutet doch wieder eher auf 192 hin, weil für 240 hätte er wohl über 200 gesagt. Was meint ihr dazu?

Das würde dann auch zu dem Passen, was der Typ bei B3D geschrieben hat, vonwegen Specs sind nicht so heftig, aber die Leistung überzeugt, warum auch immer!
Hardware / 11.04.2008 / 12:07
http://www.golem.de/showhigh2.php?file=/0804/58955.html

Jeff Brown erklärte freimütig und ohne danach gefragt worden zu sein, dass die nächste Architektur tatsächlich "GT-200" heißt. Die GPU soll aus rund einer Milliarde Transistoren bestehen, und das sei "reine Logik, kein Speicher wie bei CPUs", meinte der Nvidia-Manager. Dieser enorme Schaltungsaufwand deckt sich mit bisherigen Gerüchten, nach denen der GT-200 rund 200 Shader-Einheiten besitzen soll.
Ich glaube kaum, dass diese Aussage relevant ist.

AnarchX
2008-05-09, 16:26:52
auf der letzten Seite steht: Worte des Monats: "Der mögliche G92-Nachfolger GT200 wird rund 200 Shader-Einheiten (G92: 128) besitzen." Quelle: Jeff Brown, Nvidia

Wann soll das Jeff gesagt haben? :|

http://www.golem.de/0804/58955.html
Laut Golem, hat er nur den Codename und die ~ 1Mrd. Transistoren bestätigt, die 200 Shader haben sie selbst als umhergehendes Gerücht ergänzt.

Und die 240 kamen auch von Nvidia:
http://messages.finance.yahoo.com/Stocks_(A_to_Z)/Stocks_N/threadview?m=tm&bn=13029&tid=435392&mid=435402&tof=7&rt=2&frt=2&off=1

K4mPFwUr$t
2008-05-09, 17:16:18
Die Wette wuerde ich heutzutage aber nicht mehr so leicht eingehen LOL :P
gibt es denn architekturbezogen keine zu großen unterschiede zwischen DX10 und DX11, so dass das einfach umsetzbar wäre?

Coda
2008-05-09, 17:18:05
Es gibt noch überhaupt keine Informationen zu DX11, außer dass es offenbar diesen Tesselator enthalten wird.

Wobei ich da auch noch nicht so sicher sein würde, NVIDIA hat aus meiner Meinung nach gutem Grund wohl keinen Bock drauf.

Godmode
2008-05-09, 18:09:57
Wann soll das Jeff gesagt haben? :|

http://www.golem.de/0804/58955.html
Laut Golem, hat er nur den Codename und die ~ 1Mrd. Transistoren bestätigt, die 200 Shader haben sie selbst als umhergehendes Gerücht ergänzt.

Und die 240 kamen auch von Nvidia:
http://messages.finance.yahoo.com/Stocks_(A_to_Z)/Stocks_N/threadview?m=tm&bn=13029&tid=435392&mid=435402&tof=7&rt=2&frt=2&off=1

Ich habe keine Ahnung wann er das gesagt hat, aber wenn PCGH es in ihr Heft druckt?

K4mPFwUr$t
2008-05-09, 18:23:33
oftmals interpretiert die redaktion da sehr viel rein :rolleyes:
da ist PCGH nicht allein ;D

gamingforce
2008-05-09, 18:26:59
PCGH halt wenn man sich auf die verlässt ist man verlassen ;D

Die gelbe Eule
2008-05-09, 18:55:25
Wie könnte man denn den Namen "GT200" aufschlüsseln?
G = GeForce T = Time, Tesla, Tech, Theory, Test, Tesselation (?) 200 = Faktor irgendwas, Modellreihe

reunion
2008-05-09, 19:01:58
Wie könnte man denn den Namen "GT200" aufschlüsseln?
G = GeForce T = Time, Tesla, Tech, Theory, Test, Tesselation (?) 200 = Faktor irgendwas, Modellreihe

Ten wäre wohl am naheliegendsten nach der Geforce 9.

Die gelbe Eule
2008-05-09, 19:12:01
Somit würde es ja dann keine GF9 mehr geben. Ich glaube auch deshalb wollte NV alles in die 9er Serie drücken, sonst hätte man mit GS/GT/GTS gleich drei Modellreihen und da blickt keiner mehr durch.

Hvoralek
2008-05-09, 19:28:00
Ten wäre wohl am naheliegendsten nach der Geforce 9.Entweder das oder Tegra.

Die gelbe Eule
2008-05-09, 19:37:07
Tegra sollte ja demnach eher Auslagerung bedeuten, nur was könnte man bei der GPU auslagern?
Dieses G & S: Integrated circuits könnte ja Geometry & Shading bedeuten, welche zusammen integriert ausgelagert werden.
Die Geometrieeinheit sollte doch laut DX10 Specs ausgelagert sein, damit sie konform geht oder liege ich da falsch?
Ich weiß hört sich abenteuerlich an ^^

Hvoralek
2008-05-09, 20:27:13
Tegra sollte ja demnach eher Auslagerung bedeuten, nur was könnte man bei der GPU auslagern?Wieso "Auslagerung"? :confused:

K4mPFwUr$t
2008-05-09, 20:28:49
auslagern?
momentan ist doch eher das gegenfall der trend.
siehe der videoprocessor vom G80 wurde beim G92 integriert.

die sinnvollste bedeutung vom T wird wohl tera sein.

tombman
2008-05-09, 20:36:42
Bei mir sinds 23 Seiten in diesem thread....ich verstehe nicht, wie man so lange über absolut Unbekanntes palavern kann..

Schmeißt ihr alle in einen Topf Kohle hinein, und derjenige, der am nähesten mit seiner Speku dran ist, gewinnt? :confused:

Die gelbe Eule
2008-05-09, 20:37:47
Schaue ich aufs PCB von meiner GS, so ist immernoch Platz für den NVIO, Lötstellen vorhanden.
Tegra würde ich von tegrare = wiederherstellen, ergänzen ableiten. Sowas muss nicht alles zwingend in einen Chip gepackt werden.

Hvoralek
2008-05-09, 20:45:33
Bei mir sinds 23 Seiten in diesem thread....ich verstehe nicht, wie man so lange über absolut Unbekanntes palavern kann..Lies es doch einfach durch - bzw. überflieg den Thread mal, wenn es Dich interessiert.

Das ist übrigens schon der zweite Teil. Und den R520- Thread kennst Du sicherlich auch? :wink:

Tegra würde ich von tegrare = wiederherstellen, ergänzen ableiten. Sowas muss nicht alles zwingend in einen Chip gepackt werden.Und wie kommst Du von "wiederherstellen" auf "auslagern"?

Mich würde ein Bezug auf Latein ohnehin ziemlich erstaunen. Ich vermute eher eine Abkürzung für "Teraflops Graphics". Würde doch gut passen mit dem ersten Nvidiachip, der 1 Teraflops liefert.

Die gelbe Eule
2008-05-09, 20:49:34
Auslagern im Sinne von 2 nativen Kernen. Sollte G&S wirklich Geometrie und Shader sein, welche dann miteinander verbunden werden, somit also der eine den anderen Kern ergänzt, hätte man die Bedeutung von Tegra.

K4mPFwUr$t
2008-05-09, 21:03:58
der GT200 soll doch ein single chip werden und keine dual lösung ala GX2.

es gibt viel mehr gerüchte die besagen das es sich um ein single chip handelt als um ein dual chip.
nur weil fud vor einiger zeit behauptet es könnte sich vieleicht um einen dualchip aus G92b handeln, muss es nicht stimmen.

beim R700 kommen ja laut fud auch 512bit SI ins gespräch, obwohl es absolut absurd ist für ein RV chip.

selbst der nV CEO ist kein fan von dual lösung, wie er mal in einem interview kund tat :|

_flx
2008-05-09, 21:15:24
[..]
selbst der nV CEO ist kein fan von dual lösung, wie er mal in einem interview kund tat :|

Sicher das er das nur nicht ist weil A/A die X2-Schiene fährt?

Die gelbe Eule
2008-05-09, 21:15:43
Nicht zwei PCBs übereinander, sondern zwei GPUs auf einem PCB.

K4mPFwUr$t
2008-05-09, 21:26:19
@fezy
auch nV fährt diese ;)
die X2 und GX2 karten sind in meinen augen nur notlösungen. mit der 3870 X² ist es A/A gelungen die 88U zu schlagen (wenn man die ganzen nachteile von multi-gpu außen vor lässt).

aber auch gegen die GX2 hatte er damals nicht gerade posetiv gestimmt.

@die gelbe eule
was ändert das an der situation?
sei es zwei PCBs oder eine, multi-gpu bleibt multi-gpu.
und das der GT200 ein konzept wie der R700 (setzt sich wohl aus 2x RV770 zusammen) verfolgt darf bezeifelt werden.

Die gelbe Eule
2008-05-09, 21:29:52
Die Situation ist eben die Anbindung, man braucht keine Bridge mehr. Ich hatte mal die Idee von gesockelten GPUs oder VRAM, doch hat man da schon geschimpft, daß die Anbindung zu lahm wäre. Hat vielleicht jemand mal ne 7800GT Dual und 7800GT SLi im Vergleich? Dann könnte man dort sehen, was effizienter ist.

_flx
2008-05-09, 21:30:34
Ja das stimmt schon..
Ich dachte nur weil A/A das so "groß" angekündigt hat.

Bitte nicht falsch verstehen =)

Gast
2008-05-09, 21:37:40
was ich mir über die verwirrung über die Namensgebung bei Nvidia überlegt habe:

vielleicht ist Gt200 der Marketingname so wie es der 9800 und co für den g92 ist? Ich meine Nvidia hat jetzt auch das Problem wie ATI damals, dass sie jetzt einen neuen Namen brauchen..... G100 wäre dann einfach der interne Name für den Nachfolgechip. Der g92b einfach eine übergangslösung.

AnarchX
2008-05-09, 22:44:37
http://img216.imageshack.us/img216/1631/newcardoi3fp6.png (http://imageshack.us)
http://img294.imageshack.us/img294/1982/newcard2ya6up6.png (http://imageshack.us)

http://www.xtremesystems.org/forums/showthread.php?t=187241

Monströses Package und NVIO ist wohl wieder an Board. :D

K4mPFwUr$t
2008-05-09, 22:50:45
die linke wird wohl die GTS sein und die rechte die GTX.
allerdings finde ich es verwirrend das bei NVIO scheinbar zwei versionen vorhanden sind.

aber alle male ist es ein monster package, vieleicht zeigt der große weiße klecks auch nur den IHS ;D ich hoffe er kommt ohne IHS, der wärmeübergang war ja nicht gerade optimal beim G80.

Nightspider
2008-05-09, 22:52:11
Vllt sind da wirklich 2 Cores drunter, weshalb der IHS so groß ist...

(Ich hoffs nicht...)

Hvoralek
2008-05-09, 22:54:26
Die Situation ist eben die Anbindung, man braucht keine Bridge mehr. Ich hatte mal die Idee von gesockelten GPUs oder VRAM, doch hat man da schon geschimpft, daß die Anbindung zu lahm wäre. Hat vielleicht jemand mal ne 7800GT Dual und 7800GT SLi im Vergleich? Dann könnte man dort sehen, was effizienter ist.Das Problem bei gesockelten GPUs/ VRAM wäre die Kommunikation zwischen GPU und dem zugehörigen RAM. Die läuft bei Mehrchipkarten und Mehrkartenkonstuktionen wie gehabt. Die Kommunikation zwischen den Chips ist Kleckerkram.

Verstehe ich Dich richtig: Du bist der Meinung, GT200 bestehe aus zwei unterschiedlichen Chips, wobei die Funktionseinheiten zwischen ihnen aufgeteilt werden: Einer bekommt Geomertie und Arithmetik, der andere den Rest? Das würde neben Nvidias bisherigem Verhalten den Angaben bzgl. eines Riesendies widersprechen. Dafür bräuchte man auch wirklich eine ganz andere Anbindung zwischen den Chips als heute, weil darüber praktisch konventionell chipinterne Kommunikation laufen müsste. Gibt es außer Deiner... kreativen Auslegung des "T" in GT200 irgendetwas, was darauf hindeutet? Wenn es um den ursprünglichen R700 ginge, könnte man in die Richtung mutmaßen; da gab es zumindest Gerüchte über ein völlig neues Multi- GPU- Konzept, aber bei GT200... :|

Gast
2008-05-09, 22:58:27
die linke wird wohl die GTS sein und die rechte die GTX.
Wenn überhaupt, dann genau dem entgegengesetzt. ;) Man beachte z.B. die Stromstecker, oder den jeweils linken Bereich der Karten.

Unyu
2008-05-09, 22:58:45
Der G80 IHS sieht imho (mit dem Rahmen) mindestens genauso groß aus.

tombman
2008-05-09, 22:59:13
Monströses Package und NVIO ist wohl wieder an Board. :D
Kann irgendwer die Karten auseinanderhalten? Da stimmt doch was mit der Sichtbarkeit nicht, oder?

Und was soll bei der linken Karte der Stromanschluß links??

AnarchX
2008-05-09, 23:02:46
Und was soll bei der linken Karte der Stromanschluß links??
Der gehört wohl eher zum rechten PCB und wurde etwas verschoben.

Imo sind doch beide PCBs das gleiche, eben wie der TI schon sagt PCB P651.

btw.
Wohlmöglich ist der kleine Chip doch kein NVIO, sondern der Displayport-Transmitter.
... zu großes Package.

K4mPFwUr$t
2008-05-09, 23:03:19
@gast
stimmt, den hab ich ganz übersehen bei grau auf grau ;)

@tombman
musst ganz genau hinschauen bei den stromconnectoren, den 6er bei der GTX links sieht man kaum da er grau auf grau ist..

@topic
wegen den externen NVIO kann man sich nur erklären das man wie beim G80 dazu übergeht wenn die DIE zu groß ist und so einen gewissen teil auszulagern. kommt ja der DIE size und der yield zu gute.

dargo
2008-05-09, 23:04:12
http://img216.imageshack.us/img216/1631/newcardoi3fp6.png (http://imageshack.us)
http://img294.imageshack.us/img294/1982/newcard2ya6up6.png (http://imageshack.us)

http://www.xtremesystems.org/forums/showthread.php?t=187241

Monströses Package und NVIO ist wohl wieder an Board. :D
Und mir wollte damals keiner das mit dem "externen" NVIO glauben. ;)

Sorkalm
2008-05-09, 23:05:33
Und was soll bei der linken Karte der Stromanschluß links??

Das wäre dann 2x 6-Pin und 1x 8-Pin - zudem auch noch der eine 6-Pin an ungünstiger Stelle (besonders für SLI-Systeme). Doch irgendwie unwahrscheinlich.

Die Käufer der GTS dürften sich auch freuen, die brauchen nämlich eindeutig einen 8-Pin-Stecker. Ein 6er wird wohl nicht reichen, und zwei 6er sind nicht möglich. Naja, werden ein paar neue Netzteil im High-End verkauft. :)

dargo
2008-05-09, 23:07:34
Die Käufer der GTS dürften sich auch freuen, die brauchen nämlich eindeutig einen 8-Pin-Stecker. Ein 6er wird wohl nicht reichen, und zwei 6er sind nicht möglich. Naja, werden ein paar neue Netzteil im High-End verkauft. :)
Wozu gibts Adapter? ;)
Diese könnten sogar durchaus in der Verpackung mitgeliefert werden.

Nightspider
2008-05-09, 23:08:10
NVIO ist dank 65nm so klein, der passt auch in den GT200 rein (reim sich sogar ;D )

Ich wette das ist der kleine Grafikchip, der die Funktion im Idle-/Windows-Betrieb übernimmt.

Schließlich sollte ab dieser neuen Generation die neue HighEnd Generation neue Stromsparmechanismen besitzen...könnte demnach sowas wie ein Onboard-Hybrid SLI Chip sein, damit der "klopper"-Chip nicht >100 Watt im Idle verbraucht... :uponder:

K4mPFwUr$t
2008-05-09, 23:08:58
@Sorkalm
die anschlüsse liegen schon wie bei den älteren karten, ist nur auf den bildern schwer erkennbar.
durch die übereinander geschobene sicht und farbschema.

wegen dem stromanschluss, gibt doch adapter dafür.
zwar nicht optimal aber reichen sollte es ja :conf:

@dargo
bist bestimmt ein insider ;D

@Nightspider
da hätte man aber gewisse redundanzen bei den beiden chips.
finde eine interne abschaltung bzw. takt und voltage anpassung sollte reichen.
das es geht hat ja ATI mit powerplay bewiesen bei der HD3000.

@tombman
der linke kreis zeigt den SLI connector verwirrt mich jetzt auch, 3 anschlüsse o_0?
der rechte kreis den 2x6 pin und 1x8 pin powerconnector.

tombman
2008-05-09, 23:10:32
ALso ich sehe da keine klare Abgrenzung der Karten...egal wie ich schaue.

Ich zeig euch mal wo:
http://img91.imageshack.us/img91/3084/newcardoi3fp6wh2.th.png (http://img91.imageshack.us/my.php?image=newcardoi3fp6wh2.png)

Bitte die roten Bereiche erklären. Die können so nicht stimmen, wenn die rechte Karte VOR der linken Karte ist, was auch sein muß, da der rechte NVIO sichtbar ist.

Nightspider
2008-05-09, 23:13:44
@Nightspider
da hätte man aber gewisse redundanzen bei den beiden chips.
finde eine interne abschaltung bzw. takt und voltage anpassung sollte reichen.
das es geht hat ja ATI mit powerplay bewiesen bei der HD3000.

Wäre doch super fürs Marketing, wenn die Karte im Idle anstatt 80-100 Watt nurnoch 10-20 Watt verbraten würde oder ? Die Speicherchips könnte man im Windows bestimmt auch abschalten...dann würde fast nurnoch der Mini-Grafikchip ein paar Watt saugen...

tombman
2008-05-09, 23:13:57
Der 8 pin der rechten Karte hat daneben noch die Lötpuntke des 6 pin Steckers, damit ist eindeutig, daß der 8 pin in der Mitte des Bildes zur LINKEN Karte gehört, ebenso der angrenzende 6 pin.
Was aber dazu führen würde, daß die linke Karte DREI (3) Stromanschlüsse hat, und die rechte nur einen --> = bullshit.

Und falls der mittige 6 pin doch zur rechten Karte gehört, wieso ist dann der mittige 8 pin sichtbar? Der müßte dann vom pcb der rechten Karte überdeckt sein --> es paßt einfach nicht zusammen.

K4mPFwUr$t
2008-05-09, 23:16:57
@nightspider
da stelle ich mir die realisierung mit beiden chips schwerer vor als direkt dem großen chip sowas zu verpassen ;)

müsste ja alles doppelt angebunden werden.

@tombman
ich kann es mir nur so erklären das:
a) bei der GTX die wahl steht zwischen 2x 6x2 pin oder 1x 8x1 pin
b) bei der GTX die wahl steht zwischen 2x 6x2pin oder 1x 6x2 pin und 1x 8x1pin

wenn die GTS version nur einen anschluss hat, wird sie wohl eine gute ecke weniger strom ziehen als der große bruder --> größerer abstand als man vll. bei dem G80 hatte.

dargo
2008-05-09, 23:18:51
ALso ich sehe da keine klare Abgrenzung der Karten...egal wie ich schaue.

Ich zeig euch mal wo:
http://img91.imageshack.us/img91/3084/newcardoi3fp6wh2.th.png (http://img91.imageshack.us/my.php?image=newcardoi3fp6wh2.png)

Bitte die roten Bereiche erklären. Die können so nicht stimmen, wenn die rechte Karte VOR der linken Karte ist, was auch sein muß, da der rechte NVIO sichtbar ist.
Ich verstehe nicht ganz worauf du hinauswillst? :)
Die rechte Karte hat doch ein völlig anderes PCB als die linke. Die "GTS" unterstützt nach diesem Bild SLI, die "GTX" Triple-SLI.

Wenn ich mir die Stromanschlüsse so anschaue könnten diese 240W TDP für die GTX durchaus stimmen. Mit 2x 6Pin wäre man bei 225W TDP am Ende. Deswegen der 8Pin-Anschluss. Die GTS kommt über 150W TDP (ich würde sie auf 180-190W ausgehend von den 240W der GTX schätzen) da sonst der 8Pin-Anschluss überflüssig wäre.

AnarchX
2008-05-09, 23:20:04
Ist es denn so schwer nachzuvollziehen, dass dieser sinnlos "angebrachte" 6 Pin-Anschluss einfach verschoben wurde und zur rechten Karte gehört, wo entsprechende Lötstellen vorhanden sind? ;)

Zudem, wie schon gesagt, es ist beides P651, also das gleiche PCB, was wohl für die GTX eingesetzt wird bzw. auch für die GTS, wenn diese eben nicht soweit entfernt ist von ernsterer.

Warum da nun zwei überschneidende PCBs im Viewer sind muss man halt nicht unbedingt verstehen. :|

tombman
2008-05-09, 23:22:25
Ich verstehe nicht ganz worauf du hinauswillst? :)
Diese Bilder können so nicht stimmen, weil die Sichtbarkeit nicht stimmt.

Schreib mir mal über jeden 6 oder 8 pin ein "L" oder "R" um kennzuzeichen zu welcher Karte welcher Stromanschluß gehört. "L" steht für linke Karte, "R" für rechte Karte.

tombman
2008-05-09, 23:24:37
Ist es denn so schwer nachzuvollziehen, dass dieser sinnlos "angebrachte" 6 Pin-Anschluss einfach verschoben wurde und zur rechten Karte gehört, wo entsprechende Lötstellen vorhanden sind? ;)
[...]
Warum da nun zwei überschneidende PCBs im Viewer sind muss man halt nicht unbedingt verstehen. :|
Aha, also ein frei im Raum verschobener 6pin und ansonsten haufenweise Sichtbarkeitsfehler - und das in einem Profiprogramm :rolleyes:

dargo
2008-05-09, 23:27:02
Diese Bilder können so nicht stimmen, weil die Sichtbarkeit nicht stimmt.

Ich sehe jetzt erst, dass die linke Karte noch ganz links einen 6Pin-Anschluss hat. Sorry, bin wohl müde. ;(
Das ergibt für mich aber überhaupt keinen Sinn. Seit wann ist ein Stromanschluss so weit von der Stromversorgung entfernt? :|

Don Vito
2008-05-09, 23:40:10
Wenn ich das richtig sehe überlappen sich die beiden Karten gegenseitig

AnarchX
2008-05-09, 23:40:17
Aha, also ein frei im Raum verschobener 6pin und ansonsten haufenweise Sichtbarkeitsfehler - und das in einem Profiprogramm :rolleyes:

Profi-App meets leaking DAU? :D

Mal auf die schnelle:
http://img518.imageshack.us/img518/1350/gt200pcbxb6.jpg
;)

Die auf dem PCB vorgesehen Schraubenlöcher, passen zudem auch zu Visionarys Kühler-Skizze:
http://resources.vr-zone.com/newspics/Apr08/29/TM71.jpg

Slipknot79
2008-05-09, 23:50:36
>Was aber dazu führen würde, daß die linke Karte DREI (3) Stromanschlüsse hat

Wahrscheinlich wird bei Triple SLI der Strom von der einen Karte über den PCIe-Port an die anderen beiden Karten weitergeleitet :redface:

Gast
2008-05-09, 23:59:10
Ich sehe jetzt erst, dass die linke Karte noch ganz links einen 6Pin-Anschluss hat. Sorry, bin wohl müde. ;(
Das ergibt für mich aber überhaupt keinen Sinn. Seit wann ist ein Stromanschluss so weit von der Stromversorgung entfernt? :|

Der ganz links ist für die Kaffeemaschiene

Die gelbe Eule
2008-05-10, 00:02:24
Was wohl sicher ist, Triple SLi, NVIO, 6+8 Pin, im ganzen die Reinkarnation des G80 als Monster.
681 Mio Transis waren vorher in 90nm drin, nun sind also locker 1.1 Mrd möglich. G92 hat ja bekanntlich 754 Mio und PCi-E 2.0, NVIO sowie VP2 integriert. Auf dem GT200 lagert man das nun wieder aus (Deswegen vielleicht Tegra = Wiederherstellen, man geht zurück zu den G80 Wurzeln), VP3 kommt natürlich hinzu. NVIO war vorher in 110nm produziert worden, man hat also wenn man hier auch 55nm nutzt, doppelt so viel Platz, kann wahrscheinlich 150 Mio Transistoren extra unter die Haube bekommen.
Wieviel das SI, die Anzahl der Shader, ROPs und TMUs kosten werden, kann man sich vielleicht nun genauer zurechtspekulieren.

AnarchX
2008-05-10, 00:09:06
NVIO war vorher in 110nm produziert worden, man hat also wenn man hier auch 55nm nutzt, doppelt so viel Platz, kann wahrscheinlich 150 Mio Transistoren extra unter die Haube bekommen.

Das wäre mal absoluter Unsinn:
1. war wohl NVIO eher im einstellligen Mio. Bereich bzw. knapp drüber
2. war schon bei 110nm ein großer Teil des Dies leer, da man sonst nicht die benötigen Pins nach außen führen hätte können

Bleibt abzuwarten, ob es sich wirklich hier um NVIO handelt und wenn inwiefern NV diesen benötigt, immerhin hat ja G9x gezeigt, dass jede seiner Aufgaben integriert werden konnte.

Die gelbe Eule
2008-05-10, 00:14:30
Falls es kein NVIO ist, dann vielleicht eine Art Hybrid SLi/Geforce Boost on PCB?

gamingforce
2008-05-10, 00:38:11
oder vieleicht dieser Agaia Physik X Chip ?

Gast
2008-05-10, 00:40:54
oder vieleicht dieser Agaia Physik X Chip ?
Das wäre schon pervers :)))

gamingforce
2008-05-10, 00:42:07
ja ich weiss es nicht, hab ich mir grad so gedacht weil Nvidia das Zeug ja aufgekauft hat :confused:

AnarchX
2008-05-10, 00:48:35
X-D
Was für eine Theorie kommt als nächstes? Quantenchip? Unwahrscheinlichkeitsdrive? ;D

PhysX ist sicherlich nicht, da es hier eine Umsetzung für CUDA geben wird, die dann direkt auf den SPs der GPU ausgeführt wird. Und Hybrid-SLI mag ich auch eher zu bezweifeln.

Auf Grund der Position wird der Chip schon irgendeine IO-Funktionalität haben, vielleicht irgendetwas Spezielles für Quadro/Tesla.

AnarchX
2008-05-10, 09:12:32
Nun nochmal bessere Bilder:
http://img87.imageshack.us/img87/899/attachment2e16e332bp4.th.jpg (http://img87.imageshack.us/my.php?image=attachment2e16e332bp4.jpg)http://img169.imageshack.us/img169/1707/attachment2e16d5a5dz6.th.jpg (http://img169.imageshack.us/my.php?image=attachment2e16d5a5dz6.jpg)

Zudem sieht man hier nun auch, dass es insgesamt 16 Speicherchips sind, die eben für ein 512-Bit SI benötigt werden.

Ausserdem hat der Leaker die entsprechende Datei hochgeladen, sodass man sich die Karte selbst in entsprecheden Editoren anschauen kann:
http://www.mediafire.com/?gem3dcyjd9y
z.B. : http://www.ida-step.net/download

GeneralHanno
2008-05-10, 09:26:43
also, laden, in die editoren packen und pics hochladen ;)

darf ich nochmal fragen, wie viel watt ein 8pin bzw 6pin stromanschluss max liefert? PCIe2-port=150W , PCIe-port=75W ?

horn 12
2008-05-10, 09:27:01
Also doch G92b oder wie siehst du dies nun AnarchX?
Was ist derzeit davon zu halten?

AnarchX
2008-05-10, 09:28:18
Also doch G92b oder wie siehst du dies nun AnarchX?

:|
G92B != 512-Bit
G92B != Bedarf für ein monströses Package
...


darf ich nochmal fragen, wie viel watt ein 8pin bzw 6pin stromanschluss max liefert? PCIe2-port=150W , PCIe-port=75W ?
6 -> 75W
8 -> 150W
PCIe Gen1 oder 2 -> 75W

Also mit Port sind es 300W max., was auch zur TDP von ~ 250W passt und eben auch noch Raum für entsprechende OC-Versionen lässt.

gamingforce
2008-05-10, 09:41:21
Nun nochmal bessere Bilder:
http://img87.imageshack.us/img87/899/attachment2e16e332bp4.th.jpg (http://img87.imageshack.us/my.php?image=attachment2e16e332bp4.jpg)http://img169.imageshack.us/img169/1707/attachment2e16d5a5dz6.th.jpg (http://img169.imageshack.us/my.php?image=attachment2e16d5a5dz6.jpg)

Zudem sieht man hier nun auch, dass es insgesamt 16 Speicherchips sind, die eben für ein 512-Bit SI benötigt werden.

Ausserdem hat der Leaker die entsprechende Datei hochgeladen, sodass man sich die Karte selbst in entsprecheden Editoren anschauen kann:
http://www.mediafire.com/?gem3dcyjd9y
z.B. : http://www.ida-step.net/download

ja ne ist klar ;D

16 Chips und werden 512 Bit SI gebraucht, und die 8800GT Spuer mit 1Gb hat auch 512 Bit oder wie :|

Wenn NV wirklich so dumm ist und der karte nen 512 Bit Si verpasst statt GDDR5 (was viel billiger ist) ist den nichtmehr zu helfen.
Diese Karte wird die teuerste die wir überhaupt hatte und wird sogar den Preis übersteigen als die GTX raus gekommen ist den trommeln wohl die Locken oder was :uhammer:

Und dann bau ich mir wieder solchen alten Müll in PC oder wie und 240 Watt die haben sie wohl nichtmehr allewer zum Teufel kauft den scheiss ?
Wir leben in der Zukunft wo die Karten eigentlich kleiner, Stromsparender, Leiser, Kühler und billiger werden.
Bei diesem Produkt (wenn es so kommt was ich eh nicht glaube) trifft das alle nicht zu:rolleyes:

Die Karte wird sich genauso toll verkaufen die die GX2, nämlich garnicht ;D (ausser paar freaks)

ich seh schon die neuen ATIs als P/L König.

Gast
2008-05-10, 09:48:44
;D so früh am Morgen und schon so zu ;D

die "richtige" Variante kommt eh erst zum Weinachts Geschäft.
Und die hier ist so schnell abverkauft wie die GX2, wo lebst du?

gamingforce
2008-05-10, 09:50:01
;D so früh am Morgen und schon so zu ;D

die "richtige" Variante kommt eh erst zum Weinachts Geschäft.
Und die hier ist so schnell abverkauft wie die GX2, wo lebst du?

in der Realität Junge:rolleyes:

so schnell abverkauft wie die GX2 ja?
Das Ding steht wie ein Stein in den Regalen und werden sie nicht los ganz einfach.

GeneralHanno
2008-05-10, 10:12:22
Die karte wird (trotz 240W TDP) einen vorteil gegenüber der GX2 haben, sie ist ein singelchip design und d.h. sie skaliert - anders als die GX2 - linear mit der leistungsaufnahme. ergo: viel verbrauch, dafür aber göttliche leistung => der quotient heißt leistung/watt (=effizienz) und der wird BESSER sein als bei der 98GX2 oder der 88GTX !

PS: wir haben die 1000er marke geknackt ;)

K4mPFwUr$t
2008-05-10, 10:44:38
die neuen bilder sind wirklich besser, die alten waren doch etwas sehr merkwürdig :|
teilweise hatte man das gefühl man könne durch PCB sehen *superkräfte habe* :biggrin:

horn 12
2008-05-10, 11:03:53
Da verkauft sich nun, bzw. eigentlich schon immer die HD3870 X² bei weitem besser als die GX2 von NV.
Preislich die GX2 kanpp 400 Euro, die X² gibt es schon für 266 Euro,
in Italien heute Tiefstpreis, 241 Euro ---> GENIAL!!:eek::eek:

gamingforce
2008-05-10, 11:53:27
Die karte wird (trotz 240W TDP) einen vorteil gegenüber der GX2 haben, sie ist ein singelchip design und d.h. sie skaliert - anders als die GX2 - linear mit der leistungsaufnahme. ergo: viel verbrauch, dafür aber göttliche leistung => der quotient heißt leistung/watt (=effizienz) und der wird BESSER sein als bei der 98GX2 oder der 88GTX !

PS: wir haben die 1000er marke geknackt ;)

achja? zeig mal deine Quellen dafür ;)

Du (ihr) weisst noch garnichts also hör auf zu reden als ob du schon die Karte live gesehen hast solch Kindergarten:rolleyes:

dargo
2008-05-10, 12:01:59
@gamingforce

Haben wir einen neuen Klugsche... im Forum? Wer zwingt dich überhaupt die Karte zu kaufen?

gamingforce
2008-05-10, 12:07:51
@gamingforce

Haben wir einen neuen Klugsche... im Forum? Wer zwingt dich überhaupt die Karte zu kaufen?

:|

der einzige der nicht Klugscheissen tut bin wohl ich, die es tun wissen schon was der GT200 kann wie er aussehen tut und was er in Games bringt:rolleyes:

Wer hat gesagt das ich die Karte nicht kaufen will ?

Bloss weil sie sau teuer wird heisst das nicht das ich sie nicht kaufe :|

ich weiss es nicht was die Karte können wird oder obs nen Single oder Dulachip wird und ihr genauso wenig also bleibt ma bei der Realität.

oder gebt mir nen Link wo man bei Ebay eure Glaskugel kaufen kann:cool:

puntarenas
2008-05-10, 12:14:00
:|

der einzige der nicht Klugscheissen tut bin wohl ich, die es tun wissen schon was der GT200 kann wie er aussehen tut und was er in Games bringt:rolleyes:

3DCenter Forum > Diskussions-Foren > Spekulationen > GT200 - Neues Highend von NV im Q3 2008? [Teil2]

Dies hier ist das Unterforum "Spekulation". Hier nehmen interessierte User ihr geballtes Fachwissen und fügen Gerüchte und kreative Gedanken zu möglichen Abbildern kommender Hardwareveröffentlichungen zusammen. Die Übrigen interessierten User diskutieren diese dann, decken Widersprüche auf oder bestätigen Vermutungen. Dazu kommen immer wieder Leaks oder Informationen aus Kontakten bei den Herstellern, einige Leute geben sich richtig Mühe, diese in den Tiefen des Internet aufzuspüren und hier zu präsentieren.

Wenn dir spekulative Diskussionen nicht zusagen, dann bleib einfach fern!

Nightspider
2008-05-10, 12:14:08
:|

der einzige der nicht Klugscheissen tut bin wohl ich, die es tun wissen schon was der GT200 kann wie er aussehen tut und was er in Games bringt:rolleyes:

Wer hat gesagt das ich die Karte nicht kaufen will ?

Bloss weil sie sau teuer wird heisst das nicht das ich sie nicht kaufe :|

ich weiss es nicht was die Karte können wird oder obs nen Single oder Dulachip wird und ihr genauso wenig also bleibt ma bei der Realität.

oder gebt mir nen Link wo man bei Ebay eure Glaskugel kaufen kann:cool:

gamingforce, wenn du dich nicht gleich ins bett legst um auszunüchtern stecken wir dich in die Zwangsjacke...

Das tut ja schon weh, wenn man deine Text liest. Da kenn ich ja genug Vietnamesen, die bessere deutsche Texte verfassen können.

gamingforce
2008-05-10, 12:18:40
gamingforce, wenn du dich nicht gleich ins bett legst um auszunüchtern stecken wir dich in die Zwangsjacke...

Das tut ja schon weh, wenn man deine Text liest. Da kenn ich ja genug Vietnamesen, die bessere deutsche Texte verfassen können.

brauchst dich net gleich angepisst fühlen ich weiss die Wahrheit tut weh.

Nightspider
2008-05-10, 12:21:38
brauchst dich net gleich angepisst fühlen ich weiss die Wahrheit tut weh.

Dann empfehl ich dir was von ratiopharm....

gamingforce
2008-05-10, 12:21:58
3DCenter Forum > Diskussions-Foren > Spekulationen > GT200 - Neues Highend von NV im Q3 2008? [Teil2]

Dies hier ist das Unterforum "Spekulation". Hier nehmen interessierte User ihr geballtes Fachwissen und fügen Gerüchte und kreative Gedanken zu möglichen Abbildern kommender Hardwareveröffentlichungen zusammen. Die Übrigen interessierten User diskutieren diese dann, decken Widersprüche auf oder bestätigen Vermutungen. Dazu kommen immer wieder Leaks oder Informationen aus Kontakten bei den Herstellern, einige Leute geben sich richtig Mühe, diese in den Tiefen des Internet aufzuspüren und hier zu präsentieren.

Wenn dir spekulative Diskussionen nicht zusagen, dann bleib einfach fern!


Ich hab überhaupt nichts gegen Spekulationen, bloss sollte man auch bei Spekulationen bleiben und das auch so betonen und nicht sagen:

der GT200 wird nen Monster Singelchip und leistet das und das.

würde da stehen:

ich denke (oder hoffe es) mir der GT200 wird nen Monster Singelchip und leistet das und das

dann ist das ja ok, aber so zu reden als ob es schon in der Bibel steht ist einfach Bullshit.

gamingforce
2008-05-10, 12:23:30
Dann empfehl ich dir was von ratiopharm....
und ich dir das du mal raus an die Frische Luft gehst, und nicht erschrecken wenn es keine Stromanschlüsse hat und nen dicken Kühler, das nennt man Menschen.:rolleyes:

Nightspider
2008-05-10, 12:27:51
Ich hab überhaupt nichts gegen Spekulationen, bloss sollte man auch bei Spekulationen bleiben und das auch so betonen und nicht sagen:

der GT200 wird nen Monster Singelchip und leistet das und das.

würde da stehen:

ich denke (oder hoffe es) mir der GT200 wird nen Monster Singelchip und leistet das und das

dann ist das ja ok, aber so zu reden als ob es schon in der Bibel steht ist einfach Bullshit.

Bleib mal realistisch. Jeder kann schreiben wie er will, das ändert nix am Spekulieren. Hier sind genug Leute drin die das schon seit 'nem Jahrzehnt oder länger machen.
Von bestimmten Dingen kann man einfach ausgehen und viele Spekulationen treffen auch die Wahrheit, nur das man vorher nicht weiß, welche wirklich zutreffen werden.

Ist doch toll wenn jeder versucht Recht zu haben, das ist ja der Spaß daran, wenn man sich beim Release dann vielleicht bestätigt fühlen kann. :biggrin:

Und wenn einige das so formulieren, als wenns in der Grafikchip-Bibel steht dann kann dir das doch egal sein oder ?


Und wenn man dann ließt was du hier so rauslässt...das Nvidia echt nichtmehr zu helfen sei, wenn sie ein 512 Bit-SI einbauen, dann empfehl ich dir erstmal gar nichts mehr zu schreiben, denn Nvidia hat bestimmt ein paar-hundert Ingenieure, die eine höhere Qualifikation, ein immens höheres Wissen und eine Jahrzehnte lange Erfahrung, im Gegensatz zu dir aufweisen können.

Gast
2008-05-10, 12:33:39
Bleib mal realistisch. Jeder kann schreiben wie er will, das ändert nix am Spekulieren.

Und wenn man dann ließt was du hier so rauslässt...das Nvidia echt nichtmehr zu helfen sei, wenn sie ein 512 Bit-SI einbauen, dann empfehl ich dir erstmal gar nichts mehr zu schreiben

im Gegensatz zu dir aufweisen können.

toller widerspruch

Gast
2008-05-10, 12:34:34
Bleib mal realistisch. Jeder kann schreiben wie er will, das ändert nix am Spekulieren.

Und wenn man dann ließt was du hier so rauslässt...das Nvidia echt nichtmehr zu helfen sei, wenn sie ein 512 Bit-SI einbauen, dann empfehl ich dir erstmal gar nichts mehr zu schreiben



toller widerspruch

edit: der eine teil musste noch raus

tombman
2008-05-10, 12:36:40
Die GX2 wird nicht so viel verkauft, weil sie schlicht teuer ist, aber, und jetzt kommts, VERDIENT. Solange ATI eine X2 braucht um die Topmodelle mit single-nv Chip knapp zu hauen, solange braucht Nvidia am Preis der GX2 auch nix ändern.

Und was soll das Gebashe gegen die GT200? Die Karte, wenn die Bilder stimmen, schaut 100% so aus wie man sich eine GT200 von Nvidia vorstellt.
16 Ram-chips, 512bit SI, ein riesen Chip unter der gleichen Decke wie der G80 und ein 6+8 pin Stromdesign.

Das Ding ist nichts anderes als der logische Nachfolger der 8800GTX von 2006. Man hat jetzt eben einen kleineren Fertigungsprozess, also kann man mehr Transistoren draufpacken und eine "8800GTX 2.0" erschaffen.

ICH würde so eine Karte lieben, genau wie ich die 8800GTX geliebt habe- sogar noch mehr, jetzt wo das SLI-Problem bekannt ist.

Da würde ich sofort meine beiden GTX verkaufen, eine Wakü auf die GT200 schnallen und ocen was geht. Das sollte dann für alles reichen was auf dem PC @ 1920x1200 anspruchsvoll ist...

Und wenn man "lustig" ist, dann eben noch ne zweite GT200 dazu (und hoffen, daß 1000 Watt NT ausreicht ;D)

Nightspider
2008-05-10, 12:40:54
toller widerspruch

edit: der eine teil musste noch raus

zwischen einfachem Spekulieren und Spekulieren und sich wie der King aufführen ist ein Unterschied

gamingforce
2008-05-10, 12:41:08
Und was soll das Gebashe gegen die GT200? Die Karte, wenn die Bilder stimmen, schaut 100% so aus wie man sich eine GT200 von Nvidia vorstellt.
16 Ram-chips, 512bit SI, ein riesen Chip unter der gleichen Decke wie der G80 und ein 6+8 pin Stromdesign.



Ich bashe nicht, das was du schreibst klingt doch schon ganz anders was ein einzige Wort alles verändern kann.
:biggrin:
Ich hoffe auch das der GT200 nen dickes Ding wird und hoffenltich auch bezahlbar ist.

gamingforce
2008-05-10, 12:45:28
Und wenn man dann ließt was du hier so rauslässt...das Nvidia echt nichtmehr zu helfen sei, wenn sie ein 512 Bit-SI einbauen, dann empfehl ich dir erstmal gar nichts mehr zu schreiben, denn Nvidia hat bestimmt ein paar-hundert Ingenieure, die eine höhere Qualifikation, ein immens höheres Wissen und eine Jahrzehnte lange Erfahrung, im Gegensatz zu dir aufweisen können.

512 Bit Si würden sie doch nur verbauen um Speicherbandbreite zu bekommen oder nicht?
Warum ein teures Si was man mit GDDR5 für weniger Geld bekommen kann ? :|
Mir solls auch egal sein, ich hoffe bloss das sie es diesmal geschafft haben der Karte in 2D Modus zu spendieren weil sonst gehts der Karte wirklich schlecht egal ob sie die stärkste ist.
Was sie unter Load fressen tut ist glaub ich jedem Jacke wie Hose, aber da ein PC (wie wir hier) zu 50% zum Surfen genommen wird wäre das nichtmehr feierlich.

Nightspider
2008-05-10, 12:53:38
512 Bit Si würden sie doch nur verbauen um Speicherbandbreite zu bekommen oder nicht?


Oder wenn nicht genügend GDDR5-Chips vorhanden sind, zu teuer sind oder erst verspätet auf dem Markt erscheinen.

Oder NV einem Flaschenhals von ~150 GB/s aus dem Weg gehen will, falls sie später noch ne Ultra oder nen Shrink nachschieben, mit höheren Taktraten...wer weiß...

Zumal es sein kann, das man vor 1-2 Jahren, als der GT200 konstruiert wurde, noch davon ausgehen musste, das GDDR5 zum Release-Zeitpunkt nicht verfügbar sein wird.

gamingforce
2008-05-10, 13:04:29
Oder wenn nicht genügend GDDR5-Chips vorhanden sind, zu teuer sind oder erst verspätet auf dem Markt erscheinen.

Oder NV einem Flaschenhals von ~150 GB/s aus dem Weg gehen will, falls sie später noch ne Ultra oder nen Shrink nachschieben, mit höheren Taktraten...wer weiß...

Zumal es sein kann, das man vor 1-2 Jahren, als der GT200 konstruiert wurde, noch davon ausgehen musste, das GDDR5 zum Release-Zeitpunkt nicht verfügbar sein wird.

das nenn ich Spekulation *g*

mhh wann wurde den mit dem GT200 genau angefangen?
Oder kanns vieleicht sein das der Chip (Chips) nicht für GDDR5 gemacht sind?
Weil sonst hätten sie ja auch GDDR4 nehmen können was ja immernoch besser ist als GDDR3^^

K4mPFwUr$t
2008-05-10, 13:17:55
der GT200 wird wohl auf ein breiteres SI setzen als der RV770 es tut ;)
da braucht man kein GDDDR5 der nur spärlich vorkommt.
da reicht auch GDDR3 oder GDDR4, beide nehmen sich im endeffekt nichts von der leistung.

gamingforce
2008-05-10, 13:24:18
der GT200 wird wohl auf ein breiteres SI setzen als der RV770 es tut ;)
da braucht man kein GDDDR5 der nur spärlich vorkommt.
da reicht auch GDDR3 oder GDDR4, beide nehmen sich im endeffekt nichts von der leistung.
ja ist doch schön (für Nvidia) bloss wird es die Normalen User nicht jucken ob sich der RV770 die Leistung mit dem SI oder GDDR5 holt ;)

K4mPFwUr$t
2008-05-10, 13:29:05
hab ich das jemals behauptet, nein!

es ist halt eine frage wellches übel man im kauf nehmen will (breites SI oder seltener und teuerer GDDR VRAM).

Psychopat
2008-05-10, 13:42:50
Der GT200 soll ja 1 GB Speicher haben. Ich weis jetzt die Preise von GDDR5 nicht, aber wenn die hoch genug sind könnte 512bit + GDDR3 billiger sein als 256bit + GDDR5. Der RV770 hat das Problem nicht, weil dem 512 MB Speicher genug sind. Da kann es auch teures GDDR5 sein.

Nightspider
2008-05-10, 13:45:41
Wenn Nvidia den Grafikkartenherstellern freie Hand bei der Speicherwahl lässt, überaschen uns vielleicht einige mit einer 2 GB-Karte...

(Ich mein...es gibt sogar ne 9600gt mit 2 GB, wieso also kein GT200 mit 2 GB?)

K4mPFwUr$t
2008-05-10, 13:48:23
so ein unsinn, auch eine ATI mit etwas besserem speichermanagement kann keine wunder bewirken. wenn der VRAM voll ist ist er voll, da wächst keiner mehr nach :|

spiel ganz einfach mal oblivion mit texturmods mit einer 512MB karte von ATI und einer nV mit 1GB.
nV hinkt zwar im VRAM management ATI hinterher, trozdem wäre die karte weiter vorne weil nicht soviel ausgelagert werden muss, wenn überhaupt.

es gibt zwar einen gewissen bereich, wo ATI vorne liegt beim VRAM.
aber bei 512MB vs. 1GB liegt diese sicherlich nicht.

gamingforce
2008-05-10, 13:48:48
gibt auch ne HD3870 mit 2GB;)

Die frage ist nur, wer brauch es heute?

1GB ist gut und völlig ausreichen würd ich sagen.

gamingforce
2008-05-10, 13:49:20
Der GT200 soll ja 1 GB Speicher haben. Ich weis jetzt die Preise von GDDR5 nicht, aber wenn die hoch genug sind könnte 512bit + GDDR3 billiger sein als 256bit + GDDR5. Der RV770 hat das Problem nicht, weil dem 512 MB Speicher genug sind. Da kann es auch teures GDDR5 sein.

RV770 kommt auch mit 1/2 Gb VRAM

AnarchX
2008-05-10, 13:51:14
Wenn Nvidia den Grafikkartenherstellern freie Hand bei der Speicherwahl lässt, überaschen uns vielleicht einige mit einer 2 GB-Karte...

(Ich mein...es gibt sogar ne 9600gt mit 2 GB, wieso also kein GT200 mit 2 GB?)

Nunja, bisher habe ich noch keine 0.83ns Chips mit 1024Mbit gesehen, was dann eben bedeutet, maximal 1GHz Speichertakt für die 2GiB Karten oder 32 Speicherchips, was wohl eher sehr unwahrscheinlich ist. :D
Aber ersteres wird wohl NV selbst für die neue Quadro FX 5700 anwenden.

Nightspider
2008-05-10, 13:53:44
so ein unsinn, auch eine ATI mit etwas besserem speichermanagement kann keine wunder bewirken. wenn der VRAM voll ist ist er voll, da wächst keiner mehr nach :|

spiel ganz einfach mal oblivion mit texturmods mit einer 512MB karte von ATI und einer nV mit 1GB.
nV hinkt zwar im VRAM management ATI hinterher, trozdem wäre die karte weiter vorne weil nicht soviel ausgelagert werden muss, wenn überhaupt.

es gibt zwar einen gewissen bereich, wo ATI vorne liegt beim VRAM.
aber bei 512MB vs. 1GB liegt diese sicherlich nicht.

Falls du dein Posting auf meinen bezogen hast...
Ich red ja gar nicht von ATI oder so...
Wenn man zwei GT200-Karten im SLI hat und dann Spiele wie Crysis auf einem 30" Display in 2560*1600 mit AA spielen möchte macht der VRAM dicht. Vor allem wenn man dann noch Ini-Dateien verändert.
Spätestens mit drei GT200-Karten dürfte solche Settins spielbar sein, vorrausgesetzt man hat genug VRAM, denn der VRAM limitiert bei solch immens hohen Einstellungen doch schneller als man denkt.

Von daher wäre es nicht verkehrt, wenn die eine oder andere Firma auch eine GT200-Karte mit 2 GB anbieten würde, zumal GDDR3 nicht sehr teuer ist.

K4mPFwUr$t
2008-05-10, 13:54:42
bezog sich auf Psychopat ;)
nur warst du schneller beim posten ;D

Nightspider
2008-05-10, 13:56:35
bezog sich auf Psychopat ;)
nur warst du schneller beim posten ;D

Okay, jetzt ergibt das auch Sinn ;D

Ailuros
2008-05-10, 14:02:32
das nenn ich Spekulation *g*

mhh wann wurde den mit dem GT200 genau angefangen?

Ende 2005

Oder kanns vieleicht sein das der Chip (Chips) nicht für GDDR5 gemacht sind?

Das Ding unterstuetzt sowohl 3 als auch 5.

Weil sonst hätten sie ja auch GDDR4 nehmen können was ja immernoch besser ist als GDDR3^^

Erstens wurde schon so oft erwaehnt warum NV nichts von GDDR4 hoeren will dass ich mich weigere nochmal zu wiederholen und besser ist GDDR4 in Sachen Stromverbrauch im Vergleich zu GDDR3 mit absoluter Sicherheit fuer NVIDIA nicht.

RV770 kommt auch mit 1/2 Gb VRAM

Mit dem Codenamen wirst Du garantiert keine 2GB ram sehen. Uebrigens sind auf einem dual chip PCB 2GB ram genauso viel wert wie 1GB auf einer single chip GPU. Wer sagt Euch ueberhaupt dass R700 mit GGDR5 von Anfang an antanzen wird?

Und damit der Unsinn der vorigen Seiten hoffentlich endlich ein Ende nimmt, fuer NVIDIA war GDDR3@512bit der schnellste und sicherste Weg =/>140GB/s Bandbreite zu erreichen. Und ja >1.8GHz GDDR5 in jeweils 1GB Quantitaeten waeren zu teuer gewesen.

Die gelbe Eule
2008-05-10, 14:07:38
Das Teil wird eh genausoviel wie die Ultra am Anfang kosten, damit man sie auch wieder 2 Jahre oben halten kann.

K4mPFwUr$t
2008-05-10, 14:13:22
Mit dem Codenamen wirst Du garantiert keine 2GB ram sehen. Uebrigens sind auf einem dual chip PCB 2GB ram genauso viel wert wie 1GB auf einer single chip GPU. Wer sagt Euch ueberhaupt dass R700 mit GGDR5 von Anfang an antanzen wird?

Und damit der Unsinn der vorigen Seiten hoffentlich endlich ein Ende nimmt, fuer NVIDIA war GDDR3@512bit der schnellste und sicherste Weg =/>140GB/s Bandbreite zu erreichen. Und ja >1.8GHz GDDR5 in jeweils 1GB Quantitaeten waeren zu teuer gewesen.
gibt es etwa unterschiede bei codenamen innerhalb der normalen GF und der quadro FX?

die sache mit dem 512bit SI und GDDR3 einsatz empfinde ich genau so.

@die gelbe eule
glaub ich auch, mit der stategie ist ja nV seit dem G80 recht gut gefahren.

Gast
2008-05-10, 14:29:09
512 Bit Si würden sie doch nur verbauen um Speicherbandbreite zu bekommen oder nicht?
Warum ein teures Si was man mit GDDR5 für weniger Geld bekommen kann ? :|
Mir solls auch egal sein, ich hoffe bloss das sie es diesmal geschafft haben der Karte in 2D Modus zu spendieren weil sonst gehts der Karte wirklich schlecht egal ob sie die stärkste ist.
Was sie unter Load fressen tut ist glaub ich jedem Jacke wie Hose, aber da ein PC (wie wir hier) zu 50% zum Surfen genommen wird wäre das nichtmehr feierlich.
News Vom 04.12.2007 14:01
Mit Samsung Electronics hat sich nun auch der vor Hynix und Qimonda marktführende Speicherchip-Hersteller zum kommenden Grafikkartenspeicherstandard GDDR5 positioniert: Während Qimonda mit der Ankündigung eines 512-MBit-GDDR5-SDRAMs vorpreschte und Hynix mit einem 1-GBit-Chip nachzog, legt Samsung nun Wert auf maximale Taktfrequenz: Gleich 3 GHz sollen die Chips erreichen, von denen Samsung nach eigenen Angaben bereits im November Muster an Entwickler ausgeliefert hat. Ebenso wie Hynix erwartet Samsung, dass die Serienfertigung von GDDR5-Chips Mitte 2008 anläuft.
Hynix und Qimonda hatten bisher GDDR5-Taktfrequenzen von maximal 2,5 GHz erwähnt. Weil die x32-GDDR5-SDRAMs per Double-Data-Rate-Technik pro Taktschritt jeweils zwei 4-Byte-Wörter über ihre 32 Datenleitungen übertragen, verweist Samsung stolz auf die maximale Datentransferrate von 24 GByte/s pro Chip bei 3 GHz – damit sei das neue GDDR5-SDRAM das World's Fastest Memory. Exakt diese Worte hatte die Firma Rambus noch letzte Woche in Bezug auf ihr "4.8GHz XDR RAM" gewählt, das Elpida ab diesem Monat in Musterstückzahlen ausliefern will. Zwar kommt ein XDR-Speicherchip dieser ersten Generation bei 600 MHz und Octal Data Rate lediglich auf 9,6 GByte/s, braucht dazu aber auch nur halb so viele – nämlich 16 – Datensignalleitungen wie GDDR-Chips.
Obwohl GDDR5-Chips nominell mit derselben Betriebsspannung von 1,5 Volt arbeiten sollen wie GDDR4-Bauelemente, erwartet Samsung, dass die Leistungsaufnahme um etwa 20 Prozent sinkt. Das dürfte damit zusammenhängen, dass die aktuell von Samsung produzierten GDDR4-Chips nicht mit den ursprünglich vorgesehenen 1,5 Volt auskommen, sondern 1,8 Volt benötigen (was nach JEDEC-GDDR4-Standard optional zulässig ist).
Ein Grafikchip, der acht GDDR5-Chips über 256 Leitungen anbindet, könnte bei 3 GHz Speicher-Taktfrequenz mit bis zu 192 GByte/s auf Daten zugreifen. Die Frage ist allerdings, wann GDDR5-Chips tatsächlich mit 3 GHz zum Einsatz kommen. Vor zwei Jahren, als Samsung und Hynix ihre GDDR4-Chips ankündigten, war von Taktfrequenzen von bis zu 1,8 GHz die Rede. Die bisher schnellsten GDDR4-Chips laufen aber auf den kürzlich eingeführten Grafikkarten mit AMD/ATI Radeon HD 3870 maximal mit 1,125 GHz (2250 Millionen Transfers/s), erreichen also höchstens 9,0 GByte/s pro Chip (das ergibt 72 GByte/s bei einem Grafikchip mit 256-Bit-Speicherbus). Laut AMD sollen aber die HD-3870-GPUs auch 1,2 GHz Speichertaktfrequenz erreichen können.

Quelle Heise/Ct

Altbekannt und sich mit ATI um die handvoll Rams zu hauen ist sicher nicht klug....
Vom Einführungspreis ganz zu schweigen!
Hinzu kommt das GT200 ca. 3-5 Jahr in Entwicklung ist. Keiner der beiden ihvs kann ahnen was es an Ram´s zum Vertigstellungszeitpunkt wirklich geben wird. Also verlässt man sich auf sich selbst;)


Und du drehst und wendest dich wien Wurm.

Die ist das Spekulations Forum also sollte man Voraussetzen, das jeder sich darüber im klaren ist das hier alles reine speku ist. Darum sollte es nicht noch extra mit (wenn aber oder vielleicht) umschrieben werden!

Schlammsau
2008-05-10, 14:46:44
was für Dinge wünscht ihr euch am meisten vom GT200?
Brachiale Leistung, weniger Stromverbrauch, bezahlbarer Preis?

Hvoralek
2008-05-10, 14:49:48
Mit dem Codenamen wirst Du garantiert keine 2GB ram sehen.Sollte man das nicht einschränken: im Referenzdesign keine 2 GiB?

mapel110
2008-05-10, 15:07:35
was für Dinge wünscht ihr euch am meisten vom GT200?
Brachiale Leistung, weniger Stromverbrauch, bezahlbarer Preis?
Das Ding ist High End. Und High End definiert sich nicht über Stromverbrauch(zumindest nicht im Grafikkartenbereich) und einen günstigen Preis.

Aber die Leistung pro Watt steigt. Das ist relativ gesehen schon mal gut.
Sollte man das nicht einschränken: im Referenzdesign keine 2 GiB?
Wann hat es nvidia jemals bei einem High End Chip gestattet, die Speicherbestückung zu ändern?

GeneralHanno
2008-05-10, 15:09:20
was für Dinge wünscht ihr euch am meisten vom GT200?
Brachiale Leistung, weniger Stromverbrauch, bezahlbarer Preis?
ich wünsche mir (aus prinzip) immer preis-leistung. aber die frage erübrigt sich:
GT200 = brachiale leistung, hoher preis+verbrauch

Nightspider
2008-05-10, 15:14:15
was für Dinge wünscht ihr euch am meisten vom GT200?
Brachiale Leistung, weniger Stromverbrauch, bezahlbarer Preis?

Brachiale Leistung und nen ordentlichen Stromsparmodes, sonst nix...

Viel VRAM vllt noch...

Den Rest kannste für den Mainstream behalten...hier gehts um HighEnd...

Gast
2008-05-10, 15:54:30
RV770 kommt auch mit 1/2 Gb VRAM

Zocker28 zieh endlich Leine...

Hvoralek
2008-05-10, 16:06:29
Wann hat es nvidia jemals bei einem High End Chip gestattet, die Speicherbestückung zu ändern?Ich habe das so verstanden, dass es es da um RV770 ging.

mapel110
2008-05-10, 16:10:30
Ich habe das so verstanden, dass es es da um RV770 ging.
Und für ATI gilt das gleiche, würde ich sagen.
Da gabs auch noch nie Hersteller, die einen Alleingang gemacht haben und mehr boten als ATI selbst zu Anfang vorgab.

Hvoralek
2008-05-10, 16:19:04
Und für ATI gilt das gleiche, würde ich sagen.
Da gabs auch noch nie Hersteller, die einen Alleingang gemacht haben und mehr boten als ATI selbst zu Anfang vorgab.Was ist damit: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/gecube_hd_3870_2_gb_speicher/?

Psychopat
2008-05-10, 16:23:32
so ein unsinn, auch eine ATI mit etwas besserem speichermanagement kann keine wunder bewirken. wenn der VRAM voll ist ist er voll, da wächst keiner mehr nach :|

spiel ganz einfach mal oblivion mit texturmods mit einer 512MB karte von ATI und einer nV mit 1GB.
nV hinkt zwar im VRAM management ATI hinterher, trozdem wäre die karte weiter vorne weil nicht soviel ausgelagert werden muss, wenn überhaupt.

es gibt zwar einen gewissen bereich, wo ATI vorne liegt beim VRAM.
aber bei 512MB vs. 1GB liegt diese sicherlich nicht.

Kannst du das belegen? Bis jetzt ist mir kein Benchmark bekannt, wo eine 1GB 3870 Vorteile jenseits der Messungenaugkeit gegenüber einer 512 MB 3870 hätte.
Wieso soll der Bereich 512 MB vs 1 GB anders sein? Erklär mal deine Theorie, oder laberst du einfach mal drauf los, ohne nachzudenken?
Fakt ist, eine 3850 mit 256 MB bricht erstaunlich wenig ein, selbst bei speicherlastigen settings. Da brauchst schon Crysis @1920x1200 + 4x FSAA, um die wirklich "einbrechen" zu lassen. http://www.hartware.de/review_784_1.html

Eine RV770 wird mit 512 MB gut zurechtkommen. Mehr brauchts nur für CF und extreme Auflösungen.

Edit: Und ja, ich spiele Oblivion mit Texturmods auf einer 512 MB ATI.

mapel110
2008-05-10, 16:25:10
Was ist damit: http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/mai/gecube_hd_3870_2_gb_speicher/?
3870 ist kein High End.

Hvoralek
2008-05-10, 16:53:22
3870 ist kein High End.Und ein einzelner RV770 ist High- End? :|

mapel110
2008-05-10, 16:57:04
Und ein einzelner RV770 ist High- End? :|
Weiß ich nicht. Du?

Hvoralek
2008-05-10, 17:00:12
Weiß ich nicht. Du?Das wissen wir erst in ein paar Wochen. Aller Voraussicht nach aber nicht.

mictasm
2008-05-10, 17:44:57
Könnte ein Mod mal das ganze ATI-Gequatsche entfernen oder den Thread mit dem nächsten Teil neu starten? Das macht echt keinen Spaß mehr, diesen themafremden Mist immer zu überlesen...

K4mPFwUr$t
2008-05-10, 18:09:30
@Psychopat
klar ich blabber einfach drauf los, jetzt bist du mein held :ucrazy2:

stichworte wie "zukunftssicherheit" scheinen dir jedenfalls kein begriff zu sein.
toll heutige spiele und von gestern brauchen teils nicht mehr als 512MB.
aber was ist mit dem spielen von morgen oder übermorgen?

stell dir einfach die situation wie beim G80 nochmal für diese genereation vor.
und zumal es leute gibt die nicht aller 3/4 jahre die graka wechseln.
hier würde ich jedenfalls eine 1GB karte einer 512MB vorziehen, warum auch nicht.
die 3FPS die sie durch die schlechteren timings weniger hat bei heutigen spielen, reist dann der größere VRAM um so mehr raus.

anderes spiel: company of heroes: OF
spiel ganz einfach mal mit 4xAA, höherer auflösung als 1280x1024, texturmods, DX10 und vielen einheiten. dort wirst du von der 1GB karte profitieren.

aber lebe ruhig weiter in deiner verblendeten welt, wo du der king bist :rolleyes:

Gast
2008-05-10, 19:01:04
@Psychopat
klar ich blabber einfach drauf los, jetzt bist du mein held :ucrazy2:

stichworte wie "zukunftssicherheit" scheinen dir jedenfalls kein begriff zu sein.
toll heutige spiele und von gestern brauchen teils nicht mehr als 512MB.
aber was ist mit dem spielen von morgen oder übermorgen?

stell dir einfach die situation wie beim G80 nochmal für diese genereation vor.
und zumal es leute gibt die nicht aller 3/4 jahre die graka wechseln.
hier würde ich jedenfalls eine 1GB karte einer 512MB vorziehen, warum auch nicht.
die 3FPS die sie durch die schlechteren timings weniger hat bei heutigen spielen, reist dann der größere VRAM um so mehr raus.

anderes spiel: company of heroes: OF
spiel ganz einfach mal mit 4xAA, höherer auflösung als 1280x1024, texturmods, DX10 und vielen einheiten. dort wirst du von der 1GB karte profitieren.

aber lebe ruhig weiter in deiner verblendeten welt, wo du der king bist :rolleyes:


Man kann auch anderer Meinung sein. So denke ich mal das es unbestritten ist, das eine Karte, welche auf das G80 Design aufbaut von 1GB VRAM sicher profitieren kann.

Im Gegensatz dazu scheint bei dem ATI-Design das Speichermanagement so ordentlich zu sein, dass dort auch in den nächsten 1-2 Jahren nicht mehr als 512 MB von Nöten sein werden. Man muss nur mal sehen wie gut sich selbst aktuelle 256 MB Karten im Vergleich zu den 512 MB Pendanten schlagen.

Imho scheint es wirklich so zu sein, das aktuelle Nv-Karten einfach mehr VRAM in der gleichen Scene in Beschlag nehmen.

Gast
2008-05-10, 19:05:57
Das wissen wir erst in ein paar Wochen. Aller Voraussicht nach aber nicht.


ist das so?wo hast du denn die vorraussicht her?von dem thread gespamme hier oder woher?wenn du keine antwort parat hast dann lass die finger von den tasten.

_flx
2008-05-10, 19:23:18
ist das so?wo hast du denn die vorraussicht her?von dem thread gespamme hier oder woher?wenn du keine antwort parat hast dann lass die finger von den tasten.
Öhm,...
RV770?

K4mPFwUr$t
2008-05-10, 19:24:53
Man kann auch anderer Meinung sein. So denke ich mal das es unbestritten ist, das eine Karte, welche auf das G80 Design aufbaut von 1GB VRAM sicher profitieren kann.

Im Gegensatz dazu scheint bei dem ATI-Design das Speichermanagement so ordentlich zu sein, dass dort auch in den nächsten 1-2 Jahren nicht mehr als 512 MB von Nöten sein werden. Man muss nur mal sehen wie gut sich selbst aktuelle 256 MB Karten im Vergleich zu den 512 MB Pendanten schlagen.

Imho scheint es wirklich so zu sein, das aktuelle Nv-Karten einfach mehr VRAM in der gleichen Scene in Beschlag nehmen.

512MB sind heut zutage der minimale speicherausbau für neue karten, wer darunter geht nur aus geiz 10€ mehr zu zahlen, wird entäuscht werden.

und das 512MB immer noch gut zu gebrauchen sind für die nächsten jahre darf bezweifelt werden.

warum sollte man nicht eine 1GB version anbieten bei der neuen generation?
was für nachteile kann man bitte damit haben, etwas mehr an VRAM zu besitzen?
über sinn und unsinn von kleineren karten mit 1GB braucht man sich nicht streiten, diese sind einfach unnötig.

imho überbewerten die leute das bessere speichermanagement von den HD3000 karten einfach. es kann auch keinen zusätzlichen speicher ersetzen und wenn es auslagern muss, wird es auch zur verringerter leistung kommen.

über 256MB versionen braucht man sich nicht unterhalten. ich habe es bereut damals die X1950pro 256MB version gekauft zu haben. weil selbst unter nicht all zuhoher settings der VRAM auf 0 abssackt.

Hvoralek
2008-05-10, 19:52:27
Öhm,...
RV770?Eben. Schon aus dem Namen ergibt sich ja, dass praktisch sicher noch ein R7xx darüber angesiedelt ist. Und wenn man als Laie irgendwelche Prognosen bzgl. RV770/ R700 wagen möchte, wüsste ich gerne, wo man eine bessere Grundlage herbekommen soll als Threads wie diesen.

Übrigens zeigt der Gast da oben auch mal ein interessantes Verhalten: Keine Leer- hinter Satzzeichen. Sozusagen umgekehrtes Plenken. :|

pest
2008-05-10, 20:14:03
ich denke wenn der RV770 tatsächlich nur ~60% schneller ist als RV670 reicht
für die 9900GTX ein aufgebohrter G80, oder G92B mit GDDR5, Beides in 55nm
die 2xVariante wäre dann die 9900GX2

ich glaube nicht das es "ein Monster" wird. Die Zukunft liegt eh im mobilen Segment, da bedienen Stomschleudern einen viel zu kleinen Markt

mictasm
2008-05-10, 20:32:28
Es wäre aber für mich nicht einzusehen, wenn Nvidia nur auf ATI schaut. Sie müssen meiner Meinung nach auf die 8800GTX und Ultra gucken und mit dem neuen Monster einen kräftigen Schritt nach vorne machen. Sonst werden die 8800 SLI Besitzer weiterhin nicht zuschlagen...

Hvoralek
2008-05-10, 20:35:36
ich glaube nicht das es "ein Monster" wird. Die Zukunft liegt eh im mobilen Segment, da bedienen Stomschleudern einen viel zu kleinen MarktHigh- End- Chips bedienen sowieso nur einen kleinen Markt. Und der wird sich eher nicht Richtung tragbare Geräte bewegen.

sklave_gottes
2008-05-10, 20:42:16
512MB sind heut zutage der minimale speicherausbau für neue karten, wer darunter geht nur aus geiz 10€ mehr zu zahlen, wird entäuscht werden.

und das 512MB immer noch gut zu gebrauchen sind für die nächsten jahre darf bezweifelt werden.

warum sollte man nicht eine 1GB version anbieten bei der neuen generation?
was für nachteile kann man bitte damit haben, etwas mehr an VRAM zu besitzen?
über sinn und unsinn von kleineren karten mit 1GB braucht man sich nicht streiten, diese sind einfach unnötig.

imho überbewerten die leute das bessere speichermanagement von den HD3000 karten einfach. es kann auch keinen zusätzlichen speicher ersetzen und wenn es auslagern muss, wird es auch zur verringerter leistung kommen.

über 256MB versionen braucht man sich nicht unterhalten. ich habe es bereut damals die X1950pro 256MB version gekauft zu haben. weil selbst unter nicht all zuhoher settings der VRAM auf 0 abssackt.


Kennst du wahrscheinlich schon, oder ?
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/
Also ich erkenne da einen Vorteil.

Zur der Sache mit dem V_ram auf 0. Wenn bei einer Karte der V-ram auf 0 geht b.z.w. voll ist heist es noch lange nicht das dadurch auch die FPS Zahl leidet. Ich glaube einer X1950pro geht eher die Luft aus, bevor sich der Vram mangel bemerkbar macht.

zum gt200

So wie es aussieht wir er aufjedenfall über 1 mrd tr haben. Und somit in sachen leistung und kosten alles was bischer war toppen.



mfg martin

gamingforce
2008-05-10, 20:51:36
heyyyy im Luxx ist auch einer der weiss schon wie der der GT200 aussehen wird ;D

http://www.abload.de/thumb/p651frontsidebv2utu.png (http://www.abload.de/image.php?img=p651frontsidebv2utu.png)

http://www.abload.de/thumb/p651backsideut6099.png (http://www.abload.de/image.php?img=p651backsideut6099.png)

Nightspider
2008-05-10, 20:55:55
heyyyy im Luxx ist auch einer der weiss schon wie der der GT200 aussehen wird ;D

http://www.abload.de/thumb/p651frontsidebv2utu.png (http://www.abload.de/image.php?img=p651frontsidebv2utu.png)

http://www.abload.de/thumb/p651backsideut6099.png (http://www.abload.de/image.php?img=p651backsideut6099.png)

Das die Bilder hier aber schon vor dem Luxx-Forum waren ist dir bekannt oder ? ;)

pest
2008-05-10, 20:56:22
Sie müssen meiner Meinung nach auf die 8800GTX und Ultra gucken und mit dem neuen Monster einen kräftigen Schritt nach vorne machen. Sonst werden die 8800 SLI Besitzer weiterhin nicht zuschlagen...

eine 9900GX2 mit 60-70% Effizienzsteigerung pro Core würde auch ein 8800SLI locker schlagen
die freuen sich doch wenn sie mit weniger Einsatz, mehr Umsatz haben.
das stellt ja nicht in Frage zu was sie generell fähig wären ;)

gamingforce
2008-05-10, 20:58:00
Das die Bilder hier aber schon vor dem Luxx-Forum waren ist dir bekannt oder ? ;)

sind das nicht bloss die gewesen ?

http://www.xtremesystems.org/forums/showpost.php?p=2978122&postcount=34

Nightspider
2008-05-10, 21:00:20
sind das nicht bloss die gewesen ?

http://www.xtremesystems.org/forums/showpost.php?p=2978122&postcount=34

Hmmm, kann sein das ich da was verwechselt habe ;D

Jemand ne Idee, was links oben dieser "Haken" an der Grafikkarte darstellen soll ?

gamingforce
2008-05-10, 21:04:25
der Haken für den Schleudersitz, falls es zu warm wird fliegt die karte schnell ausm Rechner ;D

Unyu
2008-05-10, 21:21:17
Jemand ne Idee, was links oben dieser "Haken" an der Grafikkarte darstellen soll ?
Der Saft für eine LED hinten an der Blende.
Gibts schon bei der 9800GTX und GX2. ;)

Ailuros
2008-05-10, 21:27:04
Sollte man das nicht einschränken: im Referenzdesign keine 2 GiB?

Es gibt gar nichts einzuschraenken. Es wird keine RV770 mit 2GB als desktop GPU geben.

***edit: was soll der Krampf mit den daemlichen Bildern ueberhaupt?