PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200


Seiten : [1] 2 3 4

AnarchX
2008-06-16, 18:07:39
Nachdem nun GT200 als GTX 280 und 260 in die Öffentlichkeit getretten ist, soll es hier nun um die zum Teil schon bekannten Nachfolger bzw. Ableger gehen.

G200B:
- (optischer) Shrink von GT200 auf 55nm, der in einen ~470mm² Die resultieren soll -> Kostenersparnis durch geringe Produktionskosten und geringere TDP
- H2 2008: 22. Oktober?
(http://www.nvnews.net/vbulletin/showthread.php?p=1780841#post1780841)
weitere GeForce 200 GPUs von integriert bis High-End:
GT206 iGT206 iGT209 GT212 GT214 GT216 GT218
http://forum.beyond3d.com/showpost.php?p=1163221&postcount=1073

http://img398.imageshack.us/img398/4585/nvidiaroadmapgt212gt206wz6.jpg (http://imageshack.us)

http://en.expreview.com/2008/09/09/elsa-hints-nvidias-next-step-is-45nm-gt212/

Infos zu 40nm @ TSMC (http://www.tsmc.com/download/english/a05_literature/02_40_and_45_Nanometer_Process_Technology.pdf)

GeForce GTX = Enthusiast
GeForce GT = High-end performance
GeForce GS = Mid-range performance (tentative)
GeForce G = Entry (IGP products and sharing)

GTX= 260 through 290
GT= 230 through 250
GS= 210 through 220
G= 201 through 209
http://hkepc.com/?id=1321&fs=c1hh

GeForce 200 und GDDR5:
- laut Industriequellen (http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1) momentan nicht vor 2009 geplant


http://we.pcinlife.com/thread-956041-1-1.html

GTX 250: 160SP/48TMU/24ROP, 768MB/384-Bit, G200-90 (gegen HD4850?)
GTX 270: GTX 280 mit niedrigeren Frequenzen, G200B-300 (gegen HD4870?)
- Start: bald
- Preise: passend zur HD4800-Serie


GTX 270?:
GTX 260 mit 216SPs im September = GTX 270? (http://en.expreview.com/2008/08/21/nvidia-will-offer-a-upgraded-gtx-260-in-mid-september/)

In einem Gespräch mit Nvidia hat uns Jens Neuschäfer, PR-Manager für Zentraleuropa, nun verraten, dass diese Gerüchte den Tatsachen entsprechen. So wird die GeForce GTX 260 ab sofort aufgerüstet und die langsameren Modelle sollen mit der Zeit abverkauft werden. Eine von uns vorgeschlagene Namensänderung auf „GeForce GTX 270“ soll es allerdings nicht geben, da dazu die Modifizierungen zu gering sein sollen. Ab der zweiten Septemberhälfte soll die neue GeForce GTX 260 im Handel erhältlich sein.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvidia_gtx_260_216_alus/

HKEPC-Test der GTX 260 GOLD mit 216SPs (http://hkepc.com/?id=1684&fs=c1hh)

GTX 290?
NVIDIA_GT200.DEV_05E0.1 = "NVIDIA GT200-400"


GT200-GX2?
Nvidia scheint sich zur 4870X2 geäußert zu haben und macht dabei eine Andeutung:
So meint man, dass der Vergleich GTX 280 mit X2 nicht fair wäre, da letzere auf 2 GPUs setzt und wenn dies Nvidia ebenfalls machen würde, dann wäre die Leistung höher als bei der X2.
Wenn der Markt es verlangt dann wird Nvidia auch eine Dual-GPU-SKU vorstellen, zumal Nvidia die bessere Bildqualität und das bessere MGPU-Konzept bietet.

Quelle (http://news.ccw.com.cn/chipProduce/htm2008/20080813_482654.shtml)

So you just have to take it case by case and -- but we think our approach is the right approach. The best approach is to do both. If we could offer a single chip solution at 399, it certainly doesn’t preclude us from building a two-chip solution at something higher. So I think that having the right price, right product at each price point and the best-performing product at each price point is the most important thing.
http://seekingalpha.com/article/90644-nvidia-f2q09-qtr-end-7-27-08-earnings-call-transcript?page=-1

w0mbat
2008-06-16, 18:11:30
Ich denke wir könnten Anfang 2009 einen 55nm GT200 mit 384-bit @GDDR5 sehen,

GeneralHanno
2008-06-16, 18:38:38
ich denke nvidia wird erstmal mit G92,G94 etwas mit 55nm "rumexperimentieren" und wenn der prozess erfolgreich läuft, den GT200 möglichst schnell 1:1 auf 55nm (optisch) shrinken. das wird gerade für die GTX-260 wichtig sein, die ja mit der 4870 konkurrieren muss ...

AffenJack
2008-06-16, 18:41:29
denke ich genauso, würde im november nen gt200b in 55nm erwarten der ansonsten keine großen neuerungen bietet.
Um dann noch was gegen die x2 karten von ati zu haben könnte dann auch noch ne höher getaktete version kommen

GeneralHanno
2008-06-16, 18:56:49
die frage die sich für mich stellt:
werden die mainstreammodelle in 55nm kommen (vermutlich dann VOR weihnachten) oder erst in 45nm (dann so Q2/09)?

AnarchX
2008-06-16, 19:00:31
Das G92B nochmal genauso lang am Markt sein soll wie G92A, dürfte die Frage wohl theoretisch beantworten.

GeneralHanno
2008-06-16, 19:12:12
also GT200 ist der einzige GT2xx in 65nm(55nm)?
den "mainstreampart" übernehmen dann G9x @55nm

2009 dann refresh@45/40nm?

Godmode
2008-06-16, 19:25:25
also GT200 ist der einzige GT2xx in 65nm(55nm)?
den "mainstreampart" übernehmen dann G9x @55nm

2009 dann refresh@45/40nm?

Vielleicht kommt noch eine GTX 290 mit mehr Takt, vielleicht mit in Revision A3.

AnarchX
2008-06-16, 19:30:25
Dass die AIBs bis zu 700MHz TMU-Domain und NV selbst bis zu 1.5GHz SD (http://www.anandtech.com/video/showdoc.aspx?i=3334&p=21) anbietet, böte in der Tat Raum für eine 8800Ultra-ähnliche Karte, einzig beim Speicher hat man kein Potential mehr.

Odal
2008-06-16, 19:36:17
ich denke nvidia wird erstmal mit G92,G94 etwas mit 55nm "rumexperimentieren" und wenn der prozess erfolgreich läuft, den GT200 möglichst schnell 1:1 auf 55nm (optisch) shrinken. das wird gerade für die GTX-260 wichtig sein, die ja mit der 4870 konkurrieren muss ...
1:1 glaub ich nicht, ich denke es wird ähnlich G80->G92 ablaufen...

vermutlich halbes speicherinterface...eventuell bandbreitenschonende maßnahmen und eventuell GDDR5 ram

der GT200 ist ja nicht nur wegen der größe, sondern auch wegen dem Speicherinterface so "unpraktisch"

AnarchX
2008-06-16, 20:13:26
GeForce GTX = Enthusiast
GeForce GT = High-end performance
GeForce GS = Mid-range performance (tentative)
GeForce G = Entry (IGP products and sharing)

GTX= 260 through 290
GT= 230 through 250
GS= 210 through 220
G= 201 through 209
http://hkepc.com/?id=1321&fs=c1hh

Haben da HKEPC mal wieder etwas von ihren Herstellerquellen geflüstert bekommen?

GeneralHanno
2008-06-16, 20:37:54
1:1 glaub ich nicht, ich denke es wird ähnlich G80->G92 ablaufen...

vermutlich halbes speicherinterface...eventuell bandbreitenschonende maßnahmen und eventuell GDDR5 ram

der GT200 ist ja nicht nur wegen der größe, sondern auch wegen dem Speicherinterface so "unpraktisch"

das wäre dann ja ein performence chip. und nvidia will 2008 ein GDDR5 einsetzen. also muss der G200b ein 1:1 shrink sein.

du meinst dann eher den "GT250", der als performenceshrink in 45nm mit GDDR5 dann mal auf einer GX2 landen könnte.

eine A3 wird es imo nicht geben. wenn dann sofort auf B1. eine ULTRA alias GTX290 ist wahrscheinlich ...

Gast
2008-06-16, 20:54:01
Ohne 55nm wirds keine richtige Ultra geben, eine Wiederholung der 8800Ultra brauchen wir ja nicht. Der TDP ist auch zu hoch, die OC Versionen der GTX280 werden ja schon relativ laut.
Wobei man mal die GTX260 OC abwarten kann...

Vieleicht gibts auch G92b mit GDDR5? ;) Wäre aber overpowert, G92b@55nm muss gegen die HD4850 Geld verdienen, was aber 8800GTX Performance brauch...

Gast
2008-06-16, 21:21:50
Ich glaube, dass dieses eine mal der Inq recht hat und der GT200b wesentlich näher ist als vermutet. Schätze er kommt im August/September.

Wieso?

- Größere Chipausbeute für Nvidia
- Niedrigere Kosten
- Höhere Taktraten möglich (insb. wichtig wenn der R700 im August kommt)
- Weniger Verbrauch & Abwärme => Ggf. kann zwischen mehr Takt bzw. weniger Verbrauch abgewägt werden

Das ganze wie gesagt als 55nm GT200, ohne andere Veränderungen.

In Q109 würde ich dann GT200 basierte Performancechips erwarten.

Gast
2008-06-16, 23:44:39
Der Shrink und G92b müssen sehr bald kommen. Als Resumee vom G200 sieht man deutlich das CUDA kostet. Im Midrange Segment darf es aber nichts kosten und hier läuft AMD nächste Woche mit geballter Ladung auf. Die GTX260 gegen die HD4870 steht wohl gut da, aber die HD4850 könnte allein sein. Und ein zu starker G92b kann es auch nicht sein.

Need G200"b" @ 55nm mit 24ROPs, 384bit-si, deftiger Taktrate und OHNE die 64-bit FP units wäre Wünschenswert, für Spieler und Highend User!

Snoopy1978
2008-06-16, 23:44:42
Ich glaube, dass dieses eine mal der Inq recht hat und der GT200b wesentlich näher ist als vermutet. Schätze er kommt im August/September.


Da stimme ich dem Gast zu,Nvidia hat diesmal echt mehrere Gründe so schnell wie möglich einen Refresh nachzuschieben und das liegt nicht so sehr an der Konkurenz durch Ati.

Gast
2008-06-17, 02:58:11
Vor allem sichert man sich aber eine Menge Potential für die Zukunft. Denn mit dem nächsten Refresh-Chip wären höhere Taktraten von +50% realisierbar.

http://www.tweakpc.de/berichte/nvidia_geforce_gtx_200/s01.php

Gast
2008-06-17, 02:59:23
ab wann kann man eigentlich mit 40nm GPUs rechnen?

Gast
2008-06-17, 03:11:10
50% wären ja 900MHz ROP und 2000MHz Shader, mit 40nm kann ich mir das schon gut vorstellen, aber der nächste Refresh-Chip soll ja in 55nm kommen. Vieleicht wird 55nm doch mehr bringen als manche vermuten...

HOT
2008-06-17, 06:58:18
Die 40nm Generation wird denke ich nicht mehr mit G80 Technik rumlaufen und von der 55nm Version sollte man sich auch nicht allzuviel erwarten.

GeneralHanno
2008-06-17, 09:51:07
Analysieren wir mal die Situation:

Nvidia hat seine G80 architektur weiterentwickelt und einen monsterchip mit 1,4Mrd transistoren auf den markt gebracht (resultierende die-size @65nm = 575mm² !!!).

Im Vergleich zum G80 und G92 hat der G200 grob gesagt doppelt so viele transistoren. TU, ROPs und setup (weiterhin nur 1 tri/clk) wurden kaum weiterentwickelt, quasi alles ging in die verbesserten shader. daher stieg die gaming performence unterdurchschnittlich an, die GPGPU performence aber um so extremer. nvidia hat als zielgruppe also klar server u.ä. im sinn!

wie könnte nun ein hypotetischer mainstreamchip aussehen (der ja irgend wann kommen wird)
- Name (spekulation): G210
- 4 cluster a 24SP/8TU = 32TU+96SP
- 4 RBE = 16ROPs + 256bit SI
- 512MiB GDDR3
- diesize @65nm ~ 300mm²

wer sich etwas auskennt sieht, das dieser chip sich quasi direkt zwischen G94 und G92 einreihen würde. da die gamingperformence kaum gesteigert wurde, wäre er vermutlich etwa so schnell wie der G92 (manchmal auch langsamer). die meisten transistoren sind ja in die shader geflossen. doch GPGPU ist für high-end server gedacht und nicht für den MM-mainstream-PC.
FAZIT: ein mainstream "G210" wäre sinnlos. von der gaming-performence würde er zwischen G92 und G94 liegen und die GPGPU fähigkeiten sind für den mainstreammarkt nicht relevant (sondern nur verschwendete transistoren)

stattdessen wird nvidia die G9x reihe auf 55nm shrinken (keine neuen baupläne nötig, da optischer shrink). ziel: kostenreduktion. hiermit wäre nvidia im 0-200$-bereich bis ende des jahres gut aufgestellt.

wenn nvidia mit dem 55nm prozess (der sich NUR für einen 1:1 optischen shrink eignet, weil man ja kein neues tape-out finanzieren möchte) erfahrung gesammelt hat mit den weniger komplexen G9x, dann kann nvidia den G200 1:1 optisch auf 65nm shrinken. name: G200b. primärziel: kostenreduktion. sekundärziele: bessere TDP und/oder höhere taktraten. mit einem ~450mm² großen G200b und einem ETWAS besserem verbrauch (55nm ist KEIN wunderprozess) könnte man die 4870 preislich attakieren und die 4870X2 von der performence mit einer GTX-290 "ULTRA".

damit wäre das portfolio von nvidia bis anfang 2009 gut aufgestellt:
- G200b-GTX290 ~ 600€ (papiertieger als benchmark-gegner vom R700)
- G200b-GTX280 ~ 450€
- G200b-GTX260 ~ 300€ (gegner der 4870)
- lücke
- G92b-8c-9800GT(X/S) ~ 150€
- G92b-7c-9800GT ~ 110€
- G94b ~ unter 100€

nvidia würde die 40/45nm versionen des G200 im frühjahr 2009 vorstellen. vergleichbar mit dem G70, der auch lange zeit alleine als high-end-chip existierte und dann wurde das ganze portfolio auf 90nm umgestellt. high-end G70 fiel weg. dafür kamen zeitgleich performence G71, und dann eben die mainstream/entry ableger.

HOT
2008-06-17, 10:19:26
Endprodukte in 40nm sind bei TSMC denke ich nicht vor 2.H 2009 zu erwarten. Bis dahin wirds dann auch wieder Zeit für nen neuen Chip.

Anarchy-HWLUXX
2008-06-17, 10:54:06
damit wäre das portfolio von nvidia bis anfang 2009 gut aufgestellt:
- G200b-GTX290 ~ 600€ (papiertieger als benchmark-gegner vom R700)
- G200b-GTX280 ~ 450€
- G200b-GTX260 ~ 300€ (gegner der 4870)
- lücke
- G92b-8c-9800GT(X/S) ~ 150€
- G92b-7c-9800GT ~ 110€
- G94b ~ unter 100€

Also wenn dann müssten die GT200b als GTX270 und GTX290 die alten Karten komplett ablösen da diese nach dem launch der neuen ja nicht mehr Produziert werden - und man will nicht schonwieder ein Gewurstel mit unterschiedlichen GPUs die den gleichen Namen tragen aber andere Cores.


Beim G92b sieht das anders aus - wenn die Performance identisch ist mit dem G92 dann braucht es keine neuen Produktbezeichnungen, aber eine 9900GTX wäre denkbar falls die neue Revision mehr Taktpotenzial hat um den HD4**** Karten das leben schwer zu machen.

GeneralHanno
2008-06-17, 10:58:24
wieso? wenn das ganze ein 1zu1 shrink ist und die taktraten gleich bleiben, kann man doch bei den namen GTX260 und GTX270 bleiben ...

alten gerüchten zufolge will nvidia es bei der 9800GT übrigens ähnlich machen. anfangs werden 65nm G92 verbaut und dann still und heimlich auf 55nm umgesattelt ...

Anarchy-HWLUXX
2008-06-17, 11:03:58
wieso? wenn das ganze ein 1zu1 shrink ist und die taktraten gleich bleiben, kann man doch bei den namen GTX260 und GTX270 bleiben ...

alten gerüchten zufolge will nvidia es bei der 9800GT übrigens ähnlich machen. anfangs werden 65nm G92 verbaut und dann still und heimlich auf 55nm umgesattelt ...

Also bei der GTX260 / GTX280 könnt zum shrink ein Performance boost per höhere Taktraten nicht schaden - nochmals den Abstand zur vorherigen generation erhöhen.

Andererseits ist die ausbeute an brauchbaren Chips höher wenn die Taktraten niedrig angesetzt sind ...

-> Könnt beides passieren ;)

GeneralHanno
2008-06-17, 11:33:06
Also bei der GTX260 / GTX280 könnt zum shrink ein Performance boost per höhere Taktraten nicht schaden - nochmals den Abstand zur vorherigen generation erhöhen.

Andererseits ist die ausbeute an brauchbaren Chips höher wenn die Taktraten niedrig angesetzt sind ...

-> Könnt beides passieren ;)

nvidia macht einfach beides ;)

70% der chips gehen sowieso für die GTX260 drauf. da sie preislich von der 4870 ziemlich unter druck gesetzt wird, wird nvidia hier auf eine bessere ausbeute zur kostenoptimierung setzen. und die GTX290 kann dann mit höheren taktraten kommen, um in benchmarks den R700 zu bekämpfen ...

das eine schließt das andere nicht aus ... kostenoptimierung nach unten(260) und performenceoptimierung nach oben(290)

Sascha1971
2008-06-17, 18:59:49
Hatte mir in dem Test etwas mehr erwartet.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/

Snoopy1978
2008-06-18, 00:00:58
Erstmal abwarten und schauen was Nivida noch so im Laufe des Jahres präsentiert,Ail hatte ja mitgeteilt das die Jungens in grün noch was in der Pipeline haben.

=Floi=
2008-06-18, 07:03:06
nv könnte ja schlicht und ergreifend den GT200 chip nach dem shrink weiter aufbohren und so eine zum aktuellen GT200 ähnlich große version bringen. Das ganze ist doch im HP bereich kein problem und wenn alles nichts mehr hilft, dann kann man ja in richtung 600€ gehen wobei das aktuell ja auch kein problem ist die karte für 500€ zu verkaufen.

Snoopy1978
2008-06-18, 08:48:50
Das ganze ist doch im HP bereich kein problem und wenn alles nichts mehr hilft, dann kann man ja in richtung 600€ gehen wobei das aktuell ja auch kein problem ist die karte für 500€ zu verkaufen.

Das wäre aber nur dann kein Problem wenn Nv unangefochten die Leistungskrone halten würde,so wie es im Moment aussieht sind die neuen Karten vom Rivalen Ati auch nicht von schlechten Eltern.So weit wie der G80 vom R600 wird sich der GT200 wohl nicht absetzen können.

Snoopy1978
2008-06-18, 19:48:14
Wie es scheint wird schon über eine mögliche GX2 Version geunkt,auch wenn das wohl eher im Augenblick unwahrscheinlich ist.

http://madpixelz.net/nv/news/announcements/nvidia_geforce_gtx280_gx2/



:biggrin:

Gast
2008-06-18, 19:53:20
Was meinst du? Soviel schneller war der G80 gegenüber dem R600 nicht, der konnte sich ja meist zur GTS gesellen, von daher hat sich nichts geändert. Im vgl. zu RV670 und G92 ist der Abstand wieder gewachsen, eine 4870 wird es mit der GTX260 aufnehmen (hätten die ruhig wieder GTS nennen können).

Eine GX2 könnte ja kommen, mit einem GTX260 ähnlichen Chip in 55nm, oder eben wieder auf G92 Niveau reduziert für den 256Bit SI.

reunion
2008-06-18, 20:18:09
Was meinst du? Soviel schneller war der G80 gegenüber dem R600 nicht, der konnte sich ja meist zur GTS gesellen, von daher hat sich nichts geändert. Im vgl. zu RV670 und G92 ist der Abstand wieder gewachsen, eine 4870 wird es mit der GTX260 aufnehmen (hätten die ruhig wieder GTS nennen können).


Und ob sich was geändert hat, sogar etwas sehr wesentliches:

http://img502.imageshack.us/img502/2863/amd14dq0.jpg

Gast
2008-06-18, 21:29:57
Und ob sich was geändert hat, sogar etwas sehr wesentliches:

http://img502.imageshack.us/img502/2863/amd14dq0.jpg

lol, nach dieser tabelle müsste der RV670 schneller als der G200 sein :D

w0mbat
2008-06-18, 21:34:31
Wieso lol? Die Performance die AMD hier meint sind pure FLOPS, und da ist der RV770 ja auch schneller (der RV670 taucht da gar nicht auf).

Gast
2008-06-18, 22:25:21
Wieso lol? Die Performance die AMD hier meint sind pure FLOPS, und da ist der RV770 ja auch schneller (der RV670 taucht da gar nicht auf).

performance/W = 1,95?

also müsste der RV770 entweder gleich schnell bei halbem stromverbrauch sein oder aber mehr als halb so viel strom brauchen (was ja der fall ist) und dafür schneller sein.

selbst wenn man nach doofen GFLOP-zahlen geht kann das nicht stimmen, so groß ist der unterschied nicht.

Gast
2008-06-19, 02:30:19
lol...

Inefficient gefällt mir ja fast am bessten, die 800SP kommen nie und nimmer an die 240SP ran, wir war das noch mal?

auch übrigens, was ist eigentlich ein GTX200, hab ich noch nie gehört...

James Ryan
2008-06-19, 06:08:51
Wieso lol? Die Performance die AMD hier meint sind pure FLOPS, und da ist der RV770 ja auch schneller (der RV670 taucht da gar nicht auf).

Was nützen noch soviele FLOPS wenn die Perfomance in Spielen deutlich hinter einer GTX 280 zurückhängen wird? (ich meine jetzt Single gege Single, unabhängig vom Preis)
Wenn AMD schon solch gewagte Folien entwirft, muss da auch Perfomance-mäßig mehr bei raus springen.
"Powerfull" und "Efficient"... lächerlich von AMD! ;D

MfG :cool:

Savay
2008-06-19, 06:15:57
es ist dir schon klar das damit eher die "pro watt" und die "pro €" leistung gemeint ist?! :cool: mittlerweile sowieso die einzig relevanten basisgrößen für eine vergleichswert

spätestens seit den ersten p4 sollte doch wohl klar sein das pro takt leistung, pro core leistung oder pro transistor leistung irgendwie doch recht uninteressant ist :biggrin:

zumal spieleleistung nur ein aspekt bei der ganzen geschichte ist...und mittlerweile wohl nicht mehr der wesentliche

Savay
2008-06-19, 06:27:29
performance/W = 1,95?

also müsste der RV770 entweder gleich schnell bei halbem stromverbrauch sein oder aber mehr als halb so viel strom brauchen (was ja der fall ist) und dafür schneller sein.

selbst wenn man nach doofen GFLOP-zahlen geht kann das nicht stimmen, so groß ist der unterschied nicht.

peak beim rv770xt ist 1,2TFlop...peak beim GT200 622GFlop...wenn man mit den werten rechnet kommts schon hin...bei gleichem verbrauch!

wie realistisch die 1,2TFlop bei den Vec5 einheiten im schnitt sind hängt dann natürlich wohl stark von der anwendung ab. amd wird sicher etwas konservativer als mit den vollen 1,2TFlop gerechnet haben...bei ca. 25% weniger verbrauch und einer durchschnittlichen auslastung von 75% (0,9TFlop) kommts nämlich immernoch hin mit der rechnung.

Chris2CB
2008-06-19, 07:37:05
Erstmal abwarten und schauen was Nivida noch so im Laufe des Jahres präsentiert,Ail hatte ja mitgeteilt das die Jungens in grün noch was in der Pipeline haben.


Naja, allem anschein nach wurde Ail, entweder über den G200 oder über den RV770 etwas falsch informiert.

Des weiteren will man sicher bei NV auch so schnell wie möglich auf 55nm runter im Leistungsberreich einer 9800GTX bzw. etwas schneller. G92 ist immer noch größer als RV770 und das bei weniger Leistung. Der G200 steht unangetestet an der Spitze wenn auch der Vorsprung nicht so groß ist wie erhofft.


Allgemein ist das aber fast normal im Grafikkarten Markt, das war ja schon zu 3Dfx Zeiten so das man sich in Sicherheit gewogen hat wenn man mal länger als 1 Jahr die Leistungskrone hatte, anscheinend ist dann den Designer langweilig und man geht eher ein Risiko ein für neue Möglichkeiten.

reunion
2008-06-19, 09:02:50
Was nützen noch soviele FLOPS wenn die Perfomance in Spielen deutlich hinter einer GTX 280 zurückhängen wird? (ich meine jetzt Single gege Single, unabhängig vom Preis)
Wenn AMD schon solch gewagte Folien entwirft, muss da auch Perfomance-mäßig mehr bei raus springen.
"Powerfull" und "Efficient"... lächerlich von AMD! ;D

MfG :cool:

Das lachen wird dir schnell vergehen wenn AMD die 4870 um 299$ verkauft und diese zumindest auf dem Niveau der GTX260 liegt. Aber ich gebe dir recht, AMD bekam von NV quasi eine aufgelegten Elfmeter, dem man leider nicht genutzt hat. Ich wage mal zu behaupten das ein 300mm² Die gereicht hätte um den GT200 zu schlagen.

Gast
2008-06-19, 09:06:30
Das lachen wird dir schnell vergehen wenn AMD die 4870 um 299$ verkauft und diese zumindest auf dem Niveau der GTX260 liegt.

Was allerdings sehr unwahrscheinlich ist, da die 4850 gerade mal auf 9800GTX Niveau liegt.

Sascha1971
2008-06-19, 11:16:21
Auf jedenfall überzeugt mich die Karte nicht, das ich meine 8800GTX ultra gegen diese eintauschen sollte. Zumindest nicht für > 500 €

Ailuros
2008-06-19, 16:10:39
Erstmal abwarten und schauen was Nivida noch so im Laufe des Jahres präsentiert,Ail hatte ja mitgeteilt das die Jungens in grün noch was in der Pipeline haben.

GT200 ist offensichtlich nicht das Terraflop Produkt; die Enthusiast 55nm Version wird dann schon >1 TFLOP liegen.

Das lachen wird dir schnell vergehen wenn AMD die 4870 um 299$ verkauft und diese zumindest auf dem Niveau der GTX260 liegt. Aber ich gebe dir recht, AMD bekam von NV quasi eine aufgelegten Elfmeter, dem man leider nicht genutzt hat. Ich wage mal zu behaupten das ein 300mm² Die gereicht hätte um den GT200 zu schlagen.

Wach auf reunion; GT200 zaehlt nicht 1.4B Transistoren um sich gegen das RV770 Dingsbums zu stellen sondern um langfristig den Wind aus Intel's zu hoch gehaengten Segeln (bis jetzt) zu pusten.

Gleichstand mit welchen AF Einstellungen genau?

***edit: ein 300mm^2 die haette in die Margen gebissen wenn man die X2 bedenkt. Nur so hat AMD mehr Chancen endlich mal etwas Gewinn vorzeigen zu koennen was die GDP betrifft.

Naja, allem anschein nach wurde Ail, entweder über den G200 oder über den RV770 etwas falsch informiert.

Wieso? FLOP gegen FLOP ist der Unterschied zwischen den beiden genauso wie bisher angegeben.

Des weiteren will man sicher bei NV auch so schnell wie möglich auf 55nm runter im Leistungsberreich einer 9800GTX bzw. etwas schneller. G92 ist immer noch größer als RV770 und das bei weniger Leistung. Der G200 steht unangetestet an der Spitze wenn auch der Vorsprung nicht so groß ist wie erhofft.

In bisherigen Spielen ist die GT200 um etwa 1.8x schneller als die 8800GTX im Durchschnitt. Fuer die groessten Unterschiede braucht man DX9.0 Spiele mit D3D10 paths und natuerlich 2560*1600 +4xAA.

Allgemein ist das aber fast normal im Grafikkarten Markt, das war ja schon zu 3Dfx Zeiten so das man sich in Sicherheit gewogen hat wenn man mal länger als 1 Jahr die Leistungskrone hatte, anscheinend ist dann den Designer langweilig und man geht eher ein Risiko ein für neue Möglichkeiten.

Welches Risiko? Wie meinen?

reunion
2008-06-19, 16:20:09
Wach auf reunion; GT200 zaehlt nicht 1.4B Transistoren um sich gegen das RV770 Dingsbums zu stellen sondern um langfristig den Wind aus Intel's zu hoch gehaengten Segeln (bis jetzt) zu pusten.


Dessen bin ich mir sehrwohl bewusst. Nur wenn das mal nicht nach hinten losgeht. Der Kernmarkt von nV ist nach wie vor mit großen Abstand der Spielermarkt und da muss man jetzt mit enormen Aufwand und Kosten kämpfen um nicht ins Hintertreffen zu geraten.


***edit: ein 300mm^2 die haette in die Margen gebissen wenn man die X2 bedenkt. Nur so hat AMD mehr Chancen endlich mal etwas Gewinn vorzeigen zu koennen was die GDP betrifft.

Mit einem 300mm² Die hätte es keine X2 mehr gebraucht. :)

Gast
2008-06-19, 16:31:04
ja hallo, der RV770 ist auf der 4850 im Durchschnitt gerade mal auf G92 höhe und das mit einer Theoretischer Verdopplung der Leistung.

Was würde da wohl ein G92b in 55nm plus 1GB GDDR5 machen?

Der RV770 zeigt nur mal wieder wie komplett ineffizient die R600 Architektur einfach ist, nicht mehr und nicht weniger...

w0mbat
2008-06-19, 16:33:03
@Gast: Lol, hat das dir dein imaginärer Freund und Nvidia CEO erzählt? im Durchschnitt ist die HD4850 bis zu 70% schneller als der G92, nämlich bei 8xAA/16xAF.

Ailuros
2008-06-19, 16:48:53
Mit einem 300mm² Die hätte es keine X2 mehr gebraucht. :)

Natuerlich hatte ATI schon stets den ultimaten Zauberstab und schaffte es schon immer mit X Prozent weniger die-Flaeche hoehere Leistung als die Konkurrenz zu liefern. Das letzte Mal wo sowohl die insgesamte Leistung und Bildqualitaet fuer ATI auf hoeherem Niveau lag (siehe R580) war der Unterschied zum G71 wohl eher das Gegenteil.

Und wenn Du es schon hoeren willst, das eigentliche "R700" Dingsda war um einiges groesser als nur 300 Quadratmillimeter.

@Gast: Lol, hat das dir dein imaginärer Freund und Nvidia CEO erzählt? im Durchschnitt ist die HD4850 bis zu 70% schneller als der G92, nämlich bei 8xAA/16xAF.

Komisch dass man seit 2 Jahren mit keinem besseren Argument aufkommen kann als diesem. Wie waere es wenn man die AF Optimierungen auch wirklich abschalten koennte? Dann geht wohl der angebliche 70%-Unterschied schnell in die Hosen.

Black-Scorpion
2008-06-19, 16:56:45
Der G2x00er soll ein Hammer sein und vom RV7x0er soll man nicht zuviel erwarten.
Jetzt sieht es eher andersrum aus und schon wird nach allen regeln der Kunst versucht sich aus der Nummer rauszureden.

Nakai
2008-06-19, 17:26:17
Das letzte Mal wo sowohl die insgesamte Leistung und Bildqualitaet fuer ATI auf hoeherem Niveau lag (siehe R580) war der Unterschied zum G71 wohl eher das Gegenteil.

Der R580 hatte 40% mehr Transistoren und hat den G71 bei neuerer Software meistens mit mehr also nur 40% geschlagen.


mfg Nakai


€: Nichts destotrotz ist der GT200 die schnellste Singlekarte aufm Markt.

Gast
2008-06-19, 22:54:30
GT200 ist offensichtlich nicht das Terraflop Produkt; die Enthusiast 55nm Version wird dann schon >1 TFLOP liegen.



wieso? G200 hat doch 1TFLOP, 930 GFLOP in SP und ~80GFLOP in DP.

da ein reiner FLOP vs FLOP-vergleich eh sinnlos ist, kann man diese durchaus zusammenzählen.

Gast
2008-06-19, 22:56:50
peak beim rv770xt ist 1,2TFlop...peak beim GT200 622GFlop...wenn man mit den werten rechnet kommts schon hin...bei gleichem verbrauch!



G200 hat 933GFLOP peak.


wie realistisch die 1,2TFlop bei den Vec5 einheiten im schnitt sind hängt dann natürlich wohl stark von der anwendung ab. amd wird sicher etwas konservativer als mit den vollen 1,2TFlop gerechnet haben...bei ca. 25% weniger verbrauch und einer durchschnittlichen auslastung von 75% (0,9TFlop) kommts nämlich immernoch hin mit der rechnung.

in der realität wird es wohl ein maximum an 75%iger auslastung bei Vec5-einheiten rechnen, im durchschnitt eher 60%.

Gast
2008-06-20, 01:09:31
Hier gibt es einen guten Test über 512MB/1024MB:

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_wieviel_grafikkartenspeicher/13/#abschnitt_performancerating_qualitaet

Da kann eine 8800GT in 1600x1200 8AA um ganze 30% zulegen, ein voller G92b mit mehr Takt holt dann sicher noch mal 30% raus...

Savay
2008-06-20, 01:57:44
G200 hat 933GFLOP peak.

hm mein fehler hab irgendwo 622GFlop gelesen und die werte ausm kopf überschlagen... :rolleyes:



in der realität wird es wohl ein maximum an 75%iger auslastung bei Vec5-einheiten rechnen, im durchschnitt eher 60%.

schönrechnerei gehört zum marketing geblubber...aber das gilt für beide seiten :)

genauso wie den umstand das man dinge auch gerne schlechter redet als sie eigentlich sind :wink:

Gast
2008-06-20, 15:51:02
schönrechnerei gehört zum marketing geblubber...aber das gilt für beide seiten :)

genauso wie den umstand das man dinge auch gerne schlechter redet als sie eigentlich sind :wink:

richtig, nur kommen diese zahlen indirekt von ATI ;)

dort gab es eine folie die die auslastung der ALUs in ca. 5 spielen gezeigt hat (und ich bin mir sicher sie haben nicht gerade jene gewählt, bei denen die auslastung schlecht ist ;) )

bioshock kam dabei als einziges auf 4 von 5 (also 80%), im schnitt waren es eher 3/5 (also 60%).

Ailuros
2008-06-20, 16:41:04
Der R580 hatte 40% mehr Transistoren und hat den G71 bei neuerer Software meistens mit mehr also nur 40% geschlagen.


mfg Nakai

Bei Computerbase wo die G71 mit "high quality" AF und R580 mit "default" AF getestet wird rein zufaellig? Und bevor es jemand sagt ich hab als erster damals in den Wind gegen die eher unterdurchschnittliche AF Qualitaet fuer NV40 als auch G7x gewehrt, obwohl ich eigentlich ein Mitglied dieser bloeden NV Focus Gruppe war.

Damit mich keiner falsch versteht hier (und ja es ist langweilig sich immer wieder zu wiederholen) man laesst wenn man so nahe wie moeglich an jeglicher Objektivitaet liegen will, nicht nach jeweiligen Bevorzugungen die Bildqualitaet auf 2 Schienen laufen. Heutzutage beschaeftigt sich keiner mehr mit den AF Optimierungen und schon gar nicht diejenigen die theoretisch zur AMD Uferseite gehoeren.

Ja natuerlich hatte die G71 rundum maessigere AF Qualitaet als R580, aber entweder man testet beide Seiten mit ausgeschalteten Optimierungen oder beide eingeschaltet. Koennte man heute wirklich die AF Optimierungen auf Radeons abschalten, waere der Unterschied zwischen GT200/G8x noch um einiges groesser im Vergleich zu jeglicher RV6x0/RV7x0.


€: Nichts destotrotz ist der GT200 die schnellste Singlekarte aufm Markt.

Mit zukuenftiger SW wird sich das Bild noch um etwas zu Gunsten dieser wenden.

AnarchX
2008-06-20, 16:48:05
Mit zukuenftiger SW wird sich das Bild noch um etwas zu Gunsten dieser wenden.
Und woran machst du das fest?

Wenn man sich anschaut, was die höhere MUL-Nutzbarkeit und der verdoppelte LRF bringt in NV-Beispielen, dann bewegt dass sich im Bereich von 5-25%.

RV770 wird sich ja auch, wie mancher Test (http://techreport.com/articles.x/14967/8) schon jetzt zeigt, sich in shaderlastigeren Szenarien wohl fühlen.

Mr. Lolman
2008-06-20, 16:56:01
Bei Computerbase wo die G71 mit "high quality" AF und R580 mit "default" AF getestet wird rein zufaellig?

Und was war falsch daran? Schlimm wars eher, dass man lange Zeit default gegen default gebencht hat.


Und bevor es jemand sagt ich hab als erster damals in den Wind gegen die eher unterdurchschnittliche AF Qualitaet fuer NV40 als auch G7x gewehrt, obwohl ich eigentlich ein Mitglied dieser bloeden NV Focus Gruppe war.


Daran kann ich mich ehrlich gesagt nicht erinnern.


Damit mich keiner falsch versteht hier (und ja es ist langweilig sich immer wieder zu wiederholen) man laesst wenn man so nahe wie moeglich an jeglicher Objektivitaet liegen will, nicht nach jeweiligen Bevorzugungen die Bildqualitaet auf 2 Schienen laufen. Heutzutage beschaeftigt sich keiner mehr mit den AF Optimierungen und schon gar nicht diejenigen die theoretisch zur AMD Uferseite gehoeren.

Weil heut beide IHVs auch einem brauchbar hohen Niveau angelangt sind. Im Spieleforum gibts nen Thread von mir, wo jeder eingeladen ist zu posten wenn er bei nem aktuellen Spiel auf ner aktuellen GraKa eine Flimmerneigung erkennt.



Ja natuerlich hatte die G71 rundum maessigere AF Qualitaet als R580, aber entweder man testet beide Seiten mit ausgeschalteten Optimierungen oder beide eingeschaltet. Koennte man heute wirklich die AF Optimierungen auf Radeons abschalten, waere der Unterschied zwischen GT200/G8x noch um einiges groesser im Vergleich zu jeglicher RV6x0/RV7x0.

Bei HQ wird auch noch optimiert. Selbst auf aktuellen GraKas. Denn nicht optimiertes AF, müsste perfekte BQ bringen - und trotzdem gibts noch sichtbare Unterschiede zur HQ-AF und HQ-AF + SSAA (und damit mein ich jetzt nicht die zusätzliche Schärfung am Horizont).


BTW: Im ATi-Spekuthread wundert man sich schon, wo du abgeblieben bist, nachdem deine Vorhersagen zu den neuen Chips nicht ganz so eintrafen...



RV770 wird sich ja auch, wie mancher Test (http://techreport.com/articles.x/14967/8) schon jetzt zeigt, sich in shaderlastigeren Szenarien wohl fühlen.

Genau wie der RV670, dem zu dessen Debut von div. Seiten schon sogar ein 2. FX-Schicksal prophezeit wurde.

Nakai
2008-06-20, 16:56:55
Bei Computerbase wo die G71 mit "high quality" AF und R580 mit "default" AF getestet wird rein zufaellig? Und bevor es jemand sagt ich hab als erster damals in den Wind gegen die eher unterdurchschnittliche AF Qualitaet fuer NV40 als auch G7x gewehrt, obwohl ich eigentlich ein Mitglied dieser bloeden NV Focus Gruppe war.

Das war damals auch mehr als begründet. Das AF des NV40 bzw. G7x war ja ziemlich grisselig.


Wenn man sich anschaut, was die höhere MUL-Nutzbarkeit und der verdoppelte LRF bringt in NV-Beispielen, dann bewegt dass sich im Bereich von 5-25%.


Mhh, dem GT200 fehlt es bestimmt nicht an Shaderleistung. Die is mehr als doppelt so groß.


mfg Nakai

deekey777
2008-06-20, 16:57:42
Mit zukuenftiger SW wird sich das Bild noch um etwas zu Gunsten dieser wenden.
Das klingt nicht nach einem Treiber. :|

Gast
2008-06-20, 16:58:30
in der realität wird es wohl ein maximum an 75%iger auslastung bei Vec5-einheiten rechnen, im durchschnitt eher 60%.
Das ist so wie es da steht schon mal falsch, es kommt auf die Splittingfähigkeiten und dem Code der darauf läuft an. Bei heutigen Spielen liegt die Auslastung bei einer HD3870 zwischen 65% und knapp 90%.

Ailuros
2008-06-20, 17:04:14
Und woran machst du das fest?

Wenn man sich anschaut, was die höhere MUL-Nutzbarkeit und der verdoppelte LRF bringt in NV-Beispielen, dann bewegt dass sich im Bereich von 5-25%.

RV770 wird sich ja auch, wie mancher Test (http://techreport.com/articles.x/14967/8) schon jetzt zeigt, sich in shaderlastigeren Szenarien wohl fühlen.

Nur sieht mir persoenlich Race Driver Grid bei weitem nicht so shaderlastig aus wie Crysis als Gegenbeispiel. Crysis ist wiederum auch nicht das beste Beispiel um ehrlich zu sein. Auf jeden Fall meinte ich das sowohl kommende D3D9.0 Spiele + D3D10 path als auch ein bisschen (uebliche) Treiberfunkelei die GT200 helfen wird sich von G92/G80 weiter abzusetzen.

Dumme Frage: sieht es danach aus als ob GT200 ihre Bandbreite im Vergleich zur 9800GX2 ausspielen kann? (minus stets den Faellen wo der Framebuffer bei der letzteren limitiert).

Wie dem auch sei so wie es momentan aussieht, muesste jemand ne Macke haben um eine GTX260 gegen eine 9800GTX zu kaufen.

Mr. Lolman
2008-06-20, 17:20:51
Nur sieht mir persoenlich Race Driver Grid bei weitem nicht so shaderlastig aus wie Crysis als Gegenbeispiel. Crysis ist wiederum auch nicht das beste Beispiel um ehrlich zu sein. Auf jeden Fall meinte ich das sowohl kommende D3D9.0 Spiele + D3D10 path als auch ein bisschen (uebliche) Treiberfunkelei die GT200 helfen wird sich von G92/G80 weiter abzusetzen.

Crysis ist wiederum ein ganz eigenes Kapitel. zB versteh ich nicht ganz, warum auf dem, hinsichtlich Texelleistung schwächelndem, RV670 das Abschalten des Texturstreaming quasi 0 Performance kostet (bei deutlich besserer Optik).

Außerdem würde niemand zB. den 3dmark als Benchmark ernst nehmen, wenn man wüsste, dass NV >5000h damit beschäftigt war, die App (tw. vor Ort) bestmöglich auf die eigene HW zu optimieren. Bei Crysis hingegen ist das egal ;)

BTW: Bei Assasssin's Creed gehen ATis auch ordentlich ab. Fragt sich wodurch das zu erklären ist: http://techreport.com/articles.x/14967/7

Ailuros
2008-06-20, 17:21:40
Und was war falsch daran? Schlimm wars eher, dass man lange Zeit default gegen default gebencht hat.

Man hat aber auch wiederum damals selten bis NIE high quality gegen high quality gebencht oder?

Noch schlimmer ist dass sich heutzutage ueberhaupt keiner mehr damit beschaetifgt, weil ja angeblich alles so ist wie es sein sollte. Eben nicht.

Daran kann ich mich ehrlich gesagt nicht erinnern.

Du kannst gerne die Datenbank hier als auch bei B3D dafuer nachsuchen. Nebenbei hab ich auch einen ganzen Artikel fuer den fruehen 78.03 Treiber fuer die G70 damals geschrieben, von dem DU zufaelligerweise damals sogar Prozentuale gequotet hattest. Faellt der Groschen jetzt hm? ;)


Weil heut beide IHVs auch einem brauchbar hohen Niveau angelangt sind. Im Spieleforum gibts nen Thread von mir, wo jeder eingeladen ist zu posten wenn er bei nem aktuellen Spiel auf ner aktuellen GraKa eine Flimmerneigung erkennt.

Nein und abermals NEIN. Wenn eine Textur trilinear fordert dann sollte sie auch diese bekommen und hier gibt es keine "aber" in meinem Buch. Wenn man an Filterungsresourcen spart, dann fuert aus auch stellenweise zu Nebeneffekten. Manche tolieren Grad X, manche ueberhaupt nichts.

Bei HQ wird auch noch optimiert. Selbst auf aktuellen GraKas. Denn nicht optimiertes AF, müsste perfekte BQ bringen - und trotzdem gibts noch sichtbare Unterschiede zur HQ-AF und HQ-AF + SSAA (und damit mein ich jetzt nicht die zusätzliche Schärfung am Horizont).

Es gibt KEINE perfekte Bildqualitaet in 3D. Selbst das menschliche Auge hat Schwaechen. Supersampling macht nur einen minimalen Unterschied wenn untergefiltert wird (bis gar keinen), denn wie Du weisst SS filtert keine Texturen. Wird richtig gefiltert und es handelt sich nicht um miserablen content braucht man auch kein Supersampling mehr.


BTW: Im ATi-Spekuthread wundert man sich schon, wo du abgeblieben bist, nachdem deine Vorhersagen zu den neuen Chips nicht ganz so eintrafen...

Ich war generell in den letzten Tagen nicht da und es ist ueberhaupt eine bodenlose Frechheit mir solchen Unsinn unter die Nase zu reiben.

Wir werden schon sehen wo RV770 zufaelligerweise seine hohen GFLOP Zahlen wegstecken muss. RV770 ist und bleibt eine einfache RV6x0-Variante die AMD helfen wird ihren Markanteil noch um einen Strich zu verbessern; danach ist es aus damit und die 4850 liegt auf 9800GTX Nivaeu (mehr oder weniger) wenn man natuerlich beide mit den AF Optimierungen ankommen laesst. Was anderes hab ich nie behauptet und es bleibt auch dabei.

Anstatt jetzt mit dem Finger auch mich zu zeigen, waere es anstaendiger von jemand wie Dich wenn er sich ausnahmsweise gegen diverse Optimierungen waeren wuerde und nicht mit Absicht genau wegen Deiner Bevorzugungen das eine Auge zuzudruecken. Gell klingt mies wenn jemand anders ausnahmsweise zubeist?

Mr. Lolman
2008-06-20, 17:48:05
Man hat aber auch wiederum damals selten bis NIE high quality gegen high quality gebencht oder?

Noch schlimmer ist dass sich heutzutage ueberhaupt keiner mehr damit beschaetifgt, weil ja angeblich alles so ist wie es sein sollte. Eben nicht.

Bitte um ein Beispiel. Ich brauch nämlich eh ein aktuelles Spiel wo einem die Unterschiede zw ATi und NV, sowie den unterschiedlichen Treibereinstellungen ins Gesicht springen. Solang ich sowas nicht finde, muss ich davon ausgehen, dass alles passt.

(was mir aber für mein schon lang überfälligen Artikel auch nicht viel weiterhilft)



Du kannst gerne die Datenbank hier als auch bei B3D dafuer nachsuchen. Nebenbei hab ich auch einen ganzen Artikel fuer den fruehen 78.03 Treiber fuer die G70 damals geschrieben, von dem DU zufaelligerweise damals sogar Prozentuale gequotet hattest. Faellt der Groschen jetzt hm? ;)

Ja fällt. Der 78.03 hat das G71-Problem behoben. Ursprünglich hats aber schon mit NV40 angefangen. Der allgemeine Tenor war ja damals, dass default vergleichbar war* und wenn sich ein NV-User über Unzulänglichkeiten der BQ mokierte, konnte er ja immernoch auf HQ schalten. Wirklich problematisch wurde es ja erst, nachdem HQ auf dem G7x auch keine gute Qualität mehr brachte.

*erst mein Intervenieren hat manche Seiten (zB CB, PCGH und xbitlabs) dazu bewegt, die BQ genauer unter die Lupe zu nehmen um zu dem Ergebnis zu kommen, dass HQ vergleichbar ist.


Nein und abermals NEIN. Wenn eine Textur trilinear fordert dann sollte sie auch diese bekommen und hier gibt es keine "aber" in meinem Buch. Wenn man an Filterungsresourcen spart, dann fuert aus auch stellenweise zu Nebeneffekten. Manche tolieren Grad X, manche ueberhaupt nichts.

Wenn eine komplett einfärbige Textur trilinear fordert ist das imo ziemlich unsinnig. Imo sollte wirklich nur da voll gefiltert werden, wos notwendig ist. fps hingegen kann man immer gut brauchen.


Es gibt KEINE perfekte Bildqualitaet in 3D. Selbst das menschliche Auge hat Schwaechen. Supersampling macht nur einen minimalen Unterschied wenn untergefiltert wird (bis gar keinen), denn wie Du weisst SS filtert keine Texturen. Wird richtig gefiltert und es handelt sich nicht um miserablen content braucht man auch kein Supersampling mehr.

Einerseits forderst du immer und überall volle Filtering, andererseits erlaubst du den Designer nicht zu bauen, was sie wollen?
Imo sollte eine GraKa (bei egal welchem Input) immer das möglichst beste Bild bei gleichzeitig möglichst hohen fps bringen. Insofern ists imo nur verständlich, wenn man zB schwachkontrastige Texturen nicht voll filtert.



Ich war generell in den letzten Tagen nicht da und es ist ueberhaupt eine bodenlose Frechheit mir solchen Unsinn unter die Nase zu reiben.

Die Frechheit kommt nicht von mir, ich hab dich nur darauf hingewiesen, dass es diesbezüglich ein paar Posts im ATi-Thread gibt.


Wir werden schon sehen wo RV770 zufaelligerweise seine hohen GFLOP Zahlen wegstecken muss. RV770 ist und bleibt eine einfache RV6x0-Variante die AMD helfen wird ihren Markanteil noch um einen Strich zu verbessern; danach ist es aus damit und die 4850 liegt auf 9800GTX Nivaeu (mehr oder weniger) wenn man natuerlich beide mit den AF Optimierungen ankommen laesst. Was anderes hab ich nie behauptet und es bleibt auch dabei.

Nur solang die Bandbreite/Pixelfüllrate der 9800GTX nicht knapp wird...


Anstatt jetzt mit dem Finger auch mich zu zeigen, waere es anstaendiger von jemand wie Dich wenn er sich ausnahmsweise gegen diverse Optimierungen waeren wuerde und nicht mit Absicht genau wegen Deiner Bevorzugungen das eine Auge zuzudruecken. Gell klingt mies wenn jemand anders ausnahmsweise zubeist?

Optimierungen gibts immer, wo man nur hinschaut. Die Grundidee dahinter ist ja, den Aufwand fürs gestieckte Ziel möglichst minimal zu halten. Und deswegen haben wir auch MSAA/TRMSAA anstatt SSAA und eben optimiertes AF anstatt noch viel mehr SSAA.



EDIT: Gerade beim Unterfiltern macht Supersampling den deutlichsten Unterschied. Einfach mal GTA-SA zocken. Oder irgendein anderes Spiel mit negativem LOD.

AnarchX
2008-06-20, 18:13:28
Das Thema sind zukünftige G2xx-GPUs und nicht die Texturfilterung von GPUs aus <2006.

Ailuros
2008-06-20, 18:26:11
Bitte um ein Beispiel. Ich brauch nämlich eh ein aktuelles Spiel wo einem die Unterschiede zw ATi und NV, sowie den unterschiedlichen Treibereinstellungen ins Gesicht springen. Solang ich sowas nicht finde, muss ich davon ausgehen, dass alles passt.

(was mir aber für mein schon lang überfälligen Artikel auch nicht viel weiterhilft)

Es wird hoechste Zeit fuer so einen Artikel von Dir; ich hab leider keine Zeit mehr fuer solche Affaeren. Fuer's empfindliche Auge gibt es durchaus eine Unterschied selbst zwischen "quality" und "high quality" auf G8x und aufwaerts. Und man muss auch ernsthaft einen Vogel haben, wenn man alles andere als "high quality" auf solchen GPUs benutzt. Im gegebenen Fall benutzt NV auf den Dingern unter "quality" lediglich nur noch eine leicht bessere Version von "brilinear" im Vergleich zu G7x und sonst nichts.

Im Gegensatz benutzen Radeons seit R6x0 nicht nur "brilinear" im ganzen default Optimierungspaket, obwohl sie dieses off the record hartnaeckig behaupten. Die Aufforderung bleibt fuer einen ausfuehrlichen Artikel; selbst wenn ich Zeit fuer so eine Uebung haette wuerden manchen von Euch die Resultate sowieso nicht besonders gut schmecken.

Fang mal mit Humus' selective supersampling demo an; das demo soll ja eigentlich nur zeigen wie adaptives SS im Shader shader aliasing beseitigen sollte. Probier es mal aus auf einer GPU wo man Optimierungen ein- und ausschalten kann.

Ja fällt. Der 78.03 hat das G71-Problem behoben. Ursprünglich hats aber schon mit NV40 angefangen. Der allgemeine Tenor war ja damals, dass default vergleichbar war* und wenn sich ein NV-User über Unzulänglichkeiten der BQ mokierte, konnte er ja immernoch auf HQ schalten. Wirklich problematisch wurde es ja erst, nachdem HQ auf dem G7x auch keine gute Qualität mehr brachte.

Nach NV's eigenen Behauptungen hatte jemand vergessen in den Treiber den "Schalter" fuer "high quality" richtig einzulegen. Demzufolge bekam man stets "quality" egal ob "quality" oder "high quality" im Treiber eingestellt war. Ob jetzt dieses wahr war oder nicht ist nach all der Zeit unwichtig. Mir geht es eher darum warum sich AMD seit einiger Zeit stur weigert dem Verbraucher das Ausschalten der Optimierungen zu erlauben und bitteschoen lass mich dann entscheiden was ich und wo als Benutzter einsetzen will.


Wenn eine komplett einfärbige Textur trilinear fordert ist das imo ziemlich unsinnig. Imo sollte wirklich nur da voll gefiltert werden, wos notwendig ist. fps hingegen kann man immer gut brauchen.

Ach und es fordern nur einfaerbige Texturen trilinear in heutigen Spielen?

Einerseits forderst du immer und überall volle Filtering, andererseits erlaubst du den Designer nicht zu bauen, was sie wollen?
Imo sollte eine GraKa (bei egal welchem Input) immer das möglichst beste Bild bei gleichzeitig möglichst hohen fps bringen. Insofern ists imo nur verständlich, wenn man zB schwachkontrastige Texturen nicht voll filtert.

Jeder kann bauen was er will; ich will trotz allem den Luxus ueber die komplette Kontrolle meiner Texturfilterung haben. Komplett ist sowieso uebertrieben dass muss ich schon zugestehen, aber ich werte mich bei NVIDIA genauso eben darum um die zusaetzliche Wahl haben zu koennen. Ebenso wie mit den hybriden MS/SS Modi die NV fuer ueberfluessig hielt nach dem G8x und der Vorstellung von CSAA.

Die Frechheit kommt nicht von mir, ich hab dich nur darauf hingewiesen, dass es diesbezüglich ein paar Posts im ATi-Thread gibt.

Ich hab sie gelesen und sie sind mir auch ziemlich gleichgueltig. Dass Du sie aber weitertraegst wird wohl schon seinen Grund haben.


Nur solang die Bandbreite/Pixelfüllrate der 9800GTX nicht knapp wird...

Sie ist sogar noch knapper auf G92b; schau Dir mal die Frequenzen von dem Ding etwas genauer an.

Optimierungen gibts immer, wo man nur hinschaut. Die Grundidee dahinter ist ja, den Aufwand fürs gestieckte Ziel möglichst minimal zu halten. Und deswegen haben wir auch MSAA/TRMSAA anstatt SSAA und eben optimiertes AF anstatt noch viel mehr SSAA.

Wenn man Aepfel mit Birnen vergleicht dann kann man natuerlich all dieses in den gleichen Topf werfen. Wenn unterfiltert wird hilft Supersampling auch nichts mehr und Du weisst genau dass quasi Textur-AA erstmal mit bi-/trilinear anfaengt. Wird hier gespart hilft SSAA auch nichts mehr. Im schlimmsten Fall kann ich auch ohne MSAA/SSAA leben so lange die Aufloesung hoch genug ist.

EDIT: Gerade beim Unterfiltern macht Supersampling den deutlichsten Unterschied. Einfach mal GTA-SA zocken. Oder irgendein anderes Spiel mit negativem LOD.

Was hat jetzt Unterfilterung direkt mit negativem LOD zu tun?

Mr. Lolman
2008-06-20, 19:26:21
Es wird hoechste Zeit fuer so einen Artikel von Dir; ich hab leider keine Zeit mehr fuer solche Affaeren. Fuer's empfindliche Auge gibt es durchaus eine Unterschied selbst zwischen "quality" und "high quality" auf G8x und aufwaerts. Und man muss auch ernsthaft einen Vogel haben, wenn man alles andere als "high quality" auf solchen GPUs benutzt. Im gegebenen Fall benutzt NV auf den Dingern unter "quality" lediglich nur noch eine leicht bessere Version von "brilinear" im Vergleich zu G7x und sonst nichts.
Nächste Woche bekomm ich vorraussichtlich ne HD4850 :naughty:

Außerdem beschränkt sich die Defaulteinstellung bei NV afaik mit ziemlicher Sicherheit nicht nur auf brilinear. Ich werd das aber am Montag gern nochmal verifizieren...


Im Gegensatz benutzen Radeons seit R6x0 nicht nur "brilinear" im ganzen default Optimierungspaket, obwohl sie dieses off the record hartnaeckig behaupten. Die Aufforderung bleibt fuer einen ausfuehrlichen Artikel; selbst wenn ich Zeit fuer so eine Uebung haette wuerden manchen von Euch die Resultate sowieso nicht besonders gut schmecken.
Die Zeit ist auch bei mir das Problem. In der Arbeit find ich zwar hinundwieder mal Zeit fürs ausführlichere 3DCenter surfen/posten, aber div. Apps/GraKas hinsichtlich Filterqualität durchzutesten, hat dann doch wieder eine ganz andere Qualität.

Und ob die Resultate schmecken oder nicht, ist wurscht, sofern sie mit validen Methoden entstanden sind.


Fang mal mit Humus' selective supersampling demo an; das demo soll ja eigentlich nur zeigen wie adaptives SS im Shader shader aliasing beseitigen sollte. Probier es mal aus auf einer GPU wo man Optimierungen ein- und ausschalten kann.
Werd ich machen.


Nach NV's eigenen Behauptungen hatte jemand vergessen in den Treiber den "Schalter" fuer "high quality" richtig einzulegen. Demzufolge bekam man stets "quality" egal ob "quality" oder "high quality" im Treiber eingestellt war. Ob jetzt dieses wahr war oder nicht ist nach all der Zeit unwichtig. Mir geht es eher darum warum sich AMD seit einiger Zeit stur weigert dem Verbraucher das Ausschalten der Optimierungen zu erlauben und bitteschoen lass mich dann entscheiden was ich und wo als Benutzter einsetzen will.
Das war wohl nur Schadensbegrenzung seitens NV, denn HQ hat die Bildqualität ggü Q sehr wohl verbessert (siehe enstprechenden 3DC-Artikel)


Ach und es fordern nur einfaerbige Texturen trilinear in heutigen Spielen?
Nicht nur - aber auch. Ich bin mir sicher, dass du verstanden hast, was ich damit sagen wollte.


Jeder kann bauen was er will; ich will trotz allem den Luxus ueber die komplette Kontrolle meiner Texturfilterung haben. Komplett ist sowieso uebertrieben dass muss ich schon zugestehen, aber ich werte mich bei NVIDIA genauso eben darum um die zusaetzliche Wahl haben zu koennen. Ebenso wie mit den hybriden MS/SS Modi die NV fuer ueberfluessig hielt nach dem G8x und der Vorstellung von CSAA.
Das wünsch ich mir natürlich auch. Trotzdem kann mans den IHVs nicht verübeln, wenn sie darauf aus sind, per default ein möglichst ausgewogenes Verhältnis zw. BQ und Performance herzustellen. Und volles 16xAF verlangt halt nach 256 Textursamples. Auch bei einfärbigen Texturen, wo theoretisch ein Einziges reichen würde.


Ich hab sie gelesen und sie sind mir auch ziemlich gleichgueltig. Dass Du sie aber weitertraegst wird wohl schon seinen Grund haben.
Ich wollte nur, dass du hinsichtlich dessen informiert bist. Sry, falls du das in den falschen Hals bekommen hast.


Sie ist sogar noch knapper auf G92b; schau Dir mal die Frequenzen von dem Ding etwas genauer an.
Deswegen wird der wohl auch unter genau den selben Problemen leiden, wie der G92.


Wenn man Aepfel mit Birnen vergleicht dann kann man natuerlich all dieses in den gleichen Topf werfen. Wenn unterfiltert wird hilft Supersampling auch nichts mehr und Du weisst genau dass quasi Textur-AA erstmal mit bi-/trilinear anfaengt. Wird hier gespart hilft SSAA auch nichts mehr. Im schlimmsten Fall kann ich auch ohne MSAA/SSAA leben so lange die Aufloesung hoch genug ist.
Solang AF nicht appliziert wird, wird ohnehin voll gefiltert. Interessiert aber keinen, weil Spiele ohne AF heutzutage nicht mehr tragbar sind. Also sind wir uns wohl einig, dass sich die Diskussion um Unterfilterung beim AF dreht, oder?
Und da hilft Supersampling sehr wohl.


Was hat jetzt Unterfilterung direkt mit negativem LOD zu tun?
Negatives LOD bedingt zwangsläufig Unterfilterung.

Gast
2008-06-20, 20:40:49
Koennte man heute wirklich die AF Optimierungen auf Radeons abschalten, waere der Unterschied zwischen GT200/G8x noch um einiges groesser im Vergleich zu jeglicher RV6x0/RV7x0.


Ich denke so um die 20-30% muss man bei den aktuellen ATI-fps mit AF abziehen.

Gast
2008-06-20, 20:45:34
Das war damals auch mehr als begründet. Das AF des NV40 bzw. G7x war ja ziemlich grisselig.



Bei weitem nicht in dem Maße wie das von den ATi-Anhängern grisselig geredet wurde! Ich hatte erst kürzlich wieder einen Nv40 im Rechner und die AF-Qualität ist ok (verglichen mit G80 oder R580).

Gast
2008-06-20, 21:17:03
Wenn eine komplett einfärbige Textur trilinear fordert ist das imo ziemlich unsinnig. Imo sollte wirklich nur da voll gefiltert werden, wos notwendig ist. fps hingegen kann man immer gut brauchen.

nur hat da kein grafiktreiber reinzupfuschen sondern der spieledesigner muss die wahl treffen welche filterung notwendig ist.

Sonyfreak
2008-06-20, 22:11:39
Bei weitem nicht in dem Maße wie das von den ATi-Anhängern grisselig geredet wurde! Ich hatte erst kürzlich wieder einen Nv40 im Rechner und die AF-Qualität ist ok (verglichen mit G80 oder R580).Also zumindest die AF-Qualität von meiner 7900GT war alles andere als OK. Es flimmerte und war zudem noch extrem winkelabhängig, also im Vergleich zu R5XX und G8x (und neuer) schlichtweg inakzeptabel.

mfg.

Sonyfreak

Ailuros
2008-06-21, 07:14:00
Ich denke so um die 20-30% muss man bei den aktuellen ATI-fps mit AF abziehen.

Wenn es nur 30% waehren wuerde ich erst gar nicht erwaehnen. R580 war im radikalsten (worst case scenario) bei ~50% (ebenso wie G7x), wobei =/>G8x bei ~15% liegt.

Das Thema sind zukünftige G2xx-GPUs und nicht die Texturfilterung von GPUs aus <2006.

AnarchX,

Noch etwas Geduld. Es ist zwar streng gesehen OT, aber so irrelevant nun auch wieder nicht.

Lolman,

Ich hab mir die Finger ueber die Jahre wund getippt bis ich die Filterungs-qualitaet haben konnte die ich in mir in gewissen Grenzen vorstellen konnte. Das Zeug kostet ueberhaupt NV eine Unmenge an Transistoren, und obwohl es auch anders gehen wuerde, bringt AMD momentan weder insgesamt gravierend hoehere Leistung und schon gar nicht mit vergleichbarer Bildqualitaet.

Das G8x Nivaeu ist IMHLO da wo es generell schon seit Jahren sein sollte und das einzige was ich will ist das es auch langfristig so bleibt. Kommt jetzt NV in der weiteren Zukunft =/>G3xx mit irgendwelchen "neu erfundenen" Sparmodi wieder an, werden sie dafuer garantiert nicht verschont. Vorsicht was man als "gut genug" am Ende verschachtelt denn obwohl manche glauben dass IHVs taub und blind sind, sind sie eher das Gegenteil. Wenn es dem Publikum gleichgueltig ist dann wird sich in der Zukunft kein Schwein die Muehe machen und so viel an Transistoren dafuer opfern. Schon gar nicht wenn Intel bald auf irgend eine Art ins Spiel kommt. Das gewuenschte sollte hoechste Leistung bei hoechstmoeglicher Qualitaet sein und ich habe Angst dass gerade Intel beim letzteren nicht besonders anstrengen wird.

***edit: uebrigens ich ueberlass die Filterungs-einzelheiten einer anderen Debatte, aber erstens ist Unterfilterung nicht zwangslaeufig von negativem LOD bedingt (es heisst eigentlich Entwickler-Faulheit) und zweitens bleibt es fuer mich dabei dass bei wahrer Unterfilterung (ie wenn an bi- oder trilinear zB gespart wird) dass SSAA nicht mehr viel ausmachen kann. Uebrigens bei der Fuellrate der Radeons und fehlender SSAA "Unterstuetzung" ist es sowieso fast laecherlich ueber Supersampling zu sprechen.

robbitop
2008-06-21, 07:23:40
In bisherigen Spielen ist die GT200 um etwa 1.8x schneller als die 8800GTX im Durchschnitt. Fuer die groessten Unterschiede braucht man DX9.0 Spiele mit D3D10 paths und natuerlich 2560*1600 +4xAA.


Dann misst man aber Mist. ;)
Denn in dem Falle ist der VRAM der alten Generation voll, die des GT200 nicht. In Crysis Very High kann man auch problemlos in 1680 vergleichen bei völliger GPU-Limitiation. An diesen Ergebnissen sollte man sich orientieren, wenn man nichts Verfälschtes sehen will.

AnarchX
2008-06-21, 07:26:21
Zudem dürfte ja in den "2560*1600 +4xAA"-Szenarien auch die bessere ROP-Kompression greifen, fragt sich nur ob man langfristig von dieser weiter profitieren wird, irgendwann muss man auch bei einem G200 in der Auflösung heruntergehen, bzw. muss es heute schon: Crysis VH.

Ailuros
2008-06-21, 07:46:58
Dann misst man aber Mist. ;)
Denn in dem Falle ist der VRAM der alten Generation voll, die des GT200 nicht. In Crysis Very High kann man auch problemlos in 1680 vergleichen bei völliger GPU-Limitiation. An diesen Ergebnissen sollte man sich orientieren, wenn man nichts Verfälschtes sehen will.


Es gibt einen Unterschied zwischen dem absoluten Durchschnitt und einer eher theoretischen "bis zu" Rate. Wenn Du jetzt in allen Faellen ausserhalb Crysis und co. die Limitierung hauptsaechlich auf der GPU haben willst, dann wirst Du die momentan benutzten Spiele garantiert nicht nur in 1680 abmessen wollen.

Und wenn Du Dir die Resultate generell ansiehst dann hat die GTX280 keinen so grossen Unterschied im Vergleich zur 8800GTX/Ultra weil eben der Framebuffer nur um 25% groesser ist. Die Frage ist dann eher wann und wo GT200 ihre Bandbreite ausspielen kann. Momentan sieht es eher danach aus als ob sie dekorativ waere.

Mr. Lolman
2008-06-21, 08:29:29
nur hat da kein grafiktreiber reinzupfuschen sondern der spieledesigner muss die wahl treffen welche filterung notwendig ist.

Tut er ja tw auch. Aber erstens kann man die Filterqualität leider nicht bis ins letzte Detail steuern, und andererseits ists etwas unsinnig vom Designer zu erwarten, dass es jede einzelne Textur nach div. Kriterien durchtestet um herauszufinden, wieviel Filterung notwendig ist. Das ists detulich praktischer wenn dass der GraKatreiber innerhalb von ein paar ms entscheidet.

Zwar wär ein Flag, dass erlaubt für bestimmte Texturen volle Qualität zu forcieren recht praktisch, aber andererseits besteht dann auch wieder die Gefahr der Faulheit der Entwickler, die u.U. das Flag überall anlassen würden - auch da wors garnicht notwendig wär.

Bei weitem nicht in dem Maße wie das von den ATi-Anhängern grisselig geredet wurde! Ich hatte erst kürzlich wieder einen Nv40 im Rechner und die AF-Qualität ist ok (verglichen mit G80 oder R580).

Mit HQ wars ja eh einwandfrei. Default und Q waren häufig aber ziemlich mistig. z.b.:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3282807&postcount=863
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3282496#post3282496



Lolman,

Ich hab mir die Finger ueber die Jahre wund getippt bis ich die Filterungs-qualitaet haben konnte die ich in mir in gewissen Grenzen vorstellen konnte. Das Zeug kostet ueberhaupt NV eine Unmenge an Transistoren, und obwohl es auch anders gehen wuerde, bringt AMD momentan weder insgesamt gravierend hoehere Leistung und schon gar nicht mit vergleichbarer Bildqualitaet.

per default ist die BQ sehr wohl vergleichbar. Natürlich kann man als NV Nutzer ruhig auf HQ stellen, aber immerhin sind mit Standardetreiberinstellungen die Benchmarks im Ggs zu früher nicht durch Filterunterschiede verfälscht


Das G8x Nivaeu ist IMHLO da wo es generell schon seit Jahren sein sollte und das einzige was ich will ist das es auch langfristig so bleibt. Kommt jetzt NV in der weiteren Zukunft =/>G3xx mit irgendwelchen "neu erfundenen" Sparmodi wieder an, werden sie dafuer garantiert nicht verschont. Vorsicht was man als "gut genug" am Ende verschachtelt denn obwohl manche glauben dass IHVs taub und blind sind, sind sie eher das Gegenteil. Wenn es dem Publikum gleichgueltig ist dann wird sich in der Zukunft kein Schwein die Muehe machen und so viel an Transistoren dafuer opfern. Schon gar nicht wenn Intel bald auf irgend eine Art ins Spiel kommt. Das gewuenschte sollte hoechste Leistung bei hoechstmoeglicher Qualitaet sein und ich habe Angst dass gerade Intel beim letzteren nicht besonders anstrengen wird.

Mir gings fast immer ausschliesslich darum, wie fair die HW Tests sind. Ich finds auch nicht OK, dass PCGH mit HQ testet. Klar kostets auf aktuellen NV-Karten nicht allzuviel, aber man sollte sich schon auf einen gemeinsamen Nenner einigen.


***edit: uebrigens ich ueberlass die Filterungs-einzelheiten einer anderen Debatte, aber erstens ist Unterfilterung nicht zwangslaeufig von negativem LOD bedingt (es heisst eigentlich Entwickler-Faulheit) und zweitens bleibt es fuer mich dabei dass bei wahrer Unterfilterung (ie wenn an bi- oder trilinear zB gespart wird) dass SSAA nicht mehr viel ausmachen kann. Uebrigens bei der Fuellrate der Radeons und fehlender SSAA "Unterstuetzung" ist es sowieso fast laecherlich ueber Supersampling zu sprechen.

Anscheinend hast du Mühe der Diskussion zu folgen:

Du hast zuerst gemeint, dass SSAA nicht gegen Unterfiltern hilft, als ich das Beispiel brachte, dass es sehr wohl sichtbare Unterschiede in der Texturqualität bewirkt, auch auf HQ.

Ich meinte daraufhin, dass du das ruhig mal mit negativem LOD ausprobieren kannst.

Daraufhin hast du fälschlicherweise konstatiert, dass negatives LOD nix mit Unterfilterung zu tun hat, wogegen ich Einspruch erhoben hab.

Nun hängst du dich am negativem LOD auf und meinst, dass Unterfilterung nicht zwangsläufig dadurch bedingt wird???


Das hab ich auch nie behauptet!

Negatives LOD verursacht genau das, was Sparfilter auch machen. Nämlich eine Verschiebung des Sample/Texelverhältnis zu Ungunsten der Textursamples...

Und ATis Filter spart sich (genau wie NV @default) sehr wohl das ein oder andere Sample. Die brilineare Optimierung ist da nur noch zum drüberstreuen und macht kaum was aus (auf ATis durch die Neigung zum Überfiltern sowieso nicht) und selbst auf NV-Karten wirst du feststellen können, dass eine sich auch eine Verringerung der Trilinearität sehr wohl mit SSAA auch ausgleichen lassen kann.


SSAA ist überhaupt eine Art Passepartout, mit eben dem einzigen Schönheitsfehler, dass es viel zu teuer ist.

Aber theoretisch bräuchte man mit ausreichend SSAA weder Mipmaps, noch AF, oder sonstige MSA(A)AA-Techniken.


Wenn es nur 30% waehren wuerde ich erst gar nicht erwaehnen. R580 war im radikalsten (worst case scenario) bei ~50% (ebenso wie G7x), wobei =/>G8x bei ~15% liegt.

Stimmt. zB bei Just cause fiel mir das beim R580 auf. 4xAAA/16xAF Aioff brachte ~16fps, 4xAAA/8xAF AI default brachte >30fps. Und dabei wurde man nichtmal von schlechter Filterqualität erschlagen, da der Texturcontent eben die ein oder andere Sparmaßnahme zuließ.


Ich war halt schon immer ein Freund von effizienten Design, wo man mit möglichst wenig Aufwand möglichst viel erreichen kann. So hätte der R580 für das eben beschriebene Beispiel doppelt so stark sein müssen um mit AIoff die 30fps zu erreichen.

Ich hab auch NV40/G70 default nicht generell verdammt. Für div. Spiele(r) wars absolut ausreichendund brachte nette fps-Steigerungen. Nur für IHV-übergreifende Benchmarks wars halt untragbar.


Das ist im Übrigen auch der Grund meiner Affinität zu 3dfx-Karten. Der VSA100 war im Grunde genomen bloß ein erweiterter SST-1. Doch mit 2 Stück davon hatte man nicht nur feines SGSSAA, sondern auch gleichzeitig verbesserte 16(22)bit Qualität und durch den LOD-Trick feinere Mipmapübergänge. Die Radeon 8500 die später in meinen Rechner kam hatte mehr als doppelt soviele Transistoren wie 2 VSA100, litt aber unter schlechter 16bit BQ und OGSSAA. Am Papier hatte das Ding super interessante Features, die Treasurechest Demo war für damalige Verhältnisse ziemlich beeindruckend, jedoch in Spielen hatte ich entweder schlechtere Grafik, oder schlechtere Performance als zuvor mit der Voodoo5 (bei der ich eigentlich alle Spiele mit min. 1024x768x22 und 2xSGSSAA gespielt hab).

AnarchX
2008-06-21, 08:37:04
Die Frage ist dann eher wann und wo GT200 ihre Bandbreite ausspielen kann. Momentan sieht es eher danach aus als ob sie dekorativ waere.
Wenn man sich anschaut, wie nah eine HD4850 mit ihren 64GB der GTX 280 teilweise kommt und sie zum Teil überholt, dann stellt sich wirklich die Frage wofür man diese hohen Bandbreite benötigt.
Vielleicht auch nur wieder eine Entscheidung für GPGPU und bandbreitenlastige Workloads.

Ailuros
2008-06-21, 10:16:53
Lolman,

Du weisst dass wir hier fehl am Platz sind mit dieser Debatte die sowieso nie ein Ende nehmen wird. R200 war genauso wie R100 eine reine 32bit GPU, was man wiederum fuer VSA-100 nicht behaupten kann obwohl sie dieses unterstuetzte. Dass die 16bpp Qualitaet auf all diesen GPUs zum kotzen war ist nichts neues, und die 22bpp postfilter Qualitaet konnte man damals eigentlich nur mit der 16bpp einer KYRO vergleichen. Jedoch war bei der letzteren 16bpp sowieso sinnlos weil man auf einer solchen 32bpp Architektur keine Leistung mehr dazugewinnt.

Ich bin generell gegen irgendwelche Zwischenloesungen, wenn ich einschaetzen kann dass es auch anders gegangen waere. Um dem eigentlichen Thema etwas naeher zu ruecken, ATI hat seit dem R600 (und entschuldige RV670/RV700 gehoeren zur gleichen Familie) zu viele Transistoren fuer die angebliche Zukunft gewidmet. Schau Dir genau an was das FP Zeug in den TMUs kostet oder was man aus den dumm herumhockenden Transistoren fuer die Tesselations-Faehigkeiten von Angang an haette machen koennen.

Obwohl ATI bis gestern stur behauptet hat dass sie nichts an den Tesselations-Faehigkeiten seit Xenos/R600 fuer D3D11 aendern muessen, kommt es erst jetzt zu Tage dass SM5.0 noch zwei (?) zusaetzliche "stages" fuer das Zeug haben wird. Ich nenne das Ganze falsche Design-Entscheidungen und entschuldige wenn mir jemand Transistoren fuer bessere Filterung widmet dann ist es mir auch lieber. Und nein ich hab mit nacktem Auge seit 2006 nichts persoenlich sehen koennen dass auf Sample-Sparerei unter "high quality" auf einer G80 deutet. Bedauerlicherweise laesst AMD heutzutage nichtmal mehr zu das Ganze abzustellen um sich das Ganze naeher ansehen zu koennen. Wenn man NICHTS zu verstecken hat, dann erlaubt man auch einen einfachen Schalter im Treiber, welche wie Du weisst lediglich eine Linie code im Treiber darstellen.

Gast
2008-06-21, 10:28:01
per default ist die BQ sehr wohl vergleichbar. Natürlich kann man als NV Nutzer ruhig auf HQ stellen, aber immerhin sind mit Standardetreiberinstellungen die Benchmarks im Ggs zu früher nicht durch Filterunterschiede verfälscht


Solange also die "Standard" Einstellungen vergleichbar sind, ist es dir egal wie gefiltert wird? Du nimmst AMD in Schutz, weil nV über die Standard Einstellung auf, evenuell, das selbe Qualitätsniveau geht.
Was wenn irgendwann mal HQ bei nV der Standard wird? Ist es dann immer noch ok, weil es bei nV nichts kostet?

Keine Frage das die AMD Karten gut sind, aber für die Filtergeschichte gehört ihnen in den Hintern getreten. Zumal sie sich weigern im Treiber dafür einen Schalter einzubauen, alle ist mi AI verbundelt. Eine Mogelpackung, aber das interessier ja nich mehr, man hat sich damit abgefunden, und man muss hoffen, das die nächste GPU Generation wieder Winkelabhängig filtert, damit endlich Ruhe im Karton einkehr, denn den Unterschied sieh man ja nicht...

Gast
2008-06-21, 11:02:30
Ailuros hat es schon richtig geschrieben, NV würde da sofort moniert. Genau wie es mit Adaptiven Modi lief, heimlich still und leise wurde der SSAA Anteil entfernt um in Benchmarks gut dazustehn und was passiert? Niemand interessiert es... weil Ati ja so beliebt ist, wäre das bei NV passiert Oh die bösen Cheater...Zu G7x Zeiten war Mr.X immer einer der ersten die dort nach Fehlern beim NV HQ Modus suchten und AI Standard hervorhaben als wäre dieser Modus perfekt da überfiltert werden würde. Jetzt bietet NV seit den G8x vernünftige Filterqualität die über dem Ati Niveau liegt und lt. Mr.X wird so getan als wäre die Filterqualität vergleichbar bzw. am HQ Modus rumgesucht um nen Fehler zu entdecken. Neuerdings heißt das im Fachschagong "Auch bei NV kann man nicht alle Optimierungen ausstellen..." Ein Schelm wer Böses dabei denkt!

Gast
2008-06-21, 11:43:37
On Topic:

Gehen wir vom G92 zu G92b Shrink aus, was wohl ~30% entspricht (19$ durch den 55nm Prozess + X durch weglassen von Redundanz, ich erinnere nur an G70 vs G71).
Dann kommen wir auf 432mm² , ich habe mit 25% gerechnet. Desweiteren ist es sehr wahrscheinlich das Redundante Sektionen wegfallen, also 25% Shrink ist nicht unwahrscheinlich.
Zumal die 1,2Mrd. Transistoren vor nicht allzulanger Zeit mal aufgetaucht sind: http://www.anandtech.com/weblog/showpost.aspx?i=453

AnarchX
2008-06-21, 11:48:01
Ja, das dürfte realistisch sein.

Trotzdem steht es ja dann immernoch ~400mm² vs 256mm², bei einem nicht gerade großen Leistungsunterschied im Fall HD4870 vs GTX 260.

Auf jeden Fall sollte NV noch deutlich am Takt etwas machen, wenn es denn 55nm erlaubt.

Sorkalm
2008-06-21, 11:54:48
Ist es nicht unwirtschaftlich bei einem optischen Shrink nochmal ans Reißbrett zu gehen anstatt direkt zu shrinken?

AnarchX
2008-06-21, 11:57:14
Bleibt halt die Frage ob sich hinter GT200B wirklich nur ein optischer Shrink verbirgt, oder ob NV nun unter Hochdruck am Design arbeitet.
Vorallem zusätzliche DP-Leistung durch das Looping der 240SPs wäre wohl keine schlechte Sache.

Giraffengustav75
2008-06-21, 12:04:26
Schade, dass die Grafikhersteller nichts vom Stromspar-Trend zu halten scheinen, sondern jetzt erst recht alle Negativrekorde brechen.

Auch wenn GPUs extrem effizient sind, 100 und jetzt sogar weit über 200 Watt :eek: sind nicht zuviel, sondern für die Meisten untragbar. Auch Shrinks werden nur noch für höhere Taktraten benutzt, um 3 fps/s mehr zu haben (z.B. 9800GTX+), statt mal mit dem Verbrauch ordentlich runterzugehen. Obwohl ich selbst ein Leistungsfreak bin oder war, finde ich den Aufwand heute deutlich übertrieben und im Beispiel des GT200-Chips komplett am Markt vorbei entwickelt.

Eine Grafikkarte mit der Leistung einer 9600GT und einem Verbrauch von 45-50 Watt......ein "Massenmarkt-GT-200....das wäre mein Traum. :redface:

reunion
2008-06-21, 12:09:45
Trotzdem steht es ja dann immernoch ~400mm² vs 256mm², bei einem nicht gerade großen Leistungsunterschied im Fall HD4870 vs GTX 260.


Nicht gerade groß ist gut. Die 4870 dürfte locker gleichziehen, wenn nicht mehr als das.

Auf jeden Fall sollte NV noch deutlich am Takt etwas machen, wenn es denn 55nm erlaubt.

Bleibt die Frage wieviel man kühlen kann. Schon die GTX280 ist ja nicht gerade leise, und da der 55nm Prozess anscheinend nur wenig bis gar nichts bei gleichem Takt an Stromersparnis bringt, und höherer Takt mit einhergehender höherer Spannung der Leistungsaufnahme nicht gerade förderlich ist, wird man hier wohl sehr schnell an Grenzen stoßen. Mehr als 650Mhz würde ich nicht erwarten.

Gast
2008-06-21, 12:21:26
Bleibt halt die Frage ob sich hinter GT200B wirklich nur ein optischer Shrink verbirgt, oder ob NV nun unter Hochdruck am Design arbeitet.
Vorallem zusätzliche DP-Leistung durch das Looping der 240SPs wäre wohl keine schlechte Sache.
Ich vermute (und hoffe) dass Nvidia im August/September eine Reihe von "+" Karten bringt:
- GTX+ 280: 55nm, höhere Taktraten
- GTX+ 260: Ebenfalls
- GTX+ 290 (erst im November): Eine Ultra-Variante

Gast
2008-06-21, 12:29:46
Nicht gerade groß ist gut. Die 4870 dürfte locker gleichziehen, wenn nicht mehr als das.


in einzelfällen ja, im schnitt kaum, die 4850 liegt im schnitt ca. auf 9800GTX(+)-niveau, zur 260 fehlt da schon noch einiges.

Gast
2008-06-21, 12:34:52
Tut er ja tw auch. Aber erstens kann man die Filterqualität leider nicht bis ins letzte Detail steuern, und andererseits ists etwas unsinnig vom Designer zu erwarten, dass es jede einzelne Textur nach div. Kriterien durchtestet um herauszufinden, wieviel Filterung notwendig ist. Das ists detulich praktischer wenn dass der GraKatreiber innerhalb von ein paar ms entscheidet.


wie soll der grafiktreiber in ein paar ms entscheiden wieviel filterung notwendig ist? selbst wenn es derartige wunderalgorithmen gäbe wäre es wesentlich besser diese offline lediglich 1x anzuwenden und dann für die textur die entsprechende einstellung abzuspeichern, dort hätte man nämlich wesentlich mehr zeit als ein paar ms.

dass man die filterung per api nicht sehr fein steuern kann stimmt zwar, hätte man aber längst einbauen können, im prinzip könnte man es sogar bei einer bestehenden API nachrüsten, da es kein essentielles feature ist.
mir ist schon klar, dass die IHVs daran kein interesse haben, dann müssten sie nämlich mal lüften wie sehr wirklich gespart wird.

Ailuros
2008-06-21, 12:47:24
Bleibt die Frage wieviel man kühlen kann. Schon die GTX280 ist ja nicht gerade leise, und da der 55nm Prozess anscheinend nur wenig bis gar nichts bei gleichem Takt an Stromersparnis bringt, und höherer Takt mit einhergehender höherer Spannung der Leistungsaufnahme nicht gerade förderlich ist, wird man hier wohl sehr schnell an Grenzen stoßen. Mehr als 650Mhz würde ich nicht erwarten.

1. Ist es nicht ein 55nm Herstellungsprozess (wie wir alle wissen).

2. Ist jeder chip Design-bedingt; bei sehr hoher Packdichte geht der Stromverbrauch wieder nach oben. Je kleiner die Packdichte desto moderater der Stromverbrauch.

G8x/9x/2x0 chips haben und werden alle eine ziemlich moderate Packdichte haben, weil ihnen sonst das ALU domain ins Gesicht knallt. 650MHz bedeuten uebrigens ~GTX280+20%.

reunion
2008-06-21, 13:03:17
1. Ist es nicht ein 55nm Herstellungsprozess (wie wir alle wissen).

Auch die GTX+ erzielt durch den 55nm Prozess keinerlei Vorteile was die Leistungsaufnahme betrift. Schön langsam habe ich so meine Zweifel ob es einen 55nm Prozess gibt, der Vorteile bringt.


G8x/9x/2x0 chips haben und werden alle eine ziemlich moderate Packdichte haben, weil ihnen sonst das ALU domain ins Gesicht knallt. 650MHz bedeuten uebrigens ~GTX280+20%.

Das sind nur 8% mehr Takt, wie kommst du da auf 20%?

Ailuros
2008-06-21, 13:27:16
Auch die GTX+ erzielt durch den 55nm Prozess keinerlei Vorteile was die Leistungsaufnahme betrift. Schön langsam habe ich so meine Zweifel ob es einen 55nm Prozess gibt, der Vorteile bringt.

Die Packdichte jedes chips kannst Du Dir ausrechnen. Dass sich der Stromverbrauch zwischen G92b und G92 bei ~8% hoehere Frequenz nicht geaendert hat sagt Dir gar nichts? Die 8% sind ja nur die NV offiziellen Frequenzen.

Das sind nur 8% mehr Takt, wie kommst du da auf 20%?

Scharf nachdenken ;)

reunion
2008-06-21, 13:39:35
Die Packdichte jedes chips kannst Du Dir ausrechnen. Dass sich der Stromverbrauch zwischen G92b und G92 bei ~8% hoehere Frequenz nicht geaendert hat sagt Dir gar nichts? Die 8% sind ja nur die NV offiziellen Frequenzen.

Wenn sich nichts geändert hätte würde mir das schon was sagen, doch es hat sich was geändert:

http://img411.imageshack.us/img411/1296/powerax0.jpg

Ich sehe keine Vorteile durch den 55nm Prozess.


Scharf nachdenken ;)

Meine Glaskugel ist zurzeit etwas ratlos.

AnarchX
2008-06-21, 13:42:59
Wohl wieder ein höheres Shader-Ratio: >1.5GHz, wobei das in aktuellen Titeln weniger das Problem von G200 zu sein scheint.

Ailuros
2008-06-21, 13:46:10
Wenn sich nichts geändert hätte würde mir das schon was sagen, doch es hat sich was geändert:

http://img411.imageshack.us/img411/1296/powerax0.jpg

Ich sehe keine Vorteile durch den 55nm Prozess.

http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

Beide sind gleich wertlos, da das Gesamtsystem gemessen wurde. Wenn der Stromverbrauch in etwa gleich bleibt bei hoeheren Frequenzen ist es mit absoluter Sicherheit ein Nachteil ja?

xfire
2008-06-21, 13:48:16
650MHz bedeuten uebrigens ~GTX280+20%.

Also ein deutlich höherer Shader-Takt?

GTX280: 1,3GHz

GT290??: GTX280+20% ~ 1,6GHz

GeneralHanno
2008-06-21, 13:49:40
Also ein deutlich höherer Shader-Takt?

GTX280: 1,3GHz

GT290??: GTX280+20% ~ 1,6GHz

die 8800ULTRA hatte ja auch ein wesentlich höheres shader-ration als die 8800GTX ;)

reunion
2008-06-21, 13:49:40
http://www.hardware.fr/articles/724-3/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

Beide sind gleich wertlos, da das Gesamtsystem gemessen wurde. Wenn der Stromverbrauch in etwa gleich bleibt bei hoeheren Frequenzen ist es mit absoluter Sicherheit ein Nachteil ja?

Wer sprach von Nachteil? Ich sehe zumindest keinen/kaum einen Vorteil.

Gast
2008-06-21, 16:14:22
Naja mal schaun wenn die G92b Variante kommt, kann man sie einfach mal auf 9800GTX Niveau takten und dann sieh man wer wieviel verbraucht. Wobei Taktabsenken ja quasi nix bringt. Wäre schön, wenn die Stromsparfunktion des G200 in den G92b geflossen wäre, aber denke das wäre dann zuviel gewesen?

@Sorkalm
Ein bissl Re-Design tut immer gut wenn eine GPU +6Monate im Markt bestehen muss. G70-G71 hat sicher auch gekostet, aber war rentabel da der Chip lange auf dem Markt blieb.

@Reunion
wo hast du das Power Consumption Bild her? Würd gern mal mit meinem Sys vergleichen.

Sorkalm
2008-06-21, 16:18:58
Ein bissl Re-Design tut immer gut wenn eine GPU +6Monate im Markt bestehen muss. G70-G71 hat sicher auch gekostet, aber war rentabel da der Chip lange auf dem Markt blieb.

Bei G70 zu G71 war aber kein optischer Shrink möglich (war ja 110 nm auf 90 nm). Beim G92 auf G92b geht das aber hingegen.

Gast
2008-06-21, 16:29:10
Die paar Dollar... außerdem Wayne interessiert das? Sie werden schon das best mögliche/wirtschaftlich richtige getan haben.
Uns kann es doch egal sein was beide IHV verdienen...
Der Taktsprung ist moderat, und die GTX260 reicht bei mir für alle Spiele da 1680*1050 angesagt ist ;) Evtl. bringen sie wieder sone Krüppelkarte wie die GTS320...

Oder der 55nm G200(b) kommt schneller als gedacht.

Im Vergleich zu HD4870 muss man aber auch sagen, das die 1Mrd. Transistoren auf der einen Seite und die 1,4Mrd. auf der anderen Seite der GTX260 falsch sind. Schließlich läuft die Karte mit deaktivierten Einheiten und keine HD4xxx Single GPU Karte kommt an die große GTX280 ran.
Für was muss nV da in Sachen Speed nachlegen?
SLI und CF skalieren eh in etwa gleich, also sind 2xHD4870 vs 2xGTX260 gleich, sogar vom Preis her...

Ailuros
2008-06-23, 12:48:15
Wer sprach von Nachteil? Ich sehe zumindest keinen/kaum einen Vorteil.

Dann nimm eine einfache G92 zur Hand, verpass ihr (was die Dinger normalerweise schon aushalten koennen sollten) die G92b Frequenzen und miss dann den Stromverbrauch allein auf GPU Basis ab und vergleiche.

AnarchX
2008-06-25, 06:24:20
Hat schon jemand den Artikel bei INQ gefunden?
http://we.pcinlife.com/thread-956041-1-1.html
... die dort auf die Zukunft datierte, maschinelle Übersetzung ins Deutsche in einem Chinesischen Forum ist doch etwas sonderbar. :uponder:

Aber der Inhalt:
GTX 250: 160SP/48TMU/24ROP, 768MB/384-Bit, G200-90 (gegen HD4850?)
GTX 270: GTX 280 mit niedrigeren Frequenzen, G200B-300 (gegen HD4870?)
- Start: bald
- Preise: passend zur HD4800-Serie

Nightspider
2008-06-25, 07:37:43
Mal ne Frage, wenn absehbar war, das noch lange GDDR3 verbaut wird und der Speicher noch hauptsächlich produziert wird, wieso hat man dann vom Speicher den Fertigungsprozess nicht verkleinert und optimiert, zB. jetzt mit 45nm um eine höhere Taktrate zu bekommen ?

Schließlich sind die meisten Firmen ja gar nicht auf GDDR4 umgestiegen.

Denn der Takt von GDDR3 hängt seit über einem Jahr bei 1-1,1 Ghz.
Seitdem gibts doch mind. einen kleineren Herstellungsprozess, wenn nicht sogar 2 halbe.

Und das die sich total auf GDDR5 konzentriert haben kann man ja auch keinem weiß machen, da man alleine durch den shrink noch mehr GDDR3 Chips produzieren hätte können, welcher mehr Takt mitmachen oder ?

Wenn ich jetzt schon lese, das sich die HD4870 wegen GDDR5 verzögert und die ganze neue Nvidia-Serie auf GDDR3 setzt. :|

Gast
2008-06-25, 08:40:28
Hat schon jemand den Artikel bei INQ gefunden?
http://we.pcinlife.com/thread-956041-1-1.html
... die dort auf die Zukunft datierte, maschinelle Übersetzung ins Deutsche in einem Chinesischen Forum ist doch etwas sonderbar. :uponder:

Aber der Inhalt:
GTX 250: 160SP/48TMU/24ROP, 768MB/384-Bit, G200-90 (gegen HD4850?)
GTX 270: GTX 280 mit niedrigeren Frequenzen, G200B-300 (gegen HD4870?)
- Start: bald
- Preise: passend zur HD4800-Serie


Wie soll das gehen?
Diese GTX250 wird ja wohl noch ein Stück langsamer als die GTX260 und gleichzeitig teuerer (größerer Chip, aufwendigeres PCB wg. 384bit Interface etc..) als die 4850/4870 in der Herstellung. Vor allem wenn der Chip so bald kommt dann hat er sehr wahrscheinlich das gleiche schlechtere perf/mm² Design des GT200 geerbt. Selbst in 55nm wird der Chip also gegen ATi nicht stechen können.

Botcruscher
2008-06-25, 08:55:36
Wie soll das gehen?


Noch mehr Abfallverwertung.
Da wissen wir ja wie gut die Ausbeute an Chips ist.

Gast
2008-06-25, 09:01:03
Noch mehr Abfallverwertung.
Da wissen wir ja wie gut die Ausbeute an Chips ist.

Arrgg...

Daran hätte ich selbst denken können. Allerdings, wie zur Hölle will Nvidia mit einem 576mm² Die in der Preisklasse der 4850 bestehen können? Klar, immer noch besser als ein Die wegschmeißen aber damit bleibt die GTX250 ein Nischenprodukt da nur der "Abfall" dafür verwendet werden kann.

Adam D.
2008-06-25, 09:21:31
Hmm, interessant. Dann ist die GTX260 ja jetzt schon tot, dazu kommt, dass der G200b schon fertig ist. Da sieht man mal wieder, was passiert, wenn man ernsthaft Konkurrenz bekommt :D

AnarchX
2008-06-25, 09:27:12
Imo:
GTX 250... extrem hohes Yield, da (10*9*8)*(8*7) = 282240 mögliche defekte Die-Typen hier verwendet werden können. Natürlich keine großen Margen, aber man kann halt den weniger erfolgreichen G200 aus den Lagern bekommen und erhält sich gleichzeitig die Prestige des Sieges über die HD4850.
Taktraten werden wohl nicht unter GTX 260 Niveau liegen.

GTX 270... GTX 280 @ GTX 260 Taktraten, was für einen durchschnittlichen Sieg über die HD4870 reichen sollte, zudem sind die Margen dank G200B hier doch wieder höher. Und wenn dieser schon startbereit sein sollte, dann kann man wohl eine größere Verfügbarkeit gewährleisten als ATi mit ihrer GDDR5-Karte.

Im Endeffekt natürlich wohl eher Zwischenlösungen, bis man neue GPUs auf Basis einer verbesserten Architektur wohl irgendwann gegen 2009 vorstellen kann.

edit:
Leistungseinschätzung:
Rating – 1600x1200 4xAA/16xAF (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/26/#abschnitt_performancerating_qualitaet)
HD4870X2 ~ 140% -> GTX 290@ 800/2000MHz ;D X-D
GTX 280: 100%
GTX 270: ~93%
HD 4870: ~86%
GTX 260: ~80%
GTX 250: ~70%
HD 4850: 66%

Adam D.
2008-06-25, 09:43:24
Kommt drauf an, wann die GTX270 startet. Ich nehm schon mal an, dass ab Mitte Juli die HD4870 in Fahrt kommt, kann mir nicht vorstellen, dass bis dahin schon eine GTX270 angekündigt ist. Trotzdem würd mich interessieren, wie groß der DIE des G200b ist, Verbrauchswerte und Übertaktungspotential wären sicher auch interessant. Den G92 hat Nvidia ja ziemlich gut auf 55nm gebracht.

AnarchX
2008-06-25, 09:48:45
Da wohl alle Einheiten drinnen bleiben werden, kann man wohl 576mm² * 0,81(optischer Shrink von 65 auf 55nm) = ~470mm² erwarten.

Naja, immernoch ein enormer Unterschied zu ATis 256mm², aber damit wird NV wohl erstmal leben müssen, wie ATi auch mit ihren 352mm² R580 vs 196mm² G71, Reserven aus den letzten Quartalen hat man ja genug.

Adam D.
2008-06-25, 09:53:52
Ich find's einfach Wahnsinn, wie ATi aus der denkbar schlechtesten Situation so eine Karte zaubert, die Nvidia ernsthaft in Bedrängnis bringt.

Der nächste Refresh wird dann wohl pi*daumen ganz früh 2009 kommen, bis dahin muss Nvidia in den sauren Apfel beißen. Sollte die GTX270 für ähnliche ~299$ kommen ... Mama mia, also da ist man dann auch mit vergleichsweise wenig Geld für 'ne verdammt lange Zeit gerüstet :|

Sorkalm
2008-06-25, 10:01:18
Den G92 hat Nvidia ja ziemlich gut auf 55nm gebracht.

Wenn man mit diesen 0,81 rechnet, dann stimmts ziemlich genau, ja. Ich frage mich nur wo die herkommen, 55²/65² ist nämlich 0,71.

AnarchX
2008-06-25, 10:03:56
Wenn man mit diesen 0,81 rechnet, dann stimmts ziemlich genau, ja. Ich frage mich nur wo die herkommen, 55²/65² ist nämlich 0,71.
Das ist die Angabe die von TSMC kommt: 55nm ist ein 10% linearer Shrink von 65nm. Es skalieren nunmal nicht alle Strukturen perfekt. -> auf den flächenförmigen Die gerechnet: 0,9*0,9 = 0,81.

Von 45nm auf 40nm sind es laut TSMC übrigens nur 8% linear.

Sorkalm
2008-06-25, 10:14:12
Das ist die Angabe die von TSMC kommt: 55nm ist ein 10% linearer Shrink von 65nm. Es skalieren nunmal nicht alle Strukturen perfekt. -> auf den flächenförmigen Die gerechnet: 0,9*0,9 = 0,81.

Ah, OK. Dann passt plötzlich auch die spekulierte Größe zum G92b. :)
Auch beim RV630/RV635 haut das dann ja relativ gut hin.

Wenn ich hier mal einhaken darf: Wie darf man sich dann die Größenverhältnisse bei einem theoretischen Shrink auf 45 nm ansehen? Das ist ja dann kein optischer mehr.

Von 45nm auf 40nm sind es laut TSMC übrigens nur 8% linear.

Das ist prozentual gesehen auch weniger als von 65 zu 55 nm, von daher war das wohl zu erwarten...

AnarchX
2008-06-25, 10:18:45
Wenn ich hier mal einhaken darf: Wie darf man sich dann die Größenverhältnisse bei einem theoretischen Shrink auf 45 nm ansehen? Das ist ja dann kein optischer mehr.

Laut B3D:
http://www.beyond3d.com/content/news/568
- 45GS 2,43-fache Gatedichte von 65nm, wobei das wohl anders als die Bezeichnung es sagt schon 40nm ist
- 45LP 2,05-fache Gatedichte von 65nm

Im Gegensatz zu den optischen Shrink liegt man hier also doch näher an der Theorie. ;)

Sorkalm
2008-06-25, 10:25:06
Im Gegensatz zu den optischen Shrink liegt man hier also doch näher an der Theorie. ;)

Das theoretische Maximum wäre ja 2,09, also das stimmt wohl...

OK, dann ist ein Shrink von einem Half-Node auf einen Full-Node für solche "Milchmädchenrechnungen" doch etwas komplizierter, man muss ja erstmal auf den ursprünglichen Prozess zurückrechnen...

Na, dann kanns ja nun B2T gehen. ;)

reunion
2008-06-25, 10:50:03
Imo:
GTX 250... extrem hohes Yield, da (10*9*8)*(8*7) = 282240 mögliche defekte Die-Typen hier verwendet werden können. Natürlich keine großen Margen, aber man kann halt den weniger erfolgreichen G200 aus den Lagern bekommen und erhält sich gleichzeitig die Prestige des Sieges über die HD4850.
Taktraten werden wohl nicht unter GTX 260 Niveau liegen.


Trotzdem bekommt man nicht mehr als 94 Dice aus einer Wafer, welche mehrere tausend Dollar kostet. So einen Chip um 199$ anzubieten wäre Wahnsinn, und daran glaube ich auch nicht, da G92b laut Aussagen von nV noch lange laufen soll. Desweiteren bezweifel ich dass das Ding mit den Daten überhaupt eine 4850 schlagen kann. Schon die GTX260 liegt nicht weit vorne, und mit zumindest nicht höheren Taktraten und weiter deaktivierten Einheiten schaut da bestenfalls ein Gleichstand raus.


GTX 270... GTX 280 @ GTX 260 Taktraten, was für einen durchschnittlichen Sieg über die HD4870 reichen sollte, zudem sind die Margen dank G200B hier doch wieder höher. Und wenn dieser schon startbereit sein sollte, dann kann man wohl eine größere Verfügbarkeit gewährleisten als ATi mit ihrer GDDR5-Karte.

Die Frage ist wann das Ding kommt. Da GT200 gerade erst released wurde kann man da sicher noch einige Monate warten, sonst hätte man sich den 65nm Chip gleich sparen können. Das sollte zwar gegen die 4870 reichen (wenn AMD die Preise nicht noch weiter senkt :D), aber alles andere wäre auch an Lächerlichkeit kaum zu überbieten.

Ailuros
2008-06-25, 10:54:37
Ich find's einfach Wahnsinn, wie ATi aus der denkbar schlechtesten Situation so eine Karte zaubert, die Nvidia ernsthaft in Bedrängnis bringt.

Wie schon erwaehnt die Masche "Takt hochtreiben beim kleinsten und neuesten Herstellungsprozess" war bis her ATI's groesstes Problem. RV770 blieb auf 55nm wie RV670 und fuegte mehr Einheiten zum letzteren Design dazu mit moderaterer Frequenz. RV8x0 verdaechtige ich wird ein 40nm chip mit nochmal 25% mehr SPs als RV7x0.

Adam D.
2008-06-25, 10:56:03
Wie schon erwaehnt die Masche "Takt hochtreiben beim kleinsten und neuesten Herstellungsprozess" war bis her ATI's groesstes Problem. RV770 blieb auf 55nm wie RV670 und fuegte mehr Einheiten zum letzteren Design dazu mit moderaterer Frequenz. RV8x0 verdaechtige ich wird ein 40nm chip mit nochmal 25% mehr SPs als RV7x0.
Der Systemwechsel scheint sich bewährt zu haben, ergo kann man auch positiv gestimmt gen Zukunft blicken.

seahawk
2008-06-25, 10:57:33
Ich würde RV770 auch als Wendepunkt sehen.

reunion
2008-06-25, 11:00:01
Wie schon erwaehnt die Masche "Takt hochtreiben beim kleinsten und neuesten Herstellungsprozess" war bis her ATI's groesstes Problem. RV770 blieb auf 55nm wie RV670 und fuegte mehr Einheiten zum letzteren Design dazu mit moderaterer Frequenz. RV8x0 verdaechtige ich wird ein 40nm chip mit nochmal 25% mehr SPs als RV7x0.

Das ist auch nur die Halbe Wahrheit. RV770 wird im aktuell modernsten Fertigungsprozess hergestellt, an 45nm war wahrlich nicht zu denken, und die Taktraten sind mit 750Mhz auch noch ohne. Man hat vorallem viel unnützen Zeug rausgeschmissen: doppelte TA-Anzahl, Point-Sampler, Ringbus, etc. und die "sinnvollen" Einheiten so enorm skalieren können. Wer hätte gedacht, dass in ein 33% größeres Die 2.5x so viele ALUs, 2.5x so viele TMUs, und doppelt so viele Z-Tester passen? Wohl niemand.

Ailuros
2008-06-25, 11:06:06
Die Frage ist wann das Ding kommt. Da GT200 gerade erst released wurde kann man da sicher noch einige Monate warten, sonst hätte man sich den 65nm Chip gleich sparen können. Das sollte zwar gegen die 4870 reichen (wenn AMD die Preise nicht noch weiter senkt :D), aber alles andere wäre auch an Lächerlichkeit kaum zu überbieten.

GT200 hat eine sehr kurze Lebenszeit. Es war nie anders geplant. Die Frage ist ob NVIDIA ab 2009 weiterhin so konservativ mit den Herstellungsprozessen sein wird oder ob sie ihre Strategie diesbezueglich aendern werden.

Ailuros
2008-06-25, 11:16:43
Das ist auch nur die Halbe Wahrheit. RV770 wird im aktuell modernsten Fertigungsprozess hergestellt, an 45nm war wahrlich nicht zu denken, und die Taktraten sind mit 750Mhz auch noch ohne. Man hat vorallem viel unnützen Zeug rausgeschmissen: FP16-TMUs, doppelte TA-Anzahl, Point-Sampler, Ringbus, etc. und die "sinnvollen" Einheiten so enorm skalieren können. Wer hätte gedacht, dass in ein 33% größeres Die 2.5x so viele ALUs, 2.5x so viele TMUs, und doppelt so viele Z-Tester passen? Wohl niemand.

Wenn an 45nm nicht zu denken war (was uebrigens auf aelteren Roadmaps sehr wohl fuer 2008 vorhanden war) dann ist es NICHT der kleinste verfuegbare Herstellungsprozess wie Du es auch verdrehen willst.

Dass sie das momentan nutzloses Zeug rausgeschmissen haben soll eine Ueberraschung sein? Sie waeren alle Anteile der R600 falschen Design-Entscheidigungen und u.a. auch ein Grund warum man dem Ding einen 512bit bus verpasst hat. Der stark vermarketete "ichmoechteeinringbusseinbinabereigentlichkeiner" war sowieso auch kein besonderer Vorteil.

Es sind 160 ALUs und wie jeder weiss sind diese auch unter den billigsten Einheiten im Vergleich zu TMUs/ROPs.

Sorkalm
2008-06-25, 11:33:35
Wenn an 45nm nicht zu denken war (was uebrigens auf aelteren Roadmaps sehr wohl fuer 2008 vorhanden war) dann ist es NICHT der kleinste verfuegbare Herstellungsprozess wie Du es auch verdrehen willst.

Äh, was ist denn dann der kleinste verfügbare Herstellungsprozess? :confused:

Ailuros
2008-06-25, 11:56:31
Äh, was ist denn dann der kleinste verfügbare Herstellungsprozess? :confused:

45nm. Der originale RV7x0 wurde storniert weil keiner das Risiko eingehen wollte und man nicht wieder Verspaetungen sehen wollte.

igg
2008-06-25, 11:58:21
GT200 hat eine sehr kurze Lebenszeit. Es war nie anders geplant. Die Frage ist ob NVIDIA ab 2009 weiterhin so konservativ mit den Herstellungsprozessen sein wird oder ob sie ihre Strategie diesbezueglich aendern werden.
Eine weitere Frage: Ob der GT200b bis zum Release der DX11 Karten reicht? Wenn das erst Ende 2009 kommt hat ATI schon einen Vorteil, laut ersten Reviews können sie beim 4870 sehr stark mit den Taktraten spielen.

Adam D.
2008-06-25, 12:01:12
45nm. Der originale RV7x0 wurde storniert weil keiner das Risiko eingehen wollte und man nicht wieder Verspaetungen sehen wollte.
Verständlich nach dem R600, oder? Wenn 55nm so perfekt funktioniert, wieso sollte man dann wieder unnötige Risiken eingehen? Aber joa, ok, darum geht's ja auch nicht ;)

Ailuros
2008-06-25, 12:02:42
Eine weitere Frage: Ob der GT200b bis zum Release der DX11 Karten reicht? Wenn das erst Ende 2009 kommt hat ATI schon einen Vorteil, laut ersten Reviews können sie beim 4870 sehr stark mit den Taktraten spielen.

Nein.

Verständlich nach dem R600, oder? Wenn 55nm so perfekt funktioniert, wieso sollte man dann wieder unnötige Risiken eingehen? Aber joa, ok, darum geht's ja auch nicht ;)

Mein eigentlicher Punkt ist dass ATI endlich aus ihren eigenen Fehlern etwas gelernt hat. Man ging auf Nummer Sicher mit dem Herstellungsprozess und anstatt den Takt zu erhoehen wurde dieser moderater aber mit um einiges mehr Einheiten.

Gast
2008-06-25, 13:43:08
Wie schon erwaehnt die Masche "Takt hochtreiben beim kleinsten und neuesten Herstellungsprozess" war bis her ATI's groesstes Problem. RV770 blieb auf 55nm wie RV670 und fuegte mehr Einheiten zum letzteren Design dazu mit moderaterer Frequenz. RV8x0 verdaechtige ich wird ein 40nm chip mit nochmal 25% mehr SPs als RV7x0.

Wohl eher nicht. Die Gerüchte sagen was von 2000SP.

Außerdem, der RV770 ist schon Padconstrained. Heißt, kleiner geht nicht mehr mit 256bit + GDDR5 (siehe Dave Baumanns Kommentare auf Beyond3D). Ergo muss ein RV870 mind. wieder so groß werden wie ein RV770.

(40/55)² = 1,89. Der RV870 sollte also ca. 1800 Mio Transistoren haben.

Mit nur 25% mehr SP bist du da komplett im Wald Ailuros; aber sowas von komplett im Wald...

Gast
2008-06-25, 13:49:13
mit dem G200b halte ich 700MHz bei einer Ultra für gut möglich, OC Karten werden dann ca. 750MHz haben.

Schon meine GTX 280 macht unter Wakü 760MHz

Das grösste Problem dürfte bei NV aber die Speicherbandbreite sein, aus den GDDR3 lässt sich kaum noch was raus hohlen! Das besste wäre wohl was mit GDDR5, der Preis für so eine Karte wäre aber dann kaum zumutbar...

Odal
2008-06-25, 13:54:09
Arrgg...

Daran hätte ich selbst denken können. Allerdings, wie zur Hölle will Nvidia mit einem 576mm² Die in der Preisklasse der 4850 bestehen können? Klar, immer noch besser als ein Die wegschmeißen aber damit bleibt die GTX250 ein Nischenprodukt da nur der "Abfall" dafür verwendet werden kann.


das kommt drauf an wieviel abfall so anfällt....stimmt das mit der äusserst schlechten G200 ausbeute dürfte hier genug auf halde liegen für eine GTX250

und preislich holt man es sich halt von den GTX280 käufern rein...die für son ding gerne 450-500€ hinlegen

Gast
2008-06-25, 13:55:33
4850 = 9800GTX+ nix G200 ;)

Sorkalm
2008-06-25, 13:55:41
Wohl eher nicht. Die Gerüchte sagen was von 2000SP.

So nen Gerücht kann ich auch in die Welt setzen. ;)

LovesuckZ
2008-06-25, 15:40:13
Der Systemwechsel scheint sich bewährt zu haben, ergo kann man auch positiv gestimmt gen Zukunft blicken.

Doppelte Leistung und fast doppelter Lastverbrauch zum rv670 - das sieht eher wie eine Sackgasse aus. Die Zeiten von extemen Sprüngen mit kleinem Mehrverbrauch sind wohl bei beiden Herstellern vorbei.

Adam D.
2008-06-25, 15:43:51
Doppelte Leistung und fast doppelter Lastverbrauch zum rv670 - das sieht eher wie eine Sackgasse aus. Die Zeiten von extemen Sprüngen mit kleinem Mehrverbrauch sind wohl bei beiden Herstellern vorbei.
Was soll man auch groß machen? IMO führt da einfach kein Weg dran vorbei, wer gedacht hat, bei immer höherer Leistung immer weniger Stromverbrauch zu erwarten, hat halt einfach verloren. Wir haben unseren Idle-Modus, aber wer unter 3D volle Power will, muss halt auch den höheren Mehrverbrauch in Kauf nehmen - bei ATi und Nvidia.
Schauen wir mal, was der Sprung auf 40nm bringt. Bei Nvidia ist man ja noch nicht mal richtig bei 55nm angekommen. Eventuell gibt's da noch 'n paar Reserven.

AnarchX
2008-06-25, 16:36:43
weder der G200 noch der G200b sind für eine GX2 karte geeignet.
Von der TDP sehe ich da jedenfalls kein Problem, wenn ATi schon plant 2-mal RV770XT auf die 4870X2 zu verbauen, der ja auf GTX 260-Niveau liegt.

Sicherlich kommt dann eine fette BOM auf NV zu, aber die Krone ist nunmal etwas wert.;)

GeneralHanno
2008-06-25, 16:47:18
Von der TDP sehe ich da jedenfalls kein Problem, wenn ATi schon plant 2-mal RV770XT auf die 4870X2 zu verbauen, der ja auf GTX 260-Niveau liegt.

Sicherlich kommt dann eine fette BOM auf NV zu, aber die Krone ist nunmal etwas wert.;)

diese ganzen thesen von teildeaktivierten dual-karten haben sich IMMER als falsch herausgestellt. für (markttaugliche) dualkarten wurden bisher immer "thermisch stabile" (refresh-) chips verwendet (RV570, RV670, RV770, G71, G92), die dann auch NICHT teildeaktiviert waren.

ergo: es wird keine GX2 mit G200 oder G200B (ist ja ein 1:1 shrink auf 55nm) geben.

die performencekrone hat Nvidia sowieso:
- schnellste echte singelGPU lösung ist die GTX280 (R700 zählt da NICHT)
- schnellste Multi-GPU-lösung hat nvidia mit der GTX280-tripple-SLI (4x RV770 dürfte dank der schlechten CFX skalierung UNTER liegen)

probleme hat nvidia woanders: im bereich leistung pro euro und leistung pro watt. hier dürfte der G200B @55nm ETWAS abhilfe schaffen ;)

Ailuros
2008-06-25, 16:48:50
Wohl eher nicht. Die Gerüchte sagen was von 2000SP.

Außerdem, der RV770 ist schon Padconstrained. Heißt, kleiner geht nicht mehr mit 256bit + GDDR5 (siehe Dave Baumanns Kommentare auf Beyond3D). Ergo muss ein RV870 mind. wieder so groß werden wie ein RV770.

(40/55)² = 1,89. Der RV870 sollte also ca. 1800 Mio Transistoren haben.

Mit nur 25% mehr SP bist du da komplett im Wald Ailuros; aber sowas von komplett im Wald...

Kommt ganz drauf an wie hoch die Baeume in meinem Wald wachsen. Und wie ich schon im anderen Thread sagte, ich hab bis jetzt noch nichts konkretes gehoert.

Wo genau ist der Unterschied ob ich jetzt 200 ALUs mit 1.4GHz oder 400 ALUs mit 0.7GHz takte? (rein theoretische Frage).

Gast
2008-06-25, 17:43:17
Die Frage ist wann das Ding kommt. Da GT200 gerade erst released wurde kann man da sicher noch einige Monate warten, sonst hätte man sich den 65nm Chip gleich sparen können. Das sollte zwar gegen die 4870 reichen (wenn AMD die Preise nicht noch weiter senkt :D), aber alles andere wäre auch an Lächerlichkeit kaum zu überbieten.

nicht vergessen, dass der G200 wohl mindestens 6 monate verspätet ist, sollte die 55nm-version davon im zeitplan liegen könnte sie wohl recht schnell kommen.

Gast
2008-06-25, 20:05:11
Wer sagt, dass G200b nur ein Shrink ist ;)

GeneralHanno
2008-06-25, 20:37:14
Wer sagt, dass G200b nur ein Shrink ist ;)
WENN das teil G200b heißt, dann ist es nur ein shrink. denn das "B" steht für revision B.
wenn ein "neuer" chip ist mit wesentlichen änderungen, dann hieße der G2xx und NICHT G200!

AnarchX
2008-06-25, 23:36:35
GTX 290?;)

NVIDIA_GT200.DEV_05E0.1 = "NVIDIA GT200-400"

GTX 280: GT200-300
GTX 260: GT200-100

Adam D.
2008-06-25, 23:44:08
War doch klar. Wenn eine GTX270 auf Basis des G200b kommt, dann sicher auch eine "Ultra". Durch 55nm sollte man einiges an Taktpotential haben.

AnarchX
2008-06-25, 23:51:05
Naja, die Frage bleibt wo diese GTX 270/250 Specs nun genau herkommen.
Die 48TMUs/160SPs passen ja nicht wirklich, was vielleicht doch für die Rechenkünste von INQ spricht.;D

Adam D.
2008-06-26, 00:00:20
Will Nvidia ernsthaft ATi den Wind aus den Segeln nehmen, deaktiviert man keine Einheiten bei der GTX270. Das tut dann zwar vom reinen Gewinn her sehr weh (470mm² <--> 260mm²), aber man hätte ATis "Topprodukt" immerhin geschlagen. Weiß nicht, ob das so kommen wird.
Was mit einer GTX250 passiert, weiß ich nicht. IMO steht die 9800GTX+ ganz ok, weiß nicht, ob G200b-Abfall trotzdem rentabler ist.

Nightspider
2008-06-26, 00:14:07
mit dem G200b halte ich 700MHz bei einer Ultra für gut möglich, OC Karten werden dann ca. 750MHz haben.

Schon meine GTX 280 macht unter Wakü 760MHz

Das grösste Problem dürfte bei NV aber die Speicherbandbreite sein, aus den GDDR3 lässt sich kaum noch was raus hohlen! Das besste wäre wohl was mit GDDR5, der Preis für so eine Karte wäre aber dann kaum zumutbar...

Sehe ich ähnlich. Angeblich soll GDDR5 so teuer sein.

Oho, und warum verbaut ATI diesen dann auf Karten, die für 145 Euro vertickt werden ? :|

GDDR5 kann Nvidia ruhig auf die GTX 290 setzen, die paar Euro mehr sind schon im sicherlich enormane Aufpreis zu einer Ultra mit drinnen.

Allerdings wird die GTX 280 dann ja sicherlich auch ersetzt, weshalb ich vllt sogar von einer weiteren Generation, siehe Geforce 6 --> 7 ausgehen würde.
GTX 360, 380, 380 GX2, zumindest, wenn der Shrink gelinkt und NV deutlich Platz sparen und Takt erhöhen könnte.

Sorkalm
2008-06-26, 00:22:52
Will Nvidia ernsthaft ATi den Wind aus den Segeln nehmen, deaktiviert man keine Einheiten bei der GTX270. Das tut dann zwar vom reinen Gewinn her sehr weh (470mm² <--> 260mm²), aber man hätte ATis "Topprodukt" immerhin geschlagen.

Genau das sagen doch auch die Gerüchte. GTX 270 als voller GT200 @ 575/1250

Kriton
2008-06-26, 00:42:55
Sehe ich ähnlich. Angeblich soll GDDR5 so teuer sein.

Oho, und warm verbaut ATI diesen dann auf Karten, die für 145 Euro vertickt werden ? :|


ATI spart dafür bei der Anbindung des Speichers. Und der GDDR5 wird NICHT auf der 4850, sondern nur auf der 4870 verbaut. Die Frage wäre auch, ob die GTXs von soviel Speicherbandbreite (Interface+GDDR5) überhaupt vernünftig profitieren würden - aber um das zu beantworten verstehe ich davon zu wenig.

Nightspider
2008-06-26, 02:17:50
Stimmt.

Interessant wäre auch, ob Nvidia Physik-Technologie-Demos herausbringt, ähnlich wie Agaia.

Da gabs doch massig geiler Szene, wie zB. aus GRAW:

http://www.youtube.com/watch?v=D2cs1o_qqAI&amp;feature=related

Oder mit Flüssigkeiten wie in der UE3:

http://www.youtube.com/watch?v=anoH3JQJGlA&amp;feature=related

Oder mit Deformationen:

http://www.youtube.com/watch?v=CsoxCEVHEuQ&feature=related


PS:

Ladenhüter anyone ?

http://geizhals.at/eu/a344247.html

Gast
2008-06-26, 08:17:49
Kommt ganz drauf an wie hoch die Baeume in meinem Wald wachsen. Und wie ich schon im anderen Thread sagte, ich hab bis jetzt noch nichts konkretes gehoert.

Wo genau ist der Unterschied ob ich jetzt 200 ALUs mit 1.4GHz oder 400 ALUs mit 0.7GHz takte? (rein theoretische Frage).

Theoretisch kein Unterschied aber praktisch ein sehr großer. Wie schon gesagt selbst der RV770 ist Padconstrained. Deshalb hat er 40TU's + 800 SPs anstatt 32TU's und 640 SP's wie ursprünglich geplant (daher kann er auch bei einfachem bilinearem Filtern nur 32 TUs einsetzen weil die Logik dafür wo anders sitzt und nicht aufgebohrt wurde).

Ergo wird es bei 40nm auch keinen kleineren Chip mit GDDR5 + 256bit geben können. ATi kann also bis zu 1,8 Mrd. Transistoren verplanen ohne das der Chip größer wird. Weniger als 1,8 Mrd. Transistoren machen aber auch keinen Sinn weil der Chip dann auch nicht kleiner werden kann.

Gast
2008-06-26, 08:21:19
War doch klar. Wenn eine GTX270 auf Basis des G200b kommt, dann sicher auch eine "Ultra". Durch 55nm sollte man einiges an Taktpotential haben.

Ihr tut alle so als ob der G200b in ein paar Wochen kommen wird. Wie kommt ihr darauf? Das Tape-out war angeblich erst vor ein paar Wochen (im Mai, zumindest hat es jemand so gemeldet). Mai + 6Monate = November 2008

Mit viel Glück vielleicht Ende Oktober. Mit weniger Glück erst im Dezember 2008.

Dh. Nvidia muss jetzt ca. ein halbes Jahr mit der jetzigen Konstellation "überstehen"

igg
2008-06-26, 08:50:53
Mit viel Glück vielleicht Ende Oktober. Mit weniger Glück erst im Dezember 2008.

Dh. Nvidia muss jetzt ca. ein halbes Jahr mit der jetzigen Konstellation "überstehen"

Tape-out des Gt200: Ende Januar, Release: Anfang Juni (ca. 5 Monate)
Tape-out des Gt200b: Ende Mai, Release bei gleicher Dauer: Spätestens Anfang Oktober (ca. 5 Monate) und wenn es ein rein optischer Shrink ist u.U. viel früher

Gast
2008-06-26, 10:16:11
Tape-out des Gt200: Ende Januar, Release: Anfang Juni (ca. 5 Monate)
Tape-out des Gt200b: Ende Mai, Release bei gleicher Dauer: Spätestens Anfang Oktober (ca. 5 Monate) und wenn es ein rein optischer Shrink ist u.U. viel früher


Tape-out war für den GT200 schon irgendwann letztes Jahr. Das Ding ist bei Nvidia sehr lange auf Halde gelegen weil sie die GPU nicht gebraucht haben gegen die Konkurrenz und sie dadurch Zeit hatten den Yield zu verbessern (was aber anscheinend nicht besonders gut funktioniert hat).

crux2005
2008-06-26, 10:22:12
genau, es sollen sogar mehr als 3 Monate sein

igg
2008-06-26, 10:23:24
Tape-out war für den GT200 schon irgendwann letztes Jahr. Das Ding ist bei Nvidia sehr lange auf Halde gelegen weil sie die GPU nicht gebraucht haben gegen die Konkurrenz und sie dadurch Zeit hatten den Yield zu verbessern (was aber anscheinend nicht besonders gut funktioniert hat).
Nein, zumindest diese Meldung (http://www.computerbase.de/news/hardware/grafikkarten/2008/januar/neue_grafikkarten-generation_q2/) deutet eher darauf hin dass das Tape-out im Januar war

igg
2008-06-28, 12:37:40
Laut NordicHardware kommt der GT200b nicht so gut voran wie erhofft und die Partner von Nvidia sind aus verschiedenen Gründen sauer (niedrige Margen, hohe Kosten, Preispolitik):
The fact is that many NVIDIA partners have been left out after G200, simply because of a lack of chips. And the partners that do get cards are not happy with the margins. NVIDIA is trying hard to get the 55nm "G200b" out as soon as possible, but it doesn't look like it will happen anytime soon. G200 at 55nm should be about 470mm2, which should make room for about 120 dies on a 300mm wafer. Hopefully this will push yields closer to 50%, but NVIDIA is probably going to be satisfied with above 40%.
...
On top of that, NVIDIA's new Unilateral Minimum Advertised Price Policy (UMAP) has limited partners' playing field and minimizes competition between them. When NVIDIA at the same time decides to launch new cards based on existing cores, at lower prices, partners get upset over diminishing earnings. Add to that AMD's new RV770 chip is looking very tempting to some of these partners...
Quelle (http://www.nordichardware.com/news,7897.html)

So langsam frage ich mich, was bei Nvidia los ist. Eigentlich sind sie doch eine sehr erfahrene und erfolgreiche Firma...

Sorkalm
2008-06-28, 12:50:53
und die Partner von Nvidia sind aus verschiedenen Gründen sauer (niedrige Margen, hohe Kosten, Preispolitik)

Gainward hat ja die Nvidia-Exklusivität jetzt aufgegeben. Wäre interessant, mal die Gründe dazu wissen - die Muttelgesellschaft produzierte zwar bereits AMD-Karten, aber die Marke Gainward hatte man ja relativ beschränkt gelassen...
Aus Jux und guter Laune werden sie aber sicher nicht gemacht werden.

S940
2008-06-28, 13:04:06
So langsam frage ich mich, was bei Nvidia los ist. Eigentlich sind sie doch eine sehr erfahrene und erfolgreiche Firma...
Dasselbe wie bei den AMD CPUs und K8, man wird dick und fett vielleicht auch arrogant und überheblich und auf einmal kommt der Konkurrent mit nem besseren Produkt ... gaaanz überraschend.

ciao

Alex

Gast
2008-06-28, 15:50:35
Laut NordicHardware kommt der GT200b nicht so gut voran wie erhofft und die Partner von Nvidia sind aus verschiedenen Gründen sauer (niedrige Margen, hohe Kosten, Preispolitik)


Wenn ich mir die 3DCenter News von gestern (27.06.08) so anschaue dann kommt für mich noch ein zusätzliches Manko beim GT200b dazu:

Die GT200b wird nur geringfügig schneller oder gar nur gleich schnell sein wie die GT200 und dabei entweder gleich viel oder sogar noch mehr verbrauchen als die GT200. Wenn 55nm selbst bei den 9800GTX+ Karten fast nichts bringt kann man damit rechnen das es bei den GT200b auch so ist oder sogar noch schlechter läuft da diese GPU ja noch ein Stück größer ist.

Also mehr als bessere Yields + etwas geringere Herstellkosten durch die 20% mehr Dies pro Wafer kann man von der GT200b sehr wahrscheinlich nicht erwarten. => Enttäuschend!

Außerdem wird in der News-Meldung von Nordichardware wieder ein Yield von 40% genannt. Haben die dafür eine eigene Quelle oder schreiben sie nur wieder ab?

Wenn nicht dann sind für mich jetzt 40% "fakt". Macht also momentan so 130 - 140 Dollar pro GT200 GPU. Bei der GT200b könnte das dann durch die 50% yield + 120 dies pro Wafer auf ~90 Dollar pro GT200b fallen. Dadurch können die Karten dann also um 40-50 Dollar billiger angeboten werden.
=> ebenfalls enttäuschend wenig. 40-50 Dollar retten weder die GT260(b) noch eine hypothetische GT270 gegenüber der ATi Konkurrenz.

Gast
2008-06-30, 18:20:14
Was haltet ihr hiervon? ;)

GTX 260 @ 55 nm: 630/1350/1000 Megahertz
GTX 280 @ 55 nm: 600/1300/1100 Megahertz (unverändert)
GTX 280+ @ 55 nm: 710/1530/1100 Megahertz

http://www.hardware.kilu.de/?id=10

dargo
2008-06-30, 20:22:25
Was haltet ihr hiervon? ;)

GTX 260 @ 55 nm: 630/1350/1000 Megahertz
GTX 280 @ 55 nm: 600/1300/1100 Megahertz (unverändert)
GTX 280+ @ 55 nm: 710/1530/1100 Megahertz

http://www.hardware.kilu.de/?id=10
Wenn das alles ist dann eher enttäuschend. Ich frage mich ersthaft wozu man auf den G200b warten sollte. Ob die Verlustleistung fällt ist auch eher fraglich. Das einzige Argument könnte ein niedrigerer Preis sein.

Sorkalm
2008-06-30, 20:25:50
Das ist doch auch nur irgendwelche Spekulation. ;)

Gast
2008-06-30, 20:34:23
Ja, ist a nur Spekulation (schreiben sie ja deutlich) und b wären das bei dem Topmodell mit angepeilten 710 MHz immerhin 18 Prozent mehr Textur- und Shaderleistung, was doch für einen Refresh-Chip sehr ordentlich wäre.
Zu viel sollte man nicht erwarten...

igg
2008-07-01, 11:13:06
Dafür, dass der Chip einiges gerade biegen sollte hört/liest man noch überraschend wenig. Entweder die Leute halten sich diesmal an die NDAs oder er ist noch in weiter Ferne.

Adam D.
2008-07-01, 11:16:16
IMO war G200b für's 4. Quartal angesetzt, bis dahin ist es ja noch 'ne ganze Weile. Ergo gibt's einfach grad nicht so viele Informationen, aber wir wissen doch eh schon ungefähr, wo's hingehen soll: G200 komplett auslaufen lassen und die GTX2xx-Reihe mit dem 55nm-Die neu einrichten, eventuell auch mit 'ner neuen GTX290.

igg
2008-07-01, 11:20:19
IMO war G200b für's 4. Quartal angesetzt, bis dahin ist es ja noch 'ne ganze Weile.
Dann hätte ATI aber die Leistungskrone bis ins 4. Quartal (wenn der R700 schon Ende Juli erscheint). Kann mir nur schwer vorstellen, dass Nvidia das auf sich sitzen lässt

Adam D.
2008-07-01, 11:21:46
Dann hätte ATI aber die Leistungskrone bis ins 4. Quartal (wenn der R700 schon Ende Juli erscheint). Kann mir nur schwer vorstellen, dass Nvidia das auf sich sitzen lässt
Die können sich halt auch nicht aussuchen, wann ihr G200b fertig ist, die werden schon so schnell machen wie irgendwie möglich. Und ja, der R700 wird defintiv die Leistungskrone übernehmen - da wird ein G200b IMO nix dran ändern können.

Gast
2008-07-01, 12:35:33
Deswegen ist für Ende des ersten Quartals 2009 auch noch eine Dual-Lösung von Nvidia mit 192 SPs, 64 TMUs, 256 Bit-Speicherinterface @ GDDR5 geplant...

igg
2008-07-01, 12:37:33
Deswegen ist für Ende des ersten Quartals 2009 auch noch eine Dual-Lösung von Nvidia mit 192 SPs, 64 TMUs, 256 Bit-Speicherinterface @ GDDR5 geplant...
Wie kommst du denn darauf?

Gast
2008-07-01, 12:42:53
Man hat so seine Quellen. ;)

Dies ist die einzige Möglichkeit für Nvidia, den R700 leistungstechnisch zu übertrumpfen.
Und ein solcher Chip wäre vermutlich auf unter 300 Quadratmilimeter im 55 nm-Prozess problemlos zu packen. Der G92 war auch 330 Quadratmilimeter groß und man ihn erfolgreich gedoppelt (siehe 9800 GX2).

Durch GDDR5-Speicher ginge dem Chip trotz 256 Bit-Speicherinterface die Bandbreite nicht aus und 192 SPs und 64 TMUs sind ja schon bei der GTX 260 "erfolgreich" im Einsatz.

Dies soll übringens nicht heißen, dass ein Chip so schnell wie die GTX 260 wäre. Ihr könnt davon ausgehen, dass Chip- und Shadertakt deutlich darüber liegen und folglich die Textur- und Shaderleistung eher Richtung GTX 280 wandert...

Gast
2008-07-01, 13:38:57
Dann hätte ATI aber die Leistungskrone bis ins 4. Quartal (wenn der R700 schon Ende Juli erscheint). Kann mir nur schwer vorstellen, dass Nvidia das auf sich sitzen lässt

wie es aussieht dürfte leistung und stromverbrauch von 4870 und 260GTX recht ähnlich sein.

wenn es unbedingt sein muss könnte NV also durchaus mit einer GX2-karte kontern, natürlich nicht mit 2x 280GTX, aber durchaus mit einer performance die RV770 x2 ebenbürtig sein kann.

Sorkalm
2008-07-01, 13:45:12
wie es aussieht dürfte leistung und stromverbrauch von 4870 und 260GTX recht ähnlich sein.

wenn es unbedingt sein muss könnte NV also durchaus mit einer GX2-karte kontern, natürlich nicht mit 2x 280GTX, aber durchaus mit einer performance die RV770 x2 ebenbürtig sein kann.

Naja, zumindest wäre wohl der Verbrauch das größte Problem. Aber die GTX 260 hat mit ihrem 448 Bit Interface und den großen GPUs noch andere Probleme.

Gast
2008-07-01, 14:14:58
Aber die GTX 260 hat mit ihrem 448 Bit Interface und den großen GPUs noch andere Probleme.

billig wäre es natürlich nicht gerade, aber trotzdem machbar.

in dem marktsegment wären die höheren herstellungskosten auch nicht so tragisch, die schmerzen eher im bereich der 260GTX, die man wohl gerne teurer verkauft hätte.

Gast
2008-07-01, 14:18:24
Die Theorie in Post 173 klingt da für mich glaubwürdiger, als wenn Nvidia noch mal einen eigenen Chip mit 448 Bit-Speicherinterface, 192 SPs und 64 TMUs auflegt... denn die GTX 260 ist ja bekanntlich nur ein deaktivierter GT200 (GTX 280), sprich ebenfalls 576 mm^2 groß...

reunion@work
2008-07-01, 14:20:00
billig wäre es natürlich nicht gerade, aber trotzdem machbar.

in dem marktsegment wären die höheren herstellungskosten auch nicht so tragisch, die schmerzen eher im bereich der 260GTX, die man wohl gerne teurer verkauft hätte.

Und wie kommst du darauf das eine GX2 auf 260GTX-Basis bei den begenzten Platzangebot plus zusätzlicher PCIe-Bridge billiger herzustellen wären als zwei GTX260? Die GTX260 wollte man eigentlich um 449$ verkaufen, wurde dann aber wegen der Konkurrenz auf 399$ gesenkt. Macht locker 799$ für eine solche GX2. Nicht wirklich eine Alternative wenn AMD die 4870X2 um 499$ verkaufen will IMHO.

Gast
2008-07-01, 14:48:15
Und wie kommst du darauf das eine GX2 auf 260GTX-Basis bei den begenzten Platzangebot plus zusätzlicher PCIe-Bridge billiger herzustellen wären als zwei GTX260?

natürlich ist das ganze nicht billiger, muss es auch nicht, bei den geringen stückzahlen in denen eine potentielle GX2 verkauft wird, schmerzt ein geringerer gewinn nicht so sehr.

Gast
2008-07-01, 20:55:08
Deswegen ist für Ende des ersten Quartals 2009 auch noch eine Dual-Lösung von Nvidia mit 192 SPs, 64 TMUs, 256 Bit-Speicherinterface @ GDDR5 geplant...

Ablöse für den G92b ;)
Alle GF9 Derivate müssen ja durch D10x Abkömmlinge ersetzt werden, logisch.

davidzo
2008-07-01, 22:33:09
Man hat so seine Quellen. ;)


Wohl deine Gedanken?


Durch GDDR5-Speicher ginge dem Chip trotz 256 Bit-Speicherinterface die Bandbreite nicht aus und 192 SPs und 64 TMUs sind ja schon bei der GTX 260 "erfolgreich" im Einsatz

Dass ein solcher Chip für Nvidia die Lösung gegen den rv770 gewesen wäre, weiß mittlerweile jedes Kind. Ich finde das zu einfach, das kombiniert einfach die Stärken der GTX Serie mit denen des RV770xt. Zu vorhersehbar. Mit einem 55nm GTX260 shrink mit GDDR5 hätte man jetzt kommen müssen, bzw. schon viel früher anfangen müssen. Der schock hat nvidia ja erst jetzt ereilt, ich glaube also kaum dass sie darauf innerhalb von 9 Monaten mal eben mit einem völlig neuen Chip kommen, sowas wird längerfristig geplant.

ich denke eher für den richtigen GTX refresh wird man etwas an der Architektur drehen. Die Shaderpower ist unterdimensioniert im vergleich zur texturierleistung, schon jetzt bringt die GTX280 weniger Flops auf den Tisch als eine 200$ Radeon. In double Precision ist das noch viel krasser, da nützt auch die übertaktete tesla GTX280 nichts.
Das AMD auf Shaderleistung steht ist nichts neues, daher kann man von langer Hand planen. Nvidia muss die Shaderleistung erhöhen um nicht ins Hintertreffen zu geraten.

Der GT200b ist ein reiner shrink. Eine hardwaregekürzter GTX260 wäre indes ein chip redesign. Wieso sollte man nicht die chance nutzen um bei diesem redesign auch etwas an den einheitenanzahlen zu korrigieren?
Da die Architektur flexibel ist, wie wir bereits wissen, wird man für einen 55nm GTX260 refresh eher die Verhältnisse verändern. Die 240shader werden eventuell rv770 style etwas dichter gepackt und verkleinert, dazu dann nurnoch 64 tmus und 256bit. Auch möglich wäre eine Aufstockung der shader auf 256.

Das wäre dann aber ein GT200 refresh refresh. Klingt mir ein wenig komisch. Aber GTX260 in 55nm wäre zu plump. Also vielleicht ganz was anderes oder was dazwischen?

Gast
2008-07-01, 23:09:48
ich denke eher für den richtigen GTX refresh wird man etwas an der Architektur drehen. Die Shaderpower ist unterdimensioniert im vergleich zur texturierleistung, schon jetzt bringt die GTX280 weniger Flops auf den Tisch als eine 200$ Radeon. In double Precision ist das noch viel krasser, da nützt auch die übertaktete tesla GTX280 nichts.


FLOP!=FLOP wenn man von unterschiedlichen designs spricht, zwischen den aktuellen karten von NV und ATI ist er sogar verdammt stark.

dazu kommt noch, dass ein FLOP beim G200 mehr wert wurde (gegenüber G80/9x) wogegen er bei ATI offenbar eher weniger wert wurde (im verhältnis zum vorgänger).

nur weil am papier weniger vorhanden ist, heißt dass noch lange nicht, dass man nicht trotzdem mithalten kann.

Sorkalm
2008-07-01, 23:11:37
wogegen er bei ATI offenbar eher weniger wert wurde (im verhältnis zum vorgänger).

Wieso das denn?

Die Nutzung der vorhandenen zweiten MUL-Einheit beim G200 tritt übrigens auch nur sehr beschränkt auf, nachdem was ich so gelesen habe (wird halt vom meisten Code eher weniger benötigt). ;)

Gast
2008-07-02, 00:15:35
Wieso das denn?

keine ahnung, die 4800er serie müsste sich allerdings deutlich mehr von der 3800er serie absetzen, angesichts der stark gestiegenen TEX und ALU-leistung. entweder ist das ganze mittlerweile so oversized, dass schon irgendwelche anderen dinge limitieren, oder aber die eingesparten transistoren um dermaßen viele ALU/TEX-cluster unterzubringen kosten doch merklich an leistung.


Die Nutzung der vorhandenen zweiten MUL-Einheit beim G200 tritt übrigens auch nur sehr beschränkt auf, nachdem was ich so gelesen habe (wird halt vom meisten Code eher weniger benötigt). ;)

laut xbit wird das MUL beim G200 nun zu 50% genutzt (beim G80 15%), das ist schon mal eine ordentliche steigerung, wobei sicher auch noch etwas optimierungspotential im shadercompiler steckt.
allerdings ist das nicht das einzige was gesteigert wurde, doppelt so viele register/cluster und noch ein paar feinheiten lassen die auslastung weiter steigen.

wobei ich denke dass bei grafikberechnungen G80 auch schon ganz gut dimensioniert war, die dinger bringen eher bei GPGPU einiges wenn der programmierer mal nicht aufpasst und sparsam mit den ressourcen umgeht.
aber auch für die treiberentwickler wird das ganze einfacher.

die TMUs sind auch etwas effizienter als beim G80/92, die 260GTX erreicht mit ihren 64TMUs in etwa die gleiche texturleistung wie die 9800GTX mit ebenfalls 64TMUs aber deutlich höherem takt.

momentan sehen wir 2 unterschiedliche ansätze:
einerseits ATI mit brachialer rohleistung die aber schlechter als bei der konkurrenz und offenbar auch etwas schlechter als beim eigenen vorgänger ausgenutzt werden kann.
andererseits nvidia, die ihre rohleistung eher gemächlich steigern, dafür aber noch effizienter werden wollen.

Sorkalm
2008-07-02, 11:04:18
keine ahnung, die 4800er serie müsste sich allerdings deutlich mehr von der 3800er serie absetzen, angesichts der stark gestiegenen TEX und ALU-leistung. entweder ist das ganze mittlerweile so oversized, dass schon irgendwelche anderen dinge limitieren, oder aber die eingesparten transistoren um dermaßen viele ALU/TEX-cluster unterzubringen kosten doch merklich an leistung.

Naja, wenn man Takt-zu-Takt vergleicht kommt man schon auf eine knappe Verdopplung der typischen Leistung (Extrem-Situationen natürlich ausgenommen). Das deckt sich mit vielen Stellen welche optimiert wurden. Texel- und Shaderleistung dürfte nicht mehr an den meisten Stellen das Problem sein.

laut xbit wird das MUL beim G200 nun zu 50% genutzt (beim G80 15%), das ist schon mal eine ordentliche steigerung, wobei sicher auch noch etwas optimierungspotential im shadercompiler steckt.

Ja, klar, aber ein Programmcode muss auch erst einmal entsprechend MUL-lastig sein, dass ihm diese Steigerung nützt.

allerdings ist das nicht das einzige was gesteigert wurde, doppelt so viele register/cluster und noch ein paar feinheiten lassen die auslastung weiter steigen.

Natürlich nicht, und Nvidia wird auch sicherlich aus Spaß an der Freude Transistoren verpulvert haben. Aber viele der Erweiterungen bringen eben nur in sehr speziellen Situationen etwas, und solche speziellen Situationen findet man eben oft (manchmal sogar nur) in GPGPU-Anwendungen.

wobei ich denke dass bei grafikberechnungen G80 auch schon ganz gut dimensioniert war, die dinger bringen eher bei GPGPU einiges wenn der programmierer mal nicht aufpasst und sparsam mit den ressourcen umgeht.
aber auch für die treiberentwickler wird das ganze einfacher.

die TMUs sind auch etwas effizienter als beim G80/92, die 260GTX erreicht mit ihren 64TMUs in etwa die gleiche texturleistung wie die 9800GTX mit ebenfalls 64TMUs aber deutlich höherem takt.

An den TMUs selber wurde doch kaum was gedreht, gegenüber dem G80 sind zwar mehr Adressierer vorhanden, aber dieses 1:1-Verhältnis wurde ja schon mit G84/G86 eingeführt. Und eben Verbesserungen am Sheduler.

Gast
2008-07-02, 11:35:40
FLOP!=FLOP wenn man von unterschiedlichen designs spricht, zwischen den aktuellen karten von NV und ATI ist er sogar verdammt stark.

dazu kommt noch, dass ein FLOP beim G200 mehr wert wurde (gegenüber G80/9x) wogegen er bei ATI offenbar eher weniger wert wurde (im verhältnis zum vorgänger).

nur weil am papier weniger vorhanden ist, heißt dass noch lange nicht, dass man nicht trotzdem mithalten kann.
so ist das=1400 G200 sind 1800 G92 shader mhz...

Gast
2008-07-02, 19:21:33
Naja, wenn man Takt-zu-Takt vergleicht kommt man schon auf eine knappe Verdopplung der typischen Leistung (Extrem-Situationen natürlich ausgenommen). Das deckt sich mit vielen Stellen welche optimiert wurden. Texel- und Shaderleistung dürfte nicht mehr an den meisten Stellen das Problem sein.

die 4850 hat taktbereinigt ca. die 2-fache ALU-leistung und 2-fache TMU-leistung.

davon kommen allerdings in spielen meistens nur 50-60% an, und das ganze auch "nur" mit antialiasing, wo die neuen ROPs eine wichtige rolle spielen.
ohne AA kann sie sich selbst in sehr hohen auflösungen kaum absetzen.

sicherlich nicht schlecht, zeigt aber dass doch einiges an effizienz (zumindest in spielen) geopfert wurde um die 10 cluster auf so engen raum zu bringen.



Natürlich nicht, und Nvidia wird auch sicherlich aus Spaß an der Freude Transistoren verpulvert haben. Aber viele der Erweiterungen bringen eben nur in sehr speziellen Situationen etwas, und solche speziellen Situationen findet man eben oft (manchmal sogar nur) in GPGPU-Anwendungen.
[/quote]

verglichen mit der 8800Ultra gibt es gerade mal:

60% mehr rechenleistung
23% mehr texturleistung
30% mehr pixelfüllrate
36% mehr bandbreite.

daraus schafft man immerhin ~50% mehr leistung, also so wenig bringen die einzelnen verbesserungen wohl auch nicht.

ich frage mich allerdings trotzdem ob nvidia den richtigen weg angetreten ist. G80 war schließlich schon recht effizient und durch den abnehmenden ertrag muss man zwangsläufig übermäßig viel investieren um etwas effizientes noch effizienter zu machen.
die rohleistung die mit 1,4Mrd an transistoren möglich gewesen wäre hätte wohl den jetztigen G200 plattgemacht, sowohl in spielen als auch bei GPGPU.

Ailuros
2008-07-03, 00:01:32
ich denke eher für den richtigen GTX refresh wird man etwas an der Architektur drehen. Die Shaderpower ist unterdimensioniert im vergleich zur texturierleistung, schon jetzt bringt die GTX280 weniger Flops auf den Tisch als eine 200$ Radeon.

Das ALU domain hat diemal nicht so gut mitgespielt wie in der Vergangenheit; selbst aber bei einem 2.5 ALU<->TMU Frequenz-Ratio haette sich nichts besonderes geaendert.

Natuerlich hat RV770 um einiges mehr FLOPs, dass heisst aber nicht dass sie unbedingt effizienter sind. Haette die GTX280 1.2TFLOPs wie die RV770 koennte sie sich wohl noch mehr von dieser absetzen.


Der GT200b ist ein reiner shrink. Eine hardwaregekürzter GTX260 wäre indes ein chip redesign.

Was ist fuer Dich ein "reiner" shrink?

Wieso sollte man nicht die chance nutzen um bei diesem redesign auch etwas an den einheitenanzahlen zu korrigieren?

Und der Vorschlag lautet?

Da die Architektur flexibel ist, wie wir bereits wissen, wird man für einen 55nm GTX260 refresh eher die Verhältnisse verändern. Die 240shader werden eventuell rv770 style etwas dichter gepackt und verkleinert, dazu dann nurnoch 64 tmus und 256bit.

Was heisst hier "dichter gepackt" und verkleinert genau?

Auch möglich wäre eine Aufstockung der shaer auf 256.

Ich bin ganz Ohren wie man auf die magische "256" kommen kann, da GT200 wie bekannt [10*(8*3)] ist. Natuerlich koennte man auf irgend eine idiotische [8*(8*4)] Konstellation denken, aber wenn man in so kurzer Zeit etwas auf dem Markt haben will hat man keine Zeit zu solchen Turnereien die uebrigens auch keinen besonderen Sinn machen.

Das wäre dann aber ein GT200 refresh refresh. Klingt mir ein wenig komisch. Aber GTX260 in 55nm wäre zu plump. Also vielleicht ganz was anderes oder was dazwischen?

Eben. Wie es nun wirklich aussehen wird abwarten und Tee trinken.

Gast
2008-07-03, 00:44:10
Geforce gx2 290
- 2x 192 SPs
- 2x 64 TMUs
- 2x 16 ROPs
- 2x 256-Bit

expected performance:
- 2x 850-1050 Gflops
- 2x 44-47 Gtexel/s
- 2x 115 GB/s

Gast
2008-07-03, 01:05:37
Can you tell us, when the chip will launch and in which manufacturing process?

Gast
2008-07-03, 01:09:07
probably in 55 nm. the launch date is in the first quarter 2009 (expected).

drmaniac
2008-07-03, 18:27:38
oh wow

http://geizhals.at/deutschland/a344247.html

Ich hätte nicht gedacht, dass eine GTX280 so schnell unter 400 euro landet :eek:

.

Nightspider
2008-07-03, 18:30:46
oh wow

http://geizhals.at/deutschland/a344247.html

Ich hätte nicht gedacht, dass eine GTX280 so schnell unter 400 euro landet :eek:

.

Naja, war ja zu erwarten, nach den ersten Benchmarks der HD 4850 vor 4 Wochen...

Zu dem Thema gibts übrigens ein extra-Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=422196&page=8

AnarchX
2008-07-03, 20:23:59
Mit einer GX2, die sich aus zwei zur GTX 260 vergleichbaren Karten zusammensetzt wäre wohl NV gar nicht so schlecht beraten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet
Die Skalierung von SLI ist definitiv ein Vorteil.

Sorkalm
2008-07-03, 20:32:09
Wobei die in CB auch durch die einigen älteren Spiele deutlich besser aussieht (solche wie Gothic 3), auf die AMD sich wohl nicht mehr die Arbeit machen möchte, noch entspreche Profile zu schreiben.

//Edit: In den höheren Settings kann einem 4870-CF-Gespann natürlich auch Speicher fehlen.

Zumal es bis zu einer 260 GX2 wohl noch einige Monate dauern würde, wenn man den Plan jetzt (in 55 nm) fast.

reunion
2008-07-03, 20:46:32
Mit einer GX2, die sich aus zwei zur GTX 260 vergleichbaren Karten zusammensetzt wäre wohl NV gar nicht so schlecht beraten:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/23/#abschnitt_performancerating_qualitaet
Die Skalierung von SLI ist definitiv ein Vorteil.

Alles eine Frage der Spieleauswahl. Nimm Gothic3 und World in Conflict raus und CF skaliert genau so gut wie SLi. Zumal ich nicht wüsste woher nV etwas 260GTX ähnliches für ein GX2 Gespann auftreiben soll.

Grestorn
2008-07-03, 21:21:34
Alles eine Frage der Spieleauswahl. Nimm Gothic3 und World in Conflict raus und CF skaliert genau so gut wie SLi. Zumal ich nicht wüsste woher nV etwas 260GTX ähnliches für ein GX2 Gespann auftreiben soll.

Sobald ein Spiel nicht Mainstream ist, versagt CF im Allgemeinen. Unnötigerweise, denn es fehlt ja nur das Profil.

igg
2008-07-03, 21:46:49
Wenn der GT200-400 bereits in dem letzten Beta-Treiber aufgeführt ist, dann dürfte die Karte ja nicht mehr soweit weg sein.

Ailuros
2008-07-04, 00:05:37
Alles eine Frage der Spieleauswahl. Nimm Gothic3 und World in Conflict raus und CF skaliert genau so gut wie SLi. Zumal ich nicht wüsste woher nV etwas 260GTX ähnliches für ein GX2 Gespann auftreiben soll.

Ich will mir den Stromverbrauch eines jeglichen hypothetischen "GT200-GX2" Gespanns weder einer R700 genau vorstellen. Anstatt Geld fuer so etwas zu verplempern waere es mir lieber stattdessen ueber nicht zu lange Zeit auf RV8x0 und co. zu warten. Haette ich vor kurzer Zeit eine 3870X2 gekauft, wuerde ich gerne gegen die Wand rennen nach der 4870 Vorstellung.

Ailuros
2008-07-04, 00:09:56
Sobald ein Spiel nicht Mainstream ist, versagt CF im Allgemeinen. Unnötigerweise, denn es fehlt ja nur das Profil.

SW-Entwicklung fuer dual-chip/GPU configs fressen bei beiden IHVs zunehmend mehr Resourcen. Ich frage mich ob der ganze Aufwand eigentlich der Rede Wert ist am Ende.

Nightspider
2008-07-04, 03:44:28
:eek: Habt ihr die Crossfire Skalierung in CoD4 gesehen ? durchgehend rund fast 99%

Heftig

MEDIC-on-DUTY
2008-07-04, 10:02:57
Angeblich will nV im 1Q DX10.1 implementieren. Ich kann mir aber nicht vorstellen, dass das auf der aktuellen G200 Basis passieren wird. Der Bericht spricht zudem von 1,5 - 2x schellerer Performance als die bisherige Technologie für das 1Q09. Sagt aber nicht im welchen Vergleich dieser Schluss gezogen wurde. Aber GDDR5 alleine wird nicht für diesen Schub sorgen können, oder?

http://www.tgdaily.com/content/view/38247/135/

Adam D.
2008-07-04, 10:38:29
Ich denke auch, dass da einiges durcheinander geworfen wurde. Für Q1/09 würde noch am ehesten der G200b passen, obwohl ich den früher erwarten würde (September/Oktober?) und für eine neue Generation reicht die Zeit mit Sicherheit nicht aus, das wird eher Herbst 2009.

AnarchX
2008-07-04, 10:44:17
Naja, die eigentliche Information scheint ja eine Notebook-GPU-Roadmap zu sein, wo DX10.1 auftaucht, der Rest is ja reine Spekulation, etwas wo TGDaily nicht unbedingt seine Stärken hat.

Aber ich sehe da auch keinen wirlich Sinn drin, 2009 nochmal D3D10.1 GPUs zu bringen, wenn Anfang 2010 wohl D3D11 ansteht, worauf man die Entwicklung eher konzentrieren sollte. Und da nichtmal GT200 mit 10.1 kam, kann man wohl annehmen, dass der Aufwand für die Implementierung nicht gerade gering ist.

Vielleicht deutet ja die Roadmap darauf hin, dass man VIA samt S3 aufkaufen will und Destination Films im Mobile Markt verkaufen will, immerhin ist dieser doch sehr sparsam. ;D

igg
2008-07-04, 11:01:48
Diese Roadmap bestätigt vorallem die Wechsler: Wer sich wie ich im August einen neuen PC baut, wird keine GTX280 für 350+ EUR nehmen sondern eine 4870.

Sorkalm
2008-07-04, 11:21:41
Wie fix ist denn das baldige DX11 Anfang 2010? Für die nächste Generation in rund einem (guten) Jahr rechnet ihr schon mit DX11-Unterstützung? Wo doch die genauen Spezifikationen noch gar nicht so lange feststehen?

MEDIC-on-DUTY
2008-07-04, 11:31:13
Wie fix ist denn das baldige DX11 Anfang 2010? Für die nächste Generation in rund einem (guten) Jahr rechnet ihr schon mit DX11-Unterstützung? Wo doch die genauen Spezifikationen noch gar nicht so lange feststehen?

Ich erwarte 3/4 Qu. 09 die ersten Karten mit DX11, unabhängig davon wann M$ Vista Reloaded bringt. Ähnlich war es bei nV mit der 88GTX. http://www.techarp.com/showarticle.aspx?artno=526&pgno=1

EDIT// Evtl. auch schon früher. Hängt jetzt auch davon ab, was nV gegen den Vorstoss von ATI in der Pipeline hat. Ich glaube nV lässt einfach DX10.1 komplett aus.

Sorkalm
2008-07-04, 11:32:19
Dann hätte DX10 aber eine deutlich kürzere Lebenszeit als DX9...

MEDIC-on-DUTY
2008-07-04, 11:37:42
Dann hätte DX10 aber eine deutlich kürzere Lebenszeit als DX9...

Das war abzusehen, da DX10 als Vista only kam und Unternehmen als auch Privatpersonen sich dieser Geisel nicht hingeben wollten. Daher wird es wohl auch DX11 für Vista mit SP2 geben.

Sorkalm
2008-07-04, 11:43:20
Was hat denn das mit Vista-only zu tun?

MEDIC-on-DUTY
2008-07-04, 11:50:57
Was hat denn das mit Vista-only zu tun?

Weil M$ nicht damit gerechnet hat, dass die Mehrheit gerne an XP festhält und somit auch zwangsläufig an DX9. Da aber die Ablöse von XP nur eine Frage der Zeit ist und M$ zusammen mit Intel wohl an einer Implementierung von Raytracing in DX11 arbeitet, gehe ich davon aus, dass DX10 schneller abgelöst wird als DX9. Die Positionen von ATI und nV sind dabei nicht ganz klar. Aber beide werden um DX11 nicht herumkommen.

Gast
2008-07-04, 11:52:43
Dann hätte DX10 aber eine deutlich kürzere Lebenszeit als DX9...

DX9 hatte mit SM2 und 3 auch zwei Ausbaustufen.

Sorkalm
2008-07-04, 11:57:54
DX9 hatte mit SM2 und 3 auch zwei Ausbaustufen.

Hat DX10 mit 10.0 und 10.1 auch.

@MEDIC-on-DUTY: Was hat denn die Planung der Schnittstellungen mit ihrer Durchsetzung zu tun? Zu dem: DX11 wird ja wohl kaum auf XP veröffentlicht, insofern ändert das gar nichts. Und DX10-Hardware wird zum Launch von DX11 ja wohl mehr vorhanden sein, als DX11-Hardware. ;)

Was mit DX11 neu wird, werden wir ja noch sehen. Ich bezweifle aber, dass Microsoft sich so stark an Intel ausrichtet (klar, die sitzen mit am Tisch), aber diese enge Zusammenarbeit wie man sie vor 5 Jahren noch beobachten konnte, scheint nicht mehr zu bestehen.

JaDz
2008-07-04, 12:23:54
Dann hätte DX10 aber eine deutlich kürzere Lebenszeit als DX9...
Stirbt DirectX 10 bei Erscheinen vom Seven plötzlich? Sudden DirectX Death Syndrome?

Gast
2008-07-04, 12:45:28
DX9 hatte mit SM2 und 3 auch zwei Ausbaustufen.

Der Unterscheid ist aber erheblich geringer als zwischen SM2/3.

Gast
2008-07-04, 12:52:51
Da aber die Ablöse von XP nur eine Frage der Zeit ist und M$ zusammen mit Intel wohl an einer Implementierung von Raytracing in DX11 arbeitet,
Du hast da wohl was falsch verstanden...

Gast
2008-07-04, 19:18:26
Es heißt:
"Nvidia’s new GPU generation, we hear, will also be 1.5 to 2 times faster than the current technology."

Dies wäre mit dem GT200b nicht zu bewerkstelligen, da müsste schon eine Dual-Lösung her.
Hier wird das gut erklärt:

http://www.hardware.kilu.de/?id=21

Gast
2008-07-04, 20:21:42
Aber ich sehe da auch keinen wirlich Sinn drin, 2009 nochmal D3D10.1 GPUs zu bringen, wenn Anfang 2010 wohl D3D11 ansteht, worauf man die Entwicklung eher konzentrieren sollte. Und da nichtmal GT200 mit 10.1 kam, kann man wohl annehmen, dass der Aufwand für die Implementierung nicht gerade gering ist.

Denk mal drüber nach was du geschrieben hast ;) Wenn nV bisher den Umbau der TMUs gescheut hat, um die DX10.1 fähig zu machen, warum sollten sie 2009 davor zurückschrecken, wenn sie sowieso es tun müssen.
Der Codename G1xx erscheint leider aktuell nicht mehr in Gerüchten, aber diesen gibt es wohl immer noch.
DX10.1+ Fähigkeiten sind wohl eher wahrscheinlich für eine GPU die nV in genau einem Jahr bringen könnte. Außerdem gerät man im Mainstream ja in Zugzwang, der G2x0 muss in 55nm kommen und das früher als gedacht.

Gründe? G200 ist 6Monate zu spät dran, dadurch wird sicher nicht der nächste Chip in der Entwicklung nach hinten geschoben, kostet ja alles Geld.
Leider weiß ich nicht, ob G200b im Plan liegt, sollte er, kommt er kurz vor November. Dann wäre "Next-Gen" für Q3/2009 nicht unwahrscheinlich, da ein 3. Refresh wie mit dem G92b geschehen, eher unwahrscheinlich ist. Man will ja weg von der Monster GPU, und das wusste man afaik schon 2008.

War DX11 für 2010 geplant, ists eher Q3/2010. M$ schiebt ja gerne und die Diskussionen in den Meetings sind sicher zäh.

Und ich Frage mich, ob M$ diesmal vieleicht DX-Next an die Konsole binden wird. Sprich Konsole und Windows bekommen das selbe Tec-Lvl. Der Releasezeitraum passt!

AnarchX
2008-07-04, 23:19:07
Denk mal drüber nach was du geschrieben hast ;) Wenn nV bisher den Umbau der TMUs gescheut hat, um die DX10.1 fähig zu machen, warum sollten sie 2009 davor zurückschrecken, wenn sie sowieso es tun müssen.

AFAIK ist doch D3D10.x kein Subset von D3D11, was doch bedeutet dass nicht alle Anforderungen vom ersten ins letzere einfließen?

Gast
2008-07-04, 23:27:28
Auf der einen Seite hast du schon Recht, ATI hat ja auch SM3 lange ignoriert, warum sollte es nV diesmal nicht auch tun? Wobei nV immer "freudiger" auf technische Neuerungen reagiert hat, oder das Marketing hat es mir nur einfach gut verkauft, so dass ich das glaube.

Wie DX11 aussieht weis ich nicht, aber es ist doch nur logisch, das Grundlegende Dinge aus DX10.1 übernommen werden. DX10 ohne DX9 compilance ist ja auch undenkbar, weist worauf ich hinaus will?

Gast
2008-07-04, 23:48:39
Denk mal drüber nach was du geschrieben hast ;) Wenn nV bisher den Umbau der TMUs gescheut hat, um die DX10.1 fähig zu machen, warum sollten sie 2009 davor zurückschrecken, wenn sie sowieso es tun müssen.


Wie so eine alte Architektur Komplett umbauen wenn man schon bald eine neue Architektur haben wird?

Nur so eine Idee...

Wenn der G200 wirklich für Anfang 2008 geplant war, spricht eigentlich nichts gegen eine neue GPU in Q1 2009...

Ailuros
2008-07-05, 08:47:16
NV braucht erstmal eine anstaendige Antwort fuer R700. Fuer 2009 muessten sie sich etwas besseres einfallen lassen als eine theoretische GTX2x0/GX2@55nm wenn sie auch eine Antwort fuer RV8x0 haben moechten.

AnarchX
2008-07-07, 08:10:28
Nvidia mit einem 40nm Tape-Out im September? (http://www.theinquirer.net/gb/inquirer/news/2008/07/05/tsmc-delays-40nm)

Fragt sich nur ob Kleinkram oder etwas Ernsthafteres?;)

Gast
2008-07-07, 13:19:15
Nvidia mit einem 40nm Tape-Out im September? (http://www.theinquirer.net/gb/inquirer/news/2008/07/05/tsmc-delays-40nm)

Fragt sich nur ob Kleinkram oder etwas Ernsthafteres?;)


Hm, Massenproduktion Ende Quartal 1/09. Kann alles mögliche sein.

MEDIC-on-DUTY
2008-07-07, 13:31:02
Nvidia mit einem 40nm Tape-Out im September? (http://www.theinquirer.net/gb/inquirer/news/2008/07/05/tsmc-delays-40nm) Fragt sich nur ob Kleinkram oder etwas Ernsthafteres?;)

Da es sich die Jungs vom Inquirer mit nV verbockt haben, sind die Infos von denen immer mit Vorsicht zu genießen, wie wohl alle anderen News vom IQ auch. ;)

Aber ein neuer Chip in 40nm ist wohl eher unwahrscheinlich, da nV eigentlich bei High-End-Lösungen immer auf Nummer sicher geht und einen erprobten Fertigungsprozess wählt. Da es aber bekanntlich einige Fertigungsprobleme beim G200 gibt, könnte es in Zukunft auch wieder anders aussehen.

Schwer zu sagen, ob nV den gewohnten Pfad angesichts der ATI-Offensive verlässt. nV ist jetzt unter Zugzwang, auch weil neue Produkte fehlen und der G200 sich nicht wirklich auf Dauer durchsetzten kann, schon garnicht im MidRange-Bereich.

Sorkalm
2008-07-07, 13:32:40
Nvidia mit einem 40nm Tape-Out im September? (http://www.theinquirer.net/gb/inquirer/news/2008/07/05/tsmc-delays-40nm)

Fragt sich nur ob Kleinkram oder etwas Ernsthafteres?;)

Nvidia Anfang 2009 mit 40 nm? Und das was ernsthaftes? Würde mich wundern.


Aber mal ehrlich: Wo ist denn der 45-nm-Prozess hin? Der hat sich sicher nicht in Luft aufgelöst, und ich bezweifle auch, dass die IHVs direkt zum optischen Shrink übergehen. So risikoreich ist nichtmal ATI.

Gast
2008-07-07, 13:54:00
und ich bezweifle auch, dass die IHVs direkt zum optischen Shrink übergehen. So risikoreich ist nichtmal ATI.

Der RV670 wurde direkt in 55nm produziert, der R600 in 80nm.

AnarchX
2008-07-07, 14:05:52
Aber mal ehrlich: Wo ist denn der 45-nm-Prozess hin? Der hat sich sicher nicht in Luft aufgelöst, und ich bezweifle auch, dass die IHVs direkt zum optischen Shrink übergehen. So risikoreich ist nichtmal ATI.
http://www.beyond3d.com/content/news/568

btw.
Das wäre doch eine brauchbare GTX 290:
- Core Clock: 738MHz
- Shader Clock: 1666MHz
- Memory Data Rate: 2520MHz
http://www.overclockers.co.uk/showproduct.php?prodid=GX-144-LT

Sorkalm
2008-07-07, 14:25:25
Der RV670 wurde direkt in 55nm produziert, der R600 in 80nm.

Und war war mit RV630 und RV610? ;)
Dass der R600 deutlich eher hätte kommen sollen und der Abstand zum RV670 dann größer gewesen wäre, erklärt sich denke ich von selbst.

http://www.beyond3d.com/content/news/568

Soll das heißen, es gibt keinen General Purpose 45-nm-Prozess!?
Klingt für mich als Laien sehr merkwürdig.

igg
2008-07-07, 21:59:35
NVIDIA is firm in its belief though and from we've heard it has another card that will dethrone Radeon HD 4870X2 when it arrives (we do expect 4870X2 to take GeForce GTX 280 and so does NVIDIA apparently). It has not been confirmed, but it may very well be something 55nm, most likely G200b. Since Radeon HD 4870X2 is slated for late August, we should see NVIDIA's new monster around when the moon starts another lap and August turn into September.
Quelle (http://www.nordichardware.com/news,7921.html)
Das einzige was mich wundert: Es sieht eher danach aus, dass der R700 Ende Juli/Anfang August kommt. Ob Nvidia dann mit einem Paperlaunch reagiert?

Gast
2008-07-07, 22:04:30
Nvidia mit einem 40nm Tape-Out im September? (http://www.theinquirer.net/gb/inquirer/news/2008/07/05/tsmc-delays-40nm)

Fragt sich nur ob Kleinkram oder etwas Ernsthafteres?;)

Unwahrscheinlich:

"TSMC verschiebt 40 nm Prozess"
http://ht4u.net/news/2110_tsmc_verschiebt_40_nm_prozess/

AnarchX
2008-07-07, 22:41:12
Unwahrscheinlich:

"TSMC verschiebt 40 nm Prozess"
http://ht4u.net/news/2110_tsmc_verschiebt_40_nm_prozess/

Du weißt aber schon, dass mein Link auf den INQ-Artikel verweist, den auch HT4u zitiert? ;D

Sorkalm
2008-07-07, 22:44:33
Das einzige was mich wundert: Es sieht eher danach aus, dass der R700 Ende Juli/Anfang August kommt. Ob Nvidia dann mit einem Paperlaunch reagiert?

Was soll denn das für eine Karte sein, die R700 entthronen soll und noch diesen Herbst kommt?
Kann mir eigentlich nur eine GX2-Karte auf Basis von G(T)200b vorstellen, aber das wäre schon ein Monster... :eek:

AnarchX
2008-07-07, 22:52:32
Man könnte doch die alten Quadro-Plex-Boxen, die bei Tesla 10 eh nicht mehr zum Einsatz kommen, mit je 2 GTX 280 bestücken und dann für 500€ verkaufen. X-D ;D

igg
2008-07-08, 10:11:27
Was soll denn das für eine Karte sein, die R700 entthronen soll und noch diesen Herbst kommt?
Kann mir eigentlich nur eine GX2-Karte auf Basis von G(T)200b vorstellen, aber das wäre schon ein Monster... :eek:
Man weiß leider wenig, nur

dass er ohnehin schon länger geplant ist
und ein September-Release angepeilt wird (zuerst hat der Inq das behauptet, NordicHardware ging damals noch von Nov/Dez aus. Jetzt schreibt auch NordicHardware von September); das entspricht auch den Beiträgen im beyond3d-Forum, wo er als "fast-tracked" bezeichnet wird

Wie der Leistungssprung zustande kommt (wenn er denn wirklich so hoch ausfällt) kann ich mir auch nicht erklären. Ob Taktraten dafür ausreichen?

Da der GT200 angeblich stark verzögert auf den Markt könnte ich mir auch vorstellen, dass der GT200b schon länger in der Entwicklung ist und viele Verbesserung enthält.

Im VR-Zone Forum haben einige geschrieben, dass Nvidia besser auf den GT200 Launch verzichtet und bis zum GT200b gewartet hätte. Ob das nur wilde Theorien oder fundierte Aussagen sind kann man wohl nur schwer abschätzen.

reunion@work
2008-07-08, 10:25:04
Man weiß leider wenig, nur

dass er ohnehin schon länger geplant ist
und ein September-Release angepeilt wird (zuerst hat der Inq das behauptet, NordicHardware ging damals noch von Nov/Dez aus. Jetzt schreibt auch NordicHardware von September); das entspricht auch den Beiträgen im beyond3d-Forum, wo er als "fast-tracked" bezeichnet wird

Wie der Leistungssprung zustande kommt (wenn er denn wirklich so hoch ausfällt) kann ich mir auch nicht erklären. Ob Taktraten dafür ausreichen?

Da der GT200 angeblich stark verzögert auf den Markt könnte ich mir auch vorstellen, dass der GT200b schon länger in der Entwicklung ist und viele Verbesserung enthält.

Im VR-Zone Forum haben einige geschrieben, dass Nvidia besser auf den GT200 Launch verzichtet und bis zum GT200b gewartet hätte. Ob das nur wilde Theorien oder fundierte Aussagen sind kann man wohl nur schwer abschätzen.

Das Ding heißt nicht ohne Grund G200b, alles andere als ein Die-Shrink wäre sehr unlogisch. Einen R700 wird man damit kaum schlagen, aber zumindest wird man billiger produzieren können und die Taktraten etwas erhöhen.

Adam D.
2008-07-08, 10:25:41
Ehrlich gesagt versteh ich nicht, wo der Optimismus gegenüber dem G200b herkommt. Ich kann mir nicht vorstellen, dass es da 'ne Überraschung gibt. Kleinerer Die, bissl höhere Taktraten ... ein simpler Shrink halt.

igg
2008-07-08, 10:34:28
Ehrlich gesagt versteh ich nicht, wo der Optimismus gegenüber dem G200b herkommt. Ich kann mir nicht vorstellen, dass es da 'ne Überraschung gibt. Kleinerer Die, bissl höhere Taktraten ... ein simpler Shrink halt.
Wenn man die Meldung von NordicHardware genauer liest schreiben sie auch nur, dass Nvidia irgendwas gegen den R700 hat (und vermuten, dass es der GT200b ist). Evtl. ists auch nicht der GT200b sondern eine eigene DualGPU.

centurio81
2008-07-08, 10:58:05
Ehrlich gesagt versteh ich nicht, wo der Optimismus gegenüber dem G200b herkommt. Ich kann mir nicht vorstellen, dass es da 'ne Überraschung gibt. Kleinerer Die, bissl höhere Taktraten ... ein simpler Shrink halt.

Denke ich auch.
Damit wird man etwas Kosten einsparen können und wenn nötig kann man daraus resultierend, auch wegen dem fertigungsprozess, etwas an den Taktraten schrauben und wieder was interessantes anbieten.
Tatsache ist dass der GTX280 in den meißten Fällen teils deutlich schneller ist als HD4870..
Man muss es mal sehen wie es ist.
In Zugzwang sind die doch nur wegen dem Preis..
Und bei nem Shrink hätrte man da wieder Möglichkeiten die Preisschraube zu drehen..

Traxx
2008-07-08, 11:31:04
Bei den aktuellen Preisentwicklungen für die 260er könnte man doch auch da eine schöne GX2 basteln. Ein GTX260 SLI entspricht bald dem, was ich für die neue Generation in Bezug auf Leistung und Preis als Nachfolge der 8800GTX auszugeben bereit wäre.

Greetings
Traxx

Ailuros
2008-07-08, 12:13:23
Eine Aenderung in NV's Strategie wuerde ich persoenlich nicht ausschliessen; zwischen dem Dilemma ob (rein hypothetisch) 2*GT2x0@55nm und etwas high end mit einem kleineren Herstellungsprozess als zuvor, klingt mir persoenlich die zweite These wahrscheinlicher (fuer Anfang 2009).

Gegen R700 hab ich das Gefuehl dass ein hoeher getakteter GT200 den Trick schon machen wird, selbst wenn der Unterschied nur bei irgendwo um die 10% liegt.

Gast
2008-07-08, 15:23:25
am besten würden die das g80 design auf 12 clusters ausbauen und als gamerkarte fertigen. leider müssten sie neue masken haben, aber damit hätte man definitiv etwas in der hand... den g200 als gpgpu karte könnte man so belassen wie er ist.

Gast
2008-07-08, 15:29:23
12 Shadercluster würden automatisch wieder zu 96 TMUs führen, sofern man die Texturcluster, wovon stark auszugehen ist, bei 8 belässt. Und das wäre Overkill!

Dann ist die Frage der Streamprozessoren. Beim G80 sind es nur 16, würde also in der Summe "nur" 192 Shadereinheiten ergeben. Verbaut man dagegen wie beim GT200 24, käme man auf 288 Shadereinheiten...

Was man gut behalten könnte, wäre das 384 Bit-Speicherinterface beim G80. Mittels GDDR5 sind da ja Bandbreiten von mehr als 170 GB/s denkbar.

AnarchX
2008-07-08, 15:33:00
12 Shadercluster würden automatisch wieder zu 96 TMUs führen, sofern man die Texturcluster, wovon stark auszugehen ist, bei 8 belässt. Und das wäre Overkill!

Wieso?
Viele Games zeigen doch, dass G200 sich nur im Rahmen der höheren Texturleistung von G80 absetzen kann.

96 TMUs, 288SPs und eine Shaderdomain von 1:~2.5 wäre sicherlich nicht verkehrt.

Gast
2008-07-08, 15:35:12
Wieso?
Viele Games zeigen doch, dass G200 sich nur im Rahmen der höheren Texturleistung von G80 absetzen kann.

96 TMUs, 288SPs und eine Shaderdomain von 1:~2.5 wäre sicherlich nicht verkehrt.
seh ich genauso. selbst mit weniger sps wäre er nicht extrem langsamer für games -> und darum gehts ja, oder seh ich das falsch? die gpgpu karte hätte man ja noch. vom g200 design auszugehen ist eigentlich idiotisch im moment, zumindest bis 40nm einkehr hält.

Gast
2008-07-08, 15:36:08
nochwas, sorry fürs spamen...

aber wenn die physik wichtiger wird, könnte man immernoch eine g200 als physikkarte verwenden *lol*

Gast
2008-07-08, 16:29:52
@ AnarchX

96 TMUs und 288 SPs wären weiterhin - wie bei 80 TMUs und 240 SPs - exakt ein Verhältnis von 1:3. ;)

Es mag ja sein, dass sich durch mehr TMUs noch Vorteile ergeben, aber dann bewegt man sich ungefähr in so einem Rahmen wie 150 oder 180 FPS. Für alle künftigen Spiele werden 64 TMUs, wie sie Nvidia so bei G80/GT200 verbaut, vollkommen ausreichen bzw. nicht zum Flaschenhals avancieren.

Es wäre also sinnvoller, wenn man die Shadercluster bei 8 beließe und 32 statt 24 Streamprozessoren verbauen würde. So käme man bei 64 TMUs und 256 SPs an. Auch 80 TMUs und 320 SPs wären dann denkbar...

AnarchX
2008-07-08, 16:32:23
Es mag ja sein, dass sich durch mehr TMUs noch Vorteile ergeben, aber dann bewegt man sich ungefähr in so einem Rahmen wie 150 oder 180 FPS. Für alle künftigen Spiele werden 64 TMUs, wie sie Nvidia so bei G80/GT200 verbaut, vollkommen ausreichen bzw. nicht zum Flaschenhals avancieren.

Wenn man auf hochwertige Texturfilterung verzichtet, sicherlich. ;)

Gast
2008-07-08, 16:39:12
Aber um zum eigentlichen Thema zurückzukommen, Nvidia wird keine probate Antwort, wie Nordichardware schreibt, auf die HD 4870 X2 haben.
Der GT200b wird zum GT200 baugleich sein und leistungstechnisch einzig und allein durch höhere Taktfrequenzen glänzen.

Hier kann ich mich Hardware-Infos gut anschließen, die 710/1530/1100 MHz für das Topmodell vermuten:
http://www.hardware.kilu.de/?id=10

Damit wäre die - ich nenn sie einfach mal GTX 290 - rund 15 Prozent schneller als die GTX 280.
Denke im Vergleich zur HD 4870 X2 steht dann ein Rückstand von 15 Prozent zu Buche. Den wird man auch erst in 1Q/2009 mit einem eigenen Dual-Chip zu seinen Gunsten ummünzen können.

AnarchX
2008-07-08, 16:43:08
Hier kann ich mich Hardware-Infos gut anschließen, die 710/1530/1100 MHz für das Topmodell vermuten:
http://www.hardware.kilu.de/?id=10

Scheint wohl etwas tief gegriffen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6641429&postcount=228