Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 200 @ 40nm - GT21x (und DX10.1?)


Seiten : 1 2 [3]

Spasstiger
2009-06-08, 22:06:06
Sofern man hier nicht entsprechende Taktraten auffahren kann, ist das doch nicht wirklich "Mobile-High-End".
NV bezeichnet bereits die 8800M GTS (240 GFlops, 16 GTexel/s) als "Enthusiast"-Lösung:
http://www.nvidia.de/page/geforce_m_series.html
Dieses Leistungsniveau sollte der GT215 spielend erreichen.

Gast
2009-06-09, 20:05:02
ich weiß nicht ob die leute die hier über mobilchips reden wirklich mal ein echtes mobilgerät benutzt haben.

Ich habe ein Thinkpad 61, wa sich nicht gerade klein und handlich finde, aber gerade noch so mobil bewegbar. die quadrokarte dadrin basiert auf dem g84 und ist alles andere als schnell, erlaubt mir jedoch eine akkulaufzeit von ca. 3 Stunden beim dvd-gucken. mit an/ausschalten, surfen und eventuell kurz in den film reinschauen ist das so gerade genug für den mobilen einsatz. Alles dadrunter ist inakzeptabel für den mobilen einsatz, sondenr beschränkt sich auf stationäre verwendung im büro ode rzuhause mit de roption mal eben den raum zu wechseln ohne herunterfahren zu müssen.
diese labtops auf rädern und desktops im schafsgewand zählen bei businessleuten nicht wirklich zu den mobilgeräten.
die meisten labtops werden heute gekauft, weil die boxen einfach zu hässlich sind und sie besser auf den schreibtisch passen. nicht um sie zu bewegen. dahe rgibt es eben auch diese 15,16,17 und 18 zoll monster, mit denen da sphysisch dann auch ziemlich unmöglich ist - erst recht wenn sie eingeschaltet sind.

10/30Watt ist das absolute maximum für den mobilen Einsatz eines grafikchips. tendenz fallend, denn die akkutechnologie macht imme rkleinere sprünge und gleichzeitig hat sich die designabteilung auf immer dünnere labtops mit filigraneren kühllösungen eingeschossen.



- ja doch, ich würde gt215 als mobile highend bezeichnen.

Ailuros
2009-06-11, 10:04:04
GT215 wird IMHLO auch GDDR5 haben, die restlichen alle GDDR3.

Vorsicht uebrigens mit den mobilen chips da sie deaktivierte Einheiten haben. Es wuerde mich kein bisschen wundern falls desktop GT215 mit genauso viel SPs ankommt wie G92, D3D10.1 und GDDR5, aber natuerlich spaeter als das Schlepptopp Zeug.

AnarchX
2009-06-14, 21:22:34
NVidia launches 5 40nm mobile parts Monday (http://www.semiaccurate.com/2009/06/14/nvidia-launches-5-40nm-mobile-parts-monday/)
http://img195.imageshack.us/img195/337/nv40mobile27306295.jpg (http://img195.imageshack.us/i/nv40mobile27306295.jpg/)

Die G210 mit 16SPs sieht hier etwas seltsam aus.

=Floi=
2009-06-14, 21:57:20
alter schwede die 28 und 38 watt sind ja der hammer. da haben sie aber einen sehr guten 40nm prozess. das ding dürfte ja geschätzt nur noch 0,8volt brauchen

Ailuros
2009-06-14, 22:51:05
NVidia launches 5 40nm mobile parts Monday (http://www.semiaccurate.com/2009/06/14/nvidia-launches-5-40nm-mobile-parts-monday/)
http://img195.imageshack.us/img195/337/nv40mobile27306295.jpg (http://img195.imageshack.us/i/nv40mobile27306295.jpg/)

Die G210 mit 16SPs sieht hier etwas seltsam aus.

G210M = 218M; desktop duerfte afaik 32SPs haben.

LovesuckZ
2009-06-14, 22:54:21
NVidia launches 5 40nm mobile parts Monday (http://www.semiaccurate.com/2009/06/14/nvidia-launches-5-40nm-mobile-parts-monday/)
http://img195.imageshack.us/img195/337/nv40mobile27306295.jpg (http://img195.imageshack.us/i/nv40mobile27306295.jpg/)

Die G210 mit 16SPs sieht hier etwas seltsam aus.

Die Uhr tickt reunion.
Schauen wir mal, wer zu erst mit seinen 40nm Produkten im Mobile-Sektor auftaucht. AMD, deren Paperlaunch vor 3 Monaten stattgefunden hat und deren Desktopkarte bald teurer ist als eine 4870 im freien Markt oder nVidia, die natürlich nur "aufgüsse in 40nm" produzieren und viel zu spät dran wären.

G210M = 218M; desktop duerfte afaik 32SPs haben.

32SP? Ich glaube nicht, dass nVidia pro Cluster 32SP verbaut. Wird wohl bei 3x8 liegen und dann kann man immernoch einzelne Shadercores deaktivieren.

reunion
2009-06-14, 23:08:52
alter schwede die 28 und 38 watt sind ja der hammer. da haben sie aber einen sehr guten 40nm prozess. das ding dürfte ja geschätzt nur noch 0,8volt brauchen

Das sind Mobil-Chips, da sind 38W alles andere als wenig. Die Mobility Radeon HD 4830/4860 haben eine TDP unter 30W.

Die Uhr tickt reunion.
Schauen wir mal, wer zu erst mit seinen 40nm Produkten im Mobile-Sektor auftaucht. AMD, deren Paperlaunch vor 3 Monaten stattgefunden hat und deren Desktopkarte bald teurer ist als eine 4870 im freien Markt oder nVidia, die natürlich nur "aufgüsse in 40nm" produzieren und viel zu spät dran wären.

Ich kann AMD 40nm Produkte am Desktop schon kaufen, das Rennen ist längst entschieden. Es limitiert einzig die Fertigung. Die Kapazitäten und Yields bei 40nm sind einfach zu schlecht, sonst könntest du heute vermutlich schon DX11-Hardware kaufen.

Aber es ist natürlich bezeichnend das du jetzt irgend eine Aussagen von mir völlig aus dem Zusammenhang reist. Ich hatte es damals seltsam befunden warum NV jetzt noch so kurz vor DX11 an ihrer alten Hardware herumgurkt und DX10.1 integriert sowie zahlreiche neue Chips bringt anstatt sich voll auf DX11 zu konzentrieren.

Ailuros
2009-06-14, 23:14:42
32SP? Ich glaube nicht, dass nVidia pro Cluster 32SP verbaut. Wird wohl bei 3x8 liegen und dann kann man immernoch einzelne Shadercores deaktivieren.

Mir wurde gesagt dass 218M pro TCP 16SPs und 215/6 pro TCP 8SPs deaktiviert hat.

218 = 1 cluster = 32 -16 = 16
216 = 2 cluster = 64 - 8 - 8 = 48
215 = 3 cluster = 128 - 8 - 8 - 8 = 96

GT212 war uebrigens [12*(4*8)].

------------------------------------------------------

Damit Ihr beiden Euch (hoffentlich) nicht unendlich herumstreitet:

Ich kann AMD 40nm Produkte am Desktop schon kaufen, das Rennen ist längst entschieden. Es limitiert einzig die Fertigung. Die Kapazitäten und Yields bei 40nm sind einfach zu schlecht, sonst könntest du heute vermutlich schon DX11-Hardware kaufen.

NV deaktivierte Einheiten genau wegen den beschissenen yields und man nutzte auch die Zwischenzeit aus um 10.1 zu integrieren.

Aber es ist natürlich bezeichnend das du jetzt irgend eine Aussagen von mir völlig aus dem Zusammenhang reist. Ich hatte es damals seltsam befunden warum NV jetzt noch so kurz vor DX11 an ihrer alten Hardware herumgurkt und DX10.1 integriert sowie zahlreiche neue Chips bringt anstatt sich voll auf DX11 zu konzentrieren.

Weil OEMs einfach die Feature-listen schon immer am wichtigsten sind; aus dem Grund alleine schon gab es nie eine echte Entschuldigung dass NV D3D10.1 nicht schon seit zumindest GT200 unterstuetzte.

Von der einen Seite ist die Anzahl der schon abgeschlossenen OEM Schlepptopp Vertraege alles andere als schaebig seitens NV und von der anderen wenn wir schon von Hypothesen reden muessen haetten sie den GT212 nicht storniert um sich auf "G300" zu konzentrieren wuerde heute selbst bei 1GHz die RV790 keine Chance bestehen. Besser so? *seufz*

Gast
2009-06-14, 23:22:07
Das sind Mobil-Chips, da sind 38W alles andere als wenig. Die Mobility Radeon HD 4830/4860 haben eine TDP unter 30W.
Bezeichnend, das du neue Nvidia Mobile GPUs an der TDP von AMD Mobile GPUs misst.

Nur wo du diese TPD Werte her hast ist unklar. Meine Vögelchen zwitschern mir 30W bei der Mobility Radeon 4650 ins Ohr.

Ailuros
2009-06-14, 23:25:28
Bezeichnend, das du neue Nvidia Mobile GPUs an der TDP von AMD Mobile GPUs misst.

Nur wo du diese TPD Werte her hast ist unklar. Meine Vögelchen zwitschern mir 30W bei der Mobility Radeon 4650 ins Ohr.

Das erinnert mich gerade noch daran dass GT21x nicht nur angeblich 4*8 sein soll wie bei der G3xx Generation, sondern ein kleines etwas was den Stromverbrauch positiv beinflusst liegt auch drin.

LovesuckZ
2009-06-14, 23:29:55
Ich kann AMD 40nm Produkte am Desktop schon kaufen, das Rennen ist längst entschieden. Es limitiert einzig die Fertigung. Die Kapazitäten und Yields bei 40nm sind einfach zu schlecht, sonst könntest du heute vermutlich schon DX11-Hardware kaufen.

Welches Rennen? AMD's 4830/4860 sind Vaporware - die in Fake-Notebooks gezeigt wurden sind. nVidia ist also Montag auf dem selben Level wie AMD. Das ist ziemlich peinlich für AMD.
Und die rv740 Desktopkarten sind reine PR Karten ohne nennenswerte Marktbedeutung. Das Rennen hat nichtmal richtig begonnen - AMD ist nur früher zur Startlinie aufgebrochen.


Aber es ist natürlich bezeichnend das du jetzt irgend eine Aussagen von mir völlig aus dem Zusammenhang reist. Ich hatte es damals seltsam befunden warum NV jetzt noch so kurz vor DX11 an ihrer alten Hardware herumgurkt und DX10.1 integriert sowie zahlreiche neue Chips bringt anstatt sich voll auf DX11 zu konzentrieren.

Nö, die Aussage war einfach nur nVidia-bashing. Das AMD ihre 40nm Produkt im Notebookmarkt nicht und im Dekstopmarkt fast nicht liefern kann, ist bezeichnend. Das du dies natürlich als okay empfindest und es bei nVidia als "lächerlich und Produkte wären nur Aufgüsse" betitelst, ist jetzt dein Problem. Fakt ist, die von dir bezeichnete "neue Preis/Leistungskarte" existiert nicht und hat es auch nie. Sie ist jetzt, wo sie aktuell wäre, nichtmal wirklich lieferbar und wenn sie lieferbar sein wird, ist sie nicht mehr aktuell. AMD hat kein Vorteil.

Das sind Mobil-Chips, da sind 38W alles andere als wenig. Die Mobility Radeon HD 4830/4860 haben eine TDP unter 30W.

Ich finde nur 44 Watt (http://gpucafe.com/2009/03/meet-the-rv740m97/).
Und wenn wir schon bei Vergleichen sind:

However both products will be faster than the recently announced Geforce GTS 160M from Nvidia which consumes 60W of power.

GTS160 = 9600GT Desktop

KonKorT
2009-06-14, 23:48:51
Mir wurde gesagt dass 218M pro TCP 16SPs und 215/6 pro TCP 8SPs deaktiviert hat.

218 = 1 cluster = 32 -16 = 16
216 = 2 cluster = 64 - 8 - 8 = 48
215 = 3 cluster = 128 - 8 - 8 - 8 = 96

Das wurde mir auch mal so gesagt. Aber man muss sich fragen, ob nicht folgendes sinnvoller gewesen wäre:

GT21x: 1 Cluster, 64 Bit (Karten mit 16 SPs und 32 SPs)
GT21x: 3 Cluster, 128 Bit (Karten mit 64 SPs und 96 SPs)

So hätte man mit zwei statt drei Chips den Markt (aus meiner Sicht) fast ebenso gut versorgt.

PS: Hat eigentlich schon mal jemand geguckt, wer der Autor dieser Meldung ist? ;)

LovesuckZ
2009-06-14, 23:51:03
es gibt bei 3 Cluster keine 16 TMUs. Es werden keine TMUs deaktiviert.

KonKorT
2009-06-15, 00:10:41
Mag sein, dass hier keine TMUs deaktiviert werden, wobei das ja noch nicht ganz sicher ist.
In meinem obigen Post mit den zwei Beispielchips bin ich davon ausgegangen, dass sie den gesamten TCP deaktivieren.

LovesuckZ
2009-06-15, 00:11:49
Sie können keine TMUs "deaktivieren", da diese immer im Verbund von 8 im Cluster sind.

Ailuros
2009-06-15, 00:29:09
Aber man muss sich fragen, ob nicht folgendes sinnvoller gewesen wäre:

GT21x: 1 Cluster, 64 Bit (Karten mit 16 SPs und 32 SPs)
GT21x: 3 Cluster, 128 Bit (Karten mit 64 SPs und 96 SPs)

So hätte man mit zwei statt drei Chips den Markt (aus meiner Sicht) fast ebenso gut versorgt.

GT21xM chips haben weniger Einheiten als die desktop Teile dank schlechter 40nm yields (und ja natuerlich haben mobile chips weniger Einheiten aber es gibt auch guten Grund warum die desktop GT21x spaeter kommen werden). NV hat momentan 5 Varianten eines chips die problemlos in grossen Quantitaeten in die OEM Kanaele fliessen werden, waehrend Du eigentlich 4 Varianten vorschlaegst (wobei mir der Zweck von 2 verschiedenen low end chips eigentlich entgeht....) bei denen zumindest zwei dieser anfaelliger auf yield Probleme waeren.

Gast
2009-06-15, 01:07:39
Um nochmal kurz auf die Karteileiche GT212 zurückzukommen: Der wurde also Mitte (?) 2008 gecancelt ? Gabs da nen bestimmten Grund für ? Und der war mit 384 SP geplant ?

V2.0
2009-06-15, 07:03:57
Der Grund dürfte offensichtlich sein. Auf Grund der Fertigungsprobleme machte eine Performancekarte ohne DX11 im Q2/3 09 wenig Sinn.

Gast
2009-06-15, 14:19:30
Tja,

40nm GPUs gibt es jetzt von Nvidia anscheinend, aber immer noch nur als Aufguss der alten G9x Technik.....imho lahm.


However, the GPUs themselves aren't any different and will continue be using the G92 graphics architecture and not the GT200 architecture that's seen in the high-end desktop graphics cards of the GeForce GTX 285 and the likes

Link: http://news.driversdown.com/News/200906/05-11271_4.html (gefunden auf Beyond3D)

deekey777
2009-06-15, 15:15:43
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/juni/geforce_200m-serie_dx_101_40/

Willkommen im DX10.1-Club. Aber definitiv kein Neuaufguß.


http://www.techreport.com/discussions.x/17067

Henroldus
2009-06-15, 16:42:42
scheint mir ganz dem Trend der Zeit nachzugehen.
die performance/watt steigerung um das 4-fache ist sicherlich übertrieben aber stromsparende grafikchips wollen wir doch alle im Laptop ;)
Komisch, dass apple für die macbooks nicht noch auf diese gewartet hat :confused:
ich spiel immernoch auf dem desktop und surfe/arbeite am laptop.
8h Akkulaufzeit rücken langsam in die (bezahlbare) Nähe

Sorkalm
2009-06-15, 16:47:53
Komisch, dass apple für die macbooks nicht noch auf diese gewartet hat :confused:

Naja, eh die Dinger gut verfügbar sind, vergeht auch nochmal Zeit...

Spasstiger
2009-06-15, 17:21:51
Wie sehen denn jetzt die ROPs der neuen Chips aus? Wenn es die GTS 260M nur auf max. 4400 MPixel/s (550*8) brächte, wäre das ja schon mager bei 57,6 GB/s Speicherbandbreite und 396 GFlops Rechenleistung. Ergo wird da NV vemutlich was an den ROPs geschraubt haben.

Henroldus
2009-06-15, 17:34:56
Naja, eh die Dinger gut verfügbar sind, vergeht auch nochmal Zeit...
naja, bei Intel wurde der Apfelkonzern ja auch gern mal bevorzugt :wink:

AnarchX
2009-06-15, 17:35:56
GT200-ROPs wären hier nicht verkehrt.

Ärgerlich, dass man diesmal bei den Chips auf der NV-HP keine Füllratenangabe gibt.
D3D10.1 Benchmarks wären auch interessant gewesen.

LovesuckZ
2009-06-15, 17:37:27
GT200-ROPs wären hier nicht verkehrt.

Ärgerlich, dass man diesmal bei den Chips auf der NV-HP keine Füllratenangabe gibt.
D3D10.1 Benchmarks wären auch interessant gewesen.

Wieso benötigst du Die angaben zur Füllrate? Es bleiben weiterhin 8 TMUs pro Cluster. Und 10.1 Benchmark's darfst du wohl dich noch eine ganze Weile gedulden - bis es irgendwann mal Notebooks gibt.

deekey777
2009-06-15, 17:42:49
GT200-ROPs wären hier nicht verkehrt.

Ärgerlich, dass man diesmal bei den Chips auf der NV-HP keine Füllratenangabe gibt.
D3D10.1 Benchmarks wären auch interessant gewesen.
Die DX10.1-Unterstützung wird schon kräftig versteckt (und dazu noch unter PhysX), um die anderen Modelle nicht doof dastehen zu lassen, und du erwartest noch Benchmarks?

AnarchX
2009-06-15, 17:45:30
Wieso benötigst du Die angaben zur Füllrate? Es bleiben weiterhin 8 TMUs pro Cluster
Bleibt nur die Frage wieviel SPs es nun pro Cluster wirklich sind.
Imo sieht das Weglassen der Füllratenangabe doch etwas danach aus, als ob nicht so gut gegenüber dem Vorgängern aussieht.

btw.
Auf Basis der Bauteilgröße auf den Packages scheint wohl GT215 so groß zu sein wie ein G96b, also ~120mm².
GT218 scheint extrem klein zu sein, wohl unter 60mm².

Spasstiger
2009-06-15, 17:54:29
Bleibt nur die Frage wieviel SPs es nun pro Cluster wirklich sind.
Sowohl Ailuros als auch KonKorT haben die Info bekommen, dass es 32 SPs pro TPC sind:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7360056#post7360056
Das wird wohl schon so hinkommen.
Mit den deaktivierten Einheiten kann man die Yieldrate ganz erheblich steigern.

crux2005
2009-06-15, 18:03:37
kann man auch hier recht gut sehen:

http://s10b.directupload.net/images/090615/temp/rvrmu2cq.png (http://s10b.directupload.net/images/090615/rvrmu2cq.png)

Die DX10.1-Unterstützung wird schon kräftig versteckt (und dazu noch unter PhysX), um die anderen Modelle nicht doof dastehen zu lassen, und du erwartest noch Benchmarks?

aus offiziellen Quellen wir sie als "nicht Wichtig empfunden"

AnarchX
2009-06-15, 18:04:04
Ich zähle auf dem GT215 Die(?) aus der Präsentation aber nur zwölf Vec8-Einheiten/Shadercores.
edit: besseres Bild im vorherigen Post
... also insgesamt nur 96SPs, wofür auch wohl die Die-Size mit 120mm² spricht.

In crux2005 Die-Shot sieht man durch die bessere Qualität, dass es je 3 Shadercores eine größere Einheit steht, eben wohl 4 Cluster je 24SPs.
Also hat der GT215 höchstwahrscheinlich 32 TMUs.

Zum Vergleich:
G92b - 16 Blöcke/je 2 ~ 128SPs/64 TMUs (http://gallery.techarena.in/data/513/NVIDIA_GeForce_GTX_280M_GPUs.jpg)
G200 - 30 Blöcke/je 3 ~ 240SPs/80TMUs (http://www.beyond3d.com/images/reviews/gt200-arch/gt200die-big.jpg)

aylano
2009-06-15, 18:29:19
scheint mir ganz dem Trend der Zeit nachzugehen.
die performance/watt steigerung um das 4-fache ist sicherlich übertrieben aber stromsparende grafikchips wollen wir doch alle im Laptop ;)

Wo ist das 4-Fache gestiegen?
Auf einer anderen Folie ist Half-Power im Idle gemeint.
Die TDP-Werte sind AFAIK recht gleich wie das Vorgänger-Modell, nur haben sie die doppelte Performance.

Mal sehen, wie sich diese 40nm-GPUs durchsetzen und wie AMD drauf Reagiert a la DX11-ATI-mobil-GPUs noch in diesem Jahr.
AFAIK hat Nvidia viele Design-Wins beim Next-Gen-Notebook-Plattform, die vorerst aber nur mit Quad-Cores & non-onbaord-GPU erscheint, welche AFAIN nicht für den Massenmarkt bestimmt ist.

Interessant wirds dann, wenn Intels 32nm-CPUs mit GPU-intus (Next-Gen-Massenmarkt) sowie AMD-Danube kommt und ob wer dann schon DX11-mobil-GPUs anbieten kann.

LovesuckZ
2009-06-15, 18:37:09
AMD soll in diesem Jahr noch DX11 Mobile-Parts bringen? Bitte, die Wahrscheinlichkeit, dass sie überhaupt 40nm ins Mobile-Sektor bringen ist 3 1/2 Monate nach der Cebit bei genau 0%. Man wird froh sein, wenn sie genügend Chips für den Desktopmarkt fertigen können.

KonKorT
2009-06-15, 18:44:58
kann man auch hier recht gut sehen:

http://s10b.directupload.net/images/090615/temp/rvrmu2cq.png
Ja, hier kann man recht gut sehen, dass es nur 24 SPs pro Cluster sind und es insgesamt vier gibt, was in Summe 96 macht.
Aber wie Ailuros schon schrieb: GT21x war mit 32 SPs pro Cluster afaik immer geplant. Merkwürdig.

AnarchX
2009-06-15, 18:54:07
Mal ein neuer Thread zu den neuen GeForce Mobile mit einer Zusammenfassung des Wissensstandes:
nVidia GeForce 200 Mobile @ 40nm und mit D3D10.1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7361297#post7361297)

AnarchX
2009-06-15, 19:05:40
Ja, hier kann man recht gut sehen, dass es nur 24 SPs pro Cluster sind und es insgesamt vier gibt, was in Summe 96 macht.
Aber wie Ailuros schon schrieb: GT21x war mit 32 SPs pro Cluster afaik immer geplant. Merkwürdig.

Ailuros sprach AFAIR von IGPs mit 32SPs, was nicht bedeuten muss, dass diese nur einen Cluster haben.

Wenn man sich GT218 mit seinen ~55mm² ansieht und dann einen 128-Bit/48SPs GT216 mit ~95mm². Dann sind wohl 2 GT21x Cluster für die nächste Motherboard-GPU von Nvidia durchaus wahrscheinlich.

MCP79/ION ist ja aktuell ein gutes Stück über 100mm² groß.

Henroldus
2009-06-15, 19:23:47
Wo ist das 4-Fache gestiegen?
Auf einer anderen Folie ist Half-Power im Idle gemeint.
Die TDP-Werte sind AFAIK recht gleich wie das Vorgänger-Modell, nur haben sie die doppelte Performance.

naja schnell gelesen haben sie die doppelte Performance bei halber Leistung, daher. Dass das Marketinggeschwätz ist, ist mir klar.
Apropos DirectX 10.1:
Mal sehen wann ein Patch diesen Renderpfad bei Assassin's Creed wieder reaktiviert ;D

reunion
2009-06-15, 19:46:18
Wo ist das 4-Fache gestiegen?
Auf einer anderen Folie ist Half-Power im Idle gemeint.
Die TDP-Werte sind AFAIK recht gleich wie das Vorgänger-Modell, nur haben sie die doppelte Performance.

Mal sehen, wie sich diese 40nm-GPUs durchsetzen und wie AMD drauf Reagiert a la DX11-ATI-mobil-GPUs noch in diesem Jahr.
AFAIK hat Nvidia viele Design-Wins beim Next-Gen-Notebook-Plattform, die vorerst aber nur mit Quad-Cores & non-onbaord-GPU erscheint, welche AFAIN nicht für den Massenmarkt bestimmt ist.

Interessant wirds dann, wenn Intels 32nm-CPUs mit GPU-intus (Next-Gen-Massenmarkt) sowie AMD-Danube kommt und ob wer dann schon DX11-mobil-GPUs anbieten kann.

Solange die 40nm Fertigung nicht läuft werden 40nm Chips ein Nischenprodukt bleiben, ganz einfach. Wenn man aktuelle Angaben von TSMC für bahre Münze nimmt wird es damit noch bis ins Q3 dauern. Dann noch die üblichen paar Monate bis die Chips auch am Markt ankommen und wir sind schnell bei Ende Q3/Beginn Q4. Dann kann es aber natürlich schnell gehen wenn sich die fertigen Chips tatsächlich schon stauen. Da wäre ein DX11 Mobil-Chip in der Tat noch möglich, gerade da man durch die immer größer werdende Bedeutung hier verstärkt investiert.

Gast
2009-06-15, 19:58:16
Apropos DirectX 10.1:
Mal sehen wann ein Patch diesen Renderpfad bei Assassin's Creed wieder reaktiviert ;D


Warum sollte jemand den kaputten Renderpfad reaktivieren sollen? :|

Spasstiger
2009-06-15, 20:18:01
Warum sollte jemand den kaputten Renderpfad reaktivieren sollen? :|
Vielleicht wurde er inzwischen ja repariert. ;)

Gast
2009-06-15, 20:24:07
Vielleicht wurde er inzwischen ja repariert. ;)
Von wem? ;)
AMD kanns nicht sein.
Ubisoft hat das Spiel verkauft, das Geschäft ist gelaufen, anfangs konnten sie sogar mit .1 werben.
Nvidia kanns auch nicht sein.

aylano
2009-06-15, 22:31:42
AMD soll in diesem Jahr noch DX11 Mobile-Parts bringen? Bitte, die Wahrscheinlichkeit, dass sie überhaupt 40nm ins Mobile-Sektor bringen ist 3 1/2 Monate nach der Cebit bei genau 0%. Man wird froh sein, wenn sie genügend Chips für den Desktopmarkt fertigen können.
Ein Blick zurück.
RV740 ist im Mobilen Sektor zuerst rausgekommen/präsentiert worden.
GT2x0 sind ebenfalls zuerst im mobilen Sektor rausgekommen/präsentiert worden.

Die mobilen RV610 & RV630 (=DX11) sind laut Wikipedia auch ein Monat vor den Desktop-Varianten rausgekommen.
Die mobilen G84 & G86 kamen laut Wikipedia ein Monat nach den Desktop-Varianten raus.

Also, es wäre keine Überraschung, wenn die mobilen DX11-Chips +/- 1 Monate vor/nach den Desktop-DX11-Mainstream (&Low-End)-GPUs rauskommen.

Wobei, Rauskommen heißt nicht, dass diese sofort in den Regalen liegen. Vorallem AFAIK bei ATI nicht, wo die Verfügbarkeit in den ersten 1-2 Monate (oder so ) sehr überschaubar ist.
AFAIK veröffentlicht Nvidea seine mobilen GPUs etwas später, aber diese sind dann auch besser Verfügbar.

Angenommen, ATI bringt Okt/Nov die ganzen DX11-Protukt-Linie raus (Performance, mainstream, Low-End?). Dann könnte die Massenverfügbarkeit ab Jänner 2010 stattfinden.
Da AMD-Danube sowie Intels-Next-Gen-Notebook-Plattform ebenfalls ab Anfang 2010 kommen, wäre eine mobile DX11-Massenverfügbarkeit ab Jänner 2010 genau richtig.

Nun ja, mal sehen, ob die 40nm-Fertigung einen Strich durch die Rechnung macht.
Wenn schon, dann hat GT300 wahrscheinlich erst recht Probleme.

Solange die 40nm Fertigung nicht läuft werden 40nm Chips ein Nischenprodukt bleiben, ganz einfach.
Genauso wie die Quad-Next-Gen-Notebook-Plattform (wird bald eingeführt) von Intel, bis die 32nm-Quads kommen.
Also, da passen die gut zusammen.
Und wie die GT2x0-40nm in den schon recht alten Notebook-Plattformen eingeführt werden, wird man erst noch sehen.
(Oder die Notebookhersteller warten doch lieber auf DX11-mobil bzw. Next-Gen-Notebook-Plattformen)

Ailuros
2009-06-15, 22:32:35
Ja, hier kann man recht gut sehen, dass es nur 24 SPs pro Cluster sind und es insgesamt vier gibt, was in Summe 96 macht.
Aber wie Ailuros schon schrieb: GT21x war mit 32 SPs pro Cluster afaik immer geplant. Merkwürdig.

Tja ich mach oefters Fehler als manche entdecken koennen; schlag auf den vorigen Seiten nach und es ist leicht zu sehen dass 128-8-8-8 eben nicht 96 ergibt. Wenn die Infos stimmen und es wurden vom Gt215 tatsaechlich 8SPs pro cluster entfernt dann koennen es nur 4 clusters sein (128-32=96SPs).

Wenn man bedenkt dass mobile chips stets kastriert sind im Vergleich zu den Desktop Geschwistern und Gt215M schon 24SPs pro cluster hat, wird der Desktop Teil eher 4*8/cluster haben oder mehr cluster?

deekey777
2009-06-16, 01:32:58
Wird Nvidia eigentlich die durch DX10.1 hinzugekommenden Features ins CUDA aufnehmen? CAL 1.4 unterstützt zB fetch4 (hat aber ziemlich lange gedauert).

Coda
2009-06-16, 01:45:16
Wichtig ist es jedenfalls nicht. Textur-Sampling ist generell für GPGPU eher nicht so wichtig, weil man da zu viele Restriktionen hat.

AnarchX
2009-06-16, 06:49:43
Wenn man bedenkt dass mobile chips stets kastriert sind im Vergleich zu den Desktop Geschwistern und Gt215M schon 24SPs pro cluster hat, wird der Desktop Teil eher 4*8/cluster haben oder mehr cluster?
Das ist, wenn man sich den Die-Shot anschaut, eindeutig nicht der Fall.

GT215 ist eben kein Mobile-High-End, auch wenn Digitimes es behauptet hat, wo Einheitendeaktivierungen eher selten sind.

Bleibt die Frage, ob wie GT215 überhaupt als Desktop-Chip sehen werden, auf der BTS Roadmap taucht jedenfalls kein GDDR5-Chip auf und auch die schnelle GTS 2xx kann er mit dieser HW nicht sein:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788#post7238788
... zudem wird man wohl auch erstmal versuchen bei der aktuellen 40nm Ausbeute den Bedarf an Mobile-GPU abzudecken.

KonKorT
2009-06-16, 10:12:19
Tja ich mach oefters Fehler als manche entdecken koennen; schlag auf den vorigen Seiten nach und es ist leicht zu sehen dass 128-8-8-8 eben nicht 96 ergibt. Wenn die Infos stimmen und es wurden vom Gt215 tatsaechlich 8SPs pro cluster entfernt dann koennen es nur 4 clusters sein (128-32=96SPs).
Das ist mir auch schon aufgefallen, dass du da einen kleinen Fehler drin hattest. Aber du schriebst ja zuvor pro Cluster 8 SPs und hattest fälschlicherweise auch schon 3 Cluster = 128 SPs hingeschrieben, es hätte heißen müssen:

4 Cluster: 128 -8-8-8-8 = 96

Wenn man bedenkt dass mobile chips stets kastriert sind im Vergleich zu den Desktop Geschwistern und Gt215M schon 24SPs pro cluster hat, wird der Desktop Teil eher 4*8/cluster haben oder mehr cluster?
Nein, davon gehe ich nicht aus. Wie das Die-Shot schon zeigt, gibt es schlichtweg nur 24 SPs pro Cluster. Es wäre ein Unding, wenn sie für den Desktop-Markt noch einmal einen eigenen Chip mit dann 32 SPs pro Cluster bringen.
Ich denke, dass GT21x nur 24 statt wie ursprünglich geplant 32 SPs pro Cluster hat, ist einhergehend mit der Einstellung des GT212 gegangen. Ich muss aber auch eingestehen, dass ich mich in den letzten Wochen diesbezüglich gar nicht mehr umgehorcht habe, weil GT300 einfach deutlich spannender ist. Von DirectX 10.1 habe ich beispielsweise auch erst durch Fuad erfahren.

Ailuros
2009-06-16, 21:48:10
Nein, davon gehe ich nicht aus. Wie das Die-Shot schon zeigt, gibt es schlichtweg nur 24 SPs pro Cluster. Es wäre ein Unding, wenn sie für den Desktop-Markt noch einmal einen eigenen Chip mit dann 32 SPs pro Cluster bringen.

Wieso ein Unding? Mobile chips haben stets weniger Einheiten als desktop Teile.

Ich denke, dass GT21x nur 24 statt wie ursprünglich geplant 32 SPs pro Cluster hat, ist einhergehend mit der Einstellung des GT212 gegangen.

In dem Fall hat ein desktop GT215 dann aber mehr cluster, wobei ich bei einem zusaetzlichen 24SP cluster auf 120SPs bzw. bei zwei zusaetzlichen 24SPs clusters auf 144 SPs komme.

128 SPs die dem 215 zustehen sollen erreicht man eben eher mit 4*32.

Ich muss aber auch eingestehen, dass ich mich in den letzten Wochen diesbezüglich gar nicht mehr umgehorcht habe, weil GT300 einfach deutlich spannender ist. Von DirectX 10.1 habe ich beispielsweise auch erst durch Fuad erfahren.

Es gab diverse Andeutungen (auch bei B3D von CJ vor einiger Zeit) ueber D3D10.1 fuer GT21x nur wollte es wohl keiner von uns wirklich glauben weil es auch keinen besonderen Sinn machte.

AnarchX
2009-06-16, 21:55:48
Wieso ein Unding? Mobile chips haben stets weniger Einheiten als desktop Teile.
Bei kleineren Chips ist das aber eben nicht immer der Fall.

In dem Fall hat ein desktop GT215 dann aber mehr cluster, wobei ich bei einem zusaetzlichen 24SP cluster auf 120SPs bzw. bei zwei zusaetzlichen 24SPs clusters auf 144 SPs komme.

128 SPs die dem 215 zustehen sollen erreicht man eben eher mit 4*32.

Es sind aber nur 4 Cluster mit je 3 Shadercores:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7361214&postcount=531

Dadurch besteht wenigstens Hoffnung, dass kleinere GT3xx-Ableger nicht so fern sind.

Ailuros
2009-06-16, 22:09:53
Bei kleineren Chips ist das aber eben nicht immer der Fall.

Ich trage nur das weiter was mir gesagt wurde. Und nein es stimmt leider nicht immer.

Es sind aber nur 4 Cluster mit je 3 Shadercores:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7361214&postcount=531

Ich behaupte ja auch nicht dass es nicht stimmt. Wenn die zukuenftigen GT21x desktop Teile nur 24SPs haben sollten dann wurden die Dinger natuerlich auch nie mit mehr entwickelt (und koennte auch bedeuten dass die angeblichen GT212 Daten auch nie stimmten).

Dadurch besteht wenigstens Hoffnung, dass kleinere GT3xx-Ableger nicht so fern sind.

Tja es gibt einige die hoffen dass das aufgeloeste 212 Team in ein Performance G30x Projekt investiert wurden damit dieses frueher erscheint. Ich weiss zwar dass die Kerle umgeschaufelt wurden aber mir persoenlich klingt es wahrscheinlicher dass sie eher dem eigentlichen "G300" Projekt zugesteckt wurden da dieses zweifellos als erstes ankommen wird und es auch am meisten noetig hatte.

Insgesamt ist es wohl logischer erstmal die genaue Erscheinung des "G300" abzuwarten bevor man ueberhaupt an jegliche X11 Ableger dessen denkt.

GT21x desktop duerfte IMHLO kurz vor "G300" oder sogar zeitgleich erscheinen.

=Floi=
2009-06-16, 22:26:32
warum sollte jetzt noch eine desktop GT21X kommen? das ist so schwach von nv.

Ailuros
2009-06-16, 22:48:18
warum sollte jetzt noch eine desktop GT21X kommen? das ist so schwach von nv.

Aus dem gleichen Grund wahrscheinlich weil auch mobile GT21x erscheinen.

Gast
2009-06-25, 10:42:16
GT200 jetzt doch in 40nm & mit DX10.1 im September ?
http://www.fudzilla.com/content/view/14383/1/

Ailuros
2009-06-25, 12:30:56
GT200 jetzt doch in 40nm & mit DX10.1 im September ?
http://www.fudzilla.com/content/view/14383/1/

GT21x desktop sind lediglich die leicht groesseren Versionen der schon angekuendigten GT21x mobilen chips. Irgendwo August war das Ziel vor einiger Zeit, ergo koennte September durchaus stimmen.

horn 12
2009-06-25, 12:36:34
Dies klingt gar nicht gut für den GT300 dann, KANN es denn wirklich Anfang 2010 werden, ansonsten würden sie die "alten Karten" nicht nochmals überarbeiten... oder was sagt IHR dazu ?

Gast
2009-06-25, 12:57:05
Gt21x hat mit GT300 rein gar nix zutun, es sind völlig unterschiedl. Segmente und die kleineren Ableger von GT 300 kommen natürlich erst 2010.

Gast
2009-06-25, 14:00:51
war ja klar das die G21x auch für den desktop kommen werden, das hat aber rein gar nichts mit dem G300 (High End!!!) zutun

KonKorT
2009-06-25, 14:34:11
Irgendwo August war das Ziel vor einiger Zeit, ergo koennte September durchaus stimmen.
Es sieht aktuell so aus, dass erst im August die Massenproduktion gestartet werden kann und somit erste Karten, übringens genießen GT216 und GT218 gegenüber GT215 wohl eine höhere Priorität, im Oktober kommen.
Eine entsprechende Newsmeldung folgt dann die Tage auf Hardware-Infos, erstmal die Leser verarbeiten lassen, dass RV870 voraussichtlich (ebenfalls) im Oktober kommt. :D

Ailuros
2009-06-25, 17:35:27
Es sieht aktuell so aus, dass erst im August die Massenproduktion gestartet werden kann und somit erste Karten, übringens genießen GT216 und GT218 gegenüber GT215 wohl eine höhere Priorität, im Oktober kommen.
Eine entsprechende Newsmeldung folgt dann die Tage auf Hardware-Infos, erstmal die Leser verarbeiten lassen, dass RV870 voraussichtlich (ebenfalls) im Oktober kommt. :D

GT218 bis 215 ist nur budget bis mainstream Zeug. Der beste Schachzug (wenn ueberhaupt moeglich) waere fuer NV zu versuchen eine G30x Performance Variante frueher als geplant zu veroeffentlichen und dann etwas spaeter den eigentlichen G300 wieder abzustauben. Natuerlich glaube ich es erst wenn ich es sehe, denn kein IHV hat einen Zauberstab.

Ailuros
2009-06-25, 17:38:09
Dies klingt gar nicht gut für den GT300 dann, KANN es denn wirklich Anfang 2010 werden, ansonsten würden sie die "alten Karten" nicht nochmals überarbeiten... oder was sagt IHR dazu ?


GT21x sind lediglich G9x Ersaetze mit D3D10.1 und nichts anderes. Eine GT200 kann eine GT215 keineswegs ersetzen. Man hat die Dinger lediglich ueberarbeitet fuer 10.1 weil man dank beschissenen 40nm yields sowieso nichts anderes machen konnte.

AnarchX
2009-06-25, 17:54:41
Eine GT200 kann eine GT215 keineswegs ersetzen.
Bei der GTS 250 dürfte es auch schon schwierig für GT215 werden, ausser natürlich in D3D10.1-Games.:D

Ailuros
2009-06-25, 19:51:00
Bei der GTS 250 dürfte es auch schon schwierig für GT215 werden, ausser natürlich in D3D10.1-Games.:D

96 SPs sind es fuer 215 auf jeden Fall nicht; die einzige Stelle wo die letztere kraenkeln koennte waere die Texelfuellrate.

AnarchX
2009-06-25, 19:57:12
96 SPs sind es fuer 215 auf jeden Fall nicht;
Wann schaust du dir denn endlich mal den Die-Shot an (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7363550#post7363550)?;)

Ailuros
2009-06-26, 16:18:19
Wann schaust du dir denn endlich mal den Die-Shot an (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7363550#post7363550)?;)

Was soll ich mir ansehen? Wie oft muss ich noch sagen dass desktop Teile mehr SPs haben als die mobile Gebrueder bei NV. Wieviele Faelle bei NV's mobilen chips sind Dir bekannt wo es anders aussieht in letzten Jahren?

AnarchX
2009-06-26, 17:14:25
Was soll ich mir ansehen? Wie oft muss ich noch sagen dass desktop Teile mehr SPs haben als die mobile Gebrueder bei NV. Wieviele Faelle bei NV's mobilen chips sind Dir bekannt wo es anders aussieht in letzten Jahren?
G84M/G96M, da kam auch mit dem Launch die maximale Ausbaustufe - 32SPs. Und in diesem Segment bewegt sich auch GT215.

Und wenn es noch einen Chip mit mehr als 96SPs geben sollte, ist dann wohl kein GT215, dessen Die-Shot und Die-Size die 96SPs bestätigen.
Sondern ein größerer GT21x mit aber wohl auch 24SPs pro Cluster.

Momentan habe ich eher Zweifel, ob vor den kleineren GT3xx überhaupt noch eine GPU >=G92b kommt.

Ailuros
2009-06-26, 18:24:11
G84M/G96M, da kam auch mit dem Launch die maximale Ausbaustufe - 32SPs. Und in diesem Segment bewegt sich auch GT215.

215 mit Sicherheit nicht:

http://www.nvidia.com/object/geforce_m_series.html

G96M = 9700M GT/ 9600M GT / 9500 G

Soll eine 260M bzw. 250M die obrigen ersetzen oder eher die 9800M GTS und 9800M GS?

Und wenn es noch einen Chip mit mehr als 96SPs geben sollte, ist dann wohl kein GT215, dessen Die-Shot und Die-Size die 96SPs bestätigen.
Sondern ein größerer GT21x mit aber wohl auch 24SPs pro Cluster.

GT212 und GT214 wurden storniert.

Momentan habe ich eher Zweifel, ob vor den kleineren GT3xx überhaupt noch eine GPU >=G92b kommt.

Ich sagte lediglich dass es ideal waere wenn NVIDIA eine Performance G30x vor dem high end chip vorziehen koennte. Ich sagte nirgends dass ich glaube dass es moeglich ist. So ein Ding waere sowieso nicht allzu kleiner als </=350mm2@40nm und dieses ist wohl mehr als doppelt so viel als ein G9x auf 40nm einnehmen wuerde.

AnarchX
2009-06-26, 19:05:08
Soll eine 260M bzw. 250M die obrigen ersetzen oder eher die 9800M GTS und 9800M GS?

Und auf diesen sitzt auch ein vollständiger G94, der mit diesen SKUs für Mobile gelauncht wurde.;)

Und die Lage für GT215 ist doch eindeutig: nur 12 Shadercores(8SPs) auf dem Die-Shot und ein ~120mm² Die @40nm, was (etwas) unter 600M Transitoren sein sollte.

AnarchX
2009-06-30, 06:56:55
Nvidia Partners Get Ready 40nm G210 & GT 220 Cards (http://vr-zone.com/articles/nvidia-partners-get-ready-40nm-g210--gt-220-cards/7272.html?doc=7272)

V2.0
2009-06-30, 07:05:01
Verfügbarkeit im Oktober. :D

Gast
2009-06-30, 07:33:45
Dafür wirds im Oktober bereits ein Hardlaunch.
Wer weiß, vielleicht kann man zu dem Zeitpunkt auch mal andere vor langer oder kurzer Zeit gelaunchte Produkte mit 40nm GPU kaufen.

Tarkin
2009-06-30, 10:44:08
Getting ready... in October :rolleyes: - vermutlich wenn alles glatt geht.

Sollten die nicht mal in Juni/Juli kommen?

Das wird interessant... nVidia DX10.1 vs ATi DX11. Auf die nvidia Marketing-Folien bin ich gespannt ;D

LovesuckZ
2009-06-30, 10:58:17
Aha, also AMD wird im Oktober einen DX11 Die mit weniger als 100mm^2 bringen. Manchmal sollte man wirklich seinen Mund halten, wenn man keine Ahnung hat.
Was machen eigentlich die 4830/4860? Kommen die auch noch vor dem Oktober? :|

KonKorT
2009-06-30, 18:09:35
Nvidia Partners Get Ready 40nm G210 & GT 220 Cards (http://vr-zone.com/articles/nvidia-partners-get-ready-40nm-g210--gt-220-cards/7272.html?doc=7272)
Gibt es DDR2-Speicher mit 800 MHz Realtakt?

Gast
2009-06-30, 18:22:39
Was machen eigentlich die 4830/4860? Kommen die auch noch vor dem Oktober? :|
Nein, die wurden Anfang des Jahres gelaucht.
Es gibt zwar keine Notebooks, ob es bis Oktober Notebooks geben wird ist zweifelhaft, aber als Ausgleich gibt es tröpfenweise 40nm D3D10.1 GPUs für den Desktop.

In dem Sinne ist es klar das tarkin davon ablenken muss, die 40nm Situation bei AMD könnte er nur schwerlich gut darstellen, also ablenken und Nvidia kritisieren.

deekey777
2009-06-30, 18:32:50
Nein, die wurden Anfang des Jahres gelaucht.
Es gibt zwar keine Notebooks, ob es bis Oktober Notebooks geben wird ist zweifelhaft, aber als Ausgleich gibt es tröpfenweise 40nm D3D10.1 GPUs für den Desktop.

In dem Sinne ist es klar das tarkin davon ablenken muss, die 40nm Situation bei AMD könnte er nur schwerlich gut darstellen, also ablenken und Nvidia kritisieren.
Der dritte März ist also der Anfang des Jahres? Aber was soll's, ich schreibe das ja nicht zum ersten Mal. Muss ich auch erwähnen, dass die Produkte für dieses Quartal angekündigt wurden, was sich wegen der Probleme mit der Fertigung verzögert.

LovesuckZ
2009-06-30, 18:36:26
Der dritte März ist also der Anfang des Jahres? Aber was soll's, ich schreibe das ja nicht zum ersten Mal. Muss ich auch erwähnen, dass die Produkte für dieses Quartal angekündigt wurden, was sich wegen der Probleme mit der Fertigung verzögert.

Soso, man macht einen Paperlaunch im 1.Q für Produkte im 3.Q? ;D
Schon fast so schlimm wie nVidia's NV30 "launch".

deekey777
2009-06-30, 18:57:42
Soso, man macht einen Paperlaunch im 1.Q für Produkte im 3.Q? ;D
Schon fast so schlimm wie nVidia's NV30 "launch".
Fühlst du dich jetzt nach diesem Schwachsinn glücklicher?

Gast
2009-06-30, 19:01:15
Der dritte März ist also der Anfang des Jahres?
Richtig.
Ende des Jahres ist auch nicht erst 2 Tage vor Silvester.
Dann gibts noch Mitte des Jahres, nennt man umgangssprachlich auch "Sommer".
Genug der Ablenkung, für die du gesorgt hast.

40nm Liefersituation ist scheisse, nicht so wie Tarkin darstellt nur auf Nvidias Seite.
Paperlaunchs gibt es beiderseitig. AMD hat zwar früher angefangen, Nvidia feuert dafür mehrere Produkte aus dem Papier.

Gast
2009-06-30, 19:03:37
Auch die ständigen Informationen, das AMD so weit ist, obwohl sie auch nur Papier liefern nervt ungemein.

Es ist natürlich deine Sache, ob du nur wegen einer Wortwahl ein Fass aufmachst oder ganze Sachverhalte schlicht ignorierst, bzw den Fanboys freie Bahn lässt.

deekey777
2009-06-30, 19:05:15
Richtig.
Ende des Jahres ist auch nicht erst 2 Tage vor Silvester.
Dann gibts noch Mitte des Jahres, nennt man umgangssprachlich auch "Sommer".
Genug der Ablenkung, für die du gesorgt hast.

40nm Liefersituation ist scheisse, nicht so wie Tarkin darstellt nur auf Nvidias Seite.
Paperlaunchs gibt es beiderseitig. AMD hat zwar früher angefangen, Nvidia feuert dafür mehrere Produkte aus dem Papier.
Der dritte März ist nicht Anfang des Jahres. Entweder schreibt man Anfang März oder gar nicht. Das ist keine Ablenkung, sondern Richtigstellung.

Tarkin
2009-06-30, 23:54:12
wer lenkt hier ab?

http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&pixonoff=on&xf=132_512~891_Radeon+HD+4770

Aber das zählt ja nicht, stimmts? :rolleyes:

LovesuckZ
2009-06-30, 23:56:53
Jo, vorallen weil man die Karte auch so toll in ein Notebook einbauen kann. :lol:

Nakai
2009-07-01, 00:21:30
Jo, vorallen weil man die Karte auch so toll in ein Notebook einbauen kann. :lol:

Was ist dein Problem? ATI hat es doch selbst gesagt. Im Q3 kommt der RV740 fürs Notebook. 40nm fürn Desktop liefert man bereits. Da ist man NV einen Schritt voraus. Wer zuerst den Notebook-Markt erobern wird, werden wir sehen.


mfg Nakai

LovesuckZ
2009-07-01, 00:53:18
Was ist dein Problem? ATI hat es doch selbst gesagt. Im Q3 kommt der RV740 fürs Notebook. 40nm fürn Desktop liefert man bereits. Da ist man NV einen Schritt voraus. Wer zuerst den Notebook-Markt erobern wird, werden wir sehen.

mfg Nakai

Soso, AMD kündigt im 1.Q Produkte für das 3.Q an? Alles klar. Errinnert mich ziemlich sehr an den NV30 - der wurde auch im Dezember 2002 angekündigt...
Aber gut, AMD hat ja noch 2 Monate um das Halbjahr vollzubekommen.
Und der Desktopmarkt ist ja wohl kein Argument, wenn man als Firma gezwungen ist, alle Produkte im Preis zu senken - und die 4770 dazu noch teurer ist als beim Launch. Hier wird sich über nVidia beschwert? Warum eigentlich, AMD hat ein paar 4770 Karten auf den markt, die bald teurer sind als 4870. Ziemlich lächerlich für eine Firma, die seit 4 Monaten den r740 angekündigt hat.

Sefegiru
2009-07-01, 01:21:37
Ihr könnt doch alle nicht mehr ordentlich diskutieren und Standpunkte vertreten, beiderseitiger Kindergarten ist das.

Fakt ist doch man kann im Desktop, wenn man möchte, AMD 40nm Produkte kaufen. Bei Notebooks bisher nicht, bei den Laptops sieht das leicht anders aus. Fertig ist die Maus. Die einen sind schneller aufm dem Desktopmarkt und die anderen im Notebookmarkt und ich mache es bei BEIDEN daran fest das sie tierische Probleme mit der Yield bei TSMC haben.

Fertig aus und ganz einfach.

igg
2009-07-01, 09:20:29
Bei Notebooks bisher nicht, bei den Laptops sieht das leicht anders aus
???

Nakai
2009-07-01, 11:06:13
Soso, AMD kündigt im 1.Q Produkte für das 3.Q an? Alles klar. Errinnert mich ziemlich sehr an den NV30 - der wurde auch im Dezember 2002 angekündigt...
Aber gut, AMD hat ja noch 2 Monate um das Halbjahr vollzubekommen.
Und der Desktopmarkt ist ja wohl kein Argument, wenn man als Firma gezwungen ist, alle Produkte im Preis zu senken - und die 4770 dazu noch teurer ist als beim Launch. Hier wird sich über nVidia beschwert? Warum eigentlich, AMD hat ein paar 4770 Karten auf den markt, die bald teurer sind als 4870. Ziemlich lächerlich für eine Firma, die seit 4 Monaten den r740 angekündigt hat.

Die Verfügbarkeit von Notebook-Parts wurde später progoszitiert. Selbst beim Launch gab es keine Desktop-Parts. Die kamen auch erst einen Monat später. Und selbst das wurde bei der Ankündigung berücksichtigt.

Fakt ist, AMD hat die ersten 40nm-Chips im Grafikkartenmarkt geliefert. Beim Notebookmarkt sieht es womöglich anders aus, aber da war NV AMD eh schon immer etwas vorraus.

Und wieso, die paar RV740 in 40nm so schlecht verfügbar sind, liegt ja wohl eindeutig am 40nm-Prozess. Das sieht man auch an der Roadmap, wo der RV740 schon früher geplant war. Und den RV740 mit dem NV30 zu vergleichen ist ja nicht dein Ernst, oder?


mfg Nakai

€: ???

Er meinte wohl Desktop...anders macht das keinen Sinn.

Ailuros
2009-07-01, 15:25:05
Und auf diesen sitzt auch ein vollständiger G94, der mit diesen SKUs für Mobile gelauncht wurde.;)

Und die Lage für GT215 ist doch eindeutig: nur 12 Shadercores(8SPs) auf dem Die-Shot und ein ~120mm² Die @40nm, was (etwas) unter 600M Transitoren sein sollte.


http://www.fudzilla.com/content/view/14468/1/

KonKorT
2009-07-01, 16:36:26
Das sieht nach einer GT216-Lösung aus, aber warum zum Teufel drückt man so auf die Tube?

Sefegiru
2009-07-01, 21:20:50
Ich meinte das es bei Desktops bisher 40nm AMD Produkte gibt und bei Notebooks nicht...und bei den grünen ist es andersrum also who cares ?

Ailuros
2009-07-02, 13:10:42
Das sieht nach einer GT216-Lösung aus, aber warum zum Teufel drückt man so auf die Tube?

Echt? :P LOL:biggrin:

AnarchX
2009-07-03, 07:06:21
HP listet schon Systeme mit GT 220 und G 210:
http://h20424.www2.hp.com/program/browsebuy/cn/zh/pavilion/products_m.asp
http://h20424.www2.hp.com/program/browsebuy/cn/zh/pavilion/products_s.asp
http://h20424.www2.hp.com/program/browsebuy/cn/zh/pavilion/products_p.asp

AnarchX
2009-07-04, 14:59:24
Aus der inf des 186.24 vom 23.06.
http://www.xfastest.com/viewthread.php?tid=26094
NVIDIA_DEV.0CA3.01 = "NVIDIA D10P1-30"
NVIDIA_DEV.0CA4.01 = "NVIDIA D10P-40"
NVIDIA_DEV.0CA5.01 = "NVIDIA D10P2-50"


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7238788#post7238788
Also scheint D10P2-50, welche schneller als eine GTS 250 sein soll, auch noch zu existieren.

Im gleichen Treiber erscheint GT 220 neben der GT216-DeviceID auch unter eine G94-DeviceID, G210 neben GT218 als auch G96. Fragt sich warum, denn die OEMs wollen ja wohl eher die D3D10.1 GT21x für ihre Systeme.

AnarchX
2009-07-08, 17:31:13
http://www.nvidia.com/object/product_geforce_gt_220_us.html
http://www.nvidia.com/object/product_geforce_g210_us.html

Damit wären wohl die nur 16SPs@GT218 bestätigt.

deekey777
2009-07-08, 18:21:35
Sie werben schon mit DirectX Compute Shadern, Respekt.
Aber die Multi-Media-Fähigkeiten scheinen erste Sahne zu sein.

AnarchX
2009-07-08, 21:58:36
$50 für eine G210 (http://www.shopping.hp.com/webapp/shopping/computer_series.do?storeName=computer_store&category=desktops&series_name=p6110t_series&a1=Category&v1=Everyday%20computing) und >$160 für eine GT 220 1GiB (http://www.shopping.hp.com/webapp/shopping/computer_can_series.do?storeName=computer_store&category=desktops&a1=From+price&v1=Over+%24600&series_name=e9150t_series) (unter Customize&Buy). ;D

Auch wenn hier HP ordentlich zulangt, wird wohl NV auch ordentlich verdienen.

Gast
2009-07-08, 22:28:21
Kann man ideal mit HP2 200$ Rabatt verrechnen. Macht am Ende < -40$ ;)

Man muss klar anerkennen das HP kräftige Aufpreise nimmt.
Und ich dachte schon Apple wäre teurer bei einer 300€ 4870. Nein, es geht besser 220$ + 4350 = 4850!

AnarchX
2009-07-23, 13:09:36
NVIDIA’s GT230 to Debut in December (http://en.expreview.com/2009/07/23/nvidias-gt230-to-debut-in-december.html)

Mal sehen, ob es die Retail GT 230 auch mit der ALDI Version aufnehmen kann:
http://www.pcwelt.de/start/computer/pc/tests/198233/medion_akoya_p7700_d_md8848/index7.html

Auf der anderen Seite könnte AMD hier schon D3D11-Konkurrenz bieten.

Sorkalm
2009-07-23, 15:04:27
Auf der anderen Seite könnte AMD hier schon D3D11-Konkurrenz bieten.

Tja, in OEM-Mengen? Da steht und fällt wohl mit dem 40nm-Prozess - aber gut, auf dem basiert die GT 230 ja wohl auch.

AnarchX
2009-08-10, 08:18:15
Ein paar 3DMark-Werte der GT 220 und der G 210:
http://publish.it168.com/2009/0807/20090807051202.shtml

Spasstiger
2009-08-10, 12:47:51
Ein paar 3DMark-Werte der GT 220 und der G 210:
http://publish.it168.com/2009/0807/20090807051202.shtml
Warum hat die HD 4670 dort nur 500 MHz Speichertakt? Alle HD 4670 1024 MiB, die ich bei Geizhals finde, haben mindestens 800 MHz Speichertakt.
Eigentlich sollte eine HD 4670 nicht gegen eine GT 220 verlieren, wenn man sich die Eckdaten anschaut (Taktraten aus dem Review entnommen):
Rechenleistung: 196 GFlops vs. 480 GFlops
Texelfüllrate: 10 GTexel/s vs. 12 GFlops/s
Pixelfüllrate: 5 GPixel/s vs. 6 GPixel/s
Speicherbandbreite: 25,3 GB/s vs. 16 GB/s (27,9 GB/s mit den üblichen 873 MHz)
Die GT 220 ist auf jeden Fall deutlich unterhalb einer 9600 GSO G94 angesiedelt, welche sich auch schon gegen eine HD 4670 nicht eindeutig durchsetzen kann.
Eine 9600 GSO G94 hat immerhin 103% mehr Speicherbandbreite und 56% mehr Texelfüllrate als die GT 220. Die Rechenleistung liegt bei der 9600 GSO G94 um 19% höher, die Pixelfüllrate um 108%. Ergo in jedem Punkt eine deutliche Überlegenheit gegenüber der GT 220.

reunion
2009-08-10, 12:49:05
Warum hat die HD 4670 dort nur 500 MHz Speichertakt?

Weil das bestenfalls eine 4650 ist.

AnarchX
2009-09-01, 20:31:22
Ein ausführlicher Test der GT 220 (GT216):
http://translate.google.ch/translate?u=http%3A%2F%2Fpublish.it168.com%2F2009%2F0901%2F20090901012701.shtml&sl=zh-CN&tl=en&hl=de&ie=UTF-8

100mm² misst man, DX10.1 wurde leider ohne AA getestet, aber der Verbrauch kann sich wirklich sehen lassen.

Reaping_Ant
2009-09-01, 21:08:21
Ein ausführlicher Test der GT 220 (GT216):

Danke für den Link. Sieht nach einer klasse Karte für einen HTPC aus, auf dem man gelegentlich mal zocken will. Mit dem niedrigen Verbrauch sollte die Karte auch (semi-)passiv gekühlt nicht all zu warm werden. Jetzt müsste man das Ding nur noch kaufen können.

AnarchX
2009-09-08, 12:25:48
G210(GT218) im Test @ PCGH:
http://www.pcgameshardware.de/aid,694172/Geforce-G210-Nvidias-erste-DirectX-101-Karte-mit-GT218-Chip-im-Test/Grafikkarte/Test/

Minimalistische 57,3mm² misst der Die, da stösst man wohl schon fast an die Untergrenze für die Verdrahtung.

LovesuckZ
2009-09-08, 18:18:46
Du bist zu spät - darüber hat sich Nagus schon ausgelassen. :lol:

AnarchX
2009-09-15, 12:31:13
Noch ein GT 220 Review:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F438%2F438743.shtml&sl=zh-CN&tl=en&hl=de&ie=UTF-8

AnarchX
2009-09-22, 17:10:52
Gigabyte mit einer Retail GT 220:
http://img23.imageshack.us/img23/690/gigabytegt220oc.jpg
http://www.videokonsolu.com/?p=1278

17% mehr GPU-Takt als die Referenzversion.

LovesuckZ
2009-09-22, 17:19:28
Der Shader-Takt ist ziemlich gering. Ich habe hier wieder ein 2,5 Verhältnis erwartet...

AnarchX
2009-09-22, 17:24:11
Wohl eben GT2xx-Designlasten...

Wenn man da bedenkt, dass G84 mit 80nm schon ähnliche Taktraten erreicht hat, ist das was man hier nun erreicht hat, doch eher ein mickriger Fortschritt für 2,5 Jahre.

reunion
2009-09-22, 17:30:42
Das ist noch dazu ein OC-Modell.

mapel110
2009-09-22, 17:46:27
Vielleicht hat mans bei so einer low budget Karte auch einfach gelassen um die Ausbeute nicht noch zusätzlich zu begrenzen durch Ausselektieren von nicht so taktfreudigen Chips.

LovesuckZ
2009-10-09, 13:58:39
Wie siehts aus: Sehen wir Montag Chips mit einem A3 Stepping?
De Chip der G210 von PCGH datiert auf die 19. Woche 2009 (also Tape-Out sogar noch im Jahr 2008) und die GT220 Chips auf die 29. Woche 2009 im A2 Stepping. Vorallen beim G210 wundert es mich, dass man diese Chips fast nirgends ausliefert...

AnarchX
2009-10-09, 14:10:53
In OEM-Systemen werden doch G210 und GT220 in rauen Mengen verbaut, was man auch beim Blick in den Prospekt der Elektro-Discounter erfährt.

LovesuckZ
2009-10-09, 14:13:29
In OEM-Systemen werden doch G210 und GT220 in rauen Mengen verbaut, was man auch beim Blick in den Prospekt der Elektro-Discounter erfährt.

Gibs von den Prospekten Beispiele? HP verbaut z.B die G210. Aber wirklich viel finde ich noch nicht. Im Notebookmarkt sieht es dagegen ganz trübe aus...

AnarchX
2009-10-09, 15:07:37
Saturn hat einige auch nicht HP-Geräte im Angebot.

Dural
2009-10-09, 16:31:15
Das sind ja auch reine OEM Chips, verwundert mich eh das Gigabyte eine Karte bringen soll

AnarchX
2009-10-09, 16:32:14
Nachdem die OEM-Deals abgeschlossen sind, hat man wohl nun auch ein paar Kapazitäten für den Retailmarkt:
http://geizhals.at/eu/?cat=gra16_512;asuch=GT%20220&sort=p
Wobei der Preis für die Leistung ziemlich unverschämt ist und wohl im Retail der Karte eher keine großen Erfolg bescheren wird.

LovesuckZ
2009-10-09, 18:31:09
Der Preis ist auch zZ nicht richtig. Vr-Zone meldete 60$ für eine GT220 und 40$ für eine G210 Karte. Das wären dann auch 45€ und 30€. Damit kann man ziemlich gut leben und dank des kleineren Die auch wieder durch niedrige Preise Marktanteile gewinnen. Aber ob es sich finanziell auszahlt, wird sich zeigen.

AnarchX
2009-10-10, 09:22:00
Nvidias GDDR5 Premiere - GT 240 (96SPs, 128-Bit, GT215):
http://vga.it168.com/a2009/1009/754/000000754803.shtml

http://img10.imageshack.us/img10/4108/4ddd891dbca74ed68adcc01.jpg

Wenn die OC-Version auch als Handelsversion möglich ist, dann sieht das gar nicht mal so übel aus. Sofern ein Preis <=60€. ;)

Gast
2009-10-10, 09:35:38
Wo früher 128 SPs @ 1836Mhz nötig waren um eine 4850 zu schlagen reichen jetzt 96 SPs @ 1590Mhz um in die Nähe der 4850 zu kommen.

Kann es sein, das bei einigen Karten statt GT GTS stehen müsste?

Dural
2009-10-10, 10:26:38
die werte überraschen doch extrem :eek:

deutlich schneller bei selben Takt als ein G92 aber mit nur 96SP und 128Bit GDDR5, da scheint es in den GT21x doch grössere änderungen zu gegeben!

Oder an den Werten stimmt was nicht, was wohl eher der fall sein sollte...

Gast
2009-10-10, 11:48:59
Nvidias GDDR5 Premiere - GT 240 (96SPs, 128-Bit, GT215):
http://vga.it168.com/a2009/1009/754/000000754803.shtml

http://img10.imageshack.us/img10/4108/4ddd891dbca74ed68adcc01.jpg

Wenn die OC-Version auch als Handelsversion möglich ist, dann sieht das gar nicht mal so übel aus. Sofern ein Preis <=60€. ;)

Unter 60€ wohl kaum denn selbst die GT220 Karten kosten ja schon soviel was natürlich auch viel zu teuer ist

Sorkalm
2009-10-10, 13:15:55
Wenn die OC-Version auch als Handelsversion möglich ist, dann sieht das gar nicht mal so übel aus. Sofern ein Preis <=60€. ;)

Hmm, so tief werden sie vermutlich gar nicht gehen müssen, wird ja Konkurrenz zur HD 5750 dann. Und immerhin muss dann ja auch GDDR5-Speicher bezahlt werden...

AnarchX
2009-10-10, 13:18:54
Ich glaube nicht wirklich, dass man mit einer GT 240 gegen die 5750 konkurrieren kann.
Und 0.5ns GDDR5 kann man wohl bei den Kosten vergessen, wenn AMD das ganze Line-up mit 0.4ns Speicher ausstattet und die 4730 zeigt auch in etwa wie weit man heruntergehen kann trotz teurer GPU und PCB.

die werte überraschen doch extrem :eek:

deutlich schneller bei selben Takt als ein G92 aber mit nur 96SP und 128Bit GDDR5, da scheint es in den GT21x doch grössere änderungen zu gegeben!

Dazu hat GT215 auch nur 32 TMUs, während ein voll aktiver G92 64 hat. Aber IT168 wird nach diesem Teaser wohl auch noch einen richtigen Artikel vorbereiten.

LovesuckZ
2009-10-10, 15:26:06
Dazu hat GT215 auch nur 32 TMUs, während ein voll aktiver G92 64 hat. Aber IT168 wird nach diesem Teaser wohl auch noch einen richtigen Artikel vorbereiten.

Erstaunlich, dass sie schon Karten haben. Ziemlich früh, wenn man überlegt, dass die Karten angeblich erst Ende November veröffentlicht werden sollen.

Spasstiger
2009-10-10, 16:01:08
die werte überraschen doch extrem :eek:

deutlich schneller bei selben Takt als ein G92 aber mit nur 96SP und 128Bit GDDR5, da scheint es in den GT21x doch grössere änderungen zu gegeben!

Oder an den Werten stimmt was nicht, was wohl eher der fall sein sollte...
In 3DMark06 @ 1920x1200 ist die GT 240 deutlich langsamer als die GeForce 9600 GT Green. Irgendwas passt an den Benchmarks noch nicht.
Ich persönlich erwarte eine Performance in der Gegend einer 9600 GT. Der Shadertakt der GT 240 ist mit 1340 MHz ja nicht allzuhoch, so dass die 96 SPs nicht so wahnsinnig vorteilhaft gegenüber den 64 SPs der 9600 GT sind. Die restlichen Eckdaten sind recht ähnlich mit leichten Vorteilen für die 9600 GT.

AnarchX
2009-10-10, 16:03:18
Wahrscheinlich hat sie auch nur 8 ROPs, wenn auch mit den leichten GT200 Verbesserungen.

Spasstiger
2009-10-10, 16:13:17
Wahrscheinlich hat sie auch nur 8 ROPs, wenn auch mit den leichten GT200 Verbesserungen.
8 ROPs vermute ich auch. Der GT216 hat auch 8 ROPs an einem 128-Bit-SI und ich denke nicht, dass Nvidia extra für den GT215 die bewährten ROP-SI-Partitionen umgebaut hat - vom GDDR5-Support mal abgesehen. Oder besteht der evtl. auch beim GT216 und beim GT218?

AnarchX
2009-10-10, 16:14:57
Ohne Die-Shot lässt sich das wohl schwer sagen (GDDR5-Support), aber ich würde es doch bezweifeln.

Gast
2009-10-10, 21:20:07
Ich glaube nicht wirklich, dass man mit einer GT 240 gegen die 5750 konkurrieren kann.


Glaube ich schon (wenn man mal DX11 außen vor läßt), von der Leistung her werden die auf einem ähnlichen Niveau liegen.

Spasstiger
2009-10-10, 21:24:13
Glaube ich schon (wenn man mal DX11 außen vor läßt), von der Leistung her werden die auf einem ähnlichen Niveau liegen.
Kann ich mir nicht vorstellen. Die HD 5750 ist einen Tick schneller als eine Radeon HD 4850 und die GT 240 liegt rein nach den technischen Daten knapp oberhalb einer GeForce 9600 GT. Es wird schon ein größerer Abstand zwischen der GT 240 und der HD 5750 liegen. Außerdem wird Nvidia sicherlich eine DX11-Karte gegen die HD 5750 ansetzen.

AnarchX
2009-10-12, 19:24:49
http://img408.imageshack.us/img408/6286/cef2e6765de94dbdb357580.jpg
http://vga.it168.com/a2009/1012/757/000000757075.shtml

LovesuckZ
2009-10-12, 19:42:36
Ne Schätzung, wie groß der Die ist?

Ailuros
2009-10-13, 06:29:34
Wenn ich mich nicht irre ist GT215 128mm2.

Gast
2009-10-13, 09:47:30
Wenn ich mich nicht irre ist GT215 128mm2.
Das kommt bei dem Bild raus, ja.

AnarchX
2009-10-13, 09:55:44
Das kommt bei dem Bild raus, ja.
Auf Basis der Package-Bilder von den GTS 200M hat man ja auch damals schon ~125mm² geschätzt.

Damit dürfte der GT215 doch eine bessere Packdichte als GT216 mit 4,86MT/mm² aufweisen.
Letzerer hat vielleicht auch noch die Chance ohne sich zu vergrößern mit Chipsatzfunktionalität ausgestattet zu werden und dann als Ion 2 den Markt nochmals zu betreten.

Ailuros
2009-10-13, 10:02:45
Das kommt bei dem Bild raus, ja.

http://img41.imageshack.us/img41/8413/superimpose.jpg

http://forum.beyond3d.com/showpost.php?p=1344452&postcount=567

:wink:

AnarchX
2009-10-20, 08:12:04
Umfangreicher Test zur GT 240:
http://translate.google.ch/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2009%2F1019%2F763%2F000000763107.shtml&sl=zh-CN&tl=en&hl=de&ie=UTF-8

Mit Referenztaktung (550/1340/1800MHz) ganz klar auf dem Niveau einer 9600 GT, mit einer OC-Version kommt man vielleicht gerade so auf 9800 GT Niveau.

LovesuckZ
2009-10-20, 10:24:06
Umfangreicher Test zur GT 240:
http://translate.google.ch/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2009%2F1019%2F763%2F000000763107.shtml&sl=zh-CN&tl=en&hl=de&ie=UTF-8

Mit Referenztaktung (550/1340/1800MHz) ganz klar auf dem Niveau einer 9600 GT, mit einer OC-Version kommt man vielleicht gerade so auf 9800 GT Niveau.

Wenn man betrachtet, dass die Karte nur ca. 25% mehr Rechenleistung besitzt und im Bereich der Bandbreite auf den selben Wert kommt, ist die Leistung zufriedenstellend. Schade, dass der 40nm Prozeß immer noch so schlecht ist, denn die Karte stammt mit A2 aus der 27. Woche und hätte schon längst auf dem Markt sein können.
Mit 9600GT Taktraten läge ma wohl zwischen der 9600GT und der 9800GT, was mit dem Die und den 50% Zusatztransistoren zum G94 G94 gut ist. Immerhin scheint man die Transistorendichte fast verdoppelt und somit das maximal mögliche aus der Architektur erreicht hat.

AnarchX
2009-10-20, 10:29:47
Wie kommst du zu den Transistoren?
Mehr als 140mm² Die-Size mit Schutzschicht, sagt der Artikel ja auch nicht, abzüglich von 0,5mm pro Seite, also etwa die schon geschätzen 130mm².

Ich hätte ehrlich gesagt, eher einen 6 Cluster G9x mit 192-Bit GDDR5 mit D3D10.1 gesehen, den man wohl in der gleichen Die-Size fertigen hätte können, jedoch besser takten hätte können.

LovesuckZ
2009-10-20, 10:41:26
Ich hätte ehrlich gesagt, eher einen 6 Cluster G9x mit 192-Bit GDDR5 mit D3D10.1 gesehen, den man wohl in der gleichen Die-Size fertigen hätte können, jedoch besser takten hätte können.

Nein, anscheinend musste man wegen 10.1 die TMUs so umstellen, dass man deutlich mehr Transistoren benötigt. Dazu kommen noch Dinge wie der neue Audiocontroller. Ein GT220 hat 68% mehr Transistoren als ein G84. Das sind nicht alleine die 16 zusätzlichen SPs.

Gast
2009-10-20, 11:10:44
Braucht kein Mensch mehr, diese Karte. Nicht einmal der Stromverbrauch ist gut. Gegen eine HD5750 zieht die in absolut jeder Kategorie den Kürzeren.

reunion
2009-10-20, 11:16:45
Umfangreicher Test zur GT 240:
http://translate.google.ch/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2009%2F1019%2F763%2F000000763107.shtml&sl=zh-CN&tl=en&hl=de&ie=UTF-8

Mit Referenztaktung (550/1340/1800MHz) ganz klar auf dem Niveau einer 9600 GT, mit einer OC-Version kommt man vielleicht gerade so auf 9800 GT Niveau.

NV hat offenbar noch immer erheblich Probleme mit dem 40nm Prozess, wenn man sich die geringen Taktraten mit dem relativ hohen Stromverbrauch ansieht. Auch scheint man für D3D10.1 ganz schön viel Transistoren benötigt zu haben. Eine Die-Größe gerade mal auf dem Niveau einer RV730 ist nicht gerade berühmt in 40nm.

Gast
2009-10-20, 13:56:59
Zumindest scheint Nvidia AMDs GDDR5 Controller Bug nicht übernommen zu haben, die Idle Werte sehen gut aus.

deekey777
2009-10-20, 14:02:35
Zumindest scheint Nvidia AMDs GDDR5 Controller Bug nicht übernommen zu haben, die Idle Werte sehen gut aus.
Es gibt keinen Controller-Bug. :rolleyes:

Dural
2009-10-20, 14:03:33
Der geringe takt liegt wohl einzig daran das die Karte keinen Strom Anschluss hat und somit unter 75Watt bleiben muss! Die gemessenen Strom-Werte sind ja auch Super.

Glaube nicht das da die GPU schon am anschlag ist, sondern eben die vcore dementsprechent tief ist.

Gast
2009-10-20, 14:15:34
Es gibt keinen Controller-Bug. :rolleyes:
Es gibt ihn sehr wohl.
Die Frage ist nur wie du ihn nennst.

Ailuros
2009-10-20, 14:21:42
Es gibt ihn sehr wohl.
Die Frage ist nur wie du ihn nennst.

Ich nenne es kindischen gegenseitigen FUD den sowohl AMD fuer NV behauptet und auch umgekehrt. Und da ich mir absolut sicher bin dass nichts relevantes auf der einen oder anderen Seite existiert will ich auch nichts weiter davon hoeren.

deekey777
2009-10-20, 15:27:13
Es gibt ihn sehr wohl.
Die Frage ist nur wie du ihn nennst.
Dann schalten wir mal unser Köpchen ein:
HD4870:
http://ht4u.net/reviews/2008/amd_radeon_hd_4870/index9.php
HD4870X2:
http://ht4u.net/reviews/2008/sapphire_radeon_hd_4870_x2/index6.php

Echt seltsam dieser Bug... Ich meine, bei einem RV770 mit GDDR5 bleibt der Speichertakt bei 900 MHz, bei zwei RV770 wird er auf 500 MHz abgesenkt. Echt seltsam dieser Bug.
Ich nenne es kindischen gegenseitigen FUD den sowohl AMD fuer NV behauptet und auch umgekehrt. Und da ich mir absolut sicher bin dass nichts relevantes auf der einen oder anderen Seite existiert will ich auch nichts weiter davon hoeren.
Es gibt eine Aussage von AMD, warum das so ist:
http://www.rage3d.com/interviews/atichats/undertheihs/
Having said that, the trouble with GDDR5 at clocks below the 500MHz mark is that you have to shift the operating mode towards a more GDDR4-like one. This requires some software work to be done. With the 4870 we didn't do it since other things took precedence, and because we were already getting good thermal and power characteristics. The 4870's power draw is in line with what you'd expect from a performance part. On the other hand, for the 4870X2 we had to deal with having what is practically 2 4870s on the same PCB, with an extra 1GB of RAM, so we implemented a more aggressive downclocking. With that in mind, we are looking at changing the way the 4870 behaves and having a similar clocking strategy for it, but that requires implementing certain changes in the software stack, and it's not the primary priority currently, since the card has characteristics that are within the envelope that is specific to the segment it targets.

Gast
2009-10-20, 15:40:04
Es gibt eine Aussage von AMD, warum das so ist:
http://www.rage3d.com/interviews/atichats/undertheihs/
"The 4870's power draw is in line with what you'd expect from a performance part. "
Yay! 90 Watt Idle (AMD-Angabe) ist also, was ich von einer PErformance-Karte erwarte?

N.O.-FUCKING-Way!

Aber das scheint auch AMD so zu sehen, denn die neuen Performance-Karten unterbieten das ja deutlich, weil man den Fuck-Up (wenn's schon kein Bug war) wohl offenbar gut in den Griff bekommen hat.

Gast
2009-10-20, 15:42:47
Es gibt eine Aussage von AMD, warum das so ist:
http://www.rage3d.com/interviews/atichats/undertheihs/
Alle Referenz HD4, bis auf die 4870 X2 sind davon betroffen.
Dunkel kann ich mich an Aussagen erinnern, das es nach einiger Zeit korrigiert werden sollte.
Nenn es wie du willst, jedenfalls ist diese Geschichte jetzt endlich vorbei, bei zukünftigen Karten.

deekey777
2009-10-20, 15:45:40
Yay! 90 Watt Idle (AMD-Angabe) ist also, was ich von einer PErformance-Karte erwarte?

N.O.-FUCKING-Way!

Aber das scheint auch AMD so zu sehen, denn die neuen Performance-Karten unterbieten das ja deutlich, weil man den Fuck-Up (wenn's schon kein Bug war) wohl offenbar gut in den Griff bekommen hat.
Das passiert, wenn der Takt des GDDR5-Speichers nicht abgesenkt wird. Und wenn das Teil so schon totkalkuliert ist, dann nimmt man dieses Übel in Kauf. Wenn TDP nicht im Weg gestanden hätte, dann hätten wir auch bei der X2 immer den gleiche Speichertakt gesehen.

Gast
2009-10-21, 18:46:45
Nur das die G80 Karten, die als Stromverbrauchsmonster angesehen werden weil sie sich im Idle genauso nicht zurücktatken, diesen ref. 48 Karten die hand reichen können. :ugly:

AnarchX
2009-10-28, 19:45:17
http://img514.imageshack.us/img514/4600/nvda3005451104.jpg (http://img514.imageshack.us/i/nvda3005451104.jpg/)
http://www.fudzilla.com/content/view/16170/1/

Da bekommt wohl GT215 ein Renaming, bevor er überhaupt lieferbar ist. :D

LovesuckZ
2009-10-28, 19:52:15
Wohl mehr ein Spaß Richtung Charlie.

reunion
2009-10-28, 20:13:02
Wohl mehr ein Spaß Richtung Charlie.

Natürlich. Alle Rebrandings waren nur Spaß in Richtung Charlie. Das ganze NV-Marketing ist nur noch auf Charlie ausgerichtet. Ich denke Charlie ist NV völlig egal.

Gast
2009-10-28, 22:08:21
Hatten wir das mit den Rebrandings nicht gerade im Fred "Ist der technologische Rückstand von nVidia noch aufzuholen?"?

Wenn da schon dort die Argumente ausgehen, dann trags doch nicht ins Unendliche weiter.


Das hier war eindeutig Absicht. Es sei den (Mobile) Fermi kommt Morgen, dann könnte man die Chance nutzen und gleich eine komplettes Spetrum anbieten.

MadManniMan
2009-11-03, 23:40:04
Gibt es noch irgendwo ein Abbild des GT-240-Tests? Dereinst hab ich ihn irgendwie verpennt und würde ihn nun gern nachlesen...

AnarchX
2009-11-04, 07:37:44
http://www.flickr.com/photos/42786968@N05/sets/72157622520411613/

Ailuros
2009-11-04, 08:17:50
http://www.flickr.com/photos/42786968@N05/sets/72157622520411613/

Im Vergleich zur 9600GT ist das Ding so laecherlich zwecklos dass es nicht mehr schoen ist.

AnarchX
2009-11-04, 08:27:28
Halt viel zu spät und der Takt ist für 40nm auch nicht so besonders.
Wenn man eine OC-Version mit 700/1600MHz und GDDR5 für ~70€ anbieten könnte, dann wäre die Karte wohl noch halbwegs attraktiv.

Tarkin
2009-11-04, 09:14:45
Noch so ein 40nm FAIL von nVidia ... im Bereich zwischen 70 und 80 Euro bekommt man eine 4770er die ca. 40% schneller ist... oder für 50 Euro eine 4670 mit annähernd gleicher Leistung.

Bisschen CRAZY ist das schon! :eek:

Undertaker
2009-11-04, 09:23:32
Interessant ist der Chip wohl vor allem in Notebooks... Dort soll er als GTS 250M mit gerade einmal 28W TDP kommen und zudem eine deutlich höhere Leistung als GT240M/HD4650 liefern. :) Auf dem Desktop muss die Karte noch etwas im Preis sinken, ~60-70€ wären angebracht.

reunion
2009-11-04, 09:25:40
Warum? 28W TDP ist für einen Notebookchip auch nichts besonderes, da hat eine HD46xx auch nicht mehr AFAIK. Der Stromverbrauch ist nicht wirklich berühmt. Kaum bessere Performace/Watt als AMDs 55nm Chips, die Taktraten sind sehr niedrig. Trotz 40nm. D3D10.1 hat offensichtlich einiges an Transistoren verschlungen. Wäre der Preis nicht viel zu hoch wären die Karten zumindest halbwegs konkurrenzfähig, aber so...

Undertaker
2009-11-04, 09:29:06
Ich rede auch von Notebooks. ;) Hier wäre ein 28W TDP Chip dieser Leistung vorerst konkurrenzlos. Zur Monility HD4670 sind 35W zu finden, bei weniger Leistung. Da wäre die Karte also sehr interessant, wenn sie schnell in den Markt kommt.

reunion
2009-11-04, 09:31:01
Ich rede auch von Notebooks. ;) Hier wäre ein 28W TDP Chip dieser Leistung vorerst konkurrenzlos.

RV740 hat kaum mehr TDP und ist erheblich schneller, die RV730 Notebookchips in 55nm bewegen sich auch zwischen 25-35W TDP und sind kaum langsamer.

Undertaker
2009-11-04, 09:33:21
RV740 ist nur in Notebooks praktisch unauffindbar, auch die HD4670 gibt es nur in einign Modellen. Die GT240M kommt an die HD4650 schon sehr nahe heran:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7637361&postcount=14

Wie gesagt, hier bietet AMD momentan nichts konkurrenzfähiges, was sich aber bald ändern könnte.

reunion
2009-11-04, 10:21:25
Was ist denn an der HD4670 nicht konkurrenzfähig? Eher seltsam das es NV trotz 40nm nicht schafft wirklich besser zu sein. Im Januar sollen die AMD DX11 Chips für Notebooks kommen, spätestens dann hat NV ein Problem.

V2.0
2009-11-04, 11:07:27
Sehr mager und sehr überflüssig. Dass man den Chip überhaupt noch bringt zeigt imho nur wie weit die kleine Fermi-Ableger noch entfernt sind.

Undertaker
2009-11-04, 12:57:11
Was ist denn an der HD4670 nicht konkurrenzfähig?´

Sie ist deutlich langsamer bei höherem Verbrauch? Ist doch kein Wunder, wenn hier ein 55nm Chip gegen einen 40nm Chip antritt. Problem ist auch, dass die HD4670 im Gegensatz zu HD4650 - die bzgl. Leistung nur knapp vor der GT240M liegt, siehe die Benches oben - von kaum einem Hersteller verbaut wird.

Der GT240 in der GTS250M wäre damit, für einen entsprechenden Preis, absolut attraktiv. Im Desktop besteht die Lücke zwischen HD4670 und HD4770 zum Preis von 60-70€, ich erwähnte es oben.

Gast
2009-11-05, 11:05:11
Sie ist deutlich langsamer bei höherem Verbrauch? Ist doch kein Wunder, wenn hier ein 55nm Chip gegen einen 40nm Chip antritt. Problem ist auch, dass die HD4670 im Gegensatz zu HD4650 - die bzgl. Leistung nur knapp vor der GT240M liegt, siehe die Benches oben - von kaum einem Hersteller verbaut wird.

Der GT240 in der GTS250M wäre damit, für einen entsprechenden Preis, absolut attraktiv. Im Desktop besteht die Lücke zwischen HD4670 und HD4770 zum Preis von 60-70€, ich erwähnte es oben.

Laut Notebookcheck braucht eine 4670 GPU auch nur 28-30Watt. Wo ist also jetzt der große Vorteil für die GT240M?

Link: http://www.notebookcheck.com/AMD-ATI-Mobility-Radeon-HD-4670.13800.0.html

AnarchX
2009-11-05, 16:27:01
4Gamer.net führt in ihrer Roadmap einen 216SPs 40nm D3D10.1 Chip, worüber es seit September in der Industrie Gerüchte geben soll:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F095%2FG009528%2F20091105001%2F&sl=ja&tl=en&hl=de&ie=UTF-8

Henroldus
2009-11-05, 16:30:50
4Gamer.net führt in ihrer Roadmap einen 216SPs 40nm D3D10.1 Chip, worüber es seit September in der Industrie Gerüchte geben soll:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F095%2FG009528%2F20091105001%2F&sl=ja&tl=en&hl=de&ie=UTF-8
mit 256Bit Interface dann also die sparsame GDDR5 Variante der GTX260^2

LovesuckZ
2009-11-05, 16:44:48
Laut der Roadmap soll die Karte in weniger als 2 Monaten kommen. Und es gibt keine Gerüchte darüber. Muss man also nicht ernstnehmen.

Undertaker
2009-11-05, 17:05:59
Laut Notebookcheck braucht eine 4670 GPU auch nur 28-30Watt. Wo ist also jetzt der große Vorteil für die GT240M?

Link: http://www.notebookcheck.com/AMD-ATI-Mobility-Radeon-HD-4670.13800.0.html

Mit Board und Speicher laut der Seite dort ~35W. Verglichen zu 28W der GTS250M mit deutlicher Mehrleistung ist das im Notebooksegment doch ein nicht unerheblicher Unterschied.

Sorkalm
2009-11-05, 17:32:53
4Gamer.net führt in ihrer Roadmap einen 216SPs 40nm D3D10.1 Chip, worüber es seit September in der Industrie Gerüchte geben soll:
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F095%2FG009528%2F20091105001%2F&sl=ja&tl=en&hl=de&ie=UTF-8

Klingt nach dem (gecancelten) GT212.

MadManniMan
2009-11-17, 08:14:51
Sollte nicht heute die GT 240 vorgestellt werden?

AnarchX
2009-11-17, 08:16:57
Sollte nicht heute die GT 240 vorgestellt werden?
15 Uhr wohl.

http://vga.it168.com/a2009/1112/808/000000808147.shtml
http://www.pcpop.com/doc/0/461/461692.shtml

MadManniMan
2009-11-17, 08:24:03
Geil, danke! Aber das kryptische Zeug tu ich mir nicht an :D

OK, OK... ich gucke doch... momentan hab ich schon die verschiedenen Karten der einzelnen Hersteller überflogen und ich muss sagen, dass wirklich einige sehr schöne Kühlerdesigns dabei sind - eine LP-Version vom AC L2 Pro zum Beispiel, wenn ich richtig geguckt habe.

Die Performance ist letztlich für den Einsteiger-Zock brauchbar, aber wenn die Karten 80 Euro kosten, brauchen sie gar nicht erst antreten.

Der Idle-Verbrauch ist erwartungsgemäß überragend, unter Last bleibt man 20 Watt unter der 9600 GT...


Alles in allem nichts Spektakuläres, aber vielleicht bringen andere Artikel ja noch die eine oder andere Erkenntnis.

BTW: verschieben in Grafikchips?

Sorkalm
2009-11-17, 10:41:19
Die beiden Reviews ja, der Rest des Threads nein. :tongue:

reunion
2009-11-17, 10:47:47
Die Performance ist letztlich für den Einsteiger-Zock brauchbar, aber wenn die Karten 80 Euro kosten, brauchen sie gar nicht erst antreten.


$99 :)

MadManniMan
2009-11-17, 11:33:04
Die beiden Reviews ja, der Rest des Threads nein. :tongue:

Mein ich ja ;) Und meinen Kommentar gern auch noch mit.


$99 :)

Bwah... das war ja dermaßen klar, dass Du gleich wieder aufspringst und genüsslich hetzt. Ich rede von MARKTpreisen, nicht von dem Mondmist, der sich da UVP schimpft.

Ey ich wünsch mir nur einmal Objektivität in Bezug auf nV oder AMD ... :mad:

reunion
2009-11-17, 11:36:54
Bwah... das war ja dermaßen klar, dass Du gleich wieder aufspringst und genüsslich hetzt. Ich rede von MARKTpreisen, nicht von dem Mondmist, der sich da UVP schimpft.

Ey ich wünsch mir nur einmal Objektivität in Bezug auf nV oder AMD ... :mad:

Ich ging davon aus das du es nicht wüsstest. Tut mir viel mals Leid das ich dir den empfohlenen Verkaufspreis genannt habe. Der Marktpreis wird sich logischerweise daran orientieren. Ist ja auch eine unglaubliche Hetze wenn man das sagt. Also machmal. Wenn hier wer hetzt dann bist das DU.

/Edit: Hier bereits offizielle Angaben von Herstellerkarten: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/november/erste_nvidia_geforce_gt_240/

aths
2009-12-12, 12:20:49
In den meisten OEM-PCs wird doch DDR2 verbaut und bei HD4600/HD4500 setzt man auf DDR3-Speicher, welchen Nvidia auf ihren Karten auch bald verwenden wird.Ich weiß nicht, warum, aber DDR2-Speicher ist im Value-Bereich nach wie vor ein Riesending. Oft wird eine DDR3-Version an die Presse zum Reviewen geschickt und dann die DDR2-Version verkauft.

LovesuckZ
2010-01-04, 02:19:38
Wenn jemand wissen will, wie jemand Nachrichten über einer Firma schreibt, die er entweder hasst oder hasst, weil er dadruch aufmerksamkeit erhält:
http://www.semiaccurate.com/2010/01/03/nvidia-mobile-3-series-lose-dx101/

Basiert auf der Tatsache, dass die Spezifikationsseite der neuen GT(S)3xx Mobile Karten kein 10.1 anzeigen. Naja,er hätte mal lieber den "Features" Tab lesen sollt.

deekey777
2010-01-30, 17:02:09
In dem kommenden ALDI-Rechner soll eine GT330 mit 768 MB RAM stecken. Geworben wird mit DX10 (gemeint ist wohl DX10.1).
Was soll das sein?

Coda
2010-01-30, 17:05:56
Uhm. Alte Halde G80-Chips ausgegraben? :|

Gast
2010-01-30, 17:08:13
Kann man nicht wissen, sie werben mit einem nicht existierenden Produkt.

Die 768MiB riechen nach 192bit SI, also eine Art 9600 GSO vielleicht.

Dimon
2010-01-30, 17:08:48
Uhm. Alte Halde G80-Chips ausgegraben? :|

Scheint eher eine umgelabelte 9600GSO zu sein, Medion ahoi :freak:

@edit, ok zu lahm :D

Duplex
2010-01-30, 17:10:10
In dem kommenden ALDI-Rechner soll eine GT330 mit 768 MB RAM stecken. Geworben wird mit DX10 (gemeint ist wohl DX10.1).
Was soll das sein?

Der GT300 bekommt ein 384 & 320 Bit Speicher Interface

320 Bit SI = 320, 640, 1280, 2560 MB
384 Bit SI = 768, 1536, 3072, 6144 MB

Coda
2010-01-30, 17:10:22
Stimmt, G96 gab's ja auch noch.

Dimon
2010-01-30, 17:13:21
http://www.nvidia.de/object/product_geforce_gt_130_de.html

Geforce GT130 aka 9600GSO...


Schrotthalde ..

Sorkalm
2010-01-30, 17:32:46
Geforce GT130 aka 9600GSO...

Ist GT130 sicher = GT 330 (und demnach auch = GT230 = 9600 GSO) ?

Spasstiger
2010-01-30, 17:33:00
Stimmt, G96 gab's ja auch noch.
Die 9600er-Serie basiert auf dem G94. Die 9600 GSO gabs auch mit G92.

Coda
2010-01-30, 17:34:56
Mein ich ja...

Gast
2010-01-30, 17:38:16
Ist GT130 sicher = GT 330 (und demnach auch = GT230 = 9600 GSO) ?
Nein, das ist reine Spekulation.
Kann genausogut ein anderer 256bit SI Chip sein, der auf 192bit kastriert wurde.
Takt oder der ganze Rest ist sowieso unbekannt.

Solange Medion mit nicht existenten Produkten und wirbt und diese nicht näher erläuert tapen wir im Dunkeln.

Spasstiger
2010-01-30, 17:42:18
@Coda: Hab ich mir schon gedacht. ;)
Ich finde das Namenschaos auch grausam. Und darf das Zeug sogar verkaufen. Erst letztens bin ich über eine GeForce GT 325M gestolpert, die in einem Notebook verbaut, das der Kunde zum Zocken einsetzen wollte. Weil mir die Sucherei im Netz zu blöd war, hab ich gesagt, dass die einer GeForce 9500 GT entspricht (stimmt ja auch fast, die GT 325M ist ca. 10-20% schneller, aber nutzt halt den GT216 statt den G96). Und wenn man zugibt, dass man nicht weiß, wie schnell diese und jene Karte ist, schauen einen die Leute immer so komisch an. :freak:
Problem ist halt, dass ich keine falschen Angaben zum Nachteil des Kunden machen darf, weil wir sonst zur Rücknahme verpflichtet sind. Da kann man nicht mit "würde, wäre, wenn" anfangen.

Gast
2010-01-30, 17:52:33
Du hättest auch einfach auf die Seite von nVidia.de gehen können. Dort sind alle möglichen Varianten aufgelistet: http://www.nvidia.de/page/geforce_m_series.html

Als Verkäufer sollte man soweit schon interesse zeigen.

Spasstiger
2010-01-30, 17:57:37
Problem ist, dass wir offiziell kein Internet an der Theke haben. Und wenn der Kollege gerade den Internetrechner besetzt und eine Schlange Kunden vor einem steht, muss man halt kreativ sein. Außerdem tauchen viele neue OEM-Varianten gar nicht bei NV auf und die konkreten Taktraten gibt NV auch nicht immer an. Gerade bei Notebooks kocht jeder Hersteller sein eigenes Süppchen, was die Taktraten angeht.
Zudem verstehen die meisten Kunden nur Bahnhof, wenn ich mit den Spezifikationen daherkomme. Die wollen wissen, ob Spiel xyz auf ihrem Bildschirm gescheit läuft und ob Karte abc schneller ist als ihre alte Karte.

Aber ich behaupte mal, dass die Kunden bei mir besser beraten werden als bei Media Markt. Marketinggeschwätz bekommt bei mir Niemand zu hören.

Sefegiru
2010-01-30, 17:57:46
Trotzdem darf man wohl die Umbennungsarie von Nv kritisieren weil man da wirklich nicht mehr weiß was mal wann wie schnell war oder wird.....oder sein könnte, zumal da ja momentan im Wochenrhythmus ein neuer bzw alter Chip kommt den es eigentlich schon gibt oder geben könnte oder gegeben hat.

Da sieht man was ich meine....zu viele Möglichkeiten.

Gast
2010-01-30, 18:03:54
Naja aus dem Stand kann man das auf beliebige andere Produkte erweitern.

Wer weiß schon, wo man die HD 5350 einornden kann, bei welcher HD3?

Kritik sollte eher gegen die GT325M, die aus der GT240M geboren wurde gelten.
Die GT240M an sich ist einr vollkommen richtige Bezeichnung, ergo darf nicht über die Frage wie sie sich im Vergleich zur GF9 verhält gemeckert werden, wenn man es bei AMD nicht tut.

Also bitte, kritisier die 300er M im Vergleich zur 200er M aber nicht die 300er M im Vergleich zu sonst irgendwas.

Gast
2010-01-30, 18:07:02
Problem ist, dass wir offiziell kein Internet an der Theke haben. Und wenn der Kollege gerade den Internetrechner besetzt und eine Schlange Kunden vor einem steht, muss man halt kreativ sein. Außerdem tauchen viele neue OEM-Varianten gar nicht bei NV auf und die konkreten Taktraten gibt NV auch nicht immer an. Gerade bei Notebooks kocht jeder Hersteller sein eigenes Süppchen, was die Taktraten angeht.
Zudem verstehen die meisten Kunden nur Bahnhof, wenn ich mit den Spezifikationen daherkomme. Die wollen wissen, ob Spiel xyz auf ihrem Bildschirm gescheit läuft und ob Karte abc schneller ist als ihre alte Karte.

Aber ich behaupte mal, dass die Kunden bei mir besser beraten werden als bei Media Markt. Marketinggeschwätz bekommt bei mir Niemand zu hören.

Von einem Verkäufer kann man wohl erwarten, dass er sich über seine eigenen Produkte erkundigt. Und ein besuch bei nVidia.de wird wohl der Chef nicht als privates Surfen abtun, wenn man damit den Umsatz steigern kann.

Gast
2010-01-30, 18:09:37
Wir können uns hier auch zusammen setzten und eine ausführliche Liste erstellen, um allen zu helfen.

Wenn wir fertig sind auch eine für sämtliche HD Karten.

Dural
2010-01-30, 18:27:39
In dem kommenden ALDI-Rechner soll eine GT330 mit 768 MB RAM stecken. Geworben wird mit DX10 (gemeint ist wohl DX10.1).
Was soll das sein?

könnte ein GT215/216 @ 96Bit sein, mit DX10.1 bleibt auch nur der GT215/216 übrig

Black-Scorpion
2010-01-30, 18:28:39
Wenn du mit der Liste fertig bist, ist NV schon wieder einen Schritt weiter und du kannst von vorne anfangen.

Was der blöde Vergleich mit ATI immer soll wenn man die laufenden Umbenennungsaktionen kritisiert und keiner mehr durchblickt, verstehe wer will.

Gast
2010-01-30, 18:35:49
Wenn du nicht an einer Information interessiert bist, wo die HD5 im Vergleich zur HD4 steht ist das deine Sache.

200M ist wie gesagt eine vollkommen berechtigte Bezeichnung.
Das du nicht explizit 300M kritisierst, sondern alle Geforce über einen Kamm scherst ist typisch.
Übrigens weiter vorne ging es um Medions GT 330, eine vollkommen unbekannte Karte.

Black-Scorpion
2010-01-30, 18:40:41
Wenn du nicht an einer Information interessiert bist, wo die HD5 im Vergleich zur HD4 steht ist das deine Sache.

200M ist wie gesagt eine vollkommen berechtigte Bezeichnung.
Das du nicht explizit 300M kritisierst, sondern alle Geforce über einen Kamm scherst ist typisch.
Übrigens weiter vorne ging es um Medions GT 330, eine vollkommen unbekannte Karte.
Genau, bevor man eine Liste erstellen kann um sie nach Leistung einordnen zu können, muss man erstmal eine Liste erstellen um herauszufinden was das überhaupt sein könnte.
Oder baust du am Haus zuerst das Dach?

Gast
2010-01-30, 18:47:31
Es geht nicht nur um Leistung. :rolleyes:
Natürlich werden dort Dinge wie Bandbreite und Füllrate auftauchen und keine % Werte aus seltsamen Benchmarks.

Gast
2010-01-30, 18:48:32
könnte ein GT215/216 @ 96Bit sein, mit DX10.1 bleibt auch nur der GT215/216 übrig
Stimmt, das passt besser als ein 192bit G94/G92.

AnarchX
2010-01-30, 19:05:59
könnte ein GT215/216 @ 96Bit sein, mit DX10.1 bleibt auch nur der GT215/216 übrig

Da GT215 bis auf GDDR5 wohl unveränderte ROP-Partitionen hat, sind 96-Bit eher nicht möglich. Zudem ist nur GDDR3 verbaut.
96-Bit GDDR3 würde auch nicht zur Leistung passen:
http://www.computerbild.de/artikel/cb-Tests-PC-Hardware-Medion-Akoya-E4360D-MD-8338-5033091.html
(vgl. GTS 240 (http://www.computerbild.de/artikel/cb-Test-PC-Hardware-Acer-Aspire-M5810-Media-Markt-4968288.html))

Wohl eher einfaches Rebranding, der 9600GS, GT130 bzw. GT230 die Medion auch schon im Angebot hatten und wohl noch ein paar Karten über haben.

Dural
2010-01-30, 19:20:50
ja stimmt... 96bit gehen irgend wie gar nicht, die haben ja nur 8 ROPs

aber laut NV hat die 330 128Bit und 48SP, das muss fast ein GT215/216 sein und man kommt nur mit 96Bit auf 768MB Speicher...

die einzige alternative wäre ein G94, aber die GPU noch unter der GT3xx Serie ohne DX10.1 und noch in 55nm.... ich weis nicht so recht

Sorkalm
2010-01-30, 19:35:35
Nur weil eine mobile GT 330 auf GT215/216 aufbaut, muss das doch noch nicht gleich das Desktop-Produkt tun. Denke auch eher, dass das ein G94 ist.

Coda
2010-01-30, 21:57:10
Die NVIDIA-Speichercontroller sind auch 64-wide, d.h. 96 bit geht sowieso nicht.

Gast
2010-01-31, 09:51:50
Nur weil eine mobile GT 330 auf GT215/216 aufbaut, muss das doch noch nicht gleich das Desktop-Produkt tun. Denke auch eher, dass das ein G94 ist.
Das Dektop Produkt müsste dem Mobilen überlegen sein.
Allerdings kommt hier der Hacken, es gibt kein Desktopprodukt. Medion hat hier eine Eigenkreation erschaffen.

Gast
2010-01-31, 09:56:05
Also, welche Möglichkeiten gibt es denn?

Jegliche GPU mit mindestens 12 ROPs ist denkbar.
GT200(b), G92(b), G94(b), G80

Wenn Medion nur einen Funken Anstand hat, müsste es eine verkrüppelte GTS 240/ GTS 250 sein, also ein G92b.

Spasstiger
2010-01-31, 13:53:26
Von einem Verkäufer kann man wohl erwarten, dass er sich über seine eigenen Produkte erkundigt. Und ein besuch bei nVidia.de wird wohl der Chef nicht als privates Surfen abtun, wenn man damit den Umsatz steigern kann.
Ich mache das nicht hauptberuflich und bei meinem mickrigen Lohn werde ich sicher nicht noch meine restliche Zeit dafür opfern, alle Produkte genau einzustudieren (wobei ich das im Fall von Grafikkarten sogar tue). Dafür gibts festangestellte Kollegen, die einem auch gerne weiterhelfen. Und wie gesagt haben wir offiziell gar kein Internet, das geht nur über den Chef-PC. Ich denke, wenn ich dem Kunden auch ohne nachzusehen zu 20% genau sagen kann, wie schnell eine Grafikkarte ist, dann ist das zufriedenstellend (ein paar Eckdaten sind ja auch im System gespeichert). Wenn ich mir total unsicher bin, dann kommuniziere ich das auch weiter und frage ggf. einen Kollegen. Mein Chef hat mich aber schonmal ermahnt, als ich nach Benchmarks gesucht habe (Hersteller machte keine Angaben). Es kostet einfach viel Zeit und in diesem einen Fall kaufte der Kunde auch nix, hatte gar kein Geld dabei.
Ich finde die Situation bei NV auf jeden Fall unglücklich. Zu viele Modelle mit zu wenig Unterschieden. Jede Woche stoße ich auf ein neues Modell, hinter dem eigentlich ein altes Produkt steckt. Und dann noch diese ganzen abgespeckten Varianten mit "Eco" und "Green" im Namen, die es auch querbet von der 9600 GT bis zur GTS 250 gibt. Zusätzlich Varianten mit DDR2 und DDR3 und teilweise OEM-Karten, zu denen man überhaupt keine Spezifikationen rausbekommt.

Sorkalm
2010-02-04, 19:54:41
PC-Welt hat sich mal einen der Aldi-PCs besorgt und unter die Grafikkarte (GT 330) geguckt:

G92-168-B1

Laut GPU-Z beträgt der Takt 500/1250/800 MHz. GPU-Leistung allerdings unter 9600 GT Niveau laut den Tests.

(Rest der Infos ist wohl Nonsense, lediglich MSI als Vendor, Speicherbandbreite und -Anbindung (192 Bit) dürften noch passen.)


http://www.pcwelt.de/start/computer/pc/tests/2108990/aldi-pc-medion-akoya-e4360-d-8338-februar-2010-im-test/index2.html

AnarchX
2010-02-04, 20:12:53
Die 7 ROPs die GPU-Z ausließt, dürften wohl auf 7 Cluster hindeuten.
Also sogar 112SPs, die mit der Taktrate eher auf die Leistung einer 9600GSO hinauslaufen, was auch der Benchmark bei PC-Welt zeigt.