PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 200 Mobile @ 40nm und mit D3D10.1


AnarchX
2009-06-15, 18:52:32
Heute hat Nvidia ihre ersten 40nm GPUs vorgestellt die zugleich ihre ersten D3D10.1-fähigen GPUs sind. Eine weitere Neuerung ist der Einsatz von GDDR5.

Technische Daten:
http://img31.imageshack.us/img31/9937/48692475.jpg (http://img31.imageshack.us/i/48692475.jpg/)
http://img26.imageshack.us/img26/6302/capture15062009192400.png

Artikel:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/juni/geforce_200m-serie_dx_101_40/
http://www.techreport.com/discussions.x/17067

Größerer Die-Shot des GT215 (GTS 260/250):
http://s10b.directupload.net/images/090615/temp/rvrmu2cq.png (http://s10b.directupload.net/images/090615/rvrmu2cq.png)
... deutlich zu erkennen 12 Shadercores, die zu je drei an einer größeren Einheit verbunden sind.
Also 96SPs und 32 TMUs und keine deaktivierten Einheiten für schnellere Desktop-Ableger. (zum vergleichen: G92b (http://gallery.techarena.in/data/513/NVIDIA_GeForce_GTX_280M_GPUs.jpg), G200 (http://www.beyond3d.com/images/reviews/gt200-arch/gt200die-big.jpg))

Schätzung der Chipgrößen:
GTS 260/250 - GT215 - ~120mm²
GT 230/240 - GT216 - ~ 95mm²
G210 - GT218 - ~ 55mm²
Basis: Vergleich der Package-Fotos und zu Hilfenahme bekannter Die-Sizes @ http://www.nvidia.com/object/geforce_m_series.html

Spasstiger
2009-06-15, 19:05:54
In der Folie mit den technischen Daten ist ein Fehler, die GT 240M unterstützt nur DDR2, DDR3 und GDDR3. Also keinen GDDR5: http://www.nvidia.com/object/product_geforce_gt_240m_us.html

crux2005
2009-06-15, 19:08:15
schwer zu sagen wo der Fehler wirklich ist, denn auf den nV Seiten ist die Rede nur von D3D 10... also was jetzt? ;D

AnarchX
2009-06-15, 19:11:15
schwer zu sagen wo der Fehler wirklich ist, denn auf den nV Seiten ist die Rede nur von D3D 10... also was jetzt? ;D
Versteckt unter 'Features':

High Performance GeForce DirectX 10.1 Graphics Processor
NVIDIA® GeForce® GT performance class GPUs include a powerful DirectX 10.1, Shader Model 4.1 graphics processor, offering full compatibility with past and current game titles with all the texture detail, high dynamic range lighting and visual special effects the game developer intended the consumer to see. Water effects, soft shadows, facial details, explosions, surface textures and intricate geometry create cinematic virtual worlds filled with adrenalin pumping excitement. Of course all these special effects run at high resolution and playable frame rates for immersive heart-pounding action.
...bzw. 'Merkmale' in Dtl.:
Hochleistungsfähiger GeForce DirectX 10.1 Grafikprozessor

NVIDIA® GeForce® GTS Grafikprozessoren des Highend-Segments sind kompatibel mit DirectX® 10.1 und Shader Model 4.1 und unterstützen alle Details, HDR-Lichteffekte und Grafikeffekte, die die Entwickler bei allen klassischen und aktuellen Spielen vorgesehen haben. Wassereffekte, weiche Schatten, detaillierte Gesichter, Explosionen, Oberflächentexturen und komplexe Geometrien sorgen für virtuelle Welten in Kinoqualität voll rasanter Action. Selbstverständlich werden diese Spezialeffekte für spannendes Gaming bei spielbaren Frameraten und hoher Auflösung wiedergegeben.

crux2005
2009-06-15, 19:13:09
ja, aber ich wollte damit nur andeuten, das sie den GDDR5 support auch vieleicht vergessen haben, wie eben den 10.1

Spasstiger
2009-06-15, 19:16:41
ja, aber ich wollte damit nur andeuten, das sie den GDDR5 support auch vieleicht vergessen haben, wie eben den 10.1
GDDR5 macht bei diesem Chip leistungsmäßig allerdings keinen Sinn.
Ich denke, die GT 240M wird man überwiegend mit DDR2- und DDR3-Speicher sehen.

crux2005
2009-06-15, 19:24:04
ja, du hast Recht... trotzdem finde ich das ganze zu konfus, was nVidia über die chips presentiert - z.B. in der presentation/reviewers guide habe ich nichts von D3D 10.1 support gefunden etc. :rolleyes: reicht ja die FAQ:

Q: Do these chips support DirectX 10.1?
A: Yes.

edit, wieder aus FAQ:

http://img26.imageshack.us/img26/6302/capture15062009192400.png

Gast
2009-06-15, 19:26:13
Also das DIE-foto sieht verdammt seltsam aus.

GeneralHanno
2009-06-15, 19:27:43
wenn die diesies ansatzweise so stimmen, dann sind diese (in kombi mit einem sehr günstigen PCB dank 64/128bit SI) preislich extrem konkurrenzfähig gegenüber ATi einsteigerkarten.

crux2005
2009-06-15, 19:30:17
Also das DIE-foto sieht verdammt seltsam aus.

irgendwie schon, die "96 SPs" sehe ich, nur kann mit dem besten Willen keine 32TMUs zählen - es sind bei mir weniger oder mehr, was wiederum keinen Sinn ergibt

Sorkalm
2009-06-15, 19:34:53
ja, du hast Recht... trotzdem finde ich das ganze zu konfus, was nVidia über die chips presentiert - in der presentation/reviewers guide habe ich nichts von D3D 10.1 support gefunden etc. :rolleyes: reicht ja die FAQ:

Das darf nicht zu offensichtlich genannt werden, sonst fällt ja auf, dass das auf den Desktop-Chips fehlt. ;)

Szenario21
2009-06-15, 19:48:38
Wieso hat der G210 als low-end eigentlich so vergleichsweise hohe Taktraten? Würde das nicht eher zu den oberen Modellen passen?

Botcruscher
2009-06-15, 19:59:52
Um Chipfläche zur sparen. Takt kostet bei kleinen Chips doch kaum Geld.

Spasstiger
2009-06-15, 20:00:43
Wieso hat der G210 als low-end eigentlich so vergleichsweise hohe Taktraten? Würde das nicht eher zu den oberen Modellen passen?
Gute Frage, entweder macht NV das einfach nur, weil es problemlos geht (auch thermisch gesehen) und man die Leistung gegenüber dem Vorgänger merklich steigern wollte oder weil der GT218 vielleicht ein anderes TPC-/Shaderclusterdesign hat. Für die zweite Möglichkeit sprechen die nur 16 SPs. 8 von 24 SPs nur für die Yieldraten zu opfern, wäre schon etwas merkwürdig bei diesem kleinen Chip. Ich hab das mal Pi*Daumen berechnet ausgehend von 55 mm² Chipgröße und 7 mm² pro 8 SPs:

http://img2.pict.com/c4/65/d8/21464a082eef2d9c204ac5c0db/nsKtl/yield.gif

Angenommen habe ich dabei, dass bei beiden Varianten 24 SPs physikalisch vorhanden sind und dass bei der 16-SP-Variante in einer der drei 8er-Blöcke ein Defekt auftreten darf.
Man sieht, dass die Beschneidung von 24 SPs auf 16 SPs bei einem derart kleinen Chip erst bei Defektdichten ab 0,1 Defekten/cm² Vorteile bringt. Der Prozess bei TSMC muss also schon relativ schlecht sein, damit das lohnt.
/EDIT: Ich füge gleich noch eine Variante mit 16 SPs physikalisch und kleinere Chipfläche hinzu.
/EDIT2: Hab die Grafik erweitert. Jetzt sieht man noch deutlicher, dass es bei dieser Chipgröße sinniger wäre, direkt nur 16 SPs physikalisch zu verbauen statt 24, wovon 8 deaktiviert werden. Denn Defektdichten über 1 Defekt/cm² sind jenseits von Gut und Böse. Bei größeren Chips kann das Deaktivieren aber durchaus sinnvoll sein. Hängt halt immer von der Defektdichte des Prozesses ab.

P.S.: Sorry für die seltsame Beschriftung der x-Achse. Das hat Maple verbrochen und ich hab auf die Schnelle keine Option gefunden, um das zu ändern. Um es klar zu machen: Die x-Achse ist logarithmisch und geht von 0,01 bis 10 Defekten/cm². Üblich sind in der Industrie afaik unter 0,1 Defekten/cm² bei einem gut laufenden Prozess.

reunion
2009-06-15, 20:10:46
wenn die diesies ansatzweise so stimmen, dann sind diese (in kombi mit einem sehr günstigen PCB dank 64/128bit SI) preislich extrem konkurrenzfähig gegenüber ATi einsteigerkarten.

Bei 40nm vs. 55nm wäre alles andere auch lächerlich. Sonst kann keiner dieser Chips mit einem RV740 mithalten.

Gast
2009-06-15, 20:19:52
Sonst kann keiner dieser Chips mit einem RV740 mithalten.
Solange RV740 noch nicht verfügbar ist, ist dies kein Problem.

Jetzt hat Nvidia ebenfalls seine 40nm Produkte weit vorm funktionsfähigen 40nm Prozess am Start.
Außer den 3 Monaten Paperlaunch hat AMD keinen Nachteil, im Gegenteil jetzt hat Nvidia sogar momentan deutlich mehr 40nm Produkte am Start.
AMD muss die nächsten Monate nachlegen, wenn sie von einem funktionierenden 40nm Prozess profitieren wollen.

Gast
2009-06-15, 21:13:23
irgendwie schon, die "96 SPs" sehe ich, nur kann mit dem besten Willen keine 32TMUs zählen - es sind bei mir weniger oder mehr, was wiederum keinen Sinn ergibt

Ich frage mich vor allem was das hier soll:

http://img219.imagevenue.com/loc26/th_93134_Unbenannt-1_122_26lo.jpg (http://img219.imagevenue.com/img.php?image=93134_Unbenannt-1_122_26lo.jpg)

Da trennt man augenscheinlich zusammengehörige einheiten auf und fügt sie an den rändern wieder ein?

Gast
2009-06-15, 21:16:56
Die SP Cluster eines GT200 sind auch räumlich in 4 Teile geteilt.

AnarchX
2009-06-15, 21:20:29
Ich frage mich vor allem was das hier soll:

Da trennt man augenscheinlich zusammengehörige einheiten auf und fügt sie an den rändern wieder ein?
Ein Shadercore besteht eher aus 3 solchen "Streifen", siehe auch die Links zu den Die-Shots von G92b und G200.

Siehe auch: http://images.bit-tech.net/content_images/2008/06/nvidia-geforce-gtx-280-architecture-review/tpc.jpg

mboeller
2009-06-16, 10:37:51
Eine Frage zur GT 240M:

die 800MHz GDDR5 sind doch langsamer als die 800MHz GDDR3 für die GT 230M.

Kann es also sein, das alte Spiele + AA auf der GT 240M langsamer sein können als mit der GT 230M? Wäre doch sonderbar, oder?

y33H@
2009-06-16, 10:58:22
Warum sind 800 MHz GDDR5 langsamer?

Gast
2009-06-16, 11:16:46
dürfte einen fehler sein, den es würde ja kaum sinn ergeben 800MHz GDDR5 zu verbauen...

auf der karte ist sicher auch GDDR3?

crux2005
2009-06-16, 12:54:47
ja, max. GDDR3: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7361341&postcount=7

Coda
2009-06-16, 13:09:23
Ich frage mich vor allem was das hier soll:
Zähle das sich widerholende Muster.

Siehe auch: http://images.bit-tech.net/content_images/2008/06/nvidia-geforce-gtx-280-architecture-review/tpc.jpg
Das ist "Thread Prozessor" aber falsch eingezeichnet. Die 8 Einheiten gehen mit ihren Registerbänken über die komplette Länge des Arrays, deshalb geht das so auch gar nicht.

LovesuckZ
2009-06-23, 21:09:33
Nvidias Geforce GT 240M in ersten Notebooks gesichtet (http://www.pcgameshardware.de/aid,688032/Nvidias-Geforce-GT-240M-in-ersten-Notebooks-gesichtet/Notebook-Netbook/News/).
Nach fast 3 1/2 monatige spätere Ankündigung der 40nm Mobile Parts ist man nun vor AMD im Rennen der ersten Notebooks. Spannendes Rennen, wessen Chip zu erst den Markt erreicht.

Nakai
2009-06-23, 22:49:51
Nach fast 3 1/2 monatige spätere Ankündigung der 40nm Mobile Parts ist man nun vor AMD im Rennen der ersten Notebooks. Spannendes Rennen, wessen Chip zu erst den Markt erreicht.

Nö, AMD Notebooks wurden schon deutlich früher gesichtet, aber wer zuerst seinen Notebook auf den Markt bringt, der hat gewonnen.

Ich hoffe diese 40nm-Chips kommen auch auf den Desktopmarkt. Ich hätte ein hohes Interesse an diesen Karten.


mfg Nakai

LovesuckZ
2009-06-23, 22:52:36
Nö, AMD Notebooks wurden schon deutlich früher gesichtet, aber wer zuerst seinen Notebook auf den Markt bringt, der hat gewonnen.


Das Asus Book auf der Cebit war ein Fake Notebook ohne einem rv740m.
Ob solch ein Chip im Book auf der Computex enthalten war, kann ich nicht sagen. Vielleicht findet jemand einen Link mit den Specs des grafikchips.
Zur Zeit sieht es eher danach aus, dass nVidia eher auf dem Markt sein wird.

reunion
2009-06-24, 07:47:46
Nö, AMD Notebooks wurden schon deutlich früher gesichtet, aber wer zuerst seinen Notebook auf den Markt bringt, der hat gewonnen.

Ich hoffe diese 40nm-Chips kommen auch auf den Desktopmarkt. Ich hätte ein hohes Interesse an diesen Karten.


mfg Nakai

Es hängt ohnehin alles am Prozess. Wenn dann kommen nur kleine Dosen von beiden bis der Prozess läuft. Spannend ist da höchstens LovesuckZs Aufgeilungsprozess weil man jetzt 3 1/2 Monate nach AMD ein erstes Notebook sieht.

reunion
2009-06-24, 12:49:42
Bei Geizhals ist ein Acer-Gerät zumindest schon mal eingetragen:
http://geizhals.at/eu/a440808.html

Gast
2009-06-24, 20:36:22
Vaporware von AMD während Nvidia liefern kann. Das ist wirklich peinlich für AMD. Wollen hier die große 40nm Show abziehen und dann geht der Schuß dermaßen nach hinten los.

Nakai
2009-06-24, 20:40:55
Für mich sieht es eher so aus, als ob AMD den RV740 nur noch halbherzig unterstützt. Evtl sehen wir einen DX11 RV740 relativ bald.

Wie dem auch sei, die neuen 40nm-Dinger von NV sind sehr interessant. Würden die für den Desktop erscheinen, dann würde ich zuschlagen.


mfg Nakai

Spasstiger
2009-06-24, 22:43:04
Vaporware von AMD während Nvidia liefern kann. Das ist wirklich peinlich für AMD. Wollen hier die große 40nm Show abziehen und dann geht der Schuß dermaßen nach hinten los.
Naja, Nvidia ist performancetechnisch selbst mit dem GT 214 noch eine Stufe unter dem RV740, ergo keine direkte Konkurrenz. Und bisher wurde ja sogar nur die Mainstream-GPU gezeigt.

Gast
2009-06-24, 22:47:07
Falls es dir noch nicht aufgefallen ist: es geht hier um lieferbare Notebook Chips in 40nm.

Wo ist denn die mobility 4860?

http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/maerz/amd_grafikkarten_40/

Gast
2009-06-24, 23:49:51
Naja, Nvidia ist performancetechnisch selbst mit dem GT 214 noch eine Stufe unter dem RV740, ergo keine direkte Konkurrenz. Und bisher wurde ja sogar nur die Mainstream-GPU gezeigt.
Erstens gehts um 40nm GPUs.

Zweitens hat GT214 durchaus Konkurrenz. Irgendwelche 55nm RV7xx.
Erst haben gewiese Leute die 40nm Trommel geschwungen, und wie schlimm es für Nvidia wäre wenn AMD mit RV740 am Markt ist, jetzt können die 40nm GT2xx abräumen, ohne ernsthafte/gefährliche Konkurrenz.

Nakai
2009-06-25, 00:52:42
Ernsthaft, es ist lächerlich.

Hui, schaut mich an. AMD/NV hat den ersten 40nm-Notebookchip veröffentlicht. Nur vom Gedanke daran bekomm ich einen Orgasmus.

Fakt ist, der RV740 wäre ne heiße NB-Grafikkarte. Ebenso sehe ich die 40nm-Dinger von NV. Nur hab ich ein NB mit Hd3650. Mich interessiert das derzeit gar nicht. Für Leute die ein Notebook kaufn wollen, denen könnte das interessieren.


mfg Nakai

Spasstiger
2009-06-25, 01:49:19
Erstens gehts um 40nm GPUs.
Falls es dir noch nicht aufgefallen ist: es geht hier um lieferbare Notebook Chips in 40nm.
Haltet ihr mich für total bescheuert? Arrogante Gäste sind echt zum Kotzen.

Natürlich weiß ich, dass es um 40-nm-Notebook-GPUs geht, das zeigt ja alleine schon der Threadtitel. Und eine Mobility Radeon HD 4860 wäre schneller als alles, was mit dem GT214 möglich ist. Allerdings gibts ja noch gar keine Notebooks mit GT214, genauso wenig wie es Notebooks mit der HD 4860 gibt.
Dafür gibts erschwingliche Notebooks mit einer Radeon HD 4850. Zwar 55 nm, aber wen juckts, wenn die Verbrauchswerte ok sind und die Performacne am oberen Ende von dem angesiedelt ist, wo NV momentan steht? Die Fertigungstechnologie kann einem doch scheissegal sein, das Endprodukt zählt.

reunion
2009-06-25, 09:16:22
Falls es dir noch nicht aufgefallen ist: es geht hier um lieferbare Notebook Chips in 40nm.

Wo kann ich NV 40nm Notebook-Chips kaufen?


Wo ist denn die mobility 4860?


Die Mobility Radeon 4860 ist schneller wie alles was du von NV aktuell bekommst, einschließlich der 280M. Soviel dazu. Und den Chio kann ich am Desktop wenn auch in geringen Dosen schon länger kaufen.

LovesuckZ
2009-06-25, 09:34:43
Vaporware mit existierenden zu vergleichen ist so absurd. ;D


Dafür gibts erschwingliche Notebooks mit einer Radeon HD 4850. Zwar 55 nm, aber wen juckts, wenn die Verbrauchswerte ok sind und die Performacne am oberen Ende von dem angesiedelt ist, wo NV momentan steht? Die Fertigungstechnologie kann einem doch scheissegal sein, das Endprodukt zählt.

Es gibt ein 17" Notebook. Dagegen gibt es duzend mit GTX260 und GTX280 (und nicht die 9800 Karten vergessen) und ein paar 15,4" Books mit einer 9800gs (91% Leistung der Desktop 9600gt) bzw. GTX260M.

Gast
2009-06-25, 09:45:10
Ich hoffe diese 40nm-Chips kommen auch auf den Desktopmarkt. Ich hätte ein hohes Interesse an diesen Karten.Soweit ich informiert bin, kommen diese Chips niemals auf Desktop-Karten, wenn es nach Nvidia geht.

deekey777
2009-06-27, 11:30:12
Soweit ich informiert bin, kommen diese Chips niemals auf Desktop-Karten, wenn es nach Nvidia geht.
Macht es für einen Grafikchip einen Unterschied, ob er in einem Laptop landet oder in einem PC?

Gast
2009-06-27, 12:25:22
Wo kann ich NV 40nm Notebook-Chips kaufen?

Du weißt, das man keine einzelnen GPUs kaufen kann, weder bei Nvidia, noch bei AMD.

Was du eigentlich wissen wolltest ist: Wo gibt es ein Notebook mit 40nm Nvidia GPU zu kaufen.
Da kann man zurückfragen: Wo gibt es seit einem halben Jahr Notebooks mit 40nm AMD GPU zu kaufen?


Die Mobility Radeon 4860 ist schneller wie alles was du von NV aktuell bekommst, einschließlich der 280M.
Kannst du das auch belegen?


Und den Chio kann ich am Desktop wenn auch in geringen Dosen schon länger kaufen. Richtig, nach dem Paperlaunch vor einem halben Jahr gibts immer mal wieder ein paar 4770. Deshalb wurden auch die anderen 47xx eingeführt, die ebenfalls schneller als 48xx sind.

Nützt mir aber wenig, wenn ich ein Notebook mit 40nm AMD GPU haben will.

nauticalsphere
2009-06-27, 17:10:13
Ich meine mich erinnern zu können, dass Nvidia auf DX10.1 verzichten wollte, weil es nichts bringen sollte. Vielleicht wird es deswegen nicht so an die Große Glocke gehangen, dass sie es jetzt doch bringen.
Natürlich nur ne Vermutung!

VooDoo7mx
2009-06-27, 17:15:25
Wurden eigentlich überhaupt schon Notebooks mit mobilen 40nm Lösungen (egal ob jetzt nV oder ATi) vorgestellt?

Gast
2009-06-27, 18:08:20
Ich meine mich erinnern zu können, dass Nvidia auf DX10.1 verzichten wollte, weil es nichts bringen sollte. Vielleicht wird es deswegen nicht so an die Große Glocke gehangen, dass sie es jetzt doch bringen.
Natürlich nur ne Vermutung!
Nvidia hat sich den OEMs gebeugt, die .1 als Checklistenfeature brauchen.

deekey777
2009-06-28, 00:27:22
Du weißt, das man keine einzelnen GPUs kaufen kann, weder bei Nvidia, noch bei AMD.

Was du eigentlich wissen wolltest ist: Wo gibt es ein Notebook mit 40nm Nvidia GPU zu kaufen.
Da kann man zurückfragen: Wo gibt es seit einem halben Jahr Notebooks mit 40nm AMD GPU zu kaufen?


Kannst du das auch belegen?

Richtig, nach dem Paperlaunch vor einem halben Jahr gibts immer mal wieder ein paar 4770. Deshalb wurden auch die anderen 47xx eingeführt, die ebenfalls schneller als 48xx sind.

Nützt mir aber wenig, wenn ich ein Notebook mit 40nm AMD GPU haben will.
Vor einem halben Jahr? Seltsam. Denn AMD hat die mobilen RV740 erst am 3. März vorgestellt (http://www.heise.de/mobil/Schnelle-Notebook-Grafikchips-in-40-nm-Technik--/newsticker/meldung/133914). Aber wie ich schon schrieb: Welchen Unterschied macht es für einen Grafikchip, wo er eingesetzt wird?

Eure Blindheit ist wirklich unmöglich. Die Notebooks wurden für dieses Quartal angekündigt. Jeder weiß, dass es Probleme mit der Fertigung ist. Und jeder weiß, dass die RV740 Mangelware sind.

:crazy2:

Gast
2009-06-28, 10:28:21
Aber wie ich schon schrieb: Welchen Unterschied macht es für einen Grafikchip, wo er eingesetzt wird?

Falls es dir nicht aufgefallen ist, reunion schreibt von Notebooks.


Eure Blindheit ist wirklich unmöglich. Die Notebooks wurden für dieses Quartal angekündigt. Jeder weiß, dass es Probleme mit der Fertigung ist. Und jeder weiß, dass die RV740 Mangelware sind.
Gleiches gilt für 40nm GT2xx.
Nur das deren Paperlaunch weniger lange her ist und man bereits von Notebooks gehört hat.


Einen spekultativen Vorteil hätten die GT2xx:
Es gibt weniger Bestellungen, ergo kürzere Wartelisten. Die Bestelllisten des RV740 müssen elend lang sein, bis da mal ein neuer Kunde einen bekommt kanns ewig dauern.

reunion
2009-06-29, 17:02:30
Falls es dir nicht aufgefallen ist, reunion schreibt von Notebooks.

Aja:
Falls es dir noch nicht aufgefallen ist: es geht hier um lieferbare Notebook Chips in 40nm.

Solange dir immer alles auffällt. Ich habe ausdrücklich auch auf die Desktopchips verwiesen, du warst scharf darauf so zu tun als ob der Desktop nicht existieren würde.

Kannst du das auch belegen?

Kaufe dir die aktuelle PCGH. Aber es lässt sich auch ganz einfach argumentativ darlegen. Eine GTX280M ist nicht mehr wie ein G92 mit 583Mhz.

Gast
2009-06-29, 19:23:37
Eine GTX280M ist nicht mehr wie ein G92 mit 583Mhz.

Und dennoch hat ATI nichts in dieser Leistungsklasse zu bieten.

reunion
2009-06-29, 19:26:05
Und dennoch hat ATI nichts in dieser Leistungsklasse zu bieten.

Doch. Die Mobility Radeon 4850.

PCGH_Carsten
2009-07-01, 13:22:42
PCGH 08/2009, S.33: "Die Mob. HD 4850 ist etwas schneller als die GTX 280M".

Gast
2009-07-01, 23:11:13
fps-Balkenlänge ist nicht gleich Leistung. Denn dazu gehört auch noch die Bildqualität.

Gast
2009-07-03, 10:58:07
Auf FullHD-17" Notebookdisplays, die spiegeln und mehr oder weniger stark winkelabhängig sind (helligkeit/farbverfälschung)? ich glaube kaum das es da auf die bessere "Bildqualität" des einen oder anderen grafikchips ankommt ;)

Gast
2009-07-03, 11:42:27
Auf FullHD-17" Notebookdisplays, die spiegeln und mehr oder weniger stark winkelabhängig sind (helligkeit/farbverfälschung)? ich glaube kaum das es da auf die bessere "Bildqualität" des einen oder anderen grafikchips ankommt ;)


Warum nicht? Zumindest im dunklen raum stören die spiegelungen nicht mehr und die winkelabhängigkeit kann auch kein flimmern verhindern.

AnarchX
2009-07-23, 09:43:06
Acer Aspire 5739G-734G32MN mit GT 240M lieferbar (http://geizhals.at/deutschland/a443040.html)

LovesuckZ
2009-07-23, 09:50:15
Ha, sie schafften es nach fast 1 1/2 Monaten nach dem Paperlaunch.

nagus
2009-09-03, 17:51:52
Geforce G210: Nvidias erste DirectX-10.1-Karte mit GT218-Chip im Test (http://www.pcgameshardware.de/aid,694172/Geforce-G210-Nvidias-erste-DirectX-101-Karte-mit-GT218-Chip-im-Test/Grafikkarte/Test/)


IMHO ein schlechter witz. das teil ist langsamer, lauter, heißer und fast jahre verspätet im vergleich zur 4380er die in 55nm gefertigt wird. wenn das alles ist was nvidia mit 40nm zum besten gibt dann...

Spasstiger
2009-09-03, 18:15:40
heißer
Heißer? Die Temperatur der HD 4350 wurde doch gar nicht gemessen. Aber insgesamt natürlich eine enttäuschende Vorstellung. Vor allem der Bug bei der Lüftersteuerung muss echt nicht sein.
Ich frage mich nur, wie groß die Speichermenge bei der HD 4350 ist. Mit nur 256 MiB hätte sie natürlich Vorteile bei der Leistungsaufnahme.

LovesuckZ
2009-09-03, 18:19:02
Schade, dass wiedermal nicht verstanden wird, warum solche Karten existieren. Aber vielleicht will ja noch jemand den 9400m Chipsatz vergleichen - der wird auch nicht schlechter abschneiden. :lol:

Spasstiger
2009-09-03, 18:20:13
Schade, dass wiedermal nicht verstanden wird, warum solche Karten existieren. Aber vielleicht will ja noch jemand den 9400m Chipsatz vergleichen - der wird auch nicht schlechter abschneiden. :lol:
Der wird auf jeden Fall besser abschneiden, da IGP und passiv gekühlt. Ergo leiser und sparsamer.

LovesuckZ
2009-09-03, 18:55:13
Der wird auf jeden Fall besser abschneiden, da IGP und passiv gekühlt. Ergo leiser und sparsamer.

Richtig - es handelt sich hier einfach um einen billig herzustellenden Chip für Intel Notebookplattformen. Und mit ca. 57mm^2 ist man damit konkurrenzlos klein und kann ziemlich aggressiv die Preise diktieren. Da 10.1 unterstützt wird, ist das "Win7 Ready" Logo auch in der Tasche. Es interessiert niemanden, dass die Karte langsamer ist als andere. Spielt im Notebookbereich überhauptkeine Rolle.

MadManniMan
2009-09-03, 18:56:57
Das ist eine OEM-Karte - man kann Rückschlüsse auf die Leistungsaufnahme und die Geschwindigkeit ziehen, sonst aber keine.

20 Watt scheinen in Anbetracht der 40 nm happig, aber es ist auch bestens möglich, dass ein x-fach breiteres Design weitaus effizienter ist. Warten wirs ab.

HD-Ronny
2009-09-03, 19:11:43
Ich warte auf eine Desktop SLI Karte mit dem Chip, das wär doch ein schöner 7950GX2 Nachfolger :) naja, werd ich wohl lange warten müssen ... :D

MadManniMan
2009-09-03, 19:15:01
Ich hätte auch gern mal wieder eine brauchbare GeForce des besseren 3D-Treibers wegen, doch kann ich mich mit der Leistungsaufnahme der aktuellen Karten nicht anfreunden. Vielleicht tut sich ja bald mit den kommenden 40nm-Karten etwas.

Raff
2009-09-03, 19:34:09
Ich hätte auch gern mal wieder eine brauchbare GeForce des besseren 3D-Treibers wegen, doch kann ich mich mit der Leistungsaufnahme der aktuellen Karten nicht anfreunden. Vielleicht tut sich ja bald mit den kommenden 40nm-Karten etwas.

Eine GTX 285 "verbraucht" im besten Fall unter 30 Watt im Leerlauf (dito GTX 275 und 260), unter Last sind's dann ~150 (GTX 260-55nm) bis 180 Watt (GTX 285). Ist das sooo schlimm? ;)

MfG,
Raff

MadManniMan
2009-09-03, 19:56:17
Jau, isses. Hab hier eine 3850, die im IDLE weit freundlicher ist und unter Last um ne Größenordnung weniger verbraucht.

Der Lastverbrauch ists, der mich stört. Ich weiß: High-End oder auch Performance fällt aus, aber hey, ich bin nunmal ne andere Zielgruppe.

y33H@
2009-09-03, 20:03:32
Eine 3850 zieht etwas weniger als 20 Watt idle iirc ;) Und wie du sagst - die Performance ist nach aktuellen Maßstäben nun mal Low(est)-End.

Gummikuh
2009-09-03, 20:41:32
Nun ja, habe meine HD3850 durch eine Sapphire HD4850 Vapor-X 1GB ersetzt, die sind ja vom Verbrauch her recht ähnlich.

Letztere hat laut PCGH einen Verbrauch von 19/91 W (in der Bestenliste stehen da aber 91/91 W, kleiner Zahlendreher, ne.:rolleyes:

Es gibt doch noch diese GTS250 Eco Dinger, die müssten doch auch in dieser Region liegen.

MadManniMan
2009-09-03, 20:43:42
Stock irgendwas um die 16 Watt IIRC, aber ich volte und takte sie noch ein bissel runter. Aber wie gesagt: Load ist momentan echt übel bei so ziemlich allem außer der 4770. Klar: besser gehts technisch nicht bzw. nur kaum; obwohl ich gehofft hätte, dass die IHVs den 55nm-Prozess mit der Zeis noch ein wenig besser hinbekommen...

Aber eben drum wirds Zeit für vernünftige 40nm-Lösungen.

PCGH_Raffael
2009-09-03, 20:45:32
Letztere hat laut PCGH einen Verbrauch von 19/91 W (in der Bestenliste stehen da aber 91/91 W, kleiner Zahlendreher, ne.:rolleyes:

Oha, danke für die Info – ist in der 11/2009 dann gefixt. :) Ja, die Karte ist vor allem dank ihres kaum hörbaren Lüfters interessant.

MfG,
Raff

Gast
2009-09-03, 21:10:55
Eine GTX 285 "verbraucht" im besten Fall unter 30 Watt im Leerlauf (dito GTX 275 und 260), unter Last sind's dann ~150 (GTX 260-55nm) bis 180 Watt (GTX 285). Ist das sooo schlimm? ;)

MfG,
Raff


Wieviel braucht ne untertaktete 4890?

y33H@
2009-09-03, 21:17:14
iirc so knapp 35 Watt @ 150/200 MHz.

reunion
2009-09-03, 21:39:30
Weniger. Eine 3850 liegt bei Xbitlabs übrigens bei 13.5W.

MadManniMan
2009-09-03, 21:48:05
Da fällt mir auf, dass ich meine Liste mal wieder aktualisieren sollte :usad:

y33H@
2009-09-03, 21:55:04
Weniger.Was macht dich da so sicher? ;)

reunion
2009-09-03, 22:31:10
Was macht dich da so sicher? ;)

Eine 4870 benötigt mit 100/200 MHz 28.6W bei HTU4:
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index10.php

Eine 4890 ist unter idle zumindest nicht stromhungringer trotz höherem Speichertakt. AFAIK sogar geringfügig sparsamer. Und man sollte sie durch den höheren Takt weiter untertakten können.

y33H@
2009-09-03, 22:33:13
Nicht schlecht, dann hatte ich das falsch im Kopf ;(

Gast
2009-09-04, 00:45:12
Weniger. Eine 3850 liegt bei Xbitlabs übrigens bei 13.5W.
Xbitlabs kann man diesbezüglich leider nicht mehr ernst nehmen, die haben immer wieder völlig absurde "Messergebnisse" geliefert. :(

Coda
2009-09-04, 00:50:37
Inwiefern "absurd"? Ihre Messmethode ist zumindest solide.

y33H@
2009-09-04, 01:08:14
Die haben zwischenzeitlich halt ein paar Böcke geschossen *Schulter zuck*

reunion
2009-09-04, 07:38:00
Xbitlabs kann man diesbezüglich leider nicht mehr ernst nehmen, die haben immer wieder völlig absurde "Messergebnisse" geliefert. :(

Ich denke das hängt eher mit dem zur Auslastung genommenen 3dmark06 zusammen, der ist einfach nicht mehr zeitgemäß für soetwas. Beim idle-Verbrauch kann man aber wenig falsch machen.

mboeller
2009-09-04, 09:56:31
Das ist eine OEM-Karte - man kann Rückschlüsse auf die Leistungsaufnahme und die Geschwindigkeit ziehen, sonst aber keine.

20 Watt scheinen in Anbetracht der 40 nm happig, aber es ist auch bestens möglich, dass ein x-fach breiteres Design weitaus effizienter ist. Warten wirs ab.

20 Watt wären schon viel. die neuen Lowend-GPUs von AMD sollen ja nur < 8Watt brauchen: http://gathering.tweakers.net/forum/view_message/32310888

MadManniMan
2009-09-04, 10:13:22
Da geht es aber anscheinend um den IDLE-Verbrauch - die zitierte 20 Watt bezogen sich auf LOAD.

mboeller
2009-09-04, 16:30:16
Da geht es aber anscheinend um den IDLE-Verbrauch - die zitierte 20 Watt bezogen sich auf LOAD.

Schau dir die Liste an. Die 8Watt müssen auch unter LOAD sein. Ansonsten macht das ganze keinen Sinn.

LovesuckZ
2009-09-04, 16:35:34
Man wird 8 Watt kaum in 40nm schaffen. Schau dir nVidia's GT218 an - der wird im Mobilesektor mit 14 Watt angegeben. Und kleiner als das geht es kaum. Wenn man dann den GT215 vergleicht, der 4 statt einen Cluster hat und dabei "nur" 28 Watt verbraucht, zeigt, dass der große Stromfresse eben nicht die GPU ist, sondern vielmehr die Infrastruktur.

Spasstiger
2009-09-04, 17:18:10
Bin mal auf den Stromverbrauch des Ion-2-Chipsatzes gespannt. Der wird ja höchstwahrscheinlich einen GT218 als Basis für den IGP verwenden und ebenfalls in 40 nm gefertigt werden. Der bisherige Ion in 55 nm hat eine TDP von 16 Watt.

AnarchX
2009-09-08, 18:25:59
Bin mal auf den Stromverbrauch des Ion-2-Chipsatzes gespannt. Der wird ja höchstwahrscheinlich einen GT218 als Basis für den IGP verwenden und ebenfalls in 40 nm gefertigt werden.
Ion 2 wird wohl deutlich schneller sein, was er auch muss: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7390833#post7390833

DrFreaK666
2009-09-09, 12:28:26
Ich hab hier nen Notebook mit einer GT220M.
Wollte ihn ursprünglich als HTPC verwenden.
Doch danke den tollen NV-Treibern habe ich auf meinem HTPC nicht den gesamten Desktop in 1360x768 :mad:
Weshalb ich wieder meinen HTPC als HTPC verwenden (mit ATI-Grafikchip (wollte ich ursprünglich verkaufen (danke NV)))
Mein HTPC mit A64 X2-4600 mit HD3850 ist übrigens schneller als mein T6500 mit GT220

Spasstiger
2009-09-09, 12:54:13
Mein HTPC mit A64 X2-4600 mit HD3850 ist übrigens schneller als mein T6500 mit GT220
Das ist auch nicht verwunderlich. Selbst die Desktop-GT-220 kann einer HD 3850 nicht die Stirn bieten. Und GT 220M hat anscheinend nichtmal 48 SPs, sondern nur 32 SP. Und das bei Asus angeblich gepaart mit langsamen DDR2-Speicherchips.
Kannst du mal mit GPU-Z und evtl. auch Shaderbenchmarks prüfen, ob die Karte wirklich nur 32 SPs hat? Laufen DX10.1-Demos (http://www.humus.name/index.php?page=3D&ID=81)? Gut möglich, dass es nur eine umbenannte GeForce 9600M ist, welche auf dem G96 basiert (32 SPs, 16 TMUs, 8 ROPs, 128-Bit-SI).

Und die Prozessoren (Core 2 Duo T6500 und Athlon 64 X2 4600+) nehmen sich auch nicht viel.

DrFreaK666
2009-09-09, 13:52:39
Das ist auch nicht verwunderlich. Selbst die Desktop-GT-220 kann einer HD 3850 nicht die Stirn bieten. Und GT 220M hat anscheinend nichtmal 48 SPs, sondern nur 32 SP. Und das bei Asus angeblich gepaart mit langsamen DDR2-Speicherchips.
Kannst du mal mit GPU-Z und evtl. auch Shaderbenchmarks prüfen, ob die Karte wirklich nur 32 SPs hat? Laufen DX10.1-Demos (http://www.humus.name/index.php?page=3D&ID=81)? Gut möglich, dass es nur eine umbenannte GeForce 9600M ist, welche auf dem G96 basiert (32 SPs, 16 TMUs, 8 ROPs, 128-Bit-SI).

Und die Prozessoren (Core 2 Duo T6500 und Athlon 64 X2 4600+) nehmen sich auch nicht viel.

Soweit ich weiss wurde GDDR3 eingebaut.
Werde später mal GPU-Z Screenshots posten

Spasstiger
2009-09-09, 13:58:46
Soweit ich weiss wurde GDDR3 eingebaut.
Werde später mal GPU-Z Screenshots posten
Lass aber am Besten auch mal einen Shaderbenchmark laufen, die Datenbank von GPU-Z ist bei inoffiziellen Grafikkarten wie der GeForce GT 220M nicht immer korrekt.
Hier hast du Benchmarks zum Vergleichen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/6/#abschnitt_theoretische_benchmarks
Shadermark, was weiter unten auf der Seite abgebildet ist, wäre ganz gut geeignet.
Wenn die GeForce GT 220M wirklich auf dem GT216 basiert und nicht einheitenmäßig abgespeckt ist, müsste sie eine höhere Shaderleistung als die GeForce 9500 GT abliefern. Wenn sie auf dem G96 basiert, ist sie wegen der niedrigeren Taktraten langsamer als eine 9500 GT.

Coda
2009-09-09, 14:02:49
Das kritisier ich auch schon seit langem an GPU-Z. Das ganze liest nichts aus, sondern ist nur eine große Datenbank.

DrFreaK666
2009-09-09, 14:03:02
Lass aber am Besten auch mal einen Shaderbenchmark laufen, die Datenbank von GPU-Z ist bei inoffiziellen Grafikkarten wie der GeForce GT 220M nicht immer korrekt.
Hier hast du Benchmarks zum Vergleichen:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/6/#abschnitt_theoretische_benchmarks
Shadermark, was weiter unten auf der Seite abgebildet ist, wäre ganz gut geeignet.
Wenn die GeForce GT 220M wirklich auf dem GT216 basiert und nicht einheitenmäßig abgespeckt ist, müsste sie eine höhere Shaderleistung als die GeForce 9500 GT abliefern. Wenn sie auf dem G96 basiert, ist sie wegen der niedrigeren Taktraten langsamer als eine 9500 GT.

alles klar :)

LovesuckZ
2009-09-09, 14:06:17
Es gibt laut nVidia.com keine GT220m. Auch auf der deutschen Seite wird eine GT220m nicht genannt.
Welches Notebook hast du dir daher gekauft?

AnarchX
2009-09-09, 14:47:00
Die GT 220M ist natürlich eine Eigenbezeichnung von Medion und basiert laut Treiber inf auf dem G96.

reunion
2009-09-09, 14:47:56
Die GT 220M ist natürlich eine Eigenbezeichnung von Medion und basiert laut Treiber inf auf dem G96.

Na toll. :rolleyes:

Spasstiger
2009-09-09, 14:58:22
Na toll. :rolleyes:
Welcome to the Namensjungle. :D

LovesuckZ
2009-09-09, 14:59:02
Die GT 220M ist natürlich eine Eigenbezeichnung von Medion und basiert laut Treiber inf auf dem G96.

Interessant - Asus bietet ein Notebook mit dieser GT220m an... Keine feine Sache. :rolleyes:

AnarchX
2009-09-09, 15:02:07
Welcome to the Namensjungle. :D
Zum Glück scheint es so, dass sich hinter den kommenden GeForce 300M nur GT21x GPUs verbergen. ;D

reunion
2009-09-09, 15:14:19
Zum Glück scheint es so, dass sich hinter den kommenden GeForce 300M nur GT21x GPUs verbergen. ;D

Das ist ja schon wieder die gleiche Scheiße welche man eh schon lange kritisiert. NV scheint das egal zu sein, der Umbenennungswahn geht munter weiter. Als G200-Serie launchen, wenig später als G300-Serie neu auflegen und zum Schluss vielleicht noch als G400-Serie. Und selbst da weiß man nicht ob nicht noch ein paar G96 oder so auf Lager liegen welche man nicht auch noch irgendwie verwerten könnte. Sorry, aber das kann es nicht sein.

Coda
2009-09-09, 15:26:01
Nun, die Sache ist eben, dass Features heutzutage für lange Zeit gleich bleiben. Es wird wohl nichtmal ein 11.1 geben.

Es ist marktwirtschaftlich ja nicht immer sinnvoll einen neuen Chip zu produzieren, nur weil er im neuen Lineup nach unten gerutscht ist. Die-Shrinks jetzt mal außen vor.

reunion
2009-09-09, 16:10:23
Nun, die Sache ist eben, dass Features heutzutage für lange Zeit gleich bleiben. Es wird wohl nichtmal ein 11.1 geben.

Das Argument zieht in dem Fall nicht. G2xxm wäre DX10.1, G3xx sollte eigentlich DX11 sein.

LovesuckZ
2009-09-09, 16:16:10
Aber 10.0 und 10.1 in einer Namensgebung, gell? :rolleyes:

Botcruscher
2009-09-09, 16:43:23
Aber 10.0 und 10.1 in einer Namensgebung, gell? :rolleyes:


Immer noch besser als DX10.X und DX11. Ausserdem sind es ja M Chips. Da bekommt man ja eh was anderes (meist abgespecktes) gegenüber dem Desktop. M sollte da als Unterscheidung schon reichen.

Spasstiger
2009-09-09, 16:51:35
Immer noch besser als DX10.X und DX11. Ausserdem sind es ja M Chips. Da bekommt man ja eh was anderes (meist abgespecktes) gegenüber dem Desktop. M sollte da als Unterscheidung schon reichen.
Leider wird das M von den meisten Käufern ignoriert bzw. nicht richtig verstanden. Wenn da GeForce 9600M GT steht, dann schaut man schnell mal die Benchmarks von der GeForce 9600 GT von Anfang 2008 an und stellt fest, dass die ja ziemlich flott ist im Vergleich. Und der ahnungslose Media-Markt-Verkäufer versichert dem Kaufinteressenten natürlich, dass die 9600M GT die perfekte Gaming-Grafikkarte ist und fantastische, kinoreife Effekte zaubert. Wo die ja sogar 1 GiB Grafikspeicher hat und einfach geil sein muss. Dass es nur DDR2-Speicher ist, verschweigt der Notebookhersteller natürlich.
Und daheim versucht der "geprellte" Käufer seinen Kauf noch vor seinen Kumpels mit ihren hochgezüchteten Desktop-Rechnern zu rechtfertigen und schiebt die Schuld an den schlechten Benchmarkergebnissen auf Microsoft und Windows Vista.

Botcruscher
2009-09-09, 16:57:20
Das mag ja sein. Aber es ist immer noch besser wenn er mit der 9600GT vergleicht als mit einer fiktiven "GT380". Unbefriedigend ist es alle mal aber immer noch besser als Chips mit unterschiedlichem Featureset in eine Namensklasse zu stecken.

DrFreaK666
2009-09-09, 17:25:28
Leider wird das M von den meisten Käufern ignoriert bzw. nicht richtig verstanden. Wenn da GeForce 9600M GT steht, dann schaut man schnell mal die Benchmarks von der GeForce 9600 GT von Anfang 2008 an und stellt fest, dass die ja ziemlich flott ist im Vergleich. Und der ahnungslose Media-Markt-Verkäufer versichert dem Kaufinteressenten natürlich, dass die 9600M GT die perfekte Gaming-Grafikkarte ist und fantastische, kinoreife Effekte zaubert. Wo die ja sogar 1 GiB Grafikspeicher hat und einfach geil sein muss. Dass es nur DDR2-Speicher ist, verschweigt der Notebookhersteller natürlich.
Und daheim versucht der "geprellte" Käufer seinen Kauf noch vor seinen Kumpels mit ihren hochgezüchteten Desktop-Rechnern zu rechtfertigen und schiebt die Schuld an den schlechten Benchmarkergebnissen auf Microsoft und Windows Vista.

Ich habe mich vor dem Kauf schon informiert.
Der GT220M sollte zwischen 9600M GT und 9650M GT sein.

Spasstiger
2009-09-09, 17:50:23
Ich habe mich vor dem Kauf schon informiert.
Der GT220M sollte zwischen 9600M GT und 9650M GT sein.
Aber daraus hättest du ja schon schließen können, dass sich hinter der GT 220M höchstwahrscheinlich kein GT216 verbirgt. Sowohl die 9600M GT als auch die 9650M GT (und selbst die 9700M GT) verwenden den G96.

DrFreaK666
2009-09-09, 21:40:01
Aber daraus hättest du ja schon schließen können, dass sich hinter der GT 220M höchstwahrscheinlich kein GT216 verbirgt. Sowohl die 9600M GT als auch die 9650M GT (und selbst die 9700M GT) verwenden den G96.

Naja, ich dachte der GT220M wäre eine 9650M GT mit DX10.1 Support.
Danke nvidia :mad:
Hätte ich bloß ein NB mit ATI-GPU...

LovesuckZ
2009-09-09, 21:43:32
Ein Blick auf nVidia.com hätte Aufklärung gebracht...

DrFreaK666
2009-09-09, 21:50:26
Ein Blick auf nVidia.com hätte Aufklärung gebracht...

Naja, wenn dort überhaupt nichts steht dann ist ja nicht sehr hilfreich, findest du nicht?
Wenn die G210M und GT230 DX10.1-Chips sind ist dann bin ich davon ausgegangen, dass ein GT220M ebenso einer ist. Also unlogisch klingt das nicht

Spasstiger
2009-09-09, 21:54:22
Naja, wenn dort überhaupt nichts steht dann ist ja nicht sehr hilfreich, findest du nicht?
Wenn da nix steht, dann bedeutet das meistens, dass man nicht bekommt, was man erwartet. ;)

DrFreaK666
2009-09-09, 21:58:22
Wenn da nix steht, dann bedeutet das meistens, dass man nicht bekommt, was man erwartet. ;)

sehr schlau :down:
Wieso lässt nvidia zu, dass man Grafikchips so benennen darf wie man will?
Naja, mir ist DX10.1 schnuppe. Aber das bedeutet sicherlich auch, dass es keine 40nm-GPU ist und daher mehr Strom schluckt.
Immerhin hat es GDDR3 (bringt mir bei meinem Problem aber auch nix)

reunion
2009-09-09, 22:07:08
sehr schlau :down:
Wieso lässt nvidia zu, dass man Grafikchips so benennen darf wie man will?
Naja, mir ist DX10.1 schnuppe. Aber das bedeutet sicherlich auch, dass es keine 40nm-GPU ist und daher mehr Strom schluckt.
Immerhin hat es GDDR3 (bringt mir bei meinem Problem aber auch nix)

Zulassen? NV betreibt das nicht erst seit gestern. Und da es ein G96 ist hast du natürlich keine 40nm GPU und kein DX10.1.

DrFreaK666
2009-09-09, 22:08:17
Zulassen? NV betreibt das nicht erst seit gestern.

Ja schon, aber wieso "darf" man das?
Sogar ich dachte, es sei ein neuer Grafik-chip und ich bin nicht erst seid gestern dabei.
Ok, bei Notebooks schon...

reunion
2009-09-09, 22:12:12
Ja schon, aber wieso "darf" man das?
Sogar ich dachte, es sei ein neuer Grafik-chip und ich bin nicht erst seid gestern dabei.
Ok, bei Notebooks schon...

Tja, es wird dich zwar nicht trösten, aber ich wäre auch reingefallen, und ich bin auch nicht erst seit gestern hier. Im Desktopsegment hat man ja noch halbwegs den Überblick, aber was NV speziell bei den Notebooks/OEMs anrichtet ist schon wirklich eine Frechheit in meinen Augen. Und es funktioniert offensichtlich, wenn selbst solche versierten User in die Falle tappen. Ich bin auch schon einmal fast hinein gefallen als ich mir ein 9600GT-NB kaufen wollte und dann hier noch zufällig las das es sich dabei nur um eine halbe 9600GT handelt.

DrFreaK666
2009-09-09, 22:13:41
Tja, es wird dich zwar nicht trösten, aber ich wäre auch reingefallen, und ich bin auch nicht erst seit gestern hier. Im Desktopsegment hat man ja noch halbwegs den Überblick, aber was NV speziell bei den Notebooks/OEMs anrichtet ist schon wirklich eine Frechheit in meinen Augen. Und es funktioniert offensichtlich, wenn selbst solche versierten User reinfallen. Ich bin schon einmal fast hinein gefallen als ich mir ein 9600GT-NB kaufen wollte und dann hier noch zufällig las das es sich dabei nur um eine halbe 9600GT handelt.

Die Performance ist ok, mehr habe ich nicht erwartet.
Naja, bleicht nur noch das HDTV-Problem, wo mir auch niemand helfen konnte :(

LovesuckZ
2009-09-09, 22:15:10
Zulassen? NV betreibt das nicht erst seit gestern. Und da es ein G96 ist hast du natürlich keine 40nm GPU und kein DX10.1.

Es gibt von nVidia keine GT220m.

reunion
2009-09-09, 22:17:11
Es gibt von nVidia keine GT220(m).

Sorry, aber das weiß kein Schwein wenn er im Geschäft steht. Zumal es für den Desktop AFAIK schon einen GT220 gibt. Ich lese hier täglich und selbst ich war davon überzeugt das die GT2xx-Chips 40nm/DX10.1 sind. Hier jetzt noch einen alten G96 hinein zu schummeln ist schon arg frech.

LovesuckZ
2009-09-09, 22:21:15
Es ist nicht frecht, es ist abscheulich. Da es aber keine GT220m von nVidia gibt, sollte man hier doch bitte den Hersteller des Notebooks kritisieren, der meint, seine Grafikkarte so zubenennen.
Ein Blick auf nVidia.de/com etc. hätte die Sache geklärt. DrFreak ist jetzt ja auch auf die Treiber des Herstellers angewiesen, da nVidia kein Support übernimmt. Das ganze ist schon ziemlich traurig.

reunion
2009-09-09, 22:26:01
Es ist nicht frecht, es ist abscheulich. Da es aber keine GT220m von nVidia gibt, sollte man hier doch bitte den Hersteller des Notebooks kritisieren, der meint, seine Grafikkarte so zubenennen.
Ein Blick auf nVidia.de/com etc. hätte die Sache geklärt. DrFreak ist jetzt ja auch auf die Treiber des Herstellers angewiesen, da nVidia kein Support übernimmt. Das ganze ist schon ziemlich traurig.

Das gibt es bei anderen GPUs/IHVs auch nicht. Wenn NV das nicht absichtlich forciert hat dann wurde es zumindest geduldet. Noch dazu gibt es zwar offiziell keine GT220m, aber natürlich schon eine entsprechende GT220 ohne m, wie ich eben gesehen habe. Also wer soll da bitte noch durchblicken?

LovesuckZ
2009-09-09, 22:28:13
Von AMD gibt es auch keine 4730 - aber man kann sie trotzdem kaufen. :rolleyes:

reunion
2009-09-09, 22:41:29
Von AMD gibt es auch keine 4730 - aber man kann sie trotzdem kaufen. :rolleyes:

Momentan gibt es von AMD gar nichts, weil die HP offensichtlich offline ist. Aber wenn es so wäre wäre es ähnlich, und auch da wird es nicht ohne die Erlaubnis von AMD gegangen sein, sonst würde jeder Partner seine "eigene" Karte rausbringen. Aber zumindest gibt es da kein entsprechend verwirrendes NB-Pendant und von den Treibern wird sie AFAIK auch unterstützt.

AnarchX
2009-09-09, 22:53:15
Von der HD 4730 gibt/gab es schon eher übrigens auch eine Osteuropa-Version, die auf einen 128-Bit RV670 mit DDR2 setzt:
http://www.ulmart.ru/goods/164973/#open
(siehe auch die Device-ID-Liste des Treibers, der diese Karte führt)

Im Endeffekt ist die Namenspolitik beider Hersteller nicht die beste, wobei es Nvidia mittlerweile etwas auf die Spitze treibt. Aber wie auch bei anderen Produkten heißt es eben hier sich konkret informieren.

DrFreaK666
2009-09-09, 23:18:58
Es ist nicht frecht, es ist abscheulich. Da es aber keine GT220m von nVidia gibt, sollte man hier doch bitte den Hersteller des Notebooks kritisieren, der meint, seine Grafikkarte so zubenennen.
Ein Blick auf nVidia.de/com etc. hätte die Sache geklärt. DrFreak ist jetzt ja auch auf die Treiber des Herstellers angewiesen, da nVidia kein Support übernimmt. Das ganze ist schon ziemlich traurig.

Wenn auf der nvidia-HP keine GT220M steht dann ist ok wenn trotzdem eine auf dem Markt ist? AHA!!!!
Zum Glück gibt es modifizierte infs. So kann ich trotzdem aktuelle Treiber installieren.

...
Im Endeffekt ist die Namenspolitik beider Hersteller nicht die beste, wobei es Nvidia mittlerweile etwas auf die Spitze treibt. Aber wie auch bei anderen Produkten heißt es eben hier sich konkret informieren.

Das NB kam glaube ich Anfang August auf den Markt.
Wieviel Infos habe ich da wohl zum GT220M gefunden?
So gut wie keine, nur Spekulationen über die Performance.
Auch jetzt gibt es so gut wie keine Infos
Mehr als sowas (http://www.notebookcheck.com/NVIDIA-GeForce-GT-220M.20053.0.html) findet man nicht

Immerhin scheint sie, zumindet im 3D-Mark06, fast so schnell wie eine 9700M GT zu sein (was sie eigentlich nicht dürfte (liegt vielleicht an der CPU))
http://www.abload.de/img/gt220m2lu4.jpg (http://www.abload.de/image.php?img=gt220m2lu4.jpg)

LovesuckZ
2009-09-09, 23:23:33
Wenn auf der nvidia-HP keine GT220M steht dann ist ok wenn trotzdem eine auf dem Markt ist? AHA!!!!


Natürlich nicht - nur man sollte einfach nie blind kaufen.

DrFreaK666
2009-09-09, 23:41:59
Natürlich nicht - nur man sollte einfach nie blind kaufen.

Naja, lassen wir das.
Ich find trotzdem scheiße :biggrin:
Und vielleicht kannst du mir ja helfen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=462581

AnarchX
2009-10-10, 09:38:37
Nun gibt es ein paar 3DMark-Werte zur Desktop GT 240, die von ihren Eckdaten der GTS 260M entspricht:
http://vga.it168.com/a2009/1009/754/000000754803.shtml

Vielleicht deutet das auf eine mögliche Verfügbarkeit von GTS 250/260M in naher Zukunft hin.