PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 600M - Kepler - GTX 660M/GT 650M/GT 640M/...


AnarchX
2012-03-22, 18:43:13
Heute wurde auch GK107 Mobile vorgestellt:
http://www.geforce.com/whats-new/articles/geforce-600m-notebooks-efficient-and-powerful/
http://www.notebookcheck.com/Nvidia-Vorstellung-der-Kepler-Architektur-und-neue-Notebook-GPUs.72066.0.html

Hugo78
2012-04-05, 08:53:06
Acer Aspire Timeline Ultra M3 (GT 640M)
http://www.computerbase.de/artikel/notebooks-und-tablets/2012/test-acer-aspire-timeline-ultra-m3/7/#abschnitt_fazit

Auch wenn Acer das Timeline Ultra M3 gerne in die Nähe der Ultrabooks rücken möchte: Mit den kompakten Notebooks hat das Gerät kaum Ähnlichkeit.
Zu groß sind allein bei Maßen und Gewicht die Unterschiede. Angesichts der Grafikleistung müsste man eher fast schon von einem Desktop Replacment sprechen – wenn denn das Display besser wäre.

Spasstiger
2012-04-06, 19:51:14
2,5 Stunden unter Volllast mit der GeForce GT 640M ist imo aber ein exzellenter Wert, vor allem angesichts der sehr guten 3D-Performance. Im 3D Mark 11 doppelt so schnell wie die GT 540M bei gleicher TDP.

AnarchX
2012-04-06, 22:44:49
Unter Last erreicht das Acer sehr gute 2 Stunden und 20 Minuten, schummelt hier jedoch etwas: Die CPU wird auf 1,7 GHz gedrosselt und in Battlefield 3 sinkt die Framerate von 60-70 auf 28 fps, sobald wir das Netzkabel ziehen.
http://www.notebookcheck.com/Test-Acer-Aspire-Timeline-Ultra-M3-581TG-Ultrabook.71585.0.html

Undertaker
2012-04-07, 00:05:31
Die GT 640M wird wohl ebensowenig aktiviert gewesen sein.

Spasstiger
2012-04-07, 16:53:21
Die GT 640M wird wohl ebensowenig aktiviert gewesen sein.
Hm? Was meinst du genau? Die 2,5 Stunden unter Last im CB-Artikel wurden mit der GT 640M ermittelt, mit der Intel HD 3000 warens 30 min mehr.
Und dass die Performance im Akkubetrieb sinkt, ist normal, weil dann der GPU-Takt gesenkt wird. Da ist nicht plötzlich die HD 3000 aktiv.

Raff
2012-04-07, 17:22:52
Die GeForce GT 650M scheint in Crysis schon mal der HD 6970M gefährlich zu werden: Kepler-Notebook mit Nvidia GT 650M: Erste Benchmarkwerte von PCGH (http://www.pcgameshardware.de/aid,875941/Nvidia-GT-650M-im-Vorab-Test-mit-Benchmarks/Notebook-Netbook/Test/)

Ein beachtlicher Wert, allerdings schätze ich, dass es im Mittel nicht ganz so gut aussieht (der Gamer-Kepler ist stark in Crysis).

MfG,
Raff

AnarchX
2012-04-07, 17:26:57
Mal sehen wann es hier mal vernünftige Treibererkennung gibt. Die GDDR5-Version der 650M soll ja nur 735MHz GPU-Takt haben und könnte wohl noch ein gutes Stück OCing (~850MHz) zulassen.

Aber schon lustig, wie verschlossen NV zu den GK107 GPUs ist. Auf der Produktseite wird 28nm und Kepler nicht erwähnt. :ugly:

Undertaker
2012-04-09, 17:22:32
Hm? Was meinst du genau? Die 2,5 Stunden unter Last im CB-Artikel wurden mit der GT 640M ermittelt, mit der Intel HD 3000 warens 30 min mehr.

Hmm, wo genau steht das? Konnte ich nicht entdecken. Aber auch so: Die Grafiklast im Battery Eater Classic Test ist recht minimal... Dennoch ein ordentlicher Effizienzschritt zur 40nm-Generation.

dildo4u
2012-05-30, 15:57:36
660M im Test.

http://www.notebookcheck.com/Test-Asus-G55VW-S1073V-Notebook.75112.0.html

AnarchX
2012-05-30, 16:04:44
Interessant, wohl ein 950MHz Boost Clock.

dildo4u
2012-05-30, 16:08:18
Die Desktop Modelle sitzen dann wohl über 1.1Ghz.

AnarchX
2012-05-30, 16:09:39
Viel mehr als ~1,1GHz (+ Boost auf ~1,2GHz) würde ich nicht erwarten für eine "GTX 650 Ti". Das dürfte nicht so einfach gegen die 7770 sein.

Undertaker
2012-05-30, 18:38:11
Interessant, wohl ein 950MHz Boost Clock.

950 MHz Boost hat auch schon die GT 650M (DDR3). Noch interessanter, angeblich haben sogar die umbeannten 40nm Fermi der 600M-Reihe den Boost.

Hugo78
2012-06-12, 13:36:48
MacBook Pro mit GT650M (GK107@ 735 - 850MHz, GDDR5)

Promovideo:
http://www.pcgameshardware.de/aid,890294/Apple-MacBook-Pro-mit-Retina-Display-im-Video/Notebook-Netbook/News/
Innenleben:
http://www.macnotes.de/2012/06/11/macbook-pro-15-mit-nvidia-geforce-gt-650m-und-schnelleren-ivy-bridge-prozessoren/
Ergänzendes:
http://www.computerbase.de/news/2012-06/apple-praesentiert-next-generation-macbook-pro-mit-retina-display/#update1

terror001
2012-06-17, 13:20:56
Ich kann seit zwei Wochen eine 650M mit 2Gb DDR3 mein eigen nennen. Ich habe mir dieses ASUS Notebook zugelegt: https://www.cyberport.de/notebook-und-tablet/notebooks/1C28-1CW/asus-n76vz-v2g-t1031v-i7-3610qm-ivy-bridge-neuheit.html

Kurz die wichtigsten Daten:
Asus N76VZ-V2G-T1031V i7-3610QM
Intel® Core™ i7-3610QM Prozessor (bis 3,3 GHz), Quad-Core
NVIDIA GeForce GT 650M Grafik (2048 MB), GPU=835MHz, Ram 1800MHz, 128Bit Interface
8 GB DDR3-1600 SO-DIMM

Ich benutze die aktuelle Treiberversion 302.59 von hier: http://forums.laptopvideo2go.com/topic/29492-v30259-windows-7vista-64bit-nvidia-oem-mobile/
Ab Werk war die Version 296.16 installiert.

Hier mal ein paar Benches unter Windows 7 64bit:

3DMark 03 - Score 31896
CPU Score 2611

3DMark 06 - Score 13551
SM2.0 Score 5332
HDR/SM3.0 Score 5290
CPU Score 6134

3DMark Vantage - Score P8832
Graphics Score 7382
CPU Score 21517

3DMark 11 - Score P2375
Graphics Score 2170
Physics Score 7745
Combined Score 1786

Ich habe auch mal den Stromverbrauch von den Notebook gemessen:
29 Watt idle
70 Watt LOL (League of Legends)
88 Watt 3DMark06

Den Stromverbrauch und die Leistung finde ich schon sehr beachtlich. Wenn gewünscht, kann ich auch noch andere Test's laufen lassen.

dildo4u
2012-06-17, 13:37:07
Score ist gut DDR3 bremst kaum die GDDR5 Versionen laufen nur mit 100mhz Speichertakt mehr.

http://www.notebookcheck.com/NVIDIA-GeForce-GT-650M.71878.0.html

boxleitnerb
2012-06-17, 13:49:02
Überträgt GDDR5 nicht doppelt soviel Daten pro Takt wie GDDR3? Bzw. hat einen doppelt so hohen Datenübertragungstakt?

Undertaker
2012-06-17, 13:50:08
Exakt. Die GDDR5-Version der 650M hat sogar mehr als die doppelte Bandbreite. Umso erstaunlicher, dass der DDR3-Version ein kleiner Mehrtakt genügt, um gleichschnell zu sein.

dildo4u
2012-06-17, 14:05:40
Der Chiptakt ist wesentlich höher (735 GDDR5 vs 850mhz GDDR3)scheint das gut zu kompensieren.

terror001
2012-06-17, 14:49:36
Der Chiptakt ist wesentlich höher (735 GDDR5 vs 850mhz GDDR3)scheint das gut zu kompensieren.
Das war auch der Grund warum ich nicht auf eine GDDR5-Version gewartet habe. Ich habe mich vorher im Internet erkundigt und ähnliche Meinungen gefunden. Auf die paar %Leistungszuwachs kommt es für mich nicht wirklich an. Ich denke mal das Limitierende ist halt die 128Bit Anbindung. Aber so viel Ahnung habe ich da nicht.

Undertaker
2012-06-17, 14:52:54
Der Chiptakt ist wesentlich höher (735 GDDR5 vs 850mhz GDDR3)scheint das gut zu kompensieren.

Das 15% Mehrtakt beim Chip (inkl. Turbo gar noch etwas weniger) genausoviel bewirken wie ein mehr als 100% höherer Speichertakt, ist imo durchaus bemerkenswert. Man vergleiche das mal mit der HD 6770M GDDR5 / 6850M DDR3.

AnarchX
2012-06-17, 14:59:27
Da stellt sich die Frage ob GK107 wirklich 16 ROPs hat. Die geringe Reaktion auf Bandbreite, könnte auch zu 8 ROPs passen. GF108 hatte auch nur 4 ROPs und erreicht etwa 50% der Leistung von GK107.
Laut 3DMark Vantage Color Fill Score sind es wohl doch 16 ROPs.

Spasstiger
2012-06-17, 14:59:32
Überträgt GDDR5 nicht doppelt soviel Daten pro Takt wie GDDR3? Bzw. hat einen doppelt so hohen Datenübertragungstakt?
Exakt, GDDR5 hat ein dediziertes Datentaktsignal mit der doppelten Frequenz des Befehlstaktes. Bei DDR3 werden die Daten zu den Flanken des Befehlstaktes übetragen.

terror001
2012-06-17, 15:02:57
Achja, laut NVIDIA-Info läuft meine 650M DDR3 auch nur mit 835MHz, anstatt 850MHz. Ich denke mal einen Turbomodus wird es da nicht geben, da diese eh nur zugeschaltet wird, wenn 3D-Anwendungen gestartet werden. Ansonsten läuft die Intel GMA4000. Wozu sollte es da einen Turbomodus für die 650M geben als sekundäre 3D-Grafikkarte?
Erinnert mich irgendwie an 3DFX - Zeiten (Voodoo1 +2)

Undertaker
2012-06-17, 15:07:21
Die 650M hat einen Turbo bis etwa 950MHz bzw. 835MHz bei der GDDR5-Version. Warum sollte ein Turbo durch Optimus auch keinen Sinn machen? :confused:

terror001
2012-06-17, 15:15:09
Ich habe mich etwas informiert und die 650M taktet sich tatsächlich bei beadarf hoch. Kann ich den "Taktverlauf" mit irgendeinen Tool aufzeichnen? Mich macht das schon neugierig.

Undertaker
2012-06-17, 15:17:24
Das klappt mit GPU-Z. Da gibts zumindest einen Graph, weiß aber nicht ob man den auch länger aufzeichnen kann.

dildo4u
2012-06-17, 15:18:52
Ich habe mich etwas informiert und die 650M taktet sich tatsächlich bei beadarf hoch. Kann ich den "Taktverlauf" mit irgendeinen Tool aufzeichnen? Mich macht das schon neugierig.
Afterburner.

Spasstiger
2012-06-17, 15:36:16
Das 15% Mehrtakt beim Chip (inkl. Turbo gar noch etwas weniger)
Ich hab mal gelesen, dass bei der GDDR5-Version gar kein Turbo vorhanden ist, so dass die DDR3-Version im Schnitt fast 30% höher taktet als die GDDR5-Version.

Undertaker
2012-06-17, 15:44:02
Es steht den Herstellern vermutlich frei, ob sie den Turbo (per BIOS?) deaktivieren, prinzipiell ist er aber ebenso bei der GDDR5-Version vorhanden.

http://www.notebookcheck.com/Test-Alienware-M14x-R2-Notebook.74897.0.html
http://www.notebookcheck.com/Test-Schenker-XMG-A502-Clevo-W150ER-Notebook.74449.0.html

dildo4u
2012-06-17, 16:12:53
Acer Timeline Ultra M3(GTX640M) vs. Alienware M14x (GTX650M)


http://www.eurogamer.net/articles/df-hardware-acer-ultra-m3-vs-alienware-m14x-review

Mit Gameplay Videos.

terror001
2012-06-17, 18:03:49
Soo, vom Erdbeeren flücken zurück und den Afterburner laufen lassen:
GPU min= 135 MHz max= 950 MHz
RAM min= 405 MHz max= 900 MHz

Dabei konnte ich folgende Stufen ermitteln:
GPU: 135 -> 405 -> 835 -> 950 MHz
RAM: 405 MHz ---> 900 MHz

Das unter Vorbehalt, da der Afterburner in unregelmäßigen Abständen Blue-Screens verursacht. Aber eins kann ich mir sicher sein. Der Turbomodus ist aktiviert und funktioniert. Der "normale" Takt ist für die GPU 835 MHz und diese Taktet sich dann bei Bedarf nochmals um 115 MHz hoch.
Beim benchen war die max. Temperatur 66 Grad und das ist mehr als OK. Im "Bereitschaftsmodus" sind es 44 Grad. Sollte sich die GPU bei Nichtgebrauch nicht abschalten?

Spasstiger
2012-06-18, 09:11:06
Sollte sich die GPU bei Nichtgebrauch nicht abschalten?
Die Asus-Geräte mit GeForce GT 650M unterstützten afaik aktuell kein Optimus.

AnarchX
2012-10-02, 08:50:24
GTX MX :ulol:

http://www.anandtech.com/show/6346/nvidia-quietly-releases-geforce-gtx-670mx-and-gtx-675mx-for-notebooks

Raff
2012-10-02, 09:18:35
Das ist nur für Leute lustig, die schon länger dabei sind. :D Ich dachte spontan: Bezeichnung mit zwei konträren X, das war wohl nix.

MfG,
Raff

Spasstiger
2012-10-02, 09:21:28
Ich hätte GTX 670/675 MK vorgezogen. M für mobil und K für Kepler. Ich hab spontan auch eine abgespeckte Variante bei MX erwartet, aber ist ja in Wahrheit die "Xtreme"-Variante.

iFanatiker
2012-10-02, 16:26:47
GTX MX :ulol:

http://www.anandtech.com/show/6346/nvidia-quietly-releases-geforce-gtx-670mx-and-gtx-675mx-for-notebooks

Also....ehrlich.....das ist jetzt wirklich sehr witzig von nVidia. :biggrin: Ich dachte direkt an Fermis mit kastrierten Speicherinterface....damit die Situation zwischen der 660M GTX (Falls der Notebook Hersteller nicht Mist gebaut hat) und 670M noch lächerlicher wird. :biggrin:

Interessant wäre ob die GPUs auch automatisches Overclocking könen wenn es die Thermik, Stormversorgung und Hersteller zulässt. Dann wäre das Update ja schon höher gegenüber den Fermi Karten.


P.S.

Hey...in so einen alten viert Rechner ackert immer noch eine GeForce2 MX 200 Low Profile. :biggrin:

Hugo78
2012-10-03, 07:33:07
Ich hätte GTX 670/675 MK vorgezogen. M für mobil und K für Kepler. Ich hab spontan auch eine abgespeckte Variante bei MX erwartet, aber ist ja in Wahrheit die "Xtreme"-Variante.

Ging mir auch so.
Ich versteh auch nicht, wie man ohne Not so missverständliche Bezeichnungen wählt.

Die 460 & 560 "SE" Bezeichnung könnte man ja noch als ein großes Stück Selbstironie abhaken, aber "MX" für ein Refresh zubenutzen ist kontraproduktiv. :rolleyes:

AnarchX
2012-10-25, 11:59:50
680 MX mit 1536SPs und 5Gbps Speicher: http://www.geforce.com/hardware/notebook-gpus/geforce-gtx-680mx

dildo4u
2012-10-25, 12:30:08
Takt bleibt gleich nich schlecht Fertigung scheint besser zu werden,die Bandbreite wurde extrem erhöt bin auf Tests gespannt.

Godmode
2012-10-25, 12:52:39
680 MX mit 1536SPs und 5Gbps Speicher: http://www.geforce.com/hardware/notebook-gpus/geforce-gtx-680mx

Nicht schlecht für ein starkes Gaming-Notebook!

Undertaker
2012-10-25, 12:57:28
Es könnte sein, dass die 680MX nur in Apples iMac verbaut wird. Die Leistungsaufnahme könnte u.U. über 100W liegen.

Godmode
2012-10-25, 13:18:48
Es könnte sein, dass die 680MX nur in Apples iMac verbaut wird. Die Leistungsaufnahme könnte u.U. über 100W liegen.

Würde dem iMac gut tun, weil das was in den 2011ern drin war, war nicht sehr Leistungsfähig.

Ihm
2012-10-25, 14:02:46
Hätte mich über 4GB GDDR5 im neuen iMac mit 680MX gefreut.

iFanatiker
2012-10-25, 15:26:01
Aber schon beeindruckend nVidias Keppler Strategie bzgl. der Produkteinführung usw. und wie man die ganzen Probleme mit der 28nm Prozess gut gemanget hat. Im Desktop Segment die High End Modelle erst auf neuen Prozess gebracht und im mobilen Bereich eher andersrum. Dazu hat man ja diese Runde als kleines Bonbon bei Apple wieder quasi überball die Wins bekommen.

Hätte mich über 4GB GDDR5 im neuen iMac mit 680MX gefreut.

Verstehe da Apple auch nicht so ganz wieso sie nur 2 GB verbauen. Das Interface scheint auch nicht gekappt zu sein und Größe kann eigentlich keine Frage sein ebenso wenig wie der Preis. Die größte Ausbaustufe soll ja sowieso eher etliche alte Mac Pro Kunden zu bedienen. Da wäre der Aufpreis sowieso egal gewesen.

Ihm
2012-10-25, 17:32:32
Verstehe da Apple auch nicht so ganz wieso sie nur 2 GB verbauen. Das Interface scheint auch nicht gekappt zu sein und Größe kann eigentlich keine Frage sein ebenso wenig wie der Preis. Die größte Ausbaustufe soll ja sowieso eher etliche alte Mac Pro Kunden zu bedienen. Da wäre der Aufpreis sowieso egal gewesen.

Cook scheint halt ein Freund von Verarsche zu sein.
Seit 20 Monaten kein Update, seit acht Monaten gibt es die Ivy-Bridge-Mobile Prozessoren auf dem Markt und in ca. 4,5 Monaten kommen schon die Haswell-Prozessoren.
Würde mich nicht wundern, wenn Nvidia dann relativ gleichzeitig auch noch einen im Mobile-Sektor nachlegt.
Dazu noch der "5mm"-Schwachsinn, der fest verbaute RAM bei den kleineren Modellen, der Fusion-Gag, der fehlende Infrarot Empfänger, fehlende FW-Ports die nicht durch mehr TB-Ports kompensiert werden, der SD-Slot auf der Rückseite...und dann noch mehr Geld als beim letzten iMac verlangen.

Ich denke so langsam reicht es dann. Apple übertreibt es seit Jobs Ableben ganz gewaltig.