PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 750 Ti und GTX 750: (P)Review-Thread


Seiten : [1] 2

AnarchX
2014-02-18, 15:01:33
Deutsch:
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/
http://ht4u.net/news/29104_die_maxwell-architektur_ist_da_nvidia_geforce_gtx_750_ti_im_test/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29800-nvidia-geforce-gtx-750-ti-im-test.html

Englisch:
http://anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell (GTX 750)
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-750-Ti-Review-Maxwell-Architecture-debuts-150
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_750_Ti/
http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_750_and_750_ti_review,1.html (GTX 750)
http://www.guru3d.com/articles_pages/msi_geforce_gtx_750_and_750_ti_gaming_review,1.html (GTX 750)

andere Sprachen:

Raff
2014-02-18, 15:02:02
PCGH: Nvidia Geforce GTX 750 Ti im Test: Maxwell, Meister der Energieeffizienz (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/)

MfG,
Raff

dildo4u
2014-02-18, 15:04:47
Endlich wurde auch an der Compute Leistung geschraubt.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/3/

Raff
2014-02-18, 15:05:17
... aber per Treiber, nicht innerhalb der GPU, wie sich das bei CB liest. ;)

MfG,
Raff

dildo4u
2014-02-18, 15:08:04
Ihr habt doch alle Karten mit dem neuen Treiber gebencht also muss ja am Chip gebaut worden sein wenn sie schneller als die 660 ist.

fondness
2014-02-18, 15:10:06
Effizienz auf dem Niveau der R7 265, gut da der Chip kleiner und höher getaktet ist. Aber die 65W nützt der Chip bis auf letzte aus.

/Edit: Werte streuen leider ziemlich stark je nach Review. PCGH misst bis zu 69W bei 60W TDP.

PCGH_Carsten
2014-02-18, 15:11:14
Ihr habt doch alle Karten mit dem neuen Treiber gebencht also muss ja am Chip gebaut worden sein wenn sie schneller als die 660 ist.

Natürlich ist ein Teil auch dem Chip zuzuschreiben, klaro. Aber Compute-Leistung auf GTX-780-Niveau sollte man nicht unbedingt erwarten. ;)

AnarchX
2014-02-18, 15:11:44
Effizienz auf dem Niveau der R7 265, gut da der Chip kleiner und höher getaktet ist. Aber die 65W nützt der Chip bis auf letzte aus.
TPU hat 52W Average: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_750_Ti/23.html

Die dort gemessen Pro-Watt-Leistung ist gute 60% höher als bei der R7 265.

fondness
2014-02-18, 15:13:34
Ja habe schon gesehen die Werte streuen leider extrem je nach Review.

Iruwen
2014-02-18, 15:16:46
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_750_Ti/26.html
Krass :D

fondness
2014-02-18, 15:18:32
Hm, warum kein DX11.2 - schon seltsam. Auch Compute-mäßig scheint sich nicht viel getan zu haben. Vor allem ein auf energieeffizient getrimmter Kepler, hier bleibt noch die Frage ob 28nm HPm oder nicht. Eine Frage die NV warum auch immer nicht beantworten wollte.

Iruwen
2014-02-18, 15:19:52
Auch Compute-mäßig scheint sich nicht viel getan zu haben.

Huh?
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/3/

/e: hat schon jemand zwischen dem und dem voherigen Treiber verglichen wieviel davon vom Treiber kommt?

Unicous
2014-02-18, 15:22:44
No HardTecs Love?

http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/


Na toll, als ich auf antworten geklickt habe, war es noch nicht eingetragen. :-(

PCGH_Carsten
2014-02-18, 15:24:41
Huh?
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/3/

/e: hat schon jemand zwischen dem und dem voherigen Treiber verglichen wieviel davon vom Treiber kommt?

Ja:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-vs-OpenCL-Performance-Luxmark-Maxwell-1109949/

dildo4u
2014-02-18, 15:26:39
Er meint wohl mit der 750Ti was wohl schlecht geht wegen dem Treiber support.

AnarchX
2014-02-18, 15:34:12
1:32 DP:SP Durchsatz. :uup:
Bei einer Berechnung auf den normalen ALUs sollte doch da mindestens 1:4 herauskommen?

edit:

BTC / Litecoin / SHA2 Benchmarks:
http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-17.html

Wenn das sich nicht mal auf die Lieferbarkeit auswirkt... :ugly:

PCGH_Carsten
2014-02-18, 15:46:17
Er meint wohl mit der 750Ti was wohl schlecht geht wegen dem Treiber support.
Joa, aber da sieht man wenigstens, wieviel überhaupt vom Treiber kommt und wieviel von „Recycle-Benchmarks“.

fondness
2014-02-18, 15:46:26
Das spricht für deutlich höhere INT-Leistung :)

http://www.vortez.net/articles_pages/nvidia_gtx_750_ti_maxwell_review,1.html
http://www.phoronix.com/scan.php?page=article&item=nvidia_maxwell_750linux&num=1
http://www.techspot.com/review/783-geforce-gtx-750-ti-vs-radeon-r7-265/
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/65440-gtx-750-ti-review-maxwell-arrives.html
http://www.cowcotland.com/articles/1576/carte-graphique-nvidia-gtx-750-ti.html
http://www.hardware.fr/news/13568/nvidia-lance-geforce-gtx-750-ti-750-maxwell.html

dildo4u
2014-02-18, 15:50:46
BTC / Litecoin / SHA2 Benchmarks:
http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-17.html

Wenn das sich nicht mal auf die Lieferbarkeit auswirkt... :ugly:
Lohnt sich noch nicht wenn die 7790 so viel schneller ist.

MechWOLLIer
2014-02-18, 15:52:50
... aber per Treiber, nicht innerhalb der GPU, wie sich das bei CB liest. ;)
MfG,
Raff

Und das steht wo, Raff?
PCGH hat auch das Sahnehäubchen rausgesucht, es gibt auch andere Fälle.
https://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/7/

AnarchX
2014-02-18, 15:56:48
Lohnt sich noch nicht wenn die 7790 so viel schneller ist.
BTC@GPU ist nicht mehr relevant, da es ASICs gibt. Aber LTC, wo man mit den Radeons mithält könnte durchaus dafür sorgen, dass die Karten in den USA schnell vergriffen sind.

dildo4u
2014-02-18, 15:57:48
Jo hab ich zu spät gesehen Maxwell geht dort besser als AMD.

On a scale of performance (in kH/s) per watt, that puts Nvidia way out ahead of AMD. Today, four GM107-based cards in a mining rig should be able to outperform a Radeon R9 290X for less money, using less power.

horn 12
2014-02-18, 16:05:49
Kann AMD ein Problem mit der GTX 750 TI bekommen, vor Allem zwecks des enorm NIEDRIGEM Stromverbrauch der 750TI Karte.
Mal schauen wann die Konkurrenz für R9 290 (X) kommen wird ---> Herbst 2014, vorher wohl nicht

fondness
2014-02-18, 16:06:07
Die Karte hat wohl zu wenig power um sinnvoll als Ring eingesetzt werden zu können. Man kann ja nicht unbegrenzt Karten pro Mainboard verbauen. Zudem dürfte der Vorteil vs. der 290X nur gering sein. Aber hoffentlich setzen auch ein paar Leute auf die Karte damit die AMD-Karten endlich wieder besser lieferbar werden.

dildo4u
2014-02-18, 16:07:09
Kann AMD ein Problem mit der GTX 750 TI bekommen, vor Allem zwecks des enorm NIEDRIGEM Stromverbrauch der 750TI Karte.
Mal schauen wann die Konkurrenz für R9 290 (X) kommen wird ---> Herbst 2014, vorher wohl nicht
Die 780 ist schon lange am Markt.

Schaffe89
2014-02-18, 16:23:02
Die Karte liegt schon bei Standardspielen über der TDP und bietet kein Directx 11.2?

Was ist das bitte?

Aber okay die Effizienz ist immerhin um gut 30% gestiegen.

PCGh sieht die Karte etwas hinter einer 260x, denn was auffällig ist:

Die Karte bricht bei einigen Spielen extrem ein, wie kann das sein?

CD-LABS
2014-02-18, 16:24:49
1:32 DP:SP Durchsatz. :uup:
Bei einer Berechnung auf den normalen ALUs sollte doch da mindestens 1:4 herauskommen?

edit:

BTC / Litecoin / SHA2 Benchmarks:
http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-17.html

Wenn das sich nicht mal auf die Lieferbarkeit auswirkt... :ugly:
Wieso sollte es? Das BTC-Ergebnis ist irrelevant (und für NV eher nicht so positiv), dass LTC-Ergebnis sagt hingegen recht eindeutig, dass man sich zum Minen derer eine 270X aufwärts holen sollte!

fondness
2014-02-18, 16:25:02
Ist eben eine veränderte Architektur, deshalb verhält sie sich auch anders als Kepler.

Unicous
2014-02-18, 16:30:42
Wer holt sich denn zum Minen eine (oder mehrere) 750(Ti)?

Völliger Blödsinn. Es geht nicht nur um Effizienz sondern auch um Durchsatz. So eng sehen es die Amis dann auch nicht mit den Stromkosten und in Europa ist es natürlich unwirtschaftlich.

AnarchX
2014-02-18, 16:30:55
PCGh sieht die Karte etwas hinter einer 260x, denn was auffällig ist:
Wortlaut PCGH: "Im Vergleich mit der aktuellen Konkurrenz, AMDs Radeon R7 260X, kann sich die Geforce GTX 750 Ti einen knappen Gleichstand erkämpfen, kostet in Relation dazu aber zu viel."


Die Karte bricht bei einigen Spielen extrem ein, wie kann das sein?
Konkretes Beispiel?

Wieso sollte es? Das BTC-Ergebnis ist irrelevant (und für NV eher nicht so positiv), dass LTC-Ergebnis sagt hingegen recht eindeutig, dass man sich zum Minen derer eine 270X holen sollte!
Nur liegt die 750 Ti <60W. Sofern die Radeons völlig vergriffen sind (siehe z.B. R9 290X @ >800 USD), könnte GM107 hier durchaus zu Alternative werden.
Zumal der CUDA Miner eventuell auch noch nicht auf Maxwell optimiert wurde.

CD-LABS
2014-02-18, 16:32:16
Die Karte liegt schon bei Standardspielen über der TDP und bietet kein Directx 11.2?

Was ist das bitte?

Aber okay die Effizienz ist immerhin um gut 30% gestiegen.

PCGh sieht die Karte etwas hinter einer 260x, denn was auffällig ist:

Die Karte bricht bei einigen Spielen extrem ein, wie kann das sein?
Ich sehe bei PCGH keine echten Einbrüche und auch auf HT4U sieht das ganz normal aus:
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index42.php?dummy=&advancedFilter=false&prod%5B%5D=NVIDIA+GeForce+GTX+750+Ti+%5B1150+MHz%5D&prod%5B%5D=NVIDIA+GeForce+GTX+650+Ti&filter%5B0%5D%5B%5D=1680&filter%5B0%5D%5B%5D=1920&filter%5B0%5D%5B%5D=2560&filter%5B2%5D%5B%5D=1&filter%5B2%5D%5B%5D=2&filter%5B2%5D%5B%5D=2+x+2+SSAA&filter%5B2%5D%5B%5D=2x2+SSAA&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B2%5D%5B%5D=Post+AA&filter%5B2%5D%5B%5D=SSAA&filter%5B3%5D%5B%5D=16&aa=all

dildo4u
2014-02-18, 16:35:06
Die Karte liegt schon bei Standardspielen über der TDP und bietet kein Directx 11.2?

Was ist das bitte?

Aber okay die Effizienz ist immerhin um gut 30% gestiegen.

PCGh sieht die Karte etwas hinter einer 260x, denn was auffällig ist:

Die Karte bricht bei einigen Spielen extrem ein, wie kann das sein?
Wo bricht sie extrem ein?

Ich finds eher erstaunlich wie sie manchmal abgeht ihr scheint z.b AMDs HQ-HDAO Shader sehr gut zu liegen.Vermutlich ne Folge der neuen Compute Effizienz.

http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-10.html

boxleitnerb
2014-02-18, 16:37:35
Aber okay die Effizienz ist immerhin um gut 30% gestiegen.


Die Effizienz ggü. der 650 Ti ist um 60% gestiegen (HT4U und TPU).

Godmode
2014-02-18, 16:37:39
Nette Karte, die zeigt wohin der Weg geht. Mit 20nm und 550 mm2 werden wir wieder eine schöne HighEnd GPU sehen.

Raff
2014-02-18, 16:38:23
Wo bricht sie extrem ein?

Ich finds eher erstaunlich wie sie manchmal abgeht ihr scheint z.b AMDs HQ-HDAO Shader sehr gut zu liegen.Vermutlich ne Folge der neuen Compute Effizienz.

http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-10.html

Nvidia hat in Bioshock 3 in den vergangenen Monaten sehr viel über Treiber-Optimierungen herausgeholt, das betrifft auch Kepler.

MfG,
Raff

Botcruscher
2014-02-18, 16:38:55
BTC / Litecoin / SHA2 Benchmarks:
http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-17.html

Wenn das sich nicht mal auf die Lieferbarkeit auswirkt... :ugly:

Ist gegen AMD doch noch immer richtig bescheiden. PS: HPM ist wohl noch immer nicht geklärt? Sollte aber so sein.

matty2580
2014-02-18, 16:40:08
Die 750ti ist eine schöne Karte geworden, sehr effizient, und auch gut übertaktbar, aber nicht so gut wie videocardz (http://videocardz.com/49701/galaxy-geforce-gtx-750-ti-exposed-can-overclocked-1-35-ghz) behauptet hat.
Die echten Daten der Galaxy (http://www.galaxytech.com/__EN_GB__/Product2/ProductDetail?proID=516&isStop=0&isPack=False&isPow=False) sehen deutlich nüchterner aus.

Die GTX 750 Ti ist an ihr Limit von 60 Watt festgetackert, was sich uns aktuell nicht so recht erschließt
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index15.php
Das ist ärgerlich und beschneidet die Karte unnötig.

Flusher
2014-02-18, 16:40:28
1:32 DP:SP Durchsatz. :uup:
Bei einer Berechnung auf den normalen ALUs sollte doch da mindestens 1:4 herauskommen?

edit:

BTC / Litecoin / SHA2 Benchmarks:
http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-17.html

Wenn das sich nicht mal auf die Lieferbarkeit auswirkt... :ugly:

Naja ob sich das zum Litecoin Mining so sehr lohnt?

1 x Hawaii = 290 W @ 880 kHash/s
4 x 750Ti = 240 W @ 980 kHash/s

Aber dann eben 4 Threads mit entsprechendem Verwaltungsaufwand und teurerer Infrastruktur (4 PCIe Slots nötig)

Hugo78
2014-02-18, 16:43:13
Ich würde ja mal gerne sehen, wie ein System mit einem i5-4670T, 8GB RAM und einer MSI oder Zotac 750Ti in BF4 in 1080p + mid.Details rennt und ob dafür ein passives 120/150 PicoPSU Netzteil ausreicht.

Iruwen
2014-02-18, 16:46:21
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index15.php
Das ist ärgerlich und beschneidet die Karte unnötig.

Zumindest kommt sie damit ohne OC ganz gut aus.
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/5/
Ist das nicht nur eine Frage angepasster Software? Zumindest übers BIOS sollte sich das doch ändern lassen. Ansonsten würde ich auch verstehen, dass NV das Aushängeschild für Energieeffizienz nicht von der Leine lassen möchte. Oder sie wollen den PCI-Bus nicht überlasten da die Karte ja offenbar trotz Limit auch schonmal die 60W überschreitet.

PS: bin ich blind oder fehlt bei HT4U der im Inhaltsverzeichnis erwähnte Volllast-Wert? Ich seh nur Idle und Spiele.

fondness
2014-02-18, 16:47:40
Ist gegen AMD doch noch immer richtig bescheiden. PS: HPM ist wohl noch immer nicht geklärt? Sollte aber so sein.

NV will es warum auch immer nicht sagen:

Ob es sich um den klassischen 28-nm-HP- oder möglicherweise den stromsparenderen 28-nm-HPM-Prozess handelt, wollte Nvidia auf Nachfrage nicht verraten.

Spricht eher für HPm IMO.

fondness
2014-02-18, 16:51:10
Naja ob sich das zum Litecoin Mining so sehr lohnt?

1 x Hawaii = 290 W @ 880 kHash/s
4 x 750Ti = 240 W @ 980 kHash/s

Aber dann eben 4 Threads mit entsprechendem Verwaltungsaufwand und teurerer Infrastruktur (4 PCIe Slots nötig)

Selbst das ist noch optimistisch, denn erstens skaliert die Leistung nicht immer perfekt und zweitens wurden auch schon bis zu 69W pro Karte gemessen - und Mining verbraucht normalerweise sehr viel Saft.

Unicous
2014-02-18, 16:53:27
@Iruwen

Nur in Tabellenform.

http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index44.php

Ist aber unspanned. Sie throttelt weiterhin auf genau 60 Watt. (tip:per SuFu suchen=))

Blediator16
2014-02-18, 16:54:27
Dann Powertarget hoch und ab gehts.

Flusher
2014-02-18, 16:54:35
Selbst das ist noch optimistisch, denn erstens skaliert die Leistung nicht immer perfekt und zweitens wurden auch schon bis zu 69W pro Karte gemessen - und Mining verbraucht normalerweise sehr viel Saft.

Habe mal die Werte von HT4U unter Vollast als Grundlage genommen. Klar - unter GPGPU Anwendungen steigt der Verbrauch ebenfalls - fairerweise muss man dann aber auch sagen, dass Hawaii sich dann mit unter 300 W auch nicht begnügt.

Afaik sollte die Leistung eigentlich recht gut skalieren, da für jede GPU ein einzelner Thread gestartet wird (also nix mit SLI oder CFX)

Iruwen
2014-02-18, 16:56:46
Dann Powertarget hoch und ab gehts.
Darum gehts gerade, das lässt sich nicht ändern.

Hugo78
2014-02-18, 17:04:56
Bei CB gibts doch Partnerkarten, als Anhaltspunkt um wieviel Leistung und Verbrauch ansteigt.
Die Palit mit 11% mehr Bandbreite und (bis zu) 14% mehr Boost, kommt auf 11-13% mehr Speed, was reicht um der 660 von Zeit zu Zeit Hallo zusagen.
Der Verbrauch des Gesamtsystems steigt dabei um 5% bzw. 8W auf 172W, ggü. den 234W mit der 660.

http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/11/

Ex3cut3r
2014-02-18, 17:08:08
Schönes Ding, zeigt wohin die Richtung geht, hoffentlich kommt der Highend Chip diesmal früher, und hoffentlich nicht als Titan 2 für schlappe 1000€, das mach ich nicht mit.

Godmode
2014-02-18, 17:15:01
Schönes Ding, zeigt wohin die Richtung geht, hoffentlich kommt der Highend Chip diesmal früher, und hoffentlich nicht als Titan 2 für schlappe 1000€, das mach ich nicht mit.

Du kannst Gift darauf nehmen dass GM200 wieder 900-1000 Euro kosten wird, warum sollten sie das auch ändern, die Leute kaufen die Karten.

Schaffe89
2014-02-18, 17:16:09
Ich sehe bei PCGH keine echten Einbrüche und auch auf HT4U sieht das ganz normal aus:

Bei Computerbase schon, schreiben sie auch selbst im Fazit.

Wortlaut PCGH: "Im Vergleich mit der aktuellen Konkurrenz, AMDs Radeon R7 260X, kann sich die Geforce GTX 750 Ti einen knappen Gleichstand erkämpfen, kostet in Relation dazu aber zu viel."

Dann müssen es die Spiele herausreißen die nicht im Onlineparcour sind.

Die Effizienz ggü. der 650 Ti ist um 60% gestiegen (HT4U und TPU).

Bei TPU sind es wirklich 60%, respekt!

Ex3cut3r
2014-02-18, 17:17:06
Du kannst Gift darauf nehmen dass GM200 wieder 900-1000 Euro kosten wird, warum sollten sie das auch ändern, die Leute kaufen die Karten.

Na Super, was soll das? Ich mein früher wars doch auch nicht der Fall, da hat man gute 500€ auf dem Tisch gelegt und das wars dann, aber was soll der Mist? ;D

Apple der Grafikkarten? ^^ Hoffe die Titan Käufer, haben daraus gelernt, und die "Titan 2" bleibt diesmal etwas schwerer im Regal. :D

Blediator16
2014-02-18, 17:19:01
Na Super, was soll das? Ich mein früher wars doch auch nicht der Fall, da hat man gute 500€ auf dem Tisch gelegt und das wars dann, aber was soll der Mist? ;D

Apple der Grafikkarten? ^^

Entweder man ist das Opfer des Konsums oder man nimmt das Konkurrenzprodukt oder man gibt sich mit dem alten/zweitschnellsten zufrieden. Einfache Geschichte in der Theorie. Praktisch gibt es zu viele Konsumopfer.

Ex3cut3r
2014-02-18, 17:21:02
Na gut, lassen wir das lieber, ist eh Offtopic.

Loeschzwerg
2014-02-18, 18:17:49
Uhh, hoffentlich kommen bald passende Tools um die Taktfreudigkeit zeigen zu können. 750 Ti Ref Design => 6 Pin rauflöten, Spannungswandler / Elkos tauschen, Elkos vergrößern, Bios anpassen und dann schauen was geht ^^

AffenJack
2014-02-18, 18:20:22
NV will es warum auch immer nicht sagen:
Spricht eher für HPm IMO.

Unsicher, kann man eigentlich kaum sagen.
Anands Worte klingen zum Beispiel anders:

For those of you keeping track of voltages, you’ll find that the voltages for GM107 as used on the GTX 750 series is not significantly different from the voltages used on GK107. Since we’re looking at a chip that’s built on the same 28nm process as GK107, the voltages needed to drive it to hit the desired frequencies have not changed.
http://anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell/23

Normalerweise ist Anand da immer gut informiert und mag sein, dass die Kontaktleute von ihm auch etwas Redefreundlicher sind. Zur Vcore gabs meine ich zumindest mal nen S600/S800 Vergleich von Qualcomm, wo HPM wohl deutlich niedrigere Frequenzen brauchte. Ailuros müsste den B3D Link gepostet haben. Daher könnte das durchaus auch 28nm HP sein. Aber könnte natürlich auch nur ne Mutmaßung von Anandtech sein.

matty2580
2014-02-18, 18:22:08
@Loeschzwerg:
Der Verrückte will die Karte komplett umbauen. ^^
Bios Mod + gutes Custom Design reicht glaube ich für den Anfang.

Loeschzwerg
2014-02-18, 18:34:05
@Loeschzwerg:
Der Verrückte will die Karte komplett umbauen. ^^
Bios Mod + gutes Custom Design recht glaube ich für den Anfang.

Ich mag irgendwie das kleine PCB und es liefert ja schon alle passenden Optionen mit :D Die Bauteile habe ich größtenteils eh schon herumfliegen ^^ Da spare ich mir dann den Aufschlag für Partnerkarten.

Die Palit geht ohne 6 Pin Anschluss schon ziemlich gut ab mit dem höheren Takt, dürfte aber schon nahe am 75Watt Limit liegen (wobei ja immer noch gut Toleranz nach oben ist).

Knuddelbearli
2014-02-18, 18:44:54
Ihr habt doch alle Karten mit dem neuen Treiber gebencht also muss ja am Chip gebaut worden sein wenn sie schneller als die 660 ist.

Als ob man Verbesserungen per Treiber nicht nur für bestimmte Karten freigeben könnte ...

N0Thing
2014-02-18, 18:57:08
Ja:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-vs-OpenCL-Performance-Luxmark-Maxwell-1109949/

Wisst ihr schon, ob die OpenCL-Performance auch mit dem nun aktuellen 334.89 "gefixt" ist?

PCGH_Carsten
2014-02-18, 19:00:51
Wisst ihr schon, ob die OpenCL-Performance auch mit dem nun aktuellen 334.89 "gefixt" ist?

Den hab ich noch nicht ausprobieren können.

matty2580
2014-02-18, 19:09:25
Die Palit geht ohne 6 Pin Anschluss schon ziemlich gut ab mit dem höheren Takt, dürfte aber schon nahe am 75Watt Limit liegen (wobei ja immer noch gut Toleranz nach oben ist).
Die finde ich auch gut. Fehlt blos noch der 6-Pin Anschluss.

http://www.palit.biz/palit/vgapro.php?id=2252

uweskw
2014-02-18, 19:34:44
Wirklich eine schön sparsame Karte, auch im Desktopbetrieb 7 Watt weniger als die GTX 660, unter Last 70 weniger. Und das unter 28nm! Gratulation.
ABER: Die 660er kostet gerade mal 10 Euro mehr und ist 20-30% schneller als die 750Ti. Die muss also gewaltig runter vom Preis. Ich hoffe das ist kein Vorausblick auf die neue Generation!

Greetz
U.S.

Loeschzwerg
2014-02-18, 19:41:56
Warten wir mal erste Listungen ab. Wird es das Referenz-Design überhaupt auf den Markt schaffen?

matty2580
2014-02-18, 19:48:36
Wahrscheinlich nicht, wie CB schreibt.

Ob das Referenzdesign allerdings in den Handel kommen wird, ist zum Start der GeForce GTX 750 Ti noch offen, da die Partner in den niedrigeren Preisklassen gewöhnlich nur Eigenentwicklungen vermarkten.

http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/3/

Lowkey
2014-02-18, 19:50:00
Der Preis ... Der Preis ... Der Preis....

Ansonsten interessant was möglich ist.

Loeschzwerg
2014-02-18, 19:55:24
@matty: Ok, hab ich glatt überlesen.

Vielleicht klopft ja PNY als Exklusivpartner noch das Ref Design auf den Markt :D Aber ich hab da auch meine Zweifel... damit hat sich mein Projekt ja schon wieder erledigt xD Edit: Mal schauen was an PCBs so auf den Markt rollt.

Unicous
2014-02-18, 19:56:33
Preis? Preis?

ASUS GeForce GTX 750 Ti OC

Boost Clock: 1.150 MHz

http://www.caseking.de/shop/catalog/Grafikkarten/Alle-Grafikkarten/ASUS-GeForce-GTX-750-Ti-OC-2048-MB-DDR5-HDMI-DVI-VGA::26218.html?campaign=psm/geizhals

149 Euro.

www.caseking.de/shop/catalog/Grafikkarten/NVIDIA-Grafikkarten/Alle-NVIDIA-Grafikkarten/EVGA-GeForce-GTX-750-Ti-FTW-ACX-2048-MB-DDR5-DP-HDMI-DVI::26221.html

Boost Clock: 1.268 MHz

160 Euro

http://www.caseking.de/shop/catalog/Grafikkarten/NVIDIA-Grafikkarten/Alle-NVIDIA-Grafikkarten/EVGA-GeForce-GTX-750-Ti-2048-MB-DDR5-DP-HDMI-DVI::26219.html

Standard Boost (glaube ich: 1.085 MHz)

139 Euro



Hier etwas übersichtlicher
http://www.mindfactory.de/Hardware/Grafikkarten+%28VGA%29/GeForce+GTX+fuer+Gaming/GTX+750+Ti.html/listing_sort/6

ab ca 121 Euro (im Moment)

Loeschzwerg
2014-02-18, 20:07:16
Für den Launchtag sind die Preise ok.

Die GTX 750 ist schon bei Geizhals gelistet:
http://geizhals.at/de/?cat=gra16_512&xf=1439_GTX+750#xf_top

Hm... EVGA mit Ref-PCB, passt :) @Unicous: Thx für den Link.

Timbaloo
2014-02-18, 20:26:24
Schon jemand gecheckt ob die Karte zu Shaman oder MK-26 kompatibel sind? :freak:

Raff
2014-02-18, 20:34:47
Schon jemand gecheckt ob die Karte zu Shaman oder MK-26 kompatibel sind? :freak:

Klar, lässt sich problemlos passiv kühlen.

Ach, die Frage war ernst gemeint? Nein, nicht ausprobiert, da das Ding eher Strom und Kälte erzeugt als das Gegenteil. :ugly:

MfG,
Raff

Hugo78
2014-02-18, 20:46:05
da das Ding eher Strom und Kälte erzeugt als das Gegenteil. :ugly:

Ein Maxwellscher Dämon (http://de.wikipedia.org/wiki/Maxwellscher_D%C3%A4mon). :biggrin:

Ailuros
2014-02-18, 22:10:02
http://international.download.nvidia.com/geforce-com/international/pdfs/GeForce-GTX-750-Ti-Whitepaper.pdf

With the changes made in Maxwell’s new SMM, the GPU’s hardware units are utilized more often, resulting in greater performance and power efficiency. The GeForce GTX 750 Ti delivers over 1.7X more performance than GK107, and with a TDP of just 60W!

Und bevor die Trollerei wieder los geht von mir aus 65W TDP, aber >70% Mehrleistung zum GK107 ist es schon.

Timbaloo
2014-02-18, 22:15:49
Hat eine der Review-Seiten mal den Speicher-Takt runtergeschraubt und geschaut wie sich die Bandbreite auf die Performance auswirkt? Hab dazu noch nix gefunden.

Orbmu2k
2014-02-18, 22:30:01
Maxwell: 0.71875V .. 1.30625V in 0.000625V Schritten
Fermi/Kepler: 0.82500V .. 1.21250V in 0.001250V Schritten



[01] 0270,0MHz @ [18] 0718,750mV - 0812,500mV
[02] 0314,0MHz @ [18] 0718,750mV - 0812,500mV
[03] 0324,0MHz @ [18] 0718,750mV - 0812,500mV
[04] 0392,0MHz @ [18] 0718,750mV - 0812,500mV
[05] 0405,0MHz @ [18] 0718,750mV - 0812,500mV
[06] 0549,0MHz @ [19] 0756,250mV - 0856,250mV
[07] 0562,0MHz @ [20] 0756,250mV - 0862,500mV
[08] 0575,0MHz @ [21] 0762,500mV - 0868,750mV
[09] 0588,0MHz @ [22] 0768,750mV - 0875,000mV
[10] 0601,0MHz @ [23] 0768,750mV - 0875,000mV
[11] 0614,5MHz @ [24] 0775,000mV - 0881,250mV
[12] 0627,5MHz @ [25] 0781,250mV - 0887,500mV
[13] 0640,5MHz @ [26] 0787,500mV - 0893,750mV
[14] 0653,5MHz @ [27] 0787,500mV - 0900,000mV
[15] 0666,5MHz @ [28] 0793,750mV - 0906,250mV
[16] 0679,5MHz @ [29] 0800,000mV - 0912,500mV
[17] 0692,5MHz @ [30] 0806,250mV - 0912,500mV
[18] 0705,5MHz @ [31] 0806,250mV - 0918,750mV
[19] 0719,0MHz @ [32] 0812,500mV - 0925,000mV
[20] 0732,0MHz @ [33] 0818,750mV - 0931,250mV
[21] 0745,0MHz @ [34] 0825,000mV - 0937,500mV
[22] 0758,0MHz @ [35] 0831,250mV - 0943,750mV
[23] 0771,0MHz @ [36] 0837,500mV - 0950,000mV
[24] 0784,0MHz @ [37] 0837,500mV - 0956,250mV
[25] 0797,0MHz @ [38] 0843,750mV - 0962,500mV
[26] 0810,5MHz @ [39] 0850,000mV - 0968,750mV
[27] 0823,5MHz @ [40] 0856,250mV - 0975,000mV
[28] 0836,5MHz @ [41] 0862,500mV - 0981,250mV
[29] 0849,5MHz @ [42] 0868,750mV - 0987,500mV
[30] 0862,5MHz @ [43] 0875,000mV - 1000,000mV
[31] 0875,5MHz @ [44] 0881,250mV - 1006,250mV
[32] 0888,5MHz @ [45] 0887,500mV - 1012,500mV
[33] 0901,5MHz @ [46] 0893,750mV - 1018,750mV
[34] 0915,0MHz @ [47] 0900,000mV - 1031,250mV
[35] 0928,0MHz @ [48] 0906,250mV - 1037,500mV
[36] 0941,0MHz @ [49] 0912,500mV - 1043,750mV
[37] 0954,0MHz @ [50] 0918,750mV - 1056,250mV
[38] 0967,0MHz @ [51] 0925,000mV - 1062,500mV
[39] 0980,0MHz @ [52] 0931,250mV - 1075,000mV
[40] 0993,0MHz @ [53] 0937,500mV - 1081,250mV
[41] 1006,0MHz @ [54] 0943,750mV - 1093,750mV
[42] 1019,5MHz @ [55] 0950,000mV - 1106,250mV
[43] 1032,5MHz @ [56] 0956,250mV - 1112,500mV
[44] 1045,5MHz @ [57] 0968,750mV - 1125,000mV
[45] 1058,5MHz @ [58] 0975,000mV - 1143,750mV
[46] 1071,5MHz @ [59] 0981,250mV - 1156,250mV
[47] 1084,5MHz @ [60] 0993,750mV - 1175,000mV
[48] 1097,5MHz @ [61] 1000,000mV - 1193,750mV
[49] 1110,5MHz @ [62] 1012,500mV - 1218,750mV
[50] 1124,0MHz @ [63] 1018,750mV - 1287,500mV
[51] 1137,0MHz @ [64] 1031,250mV - 1306,250mV
[52] 1150,0MHz @ [65] 1037,500mV - 1306,250mV
[53] 1163,0MHz @ [66] 1050,000mV - 1306,250mV
[54] 1176,0MHz @ [67] 1062,500mV - 1306,250mV
[55] 1189,0MHz @ [68] 1075,000mV - 1306,250mV
[56] 1202,0MHz @ [69] 1087,500mV - 1306,250mV
[57] 1215,5MHz @ [70] 1112,500mV - 1306,250mV
[58] 1228,5MHz @ [71] 1143,750mV - 1306,250mV
[59] 1241,5MHz @ [72] 1175,000mV - 1306,250mV
[60] 1254,5MHz @ [73] 1212,500mV - 1306,250mV
[61] 1267,5MHz @ [74] 1268,750mV - 1306,250mV
[62] 1280,5MHz @ [75] 1306,250mV - 1306,250mV
[63] 1293,5MHz @ [76] 1306,250mV - 1306,250mV

uweskw
2014-02-18, 23:03:13
...
Und bevor die Trollerei wieder los geht von mir aus 65W TDP, aber >70% Mehrleistung zum GK107 ist es schon.


Wie kommst du auf 70%?
Lt. Computerbase und Ht4u ist die 750Ti ca. 30% schneller als die 650Ti
Oder sprichst du von 70% mehr FPS pro Watt?:freak:

Greetz
U.S.

Ailuros
2014-02-18, 23:08:35
Wie kommst du auf 70%?
Lt. Computerbase und Ht4u ist die 750Ti ca. 30% schneller als die 650Ti
Oder sprichst du von 70% mehr FPS pro Watt?:freak:

Greetz
U.S.

650Ti = GK106
650 = GK107

Ich sagte GM107 vs. GK107.

AnarchX
2014-02-18, 23:10:37
Die GTX 650 Non-Ti ist der GK107-Maximalausbau.

Laut Hardware.fr hat NV wohl bei ihrer TDP die 3,3V Schiene vergessen.
Im BIOS sind zudem auch nur 38,5W hinterlegt: http://www.techpowerup.com/vgabios/153726/msi-gtx750ti-2048-140115.html
http://www.techpowerup.com/vgabios/153749/msi-gtx750-1024-140115.html
Da berücksichtigt der Boost Mechanismus wohl nur die 12V Schiene.

Unicous
2014-02-18, 23:15:30
Das hört sich aber ganz schön dilletantisch an?

Oder hat das mit PCIe zu tun?

PCGH_Carsten
2014-02-18, 23:16:51
Laut Hardware.fr hat NV wohl bei ihrer TDP die 3,3V Schiene vergessen.

So sieht's fast aus. Nur auf der 12-Volt-Schiene gemessen bleiben wir auf ca. 0,5 Watt an den 60 Watt TDP dran.

uweskw
2014-02-19, 00:26:26
Laut Hardware.fr hat NV wohl bei ihrer TDP die 3,3V Schiene vergessen.
Im BIOS sind zudem auch nur 38,5W hinterlegt: ....


So einen Fehler hätte ich eher AMD zugetraut:biggrin:



Die GTX 650 Non-Ti ist der GK107-Maximalausbau.....



OK, 70% zwischen GTX 650 Non-Ti und 750Ti. Da muss man erst mal nen Test finden....
Den einzigen deutschen Test den ich mit der GTX 750 gefunden habe ist der von Computerbase, und da ist die 650er nur als Ti dabei... Hat die GTX 650 überhaupt einer von den "Großen" mal getestet?

Für die "lahmen" Karten gibts halt immer wenige Tests, obwohl in dem Bereich wohl am meisten Verkauft wird.

Greetz
U.S.

Blackhand
2014-02-19, 00:29:02
Wäre an sich wohl auch der top dedizierte PhysX Beschleuniger.

matty2580
2014-02-19, 00:42:07
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/Test-Geforce-GTX-650-1023638/
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650/
http://www.tomshardware.de/nvidia-geforce-gtx-660-geforce-gtx-650-benchmark-test,testberichte-241099.html

Das sind natürlich alles alte Tests der GTX 650, ohne direkten GTX 750 Vergleich.


http://www7.pic-upload.de/19.02.14/dk27d3zgxrz8.jpg (http://www.pic-upload.de/view-22312593/GTX-650.jpg.html)http://www7.pic-upload.de/19.02.14/bbsg7p2r1b36.jpg (http://www.pic-upload.de/view-22312595/GTX-750.jpg.html)
Links Test der GTX 650 (http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-650/4/) (CB) vom 21.09.2012, und rechts Test der GTX 750(ti) (http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/5/) (CB) vom 18.02.2014.

p.s.
@Ailuros: Leider konnte ich keinen direkten Test einer 650 und 750 finden. Sonst einfach die Testsysteme vergleichen. Links sind unter den Pics, auch mit 8xAA/16xAF.

Ailuros
2014-02-19, 06:46:56
Sind die benutzten benchmarks zwischen den beiden Seiten ueberhaupt gleich? Sonst wie sieht es mit 8xMSAA aus? :wink:

Flusher
2014-02-19, 10:43:34
Wäre an sich wohl auch der top dedizierte PhysX Beschleuniger.

Gibt es überhaupt noch nennenswerte PhysX Spiele auf dem Markt?

Raff
2014-02-19, 10:49:23
Gibt es überhaupt noch nennenswerte PhysX Spiele auf dem Markt?

GPU-Physx How-to mit Benchmarks: Was brauche ich, was bringt eine Extra-Grafikkarte als Physikprozessor? (http://www.pcgameshardware.de/Assassins-Creed-4-Black-Flag-PC-256660/Specials/GPU-Physx-How-to-mit-Benchmarks-1106922/)

In Assassin's Creed 4 lohnt sich eine Physik-Geforce definitiv. Allerdings hält Nvidia Physx so restriktiv, dass der Titel für Maxwell-Kompatibilität erst nachgepatcht werden muss, aktuell kann der GM107 dort keine Physik berechnen. Einige Entscheidungen Nvidias verwundern doch sehr.

MfG,
Raff

AnarchX
2014-02-19, 10:52:38
Laut Treiber haben doch nur zwei Spiele dieses Problem, weil wohl der Entwickler hier nach Device-ID den PhysX-Support freigibt.

btw.
EVGA GTX 750 Ti FTW mit bis zu 1,447GHz Boost @ OC: http://www.youtube.com/watch?v=9b5VxTD4uX0

Raff
2014-02-19, 10:56:49
Das ist aber nicht rockstable – 1.337 MHz stecken aber recht problemlos in Custom-Designs. :)

MfG,
Raff

Flusher
2014-02-19, 10:57:51
GPU-Physx How-to mit Benchmarks: Was brauche ich, was bringt eine Extra-Grafikkarte als Physikprozessor? (http://www.pcgameshardware.de/Assassins-Creed-4-Black-Flag-PC-256660/Specials/GPU-Physx-How-to-mit-Benchmarks-1106922/)

In Assassin's Creed 4 lohnt sich eine Physik-Geforce definitiv. Allerdings hält Nvidia Physx so restriktiv, dass der Titel für Maxwell-Kompatibilität erst nachgepatcht werden muss, aktuell kann der GM107 dort keine Physik berechnen. Einige Entscheidungen Nvidias verwundern doch sehr.

MfG,
Raff

Ok sind wohl doch ein paar Spiele

Mit Assassin's Creed 4, Batman Arkham Origins und Call of Duty Ghosts erschienen noch vor Weihnachten 2013 drei interessante Spiele, welche sich optional mithilfe GPU-beschleunigter Physik aufwerten lassen. Weitere Anwendungen mit GPU-Physx-Beschleunigung sind unter anderem Metro Last Light, Mafia 2, der 3D Mark Vantage (GPU-Beschleunigung im CPU-Test 2), Borderlands 2 sowie die Unreal-Engine 3 & 4 (letztere kommt aktuell in keinem erhältlichen Titel zum Einsatz).

Ob die aber eine durchschlagende Relevanz haben um den Verkauf kleinerer GPUs als PhysX-Beschleuniger anzukurbeln? (Zugegeben: Offtopic)

Immortal
2014-02-19, 12:11:40
Saubere Arbeit. Da fühle ich mich ja richtig motiviert, nach jahrelanger ATi/AMD-Nutzung ins grüne Lager umzusteigen. :eek: Aber erst mal warten, wie sich die Preise entwickeln; einen kleinen Aufpreis wäre mir der geringere Stromverbrauch allerdings wert.

Und, hallo nVidia... wie wäre es mal mit passiven Modellen?! Oder macht ihr das aus Prinzip nicht? Bisher bekam man nichts schnelleres als eine GT640 passiv gekühlt, obwohl angesichts einer HD7750 Ultimate ja zumindest eine passiv gekühlte GT650 möglich sein sollte.

Ernsthaft: hat nVidia da was gegen? Oder sind da nur die OEMs weniger ambitioniert als im AMD-Lager?

Raff
2014-02-19, 12:13:54
Abwarten, da kommen bestimmt noch Passivkarten. Anfangs wird eher mit dickem OC-Takt geprollt.

MfG,
Raff

Darlie
2014-02-19, 12:39:05
Mich würde auch die Performance als dedizierter PhysX Beschleuniger interessieren. Mit Call of Duty Ghosts,Mafia II,Metro Last Light und Batman hätte ich da ein paar Games zu. Wenn ich das richtig sehe wird PhyX gar nicht mehr bei Tests berücksichtigt? Wäre mal spannend zu sehen wie damit eine AMD in den Spielen beschleunigt wird,somit hätte man dann alles an API`s im Rechner drin was es gibt :D
Zum Preis: Sind Launchpreise, aber das Teil muss definitiv runter auf ~100€.
Gefällt mir: http://geizhals.de/inno3d-geforce-gtx-750-ti-n75t-1sdv-d5cwx-a1072388.html

Mr. Lolman
2014-02-19, 12:39:48
Saubere Arbeit. Da fühle ich mich ja richtig motiviert, nach jahrelanger ATi/AMD-Nutzung ins grüne Lager umzusteigen. :eek: Aber erst mal warten, wie sich die Preise entwickeln; einen kleinen Aufpreis wäre mir der geringere Stromverbrauch allerdings wert.

Echt? Um den gleichen Preis (ab 130€) gibts eine 7870GHz Edition. Die ist 5-10% flotter als eine 270 (eigtl. fast auf 270X Niveau). Und eine 270 ist schon 35-40% flotter als die 750TI. Grad in dem Preissegment, wo eher jedes Quäntchen Leistung zählt, spricht eigtl. nix für die 750TI: http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index40.php

Immortal
2014-02-19, 13:02:33
Grad in dem Preissegment, wo eher jedes Quäntchen Leistung zählt, spricht eigtl. nix für die 750TI
Doch, der Stromverbrauch. 150+ Watt-Monster kommen mir nicht in den PC bzw. unter den Fernseher. Die 750Ti macht es möglich, die doppelte Leistung meiner HD7750 ohne Abstriche an Stromverbrauch oder Lautstärke in meinem HTPC unterzubringen. Das zählt für mich mehr als Leistung. Aber über die HD7750 wurde sich ja damals auch aufgeregt wegen der Preislage.

matty2580
2014-02-19, 13:19:42
Das ist aber nicht rockstable – 1.337 MHz stecken aber recht problemlos in Custom-Designs. :)
Wie schätzt du das oc-Potential der 750ti ein?
Die bei CB getestete Palit hat im Gesamtranking schon 20% mehr als das Ref-Design, und erreicht so eine GTX 660.
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/5/
Könnte man stabil (Bios-Mod und/oder bessere Kühlung) so weit übertakten, dass man eine HD 7870 oder GTX 660ti erreicht?

Spasstiger
2014-02-19, 13:35:25
Ich finde die Energieeffizienz ganz erstaunlich, das sind 40% Vorteil gegenüber den effizientesten Kepler-Mainstream-Karten. Das lässt auf einen potenten GM104 hoffen, auch in 28 nm und mit unter 200 Watt TDP. Preis-/Leistungssprünge wirds in nächster Zeit aber leider nicht geben.

Timbaloo
2014-02-19, 13:43:13
Durch die Treiber-Innereien ist doch eigentlich seit ein paar Tagen schon klar, dass es keinen GM104 geben wird, erst wieder einen GM204 der sicher nicht mehr mit 28HP kommt.

matty2580
2014-02-19, 14:28:45
Da wartet man doch gerne drauf, auf einen GM204 in 20nm mit noch besserer Effizienz und Leistung. ^^

p.s. Ich warte noch bis der Preis der Gigabyte (http://geizhals.de/gigabyte-geforce-gtx-750-ti-windforce-2x-oc-gv-n75toc-2gi-a1072367.html) oder Zotac (http://geizhals.de/zotac-geforce-gtx-750-ti-oc-zt-70602-10m-a1072377.html) etwas fällt, und ich einen passenden Bios-Mod dafür gefunden habe.
Mit deutlich erhöhten Powertarget kommt man bestimmt auf GK104 Niveau, und ich habe ein neues "Spielzeug".

Und viel Spaß mit der 750ti Dural.^^

Dural
2014-02-19, 14:36:48
Ja das macht Lust auf mehr.

habe mir gerade die 750Ti FTW mit 6-Pin PCI-E Stecker besorgt, rein aus Interesse wie sich Maxwell sich "anfühlt" ;)

Blediator16
2014-02-19, 15:03:13
Man kann Nvidia mal wieder für ihre gute PR Abteilung loben. Im Grunde sind alle heiss auf Maxwell, egal ob es nach oben genau so gut skaliert. Keiner spricht mehr von AMDs neuen Karten. Alle fragen nur noch wann die größeren Brüder kommen. Wenn AMD es nicht schafft einen ähnlichen Knall hinzulegen, wirds lustig.

Godmode
2014-02-19, 15:14:12
Man kann Nvidia mal wieder für ihre gute PR Abteilung loben. Im Grunde sind alle heiss auf Maxwell, egal ob es nach oben genau so gut skaliert. Keiner spricht mehr von AMDs neuen Karten. Alle fragen nur noch wann die größeren Brüder kommen. Wenn AMD es nicht schafft einen ähnlichen Knall hinzulegen, wirds lustig.

Eine neue Architektur bekommt immer etwas mehr Aufmerksamkeit. Wenn AMD wieder was richtig neues Vorstellt, rotiert das Forum sicherlich auch ganz ordentlich.

Der Faden hat übrigens gerade mal 4 Seiten.

Mr. Lolman
2014-02-19, 15:38:09
Doch, der Stromverbrauch. 150+ Watt-Monster kommen mir nicht in den PC bzw. unter den Fernseher. Die 750Ti macht es möglich, die doppelte Leistung meiner HD7750 ohne Abstriche an Stromverbrauch oder Lautstärke in meinem HTPC unterzubringen. Das zählt für mich mehr als Leistung. Aber über die HD7750 wurde sich ja damals auch aufgeregt wegen der Preislage.

Ok. Das ist aber auch der einzige Pluspunkt (mal abgesehen davon, dass eine 7870 durch undervolting auch mal ~50W weniger brauchen kann).

Hier mal ein kleiner Leistungsvergleich:


750TI (1085MHz) 270X

Alan Wake 4xAA 37,1 32,2
Max Payne 3 4xAA 35,7 34,2
Anno2070 keinAA 31,9 30,5
Metro:LL keinAA 37,8 27,8
Brink keinAA 73,3 48,5
Bioshock keinAA 34,0 29,4
Crysis3 2xAA 36,0 30,0
AC:Black Flag 4xAA 22,0 22,8
Farcry 3 keinAA 35,8 33,9
Hitman Abs. keinAA 37,7 35,3
Sleeping Dogs SSAA 36,3 34,2
COD: Ghosts PostAA 27,1 25,7
TES5:Skyrim 4xAA 55,6 59,2
Dirt:Showdown 4xAA 52,4 59,3
Witcher2 keinAA 57,1 47,2
Battlefield4 keinAA 36,8 29,2
Tombraider keinAA 30,0 28,2


Schaut doch nicht so schlecht aus, für die 750TI (vgl zu einer gleich teuren 7870GHz mit ~270X Leistung), oder?

Zumindest wenn man ausser Acht lässt, dass die AMD-Karte in meinem Beispiel >2x soviel Pixel berechnet hat, da ich 1680x1050 bei der 750TI mit 2560x1440 bei der 270X verglichen hab. ;)

http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index42.php?dummy=&advancedFilter=false&prod%5B%5D=NVIDIA+GeForce+GTX+750+Ti+%5B1085+MHz%5D&prod%5B%5D=AMD+Radeon+R9-270X&filter%5B0%5D%5B%5D=1680&filter%5B0%5D%5B%5D=2560&filter%5B2%5D%5B%5D=1&filter%5B2%5D%5B%5D=2&filter%5B2%5D%5B%5D=2+x+2+SSAA&filter%5B2%5D%5B%5D=2x2+SSAA&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B2%5D%5B%5D=Post+AA&filter%5B2%5D%5B%5D=SSAA&filter%5B3%5D%5B%5D=16&aa=all

Undertaker
2014-02-19, 15:54:21
Schaut doch nicht so schlecht aus, für die 750TI (vgl zu einer gleich teuren 7870GHz mit ~270X Leistung), oder?

Was ist denn die 270X für ein Vergleich zu 750 Ti? :freak:

Die 750 Ti ist schon jetzt ab 120 Euro gelistet (125 Euro lieferbar), die 270X geht bei 155 Euro los. Und die 750 Ti wird die nächsten Tage noch weiter im Preis fallen.

Gegner der 750 Ti sind 260X und 265/HD 7850. Die langsamere 260X ist 25 Euro günstiger, die etwas schnellere 265 noch nicht lieferbar. Die 7850 kostet ähnlich viel und ist kaum schneller, was angesichts des höheren Verbrauches eher ein schlechteres Angebot abgibt.

Mr. Lolman
2014-02-19, 16:10:57
Was ist denn die 270X für ein Vergleich zu 750 Ti? :freak:

Die 750 Ti ist schon jetzt ab 120 Euro gelistet (125 Euro lieferbar), die 270X geht bei 155 Euro los. Und die 750 Ti wird die nächsten Tage noch weiter im Preis fallen.

Die 7870GHz Edition ist nur minimal langsamer als die 270X und gibts lieferbar ab 129,99...

Undertaker
2014-02-19, 16:21:34
OK, die habe ich übersehen. Allerdings nur bei einem Shop (und wer den kennt, bestellt dort besser nicht ;)), Normalpreis beginnt bei 142 Euro. Trotzdem ein guter Preis, der sicherlich vom Auslaufen dieses Modells profitiert, während die 750 Ti wie erwähnt noch am Beginn des Preisverfalls steht. Und dann darf man natürlich den großen Verbrauchsbonus nicht vergessen, wir reden hier immerhin von fast 100 Watt Mehrverbrauch des Gesamtsystems.

Ich warte gespannt auf die ersten passiven Modelle, wäre eine schöne Ablösung für meine alte GTX 460. :)

Iruwen
2014-02-19, 16:21:57
142,40€, das andere ist nur ein einziges Angebot von Pixmania. Und ewig wirds die auch nicht mehr geben.

/e: what he said.

dildo4u
2014-02-19, 16:24:22
Karten die im Abverkauf sind sind ein schlechter Maßstab,der Markt wird die Preise auch bei NV anpassen eine 660 gibt's ab 140€.Das passt bei der 750TI noch überhaupt nicht.

AnarchX
2014-02-19, 16:33:13
Ansonsten sollte man mittlerweile auch gewöhnt sein, dass NV sich einen gewissen Aufpreis bei vergleichbarer Leistung erlauben kann.

Und für einen eventuellen Preiskampf gegen Bonaire ist GM107 mit kleinerem Die und langsameren Speicher (6 vs 7Gbps) nicht so schlecht aufgestellt.
Palit z.B. (http://www.techpowerup.com/reviews/Palit/GTX_750_Ti_StormX_Dual/25.html) bietet schon jetzt für 3% Aufpreis gegenüber dem UVP 16% mehr Leistung.

Wer jetzt kauft und keine besonderen HTPC-Ambitionen hat kann natürlich noch zur 7870 greifen.

Iruwen
2014-02-19, 16:36:18
Schöne Umschreibung für "NV verdient sich vermutlich mal wieder dumm und dämlich" :D

Thunder99
2014-02-19, 17:02:09
Irgendwie müssen die ja ihre Tegra Sparte mit Geld füttern :ugly:

Dural
2014-02-19, 18:38:36
meine 750ti hat übrigens einen chip aus der woche 49, der gm107 ist damit offensichtlich schon länger in produktion.

M4xw0lf
2014-02-19, 20:04:08
meine 750ti hat übrigens einen chip aus der woche 49, der gm107 ist damit offensichtlich schon länger in produktion.
No shit Sherlock, deswegen kann man die Karten auch kaufen :biggrin:

Loeschzwerg
2014-02-19, 20:08:15
Eben, 10-11 Wochen sind garnix ^^ Will nicht wissen wie lange der GM107 intern schon in diversen Revisionen herumeiert.

dildo4u
2014-02-19, 23:05:30
An Upgrade Story: Can the GTX 750 Ti Convert OEMs PCs to Gaming PCs?

http://youtu.be/A_Pnte_niJE

http://www.pcper.com/reviews/Graphics-Cards/Upgrade-Story-Can-GTX-750-Ti-Convert-OEMs-PCs-Gaming-PCs

Botcruscher
2014-02-19, 23:57:02
Seltsame Werbeaktion. Jedes Billig-NT hat doch einen Anschluss. Hätte man schon immer machen können.

Marty98
2014-02-20, 04:22:20
Seltsame Werbeaktion. Jedes Billig-NT hat doch einen Anschluss. Hätte man schon immer machen können.

Stimmt nicht. Ich kenne viele Office-Oem-PCs und vielleicht 5% haben einen 6-Pin Graka Anschluß. Mit Adapter geht es natürlich immer.

Immortal
2014-02-20, 10:01:10
Oder das NT hat, wie mein auf die Schnelle gekauftes altes, zwar einen Stecker, macht aber Schwierigkeiten, wenn man den dann auch wirklich benutzt... Ohne den separaten Stecker hat man einfach eine potentielle Störquelle weniger bzw. einen Punkt weniger, um den man sich Gedanken machen muß, das ist schon ein Vorteil.

Dural
2014-02-20, 10:08:11
fast 3 monate sind schon eher lange, erst recht bei einen so kleinen chip. das kürzeste was ich jemals gesehen habe waren 3 wochen (!!!) bei einer 9800GTX+ mit dem damals brandneuen G92b chip.

wenn der chip schon so lange in produktion ist dürften da OEMs sicher schon zu geschlagen haben, Apple?

(del676)
2014-02-20, 10:10:18
Habe eine gespaltene Meinung zu der Karte.
Preis/Performance ist fuer nvidia ok (120€). Nicht gut, aber wenigstens OK.
Fuer 20€ mehr bekommt man eine R9 270 die um Durchschnitt ~33% schneller ist. Muesste ich eine Karte kaufen, waers definitiv die 270, wenn nicht die 270x.

Spieleleistung/Watt ist ausgezeichnet. Waere schoen wenn nvidia mit Maxwell auch im Highend Bereich das Preis/Performance Verhaeltnis senken koennte.

AnarchX
2014-02-20, 10:15:57
fast 3 monate sind schon eher lange, erst recht bei einen so kleinen chip. das kürzeste was ich jemals gesehen habe waren 3 wochen (!!!) bei einer 9800GTX+ mit dem damals brandneuen G92b chip.
In China war aber Ende Januar Neujahrsfest, sodass die aktuellen Karten eher davor hergestellt wurden.


wenn der chip schon so lange in produktion ist dürften da OEMs sicher schon zu geschlagen haben, Apple?
Es gibt diverse Treibereinträge zu mobilen Lösungen, die wohl auch bald vorgestellt werden sollten.

dildo4u
2014-02-21, 13:40:05
NVIDIA Coin Mining Performance Increases with Maxwell and GTX 750 Ti[

http://abload.de/img/perfpowerxdj4o.png

http://www.pcper.com/news/General-Tech/NVIDIA-Coin-Mining-Performance-Increases-Maxwell-and-GTX-750-Ti

Blediator16
2014-02-21, 14:04:44
Ja dann :D

fondness
2014-02-21, 14:11:23
NVIDIA Coin Mining Performance Increases with Maxwell and GTX 750 Ti[

http://abload.de/img/perfpowerxdj4o.png

http://www.pcper.com/news/General-Tech/NVIDIA-Coin-Mining-Performance-Increases-Maxwell-and-GTX-750-Ti

Er nimmt für die 750Ti OC 60W an (obwohl selbst die normale nachweislich mehr benötigt) und für die 290X 300W.
Schon alleine das die OC-Version in dem Diagramm energieeffizienter sein soll als die Standard-Version ist unsinnig. Aber von PCPER erwartet man ja auch wenig anderes.

Iruwen
2014-02-21, 14:11:26
Dann müssten die ja bald knapp werden und die Preise steigen.

/e: das kannst du ja sicher noch kurz mit nachvollziehbaren realistischen Werten untermauern. Ich finde mehrere Angaben um 370W für das Gesamtsystem mit einer 290X bei ~1000KH/s, da klingen die 300W realistisch.

fondness
2014-02-21, 14:25:38
/e: das kannst du ja sicher noch kurz mit nachvollziehbaren realistischen Werten untermauern. Ich finde mehrere Angaben um 370W für das Gesamtsystem mit einer 290X bei ~1000KH/s, da klingen die 300W realistisch.

Du kannst sicher auch deinen Kopf einschalten und meine Beitrag sinnerfassend lesen, dann begreifst du auch wo meine Kritik liegt. Wenn dann sollte man auch Apples mit Apples vergleichen.

Ist aber auch egal, hoffentlich nimmt das endlich etwas Druck von den Radeon-Karten, sodass man diese wieder besser kaufen kann.

Iruwen
2014-02-21, 14:33:52
Du könntest dich auch einfach klar ausdrücken und mich nicht dumm von der Seite anmachen, wie wärs denn damit. Sind heute alle mit dem falschen Fuß aufgestanden?

Raff
2014-02-21, 15:41:16
Er nimmt für die 750Ti OC 60W an (obwohl selbst die normale nachweislich mehr benötigt) und für die 290X 300W.

Brauchen die Karten als Minenarbeiter denn genauso viel Strom wie beim Spielen? Das ist doch ein ganz anderes Lastszenario, beispielsweise dürften die TMUs idlen. Wenn reine Shader Power gefragt ist, heizen die Hawaiis auf jeden Fall ordentlich.

MfG,
Raff

M4xw0lf
2014-02-21, 15:44:58
Brauchen die Karten als Minenarbeiter denn genauso viel Strom wie beim Spielen? Das ist doch ein ganz anderes Lastszenario, beispielsweise dürften die TMUs idlen. Wenn reine Shader Power gefragt ist, heizen die Hawaiis auf jeden Fall ordentlich.

MfG,
Raff

Was ist mit eurer Seite los, und wann kann ich da wieder rumnerden?

http://images.sodahead.com/polls/003816953/4743911295_explanation_i_demand_one_answer_1_xlarge.png

fondness
2014-02-21, 15:45:19
Brauchen die Karten als Minenarbeiter denn genauso viel Strom wie beim Spielen? Das ist doch ein ganz anderes Lastszenario, beispielsweise dürften die TMUs idlen. Wenn reine Shader Power gefragt ist, heizen die Hawaiis auf jeden Fall ordentlich.

MfG,
Raff

Schau dir den verlinkten Artikel an. Er nimmt laut eigenen Aussagen die TDP-Angaben. Keine Ahnung warum er dann auf 300W für die 290X kommt. Das Mining gut heizt glaube ich gerne, nur in diesem Fall hat er es ja gar nicht gemessen - und vor allem sollte das dann ebenso auf die 750Ti zutreffen.

Iruwen
2014-02-21, 16:00:51
Wenn man für die 750 Ti die maximale Leistungsaufnahme von 75W annimmt ist die Performance per Watt mit 3,5 immer noch mit Abstand die Beste.

fondness
2014-02-21, 16:02:09
Das habe ich ja auch nicht bestritten. Wobei die 75W auch nur eine theoretische Grenze sind.
Kritisiert habe ich wie schon gesagt die selbstsamen TDP-Angaben und die identischen 60W-Angabe bei der 750Ti und der 750Ti mit Overclocking ( die er noch dazu selbst OCt hat und dabei sogar die Spannung erhöht).

dildo4u
2014-02-21, 18:00:55
Die Karten mit GPU Boost gehen nicht weit über das TDP daher sind die Werte legitim,hier sieht man z.b 9 Watt zwischen einem Game und Furmark.

http://www.anandtech.com/show/6994/nvidia-geforce-gtx-770-review/16

Die 750Ti wird beim Mining einfach mit Basistakt laufen welcher nicht mit Games sondern einem Last Programm festgelegt wird.

Raff
2014-02-21, 18:06:52
Was ist mit eurer Seite los, und wann kann ich da wieder rumnerden?

http://images.sodahead.com/polls/003816953/4743911295_explanation_i_demand_one_answer_1_xlarge.png

PCGH ist einfach so beliebt, dass die Server verreckt sind. Im Ernst :ugly:: Interner Umbau und anscheinend Komplikationen. Wird schon was wieder werden ... irgendwann.

MfG,
Raff

matty2580
2014-02-21, 18:08:45
Was ist mit eurer Seite los, und wann kann ich da wieder rumnerden?

Seit 17:30 Uhr geht die Seite wieder.
Damit war es aber fast einen Tag Komplettausfall bei PCGH, und bei allen anderen Computec Servern.
Ich hoffe, da kommt wenigstens noch eine Erklärung dazu nach.
Bisher gab es nur zwei Meldungen auf Facebook, sonst Schweigen.
Weder bei PC Games, noch bei PCGH bisher nicht ein Wort dazu.
Angeblich waren es Wartungsarbeiten. Die hätte man aber vorher ankündigen können.
Und durch die Länge des Ausfall vermute ich eher andere Gründe, die man nur nicht offen kommunizieren möchte.

Loeschzwerg
2014-02-21, 18:16:31
PCGH ist einfach so beliebt, dass die Server verreckt sind. Im Ernst :ugly:: Interner Umbau und anscheinend Komplikationen. Wird schon was wieder werden ... irgendwann.

MfG,
Raff

Sagt blos euer Change Management hat vergessen einen ordentlichen Rollback-Plan aufzustellen? ;) Nen ganzen Tag Downtime für komplett Computec ist schon irgendwo genial ;D

Shit happens ^^

Topic: Preis der 750 Ti schon auf fast 120€ runter. Jetzt schlag ich dann zu bei ner Karte mit Ref-PCB.

Knuddelbearli
2014-02-22, 03:51:26
Dann müssten die ja bald knapp werden und die Preise steigen.


Nö werden sie nicht da sie vielleicht effizient sind aber viiiel zu langsam. man also viel mehr vom drum herum benötigt was zusätzliche kosten sind und auch die Effizienz wieder killt

Nightspider
2014-02-22, 16:14:24
Lese ich das richtig, das die VCEs um 50-100% schneller sind und Shadowplay unter Maxwell nochmal ein gutes Stück weniger Leistung benötigen würde?
Könnte eventuell damit auch UHD Videoaufzeichnung möglich werden? Oder 120fps?

AnarchX
2014-02-22, 16:35:44
Der NVENC in GK104 konnte schon mit bis zu 240FPS encoden. Eventuell war da GK107 beschnitten.
Da man nichts konkret zu höheren Auflösungen sagt, sollte es wohl bei einer maximalen Zielauflösung von 1080p geblieben sein.

-/\-CruNcher-/\-
2014-02-22, 20:14:30
Ok. Das ist aber auch der einzige Pluspunkt (mal abgesehen davon, dass eine 7870 durch undervolting auch mal ~50W weniger brauchen kann).

Hier mal ein kleiner Leistungsvergleich:


750TI (1085MHz) 270X

Alan Wake 4xAA 37,1 32,2
Max Payne 3 4xAA 35,7 34,2
Anno2070 keinAA 31,9 30,5
Metro:LL keinAA 37,8 27,8
Brink keinAA 73,3 48,5
Bioshock keinAA 34,0 29,4
Crysis3 2xAA 36,0 30,0
AC:Black Flag 4xAA 22,0 22,8
Farcry 3 keinAA 35,8 33,9
Hitman Abs. keinAA 37,7 35,3
Sleeping Dogs SSAA 36,3 34,2
COD: Ghosts PostAA 27,1 25,7
TES5:Skyrim 4xAA 55,6 59,2
Dirt:Showdown 4xAA 52,4 59,3
Witcher2 keinAA 57,1 47,2
Battlefield4 keinAA 36,8 29,2
Tombraider keinAA 30,0 28,2


Schaut doch nicht so schlecht aus, für die 750TI (vgl zu einer gleich teuren 7870GHz mit ~270X Leistung), oder?

Zumindest wenn man ausser Acht lässt, dass die AMD-Karte in meinem Beispiel >2x soviel Pixel berechnet hat, da ich 1680x1050 bei der 750TI mit 2560x1440 bei der 270X verglichen hab. ;)

http://ht4u.net/reviews/2014/nvidia_geforce_gtx_750_ti_im_test/index42.php?dummy=&advancedFilter=false&prod%5B%5D=NVIDIA+GeForce+GTX+750+Ti+%5B1085+MHz%5D&prod%5B%5D=AMD+Radeon+R9-270X&filter%5B0%5D%5B%5D=1680&filter%5B0%5D%5B%5D=2560&filter%5B2%5D%5B%5D=1&filter%5B2%5D%5B%5D=2&filter%5B2%5D%5B%5D=2+x+2+SSAA&filter%5B2%5D%5B%5D=2x2+SSAA&filter%5B2%5D%5B%5D=4&filter%5B2%5D%5B%5D=8&filter%5B2%5D%5B%5D=Post+AA&filter%5B2%5D%5B%5D=SSAA&filter%5B3%5D%5B%5D=16&aa=all


Wenn mich nicht alles täuscht sind die 2 Engines die hier sehr weit aus der Nvidia D3D Reihe tanzen Forward Renderer und der rest Deffered oder mixed ?

Zufall @ Coda ?

Weil diese 6 FPS in Crysis 3 (Cry Engine) verwandeln sich meistens zu zig mehr in anderen Engines vor allem so alten D3D gerüsten, hier bricht aber plötzlich Nvidia ein und das mit AA und relativ unanspruchsvollen Engines ;)

die neusten Engine Ergebnisse sind total interessant :)

du hättest Grid 2 noch mit reinnehmen sollen und als up2date D3D brink vergleich Rage zusätzlich zu Cod Ghosts :)

FlashBFE
2014-02-24, 15:23:57
Bin ich der einzige, der sich daran stört, dass eine neue Architektur mit veraltetem DX-Level kommt?

Blediator16
2014-02-24, 15:26:32
AMD wäre dafür in der Luft zerissen worden.

-/\-CruNcher-/\-
2014-02-24, 15:32:57
Oh man nicht diese DX API featureset Diskussion schon wieder, kann man die nicht mal irgendwann hinter sich lassen und es akzeptieren das alle relevanten features auf beiden Platformen genutzt werden können :(

Ihr solltet euch viel mehr gedanken um Zukünftige Compute Performance als alles andere machen, und die Balance schwächen hat Nvidia dort mit Maxwell eingesehen und mit ihrem erreichten Effizienzgewinn steuern sie nun Mid Range dagegen und haben nochmal ihre ganze Serie Preis/Leistung leicht verschoben und wohlmöglich sogar einen Verbrauchsgewinn erreicht (das werden wir in dem nächsten Maxwell release sehen, bin da sehr zuversitchlich das die Balance ordentlich sein wird auch wenn der Verbrauch der gleiche bleibt die bisherigen daten sehen sehr zuversichtlich aus, wo und wie sie die Effizienz nun Mid Range verteilen gegenüber AMD werden wir noch sehen) ;)

Screemer
2014-02-24, 15:38:21
es werden doch alle dx11.1 features die relevant sind unterstützt. einzig das 2d gedöns welches ja keiner braucht wurde weggelassen. das ist die argumentation.

€dit: ich sags doch.

eratte
2014-02-24, 21:18:52
Heute eine XfX HD7850 1GB gegen eine EVGA SC GTX 750 TI 2 GB in einem ITX System getauscht (i5 3450, 8GB DDR1600, Samsung 830 256).

Die GPU kommt knapp über 61° und bleibt auch unter Last bisher leise.
System wird auch etwas weniger aufgeheizt. Die EVGA war recht günstig mit Gutschein geschossen.

Laut 3D Mark tun sich die beiden Karte wie erwartet nicht viel, außer das die EVGA halt 2 GB GDDR hat. Wäre die 7850 nicht mit ihren 1 GB schon ab und zu an ihre Grenzen gekommen hätte ich den Tausch nicht vollzogen:

HD7850:
3DMark Score 133017.0 3DMarks
Graphics Score 240643.0
Physics Score 51852.0
Graphics Test 1 1081.3 fps
Graphics Test 2 1013.5 fps
Physics Test 164.6 fps

GTX 750 Ti:
3DMark Score 134727.0 3DMarks
Graphics Score 246506.0
Physics Score 52077.0
Graphics Test 1 1121.9 fps
Graphics Test 2 1026.0 fps
Physics Test 165.3 fps

Nightspider
2014-02-24, 21:36:37
Wie schätzt ihr die PhysX-Performance der 750ti ein?

Ich überlege mir eine 660ti (gebraucht) oder eine 750ti (neu) zur 290X dazuzustecken.
Letztere wäre halt stomsparender und leiser und vielleicht ist Maxwell ja auch deutlich effizienter bei PhysX-Berechnungen.

Gibts da schon Tests?

Black-Scorpion
2014-02-24, 21:36:42
Um diese Features zu nutzen muss es der Hersteller einbauen. Ansonsten gibt es auch nur DX11 weil der Treiber nichts anderes melden kann. Es gibt nur ganz oder gar nicht.

boxleitnerb
2014-02-24, 21:38:42
Das stimmt nicht, ansonsten würde z.B. BF4 nicht durch Windows 8.1 (also DX11.1) auf GeForces so deutlich beschleunigt.

Black-Scorpion
2014-02-24, 21:42:25
Das stimmt nicht, ansonsten würde z.B. BF4 nicht durch Windows 8.1 (also DX11.1) auf GeForces so deutlich beschleunigt.
Lesen ist nicht deine Stärke?
Aber was anderes ist man ja nicht gewohnt. Darüber nachzudenken das in BF4 diese Features auf den Karten genutzt wird ist wohl zu viel verlangt.

boxleitnerb
2014-02-24, 22:01:25
Lesen ist nicht deine Stärke?
Aber was anderes ist man ja nicht gewohnt. Darüber nachzudenken das in BF4 diese Features auf den Karten genutzt wird ist wohl zu viel verlangt.

Wie wäre es mit einem netteren Tonfall? Wäre schön, wenn das zur Gewohnheit würde. Du schriebst, es gibt ganz oder gar nicht, was nunmal nicht stimmt. BF4 unterstützt DX11.1, NV nicht ganz (was laut dir also "gar nicht" bedeutet). Und trotzdem profitiert man mit einer GeForce davon. Also stimmt deine Behauptung nicht.

Black-Scorpion
2014-02-25, 10:11:56
Was der Treiber meldet ist ganz oder gar nicht. Ohne die entsprechende Software sind es auch bei Win 8.1 nur DX11.0 Karten.

Entweder stellt du dich mit Absicht blöd oder du verstehst wirklich nicht was andere schreiben. Ich gehe davon aus das du nicht verstehen willst weil es gegen deinen Grünen geht. Und da ist es ja immer so das du jeden anmachst der es wagt was dagegen zu sagen. Ob richtig oder falsch ist egal.

Iruwen
2014-02-25, 14:39:35
An deinem Tonfall solltest du wirklich arbeiten. Und was du schreibst ist zwar richtig, hat aber keinerlei Relevanz und dient nur dem Zweck NV nochmal was unterzuschieben, was du im gleichen Absatz bei box kritisierst. Ganz schwacher Stil.
NV unterstützt FL 11_0, deshalb müssen Entwickler Feature Checks machen. Wie man sieht tun sie das. "Es gibt nur ganz oder gar nicht" ist einfach Blödsinn.

Black-Scorpion
2014-02-26, 10:01:56
An deinem Tonfall solltest du wirklich arbeiten. Und was du schreibst ist zwar richtig, hat aber keinerlei Relevanz und dient nur dem Zweck NV nochmal was unterzuschieben, was du im gleichen Absatz bei box kritisierst. Ganz schwacher Stil.
NV unterstützt FL 11_0, deshalb müssen Entwickler Feature Checks machen. Wie man sieht tun sie das. "Es gibt nur ganz oder gar nicht" ist einfach Blödsinn.
Der Treiber meldet unter allen Windows Versionen DX11.0. Was anderes darf er nicht melden weil es bei DX nur ganz oder gar nicht gibt. Was daran jetzt falsch sein soll wisst ihr wohl beide selber nicht. Was Software dann anstellt um die grüne Extrawurst zu bedienen ist was ganz anderes. Und die Hersteller müssen gar nichts einbauen.

Iruwen
2014-02-26, 11:01:16
Zitat: "was du schreibst ist zwar richtig", ganz oder gar nicht ist aus vorgenanntem Grund trotzdem Blödsinn weil es impliziert, dass man keiner Features aus DX11.1+ nutzen könnte. Die Hersteller müssen Feature Checks einbauen wenn sie diese Features nutzen wollen. Blöd wenn man vergisst was man selbst ein paar Posts vorher wörtlich geschrieben hat:
Um diese Features zu nutzen muss es der Hersteller einbauen.

Gouvernator
2014-03-07, 06:39:13
Wie ist die Karte eigentlich so bei Zeitfressern/kWh wie D3 und PoE? Kann die 2560x1440 stemmen?

dildo4u
2014-03-07, 09:16:09
Dürfte für 60fps reichen sind 55fps bei 2600*1600.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_750_Ti/16.html

Knuddelbearli
2014-03-07, 10:22:26
reicht also sicher nicht, benchmark kann ja nicht die richtige action anzeigen mit xxx gegnern usw

Hugo78
2014-03-07, 14:43:03
Keine Ahnung was PoE ist, aber D3 ist nach wie vor eher CPU limitiert.
Die GPU kann man, wenn das wirklich nötig ist, gut über reduzierte Schattendetails entlassten.

ndrs
2014-03-07, 15:58:46
Wie ist die Karte eigentlich so bei Zeitfressern/kWh wie D3 und PoE? Kann die 2560x1440 stemmen?
Das sind doch beides steinalte Schinken. "Doom 3" sollte heutzutage jedes low-end-System packen und "Battlefield 2: Point of Existence" sowieso.

Ansonsten sollte man drüber nachdenken uneindeutige Abkürzungen außerhalb der Spiele-Subforen zu vermeiden :D
[\troll]

Gouvernator
2014-03-07, 19:08:49
Ja schade. Keine reale Erfahrung also. Ich zocke diese Games auf einer heftig undervolteten GTX480. Hab bei der 750Ti auf weniger Verbrauch bei mehr Leistung gehofft...

Hugo78
2014-03-07, 22:18:22
GTX 480 Level packt die 750Ti mit OC.
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-750-ti-maxwell-im-test/11/
^^ GTX 660 = GTX 480.

Knuddelbearli
2014-03-07, 22:40:29
zum Glück! hab hier ja auch immer noch ne GTX 480 wäre schon übel wenn eine x50 da inzwischen schneller wäre ... ^^

aber auf amds 20nm Topdog kann ich auch noch warten.

Dr. Lloyd
2014-03-08, 02:50:39
Nächste Woche möchte ich mir eine GTX 750 Ti holen. Welche Modelle bzw. welche Kühllösungen sind denn eure Favoriten?

Sunrise
2014-03-08, 05:06:58
Nächste Woche möchte ich mir eine GTX 750 Ti holen. Welche Modelle bzw. welche Kühllösungen sind denn eure Favoriten?
Würde ich aktuell eine kaufen, dann definitiv die von EVGA (https://geizhals.at/de/?cat=gra16_512&xf=545_EVGA~132_1024~1439_GTX+750+Ti#xf_top).

Hugo78
2014-03-08, 08:30:33
Von der EVGA gibt doch noch keine Reviews im Netz oder? (PCGH hat welche im aktuellen Heft, aber das hab ich selber grad nicht.)
Hat die EVGA überhaupt Heatpipes (?), ich kann da keine erkennen auf den Produktbildern.
Bisher sprechen nur die 3 Jahre Garantie für die EVGA und der recht fette Boost.

Am leisesten "out of the Box" scheint nach wie vor die MSI Gaming zusein,
die Gigabyte Windforce OC ist minimal lauter, hat aber noch mal bessere Temperaturen, also ist da noch mehr Potential zum manuell leiser regeln.
Beide haben auch Heatpipes drauf und zumindest Gigabyte gibt auf alle Produkte 2 Jahre Herstellergarantie, iirc.
Ja und am schnellsten "out of the Box" ist die Palit Storm X Dual, aber die ist dann auch lauter und heißer.

http://www7.pic-upload.de/08.03.14/48r75svuhu3.jpg (http://www.pic-upload.de/view-22484975/750ti_1.jpg.html)
- http://www.tomshardware.com/reviews/geforce-gtx-750-ti-review,3750-19.html

http://www7.pic-upload.de/08.03.14/5a6ionqamrdy.jpg (http://www.pic-upload.de/view-22485021/750ti_2.jpg.html)
- http://www.techpowerup.com/reviews/ASUS/GTX_750_Ti_OC/29.html

Knuddelbearli
2014-03-08, 10:30:02
MSI gibt auch 2 Jahre Garantie

EVGA wird laut PCGH 48C° warm.
"Dröhnt" aber im idle sowie unter Last mit 4 Sone und lässt sich nicht senken.

MSI 0,2/0,3 Sone 56C°

Sunrise
2014-03-08, 10:34:23
MSI gibt auch 2 Jahre Garantie

EVGA wird laut PCGH 48C° warm.
"Dröhnt" aber im idle sowie unter Last mit 4 Sone und lässt sich nicht senken.

MSI 0,2/0,3 Sone 56C°
Von welcher EVGA redet ihr? Ihr solltet schon auch die Dual-Lüfter-Versionen vergleichen, wenn ihr die MSI da als Referenz ansetzt. Die EVGA GeForce GTX 750 Ti FTW ACX Cooler sollte doch passen.

Falls ihr die meint, von der gibt es übrigens auch ein BIOS-Update, das die Geräuschkulisse senkt. Klar, die MSI ist sicher auch nicht verkehrt.

Dr. Lloyd
2014-03-08, 10:40:33
Super, vielen Dank!

Die "Gigabyte WindForce 2X OC" mit ihren 45° unter Last bei nur geringfügig höheren dB(A)-Werten im Vergleich zur MSI gefällt mir am besten. Aufgrund ihrer Kühlung mit Kupfer-Heatpipe(s) und 100mm Axial-Lüftern sowie den rein digitalen Anschlüssen war diese Karte bereits mein Favorit. Dass sich die Karte damit von den Konkurrenten jedoch so deutlich absetzen kann, hätte ich nicht gedacht.

Sofern sich preislich nichts mehr tut, wird es in den nächsten 24h die Gigabyte werden. Nochmals Danke für die Tipps und Links!

Knuddelbearli
2014-03-08, 11:19:41
Wie gesagt aus der PCGH also die FTW ACX

eratte
2014-03-09, 10:37:47
Die Duallüfter von EVGA soll sehr laut sein, ich habe die EVGA GeForce GTX 750 Ti Superclocked mit einem Lüfter und ohne Heatpipes und kann nicht klagen. Leise und wird nicht besonders warm unter Last. Zu dem passt mit viel Luft auch in das Lian Li Q11 plus ein Kabel eingespart.

Sunrise
2014-03-09, 13:19:14
Die Duallüfter von EVGA soll sehr laut sein, ich habe die EVGA GeForce GTX 750 Ti Superclocked mit einem Lüfter und ohne Heatpipes und kann nicht klagen. Leise und wird nicht besonders warm unter Last. Zu dem passt mit viel Luft auch in das Lian Li Q11 plus ein Kabel eingespart.
Dabei sollte man ja eigentlich denken, dass aufgrund der doppelten Lüfteranzahl und des deutlich größeren Kühlkörpers die Karte nichtmal ansatzweise solche aggressiv zu Werke gehenden Lüfterdrehzahlen braucht, wenn das ganze mit einem Lüfter schon perfekt funktioniert.

Wenn das wirklich so ist, dann baut auch EVGA mittlerweile einen ziemlichen haufen Scheisse zusammen, sorry, aber das musste einfach mal gesagt werden. Mittlerweile weiß ich echt warum ich meine Karten nur noch kaufe, wenn die PCGH die Lüftersteuerung des jeweiligen Herstellers auch getestet hat bzw. ich sogar selbst irgendwas von Arctic draufbaue, weil diese bescheuerte Werbung mit "besser durch Dual-Lüfter, jetzt 20 Grad Kühler" keinen Schwanz mehr interessiert, wenn die Lüftersteuerung dermaßen beschissen umgesetzt wurde. Da kann man sich als Endkunde eigentlich nur noch Fragen, ob das Marketing komplett das Ruder übernommen hat und welche Vollpfosten solche Designs bauen. Unfassbar.

Knuddelbearli
2014-03-09, 14:25:35
naja ungetestet kann man schon lange keine Karten mehr kaufen wegen den spawas

siehe auch aktuelle PCGH wo die bereits ohne OC die Wandler der Powercolor mit 110C° vor sich hinglühen.

Hugo78
2014-03-09, 18:34:44
Powercolor 290X?

Knuddelbearli
2014-03-09, 19:21:48
jup die PCS+
liegt aber nicht an der 290X sondern am beschissenen Spawa kühler design .. MSI bleibt zB massiv Kühler. absolut unproblematische 86C°

Hugo78
2014-03-09, 19:59:52
Ja, sowas ist immer bescheuert wenn Hersteller mit dickem Dreifach-Lüfterdesign ankommen, aber dann die Spawas "vergessen".

aufkrawall
2014-03-13, 21:29:46
CSAA soll aus Maxwell rausgeflogen sein:
https://forums.geforce.com/default/topic/698087/very-few-anti-aliasing-options/?offset=9#4153911

War imho eh Makulatur.

Raff
2014-03-13, 22:48:49
Huch, das finde ich jetzt doof, so ganz ohne Ersatz. 16x CSAA in Kombination mit SGSSAA war stets hübsch und performant (wenn's denn lief). Nun denn, Nvidia: Bessere Downfilter als Alternative (nicht nur bei TXAA). :naughty:

MfG,
Raff

aufkrawall
2014-03-13, 22:58:16
Ich merke bei 109ppi null Unterschied zu Farbsamples only.
Wie viel Platz frisst so was im Chip? Maxime war maximale Effizienz?

robbitop
2014-03-14, 16:27:40
In Zeiten von DR Engines nimmt die Bedeutung von echtem AA leider ab. CSAA fand ich gar nicht so schlecht. Es brachte relativ günstig nochmal eine bessere Abstufung. Unabhängig davon empfinde ich aber ähnlich wie Raff. Bessere Downsamplingfilter wären noch wichtiger.

Ich verweise mal auf meinen Artikel der HD2900XT: http://www.3dcenter.org/artikel/ati-radeon-hd-2900-xt-review/praxisvergleich-custom-filter-coverage-sample-anti-aliasing

edit:

die jeweils unteren Bilder sind CSAA von NV. Das hat Leo damals offenbar falsch beschriftet.
Man sieht, dass CSAA auch bessere Übergänge liefert als ohne - aber an die (Homogenität der) Abstufung von CFAA kommt es lange nicht heran.

Die Bedeutung wird aber mit zunehmender Auflösung auch abnehmen.

aufkrawall
2014-03-14, 16:42:32
Es hieß ja, sie würden TXAA irgendwann weniger blurry machen wollen. Hoffentlich gilt das noch. Bei TXAA auf Basis perfekt greifendens SGSSAA reicht selbst mit Nachschärfen 2x bei 109ppi noch sehr gut aus.
So was bitte automatisch in Hardware...

Wer hat denn hier noch ernsthaft CSAA genutzt?

robbitop
2014-03-14, 16:56:45
Warum nicht? Solange MSAA oder SGSSAA greift, greift auch CSAA. Und es bringt günstig mehr Zwischenstufen.

TXAA hat auch einen anderen Downfilter. Ist aber mir zu unscharf. Durch die Unschärfe gehen Informationen verloren, die mit nachträglichem Nachschärfen nur bedingt zu rekonstruieren sind. Besser ist es, sie nicht rekonstruieren zu müssen. SGSSAA + edge CFAA war dort IMO absolut ungeschlagen.

Hugo78
2014-03-14, 17:02:37
Wer hat denn hier noch ernsthaft CSAA genutzt?
Bei meinen Fermi Karten recht oft, aber seitdem Nvidia mit Kelper die 8xMSAA Schwäche hinter sich gelassen hat, nicht mehr.

aufkrawall
2014-03-14, 17:18:26
Die besseren Zwischenschritte durch CSAA sind kaum sichtbar und in jedem neuen Spiel brauchts eh irgendein Post-AA, um die ausfallende Glättung nicht ganz so offensichtlich werden zu lassen. Da sieht man vom CSAA gar nichts mehr.
8xMSAA ist bei neueren Spielen auch nicht vorhanden oder komplett sinnlos, weil Glättung schlecht.

SGSSAA + edge CFAA war in Bewegung auch sicherlich nicht so ruhig wie TXAA + SGSSAA + Sharpening. Ich hatte da in 1080p massiv über den Monitor nachgeschärft und trotzdem gab es kaum Überschärfungsartefakte, es war in Bewegung nach wie vor sehr ruhig.

Blaire
2014-03-14, 20:16:43
Die besseren Zwischenschritte durch CSAA sind kaum sichtbar und in jedem neuen Spiel brauchts eh irgendein Post-AA, um die ausfallende Glättung nicht ganz so offensichtlich werden zu lassen. Da sieht man vom CSAA gar nichts mehr.
8xMSAA ist bei neueren Spielen auch nicht vorhanden oder komplett sinnlos, weil Glättung schlecht.

SGSSAA + edge CFAA war in Bewegung auch sicherlich nicht so ruhig wie TXAA + SGSSAA + Sharpening. Ich hatte da in 1080p massiv über den Monitor nachgeschärft und trotzdem gab es kaum Überschärfungsartefakte, es war in Bewegung nach wie vor sehr ruhig.

Seh ich genauso. TXAA krankt halt am Application-Support, es muss erst unterstützt, dafür ists recht performant, die Zielgruppe somit recht groß.
Bliebe aktuell nur Downsampling als Enthusiasten-Feature, aber in Zeiten von UltraHD was immer mehr in Schwung, ist das dann auch kein echter Mehrwert mehr. AA-Feature Bits bzw. Treiber forciertes AA für neuere DX1x Games würde ich da ganz klar bevorzugen. Malschaun ob NV noch einlenkt, noch habe ich die Hoffnung jedenfalls nicht aufgegeben, es darf auch gern inoffiziell bleiben, mehr Flexibilität hat noch niemandem geschadet.

Mark3Dfx
2014-03-14, 21:40:20
Lohnt sich die WindForce 2X OC als Upgrade einer GTX 460 OC?
Gespielt Full HD mit 8xAA/16xAF, ingame max. Details.

Bisschen MMO Krams (WoT, WT, WoW)
Kein BF4, Titanfall Zeugs. etc.

Knuddelbearli
2014-03-14, 21:48:30
finde ich rausgeschmissenes Geld warte auf 20nm.

Wenn du es schon so lange ausgehalten hast

Hugo78
2014-03-15, 11:54:18
@Mark3Dfx
Wenn dir ca.35-45% mehr Speed reicht, dann ja.

@Knuddelbearli
20nm Karten wird man anfangs nicht unter 350€ bekommen, und grade sowas wie die 750er werden vielleicht sogar erst mitte 2016 einen Nachfolger in 20nm bekommen, denn die 650er sind aus Q3/Q4 2012.

-/\-CruNcher-/\-
2014-03-15, 14:30:22
Lohnt sich die WindForce 2X OC als Upgrade einer GTX 460 OC?
Gespielt Full HD mit 8xAA/16xAF, ingame max. Details.

Bisschen MMO Krams (WoT, WT, WoW)
Kein BF4, Titanfall Zeugs. etc.

Du solltest dich schon etwas mehr auf Langzeit entscheiden was du willst und in wie fern ab wann du wieder reinvestieren möchtest :)
Wenn du zufrieden mit deiner 460 bist und dieser Performance + Strukturverbesserungs Bonus mit geringerem Verbrauch bei der 750 TI und garantierten ausreichenden Performance für 1080p dir ausreicht + Shadowplay als Bonus und noch andere Nvidia Ökosystem Spezifische sachen wie TXAA dann absolutes ja es reicht dir.
Oder ob du derjenige bist der lieber etwas mehr wartet und eine Abteilung höher gehst was deine 460 mal gewesen ist und die bessere Compute Leistung mitnimmst und somit noch ein bissel mehr headrom für die kommende (Next Gen) Engine Entwicklung hast was Compute Leistung mit Spielbaren framerates bei 1080p angeht und dafür auch bereit bist etwas mehr Verbrauch einzukalkulieren :)

Wirtschaftlich gesehen würde ich dir eher zu 2tem raten da die meisten zukünftigen Engines dort als Minimum ansetzen werden, du kannst natürlich auch auf die vollen gehen aber das bringt den wenigsten etwas, ausser in den schönen Screenshot Threads ;)

Gouvernator
2014-03-15, 16:35:55
Als Spielerei würde 4-Way SLI mit 750Ti und dem niedrigen Verbrauch locker gehen. Aber was muss ich lesen...?! http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-750-ti
Die Karte supportet noch nicht mal einfaches SLI. WTF?
http://www.geforce.com/hardware/technology/sli/supported-gpus

Blediator16
2014-03-15, 21:19:53
4way sli mit einsteigerkarten ist natürlich nur spielerrei. andere würden es geldverschwendung nennen.

robbitop
2014-03-16, 01:50:26
Als Spielerei würde 4-Way SLI mit 750Ti und dem niedrigen Verbrauch locker gehen. Aber was muss ich lesen...?! http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-750-ti
Die Karte supportet noch nicht mal einfaches SLI. WTF?
http://www.geforce.com/hardware/technology/sli/supported-gpus
Vieleicht funktioniert SLI ja trotzdem?

Mr.Magic
2014-03-16, 03:36:24
Geht SLI inzwischen ohne Brücke? Karten der 750 Reihe haben keinen Port dafür.

Gouvernator
2014-03-16, 07:49:24
Geht SLI inzwischen ohne Brücke? Karten der 750 Reihe haben keinen Port dafür.
Das hat AMD kürzlich eingeführt. Aber bei NV heißt es wohl dann schlicht - kein SLI. Erst 4-Way nur auf Titanen erlauben und dann auf Einsteiger-Karten SLI komplett streichen... Was sind das für Manieren?

Raff
2014-03-16, 13:10:43
Nvidia scheint zu wissen, dass "Crap-SLI" anstelle einer schnellen GPU recht sinnfrei ist, so sehr sie auch Frame Metering pushen. ;)

MfG,
Raff

aufkrawall
2014-03-16, 13:13:13
Vielleicht kommt mit den größeren Maxwells ja auch XDMA statt Brücke oder sonst wie was Neues.

AnarchX
2014-03-16, 13:14:11
Wobei eine GTX 750 Ti 2Win mit zeitnahem Release durchaus interessanter wäre als ihre Vorgänger.
Mit 1,2GHz Base könnte man es wohl in Benchmarks auf 780 Std. Niveau schaffen.

Durch die niedrige TDP und dem anspruchslosem 128-Bit SI wäre vielleicht gar eine 3Win möglich. ;D
Da gab es zu GeForce7-8 Zeiten mehr interessante Experimente...

Gouvernator
2014-03-16, 13:33:25
Nvidia scheint zu wissen, dass "Crap-SLI" anstelle einer schnellen GPU recht sinnfrei ist, so sehr sie auch Frame Metering pushen. ;)

MfG,
Raff
Ja... schließlich verkaufen sie ihre schnellen GPU's ab 600 bis 900€. Wo kämen wir eigentlich hin, wenn jede Wald und Wiesen 150-200€ Grafikkarte im 3-Way/4-Way SLI Verbund sämtliche 1200€/1800€ SLI-Systeme aus "schnellen GPU's" in Grund und Boden stampfen würde...? :rolleyes:
Ihr "System" wird umso durchsichtiger wenn man ansieht das ab GTX670 keine "billigen" GPUs mehr für 4-Way Support freigeschaltet werden.

N0Thing
2014-03-16, 14:26:36
Gibt es denn einen Markt für 150€-Karten 4-way SLI? Kann ich mir irgendwie nicht vorstellen, daß es unter den potentiellen 1% Multi-GPU-Usern so viele Leute gibt, die sich eine sehr starke CPU auf einem Mainboard mit vier vollen PCIe-Slots kaufen und dort dann vier GTX 750 Ti anstatt zwei GTX 770 oder einer 780 Ti laufen lassen.

Gouvernator
2014-03-16, 14:55:15
Gibt es denn einen Markt für 150€-Karten 4-way SLI?
Mit solch niedrigem Stromverbrauch wie Maxwell - definitiv. Ein Großteil der alten Games würde z.B. durchgehend mit 16x SLI-SGSAA laufen, noch ältere 32 SGSAA. 4-Way SLI war immer normalerweise durch Stromverbrauch beschränkt aber heutzutage wo sich die Spiele kaum noch entwickeln und der Stromverbrauch massiv gesenkt ist, kann man bei jedem gut laufendem Game in 1080p statt 4xSGSSAA locker 16x SLI SGSAA fahren. Ohne in dem Fall in unnütze 6Gb Vram zu investieren. Vier sparsame, leise Kärtchen für 600€ , ein 300€ Mainboard und man ist schneller als eine Titan und muss bei der Bildqualität keine Kompromisse eingehen. Zumal 4x 4 SGSSAA deutlich effizienter/schneller arbeitet wie 16xSGSSAA auf einer einzelnen GPU.

Ich bin für:
[ x ] 4-Way SLI für Arme...

Iruwen
2014-03-16, 15:04:13
Da schießt man sich aber u.a. beim VRAM ins Knie.

aufkrawall
2014-03-16, 15:53:11
Bei welchem aktuellen Spiel kann man SGSSAA noch sinnvoll nutzen?

N0Thing
2014-03-16, 16:03:32
Ein Großteil der alten Games würde z.B. durchgehend mit 16x SLI-SGSAA laufen, noch ältere 32 SGSAA.

[..]

Ich bin für:
[ x ] 4-Way SLI für Arme...

Hm, klingt für mich eher nach einem persönlichen Sonderfall, als daß es am Markt wirklich nennenswert viele Interessenten für das Szenario "900€ ausgeben um alte Spiele zu spielen" geben würde. ;)

Gouvernator
2014-03-16, 16:29:34
Bei CPU's funktioniert dieses Prinzip aber schon eine Weile... Statt unbezahlbare dicke Einzelkerne gibt es nur noch mehrere dünne kleine Kerne. Damit kannst du die Leistung nahtlos skalieren, angefangen mit 150€ Karten bis 800€ Titanen. Du kannst zwar eine dicke Titan kaufen aber dann brauchst du viel Geld um die Leistung weiter nach oben im SLI zu skalieren. Besser ist wenn du aus jedem Segment passend für dein Budget ein Leistungspaket aus mehreren GPUs zusammen stellen kannst. Wir haben ja den Vorteil das die schnellsten/teuersten GPUs nicht allzu viel schneller arbeiten wie ihre unteren Pendants. Da die Reise bei HighEnd in unverschämte Preisregionen wandert, kommt man eventuell auf meinem Weg preisgünstiger an Leistung und BQ ran.

aufkrawall
2014-03-16, 16:37:55
AFR ist schon mit zwei Karten relativ crappy, da brauchts nicht noch mehr Probleme, noch mehr Mikroruckler und noch mehr Input Lag.
Siehs ein, dass du auf dem Holzweg bist.

Gouvernator
2014-03-16, 16:48:36
AFR ist schon mit zwei Karten relativ crappy, da brauchts nicht noch mehr Probleme, noch mehr Mikroruckler und noch mehr Input Lag.
Siehs ein, dass du auf dem Holzweg bist.
Ich war hier schon einmal auf dem "Holzweg" mit meinem CRT-Downsampling... Ich weiß was für mich gut ist. =) Den einzigen wirklichen Nachteil bei 4-Way nämlich den Stromverbrauch hat NV demnächst ausgemerzt. Mit dem Rest kann man leben.

Hugo78
2014-03-16, 17:19:42
Ein Großteil der alten Games würde z.B. durchgehend mit 16x SLI-SGSAA laufen, noch ältere 32 SGSAA.
Und wer schreibt jetzt passende SLI Profile für alte Spiele?

aufkrawall
2014-03-16, 17:30:16
Und wer schreibt jetzt passende SLI Profile für alte Spiele?
Die Profile erstellen ist sehr simpel und kein wirklicher Zeitaufwand, sofern die Spiele AFR friendly sind. Was bei dem alten Kram häufiger der Fall ist als bei neuem.

Edit: Für SLI-AA brauchts auch gar keine Profile.

MGeee
2014-03-16, 17:30:57
Kann man die GTX 750 TI mit einer GTX 285@2GB gleichsetzen?

Bin am überlegen, meiner Frau einen Zocker-PC zu bauen und da wäre die GTX750TI mit der niedrigen Abwärme ideal.

AnarchX
2014-03-16, 17:37:13
Kann man die GTX 750 TI mit einer GTX 285@2GB gleichsetzen?

In aktuelleren Spielen sollte die 750 Ti deutlich schneller sein. Bei einer paar Pre-DX9-Klassikern kann vielleicht die GTX 285 ihre höhere Texelfüllrate ausspielen. :D

Hugo78
2014-03-16, 18:37:17
Kann man die GTX 750 TI mit einer GTX 285@2GB gleichsetzen?

Die 750 Ti ist ~45% schneller, denn 750Ti = 560Ti.
Die 460 war 10% schneller als die 285 und die 560Ti wiederum ca. 35% schneller als die 460.

MGeee
2014-03-16, 19:29:09
Vielen Dank. Hört sich besser an, als gedacht.

In meiner eigenen Kiste werkelt eine GTX 660 mit der ich auch bombe zufrieden bin, was FPS per Watts angeht... bis jetzt! Wenn Auf Maxwell-Basis was vergleichbares kommt (also 30-40% schneller als meine GTX660), würde diese Karte doch sicherlich auch noch unter 100 Watt liegen, vermutlich.

Ist da was Maxwell angeht für dieses Jahr irgendwas in Planung?

Insgesamt eine wirklich sehr gute Entwicklung, denn mittlerweile stagnieren so langsam die technisch sinnvollen Möglichkeiten. So hat mich Crysis 3 bereits dermaßen umgehauen (erster Level = Hammer), dass eine weitere Entwicklung wohl nur noch extrem langsam ist. Von daher macht es absolut Sinn, die Grafikkartenentwicklung mehr in Richtung Effizienz zu verschieben.

AnarchX
2014-03-16, 19:38:29
Maxwell Spekulationen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=535975
GM20x könnte im (späten) 2. Halbjahr erscheinen, eventuell schon 20nm. Eine GM206-basierende Karte dürfte deine GTX 660 deutlich übertreffen.

Nightspider
2014-03-16, 19:47:10
Die 750 Ti ist ~45% schneller, denn 750Ti = 560Ti.
Die 460 war 10% schneller als die 285 und die 560Ti wiederum ca. 35% schneller als die 460.

Die 750ti ist doch oft so schnell wie eine GTX 570, manchmal sogar minimal schneller.

Defakto ist die 750ti mehr als nur 35% schneller als eine 460. Teilweise 50-60%.

MGeee
2014-03-16, 19:47:33
Maxwell Spekulationen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=535975
GM20x könnte im (späten) 2. Halbjahr erscheinen, eventuell schon 20nm. Eine GM206-basierende Karte dürfte deine GTX 660 deutlich übertreffen.

Cool, Danke!
Dann hätte ich ab Spätsommer eine ASUS GTX 660@2GB abzugeben :) .

AnarchX
2014-03-16, 19:49:36
Cool, Danke!
Dann hätte ich ab Spätsommer eine ASUS GTX 660@2GB abzugeben :) .
Sofern GM206 dann schon bereitsteht. Eventuell gibt es dann erstmal wieder GM204 als GTX 880 für >=$499. :D

MGeee
2014-03-16, 19:57:01
Sofern GM206 dann schon bereitsteht. Eventuell gibt es dann erstmal wieder GM204 als GTX 880 für >=$499. :D

Ne ne, mein Terminal-Limit liegt auf GTX660, also 130 Watt. Mein supergedämmtes und fast lautloses Case verkaftet nicht mehr :) .
Keine Lust wieder wie in früheren Tagen einen lauten Rechner zu haben.

Gouvernator
2014-03-16, 20:21:25
Die 750ti ist doch oft so schnell wie eine GTX 570, manchmal sogar minimal schneller.

Defakto ist die 750ti mehr als nur 35% schneller als eine 460. Teilweise 50-60%.
Und eine GTX570 ist genau so schnell wie eine GTX480 von denen ich bereits 4x habe. Und die reichen noch DICKE für alles. Deswegen selbe Leistung bei Verbrauch einer GTX480 ist sehr sehr lecker. Ich finde NV schneidet sich ins eigene Fleisch bzw. schießt sich selbst ins Knie wenn sie 4-fach SLI nur den teuersten Karten überlassen.

Geächteter
2014-03-17, 20:53:08
Ich finde NV schneidet sich ins eigene Fleisch bzw. schießt sich selbst ins Knie wenn sie 4-fach SLI nur den teuersten Karten überlassen.
Was willst du mit 4 x 750 Ti SLi? Das wären ca. 240 Watt Mikrogezuppel, da ist ne 780 Ti oder was Ähnliches die weitaus bessere Alternative. Dazu höherer Idle-Verbrauch bei 4 Minikarten.

MGeee
2014-03-18, 16:54:08
Laut Datenblatt 7,5 Watt idle bei der GTX 750 TI (meine GTX660 hat 10 Watt, was auch OK ist).

Raff
2014-03-18, 18:12:52
Vier dieser Karten brauchen definitiv mehr als eine gescheite Grafikkarte, da Nvidia Geschichten wie Zero Core Power fehlen. Diverse 780-Ti-Karten brauchen im Leerlauf nur etwa 15 Watt, das ist mit vier 750-ern nicht zu erreichen. ;)

MfG,
Raff

Hugo78
2014-03-19, 00:57:58
Zotac GTX 750 Ti Thunderbolt, Boost bis 1320MHz und 6000 MHz RAM, zwei 90mm Lüfter.
http://www.techpowerup.com/198977/zotac-announces-geforce-gtx-750-ti-thunderbolt-graphics-card.html

Damit zieht Zotac mit der Palit Storm X Dual gleich, hat aber mehr Anschlüsse, wie schon die Zotac GTX 750 Ti OC (2 x DVI, 1 x HDMI, 1 × DisplayPort).
Haken: China only.

Schaffe89
2014-03-19, 06:17:33
Das bringts dann aber auch nicht. Wenn man eine Karte dermaßen ausquetscht wird sie auch ineffizient.

OC_Burner
2014-03-19, 09:23:22
Das bringts dann aber auch nicht. Wenn man eine Karte dermaßen ausquetscht wird sie auch ineffizient.

Nur wenn man die Spannung erhöht. Ob das in diesem Fall so ist, ist hier die Frage. Selbst ohne Spannungserhöhung sollten oft 1300MHz bis 1400MHz möglich sein.

Hugo78
2014-03-19, 15:30:34
Na der Verbrauch ist schon 10-15W höher, die Palit Storm X Dual operiert schon mit den vollen 75W, da wird die Zotac auch liegen, weshalb ich die Gigabyte OC mit extra 6Pin vorziehen würde.
Aber mit diesen 75W ist man von Speed her auf Höhe einer 660/7870 und die brauchen 115W-120W.

Geächteter
2014-03-19, 18:53:34
Nur wenn man die Spannung erhöht. Ob das in diesem Fall so ist, ist hier die Frage. Selbst ohne Spannungserhöhung sollten oft 1300MHz bis 1400MHz möglich sein.
Bei meiner Gigabyte ist bei 1311 Mhz Schluss, musste vorher noch etwas die TDP erhöhen auf 42500 mW, damit sie nicht in den Begrenzer bei Crysis 3, Battlefield und Co. läuft. Ein Plus von mehr als 510 Mhz beim Ram sind auch nicht drin. Aber im Endeeffekt egal, selbst dieses relativ dicke Plus gegenüber Stock ist nur minimal spürbar flüssiger, wenn man es braucht.

mekakic
2014-03-26, 09:45:57
Unterscheiden sich die aktuellen 750Ti Modelle in der Lüfterlautstärke? Oder anders gefragt: welches ist die leiseste ihrer Art?

dildo4u
2014-03-26, 10:14:46
Unterscheiden sich die aktuellen 750Ti Modelle in der Lüfterlautstärke? Oder anders gefragt: welches ist die leiseste ihrer Art?
Der Kühler ist totaler Overkill für 60 Watt und kann dadurch natürlich extrem leise laufen laut PCGH,0.2 idle und Last 0.3 sone,juckt den Kühler gar nicht wenn die Karte heizt.

http://geizhals.de/msi-n750ti-tf-2gd5-oc-twin-frozr-gaming-v310-003r-a1072369.html

Bei einer Midrange Karte sind eher so 1-2 Sone normal unter Last.

mekakic
2014-03-26, 13:59:08
Danke. sieht gut aus... leider kein Display Port.

Quaker
2014-03-27, 18:57:24
Moin,

ich habe mich gefragt, ob es wohl möglich sein könnte durch undervolten die 750 oder sogar 750ti passiv zu kühlen.
Mit einem Peter oder mk13/26.

Dadurch wären diese Karten ja sehr gut für HTPCs geeignet mit denen man dann sogar etwas daddeln könnte.


mfg

Raff
2014-03-27, 18:59:46
Bis zu 80 Watt (GTX 750 Ti OC) komplett passiv halte ich für sportlich, ein Gehäuseluftzug ist vermutlich selbst bei "Kühlhoschis" wie dem MK-13 nötig. Der MK-26 schafft es vielleicht, vor allem auf einer GTX 750. Im Leerlauf und bei kurzer Last ist das hingegen kein Problem.

MfG,
Raff

Hugo78
2014-03-27, 19:10:01
PowerColor kühlt sogar eine 150W, R9 270 passiv.
Der Kühler schaut erstmal aufwenig aus aber ggü. einem Peter oder MK26 ist der aber wieder Kinderkram. ;)
http://geizhals.at/de/powercolor-radeon-r9-270-scs3-axr9-270-2gbd5-s3dh-a1065244.html

Knuddelbearli
2014-03-27, 19:17:10
passiv throttelt auch die Powercolor massiv da wette ich sonstwas drauf. Semiapssiv ist natürlich was anderes

Hugo78
2014-03-27, 19:25:01
Gut mag sein, aber bei der 750Ti würde ich mir da keine Sorgen machen, wenn da ein Peter o.ä. drauf kommt...
Meine alte GTX 460 mit einem Thermalright Shaman (ähnlicher dieser Karte hier) (http://extreme.pcgameshardware.de/luftkuehlung/127966-user-review-thermalright-shaman-review-mit-gtx-460-a.html) läuft heute noch, und damals hab ich hin und wieder vergessen den Lüfter mitlaufen zulassen.
Und das Teil ist bis 160W spezifiziert.

Quaker
2014-03-27, 23:01:44
Das hört sich doch ganz gut an.
Weiß denn einer von euch, ob man die vcore verändern kann bei den neuen Grafikkarten?

Ist immer unterschiedlich.
Kenne das noch von der gtx 260. bei der 65nm Version war es möglich.
Nach dem Refresh auf 55nm war es nicht mehr möglich die vcore zu beeinflussen.

MfG

Hugo78
2014-03-27, 23:09:36
Ne Vcore ist heute nur noch für High End veränderbar.
Wobei das Powermangment aka "P-Stats" & Boost, bei der GTX 750 (Ti) kein schlechteren Job macht als wenn man manuell nochmal nachregelt.
Also die Chips brauchen einfach eine gewisse Mindestspannung, da kommt man nicht viel mehr drunter,
und wenn man erhöhen wollte, weil man zb. zu der Gigabyte 750Ti mit extra 6Pin greift, dann geht einem irgendwann entweder die Bandbreite aus oder "dank" mehr VCore der Verbrauch durch die Decke,
wenngleich das immernoch 30-50W unter der nächst schnelleren 660 liegen sollte.

Quaker
2014-03-28, 10:54:43
Danke für die Aufklärung.
Das letzte mal, dass ich bei einer Grafikarte selber Hand angelegt habe war zu Zeiten der GTX 260² 65nm.
Damals war es so, dass man noch etwas absenken konnte, da die Hersteller Standardwerte eingestellt haben, da aber jeder Chip anders ist ging bei den meisten immer noch etwas und bei manchen sogar noch ordentlich was.


mfg

aufkrawall
2014-04-20, 18:11:34
Hat mal jemand mit dem Kepler Bios Tweaker die Powertargets erhöht?
Das Tool soll auch mit Maxwell-Biosen gehen. Zumindest kann ich sie damit öffnen und bearbeiten.

Geächteter
2014-04-20, 23:19:06
Hat mal jemand mit dem Kepler Bios Tweaker die Powertargets erhöht?
Das Tool soll auch mit Maxwell-Biosen gehen. Zumindest kann ich sie damit öffnen und bearbeiten.
Ja, von 38500 mW auf 42500 mW. Höherer Wert gab Abstürze. So hält sie den Coretakt von 1311 Mhz überall außer bei Furmark.
Mehr geht auch nicht stabil. Könnte mit dem OC Guru zwar noch etwas die Spannung erhöhen, aber keine Lust das zu testen.
Ramtakt geht auch nicht mehr als 6300 Mhz, ansonsten taktet sie sich in Flatout Carnage irgendwann auf 400 Mhz/400 Mhz runter. :rolleyes: Auch ohne Mod-Bios.
Da hilft dann nur ein Neustart oder manueller Treibereset.
Battlefield 3/4, Crysis 3 läuft hingegen mit Ramtakt 6400 Mhz flawless.

aufkrawall
2014-04-20, 23:36:42
Aha, thx.
Was der Bios Tweaker ausliest, erscheint mir allerdings etwas seltsam.
Es gibt offenbar nicht mehr die Einträge TDP und Range, stattdessen zwei Mal 38,5W und einmal 70W. :confused:
Also müssten ja die 70W TDP & Range in einem sein. So kann man allerdings nicht die Stromaufnahme für eine zusätzliche Rail per Netzteil (Custom Karten) steigern, nicht wahr?

slippers74
2014-04-21, 11:09:08
Die OC Ti's laufen mit ca 1300Mhz "OutOfTheBoX", mit Anpassung dann auch an die 1400Mhz. Bei Newegg lief eine EVGA FTW mit über 1400Mhz stabil. Die FTW und auch die Gigabyte OC (1294Mhz offizieller Boost) laufen unter Last so laut wie eine Referenz GTX 670 im Idle (siehe u.a.CB), sind aber im SLI so schnell wie eine ausgereizte GTX 770 und das bei annähernd 100 Watt weniger Verbrauch. So ein Ti SLI wäre heute gleich teuer wie die GTX 770, beim Wiederverkauf in 1-2 Jahren dürfte man für die beiden Ti dann deutlich mehr zurück bekommen. Zumal sie einzeln dann nicht als Vram Krüppel verschrien sein werden, weil die Leistung schlicht besser zum Speicher passt. Außerdem geht es mit den neuen Maxwell Treibern ja noch nach vorne, die spezielle Kepler Entwicklung wird wohl durch sein. Nutzt man nun Software die SLI freundlich ist macht so eine Kombo durchaus sinn.

Also wäre das ein feiner und angebrachter Zug von Nvidia wenn man bei der GTX 750Ti zumindest 2-Way SLI über die PCI-E Ports frei schalten würde (geht ja auch mit anderen Karten...). Wenn man dann im nächsten Jahr die selbe Karte als GT 840 verkauft, kann man ihr auch gerne das SLI wieder streichen.

Gouvernator
2014-04-21, 11:42:44
Also wäre das ein feiner und angebrachter Zug von Nvidia wenn man bei der GTX 750Ti zumindest 2-Way SLI über die PCI-E Ports frei schalten würde (geht ja auch mit anderen Karten...). Wenn man dann im nächsten Jahr die selbe Karte als GT 840 verkauft, kann man ihr auch gerne das SLI wieder streichen.
Jaja... erzähl das deren Verkaufsabteilung bzw. dem einen Arschloch der die gesamte SLI-Strategie in der Hand hält (auch wenn's Huang selbst ist), der entschieden hat man könne SLI nur nach GPU-Preis ausbauen. Sprich bei billigsten GPUs - grundsätzlich kein SLI und nur mit 1000€ GPU 4Way-SLI.

Hugo78
2014-04-21, 11:50:55
Wozu ein 2Way 750Ti SLI?

Ein 750TI SLI würde selbst bei bester Skalierung grade mal den Speed einer GTX 770 erreichen.
Die 770 geht ab 245€ los, die 750Ti ab 116€, einen markant großen Preisvorteil hätte ein 2Way 750Ti SLI also nicht und die 770 kommt ohne µRuckler.
Einzig 50-70W Ersparnis unter Last spricht für ein 750Ti SLI, dass wiegt die Ruckler aber nicht auf.

slippers74
2014-04-21, 12:37:08
Einzig 50-70W Ersparnis unter Last spricht für ein 750Ti SLI, dass wiegt die Ruckler aber nicht auf

Deine 245€ Karten produzieren circa 50 db (siehe CB). Du könntest vielleicht mit einer MSI Gaming vergleichen. Die liegt aber bei 266€ und ist dann immer noch lauter als zwei 750Ti. (Ich glaube kaum das sich zwei 750Ti gegenseitig aufheizen können, womit auch xD).

Das so ein 750Ti SLI nicht der Hit für die Ewigkeit ist, ist mir auch klar. Nur mir widerstrebt es noch mal ein Alteisen ala' GTX 770 zu kaufen. Von den zwei 750ern könnte man dann in einem Jahr auch eine für den HTPC gebrauchen....

Geächteter
2014-04-21, 13:08:23
Also müssten ja die 70W TDP & Range in einem sein. So kann man allerdings nicht die Stromaufnahme für eine zusätzliche Rail per Netzteil (Custom Karten) steigern, nicht wahr?
Sieht so aus. Ein zusätzlicher 6-Pin-Anschluss bringt keine Vorteile, außer dass das Mainboard nicht den alleinigen Saft liefern muss.

slippers74
2014-04-23, 15:25:55
....der entschieden hat man könne SLI nur nach GPU-Preis ausbauen. Sprich bei billigsten GPUs - grundsätzlich kein SLI und nur mit 1000€ GPU 4Way-SLI.


Bei der GTX 760 ist 3-Way SLI erlaubt. Die Karte ist lediglich eine Stufe besser und kostet keine 200€. Da wird Huang wohl nochmal umdenken müssen bei der 750Ti....

--------------------------

Sehr gutes Video, ab circa 10te Minute :

https://www.youtube.com/watch?v=Oi2kWL3GD_E

Bis 120 Watt Verbrauch möglich mit extra 6Pin ! Aber auch 25% real mehr Leistung als die Standard 750Ti. Ist dann natürlich nicht mehr effizient, aber zumindest eine heftige Leistungssteigerung. Die EVGA FTW ist im Idle natürlich nicht akzeptabel....

AnarchX
2014-04-23, 15:51:29
Da schaltet EVGA wohl das Powertarget aus?

slippers74
2014-04-23, 17:35:54
Da schaltet EVGA wohl das Powertarget aus?

Wird aus dem Review ja leider nicht so richtig ersichtlich. Ich bekomme in spätestens zwei Tagen eine Gigabyte GTX 750Ti OC (1294Mhz Boost), die sollte ähnlich ticken. Werde dann bescheid geben.

slippers74
2014-04-24, 18:38:01
So, 750 Ti OC ist da. Läuft leider nur zusammen mit einem Celeron G1620 (Sandy), weil steckt im HTPC....

Ich hab ordentlich den Unigine Valley durchgenudelt weil es da mit hohen Settings nicht so auf die CPU ankommt. Setting ist übrigens 1920x1200 - Ultra - 8xMSAA.... Hat natürlich oft geruckelt, lief aber erträglich, man konnte zumindest hingucken.

Die Karte Boostet OutOfTheBox mit 1346Mhz bei 1,175 Volts stabil. Liegt dann bei knapp 80% im PT. Ohne Spannungserhöhung gehen dann 1446Mhz (+100) stabil. Lief gut ne halbe Stunde bei meist 99% Auslastung (siehe Bilder). Das Ganze liegt dann bei gut 80% PT. Was mich darauf schließen lässt das die OC Versionen deutlich mehr schlucken dürfen als die Non OC's. Mehr Volt bringt schlicht nichts. Gebe ich mehr Volt rauf verändert sich das PT nur unwesentlich, aber schon 20 Mhz mehr lässt den Bench abstürzen. Speicher geht bis 3050 Mhz, bei 3200 Mhz fangen ziemlich schnell die Artefakte an zu blinken.

Die Karte ist im Idle und auch unter Last absolut leise. Ich hatte schon eine GTX 780 mit WF3x Kühler, von daher war mir vorher schon klar das man mit der Karte nichts falsch machen kann. 43% Lüfter wären selbst mit 3 Lüftern noch völlig in Ordnung. Bei Dauerbelastung mit OC wird die Karte dann aber auch über 60 Grad warm (bis 63), allerdings steckt sie bei mir auch in einem mäßig belüfteten Gehäuse (Hauptsache leise).

Vielleicht geht noch ein bißchen mehr wenn ich die Lüfter auf reiße oder die GPU only Wakü aufschnalle. Muß ich mal sehen wie ich lust hab...


http://abload.de/thumb/2014-04-2418_05_27-grb4pf2.jpg (http://abload.de/image.php?img=2014-04-2418_05_27-grb4pf2.jpg) http://abload.de/thumb/2014-04-2418_05_56-gr82q36.jpg (http://abload.de/image.php?img=2014-04-2418_05_56-gr82q36.jpg)

aufkrawall
2014-04-24, 19:41:11
Hast du mal Lust, Folding@Home mit Core 17 auszuprobieren?

ux-3
2014-04-24, 19:51:18
Ist das nicht eine unglücklich Kombination, Nvidia auf 2 Threads?

aufkrawall
2014-04-24, 19:52:11
Müsste man mit aktuellen Treibern nochmal benchen.

slippers74
2014-04-24, 20:53:07
Hast du mal Lust, Folding@Home mit Core 17 auszuprobieren?

Hab mir das Standard Folding grad mal runter geladen. Läuft mit 1446Mhz stabil. Zumindest 15 Minuten... Wenn du da noch was spezielleres brauchst geb mir den Link. Morgen hab ich dann auch mehr Zeit.

http://abload.de/thumb/2014-04-2420_40_19-grrwpll.jpg (http://abload.de/image.php?img=2014-04-2420_40_19-grrwpll.jpg) http://abload.de/thumb/2014-04-2420_40_53-grbspjj.jpg (http://abload.de/image.php?img=2014-04-2420_40_53-grbspjj.jpg)

Ist das nicht eine unglücklich Kombination, Nvidia auf 2 Threads?

Ich hab heut noch eine halbe Stunde FarCry3 gezockt, auf 1920x1200 mit relativ hohen Settings + PostAA, und die Grafikkarte kam gut ins Schwitzen. Sie ging sogar auf 98% PT rauf, obwohl sie nominell weniger ausgelastet war als bei UV. Zu meiner Verwunderung war das Spiel in den Settings spielbar. Hätte ich so nicht mit gerechnet. Ich bin regelrecht begeistert von meinen zwei lahmen Kernen und meiner neuen "Gaming-Karte". :smile: