PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33

Loeschzwerg
2015-01-21, 08:31:27
Ich kenne keine im freien Handel bzw in Reviews.

http://www.computerbase.de/2014-11/manli-geforce-gtx-970-im-test/

Das ist die NV Referenz der GTX 970. Was anderes gab es nicht.

Unboxing einer Referenz GTX 970:
https://www.youtube.com/watch?v=9XBJSxXSmgU

fondness
2015-01-21, 09:23:31
GM200 kommt in Form einer TITAN angeblich im März zur GTC (17.-21. März).
http://www.sweclockers.com/nyhet/19923-nvidia-avtacker-gm200-pa-gpu-technology-conference-2015

Dural
2015-01-21, 10:02:48
Der Verbrauch ist doch ok, nur 40Watt mehr als die 750Ti passt doch ganz gut. Bei der Leistung hätte ich aber schon etwas mehr erwartet.

Ailuros
2015-01-21, 10:11:46
Der Verbrauch ist doch ok, nur 40Watt mehr als die 750Ti passt doch ganz gut. Bei der Leistung hätte ich aber schon etwas mehr erwartet.

Der Verbrauch ist ok, aber Du haettest fuer diesen trotzdem mehr Leistung erwartet....:comfort2:

Die Leistung ist fuer 8 SMMs vollkommen ok.

Timbaloo
2015-01-21, 10:16:49
Ich habe den Thread in den letzten Wochen immer nur grob überflogen, deshalb die Frage: Weiss man nun wie es mit SP:DP beim GM200 aussieht?

Dural
2015-01-21, 10:17:48
Der Verbrauch ist für die 8SMM sicher OK, aber trotzdem hätte ich etwas mehr Leistung erhofft. Maxwell scheint extrem gut mit den Einheiten zu Skalieren.

Ailuros
2015-01-21, 10:20:18
Der Verbrauch ist für die 8SMM sicher OK, aber trotzdem hätte ich etwas mehr Leistung erhofft. Maxwell scheint extrem gut mit den Einheiten zu Skalieren.

Schoen dass Du weder Deine eigenen Wiedersprueche noch irgendwelchen Sarkasmus von anderen erkennen kannst :rolleyes:

Ich habe den Thread in den letzten Wochen immer nur grob überflogen, deshalb die Frage: Weiss man nun wie es mit SP:DP beim GM200 aussieht?

Leider nicht. Wenn man links und rechts im Hintergrund herumfragt und keiner will es wagen zu antworten, erwarte ich zumindest das schlimmste.

maximus_hertus
2015-01-21, 11:15:20
Falls von Interesse:

MSI GTX 960 Gaming, 2GB, 1216/1279/3500 MHz, 249,90 Euro (bei uns)

Dural
2015-01-21, 11:38:26
Schnäppchen :freak:

@Ailuros
Wo ist da ein Wiederspruch? Ich hätte mir einfach ca. 5% mehr Leistung gewünscht / erhofft. Dann wäre es nämlich eine ziemlich runde Karte.

eratte
2015-01-21, 11:46:34
Erster Eintrag bei Geizhals (http://geizhals.at/eu/palit-geforce-gtx-960-jetstream-ne5x960h1041j-a1217553.html) 209.99

Effe
2015-01-21, 11:48:18
Wo ist da ein Wiederspruch? Ich hätte mir einfach ca. 5% mehr Leistung gewünscht / erhofft. Dann wäre es nämlich eine ziemlich runde Karte.
Meinst Du das ernst? Ich hoffe doch Du trollst nur.

250€? Der Preis ist doch etwas hoch, die Straßenpreise sollte eher in Richtung 200 gehen.

dildo4u
2015-01-21, 11:53:33
Die MSI 970 Gameing liegt auch bei 370€ sagt noch nix über billig Modelle.

https://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~132_4096~545_MSI#xf_top

Godmode
2015-01-21, 12:21:12
GM200 kommt in Form einer TITAN angeblich im März zur GTC (17.-21. März).
http://www.sweclockers.com/nyhet/19923-nvidia-avtacker-gm200-pa-gpu-technology-conference-2015

Mich würde echt interessieren, was die Gründe für diese späte Vorstellung sind. Vor allem hätte ich ein A1 Stepping deutlich früher erwartet.

Effe
2015-01-21, 12:28:39
Mich würde echt interessieren, was die Gründe für diese späte Vorstellung sind.
Warum sollte NV sich sonderlich beeilen? Die 980/070 verkaufen sich sehr gut, der Konkurrent liegt am Boden.

Ailuros
2015-01-21, 12:32:33
Mich würde echt interessieren, was die Gründe für diese späte Vorstellung sind. Vor allem hätte ich ein A1 Stepping deutlich früher erwartet.

Mit tape out im Juli 2014 (nach Geruechten) braucht das Ding zumindest 6 Monate bevor es in die Massenproduktion kommt. Ich hab jetzt nicht alle Bilder von den GM200 dies durchgewuehlt aber es steht auf einem 1440A1 drauf. Die 40e Woche in 2014 war 29/09-05/10/2014. Steht auf allen aehnliches drauf, dann ist ein finales tape out Ende September wahrscheinlicher als alles andere und spricht auch fuer eine durchaus zeitliche A1/Maerz 2015 Veroeffentlichung.

Unicous
2015-01-21, 12:38:29
http://www.computerbase.de/2014-11/manli-geforce-gtx-970-im-test/

Das ist die NV Referenz der GTX 970. Was anderes gab es nicht.

Unboxing einer Referenz GTX 970:
https://www.youtube.com/watch?v=9XBJSxXSmgU

Das ist eine GTX 970 auf die ein 980 Ref.-Kühler draufgeknallt wurde. Schau dir mal die Temperaturwerte an. Es wurde keine Ref-Karte getestet, daher kann dildo4u auch keinen Vergleich anstellen.

fondness
2015-01-21, 12:48:34
Mich würde echt interessieren, was die Gründe für diese späte Vorstellung sind. Vor allem hätte ich ein A1 Stepping deutlich früher erwartet.

Ich frage mich eher wie du darauf kommst das der Chip früher kommen sollte.

Sunrise
2015-01-21, 13:13:44
Mich würde echt interessieren, was die Gründe für diese späte Vorstellung sind. Vor allem hätte ich ein A1 Stepping deutlich früher erwartet.
Wenn meine Berechnungen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10488769#post10488769) stimmen, dann ist GM200 doch deutlich größer als die ~560mm², die hier anfänglich herumschwirrten (Quellen sprachen ja von Pinkompatibilität mit GK110).

Das hätte zur Folge, dass es wohl erstens (trotz 28nm) mehr ASICs gibt, die nicht als Profikarte verkauft werden können und auch (6 Monate bis zur Massenproduktion eingerechnet) etwas Vorlaufzeit, um genügend ASICs zu sammeln, damit man für den Launch auch genügend zur Verfügung hat.

Mit deutlich über 600mm² wird NV jedenfalls nicht nur eine Variante an GM200 haben, das ist selbst auf 28nm recht sicher. Und die werden sie ganz sicher nicht verbrennen.

Hübie
2015-01-21, 13:18:38
Irgendwo wurde GK110 vermessen und es kam glaub ich zu 3 mm^2 Abweichung. Also passt das mit 580 schon, schätz ich. Glaub 578 wars um genau zu sein.

robbitop
2015-01-21, 13:18:40
Ich hoffe, dass es nicht nur die (vermutlichd überteuerte) Titan 2 geben wird sondern auch eine leicht abgespeckte Consumervariante in bezahlbar.

Loeschzwerg
2015-01-21, 13:19:07
Das ist eine GTX 970 auf die ein 980 Ref.-Kühler draufgeknallt wurde. Schau dir mal die Temperaturwerte an. Es wurde keine Ref-Karte getestet, daher kann dildo4u auch keinen Vergleich anstellen.

Es ist eine GTX 980 mit GTX 970 GPU und weniger Spannungswandlern, wenn du so willst. Genau DAS ist die Ref. GTX 970 von NV :)

Es gibt keine "kleine" Ref. GTX 970 wie z.B. die GTX 670.

Ailuros
2015-01-21, 13:25:14
Ich hoffe, dass es nicht nur die (vermutlichd überteuerte) Titan 2 geben wird sondern auch eine leicht abgespeckte Consumervariante in bezahlbar.

Erst melken und dann erst einschenken :P

Sunrise
2015-01-21, 13:29:54
Irgendwo wurde GK110 vermessen und es kam glaub ich zu 3 mm^2 Abweichung. Also passt das mit 580 schon, schätz ich. Glaub 578 wars um genau zu sein.
http://wccftech.com/nvidia-maxwell-gm200-die-shot-analysis/

Schau dir mal das an. Das klingt sogar noch etwas genauer als meine relativ einfache (anhand der geleakten Bilder) Berechnung.

Ich finde auch rein optisch sieht das Ding recht monströs aus, da der ASIC jetzt fast quadratisch ist.

tm0975
2015-01-21, 13:42:31
Mich würde echt interessieren, was die Gründe für diese späte Vorstellung sind. Vor allem hätte ich ein A1 Stepping deutlich früher erwartet.

Nvidia hat keine not. erst einmal möchte man den markt mit 970/980 abschöpfen. dann spekuliert man darauf, dass diejenigen, die sich gleich zu beginn eine 980 geholt haben, auf die neuen karten umschwenken. das tut aber niemand nach einem monat, nach einem halben jahr aber viel wahrscheinlicher.

maximus_hertus
2015-01-21, 13:42:32
Unsere Ladenpreise:

Palit jetstream, 1203/1266/3600 239,90
Palit super jetstream, 1279/1342/3600, 249,90
Palit 960 oc, 1165/1228/3500, 239,90
Msi gtx 960, 1127/?/3500, 229,90
Msi 960 gaming 100 million, 1216/?/3500, 289,90
Msi 960 gaming, 1216/1279/3500, 1x8 Pin Strom, 249,90
Asus strix 960, 1228/1317/3600, 249,90

Ich wollte mal die MSI Gaming testen, aber leider liegen den Karten keine Treiber bei.

M4xw0lf
2015-01-21, 13:42:33
Ich hoffe, dass es nicht nur die (vermutlichd überteuerte) Titan 2 geben wird sondern auch eine leicht abgespeckte Consumervariante in bezahlbar.
Mein Tipp ist: nicht vor Fiji. Oder nur knapp, um die Publicity zu klauen. ;)

Unsere Ladenpreise:

Palit jetstream, 1203/1266/3600 239,90
Palit super jetstream, 1279/1342/3600, 249,90
Palit 960 oc, 1165/1228/3500, 239,90
Msi gtx 960, 1127/?/3500, 229,90
Msi 960 gaming 100 million, 1216/?/3500, 289,90
Msi 960 gaming, 1216/1279/3500, 1x8 Pin Strom, 249,90
Asus strix 960, 1228/1317/3600, 249,9
O.o hmkay.

Loeschzwerg
2015-01-21, 13:53:04
Also ~30€ über der R9 285.

Hübie
2015-01-21, 13:54:07
Unsere Ladenpreise:

Palit jetstream, 1203/1266/3600 239,90
Palit super jetstream, 1279/1342/3600, 249,90
Palit 960 oc, 1165/1228/3500, 239,90
Msi gtx 960, 1127/?/3500, 229,90
Msi 960 gaming 100 million, 1216/?/3500, 289,90
Msi 960 gaming, 1216/1279/3500, 1x8 Pin Strom, 249,90
Asus strix 960, 1228/1317/3600, 249,90

Ich wollte mal die MSI Gaming testen, aber leider liegen den Karten keine Treiber bei.

Ich bin überrascht :biggrin: (NOT!)

maximus_hertus
2015-01-21, 14:09:18
Hat jemand Zugang zum 347.13 Treiber? Mich juckt es in den Fingern mal eine Karte zu testen...
Falls jemand möchte, kann ich Bilder von der MSI Gaming hochladen, aber von außen sieht sie "nur" aus wie eine gaming halt aussieht.

M4xw0lf
2015-01-21, 14:11:58
Hat jemand Zugang zum 347.13 Treiber? Mich juckt es in den Fingern mal eine Karte zu testen...
Falls jemand möchte, kann ich Bilder von der MSI Gaming hochladen, aber von außen sieht sie "nur" aus wie eine gaming halt aussieht.
Weißt du auch was über Nvidias UVP? Oder gibts sowas gar nicht? Bzw. werden es ja eher die UVPs der Boardpartner sein.

tm0975
2015-01-21, 14:16:31
Also ~30€ über der R9 285.

die 285 gabs kürzlich bei caseking für 166 €! alles über 200 € ist definitiv zuviel für die 960.

mal abgesehen von fehlenden unterstützungen für freesync, mantle und trueaudio, wobei ich auf trueaudio noch verzichten könnte.

Godmode
2015-01-21, 14:20:19
Warum sollte NV sich sonderlich beeilen? Die 980/070 verkaufen sich sehr gut, der Konkurrent liegt am Boden.

Ich denke nicht dass die 970/980 Verkäufe durch eine Titan 2 um 1000€ großartig beeinflusst worden wären.

Mit tape out im Juli 2014 (nach Geruechten) braucht das Ding zumindest 6 Monate bevor es in die Massenproduktion kommt. Ich hab jetzt nicht alle Bilder von den GM200 dies durchgewuehlt aber es steht auf einem 1440A1 drauf. Die 40e Woche in 2014 war 29/09-05/10/2014. Steht auf allen aehnliches drauf, dann ist ein finales tape out Ende September wahrscheinlicher als alles andere und spricht auch fuer eine durchaus zeitliche A1/Maerz 2015 Veroeffentlichung.

Ok das wusste ich nicht, ich ging immer von Juli 2014 aus.

Ich frage mich eher wie du darauf kommst das der Chip früher kommen sollte.

Man hätte damit auch den Leuten mit GK110 was neues verkaufen können. Nicht sehr viele GK110 User sind auf GM204 umgestiegen.

Wenn meine Berechnungen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10488769#post10488769) stimmen, dann ist GM200 doch deutlich größer als die ~560mm², die hier anfänglich herumschwirrten (Quellen sprachen ja von Pinkompatibilität mit GK110).

Das hätte zur Folge, dass es wohl erstens (trotz 28nm) mehr ASICs gibt, die nicht als Profikarte verkauft werden können und auch (6 Monate bis zur Massenproduktion eingerechnet) etwas Vorlaufzeit, um genügend ASICs zu sammeln, damit man für den Launch auch genügend zur Verfügung hat.

Mit deutlich über 600mm² wird NV jedenfalls nicht nur eine Variante an GM200 haben, das ist selbst auf 28nm recht sicher. Und die werden sie ganz sicher nicht verbrennen.

Unter der Prämisse, dass das stimmt, wäre das natürlich ein Argument, was für den späteren Erscheinungstermin spricht.

Nvidia hat keine not. erst einmal möchte man den markt mit 970/980 abschöpfen. dann spekuliert man darauf, dass diejenigen, die sich gleich zu beginn eine 980 geholt haben, auf die neuen karten umschwenken. das tut aber niemand nach einem monat, nach einem halben jahr aber viel wahrscheinlicher.

Wie gesagt, ein Käufer der 500 Euro für eine GPU ausgibt, wird mit eher geringer Wahrscheinlichkeit zu einem 1000 € GPU Käufer werden.

maximus_hertus
2015-01-21, 14:26:38
Nope, ihr vergesst die Emotionen beim Kauf. 500 Euro für die beste Karte - gekauft. 500 für eine schnelle, aber nur Zweit oder Drittbeste Lösung? Lieber nicht, entweder abwarten oder dann etwas kleiner kaufen, reicht ja auch.

Nein, kenne keine Referenz nV Preise.

dildo4u
2015-01-21, 14:28:10
Unsere Ladenpreise:

Palit jetstream, 1203/1266/3600 239,90
Palit super jetstream, 1279/1342/3600, 249,90
Palit 960 oc, 1165/1228/3500, 239,90
Msi gtx 960, 1127/?/3500, 229,90
Msi 960 gaming 100 million, 1216/?/3500, 289,90
Msi 960 gaming, 1216/1279/3500, 1x8 Pin Strom, 249,90
Asus strix 960, 1228/1317/3600, 249,90

Ich wollte mal die MSI Gaming testen, aber leider liegen den Karten keine Treiber bei.
Diese Angaben bringen nix wenn man nicht weiss wie Teuer der Laden sonst ist habt ihr 285 für 200€?

maximus_hertus
2015-01-21, 14:30:49
R9 285 ab 234,90. Gtx 970 ab 339,90.

Oberst Sanftleben
2015-01-21, 14:31:28
Ich denke nicht dass die 970/980 Verkäufe durch eine Titan 2 um 1000€ großartig beeinflusst worden wären.
Nein, aber welchen Grund gibt es, um die Karte rauszuhauen?

970/980 verkaufen sich wie geschnitten Brot. Die Konkurrenz hat nichts vorzeigbares und hat auch für mindestens 6 Monate nichts im Petto (Zeitpunkt Launch 900er Serie).

Die gesparten Ressourcen um die TTM für die Consumervariante möglich klein zu halten, kann man in die Quadrokarten stecken. Da kommt dann der richtige Rubel mit rüber.

In der letzten Generation (GK110) erschienen die Consumerkarten Anfang des Jahres (Februar?) und die großen im Sommer, Beginn des Q3. Ich erwarte, dass das beim GM200 deutlich fixer gehen wird.

dildo4u
2015-01-21, 14:33:15
R9 285 ab 234,90. Gtx 970 ab 339,90.
Danke also kann man mit 960 für 200€ rechnen.

fondness
2015-01-21, 14:37:30
Man hätte damit auch den Leuten mit GK110 was neues verkaufen können. Nicht sehr viele GK110 User sind auf GM204 umgestiegen.

Dazu muss der Chip auch ready sein, und solange es nicht mal eine Quadro damit gibt ist es das offensichtlich noch nicht.

Oberst Sanftleben
2015-01-21, 14:39:47
Dazu muss der Chip auch ready sein, und solange es nicht mal eine Quadro damit gibt ist es das offensichtlich noch nicht.
Quatsch mit Soße, bei GK110 war die Reihenfolge Tesla->GeForce->Quadro

fondness
2015-01-21, 14:52:03
Quatsch mit Soße, bei GK110 war die Reihenfolge Tesla->GeForce->Quadro

Dann eben Tesla. :rolleyes:
Ist ja auch egal, NV sitzt sicher nicht auf einem fertigen Chip herum und dreht Däumchen, wenn man wieder etwas um $1000 verkaufen könnte würde man das auch tun.

robbitop
2015-01-21, 15:04:35
Hoffentlich kommt AMDs Fijii zeitnah und ist auch äquivalent schnell. So eine Monopolsituation wie zur Titan war IMO einfach furchtbar.

aufkrawall
2015-01-21, 15:06:50
Immerhin kann man wohl davon ausgehen, dass was kommt.

Unicous
2015-01-21, 15:25:44
Hoffentlich kommt AMDs Fijii zeitnah und ist auch äquivalent schnell. So eine Monopolsituation wie zur Titan war IMO einfach furchtbar.

Wahrscheinlich erst kurz vor der Computex.

Ailuros
2015-01-21, 15:39:13
Ok das wusste ich nicht, ich ging immer von Juli 2014 aus.

Ich wusste es auch nicht bis ich die Bilder sah. War wohl eher so dass der design im Juli fertig war und dann finaler tape out Ende September. Ich hatte genau die gleiche Verwirrung beim GK110.

Hoffentlich kommt AMDs Fijii zeitnah und ist auch äquivalent schnell. So eine Monopolsituation wie zur Titan war IMO einfach furchtbar.

Ich leg zwar meine Hand nicht ins Feuer, aber letzte Info sprach von Q2.

AnarchX
2015-01-21, 18:46:36
http://cdn.wccftech.com/wp-content/uploads/2015/01/NVIDIA-GeForce-GTX-960-PCB-635x476.jpg
http://wccftech.com/gigabyte-geforce-gtx-960-g1-gaming-performance-revealed-160w-tdp-custom-design-windforce-x2-x3-pictured/

:ulol:
War nicht einseitige Bestückung günstiger oder hat das bei 7Gbps Vorteile?

Die Windforce X3 hat wohl ein 300W PCB, auch ein neuer Rekord für eine 128-Bit Karte.

dildo4u
2015-01-21, 18:51:22
Die Kompression scheint gut zu funzen,die 960 kommt in höherer Auflösung dichter an eine 280 ran.


http://abload.de/img/gigabyte-geforce-gtx-cdjwh.png

Ailuros
2015-01-21, 18:55:51
Die Kompression scheint gut zu funzen,die 960 kommt in höherer Auflösung dichter an eine 280 ran.


http://wccftech.com/nvidia-geforce-gtx-960-radeon-r9-280-4k-benchmarks/

:freak:

dildo4u
2015-01-21, 18:58:10
http://wccftech.com/nvidia-geforce-gtx-960-radeon-r9-280-4k-benchmarks/

:freak:
Unter 4k ist natürlich der Vram voll 3DMark Firestrike Extreme passt in 1.5GB V-ram.

Ailuros
2015-01-21, 19:04:50
Unter 4k ist natürlich der Vram voll 3DMark Extreme passt in 1.5GB V-ram.

Dann viel Spass beim 3dmark spielen. In der Zwischenzeit liess Deinen vorigen Satz so oft durch bis meine Antwort darauf klarer wird. Mehr als ein heutiges Spiel kann Dir den Speicher um einiges frueher als 4k fuellen und Kompression rettet eben nicht "alles" je hoeher die Aufloesung ausser man konzentriert sich auf synthetischen Scheiss.

aufkrawall
2015-01-21, 19:06:51
Die dritte x60-Karte hintereinander mit nur 2GB. :freak:
Die armen Deppen, die so etwas noch kaufen...

AnarchX
2015-01-21, 19:12:32
Die dritte x60-Karte hintereinander mit nur 2GB. :freak:
Die armen Deppen, die so etwas noch kaufen...
Selbst die 460/560 gab es zeitnah mit 2GiB. Bei der 960 sind 4GiB Versionen zumindest fraglich.

Loeschzwerg
2015-01-21, 19:13:40
http://cdn.wccftech.com/wp-content/uploads/2015/01/NVIDIA-GeForce-GTX-960-PCB-635x476.jpg
http://wccftech.com/gigabyte-geforce-gtx-960-g1-gaming-performance-revealed-160w-tdp-custom-design-windforce-x2-x3-pictured/

:ulol:
War nicht einseitige Bestückung günstiger oder hat das bei 7Gbps Vorteile?

Die Windforce X3 hat wohl ein 300W PCB, auch ein neuer Rekord für eine 128-Bit Karte.

Sieht schon komisch aus :freak:

http://cdn.wccftech.com/wp-content/uploads/2015/01/GM206-Hands-Up-635x348.jpg

Also ist auf der Vorder-/Rückseite jeweils ein Ram Platz frei. 192Bit und 3GB ;D

Godmode
2015-01-21, 19:14:55
Die dritte x60-Karte hintereinander mit nur 2GB. :freak:
Die armen Deppen, die so etwas noch kaufen...

Finde das auch einfach nur arm. Vor allem kostet Speicher nicht viel und man könnte es ja "sogar" dem Kunden verrechnen.

AnarchX
2015-01-21, 19:17:29
Die aktuelle kuriosen PCBs erlauben 4GiB aber nur mit den neuen 8Gbit Modulen, die wohl doch noch etwas teuerer sind. Wobei natürlich ein Clamshell PCB mit 2x4 Chips wohl auch keine Hürde wäre.

M4xw0lf
2015-01-21, 19:27:13
Die dritte x60-Karte hintereinander mit nur 2GB. :freak:
Die armen Deppen, die so etwas noch kaufen...
Meine 6970 ist offenbar immer noch topaktuell! :freak:

Gandharva
2015-01-21, 20:18:09
Die Karte ist eigentlich völlig OK für das gedachte Einsatzgebiet. Nur der Preis ist um >50€ zu hoch. Allerdings denke ich das hier locker (Gewinn)Potential bis runter auf 150€ gegeben ist und der Markt das ggf. schon regeln wird.

dildo4u
2015-01-21, 20:20:43
Die GPU zerstört die PS4 GPU,sobald die 4GB Karten kommen kann man die ganze Gen 1080p mit deutlich höheren Details als auf Konsole zocken.
Und man kommt sicherlich relativ dicht an der Verbauch der PS4,eine 285 braucht alleine ja schon mehr Storm als ne PS4.

N0Thing
2015-01-21, 20:24:41
So wie mit einer R280 oder GTX 680 jetzt schon?

horn 12
2015-01-21, 20:31:26
Für 50 bis 70 Euro bekommt man schon eine relativ Leise und OC-te R9 290 (zudem der Dollar Preis nun fast 1,1 zum Euro umgerechnet werden muss!
Da glaube ich dass AMD den Preis der R9 290 nochmals um ca.30 Dollar nach unten absenkt oder aber gar eine R9 285 4GB nachschiebt mit höherem Takt!

aufkrawall
2015-01-21, 20:34:14
Die GPU zerstört die PS4 GPU,sobald die 4GB Karten kommen kann man die ganze Gen 1080p mit deutlich höheren Details als auf Konsole zocken.
Und man kommt sicherlich relativ dicht an der Verbauch der PS4,eine 285 braucht alleine ja schon mehr Storm als ne PS4.
Der Aufpreis für etwaige 4GB wird NV-typisch abenteuerlich sein.
Dann kann man auch gleich eine 290 mit 512 Bit Interface kaufen, wenn man noch bei Trost ist. :eek:

Dural
2015-01-21, 20:38:25
die karten haben alle 192bit, somit dürfte klar sein das der gm206 192bit hat, dazu würden 10smm natürlich auch besser passen.

finde die 960 somit nicht wirklich interessant, eine 960ti dürfte deutlich interessanter sein.

M4xw0lf
2015-01-21, 20:40:48
Welche GTX960 hat 192 bit? :uconf:

y33H@
2015-01-21, 20:53:34
Die mit Ti :usad:

Nakai
2015-01-21, 21:24:34
192 Bit sind ziemlich sicher, außer NVidia packt GM204 in ein GM206-192Bit-Package und deaktiviert 4 SMMs und eine ROP-Partition. :freak:

Bei 3 ROP-Partitionen passen eher 12 SMMs als 10 SMMs. Inhomogene GPC-Konfigurationen schauen komisch aus.^^

AnarchX
2015-01-21, 22:10:33
Bei 3 ROP-Partitionen passen eher 12 SMMs als 10 SMMs. Inhomogene GPC-Konfigurationen schauen komisch aus.^^
2x5SMM GPC (siehe auch GM107) sind bei der Die-Size und 8 SMM bei einer 300er SKU wahrscheinlicher und dann kann halt der Core nicht die 48 ROPs im Backend vollständig füttern.

Zu den anderen Varianten gab es ja diese Preview:
http://wccftech.com/gtx-960-ti-benchmarks-specs-revealed/
Vielleicht hat Daeguen Lee da doch Zugriff auf Samples, wie teilweise in der Vergangenheit.

Eventuell:
GTX 960 (8SMM, 128-Bit, 2G)

ab März (nach AMDs Trinidiad, "Captain Jack" Launch):

GTX 960 Ti (10SMM, 192-Bit, 3G)
GTX 960 Ti 4K (12SMM, 256-Bit, 4G) - ersetzt die GTX 970 für $299 und ist bei 4K dank "L2-Bug" der 970 genauso schnell :freak:
GTX 975 8GB $399
GTX 980 8GB $599
GTX Titan X 12GB $1200

Orbmu2k
2015-01-21, 22:45:17
Hat jemand Zugang zum 347.13 Treiber? Mich juckt es in den Fingern mal eine Karte zu testen...


Nimm einfach den aktuellsten Treiber 347.09 und mach ein INF Mod. :wink:

Chip
2015-01-21, 23:03:15
Zur Ti (http://www.game-debate.com/gpu/index.php?gid=2439&gid2=2436&compare=geforce-gtx-960-ti-2gb-vs-geforce-gtx-960-2gb). Aber keine Ahnung ob das passen könnte.

dildo4u
2015-01-22, 14:58:35
Die 960 läuft schon default mit 1.4Ghz Boost daher vermutlich die 120Watt.

http://youtu.be/2Ya9Ymbc6tc

-/\-CruNcher-/\-
2015-01-22, 15:14:25
Die 960 läuft schon default mit 1.4Ghz Boost daher vermutlich die 120Watt.

http://youtu.be/2Ya9Ymbc6tc


Der End Disclaimer im Video ist interessant hier wird CryEngine rechtlich erwähnt obwohl sie theoretisch nicht zu sehen war ;)


Textures auf Very High ist auch interessant ;)

Ravenhearth
2015-01-22, 15:45:46
GM206 offiziell mit 2,94M Transistoren auf 227mm² und maximal 8 SMMs sowie 128 Bit. Das klingt stimmig.

Edit: Dann warten wir mal auf eine GTX 960 Ti mit GM204@10SMM und 192 Bit sowie 3GB für $249.

Hübie
2015-01-22, 16:48:49
Der End Disclaimer im Video ist interessant hier wird CryEngine rechtlich erwähnt obwohl sie theoretisch nicht zu sehen war ;)


Textures auf Very High ist auch interessant ;)

Lies den Zusammenhang. Da steht basierend auf dem ersten Far Cry von Cevat Yerli's Crytek mit der ursprünglichen CryEngine.

Nightspider
2015-01-22, 18:37:42
Damit dürfte recht sicher sein das GM200 auch mit H.265 Encoder und HDCP2.2 kommt oder?

H.265 rockt aber das wird noch nicht bei 4K funzen oder?

Hübie
2015-01-22, 18:45:58
Worauf beziehst du dich? :| youtube-Videos?

AnarchX
2015-01-22, 18:54:48
GM206 offiziell mit 2,94M Transistoren auf 227mm² und maximal 8 SMMs sowie 128 Bit. Das klingt stimmig.

Die Die-Form spricht klar für 192-Bit ebenso die PCBs. Und ein Vollausbau wäre wohl eher ein GM206-400.
Bei den SMMs ist das Potential natürlich fraglich. Ein halber GM204 wären 2,6 Mrd. Transistoren. ~300M Transistoren reichen wohl eher nicht für zwei weitere SMMs und zusätzliche 64-Bit/512KiB/16ROPs.

Die 192-Bit sind eventuell für eine mobile Variante mit <6Gbps Datenrate.

Für die vorgesehene 4GiB GTX 960 im März (http://www.computerbase.de/2015-01/geforce-gtx-960-mit-4-gb-erscheint-im-maerz/)wäre aber ein 192-Bit Bonus auch denkbar: 4x4Gbit (512MiB) + 2x8GBit(1024MiB) und eben dadurch 1GiB mit nur 64-Bit Bandbreite.

Nightspider
2015-01-22, 18:57:10
Worauf beziehst du dich? :| youtube-Videos?

Shadowplay!? :|

TurricanM3
2015-01-22, 19:21:05
Gibts nichts neues zur "Titan 2"? Wurde nicht gemunkelt da käme evtl. auch was heute?

Undertaker
2015-01-22, 19:27:22
Die 192-Bit sind eventuell für eine mobile Variante mit <6Gbps Datenrate.

Imo wird da so schnell keine neue Karte in der Leistungsklasse mehr kommen, das Lineup ist mit GTX 965M (1024 SP, 128 Bit) und GTX 970M (1280 SP, 192 Bit) sowohl was die Bezeichnungen als auch was die Performance angeht voll.

AnarchX
2015-01-22, 19:31:32
Imo wird da so schnell keine neue Karte in der Leistungsklasse mehr kommen, das Lineup ist mit GTX 965M (1024 SP, 128 Bit) und GTX 970M (1280 SP, 192 Bit) sowohl was die Bezeichnungen als auch was die Performance angeht voll.
Eventuell in einem halben Jahr als BTS Lineup. Bis dahin gibt es vielleicht auch verbesserte GM204-Mobile mit 16/12GiB. :ulol:
Bei der 965M ist auch mittelfristig eine Ablösung durch GM206 denkbar.

Vielleicht sehen wir GeForce X - als GeForce 10 auch eher als gedacht? GeForce X Titan anstatt der spekulierten Titan X - Titan bei kommenden Serien zusammen mit der Generationsziffer als Auszeichung der schnellsten Karte.

Ravenhearth
2015-01-22, 20:59:35
Die Die-Form spricht klar für 192-Bit ebenso die PCBs. Und ein Vollausbau wäre wohl eher ein GM206-400.
Bei den SMMs ist das Potential natürlich fraglich. Ein halber GM204 wären 2,6 Mrd. Transistoren. ~300M Transistoren reichen wohl eher nicht für zwei weitere SMMs und zusätzliche 64-Bit/512KiB/16ROPs.
[...]

Nvidia sagt aber explizit was anderes. Aus dem Test der PCGH:

Die im Vorfeld der Veröffentlichung gehegte Vermutung, dass der GM206 möglicherweise über weitere SMMs und einen zusätzlichen Speichercontroller für eine insgesamt 192 Bit breite Speicherschnittstelle verfügt, verneint Nvidia ausdrücklich.

mczak
2015-01-22, 22:40:56
Nvidia sagt aber explizit was anderes. Aus dem Test der PCGH:
Ist halt verdächtig wenn das PCB Platz für 6 Speicher-Chips hat. Es sei denn das wäre für eine asymmetrische 128bit 3GB Bestückung gedacht, aber sowas macht ja nun wirklich keinen Sinn.
Oder dasselbe PCB würde auch für gk106 taugen (d.h. der Chip wäre pinkompatibel), wobei ich solche PCBs mit gk106 Bestückung zumindest in Reviews so auf die Schnelle nicht gefunden habe.

Sunrise
2015-01-22, 22:44:11
Gibts nichts neues zur "Titan 2"? Wurde nicht gemunkelt da käme evtl. auch was heute?
Erst zur GTC im März.

Shaft
2015-01-22, 22:51:47
Nvidia sagt aber explizit was anderes. Aus dem Test der PCGH:

Kommt da jetzt eine Ti oder nicht?

Wäre Seltsam und untypisch, schließlich ist da eine Lücke im Segment.

dildo4u
2015-01-22, 22:58:05
Wird kommen und vermutlich wie bei der 660TI gegenüber der 680 einfach die kleinste Version des "High End" Chips sein.

Shaft
2015-01-22, 23:03:38
Wird kommen und vermutlich wie bei der 660TI gegenüber der 680 einfach die kleinste Version des "High End" Chips sein.


Wann ist mit einen Release zu rechnen?

Unicous
2015-01-22, 23:06:32
Wann ist mit einene Release zu rechnen?

2015.

Shaft
2015-01-23, 00:11:20
Bevor jetzt noch so eine Schlaumeier Antwort kommt.

Gibt es da eine Systematik seitens Nvidia der Releasepolitk oder in der Vergangenheit?

Vermute jetzt einfach 4,6,8 Wochen.

Hübie
2015-01-23, 00:37:24
Wie meinen? :confused:

Von dem was ich weiß ist (frühestens) Ende Februar launch. Ab Kartondruck warens immer 4-6 Wochen.

Nightspider
2015-01-23, 00:40:09
Gibt es da eine Systematik seitens Nvidia der Releasepolitk oder in der Vergangenheit?

Maximale Marge? :confused:

aths
2015-01-23, 01:19:27
Nein, aber welchen Grund gibt es, um die Karte rauszuhauen?

970/980 verkaufen sich wie geschnitten Brot. Die Konkurrenz hat nichts vorzeigbares und hat auch für mindestens 6 Monate nichts im Petto (Zeitpunkt Launch 900er Serie).
Ich wundere mich, dass die 980 in der Tat in relevanten Stückzahlen rauszugehen scheint. Wer in der Klasse Interesse hat, dürfte sich in der Regel schon vor längerem eine 780 oder 780 Ti zugelegt haben und hat keinen Grund zum Umstieg. Ein paar Leute könnten wie ich von der 680 kommen, wobei das Leistungsplus den 980-Preis eigentlich nicht rechtfertigt. Von den drei tollen neuen Features (DX12, MFAA, DSR) ist nur eins wirklich breit nutzbar, nämlich DSR, und das ging auch vorher schon mit manuellen Eingriffen und wurde für 680 nachgereicht.

-/\-CruNcher-/\-
2015-01-23, 01:50:41
NV arbeitet an einer MFAA Lösung für Games die kein MSAA unterstützen.

http://youtu.be/HHrSe0DtXHk?t=20m52s

Moment mal Petersen erwähnt nur HDMI 2.0 bedeutet das HDMI 2.2 ist AIB Optional ?

Ach du meine fresse Petersen weis nichtmal ob sein Produkt H.265 Decoding supportet es wird aber überall in den Reviews davon gesprochen sowie von HDMI 2.2 ?

dildo4u
2015-01-23, 02:18:40
Moment mal Petersen erwähnt nur HDMI 2.0 bedeutet das HDMI 2.2 ist AIB Optional ?
?
Du verwechselst HDCP mit HDMI es gibt noch kein HDMI 2.2 Spec.

Ailuros
2015-01-23, 08:30:42
Interessanter Post von Arun:

https://forum.beyond3d.com/posts/1820339/

This only has 27% more bandwidth than the GTX 750 Ti; in that sense it is still quite impressive! What I find more interesting is the die size. Effectively everything is halved from GM204 which makes it very easy to figure out what the die size of GM200 could be if it was exactly +50%:

GM204: 398mm2
GM206: 227mm2 -> +171mm2
GM200: 398 + 171 = 569mm2 (for 384-bit GDDR5 / 6xGPC / 3072 ALUs).

*IF* it is true that GM200 is really +-620mm2 then it might be possible for NVIDIA to have 5 SMMs per GPC ala GM107 for a total of 240 TMUs & 3840 ALUs. They already had 5 SMM/GPC on GM107 so it's definitely possible and could be quite attractive at high resolutions.

M4xw0lf
2015-01-23, 09:06:51
Hmm? 3072 SPs sind doch bestätigt? Wenn GM200 600mm²+ groß ist, dann kann man vielleicht erwarten, dass er doch kein völliger FP64-Krüppel ist.

Timbaloo
2015-01-23, 09:11:17
Bei letzterem würde halt gar kein Platz für DP-Einheiten bleiben. Aber für Gaming und SP-Rechnerei wäre es natürlich ein Brett.

Ailuros
2015-01-23, 09:14:30
Hmm? 3072 SPs sind doch bestätigt? Wenn GM200 600mm²+ groß ist, dann kann man vielleicht erwarten, dass er doch kein völliger FP64-Krüppel ist.

Bestaetigt inwiefern? Ich glaube zwar nicht dass das Ding mehr als 24 clusters hat, aber das was in bisherigen Resultaten erschienen ist koennte auch locker ein hypothetischer salvage part sein.

Nakai
2015-01-23, 12:51:48
Interessanter Post von Arun:

https://forum.beyond3d.com/posts/1820339/

Naja, das wäre der gleiche Sprung von GK104 auf GK110. Das oder kein DP-Krüppel. Der Unterschied zwischen DP-Krüppel und nicht DP-Krüppel ist beim GK104 vs. GK110 schon erkennbar gewesen. Die SMX waren schon nicht unerheblich größer.

Ailuros
2015-01-23, 12:56:23
Naja, das wäre der gleiche Sprung von GK104 auf GK110. Das oder kein DP-Krüppel. Der Unterschied zwischen DP-Krüppel und nicht DP-Krüppel ist beim GK104 vs. GK110 schon erkennbar gewesen. Die SMX waren schon nicht unerheblich größer.

Νur hatte GK110 auch noch zusaetzliche Faehigkeiten gegenueber GK104; frag mich jetzt bloss nicht wieviel jedes in hw gekostet hat *schulterzuck*

Ich gehe davon aus dass GM200 den gleichen HEVC, HDMI 2.0 etc. Schnickschnack des GM206 unterstuetzt.

Nakai
2015-01-23, 13:10:53
Νur hatte GK110 auch noch zusaetzliche Faehigkeiten gegenueber GK104; frag mich jetzt bloss nicht wieviel jedes in hw gekostet hat *schulterzuck*

Ich gehe davon aus dass GM200 den gleichen HEVC, HDMI 2.0 etc. Schnickschnack des GM206 unterstuetzt.

Ja, da hast du schon recht. Nv baut schon sehr quadratische DIEs. Die perspektivisch korrigierten Fotos zeigen aber auch, dass das Package nicht quadratisch ist. Da kann es auch zu Fehlern kommen. NVs größter Chip war bisher GT200 mit 24mm² Kantenlänge. GM200 würde ich knapp darüber einschätzen. Aruns Abschätzung würde schon passen.

Hübie
2015-01-23, 13:16:45
24mm^2 Kantenlänge ;D
Du hast soeben eine neue Dimension geschaffen. ;D
Da frage ich mich wieso man nicht schon 2012 dual GK110 in die Tonne gekloppt hat :rolleyes:
Ich wette die haben schon eine dual GM200 bemustert...

ShinyMcShine
2015-01-23, 13:18:22
Mahlzeit!

Zwei Fragen:

1) Was ist eigentlich mit einem GM208 und einem evtl. Refresh des GM107 (sprich GM207). Kommt da noch was von NV im Bereich der Desktop-Grafikkarten? Insbesondere den GMx08 gibt es wohl bisher nur im Mobile-Bereich?

Eine Karte mit GM208 und angenommenen 384 Cores für ca. 60-75€ wäre für einen Kumpel mittelfristig ganz interessant (sie soll von NVIDIA sein, neu und deutlich weniger als 100€ kosten). Sollte da nix kommen, muss ich ihn in dem Preisbereich eher zu Karten mit GF108/GK107 beraten.

2) Wie sieht es denn mit der Mobilvariante des GM206 aus? Eine GTX 960M mit der GM206 GPU im Vollausbau dürfte schon rocken. Auf die GPU warte ich eignelitch noch, dann möchte ich zuschlagen.

Danke und vG,
Shiny

Nakai
2015-01-23, 13:19:56
24mm^2 Kantenlänge ;D
Du hast soeben eine neue Dimension geschaffen. ;D


;D

Bei mir ist nichts unmöglich.

Ich wette die haben schon eine dual GM200 bemustert...

Mhh, ich denke man schröpft den Kunden erst mit einer GM204-Dual.

Sunrise
2015-01-23, 13:21:24
Ich gehe davon aus dass GM200 den gleichen HEVC, HDMI 2.0 etc. Schnickschnack des GM206 unterstuetzt.
Davon gehe ich nicht aus, weil GM206 deutlich neuer ist. Zumindest wenn man nach dem Produktionsdatum geht. Und das war leider auch in der Vergangenheit ausschlaggebend für die Aktualität der Videoengine.

Ich würde es mir natürlich wünschen, denn dann hätte man auch mehr Hardware mit einer entsprechenden Basis.

robbitop
2015-01-23, 13:28:43
Wäre IMO kein Beinbruch. Dann wird HVEC/h265 eben z.T. über die Shader beschleunigt. Bei dem Einsatzort (High End PC) kommt es auf die paar W Leistungsaufnahme eh nicht an.

Schade, dass NV vermutlich keinen 620 sqmm "Gamingchip" herstellen wird. 3840 SPs wären echt brutal. Allerdings müsste man dann schon fast wieder auf ein 512 bit SI umsteigen.
NV wird einen Computechip wie immer bringen, der gut ausbalanciert ist (1024 SPs pro 128 bit SI) - also wahrscheinlich (IMO) 3096 SPs / 384 bit. Mehr ist in der aktuellen Konkurrenzsituation vermutlich nicht nötig und so hat man mehr Salamitaktik-Reserve für später... :D

Ailuros
2015-01-23, 13:42:03
Davon gehe ich nicht aus, weil GM206 deutlich neuer ist. Zumindest wenn man nach dem Produktionsdatum geht.

Soll aber ein um einiges frueheres tapeout gehabt haben und schwebt auch laenger im Zauba Zeug rum wenn ich mich jetzt nicht irre. Wie dem auch sei der top dog war wieder als letzter angeschlagen.

Und das war leider auch in der Vergangenheit ausschlaggebend für die Aktualität der Videoengine.

Es waere logischer dass auch GM200 das Zeug traegt, aber wenn nicht ist das meiste alles andere als umsonst wenn man sich die Transistoren-Anzahl auf dem 206 ansieht; hier hab ich dann noch einen Schimmer Hoffnung dass vielleicht doch noch die extra FP64 Einheiten drin stecken :redface:

Nightspider
2015-01-23, 13:56:08
Wäre IMO kein Beinbruch. Dann wird HVEC/h265 eben z.T. über die Shader beschleunigt. Bei dem Einsatzort (High End PC) kommt es auf die paar W Leistungsaufnahme eh nicht an.

Aber es kommt auf die Leistung an und ohne Hardwaresupport würde es (mehr) Leistung fressen.

Kartenlehrling
2015-01-23, 14:01:33
Aber es kommt auf die Leistung an und ohne Hardwaresupport würde es (mehr) Leistung fressen.

Intel und AMD liefern das wohl schon, bei AMD bis HD5xxx runter.
http://www.strongene.com/en/downloads/downloadCenter.jsp

aths
2015-01-23, 14:09:07
Ein 3840-Shader-Chip mit 512-Bit-SI wäre natürlich der Hammer. Das wäre endlich mal wieder ein Statement und nicht nur ein bisschen Modellpflege.

robbitop
2015-01-23, 14:48:39
Aber es kommt auf die Leistung an und ohne Hardwaresupport würde es (mehr) Leistung fressen.
Rechenleistung? Oder was ist gemeint? Ist doch in Hülle und Fülle vorhanden und während eines Videos läuft doch keine 3D Applikation, die sich daran stört. Also mich persönlich kratzt das nicht, wie viel mein Spiele PC verbraucht. Bei einem HTPC oder Notebook ist es natürlich was anderes.

Ein 3840-Shader-Chip mit 512-Bit-SI wäre natürlich der Hammer. Das wäre endlich mal wieder ein Statement und nicht nur ein bisschen Modellpflege.
Wäre super. Aber durch das Bild mit der Tesla wissen wir ja bereits von einem 384 Bit SI. Und da Maxwell bisher immer schön ausbalanciert ausgeliefert wurde, ist es eher wahrscheinlich, dass es bei den 1024 SP/128bit SI bleibt. :(
(der 4K Leistungshunger will gestillt werden - jetzt gibt es so tolle neue Monitore dieses Jahr und jetzt nerven diese langsamen GPU Entwicklungszyklen bzw der Leistungsfortschritt pro Zeiteinheit)

Nightspider
2015-01-23, 14:49:32
Es geht doch nicht um Filme sondern um Shadowplay.

Timbaloo
2015-01-23, 15:27:26
Ich sehe jetzt nicht so wirklich warum GM200 solche Features nicht haben sollte?

aufkrawall
2015-01-23, 15:31:33
Es geht doch nicht um Filme sondern um Shadowplay.
NVENC unterstützt das HEVC-Enkodieren angeblich bereits seit der 980 voll in Hardware.
Nur den Dekoder hatte man noch nicht fertig.

Ich weiß ja nicht, schon 8 Bit HEVC hat die ALUs schon ordentlich ausgelastet.
Mit 10 Bit wird die Auslastung nochmal deutlich höher sein. Spieleverbrauch beim Videoschauen möchte man ja meist schon wegen der Lautstärke nicht.

y33H@
2015-01-23, 16:22:56
GM107 war der erste Maxwell, dann GM204. Warum aber können beide kein H.265-Decode per NVENC? Ich meine, die Masse der Käufer guckt doch eher Video (decode) als welche zu erstellen (encode)?

Ravenhearth
2015-01-23, 16:29:44
Aber decode über die ALUs klaut dir keine Leistung beim Spielen (weil du nicht spielst), encode während des Spielens schon.

y33H@
2015-01-23, 22:40:03
Das ist natürlich ein Argument, Stichwort Shadowplay =)

Pick
2015-01-23, 23:03:20
Nvidia’s GTX970 has a rather serious memory allocation bug
http://www.lazygamer.net/general-news/nvidias-gtx970-has-a-rather-serious-memory-allocation-bug/

M4xw0lf
2015-01-23, 23:18:31
Nvidia’s GTX970 has a rather serious memory allocation bug
http://www.lazygamer.net/general-news/nvidias-gtx970-has-a-rather-serious-memory-allocation-bug/

O rly? 3dcenter has a rather serious thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=560256) about it :wink:

Pick
2015-01-23, 23:30:44
O rly? 3dcenter has a rather serious thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=560256) about it :wink:

OK, danke fur den link.

-/\-CruNcher-/\-
2015-01-23, 23:34:19
Νur hatte GK110 auch noch zusaetzliche Faehigkeiten gegenueber GK104; frag mich jetzt bloss nicht wieviel jedes in hw gekostet hat *schulterzuck*

Ich gehe davon aus dass GM200 den gleichen HEVC, HDMI 2.0 etc. Schnickschnack des GM206 unterstuetzt.

Aber decode über die ALUs klaut dir keine Leistung beim Spielen (weil du nicht spielst), encode während des Spielens schon.

Das ist natürlich ein Argument, Stichwort Shadowplay =)

Genau
Auf jedenfall HEVC Encoding/Decoding machen sie nicht umsonst damit sind sie der King was Internal Game (3D) Capturing angeht momentan.
Das war soweit erstmal nur Mobile Devices vorbehalten Encoding/Decoding eines neuen Standards so zeitnah, wie schon Analysten richtig erkannt haben sie sind verdammt schnell geworden.
Der Desktop Part profetiert von Tegra ungemein schon das wir jetzt schon Tegra X sehen irrsin.

Was auch keiner so richtig bedenkt damit läuten sie zeitgleich das R&D an ihren Cloud solutions jetzt mit H.265 ein bzw haben es schon längst ;)

Hübie
2015-01-23, 23:53:17
Du meinst cloud gaming? Das ist noch ein sehr latenter Markt. Eher cloud rendering oder computing.

aufkrawall
2015-01-24, 00:15:27
Das war soweit erstmal nur Mobile Devices vorbehalten Encoding/Decoding eines neuen Standards so zeitnah, wie schon Analysten richtig erkannt haben sie sind verdammt schnell geworden.

Wenn man bedenkt, dass auf allen Kepler-Karten die gleiche VPU saß, kann man den Eindruck gewinnen.

-/\-CruNcher-/\-
2015-01-24, 00:27:49
Das sie dort einen Multipurpose Chip haben den sie belibieg updaten können schliese ich bis heute nicht aus, vor allem sind halt die Firmware parts im Treiber sehr ungewöhnlich seit der Einführung des neuen Decoders damals ;)
Auch die möglichkeit wie bei Intel (theoretisch) seine eigene ME zu integrieren sagt schon einiges aus ;)

robbitop
2015-01-24, 08:57:25
Es geht doch nicht um Filme sondern um Shadowplay.

Achso. Ich dachte du sprichst Decoding an. Ja da hast du natürlich Recht.

AnarchX
2015-01-26, 19:41:49
Jetzt sollte man wohl darauf acht geben, ob NV nicht beim GM200-Salvage nicht auch am L2 herumschnippelt.

Skysnake
2015-01-26, 20:00:49
Definitiv

Godmode
2015-01-26, 20:34:46
Jetzt sollte man wohl darauf acht geben, ob NV nicht beim GM200-Salvage nicht auch am L2 herumschnippelt.

Einfach keinen Salvage kaufen. :cool:

Skysnake
2015-01-26, 20:56:35
Und wenn es wie bei GK110 erstmal nur Salvage Parts gibt?

Godmode
2015-01-26, 20:58:33
Das wäre natürlich sehr ärgerlich, gerade bei einer 1000€ Grafikkarte.

Ailuros
2015-01-27, 11:05:06
Bestaetigung was GM200 nicht hat.....:mad:

fondness
2015-01-27, 11:07:25
Also kein DP?!

M4xw0lf
2015-01-27, 11:15:38
Das hatte doch ein NV-Mensch schon vor einer ganzen Weile mal auf Twitter verlauten lassen...?
(Im Zusammenhang damit, dass es keine GM200-Tesla geben soll)

Ailuros
2015-01-27, 11:21:03
Also kein DP?!

Um einiges weniger als original erwartet; "kein" ist uebertrieben.

Locuza
2015-01-27, 11:22:15
Die nächste spannende Frage, was hat AMD vor?
Wenn Fiji nur einen Speicherausbau von 4GB erhält und AMD deswegen auch auf ein starkes DP:SP Verhältnis verzichtet, dann hat Nvidia Glück im Unglück gehabt.
Falls nicht, wäre es die Chance für AMD Schläge auszuteilen.

tm0975
2015-01-27, 11:30:03
macht amd das nicht bereits hiermit?

http://www.computerbase.de/preisvergleich/amd-firepro-w7100-31004-54-40a-a1152801.html?hloc=at&hloc=de

ich meine, kürzlich gelesen zu haben, dass der marktanteil von amd im professionellen umfeld gestiegen sein soll.

SamLombardo
2015-01-27, 11:39:50
Ich steh gerade aufm Schlauch. Was ist DP?:redface:

robbitop
2015-01-27, 11:41:49
Finde ich super. Weniger sinnlos Computekram (aus Sicht eines Gamers!) und dafür mehr Platz für Dinge, die direkt zur Spieleleistung beitragen. :)

Ailuros
2015-01-27, 11:49:54
Ich steh gerade aufm Schlauch. Was ist DP?:redface:

DP= double precision --> FP64

SamLombardo
2015-01-27, 11:54:15
Danke:)

fondness
2015-01-27, 12:16:53
Die nächste spannende Frage, was hat AMD vor?
Wenn Fiji nur einen Speicherausbau von 4GB erhält und AMD deswegen auch auf ein starkes DP:SP Verhältnis verzichtet, dann hat Nvidia Glück im Unglück gehabt.
Falls nicht, wäre es die Chance für AMD Schläge auszuteilen.

AMD ist mit Hawaii alles andere als schlecht positioniert. Und Maxwell hat wohl nicht ohne Grund wenig DP -> jede Wette das die Roadmapumstellung eine direkte Reaktion auf Fiji war (der mit hoher Wahrscheinlichkeit ebenfalls keine hohe DP-Leistung haben wird).

Skysnake
2015-01-27, 12:55:34
Um einiges weniger als original erwartet; "kein" ist uebertrieben.
Also wohl nur 1/3 bis 1/6 der SP Leistung oder wie?

Die nächste spannende Frage, was hat AMD vor?
Wenn Fiji nur einen Speicherausbau von 4GB erhält und AMD deswegen auch auf ein starkes DP:SP Verhältnis verzichtet, dann hat Nvidia Glück im Unglück gehabt.
Falls nicht, wäre es die Chance für AMD Schläge auszuteilen.
Glaub ich nicht, das AMD auf 1:2 DP:SP verzichtet. AMD muss sich ja nicht nur gegen nVidia positionieren, sondern auch gegen Intel, und die hauen mit KNL dann schon einiges raus.

Interessanter wird da eher, ob AMD endlich HSA ins Feld führen kann, und die dGPUs dazu auch gut nutzbar macht. Gerade mit HBM und der sehr hohen Speicherbandbreite hätte man einen Stein im Brett. Klar KNL wird wohl auch eine sehr hohe Bandbreite haben, aber ob es soo hoch wird? Keine Ahnung.

Auf jeden Fall könnte die Flop/SI-Bandbreite endlich mal wieder sinken! Das gab es schon ewig nicht mehr. Das kommt natürlich Code, dessen Datensets nicht von Caching profitieren sehr zugute.

Man darf da wirklich nicht den Fehler machen, das man NUR auf den maximalen Speicherausbau schaut. Klar, der ist auch sehr wichtig, um man kann damit sich Luft für asynchrones arbeiten schaffen, aber es gibt auch genug Probleme, die nicht das absolute Maximum an RAM brauchen.

Es ist halt wie immer eine Abwägung des Gesamtkonzepts. Ich seh selbst mit 4GB RAM AMD sehr gut aufgestellt, wenn Sie HBM bringen, sofern Sie bei 1:2 DP:SP bleiben. Wenn die da runter gehen auf 1:4, dann können Sie was die Performance pro Karte angeht, wohl kaum an Hawaii vorbei ziehen, was die Maximalleistung anbelangt, was eben wichtig ist für Compute-bound Probleme. Dazu noch massig Speicherbandbreite, um die Probleme zu erschlagen, die eben am SI hängen, bleibt nur noch das Problem der Datensets und damit teilweise des PCI-E Bottlenecks. Das wäre immo das kleinste Problem von allen in meinen Augen.

Ailuros
2015-01-27, 14:13:10
Was fuer 1/3 bzw. 1/6? Wenn mein Verdacht stimmt sind es 4 FP64 SPs/SMM und aus damit, eben wie auf jedem anderen GM2xx core.

M4xw0lf
2015-01-27, 14:20:47
Also 1:32 DP:SP, gell?

robbitop
2015-01-27, 14:25:38
In diesem Falle müssten aber dann doch etwas mehr als 3096 SPs auf den großen Kern passen oder?

GM206 - 227 sqmm 1024 SP
GM204 - 398 sqmm 2048 SP

Alles andere (ROPs, TMUs, SI etc) wurde auch linear mitskaliert. GM204 hat also praktisch doppelte Ressourcen bei aber nur 1,75 facher Fläche.

Wenn man nun annimmt, dass GM200 keinen zusätzlichen Computeballast dabei hat, wären ein linear hochskalierter GM200 (ausgehend vom Sklaierungsfaktor zwischen GM204 und GM206) mit 3096 SPs nur ca. 540 sqmm groß.
Die 632 sqmm hätten Reserve für andere Dinge.

Rein hochskaliert wären in 632 sqmm (bei gleichem Sklaierungsfaktor) ca 3500 SPs drin.

Aber vielleicht nutzt man den Platz für Redundanz oder man hat eventuell aus irgendwelchen Gründen die Packdichte reduziert und landet trotzdem "nur" bei 3096 SPs.

Oder aber man macht es wie in den letzten beiden Generationen: Salamitaktik 2.0 :D

Man bekommt erst beim GM210 in der "Titan 3 Black Uberprice hypotec Peter Zwegat Edition 1337" den vollen Chip. :D

Locuza
2015-01-27, 14:34:52
Also wohl nur 1/3 bis 1/6 der SP Leistung oder wie?

128 ALUs pro Maxwell-Cluster, nicht mehr 192 wie bei Kepler.


Glaub ich nicht, das AMD auf 1:2 DP:SP verzichtet. AMD muss sich ja nicht nur gegen nVidia positionieren, sondern auch gegen Intel, und die hauen mit KNL dann schon einiges raus.
Wenn Nvidia sich gar nicht positioniert ist Intel der einzige Gegner, welcher vielleicht dann auch alleine dasteht, weil AMD auch aussteigt diese Runde.


Klar KNL wird wohl auch eine sehr hohe Bandbreite haben, aber ob es soo hoch wird? Keine Ahnung.
KNL ist mit 16 GB vorgestellt worden und soll über 3 TF DP-Leistung erreichen.
Die Bandbreite liegt vermutlich bei ~ 500 GB/s.

Die Frage ist, ob Intel dank der 14nm Probleme den Zeitplan etwas strecken muss, aber falls nicht steht der Behemoth auf weiter Flur alleine dar.

M4xw0lf
2015-01-27, 14:38:14
3 TF DP sind ja jetzt auch nicht weltbewegend mehr als Hawaii bietet. Und bei welcher Leistungsaufnahme bietet Knights Landing diese DP-Leistung eigentlich?

Locuza
2015-01-27, 14:59:54
Keine Ahnung welche TPD Intel im Sinne hat, aber als Kombi-Paket baut Intel gefährlich aus.

y33H@
2015-01-27, 15:08:34
Ich behaupte mal 300W, glaube nicht, dass Intel nur 225W Modelle anbieten wird.

Ailuros
2015-01-27, 16:09:19
Welchen Zweck soll ueberhaupt ein Titan Nachfolger mit GM200 haben, wenn der letzte nur einen laecherlichen Wert von DP anbietet?

robbitop
2015-01-27, 16:11:08
Eine verdammt schnelle Grafikkarte zu sein? :) Also analog GM204. Nur schneller.
Meinst du, dass der Computemarkt so viel Gewinn abwirft?

tm0975
2015-01-27, 16:18:38
Eine verdammt schnelle Grafikkarte zu sein? :) Also analog GM204. Nur schneller.
Meinst du, dass der Computemarkt so viel Gewinn abwirft?

ich würde den fakt "wir haben die schnellste" als image+ mit wirkung auf die gesamte produktpalette nicht unterschätzen. im blödmarkt stehen die leute dann vor nem nvidia-sticker bei ner mini-grafikkarte mit ddr 3 und denken "wow geil, wie schnell".

Skysnake
2015-01-27, 16:25:25
Es ist die Kirsche auf nVidias Eis mit Sahe. Das wird sich definitiv schmerzlich auf die Marge auswirken. Und vor allem gehen wieder die Stückzahlen runter...

Bei Intel ist eh der Interconnect meiner Meinung nach deutlich gefährlicher als die brutforce ALU-Leistung. Wenn Intel das wirklich gescheit hinbekommen hat mit dem Knowhow von QLogic und Cray, dann siehts böse aus. Das ist vor allem ja ein Angriff auf nVidias GPUDirect 2.0.

@DP:SP
Mit gings nur um die Größenordnung. Sollten Sie "dedizierte" DP-Units verwenden, wären Sie ja absolut frei in der Leistungsauswahl (Was ich von dedizierten DP-Units halte, ist ja denke ich bekannt...).

Wenn es nur 1/32 oder gar noch weniger ist, dann muss nVidia damit gar nicht im Tesla-Markt mehr aufschlagen. Ganz abgesehen davon, dass das wohl selbst für Quadros nicht gänzlich irrelevant ist. Ihre Quadro+Tesla Chose können Sie sich dann wohl auch sparen.

Für Gamer wäre es natürlich ziemlich geil, weil man mit einer fetten Leistung rechnen kann, aber ansonsten wäre es ne ziemliche Katastrophe. Ich bin mal echt gespannt, wie nVidia das den HPC-Kunden verklickern will. Vor allem, wie Sie ihnen verklickern wollen, dass die ihren CUDA Code nur noch auf alter nicht konkurrenzfähiger Hardware laufen lassen können dank vendor lock-in...

Das wird sicherlich wieder einige mehr Wachrütteln, und nach Alternativen ausschau halten lassen, was in meinen Augen das schlimmste ist, was nVidia in dem Bereich passieren kann.

robbitop
2015-01-27, 16:25:51
Ja - ein Prestigeprodukt hat genau diesen Sinn.

Edgecrusher86
2015-01-27, 16:30:00
Wo wir gerade bei "970 Gate" sind - denkt ihr, es wird so auch bei einem GM200 Salvage ablaufen (5,5 von 6GB flott angebunden)?

http://abload.de/thumb/gm200salvagemxur6.jpg (http://abload.de/image.php?img=gm200salvagemxur6.jpg)

Mal schnell zusammengeschustert, wie das dann bei 6 GPC für den Vollausbau und 21/24 SMM für einen Salvage aussehen würde, hätten wir einen analogen Aufbau wie bei der GTX 970 - sofern nur noch 84/96 ROPs und 2,8 MB L2 vorhanden wären.

E: Oben im Bild nochmal ergänzt, dass das nur ein möglicher worst case wäre. :freak:


Andererseits muss man ja sagen, dass zum Beispiel die GTX 980M mit 12 SMM auch nicht betroffen ist, denn es fehlen weder ROPs, L2 oder MC.

Für mich käme zwar nur ein Vollausbau in Frage, aber interessieren würde es mich trotzdem. :D


E: Achso, das wäre dann nur der Fall, wenn 84/96 ROPs und 2,8 MB L2 zur Verfügung stehen würden - sind es 96 ROPs und 3 MB L2, dann hätte ein GM200 Salvage nicht die Einschränkungen im Memory Management, wie die GTX 970.
Andere Möglichkeit wäre natürlich auch, eine 5 GPC Karte mit 5GB @ 320-bit SI zu bringen, zumindest sofern Bedarf wäre, aber den sehe ich eher nicht, denn eine GM200-Karte sollte schon mindestens 20% vor einer GTX 980 landen, ob Salvage oder nicht.

Bei High-End der Preisklasse ~$699 MSRP wär es wohl doch eher unwahrscheinlich, dass man zu solchen Maßnahmen greift, das würde man dann wohl doch eher so wie bei der GTX 980M handhaben.

fondness
2015-01-27, 16:34:16
In diesem Falle müssten aber dann doch etwas mehr als 3096 SPs auf den großen Kern passen oder?

GM206 - 227 sqmm 1024 SP
GM204 - 398 sqmm 2048 SP

Alles andere (ROPs, TMUs, SI etc) wurde auch linear mitskaliert. GM204 hat also praktisch doppelte Ressourcen bei aber nur 1,75 facher Fläche.

Wenn man nun annimmt, dass GM200 keinen zusätzlichen Computeballast dabei hat, wären ein linear hochskalierter GM200 (ausgehend vom Sklaierungsfaktor zwischen GM204 und GM206) mit 3096 SPs nur ca. 540 sqmm groß.
Die 632 sqmm hätten Reserve für andere Dinge.

Rein hochskaliert wären in 632 sqmm (bei gleichem Sklaierungsfaktor) ca 3500 SPs drin.

Aber vielleicht nutzt man den Platz für Redundanz oder man hat eventuell aus irgendwelchen Gründen die Packdichte reduziert und landet trotzdem "nur" bei 3096 SPs.

Oder aber man macht es wie in den letzten beiden Generationen: Salamitaktik 2.0 :D

Man bekommt erst beim GM210 in der "Titan 3 Black Uberprice hypotec Peter Zwegat Edition 1337" den vollen Chip. :D


Dank GM206 kann man eigentlich sehr exakt berechnen wie groß ein 3072SPs GM200 ohne höherer DP-Leistung wäre.

GM204(398mm²) - GM206(227mm²) = 171mm² (=1024SPs, 32ROPs, 2 GPCs, 128-bit SI)

GM200 = GM204 + 171mm² = 569mm² (= 3072 SPs, 96 ROPs, 6 GPCs, 384bit).

tm0975
2015-01-27, 16:36:47
Wo wir gerade bei "970 Gate" sind - denkt ihr, es wird so auch bei einem GM200 Salvage ablaufen (5,5 von 6GB flott angebunden)?

dass nvidia nochmal versucht, in der art und weise die kunden zu blenden, glaube ich nicht. man schaue sich nur mal die zurecht sehr umfangreiche kritik an.

http://www.heise.de/newsticker/meldung/Nvidia-Grafikkarten-GeForce-GTX-970-hat-auch-weniger-Rasterendstufen-und-L2-Cache-als-behauptet-2529302.html

Sunrise
2015-01-27, 16:45:41
Welchen Zweck soll ueberhaupt ein Titan Nachfolger mit GM200 haben, wenn der letzte nur einen laecherlichen Wert von DP anbietet?
Andererseits könntest du auch fragen, warum sich Titan so gut im Consumerbereich verkauft hat, obwohl die DP-Features bei diesem Kundenkreis nie angefasst wurden. Das hat bei diesem Preis wohl alle überrascht, inkl. NV.

Das Ding ist einfach das, was bei NV mit Maxwell-Architektur noch in 28nm passt, also quasi eine "Marketing"-Titan. Von der ursprünglichen Bedeutung ist da außer der sicher sehr guten SP-Performance nicht mehr viel übrig.

Die konzentrieren sich sicher schon jetzt voll auf Pascal, sodass man hier schnellstmöglich die Lücke wieder füllen kann und etwas gegen Intel in der Hand hat.

fondness
2015-01-27, 16:47:47
NV hat TITAN von Anfang an als ultimative Gamer-Karte vermarktet, das ganze Supercomputer blabla war doch nur Marketing. Ich gehe jede Wetter ein das weit über 90% der verkauften TITANs an Gamer gegangen sind.

Sunrise
2015-01-27, 16:50:15
NV hat TITAN von Anfang an als ultimative Gamer-Karte vermarktet, das ganze Supercomputer blabla war doch nur Marketing. Ich gehe jede Wetter ein das weit über 90% der verkauften TITANs an Gamer gegangen sind.
Ja, die Wette würde ich mitgehen.

Ravenhearth
2015-01-27, 17:07:28
@robbitop, fondness: Es sind 3072, nicht 3096! :D

fondness
2015-01-27, 17:08:45
Thx und korrigiert. Das kommt davon wenn man nicht selbst rechnet.^^

Hübie
2015-01-28, 06:53:38
NV hat TITAN von Anfang an als ultimative Gamer-Karte vermarktet, das ganze Supercomputer blabla war doch nur Marketing. Ich gehe jede Wetter ein das weit über 90% der verkauften TITANs an Gamer gegangen sind.

Ich kenne viele (vor allem amerikanische) Spieler die sehr beeindruckt waren und tatsächlich dachten dass double precision die Genauigkeit erhöhen würde mit der ein Spiel gerendert wird X-D Die haben da halt ne völlig andere Mentalität diesbezüglich. Also mit 90% liegst du wohl gar nicht so verkehrt.

Ailuros
2015-01-28, 07:30:09
NV hat TITAN von Anfang an als ultimative Gamer-Karte vermarktet, das ganze Supercomputer blabla war doch nur Marketing. Ich gehe jede Wetter ein das weit über 90% der verkauften TITANs an Gamer gegangen sind.

Die Wette kannst Du Dir sparen, denn anders kann es gar nicht sein. Ein Titan 2 muesste logischerweise einen 12GB framebuffer haben; mit was soll NV Marketing diesmal so ein Ding verkaufen wenn es wieder einen tausender hypothetisch kosten sollte? Shadow of Morder Superflop ohne Textur-komprimierung? :freak:

robbitop
2015-01-28, 09:37:49
Och vor 2 Jahren waren 6 GiB VRAM genauso overpowert wie es heute 12 GiB waren. Enthusiasten stehen auf sowas. :D
NV wird sicher mit 4K / 5K Gaming werben. Denn genau dafür fehlt häufig dochmal die Puste bei aktuellen GPUs. Selbst Pascall hätte mit 5K in den aktuellen Spielen @Ultra Details noch ordentlich zu kämpfen.

Und für die High End User gibt es dann eine teildeaktiierte Version mit 6 GiB. Geforce 1080. :D

Dural
2015-01-28, 09:40:31
wo dann nur 5,5GB Full Speed gehen :freak:

Botcruscher
2015-01-28, 10:03:51
Ordentlich kommuniziert und ohne Betrug dürfte das klar gehen. Das Problem liegt doch eher am explodierenden VRAM Verbrauch in Kombination mit den mageren 3GB der 780TI. Nach einem "Upgrade" auf dann lächerliche 3,3-3,5GB wäre ich auch angepisst.

Ailuros
2015-01-28, 10:37:56
Ordentlich kommuniziert und ohne Betrug dürfte das klar gehen. Das Problem liegt doch eher am explodierenden VRAM Verbrauch in Kombination mit den mageren 3GB der 780TI. Nach einem "Upgrade" auf dann lächerliche 3,3-3,5GB wäre ich auch angepisst.

Speicher hin und her ist GM204 wohl schwer eine anstaendige Aufruestung zum GK110 egal ob eine 970 auch mit bis zu 7GB "schnellem" Speicher beim gleichen Preis ausgestattet waere.

Botcruscher
2015-01-28, 11:03:41
Deswegen haben es doch einige gemacht. Der günstige Preis der 970 in Verbindung mit hohem Wiederverkaufswert hat es zugelassen.

Dural
2015-01-28, 13:03:02
Ich habe es auch gemacht, die GTX780Ti liessen sich bis vor kurzem sehr gut Verkaufen und mir haben die 980 nur wenige Euro gekostet.

Bei 1GB mehr Speicher und deutlich geringeren Verbrauch war für mich der fall klar. Jetzt habe ich sogar auf dem Arbeitsplatz eine 980 drin :freak:

Edgecrusher86
2015-01-28, 14:11:28
In diesem Falle müssten aber dann doch etwas mehr als 3096 SPs auf den großen Kern passen oder?

GM206 - 227 sqmm 1024 SP
GM204 - 398 sqmm 2048 SP

Alles andere (ROPs, TMUs, SI etc) wurde auch linear mitskaliert. GM204 hat also praktisch doppelte Ressourcen bei aber nur 1,75 facher Fläche.

Wenn man nun annimmt, dass GM200 keinen zusätzlichen Computeballast dabei hat, wären ein linear hochskalierter GM200 (ausgehend vom Sklaierungsfaktor zwischen GM204 und GM206) mit 3096 SPs nur ca. 540 sqmm groß.
Die 632 sqmm hätten Reserve für andere Dinge.

Rein hochskaliert wären in 632 sqmm (bei gleichem Sklaierungsfaktor) ca 3500 SPs drin.

Aber vielleicht nutzt man den Platz für Redundanz oder man hat eventuell aus irgendwelchen Gründen die Packdichte reduziert und landet trotzdem "nur" bei 3096 SPs.

Oder aber man macht es wie in den letzten beiden Generationen: Salamitaktik 2.0 :D

Man bekommt erst beim GM210 in der "Titan 3 Black Uberprice hypotec Peter Zwegat Edition 1337" den vollen Chip. :D

Schön wäre es ja, wenn so bis 28 SMM (3584 SP) drin wären - aber in der Tat gefährlich für den Enthusiasten, der denkt, dass bei 24 SMM Schluss wäre. :D


Och vor 2 Jahren waren 6 GiB VRAM genauso overpowert wie es heute 12 GiB waren. Enthusiasten stehen auf sowas. :D
NV wird sicher mit 4K / 5K Gaming werben. Denn genau dafür fehlt häufig dochmal die Puste bei aktuellen GPUs. Selbst Pascall hätte mit 5K in den aktuellen Spielen @Ultra Details noch ordentlich zu kämpfen.

Und für die High End User gibt es dann eine teildeaktiierte Version mit 6 GiB. Geforce 1080. :D

Du meinst wohl eher 5K Surround im 3-way SLI?! Nach der Aussage von Quad Z-SLI und 4K Surround, kann ich mir den Petersen schon gut vorstellen:"The best solution for 5K Surround Gaming!" :freak:

Also der VRAM wär dann wirklich die einzige Komponente, die nicht am Limit wäre und die Balken dürften deutlich länger sein als mit 3-way TITAN Black oder 2x Z. :biggrin:

Das wäre dann wieder Marketing at it's best. ;D

Wenn wir mal ehrlich sind - 2-way GM200 braucht es schon, um einigermaßen vernünftige fps mit 1x 4K hinzubekommen.

Selbst 2x Pascal Vollausbau würden für 4K Surround ordentlich ausgelastet sein.

robbitop
2015-01-28, 14:24:06
Wenn wir mal ehrlich sind - 2-way GM200 braucht es schon, um einigermaßen vernünftige fps mit 1x 4K hinzubekommen. :)
Zumindest wenn wirklich alle absolut neusten AAA Kracher bedingungs- und kompromisslos flüssig laufen sollen ja. (alle Schieber nach rechts und nie unter 40 fps Einbrüche)

Rampage 2
2015-01-28, 19:20:30
Und für die High End User gibt es dann eine teildeaktiierte Version mit 6 GiB. Geforce 1080. :D

Wird es keinen Vollausbau (3072SP, 96ROP, 192TMU, 384Bit) mit "nur" 6GB geben? Und im Übrigen denke ich mal, dass das Ding dann "980 Ti" heissen wird;)

Die zusätzlichen 6GB kann sich Nvidia in seinen Marketing-Arsch stecken - mir würde eine 6GB-Version (aber mit Vollausbau) reichen...

R2

aufkrawall
2015-01-28, 19:25:02
"980 Ti" impliziert ja nur wenig schneller als eine 980.
Diesmal kann man beim Takt standardmäßig mehr geben als bei GK110, da sollte selbst der Salvage auf locker +30% zur 980 kommen.

AnarchX
2015-01-28, 19:28:12
Bei einer >$1000 Karte in 2015 wären 6GiB schon eher bescheiden.
Mit den mittlerweile verfügbaren 8Gbit GDDR5-Chips braucht man da nicht mal die Rückseite bestücken bzw. könnte sogar eine 24GiB Edition anbieten. Letztere dürfte als Quadro/Tesla wohl durchaus wahrscheinlich sein. Wenn man bei der "Titan" sogar 8Gbps Module verbauen würde, könnte man im Vergleich zu GK110 effektive >10Gbps 500GB/s Speicherbandbreite bewerben. :D

Eine 980 Ti 20-21 SMM mit 320-Bit 7Gbps 10GiB wäre wohl auch balanciert.

Rampage 2
2015-01-28, 19:31:00
"980 Ti" impliziert ja nur wenig schneller als eine 980.
Diesmal kann man beim Takt standardmäßig mehr geben als bei GK110, da sollte selbst der Salvage auf locker +30% zur 980 kommen.

Naja, ich dachte an einen Vollausbau mit "nur" 6GB als Top-Produkt für die HighEnd-Käufer und dann halt noch denselben Vollausbau mit 12GB als Top-Produkt für die Enthusiasten - also das Gleiche wie mit 780 Ti versus Titan Black...

Glaubt ihr wirklich, dass Nvidia nur einen beschnittenen GM200 für die Nicht-Enthusiasten anbieten wird???:eek:

R2

AnarchX
2015-01-28, 19:33:46
Glaubt ihr wirklich, dass Nvidia nur einen beschnittenen GM200 für die Nicht-Enthusiasten anbieten wird???:eek:

Kommt wohl ganz darauf an, was AMD auf den Tisch legt. Aber unwahrscheinlich wäre dies wohl nicht. Nach aktuellem Stand könnte eine GTX 980 + 25% zur Fiji (@~200W) Konkurrenz eventuell schon ausreichen.

aufkrawall
2015-01-28, 19:34:18
Wenn AMD mit HBM nicht so flexibel gestalten kann, würd ich an NVs Stelle das einfach an der Konkurrenz festmachen.

Rampage 2
2015-01-28, 19:43:36
Bei einer >$1000 Karte in 2015 wären 6GiB schon eher bescheiden.


Umso besser, dann könnte NV diesen viel günstiger anbieten:)

Insofern hoffe ich, dass es genug Leute gibt, die die "mehr als 6GB notwendig"-Psychose befeuern - damit Nvidia Billig-Käufern eine Version mit "unausreichender VRAM-Menge" viel billiger anbieten kann...

Ach Übrigens: Wenn GM200 wirklich mit 8Gbps-Speicher kommt, dann wären das effektiv ~ 600GB/sec. (576GB/sec. oder mehr) Bandbreite - wir haben jetzt schon "effektiv" ~ 350GB/sec. (GTX 980, 336GB/sec. oder mehr)...

R2

Rampage 2
2015-01-28, 19:50:10
Wenn AMD mit HBM nicht so flexibel gestalten kann, würd ich an NVs Stelle das einfach an der Konkurrenz festmachen.

NV könnte es doch so machen:

Vollausbau @ 6GB: 700-800€
Vollausbau @ 12GB: 900-1000€

Ich meine, irgendwann ist doch auch bei NV-Käufern die Schmerzgrenze erreicht??? - vielleicht sogar bei den Enthusiasten! (bei denen Geld keine Rolle spielt...)

R2

aufkrawall
2015-01-28, 19:54:00
Das weiß wohl keiner (eh, will nichts gesagt haben). Ich würde aber es aber für nicht unwahrscheinlich halten, dass, ohne HPC-Ausrichtung, GM200 keine Probleme haben wird, gegen AMDs Top Tog 2015 HBM-Karten anzukommen.
Und da täte es dann halt auch der Salvage mit 6GB für 600€.

/speku

Sunrise
2015-01-28, 19:57:11
Geschickter für NV wäre es, auf der GTC erst eine teildeaktivierte 6GB-Variante von GM200 für einen recht hohen Preis zu launchen, und dann erst nach der Fiji-Vorstellung ab Mai mit einem Vollausbau zu kontern (evtl. sogar mit 12GB VRAM) und dann die 6GB-Variante gegen Fiji-Salvage antreten zu lassen (inkl. evtl. Preissenkung).

Ist übrigens garnichtmal so unwahrscheinlich, dass NV jetzt mit dieser "effektiven Bandbreite"-Angabe kommt, nachdem man GM206 jetzt schon damit bewirbt und man gegen HBM von AMD etwas entgegensetzen muss.

Da ließen sich lustige Marketing-Slides bauen.

Zumindest sollte NV mittlerweile genug GM200 in Auftrag gegeben haben und auch den Yield so gut zu kennen, dass man sich da recht frei entscheiden kann. NV hat bis März noch genug Zeit zu sammeln, egal wie es auch kommen mag.

Rampage 2
2015-01-28, 20:14:02
Zumindest sollte NV mittlerweile genug GM200 in Auftrag gegeben haben und auch den Yield so gut zu kennen, dass man sich da recht frei entscheiden kann. NV hat bis März noch genug Zeit zu sammeln, egal wie es auch kommen mag.

Was sammeln? :confused:

Ansonsten wäre es für Nvidia-Verhältnisse schon "fair" wenn ein GM200 @Vollausbau @6GB für 650-700€ angeboten wird:freak:

Es ist schon erschreckend... wir leben mittlerweile in einer Zeit, wo eine Performance-GPU (GTX 980) 500€ aufwärts und dessen echte HighEnd-Version auf die 1000€ Marke zuläuft...

Bleibt es wenigstens den Vendors überlassen, mit welchem Speicher (7Gbps oder 8Gbps) sie ihre Karten bestücken oder müssen diese sich an irgendwelche Nvidia-Vorgaben halten?

R2

aufkrawall
2015-01-28, 20:18:12
Drei Mal darfst du raten. ;)
Weshalb gibts wohl keine 8GB 980, dann würde man ja erst später wieder aufrüsten müssen, ohne 1000€ berappt zu haben.
AMD hats wahrscheinlich auch nur bei Hawaii erlaubt, weil sie sonst einfach nichts gehabt hätten.

basix
2015-01-28, 22:06:24
Ach Übrigens: Wenn GM200 wirklich mit 8Gbps-Speicher kommt, dann wären das effektiv ~ 600GB/sec. (576GB/sec. oder mehr) Bandbreite - wir haben jetzt schon "effektiv" ~ 350GB/sec. (GTX 980, 336GB/sec. oder mehr)...

Wieso rechnen jetzt alle in dieser fiktiven "effektiven" Bandbreite? Je nach Anwendung kriegt man die nie "effektiv" zu Gesicht sondern halt wirklich nur die 384 GB/s bei "realen" 8 Gbps ;)

Aber wenn ihr so weiter macht, kommen die Grafikkarten-Hersteller noch darauf das so zu bewerben :freak:

robbitop
2015-01-29, 10:40:57
So wie ich NV kenne, gibts keinen vollen GM200 für wenig Geld. IMO wird das analog zum GK110 ablaufen. Warum auch nicht - hat sich für NV ja bewährt.

Für den Kunden nicht gut - für die Margen schon. ;)

Dural
2015-01-29, 11:03:31
Es kommt doch drauf an was AMD bringt, wie immer. Aber auf einen Preis Kampf werden sich die beiden Hersteller sicher nicht einlassen, AMD hat kein Geld und NV will Geld verdienen :wink:

fondness
2015-01-29, 11:56:53
Geschickter für NV wäre es, auf der GTC erst eine teildeaktivierte 6GB-Variante von GM200 für einen recht hohen Preis zu launchen, und dann erst nach der Fiji-Vorstellung ab Mai mit einem Vollausbau zu kontern (evtl. sogar mit 12GB VRAM) und dann die 6GB-Variante gegen Fiji-Salvage antreten zu lassen (inkl. evtl. Preissenkung).

Ist übrigens garnichtmal so unwahrscheinlich, dass NV jetzt mit dieser "effektiven Bandbreite"-Angabe kommt, nachdem man GM206 jetzt schon damit bewirbt und man gegen HBM von AMD etwas entgegensetzen muss.

Da ließen sich lustige Marketing-Slides bauen.

Zumindest sollte NV mittlerweile genug GM200 in Auftrag gegeben haben und auch den Yield so gut zu kennen, dass man sich da recht frei entscheiden kann. NV hat bis März noch genug Zeit zu sammeln, egal wie es auch kommen mag.

Im März kommt wohl kein Maximalausbau, NV wird nachlegen wenn AMD überzeugt, ansonsten wird man weiter die Schrottchips teuer an den Mann bringen wollen und vielleicht irgendwann nach einem Jahr die volle Version bringen. Es sei denn sie wissen schon mehr über Fiji und wollen da gleich auftrumpfen, denn es kommt wohl auch nicht so gut wenn man zwei Monaten später deutlich mit dem Preis runter muss oder nachlegen muss.

Ailuros
2015-01-29, 12:21:05
Warum sind sich alle so sicher dass NV jeglichen GM200 im Maerz gleich fuer den desktop benutzen wird? Es ist KEIN Zufall dass das "980Ti" Geruecht herumgesteirt nur sind die diversen rumor mongerers wohl zu bloed zu verstehen dass wenn so etwas existiert nur eine weiter aufgemoebelte GM204 SKU sein kann. Und ja diese Moeglichkeit besteht tatsaechlich.

Dawn on Titan
2015-01-29, 12:34:09
TDP hoch,schnellerer Speicher dran und gut ist.

Skysnake
2015-01-29, 13:12:21
Warum sind sich alle so sicher dass NV jeglichen GM200 im Maerz gleich fuer den desktop benutzen wird? Es ist KEIN Zufall dass das "980Ti" Geruecht herumgesteirt nur sind die diversen rumor mongerers wohl zu bloed zu verstehen dass wenn so etwas existiert nur eine weiter aufgemoebelte GM204 SKU sein kann. Und ja diese Moeglichkeit besteht tatsaechlich.
Wo soll GM200 sonst was reisen, außer im Gameing-Bereich, wenn die DP-Leistung wirklich so grottig ist, wie von dir kolportiert?

Wenn könnten Sie das Ding wohl noch als Quadro verkaufen, aber sonst seh ich da nicht so viel Sinn.:confused:

Rampage 2
2015-01-29, 14:15:07
So wie ich NV kenne, gibts keinen vollen GM200 für wenig Geld. IMO wird das analog zum GK110 ablaufen.

Seit wann sind 650+ € "wenig Geld":|

Und wenn es wirklich analog zum GK100 ist, dann wird die Ti-Variante nicht mehr kosten als die 780 Ti (welcher ja auch ein Vollausbau ist!)...

R2

Thunder99
2015-01-29, 14:19:33
Ich spekuliere mal (sofern es nicht schon gesagt wurde) auf eine GTX980Ti als salvage Part des GM200 und die Titan X als full Ausbau

Die Ti für ~700€ und die Titan für 1000€. Dann hätten wir einen guten Mix im Markt und Preisgefüge

robbitop
2015-01-29, 14:30:23
Seit wann sind 650+ € "wenig Geld":|

Und wenn es wirklich analog zum GK100 ist, dann wird die Ti-Variante nicht mehr kosten als die 780 Ti (welcher ja auch ein Vollausbau ist!)...

R2
Seitdem Spitzenmodelle 1000 €*kosten.

(ich sehe es aber genau wie du - alles >600 €*ist einfach überteuert)

Edgecrusher86
2015-01-29, 14:37:30
Also allerspätestens im Mai sollte GM200 als GeForce kommen.
Witcher 3 Release (http://buy.thewitcher.com/) ist der 19.05. (ein Dienstag ;)) und die R9 380X dürfte auch bis Ende Mai kommen - einige Tage vor der Computex (http://www.computextaipei.com.tw/) (02. - 06.06.).

Aus Enthusiasten-Sicht natürlich ziemlich langweilig, wenn Jensen auf der GTC nur eine Quadro M6000 hoch halten würde. :(

Palpatin
2015-01-29, 14:46:05
Was ist an den Gerüchten dran das im März die 8GB Version der 980 kommt?

Agent117
2015-01-29, 15:40:00
TDP hoch,schnellerer Speicher dran und gut ist.

Schnellerer Speicher noch am ehesten.
Bei den frei einstellbaren Powertargets von Maxwell macht es aber keinen Sinn zwei Maxwell SKUs mit gleich vielen Shadern und nur unterschiedlichen Taktraten herauszubringen.
Eine GTX 980Ti würde nur mit 8GB und selektierten Chips Sinn machen. Höhere Taktraten, bis auf den Speicher, sind quatsch.

Ailuros
2015-01-29, 18:32:02
Eine 980Ti ist so oder so Quatsch, egal was sie genau anstellen.

Rampage 2
2015-01-29, 22:35:21
Eine 980Ti ist so oder so Quatsch, egal was sie genau anstellen.

Naja, sollte es keinen Vollausbau für Nicht-Enthusiasten geben - wie soll es sonst heißen?

Rente
2015-01-29, 23:57:42
Geforce GTX 10 / X / 1080, die Möglichkeiten sind doch nahezu unendlich vorhanden...

Ailuros
2015-01-30, 06:05:32
Naja, sollte es keinen Vollausbau für Nicht-Enthusiasten geben - wie soll es sonst heißen?

Eine moegliche 980Ti wird einen 204 core tragen :rolleyes:

robbitop
2015-01-30, 10:33:01
Eine 980 Ti wäre total langweilig. Mehr Takt und evtl. 8 GiB.

Grestorn
2015-01-30, 17:04:26
Eine 980 Ti wäre total langweilig. Mehr Takt und evtl. 8 GiB.

Ich fände das sauspannend, wenn der Preis stimmt (i.e. nicht mehr als €600). Davon würde ich wieder zwei kaufen und meine 980er dran geben. Von einer Titan II kaufe ich definitiv nicht zwei Stück, und eine wäre ein Rückschritt, also auch nicht prickelnd.

fondness
2015-01-30, 17:09:39
Der perfekte NV-Kunde, der jede Salami mit nimmt.

Grestorn
2015-01-30, 17:59:14
Der perfekte NV-Kunde, der jede Salami mit nimmt.

Na, das perfekte Gegenstück zum perfekten AMD Kunden, der Du bist :)

Dural
2015-01-30, 18:06:46
Denke nicht das es eine 980 mit 8GB geben wird, eine 8GB Version der 970 finde ich da wahrscheinlicher.

Unicous
2015-01-30, 18:09:41
http://www.troll.me/images/futurama-fry/not-sure-if-serious-or-just-trolling.jpg

Nakai
2015-01-30, 18:15:26
Denke nicht das es eine 980 mit 8GB geben wird, eine 8GB Version der 970 finde ich da wahrscheinlicher.

Also es sollte definitiv eine 7GB und eine 14GB-Version geben. Ich meine, diese 3,5GB pff...das ist nix Halbes und nix Ganzes. Bei einer 7GB-Version hat man schon 1GB Abstand und bei 14GB sogar 2GB. ;D

robbitop
2015-01-31, 10:03:34
Ich fände das sauspannend, wenn der Preis stimmt (i.e. nicht mehr als €600). Davon würde ich wieder zwei kaufen und meine 980er dran geben. Von einer Titan II kaufe ich definitiv nicht zwei Stück, und eine wäre ein Rückschritt, also auch nicht prickelnd.

Ich denke es wird mittelfristig einen GTX780 Pendant von GM200 geben. GM204 ist nur ein Performance Chip - ich will High End (aber ebenfalls nicht für 1000 eur).
Eine 980ti wäre wenn man 2 OC Titan s hat, kein sinnvolles Upgrade.

AnarchX
2015-01-31, 10:12:17
Da musst du halt zwei "GTX 990" (2x1GHz Base, 16GB, 300W) verbauen. Für $1499 pro Karte wäre das ein Schnäppchen im Vergleich zum Titan Z Launch. ;D

GM200 war durchaus bereit für einen 2014er Launch, aber man will wohl AMDs Angebot besser kennen und sich danach ausrichten.

robbitop
2015-01-31, 10:14:39
Was erzählst denn da? :D

fondness
2015-01-31, 10:31:28
GM200 war durchaus bereit für einen 2014er Launch, aber man will wohl AMDs Angebot besser kennen und sich danach ausrichten.

Wäre GM200 bereit dann wäre er auch in irgend einer Form verfügbar. Finales Tapeout war laut Ailuros erst Ende September, niemals hätte man da noch 2014 launchen können.

Im übrigen sitzt niemand auf fertigen Chips herum die man gerade jetzt teuer verkaufen könnte. Keine Ahnung warum immer wieder solche seltsamen Mutmaßungen angestellt werden.

horn 12
2015-01-31, 10:47:17
Denke auch dass ab TapeOut ca. 6 Monate ins Land ziehen müssen
Fiji sollte Ende November/ Anfang Dezember sein Tapeout hinter sich gebracht haben.

Dural
2015-01-31, 11:13:03
der gm200 dürfte schon bereit sein, die karte die aufgetaucht ist hatte ja nicht mal eine ES gpu zu dem das produktions datum schon irgend was in der woche 4x war.

nv benötigt derzeit sicher keine bessere gpu, wie so auch wenn man 400mm / 256bit für 600.- verkaufen kann.

Mancko
2015-01-31, 11:15:03
Na, das perfekte Gegenstück zum perfekten AMD Kunden, der Du bist :)

Er will halt unbedingt, dass AMD wegen dem Lärm um die GTX970 profitiert egal ob es Sinn macht oder nicht. Ich stehe auf dem Standpunkt dass ich sage, dass es ein Armutszeugnis für eine Firma ist, wenn sie solche Fehler beim Gegner benötigt. AMD muss selber liefern und zwar gute Produkte und schwarze Zahlen ohne fremde Geldgeber. Wenn nicht haben sie in dem Business halt auch nichts mehr verloren und sollten besser Platz für andere machen.

Mancko
2015-01-31, 11:19:03
der gm200 dürfte schon bereit sein, die karte die aufgetaucht ist hatte ja nicht mal eine ES gpu zu dem das produktions datum schon irgend was in der woche 4x war.

nv benötigt derzeit sicher keine bessere gpu, wie so auch wenn man 400mm / 256bit für 600.- verkaufen kann.

Und insbesondere wenn der Gegner >400mm für unter 300 verkaufen muss. M.e. wäre aktuell der einzige Grund den GM200 möglichst schnell zu bringen das Thema mit der GTX970. Man könnte ja GM200 launchen, die GTX980 preislich runter setzen und die GTX970 ebenfalls. Die bisherigen GTX970 Käufer bekommen dann ein Refunding oder einen Spielegutschein oder wenn es ganz optimal läuft einen Umstieg auf die 980 angeboten. Kostet Nvidia natürlich etwas Marge aber in Summe bleiben die weiter tief schwarz bauen die Customer Base aus und drängen AMD noch weiter in die roten Zahlen.

Dural
2015-01-31, 11:23:39
was mich am meisten verwundert, ist dass es bis heute keine dual gm204 karte gibt, der chip wäre für das ja perfekt. nv scheint wirklich ab zu warten was amd macht.

fondness
2015-01-31, 11:24:02
der gm200 dürfte schon bereit sein, die karte die aufgetaucht ist hatte ja nicht mal eine ES gpu zu dem das produktions datum schon irgend was in der woche 4x war.

nv benötigt derzeit sicher keine bessere gpu, wie so auch wenn man 400mm / 256bit für 600.- verkaufen kann.

GM200 könnte man in Form einer TITAN problemlos wieder bei $1000 platzieren, die würde in einer ganz anderen Preisklasse als GM204 spielen. Oder eben als Quadro für mehrere tausend Dollar.

dargo
2015-01-31, 11:30:36
Er will halt unbedingt, dass AMD wegen dem Lärm um die GTX970 profitiert egal ob es Sinn macht oder nicht. Ich stehe auf dem Standpunkt dass ich sage, dass es ein Armutszeugnis für eine Firma ist, wenn sie solche Fehler beim Gegner benötigt. AMD muss selber liefern und zwar gute Produkte und schwarze Zahlen ohne fremde Geldgeber. Wenn nicht haben sie in dem Business halt auch nichts mehr verloren und sollten besser Platz für andere machen.
Hier steht so viel Blödsinn drin, dass es schon weh tut.

Die GTX970 war der einzige Auslöser der dazu geführt hatte, dass AMD Hawaii weiter im Preis drücken musste. Als die Geschichte mit den 3,5GB noch nicht bekannt war war für sehr viele Spieler die GTX970 quasi ein perfektes Paket. 4GB Speicher, kaum langsamer als die deutlich teurere GTX980 und halt im Preisbereich von ~300-350€ der die breite Masse anspricht. Vielleicht nicht ganz so breit wie der 200-250€ Preisbereich. Dennoch um Welten breiter als zb. die GTX980. Wären die richtigen Spezifikationen der GTX970 von Anfang an klar würden sicherlich viele zu Hawaii greifen oder auf den Nachfolger warten. Der Ansturm auf die GTX970 wäre garantiert nicht so groß gewesen.

Edit:
Übrigens... kann sich noch jemand an die Preise von GM204 erinnern welche NV uns zuerst andrehen wollte? Erst nach dem Shitstorm haben die den nach unten korrigiert. Die Karten sollten ursprünglich noch teurer verkauft werden.


nv benötigt derzeit sicher keine bessere gpu, wie so auch wenn man 400mm / 256bit für 600.- verkaufen kann.
Das kann NV sich auch nur leisten weil sie die GTX970 haben. Damit wird der große Umsatz generiert, nicht mit der GTX980.

horn 12
2015-01-31, 11:34:42
Und alle jene die Nun Retournieren machen das EINZIG Richtige
Oder einen Preisnachlass von 50 bis 75 Euro, damit könnte man auch Leben
Aber rein gar nix passieren und auf dem Produkt sitzenbleiben, dies geht gar net!

hasebaer
2015-01-31, 11:59:51
Der Ansturm auf die GTX970 wäre garantiert nicht so groß gewesen.

Nö, dem Ansturm hätte das keinen Abbruch getan, wäre klar gewesen was mit der 970 ist und auch an der Preissenkung seitens AMD hätte es nichts geändert, weil AMD nur 15% mehr VRAM hätte. Dagegen stehen Perf./W, Nvidias Fetaures und Nvidia Image/Vertrauens Bonus.

AMD profitiert allerdings jetzt von dem verlorenen Vertrauen in Nvidia.
Man muss sich jetzt bei jedem Nvidia Salvage fragen, ob Nvidia schon wieder lügt.

Und das bei Nvidia solche PR Idioten das sagen haben, dass man ein Produkt wie die GTX 970 auf diese Weise bringt, dass lässt tiefblicken.
PR-Übertreibungen nimmt man mit einem Lächeln, PR-Lügen dagegen schrecken ab.

Blediator16
2015-01-31, 18:14:50
Er will halt unbedingt, dass AMD wegen dem Lärm um die GTX970 profitiert egal ob es Sinn macht oder nicht. Ich stehe auf dem Standpunkt dass ich sage, dass es ein Armutszeugnis für eine Firma ist, wenn sie solche Fehler beim Gegner benötigt. AMD muss selber liefern und zwar gute Produkte und schwarze Zahlen ohne fremde Geldgeber. Wenn nicht haben sie in dem Business halt auch nichts mehr verloren und sollten besser Platz für andere machen.


Du wärst sowieso einer der ersten, wenn AMD solch eine Aktion abgeliefert hätte, der sich das Maul zerissen hätte. Deine Beiträge zu dem Vram Thema lesen sich so, alsob du Nvidia als Firma verteidigs und AMD krampfhaft einbringst, auch wenn sie absolut nichts damit zutun haben.

Mancko
2015-02-01, 15:53:18
Du wärst sowieso einer der ersten, wenn AMD solch eine Aktion abgeliefert hätte, der sich das Maul zerissen hätte. Deine Beiträge zu dem Vram Thema lesen sich so, alsob du Nvidia als Firma verteidigs und AMD krampfhaft einbringst, auch wenn sie absolut nichts damit zutun haben.

Zu dem VRAM Thema ist meine Position ganz klar. Nvidia sollte sich eine Art Kompensation überlegen und gut. Mir ist aber klar, dass sowas nicht von heute auf morgen geht.

Unabhängig davon erwarte ich aber von der Firma AMD

1) dass sie selber abliefert und zwar nicht nur gute Produkte sondern auch schwarze Zahlen
2) sie in Zukunft ohne fremde Geldgeber auskommt und sich somit ein vernünftiges Preisniveau etabliert. Auch der AMD Kunde muss für die Kosten der Produkte aufkomen vollumfänglich aufkommen und zwar so, dass am Ende auch ein Profit für die Firma bleibt
3) kann AMD das nicht, sollen sie bitte einfach Platz für jemanden anderes machen der es besser kann. Für chronische Verlierer habe ich nun einfach mal nichts übrig. Man kann kann immer mal daneben liegen keine Frage. Aber am Ende des Tages muss eine Firma über einen längeren Zeitraum gesehen im Schnitt Geld abwerfen, sonst hat sie einfach im Markt nichts mehr verloren und das sage ich selber als Unternehmer der eine Firma hat und für den die gleichen Spielregeln gelten.

-/\-CruNcher-/\-
2015-02-01, 16:03:02
Hier steht so viel Blödsinn drin, dass es schon weh tut.

Die GTX970 war der einzige Auslöser der dazu geführt hatte, dass AMD Hawaii weiter im Preis drücken musste. Als die Geschichte mit den 3,5GB noch nicht bekannt war war für sehr viele Spieler die GTX970 quasi ein perfektes Paket. 4GB Speicher, kaum langsamer als die deutlich teurere GTX980 und halt im Preisbereich von ~300-350€ der die breite Masse anspricht. Vielleicht nicht ganz so breit wie der 200-250€ Preisbereich. Dennoch um Welten breiter als zb. die GTX980. Wären die richtigen Spezifikationen der GTX970 von Anfang an klar würden sicherlich viele zu Hawaii greifen oder auf den Nachfolger warten. Der Ansturm auf die GTX970 wäre garantiert nicht so groß gewesen.

Edit:
Übrigens... kann sich noch jemand an die Preise von GM204 erinnern welche NV uns zuerst andrehen wollte? Erst nach dem Shitstorm haben die den nach unten korrigiert. Die Karten sollten ursprünglich noch teurer verkauft werden.


Das kann NV sich auch nur leisten weil sie die GTX970 haben. Damit wird der große Umsatz generiert, nicht mit der GTX980.

Ja sie haben ganz genau ausgelotet wo die Schmerzgrenze liegt (Preisschwellenanalyse) und sich dem angepasst da Maxwell in Absatz wichtig ist für ihre Zukünftigen platformen und Verbindungen es muss in Masse supportetet werden, dazu muss man vor allem Anreize bei den Entwicklern schaffen das geht nur über Masse (Dominanz) vor allem nachdem AMD die Konvergenz auf ihrer Seite hat.
Deswegen Entwickelt Nvidia auch wie verrückt eigene Rendering Solutions um nachteile auszugleichen und in Vorteile auf ihrer Hardware zu verwandeln an denen die Entwickler partizipieren können mit minimalen eigenem Aufwand und Kosten ;)

Unicous
2015-02-01, 16:06:40
@Mancko

So wie es ausschaut wird es keine Kompensation geben und Nvidia verhindert indirekt, dass Partnerkarten zurückgegeben werden können.

Die Händler machen das lediglich aus Kulanz.

Ich schätze Nvidia wird das aussitzen.


Aber... das ist ja eigentlich nicht Thema hier, oder.:wink:

Und unabhängig davon interessiert mich in nicht, was du von AMD im Maxwell Thread forderst.


B2T, pls. (gibt genug Threads zu dem Thema)

ShinyMcShine
2015-02-06, 20:26:11
N'Abend,

Ich habe HIER (http://techreport.com/news/27763/new-mobile-geforces-could-be-out-in-march) gelesen, dass NV wohl keine Mobile-GPU auf GM206 Basis herausbringt? Das ganze Leistungsspektrum soll vom GM107 und darüber dann GM204 abgedeckt werden? Ist das denn wahrscheinlich?

Ich persönlich warte eigentlich sehnsüchtig auf einen GM206 im Mobile-Bereich... :frown:

VG
Shiny

ndrs
2015-02-06, 20:38:52
Du musst da was falsch verstanden haben.
the 960M and 950M will each be 20% faster than their predecessors, the GeForce GTX 860M and 850M.

Those current-gen parts came out last March. They're powered by the Maxwell-based GM107 silicon, although some variants of the GTX 860M feature the older, Kepler-based GK104, instead.
Die Aussage mit GM107 bezieht sich auf die "current gen" also GTX8**. TPU vermutet dass die kommenden Karten auf GM206 oder einem möglichen GM207 basieren.

ShinyMcShine
2015-02-06, 20:52:57
Ich beziehe mich mehr auf diesen Teil:

Nvidia could use the GM206 silicon that debuted in the new GeForce GTX 960 last month, but that chip has a substantially larger die than the GM107, at 227 mm² vs. 148 mm². Unless the company also has a GM207 in the pipeline, a rebrand and speed boost seems more likely.

Nakai
2015-02-09, 13:15:20
GK106 wurde damals auch schon sehr stiefmütterlich behandelt, seitens NV. GM206 ist aber eine nette GPU, relativ ausgeglichen. Höchstwahrscheinlich ist der Abstand zwischen GM206 und GM107 zu gering. Immerhin sind es 5 SMMs vs 8 SMMs.

ShinyMcShine
2015-02-18, 12:44:59
Wo bleiben eigentlich die Desktop Ableger im low end Bereich? Sind überhaupt Desktop Grafikkarten mit GM[1|2]08 oder GM[1|2]07 in der Pipeline?

VG
Shiny

Loeschzwerg
2015-02-18, 17:55:37
Wo bleiben eigentlich die Desktop Ableger im low end Bereich? Sind überhaupt Desktop Grafikkarten mit GM[1|2]08 oder GM[1|2]07 in der Pipeline?

VG
Shiny

Werden die denn benötigt? GM107 und GM206 reichen doch völlig aus, darunter gibt es APUs oder GK208.

GK208 kann man irgendwann durch GM108 ersetzen, wenn man denn will.

AnarchX
2015-02-18, 19:58:03
Bei Zauba gibt es eine B-Revision von GK208, insofern soll dieser wohl noch etwas länger bleiben. Eventuell in 20nm / mit neuem VP?

Loeschzwerg
2015-02-18, 20:13:42
Gute Frage was hier die B Revision bringt. Update des VP könnte da schon passen, denn mit HDMI 2.0 + HDCP und UHD Encoding würde der Chip alles nötige bieten. Ob 20nm überhaupt lohnt?

Rampage 2
2015-02-21, 17:15:55
Wann soll eigentlich die 960 Ti erscheinen?

Sofern es für die 960 wirklich eine zweite Ti-Variante mit 1536SPs geben wird, wären diese Specs möglich/sinnvoll?

- 3 GPCs
- 48 ROPs
- 96 TMUs
- 1536 SPs
- 192Bit SI @ 8Gbps-Speicher (3GB oder 6GB möglich)

Taktraten:

Chiptakt: 1.1 - 1.2GHz Baseclock (Boost 1.3 - 1.4GHz)
Speichertakt: 4GHz

Rohleistung:

- 57.6 Gpixel/sec. (67.2 Gpixel Boost)
- 115.2 Gtexel/sec. (134.4 Gtexel Boost)
- 3.7 Tflops/sec. SP, 115.2 Gflops/sec. DP (4.3 Tflops / 134.4 Gflops/sec. Boost)
- 192GB/sec. Speicherbandbreite

Leistung:

GTX 960 + 50% ( ~ 5-10% langsamer als GTX 970)

Ich denke, so eine Karte wäre die perfekte Alternative für die 970 - sofern die 6GB-Variante für ~ 300€ in den Handel kommt...

R2

von Richthofen
2015-02-21, 18:12:39
Soweit ich weiss, wurde doch bereits von offizieller Seite bestätigt, dass die 960 den vollen GM206 trägt.
Und warum sollte man ein solches VRAM-Dickschiff der 970er performancetechnisch auf die Hacken stellen? Das machte die 960 zur Lachnummer und die 970 ziemlich obsolet. Da kommen dann - aufgrund der Speicheraussattung - einige Leute auf die Idee zur 960 Ti anstatt zur 980 zu greifen.

Rampage 2
2015-02-21, 18:43:52
Da kommen dann - aufgrund der Speicheraussattung - einige Leute auf die Idee zur 960 Ti anstatt zur 980 zu greifen.

Eben deswegen - eine 3,5GB-Karte will niemand haben und die GTX 980 wäre deutlich schneller als die oben beschriebene 960 Ti. Ich kann mir durchaus vorstellen, dass die 970 auslaufen wird - es sei denn, das 3,5GB-Problem hat sich noch nicht weit herumgesprochen...

Kein potentieller 970-Käufer wird sich nach Bekanntwerden dieses "Bugs" jetzt noch diese Karte holen...

R2

Ravenhearth
2015-02-21, 21:42:46
Imho wird es noch genug Leute geben, die sich die 970 holen. Entweder weil sie es nicht wissen, oder es ist ihnen egal.

Undertaker
2015-02-21, 21:56:04
Oder weil es nichts ausmacht? Bezogen auf die Rechenleistung steht die GTX 970 mit 3,5 GB nicht schlechter da als die GTX 980 mit 4 GB. Oder man vergleiche mal mit der GTX 780 Ti.

Gerade wenn man zu der Zielgruppe gehört, die gerne 60 fps+ hat, kommt man nur selten in Settings, bei denen der VRAM knapp wird.

aufkrawall
2015-02-21, 22:03:33
Oder weil es nichts ausmacht? Bezogen auf die Rechenleistung steht die GTX 970 mit 3,5 GB nicht schlechter da als die GTX 980 mit 4 GB. Oder man vergleiche mal mit der GTX 780 Ti.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10531179&postcount=3891

Undertaker
2015-02-21, 22:19:13
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10531179&postcount=3891

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10531235&postcount=3892

Ich wüsste gerne, in welchen Settings und bei welchen fps Probleme auftreten. Wie gesagt sehe ich 3,5 GB für die Leistungsklasse als OK an, wenn ich größer 60 fps haben will. Genauso ist es für mich OK, das ich bei einer 200 Euro billigeren Karte im Vergleich zur GTX 980 u.U. wegen dem RAM eine AA Stufe runter gehen muss. Ist für identische fps eh notwendig.

hasebaer
2015-02-21, 22:21:38
Die 15% weniger VRAM sind bei den Preisen von ~320€ für die 970 ggü. der 980 kein Problem.
Aber genau das ist es ja was so extrem nervt an der Sache.

Die 970 hätte man von anfang an mit ihren realen Specs bewerben können und die Karte wäre immernoch ein Verkaufsschlager gewesen.
Einfach weil der Verbrauch, die Grundleistung und das OC Potential, die 512MB weniger RAM mehr als wet machen.
Auch ggü. AMDs Angeboten, steht die 970 immernoch hervorrangend da.
Aufpassen muss man eigentlich nur in Sachen Fieperei.

Aber anstatt ehrlich zusein, verhält sich Nvidia wie jeder hinterfotzige Hanswurst Politiker, der einem erst lächelnt ins Gesicht lügt und dann versucht die Sache auszusitzen.
Das ist einfach keine Art mit der man Kunden an sich bindet und mir scheint, Nvidia ist sich der langfristigen Folgen nicht bewusst.

aufkrawall
2015-02-21, 22:37:14
Ich bin mir nach wie vor ziemlich sicher, dass die 970 bei VRAM-Mangel übler stocken kann als eine vergleichbare Karte ohne so eine Verkrüppelung, also etwa eine 780 Ti.
Deshalb gehört sie in die Tonne, oder besser noch: Petersen und Huang um die Ohren gehauen. Hoffentlich passiert genau das vor Gericht.

Thunder99
2015-02-21, 22:52:04
Ich bin mir nach wie vor ziemlich sicher, dass die 970 bei VRAM-Mangel übler stocken kann als eine vergleichbare Karte ohne so eine Verkrüppelung, also etwa eine 780 Ti.
Deshalb gehört sie in die Tonne, oder besser noch: Petersen und Huang um die Ohren gehauen. Hoffentlich passiert genau das vor Gericht.
Genau, das ist halt das Problem. Sie hat zwar nur 3,5GB die belegt werden (Treiber versucht mehr zu verhindern), aber wenn sie dann doch 4GB belegt was ja möglich ist dann gibt es massive Nachteile als wenn es eine native 3,5GB Karte wäre ;)

Ex3cut3r
2015-02-21, 23:11:49
Naja, es ist nicht "schwach" in dem Sinne, gucken wir mal so auf die Tabelle, als wären wir jemand der KA hat, ein Hinweiß bei der GTX 970 wäre dann doch ganz nett. Wie z.B Vorsicht ab 3,5 GB Verbrauch stockt/ruckelt es.... Wenn man es genau nimmt, habt ihr natürlich recht, eigentlich sollte "sie" aus der Tabelle verschwinden.

von Richthofen
2015-02-21, 23:20:32
Die 15% weniger VRAM sind bei den Preisen von ~320€ für die 970 ggü. der 980 kein Problem.
Aber genau das ist es ja was so extrem nervt an der Sache.
....
Auch ggü. AMDs Angeboten, steht die 970 immernoch hervorrangend da.
Aufpassen muss man eigentlich nur in Sachen Fieperei.


Seh ich auch so. Man muss nur sehen ob so Dinge wie massives Stocken wie von einigen beschrieben oder im CB Video 'The Talos Principle' in Zukunft nicht öfters auftauchen. Das ungute Gefühl bleibt wohl. Das kauft man dann auch mit.


Die 970 hätte man von anfang an mit ihren realen Specs bewerben können und die Karte wäre immernoch ein Verkaufsschlager gewesen.
In der Größenordnung? - wenn man die '4' stehen lässt, ja. Vllt. hätten die Reviewer dann gar nicht so genau auf die Speichergeschichte geachtet. Bei GTX 660 und 660 Ti wurde das ja bestenfalls nebenbei erwähnt.


Einfach weil der Verbrauch, die Grundleistung und das OC Potential, die 512MB weniger RAM mehr als wet machen.
Weiss was du meinst aber wenn man will kann man das auch falsch verstehen. Ich machs mal:
Man kann fehlenden Hubraum nicht durch Tieferlegen, Flammenlack und nen schwulen "Fidschi"-Spoiler ersetzen.

Ailuros
2015-02-22, 09:03:48
Ich hab die angebliche "960Ti" nie irgendwo auf irgend einer roadmap gesehen. Es kann durchaus sein dass NV in der Zukunft einen noch weiter kastrierten GM204 veroeffentlich fuer mainstream, aber dafuer muesste es auch eine Unzahl von chips geben die nicht mit mehr als 10 clusters operativ sind. Ich wuerde eher denken dass 28nm yields und GM20x binning yields zu gut fuer solch eine Moeglichkeit sind.


Aber anstatt ehrlich zusein, verhält sich Nvidia wie jeder hinterfotzige Hanswurst Politiker, der einem erst lächelnt ins Gesicht lügt und dann versucht die Sache auszusitzen.
Das ist einfach keine Art mit der man Kunden an sich bindet und mir scheint, Nvidia ist sich der langfristigen Folgen nicht bewusst.

Vor geraumer Zeit hiess es dass wenn X geht wird PR/marketing bei NV besser; es wird zunehmend schlechter und die Fehler vom technischen marketing generell werden zunehmend groesser und peinlicher. Sonst Folgen im Konsumermarkt? Kann ich mir schwer vorstellen, dafuer sind ihre Produkte zu gut. Mir persoenlich geht oefters Intel's Geschaeft-taktik geraum auf den Wecker; es haelt mich aber trotzdem nicht davon ab ihre CPUs zu kaufen.

hasebaer
2015-02-22, 10:43:01
@Ailuros

"Mit Nvidia hab ich weniger Stress."

Ist meiner Erfahrung nach der Hauptgrund warum Nvidia als Marke so stark ist und auch gekauft wird, selbst wenn NV nicht den längsten Balken hat.
Geht dieses Vertrauen in Nvidia verloren, wird Nvidia auch Marktanteile verlieren.
Und für mich persönlich ist klar, dass ich erstmal nichts mehr zum Release kaufen werde, sondern lieber 3-6 Monate abwarte.

prinz_valium
2015-02-22, 14:50:26
Ich hab die angebliche "960Ti" nie irgendwo auf irgend einer roadmap gesehen. Es kann durchaus sein dass NV in der Zukunft einen noch weiter kastrierten GM204 veroeffentlich fuer mainstream, aber dafuer muesste es auch eine Unzahl von chips geben die nicht mit mehr als 10 clusters operativ sind. Ich wuerde eher denken dass 28nm yields und GM20x binning yields zu gut fuer solch eine Moeglichkeit sind.



Vor geraumer Zeit hiess es dass wenn X geht wird PR/marketing bei NV besser; es wird zunehmend schlechter und die Fehler vom technischen marketing generell werden zunehmend groesser und peinlicher. Sonst Folgen im Konsumermarkt? Kann ich mir schwer vorstellen, dafuer sind ihre Produkte zu gut. Mir persoenlich geht oefters Intel's Geschaeft-taktik geraum auf den Wecker; es haelt mich aber trotzdem nicht davon ab ihre CPUs zu kaufen.

künstlich beschneiden, wie es damals amd gemacht hat, wäre noch eine möglichkeit
zwischen 960 und 970 klafft schon eine gewaltige lücke.
(diese verleitet die leute allerdings auch dazu einfach das nächst größere modell zu nehmen. also bin ich nicht sicher, ob es so wirtschaftlich wäre das ganze)

oder nvidia wartet einfach nur auf den großen gm chip und die nächste gen wird dann vollausbau gm210 als "gtx1080", die nicht voll funktionsfähigen chips werden eine "1070"
und mit dem alten gm204 kann man dann eine tolle 1060ti bauen

oder soll der große gm210 eine neue titan werden?

mein oben genanntes gedankenspiel hängt aber wiederum davon ab, wie schnell man auf den 20nm prozess wechseln kann und will.
da samsung und glofo schon bei 14nm für die nächste mobile generation sind, sollten genüged kapazitäten frei sein und die yields für einem mainstream chip zumindest gut genug. in dem fall ergibt eine weitere "gen" in der kurzen zeit eher keinen sinn

Ailuros
2015-02-22, 16:27:30
@Ailuros

"Mit Nvidia hab ich weniger Stress."

Ist meiner Erfahrung nach der Hauptgrund warum Nvidia als Marke so stark ist und auch gekauft wird, selbst wenn NV nicht den längsten Balken hat.
Geht dieses Vertrauen in Nvidia verloren, wird Nvidia auch Marktanteile verlieren.
Und für mich persönlich ist klar, dass ich erstmal nichts mehr zum Release kaufen werde, sondern lieber 3-6 Monate abwarte.

ROFL ich war NIE ein early adopter egal ob es sich nur um ein <100 Kroeten Produkt oder ein Auto handelt. Ich weiss zwar nicht wie es andere sehen, aber ich verlier mein Vertrauen nicht weil NV's technisches marketing zu bloed war die Implikationen des GM204 salvage parts richtig zu erklaeren.

Ich hab nicht vor langer Zeit einen spezifischen externen HDD 3 Mal zur Mutterfirma geschickt, alle mit dem exakt gleichen Problem und alle 3 sind in etwa nach gleicher Zeit krepiert. In solch einem Fall will ich tatsaechlich nichts mehr von der Marke hoeren.

künstlich beschneiden, wie es damals amd gemacht hat, wäre noch eine möglichkeit
zwischen 960 und 970 klafft schon eine gewaltige lücke.
(diese verleitet die leute allerdings auch dazu einfach das nächst größere modell zu nehmen. also bin ich nicht sicher, ob es so wirtschaftlich wäre das ganze)

Nur wenn AMD in dieser Leistungskategorie hat was sich gut verkaufen wird und NV hat keine direkte Antwort dagegen. Tonga 2GB SKUs scheinen auf jeden Fall nicht in die Richtung zu deuten.

oder nvidia wartet einfach nur auf den großen gm chip und die nächste gen wird dann vollausbau gm210 als "gtx1080", die nicht voll funktionsfähigen chips werden eine "1070"
und mit dem alten gm204 kann man dann eine tolle 1060ti bauen

oder soll der große gm210 eine neue titan werden?

Der core heisst GM200 und hat zu wenig FP64 Einheiten um einen wahren Titan Nachfolger zu machen, obwohl man es nicht ausschliessen kann. Mit genug Speicher kann man wohl alles bei $1000 verkaufen :P

mein oben genanntes gedankenspiel hängt aber wiederum davon ab, wie schnell man auf den 20nm prozess wechseln kann und will.
da samsung und glofo schon bei 14nm für die nächste mobile generation sind, sollten genüged kapazitäten frei sein und die yields für einem mainstream chip zumindest gut genug. in dem fall ergibt eine weitere "gen" in der kurzen zeit eher keinen sinn

Es wird KEINE NV GPU unter jeglichem 20nm Prozess geben. Nur Tegra X1 wird auf 20SoC/TSMC hergestellt und die X1 mit Denver CPU cores unter Samsung 14nm. Beim letzten Mal war Pascal immer noch fuer 16 FinFET TSMC geplant; bis jetzt noch keine Indizie dass sich auch diesen auf 14nm Samsung umgeschifft haben obwohl es alles andere als eine schlechte Idee waere.

prinz_valium
2015-02-22, 17:59:53
Es wird KEINE NV GPU unter jeglichem 20nm Prozess geben. Nur Tegra X1 wird auf 20SoC/TSMC hergestellt und die X1 mit Denver CPU cores unter Samsung 14nm. Beim letzten Mal war Pascal immer noch fuer 16 FinFET TSMC geplant; bis jetzt noch keine Indizie dass sich auch diesen auf 14nm Samsung umgeschifft haben obwohl es alles andere als eine schlechte Idee waere.

wut das war mir neu
also wird 20nm jetzt komplett übersprungen

von 20nm zu 16nm finfet ist yield technisch wohl kein soo großes problem (außer das binning macht probleme, aber das ist ja immer eher prozessunabhängig), da zumindest der aufwand für die wekzeugumrüstung nicht so groß ist. 16nm ist ja im grunde auch nur 20nm mit finfet.


wann kann man 16nm denn von tmsc erwarten?
wenn der prozess nicht wirklich komplett reibungslos und super schon zu anfang läuft, sollte man zeitlich defintiv etwas weiter nach hinten gedrückt werden, als bei einem 20nm refresh

und wir bekommen dann auch gleich einen neuen prozess + architektur?
das klingt doch fast schon zu gut um wahr zu sein und mit glück sehen wir dann sogar etwas 8800 gt ähnliches. oder fange ich jetzt an zu träumen?
man wird natürlich erst mal wieder einen mainstream chip als top dog verkaufen, aber wenn leistung und verbrauch passt und der sprung zum vörgänger mal wieder fast an die 100% heranreicht, wäre ich bereit das spiel endlich mal mitzumachen.



das macht eine 760ti und titan mit gm200 imho deutlich wahrscheinlicher.
aber wie du gesagt hast natürlich nur unter der prämisse, dass amd einen sehr gut dastehendes konkurrenzprodukt in dem segment hat und pascal unter 16nm nicht schon kurz vor der tür steht.

die 390x wird ja deftinv kommen. dafür sind die gerüchte einfach schon viel zu dicht. und dann müssen wir nur noch das umlabeln und einordner der alten karten in die entsprechenden leistungssegmente von amd abwarten.


dann bin ich ja mal gespannt.
eine 760ti mit den rampage genannten specs (etwas langsamer auch) wäre nämlich eine sehr geile karte, zu einem 250 euro preis

Hübie
2015-02-22, 20:16:09
Q3/4 2016 wird es erst wieder echte compute-Geschichten geben. Da drück ich jetzt meinen Stempel mit Unterschrift drauf. Schätzungsweise wieder September/Oktober. Bis dahin wird Maxwell mit seiner SP Performance oder Big-Kepler reichen müssen. Mir wäre jetzt auch nichts großes bekannt wo Maxwell angedacht ist.
@Ail: Ich glaube kaum dass man die gleichen Konditionen bei Samsung erbetteln erhalten kann wie bei TSMC. Bin mir was GPUs angeht sicher dass da nix kommt.
Wenn doch dürft ihr alle Ätschie-Bätschie sagen ;D

Rampage 2
2015-02-22, 20:20:21
eine 760ti mit den rampage genannten specs (etwas langsamer auch) wäre nämlich eine sehr geile karte, zu einem 250 euro preis

Du meinst wohl 960 Ti;). Und wie gesagt, angeblich soll es die 960Ti in Varianten geben: 1280 & 1536SPs. Wenn Letzteres wirklich existiert, dann wird sie bestimmt nicht für 250€ angeboten (zumindest nach meinen Specs) sondern irgendwo zwischen 250€ und 300€ (realistisch eher 280-300€).

@Ailuros: warum sollte Nvidia keinen vernünftigen Chip mit 3GB/192Bit oder 4GB/256Bit herausbringen (mit einem SMX weniger und stattdessen höheren Chiptakt, ggf. mit etwas niedrigerem Speichertakt (sofern 256Bit) ) anstatt ein 3,5GB-Abfallprodukt zu verkaufen, dass nach Überschreitung dieser Grenze nicht mehr die volle Speicherbanbreite nutzen kann?

Die 3GB (192Bit) bzw. 4GB (256Bit) lassen sich dann ggf. auf 6GB bzw. 8GB erweitern.

Überhaupt frage ich mich, warum Nvidia die 970 nicht von Anfang an mit niedrigerem Speichertakt (3GHz GDDR5 = 192GB/sec. Bandbreite) ausgestattet hat, anstatt die Leistungsfähigkeit mit einer anderen Methode (3,5GB) zu kastrieren:rolleyes:

Ailuros
2015-02-22, 20:26:47
Von 28nm zu 16FF ist der Sprung zwar sehenswert, aber nicht unbedingt wie 40 zu 28nm. Sonst hat Pascal vergleichbare ALUs zu Maxwell nach Geruechten. Eher ein Maxweĺl auf steroids plus eine Unmenge an FP64 Einheiten plus viel Bandbreite.

Huebie,
Ich sehe Pascal auch auf 16FF einfach weil sie den Luxus nicht haben es weiter zu verzoegern. Auf jeden Fall liegen 16FF shrinks fuer die kleineren Maxwels an. Fette Bandbreiten bleiben zuerst im high end.

Du meinst wohl 960 Ti;). Und wie gesagt, angeblich soll es die 960Ti in Varianten geben: 1280 & 1536SPs. Wenn Letzteres wirklich existiert, dann wird sie bestimmt nicht für 250€ angeboten (zumindest nach meinen Specs) sondern irgendwo zwischen 250€ und 300€ (realistisch eher 280-300€).

"Angeblich" von welcher Bumsfallera "Quelle" genau? Bis jetzt ist NICHTS zwischen der 960 und 970 geplant zumindest bei dem NVIDIA das ich kenne. Manchmal wenn NV genug chips herumliegen hat kommt es zu Faellen wie dem hier: http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-560ti/specifications ....ist aber nicht die Regel.

@Ailuros: warum sollte Nvidia keinen vernünftigen Chip mit 3GB/192Bit oder 4GB/256Bit herausbringen (mit einem SMX weniger und stattdessen höheren Chiptakt, ggf. mit etwas niedrigerem Speichertakt (sofern 256Bit) ) anstatt ein 3,5GB-Abfallprodukt zu verkaufen, dass nach Überschreitung dieser Grenze nicht mehr die volle Speicherbanbreite nutzen kann?

Weil es finanziell NICHT Sinn macht einen chip um ca. 40% zu kastrieren ausser die binning yields sind ziemlich schlecht. Alle Maxwells sind mit tape out Silizium bis jetzt auf den Markt gekommen (A1) und es gibt keine Indizie von schlechten binning yields welche auch verdammt ueberraschen wuerden auf einem so reifen Prozess wie 28HP TSMC.


Überhaupt frage ich mich, warum Nvidia die 970 nicht von Anfang an mit niedrigerem Speichertakt (3GHz GDDR5 = 192GB/sec. Bandbreite) ausgestattet hat, anstatt die Leistungsfähigkeit mit einer anderen Methode (3,5GB) zu kastrieren:rolleyes:

Weil Maxwell mit Absicht so entwickelt wurde vielleicht? Nur weil Deiner Vorstellung ein X config besser klingt heisst es noch lange nicht dass die NV engineers nicht wissen wo es langgeht.