PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Shield 2


Avalox
2014-04-22, 19:33:16
Die Specs des nV Shield 2 sind bei Antutu gelistet.

Demnach wird das Gerät über einen 2,5 GHz K1 verfügen und 4 GB RAM mitbringen.

http://www.droidgamers.com/index.php/game-news/hardware-a-devices/7421-nvidia-shield-2-specs-show-up-in-new-antutu-benchmark-report

Screemer
2014-04-22, 19:43:25
die wollen den flop auch noch fortführen? respekt!

Nightspider
2014-04-22, 19:46:37
1440*810 ist aber eine sehr komische Auflösung. Ob die finale Version ein 1080p Display hat?

Würde mich wundern wenn nicht.

Ailuros
2014-04-22, 19:47:53
die wollen den flop auch noch fortführen? respekt!
Geh einfach auf die GDC im nächsten Jahr da bekommst eins vielleicht umsonst.

Undertaker
2014-04-22, 20:04:56
1440*810 ist aber eine sehr komische Auflösung. Ob die finale Version ein 1080p Display hat?

Würde mich wundern wenn nicht.

Ist nun mal kein Handy. ;) Während Auflösungssteigerungen für die Schriftdarstellung noch vorteilhaft sein können, verpulvert man die Leistung bei Spielen wohl lieber an anderer Stelle – so abwegig erscheint mir das also nicht.

Ailuros
2014-04-22, 20:07:36
Ist nun mal kein Handy. ;) Während Auflösungssteigerungen für die Schriftdarstellung noch vorteilhaft sein können, verpulvert man die Leistung bei Spielen wohl lieber an anderer Stelle – so abwegig erscheint mir das also nicht.

Oder wenn man nicht genug SoC Bandbreite zur Verfuegung hat, investiert man lieber in etwas mehr CPU limitierendere Regionen :tongue:

Avalox
2014-04-22, 20:21:19
2,5 GHz K1, da wird ein CPU Limit nicht doll auffallen.

deekey777
2014-04-22, 20:27:48
1440*810 ist aber eine sehr komische Auflösung. Ob die finale Version ein 1080p Display hat?

Würde mich wundern wenn nicht.

Warum gleich 1920x1080? Das kostet Leistung und Leistung kostet Energie. Es gibt auch keinen vernünftigen Grund für sehr hohe DPI-Zahl.

Geh einfach auf die GDC im nächsten Jahr da bekommst eins vielleicht umsonst.
Sei nicht so gemein, es werden nur die alten NS2 mit A15 kostenlos verteilt, nicht die Denver-Modelle.

Undertaker
2014-04-22, 20:56:15
Oder wenn man nicht genug SoC Bandbreite zur Verfuegung hat, investiert man lieber in etwas mehr CPU limitierendere Regionen :tongue:

Ernsthaft? K1 hat rund doppelt so viel Bandbreite pro Rechenleistung wie ein GK208. Für ein Kepler-basiertes Design ist das Verhältnis doch recht angemessen. Das ist, sollte diese Angabe stimmen, einfach das gleiche Spielchen wie bei PS3/X360(/XOne): Lieber eine niedrigere Auflösung mit zusätzlichen Grafik-Spielerein als andersherum. Und wenn es auch noch Kosten spart, umso besser.

deekey777
2014-04-22, 21:04:51
Wobei der Einwand im Raum steht, dass die Konsole auch an einen Fernseher angeschlossen werden kann (was auch gewollt ist), so dass eine native 1080er Ausgabe nicht verkehrt ist.

AffenJack
2014-04-22, 21:20:30
Das stimmt, aber man wird bestimmt versuchen damit zu werben, dass man eine vergleichbare Grafik wie die alten Konsolen erreicht. Das hat man ja schon öfters in Sachen Gflops gemacht. Aber bei 1080p hätte man das nicht so geschafft. Aber nichtsdestotrotz hätte ich auf jeden Fall auch 1080p erwartet.

Nightspider
2014-04-22, 21:27:33
Wieso sollte das Teil zu wenig Leistung für 1080p haben?

Die ganzen Android Games laufen selbst auf alten SoCs flüssig.

Und die Firmen bauen so gut wie nie extra Effekte für Nvidia-SoCs ein und das wird auch so bleiben. Wieso sollte Shield 2 jetzt mehr Leistung pro Pixel brauchen als übliche Smartphones?

Wenn dann können die Games auch in 810p gerendert werden und auf 1080p hochskaliert ausgegeben werden. Ein 1080er Display würde eben Menüs, Schrift, Symbole, HUD-Overlay usw. alles viel schärfer machen.
Wenn Nividia dort ein 810p Display einbaut können sie nicht behaupten HighEnd in ihrem Gerät zu haben.

PS: Auf dem Teil würde GTA4 bestimmt gut laufen.

Und wie schon geschrieben haben 90% aller Monitore und Fernseher da draußen die 1080p Auflösung. Würde Shield 2 auch 1080p haben wäre das eine 1:1 Übertragung und wäre sicherlich gut für die Kompatibilität.

Edit:

Vielleicht übersehe ich jetzt etwas bei der Zielgruppe oder habe vergessen was Nvidia will, dass das Shield 2 werden soll. Aber spontan fällt mir keine Anwendung ein wo T5 zu lahm für 1080p sein sollte.

Wenn ich mich nicht irre stämmen sogar die alten SoCs locker Games in 1440p. Habe jetzt aber keine Ahnung ob alle Android Games auf 1440p Tablets auch in nativer Auflösung gerendert werden.

Edit 2:

Der Hammer wäre es ja, wenn Nvidia ein 3D-Display wie im Nintendo-3DS einbaut und man mit Shield 2 ALLE PC Games in 3D spielen kann. :D
Dann würde ich mir so ein Teil vllt auch holen.^^

Ailuros
2014-04-22, 21:38:50
Ernsthaft?

Soll ich vielleicht eingestehen dass es GPU limitierter sein wird in 1440*810 als in 1920*1080?

K1 hat rund doppelt so viel Bandbreite pro Rechenleistung wie ein GK108. Für ein Kepler-basiertes Design ist das Verhältnis doch recht angemessen. Das ist, sollte diese Angabe stimmen, einfach das gleiche Spielchen wie bei PS3/X360(/XOne): Lieber eine niedrigere Auflösung mit zusätzlichen Grafik-Spielerein als andersherum. Und wenn es auch noch Kosten spart, umso besser.

Ja und? GK108 reicht den vorigen Konsolen auch kein Wasser und nichtmal annaehernd. Egal wie man es schoen reden will liegen einige Groessen Unterschied an Bandbreite im Vergleich zu den vorigen Konsolen.

Dummerweise hab ich die Konsolen nichtmal erwaehnt; aber wenn es schon sein muss manche wuerden Shield2 auch toll finden selbst wenn es nur in 640*480 rendern wuerde.

deekey777
2014-04-22, 21:40:09
Nvidias Ziel ist gerade nicht, dass irgendwelche Android-Spiele auf der Shield laufen, sondern speziell darauf angepasste Spiele mit mehr Effekten, besseren Texturen, PhysX-Spielereien usw. Auch gab es 2013 kaum Grafikkracher, die aktuelle S800er ins Schwitzen bringen können. Dagegen konnten die wenigen Grafikkracher die Highend-Geräte von Ende 2012 mit ihren Full-HD-Displays schön ins Schwitzen bringen, weil die native Auflösung zu viel für ihre Grafikchips war. Also gab es eine Zweiklassengesellschaft: 1080p, aber mit sichtbar schlechterer Grafik oder niedrigere Auflösung mit deutlich besserer Grafik.

Und Portal soll für die Shield kommen.

Ailuros
2014-04-22, 21:41:03
Vielleicht übersehe ich jetzt etwas bei der Zielgruppe oder habe vergessen was Nvidia will, dass das Shield 2 werden soll. Aber spontan fällt mir keine Anwendung ein wo T5 zu lahm für 1080p sein sollte.

Wenn ich mich nicht irre stämmen sogar die alten SoCs locker Games in 1440p. Habe jetzt aber keine Ahnung ob alle Android Games auf 1440p Tablets auch in nativer Auflösung gerendert werden.



Ein kleinerer display ist billiger und spart Strom; ja trotz aktiver Kuehlung :P

deekey777
2014-04-22, 21:46:46
Ein kleinerer display ist billiger und spart Strom; ja trotz aktiver Kuehlung :P
Wir wissen ja gerade nicht, ob die Shield 2 den fetten Akku des Vorgängers erben wird. Wer weiß, vielleicht gibt es ein Redesign a la Gameboy Advance, um dann auf Gameboy Advance SP zu wechseln.

Es ist alles sehr spekulativ, basiert auf einem Eintrag bei Antutu. Vielleicht ist es nur ein Prototyp, vielleicht kommt die Endversion mit FullHD.

Ein kleinerer display ist billiger und spart Strom; ja trotz aktiver Kuehlung :P
Ist es wirklich billiger, wenn man der einzige Abnehmer ist?


Edith sagt:
Ich bin ehrlich gesagt schwer enttäuscht, dass Nvidia ihre Buddies wie Epic oder id Software nicht dazu gebracht hat, Unreal 2 oder Doom 3 für Shield neuaufzulegen, was Rockstar mit ihren Titeln freiwillig macht. Aber wenn Portal (1) kommt, kommt damit ein Konsolentitel (Orangebox) schlechthin (gab's auch für den PC, aber Nvidias Marketing trollt gegen PS360).

Hugo78
2014-04-22, 22:14:54
Vielleicht übersehe ich jetzt etwas bei der Zielgruppe oder habe vergessen was Nvidia will, dass das Shield 2 werden soll. Aber spontan fällt mir keine Anwendung ein wo T5 zu lahm für 1080p sein sollte.

Schau doch bitte erstmal wo man mit 1440*810 steht.
Also mal angenommen, dass das Shield 2 ein 7 Zoll bekommt und damit die Größe die sich viele beim ersten schon gewünscht haben.
Dann landet man immernoch knapp unter den "magischen" 240ppi, der Wert bei dem ein Spieler in üblicher Entfernung (~50cm) keinen Pixel mehr sieht.

Als Beispiel das aktuelle LG G2 Mini, hat 234 ppi.
- http://www.computerbase.de/2014-04/lg-g2-mini-vergleich-test/

http://pics.computerbase.de/5/6/8/4/4/17.jpg

Ailuros
2014-04-22, 22:16:09
Wir wissen ja gerade nicht, ob die Shield 2 den fetten Akku des Vorgängers erben wird. Wer weiß, vielleicht gibt es ein Redesign a la Gameboy Advance, um dann auf Gameboy Advance SP zu wechseln.

Na lass Dich überraschen :P

Es ist alles sehr spekulativ, basiert auf einem Eintrag bei Antutu. Vielleicht ist es nur ein Prototyp, vielleicht kommt die Endversion mit FullHD.

Ein Prototyp für ein Prototyp?


Ist es wirklich billiger, wenn man der einzige Abnehmer ist?

Die Frage beantwortet sich von selber wenn man Gewinn davon macht. Wie lautet die Antwort im Gegenfall?


Edith sagt:
Ich bin ehrlich gesagt schwer enttäuscht, dass Nvidia ihre Buddies wie Epic oder id Software nicht dazu gebracht hat, Unreal 2 oder Doom 3 für Shield neuaufzulegen, was Rockstar mit ihren Titeln freiwillig macht. Aber wenn Portal (1) kommt, kommt damit ein Konsolentitel (Orangebox) schlechthin (gab's auch für den PC, aber Nvidias Marketing trollt gegen PS360).

UE wasauchimmer OK aber Doom3?

deekey777
2014-04-22, 22:33:33
Ja, Doom 3. Ich mag Doom 3. Es gibt ja bereits eine einfache Portierung auf Android (auch für Q4), aber ich bezweifle, dass das ganze so totoptimiert ist wie die PC-Version.

Vielleicht wird es Zeit für einen Spinnerthread "Dieser alte PC-Kracher müsste auf einem aktuellen SoC laufen.

Undertaker
2014-04-22, 22:37:47
Ja und? GK108 reicht den vorigen Konsolen auch kein Wasser und nichtmal annaehernd.

Ja und? Wo steht denn eine 2005er 7800 GTX ggü. einer GT 740M auf Kepler-Basis mit weniger als der halben Bandbreite? Da willst du ernsthaft einen Leistungsvergleich über die Bandbreite beginnen? Noch dazu war von Konsolen gar nicht die Rede, es ging eben nur um die Dimension des Speicherinterfaces. 192 Kepler-ALUs plus 64 Bit DDR3 sind eine passende Kombination, dafür reicht ein kurzes Studium von GK208/DDR3, GK107/DDR3 und GK107/GDDR5.

Avalox
2014-04-22, 22:47:31
Schau doch bitte erstmal wo man mit 1440*810 steht.


1440x900 Pixel. Die Softbuttons musst du schon mitrechnen, die sind auch Teil des Displays.

Ailuros
2014-04-22, 22:57:43
Ja und? Wo steht denn eine 2005er 7800 GTX ggü. einer GT 740M auf Kepler-Basis mit weniger als der halben Bandbreite? Da willst du ernsthaft einen Leistungsvergleich über die Bandbreite beginnen? Noch dazu war von Konsolen gar nicht die Rede, es ging eben nur um die Dimension des Speicherinterfaces. 192 Kepler-ALUs plus 64 Bit DDR3 sind eine passende Kombination, dafür reicht ein kurzes Studium von GK108/DDR3, GK107/DDR3 und GK107/GDDR5.

Es lag technisch nichts falsches an meiner originalen Aussage. Mehr Bandbreite ist weder momentan unerreichbar, noch zu teuer noch hatte der SoC nicht davon profitiert. Ja für fortschrittliche features bei höheren Auflösungen braucht man auch mehr Bandbreite; bei geringerer Auflösung weniger.

Sonst steck mir eine GK107 in einen SoC damit es die vorhandene Bandbreite mit ALLEN Einheiten des SoCs teilt und ich mach Dir so viele Studien wie Du willst.

Undertaker
2014-04-22, 23:19:36
Die Intention deiner Aussage, dass die Bandbreite der Rechenleistung von 192 ALUs nicht angemessen wäre, halte ich wie zuvor begründet für technisch falsch, ja. Ebenso, dass Aufpreis und Mehrleistung (Mehrverbrauch -> geringere Taktrate für gleiche Leistungsaufnahme nötig! ) ein breiteres Interface gerechtfertigt hätten, denn genau deswegen wird man sich dagegen entschieden haben. Egal, wenn du das anders siehst...

Entscheidend ist bezogen auf Shield 2 letztlich nur, welcher Ansatz das meiste aus den verfügbaren Ressourcen herausholt. Und da erscheint es imo nachvollziehbar, das extreme DPI-Zahlen kein effektiver Ressourceneinsatz wären.

Demirug
2014-04-22, 23:21:39
1440x900 Pixel. Die Softbuttons musst du schon mitrechnen, die sind auch Teil des Displays.

Für Fullscreen kann man die ja jetzt verschwinden lassen.

Avalox
2014-04-22, 23:26:36
Antutus Angaben sind abzüglich der Softbuttuns.

Ailuros
2014-04-23, 06:45:36
Die Intention deiner Aussage, dass die Bandbreite der Rechenleistung von 192 ALUs nicht angemessen wäre, halte ich wie zuvor begründet für technisch falsch, ja.

Aber beweissen kann es so weit auch keiner ja? Denn mit Bumsvergleichen zwischen standalone GPUs und ganzen SoCs kommt man offensichtlich nicht besonders weiter, egal ob Du denkst dass Du es technisch "begruendet" hast. Nur wenn die gesamte SoC Bandbreite zu 100% nur fuer die GPU zur Verfuegung steht reicht die Bandbreite in der Mehrzahl der Faelle (seltene Aussnahmen werden meistens von allen uebersehen) fuer die meisten GFLOPs aus aber auch nicht 365GFLOPs.

Ebenso, dass Aufpreis und Mehrleistung (Mehrverbrauch -> geringere Taktrate für gleiche Leistungsaufnahme nötig! ) ein breiteres Interface gerechtfertigt hätten, denn genau deswegen wird man sich dagegen entschieden haben. Egal, wenn du das anders siehst...

Entscheidend ist bezogen auf Shield 2 letztlich nur, welcher Ansatz das meiste aus den verfügbaren Ressourcen herausholt. Und da erscheint es imo nachvollziehbar, das extreme DPI-Zahlen kein effektiver Ressourceneinsatz wären.

Die meisten der verfuegbaren resources fuer eine "Konsole" die hoffentlich diesmal mehr erreichen wird als nur als benchmark-Platzhalter zu dienen wie der Vorgaenger oder?

Undertaker
2014-04-23, 08:34:53
Aber beweissen kann es so weit auch keiner ja? Denn mit Bumsvergleichen zwischen standalone GPUs und ganzen SoCs kommt man offensichtlich nicht besonders weiter, egal ob Du denkst dass Du es technisch "begruendet" hast.

Beweisen können weder du noch ich ihre Position; du konntest bislang allerdings noch nicht einmal begründen, warum eine angeblich kosteneffiziente, technisch mögliche und leistungsmäßig sinnvolle SI-Verbreiterung nicht auch umgesetzt wurde - schon daran scheitert deine These letztlich.

Ailuros
2014-04-23, 08:46:09
Beweisen können weder du noch ich ihre Position; du konntest bislang allerdings noch nicht einmal begründen, warum eine angeblich kosteneffiziente, technisch mögliche und leistungsmäßig sinnvolle SI-Verbreiterung nicht auch umgesetzt wurde - schon daran scheitert deine These letztlich.

Was genau soll ich Dir begruenden? Es wird in absehbarer Zeit Messungen und Vergleiche mit anderen SoCs geben.

Sonst ist es das erste Mal dass das SI zu knapp ist auf einem Tegra SoC oder ist es vielleicht so dass immer und alles perfekt auf diesen ist?

Undertaker
2014-04-23, 09:04:28
Was genau soll ich Dir begruenden?

Du sollst begründen, warum eine deiner Meinung nach technisch überlegene und preiswerte Lösung nicht auch umgesetzt wurde. Mir scheint, dass du allein den Mehrverbrauch eines zweiten 64 Bit (bzw. 2x 32 Bit) Controllers gewaltig unterschätzt. Das kehrt mögliche Leistungsgewinne in der Effizienzbilanz schnell ins Negative. Ob andere SoCs mit anderer GPU-IP stärker im Bandbreitenlimit hängen und sich eine 128 Bit Lösung dort im konkreten Fall lohnt, wäre ein ziemlicher Äpfel/Birnen Vergleich, der sicher nicht ernst gemeint war.

AnarchX
2014-04-23, 09:04:56
GK20A hat aber wohl nur 128KiB L2-Cache (http://www.nvidia.com/content/PDF/tegra_white_papers/Tegra-K1-whitepaper-v1.0.pdf). GK208 hat 512KiB, je SMX also doppelt soviel.

128-Bit als Option wären wohl in der Tat nicht verkehrt gewesen, erst recht für Shield 2 oder stationäre Einsätze.

Ailuros
2014-04-23, 09:20:24
Du sollst begründen, warum eine deiner Meinung nach technisch überlegene und preiswerte Lösung nicht auch umgesetzt wurde. Mir scheint, dass du allein den Mehrverbrauch eines zweiten 64 Bit (bzw. 2x 32 Bit) Controllers gewaltig unterschätzt. Das kehrt mögliche Leistungsgewinne in der Effizienzbilanz schnell ins Negative. Ob andere SoCs mit anderer GPU-IP stärker im Bandbreitenlimit hängen und sich eine 128 Bit Lösung dort im konkreten Fall lohnt, wäre ein ziemlicher Äpfel/Birnen Vergleich, der sicher nicht ernst gemeint war.

Das dumme ist eben dass Shield einzigartig ist und auch wohl das einzige kommerziell erhaeltliche Geraet sein wird mit den hoechsten CPU & GPU Frequenzen. Ob es ein Verkaufserfolg werden wird oder nicht wirst Du wohl selber einschaetzen koennen (wenn es sich nicht um einen fake handelt am Ende); unter der letzten Logik ja spart man wo es nur so geht um den Verlust erstmal zu minimalisieren.

K1 wurde eben NICHT als (Klein-)Konsolen-wasauchimmer SoC entwickelt.

Sonst bei tablet und smartphone Integrierung des SoCs und auch teilweise stark angepassten Frequenzen reicht die Bandbreite natuerlich dann voll aus.

Undertaker
2014-04-23, 09:22:57
GK20A hat aber wohl nur 128KiB L2-Cache (http://www.nvidia.com/content/PDF/tegra_white_papers/Tegra-K1-whitepaper-v1.0.pdf). GK208 hat 512KiB, je SMX also doppelt soviel.

128-Bit als Option wären wohl in der Tat nicht verkehrt gewesen, erst recht für Shield 2 oder stationäre Einsätze.

GK208 hat allerdings auch doppelt so viel pro SMX wie GK107 (auf dessen Niveau liegt also auch K1, sowohl bei Cache/SMX als auch Bandbreite/GFLOPS), bei den größeren Keplers bis GK104 ist das Verhältnis noch schlechter. Für eine doppelt so breite DDR3L-Anbindung kann man unter Last allein für den Controller locker 500 mW zusätzlich einkalkulieren – wenn man dementsprechend die Taktraten absenken muss, bleibt dann noch ein nennenswerter Leistungsgewinn, der den zusätzlichen Flächenbedarf rechtfertigt, über? Ich denke, dass Nvidia bei einem gravierenden Bandbreitenproblem wohl zunächst über die Caches gegangen wäre.


Sonst bei tablet und smartphone Integrierung des SoCs und auch teilweise stark angepassten Frequenzen reicht die Bandbreite natuerlich dann voll aus.

Den Spielraum hätte man auch bei der Speicheranbindung: In Tablets rechne ich nicht mit den maximalen DRAM-Frequenzen (2133er?), für Shield würde sich das aber durchaus anbieten und das Rechenleistung/Bandbreite-Verhältnis auf einem Niveau halten.

Gebrechlichkeit
2014-04-23, 09:27:31
Geh einfach auf die GDC im nächsten Jahr da bekommst eins vielleicht umsonst.

Ne, dann schon lieber zu einer Ubisoft (http://www.neogaf.com/forum/showthread.php?t=802329)Vorstellung.... ;)

Ailuros
2014-04-23, 09:40:20
GK208 hat allerdings auch doppelt so viel pro SMX wie GK107 (auf dessen Niveau liegt also auch K1, sowohl bei Cache/SMX als auch Bandbreite/GFLOPS), bei den größeren Keplers bis GK104 ist das Verhältnis noch schlechter. Für eine doppelt so breite DDR3L-Anbindung kann man unter Last allein für den Controller locker 500 mW zusätzlich einkalkulieren – wenn man dementsprechend die Taktraten absenken muss, bleibt dann noch ein nennenswerter Leistungsgewinn, der den zusätzlichen Flächenbedarf rechtfertigt, über? Ich denke, dass Nvidia bei einem gravierenden Bandbreitenproblem wohl zunächst über die Caches gegangen wäre.

Wenn das power budget so knapp ist dann sollte es klar sein dass 0.5W nochmal soooo wichtig waeren wenn man schon allein mit der GPU auf peak Frequenzen so viel verdonnert.

Haette K1 einen klaren Erfolg im Shield oder aehnlichen Maerkten gesichert dann haette man sich auch drum gekuemmert.

Den Spielraum hätte man auch bei der Speicheranbindung: In Tablets rechne ich nicht mit den maximalen DRAM-Frequenzen (2133er?), für Shield würde sich das aber durchaus anbieten und das Rechenleistung/Bandbreite-Verhältnis auf einem Niveau halten.

Nur ist dann dummerweise die Speicher-Frequenz um ein ziemlich kleines Prozentual reduziert im Vergleich zur GPU Frequenz bzw. peak GFLOPs je nach Fall.

Undertaker
2014-04-23, 09:48:34
Nur ist dann dummerweise die Speicher-Frequenz um ein ziemlich kleines Prozentual reduziert im Vergleich zur GPU Frequenz bzw. peak GFLOPs je nach Fall.

LPDDR3-2133 und 950 MHz zu LPDDR3-1600 und 700 MHz ergeben ziemlich exakt das gleiche Verhältnis. Oder auch 850 zu 650 MHz bei defensiverer Rechnung.

Ailuros
2014-04-23, 09:58:14
LPDDR3-2133 und 950 MHz zu LPDDR3-1600 und 700 MHz ergeben ziemlich exakt das gleiche Verhältnis. Oder auch 850 zu 650 MHz bei defensiverer Rechnung.

Klingt nach einer ziemlich guten Formel die alles zu decken scheint :freak:

Undertaker
2014-04-23, 10:02:24
Lass doch einmal die Plattitüden beiseite. :) Bist du der Ansicht, das zwischen Shield und K1-Tablets größere Frequenzdifferenzen als max. 250 MHz liegen? Bist du der Ansicht, dass Tablets schnelleren Speicher als DDR3L-/LPDDR3-1600 integrieren werden? Wenn du keine beider Fragen mit ja beantworten kannst, hätte Shield mit der schnellstmöglichen Speicheroption – falls denn auch der Hersteller diese als sinnvoll/notwendig erachtet – das gleiche Verhältnis von Rechenleistung zu Bandbreite.

Ailuros
2014-04-23, 10:29:25
Ich beantworte diesbezueglich noch gar nichts was noch nicht oeffentlich ist. Wenn NV ueberhaupt halbwegs Grips hat, dann wird es ein Shield2 ueberhaupt nicht geben.

Sonst wenn die CPU um N% runtergeht, wird wohl schwer der Speicher um fast 2*N% runtergehen.

AnarchX
2014-04-23, 10:37:33
Was soll den verkehrt am Shield 2 sein? Es gibt doch so viele Android Devices, da kommt es auf eins mehr auch nicht mehr an. Außerdem brauch man doch Give Aways für die kommenden GTCs. :D

Ailuros
2014-04-23, 10:43:47
Was soll den verkehrt am Shield 2 sein? Es gibt doch so viele Android Devices, da kommt es auf eins mehr auch nicht mehr an. Außerdem brauch man doch Give Aways für die kommenden GTCs. :D

Tja eine Art Interessierte fuer die naechste GDC anzulozen waere es schon; und dann wird man sich wundern warum zahllose sich herumboxen fuer jeden NV/GDC event.

Nightspider
2014-04-23, 13:38:37
Shield frisst bestimmt auch genug Entwicklungs und Marketingkosten.

Das bezahlen dann wieder alles die Grafikkarten-Käufer. :P

Wenn nicht zufällig etliche PS Vita Enwickler anfangen Games auch für Shield 2 zu portieren, sehe ich absolut keine Chance für Nvidia, das Shield (2) irgendeine Zukunft hat.

No Games = No Sells

Ailuros
2014-04-23, 17:23:47
Ich hab die Affaere PSVita schon seit einer Ewigkeit nicht mehr verfolgt, aber ich bezweifle ernsthaft dass es sich selbst nach all der Zeit zum Verkaufsschlager entpuppt hat.

=Floi=
2014-12-04, 19:28:48
bei den speicherkartenpreisen ist der flop auch kein wunder.