PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - grün geärgert - c't Prozessorgeflüster


Avalox
2012-04-10, 21:41:40
Im aktuellen c't Prozessorgeflüster (9/12) steht ein kleiner Seitenhieb auf nVidia zu lesen.

Scheinbar wollte nVidia auch kein Testmuster ihrer GTX680 Heise bereit stellen..
Ein Umstand welcher süffisant in des Prozessorgeflüster aufgenommen wurde, um dann mit der gegenwärtigen Tegra-Situation gleich noch eins auf den Deckel zu geben.

Das Prozessorgeflüster ist frei verfügbar im Inet zu lesen


Grün geärgert
Apropos PowerVR: Deren Macher Imagination Technologies dominieren laut Jon Peddie Research den SoC-Markt. So verkauft keine andere Firma mehr GPU-Designs: Mit einem Marktanteil von 50 Prozent überflügelt die Firma aus dem beschaulichen Städtchen Kings Langley nahe London locker die Konkurrenz von Qualcomm (33 Prozent), Vivante (4,8 Prozent) und – Nvidia (3,2 Prozent). Jen-Hsun Huangs „Superchip“ Tegra steckt derzeit in „Superphones“ und Tablets, doch mit dem Marktanteil will’s offenbar noch nicht so richtig „super“ klappen. Überhaupt scheinen in Santa Clara bei einigen Themen die Nerven ziemlich blank zu liegen: So versuchte uns Nvidia komplett vom Informationsfluss zur neuen Kepler-Grafikkarte GeForce GTX 680 (Test in c't 9/2012 auf S. 70) abzuschneiden und schickte uns auch kein Testexemplar, weil ihnen eine vorab veröffentlichte Nachricht schlicht nicht in den Kram passte.
Gerüchten zufolge soll in den kommenden Tegra-4-Kombiprozessoren eine Grafikeinheit mit Kepler-Architektur stecken. Die führte Nvidia erst Ende März mit dem GK104-Chip (siehe Bild) auf Grafikkarten ein. Noch viel mehr geärgert haben muss es Nvidias charismatischen Chef, dass Apple öffentlich die geringere Grafikleistung des Tegra 3 im Vergleich zum aktuellen iPad-PowerVR-Kern abtat. Das war Anfang März. Und nun – welch Zufall – kommen Gerüchte über den Tegra 4 auf


http://www.heise.de/ct/artikel/Prozessorgefluester-1500182.html

Die gelbe Eule
2012-04-10, 22:02:21
Soll man wirklich was auf die c't geben?
Apple hat damals komische Aussagen getroffen bezüglich des PowerVR, hat aber nie Benchmarks gezeigt, NVidia hatte diese öffentlich gefordert.
Das Tegra in Superhones steckt, heist doch eigentlich ganz klar das man nicht für den Massenmarkt produziert. Auch hier ist der große Marktanteil auf iPhone/iPad zurückzuführen.

Wenn Heise vorab Infos trotz NDA zum 680GTX Launch rausgibt, was soll man da bitte erwarten?
Vielleicht bringt NVidia ne Folie raus was die c't alles an Scheiß verzapft hat, mal sehen was lustiger wird ;)

AnarchX
2012-04-10, 22:06:23
Dass man Tegra 3 als Vergleichsobjekt für die A5X GPU verwendet hat, spricht aber wohl auch dafür welchen Stellenwert Apple Nvidia als Konkurrent zuordnet. ;)

Neosix
2012-04-10, 22:06:43
Es gab im Netz schon einzelne GPU Benchmarks wo die Leistung sogar knapp 5x über der Tegra 3 Lösung lag. In sofern musste Apple auch nichts beweisen...

Botcruscher
2012-04-10, 22:16:31
Und das Fazit? Nix Testmuster für CT und Tegra zu schwachbrüstig.

Ronny145
2012-04-10, 22:16:46
Ht4u hat auch kein Testexemplar bekommen, das ist viel schlimmer. Ht4u GPU Tests sind um Welten besser als die von heise.

Avalox
2012-04-10, 22:19:57
Und das Fazit? Nix Testmuster für CT und Tegra zu schwachbrüstig.

Test auf Seite 72, nVidia Tegra 4 rüstet sich für Windows 8 mit DirectX? Weis der Pinsel. Soll nVidia mal was interessantes bringen..

Ronny145
2012-04-10, 22:24:50
Aus dem Prozessorgeflüster:

Zudem hat Apple sich wohl kurzfristig für die Chips mit HD-4000- statt der HD-2500-Grafik – also mit 16 statt nur 6 Shader-Einheiten – entschieden. Weil Intel derzeit aber überall für Ultra-Books mit Ivy-Bridge-Prozessoren trommelt, wäre es fatal, deren Hersteller und Kunden zu Gunsten von Apple warten zu lassen.


Damit beweißt der Schreiberling seine Inkompetenz. Das ist offensichtlich abgeschriebener Charlie Blödsinn. ULVs bzw. alle mobilen CPUs werden mit der HD4000 ausgestattet. Das ist sicher nicht der Grund für die 2 Wochen Verschiebung.

Skysnake
2012-04-10, 22:55:20
Sollte Apple aber bessre/andere CPUs plötzlich wollen, dann kann das schon ein driftiger Grund sein.

Dural
2012-04-10, 22:55:52
wo ist das problem? nv ging beim T3 richtung CPU power, apple hingegen richtung GPU power (die sie bei der hohen auflösung auch dringend benötigen)

in einem bereich ist halt der einte viel besser, dafür im anderen bereich der andere... :rolleyes:

y33H@
2012-04-10, 23:02:49
Sollte Apple aber bessre/andere CPUs plötzlich wollen, dann kann das schon ein driftiger Grund sein.Alle ULVs haben die HD4k, wenn dann kann Apple nur auf einmal viel mehr i5 als i7 oder umgekehrt wollen, was eher unwahrscheinlich ist.

Ronny145
2012-04-10, 23:08:21
Sollte Apple aber bessre/andere CPUs plötzlich wollen, dann kann das schon ein driftiger Grund sein.


Na und? Es hat trotzdem nichts mit HD4000/HD2500 zu tun. Das ist die Unlogik. Alles andere lässt sich sowieso nicht beurteilen ohne Insider Wissen. Die ULVs sind übrigens nie vor Mai geplant gewesen. Das Notebook Segment startet zuerst mit den Quadcore Modellen. Damit lässt sich nicht wirklich die Verschiebung der Desktop und Notebook CPUs mit 4 Kernen erklären.

Skysnake
2012-04-10, 23:09:39
Hat die iGPU unterschiedliche Taktraten?

Ich würde aber nicht unbedingt davon ausgehen, das Apple sich keine Sonderwurst liefern lassen würde. Die haben genug Marktvolumen um sich ein binning zu sichern. Man muss für "schlechte" chips ja weniger bezahlen. Da hätten beide was davon, zumal Apple, sofern Sie viel Kepler verbauen (wollten) eh die iGPU ziemlich wurscht sein kann.

Das geht aber wieder ins Spekulative auf Grundlage von mehreren Spekulationen :ugly:

Wir werden ja bald sehen, was Apple bringt, und was die Quartalszahlen/calls bei nvidia sagen.

Sorkalm
2012-04-10, 23:51:35
Alle ULVs haben die HD4k, wenn dann kann Apple nur auf einmal viel mehr i5 als i7 oder umgekehrt wollen, was eher unwahrscheinlich ist.

Apple kriegt auch Sondermodelle, würde ich sagen, wenn die nur wollen. ;)

y33H@
2012-04-10, 23:57:00
Dann bin ich mal auf die neuen MacBooks gespannt ;)

hardtech
2012-04-11, 00:55:29
2 wochen verspätung ist gut. Der ib war für 2.hj 11 angesetzt. Nun ist es 2. Quartal 12. Ok.
Ct ist nur angep... dass sie keine karte bekommen haben. Pöses nvidia!

Ronny145
2012-04-11, 01:07:32
2 wochen verspätung ist gut. Der ib war für 2.hj 11 angesetzt. Nun ist es 2. Quartal 12. Ok.


Das ist falsch. Angesetzt war er für 1H 2012 oder Q1 2012. Später hat es sich eingegrenzt auf April-März, noch später wurde es auf April konkretisiert bis schließlich der launch auf den 9. April festgesetzt wurde. Von diesem Termin ist hier die Rede, der recht kurzfristig auf den 23. April verschoben wurde. Das sind 2 Wochen. Mehr als die beiden launch Termine gab es nicht.

hardtech
2012-04-11, 06:45:53
@ronny
Hab die news gefunden, auf die ich oben anspieke:
http://www.computerbase.de/news/2010-09/intel-22-nm-cpus-im-zweiten-halbjahr-2011/

Hugo78
2012-04-11, 07:27:25
Oh, noch ein Heise "NV-doof-mimimi" Thema. :ucoffee:

mboeller
2012-04-11, 07:44:00
Dass man Tegra 3 als Vergleichsobjekt für die A5X GPU verwendet hat, spricht aber wohl auch dafür welchen Stellenwert Apple Nvidia als Konkurrent zuordnet. ;)


Ja, schon komisch. Wo doch selbst die Vivante GPU's einen 50% höheren Marktanteil haben.

Ronny145
2012-04-11, 10:45:42
@ronny
Hab die news gefunden, auf die ich oben anspieke:
http://www.computerbase.de/news/2010-09/intel-22-nm-cpus-im-zweiten-halbjahr-2011/


Da geht es um die Auslieferung. Ausgeliefert wird immer ein paar Monate vorher.

hardtech
2012-04-11, 11:55:02
Ah ok sry, dann hab ich das falsch verstanden. *hmpf

YfOrU
2012-04-11, 14:53:13
wo ist das problem? nv ging beim T3 richtung CPU power, apple hingegen richtung GPU power (die sie bei der hohen auflösung auch dringend benötigen)

in einem bereich ist halt der einte viel besser, dafür im anderen bereich der andere... :rolleyes:

Soweit zur Theorie. In der Praxis bleibt Herstellern wie Asus oder Samsung nichts anderes übrig als sich an Apple zu orientieren. Wobei die deutliche Erhöhung der Auflösung ein logischer, notwendiger und damit alles andere als überraschender Schritt war. Dementsprechend sind auch einige Android FHD+ Tabs angekündigt worden.

In dem Zusammenhang erinnere ich gerne nochmals an die Aussage des Marketings zur T3 Vorstellung "wir brauchen kein breiteres Speicherinterface".
Im Umkehrschluss heißt das nichts anderes als das die GPU zu schwach ist denn diese würde von einer deutlichen Erhöhung der Bandbreite am meisten profitieren.

Die Folge ist das Tegra 3 trotz massig Rohleistung auf der CPU Seite für Highend Geräte welche in direkter Konkurrenz zum iPad stehen keine optimale Lösung ist. Deshalb sitzt Nvidia jetzt mit einem vergleichsweise großen SoC da der objektiv betrachtet nicht zu Krait sondern zu Omap4 in Konkurrenz steht.

Hugo78
2012-04-11, 15:56:23
@YfOrU

1.
1080p konnte schon Tegra2.
Und Tegra 3 unterschützt sogar 2048x1536.
http://www.nvidia.com/object/tegra-3-processor.html


Und 2.
Wie erkauft sich Apple ihre Auflösung bzw. genauer die Spieletauglichkeit unter Full HD?
Mit Hardware die viel zu viel Abwärme erzeugt.

Apple iPad 3 Gets Super Hot (100+ Degrees) says Consumer Reports
- http://amog.com/tech/152897-apples-ipad-hot-running-game-consumer-reports/

Received my new iPad today and I love the new screen...but right off I noticed that it gets really-really hot. I have the original iPad and have used it for hours at a time and it has never, ever got hot.
- https://discussions.apple.com/thread/3811560?start=0&tstart=0


Since the new iPad 3 went on sale last week, a number of owners have taken to the web to complain that their new wunderslab has been feeling a little bit warm to the touch.

- http://www.techradar.com/news/mobile-computing/tablets/apple-says-hot-new-ipad-3-is-cool-enough-1072496

Das Web ist voll von Kommentaren wie diesen...

MiamiNice
2012-04-11, 16:09:14
@YfOrU

1.
1080p konnte schon Tegra2.
Und Tegra 3 unterschützt sogar 2048x1536.
http://www.nvidia.com/object/tegra-3-processor.html


Und 2.
Wie erkauft sich Apple ihre Auflösung bzw. genauer die Spieletauglichkeit unter Full HD?
Mit Hardware die viel zu viel Abwärme erzeugt.


- http://amog.com/tech/152897-apples-ipad-hot-running-game-consumer-reports/


- https://discussions.apple.com/thread/3811560?start=0&tstart=0


- http://www.techradar.com/news/mobile-computing/tablets/apple-says-hot-new-ipad-3-is-cool-enough-1072496

Das Web ist voll von Kommentaren wie diesen...

Das Web ist voll mit Schwachfug zu diesem Thema. Ich besitze das 3er jetzt seit Release und verbringe aktuell min. 2 - 4 Stunden pro Tag an dem Gerät.
Habe in den letzten 2 Wochen so ziemlich alles an Apps was Rang und Namen hat ausprobiert, HD drauf geschaut, mit dem Pad gearbeitet etc. pp.

Das Pad wird unter maximaler Belastung bissel wärmer als die Hand. Selbst im Solarium bleibt das Pad bei der Wiedergabe von HD Material ziemlich kühl.

Das es unangenehm warm wird oder gar heiss so das man sich die Finger verbrennt ist Bullshit. Das Pad wird zu keiner Zeit auch nur annährend so warm das man es als störend empfinden könnte.
Ausserdem wird es nur punktuell warm. Wen man es normal hochkant in der Hand hat links unten auf der Rückseite.

Hugo78
2012-04-11, 16:11:53
Dann halten alle Anderen das Gerät wohl wieder falsch... *hust*

Neosix
2012-04-11, 16:14:32
@Hugo78
Im web steht viel...
da steht auch das User mit Tegra 2 mit 1080p arge Probleme haben, weswegen allgemein (auch hier im Forum) für die meisten bei 720p Schluss ist...

Ansonsten ist mir mein iPad 3 nach 3 Stunden Infinity Blade nicht negativ aufgefallen. Klar wurde eine Ecke wärmer aber das war zu erwarten.

Rogue
2012-04-11, 17:14:40
Es ist fraglich ob die abschätzige Haltung der c't wirklich auf schwächelnde Nvidia-Hardware zurückzuführen ist oder ob wir es hier schlicht und einfach mit einer kindischen Trotzreaktion zu tun haben.
Aus Sicht von Nvidia einen "falschen Kommentar" veröffenlicht -> ergo in der Verteilungspriorität der begehrten (und evtl. eng limitierten?) Testmuster weit nach hinten gerutscht.

Für eine c't ist das natürlich ein Schlag ins Gesicht. Die "Königs-Publikation" für PC-News im deutschsprachigen Raum kriegt kein neues Nvidia Flaggschiff zum testen und neugierige Leser greifen bei diesem Topthema halt gezwungenermaßen mal zu anderen Publikationen.

Schweigen, bzw. Neutralität in Sachen Berichterstattung wären wohl besser für die gespannte Lage zwischen Heise und Nvidia gewesen. On "beleidigte Leberwurst spielen" und "nachtreten" die Situation verbessern wage ich zu bezweifeln.

Die Redakteure sollten sich natürlich nicht von Nvidia unter Druck setzen lassen was ihr Urteil angeht. Den Kurs in Richtung "Charlie"-Berichterstattung/Spekulation sollten sie aber genausowenig einschlagen wenn ihnen ihr Ansehen etwas wert ist.

grobi
2012-04-11, 17:27:10
Dann halten alle Anderen das Gerät wohl wieder falsch... *hust*


Ich habe auch das neue iPad und überhaupt keine Probleme mit der Wärmeentwicklung.


MfG grobi

YfOrU
2012-04-12, 03:20:41
@YfOrU
1080p konnte schon Tegra2.
Und Tegra 3 unterschützt sogar 2048x1536.
http://www.nvidia.com/object/tegra-3-processor.html

Nur weil eine GPU auf dem Datenblatt eine Auflösung unterstützt ist deren Leistungsfähigkeit dafür ausreichend ? ;) Mal abseits davon das der Video DSP in keiner Relation zur eigentlichen GPU Performance steht.


Und 2.
Wie erkauft sich Apple ihre Auflösung bzw. genauer die Spieletauglichkeit unter Full HD?
Mit Hardware die viel zu viel Abwärme erzeugt.
...


Das was du hier machst ist bezogen auf die durch Apple bereits abgesetzten Stückzahlen extrem subjektiv. Du schließt von einzelnen Meldungen die sich im Internet des öfteren auch noch gerne verselbstständigen auf ein (betroffenes) Volumen welches viele Konkurrenten nicht mal innerhalb eines Jahres erreichen.

Das man bei Apple recht nahe an die Grenze des aktuell machbaren gegangen ist steht außer Frage und deshalb gibt es aufgrund der Serienstreuung selbstverständlich einzelne Geräte welche nicht mehr innerhalb der Spezifikationen arbeiten.

Im übrigen ist nicht primär der SoC für die höhere Betriebstemperatur verantwortlich sondern die Kombination aus Hintergrundbeleuchtung, SoC und Akku.

Insgesamt ist die Kritik an Nvidia bezogen auf Tegra 2 und Tegra 3 gerade im Hinblick auf das Machbare und den durch das Marketing suggerierten Ansprüchen durchaus berechtigt.

Mancko
2012-04-12, 09:24:21
Es ist fraglich ob die abschätzige Haltung der c't wirklich auf schwächelnde Nvidia-Hardware zurückzuführen ist oder ob wir es hier schlicht und einfach mit einer kindischen Trotzreaktion zu tun haben.
Aus Sicht von Nvidia einen "falschen Kommentar" veröffenlicht -> ergo in der Verteilungspriorität der begehrten (und evtl. eng limitierten?) Testmuster weit nach hinten gerutscht.

Für eine c't ist das natürlich ein Schlag ins Gesicht. Die "Königs-Publikation" für PC-News im deutschsprachigen Raum kriegt kein neues Nvidia Flaggschiff zum testen und neugierige Leser greifen bei diesem Topthema halt gezwungenermaßen mal zu anderen Publikationen.

Schweigen, bzw. Neutralität in Sachen Berichterstattung wären wohl besser für die gespannte Lage zwischen Heise und Nvidia gewesen. On "beleidigte Leberwurst spielen" und "nachtreten" die Situation verbessern wage ich zu bezweifeln.

Die Redakteure sollten sich natürlich nicht von Nvidia unter Druck setzen lassen was ihr Urteil angeht. Den Kurs in Richtung "Charlie"-Berichterstattung/Spekulation sollten sie aber genausowenig einschlagen wenn ihnen ihr Ansehen etwas wert ist.

Sehe ich auch so. Außerdem hat weder die Ct noch sonst wer irgendein Anrecht darauf vom IHV zwingend bedacht zu werden. Wenn der IHV die Prioritäten anders setzt ist das sein gutes Recht. Man kann ja immer noch versuchen das Produkt zu kaufen und einen Nachtest abliefern. Man muss sich aber deswegen nicht gleich auf Semiaccurate Niveau begeben.

Außerdem muss ich sagen, dass das nun für den Verbraucher nicht wirklich ein Verlust ist. Ich habe bei der Ct noch nie einen vernünftigen GPU Test gesehen. Das Magazin und der Verlag haben einen hohen Anspruch an den eigenen Namen, aber werden dem m.E. immer weniger gerecht. Ich lese die Ct schon seit Jahren nicht mehr. Für Hardware Reviews gibt es viele Online Seiten die das deutlich besser machen.

Rogue
2012-04-12, 10:41:04
Ja ums "Querlesen" kommt man einfach nicht herum wenn man sich informieren will.

Ich vertraue keiner Publikation alleine, auch nicht wenn sie sich c't nennt und gegenüber Herstellern ein divenhaftes Verhalten fährt.

Avalox
2012-04-12, 11:01:33
Ich finde das toll. Prozessorgeflüster ist ja schon seit Anbeginn eine Kolumne, in welcher anfänglich Herr Stiller aus dem Nähkästchen seines Netzwerkes geplaudert hat und dieses wird eben in seiner Abwesenheit so weiter getragen.

Schon die Überschriften sind ausgezeichnet. "Von Efeubrücken und Tegra-Tücken"
oder auch die Absatzüberschrift "Grün geärgert" ist von einer kreativen Klasse.
Ich würde gerne mehr auf dieser Ebene lesen, wenn denn die Fakten schlüssig sind, was sie in diesen Fall aber auch sind, finde ich solche Hiebe köstlich. Deshalb lese ich ja das Magazin.
Dabei ist es ja nicht weit hergeholt sich vorzustellen, wie Jen Hsun-Huang grün angelaufen ist, als er von der Apple Präsentation gehört hat. Wo er doch seinen Standard SoC als Super-Highend Lösung in schon einer lächerlichlichen Überhöhung am Markt platziert sehen möchte.

uweskw
2012-04-12, 11:03:06
....
Schweigen, bzw. Neutralität in Sachen Berichterstattung wären wohl besser für die gespannte Lage zwischen Heise und Nvidia gewesen. On "beleidigte Leberwurst spielen" und "nachtreten" die Situation verbessern wage ich zu bezweifeln.
...


Leider gibt es viel zuviele Magazine die sich genau so verhalten. Den Herstellern in der Arsch kriechen damit man möglichst früh und schnell Material bekommt.
Und dann gibts Leser die das auchnoch gut finden....:freak::freak::freak:

Greetz
U.S.

Hugo78
2012-04-12, 11:51:19
Nur weil eine GPU auf dem Datenblatt eine Auflösung unterstützt ist deren Leistungsfähigkeit dafür ausreichend ? ;)

Die Hersteller, die schon Full HD Tablets mit T3 angekündigt haben.
Zb. Acer A700, release irgendwann Sommer, der Clip hier ist von anfang Januar.
http://www.youtube.com/watch?v=FVHq75J4cr0&hd=1

Ich würde gerne mehr auf dieser Ebene lesen,

Für selbgefälliges Boulevard gibts schon die SA.

Coda
2012-04-12, 12:17:57
Ht4u hat auch kein Testexemplar bekommen, das ist viel schlimmer. Ht4u GPU Tests sind um Welten besser als die von heise.
Jup, das ist echt ne Frechheit. Vor allem bei der Begründung...

Avalox
2012-04-12, 12:22:19
Für selbgefälliges Boulevard gibts schon die SA.

Ah. Du meinst, dass Jen Hsun-Huang den Chefredakteur der c't angerufen und ihn "etwas" auf den AB gesprochen hat?

nVidia soll schlicht mal das leisten was sie dort permanent andeuten, dann macht sich auch niemand lustig, auch kein Apple.

YfOrU
2012-04-12, 12:55:43
Die Hersteller, die schon Full HD Tablets mit T3 angekündigt haben.
Zb. Acer A700, release irgendwann Sommer, der Clip hier ist von anfang Januar.
http://www.youtube.com/watch?v=FVHq75J4cr0&hd=1


Der GPU (MP4) im A5X steht mehr Bandbreite zur Verfügung als dem kompletten T3. Das dieser bei steigender Auflösung massiv einbrechen wird sollte verständlich sein.
Für ernsthaftes 3D bei Auflösungen um 1080p ist Tegra3 in keinster Weise geeignet. Wobei sich das durchaus bereits beim UI negativ bemerkbar machen kann.

Um das noch mal zu verdeutlichen: Der MP4 skaliert aufgrund der gestiegenen Bandbreite derart gut das dieser bei 2048*1536 immer noch die Performance der Tegra 3 GPU bei 1280*800 bringt ;). Deshalb geht die von Apple mit Faktor vier angegebene Differenz (GPU Performance) auch vollkommen in Ordnung. Hierfür reicht bereits der Blick auf 720p Offscreen Werte (GL Benchmark Pro ). Faktor drei und bei steigender Auflösung wird die Differenz mangels Bandbreite nochmals deutlichst größer.

Hugo78
2012-04-12, 14:29:45
@YfOrU
Du hattest den Speed für Full HD allgemein in Frage gestellt.
Wenns mal für Spiel XY nicht mehr reicht, dann kann man hier immernoch Detail XY reduzieren/abstellen.
Daran scheitert aber nicht der alltägliche Umgang mit einem T3 tablet unter FullHD, was UI, Inet, Filme, Bücher ect. angeht.

@Avalox
PR ist bei jeder Firma bullshit-bingo.

Nur klingt der c't Artikel nicht nach einem "in Frage stellen von PR".
Sondern nach der bauernschlauen Oberlehrer Tour die Char_LIE permanent von sich gibt.
Da wird erst überall mehr Leistung gefordert, nur um dann zu der Erkenntnis zukommen:

Bei Handy-Chips lautet die Devise: Lass weg, was du nicht brauchst, denn das spart Platz, senkt Kosten und verlängert die Akku-Laufzeit.

Heurka ... und Tegra 3 wurde nicht entwickelt um Apples 163mm^2 fetten Monster SoC, das nur sie sich mit ihre Marktstellung leisten können, zu topen.
Der original Plan war, unter 28nm nicht größer als Tegra2 mit seinen 49mm^2 zuwerden.

c't stellt sich hier bewusst dämlich und schreibt auf diesem level nichts weiter als Boulevard für Nerds die genau das brauchen, was sie schreiben.

Skysnake
2012-04-12, 14:32:20
Naja, es ist ja schon irgendwo ein starkes Stück, wie nVidia mit Samples umgegangen ist. CT ist ja jetzt kein Bauern und Dorf Blatt...

M4xw0lf
2012-04-12, 15:14:49
Und HT4U. Auf den Test warte ich immer noch ^^

YfOrU
2012-04-12, 15:30:44
@YfOrU
Du hattest den Speed für Full HD allgemein in Frage gestellt.

Das wird genauso knapp wie mit T2 und teilweise auch Omap4 (SGX540) bei 1280*800. Durchgehend akzeptabel ist es erst mit T3.

1920*1200 ist etwas mehr als eine Verdoppelung und das wird sich bemerkbar machen.


Wenns mal für Spiel XY nicht mehr reicht, dann kann man hier immernoch Detail XY reduzieren/abstellen.

Bei 1920*1200 hat die GPU des T3 so wenig zu melden das sich diese Option kaum stellen wird.


Daran scheitert aber nicht alltägliche Umgang mit einem T3 tablet unter FullHD, was UI, Inet, Filme, Bücher ect. angeht.

Das ist ganz abhängig von der jeweiligen Applikation. Ein Tablet definiert sich zu großen Teilen über die Haptik. Mit T3 (1280*800) und ICS ist man hierbei endlich halbwegs auf Augenhöhe mit Apple. Wird die Auflösung wie jetzt deutlich erhöht ohne entsprechend entgegenzuwirken (Hardware) kommt zwangsläufig ein Rückschritt.


Heurka ... und Tegra 3 wurde nicht entwickelt mit Apples 163mm^2 fetten Monster SoC, das nur sie sich mit ihre Marktstellung leisten können, zu topen.
Der original Plan war, unter 28nm nicht größer als Tegra2 mit seinen 49mm^2 zuwerden.

Auch Apple hatte sicher andere Pläne als den SoC in 45nm zu bringen. Es fordert auch niemand eine derart großen SoC von Nvidia. Allerdings ist eine GPU welche nicht mal annähernd das Niveau eines MP2 erreicht blamabel.

Mit Blick auf die steigende Auflösung ist eine potentere GPU kombiniert mit großzügig verfügbarer Speicherbandbreite schlichtweg wesentlich sinnvoller als primär die Anzahl der ARM Kerne zu erhöhen.
Ein ziemlich großer Teil der kommenden A15 SoCs wird hauptsächlich in Dual Varianten am Markt präsent sein. Wie es dann mittelfristig mit ernsthafter Auslastung von mehr als zwei Kernen aussehen wird kann man sich also ganz gut vorstellen. Was Nvidia gemacht hat ist nicht innovativ oder zukunftsweisend sondern von T2 ausgehend einfach der Weg des geringsten Widerstandes mit entsprechenden Ergebnis. Wer dann so aggressiv wie bei Nvidia die Marketingkeule auspackt darf sich über Häme und Kritik wirklich nicht beschweren.

Skysnake
2012-04-12, 15:36:06
Man sollte vor allem bedenken wer Apple und wer nVidia ist. nVidia hat seinen Ruf weg als High-End GPU-Hersteller. Apple ist auf dem Gebiet gar nicht bewandert, weshalb man auch keine überbürdenden Erwartungen hat, außer das es halt Apple ist :rolleyes:

Hier wird nVidia meiner Meinung nach zum Opfer des eigenen Images. nVidia ist halt High-End-GPU, nur halt nicht im Mobile-Bereich.

YfOrU
2012-04-12, 15:42:15
Vollkommen richtig und das Image verkauft man bei Nvidia natürlich auch munter im Tegra Marketing Material. Geschluckt wird das von sehr vielen Seiten ohne mit der Wimper zu zucken und dementsprechend wird ein Hype generiert der praktisch zu großen Teilen um ein Luftschloss tobt.

Tegra mit "Kepler GPU" ist da direkt die nächste Runde denn so werden Erwartungen geweckt die nur sehr schwer zu erfüllen sind.

Skysnake
2012-04-12, 15:52:29
Was mich dann doch etwas verwundert. Klar, diese Grafikdemo mit den Bällen war schon recht cool usw. aber das Ding ist ja scheinbar nicht besser als andere Produkte... Da wird schlicht verdammt gutes Marketing betrieben, wobei ich mich frage, wie nVidia da auf lange Sicht überleben will.

Wo findeste denn Tegra drin? Mir wäre kein einziges Produkt bekannt, wo ein Tegra drin ist. :ugly:

Das ist schon irgendwie traurig, wenn man bedenkt, was für ein Hype um die Ultra-Phones gemacht wurde :ugly:

Vor allem, was macht nVidia, wenn sich Tegrad nicht zu einem profitablen Standbein entwickelt, welcher den Chipsatz und Low- bis Midrange GPU-Bereich ersetzen kann?

Wo ist das Entwicklungspotenzial von nVidia? Und vor allem, kann nVidia realistisch gegen solche Big-player wie Samsung und Apple auf Dauer bestehen? Ganz zu schweigen von den ganzen anderen Konkurrenten wie Qualcomm, TI und in gewissen Rahmen auch Intel und AMD.

Das ist in keinster Weise vergleichbar mit dem dezidierte-GPU-Markt. Da ist eigentlich nur AMD da als Konkurrent, welcher aber keine anstalten zeigt echte Monsterchips zu fertigen. Gegen so einen Konkurrenten kann man sich mehr oder weniger leicht behaupten, vor allem wenn man ein gutes Image sich erarbeitet hat.

Vom GPGPU-Markt mal ganz zu schweigen, wo AMD nur ein Gegner mit stumpfen Waffen war bis jetzt. (aus eigener Schuld...). Wobei hier natürlich Intel bald mitmischen wird, und da wohl so manches umkrempeln wird. Könnte ziemlich bitter werden, sowohl für nVidia als auch für AMD, wenn ich denke Intel wird hier der ernst zu nehmendere Gegner werden als AMD, einfach weil Intel einen ganz anderen Weg einschlägt, und teilweise dadurch auch fundamental andere Vorteile erreicht, wo man sich schon fragen muss, ob nVidia diesen Schritt mit gehen kann.

YfOrU
2012-04-12, 16:18:11
Die eigentliche Schwierigkeit für Nvidia ist das der (ultra) mobile Markt vollkommen anders funktioniert als die bisherigen Geschäftsfelder. Daran ist (bisher) selbst ein Unternehmen wie Intel vollkommen gescheitert.

Grundsätzlich benötigt es nicht nur konkurrenzfähige Produkte (SoCs) zum richtigen Zeitpunkt sondern direkt fertige Referenzlösungen (wie Smartphones) welche potentielle Abnehmer mit geringen Aufwand (für Serienprodukte) adaptieren können. Inklusive Anpassung der Software und frühzeitige Einbindung potentieller Abnehmer in die Entwicklung der (Referenz) Plattform.

Aber auch das ist kein Garant für den direkten Erfolg den häufig gibt es langfristige Bindungen zwischen Herstellern und Abnehmern. Bezieht man hier noch die sehr große und weiter zunehmende Zahl an Mitbewerbern mit ein ist es extrem schwierig in diesem Markt ein stabiles Standbein zu etablieren. Nicht zu vergessen ist zusätzlich das immer mehr Unternehmen SoCs für eigenen Produkte selbst entwickeln (Samsung, Sony, Huawei, LG, Apple...).

Bei Nvidia wurde (wie bei Intel auch) ein Baseband Unternehmen eingekauft um diese in Zukunft in den eigenen SoCs integrieren zu können. Ohne diese ist gegen Konkurrenten wie Qualcomm (im übrigen größer als AMD ;) ) nichts auszurichten. Ob Nvidia damit Erfolg hat wird man sehen - es ist zumindest eine wichtige Grundlage um überhaupt ernsthaft im Bereich der Smartphones aktiv werden zu können.
Im Gegensatz zu Nvidia hat Intel neben praktisch unendlichen Kapital auch noch den Vorteil der eigenen Fertigung. Das ist mittelfristig ein Selbstläufer auch wenn bisher nur massig Kapital verbrannt wurde.

mboeller
2012-04-12, 16:53:24
Wo findeste denn Tegra drin? Mir wäre kein einziges Produkt bekannt, wo ein Tegra drin ist. :ugly:


so kannst du das nicht sagen. Der ursprüngliche Tegra wurde AFAIK nahezu nie verbaut. Der Tegra2 schon häufiger (zB hier: http://notionink.wordpress.com/ ) und der Tegra3 noch sehr viel öfter (incl. aller Ankündigungen). Es wird in Kürze sogar Smartphones mit Tegra3 geben. Tegra2 wurde AFAIK nur in Tablets verbaut.

Eine schöne Auflistung aller(?) Produkte mit Tegra-SoC findest du übrigens hier: http://en.wikipedia.org/wiki/Tegra

Skysnake
2012-04-12, 17:18:52
Supi das sind bei Tegra 3 gerade mal 5-6 Produkte. Die Transformer XY usw. zähl ich als ein Gerät.

Also da sahs bei Tegra 2 schon deutlich besser aus, wobei ich echt überrascht bin, in wie vielen unterschiedlichen Geräten Tegra 2 (ge)steckt (hat).

Tegra 3 ist aber ziemlich ernüchternd muss ich sagen.

Ailuros
2012-04-12, 17:23:59
Was mich dann doch etwas verwundert. Klar, diese Grafikdemo mit den Bällen war schon recht cool usw. aber das Ding ist ja scheinbar nicht besser als andere Produkte... Da wird schlicht verdammt gutes Marketing betrieben, wobei ich mich frage, wie nVidia da auf lange Sicht überleben will.

Wo findeste denn Tegra drin? Mir wäre kein einziges Produkt bekannt, wo ein Tegra drin ist. :ugly:

Das ist schon irgendwie traurig, wenn man bedenkt, was für ein Hype um die Ultra-Phones gemacht wurde :ugly:

Wenn ich es jetzt verdrehe, weisst Du (ausserhalb von Apple i-Zeug) in welchem tablet bzw. smartphone genau was drin steckt? Anders ein grosser Hersteller wie Samsung, HTC, Motorola etc. interessiert es auch nicht besonders dass der Endkunde weiss von wem genau jeglicher SoC block genau hergestellt wird. Dass ein paar technofreaks wie wir es frueher oder spaeter herausfinden was in A, B oder C steckt, ist wohl eher eine Aussnahme.

Vor allem, was macht nVidia, wenn sich Tegrad nicht zu einem profitablen Standbein entwickelt, welcher den Chipsatz und Low- bis Midrange GPU-Bereich ersetzen kann?

Zugegeben ist NV in diesem Bereich etwas spaet dran im Vergleich zu AMD, aber wenn ich mir so ansehe wie sich AMD's SoC verkaufen (und die haben auch nicht gerade die "ueber-CPUs" integriert), sehe ich nicht ein warum NV es nicht schaffen sollte einen konkurrenzfaehigen PC/notebook SoC ab 20nm auf den Markt zu bringen.

Wo ist das Entwicklungspotenzial von nVidia? Und vor allem, kann nVidia realistisch gegen solche Big-player wie Samsung und Apple auf Dauer bestehen? Ganz zu schweigen von den ganzen anderen Konkurrenten wie Qualcomm, TI und in gewissen Rahmen auch Intel und AMD.

AMD hat momentan noch nichts vor was small form factor SoCs betrifft und Intel ist gerade erst beim Einstieg in diesen mit Medfield welches mich persoenlich auch nicht gerade vom Sockel gerissen hat. Ja Intel hat als Nachfolger SGX544MP2@500MHz geplant, aber zu dem Zeitpunkt wo es erscheinen wird wird es auch nichts besonderes mehr sein.

Qualcomm ist der groesste SoC Hersteller ueberhaupt fuer small form factor und natuerlich auch mit den meisten design wins; ein Gegner den Intel fuer die weitere Zukunft sogar mehr fuerchtet als AMD selber.


Das ist in keinster Weise vergleichbar mit dem dezidierte-GPU-Markt. Da ist eigentlich nur AMD da als Konkurrent, welcher aber keine anstalten zeigt echte Monsterchips zu fertigen. Gegen so einen Konkurrenten kann man sich mehr oder weniger leicht behaupten, vor allem wenn man ein gutes Image sich erarbeitet hat.

Vom GPGPU-Markt mal ganz zu schweigen, wo AMD nur ein Gegner mit stumpfen Waffen war bis jetzt. (aus eigener Schuld...). Wobei hier natürlich Intel bald mitmischen wird, und da wohl so manches umkrempeln wird. Könnte ziemlich bitter werden, sowohl für nVidia als auch für AMD, wenn ich denke Intel wird hier der ernst zu nehmendere Gegner werden als AMD, einfach weil Intel einen ganz anderen Weg einschlägt, und teilweise dadurch auch fundamental andere Vorteile erreicht, wo man sich schon fragen muss, ob nVidia diesen Schritt mit gehen kann.

Fuer small form factor brauchen wir erstmal "hetergeneous aware OSs"; wird zwar schon noch kommen trottelt fuer meinen Geschmack nur ziemlich lahmarschig so vor sich hin. Mit der die area die ueberhaupt Apple fuer GPUs dediziert (fuer A5X ist der GPU block fast so gross wie der ganze Tegra3 SoC), wuerde ich erwarten dass Apple die treibende Kraft hinter GPGPU fuer diesen Markt sein wuerde.

NV hat mehrere Vorteile die sich frueher oder spaeter irgendwann schon ausspielen werden: engineering talent und Erfahrung sowohl auf hw als auch auf sw level. Firmen wie Intel und Qualcomm hetzen schon seit einer Ewigkeit nach engineering Talenten generell herum und es ist auch kein besonderer Zufall dass Qualcomm Eric Demers (ex ArtX, ex ATI, ex AMD) seit neuestem geschnappt hat.

Wie dem auch sei wenn Firmen wie Qualcomm heute ein Problem mit Grafik haben dann ist es hauptsaechlich auf sw Ebene und es koennte noch miserabler werden wenn win8 im small form factor einschlaegt.

Lies mal etwas in Arun's Posts hier durch: http://forum.beyond3d.com/showthread.php?t=61449&page=4

Adreno220(266MHz)/225(400MHz) GPUs in den neuesten Qualcomm SoCs takten zwar unterschiedlich bestehen aber aus 8 Vec4 USC (FP32) ALUs und die Leistung bzw. Effizienz ist zu niedrig weil ihr shader compiler einfach zum kotzen uneffizient ist mit einfacheren shader calls (man wird wohl nicht den kompliziertesten shader Inhalt in small form factor SoCs heutzutage erwarten).

Die ULP GF GPU im Tegra3 besteht aus 2 Vec4 (FP24) PS + 1 Vec4 (FP32) VS ALUs bei 520MHz und obwohl ein 8 Vec4 @400MHz Adreno 225 den ersten einzelhaendig wegpusten sollte, ist der Unterschied zwischen den beiden mehr als oefters laecherlich klein. Noch ein weiteres Problem von Adreno ist dass 220/225 nur 2 TMUs haben. Eine 4:1 ALU<->TMU Analogie ist schoen und gut fuer Faelle wo shader um einiges komplizierter sind, aber wohl nicht fuer die heutigen mobilen 3D Applikationen.

=Floi=
2012-04-12, 17:26:14
Ht4u hat auch kein Testexemplar bekommen, das ist viel schlimmer. Ht4u GPU Tests sind um Welten besser als die von heise.

gibt es dazu mehr text?! gründe?

=Floi=
2012-04-12, 17:38:47
Mit Blick auf die steigende Auflösung ist eine potentere GPU kombiniert mit großzügig verfügbarer Speicherbandbreite schlichtweg wesentlich sinnvoller als primär die Anzahl der ARM Kerne zu erhöhen.
Ein ziemlich großer Teil der kommenden A15 SoCs wird hauptsächlich in Dual Varianten am Markt präsent sein. Wie es dann mittelfristig mit ernsthafter Auslastung von mehr als zwei Kernen aussehen wird kann man sich also ganz gut vorstellen. Was Nvidia gemacht hat ist nicht innovativ oder zukunftsweisend sondern von T2 ausgehend einfach der Weg des geringsten Widerstandes mit entsprechenden Ergebnis. Wer dann so aggressiv wie bei Nvidia die Marketingkeule auspackt darf sich über Häme und Kritik wirklich nicht beschweren.


nv hat dort angesetzt wo es wichtig war, nämlich bei der CPU. du brauchst zuerst ausreichende cpu-power und kannst dann erst die gpu-leistung steigern. Das ergebnis ist hald nicht jetzt so toll, weil es an kleineren strukturen, der fehlende konkurrenz und der software scheitert.
der weg an sich ist aber richting und gut.
Ich denke bei nv wird man (noch) nicht mit so hohen pixeldichten gerechnet haben und die konkurrenz ist auch diesem gebiet auch sehr potent. Ich finde es aber auch mal gut, dass sich hier nv richtig anstrengen muß.

Skysnake
2012-04-12, 17:39:12
Ailuros, AMD seh ich eigentlich nur als "Gefahr"/Gegner, weil Sie ne X86 Lizenz haben. Das wars dann aber auch. Intel ist halt verdammt unberechenbar. Die haben einfach Geld wie Scheise...

Auf mittlere Sicht seh ich halt einen schweren Stand für nVidia, da eben Kaliber qie Qualcomm da sind, und auf der anderen Seite Samsung, Apple usw. eben schon selbst produzieren.

Und ja, Software ist wichtig. Sieht man ja bei AMD auch sehr schön. Teils wirklich geile Hardware, aber die Software/Compiler sind halt nicht auf dem gleichen Stand. So was ist aber auch nicht ganz trivial.

Ich will wirklich nicht sagen, das nVidia mit Tegra keine Chance hat, aber es wird ein blutiger Kampf werden. Kein Vergleich zum Ringen mit AMD bei den dezidierten GPUs.

Ich hab da vor allem Bedenken wegen Entwicklunskosten<->Refinanzierung durch Verkäufe. In Mobilbereich darf man sich keine Sekunde ausruhen, sonst ist man schneller weg vom Fenster, als man schauen kann. Ob man den R&D Aufwand stemmen kann, während man bei den GPUs/GPGPU weiter auf die Tube drückt muss man sehen. Gute Leute sind rar gesät.

Am Interessantesten wird wohl eh, wie sich Intel im GPGPU Geschäft schlägt. Das könnte nVidia wohl echte Bauchschmerzen bereiten. Mit den Tesla-Karten macht man ja gutes Geld.

Ailuros
2012-04-12, 17:40:04
so kannst du das nicht sagen. Der ursprüngliche Tegra wurde AFAIK nahezu nie verbaut. Der Tegra2 schon häufiger (zB hier: http://notionink.wordpress.com/ ) und der Tegra3 noch sehr viel öfter (incl. aller Ankündigungen). Es wird in Kürze sogar Smartphones mit Tegra3 geben. Tegra2 wurde AFAIK nur in Tablets verbaut.

Eine schöne Auflistung aller(?) Produkte mit Tegra-SoC findest du übrigens hier: http://en.wikipedia.org/wiki/Tegra

Was ist Dir lieber als Beispiel: 20 design wins mit 15Mio Einheiten verkauft oder 10 design wins mit 100Mio Einheiten verkauft? Der Sinn der Frage ist einfach: design wins heissen erstmal gar nichts wenn man nicht weiss wie gross die Quantitaet der real verkauften Einheiten wirklich ist.

Das sollte nicht heissen dass Tegra2 bzw. Tegra3 sich schlecht verkauft haben oder noch werden, es aendert aber an der eigentlichen Tatsache der Marktanteile wie von JPR praesentiert nichts besonderes. Vivante hat einen ziemlich grossen Durchbruch im GPU IP Markt obwohl es die juengste IP Firma sein duerfte weil erstens GPU IP eben einfach idealer ist fuer den small form factor Markt (wenn Du sagen wir mal 10-15 SoC Hersteller hast die nichts anstaendiges was GPU Entwicklung fuer diesen Markt auf die Beine stellen koennen bzw. wollen, dann rate mal woher die GPU Technologie kommen muss) und weil sie sich hauptsaechlich an fernoestliche Maerkte gewendet haben.

Und nein fuer NVIDIA ist eben nicht die Loesung GPU IP zu verkaufen (mit Aussnahme handheld Konsolen SoCs), denn NV macht momentan zich Mal mehr Umsatz mit Tegras als IMG mit GPU IP sowohl von Lizenz-Gebuehren als auch royalties kassiert. Gewinnreich duerfte die Tegra Sparte zwar noch nicht sein, aber so etwas kommt auch nicht ueber Nacht. Es ging ja eigentlich erst mit Tegra2 los ergo ist die ganze Affaere noch ziemlich in ihren Windeln.

Das Problem ist aber doch dass NV sich als SoC Hersteller als Konkurrent gegen eine Unzahl von sehr grossen semiconductor Hersteller stellt und der Kampf dort nicht besonders leicht sein wird. Wenn ihre zukuenftigen PC/notebook SoCs konkurrenzfaehig sein sollten sehe ich nicht ein warum NV langfristig nicht tatsaechlich insgesamt genauso viel von SoCs verdienen koennte in der weiteren Zukunft wie heute von GPUs. Der Einstieg von PC/notebook SoCs heisst ja so oder so dass low end standalone GPUs erstmal abgeschafft werden und mit der Zeit je groesser SoCs werden, desto mehr wird der standalone GPU Markt sich ueberhalb mainstream begrenzen.

Dural
2012-04-12, 17:42:41
also um die GPU würde ich mir bei NV keine grossen sorgen machen...

im T3 steckt immer noch die erste Generation drin, von dem her schlägt sie sich doch recht gut.

Skysnake
2012-04-12, 17:49:59
Dural, das interessiert aber niemanden, ob da jetzt die erste Generation drin steckt oder nicht. nVidia muss da auf Zack sein und immer was brauchbares parat haben als Konter, sonst gehts einem ganz schnell wie 3Dfx...

Und gerade da muss sich nVidia am Riemen reißen, sonst sind Sie bald komplett unten Durch. Man muss rechtzeitig das Produkt fertig haben und rechtzeitig entsprechende Mengen liefern können. Wenn nicht, bekommt man vielleicht noch ne zweite Chance, aber sicherlich keine Dritte.

Und wie wir wissen hat sich nVidia in den letzten Jahren ja wirklich nicht mit Ruhm bekleckert, was das Einhalten von Roadmaps anbelangt.

aths
2012-04-12, 17:51:13
Im aktuellen c't Prozessorgeflüster (9/12) steht ein kleiner Seitenhieb auf nVidia zu lesen.

Scheinbar wollte nVidia auch kein Testmuster ihrer GTX680 Heise bereit stellen..
Ein Umstand welcher süffisant in des Prozessorgeflüster aufgenommen wurde, um dann mit der gegenwärtigen Tegra-Situation gleich noch eins auf den Deckel zu geben.

Das Prozessorgeflüster ist frei verfügbar im Inet zu lesen


Grün geärgert
Apropos PowerVR: Deren Macher Imagination Technologies dominieren laut Jon Peddie Research den SoC-Markt. So verkauft keine andere Firma mehr GPU-Designs: Mit einem Marktanteil von 50 Prozent überflügelt die Firma aus dem beschaulichen Städtchen Kings Langley nahe London locker die Konkurrenz von Qualcomm (33 Prozent), Vivante (4,8 Prozent) und – Nvidia (3,2 Prozent). Jen-Hsun Huangs „Superchip“ Tegra steckt derzeit in „Superphones“ und Tablets, doch mit dem Marktanteil will’s offenbar noch nicht so richtig „super“ klappen. Überhaupt scheinen in Santa Clara bei einigen Themen die Nerven ziemlich blank zu liegen: So versuchte uns Nvidia komplett vom Informationsfluss zur neuen Kepler-Grafikkarte GeForce GTX 680 (Test in c't 9/2012 auf S. 70) abzuschneiden und schickte uns auch kein Testexemplar, weil ihnen eine vorab veröffentlichte Nachricht schlicht nicht in den Kram passte.
Gerüchten zufolge soll in den kommenden Tegra-4-Kombiprozessoren eine Grafikeinheit mit Kepler-Architektur stecken. Die führte Nvidia erst Ende März mit dem GK104-Chip (siehe Bild) auf Grafikkarten ein. Noch viel mehr geärgert haben muss es Nvidias charismatischen Chef, dass Apple öffentlich die geringere Grafikleistung des Tegra 3 im Vergleich zum aktuellen iPad-PowerVR-Kern abtat. Das war Anfang März. Und nun – welch Zufall – kommen Gerüchte über den Tegra 4 auf


http://www.heise.de/ct/artikel/Prozessorgefluester-1500182.html
Was hat Heise denn vorab veröffentlicht was Nvidia nicht passte?

Ailuros
2012-04-12, 18:05:35
Ailuros, AMD seh ich eigentlich nur als "Gefahr"/Gegner, weil Sie ne X86 Lizenz haben. Das wars dann aber auch. Intel ist halt verdammt unberechenbar. Die haben einfach Geld wie Scheise...

x86 ist ja soooooo optimal gegen ARM CPU IP im small form factor Markt dass sich wohl alle ploetzlich Sorgen darueber machen oder? Sei Dir erstmal nicht SO sicher dass AMD diesen in der Zukunft mit eigenen CPUs bedienen wird :P

Auf mittlere Sicht seh ich halt einen schweren Stand für nVidia, da eben Kaliber qie Qualcomm da sind, und auf der anderen Seite Samsung, Apple usw. eben schon selbst produzieren.

Apple stellt immer noch bei Samsung her und wohl noch zumindest fuer die naechsten 3-4 Jahre und NVIDIA hat schon einen testchip SoC zu einer Samsung foundry geschickt (was immer daraus werden mag). Samsung kauft nicht nur von mehreren Stellen GPU IP ein (ARM und IMG) sondern da es aus mehreren Divisionen besteht benutzt es links und rechts eine Vielfalt von SoCs diverser anderer Hersteller. Die heutige Generation von Samsung Geraeten hat neben ihren eigenen Exynos SoCs: Qualcomm S3, Texas Instruments OMAP4, NVIDIA Tegra2 und weiss der Geier was ich noch vergesse. Ergo ist SAMSUNG als SoC Hersteller sogar ein Kunde fuer NVIDIA als weiterer SoC Hersteller. Die Anzahl der Einheiten war zwar begrenzt da Tegra2 hauptsaechlich als Lueckenfueller diente, aber das ist eher im insgesamten Bild eher wurscht.

Apple konkurriert mit sich selber. Sie verkaufen GAR NICHTS von ihrer entwickelten hw und sw. Ergo?

Und ja, Software ist wichtig. Sieht man ja bei AMD auch sehr schön. Teils wirklich geile Hardware, aber die Software/Compiler sind halt nicht auf dem gleichen Stand. So was ist aber auch nicht ganz trivial.

Ich will wirklich nicht sagen, das nVidia mit Tegra keine Chance hat, aber es wird ein blutiger Kampf werden. Kein Vergleich zum Ringen mit AMD bei den dezidierten GPUs.

Der Punkt hier ist NVIDIA braucht weder nach hw und sw engineers zu suchen wie Qualcomm und co. noch muessen NV's engineers Erfahrung sammeln um Treiber zu coden, compiler zu schreiben, DevRel zu betreiben, hw zu entwickeln etc. etc. NV hat das Zeug alles schon in der Tasche und entschuldige Du kannst mir die tollste hw liefern aber mit beschissenen Treibern sagt es einem gar nichts.

Ich hab da vor allem Bedenken wegen Entwicklunskosten<->Refinanzierung durch Verkäufe. In Mobilbereich darf man sich keine Sekunde ausruhen, sonst ist man schneller weg vom Fenster, als man schauen kann. Ob man den R&D Aufwand stemmen kann, während man bei den GPUs/GPGPU weiter auf die Tube drückt muss man sehen. Gute Leute sind rar gesät.

Siehe voriger Paragraph was Entwicklungskosten betrifft. Wenn man schon so viel fuer OpenCL/DX11/CUDA und co. verplempert hat und X Erfahrung gesammelt hat, muessen andere wieviel genau blechen bis sie erstmal halb so weit kommen und woher soll das erfahrene Personal genau kommen?

Am Interessantesten wird wohl eh, wie sich Intel im GPGPU Geschäft schlägt. Das könnte nVidia wohl echte Bauchschmerzen bereiten. Mit den Tesla-Karten macht man ja gutes Geld.

Intel wird zwar zunehmend besser was generell alles GPU/GPGPU betrifft, aber mehr als gerade noch konkurrenzfaehig erwarte ich von denen nicht. Um Intel mach ich mir auch keine besonderen Sorgen da sie ausgezeichnete CPUs entwickeln.

Ja Teslas sind teuer aber die Anzahl der verkauften Einheiten ist laecherlich klein im grossen Bild und in dem Bereich wird es fuer Intel und AMD auch nicht besonders anders sein. HPC heisst verdammt hohe Margen aber auch verdammt kleine Quantitaeten. Wenn von dem Zeug ein IHV ueberleben koennte dann wuerde NV schon heute nur ausschliesslich chips fuer HPC entwickeln. Weil eben die Verkaufszahlen eher gering sind muss eben der Otto-Normalverbraucher auch noch indirekt mitblechen damit die eigentlichen R&D Kosten fuer HPC GPU chips gedeckt werden. Intel kann es sich leisten ohne desktop GPUs fuer LRB-whatever, aber es gibt nur einen so gigantischen semi wie Intel weltweit.

also um die GPU würde ich mir bei NV keine grossen sorgen machen...

im T3 steckt immer noch die erste Generation drin, von dem her schlägt sie sich doch recht gut.

Tegra3 ist als SoC ausgezeichnet positioniert. Der eigentliche Schub aber was fortschrittlichere featuresets vorraussetzt kommt wohl erst mit Wayne/Tegra4.

Bis zu T3 treibt sich die dort integrierte GPU eher im lowest common denominator rum im Vergleich zur Konkurrenz; sehr leistungsfaehig ja, konkurrenzfaehig ja aber man treibt damit (und ueberhaupt im Angesicht des ingesamten Markanteils) eben keinen Markt an.

Was Ihr alle ueber die Jahre an Tegra/GPU Kritik nicht verstehen wollt, ist einfach die Tatsache dass ich dummerweise vom groessten GPU IHV weltweit auch wirklich den Vorsprung in ALLEN Dimensionen erwarte. Und damit es endlich hoffentlich ein Ende nimmt: wenn nur 2 engineers an einem einzigen GPU design ueber 3 SoC Generation ihre Finger blutig schuften ist das Resultat sogar ein Wunder.

Skysnake
2012-04-12, 18:10:50
Ailuros, versteh mich nicht falsch, ich bezog mich hierbei nicht auf small form factor, sondern die Entwicklungsmöglichkeiten von nVidia nach oben, welche eben dort abgeschnitten werden. Im Bereich der Tablets und Ultrabooks usw. ist/kann x86 durchaus ein gewichtiges Argument sein, auch wenn sich für ARM hier einiges an Potenzial entwickelt zur Zeit (Netbooks usw.) Umgekehrt bekommt x86 aber auch für Tablets eine Chance mit Win8. Da wird man sehen müssen, wer am Ende mehr profitiert, und seine Chancen besser nutzt. Bei richtigen Notebooks seh ich auf jeden Fall in nächster Zeit keine Chance für ARM-Geräte.

Und ja, nVidia hat gute Leute, aber eben nur eine begrenzte Anzahl an Ingenieuren. Die können ja noch so gut sein, wie Sie wollen. Das sind trotzdem nur Menschen, die eine gewisse Menge Arbeit bewältigen können. Wenn das R&D Volumen für Tegra und Tesla aber ansteigt, weil man sich der Konkurrenz stellen muss, dann wird man sehen müssen, ob man nicht doch mehr Leute brauch. Vor dem Problem stehen aber alle. Fragt sich halt nur, wer damit am Besten klar kommt. nVidia geht auf jeden Fall nicht den einfachen Weg mit Tegra.

Bzgl: Intel und GPGPU:
Man sollte Intel da nicht unterschätzen! Den GPU Part können wir mal wieder vergessen im klassischen Sinne. Beim Rest seh ich aber ein sehr interessantes Konzept, inkl. der Tatsache, das man eben x86 kompatibel ist. Wenn die das wirklich richtig angepackt haben, und die Effizienz von GPUs bringen, dann wirds wirklich schwer, einen Grund zu finden, warum man ne Tesla oder FirePro nehmen sollte.
Das Problem hier ist doch im Moment doch nur, das man nicht weiß, was denn Intel jetzt wirklich alles bringt, und wie gut das Zeug funktioniert. Das Potenzial für grundlegende Veränderungen ist aber auf jeden Fall vorhanden. Mehr sag ich dazu jetzt aber nicht mehr.

Und ja, Teslas sind keine Selbstläufer, die man einfach so produzieren kann, aber Sie sind der Zuckerguss auf dem Kuchen, und wenn der weg fällt, schmeckt der Kuchen nur noch halb so gut ;)

Ich hoffe du weißt was ich meine :ugly:

YfOrU
2012-04-12, 18:14:22
nv hat dort angesetzt wo es wichtig war, nämlich bei der CPU. du brauchst zuerst ausreichende cpu-power und kannst dann erst die gpu-leistung steigern. Das ergebnis ist hald nicht jetzt so toll, weil es an kleineren strukturen, der fehlende konkurrenz und der software scheitert.
der weg an sich ist aber richting und gut.

Ausreichend CPU Leistung kommt primär durch eine Steigerung der IPC bzw. ganz allgemein von einer höheren Leistung pro Kern (siehe Krait und A15). Von der wie bei Nvidia betrieben Parallelisierung kommt mittelfristig kaum etwas beim Anwender an.

Der ganz große Teil der A8 und A9 sind Single sowie Dual Core Konfigurationen und das wird sich auch bei A15 nicht ändern. Wenn selbst die nachfolgende Generation in der Masse nicht über zwei Kerne hinausgeht wird entsprechende Software zur Lebenszeit eines Quad A9 Produktes absolute Mangelware bleiben.

Auch wenn die zusätzlichen A9 Kerne nicht gerade groß sind hätte die Chipfläche sinnvoller genutzt werden können. Ich sehe das deshalb eher als eine unter Aspekten des Marketings mit vergleichsweise geringen Aufwand getätigte Entwicklung als das Optimum an. Eben das darf aber eigentlich von einem Unternehmen wie Nvidia erwartet werden, gerade in Bezug auf deren Eigendarstellung ;)

Ailuros
2012-04-12, 18:25:51
Ailuros, versteh mich nicht falsch, ich bezog mich hierbei nicht auf small form factor, sondern die Entwicklungsmöglichkeiten von nVidia nach oben, welche eben dort abgeschnitten werden. Im Bereich der Tablets und Ultrabooks usw. ist/kann x86 durchaus ein gewichtiges Argument sein, auch wenn sich für ARM hier einiges an Potenzial entwickelt zur Zeit (Netbooks usw.) Umgekehrt bekommt x86 aber auch für Tablets eine Chance mit Win8. Da wird man sehen müssen, wer am Ende mehr profitiert, und seine Chancen besser nutzt. Bei richtigen Notebooks seh ich auf jeden Fall in nächster Zeit keine Chance für ARM-Geräte.

Ich will erstmal win8 tablets sehen egal mit welchem SoC. Bisher sind tablets hauptsaechlich ein Loewenanteil fuer Apple. Apple hat IMHO fuer ihre i-Geraete ein quasi KISS Konzept. Apple's Erfolg im smart-phone bzw. tablet Markt ist eher eine (propietaere) sw/OS Angelegenheit als eine der unterliegenden hw.

Ob jegliches zukuenftiges windows embedded OS wirklich das Blatt radikal wenden kann bleibt abzusehen.

Was jetzt notebook SoCs betrifft: wie gesagt vor 20nm bzw. 2014 (wenn nicht spaeter) siehst Du von Project Denver sowieso nichts.

Und ja, nVidia hat gute Leute, aber eben nur eine begrenzte Anzahl an Ingenieuren. Die können ja noch so gut sein, wie Sie wollen. Das sind trotzdem nur Menschen, die eine gewisse Menge Arbeit bewältigen können.

Dann erzaehl mir mal wie gross das GPU team bei Qualcomm ist und wie gross bzw. erfahren ihr Treiber bzw. sw team. Qualcomm schreibt nichtmal ihre eigenen compiler, also bitte.

Wenn das R&D Volumen für Tegra und Tesla aber ansteigt, weil man sich der Konkurrenz stellen muss, dann wird man sehen müssen, ob man nicht doch mehr Leute brauch. Vor dem Problem stehen aber alle. Fragt sich halt nur, wer damit am Besten klar kommt. nVidia geht auf jeden Fall nicht den einfachen Weg mit Tegra.

Qualcomm hat momentan noch kein Interesse fuer notebook/PC SoCs gezeigt und INTEL bzw. AMD sind schon so weit seit einiger Zeit. NV kommt in dem Fall nur als dritter Kandidat dazu; hier sind die Konkurrenten langfristig immer noch sehr begrenzt im Vergleich zu small form factor SoCs.

Bzgl: Intel und GPGPU:
Man sollte Intel da nicht unterschätzen! Den GPU Part können wir mal wieder vergessen im klassischen Sinne. Beim Rest seh ich aber ein sehr interessantes Konzept, inkl. der Tatsache, das man eben x86 kompatibel ist. Wenn die das wirklich richtig angepackt haben, und die Effizienz von GPUs bringen, dann wirds wirklich schwer, einen Grund zu finden, warum man ne Tesla oder FirePro nehmen sollte.

Wer sprach denn von einer Unterschaetzung? Der HPC Markt ist klein und wird auch nicht in absehbarer Zukunft gigantisch zuwachsen, ausser es gibt irgendwann in der Zukunft mehr Anstalten/Universitaeten als Beispiel als PC gamer oder smart-phone user. HPC hat erstmal GAR NICHTS mit small form factor zu tun.

Das Problem hier ist doch im Moment doch nur, das man nicht weiß, was denn Intel jetzt wirklich alles bringt, und wie gut das Zeug funktioniert. Das Potenzial für grundlegende Veränderungen ist aber auf jeden Fall vorhanden. Mehr sag ich dazu jetzt aber nicht mehr.

Siehe oben.

Und ja, Teslas sind keine Selbstläufer, die man einfach so produzieren kann, aber Sie sind der Zuckerguss auf dem Kuchen, und wenn der weg fällt, schmeckt der Kuchen nur noch halb so gut ;)

Ich hoffe du weißt was ich meine :ugly:

Das Thema ist schon zu weit OT. Wenn wir in der weiteren Zukunft ServerOnChips sehen werden dann hat vielleicht HPC etwas in einem small form factor relevantem Thread etwas verloren aber dann auch nur indirekt.

Ronny145
2012-04-12, 18:56:15
gibt es dazu mehr text?! gründe?


Konkretes gibt es glaube nicht, lies mal den Thread: http://ht4u.net/forum/index.php?topic=47282.90
Weil es passt vielleicht auch den hier: http://www.planet3dnow.de/vbulletin/blog.php?b=217

Botcruscher
2012-04-12, 19:35:13
Was will NV damit eigentlich erreichen? Bis auf negative Berichte bringt ein eindreschen auf die Hardwareseiten überhaupt nichts. Die Leaks sind da und was einmal ins Inet gelangt beleibt da auch. Zudem ist die Zielgruppe eh gut informiert, während der Normalo damit nichts anfangen will und kann. Die Auswirkungen auf den Markt dürften gleich null sein. PS: Zumal die 680GTX vom Zeitplan nun wirklich nur zweiter Sieger ist.

mfi
2012-04-12, 20:28:47
Konkretes gibt es glaube nicht, lies mal den Thread: http://ht4u.net/forum/index.php?topic=47282.90
Weil es passt vielleicht auch den hier: http://www.planet3dnow.de/vbulletin/blog.php?b=217

Ich kann die beiden Autoren gut verstehen.

Mancko
2012-04-12, 21:40:49
Was will NV damit eigentlich erreichen? Bis auf negative Berichte bringt ein eindreschen auf die Hardwareseiten überhaupt nichts. Die Leaks sind da und was einmal ins Inet gelangt beleibt da auch. Zudem ist die Zielgruppe eh gut informiert, während der Normalo damit nichts anfangen will und kann. Die Auswirkungen auf den Markt dürften gleich null sein. PS: Zumal die 680GTX vom Zeitplan nun wirklich nur zweiter Sieger ist.

Der Zeitplan interessiert doch keine Sau. Wer kauft sich bitte heute eine HD7970 mit der Begründung dass sie 2,5 Monate früher erschienen ist? Kein Mensch. Wer heute kauft wird vergleichen und so ziemlich jedes Review sieht die GTX680 in den für die Mehrheit relevanten Auflösungen vorne. Da sind doch 2,5 Monate total schnuppe. Interessiert null.

Botcruscher
2012-04-12, 22:17:25
Darum geht es nicht. Wenn der Gegner noch nicht auf dem Markt ist, könnte man die Bemühungen nach Diskretion verstehen. Als Nachzügler ist es dann aber so ziemlich egal. Dazu kommen noch die miesen Preise und Yields.

Mancko
2012-04-13, 08:37:33
Darum geht es nicht. Wenn der Gegner noch nicht auf dem Markt ist, könnte man die Bemühungen nach Diskretion verstehen. Als Nachzügler ist es dann aber so ziemlich egal. Dazu kommen noch die miesen Preise und Yields.

Nochmal: weder Nvidia noch AMD noch sonst ein anderer Hardwarelieferant haben eine Verpflichtung jedes Magazin und jede Online Seite mit der Versorgung von Testsamples zu berücksichtigen. Es kann viele Gründe dafür geben das nicht zu tun:

- die Seite/das Magazin testet unprofessionell
- die Seite/das Magazin bricht NDAs
- die Seite/das Magazin verbreitet unwahre Dinge
- der Hersteller fühlt sich von der Seite/dem Magazin permanent benachteiligt
- die Seite/das Magazin hat keine wirkliche Relevanz mehr für die Zielkundschaft des Herstellers
- usw...

Es kann natürlich auch eine Kombination aus mehreren Gründen sein. Ist für mich alles nachvollziehbar. Vielleicht sollte die Ct / Heise einfach überlegen, wieso sie nicht bedacht wurden aber andere wie Computerbase, Hardwareluxx, PCGH etc. schon. Professionell ist es sich damit intern und mit Nvidia auseinander zu setzen aber nicht so ein Artikel. Der dürfte wohl kaum dazu beitragen die Situation zu verbessern.

Avalox
2012-04-13, 09:32:01
Es kann natürlich auch eine Kombination aus mehreren Gründen sein. Ist für mich alles nachvollziehbar. Vielleicht sollte die Ct / Heise einfach überlegen, wieso sie nicht bedacht wurden aber andere wie Computerbase, Hardwareluxx, PCGH etc. schon. Professionell ist es sich damit intern und mit Nvidia auseinander zu setzen aber nicht so ein Artikel. Der dürfte wohl kaum dazu beitragen die Situation zu verbessern.

Mir als Kunde der c't ist es völlig Wurst ob nun die Grafikkarte über eine Marketing Zuwendung des Herstellers in die Redaktion eintrudelt, oder ob die Redaktion sich diese eine Woche später vom Händler des Vertrauens zuschicken lässt.
Bekomme ich als PC Benutzer halt erst später mit, dass es diese Grafikkarte überhaupt gibt.
Ich sehe es für mich eher als Beleg einer Unabhängigkeit, ein Sachverhalt der mir sehr viel lieber ist, als irgendwelchen platzierten Tests.
Der "Lieferant" sollte mal einen Situationsabgleich durchführen. Wer dort der Schrauber ist und wer der Kunde, bzw. den Kundenzugang hat.
Da ist mir eine Zeitschrift mit ausgeprägter Lesersicht, die auch mal austeilen kann sehr viel lieber. Wer ist denn nVidia? Die wollen mir etwas verkaufen, also sollen sie mal vorsprechen bei denjenigen, welchen ich konsultiere um mir einen Überblick zu verschaffen.

TobiWahnKenobi
2012-04-13, 09:46:08
@avalox

*unterschreib*

so sieht das aus.



(..)

mfg
tobi

Rogue
2012-04-13, 10:55:46
Natürlich hat Avalox recht. Ein objektiver Test ist besser als ein schneller der übereilt durchgezogen wurde nur um mit der Konkurenz zeitlich mitziehen zu können.
Dennoch waren diese angesäuerten Kommentare in Richtung Nvidia seitens der c't total überflüssig und werfen kein gutes Licht auf die Redaktion.

aths
2012-04-13, 11:10:46
Nochmal: weder Nvidia noch AMD noch sonst ein anderer Hardwarelieferant haben eine Verpflichtung jedes Magazin und jede Online Seite mit der Versorgung von Testsamples zu berücksichtigen. Es kann viele Gründe dafür geben das nicht zu tun:

- die Seite/das Magazin testet unprofessionell
- die Seite/das Magazin bricht NDAs
- die Seite/das Magazin verbreitet unwahre Dinge
- der Hersteller fühlt sich von der Seite/dem Magazin permanent benachteiligt
- die Seite/das Magazin hat keine wirkliche Relevanz mehr für die Zielkundschaft des Herstellers
- usw...

Es kann natürlich auch eine Kombination aus mehreren Gründen sein. Ist für mich alles nachvollziehbar. Vielleicht sollte die Ct / Heise einfach überlegen, wieso sie nicht bedacht wurden aber andere wie Computerbase, Hardwareluxx, PCGH etc. schon. Professionell ist es sich damit intern und mit Nvidia auseinander zu setzen aber nicht so ein Artikel. Der dürfte wohl kaum dazu beitragen die Situation zu verbessern.
Vielleicht ist es aber auch gut, dass die bei Heise sich eben nicht überlegen, wie sie Nvidias Wohlwollen erwerben, sondern den Hardwaremarkt weiterhin kritisch begleiten.

hardtech
2012-04-13, 11:43:01
heise und ccc sind noch die am meisten unabhängigen magazine/organisationen.
andere rühmen sich zwar mit der Unabhängigkeit, was meinst du aber, was bei denen los ist, wenn ein microsoft oder logitech Produkt nicht an 1. stelle im Test steht, sondern ein 3. Hersteller mit seinem Produkt über denen steht. dann bekommen die pose anrufe.
"man sägt halt nicht den Ast ab, auf dem man gerade sitzt." so das vorherrschende Abbild der Realität. was auf der einen Seite logisch und nachvollziehbar ist, auf der anderen Seite nichts mit unabhängigen unvoreingenommenen Bewertungen zu tun hat. praktisch kommt man aus dem Dilemma nicht raus.

Rogue
2012-04-13, 13:22:56
Das Dilemma sind Seiten die beinahe nur Hype-Tests fabrizieren und genug gutgläubige die darauf hereinfallen. Bloß woher soll der gutgläubige Nicht-Technik-Crack die Info nehmen wem er trauen kann und wem nicht?

Tests bei CB lese ich mir schon garnicht mehr durch. Da krieg ich bloß hohen Blutdruck.

aths
2012-04-13, 14:59:10
Alle haben unterschiedliche Interessen.

Das Magazin macht praktisch das Angebot "Zahle X Euro und spare mehr beim nächsten Hardware-Kauf." Der Hardware-Hersteller will sein Produkt auch dann im besten Licht sehen, wenn es nicht das beste verfügbare Produkt ist. Die PR-Abteilung baut dazu eine Scheinwelt auf und versucht, den Journalisten als Marketing-Kanal zu nutzen.

Doch auch nicht alle Leser wollen wirklich unabhängig informiert werden, viele lesen einfach die Berichte von dem was sie kaufen und haben dann das gute Gefühl, das Geld sinnvoll angelegt zu haben.

Bei Nvidia ist nun noch das Problem, dass deren Kunden nicht wir Endanwender sind, sondern die Graka-Hersteller.

M4xw0lf
2012-04-13, 16:14:47
Nochmal: weder Nvidia noch AMD noch sonst ein anderer Hardwarelieferant haben eine Verpflichtung jedes Magazin und jede Online Seite mit der Versorgung von Testsamples zu berücksichtigen. Es kann viele Gründe dafür geben das nicht zu tun:

- die Seite/das Magazin testet unprofessionell
- die Seite/das Magazin bricht NDAs
- die Seite/das Magazin verbreitet unwahre Dinge
- der Hersteller fühlt sich von der Seite/dem Magazin permanent benachteiligt
- die Seite/das Magazin hat keine wirkliche Relevanz mehr für die Zielkundschaft des Herstellers
- usw...

Es kann natürlich auch eine Kombination aus mehreren Gründen sein. Ist für mich alles nachvollziehbar. Vielleicht sollte die Ct / Heise einfach überlegen, wieso sie nicht bedacht wurden aber andere wie Computerbase, Hardwareluxx, PCGH etc. schon. Professionell ist es sich damit intern und mit Nvidia auseinander zu setzen aber nicht so ein Artikel. Der dürfte wohl kaum dazu beitragen die Situation zu verbessern.

Und wo passen c't und Ht4u jetzt zu deinen Ausführungen?
Dazu hat professioneller Journalismus geradezu die Pflicht, nicht stillschweigend alles zu schlucken was einer Firma so einfällt.

Hugo78
2012-04-13, 18:33:12
"Professioneller Journalismus" wäre sich ein Sample aus unabhäniger Quelle zubesorgen, sprich aus dem Handel.
Vom Geld her bricht sich da kein Tester einen ab, denn zur Not gilt hier das 14 tägige Rückgaberecht.

y33H@
2012-04-13, 18:40:26
Bei vielen Launches, also alles was nicht High-End ist, samplen AMD und NV eh nicht, sondern man "muss" den Weg über die AIBs oder Retail nehmen.

aths
2012-04-13, 18:45:34
Und HT4U. Auf den Test warte ich immer noch ^^
Mir ist ein HT4U-Test lieber als ein passend zum Launch erschienener Standard-Test. In der kurzen Zeit in der ich Peter Gräber persönlich gesprochen habe, wurde mir aber bewusst, dass ich es mit einem Vollprofi zu tun habe.

y33H@
2012-04-13, 18:57:28
Hehe, der gute Peter. Bin auch auf den Test gespannt ... when it's done :usad:

gogetta5
2012-04-13, 19:33:31
Ich find den Artikel von P3Dnow und weiterführenden Seiten auch ganz Interessant, vorallem der von TweakTown.

Wenn sich sonst immer mit den Redaktionen auseinandergesetzt wurde, warum dann auf einmal nicht mehr?

Selbst wenn irgenterwas verbrochen wurde, hätten sie doch wenigstens erfahren dürfen, was es war.

Ich finde das durchaus auch sehr schade, denn ich lese mir gerne mehrere Artikel zu einem launch durch.
Hoffentlich wirds nächstes mal besser :)

Mancko
2012-04-13, 21:12:15
Mir als Kunde der c't ist es völlig Wurst ob nun die Grafikkarte über eine Marketing Zuwendung des Herstellers in die Redaktion eintrudelt, oder ob die Redaktion sich diese eine Woche später vom Händler des Vertrauens zuschicken lässt.
Bekomme ich als PC Benutzer halt erst später mit, dass es diese Grafikkarte überhaupt gibt.
Ich sehe es für mich eher als Beleg einer Unabhängigkeit, ein Sachverhalt der mir sehr viel lieber ist, als irgendwelchen platzierten Tests.
Der "Lieferant" sollte mal einen Situationsabgleich durchführen. Wer dort der Schrauber ist und wer der Kunde, bzw. den Kundenzugang hat.
Da ist mir eine Zeitschrift mit ausgeprägter Lesersicht, die auch mal austeilen kann sehr viel lieber. Wer ist denn nVidia? Die wollen mir etwas verkaufen, also sollen sie mal vorsprechen bei denjenigen, welchen ich konsultiere um mir einen Überblick zu verschaffen.

Sorry ich will Dir ja nicht zu nahe treten aber wenn du als Grafikarten Enthusiast Kunde auf Tests in der Ct wartest bist Du leider im promille Bereich, sprich wirklich von kaum Relevanz für den Hardwarelieferanten. Bei den beschränkten Mengen an Kapazitäten wissen die Hersteller doch sowieso dass ihre Produkte gekauft werden. Da würde ich genauso priorisieren und erstmal die Medien beliefern, wo die meisste Kundschaft für derartige Produkte vorhanden ist und das ist nunmal nicht die Ct.

Vielleicht ist es aber auch gut, dass die bei Heise sich eben nicht überlegen, wie sie Nvidias Wohlwollen erwerben, sondern den Hardwaremarkt weiterhin kritisch begleiten.

Naja also die Grafikkartentests bei heise.de sind doch primär unter dem Durchschnitt. Das ist für die Community absolut kein Verlust. Mir persönlich ist es total latte ob nun Heise Grafikkarten von Nvidia bekommt oder nicht. Die Kundschaft für eine GTX680 oder HD7970 ließt primär wo anders.

Und wo passen c't und Ht4u jetzt zu deinen Ausführungen?
Dazu hat professioneller Journalismus geradezu die Pflicht, nicht stillschweigend alles zu schlucken was einer Firma so einfällt.
Ich weiß nicht wozu sie passen. Ich kenne die Hintergründe nicht im Detail. Nvidia wird schon seine Gründe gehabt haben. Das ist denen ihr gutes Recht. Es gibt wie gesagt keine Verpflichtung jeden zu informieren oder mit Testmustern zu versorgen.

aths
2012-04-13, 21:20:54
Sorry ich will Dir ja nicht zu nahe treten aber wenn du als Grafikarten Enthusiast Kunde auf Tests in der Ct wartest bist Du leider im promille Bereich, sprich wirklich von kaum Relevanz für den Hardwarelieferanten. Bei den beschränkten Mengen an Kapazitäten wissen die Hersteller doch sowieso dass ihre Produkte gekauft werden. Da würde ich genauso priorisieren und erstmal die Medien beliefern, wo die meisste Kundschaft für derartige Produkte vorhanden ist und das ist nunmal nicht die Ct.



Naja also die Grafikkartentests bei heise.de sind doch primär unter dem Durchschnitt. Das ist für die Community absolut kein Verlust. Mir persönlich ist es total latte ob nun Heise Grafikkarten von Nvidia bekommt oder nicht. Die Kundschaft für eine GTX680 oder HD7970 ließt primär wo anders.
Dir ist es egal. Gut. Anderen ist es nicht egal. c't ist nach wie vor ein großes seriöses Magazin, das Einfluss hat. Es spricht nicht gerade für Nvidia, wenn die so kleinlich sind, c't von Launchmustern auszuschließen. Souveräne Firmen könnten Kritik auf dem Niveau der Heise-Redaktion vertragen und würden diese nutzen, um ihre Produkte zu verbessern.

Hugo78
2012-04-14, 09:16:38
Souveräne Firmen könnten Kritik auf dem Niveau der Heise-Redaktion vertragen und würden diese nutzen, um ihre Produkte zu verbessern.

Da verlink doch mal bitte diese "niveauvolle Kritik", damit auch nicht-Heise/c't-Leser sich ein Bild von ihrem Stil machen können.

Mancko
2012-04-14, 22:41:56
Da verlink doch mal bitte diese "niveauvolle Kritik", damit auch nicht-Heise/c't-Leser sich ein Bild von ihrem Stil machen können.

Wollt ich auch grad sagen. Das Niveau ist doch eher unterirdisch - um nicht zu sagen nicht vorhanden.

aths
2012-04-14, 22:48:26
Bei einigen Leuten hier im Thread würde ich mir auch etwas mehr Niveau wünschen.

Hugo78
2012-04-15, 00:58:44
Schön, leider hab ich jetzt immernoch kein Bild davon was Heise vorab veröffentlicht hat, dass sie von NV kein Support mehr bekommen.
ht4u hatte anscheinend einfach nur Pech das sie NVs aktuelles, recht konsequentes Anti Leak Prozedere nicht einhalten konnten, was ich pers. sehr schade finde.
Aber das ist dann wohl die Kehrseite davon, wenn die Redaktionen allgemein es Leid sind, dass Leaks den Release versauen.
Marc und Raff hatten sich hier auch schon in der Form geäussert, wenn NV es nicht hinbekommen hatte vor dem Release ihre Löcher zustopfen.
Was ja auch soweit legitim ist, denn es ist auch NVs Aufgabe ein NDA durchzusetzen.

Aber im Falle von Heise hab ich bisher den Eindruck, dass sie (Heise/c't) schlicht Infos verbreitet haben, die unter NDA standen.
Dazu noch der allgemein geringschätzende Tonfall den Heise/c't ohne NOt die letzten Jahre in bezug auf NV angeschlagen hatten, ... na ja selbst Schuld.

Nv ist nicht verpflichtet Testmuster zuliefern und Heise kann sich auch Muster bei Händler XY ordern, wenn sie doch wild aufs testen wären.

Aber das wollen sie garnicht, wollen scheinbar lieber rumjammern ... wenns schön macht, bitte sehr.

aths
2012-04-15, 01:18:14
Dass Nv verpflichtet wäre, jedem Testmuster zu liefern, sagt keiner. Es wirkt nur von außen ziemlich unsouverän, wenn man praktisch nur die Hofdichter mit Samples beliefert. Die c't ist generell kritisch, die ziehen ja nicht AMD Nvidia vor.

Das "selbst schuld" impliziert, dass Heise lieber auf die Wünsche Nvidias eingehen sollte. Das machen schon genug Publikationen, finde ich. Die teils spitz formulierten Seitenhiebe der c't sind in anderen Genres (wie der Politik) ganz normal. Dass die Hersteller sich zum Teil nach Gutsherrenart ihre Tester aussuchen können, zeigt imo, dass es zu wenige Magazine wie die c't gibt. Wichtig ist doch, ob die von der c't dargestellten Fakten stimmen. Wenn sie die Marketing-Welt eines Herstellers dann mit der Realität vergleichen, kann das schon mal zurecht mit etwas Häme formuliert werden. Schließlich könnte ein Hersteller sein Produkt auch mit realistischen Vergleichen anpreisen.

Wir brauchen imo keine Reviews die unsere gekauften Produkte noch mal schön loben, sondern Leute die wirklich kritisch testen. Sonst werden die Hersteller zu faul und verkaufen uns Quincunx als sinnvolles Antialising (Nvidia) oder 3Dc als 4:1-Komprimerung (in Wahrheit: 2:1.)

Philipus II
2012-04-15, 01:54:06
"Professioneller Journalismus" wäre sich ein Sample aus unabhäniger Quelle zubesorgen, sprich aus dem Handel.
Vom Geld her bricht sich da kein Tester einen ab, denn zur Not gilt hier das 14 tägige Rückgaberecht.
Partner im Handel findet man recht leicht. Man bekommt das Sample so früh wie möglich, darf es zwei bis drei Wochen behalten und zahlt gegen Nennung des Sponsors nichtmal Versandkosten.
Das Problem: man ist halt etwas später dran als der Rest der Redaktionen. Erfahrungsgemäß kostet das leider Leser.

Pixelfehler
2012-04-16, 08:22:17
Dass Nv verpflichtet wäre, jedem Testmuster zu liefern, sagt keiner. Es wirkt nur von außen ziemlich unsouverän, wenn man praktisch nur die Hofdichter mit Samples beliefert. Die c't ist generell kritisch, die ziehen ja nicht AMD Nvidia vor.

Das "selbst schuld" impliziert, dass Heise lieber auf die Wünsche Nvidias eingehen sollte. Das machen schon genug Publikationen, finde ich. Die teils spitz formulierten Seitenhiebe der c't sind in anderen Genres (wie der Politik) ganz normal. Dass die Hersteller sich zum Teil nach Gutsherrenart ihre Tester aussuchen können, zeigt imo, dass es zu wenige Magazine wie die c't gibt. Wichtig ist doch, ob die von der c't dargestellten Fakten stimmen. Wenn sie die Marketing-Welt eines Herstellers dann mit der Realität vergleichen, kann das schon mal zurecht mit etwas Häme formuliert werden. Schließlich könnte ein Hersteller sein Produkt auch mit realistischen Vergleichen anpreisen.

Wir brauchen imo keine Reviews die unsere gekauften Produkte noch mal schön loben, sondern Leute die wirklich kritisch testen. Sonst werden die Hersteller zu faul und verkaufen uns Quincunx als sinnvolles Antialising (Nvidia) oder 3Dc als 4:1-Komprimerung (in Wahrheit: 2:1.)

Dem ist eigentlich nichts hinzuzufügen, genau meine Meinung. Ich lese auch seit Jahren die c't, habe aber bei den Graka-Tests immer etwas Bauchweh, die sind doch etwas oberflächig.

Hugo78
2012-04-16, 09:04:02
Es wirkt nur von außen ziemlich unsouverän, wenn man praktisch nur die Hofdichter mit Samples beliefert.
Jetzt werden die Redaktionen die Sample bekommen automatisch zu Hofberichterstattern?!
Wie schwarz / weiß ist das denn bitte?

Das "selbst schuld" impliziert, dass Heise lieber auf die Wünsche Nvidias eingehen sollte.
Ne es geht um NDA Bruch und ohne Not Müll über NV schreiben.
Alles andere ist verschwörungsthoretischer Quark.

Die teils spitz formulierten Seitenhiebe der c't sind in anderen Genres (wie der Politik) ganz normal.
Heise/c't verkauft sich selbst als seriöses Magazin, nicht als Satireblatt a la Titanic.


Dass die Hersteller sich zum Teil nach Gutsherrenart ihre Tester aussuchen können, zeigt imo, dass es zu wenige Magazine wie die c't gibt.

Gutsherrenart ... oh mann.
Nochmal, Nvidia ist zu nichts verpflichtet, zu nichts, zu garnichts.

Genauso können auch Magazine Tests ablehnen.
Macht Heise ja offensichtlich, denn die Alternative, sich Karten aus unabhängiger Quelle => dem Handel zubesorgen, machen sie ja auch nicht.

aths
2012-04-16, 09:56:00
Jetzt werden die Redaktionen die Sample bekommen automatisch zu Hofberichterstattern?!
Wie schwarz / weiß ist das denn bitte?

Ne es geht um NDA Bruch und ohne Not Müll über NV schreiben.
Alles andere ist verschwörungsthoretischer Quark.

Heise/c't verkauft sich selbst als seriöses Magazin, nicht als Satireblatt a la Titanic.

Gutsherrenart ... oh mann.
Nochmal, Nvidia ist zu nichts verpflichtet, zu nichts, zu garnichts.

Genauso können auch Magazine Tests ablehnen.
Macht Heise ja offensichtlich, denn die Alternative, sich Karten aus unabhängiger Quelle => dem Handel zubesorgen, machen sie ja auch nicht.
Satzweises Zitieren ist ermüdend. Dass Nvidia zu irgendwas verpflichtet wäre, sagt hier keiner. Imo greifst du hier einen Strohmann an. Ich wüsste jetzt nicht wo die c't "Müll" geschrieben habe über NV oder wo ein NDA-Bruch vorliegt (hatte die c't ein NDA?) Dass sie die Firma nicht mit Samthandschuhen anfassen, ist kein Nvidia-spezifisches Problem. Die schreiben was sie denken, die c't-Redakteure sind Persönlichkeiten.

Ich habe nicht jeden von NV mit Samples ausgestatteten Redakteur einen Hofberichtserstatter genann, sonderrn Nvidia vorgeworfen, am liebsten nur an Hofdichter Samples zu liefern. Souveränität sieht anders aus. Allerdings ist auch das kein NV-spezifisches Problem soweit ich das mitbekommen, auch andere Firmen versuchen durch Samplepolitik die Leute an die Kandarre zu nehmen. Uns potenziellen Kunden sollte das nicht recht sein.

DerKleineCrisu
2012-04-16, 10:51:16
Dem ist eigentlich nichts hinzuzufügen, genau meine Meinung. Ich lese auch seit Jahren die c't, habe aber bei den Graka-Tests immer etwas Bauchweh, die sind doch etwas oberflächig.

Jupp wobei mir echt gesagt doch schon diese Stellenweise " Mini-Tests "
lieber sind als das was Zeitschriften aller " Gamestar " oder " PCGames " einem
an den Kopf werfen. Bei diesen Zeitschrifen kommt es mir manchmal vor als
wären ihre Tests doch mal in die eine oder andere Richtig " Weichgespült " ;) .

grüße

Hugo78
2012-04-16, 11:41:01
Satzweises Zitieren ist ermüdend.
Ja, aber scheinbar notwendig wenn ich mir deinen Text von der selbstgewählten Opferrolle so anschaue.


Ich wüsste jetzt nicht wo die c't "Müll" geschrieben habe über NV oder wo ein NDA-Bruch vorliegt (hatte die c't ein NDA?)

Sie selber schreiben das sie kein Testexemplar bekommen haben, weil sie vorab Infos veröffentlicht hatten.
Sie schreiben nicht dazu was es war, die Eier haben sie nicht und ich hatte schonmal hier mit Adresse an die ct Leser gefragt, was das denn wohl war.

Ich wette es war irgendein Unsinn von SemiAccurate den Heise in letzter Zeit ja häufig einfach übernimmt und somit auch noch adelt.
Und wenn nicht, wird es NDA oder NDA artiges Material gewesen sein.


Ich habe nicht jeden von NV mit Samples ausgestatteten Redakteur einen Hofberichtserstatter genann, sonderrn Nvidia vorgeworfen, am liebsten nur an Hofdichter Samples zu liefern.

Also liefert Nvidia auch an kritische Redaktionen, ja?!
Oder zumindest an solche die objektiv bei ihrer kritischen Haltung bleiben...
Dann macht Heise was verkehrt.

Und nochmal wir reden hier über ein 500€ Produkt, dass heise sogar steuerlich absetzen kann.
In dem Fall braucht man auch nicht Hersteller XY oder Webshop XY, für das Sample danken.

N0Thing
2012-04-16, 11:42:51
Heise/c't verkauft sich selbst als seriöses Magazin, nicht als Satireblatt a la Titanic.

Jede seriöse Tages- und Wochenzeitung kommentiert und kritisiert politische Entscheidungen, Vorschläge und auch die Politiker und Beteiligten. Bei der ZEIT findet sich z.B. oft schon auf der Titelseite(!) ein Kommentar zu einem aktuellen Thema, wo die Samthandschuhe in der Schublade bleiben.

Der Kommentar der c't ist weit ab des Stils der Titanic.

Hugo78
2012-04-16, 15:11:36
Jede seriöse Tages- und Wochenzeitung kommentiert und kritisiert politische Entscheidungen, Vorschläge und auch die Politiker und Beteiligten.

Und für falsche Unterstellungen und Halbwahrheiten müssen sich auch hier Autoren verantworten.

Und btw ...
Entscheidungen in der Politik betreffen Menschen ob sie wollen oder nicht.

Aber es zwingt niemand Nvidias Produkte zukaufen.
Genauso wie Nvidia kein Magazin dazu zwingt ihre Produkte zum Release zutesten.

Das läuft auf freiwilliger Basis.
Und diese Basis braucht Vertrauen in auf eine faire, objektive Beurteilung.
Offenbar hat Nvidia dieses Vertauen in Heise nicht mehr.

Ist auch kein Wunder, wenn Heise zb. Produkte madig macht, die noch nicht mal ihr Tape Out hinter sich haben.

Heises Schussfolgerung zu den Tegra4 Gerüchten bei VR Zone.
dass die Chips weder besonders sparsam noch kühl sein werden.
- http://www.heise.de/ct/meldung/Nvidia-CPUs-Tegra-4-vermutlich-mit-neuen-ARM-Kernen-1519570.html

Schon komisch.
Heise fällt nicht auf, dass Nvidia in Zukunft einfach ihr Angebot verbreitert und dabei einfach mehr unterschiedliche SoCs für unterschiedliche mobile Bereiche anbieten wird.

DerKleineCrisu
2012-04-16, 15:19:41
Heises Schussfolgerung zu den Tegra4 Gerüchten bei VR Zone.

Wenn dann bitte den ganzen abschnitt und nicht nur Teile davon

Für Ende 2013 steht dann mit T43 noch ein 200-MHz-Nachschlag in Aussicht.
Der Zielmarkt High-End-Tablets mit 10"-Display und Geräte zum Aufklappen ("Clamshell") -- sprich: Netbooks --
liefert einen ersten Hinweis darauf, dass die Chips weder besonders sparsam noch kühl sein werden.
Von Smartphones ist jedenfalls keine Rede.

So sieht es schon mal ganz anders aus.;)

HOT
2012-04-16, 16:07:47
Die Firmen versuchen seit Jahren die Redaktionen unter Druck zu setzen mit ihrer Sample-Politik, eben weil viele Redaktionen meinen, sie müssten bei den ersten sein, die veröffentlichen (in gewissem Sinne stimmt das sogar, Leser sind nunmal ungeduldig). Es geht nicht darum, dass NV "böse" oder die c't "beleidigt" ist. Das sind Unternehmen, die haben keine Emotionen. Es geht ums Geschäft, sonst nix. Ein Testsample zu verweigern, ausgerechnet, an die wichtigste deutsche Computerredaktion, ist einfach eine Nutzen/Lasten-Rechnung. NV ist offenbar der Meinung, dass die eigene Zielgruppe kaum von der c't angesprochen wird und die Kritik trotzdem ankommt. Also entscheidet man sich dagegen, der c't ein Sample zu schicken. Und Heise ist es eben nicht gewohnt, politisch ausgebootet zu werden. Was NV aber übersieht, ist, wenn das Beispiel Schule macht könnte und die kritischen Redaktionen großflächig gemieden werden, dass auch das Technikinteresse der Zielgruppe sinkt. Das ist ein gefährliches Spiel, was NV da begonnen hat. Man darf nicht vergessen, dass es eigentlich garnicht so gut um die Zukunft von NV bestellt ist. Tegra stagniert seit Erscheinen der ersten Generation vor sich hin, Tegra3 machts nicht besser, den Konsolenmarkt hat man sinnlos verschenkt und der Stern des PC-Spiele-Marktes ist schon seit Jahren am sinken. Intels und AMDs PC-SoC-Vorboten (Fusion bzw. GPU-Integration) wird langfristen den Markt für kleine Grafikkarten ersatzlos wegfallen lassen, I/O-Produkte wie Chipsätze sind für NV ja schon gestorben (besser sinnlos aufgegeben worden). NV droht ganz klar gegen AMD, Samsung und Apple (durch PowerVR) unter die Räder zu kommen.

Hugo78
2012-04-16, 16:35:44
So sieht es schon mal ganz anders aus.;)

Nicht ein Stück weit.
Ausser natürlich man will der einfälligen Logik von Heise folgen.

Gipsel
2012-04-16, 16:40:55
Sie selber schreiben das sie kein Testexemplar bekommen haben, weil sie vorab Infos veröffentlicht hatten.
Sie schreiben nicht dazu was es war, die Eier haben sie nicht und ich hatte schonmal hier mit Adresse an die ct Leser gefragt, was das denn wohl war.

Ich wette es war irgendein Unsinn von SemiAccurate den Heise in letzter Zeit ja häufig einfach übernimmt und somit auch noch adelt.
Und wenn nicht, wird es NDA oder NDA artiges Material gewesen sein.Die ct hat vorab (als Einzige) korrekt über den Turbo-Mode berichtet, soweit ich weiß.

aths
2012-04-16, 21:25:59
Ja, aber scheinbar notwendig wenn ich mir deinen Text von der selbstgewählten Opferrolle so anschaue.

Sie selber schreiben das sie kein Testexemplar bekommen haben, weil sie vorab Infos veröffentlicht hatten.
Sie schreiben nicht dazu was es war, die Eier haben sie nicht und ich hatte schonmal hier mit Adresse an die ct Leser gefragt, was das denn wohl war.

Ich wette es war irgendein Unsinn von SemiAccurate den Heise in letzter Zeit ja häufig einfach übernimmt und somit auch noch adelt.
Und wenn nicht, wird es NDA oder NDA artiges Material gewesen sein.

Also liefert Nvidia auch an kritische Redaktionen, ja?!
Oder zumindest an solche die objektiv bei ihrer kritischen Haltung bleiben...
Dann macht Heise was verkehrt.

Und nochmal wir reden hier über ein 500€ Produkt, dass heise sogar steuerlich absetzen kann.
In dem Fall braucht man auch nicht Hersteller XY oder Webshop XY, für das Sample danken.
Häää, wo nehme ich denn eine Opferrolle ein?

Wem Eier fehlen und was seriöser Journalismus ist, bringst du glaube ich durcheinander. Du weißt (genauso wenig wie ich) was der ausschlaggebende Grund war, aber "wettest" dass es Unsinn von Semiaccurate oder NDA-Bruch war. So spielt man Tennis ohne Netz.

Screemer
2012-04-17, 01:22:40
Nicht ein Stück weit.
Ausser natürlich man will der einfälligen Logik von Heise folgen.
dein völlig aus dem zusammenhang gerissener ausschnitt, stachelt zu unsinnigen schlussfolgerungen bzgl. der intention des heise verlags an. die ganze passage zeigt wie die redaktion zu diesem, für mich, logischen schluss kam. ob es so sein wird ist wiederum eine andere frage. kannst du eigentlich einmal nv nicht als das opfer, welches sie gar nicht sind, darstellen?

Hugo78
2012-04-17, 08:27:21
In der Liste werden die typischen empfohlen Ausbaustufen angeben, kein "nur hier und nicht tiefer".
Genauso wie Tegra 3 vom Smartphone bis hoch zu 10" Tablets verbaut wird, wird auch Tegra 4 in Zukunft alle diese Formfaktoren bedienen
und dann zusätzlich ebend auch in Win8 Netbooks zum Einsatz kommen.

GSXR-1000
2012-04-17, 09:41:09
"Professioneller Journalismus" wäre sich ein Sample aus unabhäniger Quelle zubesorgen, sprich aus dem Handel.
Vom Geld her bricht sich da kein Tester einen ab, denn zur Not gilt hier das 14 tägige Rückgaberecht.
Eine asozialere Aussage geht kaum.
Soll das Magazin halt auf kosten des Händlers testen. Das gesetz erlaubt es ja.
Ich glaube kaum, das irgendein gesetz in deutschland ein solches vorgehen vorsieht oder abdeckt.
Gott was kotzt es mich an an jeder stelle diese mitnehmermentalität und bescheissermentalität zu lesen.
Wegen so idioten wäre ich absolut dafür dieses unselige FAG wieder abzuschaffen....

Hugo78
2012-04-17, 11:04:47
Entspann dich mal, ich hab diese "Assi Möglichkeit" in den Raum geworfen damit nicht irgendwelche Leute mit dem Geldargument kommen.
Denn es gibt abseits von Heise ja auch kleine Testbuden.

Ein Unternehmen wie Heise kann sich Testsamples auch als Ausgaben von der Steuer absetzen, genau wie ihre Flugreisen ect. pp.

Für die kostet das so oder so nichts.

YfOrU
2012-04-17, 11:14:23
In der Liste werden die typischen empfohlen Ausbaustufen angeben, kein "nur hier und nicht tiefer".
Genauso wie Tegra 3 vom Smartphone bis hoch zu 10" Tablets verbaut wird, wird auch Tegra 4 in Zukunft alle diese Formfaktoren bedienen
und dann zusätzlich ebend auch in Win8 Netbooks zum Einsatz kommen.

Quad A15 + adäquate GPU kombiniert mit entsprechend dimensionierten Speicherinterface wird trotz 28nm für Smartphones ziemlich grenzwertig.

Im besten Fall wird es ein paar einzelne Modelle geben aber der ganz große Teil der Smartphones wird auch 2013 weiter Dual A9 haben bzw. Dual A15 bekommen.
Des weiteren wird die Schere zwischen Smartphone und Tablet/Netbook etc. bei den Anforderungen an den SoC gerade in Bezug auf die benötigte GPU Leistung größer. Optimal abzudecken ist das praktisch nur über deutlich voneinander abweichende Ausbaustufen und damit unterschiedliche SoC Designs.

Hugo78
2012-04-17, 11:28:46
Ist sicher richtig, deshalb verbreitet NV ja auch sein Angebot in Zukunft.
Aber ebend solche Überlegungen erwarte ich auch von dem vermeindlichen "Leitmedium" heise/c't.

Stattdessen kommt hier ComputerBild Logik zum Einsatz.

YfOrU
2012-04-17, 11:57:34
Der entsprechende Tegra 4 mit Eignung für Smartphones ist allerdings kein A15 sondern Quad A9 mit LTE (und garantiert kleinerer GPU). Unter 28nm sicher unproblematisch und prinzipiell eine passende und günstige Lösung für den Massenmarkt.
Wenn das aber wirklich Q3/2013 werden sollte ist man ziemlich spät am Markt denn es sieht nicht so aus als wäre T37 (Tegra3 28nm) deutlich mehr als ein Prozesswechsel.

Spät vor allen deshalb weil sowohl Qualcomm als auch Samsung bis dahin vergleichbare Produkte (28nm / 32nm) bereits ein Jahr in Volumen verfügbar haben.

Hugo78
2012-04-17, 12:36:29
Das mit dem Volumen ist ja aktuell der Knackpunkt warum NV Tegra3 noch nicht 28nm bringt.
Und ohne eine Yield die eine entsprechende Marge erlaubt, schaut das auch woanders nicht besser aus.

Die verfügbaren Geräte mit 28nm zeigen dass ja auch.
Also kenne ich nur das HTC One S das es in den Verkauf geschaft hat.

YfOrU
2012-04-17, 13:09:52
Qualcomm kann momentan für 28nm Krait SoCs mit integrierter (Multimode) LTE Baseband verlangen wozu sie lustig sind und es würde trotzdem abgenommen werden. Es gibt keine Konkurrenz und der Markt (Provider) verlangt nach global brauchbaren LTE Produkten. Die gibt es momentan nur mit integrierter 28nm Baseband von Qualcomm.

Bis zur realen Verfügbarkeit von zur MWC präsentierten Geräten ist es gerade was Europa betrifft fast immer Ende Q2/Q3 und deshalb hab ich auch ein Jahr Differenz geschrieben und nicht mehr ;).

Samsung wird mit dem Galaxy S3 und einem 32nm SoC ebenfalls in diesen Zeitraum fallen. Für Apple wird hier bereits seit geraumer Zeit ein 32nm A5 Refresh in Volumen produziert (iPad 2 16GB und aTV).

ndrs
2012-04-17, 14:01:46
Ein Unternehmen wie Heise kann sich Testsamples auch als Ausgaben von der Steuer absetzen, genau wie ihre Flugreisen ect. pp.

Für die kostet das so oder so nichts.
Den Zusammenhang zwischen dem ersten und zweiten Satz versteh ich nicht.

|MatMan|
2012-04-17, 20:14:33
Den Zusammenhang zwischen dem ersten und zweiten Satz versteh ich nicht.
Dazu kommt noch, dass das von ihm genannte 14 Tage Rückgaberecht nur für Privatpersonen gilt. Sollen sich die heise Redakteure die Testsamples wohl privat bestellen und nach hause schicken lassen ;D

Raff
2012-04-17, 20:17:56
Eine asozialere Aussage geht kaum.
Soll das Magazin halt auf kosten des Händlers testen. Das gesetz erlaubt es ja.
Ich glaube kaum, das irgendein gesetz in deutschland ein solches vorgehen vorsieht oder abdeckt.
Gott was kotzt es mich an an jeder stelle diese mitnehmermentalität und bescheissermentalität zu lesen.
Wegen so idioten wäre ich absolut dafür dieses unselige FAG wieder abzuschaffen....

Wenn überhaupt, dann fragt man als Redaktion einen Händler wie Alternate, Caseking, Notebooksbilliger & Co. nach einem Testmuster. Das übliche Zusammenspiel besteht daraus, die Teststellung im Artikel dankend zu erwähnen, das Produkt pfleglich zu behandeln und innerhalb des gewünschten Zeitrahmens zurückzuschicken. Die können dann aber nicht mehr als neu verkauft werden.

MfG,
Raff

M4xw0lf
2012-04-17, 20:58:32
Die können die Teile doch dann als "PCGH-tested" verkaufen, mit Aufschlag :D

Hugo78
2012-04-18, 08:06:44
Dazu kommt noch, dass das von ihm genannte 14 Tage Rückgaberecht nur für Privatpersonen gilt. Sollen sich die heise Redakteure die Testsamples wohl privat bestellen und nach hause schicken lassen ;D

Bingo.

aths
2012-04-18, 10:03:22
Das würde eine seriöse Redaktion, wie im Heise-Verlag, natürlich nicht machen.

Hugo78
2012-04-18, 12:28:30
Btw ... ich seh grad Heise hatte doch zum Release von irgendwoher ein Sample bekommen... :rolleyes:

http://www.heise.de/newsticker/meldung/GeForce-GTX-680-Sparsame-Turbo-Karte-fuer-500-Euro-1478089.html

Damit ist doch klar das die kein NDA unterschreiben, mit GPU Boost Details vor Release hausieren gehen und so anderen Redaktionen,
die deutlich mehr Aufwand für ihre Tests betreiben aber ein NDA brauchen um an ein Sample zukommen, an die Karre pissen.

Und dann stellen sich die Heuchler auch noch als Opfer dar.
Super Nummer... :uclap:

PHuV
2012-04-18, 13:13:49
Ich verstehe die Aufregung über die c't-Bemerkung hier nicht. Ich empfand sie weder störend noch unpassend, und ich fand die Bemerkung interessant, einfach um auch mal etwas zu erfahren, was im Hintergrund so abläuft. Die neue GTX 680 wurde dadurch weder schlechter noch besser getestet, es war im Rahmen des c't üblichen Tests. Er hat doch gar nicht so schlecht abgeschnitten, fand ich.

eratte
2012-04-18, 13:25:06
@Hugo78 FanBoy detecet - du hast natürlich den vollen Durchblick. Leg mal deine Brille ab, beschränke die Sache nicht nur auf NV vs Heise und erkenne das das Verhalten von nv fragwürdig ist.

Captain Future
2012-04-18, 17:40:43
Kennt wer die komplette Geschichte oder macht ihr euch alle nur anhand dieser paar Zeilen aus dem Prozessorgeflüster wuschig?

Kartoffel123
2012-04-20, 19:53:25
Manche Leser und Konsumenten von Hardwareseiten meinen wohl die Weisheit mit dem Löffeln gegessen zu haben.

Um mal etwas klarzustellen: wenn Hardwareseite X über ein Produkt berichtet, mit dessen Hersteller sie ein NDA unterschrieben hat, dann muss man unterscheiden zwischen Leak und die einfache, aufbereitete Wiedergabe von Informationen die bereits im (überwiegen asiatischen) Internet rumschwirren. Man kann einem Hardwaremagazin nicht vorwerfen und auch nicht von ihr verlangen, dass Sie Informationen die bereits anderswo publiziert wurden, nicht auch wiedergibt.

Es ist doch so, dass die meisten Hardwareseiten nicht hauptberuflich von den Redakteuren betrieben werden, sondern diese ihre Freizeit dazu nutzen, keine finanzielle Entschädigung für die aufgewendete Zeit erhalten und sich der Betrieb der Seite zu großen Teilen über Werbung finanziert. Man ist damit schlichtweg dazu verdammt Klicks zu generieren, um nicht im Nirvana des Internets zu landen und um gleichzeitig auch das Testequipment zu finanzieren zu können.

Das Nvidia nun auf solchen Seiten in Deutschland rumhackt und jegliche Informationen zu kommenden Produkten zensiert sehen möchte, während in Asien ein Leak nach dem anderen aufkommt, ist ein Unding. Die deutsche Hardwarelandschaft, hat sich im internationalen Vergleich in den vergangenen 10 Jahren bei Leaks am wenigsten aus dem Fenster gelehnt. Viele Sachverhalte, Bugs und Eigenheiten wurden von deutschen Hardwaremagazinen aufgedeckt, weil hier Journalismus nicht aus blinder Wiedergabe von Marketingfolien und einigen (grünen) Balken besteht. Viele der Anmerkungen und Entdeckungen der Redaktion haben dazu direkt beigetragen das Produkt weiter zu verbessern. Gedankt wird es mit einer Abstrafung vieler Magazine durch keine Bemusterung. Wer solche Beziehungen pflegt, darf sich dann auch gerne dazu öffentlich äußern.

eratte
2012-04-21, 20:21:24
Bei ht4u.net kann man das und den Frust darüber nur in den wenigen Aussagen im Forum nachlesen:

http://ht4u.net/forum/index.php/topic,47282.90.html

Skysnake
2012-04-21, 21:12:21
Das Nvidia nun auf solchen Seiten in Deutschland rumhackt und jegliche Informationen zu kommenden Produkten zensiert sehen möchte, während in Asien ein Leak nach dem anderen aufkommt, ist ein Unding. Die deutsche Hardwarelandschaft, hat sich im internationalen Vergleich in den vergangenen 10 Jahren bei Leaks am wenigsten aus dem Fenster gelehnt. Viele Sachverhalte, Bugs und Eigenheiten wurden von deutschen Hardwaremagazinen aufgedeckt, weil hier Journalismus nicht aus blinder Wiedergabe von Marketingfolien und einigen (grünen) Balken besteht. Viele der Anmerkungen und Entdeckungen der Redaktion haben dazu direkt beigetragen das Produkt weiter zu verbessern. Gedankt wird es mit einer Abstrafung vieler Magazine durch keine Bemusterung. Wer solche Beziehungen pflegt, darf sich dann auch gerne dazu öffentlich äußern.

Tja vielleicht liegt auch GENAU DA das eigentliche Problem. Die wollen einfach keine freie Berichterstattung, die die Produkte als den heiligen Gral anpreist. Wer brauch denn wirklich ganz im ernst ne neue GPU, wenn man es nüchtern betrachtet. Die Hardwaremagazine teilen das mehr oder weniger durchaus mitt, das so manche Aufrüstung zweifelhaft ist. Das schmeckt den Herstellern natürlich ganz und gar nicht.

Kartoffel123
2012-04-21, 23:46:48
Tja vielleicht liegt auch GENAU DA das eigentliche Problem. Die wollen einfach keine freie Berichterstattung, die die Produkte als den heiligen Gral anpreist. Wer brauch denn wirklich ganz im ernst ne neue GPU, wenn man es nüchtern betrachtet. Die Hardwaremagazine teilen das mehr oder weniger durchaus mitt, das so manche Aufrüstung zweifelhaft ist. Das schmeckt den Herstellern natürlich ganz und gar nicht.

Sorry aber das ist Bullshit.

Selbstverständlich ist ein Hersteller nicht sonderlich darüber erfreut, wenn sein Produkt schlecht abschneidet. Doch ist man auf unabhängige Berichterstattung angewiesen, denn kein Käufer, egal ob Retail oder OEM, glaubt irgendwelchen Marketingfolien. Umgekehrt müssen die Magazine nicht zwingend ein offizielles Muster erhalten und können sich ein Bild über das neue Produkt machen, in dem sie es im freien Handel erstehen. Gleichzeitig kann/darf man dann derartiges Verhalten eines Herstellers durchaus Publik machen - du siehst also, dass so ein Verhalten mehr schadet als nützt.

Bezüglich der Aufrüstung bist du auch auf dem Holzweg - gerade bei einem Wechsel in der Fertigung und den damit verbundenen Vorteilen von geringerem Stromverbrauch, besseren Geräuschemissionen, niedrigeren Temperaturen blei gleichzeitig besserer Performance ist eine Aufrüstung sehr wohl sinnvoll von der wohl kaum ein Hardwaremagazinen abraten würde.

y33H@
2012-04-21, 23:55:46
Vor allem bedeutet Aufrüsten ja nicht zwingend GTX 680 statt GTX 580, wer mit einer GTX 460/285 oder HD 6850/5850 ankommt, für den lohnt sich eine GTX 680 oder HD 7970 so oder so.

Skysnake
2012-04-22, 00:00:07
Aufrüsten kostet aber verdammt viel Geld, was sich meist nicht lohnt. Wer nicht >2 Generationen überspringt, für den lohnt sich unter objektiven Gesichtspunkten das Aufrüsten aus wirtschaftlichen Gesichtspunkten fast nie als Gamer.

Charlie hat dazu vor kurzem auch einen ganz passenden Beitrag gebracht.

Kurz zusammengefasst der Tonus:" Für was soll ich ne neue CPU/GPU kaufen, mit der ich statt 4 BD Filmen 5 parallel schauen kann, wenn ich praktisch eh nur einen anschauen kann."

Das bekommen alle Hersteller von Computerhardware zu spüren. Nur Marketing schafft es eben, den Leuten was an zu drehen, was Sie eigentlich gar nicht brauchen in vielen Fällen.

Und je stärker die SoCs/APUs werden, desto mehr werden Sie die dezidierten GPUs verdrängen. Wer gibt schon irsinnig viel Geld aus, wenn der Unterschied nur gering ist.

Vor allem bedeutet Aufrüsten ja nicht zwingend GTX 680 statt GTX 580, wer mit einer GTX 460/285 oder HD 6850/5850 ankommt, für den lohnt sich eine GTX 680 oder HD 7970 so oder so.
In solchen Fällen natürlich, hab ich ja selbst auch gesagt ;)

Es ging mir einzig und allein um die ich hab schon was im Vereich einer HD5870/GTX570 und besser.

Wer ne GTX 460 hat, wird sich eher nicht ne GTX680 oder HD7970 kaufen, wobei es das natürlich auch gibt.

Der Aufrüstdruck ist heute aber viel viel viel viel geringer, als das noch vor 10 Jahren war. Damals gings ja oft darum, ob ein Spiel überhaupt vernünftig läuft, oder nicht, also spielbar ist. Heute gehts doch überbiegend darum, ob man jetzt nur 8x AA/AF nehmen kann, oder doch nur 2x, oder eventuell auch gar nicht. Zumindest wenn man sich in den einschlägigen HardwareForen umschaut.

Irgendwann werden sich die Leute aber auch fragen, ob es ihnen das noch wert ist, wenn die Entwicklung der Spiele weiterhin stark hinter der der Hardware hitnerher hinkt.

y33H@
2012-04-22, 00:19:17
Warte noch ein Jahr und die Orbis sowie die Xbox Next werden den gewünschten Schub bringen.

boxleitnerb
2012-04-22, 00:32:09
2160p Monitore werden auch langsam kommen. Ok, sehr langsam.

Abgesehen davon kann man auch zwei 680er flott an ihre Grenzen treiben und muss dazu nichtmal groß was tun oder sich 10 Monitore anschaffen. Ich ächze hier mit einem gut gemoddeten Skyrim in 1280x1024 mit SGSSAA rum und komme öfters mal runter auf 40fps. Mit zwei 580ern...
Von Surround und 3D brauch ich da gar nicht anfangen - dann hätte ich fast einstellige fps. Wenn man sich als Ziel möglichst 60fps setzt, gibt es in nur 1080p schon jetzt Spiele, bei der eine 680 das nicht durchgehend schafft.

Kartoffel123
2012-04-22, 11:10:50
Wir driften hier gerade ins Off-Topic. Thema des Threads ist nicht Sinn oder Unsinn von Aufrüstungen sondern C'ts Blogeintrag bezüglich Nvidia und Nvidias Verhalten gegenüber deutschen Medien.

y33H@
2012-04-22, 11:38:46
Nvidia tut sich zumindest keinen Gefallen, gerade HT4U nicht zu bemustern, sorgt in vielen Foren für Unmut. Und bei Peter selbst sowieso.

Kartoffel123
2012-04-22, 17:53:58
Nvidia tut sich zumindest keinen Gefallen, gerade HT4U nicht zu bemustern, sorgt in vielen Foren für Unmut. Und bei Peter selbst sowieso.

Sehe ich ähnlich. Soviel man weiß, wurden noch eine Reihe weiterer Magazine kurzfristig nach der Cebit gebrieft. Ich möchte nicht wissen wie es den Redakteuren zumute ist, wenn man Personal für solche Veranstaltungen abstellt und Reisekosten aufwendet um dann herauszufinden, dass man nicht bemustert wird.

Hugo78
2012-04-23, 00:26:56
Redaktionen unter NDA forderten in den letzten Jahren von NV zu Recht das NDA auch vollens durchzusetzen.
Es ergibt ja auch keinen Sinn sich einem NDA zu unterwerfen, wenn Leute ohne NDA wie ebend die c't, losrennen und schon Tage/ Wochen vor Release Details bis ins kleinste verraten.
Die "non-NDA" bekommen dann die Klicks, ganz ohne aufwendigen Test.

Jetzt verfolgt NV eine härtere Gangart ggü. Leaks und dabei entstehen dann auch Kollateralschäden, wie ht4u.

Und c't stellt sich auch noch als Opfer dar, obwohl sie zum Release ein Muster hatten.
Heise / c't führt hier eine Schmierenkomödie auf.
Auf Kosten von Nvidia, als auch auf Kosten der restlichen deutschen Presse.

Skysnake
2012-04-23, 00:35:26
Du hast vielleicht ein Verständnis für manche Sachen...

Die Leaker/NDA-Brecher muss man sich packen, nicht die Leute, die die Botschaft überbringen, aka Redaktionen, die solche Meldungen aufgreifen, und damit ihren redaktionellen Job machen -.-

Geanu DAS passiert aber nicht/zu wenig. Die ganzen Leaker und NDA-Brecher in Asien bleiben unberührt, hier in D/Europa wird aber überall drauf gehauen noch und nöcher...

Das ist es doch wohl klar, dass sich die Leute aufregen.

Sollen Sie etwa icht mal mehr über die Leaks berichten, die andere fabrizieren?

Hugo78
2012-04-23, 09:52:10
Gegen Asien Leaks unternimmt NV was in ihrer Macht steht.
Die AIBs haben sich ja nicht umsonst beschwert, sie hätten noch keine Infos über ein Produkt, dass sie in wenigen Wochen verkaufen sollen.

Nur wurde niemand für Berichte über Asien Leaks "gehauen".
c't hat selber aktiv geleakt.

ht4u dagegen konnte zum letzten Briefing in den USA keinen Redakteur abstellen.
In dem Fall hat es Nvidia Deutschland versaut, als sie ht4u zusicherten, auch ohne dieses Briefing ein Muster zubekommen.
Im Falle von ht4u ist es für mich auch unklar, warum sie nicht schon längst nachträglich mit einem Muster versorgt wurden.

Kartoffel123
2012-04-23, 10:59:18
Redaktionen unter NDA forderten in den letzten Jahren von NV zu Recht das NDA auch vollens durchzusetzen.
Es ergibt ja auch keinen Sinn sich einem NDA zu unterwerfen, wenn Leute ohne NDA wie ebend die c't, losrennen und schon Tage/ Wochen vor Release Details bis ins kleinste verraten.
Die "non-NDA" bekommen dann die Klicks, ganz ohne aufwendigen Test.

Jetzt verfolgt NV eine härtere Gangart ggü. Leaks und dabei entstehen dann auch Kollateralschäden, wie ht4u.

Und c't stellt sich auch noch als Opfer dar, obwohl sie zum Release ein Muster hatten.
Heise / c't führt hier eine Schmierenkomödie auf.
Auf Kosten von Nvidia, als auch auf Kosten der restlichen deutschen Presse.

Nochmals: die blosse Wiedergabe von Informationen die eh schon im Netz steht ist kein Leak und hat mit einem NDA nichts zu tun. Wie schon Skysnake anmerkte ist es einfach redaktionelle Pflicht solche Informationen auch zu veröffentlichen.

Ich wüsste nicht wo die C't jetzt irgendwo ein NDA gebrochen haben soll. Mag sein, dass die C't neue Informationen zur GTX 680 veröffentlicht hat - da man aber von Nvidia nicht bemustert wurde, gab es vermutlich auch gar kein NDA, entsprechend muss die C't dann auch nicht nach NVIDIAs Pfeife tanzen.

Gegen Asien Leaks unternimmt NV was in ihrer Macht steht.
Die AIBs haben sich ja nicht umsonst beschwert, sie hätten noch keine Infos über ein Produkt, dass sie in wenigen Wochen verkaufen sollen.

Nur wurde niemand für Berichte über Asien Leaks "gehauen".
c't hat selber aktiv geleakt.

ht4u dagegen konnte zum letzten Briefing in den USA keinen Redakteur abstellen.
In dem Fall hat es Nvidia Deutschland versaut, als sie ht4u zusicherten, auch ohne dieses Briefing ein Muster zubekommen.
Im Falle von ht4u ist es für mich auch unklar, warum sie nicht schon längst nachträglich mit einem Muster versorgt wurden.

Vermutlich hat HT4U, nachdem sie nicht mit einem Testmuster zum Release versorgt wurden, einfach keine Eile einen Test zu veröffentlichen - wieso auch. Jetzt kann man sich eh die Zeit lassen um das Produkt auf Herz und Nieren von A bis Z zu prüfen und sich alles im Detail anschauen. Im Nachhinein, könnte das NVIDIA schmerzen, wenn HT4U jetzt die Zeit dazu hat Dinge zu finden, die Sie in einem 3-Tage-Review evtl. nicht gefunden hätten.

Hugo78
2012-04-23, 14:21:41
da man aber von Nvidia nicht bemustert wurde, gab es vermutlich auch gar kein NDA, entsprechend muss die C't dann auch nicht nach NVIDIAs Pfeife tanzen.

Es ist offensichtlich das c't kein NDA brauchten, denn c't hatte pünktlich zum Release (22.März) einen eigenen Test, mit einem Muster aus nicht genannter Quelle.
- http://www.heise.de/newsticker/meldung/GeForce-GTX-680-Sparsame-Turbo-Karte-fuer-500-Euro-1478089.html

Zwei Wochen zuvor hatten sie den GPU Turbo genau beschrieben => das ist ein eigener Leak, dass war kein Abschreiben bei Asiaten.
- http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-bringt-Turbo-Technik-und-kommt-noch-im-Maerz-1465891.html

Und zwei Wochen nach Release, stellt sich c't auch noch als Opfer dar.
In dem sie Nvidias Pflicht ggü. ihren NDA Partnern, das NDA auch durchzusetzen als fiese Behinderung ihrer Arbeit darstellen.
Dazu sind sie dann auch noch beleidigt, dass man ihr leaking nicht auch noch belohnt.
(Nvidia) schickte uns auch kein Testexemplar, weil ihnen eine vorab veröffentlichte Nachricht schlicht nicht in den Kram passte
- http://www.heise.de/ct/artikel/Prozessorgefluester-1500182.html

y33H@
2012-04-23, 15:20:16
Die nicht genannte Quelle trägt ein Asus-Logo auf der abgebildeten GTX 680 :ulol:

Kartoffel123
2012-04-23, 15:23:11
Es ist offensichtlich das c't kein NDA brauchten, denn c't hatte pünktlich zum Release (22.März) einen eigenen Test, mit einem Muster aus nicht genannter Quelle.
- http://www.heise.de/newsticker/meldung/GeForce-GTX-680-Sparsame-Turbo-Karte-fuer-500-Euro-1478089.html

Zwei Wochen zuvor hatten sie den GPU Turbo genau beschrieben => das ist ein eigener Leak, dass war kein Abschreiben bei Asiaten.
- http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-bringt-Turbo-Technik-und-kommt-noch-im-Maerz-1465891.html

Und zwei Wochen nach Release, stellt sich c't auch noch als Opfer dar.
In dem sie Nvidias Pflicht ggü. ihren NDA Partnern, das NDA auch durchzusetzen als fiese Behinderung ihrer Arbeit darstellen.
Dazu sind sie dann auch noch beleidigt, dass man ihr leaking nicht auch noch belohnt.

- http://www.heise.de/ct/artikel/Prozessorgefluester-1500182.html

Woher willst du wissen, dass NVIDIA das nicht in einem persönlichen Gespräch mit der C't an der CEBIT verraten hat? Du siehst das ein wenig zu einseitig und solltest das etwas kritischer betrachten. Ich glaube nicht, dass die C't es sich rausnimmt ein NDA zu brechen und wissentlich einen Leak publiziert.

N0Thing
2012-04-23, 15:26:52
Zwei Wochen zuvor hatten sie den GPU Turbo genau beschrieben => das ist ein eigener Leak, dass war kein Abschreiben bei Asiaten.
- http://www.heise.de/newsticker/meldung/Nvidias-GeForce-GTX-680-bringt-Turbo-Technik-und-kommt-noch-im-Maerz-1465891.html

In dem Artikel erwähnt heise online immer wieder, daß die Informationen von Boardpartnern und Herstellern stammen. Die Frage wäre dann, ob diese Informationen auch unter ein NDA fallen, wenn sie nicht von Nvidia selber stammen.

Mancko
2012-04-23, 15:44:38
In dem Artikel erwähnt heise online immer wieder, daß die Informationen von Boardpartnern und Herstellern stammen. Die Frage wäre dann, ob diese Informationen auch unter ein NDA fallen, wenn sie nicht von Nvidia selber stammen.

Aus Sicht von Nvidia wohl schon. Es kann ja auch sein, dass Nvidia grundsätzlich nicht möchte, das vorab Infos über Ihre Produkte rausgegeben werden egal wo die Infos herkommt. Wer sich nicht daran hält riskiert halt keine Muster zu bekommen. Klassisches Beispiel von Chance / Risiko. Muss man dann halt selber abwägen, ob man Leaks - egal wo sie herkommen - weiter trägt oder eben nicht.

Hugo78
2012-04-23, 17:27:33
@y33H@
Würde euch Asus noch vor Release direkt beliefern, Gesetz den Fall ihr unterschreibt ab morgen kein NDA mehr?
Klingt für mich nicht wahrscheinlich. Ich tippe da eher auf einen Importeur für/aus Taiwan/China, was das c't Muster und die Infos angeht.

@Kartoffel123 & N0Thing
Sollte Nvidia solche Details auf der Cebit gebracht haben, dann ebend nur unter NDA.

Fabian_HT4U
2012-04-23, 19:58:46
Vermutlich hat HT4U, nachdem sie nicht mit einem Testmuster zum Release versorgt wurden, einfach keine Eile einen Test zu veröffentlichen - wieso auch. Jetzt kann man sich eh die Zeit lassen um das Produkt auf Herz und Nieren von A bis Z zu prüfen und sich alles im Detail anschauen.
So ist es. Wir sind mittlerweile recht weit mit den Tests und in Bälde wird es, sofern nichts dazwischen kommt, einen wie gewohnt umfangreichen Artikel geben :)

grüße
Fabian

deekey777
2012-04-23, 21:01:21
So ist es. Wir sind mittlerweile recht weit mit den Tests und in Bälde wird es, sofern nichts dazwischen kommt, einen wie gewohnt umfangreichen Artikel geben :)

grüße
Fabian
Dann schaut euch bitte die neueste Version von Cyberlink PowerDirector 10 an (Demo reicht), diese soll den Hardwareencoder unterstützen.

M4xw0lf
2012-04-23, 21:28:57
So ist es. Wir sind mittlerweile recht weit mit den Tests und in Bälde wird es, sofern nichts dazwischen kommt, einen wie gewohnt umfangreichen Artikel geben :)

grüße
Fabian

Sehr schön :up:

samm
2012-04-23, 21:36:23
Freu mich auf den Test, hoffentlich ist bei der längeren Untersuchung auch was rausgekommen - oder hat der Redaktion zumindest stressfreies und gründliches Untersuchen ermöglicht :)

Kartoffel123
2012-04-24, 00:01:12
So ist es. Wir sind mittlerweile recht weit mit den Tests und in Bälde wird es, sofern nichts dazwischen kommt, einen wie gewohnt umfangreichen Artikel geben :)

grüße
Fabian

Super! Ich aktualisiere bereits seit Tagen mehrfach am Tag eure Seite, in der Hoffnung euren Artikel lesen zu dürfen. Ich bin gespannt. :)

Ich hätte allerdings eine kurze Frage, da es hier wohl Missverständnisse gibt: bin ich richtig mit der Annahme, dass das publizieren von Informationen die ohnehin schon geleakt sind, kein Leak im eigentlichen Sinne ist? Wie stehen die Hersteller dazu, wenn ihr bspw. eine Meldung veröffentlicht, welche einen Leak aus bspw. dem asiatischen Raum aufgreift und ihr gleichzeitig ein NDA mit dem betroffenen Hersteller unterschrieben habt?

Knuddelbearli
2012-04-24, 00:03:32
man darf die info weiterverbreiten ( wobei das die Hersteller auch schon skeptisch sehen ) aber man darf sie nicht bestätigen oder als eindeutig falsch abstempeln

y33H@
2012-04-24, 09:09:09
Und du darfst keine confidential slides hosten, da diese Eigentum des Herstellers sind.

Kartoffel123
2012-05-01, 15:58:19
Artikel ist online



Dem gemittelten Performanceindex zufolge befinden sich 7970 und GTX 680 auf Augenhöhe. Wie gesagt aber gemittelt. Das ist dann doch eine ordentliche Überraschung!

y33H@
2012-05-01, 16:14:03
Wieso ist das überraschend? Es ist immer eine Frage der Spiele-Auswahl und wer sich an 5 bis 10 Prozent in einem Ranking klammert, hat nicht verstanden, dass ein weiterer Titel dies kippen kann ;-) so das Geschwindigkeitswunder ist die GTX 680 nun auch wieder nicht ...

Skysnake
2012-05-01, 16:26:49
Aber recht effizient ;)

Das muss man ihr schon zugute halten. Nur in GPGPU ist Sie nen totalversager :ugly:

Ich bin mal gespannt, was der nVidia Mensch bei eurem Themenabend dazu sagt ;D

y33H@
2012-05-01, 16:50:35
Das Ding ist halt ein GK104 und kein GK110 *seufz* da wird Lars nicht viel zu sagen ;-)

Skysnake
2012-05-01, 17:07:10
Ja, nur von dem ist ja weit und breit nichts zu sehen :(

Ich schau mir aber in nächster Zeit eh erst mal nen C2050 Doppelsystem an :D Das wird mich die nächsten Wochen eh genug beschäftigen.

Peter Gräber
2012-05-01, 19:57:13
Wieso ist die GTX 680 kein Performance-Wunder? Verglichen mit GK114 oder GK104 doch sehr wohl? Aber ich vermute fast, wenn man sich die schlechte GPU-Computing-Leistung betrachtet, dass eventuell GK110 vielleicht nur dort wirklich punkten wird?!

Und dann? Sind wir dann alle traurig? NVIDIA hat die Zeichen der Zeit erkannt und geht auf Effizienz (nicht weil "Green IT" so dolle ist). Sie brauchen das Standbein im Mobilen Bereich - ein weiteres. Immer wieder nur noch einmal einen draufsetzen und sich ewig anhören, dass man ja so miserabel bei der Leistungsaufnahme sei, ist zudem ermüdend.

GPU-Boost mit seinem Power Target hat prinzipiell nun erst einmal alles im Griff. Mehr als das, was NVIDIA an Leistungsaufnahme zulassen möchte geht nicht.

y33H@
2012-05-01, 21:54:34
Wenn du mal einen GK114 gegen den G92 stellst, dann hast du ähnliche Sprünge. Das was die GTX 4xx/5xx heute sind, war die GTS 250 zu Zeiten des GT200.