PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

reunion
2009-10-14, 18:17:29
Und was tut das zur Sache?

Wenn du lesen kannst weißt du was das zur Sache tut. Wenn NV seit jeher deutlich mehr investiert als ATi und wir trotzdem beim status quo sind ist das Argument zumindest mit Vorsicht zu genießen.


Das GT200b rein vom Designaufwand viel weniger Arbeit erfordert hat als ein RV770 ist für jeden objektiven Beobachter offensichtlich. Wo sonst ist also das ganze Geld geflossen seither?

Das hat niemand bestritten.


Und das was NVIDIA bisher gezeigt hat bestärkt mich in der Ansicht ebenso. Weder Blockdiagramm noch Die sehen so aus als wäre da ein Transistor nicht zweimal umgedreht worden. Selbst RV770 hatte da noch mehr Ähnlichkeit zu seinen Vorfahren.

Wir werden sehen. So oder so muss das Ding auch zeitgerecht kommen sonst nützt das alles nicht viel.

Gast
2009-10-14, 18:21:02
Allerdings hat auch ht4u gesagt, dass es als Video viel schlimmer aussieht, als wenn man live vor dem Bildschirm sitzt.

Deshalb habe ich extra geschrieben unskaliert. Wenn man es normal wie jedes Video hochskaliert betrachtet verschlimmert sich das ganze natürlich.


Was diesen Unterschied verursacht, konnten sie sich auch (noch) nicht erklären. Und dass die Filterleistung sich gebessert hat, sagen doch alle, die nicht vom "hörensagen" reden, sondern selbst so eine Karte getestet haben. Hm, wem soll ich jetzt glauben. ;)

Der Unterschied ist recht klar, wir sehen hier die bestmögliche Qualität aller getesteten Grafikkarten, und die ist bei ATI inakzeptabel.

Die meisten Tests beziehen sich aber auf Treiberdefault, gut möglich dass sich hier etwas verbessert hat. An der maximal möglichen Qualität hat sich deshalb trotzdem kaum etwas geändert.

V2.0
2009-10-14, 18:21:10
Und was tut das zur Sache?

Das GT200b rein vom Designaufwand viel weniger Arbeit erfordert hat als ein RV770 ist für jeden objektiven Beobachter offensichtlich. Wo sonst ist also das ganze Geld geflossen seither?

Wenn GT200b viel Geld gebraucht hat, dann für's Tapeout, weil der Chip so riesig ist. Das bindet aber andere Leute, als die die in Verilog oder am Reißbrett an der Logik basteln.

Und das was NVIDIA bisher gezeigt hat bestärkt mich in der Ansicht ebenso. Weder Blockdiagramm noch Die sehen so aus als wäre da ein Transistor nicht zweimal umgedreht worden. Selbst RV770 hatte da noch mehr Ähnlichkeit zu seinen Vorfahren.

Was man mehr ausgibt, muss man nicht sinnvoll ausgeben. ATI scheint äußerst effizient geworden zu sein, NV hingegen.....

Coda
2009-10-14, 18:22:25
Ich erwarte überhaupt nichts. Nicht das den Eindruck erweckt.

Dennoch:

Man kann nicht von der bisherigen Situation auf die Zukunft schließen.
Das Ding hat rein vom ersten Eindruck das Potential deutlich schneller zu sein.
Man kann durch die Verzögerung nicht abschätzen ob NVIDIA deutliche Probleme hat was die Fertigung angeht. RV870 war ein "einfacheres" Design, weil es mit RV740 schon zu großen Teilen in 40nm durchgetestet werden konnte und auch deutlich kleiner ist.

Falls letzteres dennoch zutrifft, könnte AMD mit dem einfacheren Weg natürlich besser wegkommen. Aber wieso soll ich das als Technikgeek gut finden?

Der der etwas wagt, soll auch belohnt werden. Sonst gibt es Stillstand.

Was man mehr ausgibt, muss man nicht sinnvoll ausgeben. ATI scheint äußerst effizient geworden zu sein, NV hingegen.....
Zum x-ten Mal. Du kannst Fermi nicht mit GT200 vergleichen.

Intel konnte vom P4 ausgehend die Effizienz auch auf Core-2-Niveau heben. Nur mal um ein ganz krasses Beispiel dafür zu geben wie verquert diese Ansicht ist.

Gast
2009-10-14, 18:23:24
Was man mehr ausgibt, muss man nicht sinnvoll ausgeben. ATI scheint äußerst effizient geworden zu sein, NV hingegen.....

Ja, das meiste wird bei ATi beim Treiberteam gespart.

Gast
2009-10-14, 18:24:31
Aber das ist auch ein konstruiertes Beispiel, praktisch worst case.

Das ist absolut kein worst case sondern sogar eine recht unempfindliche Textur, worst case wäre beispielsweise die Checkboard-Textur. Die bekommt kein Filter ordentlich hin, nichtmal der ALU-filter.

Coda
2009-10-14, 18:31:46
Zudem fällt ATi beim Filter-Tester immer auf A.I.-off-Niveau zurück. Ingame war es auf RV770 noch deutlich schlimmer. Bei RV870 weiß ich es eben nicht.

Blaire
2009-10-14, 18:48:59
Fake, 75fps in Crüsis geht bei den settings mit keiner Cpu der Welt....

http://www.youtube.com/watch?v=Fa091r-O9YM sage daß nicht. :biggrin:

Hübie
2009-10-14, 18:50:29
Das kann man doch aber mit umbennen der .exe umgehen oder?
Wäre ja mal interessant von einem RV870-Besitzer ein solches Video zu sehen ;)

bye Hübie

Coda
2009-10-14, 18:54:14
Das kann doch aber mit umbennen der .exe umgehen oder?
Was meinst du?

Gast
2009-10-14, 18:58:17
Intel konnte vom P4 ausgehend die Effizienz auch auf Core-2-Niveau heben. Nur mal um ein ganz krasses Beispiel dafür zu geben wie verquert diese Ansicht ist.
Der Core 2 war aber aus rein technischer Sicht nicht sonderlich beeindruckent im gegensatz zur Leistung die er gebracht hat, im Prinzip war es ja die gute alte P3 Architektur verbunden mit neuster Fertigungstechnik und dem Multicore Ansatz und ein Paar Sahnestücken ausm P4.
Für den Technikfreak war da z.B. der ITanic bzw der Schritt von P3 auf P4 viel intressanter, beides war aber nicht so sonderlich erfolgreich.
Hoffe wir mal das NV da nicht in die falsche Richtung entwickelt hat.

Hübie
2009-10-14, 19:14:57
die .exe-Datei des 3DC-Filtertesters umbenennen und dann mit AI default/advanced testen.

@blaire: Igitt ist das ne abartige Performance ;D Aber will den Preis für das System nicht wissen! Ich schätze 2000 Eier sind das schon? Hier (http://www.youtube.com/watch?v=WChGF3cRYP4&feature=channel) gibts noch mehr.

bye Hübie

Coda
2009-10-14, 19:23:41
Der Core 2 war aber aus rein technischer Sicht nicht sonderlich beeindruckent im gegensatz zur Leistung die er gebracht hat
Natürlich war er das. Die Leistungssteigerung gegenüber der Yonah/K8-Architektur war beachtlich, und da dachte ich schon dass so ziemlich das Optimum erreicht war. Einem Pentium 3 zeigt das Ding was IPC angeht sowieso deutlich die Rücklichter. Klar, ist die Architektur ggü. dem P4 traditioneller - oder wie ich sagen würde: deutlich vernünftiger.

Aber das ist nun wirklich völlig Off-Topic

die .exe-Datei des 3DC-Filtertesters umbenennen und dann mit AI default/advanced testen.
Funktioniert nicht.

ATI hat da einen Zustand totaler Intransparenz erreicht. Was A.I. macht ist völlig undurchschaubar. Das ist auch so eine Sache die mich schwer davon abhält nochmal über eine ATI-Karte nachzudenken.

tombman
2009-10-14, 20:10:07
http://www.youtube.com/watch?v=Fa091r-O9YM sage daß nicht. :biggrin:
Oha, da war ich wohl nimmer auf dem Laufenden ;D

Hmm, müßte auch mal wieder benchen-- mein Sys sollte gar nicht mal sooo viel langsamer sein.
Trotzdem, 4x GTX285 ist nett, aber irgendwie "alte Technik". 2x Fermi bis 4x Fermi wäre witziger :)

Ändert aber nix daran, daß diese Fermi benchmarks fake sein, weil Fermi sicher nicht so schnell wie ~2.7 (!) GTX285er ist ...lol.
(SLI Effizienz nicht vergessen: 4x GTX285 ~ 1*1.8*1.3*1.1 ~ 2.7x Leistung)

Oder doch? :eek: ;D;D

Hmm, obwohl, Trubitar hat mit 16xAA gemessen....

Fazit: ich glaube gar nix :D

AnarchX
2009-10-14, 20:27:49
Slide War!

http://img339.imageshack.us/img339/8391/1255470375yoqhtsy8o9116.jpg
Mehr Folien: http://www.hardocp.com/article/2009/10/14/amd_briefing_eric_demers

:D

AMD "schätzt" 534mm² für Fermi.

tombman
2009-10-14, 20:34:01
Lol, jetzt gehts los ;D;D

Aber es gibt nur EINEN Slide der zählt:

REAL LIFE PERFORMANCE Fermi/RV870: 2x ;D;D

Allein schon der erste Wert = :uhammer: Schon mal was von Taktrate gehört?

Gast
2009-10-14, 20:36:03
Wann wohl der erste Moralapostel angeschlichen kommt, die solche Slides aufs Äußerste verdammen, wenn sie grün sind...

Gast
2009-10-14, 20:38:45
Was man mehr ausgibt, muss man nicht sinnvoll ausgeben. ATI scheint äußerst effizient geworden zu sein, NV hingegen.....
Mit 2,15 Mrd Transisoren schlägt man den eigenen 1 Mrd Transistoren Chip nicht besonders heftig, den 1,4 Mrd Transistoren Chip der Konkurrenz noch weniger heftig.

Wenn du das "effizient geworden" nennst, dann gute Nacht. Mal davon abgesehen, das AMDs Design das eh oft im Leerlauf ist jetzt noch mehr im Leerlauf ist.

Black-Scorpion
2009-10-14, 20:39:07
REAL LIFE PERFORMANCE Fermi/RV870: 2x ;D;D


Und wenn du es noch tausendmal rumbrüllst. Träum weiter.

boxleitnerb
2009-10-14, 20:45:24
Ich denk 2x ist deutlich zuviel. Ich gehe von 1.5x aus.

tombman
2009-10-14, 20:47:27
Und wenn du es noch tausendmal rumbrüllst. Träum weiter.
Lernen Sie Geschichte Smileys ;)
==

Focused on consumer market first, not as an afterthought of the HPC market

Oh Mann, die müssen angepißt sein :)

Außerdem eine extrem dumme Aussage, denn jetzt denkt sich doch jeder HPC/PRO-Kunde: "Bleib weg von AMD" :uhammer:

Gipsel
2009-10-14, 20:48:04
Slide War!

http://img339.imageshack.us/img339/8391/1255470375yoqhtsy8o9116.jpg
Am lustigsten finde ich ja diese hier mit ein paar Features:

http://www.hardocp.com/images/articles/1255470375yoqHTSY8O9_1_17_l.jpg

Ich habe ja nicht umsonst gefragt, was die Fermi-Hardware außer dem unified Adressraum denn nun viel mehr kann ;)
Den ganzen Kram mit FMA in SP und DP mit Support für Denorms/Rundungsmodi usw. hat RV870 ja auch.

S940
2009-10-14, 20:50:05
Oh Mann, die müssen angepißt sein :)
Von was ? Von der Mockup Demo Platine ? :freak:
Ist doch normales Marketinggeschrei ... das Übliche ;-)

tombman
2009-10-14, 20:51:54
Von was ?
Von der AUSRICHTUNG, die NV vor hat...

Menace
2009-10-14, 20:56:17
Das kann man auch Pfeifen im Walde nennen (von AMD). Aber witzig finde ich folgendes:

http://www.hardocp.com/images/articles/1255470375yoqHTSY8O9_1_12_l.jpg

tombman
2009-10-14, 21:10:53
Fermi lief aber REAL...

Nur die Karte war ein mockup, Fermi nicht...

Blacksoul
2009-10-14, 21:12:57
Fermi lief aber REAL...

Nur die Karte war ein mockup, Fermi nicht...

Ändert ja trotzdem nichts am Rest.


t.b.d

Menace
2009-10-14, 21:13:21
Nur die Karte war ein mockup, Fermi nicht...

Ati schreibt auch von "mock-up" card. Lief Fermi wirklich? War sich selbst PCGH nicht ganz sicher? Gibt es dafür einen Beweis (Foto mit Platine)?

PulsarS
2009-10-14, 21:15:46
Fermi lief aber REAL...
Ich weiss zwar nicht was du mit Fermi meinst (vielleicht eine Kombination aus Hard-/Software), aber wo soll der real gelaufen sein?

Black-Scorpion
2009-10-14, 21:17:10
Wenn er schon aussehen soll wie eine Krake, vielleicht kann er mit seinen Tentaceln laufen

Spasstiger
2009-10-14, 21:20:04
http://www.youtube.com/watch?v=Fa091r-O9YM sage daß nicht. :biggrin:
Den Core i7 @ 4,55 GHz kannst du aber so nicht kaufen. ;)

deekey777
2009-10-14, 21:20:41
Von der AUSRICHTUNG, die NV vor hat...
Der Fermi blickt in Richtung eines Marktes, der den Einsatz vertausendfacht...

Der HPC-Markt ist zwar nett, aber Grafikkarten werden immernoch gekauft, um das Bild auf den Bildschirm zu bekommen.

tombman
2009-10-14, 21:23:38
Laut NV lief er im Hinterzimmer und sah aus wie eine Krake (siehe mein polaris pic weiter oben als Beispiel), also nicht in einem finalen board, was ja überhaupt erst der Grund für die mockup Karte war.

Ich glaube das NV auch, ihr müßt es ja nicht glauben :rolleyes:

Andernfalls hätten sie haufenweise GT200 für die demos zusammenschalten müssen...

reunion
2009-10-14, 21:29:04
Laut NV lief er im Hinterzimmer und sah aus wie eine Krake (siehe mein polaris pic weiter oben als Beispiel), also nicht in einem finalen board, was ja überhaupt erst der Grund für die mockup Karte war.

Ich glaube das NV auch, ihr müßt es ja nicht glauben :rolleyes:

Andernfalls hätten sie haufenweise GT200 für die demos zusammenschalten müssen...

Das kam von FUAD, nicht von NV AFAIK.

Spasstiger
2009-10-14, 21:29:58
Laut NV lief er im Hinterzimmer und sah aus wie eine Krake (siehe mein polaris pic weiter oben als Beispiel)
Ungefähr so:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7577316#post7577316
Die AMD-Folien sind übrigens erstaunlich sachlich. Aus dem gegenwärtigen Zündstoff hätte man mehr machen können. ;)

PulsarS
2009-10-14, 21:30:14
Andernfalls hätten sie haufenweise GT200 für die demos zusammenschalten müssen...
Nicht unbedingt.
Es kann sein, dass die Demos wirklich auf einem Fermi liefen, jedoch mit einer sehr niedrigen Taktfrequenz und deswegen nicht in Echtzeit, sondern vorgerendert.
Oder aber auf einem TeilFermi mit Hilfe von Software (was ich in meinem vorherigen Beitrag meinte). :)

LovesuckZ
2009-10-14, 21:36:54
Ungefähr so:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7577316#post7577316
Die AMD-Folien sind übrigens erstaunlich sachlich. Aus dem gegenwärtigen Zündstoff hätte man mehr machen können. ;)

Ja - sie sind so sachlich, dass sie zu erst über das GPGPU herziehen und dann ihren GPGPU Schwanz mit dem von nVidia vergleichen. Komische Firma.

Nicht unbedingt.
Es kann sein, dass die Demos wirklich auf einem Fermi liefen, jedoch mit einer sehr niedrigen Taktfrequenz und deswegen nicht in Echtzeit, sondern vorgerendert.
Oder aber auf einem TeilFermi mit Hilfe von Software (was ich in meinem vorherigen Beitrag meinte). :)

Echtzeit.

tombman
2009-10-14, 21:40:40
Die Frage ist doch: traut sich NV mit nix als dem Schwanz in der Hand so ne Konferenz durchzuziehen, ohne echtem Chip? (ich sagte Chip, nicht Karte)

Menace
2009-10-14, 21:42:10
Ja - sie sind so sachlich, dass sie zu erst über das GPGPU herziehen und dann ihren GPGPU Schwanz mit dem von nVidia vergleichen. Komische Firma.


Ja, genauso witzig wie nvidia und deren Inkonsequenz. Das musst selbst Du zugeben, dass sich da beide nichts schenken. ;)

reunion
2009-10-14, 21:45:22
Die Frage ist doch: traut sich NV mit nix als dem Schwanz in der Hand so ne Konferenz durchzuziehen, ohne echtem Chip? (ich sagte Chip, nicht Karte)

Natürlich haben sie einen Chip. Wenn sie jetzt noch keinen Chip hätten dann könnten sie Fermi gleich canceln und an der nächsten Generation weiterarbeiten. Die Frage ist nur wie gut/schlecht Fermi läuft bzw. wie lange es noch dauert ihn fehlerfrei zu bekommen und in Massen zu produzieren.

Menace
2009-10-14, 21:46:12
Die Frage ist doch: traut sich NV mit nix als dem Schwanz in der Hand so ne Konferenz durchzuziehen, ohne echtem Chip? (ich sagte Chip, nicht Karte)

Jaein. Sie mussten so oder so ein Lebenszeichen als Antwort zu Ati setzen. Dabei kann es sein, dass alles mit Fermi sehr gut läuft oder dass sie am Verzweifeln sind (letzteres glaube ich nicht). Es war Marketing und ist genauso zu bewerten wie jetzt die Folien von Ati: Nebelkerzen.

tombman
2009-10-14, 21:49:06
Also im März brauchen die damit nicht mehr bei mir auftauchen, bis dahin hätte ich längst AMD im Rechner :ugly:
(2x HD5870 "six" 2GB)

Menace
2009-10-14, 21:52:58
Also im März brauchen die damit nicht mehr bei mir auftauchen, bis dahin hätte ich längst AMD im Rechner :ugly:
(2x HD5870 "six" 2GB)

März sollen doch die Kleinen kommen. Bis Ende November werden sie schon etwas vorzeigbares zusammengeklebt haben. Dezember kann man dann vorbestellen (meiner Meinung nach).

Black-Scorpion
2009-10-14, 21:55:40
Dann müssen sie aber verdammt schnell kleben. ;)
Wir haben schon Mitte Oktober.

Bzw. Zusammengeklebt haben sie ja schon was.
Das war nur so dilettantisch gemacht das es einem Blinden aufgefallen ist. ;)

tombman
2009-10-14, 22:01:28
Es war teilweise geschraubt, bitte schön, soviel fairness muß sein :ugly:

Grestorn
2009-10-14, 22:03:21
Also im März brauchen die damit nicht mehr bei mir auftauchen, bis dahin hätte ich längst AMD im Rechner :ugly:
(2x HD5870 "six" 2GB)

Wenn die nVidia HighEnd Karte 30% oder mehr schneller ist als das ATI Pendant würdest Du ja trotzdem wieder umsteigen... :)

Zatoichi
2009-10-14, 22:20:39
Es wundert mich das es aber so gar keine Reaktion von Nvidia gibt. Aber ich warte beim Hauptrecher auf jeden Fall solange, da ja ATi bei den Treibern/Crossfire nix macht. Ich sehe das ja jetzt schon wieder mit der
5850er live und in Farbe.

@Tombman

Ob du mit Crossfire glücklich wirst, bezweifel ich ganz stark

PulsarS
2009-10-14, 22:23:39
Ich sehe das ja jetzt schon wieder mit der
5850er live und in Farbe.
Und was sieht man da, wenn man fragen darf? :)
Crossfire interessiert mich nicht, aber die Treiber. Was stimmt da nicht?

tombman
2009-10-14, 22:25:10
@Tombman

Ob du mit Crossfire glücklich wirst, bezweifel ich ganz stark
Ich bezweifle das sogar als erster :ugly:

boxleitnerb
2009-10-14, 22:26:58
Die Kritikpunkte beim Treiber sind doch schon so so oft durchgekaut worden, das muss nicht immer neu nachgefragt werden nach dem Motto "da ist doch alles iO"

HarryHirsch
2009-10-14, 22:28:29
Die Kritikpunkte beim Treiber sind doch schon so so oft durchgekaut worden, das muss nicht immer neu nachgefragt werden nach dem Motto "da ist doch alles iO"

isses aber

boxleitnerb
2009-10-14, 22:32:36
Sinnlos. Was man nicht sehen will, sieht man nicht. EOD

Dural
2009-10-14, 22:35:29
Beweis das mal. In den integrierten Benchmarks von Crysis erreicht keine aktuelle CPU ohne Übertaktung auf sehr hohen Details 75 fps im Schnitt.
Der Autor des Videos hat außerdem den Fake zugegeben.

Wer sagt den das man eine CPU nicht Übertakten kann?

Hab mit QX9770 @ 4600MHz über 70FPS mit 1920x1200 VH DX10 3-Way GTX 280 SLI @ 800MHz

Zatoichi
2009-10-14, 22:37:09
isses aber

Und genau dieses Kopf in den Sand sorgt dafür, das weder die Kompatiblität noch Crossfire besser werden. Da brauch Nvidia nicht mal schneller sein, der Support für SLi und die generelle Kompatiblität sind mir das wert.

tombman
2009-10-14, 22:39:41
Und genau dieses Kopf in den Sand sorgt dafür, das weder die Kompatiblität noch Crossfire besser werden. Da brauch Nvidia nicht mal schneller sein, der Support für SLi und die generelle Kompatiblität sind mir das wert.
Welchem E. nicht? :lol:

StefanV
2009-10-14, 22:45:29
Fermi lief aber REAL...
Wie sah sie aus?
Was fürn Kühler war drauf?

Oder brauchte man eventuell gar 'nen Pot (mit entsprechendem Inhalt)?

tombman
2009-10-14, 22:51:37
Wie sah sie aus?
Was fürn Kühler war drauf?

Oder brauchte man eventuell gar 'nen Pot (mit entsprechendem Inhalt)?
Darf ich dir sicher nicht sagen ;)

HarryHirsch
2009-10-14, 22:59:57
Und genau dieses Kopf in den Sand sorgt dafür, das weder die Kompatiblität noch Crossfire besser werden. Da brauch Nvidia nicht mal schneller sein, der Support für SLi und die generelle Kompatiblität sind mir das wert.

die treiber sind i.O.
nur was sie zu bieten haben vielleicht nicht
was die nvidia kompatibler macht sind 3rd party tools, zumindest was aa und sli betrifft

_DrillSarge]I[
2009-10-15, 00:15:17
lol, jetzt gehts los mit dem aufeinandereinhacken ;D


Nvidia partners order huge quantities of Fermi chips http://bit.ly/VwIT1 - I wonder if Duke Nukem Forever will be bundled with it?
http://twitter.com/IanMcNaughton/status/4863948037
zomg

Gast
2009-10-15, 00:17:22
Hehe, zu geil ;D

S940
2009-10-15, 00:21:16
I[;7597787']lol, jetzt gehts los mit dem aufeinandereinhacken ;D
http://twitter.com/IanMcNaughton/status/4863948037

*Popcorn hol*

Könnte noch lustig werden .. bin gespannt wann die ersten IKEA-like Bau- und Klebeanleitungen für Fermi rauskommen ^^

ciao

Alex

LovesuckZ
2009-10-15, 00:25:47
Oh, da hat wohl AMD wieder den PR-Mann von der Leine gelassen. Na gut, dass Batman Fiasko ist nun ja auch schon wieder eine Woche alt. :lol:

LOL. Now its clear. Someone is really scared ! I smell fear and just graphics :) This article made my evening.. http://bit.ly/3y4eCO
http://twitter.com/Igor_Stanek

PulsarS
2009-10-15, 00:38:19
Oh, da hat wohl AMD wieder den PR-Mann von der Leine gelassen.
Ist doch toll. Haben wir wenigstens was zu lachen. ;D

Na gut, dass Batman Fiasko ist nun ja auch schon wieder eine Woche alt. :lol:

Habe ich was verpasst?
Wo gibt es denn Batman-Benchmarks?
Und damit meine ich nicht den PhysX-Murks... ;)

LovesuckZ
2009-10-15, 00:40:14
I
Habe ich was verpasst?
Wo gibt es denn Batman-Benchmarks?
Und damit meine ich nicht den PhysX-Murks... ;)

Es geht nicht um Benchmarks - sondern um die PR-Person, die lügt, um den unsinnigen Blogabschnitt wieder ins helle Licht zu bringen. Er sollte eigentlich nach dem Fiasko die Klappe halten.
Hat AMD nicht mehr Leute, die einen Twitter-Account haben? :confused:

PulsarS
2009-10-15, 00:53:08
Es geht nicht um Benchmarks - sondern um die PR-Person, die lügt, um den unsinnigen Blogabschnitt wieder ins helle Licht zu bringen. Er sollte eigentlich nach dem Fiasko die Klappe halten.
Ich verstehe es trotzdem nicht.
Wobei hat er gelogen?

Ist bei PR aber nicht unüblich, dass man lügt.
Da ist Nvidia Meister drin.
Vor allem was die Fx-Serie in Beziehung mit SM2 anging.
Man hat das Blaue vom Himmel versprochen. Daraus wurde aber nichts.
Die FX-Serie war in SM2 der Megaflop.
Das konnte man aber auch an den Shadermarkwerten sehen.

Was lernen wir daraus? Nie PR-Leuten glauben.

LovesuckZ
2009-10-15, 00:59:24
Ich verstehe es trotzdem nicht.
Wobei hat er gelogen?

Ist bei PR aber nicht unüblich, dass man lügt.
Da ist Nvidia Meister drin.
Vor allem was die Fx-Serie in Beziehung mit SM2 anging.
Man hat das Blaue vom Himmel versprochen. Daraus wurde aber nichts.
Die FX-Serie war in SM2 der Megaflop.
Das konnte man aber auch an den Shadermarkwerten sehen.

Was lernen wir daraus? Nie PR-Leuten glauben.

FX ist soooo 2003.
Nehmen wir doch besser das Beispiel Batman:AA. Da stellt sich mir immer noch die Frage, wie Ian es schaffte, diese Winzigkeit an Information ("Man hätte eine eigene AA-Implementierung geschrieben, die es aber nicht ins fertige Spiel geschafft hätte...") in seinem Blog-Eintrag zu verschweigen. Irgendeine Idee?

=Floi=
2009-10-15, 01:09:21
700/1600 finde ich schon wenig und das verhältnis der 2 taktdomänen hat abgenommen.
ich hätte eher 700/1800 und für eine ultra 800/2000 erwartet. NV muß mal wieder richtig an den taktraten drehen, damit man wirklich erhebliche mehrpeformance generiert.

ja klar, tombman und CF. die würden doch nicht mal eine woche bei dir bleiben. ;D

Gast
2009-10-15, 01:11:46
Auch wenn der AMD Mensch da versucht einen furchtbar originellen Witz zu machen ...das wäre mal zu geil würde Duke Nukem Forever echt mit Fermi gebundelt... würde ansich auch ganz gut passen, getreu dem Motto "Hail to the king baby".

Man wird ja wohl noch träumen dürfen!

HarryHirsch
2009-10-15, 01:15:12
Auch wenn der AMD Mensch da versucht einen furchtbar originellen Witz zu machen ...das wäre mal zu geil würde Duke Nukem Forever echt mit Fermi gebundelt... würde ansich auch ganz gut passen, getreu dem Motto "Hail to the king baby".

Man wird ja wohl noch träumen dürfen!

wasn mit dir? dnf bundelt mit fermi :freak:
ich brech ab

hail to the king baby :ueye:

Gast
2009-10-15, 01:19:44
War eh nur Spaß, wird so oder so nicht passieren - der Duke hat ja jetzt auch lange wieder nichts mehr von sich hören lassen. Back to topic.

tombman
2009-10-15, 02:06:08
OMG, stellt euch das mal vor: DNF als BUNDLE mit Fermi -> so "UBER" :)
Und auf der Verpackung: "COME, GET SOME!"

...und dann bin ich aufgewacht :redface:

HarryHirsch
2009-10-15, 02:10:09
komm ma ql dann weißt wer uber is :freak:

Slipknot79
2009-10-15, 03:13:40
Vielleicht ist Fermi so schnell, dass es kein einziges Spiel schafft, die Karte aus dem Energiesparmodus zu heben :redface:

V2.0
2009-10-15, 06:57:08
Vielelicht ist die Veräffentlichung von Fermi in 2009 genaus wahrscheinlich wie der Release von DNF :D

reunion
2009-10-15, 07:23:44
Tja, AMD hat es mittlerweile immerhin geschafft ein ordentliches PR/Marketing aufzubauen. Jetzt muss nur noch der Dev-Support, wo es auch schon den einen oder anderen Fortschritt gibt und der Treiberphilosophie geändert/verbessert werden.

V2.0
2009-10-15, 07:46:22
Was soll man dem am Treiber verbessern? Schau Dir doch mal den Müll an den NV mit dem 191.07 WHQL veröffentlicht hat, so etwas hat ATI seit jahren nicht verbrochen. Und ohne 3rd Partytools kann der nV Treiber auch nicht mehr.

Rede ATI doch nicht so schlecht, sie sind der Marktführer und die inovative Firma am Markt.

reunion
2009-10-15, 07:56:54
Was soll man dem am Treiber verbessern? Schau Dir doch mal den Müll an den NV mit dem 191.07 WHQL veröffentlicht hat, so etwas hat ATI seit jahren nicht verbrochen. Und ohne 3rd Partytools kann der nV Treiber auch nicht mehr.

Rede ATI doch nicht so schlecht, sie sind der Marktführer und die inovative Firma am Markt.

Ich sage nicht das der Treiber an sich schlecht ist, da nehmen sich beide kaum etwas. Ich finde nur die Treiberphilosophie mit AI und den nicht zugänglichen Profilen arg fragwürdig. Das mag zwar für 99% der User sogar einfacher sein, aber man sollte auch die anderen nicht bevormunden. Denn auch wenn diese zahlenmäßig nur sehr klein sind, so haben sie IMO doch viel Einfluss auf den Markt. Für mich ist das jedenfalls nach wie vor ein erheblicher Nacheil.

MuLuNGuS
2009-10-15, 08:57:33
Rede ATI doch nicht so schlecht, sie sind der Marktführer und die inovative Firma am Markt.


jaja, sicher doch..

Ailuros
2009-10-15, 09:22:46
700/1600 finde ich schon wenig und das verhältnis der 2 taktdomänen hat abgenommen.
ich hätte eher 700/1800 und für eine ultra 800/2000 erwartet. NV muß mal wieder richtig an den taktraten drehen, damit man wirklich erhebliche mehrpeformance generiert.


Die Relation duerfte bei ~2.2x zwischen ALUs und TMUs liegen (eventuell waere es nicht 700/1600 sondern etwas wie 730/1620). Angenommen sie erreichen letztendes irgend eine Frequenz ueber 650/1430MHz bei X Volt, koennten sie zwar schon die ALUs auf sagen wir mal auf (650/)1645MHz treiben aber es wuerde dann auch X Volt + ~15% bedeuten.

Gast
2009-10-15, 10:44:08
Fermi Mainstream angeblich im März: http://www.hardware-infos.com/news.php?news=3252

RoNsOn Xs
2009-10-15, 11:50:34
na also hat NV doch schön gelogen. war mir klar das dies jahr kein fermi in sicht kommt

Reaping_Ant
2009-10-15, 12:08:18
war mir klar das dies jahr kein fermi in sicht kommt

Es geht doch dabei um die Mainstream Versionen. Sollte der "große" Fermi wirklich noch dieses Jahr auf den Markt kommen, wären die kleineren Varianten im März eigentlich überaus pünktlich, wenn man sich mal die Vorgängergenerationen ansieht (6800: 04/04 -> 6600: 09/04; 7800: 06/05 -> 7600 03/06; 8800: 11/06 -> 8600: 04/07).

RoNsOn Xs
2009-10-15, 12:13:37
aso okay, aber wie bisher bereits vermuten konnte schafft der große ableger des gt300 wohl mehr komplikationen als erwartet. könnte also anders laufen.

N0Thing
2009-10-15, 13:53:13
del

Dural
2009-10-15, 16:23:02
Rede ATI doch nicht so schlecht, sie sind der Marktführer und die inovative Firma am Markt.

:freak: darf ich raten? multimonitoring bei mehreren GPUs? Eyefinity? usw.

doch alles bei NV abgeschaut, haben die Quadro Karten schon seit Jahren!

Und Marktführer in was? über 150Mio verkaufte Cuda GPUs = DX10 GPUs sprechen doch für sich, was kann ATI vorweissen?

tombman
2009-10-15, 16:26:11
aso okay, aber wie bisher bereits vermuten konnte schafft der große ableger des gt300 wohl mehr komplikationen als erwartet. könnte also anders laufen.
Wie kommst du da drauf? Von eine etwaigen März-Release der Mainstream-Karten, kannst du nicht irgendwelche Schlüsse zum HighEnd-Fermi schließen, der ja deutlich früher kommt...

Rede ATI doch nicht so schlecht, sie sind der Marktführer und die inovative Firma am Markt.
Guter Witz...

V2.0
2009-10-15, 16:27:48
:freak: darf ich raten? multimonitoring bei mehreren GPUs? Eyefinity? usw.

doch alles bei NV abgeschaut, haben die Quadro Karten schon seit Jahren!

DX11 :D

LovesuckZ
2009-10-15, 16:30:20
D3D11 kam von Microsoft. Die waren innovativ.

Dural
2009-10-15, 16:32:52
Ja sie haben DX11 etwas früher, aber doch auch nur weil sie ihre Architektur kaum verändert haben und auf alt bewärtes zurück gegriffen haben...

AnarchX
2009-10-15, 16:34:23
Wie kommst du da drauf? Von eine etwaigen März-Release der Mainstream-Karten, kannst du nicht irgendwelche Schlüsse zum HighEnd-Fermi schließen, der ja deutlich früher kommt...

Hoffen wir es, R600 sollte ja auch deutlich früher als seine 65nm Ableger kommen. :D

Ein ~500MHz Fermi hätte natürlich einen anderen Stand am Markt als es ein ~500MHz R600 2006 gehabt hätte. Aber wohlmöglich happert es bei Fermi wie auch beim R600 nicht nur am Takt.

derguru
2009-10-15, 16:39:23
Ja sie haben DX11 etwas früher, aber doch auch nur weil sie ihre Architektur kaum verändert haben und auf alt bewärtes zurück gegriffen haben...

mal gucken welche bedeutung das etwas früher haben wird und vorallem ob das etwas früher doch nicht etwas länger wird,ich liebe altbewährtes:wink:

Dural
2009-10-15, 16:42:28
Tja, AMD hat es mittlerweile immerhin geschafft ein ordentliches PR/Marketing aufzubauen.

Jep wie bei Batman wo sie NV beschuldigt haben das sie mit absicht gegen sie und somit auch gegen die User gearbeiten haben... und wo sich dann der Entwickler gemeldet hat und klar gestellt das sie AMD die selben möglichkeiten angeboten haben betreffent AA... nur hat es sie nicht ein mal interessiert lol... was für ein eigen Tor!!!

mal eine ernsthafte frage, wie kann man eigentlich fan von so einer Firma sein der ganz offensichtlich den User scheiss egal ist, so nach dem motto hier sind deine FPS und halt die klappe mehr krigst du nicht!

Gast
2009-10-15, 16:43:34
Ja sie haben DX11 etwas früher, aber doch auch nur weil sie ihre Architektur kaum verändert haben und auf alt bewärtes zurück gegriffen haben...
Fakt ist dass nV jetzt gerade mal neue Karten auf einem 1 1/2 Jahre altem Featureset vorstellt, das gerade abgelöst wird. Wie hiess es noch mal so schön zu R420 Zeiten: Technologiebremse?

Gast
2009-10-15, 16:45:17
...mal eine ernsthafte frage, wie kann man eigentlich fan von so einer Firma sein der ganz offensichtlich den User scheiss egal ist, so nach dem motto hier sind deine FPS und halt die klappe mehr krigst du nicht!
Meinst du die GT2xx Karten mit veraltetem Tech Level?

LovesuckZ
2009-10-15, 16:45:38
Fakt ist - AMD produziert und verkauft weiterhin das " 1 1/2 Jahre alte Featureset" im selben Preisbereich.
Wie hieß es so schön zu R420 Zeiten: ATi-Technologiebremse.

Ohman, ich finde das Forum wirklich lustig.

reunion
2009-10-15, 16:50:16
Jep wie bei Batman wo sie NV beschuldigt haben das sie mit absicht gegen sie gearbeiten und somit auch gegen die User... und wo sich dann der Entwickler gemeldet hat und klar gestellt das sie AMD die selben möglichkeiten angeboten haben betreffent AA... nur hat es sie nicht ein mal interessiert lol... was für ein eigen Tor!!!

mal eine ernsthafte frage, wie kann man eigentlich fan von so einer Firma sein der ganz offensichtlich den User scheiss egal ist, so nach dem motto hier sind deine FPS und halt die klappe mehr krigst du nicht!

Tja Dural, die Welt ist halt nicht nur schwarz und weiß. Und wenn du glaubst das es irgend eine Firma auf der Welt um was anderes geht als den eigenen Profit dann frage ich mich eher wer hier "Fan" von einer Firma ist. Und nein ich werde jetzt sicherlich nicht jedes Detail einzeln durch kauen, auch NV hat sich bereits genug geleistet. Der Unterschied seit der AMD-Übernahme und seit dem Dave Baumann bei ATi die Öffentlichkeitsarbeit übernommen hat ist jedenfalls eklatant. Sie greifen den Konkurrenten offensiv an, inszenieren eine riesige Show auf einem Flugzeugträger und lassen sich einfach nichts mehr gefallen. Das ist ein gewaltiger Unterschied was die execution betrifft im Vergleich zu früher wo man in dieser Hinsicht kaum vorhanden war.

Gast
2009-10-15, 16:50:50
Fakt ist - AMD produziert und verkauft weiterhin das " 1 1/2 Jahre alte Featureset" im selben Preisbereich.
Wie hieß es so schön zu R420 Zeiten: ATi-Technologiebremse.

Ohman, ich finde das Forum wirklich lustig.
Allerdings stellt AMD keine neuen Karten mehr mit DX10.1 vor. Selbst du müstest den Unterschied durch deine Brille sehen.

Dural
2009-10-15, 16:53:14
Meinst du die GT2xx Karten mit veraltetem Tech Level?

GT200 war für anfang 2008 bestimmt und da kann man keinen falls von veraltet sprechen!

Allerdings stellt AMD keine neuen Karten mehr mit DX10.1 vor. Selbst du müstest den Unterschied durch deine Brille sehen.

GT21x war für anfang 2009 bestimmt, da machte die 40nm Herstellung einen strich durch die rechung, übrigens hat AMD doch selber zuerst eine DX.10.1 GPU in 40nm gebracht und NV hat nur wenige wochen später nachgezogen, wie so sie die GT21x GPUs jetzt noch in den Retail Markt werfen liegt wohl einzig daran das sie derzeit einfach nichts anderes haben...

Gast
2009-10-15, 16:56:01
GT200 war für anfang 2008 bestimmt und da kann man keinen falls von veraltet sprechen!
LOL das wir jetzt Q3 2009 haben ist dir bewusst?

tombman
2009-10-15, 16:56:58
...so nach dem Motto: "Hier sind deine FPS, und halt die Klappe- mehr kriegst du nicht!"
Rofl, sigwürdig!!

Edit: Durals Rechtschreibfehler ausgebessert

LovesuckZ
2009-10-15, 16:57:09
Allerdings stellt AMD keine neuen Karten mehr mit DX10.1 vor. Selbst du müstest den Unterschied durch deine Brille sehen.

Ähm - und? Alt bleibt alt. Egal ob neu oder nicht.
Im Gegensatz zu ATi-Technologiebremse stellt man kein 10.1 gegen 11.

Gast
2009-10-15, 17:00:39
Ähm - und? Alt bleibt alt. Egal ob neu oder nicht.
Im Gegensatz zu ATi-Technologiebremse stellt man kein 10.1 gegen 11.
Nein momentan sieht es so aus:
10.1 vs 10.1
10.0 vs 11
10.0 vs 11
eigentlich alles klar

Coda
2009-10-15, 17:00:47
Fakt ist dass nV jetzt gerade mal neue Karten auf einem 1 1/2 Jahre altem Featureset vorstellt, das gerade abgelöst wird. Wie hiess es noch mal so schön zu R420 Zeiten: Technologiebremse?
SM2 ggü. SM3 war weitaus schlimmer als SM4 ggü. SM4.1

Aber recht hast du schon. Ich würde mir auch wünschen, dass NVIDIA mit G92 D3D10.1 implementiert hätte.

_DrillSarge]I[
2009-10-15, 17:01:35
Im Gegensatz zu ATi-Technologiebremse stellt man kein 10.1 gegen 11.
:uconf: was?

PulsarS
2009-10-15, 17:03:11
Ja sie haben DX11 etwas früher, aber doch auch nur weil sie ihre Architektur kaum verändert haben und auf alt bewärtes zurück gegriffen haben...
Im Endeffekt ist es egal auf was für ein Design man setzt.
Wenn man DX11 vollständig in Hardware unterstützt, dann müssen sie ja was am Design verändert haben. ;)
Und ich glaube kaum, dass DU das so beurteilen kannst, inwieweit da was am Design geändert wurde.
Wichtig ist, dass man alle DX11-Features vernünftig in Hardware gegossen hat und dass die Performance stimmt.
Bei dieser ist ATI zur Zeit nämlich auch Marktführer.
Also Features und Performance, was will man mehr?

Wir sprechen uns wieder, wenn wir wissen, was der Tesselator des Fermi so drauf hat... ;)

LovesuckZ
2009-10-15, 17:05:27
Nein momentan sieht es so aus:
10.1 vs 10.1
10.0 vs 11
10.0 vs 11
eigentlich alles klar

Nun es sieht eher so aus:
10.1 vs 10.1
10.0 (10.1) vs. 10.1
10.0 vs 10.1 vs 11
10.0 vs 11.

Man in drei von vier Fällen verkauft die ATi-Technologiebremse auch den alten Kram. :freak:
Oh und außerdem stellt nicht die nVidia-Technologiebremse ihre 10.0 Karten gegen die 11, sondern die ATi-Technologiebremse macht es. Sie könnten auch deutlich teurer verkaufen.

reunion
2009-10-15, 17:06:44
GT200 war für anfang 2008 bestimmt und da kann man keinen falls von veraltet sprechen!



GT21x war für anfang 2009 bestimmt, da machte die 40nm Herstellung einen strich durch die rechung, übrigens hat AMD doch selber zuerst eine DX.10.1 GPU in 40nm gebracht und NV hat nur wenige wochen später nachgezogen, wie so sie die GT21x GPUs jetzt noch in den Retail Markt werfen liegt wohl einzig daran das sie derzeit einfach nichts anders haben...

Ach man hatte es anders geplant, damit kann man alles erklären. NV scheint in letzter Zeit ganz schön Probleme zu haben ihre Termine einzuhalten. Was zählt ist auf dem Platz - hätte, wäre, wenn, nützt niemanden etwas.

Dural
2009-10-15, 17:06:48
LOL das wir jetzt Q3 2009 haben ist dir bewusst?

GT200 = GT21x ? ;D

GT21x wurde doch so ca. Mai 2009 (genaues Datum weis ich nicht) vorgestellt, die Karten gibt es auch schon länger als OEM zukaufen

_DrillSarge]I[
2009-10-15, 17:06:55
Nun es sieht eher so aus:
10.1 vs 10.1
10.0 (10.1) vs. 10.1
10.0 vs 10.1 vs 11
10.0 vs 11.

Man in drei von vier Fällen verkauft die ATi-Technologiebremse auch den alten Kram. :freak:
hä? bitte mal erklären.

reunion
2009-10-15, 17:08:13
I[;7598937']hä? bitte mal erklären.

Das soll keinen Sinn ergeben. LovesuckZ redet immer wirres Zeug wenn er keine Argumente mehr hat.

Gast
2009-10-15, 17:09:04
SM2 ggü. SM3 war weitaus schlimmer als SM4 ggü. SM4.1

Aber recht hast du schon. Ich würde mir auch wünschen, dass NVIDIA mit G92 D3D10.1 implementiert hätte.
SM4 oder SM4.1 auf G92 ist nicht das Schlimme, sondern dass nV den Markt jetzt wo D3D11 aktuell ist, und die "technologiebremse" Ati/AMD Karten mit aktuellem Techlevel vorstellt, der "technologievorreiter" nV eine neue Reihe mit SM4.1 bringt und das nicht von denjenigen angeprangert wird die zu R420 Zeiten keine Gelegenheit ausließen Ati an den Pranger zu stellen.

Gast
2009-10-15, 17:09:33
Wichtig ist, dass man alle DX11-Features vernünftig in Hardware gegossen hat und dass die Performance stimmt.
Bei dieser ist ATI zur Zeit nämlich auch Marktführer.
AMD hat doppelt soviele Einheiten reingesteckt, bei mehr als doppelt sovielen Transistoren.
In Benchmarks bekommt man davon ein gutes Stück weniger mit.

Also Features und Performance, was will man mehr?BQ. ;)

Wir sprechen uns wieder, wenn wir wissen, was der Tesselator des Fermi so drauf hat...Wir wissen nichtmal was AMDs Tesselator so drauf hat.

LovesuckZ
2009-10-15, 17:09:33
SM4 oder SM4.1 auf G92 ist nicht das Schlimme, sondern dass nV den Markt jetzt wo D3D11 aktuell ist, und die "technologiebremse" Ati/AMD Karten mit aktuellem Techlevel vorstellt, der "technologievorreiter" nV eine neue Reihe mit SM4.1 bringt und das nicht von denjenigen angeprangert wird die zu R420 Zeiten keine Gelegenheit ausließen Ati an den Pranger zu stellen.

Ich sehe kein D3D11 in dem Preisbereich, indem nVidia die neuen Karten vorstellt. Wo bremst also nVidia einen Markt aus, der erst von AMD in frühsten drei Monaten bedient wird? :confused:

PulsarS
2009-10-15, 17:16:12
Nun es sieht eher so aus:
10.1 vs 10.1
10.0 (10.1) vs. 10.1
10.0 vs 10.1 vs 11
10.0 vs 11.

Man in drei von vier Fällen verkauft die ATi-Technologiebremse auch den alten Kram. :freak:
Oh und außerdem stellt nicht die nVidia-Technologiebremse ihre 10.0 Karten gegen die 11, sondern die ATi-Technologiebremse macht es. Sie könnten auch deutlich teurer verkaufen.
Man, man, man...:rolleyes:
Was du wieder vom Stapel lässt, da rollen sich einem die Fussnägel hoch.
ATI als Technologiebremse zu bezeichnen, obwohl sie schon seit über 1,5 Jahren beim Featureset vorn sind, ist wirklich kindisch von dir.
Sorry, aber anders kann man es kaum bezeichnen. :(
Außerdem ist der Sinngehalt deines Postings wirklich sehr dürftig und abgesehen davon auch noch provokativ.

Edit:
AMD hat doppelt soviele Einheiten reingesteckt, bei mehr als doppelt sovielen Transistoren.
In Benchmarks bekommt man davon ein gutes Stück weniger mit.
Könnte noch am Treiber liegen.

BQ. ;)
SGSSAA?

Wir wissen nichtmal was AMDs Tesselator so drauf hat.
Wäre schon eine Überraschung, wenn ATI hier schlecht abschneiden würde.
Die haben eine Tesselationseinheit schon seit Jahren in ihren GPUs.

Gast
2009-10-15, 17:17:01
I[;7598937']hä? bitte mal erklären.
10.1 vs 10.1 (Low-End)
10.0 (10.1) vs. 10.1 (Mittelklasse)
10.0 vs 10.1 vs 11 (Peformance: GTS 200 vs neue 40nm 200er vs alte HD4800/4700 vs HD5700)
10.0 vs 11. (High-End: GTX 200 vs HD5800, 4870 X2 mit 10.1 hat er vergessen)

Gast
2009-10-15, 17:18:22
Ich sehe kein D3D11 in dem Preisbereich, indem nVidia die neuen Karten vorstellt. Wo bremst also nVidia einen Markt aus, der erst von AMD in frühsten drei Monaten bedient wird? :confused:
uuuuuhhh du definierst "Markt" wie es dir gerade in den Sinn kommt. vDu mußt ein glücklicher Mensch sein

LovesuckZ
2009-10-15, 17:19:05
Man, man, man...:rolleyes:
Was du wieder vom Stapel lässt, da rollen sich einem die Fussnägel hoch.
ATI als Technologiebremse zu bezeichnen, obwohl sie schon seit über 1,5 Jahren beim Featureset vorn sind, ist wirklich kindisch von dir.
Sorry, aber anders kann man es kaum bezeichnen. :(
Außerdem ist der Sinngehalt deines Postings wirklich sehr dürftig und abgesehen davon auch noch provokativ.

Hä?
Der liebe Gast bezeichnet nVidia als Technologiebremse, weil sie in einem Marktbereich, indem es zZ nur 10.1 gibt, 10.1 bringen. Komisch, der Konkurrent produziert weiterhin seine 10.1 Produkte, die frühsten im Januar abgelöst werden. Das hat wohl der Gast nicht verstanden. Deswegen habe ich es ihm in dieser Auflistung nochmal verdeutlich, wo D3D11 aktuell von AMD angeboten wird.

/Edit: Anscheinend kennen einige nicht mehr die Geschichte: ATi plazierte mit dem rv420 SM2.b Produkte gegen aktuelle SM3.0 Produkte von nVidia. Das ist bis heute noch ein meilenweiter Unterschied und wäre erst vergleichbar, wenn Fermi Karten über kein D3D11 verfügen würden.

Gast
2009-10-15, 17:21:38
Hä?
Der liebe Gast bezeichnet nVidia als Technologiebremse, weil sie in einem Marktbereich, indem es zZ nur 10.1 gibt, 10.1 bringen. Komisch, der Konkurrent produziert weiterhin seine 10.1 Produkte, die frühsten im Januar abgelöst werden. Das hat wohl der Gast nicht verstanden. Deswegen habe ich es ihm in dieser Auflistung nochmal verdeutlich, wo D3D11 aktuell von AMD angeboten wird.
was ist der Unterschied zwischen "Neuvorstellung" und "Abverkauf bis die neuen Karten" raus sind. Das hast du leider nicht verstanden.

_DrillSarge]I[
2009-10-15, 17:22:52
10.1 vs 10.1 (Low-End)
10.0 (10.1) vs. 10.1 (Mittelklasse)
10.0 vs 10.1 vs 11 (Peformance: GTS 200 vs neue 40nm 200er vs alte HD4800/4700 vs HD5700)
10.0 vs 11. (High-End: GTX 200 vs HD5800, 4870 X2 mit 10.1 hat er vergessen)
schon klar. nur was hat das mit "technologiebremse" zu tun?

imo ist es zwar nicht wirklich wichtig, ob nun 10 oder 10.1 und auch gt300 wird dx11 haben. bis dahin wird es vielleicht die ein odere andere anwendung geben, die aus dx11 wirklich vorteile zieht. erst wenn beide dx11 haben "gehts richtig los". also nix ati-bremse, momentan eher umgekehrt.
dafür gibts bei nvidia physx und cuda/opencl (wem das nun wichtig ist). bei ati haste auch stream und opencl-support. also....ati-bremse hä? :D

LovesuckZ
2009-10-15, 17:24:17
was ist der Unterschied zwischen "Neuvorstellung" und "Abverkauf bis die neuen Karten" raus sind. Das hast du leider nicht verstanden.

Weiß nicht - unterscheidet sich neuproduziertes gegen altproduziertes davon? :confused:
Leider hast du die letzten Nachrichten nicht gehört, dass EOL der HD4xxx Serie erst im nächsten Jahr passieren soll. Komm dann wieder.

Gast
2009-10-15, 17:26:08
Ich sehe kein D3D11 in dem Preisbereich, indem nVidia die neuen Karten vorstellt. Wo bremst also nVidia einen Markt aus, der erst von AMD in frühsten drei Monaten bedient wird? :confused:
Recht hat er hier vollkommen.

Die Überschneidung stellen 5770 und 5750 dar. Sie kolidieren mit mindestens einer GT215 bestückten Karte.

Weitere Überschneidungen gibt es nicht, Nvidias restliche 10.1 Produkte haben 10.1 Konkurrenz, den diese Produkte sind weiter unten agesiedelt.

Nvidias oberen 10.0 Produkte sind EOL und werden in einigen Monaten durch 11 abgelöst.

Ailuros
2009-10-15, 17:28:58
Wäre schon eine Überraschung, wenn ATI hier schlecht abschneiden würde.

Es ist noch nichts darueber oeffentlich bekannt wo und wie NV Tesselation ausfuehren wird. Selbst wenn dem so waere koennte weder ich noch Du einschaetzen wie es genau aussieht.

Die haben eine Tesselationseinheit schon seit Jahren in ihren GPUs.

Sagt mir ueberhaupt nichts. Ich kenne Koeche mit jahrelanger Erfahrungen deren Suppe eher nach Abwaschwasser schmeckt.

Gast
2009-10-15, 17:35:28
/Edit: Anscheinend kennen einige nicht mehr die Geschichte: ATi plazierte mit dem rv420 SM2.b Produkte gegen aktuelle SM3.0 Produkte von nVidia. Das ist bis heute noch ein meilenweiter Unterschied und wäre erst vergleichbar, wenn Fermi Karten über kein D3D11 verfügen würden.
Hm, Anfang/Mitte 2004 gabs erste GF6 und Mitte/Ende 2005 gabs Neuvorstellungen der X-Serie.
Mit Radeon X1050 gabs sogar Anfang 2007 noch ein neues SM2b Produkt. ;D

Gerade letzteres darf zu denken geben, AMD hat öfters am unteren Ende alte Produkte verwendet, mit altem Techlevel. Gut möglich das eine HD4 den Weg in die HD5 Gefilde findet.

Menace
2009-10-15, 17:40:37
Ist ja mal wieder ein Schattenboxen hier. ;)

Keine der beiden Hersteller ist eine Technologiebremse; sie setzen nur andere Schwerpunkte. Falls ein Hersteller doch diesen Artikel verdient, dann nvidia. Grund: 10.1 kleingeredet und verhindert, jetzt bringen sie es. Jetzt wird DX11 kleingeredet und in 3 Monaten (oder früher) bringen sie es dann auch. Natürlich ist nvidia dafür in anderen Bereich innovativ. Von daher zieht bei beiden diese Kritik nicht.

Menace
2009-10-15, 17:43:14
Sagt mir ueberhaupt nichts. Ich kenne Koeche mit jahrelanger Erfahrungen deren Suppe eher nach Abwaschwasser schmeckt.

Ging der Streit nicht um das Ausbremsen von Technologie? Immerhin hatte Ati sowas im Angebot. ;) Diese Vergleiche hinken auch mal wieder. Es wäre wohl eher der Herd (Ati) und das Produkt (Koch), die da bisher nicht harmonierten bzw. unterstützten.

PulsarS
2009-10-15, 17:45:49
Es ist noch nichts darueber oeffentlich bekannt wo und wie NV Tesselation ausfuehren wird. Selbst wenn dem so waere koennte weder ich noch Du einschaetzen wie es genau aussieht.
Deswegen auch:

Wir sprechen uns wieder, wenn wir wissen, was der Tesselator des Fermi so drauf hat... ;)




Sagt mir ueberhaupt nichts. Ich kenne Koeche mit jahrelanger Erfahrungen deren Suppe eher nach Abwaschwasser schmeckt.
Die Wahrscheinlichkeit, dass ATI beim Tesselator Mist baut ist deutlich geringer als bei NV. Zumindest nach meiner Logik. :)

Coda
2009-10-15, 17:46:30
SM4 oder SM4.1 auf G92 ist nicht das Schlimme, sondern dass nV den Markt jetzt wo D3D11 aktuell ist, und die "technologiebremse" Ati/AMD Karten mit aktuellem Techlevel vorstellt, der "technologievorreiter" nV eine neue Reihe mit SM4.1 bringt und das nicht von denjenigen angeprangert wird die zu R420 Zeiten keine Gelegenheit ausließen Ati an den Pranger zu stellen.
Man kann 3 Monate Verzögerung auf dem Markt wohl kaum als "Technologiebremse" betiteln. Glaubst du wirklich, dass in diesem Zeitrahmen sonst viel mehr D3D11-Titel erschienen wären? Nein. Also.

R420 war da ein ganz anderes Kaliber, da wurde SM3 um 1,5 Jahre verzögert.

Niemand der jetzt D3D11-Titel plant wird dies sein lassen, weil es von NVIDIA Karten erst Ende 2009/Anfang 2010 gibt.

LovesuckZ
2009-10-15, 17:47:36
Die Wahrscheinlichkeit, dass ATI beim Tesselator Mist baut ist deutlich geringer als bei NV. Zumindest nach meiner Logik. :)

Die solltest du justieren - immerhin haben sie auch bei den "Unified Shader" mistgebaut. ;)

Ailuros
2009-10-15, 17:48:36
Ging der Streit nicht um das Ausbremsen von Technologie? Immerhin hatte Ati sowas im Angebot. ;) Diese Vergleiche hinken auch mal wieder. Es wäre wohl eher der Herd (Ati) und das Produkt (Koch), die da bisher nicht harmonierten bzw. unterstützten.

Der metaphorische Vergleich hinkt ueberhaupt nicht. Denn er spielte auf angebliche Erfahrung ab, waehrend sich jede einzelne Tesselations-Einheit seit dem Xenos nur dumm ruckhockt und sich langweilt. ATI hat es schwer im absoluten Umfang ihre wirklich eingesetzten Einheiten richtig mit sw zu unterstuetzen, wieso sollte es bei einer unbenutzten Einheit besser sein. Frag mal wie es mit AMD's erster OpenCL Version genau aussieht; fett geworben hat man damit bis jetzt schon....

Deswegen auch:....

Welches genauso Substanzlos ist wie jede andere zeitliche Referenz zum Thema Tesselation.

Die Wahrscheinlichkeit, dass ATI beim Tesselator Mist baut ist deutlich geringer als bei NV. Zumindest nach meiner Logik. :)

Und wie es bei GF100 implementiert genau damit ich Deine Logik erstmal verfolgen kann?

Gast
2009-10-15, 17:49:34
Jetzt wird DX11 kleingeredet
Nein Tim, das hat Nvidia nie getan. ;)

Von daher zieht bei beiden diese Kritik nicht.Kritik muss sein, wo kommen wir den hin das es keine Kritik mehr gibt?
Es muss alles kritisiert werden, sonst schadet es uns doch nur.

Menace
2009-10-15, 17:59:04
Der metaphorischer Vergleich hinkt ueberhaupt nicht. Denn er spielte auf angebliche Erfahrung ab, waehrend sich jede einzelne Tesselations-Einheit seit dem Xenos nur dumm ruckhockt und sich langweilt. ATI hat es schwer im absoluten Umfang ihre wirklich eingesetzten Einheiten richtig mit sw zu unterstuetzen, wieso sollte es bei einer unbenutzten Einheit besser sein. Frag mal wie es mit AMD's erster OpenCL Version genau aussieht; fett geworben hat man damit bis jetzt schon....


Aber warum wird Tesselation nicht unterstützt? Steckt das Problem in der Hardware oder in der Programmierung der dementsprechenden Software? Falls letzteres, wäre die Unterstützung breiter gewesen, wenn auch nvidia Tesselation-Einheiten hätte?

Ich denke, solange nvidia die meistgekauften GraKa hat, werden die Konkurrenzprodukte weniger beachtet. Gut, Ati trägt da bestimmt auch einen großen Teil der Mitschuld.

Ailuros
2009-10-15, 18:05:16
Aber warum wird Tesselation nicht unterstützt?

Wer sagte dass es nicht unterstuetzt wird?

Steckt das Problem in der Hardware oder in der Programmierung der dementsprechenden Software? Falls letzteres, wäre die Unterstützung breiter gewesen, wenn auch nvidia Tesselation-Einheiten hätte?

Tesselation wird auf GF100 in hw ausgefuehrt und nicht in software. Eine Tesselations-Einheit (ob jetzt fixed function dedizierte Einheit oder Gebrauch von programmierbarer hw) hat insgesamt vereinfacht vier Aufgaben. Die Haelfte ist effizienter auf ff hw aufgehoben und die andere Haelfte auf programmierbarer hw.

Ich denke, solange nvidia die meistgekauften GraKa hat, werden die Konkurrenzprodukte weniger beachtet. Gut, Ati trägt da bestimmt auch einen großen Teil der Mitschuld.

Ich denke manche von Euch solltet nicht der Zeit hervorreiten bis man handfeste Daten hat. Mit ein bisschen Anstrengung kann man schon oben herauslesen was sie vielleicht gemacht haben und ich behaupte auch nirgends dass die eine oder andere Loesung effizienter sein wird. Es ist eher Eure merkwuerdige "Sicherheit" ueber ein Feld dass immer noch ein Fragezeichen ist.

Menace
2009-10-15, 18:15:17
Ich denke manche von Euch solltet nicht der Zeit hervorreiten bis man handfeste Daten hat. Mit ein bisschen Anstrengung kann man schon oben herauslesen was sie vielleicht gemacht haben und ich behaupte auch nirgends dass die eine oder andere Loesung effizienter sein wird. Es ist eher Eure merkwuerdige "Sicherheit" ueber ein Feld dass immer noch ein Fragezeichen ist.

Da hast Du mich falsch verstanden. Dass Fermie das nicht noch besser lösen könnte/kann bezweifle ich gar nicht. Es geht darum, wann hat eine der beiden Firmen eine "innovative" Sache eingeführt, die eine andere Firma nicht hatte bzw. nicht unterstützte. Es wurde ja behauptet, dass es Technologiebremsen gäbe und das kritisierte ich (zusammen mit deinem Suppenvergleich). Ich denke, dass wir als Nutzer von beiden Firmen dadurch profitieren, dass sie dem jeweilig anderem voraus sein wollen. Manchmal werden die Innovationen nicht am Mark umgesetzt. Über zukünftige Produkte maß ich mir kein Urteil an. Über so manche Äußerungen von nvidia und Ati aber schon.

BlackBirdSR
2009-10-15, 18:21:22
Als jemand mit einer guten Portion Abstand, muss ich durchaus zugeben, dass ATIs Folien sehr stark nach "Besorgnis" klingen.

IMO ist man sich durchaus bewusst, dass man jetzt gut Kohle machen kann, während die Sache Mitte nächsten Jahres schon wieder viel schlechter aussehen kann. Der starke Fokus auf Spiele hinterlässt auch so einen kleinen Beigeschmack. Wenn man da mal nicht den Zug verpasst.

Jetzt interessiert mich nur noch Folgendes:
Wie hoch ist die Leistungsaufnahme der Grafikchips, wenn darauf ein ganzes Betriebsystem läuft? Kann der Chip adaptiv genug Teile abschalten, damit er auch in Phasen ohne Berechnungen (Benutzereingaben etc) nicht das Büro aufheizt? Ich bin sehr gespannt, ab welcher Generation ein OS auf einem Grafikchip wirklich nutzbar wird.
(Zum Vergleich: In 8 Stunden Büroarbeit verbringt ein Core2 über 92% der Zeit im Halt-State, selbst bei Simulationen sind es teilweise noch über 50%)

w0mbat
2009-10-15, 18:23:18
Es geht hier um Grafikkarten, die dazu da sind Spiele darzustellen. Ein Fokus auf andere Bereiche zeigt nur, dass man Probleme hat und sich nicht in der Lage sieht anderweitig zu konkurrieren.

Ailuros
2009-10-15, 18:30:23
Da hast Du mich falsch verstanden. Dass Fermie das nicht noch besser lösen könnte/kann bezweifle ich gar nicht.

Bei mir bleibt es ein unbekanntes Feld bis mehr darueber bekannt ist. Und selbst eine moegliche Erahnung der Implementierung ist nicht gut genug um zu spekulieren wie effizient sie sein koennte.

Es geht darum, wann hat eine der beiden Firmen eine "innovative" Sache eingeführt, die eine andere Firma nicht hatte bzw. nicht unterstützte.

Jegliche einseitige "Innovationen" begrenzen sich heutzutage eher auf das Feld wie jeglicher IHV X Faehigkeit implementiert.

Es wurde ja behauptet, dass es Technologiebremsen gäbe und das kritisierte ich (zusammen mit deinem Suppenvergleich).

Ach Du meinst die alberne 10 vs. 10.1 Debatte die seit einigen Seiten vorgeht? Wenn's schon sein muss wenn bei einem so grossen IHV wie NVIDIA Deine erfahrenen engineers behaupten dass 10.1 auf jeden Fall nicht nutzlos sein wird (und bei so einem relativ kleinen Aufwand von 10 zu 10.1 zu steigen noch mehr) und Deine Marketing-Affen wollen alles besser wissen wird es Zeit dass jemand Deinen Saustall aufraeumt. Jensen hat sich nicht umsonst in letzter Zeit heisser gebruellt und ich sehe dass Herr Perez in "freiwillige" Rente gegangen ist.

Die Suppen-Parallele hab ich schon erlaeutert; kein IHV der bis jetzt eine Tesselations-Einheit hatte hat keine besondere Echtzeit-Erfahrung damit.


Ich denke, dass wir als Nutzer von beiden Firmen dadurch profitieren, dass sie dem jeweilig anderem voraus sein wollen. Manchmal werden die Innovationen nicht am Mark umgesetzt. Über zukünftige Produkte maß ich mir kein Urteil an. Über so manche Äußerungen von nvidia und Ati aber schon.

Ich sehe nicht viel Platz fuer besondere "Innovationen" und die Geschichte mit jeglicher "Innovation" ist sowieso relativ wenn man bedenkt dass die meisten Aspekte schon seit einiger Zeit in anderen Feldern benutzt werden und die Grafik IHVs es einfach dann in mainstream GPUs implementieren wenn es moeglich ist. Beispiel: ist antialiasing seit dem Napalm bei GPUs wirklich eine Innovation oder eine Implentierung einer Faehigkeit die schon seit Jahren in anderen Gebieten existierte?

Microsoft definiert in Zusammenarbeit mit den IHV zukuenftige APIs und die IHVs implementieren je nach ihren Zielen das eine oder andere auf ihre eigene Art.

Es geht hier um Grafikkarten, die dazu da sind Spiele darzustellen. Ein Fokus auf andere Bereiche zeigt nur, dass man Probleme hat und sich nicht in der Lage sieht anderweitig zu konkurrieren.

Das ist die kurzsichtige These die das zukuenftige Potential von GPGPU total ignoriert. Momentan ist es natuerlich viel zu frueh, aber persoenlich waere es mir lieber wenn ich in der Zukunft sagen wir mal 3-400 Euro auf den Ladentisch lege dass ich nicht nur in Spielen das teure Spielzeug aus dem Dornroeschenschlaf erwecke sondern dass meine Investition auch woanders Sinn machen koennte. Nach Deiner Logik koennte es von mir aus auch noch 3D only GPUs wie zu Voodoo1 & 2 Zeiten geben.

Nakai
2009-10-15, 18:34:34
IMO ist man sich durchaus bewusst, dass man jetzt gut Kohle machen kann, während die Sache Mitte nächsten Jahres schon wieder viel schlechter aussehen kann. Der starke Fokus auf Spiele hinterlässt auch so einen kleinen Beigeschmack. Wenn man da mal nicht den Zug verpasst.

Ich gehe bis 50% Leistungsvorteil für Fermi aus. Hemlock wird Fermi noch ein bisschen Abhalten können, bis die Dualkarte von NV kommt. Dann muss AMD mit einem Refresh antanzen.
Wenn Fermi sich zu sehr verspätet, dann wird er eher noch mit dem RV890 konkurrieren...

Es geht hier um Grafikkarten, die dazu da sind Spiele darzustellen. Ein Fokus auf andere Bereiche zeigt nur, dass man Probleme hat und sich nicht in der Lage sieht anderweitig zu konkurrieren.

NV braucht schleunigst ein zweites Standbein. Der Grafikmarkt ist mittlerweile zu unsicher geworden.


mfg Nakai

Gast_auf_EtOH
2009-10-15, 18:36:19
Aber so häufig sind Speicherfehler auch nicht.Eine u.a. von Google durchgeführte Studie (http://www.heise.de/newsticker/meldung/Hauptspeicherfehler-sehr-viel-haeufiger-als-bisher-angenommen-828883.html) bewertet die Häufigkeit von kippenden Bits bei DRAM ein wenig höher, als bisher gemeinhin angenommen wurde.Charlie hat ADHD.Auch der jahrelange Missbrauch von den bei AD(H)S verschriebenen dopaminerg und noradrenerg wirksamen Medikamenten führt nicht zwangsläufig zu einem Verhalten, wie es Charlie an den Tag legt. Da müssen auch so schon gewisse charakterliche Voraussetzungen gegeben sein.Wobei GPU-Client 3 wohl auch generell etwas schneller ist.Ist der GPU-Client 3 in einer öffentlichen Beta verfügbar? Finde da auf Anhieb nichts auf der Stanford-Seite. Weiß jemand, ob die GPU-Support im dritten Client auch auf Linux umsetzen wollen? Bei BOINC hat man es ja auch hinbekommen. Die Unterstützung seitens Nvidia stellt jedenfalls nicht das Problem dar. Der Linux-Treiber liegt hier nicht nennenswert zurück, auch OpenCL ist drin. Wie es bei ATI aussieht, weiß ich leider nicht.Da ist Nvidia Meister drin.
Vor allem was die Fx-Serie in Beziehung mit SM2 anging.
Man hat das Blaue vom Himmel versprochen. Daraus wurde aber nichts.
Die FX-Serie war in SM2 der Megaflop.]Die Versprechungen von Tseng Labs (http://findarticles.com/p/articles/mi_m0EIN/is_1996_Oct_9/ai_18754932/) zum Release der ET6000 haben sich nicht in jedem Fall als zutreffend bewiesen. Deshalb ist davon auszugehen, dass zukünftige ATI-Karten die Erwartungen nicht erfüllen werden.Rede ATI doch nicht so schlecht, sie sind der Marktführer und die inovative Firma am Markt.Realitätsverlust?NV scheint in letzter Zeit ganz schön Probleme zu haben ihre Termine einzuhalten. Was zählt ist auf dem Platz - hätte, wäre, wenn, nützt niemanden etwas.Sofern am Ende ein gutes Produkt rauskommt, können sie sich ruhig Zeit lassen. Ist für NV selbst sicherlich nicht so toll, aber ich als potenzieller Kunde und Technikinteressierter habe es weitaus lieber, wenn ein spätes, aber technologisch hochinteressantes Produkt erscheint, als wenn ich etwas angeboten bekomme, was zwar im allgemeinen den Zweck erfüllt, aber nicht einen Hauch von Begeisterung hervorruft.SM4 oder SM4.1 auf G92 ist nicht das Schlimme, sondern dass nV den Markt jetzt wo D3D11 aktuell ist, und die "technologiebremse" Ati/AMD Karten mit aktuellem Techlevel vorstellt, der "technologievorreiter" nV eine neue Reihe mit SM4.1 bringtD3D11-Techlevel ist im Value- bzw. Mobil-Bereich eben noch längst nicht angekommen. Bei beiden IHVs. Daher begrüße ich es doch, wenn NV neue Produkte wenigstens auf 10.1 aufstockt. ATI hat doch kurz vorher auch noch die 4770(?) gebracht. Eine andere Angelegenheit ist die, dass man seitens NV nicht gleich mit G92 oder zumindest GT200 die Unterstützung des D3D-10.1-Techlevels gebracht hat. Das gefällt mir ebenfalls nicht.AMD hat doppelt soviele Einheiten reingesteckt, bei mehr als doppelt sovielen Transistoren.
In Benchmarks bekommt man davon ein gutes Stück weniger mit.ATI musste aber auch D3D11-Compliance erreichen. Das kostet auch einen Teil des Transistorenbudgets. Da zu erwarten, dass jeder zusätzliche Transistor auch in Leistung gesteckt wird, ist imho nicht ganz realitätsnah.

V2.0
2009-10-15, 18:37:53
I
NV braucht schleunigst ein zweites Standbein. Der Grafikmarkt ist mittlerweile zu unsicher geworden.


mfg Nakai


Aber nicht auf Kosten der Kernkompetenz aka Grafikleistung. Niemand kauft in dem dominierenden Segment eine Karte die deutlich teurer, stromfressender und nur geringfügig schneller ist als der Konkurrent. Keine Firma kann damit dauerhaft überleben.

ATI braucht diese Versuche nicht machen, denn man produziert CPUs.

AnarchX
2009-10-15, 18:41:04
Laut Charlie noch kein Tape-Out von A2:
http://www.semiaccurate.com/forums/showpost.php?p=9265&postcount=12

Ailuros
2009-10-15, 18:47:40
Aber nicht auf Kosten der Kernkompetenz aka Grafikleistung.

Das Thema haben wir schon mal besucht. Wie schonmal gesagt beweiss mir woher ein 3.08 Mrd. Transistoren chip bezahlbahre Bandbreite herbekommen wuerde wenn kein einziger Transistor fuer HPC dediziert waere.

Niemand kauft in dem dominierenden Segment eine Karte die deutlich teurer, stromfressender und nur geringfügig schneller ist als der Konkurrent. Keine Firma kann damit dauerhaft überleben.

Wenn Du jetzt nicht geringfuegig schneller gesagt haettest, haette ich sofort an Larabee gedacht. Sonst faellt mir nicht ein wass Du meinen koenntest ;)

ATI braucht diese Versuche nicht machen, denn man produziert CPUs.

Och AMD wartet bis das GPGPU Manna vom Himmel faellt und es wird sich wohl auch alles von sich selber regeln ab Fusion. Eben nicht.

Laut Charlie noch kein Tape-Out von A2:
http://www.semiaccurate.com/forums/showpost.php?p=9265&postcount=12

Es waere sowieso viel zu frueh fuer A2, und ich bezweifle auch dass er dieses meint.

Nakai
2009-10-15, 18:48:50
Aber nicht auf Kosten der Kernkompetenz aka Grafikleistung. Niemand kauft in dem dominierenden Segment eine Karte die deutlich teurer, stromfressender und nur geringfügig schneller ist als der Konkurrent. Keine Firma kann damit dauerhaft überleben.

Man hat damit lange genug überlebt.
Es geht doch gar nicht mehr um Grafikleistung. Der Grafikmarkt hat sich dahingehend geändert, dass neue Kompetenzen notwendig sind. SoCs, Notebooks, Multimedia, Rechenleistung etc. Ne GPU ist mittlerweile zu mehr als nur Grafikberechnung fähig, da wird mir jeder zustimmen.

Seit Ende 2006 versucht NV den Markt mit Cuda zu ändern. Hätte auch geklappt, würde man den Markt wie vor 5 Jahren beherrschen und mehr Einfluss in andere Sektoren haben. Mittlerweile geht es ja noch, aber man wird damit bestimmt nicht alleine überleben können, vorallem mit der Konkurrenz ala ATI/AMD und Intel. NV ist deutlich kurzlebiger. Ich gehe nicht davon aus, dass NV 10 Verlustquartale überlebt hätte...

NV muss wieder ne Bombe platzen lassen...



mfg Nakai

€:
Och AMD wartet bis das GPGPU Manna vom Himmel faellt und es wird sich wohl auch alles von sich selber regeln ab Fusion. Eben nicht.

Darum gehts doch gar nicht. Fusion mag Vorteile haben, aber es hat wohl nicht die Leistung. So oder so, ich glaube kaum, dass NV im Professionellen Markt überleben kann.

V2.0
2009-10-15, 18:50:57
@Ailuros

Ich sagte ausdrücklich nicht, dass es os ist, ich sagte nur was wäre, wenn es so wäre. Schätzungen zu Fermi mag ich nicht mehr machen.

master_blaster
2009-10-15, 18:51:53
Laut Charlie noch kein Tape-Out von A2:
http://www.semiaccurate.com/forums/showpost.php?p=9265&postcount=12
Warum muss nV bis zum A2 Stepping warten? Oder anders: Was ist am A1 nicht release-fähig?

Ailuros
2009-10-15, 18:54:16
@Ailuros

Ich sagte ausdrücklich nicht, dass es os ist, ich sagte nur was wäre, wenn es so wäre. Schätzungen zu Fermi mag ich nicht mehr machen.

Ich glaube ich brauche ausser smilies und einige Fetzen an Sarkasmus einen "bittenichternstnehmen" disclaimer fuer solche Antworten ;)

Warum muss nV bis zum A2 Stepping warten?

Ich kann mich bis jetzt an noch keine <A2 Veroeffentlichung eines chips von NVIDIA erinnern. Bei der Chipkomplexitaet klingt mir das eher als ob man jemand mit Parkinson auf ein Drahtseil schickt.

Oder anders: Was ist am A1 nicht release-fähig?

Das es erste funktionsfaehige aber nicht produktionsreife hw bedeutet vielleicht ;)

mapel110
2009-10-15, 18:54:17
Warum muss nV bis zum A2 Stepping warten? Oder anders: Was ist am A1 nicht release-fähig?
Angeblich ist der Takt zu niedrig. Aber auch dazu gibts keine gesicherten Erkenntnisse.

BlackBirdSR
2009-10-15, 18:54:58
Angeblich ist der Takt zu niedrig. Aber auch dazu gibts keine gesicherten Erkenntnisse.

Auf "Deutsch" die "Yields" im gewünschten "Bin" sind miserabel, was die Kosten zu stark ansteigen lassen würde.

Ailuros
2009-10-15, 18:57:39
Auf "Deutsch" die "Yields" im gewünschten "Bin" sind miserabel, was die Kosten zu stark ansteigen lassen würde.

Deshalb flog Jensen auch nach Taiwan.

LovesuckZ
2009-10-15, 19:02:22
Laut Charlie noch kein Tape-Out von A2:
http://www.semiaccurate.com/forums/showpost.php?p=9265&postcount=12

Soso - Charlie denkt also, dass nVidia nur 6 Wochen von A1 - A2 braucht. :rolleyes:
Wobei, laut Charlie schaffte nVidia es auch vom Tape-Out zu A1 in 4-5 Wochen. :freak:
Es dauert wohl 8-12 Wochen von A1-> A2, wenn man es eilig hat.


Ich kann mich bis jetzt an noch keine <A2 Veroeffentlichung eines chips von NVIDIA erinnern. Bei der Chipkomplexitaet klingt mir das eher als ob man jemand mit Parkinson auf ein Drahtseil schickt.


G94 kam in A1 auf dem Markt.

Dural
2009-10-15, 19:02:45
Es geht hier um Grafikkarten, die dazu da sind Spiele darzustellen. Ein Fokus auf andere Bereiche zeigt nur, dass man Probleme hat und sich nicht in der Lage sieht anderweitig zu konkurrieren.

Nö es zeigt nur das man wachsen will und dazu den Grafikkarten markt nicht mehr als ideal ansieht da er wahrscheinlich sogar kleiner wird, jetzt vom PC-Gamer Markt her gesehen.

Ailuros
2009-10-15, 19:07:03
Soso - Charlie denkt also, dass nVidia nur 6 Wochen von A1 - A2 braucht. :rolleyes:
Wobei, laut Charlie schaffte nVidia es auch vom Tape-Out zu A1 in 4-5 Wochen. :freak:
Es dauert wohl 8-12 Wochen von A1-> A2, wenn man es eilig hat.

Kann ja sein dass ich mich verlesen habe, aber er scheint nichts von A2 zu erwaehnen. Was hab ich verpasst?

G94 kam in A1 auf dem Markt.

Gut ich nehme es dank Aussnahme zurueck. Ich weigere mich trotzdem einen Elephanten mit einer Fliege zu vergleichen, weil die letztere eben keinen Ruessel hat :D

LovesuckZ
2009-10-15, 19:08:17
Kann ja sein dass ich mich verlesen habe, aber er scheint nichts von A2 zu erwaehnen. Was hab ich verpasst?


the second spin of Fermi hadn't taped out yet

Ich denke, er meint A2.

Menace
2009-10-15, 19:10:30
Ich weigere mich trotzdem einen Elephanten mit einer Fliege zu vergleichen, weil die letztere eben keinen Ruessel hat :D

Die Begründung war jetzt ein Witz (also Ironie), oder?

http://de.wikipedia.org/wiki/Rüssel

Ailuros
2009-10-15, 19:13:03
Ich denke, er meint A2.

Wieso sollte ein 2nd spin A2 sein? Anders gefragt was kommt nach debugging?

Die Begründung war jetzt ein Witz (also Ironie), oder?

http://de.wikipedia.org/wiki/Rüssel

Ich denke Du hast wohl schon verstanden dass eine Fliege (G94) um einiges kleiner als ein Elephant (GF100) ist oder?

Dural
2009-10-15, 19:16:35
G94 kam in A1 auf dem Markt.

jetzt wo du es sagst, kommts mir auch in den sinn:

http://img513.imageshack.us/img513/1725/dsc03731um9.jpg

obwohl das war ja auch nur ein halber G92, von dem her nicht so speziell ;)

LovesuckZ
2009-10-15, 19:19:38
Wieso sollte ein 2nd spin A2 sein? Anders gefragt was kommt nach debugging?


Ich geh davon aus, dass zum Zeitpunkt des Schreibens er wieder vergessen hat, dass nVidia mit A1 anfängt.
Ansonsten wüsste ich persönlich auch nicht, was das bedeuten sollte.


obwohl das war ja auch nur ein halber G92, von dem her nicht so speziell ;)

Nicht wirklich. Der G94 hat 505 Millionen Transistoren, ein G92 754 Millionen. Er war schon deutlich komplexer. nVidia hatte aber auch viel Glück. Hätte man ein A2 benötigt, wäre man auch erst im April/Mai 2008 gekommen

Menace
2009-10-15, 19:22:40
Ich denke Du hast wohl schon verstanden dass eine Fliege (G94) um einiges kleiner als ein Elephant (GF100) ist oder?

Mea Culpa, absolut mein Fehler, da habe ich nicht mitgedacht.

StefanV
2009-10-15, 19:51:26
Warum muss nV bis zum A2 Stepping warten? Oder anders: Was ist am A1 nicht release-fähig?
Alles

Miese Yields, ev. Abwärme, Takt und so weiter...

Ailuros
2009-10-15, 20:11:25
Ich geh davon aus, dass zum Zeitpunkt des Schreibens er wieder vergessen hat, dass nVidia mit A1 anfängt.
Ansonsten wüsste ich persönlich auch nicht, was das bedeuten sollte.

Ich suche gerade nach einem anstaendigen Artikel der den ganzen Prozess vom finalen tape out bis zu produktionsreifer hw Schritt fuer Schritte beschreiben koennte, aber vergebens.

Da er aber second respin erwaehnt wird er wohl eher ein Stadium zwischendrin meinen und nicht A2.

tombman
2009-10-15, 20:19:48
2009, Dezember: erste Leaks + Getöse von NV
2010, Jänner: HighEnd-Fermi kaufbar (homöopathische Dosen)

;)

Gast
2009-10-15, 20:20:09
Was hat der Heimanwender denn von dem ganzen Cuda Zeug, ausser so nem Videokonverter mit beknacktem Namen fällt mir nix ein. Gibts da sonst noch was?

LovesuckZ
2009-10-15, 20:22:18
2009, Dezember: erste Leaks + Getöse von NV
2010, Jänner: HighEnd-Fermi kaufbar (homöopathische Dosen)

;)

Naja, abhängig vom A2 Respin.
Es kann vom Hardlaunch Anfang Dezember oder Previews in der Form der GTX295 im diesen Jahr noch geben.

tombman
2009-10-15, 20:24:40
Naja, abhängig vom A2 Respin.
Es kann vom Hardlaunch Anfang Dezember oder Previews in der Form der GTX295 im diesen Jahr noch geben.
Ich denke weiterhin, es wird wie bei der GTX295 laufen :)

Gast
2009-10-15, 20:24:53
Ich kann mich bis jetzt an noch keine <A2 Veroeffentlichung eines chips von NVIDIA erinnern.

Zumindest bei kleineren DIEs schon, aber bei einem 3Mrd.-Monster ist es wirklich unwahrscheinlich.

Ailuros
2009-10-15, 20:33:11
Was hat der Heimanwender denn von dem ganzen Cuda Zeug, ausser so nem Videokonverter mit beknacktem Namen fällt mir nix ein. Gibts da sonst noch was?

http://www.nvidia.com/object/cuda_home.html#state=filterOpen;filter=Video%20&%20Audio

Schlammsau
2009-10-15, 20:56:09
http://www.nvidia.com/object/cuda_home.html#state=filterOpen;filter=Video%20&%20Audio

Und was kann davon der Otto Normal User nutzen?

Gast
2009-10-15, 21:08:59
Und was kann davon der Otto Normal User nutzen?Eigentlich alles. Die verlinkten Anwendungen setzen meist nur ein Windows oder Linux, eine x86-CPU und eine Nvidia-Grafikkarte voraus.

Menace
2009-10-15, 21:09:27
Ich habe einmal eine Frage zu GPGPU-Anwendungen (Cuda und Open-Cl).

Das es einen Geschwindigkeitsvorteil gibt, wenn die GraKa mitarbeitet ist klar. Wie sieht es aber mit dem Stromverbrauch aus, wenn anstatt im Idle-Modus zu sein, die GraKa solche Aufgaben erledigt, wie leichte Video-Unterstützung, Antivirusaufgaben ausführen, etc. Wäre es aus energetischer Sicht (für Heimanwender) nicht sinnvoller, dass einen Quad-Core machen zu lassen (da ich ja z.B. sowieso schon einen habe)?

LovesuckZ
2009-10-15, 21:12:54
Aus "energetischer Sicht" kommt es drauf an, welchen Zeitvorteil man hat. Ein Quad-Core verbraucht zwischen 65 - 140 Watt. Die schnellste Single-GPU an die 225 Watt. Ein rv870 oder bald Fermi werden um ein deutliches x-faches schneller sein. Daher ist es sinnvoller die GPU mit an dem Problem arbeiten zu lassen und schneller in den IDLE-Modus zu gehen.

Schlammsau
2009-10-15, 21:29:03
Eigentlich alles. Die verlinkten Anwendungen setzen meist nur ein Windows oder Linux, eine x86-CPU und eine Nvidia-Grafikkarte voraus.

Der war gut, aber welchen nutzen hat man von den Tools?

Raff
2009-10-15, 22:17:01
Aus "energetischer Sicht" kommt es drauf an, welchen Zeitvorteil man hat. Ein Quad-Core verbraucht zwischen 65 - 140 Watt. Die schnellste Single-GPU an die 225 Watt. Ein rv870 oder bald Fermi werden um ein deutliches x-faches schneller sein. Daher ist es sinnvoller die GPU mit an dem Problem arbeiten zu lassen und schneller in den IDLE-Modus zu gehen.

Hehe, das könnte ein Zitat von Intel sein, welche mit "Hurry up, get idle" ihren Turbo-Modus bewerben. Übersetzt bedeutet das: Übertakte dich, damit die Arbeit asap getan ist und nur kurz Strom gefressen wird.

MfG,
Raff

tombman
2009-10-15, 22:22:37
Raff, du hast ne neue PM von mir...

LovesuckZ
2009-10-15, 22:35:13
According to our sources, the high-end GeForce products will be available by the end of 2009, with Quadro, Tesla, mainstream, low-end and dual-GPU parts all arriving in 1H 2010
http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx

Ansonsten ein kleiner rant von Theo. Interessante Meinung und im Gegensatz zu Charlie auch ziemlich überzeugend.

Gast
2009-10-15, 22:36:50
Der war gut, aber welchen nutzen hat man von den Tools?
Was soll die Frage?
Die Tools machen das wofür sie vorgesehen sind. Z.B. Video Decoder sind zum Video decoden zuständig.

igg
2009-10-15, 22:59:56
http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx
Passt wohl dazu:
When Jen-Hsun Huang, co-founder and CEO of nVidia announced that he expects to see Tegra capturing 50% of nVidia's revenue within the next couple of years, a lot of people thought that this is a smoke screen to sway the attention from its battles against AMD and Intel.
BSN (http://www.brightsideofnews.com/news/2009/10/13/nvidia-tegra-wins-contract-for-next-gen-nintendo-ds.aspx)

Basiert dieser Tegra auf Fermi?

LovesuckZ
2009-10-15, 23:12:18
Nein, Tegra 2 soll eine GPU mit den Funktionalitäten eines G92 haben.

Gast
2009-10-15, 23:35:49
http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx

Ansonsten ein kleiner rant von Theo. Interessante Meinung und im Gegensatz zu Charlie auch ziemlich überzeugend.

na das Du das überzeugend findest, brauchst Du eigentlich nicht noch extra erwähnen, das ist uns allen auch so klar...


und ganz ehrlich, wer will schon High-End. Ausserhalb von 3DCenter interessiert das keinen, weil keiner bereit ist noch so viel Geld auszugeben. Und wenn die kleineren Karten nicht mal im 1. Viertel, sondern erst im 1. Halbjahr kommen, frag ich mich echt, was Nvidia eigentlich seit der 8800er Serie gemacht hat....

N0Thing
2009-10-16, 00:04:53
http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx

Ansonsten ein kleiner rant von Theo. Interessante Meinung und im Gegensatz zu Charlie auch ziemlich überzeugend.

Ich würde eher sagen sehr deftiger rant und verbaler Tritt in den Hintern von Nvidia und nur Spekulationen über die Verfügbarkeit von Fermi. Die Phrase "According to our sources" hat nun schon jede Seite bemüht.

LovesuckZ
2009-10-16, 00:07:16
Ich würde eher sagen sehr deftiger rant und verbaler Tritt in den Hintern von Nvidia und nur Spekulationen über die Verfügbarkeit von Fermi. Die Phrase "According to our sources" hat nun schon jede Seite bemüht.

Ich sage nichts anderes. Deswegen ist es bei ihm auch glaubwürdiger und interessanter. Immerhin muss man nicht in jedem Satz irgendeinen Unsinn über nVidia lesen.

S940
2009-10-16, 00:09:34
Ich sage nichts anderes. Deswegen ist es bei ihm auch glaubwürdiger und interessanter. Immerhin muss man nicht in jedem Satz irgendeinen Unsinn über nVidia lesen.

Woher weisst Du, dass es kein Unsinn ist ?

Coda
2009-10-16, 02:54:02
Gut ich nehme es dank Aussnahme zurueck. Ich weigere mich trotzdem einen Elephanten mit einer Fliege zu vergleichen, weil die letztere eben keinen Ruessel hat :D
Fliegen haben Rüssel :P

Ailuros
2009-10-16, 06:36:10
Ich habe einmal eine Frage zu GPGPU-Anwendungen (Cuda und Open-Cl).

Das es einen Geschwindigkeitsvorteil gibt, wenn die GraKa mitarbeitet ist klar. Wie sieht es aber mit dem Stromverbrauch aus, wenn anstatt im Idle-Modus zu sein, die GraKa solche Aufgaben erledigt, wie leichte Video-Unterstützung, Antivirusaufgaben ausführen, etc. Wäre es aus energetischer Sicht (für Heimanwender) nicht sinnvoller, dass einen Quad-Core machen zu lassen (da ich ja z.B. sowieso schon einen habe)?

Ich versuch es mal anders: kommt selbstverstaendlich auf den Fall an, aber wir koennten uns wohl einig werden dass keiner dieser Applikationen so auf die Pauke haut wie FurMark.

So wie ich die gesamte GPGPU Geschichte verstanden habe macht es nur Sinn eine GPU in einer general purpose Applikation einzusetzen wenn erstmal eine gesunde Anzahl von parallelen Aufgaben anstehen. Daher muesste man auch wissen wo und wie oft in einer jeglichen Applikation eine GPU wirklich eingesetzt wird.

Im Fall einer quad-core CPU wie Du sagst und bei sagen wir mal nur 20 parallelen threads in einer Stelle, klingt es besser was den Stromverbrauch betrifft eine solche CPU mit 2.5-3.0GHz zu beschaeftigen (wo die Effizienz ohnehin schon im Eimer ist) oder GPU-ALUs mit 850MHz oder 1.5GHz (Radeon oder GeForce) zu beschaeftigen? Noch dazu kommt natuerlich dass wenn bei solchen Faellen eine CPU dank Ueberforderung den Geist aufgibt wie lange es genau dauert X Aufgabe(-n) zu bewaeltigen. Denn wenn die CPU sagen wir mal 5 Sekunden braucht fuer etwas die GPU aber vergleichsmaessig nur 1 Sekunde, klingt es verdammt schwer zu glauben dass man neben der Zeit der man dazugewinnt dank hoeherer Leistung nicht auch zusaetzlich Strom gespart wird.

reunion
2009-10-16, 07:08:19
Woher weisst Du, dass es kein Unsinn ist ?

Weil es seinen Vorstellungen entspricht. Merke: Alles was positiv ist für NV ist für LovesuckZ überzeugend, alles was negativ ist wird kritisiert. Gerade Phrase wie "According to our sources" wurden von ihm nicht nur einmal aufs schärfste runtergemacht, wenn die "Sources" das richtige sagen ist das natürlich kein Problem.

Menace
2009-10-16, 07:15:51
Im Fall einer quad-core CPU wie Du sagst und bei sagen wir mal nur 20 parallelen threads in einer Stelle, klingt es besser was den Stromverbrauch betrifft eine solche CPU mit 2.5-3.0GHz zu beschaeftigen (wo die Effizienz ohnehin schon im Eimer ist) oder GPU-ALUs mit 850MHz oder 1.5GHz (Radeon oder GeForce) zu beschaeftigen? Noch dazu kommt natuerlich dass wenn bei solchen Faellen eine CPU dank Ueberforderung den Geist aufgibt wie lange es genau dauert X Aufgabe(-n) zu bewaeltigen. Denn wenn die CPU sagen wir mal 5 Sekunden braucht fuer etwas die GPU aber vergleichsmaessig nur 1 Sekunde, klingt es verdammt schwer zu glauben dass man neben der Zeit der man dazugewinnt dank hoeherer Leistung nicht auch zusaetzlich Strom gespart wird.

Ich danke Dir für die Erklärung. Ist bei den High-End-Grafikkarten überhaupt eine feine Abstufung der Leistung in mehreren Schritten möglich oder ist es vereinfacht gesagt "Alles oder nicht"?

Da die Sprünge zwischen Idlen + Load immer größer werden vermute ich zwar, dass es sich schön liest, wenn die CPU beim Video schauen weniger zu tun hat, diese aber energetisch betrachtet effektiver wäre (da ich ja den Film nicht schneller schauen kann).

Das gleiche denke ich bei der Mitteilung, dass Norton Antivirus sich vorstellen könnte Gra-Ka beschleunigt zu arbeiten. Aber warum? Dadurch, dass die Festplatte der limitierende Faktor ist, habe ich doch nur Nachteile?

Dass beim Rendern die GraKa gute Dienste leistet, ist natürlich klar. Aber bleibt dann soviele sinnvolle (!!) andere Möglichkeiten?

V2.0
2009-10-16, 07:22:33
http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx

Ansonsten ein kleiner rant von Theo. Interessante Meinung und im Gegensatz zu Charlie auch ziemlich überzeugend.

Man muss aber sehen dass es ein Techday im Pro-Bereich war und da hat man eben Planungsvorlaufzeiten usw. Kaum ein Abnehmer dort wäre begeistert wenn es sich 2 Wochen vor dem Release von Fermi noch für viel Geld alte Quadros bestellt. Gleichzeitig dürften viele potentielle Abnehmer bereits heute Budgets für 2010 erstellen müssen und wenn man über Fermi nichts weiss, plant man ihn auch nicht ein.

Ailuros
2009-10-16, 07:33:54
Ich danke Dir für die Erklärung. Ist bei den High-End-Grafikkarten überhaupt eine feine Abstufung der Leistung in mehreren Schritten möglich oder ist es vereinfacht gesagt "Alles oder nicht"?

Ich bezweifle dass der Treiber bei einer einfachen Applikation alle cluster einschaltet, koennte aber auch total falsch liegen.

Da die Sprünge zwischen Idlen + Load immer größer werden vermute ich zwar, dass es sich schön liest, wenn die CPU beim Video schauen weniger zu tun hat, diese aber energetisch betrachtet effektiver wäre (da ich ja den Film nicht schneller schauen kann).

Nein es nicht effektiver es auf der CPU zu haben. Das idealste waere ein winziger video decoder fuer solche Faelle (so wie man sie bei SoCs meistens findet) anstatt die CPU oder GPU damit zu beschaeftigen.

Das gleiche denke ich bei der Mitteilung, dass Norton Antivirus sich vorstellen könnte Gra-Ka beschleunigt zu arbeiten. Aber warum? Dadurch, dass die Festplatte der limitierende Faktor ist, habe ich doch nur Nachteile?

Ich weiss nicht auf was es sich bezieht in diesem Fall.

Dass beim Rendern die GraKa gute Dienste leistet, ist natürlich klar. Aber bleibt dann soviele sinnvolle (!!) andere Möglichkeiten?

Die ganze Affaere ist ziemlich kompliziert. Erstmal muessen die Entwickler von GP Applikationen aufmerksam gemacht werden dass es in manchen Stellen mit der GPU besser geht und man muss ihnen dann auch unter den Arm greifen dieses auch effektiv einzusetzen. GPGPU ist gerade kurz nach seiner Geburt und dementsprechende Entwickler sind immer noch im Lernprozess diesbezueglich. Deshalb drueckt NVIDIA auch so intensive mit CUDA und mit Initiativen wie GPU ventures damit der Durchbruch konstant groesser wird.

Weil es seinen Vorstellungen entspricht. Merke: Alles was positiv ist für NV ist für LovesuckZ überzeugend, alles was negativ ist wird kritisiert. Gerade Phrase wie "According to our sources" wurden von ihm nicht nur einmal aufs schärfste runtergemacht, wenn die "Sources" das richtige sagen ist das natürlich kein Problem.

Ich waere ein gluecklicher Kater wenn Ihr beide aufhoeren wuerdet Euch indirekt oder direkt gegenseitig anzumachen und Euch endlich im rein sachlichen Bereich bewegen wuerdet.

Fuer mich ist der newsblurb substanzlos und ich kann bei bestem Willen nicht verstehen was ich herauslesen soll. Dass NVIDIA seit dem vorigen Fruehling alles moegliche anstellt um jedermann zu verwirren ist nichts Neues. Und ja eventuell wird sich die Presse auch gegen sie stellen, denn irgendwann zieht jeder einen Strich und zeigt ihnen den Mittelfinger.

Passt wohl dazu:

BSN (http://www.brightsideofnews.com/news/2009/10/13/nvidia-tegra-wins-contract-for-next-gen-nintendo-ds.aspx)

Basiert dieser Tegra auf Fermi?

igg,

Einfache Logik: kann es sein dass Larabee in Intel's SoCs gleichzeitig mit den GPUs auftaucht? Extremes Beispiel aber Tegra2 soll Anfang 2010 vorgestellt werden.

Zwar nicht GF100 relevant aber erlaubt mir etwas OT dass aber genau in den ueblichen Bullshit Rahmen passt....

Wie zum Teufel soll in ein paar Jahren Tegra die Haelfte ihres Umsatzes genau betragen? Vereinfacht sie lizenzieren CPU IP von ARM, fuegen ihr eigenes Zeug dazu und bauen selber einen SoC oder applications processor den sie dann verkaufen. Effektiv konkurrieren sie hier mit Semikonduktor Herstellern wie Intel, Samsung, Texas Instruments, Renesas und dergleichen und diesen jegliche Marktanteile abzuknabbern wird sehr schwer sein.

Natuerlich gibt es in letzter Zeit einen Trend dass OEM Hersteller direkt IP von IP Firmen lizenzieren und dann erst einen Semi Hersteller beauftragen den SoC fuer sie zu bauen. Beispiel Apple fuer die momentan Samsung herstellt. Ob dieser Trend natuerlich gross genau sein wird damit sie so grosse Erfolge langfristig erreichen koennen will ich wagen zu bezweifeln. Wenn man so oder so versucht eine PC GPU in den eingebetteten Markt zu skalieren kann man keine grossen Erfolge erwarten.

So oder so der Unsinn den NVIDIA von sich laesst was Tegra betrifft ist der typische Quark den man von ihnen erwarten wuerde. Bis vor nicht allzu langer Zeit hiess es dass tiling Bloedsinn fuer alles ueber DX7 waere und ein unified shader core sinnlos fuer alles unter DX9. Und ueberhaupt dem zweiten widerspricht erstmal die grosse Wahrscheinlichkeit dass Tegra3 ein USC sein wird und nein innerhalb 1,5 Jahren aendern sich die Faktoren selbst im eingebetteten Markt nicht so radikal.

Ich bin mir ziemlich sicher dass egal welche Zankereien NINTENDO mit NVIDIA in letzter Zeit hatten (Nintendo wollte das Projekt vor einiger Zeit sogar total streichen und von 0 anfangen) trotz allem NINTENDO einen Tegra SoC von NVIDIA benutzen wird, aber womoeglich nicht das original geplante. Das einzige nennenswerte Resultat ist dass bis zum Punkt wo sie keinen besonderen Durchbruch in diesem Markt hatten sie sich normal bei den OGL_ES meetings bei Khronos verhalten; so bald sie fuehlen konnten dass es besser geht verhaelt man sich wie ein verwoehntes Kleinkind und pinkelt lachend in alle Richtungen.

Momentan gewinnen sie keinen Pfennig von Tegra und die erste R&D Kosten wurden von der Nintendo Lizenz gedeckt. Egal was sie behaupten wollen oder sich erhoffen die Integrierung von Tegra in netbooks ist alles anderes als phaenomenal und ich sehe bis her nichts dass verspricht dass sie alle grossen SoC Semi Hersteller in die Ecke draengen koennten. Es sind zu viele und zu grosse Firmen.

Ausser natuerlich sie denken dass ihr Umsatz in den naechsten Jahren so stark schrumpfen wird, dass Tegra dann tatsaechlich davon die Haelfte ausmacht. Aber dass wuerde auch wiederrum heissen dass sie erwarten dass sie ihn vorhersehbarer Zeit krepieren was ich natuerlich nicht glaube.

dr_mordio
2009-10-16, 13:33:56
da ja dauernd neue relase daten angegeben werden
jetzt mal bitte zum mitschreiben..

wann kommt was?
ich denke das was laut einiger quellen noch dieses jahr kommen soll, das sind doch eher die ganz großen karten (Tesla) für unis und GPGPU.

aber wann soll den nun Fermi als High end gaming karte kommen?
also der nachfolger der GTX285?

Denn tesla ist für mich als Gamer total uninteressant.
Viel wichtiger ist wann High-end und performance kommt.

MfG
Alex

igg
2009-10-16, 14:27:49
wann kommt was?
Laut Nvidia launcht Fermi an einem Dienstag.

Die Gerüchte dazu:

Highend: Ende Q4 09
Performance/Mainstream: Ende Q1 10

Gast
2009-10-16, 15:34:07
wann kommt was?

Das weiß niemand, vermutlich nichtmal Nvidia selbst.

Yoda, der 2.
2009-10-16, 16:55:41
Das weiß niemand, vermutlich nichtmal Nvidia selbst.
Möge die Physik und Naturgesetze mit ihnen sein.

m.sch
2009-10-20, 18:44:21
Endanwender brauchen kein ECC, da stimme ich dir absolut zu. Aber Microsoft empfiehlt hier (http://www.heise.de/newsticker/meldung/Hauptspeicherfehler-sehr-viel-haeufiger-als-bisher-angenommen-828883.html) sogar ECC.

unten,die letzten acht Zeilen

StefanV
2009-10-20, 19:36:40
Richtig, bringt einem als Intel User aber eh nichts, da nur die x38/x48 das unterstützen, der Rest nicht.

Wenn man AMD einsetzt braucht man in der Regel nur ECC Module - sofern man nicht gerade ein MSI Board einsetzt...

Undertaker
2009-10-20, 20:05:49
Der X58 + Xeon kann es auch:

http://www.asrock.com/MB/overview.asp?Model=X58%20Deluxe

"Supports DDR3 ECC, un-buffered memory with Intel® Workstation 1S Xeon® processors 3500 series"

StefanV
2009-10-20, 20:54:34
Wie, nur der Xeon?!
Wasn das fürn Mist?!
Bei AMD kannst 'nen 50€ Board mit 'ner 20€ CPU (Sempron/kleiner Athlon) kombinieren, wenn du ECC brauchst.

Was brauchst bei Intel?
'nen Xeon und x-Serie Chipsatz?

ALso mindestens mal 150€ Board mit 150€ CPU??

Coda
2009-10-20, 20:59:31
Was noch viel bekloppter ist ist wie teuer ECC-RAM ist. Das ganze ist genau das gleiche, außer dass ein Speicherchip mehr drauf ist, also 72- statt 64-Bit.

Schrotti
2009-10-20, 21:14:21
Was haben die letzten Beiträge noch mit dem GT300 zu tun?

Ich hab ja nicht wirklich Ahnung von der Materie aber lese halt interessiert mit.

Gast
2009-10-20, 21:24:40
es gibt wohl nichts Neues

mictasm
2009-10-20, 21:24:54
Ich hatte auch auf neue Informationen gehofft, aber leider wieder mal nur bla bla... Bitte mit meinem Beitrag auch den restlichen Müll entsorgen...

Gast
2009-10-20, 21:43:50
Man kann zumindest feststellen, dass ATI mit 2 Milliarden Transistoren offenbar immer noch Probleme unter 40nm hat und 4 Wochen nach Launch nicht genug produzieren kann.
Damit sind also nvidias Probleme mit Fermi und die "Verspätung" um so verständlicher.

Black-Scorpion
2009-10-20, 21:47:28
Und das weißt du woher?
Die meisten Karten gehen zu Dell und andere OEMs.
Der Rest geht in den Handel.
Nur ist die Nachfrage deutlich größer wie das Angebot und die Karten sind schnell weg.
Das heißt trotzdem nicht das sie nicht genug produzieren können.

Gast
2009-10-20, 21:58:37
Es gibt keinen Dell-Deal.
http://forum.beyond3d.com/showpost.php?p=1338894&postcount=3760

Also sieht es zappenduster aus mit RV870 und Ausbeute.

LovesuckZ
2009-10-20, 22:14:33
Es wäre auch urkomisch, wenn genau 5850/5870 deutlich stärker nachgefagt werden würden als 5750/5770, wenn doch sehr viele Leute hier einem immer wieder erklären wollten, dass man das Geld doch in dem <150€ Bereich verdienen würde.

Nightspider
2009-10-20, 22:17:39
Es wäre auch urkomisch, wenn genau 5850/5870 deutlich stärker nachgefagt werden würden als 5750/5770, wenn doch sehr viele Leute hier einem immer wieder erklären wollten, dass man das Geld doch in dem <150€ Bereich verdienen würde.

/ack

Bei früheren Launches wurden die ersten Grafikkarten-Container auch nicht gleich an irgendwelche OEMs vertickt. Erst recht keine Karten zwischen 200-350 Euro.

Denn die HD5870 ist genauso wenig verfügbar wie die HD5850.

Undertaker
2009-10-20, 22:47:02
Nur ist die Nachfrage deutlich größer wie das Angebot und die Karten sind schnell weg.
Das heißt trotzdem nicht das sie nicht genug produzieren können.

Was heißt es denn sonst? Kann die Nachfrage nicht befriedigt werden, produzieren sie nicht genug (lauffähige) Karten. Der Bedarf wird wohl nicht groß anders sein als bei den letzten Launches in diesem Preisbereich. Stellt sich nur die Frage: Woran liegts? :confused:

Btw, gehört wohl eher in den RV870 Thread ;)

uweskw
2009-10-21, 01:07:35
Und wenn die kleineren Karten nicht mal im 1. Viertel, sondern erst im 1. Halbjahr kommen, frag ich mich echt, was Nvidia eigentlich seit der 8800er Serie gemacht hat....

sich auf sein super Marketing vertraut und auf seinen Lorbeeren ausgeruht?

mictasm
2009-10-21, 01:58:48
Die Entwicklung von der Fermi-Generation startete vor vier Jahren (kann man in diesem Thread nachlesen), ob es da auf den letzten Monat ankommt?

Ach und es gab noch die 200er Generation, die bis heute aktuell ist und bei Freunden der Bildqualität bevorzugt wurde.

Coda
2009-10-21, 02:31:58
sich auf sein super Marketing vertraut und auf seinen Lorbeeren ausgeruht?
Seit spätestens RV770 gibt's keine Lorbeeren mehr.

reunion
2009-10-21, 08:32:59
Es gibt keinen Dell-Deal.
http://forum.beyond3d.com/showpost.php?p=1338894&postcount=3760

Also sieht es zappenduster aus mit RV870 und Ausbeute.

Es gibt einen Dell-Deal. Die HD5870 kann bei jeder Gaming-Desktop verbaut werden, optional auch zwei HD5870 und/oder mit drei Monitoren. Sie werden sogar extra hervor gehoben bei der Auswahl. Das neue Topmodell von Dell hat Standardmäßig zwei HD5870 verbaut: http://www.dell.com/us/en/home/desktops/alienware-area-51-alx/pd.aspx?refid=alienware-area-51-alx&s=dhs&cs=19&~oid=us~en~29~alienware-area-51-alx_anav1~~

Es wäre auch urkomisch, wenn genau 5850/5870 deutlich stärker nachgefagt werden würden als 5750/5770, wenn doch sehr viele Leute hier einem immer wieder erklären wollten, dass man das Geld doch in dem <150€ Bereich verdienen würde.

Die HD5800 sind auch wesentlich attraktiver platziert als die HD5700-Serie, wo man dieselbe Leistung schon seit längerem für weniger Geld bekommt.

darkvader
2009-10-21, 09:50:52
Es gibt keinen Dell-Deal.
http://forum.beyond3d.com/showpost.php?p=1338894&postcount=3760

Also sieht es zappenduster aus mit RV870 und Ausbeute.

Die Aussage von Dave heißt nicht "Es gibt keinen Dell Deal" sondern "Nein, Sie haben nicht alle Karten bekommen".

Gast
2009-10-21, 11:51:43
Nur ist die Nachfrage deutlich größer wie das Angebot und die Karten sind schnell weg.
Das heißt trotzdem nicht das sie nicht genug produzieren können.


Ähm, das es genau, wenn man die Nachfrage nicht befriedigen kann produziert man zu wenig.

Raff
2009-10-21, 12:19:49
Die HD5800 sind auch wesentlich attraktiver platziert als die HD5700-Serie, wo man dieselbe Leistung schon seit längerem für weniger Geld bekommt.

Ich sehe keine HD 4800 mit DX11, SGSSAA, besserem AF, Eyefinity und geringer Leistungsaufnahme. Leistung != Fps auf Teufel komm raus. Ich würde mir keine HD 4800 mehr kaufen, wo es Nachfolger gibt, die überall besser sind (abzüglich von 10 Prozent der Fps).

MfG,
Raff

LovesuckZ
2009-10-21, 12:28:52
Ich sehe keine HD 4800 mit DX11, SGSSAA, besserem AF, Eyefinity und geringer Leistungsaufnahme. Leistung != Fps auf Teufel komm raus. Ich würde mir keine HD 4800 mehr kaufen, wo es Nachfolger gibt, die überall besser sind (abzüglich von 10 Prozent der Fps).

MfG,
Raff

Das zählt für dich. Aber für die Mehrzahl zählt eben die reine Leistung. Und da stehen die 5700 Karten sehr suboptimal da. Eine 4770 bekommt man für 80€ eine 1GB 4850 fpr 85€. Der Unterschied zur 5750 liegt bei 30-35€.
Und Features wie "besseres AF", SSAA, Leistungsaufnahme sind keine Kaufgründe für AMD-Käufer in der Vergangenheit gewesen. Und Leute, die darauf Wert gelegt haben, sind schon bei nVidia bedient wurden und greifen eher zur 58xx Serie, da sie hier deutlich mehr Leistung erhalten. Aufgrund des Preisverfalls ist mir nicht bewusst, wer als Kunde für 57xx Karten zZ angesprochen werden soll. Die nicht-technik Affinen bekommen für 80€ ausreichend Leistung und die, die sich für Technik und Features interessieren, greifen zur 58xx.

Sorkalm
2009-10-21, 12:32:46
Ähm, das es genau, wenn man die Nachfrage nicht befriedigen kann produziert man zu wenig.

Die ganze Nachfrage bekommt man nie befriedigt, nur zurzeit schaffen sie es auch nicht beim gewünschten Preis, das ist der Unterschied. ;)
Seien wir einfach froh, dass AMD den Preis solange nicht höher angesetzt hat...

Ich sehe keine HD 4800 mit DX11, SGSSAA, besserem AF, Eyefinity und geringer Leistungsaufnahme. Leistung != Fps auf Teufel komm raus. Ich würde mir keine HD 4800 mehr kaufen, wo es Nachfolger gibt, die überall besser sind (abzüglich von 10 Prozent der Fps).

Ich bin da zwar auch deiner Meinung, aber in dem Fall profitieren wir als Kunden mit dieser vermutlich Mindermeinung davon, dass eben viele andere noch ein höheres Gewicht auf die reine Leistung legen. Daher sind die HD 5700-Karten halt nicht so hoch nachgefragt und daher besser verfügbar und mit einem nicht so hohen Preisaufschlag versehen, wie man das ja bei den HD 5800er-Karten sehen kann, wo eben auch die reine Leistung recht gut ist (bei der HD 5850 vom Preis-Leistungs-Verhältnis und der HD 5870 halt als absolute Leistungsspitze für Einchip-Karten).

reunion
2009-10-21, 12:43:28
Ich sehe keine HD 4800 mit DX11, SGSSAA, besserem AF, Eyefinity und geringer Leistungsaufnahme. Leistung != Fps auf Teufel komm raus. Ich würde mir keine HD 4800 mehr kaufen, wo es Nachfolger gibt, die überall besser sind (abzüglich von 10 Prozent der Fps).

MfG,
Raff

Keine Frage, sehe ich genau so. Die einhellige Meinung dürfte aber eine andere sein.

AnarchX
2009-10-21, 20:43:26
Diskussion zur "PhysX-Grafikkarte": http://www.forum-3dcenter.org/vbulletin/showthread.php?t=468170

igg
2009-10-22, 23:23:34
Weiß man denn schon, ob die EVGA Karte die Lücke unter Fermi füllen soll oder die Lücke aufgrund einer Fermi-Verschiebung?

LovesuckZ
2009-10-22, 23:52:53
Weiß man denn schon, ob die EVGA Karte die Lücke unter Fermi füllen soll oder die Lücke aufgrund einer Fermi-Verschiebung?

Das ganze hat nichts mit Fermi zu tun. Das sind Dinge, wie man versucht das Inventar zu verkaufen. Das ist EVGA eigene Grafikkartenlösung, die nicht von nVidia ins Portfolio aufgenommen wird.
Bezüglich Fermi lässt sich sagen: In genau zwei Wochen findet der CC für das 3.Q statt. Spätesten in zwei Wochen wissen wir, wann Fermi auf Geforce-Karten in den Markt kommen.

Ailuros
2009-10-23, 07:22:20
Spätesten in zwei Wochen wissen wir, wann Fermi auf Geforce-Karten in den Markt kommen.

Da bei der nach Perez Aera sich einiges geaendert hat und man mehr luegt als je zuvor sind mir NVIDIA's ueberoptimistische Schaetzungen der letzten Zeit so gut wie gleichgueltig.

http://www.eweek.com/c/a/IT-Infrastructure/HP-Nvidia-Team-Up-in-HPC-Project-658727/

MorPheuZ
2009-10-23, 12:03:25
Huhu, möchte mal flüchtige Gedanken von einem "normalen" User ausdrücken. Was bestimmt viel inepretiert ist, aber irgendwie muss ich das loswerden:wink:

Ich verfolge nun schon seid dem HD5 Release diese Diskussionen um die "Fermi" und GPGPU Geschichten.
Jeder will nVidias neue NextGen GPU sehen und die scheren sich irgendwie keinen Dreck um die Sachlage..

Wenn man die Newsmeldungen bisschen verfolgt muss man eigentlich nur eins und eins zusammen zählen:

nVidia betritt ganz klar ein neues Geschäftsgebiet: HPC in Zusammenarbeit mit HP und MS.
http://www.eweek.com/c/a/IT-Infrastr...roject-658727/


Nintendo verbaut Tegra SOC's von nVidia in ihren neuen DS.
http://www.pcgameshardware.de/aid,697383/Nintendo-DS/DSi-Nachfolger-angeblich-mit-Nvidias-Tegra-Plattform/Konsolen/News/

uvm.

Und dann sollten sie noch ne Uber Graka für den Cosumer Markt releasen..??

Leute, ich denke nVidia geht es alles andere als schlecht, was man aus div. Meldungen wegen GPU Lager-Räumaktionen und keine
rentablen GPUs gegen ATI, meinen könnte. nVidia hat Aufträge en mass. nVidia ist schon viel weiter als wir alle denken. Charlie hatte
in dieser Hinsicht wohl doch recht - at the moment...

Meine Theorie ist dass sich NV im Moment den "Grossen" Projekten widmet und für den G100 irgendwie gar keine Zeit hat... Wenn da die HPC News tatsächlich ein grosses Ding ist, was man fast annehmen muss wenn da
HP, MS und Intel mitspielen, ist für nVidia der G100 eher prio2. Wirtschaftlich gesehen ist nVidia der neue Geschäftsbereich wohl
tatsächlich "wichtiger" als der PC Gamer Markt...

Eigentlich müssten wir NV gratulieren dazu, sie haben es geschafft aus einem herkömmlichen GPU Bauer zu einem innovativen, technologisch fortgeschrittenen Firma zu werden - dank UNS! Dank dem dass wir NV Produkte gekauft haben!

Und das werden sie bestimmt nicht einfach so belassen wie es jetz aussieht. NV wird sich bedanken, und das sehr bald;D

nVidia ist grösser als wir alle denken ::rolleyes:

Nicht böse sein auf den Beitrag, musste ich mal schreiben :D

tombman
2009-10-23, 12:09:47
Ich glaube nicht, daß NV schon so weit ist, den Gamermarkt vernachlässigen, geschweige denn ignorieren zu können...

Ailuros
2009-10-23, 12:25:17
Huhu, möchte mal flüchtige Gedanken von einem "normalen" User ausdrücken. Was bestimmt viel inepretiert ist, aber irgendwie muss ich das loswerden:wink:

Ich verfolge nun schon seid dem HD5 Release diese Diskussionen um die "Fermi" und GPGPU Geschichten.
Jeder will nVidias neue NextGen GPU sehen und die scheren sich irgendwie keinen Dreck um die Sachlage..

Wenn man die Newsmeldungen bisschen verfolgt muss man eigentlich nur eins und eins zusammen zählen:

nVidia betritt ganz klar ein neues Geschäftsgebiet: HPC in Zusammenarbeit mit HP und MS.
http://www.eweek.com/c/a/IT-Infrastr...roject-658727/

Steht drin im Link dass die Systeme mit Fermi hier Anfang 2010 erwartet werden.

Nintendo verbaut Tegra SOC's von nVidia in ihren neuen DS.
http://www.pcgameshardware.de/aid,697383/Nintendo-DS/DSi-Nachfolger-angeblich-mit-Nvidias-Tegra-Plattform/Konsolen/News/

uvm.

Der Deal wurde vor 3 ganzen Jahren abgeschlossen und der tape out des relevanten SoCs fand ca. vor einem Jahr statt.

Und dann sollten sie noch ne Uber Graka für den Cosumer Markt releasen..??

Leute, ich denke nVidia geht es alles andere als schlecht, was man aus div. Meldungen wegen GPU Lager-Räumaktionen und keine
rentablen GPUs gegen ATI, meinen könnte. nVidia hat Aufträge en mass. nVidia ist schon viel weiter als wir alle denken. Charlie hatte
in dieser Hinsicht wohl doch recht - at the moment...

Ja natuerlich bedient NVIDIA eine grosse Anzahl an Maerkten und es gibt fuer jede Produkt-Familie auch getrennte Design-Teams. Oder glaubst Du vielleicht dass das gesamte engineering Personal gleichzeitig an sagen wir mal 10 Projekten arbeitet?

Das GF100 Team hat nichts mit der Tegra Sparte zu tun und auch nicht mit den anderen zwei grossen Design-teams die momentan an der uebernaechsten und ueber-uebernaechsten high end GPU Architekturen arbeiten.

Meine Theorie ist dass sich NV im Moment den "Grossen" Projekten widmet und für den G100 irgendwie gar keine Zeit hat... Wenn da die HPC News tatsächlich ein grosses Ding ist, was man fast annehmen muss wenn da
HP, MS und Intel mitspielen, ist für nVidia der G100 eher prio2. Wirtschaftlich gesehen ist nVidia der neue Geschäftsbereich wohl
tatsächlich "wichtiger" als der PC Gamer Markt...

Deine These (denn es ist meilenweit von einer Theorie entfernt) kannst Du beruhigt wieder wegstecken.

Eigentlich müssten wir NV gratulieren dazu, sie haben es geschafft aus einem herkömmlichen GPU Bauer zu einem innovativen, technologisch fortgeschrittenen Firma zu werden - dank UNS! Dank dem dass wir NV Produkte gekauft haben!

Und das werden sie bestimmt nicht einfach so belassen wie es jetz aussieht. NV wird sich bedanken, und das sehr bald;D

nVidia ist grösser als wir alle denken ::rolleyes:

Nicht böse sein auf den Beitrag, musste ich mal schreiben :D

Boese ist Dir keiner darueber. Es hat aber leider nichts mit der Realitaet zu tun.

igg
2009-10-23, 13:02:35
Steht drin im Link dass die Systeme mit Fermi hier Anfang 2010 erwartet werden.
Blöde Frage: Sind in der Vergangenheit die HPC Systeme denn eher vor oder eher nach den Consumer-Karten in Betrieb genommen worden? Beim GT200 bin ich mir nicht ganz sicher.

Ailuros
2009-10-23, 13:10:45
Blöde Frage: Sind in der Vergangenheit die HPC Systeme denn eher vor oder eher nach den Consumer-Karten in Betrieb genommen worden? Beim GT200 bin ich mir nicht ganz sicher.

Kommt auf den Markt an; Tesla kam wenn ich mich nicht irre spaeter als GT200 an.

MorPheuZ
2009-10-23, 13:14:52
Deine These (denn es ist meilenweit von einer Theorie entfernt) kannst Du beruhigt wieder wegstecken.

Wiso ist dann das einzige was wir wenigstens ein bisschen über den nächsten Chip hören, immer nur vom "Fermi" die rede? Weil es ihnen Spass macht?:confused: Wenn die drei Grossen da mit dranhängen ist doch wohl klar was Prio hat!? Erst "Fermi" dann G100

naja schauen wir mal was kommt:smile:

Ailuros
2009-10-23, 13:21:41
Wiso ist dann das einzige was wir wenigstens ein bisschen über den nächsten Chip hören, immer nur vom "Fermi" die rede?

Weil bis jetzt nur der HPC/GPGPU Anteil der Architektur angekuendigt wurde und sonst nichts. Die 3D Faehigkeiten des GF100 werden wohl veroeffentlicht wenn sie mit dem Ding erstmal fertig sind und es ankuendigen.

Weil es ihnen Spass macht?:confused: Wenn die drei Grossen da mit dranhängen ist doch wohl klar was Prio hat!? Erst "Fermi" dann G100

Ich glaube Du hast mich falsch verstanden. Fuer high end GPUs gibt es momentan 3 Design-teams. Eins dass immer noch an GF100 herumwerkelt, eins dass an der folgenden Generation des GF100 arbeitet und eins dass an der uebernaechsten arbeitet. Wenn NV GF100 immer noch "GT300" nennen wuerde, waeren die 2 vorerwaehnten high end Architekturen eventuell "GT400" und "GT500".

Fermi ist lediglich der Codename fuer die professionellen Varianten des GF100 (Quadro, Tesla usw.) und es handelt sich um ein und desselben chip.

MorPheuZ
2009-10-23, 13:35:10
Weil bis jetzt nur der HPC/GPGPU Anteil der Architektur angekuendigt wurde und sonst nichts. Die 3D Faehigkeiten des GF100 werden wohl veroeffentlicht wenn sie mit dem Ding erstmal fertig sind und es ankuendigen.


Ich glaube Du hast mich falsch verstanden. Fuer high end GPUs gibt es momentan 3 Design-teams. Eins dass immer noch an GF100 herumwerkelt, eins dass an der folgenden Generation des GF100 arbeitet und eins dass an der uebernaechsten arbeitet.
Fermi ist lediglich der Codename fuer die professionellen Varianten des GF100 (Quadro, Tesla usw.) und es handelt sich um ein und desselben chip.

Du meinst also dass für "Fermi" nicht das selbe Team arbeitet?

Ailuros
2009-10-23, 13:41:14
Du meinst also dass für "Fermi" nicht das selbe Team arbeitet?

Fermi = GF100 = gleicher chip und ja es ist das selbe Entwicklungsteam.

Gast
2009-10-23, 16:57:44
Leistung != Fps auf Teufel komm raus. Ich würde mir keine HD 4800 mehr kaufen, wo es Nachfolger gibt, die überall besser sind (abzüglich von 10 Prozent der Fps).
Im Grunde stimme ich dir da im großen und ganzen zu. Nur stimmen deine Angaben nicht ganz.
Eine 5750 kostet momentan 115€. Da bekomm ich eine 4870 1GB für, die etwa 40% schneller ist.
Oder ich bekomme eine 4850 1Gb die so schnell ist wie ne 5750 für 85€.
Die 5750 kostet 35% mehr.

Das ist imho etwas viel, trotz der anderen immensen Vorteile.

RoNsOn Xs
2009-10-23, 18:45:06
Im Grunde stimme ich dir da im großen und ganzen zu. Nur stimmen deine Angaben nicht ganz.
Eine 5750 kostet momentan 115€. Da bekomm ich eine 4870 1GB für, die etwa 40% schneller ist.
Oder ich bekomme eine 4850 1Gb die so schnell ist wie ne 5750 für 85€.
Die 5750 kostet 35% mehr.

Das ist imho etwas viel, trotz der anderen immensen Vorteile.
das ist ja auch noch immer der aktuelle deppen-aufpreis. wird sich noch einpendeln. geduld.

mapel110
2009-10-24, 00:32:28
Fermi has plenty of “traditional” graphics goodness that we haven’t talked about yet. Fermi’s graphics architecture is going to blow you guys away! Stay tuned. ^^
http://forum.beyond3d.com/showthread.php?t=55368

LovesuckZ
2009-10-24, 00:35:11
Teaser sind doof. :(

/edit: Ich hab aber auch einen:
There are also a lot of other exiting secrets that we will talk about later.
http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/

Geführt wurde das Gespräch auf der GTC.

mictasm
2009-10-24, 00:38:08
Hui, klingt ja fast zu gut.

tombman
2009-10-24, 01:02:51
Fermi has plenty of “traditional” graphics goodness that we haven’t talked about yet. Fermi’s graphics architecture is going to blow you guys away! Stay tuned. ^^
http://forum.beyond3d.com/showthread.php?t=55368
Ich sags mal so: selbst wenn Fermi die geilste Frau wäre, in der je ein Mann vorhatte abzuspritzen, er es aber bis März zurückhalten müßte, er vermutlich sein Ding in 'ner anderen Dame platzieren würde, da es sonst schlecht für die Gesundheit und auch sonst nicht auszuhalten wäre :cool:

LovesuckZ
2009-10-24, 01:03:45
Und ich wette, wir werden von dir das auch noch im März lesen...

Gast
2009-10-24, 01:46:46
Und ich wette, wir werden von dir das auch noch im März lesen...

Glaubst du?

Gast
2009-10-24, 02:45:52
Und ich wette, wir werden von dir das auch noch im März lesen...

na Du musst Dich gerade über die einseitige Betrachtungsweise anderer aufregen...

Gast
2009-10-24, 04:26:55
Fermi has plenty of “traditional” graphics goodness that we haven’t talked about yet. Fermi’s graphics architecture is going to blow you guys away! Stay tuned. ^^
http://forum.beyond3d.com/showthread.php?t=55368

Hört sich an wie Persil Waschmittel Werbung.

Das neue Persil macht die Wäsche jetzt noch viel,viel weisser :D

Für mich sind solche Aussagen erstmal reines Marketinggeblubber.

Bisher hat noch keiner solche Leute gesagt ,selbst wenn es zutreffen würde: "Unser Produkt ist schlechter und teurer als das der Konkurrenz, aber wir wollen ahlt nicht arbeitslos werden"

tombman
2009-10-24, 05:00:18
Er sprach ja auch von "architecture", nicht "performance" ;)

Ailuros
2009-10-24, 07:12:21
Er sprach ja auch von "architecture", nicht "performance" ;)

Was waere denn besonders "aufregend" bei einer neuen Architektur wenn die Leistung nicht stimmt? Interessante Architekturen auf Papier war R600 und bisher vaporware Larabee. Im ersten Fall waren die Verkaufszahlen im ersten 2007 Halbjahr 90:10 wenn es zu G80 vs. R600 kam.

Ich glaube zwar nicht dass es bei GF100 der Fall sein wird, aber die bloede Teaserei ist nach wie vor fuer die Muelltonne so lange man noch nicht von produktionsreifem Silizium reden kann.

igg
2009-10-24, 09:38:08
oje... wenn ati nicht so bloede treiber haette wuerde ich mir eine 5870 fuer meine gtx260 holen, nur damit die spiele in 1920+aa ueber 60fps laufen bzw konstant mit

reunion
2009-10-24, 10:43:00
Fermi has plenty of “traditional” graphics goodness that we haven’t talked about yet. Fermi’s graphics architecture is going to blow you guys away! Stay tuned. ^^
http://forum.beyond3d.com/showthread.php?t=55368

Was sollen sie auch sonst schreiben? Dasselbe hörte man auch über R600.

Jedenfalls muss von NV jetzt bald was kommen wenn sie den Glauben an 2009 noch aufrecht erhalten wollen. Wir haben bereits Ende Oktober und etwas greifbares, das auf einen baldigen Launch hindeutet sah man bis dato nicht.

V2.0
2009-10-24, 13:49:54
Wer nicht liefern kann hat nix.

Gast
2009-10-24, 14:03:18
Jedenfalls muss von NV jetzt bald was kommen wenn sie den Glauben an 2009 noch aufrecht erhalten wollen. Wir haben bereits Ende Oktober und etwas greifbares, das auf einen baldigen Launch hindeutet sah man bis dato nicht.
GF100 wurde bereits gezeigt, was will man mehr.
Es ist nunmal nicht so, das immer alle Informationen lange vorher raussieckern.

Ich erinner einerseits ans 5770 Debakel, andererseits an den 8800 GTX Launch.

Gast
2009-10-24, 14:07:55
Ich erinner einerseits ans 5770 Debakel, andererseits an den 8800 GTX Launch.


Was für ein 5770 Debakel?

Godmode
2009-10-24, 14:22:46
Was sollen sie auch sonst schreiben? Dasselbe hörte man auch über R600.

Jedenfalls muss von NV jetzt bald was kommen wenn sie den Glauben an 2009 noch aufrecht erhalten wollen. Wir haben bereits Ende Oktober und etwas greifbares, das auf einen baldigen Launch hindeutet sah man bis dato nicht.

Also ich glaub ehrlichgesagt auch nicht mehr an eine Vorstellung 2009. Sonst hat man oft vorher schon Karten oder ähnliches gesehen, von Fermi gibts bis jetzt absolut nichts.

Menace
2009-10-24, 14:26:06
GF100 wurde bereits gezeigt, was will man mehr.
Es ist nunmal nicht so, das immer alle Informationen lange vorher raussieckern.

Ich erinner einerseits ans 5770 Debakel, andererseits an den 8800 GTX Launch.

Was hat man gezeigt? Und das Debakel würde mich auch interessieren? Das Debakel, dass Ati eine Midrange-GraKa veröffentlicht hat?

reunion
2009-10-24, 14:28:59
GF100 wurde bereits gezeigt, was will man mehr.


Man ist den Beweis schuldig geblieben. Das was man gezeigt hat hätte man auch schon vor einem Jahr zeigen können.

Gast
2009-10-24, 14:29:28
Wer nicht liefern kann hat nix.

Ati kann derzeit auch nichts liefern...als haben sie nix?

Gast
2009-10-24, 14:49:47
Was für ein 5770 Debakel?
Das die Presse ohne Grund News gelöscht oder Kommentare entfernt hat, weil sie Angst vor AMD hatte.

Ein Grund wurde nie genannt.

Gast
2009-10-24, 14:53:36
Was waere denn besonders "aufregend" bei einer neuen Architektur wenn die Leistung nicht stimmt? Interessante Architekturen auf Papier war R600 und bisher vaporware Larabee. Im
War G80 denn nicht "aufregend"? Superskalare Einheiten, nV hat damit bewiesen das sie einem gut die Kinnlade runterhauen können ^^