Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 [61] 62 63 64 65 66 67 68 69 70 71 72 73 74 75

gogetta5
2010-03-12, 08:48:07
Ok....64 TMUs@1/2 hot clock zu 100% sicher und nein nichts mit TF@hot clock.

Damit wäre wohl die Befürchtung über zuwenig Texelfüllrate erledigt.

PNY ist übrigens auch ein Premiumpartner von Nvidia, z.B. machen nur die die Quadros.

Ailuros
2010-03-12, 09:00:15
Damit wäre wohl die Befürchtung über zuwenig Texelfüllrate erledigt.

Bleibt abzusehen wie die wirkliche Effizienz pro Einheit aussieht.

PNY ist übrigens auch ein Premiumpartner von Nvidia, z.B. machen nur die die Quadros.

Es sind 4 launch partners afaik; mir ist nur der eine bekannt momentan.

Gast
2010-03-12, 09:05:42
Was hat die Verfügbarkeit mit OC zu tun?

Darauf solltest Du alleine kommen.
Welcher Hersteller würde bei einer eh schon schlechten Ausbeute, die vermutlich schon an ihrer Grenze betrieben wird, das Risko eingehen damit OC zu betreiben?
So krank sind die Firmen dann doch nicht.
Natürlich kann es auch gut sein, dass sie nur eine "selected" GPU pro Monat rausbringen, wer weiss :D

AnarchX
2010-03-12, 09:12:46
Darauf solltest Du alleine kommen.
Welcher Hersteller würde bei einer eh schon schlechten Ausbeute, die vermutlich schon an ihrer Grenze betrieben wird, das Risko eingehen damit OC zu betreiben?

Die Grenze sind eine TDP von 300W, welche die GTX 480 Referenz wohl nicht erreicht.
So macht es durchaus Sinn, dass die Hersteller sich ihre knappen Bestände an GTX 480 noch weiter vergolden lassen mit Werks-OC oder anderem Kühlerdesign.

Gast
2010-03-12, 09:34:26
Damit wäre wohl die Befürchtung über zuwenig Texelfüllrate erledigt.
.

Wie bitte??

1/2 hot-clock ist bei der GTX470 ca. 625-650MHz x 56 TMUs....

Was hat sich hier also erledigt? Das Gegenteil ist der Fall. Die Befürchtungen haben sich IMHO bestätigt!

AnarchX
2010-03-12, 10:12:57
Inno3D-Karten wohl schon auf dem Weg zum Kunden:
http://img251.imageshack.us/img251/1349/311m.jpg
http://forums.vr-zone.com/news-around-the-web/578723-inno3d-geforce-gtx-480-cards-ready-ship.html

Mit Colorful, Gigabyte, EVGA, Galaxy, Palit und nun Inno3D, gibt es wohl mehr als 4 Partner, die hoffen demnächst Karten liefern zu können.

Burgard
2010-03-12, 10:16:22
Ich finde es echt faszinierend, das die Spezifikationen immer noch nicht vollständig offengelegt wurden, von 100% brauchbaren Benchmarks ganz zu schweigen.

Gast
2010-03-12, 10:29:42
Ich finde es echt faszinierend, das die Spezifikationen immer noch nicht vollständig offengelegt wurden, von 100% brauchbaren Benchmarks ganz zu schweigen.

Tja, vielleicht haben die Karten den Streßtest nicht ausgehalten und Nvidia war gezwungen den Test zu wiederholen bzw. die Taktraten nochmals zu reduzieren.

Tomahawk
2010-03-12, 10:44:51
Wenn ein kleiner Hersteller wie Inno 3D so früh schon Karten hat, dann sollten die größeren Hersteller auch ihre Karten haben. Über 2 Wochen vor der Vorstellung ist das ein gutes Zeichen.

Bin gespannt ob die Verfügbarkeit wie auch bei ATi eine Katastrophe wird oder ein Großteil der Verzögerung auf schlechte yields zurückgeht.

desert
2010-03-12, 10:46:41
Wenn ein kleiner Hersteller wie Inno 3D so früh schon Karten hat, dann sollten die größeren Hersteller auch ihre Karten haben. Über 2 Wochen vor der Vorstellung ist das ein gutes Zeichen.

Bin gespannt ob die Verfügbarkeit wie auch bei ATi eine Katastrophe wird oder ein Großteil der Verzögerung auf schlechte yields zurückgeht.

Tja wenn die Verpackungen auch gefüllt sind mit Grafikkarten ;)

AnarchX
2010-03-12, 10:48:42
3D Vision Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7898611#post7898611

Spasstiger
2010-03-12, 10:49:40
Tja wenn die Verpackungen auch gefüllt sind mit Grafikkarten ;)
Davon ist wohl auszugehen. Nicht befüllte Kartons werden zusammengefaltet transportiert. Da nehmen sie deutlich weniger Platz weg.

Bleibt abzusehen wie die wirkliche Effizienz pro Einheit aussieht.
Ich würde mir eher das AF genau anschauen. ATI machts vor, wie man durch Unterfiltern Texelfüllrate einsparen kann.

The Jackal
2010-03-12, 10:49:54
@Ailuros

Dann schauen wir mal wie es mit der Verfügbarkeit der HD5830 steht. Ich glaube eher das das die übrig gebliebenen Schrottchips sind die es weder zu 5870 noch zu 5850 geschaft haben.

Wir wie bei einem Saunagang mit der HD5830, die Leute erst einmal mit einem Eimer kaltem Wasser abschrecken und dann bis zu weiteren Verfügrarkeit schwitzen lassen. :-)


Irgendwie sieht es so aus als ob die nur 5 Karten haben insgesammt. Die anderen Kartons auf der Palette sehen anders aus als der der offen ist.

desert
2010-03-12, 10:53:54
Davon ist wohl auszugehen. Nicht befüllte Kartons werden zusammengefaltet transportiert. Da nehmen sie deutlich weniger Platz weg.


Ich würde mir eher das AF genau anschauen. ATI machts vor, wie man durch Unterfiltern Texelfüllrate einsparen kann.

Und woher weisst du das nicht ein scherzbold genau das gemacht hat?;)

Aus dem Bild können wir nichts ableiten. Es kann so oder so sein.

Burgard
2010-03-12, 11:09:36
Und woher weisst du das nicht ein scherzbold genau das gemacht hat?;)

Aus dem Bild können wir nichts ableiten. Es kann so oder so sein.

Wenn ich die SPiegelung richtig interpretiere, dann ist der Karton eingeschweisst. Somit KÖNNTE es sich tatsächlich um befüllte Kartons handeln.

Oh Gott, worüber wird hier diskutiert? Über den Kartoninhalt ;D

Ich finde es echt Wahnsinn was bei NV zur Zeit abgeht.

Gast
2010-03-12, 11:09:52
Damit wäre wohl die Befürchtung über zuwenig Texelfüllrate erledigt.

Erledigt? Sie wurden wohl eher bestätigt, wenn es stimmt. Die letzte Hoffnung wäre dann wohl noch Single-Cycle-Tri-Filterung.
Wenn daraus auch nichts wird ist es wirklich sehr fraglich wie man mit weniger TMUs die auch noch niedriger getaktet sind mithalten will.

Eventuell waren die TMUs sogar komplett auf Hotclock geplant, nur war es aus irgendwelchen Gründen nicht möglich und man ist schließlich auf 1/2 Hotclock gegangen.

LovesuckZ
2010-03-12, 11:11:07
Nein, es war nie Hot-Clock geplant. Die TMUs befinden sich nicht in der selben Domäne. Dort liegen nur die L/S Units.

/edit: Außerdem sollte man erstmal abwarten, inwieweit das neue Cache-System hilft. Man hat im Best-Fall 3x soviel L2 Cache und kann auch den L1 Cache für die Textur(daten) verwenden.

Gast
2010-03-12, 11:12:04
Wenn ich die SPiegelung richtig interpretiere, dann ist der Karton eingeschweisst. Somit KÖNNTE es sich tatsächlich um befüllte Kartons handeln.

An den stehenden Kartons siehst du, dass sie definitiv nicht eingeschweißt sind.

Burgard
2010-03-12, 11:18:08
An den stehenden Kartons siehst du, dass sie definitiv nicht eingeschweißt sind.
STimmt, habe ich nicht drauf geachtet.

Eggcake
2010-03-12, 11:24:51
Was mir auffällt:

- Der Karton in dem die Boxen sind, hat keinen einzigen Kleber drauf, ganz im Gegensatz zu den restlichen - er scheint ganz neu zu sein, nie herumgetragen (sieht man hier (http://forums.vr-zone.com/photopost/data/500/medium/211.jpg)gut).
- Transportieren die ernsthaft so ihre Karten? Boxen halb offen, grosser Freiraum...naja!

Ich glaube die sind leer :D Aber die Packung gefällt mir sehr gut, muss ich sagen...hat was :>

Edit: Und hat da wirklich der Schriftzug auf den Karton abgefärbt? :ugly:

Gestrandet
2010-03-12, 11:51:46
Edit: Und hat da wirklich der Schriftzug auf den Karton abgefärbt? :ugly:
Schätze das sind Reflexionen vom Blitzlicht :confused:

Eggcake
2010-03-12, 11:53:34
Schätze das sind Reflexionen vom Blitzlicht :confused:

Joa müsste wohl so sein. Auf Karton halt selten bis garnie sowas gesehen, aber evt. ists so ein Blitziblinkischriftzug.

tombman
2010-03-12, 11:56:54
Weiß man jetzt schon wieviele SPs es bei der 480er sind? Werdens 512 sein?

Don Vito
2010-03-12, 12:10:47
soweit ich weiß, wissen wir aktuell genausoviel, wie paar Tausend Posts zuvor^^

gogetta5
2010-03-12, 12:18:03
- [..]Der Karton in dem die Boxen sind, hat keinen einzigen Kleber drauf, ganz im Gegensatz zu den restlichen - er scheint ganz neu zu sein, nie herumgetragen [..]


Da haste Recht, scheint ja fast so als wären die zusammengefaltet, in eine neue Kiste gepackt und fotografiert worden.

Ein kleiner Scherz von den Lagerarbeitern, ich denke nicht das die Kartons gefüllt sind.

Aber es ist zumindest ein Indiz dafür das es losgeht.

und @ Tombman: gibt noch keine weiteren Informationen darüber

Spasstiger
2010-03-12, 12:54:34
Weiß man jetzt schon wieviele SPs es bei der 480er sind? Werdens 512 sein?
Laut Ail ja.

Zauberer
2010-03-12, 12:55:08
Edit: Und hat da wirklich der Schriftzug auf den Karton abgefärbt? :ugly:
Klar, kennst Du das nicht?
Photoshop-Färbung nennt man das.
Sieht klar nach Fake aus.

Und alle glauben das, witzig, witzig. ;D

Schätze das sind Reflexionen vom Blitzlicht :confused:
Joa müsste wohl so sein. Auf Karton halt selten bis garnie sowas gesehen, aber evt. ists so ein Blitziblinkischriftzug.
Edit: Nehme alles zurück, stimmt wird vom Blitz sein, so schlecht würde man so was nicht faken.
Die Kartons sind aber wohl leer, weil normal transportiert man so was eingeschweißt, weil sonst ein Arbeiter schnell mal lange Finger bekommt.

Gast
2010-03-12, 13:24:35
[…] und kann auch den L1 Cache für die Textur(daten) verwenden.
Aber nur für Point-Sampling. Alles was die TFUs angeht, geht über deren eigenen Cache.

-Carsten

ShadowXX
2010-03-12, 13:27:27
Die Kartons sind aber wohl leer, weil normal transportiert man so was eingeschweißt, weil sonst ein Arbeiter schnell mal lange Finger bekommt.
Ich hab in meinem Leben schon verdammt viele Retail-Grafikkarten gekauft (mindestens 14 Stück)...und egal ob im (Computer)Laden oder im I-Net gekauft keine einzige davon war jemals eingeschweißt.

Wenn du mal eingeschweißte siehst, dann meist bei Saturn/MM...und die schweißen die Dinger selbst ein, gegen Ladendiebstähle.

Sascha1971
2010-03-12, 13:39:25
Ich hab in meinem Leben schon verdammt viele Retail-Grafikkarten gekauft (mindestens 14 Stück)...und egal ob im (Computer)Laden oder im I-Net gekauft keine einzige davon war jemals eingeschweißt.

Wenn du mal eingeschweißte siehst, dann meist bei Saturn/MM...und die schweißen die Dinger selbst ein, gegen Ladendiebstähle.

Das stimmt schon, nur aber jedesmal bei mir ein Aufkleber (Art Siegel) an den Öffnungen.

igg
2010-03-12, 13:48:22
Das stimmt schon, nur aber jedesmal bei mir ein Aufkleber (Art Siegel) an den Öffnungen.
Bei mir nicht... bzw. nur selten.

Iruwen
2010-03-12, 13:49:28
Kann mich auch nicht erinnern im Versand jemals eine verschweißte oder versiegelte Verpackung bekommen zu haben.
Aber ihr diskutiert jetzt nicht ernsthaft darüber ob die Kartons leer sind oder nicht...

igg
2010-03-12, 13:50:29
GTX480:
http://www.techeye.net/assets/upload/Nvidia/Fermi/Fermi5.JPG
Mehr davon gibts hier: http://www.techeye.net/hardware/nvidias-fermi-is-naked-and-pictured

Eggcake
2010-03-12, 14:01:48
Ich hab in meinem Leben schon verdammt viele Retail-Grafikkarten gekauft (mindestens 14 Stück)...und egal ob im (Computer)Laden oder im I-Net gekauft keine einzige davon war jemals eingeschweißt.

Wenn du mal eingeschweißte siehst, dann meist bei Saturn/MM...und die schweißen die Dinger selbst ein, gegen Ladendiebstähle.

Natürlich nicht, aber für den Grosstransport werden die kaum einfach in einen Karton geworfen ;)

Dural
2010-03-12, 14:02:01
GeForce logo beleuchtet ;D

Fermi wird cool :wink:

san.salvador
2010-03-12, 14:03:48
GeForce logo beleuchtet ;D

Fermi wird cool :wink:
Darin ist dann wohl auch die TDP begründet. ;D

crux2005
2010-03-12, 14:03:49
ist die Led die auch Peterson erwähnte :)

Kalmar
2010-03-12, 14:03:51
wenn des nen lager ist schon man dran gedacht das die anderen kisten nix damit zu tun haben, die werden ja net nur nv kisten hin und her schieben ... vielleicht ist es ja auch nur eine Kiste pro Hersteller :crazy: fidne nur komisch das 470 und 480er in einer kiste sind ...

was mich aber wirklich wundert wenn die Karten schon verschickt sein sollten und die boardleute die Taktraten usw. haben warum gibt es dann keine leaks ? irgendwas ist doch da ober faul ..

Dural
2010-03-12, 14:06:42
weil fermi nur mit 400MHz taktet und NV auf DDR3 setzten muss da GDDR5 zuteuer ist! ;D Die verpackungen die schon hergestellt wurde müssen jetzt wider entsorgt werden....

igg
2010-03-12, 14:09:27
was mich aber wirklich wundert wenn die Karten schon verschickt sein sollten und die boardleute die Taktraten usw. haben warum gibt es dann keine leaks ? irgendwas ist doch da ober faul ..
gibts doch in massen, musst nur die echten identifizieren ;)

Gast
2010-03-12, 14:19:52
also die 5770 die ich gestern erhielt war eingeschweisst. nur so...

The Jackal
2010-03-12, 14:23:20
@ #15033

Sollte die GTX480 nicht rausguckende Heatpipes haben???

Ist die TDP doch kleiner als angenommen?

Gast
2010-03-12, 14:24:38
@ #15033

Sollte die GTX480 nicht rausguckende Heatpipes haben???

Ist die TDP doch kleiner als angenommen?

die Karten auf den Bildern sind wassergekühlt ...

Ailuros
2010-03-12, 14:31:11
@Ailuros

Dann schauen wir mal wie es mit der Verfügbarkeit der HD5830 steht. Ich glaube eher das das die übrig gebliebenen Schrottchips sind die es weder zu 5870 noch zu 5850 geschaft haben.

Wir wie bei einem Saunagang mit der HD5830, die Leute erst einmal mit einem Eimer kaltem Wasser abschrecken und dann bis zu weiteren Verfügrarkeit schwitzen lassen. :-)

Geruechte wollten dass AMD seit Oktober eine Unmenge an 20 cluster chips herumliegen hat die aber nicht ueber 700MHz steigen konnten. Wenn man aber gleich 6 clusters deaktiviert dann ist eine um einiges hoehere Frequenz schon moeglich. Wenn's stimmt dann handelt sich tatsaechlich um quasi Abfall-chips, aber dann heisst es wohl auch nicht dass die 5830-er knapp sein werden.

Und das eben ist genau der Punkt: wenn Dir jemand sagt dass chip X als Beispiel 100 (rein erfundene Zahl) operative chips von jeglichem wafer bekommt dann heisst das durchaus nicht dass alle chips alle Einheiten operativ haben werden und auch nicht dass bei allen die gewuenschte Frequenz erreicht wird.

Dass sich die yields in der Zwischenzeit um ein gutes Stueck erhoeht haben ist nichts Neues aber so lange AMD nicht zu einem metal spin oder sogar re-spin greift aendert sich nichts an den Design-bedingten Mengen pro wafer.

MorPheuZ
2010-03-12, 14:35:12
die Karten auf den Bildern sind wassergekühlt ...

Nach mir sieht das nach CPU Wakü aus.

The Jackal
2010-03-12, 14:56:48
Ich sehe da nix von das die Grafikkarte auf den Bildern wassergekühlt sein soll.

Das ist ein Plastikgehäuse was man da sieht und zwar 2 Slotblenden hoch.

Dural
2010-03-12, 14:59:05
@ #15033

Sollte die GTX480 nicht rausguckende Heatpipes haben???

Ist die TDP doch kleiner als angenommen?

die gtx480 hatte das nie, von wo her hast du das den?

die tdp war schon immer kleiner als "angenommen" die 300w stammen eh wahrscheinlich direkt von amd...

dildo4u
2010-03-12, 15:04:56
Klar hat sie Heatpipes sind aber unter der Abdeckung.

Hier wie bei der 470 sieht man schön das die Pipes nicht über die Abdeckung ragen.
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_470_480_cebit/index2.php

480 mit Abdeckung

http://www.youtube.com/watch?v=vpdPSZB8A8E&fmt=22

Ailuros
2010-03-12, 15:05:54
die gtx480 hatte das nie, von wo her hast du das den?

die tdp war schon immer kleiner als "angenommen" die 300w stammen eh wahrscheinlich direkt von amd...

AMD behauptete 280W. Nachdem ich aber die minimalen 600W/42A fuer die PSU fuer eine 480 sah, sieht es doch eher nach =/>240W aus wie mir NV selber vermittelt hatte. Nochmal die GTX295 hat einen 289W TDP und minimal wird ein 680W/46A PSU vorgeschrieben.

The Jackal
2010-03-12, 15:10:10
Sorry für den Fremdpost.

http://forums.techpowerup.com/showthread.php?t=117000

Da sieht man auf den Bildern der GTX480 den Kühler mit den dicken Heatpipes. Die hängen über den Kartenrand.

Dural
2010-03-12, 15:20:07
ich hab nie eine gtx480 gesehen wo die HP raus gucken, keine ahnung von wo du das her hast!

James Ryan
2010-03-12, 15:30:06
Sorry für den Fremdpost.

http://forums.techpowerup.com/showthread.php?t=117000

Da sieht man auf den Bildern der GTX480 den Kühler mit den dicken Heatpipes. Die hängen über den Kartenrand.

Der Kühler ist wohl nicht final.

btw, in dem NVIDIA-Video, der Rechnername lautete "NV90-PC". ;D
Wäre cool wenn NVIDIA mal wieder zum alten und durchschaubaren Codenamen-Schema zurückkehren würde.

MfG :cool:

The Jackal
2010-03-12, 15:40:55
Ich würde mich freuen wenn man für den Fermi nicht gleich ein Zusatzgehäuse braucht um den unterzubringen.

Tomahawk
2010-03-12, 15:44:16
Eine 480er bei eBay:

http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&Item=180480226810&Category=3762&_trkparms=algo%3DLVI%26its%3DI%26otn%3D1

Ailuros
2010-03-12, 15:46:03
Eine 480er bei eBay:

http://cgi.ebay.de/ws/eBayISAPI.dll?ViewItem&Item=180480226810&Category=3762&_trkparms=algo%3DLVI%26its%3DI%26otn%3D1

Startpreis 1 Euro? :biggrin:

san.salvador
2010-03-12, 15:46:53
Wenn die Schachtel wenigstens schön wäre. :usad:

LovesuckZ
2010-03-12, 15:46:54
Wow, der hat den Karton geklaut...

derguru
2010-03-12, 15:47:45
bestimmt nur die ovp;)

Iruwen
2010-03-12, 15:47:52
7 Gebote für den Karton :D

/e: ich hätte an seiner Stelle keine Artikelmerkmal - Grafikkarten Angabe gemacht, schade um den eBay Account...

Gast
2010-03-12, 15:48:56
Wow, der hat den Karton geklaut...

Wir wohl so sein.
Auf jeden Fall ist nirgends von einer Grafikkarte die Rede:D

Tomahawk
2010-03-12, 15:51:08
Er hat es immerhin in der Kategorie "Grafikkarten" eingestellt.

derguru
2010-03-12, 15:52:03
wo denn sonst,unter kartons? :conf:

Iruwen
2010-03-12, 15:52:31
Artikelmerkmale - Grafikkarten
Schnittstelle: PCI Express
Chipentwickler: NVIDIA
Anwendungsbereich: PC-System
Zustand: Neu
Anschlüsse: Dual-DVI, HDMI

Steht da doch. Ich denk mal er wird vor Auktionsende abbrechen, sonst bekommt er u.U. Ärger. Immerhin hat er sich keine Clocks ausgedacht :p

Tomahawk
2010-03-12, 15:53:39
Business & Industrie > Produktions- & Industriebedarf > Verpackung & Versand > Kartons & Schachteln >

Nighthawk13
2010-03-12, 15:56:24
/edit: Außerdem sollte man erstmal abwarten, inwieweit das neue Cache-System hilft. Man hat im Best-Fall 3x soviel L2 Cache und kann auch den L1 Cache für die Textur(daten) verwenden.

Aber nur für Point-Sampling. Alles was die TFUs angeht, geht über deren eigenen Cache.
-Carsten
Jede Texturinstruction, auch mit Pointsampling geht über die TexUnits und den zugehörigen Cache.
Die Load/Store-Units und L1-Cache haben damit nichts zu tun.
Die 768KB L2-Cache werden von den Texunits jedoch mitverwendet und helfen natürlich, Bandbreitenbedarf/Latency zu senken.

Wenn ein Shader zuviel Register benötigt, werden Daten auch im Hauptspeicher ausgelagert. Das geschieht auch über die L/S-Units unter Zuhilfenahme des L1-Caches(das könnte bei sehr komplexen Shader einiges bringen).
Was mich etwas neugierig macht ist, dass die Konfiguration bei 3D Rendern 16KB Cache/48KB shared Memory ist(und nicht 48/16). Was macht der Grafiktreiber beim 3D-Rendern mit dem shared-memory?

Sterni@Gast
2010-03-12, 15:59:59
7 Gebote für den Karton :D

/e: ich hätte an seiner Stelle keine Artikelmerkmal - Grafikkarten Angabe gemacht, schade um den eBay Account...
Nichts schade,ich behaupte mal das das Angebot ganz so bewusst gestaltet wurde das "vorschnelle" Bieter zum Kauf animiert werden weil sie denken das sie eine echte GTX ersteigern.

Iruwen
2010-03-12, 16:03:28
Eben, hätte er den Verkauf so gestaltet dass nicht so deutlich der Eindruck entsteht dass er eine Grafikkarte verkauft hätte man ihm aber später keine arglistige Täuschung unterstellen können ;) So haftet er oder der eBay Käuferschutz falls der Typ schlau ist.

derguru
2010-03-12, 16:05:48
das risiko ist gleich null für den käufer weil er auch paypal akzeptiert.ich glaub in der kiste ist auch die karte und will nur schnell paar mark damit machen.

The Jackal
2010-03-12, 16:08:14
Rein theoretisch kann er da auch eine 9400 GT reinpacken und wäre Gesätzlich im Recht.

Der Kaufvertrag wäre Rechtsgültig und der Käufer muss zahlen. Solche sachen wie Indizien auf ein bestimmtes Produkt gelten in so einem Fall nicht da der Verkäufer explizit nur schreibt Grafikkarte PCIe und DualDVI/HDMI, was ja auch eine 9400 GT auch erfüllt.

Da gelten auch sachen wie PayPal nicht. Er darf das Geld behalten, da er auch Wahre geliefert hat.

LovesuckZ
2010-03-12, 16:09:25
das risiko ist gleich null für den käufer weil er auch paypal akzeptiert.ich glaub in der kiste ist auch die karte und will nur schnell paar mark damit machen.

Hätte er ein Foto der Karte gemacht, dann wäre es über 1000 Euro gegangen. So verkauft er nur einen Karton.

Gast
2010-03-12, 16:12:51
Jede Texturinstruction, auch mit Pointsampling geht über die TexUnits und den zugehörigen Cache.
Die Load/Store-Units und L1-Cache haben damit nichts zu tun.
Die 768KB L2-Cache werden von den Texunits jedoch mitverwendet und helfen natürlich, Bandbreitenbedarf/Latency zu senken.
Gehst du davon aus, dass Nvidia die Funktionalität der L/S-Units irgendwo dupliziert hat? Ich nicht.

Was mich etwas neugierig macht ist, dass die Konfiguration bei 3D Rendern 16KB Cache/48KB shared Memory ist(und nicht 48/16). Was macht der Grafiktreiber beim 3D-Rendern mit dem shared-memory?
Beim Rendern werden die SMs vom Treiber mit Anweisungen gefüttert, bekommen also ein vorherseh- und optimierbares Zugriffsmuster. Daher ist Shared Memory die bessere Wahl. L1 hilft nur bei wahlfreien Speicherzugriffen so richtig weiter.

-Carsten

Iruwen
2010-03-12, 16:13:42
Rein theoretisch kann er da auch eine 9400 GT reinpacken und wäre Gesätzlich im Recht.

Der Kaufvertrag wäre Rechtsgültig und der Käufer muss zahlen. Solche sachen wie Indizien auf ein bestimmtes Produkt gelten in so einem Fall nicht da der Verkäufer explizit nur schreibt Grafikkarte PCIe und DualDVI/HDMI, was ja auch eine 9400 GT auch erfüllt.

Da gelten auch sachen wie PayPal nicht. Er darf das Geld behalten, da er auch Wahre geliefert hat.

Er schreibt explizit GTX 480.

boxleitnerb
2010-03-12, 16:14:22
Ich hab ihn mal gefragt, was genau er da verkauft. Wer wettet mit, dass da keine Antwort kommt? :)

Sterni@Gast
2010-03-12, 16:14:48
Obwohl er ja nicht explizit schreibt das er eine Grafikkarte verkauft.Nichtmal Artikel wie "die" oder "sie" werden verwendet. ^^

Iruwen
2010-03-12, 16:17:45
Er würde damit jedenfalls vor keinem deutschen Gericht durchkommen, deshalb gehe ich davon aus dass er vor Auktionsende abbricht. Oder er ist ein Idiot. Wird sich ja spätestens in zwei Tagen zeigen.

The Jackal
2010-03-12, 16:18:36
Juristisch bezieht er sich auf den Karton.

Und ja auf dem Karton steht Colorful GTX480. Damit ist der sachverhalt richtig dargestellt und Rechtsgültig.

Es ist nirgendwo zu lesen das da auch die beworbene Hardware drinne ist.

Der Tüp muss juristische Kenntnisse haben, da ist nicht ein einziger Fehler in diesem Angebot. Wie gesagt was man mit der Schachtel Impliziert ist für das Gesetz irrelevant, da von Person zu Person unterschiedlich.

Auch "das Prachstück" kann auch so ausgelegt werden das er sich auf den Karton bezieht. Da ja noch NDA herst, wissen die Kunden auch Rechtlich nicht das es überhaupt eine Hardware gibt die GTX480 betietelt wird. Die Leaks haben vor Gericht kein bestand.

Für den Tüpen, alles richtig gemacht. Hochauchtung von meiner Seite her.

Alle die darauf bieten sind selber schuld.

Gast
2010-03-12, 16:19:16
Hätte er ein Foto der Karte gemacht, dann wäre es über 1000 Euro gegangen. So verkauft er nur einen Karton.

nicht mehr lange, ich hab das Angebot bei ebay als Betrugsversucht gemeldet ;)

Irgendwer muss ja die ganzen Nvidiafanboys vor sich selbst schützen :ulol:

Gast
2010-03-12, 16:21:00
Er würde damit jedenfalls vor keinem deutschen Gericht durchkommen, deshalb gehe ich davon aus dass er vor Auktionsende abbricht. Oder er ist ein Idiot. Wird sich ja spätestens in zwei Tagen zeigen.
Gab es das gleiche Spiel nicht beim PS3 Release (gab/gibt es sicher schon öfter,fällt mir nur gerade so ein)?Da sind ja auch einige Kartons zu Mondpreisen weggegangen.

san.salvador
2010-03-12, 16:22:04
Könnt ihr die 1757. Diskussion zum ewig selben Thema nicht wo anders führen?

Iruwen
2010-03-12, 16:23:46
nicht mehr lange, ich hab das Angebot bei ebay als Betrugsversucht gemeldet ;)

Irgendwer muss ja die ganzen Nvidiafanboys vor sich selbst schützen :ulol:

Hab ich auch ;) Und @Jackal: Sowohl die Kategorie als auch die Angabe technischer Daten implizieren dass es sich um eine Grafikkarte handelt, und zwar um eine GTX 480. Das ist ganz klar ein Fall von arglistiger Täuschung sollte er nicht wirklich eine GTX 480 abgestaubt haben.

/e: sorry für OT, abwarten und Tee trinken.

Tomahawk
2010-03-12, 16:24:12
Juristisch bezieht er sich auf den Karton.

Quatsch: Er hat das Produkt unter "Grafikkarten" eingestellt.

Kalmar
2010-03-12, 16:24:24
Rein theoretisch kann er da auch eine 9400 GT reinpacken und wäre Gesätzlich im Recht.

Der Kaufvertrag wäre Rechtsgültig und der Käufer muss zahlen. Solche sachen wie Indizien auf ein bestimmtes Produkt gelten in so einem Fall nicht da der Verkäufer explizit nur schreibt Grafikkarte PCIe und DualDVI/HDMI, was ja auch eine 9400 GT auch erfüllt.


immer wieder erstaun was manchle leute fürne rechtsvorstellung haben ..

nein geht net. sonst würde ich auch immer nen Ferrari abbilden und nen rostigen käfer verkaufen, angaben wie schaltgetriebe, 4 reifen usw stimmen ja auch ...

nein durch die Produktbilder ist eindeutig ersichtlich das es sich im eine gtx 480 handelt [beim hochalden steht glaub ich ziemlich genau das die abbildungen dem verkauften produkt entsprechen müssen], streitig ist der punkt ob es nur der karton ist oder die karte+karton..

denke da will einer schnell geld machen mit dem karton .. omg 8 bieter schon

Tomahawk
2010-03-12, 16:27:54
Der Kaufvertrag wäre Rechtsgültig und der Käufer muss zahlen. Solche sachen wie Indizien auf ein bestimmtes Produkt gelten in so einem Fall nicht da der Verkäufer explizit nur schreibt Grafikkarte PCIe und DualDVI/HDMI, was ja auch eine 9400 GT auch erfüllt
Ich hoffe du meinst das nicht ernst. Dieses Angebot suggeriert dass es sich um eine Grafikkarte handelt - genau sowas ist verboten.

LovesuckZ
2010-03-12, 16:29:11
Aber nur für Point-Sampling. Alles was die TFUs angeht, geht über deren eigenen Cache.

-Carsten

Danke für die Richtigstellung. Habe es aus dem Whitepaper falsch in Errinnerung gehabt.

The Jackal
2010-03-12, 16:30:36
Es reicht wenn er 2 DVI Lötpfosten und ein DVI zu HDMI adapter rein packt. Schließlich gilt noch NDA und der Kunde weiß nicht das es eine Hardware gibt die GTX480 heißt und noch weniger weiß man die Spec. Kann ja sein das der Hersteller mein das man neben den 2 DVI Lötpfosten und dem DVI-HDMI Adapter ein 450 Watt netzteil dazulegen muß damit das schöner aussieht.


Aber das lustige sind die Lämminge, schon 8 an der Zahl.

Iruwen
2010-03-12, 16:33:37
Du hast echt 'ne verquere Vorstellung von deutschem Recht :biggrin:

The Jackal
2010-03-12, 16:36:26
Nein das ist das deutsche Recht wie es ist.

Die angaben auf dem Karton implizieren nicht die Hardware, da sie der bestand der Auktion sind und nicht explizit angeführt als ein materieller Bestand anderweitig.

Tomahawk
2010-03-12, 16:37:01
@Jackal
extra für dich ergoogelt:
"Betrug stellt einen Straftatbestand dar. Bei diesem täuscht der Täter irgendetwas vor, was nicht der Realität entspricht."

Ansonsten ist die Diskussion irrelevant, da er das Produkt unter "Grafikkarten" eingestellt hat. Er kann nicht einfach einen Karton liefern.

Kalmar
2010-03-12, 16:43:39
Nein das ist das deutsche Recht wie es ist.

Die angaben auf dem Karton implizieren nicht die Hardware, da sie der bestand der Auktion sind und nicht explizit angeführt als ein materieller Bestand anderweitig.


also er nennt das angebot "Colorful GTX 480 "Einmaliges Angebot!"", stellt bilder eines gtx 480 kartons rein und du meist er könnte echt nach deutschen recht nun eine gt9400 verkaufen ohne das ihm was passiert ?
ich hoffe du hast ne gute rechtsschutzversicherung nicht das du mal vor gericht ziehst und dann böse aufwachst mit den kosten :-)

wo sind den die presseleaks ? dachte die haben die karten schon :)

also momentan ist es mir zu ruhig dafür das die presse jetzt die karten haben soll und die taktraten fertig sein sollen ... oder sind die leute so baff von nv das sie keine zeit haben zum posten ?

Burgard
2010-03-12, 16:47:02
also momentan ist es mir zu ruhig dafür das die presse jetzt die karten haben soll und die taktraten fertig sein sollen ... oder sind die leute so baff von nv das sie keine zeit haben zum posten ?

Die sind wohl alle fleissig am benchen und testen

LovesuckZ
2010-03-12, 16:48:03
NDA? Es gab auch keine Leaks der GT21x Karten von der Presse. Leaks wirst du frühsten ein, zwei Tage früher sehen, wenn es nVidia dann egal ist. Die wollen einfach nichts vor der Lan an die Öffenlichkeit kommen lassen.
Der OBR Mensch hat auch schon Leute angeschrieben, dass sie die Bilder mit dem Memorytakt off nehmen. nVidia hat schon nach der CES gezeigt, dass sie NDA-Brecher nicht dulden.

Gast
2010-03-12, 16:49:35
Also sieht bis jetzt alles nach Plan aus. Es werden wohl auch ausreichend Karten zur Verfügung stehen. Ich würde gerne das Gesicht vom Charlie sehen Anfang April:D

Gast
2010-03-12, 16:53:08
Artikelmerkmale - Grafikkarten
Schnittstelle: PCI Express
Chipentwickler: NVIDIA
Anwendungsbereich: PC-System
Zustand: Neu
Anschlüsse: Dual-DVI, HDMI

Steht da doch. Ich denk mal er wird vor Auktionsende abbrechen, sonst bekommt er u.U. Ärger. Immerhin hat er sich keine Clocks ausgedacht :p

Es reicht wenn er eine beliebige NV-Karte mit den passenden Anschlüssen rein packt. Er hat nie behauptet der Karton passt zum Inhalt. :)

Gast
2010-03-12, 16:57:33
Können wir jetzt wieder zum Topic kommen? Ich wüsste nicht warum wir hier einem Betrüger Aufmerksamkeit schenken sollten.

Iruwen
2010-03-12, 16:58:19
Aye, ich sag dazu auch nix mehr.

Popeljoe
2010-03-12, 17:06:20
Können wir jetzt wieder zum Topic kommen? Ich wüsste nicht warum wir hier einem Betrüger Aufmerksamkeit schenken sollten.
Ja bitte kommt wieder aufs eigentliche Thema!

Byteschlumpf
2010-03-12, 17:23:45
Hab ich auch ;) Und @Jackal: Sowohl die Kategorie als auch die Angabe technischer Daten implizieren dass es sich um eine Grafikkarte handelt, und zwar um eine GTX 480. Das ist ganz klar ein Fall von arglistiger Täuschung sollte er nicht wirklich eine GTX 480 abgestaubt haben.

/e: sorry für OT, abwarten und Tee trinken.
Damit liegt er richtig, denn ein Karton verfügt jawohl kaum über Bildanschlüsse! ^^
Ein angebotenes Produkt MUSS mit all seinen Eigenschaften KORREKT beschrieben werden! Demnach ist weder die Kategorie noch die Art der Produktmerkmale richtig!

/ Das musste einfach rausgelassen werden - Sorry!

Kalmar
2010-03-12, 17:25:19
NDA? Es gab auch keine Leaks der GT21x Karten von der Presse. Leaks wirst du frühsten ein, zwei Tage früher sehen, wenn es nVidia dann egal ist. Die wollen einfach nichts vor der Lan an die Öffenlichkeit kommen lassen.
Der OBR Mensch hat auch schon Leute angeschrieben, dass sie die Bilder mit dem Memorytakt off nehmen. nVidia hat schon nach der CES gezeigt, dass sie NDA-Brecher nicht dulden.

aber es trauen sich ja net mal welche leaks zu faken .. irgendwie ist mir es momentan zu ruhig ..

hoffe das die Benchmarks die wir dann sehen nicht nur mit nv vorgeschriebenen spielen stattfinden sondern mit ner breiten Palette von spielen das man sich nen guten Eindruck gleich machen kann und nicht noch länger warten muss auf "unabhängige Benchmarks"

in weniger als 2 Wochen wissen wir mehr .. wie schaut es eigentlich aus die Karten werden auf der messe von nv schon unters Volk gebracht ? nur wann kommen die hier im laden an ? dann so vermutlich ne Woche später ?

Coda
2010-03-12, 17:47:23
Nachdem das NDA gefallen ist kann jeder testen was er will. Stallorder gibt's da also nicht.

Kalmar
2010-03-12, 17:56:49
aber die ersten benchmarks zählen bzw. sind die die sich einbrennen :(

weiss einer wann des nda fällt mit der messe von nv, kurz davor oder kurz danach ?

igg
2010-03-12, 17:57:47
Am 26.3. wird es fallen, zum Zeitpunkt der Veröffentlichung. Und Karten erwarte ich im Handel vereinzelt ab dem 24./25. (nicht jeder normale Kaufhausangestellte schert sich um Termine wenn die Schachteln im Lager liegen...).

LovesuckZ
2010-03-12, 17:59:14
27.März 01:00 unserer Zeit.

Am 26.3. wird es fallen, zum Zeitpunkt der Veröffentlichung. Und Karten erwarte ich im Handel vereinzelt ab dem 24./25. (nicht jeder normale Kaufhausangestellte schert sich um Termine wenn die Schachteln im Lager liegen...).

Es wird keine 4850 Verfügbarkeit geben. Alternate wird wohl die ersten Tage die einzigen Karten in Deutschland haben.

Nighthawk13
2010-03-12, 18:12:44
Gehst du davon aus, dass Nvidia die Funktionalität der L/S-Units irgendwo dupliziert hat? Ich nicht.

L/S-Units und Texunits können beide Daten aus dem L2-Cache anfordern, soweit ist doppelte Funktionalität vorhanden. Aber beide haben seperate Caches.

Außerdem macht die Texunit ja noch viel mehr wie z.B. Clamping/Wrappen von Tex-Koordinaten, Ermittlung der Adressen in 2D/3D Arrays, Entpacken von komprimierten Texturen usw.
Das muss auch bei Pointsampling gemacht werden.

Ansonsten zitier ich mal den Nvidia_FermiTuningGuide (http://developer.download.nvidia.com/compute/cuda/3_0/docs/NVIDIA_FermiTuningGuide.pdf):


On devices of compute capability 1.x, some kernels can achieve a speedup when using
(cached) texture fetches rather than regular global memory loads (e.g., when the regular loads
do not coalesce well). Unless texture fetches provide other benefits such as address
calculations or texture filtering (Section 5.3.2.5), this optimization can be counter-productive
on devices of compute capability 2.0, however, since global memory loads are cached in L1
and the L1 cache has higher bandwidth than the texture cache.


Macht imo nur Sinn, wenn L/S und Texunits getrennt Speicher lesen.

davidzo
2010-03-12, 18:31:00
Da hier zum Teil abenteuerliche Meinungen über den Kühler der neuen Karten vorrherrschen möchte ich dazu nochmal einiges sagen. Ich habe jahrelang Wasserkühler entwickelt und erarbeite seit mehreren Jahren für unterschiedliche Unternehmen passive und aktive Hochleistungskühlungen, meine Kommentare sind also qualifiziert.

Entscheidend für die Effizienz des Kühlkörpers bei einem gegebenen Luftstrom ist sein thermischer Widerstand und der induzierte Druckverlust.

Konzentriert man die Luft auf eine kleine Fläche steigt die Effizenz des Kühlers, da durch eine kleinere Kühlkörpergröße die inneren Wärmewiderstände sinken und die Wärmeverteilung gegenüber einem größeren Kühlkörper besser ist(auch Kupfer isoliert, ab einer bestimmten Dicke sogar massivst).
Von der Wärmeverteilung innerhalb des Kühlkörpers her sind diese Art Kühler am besten. Man vergleiche nur den 80mm Kühler Swiftech MCX462 und den kleinen Kupferkühler thermalright SK6 - bei gleichem Luftstrom (60mm 8000 rpm vs 80mm 3000rpm) ist der kleine SK6 sogar überlegen.

Die Druckverluste einer solchen Lösung sind jedoch meist enorm, da kleine Kühlkörper in der Regel trotz hoher Effizenz pro Fläche geringere Kanalquerschnitte aufweisen, was zu hohen Spülverlusten durch Turbulenzen führt. Eine Reduzierung des Luftflussquerschnitts hat außerdem meist kleine Lüfter und hohe Lüfterdrehzahlen zufolge. Die vorherrschende Turbulente Luftströmung sorgt zwar für eine hohe Gleitschichtablösung und hohen Wärmeübergang, da der Druckverlust bei turbulenter Strömung aber exponentiell zur Geschwindigkeit steigt, lässt sich eine Lösung sehr schlecht skalieren.

Insbesondere die Skalierung für unterschiedliche Lastszenarien spricht für eine größere Lösung mit höherem Lamellenabstand. Dabei steigt der Materialaufwand enorm, denn die Nachteile einer schlechteren Wärmeverteilung und größerem Innenwiderstand eines größeren Kühlkörpers müssen durch konstruktive Details wieder ausgeglichen werden (dicke kupferbodenplatte, heatpipes etc.)
Für den Hersteller ist eine größere Kühllösung also materialtechnisch ineffizienter.

Egal was für einen Kompromiss der Designer der Kühllösung eingeht, sollte er durch genaue simulation und Testen den Druckverlust minimieren, das Strömungsgefälle glätten und die Wärmeverteilung maximieren.


Zum GTX470 Kühler

Der GTX470 Kühler sieht in dieser Hinsicht sehr gut aus, er ist beinahe quadratisch, was mit den gut verteilten heatpipes für eine sehr gute Wärmeverteilung und einen geringen internen Wärmewiderstand sorgen sollte. Die weggelassenen Lamellen, die noch beim 9800GTX kühler bis zum Ende des Slotblechs gingen, haben sowieso eine sehr schlechte Verbindung zur Wärmequelle, d.h. einen sehr hohen Wärmewiderstand. Vermutlich bringt das weglassen dieser unnötig langen Lamellen sogar mehr Kühlleistung als die implementation dieser lamellen brächte, durch einen geringeren Druckverlust und damit höhere Luftgeschwindigkeiten für den Rest der Lamellen.
Zudem scheint es keine nennenswerten Löcher in der Lüfterkammer zu geben, durch die der vom Radiallüfter aufgebaute Druck vorzeitig entweichen könnte, was bei einigen NON-referenzlösungen der ATI board-partner in den letzten Tagen zu beobachten war. größere Löcher im Luftfluss lassen erheblich druck entweichen der dann zwischen den Lamellen fehlt - Ineffizienz die nicht sein muss wie die ATI original-referenzen zeigen und die nvidia Implementation.

Der Lamellenabstand ist nach den Bildern geschätzt mit 2mm sehr hoch, was für ein großes Drehzahlspektrum nach unten bzw. niedrige Leerlaufdrehzahlen spricht.
Der Kühler scheint für eine Verlustleistung im Bereich oder knapp über einer GTX285 konstruiert worden zu sein, nicht für wesentlich mehr. Die Wärmeverteilung und der interne Wärmeweiderstand sind zwar womöglich besser als beim GTX285 Kühler, aber die Auslegung auf gute performance bei mittleren bis niedrigen Drehzahlen passen so gar nicht zu dem Lüfter.
Der Kühler ist eindeutig als Silentkühler konstruiert worden!

Zum gezeigten Lüfter

Der gezeigte Lüfter ist ohne Frage ein performancelüfter und wird auch untervoltet nicht gerade effizient sein. Seine Lamellen, der Anstellwinkel derer und seine Lager sind auf eine hohe Drehzahl ausgelegt und machen niedrige Drehzahlen wenn überhaupt nur mit geringer Effizenz mit.
Wenn man sowieso nicht vorhat den Lüfter über 50% Last zu betreiben, ist es deutlich schlauer dann auch einen entsprechenden Lüfter zu verwenden. Das schwere lager, die massiven Magnete und das hohe Rastmoment durch diese Magnete, all dass lassen den gezeigten Lüfter bei geringen Drehzahlen schlecht aussehen.

Der Motor ist brushless, der läuft sogar ganz sicher noch mit <6V.
Das ist Schwachsinn, alle PC-lüfter sind brushless und deine Aussage trifft auf viele einfach nicht zu.
Einige laufen nichtmal mehr mit 7volt, das hängt genau von der gewählten Ansteuerung, dem Lager und dem Luftwiderstand ab.


Die Ansteuerung ist doch sowieso PWM soweit ich weiß, dann erledigt sich das Anlaufproblem ohnehin.
Natürlich wird die Spannung über PWM reduziert, so wie das heutzutage bei so gut wie allen Spannungsregelungen gemacht wird. Zur Anlaufsteuerung sagt die Tatsache das PQM verwendet wird aber nichts. Das hat mit PWM wenig zutun, sondern mit Massenträgheit. Auch ein kurzer PWM stoß bei 12V reicht nicht um die Massenträgheit eines 100er Lüfters zu überwinden.
Was di meinst ist die integrierte BIOSsteuerung (früher noch in Software im Treiber), welche den Lüfter zu Anfang voll hochregelt und sobald die Karte postet dann langsam herunterregelt.


Was steckt also dahinter, dass uns nvidia diesen Kühlkörper mit einem solchen Lüfter präsentiert?

Die Frage bietet mehrere Anwortmöglichkeiten:
1. Der gezeigte Lüfter ist nicht die finale Version sondern ein Prototyp und dadurch natürlich overrated.
2. Nvidia ist selber von der hohen Verlustleistung überrascht und tauscht nun statt einer ausgewogenen Neukonstruktion (höhere Lamellendichte, leicht stärkerer Lüfter) den Lüfter gegen ein überstarkes Modell aus um die gewünschte Kühlleistung zu erreichen für die der Kühlkörper abe nicht konstruiert wurde.
3. Der Lüfter war am chinesichen Markt gerade billig. Ob nun ein Manager glaubte mit einem 1.8A Lüfter zum Preis von einem 1A Gerät ein schnäppchen gemacht zu haben oder ob das Label ein Druckfehler ist, interessieren tut sich bei nvidia anscheinend niemand dafür.


Szenario 1: im ersten Fall würden wir eine Karte bei ca. 200Watt in den händen halten mit einem leisen Lüfter und effizient abgestimmten Kühlsystem.

Szenario 2: Im zweiten Fall hätten wir einen heißen heuler, der aber wohl ein paar Wochen oder Monate später durch eine besser abgestimmte Lösung mit mittlerer Lautstärke und höherer Effizienz abgelöst werden würde.

Szenario 3: Im dritten Fall muss man mit einem lauten aber kühlen Heuler leben, bis der Verantwortliche bei nvidia gefunden und Ersetzt wird und dann kann nach ein paar Wochen entweder Szenario 1 oder 2 eintreffen.

Armaq
2010-03-12, 19:33:28
Das ist doch mal ein Beitrag. Danke für die Info.

gogetta5
2010-03-12, 19:45:28
Jop, danke dafür

übrigens so nebenbei, das Ebay Angebot für die GTX480 ist schon weg ^^

Hoffema das das Teil dann dochnicht so der Schreihalls sein wird.

Was sagst du überhaupt zu dem GTX480 Kühler?

redpanther
2010-03-12, 19:46:17
Absolut. Großes Lob von mir für einen Super Beitrag!

Leider in diesem Thread eine Seltenheit bei den vielen Kindergarten Beiträgen hier.

Kalmar
2010-03-12, 19:49:02
...

super post der endlich mal klarheit schaft.

also rein hypothetisch wenn sie wissen das der refresh im sommer schon kommt, könnten sie eigentlich auch Szenario 2 + 3 riskieren und wenn die stückzahl gering ist dämpft des auch die nachfrage ..

nichts destotrotz würde ich sagen das nv einfach aufgrund derverspätung genug zeit hatte sich über die kühllösung nen kopf zu machen und uns da was annehmbares am fertigen produkt schon zeigen wird.

Dural
2010-03-12, 19:56:21
viel Text bringt auch nichts wenn es nicht zwangsläufig richtig ist...

1. Der Delta wird schon so in der Retail Version sein
2. Es ist immer noch ein Delta Lüfter, die angegebenen 1.8A werden so NIE ereicht zu 100% ich hab schon einige Delta Lüfter gemessen und die lagen zum teil deutlich unter dem angegebenen Wert.
3. Delta ist Qualität, es gibt so gut wie keinen besseren Hersteller, in vielen OEM Geräten sind Deltas Verbaut / Server Bereich / Konsolen / Grafikkarten usw.
4. Delta ist einer der grössten Lüfter Hersteller der Welt, wenn nicht sogar der Grösste
5. Hardware Over Voltage + OC = Viel Reserve nach oben und das geht nur mit so einem Lüfter, alles andere wäre zu teuer...
6. Die Karten werden schlicht im Normalen Lautstärke bereich sein
7. Es ist blödsinn zu behaupten das ein Starker Lüfter im unterem Bereich nicht leise sein kann!
8. TDP 180Watt ;)

Punkt 5 ist für mich der Wichtigste der ganz Klar für einen Starken Lüfter Spricht

Iruwen
2010-03-12, 20:05:27
Also ich fand davidzos Post deutlich überzeugender ;)

Kalmar
2010-03-12, 20:11:41
viel Text bringt auch nichts wenn es nicht zwangsläufig richtig ist...

1. Der Delta wird schon so in der Retail Version sein
2. Es ist immer noch ein Delta Lüfter, die angegebenen 1.8A werden so NIE ereicht zu 100% ich hab schon einige Delta Lüfter gemessen und die lagen zum teil deutlich unter dem angegebenen Wert.
3. Delta ist Qualität, es gibt so gut wie keinen besseren Hersteller, in vielen OEM Geräten sind Deltas Verbaut / Server Bereich / Konsolen / Grafikkarten usw.
4. Delta ist einer der grössten Lüfter Hersteller der Welt, wenn nicht sogar der Grösste
5. Hardware Over Voltage + OC = Viel Reserve nach oben und das geht nur mit so einem Lüfter, alles andere wäre zu teuer...
6. Die Karten werden schlicht im Normalen Lautstärke bereich sein
7. Es ist blödsinn zu behaupten das ein Starker Lüfter im unterem Bereich nicht leise sein kann!
8. TDP 180Watt ;)

Punkt 5 ist für mich der Wichtigste der ganz Klar für einen Starken Lüfter Spricht

kann mir schon gut vorstellen das die kleinen lamellen am lüfter kaum luftzug erzeugen in niedrigen drehzahlbereichen, würde deinem post auch nicht folgen.

was detla für ein unternehmen ist spielt bei dem lüfter wohl keine rolle da hier einfach nur die Bauteile und deren Wirkung bewertet wurden ..

Armaq
2010-03-12, 20:19:25
Es ging ihm auch um die bessere Alternative. Das es nicht geht hat er hat nicht gesagt. Nur das es schlecht konstruiert ist.

cR@b
2010-03-12, 20:28:57
AMD hat in das Portfolio seiner aktuellen ATI Radeons bereits eine Dual-Grafikkarte, die HD 5970, aufgenommen. An deren Leistungskrone können weder die Nvidia GeForce GTX 470 noch die GTX 480 kratzen.

Eine sehr interessante Aussage :D

Quelle: http://www.hartware.de/news_48716.html

Gast
2010-03-12, 20:41:34
Oha:

http://www.semiaccurate.com/2010/03/12/semiaccurate-wrong-about-nvidia-480gtx-power-use/

LovesuckZ
2010-03-12, 20:45:24
Ach in 2 Wochen wissen wir mehr. Da muss man solche Seiten auch nicht mehr lesen.

y33H@
2010-03-12, 20:50:17
Mit welchen AIBs Fud wohl gesprochen hat ;D

Gast
2010-03-12, 20:52:55
Oh Mann... da gibt Charlie schonmal selber zu, daß seine Aussagen zur TDP der 480 falsch waren, und dann isses auch wieder nicht recht.

LovesuckZ
2010-03-12, 20:54:44
Oh Mann... da gibt Charlie schonmal selber zu, daß seine Aussagen zur TDP der 480 falsch waren, und dann isses auch wieder nicht recht.

Und ich wette, ohne den Blogeintrag gelesen zu haben, die Differenz zwischen seinen alten und neuen Aussagen liegt nah beinander. Stimmts? :D

y33H@
2010-03-12, 21:00:10
Vor allem labert er etwas von Notebooks. Fermi und Notebook? Ich weiß ja nicht :ulol: Die 5870M ist ja auch noch nicht mal ein halber Cypress ...

Gast
2010-03-12, 21:13:59
Oh Mann... da gibt Charlie schonmal selber zu, daß seine Aussagen zur TDP der 480 falsch waren, und dann isses auch wieder nicht recht.

ja wow... um ganze 5 watt ;) da issa wirklich TOTAL falsch gelegen mit seinen 280 watt. sind ja NUR noch 275.... ist gleich deutlich besser > *FAIL*?

Gast
2010-03-12, 21:20:13
Ich könnt euch ja gerne tot lachen. Aber es würde mich nicht wundern wenn er Recht behält. Er hat nun mal nicht die schlechtesten Quellen, auch wenn manchen NV-Fans sein Schreibstil zu schaffen macht.

mictasm
2010-03-12, 21:23:21
Vor allem labert er etwas von Notebooks. Fermi und Notebook? Ich weiß ja nicht :ulol: Die 5870M ist ja auch noch nicht mal ein halber Cypress ...
Wurde die TDP der Teslas auch erhöht?

y33H@
2010-03-12, 21:29:02
Die TDP der GTX480 steht doch eh schon lange, 3rd-Party-Hersteller wie AIBs und OEMs kennen die Werte. Mir wäre es neu, dass NV die TDP nach oben gerissen hat, egal ob Geforce oder Tesla.

LovesuckZ
2010-03-12, 21:31:08
Warum sollte die TDP der Tesla-Karten nach oben angehoben worden sein? Wer schreibt denn so ein Mist?

y33H@
2010-03-12, 21:33:28
Der gute Charlie:
SemiAccurate wrong about Nvidia 480GTX power use
GDC 2010: Officially raised 50W, OEMs livid

If that isn't bad enough, some sources at GDC told SemiAccurate that Nvidia jacked the TDP up 50W last week without warning.

LovesuckZ
2010-03-12, 21:39:07
Und wieviel verbraucht die GTX480 nach good-old-Char-lie? 330 Watt?

y33H@
2010-03-12, 21:39:48
275 statt 280W ;D Beides übrigens falsch, meinem aktuellen Stand nach.
Working hard, they have managed to reduce the TDP of the cards 5W to 275W.

mapel110
2010-03-12, 21:42:24
Sind die 240 Watt von Ailuros näher an der Realität als die 275 Watt, y33H@?

LovesuckZ
2010-03-12, 21:43:02
Ahso. Macht sinn. :lol:
In 2 Wochen wissen wir ja mehr. Bis dahin muss man sich den Schund auch nicht mehr antun.

y33H@
2010-03-12, 21:53:54
Laut NV braucht man für eine GTX295 mit einer 289er-TDP eine 680W-PSU, für eine GTX280 mit einer 236er-TDP eine 550W-PSU. Für die GTX480 eine 600W-PSU. Real zieht eine GTX295 in Spielen 230 Watt (Furmark: 315W), die GTX280 in Spielen 190 Watt (Furmark: 225W). Wo wird sich ergo die GTX480 einordnen, TDP wie real? ;)

LovesuckZ
2010-03-12, 21:57:13
205 Watt in realen Spielen und 252 Watt im Furmark (basierend auf der Differenz der PSU Angaben, die GTX295 müsste ausgehen vom Furmark eine höhrere Angabe haben).

Ailuros
2010-03-12, 21:58:57
Sind die 240 Watt von Ailuros näher an der Realität als die 275 Watt, y33H@?

Mit overvolting/overclocking Luftraum oder ohne? :P

y33H@
2010-03-12, 22:00:12
@ LovesuckZ

NV "kann" bei der GTX295 keine TDP höher als 300W angeben, so wie AMD es bei der HD4870 X2 und HD5970 auch nicht gemacht hat. Damit würde man sich ganz offiziell außerhalb der PCI-E-Specs bewegen (was in der Praxis zwar der Fall ist, auf dem Papier aber eben nicht).

Gast
2010-03-12, 22:00:30
Mit overvolting/overclocking Luftraum oder ohne? :P

Eine TDP-Angabe ist immer ohne OC. Lass dich nicht für blöd verkaufen.

Ailuros
2010-03-12, 22:06:51
Eine TDP-Angabe ist immer ohne OC. Lass dich nicht für blöd verkaufen.

Ich lass mich fuer gar nichts bloed verkaufen. Wir reden nochmal darueber nach dem Launch.

LovesuckZ
2010-03-12, 22:07:41
Eine TDP-Angabe ist immer ohne OC. Lass dich nicht für blöd verkaufen.

Und wenn nVidia das Voltage-Feature vermarket? ;)

Gast
2010-03-12, 22:11:17
Und wenn nVidia das Voltage-Feature vermarket? ;)

Warum dann nicht gleich serienmäßig "volle" Spannung? Das ergibt keinen Sinn.

Gast
2010-03-12, 22:40:09
Und wenn nVidia das Voltage-Feature vermarket? ;)

bei Analogen SPAWA..schon klar...

anddill
2010-03-12, 23:00:27
bei Analogen SPAWA..schon klar...

Wo ist das Problem? Auch ein analoger Regler folgt nur der Referenzspannung, und die kann man verstellen.

Gast
2010-03-12, 23:02:46
die Software will ich sehen...

LovesuckZ
2010-03-12, 23:09:47
die Software will ich sehen...

Warten wir auf den Launch. Es wurde von nVidia als "Fun Fact of the Week" angekündigt:

Fermi Fun Fact of the Week: GF100 graphics cards provide hardware support for GPU overvoltaging for extreme overclocking

y33H@
2010-03-12, 23:10:14
GTX470 = 225W TDP
GTX480 = 298W TDP

Ich enthalte mich und kommentiere die Werte (http://www.pcgameshardware.de/aid,706260/) nicht ;)

mapel110
2010-03-12, 23:14:26
Könnte ja zwei TDP-Angaben pro Chip geben. Eine mit und eine ohne Overvoltage.

GTX 470
190 Watt
225 Watt mit Overvoltage

GTX 480
240 Watt
289 Watt mit

Coda
2010-03-12, 23:15:56
die Software will ich sehen...
Wie ist das jetzt gemeint?

y33H@
2010-03-12, 23:17:52
die Software will ich sehen... Nennt sich Afterburner. Ob analog oder digital ist egal, beides lässt sich bei entsprechendem IC2 ansteuern.

StefanV
2010-03-12, 23:19:52
die Software will ich sehen...
Hängt nur von der Implementation ab, auch analoge Regler kann man justieren, siehe CPU Spannungsregler...

LovesuckZ
2010-03-12, 23:23:27
GTX470 = 225W TDP
GTX480 = 298W TDP

Ich enthalte mich und kommentiere die Werte (http://www.pcgameshardware.de/aid,706260/) nicht ;)

Das will ich sehen, dass EINE GPU auf einer Karte an die 300 Watt verbrauchen soll. Und dann soll zwischen GTX470 und GTX480 73 watt liegen? Selbst beim GT200 waren es "nur" 48 Watt zwischen GTX260 und GTX280.

y33H@
2010-03-12, 23:25:28
Die GPU alleine zieht keine 300W, wenn überhaupt nur die ganze Karte im Furmark.

Gast
2010-03-12, 23:33:08
Nennt sich Afterburner. Ob analog oder digital ist egal, beides lässt sich bei entsprechendem IC2 ansteuern.

der poppoburner kann ne 285er ocen? Echt jetzt..oder willste wieder einen erzählen...

Bucklew
2010-03-12, 23:44:58
Laut NV braucht man für eine GTX295 mit einer 289er-TDP eine 680W-PSU, für eine GTX280 mit einer 236er-TDP eine 550W-PSU. Für die GTX480 eine 600W-PSU. Real zieht eine GTX295 in Spielen 230 Watt (Furmark: 315W), die GTX280 in Spielen 190 Watt (Furmark: 225W). Wo wird sich ergo die GTX480 einordnen, TDP wie real? ;)
Na 275W, wo denn sonst, hat der Charlie doch geschrieben ;D

y33H@
2010-03-12, 23:59:11
@ Gast

Der IC des RefDesigns lässt sich nicht ansprechen *Schulter zuck*

Gast
2010-03-13, 05:05:20
Ich sag nur bla. Hier werden einige auf die Schnautze fallen. Ich sage die 470 liegt MINDESTENS gleichauf der 5870. Die Temperatur wird auch nicht zu hoch sein und der Lüfter nicht lauter als ne 285. Passt auf was ihr sagt, es kann auf euch zurückfallen liebe Members.;)

P.S.: Ich bin nur Gast weil ich keinen Bock hab mich überall zu registrieren. Muss ja net sein.

Gast
2010-03-13, 06:18:05
AMD hat in das Portfolio seiner aktuellen ATI Radeons bereits eine Dual-Grafikkarte, die HD 5970, aufgenommen. An deren Leistungskrone können weder die Nvidia GeForce GTX 470 noch die GTX 480 kratzen.

Eine sehr interessante Aussage :D

Quelle: http://www.hartware.de/news_48716.html

Dualkarten bringen guten Speed,nur produzieren diese Karten Ruckler,was die Leistung wertlos macht.

lilgefo~
2010-03-13, 07:53:50
Dualkarten bringen guten Speed,nur produzieren diese Karten Ruckler,was die Leistung wertlos macht.

Ui, gibt sogar Computerbild Redakteure hier im Forum. Nicht schlecht, Herr Specht.

Gast
2010-03-13, 08:40:35
Warten wir auf den Launch. Es wurde von nVidia als "Fun Fact of the Week" angekündigt:

Das geht bei ATi-Karten seit Jahren. Was daran jetzt eine höhere TDP wegen OC-Spielraum rechtfertigen soll ist mir trotzdem nicht klar.

Gast
2010-03-13, 08:41:35
Könnte ja zwei TDP-Angaben pro Chip geben. Eine mit und eine ohne Overvoltage.

GTX 470
190 Watt
225 Watt mit Overvoltage

GTX 480
240 Watt
289 Watt mit

Ich frage noch mal: Sinn?

Gast
2010-03-13, 08:50:21
Das will ich sehen, dass EINE GPU auf einer Karte an die 300 Watt verbrauchen soll. Und dann soll zwischen GTX470 und GTX480 73 watt liegen? Selbst beim GT200 waren es "nur" 48 Watt zwischen GTX260 und GTX280.

Absolute Werte sind vollkommen sinnlos bei einem solchen Vergleich. Je weniger eine GPU verbraucht, umso geringer natürlich der absolute Unterschied zwischen abgespeckt oder nicht abgespeckt.

Ailuros
2010-03-13, 09:23:47
Könnte ja zwei TDP-Angaben pro Chip geben. Eine mit und eine ohne Overvoltage.

GTX 470
190 Watt
225 Watt mit Overvoltage

GTX 480
240 Watt
289 Watt mit

Es wird afaik nur einen TDP geben. Garantiert ist momentan vom oeffentlichen 480 Bildchen dass man fuer so ein Ding minimal ein 600W/42A PSU braucht waehrend NV fuer die 295 ein 680W/46A PSU als Minimum angibt.

High end/Enthusiast verbratet mehr Strom als Kategorien darunter und ich wuerde nicht erwarten dass irgend jemand so bloed ist eine 295/480/5970 oder weiss der Geier was sonst mit nur einem 600-680W Netzteil zu betreiben. Aus Sicherheitsmassnahmen geht jeglicher Verbraucher zu staerkeren Netzteilen und auch gerechtfertigt.

Der wichtigste Punkt hier ist ob die GTX480 nicht zu heiss wird unter extremem Stress und ob der Luefter leise genug ist. Ich hatte ein paar persoenliche Vorbehaltungen als ich mit dem Gedanken spielte dass die TF vielleicht auf hot clock operieren koennten.

Zwar hat sich zwischen G8x/GT2x0 und GF100 mit den Frequenzen einiges geaendert aber es bleibt nach wie vor Tatsache dass nur die ALUs zu "hotclocken" eigentlich Sinn macht. TMUs als Beispiel auf hot clock zu jagen (oder nur die Haelfte dieser sprich TF) wuerde mehr in die area kosten als gleich auf 128TMUs zu gehen und ja das kommt auch direkt vom Maul des Loewen.

Gast
2010-03-13, 10:15:40
L/S-Units und Texunits können beide Daten aus dem L2-Cache anfordern, soweit ist doppelte Funktionalität vorhanden. Aber beide haben seperate Caches.
Soweit ich es noch im Kopf habe ist eine komplette Cache-Hierarchie eben dazu da, dass die einzelnen Einheiten sich nicht darum scheren müssen, woher sie ihre Daten bekommen.


Ansonsten zitier ich mal den Nvidia_FermiTuningGuide (http://developer.download.nvidia.com/compute/cuda/3_0/docs/NVIDIA_FermiTuningGuide.pdf):
On devices of compute capability 1.x, some kernels can achieve a speedup when using (cached) texture fetches rather than regular global memory loads (e.g., when the regular loads do not coalesce well). Unless texture fetches provide other benefits such as address calculations or texture filtering (Section 5.3.2.5), this optimization can be counter-productive on devices of compute capability 2.0, however, since global memory loads are cached in L1
and the L1 cache has higher bandwidth than the texture cache.

Macht imo nur Sinn, wenn L/S und Texunits getrennt Speicher lesen.
Ich lese es genau andersherum: Der Texturcache ist doch dafür da, einmal eingelesene Texel wiederzuverwenden - was beim Filtern ja sehr sinnvoll ist, da du schon für bilinear mehrere Werte zwischenspeichern musst. Bei Point Sampling gibt's keine Wiederverwendung, sondern genau ein Ergebnis pro Sample.

MMn bestimmt der Aufruf, also "Tex_filtered", "Tex_point" oder "Atomic" (erfundene Bezeichnungen!), ob die L/S die angeforderten Daten in den L1/SM oder in den Texturcache schaufeln. Das passt auch viel besser mit der von Nvidia propagierten massiven Verbesserungn bei Atomics ggü. GT200 zusammen.

Gast
2010-03-13, 10:21:05
Warum dann nicht gleich serienmäßig "volle" Spannung? Das ergibt keinen Sinn.

Warum wird die MSI 5870 Lightning nicht gleich mit 1.1 GHz ausgeliefert? Gleicher "Sinn".

Odal
2010-03-13, 10:25:03
Warten wir auf den Launch. Es wurde von nVidia als "Fun Fact of the Week" angekündigt:

GF100 graphics cards provide hardware support for GPU overvoltaging for extreme overclocking

hardware support könnte auch einen hardwaresupport zum regeln bedeuten sprich poti (drehknopf) schalter oder weiss der geier

mir auch recht....allerdings macht das hardware vmods obsolet und die ganze sache langweilig :(

Gast
2010-03-13, 10:28:59
Vorab mal: Toller Post!
Die Frage bietet mehrere Anwortmöglichkeiten:
1. Der gezeigte Lüfter ist nicht die finale Version sondern ein Prototyp und dadurch natürlich overrated.
2. Nvidia ist selber von der hohen Verlustleistung überrascht und tauscht nun statt einer ausgewogenen Neukonstruktion (höhere Lamellendichte, leicht stärkerer Lüfter) den Lüfter gegen ein überstarkes Modell aus um die gewünschte Kühlleistung zu erreichen für die der Kühlkörper abe nicht konstruiert wurde.
3. Der Lüfter war am chinesichen Markt gerade billig. Ob nun ein Manager glaubte mit einem 1.8A Lüfter zum Preis von einem 1A Gerät ein schnäppchen gemacht zu haben oder ob das Label ein Druckfehler ist, interessieren tut sich bei nvidia anscheinend niemand dafür.

Wäre dMn der vierte Fall denkbar:
Der Kühler soll im Idle relativ leise arbeiten (großer Lamellenabstand usw.), im Notfall durch den überdimensionierten Lüfter jedoch große Mengen an Hitze wegschaffen können? Das war jedenfalls immer die NV-Politik der vergangenen Jahre. Je weiter sich Idle- und Lastaufnahme voneinander entfernen, desto mehr Kompromisse muss man schließlich bei der Kühlung eingehen.

-Carsten

Armaq
2010-03-13, 13:34:43
Vorab mal: Toller Post!


Wäre dMn der vierte Fall denkbar:
Der Kühler soll im Idle relativ leise arbeiten (großer Lamellenabstand usw.), im Notfall durch den überdimensionierten Lüfter jedoch große Mengen an Hitze wegschaffen können? Das war jedenfalls immer die NV-Politik der vergangenen Jahre. Je weiter sich Idle- und Lastaufnahme voneinander entfernen, desto mehr Kompromisse muss man schließlich bei der Kühlung eingehen.

-Carsten
In seinem Post geht er doch genau darauf ein. Er sagt, dass "viel mehr" in den auftretenden Grenzbereichen weniger Sinn macht - aufgrund der Konstruktion des Körpers -, nicht dass es gar nichts bringt.

Gast
2010-03-13, 14:00:55
Warum wird hier beim Vergleich der TDP mit dem Realverbrauch unter Last / Furmark die von Nvidia 'offizielle' 298 TDP mit ihrer Netzteil Spezifikation in Relation gesetzt, wo doch bekannt ist das sie weit über 300 Watt unter Volllast zieht, und sie demnach eine TDP von über 315 haben müsste, wenn es die PCIe Spezifikation nicht gäbe (und eingehalten werden sollte)? Wo eine maximal verbrauchende GTX 285 mit 225 Watt auch eine TDP von 236 Watt besitzt?

Wenn hier also anhand der TDP Werte alter Karten, und den Netzteilvorgaben die TDP der GTX480 geschätzt werden soll, dann sollten zur 680W/46A auch eine reale ~330W TDP herangezogen werden.

Gast
2010-03-13, 14:38:29
Der Lüfter ist zweit bis drittrangig. Es wird nicht lange dauern, bis Alternativkühler verfübar sind oder von Werk aus manche Karten mit Alternativkühlern kommen. Bei der homöopathischen Verfügbarkeit wird es eh noch dauern, bis Karten zu normalen Preisen verfügbar sein werden. Viel eher macht mir die Spannungsversorgung sorgen. Ich hoffe, dass diesmal kein Pfiffikus mitgeliefert wird. ;D

Iruwen
2010-03-13, 16:57:03
ich wuerde nicht erwarten dass irgend jemand so bloed ist eine 295/480/5970 oder weiss der Geier was sonst mit nur einem 600-680W Netzteil zu betreiben.

Meine GTX 295 war mit meinem Enermax MODU82+ 625W zufrieden, warum genau bin ich blöd? :(

y33H@
2010-03-13, 16:59:12
Bloomfield @ 4,0 GHz + GTX295 an einem Modu82+ mit 525W. Kein Problem, außer CoreDamage+Furmark.

NV wie AMD machen die Angaben auf Basis von Billig-NTs.

mboeller
2010-03-13, 17:18:31
das war gerade zu witzig um es nicht zu posten:

CJ auf dem Tweaker.net Forum im Nvidia-Thread (mit Google übersetzt):


CJ said on Thursday, March 11th, 2010 @ 15:22:
I just heard that new song by Lady GaGa .... pa pa pa paper launch ...

:)

Bucklew
2010-03-13, 18:01:17
Bloomfield @ 4,0 GHz + GTX295 an einem Modu82+ mit 525W. Kein Problem, außer CoreDamage+Furmark.

NV wie AMD machen die Angaben auf Basis von Billig-NTs.
Klar, wenn man solche Angaben macht, müssen sie auch auf 10€ China-NTs passen.

Iruwen
2010-03-13, 18:11:30
Als ob die teuren nicht aus China kämen :p

san.salvador
2010-03-13, 18:14:43
Als ob die teuren nicht aus China kämen :p
Kommen die nicht tendentiell eher aus Taiwan?

Eggcake
2010-03-13, 18:20:14
Kommt ja eh alles aus Taiwan... (http://www.youtube.com/watch?v=6QihBIewyrY#t=0m45s) ;)

Gast
2010-03-13, 18:33:14
Warum wird die MSI 5870 Lightning nicht gleich mit 1.1 GHz ausgeliefert? Gleicher "Sinn".

Weil MSI ja schließlich noch irgendwann Fermi-Karten verkaufen will ;)

Iruwen
2010-03-13, 18:40:47
Kommen die nicht tendentiell eher aus Taiwan?

Ist doch das gleiche...

:rolleyes:

LovesuckZ
2010-03-13, 18:52:23
das war gerade zu witzig um es nicht zu posten:

CJ auf dem Tweaker.net Forum im Nvidia-Thread (mit Google übersetzt):



:)

:)
Nichts neues.
:)

Soll der :) irgendeine Bedeutung haben? :confused:

Coda
2010-03-13, 18:53:28
Ist doch das gleiche...
Wenn du das einem Taiwanesen sagst wird er sehr sauer reagieren.

Das ist nicht das gleiche. Taiwan ist technologisch eine viel fortschrittlicher Nation und wird demokratisch regiert.

Iruwen
2010-03-13, 19:09:09
Das war auch nicht ganz ernst gemeint, siehe Smiley ;) Ich war schonmal in Taipeh.

=Floi=
2010-03-13, 20:17:34
man sollte aber bei so etwas schon genau sein! Gerade gute qualitativ hochwertige produkte können auch auch solchen ländern kommen, aus denen man es nicht sofort erwartet. wenn das know how und die komponenten passen kann man sehr wohl sogar in einem eher verschrienen land gute produkte bauen.

Gast
2010-03-13, 20:43:23
Eben, als Deutscher sollte man sich mal nicht zu gut fühlen.
Was kommt den noch von hier? Bleiben wir mal bei Elektronik, unterm Strich fast nichts.
Entweder es kommt aus Asien oder in Ausnahmen aus den USA oder eben anderen europäischen Ländern.
Chinas Palette geht von Müll bis zu Dingen die undenkbar wären das sie von hier kommen.
Unsere Palette ist nicht besser, Räuchermänchen aus dem Erzgebirge sind ja ach so hochtechnologisch.

Gast
2010-03-13, 21:22:04
Eben, als Deutscher sollte man sich mal nicht zu gut fühlen.
Was kommt den noch von hier? Bleiben wir mal bei Elektronik, unterm Strich fast nichts.
Entweder es kommt aus Asien oder in Ausnahmen aus den USA oder eben anderen europäischen Ländern.
Chinas Palette geht von Müll bis zu Dingen die undenkbar wären das sie von hier kommen.
Unsere Palette ist nicht besser, Räuchermänchen aus dem Erzgebirge sind ja ach so hochtechnologisch.

nanana, sei mal nich so antideutsch hier

Gast
2010-03-13, 22:00:16
Ich habe heute auch mit etwas Wehmut auf z.b. die wirklich eigenen Spitzenprodukte der chinesischen Industrie gedacht. Sie stellen die optisch besten 1:1 Kopie von
Spitzentechnik anderer Nationen her. Schade das es zu beinahe 100% nur Blender sind. Wir wollen doch mal nicht vergessen das gerade China ohne die Industriestaaten technologisch noch irgendwo zwischen den siebzigern und den achziger Jahren wäre. Selbst die Verfahrenstechnik um überhaupt irgendwas zu produzieren stammt meines Wissens nacht nicht aus eigener Entwicklung.

Ailuros
2010-03-13, 22:29:00
das war gerade zu witzig um es nicht zu posten:

CJ auf dem Tweaker.net Forum im Nvidia-Thread (mit Google übersetzt):

:)

Muss der Grund sein dass er gerade fuer das Zeug Hilfe in Suedeuropa gebrauchen koennte :P

Gast
2010-03-13, 22:54:38
@Offtopic
Vergesst nicht: Deutschland ist Exportland => wir stellen viel her aber fast nur "Grobmechanik" (Maschinenbau, Autos und auch Chemie) und die Konzerne brauchen China um billig zu produzieren (Gewinnsteigerung). Solange die Chinesen einen BMW kaufen damit wir unsere IGM Löhne haben, habe ich kein Problem damit.

Gast
2010-03-14, 00:40:32
China produziert wenig selbst, dort wird kopiert oder von anderen Nationen produzieren gelassen. Deutschland sehe ich immer noch vorn beim Autobau, Maschinenbau und in Techniken zur alternativen Energiegewinnung, um mal ein paar zu nennen, es gibt bestimmt noch viele Bereiche mehr. Ich arbeitet z.B. beim weltgrößten Motorsägenhersteller und der kommt auch aus Deutschland. Und wenn ich mir die China-Kopien von unseren Geräten anschaue, stehen mir die Haare zu Berge.

uweskw
2010-03-14, 00:41:09
China.
Was leider vergessen wird (wie fast immer) ist, dass die ganzen Konzerne zwar billig in China fertigen und mit gutem Profit in Europa verkaufen können. ABER dabei auch mit einer Unmenge an bestem Ingenieurswissen bezahlen. Wissen das über Jahrzehnte erarbeitet wurde. Dieses wird als "Zugabe" nicht berechnet. Viele chinesische Firmen nehmen Aufträge nur deswegen an weil der damit verbundene technologie Transfer ein vielfaches der monetären Bezahlung wert ist. In Europa und USA wird halt immer nur bis zur nächsten Bilanz kalkuliert.

greetz
U.S.

Gast
2010-03-14, 00:42:18
Autobau != Grobmechanik. Macht mal die Motorhaube auf bzw. schaut hinters Amaturenbrett, heute wird im Auto auch alles elektronisch gesteuert!

N0Thing
2010-03-14, 01:39:23
Führt die China-Diskussion mal in einem anderen Thread weiter und gerne auch unter dem Gesichtspunkt, ob man einen Staat nach seinen Exportprodukten allein beurteilen sollte und ob man wirklich alles über einen Kamm scheren muß.

Danke.

Zauberer
2010-03-14, 01:42:24
Wem Taiwan gehört, darüber kann man ja streiten.
Meine Meinung nach gehört Taiwan den USA, ich kann nicht verstehen warum der Bush nicht alle seine Truppen dorthin zu Sicherung des Gebiets geschickt hat.

Wenn man mal die Hochtechnologie sieht, wie z.B. Microchips, so muss man sagen das überhaupt kein hoch entwickelter Chip aus China kommt.
Jeder wichtiger Chip wird und wurde in den USA entwickelt.
Intel in den USA.
AMD in den USA.
IBM in den USA.

Der Cell ist der einzige halbwegs moderne Chip, wo außer IBM noch Toshiba und Sony etwas mitmachen durften.

Aber Fakt ist, ohne die USA, gebe es keine modernen Computer im heutigen Sinn, höchstens Großrechner mit 0,001 % der Leistung heutiger Heimcomputer.

Zum Thema:
Wann fällt das NDA nochmal?
In zwei Wochen?

Kalmar
2010-03-14, 02:22:57
Wem Taiwan gehört, darüber kann man ja streiten.
Meine Meinung nach gehört Taiwan den USA, ich kann nicht verstehen warum der Bush nicht alle seine Truppen dorthin zu Sicherung des Gebiets geschickt hat.

Wenn man mal die Hochtechnologie sieht, wie z.B. Microchips, so muss man sagen das überhaupt kein hoch entwickelter Chip aus China kommt.
Jeder wichtiger Chip wird und wurde in den USA entwickelt.
Intel in den USA.
AMD in den USA.
IBM in den USA.

Der Cell ist der einzige halbwegs moderne Chip, wo außer IBM noch Toshiba und Sony etwas mitmachen durften.

Aber Fakt ist, ohne die USA, gebe es keine modernen Computer im heutigen Sinn, höchstens Großrechner mit 0,001 % der Leistung heutiger Heimcomputer.

Zum Thema:
Wann fällt das NDA nochmal?
In zwei Wochen?


ohne die Briten und die deutschen gäbe es nimmer die Voraussetzung dafür *hust*

so aber wo bleiben die infos für den 470 und 480 ?

Byteschlumpf
2010-03-14, 02:42:23
http://ht4u.net/news/21808_nvidia_zu_den_verzoegerungen_der_fermi-gpus/

Dabei wird man den Gedanken daran einfach nicht los, dass NVIDIA kalte Füsse aufgrund der Leistung des Cypress bekommen hat und Fermi daher redesignen musste!
Somit ergibt sich folglich die bessere Tesselation-Leistung des Fermi gegenüber des Cypress. Spannend wird auch noch die Fermi 2D-Leistung und ob diese deutlich besser als die er ATI HD5er Karten ist!

Coda
2010-03-14, 03:31:27
Dabei wird man den Gedanken daran einfach nicht los, dass NVIDIA kalte Füsse aufgrund der Leistung des Cypress bekommen hat und Fermi daher redesignen musste!
Ein Redesign dauert inklusive Tapeout mindestens ein Jahr und die Leistung von Cypress ist auch nichts was nicht abzusehen war. Entschuldige, aber das ist mehr als abwegig.

Was sie meinen sind die Änderungen gegenüber der G80-Architektur, die länger gedauert haben als gedacht.

Byteschlumpf
2010-03-14, 03:39:40
Dann ist die lange Verzögerung also nicht lang genug gewesen, um das als Ursache geltend machen zu können.
Danke für die Info! :)

StefanV
2010-03-14, 03:44:39
Als ob die teuren nicht aus China kämen :p
Die Kondensatoren bei den richtig guten Netzteilen kommen idR aus Japan, bei guten 'nur' aus Taiwan.

lilgefo~
2010-03-14, 04:50:58
http://ht4u.net/news/21808_nvidia_zu_den_verzoegerungen_der_fermi-gpus/

Dabei wird man den Gedanken daran einfach nicht los, dass NVIDIA kalte Füsse aufgrund der Leistung des Cypress bekommen hat und Fermi daher redesignen musste!
Somit ergibt sich folglich die bessere Tesselation-Leistung des Fermi gegenüber des Cypress. Spannend wird auch noch die Fermi 2D-Leistung und ob diese deutlich besser als die er ATI HD5er Karten ist!

Naja so viel besser als ne 285GTX is der Cypress ja nu auch nicht. Das der schneller wird war nVidia sicher auch schon vorher klar der Grund für die Verzögerung ist denke ich sicher ein anderer. ATi hat ja keine neue 9700 gebastelt.

Gast
2010-03-14, 09:19:11
Wenn mans genau nimmt, tun das nV und AMD seit Jahren wieder. Einzig R600 fällt ab, passt aber nicht in die NV30 Schiene ^^

Ailuros
2010-03-14, 09:47:59
Ein Redesign dauert inklusive Tapeout mindestens ein Jahr und die Leistung von Cypress ist auch nichts was nicht abzusehen war. Entschuldige, aber das ist mehr als abwegig.

Zustimm. R&D fuer Fermi begann irgendwo innerhalb H1 2005 und die ca. 4 Jahre sind stinknormal fuer solch einen komplizierten Design. In 2005 war D3D10 in Stein gemetzelt und die DX11 drafts in solch einem Zustand dass jeglicher IHV zuverlaessig die 11-er Spezifikationen haette einschaetzen koennen und fuer kleinere moegliche Aenderungen war selbst in 2007 immer noch genug Zeit.

Was sie meinen sind die Änderungen gegenüber der G80-Architektur, die länger gedauert haben als gedacht.

Und hier hat NV eventuell einen Anteil ihres Problems: AMD zeigt sich nach Indizien als ob sie einige Dinge besser einschaetzen koennen als NV in letzter Zeit (und ja es ist auch Anteil der Erklaerung von bessserer execution). Theoretische 2 Monate Unterschied koennte man sogar noch uebersehen. Die heutigen 6+ Monate (lower end SKUs erstmal nicht mitberechnet) sind innerhalb der Schmerzgrenze fuer diesen Markt. Ueber die Gruende kann man zwar endlos debattieren, es aendert aber am eigentlichen Resultat wenig.

Eine wichtige Andeutung die ich in letzter Zeit von AMD behalten habe, ist dass Frequenz in zukuenftigen Designs immer nebenwichtiger sein wird. Ergo wohl eine klare Andeutung dass sie vorhaben mehr Luftraum im Bereich die area zu lassen als auf Frequenzen zu beruhen. Evergreen scheint schon ein Anteil dieser Strategie zu sein.

Grestorn
2010-03-14, 10:11:31
Eigentlich können wir absolut froh über die aktuelle Entwicklung sein. Keiner der beiden Hersteller kann sich richtig deutlich vom anderen absetzen.

Beim R300 und G80 sah es jeweils kurzzeitig mal so aus, als würde eine Seite deutliche Vorteile haben, und die andere ins Hintertreffen geraten. Wenn dies ein Dauerzustand geworden wäre (AMD hat ja nach dem G80 eine Zeitlang offiziell davon gesprochen, sich vom HighEnd verabschieden zu wollen), dann hätte die gesamte Entwicklung gelitten, denn diese wird ja von dem Konkurenzkampf befeuert.

Deswegen ist es absolut begrüßenswert, dass AMD aktuell diesen Vorsprung hat, und zwar ganz egal ob er jetzt nur zeitlicher Natur ist, oder ob der GF100 tatsächlich eine echte Enttäuschung wird. Wichtig ist nur, dass nVidia nicht so sehr in Schwierigkeiten kommt, dass sie die Entwicklung nicht mehr vorantreiben können, das ist dann wohl das Ende der enorm schnellen Entwicklung der letzten Jahre in diesem Sektor, denn dann wird auch AMD aufhören, da solche Summen zu investieren.

Ailuros
2010-03-14, 10:24:51
Eigentlich können wir absolut froh über die aktuelle Entwicklung sein. Keiner der beiden Hersteller kann sich richtig deutlich vom anderen absetzen.

6 Monate Abstand sind eine geraume Zeit im GPU Markt. Diesen Verlust an Verkaufszahlen wird man schwer wieder hereinholen koennen.

Beim R300 und G80 sah es jeweils kurzzeitig mal so aus, als würde eine Seite deutliche Vorteile haben, und die andere ins Hintertreffen geraten.

Die Verkaufsrelationen in beiden Faellen waren so radikal dass es schwer vergleichbar ist. Beide Faelle (NV30/R300 & R600/G80) waren in den 20:80 bzw. 10:90 Regionen fuer ihre Zeit.

Wenn dies ein Dauerzustand geworden wäre (AMD hat ja nach dem G80 eine Zeitlang offiziell davon gesprochen, sich vom HighEnd verabschieden zu wollen), dann hätte die gesamte Entwicklung gelitten, denn diese wird ja von dem Konkurenzkampf befeuert.

Der Haken ist hier eben dass AMD nach dem RV670 einen ausgezeichnete Execution vorzeigt. Dieses macht NV's Leben keineswegs leichter sondern das Gegenteil.

Deswegen ist es absolut begrüßenswert, dass AMD aktuell diesen Vorsprung hat, und zwar ganz egal ob er jetzt nur zeitlicher Natur ist, oder ob der GF100 tatsächlich eine echte Enttäuschung wird. Wichtig ist nur, dass nVidia nicht so sehr in Schwierigkeiten kommt, dass sie die Entwicklung nicht mehr vorantreiben können, das ist dann wohl das Ende der enorm schnellen Entwicklung der letzten Jahre in diesem Sektor, denn dann wird auch AMD aufhören, da solche Summen zu investieren.

Wie schon oefters erwaehnt NV sollte IMHO etwas an ihrer generellen Strategie aendern, damit sich eben solche Phaenomene nicht endlos wiederholen. NV kann momentan mit dem existierenden GF100 Design nichts anderes machen als fuer den Refresh auf Frequenz zu beruhen unter 40nm.

nymand
2010-03-14, 10:32:31
das Ende der enorm schnellen Entwicklung der letzten Jahre in diesem Sektor, denn dann wird auch AMD aufhören, da solche Summen zu investieren.

Die wird früher oder später eh kommen, da der PC-Gaming jetzt schon eine Randgruppe ist. Bald kriegen wir nicht nur Spiele-Ports, sondern auch Grafikkarten-Ports. Ist ja schon heute so, dass man teilweise nicht weiß, wohin mit der leistung

LovesuckZ
2010-03-14, 10:34:43
Wie schon oefters erwaehnt NV sollte IMHO etwas an ihrer generellen Strategie aendern, damit sich eben solche Phaenomene nicht endlos wiederholen. NV kann momentan mit dem existierenden GF100 Design nichts anderes machen als fuer den Refresh auf Frequenz zu beruhen unter 40nm.

Das Fermi sich verspätet, lag nicht an ihrer Strategie. Sie haben ein Problem durch DX11 Tessellation in ihrer GPU gesehen, dass gelöst werden musste. Sie wollten keinen zweiten Geometry Shader Fall haben.
Nach Fermi muss AMD zeigen, ob sie ebenfalls in der Lage sind eine Architektur auf die Beine zustellen, die die Bedürfnisse von DX11 Tessellation erfüllen kann. Denn es entbehrt nicht eine gewisse Ironie, dass ausgerechnet der Hersteller, der seit Jahren Erfahrungen mit Tessellation hat, nur Luftschlösser aufgebaut hat.

Botcruscher
2010-03-14, 10:40:28
Das Fermi sich verspätet, lag nicht an ihrer Strategie. Sie haben ein Problem durch DX11 Tessellation in ihrer GPU gesehen, dass gelöst werden musste. Sie wollten keinen zweiten Geometry Shader Fall haben. Nach Fermi muss AMD zeigen, ob sie ebenfalls in der Lage sind eine Architektur auf die Beine zustellen, die die Bedürfnisse von DX11 Tessellation erfüllen kann. Denn es entbehrt nicht eine gewisse Ironie, dass ausgerechnet der Hersteller, der seit Jahren Erfahrungen mit Tessellation hat, nur Luftschlösser aufgebaut hat.

Du solltest dich echt in der PR melden. Alles schön reden und die Werbung Preisen. Dazu noch nie eine Karte in der Hand gehabt... Warum auch auf unabhängige Tests warten wenn man dem Marketing aus dem Mund und die Konkurrenz schlecht reden kann.:rolleyes:

LovesuckZ
2010-03-14, 10:43:06
Du solltest dich echt in der PR melden. Alles schön reden und die Werbung Preisen. Dazu noch nie eine Karte in der Hand gehabt... Warum auch auf unabhängige Tests warten wenn man dem Marketing aus dem Mund und die Konkurrenz schlecht reden kann.:rolleyes:

Na, es scheint mir eher auszusehen, dass du vom AMD bezahlt wirst, um immer gegen nVidia zu bashen. Ich meine, wie muss man drauf sein, um auf meinem Posting irgendwas mit PR zusehen? :freak:
Aber wieso hälst du den nicht einfach den Mund? Was interessiert es dich, was ich in einem GF100 Thread über nVidia und AMD schreibe? Oder ist es in deinem Viral Marketingvertrag festgelegt, immer auf die Kacke zu hauen, sobald jemand mal etwas positives über nVidia schreibt? Es ist nämlich sehr auffällig, dass du bei jedem Thema über nVidia mit negativen Kommentaren nur so um dich wirfst. ;D

Botcruscher
2010-03-14, 10:48:13
Das liegt an deiner unglaublichen Art wirklich alles irgendwie Richtung pro NV zu biegen, egal wie substanzlos es ist. Es ist der Gesundheit einfach zuträglich dich zu ignorieren bis unabhängige Tests anstehen und nicht das was die PR irgendwo auskackt. EOD

Gast
2010-03-14, 10:49:00
Nach Fermi muss AMD zeigen, ob sie ebenfalls in der Lage sind eine Architektur auf die Beine zustellen, die die Bedürfnisse von DX11 Tessellation erfüllen kann. Denn es entbehrt nicht eine gewisse Ironie, dass ausgerechnet der Hersteller, der seit Jahren Erfahrungen mit Tessellation hat, nur Luftschlösser aufgebaut hat.

AMDs nächste Gen kommt Ende 2010/Anfang 2011. Es ist ja schön das sich die NV-Fanboys jetzt an einen Strohhalm klammern, aber es war ganz sicher nichts weiter als Kalkül warum Cypress so wurde wie es wurde. Es macht nie einen Sinn beim ersten Chip einer neuen Technologie sehr viele Transistoren in ein neues Feature zu pumpen. Schon gar nicht wenn man auch noch ein halbes Jahr vor der Konkurrenz da ist. NV muss mit Fermi jetzt erstmal längere Zeit auskommen. Aber du kannst ja gerne noch einige Monate daran klammern das AMD an einen schnelleren Tesslationschip scheitert. :ulol:

Popeljoe
2010-03-14, 10:57:33
Meine Güte: substanzlose Postings die sich in persönlichen Anmachen ergehen.
Wartet doch bitte einfach ab, was NV aufs Parkett legt und nicht was evtl. sein könnte.
Kann sein, dass sie es verrissen haben.
Kann sein, dass es weniger ist, als Viele erwarten.
Kann sein, dass sie einen Überchip launchen.
KANN=!IST

LovesuckZ
2010-03-14, 11:02:12
AMDs nächste Gen kommt Ende 2010/Anfang 2011. Es ist ja schön das sich die NV-Fanboys jetzt an einen Strohhalm klammern, aber es war ganz sicher nichts weiter als Kalkül warum Cypress so wurde wie es wurde. Es macht nie einen Sinn beim ersten Chip einer neuen Technologie sehr viele Transistoren in ein neues Feature zu pumpen. Schon gar nicht wenn man auch noch ein halbes Jahr vor der Konkurrenz da ist. NV muss mit Fermi jetzt erstmal längere Zeit auskommen. Aber du kannst ja gerne noch einige Monate daran klammern das AMD an einen schnelleren Tesslationschip scheitert. :ulol:

nVidia pumpte nicht soviele Transistoren in Tessellation, sondern löste ein grundsätzliches Problem, dass durch DX11-Tessellation weiter hervorgehoben wurde. Und AMD brauchte 18 Monate, um auf das Niveau des G80 zu kommen. Jetzt sollen sie plötzlich - nach wievielen Jahren als Tessellationführer? - mal von heute auf morgen genau das selbe wie nVidia machen? Wieso haben sie es nicht schon mit Evergreen getan, wenn es so einfach wäre? :freak:

Gorkon
2010-03-14, 11:02:29
Du solltest dich echt in der PR melden. Alles schön reden und die Werbung Preisen. Dazu noch nie eine Karte in der Hand gehabt... Warum auch auf unabhängige Tests warten wenn man dem Marketing aus dem Mund und die Konkurrenz schlecht reden kann.:rolleyes:

Na, es scheint mir eher auszusehen, dass du vom AMD bezahlt wirst, um immer gegen nVidia zu bashen. Ich meine, wie muss man drauf sein, um auf meinem Posting irgendwas mit PR zusehen? :freak:
Aber wieso hälst du den nicht einfach den Mund? Was interessiert es dich, was ich in einem GF100 Thread über nVidia und AMD schreibe? Oder ist es in deinem Viral Marketingvertrag festgelegt, immer auf die Kacke zu hauen, sobald jemand mal etwas positives über nVidia schreibt? Es ist nämlich sehr auffällig, dass du bei jedem Thema über nVidia mit negativen Kommentaren nur so um dich wirfst. ;D

Mal ein ganz gewagter Vorschlag:

Warum hören nicht endlich mal beide Lager auf sich hier gegenseitig die Fanboy-Keule um die Ohren zu hauen und sachlich über das Thema des Topics zu diskutieren? Es ist wirklich langsam nicht mehr lustig Seite für Seite immer den gleichen Mist aus beiden Lagern zu lesen...es ist doch nur ein Stück Silizium, keine Religion :rolleyes:

IMHO gehört der Thread auf diesem Niveau einfach geschlossen...

LovesuckZ
2010-03-14, 11:19:08
sachlich über das Thema des Topics zu diskutieren?

Wie denn, wenn man in diesem Thread wegem jeden positiven Wort gleich angefeindet wird? :confused:
Da schreibt man nur die Fakten, die nVidia bis jetzt veröffentlicht hat und schon wird man als "PR-Mann" bezeichnet. Das ist absurd. Immerhin weiß nVidia noch mehr über GF100 als Botcrusher und Konsorten. :rolleyes:
Wenn wir also schon nicht mehr mit den veröffentlichten Informationen diskutieren dürfen, dann stimme ich mit dir überein: Schließt den Thread.

V2.0
2010-03-14, 11:32:58
GF100 ist ein guter Chip. Und den Rest sollte man einfach abwarten. Technologisch hat NV viele hausaufgaben gemacht, die sich auch für AMD stellen werden.

Gast
2010-03-14, 11:33:34
nVidia pumpte nicht soviele Transistoren in Tessellation, sondern löste ein grundsätzliches Problem, dass durch DX11-Tessellation weiter hervorgehoben wurde. Und AMD brauchte 18 Monate, um auf das Niveau des G80 zu kommen. Jetzt sollen sie plötzlich - nach wievielen Jahren als Tessellationführer? - mal von heute auf morgen genau das selbe wie nVidia machen? Wieso haben sie es nicht schon mit Evergreen getan, wenn es so einfach wäre? :freak:

Wer sagt das es an der Implementation gescheitert wäre? Vielleicht macht es einfach noch keinen Sinn für AMD? Ich habe ja schon gesagt das war nichts weiter als Kalkül. Aber ich vergaß, NV ist natürlich wie immer sowas von überlegen, völlig abwegig das AMD da auch nur eine Chance hat dasselbe zu entwickeln. Fermi wird ein Stromfressendes Monster, das genau wieviel schneller als ein Cypress sein wird? Man hat vielleicht Vorteile bei der kaum erwähnenswerten Anzahl an Tesslationsspielen, aber alleine daran wird man sich nicht hängen können. Auch wenn die NV-Fanboys jetzt die Revolution ausrufen muss sich Fermi an aktuellen Spielen messen.

Nakai
2010-03-14, 11:36:53
http://ht4u.net/news/21808_nvidia_zu_den_verzoegerungen_der_fermi-gpus/

Dabei wird man den Gedanken daran einfach nicht los, dass NVIDIA kalte Füsse aufgrund der Leistung des Cypress bekommen hat und Fermi daher redesignen musste!
Somit ergibt sich folglich die bessere Tesselation-Leistung des Fermi gegenüber des Cypress. Spannend wird auch noch die Fermi 2D-Leistung und ob diese deutlich besser als die er ATI HD5er Karten ist!

Damals hatte man nicht gewusst, wie schnell Cypress wird. Man hat natürlich spekuliert und geschätzt. Es liest sich zwar so, dass man Fermi die letzten 6 Monate so hingebogen hat, nachdem man langsam Wind bekommen hat, wie stark Cypress ist.

Aber Cypress ist nicht so stark geworden. Außerdem spricht ein Redesign gegen A1,A2,A3 und im Mai dann ein B-Stepping. Wenn das Design, dank den Änderungen so mies lief, möglich, aber nicht sonderlich gut.


mfg

Gast
2010-03-14, 11:37:58
...mein Papa ist viel stärker als deiner...
...nein, mein Papi ist stärker...
...mein Papa kann aber karate...
...na und, mein Papi hat viel mehr Muskel...
...dein Papa ist sowieso doof...
...stimmt ja gar nicht...
...doch...
...nein..
...doch...
...nein..
...doch...
...nein..
usw.

wie ähnlich doch sooo verschiedene Welten sind...LooooL

N0Thing
2010-03-14, 11:38:47
Da schreibt man nur die Fakten, die nVidia bis jetzt veröffentlicht hat und schon wird man als "PR-Mann" bezeichnet. Das ist absurd.


Denn es entbehrt nicht eine gewisse Ironie, dass ausgerechnet der Hersteller, der seit Jahren Erfahrungen mit Tessellation hat, nur Luftschlösser aufgebaut hat.

Die Behauptung, daß AMD nur Luftschlösser aufgebaut hat, kannst du doch wohl nicht ernsthaft als Fakten ansehen, oder? :confused:

Selbst wenn auf einer Folien von Nvidia ein Frameverlauf im Heaven-Benchmark zu sehen ist, in dem die ATI-Karte stärker einbricht als die Karte von Nvidia, ist deine Formulierung weit weg von reiner Fakteninterpretation.

Das ist auch keine Diskussion der veröffentlichten Informationen, sondern Provokation, Gegenprovokation und entsprechende Reaktionen. Eine Pause bis neue Informationen bekannt sind, würde den Thema wohl gut tun. Schade eigentlich.

Popeljoe
2010-03-14, 12:03:46
IMHO gehört der Thread auf diesem Niveau einfach geschlossen...
Diesen Gedanken werde ich mal ins Modforum setzen.

...mein Papa ist viel stärker als deiner...
...nein, mein Papi ist stärker...
...mein Papa kann aber karate...
...na und, mein Papi hat viel mehr Muskel...
...dein Papa ist sowieso doof...
...stimmt ja gar nicht...
...doch...
...nein..
...doch...
...nein..
...doch...
...nein..
usw.

wie ähnlich doch sooo verschiedene Welten sind...LooooL
Ist zwar eigentlich komplett OT, aber angesichts der Art der geführten "Diskussion" sehr treffend dargestellt.

J0ph33
2010-03-14, 12:18:15
Ich meine, wie muss man drauf sein, um auf meinem Posting irgendwas mit PR zusehen? :freak:


harharhar...der war gut, echt jetzt: ;D


ontopic
ich hoffe nvidia bringt wieder etwas schwung in den markt, eine GTX280 ist mit diversen Spielen teils deutlichst überfordert, aber was schnelleres bekommt man nicht ohne sich komplett verarschen zu lassen (Preise der HD5xxx)

Zauberer
2010-03-14, 13:07:28
ontopic
ich hoffe nvidia bringt wieder etwas schwung in den markt, eine GTX280 ist mit diversen Spielen teils deutlichst überfordert, aber was schnelleres bekommt man nicht ohne sich komplett verarschen zu lassen (Preise der HD5xxx)
Konkurrenz ist gut, das scheinen die Fanboys hier nicht verstanden zu haben.
Wenn ATi nicht so stark wäre, würde Nvidia nicht versuchen sie zu schlagen.
Umgekehrt kommen die nächsten Highend-Karten von ATi erst wenn Nvidia ihre Highend-Karten in Markt hat.

Wenn man mit der Leistung nicht mithalten kann, werden die Preise gesenkt um den Konkurrenten unter Druck zu setzten.
Die Preise sind eigentlich im Vergleich zu früher günstig, viele nehmen die letzten Schlagabtausch als Maßstab.
Die Grafikkarten waren nur so günstig, weil beide Konkurrenten sich nichts geschenkt haben.

Darum wünsche ich mir, das der Fermi ein Kracher wird, dann sehen wir dieses Jahr noch die neue Architektur von ATi, sonst leider nicht.

Tarkin
2010-03-14, 13:30:11
GTX 480 OC - TDP > 300 Watt

http://translate.google.com.tr/translate?js=y&prev=_t&hl=tr&ie=UTF-8&layout=1&eotf=1&u=http://www.donanimhaber.com/GeForce_GTX_480nin_hiz_asirtmali_ilk_tesmcilsinde_guc_tuketimi_305_Watt_olabilir-18648.htm&sl=tr&tl=en

Gast
2010-03-14, 13:48:11
Geil, wie wertlos ist das denn?
TDP Angaben, die man eh nicht in Bezug setzen kann, jetzt sogar im übertakteten Zustand.

AwesomeSauce
2010-03-14, 13:52:14
has a capacity of 1586MB GDDR5 memory
:facepalm:

y33H@
2010-03-14, 13:58:22
50M daneben. Aber zugeben, eine 3 sieht einer 8 immerhin halbwegs ähnlich :ulol:

Iruwen
2010-03-14, 14:39:08
http://www.semiaccurate.com/2010/03/12/heaven-20-benchmark-shown-gdc/

It has more scenes, more art assets, and a lot more tessellation. [...] With luck, Heaven 2.0 'rebalancing' will move it more toward real world gaming loads rather than trying to show peak hardware capabilities that are not reflective of performance if anything else is running on the card. [...] From the looks of things, Unigine is doing a good job.

Sehr gut das Hintertürchen offengehalten. Wenn ATI nicht wunschgemäß abschneidet ist der Benchmark dann wohl doch nicht mehr so toll :freak:

Nighthawk13
2010-03-14, 14:43:46
Bald kriegen wir nicht nur Spiele-Ports, sondern auch Grafikkarten-Ports. Ist ja schon heute so, dass man teilweise nicht weiß, wohin mit der leistung

Beim 3D-Rendering nähert man sich langsam aber sicher dem "Point of diminishing returns": Um die Bildqualität ein wenig zu steigern muss man unverhältnismässig viel mehr Rechenleistung investieren(Global illumination, Raytracing etc).
Ansprechende Bildqualität kriegt man oft auch über gutes Artwork hin(ModernWarfare2 z.B.).

Das ist der (imho berechtigte) Grund, weshalb sich Nvidia mit dem GF100 mehr in Richtung Compute/Physik orientiert: Die Entwicklung ist dort noch nicht so weit vorangeschritten, es gibt langfristig mehr Wachstumspotential.

Natürlich wird das 3D-Rendering weiter vorangetrieben. Es hat nur nicht mehr die alleinige Priorität.

LovesuckZ
2010-03-14, 14:44:50
Lustig das "anything else is running on the card". Was rennt denn sonst noch so auf diesen Karten außer die Vertexshader, Hull- und Domainshader, die Pixelshader, das Texturing etc?
Aber Char-lie sagte ja auch mal, dass GF100 nicht mit Cypress unter DX11 mithalten könnte.

y33H@
2010-03-14, 14:46:50
Wennn Charlie schon schreibt, die Real-World-Performance von Fermi wird im Heaven 1.0 nicht abgebildet und die v2.0 rückt das gerade und daher macht Unigine gute Arbeit, dann muss er ja wie üblich noch was tippen, womit er sich in der Nebulösität seiner Artikel retten kann :ulol:

Eggcake
2010-03-14, 14:48:09
Edit: hier stand kacke :>

Gast
2010-03-14, 14:55:11
Herrlich wie die NV-Fans bei jedem Artikel von Charlie auf die Palme gehen...

Gast
2010-03-14, 14:58:53
mal ne ganz andere frage zwischen rein. bekommen die boardpartner die gpu, sprich das package, schon mit lot/solder oder ohne bzw. wird das lot auf der pcb aufgetragen oder ist es auf dem gpu-package?

Raff
2010-03-14, 14:58:54
Herrlich wie die NV-Fans bei jedem Artikel von Charlie auf die Palme gehen...

Wenn ein Nvidia-verachtender Hassprediger textet, sollte fast jeder auf die Palme gehen, da die Aussagen ähnlich viel wert sind wie die von AMDs Fuddy.

MfG,
Raff

Gast
2010-03-14, 15:09:25
Wenn ein Nvidia-verachtender Hassprediger textet, sollte fast jeder auf die Palme gehen, da die Aussagen ähnlich viel wert sind wie die von AMDs Fuddy.

MfG,
Raff

An Leuten die es auch noch nach dem Achttausendzweihundertfünfundzwanzigsten Artikel für nötig halten hier immer und immer wieder den gleichen Mist abzulassen sieht man sehr schön wie "neutral" sind sind.

Wenn es eh nur laute Scheiße ist dann soll man die Artikel nicht mehr verlinkten, aber anscheinend sind ja doch ein paar interessanten Infos dabei, und dann sollen sich auch die Leute deren Herz für den anderen Hersteller schlägt zurück halten. Es nervt ganz einfach.

Coda
2010-03-14, 15:11:54
Was nervt ist Charlie - sonst nichts.

Gast
2010-03-14, 15:14:14
Was nervt ist Charlie - sonst nichts.

Oh, der nächste. ;)

Coda
2010-03-14, 15:17:08
Ich sag's mal so: Die Informationspolitik von Charlie lässt sehr zu wünschen übrig, deshalb sind seine Aussagen soviel Wert wie Scheiße auf dem Klopapier.

Jetzt klarer?

Das schlimme ist die Verklärung von der Person. Für jeden Treffer den er zufällig mal landet, hat er in der Vergangenheit 90% Bullshit abgelassen.

Gast
2010-03-14, 15:18:40
Ich finde es auch sehr problematisch, wenn Leute die in wichtigen meinungsbildenden Bereichen arbeiten, hier sowie auch in diversen anderen Foren immer wieder eine klare Voreingenomenheit bezüglich einen der beiden großen GPU-Hersteller zeigen. Diese Comments sind teilweise auch auf niedrigsten FB-Niveau.

Vielleicht sollte sich dann der ein oder andere mit seiner Empörung Richtung Charlie zurückhalten. Für die Bewertung von GPUs habe ich jedenfalls schon die eine oder andere Testseite aus meinen persönlichen Meinungsbildungsprozess ausgeklammert, weil hinter der Fassade der Neutralität ein heißes FB-Herz schlägt.

Coda
2010-03-14, 15:20:30
Klar, immer die anderen haben die verzerrte Wahrnehmung und in gleichen Satz verteidigst du Charlie. Das ist der größte Anti-NVIDIA-Hetzter überhaupt.

Glashaus mit Steinen und so.

Gast
2010-03-14, 15:20:42
Ich sag's mal so: Die Informationspolitik von Charlie lässt sehr zu wünschen übrig, deshalb sind seine Aussagen soviel Wert wie Scheiße auf dem Klopapier.

Jetzt klarer?

Das schlimme ist die Verklärung. Für jeden Treffer den er zufällig mal landet, hat er in der Vergangenheit 90% Bullshit abgelassen.

Ja dann verlinkt die Artikel nicht mehr. Ich sag mal so, ich schaue hier alle paar Wochen mal rein und jedes mal dreht es sich um einen solchen Blödsinn. Aber dann liegt es wohl doch wieder zu oft richtig wenn selbst angesehen Leute bei B3D auf Tapeout-Meldungen von Charly warten.

Coda
2010-03-14, 15:22:37
Ja dann verlinkt die Artikel nicht mehr.
"Wir" verlinken hier gar nichts. Irgend ein Gast findet sich immer, der den Müll hier platziert.

Aber dann liegt es wohl doch wieder zu oft richtig wenn selbst angesehen Leute bei B3D auf Tapeout-Meldungen von Charly warten.
Wie gesagt, auch ein blindes Huhn findet mal ein Korn.

Er hat auf jeden Fall Quellen im Hause ATI, das sieht man eindeutig an seinen Aussagen in der Vergangenheit, die sich 100% mit PR-Material von AMD decken.

Gast
2010-03-14, 15:26:56
"Wir" verlinken hier gar nichts. Irgend ein Gast findet sich immer, der den Müll hier platziert.

Das war kein Gast. Es sind sehr oft Leute sie es verlinken um sich gleichzeitig darüber auszulassen.


Wie gesagt, auch ein blindes Huhn findet mal ein Korn.

Er hat auf jeden Fall Quellen im Hause ATI, das sieht man eindeutig an seinen Aussagen in der Vergangenheit, die sich 100% mit PR-Material von AMD decken.

Für ein blindes Huhn kommt er mit zu vielen Insiderinfos. Das witzige ist ja das er selbst keine Schimmer hat aber offensichtlich sehr gute Quellen. Das sollten auch NV-Fans akzeptieren können.

Coda
2010-03-14, 15:29:15
Für ein blindes Huhn kommt er mit zu vielen Insiderinfos. Das witzige ist ja das er selbst keine Schimmer hat aber offensichtlich sehr gute Quellen. Das sollten auch NV-Fans akzeptieren können.
Die Quellen an sich sind aber auch schon nicht neutral und obendrauf kommt dann noch seine Hetzerei verbunden mit Ahnungslosigkeit.

Darüber soll man sich dann ernsthaft in einem Rahmen der eigentlich seriös sein soll unterhalten?

Gast
2010-03-14, 15:29:20
Mitnichten verteidige ich Charlie. Ich sage nur das einige genau wie er eine eindeutige Präferenz haben (aber pro NV) mit dem Unterschied, dass sie sich größte Mühe geben diese hinter einer aufgesetzten Neutralität zu verbergen.
Dann stellt sich natürlich die Frage wer eigentlich der größere Heuchler ist.

LovesuckZ
2010-03-14, 15:30:39
Für ein blindes Huhn kommt er mit zu vielen Insiderinfos. Das witzige ist ja das er selbst keine Schimmer hat aber offensichtlich sehr gute Quellen. Das sollten auch NV-Fans akzeptieren können.

Insider-Informationen? :confused:
Hier sind seine "Insider-Informationen" aus dem letzten Jahr und im Vergleich zu diesem Jahr:


2009:
There is no dedicated tesselator (me: I know there are 16x FF-Tessellation units)When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.In the end, Nvidia architecturally did just about everything wrong with this part. It is chasing a market that doesn't exist, and skewing its parts away from their core purpose, graphics, to fulfill that pipe dream. Meanwhile, ATI will offer you an x86 hybrid Fusion part if that is what you want to do, and Intel will have Larrabee in the same time frame.R870 should pummel it in DX10/DX11 performance,It won't come close to R870 in graphics performance,2010:
When showing off the tessellation capabilities last week, Nvidia was very careful to show the Unigine Heaven benchmark with the dragon statue, claiming it beat the ATI 5870 by 60 percent. While technically true, this number is purposely misleading on two accounts. First is that this is a best case for showing off tessellation and only tessellation. If it were to show any of the other Heaven tests, the margins would narrow significantly.The performance numbers so far, both in DX10 games and DX11 demos show that it at best has a 60 percent lead on some very specific benchmarks over a much cheaper and more efficient HD5870. Given that GF100 is more than 60 percent larger than that part, 60 percent should be the minimum, not the maximum performance lead.GF100 as it stands is exactly what we were told last spring.()And don't miss the best of them all:

GF100/GTX480 was not meant to be a GPU, it was a GPGPU chip pulled into service for graphics when the other plans at Nvidia failed. It is far too math/DP FP heavy to be a good graphics chip, but roping shaders into doing tessellation is the one place where there is synergy. The same should hold true for all DX11 features, ATI has dedicated hardware where applicable. Nvidia has general purpose shaders roped into doing things far less efficiently. When you turn on DX11 features, the GT300 will take a performance nosedive, the R870 won't.

http://forum.beyond3d.com/showpost.php?p=1406715&postcount=65

Coda
2010-03-14, 15:31:09
Ich sage nur das einige genau wie er eine eindeutige Präferenz haben (aber pro NV) mit dem Unterschied, dass sie sich größte Mühe geben diese hinter einer aufgesetzten Neutralität zu verbergen.
Da stimme ich dir aber leider nicht zu. Raff z.B. schwärmt geradezu von seiner HD 5870.

Das Problem scheint mir vielmehr zu sein, dass du nicht neutral bist und deshalb einen neutralen Standpunkt schon in die grüne Richtung rückst.

y33H@
2010-03-14, 15:37:20
Raff z.B. schwärmt geradezu von seiner HD 5870.Nicht nur der. Ich zocke seit Tagen AvP und Metro 2033 mit einer HD5850 @ 900/2300 mit DX11. Und wenn ich sehe, was die kann ... die GTX280 verstaubt munter auf dem Schreibtisch und wird das Innere meines Rechners wohl nie wieder sehen.

Gast
2010-03-14, 15:39:45
Insider-Informationen? :confused:
Hier sind seine "Insider-Informationen" aus dem letzten Jahr und im Vergleich zu diesem Jahr:


http://forum.beyond3d.com/showpost.php?p=1406715&postcount=65
Unter den aktuellen News vom 11./12. März findet sich aus das:
http://ht4u.net/news/21808_nvidia_zu_den_verzoegerungen_der_fermi-gpus/
NVidia selbst sagt, daß sie doch besser noch HW-Tesselation hinzufügen sollten, sonst klappt's nicht so mit der DX11-Performance. Hier ein Zitat aus dem HT4U Artikel: "“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation."

So falsch hatte Charlie in 2009 nicht gelegen, oder?

Gast
2010-03-14, 15:42:41
Was kann sie denn? Das von dir gelobte HQAF schonmal nicht.

Erst wird von HQAF geschwärmt und dann ist es wieder scheiss egal, aber was hat sich geändert? Im Grunde nichts, statt D3D10 gibts halt D3D11 und etwas mehr "Leistung". Texturen gibts weiterhin.

Eggcake
2010-03-14, 15:44:50
Also erstens kann man unmöglich einfach alle Zitate aus der Vergangenheit nehmen und sie mit Informationen, die wir heute haben vergleichen.

Ich habe die Entwicklung nun nicht so genau verfolgt, aber ich bin mir ziemlich sicher, dass vor einigen Monaten auch hier viele davon sprachen, dass Fermi keinen "richtigen" Tesselator haben wird. Dass NV selbst sagt, dass sie Tesselation beschleunigen mussten, ist doch ein Zeichen, dass dort zuerst auch Probleme vorhanden waren: was war dann sooo falsch an seiner Aussage?

Dass er extrem biased ist, merkt denke ich jeder, aber ich merke auch, dass viele sich fast schon nach neuen "News" von Charlie sehnen um ihn danach auseinanderzunehmen zu können...

Menace
2010-03-14, 15:44:52
Mitnichten verteidige ich Charlie. Ich sage nur das einige genau wie er eine eindeutige Präferenz haben (aber pro NV) mit dem Unterschied, dass sie sich größte Mühe geben diese hinter einer aufgesetzten Neutralität zu verbergen.
Dann stellt sich natürlich die Frage wer eigentlich der größere Heuchler ist.

So ungern ich Gästen zustimme, meiner Meinung nach hast Du da Recht. Aber es lohnt sich nicht darüber aufzuregen. Früher oder später weiß man, welche Grafikkartenfirma von wem favorisiert wird und man muss halt die Aussagen der entsprechenden Teilnehmer in diesen Kontext setzen.

Man kann aber davon ausgehen, dass die, die sich am lautesten Beschweren nicht gerade die Neutralsten sind. Das zeigt sich z.B. auch in der Auswahl von Zitaten. Charlie gehört zum Marketing, wie Huddy und Huang und mancher Teilnehmer hier. Den Versuch kritischen Journalismus gibt es trotzdem. Ailuros stellt so eine Ausnahme mMn dar.

igg
2010-03-14, 15:46:06
"“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation."

So falsch hatte Charlie in 2009 nicht gelegen, oder?
Naja, ich glaube, dass redesigned falsch verstanden wird. Für mich bedeutet es, dass es sich beim Fermi um eine von Grund auf überarbeitete (neu erstellt wäre wohl zuviel des Guten) Architektur handelt. Dass Sie hw-tesselation erst nach Cypress oder A1 ergänzt haben, dürfte lediglich aus den Träumen von Charlie und ATI Fanboys entspringen.

Gast
2010-03-14, 15:46:13
Nicht nur der. Ich zocke seit Tagen AvP und Metro 2033 mit einer HD5850 @ 900/2300 mit DX11.

Und wie läuft das TWIMTBP vorzeige GF100 Spiel Metro 2033 auf einer 5850@5870 Niveau? ;)

Batmangate 2.0 oder deutlich besser? :D Hast du evtl. FPS-Zahlen für uns? ;)

y33H@
2010-03-14, 15:47:13
@ Gast #1

Was sie sonst kann abgesehen von DX11 und mehr Fps? SGSSAA. Und wenn man mit SGSSAA zockt, ist das Flimmern eh weg. Zudem ist das Ding sehr sparsam, lässt sich super übertakten, gescheit kühlen und fiept nicht. Das sind genügend Gründe, die GTX280 trotz [sehr gutem] HQAF zu verbannen.

@ Gast #2

Es läuft soweit ziemlich gut, sofern man auf 4x MSAA und Tessellation verzichtet, in 1920 meist 35-40 Fps =) Weitaus besser als auf der GTX280 :ulol:

Eggcake
2010-03-14, 15:47:44
Und wie läuft das TWIMTBP vorzeige GF100 Spiel Metro 2033 auf einer 5850@5870 Niveau? ;)

Batmangate 2.0 oder deutlich besser? :D Hast du evtl. FPS-Zahlen für uns? ;)

Metro-Thread nachschauen ;)