Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Botcruscher
2010-03-07, 12:13:59
gerade auf nachhaltigkeit wird imho viel zu wenig geschaut.
Falsches Hobby. So was wie Nachhaltigkeit oder Zukunftssicherheit gibt es dank der Entwicklung nicht. Was zählt ist hier und jetzt. Für die Software der Zukunft gibt es auch die Hardware der Zukunft. In 4-5 Jahren ist Heute Computergeschichte.
=Floi=
2010-03-07, 12:34:14
es ging nicht um die grafikkarte, sondern um die software und codas aussage wie viele polygone sinnvoll sind und da ist im grunde aktuell 1poly/pixel noch immer "sinnvoll", weil mit steigernder auflösung das verhältnis wieder steigt.
Botcruscher
2010-03-07, 12:42:06
Die Regel von ein Dreieck pro Pixel als absolutes Maximum kann man wirklich so stehen lassen. Das ist wirklich der Punkt wo man keinen unterschied mehr sehen kann. Damit ist es natürlich Auflösungsabängig. Das ist aber wirklich schon Theorie.
es ging nicht um die grafikkarte, sondern um die software und codas aussage wie viele polygone sinnvoll sind und da ist im grunde aktuell 1poly/pixel noch immer "sinnvoll", weil mit steigernder auflösung das verhältnis wieder steigt.
Und Das willst du 5 Jahre vorher wissen?
Vor ein paar Jahren dachte man noch, dass mehr Polygone die einzige Möglichkeit währen bessere Modelle zu rendern.
Dann kamen Bumb/Displacment/Parallaxoclusion Maps und die Polygonzahl nahm wieder etwas ab.
Ich würde mir nicht anmaßen zu beurteilen mit welchen Techniken,Methoden in 5 Jahren gerendert wird.
Dass man wohl immer mehr Rechenleistung benötigen wird trägt ja auch NV in dieser Generation Rechnung und der Rest ist Zukunftsmusik.
LovesuckZ
2010-03-07, 12:52:53
"Tessellation" wird uns auch in Zukunft weiter erhalten bleiben. Tessellation ermöglicht eine Vielzahl von Anwendungsgebieten. Siehe dazu auch die Demos von nVidia: Water und Hair. Beides zeigen Möglichkeiten, die nicht primär im Zusammenhang stehen. Das Konzept der Hair-Demo existiert, glaube ich, seit 2008. Jetzt kann man es in Echtzeit mit GF100 umsetzen.
Und sollte sich die "for free" Tessellationgeschwindgkeit bei GF100 wirklich bewahrheiten, dann hat man hier einen Startpunkt, der in der Geschichte einmalig wäre.
Und sollte sich die "for free" Tessellationgeschwindgkeit bei GF100 wirklich bewahrheiten, dann hat man hier einen Startpunkt, der in der Geschichte einmalig wäre.
Kannst Du das mal für alle näher erläutern? Steh grad auf dem Schlauch...
Aquaschaf
2010-03-07, 13:13:51
wo ist denn eigentlich die logik, wenn ich sage es sollten nicht mehr polygone wie pixel sein, wenn ich die auflösung fast beliebig nach oben spalieren kann?!
Naja, man steigert für höhere Auflösungen dann einfach den Tesselationsgrad.
Chris Lux
2010-03-07, 13:21:33
falls es noch nicht da war.
GTX 480 Unigine and 3D Vision Surround Demo (GF100)
http://www.youtube.com/watch?v=vpdPSZB8A8E
mit fraps sichtbar auf dem bildschirm...
LovesuckZ
2010-03-07, 13:21:42
Kannst Du das mal für alle näher erläutern? Steh grad auf dem Schlauch...
Laut Ail seien die jetzigen beigelegten Treiber schon sehr leistungsstark. Und in einem kommunizierten "Worst Case" Szenarium verliert die GTX480 grademal 25% der Leistung - nur 1/3 von dem, was AMD liegen lässt.
In der Water-Demo erhöhte nVidia die Polygonanzahl um das 1000fache und die Leistungs reduzierte sich um die Hälfte. Und diese Demo ist noch schlimmer als der Heaven Benchmark. Und laut nVidia wäre man dort 4x so schnell wie AMD. Sie verlieren also wohl 87,5% der Leistung ohne Tessellation...
Wir werden in Spielen nie solche Beispiele sehen. Aber wenn schon diese nicht ausreichen, um GF100 mit Tessellation wirklich in die Knie zu zwingen, wie soll das mit handelsüblichen Spielen aussehen?
"Tessellation" wird uns auch in Zukunft weiter erhalten bleiben. Tessellation ermöglicht eine Vielzahl von Anwendungsgebieten. Siehe dazu auch die Demos von nVidia: Water und Hair. Beides zeigen Möglichkeiten, die nicht primär im Zusammenhang stehen. Das Konzept der Hair-Demo existiert, glaube ich, seit 2008. Jetzt kann man es in Echtzeit mit GF100 umsetzen.
Und sollte sich die "for free" Tessellationgeschwindgkeit bei GF100 wirklich bewahrheiten, dann hat man hier einen Startpunkt, der in der Geschichte einmalig wäre.
wenn die Zukunft da ist denk keiner mehr an "diesen" Fermi oder an die 6000 Serie von ATI..von daher völlig wurst!
So lange es im Konolenmarkt nichts neues gibt ändert sich auch am PC nix, von daher ist das alles uninteressantes Marketinggeblubber die keinen denkenden Menschen auch nur die Bohne juckt.
LovesuckZ
2010-03-07, 14:01:39
nVidia und AMD werden beide DX11 pushen. Immerhin sind sie auch darauf angewiesen, da es ein Verkaufsargument für die neuen GPUs sind. Ich würde da meine Hand nicht ins Feuer legen und die Zukunft wirklich in Ferne zu reden.
Gespannt warte ich auf das Metro2033 Video von nVidia. Imo könnte das schon zeigen, wie die Zukunft in Spielen aussehen wird.
Exxtreme
2010-03-07, 14:06:04
Weiss schon einer wie die Preise in etwa werden?
LovesuckZ
2010-03-07, 14:07:41
Weiss schon einer wie die Preise in etwa werden?
$299 :up:
Nein, Preise stehen noch nicht fest.
Und eine Frage an jemanden mit einer 5870: Könnte jemand mit dieser Karte mal im Unigine Benchmark den Drachen mit DX10.x knipsen und die FPS sagen? Wäre sehr nett.
mapel110
2010-03-07, 14:07:51
Weiss schon einer wie die Preise in etwa werden?
Da keiner weiß, wie die finale Leistung nun genau aussieht, kann das auch keiner sagen. nvidia wird ja nicht 500 € verlangen, wenn sie langsamer als eine 5870 sind, und sie werden auch keine 200 € verlangen, wenn sie schneller als die 5870 sind.
es ging nicht um die grafikkarte, sondern um die software und codas aussage wie viele polygone sinnvoll sind und da ist im grunde aktuell 1poly/pixel noch immer "sinnvoll", weil mit steigernder auflösung das verhältnis wieder steigt.
An sichtbaren Polygonen ist das ganz sicher nicht sinnvoll. Wenn wir 1Polygon/Pixel haben könnten wir uns Texturen gleich sparen.
Es ist schwer zu sagen wie viele Polygone noch sinnvoll sind, aber ich sag mal unter 10 Pixeln an Größe dürfte kaum ein Polygon sinnvoll sein. Und unsichtbare Polygone sind sowieso nicht sinnvoll, lassen sich aber nicht immer vermeiden.
$299 :up:
Nein, Preise stehen noch nicht fest.
Und eine Frage an jemanden mit einer 5870: Könnte jemand mit dieser Karte mal im Unigine Benchmark den Drachen mit DX10.x knipsen und die FPS sagen? Wäre sehr nett.
http://www.abload.de/thumb/unbenanntmcat.png (http://www.abload.de/image.php?img=unbenanntmcat.png)
http://www.abload.de/thumb/unigine2010-03-0714-176g4d.png (http://www.abload.de/image.php?img=unigine2010-03-0714-176g4d.png)
LovesuckZ
2010-03-07, 14:20:27
Jetzt noch ohne Tessellation und mit 10.1. Das wäre superduper. =)
http://www.abload.de/thumb/unigine2010-03-0714-271fj3.png (http://www.abload.de/image.php?img=unigine2010-03-0714-271fj3.png)
Gunslinger
2010-03-07, 14:30:32
1xAA/1xAF
http://666kb.com/i/bhaap9ri2s1v6u7z5.jpg
4xAA/16xAF
http://666kb.com/i/bhaaq4jx025w85fj5.jpg
Dural
2010-03-07, 14:31:46
Verstehe ich auch nicht. Das Lustige daran ist aber, dass ein paar Seiten y33h@'s Screenshot mit einem eigenen Branding ausstatten:rolleyes:
;D da sieht man mal wider wie glaubwürdig manche seiten sind...
y33H@
2010-03-07, 14:35:51
Oha, welche Page(s) macht das denn? :eek:
LovesuckZ
2010-03-07, 14:36:40
Vielen Dank an die zwei 5870 User. Also gibt es keinen Leistungsunterschied zwischen DX11 ohne Tessellation und DX10.x.
Das macht den Wert der GTX480 wieder ein bisschen suspekter.
Eggcake
2010-03-07, 15:06:12
Oha, welche Page(s) macht das denn? :eek:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7887216&postcount=14489
Der Rechte dürfte von dir sein, oder?
y33H@
2010-03-07, 15:07:53
Klar, der rechte ist der Fake. Ich finde nur den passenden Thread nicht.
Hehe ja,der Eingangssatz ist der beste :D
Wenn beide Karten so dermassen gedrosselt wären,wieviel TDP würden die denn raushauen,wenn sie ungedrosselt wären?
GTX470 260 Watt und GTX480 350 Watt?
Wer sagt denn, daß die TDP sich auf den gedrosselten Betrieb bezieht? Und von welcher TDP redest du überhaupt, bislang ist doch dazu noch gar nichts bekannt?
Vielen Dank an die zwei 5870 User. Also gibt es keinen Leistungsunterschied zwischen DX11 ohne Tessellation und DX10.x.
Das macht den Wert der GTX480 wieder ein bisschen suspekter.
Suspekter? Es zeigt sich deutlich das die 5870 die GTX480 ohne Tesslation klar abhängt.
ohhmann es ging aber um Tess und sonst nix.
Wenns ein ATI Hardwareprobs würde werden :D haben sie nen Joker und ob Treiberseitig noch viel geht....man muß abwarten bis mal ein anständiges Game kommt.
http://img0841.paintedover.com/uploads/thumbs/0841/gpuz460.jpg (http://paintedover.com/uploads/show.php?loc=0841&f=gpuz460.jpg)
Adam D.
2010-03-07, 15:31:59
Die Fakes werden ja immer billiger. Ich freu mich schon auf 1000000 neue GPU-Z-Fakes pro Tag.
Ronny145
2010-03-07, 15:40:27
Der ist echt mal billig. Und dann diese 0 Wort Beiträge ohne Quellenangabe, ja absolut glaubwürdig. :rolleyes:
y33H@
2010-03-07, 15:49:11
Vor allem: GPU-Z bietet eine Snap-Funktion als GIF. Wer zur Hölle lädt dann so dermaßen verkomprimierte JPGs hoch? :ulol:
Exxtreme
2010-03-07, 15:51:34
Jemand, der darauf spekuliert, daß irgendwelche Anzeichen eines Fakes in den Kompressionsartefakten untergehen. :ulol:
Oder jemand der spekuliert, das all die Fakes mal dazu führen das die GPUz Begeisterung abnimmt.
Wenn nicht, sorgt das eben für den täglichen Grinser, über die Blödheit Vieler.
jo und die schönen Drachenbildchen gehen mal wieder unter....paßt euch grünen wohl nicht in den Kram......
Es ist ein bisschen wie bei den UFO-Filmchen, die ab und an auftauchen. Da ist dummerweise auch immer nur eine Kamera aus dem Jahre 1492 parat.
OgrEGT
2010-03-07, 18:03:01
$299 :up:
Nein, Preise stehen noch nicht fest.
Und eine Frage an jemanden mit einer 5870: Könnte jemand mit dieser Karte mal im Unigine Benchmark den Drachen mit DX10.x knipsen und die FPS sagen? Wäre sehr nett.
Habe den Drachen an 3 verschiedenen Stellen gemessen:
1920x1080 1xAF_1xAA_DX10
78.5s_____55.4fps
117.9s____57.4fps
121.5_____57.4fps
LovesuckZ
2010-03-07, 18:10:33
Habe den Drachen an 3 verschiedenen Stellen gemessen:
1920x1080 1xAF_1xAA_DX10
78.5s_____55.4fps
117.9s____57.4fps
121.5_____57.4fps
Interessant, woher die ganzen Unterschiede kommen. Mal 55 FPS, mal 71 FPS.
Man stellt auch DX11 ein, da ohne Tessellation der Vergleich 0 bringt :rolleyes:
Crysis: http://www.xtremesystems.org/forums/showpost.php?p=4275160&postcount=2099
Interessant, woher die ganzen Unterschiede kommen. Mal 55 FPS, mal 71 FPS.
Würde mich nicht wundern wenn der Phenom am CPU-Limit hängt.
http://www.abload.de/thumb/unbenanntmcat.png (http://www.abload.de/image.php?img=unbenanntmcat.png)
http://www.abload.de/thumb/unigine2010-03-0714-176g4d.png (http://www.abload.de/image.php?img=unigine2010-03-0714-176g4d.png)
Bei mir sind die Screenshots mit Opera und Firefox einfach nur Briefmarken groß.
Wie bekomtm man die auf normal Größe?
Crysis: http://www.xtremesystems.org/forums/showpost.php?p=4275160&postcount=2099
Der 5870 geht ganz offensichtlich der VRAM aus.
Oh jeee, die 1.1GHz / 2GB Radeon wird mit der Fermi den Benchmarkparcours einmal feucht durchwischen. :(
Wenn nv nicht bald in die Pötte kommt, werden sie echt zum nächsten 3dfx. Da helfen ihnen die ganzen eingekauften Tegra Designwins nix. Selbe Strategie (Wettbewerbsvermeidung durch proprietäre Schnittstellen) = selbes Ende.
Da ist die kleine GTX470 ;)
Oh jeee, die 1.1GHz / 2GB Radeon wird mit der Fermi den Benchmarkparcours einmal feucht durchwischen. :(
Wenn nv nicht bald in die Pötte kommt, werden sie echt zum nächsten 3dfx. Da helfen ihnen die ganzen eingekauften Tegra Designwins nix. Selbe Strategie (Wettbewerbsvermeidung durch proprietäre Schnittstellen) = selbes Ende.
Diese Karte wird erst gar nicht kommen.
Zumindest in nächster Zeit nicht.
OgrEGT
2010-03-07, 19:53:52
Würde mich nicht wundern wenn der Phenom am CPU-Limit hängt.
An anderer Stelle sinds dann aber auch schonmal 75fps auch DX11 mit Tesselation. So gegen sec 200.
Der 5870 geht ganz offensichtlich der VRAM aus.
gesetzt dem Fall die Crysis-Benches sind echt, lassen die Bilder zusätzlich einen anderen Schluss zu. Die AVG-Frames werden über alle Frames gemittelt.
Sackt die 5870 mehrmals in einen niedrigen Bereich ab lässt das den Schluss zu, das sie bei Crysis schneller als die GTX470 ist, obwohl die angegebenen AVG-Frames ungefähr gleich sind.
Wenn man bedenkt in welch frühen Stadium die Nvidia Treiber sind, ist die Leistung doch schon sehr gut für eine GTX470 wenn der Preis stimmt.
Nightspider
2010-03-07, 20:10:29
Oh jeee, die 1.1GHz / 2GB Radeon wird mit der Fermi den Benchmarkparcours einmal feucht durchwischen. :(
Wenn nv nicht bald in die Pötte kommt, werden sie echt zum nächsten 3dfx. Da helfen ihnen die ganzen eingekauften Tegra Designwins nix. Selbe Strategie (Wettbewerbsvermeidung durch proprietäre Schnittstellen) = selbes Ende.
Ne 5870 mit 2GB und starker Übertaktung wäre deutlich teurer als ne GTX 470 die schon teilweise mit einer normalen 5870 den Boden aufwischt! ;)
Und dann rechne nochmal 20-30% mehr Leistung bei der GTX 480 dazu. :tongue:
LovesuckZ
2010-03-07, 20:15:11
Und am Ende ist jede Konfiguration unspielbar. Selbst wenn die GTX480 50% schneller wäre, sie läge im Durchschnitt nur bei 22,5 FPS.
Superheld
2010-03-07, 20:32:12
Crysis: http://www.xtremesystems.org/forums/showpost.php?p=4275160&postcount=2099
und
http://www.abload.de/img/1s03k.jpg (http://www.abload.de/image.php?img=1s03k.jpg)
http://www.abload.de/img/2c3qf.jpg (http://www.abload.de/image.php?img=2c3qf.jpg)
und
http://www.abload.de/img/1s03k.jpg (http://www.abload.de/image.php?img=1s03k.jpg)
http://www.abload.de/img/2c3qf.jpg (http://www.abload.de/image.php?img=2c3qf.jpg)
Das sieht einigermaßen realistisch aus.
Beim Uniegine Diagramm schlägt mal wieder die Balkenmentalität zu: Halber Balsken für weniger als 10% Score...
boxleitnerb
2010-03-07, 20:36:45
Ziemlich schlecht gemacht imho. Und alle "Ergebnisse" sind schon bekannt.
Unigine interessiert keine Sau mehr, seit verschiedene Versionen und Settings aufgetaucht sind. Wer da noch drüber spekuliert, kann auch was zu GF200 oder sonstwelche zukünftigen GPUs raten/träumen. Alles bar jeder Grundlage, abwarten bis echte Daten rüberkommen is die Devise.
Nightspider
2010-03-07, 20:40:36
Und am Ende ist jede Konfiguration unspielbar. Selbst wenn die GTX480 50% schneller wäre, sie läge im Durchschnitt nur bei 22,5 FPS.
Wieso? Crysis ist mit 22fps doch gut spielbar. ;D
Crysis hab ich mir damals mit einer 8800GTX wegen der Optik bei 1600*1200, DX10, max. Details mit 5-15 FPS angetan. :D ;D
LovesuckZ
2010-03-07, 20:44:58
Da muss nur jemand tage alte Zahlen in neue Gewände packen und schon gehen die selben Zahlen wieder um die Welt.
Ohman...
Also, inzwischen denke ich, kann man sagen, dass alle einigermaßen Glaubwürdigen Quellen darauf hindeuten, dass die GTX470 ziemlich genau in der Mitte zwischen der 5850 und der 5870 liegt. Oder will das noch jemand bestreiten?
Wenn die GTX480 wirklich nur in so niedrigen Stückzahlen erscheinen wird wie es den Anschein hat, hat Nvidia ein ganz schönes Problem.
Armaq
2010-03-07, 21:11:36
Die 470 wird halt eine 5870 - 5-10%. Dafür hat sie halt radikale Änderungen bereit, die sich erst eine Generation später zeigen. Wettbewerbsfähigkeit über den Preis ist für den Kunde erstmal gut, ich hoffe nur Nvidia hat die Kosten im Griff und kann diese Phase gut schultern. Allerdings sind die Händler erstaunlich ruhig, von daher gehe ich mal von einem soliden Plan aus.
Eggcake
2010-03-07, 21:13:04
Naja, wenn die 470 einen passenden Preis hat, dann ist das ja hervorragend...nur halt weniger als man sich erhofft hat.
Exxtreme
2010-03-07, 21:15:31
Wenn die 470'er ned zu teuer wird dann hole ich sie mir vielleicht. Hängt aber auch von der AA und AF-Qualität ab. Ich hoffe, Nvidia lässt sich nicht hinreissen hier unnötig zu sparen.
Ich denke, die radikalen Änderungen werden erst in zukünftigen Generationen zum tragen kann, nämlich dann, wenn es um die Skalierung mit weiteren Einheiten geht. Was das angeht, ist das aktuelle Design von AMD schon ziemlich am Ende. Dann muss sich NVidia aber mit der nächsten Generation von AMD messen, und über die wissen wir im Moment praktisch gar nichts...
Armaq
2010-03-07, 21:33:42
Ich denke, die radikalen Änderungen werden erst in zukünftigen Generationen zum tragen kann, nämlich dann, wenn es um die Skalierung mit weiteren Einheiten geht. Was das angeht, ist das aktuelle Design von AMD schon ziemlich am Ende. Dann muss sich NVidia aber mit der nächsten Generation von AMD messen, und über die wissen wir im Moment praktisch gar nichts...
Das ist richtig, allerdings wissen wir, dass diese Umstellung ziemlich brutal ist. Coda hat mehrmals angeführt, wie entscheidend diese Veränderungen für zukünftiges Rendering sind. ATI hat vielleicht den Vorteil, dass sie Nvidia "zu sehen" konnten.
Der jetzige Produktzyklus birgt halt nur die Gefahr, dass Nvidia ernsthaften Schaden nimmt, aber danach sieht es auch nicht unbedingt aus.
mapel110
2010-03-07, 21:55:18
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_470_480_cebit/
Zusammenfassung von HT4U. Steht aber imo nix neues drin.
Bucklew
2010-03-07, 22:06:25
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_470_480_cebit/
Zusammenfassung von HT4U. Steht aber imo nix neues drin.
Würde ich nicht sagen:
TDP:
Gleiches taten wir beim NVIDIA-eigenen Demo-System mit zwei GTX 480-Karten. Die Temperatur dort war deutlich höher (permanenter Spielebetrieb), aber auch nicht heißer als das, was wir von GTX 295-Modellen kennen. Auch hier bleiben finale Messungen abzuwarten.
Lieferbarkeit:
Viele Gerüchte rankten sich auf der Messe (und auch schon im Vorfeld) um die Verfügbarkeit entsprechender Karten nach dem Start (Deutschland 27. März 1 Uhr). So sprachen die einen Gerüchte von 8000 verfügbaren Karten weltweit, andere von lediglich 5000 Stück weltweit und lediglich 1000 Karten für Deutschland.
Einer der Boardpartner, welcher Karten beider Hersteller - AMD und NVIDIA - im Produktsortiment hat, war der Ansicht, dass es sich hier um absichtlich gestreute Gerüchte von AMD oder dessen Boardpartner handeln würde. NVIDIAs Sprecher Jens Neuschäfer lächelte hingegen auf die gestellte Frage und bezeichnete die Zahlen als falsch. Er verwies darauf, dass auch zum Start der seinerzeit stark nachgefragten GeForce 8800 GT zu Beginn etwas mehr als 10.000 Stück weltweit zur Verfügung standen. Man sollte davon ausgehen, dass es nicht weniger zum Start der GeForce GTX 400-Serie sein werden - er sprach von 10.000er Stückzahlen.
Dazu erwarte man eine große Lieferung weiterer Karten wenige Wochen nach der offiziellen Markteinführung. So dass man, wie angekündigt, von einer Verfügbarkeit ausgehen darf - natürlich immer auch in Abhängigkeit der Nachfrage. Zudem sei man mit der Ausbeute der Chips im A3-Stepping sehr zufrieden.
In diesem Zusammenhang sprachen wir NVIDIA auch auf ein weiteres Gerücht der CeBIT an. Demnach würde TSMC AMD absichtlich benachteiligen, da man mit AMD den Konkurrenten Globalfoundries verbinde, NVIDIA hingegen bevorzugen, was sich auf die Verfügbarkeiten auswirken würde.
Ohne auf das Thema der Bevorzugung näher einzugehen, erklärte Jens Neuschäfer uns, dass man bei TSMC schlicht größere Kapazitäten als AMD (schon im Vorfeld) geordert habe - man sei der größere Partner.
3D Vision:
Ab dem Treiber 256 und später, welcher zu Vorstellung der Karten erscheinen wird, sind die GTX 400-Modelle dann auch in der Lage gleichzeitig 3 Monitore anzusteuern.
[...]
Allerdings, so NVIDIA, um diese gezeigte Auflösung inklusive aller Effekte auch gleichzeitig in 3D genießen zu können, wäre eine GTX 480-Karte schon zu stark gefordert, weshalb man zwei der Karten im Demosystem verbaut habe.
Doch drei Monitore pro Fermikarte?
GF104 & Co:
Nicht selten hatte NVIDIA in den vergangenen Jahre bereits am Markt etablierte Produkte umbenannt und mit neuem Namen weiter vermarktet. Wir befragten im Interview Jens Neuschäfer zu etwaigen Planungen über eine komplette Produktserie auf Basis der GeForce GTX 400-Technologie.
NVIDIA konnte bestätigen, dass man - abgesehen vom Low-Budget-Bereich - eine gesamte Produktline für alle Segmente vorstellen wird. Mit den beiden ersten Karten bediene man das High-End-Segment. Natürlich sei eine Dual-GPU-Variante ebenfalls in Planung - das habe NVIDIA bislang noch immer so gehandhabt.
Da die Fermi-Architektur sehr modular sei, sei es für NVIDIA dann ebenfalls recht problemlos möglich, kleinere Chips auf dieser Technik zu fertigen. Dabei will man dann ebenfalls entsprechende Modelle in das Performance- und Mainstream-Segment entlassen.
Den Low-Budget-Bereich - dazu zählt nach Ansicht von NVIDIA bereits keine GeForce GT 220 mehr - wolle man nicht mit Fermi-basierenden Chips updaten, da man hier keinen Sinn sehe.
Unsere Frage, ab wann mit dem kompletten Produkt-Line-Up zu rechnen sei, beantwortete Jens Neuschäfer lächelnd mit: "sehr bald".
Steht doch viel interessantes drin ;)
Das ist richtig, allerdings wissen wir, dass diese Umstellung ziemlich brutal ist. Coda hat mehrmals angeführt, wie entscheidend diese Veränderungen für zukünftiges Rendering sind. ATI hat vielleicht den Vorteil, dass sie Nvidia "zu sehen" konnten.
Der jetzige Produktzyklus birgt halt nur die Gefahr, dass Nvidia ernsthaften Schaden nimmt, aber danach sieht es auch nicht unbedingt aus.
Ich glaube AMDs Next-Gen-Design ist schon zu weit fortgeschritten, als dass sie sich jetzt noch aus NVidias Problemem groß etwas lernen könnten.
Was ich sagen wollte, ist einfach nur: Die Tiefgreifenden Veränderungen die Fermi mit sich bringt, scheinen sich aktuell noch nicht auszuzahlen. Zumindest hat Fermi was Performance/mm² bzw. Performance/Watt angeht einen ganz schönes Defizit gegen AMDs aufgebohrtes DX10-Design. Das wird sich sich in Zukunft zwar zu Gunsten von Nvidia verschieben, aber bis dahin ist AMD mit Northern Island am Start, und dann wird sich zeigen, wer in Zukunft besser aufgestellt sein wird.
Fetza
2010-03-07, 22:14:50
GF104 & Co:
Steht doch viel interessantes drin ;)
Das posting beinhaltet doch garnichts über den gf104 - der soll doch die refreshgeneration werden.
Wieso? Crysis ist mit 22fps doch gut spielbar. ;D
Crysis hab ich mir damals mit einer 8800GTX wegen der Optik bei 1600*1200, DX10, max. Details mit 5-15 FPS angetan. :D ;D
Das ist doch nicht spielbar, das ist ne diashow - es braucht mindestens durchschnittlich 40 frames für mich, sonst pack ich ein game erst garnicht an, gerade crysis das doch ausschließlich von der grafik lebt.
mapel110
2010-03-07, 22:16:43
Das zu 3D-Vision-Surround muss Blödsinn sein, weil der Chip selbst drei gleichzeitige Outputs doch supporten muss. Und das tut Fermi doch nach allem Anschein nach nicht. Da geht auch nichts mit Treibern.
Huang war auch Anfang Januar sehr zufrieden und erzählte in die Kameras etwas von Serienfertigung. Und wir alle erinnern uns doch noch gut, wie sich ATI rausredete im Oktober und November bei der schlechten Verfügbarkeit. Hohe Nachfrage blabla, in ein paar Wochen besser, hohe Nachfrage, blabla in ein paar Wochen besser, usw usw. So ähnlich wirds bei nvidia sicher auch laufen.
Das posting beinhaltet doch garnichts über den gf104 - der soll doch die refreshgeneration werden.
Nö, sieht eher nach dem Mid Range Ableger von Fermi aus.
Bucklew
2010-03-07, 22:20:06
Das posting beinhaltet doch garnichts über den gf104 - der soll doch die refreshgeneration werden.
Quatsch, GF104 wird die kleinere Version des Fermi. Bei Nvidia war es schon immer so, dass die Chips mit höherem Namen die kleineren Chips waren.
G92 -> G94 -> G96 -> G98
Das zu 3D-Vision-Surround muss Blödsinn sein, weil der Chip selbst drei gleichzeitige Outputs doch supporten muss. Und das tut Fermi doch nach allem Anschein nach nicht. Da geht auch nichts mit Treibern.
Abwarten, da es ja explizit drin steht. Rein von der bisherigen Presse wundert es mich auch, aber vllt gibt es ja doch einen Trick um das in Software zu basteln.
LovesuckZ
2010-03-07, 22:20:38
Interessant: Review Treiber wird irgendwas mit 256 sein. Also ist der 196.78 meilenweit davon entfernt. Wieder ein Fuge in der Argumentation, dass nVidia soviel Rauch wie möglich erzeugen wollte und will.
Was ich sagen wollte, ist einfach nur: Die Tiefgreifenden Veränderungen die Fermi mit sich bringt, scheinen sich aktuell noch nicht auszuzahlen. Zumindest hat Fermi was Performance/mm² bzw. Performance/Watt angeht einen ganz schönes Defizit gegen AMDs aufgebohrtes DX10-Design. Das wird sich sich in Zukunft zwar zu Gunsten von Nvidia verschieben, aber bis dahin ist AMD mit Northern Island am Start, und dann wird sich zeigen, wer in Zukunft besser aufgestellt sein wird.
Abwarten. Das Design ist auf Tessellation ausgelegt. Dort kann sich alles ändern. nVidia braucht nur 2,3 wirkliche DX11 Kracher und die Frage nach der besseren Leistung wird sich nicht mehr stellen.
Und ich wette mit dir, wir werden noch vor dem Herbst diese zwei Spiele sehen, die GF100 im deutlich besseren Licht erscheinen lassen.
Bucklew
2010-03-07, 22:21:35
Interessant: Review Treiber wird irgendwas mit 256 sein. Also ist der 196.78 meilenweit davon entfernt. Wieder ein Fuge in der Argumentation, dass nVidia soviel Rauch wie möglich erzeugen wollte und will.
Nach 199 wird als Treiberversion 256 kommen.
Black-Scorpion
2010-03-07, 22:22:10
Und wie bastelt man etwas in Software was die Hardware nicht kann?
Dural
2010-03-07, 22:22:15
Mittlerweilen kann man auch das 1% 512SP Chip vergessen... Sonst würde er kaum sagen das sie sehr zufriden mit dem A3 sind...
Hat sich bis jetzt was Bewahrheitet von den ganzen (Charli) Gerüchten? bis jetzt kein einziges:
Nicht Herstellbar: Fail
Hohe TDP: Fail
Zu wenig Leistung: Fail
Nicht Bezahlbar: Fail
Kann mich noch sehr gut an Nagus Aussage Erinnern: GTX 470 Leistung wie 5850 + mehr Verbrauch als 5870 und 400.- + :freak:
Edit:
Vieleicht meint er ja auch 448SP und 480SP Chips damit ;)
LovesuckZ
2010-03-07, 22:22:36
Nach 199 wird als Treiberversion 256 kommen.
Dann sollte 199 bald erscheinen - in 19 Tagen ist es soweit. :D
Zur Preisgestaltung:
Natürlich wollte uns NVIDIA im Hinblick auf Preise aktuell noch keine näheren Informationen liefern. Allerdings verriet man uns im Verlauf unseres Interviews bereits soviel, dass man sich mit GTX 470 und GTX 480 jeweils über den Preisen der Radeon HD 5850 bzw. HD 5870 bewegen werde, da man letzten Endes auch das bessere Produkt anzubieten habe.
Könnte wie zur GT200 Zeit werden: GTX470 bei $299-$339, GTX480 für $449.
LovesuckZ, das mit dem Versionssprung liegt an Sims. Das will eine bestimmte Detonator-Version um gewisse Sachen zu aktivieren und schaut nur nach der Minor-Version.
Deshalb kam auch nach Detonator/Forceware 9x gleich 15x.
mapel110
2010-03-07, 22:28:40
Gab noch mehr Spiele, die damit Probleme hatten. Bei Opengl gabs doch auch öfters das Problem und nvidia führte Version-String-Overwrite ein. Bei Directx-Treibern scheint das wohl nicht so einfach zu gehen. Egal, ich mag hohe Nummern. ;D
Black-Scorpion
2010-03-07, 22:30:12
Hat sich bis jetzt was Bewahrheitet von den ganzen (Charli) Gerüchten? bis jetzt kein einziges:
Und was hat sich bis jetzt von Nvidias Aussagen bestätigt?
Das ist ein PR Fritze.
Wenn der große Boss schon Scheiße erzählt glaube ich bis zum ersten unabhängigen Test nicht ein Wort.
Die Verfügbarkeit sieht man am 27. beim Händler.
Und woher weißt du das der Chip nicht zu teuer ist?
Wenn es hart auf hart kommt, müssen die den auch mit +/- 0 verkaufen.
Das zu 3D-Vision-Surround muss Blödsinn sein, weil der Chip selbst drei gleichzeitige Outputs doch supporten muss. Und das tut Fermi doch nach allem Anschein nach nicht. Da geht auch nichts mit Treibern.
http://www.youtube.com/watch?v=vpdPSZB8A8E&feature=related
Ab etwa 3:40, wieviel Monitore zählst du da?
derguru
2010-03-07, 22:37:26
zähl lieber mal wieviel karten es sind.:rolleyes:
Bucklew
2010-03-07, 22:37:45
LovesuckZ, das mit dem Versionssprung liegt an Sims. Das will eine bestimmte Detonator-Version um gewisse Sachen zu aktivieren und schaut nur nach der Minor-Version.
Deshalb kam auch nach Detonator/Forceware 9x gleich 15x.
Ja, es gibt einige Programme, die zwar die Nvidiatreiberversion abfragen und etwas >56 haben wollen (oder 55 oder so), aber dann so blöd sind und nicht die Stelle vorher abfragen. Nach Y2K kommt eben NV56 ;) Informatiker lieben ja rekursion ;D
Und wie bastelt man etwas in Software was die Hardware nicht kann?
Vielleicht kann der Fermichip jetzt doch drei Monitore ansprechen? Ich weiß es ehrlich gesagt nicht, mich wundert aber, dass es da so explizit und nochmal drin steht.
Andererseits: Vielleicht hat HT4U den Hansel nur falsch verstanden und er meinte nicht "Aus Performancegründen haben wir JETZT zwei karten" sondern "Aus Performancegründen haben wie IMMER zwei karten"?!
Dural
2010-03-07, 22:38:21
@Black-Scorpion
was der Chip NV kostet interessiert keine sau... was zählt ist was der Kunde für die Karte zahlt und da kann man bei den aktuellen 3xx.- für die GTX470 nicht von unbezahlbar reden...
LovesuckZ
2010-03-07, 22:39:40
http://www.youtube.com/watch?v=vpdPSZB8A8E&feature=related
Ab etwa 3:40, wieviel Monitore zählst du da?
3 - 2:1 die Aufteilung der Kabel an den Karten. Sieht man schön bei 3:56.
GF100 kann nur zwei unabhängige Bildschirme gleichzeitig ansteuern.
Black-Scorpion
2010-03-07, 22:45:41
@Black-Scorpion
was der Chip NV kostet interessiert keine sau... was zählt ist was der Kunde für die Karte zahlt und da kann man bei den aktuellen 3xx.- für die GTX470 nicht von unbezahlbar reden...
Ganz tolle Milchmädchenrechnung.
Chip zu teuer = keine preiswerten Karten möglich.
Oder meinst du nur weil Nvidia den vielleicht für +/- 0 anbietet machen das die Hersteller mit den Karten auch?
Die wollen Gewinn machen.
Und wenn Nvidia diese Preise wirklich vorgibt bleibt für die Hersteller kein großer Spielraum mehr.
Abwarten. Das Design ist auf Tessellation ausgelegt. Dort kann sich alles ändern. nVidia braucht nur 2,3 wirkliche DX11 Kracher und die Frage nach der besseren Leistung wird sich nicht mehr stellen.
Und ich wette mit dir, wir werden noch vor dem Herbst diese zwei Spiele sehen, die GF100 im deutlich besseren Licht erscheinen lassen.
Du klammerst dich im Moment wirklich an jeden Strohhalm, oder? Ich hab jetzt ehrlich gesagt auch nicht wirklich Lust, das Thema mit dir nochmal durchzukauen - das haben andere auch schon gemacht.
LovesuckZ
2010-03-07, 22:48:00
Du klammerst dich im Moment wirklich an jeden Strohhalm, oder? Ich hab jetzt ehrlich gesagt auch nicht wirklich Lust, das Thema mit dir nochmal durchzukauen - das haben andere auch schon gemacht.
Nein, denn das tun schon AMD User. :D
Du weißt ja: AMD - DX11 doesn't matter.
Bucklew
2010-03-07, 22:49:41
Ganz tolle Milchmädchenrechnung.
Chip zu teuer = keine preiswerten Karten möglich.
Warte doch die Preise ab :rolleyes:
Wo ist denn dein Problem, wenn es die GTX470 zu Preisen von 300-400€ gibt, also zu Preisen von HD5870 Karten?
Black-Scorpion
2010-03-07, 22:55:05
Warte doch die Preise ab :rolleyes:
Wo ist denn dein Problem, wenn es die GTX470 zu Preisen von 300-400€ gibt, also zu Preisen von HD5870 Karten?
Du solltest vielleicht auch mal lesen auf welchen Beitrag sich die anderen beziehen.
Exxtreme
2010-03-07, 22:56:53
Warte doch die Preise ab :rolleyes:
Wo ist denn dein Problem, wenn es die GTX470 zu Preisen von 300-400€ gibt, also zu Preisen von HD5870 Karten?
Naja, wenn sie messbar langsamer sind als eine R5870 und AMD die Preise auch senkt dann werden sie wohl oder übel runtergehen müssen. Und so wie es aussieht wird die 470'er nicht mithalten können ausser vielleicht in ein Paar theoretischen Benchmarks. Nur das reicht schlicht nicht.
Ganz tolle Milchmädchenrechnung.
Chip zu teuer = keine preiswerten Karten möglich.
Oder meinst du nur weil Nvidia den vielleicht für +/- 0 anbietet machen das die Hersteller mit den Karten auch?
Die wollen Gewinn machen.
Und wenn Nvidia diese Preise wirklich vorgibt bleibt für die Hersteller kein großer Spielraum mehr.
Erst kommst du mit dem Chip an und nachdem das Argument zerschossen wurde nimmst du die Händler.
Einerseits behauptest du, das hohe Preise nicht möglich sind, aber nötig.
Andererseits behauptest du, das hohe Preise möglich sind, von seiten der Händler.
Was gilt nun? Den Kunden interessierts nicht wer verdient. Nvidia wird den Preis nicht so ansetzen, das die Händler daran übermäßig verdienen.
Wo ist denn dein Problem, wenn es die GTX470 zu Preisen von 300-400€ gibt, also zu Preisen von HD5870 Karten?
Das ist erstmal kein Problem. Aber bei den Preisen wird es kaum bleiben, denn Ati hat preismäßig noch eine ganze Menge Luft noch unten. Sie werden die Preise senken und dann muss Nvidia nachziehen. NVidia war in den letzten Jahren in der Lage mit ihren High-End Chips ganz gut zu verdienen, weil sie meisten schneller waren und oft früher auf den Markt kamen als die von Ati und dadurch auch entsprechende Preise verlangen konnten. Jetzt haben sie das erste halbe Jahr, in dem sie gut verdient hätten können, verpasst und sind jetzt nicht mal schneller als die Konkurrenz.
LovesuckZ
2010-03-07, 23:02:54
Bis jetzt gibt es noch zwei Fragezeichen hinter den GTX4x0 Karten: Spezifikationen und Reviewtreiber.
Man kann eigentlich davon ausgehen, dass die GTX470 +-5870 Niveau erreichen wird. Die jetzigen Benchmarks zeigen ja, dass man nicht wirklich weit entfernt ist. 10% mehr Taktraten und mehr Geschwindigkeit durch einen aktuelleren Treiber und man ist Konkurrenzkurs.
Menace
2010-03-07, 23:09:09
Meine Erinnerungen sind schlecht, deshalb mal hier die Frage. War die 470er nicht ursprünglich dazu gedacht, die 5870 eindeutig zu schlagen und die 480er die 5970? Ich bin verwirrt. :confused:
Bis jetzt gibt es noch zwei Fragezeichen hinter den GTX4x0 Karten: Spezifikationen und Reviewtreiber.
Man kann eigentlich davon ausgehen, dass die GTX470 +-5870 Niveau erreichen wird. Die jetzigen Benchmarks zeigen ja, dass man nicht wirklich weit entfernt ist. 10% mehr Taktraten und mehr Geschwindigkeit durch einen aktuelleren Treiber und man ist Konkurrenzkurs.Was meinst du denn nun "Konkurs" oder "konkurrenzlos"?
maximus_hertus
2010-03-07, 23:12:38
My 2 cents: nV kann sagen was sie wollen, die Preise bestimmen eh die Händler..... Kann gut sein, dass aus 299-349$ ganz schnell 400+€ werden.
Auch wenn keiner mit 100%iger Gewissheit sagen kann, wie gut die Verfügbarkeit sein wird, wird man wahrscheinlich nicht durchgehend alles Verfügbar haben. Könnte mir gut vorstellen, dass es wie bei den ersten G92 Karten abläuft. Launch - eine "handvoll" Karten, danach erstmal tröpfchenweise immer mal wieder ein paar Karten und irgendwann im Sommer dann eine "gute" Verfügbarkeit.
corvus
2010-03-07, 23:12:54
Warum wartet ihr mit euren Streitereien einfach nicht bis die Karten da sind?
PS
Wenn die 480er "nur" 10FPS mit Tess weniger hat als ne 20% ocete 5870 ohne, dann gibt wohl sowieso keinen Streit..weil die Grundlage dann fehlt :D
My 2 cents: nV kann sagen was sie wollen, die Preise bestimmen eh die Händler..... Kann gut sein, dass aus 299-349$ ganz schnell 400+€ werden.
Nein, denn das ist schlicht Blödsinn.
Nvidia wird den Händlern nicht den Gewinn überlassen, wenn die Kunden bereit sind soviel zu zahlen.
Bucklew
2010-03-07, 23:51:17
Du solltest vielleicht auch mal lesen auf welchen Beitrag sich die anderen beziehen.
Habe ich, sehe da immer noch kein Problem.
Kaufst du also lieber eine Grafikkarte für 300€, die 50€ Herstellungskosten beeinhaltet statt 100€?
Das ist erstmal kein Problem. Aber bei den Preisen wird es kaum bleiben, denn Ati hat preismäßig noch eine ganze Menge Luft noch unten.
ATI schafft es nichtmal die RV870-Karten vernünftig liefern zu können - und da redest du von Preissenkungen?!
Byteschlumpf
2010-03-07, 23:57:11
ATI schafft es nichtmal die RV870-Karten vernünftig liefern zu können - und da redest du von Preissenkungen?!
Da IMO TSMC alle Chips für AMD/ATI und nVidia produziert, liegt das Problem der geringen Verfügbarkeit wohl eher an der geringen Chipausbeute bei TSMC, als beim GPU-Entwickler!
nVidias Transistorenmonster "Fermi" dürfte daher sicher keinesfalls schneller und besser verfügbar sein, als Karten der HD58xxer Reihe!
Bucklew
2010-03-07, 23:59:56
Da IMO TSMC alle Chips für AMD/ATI und nVidia produziert, liegt das Problem der geringen Verfügbarkeit wohl eher an der geringen Chipausbeute bei TSMC, als beim GPU-Entwickler!
nVidias Transistorenmonster "Fermi" dürfte daher sicher keinesfalls schneller und besser verfügbar sein, als Karten der HD58xxer Reihe!
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7888627&postcount=14564
Da werden sie geholfen ;D
Timolol
2010-03-08, 01:07:13
die 480 wär ja nen guter Nachfolger für meine 285... Aber so lange wie nvidia da rummwerkelt sollte das schon nen erheblichen performanceschub mit sich bringen sonst lohnt sich das auch wieder nicht.
Mich hat damals die 280 schon so abgeschreckt wegen viel verlustleistung und die 8800 ultra davor wegen dem nicht wirklich vorhandenen idle betrieb und der insgesammt immer sehr hohen stromaufnahme.
Wenn die 480 jetzt die stromaufnahme im Leerlauf senken kann und die stromaufnahme unter last nicht über 200-220W geht wärs ne überlegung Wert, sollte die Leistung stimmen. Wirds mehr ist wohl meine Wakü überfordert und das Netzteil vermutlich an den Grenzen... 6auf 8 pin "adapter" bräuchte ich dann auch noch... Das ist nicht gut.
Vermutlich ist die Stromaufnahme nur knapp über 200W, der zusätzliche 8 pin dazu da höhere Stromaufnahme beim übertakten sicherzustellen?!
300W glaube ich nicht, das wär zu arg. Man kann so schon gut beim zocken nen raum recht schnell heizen...
Irgendwann muss es auch ein ende haben... Früher wars mir relativ egal, wobei es da auch immer Leute gab die sich an der hohen Stromaufnahme "aufgegeilt" haben.
Aber gut man kanns auch positiv sehen und das ganze an ne wasserkühlung hängen und in nen isolierten Wärmespeicher (boiler?) leiten und somit das Wasser im Haushalt erhitzen. Somit wär ja die wärme sinnvoll genutzt^^. Wäre ne Überlegung wert wenn der Trend so weitergeht.
Beim nächsten Baden oder Warmduschen kannste dann die Leistung effektiv nutzen!
Byteschlumpf
2010-03-08, 01:24:24
Ohne auf das Thema der Bevorzugung näher einzugehen, erklärte Jens Neuschäfer uns, dass man bei TSMC schlicht größere Kapazitäten als AMD (schon im Vorfeld) geordert habe - man sei der größere Partner.
Mal sehen, wie sich das entwickeln wird! ;)
Bei der HD48xxer Reihe gab es jedenfalls keine derartige Lieferknappheit.
LovesuckZ
2010-03-08, 01:31:44
Mal sehen, wie sich das entwickeln wird! ;)
Bei der HD48xxer Reihe gab es jedenfalls keine derartige Lieferknappheit.
Dort wurde auch zeitgleich komplett auf 55nm durch beide Firmen produziert. Auch waren die Yields deutlich besser.
Das Problem mit 40nm ist, dass nVidia und AMD zZ 8 unterschiedliche Chips produzieren lassen. Bei knappen Kapazitäten und schlechter Ausbeute ist es schon sehr schwer ausreichende Stückzahlen zu erreichen.
AwesomeSauce
2010-03-08, 01:32:15
Heute (Montag) sollen die Board-Partner von NVIDIA die finalen Specs für die Karten erhalten. Mal schauen, was da so zu uns durchdringt...
Byteschlumpf
2010-03-08, 01:50:01
Dort wurde auch zeitgleich komplett auf 55nm durch beide Firmen produziert. Auch waren die Yields deutlich besser.
Das Problem mit 40nm ist, dass nVidia und AMD zZ 8 unterschiedliche Chips produzieren lassen. Bei knappen Kapazitäten und schlechter Ausbeute ist es schon sehr schwer ausreichende Stückzahlen zu erreichen.
Die Chipausbeute der Juniper-GPUs ist in der Tat weitaus höher, weshalb Karten mit diesem Chip kurz nach deren Vorstellung schon bei MM&Co recht günstig zu haben waren und sind. Eine HD58x0-Karte habe ich dagegen mit eigenen Augen bisher noch in keinem Shop zu sehen bekommen. Dafür ist die "Palit GTX260 216SP" schon ab €127 als gutes Auslaufmodell teilweise in diesen Läden zu haben, was mich schon sehr in Versuchung geführt hat. :D
AnarchX
2010-03-08, 08:18:33
I[;7889179']woher kommt eigentlich dieses "dx11 does not matter"? (sry, hab den thread hier seitenlang nicht verfolgt, wegen zu hoher ot/bs-quote)
http://www.xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html
Dann gab es noch auf der GDC eine Folie, dass die ersten GPUs neuer Generationen eben hauptsächlich noch mit der vorherigen D3D-Version genutzt werden.
_DrillSarge]I[
2010-03-08, 08:28:56
http://www.xbitlabs.com/news/video/display/20090916140327_Nvidia_DirectX_11_Will_Not_Catalyze_Sales_of_Graphics_Cards.html
Dann gab es noch auf der GDC eine Folie, dass die ersten GPUs neuer Generationen eben hauptsächlich noch mit der vorherigen D3D-Version genutzt werden.
hmm...also irgendein belangloser präsentations-/werbespruch...ausserdem hat man (nur) gesagt, dass dx11 nicht das hauptargument für ne neue gpu ist.
I[;7889179']woher kommt eigentlich dieses "dx11 does not matter"? (sry, hab den thread hier seitenlang nicht verfolgt, wegen zu hoher ot/bs-quote)
das war wohl charlie brown, welcher auf semiaccurate behauptete nivea wird auf der cebit DX11 herunterspielen
da diese nun gelaufen ist und man wohl nichts ausser DX11 (die raketendemo und das drachenteil) gesehen hat war das wohl schlicht und ergreifend falsch
Ich hab gestern mal zum Spass nach der 5870 geschaut. Ja, die grünen Kästchen sind da, aber wenn man nach dem Preis sortiert, sieht man, wo sie sich befinden. Zählt man zum geringsten Preis ca. 15% drauf, kriegt man eine Karte. Sind immerhin gut 40 Euro! Sooooo rosig sieht es nicht aus. 375 Euro Minimum.
ja das schlimme ist ja das selbst die 5850 erst zu mondpreisen (280€ aufwärts) erhältlich ist
bei der momentan schnellsten single GPU karte kann man ja einen saftigen Aufschlag noch halbwegs nachvollziehen aber nicht bei dem mainstreamprodukt
hier wird imho die DX11 kuh so richtig gemolken
LovesuckZ
2010-03-08, 08:57:25
I[;7889202']hmm...also irgendein belangloser präsentations-/werbespruch...ausserdem hat man (nur) gesagt, dass dx11 nicht das hauptargument für ne neue gpu ist.
Ja, aber Xbitlabs hat - wieso auch immer - diesen Satz in einem komplett falschen Kontext wiedergegeben. Und dieses "DX11 doesn't matter" ging dann über die ganze Welt. Wobei es nie von nVidia gesagt wurde.
Spätesten seit der CES wissen wir aber, dass DX11 für nVidia eine wichtige Rolle spielt und es sind plötzlich ganz andere Töne aus jener Ecke zu hören, die davor nie müde wurde, um zu behaupten, dass DX11 für nVidia "doesn't matter" würde.
svenw
2010-03-08, 09:20:11
Wenn NV mit dem Yield des A3 Steppings sehr zufrieden ist, dann müßte ATI tanzen. Das NV mehr Wafer geordert hat als ATI und damit einen größeren Teil der Kapazität belegt ist unschön, aber da die ATI Chips wesentlich kleiner sind, sollten da auch mehr Chips/Wafer abfallen.
NV sollte übrigens mindestens 3 Kerzen in der Kirche anzünden, das TSMC den Prozeß fast exakt zum Start der Fermi Produktion halbweg stabil bekommen hat. 1 Monat später und Fermi wäre der Paper-Launch schlechthin geworden, 1-2 Monate früher und ATI hätte den Markt zum Fermi Start geflutet. So haben die Probleme bei TSMC NV Q4/2009 und Q1/2010 gerettet ohne den Start von Fermi zu gefährden. Schlumpf gehabt: und NEIN, ich behaupte nicht das TSMC das absichtlich gemacht hat, denn wenn das rauskäme wäre TSMC geliefert und die Kunden würden verschwinden wie die Ratten von dem sinkenden Schiff.
Die Verfügbarkeit von Fermi und Cypress wird allerdings solange mau bleiben bis TSMC die 2te 40er Fab am laufen hat.
derguru
2010-03-08, 13:26:03
kühler der 470 näher betrachtet,
http://www.abload.de/img/gtx470sog_1_dh_fx57nq1r.jpg
http://www.abload.de/thumb/gtx470sog_2_dh_fx571ojq.jpg (http://www.abload.de/image.php?img=gtx470sog_2_dh_fx571ojq.jpg)http://www.abload.de/thumb/gtx470sog_3_dh_fx57j606.jpg (http://www.abload.de/image.php?img=gtx470sog_3_dh_fx57j606.jpg) http://www.abload.de/thumb/gtx470sog_4_dh_fx574ulo.jpg (http://www.abload.de/image.php?img=gtx470sog_4_dh_fx574ulo.jpg)
Quelle (http://www.donanimhaber.com/GeForce_GTX_470in_sogutucusu_detaylandi-18522.htm)
http://www.abload.de/thumb/evga_gtx400_package_01pspu.jpg (http://www.abload.de/image.php?img=evga_gtx400_package_01pspu.jpg)http://www.abload.de/thumb/evga_gtx400_package_029pna.jpg (http://www.abload.de/image.php?img=evga_gtx400_package_029pna.jpg)
Gibt es Vergleichwerte der Lüfter von den GTX280 und GTX285 Karten? Als Laie sagt mir das jetzt soviel, ob 1,8A eher gut oder schlecht ist.
1.8A sind bei 12V Nennspannung sage und schreibe 21.6W nur für den Lüfter. Du kannst davon ausgehen dass das Dnig zumindest bei 100% einem Staubsauger gleich kommt. Aber man muss ihn ja nicht mit maximaler Spannung betreiben.
James Ryan
2010-03-08, 13:54:11
Das waren keine 300W für die 470 sondern maximal 280W TDP für die 480 und maximal 220W für die 470.
Der Kühler für die GTX480 ist aber kaum größer!
MfG :cool:
Das die Ampere überhaupt nichts mit der tatsächlichen Drehzahl zu tun haben ist euch aber schon klar? Weder der Wirkungsgrad des Lüfters ist bekannt, noch die tatsächlich vom Fan-Controller angelegte Spannung.
Bei dem Kühlblock und der TDP ist es komplett unwahrscheinlich, dass wir es mit einem lauten Kühler zu tun haben werden. Das wird natürlich aber völlig zur Seite geschoben.
Tesseract
2010-03-08, 15:31:38
Wobei er zeigt - unter der Annahme an der ohne Tessellationsleistung ändert sich nichts mehr -, dass GF100 keine Probleme hat solche "Worst-Case" Szenarium fast "for free" zu erledigen.
die frage ist wie relevant so ein worst case ist bzw. was bei ati überhaupt limitiert.
es ist etwas vollkommen anderes, ob du z.B. die komplette geometrie eines spiels u.a. mit hilfe von tesselation modellierst oder ob du einen großteil normal modellierst und nur auf einzelne objekte total übertriebene tesselation drauf klatscht durch die viele polygone kleiner als pixelgröße werden.
Kalmar
2010-03-08, 15:32:37
Wenn nicht mal der Hersteller des Lüfters ihn führt und Google kein vernünftiges Ergebnis ausspuckt, scheint dieser Lüft nicht zu existieren. Da hat man wohl einfach mal einen Fake Aufkleber erstellt.
oder nen vorhandes model an die bedürfnisse von nv angepasst und würd nur für nv produziert .. klar das er dann nicht öffentlichgelistet ist ..
wir werden es sehen, von welcher firma sind den die andern lüfter bei nv karten ? gibt es eine handelsbeziehung zwischen den unternehmen ? das wären die fragen die klarheit schaffen würden nur leider weiss ich net wie man das herraus finden kann ..
im entefekt sind wir net viel schlauer als vorher .. wie schon seit wochen rumstochern in der nebelsuppe .. :-(
Das die Ampere überhaupt nichts mit der tatsächlichen Drehzahl zu tun haben ist euch aber schon klar? Weder der Wirkungsgrad des Lüfters ist bekannt, noch die tatsächlich vom Fan-Controller angelegte Spannung.
Bei dem Kühlblock und der TDP ist es komplett unwahrscheinlich, dass wir es mit einem lauten Kühler zu tun haben werden. Das wird natürlich aber völlig zur Seite geschoben.
wenn der lüfter wirklich von delta kommt und kein fake ist hat man die werte für den lüfter :
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7889897&postcount=14714
die frage ist wie relevant so ein worst case ist bzw. was bei ati überhaupt limitiert.
es ist etwas vollkommen anderes, ob du z.B. die komplette geometrie eines spiels u.a. mit hilfe von tesselation modellierst oder ob du einen großteil normal modellierst und nur auf einzelne objekte total übertriebene tesselation drauf klatscht durch die viele polygone kleiner als pixelgröße werden.
Wieso ist die Tesselation bei der Unigine "übertrieben"? Für ordentliches Displacement-Mapping ist das gerechtfertigt, und LOD haben sie ja auch implementiert. Das sie das Displacement von der Stärke total übertreiben ist halt für den Showeffekt, aber das ändert ja kaum was an der benötigten Geometrie-Menge - auch wenn man es dezent einsetzt.
Ich vermute, dass das die Spiele relativ schnell einsetzen werden, weil die Displacement-Map bekommt man direkt aus der Content-Pipeline, weil man eh Normalmaps erzeugen muss. Mit D3D11 kann man es im Gegensatz zu bisher auch ziemlich einfach in die bestehende Render-Pipeline einfügen.
Bis die Entwickler Tesselation richtig dezent einsetzen, zieht mindestens noch ein Jahr ins Land.
Nochmal: Die Geometrie-Menge die Unigine erzeugt ist für Displacement-Mapping eigentlich nicht übertrieben. Das "undezente" ist nur die Stärke des Offset-Faktors.
Und ich widerspreche dir da. Das wird sich ziemlich schnell zumindest als Option in den Menüs finden, weil es so einfach zu realisieren ist. Allerdings werden dann alle über den Performanceeinbruch bei "minimal besserer Optik" heulen.
LovesuckZ
2010-03-08, 16:30:42
Die Kritik ist ua, dass mehr als die Hälfte der "neuen" Dreiecke, die durch die Tessellation entstehen, gecullt werden.
Im gesamten Lauf sind es aufgrund des dynamischen LoDs weniger Dreiecke die gecullt werden müssen:
As for the second time, per the entire frame(all states) average culling rates are 76%/69% for untessellated/tessellated respectively, with 13.6 times more input primitives in the tessellated case. The base idea was(and still is) that there are ample benefits to be had via more clever use of amplification rather than smashing it in. Doing extra vertex shading for some 200k primitives that get discarded is something that tends to get lost in the noise, but doing domain shading for the vertices of a few mln primitives that get eventually discarded is a different kettle of fish, IMHO. We can guess that it's one of the areas where the updated Heaven demos will improve.
Und laut Jawed sind es folgende Polygonzahlen:
Aha. In theory tessellation lowers percentage of culling, because the number of triangles varies with distance to camera and "back faces" with lower triangle density are further from the camera. Also, tessellated stuff that's occluded by the dragon should have lower triangle density than the dragon, again due to LOD-adaptive tessellation.
13.6x primitives implies that there's only around 120,000 in the untessellated version, assuming the 1.6 million referenced in the B3D article. Fairly rough estimate though, because amplification varies with distance from camera. Despite that, 120,000 is paltry for a game scene these days, isn't it?
http://forum.beyond3d.com/showpost.php?p=1403665&postcount=2937
Kalmar
2010-03-08, 16:35:07
die frage ist wie leicht kann man das in eine grafikengine einbauen und welchen vorteil haben die spiel davon? wie leicht gibt es einen regler dafür ?
wenn man es einfach einbaun kann, ist es sehr wahrscheinlich das es schnell verbreitung findet frage ist nur ob die grafikkarten damit noch genügenpower liefern .. und ob nun 22 oder 27 fps spielbar ist beides net ^^
die frage ist wie leicht kann man das in eine grafikengine einbauen und welchen vorteil haben die spiel davon? wie leicht gibt es einen regler dafür ?
Das kommt auf das exakte Shadersystem an. Wenn es sehr dynamisch ist wie bei Crysis ist es überhaupt kein Problem. Man setzt für alle Materialien die Tesselation haben sollen einfach entsprechende Hull- und Domain-Shader.
Das ist jetzt etwas vereinfacht, aber es ist im Gegensatz zu alten Verfahren wirklich einfach zu integrieren, weil man die Draw-Calls an sich nicht ändern muss - nur Shader.
Mr. Lolman
2010-03-08, 16:42:35
Wieso ist die Tesselation bei der Unigine "übertrieben"? Für ordentliches Displacement-Mapping ist das gerechtfertigt, und LOD haben sie ja auch implementiert. Das sie das Displacement von der Stärke total übertreiben ist halt für den Showeffekt, aber das ändert ja kaum was an der benötigten Geometrie-Menge - auch wenn man es dezent einsetzt.
Zumindest das LOD ist aber sehr suboptimal engesetzt und offensichtlich haben die Unienginefritzen das auch bemerkt und mit nem besseren Algorithmus 30% Mehrleistung rausgeholt.
Mag sein. Ich habe das Demo bisher nur in Videos gesehen und deshalb nicht näher begutachtet.
Ich wollte nur sagen, dass man für Displacement-Mapping eben viel kleine Geometrie braucht und damit auch relativ viel Culling hat. Da hilft auch das beste LOD nicht.
Schlammsau
2010-03-08, 16:51:48
Da leider kein 5870 User einen Durchlauf mit Fraps aufzeichnet, sage ich: Es gibt keine Unterschiede zwischen 1.0 und 1.1, die relevant sind. Die vorhandenen Werte vom Drachen mit 1.0 und dem Frameverlauf von nVidia bestätigen dies.
Du kannst gerne das Gegenteil mit einem Frameverlauf beweisen.
Wie versprochen, der Frameverlauf meiner 5850@800/1200Mhz
Unigine Heaven Demo 1.0, 1920x1080, DX11, Shaders High, Tesselation on, 1xAA, 1xAF, kompletter Durchlauf
Catalyst 10.3 Preview
http://www.abload.de/img/unbenanntur3s.png
Noch was anderes. Wie siehts bei Kollisionsabfragen aus? Bei Truform(soweit ich mich noch erinnern kann), sollte es dort kein Problem gegeben haben, da die Objekte sich nicht so stark geändert haben. Auch wird es meistens eh nicht objekt-"genau" umgesetzt. Aber bei Tesselation siehts teilweise schon sehr krass aus.
Theoretisch kann man beim Raycasting dafür auch die Displacement-Map berücksichtigen. Aber das wird wohl kaum jemand machen, da hast du recht.
Schlammsau
2010-03-08, 17:11:27
Okay, dann war meins hier jetzt überflüssig. ;)
Grüße Mmmmmh
meins is schöner :)
Da leider kein 5870 User einen Durchlauf mit Fraps aufzeichnet, sage ich: Es gibt keine Unterschiede zwischen 1.0 und 1.1, die relevant sind. Die vorhandenen Werte vom Drachen mit 1.0 und dem Frameverlauf von nVidia bestätigen dies.
Du kannst gerne das Gegenteil mit einem Frameverlauf beweisen.
Wie versprochen, der Frameverlauf meiner 5850@800/1200Mhz
Unigine Heaven Demo 1.0, 1920x1080, DX11, Shaders High, Tesselation on, 1xAA, 1xAF, kompletter Durchlauf
Catalyst 10.3 Preview
http://www.abload.de/img/unbenanntur3s.png
LovesuckZ
2010-03-08, 17:17:32
Sieht vom Verlauf ziemlich identisch aus mit dem Graphen aus dem VIdeo:
http://plaza.fi/s/f/editor/images/20100305heaven.jpg
mapel110
2010-03-08, 17:20:48
http://www.semiaccurate.com/2010/03/08/nvidias-gtx480-case-dissected/
Nvidia's GTX480 case dissected
Neues von Charlie. Muss auch erstmal lesen.
/edit
Geht nur bissl um Kühlung und irgendwelche Lüftergrößen. Uninteressant.
Schlammsau
2010-03-08, 17:35:11
hier mit DX10 und DX11 Tesselation off
http://www.abload.de/img/unbenanntipi7.jpg
Sieht vom Verlauf ziemlich identisch aus mit dem Graphen aus dem VIdeo:
http://plaza.fi/s/f/editor/images/20100305heaven.jpg
Warum ist die 5870 in dem Diagramm von nVidia genauso schnell wie meine 5850? :freak:
Kalmar
2010-03-08, 18:31:02
also jetzt könnte ich ne erklärung für version 1.1 des benchmarks haben und zwar wenn bei AA = off der bildschrim schwarz bleibt, aber bei nv ist es aus, wie man auf dem bild schön sehen kann ...
deine karte ist schneller wie schon im beitrag der spielwiese bei 140 und bei 230 ist deine karte wohl so 10% schneller als die 5870 im video
http://www.abload.de/img/480gtxz1tz.jpg (http://www.abload.de/image.php?img=480gtxz1tz.jpg)
edit schade ein paar schöne beiträge sind auf der spielwiese -.-
y33H@
2010-03-08, 18:31:33
Fake or not? (http://kingsam15.blogspot.com/2010/03/nvidia-gtx-480-reviewed-and-benchmarked.html)
cipoint
2010-03-08, 18:32:00
Wurden hier eben einfach so mal ein paar Seiten Thread abgeschnitten?!
Schlammsau
2010-03-08, 18:33:04
Wo ist der restliche Thread hin?
Hab so ein schönes Diagramm gemacht.
http://www.abload.de/img/overallorou.jpg
Wurden hier eben einfach so mal ein paar Seiten Thread abgeschnitten?!
Frage mich auch was das soll. Da wurden viele wertvolle Beiträge einfach zersägt. *kopfschüttel*
LovesuckZ
2010-03-08, 18:34:49
Fake or not? (http://kingsam15.blogspot.com/2010/03/nvidia-gtx-480-reviewed-and-benchmarked.html)
Fake. Guck dir doch die Werte an. Manchmal ist weniger mehr.
Wo ist der restliche Thread hin?
Hab so ein schönes Diagramm gemacht.
http://www.abload.de/img/overallorou.jpg
Und jetzt nochmal 725Mhz/1200Mhz - also nur eine Speicherübertaktung.
LovesuckZ
2010-03-08, 18:35:31
/edit: bitte löschen.
Menace
2010-03-08, 18:37:00
Kann nicht mal jemand mit einer 5870 einen Frameverlauf machen? Dann zeigt sich gleich, was die Ursache ist.
Edit: Vielleicht ist die Tesselation-Leistung bei der 5870 und 5850 ähnlich.
Kalmar
2010-03-08, 18:39:16
mit orginaltakt sieht das der 5870 bei nv verdammt ähnlich von den werten, nicht das die dort einfach nen "Tippfehler" haben :-(
Warum ist die 5870 in dem Diagramm von nVidia genauso schnell wie meine 5850? :freak:
Hat NVidia denn gesagt, mit welchen Settings der Benchmark gemacht wurde?
cipoint
2010-03-08, 18:40:42
Ich war ein paar Wochen nicht auf dem Laufenden. Früher hieß es, der Fermi würde eine schwache Tesselationsleistung haben, weil er in Software tesselieren muss. Warum hat sich das nun umgedreht?
HarryHirsch
2010-03-08, 18:41:31
Kann nicht mal jemand mit einer 5870 einen Frameverlauf machen? Dann zeigt sich gleich, was die Ursache ist.
Edit: Vielleicht ist die Tesselation-Leistung bei der 5870 und 5850 ähnlich.
http://www.abload.de/img/unbenannt13ri0.gif (http://www.abload.de/image.php?img=unbenannt13ri0.gif)
Edit: Vielleicht ist die Tesselation-Leistung bei der 5870 und 5850 ähnlich.
Tesselation / Setup / Raster ist bei der 5870 genau 17% schneller.
also jetzt könnte ich ne erklärung für version 1.1 des benchmarks haben und zwar wenn bei AA = off der bildschrim schwarz bleibt, aber bei nv ist es aus, wie man auf dem bild schön sehen kann ...
AA off = 1xAA. Eben nur ein Sample pro behandelten Pixel.
boxleitnerb
2010-03-08, 18:46:34
Das ist deutlich (!) mehr als der Verlauf auf der NV-Folie. Hm...
Menace
2010-03-08, 18:47:29
@ HarryHirsch:
Frage zum Frameverlauf Bereich 41 - 45. Sind die Werte genau bzw. ist die Auflösung genau? Falls ja, stimmt bei nvidia definitiv etwas nicht:
HarryHirsch = 40
nvidia = 30
Armaq
2010-03-08, 18:47:32
Wow, mehrere wertvolle Beiträge am Stück und verdammt, die Leistung der Karten bei Tesselation ist eigentlich gleich! Womit ich nicht identisch meine.
Menace
2010-03-08, 18:48:05
Tesselation / Setup / Raster ist bei der 5870 genau 17% schneller.
Danke Dir für die Antwort.
Mmmmmh
2010-03-08, 18:48:42
Frage an die Radeon-Besitzer. Was verändert sich wenn ihr AI auf Off stellt? Vielleicht liegt da der Hase im Pfeffer, dass die Werte im Video niedriger sind als die hier gezeigten, oder is das bei den neuen ATI-Karten nicht mehr so von Belang?
@ HarryHirsch:
Frage zum Frameverlauf Bereich 41 - 45. Sind die Werte genau bzw. ist die Auflösung genau? Falls ja, stimmt bei nvidia definitiv etwas nicht:
HarryHirsch = 40
nvidia = 30
Das stimmt. Sieht so aus, als wäre seine CPU schneller.
hier mit DX10 und DX11 Tesselation off
http://www.abload.de/img/unbenanntipi7.jpg
Warum ist die 5870 in dem Diagramm von nVidia genauso schnell wie meine 5850? :freak:
was lernen wir da raus, ohne tesslation ist selbst meine alte GTX260 schnell genug (47fps avg in 1920) für ein benchähnliches szenario und mit tesslation in diesem umfang kann man wohl so ziemlich alles in die tonne kloppen
ohne slider für leichte Tesslation wirds wohl egal ob faili oder zypresse erstmal nicht gehen
Schlammsau
2010-03-08, 18:49:55
Und jetzt nochmal 725Mhz/1200Mhz - also nur eine Speicherübertaktung.
Jupp....die reine Speichertakterhöhung um 20%! bringt fast gar nichts!
http://www.abload.de/img/overall19gk.jpg
HarryHirsch
2010-03-08, 18:51:02
Das stimmt. Sieht so aus, als wäre seine CPU schneller.
ich hab nen e8400 @ default
Das stimmt. Sieht so aus, als wäre seine CPU schneller.
NV hat laut eigenen Aussagen den Corei7 mit 3.33 Ghz eingesetzt.
Da müsste man schon eine sehr weit übertakte CPU haben um auf 25% Mehrleistung zu kommen (bei der niedrigen Framerate ist das aber eher unwahrscheinlich)
Undertaker
2010-03-08, 18:52:20
Sind denn bei der NV-Folie die Settings, auch bzgl. AF u.ä., bekannt?
Schlammsau
2010-03-08, 18:52:44
http://www.abload.de/img/unbenannt13ri0.gif (http://www.abload.de/image.php?img=unbenannt13ri0.gif)
Treiber?
haste mal den Frameverlauf?
Bucklew
2010-03-08, 18:53:54
http://www.semiaccurate.com/2010/03/08/nvidias-gtx480-case-dissected/
Nvidia's GTX480 case dissected
Neues von Charlie. Muss auch erstmal lesen.
Langweilig. Weil man überall lesen kann, dass die Karten längst nicht so heiß werden wie es allgemein von Charlie behauptet wurden, muss er es jetzt halt über den indirekt weg mit den zertifizierten Gehäuse machen.
Aber ich find diese spezielle Kühlung eigentlich sehr gut, ist sicherlich auch was für Leute ohne SLI o.Ä.
LovesuckZ
2010-03-08, 18:54:31
Danke. Dann limitiert vorallem im Tessellationsteil nicht die Textur- und Rechenleistung. Somit liegt der Unterschied bei maximal 17,24%.
Und wenn dann nichtmal alles durchschlägt, ist der Unterschied - vorallen <30FPS Bereichen - ziemlich banal.
Am Ende ist es sowieso ein Marketingvideo gewesen. Und vorallem die Tessellationswerte sind höher als bei er 5850. Ausschlaggebend kann alles sein: Treiberversion, System, Durchlauf, Version des Benchmarks.
Danke Dir für die Antwort.
Ich muss da noch was hinzufügen:
Mit Tesselation meine ich natürlich nicht die Hull- und Domain-Shader. Die laufen auf der 5870 natürlich bis zu 30% schneller als auf der 5850, weil sie entsprechend mehr Rechenleistung hat.
y33H@
2010-03-08, 18:58:47
Woran machst du die 17% fest (lass mich raten: Core-Takt, das die Tessellation-Unit die gleiche ist)? Kannst du das bitte mal aufzählen? =)
Schlammsau
2010-03-08, 18:59:22
ich hab nen e8400 @ default
Hast den 10.3 benutzt?
Kannst du mal den Frameverlauf als Anhang posten?
Möchte den auch in meine Grafik reinbasteln.
Woran machst du die 17% fest (lass mich raten: Core-Takt, das die Tessellation-Unit die gleiche ist)? Kannst du das bitte mal aufzählen? =)
Natürlich am Core-Takt.
y33H@
2010-03-08, 19:00:24
Zu spät editiert ;) Der Tessellator ist ja identisch, bleibt nur der Core-Takt.
Fetza
2010-03-08, 19:00:39
Quatsch, GF104 wird die kleinere Version des Fermi. Bei Nvidia war es schon immer so, dass die Chips mit höherem Namen die kleineren Chips waren.
G92 -> G94 -> G96 -> G98
Hmm ok, habe ich dann diesen text falsch verstanden, oder stimmt der einfach nicht?
"Anscheinend wird der lang spekulierte Refresh GF104 sehr zeitnah zum Fermi-Launch erscheinen ebenso wie die ersten Low-End- und Mainstream-Karten."
http://hardware-infos.com/news.php?news=3456
Bucklew
2010-03-08, 19:05:52
Hmm ok, habe ich dann diesen text falsch verstanden, oder stimmt der einfach nicht?
"Anscheinend wird der lang spekulierte Refresh GF104 sehr zeitnah zum Fermi-Launch erscheinen ebenso wie die ersten Low-End- und Mainstream-Karten."
http://hardware-infos.com/news.php?news=3456
Der stimmt nicht. GF104 wird kein Refresh des Fermi sondern einer der kleineren Ableger.
Nakai
2010-03-08, 19:06:23
http://www.abload.de/img/unbenannt13ri0.gif (http://www.abload.de/image.php?img=unbenannt13ri0.gif)
Sieht vom Verlauf ziemlich identisch aus mit dem Graphen aus dem VIdeo:
http://plaza.fi/s/f/editor/images/20100305heaven.jpg
Anderer Prozessor, andere Auflösung und andere Settings, einfache Marketingfolien.
Ansonsten kann man sich die fast 50% höheren Werte nicht erklären.
mfg
Schlammsau
2010-03-08, 19:06:56
Alter Schwede......
http://www.abload.de/img/overallsxu5.jpg
http://www.abload.de/img/20100305heaven8uf3.jpg
Die Stock 5870 ist nochmal deutlichst über meiner übertakteten 5850!
Gleicher Treiber wie ich, nur ein langsamerer Unterbau wurde verwendet.
Das führt die Werte nVidias jetzt komplett ad absurdum!
dildo4u
2010-03-08, 19:14:43
Die Stock 5870 ist nochmal deutlichst über meiner übertakteten 5850!
Gleicher Treiber wie ich, nur ein langsamerer Unterbau wurde verwendet.
Das führt die Werte nVidias jetzt komplett ad absurdum!
Aus deinen und NV Werten kann man lesen das die ATI Tesslations untauglich ist,mher sollte der Bench whol auch nicht zeigen.Die Abstürze unter 30fps sagen alles mit AA wird's nur schlimmer.
LovesuckZ
2010-03-08, 19:17:19
Alter Schwede......
http://www.abload.de/img/overallsxu5.jpg
http://www.abload.de/img/20100305heaven8uf3.jpg
Die Stock 5870 ist nochmal deutlichst über meiner übertakteten 5850!
Gleicher Treiber wie ich, nur ein langsamerer Unterbau wurde verwendet.
Das führt die Werte nVidias jetzt komplett ad absurdum!
Interessant, dass der Tessellationteil näher an nVidia's Ergebnisse ist als der Rest. Normalerweise müsste dieser sich dann auch deutlicher wegbewegen.
Vielleicht doch Version 1.1. Aber dies werden wir sowieso erst am 27.März herausfinden.
Schon geil: Als erstes wurde Version 1.1 in frage gestellt und als dann das herauskommt, ist es plötzlich egal. ;D
Warten wir doch einfach ab. Irgendwer wird schon am 27. März den selbe Ablauf mit Version 1.0 machen.
Warum sollte die v1.1 ausgerechnet an den Stellen wo die 5870 stark ist deutlich langsamer sein? Das müsste schon eine sehr mysteriöse Änderung sein.
Was ist da jetzt gefälscht?
LovesuckZ ist zwar nicht neutral, aber er hat zumindest ein gewissen Niveau auf dessen Basis man diskutieren kann. Du bist bestenfalls als Pausenclown zu gebrauchen.
boxleitnerb
2010-03-08, 20:08:51
Zum xmal sie haben die 5870 mit AA und/oder AF gebencht die 480 auch deshalb hat sie auf der Folie beim Drachen weniger fps als im Video.
Und das beweist du womit?
@Harry Hirsch, könntest du bitte nochmal mit 4xAA und 16xAF benchen? Dann könnten wir wieder vergleichen. Sonst ist es nur wieder pure Spekulation.
Mayk-Freak
2010-03-08, 20:30:12
Habe mal ungefähr die selbe Stelle mit selben Einstellungen miteinander verglichen. Die GTX hat an der Stelle 45 Fps und die HD 23 Fps.
i7 3337MHz GTX480
http://www.abload.de/thumb/unginee7xk.jpg (http://www.abload.de/image.php?img=unginee7xk.jpg)
i7 3337MHz HD5870
http://www.abload.de/thumb/selbestellermrf.jpg (http://www.abload.de/image.php?img=selbestellermrf.jpg)
Gestrandet
2010-03-08, 20:44:27
Und hier noch als kleines "Schmankerl", eine 5870@1020@1200Mhz
Kannst du das Diagramm bitte mal auf die 5850 normalisieren? Also so, dass gleiche prozentuale Unterschiede äquidistante Kurvenverläufe bewirken.
Ailuros
2010-03-08, 22:10:31
Fuer Heaven/Drachen/Unigine macht gefaelligst einen anderen Thread auf.
I-wie hatts da schon wieder was gelöscht. Vllt sollte man den Thread mal dicht machen und n 2. eröffnen. Evtl is ja die Forensoftware mit der Größe überfordert oder so...
Das einzige was hier ueberfoerdert ist ist meine Gedult. Unendlicher Spam, OT oder weiss der Geier noch was in manchen gegenseitigen Fanboys Sandkasten noch sonst reinpasst. Es gehen ganze Seiten in die Spielwiese.
Wenn Ihr ueber Heaven diskuttieren wollt, gibt es das Benchmark-Forum oder macht einen anderen Thread hier dafuer auf. Der Thread bleibt GF100 und nichts anderes.
Auch wenn sie sich auf den Fermi-Nvidia-Benchmark sich beziehen? :rolleyes:
Irgendwann zieht man einen Strich oder sollte einen Strich ziehen. Von mir aus wenn es Euch so stark interessiert macht einen anderen Thread dafuer auf.
LovesuckZ
2010-03-08, 22:33:23
Mal ein Vergleich der Kühllösungen zwischen GTX280, GTX285 und GTX470:
http://www.imgbox.de/users/public/images/s50337j76.png
Naja, sieht nicht nach einer TDP von 220 Watt aus.
dargo
2010-03-08, 23:14:54
Warum zum Henker wählt man einen kleineren Lüfter? Es kann doch nicht sein, dass es wirklich auf die letzten ~5€ ankommt. Imho wird hier wieder an der falschen Stelle gespart. :usad:
Rein nach der Bauart zu Urteilen mehr als GTX285 und weniger als GTX280.
Der Kühler ist ca. gleich groß wie der der 285 hat aber eine Heatpipe mehr und die Heatpipes sind auch dicker.
Sieht nach sparsam und billig aus. Allerdings wundern mich da die 4 Heatpipes. Bei den GTX 200 hat scheinbar ein deutlich höherer Heatpipeabstand gereicht.
Warum zum Henker wählt man einen kleineren Lüfter? Es kann doch nicht sein, dass es wirklich auf die letzten ~5€ ankommt. Imho wird hier wieder an der falschen Stelle gespart. :usad:
Paßt doch doch zu den 5 analog billig Spawa, das Ding wird max 300€ kosten und ehe Wasserkühler kommen biste taub :D
Warum zum Henker wählt man einen kleineren Lüfter? Es kann doch nicht sein, dass es wirklich auf die letzten ~5€ ankommt. Imho wird hier wieder an der falschen Stelle gespart. :usad:
Ich denk mal das hängt mit dem PCB Layout zusammen.
Möglichst kurz und entsprechend günstig. Dazu musste noch irgendwo Platz für die Lüftungsschlitze im PCB sein.
crux2005
2010-03-08, 23:24:57
Warum zum Henker wählt man einen kleineren Lüfter? Es kann doch nicht sein, dass es wirklich auf die letzten ~5€ ankommt. Imho wird hier wieder an der falschen Stelle gespart. :usad:
full ack
gleich ein Grund weniger eine GeForce zu kaufen :mad:
dargo
2010-03-08, 23:25:00
Ich denk mal das hängt mit dem PCB Layout zusammen.
Möglichst kurz und entsprechend günstig. Dazu musste noch irgendwo Platz für die Lüftungsschlitze im PCB sein.
Hmm... Platz für den gleichen Lüfter wie bei GTX280/285 wäre ja da. Ich weiß allerdings nicht wofür diese Freiräume rechts neben dem Lüfter der GTX470 gut sein sollen, zumal sie unkenntlich gemacht wurden (warum auch immer).
Hmm... Platz für den gleichen Lüfter wie bei GTX280/285 wäre ja da. Ich weiß allerdings nicht wofür diese Freiräume rechts neben dem Lüfter der GTX470 gut sein sollen, zumal sie unkenntlich gemacht wurden (warum auch immer).
Da sind die Kondensatoren und Versorgungsstecker im Weg. ;)
Die 480 ist ein Stück länger, die Spawas sind nicht am Rand sondern wohl geordnet in einer Reihe, der Lüfter hat die ganze Breite für sich.
Timolol
2010-03-08, 23:42:01
full ack
gleich ein Grund weniger eine GeForce zu kaufen :mad:
Schwachsinn darauf Rückschlüsse zu ziehen! Vernünftige Anordnung des Lüfters und optimale Nutzung des Luftstroms ist wichtiger als den größten Lüfter dranzuklatschen dens gibt. Beim Radiallüfter ist die Strömungsgeschwindigkeit ausen am höchsten, ergo am unteren Teil des Lufttunnels auf dem Bild. Der Lüfter wandert weiter hoch, der Luftstrom wird besser genutzt, die Rippen sind enger und bekommen so noch mehr Fläche, vermutlich effektiver bei einer so hohen Luftgeschwindigkeit.
Würde sicher schöner gehen aber dann müsste man die Karte und den Lufttunnel anderst formen. Alles nicht so einfach!
Mir gefällts besser als bei den alten280 und 285er kühlern
Und dadurch Rückschlüsse auf die Verlustleistung ziehen geht im grunde auch nicht. Zur Not lässt man halt den Lüfter 3 mal so schnell laufen und kann vlt sogar bis 400W Kühlen....
Glaub ich zwar nicht, aber möglich ist viel.
Auch zu beachten wäre das der Radiallüfter jetzt auf beiden Seiten Luft ziehen kann, also Vorder und Rückseite! Die Platine hat ja entsprechende Löcher. Das ist sicher der richtige Schritt. Deswegen muss vermutlich der Lüfter nichtmal so hoch drehen um gleich viel fördern zu können wie nur ein Frontansaug.
crux2005
2010-03-08, 23:47:04
Naja, wenigstens wird die GTX 480 einen größeren Lüfter haben. Sieht man auch am "Weißen Kreis" auf dem PCB: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/weitere_bilder_infos_gtx_470_480/ Den hat nVidia sicher nicht aus Spaß gegenüber der GTX 470 vergrößert. :rolleyes:
.... möglich ist viel.
Entweder der Lüfter dreht irre schnell und kann 300W abführen oder er dreht lahm und muss nur 180W abführen.
Absolutes Rätselraten, aber angesichts der 480er und den PCB Bildern halte ich 300W und irre laut für völligen Schwachsinn.
dargo
2010-03-08, 23:53:23
Naja, wenigstens wird die GTX 480 einen größeren Lüfter haben. Sieht man auch am "Weißen Kreis" auf dem PCB: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/maerz/weitere_bilder_infos_gtx_470_480/ Den hat nVidia sicher nicht aus Spaß gegenüber der GTX 470 vergrößert. :rolleyes:
Ah, an diesen Bildern sieht man natürlich klar warum man einen kleineren Lüfter für die 470 wählen musste. :)
Godmode
2010-03-08, 23:57:41
Ah, an diesen Bildern sieht man natürlich klar warum man einen kleineren Lüfter für die 470 wählen musste. :)
Interessant finde ich auch das Loch im PCB, das hat man bisher nur bei den Dual-PCB-Platinen gesehen?
StefanV
2010-03-08, 23:57:56
Sieht nach sparsam und billig aus.
Nö, alles eine Frage der Drehzahl und des Luftdruckes.
Für mich schauts nicht so aus, als ob das Teil bei Last besonders leise sein wird, aber mal abwarten und Tee rauchen.
Wobei ich auch diese Radiallüfter hasse wie die Pest, die sind einfach MÜll...
Spasstiger
2010-03-09, 00:06:42
Wobei ich auch diese Radiallüfter hasse wie die Pest, die sind einfach MÜll...
Gegenüber dem originalen Axiallüfter auf meiner Radeon HD 4850 von Gainward ist der Radiallüfter meiner Radeon HD 2900 Pro ein echter Segen. Der Lüfter der 2900 Pro erzeugt einfach nur ein tieffrequentes Rauschen ohne Nebengeräusche, während der Lüfter der Gainward HD 4850 hochfrequent rumsägt. Auch auf niedrigster einstellbarer Drehzahl war der Gainward-Lüfter nicht zu ertragen. Hab jetzt eine Dreislotkarte draus gemacht, indem ich einen 92-mm-Lüfter auf den Kühlkörper geschnallt habe. Schön leise und genauso kühl wie vorher.
Ich finde Radiallüfter pauschal nicht schlecht. Bei 4500 U/min (was nie erreicht wird und im Normalbetrieb für exzellente Temperaturen sorgt) hat man bei der HD 2900 Pro zwar das Gefühl, das ein Orkan wütet, aber das Geräusch ist immer noch relativ tieffrequent und rauschartig. Die Geräuschcharakteristik finde ich durchaus angenehm.
Wobei ich auch diese Radiallüfter hasse wie die Pest, die sind einfach MÜll...
Klar, deshalb werden sie ja auch seit Jahren fast ausschließlich auf den High-End-Karten eingesetzt :facepalm:
Eggcake
2010-03-09, 00:16:23
Kann ich jetzt auch nicht ganz nachvollziehen. 8800 GTS 320 Radiallüfter --> sehr angenehmes Rauschen. 4850 GS Axiallüfter --> obwohl eigentlich leise(r) sehr nerviges, typisches Lüftergeräusch. HD 5850 Radiallüfter --> wieder dasselbe wie bei der 8800.
Mag vielleicht Geschmackssache sein, aber wenn's irgendwie geht würde ich jederzeit einen Radiallüfter bevorzugen...
Bucklew
2010-03-09, 00:17:22
Gegenüber dem originalen Axiallüfter auf meiner Radeon HD 4850 von Gainward ist der Radiallüfter meiner Radeon HD 2900 Pro ein echter Segen.
Lautstärke ist halt nur das eine, die Charakteristik ist das andere. Ganz schlimm sind auch schnell und oft wechselnde Drehzahlen mit immer unterschiedlichem Klang, da kriegt man dann ja endgültig die Krise...
Warum zum Henker wählt man einen kleineren Lüfter? Es kann doch nicht sein, dass es wirklich auf die letzten ~5€ ankommt. Imho wird hier wieder an der falschen Stelle gespart. :usad:
Ich denke nicht, dass sie sich beim Topmodell auch die eventuelle Blöße geben werden, sondern qualitativ aus dem Vollen schöpfen werden.
Die 470 hingegen muss so billig wie möglich sein. Aber für einen echten 3DCenter-User kann eigentlich nur eine 480 in Frage kommen.
Wie sagte tombman: Kastriertes High End kommt mir nicht in den Rechner. :D
Dural
2010-03-09, 00:22:13
Hab schon vor einer woche gesagt das dass teil keine 220Watt hat...
Im grunde genommen sag ich das schon seit Monaten... Wo fast alle noch behauptet haben die Teslas haben 225Watt und das ist FIX...
das "beste" am GTX470 Lüfter ist ja das er 12V@1,8A hat :( >20W@100% alleine für den Lüfter....
http://translate.google.de/translate?js=y&prev=_t&hl=de&ie=UTF-8&layout=1&eotf=1&u=http%3A%2F%2Fwww.donanimhaber.com%2FGeForce_GTX_470in_sogutucusu_detaylandi-18522.htm&sl=tr&tl=de
hängt wohl mit dem kleineren Lüfter zusammen, irgendenwie muss er ja genug Luft durchschaufeln, daher benötigt er mehr Power, was zu mehr Lärm führt.
GTX 470 = FX 5800 reloaded? Das müsste nun echt nicht sein....
AwesomeSauce
2010-03-09, 02:16:53
Motkachler hier als Gast unterwegs? IB4TL...
http://www.computerbase.de/forum/showpost.php?p=7509288&postcount=79
http://www.computerbase.de/forum/showpost.php?p=7509519&postcount=81
Nö, alles eine Frage der Drehzahl und des Luftdruckes.
Für mich schauts nicht so aus, als ob das Teil bei Last besonders leise sein wird, aber mal abwarten und Tee rauchen.
Wobei ich auch diese Radiallüfter hasse wie die Pest, die sind einfach MÜll...
Du kennst die Drezahl nicht.
Stattdessen behauptest du Dinge, die du nicht belegen kannst. Ich kann mich nur wiederholen:
.... möglich ist viel.
Entweder der Lüfter dreht irre schnell und kann 300W abführen oder er dreht lahm und muss nur 180W abführen.
Absolutes Rätselraten, aber angesichts der 480er und den PCB Bildern halte ich 300W und irre laut für völligen Schwachsinn.
Motkachler hier als Gast unterwegs? IB4TL...
http://www.computerbase.de/forum/showpost.php?p=7509288&postcount=79
http://www.computerbase.de/forum/showpost.php?p=7509519&postcount=81
HD5 (welche?) sollen nach ihm 0,8A Lüfter haben.
Schreib ihm mal, das der GTX 280 Lüfter (die Karte die nach den Bildern x-mal so viel Metall hat) einen 0,48A Lüfter hat.
Das wird ihm schwer zu schaffen machen, ist die GTX 280 so leise im Vergleich?
_DrillSarge]I[
2010-03-09, 07:41:19
das "beste" am GTX470 Lüfter ist ja das er 12V@1,8A hat :( >20W@100% alleine für den Lüfter....
http://translate.google.de/translate?js=y&prev=_t&hl=de&ie=UTF-8&layout=1&eotf=1&u=http%3A%2F%2Fwww.donanimhaber.com%2FGeForce_GTX_470in_sogutucusu_detaylandi-18522.htm&sl=tr&tl=de
hängt wohl mit dem kleineren Lüfter zusammen, irgendenwie muss er ja genug Luft durchschaufeln, daher benötigt er mehr Power, was zu mehr Lärm führt.
GTX 470 = FX 5800 reloaded? Das müsste nun echt nicht sein....
heftig. klingt nach nem ziemlichen fön.
N0Thing
2010-03-09, 09:04:22
Die Geschichte mit dem Lüfter war schon ein paar Seiten vorher und die Ampere-Werte sagen nichts über den Geräuschpegel im praktischen Einsatz aus.
_DrillSarge]I[
2010-03-09, 09:11:44
Die Geschichte mit dem Lüfter war schon ein paar Seiten vorher und die Ampere-Werte sagen nichts über den Geräuschpegel im praktischen Einsatz aus.
[ ] du kennst die delta lüfter.
€: das hf modell hab ich jetzt nicht gefunden, aber schon das (deutlich) schwächere 70mm hd modell erreicht angenehme 42dba ;D
zumal die hf-modelle auch noch für umdrehungen von >4000 pro minute gebaut sind....
€€: jedenfalls verheisst das gar nichts gutes. mir ist auch nicht ganz klar, weshalb man dieses modell verbauen sollte. bei nichtmal bei voller drehzahl erzeugen die teile schon so einen luftstrom, dass man eigentlich keinen einzigen anderen lüfter im pc mehr benötigt :D. zudem sind die turbinenartigen betriebsgeräusche der hochleistungsmodelle von delta einfach abartig.
N0Thing
2010-03-09, 09:33:28
I[;7891380'][ ] du kennst die delta lüfter.
€: das hf modell hab ich jetzt nicht gefunden, aber schon das (deutlich) schwächere 70mm hd modell erreicht angenehme 42dba ;D
zumal die hf-modelle auch noch für umdrehungen von >4000 pro minute gebaut sind....
Doch durchaus, mir sind aber auch Dinge wie Lüftersteuerungen ein Begriff. Du kannst dir also die Sticheleien sparen, das bringt dem Thread rein gar nichts.
Mal ein Vergleich der Kühllösungen zwischen GTX280, GTX285 und GTX470:
http://www.imgbox.de/users/public/images/s50337j76.png
Naja, sieht nicht nach einer TDP von 220 Watt aus.
Die Finnen im Kühlblock stehen enger, das heisst der Block braucht zum Betrieb einen höheren Differenzdruck weil die enger stehenden Finnen einen höheren Strömungswiderstand darstellen.
Mehr Druck = höhere Drehzahl des kleineren Lüfters um diesen zu erzeugen = mehr Krach als bei den GT200.
Hinzu kommt dass diese eng stehenden Finnen sehr empfindlich zum Zustauben neigen und dann noch mehr Druck nötig ist um die Kühlleistung zu halten, sprich Lüftersteuerung dreht noch mehr auf = noch mehr Krach nach einem halben Jahr Betrieb.
Aber der Delta hat ja genug "Reserven" in der Beziehung ;D
Botcruscher
2010-03-09, 11:32:04
Bei größeren Abständen nimmt man dann aber keinen Radial sondern wieder einen Axiallüfter. Wenn das Druckproplem entfällt sind diese deutlich im Vorteil.
Na schau dir einfach das Vergleichsbild an, da sieht mans ja recht gut.
Thunder99
2010-03-09, 11:41:14
Die Finnen im Kühlblock stehen enger, das heisst der Block braucht zum Betrieb einen höheren Differenzdruck weil die enger stehenden Finnen einen höheren Strömungswiderstand darstellen.
Mehr Druck = höhere Drehzahl des kleineren Lüfters um diesen zu erzeugen = mehr Krach als bei den GT200.
Hinzu kommt dass diese eng stehenden Finnen sehr empfindlich zum Zustauben neigen und dann noch mehr Druck nötig ist um die Kühlleistung zu halten, sprich Lüftersteuerung dreht noch mehr auf = noch mehr Krach nach einem halben Jahr Betrieb.
Aber der Delta hat ja genug "Reserven" in der Beziehung ;D
Korrekt. D.h. die GTX470 wird definitiv unter Last (Furmark) nicht leise :( sein. Die Ampere Angabe beim Lüfter sagt dies auch aus...
Aber mal abwarten was unabhängige Tests sagen
Ich würde mich nicht so auf den Lüfter fixieren.
Durch die engen Lamellen braucht man einen stärkeren Luftstrom.
Schon bei den existierenden Modellen heutiger Radiallüfter ist weniger die Lautstärke des Lüfters das Problem, sondern der starke Luftstrom.
Zwar ist der Ton in niedrigen Lagen ein angenehmes Rauschen, doch in höheren Stufen glaubt man sich in einem Orkan zu befinden oder fürchtet, dass der Rechner gleich abhebt.
Das sind zumindest meine Eindrücke aktueller Kühlmethoden die ich bei der GTX280 als auch bei der 4870X2 "erhört" habe.
James Ryan
2010-03-09, 11:49:39
Korrekt. D.h. die GTX470 wird definitiv unter Last (Furmark) nicht leise :( sein.
Definitiv ist da gar nichts.
Wartet doch einfach die paar Tage noch ab, ist ja echt schlimm hier! :freak:
MfG :cool:
Onkel Karl
2010-03-09, 11:52:51
Wir fragen uns halt einfach, ob, wenn man den 20W Delta auf 100% laufen lässt, der Rückstoss der ausströmenden Luft schon gross genug ist die Karte selbsttätig schweben zu lassen oder nicht?
Spasstiger
2010-03-09, 12:05:03
Wir fragen uns halt einfach, ob, wenn man den 20W Delta auf 100% laufen lässt, der Rückstoss der ausströmenden Luft schon gross genug ist die Karte selbsttätig schweben zu lassen oder nicht?
http://www.youtube.com/watch?v=oN4e_2r8fo4
mapel110
2010-03-09, 12:08:25
http://www.fudzilla.com/content/view/18008/34/
Nvidia stays silent on Fermi delay
Eine News ohne News. Respekt. ;D
http://www.fudzilla.com/content/view/18008/34/
Nvidia stays silent on Fermi delay
Eine News ohne News. Respekt. ;D
ähm, wenns keine News ist warum postest du den Link dann in den Thread ?^^
LovesuckZ
2010-03-09, 12:45:22
Wobei Fuad's Annahme falsch ist: nVidia's Entwicklung war knapp 7 Monate später fertig als die von AMD. Vom Tape-Out (Ende Juli) bis zum Launch brauchen sie genauso lange wie AMD - nämlich knapp 7 1/2 - 8 Monate. A1 war voll funktionsfähig. A3 wurde sehr schnell nach A2 zum Tape-Out gebracht. Da gibt es keine Anzeichen eines Fertigungsproblems. Ob man A2 schon in Produktion schicken hätte sollen? Ka, man weiß eben nicht, wie weit TSMC im Dezember schon war. Aber nach dem Tape-Out läuft alles relativ nach Zeitplan.
Wobei Fuad's Annahme falsch ist: nVidia's Entwicklung war knapp 7 Monate später fertig als die von AMD. Vom Tape-Out (Ende Juli) bis zum Launch brauchen sie genauso lange wie AMD - nämlich knapp 7 1/2 - 8 Monate. A1 war voll funktionsfähig. A3 wurde sehr schnell nach A2 zum Tape-Out gebracht. Da gibt es keine Anzeichen eines Fertigungsproblems. Ob man A2 schon in Produktion schicken hätte sollen? Ka, man weiß eben nicht, wie weit TSMC im Dezember schon war. Aber nach dem Tape-Out läuft alles relativ nach Zeitplan.
Was du verschweigst ist das AMD laut eigenen Angaben einige Monate zum warten verdammt war da die Fertigung schlicht noch nicht weit genug war.
Ailuros
2010-03-09, 13:11:34
Wobei Fuad's Annahme falsch ist: nVidia's Entwicklung war knapp 7 Monate später fertig als die von AMD. Vom Tape-Out (Ende Juli) bis zum Launch brauchen sie genauso lange wie AMD - nämlich knapp 7 1/2 - 8 Monate. A1 war voll funktionsfähig. A3 wurde sehr schnell nach A2 zum Tape-Out gebracht. Da gibt es keine Anzeichen eines Fertigungsproblems. Ob man A2 schon in Produktion schicken hätte sollen? Ka, man weiß eben nicht, wie weit TSMC im Dezember schon war. Aber nach dem Tape-Out läuft alles relativ nach Zeitplan.
Wenn die yields fuer 40G nicht so problematisch bis zum Januar gewesen waeren, haetten sie auch auf A2 noch in Q3 2009 produziert.
Thunder99
2010-03-09, 13:14:02
Ne andere Sache.
Meint ihr, die GTX480 kommt vorerst mit 480 ALU`s damit später eine 485 mit 512 erscheint (nachdem die Probleme beseitigt wurden)?
@ James Ryan: Hast ja Recht, aber ich traue den Lüfter ne ordentliche Turbine zu :freak:
Ailuros
2010-03-09, 13:14:44
Was du verschweigst ist das AMD laut eigenen Angaben einige Monate zum warten verdammt war da die Fertigung schlicht noch nicht weit genug war.
Eher einige Wochen und nicht Monate und man kann es auch leicht verifizieren wenn man weiss wann Cypress seinen tape out hatte.
Wenn die yields fuer 40G nicht so problematisch bis zum Januar gewesen waeren, haetten sie auch auf A2 noch in Q3 2009 produziert.
Ja, und wenn sie keinen Designfehler gemacht hätten dann hätten sie das auch getan.
Hab schon vor einer woche gesagt das dass teil keine 220Watt hat...
Im grunde genommen sag ich das schon seit Monaten... Wo fast alle noch behauptet haben die Teslas haben 225Watt und das ist FIX...
Und wo ist der Beweis,das du Recht hast??
Brauchen doch nur den Lüfter deutlich schneller laufen zu lassen (und somit deutlich lauter) und schon kann man auch mit dem GTX285 Kühler eine viel höhere TDP bewältigen.
Kurzum,die Lüfteroptik lässt uns nichts dazu sagen, ob wir 220TDP oder 170TDP bekommen werden.
James Ryan
2010-03-09, 13:27:04
Glaubt ihr allen Ernstes, NVIDIA ist so dämlich und verpasst der GTX470/480 einen lauten Lüfter, damit die Karten in den Reviews noch mehr* zerrissen werden?
MfG :cool:
*ich gehe davon aus, dass in jedem Review die Verspätung / Lieferengpässe kritisch angemerkt werden!
Glaubt ihr allen Ernstes, NVIDIA ist so dämlich und verpasst der GTX470/480 einen lauten Lüfter, damit die Karten in den Reviews noch mehr* zerrissen werden?
MfG :cool:
*ich gehe davon aus, dass in jedem Review die Verspätung / Lieferengpässe kritisch angemerkt werden!
Schau her, fassen wir mal ein wenig zusammen: Es gibt schon sehr lange Gerüchte das Fermi nahe an den 300W liegen wird. Auch AMD ist davon überzeugt. Was bei einem so großen Chip im übrigen auch nicht verwundert. Die GTX470 wird schon sehr lange mit den selben Specs (bis auf Speicher) wie die Tesla-Karten vermutet, diese gibt NV mit <=225W an. Wir wissen ebenso das die GTX480 >225W liegen wird, die GTX470 <225W. Wir sehen den Kühler der GTX470. Die Fins sind enger zusammen gerückt, der Lüfter wurde kleiner. Der Lüfter hat satte 1.8A bei 12V Nennspannung.
Es spricht IMO nicht wenig für >200W. Das ganze damit es schön billig ist und preiswert angeboten kann mit einer relativ günstigen Stromversorgung und nicht unbedingt einer silent-Kühlung. Aber wir werden sehen.
Ailuros
2010-03-09, 13:38:46
Ja, und wenn sie keinen Designfehler gemacht hätten dann hätten sie das auch getan.
Designfehler lassen sich nicht durch metal spins beseitigen. Troll wo anders rum.
Schau her, fassen wir mal ein wenig zusammen: Es gibt schon sehr lange Gerüchte das Fermi nahe an den 300W liegen wird. Auch AMD ist davon überzeugt.
280W TDP um genauer zu sein seitens AMD. Da aber die GTX295 einen 289W TDP hat minimal ein 680W/46A Netzteil braucht und die GTX480 ein 600W/42A PSU, sind wohl selbst die 280W etwas uebertrieben.
Was bei einem so großen Chip im übrigen auch nicht verwundert. Die GTX470 wird schon sehr lange mit den selben Specs (bis auf Speicher) wie die Tesla-Karten vermutet, diese gibt NV mit <=225W an. Wir wissen ebenso das die GTX480 >225W liegen wird, die GTX470 <225W. Wir sehen den Kühler der GTX470. Die Fins sind enger zusammen gerückt, der Lüfter wurde kleiner. Der Lüfter hat satte 1.8A bei 12V Nennspannung.
Die 225W TDP steht fuer die Tesla C2070 (Q3 2010) mit 1.4GHz und 6GB Speicher. Dass davon ungefaehr 30W nur fuer die 3GB Speicher gehen hab ich schon oefters erwaehnt. Die 2050 mit 1.4GHz liegt dann irgendwo um die 190W.
Im Zweifelsfall was den Stromverbrauch mit dem Speicher betrifft, ich sehe eine 5870 1GB mit einem 188W TDP und eine Eyefinity6 5870 2GB (exakt gleiche Frequenzen) mit einem 228W TDP.
Teslas sind so oder so nicht vergleichbar ueberhaupt weil es sich um handausgesuchte chips handelt.
Es spricht IMO nicht wenig für >200W. Das ganze damit es schön billig ist und preiswert angeboten kann mit einer relativ günstigen Stromversorgung und nicht unbedingt einer silent-Kühlung. Aber wir werden sehen.
220W TDP wuerde mich fuer eine GTX470 nicht wundern. Die GTX275 hat einen TDP von 219W wobei die GTX285 (gleicher Herstellungsprozess, metal spin etc) mit hoeheren Frequenzen nur noch einen 204W TDP hat. Handausgesuchte chips geben Dir genau jegliche 285-er oder heute Teslas ab, deshalb sind auch meistens die Vergleiche fuer die Muelltonne.
The Jackal
2010-03-09, 13:53:56
Tja ja, als ich vor nicht all zu lager Zeit gesagt habe das der Fermi eher als GPGPU für Berechnungen entwickelt wurde und nicht als machen wir mal bunte Bilder mit viel FPS, wurde ich gesteinigt.
http://www.hardware-infos.com/news.php?news=3460
http://www.hardware-infos.com/news.php?news=3461
Hauptfeld für Fermi ist die Tesla-Platform. Der Gamer ist so Interessant wie der Schnee von vorgestern.
Designfehler lassen sich nicht durch metal spins beseitigen. Troll wo anders rum.
Beseitigen meist nicht, aber sich lassen sich oft lindern. Spätestens wenn du einsehen wirst müssen das es keine 512SP-Chips gibt wirst du mir recht geben müssen.
Tja ja, als ich vor nicht all zu lager Zeit gesagt habe das der Fermi eher als GPGPU für Berechnungen entwickelt wurde und nicht als machen wir mal bunte Bilder mit viel FPS, wurde ich gesteinigt.
http://www.hardware-infos.com/news.php?news=3460
http://www.hardware-infos.com/news.php?news=3461
Hauptfeld für Fermi ist die Tesla-Platform. Der Gamer ist so Interessant wie der Schnee von vorgestern.
Solange man nur einen Bruchteil des Umsatzes/Gewinnes durch GPGPU einfährt bringen solche Behauptungen (von INTEL!!) kaum Etwas.
_DrillSarge]I[
2010-03-09, 13:59:47
Glaubt ihr allen Ernstes, NVIDIA ist so dämlich und verpasst der GTX470/480 einen lauten Lüfter, damit die Karten in den Reviews noch mehr* zerrissen werden?
imo hat sich der mensch, der diesen kühler zusammengeschraubt hat, einfach in der lüfterkiste vergriffen. denn dieser lüfter bringt nix anderes ausser höllenlärm. luftkühlung hat nun mal irgendwann ihre grenzen und eine erhöhung des luftstromes um faktor 10 geht dann nicht mit 10 fach besserer kühlleistung einher. und einen ausreichenden luftdurchsatz erreicht man auch mit wesentlich leistungsschwächeren lüftern. zumal diese lüfter auch ziemlich teuer sind, sinnlos strom verschwenden und auch bei niedrigster drehzahl zu laut sind. glaube daher kaum, dass man diese in den fertigen referenzkühlern sehen wird.
LovesuckZ
2010-03-09, 14:13:15
Tja ja, als ich vor nicht all zu lager Zeit gesagt habe das der Fermi eher als GPGPU für Berechnungen entwickelt wurde und nicht als machen wir mal bunte Bilder mit viel FPS, wurde ich gesteinigt.
http://www.hardware-infos.com/news.php?news=3460
http://www.hardware-infos.com/news.php?news=3461
Hauptfeld für Fermi ist die Tesla-Platform. Der Gamer ist so Interessant wie der Schnee von vorgestern.
Na, nur weil der Typ auch keine Ahnung hat, wird es nicht plötzlich wahr. ;)
GF100 ist für's Gaming ausgelegt. Das Aufbohren der Geometriepipeline ist alleinig nur für's Gamen wichtig. Das Unified-Cache System hilft neben GPGPU Berechnungen auch die Datenhaltung länger auf dem Chip zu halten und somit Latenzen zu verringern. Durch die Überarbeitung der internen Speicher lassen sich viel mehr Spielchen wesentlich schneller realisieren: A.I Berechnungen, Physik-Berechnungen, Fluid-Berechnungen.
GF100 ist mehr Gaming als GPGPU-Chip. Das die Karte am Ende nicht den Erwartungen entsprechen wird - wobei das abzuwarten bleibt - hat nichts mit dem GPGPU Zweig zu tun.
GF100 ist mehr Gaming als GPGPU-Chip. Das die Karte am Ende nicht den Erwartungen entsprechen wird - wobei das abzuwarten bleibt - hat nichts mit dem GPGPU Zweig zu tun.Zum Teil schon. Ein kompromisslos aufs Gamen auslegter 3D-Chip wäre früher fertig geworden und könnte mehr Leistung bieten. Aber es sieht so aus als betrachtet Nvidia reine 3D-Leistung für nicht mehr die einzige Erfordernis von Computerspielen. Aber wie schon öfters gesehen baut Nvidia einige Features "zu früh" ein (FP32-Tex-Operation ab Geforce 3, FP32-Math ab FX, bedingte Sprünge im Vertexshader ebenfalls ab FX, SM3 ab Geforce 6, FP64-Rechenwerke ab GT200.) Alles Sachen, die zum Start oder auch einige Monate später kein Gamer brauchte.
Jetzt beim GF100 gibt es erstmalig auch halbwegs berechtigte Befürchtungen, ob Nvidia auf dem Feld schwächelt, wo die Geforce traditionell stark sind: Texelfüllrate.
Ailuros
2010-03-09, 14:28:50
Beseitigen meist nicht, aber sich lassen sich oft lindern.
Muss dann der Grund sein warum sie zu einem re-spin gehen um das Problem zu beseitigen. Das 2SM Problem laesst sich eben NICHT mit einem metal spin beseitigen und es ist auch nicht bei der Simulation aufgetaucht. Irgend ein noise oder library cell issue tauchen z.B. nicht in der Simulation vor der Produktion auf.
Spätestens wenn du einsehen wirst müssen das es keine 512SP-Chips gibt wirst du mir recht geben müssen.
Wenn sie mit der Abschaltung eines SMs mehr >14SM chip gewinnen kann es durchaus sein. Nur aendert es leider GAR NICHTS weder am obrigen noch in meinem vorigen Post. Klar genug?
LovesuckZ
2010-03-09, 14:32:42
Zum Teil schon. Ein kompromisslos aufs Gamen auslegter 3D-Chip wäre früher fertig geworden und könnte mehr Leistung bieten. Aber es sieht so aus als betrachtet Nvidia reine 3D-Leistung für nicht mehr die
Die neue Geometriepipeline ist "kompromisslos aufs Gamen" ausgelegt. Als Laie sehe ich keinen Vorteil für reine GPGPU-Berechnungen. Und genau dieses Parallisieren der Geometrieberechnungen soll für die Verzögerung verantwortlich gewesen sein. Es ist der größte Schritt einer Architekturveränderung seit dem G80.
Jetzt beim GF100 gibt es erstmalig auch halbwegs berechtigte Befürchtungen, ob Nvidia auf dem Feld schwächelt, wo die Geforce traditionell stark sind: Texelfüllrate.
nVidia sieht den Spielebereich sich mehr und mehr in Richtung GPGPU (GPU-Physik, Fluid Berechnungen, A.I, sonstigen berechnungen für grafische Effekte) und hohe Geometrielast entwickeln. Man sah wohl eine Notwendigkeit mit der Tradition der hohen Texturleistung zu brechen, um freie Ressourcen vorallen in die Erhöhung der Geometrieleistung zu stecken. Ob man hier nicht einfach über das Ziel hinausgeschossen hat, wird die Zukunft zeigen.
Ailuros
2010-03-09, 14:39:11
Zum Teil schon. Ein kompromisslos aufs Gamen auslegter 3D-Chip wäre früher fertig geworden und könnte mehr Leistung bieten. Aber es sieht so aus als betrachtet Nvidia reine 3D-Leistung für nicht mehr die einzige Erfordernis von Computerspielen. Aber wie schon öfters gehen baut Nvidia einige Features "zu früh" ein (FP32-Tex-Operation ab Geforce 3, FP32-Math ab FX, bedingte Sprünge im Vertexshader ebenfalls ab FX, SM3 ab Geforce 6, FP64-Rechenwerke ab GT200.) Alles Sachen, die zum Start oder auch einige Monate später kein Gamer brauchte.
Und wieso ist AMD in ihrer eigenen Entwicklungsgeschichte immun zu jeweiligen falschen Design-Entscheidungen? Pech fuer NVIDIA dass es keine besonderen eben bei AMD seit R600 mehr gibt.
Jetzt beim GF100 gibt es erstmalig auch halbwegs berechtigte Befürchtungen, ob Nvidia auf dem Feld schwächelt, wo die Geforce traditionell stark sind: Texelfüllrate.
Egal wie ich es verdrehe kann ich mir nicht vorstellen dass sie es geschafft haben die gleiche Leistungs-effizienz wie bei G8x bis GT2x0 mit high quality AF zu haben. Einziger Ausweg waere TFs@hot clock welches zwar technisch moeglich ist, aber ich hab leider keine Indizie in die Richtung.
Man redet von einem superset an AF settings auf GF100 welches bei mir aber leider nur alarmierend klingelt (high quality soll aber noch da sein). Mal sehen unter welchen Bedingungen default AF genau laeuft.
Bucklew
2010-03-09, 14:48:59
Und wieso ist AMD in ihrer eigenen Entwicklungsgeschichte immun zu jeweiligen falschen Design-Entscheidungen? Pech fuer NVIDIA dass es keine besonderen eben bei AMD seit R600 mehr gibt.
Tessellator?
Ailuros
2010-03-09, 14:52:07
Tessellator?
Nein wieso? Das Ding ist so winzig dass es nicht der Rede wert war zu entfernen. Auf R600 war's eher Zeug wie FP16 filtering, 2z/clock, shader resolve und weiss der Geier was noch. Eben alles was bei RV770 entfernt wurde und auch noch dazukam.
Tessellator?
Wo ist bei dem das Problem?
Das er langsamer ist als der von NV?
deekey777
2010-03-09, 14:53:37
Tessellator?
Null Ahnung, aber Hauptsache was geschrieben?
Nein wieso? Das Ding ist so winzig dass es nicht der Rede wert war zu entfernen. Auf R600 war's eher Zeug wie FP16 filtering, 2z/clock, shader resolve und weiss der Geier was noch. Eben alles was bei RV770 entfernt wurde und auch noch dazukam.
Wenn mich nicht alles täsucht, war das ein Design-Problem, dass die Fähigkeit der ROPs eingeschränkt werden musste, um den gewünschten Takt zu erreichen.
Aber c'mon: Mit dem Shader-Resolve hat AMD schon eine Möglichkeit für besseres Anti-Aliasing bzw. andere Filter als den Box-Filter eröffnet. Und Edge-Detect erst.
=Floi=
2010-03-09, 14:58:29
aber warum sollte man den weg wieder unterbrechen und die 64 textureinheiten mit dem normalem takt laufen lassen bzw. nicht aufbohren, dass diese nur noch einen viel geringeren durchsatz haben, als die vorgänger?
rein von der logik her macht dies so auch keinen sinn. Man ist jaghrelang in die richtung gegangen und man wird imho nicht so einfach wieder den anderen weg gehen.
aber warum sollte man den weg wieder unterbrechen und die 64 textureinheiten mit dem normalem takt laufen lassen bzw. nicht aufbohren, dass diese nur noch einen viel geringeren durchsatz haben, als die vorgänger?
rein von der logik her macht dies so auch keinen sinn. Man ist jaghrelang in die richtung gegangen und man wird imho nicht so einfach wieder den anderen weg gehen.
Man braucht den Diespace halt eben für etwas Anderes.
Die TMUs brauchen viel Platz.
DavChrFen
2010-03-09, 15:02:30
Ne andere Sache.
Meint ihr, die GTX480 kommt vorerst mit 480 ALU`s damit später eine 485 mit 512 erscheint (nachdem die Probleme beseitigt wurden)?
@ James Ryan: Hast ja Recht, aber ich traue den Lüfter ne ordentliche Turbine zu :freak:
Irgenwo hier wurde auch gemunkelt, dass es von der 480 eine "special"-Version geben wird, die dann 512 ALUs hat und die noch um einiges schlechter verfügbar sein soll als die reguläre 480.
Ansonstigen wird interessant, wann die Hersteller eigene Kühlerlösungen und die 3GB-Version präsentieren. Aber ich glaub, das ist frühestens mit dem B1-Respin der Fall.
Bucklew
2010-03-09, 15:18:10
Nein wieso? Das Ding ist so winzig dass es nicht der Rede wert war zu entfernen.
Ach so, ab wann beginnt denn die relevante Die-Fläche für einen Design-Fehler?
Null Ahnung, aber Hauptsache was geschrieben?
Nein, aber das übernimmst du ja wieder mal großartig, Danke! :up:
Ach so, ab wann beginnt denn die relevante Die-Fläche für einen Design-Fehler?
Nein, aber das übernimmst du ja wieder mal großartig, Danke! :up:
was hat die die-fläche mit den design fehler zu tun? ein design fehler tritt unabhängig davon auf.
also ab und zu frage ich mich... naja... was hast du für eine ausbildung?
Bucklew
2010-03-09, 15:25:41
was hat die die-fläche mit den design fehler zu tun? ein design fehler tritt unabhängig davon auf.
Du solltest mal den Thread verfolgen, dann würdest du sehen, dass mit Design-"Fehler" eine falsche Design-Entscheidung im Sinne von Technologie zum falschen Zeitpunkt verbaut. Könnte man auch T&L bei den ersten GeForce-Chips mit zu zählen. Aber wie es halt immer ist: Irgendwann muss ja mal jemand anfangen.
Ailuros
2010-03-09, 15:26:53
Wenn mich nicht alles täsucht, war das ein Design-Problem, dass die Fähigkeit der ROPs eingeschränkt werden musste, um den gewünschten Takt zu erreichen.
Das war die damalige These; nur spricht die gesamte RV6x0 Familie dann eben dagegen.
Aber c'mon: Mit dem Shader-Resolve hat AMD schon eine Möglichkeit für besseres Anti-Aliasing bzw. andere Filter als den Box-Filter eröffnet. Und Edge-Detect erst.
Ja und? RV770 zeigte sehr gut dass genau das gleiche Zeug mit um einiges hoeherer Effizienz ging.
LovesuckZ
2010-03-09, 15:27:40
Wobei die T&L Einheit der Geforce 256 mehr der Tessellation-Umsetzung von AMD entspricht. Das ist mit GF100 nicht annährend vergleichbar.
Aber wie schon öfters gehen baut Nvidia einige Features "zu früh" ein (FP32-Tex-Operation ab Geforce 3, FP32-Math ab FX, bedingte Sprünge im Vertexshader ebenfalls ab FX, SM3 ab Geforce 6, FP64-Rechenwerke ab GT200.)
Dieser Satz ergibt grammatikalisch keinen Sinn... :confused:
Ailuros
2010-03-09, 15:30:34
Ach so, ab wann beginnt denn die relevante Die-Fläche für einen Design-Fehler?
Ab dem Punkt wo man mehr Resourcen braucht es zu entfernen als es stehen zu lassen. Es ist wohl ueberhaupt nicht merkwuerdig dass die Tessellations-Einheit in jeglichem ATI USC von Xenos bis auf RV7x0 drinsteckt oder was?
LovesuckZ
2010-03-09, 15:34:19
Rein vom Transistorencount sollte ein FF-Tessellator nichts kosten. Beschränkter Funktionsumfang und somit auch nicht komplex.
Was richtig viel kostet ist das System, indem diese oder mehrere Einheiten eingebaut sind. Und das kostet richtig viel Zeit, Geld und Transistoren bei nVidia. Aber dafür haben sie anscheinend gleich beim ersten Mal richtig gemacht...
Bucklew
2010-03-09, 15:35:17
Ab dem Punkt wo man mehr Resourcen braucht es zu entfernen als es stehen zu lassen. Es ist wohl ueberhaupt nicht merkwuerdig dass die Tessellations-Einheit in jeglichem ATI USC von Xenos bis auf RV7x0 drinsteckt oder was?
Nein merkwürdig überhaupt nicht. Aber ich finde solche Features, die man eigentlich gar nicht braucht, auch nicht schlimm. Die GeForce 1 hätte auch kein T&L gebraucht - aber wo wären wir heute ohne? Genauso mit 32bit. Und Sm3.0. Und sicherlich ist auch Fermi mit übertrieben viel Tessellation/Geometrie-Leistung ausgestattet, um diese wirklich aktuell nutzen zu können. Nur umso besser, wenn so der Weg für neuere, bessere Grafiken gelegt wird.
Ailuros
2010-03-09, 15:45:39
Wobei die T&L Einheit der Geforce 256 mehr der Tessellation-Umsetzung von AMD entspricht. Das ist mit GF100 nicht annährend vergleichbar.
In der Zwischenzeit sind wir wieder so stark off topic dass es nicht mehr schoen ist. Die T&L Einheiten sassen alles andere als dumm rum damals auf den GFs egal ob sie nicht direkt fuer wirkliche lighting Aufgaben genutzt wurden, aber den alten Kaugummi brauchen wir jetzt nicht wieder widerholen.
Der eigentliche Punkt war dass nicht nur NV mit den Jahren falsche Design-Entscheidungen getroffen hat. Ob die Anzahl der TMUs auf GF100 wirklich ein Problem sein werden (wobei ich nicht besonders viel Hoffnung fuer angenehme Ueberraschungen habe) bleibt abzusehen. Technisch gesehen hat mit GF100 genau die gleiche Analogie wie ATI auf ihren GPUs; nur eben Pech dass es 20 cluster bei Cypress sind und "nur" 16 bei GF100.
Nein merkwürdig überhaupt nicht. Aber ich finde solche Features, die man eigentlich gar nicht braucht, auch nicht schlimm. Die GeForce 1 hätte auch kein T&L gebraucht - aber wo wären wir heute ohne? Genauso mit 32bit. Und Sm3.0. Und sicherlich ist auch Fermi mit übertrieben viel Tessellation/Geometrie-Leistung ausgestattet, um diese wirklich aktuell nutzen zu können. Nur umso besser, wenn so der Weg für neuere, bessere Grafiken gelegt wird.
Hier hast Du lediglich ein Beispiel wo die T&L Einheit damals doch nicht dumm herumhockte: http://www.beyond3d.com/content/articles/42/
Sonst wenn man etwas integriert dass zu stark an 3D Leistungs-Transistoren abnagt und eine Architektur dadurch generell sehenswert vernachlaessigt was ihre Effizienz betrifft dann kann's kritisch werden.
Hat auf R600 die Tessellations-Einheit den Schaden angerichtet oder dass jemand das Ding auf single cycle 2xMSAA und sogar noch durch shader resolve begrenzte? Oder anders wer zum Henker hatte nochmal die Schnappsidee fuer single cycle FP16 filterung der zum 512bit Bus genau fuehrte? Da die Tessellations-Einheit (mit Ausnahme 2-3 Spielen auf der XBox360) wirklich nur dumm herumhockte und der Platz den sie einnnimmt nicht der Rede wert ist, ist es genau IMO nebenwichtig.
Zum Thema zurueck: falls NV Texturfuellrate fuer Geometrie bzw. Tessellation opferte (und ja dass muss sich erst noch herausstellen) dann hat man fuer erste zu wenig und fuer's zweite zu viel Transistoren implementiert. Um das geht es eigentlich.
deekey777
2010-03-09, 15:49:41
Dieser Satz ergibt grammatikalisch keinen Sinn... :confused:
"Wie öfters gesehen, baut Nvidia ..."
Da ist schon Sinn drin.
AnarchX
2010-03-09, 15:58:04
2499 CNY ~ 366 USD für eine GTX 470 in China? (http://translate.google.de/translate?u=http%3A%2F%2Fdiy.yesky.com%2Fvga%2F259%2F11163259.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8)
Das wären ~20% Preispremium gegenüber einer HD 5850.
Rein vom Transistorencount sollte ein FF-Tessellator nichts kosten.
Natürlich, der sollte sogar mehr kosten als wenn man etwas auslagert -falls NVIDIA das überhaupt macht.
Beschränkter Funktionsumfang und somit auch nicht komplex.
Der ist nicht mehr oder weniger beschränkt wie die Tesselation bei NVIDIA auch. Und nein, die ist auch nicht programmierbar. Wie das gemacht werden muss ist *exakt* in der D3D11-Spec vorgegeben.
LovesuckZ
2010-03-09, 15:58:50
Wieviel kostet denn eine 5850 in China?
Der ist nicht mehr oder weniger beschränkt wie die fixed function Tesselation bei NVIDIA auch. Wie das gemacht werden muss ist *exakt* in der D3D11-Spec vorgegeben.
Ich bezug mich im allgemeinen auf die FF-Einheit.
Natürlich, der sollte sogar mehr kosten als wenn man etwas auslagert -falls NVIDIA das überhaupt macht.
Sie haben die Einheit in die Polymorph Einheiten "ausgelagert".
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.