Archiv verlassen und diese Seite im Standarddesign anzeigen : GT400/GF100 - Q1/2010, DX11, CUDA 3.0 spam
nagus
2010-03-06, 18:02:52
Endlich neues an der Front: 0.3.9 erkennt das ES der GTX480. TMUs laufen scheinbar mit 675 MHz :D
http://www.abload.de/img/gtx480bu3r.png
wo kommt das jetzt her?
nebenbei bemerkt: in einer minute kann ich dir auch einen screenshot von einer 28nm next-gen AMD graka machen ;)
Nein, denn das tun schon AMD User. :D
Du weißt ja: AMD - DX11 doesn't matter.
LOL, was für eine schlicht falsche Aussage, das hat niemand und auch nicht AMD behauptet. Die ersten und einzige DX11-Karten und gesupporteten DX11-Spiele kommen alle von AMD, aber wen interessieren schon Fakten. Passender wäre da wohl eher für so manche NV-Fanboys:
We only play Tesslation - cause in all outher cases we are lost.
ATI schafft es nichtmal die RV870-Karten vernünftig liefern zu können - und da redest du von Preissenkungen?!
ATi kann nicht liefern? Du bist wirklich unglaublich. AMD bekommt nicht genügend Wafer von TSMC, ganz einfach. Aber du bist ja auch ein Fanboy durch und durch, was nützten da schon Diskussionen...
nagus
2010-03-08, 08:04:11
@alle die glauben, amd kann "nicht genug" oder "keine" 40nm dx11 chips liefern: (http://geizhals.at/eu/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&plz=&dist=&pixonoff=on&bl1_id=100&xf=142_11)
IMHO müsste jedem, der das glaubt sich erdreisten zu können eine so blödsinnige aussage zu posten wie "amd könnte nicht liefern" sein virtueller "willy" abgeschnitten werden. manche leute stellen sich wirklich absichtlich blöd, unglaublich.
boxleitnerb
2010-03-08, 08:07:22
Ich hab gestern mal zum Spass nach der 5870 geschaut. Ja, die grünen Kästchen sind da, aber wenn man nach dem Preis sortiert, sieht man, wo sie sich befinden. Zählt man zum geringsten Preis ca. 15% drauf, kriegt man eine Karte. Sind immerhin gut 40 Euro! Sooooo rosig sieht es nicht aus. 375 Euro Minimum.
nagus
2010-03-08, 08:10:10
LOL, was für eine schlicht falsche Aussage, das hat niemand und auch nicht AMD behauptet. Die ersten und einzige DX11-Karten und gesupporteten DX11-Spiele kommen alle von AMD, aber wen interessieren schon Fakten. Passender wäre da wohl eher für so manche NV-Fanboys:
We only play Tesslation - cause in all outher cases we are lost.
wahrscheinlich bastelt deren marketing abteilung schon an "silly dragon rendering king" logos, die dann an die bordpartner verschickt und auf den retail boxen verwendung finden. :tongue: ... und daneben steht, "DX11 does not matter, only tesselation on silly dragons"
Grestorn
2010-03-08, 08:13:30
Ganz schön erstaunlich, dieser Meinungswandel. War nicht Tesselation DIE Schwäche des GF100, nachdem das doch ganz offensichtlich in Software (Shader) durchgeführt wird?
Hört doch endlich auf, allein auf Basis irgendwelcher unprüfbarer Aussagen irgendwelche Hohnlieder zu singen. Das ist echt nicht zu ertragen.
Niemand hat je AMD mit derart viel Hohn überschüttet, auch nicht zu Zeiten zu denen es ausreichend Anlass dazu gegeben hatte (AF, Verfügbarkeit, R600...).
Soll noch mal jemand sagen, AMD hätte keine aggressiven Fanboys.
Undertaker
2010-03-08, 08:15:17
ATi kann nicht liefern? Du bist wirklich unglaublich. AMD bekommt nicht genügend Wafer von TSMC, ganz einfach
Ob man nicht genug 40nm Wafer bestellt hat, bestellen hat können oder was auch sonst immer: Die Schuldfrage ist doch hier vollkommen egal. Der Punkt war, dass bei mangelhafter Lieferbarkeit - momentan sind vielleicht bei 10% aller pro Karte gelisteten Geizhals-Händler Modelle auf Lager, allesamt zu Mondpreisen gemessen am günstigsten Eintrag - eine Preissenkung absolut utopisch ist, denn diese würde schlicht nicht durchschlagen sondern einfach von den Händlern eingesackt. Und damit hat er völlig Recht.
_DrillSarge]I[
2010-03-08, 08:15:52
woher kommt eigentlich dieses "dx11 does not matter"? (sry, hab den thread hier seitenlang nicht verfolgt, wegen zu hoher ot/bs-quote)
Ganz schön erstaunlich, dieser Meinungswandel. War nicht Tesselation DIE Schwäche des GF100, nachdem das doch ganz offensichtlich in Software (Shader) durchgeführt wird?
Hört doch endlich auf, allein auf Basis irgendwelcher unprüfbarer Aussagen irgendwelche Hohnlieder zu singen. Das ist echt nicht zu ertragen.
Niemand hat je AMD mit derart viel Hohn überschüttet, auch nicht zu Zeiten zu denen es ausreichend Anlass dazu gegeben hatte (AF, Verfügbarkeit, R600...).
Soll noch mal jemand sagen, AMD hätte keine aggressiven Fanboys.
Das liegt wohl ganz einfach an deiner selektiven Wahrnehmung. Du agierst ja hier auch nicht anders wie irgend ein Fanboy, ergreifst immer nur Partei für NV und schimpfst auf irgend welche AMD-Fanboys. AMD bekam genau so ihr Fett weg für R600 oder sonst wo, wenn du das nicht sehen willst würde ich mal meine Peilung überprüfen.
Grestorn
2010-03-08, 08:27:06
Das liegt wohl ganz einfach an deiner selektiven Wahrnehmung. Du agierst ja hier auch nicht anders wie irgend ein Fanboy, ergreifst immer nur Partei für NV und schimpfst auf irgend welche AMD-Fanboys. AMD bekam genau so ihr Fett weg für R600 oder sonst wo, wenn du das nicht sehen willst würde ich mal meine Peilung überprüfen.
Ich schütte keinen Hohn über ATI aus. Und ich kann mich nicht erinnern, dass dies in ähnlichem Maß jemals passiert ist, noch nicht mal von LZ. Wenn Du anderer Meinung bist, bitte mit Link zum entsprechenden Posting.
Im Gegenteil, man findet deutlich mehr Postings von mir, wo ich mich über gelungene Produkte von AMD freue, als über gelungene Produkte von nVidia. Und unterm Strich wohl auch mehr Kritik an nVidia als an ATI. Beides hat seine Gründe.
Allerdings verteidige ich nVidia auch gegen meiner Meinung nach ungerechtfertigter Kritik, was Deinen Eindruck wohl begründet. Ich kenne mich mit nVidia halt einigermaßen aus und kann falsche Aussagen nun mal nicht so stehen lassen.
Tarkin
2010-03-08, 08:28:25
Ganz schön erstaunlich, dieser Meinungswandel. War nicht Tesselation DIE Schwäche des GF100, nachdem das doch ganz offensichtlich in Software (Shader) durchgeführt wird?
Hört doch endlich auf, allein auf Basis irgendwelcher unprüfbarer Aussagen irgendwelche Hohnlieder zu singen. Das ist echt nicht zu ertragen.
Niemand hat je AMD mit derart viel Hohn überschüttet, auch nicht zu Zeiten zu denen es ausreichend Anlass dazu gegeben hatte (AF, Verfügbarkeit, R600...).
Soll noch mal jemand sagen, AMD hätte keine aggressiven Fanboys.
Wie man in den Wald hineinruft... etc.
Je dumm-dreister die Kommentare von der einen Seite, desto "aggressiver" wird der Ton auf der anderen - hast du etwas anderes erwartet?
Dieser "AMD muss mal liefern" Schwachfug ist der absolute Gipfel der Blödheit, sry. Kein Wunder wenn sich die Leute die schon seit Monaten prima DX11 Hardware in Händen halten aufregen, oder?
Also tu nicht so als wäre nvidia und deren Anhänger hier das arme Opfer und Unschuldslamm ... also wirklich :rolleyes:
Grestorn
2010-03-08, 08:31:03
Wie man in den Wald hineinruft... etc.
Je dumm-dreister die Kommentare von der einen Seite, desto "aggressiver" wird der Ton auf der anderen - hast du etwas anderes erwartet?
Dieser "AMD muss mal liefern" Schwachfug ist der absolute Gipfel der Blödheit, sry. Kein Wunder wenn sich die Leute die schon seit Monaten prima DX11 Hardware in Händen halten aufregen, oder?
Wenn Du aus "AMD muss mal liefern" alleine die Rechtfertigung ziehst, derart krass über nVidia herzuziehen, wie Du und Nagus es hier betreiben...
Also tu nicht so als wäre nvidia und deren Anhänger hier das arme Opfer und Unschuldslamm ... also wirklich :rolleyes:Unschuldslamm sicher nicht, aber das hier geht über alle Maßen hinaus.
Zeig doch mal die krassesten AMD-Schmähbeiträge (vorzugsweise von mir, LZ und bucklew) und dann stell ich mal Nagus und Deine dagegen...
Dimon
2010-03-08, 08:53:50
Leutz,
übertreibts bitte nicht, aber was nützen uns Streitereien wenn NV die Fermi noch nicht gelauncht hat...
Ich für meinen teil halte mich raus und freue mich auf die Fermi, vllt. wird es ein gutes Produkt, vllt. aber nicht, das zeigt uns nur die Zukunft ;)
Gruß
Ganz schön erstaunlich, dieser Meinungswandel. War nicht Tesselation DIE Schwäche des GF100, nachdem das doch ganz offensichtlich in Software (Shader) durchgeführt wird?
Hört doch endlich auf, allein auf Basis irgendwelcher unprüfbarer Aussagen irgendwelche Hohnlieder zu singen. Das ist echt nicht zu ertragen.
Niemand hat je AMD mit derart viel Hohn überschüttet, auch nicht zu Zeiten zu denen es ausreichend Anlass dazu gegeben hatte (AF, Verfügbarkeit, R600...).
Soll noch mal jemand sagen, AMD hätte keine aggressiven Fanboys.
naja, Deine NV genossen sind auch nicht besser... als es hiess der GT300 wird supergeil wenig strom verbrauchen und neue Effizienzgrade erreichen, war alles super toll. jetzt wo das teil >250w sein könnte, ist es egal.
ausserdem ging es hier glaubich weniger darum, dass amd fanboys sagten dass tesselation scheisse ist, sondern dass es von LZ und konsorten hochstilisiert wird, als das einzige DX11 feature und als wärs so superwichtig - als man vor 4 monaten die AMD demos damit sah, wars scheissegal.
soviel dazu.
ich wär einfach froh wenn die ganze kacke in nem anderen thread stattfinden würde, ich will hier nur facts sehen, ich freu mich auf 5 neue seiten, und was ist, davon sind 95% müll.
Ja, aber Xbitlabs hat - wieso auch immer - diesen Satz in einem komplett falschen Kontext wiedergegeben. Und dieses "DX11 doesn't matter" ging dann über die ganze Welt. Wobei es nie von nVidia gesagt wurde.
Spätesten seit der CES wissen wir aber, dass DX11 für nVidia eine wichtige Rolle spielt und es sind plötzlich ganz andere Töne aus jener Ecke zu hören, die davor nie müde wurde, um zu behaupten, dass DX11 für nVidia "doesn't matter" würde.
Was genau ist daran jetzt überraschend? Es war solange "doesnt matter", solange man keine Dx11-Hardware hatte. Jetzt wo sich das in Kürze ändert sieht man das natürlich anders. Das selbe Spiel wie jedes mal.
LovesuckZ
2010-03-08, 09:03:40
Was genau ist daran jetzt überraschend? Es war solange "doesnt matter", solange man keine Dx11-Hardware hatte. Jetzt wo sich das in Kürze ändert sieht man das natürlich anders. Das selbe Spiel wie jedes mal.
Nein. Es war nie "doesn't matter". Es wurde nie gesagt. Selbst auf der GTC hat man im "You can have it all" Bild DX11 aufgeführt. Es waren andere, die nVidia genau diesen Satz in den Mund gelegt haben.
ausserdem ging es hier glaubich weniger darum, dass amd fanboys sagten dass tesselation scheisse ist, sondern dass es von LZ und konsorten hochstilisiert wird, als das einzige DX11 feature und als wärs so superwichtig - als man vor 4 monaten die AMD demos damit sah, wars scheissegal.
Das kannst du bestimmt auch zeigen. :D
Denn ich hab mich nur enttäuscht über Stalker und Dirt:2 geäußert und fand die Buckelpiste im HeavenBenchmark ziemlich schrecklich. Aber Tessellation wurde von mir nie "totgeredet".
Nein. Es war nie "doesn't matter". Es wurde nie gesagt. Selbst auf der GTC hat man im "You can have it all" Bild DX11 aufgeführt. Es waren andere, die nVidia genau diesen Satz in den Mund gelegt haben.
Du hast den Artikel von xbitlabs gelesen? Das sind Zitate von NV-Mitarbeitern. Ich weiß gar nicht was du jetzt willst. NV verhält sich wie jedes andere Unternehmen auch in einer solchen Situation, warum du das jetzt abstreiten willst ist mir völlig unverständlich. Zum damaligen Zeitpunkt, kurz vorm Launch der Dx11-Hardware von AMD sind diese Aussagen völlig nachvollziehbar aus Sicht von NV.
Das kannst du bestimmt auch zeigen. :D
Denn ich hab mich nur enttäuscht über Stalker und Dirt:2 geäußert und fand die Buckelpiste im HeavenBenchmark ziemlich schrecklich. Aber Tessellation wurde von mir nie "totgeredet".
Kommt darauf an was man unter Totreden versteht. Du hast dich zu beginn sehr kritisch "geäußerst", erst recht als man glaubte das Tesslation auf NV nur schlecht laufen wird und bist jetzt geradezu überschwänglich was man nicht alles mit Tesslation machen könnte wo sich eben heraus stellt das NV darin schnell sein wird. ;)
LovesuckZ
2010-03-08, 09:16:10
Du hast den Artikel von xbitlabs gelesen? Das sind Zitate von NV-Mitarbeitern. Ich weiß gar nicht was du jetzt willst. NV verhält sich wie jedes andere Unternehmen auch in einer solchen Situation, warum du das jetzt abstreiten willst ist mir völlig unverständlich. Zum damaligen Zeitpunkt, kurz vorm Launch der Dx11-Hardware von AMD sind diese Aussagen völlig nachvollziehbar aus Sicht von NV.
Nein. Sie haben nie so etwas gesagt. Man sollte den Text bitte auch verstehen können.
Kommt darauf an was man unter Totreden versteht. Du hast dich zu beginn sehr kritisch "geäußerst", erst recht als man glaubte das Tesslation auf NV nur schlecht laufen wird und bist jetzt geradezu überschwänglich was man nicht alles mit Tesslation machen könnte wo sich eben heraus stellt das NV darin schnell sein wird. ;)
Nö:
Nachdem PCGH (http://www.pcgameshardware.de/aid,699976/Colin-McRae-Dirt-2-im-Test-DirectX-9-vs-DirectX-11-Update-Grafikkarten-Benchmarks/Rennspiel-Sportspiel-Simulation/Test/) nun auch Dirt2 getestet hat, sind alle drei "D3D11" Spiele für dieses Jahr auf dem Markt. Damit lässt sich wohl schon einiges ableiten:
Tessellation ist toll, aber für die erste Generation von Karten zu aufwendig. Wenn man sieht, was AMD in Stalker und Dirt 2 als Einsatzgebiete nimmt, dann ist der Leistungsverlust einfach zu hoch. Viel interessanter ist hingegen CS5.0. Der Leistungsgewinn gegenüber PS ist doch beträchtlich.
Du siehst, ich war nie gegen Tessellation. Außerdem stand zum damaligen Zeitpunkt überhaupt nicht fest, wie nVidia die Anforderungen umsetzen werde. Ich ging davon aus, dass sie nicht besser darstehen würde.
Schlammsau
2010-03-08, 09:21:20
I[;7889179']woher kommt eigentlich dieses "dx11 does not matter"? (sry, hab den thread hier seitenlang nicht verfolgt, wegen zu hoher ot/bs-quote)
das weiss wohl nur unser LiebesLutscher. :rolleyes:
Einer hat hier mal geschrieben, das Tesselation in absehbarer Zeit noch unwichtig sein wird oder so ähnlich.
LL hat daraus wieder geschlossen, dass alle Radeonbesitzer, jetzt die Tesselation kleinreden.
Verqueres denken, wie gewohnt von ihm!
Nein. Sie haben nie so etwas gesagt. Man sollte den Text bitte auch verstehen können.
Nö:
Du siehst, ich war nie gegen Tessellation. Außerdem stand zum damaligen Zeitpunkt überhaupt nicht fest, wie nVidia die Anforderungen umsetzen werde. Ich ging davon aus, dass sie nicht besser darstehen würde.
Okay, das ist mir zu blöd. Auch wenn ich mir sicher bin das mich ein Gedächtnis nicht trügt werde ich jetzt sicherlich nicht stundenlang in alten Beiträgen rum wühlen. Ist auch egal, ich habe nicht erwartet das du etwas eingestehst.
Wenn NV mit dem Yield des A3 Steppings sehr zufrieden ist, dann müßte ATI tanzen. Das NV mehr Wafer geordert hat als ATI und damit einen größeren Teil der Kapazität belegt ist unschön, aber da die ATI Chips wesentlich kleiner sind, sollten da auch mehr Chips/Wafer abfallen.
Was heißt da mehr Wafer geordert, die haben ganz einfach mehr Wafer bekommen. Oder glaubst du das AMD nicht mehr als die viel zu geringe Anzahl an Wafer geordert hat? Es war von Anfang an klar das die Kapazitäten in 40nm sehr begrenzt sind und offensichtlich wird NV von TSMC auch nachvollziehbaren Gründen hier bevorzugt.
Ganz schön erstaunlich, dieser Meinungswandel. War nicht Tesselation DIE Schwäche des GF100, nachdem das doch ganz offensichtlich in Software (Shader) durchgeführt wird?
Hört doch endlich auf, allein auf Basis irgendwelcher unprüfbarer Aussagen irgendwelche Hohnlieder zu singen. Das ist echt nicht zu ertragen.
Niemand hat je AMD mit derart viel Hohn überschüttet, auch nicht zu Zeiten zu denen es ausreichend Anlass dazu gegeben hatte (AF, Verfügbarkeit, R600...).
Soll noch mal jemand sagen, AMD hätte keine aggressiven Fanboys.
dann würde ich vorschlagen du bringst deine komparsen aka lovezuckz, buklew, dural, etc... dazu, sich nicht absichtlich dämlich zu stellen und so einen zum himmel schreienden blödsinn zu posten. vorher provozieren bis zum geht nicht mehr und dann sich beschweren, wenn der ton entsprechend schärfer wird....
Grestorn
2010-03-08, 09:27:43
Okay, das ist mir zu blöd. Auch wenn ich mir sicher bin das mich ein Gedächtnis nicht trügt werde ich jetzt sicherlich nicht stundenlang in alten Beiträgen rum wühlen. Ist auch egal, ich habe nicht erwartet das du etwas eingestehst.
LZ hat aber recht. nVidia hat nie gesagt, dass DX11 generell keine Rolle spielt. Das wurde ihnen nur immer in den Mund gelegt.
Die Aussage war, dass DX11 momentan noch nicht die große Rolle spielt. Damit hat nVidia versucht, die Verspätung des Fermi zu relativieren. Man kann diese Aussage sicherlich kritisieren, genauso wie damals die selbe Aussage von ATI als es um deren Verspätung bei SM 3.0 oder DX10 ging.
Tarkin
2010-03-08, 09:31:18
ja das schlimme ist ja das selbst die 5850 erst zu mondpreisen (280€ aufwärts) erhältlich ist
bei der momentan schnellsten single GPU karte kann man ja einen saftigen Aufschlag noch halbwegs nachvollziehen aber nicht bei dem mainstreamprodukt
hier wird imho die DX11 kuh so richtig gemolken
http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_GeForce%20GTX%20285~132_1024~891_Radeon%20HD%205850&sort=p
Genau das meine ich mit "dummen" Postings. Wenn ich so etwas lesen, dann geht mir das "Geimpfte" auf.
AMD durch den Dreck ziehen aber wenn so etwas nVidia tut, dann ist das gerechtfertigt, oder?
Das letzte Mal als ich nachgesehen habe, war die 5850 schneller als 285 GTX - von der Featureliste ganz zu schweigen.
Unter "melken" verstehe ich etwas anderes. ATi könnte ohne weiteres 300+ und 400+ für die 58XX verlangen - wäre angesichts des schwächeren nVidia Portfolios auch noch gerechtfertigt.
Eigentlich sollte man ATi DANKBAR sein. Es sei denn man steht auf Graka Preise weit jenseits der 500 Euro Marke!
Grestorn
2010-03-08, 09:33:21
http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_GeForce%20GTX%20285~132_1024~891_Radeon%20HD%205850&sort=p
Genau das meine ich mit "dummen" Postings. Wenn ich so etwas lesen, dann geht mir das "Geimpfte" auf.Ist das etwa nicht €280 aufwärts?
Oder willst Du uns etwa 279,90 ernsthaft als weniger als 280 verkaufen?!
Und dass man so etwas als "dummes Posting" bezeichnet, ist alleine für sich schon sehr bezeichnend.
AMD durch den Dreck ziehen aber wenn so etwas nVidia tut, dann ist das gerechtfertigt, oder?
ohne Worte.
Armaq
2010-03-08, 09:44:01
Konzentriert euch doch einfach auf die vorhandenen Daten. Seitenlang beschuldigt hier jeder jeden und Differenzierung findet gar nicht statt. Diese hässlichen Momentaufnahmen sind ein Armutszeugnis.
Der Entwicklungsprozess ist doch entscheidend (damit ist nicht der technische Prozess gemeint). Es gibt da ein Verbot der vergleichenden Werbung, damit sich Hersteller nicht permanent gegenseitig persönlich anfeinden, überlegt mal warum!
Ähm...ich glaube er wollte auf den Preis der GTX 285 hinweisen ...
Tarkin
2010-03-08, 09:50:55
Ist das etwa nicht €280 aufwärts?
Oder willst Du uns etwa 279,90 ernsthaft als weniger als 280 verkaufen?!
Und dass man so etwas als "dummes Posting" bezeichnet, ist alleine für sich schon sehr bezeichnend.
ohne Worte.
Hab ich IRGENDWIE/WO den Preis kritisiert? Wenn du mein Posting gelesen und verstanden hättest, dann hättest du kapiert, dass es mir einzig um den Vergleich geht ... Herrgott :mad:
Und was ich auch witzig finde. Nvidia-Fanboys, die NIE eine AMD Karte kaufen würden, ist deren Preis zu hoch? Echt ulkig.
Diese Ignoranz ist schon erstaunlich.
Grestorn
2010-03-08, 09:58:00
Hab ich IRGENDWIE/WO den Preis kritisiert? Wenn du mein Posting gelesen und verstanden hättest, dann hättest du kapiert, dass es mir einzig um den Vergleich geht ... Herrgott :mad:Wozu dann der Link auf geizhals? Der einzige für mich ersichtliche Grund (und auch das "dummes Posting") kann doch nur gewesen sein, die Preisangabe zu widerlegen.
Diese Ignoranz ist schon erstaunlich.Deine Aggressivität ist erstaunlich. Was hast Du denn davon?
/edit: Ah, es ging um den Preis der GTX285... Naja, ein entsprechendes Sätzchen in dieser Richtung hätte das vielleicht klarer gemacht.
Ich will die GTX285 Preise nicht verteidigen, die 5850 hat das klar bessere Preis/Leistungsverhältnis. Allerdings gibt es bei der 285 einen Verfügbarkeitsmangel, und deswegen können die Händler verlangen, was sie eben kriegen.
svenw
2010-03-08, 10:12:50
IMHO wird die 480 (=Shaderanzahl) weder ein Fail noch der neue Heilsbringer. Es wird eine gute schnelle Graka sein, die aber dafür zahlen muß, das die Architektur den Spielen weit vorraus ist. Die Tesselation-Power ist nett, wird aber erst in ca. einem Jahr wirklich wichtig werden und dann sit die neue Architektur von ATI draußen. Bisher kann man noch nicht einmal abschätzen wieviel Tessselation-Power Spiele wirklich sinvoll brauchen. Denn Tesselation Power ist auch verbunden mit der Rohpower, denn das was aus der Tesselation Engine rauskommt muß vom Rest der Karte erst mal verarbeitet werden. Bestes Beispiel ist der Vergleich von 470 mit der 5850 unter 8xAA in Unigine Test (19 zu 20 Frames): Die 470 bringt ihre Tess-Power nicht mehr auf die Straße.
Aktuelle schätze ich, das ATI für zukünftige Spiele zuwenig und NV zuviel Tess-Power verbaut haben (im High-End). Für alles was aber in den nächsten 6 Monaten an spielen kommt dürfte die Power der 5870 in dem Bereich langen und die Tess-Power skaliert bei ATI nicht bei kleineren Chips. Die dürften dann eher zuviel haben.
catamaran
2010-03-08, 10:20:26
Also ich finde die Situation toll. Seit langem hat ATI es mal wieder geschafft auf Kurs zu kommen, dabei waren sie mit R600 schon totgesagt.
Egal welchen Hersteller man bevorzugt, eine ausgeglichene Marktsituation kommt jedem Konsumenten zu Gute. Ich bin mir sicher, dass Fermi für den Kunden kein Flop sein wird, auch wenn er sich verspätet hat.
dargo
2010-03-08, 10:28:23
Bisher kann man noch nicht einmal abschätzen wieviel Tessselation-Power Spiele wirklich sinvoll brauchen. Denn Tesselation Power ist auch verbunden mit der Rohpower, denn das was aus der Tesselation Engine rauskommt muß vom Rest der Karte erst mal verarbeitet werden. Bestes Beispiel ist der Vergleich von 470 mit der 5850 unter 8xAA in Unigine Test (19 zu 20 Frames): Die 470 bringt ihre Tess-Power nicht mehr auf die Straße.
Zwei Gedankenfehler :):
1. Die 19 vs. 20fps spiegeln nur das Gesamtergebnis wieder. Viel wichtiger ist der Frameverlauf in dem man erkennen kann was die jeweilige Grafikkarte leistet wenn die Tesselation stark zu Geltung kommt. Das erinnert mich an die alten Diskussionen zu Quadcore-CPUs. Viele sahen nur die avg.fps einer bestimmten Zeitspanne und waren der Meinung, dass ein Quad wenig Vorteile gegenüber einem Dualcore bringt. Dabei gibts genug einzelne Szenen wo der Vorsprung vom Quad deutlich ist. Das selbe könnte jetzt bei der Tesselation in Games passieren.
2. Wie sehen die Frames wohl aus wenn man die "Flaschenhälse" außerhalb vom Tesselator über das Setting reduziert... zb. 1680x1050 4xMSAA? Nicht jeder wird schon einen 1920x1080/1200 Bildschirm haben und dabei gleich 8xMSAA nutzen (wobei ich 8xMSAA eh für sinnlos halte, das ist aber ein anderes Thema). Sieht man ja schon an den beiden Frame-Ergebnissen, dass beides nicht mehr flüssig spielbar ist.
Um mal die Diskussion der letzten ~500 Seiten zusammenzufassen:
Vielleicht hat Charlie recht, vielleicht nicht;
Vielleicht wird Deskto-Fermi heiß ohne Ende, vielleicht nicht;
Vielleicht kosten die Karten 650 Euro vielleicht nur 280;
Vielleicht wird der Chip 500mm2, vielleicht nicht;
Vielleicht wird der Nachfolge-Chip besser, vielleicht nicht;
Vielleicht gibts große Stückzahlen erst ab Mai, vielleicht nicht;
Vielleicht hat nVidia große Fehler gemacht, vielleicht nicht;
Vielleicht hat TSMC viele Fehler gemacht, vielleicht nicht;
Vielleicht wird Fermi ein Flop, vielleicht nicht;
Vielleicht ist Fermi bei Tessellation vorne, vielleicht nicht;
Vielleicht ist die GTX480 deutlich schneller als die 5870, vielleicht nicht;
Vielleicht ist der Thread hier einfach nur sinnlos, vielleicht nicht ...
Falls ich was vergessen haben sollte (von dem ich ausgehe), bitte posten ;-)
Hayab
2010-03-08, 11:19:22
Ich freue mich schon auf die Relesebenchmarks.
Da kommt die Katze aus dem Sack. Egal wie es ausgeht, fuer NV ist es ein FAIL, weil mindestens 4 Monate zu spät.
Wieso sollte es ein "FAIL" sein?
Schlammsau
2010-03-08, 11:27:07
Ich freue mich schon auf die Relesebenchmarks.
Da kommt die Katze aus dem Sack. Egal wie es ausgeht, fuer NV ist es ein FAIL, weil mindestens 4 Monate zu spät.
Naja ein FAIL wird er sicherlich nicht!
svenw
2010-03-08, 11:40:58
Zwei Gedankenfehler :):
1. Die 19 vs. 20fps spiegeln nur das Gesamtergebnis wieder. Viel wichtiger ist der Frameverlauf in dem man erkennen kann was die jeweilige Grafikkarte leistet wenn die Tesselation stark zu Geltung kommt. Das ist halt die Frage. Da es noch keine Games gibt die Tesselation in großer Menge einsetzen, ist das bisher reines raten.
2. Wie sehen die Frames wohl aus wenn man die "Flaschenhälse" außerhalb vom Tesselator über das Setting reduziert... zb. 1680x1050 4xMSAA? Nicht jeder wird schon einen 1920x1080/1200 Bildschirm haben und dabei gleich 8xMSAA nutzen (wobei ich 8xMSAA eh für sinnlos halte, das ist aber ein anderes Thema). Sieht man ja schon an den beiden Frame-Ergebnissen, dass beides nicht mehr flüssig spielbar ist.[/QUOTE] Wer keinen entsprechenden Bildschirm hat, braucht auch keine 480/5870. Bei kleineren Chips büßte NV IMHO seinen Vorsprung ein, da die Tesselation Engine bei ATI nicht skaliert sondern über alle Chips die gleiche bleibt. Insgesamt könnte NV hier die bessere Balance haben, da kleinere Karten eben auch keine Massen an Extra-Pixeln verarbeiten können, die aus der Tesselation Engine kommen und somit das extra der ATI Karten bei kleineren Chips nicht richtig zur Geltung kommt. Und unterhalb von Mainstream ist Tesselation eh Wayne. Da haben die Chips ganz andere Probleme als Tesselation.
LovesuckZ
2010-03-08, 11:47:32
Das ist halt die Frage. Da es noch keine Games gibt die Tesselation in großer Menge einsetzen, ist das bisher reines raten.
Grundsätzlich lässt sich sagen, dass der Einbruch mit Tessellation bei nVidia kleiner sein wird. Wieviel hängt vom Einsatz ab. Je mehr Tessellation angewendet wird, umso stärker wird es. Wie im Unigine Benchmark zusehen, bringt eine Zahl nach einer bestimmten Zeitmenge keine Aussagekraft. So wird nVidia über den gesamten Benchmark nicht doppelt so schnell sein, aber in den kritischen Stellen sind sie es. Und jetzt stelle dir das als Spiel vor: Bei einer Person liegen beide Karten noch bei 60 FPS. Bei 2 bricht die AMD Hardware schon um 10 FPS ein. Bei 3 schafft sie nur noch 30 FPS usw.
Wer keinen entsprechenden Bildschirm hat, braucht auch keine 480/5870. Bei kleineren Chips büßte NV IMHO seinen Vorsprung ein, da die Tesselation Engine bei ATI nicht skaliert sondern über alle Chips die gleiche bleibt. Insgesamt könnte NV hier die bessere Balance haben, da kleinere Karten eben auch keine Massen an Extra-Pixeln verarbeiten können, die aus der Tesselation Engine kommen und somit das extra der ATI Karten bei kleineren Chips nicht richtig zur Geltung kommt. Und unterhalb von Mainstream ist Tesselation eh Wayne. Da haben die Chips ganz andere Probleme als Tesselation.
Interessant wäre der Einbruch der 5870 beim Drachen mit AA in verwendung von Tessellation. Eigentlich sollte dieser gegen 0 gehen, da ein Größteil der Zeit zur Erstellung des Bildes nicht durch die ROPs verursacht werden.
dargo
2010-03-08, 11:51:50
Das ist halt die Frage. Da es noch keine Games gibt die Tesselation in großer Menge einsetzen, ist das bisher reines raten.
Natürlich müssen die Games erstmal einen entsprechenden Tesselationsgrad bieten damit sich der Fermi gut absetzen kann. Ich sehe in dieser Hinsicht aber bei den Spieleentwicklern nicht wirklich ein Problem. Afaik gibts momentan bei den wenigen DX11-Titeln nur einen On/Off-Schalter. Ich wüsste jetzt aber nicht warum es in näherer Zukunft bei der Tesselation zb. keine low/medium/high Abstufungen geben könnte. Durch einen weiteren IHV mit DX11-Hardware ist die Basis schon mal größer.
Wer keinen entsprechenden Bildschirm hat, braucht auch keine 480/5870.
Wie bitte? Du siehst doch an den Frames schon, dass eine einzelne GTX470/HD5870 mit DX11 und einem recht hohen Tesselationsanteil in Full-HD samt 8xMSAA völlig überfordert ist.
Die GTX470/480 oder die HD5870/5850 sind sicherlich sehr schnelle DX9/DX10.x Grafikkarten aber keine sehr schnelle DX11-Beschleuniger.
Popeljoe
2010-03-08, 11:57:41
Um mal die Diskussion der letzten ~500 Seiten zusammenzufassen:
Vielleicht hat Charlie recht, vielleicht nicht;
Vielleicht wird Deskto-Fermi heiß ohne Ende, vielleicht nicht;
Vielleicht kosten die Karten 650 Euro vielleicht nur 280;
Vielleicht wird der Chip 500mm2, vielleicht nicht;
Vielleicht wird der Nachfolge-Chip besser, vielleicht nicht;
Vielleicht gibts große Stückzahlen erst ab Mai, vielleicht nicht;
Vielleicht hat nVidia große Fehler gemacht, vielleicht nicht;
Vielleicht hat TSMC viele Fehler gemacht, vielleicht nicht;
Vielleicht wird Fermi ein Flop, vielleicht nicht;
Vielleicht ist Fermi bei Tessellation vorne, vielleicht nicht;
Vielleicht ist die GTX480 deutlich schneller als die 5870, vielleicht nicht;
Vielleicht ist der Thread hier einfach nur sinnlos, vielleicht nicht ...
Falls ich was vergessen haben sollte (von dem ich ausgehe), bitte posten ;-)
Schöne Zusammenfassung, aber du hast all die kleinen Nettigkeiten, welche immer wieder bestimmte Memz austauschen müssen (zwanghaft!) vergessen zu erwähnen!
Ohne diesen Füllstoff wäre der Thread sicherlich auf maximal 10 Seiten beschränkt.
Es sind noch knapp 2 Wochen, mal sehen, wieviele Seiten hier noch zusammenkommen, ohne dass weiterführende Infos hinzugefügt werden. ;)
X.Perry_Mental
2010-03-08, 12:00:17
Natürlich müssen die Games erstmal einen entsprechenden Tesselationsgrad bieten damit sich der Fermi gut absetzen kann.
Die Frage ist und bleibt aber, wieviel Tesselation überhaupt Sinn macht (und visuell etwas bringt). In Heaven wird massiv Tesselation eingesetzt, die in dieser Form in einem Spiel keinen Sinn macht - in einem Tesselation-Benchmark natürlich schon.
Die Frage ist und bleibt aber, wieviel Tesselation überhaupt Sinn macht (und visuell etwas bringt). In Heaven wird massiv Tesselation eingesetzt, die in dieser Form in einem Spiel keinen Sinn macht - in einem Tesselation-Benchmark natürlich schon.
Außerdem wird ausschließlich Tessellation zur plastischen Darstellung eingesetzt.
Ich glaube nicht, dass in zukünftigen Spielen keine Bumb/Parallaxoclusionmaps eingesetzt werden.
dargo
2010-03-08, 12:06:33
Die Frage ist und bleibt aber, wieviel Tesselation überhaupt Sinn macht (und visuell etwas bringt). In Heaven wird massiv Tesselation eingesetzt, die in dieser Form in einem Spiel keinen Sinn macht - in einem Tesselation-Benchmark natürlich schon.
Jetzt vergesst doch einfach diesen blöden Heaven-Benchmark. Das ist ja schlimmer wie damals mit dem 3D-Mark. :freak:
Natürlich ist es ziemlich sinnfrei in ein einzelnes Objekt (nehmen wir hier mal den Drachen als Beispiel) "unbegrenzt" Polys reinzupumpen. Irgendwann sieht man eh keinen bzw. kaum einen Unterschied. Heaven bietet imho eh wenig Objekte in einer Szene. Ich stelle mir in einem Spiel eher viele Objekte vor die durch den Tesselator gejagt und verschönert werden. In der Summe aber eine ähnliche Last beim Tesselator erzeugen wie der Heaven-Benchmark.
Warten wir einfach mal Metro 2033 ab. :)
Jetzt vergesst doch einfach diesen blöden Heaven-Benchmark. Das ist ja schlimmer wie damals mit dem 3D-Mark. :freak:
Natürlich ist es ziemlich sinnfrei in ein einzelnes Objekt (nehmen wir hier mal den Drachen als Beispiel) "unbegrenzt" Polys reinzupumpen. Irgendwann sieht man eh keinen bzw. kaum einen Unterschied. Heaven bietet imho eh wenig Objekte in einer Szene. Ich stelle mir in einem Spiel eher viele Objekte vor die durch den Tesselator gejagt und verschönert werden. In der Summe aber eine ähnliche Last beim Tesselator erzeugen wie der Heaven-Benchmark.
Warten wir einfach mal Metro 2033 ab. :)
Dafür tesselliert Heaven sogar den Boden.
Da dürfte Maps günstiger sein und gleich aussehen.
LovesuckZ
2010-03-08, 12:12:01
Jetzt vergesst doch einfach diesen blöden Heaven-Benchmark. Das ist ja schlimmer wie damals mit dem 3D-Mark. :freak:
Wobei er zeigt - unter der Annahme an der ohne Tessellationsleistung ändert sich nichts mehr -, dass GF100 keine Probleme hat solche "Worst-Case" Szenarium fast "for free" zu erledigen. Und das wiederrum gibt auch ein Ausblick auf Spiele mit Tessellation. Imo ist der Heaven Benchmark mehr aussagekräftiger als der 3DMark in Bezug auf die Tessellationleistung als der 3DMark auf irgendwelche anderen Einheiten.
Denn schneller als ohne Tessellation wird GF100 nunmal nicht sein. :D
dargo
2010-03-08, 12:12:37
Dafür tesselliert Heaven sogar den Boden.
Natürlich, aber mit welchen Grad? Das ist die wichtigste Frage. Afaik bricht die HD5870 erst beim Drachen stark ein oder täusche ich mich da?
Jetzt vergesst doch einfach diesen blöden Heaven-Benchmark. Das ist ja schlimmer wie damals mit dem 3D-Mark. :freak:
Natürlich ist es ziemlich sinnfrei in ein einzelnes Objekt (nehmen wir hier mal den Drachen als Beispiel) "unbegrenzt" Polys reinzupumpen. Irgendwann sieht man eh keinen bzw. kaum einen Unterschied. Heaven bietet imho eh wenig Objekte in einer Szene. Ich stelle mir in einem Spiel eher viele Objekte vor die durch den Tesselator gejagt und verschönert werden. In der Summe aber eine ähnliche Last beim Tesselator erzeugen wie der Heaven-Benchmark.
Warten wir einfach mal Metro 2033 ab. :)
ich möchte mal daraufhinweisen dass fermi seine tess performance in einem spiel erstmal beweisen muss, in dem drachen demo kann sich der chip ja wirklich auf tesselation konzentrieren und hat sonst nix zu tun.
Natürlich, aber mit welchen Grad? Das ist die wichtigste Frage. Afaik bricht die HD5870 erst beim Drachen stark ein oder täusche ich mich da?
Ja deshalb fragen sich ja hier Viele, ob der Tessellationsvorteil des GF100 so praxisrelevant ist.
Außerdem spricht Nichts dagegen, dass GF100 auch in den restliche Teilen des Benchmarks Vorteile durch Tessellation hat.
Es gibt ja afaik keinen Durchlauf ohne Tessellation.
dargo
2010-03-08, 12:18:21
ich möchte mal daraufhinweisen dass fermi seine tess performance in einem spiel erstmal beweisen muss, in dem drachen demo kann sich der chip ja wirklich auf tesselation konzentrieren und hat sonst nix zu tun.
Einerseits hast du recht. Anderseits würde ich Full-HD samt 8xMSAA nicht gerade als nichts bezeichnen. :)
Gibts eigentlich verläßliche Benchmarks von Heaven ohne Tesselation? Dieser Thread ist mit soviel Fanboy-Müll gestopft, dass ich den Überblick verloren habe. :ugly:
Es gibt ja afaik keinen Durchlauf ohne Tessellation.
Upps... zu langsam. Schade...
LovesuckZ
2010-03-08, 12:19:22
ich möchte mal daraufhinweisen dass fermi seine tess performance in einem spiel erstmal beweisen muss, in dem drachen demo kann sich der chip ja wirklich auf tesselation konzentrieren und hat sonst nix zu tun.
Hat da etwa jemand nicht DX11 Tessellation verstanden? :D
Auch AMD kann sich in dieser Szene "ja wirklich auf tesselation konzentrieren und hat sonst nix zu tun". Also kein Unterschied zwischen beiden.
Schlammsau
2010-03-08, 12:19:33
Wobei er zeigt - unter der Annahme an der ohne Tessellationsleistung ändert sich nichts mehr -, dass GF100 keine Probleme hat solche "Worst-Case" Szenarium fast "for free" zu erledigen. Und das wiederrum gibt auch ein Ausblick auf Spiele mit Tessellation. Imo ist der Heaven Benchmark mehr aussagekräftiger als der 3DMark in Bezug auf die Tessellationleistung als der 3DMark auf irgendwelche anderen Einheiten.
Denn schneller als ohne Tessellation wird GF100 nunmal nicht sein. :D
Das weiss man eben nicht, weil die von nVidia verwendete Heaven Demo, eine andere ist. Man kann die 1.0 (alle existierenden 5870 Benchmarks) und 1.1 (nVidias Fermi Benchmark) nicht miteinander Vergleichen!
Keiner ausser nVidia und evtl ATi weiss, wie eine 5870 mit der 1.1er performt.
Wir stehen also dort, wo der Thread vor einem halben Jahr war!
Mittlerweilen kann man auch das 1% 512SP Chip vergessen... Sonst würde er kaum sagen das sie sehr zufriden mit dem A3 sind...
Hat sich bis jetzt was Bewahrheitet von den ganzen (Charli) Gerüchten? bis jetzt kein einziges:
Nicht Herstellbar: Fail
Hohe TDP: Fail
Zu wenig Leistung: Fail
Nicht Bezahlbar: Fail
Kann mich noch sehr gut an Nagus Aussage Erinnern: GTX 470 Leistung wie 5850 + mehr Verbrauch als 5870 und 400.- + :freak:
Edit:
Vieleicht meint er ja auch 448SP und 480SP Chips damit ;)
Verteil das Fell des Bären mal lieber nicht, bevor er erlegt wurde.
Wobei gewisse Sachen auch Auslegungssache sind. Gibt bestimmt einige,die auch 350W TDP der GTX470 nicht als hohe TDP sehen würden.
LovesuckZ
2010-03-08, 12:21:27
Das weiss man eben nicht, weil die von nVidia verwendete Heaven Demo, eine andere ist. Man kann die 1.0 (alle existierenden 5870 Benchmarks) und 1.1 (nVidias Fermi Benchmark) nicht miteinander Vergleichen!
Keiner ausser nVidia und evtl ATi weiss, wie eine 5870 bei der 1.1 performt.
Wir stehen also dort, wo der Thread vor einem halben Jahr war!
Da leider kein 5870 User einen Durchlauf mit Fraps aufzeichnet, sage ich: Es gibt keine Unterschiede zwischen 1.0 und 1.1, die relevant sind. Die vorhandenen Werte vom Drachen mit 1.0 und dem Frameverlauf von nVidia bestätigen dies.
Du kannst gerne das Gegenteil mit einem Frameverlauf beweisen.
dargo
2010-03-08, 12:23:47
Hat da etwa jemand nicht DX11 Tessellation verstanden? :D
Auch AMD kann sich in dieser Szene "ja wirklich auf tesselation konzentrieren und hat sonst nix zu tun". Also kein Unterschied zwischen beiden.
Er meinte das anders in Bezug auf zukünftige Spiele. Bei der HD5870 ist der Tesselator wohl der größte Flaschenhals in Heaven, was ja nicht unbedingt auf zukünftige Spiele zutreffen muss. Wir müssen einfach paar DX11 Titel abwarten. Aber bitte dann mit Frameverläufen benchen und nicht nur die fast nichts aussagenden avg.fps einer langen Timedemo verwenden. :)
Hab ich IRGENDWIE/WO den Preis kritisiert? Wenn du mein Posting gelesen und verstanden hättest, dann hättest du kapiert, dass es mir einzig um den Vergleich geht ... Herrgott :mad:
Und was ich auch witzig finde. Nvidia-Fanboys, die NIE eine AMD Karte kaufen würden, ist deren Preis zu hoch? Echt ulkig.
Diese Ignoranz ist schon erstaunlich.
falls das an mich gerichtet war...ich zähl dir mal meine letzten karten auf
x800gto
x800xt
x1950pro
x1900xt
HD3850
8800GT
GTX260
ups noch fast vergessen Laptop - HD4570/HD3200 hybrid
mit was kannst du aufwarten?
und wenn nicht HD5870/50 interessant für m,ich wäre wär mir der preis dort völlig gleichgültig
Hat da etwa jemand nicht DX11 Tessellation verstanden? :D
Auch AMD kann sich in dieser Szene "ja wirklich auf tesselation konzentrieren und hat sonst nix zu tun". Also kein Unterschied zwischen beiden.
Ich glaube du hast wirklich nicht verstanden was ich sagen wollte.
Nvidia hat einen Weg genommen der besser skalierbar sein könnte,
da sie keinen dedizierten Tesselator haben. Jedoch kann ich mir im Gegenzug vorstellen dass dem Chip wenn er durch andere visuelle Effekte ausgelastet ist bei dann zusätzlicher tess last der dampf ausgeht.
LovesuckZ
2010-03-08, 12:38:05
Er meinte das anders in Bezug auf zukünftige Spiele. Bei der HD5870 ist der Tesselator wohl der größte Flaschenhals in Heaven, was ja nicht unbedingt auf zukünftige Spiele zutreffen muss.
Ja, aber solche Aussagen (wie auch die gleich folgende) entstehen aufgrund mangelndem Wissen:
Ich glaube du hast wirklich nicht verstanden was ich sagen wollte.
Nvidia hat einen Weg genommen der besser skalierbar sein könnte,
da sie keinen dedizierten Tesselator haben. Jedoch kann ich mir im Gegenzug vorstellen dass dem Chip wenn er durch andere visuelle Effekte ausgelastet ist bei dann zusätzlicher tess last der dampf ausgeht.
Nein, ich habe alles richtig verstanden: du kennst weder die Anforderungen von Microsoft noch den Aufbau der GF100 Architektur. Das ist dementsprechend traurig, da beides veröffentlicht wurde.
Aber ansonsten stimme ich dir, Dargo, zu: Frameverläufe in Dirt:2, Stalker und AvP wären sehr interessant, wenn Tessellation im Zeitrahmen vorkommt.
Da leider kein 5870 User einen Durchlauf mit Fraps aufzeichnet, sage ich: Es gibt keine Unterschiede zwischen 1.0 und 1.1, die relevant sind. Die vorhandenen Werte vom Drachen mit 1.0 und dem Frameverlauf von nVidia bestätigen dies.
Du kannst gerne das Gegenteil mit einem Frameverlauf beweisen.
echt ..was willste damit machen 5 Wochen hochladen....
Schlammsau
2010-03-08, 12:45:58
Da leider kein 5870 User einen Durchlauf mit Fraps aufzeichnet, sage ich: Es gibt keine Unterschiede zwischen 1.0 und 1.1, die relevant sind. Die vorhandenen Werte vom Drachen mit 1.0 und dem Frameverlauf von nVidia bestätigen dies.
Du kannst gerne das Gegenteil mit einem Frameverlauf beweisen.
Ich hab aber nur eine 5850....
Kann aber gerne heut Abend nen Frameverlauf der 1.0 hochladen.
Außerdem wird ausschließlich Tessellation zur plastischen Darstellung eingesetzt.
Ich glaube nicht, dass in zukünftigen Spielen keine Bumb/Parallaxoclusionmaps eingesetzt werden.Für feinste Details wird erst mal Bumpmapping in allen möglichen Variationen weitergenutzt. Aber etwas gröbere Details lassen sich gut mittels Displacementmapping geometrisch auflösen.
Bucklew
2010-03-08, 12:54:44
ATi kann nicht liefern? Du bist wirklich unglaublich. AMD bekommt nicht genügend Wafer von TSMC, ganz einfach. Aber du bist ja auch ein Fanboy durch und durch, was nützten da schon Diskussionen...
Sie kriegen nicht genügend Wafer? Also anders gesagt hat ATI nicht genug Wafer bestellt und daher gehen die Lieferengpässe auf ihre Kappe, seh ich das jetzt richtig?
Sie kriegen nicht genügend Wafer? Also anders gesagt hat ATI nicht genug Wafer bestellt und daher gehen die Lieferengpässe auf ihre Kappe, seh ich das jetzt richtig?
du weißt nicht wenns genug ist, oder? kannst du mal aufhören auf "crazy german kid" zu machen? DANKE!!
Sie kriegen nicht genügend Wafer? Also anders gesagt hat ATI nicht genug Wafer bestellt und daher gehen die Lieferengpässe auf ihre Kappe, seh ich das jetzt richtig?
Ja, sie haben nicht mehr Wafer bestellt weil sie nicht mehr Karten verkaufen wollen. :ugly:
Du bist wirklich ein Clown. Es wurde schon mehrmals gesagt das TSMC nicht genügend Kapazitäten hat. Wenn du das nicht verstehen willst und dich dumm stellst machst du damit deine offensichtlichen Fanboyambitionen nur noch offensichtlicher.
Mr. Lolman
2010-03-08, 13:11:44
Für feinste Details wird erst mal Bumpmapping in allen möglichen Variationen weitergenutzt. Aber etwas gröbere Details lassen sich gut mittels Displacementmapping geometrisch auflösen.
Bumpmapping (ja, auch POM/Displacement Mapping) sieht aber nur gut aus, solang das Bild nicht Stereoskopisch ausgegeben wird. Ist halt doch nur ein Textureffekt und deswegen wirken die schönen POM-Steine von Crysis mit 3D-Stereodarstellung leider ziemlich flach.
Iruwen
2010-03-08, 13:12:07
Meine Erinnerungen sind schlecht, deshalb mal hier die Frage. War die 470er nicht ursprünglich dazu gedacht, die 5870 eindeutig zu schlagen und die 480er die 5970? Ich bin verwirrt. :confused:
Warum sollte eine Single GPU Karte eine Dual GPU Karte deutlich schlagen? Schafft die HD 5870 bei der GTX 295 ja auch nicht (außer letzterer geht der Speicher aus).
Schlammsau
2010-03-08, 13:13:12
Warum sollte eine Single GPU Karte eine Dual GPU Karte deutlich schlagen? Schafft die HD 5870 bei der GTX 295 ja auch nicht (außer letzterer geht der Speicher aus).
Doch tut sie.
http://www.3dcenter.org/artikel/sapphire-radeon-hd-5870-vs-zotac-geforce-gtx-285-295/auswertung-fazit
Bucklew
2010-03-08, 13:14:29
Du bist wirklich ein Clown. Es wurde schon mehrmals gesagt das TSMC nicht genügend Kapazitäten hat. Wenn du das nicht verstehen willst und dich dumm stellst machst du damit deine offensichtlichen Fanboyambitionen nur noch offensichtlicher.
Dir ist schon klar, dass die Verteilung der knappen Kapazitäten natürlich auch direkt mit der vertraglich gesicherten Kapazität zusammenhängt? ;)
Von daher klarer Fehler von ATI, wenn man sich nicht genug Kapazitäten zusichern lässt. Aber da zeigen sich die ganzen AMD-Fanboys, die immer versuchen die ganzen Schuld TSMC in die Schuhe zu schieben, während AMD natürlich niemals Fehler machen würde :eek:
Ja, sie haben nicht mehr Wafer bestellt weil sie nicht mehr Karten verkaufen wollen. :ugly:
Du bist wirklich ein Clown. Es wurde schon mehrmals gesagt das TSMC nicht genügend Kapazitäten hat. Wenn du das nicht verstehen willst und dich dumm stellst machst du damit deine offensichtlichen Fanboyambitionen nur noch offensichtlicher.
Natürlich geht der Engpass zum größten Teil auf das Konto von TSMC. Aber was die Verteilung der geringen Anzahl an Wafern angeht, die TSMC zur Zeit hat liegt Bucklew 100% richtig. Nvidia hat viel mehr Wafer vorbestellt als Ati. Denn bereits vor Monaten hat der NV-CEO damit geprahlt wieviel sie vorbestellt haben...
Bucklew
2010-03-08, 13:16:54
Doch tut sie.
http://www.3dcenter.org/artikel/sapphire-radeon-hd-5870-vs-zotac-geforce-gtx-285-295/auswertung-fazit
Solange man nicht 8xAA betrachtet schlägt die GTX295 doch die HD5870? Das 8xAA ein Problem des GT200 war ist doch bekannt.
Dir ist schon klar, dass die Verteilung der knappen Kapazitäten natürlich auch direkt mit der vertraglich gesicherten Kapazität zusammenhängt? ;)
Von daher klarer Fehler von ATI, wenn man sich nicht genug Kapazitäten zusichern lässt. Aber da zeigen sich die ganzen AMD-Fanboys, die immer versuchen die ganzen Schuld TSMC in die Schuhe zu schieben, während AMD natürlich niemals Fehler machen würde :eek:
Dir ist schon klar das du wie so oft Bullshit sprichst? Nein? Dachte ich mir. AMD hat genommen was man gekriegt hat. Dass das nicht reichen wird war ebenso klar. Aber was soll man auch sonst machen. Mitte des Jahres soll es endlich besser werden, denn dann hat TSMC die Kapazitäen zumindest mal verdoppelt.
Bucklew
2010-03-08, 13:21:20
Dir ist schon klar das du wie so oft Bullshit sprichst? Nein? Dachte ich mir. AMD hat genommen was man gekriegt hat. Dass das nicht reichen wird war ebenso klar. Aber was soll man auch sonst machen. Mitte des Jahres soll es endlich besser werden, denn dann hat TSMC die Kapazitäen zumindest mal verdoppelt.
Nö. AMD hat einfach nur nicht genug Kapazitäten vertraglich zusichern lassen, das ist alles. Aber stimmt, wie sollen die auch damit rechnen, dass jemand ihre Karten kauft :D
Warum sollte eine Single GPU Karte eine Dual GPU Karte deutlich schlagen? Schafft die HD 5870 bei der GTX 295 ja auch nicht (außer letzterer geht der Speicher aus).
Der Vergleich passt auch nicht da die HD5870 eine Generation weiter ist als die GTX295, die GTX480 gehört troz der Verspätung (die ja nur produktionsbedingt ist) zur gleichen Generation wie die HD5970.
Dir ist schon klar das du wie so oft Bullshit sprichst? Nein? Dachte ich mir. AMD hat genommen was man gekriegt hat. Dass das nicht reichen wird war ebenso klar. Aber was soll man auch sonst machen. Mitte des Jahres soll es endlich besser werden, denn dann hat TSMC die Kapazitäen zumindest mal verdoppelt.
Wenn Ati 30k Wafer bestellt und NV 70k Wafer, TSMC aber Probleme bekommt und nur 10K Wafer herstellen kann, dann bekommt Ati eben nur 3K und NV 7k. Was ist daran so schwierig zu verstehen?
Bucklew
2010-03-08, 13:31:05
Wenn Ati 30k Wafer bestellt und NV 70k Wafer, TSMC aber Probleme bekommt und nur 10K Wafer herstellen kann, dann bekommt Ati eben nur 3K und NV 7k. Was ist daran so schwierig zu verstehen?
Das AMD einfach nicht schuld sein KANN!!111elf!!!
Schlammsau
2010-03-08, 13:31:38
hier stand mist!
James Ryan
2010-03-08, 13:38:53
Ui, Direct-Touch für die Heatpipes! :up:
Der Kühler ist auch ganz schön klein, mal sehen wie lange die Gerüchte von 300 Watt TDP noch Bestand haben werden.
MfG :cool:
LovesuckZ
2010-03-08, 13:39:35
Ui, Direct-Touch für die Heatpipes! :up:
Der Kühler ist auch ganz schön klein, mal sehen wie lange die Gerüchte von 300 Watt TDP noch Bestand haben werden.
MfG :cool:
Die GTX470 liegt unter 225 Watt. ;)
Das waren keine 300W für die 470 sondern maximal 280W TDP für die 480 und maximal 220W für die 470.
kühler der 470 näher betrachtet,
http://www.abload.de/img/gtx470sog_1_dh_fx57nq1r.jpg
http://www.abload.de/thumb/gtx470sog_2_dh_fx571ojq.jpg (http://www.abload.de/image.php?img=gtx470sog_2_dh_fx571ojq.jpg)
Quelle (http://www.donanimhaber.com/GeForce_GTX_470in_sogutucusu_detaylandi-18522.htm)
http://www.abload.de/thumb/evga_gtx400_package_01pspu.jpg (http://www.abload.de/image.php?img=evga_gtx400_package_01pspu.jpg)http://www.abload.de/thumb/evga_gtx400_package_029pna.jpg (http://www.abload.de/image.php?img=evga_gtx400_package_029pna.jpg)
Ein 1.8A-Lüfter ist halt auch nicht von schlechten Eltern. Aber interessant wird vorallem die GTX480 mit >225W.
=Floi=
2010-03-08, 13:44:21
wobei das sicherlich 8mm pipes sind. dieser weg dürfte für nv günstiger sein.
Nakai
2010-03-08, 13:44:42
Solange man nicht 8xAA betrachtet schlägt die GTX295 doch die HD5870? Das 8xAA ein Problem des GT200 war ist doch bekannt.
MGPU mit SingleGPU zu vergleichen ist ziemlicher Schwachsinn. Schon alleine wegen den MRs sollte man die HD5870 der GTX295 vorziehen.
Ein 1.8A-Lüfter ist halt auch nicht von schlechten Eltern. Aber interessant wird vorallem die GTX480 mit >225W.
Der Lüfter ist nicht groß, aber der Kühlkörper ist relativ klein. Um die 160W reeller Verbrauch schätz ich mal.
mfg
Grestorn
2010-03-08, 13:47:48
MGPU mit SingleGPU zu vergleichen ist ziemlicher Schwachsinn. Schon alleine wegen den MRs sollte man die HD5870 der GTX295 vorziehen.
Bitte Context beachten. Bucklew hat nur auf eine Behauptung reagiert, dass die GTX295 nicht mal als DualGPU in der Lage wäre eine HD5870 zu schlagen.
LovesuckZ
2010-03-08, 13:50:40
Gibt es Vergleichwerte der Lüfter von den GTX280 und GTX285 Karten? Als Laie sagt mir das jetzt soviel, ob 1,8A eher gut oder schlecht ist.
MGPU mit SingleGPU zu vergleichen ist ziemlicher Schwachsinn. Schon alleine wegen den MRs sollte man die HD5870 der GTX295 vorziehen.
mfg
Und die ominösen MRs müssen es mal wieder richten, das wird langsam zur Seuche, auch wenn die meisten, also 99% nicht mal welche gesehen haben. Aber wenn es bestimmte Leute immer wieder blubbern wird schon was dran sein.
Die 5870 ist aus anderen Gründen vorzuziehen.
Kalmar
2010-03-08, 14:02:11
dat lüftschaufeldding sieht nach nem hohen fiesen rauschen aus :-/
und wegen nun tollen tessla, da frage ich mich wie das umgesetzt wird die meisten spiele kommen von der konsole wenn sie das stiefmütterlich umsetzen nützen uns das allen leider gar nix und hardware auf zukunft kaufen hat noch nie wirklich gefutzt also einfach abwarten was so passiert ...
und die jetzigen Grafikkarten werden in einem Jahr eh zu langsam sein um wirklich mit halten zu können[das war immer so bisher das erst die refreshkarten wirklich die power umsetzen konnten weil man erst im Massentest bestimmte Flaschenhälse erkennt und beseitigen kann bzw. man erst nach ner gewissen zeit weiß, was die spieleleute wirklich an bestimmten effekten um- und einsetzen und wie sie es umsetzen] viel spannender als jetzt die 2-5% schneller-langsamer diskusionen ist die frage wie wird sich der fermi refresh schlagen und die neue ati Struktur .. nur dann möchte ich net wissen wie sich wegen irgendwelchen Spezifikationen und Möchtegern Vorteilen sich hier die roten und die grünen hartcore flamen werden ..
und wegen den Stückzahlen, es ist doch scheiss egal ob ati wenig liefern kann, weil zuwenig bestellt, tsmc zu wenig produzieren kann, oder irgendein anderer Zulieferer nicht die mengen liefert die nötig sind, für mich als Kunde ist doch nur wichtig was im laden ankommt und da steh ati net so dolle da aber nv ist noch gar net zu sehen und steht noch beschissener da .. ich hoffe die leidige nv liefert gar nicht, ati auch net rumgeflame hört nun auf des ist echt schlimmer wie bei meiner kleinen cousine im kindergarten
btw. neue daten/infos zum 104er sind noch net draußen oder? müsste man da nicht langsam was wissen ?
Tarkin
2010-03-08, 14:05:26
1.8A sind bei 12V Nennspannung sage und schreibe 21.6W nur für den Lüfter. Du kannst davon ausgehen dass das Dnig zumindest bei 100% einem Staubsauger gleich kommt. Aber man muss ihn ja nicht mit maximaler Spannung betreiben.
zum Vergleich... jener einer 5870er mit "nur" 0,8A
http://pic.xfastest.com/sxs112/ASUS/5870WEB/pictures/ASUS5870-33.jpg
den gleichen haben btw 5850 und 5970
Bitte Context beachten. Bucklew hat nur auf eine Behauptung reagiert, dass die GTX295 nicht mal als DualGPU in der Lage wäre eine HD5870 zu schlagen.
Grestorn - der Mann, der die NV-Fanboys verteidigen muss.
LovesuckZ
2010-03-08, 14:06:41
1.8A sind bei 12V Nennspannung sage und schreibe 21.6W nur für den Lüfter. Du kannst davon ausgehen dass das Dnig zumindest bei 100% einem Staubsauger gleich kommt. Aber man muss ihn ja nicht mit maximaler Spannung betreiben.
Ich habe nicht nach der Wattzahl gefragt. Aber ich sehe gerade, dass der r600 2A hatte.
zum Vergleich... jener einer 5870er mit "nur" 0,8A
http://pic.xfastest.com/sxs112/ASUS/5870WEB/pictures/ASUS5870-33.jpg
Kann ich mir kaum vorstellen, der hat bei 100% ja auch eine sehr hohe Drehzahl. Würde mich nicht wundern wenn der auch nahe an den 2A liegt.
Ich habe nicht nach der Wattzahl gefragt. Aber ich sehe gerade, dass der r600 2A hatte.
Ich bitte vielmals um Entschuldigung, ich wollte nur helfen.
LovesuckZ
2010-03-08, 14:10:24
Ich bitte vielmals um Entschuldigung, ich wollte nur helfen.
Kein Problem, klingt auch viel aggressiver als es eigentlich gedacht war. :(
Tarkin
2010-03-08, 14:14:53
Kann ich mir kaum vorstellen, der hat bei 100% ja auch eine sehr hohe Drehzahl. Würde mich nicht wundern wenn der auch nahe an den 2A liegt.
mir das ist jetzt echt zu blöd.. solch Schwachsinn braucht man eigentlich nicht zu kommentieren
Bucklew
2010-03-08, 14:16:39
1.8A sind bei 12V Nennspannung sage und schreibe 21.6W nur für den Lüfter. Du kannst davon ausgehen dass das Dnig zumindest bei 100% einem Staubsauger gleich kommt. Aber man muss ihn ja nicht mit maximaler Spannung betreiben.
Dann bleibt der Kühler auf jeden Fall staubfrei, wenn der beim booten erstmal voll hochdreht ;D
Ja, das muss wohl so sein... es ist eigentlich gängige Praxis dass man Beschriftungen von so Bauteilen fälscht. Bei AMD würde mich das auch überhaupt nicht wundern. Ich glaub sogar AMD setzt einen 80A Lüfter ein
Letzte Generation haben sie sich auf jeden Fall sehr genau an die PCIe Spec mit maximal 300W gehalten:
http://www.pcgameshardware.de/screenshots/original/2009/02/Leistungsaufnahme_Grafikkarten_Furmark_090227152034.png
:freak:
Kalmar
2010-03-08, 14:20:36
Ich habe nicht nach der Wattzahl gefragt. Aber ich sehe gerade, dass der r600 2A hatte.
bei cb mal eben geschaut die x2900 xt also net des ganz schnelle ding [xtx] zur lautstärke :
Unter Last dreht der Lüfter größtenteils mit einer Lautstärke von 56,5 dB, was im Spielbetrieb zwar negativ auffällt, allerdings gerade noch zu ertragen ist. In unregelmäßigen Abständen schaltet der Quirl einen Gang zurück. Warum in Zeiten leiser Kühlsysteme wie dem auf der GeForce-8800-Serie solch ein lautes Exemplar von Nöten ist, wo die Temperatur doch im grünen Bereich liegen, verstehen wir jedoch nicht.
quelle : http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/33/#abschnitt_lautstaerke
wäre echt schade wenn nv hier spart oder den boardherstellern das überlässt weil dann dauert das mit verfügbar und leise wohl noch ne weile .. aber vielleicht dreht der lüfter auch so langsam das alles schick ist .. wartens wirs ab ..
Nightspider
2010-03-08, 14:22:18
Wenn man die Grafikkartenkühler-Qualität von damals (FX 5800):
http://techreport.com/r.x/geforcefx-5800ultra/bfg-5800-ultra1.jpg
mit der von heute vergleicht:
http://www.abload.de/img/gtx470sog_3_dh_fx57j606.jpg
...dann wäre damals nie diese Kritik an den HighEnd Grafikkarten entstanden:
http://www.au-ja.de/bilder/press/FX.jpeg
;D
Schon krass, wenn man die 2 Kühler vergleicht...
Wie teuer war damals eine FX 5800 Ultra? Kann man sagen, dass die Hersteller heute mehr Geld vom Gewinn in die Kühler stecken?
Früher gab es natürlich noch nicht die Techniken, wie Heatpipes...aber derjenige, der den Kühlervon der 5800 designed hat muss echt besoffen gewesen sein. ;D
wieviel Watt hat denn ein Lüfter einer GTX285, GTX 275, GTX 260
ich find die 1,8A nicht beunruhigend.
Wie schon mal gesagt, fand ich die warme Luft aus den Demosystemen nicht wärmer als die Abluft meiner GTX260
LovesuckZ
2010-03-08, 14:23:45
Ja, interessant, oder? Die 5800U brauchte irgendwas um die 60-80 Watt. Heute wird das per Passivkühler ausgeliefert. :D
PCGH.de hatte beim GTX285 Test die Kühler der GTX280, GTX285 und 8800GTS-512 verglichen:
http://www.pcgameshardware.de/aid,672945/Geforce-GTX-285-Test-der-neuen-Nvidia-Grafikkarte/Grafikkarte/Test/bildergalerie/?iid=959515
Kalmar
2010-03-08, 14:28:24
für uns ist es doch gut wenn die mehr in die kühlungstecken und man sich net wie aufn nem flughafen fühlen muss :-)
wobei meine 3870 hat nen ähnlichen aufbau der kühlung und ist leise .. wenn man das jetzt überträgt auf die jetzige kühlungen muss nen kühler der vergleichbar ausschaut net leise oder laut sein ..
http://regmedia.co.uk/2007/11/27/amd_3870_1.jpg
ich fand das in dem video wo das 3d zeugs gepostet wurde arglaut bzw nen starkes rauschen war da zu hören bei dem benchmarksystem war ja nix zuhören .. mal schaun was raus kommt nv sollte es aber peinlichst vermeiden nen staubsauger oder föhn raus zubringen damit würden sie sich noch mehr kaputt machen als durch das lange warten ..
Dural
2010-03-08, 14:32:18
1.8A sind ja nicht viel, Diverse ATi haben über 2A... und sagt gerade nichts über die Quaität oder so aus....
zudem wider mal einen Delta Lüfter... ist was vom bessten was es gibt! die legendäre 8800GTX hatte auch einen Delta!
Tarkin
2010-03-08, 14:36:43
1.8A sind ja nicht viel, Diverse ATi haben über 2A...
Immer wieder erstaunlich das diverse leute scheintbar null ahnung von Grafikkarten haben aber zu allem einen Kommentar abgeben müssen....
Groß reden, andere runtermachen, irgendwelche Behauptungen aufstellen ohne Beweis ... das ist schon abenteuerlich.
ach ja... 2900 XT hatte auch nur ca. 1A
http://xtreview.com/images/HIS%20radeon%20HD%202900%20XT%20512%20Mb%20cooling%20fan.jpg
Ich warte auf "diverse andere" die angeblich mehr als 2A "saugen". Da bin ich jetzt gespannt.
LovesuckZ
2010-03-08, 14:37:23
Vergleicht man die Kühlkörper scheint der von der GTX470 auf dem Niveau des Kühler der 8800GTS-512 zu liegen. Entweder der Lüfter läuft unter Last annährend auf 100% oder die angebliche TDP von 220W ist zu hoch.
Nightspider
2010-03-08, 14:37:45
Ja, interessant, oder? Die 5800U brauchte irgendwas um die 60-80 Watt. Heute wird das per Passivkühler ausgeliefert. :D
PCGH.de hatte beim GTX285 Test die Kühler der GTX280, GTX285 und 8800GTS-512 verglichen:
http://www.pcgameshardware.de/aid,672945/Geforce-GTX-285-Test-der-neuen-Nvidia-Grafikkarte/Grafikkarte/Test/bildergalerie/?iid=959515
Jepp...wer weiß was uns noch erwarten wird in Zukunft in Sachen Kühlung...
Wollte Sparkle nicht die Kühler mit Kohlenstoff beschichten um die Temperatur nochmals um (über) 5°C mehr zu senken?
Hatten die nicht schon ein Patent dazu angemeldet und wollten zukünftig alle Kühler damit ausstatten?
Auf einmal war es dann ganz still um Sparkle...
Dural
2010-03-08, 14:38:53
saugen tut keiner 2A auch wenn das drauf steht....
Delta ist übrigens sehr gut bekannt das sie etwas höhere angaben machen als real bei 100% anliegt.
und noch einmal die 1.8A sagen nichts aus... ich bin sogar sehr froh das es einen delta ist!!!
Delta: Qualität ;)
Kalmar
2010-03-08, 14:58:40
ok hab mir mal die mühe gemacht und bei delta geschaut :
http://www.delta.com.tw/product/cp/dcfans/dcfans_product.asp?pcid=3&ptid=1 .. des soll ja nen 70er sein da gibt das datenblat folgendes her :
PART NO. FUNCTION VDC VDC Amp Watt R.P.M. CFM mmH2 O IN H2O dB-A
BFB0712LD -R00 / -F00 12 7.0 to 13.8 0.13 1.56 2800 0.172 6.07 13.36 0.562 32.5
BFB0712HD -R00 / -F00 12 7.0 to 13.8 0.31 3.72 4000 0.231 8.52 26.27 1.034 42.0
komischerweise gibt es keinen HF wie auf den bild von den lüfter [ http://www.abload.de/image.php?img=gtx470sog_4_dh_fx574ulo.jpg ] denke mal nen hd wird heir ähnlich den hf sein also stehen rund 42 DB im raum ..
quelle http://www.delta.com.tw/product/cp/dcfans/download/pdf/BFB/BFB70x70x20mm.pdf
wenn man cb lautstärke nimmt [aber keine ahnung ob die werte vergleichbar sind vond er messung her von delt und cb] sollte dieser lüfter so laut sein wie der von der 5870 ..
LovesuckZ
2010-03-08, 15:00:54
Der Aufkleber dürfte dann wohl Fake sein.
/edit: Der Lüfter der GTx280 und GTX285 hatte 0,48A
/edit: Das zeigt google:http://www.google.de/#hl=de&source=hp&q=BFB0712HF&btnG=Google-Suche&meta=&aq=f&oq=BFB0712HF&fp=52f5fb6826b31914
Scheint wohl eine Weltneuheit zu sein. :D
Der Kühler für die GTX480 ist aber kaum größer!
MfG :cool:
Naja TDP muss nicht unbedingt was mit hohem Realverbrauch zu tun haben. ;)
Mit 1,8A bringt man aber locker 350W weg, sagt aber auch nichts über den Verbrauch aus, die könnten einfach nur günstiger als ein Quirl mit 0,8A gewesen sein. (Oder es ist ein Fake)
Dural
2010-03-08, 15:09:46
ah leute... der lüfter wird schon so existieren...
und wie laut der bei 100% ist ist doch egal... man hat ja eine lüftersteuerung und entscheident ist eben genau das regel verhalten...
Die NV Karten hatten bis jetzt immer sehr schwache Lüfter @ 100% im Vergleich zu den ATI Modellen!
GTX280 / 8800GTX / 8800GTS 512 zb.
Die Karten werden schon normale Lautstärke haben... keine sorgen...
Kalmar
2010-03-08, 15:12:30
der lüfter auf den datenblatt hat aber auch nen gehäuse drum herrum ggf hat der ja dann keins oder ein verändertes .. denke den lüfter wird es schon geben :-)
Dimon
2010-03-08, 15:14:04
Der quirl meiner HD4890 hat 0.8 Ampere, aber wenn man das teil auf 100% schaltet gleicht das ganze einen Fön :redface: (PCGH Test hat dem 10,4 Sone max bescheinigt)
Ich weiss ja nicht was ihr habt, aber ich denke man kann schon mit einem 0.8A Lüfter ziemlich viel wärme abführen :biggrin:
Gruß
LovesuckZ
2010-03-08, 15:24:16
der lüfter auf den datenblatt hat aber auch nen gehäuse drum herrum ggf hat der ja dann keins oder ein verändertes .. denke den lüfter wird es schon geben :-)
Wenn nicht mal der Hersteller des Lüfters ihn führt und Google kein vernünftiges Ergebnis ausspuckt, scheint dieser Lüft nicht zu existieren. Da hat man wohl einfach mal einen Fake Aufkleber erstellt.
Wie teuer war damals eine FX 5800 Ultra? Kann man sagen, dass die Hersteller heute mehr Geld vom Gewinn in die Kühler stecken?
Früher gab es natürlich noch nicht die Techniken, wie Heatpipes...aber derjenige, der den Kühlervon der 5800 designed hat muss echt besoffen gewesen sein. ;D
Heatpipe-Techniken gibt es seit Ewigkeiten, in der Computerbranche wurde es nur später eingesetzt. BTW hat die FX5800 Ultra Heatpipes, wenn du genau auf das Bild guckst. Die Radiallüfter auf der Karte ist wattmäßig schwach, er hatte nur eine beschissene Frequenz.
Früher waren alle Karten in der Herstellung billiger. Heute sind sie teuer, die Preise blieben recht konstant bzw. sanken. Da die Hersteller trotzdem nicht pleite gehen, folgt daraus, dass die Jahre zuvor gut abkassiert wurde.
Grestorn
2010-03-08, 15:40:09
Grestorn - der Mann, der die NV-Fanboys verteidigen muss.
Wenn die ATI-Fanboys zu dumm zum lesen sind, scheint sogar das notwendig zu sein.
Botcruscher
2010-03-08, 15:41:46
Die Radiallüfter auf der Karte ist wattmäßig schwach, er hatte nur eine beschissene Frequenz.
15 Sone würde ich jetzt nicht als schwach bezeichnen. :freak: Last doch jetzt mal den armen Lüfter in Ruhe und wartet auf die Karte. Alles andere hat doch weder Hand noch Fuß.
Das die Ampere überhaupt nichts mit der tatsächlichen Drehzahl zu tun haben ist euch aber schon klar? Weder der Wirkungsgrad des Lüfters ist bekannt, noch die tatsächlich vom Fan-Controller angelegte Spannung.
Bei dem Kühlblock und der TDP ist es komplett unwahrscheinlich, dass wir es mit einem lauten Kühler zu tun haben werden. Das wird natürlich aber völlig zur Seite geschoben.
Der Kühler ist, wenn ich das richtig sehe, etwas kürzer als bei HD5870.
Entweder braucht die 470 weniger oder sie hält höhere Temps aus. Die 1,8 A kommen mir schon recht hoch vor. Schließlich verteuert das den Lüftermotor. Mal abwarten. Vielleicht ist der auch für die 480 gedacht und man verbaut auf die 470 wegen der größereren Stückzahl und Rabatte die selben Lüfter.
Entweder braucht die 470 weniger oder sie hält höhere Temps aus
Oder der Kühlblock funktioniert effizienter. Ich weiß allerdings nicht wie der bei ATI momentan konstruiert ist.
Bitte Context beachten. Bucklew hat nur auf eine Behauptung reagiert, dass die GTX295 nicht mal als DualGPU in der Lage wäre eine HD5870 zu schlagen.
Ist sie auch nicht in keiner Situation, Punkt und aus, wenn noch SSAA dazu kommt hat die 295 ganz verloren, ENDE.
Aber eh schon klar 8xAA zb. darf man natürlich auch nicht als Vergleich hinzuziehen..aber wenn es andersrum wäre...dann schon..sowas lächerliches..wie war das mit FanBoys?
Wenn nicht mal der Hersteller des Lüfters ihn führt und Google kein vernünftiges Ergebnis ausspuckt, scheint dieser Lüft nicht zu existieren. Da hat man wohl einfach mal einen Fake Aufkleber erstellt.
Muss nicht sein, ich hatte mal ein netzteil von Delta dessen Typenschild auch nicht "google-bar" war, dennoch lag es vor mir und war von Delta.
Nein, den Lüfter gibt es auch nicht, und sowieso und überhaupt... Und wenn, musser jefaked sein
http://directories.csa-international.org/xml_transform.asp?xml=certxml\091949_0_000-3812-01.xml&xsl=xsl/certrec.xsl
http://translate.google.com/translate?hl=en&sl=zh-CN&tl=en&u=http%3A%2F%2Fdetail.china.alibaba.com%2Fbuyer%2Fofferdetail%2F614872074.html
Dimon
2010-03-08, 15:59:09
Ist sie auch nicht in keiner Situation, Punkt und aus, wenn noch SSAA dazu kommt hat die 295 ganz verloren, ENDE.
Aber eh schon klar 8xAA zb. darf man natürlich auch nicht als Vergleich hinzuziehen..aber wenn es andersrum wäre...dann schon..sowas lächerliches..wie war das mit FanBoys?
Du weisst schon das die GTX295 sogar gegen eine HD4890 in hohen auflösungen abkackt? Aber nichtdestotrotz ist die GTX295 im allgemeinen schneller als die HD4890..
Ist sie auch nicht in keiner Situation, Punkt und aus, wenn noch SSAA dazu kommt hat die 295 ganz verloren, ENDE.
Aber eh schon klar 8xAA zb. darf man natürlich auch nicht als Vergleich hinzuziehen..aber wenn es andersrum wäre...dann schon..sowas lächerliches..wie war das mit FanBoys?
Die FanBoy-Frage stellt sich doch nicht, wenn eine Karte der vorletzten NV-Serie mit einer Karte der letzten Ati-Serie verglichen wird ...
derguru
2010-03-08, 16:02:52
bei 8aa darf man nicht,
bei dx11 darf man nicht,
bei rammangel darf man nicht,
am besten macht man ein vergleich bei physX und cuda:facepalm:
was für ein lustiger haufen.;D
am besten macht man ein vergleich bei physX und cuda:facepalm:
was für ein lustiger haufen.;D
Apropos. Neues von AMD und dessen Open Physics Initiative
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1268059713
Bucklew
2010-03-08, 16:07:29
Ist sie auch nicht in keiner Situation, Punkt und aus, wenn noch SSAA dazu kommt hat die 295 ganz verloren, ENDE.
Bullshit, je nach Setting kann eine GTX295 sehr wohl eine HD5870 schlagen - und daum ging es.
Du weisst schon das die GTX295 sogar gegen eine HD4890 in hohen auflösungen abkackt? Aber nichtdestotrotz ist die GTX295 im allgemeinen schneller als die HD4890..
Darum gehts garnicht, mir isses völlig Wurst was ich im Rechner habe, Hauptsache das Teil erfüllt meine Vorstellung und da brauch keiner kommen mir erzählen das darf und und dies nicht weils dem anderen nicht in den Kram paßt.
Bullshit, je nach Setting kann eine GTX295 sehr wohl eine HD5870 schlagen - und daum ging es.
Schon das erste Wort zeigt deine Klasse....
Ich bin von von einer 295 auf ne 5870 umgestiegen in 1920x 1200, wo ich ich mit der NV auf 1680 runtermußte lacht sich die ATI tot.
Du hast doch keine der beiden Karten überhaupt schon aus der Nähe gesehen, bzw damit gespielt...so Leute wie Du gehören eigenlich in FanBoy Abteilung im Luxx.
Schon das erste Wort zeigt deine Klasse....
Ich bin von von einer 295 auf ne 5870 umgestiegen in 1920x 1200, wo ich ich mit der NV auf 1680 runtermußte lacht sich die ATI tot.
Du hast doch keine der beiden Karten überhaupt schon aus der Nähe gesehen, bzw damit gespielt...so Leute wie Du gehören eigenlich in FanBoy Abteilung im Luxx.
Man hat den Eindruck das ganze Forum besteht aus dieser "Klasse".
Seriös erscheint es auf jeden Fall nicht. Und das sind zu 90% keine Gäste :)
Bucklew
2010-03-08, 16:20:34
Schon das erste Wort zeigt deine Klasse....
Ich bin von von einer 295 auf ne 5870 umgestiegen in 1920x 1200, wo ich ich mit der NV auf 1680 runtermußte lacht sich die ATI tot.
Super offtopic, was hat das jetzt damit zu tun, dass es immer noch Settings gibt, in denen die GTX295 schneller ist als die 5870?
Aber was erwartet man schon von einem "Gast" - komisch, das sind die einzigen, die ständig herumsticheln, Tatsachen und Aussagen verdrehen und von lesen können rede ich jetzt nichtmal...
deekey777
2010-03-08, 16:23:43
Wieso ist die Tesselation bei der Unigine "übertrieben"? Für ordentliches Displacement-Mapping ist das gerechtfertigt, und LOD haben sie ja auch implementiert. Das sie das Displacement von der Stärke total übertreiben ist halt für den Showeffekt, aber das ändert ja kaum was an der benötigten Geometrie-Menge - auch wenn man es dezent einsetzt.
.
Die Kritik ist ua, dass mehr als die Hälfte der "neuen" Dreiecke, die durch die Tessellation entstehen, gecullt werden.
Das wird man aber nicht sinnvoll vermeiden können.
Für den Fall dass sie "kein Sample berühren" und somit unsichtbar sind könnte man noch etwas mit dem LOD rumspielen, aber backfacing muss man einfach hinnehmen.
Nakai
2010-03-08, 16:27:57
Super offtopic, was hat das jetzt damit zu tun, dass es immer noch Settings gibt, in denen die GTX295 schneller ist als die 5870?
Okay, B2Topic.
MGPU und SingleGPU sind eh kaum vergleichbar, die spielen in andere Ligen.
Wenn wir schon die GTX295 als Thema haben.
GTX470 wird wohl etwa auf GTX295 Niveau, je nach Setting, sein, eher drunter.
GTX480 eher 20% drüber.
So oder so, wie sich Fermi schlagen wird, hängt eh von der Konkurrenz ab...und andersrum.
Die Kritik ist ua, dass mehr als die Hälfte der "neuen" Dreiecke, die durch die Tessellation entstehen, gecullt werden.
Bis die Entwickler Tesselation richtig dezent einsetzen, zieht mindestens noch ein Jahr ins Land.
mfg
Kalmar
2010-03-08, 16:51:58
hilft ja alles nix wir brauchen spiele die das vernüftig anwenden und dazu benchmarks, dann kann man sehen ob es wirklich nen Mehrwert hat und ob der speed dafür ausreicht ... nicht man sagt man sieht kaum nen unterscheid aber es frisst XX% leistung weg ..
da wo wir immer stehen in der Diskussion .. warten wirs ab ..
Wenn die ATI-Fanboys zu dumm zum lesen sind, scheint sogar das notwendig zu sein.
Und Du bist so arrogant und nennst Dich neutral? Oder tust Du nur so?
mapel110
2010-03-08, 16:54:31
Ich weiss nur leider nicht, wie man daraus ein vernünftiges Diagramm bastelt. :redface:
Excel anschmeißen, Zahlen samt Überschrift markieren und dann einen Diagramm-Typ wählen. It's really that easy.
Schlammsau
2010-03-08, 16:57:36
Excel anschmeißen, Zahlen samt Überschrift markieren und dann einen Diagramm-Typ wählen. It's really that easy.
Hab nur das Open Office.....
siehe oben!
Mmmmmh
2010-03-08, 17:04:37
Hab nur das Open Office.....
siehe oben!
Mach das mal bitte als Linien-Diagramm, da erkennt man den Verlauf besser. ;)
Kann dir auch eins basteln. ;)
Grüße Mmmmmh
Nakai
2010-03-08, 17:04:57
Nochmal: Die Geometrie-Menge die Unigine erzeugt ist für Displacement-Mapping eigentlich nicht übertrieben. Das "undezente" ist nur die Stärke des Offset-Faktors.
Der Steinboden bei Unigine ist ja wirklich vertesseliert worden. Aber wenn man es einfach ändern kann, dann sollte es kein Problem sein.
Noch was anderes. Wie siehts bei Kollisionsabfragen aus? Bei Truform(soweit ich mich noch erinnern kann), sollte es dort kein Problem gegeben haben, da die Objekte sich nicht so stark geändert haben. Auch wird es meistens eh nicht objekt-"genau" umgesetzt. Aber bei Tesselation siehts teilweise schon sehr krass aus.
mfg
Schlammsau
2010-03-08, 17:05:26
Mach das mal bitte als Linien-Diagramm, da erkennt man den Verlauf besser. ;)
Kann dir auch eins basteln. ;)
Grüße Mmmmmh
Schon geändert!
Mmmmmh
2010-03-08, 17:10:20
Schon geändert!
Okay, dann war meins hier jetzt überflüssig. ;)
Grüße Mmmmmh
reallord
2010-03-08, 17:14:17
So und wenn Du jetzt noch Lust hast, könntest Du noch ma DX11+Tess Off und DX9 benchen...
Und das dann alles hübsch in die Grafik integrieren. =)
Mmmmmh
2010-03-08, 17:16:35
meins is schöner :)
Wie versprochen, der Frameverlauf meiner 5850@800/1200Mhz
Unigine Heaven Demo 1.0, 1920x1080, DX11, Shaders High, Tesselation on, 1xAA, 1xAF, kompletter Durchlauf
Catalyst 10.3 Preview
http://www.abload.de/img/unbenanntur3s.png
Sieht dem Verlauf aus dem nVIDIA-Demo-Video sehr ähnlich, sollten also keine riesigen Unterschiede zwischen Version 1.0 und 1.1 sein. ;)
Schlammsau
2010-03-08, 17:17:33
So und wenn Du jetzt noch Lust hast, könntest Du noch ma DX11+Tess Off und DX9 benchen...
Und das dann alles hübsch in die Grafik integrieren. =)
kommt gleich!
http://www.semiaccurate.com/2010/03/08/nvidias-gtx480-case-dissected/
Nvidia's GTX480 case dissected
Neues von Charlie. Muss auch erstmal lesen.
Das man für Tripple-SLI ETWAS mehr kühle Luft braucht verwundert jetzt aber nicht ;)
Sieht vom Verlauf ziemlich identisch aus mit dem Graphen aus dem VIdeo:
http://plaza.fi/s/f/editor/images/20100305heaven.jpg
Naja auf der NV Slide ist die 5870 langsamer als Schlammsaus 5850@800Mhz.
Aber die Charakteristik ist gleich.
dildo4u
2010-03-08, 17:38:41
hier mit DX10 und DX11 Tesselation off
http://www.abload.de/img/unbenanntipi7.jpg
Warum ist die 5870 in dem Diagramm von nVidia genauso schnell wie meine 5850? :freak:
Vieleicht mit AF gebencht?
Menace
2010-03-08, 17:39:51
Die Grafik von Schlammsau ist doch von einer 5850?
Warum spukt es fast gleiche Werte aus, wie die 5870 von nvidias Folie? Nach so viel Anti-Ati-nvidia Hysterie habe ich den Überblick verloren.
Edit: AF, aha. ;D
hier mit DX10 und DX11 Tesselation off
http://www.abload.de/img/unbenanntipi7.jpg
Warum ist die 5870 in dem Diagramm von nVidia genauso schnell wie meine 5850? :freak:
Bestimmt weil Lovesuckz die 5870 für Nvidia zum vergleich eingebaut hat :D
(nicht böse sein ;))
Das ist erstmal kein Problem. Aber bei den Preisen wird es kaum bleiben, denn Ati hat preismäßig noch eine ganze Menge Luft noch unten. Sie werden die Preise senken und dann muss Nvidia nachziehen. NVidia war in den letzten Jahren in der Lage mit ihren High-End Chips ganz gut zu verdienen, weil sie meisten schneller waren und oft früher auf den Markt kamen als die von Ati und dadurch auch entsprechende Preise verlangen konnten. Jetzt haben sie das erste halbe Jahr, in dem sie gut verdient hätten können, verpasst und sind jetzt nicht mal schneller als die Konkurrenz.
Also wenn ich das jetzt richtig in Erinnerung habe, hat Nvidia in dem von dir genannten Halbjahr doch hervorragend verdient und das ohne einen Fermi Chip verkaufen zu können und trotz der AMD Konkurenzprodukte.
Irgendwo hast Du also einen Logikfehler bzw. du vereinfachst das Marktgeschehen zu sehr. Fakt ist, Nvidia ist nicht verschuldet, verdient seit Jahren prächtig und ich bezweifel doch ganz stark, dass ausgerechnet mit Fermi all das nicht mehr der Fall ist. Das Gelaber hört man von der AMD Fraktion schon seit diversen GPU Generationen und trotzdem schafft es Nvidia immer noch mehr Geld zu verdienen, während AMD Schulden abzahlen muss, damit sie irgendwann mal wieder Luft haben neue aufzunehmen.
Vieleicht mit AF gebencht?
Also in dem Video, in dem der Slide vorkommt wird definitiv mit 1xAF gebencht.
Kalmar
2010-03-08, 17:42:11
in dem video sieht man das nv ohne läuft ob das nun aber für den graphenverlauf gilt ..
edit .. der nv graph sieht wie der von dx10 aus :uconf2:
Das die Ampere überhaupt nichts mit der tatsächlichen Drehzahl zu tun haben ist euch aber schon klar? Weder der Wirkungsgrad des Lüfters ist bekannt, noch die tatsächlich vom Fan-Controller angelegte Spannung.
Bei dem Kühlblock und der TDP ist es komplett unwahrscheinlich, dass wir es mit einem lauten Kühler zu tun haben werden. Das wird natürlich aber völlig zur Seite geschoben.
Bei einem E-Motor mit dem Wirkungsgrad zu kommen ist ein sehr schwaches Argument. Da gibt es kaum Unterschiede, das kann man getrost vernachlässigen. Mit der Spannung kann man argumentieren, aber auch hier gibt es Grenzen. Ein E-Motor kann nur selten mit weniger als der Hälfte der Nennspannung betrieben werden. Es gibt ja auch wenig Gründe hier einen stark überdimensionierten Lüfter zu verbauen, das macht das Ganze ja auch nicht billiger.
Und das ein solch kleiner Quirl mit einem Pe-Wert von 21.6W eine sehr hohe Drehzahl erreicht sollte auf der Hand liegen. AMD kommt offenbar mit einem 9.6W Lüfter aus und der ist bei voller Drehzahl auch alles andere als leise. Also so zu tun als ob das nichts aussagen würde ist schon sehr weit aus dem Fenster gelehnt.
LovesuckZ
2010-03-08, 17:45:20
Warum ist die 5870 in dem Diagramm von nVidia genauso schnell wie meine 5850? :freak:
Weil der Unterschied zwischen deiner übertakteten Karte und der 5870 minimal ist? :D
In Bezug auf Tesselatorgeschwindigkeit, Geometrieeinheit, Setup-Engine und ROPs gibt es gerade mal 6,25% Unterschied von dir auf die 5870. Bandbreite und L2-Cache sind sogar identisch.
Ist aber schon krass, wie stark die Karte mit Tessellation einbricht. Errinnert schon fast an NV30/NV35...
Die Grafik von Schlammsau ist doch von einer 5850?
Warum spukt es fast gleiche Werte aus, wie die 5870 von nvidias Folie? Nach so viel Anti-Ati-nvidia Hysterie habe ich den Überblick verloren.
Edit: AF, aha. ;D
Weil Nvidia eine 5850 gebencht hat, auf der Folie ist ein Tippfehler ... kann doch jedem passieren. ;) Im Ernst, der Bench von Nvidia ist nutzlos, da Settings nicht bekannt.
Schlammsau
2010-03-08, 17:50:12
Weil der Unterschied zwischen deiner übertakteten Karte und der 5870 minimal ist? :D
In Bezug auf Tesselatorgeschwindigkeit, Geometrieeinheit, Setup-Engine und ROPs gibt es gerade mal 6,25% Unterschied von dir auf die 5870. Bandbreite und L2-Cache sind sogar identisch.
Ist aber schon krass, wie stark die Karte mit Tessellation einbricht. Errinnert schon fast an NV30/NV35...
Nur 6,25%? :eek:
Hast du da die fehlenden Shader (1440 vs 1600) mit eingerechnet?
Vieleicht mit AF gebencht?
In dem nVideo auf YT, wird aber die gleiche Folie verwendet, und da wird definitiv ohne AF gebencht.
http://www.abload.de/img/unbenanntrq4t.jpg
http://www.youtube.com/watch?v=vpdPSZB8A8E&feature=sub
Und wenn ich mir das Diagramm genau ansehe, ist meine 5850 sogar schneller als die von nVidia gebenchte 5870.
Ich schaffe Spitzen von 80 fps,, die 5870 nicht.
Irgendwas ist da gewaltig faul!
mapel110
2010-03-08, 17:51:48
Hab mal noch einen Frameverlauf von meiner GTX260² mit DX10 gemacht in 1680er Auflösung.
Lässt sich sicher schlecht vergleichen, aber man kann daraus schon schließen, dass die GTX470/480 ordentlich mehr Dampf in dem Bench haben wird als die alte Generation.
LovesuckZ
2010-03-08, 17:52:36
Nur 6,25%? :eek:
Hast du da die fehlenden Shader mit eingerechnet?
Wer sagt, dass diese hier limitiert? ;)
Nein. Vergessen. Aber das wäre der einzige, "riesige" Unterschied mit 18%. Aber wie gesagt: Die Rechenleistung/Texturleistung müsste deutlich limitieren, um einen krassen Unterschied sichtbar zu machen.
Sieht vom Verlauf ziemlich identisch aus mit dem Graphen aus dem VIdeo:
http://plaza.fi/s/f/editor/images/20100305heaven.jpg
anhand der grafik sieht man sehr schön wann in dem bench der drachen zu sehen ist.
nämlich immer da wo die 587(5?)0 einbricht.
Kalmar
2010-03-08, 17:54:22
also der des heisst doch das der grahfenverlauf ok ist nun wäre der Benchmark 2.0 interessant wo des nochmal optimiert wird um zu gucken wie stark dort die ati einbricht oder ob sie nur auf Grund der nicht Optimierung eingebrochen ist ..
im video hat nv beim Benchmark anisotropy auf 1 und AA aus ... im video bei 1:05 gut zu sehen
OT :
ne ich behaupte einfach mal nv hatte noch gar keine 480 [deswegen ist die auch so leise] und hat statt dessen eine 5850 genommen mit und ohne tessla den Benchmark durchlaufen lassen, an den Graphen ohne tessla einfach 480 ran geschrieben und fertig :P
Ist aber schon krass, wie stark die Karte mit Tessellation einbricht. Errinnert schon fast an NV30/NV35...
Wenn Tesslation so eingesetzt wird das es Sinn macht und nicht gerade in absoluten Extremsituationen wie in dem Demo, also in realistischen Szenarien für aktuelle Spiele, dann kannst du stark davon ausgehen das der Einbruch wie zB in Dirt2 sehr überschaubar bleiben wird.
Wenn irgend wann in fünf(+) Jahren Spiele kommen wie diese Demo, die von Beginn an mit Tesslation im Hinterkopf geproggt werden, dann kann man mit der Karte aber sicherlich keinen Blumentopf gewinnen. Wobei immer wieder gesagt werden muss das selbst die Entwickler zugegegen haben das sie im dem Demo die Tesslation sehr verschwenderisch eingesetzt haben und ein Performanceplus von 30% mit der v2.0 versprechen.
Schlammsau
2010-03-08, 18:00:04
Frameverlauf meiner 5850@800/1200Mhz
Unigine Heaven Demo 1.0, 1920x1080, DX11, Shaders High, Tesselation on, 1xAA, 1xAF, kompletter Durchlauf
Catalyst 10.3 Preview
http://www.abload.de/img/unbenanntl2j2.jpg
vs
5870
http://www.abload.de/img/unbenanntrq4t.jpg
in den selben Settings.
Wer sagt, dass diese hier limitiert? ;)
Nein. Vergessen. Aber das wäre der einzige, "riesige" Unterschied mit 18%. Aber wie gesagt: Die Rechenleistung/Texturleistung müsste deutlich limitieren, um einen krassen Unterschied sichtbar zu machen.
Aha....und wie erklärst du dann die sogar bessere Performance meiner 5850?
Kalmar
2010-03-08, 18:01:00
Frameverlauf meiner 5850@800/1200Mhz
Unigine Heaven Demo 1.0, 1920x1080, DX11, Shaders High, Tesselation on, 1xAA, 1xAF, kompletter Durchlauf
Catalyst 10.3 Preview
http://www.abload.de/img/unbenanntur3s.png
vs
5870
http://www.abload.de/img/unbenanntrq4t.jpg
in den selben Settings.
mach mal bitte AA = 0 und AF = 1 wie bei nv ^^
was jetzt aber schon auffällt ist das deine 5850 bei den highs wesentlich mehr fps hat als die 5870 .. bei ~140 deine so bei 55 im benchmark bei knapp über 50, bei ~230 deine über 80 im benchmark knapp über 70 ..
boxleitnerb
2010-03-08, 18:03:44
AA=0 ist schwarzes Bild :D
1xAA ist schon richtig.
AF stimmt doch. Brille aufziehen ;)
Tesseract
2010-03-08, 18:07:45
AA=0 ist schwarzes Bild :D
hängt von der clear color ab. :tongue:
Schlammsau
2010-03-08, 18:10:09
Wer sagt, dass diese hier limitiert? ;)
Nein. Vergessen. Aber das wäre der einzige, "riesige" Unterschied mit 18%. Aber wie gesagt: Die Rechenleistung/Texturleistung müsste deutlich limitieren, um einen krassen Unterschied sichtbar zu machen.
Mit Sicherheit nicht immer, aber es wird Situationen geben! ;)
mach mal bitte AA = 0 und AF = 1 wie bei nv ^^
was jetzt aber schon auffällt ist das deine 5850 bei den highs wesentlich mehr fps hat als die 5870 .. bei ~140 deine so bei 55 im benchmark bei knapp über 50, bei ~230 deine über 80 im benchmark knapp über 70 ..
Jupp, ich habe eine 5850, die schneller als eine 5870 ist. [ironieende]
Normalerweise sollte eine Stock 5870 durchgehend um die 5-10% schneller sein als meine übertaktete 5850, in dem Diagramm ists genau umgekehrt. :freak:
Ergo ist der Frameverlauf in dem Video Bullshit!
Jupp, ich habe eine 5850, die schneller als eine 5870 ist. [ironieende]
NV hat wohl die Stellen wo die 5870 schneller als die GTX480 sicherheitshalber etwas "abgeschnitten". Sieht ja auch schlecht aus wenn man so tun will als hätte man die überlegen Karte und dann wird man tw. überholt. ;D
Denn die lows stimmen ziemlich genau, die highs eindeutig nicht. Wobei dann auch bei den lows immer noch deine 5850 mit einer 5870 verglichen wird. ALso auch das ist fragwürdig.
LovesuckZ
2010-03-08, 18:16:24
Takte deine Karte auf Default und lass den Bench nochmal durchlaufen. Dazu bräuchten wir auch noch jemanden mit einer 5870 Karte, der auf Default ebenfalls den bench durchlaufen lässt. Und dann kannst du anfangen zu meckern. Aber ohne mehr Informationen ist es müllig hier darüber zu diskutieren.
Und die "Highs" entstehen durch den Szenenwechsel. Das hat überhaupt keine Bedeutung.
Mehrperformance dank 10.3?
cipoint
2010-03-08, 18:17:40
http://www.abload.de/img/framerate1odc.png
G!ZMo
2010-03-08, 18:18:35
Aha....und wie erklärst du dann die sogar bessere Performance meiner 5850?
Vielleicht irgendein CPU-Limit? Wobei in dem Video ja ein i7 @ 3,33GHz verwendet wurde. Kann mir aber nur recht schwer vorstellen, dass dein Quad @ 3,7GHz so viel schneller sein soll. Hmmm ;)
Das ändert aber nichts an der Tatsache, dass seine HD5850 schneller ist als die HD5870 im NV-Bench und er dabei noch einen niedrigeren GPU-Takt fährt als eine Stock HD5870. Die fehlenden Shader der HD5850 kommen ja auch noch dazu.
CPU-Limit ja ne ist klar. Genauso so logisch wie ein angebliches CPU-Limit in Crysis.
Jupp, ich habe eine 5850, die schneller als eine 5870 ist. [ironieende]
Normalerweise sollte eine Stock 5870 durchgehend um die 10% schneller sein als meine übertaktete 5850, in dem Diagramm ists genau umgekehrt. :freak:
Also ist der Frameverlauf in dem Video Bullshit!
Würde mich nicht wundern. Was außer Lügengeschichten kam denn in letzter Zeit schon von NV?
Immerhin haben sie keine 5750 gegen ihr "Topmodell" laufen lassen.....
Dass da etwas nicht stimmen konnte, sah ich bereits bei meinem 5770 Test bezüglich des Unigine-Benchmarks.
LovesuckZ
2010-03-08, 18:22:22
Das ändert aber nichts an der Tatsache, dass seine HD5850 schneller ist als die HD5870 im NV-Bench und er dabei noch einen niedrigeren GPU-Takt fährt als eine Stock HD5870. Die fehlenden Shader der HD5850 kommen ja auch noch dazu.
Er hat keine 5850 gebencht, sondern eine 5850 mit 1200Mhz und einem GPU Takt von 800Mhz. Das ist vorallem in der Bandbreite mal ein Unterschied von 20%. Auch in normalen Testergebnisse ist eine 5870 meisten nur 15% schneller. Wirst du denen nun auch "betrügen" vor?
Kalmar
2010-03-08, 18:24:12
AA=0 ist schwarzes Bild :D
1xAA ist schon richtig.
AF stimmt doch. Brille aufziehen ;)
:P
http://www.abload.de/img/480gtxz1tz.jpg (http://www.abload.de/image.php?img=480gtxz1tz.jpg)
vielleicht deswegen version 1.1 wo man AA auf 0 setzen kann ?
Armaq
2010-03-08, 19:08:08
Edit: Wenn ich es speichere und öffne ist alles ok...
y33H@
2010-03-08, 19:08:36
Rechts?
Der stimmt nicht. GF104 wird kein Refresh des Fermi sondern einer der kleineren Ableger.
Da stimmt so einiges nicht.
Nakai
2010-03-08, 19:11:34
Mhh, ne HD5870 auf HD5850-Taktrate wär interessant. Aber sieht wohl so aus, als würde die Rechenleistung ausschlaggebend sein.
mfg
Schlammsau
2010-03-08, 19:13:56
Edit: Wenn ich es speichere und öffne ist alles ok...
Steht doch alles da! (Rechts)
Man könnte auch daraus lesen, dass Fermi ohne Tesslations untauglich ist!
Aber mal ernsthaft..... abwarten und Tee trinken.
Aus deinen und NV Werten kann man lesen das die ATI Tesslations untauglich ist,mher sollte der Bench whol auch nicht zeigen.Die Abstürze unter 30fps sagen alles mit AA wird's nur schlimmer.
Um sich auf dein Niveau zu begeben: Das einzige was man sieht ist das die Rechenleistung der GTX480 unterirdisch ist. Das NV den Graph offensichtlich gefälscht hat und das nicht eingestehen zu müssen ist aber dann nochmal ein starkes Stück.
19 ist das "höchste" mit 4xAA/16AF....
Ja wirklich untauglich die HD5870. Ich muss mich auch immer überwinden Dirt2 oder BF:BC2 mit DX11 zu zocken.
Kalmar
2010-03-08, 19:19:07
also nv benutzt ne cpu du wesentlich schneller sein sollte als nen 8400@normal und die 5870 hier im forum @8400 ist jetzt schon wesentlich schneller als das was nv da zeit ..
was aber bleibt ist das bei massiven tessla die atis wohl net ganz so gut aus schaun ..
LovesuckZ
2010-03-08, 19:20:36
Um sich auf dein Niveau zu begeben: Das einzige was man sieht ist das die Rechenleistung der GTX480 unterirdisch ist. Das NV den Graph offensichtlich gefälscht hat und das nicht eingestehen zu müssen ist aber dann nochmal ein starkes Stück.
Schon geil: Als erstes wurde Version 1.1 in frage gestellt und als dann das herauskommt, ist es plötzlich egal. ;D
Warten wir doch einfach ab. Irgendwer wird schon am 27. März den selbe Ablauf mit Version 1.0 machen.
Um sich auf dein Niveau zu begeben: Das einzige was man sieht ist das die Rechenleistung der GTX480 unterirdisch ist. Das NV den Graph offensichtlich gefälscht hat und das nicht eingestehen zu müssen ist aber dann nochmal ein starkes Stück.
nö. stimmt schon allerdings wie geschrieben mit 4xAA/16AF >19 max, allerdings unterirdisch...da beißt die Maus keinen Faden ab und die rannte mit 1020/1300...
Ja wirklich untauglich die HD5870. Ich muss mich auch immer überwinden Dirt2 oder BF:BC2 mit DX11 zu zocken.
Da merkt man garnix da bin mit allem auf Anschlag nie unter 40FPS....oder du machst grundsätzlich was falsch...
Bucklew
2010-03-08, 19:22:04
Um sich auf dein Niveau zu begeben: Das einzige was man sieht ist das die Rechenleistung der GTX480 unterirdisch ist. Das NV den Graph offensichtlich gefälscht hat und das nicht eingestehen zu müssen ist aber dann nochmal ein starkes Stück.
Was ist da jetzt gefälscht?
Nakai
2010-03-08, 19:22:48
Da wo die FPS niedrig sind, scheint der Tesselator oder der Rasterizer schlapp zu machen. Dass Fermi 4 davon hat, bringt ihm bei bestimmten Stellen einiges.
Ergo wenn wenige Dreiecke, dann wird wohl selbst ne HD5870 nahe bei Fermi liegn.
Bei vielen Dreiecken, hat Fermie beachtliche Vorteile.
mfg
€: Bei wievielen Sekunden liegt etwa der Drache?
boxleitnerb
2010-03-08, 19:24:21
Schau dir doch die Werte an. Auf der Folie sind die Werte der 5870 deutlich geringer als die von Harry Hirsch, der auch eine 5870 mit denselben Settings gebencht hat. Da stimmt was nicht, das sieht ja auch noch ein Blinder.
Schon geil: Als erstes wurde Version 1.1 in frage gestellt und als dann das herauskommt, ist es plötzlich egal. ;D
Warten wir doch einfach ab. Irgendwer wird schon am 27. März den selbe Ablauf mit Version 1.0 machen.
Paßt schon was NV da zeigt, meine 5870 verliert da 2/3 an FPS (1020/1300-i7 4gig)
Kalmar
2010-03-08, 19:24:57
Was ist da jetzt gefälscht?
schau dir einfach die graphen an, dann siehst du es ...
ne 5870 mit nem wesentlich langsameren prozessor als bei nv hat in den highs über 100 fps bei nv aber krüppelt sie bei 70 rum .. also kann da was net hinhaun ...
€: Bei wievielen Sekunden liegt etwa der Drache?
da wo es einbricht ist der drache
Schlammsau
2010-03-08, 19:25:02
Was ist da jetzt gefälscht?
Das nVidia anscheinend eine Stock 5850 mit einer Stock 5870 verwechselt hat. ;)
Klar NVidia fälscht Bilder und legt sich so ein dickes Ei ins Nest. Warten wir mal ab bis Fermi draussen ist und auf gleichem Setting Fermi gegen HD58XX antritt. Das wird schon hinhauen, so doof wird NVidia nicht sein;)
dildo4u
2010-03-08, 19:26:48
Schau dir doch die Werte an. Auf der Folie sind die Werte der 5870 deutlich geringer als die von Harry Hirsch, der auch eine 5870 mit denselben Settings gebencht hat. Da stimmt was nicht, das sieht ja auch noch ein Blinder.
Die Setting's auf der Folie sind gar nicht bekannt.Könnte mit 4XAA/16AF sein.Im Video hat die 480 ohne AA beim Drachen über 40fps auf den Folie unter 40fps.
Kalmar
2010-03-08, 19:27:44
Klar NVidia fälscht Bilder und legt sich so ein dickes Ei ins Nest. Warten wir mal ab bis Fermi draussen ist und auf gleichem Setting Fermi gegen HD58XX antritt. Das wird schon hinhauen, so doof wird NVidia nicht sein;)
naja sie haben ja eigentlich "nur" nen tippfehler drin bei der grakabezeichnung und die highs abgeschnitten .. die lows stimmen ja .. macht sich ganz gut wenn man überall gleich und hier und da aber besser ist, als wenn man dort schlechter und hier besser ist ..
nunja am 27. wissen wir es hoffentlich ..
liest hier eigendlich einer was ich schreibe :lol:
NOCHMAL FÜR ALLE FANs
Meine 5870 1020/1300 verliert da 2/3 an FPS mit Tess, basta aus nada :D
Und was da max fehlt ist völlig Wurst mit 50 oder 70 kann ich spielen mit 19 nett.
Das nVidia anscheinend eine Stock 5850 mit einer Stock 5870 verwechselt hat. ;)
Richtig, die Werte passen perfekt zur 5850.
Die Setting's auf der Folie sind gar nicht bekannt.
Falsch, sie werden im Video selbst gezeigt.
LovesuckZ
2010-03-08, 19:29:25
Warum sollte die v1.1 ausgerechnet an den Stellen wo die 5870 stark ist deutlich langsamer sein? Das müsste schon eine sehr mysteriöse Änderung sein.
Woher soll ich das wissen?
Nimmt man die Werte von der CES, dann sind sie auch höher als diese von Version 1.1:
http://www.computerbase.de/bildstrecke/28115/18/
Diese sind auch näher dran an denen der 5870 von Harry als von nVidia's Videos.
dildo4u
2010-03-08, 19:30:17
Falsch, sie werden im Video selbst gezeigt.
Für Videodemonstration auf der folie steht nicht welche Setting genutzt wurden.Wie gesagt die FPS sind im Video höher also wird die Folie whol mit AA sein.
Schlammsau
2010-03-08, 19:30:41
Die Setting's auf der Folie sind gar nicht bekannt.
Aber die Settings aus dem Video.
Es wurde im Video gezeigt mit was gebencht wurde, und im gleichen Atemzug schwenkt die Kamera auf die Folie über.
Schau dir das Video an, dann sihst du es. Also muss man davon ausgehen, dass mit 1920x1080, DX11, Shader High, Tesselation On und 1xAA/1xAF gebencht wurde.
Der einzige Unterschied ist, dass unsere Werte auf der 1.0 Version gemacht wurden und die von nVidia mit der ominösen 1.1er.....
dildo4u
2010-03-08, 19:32:14
Aber die Settings aus dem Video.
Es wurde im Video gezeigt mit was gebencht wurde, und im gleichen Atemzug schwenkt die Kamera auf die Folie über.
Schau dir das Video an, dann sihst du es. Also muss man davon ausgehen, dass mit 1920x1080, DX11, Shader High, Tesselation On und 1xAA/1xAF gebencht wurde. Der einzige Unterschied ist, dass unsere Werte auf der 1.0 Version gemacht wurden und die von nVidia mit der ominösen 1.1er.....
Beim Drachen sind's im Video mit der 480 über 40fps auf die Folie unter 40 FPS na fällt was auf? ;)(ca sek 80-90 im Diagramm)
Bucklew
2010-03-08, 19:32:48
Das nVidia anscheinend eine Stock 5850 mit einer Stock 5870 verwechselt hat. ;)
Oder andere Settings?
Menace
2010-03-08, 19:33:57
Wäre ja auch zu blöd, wenn die Roten in Bereich mal über den Grünen liegen würden. Falls das Absicht war oder sich nachträglich klären lässt... :down:
AMD/Ati muss sich trotzdem hinsetzen und seine Tesselation-Einheit aufbohren.
Schlammsau
2010-03-08, 19:34:22
Beim Drachen sind im Video über 40fps auf die Folie unter 40 FPS na fällt was auf? ;)
Mir fällt nur auf, dass da irgendwas nicht stimmt.
Oder andere Settings?
Das weiss wohl nur nVidia!
Bucklew
2010-03-08, 19:35:30
Das weiss wohl nur nVidia!
Aha - und warum behauptest du dann, dass etwas nicht stimmen würdest und gibst den ganzen Trollen Gästen fleißig futter?
boxleitnerb
2010-03-08, 19:35:56
Beim Drachen sind im Videomit der 480 über 40fps auf die Folie unter 40 FPS na fällt was auf? ;)(ca sek 80-90)
Woher weißt du, welche Sekunde das ist? Es gibt in der Folie auch Werte über 40fps in Tesselationszenen (Vermutung - kenne den genauen Ablauf der Demo nicht.
Edit: Laut fred kommt der Drache bei 70 und 120 Sekunden. Da gibt es sehr wohl über 40fps in der Folie, besonders bei 70.
Schlammsau
2010-03-08, 19:39:04
Aha - und warum behauptest du dann, dass etwas nicht stimmen würdest und gibst den ganzen Trollen Gästen fleißig futter?
Ist das hier nicht ein Speku Thread?
Ich versuche nur Ungereimtheiten aufzudecken, um die allgemeinen Lobeshymnen wegen dieser ach so tollen Heaven Benchmarks, ein wenig abzuschwächen.
Fakt ist, hier stimmt was nicht.
Es ist entweder die verwendetete Benchmarkversion oder ein veralteter Treiber oder irgendwas anderes.
Aber natürlich alles nur Spekulatius!
Menace
2010-03-08, 19:39:48
Aha - und warum behauptest du dann, dass etwas nicht stimmen würdest und gibst den ganzen Trollen Gästen fleißig futter?
Es geht doch gar nicht um das Füttern von Trollen sondern dass endlich mal irgendwas nachgemessen wurde. Schwadronieren kann man immer. Momentan haben wir eine deutliche Diskrepanz der nvidia-Folien (soweit deren Angaben stimmen) zu den von Schlammsau und HarryHirsch (soweit deren Angaben stimmen ;) ). Übrigens ist "nachtesten" ein wissenschaftliches Vorgehen und unterscheidet sich von Astro-TV.
HarryHirsch
2010-03-08, 19:39:53
Woher weißt du, welche Sekunde das ist? Es gibt in der Folie auch Werte über 40fps in Tesselationszenen (Vermutung - kenne den genauen Ablauf der Demo nicht, wann was passiert. Kommt der Drache nur einmal?).
der kommt ca bei sekunde 70-80 und 115-125
LovesuckZ
2010-03-08, 19:40:45
Ist das hier nicht ein Speku Thread?
Ich versuche nur Ungereimtheiten aufzudecken, um die allgemeinen Lobeshymnen wegen dieser ach so tollen Heaven Benchmarks, ein wenig abzuschwächen.
Fakt ist, hier stimmt was nicht.
Es ist entweder die verwendetete Benchmarkversion oder ein veralteter Treiber oder irgendwas anderes.
Aber natürlich alles nur Spekulatius!
Äh, die Lobeshymnen bleiben ja weiterhin bestehen. :D
Ansonsten hat der Frameverlauf eben aufgedeckt, dass wir entweder Version 1.1 abwarten müssen oder ein Reviewer jagt am Reviewtag beide Karten durch Version 1.0. Mehr lässt sich zZ überhaupt nicht sagen.
/edit: Dann würde sich eventuell auch erklären, dass nVidia beim Drachen nur 25% der Leistung verliert und AMD user mit 1.0 fast 75%. Mit 1.0 könnte GF100 höhrere Werte an dieser Stelle bringen und somit auch stärker einbrechen.
Bucklew
2010-03-08, 19:42:04
Ich versuche nur Ungereimtheiten aufzudecken, um die allgemeinen Lobeshymnen wegen dieser ach so tollen Heaven Benchmarks, ein wenig abzuschwächen.
Du hast nur keine Umgereimtheiten aufgedeckt, du stellst nur zwei Benchverläufe mit riesig großen Fragezeichen (Treiber? Basissystem? Settings?) nebeneinander. Damit kann man vielleicht Kaffeesatzleserei betreiben, aber sicherlich nichts darüber hinaus gehendes.
boxleitnerb
2010-03-08, 19:42:55
der kommt ca bei sekunde 70-80 und 115-125
Im Video gibts einen Abfall von 50 auf 43 fps, praktisch monoton fallend. Im Graph sehe ich das an beiden Stellen bei der Geforce nicht...
Menace
2010-03-08, 19:42:59
Warum machen eigentlich solche Überprüfungen von Tests nicht die Seiten, die diese nvidia-Folien als News verkaufen und damit Geld (durch die Klicks) kassieren. Bei Ungereimtheiten können die auch mal kurz bei nvidia anfragen und somit früh Spekulationen unterbinden.
Da merkt man garnix da bin mit allem auf Anschlag nie unter 40FPS....oder du machst grundsätzlich was falsch...
Das war ironisch gemeint. Keine Ahnung was NV da treibt, aber wenn sie es wirklich schon nötig haben bei Benchmarks zu schummeln um überhaupt noch einen Vorteil der eigenen Karten rauszustellen, ist das schon mehr als traurig.
Offensichtlich brauchen sie extreme Tesselation die so kein Game nutzt oder 2500er Auflösungen, bei denen sie dann von den mehr an GDDR profitieren, um sich leicht von den HD58xx abzusetzen.
Dieser Heaven-Benchmnark wird jetzt aber total überbewertet. Wenn Fermi raus ist, wird es richtige Benchmarks geben und da lässt sich schon erahnen, dass man
1. die Tesselationsleistung nicht so überbewerten sollte, da kaum Spiele vorhanden sind, die diese Technik nutzen
und
2. vor allem nicht in dem Maße, wie Heaven es tut.
Bis Spiele kommen, die einen ähnlichen Tesselationsgrad haben, wie Heaven, werden sowohl der RV870 als auch der GF100 einfach zu langsam sein ...
Das war ironisch gemeint. Keine Ahnung was NV da treibt, aber wenn sie es wirklich schon nötig haben bei Benchmarks zu schummeln um überhaupt noch einen Vorteil der eigenen Karten rauszustellen, ist das schon mehr als traurig.
Offensichtlich brauchen sie extreme Tesselation die so kein Game nutzt oder 2500er Auflösungen, bei denen sie dann von den mehr an GDDR profitieren, um sich leicht von den HD58xx abzusetzen.
Wo hat NVidia die Karte offiziell gebencht (Ausser Unigine)? Das waren/sind FAKES. Also nix mit Aussagekraft:)
Ich glaube mittlerweile Leuten wie z.B. neliz weitaus mehr als NV selber.
Aus deinen und NV Werten kann man lesen das die ATI Tesslations untauglich ist,mher sollte der Bench whol auch nicht zeigen.Die Abstürze unter 30fps sagen alles mit AA wird's nur schlimmer.
wie praktisch. du drehst dirs wiedermal genau so hin, wie dus brauchst. dass nvidia hier offenbar gegen eine 5850er gebencht hat und nicht gegen die 5870 so wie unten in ihren hübschen grafik... oder sonst irgendwas getrickst ist, fällt dir gaaaar nicht auf, oder?
weiß eigentlich jemand an welchem tag das NDA von Nvidia abläuft? war doch bisher meist 2-3 tage vor dem offi. termin oder?
mapel110
2010-03-08, 20:01:57
weiß eigentlich jemand an welchem tag das NDA von Nvidia abläuft? war doch bisher meist 2-3 tage vor dem offi. termin oder?
Nö, 1 Uhr Morgens am 27.März bei uns ist NDA-Ende. Aber ich gehe davon aus, dass gerade bei diesem Launch schon ein paar Tage vorher etwas im Web zu lesen ist.
y33H@
2010-03-08, 20:02:20
Das NDA fällt am Tag des NDA-Falls :rolleyes:
dildo4u
2010-03-08, 20:02:22
wie praktisch. du drehst dirs wiedermal genau so hin, wie dus brauchst. dass nvidia hier offenbar gegen eine 5850er gebencht hat und nicht gegen die 5870 so wie unten in ihren hübschen grafik... oder sonst irgendwas getrickst ist, fällt dir gaaaar nicht auf, oder?
Zum xmal sie haben die 5870 mit AA und/oder AF gebencht die 480 auch deshalb hat sie auf der Folie beim Drachen weniger fps als im Video.
LovesuckZ
2010-03-08, 20:02:43
wie praktisch. du drehst dirs wiedermal genau so hin, wie dus brauchst. dass nvidia hier offenbar gegen eine 5850er gebencht hat und nicht gegen die 5870 so wie unten in ihren hübschen grafik... oder sonst irgendwas getrickst ist, fällt dir gaaaar nicht auf, oder?
Das es vielleicht an Version 1.1 liegen könnte - Nein. Niemals. ;D
Gott, jetzt gehen wieder die Verschwörungsfanatiker ab. Warum wartet man nicht einfach bis zum
weiß eigentlich jemand an welchem tag das NDA von Nvidia abläuft? war doch bisher meist 2-3 tage vor dem offi. termin oder?
27. März um 1:00 Uhr Nachts.
danke euch erstmal für die antworten zwecks NDA-fall
Heute sollten die Boardpartner doch die Taktraten für die 470 bekommen? Dann wird wahrscheinlich bald was leaken. Mal abwarten was der Tag noch bringt...
was mich hier allgemein mal interesieren würde..bin zwar nur gast...wer von euch hat vor sich ne GTX 280 oder gtx 470 zuzulegen?
ich, für meinen teil hoffe eine gtx 480 zu ergattern!
NV sollte übrigens mindestens 3 Kerzen in der Kirche anzünden, das TSMC den Prozeß fast exakt zum Start der Fermi Produktion halbweg stabil bekommen hat. 1 Monat später und Fermi wäre der Paper-Launch schlechthin geworden, 1-2 Monate früher und ATI hätte den Markt zum Fermi Start geflutet.
Fermi kommt genau deswegen jetzt (bzw. in wenigen Wochen) weil er sich vernünftig produzieren lässt.
Zumindest die letzten 3 Monate Verspätung liegen nur am Prozess, wäre dieser früher halbwegs brauchbar gewesen wäre Fermi auch entsprechend früher gekommen.
Ok wir wissen alle, dass bis jetzt nichts offiziell und gesichert ist und das auch alle Performanceeinschätzungen momentan nur Gerüchte sind, aber es sind einfach zu viele Gerüchte in die selbe Richtung und das auch von Seiten und Leuten die nicht als AMD-Fanboys gelten.
Wenn ich bedenke welche Leistungs-Träumereien man noch vor wenigen Wochen lesen konnte und plötzlich wären 20% über GTX285 schon eine großartige Leistung, dann fällt wir da eigentlich nichts mehr zu ein. Wenn es so kommt wie es sich momentan abzeichnet, dann kann ich persönlich das nur als absolute Enttäuschung bezeichen.
Fermi kommt genau deswegen jetzt (bzw. in wenigen Wochen) weil er sich vernünftig produzieren lässt.
Zumindest die letzten 3 Monate Verspätung liegen nur am Prozess, wäre dieser früher halbwegs brauchbar gewesen wäre Fermi auch entsprechend früher gekommen.
sagt wer?
und warum sitzen auf allen bisher aufgetauchten karten noch A2?
Grosses Verwirrspielchen?
Ok wir wissen alle, dass bis jetzt nichts offiziell und gesichert ist und das auch alle Performanceeinschätzungen momentan nur Gerüchte sind, aber es sind einfach zu viele Gerüchte in die selbe Richtung und das auch von Seiten und Leuten die nicht als AMD-Fanboys gelten.
Wenn ich bedenke welche Leistungs-Träumereien man noch vor wenigen Wochen lesen konnte und plötzlich wären 20% über GTX285 schon eine großartige Leistung, dann fällt wir da eigentlich nichts mehr zu ein. Wenn es so kommt wie es sich momentan abzeichnet, dann kann ich persönlich das nur als absolute Enttäuschung bezeichen.
Wenn die 470 auf 5870 Niveau ist und die 480 nahe der 5970, hat NVidia ihr Ziel erreicht. Ich sehe das als keine Enttäuschung;)
Tja nur soll eben die GTX470 nicht auf HD5870 Niveau sein, sondern eher 10% darunter und die GTX480 deutlich hinter der HD5970.
Tja nur soll eben die GTX470 nicht auf HD5870 Niveau sein, sondern eher 10% darunter und die GTX480 deutlich hinter der HD5970.
Ja, aber das haut doch irgendwie nicht hin. Der Abstand 470 zu 480 wäre zu gering für den spekulierten Aufpreis der 480. Ich wiederhole mich: Abwarten.
Schlammsau
2010-03-08, 20:24:57
Und hier noch als kleines "Schmankerl", eine 5870@1020@1200Mhz
Danke Harry!
dildo4u
2010-03-08, 20:27:19
Krank immer noch Drops an die 20 fps Grenze.
Krank immer noch Drops an die 20 fps Grenze.
Tjoa, da hilft auch das Übertakten nicht:) Übelste drops.
Warum der Abstand könnte 20 bis maximal 30% seien und damit im absolut üblichen Rahmen. Als NV die Namen GTX470 und GTX480 bekannt gab, habe ich schon vermutet, dass die Karten vielleicht doch näher zusammen sind als vorher gedacht. Man hatte ja ursprünglich mit GTX360 und GTX380 gerechnet und das du für das Topmodell einer Gen immer unverhältnismäßig mehr bezahlen must war auch schon immer so.
Warum der Abstand könnte 20 bis maximal 30% seien und damit im absolut üblichen Rahmen. Als NV die Namen GTX470 und GTX480 bekannt gab, habe ich schon vermutet, dass die Karten vielleicht doch näher zusammen sind als vorher gedacht. Man hatte ja ursprünglich mit GTX360 und GTX380 gerechnet und das du für das Topmodell einer Gen immer unverhältnismäßig mehr bezahlen must war auch schon immer so.
Es stehen/standen? laut PCGH 600 Euro im Raum für die 480. Da musst du was leisten, ne 5970 kostet glaub ich soviel...
Ach man vergiss diesen BS von PCGH. Die Karten werden wohl doch günstiger werden. PCGH meinte ja auch, dass die GTX470 499€ kosten würde.
Vielleicht baut NV für ihre Fanboys ja noch eine spezielle Unigine-Version mit einigen Minigames, damit sie dann den ganzen Tag um den aufregenden Drachen rumlaufen können und sich über ihre Frames freuen können. Das scheint ja die einzige Stärke von GF100 zu sein.
Schlammsau
2010-03-08, 20:50:11
Kannst du das Diagramm bitte mal auf die 5850 normalisieren? Also so, dass gleiche prozentuale Unterschiede äquidistante Kurvenverläufe bewirken.
Wenn du mir sagst, wie das geht mit dem Open Office.
Fermi kommt genau deswegen jetzt (bzw. in wenigen Wochen) weil er sich vernünftig produzieren lässt.
Zumindest die letzten 3 Monate Verspätung liegen nur am Prozess, wäre dieser früher halbwegs brauchbar gewesen wäre Fermi auch entsprechend früher gekommen.
3 Monate weils ab Januar halbwegs mit dem Prozess läuft?
Ich würde mal annehmen, das ein halbwegs lauffähiger Prozess zum A2 Tapeout auch entsprechend zur Serienfertigung geführt hätte.
Wann war doch gleich A2 Tapeout?
In relativ zeitnaher Zukunft könnten wir B1 sehen, wenn es so gekommen wäre und entsprechend mehr 512er Chips.
sagt wer?
Der Hausverstand?
und warum sitzen auf allen bisher aufgetauchten karten noch A2?
Wohl weil A2 durchaus recht gut läuft, ohne Prozessprobleme wäre man wohl mit A2 in die Massenfertigung gegangen.
Man hätte natürlich nach A2 Däumchen drehen können und auf den Prozess warten, stattdessen hat man aber natürlich weitergearbeitet.
HarryHirsch
2010-03-08, 21:06:10
Und hier noch als kleines "Schmankerl", eine 5870@1020@1200Mhz
Danke Harry!
http://www.abload.de/img/overalleeyv.jpg
lösche das mal bitte. ist ja voller fehler :freak:
Gestrandet
2010-03-08, 21:08:43
Was für Fehler denn? Schaut doch gut aus?!?
Schlammsau
2010-03-08, 21:14:45
Was für Fehler denn? Schaut doch gut aus?!?
Er hat mir gerade gestanden, dass das die falschen Werte waren. :freak:
Hab dir aber schon die richtigen geschickt!
Gaestle
2010-03-08, 21:27:03
Bezüglich der Unterschiede im Unigine zwischen den Benches hier aus dem Forum und den HV-Werten würde ich auch mal die Treiber testen. Wurde ja hier schon öfter angesprochen.
Wie sehen die Frame-Verläufe mit dem ATi Launchtreiber aus?
I-wie hatts da schon wieder was gelöscht. Vllt sollte man den Thread mal dicht machen und n 2. eröffnen. Evtl is ja die Forensoftware mit der Größe überfordert oder so...
Habe mal ungefähr die selbe Stelle mit selben Einstellungen miteinander verglichen. Die GTX hat an der Stelle 45 Fps und die HD 23 Fps.
i7 3337MHz GTX480
http://www.abload.de/thumb/unginee7xk.jpg (http://www.abload.de/image.php?img=unginee7xk.jpg)
i7 3337MHz HD5870
http://www.abload.de/thumb/selbestellermrf.jpg (http://www.abload.de/image.php?img=selbestellermrf.jpg)
Da stimmt doch etwas nicht. So viel habe ich ja mit meinem Juniper.
http://www.abload.de/thumb/drachenhpje.jpg (http://www.abload.de/image.php?img=drachenhpje.jpg)
Menace
2010-03-08, 22:05:05
I-wie hatts da schon wieder was gelöscht. Vllt sollte man den Thread mal dicht machen und n 2. eröffnen. Evtl is ja die Forensoftware mit der Größe überfordert oder so...
Es wird gelöscht bzw. auf die Spielwiese geschoben. Wie auch diese 2 Beiträge.
Kalmar
2010-03-08, 22:06:24
gestrandet, wenn du ihm sagst wie es mit openoffice geht ..
ich finde die werte dennoch interessant man sieht das ati wohl mehr power hat aber bei tessal net so mit kommt, kann vielleicht eich crack hier erklärenwiran das liegt? ggf am speicher oder ist die verarbeitung bei ati so mies ggf ?
ps die nachrichten verschwinden net sondern sind im spamthread lounge --> spielwiese
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.