Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Psychopat
2009-12-30, 22:21:18
Das stimmt so nicht.
Der hohe Preis wird durch die Einzelhändler generiert, nicht durch AMD.
Amd sieht davon nicht einen müden Dollar.
Edit:
Ob sich der Kampfpreis für AMd rechnet wird man sehen.
AMD hat den empfohlenen Verkaufspreis für die 5850 nach dem Launch angehoben. Einen deutlicheren Beleg für gute Margen bei AMD gibt es wohl nicht.
derguru
2009-12-30, 22:26:04
Wie es schein hast du entgegen deiner Bahauptung wohl doch nur "0,nix" verstanden.
Die alte generation interessiert insofern ---> G200/576mm² vs RV770/260mm²
Und jetzt wird es so sein-----> Fermi/530mm² vs. RV870/334mm²
Erkennst du was?
ja man erkennt das die g200 serie viel zu groß war?sonst noch was?
und vorallem ,was will der gast damit aufzeigen?
AMD hat den empfohlenen Verkaufspreis für die 5850 nach dem Launch angehoben. Einen deutlicheren Beleg für gute Margen bei AMD gibt es wohl nicht.
Warum nicht den der 5870?
5850 knapp -> Händler haben den Preis erhöht.
5870 knapp -> Händler haben den Preis erhöht.
5850 rutscht ins 5870 Preissegment -> Nachfrage der 5870 sinkt zugunsten der 5850, allerdings sinkt auch die Nachfrage der 5850 zugunsten anderer.
Ne, ich schaffs nicht zu erklären warum AMD nicht mehr bei der 5870 abschöpfen will/wollte, lieber die Händler verdienen lässt aber bei der 5850 anders reagiert.
PulsarS
2009-12-30, 22:30:25
Wie es schein hast du entgegen deiner Bahauptung wohl doch nur "0,nix" verstanden.
Die alte generation interessiert insofern ---> G200/576mm² vs RV770/260mm²
Und jetzt wird es so sein-----> Fermi/530mm² vs. RV870/334mm²
Erkennst du was?
Klar erkenne ich es.
Nur die Offenbarung die letzte Generation gegen die neue zu vergleichen, habe ich irgendwie nicht. :(
Was soll das bringen?
Die letzte Generation wird sicherlich nicht im Preiskampf der neuen Generation mitmischen können.
Wozu also der Vergleich?
Warum vergleicht man hier die alte Generation gegen die neue?
Und nicht die 2 neuen Produkte der neusten Generation?
Ich würde auch nicht auf die Idee kommen, den Golf aus der alten Generation mit einem neuen Astra zu vergleichen.
Wie kommt man überhaupt auf so seltsame Vergleiche?
Kann ich nicht nachvollziehen, echt. :(
Warum vergleicht man hier die alte Generation gegen die neue?
Tut man nicht.
Man vergleicht alt vs alt und neu vs neu.
Und jetzt les nochmal IVNs super Zusammenfassung des Gedankenganges durch.
Burgard
2009-12-30, 22:34:22
AMD hat den empfohlenen Verkaufspreis für die 5850 nach dem Launch angehoben. Einen deutlicheren Beleg für gute Margen bei AMD gibt es wohl nicht.
Wahrscheinlich, aber es könnte auch mit der Verspätung des Fermi zusammenhängen, ohne Konkurrenz kann man auch den Preis erhöhen.
Die 200er von Nv waren ja eine Zeitlang nicht gerade gut lieferbar.
Warum also Geld verschenken?
Wäre auch eine Erklärung, oder?
Gipsel
2009-12-30, 22:41:34
Die alte generation interessiert insofern ---> G200/576mm² vs RV770/260mm²
Und jetzt wird es so sein-----> Fermi/530mm² vs. RV870/334mm²
Erkennst du was?
Okay, lassen wir uns mal drauf ein. RV770/RV790 (55nm) hat die ganze letzte Zeit allerdings hauptsächlich mit dem GT200b (55nm) konkurriert.
Also RV770/790 mit 260/292mm² vs. GT200b mit 470mm²,
zukünftig wird es also RV870 mit 334mm² vs. GF100 mit ~550mm² sein.
Erkennst Du was? ;)
Woher kommen denn die 550mm² für Fermi? Mein letzter Stand war ~490.
PulsarS
2009-12-30, 22:45:32
Tut man nicht.
Man vergleicht alt vs alt und neu vs neu.
Nö.
Der Gast (du?) vergleicht ATI-neu gegen ATI-alt und Nvidia-neu gegen Nvidia-alt.
Absolut sinnloser Vergleich.
Alles außer GF100 gegen RV870 ist sinnlos.
Gipsel
2009-12-30, 22:48:29
Woher kommen denn die 550mm² für Fermi? Mein letzter Stand war ~480.
Charlie (sagt 530+mm², das Die soll 23,x mm * 23,x mm messen) und einige unterstützende Informationen bei B3D. So wurde dort der Fermi-Dieshot anhand eines Abgleichs der Speichercontroller und den bekannten Größen anderer GPUs "vermessen". Dort kam man auf die besagten 550mm².
Edit: Fellix' Post mit der 550mm² Zahl bei B3D (http://forum.beyond3d.com/showthread.php?p=1368484#post1368484). Ich würde das in Ermangelung offizieller Angaben als bisher besten Tipp betrachten.
Okay, lassen wir uns mal drauf ein. RV770/RV790 (55nm) hat die ganze letzte Zeit allerdings hauptsächlich mit dem GT200b (55nm) konkurriert.
Also RV770/790 mit 260/292mm² vs. GT200b mit 470mm²,
zukünftig wird es also RV870 mit 334mm² vs. GF100 mit ~550mm² sein.
Erkennst Du was? ;)
Ja, in der Tat.
Sogar wenn wir deine Zahlen nehmen, kommt das hier raus:
(470-260)/260 = 0,8 oder 80%
(550-334)/334 = 0,6467 oder 64,67%
D.h. während der GT200b damals 80% größer war als seine Konkurrenz, ist der Fermi das zu nur 64,67%. ;)
PulsarS
2009-12-30, 22:58:05
Ja, in der Tat.
Sogar wenn wir deine Zahlen nehmen, kommt das hier raus:
(470-260)/260 = 0,8 oder 80%
(550-334)/334 = 0,6467 oder 64,67%
D.h. weil der GT200b damals 80% größer war als seine Konkurrenz, ist der Fermi das zu nur 64,67%. ;)
Trotzdem ist er im direkten Vergleich DEUTLICH größer.
Dieser Vergleich ist, wie ich bereits sagte, Sondermüll.
Trotzdem ist er im direkten Vergleich DEUTLICH größer.
Dieser Vergleich ist, wie ich bereits sagte, Sondermüll.
Zum glück interessiert mich überhaupt nicht was du meinst oder sagst...
P.S. Und jetzt bist du auf meiner Ignore. Weil...ich bin viel zu alt um die nötige Geduld aufbringen zu können.
PulsarS
2009-12-30, 23:00:32
Zum glück interessiert mich überhaupt nicht was du meinst oder sagst...
Sehr schlagendes Argument, muss schon sagen... :rolleyes:
Demnächst... wenn du keine Ahnung hast, dann lieber nicht einmischen. ;)
edit:
P.S. Und jetzt bist du auf meiner Ignore. Weil...ich bin viel zu alt um die nötige Geduld aufbringen zu können.
Kein Problem. :)
Ich bin auch über 30 und leide schon leicht an Altersschwäche.
Nö.
Der Gast (du?) vergleicht ATI-neu gegen ATI-alt und Nvidia-neu gegen Nvidia-alt.
Nein nicht ich.
Checken wir mal unsere Ansicht:
RV770 und GT200 sind alt?
RV870 und GF100 sind neu?
Gut, dann heißt es wie gesagt alt vs alt und neu vs neu.
Okay, lassen wir uns mal drauf ein. RV770/RV790 (55nm) hat die ganze letzte Zeit allerdings hauptsächlich mit dem GT200b (55nm) konkurriert.
Also RV770/790 mit 260/292mm² vs. GT200b mit 470mm²,
zukünftig wird es also RV870 mit 334mm² vs. GF100 mit ~550mm² sein.
Erkennst Du was? ;)
Anfangs gabs nur RV770 vs GT200.
Du bringst jetzt einen neuen Vergleich ins Land, den GT200b, der Nvidias Position im Vergleich zu davor besserte.
Die Krone hat RV790 AMD nicht gebracht, das hat damals Dual RV770. RV790 hat 10% Mehr Leistung gebracht, zum höheren Preis, quasi die riesige Lücke zur Dual RV770 verkleinert.
GT200b hat die Kosten gesenkt, Mehrtakt mitgebracht und die Dual Version gebracht.
Zum Rechenspielchen mit deinen Zahlen, was wie gesagt nicht so richtig ist:
GT200/RV770 = 2,2
GT200b/RV790 = 1,61
GF100/RV870 = 1,64
Jo, tatsächlich auf GT200b Niveau.
Aber es ging um GT200, nicht um GT200b. GT200 wird immer als Abschaum angesehen, der viel zu teuer war, nicht GT200b.
GF100 wird gerne mit GT200 gleichgestetzt, deshalb ist der Vergleich so klasse, das GF100 nicht wie GT200 aussieht.
Lustig wirds, wenn man Dualdinger reinrechnet. GF100 im Endausbau wird nunmal nicht direkter HD 5870 Konkurrent.
576mm² vs 2*260mm²
--
550mm² vs 2x 334mm²
Gipsel
2009-12-30, 23:02:46
Ja, in der Tat.
Sogar wenn wir deine Zahlen nehmen, kommt das hier raus:
(470-260)/260 = 0,8 oder 80%
(550-334)/334 = 0,6467 oder 64,67%
D.h. während der GT200b damals 80% größer war als seine Konkurrenz, ist der Fermi das zu nur 64,67%. ;)
(470-292)/292 = 60,96%
Und? Die paar Prozent Unterschied sind ziemlich unerheblich, insbesondere in Anbetracht der 40nm Probleme. In die Yield-Rate fließt nämlich die Die-Size deutlich nichtlinear ein ;)
Charlie sagt...
Glaubst du auch an den Weihnachtsmann?
Edit: Fellix' Post mit der 550mm² Zahl bei B3D (http://forum.beyond3d.com/showthread.php?p=1368484#post1368484). Ich würde das in Ermangelung offizieller Angaben als bisher besten Tipp betrachten.
Das klingt allerdings schon sinnvoller.
Trotzdem ist er im direkten Vergleich DEUTLICH größer.
Dieser Vergleich ist, wie ich bereits sagte, Sondermüll.
Der Größenunterschied ist kleiner geworden.
Was gibts daran nicht zu kapieren?
Diese Aussage ist völlig ohne Wertung.
Glaubst du auch an den Weihnachtsmann?
Wenn Charlie 530mm² angibt, so kann man dies als absolut obere Grenze annehmen.
(Gut, mal ausgeklammert das Charlie oft keine Quellen hat.)
Da noch was rauszuschlagen ist wirklich Quatsch.
Gipsel
2009-12-30, 23:08:14
Anfangs gabs nur RV770 vs GT200.
Nö, anfangs gab's nur GT200. RV770 kam später und wurde bereits in einem kleineren Prozeß produziert. Äpfel und Birnen sage ich dazu.
Du bringst jetzt einen neuen Vergleich ins Land, den GT200b, der Nvidias Position im Vergleich zu davor besserte.Ja, vorher war die Situation auch praktisch unhaltbar ;). Zumindest ist das jetzt ein Vergleich mit dem gleichen Prozeß, genau wie bei RV870 vs. GF100 und somit der, der deutlich weniger hinkt. Alles andere ist wirklich kompletter Unsinn.
Zum Rest kann ich mir einen Kommentar wohl sparen.
Gipsel
2009-12-30, 23:09:38
Glaubst du auch an den Weihnachtsmann?
Das klingt allerdings schon sinnvoller.
Ich habe Charlie deswegen erwähnt, weil seine Zahl konsistent ins Bild paßt. Es ist ja nicht so, daß er überhaupt keine Quellen hat ;)
(470-292)/292 = 60,96%
Und? Die paar Prozent Unterschied sind ziemlich unerheblich, insbesondere in Anbetracht der 40nm Probleme. In die Yield-Rate fließt nämlich die Die-Size deutlich nichtlinear ein ;)
Das ist ein fehlgeleiteter Vergleich. Den rv790 gabs am Anfang nicht. Genau wie es jetzt noch keine "ultra" Version des rv870 gibt.
Aber wenn du darauf bestehst:
wenn man (470-292)/292 schreibt, dann muss man auch (550-(334+X))/(334+X) schreiben.
Gipsel
2009-12-30, 23:12:35
Wenn Charlie 530mm² angibt, so kann man dies als absolut obere Grenze annehmen.
(Gut, mal ausgeklammert das Charlie oft keine Quellen hat.)
Da noch was rauszuschlagen ist wirklich Quatsch.
Informiere Dich! Es hätte sogar schon gereicht meinen Post zu lesen. Charlie sagt nämlich 529mm² < Fermi < 576 mm². Und das übrigens schon eine ganze Weile. Und von anderer Seite kam vor 2 Wochen die ~550mm² Zahl. Scheint also ungefähr zu passen.
Gipsel
2009-12-30, 23:16:56
Das ist ein fehlgeleiteter Vergleich. Den rv790 gabs am Anfang nicht. Genau wie es jetzt noch keine "ultra" Version des rv870 gibt.
Aber wenn du darauf bestehst:
wenn man (470-292)/292 schreibt, dann muss man auch (550-(334+X))/(334+X) schreiben.
Das ist doch auf gut deutsch schei**egal. Solche Vergleiche bringen aus den von mir dargelegten Gründen eh nicht so viel. Festzuhalten bleibt, daß das Diesize-Verhältnis *ähnlich* wie bisher bleiben wird. Ob das nun 64%, 60% oder auch 80% mehr sind ist aufgrund der anderen Variablen eher zu vernachlässigen. Ende der Diskussion.
Das spielt meiner Meinung nach eh nur eine Rolle, wenn wir mit dem größeren Die trotzdem wieder die gleichen Verhältnisse haben wie bisher.
Von manchen wird das schon als unveränderliches Dogma gesehen, was ich einfach nicht nachvollziehen kann.
Der Größenunterschied ist kleiner geworden.
Das mag sein, macht aber den Braten auch nicht mehr fett. RV870 ist gerade so produzierbar, wärend größere Chips in 40nm überproportional schlechter zu fertigen sind. Die Die-Größe ist umso wichtiger, je schlechter die Produktion läuft. Auch wenn RV870 gewachsen ist, was btw logisch ist, ohne grundlegenden Architekturwechsel, ist er momentan überproportional besser bzw. erfolgreicher herzustellen als Nvidias überfälliges Baby.
40nm bei TSMC ist wahrlich ein sehr unrund laufender Prozess, aber da müssen sie jetzt durch. Dem Endkunden kann das egal sein, den Kriegskassen der betroffenen Firmen allerdings nicht;)
Das mag sein, macht aber den Braten auch nicht mehr fett. RV870 ist gerade so produzierbar, wärend größere Chips in 40nm überproportional schlechter zu fertigen sind.
Du hast natürlich ausführliche Quellen darüber warum TSMCs Prozess so schlechte Yields verursacht?
Bei sehr vielen Punktdefekten mag das stimmen, aber nicht wenn die Strukturen zu stark schwanken.
PulsarS
2009-12-30, 23:26:15
Das ist ein fehlgeleiteter Vergleich. Den rv790 gabs am Anfang nicht. Genau wie es jetzt noch keine "ultra" Version des rv870 gibt.
Aber wenn du darauf bestehst:
wenn man (470-292)/292 schreibt, dann muss man auch (550-(334+X))/(334+X) schreiben.
Und was könnte das mit den Yieldproblemen (40nm mit mehr Transis) zu tun haben?
PulsarS
2009-12-30, 23:29:50
Du hast natürlich ausführliche Quellen darüber warum TSMCs Prozess so schlechte Yields verursacht?
Und Du kannst natürlich belegte Kenntnisse darüber vorweisen?
Bei sehr vielen Punktdefekten mag das stimmen, aber nicht wenn die Strukturen zu stark schwanken.
Was soll da schwanken?
Welche Strukturen meinst Du?
Menace
2009-12-30, 23:32:52
OT:
Glaubst du auch an den Weihnachtsmann?
Im Vergleich zu mancher Theorien, die hier die letzten 2 Monate gepostet wurden lag Charlie aber häufig näher am wirklichen Geschehen. Morgen endet das Jahr und die hier oft angepriesen Veröffentlichung ist (wie von Charlie vermutet) nicht eingetroffen. Als blindes Huhn findet er erstaunlich häufig Körner (neben viel Schwachsinn).
Den Verdrängungsprozess zu den anderen Aussagen, die dann nie eingetroffen sind ist aber beachtlich und führt komischerweise nie zum Weihnachtsmann/Osterhasenvergleich.
Menace
2009-12-30, 23:34:31
Dann wären sie aber schon ziemlich dämlich.
Ich habe den Eindruck, das sind sie. :D
Im Vergleich zu mancher Theorien, die hier die letzten 2 Monate gepostet wurden lag Charlie aber häufig näher am wirklichen Geschehen.
...
GTX 285 wurden knapp, Charlie hat behauptet Nvidia steige aus dem Desktop High-End Markt aus.
Afaik hat er auch das sofortige Ende der anderen GTX 200 vorausgesagt.
Etwas später gabs wieder ein paar GTX 285, andere GTX 200 wie die GTX 260 wurden angeblich heftigst nachgefragt, von EOL keine Spur.
Schon eine Wahnsinnsleistung, das Angebot beobachten, eine Theorie aufstellen die dazu passt und am Ende wenns nicht mehr passt Schwamm drüber.
Menace
2009-12-30, 23:47:24
GTX 285 wurden knapp, Charlie hat behauptet Nvidia steige aus dem Desktop High-End Markt aus.
Afaik hat er auch das sofortige Ende der anderen GTX 200 vorausgesagt.
Etwas später gabs wieder ein paar GTX 285, andere GTX 200 wie die GTX 260 wurden angeblich heftigst nachgefragt, von EOL keine Spur.
Schon eine Wahnsinnsleistung, das Angebot beobachten, eine Theorie aufstellen die dazu passt und am Ende wenns nicht mehr passt Schwamm drüber.
Nicht umsonst betonte ich (a) den Vergleich zu anderen und (b) dass er als blindes Huhn fungiert.
Zu (a): Andere Quellen werden hier weit aus unkritischer zitiert, die ähnlich fundierte Behauptungen aufstellen (weil nicht sein kann, was nicht sein darf).
Aber nur, weil einem seine Meinung nicht immer passt, kann man nicht prinzipiell ausschließen, dass er mal Recht hat. Das mit 2xx war imho Blödsinn (glaube kaum, dass das was noch bei Geizhals anzutreffen ist, Lagerbestände sind). Die Aussagen mit Fermi passten häufig recht gut. Aber das schöne ist, im nächsten Monat wissen wir mehr.
PulsarS
2009-12-30, 23:54:55
Aber das schöne ist, im nächsten Monat wissen wir mehr.
Ich glaube nicht daran ;)
Ich glaube nicht daran ;)
Sofern Alzheimer oder ähnliches nicht per Internet verbreitet wird, so bezweifel ich, das du uns hier damit ansteckst.
Weniger wissen werden wir nicht.
Vermeide gefaelligst in der Zukunft derartige Sticheleien
PulsarS
2009-12-31, 00:33:41
Sofern Alzheimer oder ähnliches nicht per Internet verbreitet wird, so bezweifel ich, das du uns hier damit ansteckst.
Weniger wissen werden wir nicht.
Wenn wir den nächsten Monat die vollständigen Specs wissen, dann bist du gerettet...
:P
aylano
2009-12-31, 01:04:56
Für die Leute, die sich freuen, Fermi vs. RV870 wird Nvidia etwas besser als RV770 vs. GT200:
Ich glaube sie wissen nicht, wie Unterlegen Nvidia da war, wo eben die GT200-Architektur vs. RV7x0-Architektur aufeinandertraf.
http://www.fudzilla.com/content/view/9766/65/
Es gab wenig Interesse für Nvidia-Geforce-Modelle der High-End-Klasse und teilweise war das Verhältnis 10:0, bis GT200b kam.
Der Gewinn brach im GPU-Markt weiter ein, der dann wegen oder vielleicht dann auch so ins Minus drehte.
Aber sie hatten eben zuerst noch eines, weil im Low-End & Mainstream-Markt sowohl in Desktop & Notebook-Mart eben noch RV6x0 vs G9x konkurrierten.
Dazu musste ATI von den Marktanteilen her, von sehr weit Unten raufarbeiten, wodurch die Auswirkungen eben verzögernd ankamen.
Also, bevor sich da welche freuen bzw. viel diskutierte, um wie viel es besser ist als GT200, sollten sie sich erst klar werden, wie schlimm das für Nivida war.
Für mich zählt der RV770/RV790 vs. GT200b - Vergleich, da für mich nur ein Vergleich mit gleicher Fertigung Sinn macht.
Und hier war auch interessant zu sehen, als der RV790 kam.
Denn da änderte sich das Interesse in Geizhals bei RV770 vs. GT200b von ca. 4:6 auf 6:4 bei RV790 vs. GT200b.
Und der RV790 hatte kaum Effizienz-Steigerungen sondern eher Takt & Stromverbrauchs-Steigerungen.
Interessant deshalb, weil sich das Interesse "ziemlich stark" bei recht kleinen Änderungen ändert.
GT285 brachte AFAIK eine 15%-Effizienz-Steigerung und das Interesse änderte sich von (10:0) 9:1 zu 4:6, wobei in diesem Fall wahrscheinlich auch noch niedere Preise mitgewirkt haben.
Um wieder zum Punkt zu kommen.
Der GT200 war IMO mit den Preis nahe den Produktionskosten und konnten mit dem Preis nicht noch weiter runter. Erst GT200b ermöglichte es und dann sah es wieder besser für Nvidia aus.
Und wie sich RV870 vs. GT300 schlägt ist momentan noch schwer zu sagen, da man es ja nicht genau sagen kann.
Es hängt mal davon ab, um wieviel schneller GT300 überhaupt.
Und ob dann die GT300 mit diesen Preis noch Attraktiv ist, der hoffentlich wegen zu schlechter Yieldraten nicht zu hoch ist.
Dural
2009-12-31, 01:36:52
sorry aber "Geizhals" zahlen kannst du wohl gerade in die tonne werfen, für den gesamten markt null aussage kraft!
und das eine GTX 280 weniger gefragt ist als eine GTX260 oder 4870/4850 sollte ja klar sein...
der GT200a hatte nur ein problem: zu gross + zu wenig takt und das kann man auch auf den GT200b übertragen, natürlich war es da nicht so extreme...
stellt euch mal eine GTX285 mit 9800GTX+ takt vor... das ding hätte richtig eingeschlagen und genau so hätte der GT200 kommen müssen...
das tolle daran ist jetzt aber, der GF100 könnte mit richtig viel takt einen sehr grossen abstand zum GT200 erziehlen! ;) leider sieht es wieder nicht nach richtig viel takt aus, eher in der GT200b region...
Gestrandet
2009-12-31, 02:22:18
der GT200a hatte nur ein problem: zu gross + zu wenig takt
(Hervorhebungen von mir)
Das erklärt manches ... in der Welt mancher scheinen selbst so einfache Axiome wie 1 + 1 = 2 nicht zu gelten ^^
*SCNR*
=Floi=
2009-12-31, 07:54:48
fermi hat übrigens nur 4 phasen und auf der desktop GT300 sind 6 phasen zu sehen. das spricht zumindest hier für MEHR POWER.
http://tweakers.net/ext/f/SokYR0qKsefO05zmtLteDmDQ/full.jpg
Ailuros
2009-12-31, 08:56:36
Coda,
Wir haben die =/<550mm2 jetzt schon zweimal besprochen. Fellix hat den GT215 die nochmal mit Fermi die shot verglichen und kam auf runde 550mm2. Es kann sein dass man sich bei solchen Vergleichen leicht falsch misst, aber auf jeden Fall sieht es aus dass das Resultat naeher an Charlie's 23,x*23,x liegt als das 22,3*22,3 dass mir vermittelt wurde.
Gipsel,
Die Packdichte ist so oder so normal. Wenn ich von 2.15Mrd/334mm2 auf 3.08Mrd hochrechne gibt die Milchmaedchenrechnung knapp ~480mm2. Der Zusatz ist normal dank hot clocks u.a. und ja es ist alles verdammt vereinfacht.
Dural,
Zum allerletzten Mal die entgueltige Frequenz des GT200 und GT200b haette groesser sein koennen aber es haette nicht mehr viel geaendert. Im besten Fall haetten sie den hot clock des GT200b beispielsweise auf 1620 treiben koennen mit etwas hoeherer voltage und ein einstelliges Prozentual an Leistung dazugewonnen.
Wenn es einer Architektur an Effizienz fehlt dann hilft die endlose Frequenz-pumperei auch nicht mehr. Diese Generalisierung hat zwar nicht unbedingt etwas mit Gt200 zu tun, aber frag Dich nochmal warum R300 mit 300MHz von hinten und vorne effizienter war als NV30 mit bruellenden 500MHz.
Wenn NVIDIA ihre Hausaufgaben alle richtig gemacht hat bei GF100 (z.B. bessere Daten-, Speicher- und Bandbreiten-Verwaltung u.a.) dann spielt zwar Frequenz ihre Rolle, aber 10% ueber oder unter der originalen Zielfrequenz heisst auch nur ca. 10% mehr oder weniger Leistung.
GT200 war keineswegs ein schlechter chip; nur eben wie bei jeder vergangenen Architektur gibt es stets Stellen zur Verbesserung. Dieser Punkt ist momentan der wichtigste fuer GF100 sonst koennten wir locker die specs nehmen und auf GT200 Basis die Leistung einschaetzen.
=Floi=
2009-12-31, 09:50:59
das wären im peak 20% unertschied. lass es mal 15% sein und das ist auch schon verdammt viel holz und nv braucht jedes % um sich von der 5870er abzusetzen. du schreibst so, als ob es keine konkurrenz gibt und nv 50% vor einer 5970er liegt... :rolleyes:
Ailuros
2009-12-31, 10:14:00
das wären im peak 20% unertschied. lass es mal 15% sein und das ist auch schon verdammt viel holz und nv braucht jedes % um sich von der 5870er abzusetzen. du schreibst so, als ob es keine konkurrenz gibt und nv 50% vor einer 5970er liegt... :rolleyes:
Ich schreibe oder deute gar nichts diesbezuegliches an. Wie ueblich wohl eher eine Differenz bei der eigentlichen Interpretation der Mitteilung.
Woher jetzt der angebliche 15 oder 20% Unterschied kommt oder sogar 50% > 5970 und in welchem Zussamenhang genau weisst wohl nur Du und weiss der Henker wass Du gerade herauslesen willst.
GF100 darf als neue Architektur nicht auf GT200 Effizienz liegen sonst haben sie Mist gebaut. Ob dieses und wie genau erreicht wurde weiss keiner. Wenn sich aber pro Einheit und pro Takt wenig bis gar nichts geaendert hat, dann hat NV einen fetten Batzen an R&D und dementsprechenden Kosten nutzlos verbraten.
http://www.fudzilla.com/content/view/9766/65/
Es gab wenig Interesse für Nvidia-Geforce-Modelle der High-End-Klasse und teilweise war das Verhältnis 10:0, bis GT200b kam.
Danke für den Link. Und wenn man dem Link auf Fudzilla jetzt wieder folgt steht es wieder 10:0 für ATi. http://geizhals.at/?o=8
Also haben wir momentan wieder die gleiche Situation wie bei RV770:GT200....kein Schwein interessiert sich für die alten Nvidia Karten. Wahrscheinlich sind sie deshalb so gut verfügbar. Fermi muss schnell kommen, sehr schnell.
=Floi=
2009-12-31, 10:42:13
zitat
aber 10% ueber oder unter der originalen Zielfrequenz heisst auch nur ca. 10% mehr oder weniger Leistung.
das ergibt bei mir eine schwankung von 20% und das finde ich schon viel. egal wie schnell der GT300 nun wirklich ist. ich finde nv hat keinen solchen spielraum und du setzt diese zahlen nicht gerade niedrig an.
das wollte ich damit sagen.
edit
zumindest durch den wegfall der DP einheiten hat sich der R&D aufwand schon gelohnt und dadurch steigt auch die DP-leistung erheblich an. ohne bezug zum Gt300 ist die richtung die man mit der neuen architektur einschlägt richtig und sinnvoll. Spätere chips werden ebenfalls davon profitieren und deshalb sehe ich hohe R&D kosten nicht so schlimm, wenn sie ein gutes grundlagendesign schaffen und man so diese technologie lange und breit nützen kann.
Ailuros
2009-12-31, 11:16:15
das ergibt bei mir eine schwankung von 20% und das finde ich schon viel. egal wie schnell der GT300 nun wirklich ist. ich finde nv hat keinen solchen spielraum und du setzt diese zahlen nicht gerade niedrig an.
das wollte ich damit sagen.
Dann lies gefaelligst den gesamten Post so oft durch bis der Groschen faellt, denn die Logik beginnt hiermit:
Zum allerletzten Mal die entgueltige Frequenz des GT200 und GT200b haette groesser sein koennen aber es haette nicht mehr viel geaendert. Im besten Fall haetten sie den hot clock des GT200b beispielsweise auf 1620 treiben koennen mit etwas hoeherer voltage und ein einstelliges Prozentual an Leistung dazugewonnen.
Und auf GT200 war es auch original bezogen. Wenn jetzt GF100 eine hoehere Effizienz pro Einheit und pro Takt hat (was ich auch bei einer augemoebelten Architektur wie Fermi erwarte) dann sind es X% mehr Einheiten im Vergleich zu GT200 plus Effizienzsteigerung und dann erst die Frequenz.
Um eine Debatte zu verfolgen liest man vorsichtig durch und noch mehr auf was ich genau geantwortet habe.
edit
zumindest durch den wegfall der DP einheiten hat sich der R&D aufwand schon gelohnt und dadurch steigt auch die DP-leistung erheblich an.
Wir reden hier ueber die 3D Leistung, ergo ist DP total irrelevant in diesem Fall. NV hat sicher nicht fast eine Mrd. $ in R&D fuer die gesamte GF1xx Familie verpulvert nur um eine 2:1 SP/DP Relation zu erreichen.
ohne bezug zum Gt300 ist die richtung die man mit der neuen architektur einschlägt richtig und sinnvoll. Spätere chips werden ebenfalls davon profitieren und deshalb sehe ich hohe R&D kosten nicht so schlimm, wenn sie ein gutes grundlagendesign schaffen und man so diese technologie lange und breit nützen kann.
Wie waere es wenn wir uns auf 3D Leistung konzentrieren um die es in der gegebenen Debatte eigentlich geht?
Wenn es wirklich hier um HPC ginge und nur um sterile FLOP Zahlen schiel mal auf die theoretischen DP Raten einer 5870 rueber und es wird leicht zu sehen sein dass es bei weitem nicht der brennende Punkt ist der fuer NV den wirklichen Unterschied macht.
Weder ich noch Du kaufen uns wohl weder eine Quadro noch ein Tesla rack ergo interessiert uns eher die 3D Leistung und ueber die Effizienz hier bzw. Leistung ist hier noch nichts bekannt. Ich erwarte eine hoehere Effizienz dank neuer Architektur, aber kann keineswegs etwas einschaetzen noch habe ich es jeh versucht. Ergo fang nochmal von vorne an.
AnarchX
2009-12-31, 11:27:20
Wie stark sich die Effzienz erhöht hat, könnte sich wohl auch erst später zeigen.
Bei der 88 GTX lag man anfangs bei einem Faktor 1,9 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating_qualitaet) gegenüber der 79 GTX bei 1600x1200 4xAA, Mitte 2007 waren es dann schon 2,5 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet).
Wobei natürlich der Wechsel von GT200 auf GF100 auf den ersten Blick nicht so fundamental, wie bei G70 zu G80, erscheint.
Weder ich noch Du kaufen uns wohl weder eine Quadro noch ein Tesla rack ergo interessiert uns eher die 3D Leistung und ueber die Effizienz hier bzw. Leistung ist hier noch nichts bekannt. Ich erwarte eine hoehere Effizienz dank neuer Architektur, aber kann keineswegs etwas einschaetzen noch habe ich es jeh versucht. Ergo fang nochmal von vorne an.
Warum nicht?
GPGPU ist doch auch spannend. Ob ich jetzt die Konsolenports mit einer 5870 oder einem Gt300 spiele ist doch egal.
Ist GPGPU nicht son neues Features von DX11? :lol:
Hat eigentlich schonmal jemand gecheckt, dass viele CS/DC abfeiern und gleichzeitig GF100 kritisieren, weil es für genau diesen Bereich Verbesserungen gegeben hat? :D
Ailuros
2009-12-31, 11:52:52
Wie stark sich die Effzienz erhöht hat, könnte sich wohl auch erst später zeigen.
Bei der 88 GTX lag man anfangs bei einem Faktor 1,9 (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gts_sli/25/#abschnitt_performancerating_qualitaet) gegenüber der 79 GTX bei 1600x1200 4xAA, Mitte 2007 waren es dann schon 2,5 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet).
Wobei natürlich der Wechsel von GT200 auf GF100 auf den ersten Blick nicht so fundamental, wie bei G70 zu G80, erscheint.
Zwischen G70 und G80 war der Unterschied u.a. so gross (ueberhaupt wenn man auf "high quality" AF drehte) weil texturing von den ALUs (im Gegensatz zu G7x) auf G80 entkoppelt war. Im gegebenen Fall hat CB nicht nur "high quality" G7x gegen "quality" G80 verglichen sondern auch bei beiden TSAA eingeschaltet. Kein Wunder dass im zweiten Fall die 8800GTX um 80% schneller ankommt als die 7950GX2.
"Gute Hausaufgabe" in meinem Buch waere etwas dass sich in solchen Faellen etwa 40% ueber der GTX295 erreichen kann. Ein quasi Gleichstand zur 295 ist im "gaehn" Bereich und auch auf etwa 5870 Nivaeu.
LuXon
2009-12-31, 13:03:45
http://www.nvidia.com/object/geforce_m_series.html
Ich weiss nicht, ob das schon gepostet wurde, aber das was auf der Page für die GT300 Mobile Series steht sieht sehr nach marketinggeschwätz aus.
reunion
2009-12-31, 13:04:02
Das wäre nicht das erste Mal um Marktanteile zu erhalten.
Die Quartalszahlen werden es zeigen wie wirtschaftlich die GPU gefertigt wird.
Das macht keinen Sinn. Wenn man die Nachfrage ohnehin nicht decken kann erhöht man auch die Marktanteile nicht wenn man den Preis noch so sehr senkt. Natürlich casht AMD jetzt ab, kein Wunder bei dem Preis den manche Leute breit sind für eine solche Karte zu zahlen.
Im Vergleich zu mancher Theorien, die hier die letzten 2 Monate gepostet wurden lag Charlie aber häufig näher am wirklichen Geschehen. Morgen endet das Jahr und die hier oft angepriesen Veröffentlichung ist (wie von Charlie vermutet) nicht eingetroffen. Als blindes Huhn findet er erstaunlich häufig Körner (neben viel Schwachsinn).
So ist es. Charlie hat wohl gute Quellen bei TSMC, deshalb wusste er auch das Fermi dieses Jahr unrealistisch ist und deshalb wusste er auch schon verdammt bald die Die-Size von Fermi.
Und was soll dieser sinnlose Vergleich bringen?
Tritt etwa der GT200 gegen den GF100 an? Oder der RV770 gegen den RV870?
Der RV870 tritt gegen GF100 an und nur hier macht ein Vergleich Sinn.
Und hier sieht der RV870 doch nach deutlich günstiger in der Herstellung aus als der GF100.
Versuchs mal mit dem Lesen von mehreren Postings. Dann fällt auf, dass sich auf die Ausgangslage bezogen wurde und wie sie sich diesmal verändert. ZUm Glück gibt es in diesem Forum noch einige, die nicht nur lesen sondern auch verstehen können.
Für dich nochmal:
nVidia kann GF100 für den selben Preis verkaufen wie den GT200(b). Ihre Margen werden sogar höher sein als die von AMD im Vergleich zum letzten Jahr, da sie einen kleineren Chip, weniger Layer und weniger Speicher benötigen. Dagegen ist Cypress größer, hat ein aufwendigeres Board und Stromversorgung und benötigt teureren Speicher.
Das ganze war ein Bezug auf die Aussage, dass nVidia nicht mit dem Preis von AMD mithalten könnte.
Ist GPGPU nicht son neues Features von DX11? :lol:
Hat eigentlich schonmal jemand gecheckt, dass viele CS/DC abfeiern und gleichzeitig GF100 kritisieren, weil es für genau diesen Bereich Verbesserungen gegeben hat? :D
Naja die "Fans" sind halt beleidigt.;)
=Floi=
2009-12-31, 13:28:21
Der GT300 hat nichts mit dem bezug zum GT200x zu tun. es geht mir darum, dass GT300 selbst mit dem takt skaliert und ich DEINE hypothetischen 10% + und - als zu groß ansehe! das ist eine menge holz und imho hat nv keinen so großen spielraum um mal eben 20% langsamer sein zu können.
das hat erstmal gar nichts mit irgendwelchen effiziendsteigerungen zu tun. zwischen den 2 cypress karten ist nicht so viel platz.
10% mehr beim fermi bedeuten schon wieder 20% gegenüber einer 280er, wenn fermi doppelt so schnell ist! (theoretisch)
Umgedreht, wenn fermi nur 1,8 mal schneller wie eine 280er wird, dann bedeuten 10% weniger nur noch faktor 1,62 was der steigerung G80 gegenüber dem GT200 entspricht... :rolleyes:
Je schneller der chip ist, desto besser ist es und desto weiter kann er sich absetzten.
im grunde habe ich schon etwas von GPGPU und zumindest werden jetzt nicht mehr die platzfressenden und taktbremsenden DP-einheiten verbaut. :) NV darf sich auch im GPGPU bereich keinen rohrkrepierer leisten und zumindest dort kann man noch geld verdiene und diese kosten reinholen. Dort wäre ein fehlschlag gravierender wie im 3d sektor.
Dural
2009-12-31, 15:37:13
(Hervorhebungen von mir)
Das erklärt manches ... in der Welt mancher scheinen selbst so einfache Axiome wie 1 + 1 = 2 nicht zu gelten ^^
*SCNR*
es ist ein problem, die grösse/breiter chip hatte sehr wahrscheinlich zurfolge das man nicht auf takt kommt... :wink:
fermi hat übrigens nur 4 phasen und auf der desktop GT300 sind 6 phasen zu sehen. das spricht zumindest hier für MEHR POWER.
http://tweakers.net/ext/f/SokYR0qKsefO05zmtLteDmDQ/full.jpg
jo... und die GeForce hat auch ein grösseres PCB und Kühler
@Ailuros
Der GT200 skaliert hervorragend mit mehr Takt, sogar schon fast überproportional zum Takt, das liegt wohl daran das die GT200 Karten von Natur aus schon sehr viel Bandbreite haben und so vom mehr takt sehr gut profitieren können. der RV770 und RV870 verhalten sich ganz anders... eine GTX285 hat immerhin 160GB/s mit GDDR3 um da die selbe Leistung mit GDDR5 zu erzielen müsste man sicher schon 180GB/s und mehr haben und das erreicht heute ja nicht mal zb. eine 5870...
ach ja, die Shader im GT200 regieren so gut wie gar nicht auf mehr Spannung, ab 1,20Volt erzielt man mit mehr Spannung kaum noch eine grosse steigerung! der ROP bereich skaliert aber exelent mit mehr Spannung. die shader reagieren auf bessere kühlung zb. auch nicht so gut wie die von den G8x/G9x, für mich ist das ein eindeutiger Beweis das der GT200 einfach eine andere takt bremse hat, entweder einfach zu gross oder sonst was...
AnarchX
2009-12-31, 17:46:03
Bei PCPer stellt Nvidia nochmal klar, dass sie definitiv auch 512SPs Karten veröffentlichen werden: http://www.pcper.com/comments.php?nid=8160
Und PHK will wissen, dass GF100 im Unigine Tessellationsbenchmark 130% schneller als die HD 5870 ist: http://bbs.expreview.com/thread-26246-1-1.html
Und PHK will wissen, dass GF100 im Unigine Tessellationsbenchmark 130% schneller als die HD 5870 ist: http://bbs.expreview.com/thread-26246-1-1.html
Das wäre natürlich enorm. Vieleicht ist an den Benchmarks die zuletzt als Fakes die Runde machten doch was dran?
N0Thing
2009-12-31, 17:56:45
130% schneller hört sich so nach mehr als doppelt so schnell an. 130% fast as 5870 meint aber bei 100% ist Gleichstand, also sollte die GF100 78 zu 60 Frames schaffen (<-- Beispiel).
Nur damit keine Mißverständnisse wie früher auftreten. ;)
desert
2009-12-31, 18:13:22
130% schneller hört sich so nach mehr als doppelt so schnell an. 130% fast as 5870 meint aber bei 100% ist Gleichstand, also sollte die GF100 78 zu 60 Frames schaffen (<-- Beispiel).
Nur damit keine Mißverständnisse wie früher auftreten. ;)
Bei 130 % sollte bei deiner rechnung 138 Frames rauskommen.
100 % schneller ist kein gleichstand. 100 % schneller als xxx ist nunmal 100 % schneller und damit doppelt so schnell.
Bei 5870 machte 1,6 mal so schnell die runde und das wäre bei 60 fps 96 fps.
Da kam damals das missverständnis her.
Ailuros
2009-12-31, 18:23:51
Der GT300 hat nichts mit dem bezug zum GT200x zu tun. es geht mir darum, dass GT300 selbst mit dem takt skaliert und ich DEINE hypothetischen 10% + und - als zu groß ansehe! das ist eine menge holz und imho hat nv keinen so großen spielraum um mal eben 20% langsamer sein zu können.
Lies die vorigen Posts nochmal genauer durch. Ich weiss genau was ich gemeint habe und ich weigere mich mich weiterhin in Deinen 10, 20% oder jeglichen anderen Stuss einzulassen. Wenn Du es immer noch nicht verstehen kannst kann ich auch nicht weiterhelfen.
das hat erstmal gar nichts mit irgendwelchen effiziendsteigerungen zu tun. zwischen den 2 cypress karten ist nicht so viel platz.
Nochmal durchlesen.
10% mehr beim fermi bedeuten schon wieder 20% gegenüber einer 280er, wenn fermi doppelt so schnell ist! (theoretisch)
Umgedreht, wenn fermi nur 1,8 mal schneller wie eine 280er wird, dann bedeuten 10% weniger nur noch faktor 1,62 was der steigerung G80 gegenüber dem GT200 entspricht... :rolleyes:
Je schneller der chip ist, desto besser ist es und desto weiter kann er sich absetzten.
im grunde habe ich schon etwas von GPGPU und zumindest werden jetzt nicht mehr die platzfressenden und taktbremsenden DP-einheiten verbaut. :) NV darf sich auch im GPGPU bereich keinen rohrkrepierer leisten und zumindest dort kann man noch geld verdiene und diese kosten reinholen. Dort wäre ein fehlschlag gravierender wie im 3d sektor.
Danke fuer die Verschwendung der Bandbreite. Nochmal durchlesen und falls es immer noch nicht einblendet gibt es im Notfall PMs.
Dural
2009-12-31, 18:34:50
130% wären schon heftig... kann es mir fast nicht vorstellen und wenn doch dann wünsch ich AMD viel spass mit einem RV870 refresh mit +15% :freak:
30% und vieleicht low takt hört sich doch einiges realistischer an...
Ailuros
2009-12-31, 18:42:29
Der GT200 skaliert hervorragend mit mehr Takt, sogar schon fast überproportional zum Takt, das liegt wohl daran das die GT200 Karten von Natur aus schon sehr viel Bandbreite haben und so vom mehr takt sehr gut profitieren können.
Wie soll ich das jetzt verstehen? Dass wenn ich eine GTX285 um 10% alle 3 Frequenzen erhoehe mehr als ~10% zusaetzliche Leistung bekomme?
Wenn ja moechte ich es erstmal belegt bekommen.
Wie dem auch sei was ich eigentlich meinte ist dass wenn eine GTX285 mit 648/1476/1242 X% Leistung liefert und man alle Frequenzen um Y% erhoeht man auch normalerweise auch ~Y% mehr Endleistung bekommt.
Ja natuerlich koennte jemand so radikal sein und erwarten dass sie einen 1.4Mrd Transistoren chip auf 65nm und spaeter auf 55nm irgendwo um die 750/1700MHz haette takten koennen, aber dann koennten auch Elephanten fliegen.
Nochmal seit G80 hat die konstante Erhoehung von Chipkomplexitaet zu einer quasi Stagnation von Frequenzen gefuehrt. Je mehr das erste steigt desto schwerer wird es fuer die Frequenzen sich zu steigern. Und ja IHVs sind sich diesem durchaus bewusst.
der RV770 und RV870 verhalten sich ganz anders... eine GTX285 hat immerhin 160GB/s mit GDDR3 um da die selbe Leistung mit GDDR5 zu erzielen müsste man sicher schon 180GB/s und mehr haben und das erreicht heute ja nicht mal zb. eine 5870...
Ich glaub ich hab den Kontakt hier verloren. Ausser Du meinst dass GDDR3 Bandbreite irgend einen Unterschied zu GDDR5 Bandbreite haben soll was wohl keinen Sinn macht.
GF100 braucht eine bessere Bandbreiten-Verwaltung pro GB. Vom Punkt der Theorie wo ich schaetze dass es der Architektur helfen wuerde bis zum Punkt wo es NV auch wirklich realisiert hat gibt es schon einen Unterschied. Aber fuer so bloed halt ich die NV engineers nun auch wieder nicht. Mehr weiter unten.
ach ja, die Shader im GT200 regieren so gut wie gar nicht auf mehr Spannung, ab 1,20Volt erzielt man mit mehr Spannung kaum noch eine grosse steigerung!
Und was wird beim GF100 freigeschaltet fuer zusaetzliche OC Moeglichkeiten?
der ROP bereich skaliert aber exelent mit mehr Spannung. die shader reagieren auf bessere kühlung zb. auch nicht so gut wie die von den G8x/G9x, für mich ist das ein eindeutiger Beweis das der GT200 einfach eine andere takt bremse hat, entweder einfach zu gross oder sonst was...
Das Geheimnis liegt im MC des GT200 deshalb war die 280 nur um ~80% schneller als G80 und nicht sagen wir mal 100%. Mir hat es ein Uni Fritze zugefluestert; als ich direkt bei NV anfragte bekam ich zwar keine Antwort aber man wollte wissen wie ich auf die Idee gekommen bin.
Zockerfrettchen
2009-12-31, 18:46:37
Nur nochmal für blöde: Soll gf100 30% schneller sein als eine 5870 oder 130%. Letzteres halte ich für quatsch, ersteres wäre nicht sonderlich gut für Nv.....( an5890denk)
Mfg Zockerfrettchen
Ailuros
2009-12-31, 18:48:28
Nur nochmal für blöde: Soll gf100 30% schneller sein als eine 5870 oder 130%. Letzteres halte ich für quatsch, ersteres wäre nicht sonderlich gut für Nv.....( an5890denk)
Mfg Zockerfrettchen
Es weiss noch keiner. Die bisherige Debatte behandelt lediglich spekulative Thesen.
Wieso? Selbst wenn es nur 30% wären, dann ist das für dies frühem Treiberstadium schon sehr viel.
N0Thing
2009-12-31, 18:57:01
Bei 130 % sollte bei deiner rechnung 138 Frames rauskommen.
100 % schneller ist kein gleichstand. 100 % schneller als xxx ist nunmal 100 % schneller und damit doppelt so schnell.
Bei 5870 machte 1,6 mal so schnell die runde und das wäre bei 60 fps 96 fps.
Da kam damals das missverständnis her.
Nein, bei meiner Rechnung sind 130% von 60 Frames pro Sekunde 78 Frames pro Sekunde. Ich beziehe mich absichtlich auf die original Quelle und nicht auf die meiner Meinung nach unglückliche Übersetzung von AnarchX.
In der ursprünglichen Meldung im Expreview-Forum heißt es, daß der GF100 130% fast as 5870 sein soll. Nicht faster. 100% fast as 5870 würde, wie ich vorher schon geschrieben habe, genauso schnell bedeuten. Eben 100% von 100%.
Ob die Angabe über die Geschwindigkeit generell richtig oder falsch ist weiß ich nicht, darum ging es mir auch nicht. Aber 30% schneller als eine HD5870 finde ich sowohl vorstellbar, als auch akzeptabel.
CrazyIvan
2009-12-31, 19:19:47
+1
AnarchX
2009-12-31, 19:31:06
Wobei man für 30% kein Fass aufmachen würde, wie es imo hier PHK tut.
Aber ob diese Information überhaupt stimmt ist eh zweifelhaft, wobei Cypress gegenüber Juniper bei Tessellation momentan noch limitiert scheint:
http://www.pcgameshardware.de/aid,698039/Unigine-Heaven-mit-DirectX-11-Tessellation-Grafikkarten-Benchmarks/Grafikkarte/Test/
Weitere Spekulationen aus Asien:
http://translate.google.de/translate?u=http%3A%2F%2Fitbbs.pconline.com.cn%2Fdiy%2F10903044.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
... 1,6 HD 5870 in Warhead, HDMI 1.4, Zugriff auf Spannung über NVAPI und bis zu 5 Heatpipes.
PCGH verwendet MSAA und AF. In Stalker bricht Cypress ohne AA/AF stärker ein als mit. Demnach limitiert dort nicht die Tessellation-Leistung.
Nur nochmal für blöde: Soll gf100 30% schneller sein als eine 5870 oder 130%. Letzteres halte ich für quatsch, ersteres wäre nicht sonderlich gut für Nv.....( an5890denk)
Mfg Zockerfrettchen
Schlecht? Das wäre 75% schneller als die GTX285 und nur 15% langsamer als die 5970.
tombman
2009-12-31, 19:48:40
HD5870+130% schneller in Tess. Heaven und HD5870+60% in Crysis?
Lol, das wäre ein Shadermonster!
Glaub ich ned, außer NV hat vor direkt gegen die HD5970 anzutreten...
Wieso wird eigentlich immer mehr Aufmerksamkeit auf die Asia-Sites gelegt? Nur weil man die TROLLPOSTS dort aufgrund der maschinellen Übersetzung nicht erkennt? Gibts keine asiatischen Spammer und Faker, die einfach irgendwas posten? ;D
@"512SP confirmed by NV":
Ja, IRGENDWANN kommen sicher SKUs mit 512SP- dann, wenn sie den Prozess/TSMC im Griff haben ;D
reunion
2009-12-31, 19:50:05
Wobei man für 30% kein Fass aufmachen würde, wie es imo hier PHK tut.
Aber ob diese Information überhaupt stimmt ist eh zweifelhaft, wobei Cypress gegenüber Juniper bei Tessellation momentan noch limitiert scheint:
http://www.pcgameshardware.de/aid,698039/Unigine-Heaven-mit-DirectX-11-Tessellation-Grafikkarten-Benchmarks/Grafikkarte/Test/
Weitere Spekulationen aus Asien:
http://translate.google.de/translate?u=http%3A%2F%2Fitbbs.pconline.com.cn%2Fdiy%2F10903044.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
... 1,6 HD 5870 in Warhead, HDMI 1.4, Zugriff auf Spannung über NVAPI und bis zu 5 Heatpipes.
Die Werte braucht man auch bei den dort angegebenen 250-300W.
Ich schätze mal GT300 wird 50% im Schnitt vor der HD5870 liegen und knapp hinter der HD5970 liefert aber die hochwertigeren FPS incl. besserer Texturfilterung.
mapel110
2009-12-31, 20:00:03
Die Werte braucht man auch bei den dort angegebenen 250-300W.
Die Leistungsaufnahme macht nur überhaupt keinen Sinn, wenn es sogar noch eine Dualchip-Variante sehr kurze Zeit später auf Basis des selben Chips geben soll.
Dave Baumann hat auf B3D gesagt, dass das Deaktivieren von Einheiten kaum Einfluss hat auf den Stromverbrauch. Nur Taktabsenkung und damit Spannungssenkung.
tombman
2009-12-31, 20:13:00
Das größte Problem ist einfach: März (Ende)
Stellt euch nur mal die Zeit von Anfang September bis jetzt vor...habt ihrs?
Und jetzt die gleiche Zeitspanne nochmal so lange warten bis Fermi! *BÄMM*
Habt ihr da Bock drauf? Ich eher weniger- hatte mich auf Jänner eingestellt :(
reunion
2009-12-31, 20:16:55
Die Leistungsaufnahme macht nur überhaupt keinen Sinn, wenn es sogar noch eine Dualchip-Variante sehr kurze Zeit später auf Basis des selben Chips geben soll.
Das ist aber nicht offiziell AFAIK. Wenn die Angaben stimmen kann man das jedenfalls vergessen wenn man die 300W PCIe Spec nicht völlig sprengen will. Wenn die Angaben zur Leistungsaufnahme nicht stimmen werden die anderen zur Leistung auch nicht stimmen und damit sind wir so schlau wie vorher.
Dave Baumann hat auf B3D gesagt, dass das Deaktivieren von Einheiten kaum Einfluss hat auf den Stromverbrauch. Nur Taktabsenkung und damit Spannungssenkung.
Es gibt genug Beispiele in der Praxis. Weniger Takt/Spannung bringt natürlich mehr, aber deaktivierte Einheiten sind noch lange nicht nutzlos.
=Floi=
2009-12-31, 20:18:56
es wird sicherlich bereiche geben in denen fermi besser dasteht.
bei ati gibt es ja auch solche bereiche:
http://www.bit-tech.net/hardware/graphics/2009/09/30/ati-radeon-hd-5870-architecture-analysis/9
ich gebe aber zu, dass ausgerechnet bessere tesselation schon komisch wäre.
AnarchX
2009-12-31, 20:27:43
Die Leistungsaufnahme macht nur überhaupt keinen Sinn, wenn es sogar noch eine Dualchip-Variante sehr kurze Zeit später auf Basis des selben Chips geben soll.
Hier bleiben die Fragen, wie stark NV an der Spannung drehen muss, um über die 1.4GHz hinauszukommen und ob eine Dual-GF100 mehr als nur ein Prestige-Objekt sein soll.
Das größte Problem ist einfach: März (Ende)
Nvidia will einen Hardlaunch und vor März wird da auch nichts lieferbar sein. Daher ist das vernünftig.
Das größte Problem ist einfach: März (Ende)
Stellt euch nur mal die Zeit von Anfang September bis jetzt vor...habt ihrs?
Und jetzt die gleiche Zeitspanne nochmal so lange warten bis Fermi! *BÄMM*
Habt ihr da Bock drauf? Ich eher weniger- hatte mich auf Jänner eingestellt :(
Die Zeitspanne von heute zum GF100 Launch ist kürzer als vom 23.09 bis heute. :rolleyes:
Abgesehen davon wird es rund 2 Wochen vorher die ersten geleakten Werte geben. Und da man sich wohl kaum die Cebit als große Bühne entgehen lassen wird, sollte es bis dorthin spätesten den Launch geben. Also wozu die Aufregung. Wirklich neues an Spielen kommt nur mit AvP im Februar raus und ab da, kann man den Monat auch noch warten.
tombman
2009-12-31, 23:01:54
Die Zeitspanne von heute zum GF100 Launch ist kürzer als vom 23.09 bis heute. :rolleyes:
Abgesehen davon wird es rund 2 Wochen vorher die ersten geleakten Werte geben. Und da man sich wohl kaum die Cebit als große Bühne entgehen lassen wird, sollte es bis dorthin spätesten den Launch geben. Also wozu die Aufregung. Wirklich neues an Spielen kommt nur mit AvP im Februar raus und ab da, kann man den Monat auch noch warten.
Egal, 3 bis 4 Monate ab jetzt sind einfach scheiße...unabhängig davon, daß es mit qualitativem gaming bergab geht...
PulsarS
2009-12-31, 23:44:09
Dave Baumann hat auf B3D gesagt, dass das Deaktivieren von Einheiten kaum Einfluss hat auf den Stromverbrauch. Nur Taktabsenkung und damit Spannungssenkung.
Diese Aussage halte ich für sehr gewagt.
In der Praxis sehe ich es doch ein wenig anders.
Die Werte braucht man auch bei den dort angegebenen 250-300W.
Die Spielewerte beziehen sich auf 448 Cores:
Sources indicated that single-core version, with 448 CUDA Core of the GF 100 graphics card, 3D performance will easily exceed that same level opponents Ati Radeon HD 5870, in the mainstream games, such as: Crysis Warhead, Far Cry 2, HAWX, and Fallout 3, GF 100's performance of HD 5870, respectively 1.6 times, 1.2 times, 1.55 times and 1.2 times.
Wenn man also den Kauderwälsch glaubt, sollte man schon richtig zitieren...
Diese Aussage halte ich für sehr gewagt.
In der Praxis sehe ich es doch ein wenig anders.Die Praxis ist doch, dass die beiden GPUs der GTX 295 mit voller Bestückung antreten, jedoch im GTX-260-Takt.
Wenn man also den Kauderwälsch glaubt
Was man nicht tun sollte. "1,6 x HD 5870 in Crysis." Überschlagen wir mal anhand dieses Tests: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/11/#abschnitt_crysis_warhead
1920 x 1200, 4 x AA / 16x AF, die HD 5870 ist 50 % schneller als eine GTX 285: 26,0 FPS vs. 17,3 FPS. Sei nun Fermi 60 % schneller als die HD 5870. Dann liefert sie also 41,6 FPS oder ist 140 % schneller als die eigene Vorgängerkarte GTX 285. Äh ... nein. Wird schwer mit nur zweimal so vielen Transistoren. Die Karte wäre schon längst draußen, wenn sie auch nur die Hälfte dieser Leistung erbringen könnte. Zum Vergleich. Die alles in den Schatten stellende 8800 GTX war damals "nur" 50 - 60 % schneller als die recht schwache Vorgängerkarte 7900 GTX und das war eine Sensation. Aber vielleicht meinen die mit "1,6 x HD 5870" ja auch nur die 6 GB-Version unter 2560 x 1600 + 8x SSAA. :D
Fermi wird meiner Meinung nach ein Riesenflop. Die eigene Vorgängergeneration muss um 40 - 50 % überboten werden, um überhaupt erst einmal auf Konkurrenzniveau zu kommen. Das ist schon schwer genug und bisher nur zweimal gelungen (einmal nVidia: 7900 GTX -> 8800 GTX, dank eines kompletten Architekturwechsels auf Unified Shader und jetzt auch ATi: HD 4890 -> HD 5870, dadurch, dass die HD 5870 im Prinzip eine "doppelte HD 4890" ist: verdoppelte Shader-Einheiten, verdoppelte ROPs, verdoppelte TMUs, verdoppelte TAUs ...). Zusätzlich soll Fermi aber nicht nur gleichauf liegen, sondern führen. Wird sehr sehr schwer.
Ailuros
2010-01-01, 09:06:29
Was man nicht tun sollte. "1,6 x HD 5870 in Crysis." Überschlagen wir mal anhand dieses Tests: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/11/#abschnitt_crysis_warhead
1920 x 1200, 4 x AA / 16x AF, die HD 5870 ist 50 % schneller als eine GTX 285: 26,0 FPS vs. 17,3 FPS. Sei nun Fermi 60 % schneller als die HD 5870. Dann liefert sie also 41,6 FPS oder ist 140 % schneller als die eigene Vorgängerkarte GTX 285. Äh ... nein. Wird schwer mit nur zweimal so vielen Transistoren. Die Karte wäre schon längst draußen, wenn sie auch nur die Hälfte dieser Leistung erbringen könnte. Zum Vergleich. Die alles in den Schatten stellende 8800 GTX war damals "nur" 50 - 60 % schneller als die recht schwache Vorgängerkarte 7900 GTX und das war eine Sensation. Aber vielleicht meinen die mit "1,6 x HD 5870" ja auch nur die 6 GB-Version unter 2560 x 1600 + 8x SSAA. :D
If, as Jawed points out, its CPU limited then the benchmarks are going to have limited use as each of the architectures you are comparing are going to be limited by the CPU. Games are fairly CPU bound (even ones that people often associate as GPU killers, like Crysis, are very CPU sensitive).
Dave Baumann, AMD at B3D:
http://forum.beyond3d.com/showpost.php?p=1374286&postcount=2730
Fermi wird meiner Meinung nach ein Riesenflop. Die eigene Vorgängergeneration muss um 40 - 50 % überboten werden, um überhaupt erst einmal auf Konkurrenzniveau zu kommen. Das ist schon schwer genug und bisher nur zweimal gelungen (einmal nVidia: 7900 GTX -> 8800 GTX, dank eines kompletten Architekturwechsels auf Unified Shader und jetzt auch ATi: HD 4890 -> HD 5870, dadurch, dass die HD 5870 im Prinzip eine "doppelte HD 4890" ist: verdoppelte Shader-Einheiten, verdoppelte ROPs, verdoppelte TMUs, verdoppelte TAUs ...). Zusätzlich soll Fermi aber nicht nur gleichauf liegen, sondern führen. Wird sehr sehr schwer.
Wenn Du schon sagst dass es nur "zwei Mal" beiden IHVs gelungen ist, dann hast Du Dich wohl mit GPUs vor G7x nicht beschaeftigt.
Uebrigens hat G80 im Vergleich zu G71 ungefaehr 2.4x Mal so viel Transistoren und ist auch irgendwo auf dem Nivaeu schneller (8800GTX vs. 7900GTX). Im gegebenen Fall ist G80 eine seltene Aussnahme (wie z.B. R300 vs. R200) u.a. weil:
1. Grosse architektur-bedingte Aenderungen vorkamen an denen man heutzutage nicht mehr viel aendern kann (z.B. texturing decoupled from ALUs, SIMDs connected in a MIMD fashion between them etc.)
2. NV zur Zeit des G80 nicht so viele Transistoren fuer HPC investierte.
Der Trick ist also hier herauszufinden wieviele Transistoren 3D zustehen und was sie genau anrichten koennen und natuerlich die Sklalierung der Effizienz eines GF100 gegen GT200 genau in den Faellen wo Applikationen oder die unterliegende Plattform am wenigsten limitiert, ergo so stark wie moeglich GPU limitierende Faelle.
Zu guter letzt ist die heutigen 285 mit 40-50% zu uebertrumpfen ein ziemlich leichter Kaugummi, denn selbst GT200 war um die 80% schneller als G80. 40% waere erstmal enttaeusschend weil sich dann GF100 eben genau auf quasi GTX295 oder anders 5870 Nivaeu plaziert.
Was NV "braucht" ist eine sinnvolle Preis-/Leistungs-Plazierung von GF100 zwischen 5870 und 5970.
Ailuros
2010-01-01, 09:27:19
Ein gutes Neues Jahr an alle uebrigens ;)
PulsarS
2010-01-01, 09:58:09
Die Praxis ist doch, dass die beiden GPUs der GTX 295 mit voller Bestückung antreten, jedoch im GTX-260-Takt.
Ja. Bei den Nvidiakarten mag das bisher ja nicht der entscheidende Punkt zu sein, weil man bei der Shaderleistung ein wenig zurückhängt.
Aber bei Dave Baumann habe ich direkt an ATI und die 4830<->4850 gedacht.
Ich habe jetzt keine Lust und Zeit meine Aussage mit Tests aus dem i-net zu belegen, deswegen bleibe ich die "Beweise" schuldig und werde sie demnächst darlegen.
PulsarS
2010-01-01, 10:07:01
Was NV "braucht" ist eine sinnvolle Preis-/Leistungs-Plazierung von GF100 zwischen 5870 und 5970.
Was NV erstmal braucht sind hohe Taktraten.
Bei den Problemen bei TSMC und den 40nm muss NV erstmal sehen, dass man eine vernünftige Ausbeute bei den angestrebten Specs erzielt.
Man will bei NV doch sicherlich kein Papiertiger sein. :wink:
Und ich denke, dass hier die Probleme zur Zeit bei NV liegen.
Die Preisgestaltung kommt danach, weil man sonst nicht die Leistung einschätzen könnte.
Was NV erstmal braucht sind hohe Taktraten.Dass sie die so dringend brauchen, glaube ich gar nicht. Ich vermute, dass die hohen Taktraten später in neuen Produkten noch nachgereicht werden.
Ja. Bei den Nvidiakarten mag das bisher ja nicht der entscheidende Punkt zu sein, weil man bei der Shaderleistung ein wenig zurückhängt.
Aber bei Dave Baumann habe ich direkt an ATI und die 4830<->4850 gedacht.
Ich habe jetzt keine Lust und Zeit meine Aussage mit Tests aus dem i-net zu belegen, deswegen bleibe ich die "Beweise" schuldig und werde sie demnächst darlegen.
Hemlock kommt auch mit vollen Chips und niedrigen Taktraten. :rolleyes:
1920 x 1200, 4 x AA / 16x AF, die HD 5870 ist 50 % schneller als eine GTX 285: 26,0 FPS vs. 17,3 FPS. Sei nun Fermi 60 % schneller als die HD 5870. Dann liefert sie also 41,6 FPS oder ist 140 % schneller als die eigene Vorgängerkarte GTX 285. Äh ... nein. Wird schwer mit nur zweimal so vielen Transistoren. Die Karte wäre schon längst draußen, wenn sie auch nur die Hälfte dieser Leistung erbringen könnte.
Fermi soll angeblich 3200 Millionen Transistoren haben, oder 2,2x soviel.
Zum Vergleich. Die alles in den Schatten stellende 8800 GTX war damals "nur" 50 - 60 % schneller als die recht schwache Vorgängerkarte 7900 GTX und das war eine Sensation. Aber vielleicht meinen die mit "1,6 x HD 5870" ja auch nur die 6 GB-Version unter 2560 x 1600 + 8x SSAA. :D
"Die alles in den schatten stellende 8800GTX" war vom Startweg 80% schneller als die 7900GTX. Selbst zur aktuellsten schnellsten GPU war sie 66% schneller. Etwas, das nichtmal AMD mit ihrem Cypress gelingt.
Fermi wird meiner Meinung nach ein Riesenflop. Die eigene Vorgängergeneration muss um 40 - 50 % überboten werden, um überhaupt erst einmal auf Konkurrenzniveau zu kommen. Das ist schon schwer genug und bisher nur zweimal gelungen (einmal nVidia: 7900 GTX -> 8800 GTX, dank eines kompletten Architekturwechsels auf Unified Shader und jetzt auch ATi: HD 4890 -> HD 5870, dadurch, dass die HD 5870 im Prinzip eine "doppelte HD 4890" ist: verdoppelte Shader-Einheiten, verdoppelte ROPs, verdoppelte TMUs, verdoppelte TAUs ...). Zusätzlich soll Fermi aber nicht nur gleichauf liegen, sondern führen. Wird sehr sehr schwer.
5870 ist 50% schneller als 4890 - trotz der Verdopplung aller Einheiten, bis auf die Speicherbandbreite. Das zeigt, dass das bloße rankloppen von Einheiten beim r600 Design ihr Ende gefunden hat. nVidia verändert auch den eine Vielzahl des internen Aufbaues. Man sollte also erstmal abwarten, wie stark sich solche Sachen auswirken (Cache Hierachy, Dual Dispatcher etc.).
Dural
2010-01-01, 18:45:02
zudem der GT200 min. 60% schneller war als G80, keine ahnung wo der blödsinn herkommt das nur G80 und RV870 50%+ schneller waren als ihre vorgänger... die regel sind schon eher 50%+
und beim GT200 wurden die einheiten nicht so krass erhöht wie beim GF100 + neue architektur...
ich bin immer noch der meinung das der GF100 um die 80% schneller sein wird als GT200 und somit etwas unter der 5970 sein wird!
der RV870 ist eh eine katastrophe für sich, gab es so was überhaupt schon mal??? alle einheiten um 100% erhöht und am schluss nur ein plus 50% :freak:
Die Karte wäre schon längst draußen, wenn sie auch nur die Hälfte dieser Leistung erbringen könnte.
was ist das für eine logik??? ein produkt wäre schon lange drausen nur weil es schnell ist he? wenn man nicht liefern kann / das produkt noch nicht final ist kann man es auch nicht raus hauen egal wie die leistung ist...
Leonidas
2010-01-01, 18:47:00
Die Größe des Chips wird für den Verkaufspreis so gut wie keine Rolle spielen. Nur die Marge von nvidia hängt davon ab. Der Kunde bekommt davon nichts mit.
Korrekt. Wenn nicht alles schief läuft, wird NV Produkte mit dem ähnlichen bis identischen Preis/Leistungsverhältnis wie ATI anbieten. Grob gesehen nicht besser und nicht schlechter. Alles andere läßt der Markt gar nicht zu.
Das einzige, was eine "gute" von einer "schlechten" Architektur trennt, ist dann das, was man zu diesen Preisen noch für Gewinne realisieren kann. Wie mappel sagt: Der Kunde bekommt davon nichts mit.
Aber wie weit kann NV den Preis drücken?
Auch NV muss sich an kalkulatorische Gegebenheiten halten,
Yield, Grösse des Chip usw.
Zumindest kann man, wenn die ersten Berichte über die Yield mit A3 da sind abschätzen, wo die Reise hingeht.
Sie haben gar keine Wahl. Entweder man verkauft zu diesen Preisen, die der Markt hergibt - oder halt gar nichts. Ein paar Fanboys, die sowieso NV nehmen, sind nix gegenüber millionenschweren OEM-Aufträgen.
D.h. während der GT200b damals 80% größer war als seine Konkurrenz, ist der Fermi das zu nur 64,67%. ;)
Der Vergleich bringt nur insofern etwas, als daß bei GT200b vs. RV770 ja immer nur Teile der daraus resultierenden Grafikkarten im selben Preisbereich liefen. Der GT200b ist von der Performance her einfach generell größer angesetzt und bedingt daher seine größere Die-Fläche und seine höheren Kosten. NV kann es damit ausgleichen, daß sie im SingleChip-Bereich Karten in Leistungsbereichen hatten, wo ATI gar nicht hinkam.
derguru
2010-01-01, 18:48:34
der RV870 ist eh eine katastrophe für sich, gab es so was überhaupt schon mal??? alle einheiten um 100% erhöht und am schluss nur ein plus 50% :freak:
die katastrophe ist nur in deinem grün verklebtem hirn,wenn man nur standardsettings als benchmarks anguckt kein wunder.
die katastrophe ist nur in deinem grün verklebtem hirn,wenn man nur standardsettings als benchmarks anguckt kein wunder.
Jo, da spricht der Checker:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet
Ganz weit unten, eingeklappt: 17%. Da limitiert wohl der Speicher. :lol:
Black-Scorpion
2010-01-01, 19:01:19
Wer im Glashaus sitzt ...
Wenn Dural so viel Durchblick hätte wie er immer wieder tut, wüsste er das bei RV870 nicht alles verdoppelt wurde.
derguru
2010-01-01, 19:01:48
mich interessieren aber kein pups 4xaa oder 8xaa settings.achja bei reviews ist eine 5870 nur 20% schneller als eine 4890 und das in 1920*1200 8aa/16af
bei anfordenden settings sieht das ein bissel anders aus.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7580434&postcount=124
schade das ich keine 4890 mehr rumliegen hab sonst würden benchmarks nur so um die ohren fliegen.
Dural
2010-01-01, 19:02:50
Jo, da spricht der Checker:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet
Ganz weit unten, eingeklappt: 17%. Da limitiert wohl der Speicher. :lol:
lol genau das wollte ich ihm jetzt auch vor die nase halten ;)
was ist ein Fanboy, das sind GENAU die die irgend welche benchmarks aussuche wo ihre karten gut dastehen... und das bedeute beim RV870 meistens was wo die bandbreite nicht limitiert... ;)
derguru
2010-01-01, 19:06:38
ich suche keine benchmarks gezielt aus,das ist halt das einzige was mit beiden karten festgehalten wurde damit das mal klar ist.
Dural
2010-01-01, 19:16:24
durchschnitt ist für mich nur die 1920x1200 4xAA/16xAF einstellung, alles andere ist nicht "normal" :wink:
wassen pups Gerede...
Die 5870 ist ne super Karte das sieht man wenn SSAA (zb.in Crysis) dazu kommt PUNKT und AUS!
Die ganzen Benchieschißes mit 4xAA etc. mit so einer Karte sind doch für den Allerwertesten wie Guru schon schreibt.
Wenn die NV da ist und hat die selbe Leistung mit SSAA kann man ja drüber reden wer seine Hausaufgaben gemacht hat.
Diese blöde grüne Gesabbel von einigen hier geht kräftig auf die Nerven!
derguru
2010-01-01, 19:21:18
durchschnitt ist für mich nur die 1920x1200 4xAA/16xAF einstellung, alles andere ist nicht "normal" :wink:
in den settings wird der fermi es auch nicht leicht haben die 50% zuknacken,wirst du schon sehen aber dann nicht heulen.
im Leben nicht, wozu auch, den Mißt mit so Karten brauch kein Mensch!
Ob ich da 50 oder 100 FPS habe ist allen denkenden Menschen völlig schnurz.
Was bei SSAA etc. oder DX10/11 mit allem Schnickschnack rumkommt das ist wichtig....
durchschnitt ist für mich nur die 1920x1200 4xAA/16xAF einstellung, alles andere ist nicht "normal" :wink:
jo mein grüner Freund, für den Mißt zu zocken kauf ich mir ne 280 oder ne 4870er Karte aber keine 5000 oder Fermi, hier sollten enige noch mal schnellsten zum Onkel Doc.
derguru
2010-01-01, 19:43:08
noch eins gefunden wegen rosinenpickerei:rolleyes:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7579915&postcount=184
Dural
2010-01-01, 19:51:46
fermi wird wohl die erste GPU sein die Crysis in 1920x1200 4xAA/16xAF richtig flüssig darstellen kann und für fast alles andere braucht man keine schnellere GPU, da reicht meistens schon locker eine GTX285 aus...
und vergleiche über 4xAA macht eh keinen sinn, da man bei beiden dann unterschidlich AA modi verwendet... also ruhe hier ;)
derguru
2010-01-01, 20:05:32
crysis brauche ich auch nicht,hab ich vor 1 1/2 jahren gespielt.wie dir auffallen müsste sind die vergleiche mit einer 4890 und die haben die selben modis :anonym:
um dein kurzzeitgedächtniss aufzufrischen,es ging um das,
der RV870 ist eh eine katastrophe für sich, gab es so was überhaupt schon mal??? alle einheiten um 100% erhöht und am schluss nur ein plus 50% :freak
Der_Korken
2010-01-01, 20:15:25
Jo, da spricht der Checker:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet
Ganz weit unten, eingeklappt: 17%. Da limitiert wohl der Speicher. :lol:
Gut möglich, dass hier der Speicher limitiert. Damit meine ich die Größe. Du monierst, dass die 5870 nur 17% schneller als die 4890 in den Settings ist. Aber dass in diesen Einstellungen die 4890 jegliche GTX285 und GTX295 in Grund und Boden stampft lässt DU unter den Tisch fallen. Soviel dazu - CB hat diese Settings nicht ohne Grund gespoilert.
Übrigens finde ich es sehr interessant, dass die 5870 mit EDAA und SSAA richtig abgeht. Ich hatte mich zwischendurch nämlich mal gefragt, warum ATI Cypress nicht einfach mit 16 SIMDs gebracht hat.
Ich bin ja echt mal gespannt, ob Fermi in "normalen" Settings auch so Probleme haben wird, sich von den Vorgängern abzusetzen. Die Power ist auf jeden Fall da, aber bei der 5870 auch. Nur tut sich letztere unglaublich schwer sich überhaupt von der 5850 abzusetzen, die von der Rohleistung her eigentlich 30% langsamer sein sollte.
Dural
2010-01-01, 20:29:43
ne ist nicht möglich, siehe 5970
crysis brauche ich auch nicht,hab ich vor 1 1/2 jahren gespielt.wie dir auffallen müsste sind die vergleiche mit einer 4890 und die haben die selben modis :anonym:
um dein kurzzeitgedächtniss aufzufrischen,es ging um das,
jo... und da sind es exakt 50%, also stimmen meine 50% auf das % überrein :P
mit grafikfehler? lol jegliche diskusion über deine gothic 3 werte sind überflüssig...
Gut möglich, dass hier der Speicher limitiert. Damit meine ich die Größe. Du monierst, dass die 5870 nur 17% schneller als die 4890 in den Settings ist. Aber dass in diesen Einstellungen die 4890 jegliche GTX285 und GTX295 in Grund und Boden stampft lässt DU unter den Tisch fallen. abzusetzen, die von der Rohleistung her eigentlich 30% langsamer sein sollte.
Erkläre mir mal, wieso die 4890 bei 8xAA viel schneller sein soll als bei 4xAA.
fermi wird wohl die erste GPU sein die Crysis in 1920x1200 4xAA/16xAF richtig flüssig darstellen kann und für fast alles andere braucht man keine schnellere GPU, da reicht meistens schon locker eine GTX285 aus...
das kann man locker mit ner 5870 schon lange........
Dural
2010-01-01, 20:40:25
ne kann man nicht...
Nightspider
2010-01-01, 20:45:18
Crysis ist ey ein alter Schinken...an Crysis 2 muss sich die Liga der Besten messen... :biggrin:
Black-Scorpion
2010-01-01, 20:47:23
@Dural
Aber beim Fermi bist du dir natürlich sicher.
Halt doch einfach mal die Füße still.
Dein ewiges Fermi ist der beste, kann alles und wird der schnellste bei dem Spiel sein hält ja kein Mensch aus.
Spekulieren ist ja schön und gut, aber bei dir scheint die Realität verloren gegangen zu sein.
Anderer_Gast
2010-01-01, 20:51:16
@Gast
das hier ist ein Spekulationsthread zum Fermi, also stell bitte mal das Fanboy-Geflame ab. Wenn Du irgendetwas fundiertes zum Fermi zu sagen hast, kannst Du das gerne tun, ansonsten gibt es hier im Forum einen Thread extra für Ati-Karten.
Dural
2010-01-01, 20:51:44
und wer meint das eine 5870 crysis in 1920x1200 4AA/16AF richtig flüssig darstellen kann sollte eigentlich in einem solchen forum nichts zusuchen haben... naja so einer sieht wohl nicht mal den unterschid zwischen 20 und 40FPS...
jep fermi kommt nicht an die 5870 ran, die 40% plus zum GT200 oder was es sind sind wohl unüberwindbar lol
@Nightspider
Ich glaube nicht das Crysis2 so hardwarefordernd wird wie Crysis, denn es wird als Multiplattformtitel entwickelt.
Nightspider
2010-01-01, 20:55:23
Aber beim Fermi bist du dir natürlich sicher.
Halt doch einfach mal die Füße still.
Dein ewiges Fermi ist der beste, kann alles und wird der schnellste bei dem Spiel sein hält ja kein Mensch aus.
Spekulieren ist ja schön und gut, aber bei dir scheint die Realität verloren gegangen zu sein.
Wenn dann zitiere die entsprechenden des Posts sonst denkt man noch du meinst mich. :biggrin:
Mir ist es zumindest scheiß egal welches Lager schneller ist: Ob ATI oder NVIDIA...Grafikkarten werden sowieso jedes Jahr viel schneller und die Preise sinken wie blöde, also warum sich streiten...auf lange Zeit gesehen haben wir sowieso genug Rechenpower...bald wird man mit 2560*1600 messen, da selbst dafür mit AA genug Rechenleistung zur Verfügung steht...und da es bei Konsolen in naher Zukunft keinen Leistungssprung geben wird wird atm auch nicht soviel mehr Leistung benötigt...dasselbe passiert bei den Next-Gen Konsolen, die vllt. nativ immer 1920*1080 darstellen werden...doch dann haben schon viele PC-Spieler 2560*1200 oder danke Technologien wie Eyefinity mehrere Monitore...mit SLI und Crossfire hat man ey genug Leistung zur Verfügung und bei hohen FPS hat man kein Mikroruckeln...
Und wenn Fermi net super schnell wird, werden die Preise auch angepasst sein...von daher...alles mal bisschen gelassener sehen. ;)
Dural
2010-01-01, 20:59:27
Aber beim Fermi bist du dir natürlich sicher.
Halt doch einfach mal die Füße still.
Dein ewiges Fermi ist der beste, kann alles und wird der schnellste bei dem Spiel sein hält ja kein Mensch aus.
Spekulieren ist ja schön und gut, aber bei dir scheint die Realität verloren gegangen zu sein.
eher bei dir, bei GF100 wurde alle daten um min. 60% angehoben, die reine SP anzahl sogar über 110% gegenüber GT200
noch mal zum mitschreiben für dich, der GT200 hat 60% mehr FPS auf den bildschirm gebracht als G80 und hatte bei weitem keinem so grossen hardware erweiterungen...
+ neue architektur die AMD bis heute nicht hat...
schon rein rechnerisch müsste GF100 min. 60% schneller als GT200 sein...
Black-Scorpion
2010-01-01, 21:00:06
Wenn dann zitiere die entsprechenden des Posts sonst denkt man noch du meinst mich. :biggrin:
Habe es mal geändert.
Obwohl es eigentlich eindeutig sein sollte wer gemeint ist. ;)
y33H@
2010-01-01, 21:01:55
Crytek wird sicherlich keinen Rückschritt am PC machen. Da gibts ne optisch hässliche Konsolen-Version (600p, no AA, low/mid details) und ein fette für den PC. Alles andere wäre imo äußerst verwunderlich. Und zum Thema Fps in Crysis: Mit einer HD5870 läuft das selbst in 1680 ohne AA/AF nicht durchgehend flüssig mit Enthusiast @ DX9 (teils deutlich unter 30 Fps), von 1920 mit 4x MSAA/16:1 AF ganz zu schweigen.
Wenn Fermi / GTX380 +30% auf Cypress / HD5870 schafft, dann läuft 1680 mit 4x MSAA/16:1 AF halbwegs :usad:
Black-Scorpion
2010-01-01, 21:04:49
eher bei dir, bei GF100 wurde alle daten um min. 60% angehoben, die reine SP anzahl sogar über 110% gegenüber GT200
noch mal zum mitschreiben für dich, der GT200 hat 60% mehr FPS auf den bildschirm gebracht als G80 und hatte bei weitem keinem so grossen hardware erweiterungen...
Und nochmal für dich das sagt genau was aus?
Der Unterschied zwischen den meisten anderen und dir ist einfach das du nach den Zahlen sicher bist wie schnell und gut er ist.
Für dich ist das schon eine Tatsache.
Für andere ist das ein Anhaltspunkt und nicht mehr.
Außerdem ist doch Fermi mit dem Vorgänger nicht vergleichbar?
Was bringen also deine Zahlenschieberein?
RoNsOn Xs
2010-01-01, 21:08:32
zudem sollte doch langsam klar sein das 60% architekturielle steigerungen nicht in 60% mehr FPS umgesetzt werden.
ich denke eher auch das manche zu große wunder erwarten. war bei gt200 doch nicht anders..
Dural
2010-01-01, 21:15:14
NV ging seit dem G8x immer den wege der Effizient und hat nicht reine Hardwareeinheiten zusammen gestopft wie es AMD mit RV770 und jetzt RV870 getan und die Effizient DEUTLICH abgenommen hat, bei NV war eher genau das gegenteil derfall OK der GT200 ist und war kein paradebeispiel...
und noch mal, selbst der GT200 war min. 60% schneller als G80!
die frage die ich mir noch stelle was das fehlende MUL für eine auswirkung haben wird, da gab es seit G80 immer sehr unterschidliche meinungen was und ob es wirklich was bringt!
_DrillSarge]I[
2010-01-01, 21:18:15
NV ging seit dem G8x immer den wege der Effizient und hat nicht reine Hardwareeinheiten zusammen gestopft wie es AMD mit RV770 und jetzt RV870 getan und die Effizient DEUTLICH abgenommen hat, bei NV war eher genau das gegenteil derfall OK der GT200 ist und war kein paradebeispiel...
was? eher andersrum. amd baut _relativ_ schlanke chips und nv gerade jetzt bei fermi überhaupt nicht.
Dural
2010-01-01, 21:20:50
das war auf die reine Hardware einheiten bezogen und nicht auf grösse oder so was...
selbst wenn der GF100 ein zweiter GT200 wird, dürfte man schon 20% über dem RV870 liegen und es sind 60% plus neue Architektur und das ziel einer neuen Architektur sollte immer sein die alte zuverbessern...
und NV hat beim GF100 die Bandbreite um min. 60% angehoben im vergleich zur GTX280, AMD hingegen nur um ca. 35%...
derguru
2010-01-01, 21:24:36
I[;7747379']was? eher andersrum. amd baut _relativ_ schlanke chips und nv gerade jetzt bei fermi überhaupt nicht.
sogar wenn es so wäre,wen interessiert das wie effizient die karten sind wenn am ende in etwa das selbe raus kommt.(5870 zur 4870 60% oder der fermi zur 280gtx mit 60%)einfach nur wayne ist das.(außer für dural:wink:)
Black-Scorpion
2010-01-01, 21:31:48
das war auf die reine Hardware einheiten bezogen und nicht auf grösse oder so was...
selbst wenn der GF100 ein zweiter GT200 wird, dürfte man schon 20% über dem RV870 liegen und es sind 60% plus neue Architektur und das ziel einer neuen Architektur sollte immer sein die alte zuverbessern...
und NV hat beim GF100 die Bandbreite um min. 60% angehoben im vergleich zum GT200, was AMD bei RV870 nicht wirklich getan hat.
Kapierst du es wirklich nicht oder willst du es nicht kapieren?
Es ist eine neue Architektur.
Du kannst dir deine Zahlenspiele im Vergleich zum GT200 in die Haare schmieren.
Selbst wenn die Zahlen stimmen sagen die genau was aus? Nichts
Falls du es noch nicht mitbekommen hast kocht dein Lieblingsverein auch nur mit Wasser.
Und Schrott haben sie auch schon fabriziert und da sahen die Zahlen auch wunderbar aus.
Dural
2010-01-01, 21:31:52
und noch einmal, das ziel jeder neuen Architekur ist es die Effizient zu verbessern und gerade da hat AMD mit dem RV870 einen ziemlichen rückschritt getan
@derguru
es sind 50% ;)
und du versteht nicht auf was ich hinaus will ;)
_DrillSarge]I[
2010-01-01, 21:34:55
und noch einmal, das ziel jeder neuen Architekur ist es die Effizient zu verbessern und gerade da hat AMD mit dem RV870 einen ziemlichen rückschritt getan
sagt wer? und wo? ;)
Knuddelbearli
2010-01-01, 21:36:13
Quelle für die neue Architektur ? ....
Dural
2010-01-01, 21:36:52
I[;7747402']sagt wer? und wo? ;)
das werden wir ja noch sehen... ;)
Black-Scorpion
2010-01-01, 21:37:12
Bei dir ist echt Hopfen und Malz verloren.
Hauptsache du weißt mit Sicherheit wie Effizient Fermi ist. :rolleyes:
Dural
2010-01-01, 21:39:02
eher bei dir...
wo hab ich geschreiben ich weis wie die effizient bei fermi ist?
und falls es noch keinem aufgefallen wäre... eine bestimmte person meint seit tagen das der takt für fermi näbensächlich sei und das kann nur eins bedeuten... wenn er nahe bei RV870 wäre, wäre jedes MHz und jedes % sehr wichtig...
derguru
2010-01-01, 21:44:04
@derguru
es sind 50% ;)
und du versteht nicht auf was ich hinaus will ;)
richtig das verstehe ich einfach nicht,bahnhof ist angemessen.
aber total näbensächlich ist der unterschid.
sogar wenn es so wäre,wen interessiert das wie effizient die karten sind wenn am ende in etwa das selbe raus kommt.(5870 zur 4870 60% oder der fermi zur 280gtx mit 60%)einfach nur wayne ist das.(außer für dural:wink:)
4870 ist auch besonders lahm dank 512MiB.
Aus dem Grunde würde der 4890 Vergleich besser passen. GTX 285 hingegen hat nicht mehr als GTX 280 zu bieten, außer dem Mehrtakt.
Das ist natürlich toll, um so einen IHV ganz bewusst besser darzustellen.
Dural
2010-01-01, 23:06:57
naja ist auch egal, wir werden es alle früher oder später sehen... ich bleibe bei meinen ca. 80% gegenüber GT200 ;) (dürft das gerne speichern hehe)
Quelle für die neue Architektur ? ....
komplett neu sicher nicht, aber die ALUs und TMUs scheinen komplett überarbeitet zu sein, man sieht das der ursprung vom G80 herkommt beim GF100 ja noch gut.
ne kann man nicht...
geh weinen du Ahnungslosen..
http://www.abload.de/thumb/crysis2010-01-0123-25-kgfn.png (http://www.abload.de/image.php?img=crysis2010-01-0123-25-kgfn.png)
SSAA ... wenn dir das was sagt.
RoNsOn Xs
2010-01-01, 23:29:04
naja ist auch egal, wir werden es alle früher oder später sehen... ich bleibe bei meinen ca. 80% gegenüber GT200 ;) (dürft das gerne speichern hehe)
dann schaue ich auch mal in meine glaskugel - max 40% mehr als gtx285.
;)
komplett neu sicher nicht, aber die ALUs und TMUs scheinen komplett überarbeitet zu sein, man sieht das der ursprung vom G80 herkommt beim GF100 ja noch gut.
Ah schade, dann kommen wieder die bekannten Sprüche.
G80 = GF100, GTX 480 = 8800 GTX, umbenannt, alter Wein in neuen Schläuchen
Ich bin echt froh das AMDs Produkte nie derartige Worte ertragen müssen. Schliesslich hat AMD jede Generation grundsätzlich neue Architekturen verwendet, RV870 hat überhaupt keine Ähnlichkeit zu RV770.
:rolleyes:
:lol:
geh weinen du Ahnungslosen..
http://www.abload.de/thumb/crysis2010-01-0123-25-kgfn.png (http://www.abload.de/image.php?img=crysis2010-01-0123-25-kgfn.png)
SSAA ... wenn dir das was sagt.
ach ja, hab ich glatt vergessen 16AF + Rygel....
geh weinen du Ahnungslosen..
http://www.abload.de/thumb/crysis2010-01-0123-25-kgfn.png (http://www.abload.de/image.php?img=crysis2010-01-0123-25-kgfn.png)
SSAA ... wenn dir das was sagt.
Auf dem Screenshot ist überhaupt kein Anti-Aliasing zu sehen.
SSAA ... wenn dir das was sagt.
Meinst du damit das, was ich schon zu Geforce 4 Zeiten nutzen konnte?
Auf dem Screenshot ist überhaupt kein Anti-Aliasing zu sehen.
Klar ist da SSAA an. 8xSSAA und 16xAF. Achte genau auf die Sandsäcke.
Nie im Leben ist da 8xSSAA aktiv. Achte mal auf die Baumstämme neben der Hütte. Höchstens 2xAA würde ich meinen.
desert
2010-01-02, 01:00:44
Auf dem Screenshot ist überhaupt kein Anti-Aliasing zu sehen.
Vorallem sollen es doch tatsächlich 53 fps bei 1920 x 1200 8xssaa und 16 af sein. Bei computerbase schafft sie bei 1920 x 1200 und 4aa und 16 af knappe 26 fps. Und hier haut sie nochmal richtig auf den putz und zaubert mit einer x-fachen rechenlast die doppelte framesanzahl.
Wer es glaubt.
Vorallem sollen es doch tatsächlich 53 fps bei 1920 x 1200 8xssaa und 16 af sein. Bei computerbase schafft sie bei 1920 x 1200 und 4aa und 16 af knappe 26 fps. Und hier haut sie nochmal richtig auf den putz und zaubert mit einer x-fachen rechenlast die doppelte framesanzahl.
Wer es glaubt.
SSAA sieht halt nicht jeder und CB bencht andere Stellen.
desert
2010-01-02, 01:14:03
SSAA sieht halt nicht jeder und CB bencht andere Stellen.
Sicherlich bencht cb andere stellen, trotzdem ist es ein ding der unmöglichkeit, das cypress bei max qualität crysis auf 1920 x 1200 duchgängig flüssig läuft, vorallem wenn dann noch 8xssaa aktiv ist.
Meine grafikkarte ist ja auch nicht gerade die schwächste, ungefähr auf 5850 niveau und wenn ich es durchgängig flüssig spielen will, bin ich auf 1280 x 1024 limitiert. Und hier soll es eine 5870 mit 8xssaa aus 1920 x 1200 schaffen? never ever.
SSAA sieht halt nicht jeder und CB bencht andere Stellen.Ja ne ist klar.
SSAA glättet hier so fein das selbst grobe Treppen unberrührt bleiben.
:lol:
Zuschauer
2010-01-02, 01:20:06
Kann man die Gäste nichtmal aussperren hier? Der reinste Kindergarten hier.
Banned
2010-01-02, 01:21:55
da is doch kein SSAA an, die FPS hab ich mit 4x 5850 und 8xSGSAA -_-
derguru
2010-01-02, 01:49:46
Sicherlich bencht cb andere stellen, trotzdem ist es ein ding der unmöglichkeit, das cypress bei max qualität crysis auf 1920 x 1200 duchgängig flüssig läuft, vorallem wenn dann noch 8xssaa aktiv ist.
Meine grafikkarte ist ja auch nicht gerade die schwächste, ungefähr auf 5850 niveau und wenn ich es durchgängig flüssig spielen will, bin ich auf 1280 x 1024 limitiert. Und hier soll es eine 5870 mit 8xssaa aus 1920 x 1200 schaffen? never ever.
ist auch quatsch,man gurkt mit 1920*1200 4xsgssaa/16af schon im 20-40fps bereich rum.
Der_Korken
2010-01-02, 02:51:15
Erkläre mir mal, wieso die 4890 bei 8xAA viel schneller sein soll als bei 4xAA.
Woran machst du das fest? Das ist ein PerformanceRATING, das sind Index-Werte und keine fps-Werte.
@Screenshot oben: Das ist kein 8xSSAA. Das sieht man zum einen an den Baumstämmen, wo der Winkel besonders fies ist und auch an den Sträuchern hinter den Säcken. Die sind viel zu griselig, das flimmert ja schon aufm Standbild. Allein, dass da einzelne Pixel "in der Luft" hängen, sagt schon alles.
@Fermi-Performance: Ich glaube nicht, dass eine Chance besteht, dass Fermi langsamer als Cypress ist. Selbst wenn man davon ausgeht, dass die Effizienz im Vergleich zum GT200b gleichgeblieben ist, hätte man Cypress mit sehr moderaten Taktraten eingeholt. Allein von der reinen Anzahl der Einheiten her ist Fermi schon gute 50% breiter als der GT200b. Noch dazu wurde hier behauptet, dass der GT200b durch schlechte Effizienz im Speichercontroller viel Leistung eingebüßt hat. Dennoch sollte man hier die Kirche im Dorf lassen und Spekulationen wie 60%+x schneller als Cypress sind Unsinn.
Dural
2010-01-02, 02:56:24
ah hört mit diesem crysis @ 5870 zeugs auf, man kann es nicht punkt aus schluss ;) ich habe crysis mit einer 5870 @ 950MHz in 1920x1200 durchgezockt...
dann schaue ich auch mal in meine glaskugel - max 40% mehr als gtx285.
;)
find ich OK, du hast wenigstens eine meinung, wer notiert? lol
Iceman346
2010-01-02, 03:00:06
Und zum Thema Fps in Crysis: Mit einer HD5870 läuft das selbst in 1680 ohne AA/AF nicht durchgehend flüssig mit Enthusiast @ DX9 (teils deutlich unter 30 Fps), von 1920 mit 4x MSAA/16:1 AF ganz zu schweigen.
Sind die späteren Level so viel aufwendiger? Hab das Spiel grad in dem Angebot auf Steam gekauft und vorher nie gezockt, aber die ersten ~3 Level liefen in 1920x1200 mit 4xAA/8xAF bei maximalen Details in DX10 bisher immer spielbar.
Gestrandet
2010-01-02, 03:03:35
ist auch quatsch,man gurkt mit 1920*1200 4xsgssaa/16af schon im 20-40fps bereich rum.
Damit dürfte wohl klar sein, dass der Screeshot mit einer Fermi-Karte gemacht wurde!!! :eek:
Klar ist da SSAA an.
Nein. Da ist kein AA an. Nichtmal Multisampling. Schau dir den oberen Rand des Scopes der Waffe an oder den Helm des knieenden Soldaten.
Lass mich raten: DX10 Crysis und AA über den Treiber aktivieren wollen? ;)
Tesseract
2010-01-02, 06:33:06
Nein. Da ist kein AA an. Nichtmal Multisampling. Schau dir den oberen Rand des Scopes der Waffe an oder den Helm des knieenden Soldaten.
doch, es ist was an, allerdings liefert es stellenweise total seltsame resultate. beim scope sind die zwischenstufen in etwa so hell wie der boden, an den säcken rechts davon sogar heller was eigentlich garnicht möglich sein dürfte.
an anderen stellen sieht man wieder deutlich über 4 abgestimmte zwischenstufen. (kiste)
total seltsam. :D
Sentionline
2010-01-02, 07:15:09
GeForce 256 -> GeForce 2 Ultra = +42%
GeForce 2 Ultra -> GeForce 3 = +49%
GeForce 3 -> GeForce 4 Ti 4600 = +50%
GeForce 4 Ti 4600 -> GeForce Fx 5800 = +10%
GeForce Fx 5800 -> GeForce 6800 Ultra = +500%
GeForce 6800 Ultra -> GeForce 7800 GTX = +15%
GeForce 7800 GTX -> GeForce 8800 GTX = +180%
GeForce 8800 GTX -> GeForce GTX 280 = +59%
Aus diesen Zahlen kann ich mir nicht ausmalen wie schnell Fermi sein wird. Das ist echt ein Ratespiel. Gehen wir davon aus das Fermi ~50% schneller als die GTX280 ist, wird sie so schnell werden wie die HD5870. Nur mit Extras wie Cuda 3, PhysX (-Advanced?) und Hardware Video (En-?) Decoder, optionaler HQ Modus. Zusammen mit 32x Multisampling = meine neue Karte. 8x SGSSAA/128:1 AF wäre auch "nice to have" :ulove:. 200€ hab ich schon beiseite. Also...Gas Gas Nvidia. :deal:
Du bist doch blind....DX10....das sagt schon alles.
Du bist doch blind....DX10....das sagt schon alles.
Herr Coda und Co.
Da ist UseEdgeAA aus...
Und da klaut Fraps beim "Drucken" noch kräftig FPS..ohne Reygel
2x
http://www.abload.de/thumb/crysis2010-01-0207-54-stwh.png (http://www.abload.de/image.php?img=crysis2010-01-0207-54-stwh.png)
http://www.abload.de/thumb/crysis2010-01-0207-54-0pv6.png
(http://www.abload.de/image.php?img=crysis2010-01-0207-54-0pv6.png)
http://www.abload.de/thumb/crysis2010-01-0207-55-xqcp.png (http://www.abload.de/image.php?img=crysis2010-01-0207-55-xqcp.png)
4x
http://www.abload.de/thumb/crysis2010-01-0208-00-mtjq.png (http://www.abload.de/image.php?img=crysis2010-01-0208-00-mtjq.png)
http://www.abload.de/thumb/crysis2010-01-0208-00-isqd.png (http://www.abload.de/image.php?img=crysis2010-01-0208-00-isqd.png)
Nie im Leben ist da 8xSSAA aktiv. Achte mal auf die Baumstämme neben der Hütte. Höchstens 2xAA würde ich meinen.
was willste mit 8x in Crysis oder überhaupt bei 1920x1200...
ist auch quatsch,man gurkt mit 1920*1200 4xsgssaa/16af schon im 20-40fps bereich rum.
dir hätt ich eigendlich mehr Denke zugedraut...8x.....gehts noch?
2x und 4x SSAA wem das in 1920x1200 nicht ausreicht sollte wirklich auf 2020 warten.
Zeig mal ein SLI mir 285er in der Auflösung mir 2x2 SSAA da brauchs ne Stunde um überhaupt das Menue zu öffnen :D
doch, es ist was an, allerdings liefert es stellenweise total seltsame resultate. beim scope sind die zwischenstufen in etwa so hell wie der boden, an den säcken rechts davon sogar heller was eigentlich garnicht möglich sein dürfte.
an anderen stellen sieht man wieder deutlich über 4 abgestimmte zwischenstufen. (kiste)
total seltsam. :D
muuuhhaaaaaa was ein Haufen Inseiter :lol: blind und ohne Ahnung...
das ist 2x SSAA, alle hophop zu Fielman
da is doch kein SSAA an, die FPS hab ich mit 4x 5850 und 8xSGSAA -_-
Gamer geh wieder ins Luxx, über dich kann schon keiner mehr lachen.
geh weinen du Ahnungslosen..
http://www.abload.de/thumb/crysis2010-01-0123-25-kgfn.png (http://www.abload.de/image.php?img=crysis2010-01-0123-25-kgfn.png)
SSAA ... wenn dir das was sagt.
extra fürn Weltmeister Coda......
http://www.abload.de/thumb/crysis2010-01-0208-21-y8zx.png (http://www.abload.de/image.php?img=crysis2010-01-0208-21-y8zx.png)
ach ehe ichs vergesse das ist nen i7 auf 4.6 GHZ mit HD _ W7/64
Ailuros
2010-01-02, 09:21:46
Es reicht so langsam mit den oeden screenshots die gar nichts mit dem Thema zu tun haben. Zurueck zum Thema bitte.
Woran machst du das fest? Das ist ein PerformanceRATING, das sind Index-Werte und keine fps-Werte.
An den fps-Werten der Tests. Die Ratings sind doch eh nur Mist.
Beispiel Anno 1404:
4xAA/16AF: 22,3 fps
8xAA/16AF: 27,7 fps
Beispiel Battleforge:
1xAA/1xAF: 18,3 fps
4xAA/16AF: 15,5 fps
8xAA/16Af: 23,6 fps
Ich glaube nicht an wundersame fps-Vermehrung bei höheren AA/AF Einstellungen.
Banned
2010-01-02, 12:46:20
Gamer geh wieder ins Luxx, über dich kann schon keiner mehr lachen.
mach ich auch, auf den Screens ist kein SSAA an und fertig.
Wenn dem so wäre hättest du 15 FPS mit ner 5870 das ist fakt zumal das noch viel ist gegen eine GTX295 die auf glatte 10 kommt.^^
Weiß man denn schon, ob die Karten zur CES oder erst im März vorgestellt werden?
mapel110
2010-01-02, 13:58:48
Weiß man denn schon, ob die Karten zur CES oder erst im März vorgestellt werden?
Sieht eher nach März aus. Vielleicht gibts ein paar neue Infos zur CES.
Das wäre aber schade... dachte A2 wäre im Prinzip das finale Produkt und A3 wäre nur noch für die Yields da, d.h. Nvidia müsste doch nun aufgrund A2 oder erster A3 Samples wissen, was Sache ist.
mapel110
2010-01-02, 14:10:21
Das wäre aber schade... dachte A2 wäre im Prinzip das finale Produkt und A3 wäre nur noch für die Yields da, d.h. Nvidia müsste doch nun aufgrund A2 oder erster A3 Samples wissen, was Sache ist.
A3 ist erst seit ein paar Tagen fertig und erst kurz danach dürften sie die finalen Taktraten festgelegt haben bzw. es könnte sogar sein, dass sie noch immer keine finalen Taktraten haben und erstmal abwarten, wie die Massenproduktion läuft.
Ailuros
2010-01-02, 16:20:28
A3 ist erst seit ein paar Tagen fertig und erst kurz danach dürften sie die finalen Taktraten festgelegt haben bzw. es könnte sogar sein, dass sie noch immer keine finalen Taktraten haben und erstmal abwarten, wie die Massenproduktion läuft.
Ehrliche Frage: wo steht dass A3 seit ein paar Tagen fertig ist?
mapel110
2010-01-02, 16:22:27
Ehrliche Frage: wo steht dass A3 seit ein paar Tagen fertig ist?
Wird/Wurde zumindest vermutet, offiziell verkündet afaik noch nicht. :D
Wenn Du mehr weißt, nur her damit.
Ailuros
2010-01-02, 16:24:56
Wird/Wurde zumindest vermutet, offiziell verkündet afaik noch nicht. :D
Wenn Du mehr weißt, nur her damit.
Ich weiss nichts; deshalb auch die Frage. Wenn dem so waere wuerde Charlie sofort mit einem newsblurb wedeln.
tombman
2010-01-02, 16:39:07
GeForce 256 -> GeForce 2 Ultra = +42%
GeForce 2 Ultra -> GeForce 3 = +49%
GeForce 3 -> GeForce 4 Ti 4600 = +50%
GeForce 4 Ti 4600 -> GeForce Fx 5800 = +10%
GeForce Fx 5800 -> GeForce 6800 Ultra = +500%
GeForce 6800 Ultra -> GeForce 7800 GTX = +15%
GeForce 7800 GTX -> GeForce 8800 GTX = +180%
GeForce 8800 GTX -> GeForce GTX 280 = +59%
Aus diesen Zahlen kann ich mir nicht ausmalen wie schnell Fermi sein wird. Das ist echt ein Ratespiel. Gehen wir davon aus das Fermi ~50% schneller als die GTX280 ist, wird sie so schnell werden wie die HD5870. Nur mit Extras wie Cuda 3, PhysX (-Advanced?) und Hardware Video (En-?) Decoder, optionaler HQ Modus. Zusammen mit 32x Multisampling = meine neue Karte. 8x SGSSAA/128:1 AF wäre auch "nice to have" :ulove:. 200€ hab ich schon beiseite. Also...Gas Gas Nvidia. :deal:
Durchschnitt vom Durchschnitt: +113% ;D
Ohne Extremwerte (+10% und +500%): +65% (das könnt sogar hinkommen :eek:)
Laut Nvidia sind sie jetzt schon im Labor Performance-Sieger :)
(hat der NV-Typ beim "Türken-Interview" gesagt :D)
reunion
2010-01-02, 16:58:13
Laut Nvidia sind sie jetzt schon im Labor Performance-Sieger :)
(hat der NV-Typ beim "Türken-Interview" gesagt :D)
Ja, im Labor waren sie auch mit NV30 vorne:
"Right now NVIDIA is claiming a 30 - 50% performance advantage over the Radeon 9700 Pro across the board."
http://www.anandtech.com/showdoc.aspx?i=1749&p=7
Bleibt die Frage was dann passiert ist. :)
Es gibt glaube ich kaum wertlosere Aussagen als solche Durchhalteparolen.
tombman
2010-01-02, 17:03:34
Ja, im Labor waren sie auch mit NV30 vorne:
http://www.anandtech.com/showdoc.aspx?i=1749&p=7
Bleibt die Frage was dann passiert ist. :)
Es gibt glaube ich kaum wertlosere Aussagen als solche Durchhalteparolen.
10€, daß Fermi HD5870 hauen wird? :cool:
derguru
2010-01-02, 17:05:45
ach ne ,ziemlich sichere wette.
es kommt halt drauf an wie die 5870 umgehauen wird.
reunion
2010-01-02, 17:06:53
10€, daß Fermi HD5870 hauen wird? :cool:
Das bestreite ich nicht. Wissen kann man es ohnehin nicht, aber es ist zumindest sehr wahrscheinlich wenn NV nicht irgend was arg vermasselt hat. Nur das anhand einer solchen Aussage festzumachen ist mehr als lächerlich. Da wird alles gesagt um die Leute bei Laune zu halten, auch wenn es nicht stimmt. Es würde mich schon mehr interessieren ob sie auch ATis Konter umhauen und wenn ja um wieviel.
AnarchX
2010-01-02, 17:15:08
ach ne ,ziemlich sichere wette.
es kommt halt drauf an wie die 5870 umgehauen wird.
Das ist der entscheidende Punkt, neben dem Datum der Verfügbarkeit.
Für AMD wäre es wohl kein großes Problem, im März, nachdem sie nun einige Monate die HD 5800 zu guten Preisen verkauft haben, den Preis einer HD 5870 auf unter 300€ zu senken und damit NV mit ihren 550mm² Die auch in entsprechende Preisregionen zu zwingen, wenn der Abstand nicht groß genug ist.
Ähnliches passierte zwar auch bei G200, aber dessen Prozess war wohl um einiges reifer und dadurch der Die wohl auch günstiger.
_DrillSarge]I[
2010-01-02, 17:18:11
10€, daß Fermi HD5870 hauen wird? :cool:
nicht, wenn ati ihre supergeheimen treiber-hacks-booster™ aktiviert ;D. nee, bestreitet auch niemand, nur wie teuer wird das teil und wann kommts endlich.
Dafür war der Größenunterschied beim GT200 größer, der GT200 wurde mit mehr Mehr VRAM bestückt, er hat ein größerer goßes SI.
Und Nvidia weiss was RV870 momentan leistet, sie können ihre Produkte bereits im Vorfeld besser positionieren, als damals, als sie von den billigen 512MiB Karten angegriffen wurden.
Sentionline
2010-01-02, 17:25:38
Also mir persönlich gehts gar nicht ums "hauen". Mir gehts darum das Nvidia einem zuminderst die Möglichkeit gibt, die maximale Bildqualität aus den Konsolenports zu holen. Ich hab die HD5870 nicht Live erlebt, mir reichts schon zu wissen was HT4U oder CB schreibt. HT4U besagt das die RV870 nach wie vor im AF flimmert. CB meint das die BQ besser geworden ist aber immer noch nicht so gut wie bei Nvidia. Ich finde das Argument BQ sehr wichtig in Zeiten wo Konsolenports den Markt dominieren und der Content so ziemlich gleich ist. Auf dem PC wie auch auf Konsole. Und ein Grafikchiphersteller muss einige Bonbons auf Lager haben für die, die auf dem PC eine etwas neue Hardware betreiben als die die auf den Konsolen verbaut ist. Dafür löhnen wir ja auch nicht gerade wenig. Um das Tempo gehts also nicht wirklich, es geht um die BQ und das, was man da machen kann. ATi hats versaut. SGSSAA mit flimmerndem AF. Nix ganzes, nix halbes, demnach: "knapp daneben ist auch vorbei". Werden die vom ATi Fanlager anders sehen, ich seh das leider sehr Radikal.
Wenn ich Geld ausgeben soll, dann für was richtiges. Sowas wie PhysX und so, alles so Sachen wie "nice to have". Ebenso vReveal und TMPGEnc das ich durch meine jetzige GTS beschleunigen lassen kann. Das gibts bei ATi nichtmal gegen Aufpreis. Ich glaube nicht das Nvidia sich so einen Schnitzer wie bei der 5800 Ultra erlaubt. Da waren echt nur +10% drin. Zumal der Chip sich ja deutlich verspätet. Die haben sich seid der G80 zu sehr ausgeruht glaube ich, und ein Teilschuld trägt sicherlich auch TSMC. Aber die G92 hat Nvidia lange genug überwasser gehalten, was ja auch durch die Umlabelungen niemandem entgangen ist. Das Spricht ja für die Grundsolide qualität der Chips.
Ich wünsche das Nvidia auf ATis SGSSAA antwortet. Das werden die wohl auch. Zum einen weil die Erwatungen sehr hoch sind von der Fangemeinde zum anderen werden die wohl kaum Däumchen drehen im Labor. Die sehen ja was die R600 alias RV870 leistet. Haben ja keine Tomaten auf dem Kopf.
Vom Tempo her denk ich das +50% drin sind. Minimum.
mfg
in <=DX8 Spielen ist die 5800Ultra soviel schneller wie sie Mehrtakt hat. Sie wurde mit 500/1000Mhz getaktet, hingegen die TU4600 nur mit 300/650Mhz. Das macht eine Steigerung von 66/53% aus.
Blaire
2010-01-02, 17:33:25
Ich wünsche das Nvidia auf ATis SGSSAA antwortet. Das werden die wohl auch.
Wenn sie die alten SSAA Modis beibehalten, würde mir das auch genügen. :)
Vom Tempo her denk ich das +50% drin sind. Minimum.
Ich schätze sie wird der HD5970 verdammt nahe kommen allerdings auch beim Preis...
Gestrandet
2010-01-02, 17:33:52
Laut Nvidia sind sie jetzt schon im Labor Performance-Sieger :)
(hat der NV-Typ beim "Türken-Interview" gesagt :D)
Da sag ich nur "Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399 (http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/)" ^^
Dass der Fermi der schnellste Chip sein wird, davon kann man ausgehen, früher können / dürfen sie in einfach nicht auf die Menschheit loslassen - wär einfach zu peinlich, da könnten sie gleich die Tore schließen oder sich für 1€ SofortKaufen auf ebay anbieten und hoffen dass Intel zugreift.
Ändert aber nix dran, dass das Ding einfach derart katastrophal verspätet ist, dass ein Kauf einfach keinen Sinn mehr macht wenn mann keinen nv / CUDA / PhysX-Fetisch hat. Denn sonst wartet man besser auf den R900 ;-)
derguru
2010-01-02, 17:35:04
Das ist der entscheidende Punkt, neben dem Datum der Verfügbarkeit.
Für AMD wäre es wohl kein großes Problem, im März, nachdem sie nun einige Monate die HD 5800 zu guten Preisen verkauft haben, den Preis einer HD 5870 auf unter 300€ zu senken und damit NV mit ihren 550mm² Die auch in entsprechende Preisregionen zu zwingen, wenn der Abstand nicht groß genug ist.
Ähnliches passierte zwar auch bei G200, aber dessen Prozess war wohl um einiges reifer und dadurch der Die wohl auch günstiger.
entweder im märz nach dem fermi release gehen die preise runter(aber auch nur unter bestimmten umständen wie, sehr viel schneller oder doch nicht so teuer wie vermutet) oder spätestens nach dem refresh aller 5890.
Die sehen ja was die R600 alias RV870 leistet. Haben ja keine Tomaten auf dem Kopf.
mfg
dafür müsste es trotzdem schon zuspät sein abgesehen von takterhöhung.
ATi hats versaut. SGSSAA mit flimmerndem AF. Nix ganzes, nix halbes, demnach: "knapp daneben ist auch vorbei". Werden die vom ATi Fanlager anders sehen, ich seh das leider sehr Radikal.
das sehe ich auch anders vorallem in kombi mit sgssaa flimmert nichts mehr.
Dito, auch ohne SGSAA flimmert da nichts, zumindest nicht mehr oder weniger wie meine GTX285.
LovesuckZ
2010-01-02, 17:44:34
ähm, warum bist du dann noch hier?
Ich mach ja nichts mehr. Außer Spammen und Trollen. Etwas, was ausdrücklich von der Moderation geduldet ist.
z.B. sowas: Wieso sollte jemand überhaupt jetzt AMD kaufen, wenn man viele Vorteile schon längst haben könnte oder bald sowieso hat? Nur AMD Fanboys würden das tun.
Schon erstaunlich, wie derguru mit SSAA und diesem verbessertem AF spielen kann, wenn ihm das doch so lange egal war. Er hat sogar mal gesagt, dass SSAA nur für alte Spiele nutzbar wäre und somit überhaupt kein Kaufgrund.
Aber immer schön zu sehen, wie Fanboys ihre Meinung ändern. ;D
extra fürn Weltmeister Coda......
http://www.abload.de/thumb/crysis2010-01-0208-21-y8zx.png (http://www.abload.de/image.php?img=crysis2010-01-0208-21-y8zx.png)
Da ist Multisampling zu sehen, aber kein Supersampling. Supersampling würde auch die Palme über dem Haus glätten.
Du machst Fortschritte! Das nächste mal starte Crysis mit "-DX9" in der Command-Line, dann klappt's auch mit dem Supersampling *facepalm*
das sehe ich auch anders vorallem in kombi mit sgssaa flimmert nichts mehr.
Man vertschwendet trotzdem noch BQ, um das flimmern zu beseitigen.
Außerdem schade, das man mit einer D3D11 Karte auf D3D9 setzten muss.
In D3D10+ flimmerts halt wieder und AAA ist auch nicht so doll.
Sentionline
2010-01-02, 17:50:52
in <=DX8 Spielen ist die 5800Ultra soviel schneller wie sie Mehrtakt hat. Sie wurde mit 500/1000Mhz getaktet, hingegen die TU4600 nur mit 300/650Mhz. Das macht eine Steigerung von 66/53% aus.
Vorsicht! Bei gleichem Testsystem:
3DMark 2001 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/7/#abschnitt_3dmark2001_se): 9.368
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/5/#abschnitt_3dmark2001_se_v330): 9.439 -> + 0,8%
Comanche 4 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/18/#abschnitt_comanche4__d3d): 46,43 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_comanche_4_demo): 44,75 fps -> - 4%
UT2003 Demo Flyby (1280x960x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/32/#abschnitt_ut2003_demo_flyby): 111,07 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_ut2003_demo__flyby): 137,52 fps -> + 20%
Never Ever war die Fx5800 um die 50% schneller. ;D
reunion
2010-01-02, 17:53:13
Man vertschwendet trotzdem noch BQ, um das flimmern zu beseitigen.
Außerdem schade, das man mit einer D3D11 Karte auf D3D9 setzten muss.
In D3D10+ flimmerts halt wieder und AAA ist auch nicht so doll.
AMD verwendet sehr viel Füllrate für AF, warum es trotzdem noch flimmert ist fraglich. Aber ich habe bei AMD zumindest die Möglichkeit auch unter D3D10/11 den Downsamplingfilter selbst zu bestimmen. Etwas das bei NV mangels Alternativen zum box-Filter nicht möglich ist. Das man kein SSAA forcen kann liegt an der API, nicht an AMD. Aber vielleicht werden zukünftig Spieleentwickler ja auch auf das SSAA von AMD Rücksicht nehmen und es auch Ingame anbieten.
Vielleicht solltest du dir auch die Benchmarks raussuchen die nicht CPU limitiert sind. Was für eine Grütze mal wieder.
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/test_geforce_roundup/14/
In 1600x1200 Quality bei 2xAA/4xAF ist das Ding doppelt so schnell als eine Ti 4800.
boxleitnerb
2010-01-02, 17:55:20
Herzlichen Glückwunsch! 3DMark2001 und Comanche 4 sind herrlich CPU-limitiert.
mapel110
2010-01-02, 17:56:27
Vorsicht! Bei gleichem Testsystem:
3DMark 2001 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/7/#abschnitt_3dmark2001_se): 9.368
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/5/#abschnitt_3dmark2001_se_v330): 9.439 -> + 0,8%
Comanche 4 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/18/#abschnitt_comanche4__d3d): 46,43 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_comanche_4_demo): 44,75 fps -> - 4%
UT2003 Demo Flyby (1280x960x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/32/#abschnitt_ut2003_demo_flyby): 111,07 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_ut2003_demo__flyby): 137,52 fps -> + 20%
Never Ever war die Fx5800 um die 50% schneller. ;D
http://alt.3dcenter.org/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_comanche4_d.php
und nun? Wenn man das krüppelige AF der Radeons mit einberechnet, sehen die Zahlen auf einmal ganz anders aus.
LovesuckZ
2010-01-02, 17:56:36
Vorsicht! Bei gleichem Testsystem:
3DMark 2001 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/7/#abschnitt_3dmark2001_se): 9.368
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/5/#abschnitt_3dmark2001_se_v330): 9.439 -> + 0,8%
Comanche 4 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/18/#abschnitt_comanche4__d3d): 46,43 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_comanche_4_demo): 44,75 fps -> - 4%
UT2003 Demo Flyby (1280x960x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/32/#abschnitt_ut2003_demo_flyby): 111,07 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_ut2003_demo__flyby): 137,52 fps -> + 20%
Never Ever war die Fx5800 um die 50% schneller. ;D
Die ersten beiden sind CPU limitiert, einzig UT zeigt einen Bench, der nicht CPU limitiert ist. Weiterhin handelt es sich hier um die 5800 mit 400/800 Mhz, dessen Steigerung mit 33%/28% deutlich geringer ausfällt. Mit 4AA ist sie z.B. knapp 50% schneller als die TU4600 in UT.
Er redet halt gern undifferenzierten Schrott. Lass es einfach mapel.
reunion
2010-01-02, 17:57:52
Vorsicht! Bei gleichem Testsystem:
3DMark 2001 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/7/#abschnitt_3dmark2001_se): 9.368
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/5/#abschnitt_3dmark2001_se_v330): 9.439 -> + 0,8%
Comanche 4 (1280x1024x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/18/#abschnitt_comanche4__d3d): 46,43 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_comanche_4_demo): 44,75 fps -> - 4%
UT2003 Demo Flyby (1280x960x32)
GeForce 4 Ti 4600 (http://www.computerbase.de/artikel/hardware/grafikkarten/2002/test_connect3d_radeon9700_pro/32/#abschnitt_ut2003_demo_flyby): 111,07 fps
GeForce Fx 5800 (http://www.computerbase.de/artikel/hardware/grafikkarten/2003/test_fx5200_fx5800_inno3d/7/#abschnitt_ut2003_demo__flyby): 137,52 fps -> + 20%
Never Ever war die Fx5800 um die 50% schneller. ;D
Mal wieder unterstes Niveau wie man es von dir kennt.
Sentionline
2010-01-02, 18:01:43
Die Differenzen in 1600x kommen höchstwahrscheinlich daher das der Speicher voll läuft. Keiner hat damals in 1600x mit ner Fx gespielt. Schon gar nicht mit 2xAA. Wen wollt ihr das denn verkaufen?
Nein, das liegt nicht daran dass der Speicher vollläuft. Die Füllrate von einer FX 5800 Ultra ist einfach höher als die einer Ti 4600. Dazu kommen Verbesserungen in der Speicherarchitektur und der Architektur.
Da gibt's keine mysterischen Gründe. Das Ding war in DX8 einfach schnell.
Edit: Die FX 5800 Ultra und Ti 4800 haben beiden 128MB in dem Test. So viel dazu.
derguru
2010-01-02, 18:08:56
Schon erstaunlich, wie derguru mit SSAA und diesem verbessertem AF spielen kann, wenn ihm das doch so lange egal war. Er hat sogar mal gesagt, dass SSAA nur für alte Spiele nutzbar wäre und somit überhaupt kein Kaufgrund.
Aber immer schön zu sehen, wie Fanboys ihre Meinung ändern. ;D
klar war es mir bei nv egal weil die karten dafür zu langsam sind und ja dazu stehe ich immer noch das es eigentlich kaum sinn macht sowas zu implementieren wenn in zukunft es sogut wie von keinem spiel untersützt wird.ist halt ein boni der ohne zusätzlichen tool auskommt.:wink:
wo ist das problem,spricht da der neid das ati urplötzlich sgssaa kann und unser herr weniger gründe zum trollen hat?
Man vertschwendet trotzdem noch BQ, um das flimmern zu beseitigen.
Außerdem schade, das man mit einer D3D11 Karte auf D3D9 setzten muss.
In D3D10+ flimmerts halt wieder und AAA ist auch nicht so doll.
af flimmert minimal mehr als bei nv karten und? ja AAA ist sogar mehr als dolle,mega dolle.
klar war es mir bei nv egal weil die karten dafür zu langsam sind
Die GeForce 8800 war bei ihrem Launch nicht weniger gut oder schlecht für Supersampling brauchbar als eine Radeon heute.
Du misst da eindeutig mit zweierlei Maßstäben.
LovesuckZ
2010-01-02, 18:14:26
klar war es mir bei nv egal weil die karten dafür zu langsam sind und ja dazu stehe ich immer noch das es eigentlich kaum sinn macht sowas zu implementieren wenn in zukunft es sogut wie von keinem spiel untersützt wird.ist halt ein boni der ohne zusätzlichen tool auskommt.:wink:
wo ist das problem,spricht da der neid das ati urplötzlich sgssaa kann und unser herr weniger gründe zum trollen hat?
Ausreden, Ausreden, Ausreden.
Bei AMD ist ein Boni, bei nVidia komplett sinnlos. Und nVidia Karten wären zu langsam - klar, weil Cypress auch super, dolle 35% schneller ist, ist SSAA plötzlich überall einsetzbar. Und du kannst bei dem Argument nichtmal mit D3D11 kommen, da funktioniert es nichtmal. ;D
Nö, ich bin nicht neidisch. Wäre mir SSAA zu wichtig, ich hätte eine nVidia Karte gehabt, bevor ich auf Cypress umgestiegen wäre. Dir hingegen dient es nur um irgendwelche Argumente für AMD Karten. Ich freue mich schon auf den März, wenn du hier antanzen wirst und SGSSAA als das Argument von AMD anzupreisen. :biggrin:
Exxtreme
2010-01-02, 18:19:14
Die Differenzen in 1600x kommen höchstwahrscheinlich daher das der Speicher voll läuft. Keiner hat damals in 1600x mit ner Fx gespielt. Schon gar nicht mit 2xAA. Wen wollt ihr das denn verkaufen?
Die FX hatte eine wesentlich höhere Füllrate und AFAIK sowas wie Color Compression wenn man MSAA benutzte. In Nicht-CPU-limitierten Spielen war das Ding schon erheblich schneller als als die GF 4600. Das hatten die Benchmarks damals auch so bestätigt.
derguru
2010-01-02, 18:24:01
Die GeForce 8800 war bei ihrem Launch nicht weniger gut oder schlecht für Supersampling brauchbar als eine Radeon heute.
Du misst da eindeutig mit zweierlei Maßstäben.
ich rede aber nicht von der zeit vorallem hatte ich selbst zu der zeit eine geforce8800.ich beziehe mich auf die gt200 serie.
Ausreden, Ausreden, Ausreden.
Bei AMD ist ein Boni, bei nVidia komplett sinnlos. Und nVidia Karten wären zu langsam - klar, weil Cypress auch super, dolle 35% schneller ist, ist SSAA plötzlich überall einsetzbar. Und du kannst bei dem Argument nichtmal mit D3D11 kommen, da funktioniert es nichtmal. ;D
Nö, ich bin nicht neidisch. Wäre mir SSAA zu wichtig, ich hätte eine nVidia Karte gehabt, bevor ich auf Cypress umgestiegen wäre. Dir hingegen dient es nur um irgendwelche Argumente für AMD Karten. Ich freue mich schon auf den März, wenn du hier antanzen wirst und SGSSAA als das Argument von AMD anzupreisen. :biggrin:
bla,bla,bla.
bei nv gibt es nicht mal ssaa im treiber :rolleyes:
klar man kann einige spiele mit 8xsgssaa spielen,versuch das mal mit einer nvkarte,viel glück dabei.
und wie ich mich freue und ich dann antanze wenn der fermi gut ist und in meinem rechner steckt im gegensatz zu dir und wenn die karte murks ist kannst du dich sicherheitshalber wieder als gast anmelden.;D
Black-Scorpion
2010-01-02, 18:24:30
Zusammengefasst war sie die schnellste DX8 Karte.
Nicht mehr und nicht weniger. ;)
Und du kannst bei dem Argument nichtmal mit D3D11 kommen, da funktioniert es nichtmal. ;D
was ja auch an AMD liegt was :rolleyes:
NV wirds in DX10 und 11 auch nicht können, vieleicht mit Hacks und auf kosten der Bildqualität :ugly:
Sentionline
2010-01-02, 18:31:45
Ja gut, dann hab ich "nicht gut" aufgepasst. sorry :redface:
Trotzdem war das Ding lahm :freak: Gerade in DX9, wo sie doch so als " "Turbo-Modus für DX9" verkauft wurde. Ist doch klar das DX9 beschleuniger schneller in DX8 ist, genau ein DX10 beschleuniger in DX9 und so weiter...:tongue:
Es werden beide können, wenn es das Spiel anbietet :)
Exxtreme
2010-01-02, 18:58:44
Ja gut, dann hab ich "nicht gut" aufgepasst. sorry :redface:
Trotzdem war das Ding lahm :freak: Gerade in DX9, wo sie doch so als " "Turbo-Modus für DX9" verkauft wurde. Ist doch klar das DX9 beschleuniger schneller in DX8 ist, genau ein DX10 beschleuniger in DX9 und so weiter...:tongue:
Mit Direct3D 9 war das Teil ATis R300 um Grössenordnungen unterlegen. Was Direct3D 8-Titel angeht dann waren beide Kontrahenten ebenbürtig mit leichten Vorteilen für die FX.
LovesuckZ
2010-01-02, 19:00:29
bla,bla,bla.
bei nv gibt es nicht mal ssaa im treiber :rolleyes
Oha, wie schlimm. Zum Glück spielen wir hier auf dem PC, wo man noch nicht verlernt hat ein Programm neben dem CP zu installieren. ;D
klar man kann einige spiele mit 8xsgssaa spielen,versuch das mal mit einer nvkarte,viel glück dabei.
Du hast kein Plan, oder? Es gibt ebenfalls Spiele, die kann man bei nVidia mit 3x3 oder sogar 4x4 OGSSAA spielen und das noch vor Cypress und Konsorten. Das macht dein Argument irgendwie total sinnlos. :rolleyes:
und wie ich mich freue und ich dann antanze wenn der fermi gut ist und in meinem rechner steckt im gegensatz zu dir und wenn die karte murks ist kannst du dich sicherheitshalber wieder als gast anmelden.;D
Nö, wenn ich als Gast poste, dann ist das wohl unabhängigig davon, ob Fermi murks ist oder nicht. Viel interessanter ist doch, wieso du überhaupt mit SSAA spielst. :freak:
klar man kann einige spiele mit 8xsgssaa spielen,versuch das mal mit einer nvkarte,viel glück dabei.
Jetzt wirds lächerlich.
SSAA hat die Geforces seit Jahren begleitet.
Immer wieder gabs neue Spiele. In alten Spielen wurde es immer leichter SSAA zu aktivieren.
Heute siehts dank Konsolen und D3D10+ etwas anders aus. SSAA ist praktisch überall auf einer aktuellen Geforce nutzbar, wo es auch bei einer Radeon nutzbar ist.
Die paar % Performance spielen keine Rolle bei dem Rechenaufwand, außerdem gibt es verschiedene SSAA Stufen.
Natürlich weiss ich, wie SSAA früher immer in den Dreck gezogen wurde, von wegen es sei nicht nutzbar.
Das zieht sich all die Jahre zurück.
Lustigerweise sind die Karten seitdem immer stärker geworden, ergibt irgendwie keinen Sinn, das SSAA immer noch nicht gehen soll.
Als ob neue Karten nicht leistungsfähiger, sondern alte Karten an Leistung verlieren würden. Ist das so? War mir bisher neu.
ich rede aber nicht von der zeit vorallem hatte ich selbst zu der zeit eine geforce8800.ich beziehe mich auf die gt200 serie.Gut erkannt, 5870 ist schneller als GTX285.
Was das mit SSAA zu tun hat ist völlig unklar.
Eigentlich gar nichts. Selbst eine 6800 GT ist schnell genug für SSAA.
bei nv gibt es nicht mal ssaa im treiber Für BQ Freunde vollkommen ohne Belang.
Die nicht automatische LOD Anpassung am Anfang bei AMDs SSAA hat nicht gestört.
Oder das exe renaming.
Ware BQ Freunde lachen darüber. Auch wenn exe renaming etwas umständlich ist, SSAA per Tool zu aktivieren ist leichter, ungefähr so leicht wie per Treibermenü.
HQAF zu aktivieren ist auch so eine Sache, im Treibermenü ist es leichter als gar nicht.
Oder die Wahl zwischen TSSAA und TMSAA ist recht praktisch.
Nö, wenn ich als Gast poste, dann ist das wohl unabhängigig davon, ob Fermi murks ist oder nicht. Viel interessanter ist doch, wieso du überhaupt mit SSAA spielst. :freak:
Weil er eine D3D11 Karte hat, mit der er jetzt D3D9 in vollen Zügen geniesst.
Du solltest hoffen das er nächste Mal nicht so sehr auf D3D11 pocht, den das scheint ihm jetzt unwichtig geworden zu sein.
Warum man nur auf HD5 SSAA geniessen kann muss er uns noch kurz erklären.
Bestimmt meint er damit nicht 5750 oder 5850.
Bleiben nicht viele HD5 übrig.
Aber da selbst auf 6800 GT SSAA vollkommen ohne Probleme nutzbar ist, muss er sich eh irren bzw bewusste Falschaussagen tätigen.
Ich mach ja nichts mehr. Außer Spammen und Trollen. Etwas, was ausdrücklich von der Moderation geduldet ist.
z.B. sowas: Wieso sollte jemand überhaupt jetzt AMD kaufen, wenn man viele Vorteile schon längst haben könnte oder bald sowieso hat? Nur AMD Fanboys würden das tun.
Schon erstaunlich, wie derguru mit SSAA und diesem verbessertem AF spielen kann, wenn ihm das doch so lange egal war. Er hat sogar mal gesagt, dass SSAA nur für alte Spiele nutzbar wäre und somit überhaupt kein Kaufgrund.
Aber immer schön zu sehen, wie Fanboys ihre Meinung ändern. ;D
jo schon klar...euch brauch man wirklich nur nen Knochen hinwerfen....da hängt bei einigen die Zunge auf halbacht, wenn hier einige so schlau wären wie sie vorgeben, würde seit 2 Seiten nichts mehr geschrieben..zum totlachen.
Aber ich bin ja schon froh wenns ab und an mal einer schnallt..... :D im diesem Sinne ein hoch aufs neuerfundene SSAA in DX9 für ATI, prost.
also entweder:
-die wissen mehr wie wir und haben schon Fermi Karten
-oder die haben einfach nen Schatten (das wohl eher)
http://www.gamezone.de/benchmarks.asp?sys=1&randid=281221322
http://www.abload.de/img/unbenanntuhgj.png (http://www.abload.de/image.php?img=unbenanntuhgj.png)
lustig wäre wenn das stimmen würd, 11% vor einer 5870 :lol:
y33H@
2010-01-03, 00:21:45
11% vor einer HD5870 stimmt nicht, da die GTX380 die 100%-Basis bildet.
Das Rating ist Müll, GTX 275 auf einem Niveau mit GTX 280. :rolleyes:
Botcruscher
2010-01-03, 00:25:41
Immerhin unterhaltsammer als dieses nutzlose gestreite über Nebensächlichkeiten.:ucoffee:
|MatMan|
2010-01-03, 00:56:48
11% vor einer HD5870 stimmt nicht, da die GTX380 die 100%-Basis bildet.
Dann schreib doch bitte gleich die richtige Prozentzahl hin.
Statt 11% wären es eben 12,4% vor der HD5870 (und 66% vor der GTX285) - nicht so richtig prickelnd...
LovesuckZ
2010-01-03, 01:00:43
Die Zahlen basieren laut deren Aussagen jeweils auf der effektiveren Rohleistung der einzelnen Karten.
Was auch immer das zu bedeuten hat.
y33H@
2010-01-03, 01:02:41
Tut mir leid, dass ich nicht Taschenrechner spiele ... btw diese 12,4%: Übliche Frage, wie kommen die zustande? Als Grundlage für diese Benchmarks dient jeweils die effektive Rohleistung der Produkte.Aha, grandios. Ich bau mal weiter an meiner Fermi-Bench-Folie http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/ugly/uglycafe.gif Vll schaffe ich ja 12,7% ...
Der_Korken
2010-01-03, 01:18:27
Die Tabelle ist Humbug, selbst bei den Karten, die es schon gibt. Die 5850 und GTX285 sind viel zu weit auseinander, GTX280 und 285 zu dicht und 285 und 4890 auch. Das sind bestenfalls Zahlenspielereien, sagt aber nichts über die tatsächliche Spieleleistung aus.
tombman
2010-01-03, 01:38:44
Reiner bullshit, die Liste...
Btw, die 12.4% kommen aus 1/0.89
derguru
2010-01-03, 01:49:51
Das Rating ist Müll, GTX 275 auf einem Niveau mit GTX 280. :rolleyes:
na sicher was ist daran merkwürdig.die 275 ist höher getaktet und gleicht damit das fehlende auf.rammenge spielt bei den standardsettings aller 4aa/16af eh keine rolle.
Bist du nicht auch als Dural angemeldet? Troll.
morgens oral,abend elmeZ;)
Allem Anschein nach wird GT300 nur knapp über einer GTX285 liegen. Lächerlich! :lol:
eine "HD5890 2G" wird das Teil sowas von in den Boden rammen. ;D Wahrscheinlich ist diese auch noch früher verfügbar. :ulol:
Knuddelbearli
2010-01-03, 01:56:31
falls der anfängliche Desktop Fermi auch mit 448 shader kommt ist das Ergebniss sogar noch recht gut frage mich nur wo sie dann den 260er beschneiden wollen ...
Der_Korken
2010-01-03, 02:31:36
falls der anfängliche Desktop Fermi auch mit 448 shader kommt ist das Ergebniss sogar noch recht gut frage mich nur wo sie dann den 260er beschneiden wollen ...
Wenn die GTX380 (oder GTX370) nur 448 Shader hat, dann kommt die GTX360 wohl mit 384 Shadern und nur 320bit SI. Beim G80 hatte der kleinere Chip auch nur 75% der Recheneinheiten, das wäre also nichts außergewöhnliches.
=Floi=
2010-01-03, 02:37:14
275er ist unter normalen settings aber wirklich auf dem niveau der 280er
Gestrandet
2010-01-03, 02:56:41
Na also, Fermi ist bei der effektiven Rohleistung ganz klar die stärkste GPU. Da gibt's nix zu deuteln und auch nix mehr zu spekulieren. Die nv Fraktion hat Recht gehabt, ob ausnahmsweise oder wieder einmal lassen wir mal dahin gestellt. Kann man den Thread hier doch eigentlich dicht machen.
mapel110
2010-01-03, 04:15:03
There will be a sneak peek of GF100 at our booth at CES in Las Vegas next week.
http://twitter.com/NVIDIAGeForce
Nun darf man gespannt sein, was sie unter sneak peak verstehen.
Die Tabelle ist Humbug, selbst bei den Karten, die es schon gibt. Die 5850 und GTX285 sind viel zu weit auseinander, GTX280 und 285 zu dicht und 285 und 4890 auch. Das sind bestenfalls Zahlenspielereien, sagt aber nichts über die tatsächliche Spieleleistung aus.
Nö. CB misst sehr sehr ähnliche Werte. http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating
HD 5850 20 % schneller als GTX 285 (Gamezone: 23 %)
GTX 285 11 % schneller als HD 4890 (Gamezone: 15 %)
GTX 285 6 % schneller als GTX 275 (Gamezone: 7 %)
Unter 1680 x 1050 bei CB.
Simon Moon
2010-01-03, 08:33:08
GeForce 256 -> GeForce 2 Ultra = +42%
GeForce 2 Ultra -> GeForce 3 = +49%
GeForce 3 -> GeForce 4 Ti 4600 = +50%
GeForce 4 Ti 4600 -> GeForce Fx 5800 = +10%
GeForce Fx 5800 -> GeForce 6800 Ultra = +500%
GeForce 6800 Ultra -> GeForce 7800 GTX = +15%
GeForce 7800 GTX -> GeForce 8800 GTX = +180%
GeForce 8800 GTX -> GeForce GTX 280 = +59%
Durchschnitt vom Durchschnitt: +113% ;D
Ohne Extremwerte (+10% und +500%): +65% (das könnt sogar hinkommen :eek:)
Nicht wirklich, die liste ist ziemlich unkonsequent. Es ist nicht ersichtlich, welche GF256 gemeint ist: SDR oder DDR-SDRAM. Die GF2 Ultra wurde relativ viel später nach der GF2 GTS eingeführt, während nach der GF3 noch die GF3 Ti200 bzw. Ti500 erschien. Bei der GF4 erschien danach noch eine Ti4800, wobei ich mir nicht mehr sicher bin, afair war da tatsächlich die Ti4600 am schnellsten, soweit also ok. Bei der FX Serie kam noch, ebenso wie bei der G7x Serie noch eine '900er bzw. gar '950er zum Ende hin raus. Zudem, war die GF6800 doch nie und nimmer durchschnittl. 5x schneller als die FX :freak:
Also übern daumen mögen die ja 65% stimmen, aber da kann ich mich dann genauso gut auf meine Glaskugel verlassen...
AnarchX
2010-01-03, 11:05:29
AMD Mitte Dezember auf der Siggraph Asia:
http://img40.imageshack.us/img40/3591/amd6months.jpg (http://img40.imageshack.us/i/amd6months.jpg/)
http://sa09.idav.ucdavis.edu/docs/SA09_AMD_IHV.pdf Slide 2
Also glaubt man sich mindestens bis März der Krone sicher bei AMD.
reunion
2010-01-03, 11:09:59
AMD Mitte Dezember auf der Siggraph Asia:
http://img40.imageshack.us/img40/3591/amd6months.jpg (http://img40.imageshack.us/i/amd6months.jpg/)
http://sa09.idav.ucdavis.edu/docs/SA09_AMD_IHV.pdf Slide 2
Also glaubt man sich mindestens bis März der Krone sicher bei AMD.
Wenn sie im Dezember sagen mindestens für die nächsten 6 Monate, könnte das auch Mai bedeuten. Aber das man vor März keinen Fermi erwarten braucht sollte inzwischen jeder verstanden haben.
AnarchX
2010-01-03, 21:11:41
Bitte beim Thema "Fermi" bleiben, da über dessen genauen AA-Fähigkeiten noch nichts bekannt ist, ist eine Diskussion über SSAA Offtopic.
Darüber kann in den vorhandenen Threads (http://www.forum-3dcenter.org/vbulletin/tags.php?tag=ssaa) diskutiert werden.
Wer nochmal mit Flamen und massiven Spamming auffällt, muss mit Punkten ohne vorheriger Warnung rechnen.
mapel110
2010-01-03, 21:14:58
Wenn sie im Dezember sagen mindestens für die nächsten 6 Monate, könnte das auch Mai bedeuten. Aber das man vor März keinen Fermi erwarten braucht sollte inzwischen jeder verstanden haben.
'Die Folie fängt mit "In September 2009" an und zählt dann auf.
reunion
2010-01-03, 21:24:24
Ja stimmt.
derguru
2010-01-03, 21:26:32
frag mich woher die es schon damals erahnt hatten,das kann ja kaum glück sein.
reunion
2010-01-03, 21:29:05
Das wussten sie wohl spätestens als bekannt war das NV noch ein A3 Stepping bringt, und das sollte kein Geheimnis sein. AMD fertigt ja auch bei TSMC und weiß deshalb natürlich auch wie schnell man einen solchen Chip in Massen herstellen kann, bzw. wie die Fortschritte bei NV aussehen.
Mayk-Freak
2010-01-03, 22:16:33
also entweder:
-die wissen mehr wie wir und haben schon Fermi Karten
-oder die haben einfach nen Schatten (das wohl eher)
http://www.gamezone.de/benchmarks.asp?sys=1&randid=281221322
http://www.abload.de/img/unbenanntuhgj.png (http://www.abload.de/image.php?img=unbenanntuhgj.png)
lustig wäre wenn das stimmen würd, 11% vor einer 5870 :lol:
11% würden mir vollkommen reichen um mir von meiner 5870er zum Fermi zu wechseln...gta IV macht einfach keinen spaß mit der 5870er
Burgard
2010-01-03, 22:27:08
Hmmm???
11% ???
Wenn also GTA4 keinen SPass macht, dann heisst das also bei Extremsettings bei der 5870 ,na, ca. 20 Frames/Sekunde + 11% = seien wir grosszügig 23 Fps.
Hmmm, ist das nun besser?
ALso Fermi darf einfach eine 11% schneller sein, sondern min. 30% PUNKT drei Ausrufezeichen
sonst sehe ich schwarz und die Hoffnung liegt auf Fermi 2.0, soll ja laut Gerücht im Spätherbst antreten.
boxleitnerb
2010-01-03, 22:35:53
Mehr als 1GB VRAM, hallo...also manchmal!
11% würden mir vollkommen reichen um mir von meiner 5870er zum Fermi zu wechseln...gta IV macht einfach keinen spaß mit der 5870er
Falls das ernst gemeint ist und kein Trollposting, dann sei gesagt, dass GTA 4 sogar mit einer HD 4850 flüssig läuft, sofern man 4 GB RAM und einen Quad-Core hat. GTA 4 profitiert fast nur von der Anzahl der Prozessorkerne.
y33H@
2010-01-03, 22:40:37
Ohne 1G und eine HD5870 kann man aber weder das Streaming aushebeln, noch mit maximalen Details geschweige denn mit Downsampling spielen. Und erst dann dreht GTA4 so richtig fett auf :usad: Dann brauchts aber auch 8G und einen fetten QC. Also warten wir noch ein Jahr ...
Mayk-Freak
2010-01-03, 22:49:26
Vorsicht, Nvidia wird versuchen deine DNA zu rauben und dich aus der Retorte zu züchten. Sie brauchen Idioten wie dich um im März ihre Hardware abzusetzen
ich kann doch kaufen was ich will...ich hatte bis jetzt immer die schnellste single-gpu...und wenn fermi schneller ist wie cypress dann kauf ich mir dann halt die schnellere...außerdem hätte ich lieber eine karte mit mehr v-ram wie die 5870er...hatte vorher eine ältere mit 2 gb v-ram und da konnte ich bei gta IV grafiksettings voll aufdrehen...und jetzt habe ich eine viele modernere karte und muss die grafik wieder zurückschrauben, weil der karte halt der v-ram fehlt...und ati samt boardpartner seit mehreren monaten es nicht auf die reihe bekommen haben eine karte mit single gpu mit 2 gb v-ram anzubieten...
ps...zügel mal bitte deine wortwahl...als idiot muss ich mich von dir nicht bezeichnen lassen...
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.