Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
[
22]
23
derguru
2009-09-22, 13:02:01
Dann kannst du dich ja auf HD5870x2 freuen. Oh, Moment, es gibt ja schon Quad HD4890, auch nichts Neues ... Sorry, ich glaube, es gibt nichts, worauf du dich freuen kannst. Ich habe echt Mitleid mit dir. :D
doch es gibt ja noch für blacksoul die 5870 quad variante.:rolleyes:
Ich bin gespannt, ob um 24 Uhr Computerbase was veröffentlicht ... Oder werden die sich peinlichst an die Zeitangabe halten?
LovesuckZ
2009-09-22, 13:08:13
24Uhr ist doch amerikanische Zeit. Die werden sich also an unsere Zeitzone halten.
Nein haben sie nicht. Das sagt allein schon der Satz "No Performance Hit vs. Previous AF Algorithm".
Wirklich bessere Qualität kostet mehr Samples.
Die zusätzlichen TMUs könnten es noch herausreissen, aber wahrscheinlich hast du Recht, wie leider all zu oft. ;)
Aber das mit dem Supersampling freut mich. Da wird NVIDIA in kurzer Zeit nachziehen.
Wobei ich null Verständnis dafür habe, wie man am Filter sparen kann und dann das Flimmern mit absolut ineffizientem Supersampling glättet. Unterabtastung von Eingabedaten wird nämlich von Shadern oft exponentiell verstärkt (vor allem bei specular lighting).
deekey777
2009-09-22, 13:14:01
...
Das kann aber nur per Profil funktionieren.
Und genau da sieht es richtig schwarz für ATi aus.
Gerade die Kombination aus ASTT und ASBT in HL2 brachte richtig gute Qualität (das eine kümmert sich um die flimmernde Vegetation usw, das andere zB um die flimmernden Blutspritzer), auch in RaSh brachten beide einen enormen Qualitätsvorteil, aber wehe man blickte in Richtung Rauch oder Dampf, da killte ASBT alles an Performance, was da war.
Ph0b0ss
2009-09-22, 13:14:18
Die zusätzlichen TMUs könnten es noch herausreissen, aber wahrscheinlich hast du Recht, wie leider all zu oft. ;)
Welche zusätzlichen TMUs? Die sind doch nur genau im gleichen Maße gesteigert worden wie die ALUs.
deekey777
2009-09-22, 13:15:33
Welche zusätzlichen TMUs? Die sind doch nur genau im gleichen Maße gesteigert worden wie die ALUs.
Genau. Und diese übermächtigen ALUs müssen gefüttert werden.
Neocroth
2009-09-22, 13:16:31
24Uhr ist doch amerikanische Zeit. Die werden sich also an unsere Zeitzone halten.
um 6:01 am CEST fällt die NDA
dh.:
http://www.timeanddate.com/counters/customcounter.html?day=23&month=09&year=2009&hour=6am&min=1&sec=&p0=37
:D
Spasstiger
2009-09-22, 13:16:48
Woher weißt du das?
Edit: Mal eine Verständnisfrage: Der R600 hat ja auch eine Tesselationunit. Kann jedoch nur über die DX10 API angesteuert werden, welche wiederum nix mit Tesselation anfangen kann. Liegt das Ding somit auf allen Post-R600/Prä-RV800 brach wie Bauer Effers Feld???
Man kann die Tesselation-Unit unter D3D9 nutzen, hier das SDK:
http://developer.amd.com/gpu/radeon/Tessellation/Pages/default.aspx
P.S.: Den Satz "Efficient Implementation Based on Adaptive AA Technology" verstehe ich so, dass eben nicht nur OGSSAA wie bei Nvidia zum Einsatz kommt, sondern das gleiche SSAA-Verfahren wie beim adaptiven AA. Nur halt auf die gesamte Szene angewandt.
Ailuros
2009-09-22, 13:18:13
Eine höhere Auflösung ist natürlich besser als SSAA, aber die kriegst du eben nicht offiziell. Downsampling ist böse Bastelei und mit einer Radeon nicht unter Vista/7 möglich. Ergo bleibt nur SSAA, um das Spar-AF und pöse Shader (die durch das Spar-AF noch pöser werden) unpöse zu machen.
Es gilt auch anders rum wenn ich um Spielbarkeit zu erreichen eine niedrigere als native Aufloesung benutzen muss. In dem Sinn will ich persoenlich nicht jegliches "Aufloesungs-Potential" fuer SSAA opfern. Wenn es jetzt natuerlich die Leistung erlaubt bei bestmoeglicher Aufloesung X waere ich schoen bloed wenn ich nicht SSAA einschalten wuerde, aber fuer die Faelle ist das Anwendungsgebiet nach wie vor klein.
Nochmal Supersampling macht Dir aus brilinear kein trilinear; das groesste Problem ist generell Unterfilterung und negativer LOD.
Ich zocke in meiner Heimat auch an einem unscharfen, überfahrenen CRT und mag die Optik durchaus. ;)
Unscharf ist meiner Gott sei Dank noch nicht.
Aber das mit dem Supersampling freut mich. Da wird NVIDIA in kurzer Zeit nachziehen.
Wenn es sich tatsaechlich nur um einen einfachen Hack handelt waeren sie schoen bloed wenn sie es nicht auch einsetzen.
Wobei ich null Verständnis dafür habe, wie man am Filter sparen kann und dann das Flimmern mit absolut ineffizientem Supersampling glättet. Unterabtastung von Eingabedaten wird nämlich von Shadern oft exponentiell verstärkt (vor allem bei specular lighting).
Houston calls Raff; Raff are you listening? :D
Nvidia könnte theoretisch sofort reagieren, einfach mit einem neuen "Big Bang" ;) Treiber OGSSAA freischalten.
Ich glaubs nur nicht, das schicke AF haben sie bis heute auch nicht für Marketingzwecke benutzt oder täusche ich mich?
Wenn ich mir die letzten AMD Folien angucke wird mir schwindelig. AMD bewirbt ihre HD5 als BQ Königin, schickeres AF und SSAA und schnelleres MSAA.
Würde mich nicht wundern wenn die Masse das absofort so nachbetet "ach wie toll die AF Blume doch jetzt ist, seit doch glücklich BQ Meckerköpfe."
Bisher hatte ich nicht den Eindruck, das Nvidias Marketing derart beschissen ist, aber jetzt gehts mir wie ein Licht auf, das kann nicht so weiter gehen.
So oder so in Zukunft heißt es dann in Artikeln:
16x Default AF vs 16x Default AF
Teil SSAA vs FSSSAA?
MS/SSAAA vs TSSAA
8xMSAA vs 8xMSAA
Am Ende wird noch gelobt wie toll AMDs BQ doch ist, bei gleichzeitig besserer Performance.
Ich glaube wer bisher glaubte die Presse ist am Boden wird sich bald wundern, es geht noch schlimmer.
deekey777
2009-09-22, 13:23:54
OGSSAA gegen RGSSAA? Natürlich: Für die Bild-Leser ist das das Gleiche.
Nvidia könnte theoretisch sofort reagieren, einfach mit einem neuen "Big Bang" ;) Treiber OGSSAA freischalten.
Nö, aber es spricht ja nichts dagegen TSSAA auch auf andere Fläche als die mit Alpha-Tests anzuwenden.
Wobei ich mir eben nicht so sicher bin, ob ATI da nicht inzwischen die D3D10.1-Hardware verwendet und die Geometrie dadurch nur einmal bearbeiten muss. Evtl. kann NV das nicht und würde dann mehr Performance verlieren.
Auch eine Möglichkeit in dem Zusammenhang ist, dass sie zusätzliche Logik eingebaut haben um das aktivieren des Supersamplings nicht dem Shadercompiler unterschieben zu müssen und es deshalb nur auf HD 5000 funktioniert.
Spasstiger
2009-09-22, 13:30:48
Von der EER her müsste 4xSGSSAA grob vergleichbar mit 8xSQ-AA mit TSSAA von Nvidia sein. Haben jeweils 4 Textur-/Shadersamples und eine EER von 4x4 auf die Geometrie und Transparenztexturen.
OGSSAA gegen RGSSAA? Natürlich: Für die Bild-Leser ist das das Gleiche.
Gut erkannt, in der Presse gehts schon seit langem nicht um absolute Gleichheit, siehe die anderen Punkte.
Dennoch wird es verglichen werden, keine Sorge.
Weiter vorne stand es handle sich nicht um FSSSAA, hat sich das inzwischen geändert.
Nochmal Supersampling macht Dir aus brilinear kein trilinear; das groesste Problem ist generell Unterfilterung und negativer LOD.
Richtig, SSAA macht aus b(r)i kein tri. Mir ist jedoch kein Fall bekannt, wo das Banding so stark sichtbar ist, dass 4x SSAA das unsichtbar bekommt. Die Auswirkungen eines negativen LODs bzw. Unterfilterung kriegt SSAA wunderbar platt. Von daher ist SSAA (für mich) das Allheilmittel. Es kostet – aber es wirkt. :)
Unscharf ist meiner Gott sei Dank noch nicht.
Das ist toll. Überfahren + CRT-Matsch + (SS)AA = 24xS CFAA. ;)
Houston calls Raff; Raff are you listening? :D
Da stimme ich zu. SSAA ist teuer, ja, aber siehe oben. Das beste AF hilft nicht gegen fiese Shader, diese sind jedoch in vielen aktuellen Spielen zu sehen. Wir kämpfen also gegen fiese Shader und Spar-AF; beides wird nicht beseitigt. Und was hilft da ... ? ;)
MfG,
Raff
Kann man morgen jetzt 5870 kaufen?
LolekDeluxe
2009-09-22, 13:35:14
Schlägt also nichtmal eine GTX295....schwach ;)
GT300 FTW :)
Vantage ist sowas von Latte.
Und wieviele Treiber releases gabs schon für 285/295 und vieviel für 5870?
Blacksoul
2009-09-22, 13:35:43
Dann kannst du dich ja auf HD5870x2 freuen. Oh, Moment, es gibt ja schon Quad HD4890, auch nichts Neues ... Sorry, ich glaube, es gibt nichts, worauf du dich freuen kannst. Ich habe echt Mitleid mit dir. :D
Erspare dir das Mitleid. GT300 kommt ja auch noch. :D Außerdem gibt es ja noch andere Gründe die HD5870 zu kaufen. Überzeugendes RGSSAA (;)) oder in meinem Falle Eyefinity. 3 TFTs an einer Karte ist mein Killerfeature. (y)
t.b.d
Ich sag nur PhysX. Man schlägt jedenfalls dort eine 4870 X2. Und in Vantage skaliert SLI/CF perfekt.
PhysX hat so gut wie keinen einfluss beim X Wert, aller höchstens 200 Punkte wenn überhaupt! und wer sagt das PhysX überhaupt an war?
Kann man morgen jetzt 5870 kaufen?
Nein, morgen ist nur der Launch, die Verfügbarkeit braucht angeblich noch 2 Wochen.
Kann man morgen jetzt 5870 kaufen?
JA! :D
Nur nicht überall ;)
Neocroth
2009-09-22, 13:41:46
Da stimme ich zu. SSAA ist teuer, ja, aber siehe oben. Das beste AF hilft nicht gegen fiese Shader, diese sind jedoch in vielen aktuellen Spielen zu sehen. Wir kämpfen also gegen fiese Shader und Spar-AF; beides wird nicht beseitigt. Und was hilft da ... ? ;)
Stellt sich die Frage, ob genug Rohleistung für SSAA in HD-Auflösungen da ist. Was bringt mir RGSSAA wenn ich es in vielen Fällen nicht aktivieren kann, weil es massig Füllrate kostet und das Spiel letztenendes vllt. in den <30fps-Bereich rutscht?
Natürlich finde ich mehr BQ gut, aber letztenendes wäre bezüglich der AF eine bessere Filterung meiner Meinung nach klüger gewesen. (wobei ich die Unterfilterung beim AF in den allerseltensten Fällen jemals gesehen habe, aber mehr von allem ist nie schlecht :D)
ja was jetzt, will einfach die schnellste single gpu karte, der rest ist mir egal (Crysis) und sobald der GT300 da ist fliegt der RV870 ziemlich sicher recht weit aus meinem rechner ;-)
robbitop
2009-09-22, 13:42:31
Ich zocke in meiner Heimat auch an einem unscharfen, überfahrenen CRT und mag die Optik durchaus. ;)
Natürlich magst du die Optik. Es ist nichts anderes als analoges Downsampling nur mit einem besseren Filterkernel. ;) Aber wesentlich ineffizienter als FS-SGSSAA.
Ailuros
2009-09-22, 13:48:29
Richtig, SSAA macht aus b(r)i kein tri. Mir ist jedoch kein Fall bekannt, wo das Banding so stark sichtbar ist, dass 4x SSAA das unsichtbar bekommt. Die Auswirkungen eines negativen LODs bzw. Unterfilterung kriegt SSAA wunderbar platt. Von daher ist SSAA (für mich) das Allheilmittel. Es kostet – aber es wirkt. :)
Ich bin jetzt wirklich zu faul etliche Stellen aufzusuchen wo es vorkommt und SSAA nichts besonderes dagegen anstellen kann. Ich brauch keinen negativen LOD auf meinen Texturen (und jeglicher Entwickler der denkt dass es "besser" aussieht :ass2: ) und wo immer ein Spiel trilinear vorraussetzt sollte ich die Wahl haben trilinear anwenden zu koennen.
Es ist ein gewaltiger Widerspruch fuer mich SSAA zu liefern und (falls es stimmt) konstante Unterfilterung im Treiber festgenagelt zu haben. Zuerst erlaubt man dem Verbraucher die Unterfilterung abzuschalten und dann kann man natuerlich die Wahl fuer SS noch anbieten.
Da stimme ich zu. SSAA ist teuer, ja, aber siehe oben. Das beste AF hilft nicht gegen fiese Shader, diese sind jedoch in vielen aktuellen Spielen zu sehen. Wir kämpfen also gegen fiese Shader und Spar-AF; beides wird nicht beseitigt. Und was hilft da ... ? ;)
Richtig fiese shader werden auch nicht wirklich geheilt mit nur 4xSSAA. Was dagegen hilft? Ein netter Fischtank voll Wasser vor dem Bildschirm. Kostet auch nichts ;)
Aquaschaf
2009-09-22, 13:53:43
Zuerst erlaubt man dem Verbraucher die Unterfilterung abzuschalten und dann kann man natuerlich die Wahl fuer SS noch anbieten.
Wurde mitlerweile eigentlich geklärt, ob RV770 überhaupt mit der vollen Anzahl an Samples filtern kann? Falls nicht, dann bleibt als Erklärung immer noch dass man sich den Aufwand die TMUs zu verbessern gespart hat.
LovesuckZ
2009-09-22, 13:56:12
Vernünftige Filterung sollte doch langsam zum Standard einer neuen Karte gehören. SSAA kann kein Heilmittel dagegen sein, weil es Spiele gibt, die eben zu anspruchsvoll dafür sind. Und dann muss entweder mit einem suboptimalen AF oder mit Komprimisse wegen SSAA spielen. Und nVidia zeigt seit 3 Jahren, dass vernünftige Filterung keinen Unterschied zwischen spielbar und unspielbar ausmachen muss.
Wurde mitlerweile eigentlich geklärt, ob RV770 überhaupt mit der vollen Anzahl an Samples filtern kann?
Zumindest tut er es in keinem Fall mit den Treibern die man bekommen kann.
Es kostet eher mehr Transistoren Samples zu sparen. Normale Abtastung ist einfach "Nehme N Samples entlang des Gradienten". Bei Unterabtastung werden nach einer Heuristik weniger Samples verwendet. Das ist zusätzliche Logik.
Zumindest tut er es in keinem Fall mit den Treibern die man bekommen kann.
Könnte zur Beantwortung der Frage denn nicht ein fachmännischer Blick in den freien RadeonHD-Treiber helfen?
Das AF ist zufälligerweise in der von AMD zur Verfügung gestellten Chip-Dokumentation mit keinem Satz erwähnt.
Können die freien Treiber überhaupt AF?
Stellt sich die Frage, ob genug Rohleistung für SSAA in HD-Auflösungen da ist. Was bringt mir RGSSAA wenn ich es in vielen Fällen nicht aktivieren kann, weil es massig Füllrate kostet und das Spiel letztenendes vllt. in den <30fps-Bereich rutscht?
Irgendwie kommt die Frage jeden Tag aufs neue.
Damals zu FX Zeiten, dann zu GF6, zur GF7, zur GF8, .... Jetzt zur HD5.
Ja mein Gott, dann ist nicht jedes Spiel in höchster Detailstufe in höchster Auflösung mit SSAA nutzbar.
Dreh mal den Spiess um, immer mehr Spiele sind keine Herausforderung, wohin mit der Leistung? Bei einer Geforce wars immer klar, in SSAA, teils auch bei neuen Spielen.
Faktisch gibts immer mehr alte Spiele, mit jedem neuen Spiel gibts ein neues altes Spiel.
Vernünftige Filterung sollte doch langsam zum Standard einer neuen Karte gehören.
Vollkommen richtig, SSAA ist ein anderes Thema, beides sollte auch mal getrennt betrachtet werden, beides ist wichtig.
Ich befürchte das AMD wegen der Blume gelobt wird, obwohl sich praktisch nichts gebessert hat.
ShadowXX
2009-09-22, 14:08:43
Vollkommen richtig, SSAA ist ein anderes Thema, beides sollte auch mal getrennt betrachtet werden, beides ist wichtig.
Ich befürchte das AMD wegen der Blume gelobt wird, obwohl sich praktisch nichts gebessert hat.
Wie ich schon vor unzähligen Post sagte: tiefer griff in die Marketing-Trickkiste.
Ein Winkelunabhängiges AF kostet zwar ein paar Transistoren mehr, aber es kostet 0 Performance.....ordentlich Filtern dagegen kostet Performance.
Da 99% der Tester das AF nur danach bewerten wie rund die Blume im AF-Tester ist war für ATI natürlich schnell klar was man macht und was nicht.
Auch wenn die Performance doch nicht so toll ist wie versprochen, scheint AMD doch ein paar tolle Deals abgeschlossen zu haben:
AMD scheint anlässlich der bald erscheinenden neuen Grafikkartengeneration einen größeren Deal mit Dell abgeschlossen zu haben. Hexus.net berichtet über eine Übereinkunft, die vorsieht, dass der Großteil der hergestellten Radeon-HD-5870-Grafikkarten direkt an Dell geliefert werden. Diese wollen, pünktlich zum Windows-7-Launch, eine neue Desktop-PC-Serie anbieten. Angeblich sollen nur zehn Prozent der hergestellten 5800-Grafikkarten für den Endkundenmarkt gedacht sein.
http://www.pcgameshardware.de/aid,695636/Radeon-HD-5870-Offenbar-nur-geringe-Stueckzahlen-zum-Start-im-Endkundenhandel/Grafikkarte/News/
Ailuros
2009-09-22, 14:10:59
Auch wenn die Performance doch nicht so toll ist wie versprochen, scheint AMD doch ein paar tolle Deals abgeschlossen zu haben:
http://www.pcgameshardware.de/aid,695636/Radeon-HD-5870-Offenbar-nur-geringe-Stueckzahlen-zum-Start-im-Endkundenhandel/Grafikkarte/News/
Schande wer sich boeses dabei denkt ;)
Da 99% der Tester das AF nur danach bewerten wie rund die Blume im AF-Tester ist war für ATI natürlich schnell klar was man macht und was nicht.
Tja, leider kein Paradigmenwechsel, AMD hält uns noch immer für Idioten, die man mit billigen FPS abspeisen kann. AMD hat wohl Recht, ich sehe schon den Computerbase-Artikel vor mir und die anschließenden Forenfangesänge. :frown:
Immerhin kommt was in Bewegung, entweder Nvidia schwenkt auch auf den Sparkurs ein und es gibt dann eben keine vernünftige Filterqualität mehr im Gaming-Bereich, oder dem guten AF steht mit GT300 auch noch offizielles SuperSampling zur Seite.
derguru
2009-09-22, 14:15:33
wenn wirklich am af gespart wird sollte coda sein af artikel ready machen,vom timing gibt es keinen besseren zeitpunkt.
Das wird zu knapp. Ich hab leider noch andere Dinge am Hals im Moment.
2B-Maverick
2009-09-22, 14:20:09
Tja, leider kein Paradigmenwechsel, AMD hält uns noch immer für Idioten, die man mit billigen FPS abspeisen kann. AMD hat wohl Recht, ich sehe schon den Computerbase-Artikel vor mir und die anschließenden Forenfangesänge. :frown:
Immerhin kommt was in Bewegung, entweder Nvidia schwenkt auch auf den Sparkurs ein und es gibt dann eben keine vernünftige Filterqualität mehr im Gaming-Bereich, oder dem guten AF steht mit GT300 auch noch offizielles SuperSampling zur Seite.
ShadowXXX und Gast:
solange ihr nicht wisst, ob und wie AMD/ATI da was verbessert haben oder nicht, könntet ihr mit eurem rum-geflame euch doch noch zurückhalten, oder?
Ihr stellt hier Vermutungen als Tatsachen in den Raum.
Könnte zur Beantwortung der Frage denn nicht ein fachmännischer Blick in den freien RadeonHD-Treiber helfen?
Der DDX-Treiber ist wohl nicht die richtige Anlaufstelle für AF. Der R300 Mesatreiber kann AF, da wird auch nicht gespart, sprich da wird dann gemacht was die Hardware kann. Ich müsste mir mal ansehn ob bei R(V)5xx für das winkelunabhängige AF ein zusätzliches Statusregister oder sonst was gesetzt werden muss, denke aber nicht. Beim R600 Mesatreiber ist AF noch nicht implementiert soweit ich weiß. Viel herauslasesn kann man da sowieso nicht, AF ist ein in Hardware gegossenes Feature das ich als Treiberprogrammierer mehr oder weniger "anschalten" muss.
Naja, es muss auch Register für die Qualität geben, sonst würde A.I. nicht funktionieren können. Die Frage ist ja ob man auch lückenlose Filterung einstellen kann oder nicht. Weil unter Windows tut das ATI zumindest nie.
reunion
2009-09-22, 14:30:02
Wie ich schon vor unzähligen Post sagte: tiefer griff in die Marketing-Trickkiste.
Ein Winkelunabhängiges AF kostet zwar ein paar Transistoren mehr, aber es kostet 0 Performance.....ordentlich Filtern dagegen kostet Performance.
Da 99% der Tester das AF nur danach bewerten wie rund die Blume im AF-Tester ist war für ATI natürlich schnell klar was man macht und was nicht.
Auch ein "ordentlicher" Filter würde letztendlich nur mehr Transistoren kosten.
ShadowXX
2009-09-22, 14:37:24
Auch ein "ordentlicher" Filter würde letztendlich nur mehr Transistoren kosten.
Im Gegenteil, ein ordentlicher Filter würde sogar Transistoren sparen....wie Coda schon erwähnte opfert ATI extra Transistoren um "schlechter" in Hardware filtern zu können.
Das Problem ist nunmal das ordentliches AF Leistung kostet. Und so wie es aussieht war ATI scheinbar nicht gewillt diesen Preis zu bezahlen.
LolekDeluxe
2009-09-22, 14:37:27
ja was jetzt, will einfach die schnellste single gpu karte, der rest ist mir egal (Crysis) und sobald der GT300 da ist fliegt der RV870 ziemlich sicher recht weit aus meinem rechner ;-)
Wirst Du wirklich für 15-25% mehr Leistung bereit sein den doppelten Preis zu bezahlen.:freak:
Ich befürchte das AMD wegen der Blume gelobt wird, obwohl sich praktisch nichts gebessert hat.
Verstehe deine Aussage nicht...
Wenn die Blume besser aussieht, dann hat sich doch was geändert ;)
Wenn sich nichts geändert hätte, dann wäre die Blume gleich, oder?
Die Blume sagt nichts über die Abtastung aus.
Auch ein "ordentlicher" Filter würde letztendlich nur mehr Transistoren kosten.
Nein. Würde er nicht. Im Gegenteil.
reunion
2009-09-22, 14:40:36
ShadowXXX und Gast:
solange ihr nicht wisst, ob und wie AMD/ATI da was verbessert haben oder nicht, könntet ihr mit eurem rum-geflame euch doch noch zurückhalten, oder?
Ihr stellt hier Vermutungen als Tatsachen in den Raum.
So ist es. Keiner hat eine 5870, keiner hat das genau untersucht und jeder weiß jetzt schon was Sache ist. Das es mit AI_low einen perfekten Filter geben wird glaube ich zwar auch nicht, aber vielleicht hat AMD zumindest die Qualität verbessert und/oder liefert mit AI_low wie bei R5xx perfekte Qualität. Q bei NV ist schließlich auch alles andere als perfekt. Zusätzlich ist das SSAA eine sehr nette Neuigkeit, den mit SSAA sind die gesparten Samples praktisch belanglos. Was natürlich bei Spielen bei denen man zu wenig Performance hat auch nicht viel bringt, keine Frage. Aber das SSAA wurde schließlich hier von den NV-Fanboys geradezu gebetsmühlenartig in den Himmel gelobt, jetzt gibt es von AMD wohl sogar sparsed grid SSAA. Aber man regt sich natürlich lieber über Dinge auf die man noch gar nicht weiß und welche ev. nicht verbessert wurden.
reunion
2009-09-22, 14:41:19
Nein. Würde er nicht. Im Gegenteil.
Na klar, alles nur eine Frage der Texelfüllrate. Ein G80 verliert ja auch nicht mehr mit AF wie ein G7x, ganz im Gegenteil.
Naja, es muss auch Register für die Qualität geben, sonst würde A.I. nicht funktionieren können. Die Frage ist ja ob man auch lückenlose Filterung einstellen kann oder nicht. Weil unter Windows tut das ATI zumindest nie.
Schon richitg, nur muss man die nicht setzen damit AF funktioniert, sofern mir mein Gedächtnis keinen Streich spielt. Ich hab schon länger nichts mehr damit gemacht, ich werd mich die Woche mal wieder ein wenig einlesen und bei gelegenheit schaun ob ich zu R600 was finde. Offen gesagt würde es mich wundern wenn die neuen Chips nicht gescheit filtern könnten.
MuLuNGuS
2009-09-22, 14:43:10
Wirst Du wirklich für 15-25% mehr Leistung bereit sein den doppelten Preis zu bezahlen.:freak:
woher nimmst du bloß immer deine infos, laß uns teilhaben.
san.salvador
2009-09-22, 14:45:44
woher nimmst du bloß immer deine infos, laß uns teilhaben.
Füttern verboten!
Na klar, alles nur eine Frage der Texelfüllrate. Ein G80 verliert ja auch nicht mehr mit AF wie ein G7x, ganz im Gegenteil.
Das ist eine komische Logik. Man kann sehr wohl auch gutes AF mit weniger TMUs anbieten. Man müsste dann halt die schlechtere Performance eingestehen.
StefanV
2009-09-22, 14:50:30
Ja klar, die Leute haben alle einen I7 und ne aktuelle GPU, aber einen TFT aus der Steinzeit?! Du wirst lachen, aber das ist in der Tat ziemlich oft so, das zu einem 1500€ System ein 150€ Schirm gestellt wird.
Schau mal im PCGHx Forum, was da teilweise für Schirme mit Rechnern kombiniert werden, da bekommst Kopfschmerzen...
reunion
2009-09-22, 14:52:57
Das ist eine komische Logik. Man kann sehr wohl auch gutes AF mit weniger TMUs anbieten. Man müsste dann halt die schlechtere Performance eingestehen.
Oder man verbaut mehr TMUs um auch die zusätzlichen Samples ohne Performanceverlust darstellen zu können. Nichts anderes habe ich behauptet. Ich wüsste nicht was daran jetzt so komisch ist.
StefanV
2009-09-22, 14:53:29
Wieso wuerde ueberhaupt jemand auf einen Bildschirm mit nativer 1280 Aufloesung eine 350-400 Euro GPU knallen waere das erste Fragezeichen.
Frag ich mich auch, aber es gibt genug Leute, die das machen (würden)...
Bin ja PCGHx.de geschädigt, da gibts einige, die irgendwelche billigsten Schirme oder uralten mit neuen High End Karten (oder zumindest halbwegs) kombinieren...
Oder man verbaut mehr TMUs um auch die zusätzlichen Samples ohne Performanceverlust darstellen zu können. Nichts anderes habe ich behauptet. Ich wüsste nicht was daran jetzt so komisch ist.
Du hast behauptet: "Auch ein "ordentlicher" Filter würde letztendlich nur mehr Transistoren kosten." Die Antwort ist: Nein, würde er nicht.
Richtig ist: "Gleiche Füllrate bei ordentlichem Filter würde mehr Transistoren kosten".
deekey777
2009-09-22, 14:57:37
Das ist eine komische Logik. Man kann sehr wohl auch gutes AF mit weniger TMUs anbieten. Man müsste dann halt die schlechtere Performance eingestehen.
Weil die Shader-ALUs auf die Daten der TMUs länger warten müssen?
(Ja, ich nerve.)
Jopp. Wobei das nur dann zutrifft, wenn man die Daten auch gleich braucht. Man kann unterdessen durchaus auch schon etwas anderes rechnen.
Anekdote: CineFX konnte dies nicht. Das war auch das große Problem an der Architektur.
reunion
2009-09-22, 14:59:14
Du hast behauptet: "Auch ein "ordentlicher" Filter würde letztendlich nur mehr Transistoren kosten." Die Antwort ist: Nein, würde er nicht.
Richtig ist: "Gleiche Füllrate bei ordentlichem Filter würde mehr Transistoren kosten".
Ich schrieb nicht ohne Grund "letztendlich". Man sollte natürlich schon in der Lage sein mal ein/zwei Schlussfolgerungen im Kopf zu ziehen, dann ist meine Aussagen auch korrekt. Natürlich kann man auch einen besseren Filter anbieten ohne mehr in TMUs zu investieren, dann kostet es logischerweise mehr Performance, das ist ja überhaupt keine Frage. Auf alles was ich hinaus wollte war das es nicht zwangsläufig Leistung kosten muss.
deekey777
2009-09-22, 15:03:12
Jopp. Wobei das nur dann zutrifft, wenn man die Daten auch gleich braucht. Man kann unterdessen durchaus auch schon etwas anderes rechnen.
Und da fängt man sich im Kreis zu drehen, wenn der "Ultra-Threaded-Dispatcher" keinen passenden Thread findet (bzw. keinen Thread findet, der so heavy ist, dass die ALUs eine Zeit lang beschäftigt sind).
Oder ist diese Sichtweise falsch?
Ailuros
2009-09-22, 15:09:41
Normalerweise sollte man manchen ATI Herren eins ueber den Schaedel knallen wenn man ihre Aussagen der Vergangenheit ueber SSAA z.B. bedenkt. Wenn man jahrelang sich so dickkoepfig gegen Thema X oder Y stellt, dann wundert es mich tatsaechlich was wohl der Grund war dass sie ihre Meinung geaendert haben.
Wie dem auch sei falls bei default die Evergreen Familie immer noch mit optimierten AF ankommt und der Benutzer kann nichts daran aendern, waere es generell angebracht dass sich die Kundschaft und ueberhaupt die groessten Fanatiker als Erste daruber beschweren.
So und dass die Verfuegbarkeit anfangs begrenzt sein wird ist wohl ueber einige Koepfe geflogen oder?
Und da fängt man sich im Kreis zu drehen, wenn der "Ultra-Threaded-Dispatcher" keinen passenden Thread findet (bzw. keinen Thread findet, der so heavy ist, dass die ALUs eine Zeit lang beschäftigt sind).
Oder ist diese Sichtweise falsch?
Ich verstehe nicht was du meinst. Wenn im Programm eine Sample Instruction auf Register X auftaucht, und dieses danach weiterrechnet ohne X zu verwenden, dann laufen diese Berechnungen parallel zum Sampling in der TMU.
Wenn diese Rechnungen lang genug dauern bevor man X verwendet hat man nichts verloren. Wenn sie "zu früh" fertig sind stallt die ALU.
Das ganze ist natürlich im Schnitt gerechnet auf mehrere tausend Threads und somit vereinfacht.
Neocroth
2009-09-22, 15:16:42
Irgendwie kommt die Frage jeden Tag aufs neue.
Damals zu FX Zeiten, dann zu GF6, zur GF7, zur GF8, .... Jetzt zur HD5.
Ja mein Gott, dann ist nicht jedes Spiel in höchster Detailstufe in höchster Auflösung mit SSAA nutzbar.
Dreh mal den Spiess um, immer mehr Spiele sind keine Herausforderung, wohin mit der Leistung? Bei einer Geforce wars immer klar, in SSAA, teils auch bei neuen Spielen.
Faktisch gibts immer mehr alte Spiele, mit jedem neuen Spiel gibts ein neues altes Spiel.
Lies meinen Post nochmal. Ich meinte, es wäre klüger gewesen, das Plus an Mehrleistung in besseres AF zu stecken, bevor man Geschütze wie SSAA auffährt, welche verglichen zum AF massiv Leistung kosten. Die Prioritäten stimmen hier meiner Meinung nach nicht...
Außerdem: wenn ich Geld in neue Hardware investiere, dann kann ich zumindest ein ordentliches Leistungsplus erwarten, welches üblicherweise reicht, um alles in höchsten Details zu spielen. Würde ich mich mit weniger zufrieden geben, dann bräuchte ich eh keine 5870, meine aktuelle 4870 tuts genau so :freak:
Armaq
2009-09-22, 15:20:05
Welche HighEnd-Grafikkarte war direkt zum Launch überall verfügbar? Selbst wenn ihr alle schon die Karten im Rechner habt, solange nichts bewiesen ist ist nichts bewiesen.
Der Exklusivdeal mit Dell ist doch eine schöne Sache für AMD. Das der 40nm TSMC-Prozess keine Wunder erwirkt wussten doch alle.
Bisschen differenzierter kann man die Sache schon betrachten. Die 58xx ist keine heilige Kuh, aber auch nicht die Sau die man durchs Dorf treiben muss, vor allem nicht, wenn sie noch im Stall steht.
Spasstiger
2009-09-22, 15:20:44
Normalerweise sollte man manchen ATI Herren eins ueber den Schaedel knallen wenn man ihre Aussagen der Vergangenheit ueber SSAA z.B. bedenkt. Wenn man jahrelang sich so dickkoepfig gegen Thema X oder Y stellt, dann wundert es mich tatsaechlich was wohl der Grund war dass sie ihre Meinung geaendert haben.
Mitarbeiter kommen und gehen. Offenbar waren die diesmaligen Entscheidungsträger der Meinung, dass optionales SSAA sinnvoll ist. Die Filmindustrie machts vor, da wird immer mit SSAA gerendert.
Adaptives Supersampling bei Raytracing. Und bei Reyes kostet Supersampling aus Prinzip nicht sehr viel - da wird das Shading auch nicht pro Sample ausgeführt sondern pro Micropolygon.
Der Vergleich hinkt etwas. Am PC bekommt man immer gleich annähernd die halbe oder viertel Leistung raus.
Ailuros
2009-09-22, 15:25:02
Welche HighEnd-Grafikkarte war direkt zum Launch überall verfügbar? Selbst wenn ihr alle schon die Karten im Rechner habt, solange nichts bewiesen ist ist nichts bewiesen.
Der Exklusivdeal mit Dell ist doch eine schöne Sache für AMD. Das der 40nm TSMC-Prozess keine Wunder erwirkt wussten doch alle.
Bisschen differenzierter kann man die Sache schon betrachten. Die 58xx ist keine heilige Kuh, aber auch nicht die Sau die man durchs Dorf treiben muss, vor allem nicht, wenn sie noch im Stall steht.
Gut ist der Deal schon aber an grosse Mengen denkt auch wohl keiner. Und der Deal ist hauptsaechlich gut weil man damit majestaetisch Intel's Hose anpinkeln kann und kichernd davontrottet. :D
Mitarbeiter kommen und gehen. Offenbar waren die diesmaligen Entscheidungsträger der Meinung, dass optionales SSAA sinnvoll ist. Die Filmindustrie machts vor, da wird immer mit SSAA gerendert.
Im Anhang zu Coda's Post versuch Mal Pixar's adaptiven Algorithmus im PC anzuwenden. Fuer temporal AA sind es bis zu 64x samples. Soll das ein Witz sein?
Spasstiger
2009-09-22, 15:32:23
Ich sage nicht, dass man die in der Filmindustrie üblichen AA-Algorithmen implementiert, sondern ich sage nur, dass für eine filmreife Optik SSAA unabdingbar ist. Je beeindruckender die Optik wird, desto störender fällt Aliasing aller Art auf. Flimmernde Polygonkanten sind heute das geringste Problem.
FSSSAA ist aber nicht die richtige Lösung für das Problem. Das Aliasing muss in den Pixelshadern vermieden werden. Auch dort kann man Supersampling einsetzen wenn es sein muss. Es ist total sinnlos einen Shader der nur eine Textur filtert und sonst nichts tut mit SS zu bearbeiten.
Insofern ist ATIs Ansatz nur bestimmte flimmeranfällige Shader mit AAA zu bearbeiten ja gar nicht so dumm - falls es wirklich so gemacht wird.
LovesuckZ
2009-09-22, 15:34:58
Welche HighEnd-Grafikkarte war direkt zum Launch überall verfügbar?
rv870 ist nicht High-End. :freak:
High-End war immer verfügbar - jedenfalls seit dem NV40/r420 Debakel. Je billiger neue "High-End" ist, desto größer muss natürlich die Auslieferungsmenge sein, da es eine deutlich größere Käuferschicht gibt.
Der Exklusivdeal mit Dell ist doch eine schöne Sache für AMD.
Bis jetzt sehe hier keinen Vorteil. Wenn man jedoch dazu gezwungen wäre, um auch die Prozessor zu Dell zu bringen, dann empfinde ich es eher als Nachteil.
Insofern ist ATIs Ansatz nur bestimmte flimmeranfällige Shader mit AAA zu bearbeiten ja gar nicht so dumm - falls es wirklich so gemacht wird.
Inwieweit kann man die Shader ermitteln, die stärker zum Flimmern neigen?
Inwieweit kann man die Shader ermitteln, die stärker zum Flimmern neigen?
Gar nicht. Das müsste per Profil gemacht werden.
derguru
2009-09-22, 16:21:37
das wäre ja eine heiden arbeit und man würde gar nicht hinterher kommen.mit profilen kann ich mir das nicht vorstellen.warscheinlich wird bei jeder shaderermittlung es angewendet und nicht nur bei flimmernden.
wer hat schon lust profilabhängig zusein,ich nicht.mir reicht schon die profilabhängigkeit im cf.
Wirst Du wirklich für 15-25% mehr Leistung bereit sein den doppelten Preis zu bezahlen.:freak:
Der GT300 wird ziemlich sicher mehr bieten als nur ca. 20% Leistung oder wie viel es am schluss auch sein werden, Cuda / PhysX / Treiber / SLI das alles sind für mich grosse pluspunkte die AMD so nicht bieten kann.
.warscheinlich wird bei jeder shaderermittlung es angewendet und nicht nur bei flimmernden
Shaderermittlung? :|
LovesuckZ
2009-09-22, 16:40:54
Der GT300 wird ziemlich sicher mehr bieten als nur ca. 20% Leistung oder wie viel es am schluss auch sein werden, Cuda / PhysX / Treiber / SLI das alles sind für mich grosse pluspunkte die AMD so nicht bieten kann.
nVidia wird bestimmt keine 25% schnellere Karte für 100% Aufpreis anbieten. Das hat schon beim GT200 nicht geklappt und wird auch nicht irgendwann in drei Monaten funktionieren.
Der GT300 wird ziemlich sicher mehr bieten als nur ca. 20% Leistung oder wie viel es am schluss auch sein werden, Cuda / PhysX / Treiber / SLI das alles sind für mich grosse pluspunkte die AMD so nicht bieten kann.
Was willst du mit Cuda?
PhysX hat keine Zukunft.
Treiber sind bei ATI schon deutlich besser geworden.
SLI ... bietet ATI nicht. Dafür Crossfire ...
Der GT300 wird ziemlich sicher mehr bieten als nur ca. 20% Leistung oder wie viel es am schluss auch sein werden, Cuda / PhysX / Treiber / SLI das alles sind für mich grosse pluspunkte die AMD so nicht bieten kann.
Also bietet AMD keine Treiber an?
Oder was wolltest du uns damit sagen?
Und komm jetzt nicht damit, dass die NV-Treiber besser sind, das stimmt nämlich nicht, zumindest unter Windoof.
derguru
2009-09-22, 16:42:29
Shaderermittlung? :|
bei jedem shader ist ja gut.trotzdem wären profile bs.
Das Problem ist, dass ab D3D10 einfach alles Shader sind ;)
Armaq
2009-09-22, 17:04:05
rv870 ist nicht High-End. :freak:
High-End war immer verfügbar - jedenfalls seit dem NV40/r420 Debakel. Je billiger neue "High-End" ist, desto größer muss natürlich die Auslieferungsmenge sein, da es eine deutlich größere Käuferschicht
Was ist es denn? Es wird die schnellste verfügbare Einzelkarte. High-End. Ich kann auch nicht behaupten, der Bugatti Veyron ist kein HighEnd, denn 3 Jahre später kommt ja vll. was schnelleres. Zeitpunktbezogene Aussagen lassen sich nicht durch Zeitpunktverschiebungen relativieren.
LovesuckZ hat da eine etwas eigenwillige Definition. Lass ihn einfach.
deekey777
2009-09-22, 17:40:01
LovesuckZ hat da eine etwas eigenwillige Definition. Lass ihn einfach.
Ich präzisiere: Die Aussage von AMD zu Zeiten des R600/RV670, dass sie keine Highendchips mehr herstellen wollen, hat es ihm wirklich angetan.
Was willst du mit Cuda?
PhysX hat keine Zukunft.
Treiber sind bei ATI schon deutlich besser geworden.
SLI ... bietet ATI nicht. Dafür Crossfire ...
PhysX hat keine Zukunft? Wie jetzt: Wird die UE3-Engine nicht mehr mit PhysX ausgeliefert? o_O
w0mbat
2009-09-22, 17:57:44
PhysX@GPU meint er wohl.
skampi
2009-09-22, 17:58:32
Ich präzisiere: Die Aussage von AMD zu Zeiten des R600/RV670, dass sie keine Highendchips mehr herstellen wollen, hat es ihm wirklich angetan.
PhysX hat keine Zukunft? Wie jetzt: Wird die UE3-Engine nicht mehr mit PhysX ausgeliefert? o_O
Sollte wohl heissen: PfüsiX als Alleinstellungsmerkmal hat keine Zukunft.
PhysX@GPU meint er wohl.
Was für ein Unsinn. Im Übrigen würde ich auch den AMD-Fans empfehlen, langsam von der Argumentationsscheine runterzukommen, Physikeffekte seien auf Multi-Core-CPUs besser aufgehoben, weil sich diese sowieso nur langweilen. AMD versucht neben Havok einen zweiten Anlauf auf der GPU:
AMD arbeitet an eigener Physik-Lösung für Grafikkarten (http://ht4u.net/news/20948_amd_arbeitet_an_eigener_physik-loesung_fuer_grafikkarten/)
Die Lösung ist mir im Grunde sehr sympathisch, weil sie herstellerunabhängig läuft, mal sehen wie es die Spieleentwickler sehen.
Es kann gut sein, dass NVIDIA auch schon längst ein OpenCL-Backend für PhysX entwickelt hat.
Die Portierung von CUDA nach OpenCL dürfte relativ einfach sein und man hält sich damit die Option offen.
Sollte wohl heissen: PfüsiX als Alleinstellungsmerkmal hat keine Zukunft.
Natürlich nicht. NVIDIA spielt diese Karte aber so lang sie können.
reunion
2009-09-22, 18:11:35
Eine Gigabyte-Präsentation: http://www.scribd.com/doc/20009711/Gigabyte-GVR587D51GDB-graphics-card
LovesuckZ
2009-09-22, 18:15:37
Sollte wohl heissen: PfüsiX als Alleinstellungsmerkmal hat keine Zukunft.
Nicht? Kann es AMD auch schon? ;D
Wer redet von der Gegenwart?
=Floi=
2009-09-22, 18:22:28
zitat
NVIDIA spielt diese Karte aber so lang sie können
anders geht es ja aktuell auch nicht. es gibt doch schlicht noch keinen ocl treiber für die anderen karten und man wird wohl erst mit DX11 damit anfangen, dies flächendeckend zu supporten.
Sollte wohl heissen: PfüsiX als Alleinstellungsmerkmal hat keine Zukunft.
Genau das habe ich gemeint. Entweder wird PhysX unter CS laufen oder es wird einem Standard weichen müssen, das nicht auf einen GPU-Hersteller beschränkt ist.
LovesuckZ
2009-09-22, 18:27:03
Wer redet von der Gegenwart?
Auch in der Zukunft wird es nicht geöffnet werden.
Dann können sie es langfristig komplett begraben. Ich wette dagegen.
Was für ein Unsinn. Im Übrigen würde ich auch den AMD-Fans empfehlen, langsam von der Argumentationsscheine runterzukommen, Physikeffekte seien auf Multi-Core-CPUs besser aufgehoben, weil sich diese sowieso nur langweilen. AMD versucht neben Havok einen zweiten Anlauf auf der GPU:
AMD arbeitet an eigener Physik-Lösung für Grafikkarten (http://ht4u.net/news/20948_amd_arbeitet_an_eigener_physik-loesung_fuer_grafikkarten/)
Die Lösung ist mir im Grunde sehr sympathisch, weil sie herstellerunabhängig läuft, mal sehen wie es die Spieleentwickler sehen.
Wobei diese "Lösungen" eines gemeinsam haben, nämlich OpenCL. Das wird nVidia ja durch DX11 auch unterstützen (müssen). Insofern wird nVidia auch ATIs Lösungen supporten, umgekehrt jedoch nicht. Um das Gleichgewicht künstlich zu erhalten, wird nVidia viel (sehr viel und sehr lange) Kohle an Entwickler pumpen müssen ... oder sie lassen PhysX in OpenCL laufen. So oder so wird nVidia PhysX mehr oder weniger aufgeben müssen.
LovesuckZ
2009-09-22, 18:30:36
Ihre Aussagen und ihre Taten. Wenn sie PhysX öffnen würden, dann hätten sie wohl kaum die Unterstützung in Zusammenspiel mit anderen Rendergrafikkarten unterbunden.
Das können sie zur Zeit ja auch noch tun, weil es keine Alternative gibt. Denk doch mal nach.
Das wird nVidia ja durch DX11 auch unterstützen (müssen).
He? Nein. DirectX 11 enthält DirectCompute. Das ist zwar ähnlich, aber kein OpenCL.
Es gibt aber dennoch schon OpenCL-Betatreiber von NVIDIA ;)
LovesuckZ
2009-09-22, 18:42:08
Das können sie zur Zeit ja auch noch tun, weil es keine Alternative gibt. Denk doch mal nach.
Ein offenes GPU-PhysX ist einfach sinnlos. Dann können sie es auch wieder abstoßen. Sie haben Ageia bestimmt nicht gekauft, um als Physik-Middleware Anbieter einzusteigen.
puntarenas
2009-09-22, 18:43:57
PhysX zu pflegen kostet zunächst einmal Geld und wie groß wäre der Nutzen für Nvidia, wenn PhysX nicht mehr exklusiv die hauseigenen GPUs verkauft?
Ich finde Tombmans Gedanken von neulich immer noch sehr interessant, dass Nvidia (und AMD, womöglich in einer partiellen Allianz) eigentlich eine Spieleengine mit allem drum und dran kostenlos bereitstellen und pflegen sollten, um die PC-Plattform und vor allem PC-exklusive Titel zu pushen. In einem solchen Kontext wäre auch PhysX eine feine Sache, ansonsten ab damit ins Klo sobald eine OpenCL-Engine sich durchsetzt, die man nicht teuer selbst pflegen muss.
Ich träume mal, Cry-Engine kaufen, PhysX integrieren, Soundengine, ein grundlegendes Contentpaket (Texturen, Shader, Physikeffekte), Tools, Tools, Tools und als Freie Software ins Netz, da würde manch Studio die Kreativabteilung aufstocken und den PC ganz neu entdecken. Die Piranhas könnten eine Welt erschaffen, statt die dritte Engine in Folge, Adventures müssten sich nicht mehr an der OGRE-Engine abarbeiten, sondern könnten daherkommen wie MI2@Cry-Engine, Rollenspiele...
Ein offenes GPU-PhysX ist einfach sinnlos. Dann können sie es auch wieder abstoßen. Sie haben Ageia bestimmt nicht gekauft, um als Physik-Middleware Anbieter einzusteigen.
Es ist für die Hersteller von Spielen aber auch sehr einfach zwischen einem kostenpflichtigen PhysX das nur auf NVIDIA läuft und einem kostenlosen Bullet (Open Source) zu wählen das überall läuft ;)
Sony steckt in Bullet massiv Kohle rein, und ATI jetzt wohl auch.
PhysX zu pflegen kostet zunächst einmal Geld und wie groß wäre der Nutzen für Nvidia, wenn PhysX nicht mehr exklusiv die hauseigenen GPUs verkauft?
Ich finde Tombmans Gedanken von neulich immer noch sehr interessant, dass Nvidia (und AMD, womöglich in einer partiellen Allianz) eigentlich eine Spieleengine mit allem drum und dran kostenlos bereitstellen und pflegen sollten, um die PC-Plattform und vor allem PC-exklusive Titel zu pushen. In einem solchen Kontext wäre auch PhysX eine feine Sache, ansonsten ab damit ins Klo sobald eine OpenCL-Engine sich durchsetzt, die man nicht teuer selbst pflegen muss.
Ich träume mal, Cry-Engine kaufen, PhysX integrieren, Soundengine, ein grundlegendes Contentpaket (Texturen, Shader, Physikeffekte), Tools, Tools, Tools und als Freie Software ins Netz, da würde manch Publisher die Kreativabteilung aufstocken und den PC ganz neu entdecken. Die Piranhas könnten eine Welt erschaffen, statt die dritte Gammelengine in Folge, Adventures müssten sich nicht mehr an der OGRE-Engine abarbeiten, sondern könnten daherkommen wie MI2@Cry-Engine, Rollenspiele...
Eine wirklich gute Idee. Das könnte so funktionieren - WENN sich nvidia und ATI kooperieren würden ....
Schade.
Black-Scorpion
2009-09-22, 18:54:15
Normalerweise sollte man manchen ATI Herren eins ueber den Schaedel knallen wenn man ihre Aussagen der Vergangenheit ueber SSAA z.B. bedenkt.
Und warum sollte man das tun?
Sie bieten es dann wenigstens offiziell an.
NV nicht, auch wenn es immer als großer Vorteil für NV herhalten muss.
derguru
2009-09-22, 18:55:22
erste auflistung von einem deutschen händler,werden in der nacht bestimmt noch viele folgen.
VGA ASUS Extreme AH5870/2DIS/1GD5 1024 (http://www.csv-direct.de/artinfo.php?artnr=A0620347)
VGA XFX HD5850 1024MB (http://www.csv-direct.de/artinfo.php?artnr=A0620351)
LovesuckZ
2009-09-22, 18:56:22
Es ist für die Hersteller von Spielen aber auch sehr einfach zwischen einem kostenpflichtigen PhysX das nur auf NVIDIA läuft und einem kostenlosen Bullet (Open Source) zu wählen das überall läuft ;)
PhysX läuft erstmal überall - nämlich der CPU. Entweder man hat PhysX für die generelle Physik oder nicht. Abgesehen davon müsste dann auch fragen, warum es überhaupt kostenpflichtige Middleware gibt, wenn das kostenlose genauso gut wäre. Also soweit sind wir bestimmt noch nicht.
Sony steckt in Bullet massiv Kohle rein, und ATI jetzt wohl auch.
Vorallen bei Sony bezweifel ich, dass der selbe Build kostenlos zur Verfügung gestellt wird und überall gleichgut läuft. Das wäre dann genauso sinnlos wie GPU-PhysX auf jeder Grafikkarte. Und AMD kann schön viel Geld reinstecken, es bringt ihnen kein Gegenwert, wenn es genauso gut auch auf nVidia-Hardware läuft. Und genau vor dem Problem stünde nVidia, wenn sie PhysX öffnen würden. Niemand der beiden profitiert davon. Denn immerhin müssen sie in die Middleware und in den Entwicklersupport investieren. Ziemlich dämliches Geschäftsmodell.
PhysX läuft erstmal überall - nämlich der CPU.
Großartig. Mit absolut beschissener Performance. :freak:
Das ist nicht was die Spielehersteller wollen um Next-Gen-Physik in ihre Spiele zu integrieren. Sie brauchen eine vereinheitlichte Platform. Bullet läuft übrigens zudem auch noch auf Multi-Core-CPUs weitaus besser als PhysX. Der Multithread-Speedup von dem ist nämlich lausig.
Als einziges wirkliches Argument für PhysX ist noch eine "Sonderzuwendung" von NVIDIA zu nennen.
Vorallen bei Sony bezweifel ich, dass der selbe Build kostenlos zur Verfügung gestellt wird und überall gleichgut läuft.
Es ist Open Source. Du kannst dir den Source runterladen und kompilieren. Und doch, er läuft überall gleich gut.
erste auflistung von einem deutschen händler,werden in der nacht bestimmt noch viele folgen.
VGA ASUS Extreme AH5870/2DIS/1GD5 1024 (http://www.csv-direct.de/artinfo.php?artnr=A0620347)
VGA XFX HD5850 1024MB (http://www.csv-direct.de/artinfo.php?artnr=A0620351)
Keine 2GB? :(
reunion
2009-09-22, 19:08:24
Keine 2GB? :(
Nein, die kommt später. Damit ist man wohl schon mit der 4870 gut gefahren etwas später ein Modell mit doppeltem Speicher nachzuschieben. Dadurch hat man ein zweites mal gute Presse und kann zu beginn auch 1GB Modelle absetzen, welche mit einem 2GB Modell wohl ziemlich unattraktiv werden.
Dann können sie die Dinger gern behalten unter 2GB kommt mir nichts mehr in den Rechner.
erste auflistung von einem deutschen händler,werden in der nacht bestimmt noch viele folgen.
VGA ASUS Extreme AH5870/2DIS/1GD5 1024 (http://www.csv-direct.de/artinfo.php?artnr=A0620347)
VGA XFX HD5850 1024MB (http://www.csv-direct.de/artinfo.php?artnr=A0620351)
kein Displayport? Dachte der wäre bei allen 58xx standart...
LovesuckZ
2009-09-22, 19:15:41
Großartig. Mit absolut beschissener Performance. :freak:
Darum geht es nicht. Man wird wohl kaum zwei unterschiedliche Physik-Engine/Middleware für seine Anwendung verwenden. Also da wird man sich wohl entscheiden. Und wenn die Leute sich gegen PhysX entscheiden, dann können sie es auch dicht machen. Öffnen ist einfach Geldverschwendung.
Das ist nicht was die Spielehersteller wollen um Next-Gen-Physik in ihre Spiele zu integrieren. Sie brauchen eine vereinheitlichte Platform.
Ich bezweifel, dass daran großes Interesse besteht. Man nutzt jetzt nichtmal die Reserven der CPUs aus und kommt ziemlich gut mit geringer bis keiner vernünftigen Physik-Implementierung aus. Also geht es wohl eher darum, welche Middleware erlaubt mein Problem am besten umzusetzen. Und danach wird man über GPU-Beschleunigung nachdenken.
1GB bei der HD5850 ist ok, aber die HS5870 sollte schon 2GB haben.
LovesuckZ
2009-09-22, 19:17:13
Vorallen in Bezug auf Eyefinity und 8xMSAA ist Speicher enorm wichtig. Also dort sollte man wohl auf die 2GB Version warten.
Daredevil
2009-09-22, 19:18:27
Auch wenn die Performance doch nicht so toll ist wie versprochen, scheint AMD doch ein paar tolle Deals abgeschlossen zu haben:
http://www.pcgameshardware.de/aid,695636/Radeon-HD-5870-Offenbar-nur-geringe-Stueckzahlen-zum-Start-im-Endkundenhandel/Grafikkarte/News/
So eine News..... gabs die nicht auch zu R600 zeiten?
Die uber R600 geht zum großteil nach Dell weil sie ja so ultra mega geil war... ;)
reunion
2009-09-22, 19:18:58
Vorallen in Bezug auf Eyefinity und 8xMSAA ist Speicher enorm wichtig. Also dort sollte man wohl auf die 2GB Version warten.
Die 5870 "SIX" hat ohnehin 2GB. Aber generell würde ich auch keine solch schnelle Karte mit nur einem GB kaufen.
Tyrann
2009-09-22, 19:28:58
Die 5870 "SIX" hat ohnehin 2GB. Aber generell würde ich auch keine solch schnelle Karte mit nur einem GB kaufen.
weiss jemand ob bei der six hdmi- und dvi-adapter dabei sind?
reunion
2009-09-22, 19:29:34
Nein, abwarten bis sie vorgestellt wird.
Black-Scorpion
2009-09-22, 19:29:53
Gab es die News nicht schon gestern?
Warum wird sich heute schon wieder daran hochgezogen.
Sonst beschwert sich auch jeder das einer vom anderen abschreibt.
Jetzt schreibt die PCGH ab und es wird darüber diskutiert wie die Weltmeister.
Muss man nicht verstehen.
Ronny145
2009-09-22, 20:56:52
http://www.czechgamer.com/novinky/5055/ATI-Radeon-HD-5870-prvni-benchmarky-jsou-venku.html
In HAWX schneller als 4870 X2. 8.66 beta 2 kam zum Einsatz.
edit
scheint wohl alt zu sein...
Neocroth
2009-09-22, 21:01:41
Darum geht es nicht. Man wird wohl kaum zwei unterschiedliche Physik-Engine/Middleware für seine Anwendung verwenden. Also da wird man sich wohl entscheiden. Und wenn die Leute sich gegen PhysX entscheiden, dann können sie es auch dicht machen. Öffnen ist einfach Geldverschwendung.
Sie werden sich gegen PhysX entscheiden. Einfach weil was offenes da ist, das sowohl auf ATi als auch auf nVidia performant läuft.
Welches Argument hätte nVidia also für GPU-beschleunigtes PhysX (außer vllt. monetäre "Gründe)?
Ich bezweifel, dass daran großes Interesse besteht. Man nutzt jetzt nichtmal die Reserven der CPUs aus und kommt ziemlich gut mit geringer bis keiner vernünftigen Physik-Implementierung aus. Also geht es wohl eher darum, welche Middleware erlaubt mein Problem am besten umzusetzen. Und danach wird man über GPU-Beschleunigung nachdenken.
Ja, weil die CPUs nicht performant genug sind :freak:
Du bestätigst mir mit diesem Post nur das, was ich dir im nV-Thread schon geschrieben habe. Als Entwickler werde ich entweder x86 für meine Physik-Berechnungen verwenden oder ich riskiere, einen Teil meiner Arbeit einer geringen Käuferschicht zugänglich zu machen und damit ist das ganze letztenendes verschwendete Zeit - wie es auch eine Implementierung von DX10.1 wäre. Wäre es anders, würden es wohl mehr Entwickler einsetzen, oder? :freak:
habe gerade gehört man sollte auf die 2gig Varianten warten....
Die 5870 "SIX" hat ohnehin 2GB. Aber generell würde ich auch keine solch schnelle Karte mit nur einem GB kaufen.
hä, so langsam gehts echt los..keiner NV Karte geht mit 4x4 SSAA der Ram aus in 1920x1200 un die ATIs haben doch eh die bessere Speicherverwaltung höhr ich seid Ewigkeiten...wieso soll man bei der Gurke (was anderes ist es nicht)auf einmal nicht mehr mit 1gig auskommen..weil das AF noch genau so grottig ist oder wie..oder versteh ich was falsch?
y33H@
2009-09-22, 22:19:45
keiner NV Karte geht mit 4x4 SSAA der Ram aus in 1920x1200Täusch dich da mal nicht. Mindestens 1G sind Pflicht.
Blacksoul
2009-09-22, 22:20:43
hä, so langsam gehts echt los..keiner NV Karte geht mit 4x4 SSAA der Ram aus in 1920x1200 un die ATIs haben doch eh die bessere Speicherverwaltung höhr ich seid Ewigkeiten...wieso soll man bei der Gurke (was anderes ist es nicht)auf einmal nicht mehr mit 1gig auskommen..weil das AF noch genau so grottig ist oder wie..oder versteh ich was falsch?
Eine 4870 mit 512MB reicht heute nicht mehr. Und nur die gab es zum launch. Ich mache den Fehler jedenfalls nicht noch einmal.
t.b.d
ich rede auch nicht von 512..
Das Ding ist ein Bandbreitenkrüppel³ mit den 12er Gurkenram und sonst nix.
reunion
2009-09-22, 22:22:47
Eine 4870 mit 512MB reicht heute nicht mehr. Und nur die gab es zum launch. Ich mache den Fehler jedenfalls nicht noch einmal.
t.b.d
Genau so sieht es aus. Habe mir damals auch eine 8800GTS/512 gekauft. Damals reichte der VRAM, heute ist es der Bottleneck. Lieber etwas mehr VRAM, erhöht auch den Wiederverkaufswert oft erheblich.
y33H@
2009-09-22, 22:23:01
@ Gast
Woher willst du wissen, dass die HD5870 ein Bandbreiten-Krüppel ist? An dem Wert, errechnet aus SI und Takt? ;D
sieht man doch im jeden Bench oder willste mir jetzt was anderes weißmachen wollen?
Genau so sieht es aus. Habe mir damals auch eine 8800GTS/512 gekauft. Damals reichte der VRAM, heute ist es der Bottleneck. Lieber etwas mehr VRAM, erhöht auch den Wiederverkaufswert oft erheblich.
booaaahhh was für ein Mumpitz es geht um 1gig oder siehste irgendwo eine 512er 5870?
Wenn euch nix mehr einfällt kommt nur noch Quark :-)
Black-Scorpion
2009-09-22, 22:32:07
sieht man doch im jeden Bench oder willste mir jetzt was anderes weißmachen wollen?
Du meinst die vielen Benches ohne Angabe der Einstellungen, des Sys usw.?
Und das einiges davon vielleicht nicht an der Bandbreite sondern am CPU Limit liegt?
Bis jetzt gab es nirgends Ergebnisse die wirklich was aussagen.
Advanced
2009-09-22, 22:33:34
sieht man doch im jeden Bench oder willste mir jetzt was anderes weißmachen wollen?
Es gab doch noch gar keine Tests mit übertaktetem VRam, wo man sehen konnte, dass es etwas gebracht hätte.
ach ne?
Auf den Mißt ist doch hier die ganze Lobhudelei ausgelegt auf zig Seiten, bis auf wenige Ausnahmen, aber die werden ja Gewissenhaft irgnoriert....
Beim Negativen gild das natürlich nicht....zum Totlachen, ich bin dafür die Shcreibrechte in Foren dem IQ anzupassen.
y33H@
2009-09-22, 22:35:21
sieht man doch im jeden Bench oder willste mir jetzt was anderes weißmachen wollen? Sieht man nicht in den Benches. Dafür bräuchtest du eine HD4890 als Vergleich. Zudem bedenke die Treiber. Die Karte ist nicht Bandbreiten-limitiert ... so blöd ist AMD nicht.
reunion
2009-09-22, 22:35:46
booaaahhh was für ein Mumpitz es geht um 1gig oder siehste irgendwo eine 512er 5870?
Wenn euch nix mehr einfällt kommt nur noch Quark :-)
Na du bist ja ein ganz ein cleveres Kerlchen. Oder auch nicht. Auch damals waren 512MB VRAM mehr als genug. Heute nicht mehr. Ähnliches darf bei dem 1Gb Modell erwartet werden.
was willste bei den Gurken Dingern übertakten...die springen vor lauter Angst vom PCB :-)
die schnellen werden die bei der 5890 verbauen.
Black-Scorpion
2009-09-22, 22:38:53
Und du hoffst das du weiter schreiben kannst?
Ein "Gast" der Forderungen stellt ist ja mal was ganz neues.
Na du bist ja ein ganz ein cleveres Kerlchen. Oder auch nicht. Auch damals waren 512MB VRAM mehr als genug. Heute nicht mehr. Ähnliches darf bei dem 1Gb Modell erwartet werden.
Red kein Blech ich habe 1gig zu 2gig verglichen und sonst nix, verdreh anderen die Worte im Mund.
Und du hoffst das du weiter schreiben kannst?
Ein "Gast" der Forderungen stellt ist ja mal was ganz neues.
Jaaaa darauf hab ich gewartet, paßt.
y33H@
2009-09-22, 22:41:13
@ Gast
Aha, aber dann behaupten, die Karte wäre Bandbreiten-limitiert? Das ist Bullshit.was willste bei den Gurken Dingern übertaktenWenn du schon verglichen hast, sag mir mal, wie hoch der Takt im CCC geht?
derguru
2009-09-22, 22:42:06
900/1300
hey zuppi ein bier zuviel?^^
Daran soll ich das jetzt festmachen, der wie?
Aber schon klar die Karten laufen locken mit 1400mhz... :-)
y33H@
2009-09-22, 22:45:30
@ derguru
Spielverderber ;D ;)
900/1300
hey zuppi ein bier zuviel?^^
wow echt 100 mhz oc, das haut mich jetzt vom Hocker :D naja man kann das Ding ja auf 1v setzten, dann geht bestimmt mehr...
Zuppi > Freitags Rotwein Herr Kollesche :-)
Sorkalm
2009-09-22, 22:47:47
Na du bist ja ein ganz ein cleveres Kerlchen. Oder auch nicht. Auch damals waren 512MB VRAM mehr als genug. Heute nicht mehr. Ähnliches darf bei dem 1Gb Modell erwartet werden.
Naja, ich sag mal, es kommt drauf an, was man damit machen will. Wer Eyefinity nutzen will, dem würde ich natürlich 2 GiB dringend anraten. Aber ganz so schnell steigt der VRAM-Bedarf zum Glück ja doch nicht, das der sich jedes Jahr verdoppelt. Dann müsste ja auf den Karten von 1999 1 MiB RAM empfehlensgewesen wert gewesen sein, etwas mehr wars doch. ;)
Eine Verdopplung alle 2 Jahre wären 1024 / 2^(10/2) = 32 - und 32 MiB passt für 1999 eher.
@ derguru
Spielverderber ;D ;)
Das Guru rennt wenigstens net in anderen Foren mit nem anderen Namen rumm... :-)
@ derguru
Spielverderber ;D ;)
Du mit mir...ich lach mich wech..da mußte aber früher aufstehen :lol:
y33H@
2009-09-22, 22:53:27
Das Guru rennt wenigstens net in anderen Foren mit nem anderen Namen rumIch nicht :D Ich renne hier wie sonst auch überall als y33H@ rum. Der PCGH-Acc wird nur bei offiziellen Sachen ausgepackt, Rest ist meine private Sache. Die Tour zieht nicht ;)
Ich nicht :D Ich renne hier wie sonst auch überall als y33H@ rum. Der PCGH-Acc wird nur bei offiziellen Sachen ausgepackt, Rest ist meine private Sache. Die Tour zieht nicht ;)
So so, dann wissen wir ja jetzt, wer die ganzen "Gäste" hier sind ... :D
Man ist das Offtopic, aber sowas von!
tombman
2009-09-22, 22:59:46
Also wenn HD5870, dann ganz sicher die 2Gb "six" Version. 1Gb ist bei diesen Karten lächerlich.
Nur leider sind wir dann bei 400€, und dann ist nix mehr mit "günstig" ;)
Fazit: GT300 FTW :)
y33H@
2009-09-22, 22:59:50
@ Gast
Ich bin kein Gast, bin "Hardcore Member" :tongue:
Fazit: GT300 FTWWarts doch erst mal ab ;)
bissel Spaß muß sein, wenn wir schon kein anständiges AF bekommen :D
und kein Mensch brauch einschließlich 1920x1200 2gig.
@ Gast
Ich bin kein Gast, bin "Hardcore Member" :tongue:
Warts doch erst mal ab ;)
bei euren Schmeilis kann man ja für euch nur hoffen das, das Ding trotz allem kein Reinfall ist, sonst habt ihr euch bis in die Steinzeit unglaubwürdig gemacht :D
Nur leider sind wir dann bei 400€, und dann ist nix mehr mit "günstig" ;)
Fazit: GT300 FTW :)
Wenn die 300er Yields nicht besser werden, wirste für eine 300er Karte 800€ berappen dürfen :freak:
Wollen wir hoffen, dass nV schnell die Kurve kratzt ;-)
Also wenn HD5870, dann ganz sicher die 2Gb "six" Version. 1Gb ist bei diesen Karten lächerlich.
Nur leider sind wir dann bei 400€, und dann ist nix mehr mit "günstig" ;)
Fazit: GT300 FTW :)
Dann haste bis jetzt ja nur lächerliche Karten gehabt, gut zu wissen.
LovesuckZ
2009-09-22, 23:05:27
Wenn die 300er Yields nicht besser werden, wirste für eine 300er Karte 800€ berappen dürfen :freak:
Wollen wir hoffen, dass nV schnell die Kurve kratzt ;-)
Wie sind denn die Yields? :confused:
/edit: Wo sind eigentlich die NDA Brecher? Kann nicht angehen, dass man bis 6 Uhr warten muss!
derguru
2009-09-22, 23:06:58
zur zeit würde ich aber auch sagen das 1 gb reicht aber wer weiß was die zukunft bringt.
@y33H@
immer dieses wartet mal ab und dann noch der smiley dazu,hrrr.
wie ist das mit dem artikel,kommt der artikel auch um 6 uhr?
http://www.yields.de/
nett gewußt? zeee
zur zeit würde ich aber auch sagen das 1 gb reicht aber wer weiß was die zukunft bringt.
@y33H@
immer dieses wartet mal ab,hrrr.
wie ist das mit dem artikel,kommt der artikel auch um 6 uhr?
G300 ?
tombman
2009-09-22, 23:11:02
Dann haste bis jetzt ja nur lächerliche Karten gehabt, gut zu wissen.
Lern lesen. Stichwort "diesen" :rolleyes:
Wenn die 300er Yields nicht besser werden, wirste für eine 300er Karte 800€ berappen dürfen :freak:
Um mit den Worten der bitch zu antworten, die Sir-Mix-A-Lots Aufforderung "Put your titties on the glass!" vernimmt: "And don't think i won't!" :cool:
Wie sind denn die Yields? :confused:
Weiß er doch gar nicht- viele glauben eben Charlies Müll...
was ist den an diesen "anders"...verrats uns, was 2 gig bei "diesen" so wichtig ist das man 2gig brauch.
Weiß er doch gar nicht- viele glauben eben Charlies Müll...So siehts aus .. aber irgendwie is beunruhigend, dass nV da kein großspuriges whooop Ass Dementi bringt.
Ok, vielleicht nehmen sie Charlie nicht ernst genug, aber sogar er bekommt jetzt Mitleid mit nV ...
Naja warten wirs ab und beenden wir die Diskussion solange, wir sind hier eh im falschen Thread ;-)
ciao
Alex
y33H@
2009-09-22, 23:15:17
@ derguru
When it's done. Der Fall des NDA ist immer Teil des NDA, ergo ist das Nennen des Falls des NDAs ein Bruch des NDAs *uff* Ansonsten: "The same procedure as every launch, derguru."
tombman
2009-09-22, 23:15:44
was ist den an diesen "anders"...verrats uns, was 2 gig bei "diesen" so wichtig ist das man 2gig brauch.
1.) GTA4
2.) Eyefinity
3.) SSAA
mapel110
2009-09-22, 23:16:35
wie ist das mit dem artikel,kommt der artikel auch um 6 uhr?
Ja, dann werden die ersten Tests aufschlagen. Wann PCGH aus dem Bettchen kommt, weiß ich nicht. ^^
derguru
2009-09-22, 23:19:29
Ja, dann werden die ersten Tests aufschlagen. Wann PCGH aus dem Bettchen kommt, weiß ich nicht. ^^
y33H@ pennt doch eh nit.:biggrin:
y33H@
2009-09-22, 23:19:45
Zum Glück arbeiten heutige CMS auch von alleine ... wäre ja grausam, wenn jeder Reviewer bei jedem Launch um 06.00h aufs Knöpfen drücken müsste, damit das Review um 06.01h online geht :ulol:y33H@ pennt doch eh nit.Davon mal abgesehen ;)
1.) GTA4
2.) Eyefinity
3.) SSAA
1 und 2 juckt mich nett
3. war schon der 295er wurscht und die hat weniger...und das mit AF :-)
ergo vollkommener Nonsens deinen Argumente.
y33H@
2009-09-22, 23:22:59
3. war schon der 295er wurscht Die kackt mit 16xS bereits in 1.680 gerne mal ab ;D Alles unter 2G in Kombination mit 1.680 oder höher ist mit SSAA auf Geforces n Spiel mit dem Feuer.
Ich fühle mich gerade wie auf einer Sylvesterparty ... Fehlt nur noch das Feuerwerk.
jo, mußt halt nett so übertreiben :-), mir reichte immer 8xs oder 2x2 :-) in 1920x1200, einwandfrei, in keinem Game abgekackt,noch nicht mal bei Oblivion mit 12 gig Zusatz....
stop das einzigste Game was kurz stehen bleibt ist G3 aber das juckt eh keinen mehr.
Soweit ich weiß, erlaubt D3D11 einen großen Sprung bei der Texturauflösung. Es kann also schon sein, dass zukünftige Spiele sehr bald auf großen VRAM angewiesen sein werden.
y33H@
2009-09-22, 23:30:08
Auf deren anderen Seite sind die Möglichkeiten zur Kompression iirc deutlich besser :upara:
tombman
2009-09-22, 23:32:00
1 und 2 juckt mich nett
3. war schon der 295er wurscht und die hat weniger...und das mit AF :-)
ergo vollkommener Nonsens deinen Argumente.
"Juckt mich ned" ist erst recht kein Argument :rolleyes:
Und die 295er kackt extrem früh ab, da ihr der Ram ausgeht...
Komm wieder, wenn du über 25 bist, melde dich an, schalt das Hirn ein und dann poste- ansonsten wirst von mir ab jetzt ignoriert...
jo das kommt dazu..ich glaub ich warte auf dx12 mit 4 gig Karten, ich laß mich doch nett verarschen..
2GB sind einfach mehr, größer, breiter ... länger. Glaub ja nicht, dass es nur auf die Technik ankommt!
"Juckt mich ned" ist erst recht kein Argument :rolleyes:
Und die 295er kackt extrem früh ab, da ihr der Ram ausgeht...
Komm wieder, wenn du über 25 bist, melde dich an, schalt das Hirn ein und dann poste- ansonsten wirst von mir ab jetzt ignoriert...
muhaaaaaaa jawohll mein Herr und Gebieter......und mach dir mal über mein Hirn keinen Kopp das geht ganz gut :-)
Und wenn mir die olle 295er 1x abgekackt wäre,, hätte sie sich in Nachbarsgarten wieder gefunden. schneller wie du hättest "Pups" sagen können...ich streit mich doch nett mir so Lümmeln rumm tztz.
Superheld
2009-09-22, 23:35:40
http://www.tomshw.it/graphic.php?guide=20090923
Jake Dunn
2009-09-22, 23:36:53
1.Review
http://www.tomshw.it/graphic.php?guide=20090923
...to late ^^
2GB sind einfach mehr, größer, breiter ... länger. Glaub ja nicht, dass es nur auf die Technik ankommt!
genau...die Länge ist egal <> ist eh die größte Lüge der Welt..haben Frauen erfunden glaube ich :D
cipoint
2009-09-22, 23:38:33
Etwa 30% schneller als GTX285 in Crysis und Stalker CS mit 4xAA. Ist doch ganz ok.
Ich hoffe die Reviews klären die Frage ob es eine 2GB Version sein muß. Aber GTAIV mit maximaler Sichtweite, TexturMods von Crysis oder HL2 wären schon interessant. Selbst mit meinem 19 Zöller:-)
Wer weis was Rage, AvP, Dirt2 und wie sie alle heißen wirklichen brauchen?
tombman
2009-09-22, 23:40:48
muhaaaaaaa jawohll mein Herr und Gebieter......und mach dir mal über mein Hirn keinen Kopp das geht ganz gut :-)
Und wenn mir die olle 295er 1x abgekackt wäre,, hätte sie sich in Nachbarsgarten wieder gefunden. schneller wie du hättest "Pups" sagen können...ich streit mich doch nett mir so Lümmeln rumm tztz.
Uuuund... tschüss ;)
http://www.tomshw.it/graphic.php?guide=20090923
Der erste StreikNDA-Brecher?
Neocroth
2009-09-22, 23:41:49
warum nie wenigstens mit 8xMSAA und 16xAF bzw. warum bei HAWX mit 8xMSAA aber ohne AF?
:confused:
cipoint
2009-09-22, 23:41:52
Energieverbrauch ist ja mal nice. Unter Furmakr weniger als GTX285 und im Idle sowieso ... sauber!
Zur BQ haben die aber gar nichts, oder?
y33H@
2009-09-22, 23:42:20
Aber GTAIV mit maximaler Sichtweite, TexturMods von Crysis oder HL2 wären schon interessant.Der Parcours kommt mir bekannt vor ;)warum bei HAWX mit 8xMSAA aber ohne AF?Weil die Radeons hier mit 16:1 AF derbe Fps verlieren. Ein Schelm, wer böses denkt.
LovesuckZ
2009-09-22, 23:42:58
http://www.tomshw.it/graphic.php?guide=20090923
Komische Qualitätseinstellung - 8xAA - 0xAF... Könnte man meinen, dass wäre von AMD vorgegeben...
Leider wurde der Stromverbrauch im Furmark getestet, dafür scheint die Karte nochmal lauter als eine GTX285 zu sein.
Ansonsten sieht es interessant aus.
Iceman346
2009-09-22, 23:43:06
http://www.tomshw.it/graphic.php?guide=20090923
Idleverbrauch sieht sehr gut aus, Lautstärke sieht net so gut aus, und zum AA/AF scheint im Test leider nix zu stehen, sonderlich interessant ist er also net :/
1.Review
http://www.tomshw.it/graphic.php?guide=20090923
...to late ^^
hmmm da bin ich jetzt aber mal gespannt...
no af..no af... was soll das denn?
Hilft mir nur nett weiter...
285er SLI rockt :D
von den Balken her ist es sehr gut!!!!!
Müßt man halt mehr wissen ssaa flimmern etc. aber mal ein Anfang
y33H@
2009-09-22, 23:45:00
8x MSAA und kein AF. Noch mehr pro Radeon geht kaum ... Zudem fucking NDA-Brecher ;(
Botcruscher
2009-09-22, 23:46:08
Ganz nett. Das steigert die Vorfreude auf deutsch-sprachige Techartikel und auf G300.
dildo4u
2009-09-22, 23:46:24
http://www.tomshw.it/graphic.php?guide=20090923
Benchguide von ATI der nur 8XAA erlaubt?THG hat doch noch nie nur 8XAA gebencht.
mit AF in den "ausgesuchten" Games wären die Balken wohl nur halb so lang..ich ahne fürchterliches..
Jake Dunn
2009-09-22, 23:46:52
Geht doch ^^
http://www.abload.de/img/powerconsumptiont0ma.png (http://www.abload.de/image.php?img=powerconsumptiont0ma.png)
die Verbrauchswerte sind komisch
Ne 4870X2 verbraucht @Idle genausoviel wie ne GTX285?
Und die 4890 liegt Idle und Last unter GTX285?
Und die 5870 soll im Idle ca 60W unter GTX 285 liegen die im Idle nur ca 40W braucht?
da kann was nicht stimmen
derguru
2009-09-22, 23:57:44
die benchmarks werden immer katastrophaler,immer so wie es gerade paßt.
hmm lauter als die 4890,nit gut.
Jake Dunn
2009-09-22, 23:57:48
die Verbrauchswerte sind komisch
Ne 4870X2 verbraucht @Idle genausoviel wie ne GTX285?
Und die 4890 liegt Idle und Last unter GTX285?
da kann was nicht stimmen
Liegt an den beschissenen NV Treibern, wo 2D nur mit Glück geht ;D
tombman
2009-09-22, 23:58:00
.it Test angesehen:
IMO kann die 5870 zu wenig- für mich als 2x GTX295er user "zu wenig Druck"...
mit AF in den "ausgesuchten" Games wären die Balken wohl nur halb so lang..ich ahne fürchterliches..
Wenigstens wird die Qualität nicht weiter gesenkt, sonst gäbs keinen Grund für diese Vorgehensweise.
Gleiche Qualität ist anzunehmen, kostet doch unschön Balkenlänge das böse AF.
Bessere Qualität kann man postulieren, halte ich leider für absurd, man testet nicht ohne, wenns schicker aussieht.
Nakai
2009-09-23, 00:01:12
Ohne AF? Dann heißt das wohl, dass der RV870 AF hasst...
mfg Nakai
Liegt an den beschissenen NV Treibern, wo 2D nur mit Glück geht ;D
Welche Treiber meinst du?
Ich habe noch keinen Treiber kennengelernt, der 2D nicht mag.
Liegt an den beschissenen NV Treibern, wo 2D nur mit Glück geht ;D
da is der Test für mich für die Tonne
derguru
2009-09-23, 00:06:18
kann einer italienisch?steht da was über af qualität oder rgssaa?
horny wo biste wenn man dich braucht.;D
.it Test angesehen:
IMO kann die 5870 zu wenig- für mich als 2x GTX295er user "zu wenig Druck"...
Nicht nur für dich.
Was kann sie den besser? AF wohl nicht, arger Minuspunkt für die HD5.
Wenn ich drüber nachdenke bin ich sogar froh drum, muss ich mir nicht den Kopf zerbrechen wann ich endlich bestelle, ich lass es einfach. Kommt Zeit kommt Rat, mal sehen obs GT300 besser macht, wenn nicht überlege ich mal weiter.
Die benches mit AF sehen eigentlich auch ganz gut aus. Von daher bin ich zuversichtlich.
kann einer italienisch?steht da was über af qualität oder rgssaa?
http://74.125.43.132/translate_c?hl=de&sl=it&tl=de&u=http://www.tomshw.it/graphic.php%3Fguide%3D20090923&prev=hp&rurl=translate.google.de&usg=ALkJrhjdGRLDQ9vFEKg-EYxpThcoK0GpSA
;D
Die benches mit AF sehen eigentlich auch ganz gut aus. Von daher bin ich zuversichtlich.
Zuversichtlich weshalb?
Das man AF aktivieren kann,
das am AF genauso gespart wird
?
Schließlich ist es ein innovatives Produkt, Ziel durch die Verwaltung der Video-Ausgänge und die Verbesserung der Bildqualität erreicht wurden.
Was auch immer das bedeutet.
tombman
2009-09-23, 00:19:27
http://www.abload.de/img/5870cfn9tl.jpg (http://www.abload.de/image.php?img=5870cfn9tl.jpg)
:rolleyes:
Textur-Kompression wurde verbessert, das das 256bit Speicherinterface weniger belastet wird
Produktdiskussionen auf Grund eines THG Reviews. *lol*
Schon mal daran gedacht, dass AF eventuell auch gut sein könnte?
Reaping_Ant
2009-09-23, 00:25:49
Irgendwie kommt mir der Test spanisch vor - trotz italienischer Sprache.
Die Verbrauchswerte sind äußerst seltsam, irgendwie hat jede Karte Temperaturprobleme (die GTX 285 stürzt angeblich bei STALKER ab) und bei 8xAA ohne AF zu benchen ist ja mal total sinnbefreit. Auf die Bildqualität wird - soweit ich das per Google Translator erahnen kann - auch kein einziges Wort verschwendet.
Was man an Leistungsdaten erahnen kann, sieht recht vielversprechend aus, die Lautstärke dafür nicht so sehr.
Produktdiskussionen auf Grund eines THG Reviews. *lol*
Schon mal daran gedacht, dass AF eventuell auch gut sein könnte?
Die Blume ist gut, mehr ist Spekulation.
Ich tippe auf null Änderung, passt auch zu dem ungeänderten ALU/TMU/ROP Verhältnis und der Aussage, das der neue AF Algorithmus nichts kostet.
Spasstiger
2009-09-23, 00:28:11
http://www.abload.de/img/5870cfn9tl.jpg (http://www.abload.de/image.php?img=5870cfn9tl.jpg)
:rolleyes:
Teilweise CPU-Limitierung.
Textur-Kompression wurde verbessert, das das 256bit Speicherinterface weniger belastet wird
Die Textur-Kompression ist Sache der Applikation. Das einzige was das verbessert wurde sind die Float-Kompressionsformate für D3D11.
Blaire
2009-09-23, 00:29:13
http://www.abload.de/img/5870cfn9tl.jpg (http://www.abload.de/image.php?img=5870cfn9tl.jpg)
:rolleyes:
Mager sehr mager...
tombman
2009-09-23, 00:29:56
http://www.abload.de/img/5870cf2ybg7.jpg (http://www.abload.de/image.php?img=5870cf2ybg7.jpg)
Teilweise CPU-Limitierung.
Die TMUs drehen Däumchen.
tombman
2009-09-23, 00:33:16
Teilweise CPU-Limitierung.
Kaum, da auf 1680 53.5fps möglich war...
Spasstiger
2009-09-23, 00:34:05
http://www.abload.de/img/5870cf2ybg7.jpg (http://www.abload.de/image.php?img=5870cf2ybg7.jpg)
Entspricht doch den Erwartungen, zumal die Radeon hier dank D3D10.1 besseres AA abliefert (unter D3D10.0 werden weniger Objekte vom AA erfasst).
Mit viel mehr als +50% gegenüber einer GTX 285 habe ich persönlich nie gerechnet.
Kaum, da auf 1680 53.5fps möglich war...
Trotzdem spielt in Teilen der Szene die CPU eine Rolle.
mapel110
2009-09-23, 00:34:32
Da kann man nur sagen, Schwein gehabt ATI, dass ihr einige Zeit vor G300 auf dem Markt seid. Mich reizt die Performance jedenfalls nicht. Mal sehen, wie die Features beleuchtet werden.
dildo4u
2009-09-23, 00:35:36
Entspricht doch den Erwartungen, zumal die Radeon hier dank D3D10.1 besseres AA abliefert (unter D3D10.0 werden weniger Objekte vom AA erfasst).
Mit viel mehr als +50% gegenüber einer GTX 285 habe ich persönlich nie gerechnet.
Sind eher weniger als 50% im Schnitt und single Karten laufen nicht so oft ins CPU Limit bei 1900*1200 mit 4XAA.
http://translate.google.ch/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F149%2F1493519.html&sl=zh-CN&tl=en&hl=de&ie=UTF-8
Spasstiger
2009-09-23, 00:39:44
Sind eher weniger als 50% im Schnitt und single Karten laufen nicht so oft ins CPU Limit bei 1900*1200 mit 4XAA.
http://translate.google.ch/translate?u=http%3A%2F%2Fvga.zol.com.cn%2F149%2F1493519.html&sl=zh-CN&tl=en&hl=de&ie=UTF-8
Dafür gibts auch Fälle, wo die HD 5870 deutlich mehr als 50% schneller ist als die GTX 285:
http://img2.pict.com/99/c3/92/1657768/0/cejfqhcwanhug.png
Auf einem 30-Zöller hier also mit der GTX 285 unspielbar, aber mit der HD 5870 noch an der Erträglichkeitsgrenze (mit solchen fps kam ich in meiner Radeon bei Crysis gut klar und es ließ sich sehr direkt spielen). Über 40 fps muss man bei Crysis auch immer die CPU im Hinterkopf haben.
Da kann man nur sagen, Schwein gehabt ATI, dass ihr einige Zeit vor G300 auf dem Markt seid. Mich reizt die Performance jedenfalls nicht. Mal sehen, wie die Features beleuchtet werden.
Naja, wer schon eine 275 / 285 hat, muss sicher nicht aufrüsten. Aber wenn man sich jetzt nen neuen PC kauft, kann man ne 5870 nehmen, schneller, DX11 und sparsamer auch noch.
ciao
Alex
y33H@
2009-09-23, 00:42:45
Dafür gibts auch Fälle, wo die HD 5870 deutlich mehr als 50% schneller ist als die GTX 285Worst-Case, wo der GTX285 der VRAM ausgeht *Schulter zuck* Andererseits: Seit G80 war NVs Speichermanagement anfällig für so was.
tombman
2009-09-23, 00:43:13
Jo, bei 2560x1600 siehts für die HD5870 besser aus, aber wieviele haben soeinen Schirm?
Irgendwie fehlt mir bei der HD5870 dieser Ausdruck: :eek:
Hoffentlich zaubert der GT300 wieder ein :eek: in mein Gesicht :)
Blaire
2009-09-23, 00:44:38
Teilweise CPU-Limitierung.
Ein bischen aber nur,der Crysis Score mit 2x5870@CF entspricht etwa der Leistung von 3xGTX280
mapel110
2009-09-23, 00:45:03
sparsamer
Das will ich doch erstmal ordentlich gemessen sehen. Die Zahlen kommen mir absurd vor.
Dafür gibts auch Fälle, wo die HD 5870 deutlich mehr als 50% schneller ist als die GTX 285:
http://img2.pict.com/99/c3/92/1657768/0/cejfqhcwanhug.png
Auf einem 30-Zöller hier also mit der GTX 285 unspielbar, aber mit der HD 5870 noch an der Erträglichkeitsgrenze (mit solchen fps kam ich in meiner Radeon bei Crysis gut klar und es ließ sich sehr direkt spielen). Über 40 fps muss man bei Crysis auch immer die CPU im Hinterkopf haben.
Frage: Wie wurden die FPS ermittelt? ;)
Macht einen Unterschied obs im Gefecht im Schlagmichtot totalforder Level oder in GPU Bench4711 geschah.
Worst-Case, wo der GTX285 der VRAM ausgeht *Schulter zuck* Andererseits: Seit G80 war NVs Speichermanagement anfällig für so was.
Kann man so nicht sagen, der 4890 geht da fast im selben Maß der Speicher aus, nach deiner Theorie. ;)
y33H@
2009-09-23, 00:48:40
Die kompensiert das aber besser ;)
tombman
2009-09-23, 00:50:33
Der RV870 ist halt doch nicht viel mehr als ein "dual-core"-RV770 + DX11 Spielereien.
Der GT300 soll ja ein "neues" Design sein- gespannt bin!
Spasstiger
2009-09-23, 00:52:17
Ich glaube, das Problem von zwei HD 5870 im Crossfire ist, dass sie von der aktuellen Spielegeneration unterfordert werden (von Stalker CS und Crysis/Warhead mal abgesehen). Da hilft auch 2560x1600 mit 4xAA oft nicht mehr, um einen großen Unterschied zur Vorgängergeneration zu zaubern.
Zumindest im Vergleich mit alten Radeons würde ich gern mal konsequent alle Spielebenchmarks auch mit 8x adaptivem AA in 2560x1600 sehen. Ich persönlich würde es nutzen, wenn ich die Rechenleistung dazu hätte (2560x1600 ist auch auf meinem 24-Zöller kein Problem, Downsampling sei Dank).
Naja, ich sehe dort die 4890 zwischen GTX 275 und GTX 285. Gut, ich weiß ja nicht was normal ist. ;)
Außerdem sehe ich die GTX 275 mit 896MiB nicht weit hinter der GTX 285 mit 1024MiB.
Das will ich doch erstmal ordentlich gemessen sehen. Die Zahlen kommen mir absurd vor.
Wieso ? Immerhin taktet die Karte schön auf 150/300 runter, und unter Last ist auch klar, dass die wg. 40nm nicht mehr als eine alte X2 verbrät ^^
Aber mal den ht4u Test abwarten, die sind da immer topp...
Der GT300 soll ja ein "neues" Design sein- gespannt bin!
Larrabee ist auch ein neues Design :freak:
Aber gut, nV kennt sich "etwas" besser aus :D
ciao
Alex
boxleitnerb
2009-09-23, 00:54:51
Was mich echt wundert: Das vielgepriesene AF ohne großen Performancehit...wenn man sich mal die Zahlen anschaut, bricht die 5870 oft von no AA, no AF zu 4xAA+16xAF prozentual gleich oder stärker ein als die GTX 285. Hab mir jetzt nicht ALLE Werte hergenommen, aber eine Tendenz ist zu erkennen.
Wieso ? Immerhin taktet die Karte schön auf 150/300 runter, und unter Last ist auch klar, dass die wg. 40nm nicht mehr als eine alte X2 verbrät ^^
Wär mir neu das eine 4890 im Idle bedeutend sparsamer als eine GTX 285 ist.
Sorkalm
2009-09-23, 00:55:40
Larrabee ist auch ein neues Design :freak:
Aber gut, nV kennt sich "etwas" besser aus :D
Ein neues Design kann trotzdem ein G80 oder ein R600 sein. Bei einigen Erweiterungen weiß man mehr, was man vor sich hat. ;)
Trotzdem müsste man den Begriff "neues Design" erstmal diskutieren.
Weitere Diskussionen über Cypress bietet sich trotzdem erst nach 6 Uhr an, auf Basis dieses Reviews werde ich mich jedenfalls nicht äußern. ;)
Hübie
2009-09-23, 00:55:52
Bei Crysis geht doch kein AF wenn POM an ist oder? Das ist wohl auch der Grund warum nur 8xAA...
Frisst POM nicht sogar mehr Leistung?
bye Hübie
LovesuckZ
2009-09-23, 00:56:22
AA benötigt auch Leistung. Imo ist der Leistungseinbruch beim AA zu suchen, da die Bandbreite nicht wirklich erhöht wurde und nVidia bei 4 Color-Samples ziemlich gut mithalten kann. Ich glaube nicht, dass optimiertes AF bei 80 TMUs noch viel Leistung benötigt.
Was mich echt wundert: Das vielgepriesene AF ohne großen Performancehit...wenn man sich mal die Zahlen anschaut, bricht die 5870 oft von no AA, no AF zu 4xAA+16xAF prozentual gleich oder stärker ein als die GTX 285. Hab mir jetzt nicht ALLE Werte hergenommen, aber eine Tendenz ist zu erkennen.
Damit meint AMD imho den Hit im Vergleich zur HD4.
"Juhu, die hübsche PR AF-Blume kostet nichts"
y33H@
2009-09-23, 00:57:56
Bei Crysis geht doch kein AF wenn POM an ist oder?Türlich geht da AF. Frisst POM nicht sogar mehr Leistung?POM zieht mal als AF, ja.
Spasstiger
2009-09-23, 00:59:13
Türlich geht da AF.
Auf den POM-Flächen zeigt es aber keine Wirkung, die wirken in einiger Distanz sehr unscharf.
y33H@
2009-09-23, 01:00:02
Auf dem POM freilich nicht, erst dahinter. POM ist ohne SSAA in meinen Augen eh gruselig. Im vorderen Vordergrund optisch nett, hinten und an der Seite nur Matsch. Mit SSAA (und negativem LOD) wirds nice:
http://www.abload.de/thumb/00_ohne_ssaamv7f.jpg (http://www.abload.de/image.php?img=00_ohne_ssaamv7f.jpg) http://www.abload.de/thumb/01_mit_4x4_ssaaqwaq.jpg (http://www.abload.de/image.php?img=01_mit_4x4_ssaaqwaq.jpg)
Nun ja angeblich auch für Radeons :D
Hübie
2009-09-23, 01:03:35
Also gehts doch net bzw nur eingeschränkt. Das meinte ich doch :tongue:
Wär mir neu das eine 4890 im Idle bedeutend sparsamer als eine GTX 285 ist.
Wer redet denn von einer 4890 ? Da hast Du Dich wohl im Thread verirrt :freak:
Wer redet denn von einer 4890 ? Da hast Du Dich wohl im Thread verirrt :freak:
Den THG Test hast du scheinbar nicht gelesen, oder die Bilder betrachtet. ;)
y33H@
2009-09-23, 01:05:42
@ Hübie
Funktioniert uneingeschränkt, nur sieht man davon kaum was ^^
Den THG Test hast du scheinbar nicht gelesen, oder die Bilder betrachtet. ;)
Nö, Du hast den Thread nicht gelesen und nicht kapiert, worüber ich mich mit mapel110 unterhalte.
Kleiner Tipp: Nein es ist nicht die 4890 :freak:
Nö, Du hast den Thread nicht gelesen und nicht kapiert, worüber ich mich mit mapel110 unterhalte.
Kleiner Tipp: Nein es ist nicht die 4890 :freak:
Ich kapiere alles. ;)
mapel meinte die Zahlen seien absurd. Du warst darüber vewundert. Ich habe dir gesagt was an den Zahlen fehlerhaft ist, in einem Diagramm das vor Fehlern nur strotz, siehe 4890, GTX 285 Verbrauch, ziehe ich keine weiteren Schlüsse.
Hübie
2009-09-23, 01:14:30
@ Hübie
Funktioniert uneingeschränkt, nur sieht man davon kaum was ^^
Okay dann eben so :freak: Sieht ja echt gruselig aus. Ich krame mal eben DX-Tweaker raus.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.