PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - 55nm GPUs: R680, RV670, RV660, RV635, RV620 - Teil 2 (s. #1!)


Seiten : [1] 2 3 4 5 6

AnarchX
2007-10-20, 15:43:39
Letztes Posting: Teil 1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5951074#post5951074)

!!Performance Slides von ATi!! (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6011280#post6011280)


Bei VR-Zone gibt es nunmal eine andere Roadmap zu sehen:
http://img58.imageshack.us/img58/147/r6801b1857wc1.png
http://www.vr-zone.com/index.php?i=5044
Updates:
RV670 im November

S: Samples
P: Massproduction


- Vermarktung als HD3000-Serie (http://www.vr-zone.com/articles/RV670_is_Radeon_HD_3800_Series/5358.html) mit neuem Bezeichnungsystem für die Leistung?

- D3D10.1-Unterstützung(Überblick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5975185&postcount=205))


Infos zum PowerPlay der HD3800-Serie (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6011753&postcount=937)


RV670


AMD-Folien (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6008545&postcount=835)

http://img212.imageshack.us/img212/1451/rv6701ay5.jpg

- Vorstellung: 19. November (http://www.digitimes.com/mobos/a20071001PD211.html) nun 15. November (von Pro und XT)

- Die-Size: 194mm² (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5872984#post5872984)

-Transistorzahl: 666M (http://www.tomshardware.com/cn/119,news-119.html)

- mögliche Verbesserungen gegenüber R600
besser aussehender anisotroper Filter schnelleres AA trotz geringer Bandbreite (optimierte Shader-Resolve?)

HD3800-Series Spezifikationen von AMD:
Teil 1 (http://img85.imageshack.us/img85/7650/02rv670specix5.jpg) und Teil 2 (http://img84.imageshack.us/img84/8630/04rv670specfy1.jpg) und Teil 3 (http://img85.imageshack.us/img85/4020/05rv670spechr6.jpg) von THG.tw (http://www.google.com/translate?u=http%3A%2F%2Fwww.tomshardware.tw%2F162%2Cnews-162.html&langpair=zh%7Cen&hl=en&ie=UTF8)

http://img524.imageshack.us/img524/1024/rv670packagezl8.jpg

http://img507.imageshack.us/img507/4599/2007082235a0bdaaa1874c7le2.jpg

HD3870 und 3850 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5951246&postcount=3)

Finale Taktraten?:
HD3870: 775MHz GPU, 1200MHz Speicher
HD3850: 668MHz GPU, 828MHz Speicher (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5991403&postcount=508)

TDP: (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5872984#post5872984)
RV670Pro - Revival:
62W GPU, 104W gesamt

RV670XT - Gladiator:
85W GPU, 132W gesamt
Update: Gladiator 105W, Revival 95W (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6001779&postcount=699)


RV670 Gladiator
http://img404.imageshack.us/img404/8261/rv6ts9.jpg
http://img520.imageshack.us/img520/6329/wcgrv670testrv670b19633er6.jpg
http://img150.imageshack.us/img150/5408/cardao2.jpg

RV670 Revival
http://img521.imageshack.us/img521/1552/rv670revivalak7.jpg
Mehr Bilder @ Coolaler (http://www.coolaler.com/forum/showthread.php?t=163156)

- Volumenproduktion: 25. September (?)

- 2950X2X bzw. HD3870 X2
http://img162.imageshack.us/img162/9602/r680qw6.jpg

auch bekannt als R670, R680-DDK, bzw. 2x RV680
2x RV670@~750MHz - CF auf einer Karte
ATis "near 1 TFLOP"-Karte
Vorstellung: Q1 2008(frühes)/New Year
210 W TDP
A12 Stepping?


http://img239.imageshack.us/img239/5135/newsgraphicscardmarketfzu2.jpg


andere 55nm R(V)6xx:
http://img166.imageshack.us/img166/5093/r680wt1.jpg
http://www.vr-zone.com/?i=5325

RV635/620 im Januar als Radeon HD 2650 und HD 2500 (http://hkepc.com/?id=110) ->in Engl. (http://www.digitimes.com/news/a20070910PD212.html)

RV635XT?:
http://img231.imageshack.us/img231/6236/rv635xtuw9.jpg

RV620
http://img178.imageshack.us/img178/1473/rv620dpie0.jpg
SKUs (http://img178.imageshack.us/img178/1415/rv620id1.jpg)

http://news.expreview.com/2007-10-19/1192786125d6080.html


"RV620" = ati2mtag_RV610, PCI\VEN_1002&DEV_95C0
"RV620 " = ati2mtag_RV610, PCI\VEN_1002&DEV_95C5
"RV620 " = ati2mtag_RV610, PCI\VEN_1002&DEV_95C7
"RV635" = ati2mtag_RV630, PCI\VEN_1002&DEV_9590
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9596
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9597
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9598
"RV635 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9599
"RV670" = ati2mtag_RV630, PCI\VEN_1002&DEV_9501
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9505
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9507
"RV670 " = ati2mtag_RV630, PCI\VEN_1002&DEV_9500
"R680" = ati2mtag_RV630, PCI\VEN_1002&DEV_950F

Mr.Soapdown
2007-10-20, 16:15:12
Hab nix zu sagen, aber ich möchte mich einfach mal für das kontinuierliche Zusammenfassen und Zusammentragen, bekannter Dinge und Spekus bedanken.
mfg

AnarchX
2007-10-20, 16:52:29
http://img517.imageshack.us/img517/4329/20071020b3b2074ae1f1631hl4.jpg
Verschrieben oder wurde der Takt gesenkt?:|

edit:
THG hat noch bisschen etwas geleakt:
http://img524.imageshack.us/img524/3952/02radeonzr6.jpg
Powerplay? Gab es das schon bei den bisherigen Desktop-Radeons?
http://img524.imageshack.us/img524/752/03radeonuu6.jpg
http://img524.imageshack.us/img524/1675/04radeonur0.jpg
http://www.tomshardware.tw/160,news-160.html

Adam D.
2007-10-20, 17:01:44
Gleich um 50MHz? Autsch :( BTW: Ist dieses "Power-Play" schon älter?

L2K
2007-10-20, 17:31:44
Wie sieht das eigentlich mit CrossfireX aus? Wurden da schon harte Fakten genannt ausser Quadfire?
Es gab ja im April Gerüchte, dass an Multimonitor-Crossfire, Crossfire-Overdrive und natürlich die typischen Optimierungen an der Performance und Skalierung gearbeitet wird ;)

Gast
2007-10-20, 17:47:42
Wieviele TMUs wird der RV670 haben, wieder 16? Damit isser ja nur leicht über dem R600 oder?

James Ryan
2007-10-20, 17:54:36
Gleich um 50MHz? Autsch :( BTW: Ist dieses "Power-Play" schon älter?

Sollte die HD 2950 Pro aka HD 3850 wirklich mit 750 MHz takten?

MfG :cool:

deekey777
2007-10-20, 17:55:26
Wie sieht das eigentlich mit CrossfireX aus? Wurden da schon harte Fakten genannt ausser Quadfire?
Es gab ja im April Gerüchte, dass an Multimonitor-Crossfire, Crossfire-Overdrive und natürlich die typischen Optimierungen an der Performance und Skalierung gearbeitet wird ;)
Unterstützung mehrerer Bildschirme soll mit dem nächsten oder übernächsten Catalyst-Treiber kommen.

w0mbat
2007-10-20, 17:56:08
@James Ryan: Ja. Es kann aber sein, das der Abstand zwischen HD3850 und HD3870 dann zu klein gewesen wäre. 75MHz und eine etwas größere Speicherbandbreite machen nicht viel aus.

laser114
2007-10-20, 17:56:38
http://img517.imageshack.us/img517/4329/20071020b3b2074ae1f1631hl4.jpg
Verschrieben oder wurde der Takt gesenkt?

Vielleicht bezüglich des Single-Slot-Kühlers besser?

Btw: Wenn AMD mit diesen Bezeichnungen so weiter macht, stehen die in drei Jahren ja schon wieder vor dem 9000er-Problem... ;D

Hvoralek
2007-10-20, 18:12:08
Ist dieses "Power-Play" schon älter?Das ist eine Bezeichnung für Stromsparfunktionen von Notebookradeons. Besteht das aus mehr als Heruntertakten?

Adam D.
2007-10-20, 18:18:30
Sollte die HD 2950 Pro aka HD 3850 wirklich mit 750 MHz takten?

MfG :cool:
Naja, was heißt "sollte" ... Waren ja alles nur Spekulationen. Aber es sah einiges nach 750MHz aus.

Das ist eine Bezeichnung für Stromsparfunktionen von Notebookradeons. Besteht das aus mehr als Heruntertakten?
Gute Frage. Wenn ATi hier irgendwas richtiges vor hat, zolle ich ihnen meinen ganzen Respekt ;)

AnarchX
2007-10-20, 18:20:12
Naja, was heißt "sollte" ... Waren ja alles nur Spekulationen. Aber es sah einiges nach 750MHz aus.


Imo sollte sie schon.;)

Aber vielleicht bringen die 50MHz wirklich ein paar deutliche dB weniger...

Gast
2007-10-20, 18:48:19
Oh Gott! Wieder nur ein 256 Bit Interface??? :(

Henroldus
2007-10-20, 18:52:01
Oh Gott! Wieder nur ein 256 Bit Interface??? :(
ist schon länger bekannt, und das 512Bit auch nicht unbedingt performanter sind hat die HD2900XT ja gezeigt ;)
bei hohem speichertakt also weiterhin(noch) kein Problem.
Full HD Monitore sind ja auch noch nicht so verbreitet...

Gouvernator
2007-10-20, 18:55:33
Ich verspreche mir von Crossfire nicht viel... ATI hat noch nicht mal entsprechend softwaremäßig aufgeholt um beide Grafikkarten gleichzeitig übertakten zu können. Bis jetzt muss man aufwendig Monitorkabel umstecken oder beide Karten flashen.

Ailuros
2007-10-20, 19:02:07
Imo sollte sie schon.;)

Aber vielleicht bringen die 50MHz wirklich ein paar deutliche dB weniger...

Ich sagte irgendwo 700-750MHz fuer die "kleine" RV670.

Gast
2007-10-20, 19:34:48
Definitiv nicht. Ich weiss ja nicht, wo du diese Weisheit hast, aber ich habe es ausprobiert. Bei guter Gehäuselüftung bleiben sowohl die X1900XTX (2 Expemplare getestet) und auch die HD2900XT zu 95% auf der 2. Regelstufe, die ist nicht laut.

Ich habe diese Weisheit aus erster Hand, da selbst ausprobiert. Laut oder nicht liegt in der subjektiven Wahrnehmung des Betrachters, darüber werde ich mit dir nicht streiten (in bestimmten Situationen, abends, finde ich das Rastergeräusch meines Mausrades bereits "laut").

Lautheit dagegen läßt sich objektiv messen - und darüber brauchen wir auch nicht zu diskutieren.

Gast
2007-10-20, 19:36:15
Letztes Posting: Teil 1 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5951074#post5951074)

Bei VR-Zone gibt es nunmal eine andere Roadmap zu sehen:
http://img58.imageshack.us/img58/147/r6801b1857wc1.png
http://www.vr-zone.com/index.php?i=5044

S: Samples
P: Massproduction

Ob es sich um einen weitere "Maulwurf-Daten" handelt ist fraglich.


Ich hoffe doch wohl nicht, dass die RV670 Produktion erst 2008 anläuft...

reunion
2007-10-20, 19:39:27
Wie sieht das eigentlich mit CrossfireX aus? Wurden da schon harte Fakten genannt ausser Quadfire?
Es gab ja im April Gerüchte, dass an Multimonitor-Crossfire, Crossfire-Overdrive und natürlich die typischen Optimierungen an der Performance und Skalierung gearbeitet wird ;)

CrossfireX soll unter anderem Unterstützung für drei und vier Grafikkarten bringen, außerdem kommt damit Hybrid-CF, CF-Overdrive und MM-CF. Alles andere steht noch in den Sternen.

Hier eine Folie von Gigabyte, die bestätigt, dass man CF-X bis zu acht Monitore mit vier Grakas möglich sind:

http://img134.imageshack.us/img134/1103/quadcrossfirexf9tv1.jpg (http://imageshack.us)


Powerplay? Gab es das schon bei den bisherigen Desktop-Radeons?


Nein. Kann allerdings gut sein, dass sich das nur auf die Mobile-Chips bezieht.

@James Ryan: Ja. Es kann aber sein, das der Abstand zwischen HD3850 und HD3870 dann zu klein gewesen wäre. 75MHz und eine etwas größere Speicherbandbreite machen nicht viel aus.

Halte ich auch für vernünftig. So würde die XT aka 3870 ja kaum Sinn machen. Und zumindest an den Taktraten des Topmodells hat sich ja nichts geändert.

Ich hoffe doch wohl nicht, dass die RV670 Produktion erst 2008 anläuft...

Wurde schon mehrmals gesagt, dass das nicht mehr aktuell ist. RV670 wurde vorverlegt. Wurde von AMD unlängst bei der Verkündigung der Quartalszahlen bestätigt.

StefanV
2007-10-20, 20:08:35
Wie schauts bei den Crossfire Systemen aus, mit dem Connector da an der Seite, wird der Lüfter bei allen Karten von Anfang an gesteuert oder immer noch nur von der primären??

AnarchX
2007-10-21, 07:55:21
http://img143.imageshack.us/img143/9278/20071021492be3b1ddf6849fl7.jpg
:|

reunion
2007-10-21, 09:39:32
http://img143.imageshack.us/img143/9278/20071021492be3b1ddf6849fl7.jpg
:|

Tja, wie schon gesagt, R680 existiert, und dieser ersetzt die HD2900-Serie. RV670 kann mit seinen 194mm² problemlos im Mainstreambereich mitmischen, wobei ich kaum glaube, dass dieser ähnlich günstig wie aktuell die HD2600-Serie wird. RV670 wird sich zwischen 150-300€ ansiedeln, wo ATi aktuelle gar nichts hat, RV635 dann eben darunter.

Gast
2007-10-21, 11:27:08
Merkwürdig das er "nur" die HD2600 ersetzt, dachte er schlägt einen R600?

Gast
2007-10-21, 11:30:29
AMD hat ja auch eine Performancelücke zu schließen. RV670 als Mainstream R600-Ersatz, R680 als Performance und HighEnd.

Gast
2007-10-21, 11:31:44
Wie soll man das jetzt interpretieren?

2 Möglichkeiten:

1.) RV670 wird nur leicht stärker als die 2600er
2.) Der aktuelle 2600er Mainstreambereich wird von einem Chip ersetzt, der in etwa so schnell wie R600 ist. Von RV670 zu R680 dürfen wir dann trotzdem in etwa noch einen so großen Leistungssprung erwarten wie heute von RV630 auf R600.

reunion
2007-10-21, 11:41:50
1.) RV670 wird nur leicht stärker als die 2600er

Was man schon alleine aufgrund der mehrfach bestätigten 320SPs ausschließen kann. Das Ding wird ein R600-Shrink mit 256-bit SI, höheren Taktraten und leichten Verbesserungen an der Architektur. Die Leistung wird höchstwahrscheinlich über R600 liegen. Auch der Name deutet ja deutlich an, dass der Chip fürs Performance- und nicht fürs Mainstreamsegment konzipiert ist. Es gab ja erst jüngst Infos, dass AMD das Mainstreamsegment neu aufteilt; und zwar in <150€, wo sich wohl RV635 ansiedeln wird, und in 150-300€, wo sich dann RV670 herumschlagen wird.

Gast
2007-10-21, 12:01:15
Es gab ja erst jüngst Infos, dass AMD das Mainstreamsegment neu aufteilt; und zwar in <150€, wo sich wohl RV635 ansiedeln wird, und in 150-300€, wo sich dann RV670 herumschlagen wird.

RV670Pro
RV670XT= Performance

Ailuros
2007-10-21, 12:10:33
...und wer will jetzt ueber Marketing-Quark meckern wenn ich schon D3D10--->D3D10.1 sehe?

Ausser mir kann jemand beweisen dass RV6x0/R6x0 nicht ueber die paar oeden D3D10.1 Features faehig ist pffff....

reunion
2007-10-21, 12:28:53
...und wer will jetzt ueber Marketing-Quark meckern wenn ich schon D3D10--->D3D10.1 sehe?

Ausser mir kann jemand beweisen dass RV6x0/R6x0 nicht ueber die paar oeden D3D10.1 Features faehig ist pffff....

Die Frage ist kannst du das Gegenteil beweisen - also das R600 schon D3D10.1 unterstützt.

Ailuros
2007-10-21, 12:43:28
Die Frage ist kannst du das Gegenteil beweisen - also das R600 schon D3D10.1 unterstützt.

Was beinhaltet denn D3D10.1 dass ein R600 nicht kann?

laser114
2007-10-21, 12:51:32
Shader Model 4.1?
Wobei sich dann wieder die Frage stellt - was wurde da geändert? :D

Wobei ich mir sicher bin, dass AMD mit einer vollständigen DirectX 10.1-Unterstützung der HD-2000-Serie geworben hätte, wäre sie vorhanden gewesen.

reunion
2007-10-21, 12:56:44
Was beinhaltet denn D3D10.1 dass ein R600 nicht kann?

Das weiß ich nicht, deshalb meine Frage. Jetzt einfach den Spieß umzudrehen bringt uns nicht weiter. Jedenfalls gibt es da schon die ein oder andere Änderung: http://www.pcpop.com/doc/App/216398/000555890.html

seahawk
2007-10-21, 14:24:33
http://img143.imageshack.us/img143/9278/20071021492be3b1ddf6849fl7.jpg
:|

Das bedeutzet R680 wird einen ähnlichen Vorteil haben zu RV670 wie heute X2900 vs. X2600. Das wird ne geile kArte. :biggrin:

deekey777
2007-10-21, 14:33:06
Was beinhaltet denn D3D10.1 dass ein R600 nicht kann?
Warum kann die 8800er in UE3-Spielen gegen Kanten mit MSAA vorgehen und die HD2900 nicht?

horn 12
2007-10-21, 14:36:19
Wenn ich die Namensbezeichnung HD 3850 deuten soll, so kann man vielleicht nun gar unter R600 XT Performance ausgehen, da die Zahl "3" nur für den neuen Midrange/ Performance RV670 stehen soll, aber die "3870" unter dem Niveau des 2900 liegt.
Diese Bezeichnung hat ATI immer zugesagt, und so sicher wäre ich mir nun nicht mehr dass gleich/ über dem R600 alias 2900XT liegt.
Denk die AA Performance wurde überarbeitet, und da kann vielleicht der RV670HD3870 punkten, und einige Vorteile bringen. Ebenso kühler, aber leiser?
Alles noch ziemlich unklar!
Wir werden sehen.

Gast
2007-10-21, 14:39:27
Kann ich PCI-Expres 2.0 karten

in mein Asus P5W DH Deluxe einbauen habs erst im märz mit nem c2d gekauft

das kann doch nich angehen das ich keine neue graka einbauen könnte :(

w0mbat
2007-10-21, 14:54:50
@Gast: Nein, kannst du natürlich nicht. PCIe 2.0 ist nur zu AGP kompatibel.

James Ryan
2007-10-21, 15:04:22
Das bedeutzet R680 wird einen ähnlichen Vorteil haben zu RV670 wie heute X2900 vs. X2600. Das wird ne geile kArte. :biggrin:

Gehe eher von einem Unterschied wie bei der Radeon HD 2900 Pro vs XT aus. ;)

MfG :cool:

Ailuros
2007-10-21, 16:16:35
Das weiß ich nicht, deshalb meine Frage. Jetzt einfach den Spieß umzudrehen bringt uns nicht weiter. Jedenfalls gibt es da schon die ein oder andere Änderung: http://www.pcpop.com/doc/App/216398/000555890.html

Und ich zietiere:

Incremental upgrade to D3D10...

Improved rendering quality- more antialiasing control

Erklaerungen stehn in den weiteren slides; siehst Du irgendwas wichtiges dass auf R600 nicht moeglich waere? Ich auf jeden Fall nicht.

Coda
2007-10-21, 16:36:20
Theoretisch kann er alles nicht können was D3D10.1 erfordert.

deekey777
2007-10-21, 16:46:54
Und ich zietiere:

Incremental upgrade to D3D10...

Improved rendering quality- more antialiasing control

Erklaerungen stehn in den weiteren slides; siehst Du irgendwas wichtiges dass auf R600 nicht moeglich waere? Ich auf jeden Fall nicht.
Warum kann die 8800er in UE3-Spielen gegen Kanten mit MSAA vorgehen und die HD2900 nicht?
Das ist möglicherweise der Punkt, was der HD2900 fehlt.

dargo
2007-10-21, 16:48:13
Das ist möglicherweise der Punkt, was der HD2900 fehlt.
Das würde bedeuten, dass ein RV670 wieder MSAA in DX9 bei der UE3 kann. Na, da bin ich mal gespannt.

reunion
2007-10-21, 16:56:19
Das ist möglicherweise der Punkt, was der HD2900 fehlt.

Das ist wohl eher eine Treiberangelegenheit. Ein R600 kann ja MSAA, wenn die .exe in oblivion umbenennt, wenn auch mit Grafikfehlern, aber die gibt es mit einem G8x auch tw. laut PCGH. Vermutlich müsste sich da die Treiberprogrammierer nur mal hinsetzen und das Problem anpacken.

Wenn das was mit D3D10.1 zu tun hätte, dann würde man es zumindest nicht in DX9 anwenden können AFAIK. Und da liegt ja das Problem, unter DX9.

dargo
2007-10-21, 16:59:52
Das ist wohl eher eine reine Treiberangelegenheit. Ein R600 kann ja MSAA, wenn die .exe in oblivion umbenennt, wenn auch mit Grafikfehlern, aber die gibt es mit einem G8x auch tw. laut PCGH.

Vergleiche hier nicht Pünktchen (Bioshock) beim G80 mit richtigen Grafikfehlern beim R600 @Umbenennen der Exe. ;)

reunion
2007-10-21, 17:00:40
Vergleiche hier nicht Pünktchen (Bioshock) beim G80 mit richtigen Grafikfehlern beim R600 @Umbenennen der Exe. ;)

Trotzdem, auch auf einem G8x wird es nicht korrekt dargestellt.

seahawk
2007-10-21, 17:14:26
@Gast: Nein, kannst du natürlich nicht. PCIe 2.0 ist nur zu AGP kompatibel.

Blödsinn. PCIe 2.0 Karten passen in PCIe 1.1 slots.

deekey777
2007-10-21, 17:14:29
Das ist wohl eher eine Treiberangelegenheit. Ein R600 kann ja MSAA, wenn die .exe in oblivion umbenennt, wenn auch mit Grafikfehlern, aber die gibt es mit einem G8x auch tw. laut PCGH. Vermutlich müsste sich da die Treiberprogrammierer nur mal hinsetzen und das Problem anpacken.

Wenn das was mit D3D10.1 zu tun hätte, dann würde man es zumindest nicht in DX9 anwenden können AFAIK. Und da liegt ja das Problem, unter DX9.
Nur sind es verschiedene paar Schuhe: Einmal ist es Erzwingen des MSAA auf einen fp16-RT und dann MSAA Depth Readback, was ein Feature des D3D10.1 ist.
http://forum.beyond3d.com/showpost.php?p=1054437&postcount=45

Nakai
2007-10-21, 17:23:47
Blödsinn. PCIe 2.0 Karten passen in PCIe 1.1 slots.

Ich wette mit dir, dass er das gewusst hat, sondern er hat sich einfach total verschrieben.


mfg Nakai

deekey777
2007-10-21, 17:26:09
Ich wette mit dir, dass er das gewusst hat, sondern er hat sich einfach total verschrieben.


mfg Nakai
Ich wette, dass er das nicht ernst gemeint hat, denn es wurde schon mehrmals erklärt, dass PCIe 1.1 und 2.0 zueinander kompatibel sind, nur die Stromversorgung ist der Punkt, der die beiden unterscheidet.

w0mbat
2007-10-21, 18:32:20
Blödsinn. PCIe 2.0 Karten passen in PCIe 1.1 slots.

Das ist klar, die Antwort war ironisch gemeint, da diese Frage jetzt schon 1000x beantwortet wurde. Und PCIe 2.0 ist auch kompatibel zu PCIe 1.0, nur nicht bei allen Boards.

Gast
2007-10-21, 18:42:43
ja aber hat mein asus p5w dh deluxe pci-e 1.1???

wollte mir im nov dann ne neue highend kaufen...

Gast
2007-10-21, 18:48:51
Die 975er und 965er sind Pci1.0 und der P35 ist Pci 1.1

seahawk
2007-10-21, 19:49:02
ja aber hat mein asus p5w dh deluxe pci-e 1.1???

wollte mir im nov dann ne neue highend kaufen...

Ja, paßt.

Gast
2007-10-21, 19:57:21
p5w dh deluxe is ja 975 also pcie 1.0

seahawk sagt aber passt!

was stimmmt den nun sorry kenne mich damit aber nicht aus dachte hier im expterten forum weis das einer

HOT
2007-10-21, 20:21:33
PCIe 2.0 ist voll abwärtskompatibel zu 1.1 und 1.0.
Das Gerücht der Inkompatibilität geht nur um, weil Asus das beim Blitz MoBo erwähnte, weil der dort verwendete IDT Chip Probs mit PCIe 2.0 macht.
Eine RV670 oder G9x lässt sich in einem 1.1 oder 1.0 Slot betreiben.

seahawk
2007-10-21, 20:34:43
Sofern der Karte nicht 75W+ aus dem Slot zieht, was aber auf Grund des externen Stromanschlusses bei RV670/G92 gar nicht realitisch ist.

Gast
2007-10-21, 20:35:23
PCIe 2.0 ist voll abwärtskompatibel zu 1.1 und 1.0.
Das Gerücht der Inkompatibilität geht nur um, weil Asus das beim Blitz MoBo erwähnte, weil der dort verwendete IDT Chip Probs mit PCIe 2.0 macht.
Eine RV670 oder G9x lässt sich in einem 1.1 oder 1.0 Slot betreiben.

ok thx dann ist die frage ja endlich geklärt in der gamestar computer zeitschrift stand sowas wie

"entgegen früher behauptungen ist der pci-e 2.0 standart doch nicht mit pcie-1.0 kompatibel"

Gast
2007-10-21, 20:36:26
Sofern der Karte nicht 75W+ aus dem Slot zieht, was aber auf Grund des externen Stromanschlusses bei RV670/G92 gar nicht realitisch ist.


haben die neuen grakas neue strom anschlüsse oder so?

hab auch nur ein älteres seasonic netzeil

reunion
2007-10-21, 20:58:13
Sofern der Karte nicht 75W+ aus dem Slot zieht, was aber auf Grund des externen Stromanschlusses bei RV670/G92 gar nicht realitisch ist.

Sie können gar nicht mehr als 75W über den Slot ziehen, auch nicht bei PCIe2.0. Ich weiß nicht wo dieser Märchen herkommt, das ist BS. Einzig die Frequenz wurde verdoppelt und ein zusätzlicher 8 Pin Stromanschluss (150W) wurde eingeführt.

dargo
2007-10-21, 21:18:30
Sofern der Karte nicht 75W+ aus dem Slot zieht, was aber auf Grund des externen Stromanschlusses bei RV670/G92 gar nicht realitisch ist.
Auch ein PCIe 2.0 Slot stellt max. 75W zur Verfügung. ;)

Botcruscher
2007-10-21, 21:36:04
Sie können gar nicht mehr als 75W über den Slot ziehen, auch nicht bei PCIe2.0. Ich weiß nicht wo dieser Märchen herkommt...

Ich schätze mal Verwechselung:

Grafikkarten dürfen in PCI-Express-for-Graphics-(PEG-)Steckplätzen bis zu 300 Watt Leistung verbraten, aus dem Slot selbst aber offenbar wie bisher maximal 75 Watt saugen.

http://www.heise.de/newsticker/meldung/83746

ODER

Weiterhin wurde die maximal mögliche Leistungsaufnahme enorm gesteigert. Laut der PCI Special Interest Group (PCI SIG) dürfen Grafikkarten der 2. Generation jetzt 225 W oder sogar 300 W aus dem PEG Slot ziehen. Diese Karten sollen allerding ein neues Kühlkozept bekommen, welches eine Umgestaltung des Gehäuses notwendig macht.

http://www.planet3dnow.de/vbulletin/showthread.php?p=2901354

HOT
2007-10-21, 22:39:22
Ist aber beides Blödsinn. Ich wüsst auch nicht, wie man das über das Mainboard lösen sollte, da 300W über diese mickrigen Kontrakte des PCIe Slots durchzuschicken, ohne dass die vor sich hinschmilzen :D.
75W aus dem Slot, mehr ist nicht. Die restlichen 225W kommen aus Zusatzsteckern, also 150W durch den 8-poligen und 75W aus dem 6-poligen.

Ailuros
2007-10-22, 05:39:12
Nur sind es verschiedene paar Schuhe: Einmal ist es Erzwingen des MSAA auf einen fp16-RT und dann MSAA Depth Readback, was ein Feature des D3D10.1 ist.
http://forum.beyond3d.com/showpost.php?p=1054437&postcount=45

Mal langsam wenn in UT3 oder weiss der Geier welchem anderem Spiel defered shadowing + MSAA auf beiden GPUs mit ein paar Problemchen (egal wie hoch die Anzahl auf A und B) laeuft, heisst dass wohl eher dass auf weder noch wirklich MSAA unter D3D10 kombiniert werden kann.

Liest Du den Thread oben ganz zu Ende, kann es auch durchaus sein dass das NV Treiberteam auf einem besseren buffer geschossen hat und dass es dort mit weniger Macken laeuft.

Ich bin zwar kein Entwickler, aber ich ernsthafte Zweifel dass man fuer defered shadowing+MSAA ploetzlich D3D10.1 braucht (und lasse mich gerne eines besseren belehren natuerlich...).

Gast
2007-10-22, 08:39:20
Hab nix zu sagen, aber ich möchte mich einfach mal für das kontinuierliche Zusammenfassen und Zusammentragen, bekannter Dinge und Spekus bedanken.
mfgDem kann ich zustimmen - normalerweise finde ich diese unendlichen Sammelthreads immer ganz schlimm zu lesen; nur die Zusammenfassung am Anfang macht es wieder etwas mehr Sinn...

Gast
2007-10-22, 10:28:24
AMD setzt die Karten preislich relativ hoch an, schon die HD 3850 (RV670Pro) soll zwischen 199-249$ liegen:

http://my.ocworkbench.com/bbs/showthread.php?p=422297#post422297

AnarchX
2007-10-22, 10:30:41
Eben vergleichbar zur 8800 GT, deren Benchmarks sich dann woh im Endeffekt auf die Preise auswirken werden, die wir am 15.11. sehen.

HPVD
2007-10-22, 10:34:04
Hallo

Ist schon etwas über den idle Verbrauch (windows desktop) des RV670 bekannt?
Ist ja je nach Anwendung manchmal noch interessanter als der Max Verbrauch

Gruß HPVD

Henroldus
2007-10-22, 10:58:56
Hallo

Ist schon etwas über den idle Verbrauch (windows desktop) des RV670 bekannt?
Ist ja je nach Anwendung manchmal noch interessanter als der Max Verbrauch

Gruß HPVD
es ist noch nichts konkretes bekannt, da die Karte noch nicht auf dem Markt ist.
Der Maxverbrauch ist interessant für die "Netzteildimensionplanung", der idle für den Geldbeutel ;)

Gast
2007-10-22, 12:02:40
wan kommt die ati wo man mit der gtx vergleichen kann ? welche soll das werden ?

Mfg mike

Gast
2007-10-22, 12:10:42
Die HD 3870 sollte es sein, denke ich oder ich bin namensverwirrt. :)

Gast
2007-10-22, 12:52:51
AMD setzt die Karten preislich relativ hoch an, schon die HD 3850 (RV670Pro) soll zwischen 199-249$ liegen:

http://my.ocworkbench.com/bbs/showthread.php?p=422297#post422297

HD 3850 (RV670Pro) ungefähr 10500 Punkte mit nem Q6600 (@ stock?) mit Beta Treibern ...

Was soll denn dann R680 werden, wenn das Mainstream ist? Erstmal Game Benches abwarten und gucken wie es mit AA und hohen Auflösungen ausschaut.

w0mbat
2007-10-22, 13:20:09
Nvidia knew ATI's moves in the past (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3750&Itemid=1)


Spy hard


Nvidia's CEO has built a company on the power to know what the competition is doing. Whatever ATI was doing, in 85 percent of the cases Nvidia managed to top it with a better product.

This is why ATI only managed to take Nvidia’s crown once with the R300 and only got close so many times. Nvidia always had its backup scenarios, as it knew what ATI was doing.

This changed with AMD and with personel changes inside AMD's graphics division, as it looks like ATI’s primary goal is to confuse the press and partners about its upcoming products. Once you do that, Nvidia is in the dark and this is what ATI has to do in order to take the crown back.

Just look at 2007. We dealt with R650, R670 and R680 codenames, different specifications for the R600 PRO and so far Radeon HD 2950 and 3870 names for the RV670. No one really knows what is right and what is wrong anymore, including Nvidia.

It makes our lives harder, but at least it brings some fun into the guessing game in terms of finding out what is right and what is wrong.


Daher auch unterschiedliche Präsentationen mit R670 & R680 als Codenamen für den Dual-RV670 und verschiedene Angaben, z.B. GDDR4 oder GDDR3. Ich denke es wird in Zukunft immer schwerer etwas genaues über ATIs Pläne zu erfahren.

Natürlich wird man die grobe Richtung mitbekommen. Ob eine GPU jetzt den Codenamen R670 oder R680 hat, oder ob die HD2950 oder HD3000 heißt ist völlig egal. Aber damit hat und wird ATI gut Verwirrung stiften.

LovesuckZ
2007-10-22, 13:38:02
heute ist Montag und Fudo hat wohl seine gesammelten Werke auf die Welt losgelassen...

w0mbat
2007-10-22, 13:44:12
Wieso Fudo? Das was er schreibt ist von AMD und nicht von ihm. Ich finde es echt witzig das ihn einige hier beurteilen ohne ihn zu kennen.

LovesuckZ
2007-10-22, 13:57:33
Wieso Fudo? Weil sein Name als Autor des Artikels dort steht? Er kann garnicht wissen, ob nVidia irgendwas weis. Er kann auch nicht diese omminösen 85% wissen. Er schreibt einfach nur irgendwas, um Hits zu bekommen.

w0mbat
2007-10-22, 14:08:34
Du kannst nicht wissen ob er das weis. Fudo weiß deutlich mehr als du in Bezug auf seine Arbeit.

☯Stephan☯
2007-10-22, 14:09:51
RV670XT Single Slot (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3740&Itemid=1)
ja was denn nu??

LovesuckZ
2007-10-22, 14:15:13
Du kannst nicht wissen ob er das weis. Fudo weiß deutlich mehr als du in Bezug auf seine Arbeit.

Ich halte von seiner Art der Veröffentlichung seines "Wissen" wenig. Das du ihn verteidigst, wundert mich nach dem r600 nicht mehr.

Henroldus
2007-10-22, 14:15:59
RV670XT Single Slot (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3740&Itemid=1)
ja was denn nu??
hm,m welche Karte war dann die Dualslotlösung von Chiphell :confused:

☯Stephan☯
2007-10-22, 14:17:45
hm,m welche Karte war dann die Dualslotlösung von Chiphell :confused:

kann ja dann nur noch der 680er sein

Gast
2007-10-22, 14:32:26
Tja, Verwirrung ...

Passt ja zu dem was Fudo geschrieben hat. Lassen wir uns überraschen :).

laser114
2007-10-22, 15:46:26
Hmm, PCGHW nennt heute die RV670PRO-Karte Radeon HD 3750:
http://www.pcgameshardware.de/?article_id=618146

Dafür, dass dies kein Tippfehler ist, spricht das in dieser News für den R670PRO auch der Name zu finden - coexistent neben der 3850:

http://www.pcgameshardware.de/?article_id=618007

Wo kommt der denn her?

AnarchX
2007-10-22, 15:46:28
82W GPU TDP bzw. 132W Karte und Single-Slot? Das kann eher nicht gut gehen...;)

Imo ist das Dual-Slot-Teil nach wievor Gladiator und somit RV670XT bzw. HD3870.

Für Dual-RV670 wäre sie auch eher unterdimensioniert.

@laser114:
Diese Aufstellung bei PCGH stammt auch nur aus einem Asia-Blog, da sieht das hier doch realistischer aus:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5951246&postcount=3

Ailuros
2007-10-22, 19:21:14
Nvidia knew ATI's moves in the past (http://www.fudzilla.com/index.php?option=com_content&task=view&id=3750&Itemid=1)



Daher auch unterschiedliche Präsentationen mit R670 & R680 als Codenamen für den Dual-RV670 und verschiedene Angaben, z.B. GDDR4 oder GDDR3. Ich denke es wird in Zukunft immer schwerer etwas genaues über ATIs Pläne zu erfahren.

Natürlich wird man die grobe Richtung mitbekommen. Ob eine GPU jetzt den Codenamen R670 oder R680 hat, oder ob die HD2950 oder HD3000 heißt ist völlig egal. Aber damit hat und wird ATI gut Verwirrung stiften.

What a bunch of bullshit...die Masche wird in letzter Zeit von beiden IHVs angewendet und sogar erfolgreicher von NVIDIA. Wir haben schon mehr als genug Einzelheiten ueber RV670 und ein paar Kruemel ueber R700 und Fusion. Und was genau bitte ist ueber G92 ausser der 8800GT bekannt? Noch besser wie sieht es nach G92 aus und welche genauen Codenamen und Zielmaerkte haben diese?

NVIDIA weiss auf den Strich genau was AMD vorhat fuer diese Runde und sie haben sich sogar offiziell darueber geaeussert; im einen Fall dass sie erwarten dass AMD diesmal wieder aufholen wird und im zweiten Fall dass sie sehr optimistisch sind im Vergleich der 8800GT mit der RV670.

Der Humbug den hier Fudo auftischt; praktisch versucht er nur wie jegliche Katze ihren eigenen Dreck im Sand zuzubuddeln. Der Gestank bleibt aber ;)

AnarchX
2007-10-22, 20:06:45
Laut THG.tw (http://www.tomshardware.com/cn/119,news-119.html) scheint RV670 666M Transistoren zu haben.

Ein interessante Zahl, wird aber man wohl noch auf 667 aufrunden müssen.:devil:
Aber da scheint wohl 512->256Bit einige Transistoren frei gegeben zu haben, wenn man noch sieht, das DP, UVD, D3D10.1 und andere kleinere Veränderungen noch dazu kommen.

reunion
2007-10-22, 20:19:35
Laut THG.tw (http://www.tomshardware.com/cn/119,news-119.html) scheint RV670 666M Transistoren zu haben.

Ein interessante Zahl, wird aber man wohl noch auf 667 aufrunden müssen.:devil:
Aber da scheint wohl 512->256Bit einige Transistoren frei gegeben zu haben, wenn man noch sieht, das DP, UVD, D3D10.1 und andere kleinere Veränderungen noch dazu kommen.

Naja, da war sicher einiges an Redundanz vorhanden, welche man durch das erheblich geschrumpfte Die entfernen könnte. Man muss sich mal vorstellen, dass ATi bis heute keinen einzigen R600-Kern mit defekten Einheiten verkauft. Und das bei diesem riesigem Die.

laser114
2007-10-22, 20:20:07
Naja, da war sicher einiges an Redundanz vorhanden. Man muss sich mal vorstellen, dass ATi bis heute keinen einzigen R600-Kern mit defekten Einheiten verkauft. Und das bei diesem riesigem Die.

2900 GT kommt doch zum Abverkauf nun heraus.

reunion
2007-10-22, 20:23:03
2900 GT kommt doch zum Abverkauf nun heraus.

Ich weiß. Trotzdem kommt RV670 in gut drei Wochen. Vielen Karte wird man bis dahin nicht mehr absetzten können, was den Schluss nahe legt, dass es kaum defekte Kernen gibt. Bei so einem großen Die aus >90% Logik müsste normal ein Großteil der Chips kaputt gehen. Wie schon gesagt: AMD hat hier wohl viel Redundanz vorzuweisen.

LovesuckZ
2007-10-22, 23:18:01
Naja, da war sicher einiges an Redundanz vorhanden, welche man durch das erheblich geschrumpfte Die entfernen könnte. Man muss sich mal vorstellen, dass ATi bis heute keinen einzigen R600-Kern mit defekten Einheiten verkauft. Und das bei diesem riesigem Die.

Sie können es nicht. Es bleibt überhaupt kein Marktsegment mehr übrig, nachdem die 2900XT in den Bereich von 350€ gedrückt wurde.

laser114
2007-10-22, 23:20:53
Sie können es nicht. Es bleibt überhaupt kein Marktsegment mehr übrig, nachdem die 2900XT in den Bereich von 350€ gedrückt wurde.

Siehe 2900 Pro oder GT?
Da macht man keinen Gewinn mit, klar, aber besser als Chips rummgammeln zu lassen. So gehen die ja im Endeffekt auch raus.

sklave_gottes
2007-10-22, 23:21:50
Sie können es nicht. Es bleibt überhaupt kein Marktsegment mehr übrig, nachdem die 2900XT in den Bereich von 350€ gedrückt wurde.
HD2900GT :wink:

EDIT:
ohh war einer schneller, aber die pro ist ein ganzer chip laser114

laser114
2007-10-22, 23:25:59
ohh war einer schneller, aber die pro ist ein ganzer chip laser114

Der deckt aber auch ein Marktsegment ab. ;)

LovesuckZ
2007-10-22, 23:26:44
Siehe 2900 Pro oder GT?
Da macht man keinen Gewinn mit, klar, aber besser als Chips rummgammeln zu lassen. So gehen die ja im Endeffekt auch raus.

Es geht nicht um eine Einmailigkeit. Pro und GT sind keine Karten für Dauerhaftigkeit.

sklave_gottes
2007-10-22, 23:43:03
Es geht nicht um eine Einmailigkeit. Pro und GT sind keine Karten für Dauerhaftigkeit.

Bis auf ein Paar Matrox Karten sind keine Chips für den dauerhaften verkauf :P

Gast
2007-10-23, 08:09:24
Sie können es nicht. Es bleibt überhaupt kein Marktsegment mehr übrig, nachdem die 2900XT in den Bereich von 350€ gedrückt wurde.

Das ist kein Argument. Besser minimalen Verlust machen, als den ganzen Kern wegzuwerfen und damit auf den gesamten Kosten sitzen zu bleiben.

reunion

Ailuros
2007-10-23, 08:20:26
AMD hat so lange vor der Vorstellung am R600 herumgefuchtelt, dass es mich auch ziemlich wundern wuerde wenn es eine gesunde Anzahl an defekten clusters auf den chips geben wuerde. Sie haben selber offiziell ausgesagt dass die Defekte minimal sind, nur mit der Frequenz klappt es nicht immer.

seahawk
2007-10-23, 08:30:09
Naja, da war sicher einiges an Redundanz vorhanden, welche man durch das erheblich geschrumpfte Die entfernen könnte. Man muss sich mal vorstellen, dass ATi bis heute keinen einzigen R600-Kern mit defekten Einheiten verkauft. Und das bei diesem riesigem Die.

ATI hat wenig defekte Chips, die sich noch verwerten lassen. Meist schaffen sie den XT Takt nicht. Die wenigen echt defekten sind meist nicht mehr brauchbar. Abgesehen davon wäre eine 50% defekte R600 KArten kaum sinnvoll am Markt zu platzieren.

Fakt ist aber, dass beide IHVs grundsätzlich andere Lösungen im Hinblick auf die Anzahl und Nutzbarkeit teildefekter Chips gehen.

AnarchX
2007-10-23, 08:31:21
Die volle RV670 Marketingbeschreibung (http://www.google.com/translate?u=http%3A%2F%2Fwww.tomshardware.tw%2F162%2Cnews-162.html&langpair=zh%7Cen&hl=en&ie=UTF8)

Auf die Schnelle konnt ich nichts Aussergewöhnliches entdecken...

edit:
Wobei sich das PowerPlay doch interessant anhört, mal sehen wie es dann in der Praxis aussieht.

Gast
2007-10-23, 08:35:37
ATI hat wenig defekte Chips, die sich noch verwerten lassen. Meist schaffen sie den XT Takt nicht. Die wenigen echt defekten sind meist nicht mehr brauchbar. Abgesehen davon wäre eine 50% defekte R600 KArten kaum sinnvoll am Markt zu platzieren.


Das ergibt keinen Sinn. Wenn nur wenige defekt sind, warum sollten dann ausgerechnet diese zu 50% und mehr defekt sein? Die Fehler auf einem Wafer sind meist gleichmäßig verteilt, es ist sehr unwahrscheinlich, dass auf einem Die mehr als ein Fehler auftritt.

reunion

aehmkei
2007-10-23, 08:49:18
Für mich ist Powerplay auf jeden Fall eines der Killer-Features der Karten.
Nicht nur der Takt von GPU und Speicher wird nach Bedarf gesenkt, sondern auch die Spannung.
Hatte damals bei einem Laptop mit einem ATI Mobility Chip schon Powerplay im Einsatz und das war schon 'ne tolle Sache!!

Ailuros
2007-10-23, 08:52:42
Das ergibt keinen Sinn. Wenn nur wenige defekt sind, warum sollten dann ausgerechnet diese zu 50% und mehr defekt sein? Die Fehler auf einem Wafer sind meist gleichmäßig verteilt, es ist sehr unwahrscheinlich, dass auf einem Die mehr als ein Fehler auftritt.

reunion

Ich hab das Gefuehl Du hast seine Hypothese in seinem letzten Satz falsch gelesen.

Wie dem auch sei, es ist war dass die defekte in clusters sehr begrenzt sind bei R600. Und ja es ist durchaus moeglich dass das eine oder andere bei einer Frequenz X problemlos laeuft und dann mit X+20% dann einiges nicht mehr einwandfrei laeuft.

Ailuros
2007-10-23, 08:57:22
Für mich ist Powerplay auf jeden Fall eines der Killer-Features der Karten.
Nicht nur der Takt von GPU und Speicher wird nach Bedarf gesenkt, sondern auch die Spannung.
Hatte damals bei einem Laptop mit einem ATI Mobility Chip schon Powerplay im Einsatz und das war schon 'ne tolle Sache!!

PowerPlay ist lediglich eine Optimierung oder eine quasi Weiterentwicklung von einer Angelegenheit die schon seit einiger Zeit sowohl auf CPUs als auch auf GPUs ueberhaupt im Schlepptop Markt angewendet wird.

Henroldus
2007-10-23, 10:00:20
Quelle: http://www.digitimes.com/bits_chips/a20071023PB200.html
http://resources.vr-zone.com/newzhunter/TSMC.gif
Heißt der R680 jetzt RV680 :confused:
V für Value aber Highend?

AnarchX
2007-10-23, 10:17:31
RV680 x 2 = R680?

Und RV680 ist eine Abwandlung von RV670 mit ein paar Features für das Multi-Chip-Setup, wie z.B. einer internen PCIe-Bridge?

up¦²
2007-10-23, 10:31:37
RV680 x 2 = R680?

Und RV680 ist eine Abwandlung von RV670 mit ein paar Features für das Multi-Chip-Setup, wie z.B. einer internen PCIe-Bridge?

Was meinst du, könnte nicht eine der neuen NB's quasi PCIe-Bridge an Bord haben?'
Gerade wegen der GPU-Multi-Core Speku?

AnarchX
2007-10-23, 10:35:18
Nein, eben zwei RV680/670 auf einem Package, wo dann eben so eine Bridge benötigt wird.
Der Vorteil hier von ist, dass man das 2900XT-Design mit leichten Modifikationen weiter nutzen könnte und wegen GPU-Gesamt von 124W anstatt 140W und PowerPlay dürfte der Kühler doch leiser arbeiten.

Northbridge ist doch Unsinn, dann würde die Karte doch nur auf AMD-Chipsets laufen...

Gerade wegen der GPU-Multi-Core Speku?
Bitte nenne es Multi-Die/Chip, Multi-Core sind GPUs schon sehr lange...

Gast
2007-10-23, 13:06:54
Ich weiß. Trotzdem kommt RV670 in gut drei Wochen. Vielen Karte wird man bis dahin nicht mehr absetzten können, was den Schluss nahe legt, dass es kaum defekte Kernen gibt. Bei so einem großen Die aus >90% Logik müsste normal ein Großteil der Chips kaputt gehen. Wie schon gesagt: AMD hat hier wohl viel Redundanz vorzuweisen.

Glaubst du das ist beim G92 anders.

Meine momentane Lieblings-Theorie bzgl. G92 ist, das es sich um einen 96-Shader-Chip handelt bei dem Nvidia aufgrund der RV670-Gerüchte eine zusätzliche 16-Shader Einheit; die eigentlich nur aufgrund der notwendigen Redundanz vorhanden ist auch noch freigeschalten hat. Dadurch entstehen dann die 112-Shader Review-Karten die man dann später kaum im Laden kaufen kann (IMHO).


Manfred

LovesuckZ
2007-10-23, 13:08:58
Äh, nein. Cluster sind keine "Redundanz".

☯Stephan☯
2007-10-23, 15:21:44
Geforce 8800GT schneller als Radeon HD 3870 (RV670XT)? (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1193133030)

HOT
2007-10-23, 15:58:05
Also meiner Meinung nach ist das ein Schreibfehler... ich weiss nicht ob man da so viel reininterprätieren sollte.

AnarchX
2007-10-23, 16:02:33
Warum sollten auch 7C(56"TMUs"+112SPs)@600/1500MHz nicht im Durchschnitt schneller sein, als ein leicht reparierter R600@825MHz mit 256Bit SI? ;)

reunion
2007-10-23, 18:43:02
Vielleicht nicht ganz uninteressant, was AMD als D3D10.1 Features anführt:

http://img178.imageshack.us/img178/6760/d3d101qz9.jpg (http://imageshack.us)

Laut CJ ist Gather4 aka Fetch4 zumindest einer der Gründe, warum G92 keinen D3D10.1-Support bietet:

Gather4 is the DX10.1 name for Fetch4. AMD has supported this since the R580, RV515 and RV530 in their hardware. nVidia needs to make a bigger change to their hardware to support Fetch4 in DX10.1. They'll have to make a change in their TMU's to support this...

Weiß jemand ob dem G8x daran sonst noch was fehlt? FP32-Filterung kann er AFAIK.

Nakai
2007-10-23, 20:27:58
DX10.1 braucht man eh noch nicht.

Also was solls.

Der Rv670 muss gegen einen G92 bestehen, der etwas schneller als dieser ist.
Mal schaun was AMD alles verbessert hat...und ob wir davon profitieren können.


mfg Nakai

][immy
2007-10-23, 20:43:05
wie viel performance könnte ... also jetzt mal rein theoretisch ATi .. sorry AMD mit ein wenig bugfixing an der architektur denn rausholen?

sie werden wohl nicht umsonst gleich eine 3000er serie rausbringen wenn diese nicht zumindest ein wenig schneller wäre als die alte. Obwohl ich eher glaube das die 2000er serie ein wenig negativ belastet ist und man von daher schon einen anderen namen wählt.

Nakai
2007-10-23, 20:51:22
wie viel performance könnte ... also jetzt mal rein theoretisch ATi .. sorry AMD mit ein wenig bugfixing an der architektur denn rausholen?

Keine Ahnung, sie meinen zwar, dass das AA verbessert wurde, jedoch ist auch das SI geschrumpft.
Mal schaun, ich persönlich würde etwa ne Verbessurung von 5 bis 20% unter AA je nach Situation schätzen...

StefanV
2007-10-23, 21:34:29
Hm, AMD hat 'Nen Xilleon SOC integriert?! :O

AnarchX
2007-10-23, 21:47:19
Hm, AMD hat 'Nen Xilleon SOC integriert?! :O

Das ist eben UVD und das gibt es schon seit RV550(RV515+Xilleon).

Gast
2007-10-24, 02:59:17
mhh in wie weit könnte das 256 Bit Si langsamer sein als das 512er vom R600 ?
Bremmst das überhaupt oder waren die 512 Bit einfach nur overkill für die 2900Pro/XT ?

Ailuros
2007-10-24, 05:52:02
mhh in wie weit könnte das 256 Bit Si langsamer sein als das 512er vom R600 ?
Bremmst das überhaupt oder waren die 512 Bit einfach nur overkill für die 2900Pro/XT ?

Bis zu 16*12 will ich ernsthaft bezweifeln dass es einen besonderen Unterschied macht. Wenn man jetzt aber wirklich in >16*12 Aufloesungen mit AA spielen moechte, sollte man dann schon mehr als nur 200-250$ auf den Ladentisch legen.

Wuerden die ROPs nicht auf 32Z samples begrenzt sein, koennte es schon einen groesseren Unterschied machen IMHLO. Wie dem auch sei, sie koennten auch IMO die custom filter Affaere ein bisschen besser vermarkten. Simon von PowerVR hat ein Patent fuer selektive "Schmierfilter"; hierbei wird die Schmiererei nicht auf die ganze Szene angewendet sondern z.B. Text und Hud in einem Spiel bekommen nichts von dem Mist ab.

Selbst mit nur 2xAA (dass ja praktisch "4free" ist) koennte man mit solch einer Methode um einiges besser punkten.

up¦²
2007-10-24, 11:06:50
... :devil:
http://img5.pcpop.com/ArticleImages/0x0/0/623/000623835.jpg
http://www.pcpop.com/doc/0/239/239158.shtml

Nakai
2007-10-24, 11:37:29
Du bist nicht immer der schnellste, oder? ;)
(Macht ja nichts...^^)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/oktober/technische_daten_radeon_hd_3800/

Und CB ist nichtmal die schnellste Quelle.


mfg Nakai

Gast
2007-10-24, 11:43:39
"hätte" die HD3870 ein chance die GT zu schlagen ?
Udn wurde wirklich die AA leistung verbessert?

up¦²
2007-10-24, 11:57:25
Du bist nicht immer der schnellste, oder? ;)
(Macht ja nichts...^^)

http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/oktober/technische_daten_radeon_hd_3800/

Und CB ist nichtmal die schnellste Quelle.


mfg Nakai

Wieso?
Der teufliche Bezug hat ja mal dazu geführt, daß es den 667 von Intel gab, darum ging's mir, nicht um den News-wettlauf :rolleyes:

Nakai
2007-10-24, 12:58:29
Wieso?
Der teufliche Bezug hat ja mal dazu geführt, daß es den 667 von Intel gab, darum ging's mir, nicht um den News-wettlauf :rolleyes:

Achso ich verstehe.^^
...;D

mfg Nakai

Ailuros
2007-10-25, 05:54:11
... :devil:
http://img5.pcpop.com/ArticleImages/0x0/0/623/000623835.jpg
http://www.pcpop.com/doc/0/239/239158.shtml

AMD hat uns alle an der Nase herumgefuehrt. Nix da mit Gladiator; der echte interne Codename ist Antichrist :P

Gast
2007-10-25, 07:40:22
heisst das nun was gutes oder schlechtes ?

würde sich das lohnen von 2x HD 2900Xt auf 2x HD 3870 umzusteigen ?

seahawk
2007-10-25, 07:44:30
AMD hat uns alle an der Nase herumgefuehrt. Nix da mit Gladiator; der echte interne Codename ist Antichrist :P

Muss ja auch gegen Messiah antreten. ;D

Ailuros
2007-10-25, 08:27:28
Muss ja auch gegen Messiah antreten. ;D

Die 888 (8+8+8=24=2+4=6 vs. 6+6+6=18=1+8=9) seitens NV duerfte einen dreistelligen Codenamen haben :biggrin:

Henroldus
2007-10-25, 08:36:02
heisst das nun was gutes oder schlechtes ?

würde sich das lohnen von 2x HD 2900Xt auf 2x HD 3870 umzusteigen ?
ja in den 90% der Spiele wo du keine spielbaren Frameraten mit dieser Kombi hast schon :crazy:

Coda
2007-10-25, 11:42:52
Laut CJ ist Gather4 aka Fetch4 zumindest einer der Gründe, warum G92 keinen D3D10.1-Support bietet:
nVIDIA hat bei den D3D10.1-Specs sicher auch was mitzureden gehabt, von daher ist da wenn G92 es nicht unterstützen sollte sicher noch mehr nicht implementiert.

DX10.1 braucht man eh noch nicht.
D3D10.1 wird man wohl leider früher wollen als manchen lieb ist, weil es praktisch kein zusätzlicher Programmieraufwand ist ggü. D3D10 und es z.B. wohl Anti-Aliasing in UE3-Spielen ermöglicht. (Ja, meine Aussage dazu war mal anders, aber die Spec war damals noch nicht vollständig).

Deshalb weiß ich nicht ob sich nVIDIA diesen Marketing-Schlamassel wirklich leisten will. Eventuell sind sie überzeugt dass sie es können, weil die 8800er einen sehr guten Ruf haben.

dargo
2007-10-25, 11:55:48
D3D10.1 wird man wohl leider früher wollen als manchen lieb ist, weil es praktisch kein zusätzlicher Programmieraufwand ist ggü. D3D10 und es z.B. wohl Anti-Aliasing in UE3-Spielen ermöglicht. (Ja, meine Aussage dazu war mal anders, aber die Spec war damals noch nicht vollständig).

In 99% der UE3 Games geht AA mit NV Hardware (ab G80) schon in DX9.

Ailuros
2007-10-25, 12:01:13
In 99% der UE3 Games geht AA mit NV Hardware (ab G80) schon in DX9.

Weil die Herren im Treiberteam auf den richtigen buffer spekuliert haben, nachdem was sich herumspricht. Ein Grund dass das Ganze glaubhaft macht, ist dass das AA nicht zu 100% fehlerfrei laeuft.

dargo
2007-10-25, 12:04:34
Weil die Herren im Treiberteam auf den richtigen buffer spekuliert haben, nachdem was sich herumspricht. Ein Grund dass das Ganze glaubhaft macht, ist dass das AA nicht zu 100% fehlerfrei laeuft.
Das mag schon sein. In Bioshock sinds diese lächerlichen, kleinen roten Pünktchen, die eins bis zwei mal im Spiel auftauchen. In MoH:A wohl die kleinen weißen am Rand der Charaktere. In der UT3 Beta Demo sind mir keine Fehler aufgefallen. Also, ich kann mit dem "aufgezwungenen" MSAA in dieser Form sehr gut leben. ;)

Ailuros
2007-10-25, 12:06:21
nVIDIA hat bei den D3D10.1-Specs sicher auch was mitzureden gehabt, von daher ist da wenn G92 es nicht unterstützen sollte sicher noch mehr nicht implementiert.

Das Resultat ist dann meistens dass die Entwickler ein Feature nicht unterstuetzen werden, wenn es nur auf einer GPU Familie unterstuetzt wird. Wieso eigentlich nicht alternativ PCF, welches auf beiden moeglich ist?


D3D10.1 wird man wohl leider früher wollen als manchen lieb ist, weil es praktisch kein zusätzlicher Programmieraufwand ist ggü. D3D10 und es z.B. wohl Anti-Aliasing in UE3-Spielen ermöglicht. (Ja, meine Aussage dazu war mal anders, aber die Spec war damals noch nicht vollständig).

Deshalb weiß ich nicht ob sich nVIDIA diesen Marketing-Schlamassel wirklich leisten will. Eventuell sind sie überzeugt dass sie es können, weil die 8800er einen sehr guten Ruf haben.

Die Frage ist ob dieses seitens NV ohne jegliche Seiteneffekte moeglich ist.

Ailuros
2007-10-25, 12:11:25
Das mag schon sein. In Bioshock sinds diese lächerlichen, kleinen roten Pünktchen, die eins bis zwei mal im Spiel auftauchen. In MoH:A wohl die kleinen weißen am Rand der Charaktere. In der UT3 Beta Demo sind mir keine Fehler aufgefallen. Also, ich kann mit dem "aufgezwungenen" MSAA in dieser Form sehr gut leben. ;)

Schoen; angenommen ich arbeite in der GDG PR Abteilung von AMD und mach mir einen netten screenshot mit den roten Puenktchen, schreib D3D10 darunter und mach einen identischen screenshot ohne rote Puenktchen und schreib D3D10.1 darunter.

Was soll mir die UT3 beta demo denn genau uebers gesamte finale Spiel genau aussagen.

Tu mir bloss nicht so als ob Du nicht wissen wuerdest wie sich das Marketing generell verhaelt; und ja mich stoert jegliche Kleinigkeit auf meinem Bildschirm die fehl am Platz ist.

dargo
2007-10-25, 12:21:13
Schoen; angenommen ich arbeite in der GDG PR Abteilung von AMD und mach mir einen netten screenshot mit den roten Puenktchen, schreib D3D10 darunter und mach einen identischen screenshot ohne rote Puenktchen und schreib D3D10.1 darunter.

Dafür muss AMD erstmal die Architektur vom R(V)6x0 richtig umkrempeln damit AA auch vernünftig performt. :D
Nee, im ernst. Ich habe lieber so ein AA als überhaupt keins.

PS: in UT3 Full soll es AA mit D3D10.0 geben.

Ailuros
2007-10-25, 12:34:17
Dafür muss AMD erstmal die Architektur vom R(V)6x0 richtig umkrempeln damit AA auch vernünftig performt. :D
Nee, im ernst. Ich habe lieber so ein AA als überhaupt keins.

Nochmal: es geht hier um Marketing-stunts und eine hoehere D3D Nummer laesst sich stets besser verkaufen; noch mehr wenn man sogar hypothetisch Unterschiede vorzeigen kann (falls es diese auch wirklich gibt).

PS: in UT3 Full soll es AA mit D3D10.0 geben.

Das Zeug hoere ich schon seit 2 Jahren. Ehrlich gesagt waere es auch eine ziemliche Frechheit seitens der ISVs wenn sie ploetzlich antanzen wuerden und jetzt erst erlaeutern dass man am Ende doch D3D10.1 braucht um Ihre Schnappsidee Schatten Implementierung mit MSAA kombinieren zu koennen.

dargo
2007-10-25, 12:40:37
Das Zeug hoere ich schon seit 2 Jahren. Ehrlich gesagt waere es auch eine ziemliche Frechheit seitens der ISVs wenn sie ploetzlich antanzen wuerden und jetzt erst erlaeutern dass man am Ende doch D3D10.1 braucht um Ihre Schnappsidee Schatten Implementierung mit MSAA kombinieren zu koennen.
Meinst du Epic wüsste schon vorher, dass AMD/ATI mit D3D10.1 im Herbst/Winter 2007 antanzen? Das Game ist ja schließlich schon länger fertig, bzw. die AA Implementierung unter D3D10.

Ailuros
2007-10-25, 12:48:43
Meinst du Epic wüsste schon vorher, dass AMD/ATI mit D3D10.1 im Herbst/Winter 2007 antanzen? Das Game ist ja schließlich schon länger fertig, bzw. die AA Implementierung unter D3D10.

Seit wann wissen grosse ISVs nicht bescheid was grosse IHVs genau vorhaben? Diese bekommen auch meistens etwa ein Halbjahr frueher Test-HW in die Hand. Was mit der AA-Implementierung genau los ist fuer die UE3 engine hab ich keine Ahnung; aber wenn Coda selber zugibt dass er mit D3D10.1 falsch gelegen ist zwinkt bei mir schon das eine Auge.

Ich selber wusst schon vor Monaten dass AMD mit D3D10.1 antanzt und NVIDIA nicht und grosse ISVs wurden im Dunkeln gelassen? Klingt aeusserst logisch.

Coda
2007-10-25, 12:51:41
um Ihre Schnappsidee Schatten Implementierung mit MSAA kombinieren zu koennen.
Die "Schnappsidee" ist halt eigentlich ziemlich genial.

Meinst du Epic wüsste schon vorher, dass AMD/ATI mit D3D10.1 im Herbst/Winter 2007 antanzen? Das Game ist ja schließlich schon länger fertig, bzw. die AA Implementierung unter D3D10.
Das Problem ist, dass man mit D3D10 keine AA-Samples vom Z-Buffer lesen kann. Das macht es eigentlich unmöglich AA mit dem Schatten-Algorithmus der UE3 richtig zu kombinieren.

Es kann auch sehr gut sein, dass das eines der Features ist die G80 nicht kann, weil sie es auch im Treiber nicht fertig bringen es korrekt zu machen.

aber wenn Coda selber zugibt dass er mit D3D10.1 falsch gelegen ist zwinkt bei mir schon das eine Auge.
Ich habe dazu halt auch nur öffentliche Infos gehabt, bzw. zuvor nicht gewusst dass es dieses Feature in D3D10 nicht gibt und die UE3 es braucht.

reunion
2007-10-25, 13:13:06
nVIDIA hat bei den D3D10.1-Specs sicher auch was mitzureden gehabt, von daher ist da wenn G92 es nicht unterstützen sollte sicher noch mehr nicht implementiert.


Vermutlich, aber zumindest fetch4 scheint definitiv zu fehlen.


Deshalb weiß ich nicht ob sich nVIDIA diesen Marketing-Schlamassel wirklich leisten will. Eventuell sind sie überzeugt dass sie es können, weil die 8800er einen sehr guten Ruf haben.

Der Aufwand war wohl zu groß. Aber wenn dann wirklich nur AMD-Karten in der Lage sind, in solchen Spielen AA ohne Bildfehler darzustellen, wäre das marketingtechnisch für AMD natürlich ein gefundenes Fressen.

Das Resultat ist dann meistens dass die Entwickler ein Feature nicht unterstuetzen werden, wenn es nur auf einer GPU Familie unterstuetzt wird.


Wenn man nur so AA bekommt, wird man D3D10.1 schneller bekommen, als manchen lieb ist. Zumal es dafür praktisch keinen zusätzlichen Programmieraufwand bedarf.


Wieso eigentlich nicht alternativ PCF, welches auf beiden moeglich ist?


PCF ist keine Alternative zu fetch4:
http://www.beyond3d.com/content/reviews/2/4

Außerdem wird PCF AFAIK ohnehin in D3D10 gefordert.

Coda
2007-10-25, 13:32:02
Vor allem ist Fetch4 viel genereller. Das ist ja nicht nur auf Shadowmaps beschränkt.

Nakai
2007-10-25, 15:48:30
D3D10.1 wird man wohl leider früher wollen als manchen lieb ist, weil es praktisch kein zusätzlicher Programmieraufwand ist ggü. D3D10 und es z.B. wohl Anti-Aliasing in UE3-Spielen ermöglicht. (Ja, meine Aussage dazu war mal anders, aber die Spec war damals noch nicht vollständig).

Ahso...
Sieht also dann so aus, dass der Rv670 einen Performanceboost mit AA bekommt, wenn das schon notwendig ist.

mfg Nakai

Gast
2007-10-25, 17:45:41
Mit welcher Begründung?

laser114
2007-10-25, 18:37:55
Ich habe gerade die Information erhalten, dass die Asus X1950 Pro nun ein Auslaufmodell sei (über einen kleinen Umweg von einem Shop).

Gilt wahrscheinlich für alle X1950-Pro-Modelle, oder? Zur Zeit ist die Karte zwar noch gut verfügbar, aber es scheint als wirft hier der RV670 seine Schatten voraus - wohl auch in der Preiskategorie.
Inwiefern da wohl was abgespeckt wird?

Gast
2007-10-26, 01:18:43
In 99% der UE3 Games geht AA mit NV Hardware (ab G80) schon in DX9.
Der aber auch mit einem hohen Performanceverlust einher geht.

Gast
2007-10-26, 01:30:58
Der aber auch mit einem hohen Performanceverlust einher geht.
Und zudem auch noch Grafikfehler produziert. Toll ist das nicht, aber besser als kein AA auf alle Fälle.
Wenn der RV670 das dann ohne Fehler kann wär das ein Pluspunkt für ihn, sofern die AA-Leistung wirklich besser ist als bei R600, sonst könnts eng werden mit AA in zukünftigen Titeln.

James Ryan
2007-10-26, 05:49:45
Seltsam, mit meiner GTS konnte ich mit 4xMSAA in jedem neuen UE3 Titel (Bioshock, MOH:Airborne, UT3 Demo) absolut flüssig zocken, so hoch ist der Perfomancehit eigentlich nicht.

MfG :cool:

Ailuros
2007-10-26, 05:54:16
Die "Schnappsidee" ist halt eigentlich ziemlich genial.

Genial wohl aus technischer Perspektive; wenn ich als Verbraucher zusaetzliche HW kaufen muesste um AA mit dem Zeug kombinieren zu koennen, dann ist es fuer meinen Geldbeutel eine Schnappsidee.


Das Problem ist, dass man mit D3D10 keine AA-Samples vom Z-Buffer lesen kann. Das macht es eigentlich unmöglich AA mit dem Schatten-Algorithmus der UE3 richtig zu kombinieren.

Es kann auch sehr gut sein, dass das eines der Features ist die G80 nicht kann, weil sie es auch im Treiber nicht fertig bringen es korrekt zu machen.

Wie goldig von Epic. Hiess es oder hiess es nicht vor einiger Zeit dass man MSAA & defered shadowing unter D3D10 kombinieren koennte? Falls das obrige stimmen sollte und jemand das Spiel mit fehlerfreiem MSAA spielen will, kann er praktisch jegliche R6x/G8x in den Abfalleimer werfen und sich eine RV670 kaufen.


Ich habe dazu halt auch nur öffentliche Infos gehabt, bzw. zuvor nicht gewusst dass es dieses Feature in D3D10 nicht gibt und die UE3 es braucht.

Ich werd mal versuchen ein bisschen herumzufragen, denn das Thema ist mir persoenlich ziemlich wichtig da ich stets ein UT Freak war.

seahawk
2007-10-26, 06:57:11
Ich habe gerade die Information erhalten, dass die Asus X1950 Pro nun ein Auslaufmodell sei (über einen kleinen Umweg von einem Shop).

Gilt wahrscheinlich für alle X1950-Pro-Modelle, oder? Zur Zeit ist die Karte zwar noch gut verfügbar, aber es scheint als wirft hier der RV670 seine Schatten voraus - wohl auch in der Preiskategorie.
Inwiefern da wohl was abgespeckt wird?

Nichts ist abgespeckt. RV670 ist ein optimeirter, DX10.1 fähiger R600 mit halbiertem Speicherinterface aber mehr Takt. Dazu soll AF besser sein und die AA Performance verbessert. Dürfte also min. das Niveau einer 8800GT erreichen.

AnarchX
2007-10-26, 08:01:31
Dürfte also min. das Niveau einer 8800GT erreichen.
Ich habe nichts davon gehört, dass RV670 mehr als 16TMUs bzw. ROPs hat und das letzere mehr als 2 Z können...

seahawk
2007-10-26, 08:20:01
Ich habe nichts davon gehört, dass RV670 mehr als 16TMUs bzw. ROPs hat und das letzere mehr als 2 Z können...

Taktet aber gut 30% höher. :smile:

AnarchX
2007-10-26, 08:30:59
Taktet aber gut 30% höher. :smile:
Das macht aber eben noch keinen Faktor 3.5 bei den TMUs und Faktor 4 bei den ROPs wett...

Ich bezweifele, dass ATi lange den MSRP von $249 für Gladiator halten wird.

seahawk
2007-10-26, 08:36:02
Naja, wir werden sehen in der UT-Demo oder Bioshock schlägt sich auch R600 brauchbar. Ein optimiertes Design könnte schon der GT was zu schlucken geben. Aber selbst ein Preiskampf dürfte mit dem kleineren Chip in 55nm gewinnbar sein. In etwas über 2 Wochen wissen wir mehr. Meine Zuversicht in RV670 ist gewachsen. DX10.1 ist auch ein Verkaufsargument. Das läst sich schön aufkleben. "The next level of VISTA gaming experience DX10.1 - powered by Radeon HD38X0"

dargo
2007-10-26, 09:01:05
Das Problem ist, dass man mit D3D10 keine AA-Samples vom Z-Buffer lesen kann. Das macht es eigentlich unmöglich AA mit dem Schatten-Algorithmus der UE3 richtig zu kombinieren.

Ist der Schatten-Algorithmus bei UT3 in DX10 vielleicht anderes als in DX9?

Der aber auch mit einem hohen Performanceverlust einher geht.
Nicht ganz. 4xAA kostet in der Crysis MP_Beta mehr (1xAA ist bis zu 48% schneller in 1280x1024, selbst gemessen) als in UE3 Titeln. Von 4xAA "for free" sind wir noch weit entfernt. ;)

Ailuros
2007-10-26, 09:06:59
Taktet aber gut 30% höher. :smile:

16*825MHz*2 = 26.4
16*600MHz*4 = 38.4
GT_OC = 16*700MHz*4 = 44.8

Bei shadowmaps duerfte der Unterschied um einiges groesser sein.

dargo
2007-10-26, 09:09:27
Wenn der RV670 das dann ohne Fehler kann wär das ein Pluspunkt für ihn, sofern die AA-Leistung wirklich besser ist als bei R600, sonst könnts eng werden mit AA in zukünftigen Titeln.
Wie soll das ein Pluspunkt sein, wenn wir hier von reinen DX9 Titeln sprechen? :D
Außer Bioshock und UT3 laufen alle anderen Games ausschließlich im DX9 Modus. Ok, man könnte die Games eventuell nachpatchen. Dass sich die Entwickler aber die Mühe dafür machen bezweifle ich.

Naja, wir werden sehen in der UT-Demo oder Bioshock schlägt sich auch R600 brauchbar.
Boah, wie oft denn noch? Die ganzen UE3 Benchmarks kannst du in die Tonne kloppen da alle ohne MSAA stattfinden. Und wir wissen genau was passiert wenn der R6x0 mit AA gebencht wird.

Gast
2007-10-26, 09:27:11
nix in die Tonne kloppen, die UT3 Engine kann kein AA unter DX9, NV erlaubt irgendwelchen wischiwaschi in Bioshock,MOHA, oder UT3 aber kein richtiges AA.
Jemand hatte das doch schön gezeigt mit Bioshock, die Kante an der Wand war gelätet das stimmt, aber da wo es wichtig war war auch kein AA also wayne.
Und deine GTS hat sowieso kein chance gegen ie HD 2900 also brauchste garnicht so auf die kagge hauen mit der kleinen Karte ^^

dargo
2007-10-26, 09:32:30
Und deine GTS hat sowieso kein chance gegen ie HD 2900 also brauchste garnicht so auf die kagge hauen mit der kleinen Karte ^^
Lol, Fanboy-Alarm. :D

Hvoralek
2007-10-26, 09:34:25
Bei shadowmaps duerfte der Unterschied um einiges groesser sein.Was für ein Problem hat eigentlich R6xx mit Shadowmaps?

Gast
2007-10-26, 09:50:58
Lol, Fanboy-Alarm. :D

x_X

nix mit Fanboy(oh doch, von schneller Hardware), ich hab beides 8800 GTX SLI und HD 2900XT CF also schreib nicht immer sowas.
Ich hab dein ATi geashe hier schon paar mal gelesen.

Aber wayne, Spiel ruhig mal weiter mit dein Grafikfehler und deinem tollen AA in der UT3 Engine :D

Ailuros
2007-10-26, 10:43:28
Was für ein Problem hat eigentlich R6xx mit Shadowmaps?

G8x kann seine enorme Z-Fuellrate einsetzen egal ob mit oder ohne AA; dieses spielt sich u.a. auch in shadowmaps aus. Beim R6xx sind es steril 16*Taktrate.

Wenn die geleakten 3dfart06 scores stimmen sollten fuer RV670, ist es schon mal eine Andeutung dass sich hier nichts geaendert hat.

Gast
2007-10-26, 10:53:53
mhh welche scores?

Ich hab bisher nix gefunden...

Ailuros
2007-10-26, 11:00:42
mhh welche scores?

Ich hab bisher nix gefunden...

http://myevilprocessor.blogspot.com/2007/10/ati-radeon-hd-38x0-vs-nvidia-geforce.html

Sag bloss nichts zu der albernen Balkenlaenge ;) :biggrin:

reunion
2007-10-26, 11:58:05
http://myevilprocessor.blogspot.com/2007/10/ati-radeon-hd-38x0-vs-nvidia-geforce.html

Sag bloss nichts zu der albernen Balkenlaenge ;) :biggrin:

Was ist eine HD38x0? Sieht mir eher nach einen Pro aus, und damit wäre der Score wenig verwunderlich.

Ailuros
2007-10-26, 11:59:25
Was ist eine HD38x0? Sieht mir eher nach einen Pro aus, und damit wäre der Score wenig verwunderlich.

Es ist tatsaechlich eine PRO, nur sind die XT yields eher erbaermlich *hust* ;)

Gast
2007-10-26, 12:03:15
ach das Ding, ja hab auch schon gelacht von 10700 auf 12300 ist der Balker 10 kilometer länger xD.

ich dachte es gibt mal richtige, den China Seiten glaub ich sowieso kein Wort^^

reunion
2007-10-26, 12:04:15
Es ist tatsaechlich eine PRO, nur sind die XT yields eher erbaermlich *hust* ;)


Das scheint ja bei nV nicht besser zu laufen, da kommt gleich nur ein teildeaktivierter G92 in Form der 8800GT zu beginn. Yieldraten bessern sich im Laufe der Zeit, besonders bei einem so jungen Prozess wie 55nm.

DrumDub
2007-10-26, 12:17:52
Das scheint ja bei nV nicht besser zu laufen, da kommt gleich nur ein teildeaktivierter G92 in Form der 8800GT zu beginn. seit wann ist bestätigt, dass der g92 auf der 8800gt teildeaktiviert ist? bisher war afaik nur die rede davon, dass der g92 nicht die taktraten packt, um die 8800 gtx zu ersetzen.

Ailuros
2007-10-26, 12:18:53
Das scheint ja bei nV nicht besser zu laufen, da kommt gleich nur ein teildeaktivierter G92 in Form der 8800GT zu beginn. Yieldraten bessern sich im Laufe der Zeit, besonders bei einem so jungen Prozess wie 55nm.

G92GT und RV670PRO sind direkte Konkurrenten. Wenn das Zeug stimmt und man den 3dquark auch ernst nimmt, dann duerfte die XT nur ca. 10% schneller sein als die PRO oben.

Ailuros
2007-10-26, 12:20:38
seit wann ist bestätigt, dass der g92 auf der 8800gt teildeaktiviert ist? bisher war afaik nur die rede davon, dass der g92 nicht die taktraten packt, um die 8800 gtx zu ersetzen.

Der chip waere aber verdammt fett unter 65nm ohne besonders grosse Aenderungen im Vergleich zu G8x. AFAIK ist G92 bis zu 4*64/8 cluster.

seahawk
2007-10-26, 12:28:43
Was ist eine HD38x0? Sieht mir eher nach einen Pro aus, und damit wäre der Score wenig verwunderlich.

Eher ne 3830

reunion
2007-10-26, 12:31:46
seit wann ist bestätigt, dass der g92 auf der 8800gt teildeaktiviert ist? bisher war afaik nur die rede davon, dass der g92 nicht die taktraten packt, um die 8800 gtx zu ersetzen.

Das Ding hat 754mio Transistoren, da sind sicher mehr als 7 Cluster drinnen.

G92GT und RV670PRO sind direkte Konkurrenten.


Abwarten. Preise lassen sich schnell anpassen.


Wenn das Zeug stimmt und man den 3dquark auch ernst nimmt, dann duerfte die XT nur ca. 10% schneller sein als die PRO oben.

Pro: 700/900
XT: 825/1200

Winter[Raven]
2007-10-26, 12:34:55
Das scheint ja bei nV nicht besser zu laufen, da kommt gleich nur ein teildeaktivierter G92 in Form der 8800GT zu beginn. Yieldraten bessern sich im Laufe der Zeit, besonders bei einem so jungen Prozess wie 55nm.

Und das weißt du woher?

Es wäre genauso gut möglich, dass der 65µ Prozess bei Nvidia besser läuft als gedacht mit sehr niedrigeren Fehlerrate, dann müsste Nvidia die Chips auch funktional verticken mit einem Lasercut.

Aus der Vergangenheit scheit Nvidia aber solche Sachen wie Yeilds als auch MArgen besser zu handhaben als ATI/AMD.

AnarchX
2007-10-26, 12:35:32
Abwarten. Preise lassen sich schnell anpassen.

Was wohl schon geschehen ist, denn bei Chiphell äußerte man die finalen Preise und da soll RV670XT bei $249 liegen, also in Konkurrenz zur 8800GT.
RV670Pro wird dann wohl gegen die 256MB 88GT antretten.

Ailuros
2007-10-26, 12:38:00
Abwarten. Preise lassen sich schnell anpassen.

Und man wartet halt ein weiteres Halbjahr bis man zumindest den "break even point" einhalten kann hm?

Pro: 700/900
XT: 825/1200

17% ja und?

DrumDub
2007-10-26, 12:39:47
Der chip waere aber verdammt fett unter 65nm ohne besonders grosse Aenderungen im Vergleich zu G8x. AFAIK ist G92 bis zu 4*64/8 cluster. hmm... habs grad noch mal durchgerechnet.

g80 hat 128 sps, 24 rops und 32/64 tfs/tas. g92 kommt auf 112 sps, 16 rops und 28/56 tfs/tas.das entspricht 12,5% weniger sps und tfs/tas sowie 33% weniger rops. im schnitt könnte mal also davon ausgehen, dass gegenüber dem g80 ca. 19% transistoren eingespart wurden.

19% einsparung bei 681 mio. transistoren entsprächen ca. 129 mio. damit käme ein g92 beim exakt gleichen design des g80, wenn man redundanzen rausrecht, auf ca. 580 mio. die frage ist halt nur, wieviel nvio, vp2 und sonstige sachen beim g92 ausmachen, wobei ca. 174 mio. transitoren (754-580) dafür wohl nicht drauf gehen sollten.

reunion
2007-10-26, 12:44:17
Und man wartet halt ein weiteres Halbjahr bis man zumindest den "break even point" einhalten kann hm?


Bei einem 194mm² Die kann man es sich sicher leisten, dieselben Preise zu verlangen, wie NV mit ihrem 289mm² Die.


17% ja und?


Was und? Du sagtest 10%.

Ailuros
2007-10-26, 12:45:04
Angenommen die Rechnung stimmt, dann ist die theoretische Transistoren-Steigerung um ca. 30% ziemlich hoch. Stets aber nur IMHLO.

LovesuckZ
2007-10-26, 12:47:10
Bei einem 194mm² Die kann man es sich sicher leisten, dieselben Preise zu verlangen, wie NV mit ihrem 289mm² Die.


Verlangen kann man einiges, was man dagegen erhält, steht auf einem anderen Platt. nVidia Chip wird in der Fertigung teurer sein, aber anscheinend wesentlich interessanter für die Käufer in dem Marktsegment. Würde mich nicht wundern, wenn die rv670XT schneller unter die 200$ Marke fällt als die 8800GT.

Ailuros
2007-10-26, 12:54:29
Bei einem 194mm² Die kann man es sich sicher leisten, dieselben Preise zu verlangen, wie NV mit ihrem 289mm² Die.

Du warst derjenige der von einer Preis-Anpassung gesprochen hat nicht ich. Ein kleinerer Gewinn aus diesem Projekt bedeutet auch schlechtere als erwartete Resultate. Muss ich gerade Dich daran erinnern dass ATI seit R300 Gewinne nur noch mit dem Fernrohr sehe kann?

Was und? Du sagtest 10%.

Ich verspotte die 17% genauso viel wie die 10% wenn der Abstand zwischen GT und PRO ebenso wie oben ausfaellt.

reunion
2007-10-26, 13:01:51
Du warst derjenige der von einer Preis-Anpassung gesprochen hat nicht ich. Ein kleinerer Gewinn aus diesem Projekt bedeutet auch schlechtere als erwartete Resultate. Muss ich gerade Dich daran erinnern dass ATI seit R300 Gewinne nur noch mit dem Fernrohr sehe kann?


Was hat das eine mit dem anderen zu tun? Wie schon gesagt, bei dem Chip macht man sicher genug Gewinne, wenn man ihn zum selben Preis wie nVs 8800GT verkaufen kann.


Ich verspotte die 17% genauso viel wie die 10% wenn der Abstand zwischen GT und PRO ebenso wie oben ausfaellt.

Seit wann ist ein 3dmark-Wert ein Maßstab? Noch dazu von irgendeiner dubiosen Quelle. Zudem wird sich die XT mit der GT herumschlagen, und nicht die PRO.

seahawk
2007-10-26, 13:20:23
Erhöht man den 3DMark-Wert (völlig unbedeutend siehe 8600GTS) um 17% dann ist das locker GT Niveau. Dazu kommt die geringer Leistungsaufnahme, das intelligente Powermanagement und DX10.1. Selbst bei etwas schlechterer Spieleleistung in der Preisklasse eine sehr starke Alternative zur GT:

Ailuros
2007-10-26, 13:20:37
Was hat das eine mit dem anderen zu tun? Wie schon gesagt, bei dem Chip macht man sicher genug Gewinne, wenn man ihn zum selben Preis wie nVs 8800GT verkaufen kann.

Es ist sehr wohl damit verbunden wenn's ums finanzielle geht. Einen Gewinn gewiss nicht; man schaufelt eher die Unkosten wieder rein.

Seit wann ist ein 3dmark-Wert ein Maßstab? Noch dazu von irgendeiner dubiosen Quelle. Zudem wird sich die XT mit der GT herumschlagen, und nicht die PRO.

Genau eben mein Punkt. Denn G92 hat ja nicht nur ein Modell. Ergo?

Gast
2007-10-26, 13:22:36
Dazu kommt die geringer Leistungsaufnahme [...]
Das muss sich erst noch herausstellen. Ich weiß, TDP sagt nicht viel aus, aber 134W bei der 3870 sind nicht wenig.

Ailuros
2007-10-26, 13:25:16
Erhöht man den 3DMark-Wert (völlig unbedeutend siehe 8600GTS) um 17% dann ist das locker GT Niveau. Dazu kommt die geringer Leistungsaufnahme, das intelligente Powermanagement und DX10.1. Selbst bei etwas schlechterer Spieleleistung in der Preisklasse eine sehr starke Alternative zur GT:

Die vergleichbare Leistungsaufnahmen will ich erstmal in unabhaengigen Messungen sehen. Was jetzt D3D10.1 betrifft, warte ich ab bis ich weiteren unabhaengige Meinungen sammeln kann; in dem Punkt hat AMD tatsaechlich einen gesunden Vorteil schon alleine aus Marketing-Perspektive.

reunion
2007-10-26, 13:31:08
Das muss sich erst noch herausstellen. Ich weiß, TDP sagt nicht viel aus, aber 134W bei der 3870 sind nicht wenig.

So oder so wird der idle-Wert bedeutend niedriger liegen dank "Powerplay". Wenn das genau so funktioniert wie von AMD beschrieben, dann werden sowohl Taktraten, als auch Spannung je nach Auslastungsgrad der Graka dynamisch angepasst.

Ailuros
2007-10-26, 13:35:39
So oder so wird der idle-Wert bedeutend niedriger liegen dank "Powerplay". Wenn das genau so funktioniert wie von AMD beschrieben, dann werden sowohl Taktraten, als auch Spannung je nach Auslastungsgrad der Graka dynamisch angepasst.

NV gibt einen TDP von 35W an fuer die 8800M die schon vorgezeigt wurde. Woher willst Du - ohne unabhaengige Messungen - wissen was niedriger und was hoeher ist?

reunion
2007-10-26, 13:36:13
Es ist sehr wohl damit verbunden wenn's ums finanzielle geht. Einen Gewinn gewiss nicht; man schaufelt eher die Unkosten wieder rein.


Was heißt da einen Gewinn sicher nicht? Aktuell verkauft man mit der 2900pro einen R600 (420mm²) im selben Preissegment. Ein RV670 wird da bedeutend bessere Margen liefern. Und die Grafikabteilung von AMD war bereits im letzten Quartal beinahe Profitabel.


Genau eben mein Punkt. Denn G92 hat ja nicht nur ein Modell. Ergo?

Was ergo?

NV gibt einen TDP von 35W an fuer die 8800M die schon vorgezeigt wurde. Woher willst Du - ohne unabhaengige Messungen - wissen was niedriger und was hoeher ist?

Die 8800GT hat eine TDP von 110W, was interessiert mich ein Mobilechip in diesem Zusammenhang? Und nV hat im 2D-Betrieb offensichtlich keine Taktraten/Spannungssenkung eingebaut.

Ailuros
2007-10-26, 13:43:33
Was heißt da einen Gewinn sicher nicht? Aktuell verkauft man mit der 2900pro einen R600 (420mm²) im selben Preissegment. Ein RV670 wird da bedeutend bessere Margen liefern. Und die Grafikabteilung von AMD war bereits im letzten Quartal beinahe Profitabel.

"Beinahe" hm? *grunz* Erstens kostete eine R600 nicht bei Anlauf 200-250$, zweitens haben sie die Unkosten fuer die gesamte Produktreihe noch lange nicht abgedecket bis zum RV670 (schon gar nicht bei den unendlichen tapeouts) und drittens bessere Margen was ATI's eigene Massstaebe betrifft mit Sicherheit schon.

Was ergo?

Ich lass es mal voruebergehend bleiben.

Ailuros
2007-10-26, 13:49:09
Die 8800GT hat eine TDP von 110W, was interessiert mich ein Mobilechip in diesem Zusammenhang? Und nV hat im 2D-Betrieb offensichtlich keine Taktraten/Spannungssenkung eingebaut.

Welchen hauptsaechlichen Zweck hat denn Powerplay? Und wieso ist der Stromverbrauch am wichtigsten in Schlepptops?

reunion
2007-10-26, 13:54:24
Welchen hauptsaechlichen Zweck hat denn Powerplay? Und wieso ist der Stromverbrauch am wichtigsten in Schlepptops?

Wer redet denn von Notebooks? Mir ging es um den Desktopmarkt.

Hvoralek
2007-10-26, 13:54:47
Der chip waere aber verdammt fett unter 65nm ohne besonders grosse Aenderungen im Vergleich zu G8x. AFAIK ist G92 bis zu 4*64/8 cluster."4*64/8 Cluster"? :confused:

Ailuros
2007-10-26, 14:01:16
Wer redet denn von Notebooks? Mir ging es um den Desktopmarkt.

Dann nochmal von Anfang an: weil es bisher keine Schlepptop chips gab basierend auf G8x oder R6x0, hat sich keiner der beiden besonders ueber Stromspar-Optimierungen gekuemmert. Seit aber mit G92/RV670 endlich der Kaese auch in Schlepptops kommt, kamen natuerlich auch endlich die relevanten Sparmassnahmen. AMD nennt es Powerplay und NV kann es von mir aus wifidildo nennen *hust*.

Wenn Du endlich einsiehst dass ohne unabhaengige Messungen jegliche Relevanz zu idiotischen Marketing-Namen irrelevant ist, dann koennen wir weiterreden.

reunion
2007-10-26, 15:51:02
Dann nochmal von Anfang an: weil es bisher keine Schlepptop chips gab basierend auf G8x oder R6x0, hat sich keiner der beiden besonders ueber Stromspar-Optimierungen gekuemmert. Seit aber mit G92/RV670 endlich der Kaese auch in Schlepptops kommt, kamen natuerlich auch endlich die relevanten Sparmassnahmen. AMD nennt es Powerplay und NV kann es von mir aus wifidildo nennen *hust*.

Wenn Du endlich einsiehst dass ohne unabhaengige Messungen jegliche Relevanz zu idiotischen Marketing-Namen irrelevant ist, dann koennen wir weiterreden.

Deine Diskussionsstil ist furchtbar. Es gibt ja schon unabhängige Messungen:

http://www.expreview.com/img/topic/8800gt/power.png

Eine 8800GTS/GTS hat keinen 2d-Modus, die GT offensichtlich auch nicht, ansonsten wäre das Verhältnis idle/Last wesentlich größer als bei den G80-Chips. Aber meinetwegen, warten wir ab, vielleicht tut sich ja noch was bis zum Release.

Gast
2007-10-26, 20:10:12
Deine Diskussionsstil ist furchtbar. Es gibt ja schon unabhängige Messungen:

http://www.expreview.com/img/topic/8800gt/power.png

Eine 8800GTS/GTS hat keinen 2d-Modus, die GT offensichtlich auch nicht, ansonsten wäre das Verhältnis idle/Last wesentlich größer als bei den G80-Chips. Aber meinetwegen, warten wir ab, vielleicht tut sich ja noch was bis zum Release.
52 Watt weniger im Idle als eine GTX - welche bei rund paarundsiebzig Watt idlet (xBit). Macht netto einen Steckdosenverbrauch von um die 20 Watt für die 8800 GT im Idle.

Bedeutend weniger nehmen X1900 und GF7900 auch nicht zu sich.

sklave_gottes
2007-10-26, 20:15:09
52 Watt weniger im Idle als eine GTX - welche bei rund paarundsiebzig Watt idlet (xBit). Macht netto einen Steckdosenverbrauch von um die 20 Watt für die 8800 GT im Idle.

Bedeutend weniger nehmen X1900 und GF7900 auch nicht zu sich.


Mann sollte sowieso noch abwarten mit abschliessendem Urteil.
Laut CB z.b. ist der IDLE unterschied zwischen GTS-GTX 15Watt
Hier 34Watt. Ich denke man sollte noch andere Werte abwarten.

mfg martin

dargo
2007-10-26, 23:16:46
52 Watt weniger im Idle als eine GTX - welche bei rund paarundsiebzig Watt idlet (xBit). Macht netto einen Steckdosenverbrauch von um die 20 Watt für die 8800 GT im Idle.

Falsch! 52W sind es Brutto beim Gesamtsystem. Ohne die Effizienz vom NT zu kennen ist es eh ein Ratespiel. Bei 75-80% Wirkungsgrad bedeutet das ~39-42W weniger für die G8800GT im Vergleich zur GTX.

Gast
2007-10-27, 23:49:04
In der Crysis Demo sind 2 Textdateien für nvidia und amd vorhanden. Hier sind 4 Chips erwähnt, aber warum gibts die 2900XT 3x?:

0x1002, 0x9400, 3 // ATI Radeon HD 2900 XT
0x1002, 0x9401, 3 // ATI Radeon HD 2900 XT
0x1002, 0x9402, 3 // ATI Radeon HD 2900 XT
0x1002, 0x9403, 3 // ATI Radeon HD 2900 PRO
0x1002, 0x9405, 3 // ATI Radeon HD 2900 GT
0x1002, 0x9500, 2 // RV670
0x1002, 0x9501, 2 // RV670
0x1002, 0x9505, 2 // RV670
0x1002, 0x9507, 2 // RV670
0x1002, 0x9580, 3 // RV630

laser114
2007-10-28, 00:12:52
Hmm, ich würde jetzt mal auf verschiedene Versionen tippen. 1024 MB RAM mit GDDR4 - und was ist die Dritte?

L2K
2007-10-28, 01:57:53
Es gibt doch eine FireGL, welche auf dem R600 basiert. Die hat 2 GB Speicher.

Gast
2007-10-28, 02:21:26
Stimmt, die Workstation Karten sind aber teils Solo gelistet. Warten wir aber mal was an RV670 Karten kommt.

w0mbat
2007-10-28, 16:32:31
http://www.teamati.com/DirectX%2010_1%20White%20Paper%20v0.4.pdf

AnarchX
2007-10-28, 16:36:29
http://www.teamati.com/DirectX%2010_1%20White%20Paper%20v0.4.pdf
Bei B3D gefunden:
http://img230.imageshack.us/img230/1456/56342428cg4.png
http://img230.imageshack.us/img230/1865/43549145rv8.png

laser114
2007-10-28, 16:44:39
Zumindest die Lobby-Arbeit scheint bei AMD ganz gut zu funktionieren:

http://s4.directupload.net/images/user/071028/82xveok2.jpg (http://www.directupload.net)

Hvoralek
2007-10-28, 16:57:07
Hmm... ATI selbst spricht von "improved compatibility and performance with deffered rendering techniques".

Ich dachte, Gather4 sei praktisch dasselbe wie Fetch4. Wenn ich das richtig sehe, unterscheiden die sich doch deutlich: Gather4 scheint ja zu bedeuten, dass anstelle eines bi- Texels auch vier ungefilterte ausgegeben werden können (wofür man doch eigentlich nur einen Haufen weiterer Adressierer braucht, oder?). Fetch4 hingegen ist mW die Möglichkeit, statt eines Wertes mit vier Kanälen auch vier Werte mit je einem Kanal zu sampeln.

Kann jemand einschätzen, ob Cube Map Arrays für diese Karten noch eine praktische Bedeutung haben?

deekey777
2007-10-28, 17:10:37
http://www.teamati.com/DirectX%2010_1%20White%20Paper%20v0.4.pdf
The most advanced of these filters is the edge detect filter, which detects and anti-aliases all edges (including those in textures and shaders).
Hu? Mit EDAA kann man Shader-Aliasing bekämpfen?

Hvoralek
2007-10-28, 17:47:38
Hu? Mit EDAA kann man Shader-Aliasing bekämpfen?Wäre mir neu. Und gegen Texturkanten hilft auch kein CFAA, sondern AAA. Naja, Marketing :ugly:

Soll aber demnach auch bein 2xxxern gehen. Was für "4 different filter types" sind denn da gemeint? Edge Detection, Narrow Tent, Wide Tent, ??? :confused:

HOT
2007-10-28, 17:52:04
Das klingt für mich jetzt eher so, als würden die CFAA Techniken auch innerhalb des AAA funktionieren und AAA würde auf Shaderalising ausgeweitet. Ich glaub das AAA hat nicht mehr viel damit zu tun, was man bisher darunter kennt. Von der Bekämpfung des ShaderAA faselt ATI ja schon seit dem R600 (das er das theoretisch könnte :D).
Wer weiss was die da verbrochen haben :|. Mal am 15. November 3DCenter Review lesen (hoffentlich :D).

Gast
2007-10-28, 19:43:25
Ich dachte, Gather4 sei praktisch dasselbe wie Fetch4. Wenn ich das richtig sehe, unterscheiden die sich doch deutlich: Gather4 scheint ja zu bedeuten, dass anstelle eines bi- Texels auch vier ungefilterte ausgegeben werden können (wofür man doch eigentlich nur einen Haufen weiterer Adressierer braucht, oder?). Fetch4 hingegen ist mW die Möglichkeit, statt eines Wertes mit vier Kanälen auch vier Werte mit je einem Kanal zu sampeln.

Ich frage mich schon seit längerem, ob bei Fetch/Gather4 wirklich vier unabhängige Texturadressen pro Takt ausgelesen werden können, oder ob sich diese vier Werte auf ein festes Pixelquad beziehen. Ist letzteres der Fall, wäre es genau dasselbe, wie bei einem bilinearen Fetch nur eben mit abgeschalteter Filterung.

AnarchX
2007-10-28, 19:48:08
Der Punkt hört sich auch ziemlich interessant an:
LOD instruction

FUNCTION
New shader instruction that
returns the level of detail for a
filtered texture lookup

BENEFITS
Custom texture filtering
techniques for optimized
performance and quality

Könnte man das im Bezug auf AF sinnvoll einsetzen?

Gast
2007-10-28, 19:55:53
Der Punkt hört sich auch ziemlich interessant an:


Könnte man das im Bezug auf AF sinnvoll einsetzen?
Prinzipiell sicherlich. Mipstufenabhängige Sampleanzahl und weiterer Filterschmuh ahoi.

reunion
2007-10-28, 20:04:12
Bei B3D gefunden:
http://img230.imageshack.us/img230/1456/56342428cg4.png
http://img230.imageshack.us/img230/1865/43549145rv8.png

Da scheint es ja beim zu beginn belächelten D3D10.1 doch einige Änderungen zu geben.

Hvoralek
2007-10-28, 20:42:45
Das klingt für mich jetzt eher so, als würden die CFAA Techniken auch innerhalb des AAA funktionieren und AAA würde auf Shaderalising ausgeweitet. Ich glaub das AAA hat nicht mehr viel damit zu tun, was man bisher darunter kennt. Von der Bekämpfung des ShaderAA faselt ATI ja schon seit dem R600 (das er das theoretisch könnte :D).
Wer weiss was die da verbrochen haben :|. Mal am 15. November 3DCenter Review lesen (hoffentlich :D).Wie soll dieses Shader- AA umgesetzt werden? SSAA auf jeden Pixel, der irgendeinen Shader abbekommt? :biggrin:

Sinnvoll machbar wäre das wohl nur, wenn die Entwickler selbst irgendwie Shader markieren könnten, denen SSAA gut tun würde. Dafür bräuchte man aber einen Standard dafür und Entwickler, die zugeben, sehenden Auges schlechte Shader zu schreiben.

Gast
2007-10-28, 22:44:07
gucktma hier was ich hier gefunden hab, ist das nicht lustig :D ?

die wissen schon das die Gt 35 % schneller ist als die HD 3870 mega lol

http://www.abload.de/img/2d6vds34uw.jpg (http://www.abload.de/image.php?img=2d6vds34uw.jpg)

Liszca
2007-10-28, 23:00:46
gucktma hier was ich hier gefunden hab, ist das nicht lustig :D ?

die wissen schon das die Gt 35 % schneller ist als die HD 3870 mega lol

http://www.abload.de/img/2d6vds34uw.jpg (http://www.abload.de/image.php?img=2d6vds34uw.jpg)

Das obere sieht nach stalker aus, das untere nach company of heroes.

wer will kann nun entsprechende benches mit aktuellen karten ergoogeln und hier posten :D

Gast
2007-10-28, 23:10:36
lol die meinen bestimmt in der Lautstärke 35% mehr xD
Der Lüfter der da drauf ist ist wird alles andere als leise, kennt noch einer die 5700 Ultra ?
Das war der gleich Lüfter.....

Nakai
2007-10-29, 00:04:33
Das denke ich nicht. Nv wird bestimmt einen ordentlichen Lüfter der Karte verpassen.


mfg Nakai

€:
Das obere sieht nach stalker aus

In welchen Settings? Ansonsten wäre das weitaus weniger Verlust als bei der HD2900XT unter Stalker wenn die Karte(GT) sich schon fast auf GTX-Niveau begibt.

Hvoralek
2007-10-29, 00:10:07
Das denke ich nicht. Nv wird bestimmt einen ordentlichen Lüfter der Karte verpassen.Zumindest der Standardlüfter macht ja anscheinend etwa so viel Lärm wie der der 2900 XT.

Gast
2007-10-29, 00:21:52
grad die kleinen Brüllmücken machen am meisten Krach.

Coda
2007-10-29, 00:39:46
Da scheint es ja beim zu beginn belächelten D3D10.1 doch einige Änderungen zu geben.
Nein, das war fast alles bekannt. Was wirklich relativ zeitnah wichtig ist ist der Zugriff auf individuelle Z-Samples, weil das ermöglicht korrektes AA in UE3-Titeln. Der Rest ist erstmal egal.

Alles abgesehen von dem festen Sample-Muster bei Tighter Specifications erfüllen R600 und G80 eh schon.

AnarchX
2007-10-29, 09:22:19
RV670XT ~ HD3870 - finale Taktfrequenz?:
775MHz GPU
1125-1150MHz Speicher
http://translate.google.com/translate?u=http%3A%2F%2Fchiphell.com%2Fviewthread.php%3Ftid%3D11338%26extra%3Dp age%253D1&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

:|

seahawk
2007-10-29, 09:28:14
775mhz wäre nun etwas wenig.

reunion
2007-10-29, 10:14:59
Alles abgesehen von dem festen Sample-Muster bei Tighter Specifications erfüllen R600 und G80 eh schon.

Und warum erfüllt dann ein G92 noch immer nicht die D3D10.1-Spezifikationen? Da scheint doch mehr zu fehlen.

w0mbat
2007-10-29, 10:21:40
Hm, die Taktraten sind komisch. Erst waren 750MHz (RV670PRO) und 825MHz (RV670XT) vorgesehen, dan wurde sogar über eine Erhöhung nachgedacht und jetzt sollen sie bei 700MHz für die HD3850 und 775MHz für die HD3870 liegen?

Verstehe ich nicht, damit wäre die HD3870 ja nur unwesentlich schneller als die ursprünglich geplante HD3850.

Gaestle
2007-10-29, 10:23:22
Hm, die Taktraten sind komisch. Erst waren 750MHz (RV670PRO) und 825MHz (RV670XT) vorgesehen, dan wurde sogar über eine Erhöhung nachgedacht und jetzt sollen sie bei 700MHz für die HD3850 und 775MHz für die HD3870 liegen?

Verstehe ich nicht, damit wäre die HD3870 ja nur unwesentlich schneller als die ursprünglich geplante HD3850.

Klingt danach, als wären die selbstgesteckten Ziele nicht erreicht worden. Für R600 wurden AFAIR auch mal 825MHz anvisiert. Schade.

up¦²
2007-10-29, 10:34:33
Tja - und wie wirkt sich 10.1-support schon aus?
Was meint ihr?

AnarchX
2007-10-29, 10:36:56
Wie im Thread schon erwähnt wurde, wird wohl MSAA in der UE3-Engine nur korrekt unter D3D10.1 arbeiten.
Aktivieren wird man es bei NV durch ihren Hack trotzdem können.

reunion
2007-10-29, 10:39:37
Wie im Thread schon erwähnt wurde, wird wohl MSAA in der UE3-Engine nur korrekt unter D3D10.1 arbeiten.
Aktivieren wird man es bei NV durch ihren Hack trotzdem können.

Die Frage wird sein, ob das auch zuverlässig und ohne Grafikfehler/Performanceverlust funktioniert.

Hakkerstiwwel
2007-10-29, 10:41:08
Wäre mir neu. Und gegen Texturkanten hilft auch kein CFAA, sondern AAA. Naja, Marketing :ugly:

Soll aber demnach auch bein 2xxxern gehen. Was für "4 different filter types" sind denn da gemeint? Edge Detection, Narrow Tent, Wide Tent, ??? :confused:
der normale box filter

up¦²
2007-10-29, 10:45:57
Crysis könnte doch 10.1 haben, oder?
will be able to handle the extra hidden features - which include currently-disabled shadow features - ...
Yerli says that once hardware does catch up and releases next year, all Crytek will have to do is to provide a patch that will enable all of the extra features.
http://pc.qj.net/Because-Crysis-clearly-redefines-Crytek-talks-gameplay-technology/pg/49/aid/102918
Das wäre ja klasse für Ati!

Showtime
2007-10-29, 10:51:56
Bei FarCry wurde doch auch HDRR nachgeliefert. Würde mich nicht wundern, wenn sie es wieder so handhaben würden.

DrFreaK666
2007-10-29, 14:27:45
Hm, es gibt schon erste Reviews der 8800GT.
Wann sind die ATI/AMD-Karten dran?

AnarchX
2007-10-29, 14:29:08
#1 !

DrFreaK666
2007-10-29, 14:31:12
#1 !

Vorstellung = Datum der Reviews?

AnarchX
2007-10-29, 14:33:43
Vorstellung = Datum der Reviews?

Eigentlich schon, natürlich wird es wohl wieder einige geben, die das NDA brechen.;)

DrFreaK666
2007-10-29, 14:34:37
Eigentlich schon, natürlich wird es wohl wieder einige geben, die das NDA brechen.;)

Hm, das ist ja noch ewig hin

robbitop
2007-10-29, 15:09:26
Mal am 15. November 3DCenter Review lesen (hoffentlich :D).
Schön wär's ;(
Seit Lars Weinand weg von ATI ist, ist der Kontakt trotz meiner stetigen Bemühungen einfach abgerissen. Tolle PR Arbeit von ATI, dass man die eine der kompetentesten deutschen Quellen für 3D-Hardware weglässt. :|

Gaestle
2007-10-29, 15:20:43
Schön wär's ;(
Seit Lars Weinand weg von ATI ist, ist der Kontakt trotz meiner stetigen Bemühungen einfach abgerissen. Tolle PR Arbeit von ATI, dass man die eine der kompetentesten deutschen Quellen für 3D-Hardware weglässt. :|

Wird's bei 3DC ein 8800GT-Review in zeitlicher Nähe zum Launch geben?

Gast
2007-10-29, 15:54:09
Das ist kaum anzunehmen oder war das bei den letzten Launches etwa der Fall?

Gaestle
2007-10-29, 16:14:27
Das ist kaum anzunehmen oder war das bei den letzten Launches etwa der Fall?

Bei der 2900XT schon, auch bei der X850. Und afair bei der FX Serie und der 6600er-Serie auch.

PS: Danke für den liebenswürdigen Tonfall, "etwa".

HOT
2007-10-29, 16:17:44
Schön wär's ;(
Seit Lars Weinand weg von ATI ist, ist der Kontakt trotz meiner stetigen Bemühungen einfach abgerissen. Tolle PR Arbeit von ATI, dass man die eine der kompetentesten deutschen Quellen für 3D-Hardware weglässt. :|

Das ist natürlich blöd. Kommt ihr vllt. über AMD an Kontakte?

Gast
2007-10-29, 16:20:14
hi

möchte

Call of Duty 4
Bioschock
Unreal Tournament 3
Black Site
(Crysis is eh nich möglich ist einfach next gen)
in 1680x1050 4xAA 4xAF maximale details spielen flüssig! habe aber atm nur ne
1900xtx 512MB

Was soll ich machen?

8800GT holen
auf 8800gts überarbeitete warten

auf r670 3800er serie warten

die grafikkarte wird sofort gegen das nächste high end was kommt ausgetauscht

was soll ich machen?

HOT
2007-10-29, 16:22:53
Na ja, bis Mitte November abwarten, dann kannste vergleichen :).

Gaestle
2007-10-29, 16:23:32
hi

möchte

Call of Duty 4
Bioschock
Unreal Tournament 3
Black Site
(Crysis is eh nich möglich ist einfach next gen)
in 1680x1050 4xAA 4xAF maximale details spielen flüssig! habe aber atm nur ne
1900xtx 512MB

Was soll ich machen?

8800GT holen
auf 8800gts überarbeitete warten

auf r670 3800er serie warten

die grafikkarte wird sofort gegen das nächste high end was kommt ausgetauscht

was soll ich machen?


Siehe HOT und außerdem ist Deine Frage im Kaufberatungsthread besser aufgehoben.

Gast
2007-10-29, 17:21:53
Bei der 2900XT schon, auch bei der X850. Und afair bei der FX Serie und der 6600er-Serie auch.


OK, die 2900 war eine Ausnahme, aber was war mit 8800, 8600/8400, HD2600/2400?

robbitop
2007-10-29, 18:00:00
Das ist natürlich blöd. Kommt ihr vllt. über AMD an Kontakte?
Glaub mir, alles schon versucht. Magische Stille. Ich habe kurz mal mit nem ungarischen PR Heini Kontakt gehabt, der mich dann wieder zu ATI München auf den gleichen Kontakt verwies. Doch der antwortet kategorisch nicht. Ich vermute, er hällt nicht viel von 3DC (weil wir keine Hofberichterstattung machen und/oder nicht Millionen Leser haben).

smockdogx
2007-10-29, 18:16:36
Glaub mir, alles schon versucht. Magische Stille. Ich habe kurz mal mit nem ungarischen PR Heini Kontakt gehabt, der mich dann wieder zu ATI München auf den gleichen Kontakt verwies. Doch der antwortet kategorisch nicht. Ich vermute, er hällt nicht viel von 3DC (weil wir keine Hofberichterstattung machen und/oder nicht Millionen Leser haben).

Wieviele Leser hat denn 3dcenter?

HOT
2007-10-29, 18:19:21
Na ja, dafür hat 3DCenter ein recht grosses Forum und ne Menge Fachkompetenz zu bieten. Für ATI offenbar zu viel ;D