PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 5850 und 5870: (P)Review-Thread


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13

Sentionline
2009-09-24, 10:36:11
Wenn Klitschko einen Noob auf der Straße verprügelt wird er auch nicht Weltmeister ;)
:D Ich liebe deinen Humor! ;D

Gast
2009-09-24, 10:36:44
zum Glückt funkt SSAA in DX10 bei NV>wertlos
AF flimmert..wie war das mit Clamp......btw. was macht Clamp..zum totlachen.

Sentionline
2009-09-24, 10:43:31
Es gibt ja auch einen Berg an DX10 Titeln.

AnarchX
2009-09-24, 10:45:15
TPU mit 5850 und 5870 Crossfire: http://techpowerup.com/reviews/ATI/Radeon_HD_5870_CrossFire/1.html

Sentionline
2009-09-24, 10:47:24
Wird 80% der ATi Abnehmer finden.

Gast
2009-09-24, 10:49:23
@Troll-Gast::comfort: (versuchs nochmal als Mann und eingeloggt ;))
keine Argumente mehr?

tombman
2009-09-24, 11:00:50
keine Argumente mehr?
Eh Tu! Tu kommst da ned rein ;)
==

Verdammt, ich will endlich TRIPLE HD5870 sehen :mad:

LovesuckZ
2009-09-24, 11:12:38
Warum sind eigentlich Leute wie LZ und Tombman hier im 58xx Preview Thread so aktiv?
Gerade die beiden, denen ich am wenigsten zutraue sich eine ATi in ihr Gehäuse zu bauen, geben hier schon fast die meisten Kommentare ab!

Könnt ihr beide nicht draussen bleiben!? :motz:

Weil das kein AMD Hilfs-Thread ist.
Wie wäre es, wenn du dem Forum fernbleibst? Dann musst du auch mich in keinem AMD Thread mehr sehen. Das ist die beste Lösung für uns beide. :)

Tarkin
2009-09-24, 11:13:51
bzgl. "DX11 ist unnötig und bringt nichts" ...

http://pclab.pl/zdjecia/artykuly/miekrzy/5870premierowy/wykresy/bench/bf1920.png

braucht man eigentlich nicht weiter kommentieren.

AnarchX
2009-09-24, 11:16:07
Das ist dann wohl einer der weniger gut ausgewählten Fälle. Aber das sieht man doch durchaus das Potential des HBAO über CS5.0.

derguru
2009-09-24, 11:19:05
TPU mit 5850 und 5870 Crossfire: http://techpowerup.com/reviews/ATI/Radeon_HD_5870_CrossFire/1.html
irgendwie kommt die 5870 nicht aus den hufen,wenn man bei der 5850 den takt anheben würde,könnte sie fast gleich ziehen..

Skinner
2009-09-24, 11:21:19
Ich finde die Euphorie die hier herscht teilweise nicht nachvollziebar. Jedem war klar, das die ATI Karte die derzeit Schnellste Karte sein wird. Und genau da ist das Problem. Es ist im moment nur derzetz der fall! Wer der wirklichliche "Weltmeister" ist, wird sich erst gegen ende des Jahres zeigen. Und zur Titelvergabe gehören immer zwei.

Und bis ende des Jahres werde ich noch locker mit meiner mitlerweilen langsamen GTX260 auskommen :)

irgendwie kommt die 5870 nicht aus den hufen,wenn man bei der 5850 den takt anheben würde,könnte sie fast gleich ziehen..

Vielleicht kommt das Crossfire Prinzip ja Chipsatz-/Architekturbedingt an seine Grenzen ???

Demirug
2009-09-24, 11:21:21
Das ist dann wohl einer der weniger gut ausgewählten Fälle. Aber das sieht man doch durchaus das Potential des HBAO über CS5.0.

Es ist nicht der optimale Fall der hier gebencht wurde. Wir kommen bis auf 38% Steigerung. Dabei haben wir bisher nur an einer Stelle gedreht. Die verwendetete Technik lässt sich im Prinzip bei jeder Art von Postprocessing einsetzten.

Tarkin
2009-09-24, 11:22:40
Das ist dann wohl einer der weniger gut ausgewählten Fälle. Aber das sieht man doch durchaus das Potential des HBAO über CS5.0.

ich hab noch einen

http://pclab.pl/zdjecia/artykuly/miekrzy/5870premierowy/wykresy/bench/stalker-1680aa.png

AnarchX
2009-09-24, 11:25:03
irgendwie kommt die 5870 nicht aus den hufen,wenn man bei der 5850 den takt anheben würde käme die ja fast gleich ziehen.
Wie schon eher vermutet, scheint bei Cypress wohl irgendwo auf der Setup-Ebene etwas zu limitieren, sodass die Rohleistung häufig nicht umgesetzt wird.

Da scheinen sich die Schwachstellen von Cypress wohl langsam zu offenbaren:
Setup-Limitierung (hier kann vielleicht ein Treiber etwas tun?), teurere Filterung (http://www.techreport.com/articles.x/17618/6) und für bestimmte Fälle etwas zu wenig Bandbreite.

Es ist nicht der optimale Fall der hier gebencht wurde. Wir kommen bis auf 38% Steigerung. Dabei haben wir bisher nur an einer Stelle gedreht. Die verwendetete Technik lässt sich im Prinzip bei jeder Art von Postprocessing einsetzten.

Wäre eigentlich eine Implementierung im Treiber wie bei NV auch denkbar oder geht das nur in D3D11-Anwendungen?

derguru
2009-09-24, 11:29:09
Vielleicht kommt das Crossfire Prinzip ja Chipsatz-/Architekturbedingt an seine Grenzen ???

bei tech gibt es auch eine einzelne 5850 und die ist gerade mal im gesamten durchnitt nur 13% langsamer und das bei 1920*1200.alleine durch die takteröhung würde man ja fast anschluß finden.entweder ist noch hier und da cpu limit oder 5870 kommt nicht zu potte.

Demirug
2009-09-24, 11:31:35
Wäre eigentlich eine Implementierung im Treiber wie bei NV auch denkbar oder geht das nur in D3D11-Anwendungen?

Für nvidia müsste man einen Fallback auf CS 4.x benutzten. Aufgrund der Limitierungen dieses Models wäre der Gewinn aber kleiner. Wir haben bisher keinen CS 4.x eingebaut da die Dokumentation dafür noch sehr schlecht (oder besser gesagt nicht vorhanden) ist.

Für CS 5.0 muss eine GPU das vollständige DX11 feature set unterstützen. (oder es gibt wieder böse hacks)

LovesuckZ
2009-09-24, 11:32:59
Ist eine Unterstützung über Cuda bzw. OpenCL möglich? Oder benötigt man für die Beschleunigung CS?

tombman
2009-09-24, 11:33:43
Für unsere ATI Fanboys ein erheiterndes YT-Video ;)
http://www.youtube.com/watch?v=FR45ja_fNzU

AnarchX
2009-09-24, 11:35:10
Für nvidia müsste man einen Fallback auf CS 4.x benutzten. Aufgrund der Limitierungen dieses Models wäre der Gewinn aber kleiner. Wir haben bisher keinen CS 4.x eingebaut da die Dokumentation dafür noch sehr schlecht (oder besser gesagt nicht vorhanden) ist.

Für CS 5.0 muss eine GPU das vollständige DX11 feature set unterstützen. (oder es gibt wieder böse hacks)

Es war so gemeint, dass AMD sein HBAO im Treiber für die HD 5000 bereitstellt. Oder kann man für eine Pre-D3D11-Anwendung keinen CS5.0 abwenden?

derguru
2009-09-24, 11:37:30
Für unsere ATI Fanboys ein erheiterndes YT-Video ;)
http://www.youtube.com/watch?v=FR45ja_fNzU
fast so alt wie du.:tongue:

Spasstiger
2009-09-24, 11:38:34
Sehe ich das richtig, dass die Radeon HD5K in Sachen AF in default-Einstellung an Nvidias default-Einstellung (quality) vorbeigezogen ist? Ähnliche Flimmerneigung, minimal bessere Winkelunabhängigkeit (fällt in der Praxis nicht auf) und keine bugwellenverursachende trilineare Optimierung.

Gummikuh
2009-09-24, 11:45:04
Laut dem Review schon, oder es wurden Bilder vertauscht.

Gast
2009-09-24, 11:48:23
PCGH:
Erfreulich ist, dass das Gesamtbild einer HD 5000 weniger flimmert als auf einer Radeon HD 4000/3000/2000. Das sogenannte Banding, Übergänge zwischen Texturen, ist weniger auffällig. Nach ausführlichen Tests und Direktvergleichen kommen wir zu dem Schluss, dass das HD-5000-AF - bis auf einige wenige Ausnahmen wie Crysis - absolut gleichwertig zu dem Treiberstandard von Nvidia ist ("Qualität" inklusive der "Trilinearen Optimierung").

und:

CB:

n Oblivion zeigen sich erneut schon auf den Standbildern Vorteile für den RV870, obwohl diese weniger ausgeprägt zu sein scheinen. Das gilt sowohl für Catalyst A.I. Off als auch für Standard. Beim RV870-Vergleich untereinander fallen keine Differenzen auf. Die Videos sprechen dagegen erneut eine eindeutige Sprache: Denn diesen zu Folge hat die Standard-Qualität des anisotropen Filters in dem Spiel einen recht großen Schritt nach vorne gemacht. Die Texturen flimmern um einiges weniger und fallen kaum noch negativ auf.

boxleitnerb
2009-09-24, 11:48:54
Korrekt. Aber wer spielt schon mit Q? Niemand, der sich für das Thema Flimmern auch nur ansatzweise interessiert. Es zählt nur die maximale Qualität, vor allem wenn sie so wenig kostet (bei NV).

tombman
2009-09-24, 11:50:17
Eben, bei mir ist HQ fix eingestellt und bei den meisten anderen auch ;)

reunion
2009-09-24, 11:50:44
Sehe ich das richtig, dass die Radeon HD5K in Sachen AF in default-Einstellung an Nvidias default-Einstellung (quality) vorbeigezogen ist? Ähnliche Flimmerneigung, minimal bessere Winkelunabhängigkeit (fällt in der Praxis nicht auf) und keine bugwellenverursachende trilineare Optimierung.

Mich würde mal interessieren ob es jetzt tatsächlich stimmt das RV870 immer voll trilinear filtert. Denn dann wäre die Tri-Optimierung bei den Vergleichstests nicht mehr gerechtfertigt.

derguru
2009-09-24, 11:52:13
Korrekt. Aber wer spielt schon mit Q? Niemand, der sich für das Thema Flimmern auch nur ansatzweise interessiert. Es zählt nur die maximale Qualität, vor allem wenn sie so wenig kostet (bei NV).
der unterschied von q zu hq ist nicht besonders groß.

MadManniMan
2009-09-24, 11:52:31
Es ist nicht der optimale Fall der hier gebencht wurde. Wir kommen bis auf 38% Steigerung. Dabei haben wir bisher nur an einer Stelle gedreht. Die verwendetete Technik lässt sich im Prinzip bei jeder Art von Postprocessing einsetzten.

Könntest Du erklären, was da konkret gemacht wird? Oder gibt es irgendeine Form der Präsentation, die das Ganze aufzeigt? Ich habe Battleforge nicht installiert und keine Ahnung, was da jetzt wie gemacht wird.

Gast
2009-09-24, 11:53:56
Es gibt ja auch einen Berg an DX10 Titeln.

für DX9 hats jetzt SSAA noch nicht geschnaggelt?

Gast
2009-09-24, 11:54:34
http://www.fudzilla.com/content/view/15660/1/

It's only fitting that the world's fastest GPU find its way into what has been hailed by editors all over America as the fastest gaming computers on the market.”

Spasstiger
2009-09-24, 11:55:22
Mich würde mal interessieren ob es jetzt tatsächlich stimmt das RV870 immer voll trilinear filtert. Denn dann wäre die Tri-Optimierung bei den Vergleichstests nicht mehr gerechtfertigt.
Ja, es wäre dann angemessen, die Optimierung beim GT300 per default abzuschalten. Kostet ja ohnehin fast nix, zumindest beim GT200.

@tombman: Bei meinem Bruder (GTX 260) hab ich HQ auch fix eingestellt. Aber ich wette, dass 95% der Käufer mit default spielen und ein Teil von denen dennoch gegen die Radeon HD 5870 basht, weil sie stärker flimmert (was bei ihren Einstellungen aber nich zutrifft). Und dann gibt es noch massenhaft Leute, die die Einstellungen im Treiber nie anrühren und AF nur nutzen, wenn es das Spiel bietet. Hier im Forum gabs sogar Jemanden, der mit Pointsampling spielen wollte, weil es so schön scharf ist. Der meinte, das Flimmern falle kaum auf. ;D

cipoint
2009-09-24, 11:55:57
Es gibt ja schon ein Tool zum ocken für die HD5870. Sind schon irgendwo erste Ergebnisse aufgetaucht? Mich interessiert brennend, wie gut der RV870 geht ...

AnarchX
2009-09-24, 11:58:46
iXBT hat 950MHz GPU erreicht während andere Seiten nicht einmal die 900MHz GPU erreicht haben. Da muss man wohl etwas an der Spannung drehen, was via Software geht. ;)

Interessant ist auch die Speicherübertaktung durch die Fehlerkontrolle im MC:
Overclocking the memory on these cards is quite different from any other card so far. Normally you'd expect rendering errors or crashes, but not with these cards. Thanks to the new error correction algorithm in the memory controller, every memory error is just retransmitted until everything is fine. So once you exceed the "stable" clock frequency, memory errors will appear more often, get retransmitted, but the rendered output will still look perfectly fine. The only difference is that performance drops, the further you increase the clocks, the lower the performance gets. As a result a normal "artifact scanning" approach to memory overclocking on the HD 5800 Series will not work. You have to manually increase the clocks and observe the framerate until you find the point where performance drops.
http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/33.html

derguru
2009-09-24, 12:00:01
Es gibt ja schon ein Tool zum ocken für die HD5870. Sind schon irgendwo erste Ergebnisse aufgetaucht? Mich interessiert brennend, wie gut der RV870 geht ...
besser als gedacht glaub ich,vorallem der speicher soll so um die 1300 mitmachen weil amd die standardspannung von 1,5v auf 1,6v erhöht haben soll.
950-1ghz inkl. 1300 beim speicher wäre nice:biggrin:

Gast
2009-09-24, 12:04:46
der unterschied von q zu hq ist nicht besonders groß.
RV870 flimmert deutlich.
HQ flimmert praktisch gar nicht.
Q interessiert eh nicht.

Wenn das mal kein Unterschied ist.

reunion
2009-09-24, 12:05:13
Es gibt ja schon ein Tool zum ocken für die HD5870. Sind schon irgendwo erste Ergebnisse aufgetaucht? Mich interessiert brennend, wie gut der RV870 geht ...

Alles eine Frage der Spannung :D

http://img132.imageshack.us/img132/1363/3dmarkrecord.jpg

"Sami ran the single-GPU X11364 score with CPU aircooled at 4GHz and a single 5870 at 1250MHz engine and 1390MHz memory."

http://www.legitreviews.com/article/1080/15/

Palpatin
2009-09-24, 12:09:46
irgendwie kommt die 5870 nicht aus den hufen,wenn man bei der 5850 den takt anheben würde,könnte sie fast gleich ziehen..
Bei einigen Benches wirds vermutlich schon reichen den Speichertakt auf 5870 Niveau anzheben. :)

boxleitnerb
2009-09-24, 12:09:57
der unterschied von q zu hq ist nicht besonders groß.
Das kann ich nicht unterschreiben. Q flimmert zwar nicht viel, aber sichtbar. HQ flimmert praktisch nicht mehr wahrnehmbar. Das ist Fakt. Ob es einem beim Spielen auffällt, lässt sich natürlich nur subjektiv beantworten. Aber wie gesagt: Wenns kaum was kostet, ist es immer an - zumindest bei mir.

Gast
2009-09-24, 12:10:18
Es gibt ja schon ein Tool zum ocken für die HD5870. Sind schon irgendwo erste Ergebnisse aufgetaucht? Mich interessiert brennend, wie gut der RV870 geht ...

Ist auch schon ein tool da um die Sperre aus dem CCC zu entfernen.

deekey777
2009-09-24, 12:15:23
Könntest Du erklären, was da konkret gemacht wird? Oder gibt es irgendeine Form der Präsentation, die das Ganze aufzeigt? Ich habe Battleforge nicht installiert und keine Ahnung, was da jetzt wie gemacht wird.
Ich bin mal so frech und sage, dass es genau so funktioniert wie mit PS, aber eben ohne die Einschränkungen.
Mit CS kann man auf den Shared-Speicher zurückgreifen. Die einzelnen Threads haben ihre ID, der Programmierer kann steuern, was mit wem berechnet wird (kein Hier-Z oä). Man erspart sich teure Zugriffe auf den Hauptspeicher, usw.

Gast
2009-09-24, 12:16:24
ist da jetzt eigendlich bei allen Karten der Grid2 Gutschein dabei?

cipoint
2009-09-24, 12:16:26
Alles eine Frage der Spannung :D

http://img132.imageshack.us/img132/1363/3dmarkrecord.jpg

"Sami ran the single-GPU X11364 score with CPU aircooled at 4GHz and a single 5870 at 1250MHz engine and 1390MHz memory."

http://www.legitreviews.com/article/1080/15/

Ja guuuut, aber wie haben die die GPU gekühlt?

deekey777
2009-09-24, 12:22:14
Das ist dann wohl einer der weniger gut ausgewählten Fälle. Aber das sieht man doch durchaus das Potential des HBAO über CS5.0.
HBAO ist von Nvidia, HDAO ist von ATi. :)

PCGH_Raffael
2009-09-24, 12:23:49
Sehe ich das richtig, dass die Radeon HD5K in Sachen AF in default-Einstellung an Nvidias default-Einstellung (quality) vorbeigezogen ist? Ähnliche Flimmerneigung, minimal bessere Winkelunabhängigkeit (fällt in der Praxis nicht auf) und keine bugwellenverursachende trilineare Optimierung.

In den von uns getesteten Spielen ist A.I. Standard gleichwertig zu Nvidias Standard (Qualität + Trilineare "Optimierung"), aber nicht besser. In Crysis (Warhead) gibt's definitiv noch Bri-Banding bei Ati – das haben wir in einem 4er-Splitscreen-Vergleich in einem Video festgehalten. Das gibt's aber nur auf unserer Heft-DVD der kommenden Ausgabe 11/2009.

MfG,
Raff

James Ryan
2009-09-24, 12:24:38
iXBT hat 950MHz GPU erreicht während andere Seiten nicht einmal die 900MHz GPU erreicht haben. Da muss man wohl etwas an der Spannung drehen, was via Software geht. ;)

Interessant ist auch die Speicherübertaktung durch die Fehlerkontrolle im MC:

http://www.techpowerup.com/reviews/ATI/Radeon_HD_5870/33.html

Ähnliches gab/gibt es bei NVIDIA auch seit der Gf4 Reihe.

MfG :cool:

derguru
2009-09-24, 12:32:58
In den von uns getesteten Spielen ist A.I. Standard gleichwertig zu Nvidias Standard (Qualität + Trilineare "Optimierung"), aber nicht besser. In Crysis (Warhead) gibt's definitiv noch Bri-Banding bei Ati – das haben wir in einem 4er-Splitscreen-Vergleich in einem Video festgehalten. Das gibt's aber nur auf unserer Heft-DVD der kommenden Ausgabe 11/2009.

MfG,
Raff
und tut sich was von a.i. standard auf a.i.off?

Palpatin
2009-09-24, 12:34:13
http://www.hartware.de/news_47669.html. WoW sehr interessante Karten.

derguru
2009-09-24, 12:38:18
http://www.hartware.de/news_47669.html. WoW sehr interessante Karten.

das ist gut zu wissen das noch viel mehr möglich ist aber mit dem standardlüfter muss man wohl durchgehend auf 100% laufen lassen.:biggrin:
ein grund mehr auf vapor x zu warten;)

Gast
2009-09-24, 12:40:38
1.35 mit Luftkühlung......oha die haben wohl ne extra RMA Abteilung aufgemacht, ich glaube kaum das die andere Komponeten in der kurzen zeit verbaut haben.

Gast
2009-09-24, 12:41:19
das ist gut zu wissen das noch viel mehr möglich ist aber mit dem standardlüfter muss man wohl durchgehend auf 100% laufen lassen.:biggrin:
ein grund mehr auf vapor x zu warten;)


WASSER!

Gast
2009-09-24, 12:42:35
Also einen Preis hat die 5870 auf jeden Fall gewonnen: Hässlichster Grafikbeschleuniger aller Zeiten. Oder gibts hier wirklich jemanden der diese unförmige, unstrukturierte schwarze Kiste schön findet? Etwas Geld für einen Designer wäre doch sicher noch dagewesen...

cipoint
2009-09-24, 12:46:16
Wenn das mit der HD5850 stimmt, hätte meine Wakü mal wieder was zu tun.

FRAGE: Die Spannung kann doch schon auf HD48xx erhöht werden. Was ist an den Asus-Karten also besonderes?

AnarchX
2009-09-24, 12:47:18
FRAGE: Die Spannung kann doch schon auf HD48xx erhöht werden. Was ist an den Asus-Karten also besonderes?
Nichts, ASUS bietet eben ihren eigenen Voltage Tuner an.

cipoint
2009-09-24, 12:49:45
Also einen Preis hat die 5870 auf jeden Fall gewonnen: Hässlichster Grafikbeschleuniger aller Zeiten. Oder gibts hier wirklich jemanden der diese unförmige, unstrukturierte schwarze Kiste schön findet? Etwas Geld für einen Designer wäre doch sicher noch dagewesen...

Wenn es nach mir gehen würde, könnte die Karte einfach ein schwarzer Klotz sein. Erstens fliegt der Kühler bei meinen Karten sowieso weg wegen einer Wakü und zweitens muss das ding funktionieren und nicht gut aussehen.

Gast
2009-09-24, 12:50:25
das ist gut zu wissen das noch viel mehr möglich ist aber mit dem standardlüfter muss man wohl durchgehend auf 100% laufen lassen.:biggrin:
ein grund mehr auf vapor x zu warten;)

Testsystem mit 6GB Speicher und Vista 32bit mit SP1 und das scheinen nicht die einzigen zu sein die solche Systeme benutzen.

Sentionline
2009-09-24, 12:50:44
Bildhübsch sind die Nvidia Karten nun auch nicht...:rolleyes:

cipoint
2009-09-24, 12:51:53
Nichts, ASUS bietet eben ihren eigenen Voltage Tuner an.

Vielleicht lassen sich die Einstellungen ins BIOS brennen. Das wäre natürlich ein kleiner Vorteil.

Was ich noch interessant finde, ob Asus die angebebenen Frequenzen bei den angegebeben Spannungen garantiert oder ob das "bis zu" einfach nur fehlt.

Gast
2009-09-24, 12:52:12
Naja, dein Wunsch wurde ja erfüllt: Schwarzer Klotz. Für Besitzer von Gehäusen mit Gucklöchern ist das allerdings eine Beleidigung :D

_flx
2009-09-24, 12:53:53
Kannst sie ja anmalen... :rolleyes:

Spasstiger
2009-09-24, 12:56:09
Kannst sie ja anmalen... :rolleyes:
Ich glaube, er sucht eher sowas:
http://www.abload.de/img/1mdtem.jpg
;D

Gast
2009-09-24, 12:57:43
Vielleicht lassen sich die Einstellungen ins BIOS brennen. Das wäre natürlich ein kleiner Vorteil.

Was ich noch interessant finde, ob Asus die angebebenen Frequenzen bei den angegebeben Spannungen garantiert oder ob das "bis zu" einfach nur fehlt.

aufs OC gibts nie ne Garantie, einige schaffen den Takt andere werden Rot und verabschieden sich Richtung Mülleimer :-) und unter Luft 1.35 auf den digitalen SPAWA....ich tippe 120-150 Grad..wers brauch.

AnarchX
2009-09-24, 12:58:22
Was ich noch interessant finde, ob Asus die angebebenen Frequenzen bei den angegebeben Spannungen garantiert oder ob das "bis zu" einfach nur fehlt.
Sind wohl wie bei den bisherigen Voltage Tweak Karten wieder nur "bis zu"-Werte.

_flx
2009-09-24, 12:59:31
Ich glaube, er sucht eher sowas:
http://www.abload.de/img/1mdtem.jpg
;D
I lol'd :freak:

Armaq
2009-09-24, 13:01:43
Der Infogehalt sinkt seit mehreren Seiten kontinuierlich.

Bleibt festzuhalten, dass die 5870 wohl doch an ihrer Bandbreite krankt und eine 5850 die wohl beste Option bis Dez/Jan. darstellt.

Sehr interessant finde ich die Idle-Werte eines CF-Setups. Wird die Karte Nr.2 komplett abgeschaltet oder auch nur abgesenkt?

san.salvador
2009-09-24, 13:03:05
In den von uns getesteten Spielen ist A.I. Standard gleichwertig zu Nvidias Standard (Qualität + Trilineare "Optimierung"), aber nicht besser. In Crysis (Warhead) gibt's definitiv noch Bri-Banding bei Ati – das haben wir in einem 4er-Splitscreen-Vergleich in einem Video festgehalten. Das gibt's aber nur auf unserer Heft-DVD der kommenden Ausgabe 11/2009.

MfG,
Raff
Wieso reiten hier alle auf Treiberdefault herum? In der Computerbild Spiele mag ichs ja noch verstehen. Aber beim Klientel der PCGH und von 3Dc sollten eigentlich andere Settings von Wert sein.
Ich halte es da wie tombi, bei mir sind HQ und 16xAF seit mehreren Generationen Nviddia fix im Treiber eingestellt, ich weiß garnicht, wie Q aussieht. :D

Wäre schön, wenn hier etwas weniger über Default und etwas mehr über jeweils die höchstmöglichen Settings geratscht werden würde.

Gast
2009-09-24, 13:03:58
Also einen Preis hat die 5870 auf jeden Fall gewonnen: Hässlichster Grafikbeschleuniger aller Zeiten. Oder gibts hier wirklich jemanden der diese unförmige, unstrukturierte schwarze Kiste schön findet? Etwas Geld für einen Designer wäre doch sicher noch dagewesen...

Ja mir zb gefällt das AMD-Batmobil, und ich bin da nicht der einzige ^^

LovesuckZ
2009-09-24, 13:05:23
Sehr interessant finde ich die Idle-Werte eines CF-Setups. Wird die Karte Nr.2 komplett abgeschaltet oder auch nur abgesenkt?

Eventuell bei der x2, aber nicht beim normalen CF.

Gast
2009-09-24, 13:05:28
[QUOTE=Armaq;7553216]Der Infogehalt sinkt seit mehreren Seiten kontinuierlich.

Bleibt festzuhalten, dass die 5870 wohl doch an ihrer Bandbreite krankt

wo siehst du das oder machst das fest?

Gummikuh
2009-09-24, 13:06:59
Bei 2 karten wird die 2. afaik fast komplett abgeschaltet.Hatte das auch schonmal bei einem test zw. 2 HD3870 und einer HD3870 X2 gesehen, die Doppelkarten haben im Idle deutlich weniger Strom benötigt, lag nur etwas über einer Single Karte.

Edit: Ah gefunden, hier der Test, auf den ich meine Aussage bezogen hab. Klick (http://www.technic3d.com/article-593,5-sapphire-hd3870-crossfire-amd-wieder-an-der-spitze.htm)

Demirug
2009-09-24, 13:13:02
Ist eine Unterstützung über Cuda bzw. OpenCL möglich? Oder benötigt man für die Beschleunigung CS?

Bei CUDA und OpenCL bekommst du massive syncronisationsprobleme da man dann ja keinen gemeinsame Context mehr hat.

Es war so gemeint, dass AMD sein HBAO im Treiber für die HD 5000 bereitstellt. Oder kann man für eine Pre-D3D11-Anwendung keinen CS5.0 abwenden?

Der Treiber darf alles. Das Problem bei dem neuen SSAO ist das es auch die normalemaps berücksichtigt. Das generisch im Treiber zu lösen ist sehr aufwendig. Eine reines Geometrie SSAO könnte ich durch ein paar Tricks hinter jede DX10+ Anwendung zwingen.

PCGH_Raffael
2009-09-24, 13:14:50
Wieso reiten hier alle auf Treiberdefault herum? In der Computerbild Spiele mag ichs ja noch verstehen. Aber beim Klientel der PCGH und von 3Dc sollten eigentlich andere Settings von Wert sein.
Ich halte es da wie tombi, bei mir sind HQ und 16xAF seit mehreren Generationen Nviddia fix im Treiber eingestellt, ich weiß garnicht, wie Q aussieht. :D

Wäre schön, wenn hier etwas weniger über Default und etwas mehr über jeweils die höchstmöglichen Settings geratscht werden würde.

Q wird gegen A.I. gebencht, daher wird über deren Vergleichbarkeit geredet. Dass HQ besser ist, wurde ja bereits von mehreren Quellen bestätigt.

MfG,
Raff

Armaq
2009-09-24, 13:17:32
wo siehst du das oder machst das fest?
Weil die 5850 (simuliert) so nah dran ist.
Weil die 5870 mehr als die doppelte Rechenleistung bietet (zu 4870 zur 4890 so ziemlich genau die doppelte Leistung), aber die Leistung nicht immer ankommt.
Weil die Karte sich von der Rechenleistung extrem weit vor der GTX 285 positioniert, aber bei Pixel/Texel nur leichten Vorsprung hat, während die Bandbreite sogar dahinter liegt.

Also schlussfolgere ich als erstes ein Bandbreitenproblem. :)


Edit: Das über mir löschen! Ich hatte auf edit geklickt?! Danke.

w0mbat
2009-09-24, 13:19:06
Ich glaube, er sucht eher sowas:
http://www.abload.de/img/1mdtem.jpg
;D

Das witzige dabei ist, dass dies die beste HD4770 ist dies es zZt gibt. Extrem leise und sparsam.

Gast
2009-09-24, 13:20:54
Die Vapor-X sehen z.B. sehr gut aus.

Aber die schwarze Kiste, ne, das is nix, das Auge isst schliesslich auch mit.

PCGH_Raffael
2009-09-24, 13:21:12
Das witzige dabei ist, dass dies die beste HD4770 ist dies es zZt gibt. Extrem leise und sparsam.

Der Idle-Verbrauch einer bzw. dieser HD 4770 liegt 70% über dem einer HD 5870 (34 gegenüber 20 Watt). ;D Natürlich sind etwa 30 Watt trotzdem gut.

MfG,
Raff

LovesuckZ
2009-09-24, 13:23:45
Stalker DirectX 11 is postponed till January[?] (http://www.fudzilla.com/content/view/15672/1/)

Schreibt jedenfalls Fuad. Muss also nicht stimmen.

derguru
2009-09-24, 13:31:01
hmm verschwörungstheoretiker wie ich würden sagen,The Way It's Meant To Be Played
dx11 patch im januar wie auch die gt300:rolleyes:

LolekDeluxe
2009-09-24, 13:33:20
Also einen Preis hat die 5870 auf jeden Fall gewonnen: Hässlichster Grafikbeschleuniger aller Zeiten. Oder gibts hier wirklich jemanden der diese unförmige, unstrukturierte schwarze Kiste schön findet? Etwas Geld für einen Designer wäre doch sicher noch dagewesen...
Sind wir jetzt schon so Tief gesunken, ist es jetzt der letzte Strohhalm wo sich die NV Fanboys festklammern.;D

Advanced
2009-09-24, 13:40:52
Zumal Schönheit wohl mal definitiv Geschmackssache ist!

Gast
2009-09-24, 13:41:59
Weil die 5850 (simuliert) so nah dran ist.
Weil die 5870 mehr als die doppelte Rechenleistung bietet (zu 4870 zur 4890 so ziemlich genau die doppelte Leistung), aber die Leistung nicht immer ankommt.
Weil die Karte sich von der Rechenleistung extrem weit vor der GTX 285 positioniert, aber bei Pixel/Texel nur leichten Vorsprung hat, während die Bandbreite sogar dahinter liegt.

Also schlussfolgere ich als erstes ein Bandbreitenproblem. :)


Edit: Das über mir löschen! Ich hatte auf edit geklickt?! Danke.

hmm ich lese das aber nirgends in einem der Tests weder hier "PCGH_Raffael" :-) noch wo anders....

Gast
2009-09-24, 13:42:21
Bildhübsch sind die Nvidia Karten nun auch nicht...:rolleyes:Die schwarze Hochglanzummantelung meiner GTX 280 erachte ich als optisch gut.

Nach den Bildern zu urteilen ist es bei der HD5870 nicht der Fall. Es macht einfach einen billigeren Eindruck, dann die roten Plastikteile an der Seite und hinten, der rote Streifen, all das nagt am optischen Eindruck, es sieht schlicht wie eine Kiddie Karte aus, ähnlich dem von Spasstiger gezeigten Bild einer Asus.

Ehrlich gesagt erachte ich bereits die HD5 Vorgänger als nicht unbedingt optische Meisterwerke, das rote Plastik war auch nicht sehr ansprechend.

Wenn es nach mir gehen würde, könnte die Karte einfach ein schwarzer Klotz sein. Erstens fliegt der Kühler bei meinen Karten sowieso weg wegen einer Wakü und zweitens muss das ding funktionieren und nicht gut aussehen.
Geht mir genauso, der Waküteil.
Gerade deshalb ist das schwarze PCB wichtig, da kann man nicht meckern.

Gast
2009-09-24, 13:43:26
meine Kiste ist zu>ergo ich seh nix.
2. kommt wakü wenn ichs dann sehe>ergo wurst.

Gast
2009-09-24, 13:45:25
ergo wurst.
Dir vielleicht, mir auch.
Aber man darf doch dennoch darüber reden.

Gast
2009-09-24, 13:50:13
Was hat denn das mit "Fanboy" zu tun wenn man anmerkt dass die Karte einfach nur scheisse aussieht? Und ich hatte bisher ATI/nVidia/Matrox/3DFx Karten in meiner "Karriere" und bin auf keinen bestimmten Hersteller fixiert. Aber die 5870 ist offenbar die erste Seifenschachtel die offenbar auch Bilder generieren kann.

CompuJoe
2009-09-24, 13:53:55
Bastel ich mir noch nen Heckspoiler drauf und klebe Legoräder drann sieht sie aus wie ein Auto ^^

Ach mir isses Wurst, seh die Karte eh nicht im geschlossenen Gehäuse.

Cyphermaster
2009-09-24, 13:55:49
Zumal Schönheit wohl mal definitiv Geschmackssache ist!I'll second that. Gilt für Kühler, Mainboards, und alles Andere. Am Ende nutzt dann eh wieder jeder Hersteller seine Eigenkreationen an Kühlern - und die Flamewars haben wieder neue Nahrung. :rolleyes:

Spasstiger
2009-09-24, 13:57:58
Also schlussfolgere ich als erstes ein Bandbreitenproblem. :)
Das Problem ist eher, dass die Setup-Engine gegenüber dem RV770/RV790 offenbar nicht leistungsfähiger geworden ist.

Gummikuh
2009-09-24, 14:05:57
Immerhin scheint der Kühler (für ein Referenzmodell) ganz gut zu funktionieren.In dem Fall wäre mir das Aussehen egal.

Aber bei meinem derzeitigen Zockerkonsum brauch ich sowas nicht, wäre reine Ressourcenverschwendung:rolleyes:

Finde die Vorstellung net so schlecht, manche machen hier ja so als wäre es ne Neuauflage der HD2900XT.

Und das mit dem AF ist doch toll für NV Fans, weil man kann...

a) in Filterdisskusionen noch weiterhin schön lästern :ucrazy4:

b) dank fehlendem HQ AF kommt man nicht in Versuchung son AMD/ATI Teifelszeugs in den Rechner zu stecken. :ujump2:

Ist doch toll, oder?:biggrin:

Gast
2009-09-24, 14:06:26
das ist gut zu wissen das noch viel mehr möglich ist aber mit dem standardlüfter muss man wohl durchgehend auf 100% laufen lassen.:biggrin:
ein grund mehr auf vapor x zu warten;)
wer brauch das Tool von Asus?
http://www.techpowerup.com/downloads/1641/AMD_GPU_Clock_Tool_v0.9.26.0.html
http://forums.techpowerup.com/showthread.php?t=104450

Der_Korken
2009-09-24, 14:07:39
Eine Frage an die Filter-Experten: Wo lässt sich das HQ-AF der X1k-Serie einordnen? Hier im Thread wurde gesagt, dass sich die Filter-Qualität mit der HD2k verschlechtert hat und mit der HD5k wieder leicht verbessert. Wo steht da die X1k-Serie im direkten Vergleich?

Cyphermaster
2009-09-24, 14:17:10
Einen "direkten" Vergleich gibt es kaum, da theoretische BQ = wahrgenommene BQ eben NICHT gilt, und man z.B. Winkelabhängigkeit nicht gegen besseres AA-Samplegrid "verrechnen" kann.

Sentionline
2009-09-24, 14:18:04
Zwischen G80 und RV870. Behaupte ich.

Gast
2009-09-24, 14:33:30
Ich hasse diese Papierstarter...

Hoffentlich ist die 5850 bald in Stückzahlen verfügbar, damit ich endlich meine GTX275 billiger bekomme.

Gast
2009-09-24, 14:46:53
http://www.legitreviews.com/article/1090/1/

woran liegts ..
GPU oder Ram OC?

derguru
2009-09-24, 14:48:48
die 5870 ist noch bevor sie in die läden angekommen ist schon unter die 300 euro gefallen.;D
http://geizhals.at/deutschland/?cat=gra16_512;asuch=5870&sort=p

Hakkerstiwwel
2009-09-24, 14:50:45
schon gepostet? Laut Theo demnaechst lieferbar, AMD hat anscheinend den Distributionsmodus geaendert.
http://www.brightsideofnews.com/news/2009/9/23/ati-radeon-5800-to-be-in-short-supply.aspx

kruemelmonster
2009-09-24, 15:02:46
Mein Fazit:

AMD bleibt seiner Linie treu: HW annehmbar, SW pfui.

Das ALDI-AF ist weiterhin unabschaltbar da. Ob der rote Fanblock das nun sehen will oder nicht ist egal, die Videos von HT4U sprechen Bände: ATI flimmert, NV flimmert nicht. (nur mit HQ, richtig, aber wer nutzt schon Q auf ner GF?)

Den Playmobil-Treiber hat man auch weiterhin an der Backe. Keine spielespezifischen Einstellungen gehen gar nicht. Wenn ich mir meine nHancer Profile anguckt und mir dann vorstelle dass alles übers CP für jedes Spiel vor jedem Spielstart erneut einstellen zu müssen...:weg:

Die HW bringt n schönen Leistungszuwachs ggü RV770, gerade deshalb ist es sehr schade das AMD nicht gewillt ist den Treiber als leicht veränderbare Variable zu verbessern und so vllt mal mündige, von Treiberoptionen nicht überforderte, BQ-verwöhnte GF-Käufer wie mich als Kunden zu gewinnen.

---

Was mich grad enorm aufregt ist das HardOCP Review. Eigentlich standen die Jungs bei mir recht hoch in der Gunst, das 5870 Review liest sich jedoch als stünde der Redakteur auf AMDs Gehaltliste:

Arguably, DirectX 11 features and support could be considered "revolutionary" if AMD had not already supported some of DX11’s important features like tessellation in their previous generation video cards already. In fact, this is AMD’s 6th generation tessellation engine. It is expected that NVIDIA’s next generation GPU will be its first to support tessellation as is required in DX11.

Oh, ATI hat schon ihre sechste Tessellation Engine, NV kommt erst mit ihrer ersten. Mann, ist ATI toll. Das die entsprechenden Chipteile seit R200 Däumchen drehen verschweigt man schön in dem PR-Pamphlet aka Review.
Oder anders: was haben die 5 alten Engines denn Großes gemacht außer Techdemos und Powerpoint-Slides?

ATI has improved texture filtering to the point that it looks as good if not better than the reference rasterizer. The new AF algorithm eliminates the angle dependency of the previous generation, with absolutely no performance hit in doing so compared to the previous generation.

Das ist echt die Härte. Wenn's nicht so traurig wär ich müsste wohl laut loslachen.

I would say ATI has succeeded in providing the absolute best filtering quality in a gaming graphics card.

Jup. Die Erde ist auch ne Scheibe und durchs Küssen werden Frauen schwanger.

robbitop
2009-09-24, 15:07:35
Ziemlich dämlich, dass die Preise jetzt schon am Sinken sind - wo man gerade doch jetzt ein wenig Geld verdienen könnte.

Gast
2009-09-24, 15:11:36
http://www.hardware.info/nl-NL/products/ZGZnnGZnyZ9l/bGpkZJiWmJfKYsg,bGpkZZiSmJrKYcg,bGpkZZiUmJPKZsg/viewbenchmark/

http://images.hardwareinfo.net/products/large/081226.jpg

http://www.hardware.info/forum/showthread.php?p=1753015#post=1753015
Die haben mal kurz 3. Karte von XFX angetestet...

AnarchX
2009-09-24, 15:11:56
@ robbitop
Die 90% der Karten, die zu den OEMs gegangen sind, hat man vielleicht zu einem besseren Preis verkauft. :D

In den Niederlanden listen schon einige Shops die 5850 für 19x€ und die 5870 270-290€. Fragt sich nur wann man dann eine solche Karte bekommt.

derguru
2009-09-24, 15:13:09
Ziemlich dämlich, dass die Preise jetzt schon am Sinken sind - wo man gerade doch jetzt ein wenig Geld verdienen könnte.
ach das ist doch bestimmt der spielraum der händler,ich denke nicht das amd damit was zutun hat.

Gast
2009-09-24, 15:13:17
Sorry, gehört dazu:
http://www.hardware.info/nl-NL/products/ZGZnnGZjyZxl/bGpkZJiWmJfKYsg,bGpkZZiSmJrKYcg,bGpkZZiUmJPKZsg/viewbenchmark/

reunion
2009-09-24, 15:14:12
Ziemlich dämlich, dass die Preise jetzt schon am Sinken sind - wo man gerade doch jetzt ein wenig Geld verdienen könnte.

Wo sinken die Preise?

Gast
2009-09-24, 15:16:49
die 5870 ist noch bevor sie in die läden angekommen ist schon unter die 300 euro gefallen.;D
http://geizhals.at/deutschland/?cat=gra16_512;asuch=5870&sort=p
Vielleicht kostet die Prduktion entsprechend wenig:
dann wäre Angebot/Nachfrage also die Lösung, ganz einfach.

Gummikuh
2009-09-24, 15:20:41
Das ALDI-AF ist weiterhin unabschaltbar da.

Aldi 2.0 ist gegenüber Aldi 1.0 schonmal ein Fortschritt, wenn auch nur ein ziemlich kleiner.Immerhin hat sich mal seit langem überhaupt etwas getan.:freak:


Wenn ich mir meine nHancer Profile anguckt und mir dann vorstelle dass alles übers CP für jedes Spiel vor jedem Spielstart erneut einstellen zu müssen...:weg:




Die HW bringt n schönen Leistungszuwachs ggü RV770, gerade deshalb ist es sehr schade das AMD nicht gewillt ist den Treiber als leicht veränderbare Variable zu verbessern und so vllt mal mündige, von Treiberoptionen nicht überforderte, BQ-verwöhnte GF-Käufer wie mich als Kunden zu gewinnen.


Dieser Satz ist provozierend und klingt auch noch arrogant,ja als wären die ATI Nutzer zu doof das CP zu öffnen und da was einzustellen:freak:).

Copy&Paste ists auch noch, lese den Satz nicht zum ersten male.

Was meinste wieviel GeForce Nutzer einfach den Treiber draufknallen und die "Q" Einstellung nutzen.Von nHancer haben diese Leute sicherlich auch noch nix gehört.

Davon ab, was willste denn eigentlich mit ner ATI? Ende des Jahres kommt dein Komplettpaket namens GT300 :uup:

Jake Dunn
2009-09-24, 15:26:52
Weil die 5850 (simuliert) so nah dran ist.
Weil die 5870 mehr als die doppelte Rechenleistung bietet (zu 4870 zur 4890 so ziemlich genau die doppelte Leistung), aber die Leistung nicht immer ankommt.
Weil die Karte sich von der Rechenleistung extrem weit vor der GTX 285 positioniert, aber bei Pixel/Texel nur leichten Vorsprung hat, während die Bandbreite sogar dahinter liegt.

Also schlussfolgere ich als erstes ein Bandbreitenproblem. :)


Edit: Das über mir löschen! Ich hatte auf edit geklickt?! Danke.

Die 5850er hat doch 20% weniger Bandbreite,also unlogisch deine Theorie

die 5870 ist noch bevor sie in die läden angekommen ist schon unter die 300 euro gefallen.;D
http://geizhals.at/deutschland/?cat=gra16_512;asuch=5870&sort=p

Bei der C3D gibt es aber auch nichts mitzu (Games, PowerDVD usw.) ;)

Killeralf
2009-09-24, 15:28:55
Den Playmobil-Treiber hat man auch weiterhin an der Backe. Keine spielespezifischen Einstellungen gehen gar nicht. Wenn ich mir meine nHancer Profile anguckt und mir dann vorstelle dass alles übers CP für jedes Spiel vor jedem Spielstart erneut einstellen zu müssen...:weg:

Du benutzt den nHancer um profile zu erstellen, ati-user die ATTs, wo ist jetzt gleich noch mal der unterschied?

Gast
2009-09-24, 15:30:33
Vielleicht kostet die Prduktion entsprechend wenig:
dann wäre Angebot/Nachfrage also die Lösung, ganz einfach.
Es besteht Nachfrage aber kein Angebot.
Die Preise zu senken ist somit unlogisch.

Ich denke es liegt an der Konkurrenz der Händler. Erst fett abgreifen, die Vorbesteller ausnehmen und dann angleichen auf ein gemeinsames Niveau, so hoch es eben ist bei all den Kosten und dem Einkaufspreis.

mapel110
2009-09-24, 15:31:12
Du benutzt den nHancer um profile zu erstellen, ati-user die ATTs, wo ist jetzt gleich noch mal der unterschied?
Bei nvidia werden die Profile völlig automatisch aktiv, wenn das Spiel geladen wird. Afaik ist das bei ATI immer noch nicht der Fall und man muss das Profil vorher selbst aktivieren?! Oder erkennt ATT die Spiele automatisch und aktiviert das jeweilige Profil?

Gast
2009-09-24, 15:31:58
Aldi 2.0 ist gegenüber Aldi 1.0 schonmal ein Fortschritt, wenn auch nur ein ziemlich kleiner.Immerhin hat sich mal seit langem überhaupt etwas getan.:freak:

Wie lange dauert es bei der Besserungsgeschwindigkeit, bis AMD das Niveau der 2006er Konkurrenz erreicht hat? ;)

Gast
2009-09-24, 15:34:19
Bei der C3D gibt es aber auch nichts mitzu (Games, PowerDVD usw.) ;)

Wer braucht denn auch Games dazu? Eh meist nur Rotz dabei...

Hakkerstiwwel
2009-09-24, 15:35:02
Bei nvidia werden die Profile völlig automatisch aktiv, wenn das Spiel geladen wird. Afaik ist das bei ATI immer noch nicht der Fall und man muss das Profil vorher selbst aktivieren?! Oder erkennt ATT die Spiele automatisch und aktiviert das jeweilige Profil?
Die Antwort is ein klares Jein, man muß das Profil so definieren dass es automatisch mit der exe laedt, aber es geht.

deekey777
2009-09-24, 15:35:34
Du benutzt den nHancer um profile zu erstellen, ati-user die ATTs, wo ist jetzt gleich noch mal der unterschied?
Wenn man so ein Uber-User wie ich wäre, dann wüßte man, dass im CCC mit wenigen Klicks eigene Profile erstellt werden können, die dann so gar das entsprechende Spiel oder die entsprechende Anwendung starten. Wenn man aber kein Uber-User ist...

Killeralf
2009-09-24, 15:35:56
Bei nvidia werden die Profile völlig automatisch aktiv, wenn das Spiel geladen wird. Afaik ist das bei ATI immer noch nicht der Fall und man muss das Profil vorher selbst aktivieren?! Oder erkennt ATT die Spiele automatisch und aktiviert das jeweilige Profil?

Rechtsklick auf das trayicon und das spiel mit dem jeweiligen profil starten, man kann sich von den ATTs aber auch desktopverknüpfungen erstellen lassen.

Wenn man so ein Uber-User wie ich wäre, dann wüßte man, dass im CCC mit wenigen Klicks eigene Profile erstellt werden können, die dann so gar das entsprechende Spiel oder die entsprechende Anwendung starten. Wenn man aber kein Uber-User ist...

Das geht natürlich auch, hab das CCC aber selber auf meinem rechner noch nie benutzt. Mir gings vor allem darum, daß kruemelmonster ein externes tool benutzt und so tut als obs das bei ati nicht geben würde.

kruemelmonster
2009-09-24, 15:38:40
Aldi 2.0 ist gegenüber Aldi 1.0 schonmal ein Fortschritt, wenn auch nur ein ziemlich kleiner.Immerhin hat sich mal seit langem überhaupt etwas getan.:freak:

Immerhin reicht mir nicht. G80 mit seiner makellosen HQ-Filterung kam 2006.

Dieser Satz ist provozierend und klingt auch noch arrogant,ja als wären die ATI Nutzer zu doof das CP zu öffnen und da was einzustellen:freak:).

Das ist offizielles ATI-Sprech. ATI hält seine Kunden für zu beschränkt, nicht ich.

Copy&Paste ists auch noch, lese den Satz nicht zum ersten male.

Es hat sich ja auch nix geändert. RV870 filtert nur marginalst besser als RV770.

Was meinste wieviel GeForce Nutzer einfach den Treiber draufknallen und die "Q" Einstellung nutzen.Von nHancer haben diese Leute sicherlich auch noch nix gehört.

Mir wurscht was die unwissende oder uninteressierte Allgemeinheit macht, ich will HQ-Filterung.

Davon ab, was willste denn eigentlich mit ner ATI? Ende des Jahres kommt dein Komplettpaket namens GT300 :uup:

Ich bin nicht markentreu, mit HQ-Filterung und ner Profilverwaltung im Treiber würde ich auch wieder ATI kaufen. Nur eben nicht so.

/edit: OK, ATI hat auch ne Profilverwaltung. Hab schon lange nicht mehr ins CCC geschaut. My bad.

Gummikuh
2009-09-24, 15:43:14
Wie lange dauert es bei der Besserungsgeschwindigkeit, bis AMD das Niveau der 2006er Konkurrenz erreicht hat? ;)

Wie man sieht geht es mit Sharping Warp, also relativ "Langsaaaaam".

Zumindest hat man irgendwie doch was von den Filterdisskusionen mitbekommen, sonst hätte sich wohl gar nix geändert.

Ich bin nicht markentreu, mit HQ-Filterung und ner Profilverwaltung im Treiber würde ich auch wieder ATI kaufen. Nur eben nicht so.

Nun selbst wenn es bei ATI HQ-AF geben würde, mit der jetzigen Profilverwaltung hättest du bestimmt nicht so ein Spaß, wie mit dem nHancer.Den aHancer gibts halt nicht.

kruemelmonster
2009-09-24, 15:53:07
Nun selbst wenn es bei ATI HQ-AF geben würde, mit der jetzigen Profilverwaltung hättest du bestimmt nicht so ein Spaß, wie mit dem nHancer.Den aHancer gibts halt nicht.

Touché :biggrin:. Die Usability vom nHancer ist kaum zu übertreffen, insofern wäre der nHancer trotz HQAF@ATI weiter ein Pro NV Argument für mich. Mit HQAF@ATI hätte ich dann aber Argumente abzuwägen, jetzt kann ich immer nur blind auf NV warten.

Ihm
2009-09-24, 15:58:44
Also ich finde die neuen GPUs eigentlich ganz gut.
Wobei ich sagen muss, dass mich GPGPU in diesem Fall mehr interessiert und die GPU dahingehend wohl ordentlich zugelegt hat.
Die Preise scheinen auch ganz human zu werden.
Ein gutes Update der RV770-Architektur, wie ich finde.

Wenn es wahr ist, dass die GT300 eine komplett neue Architektur mitbringt, dann bin ich äusserst gespannt. Gerade im Bereich GPGPU erwarte ich einen massiven Leistungsanstieg.
Wirtschaftlich gesehen glaube ich jedoch an einen Siegeszug der 5870, welchen die 5890 bei der Einführung der GT300 fortsetzen wird.
Leistungstechnisch wird die GT300 sich aber wohl die Krone aufsetzen. Das ist aber nunmal nicht alles, wie man weiss. ;)

Gast
2009-09-24, 15:59:08
Zumindest hat man irgendwie doch was von den Filterdisskusionen mitbekommen, sonst hätte sich wohl gar nix geändert.

Man hat es mitbekommen, in der Tat.
Man hat es lediglich aus Marketinggründen minimal verbessert, nicht damit es besser ist.
Wirkung hat der Streich schon gezeigt, die Gemeinde ist froh darüber, obwohl das Problem nicht beseitigt wurde, toll oder?

Diesmal wird der Kampf für ein bessere AF noch anstrengender, wegen dem Marketingzug. Ich kann nur senlichst hoffen, das PCGH irgendwann aus der SGSSAA Begeisterung in die Realität zurückkommt und auch wieder kritischer wird.
Nebenher bleibt die Hoffnung auf Coda.
Hevorgehoben hat sich ht4u, sonst gabs zum Launch nirgends Videos.
Trotz dieser Hoffnung wird es nicht leicht, jedenfalls hat sich AMD mit dieser Aktion keine Sympatiepunkte bei mir geholt.

Tarkin
2009-09-24, 16:00:34
@ robbitop
Die 90% der Karten, die zu den OEMs gegangen sind, hat man vielleicht zu einem besseren Preis verkauft. :D

In den Niederlanden listen schon einige Shops die 5850 für 19x€ und die 5870 270-290€. Fragt sich nur wann man dann eine solche Karte bekommt.

Dieses Gerücht, dass 90% der Karten an OEMs gehen ist völliger Unsinn... nur zur Info.

sagt Dave Baumann im Beyond3d Forum... Product Manager bei ATi/AMD

http://forum.beyond3d.com/showpost.php?p=1338894&postcount=3760

Ich denke eine Korrektur der Homepage-News ist fällig ;)

Gast
2009-09-24, 16:10:36
Versand: lieferbar ab 25.09.2009

Stand: 24.09.2009, 16:03 Uhr
http://geizhals.at/deutschland/a465504.html
Na also :up:

S940
2009-09-24, 16:10:54
@kruemelmonster:
Also solange man DX10 Spiele meint, kann man sich gerne über die Filterquali beschweren, aber bei DX11 Spielen wäre mir der Tesselator dann wichtiger:

http://www.pcgameshardware.de/aid,695307/Stalker-Call-of-Pripyat-Die-ersten-DirectX-11-Screenshots/Action-Spiel/News/

Natürlich kannst Du gerne auf GT300 warten, der hat hoffentlich beides, aber im Vergleich mit den 40nm GT200 Shrinks würde ich da auf alle Fälle ATi bevorzugen.

Edit:
@Gast:
Fragt sich nur, wieviel ^^

ciao

Alex

kruemelmonster
2009-09-24, 16:14:54
Afaik schreibt D3D11 doch einen Tesselator vor oder nicht?

Außerdem: HL2 werd ich auch mit ner DX11 Karte noch spielen, die Filterqualität bleibt also wichtig.

S940
2009-09-24, 16:18:43
Ja klar, natürlich schreibt DX11 den Tesselator vor.
Die Frage ist halt, ob man eine DX11 Karte kauft oder nicht ...

Vermutlich wird nV versuchen den 200er 40nm Shrink als Konkurrenz 58x0 Konkurrenz in Stellung zu bringen. Mit höheren Taktraten aufgrund 40nm sollte das schon möglich sein. Aber ohne DX11 bringt mir das bei DX11 Spielen auch nur Eckchengrafik.

Bleibt als Ideallösung natürlich der 300 Chip, aber billig werden die Karten sicher nicht -> anderes Preissegment.

Wenn Du natürlich nur alte DX10 Spiele spielst, ist das Arguement auf Deiner Seite. Aber das kann ich mir bei nem "Enthusiasten" schlecht vostellen ;-)

ciao

Alex

Undertaker
2009-09-24, 16:20:21
Es soll ein 40nm GT200 kommen? :confused: Der GT300 wird in abgespeckten Varianten aber sehr sicher gegen den RV7870 gestellt werden.

Gast
2009-09-24, 16:20:59
angesichts der immer häufiger werdenden Sozialprobleme-Tsunamis im 3DC :ugly:

Sozial-Center.org?

Da wären dann so Leute wie du am besten aufgehoben...
Oder war das im sozialhilfe-Center.org ??

Jake Dunn
2009-09-24, 16:21:45
Zu Tesselation


http://www.abload.de/img/stalker-cop-directx-11vkg3.jpg (http://www.abload.de/image.php?img=stalker-cop-directx-11vkg3.jpg)
http://www.pcgameshardware.de/aid,695307/Stalker-Call-of-Pripyat-Die-ersten-DirectX-11-Screenshots/Action-Spiel/News/

Cyphermaster
2009-09-24, 16:25:51
Touché :biggrin:. Die Usability vom nHancer ist kaum zu übertreffen, insofern wäre der nHancer trotz HQAF@ATI weiter ein Pro NV Argument für mich. Mit HQAF@ATI hätte ich dann aber Argumente abzuwägen, jetzt kann ich immer nur blind auf NV warten.Nun ja, nHancer ist aber kein Argument pro nVidia, sondern eines pro Grestorn! Das ist kein nV-Tool, sondern nur eines für deren Karten.

Ich verstehe auch gar nicht wirklich, was sich so viele über Hardware und Treiber hinaus so künstlich echauffieren. AMD ist genau wie nV keine Feen&Elfen-GmbH aus Lieblichknuffeltal, die ihrer Kundschaft möglichst den Bauch in jeder Hinsicht und zu jedem Preis pinseln will, sondern ein Wirtschaftsbetrieb, der möglichst viel Gewinn für wenig Aufwand abwerfen soll. Und dafür ist die 5850/5870 zum jetzigen Zeitpunkt nicht verkehrt, wie ich finde. Sie kommt vor dem G300, sie liefert die längeren Balken, und sie liefert auch eine Verbesserung in der Bildqualität = Marketing-Argumente = Geld.

Ich persönlich würde mir im Falle, daß ich unbedingt ATI haben will, aber trotzdem keine HD5 kaufen, sondern darauf warten und hoffen, daß nach einem guten G300-Launch ATI zu einem größeren Satz nach vorn mit einer HD6-Reihe gezwungen wird.

RoNsOn Xs
2009-09-24, 16:25:54
dat ist doch nur bunter geworden. ansonsten hätte man die rundungen der maske sicher auch noch so geschafft wenn man gewollt hätte?!

kruemelmonster
2009-09-24, 16:27:27
@S940:
Natürlich kann als Nachfolger meiner 285 nur ne D3D11 Karte kommen. Und BQ bleibt nunmal King, egal ob 9, 10.x oder 11.

cipoint
2009-09-24, 16:28:34
Stalker DirectX 11 is postponed till January[?] (http://www.fudzilla.com/content/view/15672/1/)

Schreibt jedenfalls Fuad. Muss also nicht stimmen.

Es gab doch schon vor Wochen Meldungen, dass CoP Goldstatus erreicht hat. DX11 wird wahrscheinlich in einem Patch kommen, wie DX10.1 bei CS.

robbitop
2009-09-24, 16:31:42
Wo sinken die Preise?
< 300 EUR für ne 5870. Sorry aber das ist doch unnötiges Verramschen. Gerade jetzt, wo man absahnen kann. 350 kann man dafür mindestens nehmen.

tombman
2009-09-24, 16:36:51
Da wären dann so Leute wie du am besten aufgehoben...
Oder war das im sozialhilfe-Center.org ??
Du meinst, dort wo du ultimate-member bist?

Und ich bleibe hier, lieber "Gast" ;)

cipoint
2009-09-24, 16:37:18
Zu Tesselation


http://www.abload.de/img/stalker-cop-directx-11vkg3.jpg (http://www.abload.de/image.php?img=stalker-cop-directx-11vkg3.jpg)
http://www.pcgameshardware.de/aid,695307/Stalker-Call-of-Pripyat-Die-ersten-DirectX-11-Screenshots/Action-Spiel/News/

Cool, also doch Tesselation in CoP. Sieht gar nicht mal so schlecht aus, dafür dass das Feature im Nachhinein in die Engine eingebaut wurde. Jetzt muss noch die Texturauflösung steigen ...

san.salvador
2009-09-24, 16:39:38
< 300 EUR für ne 5870. Sorry aber das ist doch unnötiges Verramschen. Gerade jetzt, wo man absahnen kann. 350 kann man dafür mindestens nehmen.
Ich will ja nicht den Verschwörungstheoretiker raushängen lassen, aber irgendeinen Grund muss das doch haben, wenn man sich das Abschöpfen der Early Adopter entgehen lässt...

reunion
2009-09-24, 16:42:55
Cool, also doch Tesselation in CoP. Sieht gar nicht mal so schlecht aus, dafür dass das Feature im Nachhinein in die Engine eingebaut wurde. Jetzt muss noch die Texturauflösung steigen ...

Tesslation in Form von N-Patches ist ein Feature das IMO schon lange überfällig ist, da es mit relativ wenig Aufwand und Leistungsverlust erheblich bessere Grafik ermöglicht. Gerade damals zu R8500-Zeiten wäre das viel wert gewesen bei der bekannten Glötzchengrafik. Leider scheiterte es offensichtlich sehr lange am Widerstand von NV.

robbitop
2009-09-24, 16:43:47
Ich will ja nicht den Verschwörungstheoretiker raushängen lassen, aber irgendeinen Grund muss das doch haben, wenn man sich das Abschöpfen der Early Adopter entgehen lässt...
War ja beim RV770 auch so. Man will offenbar Marktanteile fischen. Ich frage mich nur wozu...

reunion
2009-09-24, 16:43:54
< 300 EUR für ne 5870. Sorry aber das ist doch unnötiges Verramschen. Gerade jetzt, wo man absahnen kann. 350 kann man dafür mindestens nehmen.

Also meinst du das die Preise zu niedrig angesetzt sind. Das ist was anderes. Aber auch da muss man sich ein wenig am Markt orientieren, und wenn die Preise am Boden sind kann man für eine solche Karte auch keine Mondpreise nehmen. Um die 300€ für eine 5870 halte ich angesichts der aktuellen Marktpreise nicht gerade für ein Schnäppchen.

derguru
2009-09-24, 16:46:25
aber die 5850 für ca. 200euro ist ein schnäppchen.

Neocroth
2009-09-24, 16:47:43
War ja beim RV770 auch so. Man will offenbar Marktanteile fischen. Ich frage mich nur wozu...

Um Leute zum Kaufen zu bewegen und nVidia so potentielle Kundschaft wegzunehmen.

mapel110
2009-09-24, 16:48:45
aber die 5850 für ca. 200euro ist ein schnäppchen.
Ja, bissl arg günstig von ATI. Aber so ist eben die Preispolitik von der Mutter AMD. Ist ja auch ähnliche Situation wie bei Prozessoren, Kampf um Marktanteile.

robbitop, Marktanteile sind fast genau so wichtig wie Gewinnmargen.

san.salvador
2009-09-24, 16:49:52
Also meinst du das die Preise zu niedrig angesetzt sind. Das ist was anderes. Aber auch da muss man sich ein wenig am Markt orientieren, und wenn die Preise am Boden sind kann man für eine solche Karte auch keine Mondpreise nehmen. Um die 300€ für eine 5870 halte ich angesichts der aktuellen Marktpreise nicht gerade für ein Schnäppchen.
Üblicherweise schöpft man in den ersten 1-2 Wochen die early adopters ab, besonders wenn man ohne Konkurrenz dasteht. Ist ja bei zB. Digicams auch nicht anders. nach einer Woche nimmt man dann den Preis runter, damit auch der Pöbel zugreift.
Man kommt dann auf die selben Marktanteile, hat aber mehr Geld im Sackl.

Ich verstehs einfach nicht...

LovesuckZ
2009-09-24, 16:50:09
Ja, bissl arg günstig von ATI. Aber so ist eben die Preispolitik von der Mutter AMD. Ist ja auch ähnliche Situation wie bei Prozessoren, Kampf um Marktanteile.

Was soll man machen, wenn die hauseigene Vorgängergeneration für 115€ über den Tisch geht.

Schlammsau
2009-09-24, 16:51:04
Ich würde mal die nächsten Wochen abwarten, die niedrigen Preise sind doch nur Kundenfang der einzelnen Händler, die noch keine Karten haben! Bzw hat noch kein Händler Karten.

Was soll man machen, wenn die hauseigene Vorgängergeneration für 115€ über den Tisch geht.
Die Single GPU Karte 4890 geht ab 150€ übern Tisch! ;)

reunion
2009-09-24, 16:54:21
Üblicherweise schöpft man in den ersten 1-2 Wochen die early adopters ab, besonders wenn man ohne Konkurrenz dasteht. Ist ja bei zB. Digicams auch nicht anders. nach einer Woche nimmt man dann den Preis runter, damit auch der Pöbel zugreift.
Man kommt dann auf die selben Marktanteile, hat aber mehr Geld im Sackl.

Ich verstehs einfach nicht...

Ich kann noch keine 5870 kaufen. Listen kann man viel. Das die Händler welche eine solche als erstes lieferbar haben dafür eine saftigen Preis verlangen sollte klar sein.

derguru
2009-09-24, 16:56:52
Ich würde mal die nächsten Wochen abwarten, die niedrigen Preise sind doch nur Kundenfang der einzelnen Händler, die noch keine Karten haben! Bzw hat noch kein Händler Karten.


Die Single GPU Karte 4890 geht ab 150€ übern Tisch! ;)
klar bissel kundenfang aber wart mal ab wenn die in massen bei den händlern gelandet sind,ruck zuck gibts ein preis kampf und die 5870 wird schneller als man denkt für 275 weg gehen und die 2gb variante nimmt den platz bei 300 euro ein.
Was soll man machen, wenn die hauseigene Vorgängergeneration für 115€ über den Tisch geht.
das selbe problem wird auch nv mit der gt300 haben,500-600 euro singlegpu karten wird es nicht mehr geben.

Neocroth
2009-09-24, 16:57:14
Stimmt - könnte auch nur Taktik seitens der Händler sein, um im Geizhals-Ranking möglichst oben zu stehen...

robbitop
2009-09-24, 16:58:17
Also meinst du das die Preise zu niedrig angesetzt sind. Das ist was anderes. Aber auch da muss man sich ein wenig am Markt orientieren, und wenn die Preise am Boden sind kann man für eine solche Karte auch keine Mondpreise nehmen. Um die 300€ für eine 5870 halte ich angesichts der aktuellen Marktpreise nicht gerade für ein Schnäppchen.
Die billigste GTX285 kostet ca 300 EUR. Da die 5870 deutlich stärker und ein neueres Featureset hat, kann man IMO locker 300-400 EUR nehmen. Was ist mit der Wertschätzung des GPU Marktes passiert? :|

Um Leute zum Kaufen zu bewegen und nVidia so potentielle Kundschaft wegzunehmen.
Was bringt das, wenn die Margen zu klein sind?


robbitop, Marktanteile sind fast genau so wichtig wie Gewinnmargen.
Gewinne sind wichtig. Ob das über Umsatz oder Marge läuft, ist egal. Aber derzeit ist das Angebot klein und die Nachfrage an den Dingern hoch. Also kann man hier wirtschaftlich einen Hebel ansetzen.


das selbe problem wird auch nv mit der gt300 haben,500-600 euro singlegpu karten wird es nicht mehr geben.
Und das obwohl die PCBs immer aufwändiger, die GPUs immer größer, die SIs immer breiter etc. werden. Der Grafik-Branche wird es offenbar bald sehr schlecht gehen, wenn das so weiter geht.
Erinnert euch mal: vor ein paar Jahren waren High End GPUs < 200 sqmm und hatten max 256 bit SIs und kosteten nach dem Launch > 500 €.

Ich sehe eine Konsolidierung auf uns zukommen...

LovesuckZ
2009-09-24, 16:59:31
das selbe problem wird auch nv mit der gt300 haben,500-600 euro singlegpu karten wird es nicht mehr geben.

Natürlich. Ich schätze, dass man maximal 450€ nehmen kann, wenn das Komplettpaket stimmt. Ansonsten wohl nur 350€ für GTX380 und 250€ für die GTX360 oder so.

Grestorn
2009-09-24, 16:59:43
AMD legt nur den UVP und den Einkaufspreis für den Großhandel fest. Was der Handel dann daraus macht, liegt nicht mehr in deren Händen.

Wenn der Handel meint sich trotz hoher Nachfrage und geringer Verfügbarkeit unterbieten zu müssen, sind die selbst schuld.

Allerdings ist es ja bekannt, dass viele Internet-Händler erst mal Bestellungen sammeln und immer wieder vetrösten, bis der Preis tatsächlich so weit gefallen ist, dass sie ohne Verlust verkaufen können.

derguru
2009-09-24, 17:03:09
die 290 euro von 3d club halte ich aber nicht mal für kundenfang weil die schon immer so ca. 30-40 euro billiger waren als asus und co. wegen austattung und vielleicht noch image.

das schizophrene ist aber,einerseits kann man sich über die preise freuen andererseits machen die hersteller immer weniger gewinn bis dann einer von den beiden "großen" sich verabschiedet und dann haben wir den salat.

vielleicht ist aber die herstellung zu früher viel günstiger geworden,keine ahnung.

reunion
2009-09-24, 17:05:18
Die billigste GTX285 kostet ca 300 EUR. Da die 5870 deutlich stärker und ein neueres Featureset hat, kann man IMO locker 300-400 EUR nehmen. Was ist mit der Wertschätzung des GPU Marktes passiert? :|


Die GTX285 hat ihr EOL längst erreicht. Die Lieferbarkeit ist miserabel und es wird von Tag zu Tag schlechter. Aber man bekam sie auch schon um 250€.


Was bringt das, wenn die Margen zu klein sind?


Zu klein? Im Vergleich zu allem anderen was momentan von AMD oder Nv angeboten wird sind die Margen gigantisch.


Gewinne sind wichtig. Ob das über Umsatz oder Marge läuft, ist egal. Aber derzeit ist das Angebot klein und die Nachfrage an den Dingern hoch. Also kann man hier wirtschaftlich einen Hebel ansetzen.

Das Angebot ist momentan nicht vorhanden, da nützt es auch nicht viel zu verlangen. Und Marktanteile sind eben alles andere als unwichtig, Marktanteile bedeuten Einfluss. Zudem kann man die Kunden nicht beliebig verarschen. Man hat ja den Aufstand gesehen als NV die Preise der GTX280/260 kurz nach dem Launch massiv gesenkt hatte.

Gast
2009-09-24, 17:29:14
http://www.legitreviews.com/article/1090/1/

woran liegts ..
GPU oder Ram OC?

keiner ne Idee?
4gig i7 und kein Pünktchen mehr.....

Gast
2009-09-24, 17:42:18
AMD ist genau wie nV keine Feen&Elfen-GmbH aus Lieblichknuffeltal, die ihrer Kundschaft möglichst den Bauch in jeder Hinsicht und zu jedem Preis pinseln will......

[DK=ON]
Flimmerhölle .........


Die wenigen nicht erblindeten Spieler liegen mit Schmerzen am Boden und winden sich in herrlichem Leid. Die der Seefähigkeit beraupten werden mit mit unverändertem CCC bedacht. Mit dieser Bosheit habt ihr euch übertroffen, Herr.
[/DK=OFF]


Nicht ernst nehmen. :D ;) Und wers nicht erkennt erstmal zum Regal mit den Klassikern gehen ........ Tipp: von Bullfrog.

Raff
2009-09-24, 18:02:20
Spontan: Dungeon Keeper? =)

MfG,
Raff

Gast
2009-09-24, 18:05:27
Heise kann jetzt auch Video!! O_o

http://www.heise.de/newsticker/Radeon-HD-5850-ab-200-Euro-gelistet--/meldung/145857

Ihm
2009-09-24, 18:09:27
Ich denke mal, dass AMD's RV870 Strategie so aussieht:

1.
Die Möglichkeit für Händler schaffen die psychologische Preismarke von 299€ nicht zu überschreiten.

2.
Zweiflern ein derart attraktives Angebot machen, dass dies ein Hype auslöst und Nvidia keine Zeit mehr hat die Kundschaft mit Kampagnen zum Warten zu bewegen. Damit könnte man auch der Schaffung einer PhysX-Basis beim Kunden entgegenwirken. Dies führt dann logischerweise zu weniger Titeln mit PhysX -> Gut für den Endkunden und gut für AMD. ;)

3.
Nvidia zu zwingen ihre aktuelle Produktlinie deutlich günstiger abzugeben.
Dies kann mitunter auch dazu führen, dass Nvidia im Q4 2009 in die roten Zahlen absackt (siehe Q3 2009).
Dies würde wiederum zu sinkenden Kursen führen und damit zu einem eventuellen Vorziehen des GT300 Starts. AMD weiss aber, dass Nvidia momentan Probleme mit der Fertigung des GT300 hat. ;)

4.
Die Kundschaft durch Preisspielchen nicht vergraulen und Sympathie für das Unternehmen schaffen.


Mein Fazit:
AMD hat alles richtig gemacht. Sie haben ein Update der bestehenden Architektur veröffentlicht und sind somit kein grosses Risiko eingegangen.
Man darf auch nicht vergessen, dass AMD momentan jede Architektur bis zum äussersten ausschlachten muss, weil einfach nicht genügend Kapital für aufwendige Investitionen in neue Architekturen zur Verfügung steht.
Wenn man alle diese Punkte berücksichtigt, dann ist die 5870 die einzig logische Konsequenz.

horn 12
2009-09-24, 18:40:14
http://www.tecnocomputer.it/prodotti/dettaglio.asp?id_prodotto=6333&id_categoria=13&id_sottocategoria=137

Gast
2009-09-24, 18:49:21
1.
Die Möglichkeit für Händler schaffen die psychologische Preismarke von 299€ nicht zu überschreiten.
Für wenn psychologisch?
299€ ist kein Billigsegment mehr, das wissen die Käufer, die für 150€ eine 4890 kaufen können.


Zweiflern ein derart attraktives Angebot machen, dass dies ein Hype auslöst und Nvidia keine Zeit mehr hat die Kundschaft mit Kampagnen zum Warten zu bewegen. Damit könnte man auch der Schaffung einer PhysX-Basis beim Kunden entgegenwirken. Dies führt dann logischerweise zu weniger Titeln mit PhysX -> Gut für den Endkunden und gut für AMD.

Zu spät, PhysX fähige Karten sind gut verbreitet.
Schuld daran ist auch die nachträgliche Freischaltung alter Karten.

Ändern wird daran eine nicht verfügbare 300€ Karte rein gar nichts.

Was gut für den Endkunden ist, bestimmst nicht du. PhysX ist eine häufig eingesetzte Physik Engine, der Schritt zum GPU-CPU Zwitter PhysX ist ein logischer.


3.
Nvidia zu zwingen ihre aktuelle Produktlinie deutlich günstiger abzugeben.
Dies kann mitunter auch dazu führen, dass Nvidia im Q4 2009 in die roten Zahlen absackt (siehe Q3 2009).
Dies würde wiederum zu sinkenden Kursen führen und damit zu einem eventuellen Vorziehen des GT300 Starts. AMD weiss aber, dass Nvidia momentan Probleme mit der Fertigung des GT300 hat.
Yeah, hier kann ich dir folgen.
Diesen Kurs hat AMD seit Jahren verfolgt, selbst rote Zahlen geschrieben und am Ende dafür gesorgt das eine 4870 115€ kostet.
Da ist es ganz natürlich schwer für 300€ eine Karte an den Mann zu bringen.

Ganz schön agressive Politik von AMD, damit machen sie sich selbst den Markt kaputt, den bis der wieder verheilt, nunja.


4.
Die Kundschaft durch Preisspielchen nicht vergraulen und Sympathie für das Unternehmen schaffen.
Der 3870 Preisabsturz hat nicht gerade Sympathie geweckt.
Wahrscheinlich hast du mit der Wirkung Recht, auch mit ein Grund das 5870 2GiB und 5860 X2 erst später eintreffen, um den Eindruck einer günstigen Generation zu wahren.
Die Presse hat auch geholfen, AMD ist jetzt BQ König, die Blume ist rund, ach wie toll.


Mein Fazit:
AMD hat alles richtig gemacht. Sie haben ein Update der bestehenden Architektur veröffentlicht und sind somit kein grosses Risiko eingegangen.
Man darf auch nicht vergessen, dass AMD momentan jede Architektur bis zum äussersten ausschlachten muss, weil einfach nicht genügend Kapital für aufwendige Investitionen in neue Architekturen zur Verfügung steht.
Wenn man alle diese Punkte berücksichtigt, dann ist die 5870 die einzig logische Konsequenz.
AMD wird auch nie ausreichend Kapital haben, wenn sie immer alles verschleudern.

mapel110
2009-09-24, 19:13:39
CPU-Skalierungstests gibts nirgends oder ist was aufgetaucht?

Mr. Lolman
2009-09-24, 19:18:41
Ach kommt schon. Was glaub ihr, wie groß das Geflame wär, wenn ATi ihre Karten bisher gleich teuer wie NV verkauft hätte. Schon jetzt gibts (zumindest hier) genügend User die gerne bereit sind einen fast 20 prozentigen Aufpreis für HQ-AF und Hybridmodi hinzulegen.

y33H@
2009-09-24, 19:43:08
CPU-Skalierungstests gibts nirgends oder ist was aufgetaucht? Was meinst du im Detail? Eine HD5870 wird sich kaum anders verhalten als eine X2.

Nightspider
2009-09-24, 19:51:33
Ich weiß nicht ob das Bild schon bekannt ist aber das sit meiner Meinung nach die erste HD5870 die optisch akzeptabel aussieht: :freak:

http://www.pcgameshardware.de/screenshots/medium/2009/09/Sapphire_HD_5850_VaporX.jpg

y33H@
2009-09-24, 19:56:48
AAAALT ;) Aber sicherlich ein geiles Teil. Schnell auf Markt damit, bevor der GT300 kommt *g*

Gummikuh
2009-09-24, 20:03:32
Die Presse hat auch geholfen, AMD ist jetzt BQ König, die Blume ist rund, ach wie toll.

König...na ja.Hat sich bissel gebessert klingt realistisch.


Diesen Kurs hat AMD seit Jahren verfolgt, selbst rote Zahlen geschrieben und am Ende dafür gesorgt das eine 4870 115€ kostet.
Da ist es ganz natürlich schwer für 300€ eine Karte an den Mann zu bringen.

Ganz schön agressive Politik von AMD, damit machen sie sich selbst den Markt kaputt, den bis der wieder verheilt, nunja.


Gut irgendwie musste man aus dem Debakel mit dem R600 ja wieder herauskommen.Da war ja die Enttäuschung noch großer und ja das hatte Auswirkungen auf die Markanteile.


Der 3870 Preisabsturz hat nicht gerade Sympathie geweckt.


Hmmm...ich fand es recht gut für 150€ - 200€ was aktuelles zu bekommen.

Gast
2009-09-24, 20:04:18
Ich seh kein Bild...

Nightspider
2009-09-24, 20:08:55
AAAALT ;) Aber sicherlich ein geiles Teil. Schnell auf Markt damit, bevor der GT300 kommt *g*

Dacht ich mir schon ;)

Gibts schon Taktraten der Vapor ?


Gibts eigentlich schon Release-Termine der HD 5870 Six (Ist das der offizielle Name?) under der 2GB Variante ?

Gast
2009-09-24, 20:09:35
Ich auch nicht :)

reunion
2009-09-24, 20:17:21
PCGH hat wohl nicht so viel Freude mit Bandbreitenklau. ;)

y33H@
2009-09-24, 20:20:04
Die Presse hat auch geholfen, AMD ist jetzt BQ König, die Blume ist rund, ach wie toll.Der Teil der Presse, der die Winkelunabhängigkeit hypt, hat den Blick für die Praxis verloren. Muss man aber AMD lassen, mit einer BQ-Verbesserung anzurücken, die keine Fps kostet und jeder DAU als Verbesserung im AF-Tester erkennt, ist eine feine Sache. Vor allem angesichts der Tatsache, dass AMD PR ansonsten wie ich finde eher ... naja bescheiden agiert. Beispielsweise ist das SGSSAA viel viel geiler, wird aber nur so nebenher erwähnt. DAU-Fang ist schön gut, aber wenn man schon die schnellste GPU-Karte und das beste AA hat, dann hypt man das doch verdammt noch mal! Die Presse, die Ahnung hat, nimmts freudig auf, die User auch.

@ reunion

?

reunion
2009-09-24, 20:22:57
Das Bild das die Gäste nicht sehen können weil es von der PCGH Domain verlinkt ist. RefSperre.

S940
2009-09-24, 20:30:38
@S940:
Natürlich kann als Nachfolger meiner 285 nur ne D3D11 Karte kommen. Und BQ bleibt nunmal King, egal ob 9, 10.x oder 11.
Achso, na wenn Du eh schon ne 285er hast .. dann ist die 5er ATi Reihe ja nicht soo interessant, verständlich ;-)

dat ist doch nur bunter geworden. ansonsten hätte man die rundungen der maske sicher auch noch so geschafft wenn man gewollt hätte?!
So eine - mit Verlaub - blöde Aussage ... "wenn man gewollt hätte".
Ja was denkst Du denn ? Dass die Programmierer zu blöde sind, oder lieber im Karibikurlaub weilten, anstatt anständig zu programmieren ? Dann bewirb Dich da mal schnell als Kreiszeichner, scheinst ja ein kluges Köpfchen mit viel Vorstellungs- und Willenskraft zu sein und genau da scheints ja gehapert zu haben.


Man darf auch nicht vergessen, dass AMD momentan jede Architektur bis zum äussersten ausschlachten muss, weil einfach nicht genügend Kapital für aufwendige Investitionen in neue Architekturen zur Verfügung steht.
Ich frag mal andersherum, was für eine "tolle" andere Architektur sollten sie den adaptieren ? VLIW ist z.Zt. das Nonplusultra, Nachteil sind halt die Treiber, die man für jedes Spiel und jede neue Generation anpassen muss, aber Festplatten sind heutzutage ja groß ...

ciao

Alex

MR2
2009-09-24, 20:46:18
und nochmal..
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=13154%20%20&catid=38&Itemid=101

http://www.hardwareluxx.de/images/stories/newsbilder/astegmueller/2009/techpowerup_sapphire_hd5870_vapor_x-02.jpg

"...Sicherlich wird man auch hier etwas an der Taktschraube drehen. Ob man mittels leichter Spannungserhöhung die 1,00-GHz-Marke durchbricht, bleibt noch abzuwarten. Sapphire selbst machte jedenfalls noch keine Aussagen zu den Taktraten. Auch eine Verdoppelung des GDDR5-Speichers ist ebenfalls denkbar.... "


Ich hab da mal ne Frage.

Gibt es keinen analogen TVOut mehr? Kann ich irgendwie an HDMI, Displayport oder was weis ich einen Fernseher (Sony Trinitron) anschließen? Darauf will ich eigentlich nicht verzichten.

Botcruscher
2009-09-24, 20:58:17
Das Bild das die Gäste nicht sehen können weil es von der PCGH Domain verlinkt ist. RefSperre.


Eher Keks da bei mir grundsätzlich aus und ich kanns sehen.

Ihm
2009-09-24, 20:59:20
Für wenn psychologisch?
299€ ist kein Billigsegment mehr, das wissen die Käufer, die für 150€ eine 4890 kaufen können.

Hier geht es auch nicht um Low-End. Natürlich kann man für 150€ eine 4890 kaufen. Dafür hat man dann aber kein neues Featureset, nicht die Leistung einer 5870 etc.
Die Karte liegt jetzt schon bei 290€, obwohl die UVP bei 350€ liegt. Du kannst ja mal raten, wie lange es dauern wird bis die erste 5870 250€ kostet. Die 5870 bringt High-End in Mainstream Preisbereiche. Ich kann mich noch sehr gut an High-End Karten im High-End Preisbereich erinnern :rolleyes: Für den Preis kriegt man dann locker zwei 5870 Karten.
Man muss also immer alles in Relation sehen.


Zu spät, PhysX fähige Karten sind gut verbreitet.
Schuld daran ist auch die nachträgliche Freischaltung alter Karten.

Ändern wird daran eine nicht verfügbare 300€ Karte rein gar nichts.

Sorry, das ist einfach Quatsch. Verbreitung hin oder her, wo sind die Spiele?
http://de.wikipedia.org/wiki/PhysX

Du glaubst doch nicht im Ernst, dass sich mit der breiten Einführung von DX11 noch massig Leute die Mühe machen werden eine proprietäre Schnittstelle für ein paar Physikeffekte einzubauen, oder? Logischerweise wird man dann eher die Möglichkeiten in DX11 dafür nutzen, um Effekte auf allen DX11-fähigen Karten sichtbar zu machen.
Was glaubst du warum Nvidia schon im Vorfeld DX11 als "nicht so wichtig" usw. betitelt hat und nochmal gezielt auf ihre Schnittstellen eingegangen ist? ;) Die wissen auch, dass DX11 auf kurz oder lang ihren GPGPU Berechnungen in Spielen den Hahn abdrehen wird. Das ist auch der Grund, warum seit der Einführung von PhysX auf G80/G92 im Februar 2008 noch nicht wirklich viel passiert ist. Also unter Durchbruch, Revolution...blablabla...verstehe ich aber was anderes. :D

Machen wir es kurz:
Einige Entwickler (vor allem die Nvidia-sponsored) haben sich an PhysX ein wenig versucht und das wars. Letztendlich wusste aber jeder, dass am Ende DX11 für Physikberechnungen genutzt wird, wenn überhaupt.
PhysX wird niemals eine Rolle spielen. Das war schon zu AGEIA-Zeiten so und wird sicherlich jetzt nicht anders werden, wenn es nun sogar eine bessere Alternative namens DX11 gibt.
Geniesst also eure paar PhysX-Spiele, die es gibt und die paar Reste die da noch kommen werden. Denn bald ist damit Schluss. :freak:


Was gut für den Endkunden ist, bestimmst nicht du. PhysX ist eine häufig eingesetzte Physik Engine, der Schritt zum GPU-CPU Zwitter PhysX ist ein logischer.

1. Du hast merkwürdige Vorstellungen von Häufigkeit.

2. Der Schritt GPGPU wurde durch CUDA geschaffen. Ohne CUDA kein PhysX.

3. Ich bestimme nicht, was für den Endkunden gut ist. Aber ich möchte den Spieler sehen, der sich darüber freut, wenn er Physikeffekte nur auf Nvidia-Karten geliefert bekommt.
Sorry, aber diese Diskussion PhysX oder DX11 ist derart schwachsinnig, da kann man nur mit dem Kopf schütteln.
Für den Endkunden ist eine Physikberechnung über DX11 logischerweise der bessere Weg. Wer da anderer Meinung ist kann nur ein Nvidia-Fanboy sein.
Es gibt mehr als genug Spieler mit ATI-Karten. Die Entwickler werden Physikberechnungen niemals eine entscheidende Rolle in ihren Spielen geben, solange sie damit ATI-Nutzer aussperren. Das kann sich keiner leisten. Wer also für den Spielablauf relevante Physikberechnungen
haben will, sollte lieber hoffen, dass die Entwickler DX11 schnellstmöglich und in hoher Zahl umsetzen.

Mit der Einführung von Windows 7 mache ich mir da aber ehrlich gesagt keine Sorgen, da ich glaube, dass Windows 7 ein absoluter Verkaufsschlager wird und Windows XP dann endgültig abgelöst wird. Das was Windows Vista hätte leisten sollen.



Yeah, hier kann ich dir folgen.
Diesen Kurs hat AMD seit Jahren verfolgt, selbst rote Zahlen geschrieben und am Ende dafür gesorgt das eine 4870 115€ kostet.
Da ist es ganz natürlich schwer für 300€ eine Karte an den Mann zu bringen.

Ganz schön agressive Politik von AMD, damit machen sie sich selbst den Markt kaputt, den bis der wieder verheilt, nunja.

Die machen überhaupt nichts kaputt. Eher wird der Markt wieder in annehmbare Zustände gebracht. Ich will die Entwicklungskosten sehen, die eine 500€ teure Spielegrafikkarte preislich rechtfertigen. Das war einfach nur Gier! Und was ist die Konsequenz, wenn sich z.B. nur 20% der Spieler eine aktuelle schnelle Grafikkarte leisten können?: Fortschrittsbremse. Denn ohne zahlende Anwender mit der nötigen Hardware, keine aufwendigen Spiele mit aktuellem Featureset.

AMD schreibt im Übrigen nicht umsonst rote Zahlen. Die haben nach der AMD64 Architektur einfach nur gepennt. Dann die ATI-Übernahme (das mussten sie im Übrigen, ansonsten hätte Intel die geschluckt...ohweh). Ich glaube man kaum dümmer als AMD sein, wenn man einen Konkurrenten wie Intel auch nur eine Sekunde unterschätzt. Die Quittung kam dann postwendend.
AMD hat momentan also überhaupt keine andere Wahl, als ihre Produkte ohne grosse Gewinne zu verkaufen, da sie natürlich wieder einen Platz als ernsthaften Konkurrenten von Intel einnehmen wollen.
Und da es der selbe Konzern ist, versuchen sie Position natürlich auch über ATI zu stärken.


Der 3870 Preisabsturz hat nicht gerade Sympathie geweckt.
Wahrscheinlich hast du mit der Wirkung Recht, auch mit ein Grund das 5870 2GiB und 5860 X2 erst später eintreffen, um den Eindruck einer günstigen Generation zu wahren.
Die Presse hat auch geholfen, AMD ist jetzt BQ König, die Blume ist rund, ach wie toll.

Naja, die 5870 2GB wird sich wohl anfangs irgendwo bei 330€ einpendeln, um dann kurze Zeit später auf ca. 300€ zu fallen.
Die 5870 X2 wird wohl um die 580€ kosten. Aber CF und SLI Lösungen ziehe ich niemals mit in die Bewertung von Single-GPU Karte ein.
Denn es ist nunmal Fakt, dass CF und SLI umständliche Lösungen darstellen. Sowohl treiberseitig, als auch in Bezug auf stabile Frameverläufe -> Mikroruckler.
Mal schauen, ob sich das Problem mit der 5870 und der GT300 endgültig auflöst. Das wäre schonmal ein nicht ganz unwichtiger Punkt für viele ambitionierte Spieler (Tach Tombman). ;)


AMD wird auch nie ausreichend Kapital haben, wenn sie immer alles verschleudern.

Was haben sie denn verschleudert? :rolleyes:

y33H@
2009-09-24, 21:00:42
PhysX wird niemals eine Rolle spielen. Das war schon zu AGEIA-Zeiten soSofern du von PPU- und GPU-beschleunigtem PhysX redest - joa. Sprichst du aber von CPU-PhysX - epic fail.

RoNsOn Xs
2009-09-24, 21:03:39
So eine - mit Verlaub - blöde Aussage ... "wenn man gewollt hätte".
Ja was denkst Du denn ? Dass die Programmierer zu blöde sind, oder lieber im Karibikurlaub weilten, anstatt anständig zu programmieren ? Dann bewirb Dich da mal schnell als Kreiszeichner, scheinst ja ein kluges Köpfchen mit viel Vorstellungs- und Willenskraft zu sein und genau da scheints ja gehapert zu haben.

Alex

wie ist dir denn geschehen? aber man muss ja immer gleich jeden blöd anmachen. ich hab davon mal gar keine ahnung, jedoch gibt es auch andere runde gegenstände in - ja sogar - dx9 spielen. zudem war das ganze auch als frage gedacht - sieht man am fragezeichen. und nun komm runter.

S940
2009-09-24, 21:26:44
wie ist dir denn geschehen? aber man muss ja immer gleich jeden blöd anmachen. ich hab davon mal gar keine ahnung, jedoch gibt es auch andere runde gegenstände in - ja sogar - dx9 spielen. zudem war das ganze auch als frage gedacht - sieht man am fragezeichen. und nun komm runter.
Ok, sorry für den strengen Ton.

Aber überleg doch das nächste Mal einfach logisch. Glaubst Du wirklich die Jungs hätten die Maske so eklig, eckig gelassen, wenn sies hätten rund machen können ?

Das sieht doch wirklich besch...eiden aus und sticht sofort ins Auge.

Die einzige logische Erklärung ist, dass es nunmal einfach nicht geht. Früher gabs bei den Spielen auch nur 2D Klötzchengrafik .. weil es einfach nicht besser ging.

ciao

Alex

mapel110
2009-09-24, 21:43:55
http://www.pcgameshardware.de/aid,695901/Radeon-HD-5850-und-Radeon-HD-5870-Statement-von-AMD-zur-Lieferbarkeit/Grafikkarte/News/
AMD betonte in einem Telefon-Interview mit PCGH, dass die DirectX-11-Grafikkarte lieferbar sei. Pro Shop stünden zwar offenbar nur zu wenig Stückzahlen verfügbar, allerdings melden die Händler, dass die bestellten Karten sofort an Vorbesteller ausgeliefert werden. Entsprechend lautet der Tipp von AMD auch, die 5870-Karten durch entsprechendes Vorbestellen zu sichern, da diese Bestellungen zuerst bedient werden. Auf die Frage, wann sich die Liefersituation entspannen würde, meinte AMD im Interview, dass ab Mitte Oktober das Angebot groß genug sei, um die Nachfrage auch zeitnah bedienen zu können.

Na dann warten auf Win7 und 5870.

reunion
2009-09-24, 21:53:04
Atelco scheint jedenfalls schon verschickt zu haben:
http://www.hardwareluxx.de/community/showpost.php?p=12942464&postcount=636
http://www.hardwareluxx.de/community/showpost.php?p=12942502&postcount=643
http://www.hardwareluxx.de/community/showpost.php?p=12942539&postcount=651

Jake Dunn
2009-09-24, 21:56:10
Jep :)

Noch einer http://www.hardwareluxx.de/community/showpost.php?p=12942825&postcount=678

Auf der Main sollen sie morgen auch gelistet sein bei Atelco/HW Versand, falls noch welche da sind ^^

y33H@
2009-09-24, 21:58:11
Hach, der gute alte Raberduck ;D

Cubitus
2009-09-24, 21:58:41
Sind auch echt krasse Kampfreise, diverse Großhändler bieten die Karte für ca 300 Euro an.

Tarkin
2009-09-24, 21:58:53
Die CLUB 5870er um 290 ist btw wieder verschwunden... war wohl nur ein FAKE-Angebot um Kunden einzufangen.

Gast
2009-09-24, 22:01:33
deine auch? :-)

Gast
2009-09-24, 22:02:27
Hach, der gute alte Raberduck ;D
nanana :D
jake du auch ?

Jake Dunn
2009-09-24, 22:02:50
Die CLUB 5870er um 290 ist btw wieder verschwunden... war wohl nur ein FAKE-Angebot um Kunden einzufangen.
Nö nur auf 308€ erhöht

http://geizhals.at/deutschland/a465489.html

Edit: Bei Bestseller nicht auf der HP...naja die werden Bestellungen ohne Ende haben ^^

Gast
2009-09-24, 22:04:30
Ein Preis von um die 300€ oder 290€ erscheint wahrscheinlich, wenn selbst solche Shops wie bestseller das anbieten, die günstigsten waren sie jedenfalls nie. ;)

Was mich etwas wundert, das man hier 1,2 GHz GDDR5 verbaut, waren denn noch keine 1,3 oder 1,4 GHz Chips verfügbar? Läuft GDDR5 echt so schleppend oder woran liegts?

Jake Dunn
2009-09-24, 22:05:15
nanana :D
jake du auch ?

Nee ich hab nichts bestellt ;)

Gast
2009-09-24, 22:05:31
mit dem spielchen würd mich mal intressieren....xfx auf deren Hombasche haben ganz andere Kisten als sie Alternate abbildet

Jake Dunn
2009-09-24, 22:08:06
Was mich etwas wundert, das man hier 1,2 GHz GDDR5 verbaut, waren denn noch keine 1,3 oder 1,4 GHz Chips verfügbar? Läuft GDDR5 echt so schleppend oder woran liegts?

Die "Toxic" mit Vapor-X soll schnelleren GDDR5 bekommen...steht auch im Fred hier imo

Tarkin
2009-09-24, 22:10:09
noch ein 5870 Crossfire Review

http://www.guru3d.com/article/radeon-hd-5870-crossfirex-test-review/1

Die Jungs bei Guru3D macht einfach die geilsten Bilder :love4:

y33H@
2009-09-24, 22:13:43
Was mich etwas wundert, das man hier 1,2 GHz GDDR5 verbaut1,25 Ghz.

Gast
2009-09-24, 22:16:33
Die "Toxic" mit Vapor-X soll schnelleren GDDR5 bekommen...steht auch im Fred hier imo

Wieviel mehr wären das dann? Wenn ich lese, das schon die Großserienfertigung im 1. Halbjahr 08 angelaufen sein soll, wundert es mich stark, das die Steigerungen so langsam vonstatten gehen. Eigentlich dürfte der Bandbreitenhunger nicht weniger werden. Wie soll das dann erst beim Refresh oder einer neuen Gen aussehen?

@y33H@
bei geizhals und cb steht jeweils 2400/1200. Was auch immer. ;)

Jake Dunn
2009-09-24, 22:17:13
Für was sind jetzt die die Löcher vorn an der Karte?

Etwas Luft durch den vorderen Gehäuselüfter reinzubringen?

@Gast ka stand nur was von "fast GDDR5" o.ä.

Gast
2009-09-24, 22:21:01
alle gebungert für die 5890... das der blöde Kunde was zu lachen hat :D

Gast
2009-09-24, 22:22:44
hör auf hin und her zu hüpfen mir wird ja ganz schwindlich :lol:

Gast
2009-09-24, 22:24:13
Für was sind jetzt die die Löcher vorn an der Karte?

Etwas Luft durch den vorderen Gehäuselüfter reinzubringen?

@Gast ka stand nur was von "fast GDDR5" o.ä.

Wahrscheinlich auch um etwas luft über die Spannungswandler zu kriegen?

Jake Dunn
2009-09-24, 22:27:46
Wahrscheinlich auch um etwas luft über die Spannungswandler zu kriegen?

Nee die sind weiter hinten ;)

http://www.abload.de/img/5870_11_rsqtd7.jpg (http://www.abload.de/image.php?img=5870_11_rsqtd7.jpg)

http://www.abload.de/img/5870_12_rs9qaw.jpg (http://www.abload.de/image.php?img=5870_12_rs9qaw.jpg)

y33H@
2009-09-24, 22:32:41
Für was sind jetzt die die Löcher vorn an der Karte?Ansaugstutzen, Unterdruck, Frischluft.


@ Gast

Das sind 8x Samsung K4G10325FE-HC04 mit 0,4 ns, ergo 1,25 GHz.

http://www.abload.de/img/2009-09-24_22312911xu.png

Kosh
2009-09-24, 22:39:20
Die billigste GTX285 kostet ca 300 EUR. Da die 5870 deutlich stärker und ein neueres Featureset hat, kann man IMO locker 300-400 EUR nehmen. Was ist mit der Wertschätzung des GPU Marktes passiert? :|


Was bringt das, wenn die Margen zu klein sind?


Gewinne sind wichtig. Ob das über Umsatz oder Marge läuft, ist egal. Aber derzeit ist das Angebot klein und die Nachfrage an den Dingern hoch. Also kann man hier wirtschaftlich einen Hebel ansetzen.


.

Das kann sich für AMD massiv lohnen die Karten für 300 statt für 400 zu verkaufen.

Sagen wir mal für 300 Euro macht man 100 Euro Gewinn pro Karte, bei 400 Euro 200 Euro pro Karte,dann würde man zwar das doppelte an Gewinn für 400 Euro machen pro Karte, nur dürfte man wahrscheinlich das 4 oder 5 fache an Karten verkaufen können,wenn sie nur 300 Euro kostet.

400 Euro geben sehr wenige für eine Grafikkarte aus, 300 schon deutlich mehr Leute. Wenn das P/L dann noch so dermassen gut ist,was es für 400 Euro ja nicht mehr wäre, dann ist die Preisentscheidung von AMD das mit Abstand Beste was sie machen können

derguru
2009-09-24, 22:39:41
aha,also hat hardwareversand doch welche gehabt.dann sollten ja bald die ersten usertests auftauchen.

Gast
2009-09-24, 22:41:49
Für was sind jetzt die die Löcher vorn an der Karte?

Etwas Luft durch den vorderen Gehäuselüfter reinzubringen?

@Gast ka stand nur was von "fast GDDR5" o.ä.

Da wird warme Abluft ins Gehäuse zurückgeblasen. Die Öffnungen am Slotblech sind zu klein, deshalb wird ein grosser Teil der warmen Abluft eben ins Gehäuse hinein entsorgt.

Siehe X-Bit Labs Test.

Gast
2009-09-24, 22:42:31
aha,also hat hardwareversand doch welche gehabt.dann sollten ja bald die ersten usertests auftauchen.
hö haste storniert..hihi

y33H@
2009-09-24, 22:45:46
Da wird warme Abluft ins Gehäuse zurückgeblasen.Wer das erzählt, hat die Karte wohl nicht in der Praxis näher angeschaut bzw. sich Gedanken über die Konstruktion gemacht ... da kommt keine Luft raus, vor allem bei höheren Drehzahlen nicht.

Gast
2009-09-24, 22:49:43
Wer das erzählt, hat die Karte wohl nicht in der Praxis näher angeschaut bzw. sich Gedanken über die Konstruktion gemacht ... da kommt keine Luft raus, vor allem bei höheren Drehzahlen nicht.

Mach dich mal schlau wie Radiallüfter funktionieren, dann verstehst du auch wo bei solchen Lüftern die Luft angesaugt und wo sie abgegeben wird.

y33H@
2009-09-24, 22:51:16
Danke, ich weiß wie ein Radiallüfter arbeitet :rolleyes: Und ich weiß, wie die HD5870-Konstruktion funktioniert.

Gast
2009-09-24, 22:51:50
Dann weisst du auch dass an diesen Öffnungen Luft ausgeblasen wird.

Sentionline
2009-09-24, 22:52:31
Du benutzt den nHancer um profile zu erstellen, ati-user die ATTs, wo ist jetzt gleich noch mal der unterschied?
Wer zwischen den beiden kein Unterschied sieht, braucht echt eine Brille. Zudem gibt es einen HQ schalter bei nHancer. Mit ATT hab ich mich lange beschäftigt und weiss, das es eben nicht einwandfrei funktioniert (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=453305&highlight=Ati+Tray+Tools).

Nun ja, nHancer ist aber kein Argument pro nVidia, sondern eines pro Grestorn! Das ist kein nV-Tool, sondern nur eines für deren Karten.
Meines wissens greifen die Berater von Nvidia ab und zu Grestorn bei Fragen unter die Arme. Bei Ray Adams ist das nicht der Fall.

Ich spreche hier Grestorn mal einen Dank aus! Hab mich bisher nicht wirklich bedankt.

Bei nvidia werden die Profile völlig automatisch aktiv, wenn das Spiel geladen wird. Afaik ist das bei ATI immer noch nicht der Fall und man muss das Profil vorher selbst aktivieren?! Oder erkennt ATT die Spiele automatisch und aktiviert das jeweilige Profil?
Tut es nicht. Verstehe ich auch nicht wie man so ein umfangreiches Tool auf die Beine stellen kann ohne eine billige Task erkennung.

...sondern darauf warten und hoffen, daß nach einem guten G300-Launch ATI zu einem größeren Satz nach vorn mit einer HD6-Reihe gezwungen wird.
Ich weiss das es nicht so sein wird. Seid fast 4 Jahren bemängelt man die nicht abschaltbaren optimierungen. Bei der Leistungsfähigkeit der RV870 und der nicht besonnders anspruchsvollen Contents der aktuellen Spiele hätte man jetzt die Bombe reinwerfen können. Machen die nicht. Villeicht sind ja Verträge mit Nvidia einzuhalten...dann sieht die Sache natürlich anders aus und ATi muss sich zurück halten.

...das selbe problem wird auch nv mit der gt300 haben,500-600 euro singlegpu karten wird es nicht mehr geben.
Also die GTX280 startete bei über 500€. Die 8800GTX startete bei über 600€. Also günstig wirds nicht, das wissen wir alle. Wenn die BQ wieder stimmt, dann werde ich und andere dafür zahlen. Bisher hielten die Topmodelle jeden PC Spieler fast 3 Jahre über Wasser. 500€ wird man nicht aus dem Fenster geworfen haben.

Und das obwohl die PCBs immer aufwändiger, die GPUs immer größer, die SIs immer breiter etc. werden. Der Grafik-Branche wird es offenbar bald sehr schlecht gehen, wenn das so weiter geht.
Quatsch. Die Hersteller sind nicht flexibel genug um die Bewegung auf dem Markt abzufangen. Die ganzen Konsolenportis versauen das Geschäft und genau da muss man mal so langsam ansetzen. Das eine Grafikkarte im PC früher oder später schneller sein wird wissen alle. Nur durch HD Auflösungen, Multi-Monitoring und günstigen Preisen lockt man keine Kunden. Es muss sich elementar am Content etwas ändern und man muss an der Wurzel ansetzen. BQ ist nur eine Seite der Medallie und Trumpf für den PC...und genau den hat sich ATi versaut unter "Kennern" besserer Verfahren. Kritisieren oder verurteilen sollte man das nicht. Wenn die Hübsche Frau auch gut Kochen kann kann man eine Investition wagen und diesen auch rechtfertigen. Dosenfutter aufwärmen können alle mittlerweile.

DX11 wird nicht die Wunder auslösen, die sich hier so viele ausmalen. War auch schon bei DX10, DX10.1 so und es wird auch so bleiben. Die Zutaten für das Essen kommen immernoch von den Konsolen (DX9) und genau das weiss Nvidia und sagt von vornerein das DX11 am Start keine große Rolle spielen wird, weil sie die Situation anscheinend erkannt haben. Die Herausforderung ist aber nicht das Rezept (DX11), sondern die fähigkeit ein 5 Sterne Menü daraus zu machen. Mit einsparungen an der BQ und der schnelligkeit erreicht man das nicht. Man muss kompromisslos auf Qualität setzen und wenn nötig muss man als Hersteller der GPUs auch woanders Content einkaufen und einbauen lassen. Nur dann könnte AMD 500€ für so eine Karte verlangen. Solange aber nur 4 Sterne Qualität aus der HD5870 rauskommen, ist es eben nicht Spitze. Man kann es billig Essen, mehr auch nicht.

Erinnert euch mal: vor ein paar Jahren waren High End GPUs < 200 sqmm und hatten max 256 bit SIs und kosteten nach dem Launch > 500 €.
500€ wird Nvidia wieder verlangen. Das Featureset wird man neu definieren und ATi muss sich wieder anpassen. Ist eben ein Kreislauf. Die RV870 wird Nvidia nicht die Wurst vom Teller nehmen. Das hat die Vergangenheit deutlich gezeigt. Mit der Fx und Geforce 6 sowie 7 Reihe hat Nvidia genug Prügel im Bezug auf BQ und Tempo eingesteckt. Den Fehler machen die nicht nochmal und versuchen die zahlkräftige Fangemeinschaft nicht wieder zu verärgern. ATi lernts aber nicht und machen immer mal wieder Schritte zurück. Verstehe ich nicht wie man so beschränkt sein kann. Es gibt keine spielbare DX11 Titel und das wird auch eine weile so andauern. Ergo ist das kein Kaufargument für ATi, da man ja auch noch nicht weiss wie die Performance der aktuellen RV870 Reihe darin sein wird. In DX10 sowie 10.1 war ATi bisher keine Rakete. Wem das entgangen ist...

Ich denke mal, dass AMD's RV870 Strategie so aussieht:

1.
Die Möglichkeit für Händler schaffen die psychologische Preismarke von 299€ nicht zu überschreiten.
Das ist auch so, dazu muss man kein Analytiker sein. 299€ sind aber ein guter Preis für die baldige Mittelklasse und ein segen für fps und Punktejäger.

2.
Zweiflern ein derart attraktives Angebot machen, dass dies ein Hype auslöst und Nvidia keine Zeit mehr hat die Kundschaft mit Kampagnen zum Warten zu bewegen...
Die natürliche Kundschaft von Nvidia ist kein Preisjäger, und das weiss Nvidia. Kritikpunkte auf der HD5870 sind wenig vorhanden, aber elementar. DIe RV870 wird früher oder später den Hammer aufm Schädel kriegen. Wenn auch über die BQ...sei es drum. Diese Option hat der ATi Käufer nichtmal wenn er draufzahlt.

3.
Nvidia zu zwingen ihre aktuelle Produktlinie deutlich günstiger abzugeben.
Dies kann mitunter auch dazu führen, dass Nvidia im Q4 2009 in die roten Zahlen absackt (siehe Q3 2009).
Wer glaubt das Nvidia untergeht? :freak:

4.
Die Kundschaft durch Preisspielchen nicht vergraulen und Sympathie für das Unternehmen schaffen.
Das halte ich am wahrscheinlichsten.

mfg

Jake Dunn
2009-09-24, 22:53:08
aha,also hat hardwareversand doch welche gehabt.dann sollten ja bald die ersten usertests auftauchen.

Ich hab auf dich gezählt :freak:



;D

http://www.abload.de/img/5870x2u0j6.jpg (http://www.abload.de/image.php?img=5870x2u0j6.jpg)

y33H@
2009-09-24, 22:53:12
@ Gast

Nein ;( Da kommt (fast) nichts raus. Theoretisch sollte es, aber offenbar tritt hier eine Unterdruck auf.

Gast
2009-09-24, 22:56:35
Wo soll da ein Unterdruck entstehen? Völlig unlogisch. Die Physik hat AMD ja nicht neu erfunden mit der 5870.

derguru
2009-09-24, 23:06:10
Ich hab auf dich gezählt :freak:



;D

http://www.abload.de/img/5870x2u0j6.jpg (http://www.abload.de/image.php?img=5870x2u0j6.jpg)
ich warte auf solche kaliber wie auf dem bild mit jeweils 2gb. :love4:

ein launch hat vorteile,hihi hab mir eine 260gtx für 80 euro ersteigert,ich lach mich weg.

y33H@
2009-09-24, 23:07:31
Wo soll da ein Unterdruck entstehen? Völlig unlogisch.Es ist nun mal so, warum ist mir noch nicht ganz klar. Sieht man, wenn man Rauch färbt sicher super :D

Gast
2009-09-24, 23:09:05
Hier geht es auch nicht um Low-End. Natürlich kann man für 150€ eine 4890 kaufen. Dafür hat man dann aber kein neues Featureset, nicht die Leistung einer 5870 etc.
Die Karte liegt jetzt schon bei 290€, obwohl die UVP bei 350€ liegt. Du kannst ja mal raten, wie lange es dauern wird bis die erste 5870 250€ kostet. Die 5870 bringt High-End in Mainstream Preisbereiche. Ich kann mich noch sehr gut an High-End Karten im High-End Preisbereich erinnern :rolleyes: Für den Preis kriegt man dann locker zwei 5870 Karten.
Man muss also immer alles in Relation sehen.
5870 ist Performance, kein High-End.

Es wirkt nur so, weil AMD die X2 und die 2GiB Karten erst später launcht. Das war früher auch nicht üblich.


Sorry, das ist einfach Quatsch. Verbreitung hin oder her, wo sind die Spiele?
http://de.wikipedia.org/wiki/PhysX

Hast du auch gelesen was ich geschrieben habe?
PhysX fähige Karten sind weit verbreitet. Kein Wort über Spiele. Nur über Hardware. Hardware seit 2006.


Du glaubst doch nicht im Ernst, dass sich mit der breiten Einführung von DX11 noch massig Leute die Mühe machen werden eine proprietäre Schnittstelle für ein paar Physikeffekte einzubauen, oder? Logischerweise wird man dann eher die Möglichkeiten in DX11 dafür nutzen, um Effekte auf allen DX11-fähigen Karten sichtbar zu machen.Physik wird es hoffentlich weiterhin geben, sonst spiele ich wieder HL2, was solls.


Was glaubst du warum Nvidia schon im Vorfeld DX11 als "nicht so wichtig" usw. betitelt hat und nochmal gezielt auf ihre Schnittstellen eingegangen ist? Die wissen auch, dass DX11 auf kurz oder lang ihren GPGPU Berechnungen in Spielen den Hahn abdrehen wird.Nvidia ist zur selben Ansicht wie AMD gekommen, D3D11 alleine reicht nicht.
AMD bietet Eyefinity an, und irgendwelche Soundanschlüsse an, schon gemerkt?


Das ist auch der Grund, warum seit der Einführung von PhysX auf G80/G92 im Februar 2008 noch nicht wirklich viel passiert ist. Also unter Durchbruch, Revolution...blablabla...verstehe ich aber was anderes.Du irrst gewaltig. GPU PhysX ist seit August 2008 auf allen Geforces ab Geforce 8 verfügbar, nachträglich.



Einige Entwickler (vor allem die Nvidia-sponsored) haben sich an PhysX ein wenig versucht und das wars. Letztendlich wusste aber jeder, dass am Ende DX11 für Physikberechnungen genutzt wird, wenn überhaupt.
PhysX wird niemals eine Rolle spielen. Das war schon zu AGEIA-Zeiten so und wird sicherlich jetzt nicht anders werden, wenn es nun sogar eine bessere Alternative namens DX11 gibt.
Geniesst also eure paar PhysX-Spiele, die es gibt und die paar Reste die da noch kommen werden. Denn bald ist damit Schluss.
Mich wundert warum du der Ansicht bist D3D11 ermögliche Physik.
Physikenignes sind weiterhin notwenig, ob du es glaubst oder nicht.

Viele häufig eingesetze Physikengines gibts nicht, PhysX und Havok sind die Berühmtesten.





Einige Entwickler (vor allem die Nvidia-sponsored) haben sich an PhysX ein wenig versucht und das wars. Letztendlich wusste aber jeder, dass am Ende DX11 für Physikberechnungen genutzt wird, wenn überhaupt.
PhysX wird niemals eine Rolle spielen. Das war schon zu AGEIA-Zeiten so und wird sicherlich jetzt nicht anders werden, wenn es nun sogar eine bessere Alternative namens DX11 gibt.
Geniesst also eure paar PhysX-Spiele, die es gibt und die paar Reste die da noch kommen werden. Denn bald ist damit Schluss.




Die machen überhaupt nichts kaputt. Eher wird der Markt wieder in annehmbare Zustände gebracht. Ich will die Entwicklungskosten sehen, die eine 500€ teure Spielegrafikkarte preislich rechtfertigen. Das war einfach nur Gier!
Na sicher, 1000€ für eine CPU ohne Spannungsversorgung, ohne RAM ist gerechtfertigt.




AMD schreibt im Übrigen nicht umsonst rote Zahlen. Die haben nach der AMD64 Architektur einfach nur gepennt. Dann die ATI-Übernahme (das mussten sie im Übrigen, ansonsten hätte Intel die geschluckt...ohweh). Ich glaube man kaum dümmer als AMD sein, wenn man einen Konkurrenten wie Intel auch nur eine Sekunde unterschätzt. Die Quittung kam dann postwendend.
AMD hat momentan also überhaupt keine andere Wahl, als ihre Produkte ohne grosse Gewinne zu verkaufen, da sie natürlich wieder einen Platz als ernsthaften Konkurrenten von Intel einnehmen wollen.
Und da es der selbe Konzern ist, versuchen sie Position natürlich auch über ATI zu stärken.Schön und gut, Intel ist ein Konkurrent, aber das hat nichts mit dem dedizierten Grafikkartenmarkt zu tun.
Man muss abschöpfen, wenn es was zu holen gibt.
Der Versuch Marktanteile auf Kosten des Gewinns zu holen hat bisher nicht gefruchtet.
Gewinne hätten gefruchtet. Also was hat AMD im Endeffekt davon, weder Marktanteile noch Gewinne.



Naja, die 5870 2GB wird sich wohl anfangs irgendwo bei 330€ einpendeln, um dann kurze Zeit später auf ca. 300€ zu fallen.
Die 5870 X2 wird wohl um die 580€ kosten. Aber CF und SLI Lösungen ziehe ich niemals mit in die Bewertung von Single-GPU Karte ein.
Denn es ist nunmal Fakt, dass CF und SLI umständliche Lösungen darstellen. Sowohl treiberseitig, als auch in Bezug auf stabile Frameverläufe -> Mikroruckler.
Mal schauen, ob sich das Problem mit der 5870 und der GT300 endgültig auflöst. Das wäre schonmal ein nicht ganz unwichtiger Punkt für viele ambitionierte Spieler (Tach Tombman). Mach dir keine Hoffnungen, da wird sich so schnell nichts tun.


Was haben sie denn verschleudert?
Ihre Produkte. :rolleyes:

Jake Dunn
2009-09-24, 23:11:48
ich warte auf solche kaliber wie auf dem bild mit jeweils 2gb. :love4:

X2 ?


Es ist nun mal so, warum ist mir noch nicht ganz klar. Sieht man, wenn man Rauch färbt sicher super :D

Wieviel Performance kostet 2x2SSAA oder 4x4SSAA in CRYSIS ca.?

y33H@
2009-09-24, 23:12:45
Im Vergleich zu was?

Gast
2009-09-24, 23:14:58
DX11 wird nicht die Wunder auslösen, die sich hier so viele ausmalen. War auch schon bei DX10, DX10.1 so und es wird auch so bleiben. Die Zutaten für das Essen kommen immernoch von den Konsolen (DX9) und genau das weiss Nvidia und sagt von vornerein das DX11 am Start keine große Rolle spielen wird, weil sie die Situation anscheinend erkannt haben. Die Herausforderung ist aber nicht das Rezept (DX11), sondern die fähigkeit ein 5 Sterne Menü daraus zu machen. Mit einsparungen an der BQ und der schnelligkeit erreicht man das nicht. Man muss kompromisslos auf Qualität setzen und wenn nötig muss man als Hersteller der GPUs auch woanders Content einkaufen und einbauen lassen. Nur dann könnte AMD 500€ für so eine Karte verlangen. Solange aber nur 4 Sterne Qualität aus der HD5870 rauskommen, ist es eben nicht Spitze. Man kann es billig Essen, mehr auch nicht.


Sehr schöner Absatz. Man sollte nichts da rausquoten da nur alles zusammen seine Bedeutung hat und für sich alleine zur polemik führen _würde_.

Vor allem der Teil mit dem Content ist wichtig.

P.S.: Ja Dungeon Keeper war/ist richtig. :D

Jake Dunn
2009-09-24, 23:17:10
Im Vergleich zu was?
1xAA ^^

Gast
2009-09-24, 23:17:34
Da ich ja nicht editieren kann:

Zu den Lüftungsschlitzen: Ich könnte mir vorstellen das es seine Vorteile hat wenn 2 Grakas direkt nebeneinander sitzen und einen hübschen Hitzblock bilden.

derguru
2009-09-24, 23:18:04
X2 ?
kommt auf die wartezeit an,falls es zu lange dauert werden es halt 2 einzelne 2gb karten.

y33H@
2009-09-24, 23:19:45
@ Jake Dunn

2x2 OGSSAA drittelt idR die Fps, 4x4 OGSSAA zehntelt diese meist. Oder meinst du das Radeon'sche SGSSAA?Ich könnte mir vorstellen das es seine Vorteile hat wenn 2 Grakas direkt nebeneinander sitzen und einen hübschen Hitzblock bilden.Das ist u.a. auch ein Grund ;)

Gast
2009-09-24, 23:21:51
Da ich ja nicht editieren kann:

Zu den Lüftungsschlitzen: Ich könnte mir vorstellen das es seine Vorteile hat wenn 2 Grakas direkt nebeneinander sitzen und einen hübschen Hitzblock bilden.

Die Luft muss halt irgendwo raus. Die Öffnungen im Slotblech sind ein Witz, viel zu klein für einen ordentlichen Luftstrom.

Gast
2009-09-24, 23:23:07
Es ist nun mal so, warum ist mir noch nicht ganz klar. Sieht man, wenn man Rauch färbt sicher super :D

Hast du die Karte? Dann halt mal ein Räucherstäbchen vor den Lüfter und staune.

Gast
2009-09-24, 23:23:10
Die Luft muss halt irgendwo raus. Die Öffnungen im Slotblech sind ein Witz, viel zu klein für einen ordentlichen Luftstrom.
Heißt das, die bläst in beide Richtungen heiße Luft?

Gast
2009-09-24, 23:25:37
2x2 OGSSAA drittelt idR die Fps, 4x4 OGSSAA zehntelt diese meist. Oder meinst du das Radeon'sche SGSSAA?Das ist u.a. auch ein Grund ;)
Ich bin der Ansicht die 4 fache Arbeit viertelt die FPS, die 16 fache Arbeit sechzehntelt die FPS.

Die Frage was SG statt OG kostet, die interessiert.

y33H@
2009-09-24, 23:25:59
Hast du die Karte?Ja. Deswegen sage ich ja, der Radial saugt an ...Ich bin der Ansicht die 4 fache Arbeit viertelt die FPS, die 16 fache Arbeit sechzehntelt die FPS.Theoretisch, praktisch nicht.Die Frage was SG statt OG kostet, die interessiert.Bei gleicher Sampleanzahl und gleicher Implementierung das gleiche, das Muster ist hierbei egal. Einzig das negative LOD bei NVs OGSSAA kann sich auswirken. Tuts aber nicht.

Jake Dunn
2009-09-24, 23:27:11
kommt auf die wartezeit an,falls es zu lange dauert werden es halt 2 einzelne 2gb karten.

2 einzelne 5870er sind schneller ;)


@y33H@ Ja das ATIliche ^^


Beispiel: 60FPS 1xAA -> 50FPS 4xAA -> 32FPS 4xAAA hab ich mit der 4870er und sieht alles bs.... aus ^^

DS 2x2SSAA sieht gut aus, läuft aber nur mit DX10 was alleine schon wieder 25% frißt :rolleyes:

][immy
2009-09-24, 23:28:05
Die Luft muss halt irgendwo raus. Die Öffnungen im Slotblech sind ein Witz, viel zu klein für einen ordentlichen Luftstrom.

nicht wirklich. wenn die öffnung nur sehr klein ist aber die luft mit viel druck rausgeblasen wird, wird auch viel wärme abtransportiert. es kommt halt nicht immer auf die größe an ;)

Gast
2009-09-24, 23:30:47
Im Prinzip richtig. Nur dass diese kleinen, recht langsamdrehenden Lüfter keinen nennenswerten Druck aufbauen können um durch den hohen Strömungswiderstand der kleinen Slotöffnung einen wirklich guten Luftstrom fliessen zu lassen.

S940
2009-09-24, 23:31:00
DX11 wird nicht die Wunder auslösen, die sich hier so viele ausmalen. War auch schon bei DX10, DX10.1 so und es wird auch so bleiben. Die Zutaten für das Essen kommen immernoch von den Konsolen (DX9) und genau das weiss Nvidia und sagt von vornerein das DX11 am Start keine große Rolle spielen wird, weil sie die Situation anscheinend erkannt haben.
Blöd nur, dass die DX9 Konsolen mit Ati Chip auch einen Tesselator drin haben ...
Der ist mittlerweile zwar Asbach Uralt, aber ne gewisse Kompatibilität wirds sicherlich geben:

http://www.semiaccurate.com/2009/09/15/evergreendx11-tessellators-vs-xbox-360s/

Komisch auch, dass nV auf einmal DX10.1 Chips bringen will .. der Unterschied zu DX10 war/ist bekanntermaßen - der Tesselator.

Zu den ominösen Asaug/Abluftstutzen. In den meisten Reviews stand, dass die zu Abluft wären, da der bisherige Luftkanal am Slotblech wegen den Monitoranschlüssen einen geringeren Querschnitt hat. Obs stimmt .. kA.

ciao

Alex

Gast
2009-09-24, 23:31:39
Die Luft muss halt irgendwo raus. Die Öffnungen im Slotblech sind ein Witz, viel zu klein für einen ordentlichen Luftstrom.
Die Karte hat noch an der Seite und an den CF Steckern Öffnungen.

y33H@
2009-09-24, 23:32:17
2x SGSSAA kostet n Drittel, 4x SGSSAA drittelt die Fps und 8x SGSSAA ... lassen wir das *g*

DS 2x2SSAA sieht gut aus, läuft aber nur mit DX10 was alleine schon wieder 25% frißt Hä?! ;D

2B-Maverick
2009-09-24, 23:33:29
Komisch auch, dass nV auf einmal DX10.1 Chips bringen will .. der Unterschied zu DX10 war/ist bekanntermaßen - der Tesselator.

... Tesselator ist zwar bei den 10.1er ATI Karten drin - aber NICHT in den 10.1er Specs enthalten.

Gast
2009-09-24, 23:36:01
...Theoretisch, praktisch nicht.
Weil irgend etwas limitiert. Sonst ergibt das für mich keinen Sinn.

Bei gleicher Sampleanzahl und gleicher Implementierung das gleiche, das Muster ist hierbei egal. Einzig das negative LOD bei NVs OGSSAA kann sich auswirken. Tuts aber nicht.Danke, das wollte ich höhren.
Hätte ich auch noch so ungefähr in Erinnerung.

Gast
2009-09-24, 23:36:10
Die Karte hat noch an der Seite und an den CF Steckern Öffnungen.

Genau aus demselben Grund.

Um noch weiterzufabulieren: Im geschlossenen Gehäuse wird durch die Slotöffnung vermutlich wenig bis garkeine Luft aus dem Gehäuse rausgeblasen weil der vergleichsweise leistungsschwache GraKalüfter gegen die viel grösseren und stärkeren Gehäuse und Netzteillüfter arbeiten muss.

Also David (GraKa) will da Luft rausblasen aber Goliath (Netzteil, Gehäuse) ist viel stärker und zieht dagegen.

Es wäre also alles andere als verwunderlich wenn im Geschlossenen Gehäuse über das Slotblech Luft ANGESAUGT wird, und zwar von den starken Gehäuse- und Netzteillüftern gegen die der schwache GraKa-Lüfter nichts entgegenzusetzen hat.

Jake Dunn
2009-09-24, 23:37:06
2x SGSSAA kostet n Drittel, 4x SGSSAA drittelt die Fps und 8x SGSSAA ... lassen wir das *g*



O.k.


Hä?! ;D

Nochmal das 60FPS Beispiel: DX9 60FPS -> DX10 45FPS

Sentionline
2009-09-24, 23:38:06
...der Tesselator...
Wird das aktuelle Problem des RV870 nicht lösen. Wäre aber schön...:D

y33H@
2009-09-24, 23:38:20
Weil irgend etwas limitiert. Irgendwas limitiert immer. Selbst in 19x12 erreichst du mit 2x SSAA keine Halbierung der Fps und in 25x16 geht der Karte idR der VRAM aus.

@ Jake Dunn

Ich meinte die Aussage, wonach "DS 2x2SSAA nur mit DX10 läuft". SSAA per Treiber geht unter DX10 nicht.

Gast
2009-09-24, 23:40:52
2x SGSSAA kostet n Drittel, 4x SGSSAA drittelt die Fps und 8x SGSSAA ... lassen wir das *g*

8xSGSSAA ist demnach billiger als 3x3(bzw 9x)OGSSAA.

Man müsste 8xSGSSAA mit Downsamling koppeln. Hm, wie wärs?

y33H@
2009-09-24, 23:42:02
8xSGSSAA ist demnach billiger als 3x3(bzw 9x)OGSSAA.Theoretisch, ja. Praktisch ... naja.Man müsste 8xSGSSAA mit Downsamling koppeln. Hm, wie wärs?Radeons und DS ist so eine Sache :D Zudem so lahm ... taugt nur für Shots ;(

Jake Dunn
2009-09-24, 23:42:47
Ich meinte die Aussage, wonach "DS 2x2SSAA nur mit DX10 läuft". SSAA per Treiber geht unter DX10 nicht.

Ich meine mit Downsamling 3840x2160 ->1920x1080

y33H@
2009-09-24, 23:43:40
Ach so. OK. Und von was für nem DX10-Titel sprichst du?

Gast
2009-09-24, 23:45:27
Theoretisch, ja. Praktisch ... naja.Radeons und DS ist so eine Sache :D Zudem so lahm ... taugt nur für Shots ;(
Wer redet von Crysis, gibt doch noch andere Spiele. ;)

Der eine oder andere mag da vom nutzen wenig halten, aber was solls.

Jake Dunn
2009-09-24, 23:48:36
Ach so. OK. Und von was für nem DX10-Titel sprichst du?

Na CRYSIS was sonst ^^

Das Gemüse muß ruhiger werden :biggrin:

Bei CRYSIS geht es ja per CMD eine höhere Auflösung zu erzwingen, leider nur unter DX10 was eh schon gut Leistung frißt für nix ;(

y33H@
2009-09-24, 23:53:01
@ Gast

DS + SGSSAA ist optisch sicher sehr geil, ich sehs ja schon, wenn ich 19x12er-Shots samt 8x SGSSAA runterrechne:

http://www.abload.de/thumb/blubb8to8.jpg (http://www.abload.de/image.php?img=blubb8to8.jpg)

Gast
2009-09-24, 23:54:24
Was soll man machen, wenn die hauseigene Vorgängergeneration für 115€ über den Tisch geht.

Was soll man machen, wenn die hauseigene Vorgängergeneration für 115€ über den Tisch geht.

mein gottchen, wie oft willste das nu noch vorbeten, ne 4870 interessiert doch hier kein schwanz ;)

Natürlich. Ich schätze, dass man maximal 450€ nehmen kann, wenn das Komplettpaket stimmt. Ansonsten wohl nur 350€ für GTX380 und 250€ für die GTX360 oder so.

na klar, da bei NV gehn natürlich 450, obwohls nach deiner rechnung den vorgänger zu 140€ gibt

Wieviel mehr wären das dann? Wenn ich lese, das schon die Großserienfertigung im 1. Halbjahr 08 angelaufen sein soll, wundert es mich stark, das die Steigerungen so langsam vonstatten gehen. Eigentlich dürfte der Bandbreitenhunger nicht weniger werden. Wie soll das dann erst beim Refresh oder einer neuen Gen aussehen?

@y33H@
bei geizhals und cb steht jeweils 2400/1200. Was auch immer. ;)

vielleicht steigende ram-preise wegen qimonda-pleite?

Gast
2009-09-24, 23:59:01
Weil irgend etwas limitiert. Sonst ergibt das für mich keinen Sinn.Da muss nicht zwangsläufig was limitieren, das liegt an der Unified Shading Architecture. Geometrie muss nur einmal durch, daher wird relativ jedes Stückchen zusätzliche Auflösung/jedes zusätzliche SSAA-Sample immer billiger, je weiter man alles hochschraubt. Die Last durch VS/GS bleibt ja konstant.

Gast
2009-09-25, 00:01:24
@y33H@

Geiler Screenshot. Wie sieht jetzt die Performance des 5870 aus und BQ? Sorry, war 2 Wochen ohne Inet.