PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Woran arbeitet nVidia, während es alte Produkte nur rebrandet?


Gast
2009-04-06, 08:55:33
Nvidia hat doch sicherlich genug Leute um im früher dagewesenen Takt neue (wirklich neue) Chipsätze und GPUs zu präsentieren. Wohin geht all der Brainpower jetzt?
Da gibts doch wirklich schon seit geraumer Zeit nur noch rebranding (780a - 980a, 9800-GTXXX, ...). Kommt da wirklich ein x86 CPU?

Sentionline
2009-04-06, 09:30:00
Wie bei der G80 wird Nvidia ende des Jahres "den Hammer" liefern. Ist ja nicht so das die däumchen drehen. Zu kriesenzeiten und der Debakel mit den G84 GPUs, die überproduziert und nicht verkauft wurden, setzen Nvidia zu. Zudem schauen diese eben, das sie sich "überwasser" halten mit dies & das, bis der nächste Hammer kommt. Und die kommt, wie das Amen in der Kirche. Alles zu seiner Zeit. Nvidia macht aktuell ja nicht so starke Verluste...

*edit*
Demnach wird mit der GT300, die erste Grafikkarte aus dem Hause Nvidia mit DirectX-11 (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/nvidia_gt300_directx11_55/)-Unterstützung...
Quelle (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/april/erste_direct3d-11-karte_nvidia_q4_09/)

Mein reden.

Gast
2009-04-06, 12:23:51
Nvidia hat doch sicherlich genug Leute um im früher dagewesenen Takt neue (wirklich neue) Chipsätze und GPUs zu präsentieren. Wohin geht all der Brainpower jetzt?


Wirtschaftskrise/ständiger Gewinnrückgang -> Entllassungen

Ailuros
2009-04-06, 12:38:22
Sentionline hat die Frage ziemlich gut beantwortet. Zwar gibt es dank Krise Entlassungen bei fast allen IHVs aber NV hat fuer 2009 fast 1 Mrd $ fuer R&D angegeben. Selbst wenn die entgueltigen Kosten um ein gewisses Prozentual niedriger sein sollten, kostet wohl die Umbennenung bzw. die shrinks von existierenden Architekturen wohl kaum solche Summen.

Gast
2009-04-06, 14:42:09
Du hast wohl letztes jahr den GT200 übersehen, das ding war garantiert nicht so einfach in der Entwicklung...

und so lange die Produkte doch sehr konkurenzfähig sind wie zb. der 980a, wie so den auch nicht?

Ailuros
2009-04-06, 14:52:15
Du hast wohl letztes jahr den GT200 übersehen, das ding war garantiert nicht so einfach in der Entwicklung...

R&D fuer 2009. Was hat dieses genau mit GT200 zu tun?

Stechpalme
2009-04-06, 15:12:12
Zumal der G200 auch nicht grade eine wirkliche Neuentwicklung ist sondern immer noch im wesentlichen auf den G80 basiert, nur eben weiter verbessert.

Denke nicht das nVidia in nächster Zeit nochmal eine echte Neuentwicklung auf den Markt schmeißt, sondern dann direkt mit einem High End Boliden für DX11 zurück melden wird.

tombman
2009-04-06, 15:29:34
Naja, mit DX11 ändert sich ja einiges, da ist wieder viel R&D gefragt.
Zu Weihnachten werden die sicher was vorstellen (GT300), was dann im Jänner auch kaufbar sein wird- so wie immer.
Das gleiche gilt für AMD/ATI.

Coda
2009-04-06, 15:31:57
ATI ist angeblich schon früher dran. Aber NVIDIA muss dann auch entsprechend reagieren. Könnte also bei beiden schon spätes 3. Quartal werden.

tombman
2009-04-06, 16:06:02
Naja, neuer Fertigungsprozess (für highend) UND neues "techlevel", dazu noch ein Monsterchip -> da rechne ich mit haufenweise respins und Verzögerungen.
Ich sag, vor Jänner wird des nix, wenn es für die Konsumzeit vor Weihnachten geplant ist.

Stechpalme
2009-04-06, 16:08:37
Naja, eigentlich haben ATI und nVidia lange genug Zeit zum entwickeln gehabt. Bei nVidia hat sich seid dem G80 nicht wirklich viel getan, bei ATI ist der Sprung vom R600 zum aktuellen RV770 auch nicht die Welt und es wird sicherlich nicht nur ein Entwicklerteam beschäftigt.

Sentionline
2009-04-06, 16:14:20
Ich sehe aktuell am Consumermarkt auch nicht die dringende Erfordernis für eine neue GPU. Aktuelle Chips liefern ja schon massig Frames. Bei ATi sogar spielbar und problemlos bei 8xAA. Die Treiber haben einen Sprung nach vorne gemacht (Mikroruckeln / AO) und Cuda wächst. Ende des Jahres muss Nvidia aber einen neuen Chip reinwerfen, um Larabee die Hörner zu zeigen. Sollte das aber so sein das Larabee flüssig die ersten Raytracing Quake 4s dieser Welt abspielt, dann späterstens wird der Hintern von Nvidia auf Grundeis gehen.

Aber wie schon gesagt, die G80 war für Gothic 3, Oblivion und Crysis notwendig. Jetzt sind keine Titel mehr da die soviel Power brauchen.

AnarchX
2009-04-06, 16:24:42
Sollte das aber so sein das Larabee flüssig die ersten Raytracing Quake 4s dieser Welt abspielt, dann späterstens wird der Hintern von Nvidia auf Grundeis gehen.
Wenn interessiert denn ein Game auf Quake4-Level mit ein paar deplazierten Reflektionen. Im Bezug auf Echtzeit-3D ist Larrabees primärer Fokus auch Rasterisierung.


Aber wie schon gesagt, die G80 war für Gothic 3, Oblivion und Crysis notwendig. Jetzt sind keine Titel mehr da die soviel Power brauchen.

Naja, ein Stalker Clear Sky (http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=14) könnte eine Faktor 2+ schon gut vertragen. Und PhysX giert wohl auch langsam nach mehr Leistung. (http://www.computerbase.de/news/software/spiele/rollenspiele/2009/april/video_benchmarks_sacred_2_physx-patch/)
2010 plant Crytek offenbar ihr erstes auf der CE3-basierendes PC-Game.

pXe
2009-04-06, 16:28:23
...
Aber wie schon gesagt, die G80 war für Gothic 3, Oblivion und Crysis notwendig. Jetzt sind keine Titel mehr da die soviel Power brauchen.

Also die aktuellen Spiele und etwas ältere möchte ich auf einem G71 nicht mehr spielen.


pXe

Sentionline
2009-04-06, 16:29:26
Im direkten Vergleich zu der Blütezeit der G80 immernoch ziemlich "dünn" das Spielfeld auf lange sicht.

Also die aktuellen Spiele und etwas ältere möchte ich auf einem G71 nicht mehr spielen.
Ich hab sie alle erst auf meinem NV40 und danach auf der R520 gespielt. Jetzt bin ich wunschlos mit meiner 4850GS....vorerst.

_DrillSarge]I[
2009-04-06, 16:31:08
Also die aktuellen Spiele und etwas ältere möchte ich auf einem G71 nicht mehr spielen.


pXe
ein g7x ist auch ein sonderfall. das ding bricht (auch im gegensatz zu r5xx) bei aktuellen sachen überproportional ein.

imo brauchts einen richtigen knaller, also sowas wie g80-launch. nicht nur 30% schneller, sondern 200%.

Sentionline
2009-04-06, 16:34:41
imo brauchts einen richtigen knaller, also sowas wie g80-launch. nicht nur 30% schneller, sondern 200%.
Die DIE Größe und die TDP wird interessant. Wir beklettern neue Welten :biggrin:

ROXY
2009-04-06, 20:57:18
"den hammer liefern."

schonmal aktuelle spiele angesehen?
die kann man zum grossteil alle auf einer 50€-100€ karte einwandfrei zocken.

ich glaube nvidia wartet auf neue titel bzw. auf ein algemeines höheres standardisiertes grafikniveau.
vielleicht muss aber auch erst ein playstation / xbox / wii nachfolger her damit sich der aufwand für mehr gpu power lohnt.

LovesuckZ
2009-04-06, 21:24:38
Du kannst sie deswegen nur auf der 100-200€ eindwandfrei zocken, weil das Preisniveau in den Keller gegangen ist.

The_Invisible
2009-04-06, 21:27:57
Also die aktuellen Spiele und etwas ältere möchte ich auf einem G71 nicht mehr spielen.


pXe

also crysis geht auf meiner 79gtx mit 1280 und mittleren details problemlos.

mfg

Crazy_Chris
2009-04-06, 21:29:07
also crysis geht auf meiner 79gtx mit 1280 und mittleren details problemlos.

mfg

Zumindest lässt es sich starten, nicht war? :biggrin:

Mich würde schon konkrete Benchmarkwerte interessieren. :)

Nakai
2009-04-06, 21:57:21
Zumindest lässt es sich starten, nicht war? :biggrin:

Mich würde schon konkrete Benchmarkwerte interessieren. :)

Ich konnte Crysis auf einer X800XT auch problemlos zocken. Zwar nur auf Niedrig und mit 1280*1024, aber es war trotzdem ein gutes Spielerlebnis.


mfg Nakai

Ri*g*g*er
2009-04-06, 22:24:57
Aber wie schon gesagt, die G80 war für Gothic 3, Oblivion und Crysis notwendig. Jetzt sind keine Titel mehr da die soviel Power brauchen.

Also mit einer Single GPU z.b. GTX 260 kann ich nicht alles auf High stellen und mit konstanten 60 Fps in Crysis rumlaufen . . .

Auflösung Full HD -> 1920 x 1200

Und ich hab jetzt noch nicht AA und AF erwähnt . . .

Gruss
Ri*g*g*er

Crazy_Chris
2009-04-06, 22:40:03
Also mit einer Single GPU z.b. GTX 260 kann ich nicht alles auf High stellen und mit konstanten 60 Fps in Crysis rumlaufen . . .

Auflösung Full HD -> 1920 x 1200

Und ich hab jetzt noch nicht AA und AF erwähnt . . .

Gruss
Ri*g*g*er

Dafür reicht selbst noch nichtmal eine GTX 285. :redface:

Ailuros
2009-04-07, 07:31:14
Zumal der G200 auch nicht grade eine wirkliche Neuentwicklung ist sondern immer noch im wesentlichen auf den G80 basiert, nur eben weiter verbessert.

Denke nicht das nVidia in nächster Zeit nochmal eine echte Neuentwicklung auf den Markt schmeißt, sondern dann direkt mit einem High End Boliden für DX11 zurück melden wird.

GT3x0 hat um einiges mehr als G80 gekostet was die Entwicklung betrifft.

AnarchX
2009-04-07, 08:36:46
Du kannst sie deswegen nur auf der 100-200€ eindwandfrei zocken, weil das Preisniveau in den Keller gegangen ist.
Das Preisniveau (z.B. eine GTX 260 für 150€) ist völlig im Rahmen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286

Einzig die Software ist ziemlich anspruchlos geworden, sodass man die meisten Titel mittlerweile mit 720p-1080p mit MSAA spielen kannn auf einer solchen 150€ Karte.

Matrix316
2009-04-07, 08:48:00
Du kannst sie deswegen nur auf der 100-200€ eindwandfrei zocken, weil das Preisniveau in den Keller gegangen ist.
Das Preisniveau geht immer in den Keller wenn neue Karten kommen. Das ist ganz normal. Was fehlt sind mehr Spiele, die auch in niedrigen Auflösungen die High End Karten beschäftigen. Wobei der Trend ja eh mehr zu 24 Zoll bzw. Full HD Auflösungen geht, so dass auch die schnelleren Karten eine Daseinsberechtigung haben, selbst wenn die Spiele auf niedrigeren Auflösungen genügsamer sind. Aber bei Crysis in 1920x1200, (Very) High und 4xAA kannste ne 8800GT knicken. Und auch zwei.

Dimon
2009-04-07, 10:30:19
Aber bei Crysis in 1920x1200, (Very) High und 4xAA kannste ne 8800GT knicken. Und auch zwei.

Kann man da nicht alle Grakas Knicken (single Grakas)?

Gruß

Gaestle
2009-04-07, 10:57:29
Aber es ist schon so, dass sich die Auflösungsgrößen steigern und damit auch der Leistungshunger der Games. Es gibt einige Karten, die die Leistung einer 295GTX / 4890CF für Max-Detail brauchen:

Crysis http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/16/#abschnitt_crysis_warhead
Call of Juarez http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/15/#abschnitt_call_of_juarez
FarCry 2 (wenn man AA will) http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/17/#abschnitt_far_cry_2
Stalker Clear Sky http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/19/#abschnitt_stalker_clear_sky

Das waren nur die Dauertestkandidaten der CB. Dazu kommen noch andere Games. Dazu kommt z.B. noch Sacred 2 mit PhysX oder Cryostasis (mit AA) Außerdem ist ja auch dies und das in der Mache, was sicherlich bis Ende des Jahres rauskommt....

Aber diese Diskussion ist ziemlich OT.

.

Nakai
2009-04-07, 11:03:54
ATi macht das was sie seit dem RV670 machen und NV bringt ne übergroße SingleChip-Karte.
ATI wird deswegen ne gute Midrangekarte parat haben und NV wird wohl wieder das Highend dominieren.


mfg Nakai

Crazy_Chris
2009-04-07, 11:07:38
Die GT200 hat ja schon 1,4 Milliarden Transistoren bei 55nm. Was ist denn bei 40nm realistisch wenn man im aktuellen TDP Bereich bleiben will? Man könnte so ja die ungefähre Komplexität abschätzen und auf die Anzahl der Shadereinheiten schließen. Wieviel Mehr an Shadereinheiten ist denn realistisch? Oder nutzen sie die bessere Fertigung nur für höhere Taktraten?

RLZ
2009-04-07, 11:21:55
Die GT200 hat ja schon 1,4 Milliarden Transistoren bei 55nm. Was ist denn bei 40nm realistisch wenn man im aktuellen TDP Bereich bleiben will?
Das hängt von zuvielen Parametern ab. Soetwas kann man nicht einfach von der Anzahl der Transistoren abhängig machen. Man muss sich nur mal RV770 und GT200b anschauen. ATI schafft es mit wesentlich weniger Transistoren eine ähnliche Energie zu "verschleudern".
Man könnte so ja die ungefähre Komplexität abschätzen und auf die Anzahl der Shadereinheiten schließen.
Das kann man selbst für eine bekannte Architektur nur grob abschätzen. Da der GT300 offensichtlich eine komplett neue Architektur hat, kannst du dir genauso gut ein paar Zufallszahlen ausdrucken, an die Wand kleben und blind mit nem Dartpfeil draufwerfen.

AnarchX
2009-04-07, 11:30:27
Die GT200 hat ja schon 1,4 Milliarden Transistoren bei 55nm. Was ist denn bei 40nm realistisch wenn man im aktuellen TDP Bereich bleiben will? Man könnte so ja die ungefähre Komplexität abschätzen und auf die Anzahl der Shadereinheiten schließen. Wieviel Mehr an Shadereinheiten ist denn realistisch? Oder nutzen sie die bessere Fertigung nur für höhere Taktraten?

Beim Die schwirren momentan 600mm² herum, also wohl ca. 3 Mrd. Transitoren unter 40nm. Dazu soll das Energie- und Takt-Management deutlich ausgefeilter werden(>Alles hier zu finden< (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170)).

Zu den Shadereinheiten kann man momentan noch überhaupt nichts sagen, da es einfach noch nicht abschätzbar ist wie diese genau aussehen und was sie leisten. In der Praxis würde ich jedoch einen Faktor 3 in der Leistung gegenüber GT200 mindestens erwarten.
Immerhin muss ja NV beweisen, dass ein Single-Chip immernoch die beste Lösung ist, was ihnen bei RV770(X2) vs GT200 im Bezug auf die Shaderleistung ja nicht wirklich gelang.

Gaestle
2009-04-07, 11:38:30
Also ganz ehrlich, ist mir die TDP egal. Für mich ist interessant, was hinten raus kommt. Mein Rechner läuft aber auch nicht 24/7.

Und ob GT300 ein monolithischer Single-Chip ist, so wie wir es aus der Vergangenheit kennen, ist IMHO auch noch nicht klar. Vielleicht ist diesmal die Skalierbarkeit nach unten besser, vielleicht hat NV alle an der Nase rumgeführt. Außerdem ist nicht klar, ob ATi den RV770-Coup wiederholen kann und ob es erneut zu solch einer Preisschlacht kommen wird. Und es ist zwar unwahrscheinlich, aber trotzdem fraglich, ob NV in der Zeit vom RV770-Release bis zum G300-release (ca. 15-18 Monate) die Skalierbarkeit des G300 optimieren konnte.

Insgesamt hat NV trotz RV770, den G200b-Problemen und der Preisschlacht im letzten Jahr nur 30 Mio Verlust gemacht, bei 3,4Mrd Umsatz. Das ist zwar nicht schön, aber auch kein Drama. Die Auswirkungen sehen wir jetzt, dass immer mehr auf G200-Derivaten rumgelutscht wird.

Crazy_Chris
2009-04-07, 11:47:59
Beim Die schwirren momentan 600mm² herum, also wohl ca. 3 Mrd. Transitoren unter 40nm. Dazu soll das Energie- und Takt-Management deutlich ausgefeilter werden(>Alles hier zu finden< (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170))

Danke. :) Werd mal in dem Thread stöbern. Der ist mir komischerweise mehr oder weniger entgangen. :eek:

Also ganz ehrlich, ist mir die TDP egal. Für mich ist interessant, was hinten raus kommt. Mein Rechner läuft aber auch nicht 24/7.


Mir ja auch solange es noch halbwegs leise gekühlt werden kann. ;) Wobei das ist ja bei der GTX 285 schon kaum möglich.

Ronny G.
2009-04-07, 11:49:11
Ich würde auch meinen das die nächsten großen Eckpunkte neuer Generationen
DX11 und bessere Energieeffiziens sind, daran wird sicherlich schon gearbeitet, nur bekommen wir davon nicht viel mit.
Gerade im Computerhardwaremarkt bewegt sich doch jeder nur soweit voran wie es nötig ist, soll heißen das NV z.b. einfach nur ein konkurrenzfähiges Produkt um gegen ATI zu bestehen anbietet.
Mir kommt es fast so vor als ob viele hier schon wieder langeweile plagt und sie was neues zwischen die griffel bekommen wollen. Ich selber bin ganz beruhigt das der Markt momentan etwas steht und die Hersteller erstmal ne weile Geld mit ihren Produkten verdienen wollen. Diese Alljährlichen Modellwechsel stressen auf dauer massiv das Geldsäckel.:biggrin:

Gaestle
2009-04-07, 11:52:47
Mir ja auch solange es noch halbwegs leise gekühlt werden kann.

X-Fi, CMSS3D + Headphones anyone?
Ist nur meine persönliche Meinung. Muss man ja nicht teilen.


Die Chips sind doch eigentlich deutlich effizienter geworden. Die Performance pro Watt sah bei G7x oder NV4x bestimmt noch ganz anders aus.
Erinnert sich noch jemand an die Staubsauger-Späße zur FX-Einführung? Heute wäre das einerseits Kindergarten, weil die TDPs eh deutlich über FX5800-Niveau liegen, anderseits dürfte sich die Grafikleistung auch etwa verzehnfacht haben. Ein R9800 bzw. FX5800 GESAMTSYSTEM hat auch 200W gebraucht. Wenn man für R9800 / FX5800 etwa von 90W ausgeht, müssten heute GraKas bei gleicher Performance pro Watt ca. 900 - 1200 Watt umwandeln.

Crazy_Chris
2009-04-07, 11:55:09
X-Fi, CMSS3D + Headphones anyone?
Ist nur meine persönliche Meinung. Muss man ja nicht teilen.



Ich stehe da mehr so auf X-Fi, CMSS3D + Onkyo TX-SR606 + Nubert NuLine Standboxen. :cool:

Meine Nachbarn aber nicht... ;D


Mir kommt es fast so vor als ob viele hier schon wieder langeweile plagt und sie was neues zwischen die griffel bekommen wollen.

Erwischt :weg: (wollte letztens Crysis spielen und hatte mir da von der GTX 285 irgendwie mehr erwartet...)

Gaestle
2009-04-07, 12:02:18
Ich stehe da mehr so auf X-Fi, CMSS3D + Onkyo TX-SR606 + Nubert NuLine Standboxen. :cool:

Meine Nachbarn aber nicht... ;D


Nee. Bei solcher Bestückung würde ich meine Frau in der Küche rumklappern hören. Totaler Atmo-Killer beim Zocken... ;D

robbitop@work
2009-04-07, 13:57:10
Beim Die schwirren momentan 600mm² herum, also wohl ca. 3 Mrd. Transitoren unter 40nm. Dazu soll das Energie- und Takt-Management deutlich ausgefeilter werden(>Alles hier zu finden< (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170)).

Zu den Shadereinheiten kann man momentan noch überhaupt nichts sagen, da es einfach noch nicht abschätzbar ist wie diese genau aussehen und was sie leisten. In der Praxis würde ich jedoch einen Faktor 3 in der Leistung gegenüber GT200 mindestens erwarten.
Immerhin muss ja NV beweisen, dass ein Single-Chip immernoch die beste Lösung ist, was ihnen bei RV770(X2) vs GT200 im Bezug auf die Shaderleistung ja nicht wirklich gelang.
Ich tippe auf > 2x GT200 Leistung. Den GPGPU Kram wird man nicht über Board werfen und D3D11-Compliance wird sicher auch nochmal kosten. Aber dafür wird man beim 512 bit SI bleiben müssen.

Zum GT300/NV60 erwarte ich:
- ein höher werdendes ALU:TEX Verhältnis.
- überarbeitetes Trisetup/Speichermanagement (8xMSAA Perfomance)
- MIMD ALUs
- Tex-Füllrate ~1,5 - 2x
- ALU-Rohleistung ~ 2x
- Z-Rohleistung (kaum Steigerung)
- Effizienzsteigerung der arithmetischen Rechenleistung
- verbessertes CSAA (schneller und korrekter)
- verbesserter Downsamplingfilter (???)
- 512 bit GDDR 5
- 2048 MiB VRAM
- herkömliches SLI (kein MCM oder sonstwas)
- GDDR5 und üblich Effizienzsteigerung beim Speichercontroller

Ailuros
2009-04-07, 15:04:07
Ich tippe auf > 2x GT200 Leistung.

IMHLO viel zu wenig wenn man auch wirklich beweisen will dass high end single chip die bessere Loesung ist; ausser man akzeptiert dass dieses der GT200 beweisen konnte.

Den GPGPU Kram wird man nicht über Board werfen und D3D11-Compliance wird sicher auch nochmal kosten. Aber dafür wird man beim 512 bit SI bleiben müssen.

Vielleicht zum letzten.


- ein höher werdendes ALU:TEX Verhältnis.

Ich hab noch nichtmal eine Ahnung was sie genau mit den TMUs angestellt haben. Ein Verdacht zwar schon aber es nicht zu frueh. Ich erwarte auf keinen Fall eine nur maessige Steigerung von allen Fuellraten.

- überarbeitetes Trisetup/Speichermanagement (8xMSAA Perfomance)

Die Antwort fuer bessere 8xMSAA Leistung heisst besser optimierte Treiber; trotz allem ja aber nicht fuer 8xMSAA.

- MIMD ALUs

Man koennte sie auch so nennen, aber die Tendenz liegt eher in der optimierten SIMD Richtung mit irgend einer bloeden Bezeichnung a la MPMT.

- Tex-Füllrate ~1,5 - 2x

Vielleicht sogar um einiges mehr.

- ALU-Rohleistung ~ 2x

Gleich wie oben.

- Z-Rohleistung (kaum Steigerung)

Kaum? :biggrin:


- 2048 MiB VRAM

Desktop ja.

AnarchX
2009-04-07, 15:14:11
Kaum? :biggrin:

Also mit G300 schon keine FF-ROPs mehr? Wobei natürlich hierbei die Frage ist wie weit praktisch die Leistung steigt.

Nimmt man das Verhältnis von hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6744107#post6744107) zwischen FP-Leistung und AA-Samples, dann dürfte ein G300 mit geschätzten 2.5 TFLOPs mal eben ~1 Tera AA-Samples erreichen, die wohl equivalent zur Z-Fill sind, die bei einer GTX 285 bei 166 GigaZixel liegt.

dargo
2009-04-07, 16:17:50
Also mit einer Single GPU z.b. GTX 260 kann ich nicht alles auf High stellen und mit konstanten 60 Fps in Crysis rumlaufen . . .

Auflösung Full HD -> 1920 x 1200

Und ich hab jetzt noch nicht AA und AF erwähnt . . .

Jetzt werden schon min. 60fps in Crysis verlangt. :ugly:
Das wirst du auch nicht mit einem "GT400" schaffen solange du deine CPU nicht wechselst. Um durchgehend 60fps mit High in Crysis zu haben brauchst du auf CPU-Seite einen i7 @~4,5Ghz (dabei habe ich eine um 30% höhere Pro/Mhz-Leistung des i7 gegenüber einem Yorkfield berücksichtigt).

Aber dafür wird man beim 512 bit SI bleiben müssen.

Warum? Beim GDDR5 sehe ich nicht unbedingt die Notwendigkeit. 384Bit würden da imo ausreichen.


Vielleicht zum letzten.

Desktop ja.
Widersprichst du dir hier nicht selbst? :)

AnarchX
2009-04-07, 21:23:08
Warum? Beim GDDR5 sehe ich nicht unbedingt die Notwendigkeit. 384Bit würden da imo ausreichen.

NV ist doch etwas konservativer im Bezug auf Speicher und deutlich über 1GHz GDDR5 würde im Q4 auch nicht erwarten.
Wenn GT300 wirklich ein Faktor 2+ bei der GPU-Leistung hat (mit virtualisierten ROPs bei der Z-Fill wohl noch deutlich mehr), dann sollte entsprechend Bandbreite zur Verfügung stehen und so riesig dürfte der Aufwand von 384 zu 512-Bit dann auch nicht sein.

Im Endeffekt will man ja auch 2013 die 1 TByte/s-Marke überschreiten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6744107#post6744107

2009: GT300 ~ 256GB/s
2011: GT400 ~ 512GB/s
2013: GT500 ~1024GB/s

Also wäre das durchaus im Rahmen.

Spasstiger
2009-04-07, 21:38:06
Ein 512-Bit-SI halte ich auch für sehr wahrscheinlich. Zum Einen muss man bei einem Chip mit evtl. knapp 3 Mrd. Transistoren und evtl. ~500 mm² Fläche @ 40 nm nicht unbedingt am PCB sparen, weil die angepeilte Preisklasse eh relativ hoch liegen wird. Und zum Anderen wird GDDR5-Speicher mit mehr als 5 Gbps Datenrate in diesem Jahr wohl noch nicht in großen Stückzahlen verfügbar sein. Und Um den GT300 zu sättigen, wird man doch Einiges mehr an Speicherbandbreite als bei der GTX 285 benötigen.
Außerdem kann NV mit einem 512-Bit-SI bei abgespeckten Varianten auch noch GDDR3-Reste verwerten lassen, ohne dass die Bandbreite zu sehr darunter leidet.

FutureIsNow
2009-04-07, 21:47:12
Ich verstehe die Gier nach Leistung nicht. Für 200 Euro kriegt man heute so viel Leistung wie noch nie! Das reicht locker um Crysis in voller Bracht zu spielen, oder irre mich da?

De anderen Spiele kommen mit sehr viel weniger Leistung aus...

desert
2009-04-07, 21:55:23
Ich verstehe die Gier nach Leistung nicht. Für 200 Euro kriegt man heute so viel Leistung wie noch nie! Das reicht locker um Crysis in voller Bracht zu spielen, oder irre mich da?

De anderen Spiele kommen mit sehr viel weniger Leistung aus...


Ne die verlangen alle noch nach viel mehr leistung, wenn man mit hybridmodis und 1920 x 1200 spielen will. Ich bräuchte min. 3 fache g200 leistung im singlechip.

Crazy_Chris
2009-04-07, 22:00:11
Ich verstehe die Gier nach Leistung nicht. Für 200 Euro kriegt man heute so viel Leistung wie noch nie! Das reicht locker um Crysis in voller Bracht zu spielen, oder irre mich da?


Der war gut. :whistle::sneak:

Die übernächste Generation sollte erst genug Leistung für Max Details in allen Lebenslagen habe.

Gast
2009-04-07, 22:14:49
Naja Projectionen und Realität sind halt 2 Paar Schuhe. Durch die Krise wird auch bei Samsung und Co. die R&D etwas in Mitleidenschaft gezoge, GDDR6 wird sich wohl verzögern. Von daher wird es wohl ohne richtige Architektur Änderungen an den ROPs und den TMUs nicht gehen. Ein 384Bit Interface des SI legt ja bisher die ROP Anzahl fest, davon wird sich NV sicher trennen wollen und die TMUs sind sicher "sehr anders" als bisher ;)

boxleitnerb
2009-04-07, 22:20:03
Den 200 Euro-Spruch kann man doch in etwa in dieser Form alle 18 Monate wiederholen und dann stimmt er immer noch, dummes Argument. Es geht ja nicht nur um Crysis, es geht um zukünftige Spiele. Es geht um Entwickler, es geht um PhysX/den offenen PhysX Nachfolger, falls es mal einen geben wird, es geht um flimmerfreie Shader, die zumindest in Teilbildbereichen SSAA brauchen und diese Liste lässt sich beliebig fortsetzen, je nach Geschmack.

Was habt ihr Bremser nur mit dieser Auffassung, dass Stillstand toll sein soll? Stillstand ist scheiße! Leistung kann man nie genug haben, die kann man immer umsetzen. Und wer mit seiner jetzigen Karte zufrieden ist, braucht sich keine neue kaufen, so einfach ist das. Also manchmal...

Ailuros
2009-04-08, 13:19:21
Widersprichst du dir hier nicht selbst? :)

Nein wieso? Ich will die 512bit Moeglichkeit noch nicht ausschliessen und fuer eine Desktop GPU wird es wohl nicht mehr als 2GB Speicher geben, ganz im Gegenteil zum Profi-Markt fuer's letztere.

Ailuros
2009-04-08, 13:27:34
Also mit G300 schon keine FF-ROPs mehr? Wobei natürlich hierbei die Frage ist wie weit praktisch die Leistung steigt.

Nimmt man das Verhältnis von hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6744107#post6744107) zwischen FP-Leistung und AA-Samples, dann dürfte ein G300 mit geschätzten 2.5 TFLOPs mal eben ~1 Tera AA-Samples erreichen, die wohl equivalent zur Z-Fill sind, die bei einer GTX 285 bei 166 GigaZixel liegt.

Es ist eine durchaus verdammt verkorkste spekulative Rechenmethode, aber angenommen man zieht eine gerade Linie zwischen GT200/2008 aus dem oeden Projektions-slide bis zu den GPU-Ueber-Ueber/2013 Werten liegt eine hypothetische 2009 GPU bei ~4x Mal mehr GFLOPs, >4x Mal mehr Texel-fuellrate, >5x Mal mehr Pixel-fuellrate und ~2x Mal so viel Bandbreite.

Natuerlich ist so eine Rechenuebung total unsinnig denn die Skalierung zwischen 2008 und 2013 koennte irgendwo in der Mitte einen netten Knick machen.

Aber um auf Deine Frage zurueckzukommen: angenommen es ist eine gerade Linie skalieren Arithmetik, GTexels und GPixels etwa auf dem gleichem Niveau, waehrend die Bandbreite sich lediglich verdoppelt. Irgendwo 280+GB/s sind mit 1.1GHz GDDR5@512bit erreichbar. Wie genau willst Du irgendwo um die 220GTexels und/oder 110GPixels/s erreichen ohne dass die beiden letzten auf ALU-Frequenz liegen wuerden?

***edit: um Missverstaendnissen zu entgehen ich glaube persoenlich nicht dass es sich um eine gerade Linie bis zu 2013 handelt. Eher um fundamentalere Aenderungen der uebernaechsten echten Generation (>D3D11).

dargo
2009-04-08, 14:11:48
Nein wieso? Ich will die 512bit Moeglichkeit noch nicht ausschliessen und fuer eine Desktop GPU wird es wohl nicht mehr als 2GB Speicher geben, ganz im Gegenteil zum Profi-Markt fuer's letztere.
Naja, auf der einen Seite schließt du 512Bit SI nicht aus (ich interpretiere es so, dass andere Möglichkeiten bestehen). Auf der anderen Seite bist du dir zu den 2GB Vram Desktop sicher. Die 2GB kann man eh nur mit 512Bit SI oder 256Bit SI realisieren (für 256Bit SI ist GDDR5 zu langsam getaktet). Mit den "krummen" Speicherinterfaces geht es nicht.

Ailuros
2009-04-08, 14:33:34
Naja, auf der einen Seite schließt du 512Bit SI nicht aus (ich interpretiere es so, dass andere Möglichkeiten bestehen). Auf der anderen Seite bist du dir zu den 2GB Vram Desktop sicher. Die 2GB kann man eh nur mit 512Bit SI oder 256Bit SI realisieren (für 256Bit SI ist GDDR5 zu langsam getaktet). Mit den "krummen" Speicherinterfaces geht es nicht.

Stimmt schon so; das dumme ist eben dass GT3x0 immer noch ein sehr grosses Fragezeichen ist. Sicher bin ich mir ueber 2GB Speicher keineswegs.

Crazy_Chris
2009-04-08, 14:37:48
Auf der anderen Seite bist du dir zu den 2GB Vram Desktop sicher.

Warum? Denkbar ist es doch das mit 384-bit Interface und 1792MB GDDR5 RAM angefangen wird.

Ailuros
2009-04-08, 14:50:11
Warum? Denkbar ist es doch das mit 384-bit Interface und 1792MB GDDR5 RAM angefangen wird.

Unter dem heutigen GPU Aufbau stehen 1792MB eher einem 448bit Bus zu.

dargo
2009-04-08, 15:10:40
Warum? Denkbar ist es doch das mit 384-bit Interface und 1792MB GDDR5 RAM angefangen wird.
1792MB bedeutet entweder 14 oder 7 Speicherchips. Beides ist nicht durch 384 teilbar.

AnarchX
2009-04-08, 15:55:51
***edit: um Missverstaendnissen zu entgehen ich glaube persoenlich nicht dass es sich um eine gerade Linie bis zu 2013 handelt. Eher um fundamentalere Aenderungen der uebernaechsten echten Generation (>D3D11).
Wie schon auf die ROPs bezogen eben Virtualisierung im Bezug auf bestimmte Einheiten, sodass man die Werte bei 2013 eher als Peakwerte verstehen kann und nicht unabhängig wie noch beim G200 2008.

Crazy_Chris
2009-04-08, 15:59:30
1792MB bedeutet entweder 14 oder 7 Speicherchips. Beides ist nicht durch 384 teilbar.

meine ja 448 bit, wie bei der GTX 260. :redface: Jedenfalls sind die 2048MB RAM irgendwo genauso willkürlich wie 1024, 512 oder 256MB. Hängt nur von den verwendeten Chipgröße und der Anzahl der "Speicherkanäle" ab.

Psychologisch wär es natürlich schon ganz gut die 2Gb zu liefern. :) Obwohl ich es weiß das es egal ist obs nun 1792MB oder 2048MB sind fühlen sich die 2048MB irgendwie besser an.

Na jedenfalls denke ich das man irgendein Zwischending zwischen 256bit SI und 512bit SI bringen wird um die Kosten zu drücken. Dank GDDR5 reicht die Bandbreite trotzdem.

Coda
2009-04-08, 16:36:05
1792MB bedeutet entweder 14 oder 7 Speicherchips. Beides ist nicht durch 384 teilbar.
2304 MiB mit einem 384er SI sind ja auch noch möglich.

AnarchX
2009-04-08, 16:41:30
2304 MiB mit einem 384er SI sind ja auch noch möglich.
1536MBit Chips?

dargo
2009-04-08, 16:44:49
2304 MiB mit einem 384er SI sind ja auch noch möglich.
Theoretisch schon, praktisch auch? Wären immerhin 18 Speicherchips (oder gibts schon 256MiB GDDR5-Chips? bin da nicht so auf dem laufenden). Wie dem auch sei, beim genaueren Rechnen zweifle ich langsam ob die 384Bit wirklich ausreichen wenn der GT300 doch so fett sein soll. Mit 5 Gbps Chips wäre man bei 240GB/s wenn ich mich nicht verrechnet habe. Und ob diese Chips Ende des Jahres flächendeckend lieferbar sind ist auch eher fraglich. Wie hoch schätzt ihr fällt die Speicherbandbreite beim GT300 aus?

Edit:
Moment, jetzt komme ich hier schon durcheinander. :D
Wie soll das funktionieren? Sind wie AnarchX schon angedeutet hat 192MiB GDDR5-Chips in Planung?

Spasstiger
2009-04-08, 17:06:21
Es gibt keine Speicherchips in Größen, die von Zweierpotenzen abweichen. Und ohne eine wirklich große Nachfrage werden die Speicherhersteller auch keine entsprechenden Chips herstellen. Bis zum GT300 wird sich an den verfügbaren Speicherchipgrößen sowieso nichts ändern.

Mögliche Speichermengen mit einm 384-Bit-SI und 1024-Mbit-GDDR5-Chips sind 1536 MiB und 3072 MiB. Die Konfigurationen wären dann pro 64-Bit-SI-Partition 2 Chips, die jeweils unabhängig angesteuert werden, oder 4 Chips, wovon jeweils zwei zusammen im Clamshell-Modus laufen.
Aber ich rechne sowieso wieder mit einem 512-Bit-SI und dementsprechend 2048 MiB VRAM in Form von sechszehn 1024-Mbit-GDDR5-Chips, die jeweils in Zweipärchen an die acht 64-Bit-SI-Cluster angebunden werden.

Was die Speicherbandbreite angeht: Eine Steigerung von 50% gegenüber der GTX 285 dürfte das Minimum sein. Ich kann mir für das Releasemodell 256 GB/s vorstellen mit erschwinglichen und breit verfügbaren 4-Gbps-Chips. Wenn Nvidia sich für kombinierte GDDR3- und GDDR5-Controller entscheidet, wären auch abgespeckte Varianten mit 2,6-Gbps-GDDR3-Speicher denkbar (bis zu 166 GB/s gesamt). So könnten die AIBs dann noch ihre Reste von High-End-GDDR3-Speicher loswerden. Das Speicherinterface wird bei den abgespeckten Varianten dafür vielleicht nicht beschnitten. Es muss ja nicht alles so wie beim G80 und beim GT200 laufen. ;) In Punkto Speichermenge kann man ganz leicht für Abgrenzung sorgen, 2 GiB VRAM beim Topmodell, 1 GiB VRAM beim abgespeckten Modell (16*512-Mbit-GDDR3-Chips).

Gast
2009-04-21, 15:00:22
Es gibt keine Speicherchips in Größen, die von Zweierpotenzen abweichen. Und ohne eine wirklich große Nachfrage werden die Speicherhersteller auch keine entsprechenden Chips herstellen. Bis zum GT300 wird sich an den verfügbaren Speicherchipgrößen sowieso nichts ändern.Ich glaube auch nicht, dass Code 1536 Mbit fassende Chips meinte. Allerdings halte ich unterschiedlich große Chips ebenfalls für eher nicht möglich, außer es kommt zumindest was diese Sache betrifft etwas völlig neuartiges mit GT300.

1536 MiB VRAM wären mir zumindest zu wenig für eine zukünftige Highend-Karte. 3 GiB fänd' ich persönlich recht passend. Glauben tu ich aber eher an ein 512-Bit-SI wie auch schon beim GT200.

Goines
2009-07-16, 19:16:46
Bei soviel VRAM wird ein 64Bit OS imho pflicht, sonst bleib vom eigentlichem RAM ja nichts mehr über.
Finde ich gut dann kommt endlich mal was das die Leute zu 64bit zwingt und somit auch die Softwareentwicklung hinterherzieht.

Gast
2009-07-16, 19:30:27
[ ] Du hast verstanden, das die VRAM Größe ziemlich egal ist, für das OS.

Hellfire-Torrod
2009-07-16, 20:57:09
Was will man allerdings mit der neusten und schnellsten Grafikkarte, wenn es keine neuen Spiele gibt? ;(

Lyka
2009-07-16, 21:05:03
Was will man allerdings mit der neusten und schnellsten Grafikkarte, wenn es keine neuen Spiele gibt? ;(

(x) leider wahr :(

=Floi=
2009-07-16, 21:08:16
erst muß mal das alte zeug anständig laufen.

Goines
2009-07-16, 21:50:58
[ ] Du hast verstanden, das die VRAM Größe ziemlich egal ist, für das OS.


Aha, dann erklär mir doch mal bitte warum ich nicht meine kompletten 4GB nutzen kann und mir beim POST nur knapp 3GB davon angezeigt werden. Bei Bekannten mit weniger VRAM wird entsprechend mehr bei POST angezeigt.

Grestorn
2009-07-16, 21:59:43
Aha, dann erklär mir doch mal bitte warum ich nicht meine kompletten 4GB nutzen kann und mir beim POST nur knapp 3GB davon angezeigt werden. Bei Bekannten mit weniger VRAM wird entsprechend mehr bei POST angezeigt.
Du verwechselst Video-RAM mit normalem Hauptspeicher.

Allerdings kann ich mir gut vorstellen, dass bei VRAM von 2GB oder mehr ein 32bit OS auch so seine Probleme bekommen könnte. Zwar wird das VideoMemory eh gepaged, aber trotzdem...

|MatMan|
2009-07-16, 23:37:12
ich merke nichts von Problemen mit nem 32bit XP und ner 2GB GTX285...

Gast
2009-07-17, 11:53:52
Was will man allerdings mit der neusten und schnellsten Grafikkarte, wenn es keine neuen Spiele gibt? ;(

Welche aktuelle single-gpu kann crysis in DX10 mit maximalen details in FullHD-auflösung durchgehend flüssig darstellen?

Gast
2009-07-17, 11:59:37
Aha, dann erklär mir doch mal bitte warum ich nicht meine kompletten 4GB nutzen kann und mir beim POST nur knapp 3GB davon angezeigt werden. Bei Bekannten mit weniger VRAM wird entsprechend mehr bei POST angezeigt.

Weil verschiedenste hardware adressraum benötigt, auch die grafikkarte.

Bei der grafikkarte werden aber immer nur 256MiB in den adressraum abgebildet, unabhängig davon wieviel VRAM die karte nun tatsächlich hat, ab 256MiB wird nicht mehr adressraum verbraucht, ob 256MiB oder 2GiB ist egal.

Wäre ja wirklich schlimm wenn der gesamte VRAM in den adressraum gemappt werden müsste, dann würden baldt auch 64bit nichts mehr helfen, da erweiterungskarten immer noch 32bit-karten sind und demzufolge nur in den bereich unter 4GiB gemappt werden können.

Mit einer 2GiB-karte hätte man dann gerade mal 2GiB für die restliche hardware übrig, selbst mit 64bit-system. Das würde wahrscheinlich gerade noch gutgehen, ab 3GiB wird es dann aber wirklich eng.

James Ryan
2009-07-17, 12:03:22
Welche aktuelle single-gpu kann crysis in DX10 mit maximalen details in FullHD-auflösung durchgehend flüssig darstellen?

Sorry, aber Crysis ist schon so alt, wer spielt das noch ernsthaft?
Hellfire-Torrod fragte nach neuen Spielen. ;)

MfG :cool:

HOT
2009-07-17, 14:28:54
[ ] Du hast verstanden, das die VRAM Größe ziemlich egal ist, für das OS.
Das ist Quatsch. Bei viel VRAM braucht man auch entsprechende Adressierung.
Weil verschiedenste hardware adressraum benötigt, auch die grafikkarte.

Bei der grafikkarte werden aber immer nur 256MiB in den adressraum abgebildet, unabhängig davon wieviel VRAM die karte nun tatsächlich hat, ab 256MiB wird nicht mehr adressraum verbraucht, ob 256MiB oder 2GiB ist egal.

Wäre ja wirklich schlimm wenn der gesamte VRAM in den adressraum gemappt werden müsste, dann würden baldt auch 64bit nichts mehr helfen, da erweiterungskarten immer noch 32bit-karten sind und demzufolge nur in den bereich unter 4GiB gemappt werden können.

Mit einer 2GiB-karte hätte man dann gerade mal 2GiB für die restliche hardware übrig, selbst mit 64bit-system. Das würde wahrscheinlich gerade noch gutgehen, ab 3GiB wird es dann aber wirklich eng.
Es gibt zwar eine Remappingtechnik für VRAM, um das Problem zu umgehen (VRAM wird vom 32Bit-OS auf 256MiB pro Adapter begrenzt, der Treiber remappt dann auf mehr), aber mehr als 1GB sind unter 32Bit nicht einsetzbar, sonst wirds einfach zu langsam ;). Für den sinnvollen Einsatz von mehr als 1GB ist 64Bit also zwingend. Man kann nicht ins unendliche effizientes Remapping betreiben, das kostet Leistung. Schon das Remapping auf 4x des zugewiesenen Adressraumes ist kaum noch effizient mMn. NV und ATI begrenzen den max-VRAM sowieso auf 1GB auf 32Bit AFAIK.

|MatMan|
2009-07-17, 18:38:53
NV und ATI begrenzen den max-VRAM sowieso auf 1GB auf 32Bit AFAIK.
Ich weiß nicht wo du das mit der Begrenzung her hast, aber ich kann memtestG80 von den Folding@Home Leuten problemlos mit 1,5GB VRAM laufen lassen. Wie oben schon gschrieben XP32 und GTX285 2GB...

Coda
2009-07-17, 20:45:59
Würde mich auch wundern wenn es da Beschränkungen geben würde. Der Treiber blendet halt das ein was er gerade braucht. Ist allerdings nicht gerade schön, und wohl wenn man es drauf anlegen würde auch langsam.

kleeBa
2009-07-21, 00:55:19
Welche aktuelle single-gpu kann crysis in DX10 mit maximalen details in FullHD-auflösung durchgehend flüssig darstellen?
Die Frage ist eher wie viele solcher grafisch hochpotenten PC-only Tripple A Titel in nächster Zeit noch erscheinen.
Immer nur mit Crysis kontern wird auch immer langweiliger....

PrefoX
2009-07-21, 21:44:48
Ich verstehe die Gier nach Leistung nicht. Für 200 Euro kriegt man heute so viel Leistung wie noch nie! Das reicht locker um Crysis in voller Bracht zu spielen, oder irre mich da?

De anderen Spiele kommen mit sehr viel weniger Leistung aus...
bekommste netmal für 1000 euro hin.

ich spiels jedenfalls erst dann wenn ich es flüssig spielen kann (monitor hat 60hz also ist NUR 60fps flüssig) und wenns ohne AA ist, hauptsache flüssig.

catamaran
2009-07-21, 22:11:12
Die Frage ist eher wie viele solcher grafisch hochpotenten PC-only Tripple A Titel in nächster Zeit noch erscheinen.
Immer nur mit Crysis kontern wird auch immer langweiliger....
Eben. Wer braucht denn aktuell einen GT300 und wozu? Die nächsten 2-3 Jahre werden wir uns bei AAA-Titeln ohnehin zu 90% mit Konsolenports zufrieden geben müssen. Selbst die 10% PC-Only Spiele (hat vielleicht einer Daten dazu?) fordern meist kein High-End.

igg
2009-07-22, 14:59:26
Eben. Wer braucht denn aktuell einen GT300 und wozu? Die nächsten 2-3 Jahre werden wir uns bei AAA-Titeln ohnehin zu 90% mit Konsolenports zufrieden geben müssen.
Hohe Auflösungen (1920+), hohes AA (4+) und detaillierte Texturen (Vram) bei sehr guten Framerates (50+). Das wird mit der neuen Generation mit hoher Wahrscheinlichkeit eher möglich sein.

Aktuelle Spiele dafür relevant: Fallout 3, Crysis, GTA 4.

LovesuckZ
2009-07-22, 15:02:00
Eben. Wer braucht denn aktuell einen GT300 und wozu? Die nächsten 2-3 Jahre werden wir uns bei AAA-Titeln ohnehin zu 90% mit Konsolenports zufrieden geben müssen. Selbst die 10% PC-Only Spiele (hat vielleicht einer Daten dazu?) fordern meist kein High-End.

3D, AA und AF (unoptimiert), höhrere Auflösungen. Und selbst heutige Konsolenports (Fallout 3, GTA4, Lost Planet etc) benötigen viel Leistung, da die User eben nicht auf 720p beschränkt sind.
Und sollte sich 3D in Zukunft einigermaßen durchsetzen, dann benötigt man massiv viel Leistung - und das alles ohne mGPU Mist.

Gast
2009-07-22, 16:02:21
Hohe Auflösungen (1920+), hohes AA (4+) und detaillierte Texturen (Vram) bei sehr guten Framerates (50+). Das wird mit der neuen Generation mit hoher Wahrscheinlichkeit eher möglich sein.

Aktuelle Spiele dafür relevant: Fallout 3, Crysis, GTA 4.

Fallout 3: Kein Problem
Crysis: Ja.
GTA IV: Kein Problem, außer dass es FSAA sowieso nicht liebt.

puntarenas
2009-07-22, 16:27:08
Ich hoffe, GT300 wird uns eindrücklich zeigen, woran nVidia gearbeitet hat, während es alte Produkte nur rebrandet. Natürlich wäre ein teures Monster dann erstmal nicht meine Preisklasse, aber von ausreichender Leistung in allen Lagen kann ich bei meiner GTX 280 nun wahrlich nicht sprechen.

4xMSAA mit TSSAA und HQAF würde ich gern obligatorisch Nutzen können, das ist bei Weitem nicht der Fall. Wenn die Hardwareanforderungen langsamer steigen, kommen wir vielleicht in diese Bereiche und womöglich blieben Hardwarereserven für ein Wundermittel gegen Flimmershader. Ich wage das aber zu bezweifeln, DX11 bringt neue Gimmicks (neues Checklistenfeature unübersehbar in your face!) und Performancegräber gab es im PC-Spielebereich auch schon immer, das alte Lied.

igg
2009-07-22, 16:48:42
Fallout 3: Kein Problem
GTA IV: Kein Problem
Sehe ich nicht so. Fallout 3 schmiert auf meiner GTX260-216 OC schon mal in den 40 FPS Bereich rein, insbesondere in der Nähe von Wasser. Evtl. siehts bei einer GTX285 besser aus, kann ich nicht beurteilen. Kann mir konstant MinFPS 60 aber auch dort nicht vorstellen. Witzigerweise ruckelt Fallout 3 subjektiv bei 40 FPS mehr als Crysis in 25...

GTA IV habe ich nicht, man liest aber des öfteren von Sichtweiteeinschränkungen durch den Vram.

Mr.Magic
2009-07-22, 17:45:08
Fallout 3 schmiert auf meiner GTX260-216 OC schon mal in den 40 FPS Bereich rein, insbesondere in der Nähe von Wasser. Evtl. siehts bei einer GTX285 besser aus, kann ich nicht beurteilen. Kann mir konstant MinFPS 60 aber auch dort nicht vorstellen. Witzigerweise ruckelt Fallout 3 subjektiv bei 40 FPS mehr als Crysis in 25...

Fallout 3 läuft hier fast durchgehend mit 60FPS (1920x1080|4xMSAA+TMSAA|16xHQAF). Ab und an geht es runter auf 50FPS, und ganz selten fällt das Spiel auf 45FPS. Wobei QC und SSD da nicht ganz unschuldig sind. Die verhindern Einbrüche an CPU-lastigen Stellen und Laderuckler.

ps: Die olle 8800GTX brachte bei den Einstellungen 30-45FPS.

Lawmachine79
2009-07-22, 17:59:56
Fallout 3 läuft hier fast durchgehend mit 60FPS (1920x1080|4xMSAA+TMSAA|16xHQAF). Ab und an geht es runter auf 50FPS, und ganz selten fällt das Spiel auf 45FPS. Wobei QC und SSD da nicht ganz unschuldig sind. Die verhindern Einbrüche an CPU-lastigen Stellen und Laderuckler.

ps: Die olle 8800GTX brachte bei den Einstellungen 30-45FPS.
Wollte schon sagen, Fallout 3 war bei mir nie ein Problem, Crysis d'accord, GTA4 ist die CPU der Showstopper, ggf. noch die schiere Menge an VRAM.

mapel110
2009-07-22, 18:04:49
GTA4 ist die CPU der Showstopper, ggf. noch die schiere Menge an VRAM.
Oder das Können der Programmierer...

[X] Thread ist überflüssig

Gast
2009-07-23, 16:30:20
Oder das Können der Programmierer...Mit solchen Aussagen wäre ich immer vorsichtig. Wenn man bedenkt, dass in GTA 4 eine relativ komplexe Spielwelt detailliert simuliert wird (auch wenn man da zum Teil mit Tricks arbeitet), verwendet der Bedarf an Rechenleistung der CPU gar nicht so sehr. Vergleiche mit irgendwelchen 1st-Person-Shootern mit linearem Leveldesign (nicht auf dich bezogen jetzt) sind da einfach unpassend. Wenn man die Detailstufe auf Konsolenniveau dreht und sich mit geringer Framerate inklusive konsolentypischen Einbrüchen bis hin zum Stillstand des Bildes abfinden kann, braucht man auch gar keinen Nehalem oder High-End-C2Q mehr.

Gast
2009-07-23, 16:30:45
verwendet -> verwundert ;)

y33H@
2009-07-24, 00:40:57
Wenn man die Detailstufe auf Konsolenniveau dreht und sich mit geringer Framerate inklusive konsolentypischen Einbrüchen bis hin zum Stillstand des Bildes abfinden kann, braucht man auch gar keinen Nehalem oder High-End-C2Q mehr.Korrekt, da reicht ein kleiner DC samt 9600GT und GTA4 sieht immer noch besser aus und läuft mit weit mehr Fps als auf den Konsolen. 640p im Falle der PS3 etwa ist übelst hässlich.

Selle
2009-08-01, 19:26:22
Wie spielt ihr denn? Subjektiv läufts ab 35 bilder weitgehend flüssig (teilweise auch drunter). Ich spiel in 1920+4FSAA(SSTransparenz-AA)+16AF und bin zufrieden. Wenn man natürlich Fraps oder ingame FPS anzeigen lässt und alle 10 sekunden auf die Zahlen schielt wird das auch nix (wer sich einredet das ruckelt empfindet das auch so). Hab damals schon Oblivion in 1280+HDR auf 68er Ultra + 2x1,4 P3-S gespielt und hatte alles (bis auf Gras und Laubschatten) auf max, obwohl es immer hieß 68er + HDR = BS... Ich hatte viele Monate Spaß (auch ohne 60FPS was wohl klar ist :tongue:).

catamaran
2009-08-01, 22:22:15
Hohe Auflösungen (1920+), hohes AA (4+) und detaillierte Texturen (Vram) bei sehr guten Framerates (50+). Das wird mit der neuen Generation mit hoher Wahrscheinlichkeit eher möglich sein.

Aktuelle Spiele dafür relevant: Fallout 3, Crysis, GTA 4.

3 Spiele innerhalb der letzten 2 Jahre.... :eek:

Solange ich nicht das letzte Detail rauskitzeln muss (1920+ / 4AA+ / 16AF), lohnt es sich nicht eine GT300 zu kaufen. Wäre das Angebot an Spielen größer könnte ich schwach werden. Schaut aber nicht so aus als würde sich das bessern.

nagus
2009-08-02, 10:57:13
Woran arbeitet nVidia, während es alte Produkte nur rebrandet?

also die Marketing-Abteilung macht sicher Überstunden um sich noch mehr neue Namen für alte Chips überlegen zu können ;)

was die Entwickler machen? ... so wies ausschaut Nasenbohren und sich am Hintern kratzen *LOL* ( und hoffen, dass der Marketing-Abteilung nicht die Ideen ausgehen ;)

nagus
2009-08-02, 10:59:30
Wie bei der G80 wird Nvidia ende des Jahres "den Hammer" liefern.

"Hammer" in Bezug worauf? Verspätung? Enttäuschung? ;) kleiner Scherz

Gast
2009-08-02, 11:00:22
also die Marketing-Abteilung macht sicher Überstunden um sich noch mehr neue Namen für alte Chips überlegen zu können ;)
Damit meinst du AMD. ;)
Nvidias Chips heißen nachwievor so wie zu Beginn.

nagus
2009-08-02, 11:02:54
Damit meinst du AMD. ;)
Nvidias Chips heißen nachwievor so wie zu Beginn.

ja genau. selten so gelacht. das unzählige mal umbenennen der alten G80 ist dir wohl irgendwie entgangen, oder? die wahrheit tut oft weh, gell?

Gast
2009-08-02, 11:06:04
ja genau. selten so gelacht. das unzählige mal umbenennen der alten G80 ist dir wohl irgendwie entgangen, oder? die wahrheit tut oft weh, gell?
G80 hieß immer G80. Das ist ein unumstößlicher Fakt.

Was du meinst ist wohl der Schritt von R600 über RV6xx über RV7xx, der dir missfällt. Zumindest wenn es sich um Nvidia handelt.

nagus
2009-08-02, 11:18:27
G80 hieß immer G80. Das ist ein unumstößlicher Fakt.

Was du meinst ist wohl der Schritt von R600 über RV6xx über RV7xx, der dir missfällt. Zumindest wenn es sich um Nvidia handelt.

AAHAHAH!!!! der war gut. ich glaube du bist mit deiner - sehr seltsamen - ansicht SEHR allein.

aber vielleicht würdest du mir bitte die schritte von R600 über RV6xx über RV7xx und G80 über G?X nach GT1xx oder wie die dinger jetzt heißen näher erläutern.

Gast
2009-08-02, 11:22:57
ja genau. selten so gelacht. das unzählige mal umbenennen der alten G80 ist dir wohl irgendwie entgangen, oder?

G80 wurde garnie umbenannt. Das wurde lediglich mit G92-karten gemacht.

Gast
2009-08-02, 11:24:29
Was gibts da gibts zu erläutern?
G80 wurde auf 8800 GTS, 8800 GTX und 8800 Ultra verbaut. Deine falsche Behauptung G80 wäre Umbenannt worden hast du nicht belegt.

R600-RV6xx-RV7xx und G8x-G9x-GT2xx sind Weiterentwicklungen einer bisherigen Architektur.

Gast
2009-08-02, 11:25:07
G80 wurde garnie umbenannt. Das wurde lediglich mit G92-karten gemacht.
Falsch G92 heißt G92.

Goines
2009-08-02, 12:08:00
Könnt ihr dies Kinderspiel mal lassen?

Es geht nagus um solche sachen wie 8800GTS -> 9800GT ; 9800GTX -> GTS 250
wie der chip darauf heißt ist doch wurst, das interssiert nur technikfreaks, es geht darum unter wieviel namen ein und das gleiche Produkt im Handel ist. Und neuer Name = neues Produkt aus 08/15 Käufersicht.

LovesuckZ
2009-08-02, 12:13:45
Nunja, bei AMD gibt es die 4730, 4770 und 4830, die fast alle die selben Daten haben. Das scheint ihm nicht zu stören.

Gast
2009-08-02, 12:22:27
Es geht nagus um solche sachen wie 8800GTS -> 9800GT ; 9800GTX -> GTS 250
Dann soll er schreiben was er will. Da hilft sein Nvidia Hass Avatar auch nicht weiter.


wie der chip darauf heißt ist doch wurst, das interssiert nur technikfreaksVollkommen korrekt, es zählt was man bekommt.

Statt damals High-End gibts jetzt Mittelklasse ganz wie der Name verdeutlicht. Das Produkt, das als gleich dargestellt wird hat sich so verändert, wie sich eine HD2 zur HD4 gewandelt hat.

Goines
2009-08-02, 12:33:19
@lovesuckz
meine letzte ATI Karte war eine X1950XTX, das ist also etwas länger her und ich bin deswegen nicht wirklich informiert was bei ATI derzeit mehr oder minder das gleiche produkt ist trotz unterschiedlichem retail namen, sonst hätte ich auch ATI beispiele gebracht :)

Gast
2009-08-02, 12:49:23
Nunja, bei AMD gibt es die 4730, 4770 und 4830 die fast alle die selben Daten haben. Das scheint ihm nicht zu stören.

Ihm?

catamaran
2009-08-02, 16:08:06
Nunja, bei AMD gibt es die 4730, 4770 und 4830, die fast alle die selben Daten haben. Das scheint ihm nicht zu stören.

Ist auch bescheuert, aber man verkauft wenigstens nicht ein und denselben Chip über 3 Generationen wie beim G92 geschehen indem man ihn einfach umlabelt.

LovesuckZ
2009-08-02, 16:10:12
Ist auch bescheuert, aber man verkauft wenigstens nicht ein und denselben Chip über 3 Generationen wie beim G92 geschehen indem man ihn einfach umlabelt.

Leider hat nVidia ihren Shop bezüglich des Chipkauf nicht weiterausgebaut - wo hast du denn einen G92 Chip gekauft?

Gast
2009-08-02, 16:21:25
Ist auch bescheuert, aber man verkauft wenigstens nicht ein und denselben Chip über 3 Generationen wie beim G92 geschehen indem man ihn einfach umlabelt.
AMD hats besser gemacht ihren RV6xx gleich auf die HD3 gepackt, nachdem ihr R6xx nicht so gut angekommen ist.

Nvidia konnte nicht mehr schnell genug reagieren, so enstannt die Not der GF9.

Mit der GF200 wurden weitere Änderungen am Produkt vorgenommen, unter anderem Leistung und Verbrauch, das Produkt ist auch namenstechnisch in der Mittelklasse angekommen.
AMDs Konkurrenzprodukt hat sich mit der HD4 ebenfalls gewandelt, der einzige Unterschied besteht darin, das AMD seine GPU "umbenannt" hat, wenn man es so nennen will.

catamaran
2009-08-02, 16:53:27
Leider hat nVidia ihren Shop bezüglich des Chipkauf nicht weiterausgebaut - wo hast du denn einen G92 Chip gekauft?
Einen Scherzkeks gefrühstückt, was? :tongue:

Wo hast du gelesen, dass ich einen gekauft hätte?

Gast
2009-08-02, 17:14:55
Wo hast du gelesen, dass ich einen gekauft hätte?
Haben andere einen gekauft?

catamaran
2009-08-02, 17:51:21
Haben andere einen gekauft?
Das hoffe ich doch, denn sonst haben die Hersteller von Grafikkarten die Chips womöglich von nVidia geklaut. :biggrin:

nagus
2009-08-02, 18:10:32
@Lovesuckz: ich kann dir sagen was mich stört: deine zweifelhaften kommentare und absoluten PRO nvidia ansichten die du hier verbreitest. du beschwerst dich ja sogar über niedrige grafikkartenpreise und gibst die "schuld" AMD. und es ist LEIDER eine tatsache, das nvidia seit dem G200 alte "schinken" wie die 8800 2 mal unter neuem namen "neu" veröffentlicht... sei es jetzt als 9800 oder GTxxx oder whatever. wenn du das nicht siehst nimm mal für eine sekunde deine nvidia-brille ab.

und jetzt sag mir bitte wo AMD solche aktionen reißt? hat amd jemand eine 3870 als 4XXX vertickt so wie Nvidia die 8800 als 9800 und jetzt als GT250?

Gast
2009-08-02, 18:23:00
und jetzt sag mir bitte wo AMD solche aktionen reißt? hat amd jemand eine 3870 als 4XXX vertickt so wie Nvidia die 8800 als 9800 und jetzt als GT250?
Wie gesagt AMD hats besser gemacht, GPU umbennant und alle sind zufrieden.

Nvidia hats falsch gemacht, sie haben lediglich ein vollkommen anderes Produkt rausgebracht.

Nvidias "alte Schinken" haben sogar Dinge gelernt, die AMDs neue Schinken nicht mehr können, Energiesparen im Idle.


Du willst ja wissen um welche es sich handelt.

HD2->HD3 vs GF8->GF9:
Gut, praktisch alle HD3 sind so schnell wie die HD3, es hat sich nur die 1000er Stelle geändert.
Jetzt kommt wieder irgendjemand daher, aber dies und das wurde geändert. Ja, dies wurde bei Nvidia auch, vielmehr dort wurde die Performance massiv gesteigert mit Ausnahme 2er Karten, die sich nur teils vom Vorgänger absetzten: 9800 GT und 9800 GTX vs 8800 GT und 8800 GTX.
Die 9800 GTX kann man sogar mit der Situation 2900 XT -> 3870 gleichsetzten, also bleibt die 9800 GT.

HD3->HD4 vs GF9->GF200:
1000er mehr, Performancesteigerung bei gleicher 100er Ziffer hinten.
Daraus folgt das 3870 Performance fast von einer 4670 erreicht wird. Daraus folgt das 9800 GTX+ Performance von einer GTS 250 übertroffen wird, aus High-End wird Mittelklasse.

LovesuckZ
2009-08-02, 18:23:36
AMDs ganze Architektur ist "alter Schinken".
Mal etwas, was nVidia bietet, bevor AMD abkupfert: Hybrid-Power, Stereo3D, PhysX, Cuda, qualitative ansiotrpe Filterung. Tja, andere beschweren sich über Kartennamen - und kaufen dann die Firma, die in keinster Weise irgendwie innovativ ist.
Also - lass mich in Ruhe mit deinem komischen Avatar.

Gast
2009-08-02, 18:25:47
Also - lass mich in Ruhe mit deinem komischen Avatar.
Er wirft anderen vor sie sollen die Brille abnehmen, lächerlich gehts wohl nicht.

Black-Scorpion
2009-08-02, 18:32:13
Ich weiß echt nicht ob ich bei so hohlen Aussagen heulen oder lachen soll.
Auf ATI GPUs sind schon Programme gelaufen da hat NV noch nicht mal daran gedacht.
Im Videobereich ist man Jahrelang nur hinterher gerannt.
Man hat SM1.4 nicht auf die Reihe bekommen und hat es jetzt erst geschafft DX10.1 GPUs zubringen.

Und Hybrid Power funktioniert auch so gut das sie es selbst gleich wieder eingestampft haben.

LovesuckZ
2009-08-02, 18:36:54
Ich weiß echt nicht ob ich bei so hohlen Aussagen heulen oder lachen soll.

Einfach die Klappe halten.


Auf ATI GPUs sind schon Programme gelaufen da hat NV noch nicht mal daran gedacht.

Ich kann PhysX nutzen - du kannst dir HavoxFX Demos bei Youtube ansehen.


Man hat SM1.4 nicht auf die Reihe bekommen und hat es jetzt erst geschafft DX10.1 GPUs zubringen

AMD kam auch 1 1/2 jahre nach nVidia mit SM3.0. Und das war wesentlich schlimmer als das bissl mit 10.1. Aber stimmt, da hat man als AMD Fanboy auch locker flockige 2.b Karten gekauft. Schlimm ist es ja nur, wenn es bei nVidia auftritt. Kennen wir ja. ;D


Und Hybrid Power funktioniert auch so gut das sie es selbst gleich wieder eingestampft haben.

Es war so interessant, dass angeblich AMD an einer abgekupferten Version arbeitet. Aber besser kopiert als erfunden, denn freut sich auch der AMD Fanboy. ;D

Gast
2009-08-02, 18:43:29
Und Hybrid Power funktioniert auch so gut das sie es selbst gleich wieder eingestampft haben.
Es funktioniert gut. Nachdem die HD3 dank ihrem Idle Verbrauch so gelobt wurde sah alles rosig aus für Hybrid Power.
Dank Powerplay 2.0 ist dies Geschichte, 60W im Idle sind wieder voll in Mode, Strom sparen können auch die CPus reicht doch.

nagus
2009-08-02, 18:47:46
ähm sorry GAST und Lovesucks... ihr beide seit aber sowas von auf dem holzweg. da kann man sich nur aufs hirn greifen bei euch. wahnsinn... mit so einer unglaublichen persistenz einen solchen stuss verbreiten grenzt IMHO schon an - ich schreibs besser nicht.

*HÜSTL* zu behaupten HD 2xxx und HD 3xxxx und HD4xxx sei auf der gleichen stufe wie 8800 > 9800 > GT250 ist WIRKLICH ziemlich "originell"

LovesuckZ
2009-08-02, 18:51:49
Tja, persönliche Anfeindungen - wiedermal geduldet durch die Moderation - heißt soviel wie: Ihr habt recht, ich muss euch jetzt aber beleidigen, weil ich selbst keinen Schimmer habe, warum meine Lieblingsfirma eigentlich so schlecht ist und ich mich seit 2 jahren wieder mit flimmernden Texturen rumplagen muss, wenn der Konkurrent doch soviel nützliche Features anbietet. Und dann noch der IDLE-Verbrauch. ;(

nagus
2009-08-02, 18:58:48
Tja, persönliche Anfeindungen - wiedermal geduldet durch die Moderation - heißt soviel wie: Ihr habt recht, ich muss euch jetzt aber beleidigen, weil ich selbst keinen Schimmer habe, warum meine Lieblingsfirma eigentlich so schlecht ist und ich mich seit 2 jahren wieder mit flimmernden Texturen rumplagen muss, wenn der Konkurrent doch soviel nützliche Features anbietet. Und dann noch der IDLE-Verbrauch. ;(

ähm.... ich glaub die bist nicht ganz auf dem laufenden worums hier in diesem thread geht. ich geb dir einen tipp: es geht NICHT um den idle-verbrauch. :eek:

LovesuckZ
2009-08-02, 19:01:38
Nein? Ich dachte, es geht um nVidia's Entwicklungen. Und da gibt es ironischerweise wesentlich mehr als bei der Konkurrenz, die seit dem rv670 genau 0 - in Worten Null - gemacht haben. Wir bräuchten demnach eigentlich einen Thread, was AMD in der Zeit macht, außer irgendwelche kindischen Videos über die Konkurrenz und Vaporware wie dem rv740m oder Physik über OpenCL.

/edit: Und vergessen wir ION nicht - endlich vernünftige und billige Klein-PCs. Oder Tegra. Da gibt es sovieles - komisch, dass sich alles so negativ auf die Umbenennung bezieht.

Gast
2009-08-02, 19:40:01
*HÜSTL* zu behaupten HD 2xxx und HD 3xxxx und HD4xxx sei auf der gleichen stufe wie 8800 > 9800 > GT250 ist WIRKLICH ziemlich "originell"
Was ist an 3870 -> 4670 besser als an 9800 GTX+ -> GTS 250, außer das die GTS 250 doppelt so viel VRAM hat?

es geht NICHT um den idle-verbrauch. :eek:
Sondern? Was bietet HD3 noch außer teils schlechterer, teils besserer Performance als HD2?
Nicht vergessen es geht nicht um 2 Modelle, sondern eine komplette Serie.

Wenn dir was nicht gefällt kannst du auch genauer werden. Bei deinem Avatar musst du es eh, sonst nimmt dich keiner ernst und denkt du willst nur trollen.

Gast
2009-08-02, 20:13:53
Und vergessen wir ION nicht - endlich vernünftige und billige Klein-PCs.....


....die dazu führen, dass kaum einer noch die grossen Schlachtrosse braucht (oder will).

nagus
2009-08-02, 22:48:00
Nein? Ich dachte, es geht um nVidia's Entwicklungen. Und da gibt es ironischerweise wesentlich mehr als bei der Konkurrenz, die seit dem rv670 genau 0 - in Worten Null - gemacht haben. Wir bräuchten demnach eigentlich einen Thread, was AMD in der Zeit macht, außer irgendwelche kindischen Videos über die Konkurrenz und Vaporware wie dem rv740m oder Physik über OpenCL.

/edit: Und vergessen wir ION nicht - endlich vernünftige und billige Klein-PCs. Oder Tegra. Da gibt es sovieles - komisch, dass sich alles so negativ auf die Umbenennung bezieht.

ich werd das jetzt unkommentiert lassen... PM

LovesuckZ
2009-08-02, 22:55:15
Lass es. Sollte dort auch nur ein Schimpfwort enthalten sein, dann geht es direkt zu den Mods und wird hier veröffentlicht.

Gast
2009-08-02, 23:10:31
ich werd das jetzt unkommentiert lassen... PM
Was soll das?
Du willst auf diese Weise dir dein Recht erschleichen und als der Gute dastehen. Auf Post #126 bist du gar nicht eingeganngen, was dir jetzt konkret missfällt schreibst du nicht.

LovesuckZ
2009-08-02, 23:25:03
Nagus will doch garnicht diskutieren. Der beleidigt einfach per PN jeden nicht mit seiner Meinung übereinstimmenden Forumsteilnehmer auf tiefste. Viel kann man da nicht verlangen. Vorallen da die Moderation ihn und seinen Freund noch fröhlich deckt. Siehe auch sein Trollposting #95 in diesem Thread, das fröhlich weitersteht.

darph
2009-08-03, 07:34:28
Da ihr mit dem eigentlichen Thema offensichtlich durch seid …



Wer das Thema dann doch ausdiskutieren möchte, der kann gerne einen neuen Thread aufmachen. Wenn darin aber auch nur ein Posting in Richtung "du Fanboi" drin steht, ist er auch zu.