PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Feature Presentation At ATI Technologies Booth #646: Half-Life 2


nagus
2003-05-03, 11:24:55
http://mirror.ati.com/images/ecampaign/hl2-e3/e3_2.jpg

source: http://mirror.ati.com/na/hl2-e3/e3a.html

letztes jahr Doom ]I[ und jetzt Half-Life II ;D

Quasar
2003-05-03, 11:32:13
Prima!
Hoffentlich wird Half-Life2 genauso geil wie der erste Teil. Das war noch ein echtes Game, wo man jede Sekunde beinahe 'nen Herzinfarkt bekam...

Damals sogar noch auf Voodoo2 gespielt.

Gohan
2003-05-03, 11:32:45
Dann sollte es ja nicht mehr lange dauern bis ne Alpha von Half-Life² ins Netz gerät ;D

nagus
2003-05-03, 11:36:51
Originally posted by Gohan
Dann sollte es ja nicht mehr lange dauern bis ne Alpha von Half-Life² ins Netz gerät ;D

:nono:

Korak
2003-05-03, 11:38:13
Gohan das war aber nicht nett :nono: ;) ;D

Ich bin schon auf die ersten Berichte über HL² gespannt. Vorallem über Hardwareanforderung (will net aufrüsten) ;)

Endorphine
2003-05-03, 11:42:17
Auf welcher Engine baut HL² denn auf? Würde mich freuen, wenn endlich mal Spiele rauskommen, die von vorn herein Radeon-getestet & -optimiert sind, dann würde das wichtigste Argument gegen ATI-Grafikkarten entfallen :)

Edit: Nett ist ja die Brille des Akteurs im Bild. Das wird die G33ks freuen, da fühlen die sich gleich verstanden ;D

nagus
2003-05-03, 11:49:18
Originally posted by Endorphine
Auf welcher Engine baut HL² denn auf? Würde mich freuen, wenn endlich mal Spiele rauskommen, die von vorn herein Radeon-getestet & -optimiert sind, dann würde das wichtigste Argument gegen ATI-Grafikkarten entfallen :)

Edit: Nett ist ja die Brille des Akteurs im Bild. Das wird die G33ks freuen, da fühlen die sich gleich verstanden ;D

solche spiele gibt es: z.b. Tom Clancy's Rainbow Six: Raven Shield™ (http://www.ati.com/playati/gamemaker/ravenshield/)

Liste... (http://mirror.ati.com/products/gamesupport/)

Endorphine
2003-05-03, 11:53:15
Ich meine relevante Spiele, die auch von mehr als zwei Leuten gespielt werden ;)

Weiss niemand auf welcher Engine HL² aufbaut? iDSoftware Q3? Oder EPIC Warfare?

Nefilim
2003-05-03, 11:55:44
So weit ich weiß basiert Half-Life 2 auf einer von Valve programmierten Engine.

ow
2003-05-03, 11:57:49
Originally posted by Endorphine
Ich meine relevante Spiele, die auch von mehr als zwei Leuten gespielt werden ;)

Weiss niemand auf welcher Engine HL² aufbaut? iDSoftware Q3? Oder EPIC Warfare?

Q3 Engine für HL² lt. googlen.:D

/edit: oder eher doch Valve-Eigenentwicklung? (das Inet ist sich da nicht ganz einig)

Shaoqiang
2003-05-03, 11:57:55
muss ja, wenn es diesmal auf ati optimiert ist =)

FormatC
2003-05-03, 11:58:53
U.a. auf der lizensierten Havok-(Physik)Engine, habe ich mal gelesen.

Exxtreme
2003-05-03, 12:00:11
Originally posted by ow


Q3 Engine für HL² lt. googlen.:D
Bitte nicht die Q3-Engine... :-(

Endorphine
2003-05-03, 12:00:13
Originally posted by ow
Q3 Engine für HL² lt. googlen.:DG00t. Wenn HL² dann endlich auch mal den Realismus von America's Army: Operations mitbringt könnte das was für mich FanATIker (;)) werden :)

Quasar
2003-05-03, 12:00:26
Originally posted by nagus


solche spiele gibt es: z.b. Tom Clancy's Rainbow Six: Raven Shield™ (http://www.ati.com/playati/gamemaker/ravenshield/)

Liste... (http://mirror.ati.com/products/gamesupport/)

Woran werden die Einträge dieser Liste festgemacht?

Endorphine
2003-05-03, 12:00:44
Originally posted by Exxtreme
Bitte nicht die Q3-Engine... :-(Doch! iDSoftware-Engines rulen =)

Endorphine
2003-05-03, 12:01:25
Originally posted by Quasar
Woran werden die Einträge dieser Liste festgemacht? Wenn der Rechner nicht sofort abstürzt, wenn das Spiel auf nem Radeon-Rechner gestartet wird kommt es in die Liste ;D

Exxtreme
2003-05-03, 12:02:11
Originally posted by Endorphine
Doch! iDSoftware-Engines rulen =)
Die Teile nur in engen InDoor-Leveln brauchbar.

Exxtreme
2003-05-03, 12:03:00
Originally posted by Endorphine
Wenn der Rechner nicht sofort abstürzt, wenn das Spiel auf nem Radeon-Rechner gestartet wird kommt es in die Liste ;D
LOL.

DrumDub
2003-05-03, 12:03:43
"Kein Geheimnis ist es, dass HL2 mit der Valve hausinternen Source-Engine laufen wird. Nicht so bekannt ist es hingegen, dass die Game Physics Engine eine modifizierte Version der Havok Game Dynamics Engine ist."

http://www.cstrike.de/

"While the new engine has all sorts of fancy features, it's still designed to work on lower-end machines. Apparently a 700mhz processor and a video card capable of running DX6 is enough, although a 2ghz with a GeForce4 is recommended."

http://www.planethalflife.com/news/search.asp?function=search&search=engine

Ikon
2003-05-03, 12:26:57
Originally posted by DrumDub
"While the new engine has all sorts of fancy features, it's still designed to work on lower-end machines. Apparently a 700mhz processor and a video card capable of running DX6 is enough, although a 2ghz with a GeForce4 is recommended."
http://www.planethalflife.com/news/search.asp?function=search&search=engine

*hrmpf* DX6 *pfui*

Ich hab' ja Verständnis dafür, dass Valve auf die ganzen HL-Zocker Rücksicht nimmt, die seit 1999 nicht mehr aufgerüstet haben, aber DX7 als Baseline wäre mir deutlich sympathischer.

ow
2003-05-03, 12:29:02
Ist diese Valve Engine eigentlich für D3D, OGL oder beides?

Gohan
2003-05-03, 12:46:46
Originally posted by Ikon


*hrmpf* DX6 *pfui*

Ich hab' ja Verständnis dafür, dass Valve auf die ganzen HL-Zocker Rücksicht nimmt, die seit 1999 nicht mehr aufgerüstet haben, aber DX7 als Baseline wäre mir deutlich sympathischer.

Ist doch klar das es auch noch irgendwie auf den TNT 2 laufen muss, laut dieser super Valve umfrage besitzten doch noch ca. 40% aller Gamer (meiner meinug nach CS Kiddies) eine TNT2.

Ikon
2003-05-03, 12:49:11
Originally posted by Gohan
Ist doch klar das es auch noch irgendwie auf den TNT 2 laufen muss, laut dieser super Valve umfrage besitzten doch noch ca. 40% aller Gamer (meiner meinug nach CS Kiddies) eine TNT2.

Auf eben diese Umfrage bezog ich mich:"... CS-Zocker, die seit 1999 nicht mehr aufgerüstet haben...". Ist echt zum heulen :-(

Endorphine
2003-05-03, 12:50:43
HL1 habe ich schon mit PII-400 und G200SD, TNT1 und Voodoo² gezockt. Wer nur CS spielt hat wohl kaum Anreize zum aufrüsten, das stimmt wohl...

nagus
2003-05-03, 12:53:36
Originally posted by Endorphine
Wenn der Rechner nicht sofort abstürzt, wenn das Spiel auf nem Radeon-Rechner gestartet wird kommt es in die Liste ;D

*LOL*

nagus
2003-05-03, 12:55:10
Originally posted by ow
Ist diese Valve Engine eigentlich für D3D, OGL oder beides?

ich denke das beides möglich ist. bei HL1 konnte man auch zwischen D3D und OGL wählen.

mapel110
2003-05-03, 13:04:40
NFS: Hot Pursuit II
Published by: Electronic Arts
Developed by: Electronic Arts - Seattle

:rofl:
seht mal was ich in der liste gefunden hab. also da haben sie wirklich guten support geleistet. wohl nie auf ner 8500er in high detail gezockt.

/edit
ich scroll ein wenig runter in der liste und was sehe ich
Project IGI 2
Published by: Code Masters
Developed by: Innerloop

also irgendwie ist die liste fürn arsch.

Quasar
2003-05-03, 13:08:59
Deswegen auch meine Frage (mir ist NFS6 auch aufgefallen), wonach die Einträge auf der Liste bemessen werden...

mapel110
2003-05-03, 13:11:29
Originally posted by nagus


ich denke das beides möglich ist. bei HL1 konnte man auch zwischen D3D und OGL wählen.

damals wars auch nötig.

wird wohl nur D3D sein, da es auch für die xbox kommt.

ice cool69
2003-05-03, 14:36:18
1. is doch klasse wenns mit minimalen details auf som low end-scheiß läuft, finde das sehr vorbildlich.
natürlich muss es auf high-end systemen entsprechend besser aussehen aber DAS TUT ES DOCH!!! wo is das problem??

2. grafik ist nicht alles, schon gar nicht bei half life!!!

mapel110
2003-05-03, 14:39:06
Originally posted by ice cool69
1. is doch klasse wenns mit minimalen details auf som low end-scheiß läuft, finde das sehr vorbildlich.
natürlich muss es auf high-end systemen entsprechend besser aussehen aber DAS TUT ES DOCH!!! wo is das problem??

2. grafik ist nicht alles, schon gar nicht bei half life!!!

mag sein, aber bei shootern ist in letzter zeit nichts wirklich neues gekommen (gameplaytechnisch) und deswegen hofft man auf grafik :)

Ikon
2003-05-03, 14:43:54
Originally posted by ice cool69
is doch klasse wenns mit minimalen details auf som low end-scheiß läuft, finde das sehr vorbildlich.
natürlich muss es auf high-end systemen entsprechend besser aussehen aber DAS TUT ES DOCH!!! wo is das problem??

Das Problem ist, das das Spiel mit DX7 als Baseline möglicherweise auf allen Systemen besser aussehen würde. Ein Fallback auf DX6 fordert seinen Tribut.

Demirug
2003-05-03, 14:59:53
DX6 ist wirjklich etwas extrem. Ich dachte (hoffte) das die Zeit endlich vorbei ist.

ow
2003-05-03, 15:14:13
Originally posted by Quasar
Deswegen auch meine Frage (mir ist NFS6 auch aufgefallen), wonach die Einträge auf der Liste bemessen werden...


da steht wohl drin, was die Radeons theoretisch alles fehlerfrei ausführen können :D

ow
2003-05-03, 15:17:53
Originally posted by nagus


ich denke das beides möglich ist. bei HL1 konnte man auch zwischen D3D und OGL wählen.


HL1 nutzt afaik eine stark modifizierte Quake1 engine, die auch auf D3D portiert wurde.
Im Grunde ist es aber ein OGL Spiel. (genauso wie UT2003 auch noch OGL unterstützt, aber primär doch ein D3D Spiel ist).

Wenn für HL2 wirklich eine komplett neue Engine programmiert wurde, dann kann man aber nicht von HL1 auf HL2 schliessen.

ow
2003-05-03, 15:19:50
Originally posted by Demirug
DX6 ist wirjklich etwas extrem. Ich dachte (hoffte) das die Zeit endlich vorbei ist.

Da glaub ich eigentlich auch nicht dran.
Die meisten DX6 Chips sind doch auch mehr oder minder DX7-tauglich.

Demirug
2003-05-03, 15:28:31
Originally posted by ow


Da glaub ich eigentlich auch nicht dran.
Die meisten DX6 Chips sind doch auch mehr oder minder DX7-tauglich.

Der Hauptunterschied liegt im wesentlichen im HT&L. Und wenn man eben kein HT&L hat fehlt die CPU Leistung die dafür aufgewendet werden muss an anderer Stelle.

Quasar
2003-05-03, 15:32:48
Naja, bei aktuellen CPUs in Kombination mit DX6-Hardware dürfte sich das Problem quasi von alleine erledigen, denke ich. (Falls noch jemand solch' Kombinationen am Laufen hat)

edit:
Im Bezug auf 1st-Generation TnL natürlich.

ow
2003-05-03, 15:39:38
Originally posted by Demirug


Der Hauptunterschied liegt im wesentlichen im HT&L. Und wenn man eben kein HT&L hat fehlt die CPU Leistung die dafür aufgewendet werden muss an anderer Stelle.


So schlimm wird das imo nicht werden. Die DX6 Chips können idR. nur einen Bruchteil dessen an Polys verarbeiten, was eine halbwegs schnelle CPU (>1GHz) T&L´t liefern kann.

Ich meinte eher, dass für DX6 TL ja keine Möglichkeit der HW-Beschleunigung existiert und die Engine daher sicher nicht als DX6 Engine daherkommt. Sondern als DX7 Engine mit SW TL Unterstützung.

RyoHazuki
2003-05-03, 15:51:22
Originally posted by ow



HL1 nutzt afaik eine stark modifizierte Quake1 engine, die auch auf D3D portiert wurde.
Im Grunde ist es aber ein OGL Spiel. (genauso wie UT2003 auch noch OGL unterstützt, aber primär doch ein D3D Spiel ist).

Wenn für HL2 wirklich eine komplett neue Engine programmiert wurde, dann kann man aber nicht von HL1 auf HL2 schliessen.

berichtigung :

Half-life used the original quake engine actually with a bit of quake 2 code in there.

Demirug
2003-05-03, 16:10:18
Originally posted by ow



So schlimm wird das imo nicht werden. Die DX6 Chips können idR. nur einen Bruchteil dessen an Polys verarbeiten, was eine halbwegs schnelle CPU (>1GHz) T&L´t liefern kann.

Ich meinte eher, dass für DX6 TL ja keine Möglichkeit der HW-Beschleunigung existiert und die Engine daher sicher nicht als DX6 Engine daherkommt. Sondern als DX7 Engine mit SW TL Unterstützung.

Achso :)

Ich gehe sogar davon aus das (wenn DX benutzt wird) mindestens die DX8 wenn nicht sogar die DX9 API benutzt wird.

Legolas
2003-05-03, 19:37:37
Originally posted by RyoHazuki


berichtigung :

Half-life used the original quake engine actually with a bit of quake 2 code in there.

Quake1 Code mit ein paar Dutzend Zeilen Q2-Bugfixing Code. Mehr als 50% des HLEngineCodes stammt aber im Endeffekt dann doch von Valve selber.

mAxmUrdErEr
2003-05-03, 23:59:22
mir is aufgefallen dass hier eine ziemliche verwirrung in sachen Half-Life 2 herrscht, daher verweise ich jeden, der englisch kann auf http://mitglied.lycos.de/airzim2/mischl2.html

mAxmUrdErEr
2003-05-04, 00:01:00
...ein link auf den ich 4 jahre lang gewartet hab...

nagus
2003-05-10, 15:46:14
http://www.ati.com/companyinfo/press/2003/4644.html


"The product will be shown on ATI’s RADEON 9800 PRO 256MB, the highest performance 3D card currently available"

"Half-Life 2 is pushing the envelope with contextual AI, simulated physics, characters that rival any digital actors in Hollywood, and advanced rendering capabilities,” said Newell. “When we reviewed all the platforms available for use in the public unveiling of HL2, ATI’s RADEON 9800 PRO was unquestionably the choice for showing Half-Life 2 at its best"


hmmm... NV35 doch nicht so toll? *LOL* ;)

LovesuckZ
2003-05-10, 15:53:44
Originally posted by nagus
hmmm... NV35 doch nicht so toll? *LOL*

Geld reagiert die Welt :D
Die Entwickler von Stalker wuerden wahrscheinlich das selbe sagen, warum sie denn der FX Extra- Feature spendieren sollten.

Seraf
2003-05-10, 15:59:55
Originally posted by nagus
http://www.ati.com/companyinfo/press/2003/4644.html

hmmm... NV35 doch nicht so toll? *LOL*


Da freud sich der kleine Nagus mal wieder im voraus.
Schadenfreude ist doch noch garnicht angebracht, solange man keine Vergleichswerte hat ;)

Möchte mal wissen wieviel ATI Valve bezahlt hat um das so PR technisch aufpushen zu dürfen :eyes: .

Denke das Hl2 auf Nv35 genausogut wie auf 9800 Karten spielbar sein wird.

nagus
2003-05-10, 17:07:20
Originally posted by Seraf



Da freud sich der kleine Nagus mal wieder im voraus.
Schadenfreude ist doch noch garnicht angebracht, solange man keine Vergleichswerte hat ;)

Möchte mal wissen wieviel ATI Valve bezahlt hat um das so PR technisch aufpushen zu dürfen :eyes: .

Denke das Hl2 auf Nv35 genausogut wie auf 9800 Karten spielbar sein wird.

NV35 ist BESTENFALLS 10-max.20% schneller als die Radeon 9800PRO. sicher gibts ausreißer nach oben.... aber leider auch nach unten. also: alles in allem wird die NV35 ultra vielleicht durchschnittlich 10, 15% schneller sein als die 9800PRO. auch kein wunder mit 20% mehr coretakt und +25% ramspeed. die pro/mhz- leistung ist jedenfalls trotzdem noch niedriger als bei der R350

Gohan
2003-05-10, 17:12:40
Originally posted by nagus


NV35 ist BESTENFALLS 10-max.20% schneller als die Radeon 9800PRO. sicher gibts ausreißer nach oben.... aber leider auch nach unten. also: alles in allem wird die NV35 ultra vielleicht durchschnittlich 10, 15% schneller sein als die 9800PRO. auch kein wunder mit 20% mehr coretakt und +25% ramspeed. die pro/mhz- leistung ist jedenfalls trotzdem noch niedriger als bei der R350

Pass auf was du sagst, bei den hohen Framraten die die Radeon Karte liefert sind 10-20 % ne MENGE :D

nagus
2003-05-10, 17:17:25
Originally posted by Gohan


Pass auf was du sagst, bei den hohen Framraten die die Radeon Karte liefert sind 10-20 % ne MENGE :D

ich sagte maximal und bestenfalls 20%. i durchschnitt is es vielleicht +10% oder so. vielleicht weniger.

jedenfalls sind diese +20% im 3dmark2003 und wirklich NUR im 3dmark2003.

also alles in allem sind die 9800pro und NV35 ultra UNGEFÄHR gleichwertig.

immerhin taktet die NV35 mit "nur" 450Mhz core im vergleich zur NV30 mit 500Mhz... das bedeutet das teil hat weniger füllrate weils allem anschein nach immernoch ein schnödes 4x2 design ist.

LovesuckZ
2003-05-10, 17:47:17
Originally posted by nagus
also alles in allem sind die 9800pro und NV35 ultra UNGEFÄHR gleichwertig.


Und woher nimmst du deine Weißheiten? Eine 5800 Ultra ist in OpenGL gleichscnell, wenn nicht sogar schneller wie eine 9700pro und liegt fast auf 9800pro Niveau. Denkst du nicht, dass durch den neuen Treiber und durch der hoeheren Speicherbandbreite nicht mehr als nur "ungefaehr gleichwertig" drin sei?

Razor
2003-05-10, 19:02:30
Originally posted by nagus

"The product will be shown on ATI’s RADEON 9800 PRO 256MB, the highest performance 3D card currently available"

<...>

hmmm... NV35 doch nicht so toll? *LOL* ;)
Das die R9800p schneller als die FX5800u ist (unter OpenGL allerdings nur leicht ;-), bestreitet ja niemand... dass Du daraus aber wieder mal Rückschlüsse auf ein nicht angekündigtes Produkt ohne präzise Spezifikationen ziehen willst, war ja klar.

Wie kommst Du darauf, dass sich dieser Satz auf den NV35 bezeiht ?
Oder anders: Was ist an der Eistufung 'currently available' für Dich nicht verständlich ?
???

Razor

nagus
2003-05-10, 19:45:07
Originally posted by Razor

Das die R9800p schneller als die FX5800u ist (unter OpenGL allerdings nur leicht ;-), bestreitet ja niemand... dass Du daraus aber wieder mal Rückschlüsse auf ein nicht angekündigtes Produkt ohne präzise Spezifikationen ziehen willst, war ja klar.

Wie kommst Du darauf, dass sich dieser Satz auf den NV35 bezeiht ?
Oder anders: Was ist an der Eistufung 'currently available' für Dich nicht verständlich ?
???

Razor

wie du selber schon oft und zu genüge beteuert hast, sind NV35 boards schon relativ lange für spiele-entwickler zugänglich bzw. werden von nvidia bereitgestellt.

btw, eine Radeon 9800PRO mit 256MB ist auch 'currently available' nicht ;) .

die 9800PRO 256MB wird zur e3 vorgestellt, die NV35 auch. wo ist das problem?

nagus
2003-05-10, 19:46:24
Originally posted by LovesuckZ


Und woher nimmst du deine Weißheiten? Eine 5800 Ultra ist in OpenGL gleichscnell, wenn nicht sogar schneller wie eine 9700pro und liegt fast auf 9800pro Niveau. Denkst du nicht, dass durch den neuen Treiber und durch der hoeheren Speicherbandbreite nicht mehr als nur "ungefaehr gleichwertig" drin sei?

Quelle: mufu, nvnews-, beyond3d- und rage3dforum

etwas mehr vielleicht, aber garantiert keine großartigen sprünge von 20% oder mehr. wie gesagt, mit den deto50 beim 3dmark2003 ja, aber bei anderen sachen, realen spielen schaut die sache nicht so rosig aus.

Razor
2003-05-10, 19:51:34
Originally posted by nagus

wie du selber schon oft und zu genüge beteuert hast, sind NV35 boards schon relativ lange für spiele-entwickler zugänglich bzw. werden von nvidia bereitgestellt.
Wo bitte soll ich einen solchen Schwachfug 'beteurt' haben ?
Vermutet habe ich das sicherlich...
:D
Originally posted by nagus

btw, eine Radeon 9800PRO mit 256MB ist auch 'currently available' nicht ;).
Das ist ja der Hinriß an dieser Meldung...
Dir ist doch hoffentlich die Übersetzung dieses Begriffes geläufig ?
'currently available' = "jetzt verfügbar"

Wie bitte kann ein nicht angekündigtes Produkt 'verfügbar' sein ?
Und was soll an einer R9800p mit 256MB anders sein, als an einer mit 128MB ?
Selbst die 'Ultimate Edition' von Sapphire soll ja nur mit Standard-Takt daher kommen...
Originally posted by nagus

die 9800PRO 256MB wird zur e3 vorgestellt, die NV35 auch. wo ist das problem?
Ich sehe da kein problem... Du etwa ?
;-)

Razor

Razor
2003-05-10, 19:53:54
Originally posted by nagus

Quelle: mufu, nvnews-, beyond3d- und rage3dforum

etwas mehr vielleicht, aber garantiert keine großartigen sprünge von 20% oder mehr. wie gesagt, mit den deto50 beim 3dmark2003 ja, aber bei anderen sachen, realen spielen schaut die sache nicht so rosig aus.
Na, dann warten wir doch mal lieber auf offizielle Angaben, oder ?
Würde mich nicht wundern, wenn da doch was Überraschendes lauert...

Auf jeden Fall habe ich mir abgewöhnt, auf dieses Forumsgequatsche vor offiziellem launch zu achten !
:D

Bis denne

Razor

Unregistered
2003-05-10, 20:11:44
Nagus ist nervös lasst ihn doch auch mal :D

nagus
2003-05-10, 21:23:13
Originally posted by Razor

Wo bitte soll ich einen solchen Schwachfug 'beteurt' haben ?
Vermutet habe ich das sicherlich...
:D

Das ist ja der Hinriß an dieser Meldung...
Dir ist doch hoffentlich die Übersetzung dieses Begriffes geläufig ?
'currently available' = "jetzt verfügbar"

Wie bitte kann ein nicht angekündigtes Produkt 'verfügbar' sein ?
Und was soll an einer R9800p mit 256MB anders sein, als an einer mit 128MB ?
Selbst die 'Ultimate Edition' von Sapphire soll ja nur mit Standard-Takt daher kommen...

Ich sehe da kein problem... Du etwa ?
;-)

Razor

1. stalker, entwickler, NV35.... klingelts?
2. die 256MB version ist vielleicht schneller?
3. beide karten NV35 und 9800PRO256 sind weder angekündigt noch verfügbar, richtig
4. was regst du sich so auf? glaubst du wirklich valve hätte keine NV35 zur verfügung bzw. nvidia hätte kein interesse daran half-life 2 auf einer NV35 präsentieren zu "dürfen"? die 9800PRO 256MB version taktet vielleicht höher als die 128MB version, schon mal daran gedacht?

Seraf
2003-05-10, 23:20:56
Originally posted by nagus
http://mirror.ati.com/images/ecampaign/hl2-e3/e3_2.jpg

source: http://mirror.ati.com/na/hl2-e3/e3a.html

letztes jahr Doom ]I[ und jetzt Half-Life II ;D


Jetzt frag ich mich wirklich ob das nicht ins Spieleforum/Spielwiese gehört ???

Ist ja nur ein elendiges Werbebild!!!!!

Da steht nur das HalfLife auf einer Radeon9800 beim Stand 646 vorgestellt wird.

Es steht "übrhauptnichts" davon da ob Hl2 irgendwelche Extensions einer Radeon benutzt oder andere radeonspezifischen Optimierungen erfahren hat.

Der rest ist nur Marketinggeblubber wie auf jeder Grafikkartenschachtel (größer weiter schneller).

Echt informativ.

Wenn Nagus konsequent wäre müßte er auch sagen das ein Dell Dimension XPS das beste für Hl2 ist (muß ja ... wird schließlich darauf präsendiert...).

aths
2003-05-10, 23:32:05
Originally posted by nagus
etwas mehr vielleicht, aber garantiert keine großartigen sprünge von 20% oder mehr. wie gesagt, mit den deto50 beim 3dmark2003 ja, aber bei anderen sachen, realen spielen schaut die sache nicht so rosig aus. Wieso "garantiert"?

Der NV30 ist trotz 500 MHz oftmals nicht wirklich schneller, als ein R300 mit 325 MHz. Jetzt beim NV35 hat NV die Hauptmängel ausgemerzt: Der NV35 hat ein 256-Bit-RAM-Interface, und braucht keine 2 Takte pro PS.2.0-Operation mehr. Damit ist zu erwarten, dass die Leistung gegenüber dem NV30 brutal steigt, sofern die CPU schnell genug ist. Den NV30 würde ich mal so als Übergangs-Chip bezeichnen, wo NV mit den Möglichkeiten der neuen Shadern rumprobierte. Der NV35 zeigt sich von den Daten her deutlich muskulöser. Warum sollte sich das dann nicht auch in tatsächlichen Benchmarks zeigen?

nagus
2003-05-11, 00:12:17
da hat sich einfach zu wenig getan bei der NV35 es ist immer noch kein wirkliches, echtes 8x1 design so wie die R300, und die 256bit speicherinterface helfen da auch nicht soooo gewaltig. der chip taktet auch niedriger... sollte man auch nicht vergessen. das sind immerhin -10% chiptakt.

aths
2003-05-11, 00:45:42
Originally posted by nagus
da hat sich einfach zu wenig getan bei der NV35 es ist immer noch kein wirkliches, echtes 8x1 design so wie die R300, und die 256bit speicherinterface helfen da auch nicht soooo gewaltig. der chip taktet auch niedriger... sollte man auch nicht vergessen. das sind immerhin -10% chiptakt. Die Frage ist, wie viel das 8x1-Design gegenüber 4x2 bringt.

Beim Z-Pass bringt es gar nix, weil beim Rendern des Z-Buffers NV30 bzw. NV35 sich auch wie ein 8x1-Design verhalten. Der Z-Pass wird in Zukunft massiv an Bedeutung gewinnen.

Beim Rendern des Framebuffers kommt es nun drauf an. 1 oder 2 Texturen pro Dreieck sind für NexGen-Spiele zu wenig. 4, 5, 6 Texturen sind realistischer. Nur bei einer ungeraden Textur-Zahl ist 4x2 im Nachteil. Je mehr Texturen insgesamt für den Shader gebraucht werden, desto kleiner wird der Nachteil.

8x1 ist letztlich natürlich immer noch ein wenig effizienter, aber 4x2 ist sooo schlecht nicht.

Demirug
2003-05-11, 01:02:53
Originally posted by aths
Die Frage ist, wie viel das 8x1-Design gegenüber 4x2 bringt.

Beim Z-Pass bringt es gar nix, weil beim Rendern des Z-Buffers NV30 bzw. NV35 sich auch wie ein 8x1-Design verhalten. Der Z-Pass wird in Zukunft massiv an Bedeutung gewinnen.

Beim Rendern des Framebuffers kommt es nun drauf an. 1 oder 2 Texturen pro Dreieck sind für NexGen-Spiele zu wenig. 4, 5, 6 Texturen sind realistischer. Nur bei einer ungeraden Textur-Zahl ist 4x2 im Nachteil. Je mehr Texturen insgesamt für den Shader gebraucht werden, desto kleiner wird der Nachteil.

8x1 ist letztlich natürlich immer noch ein wenig effizienter, aber 4x2 ist sooo schlecht nicht.

Du hast noch was ganz wichtiges vergessen. Sobald AF und oder Tri ins Spiel kommt braucht man sowieso meistens mindestens 2 bi sample pro Texturewert und dann gibt es defakto keinen unterschied mehr zwischen 8x1 und 4x2.

Wobei der viel grössere Unterschied liegt beim benutzten Loopback Verfahren und da hat ATI derzeit den Vorteil das der HLSL Compiler PS 2.0 Code erzeugt der besser zur ATI Pipeline passt. NVIDIA ist da gezwungen den Shadercode im Treiber umzustellen sonst verschenken sie massiv Leistung.

aths
2003-05-11, 01:09:50
Originally posted by Demirug
Du hast noch was ganz wichtiges vergessen. Sobald AF und oder Tri ins Spiel kommt braucht man sowieso meistens mindestens 2 bi sample pro Texturewert und dann gibt es defakto keinen unterschied mehr zwischen 8x1 und 4x2.

Wobei der viel grössere Unterschied liegt beim benutzten Loopback Verfahren und da hat ATI derzeit den Vorteil das der HLSL Compiler PS 2.0 Code erzeugt der besser zur ATI Pipeline passt. NVIDIA ist da gezwungen den Shadercode im Treiber umzustellen sonst verschenken sie massiv Leistung. OT: Gibts eine Chance, dass mit HLSL in Zukunft auch ein für die FX-Pipeline "guter" Code erzeugt wird?

mapel110
2003-05-11, 01:11:28
besteht eigentlich die aussicht, dass 256 bit interface bei nvidia mehr bringt als bei ATI ?
ich mein, so gross ist der unterschied zwischen 9500 pro und 9700 nicht.

Demirug
2003-05-11, 01:15:53
Originally posted by aths
OT: Gibts eine Chance, dass mit HLSL in Zukunft auch ein für die FX-Pipeline "guter" Code erzeugt wird?

Im neuen SDK 9.0a ist ein neuer Compiler dabei (gibt es als Beta schon etwas länger) dieser erzeugt jetzt auch 2.x Code. Übergibt man dem Compiler dabei die NV3x Shadercaps soll der Code besser für die FX passen. Ich habe das aber noch nicht getestet da unser Framework beim erzeugen des Shadercodes wenn er einen NVIDIA Chip erkennt sofort von HLSL auf Cg als primären Compiler umspringt und ich keine Lust hatte diese Verhalten wieder zu ändern.

aths
2003-05-11, 01:26:50
Originally posted by Demirug
Im neuen SDK 9.0a ist ein neuer Compiler dabei (gibt es als Beta schon etwas länger) dieser erzeugt jetzt auch 2.x Code. Übergibt man dem Compiler dabei die NV3x Shadercaps soll der Code besser für die FX passen. Ich habe das aber noch nicht getestet da unser Framework beim erzeugen des Shadercodes wenn er einen NVIDIA Chip erkennt sofort von HLSL auf Cg als primären Compiler umspringt und ich keine Lust hatte diese Verhalten wieder zu ändern. Kann HLSL-Code direkt von Cg verarbeitet werden?

Demirug
2003-05-11, 01:40:59
Originally posted by aths
Kann HLSL-Code direkt von Cg verarbeitet werden?

Ja HLSL und Cg sind kompatibel. Wobei es aber durchaus zwei Punkte gibt die man berücksichtigen muss.

Da Cg ja auch Shadercode für die speziellen NVIDIA OpenGL Extensions erzeugen kann gibt es dort ein paar zusätzliche Möglichkeiten. Diese darf man aber nur nutzen wenn man für ein entsprechendes Profil Shader erzeugt. Bei den DX Profilen sind sie aber absolute kompatibel.

Der Cg Compiler hat eine etwas strengere Typen-Prüfung. Der HLSL Compiler macht schon mal gerne von aleine einen Cast den man beim Cg Compiler explizit angeben muss. Mit dem Cast verstehen es dann aber beide Compiler.

MadManniMan
2003-05-11, 01:43:51
Originally posted by ow
Ist diese Valve Engine eigentlich für D3D, OGL oder beides?

wenn ich die ersten previews noch richtig im kopf habe, so ists eine reine dx-engine, da man explizit erwähnte, auch von dx9 noch profitieren zu wollen

btw: schon krass - da baut man 4 dx-versionen in ein spiel. imho hättens sich lieber auf dx7+ konzentrieren sollen. einfach, um den "vernünftigen" wenigstens ab-und-an-aufrüstern nen gefallen zu tun. daß das wirtschaftlich doof wäre, braucht mir hier im übrigen niemand zu sagen ;)

MadManniMan
2003-05-11, 01:44:26
Originally posted by Ikon
*hrmpf* DX6 *pfui*



so gesehen könntens ja gleich glide-support mit einbau0rn :naughty:

RyoHazuki
2003-05-11, 02:03:23
FÜR ALLLE :

im besten fall sieht das game so aus

KLICKE HIER UM "ECHTE" SCREENSHOT ZU SEHEN ! (http://www.hartware.de/news.html?id=32885)

aths
2003-05-11, 02:26:06
Originally posted by RyoHazuki
FÜR ALLLE :

im besten fall sieht das game so aus

KLICKE HIER UM "ECHTE" SCREENSHOT ZU SEHEN ! (http://www.hartware.de/news.html?id=32885) Naja, so wahnsinnig toll finde ich die Shots jetzt nicht.

MadManniMan
2003-05-11, 02:27:45
Originally posted by aths
Naja, so wahnsinnig toll finde ich die Shots jetzt nicht.

ich auch nicht. hab aber auch kein light-sourcing à la carmack erwartet. und das wasser sieht grandios aus. nur sind die levels imho weniger hübsch.... hm...

Salvee
2003-05-11, 02:37:10
Originally posted by MadManniMan

und das wasser sieht grandios aus.

Jupp, endlich reflections und refractions wie es in den ATi Island-Demos oder in diesem Geforce 1(!) Demo (mit dem Segelboot) schon vor Jahr und Tag zu bestaunen gab =)

MadManniMan
2003-05-11, 02:38:55
Originally posted by Salvee


Jupp, endlich reflections und refractions wie es in den ATi Island-Demos oder in diesem Geforce 1(!) Demo (mit dem Segelboot) schon vor Jahr und Tag zu bestaunen gab =)

ich frag mich eh, warum das bisher noch niemand verwirklicht hat

*von Morrowind mit diesen wassereffekten träumt*

Xmas
2003-05-11, 04:13:44
Ich finde die Shots sehen gut aus, aber wieso müssen die unbedingt nen Blur-Filter drüberlegen?

Endorphine
2003-05-11, 04:40:47
Wo siehst du denn einen Blur-Filter? Die Screenshots bei Hartware sind ja nur etwas herunterskaliert, um sie ohne scrollen bei gängigen Auflösungen darzustellen.

Die fullsize-Originale gibt's ja hier: http://www.shacknews.com/screens.x/half_life_2/Half-Life+2

Unregistered
2003-05-11, 05:46:39
Hier (http://www.havok.com/products/game_dynamics/demos.html) gibt es ein paar Filmchen zu betrachten, die zeigen was mit der Physik-Engine, die in Halfe-Life 2 eingesetzt werden soll, machbar ist, falls es nicht schon gepostet wurde.

Razor
2003-05-11, 07:25:15
Originally posted by nagus

1. stalker, entwickler, NV35.... klingelts?
Nö.
Ich glaub, ich muss mal zum Arzt !
:D
Originally posted by nagus

2. die 256MB version ist vielleicht schneller?
Warum sollte sie ?
???
Originally posted by nagus

3. beide karten NV35 und 9800PRO256 sind weder angekündigt noch verfügbar, richtig
Wus ?
Die R9800p mit 256MB ist schon laaange angekündigt.
(nur ist sie noch nicht verfügbar ;-)
Originally posted by nagus

4. was regst du sich so auf? glaubst du wirklich valve hätte keine NV35 zur verfügung bzw. nvidia hätte kein interesse daran half-life 2 auf einer NV35 präsentieren zu "dürfen"? die 9800PRO 256MB version taktet vielleicht höher als die 128MB version, schon mal daran gedacht?
Nö.
Ansonsten ist das doch wohl eher Marketing, was Du hier gerne mit Fakten vermischen möchtest.
Valve wird einfach Kohle dafür bekommen haben... mehr nicht !
:D

Alles andere gehört ins Reich der Spekulation.
(vor allem das Zeugs, was Du gerne mit der R9800p256 vebindest und an DDR2 glaub' mal ;-)

Bis denne

Razor

Razor
2003-05-11, 07:30:33
Originally posted by Seraf

Jetzt frag ich mich wirklich ob das nicht ins Spieleforum/Spielwiese gehört ???

Ist ja nur ein elendiges Werbebild!!!!!

Da steht nur das HalfLife auf einer Radeon9800 beim Stand 646 vorgestellt wird.

Es steht "übrhauptnichts" davon da ob Hl2 irgendwelche Extensions einer Radeon benutzt oder andere radeonspezifischen Optimierungen erfahren hat.

Der rest ist nur Marketinggeblubber wie auf jeder Grafikkartenschachtel (größer weiter schneller).

Echt informativ.

Wenn Nagus konsequent wäre müßte er auch sagen das ein Dell Dimension XPS das beste für Hl2 ist (muß ja ... wird schließlich darauf präsendiert...).
Na ja, um ihn ein bissel in Schutz zu nehmen, bezieht er sich auch auf das hier:
http://mirror.ati.com/companyinfo/press/2003/4644.html

Und über diesen Satz, der (natürlich) direkt von ATI kommt, unterhalten wir uns gerade:

"The product will be shown on ATI’s RADEON 9800 PRO 256MB, the highest performance 3D card currently available, in a state of the art theater located in ATI’s booth"

Nur kommt dieser Spruch von ATI selbst und hat somit schlicht überhaupt keinen Aussagegehalt.
Was nagus hier immer mit irgendwelchen Entwicklern will, weiß ich auch nicht...

Na ja, aber er selber wird dies vermutlich wissen...
Oder auch nicht !
:D

Bis denne

Razor

Razor
2003-05-11, 07:44:25
Originally posted by mapel110
besteht eigentlich die aussicht, dass 256 bit interface bei nvidia mehr bringt als bei ATI ?
ich mein, so gross ist der unterschied zwischen 9500 pro und 9700 nicht.
Kommt darauf an, wie nVidia den Speichercontroller für das 256Bit-Interface implementiert.

4fach-CBMC mit 4x64Bit = 256Bit
oder
8fach-CBMC mit 8x32Bit = 256Bit

Letzteres dürfte einen gehörigen Performance-Schub bringen (abhängig von der Applikation/Engine natürlich).

Mal schaun', was sich nVidia so alles hat einfallen lassen, oder auch, ob überhaupt...
In ein paar Tagen werden wir wissen, nur ist bis dahin fast alles Spekulation.
:D

Bis denne

Razor

Unregistered
2003-05-11, 09:19:25
Originally posted by Razor

Kommt darauf an, wie nVidia den Speichercontroller für das 256Bit-Interface implementiert.

4fach-CBMC mit 4x64Bit = 256Bit
oder
8fach-CBMC mit 8x32Bit = 256Bit

Letzteres dürfte einen gehörigen Performance-Schub bringen (abhängig von der Applikation/Engine natürlich).

Mal schaun', was sich nVidia so alles hat einfallen lassen, oder auch, ob überhaupt...
In ein paar Tagen werden wir wissen, nur ist bis dahin fast alles Spekulation.
:D

Bis denne

Razor

Ist's für dich wieder an der Zeit, die Werbetrommel zu rühren, Razor? ;)



Wie kommst du drauf, das das großartig was bringen muss? Der Grenzertrag wird immer kleiner und der Verwaltungsaufwand steigt. Wäre sowas bei einem (voraussichtlich) 4-Pipe-Design überhaupt sinvoll?!

Demirug
2003-05-11, 10:44:50
Originally posted by Unregistered


Ist's für dich wieder an der Zeit, die Werbetrommel zu rühren, Razor? ;)



Wie kommst du drauf, das das großartig was bringen muss? Der Grenzertrag wird immer kleiner und der Verwaltungsaufwand steigt. Wäre sowas bei einem (voraussichtlich) 4-Pipe-Design überhaupt sinvoll?!

Wenn man die breite eines Speicherkanals kleiner macht sinkt der Verschnitt und man kann das was an Bandbreite zur verfügung steht besser ausnutzen. Aus dieser Sicht wäre es ideal den Speicher mit möglicht kleinen Kanälen (1 Bit) anzubinden. Da man aber nicht nur den Verschnitt berücksichtigen kann sonder wie du schon sagst auch den Verwaltungsaufwand berücksichtigen muss gilt es einen gute Kompromiss zu finden.

Die Anzahl der Pipelines ist für Breite eines Speicherkanals nicht so wichtig. Da gibt es mehr einen Beziehung zwischen der Gesamtbreite und der Pipelineanzahl. Mit 128 Bit (DDR) machen zum Beispiel 8 Pipelines eigentlich keinen Sinn.

Ich gehe davon aus das es sich um einen 4*64 Bit Bus handelt. Allerdings nur mit einem Burst von 2 gearbeitet wird. Dadurch braucht man die Länge einer Cacheline nicht zu ändern.

Unregistered
2003-05-11, 10:55:22
Originally posted by Demirug

Ich gehe davon aus das es sich um einen 4*64 Bit Bus handelt. Allerdings nur mit einem Burst von 2 gearbeitet wird. Dadurch braucht man die Länge einer Cacheline nicht zu ändern.

Was heißt "Burst von 2"? Demzufolge war es vorher ein "Burst von 4". Was geschieht da genau?

Demirug
2003-05-11, 11:20:26
Originally posted by Unregistered


Was heißt "Burst von 2"? Demzufolge war es vorher ein "Burst von 4". Was geschieht da genau?

Der Burst gibt an wie viele Datenbits pro Datenleitung in einem Lese oder Schreibzyklus am Stück (hintereinader) übertragen werden.

Unregistered
2003-05-11, 11:42:30
Originally posted by Demirug


Der Burst gibt an wie viele Datenbits pro Datenleitung in einem Lese oder Schreibzyklus am Stück (hintereinader) übertragen werden.

So ein Konzept wäre aber doch aber alles andere als optimal, immerhin hat man die ganzen Latenzen und wartet beim Speicherzugriff x Takte um dann nur 2 Takte einzusparen.

Xcellerator
2003-05-11, 12:38:21
Originally posted by Razor

Na ja, um ihn ein bissel in Schutz zu nehmen, bezieht er sich auch auf das hier:
http://mirror.ati.com/companyinfo/press/2003/4644.html

Und über diesen Satz, der (natürlich) direkt von ATI kommt, unterhalten wir uns gerade:

"The product will be shown on ATI’s RADEON 9800 PRO 256MB, the highest performance 3D card currently available, in a state of the art theater located in ATI’s booth"

Nur kommt dieser Spruch von ATI selbst und hat somit schlicht überhaupt keinen Aussagegehalt.
Was nagus hier immer mit irgendwelchen Entwicklern will, weiß ich auch nicht...

Na ja, aber er selber wird dies vermutlich wissen...
Oder auch nicht !
:D

Bis denne

Razor

diese aussage hier kommt direkt von newell:

“Half-Life 2 is pushing the envelope with contextual AI, simulated physics, characters that rival any digital actors in Hollywood, and advanced rendering capabilities,” said Newell. “When we reviewed all the platforms available for use in the public unveiling of HL2, ATI’s RADEON 9800 PRO was unquestionably the choice for showing Half-Life 2 at its best.”

das sagt zwar trotzdem absolut nichts aus, aber

Demirug
2003-05-11, 12:40:00
Originally posted by Unregistered


So ein Konzept wäre aber doch aber alles andere als optimal, immerhin hat man die ganzen Latenzen und wartet beim Speicherzugriff x Takte um dann nur 2 Takte einzusparen.

Nicht wirklich. Wenn man mehr Daten in Folge braucht als man mit einem Burstzyklus holt hängt man den nächsten Burst direkt an. Dabei entstehen erstmal keine zusätzlichen Latenzen.

Problematisch sind die kürzen Burst lediglich dadurch das man den Kommandobus öfter mit Reads belegen muss und dadurch weniger Platz für andere Kommandos hat welche sich da um einen Takt (bei wechsel von BL4 auf BL2) verzögern können.

Es ist also eine Entscheidung die man gerade bei Grafikchip nur durch aufwendige Analyse treffen kann was denn nun die bessere Lösung (BL2 oder BL4) ist.

Beim NV35 kommt aber nun das mögliche Problem dazu das der ganze Chipreihe auf eine bestimmte Cachelinegrösse optimiert ist. Wenn man nun aber einfach die Busbreite verdoppelt wird auch das Datenvolumen pro Burstzylus verdoppelt. Man würde also dann zwei Cachlines einladen. Auch hier musste man wieder herausfinden was besser ist. Verschnitt oder Taktverluste. Es könnte aber auch durchaus sein das diese Dinge durch den Treiber/BIOS kontrolierbar sind.

Riptor
2003-05-11, 13:49:13
Naja, würde es jetzt eine GFFX 5900 Ultra geben, hätte Valve eben diese genommen.

nagus
2003-05-11, 14:12:39
Originally posted by Riptor
Naja, würde es jetzt eine GFFX 5900 Ultra geben, hätte Valve eben diese genommen.

es gibt auch JETZT keine 9800PRO mit 256MB!!

diess argument ist vollkommen lächerlich! glaubst du nicht, valve hat nicht schon längst eine NV35???? wie naiv bist du eigentlich?

LovesuckZ
2003-05-11, 14:20:52
Originally posted by nagus
es gibt auch JETZT keine 9800PRO mit 256MB!!
diess argument ist vollkommen lächerlich! glaubst du nicht, valve hat nicht schon längst eine NV35???? wie naiv bist du eigentlich?

Ohman, warum sollte Valve ne 9800pro nehmen? Vielleicht weil ATI einfach mehr bezahlt hat...

Xmas
2003-05-11, 14:38:11
Originally posted by Endorphine
Wo siehst du denn einen Blur-Filter? Die Screenshots bei Hartware sind ja nur etwas herunterskaliert, um sie ohne scrollen bei gängigen Auflösungen darzustellen.

Die fullsize-Originale gibt's ja hier: http://www.shacknews.com/screens.x/half_life_2/Half-Life+2
Ich meinte ja auch die bilder auf Shacknews.
Das hier:
http://www.shacknews.com/screens.x/half_life_2/Half-Life+2/2/thumbs/strider.jpg
sieht mir z.B. eher nachträglich geglättet aus als mit Antialiasing gerendert. Kann natürlich auch an der Kompression liegen, aber dann sollte man eher Blockartefakte sehen.

nagus
2003-05-11, 14:54:47
Originally posted by LovesuckZ


Ohman, warum sollte Valve ne 9800pro nehmen? Vielleicht weil ATI einfach mehr bezahlt hat...

valve und nvidia, beide haben massenhaft kohle. nvidia hat keine schwierigkeiten JEDEN preis zu zahlen und valve hat so viel mit half-life verdient das die typen regelrecht im geld schwimmen.

deine annahme ati hätte valve dafür bezahlt entbehrt jeder logik.

1. ati hat bei weitem weniger geld als nvidia
2. valve ist sicher nicht auf almosen von ati angewiesen.
3. nvidia hätte sicher locker das 3-fache als ati zahlen können...

Xmas
2003-05-11, 15:20:09
Originally posted by nagus
valve und nvidia, beide haben massenhaft kohle. nvidia hat keine schwierigkeiten JEDEN preis zu zahlen und valve hat so viel mit half-life verdient das die typen regelrecht im geld schwimmen.

deine annahme ati hätte valve dafür bezahlt entbehrt jeder logik.

1. ati hat bei weitem weniger geld als nvidia
2. valve ist sicher nicht auf almosen von ati angewiesen.
3. nvidia hätte sicher locker das 3-fache als ati zahlen können...
Fehlt nur noch, wieso NVidia überhaupt mehr bezahlen sollte...

Die Initiative ging doch höchstwahrscheinlich von ATI aus, nicht von Valve. Eher "Wir hätten gern n bisschen Action am Stand, macht uns ne tolle Demo!", statt "Wir haben hier ne Demo, will die vielleicht einer vorführen?"
NVidia hat sich wohl für eine andere Stand-/Showplanung entschieden und konkurriert deswegen in diesem Fall gar nicht mit ATI.
Also bezahlt ATI Valve die Arbeit, die sie an der Präsentation haben, und dafür macht Valve natürlich Werbung für ATI. Das ist der Deal. Dabei ist es völlig unerheblich ob die R9800pro wirklich schneller ist.

Seraf
2003-05-11, 15:29:07
Originally posted by Xmas

Fehlt nur noch, wieso NVidia überhaupt mehr bezahlen sollte...

Die Initiative ging doch höchstwahrscheinlich von ATI aus, nicht von Valve. Eher "Wir hätten gern n bisschen Action am Stand, macht uns ne tolle Demo!", statt "Wir haben hier ne Demo, will die vielleicht einer vorführen?"
NVidia hat sich wohl für eine andere Stand-/Showplanung entschieden und konkurriert deswegen in diesem Fall gar nicht mit ATI.
Also bezahlt ATI Valve die Arbeit, die sie an der Präsentation haben, und dafür macht Valve natürlich Werbung für ATI. Das ist der Deal. Dabei ist es völlig unerheblich ob die R9800pro wirklich schneller ist.

*flame*

Ist de facto nur Bauernfängerei die anscheinend sogar wirkt (wie man hier (Thread) sieht)

*/flame*


Wenn nagus Benchmarks bekommen würde, würde ich dies natürlich wieder streichen ;D

egdusp
2003-05-11, 16:48:02
Wie wäre es mit einer ganz einfachen Erklärung?

Valve hat bisher hauptsächlich auf R300 optimiert, da es die besten verfügbaren Karten der letzen 9 Monate waren.
Und da sie sicher keinen Absturz oder so etwas wollen, haben sie sich für die unproblematistishe Lösung entschieden.
Sicher werden die auch schon eine NV35 seit einigen Wochen haben, aber vielleicht gibt es mit der ja noch ein paar kleinere Problemchen, vor allem mit dem neuen Detonator. AFAIK kommt die NV35 nur mit dem 50er Deto.

Beta Treiber + Beta Karte + Beta Engine = Absturzgefahr.

Wie, die Erklärung war zu einfach? naja, ich find sicher noch ein paar Verschwörungstheorien.

mfg
egdusp

kmf
2003-05-11, 16:56:41
Originally posted by Xmas

Fehlt nur noch, wieso NVidia überhaupt mehr bezahlen sollte...

Die Initiative ging doch höchstwahrscheinlich von ATI aus, nicht von Valve. Eher "Wir hätten gern n bisschen Action am Stand, macht uns ne tolle Demo!", statt "Wir haben hier ne Demo, will die vielleicht einer vorführen?"
NVidia hat sich wohl für eine andere Stand-/Showplanung entschieden und konkurriert deswegen in diesem Fall gar nicht mit ATI.
Also bezahlt ATI Valve die Arbeit, die sie an der Präsentation haben, und dafür macht Valve natürlich Werbung für ATI. Das ist der Deal. Dabei ist es völlig unerheblich ob die R9800pro wirklich schneller ist.

Kann mir zwar nicht vorstellen, daß letztendlich nur einer die Zeche in LA zahlt. Aber wenn doch - ist sie sehr gut angelegt, die Kohle.
Hier geht's meines Erachtens eher um Lobby. Ob jetzt Valve mit Ati oder Ati mit Valve das Spektakel abhält, ist doch egal. In jedem Fall werden 2 Granatenprodukte in laufendem Betrieb der breiten Öffentlichkeit vorgestellt. Die Konkurrenten zu den beiden Produktherstellern werden sich warm anziehen müssen.

kmf
2003-05-11, 16:59:03
Originally posted by egdusp
Wie wäre es mit einer ganz einfachen Erklärung?

Valve hat bisher hauptsächlich auf R300 optimiert, da es die besten verfügbaren Karten der letzen 9 Monate waren.
Und da sie sicher keinen Absturz oder so etwas wollen, haben sie sich für die unproblematistishe Lösung entschieden.
Sicher werden die auch schon eine NV35 seit einigen Wochen haben, aber vielleicht gibt es mit der ja noch ein paar kleinere Problemchen, vor allem mit dem neuen Detonator. AFAIK kommt die NV35 nur mit dem 50er Deto.

Beta Treiber + Beta Karte + Beta Engine = Absturzgefahr.

Wie, die Erklärung war zu einfach? naja, ich find sicher noch ein paar Verschwörungstheorien.

mfg
egdusp

Kann sich heute kein Spielehersteller mehr leisten, sein Produkt nur auf einen Grafikkartenhersteller, auszurichten.

MadManniMan
2003-05-11, 17:08:19
Originally posted by egdusp
Valve hat bisher hauptsächlich auf R300 optimiert, da es die besten verfügbaren Karten der letzen 9 Monate waren.

klingt plausibel, schließlich soll ja auch gebrauch von dx9 gemacht werden - und da hat die r3**-familie einfach eine größere durchdringung, is ja klar!

MadManniMan
2003-05-11, 17:09:32
Originally posted by Demirug
Wenn man die breite eines Speicherkanals kleiner macht stinkt der Verschnitt und man kann das was an Bandbreite zur verfügung steht besser ausnutzen.


sorry 4 kiddin round, aber das hier liest sich einfach zu lolig! :lol:

;D

ow
2003-05-11, 17:26:51
Originally posted by MadManniMan


klingt plausibel, schließlich soll ja auch gebrauch von dx9 gemacht werden - und da hat die r3**-familie einfach eine größere durchdringung, is ja klar!


Hiess es nicht irgendwo, HL2 liefe auch noch auf DX6-Karten?
Dann kann aus technischen Gründen kein DX9 genutzt werden.

Im übrigen wird kein Spielehersteller auf Karten hin optimieren, die nur ein niedriger einstelliger Prozentsatz der Gamer besitzt.

MadManniMan
2003-05-11, 17:44:08
Originally posted by ow
Hiess es nicht irgendwo, HL2 liefe auch noch auf DX6-Karten?
Dann kann aus technischen Gründen kein DX9 genutzt werden.

das ist ja das widersprüchliche! :bonk: trotz dx9-integration gibts auch noch nen fallback bis auf dx6

btw: tu dir mal die screenies an, auf denen wasser zu sehen ist .... -> dx6? ;)

Originally posted by ow
Im übrigen wird kein Spielehersteller auf Karten hin optimieren, die nur ein niedriger einstelliger Prozentsatz der Gamer besitzt.

aber doch zumindest mit dem größten anteil an dx9-beschleunigern am markt und da ja dx9 auch berücksichtigt wird... den rest kannst du dir denken!

ow
2003-05-11, 17:47:07
Originally posted by MadManniMan


das ist ja das widersprüchliche! :bonk: trotz dx9-integration gibts auch noch nen fallback bis auf dx6

btw: tu dir mal die screenies an, auf denen wasser zu sehen ist .... -> dx6? ;)



aber doch zumindest mit dem größten anteil an dx9-beschleunigern am markt und da ja dx9 auch berücksichtigt wird... den rest kannst du dir denken!



Ich glaube nicht, dass HL2 auch nur das geringste mit DX9 zu tun haben wird.
Das wird wie viele andere Games ein paar wenige DX8 Shader für eyecandy nutzen aber mehr nicht.

MadManniMan
2003-05-11, 17:51:43
Originally posted by ow




Ich glaube nicht, dass HL2 auch nur das geringste mit DX9 zu tun haben wird.
Das wird wie viele andere Games ein paar wenige DX8 Shader für eyecandy nutzen aber mehr nicht.


tu dir einfach mal die frühen HL2-previes an (pc gamer?) und dann reden wir nochmal... gelle? ;)

Seraf
2003-05-11, 18:01:03
Bin mal gespannt ob das Wasser mit Dx7 Karten genauso aussieht.

In OpenGl müßte das ja möglich sein.

Dafür sollte man sich mal diesen Bildschirmschoner angucken.
Sieht auf meiner Gforce 2 Mx genauso aus :|

http://www.driverheaven.net/saver/

Xmas
2003-05-11, 19:19:52
Originally posted by egdusp
Wie wäre es mit einer ganz einfachen Erklärung?

Valve hat bisher hauptsächlich auf R300 optimiert, da es die besten verfügbaren Karten der letzen 9 Monate waren.
Und da sie sicher keinen Absturz oder so etwas wollen, haben sie sich für die unproblematistishe Lösung entschieden.
Dass sich Valve hätte entscheiden müssten impliziert aber dass sie sowohl von ATI als auch NVidia ein Angebot hatten, was ich bezweifle.

Xmas
2003-05-11, 19:23:46
Originally posted by kmf Kann mir zwar nicht vorstellen, daß letztendlich nur einer die Zeche in LA zahlt. Aber wenn doch - ist sie sehr gut angelegt, die Kohle.
Wie meinst du das? Dass Valve dabei draufbezahlt?
Das kann ich mir kaum vorstellen, die werden sich die Vorführung gut bezahlen lassen.

Xcellerator
2003-05-11, 19:25:47
Originally posted by ow



Hiess es nicht irgendwo, HL2 liefe auch noch auf DX6-Karten?
Dann kann aus technischen Gründen kein DX9 genutzt werden.

Im übrigen wird kein Spielehersteller auf Karten hin optimieren, die nur ein niedriger einstelliger Prozentsatz der Gamer besitzt.

egdusp meinte mit 'optimieren' sicherlich nur, dass das spiel ausgiebeig auf radeonkarten getestet werden konnte und so etwaige fehler ausgeschlossen werden können, während evtl noch kleinere zu behebende ungereimtheiten im zusammenhang mit n35-karten auftreten...

trotzdem ist das was du behauptest schlichtweg falsch, siehe das beispiel stalker, wo die entwickler angeblich einiges eyecandy speziell für fx-besitzer integrieren wollen...oder glaubst du ein mehr als einstelliger prozentsatz der gamer nennt eine geforce fx sein eigen?

ow
2003-05-11, 20:04:08
Originally posted by Xcellerator


egdusp meinte mit 'optimieren' sicherlich nur, dass das spiel ausgiebeig auf radeonkarten getestet werden konnte und so etwaige fehler ausgeschlossen werden können, während evtl noch kleinere zu behebende ungereimtheiten im zusammenhang mit n35-karten auftreten...

trotzdem ist das was du behauptest schlichtweg falsch, siehe das beispiel stalker, wo die entwickler angeblich einiges eyecandy speziell für fx-besitzer integrieren wollen...oder glaubst du ein mehr als einstelliger prozentsatz der gamer nennt eine geforce fx sein eigen?


Ausnahmen von der Regel wird es immer geben.

Razor
2003-05-11, 20:35:36
Originally posted by Riptor
Naja, würde es jetzt eine GFFX 5900 Ultra geben, hätte Valve eben diese genommen.
Hätten sie von nVidia genausoviel dafür bekommen...
Oder wäre nVidia überhaupt daran interessiert gewesen.
:D

Vielleicht wollte auch ATI nur die Schlappe mit HL(1) und den Catalyst3.2 wieder gut machen.
Wer weiß...

Das aber nagus hier eine Aussage über die Perofrmance irgendwelcher Grafikkarten ableiten möchte, ist geradezu lachhaft. Zumal die Hardware-Anforderungen von HL2 traditionell nicht so besonders hoch sein dürften. Ratet mal, wer die Zielgruppe für dieses Game sein dürfte...

Bis denne

Razor

Riptor
2003-05-11, 22:42:52
Originally posted by Razor
Vielleicht wollte auch ATI nur die Schlappe mit HL(1) und den Catalyst3.2 wieder gut machen.
Wer weiß...

:D Nene, da klingt es mir einleuchtender, dass ATI das "HL2 läuft nur auf nVidia (GFFX) Karten-Debakel" in den Köpfen der Leute ändern wollte... ;)

Zumal die Hardware-Anforderungen von HL2 traditionell nicht so besonders hoch sein dürften. Ratet mal, wer die Zielgruppe für dieses Game sein dürfte...

Wenn du das Deutschland meinst: Durchschnitt so 20, wenn die BPjM mal richtig arbeiten würde und das Spiel mal gleich von Anfang an verbieten würde, weil ich finde, die Screenshots sehen zu brutal aus... ;) ;)

nagus
2003-05-12, 13:11:30
http://www.vgamin.com/screenshots/e32003/day0/e32003_pre12.jpg

Desti
2003-05-12, 13:16:13
Ich sehs schon komme:

HL2
Ausgaben für Marketing: XX Mio $$

Ausgaben für Betatest und Qualitätssicherung: 0,00X Mio $$

:bonk:

x-dragon
2003-05-12, 14:53:47
Immer diese wilden Spekulationen ... :)

... Gabe Newell, Mitbegründer und Managing Director von Valve, kommentierte die Auswahl der Grafikkarte wie folgt (frei übersetzt): "Als wir die derzeit verfügbaren Plattformen für die erste öffentliche Vorführung von HL2 erhielten, war ATIs Radeon 9800 Pro fraglos die beste Wahl für eine optimale Demonstration von Half-Life 2." ...

Quelle: http://www.hartware.net/news.html?id=32885

ow
2003-05-12, 16:11:14
Originally posted by X-Dragon
Immer diese wilden Spekulationen ... :)



Leider hat Gabe Newell aber nicht gesagt, wieviel ATi diese Aussage wert gewesen ist.:D

kmf
2003-05-12, 19:03:51
Originally posted by Xmas

Wie meinst du das? Dass Valve dabei draufbezahlt?
Das kann ich mir kaum vorstellen, die werden sich die Vorführung gut bezahlen lassen.

Draufzahlen nicht, aber sich an den Kosten beteiligen.

Im Umkehrschluß hieße das, daß nVidia JC's Firma ID mit Knete für Doom unterstützt. Gut, die können sich's wenigstens leisten. :D

Man, ist die Welt korrupt.

kmf
2003-05-12, 19:05:46
Originally posted by nagus
http://www.vgamin.com/screenshots/e32003/day0/e32003_pre12.jpg

kommt gut :D

aths
2003-05-12, 21:14:23
Originally posted by Xmas
Ich meinte ja auch die bilder auf Shacknews.
Das hier:
http://www.shacknews.com/screens.x/half_life_2/Half-Life+2/2/thumbs/strider.jpg
sieht mir z.B. eher nachträglich geglättet aus als mit Antialiasing gerendert. Kann natürlich auch an der Kompression liegen, aber dann sollte man eher Blockartefakte sehen. Die Kanten lassen auf OGAA schließen. Das ist untypisch für Radeon, ja, und erhärtet die Vermutung, dass das Bild ohne AA gerendert und dann für den Screenshot runterskaliert wurde.

aths
2003-05-12, 21:15:40
Originally posted by ow
Leider hat Gabe Newell aber nicht gesagt, wieviel ATi diese Aussage wert gewesen ist.:D Falls NV beim NV35 nichts wirklich am AA geändert hat, kann ich Valves Entscheidung voll verstehen.

ow
2003-05-12, 21:44:33
Originally posted by aths
Falls NV beim NV35 nichts wirklich am AA geändert hat, kann ich Valves Entscheidung voll verstehen.

Du meinst die Entscheidung Geld von ATi zu nehmen oder kein Geld zu nehmen?:D

Razor@Work
2003-05-14, 08:17:15
*bump*

Ich hab' da mal 'ne interessante News...
(gefunden auf www.nvnews.net ;-)
NVIDIA GeForce FX Is the Graphics Processor of Choice at E3 (http://www.reuters.com/financeQuoteCompanyNewsArticle.jhtml?storyID=2731562&ric=nvda&infotype=press&compname=NVIDIA+CORP)

NVIDIA Corporation, the worldwide leader in visual processing solutions, announced today that the newly unveiled GeForce FX 5900 series of graphics processing units (GPUs) is the overwhelming platform of choice for game publishers and developers showcasing the hottest PC games at this week's Electronic Entertainment Expo.

More than 600 desktop and notebook PCs in 32 booths throughout the exhibition halls will be powered by NVIDIA GeForce FX GPUs, demonstrating next-generation games such as Tron 2.0, Pirates of the Caribbean, Homeworld 2, Enter the Matrix, Deus Ex: The Invisible War, and S.T.A.L.K.E.R: Oblivion Lost.
Zumindest durfte ATI HalfLife2 vorführen...
:D

Bis denne

Razor

x-dragon
2003-05-14, 09:43:10
Originally posted by Razor@Work
*bump*

Ich hab' da mal 'ne interessante News...
(gefunden auf www.nvnews.net ;-)

Zumindest durfte ATI HalfLife2 vorführen...
:D

Bis denne

Razor Naja die gehören ja größtenteils auch zu Nvidias "Partner-Programm", von daher ist es nicht weiter verwunderlich ... ausserdem haben die ja auch einiges mehr Geld als ATI :).

Richthofen
2003-05-14, 10:46:13
In der Tat haben die das :)
Der Cash Bestand hat sich nochmal erhöhrt und der Marketing Etat fürs 2. Quartal wurde gewaltig angehoben.
Das wird ein heisser Sommer auf der PR Front :)
Die werden das jetzt schön ausschlachten.

nagus
2003-05-14, 13:07:12
Originally posted by Razor@Work
*bump*

Ich hab' da mal 'ne interessante News...
(gefunden auf www.nvnews.net ;-)

Zumindest durfte ATI HalfLife2 vorführen...
:D

Bis denne

Razor


nvidia best cheating treiber @ E3 : http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71135

*LOL*

nagus
2003-05-14, 13:08:59
Originally posted by aths
Falls NV beim NV35 nichts wirklich am AA geändert hat, kann ich Valves Entscheidung voll verstehen.

haben sie auch nicht. und ich verstehe valves entscheidung 100%ig. nvidia hat zwar den schnellsten beschleuniger, aber die bildqualität ist zum "scheissen". entschuldigung. http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71135

Quasar
2003-05-14, 13:17:16
Originally posted by nagus


haben sie auch nicht. und ich verstehe valves entscheidung 100%ig. nvidia hat zwar den schnellsten beschleuniger, aber die bildqualität ist zum "scheissen". entschuldigung. http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71135

Jaja. der Blurfilter bei 4xFSAA. Vielleicht ein kleines Versehen und aus 4xFSAA wurde 4x+9tap-AA?

Es zeugt ausserdem von gutem Stile, sich nicht mit sich selbst zu belegen versuchen...

Andre
2003-05-14, 13:17:28
Originally posted by nagus



nvidia best cheating treiber @ E3 : http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71135

*LOL*

Ahh, verspürt der nagus wieder Flamegeilheit?

Andre
2003-05-14, 13:18:24
Originally posted by nagus


haben sie auch nicht. und ich verstehe valves entscheidung 100%ig. nvidia hat zwar den schnellsten beschleuniger, aber die bildqualität ist zum "scheissen". entschuldigung. http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71135

Genauso wie dein Post. Tschuldigung.

MadManniMan
2003-05-14, 13:57:41
Originally posted by Andre


Ahh, verspürt der nagus wieder Flamegeilheit?


zumindest stützt er sein provokantes auftreten mit argumenten, stichhaltigen dingen

Seraf
2003-05-14, 14:01:14
Originally posted by nagus


haben sie auch nicht. und ich verstehe valves entscheidung 100%ig. nvidia hat zwar den schnellsten beschleuniger, aber die bildqualität ist zum "scheissen". entschuldigung. http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=71135


Klasse Nagus!!!

*applaus*

Mit einer 8500 bekomm ich unter OpenGL mit 2xAA nur horizontal die linien geglättet!
Nach zeckensack wäre sie aber mit vertikaler Glättung genauso schnell.

Klasse... echt Klasse... liegt bestimmt an der Karte.. :bonk:

Wird bestimmt demnächst von Nv im Treiber behoben (A-tuner schon jemand was getested?)

*blödrumspamundgegendiewandhau*

Razor
2003-05-14, 15:56:18
Originally posted by MadManniMan

zumindest stützt er sein provokantes auftreten mit argumenten, stichhaltigen dingen
Wo tut er das ?
Oder war das jetzt ironisch gemeint?
???

Razor

P.S.: Vor allem möchte ich mal wissen, was dieser unausgegorene Mist jetzt in diesem Thread zu suchen hat...
Aber auch diese Erklärung wird er uns wahrscheinlich schuldig bleiben.

Ikon
2003-05-14, 16:01:12
Toll, Flamer unter sich.

Mehrpack
2003-05-14, 23:35:06
Originally posted by Richthofen
In der Tat haben die das :)
Der Cash Bestand hat sich nochmal erhöhrt und der Marketing Etat fürs 2. Quartal wurde gewaltig angehoben.
Das wird ein heisser Sommer auf der PR Front :)
Die werden das jetzt schön ausschlachten.

hi,
och nö net noch mehr pr bzw marketing, also langsam finde ich es reicht, warum kann niemand mehr mal die dinge so schreiben wie sie sind...

Mehrpack

PS: jaja ich weiss die wahrheit verkauft sich leider net so gut....

Razor
2003-05-14, 23:49:10
Originally posted by Mehrpack

PS: jaja ich weiss die wahrheit verkauft sich leider net so gut....
"Nicht so gut" ist sogar völlig falsch !
Die "Wahrheit" ist der größte Ladenhüter schlechthin.

Nicht nur, dass man die Leute damit abschrecken würde, nein, die Leutz wollen das noch nicht einmal hören !
(jetzt nicht nur auf GraKa's bezogen ;-)

Sorry, aber ohne Marketing keine Marktwirtschaft.
Und ohne Marktwirtschaft keine schönen neuen Grafikkarten !
:D

Bis denne

Razor

Mehrpack
2003-05-14, 23:54:08
Originally posted by Razor

"Nicht so gut" ist sogar völlig falsch !
Die "Wahrheit" ist der größte Ladenhüter schlechthin.

Nicht nur, dass man die Leute damit abschrecken würde, nein, die Leutz wollen das noch nicht einmal hören !
(jetzt nicht nur auf GraKa's bezogen ;-)

Sorry, aber ohne Marketing keine Marktwirtschaft.
Und ohne Marktwirtschaft keine schönen neuen Grafikkarten !
:D

Bis denne

Razor

hi,
schon klar deswegen auch das ps. mir ist schon klar das niemand mehr heutzutage ohne auskommt (was aber auch mit am kunden bzw der nichtintelligenz der "grossen masse" liegt).

wegen ladenhütern, naja soweit würde ich net gehn, nen paar würden sich schon finden :D.

bloss mir persönlich geht marketing manchmal sowas von auf die nerven, bloss das ist eine andere geschichte :D.

Mehrpack

Razor
2003-05-15, 00:37:28
OK, da stimm ich mir Dir völlig überein...
Mehr geht das ebenso voll auf den S... !

Aber ich sehe natürlich auch die andere Seite (nahezu gezwungener maßen) und da ist der Konkurrenz-Druck dermaßen groß, dass man sich die Wahrheit oder zumindest das weniger nervende Marketing schlicht nicht leisten kann.

Klar würde das einigen gefallen, wenn eine Firam sagt:
"Du, unser Produkt ist gar net so dolle, wie wir immer sagen..."

Nur Kaufen würde deren Produkte niemand mehr.

Und damit ist jetzt nicht eine spezielle Firma gemint, sondern schlicht ALLE, die sich irgendwo in Konkurenz befiden. Zeigt eine Firma eine Schwäche (in diesem Fall die Wahrheit), ist sie weg vom Tisch.

Nicht gerade schön das Ganze und für uns Kunden mehr als lästiig, aber letztendlich haben wir es so gewollt !
(mehr oder weniger ;-)

Razor

Crushinator
2003-05-15, 01:38:25
Originally posted by Razor
Die "Wahrheit" ist der größte Ladenhüter schlechthin. Mit Wahrheit ist hier wohl nur "durch Taten überzeugen" gemeint. Das wiederrum ist das einzig Sinnvolle im Kampf gegen FUD. ;)
Nicht nur, dass man die Leute damit abschrecken würde, nein, die Leutz wollen das noch nicht einmal hören !(jetzt nicht nur auf GraKa's bezogen ;-) Schlimm wird's nur wenn die "Wahrheit" von jemand anderem ans Licht gebracht wird als von einem selbst. Denn plötzlich wollen's ganz schön viele Leute hören. =)
Sorry, aber ohne Marketing keine Marktwirtschaft. Und ohne Marktwirtschaft keine schönen neuen Grafikkarten ! Eine gesunde Marktwirtschaft funktioniert aber nur wenn möglichst viele Wettbewerber auf dem Markt Platz finden. Was wir z.Z. erleben nennt sich nicht Marktwirtschaft sondern eher Monopoly. :D

Mehrpack
2003-05-15, 02:10:25
Originally posted by Razor
OK, da stimm ich mir Dir völlig überein...
Mehr geht das ebenso voll auf den S... !

Aber ich sehe natürlich auch die andere Seite (nahezu gezwungener maßen) und da ist der Konkurrenz-Druck dermaßen groß, dass man sich die Wahrheit oder zumindest das weniger nervende Marketing schlicht nicht leisten kann.

Klar würde das einigen gefallen, wenn eine Firam sagt:
"Du, unser Produkt ist gar net so dolle, wie wir immer sagen..."

Nur Kaufen würde deren Produkte niemand mehr.

Und damit ist jetzt nicht eine spezielle Firma gemint, sondern schlicht ALLE, die sich irgendwo in Konkurenz befiden. Zeigt eine Firma eine Schwäche (in diesem Fall die Wahrheit), ist sie weg vom Tisch.

Nicht gerade schön das Ganze und für uns Kunden mehr als lästiig, aber letztendlich haben wir es so gewollt !
(mehr oder weniger ;-)

Razor

hi,
ich hab mich ja auch net auf einen direkt bezogen, also nvidia bloss was die bugdeerhöhung bedeutet kann man sich ja ausmalen.

mir geht markteting eben meisten von XXX (name beliebig einsetzbar) auf den nerven.

zu dem rest schon klar und da stimm ich dir ja auch zu.

Mehrpack

MadManniMan
2003-05-15, 02:11:25
Originally posted by Razor

Wo tut er das ?
Oder war das jetzt ironisch gemeint?
???

Razor

P.S.: Vor allem möchte ich mal wissen, was dieser unausgegorene Mist jetzt in diesem Thread zu suchen hat...
Aber auch diese Erklärung wird er uns wahrscheinlich schuldig bleiben.

ich verspüre einen gewissen drang, diesen deinen post mal in den das thema betreffenden thread zu quoten.
dann werden die anderen vielleicht mal von deiner neutralen kritikfähigkeit nv gegenüber überzeugt.

:eyes:

Razor
2003-05-15, 17:44:00
Originally posted by crushinator
Eine gesunde Marktwirtschaft funktioniert aber nur wenn möglichst viele Wettbewerber auf dem Markt Platz finden. Was wir z.Z. erleben nennt sich nicht Marktwirtschaft sondern eher Monopoly. :D
Von einer gesunden Marktwirtschaft habe ich ja garnicht gesprochen...
;-)

IMO sorgt aber gleiches Verhalten auf beiden Seiten für ein relativ ausgewogenes Kräfteverhältnis. Würde einer davon jetzt anfangen, das zu ändern, würde sich dies für ihn nachteilig auswirken.

Bis denne

Razor

Razor
2003-05-15, 17:45:51
Originally posted by MadManniMan

ich verspüre einen gewissen drang, diesen deinen post mal in den das thema betreffenden thread zu quoten.
dann werden die anderen vielleicht mal von deiner neutralen kritikfähigkeit nv gegenüber überzeugt.

:eyes:
"neutralen kritikfähigkeit nv gegenüber"
Wer erzählt denn so etwas ?
???

MadManniMan
2003-05-15, 17:48:05
Originally posted by Razor

"neutralen kritikfähigkeit nv gegenüber"
Wer erzählt denn so etwas ?
???



war ja auch ironie... :eyes:

darüber, was ich da sagte, diskutieren wir gerade in nagus thread zum "blurr und co."

Unregistered
2003-05-16, 19:13:27
Hat schonmal jemand diesen Screenshot gepostet? Den find ich so geil.

http://www.chip.de/ii/11066663_deaa03d076.jpg

Crushinator
2003-05-16, 19:28:35
Originally posted by Razor
Von einer gesunden Marktwirtschaft habe ich ja garnicht gesprochen...;-) (...) Ich kann mir aber auch nicht vorstellen, daß "wir" etwas anders wollen als eben die gesunde Marktwirtschaft. ;)

LovesuckZ
2003-05-16, 19:31:36
Originally posted by crushinator
Ich kann mir aber auch nicht vorstellen, daß "wir" etwas anders wollen als eben die gesunde Marktwirtschaft. ;)

freie oder soziale?

StefanV
2003-05-16, 20:20:03
Originally posted by crushinator
Ich kann mir aber auch nicht vorstellen, daß "wir" etwas anders wollen als eben die gesunde Marktwirtschaft. ;)

Ich schon, aber dafür ist die Menschheit zu schlecht (erzogen)...

Crushinator
2003-05-16, 20:29:13
Originally posted by LovesuckZ
freie oder soziale? Nicht das Ihr das falsch versteht -> gesunde Marktwirtschaft ist sowohl frei als auch sozial und nicht nur das eine oder das andere. Sie setzt nur viele Wettbewrber voraus und keine faktischen Monopole. Natürlich darf auch der Markt selbst nicht fehlen. :D

egdusp
2003-05-16, 20:47:21
Originally posted by Stefan Payne


Ich schon, aber dafür ist die Menschheit zu schlecht (erzogen)...

Nein, dass ist falsch. Der Sozialismus hat nicht nur versagt, weil die Menschen zu egoistisch sind oder die Bürokratie zu korrupt war, sondern er kann theoretisch nicht dasselbe Wohlstandsniveau hervorbringen wie eine Marktwirtschaft. Dies hängt damit zusammen, dass keine Erfassung der menschlichen Bedürfnisse möglich ist, da die Menschen diese selber nicht wissen (Das Angebot schafft die Nachfrage (zumindest teilweise)).
Und Marktwirtschaft ist, sofern funktionierend, sehr sozial, da jeder das bekommt was er verdient.

So nun wieder zurück zum Thema.

mfg
egdusp

Crushinator
2003-05-16, 21:00:09
@egdusp

Du beweist mit Deinem Post genau das, was SP schreibt: "dafür ist die Menschheit zu schlecht (erzogen)..." auch wenn es Dir möglicherweise erst auf dem zweiten Blick bewußt wird. ;)

nggalai
2003-05-16, 22:04:42
Originally posted by Seraf
Jetzt frag ich mich wirklich ob das nicht ins Spieleforum/Spielwiese gehört ???Spielwiese. Erstens haben wir schon genug HL2-Threads im Spieleforum, und ausser NV vs/ ATI resp. Punkte, die sowohl im 9800er als auch 5900er-Thread diskutiert wurden hab' ich in Sachen Grafikchip-Diskussionen auch noch nicht viel gesehen. Und die letzten 2 Seiten gleich gar nix, ergo *verschieb*

93,
-Sascha.rb

egdusp
2003-05-17, 00:16:29
Originally posted by crushinator
@egdusp

Du beweist mit Deinem Post genau das, was SP schreibt: "dafür ist die Menschheit zu schlecht (erzogen)..." auch wenn es Dir möglicherweise erst auf dem zweiten Blick bewußt wird. ;)

Nun, ich gebe zu, dass es mir scherfällt offensichtlichte (für mich) und schwerwiegende Fehler zu ignorieren.
Ich bin halt VWL Student und kenne mich mit der Materie ziemlich gut aus, so dass ich populistische Aussagen oft als erschreckend dämlich emfpinde und deswegen mein Sendungsbewußtsein auspacke.

Man kann kein System auf frohen Wünschen aufbauen, sondern muss sich an der Realität orientieren.
Die Marktwirtschaft macht sich die Unzulänglichkeiten (nach heutigen Moralvorstellungen) der Menschen zueigen, der Sozialismus hofft auf einen besseren Menschen.

Die Problematik dieses Komplexes zeigt sich schon daran, dass auf meiner Uni verschiedene Lager mit ziemlich entgegengestzten Vorstellungen existieren.

Ich halte mich ünrigens für einen sehr guten Menschen, dennoch bin ich kaum sozial veranlagt. Die soziale Komponente wird viel zu sehr überschätzt.

Um wenigestens wieder etwas OT zu werden. Der Wunsch nach einer sozialer Gesellschaft ist in etwa so utopisch, wie der Wunsch nach breiter DX9 Unterstützung in Spielen ab dem Sommer.

mfg
egdusp

Asuka
2003-05-17, 03:15:11
Ich finde, Half-Life hat ganz tierisch gesuckt :-(
Oft nicht allzu viel Action, ausgesprochen lästige Hüpf- und Klettereinlagen, und die praktisch immer gleichen Gegener war man auch schnell leid :zzz:
Naja, etwas, was solche abartigen Auswüchse wie CamperStrike hervorbringt, kann ja auch nicht gut sein *eg*
Hoffe mal, daß man HL2 nicht genauso in die Tonne treten kan...

Gil-galad
2003-05-17, 13:34:57
Hi.

So damit ihr auch mal richtige Ingame-Szenen seht:

http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_6dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_1dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_8dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_7dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_5dn_qt.mov
[url]http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/halflife2_pce32003_2dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_3dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_4dn_qt.mov

Gespielt wurde auf ner Radeon 9800 Pro 256 MB RAM ;)

kmf
2003-05-17, 22:43:45
Originally posted by AiS|Gil-galad
Hi.

So damit ihr auch mal richtige Ingame-Szenen seht:

http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_6dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_1dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_8dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_7dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_5dn_qt.mov
[url]http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/halflife2_pce32003_2dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_3dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_4dn_qt.mov

Gespielt wurde auf ner Radeon 9800 Pro 256 MB RAM ;)
Mein Gott! :O
Hat zwar eine ganze Weile gedauert mit dem Download, aber es lohnt sich total. Ich glaub, ich werd verrückt, mußte mir das mehrmals ansehen. Einfach genial:D

Jetzt kann ich's kaum erwarten, bis das Spiel auf dem Markt ist.

Wenn Doom3 auch so ein Kaliber wird und bis Weihnachten rauskommt, sieht mich wahscheinlich bis Fasching nächstes Jahr keiner mehr auf der Straße. ;D

Unregistered
2003-05-17, 23:58:32
Originally posted by Asuka
Ich finde, Half-Life hat ganz tierisch gesuckt :-(
Oft nicht allzu viel Action, ausgesprochen lästige Hüpf- und Klettereinlagen, und die praktisch immer gleichen Gegener war man auch schnell leid :zzz:
Naja, etwas, was solche abartigen Auswüchse wie CamperStrike hervorbringt, kann ja auch nicht gut sein *eg*
Hoffe mal, daß man HL2 nicht genauso in die Tonne treten kan...

So ein Schmarren, hast du das Spiel überhaupt mal von innen gesehen? Wenn ja, hast du es noch nicht mal geschafft den Schutzanzug anzuziehen.

Gil-galad
2003-05-18, 00:09:30
Ich finds auch Hammer geil, ich finds sogar besser als Doom3. Doom3 is Horror und Metzeln, HL2 wirkt realistischer und man kann auch mit dem Köpfchen arbeiten (ich sag nur Stahlträger und Container). Wird echt ein Hammer Spiel denk ich.

Unregistered
2003-05-18, 17:34:55
Originally posted by AiS|Gil-galad
Hi.

So damit ihr auch mal richtige Ingame-Szenen seht:

http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_6dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_1dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_8dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_7dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_5dn_qt.mov
[url]http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/halflife2_pce32003_2dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_3dn_qt.mov
http://gamefiles.blueyonder.co.uk/blueyondergames/trailers/e32k3-halflife2_pce32003_4dn_qt.mov

Gespielt wurde auf ner Radeon 9800 Pro 256 MB RAM ;)

Kann mir bitte jemand verraten, was für ein Codec das ist? "Quicktime" spielt nur den Sound und meckert rum, "gspot" weiss auch nicht weiter...

egdusp
2003-05-18, 18:11:45
Originally posted by Unregistered


Kann mir bitte jemand verraten, was für ein Codec das ist? "Quicktime" spielt nur den Sound und meckert rum, "gspot" weiss auch nicht weiter...

Also ich habe ne normale (keine Pro) Quicktime Version D-6 und bei mir spielt er alles ab. Machmal kommt es vor, dass er für einige Sekunden nur Ton und kein Video abspielt, keine Ahnung ab das an der Quelle oder dem Codec liegt.
Ich habe fast alle Schnipseln runtergeladen. Vor allem der ...8dn...mov sieht geil aus.

mfg
egdusp

MadManniMan
2003-05-19, 16:24:22
Originally posted by Unregistered


So ein Schmarren, hast du das Spiel überhaupt mal von innen gesehen? Wenn ja, hast du es noch nicht mal geschafft den Schutzanzug anzuziehen.


hat da jemand evtl. vergessen, daß sich geschmäcker unterscheiden können? ???

btw: /me = HL-fan ;)