PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel cheatet im 3D Mark Vantage unter Windows 7


DrumDub
2009-10-13, 23:33:30
http://techreport.com/articles.x/17732

sowas hatten wir ja schon lange nicht mehr ...

MR2
2009-10-13, 23:38:06
Hehe, ich hab das bei Luxx gelesen:

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13312-intel-igps-mogeln-beim-3dmark-vantage.html


Naja, intel eben;-) Dafür sind die Quartalsergebnisse wieder hervorragend:freak:

Wolfram
2009-10-13, 23:48:20
Aber ist das Cheating? Vielleicht nach den Futuremark-Regeln, andererseits: Warum sollte vorhandene CPU-Leistung nicht genutzt werden, um den Grafikchip zu entlasten? Nur wird der relative Einbruch halt höher sein, wenn sich in einer Szene zusätzlich noch ein CPU-Limit ergibt. Bzw. dieses wird dann schneller erreicht sein.

RoNsOn Xs
2009-10-14, 00:00:14
sicher ist das effizient. aber cheating in dem sinne, da die unterschiedlichen grafiklösungen untereinander nicht vergleichbar sind. vor allem kommt diese effizienz ja längst nicht immer zur anwendung und genau dort liegt der harken.
man präsentiert ein besseres ergebnis, der anwender kauft sich diese lösung und bekommt damit aber die eigtl schwächere grafiklösung.
ist also beschiss, ergo cheating.

Spasstiger
2009-10-14, 00:01:44
Es ist ein Cheat, weil Futuremark das als Cheat deklariert. Bei einem Spiel empfinde ich persönlich das auch nicht als Cheat. Es erschwert natürlich die Vergleichbarkeit in Benchmarks, weil das Abschneiden der Onboard-Grafik maßgeblich vom verwendeten Prozessor abhängt.

Gast
2009-10-14, 00:14:17
Es ist ein Cheat, weil Futuremark das als Cheat deklariert.Nur sind die Futuremark-Fatwas zum Glück nicht für den Rest der Welt bindend. Deren Ansichten haben allerhöchstens in Bezug auf die Aufnahme in deren komische Ergebnisdatenbank irgendeine Relevanz.

Spasstiger
2009-10-14, 00:38:32
Nur sind die Futuremark-Fatwas zum Glück nicht für den Rest der Welt bindend.
Es geht in diesem Thread speziell darum, dass Intel die eigenen IGPs gegen die Richtlinien von Futuremark in 3DMark Vantage besser aussehen lässt als sie eigentlich sind. Davon kann jeder halten, was er will. In jedem Fall ist es AMD und Nvidia gegenüber nicht fair, denn die halten sich mit ihren IGPs an die Richtlinien von Futuremark.

Coda
2009-10-14, 00:46:08
Seh ich auch so. Intel kann gerne an den Spielen appspezifisch rumoptimieren, aber bei einem Benchmark sollten sie das bleiben lassen.

Das ist eh auch schon bei den Spielen ein zweischneidiges Schwert. Wenn die CPU dann dort nämlich doch mal gefordert wird hat man dafür keine Leistung mehr.

samm
2009-10-14, 01:19:49
Zudem wurde im verlinkten Text schon angedeutet, wie Intel in Games trotz der Optimierungen, den Prozessor für die lächerliche Grafiklösung mitrechnen zu lassen, grauenhaft gegen echte IGPs verliert.

=Floi=
2009-10-14, 02:44:37
wo sind denn sie beweise, dass da wirklich die cpu mithilft?
nur die exe umbenennen, schaltet auch die appspezifischen optimierungen aus und da dürfte es bei nv und ati auch schlechter aussehen. es kommt auch noch hinzu, dass der normale intel treiber eh schlecht ist und gerade hier dann unoptimiert auf hochoptimiert trifft und dort dnn der große unterschie resultiert.

wi sind benchmarks mit andere cpus?

Coda
2009-10-14, 03:49:45
und da dürfte es bei nv und ati auch schlechter aussehen.
Nein, tut es eben nicht.

Grestorn
2009-10-14, 07:33:42
nur die exe umbenennen, schaltet auch die appspezifischen optimierungen aus

Gerade die sind bei Futurmark verboten, woran sich wohl ATI als auch nV seit einigen Jahren auch halten. Nur MultiGPU-Optimierung auf Grund der Erkennung der Exe ist erlaubt.

reunion
2009-10-14, 07:41:10
Gerade die sind bei Futurmark verboten, woran sich wohl ATI als auch nV seit einigen Jahren auch halten. Nur MultiGPU-Optimierung auf Grund der Erkennung der Exe ist erlaubt.

Glaubst du das oder weißt du das? Wenn ich mir ansehe wie die Leistung im 3dmark jedesmal nach nur wenigen neuen Treiberversionen sprunghaft ansteigt wage ich das ehrlich gesagt zu bezweifeln.

san.salvador
2009-10-14, 07:42:42
Wenn es optisch keine Nachteile bringt, ist es doch nur zu begrüßen, wenn Devs versuchen die App zu erkennen und optimal laufen zu lassen.
Zumal wir hier ja weniger von einem anerkannten Standard reden, sondern von selbst aufgestellten Regeln eines Benchmark-Verkäufers. Eines Benchmarks, den wohl die meisten als mittelprächtige Grafikdemo sehen, mehr nicht.

Grestorn
2009-10-14, 07:56:27
Glaubst du das oder weißt du das? Wenn ich mir ansehe wie die Leistung im 3dmark jedesmal nach nur wenigen neuen Treiberversionen sprunghaft ansteigt wage ich das ehrlich gesagt zu bezweifeln.

Man kann das selbst testen in dem man die Exes umbenennt. Und es gibt einige die das, in der Hoffnung einem IHV bloszustellen, auch regelmäßig ausprobieren.

reunion
2009-10-14, 07:58:57
Man kann das selbst testen in dem man die Exes umbenennt. Und es gibt einige die das, in der Hoffnung einem IHV bloszustellen, auch regelmäßig ausprobieren.

Es gibt wohl auch andere Möglichkeiten Shader auszutauschen als durch .exe-Erkennung. Der ATi-Treiber bsw. drosselt den Furmak mittlerweile auch wenn man die .exe umbenennt. Da wird wohl der Shader direkt erkannt.

Mark3Dfx
2009-10-14, 08:40:22
Wayne? btw.
Darf man die GMA Krücken überhaupt "Grafikkarten/chips" nennen?

Undertaker
2009-10-14, 08:51:20
Seh ich auch so. Intel kann gerne an den Spielen appspezifisch rumoptimieren, aber bei einem Benchmark sollten sie das bleiben lassen.

Das ist eh auch schon bei den Spielen ein zweischneidiges Schwert. Wenn die CPU dann dort nämlich doch mal gefordert wird hat man dafür keine Leistung mehr.

Ist praktisch wohl nicht relevant, mit einer Intel-IGP wirst du kaum ins CPU-Limit kommen...
Ergo: In Spielen Top, im 3DM Beschiss.

Es gibt wohl auch andere Möglichkeiten Shader auszutauschen als durch .exe-Erkennung. Der ATi-Treiber bsw. drosselt den Furmak mittlerweile auch wenn man die .exe umbenennt. Da wird wohl der Shader direkt erkannt.

Vielleicht auch eine einfache overcurrent protection?

StefanV
2009-10-14, 10:27:43
Gibt doch noch andere 'Optimierungen' bei Intel IGPs, habt ihr euch in letzter Zeit mal das AF angeschaut??
Das war auch mehr auf SIS Niveau, dazu noch einige andere Dinge...

Kurzum: Die Teile sind kaum zu was zu gebrauchen und sollte man meiden...
Besonders wenn man 3D Programme startet kann man ja schon fast froh sein, wenns überhaupt startet...

Gast
2009-10-14, 13:59:41
LOL, was soll daran ein cheat sein, wenn die vorhandene hardware bestmöglich ausgenutzt wird?

Nur weil irgendein Hersteller von benchmarksoftware sich aufspielt gott zu sein und sagen zu dürfen was GPU-hersteller tun dürfen?
Intel sollte eben nächstes mal schlauer sein und die optimierungen nicht am .exe-namen durchzuführen.

Spasstiger
2009-10-14, 14:01:22
@Gast über mir: Wenn man an einem Vergleich teilnehmen will, für den Regeln festgelegt wurden, sollte man sich auch an diese Regeln halten.

_DrillSarge]I[
2009-10-14, 14:06:55
Wayne? btw.
Darf man die GMA Krücken überhaupt "Grafikkarten/chips" nennen?
ja, echt X-D
ob nun letzter oder immernoch letzter ist dann auch egal.

Gibt doch noch andere 'Optimierungen' bei Intel IGPs, habt ihr euch in letzter Zeit mal das AF angeschaut??
hmmm, ich kann bei mir af "an" und "aus" machen, mehr nicht. (ist afaik 2x; sieht auch so kümmerlich aus) ist das auf den neueren igps anders?

kevsti
2009-10-14, 14:14:49
Wenn so ein Benchmark anzeigen soll, wie "stark" eine GPU/IGP ist, dann ist es doch so wie es Intel gemacht hat okay.

Ich gehe davon aus das in mehreren optimierten Spielen ein ähnlicher Leistungssprung entsteht.

Intel hatte quasi eine tolle Idee mit dem sie die Spielleistung erhöhen können.
Warum sollten sie diese nur in Spielen und nicht bei Benchmarks einsetzen? Es macht die IGP auch in Spielen schneller, wäre es nur in der Benchmark so - dann okay, dann wäre es freilich "cheating".

Um es anderes aus zusagen:

Es wäre doch von ATi und NV unfair gegenüber Intel, wenn Intel ihre Optimierung (die ohne Qualitätsverlust arbeitet!) nicht für einen Vergleich nutzen darf. Am ende kauft dann jemand die Produkte von ATi&NV, dabei würde aber die Intel Lösung die schnellere sein - man weiß es bloß nicht da es gerade in einen Vergleichsbenchmark kastriert werden muss um irgendwelche Regeln ein zuhalten den dem User eigentlich am Ars* vorbei gehen.

Sollte Intel allerdings in kaum ein anderen Spiel von der Optimierung nutzen haben, sehe ich es auch als cheating an

RoNsOn Xs
2009-10-14, 14:18:41
Wenn so ein Benchmark anzeigen soll, wie "stark" eine GPU/IGP ist, dann ist es doch so wie es Intel gemacht hat okay.


häh? dann sollte doch wohl nur die gpu getestet werden - so wie es der bench auch eigtl machen sollte.
ansonsten bekommst du mit jedem prozessor ganz andere ergebnisse raus, wie auch schon von spasstiger im ersten post beschrieben.

PulsarS
2009-10-14, 14:36:33
Wenn so ein Benchmark anzeigen soll, wie "stark" eine GPU/IGP ist, dann ist es doch so wie es Intel gemacht hat okay.

Nein.
Ein Benchmark soll bestimmte Berechnungen durchführen und das auch auf dafür vorgesehenen Einheiten/Devices.
Schon das Ändern der Reihenfolge der Berechnungen oder das Ersetzen dieser durch andere (Shaderreplacement z.B.) ist cheating.

Spiele sind ein anderes Thema, da hier im Endeffekt zählt, was hinten rauskommt.
Nur darf die BQ nicht drunter leiden.

Spasstiger
2009-10-14, 14:55:52
I[;7596575']ja, echt X-D
ob nun letzter oder immernoch letzter ist dann auch egal.
Im 3DMark Vantage @ Performance kommt man mit dem GMA X4500 aber mit der Optimierung auf 3000 Punkte und liegt damit gleichauf mit einer GeForce 9300 oder einer Radeon HD 3300 mit Sideport-Speicher und DDR3-RAM. Das ist einfach Wettbewerbsverzerrung, denn dort, wo es drauf ankommt, sieht ein GMA X4500 kein Land gegenüber den Konkurrenten. Die Optimierung hilft dort nicht mehr, weil man die CPU-Leistung für andere Dinge als Grafikberechnungen benötigt.
Intel weiß genau um die Bedeutung von 3DMark als Vergleichsmittel in vielen Reviews.

san.salvador
2009-10-14, 14:57:58
Eigentlich sind das doch alles gute Argumente, um sowas wie den 3DMark einfach zu ignorieren.

_DrillSarge]I[
2009-10-14, 15:01:38
Im 3DMark Vantage @ Performance kommt man mit dem GMA X4500 aber mit der Optimierung auf 3000 Punkte und liegt damit gleichauf mit einer GeForce 9300 oder einer Radeon HD 3300 mit Sideport-Speicher und DDR3-RAM. Das ist einfach Wettbewerbsverzerrung, denn dort, wo es drauf ankommt, sieht ein GMA X4500 kein Land gegenüber den Konkurrenten. Die Optimierung hilft dort nicht mehr, weil man die CPU-Leistung für andere Dinge als Grafikberechnungen benötigt.
Intel weiß genau um die Bedeutung von 3DMark als Vergleichsmittel in vielen Reviews.
klar. nur ist man im "alltag" mit intel-igps immer arm dran, was 3d sachen angeht. wenn natürlich nur auf den 3dmark geschaut wird, ist man selber schuld und braucht sich hinterher nicht wundern.

Eigentlich sind das doch alles gute Argumente, um sowas wie den 3DMark einfach zu ignorieren.
ja, besonders hässlich-vantage ;D

Spasstiger
2009-10-14, 15:04:34
Eigentlich sind das doch alles gute Argumente, um sowas wie den 3DMark einfach zu ignorieren.
Wenn in irgendeinem Review des 3DC mal mit 3DMark getestet werden sollte, bekommt der Autor von mir was auf den Deckel. ;D
Aber in den ganzen Reviews mit Laienzielgruppe wird wohl kein Autor auf den 3DMark verzichten wollen. Ich kann mir gut vorstellen, dass unter den Jugendlichen aufm Pausenhof ein 3DMark-Schwanzvergleich stattfindet. "Wieviele Vantage-Marks macht deine GTX?". ;)

_DrillSarge]I[
2009-10-14, 15:06:28
Ich kann mir gut vorstellen, dass unter den Jugendlichen aufm Pausenhof ein 3DMark-Schwanzvergleich stattfindet. "Wieviele Vantage-Marks macht deine GTX?". ;)
ja, nee is klar. X-D
ey meine gmax4500 macht 3000punkte! BOOOOMM!!!
:ucrazy:

san.salvador
2009-10-14, 15:07:50
Wenn in irgendeinem Review des 3DC mal mit 3DMark getestet werden sollte, bekommt der Autor von mir was auf den Deckel. ;D
Aber in den ganzen Reviews mit Laienzielgruppe wird wohl kein Autor auf den 3DMark verzichten wollen. Ich kann mir gut vorstellen, dass unter den Jugendlichen aufm Pausenhof ein 3DMark-Schwanzvergleich stattfindet. "Wieviele Vantage-Marks macht deine GTX?". ;)
Ändert aber nichts daran, das der 3DMark völlig realitätsferner Hunz ist.
Deshalb hat das IMHO nichts mit Wettbewerbsverzerrung zu tun - der 3DMark ist nicht geeignet für solche Wettbewerbe. Insofern sollte es uns eigentlich völlig Powidl sein, wer da was zusammenpfuscht. Hauptsache, die echten Apps laufen rund.

Coda
2009-10-14, 16:28:29
Es gibt wohl auch andere Möglichkeiten Shader auszutauschen als durch .exe-Erkennung. Der ATi-Treiber bsw. drosselt den Furmak mittlerweile auch wenn man die .exe umbenennt. Da wird wohl der Shader direkt erkannt.
Ja, kann man. Ab einer gewissen Komplexität (z.B. Crysis) wird das aber zumindest für Optimierungszwecke sehr unhandlich, weil da je nach verwendeten Materialien tausende Permutationen erzeugt werden.

Da lohnt es sich dann eher direkt am Compiler generisch etwas zu verbessern.

Wenn man aber nur eine bestimmte App erkennen will, dann könnte man wohl z.B. eine Signatursuche wie bei Virenscannern einsetzen. Verlängert natürlich auch alles die Ladezeiten.

Black-Scorpion
2009-10-14, 19:09:40
Warum sollte auch ausgerechnet Intel nicht cheaten.
Die versuchen doch auch beim Intel eigenen Compiler andere aus zu bremsen.

Und für alle die sagen das es egal ist.
Ist es eben nicht. der 3DNark ist, ganz egal was man davon hält, ein Benchmark der genau festlegt was gemacht werden soll.
Und das bedeutet mit Sicherheit nicht das Intel machen kann was es will.
Auch wenn es der Verein selber glaubt sich alles erlauben zu dürfen.

kevsti
2009-10-15, 17:19:59
Im 3DMark Vantage @ Performance kommt man mit dem GMA X4500 aber mit der Optimierung auf 3000 Punkte und liegt damit gleichauf mit einer GeForce 9300 oder einer Radeon HD 3300 mit Sideport-Speicher und DDR3-RAM. Das ist einfach Wettbewerbsverzerrung, denn dort, wo es drauf ankommt, sieht ein GMA X4500 kein Land gegenüber den Konkurrenten. Die Optimierung hilft dort nicht mehr, weil man die CPU-Leistung für andere Dinge als Grafikberechnungen benötigt.
Intel weiß genau um die Bedeutung von 3DMark als Vergleichsmittel in vielen Reviews.
Die Frage ist eben, wie sehr andere Spiele von der Optimierung profitieren, wenn sie das eben nicht tun, da der CPU so schon ausgelastet genug ist - sehe ich es auch als Cheaten.

Aber was spricht ansonsten dagegen die CPU eben auch bei GPU Berechnungen als Beschleunigung zu verwenden? Und wenn man dies kann und tut und es was bringt, warum sollte dieser Vorteil ausgerechnet bei einem Benchmark nicht gezeigt werden?

Aber wie gesagt, falls Intel damit wirklich nur 3DMark beschleunigt ist es cheating

Gast
2009-10-17, 17:17:29
Nein.
Ein Benchmark soll bestimmte Berechnungen durchführen und das auch auf dafür vorgesehenen Einheiten/Devices.



Richtig ein Benchmark soll bestimmte Berechnungen durchführen, wie das gemacht wird obliegt noch immer dem Hardwarehersteller, so lange sich an den Berechnungen nichts ändert ist das auch völlig OK.

=Floi=
2009-10-17, 18:02:46
ich halte 3d mark schon für vergleichbar, weil er gezielt die grafikkarte fordert und auch unterschiede sichtbar machen kann die so noch nicht ersichtlich sind. zB war dort die echte performance einer 8800gt im vergleich zu einer 9600gt zu sehen. es gibt noch genug andere beipiele.
Der benchmark ist durchaus sinnvoll und zeit die stärken und schwächen einer karte.

Gast
2009-10-17, 22:36:45
Also wenn Intel nicht den Verdacht des Cheatens auf sich lenken will, dann sollten die diese Optimierung unabhängig von der laufenden Software nutzen.

Der_Donnervogel
2009-10-18, 01:53:28
Wenn man aber nur eine bestimmte App erkennen will, dann könnte man wohl z.B. eine Signatursuche wie bei Virenscannern einsetzen. Verlängert natürlich auch alles die Ladezeiten.Allerdings wohl nur in einem Rahmen den man ignorieren kann. Außerdem braucht man gar nicht so etwas aufwändiges wie bei Virenscannern. Die exe-Dateien enthalten eigentlich immer Information wie den Produktnamen (die ganzen Sachen die man sich im Explorer unter Details anschauen kann). Die werden von simplem umbenennen nicht geändert und diese Infos auslesen und gegen eine interne Liste abgleichen sollte kein Problem darstellen.

Gast
2009-10-18, 09:02:03
Die Frage ist eben, wie sehr andere Spiele von der Optimierung profitieren, wenn sie das eben nicht tun, da der CPU so schon ausgelastet genug ist - sehe ich es auch als Cheaten.

Aber was spricht ansonsten dagegen die CPU eben auch bei GPU Berechnungen als Beschleunigung zu verwenden? Und wenn man dies kann und tut und es was bringt, warum sollte dieser Vorteil ausgerechnet bei einem Benchmark nicht gezeigt werden?

Aber wie gesagt, falls Intel damit wirklich nur 3DMark beschleunigt ist es cheating

Die Frage die sich mir dabei stellt ist folgende:

Ist ein Spielehersteller wirklich so blöd und nutzt vorhandene Ressourcen nicht aus?

Klar sind die meisten Spiele schnell hingerotzt und werden mittlerweile fast ausschließlich als Beta veröffentlicht. Aber gerade wenn es um die _einfache_ Nutzung von vorhandenen Ressourcen geht, nutzt man diese auch gerne bis an die Grenzen um sich Programmieraufwand (Optimieraufwand) zu sparen.
Will heissen: Ist der Aufwand sehr gross um an die Leistung der CPU zu kommen wird sich kaum einer die Mühe machen. Ist der Aufwand sehr hoch (was ich hier sehr stark vermute) ist das ganze auch nicht von Interesse. Zudem kann ich mir nur sehr schwer vorstellen, dass nur die Intel CPU's dem Grafikchip auf diese Weise unter die Arme greifen können. Das ist eine reine Treiberspielerei von Intel. IMO testet man schon für den Ernstfall Larrabee. oO

Ailuros
2009-10-18, 09:10:55
Im 3DMark Vantage @ Performance kommt man mit dem GMA X4500 aber mit der Optimierung auf 3000 Punkte und liegt damit gleichauf mit einer GeForce 9300 oder einer Radeon HD 3300 mit Sideport-Speicher und DDR3-RAM. Das ist einfach Wettbewerbsverzerrung, denn dort, wo es drauf ankommt, sieht ein GMA X4500 kein Land gegenüber den Konkurrenten. Die Optimierung hilft dort nicht mehr, weil man die CPU-Leistung für andere Dinge als Grafikberechnungen benötigt.
Intel weiß genau um die Bedeutung von 3DMark als Vergleichsmittel in vielen Reviews.

Tja wenn es nur um die Reviews allein ginge waere es Intel total egal. Dummerweise spielen 3dfart05 & 06 scores immer noch eine Rolle als Faktor fuer diverse Vertraege in dieser Marktsparte.

Das ist eine reine Treiberspielerei von Intel. IMO testet man schon für den Ernstfall Larrabee.

Was genau hat ein IGP mit Larabee momentan gemeinsam? Erstens sind es zwei total verschiedene Maerkte, zweitens hat das chipset team nicht das geringste gemeinsam mit dem LRB team und drittens ist LRB immer noch ein Schiff dass sich gerade ueber Wasser halten kann als Projekt und wird wohl nicht so leicht in absehbarer Zeit auf Regalen erscheinen.

Gast
2009-10-18, 10:27:41
Das ist ja alles richtig. Aber man wird sich ja wohl vorher schlau machen wie so ein 3D-Mark, Futuremark etc. auf Optimierungen reagiert, welche Optimierungen grundsätzlich möglich sind und wie der Markt darauf reagiert. Bisher hat doch Intel auf so etwas keinen Wert legen müssen. Jetzt "spielt" man damit halt mal herum. ;) ... Wer braucht denn schon Optimierungen für Intel Grafikchipsätze im 3D-Mark ...

StevenB
2009-10-18, 11:18:31
Fürs Surfen reicht doch die X4500HD locker. :) Also ich bin ganz zufrieden damit, weil ich eh nicht mehr am PC zocke. Und mal ehrlich, wer will mit so einer Grafikkarte schon Spielen? 3D-Mark interessiert eh keinen richtigen "PC-Spieler". Wie schon einige geschrieben haben, ist das Programm eh nur ein "Schulhofschwanzvergleichsbenchmark".

Also ich kann da die Aufregung nicht verstehen, denn IGP und Spielen passen eh nicht zusammen.

smoe82
2009-10-18, 11:19:01
Ich hab gerade die News vom 16.10. gelesen und ich find die Vorgehensweise von Intel völlig ok. Gerade im Hinblick darauf, dass GPU und CPU vereint werden sollen. Sowas ist doch im Sinne der Spieler! Vielleicht sehen wir da in Zukunft noch bessere Optimierungen und NVidia und ATI springen auch auf den Zug. Eigentlich sollte es auch Aufgabe der Schnittstelle sein (DX, OGL...), die Tasks sinnvoll zwischen den Recheneinheiten des gesamten PCs zu verteilen.

Black-Scorpion
2009-10-18, 16:30:47
Ich hab gerade die News vom 16.10. gelesen und ich find die Vorgehensweise von Intel völlig ok. Gerade im Hinblick darauf, dass GPU und CPU vereint werden sollen. Sowas ist doch im Sinne der Spieler! Vielleicht sehen wir da in Zukunft noch bessere Optimierungen und NVidia und ATI springen auch auf den Zug. Eigentlich sollte es auch Aufgabe der Schnittstelle sein (DX, OGL...), die Tasks sinnvoll zwischen den Recheneinheiten des gesamten PCs zu verteilen.
Was ein Benchmark zu tun hat bestimmt allein der Entwickler und nicht der Möchtegern Grafikhersteller Intel.
Ein Benchmarkergebnis soll vergleichbar sein mit den anderen Herstellern.
Wie vergleichbar ist das jetzt nochmal?

Und Optimierungen gab es schon von beiden Herstellern und auch schon Ärger mit dem Entwickler deswegen.
Da braucht man ganz bestimmt nicht Intel um auf so eine Idee zu kommen.

Wuge
2009-10-18, 17:40:59
Entscheidend ist was hinten raus kommt. Wenn Audiolösungen vergleichen werden fragt doch auch keiner was die CPU macht und was der DSP?!?

Da es offenbar nicht nur den Sinnlosmark betrifft sehe ich da kein Problem sondern ehr einen Ansatz die schwache IGP mit CPU-Power zu stützen.

Gast
2009-10-18, 17:58:34
Ach also würden es wieder alle OK finden wenn im Physik-PhysX Teil vom Schwanzmark diese auf NV GPU beschleunigt und bei AtI auf einem Kern der CPU laufen würde wenn "doch nur zählt was hinten rauskommt".

Coda
2009-10-18, 18:58:28
Allerdings wohl nur in einem Rahmen den man ignorieren kann. Außerdem braucht man gar nicht so etwas aufwändiges wie bei Virenscannern. Die exe-Dateien enthalten eigentlich immer Information wie den Produktnamen (die ganzen Sachen die man sich im Explorer unter Details anschauen kann). Die werden von simplem umbenennen nicht geändert und diese Infos auslesen und gegen eine interne Liste abgleichen sollte kein Problem darstellen.
Jain. Man will ja sicherstellen, dass geänderter Shader-Code auch noch läuft und nicht einfach ersetzt wird. Der kann sich ja z.B. durch einen Patch oder eine Benutzermodifikation durchaus ändern.

Das heißt man muss explizit nach einer Version scannen. NVIDIA hat das z.B. in Doom 3 genau so getan. Der Shadercode wird nur ausgetauscht wenn er semantisch genau dem mitgelieferten entspricht.

LovesuckZ
2009-10-18, 19:25:28
Entscheidend ist was hinten raus kommt. Wenn Audiolösungen vergleichen werden fragt doch auch keiner was die CPU macht und was der DSP?!?

Da es offenbar nicht nur den Sinnlosmark betrifft sehe ich da kein Problem sondern ehr einen Ansatz die schwache IGP mit CPU-Power zu stützen.

Ja - weil in einem GPU-Test genug CPU-Leistung zur Verfügung steht. Das nennt man im Wortschatz einfach cheaten, weil nicht die GPU-Leistung sondern die GPU+CPU Leistung gemessen wird. Wie lange haben wir gehadert, dass der 3DMark in den GPU-Test viel zu CPU-lastig war. Und jetzt freuen wir uns, dass wir freie CPU-Leistung wieder in die Vergleiche reinziehen?

Ailuros
2009-10-18, 19:38:25
Das ist ja alles richtig. Aber man wird sich ja wohl vorher schlau machen wie so ein 3D-Mark, Futuremark etc. auf Optimierungen reagiert, welche Optimierungen grundsätzlich möglich sind und wie der Markt darauf reagiert. Bisher hat doch Intel auf so etwas keinen Wert legen müssen. Jetzt "spielt" man damit halt mal herum. ;) ... Wer braucht denn schon Optimierungen für Intel Grafikchipsätze im 3D-Mark ...

Intel um keine Vertraege an die Konkurrenz zu verlieren (siehe auch meinen vorigen Post).

Fürs Surfen reicht doch die X4500HD locker. :) Also ich bin ganz zufrieden damit, weil ich eh nicht mehr am PC zocke. Und mal ehrlich, wer will mit so einer Grafikkarte schon Spielen? 3D-Mark interessiert eh keinen richtigen "PC-Spieler". Wie schon einige geschrieben haben, ist das Programm eh nur ein "Schulhofschwanzvergleichsbenchmark".

Also ich kann da die Aufregung nicht verstehen, denn IGP und Spielen passen eh nicht zusammen.

Das gerechtfertigt aber den fraglichen Eingriff von Intel in den Benchmark nicht.

Ich hab gerade die News vom 16.10. gelesen und ich find die Vorgehensweise von Intel völlig ok. Gerade im Hinblick darauf, dass GPU und CPU vereint werden sollen. Sowas ist doch im Sinne der Spieler! Vielleicht sehen wir da in Zukunft noch bessere Optimierungen und NVidia und ATI springen auch auf den Zug. Eigentlich sollte es auch Aufgabe der Schnittstelle sein (DX, OGL...), die Tasks sinnvoll zwischen den Recheneinheiten des gesamten PCs zu verteilen.

Jemand sollte endlich mal einen Artikel schreiben und endlich mal erklaeren was ein System On Chip genau ist. Eine CPU bleibt eine CPU und eine GPU eine GPU selbst in einem SoC.

Wuge
2009-10-18, 21:15:20
Ja - weil in einem GPU-Test genug CPU-Leistung zur Verfügung steht. Das nennt man im Wortschatz einfach cheaten, weil nicht die GPU-Leistung sondern die GPU+CPU Leistung gemessen wird.


Man könnte es auch Load-Balancing nennen. Für mich ist das ganz einfach, wenn die erzeugte Bildqualität die gleiche ist, dann ist es kein Cheat sondern eine Optimierung.

Der Treiber zeigt einfach auf, dass der 3DMark nicht taugt um eine reale Spielsituation abzubilden.

Oder anders: Was kann Intel dafür, wenn die anderen Hersteller die CPU nicht anständig nutzen?

Von mir aus könnte Intel auch einen Softwarerenderer im Bundle mit einer DVI-Karte verkaufen. Solange es funktioniert...

Vorsicht: Post ist bewußt provokant formuliert. Soll nur zum Nachdenken anregen. Dem Verfasser ist das Thema eigentlich egal, da im realen Betrieb (Gaming nur mit "echter" Grafiklösung) belanglos. :)

Coda
2009-10-18, 22:02:50
Man könnte es auch Load-Balancing nennen.
Ist es aber nicht. Falls die CPU schwach ist wird das sogar zu niedrigeren Frameraten führen.

Wenn es das wäre hätte ich auch keine Probleme damit, aber so stinkt es einfach zum Himmel.

Oder anders: Was kann Intel dafür, wenn die anderen Hersteller die CPU nicht anständig nutzen?
Tun sie bei GPUs wohl sogar, nur nicht ohne echtes Load-Balancing.

Wuge
2009-10-18, 22:09:10
Ist es aber nicht. Falls die CPU schwach ist wird das sogar zu niedrigeren Frameraten führen.

Wenn es das wäre hätte ich auch keine Probleme damit, aber so stinkt es einfach zum Himmel.

Schon richtig aber schaut man sich mal die Praxis an, so sind die verbauten CPUs jeder Situation gewachsen, die der IGP halbwegs flüssig darstellen kann. Selbst ein einfacher C2D mit 2,4 Ghz wird wohl in keiner praktisch relevanten Situation zum Flaschenhals der 3D Darstellung, wenn ein Intel IGP verbaut ist.

Wuge
2009-10-18, 22:12:03
Tun sie bei GPUs wohl sogar, nur nicht ohne echtes Load-Balancing.

Wenn überhaupt dann sehr eingeschränkt. Oder warum habe ich 6 1/2 von 8 CPU Threads Idle, während PHysX die 8800 GTS in die Knie zwingt?

V2.0
2009-10-19, 07:46:27
In OEM Deals wird öfters eine gewissen Spielefähigkeit gefprdert und die bestimmt man nicht ungern über eine Mindestscore im Murks. Ergo macht der Cheat den Intel GMX zur Konkurrenz von den anderen IGPs, wenn es um solche Deals geht, obwohl er es in der Praxis nicht ist.

Shink
2009-10-19, 13:22:27
Jemand sollte endlich mal einen Artikel schreiben und endlich mal erklaeren was ein System On Chip genau ist. Eine CPU bleibt eine CPU und eine GPU eine GPU selbst in einem SoC.
Ja, schön wenn das theoretisch getrennt bleibt. Aber warum soll die reine GPU-Leistung interessieren wenn man die GPU nur im vom Kunden nicht trennbaren SoC bekommt? (Betrifft jetzt natürlich zukünftige SoCs)

Ailuros
2009-10-19, 13:38:48
Ja, schön wenn das theoretisch getrennt bleibt.

Es bleibt nicht nur auf theoretischer Basis getrennt.

Aber warum soll die reine GPU-Leistung interessieren wenn man die GPU nur im vom Kunden nicht trennbaren SoC bekommt? (Betrifft jetzt natürlich zukünftige SoCs)

Der Otto-Normalverbraucher wird so oder so keinen Unterschied bemerken da solche SoCs eher die heutigen IGPs ersetzen werden fuer notebooks und PCs (in netbooks haben wir's schon SoC seit einiger Zeit) und dabei aendern sich lediglich die Art der Integrierung und sonst nichts besonderes.

Wenn Du heute ein high end smartphone in die Spezifikationen schausst steht auch ueberall drin ARM X CPU und Qualcolmm, Tegra oder PowerVR GPU. Ausser Du willst einer vereinfachten Logik folgen wo z.B. eine XBox Console einfach eine XBox Console ist egal ob 1 oder 360 und was genau in jeglicher drinsteckt.

Anders ich hab in der Zukunft sagen wir mal 4 Fusion Varianten von AMD. Wie genau willst Du erkennen als Kunde welches Modell fuer Deine Ansprueche besser geeignet ist wenn es nicht solche Separationen geben wird?

Coda
2009-10-19, 13:52:52
Wenn überhaupt dann sehr eingeschränkt. Oder warum habe ich 6 1/2 von 8 CPU Threads Idle, während PHysX die 8800 GTS in die Knie zwingt?
Weil eine 8800 GTS keine IGP ist. Selbst alle CPU-Kerne würden das Vertex-Shading (inkl. möglicher Texture-Loads) wohl langsamer durchführen.

Shink
2009-10-19, 13:59:47
Der Otto-Normalverbraucher wird so oder so keinen Unterschied bemerken da solche SoCs eher die heutigen IGPs ersetzen werden fuer notebooks und PCs (in netbooks haben wir's schon SoC seit einiger Zeit) und dabei aendern sich lediglich die Art der Integrierung und sonst nichts besonderes.
Der Unterschied ist eben dass man heute die Wahl zwischen verschiedenen IGPs oder auch einer dedizierten Grafikkarte hat. Mit einem Pineview o.ä. geht das dann wohl nicht mehr. Genausowenig kann man die GPU des Pineview irgendwo anders verwenden.
Was bringt es da z.B. zu wissen wie schnell die GPU des Pineview CPU-unabhängig wirklich ist wenn es sie nur im Pineview gibt?

Anders ich hab in der Zukunft sagen wir mal 4 Fusion Varianten von AMD. Wie genau willst Du erkennen als Kunde welches Modell fuer Deine Ansprueche besser geeignet ist wenn es nicht solche Separationen geben wird?
Naja, man kann ja Packages CPU-GPU rausbringen die Sinn machen. Also z.B. die schnellste integrierte GPU gibt es nicht am selben Chip wie den langsamsten Prozessor, die langsamste GPU nicht bei den hochgetakteten Modellen etc.

Ailuros
2009-10-19, 14:50:22
Der Unterschied ist eben dass man heute die Wahl zwischen verschiedenen IGPs oder auch einer dedizierten Grafikkarte hat. Mit einem Pineview o.ä. geht das dann wohl nicht mehr. Genausowenig kann man die GPU des Pineview irgendwo anders verwenden.

Wenn die Hersteller nichts dagegen anrichten werden im PC Markt langfristig, verliert eine jegliche Platform wichtige Flexibilitaet.

Was bringt es da z.B. zu wissen wie schnell die GPU des Pineview CPU-unabhängig wirklich ist wenn es sie nur im Pineview gibt?

Und was passiert wenn ich zwei SoCs von Samsung habe mit der gleichen CPU aber verschiedener GPU?

Naja, man kann ja Packages CPU-GPU rausbringen die Sinn machen. Also z.B. die schnellste integrierte GPU gibt es nicht am selben Chip wie den langsamsten Prozessor, die langsamste GPU nicht bei den hochgetakteten Modellen etc.

So wie die marketing slides von AMD Fusion bis jetzt beschrieben haben variiert die Anzahl an CPU und GPU cores in verschiedenen zukuenftigen SoCs je nachdem fuer was man A, B, C,D usw. genau benutzen will.

http://www.amd.com/us-en/assets/content_type/DownloadableAssets/AMD_ATI_Investor_091206.pdf

Slide 10 und ja natuerlich ist es nur schematisches marketing aber man kann schon in etwas verstehen um es sich handeln wird.

_DrillSarge]I[
2009-10-19, 14:55:40
In OEM Deals wird öfters eine gewissen Spielefähigkeit gefprdert und die bestimmt man nicht ungern über eine Mindestscore im Murks. Ergo macht der Cheat den Intel GMX zur Konkurrenz von den anderen IGPs, wenn es um solche Deals geht, obwohl er es in der Praxis nicht ist.
so werden die deals bestimmt nicht gemacht. eher: ihr nehmt nur die cpu? - 80$. ihr nemt chipsatz und cpu? -auch 80$ :D (siehe atom preispolitik)
intel ist sich durchaus bewusst, dass ihre igps müll sind. und solange sich das nicht ändert, können sie von mir aus auf ihrem letzten platz rumcheaten wie sie wollen ;D.

Ailuros
2009-10-19, 19:48:59
I[;7605594']so werden die deals bestimmt nicht gemacht. eher: ihr nehmt nur die cpu? - 80$. ihr nemt chipsatz und cpu? -auch 80$ :D (siehe atom preispolitik)
intel ist sich durchaus bewusst, dass ihre igps müll sind. und solange sich das nicht ändert, können sie von mir aus auf ihrem letzten platz rumcheaten wie sie wollen ;D.

Ich bin mir mehr als nur sicher dass 3dmark 05 & 06 Resultate eine ziemliche bedeutende Rolle fuer Vertraege in diesem Markt spielen.

_DrillSarge]I[
2009-10-19, 19:55:13
Ich bin mir mehr als nur sicher dass 3dmark 05 & 06 Resultate eine ziemliche bedeutende Rolle fuer Vertraege in diesem Markt spielen.
ich glaube nicht, dass die hohe marktdurchdringung von intel igps (notebooks!) daran liegt ;). *hint*

Ailuros
2009-10-19, 20:14:21
I[;7606241']ich glaube nicht, dass die hohe marktdurchdringung von intel igps (notebooks!) daran liegt ;). *hint*

Ein Grund mehr Mist wie 3dmark liegen zu lassen und nicht dafuer zu optimieren. Es ist ja so dass Intel's IGPs zweiffellos fuer die effizienteste und stabilste Treiber im IGP Markt stehen, was wohl der eigentliche Grund ist dass sich das Zeug wie warme Semmeln verkaufen laesst. :rolleyes:

_DrillSarge]I[
2009-10-19, 20:38:14
Es ist ja so dass Intel's IGPs zweiffellos fuer die effizienteste und stabilste Treiber im IGP Markt stehen, was wohl der eigentliche Grund ist dass sich das Zeug wie warme Semmeln verkaufen laesst. :rolleyes:
das meinte ich eigentlich nicht. ich umschreibe es mal nett mit "bundle-verkäufen".

Ailuros
2009-10-19, 20:49:15
I[;7606335']das meinte ich eigentlich nicht. ich umschreibe es mal nett mit "bundle-verkäufen".

Man kann es durchaus so sehen. Es bleibt aber dabei dass Intel so oder so jegliche zweifelhafte Optimierungen nicht noetig hat. Irgendwo muessen sie schon einen Grund haben zu solchen Massnahmen zu greifen oder?

PulsarS
2009-10-19, 22:30:28
Ich glaube einige hier haben den Sinn des Worts Benchmark nicht verstanden...
Ein Benchmark gibt bestimmte Rechenoperationen vor, dies ist auch auf GPU oder CPU spezifiziert.
Es macht im Endergebniss keinen Unterschied, ob ob ich:
8+8+8+8+8+8+8+8
oder
8*8
rechne.
Dafür werden aber andere "Recheneinheiten" in der GPU/CPU benutzt. Grob gesagt.
Das ist aber nicht der Sinn des Benchmarks.
Der Benchmark soll so berechnet weren, wie es der Autor vorsieht.
Alles andere ist Cheating.

Gast
2009-10-20, 03:10:57
Der Benchmark soll so berechnet weren, wie es der Autor vorsieht.
Alles andere ist Cheating.

Meiner Meinung nach ist diese Denkweise nicht richtig.
Wenn ich der 3DCenter News glauben schenken darf, wird die gleiche vorgehensweise bereits bei normalen Games angewandt und ist daher in der Praxis ein Feature.

Warum sollte Intel dieses Feature abschalten/deaktivieren, nur für diesen Benchmark? Wenn der Benchmark nicht in der Lage ist, das zu erkennen, dann ist das halt das Problem des Benchmarks, der das nicht berücksichtigt.

es kann auch kein cheating sein, wenn es ein feature ist, das in der praxis einen positiven Nutzen hat. Warum sollte ich auf 20% extra leistung hier und da verzichten???
Ihr schaltet doch auch nicht eure High-End Graka in den Sparmodus (z.B. 2D-Taktraten) wenn ihr volle Leistung in 3D Anwendungen wollt. Das ergibt einfach keinen Sinn.

Problem ist doch in erster Linie, das der Benchmark diesen neuartigen Anwendungsfall gar nicht berücksichtigt und das ist sicher nichts Intels Problem.
Ich pfeife lieber auf den Benchmark als auf die extraleistung in diversen Anwendungen. :)

RoNsOn Xs
2009-10-20, 03:15:14
ein benchmark soll in erster linie ein vergleichsbasis bieten mit anderen grafiklösungen. ...
so kann es einen passieren, dass der endanwender das vermeintlich bessere produkt kauft, weils ja im benchmark einen längeren balken hatte, im "rl" dann aber plötzlich ganz anders kommt...

Gast
2009-10-20, 03:20:02
ein benchmark soll in erster linie ein vergleichsbasis bieten mit anderen grafiklösungen. ...

Deswegen deaktiviert man trotzdem keine Hardwareinheiten oder Treiber-Features. Bremst du seine Geforce oder Radeon absichtlich ein, wenn du vergleichst?? (Wo ist dann noch der Vergleich?)

Das Feature soll ja dazu dienen, die Leistung zu steigern und das tut es laut 3DC News auch in diversen anderen Anwendungen.

Wie behämmert ist denn das bitte, wenn ihr eine leistungssteigernde Funktion deaktiviert?? Dann ist ja kein Vergleich mehr gegeben! Eine Hardware sollte so verglichen werden, sie sie bereitgestellt wird. Also auch mit Intel-Treibern.

Wir könnten es doch auch anders machen: Wieso ziehen die anderen Hersteller nicht nach und verlagern ebenfalls diverse Berechnungen auf die CPU?

Gast
2009-10-20, 03:49:33
Das ganze Prozedere erinnert mich stark an damals, wo es noch "Software T&L" und "Hardware T&L" Benches gab.

Welcher Depp würde denn heute auf die Idee kommen, Software T&L zu benchen, wenn die Karte darauf ausgelegt ist, möglichst viel in Hardware zu berechnen und so deutliche Leistungssteigerungen erzielbar wären?
Soweit ich mich zurück erinnern kann, hat man damals auch "unfair" gebencht, da es gar nicht anders ging: Geforce & Voodoo.

Man hat die Produkte so gebencht, wie sie ausgeliefert wurden und wenn eine Karte ein bestimmtes Feature nicht kann, ist das halt so, trotzdem bringt sie eine gewisse Grafikleistung.
Desweiteren hat man versucht möglichst die gleiche Bildqualität zu erreichen, aber das ist damals unmöglich gewesen. Als ich noch einen CRT nutzte, war die Bildqualität selbst bei höchster Treibereinstellung höchst unterschiedlich. Wie will ich da denn fair messen? Wenn der VGA-Ausgang dafür sorgt, das ich nen schlechteres Bild habe (und das hatte ich, bei einigen ATi karten wars sehr unscharf, bei anderen nicht), ist der Vergleich dann noch fair? Schließlich ist das Ergebniss ja nicht das gleiche gewesen. Ich habe zwar ein Leistungsbench gehabt, aber die Bildqualität war trotzdem nicht vergleichbar... so war das halt.

Und wer sollte sich hier nach wen richten? Intels gutes Recht ist es, so viel Grafikhardware und Treiber zu entwickeln wie sie wollen. Intel entwickelt die Hardware und dann sollen wir uns nach einem belanglosen Bench-Hersteller richten? Ich verstehs nicht.
Richtet ihr euch auf eurer Arbeit auch nach dem Postmann bevor ihr anfangt was zu tun? :)

Shink
2009-10-20, 08:19:35
ein benchmark soll in erster linie ein vergleichsbasis bieten mit anderen grafiklösungen. ...
... sowie natürlich deren Treiber. Die Grafiklösungen könnte man wohl mit sehr theoretischen Tests auch vergleichen, das wäre aber nicht relevant.

Es ist ja durchaus so dass unterschiedliche Treiber unterschiedlich viel CPU-Last verursachen.

Gast
2009-10-20, 12:06:05
8+8+8+8+8+8+8+8
oder
8*8
rechne.
Dafür werden aber andere "Recheneinheiten" in der GPU/CPU benutzt. Grob gesagt.
Das ist aber nicht der Sinn des Benchmarks.
Der Benchmark soll so berechnet weren, wie es der Autor vorsieht.
Alles andere ist Cheating.


Dann "cheatet" aber jeder Shadercompiler. Gerade bei deinem Fall werden das viele erkennen und wirklich 8*8 rechnen.

Achja, eine out-of-order-CPU cheated dann auch, schließlich führt sie die Befehle nicht aus wie es der Entwickler vorgesehen hat, sondern so wie es am schnellsten geht (natürlich ohne etwas am Ergebnis zu ändern)

Es wäre wirklich dämlich, wenn intel ein Feature, welches offensichtlich auch praktischen nutzen hat nur für einen Benchmark zu deaktivieren.

BTW: Ich bin mir ziemlich sicher, dass auch andere GPU-Hersteller ähnliches bereits gemacht haben, allerdings mit echtem load-balancing, ohne Anwendungserkennung, das kann man dann natürlich nicht durch Umbenennen der .exe entlarven.

PulsarS
2009-10-20, 12:42:26
Dann "cheatet" aber jeder Shadercompiler. Gerade bei deinem Fall werden das viele erkennen und wirklich 8*8 rechnen.

Achja, eine out-of-order-CPU cheated dann auch, schließlich führt sie die Befehle nicht aus wie es der Entwickler vorgesehen hat, sondern so wie es am schnellsten geht (natürlich ohne etwas am Ergebnis zu ändern)

Es wäre wirklich dämlich, wenn intel ein Feature, welches offensichtlich auch praktischen nutzen hat nur für einen Benchmark zu deaktivieren.

BTW: Ich bin mir ziemlich sicher, dass auch andere GPU-Hersteller ähnliches bereits gemacht haben, allerdings mit echtem load-balancing, ohne Anwendungserkennung, das kann man dann natürlich nicht durch Umbenennen der .exe entlarven.
Ich habe extra ein sehr einfaches Beispiel (bildhaft) gewählt, damit auch jeder den Sinn versteht. :)

san.salvador
2009-10-20, 12:44:57
Ich habe extra ein sehr einfaches Beispiel (bildhaft) gewählt, damit auch jeder den Sinn versteht. :)
Es stimmt nur nicht. ;)

RoNsOn Xs
2009-10-20, 13:48:24
für mich ist das doping und kein feature. mit hilfe einer unterstützung bin ich als läufer auf 100m schneller, als ich es selbst könnte. nehme ich ein etwas schwächeres mittel (cpu), bin ich auch nur noch etwas schneller, als normal. wo ist denn da noch der vergleich?
auf meinen letzten satz bist du, gast, trotzdem nicht eingegangen. für mich wäre das doch glatter beschiss als endanwender, wenn das eine spiel keine solche "optimierung" bereit hält und ich es so gar nicht spielen könnte, wenn ich mir nicht gerad das produkt von der konkurrenz zugelegt hätte. am arsch!

Gast
2009-10-20, 15:43:13
Es ist dasselbe wie mit Nvidias PhysX im Vantage: Es greift dort eine Recheneinheit ein, die dafür bei Futuremark nicht vorgesehen war. Der Workload wird für die zu testende Einheit verringert.


Vielleicht sollte man mal Quadcore-Notebooks mit IGP einem Laufzeit-Test unterziehen. Dann würde Intels tolle Optimierung aber schnell ins Gegenteil umschlagen: 3DMarks/Batteriefüllung goes down.

LovesuckZ
2009-10-20, 16:09:50
Es ist dasselbe wie mit Nvidias PhysX im Vantage: Es greift dort eine Recheneinheit ein, die dafür bei Futuremark nicht vorgesehen war. Der Workload wird für die zu testende Einheit verringert.

Nein, das stimmt nicht. Futuremark wollte, dass die PhysX-Karte der CPU unter die Arme greift. Dies war im GPU Benchmark nicht gewollt.

Gast
2009-10-20, 16:42:22
Es ist dasselbe wie mit Nvidias PhysX im Vantage: Es greift dort eine Recheneinheit ein, die dafür bei Futuremark nicht vorgesehen war. Der Workload wird für die zu testende Einheit verringert.

Der PhysX-Test ist für die PhysX-Karte gedacht. Wenn diese Karte auch nebenher Bilder ausgeben kann ist das natürlich auch kein Fehler.

san.salvador
2009-10-20, 16:45:00
Wieder ein gutes Beispiel dafür, dass der 3DMurks eine Fehlkonstruktion ist. Wollen kann man viel, aber an der Umsetzung scheiterts dann halt oft.

Grestorn
2009-10-20, 16:45:44
Wie sollte man es denn besser konstruieren?

DavidC1
2009-11-06, 14:24:50
http://www.tomshardware.com/reviews/amd-785g-chipset,2381-8.html

3DMark Vantage=FAIL

9300 in Vantage=25% faster than 790GX

9300 in real games=slower than 790GX