PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - HD Graphics 4000 und 2500: (P)Review-Thread


AnarchX
2012-03-07, 08:43:44
16 EUs bzw. 6 EUs (http://pics.computerbase.de/3/4/3/4/8/4.png)
DX11, DirectCompute und OpenCL
runde AF-Blume (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/16)
284 GFLOPs (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9265759#post9265759) MADD @ HD 4000 1,15GHz


Testberichte/Artikel:

Anandtech Preview@3770K (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/11)
Expreview Preview @3570K (http://en.expreview.com/2012/02/19/ivy-bridge-core-i5-3570k-engineering-sample-test/21214.html)
Inpai: HD 4000 @ 3770K vs HD 3000 vs 6550D vs 6530D (http://www.inpai.com.cn/doc/hard/171055_30.htm)
Computerbase - Test: Intel Graphics HD 4000 & 2500 (http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/2/#abschnitt_die_grafikeinheit_im_detail)
Anandtech: Mobile HD 4000 (http://www.anandtech.com/show/5772/mobile-ivy-bridge-and-asus-n56vm-preview/6)
Hardtecs4u: HD 4000 Detailbetrachtung (http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index13.php)
HardwareCanucks: HD 4000 @ DDR3-1866 (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/53054-intel-i7-3770k-ivy-bridge-cpu-review-21.html)
RealWorldTech: Architektur-Betrachtung (http://www.realworldtech.com/page.cfm?ArticleID=RWT042212225031)

Zergra
2012-03-07, 08:54:51
Oh man, naja nicht wirklich eine überraschung vorallem wenn man sieht wie lang Intel dafür gebraucht hat.
Und so Stark hast die Leistung jetzt nicht zugenommen da hätte man mehr Erwarten
können.

Spasstiger
2012-03-07, 09:05:02
In Spielen durchgehend langsamer als Llano, hatte da ein knapperes Ergebnis erwartet. Die Performancesteigerung entspricht meist nur der Erhöhung der Zahl von Execution Units.

Undertaker
2012-03-07, 09:09:49
Teilweise nicht einmal ganz das... Da muss eigentlich noch Potential in den Treibern stecken. Immerhin sollte es zumindest im wichtigen Mobilbereich recht gut aussehen, da man dort praktisch die identische GPU-Leistung wie bei den Desktop-Topmodellen anbieten wird.

Spasstiger
2012-03-07, 09:20:35
Bei Expreview, wo ein i5-2500K statt dem i7-2600K als Sandy-Bridge-Lösung verwendet wurde, sieht es deutlich besser für die Intel HD 4000 gegenüber der HD 3000 aus, im Schnitt 67% schneller.
Beim einzigen direkt vergleichbaren Benchmark Dirt 3 (Ingame-Benchmark @ medium-Settings) schneidet der Sandy Bridge bei Expreview deutlich schlechter ab als bei Anandtech.
/EDIT: Die Intel HD 3000 im i7-2600K taktet 23% höher als die im i5-2500K. Das erklärt natürlich den großen Unterschied zwischen den beiden Reviews (1,33*1,23=1,64).

Teilweise nicht einmal ganz das... Da muss eigentlich noch Potential in den Treibern stecken. Immerhin sollte es zumindest im wichtigen Mobilbereich recht gut aussehen, da man dort praktisch die identische GPU-Leistung wie bei den Desktop-Topmodellen anbieten wird.
Jo, die mobilen Llano sind taktmäßig ziemlich beschnitten, sowohl CPU-seitig (max. 1,9 GHz @ 4 Cores vs. max. 3,0 GHz @ 4 Cores) als auch GPU-seitig (max. 444 MHz vs. max. 600 MHz). Da könnte es zu einem Sieg für die Intel-Lösungen bei Spielen reichen.

Ronny145
2012-03-07, 12:00:00
Die iGPU im 2500k taktet mit 1100 Mhz taktet während der 2600k mit 1350 Mhz taktet. Außerdem ist Vantage im Durchschnitt bei expreview mit drin. Wieso Anand die Treiberversion nicht angibt bleibt mir ein Rätsel. Das kann von uralt bis aktuell alles bedeuten. Eine mobile HD4000 mit 1200 Mhz sollte aber Llano im Notebook erreichen können. Wenn sich der Rückstand zu Llano im Desktop auf 20-25% mit launch Treibern einpendelt, wäre das ok, mehr wird nicht drin sein.

Pirx
2012-03-07, 12:25:49
Damit ist Intel GPU-seitig von den reinen fps schon bald dran, oder zumindest auf einem Level, mit dem man arbeiten/spielen kann. Dann noch DX11, Opencl usw.

Gipsel
2012-03-07, 14:20:11
runde AF-Blume (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/16)
Mit häßlichen Spikes, die eine fehlerhafte LOD-Berechnung anzeigen. Da könnte intel für HD5000/Haswell nochmal dran feilen. Aber ist immerhin wohl schon deutlich besser geworden.

fdk
2012-03-07, 14:42:00
GPGPU und Quicksync sehen ja schon einmal gut aus. Vor allem wenn man das vergleichsweise schmale Budet an die-Fläche und TDP berücksichtigt.

AnarchX
2012-03-07, 14:57:17
Fast 50mm² @ 22nm sind nicht so wenig. Mit PCIe und Display-Controllern, wäre das wohl auf 28nm Bulk vergleichbar zu einem halben Cape Verde.

Spasstiger
2012-03-07, 15:25:01
Und die Llano-GPU wäre in 22 nm wohl auch nicht größer als die Ivy-Bridge-GPU, ist aber in 3D trotz halb so hoher Taktraten schneller. Intel hat halt den Vorteil des 22-nm-Prozess, ansonsten kochen sie auch nur mit Wasser.

Coda
2012-03-07, 15:37:42
runde AF-Blume (http://www.anandtech.com/show/5626/ivy-bridge-preview-core-i7-3770k/16)
Da sind aber immer noch sichtbar Ungenauigkeiten drin.

Mit häßlichen Spikes, die eine fehlerhafte LOD-Berechnung anzeigen. Da könnte intel für HD5000/Haswell nochmal dran feilen. Aber ist immerhin wohl schon deutlich besser geworden.
Die Ungenaugkeit betrifft die Gradienten, nicht das LOD.

Spasstiger
2012-03-07, 15:44:05
Gibts für die Gradientenberechnung irgendwelche Heuristiken, mit denen man Hardware bzw. Rechenzeit einspart und so eine fast runde Blume erhält? Scheint ein unüblicher Weg zu sein, den Intel mit dem AF geht.

P.S.: In 10 Jahren werden sich die Leute fragen, woher die AF-Blume ihren Namen hat. ;)

Ronny145
2012-03-07, 15:50:00
Und die Llano-GPU wäre in 22 nm wohl auch nicht größer als die Ivy-Bridge-GPU


Wie kommst Du darauf? Die Ivy Bridge GPU fällt auf dem Die etwa 10% größer aus als die Sandy Bridge iGPU. Llanos iGPU ist etwa doppelt so groß wie die von Sandy Bridge. Da fällt einiges.

Spasstiger
2012-03-07, 15:55:00
Der Llano-IGP dürfte rund 100 mm² auf dem Die beanspruchen, allerdings in 32 nm. In 22 nm kannst du den Flächenbedarf fast halbieren (22^2/32^2=0,47), womit wir wieder bei den ~50 mm² des Ivy-Bridge-IGP sind.

Ronny145
2012-03-07, 16:22:18
Der Llano-IGP dürfte rund 100 mm² auf dem Die beanspruchen, allerdings in 32 nm. In 22 nm kannst du den Flächenbedarf fast halbieren (22^2/32^2=0,47), womit wir wieder bei den ~50 mm² des Ivy-Bridge-IGP sind.


In der Halbierung wird die Ungenauigkeit liegen. Ivy Bridge runterskaliert auf eine fiktive Sandy Bridge iGPU liegt nicht annähernd bei einer Halbierung. Die CPU Kerne sind quasi gleich geblieben.

AnarchX
2012-03-07, 16:30:17
Herkömmliche GPU-Designs können mit einem Fullnode-Wechsel durchaus ihre 70% zusätzliche Transitordichte dazugewinnen. Bei Intel scheint das etwas anders zu sein. Die EUs sind praktisch gleich groß geblieben zwischen SNB und IVB, wobei letzerer mehr Instruktionen pro Takt durchführen können sollte.

Vielleicht gibt es zum Launch von Intel auch mal einen Transistorcount für die GPU.

Ronny145
2012-03-07, 16:40:43
Herkömmliche GPU-Designs können mit einem Fullnode-Wechsel durchaus ihre 70% zusätzliche Transitordichte dazugewinnen. Bei Intel scheint das etwas anders zu sein. Die EUs sind praktisch gleich groß geblieben zwischen SNB und IVB, wobei letzerer mehr Instruktionen pro Takt durchführen können sollte.

Vielleicht gibt es zum Launch von Intel auch mal einen Transistorcount für die GPU.


Llanos iGPU nimmt ~40% der gesamten Fläche ein, die Ivy Bridge iGPU ~30%. Gesamtfläche lag bekanntlich ähnlich zwischen Llano und Sandy Bridge. Schon an der prozentualen Fläche der iGPU muss Llano größer bleiben. Oder verringert sich der Anteil auf 30% mit einem Shrink?

fondness
2012-03-07, 16:42:11
Llanos iGPU nimmt ~40% der gesamten Fläche ein, die Ivy Bridge iGPU ~30%. Gesamtfläche lag bekanntlich ähnlich zwischen Llano und Sandy Bridge. Schon an der prozentualen Fläche der iGPU muss Llano größer bleiben. Oder verringert sich der Anteil auf 30% mit einem Shrink?

Warum kommst du jetzt mit SandyBridge? Ein IvyBridge läge in 32nm wohl nahe an 300mm² Die-Fläche. Intel hat schlicht das Glück einen full-node vorne zu sein.

Ronny145
2012-03-07, 16:46:43
Was? Ein IvyBridge läge in 32nm wohl nahe an 300mm² Die-Fläche. Intel hat schlicht das Glück einen full-node vorne zu sein.


Das hat damit nichts zu tun. Wir reden von der iGPU Fläche. Ändert nichts daran, dass Llanos iGPU um einiges größer wäre. Oder soll sich der Flächenanteil auf 30% verringern?

Gipsel
2012-03-07, 17:05:01
Die Ungenaugkeit betrifft die Gradienten, nicht das LOD.
Intels HD4000 sampelt dort stellenweise aufgrund der Ungenauigkeiten aus der falschen MipMap, deswegen sprach ich vom LOD, der sich ja aus den (eventuell ungenauen) Gradienten ergibt. Es könnte übrigens auch sein, daß auch ohne AF die Übergänge zwischen den Mipmaps etwas unsauber aussehen würden. War bei alten GPUs von nV und ATI auch so.

Letztendlich ist es für uns egal, wo das herkommt, sei es bereits bei der Interpolation der Texturkoordinaten für jeden Pixel (was dann als Folge auch die Gradienten verfälscht), die Berechnung der Gradienten selbst (da würde ich fast meinen, daß da kaum was schiefgehen kann, schließlich sind es ganz einfach nur die Differenzen der Texturkoordinaten in einem Quad) oder dann schlußendlich die Bestimmung des LOD bei bi- oder tri-Filter bzw. zusätzlich noch die Bestimmung der line of anisotropy mitsamt der Samplepositionen und Gewichte aus den Gradienten bei AF (der letzte Schritt der Errechnung des LOD/AF-Grades aus den Gradienten wäre meine Vermutung der Ursache).

Bei alten GPUs hat man schon an der Präzision der Interpolatoren gespart (wird heute von AMD und nV in den ALUs/SFUs mit voller SP-Genauigkeit gemacht, wenn Intel da sparen würde, haben sie meiner Meinung nach einen an der Klatsche, aber man weiß ja nie), weswegen die Übergänge wie gesagt bereits auch ohne AF unter ungünstigen Umständen etwas ausgefranst aussahen. Die eigentlich Gradientenberechnung ist dann vollkommen easy, da muß man sich schon anstrengen, da was zu verbocken. Für das Filtern die Wahl der passenden MipMaps (also das LOD) richtig hinzubekommen, so daß man die (fast) perfekt kreisrunden und glatten AF-Blumen wie bei (nV) AMD bekommt, nun, daß hat ja eine Weile gedauert, wie wir wissen. Zusätzlich müssen auch noch die genauen Samplepositionen (also deren Ausrichtung) und die Gewichte dazu passen, um gutes AF-Filtering zu haben, aber das sieht man ja nicht direkt an der AF-Blume, da sieht man genau genommen nur die gewählte MipMap, also das LOD (eine zu den MipMap-Übergängen etwas verdrehte line of anisotropy oder falsche Samplezahlen würde nicht auffallen, auch wenn das mit der Verdrehung keine mir bekannte GPU macht, die Flimmerneigung der pre-GCN-GPUs von AMD sieht man ja auch nicht). Der Tunnel ohne AF (also nur tri) ergibt ja auch ein vergleichbares Muster, die jeweils niedriger aufgelösten MipMaps fangen nur bereits weiter außen an. Da könnte man die reine LOD-Berechnung aus den Gradienten isolieren (und mal schauen, wie es dann aussieht, also ohne die ganze Anisotropiegeschichte).

Schaffe89
2012-03-07, 17:05:36
Das ist aber deutlich weniger als erwartet.
Ich dachte an wenigstens 50%.

So dürfte es für Trinity ein leichtes sein im mobilen Markt ca 50 % schneller zu sein und im Desktop Markt wieder annähernd doppelt so schnell.

mczak
2012-03-07, 17:30:24
Bei alten GPUs hat man schon an der Präzision der Interpolatoren gespart (wird heute von AMD und nV in den ALUs/SFUs mit voller SP-Genauigkeit gemacht, wenn Intel da sparen würde, haben sie meiner Meinung nach einen an der Klatsche, aber man weiß ja nie), weswegen die Übergänge wie gesagt bereits auch ohne AF unter ungünstigen Umständen etwas ausgefranst aussahen.
Intel benutzt ja auch schon seit i965 normale ALUs für Interpolation, hat zwar extra Befehle die da helfen (line/plane equation) wäre aber schon sehr sehr erstaunlich wenn die nicht volle Genauigkeit hätten. Kann man also wohl ausschliessen.
Die Frage ist ob man diese Ungenauigkeiten auch tatsächlich sieht und wie störend die allenfalls sind.

Ronny145
2012-03-07, 17:36:34
Die Frage ist ob man diese Ungenauigkeiten auch tatsächlich sieht und wie störend die allenfalls sind.


So sieht es aus. Nvidias nicht ganz perfekte AF Blume erkennt ja auch keiner in der Praxis. Oder das R520 HQ AF, die laut AF Blume geringere Winkelunabhängikeit konnte ich in Bildvergleichen nie bemerken. Da bleibt es abzuwarten, ob die Spikes überhaupt negativ im Spiel sichtbar auffallen oder nur akademischer Natur sind. Das Problem dürfte hier eher der Treiber sein, der es oft nicht erlaubt AF im Spiel zu forcieren. Ist zumindest mit Sandy Bridge so. Spiele ohne AF Option gibt es genügend.

Gipsel
2012-03-07, 17:41:10
So sieht es aus. Nvidias nicht ganz perfekte AF Blume erkennt ja auch keiner in der Praxis. Oder das R520 HQ AF, die laut AF Blume geringere Winkelunabhängikeit konnte ich in Bildvergleichen nie bemerken. Da bleibt es abzuwarten, ob die Spikes überhaupt negativ im Spiel sichtbar auffallen oder nur akademischer Natur sind. Das Problem dürfte hier eher der Treiber sein, der es oft nicht erlaubt AF im Spiel zu forcieren. Ist zumindest mit Sandy Bridge so. Spiele ohne AF Option gibt es genügend.Solange die Übergänge fließend sind, spielt eine gewisse Winkelabhängigkeit praktisch kaum eine Rolle. Die Spikes sieht man da schon eher, da sie Diskontinuitäten darstellen, also im Zweifelsfall in Bewegung Flimmern verursachen können. Außerdem gehen die Spikes in beide Richtungen, es gibt sowohl nach außen laufende (was im Prinzip dort ein wenig blurrt), als auch nach innen laufende (was auch schon ohne die Sprünge zu flimmernden Pixeln führen kann).

Nightspider
2012-03-07, 17:43:09
Ich frag mit Warum Intel nicht wenigstens einen deutlich stärkeren Turbo Modus im Akkubetrieb bzw. beim Dektop immer aktiviert.

Schon die SB IGP schaffte laut 3DC Artikel ne Taktrate von 1900 Mhz. Da könnte man locker nochmal 30-50% rausholen.

Coda
2012-03-08, 12:15:45
da würde ich fast meinen, daß da kaum was schiefgehen kann, schließlich sind es ganz einfach nur die Differenzen der Texturkoordinaten in einem Quad
Nein. Die Line of Anisotropy auszurechnen ist das schwierigste überhaupt am AF und da kann so einiges schiefgehen.

Der komplette Rest ist aber tatsächlich trivial.

Gipsel
2012-03-08, 12:56:52
Nein. Die Line of Anisotropy auszurechnen ist das schwierigste überhaupt am AF und da kann so einiges schiefgehen.

Der komplette Rest ist aber tatsächlich trivial.
Sagte ich ja. ;)

Coda
2012-03-08, 17:05:06
Dann mein ich was anderes mit Gradienten.

Um das "runde" anisotrope Filtern zu bekommen muss man die lange und kurze Halbachse der Ellipse ausrechnen, die in das von den Derivaten der Textur-Koordinaten Parallelogram reinpasst.

Gipsel
2012-03-08, 18:10:50
Dann mein ich was anderes mit Gradienten.

Um das "runde" anisotrope Filtern zu bekommen muss man die lange und kurze Halbachse der Ellipse ausrechnen, die in das von den Derivaten der Textur-Koordinaten Parallelogram reinpasst.
Das ist line of anisotropy, nicht die Gradienten, wie ich sie verstehe. Mit Gradienten meine ich die partiellen Ableitungen der Texturkoordinaten du/dx, du/dy, dv/dx und dv/dy, die das (angenäherte) Parallelogramm definieren. Zumindest kenne ich die Bezeichnung so (die wird z.B. überall in den Dokus von AMD so benutzt).
Aber gut, dann meinten wir zumindest von Anfang an das Gleiche als Grund für diese Spikes und haben es nur unterschiedlich genannt. :)
Letztendlich ist es für uns egal, wo das herkommt, sei es bereits bei der Interpolation der Texturkoordinaten für jeden Pixel (was dann als Folge auch die Gradienten verfälscht), die Berechnung der Gradienten selbst (da würde ich fast meinen, daß da kaum was schiefgehen kann, schließlich sind es ganz einfach nur die Differenzen der Texturkoordinaten in einem Quad) oder dann schlußendlich die Bestimmung des LOD bei bi- oder tri-Filter bzw. zusätzlich noch die Bestimmung der line of anisotropy mitsamt der Samplepositionen und Gewichte aus den Gradienten bei AF (der letzte Schritt der Errechnung des LOD/AF-Grades aus den Gradienten wäre meine Vermutung der Ursache).

Schnitzl
2012-03-27, 11:41:58
hm, so wie es aussieht hat Ivi mit der GPU die GPU von Llano doch nicht überholt.

Undertaker
2012-03-27, 12:17:07
Von Überholen dürften wohl nur wenige geträumt haben, von eingeholt kann man aber sprechen. Je nach Spiel gibt es natürlich Schwankungen, aber >P4000 im 3DMark Vantage hat noch nicht einmal gerade einmal der Desktop-Llano erreicht. In Summe sehe ich beide auf Augenhöhe, Trinity ist aber natürlich klar schneller - wenn auch weniger, als Llano gegenüber Sandy Bridge.

Fetter Fettsack
2012-03-27, 12:26:53
zitat von Spasstiger

Beim einzigen direkt vergleichbaren Benchmark Dirt 3 (Ingame-Benchmark @ medium-Settings) schneidet der Sandy Bridge bei Expreview deutlich schlechter ab als bei Anandtech.
/EDIT: Die Intel HD 3000 im i7-2600K taktet 23% höher als die im i5-2500K. Das erklärt natürlich den großen Unterschied zwischen den beiden Reviews (1,33*1,23=1,64).



Nicht zu vergessen, dass der 2600K 2MB mehr an LLC hat, was sich auch auf die IGP auswirken sollte, da der ja mitgenutzt wird.

Schaffe89
2012-03-27, 12:53:09
von eingeholt kann man aber sprechen.

Die Llano GPU ist doppelt so schnell als die Sandy Bridge GPU, wie will man da mit ~ 40% Zugewinn irgendetwas einholen?
Vll in CPU limitierten Spielen.
Das dürfte bei der geringen GPU Leistung aber schwierig sein.

Undertaker
2012-03-27, 13:41:38
3DMark Vantage >P4000 ist Llano-Niveau bzw. sogar ein wenig mehr. Der Vorsprung auf Sandy Bridge liegt bei etwa Faktor 2. Viele geleakte Benchmarks leiden allerdings noch unter den Treibern.

Ronny145
2012-03-27, 13:59:09
Man sollte zwischen Desktop und Notebook unterscheiden. Der A8 ist im Desktop nur der A6. Bei Intel ist es ja umgedreht, die Notebook GPUs takten höher. Eine aussagekräftige Einordnung wird man erst zum launch sehen. Desktop Llano schafft etwa P4500 übrigens.

Undertaker
2012-03-27, 14:25:32
Je nach Anwendung sind die Schwankungen so oder so ziemlich groß. Im Mittel sehe ich das Ivy Bridge Topmodell zwischen dem mobilen- und dem Desktop-Llano, darum insgesamt auf Augenhöhe.

Ronny145
2012-03-27, 14:41:12
Die 1300 Mhz HD4000 hat aber nicht viel Relevanz. Im Notebook kommen die beliebten Dualcore Varianten mit 1200 Mhz aus. Im Notebook kann das gut hinkommen mit Augenhöhe, im Desktop sicher nicht.

Ronny145
2012-04-11, 11:10:21
Intel hat die AF Blume offiziell auf der IDF Beijing gezeigt.

http://s1.directupload.net/images/120411/5a2yq8ns.png

https://intel.activeevents.com/bj12/scheduler/downloadFileCounting.do?sesfid=C1BCE4674ED400074732F104FC8D2E30&abb=501A51785D05134D64714BDA9DF63C7A&fn=83112BAECCD9E6335C358BBBB3CC69D06E843D131D80AE910EF030EC1C1DF9E3
https://intel.activeevents.com/bj12/scheduler/downloadFileCounting.do?sesfid=1646F30A97A693C5118AC6B343FE366F&abb=501A51785D05134D64714BDA9DF63C7A&fn=83112BAECCD9E6335C358BBBB3CC69D00238AD69900EF354CDC2B1FD9B56C80D

AnarchX
2012-04-11, 11:22:03
Die Spikes, wie sie noch Anandtech gezeigt hat, sind wohl verschwunden?

Ronny145
2012-04-11, 11:31:50
Die Spikes, wie sie noch Anandtech gezeigt hat, sind wohl verschwunden?


Schwer zu beurteilen, die Bilder in der pdf sind nicht gerade in bester Qualität.

Schnitzl
2012-04-11, 12:13:20
Von Überholen dürften wohl nur wenige geträumt haben, von eingeholt kann man aber sprechen. Je nach Spiel gibt es natürlich Schwankungen, aber >P4000 im 3DMark Vantage hat noch nicht einmal gerade einmal der Desktop-Llano erreicht. In Summe sehe ich beide auf Augenhöhe, Trinity ist aber natürlich klar schneller - wenn auch weniger, als Llano gegenüber Sandy Bridge.
Einige hier waren fest davon überzeugt ;)
(um das mal der Vollständigkeit halber zu erwähnen)

Stormscud
2012-04-11, 13:46:22
Der Vantage liegt den Intel GPUs aber auch deutlich besser als viele Spiele. Das zeigt meiner Meinung nach nur das Potenzial, wenn Intel seine Treiber richtig im Griff hätte und entpsrechend stark optimieren würde wie bei AMD und Nvidia. Noch sind sie aber nicht so weit. Von der Bildqualität sind sie ja auch leider noch ein gutes Stück entfernt.

y33H@
2012-04-11, 14:33:13
Das AF ist nun ziemlich nah dran, das MSAA ist identisch. Damit dürften 99% der User bereits glücklich sein - wobei TAA, SSAA, FXAA und MLAA fei auch schick wären.

Stormscud
2012-04-11, 14:47:02
Ich hab da Schlammis Vergleich auf seinem Laptop im Kopf, da waren die Unterschiede von HD3000 zur AMD Grafikkarte schon ziemlich stark. Daher gehe ich momentan davon aus, dass das bei der nächsten Generation auch noch so sein wird. Oder gibts da schon anderslautende Informationen?

Ronny145
2012-04-11, 14:56:02
Daher gehe ich momentan davon aus, dass das bei der nächsten Generation auch noch so sein wird. Oder gibts da schon anderslautende Informationen?


Vielleicht mal den Thread lesen? Das verbesserte AF ist mehrfach bestätigt. Das einzige Problem was ich beim AF sehe ist der Treiber, keine Ahnung ob sich das jetzt endlich in Spielen forcieren lässt. Nicht jedes Spiel bietet eine AF Option an.

y33H@
2012-04-11, 15:19:43
AF lässt sich bei einer HD2k/3k nicht per Treiber forcen? *meh* war der Ansicht das ging ... naja, muss ich mir eh anschauen :biggrin:

Ronny145
2012-04-11, 15:25:33
AF lässt sich bei einer HD2k/3k nicht per Treiber forcen? *meh* war der Ansicht das ging ... naja, muss ich mir eh anschauen :biggrin:


Es gibt die Option dafür, klar. In den meisten Spielen hat es aber kein Effekt. GTR2, Oblivion, Fear etc. z.B. gehen alle nicht. OpenGL Spiele lassen sich forcieren. Bei Intel frage ich mich ob die davon überhaupt wissen. Kann doch nicht so schwer sein das für dx9 Spiele hinzubekommen. AF kostet auf einer HD3000 meist nicht viel an Leistung.

ShinyMcShine
2012-04-17, 19:49:12
Wieviel ungefähr schneller ist denn ein HD4000 in Games als ein NVIDIA ION (bei kleinen Auflösungen wie 1366x768).

Danke und vG!
Shiny

AnarchX
2012-04-17, 19:53:57
Einen Faktor 2 kann man wohl schon mindestens erwarten.
Wenn es sich um eine Atom-Ion-Plattform handelt, ist ja hier der Atom schon häufig eine stärkere Bremse.

ShinyMcShine
2012-04-17, 21:05:41
OK, danke Dir!

VG
Shiny

AnarchX
2012-04-20, 10:11:17
HD 4000 @ 3770K vs HD 3000 vs 6550D vs 6530D:http://www.inpai.com.cn/doc/hard/171055_30.htm

Ronny145
2012-04-20, 10:43:36
Sieht ganz gut aus, mit der 6530D kann sie konkurrieren. Quicksync 2.0 hat auch ganz schön zugelegt in MediaEspresso: http://www.inpai.com.cn/doc/hard/171055_17.htm

y33H@
2012-04-20, 11:08:51
Das Performance-Level kommt hin.

Ronny145
2012-04-20, 11:45:31
Im Notebook dürfte die Steigerung größer ausfallen, da sich die Taktfrequenz nur 50 Mhz verringert und nicht 200 Mhz. (wobei das nur für den 2600k/2700k zutrifft, die anderen HD3000 GPUs takten maximal 1100 Mhz)

y33H@
2012-04-21, 11:46:50
Die HD 6530D hat ja 443 MHz @ 320 ALUs, also in etwa +10 % auf die HD 6520G. Ich denke, du hattest doch Recht - die HD 4000 ist im ULV Bereich ziemlich weit vorne dabei.

Pinoccio
2012-04-21, 12:52:19
Die Spikes, wie sie noch Anandtech gezeigt hat, sind wohl verschwunden?Das Bild von Anandtech ist 1:1 aus dem Tester, das "offizielle" Intel-Bild ca. halb so groß. Je nach gewähltem Algorithmus für die Verkleinerung verschwindet da alles, was die PR-Abteilung stört. :freak:

mfg

Pirx
2012-04-21, 14:24:12
Die HD 6530D hat ja 443 MHz @ 320 ALUs, also in etwa +10 % auf die HD 6520G. Ich denke, du hattest doch Recht - die HD 4000 ist im ULV Bereich ziemlich weit vorne dabei.
... in der Theorie, aber in der Praxis auch?

Undertaker
2012-04-21, 15:27:17
Wenn man unter Theorie 3DMark & Co. versteht, liegt die HD 4000 dort sogar deutlich in Front. Wäre interessant zu wissen, was der GPU insbesondere im Vantage so extrem gut schmeckt...

dildo4u
2012-04-21, 15:49:51
... in der Theorie, aber in der Praxis auch?
Ist nicht wirklich wichtig da AMD mit Trinity gegen die HD4000 antritt.

Knuddelbearli
2012-04-21, 16:00:44
hat Intel nicht mal damit geprahlt das die cpu der gpu unter die arme greift?

was natürlich nur durch manuelle optimierungen klappt
man es also nur in benchmarks und ein paar wichtigen titel sehen wird

AnarchX
2012-04-21, 16:05:41
Macht man wohl doch schon: http://techreport.com/articles.x/17732

Ansonsten gab es mal eine Demo, wo AVX für MLAA genutzt wurde.

y33H@
2012-04-21, 17:14:53
... in der Theorie, aber in der Praxis auch?Ich sehe bisher wenig, was dagegen spricht, solange man nicht exzessiv mit OCL arbeitet oder exotische Spiele zockt.

Ist nicht wirklich wichtig da AMD mit Trinity gegen die HD4000 antritt.Abwarten, was AMD bei 17W noch für die GPU über hat.

AnarchX
2012-04-23, 18:02:31
Computerbase - Test: Intel Graphics HD 4000 & 2500 (http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/2/#abschnitt_die_grafikeinheit_im_detail)

8xMSAA.

y33H@
2012-04-23, 18:13:26
Plus besseres AF als AMDs iGPUs ;D

YfOrU
2012-04-23, 18:25:17
Knapp über 6450 Niveau ist etwas weniger als man hätte erwarten dürfen. Vor allen wenn man bedenkt das die HD4000 Varianten separat produziert werden.

Interessant ist noch das selbst ein Llano (A8-3870K) bei GPU Last bezogen auf die Verlustleistung mehr als konkurrenzfähig ist:
http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/16/#abschnitt_leistungsaufnahme
Crysis2 Benchmark:
http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/20/#abschnitt_crysis_2

y33H@
2012-04-23, 18:31:23
Da "deckelt" halt die iGPU, ist interessant zu sehen.

AnarchX
2012-04-23, 18:36:56
Das sind 50W Differenz zwischen Idle und Crysis 2-Last. Fragt sich was da eine ULV-Version in 17W TDP erreichen kann.

dildo4u
2012-04-23, 18:43:38
Anandtech HD 4000 Review

http://www.anandtech.com/show/5771/the-intel-ivy-bridge-core-i7-3770k-review/8

Knuddelbearli
2012-04-23, 18:48:20
hmm da habe ich mir echt merh erwartet

AF interessiert mich in dem Bereich eher weniger ( natürlich trotzdem klasse ) leistung ist da deutlich wichtiger

Fabian_HT4U
2012-04-23, 18:50:47
Das sind 50W Differenz zwischen Idle und Crysis 2-Last. Fragt sich was da eine ULV-Version in 17W TDP erreichen kann.
Man sollte hier nicht den Fehler machen, von der Differenz auf den Verbrauch der iGPU zu schließen. In dem Test sind vier Kerne bei 3,X GHz aktiv, was gegenüber einem ULV mit 2 Kernen und weniger als 2 GHz (darauf wird es nämlich unter Crysis 2 hinauslaufen) sicherlich einen deutlicher Mehrverbrauch ergibt. Wenn man dann noch etwas niedrigere Spannungen anlegt kann man noch ein bisschen was sparen. Außerdem ist in den ULVs imho die iGPU nur mit 350 MHz angegeben (mit Turbo bis 1150 MHz)...

grüße
Fabian

P.S Zur Vollständigkeit mal noch unser erster Test zur iGPU:
http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index13.php

AnarchX
2012-04-23, 18:50:58
Laut HT4u: 284GFLOPs für die HD 4000 (http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index14.php)

Ist diese Angabe errechnet oder kommt die direkt von Intel?

dildo4u
2012-04-23, 19:04:18
CB hat unten mit Sandra 252 gemessen.

http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/10/#abschnitt_gpucomputing

AnarchX
2012-04-23, 19:21:18
Da ist die Rechenleistung wirklich signifikant gestiegen, zumal SNB noch keine MADD-ALUs hatte, sondern MAC, die teilweise im Durchsatz massiver einbrechen konnten.

Ronny145
2012-04-23, 19:26:40
Intel hat also das Kunststück geschafft, die Texturschärfe auf dasselbe Niveau wie bei der AMD- und Nvidia-Konkurrenz zu hieven und gleichzeitig kaum ein Flimmern zu erzeugen. Das hat zur Folge, dass der theoretische Eindruck der anisotropen Filterung gar besser als auf AMDs Radeon-HD-5000- und Radeon-HD-6000-Generation (und damit Llano und gar Trinity) ist!
http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/4/#abschnitt_anisotrope_filterung

Hört sich gut an. Interessant:

There's a low precision issue in DirectX 9 currently which results in the imperfect image above, that has already been fixed in a later driver revision awaiting validation. The issue also doesn't exist under DX10/DX11.
http://www.anandtech.com/show/5771/the-intel-ivy-bridge-core-i7-3770k-review/8

Die untere Blume sieht sauberer aus mit dem neuen Treiber. Ht4u hat offenbar auch den neuesten verwendet der Blume nach zu urteilen: http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index15.php

Computerbase hat einen alten Treiber verwendet, was wohl die fehlende Treiberangabe erklärt. Ansonsten ist der CB Test schön ausführlich.


Die Leistungswerte sind ziemlich durchwachsen. Mal richtig gut und mal ziemlich mäßig.

Bei PCGH sieht die Blume auch wie auf CB aus. Wie so oft fehlt die Treiberangabe, ein Unding! Kann auch sein, dass Anandtech von einem inoffiziellen Treiber spricht, der noch freigegeben wird.

Ht4u hat verwendet 15.26.8.2696. AF-Blume: http://images.ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/intel_ivy_bridge_af_blume.png

Haben PCGH und CB wirklich einen älteren verwendet? Die 15.26.8.2696 ist 4 Wochen vor launch zur Verfügung gestellt wurden.

Nightspider
2012-04-23, 20:27:56
30-40% Zuwachs bei Battlefield 3 (laut CB) sind ja erbärmlich.
Da habe ich mir echt mehr erhofft.

Das müssen wohl dann die minimalen Kepler Ausführungen in Subnotebooks richten.

y33H@
2012-04-23, 20:30:28
Haben PCGH und CB wirklich einen älteren verwendet? Die 15.26.8.2696 ist 4 Wochen vor launch zur Verfügung gestellt wurden.http://www.pcgameshardware.de/aid,878916/Test-Intel-Ivy-Bridge-Core-i7-3770K-Core-i5-3570K-Core-i5-3550/CPU/Test/?page=4

15.26.8.2696, so wie HT4U auch - steht bei PCGH in jedem Diagramm drin.

Ronny145
2012-04-23, 20:32:56
http://www.pcgameshardware.de/aid,878916/Test-Intel-Ivy-Bridge-Core-i7-3770K-Core-i5-3570K-Core-i5-3550/CPU/Test/?page=4

15.26.8.2696, so wie HT4U auch - steht bei PCGH in jedem Diagramm drin.


Dann spricht Anandtech wohl vor einem noch nicht verfügbaren Treiber, aber warum fehlen die spikes in der ht4u Blume?

y33H@
2012-04-23, 20:35:52
Keine Ahnung, ich hau mal Fabian an.

MechWOLLIer
2012-04-23, 20:42:18
Computerbase hat einen alten Treiber verwendet, was wohl die fehlende Treiberangabe erklärt. Ansonsten ist der CB Test schön ausführlich.

Haben wir nicht. Es ist der 15.26.8.64.2696, was neueres gabs am Montag noch nicht :)
Und beim nächsten mal einfach mal fragen und nicht direkt meckern, wir sind auch nur Menschen :)

Fabian_HT4U
2012-04-23, 21:12:39
Hi,

das unterschiedliche AF-Verhalten ist wohl auf unterschiedliche Tests zurückzuführen. Wir haben - wie eigentlich immer - unter DX10 getestet. Die CB und die PCGH hingegen unter DX9. Nachdem wir das Problem mittlerweile nachstellen konnten, haben wir natürlich Intel dazu befragt und warten auf Antwort.

Grüße
Fabian

Ronny145
2012-04-23, 21:26:43
Hi,

das unterschiedliche AF-Verhalten ist wohl auf unterschiedliche Tests zurückzuführen. Wir haben - wie eigentlich immer - unter DX10 getestet. Die CB und die PCGH hingegen unter DX9. Nachdem wir das Problem mittlerweile nachstellen konnten, haben wir natürlich Intel dazu befragt und warten auf Antwort.

Grüße
Fabian


Den AF Tester kann man unter dx10 ausführen? Wusste ich gar nicht. Das erklärt es dann, weil laut anandtech das Problem nur unter dx9 besteht. Für dx9 braucht es den neuen Treiber, kannst ja mal fragen ob Du ihn bekommst.

y33H@
2012-04-23, 21:32:46
AF Tester v1.3 = DX9
Filter Tester v1.1 = DX10

AnarchX
2012-04-25, 11:13:45
RealWorldTech: Architektur-Betrachtung (http://www.realworldtech.com/page.cfm?ArticleID=RWT042212225031)

256KiB exklusiven L3 für die iGPU und DP bei 1:4.

Intels Developer Guide für IVB: http://software.intel.com/file/43506

Ronny145
2012-04-25, 12:25:35
The fastest Ivy Bridge GPU achieves roughly 307GFLOP/s compared to 130GFLOP/s for Sandy Bridge. In practice the graphics performance will increase less, perhaps in the range of 1.5× to 2×.


Das dürfte sich auf die 1,3 Ghz Variante beziehen. Die Sandra Messwerte der 1,15 Ghz HD4000 scheint recht gut hinzukommen.


Intel's graphics driver is also being re-architected, although independently from the release of Ivy Bridge. To accomplish this, a new graphics driver architecture is expected later this year.


Es wäre zu hoffen.

Gipsel
2012-04-25, 14:36:34
Intels Developer Guide für IVB: http://software.intel.com/file/43506
Na offensichtlich baut auch intel Fehler in seine Folien ein:
http://pics.computerbase.de/4/0/7/2/5/7.png

Nur Shader Model 4.1? Wäre ein wenig eigenartig für eine DX11 GPU. Aber der Developer Guide sieht es ja zum Glück anders:
http://www.abload.de/img/sb_ib_gpu_vergleich6ijnj.png

Ronny145
2012-04-25, 14:42:40
Um das rauszufinden brauchte es kein Developer Guide.

Gipsel
2012-04-25, 16:32:10
Um das rauszufinden brauchte es kein Developer Guide.DX11 seals the deal, schon klar. Aber da steht es zumindest richtig drin.

Ronny145
2012-04-25, 18:07:05
DX11 seals the deal, schon klar. Aber da steht es zumindest richtig drin.


Stand u.a. in einer IDF Folie (http://pics.computerbase.de/4/0/5/6/1/3.png).

Gipsel
2012-04-25, 19:02:59
Stand u.a. in einer IDF Folie (http://pics.computerbase.de/4/0/5/6/1/3.png).
Ist doch vollkommen egal, ich wollte nur spaßig dies bemerken:
Na offensichtlich baut auch intel Fehler in seine Folien einBisher wird das ja immer als Merkmal der Authenzität von AMD-Folien gehandelt. Es war nicht als bierernster Diskussionbeitrag gedacht, da ja vollkommen klar ist, daß IB DX11 (natürlich dann mitsamt SM5.0, weil das eine zwingende Forderung ist) beherrscht. Jetzt alles klar? ;)

AnarchX
2012-04-26, 09:30:10
Gab es schon eine Angabe zu den TMUs?
Laut Guide wurde die Zahl der Texturesampler auf 2 verdoppelt, messbar sind aber nur etwa 50% mehr Texefüllrate im 3DMark Vantage.
Anders als bei SNB Guide, schweigt man sich diesmal auch über die Fähigkeiten der TMUs aus... :ugly:

Gipsel
2012-04-26, 14:31:43
Gab es schon eine Angabe zu den TMUs?
Laut Guide wurde die Zahl der Texturesampler auf 2 verdoppelt, messbar sind aber nur etwa 50% mehr Texefüllrate im 3DMark Vantage.
Anders als bei SNB Guide, schweigt man sich diesmal auch über die Fähigkeiten der TMUs aus... :ugly:
Also wenn das bei RWT stimmt, dann sind die Sampler (jeder der beiden IB-Sampler ist eine Quad-TMU in herkömmlichen Begriffen). Anders als z.B. die AMD-TMUs, können für 4 Textur-Koordinaten insgesamt 32 Texel adressiert werden (AMD nur 16), es sind also im Prinzip Tri-TMUs, die ohne Leistungseinbußen trilinear filtern können sollten (wie bei SB, HD2500/3000/4000 hat also 4/4/8 Tri-TMUs, Llano 20 Bi-TMUs, Trinity 24 Bi-TMUs). Auch die Bandbreite zum Texturcache paßt dazu (128Byte pro Takt, also 32 Texel mit je 4 Byte, RGBA8888). Ob die das wirklich auch so filtern können, müßte mal einer nachmessen. Genauso die Filtergeschwindigkeit bei alternativen (breiteren, wie 4xFP16) Texturformaten. Da sagt intel nur, daß man das vermeiden sollte, weil es Performanceeinbußen gibt, wie groß, keine Ahnung.
Das könnte allerdings auch mit an den kleinen Texturcache-Größen liegen (nur 4kB L1, da paßt eben nicht viel rein und auch der L2 ist mit 16kB nicht gerade riesig [und die Bandbreite unbekannt]). Je 8 EUs teilen sich eine Samplereinheit (bei der HD4000). Je nach dem, wie die Workdistribution auf die einzelnen EU-Blöcke erfolgt, könnte die Cache-Effizienz zudem auch leiden (im Extremfall effektiv nur 4kB L1 Tex-Cache für die gesamte GPU, weil in beiden L1 das Gleiche steht), sprich die Cache-Hitrate ist identisch zu einer Version mit nur einem Sampler (lediglich die Bandbreite verdoppelt sich, aber die ist im Vergleich zu AMD schon angemessen, weil doppelt so hoch pro TMU).

Ronny145
2012-04-27, 23:46:44
http://www.geeks3d.com/20120427/intel-ivy-bridge-hd-graphics-4000-gpu-opengl-and-opencl-tests/

Wundert mich das OpenGL 3.3 unterstützt wird. Meine HD3000 zeigt mit dem gleichen Treiber nur OpenGL 3.1 an. Interessant finde ich den Vergleich zwischen CPU und GPU OpenCL. Schade das kein Llano hier dabei ist.

QJulia 4D demo, 600×600 windowed:
- Ivy Bridge HD 4000 OpenCL GPU test: around 35 FPS
- Ivy Bridge OpenCL CPU test: around 15 FPS


PostFX demo, 600×600 windowed:
- Ivy Bridge HD 4000 OpenCL GPU test: around 20 FPS
- Ivy Bridge OpenCL CPU test: around 5 FPS

Agenor
2012-04-28, 19:46:43
Hier sind zwei weitere Test für die 4000 HD
AnandTech (http://www.anandtech.com/show/5771/the-intel-ivy-bridge-core-i7-3770k-review) hat neben der Mobilen Version auch Desktopversion getestet.
Abseits von shaderlastigen Spielen ist die Leistung recht ordentlich.

techpowerup (http://www.techpowerup.com/reviews/Intel/Core_i7_3770K_Ivy_Bridge_GPU/1.html)

Ich hätte da auch noch eine Frage.
Laut der Homepage von futuremark schafft die 4000 HD beim 3dmark06 2100/2700 Punkte (http://3dmark.com/search?resultTypeId=14&linkedDisplayAdapters=0&searchKey=1335634100694&cpuModelId=0&chipsetId=770) SM2/SM3
Eine 8600 GTS kommt auf 2400/2200 (tom's hardware).

Heißt das wirklich, dass eine 4000 HD unter DX9 1280x1024 ohne AA/AF schneller sein sollte als die 8600?
Oder übersieht der Test etwas?

Ich hoffe es ist ok wenn ich hier frage, aber ich kenne mich bei dem Thema überhaupt nicht aus. :confused:

AnarchX
2012-04-28, 19:52:30
Vergleichbar schnell dürften beide Lösungen durchaus sein, dafür sprechen auch die Rohleistungsdaten, je nach Anwendung einen leichten Vorteil für die jeweilige Lösung.

y33H@
2012-04-28, 22:18:17
Selbst die Desktop 8600 GTS ist arg lahm, eine HD Graphics 4k ist idR schneller.

Lord Wotan
2012-04-28, 22:32:42
Wollte Intel nicht mal einen Super Spiele Grafikchip herstellen wo sogar NVidia in Schatten gestanden hätte?

y33H@
2012-04-28, 22:35:04
Das Projekt Larrabee existiert noch - siehe Raytracing, Daniel Pohl und Quake 4.

Knuddelbearli
2012-04-28, 23:04:11
auch wenns OT wird, wird man vor 2012 noch mit echten Raytracing spielen rechnen könen? also ganz normal zu kaufen. was denkst du Y33?

Gipsel
2012-04-29, 00:57:48
auch wenns OT wird, wird man vor 2012 noch mit echten Raytracing spielen rechnen könen?Vor 2012? Oder meintest Du 2017? :rolleyes:

Knuddelbearli
2012-04-29, 01:20:59
argh meinte 2020 kA wie ich auf 2012 komme ...

Fabian_HT4U
2012-04-29, 11:14:18
Hi,

das unterschiedliche AF-Verhalten ist wohl auf unterschiedliche Tests zurückzuführen. Wir haben - wie eigentlich immer - unter DX10 getestet. Die CB und die PCGH hingegen unter DX9. Nachdem wir das Problem mittlerweile nachstellen konnten, haben wir natürlich Intel dazu befragt und warten auf Antwort.

Grüße
Fabian
Von Intel kam bisher nichts. Seit heute gibt es zudem einen neuen Treiber (2712), der behebt das Problem allerdings nicht.

Grüße
Fabian

Ronny145
2012-04-29, 11:22:46
2712 ist 1 Monat alt, der kann den Fix nicht haben.

AnarchX
2012-05-06, 13:03:17
OpenGL 4.0 Support: http://www.geeks3d.com/20120506/intel-hd-graphics-driver-v2729-with-opengl-4-support-and-new-opengl-extensions/

Ronny145
2012-05-06, 13:29:13
Für Sandy Bridge sind keine Extension dazugekommen mit dem Treiber, immer noch bei OpenGL 3.1. Immerhin scheint Intel für Ivy Bridge vermehrt am OpenGL Treiber zu arbeiten.

Fabian_HT4U
2012-05-06, 16:45:33
Auch das AF-Problem ist damit nun aus der Welt.

http://ht4u.net/news/25496_opengl-40-treiber_fuer_intels_ivy_bridge_verfuegbar_-_af-probleme_behoben/
und
http://ht4u.net/reviews/2012/intel_ivy_bridge_core_i7_3770k/index15.php

Grüße
Fabian

AnarchX
2012-05-12, 17:57:59
Maximal 30% Leistungsunterschied zwischen DDR3-1066 und DDR3-2133: http://www.computerbase.de/artikel/arbeitsspeicher/2012/test-welchen-ram-fuer-intel-ivy-bridge/5/#abschnitt_testergebnisse_mit_integrierter_grafik

Ronny145
2012-05-13, 01:19:15
DDR3-1866 bringt in einigen Spielen 6-8% Mehrleistung. Bei Llano sah das kaum anders aus wenn ich die Tests richtig im Kopf habe. Schon erstaunlich. Hier ist noch ein Test mit DDR3-1866: http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/53054-intel-i7-3770k-ivy-bridge-cpu-review-21.html

AnarchX
2012-05-26, 09:34:21
ULV HD 4000 im Anandtech Test: http://www.anandtech.com/show/5843/asus-zenbook-prime-ux21a-review

Ronny145
2012-05-26, 21:14:58
Schade, wieso zeichnet der Tester nicht mal auf welche GPU Taktraten im Spiel so anliegen. GPU-Z unterstützt Ivy Bridge und es gibt mehrere Zwischenstufen zwischen Base Takt und maximaler Turbostufe wie ich festgestellt habe. Außerdem wäre es interessant wie sich der GPU Turbo verhält, wenn man den CPU Turbo und eventuell SMT deaktiviert. Theoretisch müsste das gewonnene TDP Budget zu mehr GPU Takt führen.

Undertaker
2012-05-26, 21:36:38
In Spielen würde ich stark darauf tippen, dass immer der maximale GPU-Takt anliegt. Der GPU-Turbo wird gegenüber dem CPU-Turbo bevorzugt, durch den niedrigen CPU-Basistakt sollte darum eigentlich immer genügend TDP-Spielraum bereitstehen.
Das die GPU-Performance der ULV-Modelle dennoch etwas niedriger ausfällt sollte sich durch die Singlechannel-Speicheranbindung und den kleineren L3-Cache erklären lassen.

Ronny145
2012-05-26, 21:46:23
In Spielen würde ich stark darauf tippen, dass immer der maximale GPU-Takt anliegt.

Das sieht mir nicht danach aus. Dafür liegen die Werte zu weit entfernt vom 45W Quad.


Das die GPU-Performance der ULV-Modelle dennoch etwas niedriger ausfällt sollte sich durch die Singlechannel-Speicheranbindung und den kleineren L3-Cache erklären lassen.

Wie kommst Du auf Singlechannel RAM? Ist das UX21A nur mit 1x4GB ausgestattet?

Undertaker
2012-05-27, 08:58:11
Wie so ziemlich jedes Ultrabook: Ja.

Edit: Was man übrigens auch bedenken sollte: Durch den Zusammenhang von CPU- und L3-Takt lässt sich bei Sandy/Ivy Bridge die GPU-Leistung ohnehin nicht mehr vollkommen getrennt von der CPU betrachten. Wobei ich allerdings nicht auf Anhieb einschätzen könnte, wie stark dieser Effekt ist. Auf jeden Fall haben die ULV-Modelle zwar eine vergleichsweise hohe Rechenleistung, sind aber bzgl. Bandbreite gleich dreifach gehandicapt: L3-Größe, L3-Takt und Speicheranbindung.

Ronny145
2012-05-31, 15:16:59
Singlechannel RAM erklärt es für mich. Dass der kleinere L3 etwas kostet ist klar, sollte allerdings nicht so viel ausmachen.
edit: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9322753&postcount=187

Die ULV reviews von heute sind mit Dualchannel. Das sieht doch schon besser aus.


Was anderes, wozu wird die ALU Filterung gebraucht? Denn dort sind Blütenblätter zu sehen.



http://s7.directupload.net/images/120531/mhiroaz5.png

http://s7.directupload.net/images/120531/5m4ye2ax.png


Die Spikes im d3d AF Tester sind jetzt auch im WHQL Treiber gefixt.

8.15.10.2696 WHQL
http://s1.directupload.net/images/120531/3j6ivhhw.png

8.15.10.2752 WHQL
http://s7.directupload.net/images/120531/bi4jog3o.png

AnarchX
2012-06-01, 09:46:02
Anandtech: Mobile Ivy Bridge HD 4000 Investigation: Real-Time iGPU Clocks on ULV vs. Quad-Core (http://www.anandtech.com/show/5878/mobile-ivy-bridge-hd-4000-investigation-realtime-igpu-clocks-on-ulv-vs-quadcore)

Also etwas über 1GHz bei der ULV Version.
Zudem wohl nun auch Dual-Channel für die ULV Version.


Was anderes, wozu wird die ALU Filterung gebraucht? Denn dort sind Blütenblätter zu sehen.

Die ALU-Filterung ist zum Vergleich da und in der Simple-Version ist sie eben stark winkelabhängig.

Ronny145
2012-06-01, 12:12:41
Anandtech: Mobile Ivy Bridge HD 4000 Investigation: Real-Time iGPU Clocks on ULV vs. Quad-Core (http://www.anandtech.com/show/5878/mobile-ivy-bridge-hd-4000-investigation-realtime-igpu-clocks-on-ulv-vs-quadcore)

Also etwas über 1GHz bei der ULV Version.
Zudem wohl nun auch Dual-Channel für die ULV Version.


Na endlich testet das jemand. Jetzt müsste er noch testen, wie sich die Frequenzen entwickeln, wenn man den CPU Turbo deaktiviert. Wobei das nicht viel bringen dürfte wie ich sehe, denn die ULV läuft eh meist im Bereich des Basistaktes in dem Test. ~1000 Mhz sind dennoch ganz ordentlich wie ich finde. Der Rest des Unterschiedes kommt wohl durch den kleineren L3 Cache und der schwächeren CPU zustande.

Bei den Dualcores mit doppelter TDP sollte der maximale GPU Takt immer anliegen. Die 10W weniger zum 45W Quad sollten die 2 weniger CPU Kerne auffangen.



Die ALU-Filterung ist zum Vergleich da und in der Simple-Version ist sie eben stark winkelabhängig.


Mit ALU perfect sieht es tatsächlich genauso rund aus.

Ronny145
2012-07-26, 00:32:46
Intel unterstützt 2xMSAA nicht in Hardware, hat das jemand gewusst? Seite 305 (http://intellinuxgraphics.org/documentation/IVB/IHD_OS_Vol2_Part1.pdf) listet nur 4x und 8x.

aufkrawall
2012-07-26, 01:38:07
Was passiert, wenn eine Anwendung das anfordert?

Wie ist eigentlich die Texturfilterung von Sandy Bridge?

Ronny145
2012-07-26, 01:50:14
Was passiert, wenn eine Anwendung das anfordert?


Dann bekommt der User 2xMSAA zu Gesicht. Das Problem ist hierbei die Performance. 2xMSAA läuft vermutlich im 4xMSAA Modus mit Sample Verteilung für 2x. Deshalb läuft 2xMSAA nicht ein bisschen schneller als 4xMSAA, kann sogar langsamer laufen (Far Cry, Crysis). In anderen Spielen die ich getestet habe lieferte 2xMSAA die identische Performance im Vergleich zu 4xMSAA. Da aber 4xMSAA logischerweise besser aussieht, macht 2xMSAA auf SB/IVB überhaupt keinen Sinn.



Wie ist eigentlich die Texturfilterung von Sandy Bridge?


In erster Linie stark winkelabhängig. Das Flimmern, falls Du das meinst, wäre durchaus vergleichbar mit GCN und Nvidia Quality würde ich sagen.

aufkrawall
2012-07-26, 01:58:35
Dann bekommt der User 2xMSAA zu Gesicht. Das Problem ist hierbei die Performance. 2xMSAA läuft vermutlich im 4xMSAA Modus mit Sample Verteilung für 2x. Deshalb läuft 2xMSAA nicht ein bisschen schneller als 4xMSAA, kann sogar langsamer laufen (Far Cry, Crysis). In anderen Spielen die ich getestet habe lieferte 2xMSAA die identische Performance im Vergleich zu 4xMSAA. Da aber 4xMSAA logischerweise besser aussieht, macht 2xMSAA auf SB/IVB überhaupt keinen Sinn.

Ulkig. Wahrscheinlich steht in irgendwelchen Specs drin, dass wenn 2x angefordert wird, auch 2x kommen muss?
Sonst würde es ja eher Sinn machen, einfach statt 2x 4x anzuwenden.
Finde allerdings, dass 2xAA eh kaum Sinn macht.


In erster Linie stark winkelabhängig. Das Flimmern, falls Du das meinst, wäre durchaus vergleichbar mit GCN und Nvidia Quality würde ich sagen.
Schade. Hätte mir gerne mal von IVB-like Texturfilterung bei HL2 ein Bild gemacht.

Ronny145
2012-07-26, 02:12:56
Ulkig. Wahrscheinlich steht in irgendwelchen Specs drin, dass wenn 2x angefordert wird, auch 2x kommen muss?
Sonst würde es ja eher Sinn machen, einfach statt 2x 4x anzuwenden.
Finde allerdings, dass 2xAA eh kaum Sinn macht.



DX10.1 setzt afaik nur 4xMSAA voraus und DX11 teilweise 8xMSAA. Die Frage wäre dann ob das automatisch 2xMSAA mit einschließt. 2xMSAA macht gerade Sinn auf langsamer Hardware, von daher wäre es ganz gut wenn Haswell das mitbringt.