PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intel HD Graphics 3000 Overclocking-Report


Leonidas
2011-06-28, 12:36:44
Link zum Artikel:
http://www.3dcenter.org/artikel/intel-hd-graphics-3000-overclocking-report


Danke nochmals an misterh für die ganzen Benchmarks.

Ronny145
2011-06-28, 14:08:55
Die Fear Werte kann ich nicht ganz glauben. Zwischen CPU 4.5 GHz/GPU 1100 MHz DDR3/2133 und CPU 4.5GHz/GPU 1900 MHz DDR3/2133 kein fps Unterschied.

Bis auf Trackmania sind die Zuwächse mit DDR3-2133 eher klein. Hier wird eben klar, dass es vorrangig an Rechenleistung mangelt und die zusätzliche Bandbreite sehr stark verpufft. Das ändert sich mit der GPU Übertaktung. Trotzdem dürfte Intel mit DDR3-1600 und Ivy Bridge nächstes Jahr noch gut bedient sein. An einen so starken Anstieg der Rechenleistung glaube ich nicht.

Zwei Infos fehlen mir noch. Musste die IGP Spannung erhöht werden und wie sahen die RAM Timings aus?

MadManniMan
2011-06-28, 14:28:59
Das schreit natürlich nach einem On-CPU-Radeon-Übertaktungsartikel.

Nightspider
2011-06-28, 15:17:55
Mich würde ja mal interessieren,wie stark der Stromverbrauch zugenommen hat, mit der Übertaktung.

Es gab ja mal vor längerer Zeit Gerüchte über Stacked-VRAM bei Ivy Bridge. Damit würde man zumindest das Bandbreitenproblem vollkommen eliminieren und könnte die Leistung frei mit der Taktrate regulieren.

puntarenas
2011-06-28, 16:05:07
Das schreit natürlich nach einem On-CPU-Radeon-Übertaktungsartikel.
Dann zieht Llano natürlich wieder entsprechend davon, aber insgesamt wird meine Begeisterung sowieso von zwei Aspekten gebremst:


Wir sind selbst mit Overclocking auf einem Performance-Niveau, das IMHO noch nicht ernsthaft spieletauglich genannt werden kann und die Zielgruppe wird unter PC-Gaming vermutlich eher aktuelle Browser-Games verstehen, wofür beide Lösungen ohnehin locker taugen.

Wenn man seine Wahl wirklich mit gewissem Augenmerk auf Games trifft, dann schreit alles nach der Lllano-Lösung oder einer zusätzlichen Grafikeinheit. Die Intel-Treiber sind zwar überraschend stabil und kompatibel, soweit ich das bisher beobachten konnte, aber die Catalyst-Macher haben halt ein Heimspiel.

Andererseits, Leinen los und just for fun, auf zum Overclocking-Shootout! Ich schließe mich auch gleich Nightspider an und lechze nach Energieeffizienz-Vergleichen, dann aber bildqualitätsnormiert. :biggrin:

epic
2011-06-28, 20:34:38
Erstmal danke für den Test. Ich muss MadManniMan anschießen, ein Test der Radeon 6550D wäre schon sehr interessant und hilfreich. Vielleicht wäre der A8-3850, je nachdem wie die Testergebnisse ausfallen, ein Geheimtipp für diejenigen, die zwar ein PC zum Spielen kaufen wollen, aber dabei ein sehr begrenztes Budget haben.

Ein Verbesserungsvorschlag, wenn ihr den Test mit Radeon 6550D durchführt: Teste auch mal mit verschiedenen Speichertakten. Denn es ist eher unwahrscheinlich, dass jemand einen 110€-CPU mit richtig teurem Übertakter-RAM kombiniert. Deswegen wäre es nützlicher, sowohl mit „normalen“ RAM-Takten wie DDR3-1600 und DDR3-1866 zu testen, um praxisnahe Ergebnisse zu bekommen, als auch mit einem bis zum Anschlag übertakteten RAM zu testen, um die höchste theoretisch mögliche Performance zu bekommen.

y33H@
2011-06-28, 23:35:24
Wie habt ihr die Performance der Llano-IGPs ermittelt? Einfach die Specs hochgerechnet?

Flusher
2011-06-28, 23:37:51
Wie bereits angeklungen, wären Energieverbrauchsmessungen hierzu äußerst interessant. Damit könnte man die Energieeffizienz der integrierten Intel Lösung besser abschätzen.

Darüber hinaus: netter, kurzer Artikel, der alles auf den Punkt bringt. Danke dafür.

Oberst
2011-06-29, 01:37:02
Hallo,
Wenn man das extrem hohe Taktpotential der Sandy-Bridge-Grafiklösungen ausnutzt, kann man also eine auch nach Llano noch konkurrenzfähige integrierte Grafik erhalten.

Wenn man nur die Performance betrachtet, dann vielleicht. Aber da ja schon so gerne auf der Filterqualität von AMD herumgehackt wird, was sollte man dann bei Intel (http://techreport.com/articles.x/21099/11) erst machen...?
Der AF von Intel ist ja geradezu schauderhaft (siehe auch hier (http://www.computerbase.de/artikel/grafikkarten/2011/test-sandy-bridge-grafik/11/#abschnitt_bildqualitaet_in_spielen))...
Konkurrenzfähig ist man daher noch lange nicht.
M.f.G.

Leonidas
2011-06-29, 09:28:37
Wie habt ihr die Performance der Llano-IGPs ermittelt? Einfach die Specs hochgerechnet?


Ja. D.h. bei 6550D liegen ja Benches vor, aber die anderen sind schlicht geschätzt anhand der Specs.




Wie bereits angeklungen, wären Energieverbrauchsmessungen hierzu äußerst interessant. Damit könnte man die Energieeffizienz der integrierten Intel Lösung besser abschätzen.



Ich frag misterh, was sich da machen läßt.





Das schreit natürlich nach einem On-CPU-Radeon-Übertaktungsartikel.


Klar schreit das danach. Aber ob wir von AMD ein Testsystem bekommen - nachdem für den weltweiten Launch in D nur ein einziges zur Verfügung stand?





Hallo,


Wenn man nur die Performance betrachtet, dann vielleicht. Aber da ja schon so gerne auf der Filterqualität von AMD herumgehackt wird, was sollte man dann bei Intel (http://techreport.com/articles.x/21099/11) erst machen...?
Der AF von Intel ist ja geradezu schauderhaft (siehe auch hier (http://www.computerbase.de/artikel/grafikkarten/2011/test-sandy-bridge-grafik/11/#abschnitt_bildqualitaet_in_spielen))...
Konkurrenzfähig ist man daher noch lange nicht.
M.f.G.


Generell richtig. In der Praxis dürfte der Einsatz von AF bei Intel eher arg begrenzt sein, weil die Grafikpower für bildqualitätsverbesserende Features zu schwach ist. Aber natürlich hast du Recht: Bei gleicher Performance ist immer AMD vorzuziehen - es ist das deutlich ausgereiftere Packet im Gaming-Einsatz. Intel muß eigentlich deutlich mehr Performance bieten, um diesen Nachteil ausgleichen zu können.

Ronny145
2011-06-29, 09:45:47
Generell richtig. In der Praxis dürfte der Einsatz von AF bei Intel eher arg begrenzt sein, weil die Grafikpower für bildqualitätsverbesserende Features zu schwach ist.

AF kostet auch bei Intel nicht so viel. Die Filterqualität ist für die IGP auch gar nicht das entscheidende Problem. Das Problem sind die Treiber, ich kann nur in OpenGL Spielen im Treiber das AF forcieren, bei allen anderen gehts nicht. Gestern Quake 3 gespielt, mir ist gleich das flimmerärmere Verhalten gegenüber Barts positiv aufgefallen. Etwaige andere Unterschiede müsste ich dagegen in Bildvergleichen ausloten. Beim Flimmern jedoch merkt man den Unterschied gleich sofort ohne Videovergleich.


Werden die Fear Werte noch korrigiert?

MadManniMan
2011-06-29, 10:55:56
Klar schreit das danach. Aber ob wir von AMD ein Testsystem bekommen - nachdem für den weltweiten Launch in D nur ein einziges zur Verfügung stand?

Beim Desktop-Launch auch? Ich dachte, das betraf nur den (früheren) Mobil-Launch?

Leonidas
2011-06-29, 11:59:56
Werden die Fear Werte noch korrigiert?


misterh kann das nochmal nachmessen, aber vorerst gibt es da nichts zu korrigieren. Ich hab alles korrekt übertragen.




Beim Desktop-Launch auch? Ich dachte, das betraf nur den (früheren) Mobil-Launch?


Ok, bezogen auf den Mobile-Launch. Beim Desktop-Launch soll es aber auch nur eine arg geringe Anzahl an Testsystemen geben und der Zug ist derzeit sowieso schon abgefahren (Termin ist morgen).

MadManniMan
2011-06-29, 12:38:46
Achso, ja, natürlich.

Aber vielleicht ist wieder jemand so toll, sein System zur Verfügung zu stellen, wenn man den Scheiß erst einmal kaufen kann.

Leonidas
2011-07-02, 05:03:36
Also FEAR stimmt erstmal, wurde mehrfach nachgemessen.


Und für Lasttests fehlt misterh das notwendige Meßinstrument, leider.

Ronny145
2011-07-02, 10:02:55
Also FEAR stimmt erstmal, wurde mehrfach nachgemessen.



Sorry, kann ich trotzdem nicht glauben. Dann müsste eine 100 prozentige CPU Limitierung vorliegen, die ich bei einer 4,5 Ghz Sandy Bridge CPU nicht für realistisch halte. Der Wert liegt nur bei 51 fps bzw. 59 fps, die CPU wird hier sicherlich auf dem geringen fps Niveau nicht limitieren. Der Sprung von CPU default auf 4,5 Ghz liegt nur bei 3 fps, der müsste dann ja viel viel größer ausfallen. 800 Mhz zusätzliche GPU Power kann da nie und nimmer in beiden Auflösungen ohne einen einzigen fps Anstieg über die Bühne gehen. Selbst bei einer starken Limitierung einer anderen Komponente kann das nicht exakt gleich sein.

Leonidas
2011-07-02, 12:00:20
Wieso? Speicherlimitierung war das - der Speichertakt ging doch hoch. Hast Du das eventuell übersehen?

GPU @ 1100/667 = 43 fps
GPU @ 1900/667 = 43 fps
GPU @ 1100/1067 = 59 fps
GPU @ 1900/1067 = 59 fps

Ronny145
2011-07-02, 12:03:50
Wieso? Speicherlimitierung war das - der Speichertakt ging doch hoch. Hast Du das eventuell übersehen?

GPU @ 1100/667 = 43 fps
GPU @ 1900/667 = 43 fps
GPU @ 1100/1067 = 59 fps
GPU @ 1900/1067 = 59 fps


Das habe ich gesehen. Du meinst die Bandbreite limitiert so dermaßen, dass jede weitere GPU Übertaktung gar nichts bringt? Ich werde es demnächst mal testen, ob bei mir im Fear Benchmark GPU Übertaktung noch was bringt.

RavenTS
2011-07-03, 15:03:50
...
Und für Lasttests fehlt misterh das notwendige Meßinstrument, leider.


Schade, vielleicht alternativ wenigstens ein paar Aussagen bezüglich der Temperatur-Entwicklung? Gibts da Sensoren für CPU &/ GPU Teil?

Auf jeden Fall ein schöner Artikel, der sich mal mit etwas abseitigerem beschäftigt! :smile:

diedl
2011-07-04, 01:29:19
Asrock Z68 Pro3-M - Bios 1.30
I7-2600K @1,6 bis 3,8 GHz

2x4 GiB DDR3 800 MHz 9-9-8-24-1T 1,54V
64 GB Samsung SSD 470
1000 GB 2,5" Samsung HD
DVB-S2 Karte TT budget S2-3200
Cougar A 300W
Win 7 64
Intel HD-Grafiktreiber (8.15.10.2405)
Voltcraft Energy Logger 4000

Zuerst einmal
meine HD3000 geht ohne Änderungen bei der (Auto)Spannung nur bis gut 1600 MHz.
Scheine damit im "normalen" Bereich zu liegen.
http://www.au-ja.de/review-intel-core-i7-2600k-core-i5-2500k-33.phtml
Wäre schön wenn die Settings von misterh noch gepostet werden.
Ansonsten könnte man von einer eher seltenen Ausnahme-GPU
ausgehen, dann ist der ganze Beitrag der fast sugeriert 1900 MHz
gehen (fast) immer aber etwas ........

Zweitens: Bei Einstellung 1100 MHz für die GPU im Bios zeigt mir CPUz 1.58
und AXTU (tool von ASRock) 1350 MHz max. an.
Zumindest auf meinen Board kann man die GPU nur übertakten, aber nicht untertakten.
Standard beim 2600K sind ja 1350 MHz Turbo-Takt.

Im Idle sind es immer 850 MHz.

FurMark 1.9.1 Fenstermodus 1280x720
667 MHz Speicher
1100 (1350) GPU = 55,1W
1450 MHz GPU = 56,9W
1600 MHz GPU = 59,5W
Idle (850) = 30,6W

800 MHz Speicher
1100 (1350) GPU = 55,2W
1450 MHz GPU = 57,1W
1600 MHz GPU = 59,6W
Idle (850) = 30,8W

OCCT GPU
1350/667=58W / 26fps
1600/800=63W / 31fps

FarCry FCBenchmark
Demo Hardware OC-Steam
max. details 1600x1200 4xAF 2xAA

1350/667=76W /16,99fps
1600/800=80W /20,17fps

Half-Life2: Lost Coast
Stress Test
1600x900 high details 2xmsaa

1350/667=77-82W /60,29fps
1600/800=80-87W /68,03fps



Gruß diedl

Gast
2011-07-17, 10:35:37
Ganz, ganz herzlichen Dank für diesen hervorragenden Overclocking-Report. Vielleicht könnte man die Ergebnisse noch durch einen Vergleich zwischen Single- und Dual-Channel-Modus des RAM ergänzen. Zumindest im mobilen Sektor treten für die Intel HD Graphics 3000 hierdurch ganz erhebliche Unterschiede auf (z.B. http://www.notebookcheck.com/Test-Lenovo-ThinkPad-X220-IPS-Subnotebook.54703.0.html ). Im Grunde genommen deckt sich das ja auch schön mit dem hier vorgestellten Overclocking-Report

James_Klaist
2014-01-21, 10:54:33
Hey,
Ich kann mich dem Vorposter nur anschließen:
Großartiger Artikel! Gab mir sehr viel Einblick was mit einer On-Board Grafikkarte alles möglich ist!

Ich habe jedoch eine sehr banale frage:
Wie übertakte ich die Intel HD 3000 denn nun? :) In dem Artikel ist lediglich von Resultaten die Rede, nicht aber von Methoden ...

James.