Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : IMC, nativer Multicore, L3-Cache -- Bei AMD hui, bei Intel pfui!?


turboschlumpf
2008-10-25, 19:30:39
Jahrelang haben wir uns anhören müssen, wie fortschrittlich AMDs Architektur mit integriertem Speichercontroller (seit K8), nativem Multicore-Design (seit K9) und dreistufiger Cache-Hierarchie (seit K10) sei.

Und genauso lange haben wir uns anhören müssen, wie rückständig Intels Architektur mit externem Speichercontroller, nicht-nativem Multicore-Design und großem Shared-L2-Cache demgegenüber ist.

Umso mehr wundere ich mich über das, was ich seit einiger Zeit hier im Forum lese:

Plötzlich interessiert sich keiner mehr für Nehalem, bei dem sich abzeichnet, dass er trotz integriertem Speichercontroller, nativem Multicore-Design und dreistufiger Cache-Hierarchie bei gleicher Taktfrequenz nicht nennenswert schneller ist als Yorkfield.

Wo sind also die gravierenden Performance-Vorteile geblieben, die jahrelang propagiert wurden?

pest
2008-10-25, 19:46:07
Wo sind also die gravierenden Performance-Vorteile geblieben, die jahrelang propagiert wurden?

bei Anwendungen die hier kaum Einen interessieren. Bei SPECfp rockt auch der Phenom ;)

Coda
2008-10-25, 19:49:35
Für K8 war der IMC in der Tat sehr vorteilhaft. Auch dem P4 hätte er wohl sehr genützt.

Core 2 brachte aber einige sehr intelligente Prefetch-Mechanismen die das Problem eben auf andere Art und Weise fast genauso gut gelöst haben. Das kostet aber auch Logiktransistoren.

Außerdem ist für Server-Workload eine NUMA-Architektur natürlich sehr vorteilhaft, darüber braucht man wohl nicht streiten.

turboschlumpf
2008-10-25, 19:50:47
Bei AMD war es (integrierter Speichercontroller, natives Multicore-Design und dreistufige Cache-Hierarchie) der heilige Gral, bei Intel interessiert es nicht nur keinen mehr, nein, Nehalem ist plötzlich sogar schlechter als Yorkfield. :uclap:

Coda
2008-10-25, 19:52:13
Du hast irgendwie eine leicht verzerrte Wahrnehmung mein Freund.

Eggcake
2008-10-25, 19:54:20
Es ist nur ein Mal "hui".

Gast
2008-10-25, 19:58:09
viele wege führen nach rom.

es gibt eben viele möglichkeiten probleme zu lösen und die sind in vielen fällen ähnlich effektiv.

vor allem muss mir auch mal jemand erklären warum 1, 2 oder 3 cachestufen fortschrittlicher sein sollen. was ist an einem "nativen" quadcore so fortschrittlich sein? im gegenteil, aus wirtschaftlicher sicht ist intels ansatz sogar wesentlich fortschrittlicher.

das einzige was wirklich fortschrittlich ist, ist der IMC, wenn er denn wirklich funktionieren würde, was bei AMD leider auch heute noch oft nicht oder nur eingeschränkt der fall ist.

Spasstiger
2008-10-25, 19:59:17
Der IMC verschlechtert auf jeden Fall nicht die Performance, von daher gilt schonmal kein Pfui.
Wenn die Performance irgendwo schlechter ist als bei einem gleichgetakteten Yorkfield, dann liegt das am aktivierten Hyperthreading oder am kleineren L2-Cache. Und der L3-Cache taktet nicht mit dem Core-Takt (z.B. 3,33 GHz), sondern mit dem Takt des IMC (z.B. 2,4 GHz). Und die Latenz in Taktzyklen des L3-Cache beim Core i7 ist ca. dreimal so hoch wie die Latenz des L2-Cache beim Core 2.

pool1892
2008-10-25, 21:00:56
nehalem ist in sehr wenigen fällen langsamer als penryn - und da in der regel, weil penryn größere und schnellere caches hat. in vielen bisherigen benchmarks liegt nehalem weit vorn, vor allem bei parallelisierbaren problemen - und da ist der vorsprung nicht gerade klein. in bereichen wie virtualisierung ist nehalem monströs stark im vergleich.
spiele sind halt nur ein sehr kleiner anwendungsbereich, in dem stark serieller code zum einsatz kommt. da helfen nehalem die verbesserungen in sprungvorhersage und geteiltem L3 kaum, genauso ist der imc nicht so extrem wertvoll, weil (etwa bei ki) keine großen datensätze geladen werden müssen.
nehalem ist ein serverprozessor. zufällig ist er auch noch schnell in allem anderen, aber optimiert ist er, um amd die letzte große und sehr margenträchtige bastion streitig zu machen: die 4-und 8-sockel-server.
ach ja, im professionellen workstationbereich mit ebenfalls stark parallelisierten codes rockt die architektur auch.
prozessoren werden eben nicht für spieler gebaut...

Raff
2008-10-25, 21:46:19
prozessoren werden eben nicht für spieler gebaut...

Interessanter Punkt. Gibt's irgendwo offizielle Meldungen, wie viele Kohlen die einzelnen Bereiche (Consumer, Server, ...) bei Intel und AMD abwerfen? Ich habe da keinen Überblick. Die Spieler sind auf schnelle CPUs ja mindestens genauso scharf wie Firmen ... obgleich IMO für so gut wie jeden aktuellen Titel ein 3-GHz-Dualcore (Core 2) dicke ausreicht.

MfG,
Raff

san.salvador
2008-10-25, 22:00:49
Wobei aber Spieler übertakten, Firmen aber nicht. Dadurch kann sehr viel Geld weggespart werden.

Gast
2008-10-25, 23:01:25
Interessanter Punkt. Gibt's irgendwo offizielle Meldungen, wie viele Kohlen die einzelnen Bereiche (Consumer, Server, ...) bei Intel und AMD abwerfen? Ich habe da keinen Überblick. Die Spieler sind auf schnelle CPUs ja mindestens genauso scharf wie Firmen ... obgleich IMO für so gut wie jeden aktuellen Titel ein 3-GHz-Dualcore (Core 2) dicke ausreicht.

MfG,
Raff

Ich glaube da braucht man keine Berichte, da reicht es einen Blick in die Architekturen zu werfen. Alleine SIMD spricht doch eine mehr als deutliche Sprache.
Letztendlich profitieren Spiele nur von der Technik aus dem Pro-Bereich. Genauso profitieren herkömmliche Autos von den Fortschritten aus der Formel-1 Branche. Ein wenig weit hergeholt aber im Grunde stimmts.

Leonidas
2008-10-26, 15:34:33
nehalem ist ein serverprozessor. zufällig ist er auch noch schnell in allem anderen, aber optimiert ist er, um amd die letzte große und sehr margenträchtige bastion streitig zu machen: die 4-und 8-sockel-server.
..


Hier ist schon was dran. Mit einrechnen muß man ja immer, daß Intel und AMD immer dieselbe Prozessorrarchitektur für alle Marktsegmente gleichzeitig nutzen (Atom wäre hier die Ausnahme von der Regel). Intel kann also nicht einfach mal so eine perfekte Server-CPU vorlegen und den Desktop-Markt mit was völlig anderem bedienen. Und da man im Desktop-Markt derzeit glänzend aussieht und Nehalem dort ja auch nicht langsamer ist, ging wohl das Augenmerk der Nehalem-Entwicklung eher dort hin, wie es pool1892 schon sagte: 4- und mehrkernige Server-Systeme, wo AMD richtig gut mit dabei ist.

Avalox
2008-10-26, 15:51:30
Die Diskussion hat etwas daran das Pferd von hinten aufzuzäumen.

Werden noch früh genug Spiele erscheinen, welche das volle Potential Intels neuer Prozessoren nutzen werden und dementsprechend schlechter auf der heutigen Architektur aussehen werden.

Spasstiger
2008-10-26, 15:55:41
Die Diskussion hat etwas davon das Pferd von hinten aufzuzäumen.

Werden noch früh genug Spiele erscheinen, welche das volle Potential Intels neuer Prozessoren nutzen werden und dementsprechend schlechter auf der heutigen Architektur aussehen werden.
Ich denke, bis Spiele deart effizientes Multithreading betreiben und bis man die höhere Rechenleistung auch tatsächlich braucht, wird es ohnehin in allen Marktsegmenten die neue Architektur geben. Momentan tuts ja schon ein Dualcore @ 3 GHz, um in fastjedem Spiel über 30 fps Minimum zu kommen (von Custommaps und Mods mal abgesehen).

Avalox
2008-10-26, 16:00:14
Ich denke, bis Spiele deart effizientes Multithreading betreiben und bis man die höhere Rechenleistung auch tatsächlich braucht

Ist ja nicht nur eine Sache des Multithreadings. Spiele heute werden ja schön um die Unzulänglichkeiten der heutigen Architektur drum rum programmiert.
Diese sind hoch angepasst und deshalb bei Leibe kein wirklicher Benchmark für Intels neuen Ansatz. Natürlich interessiert es den Spieler, aber es ist nur ein kurzfristiges Interesse.

HOT
2008-10-26, 16:23:53
Ob das MT gebraucht wird bei Spielen oder nicht ist eine Sache, Fakt ist, dass die meisten im Moment für einen (virtuell) 6-Kernigen in-Order-Prozessor entwickelt werden und somit dort 4-Kerner massiv im Vorteil sind. Sicher reicht hier der 2-Kerner auch. Jedoch sind die 4-Kerner hier schon signifikant schneller.
Die XBox360 bringt MT für Spiele auf den PC. Gäbe es diese Entwicklung nicht, würden 4-Kerner für Desktop (grösstenteils Spiele) garnichts bringen und wir hätten jetzt einen Sockel715 Havendale anstatt einen Sockel1156 im Desktop-Bereich.

SavageX
2008-10-26, 18:01:00
Wenn das "Problem" beim Nehalem mit Spielen tatsächlich an den deutlich kleineren L2 Caches und dem weder besonders schnellen noch besonders großen L3 Cache liegt, dann erhoffe ich mir von "Optimierungen" eher wenig (zukünftige Spiele werden eher nicht mit weniger Daten hantieren). Wenn nicht schnell genug passende Daten nachgeliefert werden, dann nützt es vermutlich eher wenig, auch alle "virtuellen Kerne" zu berücksichtigen. Man könnte sogar naiv vermuten, dass sich im ungünstigen Fall zwei Threads pro Kern um den knappen Cache prügeln - aber da wird Intel vermutlich eine entsprechend abgestimmte Cachestrategie fahren (schließlich hatten die genug Zeit, das Hyperthreading nochmal am Reißbrett auszutarieren).

Ansonsten macht der Core i7 doch auch bei Spielen eine gute Figur (ist zumindest nicht langsamer als der Vorgänger), dies ist ja schließlich nicht der Übergang vom Pentium 3 zum Pentium 4 ;-)

Gast
2008-10-26, 18:48:59
Der northwood p4 war lange nicht so schlecht wie man immer sagt, erst der refresh ... "prescott".

mapel110
2008-10-26, 18:55:01
Der northwood p4 war lange nicht so schlecht wie man immer sagt, erst der refresh ... "prescott".
Generell bei der ganzen Netburst-Architektur war der Northwood der einzige Lichtblick. Vor dem Nortwood gabs ja noch Willamette.

Coda
2008-10-26, 19:07:35
Der northwood p4 war lange nicht so schlecht wie man immer sagt, erst der refresh ... "prescott".
Der Energieverbrauch war auch bei Northwood ziemlich hoch für die gebotene Leistung. Replay hatten alle P4.

Spasstiger
2008-10-26, 19:48:16
Der Energieverbrauch war auch bei Northwood ziemlich hoch für die gebotene Leistung. Replay hatten alle P4.
Der Athlon XP war aber genauso gefräßig relativ zur Rechenleistung, im idle waren die Athlon XPs sogar eine Katastrophe (30 Watt idle-Verbrauch bei 2 GHz), wenn man nicht von Hand nachgeholfen hat.

Coda
2008-10-26, 21:10:27
Gleicher Fertigungsprozess? Es geht mir darum, dass es Intel schon damals mit der Pentium-M-Architektur sicher möglich gewesen wäre deutlich weniger zu verbrauchen als ein P4 bei gleicher Leistung.

Raff
2008-10-26, 21:46:12
Diese Architektur blieb aber seinerzeit im Notebook, um später aufgeblasen Core 2 im Desktop zu werden. Möglich war's – mit 'nem Dothan @ 2,5 GHz und mindestens FSB200 hat ein Prescott @ 4 GHz schon ziemlich zu kämpfen.

MfG,
Raff

BlackBirdSR
2008-10-26, 22:56:47
Gleicher Fertigungsprozess? Es geht mir darum, dass es Intel schon damals mit der Pentium-M-Architektur sicher möglich gewesen wäre deutlich weniger zu verbrauchen als ein P4 bei gleicher Leistung.

Ich frage mich auch immer, wie sich so erfahrene Leute (die immerhin den PentiumPro entworfen haben), dann vom Management, Marketing und sonstwem dermaßen reinreden lassen, dass der P4 daraus wird.

Auf der anderen Seite hatte man wohl auch keine große Wahl mehr. Immerhin veränderte sich die Position vom unbekannten Designteam ohne Geschichte, zum Haupträger für alle x86-Angelegenheiten. Da will plötzlich jeder in der Firma mitreden, der vorher nur müde gelächelt hat.

=Floi=
2008-10-26, 23:23:06
auf der anderen seite stehn auber auch die ingeneure und die haben eben auch von ihrer arbeit ahnung. Man war sozusagen unter gleichen und da ist es umsomehr verwunderlich. Ich persönlich kann nur tippen, dass extrem auf durchsatz und nicht auf breite gesetzt wurde. (weniger transistoren und weniger fläche bei gleicher leistung etc.)
---
@coda
zum EOL war der p4 aber sehr gut und sparsam in 65nm und im grunde ist es doch egal wie man auf die recheneleistung kommt (ob mit p4@4ghz oder mit 2ghz c2d)
http://www.computerbase.de/news/hardware/prozessoren/intel/2006/dezember/intel_verbrauch_pentium_4_core_2/


---
beim imc holt man sich jetzt genau die nachteile, die es schon ewigkeiten bei amd gibt und ich finde ihn nicht so toll.

beim nativen quadcore wird es ja nicht bleiben, wenn intel hier 2stück davon verbaut und mit SMT dann 16 threads zur verfügnung stehen...

Haarmann
2008-10-27, 12:19:39
Liegt wohl auch an der Auswahl der Benches... die meisst auf "leeren" Systemen gefahren werden.
Etwas Truecrpyt hier und Virenkiller mit Firewall da plus Outlook im Hintergrund - und schon kann die Welt auch anders aussehen.

Wuge
2008-10-27, 18:35:28
Diese Architektur blieb aber seinerzeit im Notebook, um später aufgeblasen Core 2 im Desktop zu werden. Möglich war's – mit 'nem Dothan @ 2,5 GHz und mindestens FSB200 hat ein Prescott @ 4 GHz schon ziemlich zu kämpfen.

MfG,
Raff

Hängt stark von der Anwendung ab. Alles was SSE unterstützt oder dem P4 nicht all zu sehr die Beine stellt, läuft auf dem Dothan wesentlich langsamer.

Es gibt einiges an Anwendungen, da erreicht mein Dothan mit Ach und Krach die IPC-Rate des P4. Da würde dem Dothan auch FSB1600 nicht helfen...

Mies war der P4 hauptsächlich in Spielen. Zum Encoden, Rendern, Crypten etc. war er bei entsprechendem Takt ganz gut geeignet.

Gast
2008-10-27, 19:42:27
Ich frage mich auch immer, wie sich so erfahrene Leute (die immerhin den PentiumPro entworfen haben), dann vom Management, Marketing und sonstwem dermaßen reinreden lassen, dass der P4 daraus wird.

in fast allen bereichen im PC geht der trend zu weniger parallelität und mehr durchsatz/takt.

dass es beim P4 nicht funktioniert hat konnte man wohl kaum voraussehen können, abgesehen davon, dass wohl keiner von uns das notwendige wissen und den notwendigen einblick hat um das ganze beurteilen zu können.

san.salvador
2008-10-27, 19:50:18
in fast allen bereichen im PC geht der trend zu weniger parallelität und mehr durchsatz/takt.
Nur bei der Software nicht. :D

Btw: Shift-Taste im Eimer? ;)

Gast
2008-10-27, 19:57:07
Nur bei der Software nicht. :D


was ja nicht gerade eine tolle situation ist.

BlackBirdSR
2008-10-27, 20:01:49
in fast allen bereichen im PC geht der trend zu weniger parallelität und mehr durchsatz/takt.

dass es beim P4 nicht funktioniert hat konnte man wohl kaum voraussehen können, abgesehen davon, dass wohl keiner von uns das notwendige wissen und den notwendigen einblick hat um das ganze beurteilen zu können.

Die wussten das schon. Man ist nur nicht früh genug ausgestiegen.
Dabei muss man anmerken, dass der Pentium4 nicht mal eben Ende der 90er entwickelt wurde. Das Design begann noch während der heißen Endphase des PentiumPro. Damals war die Power-Wall sicherlich nicht so kritisch und die Leiter des Programms konnten sich noch mehr ihren Ideen hingeben. Aber selbst dann hatten Marketing und Firmenleitung beim P4 weit mehr ihre Finger im Spiel, als das beim P3 der Fall war. Dort hatte man lange Zeit den Luxus, ohne zu viel Eingriffe arbeiten zu können (Thema P5-Bus z.B.).

Intel ist nicht Intel ist nicht Intel. Was die Fiemenleitung tut muss lange nicht dem entsprechen, was die Designteams wirklich tun. Gleichermaßen ist ein Designteam nicht das andere (P5/IA64 vs P6 z.B.)

Pentium4 war keine richtige Niete. Immerhin haben viele Leute aus dem P6-Team daran gearbeitet. Allerdings hat man eindeutig nicht das erreicht, was geplant war: Die µArchitektur auf viele Jahre hin zu etablieren. Mit Beginn der Entwicklung von Prescott, noch während der Willamette-Phase, hat man sehr wohl absehen können, was passiert. Es ist allerdings nicht gerade leicht, so ein Projekt einfach zu verwerfen. Das hat man am Ende dann doch getan, allerdings so spät, dass der P4 auf Ewigkeiten als Versager da steht.

Und Wissen und Einblick muss man nicht selbst besitzen, wenn man sich diese Sachen von den entsprechenden Personen direkt aneignen kann. :)

Avalox
2008-10-27, 20:07:10
Ich frage mich auch immer, wie sich so erfahrene Leute (die immerhin den PentiumPro entworfen haben), dann vom Management, Marketing und sonstwem dermaßen reinreden lassen, dass der P4 daraus wird.



Na eines kann man sich absolut sicher sein, Intel hatte die technische Zukunft absolut anders gesehen, als diese nun eingetroffen ist.

Vermutlich haben sie den Heimmarkt heute bei einem 20++GHz P4x 32Bit Desktop prognostiziert, so auf der Schwelle des 4GByte Debakels mit einer EPIC 64Bit Heim CPU in der Hinterhand.

Der Pentium M war doch nur eine CPU welche aus den widrigen Umständen entstand, dass die Premium CPU halt den kleinen Nachteil des höheren Energieumsatzes hatte. Ein Problem, welches man garantiert noch lösen wollte. Den Pentium M hat man dann eben mit der zweiten Garde billig aus dem Pentium III entwickeln lassen um die Lücke erstmal zu schliessen.

Doch kam alles anders. Man kann doch Intel nur beglückwünschen das Problem Energieumsatz beim damaligen P4 richtig eingeschätzt zu haben, bzw. das Marktpotential von sparsamen Notebook CPUs schon damals richtig erkannt zu haben.

Hätte ja auch mit Netburst wie geplant funktionieren können.. Netburst war doch ein sehr mutiger Schritt und einen unangefochtenen Marktführers würdig. Das Core Design ist doch grandios langweilig. Eben auf Nummer sicher gespielt, eine notwendige Auffangfunktion nach einem missglückten Ausfallschritt.

Spasstiger
2008-10-27, 21:59:59
In der PCGH gibts in Ausgabe 11/2008 ein Interview mit Ronak Singhal, einem führenden Entwickler bei Intel. Da wurde auch das Thema Netburst angesprochen:
PCGH: Sie haben am Pentium 4 mitgearbeitet. Rückblickend: War Netburst ein Fehlschlag?

Ronak Singhal: Nein, absolut nicht, der Pentium 4 war kein Fehlschlag. Wir haben damals im Entwicklungsteam vielleicht einige Entscheidungen getroffen, die wir heute so nicht mehr treffen würden. Wir haben eine Menge Aufwand und Energie investiert, um den Chip so zu designen, dass wir eine höhere Taktfrequenz erreichen - und am Ende haben wir sie nicht erreicht. Und das sieht aus heutiger Sicht aus wie ein Fehler, das will ich nicht bestreiten. Aber es gab auch viele gute Details und insgesamt kann man nicht von einem Fehlschlag sprechen, wenn man bedenkt, wie viele Exemplare wir verkauft haben. Netburst war eine sehr erfolgreiche Architektur und wir haben dadurch viel über manche Technologien gelernt - wie Sie sehen werden, übernehmen wir einige davon auch für die Kerne, die wir heute entwickeln. Hyperthreading ist ein Beispiel dafür, aber es wird noch weitere geben.

BlackBirdSR
2008-10-27, 23:01:25
Na eines kann man sich absolut sicher sein, Intel hatte die technische Zukunft absolut anders gesehen, als diese nun eingetroffen ist.

Vermutlich haben sie den Heimmarkt heute bei einem 20++GHz P4x 32Bit Desktop prognostiziert, so auf der Schwelle des 4GByte Debakels mit einer EPIC 64Bit Heim CPU in der Hinterhand.


Laut Bob Colwell ging man direkt nach dem PentiumPro erst für 2006 vom Umstieg auf 64-Bit im Desktopsegment aus ;)


Das Core Design ist doch grandios langweilig. Eben auf Nummer sicher gespielt, eine notwendige Auffangfunktion nach einem missglückten Ausfallschritt.

Auf abstrakter Ebene sicherlich. Dafür gibts im Detail fast ebensoviel zu bestaunen, wie bei Netburst. Es ist durch die Nähe zum P6 eben nur vertrauter.

V2.0
2008-10-28, 08:07:08
Pentium Netburst war eben auf extrem hohe Taktungen ausgelegt. Ich würde ketzerisch sagen, dass man einen Teil der Chipleistung und Komplexität auf die eigenen Fertigungsfähigkeit verlagern wollte.

Gast
2008-10-28, 20:47:47
Laut Bob Colwell ging man direkt nach dem PentiumPro erst für 2006 vom Umstieg auf 64-Bit im Desktopsegment aus ;)


wir haben jetzt 2008 und der umstieg ist eigentlich gerade erst im gange.

Savay
2008-10-30, 20:02:29
Liegt wohl auch an der Auswahl der Benches... die meisst auf "leeren" Systemen gefahren werden.
Etwas Truecrpyt hier und Virenkiller mit Firewall da plus Outlook im Hintergrund - und schon kann die Welt auch anders aussehen.

du hast schonmal unter vista den performance monitor laufen lassen und mal gemessen wieviel der von dir genannte kram an rechenleistung frisst?

lol es war schon zu p4 zeiten lächerlich als HT zum "windowsverflüssiger" (man muss sich nurmal die heutige news ansehen! O M G ;D) schlechthin hochstilisiert wurde auf ICQ, virenscanner und co als performance fresser zu zeigen...

im übrigen kann man auch annehmen das die consumer zielgruppe die ein solches system dann erwerben eh wert auf nen möglichst "leeres" system legen :) grade die highend user mit zu großem geldbeutel und einem erbsenzä..verzeihung benchmark wahn sind doch idR sehr pedantisch was das angeht :tongue:

Haarmann
2008-10-30, 22:23:05
Savay

Man lese den neusten CT Virentest unter Vista durch... mir egal wieviel Last da angezeigt wird... CTs Stopuhr hat die Sache sehr deutlich gezeigt. Ein Virenkiller kann aus Deinem Renner ne Schnecke machen und jeder Virenwächter bremst Dich gnadenlos aus.

Savay
2008-10-30, 23:09:58
komisch...ich merke keinen unterschied wenn der wächter an ist. :)

ich halte das für maßlos übertrieben. nehmen wir mal meine heutige rechnernutzung als beispiel:

nach ca 9Std gesamtnutzungsdauer kommen bei mir auf firefox.exe 1Std 53min, auf CinergyDvR.exe 1Std 13min, auf dwm.exe 40min (!), auf explorer.exe 20min...auf audiodg.exe 16min, auf mfpmp.exe (drecksüberflüssiger drm scheiß :|) 15min, auf system ganze 12min....svchost nahm 11min in beschlag, der wmplayer.exe liegt bei 8min...

so und JETZT kommt avguard.exe mit imposanten 5min...

wo dir nen virenguard deinen rechner "ausbremst" ist mir nen rätzel wo schon der dwm das 9 fache an rechenleistung frisst! du brauchst nur einmal nen firefox tab aufzuhaben mit ner schlecht gecodeten seite oder nen explorer fenster eines ordners voller jpegs und es frisst das x fache an rechenleistung...

sry ich hab hier ne turion krücke mit nichtmal 2GHz...und selbst bei dem ding spielt es einfach absolut keine rolle ob der avguard noch an ist oder nicht. ;)

edit:
im übrigen könnten die ct zahlen an der echtzeitüberwachung der dateien liegen...das geht natürlich je nachdem wie man das konfiguriert hat auf die I/O performance der HDD und des dateisystems aber sicher nicht auf die CPU last. :)

Gast
2008-10-31, 08:48:20
komisch...ich merke keinen unterschied wenn der wächter an ist. :)

ich halte das für maßlos übertrieben. nehmen wir mal meine heutige rechnernutzung als beispiel:

nach ca 9Std gesamtnutzungsdauer kommen bei mir auf firefox.exe 1Std 53min, auf CinergyDvR.exe 1Std 13min, auf dwm.exe 40min (!), auf explorer.exe 20min...auf audiodg.exe 16min, auf mfpmp.exe (drecksüberflüssiger drm scheiß :|) 15min, auf system ganze 12min....svchost nahm 11min in beschlag, der wmplayer.exe liegt bei 8min...

so und JETZT kommt avguard.exe mit imposanten 5min...

wo dir nen virenguard deinen rechner "ausbremst" ist mir nen rätzel wo schon der dwm das 9 fache an rechenleistung frisst! du brauchst nur einmal nen firefox tab aufzuhaben mit ner schlecht gecodeten seite oder nen explorer fenster eines ordners voller jpegs und es frisst das x fache an rechenleistung...

sry ich hab hier ne turion krücke mit nichtmal 2GHz...und selbst bei dem ding spielt es einfach absolut keine rolle ob der avguard noch an ist oder nicht. ;)

edit:
im übrigen könnten die ct zahlen an der echtzeitüberwachung der dateien liegen...das geht natürlich je nachdem wie man das konfiguriert hat auf die I/O performance der HDD und des dateisystems aber sicher nicht auf die CPU last. :)

avguard.exe - lol AntiVir, wahrscheinlich die FreeWare-Edition, oder?
Antivir (auch die Vollversion) bestitzt ja nich mal die Funktionalität das Verhalten von laufenden Processen zu überwachen, und genau diese kostet Zeit. Andere AVs besitzen diese Funktionalität, wodurch sie aber das System etwas einbremsen.

Haarmann
2008-10-31, 10:33:26
Savay

Der Unterschied ist oft in dem Bereich, der nur Messbar, aber nicht fühlbar ist. Und da die Mehrzahl der Nutzer ihre Rechner nie ohne Virenwächter einsetzt, wissen sie ohnehin nicht, wie sich der Rechner ohne bewegte...

Gerade Antivir hat es am Anfang von Vista geschafft, den Netzwerkdurchsatz zu ruinieren. 1 statt 100MBit sind dann irgendwie wirklich nicht gerade ein Segen...

Und der Virenwächter ist ohnehin nur eine der möglichen Bremsen, die, wie Du gesagt hast, auch im IO Teil wirken kann. Da läuft noch weit mehr... ich nannte Truecrypt, da wären auch Teamspeak und der Headset Treiber (CMI 106 zB) bei USB Headsets, die uU mitlaufen. Multiplayer Performance wird ohnehin irgendwie gerne "vergessen", dabei werden sehr viele Spiele mehrheitlich so gespielt. Dann lässt man wohl all die schönen Fenster offen und die IMs. Da kommt was zusammen...

Ich nehme an, dass auch die neue Intel Generation unter Last sich weniger träge anfühlt - eigentlich hoffe ich das zumindest.

Gast
2008-10-31, 12:23:11
Ein Virenkiller kann aus Deinem Renner ne Schnecke machen und jeder Virenwächter bremst Dich gnadenlos aus.

da bringt dir aber keine noch so schnelle cpu etwas, da limitiert die festplatte.

Savay
2008-10-31, 13:04:28
avguard.exe - lol AntiVir, wahrscheinlich die FreeWare-Edition, oder?
Antivir (auch die Vollversion) bestitzt ja nich mal die Funktionalität das Verhalten von laufenden Processen zu überwachen, und genau diese kostet Zeit. Andere AVs besitzen diese Funktionalität, wodurch sie aber das System etwas einbremsen.

natürlich antivir und natürlich freeware...wer sich nen norten/avast dreck aufs system haut und sich wundert das das system scheiße läuft und nix sicherer wird der ist halt selber schuld. die größte sicherheitslücke sitzt immernoch vorm monitor... :)

warum sollte ich laufende prozesse überwachen? hm? das ist weder nen ad/spyware killer noch soll es trojaner/bots die drauf sind blocken. das teil ist nen FILEscanner...damit scanne ich runtergeladene dateien nach evtl schädlingen und was das angeht ist antivir absolut top. und das macht der auch in echtzeit und im hintergrund. ich sehe ehrlich gesagt überhaupt keinen nachteil darin wenn man antivir als filescanner nutzt :)

gut wer mitm ungepatchten IE5 auf irgendwelchen warez und porno seiten surft der braucht wohl wirklich nen avast/norten monster das wirklich als eierlegende wollmilchsau wohlmöglich noch inkl. pseudo firewall alles macht nur das system weder sicherer und garantiert nicht schneller... :biggrin:

Haarmann
2008-10-31, 13:07:47
Gast

Setzen wir den Fall, meine Festplatte erreichte je wirklich die 100MB/s...

Meinst Du wirklich, dass eine CPU mit dem Datenstrom schon überfordert ist?

Oder anders, auf mein Vista/Antivir Problem bezogen... Glaubst Du ein Sempron Mobile mit 1.8 GHz reicht nur aus um 1MBit/s analysieren zu können?

Also wenn ich da die ganzen WLAN Analysetools mir ansehe, hege ich starke Zweifel an diesen Aussagen.

Die Engpässe scheinen hier nicht in den Ausführungseinheiten zu liegen... die CPU besteht aber auch nicht nur aus diesen.

Ich hab die genauen Ursachen nicht analysiert, ist auch nicht meine Aufgabe, aber ich kann die Folgen nachlesen und selbst feststellen.

Nur weil ein Nehalem in C2 optimierten Benches der Vergangenheit schlecht dasteht, heisst das nicht, dass er langsamer ist und seine Vorteile nicht ausspielen kann.

Interessanter Ansatz zB wäre imho, dass man all die Benches, in denen der Phenom einen C2 schlechter dastehen lässt, auch mal mit einem Nehalem laufen lässt. Schlägt der Nehalem den C2, dann haben diese Vorteile sich doch ausgewirkt.

Savay

Würden die Programme nicht immer, die CT gibt mir da recht, Fehlalarme auslösen.... könnte man deren Sinn wirklich erkennen.

Savay
2008-10-31, 13:12:50
Ich nehme an, dass auch die neue Intel Generation unter Last sich weniger träge anfühlt - eigentlich hoffe ich das zumindest.

ich glaube eher du wirst mit windows 7 einen größeren effekt spüren wenn es denn wirklich die von MS versprochenen verbesserungen im ansprechverhalten spendiert bekommt :)

das problem ist doch seit den ersten dualcores nicht mehr in der zur verfügung stehenden rechenleistung zu suchen...grade was virenscanner und co angeht. sondern eher beim thread management des OS.

prominentes beispiel sind da ja auch die AMD duals grade zu anfang im bezug auf die sync probleme wofür man extra den CPU treiber installieren musste.

ich glaube wenn du die prozesse mal auf bestimmte cores festpinnst und das per hand etwas optimierst und auch die prioritäten ein wenig anpasst wirst du auf nem dualcore davon mehr merken als dir nen nahalem auf nem unoptimierten OS jemals bringen wird :)

nomadhunter
2008-10-31, 18:38:38
Ich denke eher, dass die Festplatte im Desktopbetrieb derzeit das langsamste Glied der Kette ist. Alle SSD-Tester schreiben doch, was für ein gigantischer Fortschritt das zur alten Festplatte ist und die Ladezeiten für größere Anwendungen (Photoshop; und natürlich Windows selber) sprechen auch für sich. Die Rechenleistung ist für den Desktopbetrieb eh schon völlig überdimensioniert (da langweilt sich meistens auch ein Pentium Dual-Core, den man fast schon nachgeschmissen bekommt) und RAM kann man sich dank der günstigen Preise auch mehr kaufen, als man jemals brauchen wird. Mag sein, dass ein besseres OS noch etwas rausholen kann, aber nicht so viel, wie es mit einer SSD möglich ist.

Coda
2008-10-31, 19:09:20
prominentes beispiel sind da ja auch die AMD duals grade zu anfang im bezug auf die sync probleme wofür man extra den CPU treiber installieren musste.
Das hat damit rein gar nichts zu tun.

=Floi=
2008-11-01, 20:09:20
zitat
avguard.exe - lol AntiVir, wahrscheinlich die FreeWare-Edition, oder?
Antivir (auch die Vollversion) bestitzt ja nich mal die Funktionalität das Verhalten von laufenden Processen zu überwachen, und genau diese kostet Zeit. Andere AVs besitzen diese Funktionalität, wodurch sie aber das System etwas einbremsen.

das stimmleider überhaupt nicht. antivir kann das und es funktioniert problemlos. norton ist doch absoluter mist. Die firewall bloclt ausgehende sachenn icht wirklich, oder man kann sich zu tode klicken etc. netzwerkfreigbe mit norton? no way etc.

Gast
2008-11-02, 12:40:27
zitat
avguard.exe - lol AntiVir, wahrscheinlich die FreeWare-Edition, oder?
Antivir (auch die Vollversion) bestitzt ja nich mal die Funktionalität das Verhalten von laufenden Processen zu überwachen, und genau diese kostet Zeit. Andere AVs besitzen diese Funktionalität, wodurch sie aber das System etwas einbremsen.

das stimmleider überhaupt nicht. antivir kann das und es funktioniert problemlos. norton ist doch absoluter mist. Die firewall bloclt ausgehende sachenn icht wirklich, oder man kann sich zu tode klicken etc. netzwerkfreigbe mit norton? no way etc.
ich empfehle dir mal die letzte CT-ausgabe zu lesen.
Antivir, vorallem in der Freeware Version, ist total abgespeckt was Funktionsumpfang anbelangt. Die Processüberwachung kann es z.B. nicht! Und genau das macht andere AV-Programme langsamer.

Black-Scorpion
2008-11-02, 14:29:40
natürlich antivir und natürlich freeware...wer sich nen norten/avast dreck aufs system haut und sich wundert das das system scheiße läuft und nix sicherer wird der ist halt selber schuld.
Du kennst Avast also schon? Sieht nach der Aussage jedenfalls nicht so aus.
Gegenüber AV ist der "Dreck" nicht abgespeckt und die Updates sind sehr klein und funktionieren reibungslos.
Bleib ruhig bei deinem halben Virenscanner wenn du damit glücklich bist.

Savay
2008-11-02, 22:55:52
Du kennst Avast also schon? Sieht nach der Aussage jedenfalls nicht so aus.
Gegenüber AV ist der "Dreck" nicht abgespeckt und die Updates sind sehr klein und funktionieren reibungslos.
Bleib ruhig bei deinem halben Virenscanner wenn du damit glücklich bist.

ich kenne avast...es ist auf dem rechner meines vaters installiert!

und danke ja ich habe sehr viel spass mit meinem "halben" virenscanner...denn mehr brauche ich nicht. wer seinen verstand benutzt braucht keinen prozess scanner und systemüberwachungs schnickschnack, noch nen expliziten ad oder spyware filter! ich habe seit meinen Windows 2000 zeiten nichtmal mehr ne PFW installiert! wozu auch?

ich brauche nur nen filescanner mit einer zuverlässigen erkennungsrate (und dort ist Antivir einfach momentan mit das beste was man bekommen kann http://www.virusbtn.com/news/2008/09_02) der nicht dauernd fehlalarme auslöst, mich mit unnötig vielen popups stört und so wenig wie möglich ressourcen frisst und angemessen schnell ist...das ist alles was ein virenprogramm für mich erledigen muss und das ist alles was ich davon erwarte und genau das bietet mir antivir. :)

im übrigen funktionieren die updates bei antivir auch reibungslos...und sind so klein das es mich nichtmal per Handy über EDGE stört wenn es sich aktualisiert :wink:

aber langsam ists genug OT...das war definitv das letzte von mir hierzu :)