PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum ist die 7800 so schnell?


tomylee
2005-07-02, 22:02:11
wenn man sich diese benches, glaubt man es kaum...eine 7800 pro übertaktet ist 5 mal schneller als die ati 9800pro (ungefähr) ???

http://www.tweakpc.de/hardware/tests/graka/xfx_geforce_7800gtx/s05.php?benchmark=farcry

oder hab ich da was falsch verstanden? Ist doch so, oder? Zumindest bei diesen Grafikeinstellungen...

Ich hab mich kürzlich von so einem 3dmark 2005 screenshot (das mit dem schiff) für eine Idee inspirieren lassen

Ich hab mich gewundert, ob Grafikkarten eigentlich in einer Szene immer alle Polygone berechnen und alle Texturen laden, obwohl immer nur ein Bruchteil davon wirklich gesehen wird

Könnte man nicht mit ein paar puffern (Zeit) und den Daten, die die eingabegeräte liefern, vorausberechnen, wohin der gamer in den nächsten millisekungen steuern wird, und dieses Bild dann in "Auftrag" geben??

Die Leistung würde sich doch nochmal immens erhöhen, und man könnte noch Detailreichere Spiele schaffen, oder?

Ich mein, es wäre doch nur logisch - in echt sieht man auch nicht immer alles, und man rechnet auch nicht alles mit ein, der Mensch rechnet doch meistens mit Ahnungen und Wahrscheinlichkeiten, da das System "Welt" einfach viel zu Komplex ist - könnte man nicht mal auch für das System "PC" solche Praktiken einrichten - also wie gesagt, die Informationen für so einen Algoryhmus würden ja die Eingabegeräte geben, und mit ein bisschen mathe und ein paar Latenzen (ja, denn echtzeit geht es dann wohl nicht mehr so leicht, oder? aber was ist schon z.B. eine Millisekunde, - für den mensch nix, für den PC sehr sehr viel!), dann sollte das doch prinzipiell gehen, oder?

was sagt ihr zu der Idee?
:)

sg

tomylee

Spasstiger
2005-07-02, 22:09:42
Man kann davon ausgehen, dass man ab ca. 50 fps nicht mehr schneller als Frameweise reagieren kann. Ab da erscheinen die Spiele auch butterweich, d.h. man braucht gar nicht mehr Performance. Es wäre sinnlos, wegen ein paar Milisekunden ein Bild anhand von Extrapolation der Eingaben im Voraus zu berechnen, da das Spiel ohnehin schnell genug läuft.
Und wenn man zu wenig fps hat und Bilder im Voraus berechnen würde, hätte das Lags zur Folge, die Eingabe wirkt schwammig und verzögert.

Banshee18
2005-07-02, 22:17:24
wenn man sich diese benches, glaubt man es kaum...eine 7800 pro übertaktet ist 5 mal schneller als die ati 9800pro (ungefähr) ???

http://www.tweakpc.de/hardware/tests/graka/xfx_geforce_7800gtx/s05.php?benchmark=farcry

oder hab ich da was falsch verstanden? Ist doch so, oder? Zumindest bei diesen Grafikeinstellungen...



tomylee

Was gibts da falsch zu verstehen? Eine 7800GTX hat 3 mal so viele Quads wie eine 9800 Pro (2 vs. 6), einen höheren Chip- und Speichertakt, doppelt so viel Ram, mehr Vertexunits, eine verbesserte Architektur und und und... Das ist also kaum verwunderlich.

Schonmal was von Z-Culling gehört?

MfG

Banshee

Tritonus
2005-07-02, 22:53:59
Was gibts da falsch zu verstehen? Eine 7800GTX hat 3 mal so viele Quads wie eine 9800 Pro (2 vs. 6), einen höheren Chip- und Speichertakt, doppelt so viel Ram, mehr Vertexunits, eine verbesserte Architektur und und und... Das ist also kaum verwunderlich.

Schonmal was von Z-Culling gehört?

MfG

BansheeSo wie er es formuliert hat kommt es mir vor als würde er die GeForce 7800GTX mit einer übertakteten "Radeon 7800Pro(siehe oben) verwechseln!

tomylee
2005-07-03, 11:43:55
ne ich meinte schon de Nvidia Karte...

z-culling, nein, muss mal suchen was das ist...
ist das das, was ich meine?

sg

tomylee

Freakazoid
2005-07-03, 11:51:59
Ja wieso ist die Radeon 9800 Pro eigentlich soviel schneller als meine Geforce3 TI 500. Kannst du mir das erklären?

Quasar
2005-07-03, 12:50:53
wenn man sich diese benches, glaubt man es kaum...eine 7800 pro übertaktet ist 5 mal schneller als die ati 9800pro (ungefähr) ???

http://www.tweakpc.de/hardware/tests/graka/xfx_geforce_7800gtx/s05.php?benchmark=farcry

". Bis zum Erscheinen von Doom 3 oder Half Life 2 stellt Farcry also bis lang das Maximum an Grafikqualität in unseren Benchmarks dar. "

Die sollten mal ihre Standardtexte überarbeiten ;)

Gast
2005-07-03, 13:21:55
etwas was auserhalb vom bildschirm liegt wird sowieson nicht gerendert, die polygone werden am bildschirmrand quasi abgeschnitten.

damit wird unnötiges rendern außerhalb des bildschirmes schon mal verhindert. early-z-culling versucht dann auch in der tiefe möglichst effizient und möglichst nichts zuviel zu rendern.

und grafikkarten können bilder im voraus berechnen, das nennt sich prerendering.

das blöde daran ist dass sich der mensch aber mittendrin durchaus entscheiden kann sich in die andere richtung zu bewegen, und dieser befehl dann erst einige frames (je nach prerenderlimit) ausgeführt wird, was dann zu den gefürchteten mouselags führt.

bei hohen frameraten dürfte das kaum auffallen, im grenzbereich kann es aber den unterschied zwischen gut spielbar und kaum spielbar ausmachen.

doom3 verwendet beispielsweise kein prerendering, weshalb es zumindest im SP auch in den grenzbereichen zwischen 20 und 30fps sehr gut spielbar bleibt, und man frameraten über 30fps schon fast als luxus bezeichnen kann.

Pompos
2005-07-03, 13:22:52
Ich hab mich gewundert, ob Grafikkarten eigentlich in einer Szene immer alle Polygone berechnen und alle Texturen laden, obwohl immer nur ein Bruchteil davon wirklich gesehen wird

Könnte man nicht mit ein paar puffern (Zeit) und den Daten, die die eingabegeräte liefern, vorausberechnen, wohin der gamer in den nächsten millisekungen steuern wird, und dieses Bild dann in "Auftrag" geben??

Die Leistung würde sich doch nochmal immens erhöhen, und man könnte noch Detailreichere Spiele schaffen, oder?

Ich mein, es wäre doch nur logisch - in echt sieht man auch nicht immer alles, und man rechnet auch nicht alles mit ein, der Mensch rechnet doch meistens mit Ahnungen und Wahrscheinlichkeiten, da das System "Welt" einfach viel zu Komplex ist - könnte man nicht mal auch für das System "PC" solche Praktiken einrichten - also wie gesagt, die Informationen für so einen Algoryhmus würden ja die Eingabegeräte geben, und mit ein bisschen mathe und ein paar Latenzen (ja, denn echtzeit geht es dann wohl nicht mehr so leicht, oder? aber was ist schon z.B. eine Millisekunde, - für den mensch nix, für den PC sehr sehr viel!), dann sollte das doch prinzipiell gehen, oder?

was sagt ihr zu der Idee?
:)

sg

tomylee
Soweit ich weiß, wird schon längst nicht mehr alles berechnet, sondern nur noch das was man sieht, zwar nicht zu 100% (also doch noch einwenig mehr). Die Kyros haben es sehr effektiv getan, wie es mit den aktuellen Grafikkarten aussieht weiß ich nicht.

Das mit dem vorrausberechnen würde ich aber sein lassen. Könnte zu unschönen Erlebnissen kommen.

Coda
2005-07-03, 15:08:58
Soweit ich weiß, wird schon längst nicht mehr alles berechnet, sondern nur noch das was man siehtDie Vertexpipeline wird zumindest für alles komplett durchlaufen das man an die Grafikkarte schickt.

AlgoryhmusWo wächst denn die Algoryh-Frucht?

Lokadamus
2005-07-03, 15:16:03
wenn man sich diese benches, glaubt man es kaum...eine 7800 pro übertaktet ist 5 mal schneller als die ati 9800pro (ungefähr) ???

http://www.tweakpc.de/hardware/tests/graka/xfx_geforce_7800gtx/s05.php?benchmark=farcry

oder hab ich da was falsch verstanden? Ist doch so, oder? Zumindest bei diesen Grafikeinstellungen...mmm...

Wieviele Pipelines hat die 9800 Pro und die 7800Pro?

Spasstiger
2005-07-03, 15:29:18
mmm...

Wieviele Pipelines hat die 9800 Pro und die 7800Pro?

Was ist denn eine 7800 Pro? Oder wolltest du nur nochmal auf den Schreibfehler anspielen?

Ailuros
2005-07-03, 16:03:58
Wo wächst denn die Algoryh-Frucht?

Auf dem Baum Laia-laia :P Die schmecken mir eigentlich selber gut, nur dass bei mir eben die Terminologie eingeboren ist und ich zu weniger Schreibfehler komme *kicher*

-----------------------------------------------

Die Verwerfung von Daten ist so alt wie der Z-buffer, nur wurden eben mit den Jahren diese Methoden konstant verfeinert und ergo stieg auch die Effizienz.

Wie man jetzt verwirft und wie effizient ist dann meistens eine Design-Entscheidung.

Soweit ich weiß, wird schon längst nicht mehr alles berechnet, sondern nur noch das was man sieht, zwar nicht zu 100% (also doch noch einwenig mehr). Die Kyros haben es sehr effektiv getan, wie es mit den aktuellen Grafikkarten aussieht weiß ich nicht.

KYRO war ein deferred renderer; verdammt vereinfacht er verzoegert den Renderungs-prozess und verwirft Daten dabei. Die Sammlung von Daten koennte aber wenn man bei solchen Designs nicht vorsichtig genug ist bei der Entwicklung zu Kopfschmerzen fuehren.

Die meisten anderen Architekturen werden IMR (immediate mode renderers) genannt (soll aber nicht heissen dass ein deferred renderer alles und immer verzoegert und auch dass eine immediate mode renderer alles und immer ohne Verzoegerung bearbeitet).

Heutzutage gibts Kombination von Methoden wie hierarchical Z, fast Z-clear usw. die hauptsaechlich fuer front to back zugeschnitten sind und wo immer back to front oder random order benoegtigt wird kommt einfach early Z zum Spiel. Das letztere ist quasi eine Verzoegerung des Rendering-Prozesses durch die jeweilige Anwendung, wobei natuerlich auch die dementsprechende HW in GPUs vorhanden sein muss.

tomylee,

Was genau wundert Dich so an dem Ganzen? Die 7800 hat 3x mal so viele Einheiten wie eine 9800PRO und die zweite ist auch ungefaehr 2 Jahre alt (was eine sehr lange Zeit in diesem Markt ist). ATI's R4xx high end Linie ist auch schon um einiges schneller als der R350 und aehnliche Leistungssteigerungen wie bei der 7800 kann man auch von ATI's kommenden R520 erwarten.

Lokadamus
2005-07-03, 17:27:36
Was ist denn eine 7800 Pro? Oder wolltest du nur nochmal auf den Schreibfehler anspielen?mmm...

Mein Fehler, kann mir die komische Bezeichnung von NVidia nicht merken ;).
Worauf ich anspielen wollte, sollte klar sein:
ATI 9800 Pro = 8 Pipelines
NVidia 7800 Irgendwas komisches am Ende = 24 Pipelines

Den meisten Wumms holen sich die Grafikkarten aus den Pipelines und jedesmal, wenn die Anzahl der Pipelines erhöht wurde, gabs eine merkbare Steigerung der Leistung.
Die nächsten Karten mit mehr Wumms werden die sein, die 32 Pipelines haben. Durch Optimierungen wird zwar auch mehr Leistung herausgeholt, aber irgendwie nicht soviel, wie durch mehr Pipelines. Kennt jemand zufällig eine Seite, wo die ganzen Grakas + Anzahl der Pipelines angegeben ist, bzw. ein Test mit allen möglichen Karten? Bei Toms Hardware müsste so ein Test sein, wenn ich mich richtig erinnere ...

DaBrain
2005-07-03, 17:30:50
:| ... 1024*768 4*AA 8*AF

Die 9800 Pro ist gleichauf mit der ... 5900XT ?
Da stimmt doch was nicht.
(Insgesamt führen die NV Karten irgendwie überdruchschnittlich oft...)

Übrigens bricht die 9800 Pro bei hohen Auflösungen + AA sowieso ein, da sie nicht genug Speicher dafür hat. Ich würde aber nicht sagen, dass die 7800 deshalb 5 mal so schnell ist.

Man kann mit der 9800 Pro noch gut spielen. :)

Spasstiger
2005-07-03, 18:08:01
:|
Übrigens bricht die 9800 Pro bei hohen Auflösungen + AA sowieso ein, da sie nicht genug Speicher dafür hat. Ich würde aber nicht sagen, dass die 7800 deshalb 5 mal so schnell ist.

Wenn eine Speicherlimitierung zu Performanceeinbrüchen führt, muss man auch das berücksichtigen, insofern kann es schon Situationen geben, wo eine GeForce 7800 GTX 5-mal so schnell ist wie eine Radeon 9800 Pro.
Im Codecreatures Benchmark hat übrigens Blaires 7800 GTX SLI Gespann 11-mal so viele fps erreicht wie meine Radeon 9700 @ Pro-Chiptakt (80,3 fps vs. 7,3 fps), siehe Benchmark-Forum. Einstellung war 1600x1200 mit 4xAA und 16:1 AF.

Gast
2005-07-03, 19:36:57
wie schnell die einzelnen chips theoretisch sein müssten kann sich ja jeder ausrechnen, nur muss man die performance auch effektiv ausnutzen können, in den news hier bei 3dcenter wurde doch erwähnt das der G70 nur etwa die hälfte der zusätlichen leistung aus den extra pipes hat, ein weiteres beispiel ist die parhelia, als sie noch niemand richtig getestet hatte dachte mann sie schlägt alles von ati und nvidia mit extremen abstand, weil mann nur die zahlen gesehen hat, dann war die entäuschung umso größer weil matrox es nicht geschaft hat ihre leistung auch für spiele auszunutzen

tokugawa
2005-07-03, 19:44:32
Ich hab mich kürzlich von so einem 3dmark 2005 screenshot (das mit dem schiff) für eine Idee inspirieren lassen

Ich hab mich gewundert, ob Grafikkarten eigentlich in einer Szene immer alle Polygone berechnen und alle Texturen laden, obwohl immer nur ein Bruchteil davon wirklich gesehen wird


Laden schon, weil der Videospeicher einfach schneller ist als die Festplatte oder das System-RAM.


Ich mein, es wäre doch nur logisch - in echt sieht man auch nicht immer alles, und man rechnet auch nicht alles mit ein, der Mensch rechnet doch meistens mit Ahnungen und Wahrscheinlichkeiten, da das System "Welt" einfach viel zu Komplex ist - könnte man nicht mal auch für das System "PC" solche Praktiken einrichten - also wie gesagt, die Informationen für so einen Algoryhmus würden ja die Eingabegeräte geben, und mit ein bisschen mathe und ein paar Latenzen (ja, denn echtzeit geht es dann wohl nicht mehr so leicht, oder? aber was ist schon z.B. eine Millisekunde, - für den mensch nix, für den PC sehr sehr viel!), dann sollte das doch prinzipiell gehen, oder?


Die Klasse der Computergrafik-Algorithmen die das tun sind sogenannte "Visibility" (Sichtbarkeit) Algorithmen; viele solche Algorithmen sind schon recht gut erforscht und entwickelt und wird (je nach Szenario, da Outdoor-Terrain-Szenen und Indoor-Szenen jeweils andere Vorraussetzungen haben) in Spielen auch verwendet.

Wird aber immer noch erforscht, und neue Varianten von Sichtbarkeitsalgorithmen für Echtzeitrendering (für Spiele relevant) werden laufend auf den Computegrafik-Konferenzen (SIGGRAPH, Eurographics) diskutiert und präsentiert.

tomylee
2005-07-04, 01:02:29
@tokugawa

kewl, das wollte ich wissen, danke

@all, sorry für die Fehler und die Missverständnisse, aber mit Grafikkarten habe ich mich seit der Geforce 256 nicht mehr so sehr auseinandergesetzt

Dass die 7800 so viele Pipelines hat, wusste ich nicht, bzw habs übersehen, überlesen...

bin halt zum Audiofreak geworden...

sg

tomylee

tokugawa
2005-07-04, 01:20:53
Ein Universitäres Forschungsprojekt, das speziell für Spiele Visibility Algorithmen (unter anderem) entwickelt, wäre das EU-geförderte Gametools-Projekt:

http://www.gametools.org/

Im Buch GPU Gems 2 gibt's von einem Assistenten der TU Wien den ich kenne auch einen Artikel über ein spezielleres Visibility Thema (Occlusion Query).

drmaniac
2005-07-04, 09:39:01
warum die 7800er so schnell ist ?

vielleicht weil sie anscheinend unterfiltert und damit bös' betrügt in dem sie schlechtere Qualität mit mehr FPS verkauft :

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3219000#post3219000

also wenn das stimmt, dann Schande über Nvidia !

ich will in 2005 SELBER entscheiden dürfen, wieviel Qualität ich habe. ich brauche keine xxx FPS und dafür eine besch...eidene Bildqualität...

gruntzmaker
2005-07-04, 12:05:25
Die 7800GTX ist schnell...
...aber nur unter 1600x1200 mit 8aa, 4af kann sie dann 45% schneller sein als eine Geforce 6800 GT, das ist eigentlich lahm oder nicht?
In 1280x1024 und ohne Quali-features ist sie dann noch satte 15-20% schneller, toll ähm ja... ich warte dann auf die nächste Generation, wenn ihr mich fragt ;)

Gast
2005-07-04, 12:11:21
In 1280x1024 und ohne Quali-features ist sie dann noch satte 15-20% schneller, toll ähm ja... ich warte dann auf die nächste Generation, wenn ihr mich fragt ;)

toll, dafür reicht in der regel auch eine 6600GT.

gruntzmaker
2005-07-04, 12:14:23
toll, dafür reicht in der regel auch eine 6600GT.

Mag sein, aber die kostet auch keine 550€ ;)
Und ich meine, dass etwas anderes ausser Quali-features nichts für den Kauf einer GTX spricht.

Lightning
2005-07-04, 12:14:59
In 1280x1024 und ohne Quali-features ist sie dann noch satte 15-20% schneller, toll ähm ja... ich warte dann auf die nächste Generation, wenn ihr mich fragt ;)

Da kannst du lange warten, wenn der Prozessor limitiert. Und an die 15-20% glaube ich jetzt auch noch nicht, eigentlich müssten das noch deutlich weniger sein.
1280x1024 ohne AA und AF ist heutzutage eine Einstellung, die für HighEnd-Karten keine Relevanz hat.

tokugawa
2005-07-04, 18:34:12
Die 7800GTX ist schnell...
...aber nur unter 1600x1200 mit 8aa, 4af kann sie dann 45% schneller sein als eine Geforce 6800 GT, das ist eigentlich lahm oder nicht?
In 1280x1024 und ohne Quali-features ist sie dann noch satte 15-20% schneller, toll ähm ja... ich warte dann auf die nächste Generation, wenn ihr mich fragt ;)

Wenn (wie andere schon erwähnt haben) andere Komponenten bei dieser niedrigen Auflösung der Flaschenhals sind, ist es nur klar dass sie bei solchen niedrigen Auflösungen nicht gefordert ist, und dadurch das Restsystem bremst.

Schnellerer Prozessor, schnelleres RAM, schnellerer Chipsatz und eine 7800GTX wird auch bei der niedrigereren Auflösung mehr als 15-20% schneller sein.

Obwohl heutige Prozessoren, RAM und Chipsätze bei dieser Auflösung wohl generell die 7800 GTX bremsen.

Gast
2005-07-04, 18:54:58
Mag sein, aber die kostet auch keine 550€ ;)
Und ich meine, dass etwas anderes ausser Quali-features nichts für den Kauf einer GTX spricht.

klar, wer mit diesen einstellungen zufrieden ist, für den ist alles über einer 6800nu/6600GT sinnlos.

aber seltsamerweise gibt es leute die gerne eine bessere qualität hätten und da gibt es durchaus schon sachen wo eine 6800GT mit 1280x1024/960 mit 4xFSAA und 16xAF an ihre grenzen kommt.

es gibt bestimmt auch noch einige 9800pro/xt besitzer, für welche der leistungssprung zur 7800er gigantisch ist, man muss sich ja nicht jede generation mit einer neuen high-end-karte eindecken ;)

Gast
2005-07-05, 10:38:17
warum ist die erde eine scheibe?

natürlich ist eine 7800gtx viel schneller als eine 9800Pro,
die 9800pro architektur ist ja auch schon 3-4 jahre alt

OBrian
2005-07-07, 04:10:26
@all, sorry für die Fehler und die Missverständnisse, aber mit Grafikkarten habe ich mich seit der Geforce 256 nicht mehr so sehr auseinandergesetzt

Dass die 7800 so viele Pipelines hat, wusste ich nicht, bzw habs übersehen, überlesen...

bin halt zum Audiofreak geworden...
hättest Du besser gleich dazugesagt und einige komische Antworten erspart, oder was hättest Du gesagt, wenn Dich einer fragt: "hab gehört, diese neue Compact Dics soll viel besser klingen als die Wachsrollen, die ich bisher mit meinem Phonographen aufgenommen habe, kann das denn sein??"

Naja, der Fortschritt läßt sich nicht aufhalten :)

vinacis_vivids
2005-07-07, 06:47:11
Naja, der Fortschritt läßt sich nicht aufhalten :)


Ich sehe in der 7800GTX keinen "Fortschritt". Zumindest keinen der sich unmittelbar auf die Qualität auswirkt. Für mich ist das lediglich einne rohe Aufstockung der Performance.

Tritonus
2005-07-07, 06:54:01
hättest Du besser gleich dazugesagt und einige komische Antworten erspart, oder was hättest Du gesagt, wenn Dich einer fragt: "hab gehört, diese neue Compact Dics soll viel besser klingen als die Wachsrollen, die ich bisher mit meinem Phonographen aufgenommen habe, kann das denn sein??" Stimmt, klingt aber lustig! :biggrin:

Ich sehe in der 7800GTX keinen "Fortschritt". Zumindest keinen der sich unmittelbar auf die Qualität auswirkt. Für mich ist das lediglich einne rohe Aufstockung der Performance.Das ist wohl mehr oder weniger auch Sinn eines Refresh-Chips, da es dennoch höhere Quali (höherer AA/AF Modus) ermöglicht.

Gast
2005-07-07, 12:11:46
Ich sehe in der 7800GTX keinen "Fortschritt". Zumindest keinen der sich unmittelbar auf die Qualität auswirkt. Für mich ist das lediglich einne rohe Aufstockung der Performance.

naja, TAA ist imo schon ein riesen sprung in der qualität.

TiggleD
2005-07-07, 13:52:11
...der Mensch rechnet doch meistens mit Ahnungen und Wahrscheinlichkeiten, da das System "Welt" einfach viel zu Komplex ist - könnte man nicht mal auch für das System "PC" solche Praktiken einrichten...
Mit solchen Praktiken wurde lange gearbeitet. Im gegensatz zur 'realen Welt' ist man bei der Betrachtung eines Bildschirms in der Lage, das näher zu betrachten, was nicht im Focus des Auges liegt.
Deine Augen sehen nur das Objekt scharf, auf welches du guckst. Blickwinkel von ca. 15°Grad. Theoretisch würde es genügen, wenn auch auf dem Bildschirm nur das 'wirklich relevante' scharf wäre. Doch wer entscheidet was relevant ist? Wer entscheidet was für den jeweiligen User gerade relevant ist? Um diesem Dilemma aus den Weg zu gehen, soll alles super aussehen. Selbst da kleinste Blatt in größter Entfernung. Zweifellos haben solche grafischen Gimmicks kaum etwas mit dem eigentlichem 'Spass am Spiel' zu tun. Doch bevor irgendwer ein Spiel kauft, informiert er sich darüber. Wenn die Tester grafische Mängel, im genannten Sinn, erkennen und ihre Benotung dementsprechend anpassen, wäre die Folge daß keiner das Spiel kauft. Das finden die Hersteller garnicht gut. Also wird mehr an die grafische Darstellung gefeilt als es für die Mehrzahl der Benutzer sinn macht. In diesem Zusammenhang dreht sich die Spirale Hardware <-> Software immer weiter. Alles wird komplexer, aufwändiger, teurer...

Bei der Videokomprimierung ist angesprochenes Thema weiterhing üblich.



Coda: "Ich werde mir deine persönlichen Anfeindungen in Zukunft sicher nichtmehr gefallen lassen." ->Drohung!? Diskutator hat völlig Recht. Du hast Dich in post #10 völlig unnötig über einen Rechtschreibfehler Lustig gemacht. Andere haben für sowas schon Punkte kassiert. Was soll so ein überheblicher shice?